디지털 라이브러리[ 검색결과 ]
비디오 프레임 선택을 통한 주거 공간 인간 행동 인식 모델 경량화 방안 제안
http://doi.org/10.5626/JOK.2023.50.12.1111
주거공간의 CCTV 영상으로부터 인간 행동을 인식하는 것은 주거 공간의 보안 및 안전 문제에 선제적 대응을 가능하게 하기 때문에, 이를 위한 인공지능 모델을 개발하는 것이 필요하다. 또한, 실제 현장에서 유의미하게 활용할 수 있기 위해서는 인간 행동 인식 모델이 기존의 서버급 컴퓨팅 파워에서 구동되는 인공지능 모델들보다 훨씬 경량화되면서 동시에 인식 성능은 유지하는 것이 필수적이다. 따라서, 본 논문에서는 인간 행동 인식 모델의 경량화 및 실행 속도 향상과 함께 우수한 인식 성능을 확보할 수 있도록 비디오 프레임 선택을 통한 cross-modal PoseC3D 모델을 제안한다. Cross-modal PoseC3D 모델은 RGB 이미지 데이터와 인간 스켈레톤 데이터를 함께 결합하여 하나의 모델에 학습시키는 방식으로 데이터 정보를 최대한 유지하며 모델 경량화를 가능하게 한다. 또한, 학습 및 추론 과정에 전체 비디오 프레임을 이용하지 않고, 프레임의 정보값 차이를 기반으로 유의미한 프레임들만을 선택 및 이용하여 빠른 실행 속도를 확보한다. 본 논문에서 제안한 주거 공간 인간 행동 인식 모델을 AI Hub에 공개된 주거 및 공용 공간 이상행동 데이터셋에 대해 학습하여 성능을 검증한 결과, 기존의 모델들보다 경량화된 모델로 다양한 조건에서 유사하거나 향상된 인식 성능을 보임을 검증하였다.
MOnCa2: 지능형 스마트폰 어플리케이션을 위한 사용자 이동 행위 인지와 경로 예측기반의 고수준 콘텍스트 추론 프레임워크
MOnCa2는 스마트폰에 장착된 센서와 온톨로지 추론 기반의 지능형 스마트폰 어플리케이션 구축을 위한 프레임워크다. 기존에 연구되었던 MOnCa는 온톨로지 인스턴스로 등록된 센서 값에 대한 정보를 바탕으로 사용자의 현재 상황을 판단 및 추론하였다. 이러한 방식은 사용자의 공간 정보나 주변에 존재하는 객체가 무엇인지 판단하는 것은 가능하나 사용자의 물리적인 콘텍스트(이동 행위, 이동할 목적지 등등) 판단하는 것은 불가능했다. 본 논문에서 설명하는 MOnCa2는 사용자 개개인의 물리적인 콘텍스트를 판단 및 추론하기 위해 스마트폰의 장착된 센서를 바탕으로 행위 및 이동 상황에 대응하는 인지 모델을 구축하고, 구축된 모델을 기반으로 사용자의 실시간 행위 및 이동 상황에 대해 1차적인 추론을 수행하며, 추론된 1차적인 콘텍스트에 대해 온톨로지 기반의 2차 추론을 통해 지능형 어플리케이션에 필요한 고수준 사용자 콘텍스트를 생산한다. 따라서 본 논문은 스마트폰의 가속도 센서를 기반으로 사용자의 이동에 필요한 행위를 인지하는 기법, 스마트폰의 GPS 신호를 바탕으로 이동 목적지와 경로를 예측하는 기법, 온톨로지 실체화를 적용하여 고수준 콘텍스트를 추론하는 과정에 초점을 맞추어 설명을 한다.
시각장애인 보조를 위한 영상기반 휴먼 행동 인식 시스템
본 논문에서는 시각장애인의 장면인식 보조를 위해, 귀걸이 형 블루투수 카메라와 행동인식 서버간의 통신을 통해 휴먼의 행동을 인식하는 시스템을 제안한다. 먼저 시각장애인이 귀걸이 형 블루투수카메라를 이용하여 원하는 위치의 장면을 촬영하면, 촬영된 영상은 카메라와 연동된 스마트 폰을 통해 인식서버로 전송된다. 인식 서버에서는 영상 분석 알고리즘을 이용하여 휴먼 및 객체를 검출하고 휴먼의 포즈를 분석하여 휴먼 행동을 인식한다. 인식된 휴먼 행동 정보는 스마트 폰에 재 전송되고 사용자는 스마트 폰을 통해 text-to-speech (TTS)로 인식결과를 듣게 된다. 본 논문에서 제안한 시스템에서는 실내 외에서 촬영된 실험데이터에 대해서 60.7%의 휴먼 행동 인식 성능을 보여 주었다.