KAIST, 차세대 패러다임 동영상 인식기술 개발

2024.07.23 09:03:25

전기및전자공학부 김창익 교수 연구팀
자율주행, 의료, 스포츠 분야 활용 기대

 

[더테크 조재호 기자]  국내 연구진이 기존 트랜스포머 기반 모델 대비 4배의 빠른 속도를 달성한 동영상 인식기술을 개발했다.

 

KAIST 김창익 교수 연구팀이 챗GPT와 같은 거대 언어 모델의 근간이 되는 트랜스포머로 구축된 기존 비디오 모델보다 8배 낮은 연산량과 4배 낮은 메모리 사용량으로도 높은 정확도를 기록 한 초고효율 동영상 인식 모델 ‘비디오맘바(VideoMamba)’를 개발했다고 23일 밝혔다. 

 

비디오맘바는 기존 트랜스포머 기반 모델들이 가지고 있는 높은 계산 복잡성을 해결하기 위해 
설계된 새로운 동영상 인식 모델이다. 

 

김창익 교수 연구팀의 비디오맘바는 선택적 상태 공간 모델(Selective State Space Model, Selective SSM) 메커니즘을 활용해 선형 복잡도로 효율적인 처리가 가능하다. 이를 통해 비디오맘바는 동영상의 시공간적 정보를 효과적으로 포착해 긴 종속성을 가진 동영상 데이터도 효율적으로 처리할 수 있다. 

 


연구팀은 동영상 인식 모델의 효율성을 극대화하기 위해 1차원 데이터 처리에 국한된 기존 선택적 상태 공간 메커니즘을 3차원 시공간 데이터 분석이 가능하도록 시공간적 전방 및 후방 선택적 상태 공간 모델을 도입했다. 연구팀은 다양한 동영상 인식 벤치마크에서 비디오맘바의 성능을 검증했다. 

 

이번에 개발한 비디오맘바는 영상 분석이 필요한 다양한 응용 분야에서 효율적이고 실용적인 솔루션을 제공할 수 있다. 자율주행에서는 주행 영상을 분석해 도로 상황을 정확하게 파악하고, 보행자와 장애물을 실시간으로 인식해 사고를 예방할 수 있다. 의료 분야에서는 수술 영상을 분석해 환자의 상태를 실시간으로 모니터링하고 긴급 상황 발생 시 신속히 대처할 수 있다. 스포츠 분야에서는 경기 중 선수들의 움직임과 전술을 분석해 전략을 개선하고, 훈련 중 피로도나 부상 가능성을 실시간으로 감지해 예방할 수 있다. 

 

김창익 KAIST 교수는 “비디오맘바의 빠른 처리 속도와 낮은 메모리 사용량, 그리고 뛰어난 성능은 우리 생활에서의 다양한 동영상 활용 분야에 큰 장점을 제공할 것이다”고 연구의 의의를 설명했다.

 

이번 연구에는 KAIST 전기및전자공학부 박진영 석박사통합과정, 김희선 박사과정, 고강욱 박사과정이 공동 제1 저자, 김민범 박사과정이 공동 저자, 그리고 KAIST 전기및전자공학부 김창익 교수가 교신 저자로 참여했다. 

 

조재호 기자 jjh@the-tech.co.kr
Copyright @더테크 (TEC TECH) Corp. All rights reserved.




23건의 관련기사 더보기

  • 네이버포스트
  • X
  • Facebook