KR20140046197A - 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체 - Google Patents

동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체 Download PDF

Info

Publication number
KR20140046197A
KR20140046197A KR1020120112358A KR20120112358A KR20140046197A KR 20140046197 A KR20140046197 A KR 20140046197A KR 1020120112358 A KR1020120112358 A KR 1020120112358A KR 20120112358 A KR20120112358 A KR 20120112358A KR 20140046197 A KR20140046197 A KR 20140046197A
Authority
KR
South Korea
Prior art keywords
motion recognition
motion
recognition
movement
unit
Prior art date
Application number
KR1020120112358A
Other languages
English (en)
Inventor
임성수
Original Assignee
주식회사 씨씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨씨 filed Critical 주식회사 씨씨
Priority to KR1020120112358A priority Critical patent/KR20140046197A/ko
Publication of KR20140046197A publication Critical patent/KR20140046197A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체에 관한 것으로, 동작인식기반 컨텐츠가 구동되면 한 대의 카메라를 이용하여 사용자의 영상을 촬영하는 단계; 상기 촬영된 영상에서 사용자의 신체 중 지정된 일부를 객체로서 인식하는 단계; 상기 인식된 객체의 3차원적 움직임을 판단하는 단계; 및 상기 판단된 움직임을 기반으로 상기 동작인식기반 컨텐츠의 반응 제어를 수행하는 단계를 포함하여 이루어져, 저가의 컴퓨팅 시스템에서도 충분이 구현이 되도록 함으로써 교육이나 게임, 시뮬레이션 등 동작인식기반 컨텐츠의 새로운 패러다임을 제시한 것이다.

Description

동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체 {AN APPARATUS AND METHOD FOR PROVIDING GESTURE RECOGNITION AND COMPUTER-READABLE MEDIUM HAVING THEREON PROGRAM}
본 발명은 동작인식에 관한 것으로, 더욱 상세하게는 저사양 시스템에 적합한 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체에 관한 것이다.
최근 유비쿼터스 기술과 가상현실 기반 기술들이 발전함에 따라 동작 인식 처리 기술들이 연구되고 있다. 동작인식 처리 기술은 예컨대 손 동작을 이용한 전자 기기와 컴퓨터 제어에 관한 HCI(Human-Computer Interface) 관련 기술, 사람에게 부착한 센서를 통해 전달되는 데이터를 이용해 움직임을 인식하여 컴퓨터 애니메이션 등에 활용하는 기술 등이 있다.
동작 인식 처리 기술은 카메라를 통해 입력되는 이미지를 분석하여 동작을 인식하거나 추적하는 시스템 기술이나, 보안 또는 감시를 필요로 하는 장소에서 위험한 동작들을 자동적으로 찾아내는 감시 시스템 기술 등 다양한 분야에 응용이 가능하다. 또한 동작 인식 처리 기술을 이용하면 게임이나 오락분야에서는 사용자들이 자신의 신체를 이용하여 가상의 기구나 장비들을 제어할 수 있으며, 운동 자체에 의미를 두는 자세 교정이나 재활 훈련과 같은 치료 분야에서도 동작 인식 처리 기술이 이용될 수 있다.
종래 동작 인식 기술에 따르면, 프레임 차 기반 작업자 동작인식 방법(Motion Recognition of Worker Based on Frame Difference)은 작업자의 동작을 측정한 동영상에서 프레임을 추출하고, 인접한 두 프레임 사이의 이미지 차를 사용하여, 고정된 배경과 움직이는 대상을 분리한다. 분리된 차 영상에서 에지 검출을 실시하고 지정된 위치별로 에지의 중간값을 추정하여 작업자의 동작을 분석한다. 이와 같은 방법은 가장 일반적인 웹캠 방식으로 저렴하며 추가적인 장비 설치가 없다. 하지만 X, Y축 이외의 Z값을 인식하지 못하기 때문에 물건을 집는다던가 하는 거리인식이 필요한 동작은 컨텐츠에 반영할 수 없다는 단점이 있다.
EBMotion MotionCapture 방식은 측정하고자 하는 각 관절부위에 센서를 장착하고, 2.4GHz 무선 수신기를 통해 데이터를 수집하여 실시간 모션캡쳐를 한다. 이 방식은 교육이나 게임 등의 상용 컨텐츠의 주 기기로 사용하기에는 많은 장비들을 설치하는 번거로움이 있다. 또한 프로그램이 복잡하고 고가의 장비이다.
한편 Reactix system과 같이 프로젝터를 통해 바닥이나 벽에 디스플레이 되는 영상 영역내로 사람이나 어떤 물체의 이동이 있을 경우 이를 감지하여, 디스플레이되는 영상이 실시간으로 반응하여 변화를 일으키는 시스템도 있고, 이와 유사하게 바닥이나 벽면, 테이블 등에 센싱 수단을 설치하여 사람들의 동작을 인식하고 그에 따른 반응을 나타내는 시스템도 소개된 바 있으나, 이런 방식들은 공간적 제약을 많이 받아 그 한계가 존재하며, 프로젝터나 그 외 장비의 가격이 일반 소비자들에게 큰 부담으로 작용할 수 있다는 문제점이 있다.
이처럼 동작인식 기술은 다양한 활용도를 갖지만, 그에 요구되는 시스템의 부담이 만만치 않아 보급화에 어려움이 따르는 문제점이 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 한 대의 카메라로 동작인식을 수행하는 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체를 제공함에 있다.
본 발명의 또 다른 목적은 고가의 동작인식 장비를 대체하여 저가의 장비로도 고정밀도의 동작인식 구현이 가능한 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체를 제공하는데 있다.
상기와 같은 목적을 달성하기 위해 본 발명의 실시예에 따른 동작인식 장치는, 대상을 촬영하여 디지털 신호로 출력하되, 한 대의 카메라로 구성되는 촬상부; 상기 디지털 신호로부터 원영상을 복원하고, 복원된 영상에서 실루엣을 검출하여 기지정된 객체를 인식하고 차영상 기법을 통해 배경영상을 삭제하는 객체 인식부; 상기 인식된 객체의 특징점을 검출하고 추적하여 사용자의 움직임을 판단하되, 평면 움직임은 상기 특징점의 x, y 좌표의 변화를 이용하고 거리 움직임은 소실점을 기반으로 객체의 크기 변화를 이용하여 사용자의 움직임을 판단하는 동작 인식부; 동작인식기반 컨텐츠를 저장하는 저장부; 상기 동작인식기반 컨텐츠의 구동을 제어하고, 상기 객체 인식부 및 동작 인식부를 제어하여 사용자의 움직임에 따른 동작인식을 수행하고, 상기 판단된 사용자의 움직임을 기반으로 상기 동작인식기반 컨텐츠의 반응 제어를 수행하는 제어부; 및 상기 동작인식기반 컨텐츠의 구동 영상을 출력하는 디스플레이부를 포함하여 구성될 수 있다.
바람직하게, 상기 객체 인식부는 정밀도를 높이기 위하여 주변 환경에 대한 값을 동작인식 전에 미리 저장할 수 있다.
또한 본 발명에 따른 동작인식 방법은, 동작인식기반 컨텐츠가 구동되면 한 대의 카메라를 이용하여 사용자의 영상을 촬영하는 촬영 단계; 상기 촬영된 영상에서 사용자의 신체 중 지정된 일부를 객체로서 인식하는 인식 단계; 상기 인식된 객체의 3차원적 움직임을 판단하는 판단 단계; 및 상기 판단된 움직임을 기반으로 상기 동작인식기반 컨텐츠의 반응 제어를 수행하는 수행 단계를 포함하여 이루어질 수 있다.
바람직하게, 상기 촬영 단계 전, 주변 환경에 대한 값을 동작인식 전에 미리 저장하는 저장 단계를 더 포함하여 이루어질 수 있다.
바람직하게, 상기 인식 단계는 사용자 신체의 실루엣을 검출하여 기지정된 객체를 인식하고 차영상 기법을 통해 배경영상을 삭제하는 것을 특징으로 한다.
바람직하게, 상기 판단 단계는 상기 인식된 객체의 특징점을 검출하고 추적하여 사용자의 움직임을 판단하되, 평면 움직임은 상기 특징점의 x, y 좌표의 변화를 이용하고 거리 움직임은 소실점을 기반으로 객체의 크기 변화를 이용하여 움직임을 판단하는 것을 특징으로 한다.
또한 본 발명은 전술한 바와 같은 동작인식 방법의 각 단계를 실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체를 제공한다.
본 발명에 따르면, 고가의 동작인식 장비를 대체하여 저가의 장비로도 고정밀도의 동작인식 구현이 가능한 동작인식 S/W기술을 제시함으로써, 사용자의 부담을 경감할 뿐만 아니라, 동작인식 기반 기술 산업의 발전을 가속화시키는 효과가 있다.
또한 본 발명에 따른 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체를 통해 다양한 컨텐츠의 사용자 인터페이스에 적용함으로써 컨텐츠 보급화를 용이하게 하는 효과가 있다.
도 1은 본 발명의 실시예에 따른 동작인식 장치의 구성을 나타내는 블록도이다.
도 2는 본 발명의 실시예에 따른 객체인식 과정을 나타낸 예시도이다.
도 3은 본 발명의 실시예에 따른 특징점 추출 방식을 나타낸 예시도이다.
도 4는 본 발명의 실시예에 따른 소실점 기반 동작인식 방법을 나타낸 예시도이다.
도 5는 본 발명의 실시예에 따른 동작인식 방법의 과정을 나타낸 순서도이다.
이하, 본 발명의 바람직한 실시 예들을 첨부한 도면을 참조하여 상세히 설명한다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.
도 1은 본 발명의 실시예에 따른 동작인식 방법을 제공하기 동작인식 장치의 구성을 나타내는 블록도이고, 도 2는 본 발명의 실시예에 따른 객체인식 과정을 나타낸 예시도이며, 도 3은 본 발명의 실시예에 따른 특징점 추출 방식을 나타낸 예시도이다. 도 4는 본 발명의 실시예에 따른 소실점 기반 동작인식 방법을 나타낸 예시도이다.
도 1을 참조하면, 동작인식 장치(100)는, 촬상부(110), 객체 인식부(120), 동작 인식부(130), 저장부(140), 제어부(150), 디스플레이부(160)를 포함할 수 있다.
상기 촬상부(110)는 PC의 웹캠이나 휴대전화 카메라와 같은 디지털 카메라인 것이 바람직하며, 촬영대상의 영상을 촬영하여 디지털 신호로서 출력한다. 상기 촬상부(110)는 한 대의 카메라로 구성되어, 시스템 구성의 비용부담을 줄이는 것이 바람직하다.
상기 객체 인식부(120), 동작 인식부(130)는 데스크탑이나 노트북, 태블릿, 스마트폰과 같은 디지털 기기에서 소프트웨어적으로 구현되며, CD나 DVD와 같은 기록매체에 저장된 형태로 제공되거나, 응용 프로그램 설치 파일 형태로 온라인을 통해 제공될 수 있다. 예컨대 스마트폰 어플의 형태로 제공될 수 있다. 상기 저장부(140)는 동작인식기반 컨텐츠를 저장할 수 있다. 또한 상기 저장부(140)는 상기 객체 인식부(120) 및 동작 인식부(130)의 프로그램 데이터를 저장하며, 그 외 시스템의 운영 데이터 외에도 각종 데이터를 저장할 수 있다. 예컨대 게임 프로그램이나 교육 프로그램 등 동작인식 기반의 컨텐츠 데이터를 저장할 수 있다.
상기 객체 인식부(120)는 상기 디지털 신호를 받아 촬영된 영상을 복원하며, 복원된 영상에서 실루엣을 검출하여 기지정된 객체를 인식하고 차영상 기법을 통해 배경영상을 삭제한다. 예컨대 사용자의 얼굴이나 눈동자, 손바닥, 손가락 등을 인식하고, 지정된 객체 이외의 영상은 삭제하여 불필요한 계산을 방지하고 저사양의 시스템에서도 원활한 구동이 이루어지도록 할 수 있다. 또한 상기 객체 인식부(120)는 빛의 밝기나 주변 영향을 최소한으로 받기 위해 주변 환경에 대한 값을 동작인식 전에 미리 저장하여 정밀도를 높일 수 있다.
예컨대 상기 객체 인식부(120)는 도 2에 도시된 바와 같이 배경영상을 미리 입력받아 주변밝기나 배경 사물의 형상 등을 미리 인지하고, 실제 입력 영상에서 사용자의 실루엣 만을 검출한 후, 배경영상을 삭제하여 사용자의 영상에 대해서만 연산을 수행하도록 할 수 있다.
기존의 동작인식 기술은 인식률이 좋을 경우 고가의 장비를 필요로 하고 공간적 확보가 선행되어야 하는 단점을 가지고 있기 때문에 일반인을 대상으로 하는 교육이나 게임 등의 상용 컨텐츠에 적용 시키는데 한계가 있었다. 또한 저가의 장비로 구동이 되는 기술이 있으나 이는 인식률(거리 값에 대해서는 인식하지 못함)이 떨어져 실제 상용 컨텐츠에는 주 장비로 사용을 할 수가 없다. 그러한 이유로 본 발명에 따른 저렴하고 설치가 용이한 장비로 구동되는 동작인식 기술이 필요하다.
상기 동작 인식부(130)는 인식된 객체의 특징점을 검출하고 추적하여, 사용자의 움직임을 판단한다. 예컨대 도 3에서와 같이 손바닥의 형상에서 인체 관절에 따른 특징점을 검출하고, 검출된 특징점들의 움직임을 추적하여 보다 적은 연산량으로 동작인식을 수행할 수 있다. 이때, 상기 동작 인식부(130)는 사용자의 좌우상하의 움직임이나 기울어짐은 상기 특징점의 평면좌표(X축, Y축) 변화를 기반으로 판단하고, 멀어지고 가까워지는 거리의 움직임은 소실점을 이용하여 인식된 객체의 크기 변화를 기반으로 판단한다.
소실점 이용 방법은 평행하게 나가는 두 개의 선이 어느 한 지점에서 하나의 점으로 만나게 되는 것과 같이, 사물의 거리가 멀어지게 되면 조금씩 작아 보이게 되는 현상을 이용하여 최초에 측정한 사이즈에서 커지고 작아지는 사이즈 변화를 계산하여 추적하고 있는 물체의 거리값을 알아내는 방법이다. 예컨대 도 4에서와 같이, 인식된 객체보다 커진 객체는 가까워진 것으로, 인식된 객체보다 작아진 객체는 멀어진 것으로 인식하며, 그 크기 변화에 따라 멀어지거나 가까워진 거리 값을 계산하고, 그에 적합한 동작인식을 수행할 수 있다.
이하 설명에서는 손바닥 인식을 예로 들어 설명하지만 이에 국한되는 것은 아니다. 손바닥을 지정된 객체로서 인식하는 경우, 손바닥을 제외한 배경을 삭제함으로써, 불필요한 연산을 제외하고 필요범위에 대한 연산만을 수행하여 처리속도를 향상시키고 배경과의 오인률을 하락시킬 수 있다. 이때 색상 기반 윤곽선 추출 방법이 사용될 수 있는데, 최초 콘텐츠 진입 시 사람의 피부색을 확인하여 평준화 시켜주며 손색을 통한 인식범위를 제한함으로서 컴퓨터가 불필요한 연산을 하지 않도록 하여 연산 속도를 향상시킬 수 있다. 또한 윤곽이 구분된 손으로부터 y 좌표값을 계산하여 손가락 끝점을 탐지할 수 있다. 손가락 끝점의 위치를 탐지한 후에 R채널만을 이용하여 추적을 하며 손동작 인식에 있어서 차영상 기법을 적용하여 잡영상 제거를 수행할 수 있다.
혹은 팔이나 어깨 등의 인체관절을 인식하여 신체부위를 파악하고 지정된 객체를 인식, 추적할 수도 있다. 즉, 관절을 인체의 특징점으로 하여 특징점을 자동으로 추출하고 특징점을 추적하는 것으로서, 한 대의 고정 카메라 환경에서 사람을 검출하여 실루엣을 추출하고 인체 구조의 특징을 추출한다. 먼저 배경 영상 모델링 기법과 차영상 기법을 이용하여 신체 비율 정보와 코너점 추출을 결합하여 인체의 특징을 검출하고 검출된 특징점을 블록 매칭 방법을 적용하여 추적할 수 있다.
상기 동작인식은 40프레임 이상의 영상에서도 반응할 수 있고, 1.2 내지 5미터 거리에서의 객체 인식이 바람직하지만 이에 국한되는 것은 아니다.
상기 제어부(150)는 PC나 스마트폰과 같은 디지털기기에 탑재되는 CPU 혹은 MCU인 것이 바람직하며, 본 발명에 따른 동작인식 장치(100)에서 상기 저장부(140)에 저장된 동작인식기반 컨텐츠의 구동을 제어한다. 혹은 상기 제어부(150)는 상기 저장부(140)에 저장된 제어 프로그램 혹은 연산 프로그램일 수 있다.
또한 상기 제어부(150)는 상기 디스플레이부를 통해 사용자의 동작을 유도 또는 안내할 수 있고, 상기 객체 인식부(120) 및 동작 인식부(140)를 제어하여 사용자의 움직임에 따른 동작인식을 수행하고, 인식된 결과에 따른 제어, 즉, 상기 동작인식기반 컨텐츠의 반응 제어를 수행한다. 예컨대 게임 동작 제어, 동작활동교육의 동작수행평가 등을 수행할 수 있다.
바람직하게, 상기 동작인식 장치(100)의 구동 사운드를 출력하는 스피커부(미도시)가 본 발명에 따른 시스템에 더 구비될 수 있는데, 상기 스피커부는 독립적인 스피커 장비 형태로 구비되거나, 상기 디스플레이부(160)나 동작인식 장치(100)의 내/외부에 일체형으로 구비될 수 있다. 또한 도시되진 않았으나 사용자의 입력을 위한 키보드, 키패드, 타블렛, 마우스, 마이크나 이와 동등한 수준의 입력수단이 추가로 더 구비될 수 있다.
도 5는 본 발명의 실시예에 따른 동작인식 방법의 과정을 나타낸 순서도이다.
도 5를 참조하면, 특정 컨텐츠에 따라 촬영이 개시되면 S210 단계에서 한 대의 카메라를 이용하여 사용자의 영상을 촬영한다. 이때, 사용자의 영상을 촬영하기 전에 주변 환경에 대한 값을 동작인식 전에 미리 저장하여 인식의 정밀도를 높일 수 있다.
이후, S220 단계에서 상기 촬영된 영상에서 사용자의 신체 중 지정된 일부를 객체로서 인식하는데, 사용자 신체의 실루엣을 검출하여 기지정된 객체를 인식하고 차영상 기법을 통해 배경영상을 삭제함으로써 불필요한 연산을 하지 않도록 하여 연산 속도를 향상시키고, 시스템에 걸리는 부하를 줄일 수 있다. 즉 시스템 요구도를 낮출 수 있다.
상기 컨텐츠에 따라 사용자의 동작이 요구 되면, S230 단계에서 사용자가 움직임에 따라 상기 인식된 객체의 3차원적 움직임을 판단한다. 이때 전술한 바와 같이, 상기 인식된 객체의 특징점을 검출하고 추적하여 사용자의 움직임을 판단하되, 평면 움직임은 상기 특징점의 x, y 좌표의 변화를 이용하고 거리 움직임은 소실점을 기반으로 객체의 크기 변화를 이용하여 움직임을 판단할 수 있다.
상기 판단이 완료되면, S240 단계에서 상기 판단된 움직임을 기반으로 동작인식에 따른 반응을 수행한다. 이때 정상적인 동작 범위나 동작 패턴을 미리 저장하고 있다가, 저장된 정상적인 동작과 상기 판단된 움직임을 비교하여 정상동작과 오동작을 구분할 수도 있다.
상기 컨텐츠가 종료될 때까지, 상기 S230 단계에서 S240 단계는 반복적으로 수행될 수 있다.
상기와 같은 장치 및 방법들은 사용자의 동작 반응이 중요한 게임이나 교육 등의 컨텐츠에 사용될 수 있는데, 이하 동작교육활동 컨텐츠에 적용되는 사례를 설명하기로 한다. 동작활동은 유아의 인지, 신체, 정서적 측면을 함께 다룰 수 있는 특별한 교육적 가치를 지니고 있는 활동으로, 활동에 참여하는 동안 유아는 여러 가지 동작기술을 탐색하고 실행하며 연습해볼 수 있는 기회를 갖는다. 그러나 이러한 기술을 완성하고 이들을 발전시켜서 성숙된 단계를 이끌어나가기 위해서는 교사의 중재가 필요한데, 본 발명에서와 같은 동작인식 기반의 프로그램 및 시스템을 통해 그 과정을 수행해나갈 수 있다.
동작활동교육 프로그램이 시작되면, 한 대의 카메라를 이용하여 학습자의 영상을 촬영한다. 이때, 전술한 바와 같이, 학습자의 영상을 촬영하기 전에 주변 환경에 대한 값을 동작인식 전에 미리 저장하여 인식의 정밀도를 높일 수 있다.
이후, 상기 촬영된 영상에서 학습자의 신체 중 지정된 일부를 객체로서 인식하는데, 학습자 신체의 실루엣을 검출하여 기지정된 객체를 인식하고 차영상 기법을 통해 배경영상을 삭제함으로써 불필요한 연산을 하지 않도록 하여 연산 속도를 향상시키고, 시스템에 걸리는 부하를 줄일 수 있다.
상기 동작활동교육 프로그램 중 학습자의 동작이 필요한 과정이 되면, 화면의 메시지 알림이나 음성 안내 등을 통해 학습자의 동작을 요구하고, 학습자가 움직임에 따라 상기 인식된 객체의 3차원적 움직임을 판단한다. 이때 전술한 바와 같이, 상기 인식된 객체의 특징점을 검출하고 추적하여 학습자의 움직임을 판단하되, 평면 움직임은 상기 특징점의 x, y 좌표의 변화를 이용하고 거리 움직임은 소실점을 기반으로 객체의 크기 변화를 이용하여 움직임을 판단할 수 있다.
상기 판단이 완료되면, 상기 판단된 움직임을 기반으로 한 동작활동교육을 수행해 나갈 수 있다. 즉, 객체 및 객체의 움직임에 따른 학습 평가, 진도 진행 결정, 반복 학습 등을 수행할 수 있다. 이때 전술한 바와 같이, 정상적인 움직임 패턴을 저장하고 있다가 학습자의 움직임과 비교하여 그 유사도에 따른 교육과정을 수행할 수 있다.
예컨대, 유아교육 컨텐츠에서 원과 같은 어떤 도형을 그리도록 했을 때, 아이가 그린 도형의 크기가 작다면, 아이의 성격을 소심함으로 분류하고 그에 따라 더 큰 동작을 유도할 수 있는 프로그램이나 반복학습을 수행할 수 있다.
혹은 재활 프로그램에서 사용자의 움직임이 정상 움직임 패턴과 차이가 난다면 그에 따라 부족한 동작 부위를 판단하고 해당 부위, 예컨대 팔꿈치를 강화할 수 있는 움직임을 유도할 수 있다.
또한 본 발명은 전술한 본 발명에 따른 동작인식 방법의 각 단계를 실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 제공한다.
컴퓨터로 판독 가능한 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 데이터, 즉 코드 또는 프로그램 형태의 데이터가 저장되는 모든 종류의 기록 장치를 지칭한다. 이러한 컴퓨터로 판독 가능한 기록 매체는 예컨대 ROM, RAM 등의 메모리와, CD-ROM, DVD-ROM 등의 저장 매체, 자기 테이프, 플로피 디스크 등의 자기 저장 매체, 광 데이터 저장 장치 등이며, 예컨대 인터넷을 통한 전송 형태로 구현되는 경우도 포함한다. 또한 이러한 컴퓨터로 판독 가능한 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 판독 가능한 데이터가 저장되고 실행될 수 있다.
그러나 이러한 컴퓨터로 판독 가능한 기록 매체에 대한 상세한 설명은 도 1내지 도 5를 참조로 설명한 본 발명에 따른 동작인식 방법과 중복되므로 생략한다.
이상에서는 본 발명에서 특정의 바람직한 실시 예에 대하여 도시하고 또한 설명하였다. 그러나 본 발명은 상술한 실시 예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능할 것이다.
110: 촬상부 120: 객체 인식부
130: 동작 인식부 140: 저장부
150: 제어부 160: 디스플레이부

Claims (7)

  1. 대상을 촬영하여 디지털 신호로 출력하되, 한 대의 카메라로 구성되는 촬상부;
    상기 디지털 신호로부터 원영상을 복원하고, 복원된 영상에서 실루엣을 검출하여 기지정된 객체를 인식하고 차영상 기법을 통해 배경영상을 삭제하는 객체 인식부;
    상기 인식된 객체의 특징점을 검출하고 추적하여 사용자의 움직임을 판단하되, 평면 움직임은 상기 특징점의 x, y 좌표의 변화를 이용하고 거리 움직임은 소실점을 기반으로 객체의 크기 변화를 이용하여 사용자의 움직임을 판단하는 동작 인식부;
    동작인식기반 컨텐츠를 저장하는 저장부;
    상기 동작인식기반 컨텐츠의 구동을 제어하고, 상기 객체 인식부 및 동작 인식부를 제어하여 사용자의 움직임에 따른 동작인식을 수행하고, 상기 판단된 사용자의 움직임을 기반으로 상기 동작인식기반 컨텐츠의 반응 제어를 수행하는 제어부; 및
    상기 동작인식기반 컨텐츠의 구동 영상을 출력하는 디스플레이부를 포함하는 것을 특징으로 하는 동작인식 장치.
  2. 제1항에 있어서, 상기 객체 인식부는
    정밀도 향상을 위해 동작인식 전에 주변 환경 값을 미리 저장하는 것을 특징으로 하는 동작인식 장치.
  3. 동작인식기반 컨텐츠가 구동되면 한 대의 카메라를 이용하여 사용자의 영상을 촬영하는 촬영 단계;
    상기 촬영된 영상에서 사용자의 신체 중 지정된 일부를 객체로서 인식하는 인식 단계;
    소실점 및 특징점 추적을 기반으로 상기 인식된 객체의 3차원적 움직임을 판단하는 판단 단계; 및
    상기 판단된 움직임을 기반으로 상기 동작인식기반 컨텐츠의 반응 제어를 수행하는 수행 단계를 포함하는 것을 특징으로 하는 동작인식 방법.
  4. 제3항에 있어서,
    상기 촬영 단계 전, 주변 환경에 대한 값을 동작인식 전에 미리 저장하는 저장 단계를 더 포함하는 것을 특징으로 하는 동작인식 방법.
  5. 제3항에 있어서, 상기 인식 단계는
    사용자 신체의 실루엣을 검출하여 기지정된 객체를 인식하고 차영상 기법을 통해 배경영상을 삭제하는 것을 특징으로 하는 동작인식 방법.
  6. 제3항에 있어서, 상기 판단 단계는
    상기 인식된 객체의 특징점을 검출하고 추적하여 사용자의 움직임을 판단하되, 평면 움직임은 상기 특징점의 x, y 좌표의 변화를 이용하고 거리 움직임은 소실점을 기반으로 객체의 크기 변화를 이용하여 움직임을 판단하는 것을 특징으로 하는 동작인식 방법.
  7. 제3항 내지 제6항 중 어느 한 항에 따른 동작인식 방법의 각 단계를 실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
KR1020120112358A 2012-10-10 2012-10-10 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체 KR20140046197A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120112358A KR20140046197A (ko) 2012-10-10 2012-10-10 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120112358A KR20140046197A (ko) 2012-10-10 2012-10-10 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체

Publications (1)

Publication Number Publication Date
KR20140046197A true KR20140046197A (ko) 2014-04-18

Family

ID=50653242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120112358A KR20140046197A (ko) 2012-10-10 2012-10-10 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체

Country Status (1)

Country Link
KR (1) KR20140046197A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186857A1 (ko) * 2014-06-03 2015-12-10 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
WO2020213786A1 (ko) * 2019-04-17 2020-10-22 주식회사 지티온 신체 움직임 인식을 이용한 가상 인터렉티브 컨텐츠 실행 시스템
KR20200124108A (ko) * 2019-04-23 2020-11-02 충남대학교산학협력단 Vr을 활용한 의료기기 사용적합성 평가 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186857A1 (ko) * 2014-06-03 2015-12-10 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
US10162423B2 (en) 2014-06-03 2018-12-25 Lg Electronics Inc. Image display apparatus and operation method thereof
WO2020213786A1 (ko) * 2019-04-17 2020-10-22 주식회사 지티온 신체 움직임 인식을 이용한 가상 인터렉티브 컨텐츠 실행 시스템
KR20200124108A (ko) * 2019-04-23 2020-11-02 충남대학교산학협력단 Vr을 활용한 의료기기 사용적합성 평가 방법

Similar Documents

Publication Publication Date Title
US10394318B2 (en) Scene analysis for improved eye tracking
US9778815B2 (en) Three dimensional user interface effects on a display
US9417763B2 (en) Three dimensional user interface effects on a display by using properties of motion
JP6079832B2 (ja) ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法
US9696859B1 (en) Detecting tap-based user input on a mobile device based on motion sensor data
US8166421B2 (en) Three-dimensional user interface
US10838508B2 (en) Apparatus and method of using events for user interface
JP2015531526A (ja) タッチレス入力
CN116134405A (zh) 用于扩展现实的私有控制接口
WO2016070800A1 (zh) 移动设备的虚拟球模拟及控制的方法
US11886643B2 (en) Information processing apparatus and information processing method
KR20140046197A (ko) 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체
Ren et al. Immersive and perceptual human-computer interaction using computer vision techniques
JP7351130B2 (ja) 深度カメラ及び深層ニューラルネットワークを使用する、プロジェクタ-カメラ対話型ディスプレイ用のロバストなジェスチャ認識装置及びシステム
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
Susantok et al. Android-based Touch Screen Projector Design Using a 3D Camera
WO2021075103A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20220334674A1 (en) Information processing apparatus, information processing method, and program
Černeková et al. Single camera pointing gesture recognition for interaction in edutainment applications
CN116156141A (zh) 体积视频播放方法、装置、电子设备及存储介质
Birla et al. TouchX—Mouse simulation using gestures on a virtual screen
KR20200127312A (ko) 홀로그래피 영상을 이용하는 옷의 쇼핑 장치 및 방법
KR20200116195A (ko) 홀로그래피 영상을 이용하는 옷의 쇼핑 장치 및 방법
Fan et al. Back-to-Back: A Novel Approach for Real Time 3D Hand Gesture Interaction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application