KR20140097907A - 카메라 기반 명령 입력 장치 및 그 방법 - Google Patents

카메라 기반 명령 입력 장치 및 그 방법 Download PDF

Info

Publication number
KR20140097907A
KR20140097907A KR1020130010642A KR20130010642A KR20140097907A KR 20140097907 A KR20140097907 A KR 20140097907A KR 1020130010642 A KR1020130010642 A KR 1020130010642A KR 20130010642 A KR20130010642 A KR 20130010642A KR 20140097907 A KR20140097907 A KR 20140097907A
Authority
KR
South Korea
Prior art keywords
area
user
command
hand
outputting
Prior art date
Application number
KR1020130010642A
Other languages
English (en)
Inventor
정광모
박영충
최광순
안양근
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020130010642A priority Critical patent/KR20140097907A/ko
Publication of KR20140097907A publication Critical patent/KR20140097907A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4227Providing Remote input by a user located remotely from the client device, e.g. at work

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자의 손모양을 인식하여 사용자가 화면에 직접 접촉하지 아니하고 사용자 명령을 입력할 수 있도록 하는 카메라 기반 명령 입력 장치 및 그 방법에 관한 것으로서, 본 발명은 사용자의 손모양의 형태학적 특징에 따른 면적의 차이에 기초하여 사용자가 입력하고자 하는 명령 또는 문자를 인식함으로써, 사용자가 리모컨 없이 간단한 제스처를 통해 근거리 또는 원거리에서 하드웨어를 조작할 수 있게 한다.

Description

카메라 기반 명령 입력 장치 및 그 방법 {Camera Based Order Input Apparatus and the Method}
본 발명은, 카메라를 통해 입력되는 영상에 기초하여 명령 신호를 생성하고 그 명령을 실행하는 카메라 기반 명령 입력 장치 및 그 방법에 관한 것으로서, 구체적으로는, 3D 깊이 카메라를 이용하여 화면에 직접적인 접촉을 하지 않고 손을 사용하여 커서를 제어할 수 있도록 하는 기술에 관한 것이다.
최근 들어, 동작 인식 기술, 스마트 TV 등이 개발되면서 사용자에게 간단하고 편리한 인터페이스를 제공하기 위한 장비들이 다수 등장하고 있다.
이러한 인터페이스 중의 하나로서, 공간 터치 인식 기술이 있는데, 종래의 공간 터치 인식 기술은 사용자가 손에 마커를 붙이거나 데이터 글러브를 사용하도록 하여 사용자가 원하는 제스처를 인식하였다.
그런데, 이러한 공간 터치 인식 기술은 사용자가 착용한 장갑에 선이 연결되어 있어 사용에 불편함을 느끼게 하고, 조명에 따른 노이즈로 인하여 인식률이 저하되는 문제점이 존재한다.
그리고, 학습에 의한 제스처를 인식하는 경우, 트레이닝 데이터에 의하여 사용자의 제스처를 정의할 수 있는데, 깊이(Depth) 카메라에서 얻어지는 영상의 특징점은 사용하기 어려운 문제점이 존재하고, 깊이 카메라의 낮은 해상도는 손과 같은 미세한 변화의 감지가 어렵게 하는 문제점이 존재한다.
본 발명은 전술한 문제점을 해결하기 위하여, 깊이 카메라가 형태학적인 요소를 통해 사용자의 제스처를 인식할 수 있도록 함으로써, 사용자가 근거리 또는 원거리에서 원하는 오브젝트(예컨대, 커서)를 조정할 수 있도록 하는 카메라 기반 명령 입력 장치 및 그 방법을 제공하는 것을 목적으로 한다.
본 발명은, 사용자의 손모양에 대한 영상을 입력받고, 상기 사용자의 손모양을 인식하는 손모양 인식부; 상기 사용자의 손모양의 외곽선에 기초하여, 제 1 영역을 산출하는 외곽선 영역 산출부; 상기 사용자의 손모양의 컨벡스헐에 기초하여, 제 2 영역을 산출하는 컨벡스헐 영역 산출부; 및 상기 제 1 영역과 상기 제 2 영역을 비교하고, 비교 결과에 기초하여 상기 손모양에 따른 명령 신호를 생성하고 출력하는 사용자 명령 인식부를 포함하는 카메라 기반 명령 입력 장치를 제공한다.
본 발명의 일면에 따르면, 상기 손모양 인식부는, 상기 사용자의 손모양에 대한 영상에서 배경을 제거하고, 상기 사용자의 손모양만 인식하는 것인 카메라 기반 명령 입력 장치를 제공한다.
본 발명의 다른 일면에 따르면, 상기 사용자 명령 인식부는, 상기 제 1 영역의 면적을 산출하고, 상기 제 2 영역의 면적을 산출하며, 상기 제 1 영역의 면적과 상기 제 2 영역의 면적의 차이에 기초하여, 상기 명령 신호를 생성하는 것인 카메라 기반 명령 입력 장치를 제공한다.
본 발명의 다른 일면에 따르면, 상기 사용자 명령 인식부는, 상기 제 1 영역 및 상기 제 2 영역의 면적의 차가 기설정한 값을 초과하면 제 1 명령(커서 지시 명령) 신호를 출력하고, 기설정한 값 미만이면 제 2 명령 신호(선택 명령)를 출력하는 것인 카메라 기반 명령 입력 장치를 제공한다.
한편 본 발명의 또 다른 일면에 따르면, 사용자의 손모양을 인식하는 단계; 상기 손모양의 외곽선에 기초한 제 1 영역의 면적을 산출하는 단계; 상기 손모양의 컨벡스헐에 기초한 제 2 영역의 면적을 산출하는 단계; 및 상기 제 1 영역의 면적과 상기 제 2 영역의 면적의 비교하고, 비교 결과에 기초하여 명령 신호를 출력하는 단계를 포함하는 카메라 기반 명령 입력 방법으로 이용될 수 있다.
이때, 본 발명의 일면에 따르면, 상기 비교 결과에 기초하여 명령 신호를 출력하는 단계는, 상기 제 1 영역의 면적과 상기 제 2 영역의 면적이 동일한지 여부를 확인하는 단계; 및 상기 제 1 영역의 면적과 상기 제 2 영역의 면적이 동일하면 제 1 명령 신호를 출력하고, 동일하지 않으면 제 2 명령 신호를 출력하는 단계를 포함하는 것인 카메라 기반 명령 입력 방법을 제공하거나, 상기 제 1 영역의 면적과 상기 제 2 영역의 면적의 차이를 산출하는 단계; 및 상기 차이가 기설정된 값 이상인지 여부를 확인하여, 상기 차이가 기설정된 값보다 작으면 제 1 명령 신호를 출력하고, 상기 차이가 기설정된 값보다 크면 제 2 명령 신호를 출력하는 단계를 포함하는 것인 카메라 기반 명령 입력 방법을 제공한다.
본 발명은, 깊이 카메라를 이용하여 사용자가 근거리 또는 원거리에서 원하는 오브젝트를 조정할 수 있게 하고, 사용자의 행동 측정뿐만 아니라 사용자가 행하는 제스처까지 표현할 수 있게 한다. 또한, 학습에 의한 제스처의 인식이 아닌 형태학적 요소를 활용한 제스처의 인식 수행을 하고, 형태학적 특징을 활용하여 미세한 변화의 감지가 가능하게 한다.
도 1은 본 발명의 일실시예에 따른 카메라 기반 명령 입력 장치를 사용한 명령 입력 시스템을 나타낸 도면.
도 2는 본 발명의 일실시예에 따른 카메라 기반 명령 입력 장치에서 인식하는 손모양의 예시를 나타낸 도면.
도 3은 본 발명의 일실시예에 따른 카메라 기반 명령 입력 장치의 구조를 나타낸 블록도.
도 4 내지 도 5는 본 발명의 일실시예에 따른 카메라 기반 명령 입력 장치가 손모양에 따라 사용자 명령을 인식하는 것을 나타낸 도면.
도 6은 본 발명의 일실시예에 따른 카메라 기반 명령 입력 방법의 과정을 나타낸 흐름도.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의된다.
한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 카메라 기반 명령 입력 장치를 사용한 사용자 명령 입력 시스템을 나타낸 도면이다.
본 발명에서 제공하는 비접촉식 공간 터치 센서는 도 1에 도시된 바와 같이, 일반 사용자들이 원거리에서 손의 움직임을 통해 커서를 움직이거나 오브젝트를 선택할 수 있게 한다. 이와 같이 본 발명은 종래의 리모컨을 이용한 기기 제어가 아닌 손의 움직임만을 사용하여 제어를 가능하게 하고, 가상의 터치 키보드와 연결하여 사용자가 원하는 문자를 원거리에서 입력하는 것이 가능하게 한다. 즉, 사용자가 원거리에서 자신이 원하는 명령을 지시할 수 있도록 한다.
도 2는 본 발명의 일실시예에 따른 카메라 기반 명령 입력 장치가 인식하는 손모양의 예시를 나타낸 도면이다.
본 발명은 종래의 제스처 인식에서 사용하던 방식인 트레이닝을 통한 인식 기법이 아니라, 형태학적 분석을 통한 명령 인식 방식으로서 환경의 강인한 결과를 얻을 수 있다.
따라서, 문자(또는 명령어)의 입력을 위한 문자 선택에 사용될, 마우스의 클릭 여부는 형태학적인 특징을 이용하여 판단하는데, 도 2에 도시된 것과 같은 손모양에 따라 사용자가 입력하고자 하는 문자 또는 명령 신호를 판별한다.
도 3은 본 발명의 일실시예에 따른 카메라 기반 명령 입력 장치의 구조를 나타낸 블록도이다.
본 발명의 일실시예에 따른 카메라 기반 명령 입력 장치는 손모양 인식부(300), 외곽선 영역 산출부(310), 컨벡스헐 영역 산출부(320) 및 사용자 명령 인식부(330)를 포함한다.
손모양 인식부(300)는 카메라를 통해 인식되는 사용자의 손모양에 대한 영상을 입력받는다. 그리고, 도 4(a)에 도시된 바와 같이, 입력받은 영상에서 손모양을 제외한 배경을 제거하고, 배경이 제거된 손모양에 대한 영상 정보를 외곽선 영역 산출부(310)와 컨벡스헐 영역 산출부(320)에 전달한다.
외곽선 영역 산출부(310)는 손모양 인식부(300)로부터 전달받은 손모양의 영상에서 손의 외곽선을 검출한다. 손모양 영상의 외곽선 검출은 도 4(b)에 도시된 바와 같이, 손의 표면을 따라가면서 구하고, 손의 외곽선을 검출하면서 정확한 손모양이 형성하는 영역(제 1 영역)의 면적을 계산한다.
컨벡스헐 영역 산출부(320)는 손모양 인식부(300)로부터 전달받은 손모양의 영상에서 컨벡스헐 영역(제 2 영역)을 산출한다. 컨벡스헐(Convex Hull) 영역은 손의 바깥쪽에 존재하는 꼭지점을 연결한 직선에 의하여 형성되는 영역을 의미하는 것으로서, 컨벡스헐 영역 산출부(320)는 컨벡스헐 영역을 구하고 컨벡스헐 영역의 면적을 계산한다.
컨벡스헐 영역의 산출은 컨벡스헐 알고리즘에 의한다. 컨벡스헐 알고리즘은 영상의 최외곽점을 찾는 알고리즘을 말한다. 최외곽점을 연결하여 우리가 사용하고자 하는 전체적인 영상의 부피를 구한다. 평면상의 영역이 컨벡스(Convex)하다는 의미는 그 영역에 속하는 임의의 두 점을 연결하는 선분 상의 모든 점이, 해당 영역에 속하는 경우를 의미한다.
점들의 모임에서 컨벡스헐을 찾는 것은 점들을 잇는 선분 자체가 포함되는 다각형을 찾는 것을 의미하며 과정은 다음과 같다.
(1) 간단히 최외각의 한 점을 기준으로 해서 그 자신을 뺀 모든 점들이 왼편이나 일직선상에 놓일 수 있는 점을 찾는다.
(2) 찾은 점을 기준으로 나머지 점들에 대해 동일한 조건을 만족하는 점들을 차례로 찾으면 주어진 점들을 감싸는 최소의 점들의 모임을 구할 수 있고, 이것이 컨벡스헐을 구성하게 된다.
컨벡스헐을 통해 계산된 면적은 도 4(c)에 도시된 바와 같이, 손의 꼭지점 부분을 연결한 면적을 가진다.
사용자 명령 인식부(330)는 외곽선 영역 산출부(310)에 의하여 산출된 제 1 영역의 면적에 대한 정보와 컨벡스헐 영역 산출부(320)에 의하여 산출된 제 2 영역의 면적에 대한 정보를 입력받는다.
사용자 명령 인식부(330)는 제 1 영역의 면적과 제 2 영역의 면적을 비교하고, 비교 결과에 기초하여 사용자 명령을 인식한다.
도 5는 사용자 명령 인식부(330)가 제 1 영역과 제 2 영역의 차이에 따라 사용자 명령을 인식하는 것을 나타낸 것이다.
도 5(a)에 도시된 바와 같이, 손가락이 펴진 경우에는 컨벡스헐 영역을 보면 영역에 어두운 부분이 있어 외곽선 검출로 인해 얻어진 영상의 면적보다 상대적으로 큰 값을 가진다. 그리고, 도 5(b)에 도시된 바와 같이, 손가락이 접힌 경우에는 외곽선과 거의 유사한 면적을 가지게 된다.
따라서, 사용자 명령 인식부(330)는 제 1 영역의 면적과 제 2 영역의 면적을 비교하여, 제 1 영역의 면적이 제 2 영역의 면적보다 작으면 제 1 명령 신호(예컨대, 마우스 커서 이동 명령 신호)를 출력하고, 제 1 영역의 면적과 제 2 영역의 면적이 동일하면 제 2 명령 신호(예컨대, 마우스 클릭 명령 신호)를 출력한다.
이러한 면적 비교의 활용을 통해 종래의 제스처 인식을 통한 문자 또는 명령어 입력과 다른 시스템을 구축할 수 있으며, 이는 문자 입력 시스템에 사용될 수 있다.
이때, 사용자가 주먹과 같이 외곽선과 컨벡스헐이 거의 유사한 손모양을 취한 경우라도, 제 1 영역과 제 2 영역의 면적에서 약간의 차이가 발생할 수도 있다. 따라서, 본 발명의 또 다른 실시예에 따르면, 기설정된 값을 설정하여 제 1 영역의 면적과 제 2 영역의 면적의 차이를 기설정된 값과 비교하고, 그 차이가 기설정된 값보다 크면 제 1 명령 신호를 출력하고, 기설정된 값보다 작으면 제 2 명령 신호를 출력하게 할 수도 있다.
도 6은 본 발명의 일실시예에 따른 카메라 기반 명령 입력 방법의 과정을 나타낸 흐름도이다.
카메라 기반 명령 입력 장치가 카메라를 통해 사용자의 손모양에 대한 영상을 입력받는다(S600). 손모양에 대한 영상에서 손모양을 제외한 배경을 제거하고 배경이 제거된 손모양을 인식한다(S610).
배경이 제거된 손모양을 인식한 후, 사용자의 손모양의 외곽선을 검출하여 외곽선에 의하여 형성되는 영역(제 1 영역)을 구하고, 제 1 영역의 면적을 산출한다(S620). 그리고, 사용자의 손모양에 따른 컨벡스헐에 의하여 형성되는 영역(제 2 영역)을 구하고, 제 2 영역의 면적을 산출한다(S630).
제 1 영역의 면적과 제 2 영역의 면적을 비교하고(S640), 면적의 비교 결과에 따라 명령 신호를 출력하는데, 일실시예에 따르면, 제 1 영역의 면적과 제 2 영역의 면적을 비교하여 제 1 영역의 면적이 제 2 영역의 면적보다 작으면(S650) 제 1 명령 신호(지시 신호, 예컨대 마우스 커서 이동)를 출력하고(S660), 그렇지 않으면 제 2 명령 신호(선택 신호, 예컨대 마우스 클릭)를 출력한다(S670).
이때, 제 1 영역의 면적과 제 2 영역의 면적의 차를 먼저 구하고, 그 차를 기설정된 값과 비교하여 양 면적이 거의 동일에 가까운 경우와 그렇지 않은 경우를 구분하고, 서로 다른 명령 신호가 출력되게 할 수도 있다.
이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면, 본 발명의 본질적 특성을 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능하다. 따라서, 본 발명에 표현된 실시예들은 본 발명의 기술적 사상을 한정하는 것이 아니라, 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 권리범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 특허청구범위에 의하여 해석되어야 하고, 그와 동등하거나, 균등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
300 : 손모양 인식부
310 : 외곽선 영역 산출부
320 : 컨벡스헐(Convex Hull) 영역 산출부
330 : 사용자 명령 인식부

Claims (8)

  1. 사용자의 손모양에 대한 영상을 입력받고, 상기 사용자의 손모양을 인식하는 손모양 인식부;
    상기 사용자의 손모양의 외곽선에 기초하여, 제 1 영역을 산출하는 외곽선 영역 산출부;
    상기 사용자의 손모양의 컨벡스헐에 기초하여, 제 2 영역을 산출하는 컨벡스헐 영역 산출부; 및
    상기 제 1 영역과 상기 제 2 영역을 비교하고, 비교 결과에 기초하여 상기 손모양에 따른 명령 신호를 생성하고 출력하는 사용자 명령 인식부
    를 포함하는 카메라 기반 명령 입력 장치.
  2. 제1항에 있어서, 상기 손모양 인식부는
    상기 사용자의 손모양에 대한 영상에서 배경을 제거하고, 상기 사용자의 손모양만 인식하는 것
    인 카메라 기반 명령 입력 장치.
  3. 제1항에 있어서, 상기 사용자 명령 인식부는
    상기 제 1 영역의 면적을 산출하고, 상기 제 2 영역의 면적을 산출하며, 상기 제 1 영역의 면적과 상기 제 2 영역의 면적의 차이에 기초하여, 상기 명령 신호를 생성하는 것
    인 카메라 기반 명령 입력 장치.
  4. 제1항에 있어서, 상기 사용자 명령 인식부는
    상기 제 1 영역 및 상기 제 2 영역의 면적의 차가 기설정한 값을 초과하면 제 1 명령 신호를 출력하고, 기설정한 값 미만이면 제 2 명령 신호를 출력하는 것
    인 카메라 기반 명령 입력 장치.
  5. 제4항에 있어서,
    상기 제 1 명령 신호는 커서 지시 명령이고, 상기 제 2 명령 신호는 선택 명령인 것
    인 카메라 기반 명령 입력 장치.
  6. 사용자의 손모양을 인식하는 단계;
    상기 손모양의 외곽선에 기초한 제 1 영역의 면적을 산출하는 단계;
    상기 손모양의 컨벡스헐에 기초한 제 2 영역의 면적을 산출하는 단계; 및
    상기 제 1 영역의 면적과 상기 제 2 영역의 면적의 비교하고, 비교 결과에 기초하여 명령 신호를 출력하는 단계
    를 포함하는 카메라 기반 명령 입력 방법.
  7. 제6항에 있어서, 상기 비교 결과에 기초하여 명령 신호를 출력하는 단계는
    상기 제 1 영역의 면적과 상기 제 2 영역의 면적이 동일한지 여부를 확인하는 단계; 및
    상기 제 1 영역의 면적과 상기 제 2 영역의 면적이 동일하면 제 1 명령 신호를 출력하고, 동일하지 않으면 제 2 명령 신호를 출력하는 단계를 포함하는 것
    인 카메라 기반 명령 입력 방법.
  8. 제6항에 있어서, 상기 비교 결과에 기초하여 명령 신호를 출력하는 단계는
    상기 제 1 영역의 면적과 상기 제 2 영역의 면적의 차이를 산출하는 단계; 및
    상기 차이가 기설정된 값 이상인지 여부를 확인하여, 상기 차이가 기설정된 값보다 작으면 제 1 명령 신호를 출력하고, 상기 차이가 기설정된 값보다 크면 제 2 명령 신호를 출력하는 단계를 포함하는 것
    인 카메라 기반 명령 입력 방법.
KR1020130010642A 2013-01-30 2013-01-30 카메라 기반 명령 입력 장치 및 그 방법 KR20140097907A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130010642A KR20140097907A (ko) 2013-01-30 2013-01-30 카메라 기반 명령 입력 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130010642A KR20140097907A (ko) 2013-01-30 2013-01-30 카메라 기반 명령 입력 장치 및 그 방법

Publications (1)

Publication Number Publication Date
KR20140097907A true KR20140097907A (ko) 2014-08-07

Family

ID=51745014

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130010642A KR20140097907A (ko) 2013-01-30 2013-01-30 카메라 기반 명령 입력 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR20140097907A (ko)

Similar Documents

Publication Publication Date Title
CN108845668B (zh) 人机交互系统和方法
JP6480434B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
EP2891950B1 (en) Human-to-computer natural three-dimensional hand gesture based navigation method
KR102347248B1 (ko) 터치 제스쳐 인식 방법 및 장치
US10366281B2 (en) Gesture identification with natural images
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
KR101436050B1 (ko) 손모양 깊이영상 데이터베이스 구축방법, 손모양 인식방법 및 손모양 인식 장치
TWI567592B (zh) 手勢辨識方法及穿戴式裝置
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
US9430039B2 (en) Apparatus for controlling virtual mouse based on hand motion and method thereof
WO2017029749A1 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2012027515A (ja) 入力方法及び入力装置
US10346992B2 (en) Information processing apparatus, information processing method, and program
JP6452369B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
US9525906B2 (en) Display device and method of controlling the display device
KR102052449B1 (ko) 가상 마우스 시스템 및 그 제어 방법
US8749488B2 (en) Apparatus and method for providing contactless graphic user interface
US10162420B2 (en) Recognition device, method, and storage medium
JP2013109538A (ja) 入力方法及び入力装置
KR20140097907A (ko) 카메라 기반 명령 입력 장치 및 그 방법
US10175825B2 (en) Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image
KR101386655B1 (ko) 3d 공간 터치 시스템 및 방법
Costagliola et al. Gesture‐Based Computing
WO2021075103A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20150268734A1 (en) Gesture recognition method for motion sensing detector

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application