KR101337429B1 - 입력 장치 - Google Patents

입력 장치 Download PDF

Info

Publication number
KR101337429B1
KR101337429B1 KR1020120021412A KR20120021412A KR101337429B1 KR 101337429 B1 KR101337429 B1 KR 101337429B1 KR 1020120021412 A KR1020120021412 A KR 1020120021412A KR 20120021412 A KR20120021412 A KR 20120021412A KR 101337429 B1 KR101337429 B1 KR 101337429B1
Authority
KR
South Korea
Prior art keywords
user
gesture
motion
input device
finger
Prior art date
Application number
KR1020120021412A
Other languages
English (en)
Other versions
KR20130099708A (ko
Inventor
조현중
박주덕
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020120021412A priority Critical patent/KR101337429B1/ko
Priority claimed from US13/434,341 external-priority patent/US20120249417A1/en
Publication of KR20130099708A publication Critical patent/KR20130099708A/ko
Application granted granted Critical
Publication of KR101337429B1 publication Critical patent/KR101337429B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Abstract

본 발명은 입력 장치에 있어서, 사용자의 손짓 동작을 감지하는 동작 감지부; 상기 입력 장치의 이동 상태를 감지하는 이동 감지부; 및 상기 감지된 손짓 동작 및 이동 상태에 기초하여, 대상 전자 장치를 제어하는 입력 신호를 생성하는 입력 신호 생성부를 포함하되, 상기 동작 감지부 및 상기 이동 감지부는 상기 입력 장치가 상기 사용자의 손에 의해 파지된 상태에서 감지 동작을 수행한다.

Description

입력 장치{INPUT APPARATUS}
본 발명은 사용자 손의 제스처(gesture) 또는 손가락의 핀칭(Pinching) 동작에 기초하여 전자 장치를 제어하는 입력 장치에 관한 것이다.
전자 통신 기술의 발달에 따라 각종 전자 장치의 제어를 위한 리모컨의 동작 방식이 다양해지고 있다. 특히, 날이 갈수록 발전하고 있는 TV의 경우, 인터넷 TV 또는 스마트 TV 등과 같이 사용자와 서비스 공급자간의 쌍방향 통신을 지향하고 있어서, 전통적인 버튼 방식의 리모컨으로는 이를 효과적으로 제어하기 힘들다. 이러한 문제를 해결하기 위하여, 쉽고 직관적인 사용자 인터페이스를 구현하려는 시도가 많이 있어왔는데, 대표적인 방식이 사용자의 제스처를 인식하여 사용자의 의도를 파악하는 방법이다.
예를 들면, 사용자의 제스처를 인식하기 위해서, 사용자의 정면 측에 설치된 단일 카메라나 스테레오 카메라를 이용하기도 하고, 센서가 설치된 장갑이나 옷 등의 착용 가능한 인터페이스(Wearable interface)를 이용하기도 한다. 하지만, 카메라를 이용한 방법은 노이즈에 매우 취약하고, 유의미한 제스처와 무의미한 제스처를 구분하는 것이 어려운 단점이 있다. 또, 착용 가능한 인터페이스(Wearable interface)를 이용한 방식은 노이즈에 강인한 특성이 있으나, 착용이 수월하지 않고, 여러 사람이 공유하는 경우 위생에 대한 걱정으로 인해 사용자의 거부감을 일으킬 수 있는 단점이 있다.
따라서, 본원에서는 위와 같은 불편함을 개선하기 위해 현재 리모컨과 같이 손으로 쉽게 잡힌 상태에서 TV등 원거리에 있는 화면을 컨트롤할 수 있을 뿐 아니라, 사용자 손의 제스처를 인지하여 자연스러운 사용자 인터페이스를 유도할 수 있는 입력 장치를 제시한다.
본 발명의 일부 실시예는 손가락의 핀칭 동작을 센싱하고, 이에 기초하여 각종 전자 장치를 제어하는 입력 신호를 생성하는 입력 장치를 제공한다.
그리고, 본 발명의 일부 실시예는 상기 입력 장치에 기초하여 제어되는 입력 인터페이스를 제공하는 전자 장치 또는 인터 페이스 제공 방법을 제공한다.
또한, 본원의 일부 실시예는 사용자의 다양한 손짓 동작을 센싱하고, 이에 기초하여 각종 전자 장치를 제어하는 입력 신호를 생성하는 입력 장치를 제공한다.
상기와 같은 목적을 달성하기 위한 본원에 의하면, 입력 장치는, 사용자의 손짓 동작을 감지하는 동작 감지부; 상기 입력 장치의 이동 상태를 감지하는 이동 감지부; 및 상기 감지된 손짓 동작 및 이동 상태에 기초하여, 대상 전자 장치를 제어하는 입력 신호를 생성하는 입력 신호 생성부를 포함하되, 상기 동작 감지부 및 상기 이동 감지부는 상기 입력 장치가 상기 사용자의 손에 의해 파지된 상태에서 감지 동작을 수행한다.
본원 발명에 의하면, 손가락의 핀칭 동작을 감지하고 이를 입력 인터페이스의 제어신호로서 사용할 수 있어, 매우 간단한 방법으로 전자 장치를 제어할 수 있다. 특히, 핀칭 동작의 경우 가상의 레이어를 실제로 파지하는 느낌을 줄 수 있어, 사용자에게 보다 직관적인 인터페이스를 제공할 수 있다.
그리고, 사용자의 손가락 전류 변화에 기초하여 핀칭 동작을 감지할 수 있어, 매우 간단한 방법으로 핀칭 동작을 감지할 수 있다. 또한, 핀칭 동작 외에 입력 장치의 이동 상태를 추가적으로 감지할 경우 더욱 다양한 입력 신호를 생성할 수 있다.
더불어, 사용자의 손짓 동작에 대응한 영상신호에 기초하여, 사용자의 다양한 손짓 동작을 감지할 수 있다. 즉, 핀칭 동작뿐만 아니라, 포인팅 동작, 스크래칭 동작 및 이들의 결합 동작을 더 감지할 수 있으므로, 더욱 구체화된 제스처를 구성할 수 있어, 더욱 다양한 입력 신호를 생성할 수 있다.
도 1은 본원 발명의 일 실시예에 따른 입력 장치의 개념을 설명하기 위한 도면이다.
도 2는 도 1에 도시된 입력 장치의 구성을 도시한 도면이다.
도 3은 본원 발명의 제 1 실시예에 따른 동작 감지부의 구성을 도시한 도면이다.
도 4는 본원 발명의 제 1 실시예에 따른 입력 장치에 의해 검출 가능한 핀칭 동작의 예시들을 설명하기 위한 도면이다.
도 5는 본원 발명의 일 실시예에 따른 전자 장치의 구성을 도시한 도면이다.
도 6a 내지 도 6d는 본원 발명의 일 실시예에 따른 입력 장치를 위한 인터페이스를 도시한 도면이다.
도 7a 내지 도 7b는 본원 발명의 일 실시예에 따른 입력 장치를 이용한 문자 입력 방법을 도시한 도면이다.
도 8은 본원 발명의 제 2 실시예에 따른 동작 감지부의 구성을 도시한 도면이다.
도 9a 내지 도 9d는 본원 발명의 제 2 실시예에 따른 입력 장치에 의해 검출 가능한 제스처의 예시들을 설명하기 위한 도면이다.
도 10a 내지 도 10e는 본원 발명의 제 2 실시예에 따른 입력 장치의 하우징에 대한 예시 및 하우징을 쥐는 손의 그립자세에 대한 예시를 나타낸 도면이다.
도 11은 도 10c 또는 도 10e에 대응한 영상신호의 예시를 나타낸 도면이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본원 발명의 일 실시예에 따른 입력 장치의 개념을 설명하기 위한 도면이다.
전체 시스템(10)은 전자 장치(20)와 입력 장치(30)를 포함한다.
전자 장치(20)는 입력 장치(30)로부터 수신한 입력 신호에 기초하여 각종 동작을 수행한다. 이때, 전자 장치(20)는 TV 또는 리모컨에 의하여 제어되는 각종 디스플레이 장치를 포함한다.
입력 장치(30)는 사용자의 손에 파지(把指, grip)된 상태에서, 사용자가 둘 이상의 손가락 끝을 접촉시키는 집기 동작 또는 핀칭(pinching) 동작, 어느 하나의 손가락의 이동 동작 및 손가락의 지시 방향 등과 같은 사용자의 제스처(gesture)를 감지하여, 전자 장치(20)를 제어하기 위한 입력 신호를 생성한다.
입력 장치(30)는 적외선 통신, 블루투스 통신 기타 무선 통신 방식을 이용하여 입력 신호를 전자 장치로(20)로 송신한다.
도 2는 도 1에 도시된 입력 장치를 도시한 블록도이다.
입력 장치(30)는 동작 감지부(100), 이동 감지부(110), 입력 신호 생성부(120), 패턴 저장부(130) 및 통신부(140)를 포함한다.
동작 감지부(100)는 전자 장치(10)를 제어하기 위한 사용자의 손짓 동작을 감지한다.
예시적으로, 사용자는 서로 다른 의사를 표시하는 복수의 손짓 동작을 이용하여, 전자 장치(10)를 제어할 수 있다. 이때, 복수의 손짓 동작은 둘 이상의 손가락 간의 핀칭(pinching), 어느 한 손가락의 포인팅(pointing) 및 어느 한 손가락의 움직임(scratching)을 포함할 수 있다.
특히, 본원 발명의 제 1 실시예에 따른 동작 감지부(100)는 사용자의 손가락 핀칭 동작에 따라 발생하는 사용자의 손가락의 전류 변화를 감지한다. 예를 들어, 손바닥에 전류 측정을 위한 전극을 접촉시킨 상태에서, 두 개의 손가락 끝을 접촉시키면, 손가락이 폐회로를 구성하게 되고 그에 따라 손을 통해 흐르는 전류에 변화가 발생한다. 이러한 전류 변화를 감지하여 핀칭 동작 발생 여부를 감지한다.
도 3 및 도 4를 참조하여, 제 1 실시예에 따른 동작 감지부에 대해 더욱 상세한 설명을 하기로 한다.
도 3은 본원 발명의 제 1 실시예에 따른 동작 감지부의 구성을 도시한 도면이고, 도 4는 본원 발명의 제 1 실시예에 따른 입력 장치에 의해 검출 가능한 핀칭 동작의 예시들을 설명하기 위한 도면이다.
도 3에 도시된 바와 같이, 본원 발명의 제 1 실시예에 따른 동작 감지부(100a)는 하나 이상의 접점부(101), 전류 감지부(102) 및 비교부(103)를 포함한다.
하나 이상의 접점부(101)는 입력장치(30)의 하우징 외부로 노출되도록 배치된다. 여기서, 접점부(101)는 전류 측정을 위한 전극을 포함할 수 있다. 또한, 접점부(101)는 여러 핀칭 동작을 감지하기 위하여 복수개가 구성될 수 있으며, 사용자의 선택에 따라 접점부(101)의 개수는 달라질 수 있다.
전류 감지부(102)는 접점부(101)를 통해 손에 흐르는 전류를 입력받아, 전류값을 감지한다.
비교부(103)는 전류 감지부(102)에 의해 감지된 전류값을, 기준 전류값과 비교하여, 핀칭 동작의 발생 여부를 판단한다. 이때, 전류 감지부(102)를 통해 감지한 전류값을 복수의 기준 전류값과 비교한 결과로부터, 복수의 핀칭 동작 중 발생된 핀칭 동작을 감지할 수 있다.
도 4(a)에 도시된 바와 같이 사용자의 손(40)이 입력 장치(30)를 파지(把指, grip)하면, 사용자의 손(40)과, 입력 장치(30)의 하우징 외부로 노출된 하나 이상의 접점부(101)가 상호 접촉한다. 이때, 사용자 손(40)은 접점부(101)를 통해 전류 감지부(102)와 전기적으로 연결됨에 따라, 전류 감지부(102)는 사용자 손(40)에 흐르는 전류를 측정한다.
입력 장치(30)는 하우징에 격납된 것일 수 있다. 여기서, 하우징은 사용자에 의하여 파지될 때, 하우징 외부로 노출된 접점부(101)가 사용자의 손(40)의 피부와 용이하게 접촉할 수 있도록 하는 형상을 가진다. 예시적으로, 하우징은 원통형일 수 있다.
사용자가 엄지와 검지 각각의 말단을 접촉시키는 핀칭 동작(엄지-검지 핀칭)을 수행하면, 엄지와 검지 사이에 새로운 전기적 신호 경로가 생기게 된다. 이때, 도 4(b)에 도시된 바와 같이, 각각 손바닥에서 엄지 손가락이 시작되는 부위(41), 및 손바닥에서 검지 손가락이 시작되는 부위(42)가 접점부(101)에 접촉되도록 한다. 이와 같이 하면, 엄지와 검지가 이루는 신호 경로가 서로 다른 두 접점부를 전기적으로 접속시키게 된다. 따라서, 엄지-검지 핀칭 동작을 수행하기 전에 비해, 손 자체가 갖는 임피던스가 낮아지게 되므로, 손에 흐르는 전류값이 높아지게 된다.
또한, 사람의 손가락의 길이와 굵기는 모두 상이하므로, 어느 손가락의 말단을 접촉시키는지에 따라 손에 흐르는 전류는 상이해질 수 있다. 즉, 도 4(c)에 도시한 바와 같이, 엄지와 중지의 말단을 접촉시키는 핀칭 동작(엄지-중지 핀칭), 도 4(d)에 도시한 바와 같이, 도 4(e)에 도시한 바와 같이, 엄지와 약지의 말단을 접촉시키는 핀칭 동작(엄지-약지 핀칭), 도 4(f)에 도시한 바와 같이, 엄지, 중지 및 약지의 말단을 접촉시키는 핀칭 동작(엄지-중지-약지 핀칭) 등 복수의 핀칭 동작이 있을 수 있으며, 각각의 핀칭 동작은 전류값을 기초로 분류할 수 있다.
다시 도 2를 참조하면, 이동 감지부(110)는 입력 장치(30)의 이동 상태를 감지한다. 즉, 사용자가 입력 장치(30)를 파지한 상태에서, 상측, 하측, 좌측, 우측, 전방 및 후방 중 어느 하나 이상의 방향으로 입력 장치(30)를 이동시키는 경우, 입력 장치(30)의 움직임을 센싱한다. 예를 들면, 이동 감지부(110)는 3차원 가속도 센서를 이용하고, 이를 통해 입력 장치(30)의 움직임과 기울기까지 감지할 수 있다. 또는, 이동 감지부(110)는 자이로스코프, 가속도 센서 및 지자기센서 중 어느 하나 이상을 포함하는 모션센서를 구비하여, 입력 장치(30)의 움직임과 기울기를 감지할 수 있다.
입력 신호 생성부(120)는 동작 감지부(100)로부터 수신한 핀칭 동작의 종류에 기초하여 입력신호를 생성한다. 이때, 이동 감지부(110)로부터 수신한 이동 상태 정보를 추가적으로 고려하여 입력신호를 생성할 수 있다.
즉, 복수의 핀칭 동작 중 어느 하나의 핀칭 동작이 발생하였음을 전달받은 경우, 이에 기초하여 입력 신호를 생성한다. 또한, 핀칭 동작과 이동 상태가 함께 발생한 경우, 이에 기초하여 입력 신호를 생성한다.
예시적으로, 이동 감지부(110)는 자이로스코프, 가속도 센서 및 지자기센서 중 어느 하나 이상을 포함하는 모션센서로 구성된 경우, 입력 신호 생성부(120)는, 이동 감지부(110)로부터 모션센서 감지에 따른 로오 데이터(Raw data)를 수신하고, 로오 데이터에 기초하여, 3차원의 X, Y, Z축 이동값 및 자세값(Pitch, Roll, Yaw각)을 추정한다. 이 경우, 입력 신호 생성부(120)는 칼만필터 등의 추정 알고리즘을 이용할 수 있다.
이때, 패턴 저장부(130)에 저장된 핀칭 동작 및 이동 상태 정보에 기초하여 입력 신호를 결정할 수 있다. 패턴 저장부(130)는 발생 가능한 모든 핀칭 동작과 발생 가능한 모든 이동 상태 정보를 저장하고, 이를 미리 설정된 입력 신호와 매칭시켜 저장한다.
따라서, 이동 감지부(110)는 입력된 핀칭 동작과 이동 상태에 대한 정보를 패턴 저장부(130)에 저장된 값과 비교하여, 입력 신호를 생성한다.
통신부(140)는 입력 신호 생성부(120)로부터 수신한 입력 신호를 전자 장치(20)로 전송한다. 예를 들면, 적외선 통신, 블루투스 통신 기타 무선 통신 방식을 이용하여 입력 신호를 전자 장치로(20)로 송신한다.
도 5는 본원 발명의 일 실시예에 따른 전자 장치의 구성을 도시한 도면이다.
전자 장치(20)는 수신부(200), 제어부(210), 인터페이스 제공부(220) 및 디스플레이부(230)를 포함한다.
수신부(200)는 입력 장치(30)로부터 전송된 입력신호를 수신하여 제어부(210) 및 인터페이스 제공부(220)로 전달한다.
제어부(210)는 입력 신호에 기초하여 전자 장치(20)의 각종 동작을 제어한다.
인터페이스 제공부(220)는 전자 장치(20)의 제어 상태를 사용자에게 표시하기 위한 각종 인터페이스를 제공한다.
디스플레이부(230)는 상기 인터페이스를 사용자에게 표시한다.
도면을 통해 본원 발명이 제공하는 각종 인터페이스를 설명하기로 한다.
도 6a 내지 도 6d는 본원 발명의 일 실시예에 따른 입력 장치를 위한 인터페이스를 도시한 도면이다.
먼저 도 6a를 살펴보면, 엄지와 검지 핀칭 동작을 수행하고, 입력 장치를 우측으로 드래그(drag)하는 동작을 수행하면, 이에 따라 메뉴바(600)가 활성화되고, 메뉴바(600)가 우측으로 이동하게 된다.
이는 사용자가 엄지와 검지로 가상의 레이어를 파지한 후 이를 우측으로 드래그하는 동작과 동일한 느낌을 주는 동작으로서 인터페이스에 대한 직관성을 크게 향상시킬 수 있다. 이후에 메뉴바(600) 중 어느 하나의 지점을 핀칭하는 동작을 수행하여, 원하는 채널 또는 메뉴를 선택하게 된다.
다음으로, 도 6b를 살펴보면, 엄지와 검지 핀칭 동작을 수행하고, 입력 장치를 좌측으로 드래그하는 동작을 수행하면, 이에 따라 메뉴바(610)가 활성화되고, 메뉴바(610)가 좌측으로 이동하게 된다.
그리고, 엄지, 검지 및 중지 핀칭 동작을 수행하면, 볼륨 조절 인터페이스(612)가 활성화되고, 사용자의 회전 동작에 따라 볼륨 조절 여부가 제어될 수 있다.
다음으로, 도 6c를 살펴보면, 엄지와 검지 핀칭 동작을 수행하고, 입력 장치를 하측으로 드래그하는 동작을 수행하면, 이에 따라 메뉴바(620)가 활성화되고, 메뉴바(620)가 하측으로 이동하게 된다. 그리고, 메뉴바(620)에 표시된 각종 아이콘(621~625)을 핀칭 동작으로서 선택할 수 있다.
다음으로, 도 6d를 살펴보면, 엄지와 검지 핀칭 동작을 수행하고, 입력 장치를 전방 또는 후방으로 드래그하는 동작을 수행하면, 이에 따라 표시되는 화면이 줌 인 또는 줌 아웃되는 형태로 제어한다. 예를 들어, 지도 서비스의 경우 화면의 확대 또는 축소 요구가 빈번하므로, 본원 발명의 제어를 통해 더욱 편리하고 직관적으로 제어할 수 있다.
도 7a 내지 도 7b는 본원 발명의 일 실시예에 따른 입력 장치를 이용한 문자 입력 방법을 도시한 도면이다.
도시된 바와 같이, 인터페이스 제공부(220)는 다양한 디자인의 문자 입력 인터페이스(710, 720, 730)를 제공한다.
디자인은 각각 상이하나, 공통적으로 문자 입력창(712, 722, 732)과 복수의 문자 그룹(714, 724, 734)을 표시한다.
문자 그룹(714, 724, 734)은 하나 이상의 문자를 포함하며, 화면 상에 분산되어 표시된다. 사용자는 핀칭 동작을 통해 특정 문자 그룹을 선택할 수 있다. 예를 들어, 핀칭 동작을 통해 특정 문자 그룹(714, 724, 734)을 선택한 후, 드래그 동작을 통해 미리 정해진 위치(화면의 중앙)로 문자 그룹을 이동시키면, 문자 그룹에 포함된 문자가 다시 미리 설정된 위치로 분산되어 표시된다. 예를 들면, 문자 그룹은 표시되지 않도록 제어한 후, 문자 그룹이 표시되었던 위치로 각각의 문자를 분산시켜 표시한다. 사용자는 다시 핀칭 동작 및 드래그 동작을 통해 복수의 문자 중 어느 하나의 문자를 미리 정해지 위치로 이동시켜, 입력 문자를 설정한다. 이와 같이, 핀칭 동작에 따라 문자 입력을 수행하는 방법을 사용하면, 문자를 입력하는 과정에서 입력수단에 의해 문자가 가려지지 않고도 효과적으로 문자를 입력할 수 있다.
이와 같은 문자 입력 인터페이스를 통해 도 7b에 도시된 바와 같은 문자 채팅 프로그램을 전자 장치(20)에 실행할 수 있다. 예를 들어, 스마트 TV 등과 같은 전자 장치에서 채팅 프로그램을 실행시킬 경우, 본 발명에 따른 입력 장치를 통해 용이하게 문자 입력을 수행할 수 있다.
한편, 본원 발명의 제 1 실시예에 따른 동작 감지부(100a)는 사용자 손에 접촉하는 하나 이상의 접점부(101)를 통해 사용자의 손과 전기적으로 연결되어, 사용자 손에 흐르는 전류값을 측정하고, 전류값에 기초하여 사용자의 손짓을 판별한다. 그러나, 손가락의 지시 방향(포인팅, pointing) 및 손가락의 움직임(scratching) 등의 동작은 새로운 노드 또는 접점을 발생시키지 않기 때문에 손에 흐르는 전류값의 변동을 유발하지 않는다. 그러므로, 제 1 실시예에 따른 동작 감지부(100a)는 핀칭(pinching) 동작만을 감지할 수 있을 뿐, 손가락의 지시 방향(포인팅, pointing) 및 손가락의 움직임(scratching) 등을 감지하기가 어렵다.
이를 보완하기 위하여, 본원 발명의 제 2 실시예에 따른 동작 감지부는 손가락 간의 핀칭뿐만 아니라, 손가락의 지시 방향 및 손가락의 움직임도 감지할 수 있도록, 영상 신호에 기초하여 사용자의 손짓을 감지한다.
이하에서는, 도 8, 도 9a 내지 도 9e, 도 10 및 도 11a 내지 도 11d를 참조하여, 본원 발명의 제 2 실시예에 따른 동작 감지부에 대해 더욱 상세히 설명하기로 한다.
도 8은 본원 발명의 제 2 실시예에 따른 동작 감지부의 구성을 도시한 도면이다. 도 9a 내지 도 9d는 본원 발명의 제 2 실시예에 따른 입력 장치에 의해 검출 가능한 제스처의 예시들을 설명하기 위한 도면이다. 도 10a 내지 도 10e는 본원 발명의 제 2 실시예에 따른 입력 장치의 하우징에 대한 예시 및 하우징을 쥐는 손의 그립자세에 대한 예시를 나타낸 도면이다. 그리고, 도 11은 도 10c 또는 도 10e에 대응한 영상신호의 예시를 나타낸 도면이다.
도 8에 도시한 바와 같이, 본원 발명의 제 2 실시예에 따른 동작 감지부(100b)는 사용자의 손짓 동작에 대응한 영상신호를 각각 생성하는 적어도 하나의 카메라(104), 및 영상신호에 기초하여 사용자의 손짓 동작을 감지하고, 감지한 손짓 동작에 대응하는 동작 정보를 생성하며, 동작 정보를 입력 신호 생성부(120)에 제공하는 동작 정보 생성부(105)를 포함한다.
더불어, 동작 감지부(100b)는 사용자 주위의 소리에 대응한 음성신호를 생성하는 적어도 하나의 마이크(106)를 더 포함할 수 있다. 이때, 동작 정보 생성부(105)는 영상신호 및 음성신호에 기초하여, 동작 정보를 생성하는 것일 수 있다.
카메라(104)는 입력장치(30)를 격납한 하우징 외부에 배치되고, 하우징을 쥔 상태의 사용자 손짓을 촬영하여, 영상신호를 생성한다. 여기서, 카메라(104)는 입력장치(30)의 하우징을 쥔 상태의 사용자 손짓을 촬영하도록, 입력장치(30)의 하우징 중 사용자 손가락에 대응하는 부분에 배치될 수 있다.
카메라(104)는 한 개로 마련될 수 있으나, 이에 국한되지 않고, 여러 방향의 영상을 촬영하기 위하여 서로 이격하는 둘 이상의 개수로 마련될 수 있으며, 이때, 카메라(104)의 개수는 사용자의 선택에 따라 달라질 수 있다.
한편, 동작 감지부(100b)는 사용자 손에 광을 조사하는 적외선 발광부(미도시)를 더 포함할 수 있다. 이 경우, 카메라(104)는 적외선 발광부(미도시)에 의한 오류를 방지하기 위한 적외선 필터를 더 포함한다. 이와 같이 하면, 외부 광이 낮은 조도인 경우에도 입력 장치(100)를 사용할 수 있다.
마이크(106)는 사용자 손에 인접하게 배치되어, 사용자 손이 움직이면서 뼈 또는 피부의 마찰에서 발생하는 소리를 감지하여, 그에 대응한 음성신호(音聲信號, aural signal)를 생성한다. 이러한 마이크(106)는 입력 장치(30)를 격납한 하우징 외부에, 별도의 기기 또는 카메라(104)의 부속품으로 구비될 수도 있다. 이러한 마이크(106)에 의해, 사용자 손의 움직임 여부를 더욱 명확하게 감지할 수 있어, 장치의 정확성이 더욱 향상될 수 있다.
동작 정보 생성부(105)는 각 카메라(104)에 의해 생성된 영상신호에 기초하여, 복수의 손짓 동작 중 영상신호에 대응하는 손짓 동작을 감지한다.
이때, 동작 정보 생성부(105)는 각 카메라(104)로부터 입력된 영상신호를 처리함으로써, 영상신호에 대응하는 손짓 동작을 감지할 수 있다.
예시적으로, 카메라(104)에 의한 영상신호가 컬러영상인 경우, 동작 정보 생성부(105)는 입력된 영상신호에 대해, 평균 필터를 이용한 잡음 제거, 컬러 필터를 이용한 손가락 영역 추출, 모폴로지(Morphology) 연산, 손가락 끝점과 같은 특징점 추출, 및 영상 해석에 의한 손짓 동작 감지의 과정들을 실시함으로써, 영상신호를 처리할 수 있다.
또는, 카메라(104)에 의한 영상신호가 컬러영상인 경우, 동작 정보 생성부(105)는 입력된 영상신호에 대해, 평균 필터를 이용한 잡음 제거, 이진화, 모폴로지(Morphology) 연산, 객체 추출(labeling), 윤곽(Contour) 추출, 손가락 끝점과 같은 특징점 추출, 및 영상 해석에 의한 손짓 동작의 감지의 과정들을 실시함으로써, 영상신호를 처리할 수도 있다.
또는, 카메라(104)에 의한 영상신호가 적외선영상인 경우, 동작 정보 생성부(105)는 입력된 영상신호에 대해, 평균 필터를 이용한 잡음 제거, 외곽 검출(Edge detection), 모폴로지(Morphology) 연산, 윤곽(Contour) 추출, 손가락 끝점과 같은 특징점 추출, 및 영상 해석에 의한 손짓 동작의 감지의 과정들을 실시함으로써, 영상신호를 처리할 수도 있다.
여기서, 모폴로지(Morphology) 연산은 팽창, 침식 등의 연산을 이용하여 영상 신호에서 잡음을 제거하는 것을 의미한다.
또는, 동작 정보 생성부(105)는 영상신호 및 음성신호에 기초하여, 복수의 손짓 동작 중 영상신호에 대응하는 손짓 동작을 감지할 수도 있다.
도 9a 내지 도 9d를 참고해보면, 복수의 손짓 동작은 어느 둘 이상의 손가락 간의 핀칭(pinching) 동작, 어느 한 손가락의 포인팅(pointing) 동작, 카메라(104)에 대한 어느 한 손가락의 스크래칭(scratching) 동작, 및 어느 두 손가락의 핀칭과 다른 한 손가락의 포인팅 결합 동작을 포함할 수 있다.
도 9a에 도시한 바와 같이, 어느 둘 이상의 손가락 간의 핀칭(pinching) 동작은 어느 둘 이상의 손가락이 접촉하는 동작이다. 도 9a는 엄지손가락(43)과 검지손가락(44)이 맞닿는 엄지-검지 핀칭 동작만을 도시하였으나, 이와 달리, 도 4에 도시한 것처럼, 핀칭(pinching) 동작은 엄지-중지 핀칭 동작, 엄지-약지 핀칭 동작 및 엄지-중지-약지 핀칭 동작을 포함할 수 있다.
도 9b에 도시한 바와 같이, 어느 한 손가락의 포인팅(pointing) 동작은 어느 한 손가락이 어느 한 방향을 지시하면서 펼쳐진 동작이다. 도 9b는 엄지, 검지 및 중지 손가락(43, 44, 45) 중 어느 한 손가락도 핀칭(pinching)하지 않은 상태에서 검지 손가락(44)이 정면을 향해 곧게 뻗은 동작만을 도시하였으나, 이와 달리, 포인팅 동작은 엄지 손가락(43) 또는 중지 손가락(45)의 포인팅 동작도 더 포함할 수 있다.
도 9c에 도시한 바와 같이, 어느 한 손가락의 스크래칭(scratching) 동작은 어느 한 손가락이 카메라(104)에 맞닿은 상태에서 일방향으로 움직이는 동작이다. 또는, 어느 한 손가락의 스크래칭 동작은, 어느 한 손가락이 다른 두 손가락의 끝단을 스쳐지나가는 동작일 수도 있다. 예를 들면, 엄지손가락(43)이 검지 및 중지 손가락(44, 45)을 스치면서 상측 또는 하측으로 이동하는 동작일 수 있다. 도 9c는 검지손가락(44)의 스크래칭 동작만을 도시하였으나, 이와 달리, 스크래칭 동작은 엄지 손가락(43) 및 중지손가락(45)의 스크래칭 동작을 더 포함할 수 있다.
도 9d에 도시한 바와 같이, 결합 동작은 핀칭 동작과 함께, 포인팅 동작 또는 스크래칭 동작을 동시에 실시하는 동작이다. 도 9d는 엄지손가락(43)과 중지손가락(45)의 핀칭 동작과, 검지손가락(44)의 포인팅 동작의 결합 동작만을 도시하였으나, 이외에도 다른 결합 동작을 포함할 수 있음은 당연하다.
예시적으로, 핀칭 동작과 함께 입력 장치(30)를 상하좌우 측으로 이동시키는 제스처는, 해당 방향으로 물체를 이동시키는(drag) 명령어를 의미할 수 있고, 핀칭 동작과 함께 입력 장치(30)를 앞, 뒤로 이동시키는 제스처는 물체를 확대, 축소시키는 명령어를 의미할 수 있다. 그리고, 검지손가락의 포인팅 동작과 함께 입력 장치를 이동시키는 제스처는 마우스의 커서를 이동시키는 명령어를 의미할 수 있다. 또한, 하측방향 및 상측방향의 스크래칭 동작의 제스처는 스크롤 다운 및 스크롤 업의 명령어를 각각 의미할 수 있다. 더불어, 핀칭 동작과 포인팅 동작의 결합 동작과 함께 입력 장치(30)를 상하좌우 측으로 이동시키는 제스처는, 커서를 따라 물체를 이동시키는 명령어를 의미할 수 있다.
다만, 각 제스처의 의미에 대한 예시일 뿐이며, 설계자의 선택에 따라, 각 제스처를 다른 의미로 매칭시키는 것도 가능하다.
다시, 도 8을 이어서 설명한다.
예시적으로, 동작 정보 생성부(105)는 복수의 손짓 동작에 각각 대응한 복수의 영상 기준값에 더 기초하여, 영상신호에 대응하는 손짓 동작을 감지할 수 있다. 즉, 동작 정보 생성부(105)는 주기 별로 각 카메라(104)로부터 입력되는 영상신호를, 복수의 손짓 동작에 각각 대응한 복수의 영상 기준값과 비교하여, 영상신호와의 차이가 일정 오차 범위 이내인 어느 하나의 영상 기준값을 도출하면, 도출한 영상 기준값의 손짓 동작을 영상신호에 대응하는 것으로 감지할 수 있다.
이에 대한 일 예로써, 동작 정보 생성부(105)는 입력된 영상신호와, 엄지-검지 핀칭 동작에 대응한 영상 기준값을 비교하여, 둘 사이의 오차가 허용 범위 이내이면, 엄지-검지 핀칭 동작을 감지할 수 있다.
또는, 동작 정보 생성부(105)는 주기 별로 각 카메라(104)로부터 입력되는 영상신호의 변화에 기초하여, 영상신호에 대응하는 사용자의 손짓 동작을 감지할 수도 있다.
예시적으로, 동작 정보 생성부(105)는 영상신호의 변화가 미미한 경우, 즉, 현재 영상신호를 이전 영상신호와 비교하여, 그 차이가 허용 범위 이내이면, 사용자의 손짓 동작이 그대로 유지됨을 감지할 수 있다.
본원 발명의 제 2 실시예에 따른 입력 장치는, 제 1 실시예에서와 마찬가지로, 원통형의 하우징에 격납될 수 있으나, 카메라(104) 또는 카메라(104)/마이크(106)를 구비한 동작 감지부(100b)를 포함함에 따라, 카메라(104)를 배치할 수 있도록 변형된 원통형의 하우징에 격납될 수 있다.
즉, 도 10a 내지 도 10c에 도시한 바와 같이, 입력장치의 하우징(31)은 변형된 원통형으로서, 원통형인 일부와, 반원통형의 다른 일부를 포함하는 형상일 수 있다.
이때, 도 10a에 도시한 바와 같이, 카메라(104)는 하우징(31) 중 반원통형의 다른 일부에 배치되는 한 개로 구비될 수 있다. 또는, 도 10b에 도시한 바와 같이, 카메라(104)는 하우징(31) 중 반원통형의 다른 일부에 배치되되, 상하 방향으로 서로 이격하는 두 개로 구비될 수도 있다.
이 경우, 도 10c에 도시한 바와 같이, 사용자는 그의 약지 손가락과 새끼 손가락 및 손바닥을 이용하여, 하우징(31)의 원통형 일부를 쥔 상태에서, 그의 엄지, 검지 및 중지 손가락(43, 44, 45)을 이용하여, 손짓 동작을 변화시킴으로써, 제스처를 표시할 수 있다.
또는, 도 10d 및 도 10e에 도시한 바와 같이, 입력장치의 하우징(32)은 링형일 수 있다. 이때, 카메라(104)는 링형의 하우징(32) 중 내측면에 배치된다.
더불어, 도 10c 및 도 10e에 도시된 바와 같이, 입력 장치(31, 32)를 파지한 상태의 손짓 동작에 대응하여, 변형된 원통형의 하우징(31) 중 반원통형의 다른 일부, 또는 링형의 하우징(32) 중 내측면에 배치되는 카메라(104)는 도 11과 같은 영상신호를 생성할 수 있다.
참고로, 본 발명의 실시예에 따른 도 2, 도 3, 도 5 및 도 8에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성 요소를 의미하며, 소정의 역할들을 수행한다.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10: 전체 시스템 20: 전자 장치
30: 입력 장치 40: 사용자의 손
43, 44, 45: 사용자의 엄지, 검지, 중지손가락
100, 100a, 100b: 동작 감지부
110: 이동 감지부 120: 입력신호 생성부
130: 패턴 저장부 140: 통신부
101: 접점부 102: 전류 감지부
103: 비교부
200: 수신부 210: 제어부
220: 인터페이스 제공부 230: 디스플레이부
104: 카메라 105: 동작 정보 생성부
106: 마이크 31, 32: 입력장치의 하우징

Claims (9)

  1. 입력 장치에 있어서,
    사용자의 손짓 동작을 감지하는 동작 감지부;
    상기 입력 장치의 이동 상태를 감지하는 이동 감지부; 및
    상기 감지된 손짓 동작 및 이동 상태에 기초하여, 대상 전자 장치를 제어하는 입력 신호를 생성하는 입력 신호 생성부를 포함하되,
    상기 동작 감지부 및 상기 이동 감지부는 상기 입력 장치가 상기 사용자의 손에 의해 파지된 상태에서 감지 동작을 수행하는 입력 장치.
  2. 제 1 항에 있어서,
    상기 동작 감지부는,
    상기 사용자의 손짓 동작에 대응한 영상신호를 각각 생성하는 적어도 하나의 카메라; 및
    상기 영상신호에 기초하여, 상기 사용자의 손짓 동작을 감지하고, 상기 감지한 손짓 동작에 대응하는 동작 정보를 생성하며, 상기 동작 정보를 상기 입력 신호 생성부에 제공하는 동작 정보 생성부를 포함하는 입력 장치.
  3. 제 2 항에 있어서,
    상기 동작 정보 생성부는, 상기 복수의 손짓 동작에 각각 대응한 복수의 영상 기준값에 더 기초하여, 상기 사용자의 손짓 동작을 감지하는 입력 장치.
  4. 제 2 항에 있어서,
    상기 동작 감지부는
    사용자 손의 움직임에 따라 발생하는 소리에 대응한 음성신호를 생성하는 적어도 하나의 마이크를 더 포함하되,
    상기 동작 정보 생성부는 상기 음성신호에 더 기초하여, 상기 동작 정보를 생성하는 입력 장치.
  5. 제 2 항에 있어서,
    상기 입력 장치를 격납한 하우징을 더 포함하되,
    상기 카메라는 상기 하우징의 외부에 배치되어 상기 하우징을 파지한 상태의 손가락 및 손가락들의 움직임을 촬영하여, 상기 영상신호를 생성하는 입력 장치.
  6. 제 2 항에 있어서,
    상기 사용자 손에 적외선을 조사하는 적외선 발광부를 더 포함하되,
    상기 카메라는 적외선 필터를 포함하는 입력 장치.
  7. 제 1 항에 있어서,
    상기 동작 감지부는 손을 통해 흐르는 전류의 변화를 기초로 상기 사용자의 손짓 동작을 감지하는 입력 장치.
  8. 제 1 항에 있어서,
    상기 사용자의 손짓 동작 및 상기 이동 상태를 상기 입력 신호와 매칭하여 저장하는 패턴 저장부를 더 포함하고,
    상기 입력 신호 생성부는 상기 패턴 저장부에 저장된 정보에 따라 입력 신호를 생성하는 입력 장치.
  9. 제 1 항에 있어서,
    상기 사용자의 손짓 동작은 어느 둘 이상의 손가락 간의 핀칭 동작, 어느 한 손가락의 포인팅 동작, 및 카메라에 대한 어느 한 손가락의 스크래칭 동작 중 적어도 하나를 포함하는 입력 장치.
KR1020120021412A 2012-02-29 2012-02-29 입력 장치 KR101337429B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120021412A KR101337429B1 (ko) 2012-02-29 2012-02-29 입력 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120021412A KR101337429B1 (ko) 2012-02-29 2012-02-29 입력 장치
US13/434,341 US20120249417A1 (en) 2011-03-29 2012-03-29 Input apparatus

Publications (2)

Publication Number Publication Date
KR20130099708A KR20130099708A (ko) 2013-09-06
KR101337429B1 true KR101337429B1 (ko) 2013-12-05

Family

ID=49450961

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120021412A KR101337429B1 (ko) 2012-02-29 2012-02-29 입력 장치

Country Status (1)

Country Link
KR (1) KR101337429B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150137452A (ko) * 2014-05-29 2015-12-09 삼성전자주식회사 디스플레이 장치 제어 방법 및 이를 위한 원격 제어 장치
KR101553484B1 (ko) * 2014-09-04 2015-09-16 계명대학교 산학협력단 손동작 인식 장치 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100836222B1 (ko) * 2006-12-14 2008-06-09 한국과학기술연구원 전자기기 제어장치
KR20100119837A (ko) * 2009-05-02 2010-11-11 문준희 카메라 및 화상인식기술을 이용한 가정용 음향기기 및 휴대용 음향기기의 사용자 조작 인터페이스 방법
KR20110041757A (ko) * 2009-10-16 2011-04-22 에스케이텔레콤 주식회사 제스처를 이용한 사용자 인터페이스 제공 단말기 및 방법
KR20110053396A (ko) * 2009-11-15 2011-05-23 에스케이텔레콤 주식회사 제스처를 이용한 사용자 인터페이스 제공 단말기 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100836222B1 (ko) * 2006-12-14 2008-06-09 한국과학기술연구원 전자기기 제어장치
KR20100119837A (ko) * 2009-05-02 2010-11-11 문준희 카메라 및 화상인식기술을 이용한 가정용 음향기기 및 휴대용 음향기기의 사용자 조작 인터페이스 방법
KR20110041757A (ko) * 2009-10-16 2011-04-22 에스케이텔레콤 주식회사 제스처를 이용한 사용자 인터페이스 제공 단말기 및 방법
KR20110053396A (ko) * 2009-11-15 2011-05-23 에스케이텔레콤 주식회사 제스처를 이용한 사용자 인터페이스 제공 단말기 및 방법

Also Published As

Publication number Publication date
KR20130099708A (ko) 2013-09-06

Similar Documents

Publication Publication Date Title
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
JP6480434B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
KR102170321B1 (ko) 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
US8666115B2 (en) Computer vision gesture based control of a device
US20130335324A1 (en) Computer vision based two hand control of content
US7849421B2 (en) Virtual mouse driving apparatus and method using two-handed gestures
US20150138101A1 (en) Mobile terminal and control method thereof
US20140240225A1 (en) Method for touchless control of a device
US20110148755A1 (en) User interface apparatus and user interfacing method based on wearable computing environment
US20120249417A1 (en) Input apparatus
WO2013021385A2 (en) Gesture based interface system and method
US20130285904A1 (en) Computer vision based control of an icon on a display
US10282087B2 (en) Multi-touch based drawing input method and apparatus
US20160320846A1 (en) Method for providing user commands to an electronic processor and related processor program and electronic circuit
US10656746B2 (en) Information processing device, information processing method, and program
US9958946B2 (en) Switching input rails without a release command in a natural user interface
TWI486815B (zh) 顯示設備及其控制系統和方法
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
KR101337429B1 (ko) 입력 장치
US10754446B2 (en) Information processing apparatus and information processing method
US20170160797A1 (en) User-input apparatus, method and program for user-input
JP2010086367A (ja) 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
KR101588021B1 (ko) 헤드 마우스
WO2012114791A1 (ja) ジェスチャー操作システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160928

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191007

Year of fee payment: 7