KR101489069B1 - 동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치 - Google Patents

동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치 Download PDF

Info

Publication number
KR101489069B1
KR101489069B1 KR20130061537A KR20130061537A KR101489069B1 KR 101489069 B1 KR101489069 B1 KR 101489069B1 KR 20130061537 A KR20130061537 A KR 20130061537A KR 20130061537 A KR20130061537 A KR 20130061537A KR 101489069 B1 KR101489069 B1 KR 101489069B1
Authority
KR
South Korea
Prior art keywords
input
recognizing
mouse
finger
hand
Prior art date
Application number
KR20130061537A
Other languages
English (en)
Other versions
KR20140140761A (ko
Inventor
허윤
Original Assignee
허윤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 허윤 filed Critical 허윤
Priority to KR20130061537A priority Critical patent/KR101489069B1/ko
Publication of KR20140140761A publication Critical patent/KR20140140761A/ko
Application granted granted Critical
Publication of KR101489069B1 publication Critical patent/KR101489069B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Abstract

동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치가 개시되어 있다. 동작을 인식하여 입력 신호를 생성하는 방법은 입력자의 동작이 발생하는 위치에 따라 적응적으로 입력자의 동작을 인식하는 단계, 인식된 동작에 대응되는 입력 신호를 결정하는 단계를 포함하되 인식된 동작과 대응되는 입력 신호는 마우스를 기반으로 생성되는 입력 신호를 포함할 수 있다. 따라서, 따로 입력 장치를 사용하지 않고도 정보 처리 장치를 동작 시킬 수 있다.

Description

동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치{METHOD FOR INPUTTING DATA BASED ON MOTION AND APPARATUS FOR USING THE SAME}
본 발명은 정보 입력 방법에 관한 것으로서 보다 상세하게는 신호 입력 방법 및 이러한 방법을 사용하는 장치에 관한 것이다.
현재 태블릿 PC(personal computer)의 출하량이 기존 컴퓨팅 기기의 주력이었던 데스크톱과 노트북의 출하량을 넘어설 것으로 보인다. 태블릿 PC는 기존 PC와 다르게 사용자가 정보를 입력하는 입력 장치에서 많은 변화를 보였다. 터치 패널과 펜을 장착한 태블릿 PC가 소비자들에게 각광받으면서 기존 PC의 전통적인 입력 장치였던 키보드와 마우스에도 많은 변화를 가지고 왔다.
오늘날 대부분의 키보드는 1984년 IBM에서 개발한 '모델 M'을 표준으로 삼고 있다. 모델 M은 6열의 키 구성으로 화살표나 편집할 때 많이 쓰는 키를 넣어 101개 의 키를 포함하였다. 지금의 노트북 키보드는 휴대성을 감안해 1987년 도시바의 노트북에 달린 키 84개짜리 키보드가 표준이 됐다.
키보드 중심의 PC 입력 장치는 마이크로소프트의 윈도우의 등장과 함께 변화하는 모습을 보였다. 마이크로 소프트의 윈도우는 키보드로 문자를 일일이 입력해 작업을 수행하는 명령어 인터페이스를 사용하지 않고 아이콘이나 메뉴를 클릭해 작업을 진행하는 그래픽 사용자 인터페이스가 채택했다. 이 때문에 마우스는 1990년대 이후 키보드와 함께 PC의 중요한 입력 장치로 활용되어 왔다.
태블릿 PC의 출연으로 기존의 키보드나 마우스와 같은 PC의 대표적인 입력 장치에 대한 변화가 일어나고 있다. 기존의 입력 방법과 다른 다양한 정보 입력 방법에 대한 기술이 도입되고 각종 장치에서 입력 방법으로서 새로운 기술들이 도입되고 있다.
본 발명의 제1 목적은 동작 기반의 정보 입력 방법을 제공하는 것이다.
본 발명의 제2 목적은 동작 기반의 정보 입력을 수행하는 장치를 제공하는 것이다.
상술한 본 발명의 제1 목적을 달성하기 위한 본 발명의 일 측면에 따른 동작을 인식하여 입력 신호를 생성하는 방법은 입력자의 동작이 발생하는 위치에 따라 적응적으로 상기 입력자의 동작을 인식하는 단계와 상기 인식된 동작에 대응되는 상기 입력 신호를 결정하는 단계를 포함할 수 있되, 상기 인식된 동작과 대응되는 상기 입력 신호는 마우스를 기반으로 생성되는 입력 신호를 포함할 수 있다. 상기 입력자의 동작을 인식하는 단계는 상기 입력자의 손으로 광학적 신호를 전송하는 단계와 상기 손에서 반사되는 상기 광학적 신호를 기반으로 상기 손의 움직임을 판단하는 단계를 포함할 수 있다. 상기 손에서 반사되는 상기 광학적 신호를 기반으로 상기 손의 움직임을 판단하는 단계는 상기 광학적 신호를 기반으로 측정한 거리 정보 또는 상기 광학적 신호의 패턴 정보를 기반으로 상기 손의 움직임을 판단하는 단계일 수 있다. 상기 인식된 동작에 대응되는 상기 입력 신호를 결정하는 단계는 상기 입력자의 동작이 두번째 손가락을 누르듯이 찍는 동작인 경우, 상기 마우스의 좌클릭 동작으로 인식하는 단계, 상기 입력자의 동작이 두 번째와 세번째 손가락을 모아서 누르듯이 찍는 동작인 경우, 상기 마우스의 우클릭 동작으로 인식하는 단계,상기 입력자의 동작이 두번째, 세번째, 네번째 손가락들을 모아서 누르듯이 하여 이동시키는 동작인 경우, 상기 마우스의 드래그 앤 드롭 동작으로 인식하는 단계, 상기 입력자의 동작이 두번째 손가락을 상하좌우로 움직이는 동작인 경우, 상기 마우스의 상하 및 좌우의 움직임으로 인식하는 단계, 상기 입력자의 동작이 두번째부터 다섯번째 손가락을 모두 사용하여 좌우에 우로 쓸어내리는 동작 또는 우에서 좌로 쓸어내리는 동작인 경우, 상기 마우스의 페이지 넘김 동작으로 인식하는 단계, 상기 입력자의 동작이 위에서 아래로 쓸어내리거나 아래에서 위로 올리는 동작인 경우, 상기 마우스의 상하스크롤 동작으로 인식하는 단계와 상기 입력자의 동작이 세 번째 손가락을 동작 인식부 위에서 누르듯이 찍는 동작인 경우, 상기 마우스의 가운데 마우스 버튼(3버튼 마우스) 클릭 동작으로 인식하는 단계를 포함할 수 있다. 상기 입력자의 동작을 인식하는 단계는 상기 입력자의 동작이 발생하는 위치에 따라 상기 입력 장치의 위치를 물리적으로 이동하여 상기 입력자의 동작을 인식하는 단계일 수 있다. 상기 입력자의 동작을 인식하는 단계는 기본 동작 탐지 위치를 설정하는 단계와 상기 설정된 기본 동작 탐지 위치를 기반으로 상기 입력자의 동작을 인식하는 단계를 포함하되 상기 기본 동작 탐지 위치를 설정하는 단계는 상기 기본 동작 탐지 위치를 상기 입력자의 왼손 또는 오른손으로 설정하거나 상기 입력자의 기본 동작 탐지 위치를 설정하기 위한 예시적인 동작을 입력받아 설정하는 단계일 수 있다. 상기 설정된 기본 동작 탐지 위치를 기반으로 상기 입력자의 동작을 인식하는 단계는 상기 기본 탐지 위치에 상기 입력자의 동작을 인식하기 위한 광학적 신호의 밀도를 높이는 단계일 수 있다. 상기 입력 신호 생성 방법은 상기 인식된 동작과 매핑되는 상기 입력 신호를 설정하는 단계를 더 포함할 수 있다.
상술한 본 발명의 제2 목적을 달성하기 위한 본 발명의 일 측면에 따른 동작을 인식하여 입력 신호를 생성하는 입력 장치에 있어서, 상기 입력 장치는 프로세서를 포함하고, 상기 프로세서는 입력자의 동작이 발생하는 위치에 따라 적응적으로 상기 입력자의 동작을 인식하고 상기 인식된 동작에 대응되는 상기 입력 신호를 결정하도록 구현될 수 있되, 상기 인식된 동작과 대응되는 상기 입력 신호는 마우스를 기반으로 생성되는 입력 신호를 포함할 수 있다. 상기 프로세서는 상기 입력자의 손으로 광학적 신호를 전송하고 상기 손에서 반사되는 상기 광학적 신호를 기반으로 상기 손의 움직임을 판단하도록 구현될 수 있다. 상기 프로세서는 상기 광학적 신호를 기반으로 측정한 거리 정보 또는 상기 광학적 신호의 패턴 정보를 기반으로 상기 손의 움직임을 판단하도록 구현될 수 있다. 상기 프로세서는 상기 입력자의 동작이 두번째 손가락을 누르듯이 찍는 동작인 경우 상기 마우스의 좌클릭 동작으로 인식하고, 상기 입력자의 동작이 두 번째와 세번째 손가락을 모아서 누르듯이 찍는 동작인 경우 상기 마우스의 우클릭 동작으로 인식하고, 상기 입력자의 동작이 두번째, 세번째, 네번째 손가락들을 모아서 누르듯이 하여 이동시키는 동작인 경우 상기 마우스의 드래그 앤 드롭 동작으로 인식하고, 상기 입력자의 동작이 두번째 손가락을 상하좌우로 움직이는 동작인 경우 상기 마우스의 상하 및 좌우의 움직임으로 인식하고, 상기 입력자의 동작이 두번째부터 다섯번째 손가락을 모두 사용하여 좌우에 우로 쓸어내리는 동작 또는 우에서 좌로 쓸어내리는 동작인 경우 상기 마우스의 페이지 넘김 동작으로 인식하고 상기 입력자의 동작이 위에서 아래로 쓸어내리거나 아래에서 위로 올리는 동작인 경우 상기 마우스의 상하스크롤 동작으로 인식하고 상기 입력자의 동작이 세 번째 손가락을 동작 인식부 위에서 누르듯이 찍는 동작인 경우 상기 마우스의 가운데 마우스 버튼(3버튼 마우스) 클릭 동작으로 인식하도록 구현될 수 있다. 상기 프로세서는 상기 입력자의 동작이 발생하는 위치에 따라 상기 입력 장치의 위치를 물리적으로 이동하여 상기 입력자의 동작을 인식하도록 구현될 수 있다. 상기 프로세서는 기본 동작 탐지 위치를 설정하고 상기 설정된 기본 동작 탐지 위치를 기반으로 상기 입력자의 동작을 인식하도록 구현될 수 있되, 상기 기본 동작 탐지 위치를 설정하기 위해 상기 기본 동작 탐지 위치를 상기 입력자의 왼손 또는 오른손으로 설정하거나 상기 입력자의 기본 동작 탐지 위치를 설정하기 위한 예시적인 동작을 입력받아 설정될 수 있다. 상기 프로세서는 상기 기본 탐지 위치에 상기 입력자의 동작을 인식하기 위한 광학적 신호의 밀도를 높이도록 구현될 수 있다. 상기 프로세서는 상기 인식된 동작과 매핑되는 상기 입력 신호를 설정하도록 구현될 수 있다.
상술한 바와 같이 본 발명의 실시예에 따른 동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치에 따르면, 마우스를 따로 구현하지 않고 입력자의 동작 정보를 기반으로 마우스의 입력 신호를 생성함으로서 따로 입력 장치를 사용하지 않고도 정보 처리 장치를 동작 시킬 수 있다.
도 1은 본 발명의 실시예에 따른 입력 장치를 나타낸 개념도이다.
도 2는 본 발명의 실시예에 따른 동작 인식부의 구현 방법을 나타낸 개념도이다.
도 3은 본 발명의 실시예에 따른 동작 인식부의 구현 방법을 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 동작 인식부의 구현 방법을 나타낸 개념도이다.
도 5은 본 발명의 실시예에 따른 입력자의 동작을 파악하는 방법을 나타낸 개념도이다.
도 6은 본 발명의 실시예에 따른 동작 인식부를 나타낸 개념도이다.
도 7은 본 발명의 실시예에 따른 동작 인식부의 동작을 나타낸 순서도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 실시예에 따른 입력 장치를 나타낸 개념도이다.
도 1을 참조하면, 입력 장치는 정보 입력부(100) 및 동작 인식부(150)를 포함할 수 있다.
정보 입력부(100)는 정보 입력 장치에 따라 다양하게 구현될 수 있다. 예를 들어, 정보 입력 장치는 기존의 PC(personal computer) 또는 노트북과 같은 정보 처리 장치에서 사용되는 실제 버튼을 기반으로 한 키보드이거나 태블릿 PC에서 사용되는 터치 기반 입력 인터페이스일 수 있다.
동작 인식부(150)는 입력자의 동작을 인식하여 입력 정보를 획득할 수 있다. 본 발명의 실시예에 따른 동작 인식부(150)에서는 입력자의 손의 동작을 인식하여 인식된 동작을 입력 정보로서 사용하는 방법에 대해 구체적으로 개시하나 손의 동작이 아닌 다른 입력자의 신체 부위의 동작 또한 동작 인식부가 입력 정보로 인지하여 이를 기반으로 정보 처리 장치가 입력 정보를 획득할 수도 있다. 동작 인식부는 하나의 입력 장치일 수 있다.
동작 인식부(150)에서 동작을 인식하기 위해서는 다양한 방법을 사용할 수 있다. 예를 들어, 동작 인식부(150)는 복수개의 카메라를 기반으로 입력자의 손 동작을 인식할 수 있다. 동작 인식부(150)에서는 입력자의 손으로 복수개의 광학적 신호(예를 들어, 적외선 신호)를 전송할 수 있고, 입력자의 손으로 전송된 복수개의 광학적 신호가 반사된 신호를 수신할 수 있다. 카메라는 복수개의 광학적 신호를 수신하고 수신된 광학적 신호를 판단하여 입력자의 손의 동작을 판단하기 위해 사용될 수 있다. 예를 들어, 동작 인식부(150)에서는 100개의 적외선 신호를 입력자의 손으로 전송할 수 있고, 신호 입력자의 손으로 전송된 100개의 적외선 신호가 입력자의 손에서 반사된 값을 기반으로 입력자의 손 동작을 결정할 수 있다.
동작 인식부(150)에서는 반사된 값을 분석하여 손과 적외선 신호 발생부와의 거리를 계산하여 입력자의 손 동작을 결정할 수 있다. 적외선 신호에 따라 거리를 결정하기 위한 방식으로 Time of flight 방식 또는 패턴을 기반으로 한 스테레오 매칭 방법 등 다양한 방법을 사용할 수 있다. 식별된 입력자의 손 동작은 정보 처리 장치에 대한 입력 정보로 변환되어 사용할 수 있다.
또 다른 예로 적외선이 아닌 LED(light emitted diode)와 같은 다른 광학적 신호를 기반으로 동작 인식부를 구현할 수도 있다. 위와 같은 예들은 입력자의 손 동작을 인식하기 위한 하나의 구성부의 예로서 다른 방법을 사용하여 입력자의 손 동작을 인식할 수도 있다.
본 발명의 실시예에 따르면, 동작 인식부(150)는 기존의 정보 입력 장치로 사용되던 마우스의 동작을 통해 생성되는 입력되는 신호를 대신하여 생성하기 위한 구성부일 수 있다. 즉, 동작 인식부에서 생성되는 입력 신호는 마우스의 동작을 통해 생성되는 입력 신호를 포함할 수 있다. 동작 인식부가 마우스를 기반으로 입력되던 신호를 대신하는 방법 및 사용자의 동작 인식부에서 손의 동작을 인식하는 방법에 대해서는 추가적으로 개시한다.
정보 입력부(100) 및 동작 인식부(150)를 통해 생성된 입력 신호는 전자 장치의 입력 신호로 입력되어 전자 장치의 동작을 제어할 수 있다.
도 2는 본 발명의 실시예에 따른 동작 인식부의 구현 방법을 나타낸 개념도이다.
도 2에서는 정보 입력부가 키보드(260)이고 동작 인식부(200)가 키보드(260)와 결합되어 구현되는 경우를 가정하여 설명한다.
동작 인식부(200)는 기존의 마우스의 입력 신호를 생성할 수 있다. 동작 인식부(200)는 입력자의 편의에 따라 다른 위치로 이동되어 구현될 수 있다.
예를 들어, 동작 인식부(200)는 입력자가 동작 신호를 오른손으로 입력시키는지 왼손으로 입력시키는지 여부에 따라 위치를 다르게 설정할 수 있다. 예를 들어, 동작 인식부(200)는 입력자의 손 동작이 왼손으로 수행되는 경우 키보드의 키보드의 왼쪽으로 동작 인식부(200)를 이동시키고 입력자의 손 동작이 오른손으로 수행되는 경우 키보드의 오른쪽으로 동작 인식부(200)를 이동시킬 수 있다. 동작 인식부(200)를 이동시키기 위해 기존의 키보드와 같은 입력 장치에 동작 인식부(200)가 좌우로 움직일 수 있도록 레일과 같은 동작 인식부의 이동을 위한 구성부가 구현될 수 있다.
예를 들어 키보드(260)의 상단에 동작 인식부(200)가 구현되고 동작 인식부(200)는 레일과 같은 구조를 기반으로 좌우로 이동될 수 있다. 동작 인식부(200)의 하단은 홈 구조를 가지고 레일과 결합되어 좌우로 이동하도록 구현될 수 있다.
또 다른 예로 기존의 키보드(260)에 동작 인식부(200)를 결합하여 구현할 수 있다. 키보드(260)와 연결할 수 있는 트레이 구조(240)를 동작 인식부(200)와 별도로 구현하여 동작 인식부(200)를 트레이 구조(240) 내부에서 이동하도록 할 수 있다. 트레이 구조(240)는 동작 인식부(200)를 받치고 동작 인식부(200)를 이동을 시킬 수 있는 구조를 말한다. 트레이 구조(240)는 키보드(260)의 상단에 연결될 수 있는 구조로 구현될 수 있다. 트레이 구조(240)에 동작 인식부(200)를 위치시켜 트레이 구조(240) 내부에서 동작 인식부(200)가 이동하도록 구현할 수 있다. 동작 인식부(200)는 무선 또는 유선으로 구현될 수 있다. 입력자가 원하는 위치에 동작 인식부(200)가 위치한 경우 동작 인식부(200)를 고정할 수 있는 고정 클립(220)과 같은 구성부를 통해 동작 인식부(200)의 위치를 고정시킬 수 있다.
도 3은 본 발명의 실시예에 따른 동작 인식부의 구현 방법을 나타낸 개념도이다.
도 3에서는 동작 인식부가 무선을 기반으로 정보 처리 장치로 입력 신호를 전송하는 방법에 대해 개시한다. 예를 들어 동작 인식부(300)는 통신부를 추가적으로 구비하여 생성된 신호를 통신부를 통해 정보 처리 장치로 전송할 수 있다.
동작 인식부(300)와 정보 처리 장치가 무선을 기반으로 정보를 송신 및 수신하는 경우 정보 입력자의 편의에 따라 동작 인식부(300)를 다양한 위치에 위치시킬 수 있다. 예를 들어, 동작 인식부(300)는 통신부를 포함한 동작 인식 센서이고, 동작 인식부(300)에서 발생하는 정보는 정보 처리 장치에 구비한 USB 기반의 통신부(350)로 전송될 수 있다. USB 기반의 통신부(350)는 정보 처리 장치로 동작 인식부(300)의 신호를 전송하기 위한 하나의 예시이다.
즉, 동작 인식부(300)에서 인식된 동작 신호에 따른 입력 신호를 분석하여 이를 USB 기반의 통신부(350)로 전송할 수 있다. USB 기반의 통신부(350)는 수신한 입력 신호를 정보 처리 장치로 전달할 수 있다.
입력자는 손 동작이 인식되기 쉬운 위치에 동작 인식부(300)를 두어 동작 인식부(300)가 손 동작을 인지하는 정확도를 높일 수 있다.
도 4는 본 발명의 실시예에 따른 동작 인식부의 구현 방법을 나타낸 개념도이다.
도 4를 참조하면, 동작 인식부의 카메라 설정 방향을 설정하여 동작 인식부(400)가 특정한 위치에서 수행되는 동작을 정확하기 인식하도록 할 수 있다. 동작 인식부(400)는 입력 정보를 위한 특정한 움직임이 발생하는 경우 움직임이 발생하는 위치를 우선적으로 탐지하는 동작을 수행하도록 구현될 수 있다. 예를 들어, 입력자가 특정한 손 동작을 발생시키는 경우, 동작 인식부(400)는 움직임이 발생하는 위치를 우선적으로 판단하고, 움직임이 발생된 위치에 대하여 집중적으로 신호를 전송하여 움직임을 판단하도록 구현될 수 있다. 전술한 바와 같이 광학적 신호를 사용하는 경우 해당 위치에 전송되는 광학 신호의 밀도를 높여 해당 위치에 집중적으로 광학 신호를 전송할 수 있다.
입력자가 동일한 경우, 입력자의 신체적인 특성으로 인해 입력자의 손 동작이 거의 유사한 위치에서 발생될 수 있다. 이러한 경우, 동작 인식부(400)는 손 동작이 발생하는 위치를 디폴트 정보로 기억하고 해당 위치에서 우선적으로 동작 인식을 수행할 수 있다. 이러한 방법을 통해 동작 인식부(400)가 초기에 움직임을 판단하지 않고도 바로 손 동작의 움직임을 파악할 수 있다. 사용자가 바뀌는 경우, 새로운 설정을 통해 손 동작이 발생하는 위치에 대한 디폴트 설정을 변화시킬 수도 있다. 이러한 설정은 정보 처리 장치에서 OS(operating system)를 기반으로 하드웨어를 제어하는 설정과 연계되어 수행될 수 있다.
또 다른 예로, 입력자가 동작 인식부(400)의 설정을 통해 동작 인식부(400)가 주로 동작의 변화를 판단할 위치를 지정할 수 있다. 예를 들어, 정보 처리 장치에서 OS 기반의 장치 설정을 통해 동작 인식부(400)가 동작 인식을 수행할 지역을 미리 설정할 수 있다. 컴퓨터에 동작 인식부(400)의 하드웨어 설정을 통해 동작 인식부(400)가 동작을 감지할 위치를 설정하는 방법으로 간단하게는 오른손으로 동작을 발생시킬 것인지 아니면 왼손으로 동작을 발생시킬 것인지 여부에 대한 설정을 할 수 있다.
본 발명의 실시예에 따르면, 아래와 같이 입력자의 손가락 및 손의 움직임을 기반으로 동작 인식부 위에서 정해진 제스쳐를 사용하여 마우스의 입력 신호를 대신할 수 있다. 마우스의 입력 신호는 아래와 같은 입력자의 손 모션에 기반하여 입력될 수 있다.
(1) 마우스의 좌클릭 동작은 입력자가 두번째 손가락을 누르듯이 찍는 제스쳐를 취한 경우 이를 동작 인식부가 인식하여 수행될 수 있다.
(2) 마우스의 우클릭 동작은 입력자가 두 번째와 세번째 손가락을 모아서 누르듯이 찍는 제스쳐를 취한 경우 이를 동작 인식부가 인식하여 수행될 수 있다.
(3) 마우스의 드래그 앤 드롭 동작은 입력자가 두번째, 세번째, 네번째 손가락들을 모아서 누르듯이 하여 이동시키는 제스쳐를 취한 경우 이를 동작 인식부가 인식하여 수행될 수 있다.
(4) 마우스의 상하 및 좌우의 움직임은 입력자가 두번째 손가락을 상하좌우로 움직이는 제스쳐를 취한 경우 이를 동작 인식부가 인식하여 수행될 수 있다.
(5) 마우스의 페이지 넘김은 입력자가 두번째부터 다섯번째 손가락을 모두 사용하여 좌우에 우로 쓸어내리는 제스쳐와 우에서 좌로 쓸어내리는 제스쳐를 취한 경우 이를 동작 인식부가 인식하여 수행될 수 있다.
(6) 마우스의 상하스크롤 동작은 입력자가 위에서 아래로 쓸어내리거나 올리는 제스쳐를 취한 경우 이를 동작 인식부가 인식하여 수행될 수 있다.
(7) 마우스의 가운데 마우스 버튼(3버튼 마우스) 클릭은 입력자가 세 번째 손가락을 동작 인식부 위에서 누르듯이 찍는 제스쳐를 취한 경우 이를 동작 인식부가 인식하여 수행될 수 있다.
전술한 예는 입력자의 손가락 및 손의 움직임을 기반으로 마우스의 입력 신호를 생성하기 위한 제스쳐 매핑은 하나의 예시이다. 즉, 입력자의 동작도 변할 수 있고, 입력자의 동작과 마우스의 입력 신호의 매핑 사이의 관계는 달라질 수도 있다. 입력자의 동작과 마우스의 입력 신호의 매핑 관계인 제스쳐 매핑은 오른손용과 왼손용 패턴으로 따로 정의되어 사용될수 있다. 또한 입력자 별로 제스쳐의 맵핑을 새롭게 설정하여 설정된 제스쳐 매핑을 통해 입력 신호를 발생시킬 수 있다.
3차원의 입력자 동작을 2차원의 마우스 시그널로 변환하기 위한 신호 변환부가 동작 인식부에 포함될 수 있다.
동작 인식부는 마우스의 동작으로 생성되는 입력 신호뿐만 아니라 다른 입력신호를 생성하기 위해 사용될 수도 있다.
도 5은 본 발명의 실시예에 따른 입력자의 동작을 파악하는 방법을 나타낸 개념도이다.
도 5에서는 입력자의 손가락 및 손의 움직임을 판단하기 위한 방법에 대해 개시한다. 전술한 바와 같이 복수개의 광학적인 신호가 입력자의 손으로 전송될 수 있다. 입력자의 손으로 전송된 광학 신호는 입력자의 손에 위치한 관절의 위치를 기반으로 손의 움직임을 판단하기 위해 사용될 수 있다. 입력자의 손 모양을 기반으로 관절의 위치를 개략적으로 알 수 있고, 관절을 중심으로 한 손가락 또는 손의 움직임을 판단하기 위해 광학 신호를 전송할 수 있다.
예를 들어, 입력자의 첫번째 손가락 및 두번째 손가락(500)으로 전송되는 광학적인 신호가 20개라고 가정할 경우, 20개의 광학적 신호는 입력자의 첫번째 손가락 및 두번째 손가락(500)의 관절을 기반으로 한 움직임을 분석하기 위해 사용될 수 있다. 광학 신호가 반사되는 시간에 따른 거리 측정으로 입력자의 첫번째 손가락 및 두번째 손가락(500)의 움직임을 판단하거나 전송된 광학 신호의 패턴을 분석하여 첫번째 손가락 및 두번째 손가락(500)의 움직임을 판단할 수도 있다.
광학적인 신호를 전송함에 있어서, 특정한 위치에 대한 신호 변화를 더 잘 관찰하기 위해 전송되는 광학 신호의 밀도가 변할 수 있다. 예를 들어, 입력자의 첫번째 손가락 및 두번째 손가락(500)을 기반으로 입력 신호를 주로 판단하는 경우를 가정하면 입력자의 첫번째 손가락 및 두번째 손가락(500)으로 더 많은 광학 신호를 전송하여 손가락의 움직임에 대한 정확한 판단을 수행하도록 할 수 있다.
도 6은 본 발명의 실시예에 따른 동작 인식부를 나타낸 개념도이다.
도 6을 참조하면, 동작 인식부는 센서부(600), 신호 변환부(620), 통신부(640),메모리(660), 프로세서(680)를 포함할 수 있다. 동작 인식부는 하나의 입력 장치일 수 있다.
센서부(600)는 입력자의 동작을 센싱하기 위해 구현될 수 있다. 전술한 바와 같이 입력자의 동작이 광학적인 신호에 의해 센싱되는 경우, 센서부(600)는 광학적인 신호를 발생시키는 광학 신호 발생부, 광학 신호를 수신하는 광학 신호 수신부 및 수신된 신호를 분석하는 신호 분석부를 포함할 수 있다. 센서부(600)는 광학적인 신호를 기반으로 한 센싱 방법이 아닌 다른 방법에 기반하여 손 동작을 센싱할 수도 있다. 예를 들어, 광학 신호가 아닌 다른 매개체(열, 빛, 등)을 이용하여 손 동작을 센싱할 수도 있다.
신호 변환부(620)는 센서부(600)에 의해 센싱된 동작을 입력 신호로 변환할 수 있다. 입력 신호가 마우스에 의해 발생되는 신호인 경우, 센싱된 동작과 입력 신호 사이에 매핑을 수행하여 특정한 동작이 마우스의 입력 신호와 동일하도록 설정할 수 있다. 신호 변환부(620)는 동작 인식부가 아닌 정보 처리 장치에 포함되어 구현될 수도 있다. 센싱된 동작과 입력 신호 사이에 매핑은 사용자의 설정에 따라 변화될 수도 있다.
통신부(640)는 신호 변환부(620)에서 변환된 신호를 정보 처리 장치로 전달할 수 있다. 또한 통신부(640)는 정보 처리 장치에서 전송되는 동작 인식부 설정 정보 및 제어 정보를 수신하여 동작 인식부의 동작을 설정 및 제어 할 수 있다.
메모리(660)는 기본적인 설정 정보 및 센싱된 동작과 입력 신호 사이에 매핑 정보 등을 저장하기 위해 구현될 수 있다.
프로세서(680)는 센서부(600), 신호 변환부(620), 통신부(640) 및 메모리(660)의 동작을 제어하기 위해 구현될 수 있다.
도 7은 본 발명의 실시예에 따른 동작 인식부의 동작을 나타낸 순서도이다.
도 7을 참조하면, 동작 인식부를 정보 처리 장치에 인식시킬 수 있다(단계 S700).
동작 인식부는 정보 처리 장치의 OS를 기반으로 하나의 하드웨어로 인식시켜 동작시킬 수 있다. 동작 인식부를 정보 처리 장치에 인식을 시킬 때 동작 인식부에 대한 초기 디폴트 설정을 수행할 수 있다. 즉, 기본 동작 탐지 위치를 설정할 수 있다. 예를 들어, 사용자의 손 동작 신호를 샘플값을 받아들여 이를 센싱을 수행하기 위한 기본 동작 탐지 위치값으로 설정할 수 있다. 또한 동작 인식부를 정보 처리 장치에 인식을 시킬 때 동작 인식부에서 센싱한 값과 정보 처리 장치로 입력되는 값 사이의 매핑 관계도 새롭게 설정할 수 있다.
동작 인식부에서 입력자의 동작을 센싱한다(단계 S710).
동작 인식부는 입력자의 동작을 센싱하기 위해 전술한 광학적인 방법 또는 기타 다른 매개체를 통해 입력자의 동작을 인식하는 방법을 사용할 수 있다. 동작 인식부는 단계 S800에서 설정된 기본적인 디폴트 설정값(기본 동작 탐지 위치값) 또는 재설정한 값을 기반으로 동작을 센싱할 수 있다. 동작 인식부는 다양하게 구현될 수 있으며, 동작 인식부에서 입력자의 동작을 정확하게 센싱할 수 있도록 동작 인식부의 위치를 변화시킬 수 있다. 예를 들어, 키보드에 트레이 구조를 추가하고 트레이 구조 내에서 동작 인식부가 좌우로 움직여서 입력자의 동작을 센싱하는 방법을 사용할 수 있다.
센싱된 동작이 명확하지 않은 경우, 입력자에게 재입력을 요청하거나 입력된 동작 신호를 무시할 수 있다.
센싱된 동작 신호를 입력 신호로 변환한다(단계 S720).
센싱된 동작 신호는 미리 정해놓은 동작 인식부에서 센싱한 값과 정보 처리 장치로 입력되는 값 사이의 매핑 관계에 기반하여 입력 신호로 변환시킬 수 있다. 예를 들어 특정한 동작을 센싱하고 센싱된 동작과 마우스의 입력 신호로 매핑하여 변환시킬 수 있다.
입력 신호를 정보 처리 장치로 전송한다(단계 S730).
입력 신호를 정보 처리 장치로 전송하여 입력 장치를 기반으로 정보 처리 장치가 동작하도록 제어할 수 있다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (16)

  1. 동작을 인식하여 입력 신호를 생성하기 위해 프로세서에 의해 실행되는 방법에 있어서,
    입력자의 동작을 인식하는 단계; 및
    상기 인식된 동작에 대응되는 상기 입력 신호를 결정하는 단계를 포함하되,
    상기 인식된 동작과 대응되는 상기 입력 신호는 마우스를 기반으로 생성되는 입력 신호를 포함하고,
    상기 인식된 동작에 대응되는 상기 입력 신호를 결정하는 단계는,
    상기 입력자의 동작이 두번째 손가락을 누르듯이 찍는 동작인 경우, 상기 마우스의 좌클릭 동작으로 인식하는 단계;
    상기 입력자의 동작이 두 번째와 세번째 손가락을 모아서 누르듯이 찍는 동작인 경우, 상기 마우스의 우클릭 동작으로 인식하는 단계;
    상기 입력자의 동작이 두번째, 세번째, 네번째 손가락들을 모아서 누르듯이 하여 이동시키는 동작인 경우, 상기 마우스의 드래그 앤 드롭 동작으로 인식하는 단계;
    상기 입력자의 동작이 두번째 손가락을 상하좌우로 움직이는 동작인 경우, 상기 마우스의 상하 및 좌우의 움직임으로 인식하는 단계;
    상기 입력자의 동작이 두번째부터 다섯번째 손가락을 모두 사용하여 좌우에 우로 쓸어내리는 동작 또는 우에서 좌로 쓸어내리는 동작인 경우, 상기 마우스의 페이지 넘김 동작으로 인식하는 단계;
    상기 입력자의 동작이 위에서 아래로 쓸어내리거나 아래에서 위로 올리는 동작인 경우, 상기 마우스의 상하스크롤 동작으로 인식하는 단계; 및
    상기 입력자의 동작이 세 번째 손가락을 동작 인식부 위에서 누르듯이 찍는 동작인 경우, 상기 마우스의 가운데 마우스 버튼(3버튼 마우스) 클릭 동작으로 인식하는 단계를 포함하는, 동작을 인식하여 입력 신호를 생성하기 위해 프로세서에 의해 실행되는 방법.
  2. 제1항에 있어서, 상기 입력자의 동작을 인식하는 단계는
    상기 입력자의 손으로 광학적 신호를 전송하는 단계; 및
    상기 손에서 반사되는 상기 광학적 신호를 기반으로 상기 손의 움직임을 판단하는 단계를 포함하는, 동작을 인식하여 입력 신호를 생성하기 위해 프로세서에 의해 실행되는 방법.
  3. 제2항에 있어서, 상기 손에서 반사되는 상기 광학적 신호를 기반으로 상기 손의 움직임을 판단하는 단계는,
    상기 광학적 신호를 기반으로 측정한 거리 정보 또는 상기 광학적 신호의 패턴 정보를 기반으로 상기 손의 움직임을 판단하는 단계인, 동작을 인식하여 입력 신호를 생성하기 위해 프로세서에 의해 실행되는 방법.
  4. 삭제
  5. 제1항에 있어서, 상기 입력자의 동작을 인식하는 단계는,
    상기 입력자의 동작이 발생하는 위치에 따라 입력 장치의 위치를 물리적으로 이동하여 상기 입력자의 동작을 인식하는 단계인, 동작을 인식하여 입력 신호를 생성하기 위해 프로세서에 의해 실행되는 방법.
  6. 제1항에 있어서, 상기 입력자의 동작을 인식하는 단계는,
    기본 동작 탐지 위치를 설정하는 단계; 및
    상기 설정된 기본 동작 탐지 위치를 기반으로 상기 입력자의 동작을 인식하는 단계를 포함하되,
    상기 기본 동작 탐지 위치를 설정하는 단계는 상기 기본 동작 탐지 위치를 상기 입력자의 왼손 또는 오른손으로 설정하거나 상기 입력자의 기본 동작 탐지 위치를 설정하기 위한 예시적인 동작을 입력받아 설정하는 단계인, 동작을 인식하여 입력 신호를 생성하기 위해 프로세서에 의해 실행되는 방법.
  7. 제6항에 있어서, 상기 설정된 기본 동작 탐지 위치를 기반으로 상기 입력자의 동작을 인식하는 단계는,
    상기 기본 동작 탐지 위치에 상기 입력자의 동작을 인식하기 위한 광학적 신호의 밀도를 높이는 단계인, 동작을 인식하여 입력 신호를 생성하기 위해 프로세서에 의해 실행되는 방법.
  8. 제1항에 있어서,
    상기 인식된 동작과 매핑되는 상기 입력 신호를 설정하는 단계를 더 포함하는, 동작을 인식하여 입력 신호를 생성하기 위해 프로세서에 의해 실행되는 방법.
  9. 동작을 인식하여 입력 신호를 생성하는 입력 장치에 있어서,
    입력자의 동작을 인식하고 상기 인식된 동작에 대응되는 입력 신호를 결정하는 프로세서를 포함하고,
    상기 인식된 동작에 대응되는 상기 입력 신호는 마우스를 기반으로 생성되는 입력 신호를 포함하고,
    상기 프로세서는,
    상기 입력자의 동작이 두번째 손가락을 누르듯이 찍는 동작인 경우 상기 마우스의 좌클릭 동작으로 인식하고, 상기 입력자의 동작이 두 번째와 세번째 손가락을 모아서 누르듯이 찍는 동작인 경우 상기 마우스의 우클릭 동작으로 인식하고, 상기 입력자의 동작이 두번째, 세번째, 네번째 손가락들을 모아서 누르듯이 하여 이동시키는 동작인 경우 상기 마우스의 드래그 앤 드롭 동작으로 인식하고, 상기 입력자의 동작이 두번째 손가락을 상하좌우로 움직이는 동작인 경우 상기 마우스의 상하 및 좌우의 움직임으로 인식하고, 상기 입력자의 동작이 두번째부터 다섯번째 손가락을 모두 사용하여 좌우에 우로 쓸어내리는 동작 또는 우에서 좌로 쓸어내리는 동작인 경우 상기 마우스의 페이지 넘김 동작으로 인식하고 상기 입력자의 동작이 위에서 아래로 쓸어내리거나 아래에서 위로 올리는 동작인 경우 상기 마우스의 상하스크롤 동작으로 인식하고 상기 입력자의 동작이 세 번째 손가락을 동작 인식부 위에서 누르듯이 찍는 동작인 경우 상기 마우스의 가운데 마우스 버튼(3버튼 마우스) 클릭 동작으로 인식하도록 구현되는 입력 장치.
  10. 제9항에 있어서, 상기 프로세서는
    상기 입력자의 손으로 광학적 신호를 전송하고 상기 손에서 반사되는 상기 광학적 신호를 기반으로 상기 손의 움직임을 판단하도록 구현되는 입력 장치.
  11. 제10항에 있어서, 상기 프로세서는,
    상기 광학적 신호를 기반으로 측정한 거리 정보 또는 상기 광학적 신호의 패턴 정보를 기반으로 상기 손의 움직임을 판단하도록 구현되는 입력 장치.
  12. 삭제
  13. 제9항에 있어서, 상기 프로세서는,
    상기 입력자의 동작이 발생하는 위치에 따라 상기 입력 장치의 위치를 물리적으로 이동하여 상기 입력자의 동작을 인식하도록 구현되는 입력 장치.
  14. 제9항에 있어서, 상기 프로세서는
    기본 동작 탐지 위치를 설정하고 상기 설정된 기본 동작 탐지 위치를 기반으로 상기 입력자의 동작을 인식하도록 구현되되,
    상기 기본 동작 탐지 위치를 설정하기 위해 상기 기본 동작 탐지 위치를 상기 입력자의 왼손 또는 오른손으로 설정하거나 상기 입력자의 기본 동작 탐지 위치를 설정하기 위한 예시적인 동작을 입력받아 설정하는 입력 장치.
  15. 제14항에 있어서, 상기 프로세서는,
    상기 기본 동작 탐지 위치에 상기 입력자의 동작을 인식하기 위한 광학적 신호의 밀도를 높이도록 구현되는 입력 장치.
  16. 제9항에 있어서, 상기 프로세서는,
    상기 인식된 동작과 매핑되는 상기 입력 신호를 설정하도록 구현되는 입력 장치.
KR20130061537A 2013-05-30 2013-05-30 동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치 KR101489069B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130061537A KR101489069B1 (ko) 2013-05-30 2013-05-30 동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130061537A KR101489069B1 (ko) 2013-05-30 2013-05-30 동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치

Publications (2)

Publication Number Publication Date
KR20140140761A KR20140140761A (ko) 2014-12-10
KR101489069B1 true KR101489069B1 (ko) 2015-02-04

Family

ID=52458444

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130061537A KR101489069B1 (ko) 2013-05-30 2013-05-30 동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치

Country Status (1)

Country Link
KR (1) KR101489069B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040242988A1 (en) * 2003-02-24 2004-12-02 Kabushiki Kaisha Toshiba Operation recognition system enabling operator to give instruction without device operation
JP2007299384A (ja) * 2006-05-03 2007-11-15 Mitsubishi Electric Research Laboratories Inc コンピュータで実施するマルチタッチセンシティブ画面でマウスをエミュレートする方法及びマウスをエミュレートするシステム
KR20080106265A (ko) * 2006-02-16 2008-12-04 에프티케이 테크놀로지스 리미티드 컴퓨팅 시스템에 데이터를 입력하는 시스템 및 방법
KR101169583B1 (ko) 2010-11-04 2012-07-31 주식회사 매크론 가상마우스 구동방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040242988A1 (en) * 2003-02-24 2004-12-02 Kabushiki Kaisha Toshiba Operation recognition system enabling operator to give instruction without device operation
KR20080106265A (ko) * 2006-02-16 2008-12-04 에프티케이 테크놀로지스 리미티드 컴퓨팅 시스템에 데이터를 입력하는 시스템 및 방법
JP2007299384A (ja) * 2006-05-03 2007-11-15 Mitsubishi Electric Research Laboratories Inc コンピュータで実施するマルチタッチセンシティブ画面でマウスをエミュレートする方法及びマウスをエミュレートするシステム
KR101169583B1 (ko) 2010-11-04 2012-07-31 주식회사 매크론 가상마우스 구동방법

Also Published As

Publication number Publication date
KR20140140761A (ko) 2014-12-10

Similar Documents

Publication Publication Date Title
US20240077969A1 (en) Gesture recognition devices and methods
US8941600B2 (en) Apparatus for providing touch feedback for user input to a touch sensitive surface
EP2717120B1 (en) Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
KR101844366B1 (ko) 터치 제스처 인식 장치 및 방법
US20160364138A1 (en) Front touchscreen and back touchpad operated user interface employing semi-persistent button groups
US20120127070A1 (en) Control signal input device and method using posture recognition
US20060028457A1 (en) Stylus-Based Computer Input System
US9857868B2 (en) Method and system for ergonomic touch-free interface
JP2019537084A (ja) タッチセンサ式キーボード
JP2012515966A (ja) 物体の挙動を監視するためのデバイスおよび方法
KR101328385B1 (ko) 접촉식 손가락 마우스 및 이의 동작 방법
Zhang et al. Gestkeyboard: enabling gesture-based interaction on ordinary physical keyboard
Schmitz et al. Itsy-bits: Fabrication and recognition of 3d-printed tangibles with small footprints on capacitive touchscreens
KR20160097410A (ko) 동작 인식을 통한 비접촉식 입력 인터페이스 제공 방법 및 그 장치
KR20050047329A (ko) 손가락 움직임을 이용한 정보 입력장치 및 방법
KR200477008Y1 (ko) 마우스 겸용 스마트폰
US20010033268A1 (en) Handheld ergonomic mouse
Lüthi et al. DeltaPen: A device with integrated high-precision translation and rotation sensing on passive surfaces
KR20080070786A (ko) 자동 스크롤 광학 펜형 마우스
KR101489069B1 (ko) 동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치
KR20120051274A (ko) 터치 감지영역모양 입력장치용 감지영역모양
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
US20230070034A1 (en) Display apparatus, non-transitory recording medium, and display method
US20150268734A1 (en) Gesture recognition method for motion sensing detector
WO2020078223A1 (zh) 输入设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180110

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190128

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200226

Year of fee payment: 6