KR20080050169A - 제스처 기반 사용자 입력 방법 및 장치 - Google Patents

제스처 기반 사용자 입력 방법 및 장치 Download PDF

Info

Publication number
KR20080050169A
KR20080050169A KR1020060121051A KR20060121051A KR20080050169A KR 20080050169 A KR20080050169 A KR 20080050169A KR 1020060121051 A KR1020060121051 A KR 1020060121051A KR 20060121051 A KR20060121051 A KR 20060121051A KR 20080050169 A KR20080050169 A KR 20080050169A
Authority
KR
South Korea
Prior art keywords
gesture
electronic device
sound
vibration
pad
Prior art date
Application number
KR1020060121051A
Other languages
English (en)
Other versions
KR100856919B1 (ko
Inventor
김지은
손용기
이동우
선우존
조일연
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020060121051A priority Critical patent/KR100856919B1/ko
Publication of KR20080050169A publication Critical patent/KR20080050169A/ko
Application granted granted Critical
Publication of KR100856919B1 publication Critical patent/KR100856919B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 제스처 기반 사용자 입력 방법 및 장치에 관한 것으로 문자, 숫자, 기호 및 도형을 그리는 제스처 모두를 감지할 수 있도록 하기 위하여, 그림 제스처가 그려지는 제스처 패드와, 상기 그림 제스처가 그려질 때 발생되는 상기 제스처 패드의 상기 소리 또는 진동을 감지하는 제스처 감지부와, 복수개의 유효 제스처들 각각에 대응되는 기준 데이터를 매핑하여 저장하는 제스처 저장부와, 상기 소리 또는 진동을 분석하여 특징 데이터를 추출하고, 상기 특징 데이터를 복수개의 유효 제스처들 각각에 매핑된 복수개의 기준 데이터들과 비교하여, 상기 특징 데이터에 대응되는 상기 유효 제스처를 획득하는 제스처 인식부와, 상기 제스처 인식부를 통해 상기 획득된 유효 제스처를 전자장치에 통보하는 통신부를 포함하는 것을 특징으로 하며, 이에 의하여 그림 제스처를 통해 전자 기기의 특정 기능을 선택하고 실행되도록 할 뿐 만 아니라 문자, 숫자, 기호 및 도형도 직접 전자 기기로 입력할 수 있도록 한다.
제스처 패드, 그림 제스처, 전자 기기 제어

Description

제스처 기반 사용자 입력 방법 및 장치{Method and Apparatus for user input based on gesture}
도1은 종래의 기술에 따른 손가락 및 손 제스처를 이용한 무선 전자 기기 제어 장치의 구성을 도시한 도면,
도2는 본 발명의 바람직한 일 실시예에 따른 제스처 기반 사용자 입력 장치의 구성을 도시한 도면,
도3A는 본 발명의 바람직한 일 실시예에 따른 제스처 패드와 그림 제스처별로 상이한 소리 또는 진동을 도시한 도면,
도3B는 본 발명의 바람직한 다른 실시예에 따른 제스처 패드와 그림 제스처별로 상이한 소리 또는 진동을 도시한 도면,
도4A는 본 발명의 일 실시예에 따른 유효 제스처와 전자 기기의 기능간 매핑관계를 설명하기 위한 도면,
도4B는 본 발명의 다른 실시예에 따른 유효 제스처와 전자 기기의 기능간 매핑관계를 설명하기 위한 도면,
도4C는 본 발명의 일 실시예에 따른 유효 제스처와 전자 기기의 버튼 정보간 매핑관계를 설명하기 위한 도면,
도5는 본 발명의 일 실시예에 따른 제스처 기반 사용자 입력 방법을 설명하 기 위한 도면,
도6은 본 발명의 제스처 기반 사용자 입력 장치의 일 실시예에 따른 구현예를 도시한 도면, 그리고
도7은 본 발명의 제스처 기반 사용자 입력 장치의 다른 실시예에 따른 구현예를 도시한 도면이다.
본 발명은 제스처 기반 사용자 입력 장치에 관한 것으로, 특히 단순 제스처 뿐 만 아니라 사용자에게 의미가 있는 뭇자, 숫자, 기호, 또는 도형과 같은 그림 제스처를 감지할 수 있도록 하는 제스처 기반 사용자 입력 방법 및 장치에 관한 것이다.
미국 특허 공개 공보 US20020009972(공개일:2002년 1월 24일)는 도1의 구성 요소들을 구비하여 손가락 및 손 제스처를 이용한 무선 전자 기기 제어 시스템, 방법 및 장치를 제안하고 있다.
계속하여 도1을 참조하면, 생체 음향 센서(11)는 손가락 또는 손의 제스처에 따라 발생하는 생체 음향을 감지하고, 신호 증폭부(12)는 생체 음향을 소정 크기로 증폭하고, 디지털 프로세서(14)는 기 설정된 제스처 데이터와 현재에 생체 음향을 비교하고, 비교 결과에 따라 전자 기기의 특정 기능을 선택하도록 하는 제스처의 식별 정보를 획득하도록 한다.
그러나 도1의 시스템을 통해 감지할 수 있는 제스처는 특정 손가락의 접촉 여부, 특정 손톱의 접촉 여부, 또는 접촉 횟수등과 같은 단순한 기준에 따라 구분된다.
이에 종래의 손가락 및 손 제스처를 이용한 무선 전자 기기 제어 장치는 단순한 제스처 만을 감지하고 이들에 전자 기기의 기능들을 매핑하였으므로, 매우 복잡하고 다양한 기능을 가지는 전자 기기의 모든 기능을 매핑하는 데에는 한계가 있었다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 문자, 숫자, 기호 및 도형을 그리는 제스처 모두를 감지할 수 있도록 하여, 감지가능한 제스처의 종류를 획기적으로 증대시켜 주는 제스처 기반 사용자 입력 방법 및 장치를 제공하는 것이다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 제스처 기반 사용자 입력 장치는 그림 제스처가 그려지는 하나 이상의 제스처 패드와, 상기 제스처 패드에 그림 제스처가 그려질 때 발생되는 상기 소리 또는 진동을 감지하는 제스처 감지부와, 복수개의 유효 제스처들 각각에 대응되는 기준 데이터를 매핑하여 저장하는 제스처 저장부와, 상기 소리 또는 진동을 분석하여 특징 데이터를 추출하고, 상기 특징 데이터를 복수개의 유효 제스처들 각각에 매핑된 복수개의 기준 데이터들과 비교하여, 상기 특징 데이터에 대응되는 상기 유효 제스처를 획득하는 제스처 인식부 와, 상기 제스처 인식부를 통해 상기 획득된 유효 제스처를 전자기기에 통보하는 통신부를 구비한다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 제스처 기반 사용자 입력 장치를 이용하는 전자 장치는 그림 제스처가 그려질 때 발생되는 소리 또는 진동을 감지 및 분석하여 특징 데이터를 추출한 후, 복수개의 유효 제스처들 각각에 매핑된 복수개의 기준 데이터들과 비교하여 유효 제스처를 획득하는 제스처 인식 장치와, 상기 복수개의 유효 제스처들 각각에 복수개의 기능들 또는 복수개 버튼 정보들을 매핑한 후, 상기 제스처 인식 장치를 통해 획득된 상기 유효 제스처에 매핑된 기능을 수행하거나 상기 유효 제스처에 매핑된 버튼 정보를 사용자 입력 값으로 획득하여 입력하는 하나 이상의 전자 기기를 구비한다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 제스처 기반 사용자 입력 방법은 하나 이상의 제스처 패드에 그림 제스처가 그려질 때에 발생하는 소리 또는 진동을 감지하는 감지 단계와, 상기 소리 또는 진동을 분석하여 특징 데이터를 추출한 후, 상기 특징 데이터를 복수개의 유효 제스처들 각각에 매핑된 복수개의 기준 데이터들과 비교하여, 상기 특징 데이터에 대응되는 상기 유효 제스처를 획득하는 제스처 인식 단계와, 상기 획득된 유효 제스처를 전자 기기로 통보하는 통보 단계를 구비한다.
이하 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 바람직한 실시 예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예에 대한 동작 원리를 상세하게 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.
또한, 도면 전체에 걸쳐 유사한 기능 및 작용을 하는 부분에 대해서는 동일한 도면 부호를 사용한다.
도2는 본 발명의 바람직한 일 실시예에 따른 제스처 기반 사용자 입력 장치의 구성을 도시한 도면이다.
도2에 도시된 바와 같이, 본 발명의 제스처 기반 사용자 입력 장치(20)는 제스처 패드(21), 제스처 감지부(22), 제스처 저장부(23), 제스처 인식부(24) 및 통신부(25)를 구비한다.
제스처 패드(21)는 제스처 감지 동작을 위한 특수한 소리 또는 진동을 발생시키는 고유 표면 패턴을 구비하여, 사용자가 다양한 형태의 그림 제스처를 그릴 수 있도록 한다.
이때, 그림 제스처는 문자를 쓰기 위한 제스처, 숫자를 쓰기 위한 제스처, 기호를 그리기 위한 제스처, 또는 도형을 그리기 위한 제스처 등을 모두 포함한다. 그리고 제스처 패드(21)는 하나 이상으로 구현될 수 있으며, 전자 기기(30)의 사용자가 몸에 지니거나 착용할 수 있는 모든 대상과 사용자가 직접 접촉할 수 있는 주변의 모든 대상의 표면 일부 또는 전체에 존재할 수 있다. 또한 필요한 경우에는 마우스 패드와 같이 독립된 형태로써 존재할 수 도 있다.
제스처 감지부(22)는 사용자가 제스처 패드(21)에 그림 제스처를 그릴 때 발생하는 소리 또는 진동을 감지 및 획득하고, 제스처 인식부(24)가 인식할 수 있도 록 증폭한다.
제스처 저장부(23)는 감지하고자 하는 유효 제스처들의 식별 정보들 각각에 기준 데이터를 매핑하여 저장한다.
제스처 인식부(24)는 제스처 감지부(22)로부터 출력되는 소리 또는 진동을 분석하여 제스처 패드(21)에 그려진 그림 제스처의 특징 데이터를 추출한다. 그리고 제스처 저장부(23)를 검색하여 특징 데이터와 일치하는 값을 가지는 기준 데이터를 획득하고, 획득된 기준 데이터에 매핑된 제스처의 식별 정보를 획득한다. 즉, 제스처 감지부(22)로부터 출력되는 소리 또는 진동에 대응되는 유효 제스처를 인식한다.
또한 제스처 인식부(24)는 사용자의 요청에 응답하여 별도의 설정 동작을 수행하여, 유효 제스처들 및 유효 제스처들 각각에 매핑되는 기준 데이터를 재설정 또는 변경할 수 있다.
통신부(25)는 전자 기기(30)와의 유선 또는 무선으로 연결되어, 제스처 인식부(24)를 통해 인식된 제스처의 식별 정보를 전송한다.
하나이상의 전자 기기(30)는 유효 제스처들의 식별 정보들 각각에 매핑되는 기능들 또는 버튼 정보들을 사전에 정의한다. 그리고 제스처 기반 사용자 입력 장치(20)로부터 유효 제스처의 식별 정보가 전송되면, 전송된 유효 제스처의 식별 정보에 매핑된 기능을 실질적으로 수행하거나 버튼 정보를 사용자 입력 값으로 획득하는 사용자 입력 동작을 수행하여 준다.
도3A는 본 발명의 바람직한 일 실시예에 따른 제스처 패드와 그림 제스처별 로 상이한 소리 또는 진동을 도시한 도면이다.
도3A의 제스처 패드는 하나의 패드(pad10)로 구현된 것으로, 패드(pad10)는 일상생활에서는 발생되기 힘든 소리 또는 진동을 발생할 수 있도록 격자패턴, 돌출패턴 및 굴곡 패턴 등과 같이 특수한 표면 형태와 특수한 재질을 가지도록 구현되며, 서로 다른 표면 형태나 재질을 갖는다.
이에 사용자가 도 3A의 (a),(b),(c) 및 (d)에 도시된 바와 같이 동일한 패드(pad10)에 상이한 형태의 그림 제스처를 즉, 문자, 숫자, 기호, 또는 도형을 그리면, 패드(pad10)는 사용자에 의해 그려지는 그림 제스처에 대응되는 특수한 소리 또는 진동을 발생한다.
도3B는 본 발명의 바람직한 다른 실시예에 따른 제스처 패드와 그림 제스처별로 상이한 소리 또는 진동을 도시한 도면이다.
도3B의 제스처 패드는 복수개의 상이한 패드들(pad21~pad24)로 구현된 것으로, 복수개의 상이한 패드들(pad21~pad24)은 일상생활에서는 발생되기 힘든 소리 또는 진동을 발생할 수 있도록 격자패턴, 돌출패턴 및 굴곡 패턴 등과 같이 특수한 표면 형태와 특수한 재질을 가지도록 구현되며, 서로 다른 표면 형태나 재질을 갖는다.
이에 사용자는 도 3B의 (a) 및 (b)에 도시된 바와 같이 하나의 패드(pad21,pad22)에만 그림 제스처를 그리거나, (c) 및 (d)에 도시된 바와 같이 두개 이상의 패드들(pad21,pad22)을 거치면서 그림 제스처를 그릴 수 있다.
그러면 제스처 패드는 도3B의 (a) 및 (b)에 도시된 바와 같이 하나의 패 드(pad21,pad22)를 통해 그림 제스처에 대응되는 특수한 소리 또는 진동을 발생하거나, 도3B의 (c) 및 (d)에 도시된 바와 같이 두개의 패드들(pad21,pad22)을 통해 그림 제스처에 대응되는 특수한 소리 또는 진동들을 연달아 발생한다.
따라서 도3B의 제스처 패드를 통해서는 도3A의 제스처 패드보다 다양한 종류의 그림 제스처들을 그릴 수 있다.
도4A는 본 발명의 일 실시예에 따른 유효 제스처와 전자 기기의 기능간 매핑관계를 설명하기 위한 도면이다.
도4A에서는 도3A와 같이 구현되는 두개의 제스처 패드들(pad31,pad32)을 구비하고, 하나 이상의 기능을 가지는 복수개의 전자 기기들(31~34)을 구비한다고 가정한다.
계속하여 도4A를 참조하면, 제1 제스처 패드(pad31)를 통해 획득되는 복수개의 유효 제스처들(C11~C14)에는 복수개의 전자 기기들(31~34)을 각각 매핑하고, 제2 제스처 패드(pad32)를 통해 획득되는 복수개의 유효 제스처들(C21~C2n)에는 전자 기기(31~34)내 기능들(f11,f21~f22,f31~f3m,f41~f4n)을 각각 매핑한다.
이에 사용자는 제1 제스처 패드(pad31)에 복수개의 유효 제스처들 중 하나(C14)를 그려 하나의 전자 기기(34)를 선택하고, 제2 제스처 패드(pad32)상에 복수개의 유효 제스처들 중 하나(C21)를 그려 현재에 선택된 전자 기기(34)의 특정 기능(f41)을 선택할 수 있다.
또한 경우에 따라서는 복수개의 제스처 패드들 및 유효 제스처들과 복수개의 전자 기기 및 기능간의 여러 가지 형태로 변형하여, 전자 기기 및 기능의 선택 방 법을 변형시켜 줄 수 있음은 물론 당연하다.
도4B는 본 발명의 다른 실시예에 따른 유효 제스처와 전자 기기의 기능간 매핑관계를 설명하기 위한 도면이다.
도4B에서는 도3B와 같이 복수개의 상이한 패드들로 구현되는 하나의 복합형 제스처 패드(pad40)를 구비하고, 복수개의 기능들(f51~f5n)을 가지는 전자 기기들(35)을 구비한다고 가정한다.
계속하여 도4B를 참조하면, 제스처 패드(pad40)내 상이한 패드들을 하나 또는 두개를 통해 획득되는 복수개의 유효 제스처들(c41~c4n)에 전자 기기(35)의 기능들(f51~f5n)을 각각 매핑한다.
이에 사용자는 복합형 제스처 패드(pad40)에 복수개의 유효 제스처들(C31~C3n) 중 하나(C31)를 그려 전자 기기(35)의 특정 기능(f1)을 선택할 수 있다.
또한 경우에 따라서는 도4A의 동작 원리를 이용하여 특정 패드를 통해 획득되는 복수개의 유효 제스처들에 복수개의 전자 기기들을 각각 매핑하고, 두개 이상의 패드들을 통해 획득되는 복수개의 유효 제스처들에 전자 기기내 복수개의 기능들 각각을 매핑할 수도 있다. 즉, 도4B의 제스처 패드(pad40)가 도4A의 복수개의 제스처 패드를 대체할 수도 있다.
도4C는 본 발명의 일 실시예에 따른 제스처와 전자 기기의 버튼 정보간의 매핑관계를 설명하기 위한 도면이다.
도4C에서는 도3A와 같이 구현되는 제스처 패드(pad50)를 구비하고, 유효 제 스처의 식별 정보들 각각에 복수개의 버튼 정보들을 매핑한 전자 기기(36)를 구비한다.
계속하여 도4C를 참조하면, 제스처 패드(pad50)에 쓰이는 복수개의 문자들(K,I,M,A,B)(또는 숫자, 기호, 도형) 각각에 해당 문자들(K,I,M,A,B)을 입력받기 위한 복수개의 버튼 정보들을 매핑한다.
이에 사용자가 제스처 패드(pad50)에 복수개의 문자들(K,I,M,A,B)(또는 숫자, 기호, 도형)을 순차적으로 쓰면, 제스처 인식부(24)는 제스처 패드(pad50)에 쓰여진 문자에 대응되는 유효 제스처의 식별정보들은 순차적으로 획득하여 전자 기기(36)로 전송한다. 그러면 전자 기기(36)는 전송된 복수개의 유효 제스처의 식별 정보들 각각에 매핑된 버튼 정보들을 사용자 입력 값으로써 획득하여 사용자 입력 동작을 수행하고, 이와 동시에 현재에 입력된 문자들을 사용자가 인식할 수 있도록 디스플레이하여 준다.
기본적으로 모든 사람들은 강약, 빠르기, 방향 및 습관이 고유한 각자의 필체를 가지고 있으며, 이러한 특징은 펜이나 연필을 사용하지 않고 손가락을 사용하더라도 동일하게 반영되므로, 제스처 패드에 그려진 그림 제스처 즉, 문자, 숫자, 기호 및 도형이 인증된 사용자의 필체인지를 용이하게 감지할 수 있다.
이에 인증된 사용자의 필체에 해당하는 그림 제스처만을 유효 제스처로 인식할 수 있도록 사전에 설정함으로써, 전자 기기를 인증된 사용자만이 사용할 수 있도록 할 수 있다. 그리고 이러한 경우에는 제스처 패드에 그림 제스처의 흔적이 전혀 남지 않으므로 필체의 도용 가능성도 사전에 방지할 수 있다.
도5는 본 발명의 일 실시예에 따른 제스처 기반 사용자 입력 방법을 설명하기 위한 도면이다.
먼저, 사용자가 도3A 또는 도3B와 같이 구현되는 제스처 패드(21)상에 제스처를 그린다(S1).
그러면 제스처 패드(21)는 현재 사용자가 그리는 그림 제스처에 상응하는 소리 또는 진동을 발생하고, 제스처 감지부(22)는 제스처 패드(21)의 소리 또는 진동을 감지하여 제스처 인식부(24)로 전달한다(S2).
제스처 인식부(24)는 제스처 감지부(22)로부터 전달되는 소리 또는 진동을 분석하여 사용자가 그린 그림 제스처의 특징 데이터를 추출한 후(S3), 제스처 저장부(23)에 저장된 기준 데이터들을 검색하여 추출된 특징 데이터와 일치하는 기준 데이터가 존재하는지 확인한다(S4).
단계S4의 확인결과, 추출된 특징 데이터와 일치하는 기준 데이터가 존재하면(S5), 제스처 인식부(24)는 기준 데이터에 매핑된 유효 제스처의 식별 정보를 획득한 후(S6), 획득된 유효 제스처 식별 정보를 전자장치(30)로 전달하여 준다(S7).
이에 전자 기기(30)는 유효 제스처의 식별 정보를 통해 현재의 사용자가 요청한 기능 또는 버튼 정보가 무엇인지를 확인하고, 해당 기능을 수행하거나 해당 버튼 정보를 입력하여 사용자가 필요로 하는 서비스를 제공한다.
반면에 단계S4의 확인결과, 추출된 특징 데이터와 일치하는 기준 데이터가 없으면(S5), 제스처 인식부(24)는 사용자의 실수로 수행된 입력 동작 또는 무의미한 그림 제스처임을 확인하고 현재의 동작을 종료하여 준다(S8).
도6은 본 발명의 제스처 기반 사용자 입력 장치의 일 실시예에 따른 구현예를 도시한 도면으로, 도6의 제스처 기반 사용자 입력 장치는 손목 밴드형으로 구현된다.
계속하여 도6을 참조하면, 제스처 패드(21)는 작업대 표면(41)으로 구현되며, 제스처 감지부(22), 제스처 저장부(23), 제스처 인식부(24) 및 통신부(25)는 하나의 집적 회로(42)로 구현된 후 사용자의 손목에 착용되는 손목형 밴드(43)내에 구비된다. 즉, 제스처 기반 사용자 입력 장치는 손목형 밴드 장치로 구현된다.
바람직하게 제스처 패드(21)는 착탈 가능하도록 하여 사용자의 의복, 사용자의 책상 및 사용자 휴대기기등의 다양한 위치에 부착될 수 있도록 한다.
이에 사용자가 손목형 밴드(43)를 손목에 차고, 작업대 표면(41)에 그림 체스처를 그리면, 작업대 표면 즉, 제스처 패드(21)의 소리 또는 진동은 사용자의 몸을 매개로하여 집적 회로(42)내 제스처 감지부(22)로 전달된다.
그러면 제스처 감지부(22), 제스처 저장부(23), 제스처 인식부(24) 및 통신부(25)는 도5에 설명된 절차를 거쳐 현재 제스처 패드(21)상에 그려진 그림 제스처에 대응되는 유효 제스처의 식별 정보를 획득한 후, 외부의 전자 기기(40)로 제공하여 준다.
이와 같은 본 발명의 제스처 기반 사용자 입력 장치는 제스처 패드(21)와 제스처 감지부(22), 제스처 저장부(23), 제스처 인식부(24) 및 통신부(25)를 물리적으로 분리함으로써 적용 범위를 다양화시킨다.
예를 들어, 제스처 패드를 자동자의 운전대에 부착하는 경우, 사용자는 손가 락 하나만을 움직여 그림 제스처를 그릴 수 있기 때문에 운전 중에도 자동차 안의 와이퍼, 깜빡이, 경적과 같은 자동차 내부 장치의 제어 뿐 만 아니라 카오디오나 자신의 모바일 폰의 제어를 보다 안전하게 수행할 수 있다.
즉, 라디오 특정 주파수에 매핑된 숫자를 제스처 패드에 그림으로써 해당 주파수로 직접 이동하거나, 모바일 폰의 버튼에 매핑된 숫자들을 제스처 패드에 그림으로써 해당 전화번호로의 전화 연결을 수행할 수 있도록 한다.
또한 본 발명의 제스처 패드는 별도의 전기 장치를 필요로 하지 않으므로, 제스처 패드 자체를 착탈 가능하도록 하여 사용자의 의복의 일부로 장식할 수도 있다. 이에 옷의 기능을 해지지 않으면서 세탁도 가능하도록 할 뿐 만 아니라, 사용자의 옷을 바꿔 입을 수 있도록 한다.
도7은 본 발명의 제스처 기반 사용자 입력 장치의 다른 구현예를 도시한 도면으로, 도7의 제스처 기반 사용자 입력 장치는 전자 기기와 일체형으로 구현된다.
계속하여 도7을 참조하면, 제스처 패드(21)는 전자 기기(50)의 표면(51)으로 구현되고, 제스처 감지부(22), 제스처 저장부(23), 제스처 인식부(24) 및 통신부(25)는 하나의 집적 회로(52)로 구현된 후 전자 기기(50)의 내부에 구비된다.
바람직하게 제스처 감지부(22)는 전자 기기의 표면(51)과 직접 연결되어, 전자 기기의 표면(51)으로 구현된 제스처 패드(21)의 소리 또는 진동을 보다 정확하게 감지할 수 있도록 한다.
이에 사용자가 전자 기기의 표면(51)상에 구현된 제스처 패드(21)에 그림 제스처를 그리면, 제스처 감지부(22)는 전자 기기의 표면(51)의 소리 또는 진동을 직 접 수신 및 감지한다. 그러면 제스처 감지부(22), 제스처 저장부(23), 제스처 인식부(24) 및 통신부(25)는 도5에 설명된 절차를 거쳐 현재 제스처 패드(21)상에 그려진 그림 제스처에 대응되는 유효 제스처의 식별 정보를 획득한다.
따라서 도7의 전자기기(50)는 복수개의 버튼들을 구비하는 사용자 입력 장치를 본 발명의 제스처 기반 사용자 입력 장치로 대체할 수 있다. 즉, 사용자 입력을 감지하고 통보하기 위한 복수개의 버튼들을 제스처 패드(21)로 대체하고, 제스처 패드(22)상에 그려지는 복수개의 제스처들을 사용자 입력 값으로 이용할 수 있다.
또한 이러한 경우에는 버튼이 아닌 사용자가 그린 그림 제스처를 통해 특정 기능이 선택하므로 사용자는 현재에 요청한 기능이 무엇인지를 보다 정확하게 인식할 수 있어, 전자 기기를 보다 정확하게 구동시킬 수 있게 된다. 이때 그림 제스처는 전자기기 제조사가 제스처 패드(22)를 포함한 전자 기기 표면에 그림 설명한 것을 보고 또는 대고 그리면 된다.
상기의 설명에서는 제스처 감지부(22), 제스처 저장부(23), 제스처 인식부(24) 및 통신부(25)를 제스처 패드(21)와 분리되는 하나의 집적 회로(52)로 구현하도록 하였으나, 이는 필요에 따라서 여러 가지 형태로 변형될 수 있음은 물론 당연하다.
예를 들어, 제스처 패드(21)와 제스처 감지부(22)와 통신부(25)로 구현되는 제1 집적회로와, 제스처 인식부(24)와 통신부(25)로 구현되는 제2 집적회로를 구비하는 제1형태, 제스처 패드와, 제스처 감지부(22)와 통신부(25)로 구현되는 제1 집적회로와, 제스처 인식부(24)와 통신부(25)로 구현되는 제2 집적회로를 구비하는 제2 형태, 그리고 제스처 패드와, 제스처 감지부(22)와 통신부(25)로 구현되는 제1 집적회로와, 제스처 인식부(24)와 통신부(25)로 구현되며 전자 기기의 내부에 위치되는 제2 집적회로를 구비하는 제3 형태 등으로 변형될 수 있다.
이상에서 설명한 본 발명은 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경할 수 있다는 것은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 당업자에게 있어 명백할 것이다.
이와 같이 본 발명의 제스처 기반 사용자 입력 방법 및 장치는 문자, 숫자, 기호 및 도형을 가지는 그림 제스처를 감지하고 입력할 수 있도록 하여, 하나의 그림 제스처를 통해 전자 기기의 특정 기능을 선택하고 실행되도록 할 뿐 만 아니라 문자, 숫자, 기호 및 도형도 직접 전자 기기로 입력할 수 있도록 한다.

Claims (29)

  1. 그림 제스처가 그려지는 하나 이상의 제스처 패드;
    상기 제스처 패드에 그림 제스처가 그려질 때 발생되는 상기 소리 또는 진동을 감지하는 제스처 감지부;
    복수개의 유효 제스처들 각각에 대응되는 기준 데이터를 매핑하여 저장하는 제스처 저장부;
    상기 소리 또는 진동을 분석하여 특징 데이터를 추출하고, 상기 특징 데이터를 복수개의 유효 제스처들 각각에 매핑된 복수개의 기준 데이터들과 비교하여, 상기 특징 데이터에 대응되는 상기 유효 제스처를 획득하는 제스처 인식부; 및
    상기 제스처 인식부를 통해 상기 획득된 유효 제스처를 전자기기에 통보하는 통신부를 구비하는 제스처 기반 사용자 입력 장치.
  2. 제1항에 있어서, 상기 그림 제스처는
    문자를 쓰기 위한 제스처, 숫자를 쓰기 위한 제스처, 기호를 그리기 위한 제스처, 및 도형을 그리기 위한 제스처 중 하나 인 것을 특징으로 하는 제스처 기반 사용자 입력 장치.
  3. 제1항에 있어서, 상기 하나 이상의 제스처 패드 각각은
    일상생활에서는 발생되기 힘든 소리 또는 진동을 발생하는 표면 형태와 재질 을 가지는 하나의 패드로 구현되는 것을 특징으로 하는 제스처 기반 사용자 입력 장치.
  4. 제3항에 있어서, 상기 제스처 인식부는
    상기 제스처 패드와 상기 전자 기기가 하나이면,
    상기 소리 또는 진동을 분석하여 상기 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치.
  5. 제3항에 있어서, 상기 제스처 인식부는
    상기 제스처 패드와 상기 전자 기기가 복수개면,
    상기 소리 또는 진동을 분석하여 상기 복수개의 전자 기기들 중 하나를 선택하기 위한 상기 유효 제스처를 획득하거나, 상기 선택된 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치.
  6. 제1항에 있어서, 상기 하나 이상의 제스처 패드 각각은
    일상생활에서는 발생되기 힘든 소리 또는 진동을 발생하는 표면 형태와 재질을 가지며, 서로 상이한 소리 또는 진동을 발생하는 복수개의 패드들로 구현되는 것을 특징으로 하는 제스처 기반 사용자 입력 장치.
  7. 제6항에 있어서, 상기 제스처 인식부는
    상기 전자 기기가 하나이면,
    상기 소리 또는 진동을 분석하여 상기 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치.
  8. 제6항에 있어서, 상기 제스처 인식부는
    상기 전자 기기가 복수개면,
    상기 소리 또는 진동을 분석하여 상기 복수개의 전자 기기들 중 하나를 선택하기 위한 상기 유효 제스처를 획득하거나, 상기 선택된 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치.
  9. 제1항에 있어서, 상기 하나 이상의 제스처 패드 각각은
    탈부착이 가능한 형태로 구현되는 것을 특징으로 하는 제스처 기반 사용자 입력 장치.
  10. 제1항에 있어서,
    상기 제스처 감지부, 상기 제스처 저장부, 상기 제스처 인식부 및 상기 통신 부는 손목 밴드형 장치로 구현되고, 상기 제스처 패드는 상기 손목 밴드형 장치와 분리되도록 구현되며,
    상기 제스처 감지부는 사용자의 몸을 통해 상기 제스처 패드의 소리 또는 진동을 감지하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치.
  11. 제1항에 있어서,
    상기 제스처 감지부, 상기 제스처 저장부, 상기 제스처 인식부 및 상기 통신부는 상기 전자 기기의 내부 회로로써 구현되고, 상기 제스처 패드는 상기 전자 기기의 표면상에 구현되며,
    상기 제스처 감지부는 상기 전자 기기의 표면을 통해 상기 제스처 패드의 소리 또는 진동을 감지하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치.
  12. 그림 제스처가 그려질 때 발생되는 소리 또는 진동을 감지 및 분석하여 특징 데이터를 추출한 후, 복수개의 유효 제스처들 각각에 매핑된 복수개의 기준 데이터들과 비교하여 유효 제스처를 획득하는 제스처 인식 장치;
    상기 복수개의 유효 제스처들 각각에 복수개의 기능들 또는 복수개 버튼 정보들을 매핑한 후, 상기 제스처 인식 장치를 통해 획득된 상기 유효 제스처에 매핑된 기능을 수행하거나 상기 유효 제스처에 매핑된 버튼 정보를 사용자 입력 값으로 획득하여 입력하는 하나 이상의 전자 기기를 구비하는 제스처 기반 사용자 입력 장치를 이용하는 전자 장치.
  13. 제12항에 있어서, 상기 그림 제스처는
    문자를 쓰기 위한 제스처, 숫자를 쓰기 위한 제스처, 기호를 그리기 위한 제스처, 및 도형을 그리기 위한 제스처 중 하나 인 것을 특징으로 하는 제스처 기반 사용자 입력 장치를 이용하는 전자 장치.
  14. 제13항에 있어서, 상기 제스처 인식 장치는
    상기 그림 제스처가 그려지는 하나 이상의 제스처 패드;
    상기 제스처 패드에 상기 그림 제스처가 그려질 때 발생되는 상기 소리 또는 진동을 감지하는 제스처 감지부;
    상기 복수개의 유효 제스처들 각각에 대응되는 상기 기준 데이터를 매핑하여 저장하는 제스처 저장부;
    상기 소리 또는 진동을 분석하여 상기 특징 데이터를 추출하고, 상기 특징 데이터를 복수개의 유효 제스처들 각각에 매핑된 복수개의 기준 데이터들과 비교하여, 상기 특징 데이터에 대응되는 상기 유효 제스처를 획득하는 제스처 인식부; 및
    상기 제스처 인식부를 통해 상기 획득된 유효 제스처를 전자기기에 통보하는 통신부를 구비하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치를 이용하는 전자 장치.
  15. 제14항에 있어서, 상기 하나 이상의 제스처 패드 각각은
    일상생활에서는 발생되기 힘든 소리 또는 진동을 발생하는 표면 형태와 재질을 가지는 하나의 패드로 구현되는 것을 특징으로 하는 제스처 기반 사용자 입력 장치를 이용하는 전자 장치.
  16. 제15항에 있어서, 상기 제스처 인식부는
    상기 제스처 패드와 상기 전자 기기가 하나이면,
    상기 소리 또는 진동을 분석하여 상기 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치를 이용하는 전자 장치.
  17. 제15항에 있어서, 상기 제스처 인식부는
    상기 제스처 패드와 상기 전자 기기가 복수개면,
    상기 소리 또는 진동을 분석하여 상기 복수개의 전자 기기들 중 하나를 선택하기 위한 상기 유효 제스처를 획득하거나, 상기 선택된 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치를 이용하는 전자 장치.
  18. 제14항에 있어서, 상기 하나 이상의 제스처 패드 각각은
    일상생활에서는 발생되기 힘든 소리 또는 진동을 발생하는 표면 형태와 재질을 가지며, 서로 상이한 소리 또는 진동을 발생하는 복수개의 패드들로 구현되는 것을 특징으로 하는 제스처 기반 사용자 입력 장치를 이용하는 전자 장치.
  19. 제18항에 있어서, 상기 제스처 인식부는
    상기 전자 기기가 하나이면,
    상기 소리 또는 진동을 분석하여 상기 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치를 이용하는 전자 장치.
  20. 제18항에 있어서, 상기 제스처 인식부는
    상기 전자 기기가 복수개면,
    상기 소리 또는 진동을 분석하여 상기 복수개의 전자 기기들 중 하나를 선택하기 위한 상기 유효 제스처를 획득하거나, 상기 선택된 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 장치를 이용하는 전자 장치.
  21. 제14항에 있어서, 상기 하나 이상의 제스처 패드 각각은
    탈부착이 가능한 형태로 구현되는 것을 특징으로 하는 제스처 기반 사용자 입력 장치를 이용하는 전자 장치.
  22. 하나 이상의 제스처 패드에 그림 제스처가 그려질 때에 발생하는 소리 또는 진동을 감지하는 감지 단계;
    상기 소리 또는 진동을 분석하여 특징 데이터를 추출한 후, 상기 특징 데이터를 복수개의 유효 제스처들 각각에 매핑된 복수개의 기준 데이터들과 비교하여, 상기 특징 데이터에 대응되는 상기 유효 제스처를 획득하는 제스처 인식 단계; 및
    상기 획득된 유효 제스처를 전자 기기로 통보하는 통보 단계를 구비하는 제스처 기반 사용자 입력 방법.
  23. 제22항에 있어서, 상기 그림 제스처는
    문자를 쓰기 위한 제스처, 숫자를 쓰기 위한 제스처, 기호를 그리기 위한 제스처, 및 도형을 그리기 위한 제스처 중 하나 인 것을 특징으로 하는 제스처 기반 사용자 입력 방법.
  24. 제22항에 있어서, 상기 하나 이상의 제스처 패드 각각은
    일상생활에서는 발생되기 힘든 소리 또는 진동을 발생하는 표면 형태와 재질을 가지는 하나의 패드로 구현되는 것을 특징으로 하는 제스처 기반 사용자 입력 방법.
  25. 제24항에 있어서, 상기 제스처 인식 단계는
    상기 제스처 패드와 상기 전자 기기가 하나이면,
    상기 소리 또는 진동을 분석하여 상기 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 방법.
  26. 제24항에 있어서, 상기 제스처 인식 단계는
    상기 제스처 패드와 상기 전자 기기가 복수개면,
    상기 소리 또는 진동을 분석하여 상기 복수개의 전자 기기들 중 하나를 선택하기 위한 상기 유효 제스처를 획득하거나, 상기 선택된 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 방법.
  27. 제22항에 있어서, 상기 하나 이상의 제스처 패드 각각은
    일상생활에서는 발생되기 힘든 소리 또는 진동을 발생하는 표면 형태와 재질을 가지며, 서로 상이한 소리 또는 진동을 발생하는 복수개의 패드들로 구현되는 것을 특징으로 하는 제스처 기반 사용자 입력 방법.
  28. 제22항에 있어서, 상기 제스처 인식 단계는
    상기 전자 기기가 하나이면,
    상기 소리 또는 진동을 분석하여 상기 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 방법.
  29. 제22항에 있어서, 상기 제스처 인식 단계는
    상기 전자 기기가 복수개면,
    상기 소리 또는 진동을 분석하여 상기 복수개의 전자 기기들 중 하나를 선택하기 위한 상기 유효 제스처를 획득하거나, 상기 선택된 전자 기기의 특정 기능을 실행시키기 위한 상기 유효 제스처를 획득하는 것을 특징으로 하는 제스처 기반 사용자 입력 방법.
KR1020060121051A 2006-12-01 2006-12-01 제스처 기반 사용자 입력 방법 및 장치 KR100856919B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060121051A KR100856919B1 (ko) 2006-12-01 2006-12-01 제스처 기반 사용자 입력 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060121051A KR100856919B1 (ko) 2006-12-01 2006-12-01 제스처 기반 사용자 입력 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20080050169A true KR20080050169A (ko) 2008-06-05
KR100856919B1 KR100856919B1 (ko) 2008-09-05

Family

ID=39805666

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060121051A KR100856919B1 (ko) 2006-12-01 2006-12-01 제스처 기반 사용자 입력 방법 및 장치

Country Status (1)

Country Link
KR (1) KR100856919B1 (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2752757A1 (en) * 2013-01-08 2014-07-09 Sensitive Object Gesture event determination
KR20150043195A (ko) * 2013-10-12 2015-04-22 봉래 박 숫자 입력 장치 및 방법
WO2016036197A1 (ko) * 2014-09-04 2016-03-10 계명대학교 산학협력단 손동작 인식 장치 및 그 방법
KR101673788B1 (ko) * 2015-07-03 2016-11-07 현대자동차주식회사 사용자 입력 인식 장치
US9549235B2 (en) 2013-12-26 2017-01-17 Hyundai Motor Company User interface apparatus using speaker and method thereof
KR20170064364A (ko) * 2015-12-01 2017-06-09 삼성전자주식회사 마찰음을 이용하는 장치 및 방법
US9696901B2 (en) 2013-10-23 2017-07-04 Hyundai Motor Company Apparatus and method for recognizing touch of user terminal based on acoustic wave signal
CN107272479A (zh) * 2016-04-05 2017-10-20 Lg电子株式会社 基于超声波的触摸感测装置以及包括该装置的烹饪设备和家用电器
US9836157B2 (en) 2014-09-22 2017-12-05 Hyundai Motor Company Acoustic user interface apparatus and method for recognizing touch and rubbing
US11461442B2 (en) 2018-06-05 2022-10-04 Rutgers, The State University Of New Jersey Systems and methods for user input and authentication using vibration analysis

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7953983B2 (en) 2005-03-08 2011-05-31 Microsoft Corporation Image or pictographic based computer login systems and methods
US8458485B2 (en) 2009-06-17 2013-06-04 Microsoft Corporation Image-based unlock functionality on a computing device
KR101078820B1 (ko) 2010-02-09 2011-11-02 한국과학기술원 평면 형상 변형 인식방법 및 그 장치
AU2011202415B1 (en) * 2011-05-24 2012-04-12 Microsoft Technology Licensing, Llc Picture gesture authentication
KR101371749B1 (ko) 2012-11-09 2014-03-07 현대자동차(주) 차량 제어 장치
KR101500088B1 (ko) 2013-06-24 2015-03-06 현대자동차주식회사 음파를 이용한 차량 조작 시스템
KR101509947B1 (ko) 2013-10-23 2015-04-07 현대자동차주식회사 리어 램프 점검 장치, 방법 및 시스템
KR101500268B1 (ko) 2014-04-04 2015-03-06 현대자동차주식회사 가변 마운팅 음파 터치패드
KR101628462B1 (ko) 2014-06-24 2016-06-08 현대자동차주식회사 음파 기반 터치인식 인터페이스의 제어 시스템
KR101628470B1 (ko) 2014-08-14 2016-06-08 현대자동차주식회사 리드믹 음파 생성 패드
KR20190001114A (ko) * 2017-06-26 2019-01-04 삼성전자주식회사 디스플레이장치와 그 제어방법 및 시스템
KR102436970B1 (ko) * 2021-02-16 2022-08-26 서울과학기술대학교 산학협력단 사운드 기계학습에 기반한 제스처 검출 장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69938344T2 (de) * 1998-05-07 2009-01-22 Nuance Communications Israel Ltd. Handgeschriebene und sprach-kontrolle von fahrzeugkomponenten

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014108328A1 (en) * 2013-01-08 2014-07-17 Sensitive Object Gesture event determination
US9990071B2 (en) 2013-01-08 2018-06-05 Elo Touch Solutions, Inc. Gesture event determination
EP2752757A1 (en) * 2013-01-08 2014-07-09 Sensitive Object Gesture event determination
KR20150043195A (ko) * 2013-10-12 2015-04-22 봉래 박 숫자 입력 장치 및 방법
US9696901B2 (en) 2013-10-23 2017-07-04 Hyundai Motor Company Apparatus and method for recognizing touch of user terminal based on acoustic wave signal
US9549235B2 (en) 2013-12-26 2017-01-17 Hyundai Motor Company User interface apparatus using speaker and method thereof
WO2016036197A1 (ko) * 2014-09-04 2016-03-10 계명대학교 산학협력단 손동작 인식 장치 및 그 방법
US9836157B2 (en) 2014-09-22 2017-12-05 Hyundai Motor Company Acoustic user interface apparatus and method for recognizing touch and rubbing
KR101673788B1 (ko) * 2015-07-03 2016-11-07 현대자동차주식회사 사용자 입력 인식 장치
KR20170064364A (ko) * 2015-12-01 2017-06-09 삼성전자주식회사 마찰음을 이용하는 장치 및 방법
CN107272479A (zh) * 2016-04-05 2017-10-20 Lg电子株式会社 基于超声波的触摸感测装置以及包括该装置的烹饪设备和家用电器
CN107272479B (zh) * 2016-04-05 2020-03-10 Lg电子株式会社 基于超声波的触摸感测装置以及包括该装置的烹饪设备和家用电器
US10719165B2 (en) 2016-04-05 2020-07-21 Lg Electronics Inc. Touch sensing apparatus based on ultrasonic waves, cooking apparatus and home appliance including the same
US11461442B2 (en) 2018-06-05 2022-10-04 Rutgers, The State University Of New Jersey Systems and methods for user input and authentication using vibration analysis

Also Published As

Publication number Publication date
KR100856919B1 (ko) 2008-09-05

Similar Documents

Publication Publication Date Title
KR100856919B1 (ko) 제스처 기반 사용자 입력 방법 및 장치
US10055563B2 (en) Air writing and gesture system with interactive wearable device
TWI793085B (zh) 手寫資訊處理裝置、手寫資訊處理方法及手寫資訊處理程式
CN102906671B (zh) 手势输入装置及手势输入方法
CN103870804B (zh) 具有脸部识别功能的移动装置和控制该移动装置的方法
WO2015171559A1 (en) Enhanced user interface for a wearable electronic device
JP6472196B2 (ja) センサ信号処理回路及びセンサ信号処理方法
US20050249386A1 (en) Pointing device having fingerprint image recognition function, fingerprint image recognition and pointing method, and method for providing portable terminal service using thereof
CN106855783A (zh) 一种防误触的方法、装置及移动终端
CN105955658A (zh) 一种通过曲面屏交互的方法、装置及移动终端
CN105765520A (zh) 用于提供锁定屏幕的设备和方法
KR20170064364A (ko) 마찰음을 이용하는 장치 및 방법
CN103984433B (zh) 用于控制触摸键操作的方法和设备
KR20110116463A (ko) 인터페이스 방법 및 장치
CN109582416A (zh) 指纹采集方法、装置、存储介质及电子设备
KR20100062901A (ko) 터치 패턴을 이용한 경로 탐색 방법 및 장치
US20210304482A1 (en) Electronic device and method for providing drawing environment
KR20200095739A (ko) 전자 장치 및 전자 장치의 기능과 스타일러스 펜의 동작을 맵핑하는 방법
KR102191345B1 (ko) 전자 기기의 입력 장치, 방법 및 시스템
US11216089B2 (en) Electronic device and method for mapping function to button input
Kim et al. Sonarid: Using sonar to identify fingers on a smartwatch
KR20150145729A (ko) 지문 입력을 통한 화면 이동 및 서비스 선택 방법, 지문 센서를 구비한 착용형 전자 장치 및 컴퓨터 프로그램
US20200341557A1 (en) Information processing apparatus, method, and program
CN108463788B (zh) 主动笔及基于主动笔的手势检测方法
JP6000035B2 (ja) 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee