KR20000032308A - 장갑장치를 이용한 연속된 손제스처 명령어 생성방법 및 그 시스테뮤 - Google Patents

장갑장치를 이용한 연속된 손제스처 명령어 생성방법 및 그 시스테뮤 Download PDF

Info

Publication number
KR20000032308A
KR20000032308A KR1019980048730A KR19980048730A KR20000032308A KR 20000032308 A KR20000032308 A KR 20000032308A KR 1019980048730 A KR1019980048730 A KR 1019980048730A KR 19980048730 A KR19980048730 A KR 19980048730A KR 20000032308 A KR20000032308 A KR 20000032308A
Authority
KR
South Korea
Prior art keywords
hand
gesture
command
state
data
Prior art date
Application number
KR1019980048730A
Other languages
English (en)
Inventor
이찬수
최정단
최진성
박찬종
Original Assignee
정선종
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정선종, 한국전자통신연구원 filed Critical 정선종
Priority to KR1019980048730A priority Critical patent/KR20000032308A/ko
Publication of KR20000032308A publication Critical patent/KR20000032308A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 장갑장치를 낀 손의 3차원적인 연속된 제스처를 인식하여 그 제스처에 의한 명령어를 생성하는 방법 및 그 시스템에 관한 것이다. 본 발명의 손 제스처에 의한 명령어 생성은, 장갑장치를 낀 손의 제스처에 따른 데이터인 손위치, 손굽힘, 손방향의 데이터를 손제스처 데이터 획득부(100)에서 연속적으로 획득하고, 연속 제스처 구분부(200)에서는 그 획득된 연속적인 손 제스처의 동작위상을 구분하고 그 구분된 동작위상에 따라 동작상태를 인식함으로써 고립된 의미 단위의 개별 제스처로 분리한 후, 명령어 생성부(300)에서는 그 분리된 손 제스처의 동작요소(손운동, 손위치, 손모양, 손방향) 인식 결과를 이용하여 손 제스처 명령어를 생성하여서 이루어진다. 이에 따른 본 발명을 이용하면, 손제스처를 체계적으로 분류하고 인식하며, 연속된 제스처에서 고립된 의미 단위의 개별제스처를 효율적으로 분리하고, 손제스처를 이용하여 명령어를 효율적으로 생성하고 확장이 용이하고 사용하기 편리한 손제스처를 이용한 명령어 인터페이스 시스템을 효과적으로 구현할 수 있는 것이다.

Description

장갑장치를 이용한 연속된 손제스처 명령어 생성방법 및 그 시스템
본 발명은 손 제스처 인식을 이용한 명령어를 생성하는 인터페이스 시스템 및 그 명령어 생성방법에 관한 것으로서, 특히 장갑장치(glove device)를 이용한 연속된 손 제스처 명령어를 생성하는 방법 및 그 시스템에 관한 것이다. 여기서, 인터페이스 대상은 컴퓨터나 컴퓨터를 이용하여 명령어를 내리고 조작할 수 있는 시스템이다.
종래의 제스처 인터페이스 시스템은 제스처를 인식하는데 있어서 몇가지 특징 요소에 의한 분류만에 의하여 제스처를 인식함으로써 의도적인 제스처와 그렇지 않은 제스처의 구분 없이 제스처를 인식함으로 인하여 의도적이지 않은 제스처에서도 명령어가 발생하여 제스처 명령어 생성에 있어서 많은 문제점이 있었다. 또한, 제스처를 이용한 인식에 있어서 제스처에 대한 몇가지 특징 요소만을 인식대상으로 하여 체계적인 제스처의 인식과 확장이 이루어지지 않고, 단지 정의된 기본 제스처만을 인식대상으로 하며 확장에 어려움이 있다. 또한, 제스처의 상태에 대한 정확한 구분이 이루어지지 않아 연속적인 제스처에서 개별 제스처를 구분하는데 어려움이 있으며 상태구분이 이루어진다고 하더라도 내포된 상태만을 인식하게 된다. 이와 같이 종래의 제스처 인터페이스 시스템은 상태 구분이 이루어지지 않아서 연속적인 입력이 어려웠고, 요소 분리가 이루어지지 않아서 확장이 어려웠다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 장갑장치를 낀 손의 3차원적인 연속된 제스처를 인식하여 그 제스처에 의한 명령어를 생성함으로써 컴퓨터와의 효율적인 인터페이스를 제공하는데 그 목적이 있다.
이와 같은 목적을 달성하기 위해서 본 발명은, 손제스처를 이용한 명령어 시스템에서 상태 구분을 위하여 속도와 속도변화 요소를 이용하고, 또한 다양한 제스처의 인식 및 확장이 가능한 시스템의 구현을 위한 방법으로 기본 요소 제스처로 분류하여 이 기본 요소의 인식을 바탕으로 의미 해석을 함으로써 확장이 용이한 시스템을 구성할 수 있고, 아울러 상태 구분을 이용하여 기본 요소 제스처를 인식하는 흐름을 제어할 수 있게 하고자 한다.
이에 따른 본 발명의 손 제스처 명령어 생성방법을 살펴보면 다음과 같다.
먼저 장갑장치를 낀 손의 제스처에 따른 데이터를 연속적으로 획득한다. 그 데이터 획득은, 장갑장치를 이용한 손가락 굽힘에 대한 정보, 자기장을 이용한 추적기를 이용하여 손의 위치와 방향에 대한 정보로 분류하여 얻는다.
그리고나서, 상기와 같이 데이터가 획득된 후 그 획득된 연속적인 손 제스처를 고립된 의미 단위의 개별 제스처로 분리한다. 그 개별 제스처의 분리는, 연속된 손 제스처의 동작 위상을 구분한 후, 그 구분된 동작 위상에 대한 상태 오토마타를 이용하여 동작상태를 자동적으로 구분함으로써 동작상태를 인식하고, 그 인식된 동작상태의 흐름에 따라 인식하기를 원하는 제스처와 인식하기를 원하지 않는 제스처로 구분하여서 이루어진다. 이때 동작 위상 구분은, 손 움직임의 속도와 속도변화에 대한 위상 영역을 분할하여 동작 위상을 구분한다.
그 후, 분리된 손 제스처의 동작요소 인식 결과를 이용하여 손 제스처 명령어를 생성한다. 그 동작요소 인식은, 상기 인식된 동작상태에 따라 손운동, 손위치, 손모양 및 손방향의 인식으로 각각 나누어 인식하고, 그 동작요소 인식 결과에 상응한 명령어를 빨리 찾기 위하여 그 인식 결과를 인덱스로 하는 명령어 테이블을 이용할 수 있다. 이와 같이 본 발명은 손 제스처를 체계적으로 분류 및 인식하고, 연속된 제스처에서 고립된 의미 단위의 개별 제스처를 효율적으로 분리함으로써, 손 제스처를 이용하여 명령어를 효율적으로 생성하고 확장이 용이한 장점이 있다.
이러한 본 발명은 제스처에 의한 명령어 생성에 의하여 컴퓨터를 이용한 다양한 시스템에 적용가능하다. 또한, 명령어 생성을 통하여 컴퓨터를 조작하는데 적용 가능하다.
도 1은 손제스처를 이용한 명령어 생성 시스템의 구성도,
도 2는 도 1의 내부 구성 및 동작 흐름도,
도 3은 속력과 속력 변화 공간에서의 동작 위상 구분도,
도 4는 손제스처의 상태 구분을 위한 오토마타 위상 전이도.
* 도면의 주요 부분에 대한 부호의 설명 *
100 : 데이터 획득부 101 : 손위치 데이터 획득기
102 : 손굽힘 데이터 획득기 103 : 손방향 데이터 획득기
200 : 연속 제스처 구분부 201 : 동작위상 구분기
202 : 동작상태 인식기 300 : 명령어 생성부
305 : 명령어 해석기 310 : 기본요소 인식기
이하, 본 발명을 첨부된 도면을 참조로 하여 상세히 설명하면 다음과 같다.
도 1은 본 발명의 손 제스처를 이용한 개략적인 명령어 생성 시스템 및 그 명령어 생성 흐름에 관한 개략적인 블럭 구성도이다. 본 발명의 명령어 생성 시스템은 손 제스처를 이용한 제어 시스템, 예를 들면 컴퓨터에 적용할 수 있는 것이다.
도 1을 참조로 한 본 명령어 생성 시스템의 구성은, 장갑장치를 이용하여 연속적인 손 제스처의 데이터를 획득하여 출력하는 손 제스처 데이터 획득부(100)와, 그 획득된 데이터를 받아 손의 동작 위상을 구분하고 그 구분된 동작 위상을 입력으로 하여 손의 동작 상태를 인식하는 연속 제스처 구분부(200)와, 그리고 그 인식된 동작상태에 따라 명령어를 생성하는 명령어 생성부(300)로 구성된다.
도 2는 도 1에 대한 구체적인 명령어 생성 시스템의 내부 구성도이고, 이는 또한 구체적인 명령어 생성 흐름을 나타낸다.
먼저, 손 제스처 데이터 획득부(100)는, 손 위치 데이터를 자기장을 이용한 추적기를 사용하여 획득(또는 감지)하는 손위치 데이터 획득기(101)와, 손 굽힘 데이터를 손에 낀 장갑장치를 이용하여 획득하는 손굽힘 데이터 획득기(102)와, 손 의 방향에 관한 데이터를 자기장을 이용한 추적기를 사용하여 획득하는 손방향 데이터 획득기(103)로 구성된다.
그리고, 연속 제스처 구분부(200)는, 상기 손위치 데이터 획득기(101)로부터 획득된 데이터, 즉 손의 움직임 속도와 속도변화에 대해 분할된 동작 위상 데이터에 의거하여 손의 동작 위상을 구분하는 동작위상 구분기(201)와, 그 동작위상 구분기 (201)에 의하여 구분된 동작 위상에 대하여 상태 오토마타를 이용하여 현재의 동작 상태를 인식하는 동작상태 인식기(202)로 구성할 수가 있다.
또한, 명령어 생성부(300)는, 상기 동작상태 인식기(202)에서 인식된 동작 상태에 따라 손운동 인식기(301), 손위치 인식기(302), 손모양 인식기(303), 그리고 손방향 인식기(304)로 구성된 기본요소 인식부(310)와, 그 기본 요소 인식부(310)에 의한 인식 결과중에 인식 결과중에 학습 시킨 데이터와 가장 유사함을 나타내는 값을 인식기 자체에서 대표값으로 선택하고 이 대표값을 이용한 인덱스에 의하여 의미를 해석하는 명령어 해석기(305)로 구성된다.
이때, 상기 동작위상 구분기(201)의 동작 위상을 표시하는 신호(구분된 동작 위상을 나타내는 [0..m]의 정수, m=동작 위상의 갯수)와 함께 동작상태 인식기(202)에서 출력되는 동작상태를 표시하는 신호(동작상태를 표시하는 [0..n]의 정수 ,n=동작상태의 갯수) 출력신호에 의거해서 손운동 인식기 (301)와 손위치 인식기(302)가 동작 상태의 표시 신호에 따라 선택적으로 동작한다.
아울러, 상기 손굽힘 데이터 획득기(102)에서 출력되는 손굽힘 감지 데이터와 상기 동작상태 인식기(202)에서 출력되는 동작 상태 출력신호 중에 동작 상태가 동작 끝 신호일 때 손모양을 인식기를 위한 손굽힘 데이터를 이용하여 손모양 인식을 위한 인식기를 구동한다. 손모양 인식기(303)가 구동되면 손모양에 대하여 얻은 데이터에 대하여 각각의 굽힘에 대한 변화정도를 [0~1]로 정규화하여 이를 이용하여 초기에 인식하고자 설정한 값과 가장 가까운 값을 대표값으록 하여 손모양을 인식한다.
또한, 손방향 데이터 획득기(103)에서 출력되는 손방향 감지 데이터와 상기 동작상태 인식기(202)에서 출력되는 동작 상태 신호중에 "동작 시작"을 나타내는 신호가 발생하면 손방향 인식기가 구동되며, 손방향 인식기(304)는 손 위치에 대한 방향각을 [0~1]로 정규화하여 초기에 인식하고자 설정한 값과 가장 가까운 값을 구하여 대표값으로 하여 손방향을 인식한다.
이와 같은 구성에 의한 손 제스처 명령어 생성 흐름을 도 3과 도 4를 참조로 하여 살펴보면 다음과 같다.
먼저, 손 제스처 데이터 획득부(100)에 의한 손 제스처의 데이터의 획득은, 장갑장치를 이용하는 손굽힘 데이터 획득기(102)에서 손가락의 굽힘에 대한 정보를 손가락 각각에 대해 얻는다. 그리고, 손 위치 데이터 획득기(101)와 손방향 데이터 획득기(103)는, 손의 위치와 방향에 대한 정보를 자기장을 이용한 추적기를 이용하여 3차원적으로 얻는다. 이러한 장치를 이용함으로써, 손 제스처 데이터 획득은 매 순간 손의 위치에 대한 정보, 손가락의 굽힘에 대한 정보, 손등이나 손바닥의 방향에 대한 정보로 분류되어 처리된다.
이렇게 손 제스처 데이터 획득부(100)에서 데이타들이 획득되면, 연속 제스처 구분부(200)내에 동작 상태 인식기(202)에서는 손의 움직임에 대한 속도와 속도 변화를 이용하여 동작 상태를 인식하게 된다. 동작상태 인식기(202)가 동작상태를 인식하기 위해서는, 동작위상 구분기(201)에서 속도와 속도변화 공간을 분할하여 동작 위상을 도 3에서와 같이 구분한 여러 가지의 동작 위상 영역을 이용한다. 도 3은 정지(Stop), 준비(Prepartion), 움직임(Moving), 스트로크(Stroke), 끝(Ending)과 같이 5가지(m=4)로 동작 위상을 구분한 예이다.
이때, 동작상태 인식기(202)에 의한 동작상태의 인식은, 구분된 동작 위상에 대하여 동작의 흐름을 파악하기 위하여 상태 오토마타를 이용하여 현재의 동작 상태를 명시적으로 표현한다. 도 4는 구분된 동작 상태를 이용한 상태 오토마타의 상태 전이 다이어그램의 예로서 10가지(n=9)의 동작 위상으로 구분한 예이다. 도4와 같은 동작 상태 오토마타에 의하여, 동작 위상을 입력으로 하며 현재의 동작 상태를 바탕으로 동작 상태 전이가 자동적으로 일어나서 동작 상태가 자동적으로 구분하게 된다. 오토마타는 입력 이벤트가 주어지면 이를 이용하여 상태 천이가 일어난다. 즉 현재 상태와 현재 상태에서의 새로운 입력이 들어오면 이를 바탕으로 새로운 상태로 상태를 변화시키게 된다. 이러한 상태의 변화를 다이어그램으로 그리면 도 4와 같이 원으로 표시된 상태 변수들과 상태가 변화되는 방향을 나타내는 화살표, 그리고 화살표 위의 입력 이벤트로 표시할 수 있다.
도 4에서 q0,q1,q2,...,q9 등은 동작 상태 오토마타를 위한 동작 상태를 나타낸다. 도 4에서 q0 상태는 동작이 없는 초기 상태라고 할 때, 동작이 없을 때는 동작 위상이 0의 입력 이벤트를 생성하여 q0 의 상태를 유지하나 움직임이 있을 경우에는 입력 이벤트로서 1,2, 또는 3이라는 이벤트가 발생할 수 있으며, 각 이벤트에 대하여 동작 상태는 각각 q1,q2,q3 로 변하게 된다. 이와 같이 도 3과 같은 동작 위상의 구분 결과에 의한 입력 이벤트와 도 4와 같은 상태 전이 다이어 그램이 주어진 동작 상태 오토마타가 있으면, 임의의 제스처에 대하여 입력 이벤트를 발생하여 동작상태 오토마타에 입력하면 입력 이벤트의 흐름에 따라 동작 상태가 자동적으로 변하게 된다. 이와 같은 상태 오토마타에 의하여 동작 위상을 입력으로한 동작 상태 오토마타에서 자동적으로 현재의 동작 상태가 어떤 상태인지를 알게 된다.
또한 상태 오토마타의 상태 전이를 변화시킴으로 인식하고자 하는 데이터의 흐름을 다르게 설정할 수 있다. 도 4와 같은 상태 전이 다이어그램을 가지는 동작 상태 오토마타에서 의미 있는 제스처의 경우는 다음과 같다.
먼저 동작 상태의 흐름이 정지 상태( q0 )의 동작 상태에서 시작하여 강한 움직임이 있는 상태( q2 )를 지나 일정한 속도 이상의 움직임의 상태( q4 )를 지나 속도가 감소하는 동작 끝 상태( q4 )를 지나 반복된 움직임이 있거나( q9 ) 아니면 바로 속도 감소 상태가 있은 후( q7 ) 의미 있는 제스처의 끝상태( q8 )에 도달하는 것은 의미 있는 제스처의 인식의 한 예가 된다.
또한 정지 상태에서 강한 움직임(Stroke)이 있은 후( q2 ) 강한 속도 감소가 발생하는 경우(Ending)에는 준비 상태로 다시 돌아와( q1 ) 의미있는 제스처의 끝 상태( q8 )에 도달할 수 없게 된다. 이러한 경우에는 의미없는 제스처로 판단하고 현재까지의 제스처의 운동을 제거하게 된다.
이와 같은 상태 오토마타 전이를 이용함으로써 동작상태를 자동적으로 구분할 뿐 아니라 상태의 흐름을 파악함으로 동작 상태의 흐름에 따라 의도적인 제스처와 의미없는 제스처와 같이 원하는 제스처의 흐름에 대한 제한을 가할 수 있으므로 의도적이지 않은 제스처와 같이 원하지 않는 제스처를 인식 전에 제거할 수 있다.
즉, 상술한 연속 제스처 구분부(200)에서는, 구분된 동작위상에 대한 도4와 같은 오토마타 상태 전이를 이용함으로써 동작상태를 자동적으로 구분하고, 원하는 동작상태의 흐름을 설정함으로 인해 의도적인 제스처와 같은 인식하기를 원하는 제스처와 인식하기를 원하지 않는 제스처를 구분한다. 이에 따라, 연속적인 제스처에서 개별 제스처로 구분할 수 있다.
인식하기를 원하는 제스처가 연속 제스처 구분부(200)에 입력될 경우, 도 2와 같이 동작상태 인식기(202)의 동작 상태 인식 결과를 이용하여 명령어 생성부(300)의 기본 요소 인식부(310)를 제어한다. 인식된 동작 상태에 따라 손운동 인식(301), 손위치 인식(302), 손모양 인식(303) 그리고 손방향 인식(304)과 같은 각 요소 인식기를 ON/OFF 시킴으로써 시스템에 걸리는 부하를 줄일 수 있다. 이때 상기 손방향 인식기(304)에서는 상기 동작상태 인식기(202)로부터 손 동작의 상태가 움직임이 없는(Stop) 정지( q0 )상태일 때 손방향에 대한 정보를 얻고, 손운동 인식기(301)에서는 손의 움직임(Moving)이 있는 동작 상태( q1~q6,q9 )에서 손운동에 대한 특징 정보를 얻으며, 손위치 인식기(302)에서는 손의 빠른 움직임(Stroke)이 있는 상태( q2,q5 )에서 손 위치에 대한 정보를 얻으며, 손모양 인식기(303)에서는 동작이 끝나는(Ending) 상태( q6 )에서 손가락의 정규화된 손가락의 급힘 정보를 이용하여 인식하게 된다. 또한 손운동의 인식은 움직임에 대한 동작이 끝난 상태( q8 )에서 이루어지게 된다. 이와 같이 기본 요소 인식에서 수행할 작업을 분산시켜 시스템의 효율을 높인다. 상기와 같이 기본 요소 인식부(310)에서의 인식은 손제스처의 의미 요소를 손모양, 손운동, 손방향, 손위치로 나누어 인식한다. 인식된 결과는 각 요소의 인식 결과 중에 설정된 요소 인식과 가장 유사한 인식결과를 내는 것 하나를 선택한다.
이러한 요소 인식기의 결과를 이용하여 명령어를 빨리 찾기 위하여 인식 결과를 인덱스로 하는 테이블을 구성하여 효율을 높인다. 같은 인식 결과에 대하여 명령어 테이블을 변화시키면 다른 명령어를 생성한다. 인식 테이블을 이용함으로 인식결과에 대한 추가와 삭제가 쉽게 이루어질 수 있다. 상기와 같이 기본 요소인식부(310)에서 손 제스처에 대해서 인식한 결과들을 받은 명령어 해석기(305)에서는 그 손 제스처에 해당되는 명령어를 명령어 테이블을 참조하여 생성하게 된다. 여기서 명령어 해석부의 테이블은 각 요소 인식기에서 의미의 중요도에 따라 인텍싱을 찾아 가도록 구성한다.
일반적으로, 손운동에 의하여 1차 인덱싱 테이블을 찾아가고 이 테이블에서 손모양 인식 결과를 이용하여 세부 인덱싱을 구성해 가며, 그 결과 나타나는 테이블의 명령어가 여러개인 경우 손 위치와 손방향에 대한 인식 결과를 세부 인텍싱으로 사용하여 명령어를 세분하며, 만약 손운동과 손위치에 인식 결과에 의한 인덱싱만으로 명령어를 구분할 수 있으면 그 인식결과만을 가지고 바로 명령어를 생성한다. 이와 같이 인식 결과에 대하여 계층 구조를 가진 인텍싱에 의하여 다양한 명령어에 대하여 확장이 용이하게 된다. 즉, 새로운 명령어를 생성하고자 하면 기존의 명령어 인덱싱에 없는 부분에 해당하는 제스처를 정하여 인텍싱 테이블에 명령어만 추가하면 새로움 명령어가 기존의 시스템에서 그대로 추가된다.
이상과 같은 본 발명은 손 제스처를 이용한 명령어 생성에 있어서 손제스처를 4가지 의미요소의 결합으로 표현하고 인식함으로써 효과적인 손제스처를 이용한 명령어 생성 시스템이 이루어지도록 하고, 또한 동작 상태 인식을 통하여 연속된 손제스처로부터 동작 상태의 흐름에 따라 원하는 흐름의 고립된 의미 제스처의 분류에 의하여 의도하지 않은 제스처의 인식으로 인한 오류를 줄이고 명령어 테이블에 의하여 확장이 용이하고 사용하기 편리한 손 제스처를 이용한 명령어 인터페이스 시스템을 효과적으로 구현할 수 있는 효과가 있다.

Claims (10)

  1. 장갑장치를 낀 손의 제스처에 따른 데이터를 연속적으로 획득하는 제 1 과정;
    상기 획득된 연속적인 손 제스처를 고립된 의미 단위의 개별 제스처로 분리하는 제 2 과정; 및
    상기 분리된 손 제스처의 동작요소 인식 결과를 이용하여 손 제스처 명령어 를 생성하는 제 3 과정으로 이루어진 것을 특징으로 하는 손 제스처 명령어 생성방법.
  2. 제 1 항에 있어서,
    상기 제 1 과정에서의 데이터 획득은,
    장갑장치를 이용한 손가락 굽힘에 대한 정보, 자기장을 이용한 추적기를 이용하여 손의 3차원 위치와 방향에 대한 정보로 분류하여 얻는 것을 특징으로 하는 손 제스처 명령어 생성방법.
  3. 제 1 항에 있어서,
    상기 제 2 과정에서 개별 제스처의 분리는,
    연속된 손 제스처의 동작 위상을 구분한 후, 그 구분된 동작 위상에 대한 상태 오토마타를 이용하여 동작상태를 자동적으로 구분함으로써 동작상태를 인식 하고, 그 인식된 동작상태의 흐름에 따라 인식하기를 원하는 제스처와 인식하기를 원하지 않는 제스처로 구분하여서 이루어지는 것을 특징으로 하는 손 제스처 명령어 생성방법.
  4. 제 3 항에 있어서,
    상기 동작 위상 구분은,
    손 움직임의 속도와 속도변화에 대한 위상 영역을 분할하여 동작 위상을 구분하는 것을 특징으로 하는 손 제스처 명령어 생성방법.
  5. 제 1 항에 있어서,
    상기 제 3 과정에서 상기 동작요소 인식 결과에 상응한 명령어를 빨리 찾기 위하여 그 인식 결과를 인덱스로 하는 명령어 테이블을 이용하는 것을 특징으로 하는 손 제스처 명령어 생성방법.
  6. 제 5 항에 있어서,
    상기 동작요소 인식은, 상기 인식된 동작상태에 따라 손운동, 손위치, 손모양 및 손방향의 인식으로 각각 나누어 인식하는 것을 특징으로 하는 손 제스처 명령어 생성방법.
  7. 장갑장치를 이용하여 연속적인 손 제스처의 데이터를 획득하여 출력하는 손 제스처 데이터 획득수단;
    상기 획득된 데이터를 받아 손의 동작 위상을 구분하고 그 구분된 동작 위상 을 입력으로 하여 손의 동작 상태를 인식하는 연속 제스처 구분수단; 및
    상기 인식된 동작상태에 따라 명령어를 생성하는 명령어 생성수단으로 구성된 것을 특징으로 하는 손 제스처 명령어 생성 시스템.
  8. 제 7 항에 있어서,
    상기 데이터 획득수단은,
    손 굽힘 데이터를 장갑장치를 이용하여 획득하는 손굽힘 데이터 획득부;
    손 위치 데이터를 자기장을 이용한 추적기를 사용하여 획득하는 손위치 데이터 획득부; 및
    손 방향 데이터를 자기장을 이용한 추적기를 사용하여 획득하는 손방향 데이터 획득부로 구성된 것을 특징으로 하는 손 제스처 명령어 생성시스템.
  9. 제 7 항 또는 제 8 항에 있어서,
    상기 연속 제스처 구분수단은,
    상기 손위치 데이터 획득부로부터 획득된 손의 움직임 속도와 속도변화에 대해 분할된 동작 위상 데이터에 의거하여 손의 동작 위상을 구분하는 동작위상 구분부와;
    그 동작위상 구분부에 의하여 구분된 동작 위상에 대하여 상태 오토마타를 이용하여 현재의 동작상태를 인식하는 동작상태 인식부로 구성된 것을 특징으로 하는 손 제스처 명령어 생성 시스템.
  10. 제 7 항에 있어서,
    상기 명령어 생성 수단은,
    상기 인식된 동작상태에 따라 손운동, 손위치, 손모양, 그리고 손방향을 인식하는 기본 요소 인식부;
    그 인식부에 의한 인식 결과중에 한 대표값을 선택하고 그 대표값을 이용한 인덱스에 의하여 의미를 해석하는 명령어 해석부로 구성된 것을 특징으로 하는 손 제스처 명령어 생성 시스템.
KR1019980048730A 1998-11-13 1998-11-13 장갑장치를 이용한 연속된 손제스처 명령어 생성방법 및 그 시스테뮤 KR20000032308A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019980048730A KR20000032308A (ko) 1998-11-13 1998-11-13 장갑장치를 이용한 연속된 손제스처 명령어 생성방법 및 그 시스테뮤

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019980048730A KR20000032308A (ko) 1998-11-13 1998-11-13 장갑장치를 이용한 연속된 손제스처 명령어 생성방법 및 그 시스테뮤

Publications (1)

Publication Number Publication Date
KR20000032308A true KR20000032308A (ko) 2000-06-15

Family

ID=19558243

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980048730A KR20000032308A (ko) 1998-11-13 1998-11-13 장갑장치를 이용한 연속된 손제스처 명령어 생성방법 및 그 시스테뮤

Country Status (1)

Country Link
KR (1) KR20000032308A (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6861945B2 (en) 2002-08-19 2005-03-01 Samsung Electro-Mechanics Co., Ltd. Information input device, information processing device and information input method
KR100597152B1 (ko) * 2001-08-03 2006-07-05 닛본 덴끼 가부시끼가이샤 사용자 인증 방법 및 사용자 인증 장치
US7702130B2 (en) 2004-12-20 2010-04-20 Electronics And Telecommunications Research Institute User interface apparatus using hand gesture recognition and method thereof
KR101121746B1 (ko) * 2010-04-19 2012-03-22 한국전자통신연구원 3차원 사용자 인터페이스를 위한 손동작 기반 사용자 인터랙션 방법 및 장치
KR101413381B1 (ko) * 2012-12-17 2014-07-01 한국과학기술원 자기력을 이용한 사용자 단말 제어장치 및 제어방법
KR101417495B1 (ko) * 2012-12-18 2014-07-14 한국과학기술원 자기장을 이용한 사용자 단말 제어 시스템, 제어 방법, 이를 위한 제어 수단 및 사용자 단말
EP2916210A1 (en) 2014-03-05 2015-09-09 Markantus AG Finger-worn device for providing user input
KR20160023428A (ko) * 2014-08-22 2016-03-03 에스케이텔레콤 주식회사 복수의 센서를 이용한 동작 인식 방법 및 장치

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100597152B1 (ko) * 2001-08-03 2006-07-05 닛본 덴끼 가부시끼가이샤 사용자 인증 방법 및 사용자 인증 장치
US6861945B2 (en) 2002-08-19 2005-03-01 Samsung Electro-Mechanics Co., Ltd. Information input device, information processing device and information input method
KR100634494B1 (ko) * 2002-08-19 2006-10-16 삼성전기주식회사 착용가능한 정보 입력 장치, 정보 처리 장치 및 정보 입력방법
US7702130B2 (en) 2004-12-20 2010-04-20 Electronics And Telecommunications Research Institute User interface apparatus using hand gesture recognition and method thereof
KR101121746B1 (ko) * 2010-04-19 2012-03-22 한국전자통신연구원 3차원 사용자 인터페이스를 위한 손동작 기반 사용자 인터랙션 방법 및 장치
KR101413381B1 (ko) * 2012-12-17 2014-07-01 한국과학기술원 자기력을 이용한 사용자 단말 제어장치 및 제어방법
KR101417495B1 (ko) * 2012-12-18 2014-07-14 한국과학기술원 자기장을 이용한 사용자 단말 제어 시스템, 제어 방법, 이를 위한 제어 수단 및 사용자 단말
EP2916210A1 (en) 2014-03-05 2015-09-09 Markantus AG Finger-worn device for providing user input
US10296085B2 (en) 2014-03-05 2019-05-21 Markantus Ag Relatively simple and inexpensive finger operated control device including piezoelectric sensors for gesture input, and method thereof
KR20160023428A (ko) * 2014-08-22 2016-03-03 에스케이텔레콤 주식회사 복수의 센서를 이용한 동작 인식 방법 및 장치

Similar Documents

Publication Publication Date Title
EP0690407B1 (en) Image recognition apparatus and method
EP1973062B1 (en) Method for creating and editing nodelink diagrams in PEN computing systems
US6317739B1 (en) Method and apparatus for data retrieval and modification utilizing graphical drag-and-drop iconic interface
US7725493B2 (en) Optimization method and process using tree searching operation and non-overlapping support constraint requirements
US8014607B2 (en) Method and apparatus for creating and editing node-link diagrams in pen computing systems
EP2511812B1 (en) Continuous recognition method of multi-touch gestures from at least two multi-touch input devices
US5745719A (en) Commands functions invoked from movement of a control input device
CA2596068C (en) Providing a dynamic user interface for a dense three-dimensional scene
US8390579B2 (en) System for classifying gestures
WO2000055815A1 (fr) Systeme de cao et support d'enregistrement
KR20000032308A (ko) 장갑장치를 이용한 연속된 손제스처 명령어 생성방법 및 그 시스테뮤
JP2005236646A (ja) 画像表示装置および方法およびプログラム
US20170242568A1 (en) Target-directed movement in a user interface
US20170038851A1 (en) Gesture Interaction with a Driver Information System of a Vehicle
JPH09231393A (ja) 命令入力装置
Sultana et al. Vision based gesture recognition for alphabetical hand gestures using the SVM classifier
Mackie et al. Finger detection with decision trees
Risch et al. Interactive information visualization for exploratory intelligence data analysis
JP5762075B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN110309740A (zh) 手势识别方法、可穿戴设备及手势控制系统
Schmidt et al. Recognition of multi-touch drawn sketches
JP3622488B2 (ja) 手話単語辞書作成方法および辞書学習装置
Rouxel et al. What you draw is what you search: the analog gesture
CN115686207A (zh) 一种操作手的跟踪方法、装置、设备及存储介质
Ali et al. Finger Gesture Based Natural User Interface

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application