KR20110047776A - Apparatus and method for recognizing NUI gesture - Google Patents

Apparatus and method for recognizing NUI gesture Download PDF

Info

Publication number
KR20110047776A
KR20110047776A KR1020090104535A KR20090104535A KR20110047776A KR 20110047776 A KR20110047776 A KR 20110047776A KR 1020090104535 A KR1020090104535 A KR 1020090104535A KR 20090104535 A KR20090104535 A KR 20090104535A KR 20110047776 A KR20110047776 A KR 20110047776A
Authority
KR
South Korea
Prior art keywords
gesture
touch
column
data coordinate
coordinate
Prior art date
Application number
KR1020090104535A
Other languages
Korean (ko)
Other versions
KR101072858B1 (en
Inventor
박정일
Original Assignee
화영시스템즈주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 화영시스템즈주식회사 filed Critical 화영시스템즈주식회사
Priority to KR1020090104535A priority Critical patent/KR101072858B1/en
Publication of KR20110047776A publication Critical patent/KR20110047776A/en
Application granted granted Critical
Publication of KR101072858B1 publication Critical patent/KR101072858B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

PURPOSE: An apparatus and method for recognizing an NUI(Natural User Interface) gesture are provided to supply an developer environment which is able to implement various kinds of functions for NUI programming by registering and recognizing various gestures on a touch screen or a touch panel. CONSTITUTION: A coordinate row input unit(231) receives a touch data coordinate row, and a coordinate row offset unit(232) offsets the touch data coordinate row. A coordinate row normalizing unit(233) normalizes the gesture profile data coordinate rows and the touch data coordinate rows by selecting the reference coordinate row. A gesture recognizer(234) calculates the distance between the normalized touch data coordinate row and the gesture profile data coordinate row to recognize the gesture corresponding to the shortest gesture profile data coordinate row.

Description

NUI를 위한 제스쳐 인식 장치 및 방법 {Apparatus and method for recognizing NUI gesture}Apparatus and method for recognizing NUI gesture

본 발명은 NUI(Natural User Interface)를 위한 제스쳐(gesture) 인식 장치 및 방법에 관한 것으로, 보다 상세하게는 터치 패널이나 터치 스크린상에서 사용되는 NUI(Natural User Interface)를 위한 제스쳐(gesture)를 인식하기 위한 장치 및 방법에 관한 것이다.The present invention relates to a gesture recognition device and method for a natural user interface (NUI), and more particularly, to recognize a gesture for a natural user interface (NUI) used on a touch panel or a touch screen. An apparatus and method are provided.

터치 스크린(터치 패널)은 컴퓨터, 휴대폰, PDA, 개인 정보용 단말기기, 상품 전시용 단말기기, 지하철이나 철도 승차권 발매기, 은행의 ATM 기기, 산업용 모니터 등 단순한 화면의 표시뿐만 아니라 기기와 사용자 사이의 상호 작용을 필요로 하는 곳에서 키패드, 키보드, 마우스, 조이스틱과 같은 입력 장치를 대신하여 스크린 상의 특정 부분의 접촉을 감지함으로써 소정의 정보를 입력 받을 수 있는 장치이다. 이러한 터치 스크린은 키패드, 키보드, 마우스, 조이스틱과 같은 입력 장치를 설치하기 곤란한 환경이나 사용자들에게 직관적인 상호작용을 요구하는 곳에서 주로 사용되고 있으며, 점차 그 수요가 날로 확대되고 있다.The touch screen (touch panel) is not only a simple screen display such as a computer, a mobile phone, a PDA, a personal information terminal device, a product display terminal device, a subway or railway ticket vending machine, a bank ATM machine, an industrial monitor, but also a mutual interaction between the device and the user. It is a device that can receive predetermined information by detecting contact of a specific part on the screen in place of an input device such as a keypad, a keyboard, a mouse, and a joystick where an action is required. Such touch screens are mainly used in environments where it is difficult to install input devices such as keypads, keyboards, mice, and joysticks, or where intuitive interaction is required for users, and the demand is gradually increasing.

이와 관련하여, 터치 스크린은 기존에는 싱글 터치(single-touch) 방식으로 스크린 상에 하나의 점에 대한 입력만을 허용하는 수준이었으나, 최근에는 멀티 터치(multi-touch)라는 다점 입력 기술이 나타나기 시작하여 스크린 상에서 여러 개의 점을 입력할 수 있게 되었으며, 이에 따라 기기와 사용자 사이의 상호 작용의 방식이 획기적으로 변화되기 시작하고 있다.In this regard, the touch screen is a level that only allows input of a single point on the screen by a single touch method, but recently, a multi-point input technology called multi-touch has started to appear. It is now possible to enter several points on the screen, and the way of interaction between the device and the user is beginning to change dramatically.

한편, 도 1은 이러한 터치 스크린을 이용하여 NUI(Natural User Interface)를 구현하는 것을 설명하는 도면이다.On the other hand, Figure 1 is a diagram illustrating the implementation of the Natural User Interface (NUI) using such a touch screen.

도 1을 참고하면, 터치 인식 장치(10)가 터치 스크린 상에서 터치(touch)를 인식하여 이에 상응하는 위치 정보(입력 좌표)를 NUI 장치(20)에 전송하면, NUI 장치(20)는 이를 기초로 기 등록된 제스쳐 프로파일과 비교하여 소정의 제스쳐를 인식하게 된다. 그리고, 이와 같이 인식된 제스쳐는 멀티 터치 어플리케이션(30)이나 GUI 어플리케이션(35)에 의해 소정의 명령 또는 입력으로 인식되어 해당 기능을 수행하게 된다.Referring to FIG. 1, when the touch recognition device 10 recognizes a touch on a touch screen and transmits corresponding position information (input coordinates) to the NUI device 20, the NUI device 20 based on the touch. The predetermined gesture is recognized as compared with the registered gesture profile. The gesture recognized as described above is recognized as a predetermined command or input by the multi-touch application 30 or the GUI application 35 to perform a corresponding function.

그러나, 종래기술에 따르면, 기존의 터치 스크린의 입력 장치의 한계(예컨대, 기존의 OS(Operating System)가 주로 단일 입력만 지원됨)로 인하여 사용자의 요구가 반영되거나 발굴하고자 하는 컨텐츠의 제작에 많은 제한이 있었으며, 이에 따라 프로그램이나 어플리케이션 개발자의 요구가 충실히 반영될 수 없는 문제점이 있었다.However, according to the prior art, due to the limitations of the input device of the existing touch screen (for example, the existing operating system (OS) mainly supports only a single input), many limitations on the production of content to be reflected or excavated by the user's needs As a result, there was a problem that the needs of the program or application developer could not be faithfully reflected.

또한, 멀티 터치(multi-touch)를 통한 제스쳐를 효율적으로 등록하고 인식할 수 있는 기술이 미비하여, 프로그램 개발자들이 멀티 터치에 기반한 NUI를 구현하는데 상당한 어려움이 있었다.In addition, there is a lack of technology for efficiently registering and recognizing gestures through multi-touch, so that program developers have difficulty in implementing NUI based on multi-touch.

본 발명은 전술한 바와 같은 문제점을 해결하기 위해 창안된 것으로, 본 발명의 목적은 터치 패널이나 터치 스크린상에서 사용되는 NUI를 위한 제스쳐를 효율적으로 등록하고 인식할 수 있는 장치 및 방법을 제공하는 것이다.The present invention was devised to solve the above problems, and an object of the present invention is to provide an apparatus and method capable of efficiently registering and recognizing a gesture for an NUI used on a touch panel or a touch screen.

본 발명의 다른 목적은, 기존의 싱글 터치에 기반한 제스쳐 뿐만 아니라 멀티 터치에 기반한 제스쳐도 용이하게 등록하고 인식할 수 있는 NUI를 위한 제스쳐 인식 장치 및 방법을 제공하는 것이다.Another object of the present invention is to provide a gesture recognition apparatus and method for NUI that can easily register and recognize not only a single touch based gesture but also a multi touch based gesture.

본 발명의 또 다른 목적은, 터치 패널이나 터치 스크린 상에서 다양한 제스쳐를 인식하여 NUI 프로그래밍의 여러 가지 기능들을 손쉽게 구현할 수 있는 프로그램 또는 어플리케이션 개발자를 위한 제스쳐 인식 장치 및 방법을 제공하는 것이다.Still another object of the present invention is to provide a gesture recognition apparatus and method for a program or application developer that can easily implement various functions of NUI programming by recognizing various gestures on a touch panel or a touch screen.

본 발명의 또 다른 목적은, 기존의 어플리케이션에 대하여 포인팅 디바이스로서 동작시켰던 부분을 터치를 이용한 제스쳐로 대체하여 호환이 가능하도록 구현할 수 있는 NUI를 위한 제스쳐 인식 장치 및 방법을 제공하는 것이다.It is still another object of the present invention to provide a gesture recognition apparatus and method for NUI that can be implemented to be compatible by replacing a portion operated as a pointing device with a gesture using a touch with respect to an existing application.

상기 목적을 위하여, 본 발명의 일 형태에 따른 NUI를 위한 제스쳐 인식 장치는, 제스쳐 인식을 위한 터치 데이터 좌표 열을 입력 받는 좌표 열 입력부; 상기 터치 데이터 좌표 열을 오프셋(offset)하는 좌표 열 오프셋부; 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 기준 좌표 열 을 선택하고, 상기 기준 좌표 열을 기준으로 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열을 정규화하는 좌표 열 정규화부; 및 상기 정규화된 터치 데이터 좌표 열과 상기 정규화된 복수개의 제스쳐 프로파일 데이터 좌표 열 사이의 거리를 각각 계산하고, 거리가 가장 짧은 제스쳐 프로파일 데이터 좌표 열에 해당하는 제스쳐를 인식하는 제스쳐 인식부를 포함하는 것을 특징으로 한다.For this purpose, a gesture recognition device for NUI of one embodiment of the present invention includes a coordinate string input unit for receiving a touch data coordinate string for gesture recognition; A coordinate column offset unit for offsetting the touch data coordinate column; A coordinate column normalization unit for selecting a reference coordinate column from the offset touch data coordinate column and the plurality of gesture profile data coordinate columns and normalizing the touch data coordinate column and the plurality of gesture profile data coordinate columns based on the reference coordinate column; And a gesture recognizer configured to calculate a distance between the normalized touch data coordinate column and the normalized plurality of gesture profile data coordinate columns, and recognize a gesture corresponding to the gesture profile data coordinate column having the shortest distance. .

그리고, 본 발명의 일 형태에 따른 NUI를 위한 제스쳐 인식 시스템은, 터치 스크린의 입력 장치로부터 터치를 감지하여 터치 위치에 대한 입력 좌표를 생성하는 터치 검출기; 상기 입력 좌표에 대해 인덱싱(indexing)을 수행하여 데이터 좌표 열을 생성하는 위치 생성기; 및 상기 위치 생성기로부터 전송된 터치 데이터 좌표 열을 오프셋(offset)한 후, 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 기준 좌표 열을 선택하고, 상기 기준 좌표 열을 기준으로 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열을 정규화한 후, 상기 정규화된 터치 데이터 좌표 열과 상기 정규화된 복수개의 제스쳐 프로파일 데이터 좌표 열 사이의 거리를 각각 계산하여 거리가 가장 짧은 제스쳐 프로파일 데이터 좌표 열에 해당하는 제스쳐를 인식하는 제스쳐 인식기를 포함하는 것을 특징으로 한다.The gesture recognition system for NUI of one embodiment of the present invention includes a touch detector for sensing a touch from an input device of a touch screen and generating input coordinates for a touch position; A location generator for indexing the input coordinates to generate a data coordinate column; And after offsetting the touch data coordinate column transmitted from the location generator, selecting a reference coordinate column from the offset touch data coordinate column and a plurality of gesture profile data coordinate columns, and based on the reference coordinate column, touch data. After normalizing a coordinate column and a plurality of gesture profile data coordinate columns, a distance corresponding to the gesture profile data coordinate column having the shortest distance is calculated by calculating a distance between the normalized touch data coordinate column and the normalized plurality of gesture profile data coordinate columns, respectively. Characterized in that it comprises a gesture recognizer for recognizing.

한편, 본 발명의 일 형태에 따른 NUI를 위한 제스쳐 인식 방법은, a) 제스쳐 인식을 위한 터치 데이터 좌표 열을 입력 받아, 상기 터치 데이터 좌표 열을 오프셋(offset)하는 단계; b) 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 기준 좌표 열을 선택하고, 상기 기준 좌표 열을 기준으로 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열을 정규화하는 단계: 및 c) 상기 정규화된 터치 데이터 좌표 열과 상기 정규화된 복수개의 제스쳐 프로파일 데이터 좌표 열 사이의 거리를 각각 계산하고, 거리가 가장 짧은 제스쳐 프로파일 데이터 좌표 열에 해당하는 제스쳐를 인식하는 단계를 포함하는 것을 특징으로 한다.On the other hand, a gesture recognition method for NUI of one embodiment of the present invention, a) receiving a touch data coordinate string for gesture recognition, the step of offsetting the touch data coordinate column; b) selecting a reference coordinate column from the offset touch data coordinate column and the plurality of gesture profile data coordinate columns and normalizing the touch data coordinate column and the plurality of gesture profile data coordinate columns based on the reference coordinate column: and c) And calculating a distance between the normalized touch data coordinate column and the normalized plurality of gesture profile data coordinate columns, and recognizing a gesture corresponding to the gesture profile data coordinate column having the shortest distance.

본 발명에 따르면, 터치 패널이나 터치 스크린상에서 사용되는 NUI를 위한 제스쳐를 용이하고 효율적으로 등록하고 인식할 수 있는 효과를 가진다.According to the present invention, it is possible to easily and efficiently register and recognize a gesture for an NUI used on a touch panel or a touch screen.

그리고, 본 발명에 따르면, 단일 입력 시스템을 확장하여 다점 입력(멀티 터치)을 통한 제스쳐 인식 기능을 구현하여 사용자에게 직관적인 NUI를 제공할 수 있는 효과를 가진다.In addition, according to the present invention, by extending the single input system to implement the gesture recognition function through the multi-point input (multi-touch) has an effect that can provide an intuitive NUI to the user.

또한, 본 발명에 따르면, 터치 패널이나 터치 스크린 상에서 다양한 제스쳐를 등록하고 인식하여 NUI 프로그래밍의 여러 가지 기능들을 손쉽게 구현할 수 있는 개발자 환경을 제공할 수 있다.In addition, according to the present invention, by registering and recognizing various gestures on a touch panel or a touch screen, it is possible to provide a developer environment that can easily implement various functions of NUI programming.

이하에서는 첨부 도면 및 바람직한 실시예를 참조하여 본 발명을 상세히 설명한다. 참고로, 하기 설명에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings and preferred embodiments. For reference, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted in the following description.

본 발명에 대한 구체적인 설명에 앞서, 본 발명에서 말하는 제스쳐(gestue)에 대해 정의하면, 이는 터치 스크린 상에서 이루어지는 사용자의 동작을 통칭하는 의미라 할 수 있다. 즉, 제스쳐는 일반적으로 사용되는 기본 동작과 특정 어플리케이션에서 정의하는 어플리케이션 전용 제스쳐(Application-specific Gesture) 등을 포함하는 의미이다.Prior to the detailed description of the present invention, when defining a gesture in the present invention, this may mean a general operation of a user on a touch screen. That is, a gesture includes a basic operation generally used and an application-specific gesture defined in a specific application.

도 2는 터치 스크린 상에 소정의 제스쳐가 입력되는 것을 예시한 것인데, 터치 스크린 상에서 엄지 손가락과 집게 손가락을 오므렸다가(도 2의 (a) 참조) 폄으로써(도 2의 (b) 참조) 하나의 제스쳐를 입력하는 것을 나타낸다. 그리고, 도 3은 NUI를 위해 사용될 수 있는 여러 가지 제스쳐를 예시하는 도면인데, 본 발명은 이와 같이 다양한 제스쳐를 개발자나 사용자가 직접 정의하여 등록할 수 있도록 함으로써 사용자 편의적인 개발 환경을 제공할 수 있다.FIG. 2 illustrates that a predetermined gesture is input on the touch screen, and the thumb and forefinger are pinched on the touch screen (see FIG. 2 (a)) and then pressed (see FIG. 2 (b)). Indicates a gesture of. 3 is a diagram illustrating various gestures that can be used for NUI, the present invention can provide a user-friendly development environment by allowing a developer or a user to define and register various gestures. .

도 4는 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 시스템의 구성도를 예시한 것이다.4 illustrates a configuration diagram of a gesture recognition system for NUI according to an embodiment of the present invention.

도 4를 참고하면, 본 발명에 따른 제스쳐 인식 시스템은 크게 터치 인식 장치(100)와 NUI 장치(200)로 구성되고, 터치 인식 장치(100)는 터치 검출기(110), 위치 생성기(120), 위치 변환기(130) 등을 포함하고, NUI 장치(200)는 제스쳐 등록기(210), 제스쳐 데이터베이스(220), 제스쳐 인식기(230), 변수 조정기(240), 디버거(250) 등을 포함한다.Referring to FIG. 4, the gesture recognition system according to the present invention includes a touch recognition device 100 and an NUI device 200, and the touch recognition device 100 includes a touch detector 110, a location generator 120, And a location converter 130, and the NUI device 200 includes a gesture register 210, a gesture database 220, a gesture recognizer 230, a variable adjuster 240, a debugger 250, and the like.

이를 상술하면, 터치 검출기(Touch Detector)(110)는 터치 스크린의 입력 장치로부터 싱글 터치(1점 입력) 또는 멀티 터치(다점 입력)를 감지하며 하드웨어에 종속적인 터치 스크린 상의 좌표를 얻는다. 참고로, 도 5의 (a)는 터치 검출기에 서 생성되는 데이터 포맷을 예시한 것인데, 여기서 중심 좌표 x, 중심 좌표 y, 반경 x, 반경 y는 터치 수만큼 반복된다.In detail, the touch detector 110 detects a single touch (one-point input) or multi-touch (multi-point input) from an input device of a touch screen and obtains coordinates on a hardware-dependent touch screen. For reference, (a) of FIG. 5 illustrates a data format generated by the touch detector, where the center coordinate x, the center coordinate y, the radius x, and the radius y are repeated by the number of touches.

그리고, 위치 생성기(Position Generator)(120)는 터치 검출기(110)로부터 전송 받은 데이터에 대해 인덱싱(indexing)을 수행한다. 여기서, 인덱싱을 수행한다는 것은 이산 시간에 측정된 좌표 데이터로부터 연속적인 데이터를 생성함으로써 연관성 있는 데이터로 변환하는 것을 의미한다. 그리고, 이에 따라 손가락을 누르고, 움직이고, 떼는 동작이 인덱스에 의하여 관리되게 된다. 참고로, 도 5의 (b)는 위치 생성기(120)에서 생성되는 데이터 포맷을 예시한 것인데, 여기서 중심 좌표 x, 중심 좌표 y, 반경 x, 반경 y는 터치 수만큼 반복되며, 터치 인덱스는 각 점의 번호를 의미하고, 동작은 누름, 움직임, 떼는 동작을 나타낸다.The position generator 120 indexes the data received from the touch detector 110. Here, performing indexing means generating continuous data from coordinate data measured at discrete time and converting the data into relevant data. Then, the operation of pressing, moving and releasing the finger is managed by the index. For reference, FIG. 5B illustrates a data format generated by the location generator 120, where the center coordinate x, the center coordinate y, the radius x, and the radius y are repeated by the number of touches, and the touch index is an angle. It refers to the number of points, and the action refers to the pressing, moving and releasing action.

위치 변환기(Position Converter)(130)는 위치 생성기(120)로부터 얻은 하드웨어 종속적인 다중 입력 정보들을 다양한 모니터의 설정에 적합하게 시스템에 종속적인 좌표를 생성한다. 이 경우, 위치 변환기(130)는 다양한 해상도를 지원하도록 구현되며, 다중(multiple) 모니터, 클론(Clone) 모니터 등도 지원하도록 구현하는 것이 바람직하다. 그리고, 사용자가 모니터의 해상도를 변경할 경우 이를 반영하여 멀티 터치의 오차가 발생하지 않도록 하며, 좌표 변환식은 알고리즘이 간단한 선형 맵핑식을 이용하는 것이 바람직하고 필요한 경우 좌표 보정식을 추가한다.The position converter 130 generates the system-dependent coordinates of the hardware-dependent multi-input information obtained from the position generator 120 to suit various monitor settings. In this case, the position converter 130 is implemented to support a variety of resolutions, it is preferable to implement to support multiple monitors, clone monitors. In addition, when the user changes the resolution of the monitor, the error of the multi-touch is not reflected by reflecting the change, and the coordinate transformation equation preferably uses a simple linear mapping equation and adds a coordinate correction equation if necessary.

한편, 제스쳐 등록기(Gesture Profiler)(210)는 여러 차례의 트레이닝(training)을 통해 NUI를 위한 제스쳐를 등록한다. 즉, 제스쳐 등록기(210)는 터치 인식 장치(100)로부터 제공되는 여러 차례의 트레이닝에 대한 트레이닝 데이 터 좌표 열을 수신하고, 이에 근거하여 제스쳐로 등록할 프로파일 데이터를 생성한다.Meanwhile, the gesture profiler 210 registers the gesture for the NUI through several trainings. That is, the gesture register 210 receives training data coordinate sequences for a plurality of trainings provided from the touch recognition apparatus 100, and generates profile data to be registered as a gesture based on the training data coordinate string.

참고로, 도 6은 본 발명에서 사용될 수 있는 제스쳐 등록을 위한 사용자 인터페이스를 예시한 도면이다. 사용자는 시작(start) 버튼을 누른 후 제스쳐 입력 영역에 터치 드래깅(touch dragging)을 하며, 이를 여러 차례 반복한 후 종료(end) 버튼을 누르면, 트레이닝 데이터 좌표 열이 저장된다. 제스쳐 등록기(210)에 대한 보다 상세한 설명은 본 발명과 동일자로 출원된 특허 제10-2009-0104479호 "NUI를 위한 제스쳐 등록 장치 및 방법"을 참조할 수 있으며, 상기 특허 출원은 본 명세서에 포함되어 결합된다.For reference, FIG. 6 is a diagram illustrating a user interface for gesture registration that can be used in the present invention. The user presses the start button and then touch dragging the gesture input area. After repeating this several times and pressing the end button, the training data coordinate string is stored. For a more detailed description of the gesture register 210, refer to Patent No. 10-2009-0104479, "Gesture Registration Device and Method for NUI," filed with the same person as the present invention, and the patent application is included herein. Are combined.

제스쳐 데이터베이스(Gesture Database)(220)는 제스쳐 등록기(210)를 통해 생성된 제스쳐 프로파일을 저장하며, 추후 터치 스크린 상에서 터치가 인식되는 경우 이를 제스쳐 인식기(230)로 제공한다.The gesture database 220 stores a gesture profile generated through the gesture register 210, and provides the gesture profile 230 to the gesture recognizer 230 when a touch is recognized on the touch screen.

제스쳐 인식기(Gesture Recognizer)(230)는 터치 스크린 상에서 터치가 있는 경우 터치 인식 장치(100)로부터 제공되는 터치 데이터 좌표 열을 수신하고, 이를 제스쳐 데이터베이스(220)로부터 전송 받은 제스쳐 프로파일과 비교하여, 입력된 터치가 어떠한 제스쳐에 해당하는지를 인식한다.The gesture recognizer 230 receives a touch data coordinate string provided from the touch recognition apparatus 100 when there is a touch on the touch screen, and compares it with the gesture profile received from the gesture database 220. It recognizes which gesture the touch corresponds to.

그리고, 변수 조정기(Parameter Regulator)(240)는 각각의 파트(part)에서 변경될 수 있는 값들을 조정할 수 있도록 하여, 특정 디바이스나 응용 프로그램에 맞는 값들을 선택할 수 있게 한다.In addition, the parameter regulator 240 may adjust values that may be changed in each part, thereby selecting values suitable for a specific device or an application program.

마지막으로, 디버거(Debugger)(250)는 입출력 데이터의 확인, 적용된 알고리 즘의 상태 파악 등 각각의 파트에서의 진행 상황을 확인할 수 있도록 하여 전체 개발 과정에서의 문제점을 확인할 수 있게 한다.Finally, the debugger 250 can check the progress in each part, such as checking the input / output data and the state of the applied algorithm, so that problems in the entire development process can be identified.

이하에서는, 도 7 내지 도 11을 참조하여, 본 발명에 따른 NUI를 위한 제스쳐 인식 장치 및 방법에 대해 상세 설명하기로 한다. 참고로, 본 발명에 따른 제스쳐 인식 장치(제스쳐 인식기)는 도 4에 도시된 바와 같이 NUI 장치의 일 구성요소로 사용될 수도 있으며, 별개의 독립적인 장치로도 구현될 수도 있다.Hereinafter, a gesture recognition apparatus and method for NUI according to the present invention will be described in detail with reference to FIGS. 7 to 11. For reference, the gesture recognition device (gesture recognizer) according to the present invention may be used as one component of the NUI device as shown in FIG. 4 or may be implemented as a separate independent device.

먼저, 도 7은 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 장치의 구성도이다. 도시된 바와 같이, 본 발명의 일 실시예에 따른 제스쳐 인식 장치(230)는 좌표 열 입력부(231), 좌표 열 오프셋부(232), 좌표 열 정규화부(233), 제스쳐 인식부(234) 등을 포함한다.First, FIG. 7 is a block diagram of a gesture recognition apparatus for NUI according to an embodiment of the present invention. As shown, the gesture recognition apparatus 230 according to an embodiment of the present invention includes a coordinate column input unit 231, a coordinate column offset unit 232, a coordinate column normalization unit 233, a gesture recognition unit 234, and the like. It includes.

그리고, 도 8은 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 방법의 흐름도이다.8 is a flowchart illustrating a gesture recognition method for NUI according to an embodiment of the present invention.

이하, 도 7 및 도 8을 참조하여 본 발명에 따른 NUI를 위한 제스쳐 인식 장치 및 방법을 함께 설명한다.Hereinafter, a gesture recognition apparatus and method for NUI according to the present invention will be described with reference to FIGS. 7 and 8.

단계 S810에서, 제스쳐 인식부(234)는 제스쳐 데이터베이스(220)에서 프로파일 데이터 파일을 읽어 들인다. 참고로, 본 단계 S810은 제스쳐 인식 장치가 터치를 인식하기 위해 미리 프로파일 데이터를 메모리로 읽어 들이는 것을 표현한 것으로, 실제 구현에 있어서는 터치 데이터 좌표 열 입력 단계(S820)와 오프셋 단계(S830) 이후에 수행되거나 이들 단계와 함께 수행될 수 있다.In operation S810, the gesture recognition unit 234 reads the profile data file from the gesture database 220. For reference, the step S810 represents that the gesture recognizing apparatus reads the profile data into the memory in advance in order to recognize the touch. In an actual implementation, after the touch data coordinate string input step S820 and the offset step S830, It may be carried out or in conjunction with these steps.

한편, 단계 S820에서, 좌표 열 입력부(231)는 터치 인식 장치(100)로부터 제공되는 터치 데이터 좌표 열을 입력 받는다. 여기서, 데이터 좌표 열은 터치 시작부터 드래깅(dragging) 후 터치 종료까지의 입력 좌표의 집합을 의미한다. 이는 도 9에 도시된 바와 같이, 싱글 터치 인식 장치의 경우 입력 좌표의 수와 해당 입력 좌표를 포함하는 포맷을 가질 수 있으며(도 9의 (a) 참조), 멀티 터치 인식 장치의 경우 입력 좌표의 수와 해당 입력 좌표, 그리고 싱글 또는 멀티 터치를 나타내는 터치 타입 태그(touch type tag)를 포함할 수 있다.In operation S820, the coordinate string input unit 231 receives a touch data coordinate string provided from the touch recognition apparatus 100. Here, the data coordinate column means a set of input coordinates from the start of touch to the end of touch after dragging. As shown in FIG. 9, the single touch recognition device may have a format including the number of input coordinates and the corresponding input coordinates (see FIG. 9A). It may include a number, a corresponding input coordinate, and a touch type tag representing a single or multi-touch.

단계 S830에서, 좌표 열 오프셋부(232)는 좌표 열 입력부(231)를 통해 입력된 터치 데이터 좌표 열에 대해 x, y의 최소값을 계산하고, x, y 최소값을 기준으로 터치 데이터 좌표 열을 오프셋(offset)한다. 도 10은 이를 설명하는 도면으로, 도 10의 (a)는 x, y의 최소값으로 x9, y4 가 구해지는 것을 나타내며, 도 10의 (b)는 x, y의 최소값 x9, y4 를 기준으로 터치 데이터 좌표 열을 오프셋한 것을 나타낸다.In operation S830, the coordinate column offset unit 232 calculates a minimum value of x and y with respect to the touch data coordinate column input through the coordinate column input unit 231, and offsets the touch data coordinate column based on the x, y minimum value. offset). FIG. 10 is a diagram illustrating this, and FIG. 10 (a) shows that x 9 and y 4 are obtained as minimum values of x and y, and FIG. 10 (b) shows minimum values x 9 and y 4 of x and y. It indicates that the touch data coordinate column is offset based on.

그리고, 단계 S840에서는, 좌표 열 정규화부(233)는 단계 S810에서 읽어 들인 적어도 하나의 프로파일 데이터 좌표 열과 단계 S820 및 단계 S80 과정에서 얻어진 터치 데이터 좌표 열 중에서 가장 짧은 데이터 좌표 열을 기준 좌표 열로 선택한다. 참고로, 여기서 데이터 좌표 열이 가장 짧다는 것은 프로파일 데이터 또는 터치 데이터의 좌표의 수가 가장 작다는 것을 의미한다.In operation S840, the coordinate column normalization unit 233 selects the shortest data coordinate column among at least one profile data coordinate column read in step S810 and the touch data coordinate column obtained in steps S820 and S80 as a reference coordinate column. . For reference, the shortest data coordinate column means that the number of coordinates of the profile data or the touch data is the smallest.

그리고, 좌표 열 정규화부(233)는, 단계 S850에서, 가장 짧은 데이터 좌표 열을 기준으로 나머지 프로파일 데이터 좌표 열 및/또는 터치 데이터 좌표 열을 정규화한다. 여기서, 좌표 열 정규화는, 예컨대 패턴의 크기를 일정한 크기로 고정시키고 고정된 크기에 따라서 필요한 좌표 점을 추출(decimation)함으로써 수행될 수 있다. 도 11은 이를 설명하는 도면으로, 만약 도 11의 (a)에 도시된 프로파일 데이터 좌표 열이 기준으로 선택된 경우, 도 11의 (b)에 도시된 터치 데이터 좌표 열은 정해진 패턴 크기(예, 기준으로 선택된 프로파일 패턴의 크기)로 변경된 후 프로파일 데이터 좌표 열에 상응하는 인덱스의 좌표 열이 추출된다. 예컨대, i를 기준 좌표 열의 인덱스, j를 대상 좌표 열의 인덱스라 하고, n을 기준 좌표 열의 크기, m을 대상 좌표 열의 크기라 하면, j=i*(m/n)에 해당하는 인덱스의 좌표가 대상 좌표 열 중에서 추출된다. In operation S850, the coordinate column normalization unit 233 normalizes the remaining profile data coordinate columns and / or touch data coordinate columns based on the shortest data coordinate column. Here, coordinate column normalization can be performed, for example, by fixing the size of the pattern to a constant size and extracting the necessary coordinate points according to the fixed size. FIG. 11 is a diagram illustrating this. If the profile data coordinate column shown in FIG. 11 (a) is selected as the reference, the touch data coordinate column shown in FIG. 11 (b) may have a predetermined pattern size (eg, reference). And the coordinate column of the index corresponding to the profile data coordinate column is extracted. For example, if i is the index of the reference coordinate column, j is the index of the target coordinate column, and n is the size of the reference coordinate column, and m is the size of the target coordinate column, the coordinates of the index corresponding to j = i * (m / n) Extracted from the target coordinate column.

마지막으로, 단계 S860에서, 제스쳐 인식부(234)는 이와 같이 정규화된 터치 데이터 좌표 열을 마찬가지로 각각 정규화된 적어도 하나의 프로파일 데이터 좌표 열과 각각 거리를 계산하여, 최소 거리에 해당하는 프로파일 데이터를 선택한다. 이 경우, 데이터 좌표 열 사이의 거리는 피타고라스의 정리를 이용하여 실제 거리를 구하거나 또는 연산량을 줄이기 위해 상응하는 각 좌표들의 X축 거리와 Y축 거리의 합을 이용할 수 있다. 그리고, 제스쳐 인식부(234)는 터치 인식 장치(100)에서 인식된 터치를 상기 선택된 프로파일 데이터에 해당하는 제스쳐로 인식한다.Finally, in step S860, the gesture recognizing unit 234 calculates a distance from each of the normalized touch data coordinate strings as well as the normalized at least one profile data coordinate column, respectively, and selects profile data corresponding to the minimum distance. . In this case, the distance between the data coordinate columns may use the sum of the X-axis distance and the Y-axis distance of the corresponding coordinates in order to obtain an actual distance using Pythagorean theorem or to reduce the amount of calculation. The gesture recognition unit 234 recognizes the touch recognized by the touch recognition apparatus 100 as a gesture corresponding to the selected profile data.

참고로, 전술한 실시예에서는 좌표 열 정규화를 위해 터치 데이터 좌표 열과 적어도 하나의 프로파일 데이터 좌표 열 중에서 가장 짧은 데이터 좌표 열을 기준 좌표 열로 선택하였는데, 본 발명의 다른 실시예에서는 미리 기준 좌표 열의 좌표 수와 크기를 정해 놓고 이를 기준을 터치 좌표 열의 정규화를 수행할 수도 있다.For reference, in the above-described embodiment, the shortest data coordinate column is selected as the reference coordinate column among the touch data coordinate column and the at least one profile data coordinate column for the coordinate column normalization. You can also set the and size and normalize the touch coordinate column based on this.

한편, 본 발명에 따른 NUI를 위한 제스쳐 인식 방법은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독가능 기록매체를 통하여 실시될 수 있다. 상기 컴퓨터 판독가능 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기록매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Meanwhile, the gesture recognition method for NUI according to the present invention may be implemented through a computer readable recording medium including program instructions for performing operations implemented by various computers. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The recording medium may be one specially designed and configured for the present invention, or may be known and available to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, magnetic-optical media such as floppy disks, and ROM, RAM, flash memory, and the like. Hardware devices specifically configured to store and execute the same program instructions are included. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

지금까지 본 발명을 바람직한 실시예를 참조하여 상세히 설명하였지만, 본 발명이 속하는 기술분야의 당업자는 본 발명의 기술적 사상이나 필수적 특징들을 변경하지 않고서 다른 구체적인 다양한 형태로 실시할 수 있는 것이므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다.Although the present invention has been described in detail with reference to preferred embodiments, it will be apparent to those skilled in the art that the present invention may be embodied in other specific various forms without changing the technical spirit or essential features of the present invention. One embodiment is to be understood in all respects as illustrative and not restrictive.

그리고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 특정되는 것이며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태는 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. .

도 1은 터치 스크린을 이용하여 NUI를 구현하는 것을 설명하는 도면이다.1 is a diagram illustrating an implementation of an NUI using a touch screen.

도 2는 터치 스크린 상에 소정의 제스쳐가 입력되는 것을 예시한 도면이다.2 illustrates an example of inputting a predetermined gesture on a touch screen.

도 3은 NUI를 위해 사용될 수 있는 여러 가지 제스쳐를 예시하는 도면이다.3 is a diagram illustrating various gestures that may be used for NUI.

도 4는 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 시스템의 구성도이다.4 is a block diagram of a gesture recognition system for NUI according to an embodiment of the present invention.

도 5는 터치 검출기 및 위치 생성기에서 각각 생성되는 데이터 포맷을 예시한 것이다.5 illustrates a data format generated in the touch detector and the position generator, respectively.

도 6은 본 발명에서 사용될 수 있는 제스쳐 등록을 위한 사용자 인터페이스를 예시한 도면이다.6 is a diagram illustrating a user interface for gesture registration that can be used in the present invention.

도 7은 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 장치의 구성도이다.7 is a block diagram of a gesture recognition apparatus for NUI according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 방법의 흐름도이다.8 is a flowchart illustrating a gesture recognition method for NUI according to an embodiment of the present invention.

도 9는 본 발명에 따른 데이터 좌표 열의 포맷을 예시하는 도면이다.9 is a diagram illustrating a format of a data coordinate column according to the present invention.

도 10은 본 발명에 따른 터치 데이터 좌표 열의 오프셋을 설명하는 도면이다.10 illustrates an offset of a touch data coordinate column according to the present invention.

도 11은 본 발명에 따른 프로파일 데이터 좌표 열과 터치 데이터 좌표 열의 거리 계산을 설명하는 도면이다.FIG. 11 is a diagram illustrating distance calculation between a profile data coordinate column and a touch data coordinate column according to the present invention. FIG.

Claims (16)

NUI(Natural User Interface)를 위한 제스쳐(gesture) 인식 장치로서,Gesture recognition device for Natural User Interface (NUI), 제스쳐 인식을 위한 터치 데이터 좌표 열을 입력 받는 좌표 열 입력부;A coordinate column input unit receiving a touch data coordinate column for gesture recognition; 상기 터치 데이터 좌표 열을 오프셋(offset)하는 좌표 열 오프셋부;A coordinate column offset unit for offsetting the touch data coordinate column; 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 기준 좌표 열을 선택하고, 상기 기준 좌표 열을 기준으로 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열을 정규화하는 좌표 열 정규화부; 및A coordinate column normalization unit selecting a reference coordinate column among the offset touch data coordinate columns and the plurality of gesture profile data coordinate columns and normalizing the touch data coordinate column and the plurality of gesture profile data coordinate columns based on the reference coordinate column; And 상기 정규화된 터치 데이터 좌표 열과 상기 정규화된 복수개의 제스쳐 프로파일 데이터 좌표 열 사이의 거리를 각각 계산하고, 거리가 가장 짧은 제스쳐 프로파일 데이터 좌표 열에 해당하는 제스쳐를 인식하는 제스쳐 인식부를 포함하는 제스쳐 인식 장치.And a gesture recognizing unit configured to calculate a distance between the normalized touch data coordinate column and the normalized plurality of gesture profile data coordinate columns, and recognize a gesture corresponding to the gesture profile data coordinate column having the shortest distance. 제1항에 있어서,The method of claim 1, 상기 좌표 열 오프셋부는 터치 데이터 좌표 열에 대해 x, y의 최소값을 계산하고, 상기 x, y의 최소값을 기준으로 상기 터치 데이터 좌표 열을 오프셋하는 것을 특징으로 하는 제스쳐 인식 장치.And the coordinate column offset unit calculates a minimum value of x and y with respect to a touch data coordinate column, and offsets the touch data coordinate column based on the minimum value of x and y. 제1항 또는 제2항에 있어서,The method according to claim 1 or 2, 상기 기준 좌표 열은 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 가장 짧은 좌표 열인 것을 특징으로 하는 제스쳐 인식 장치.And the reference coordinate column is a shortest coordinate column among the offset touch data coordinate column and a plurality of gesture profile data coordinate columns. 제1항 또는 제2항에 있어서,The method according to claim 1 or 2, 상기 좌표 열 정규화부는 터치 패턴의 크기를 정해진 크기로 고정시키고, 고정된 크기에 따라서 상기 터치 데이터 좌표 열에서 기준 좌표 열에 상응하는 좌표 점을 추출함으로써 터치 데이터 좌표 열을 정규화하는 것을 특징으로 하는 제스쳐 인식 장치.The gesture column normalization unit fixes the touch pattern to a predetermined size and extracts a coordinate point corresponding to a reference coordinate column from the touch data coordinate column according to the fixed size. Device. 제1항 또는 제2항에 있어서,The method according to claim 1 or 2, 상기 터치 데이터 좌표 열의 포맷은 좌표 수, 터치 타입 태그(touch type tag), 상기 터치 타입 태그에 상응하는 행렬로 표현되는 좌표 열로 구성된 것을 특징으로 하는 제스쳐 인식 장치.The format of the touch data coordinate column may include a coordinate number, a touch type tag, and a coordinate column represented by a matrix corresponding to the touch type tag. NUI(Natural User Interface)를 위한 제스쳐(gesture) 인식 시스템으로서,Gesture Recognition System for Natural User Interface (NUI) 터치 스크린의 입력 장치로부터 터치를 감지하여 터치 위치에 대한 입력 좌표를 생성하는 터치 검출기;A touch detector for sensing a touch from an input device of the touch screen to generate input coordinates for the touch position; 상기 입력 좌표에 대해 인덱싱(indexing)을 수행하여 데이터 좌표 열을 생성하는 위치 생성기; 및A location generator for indexing the input coordinates to generate a data coordinate column; And 상기 위치 생성기로부터 전송된 터치 데이터 좌표 열을 오프셋(offset)한 후, 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 기준 좌표 열을 선택하고, 상기 기준 좌표 열을 기준으로 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열을 정규화한 후, 상기 정규화된 터치 데이터 좌표 열과 상기 정규화된 복수개의 제스쳐 프로파일 데이터 좌표 열 사이의 거리를 각각 계산하여 거리가 가장 짧은 제스쳐 프로파일 데이터 좌표 열에 해당하는 제스쳐를 인식하는 제스쳐 인식기를 포함하는 제스쳐 인식 시스템.After offsetting the touch data coordinate column transmitted from the location generator, a reference coordinate column is selected from the offset touch data coordinate column and the plurality of gesture profile data coordinate columns, and the touch data coordinates are referenced based on the reference coordinate column. After normalizing the column and the plurality of gesture profile data coordinate columns, the distance between the normalized touch data coordinate column and the normalized plurality of gesture profile data coordinate columns is calculated, respectively, to generate a gesture corresponding to the gesture profile data coordinate column having the shortest distance. A gesture recognition system comprising a gesture recognizer to recognize. 제6항에 있어서,The method of claim 6, 상기 제스쳐 인식기는 터치 데이터 좌표 열에 대해 x, y의 최소값을 계산하고, 상기 x, y의 최소값을 기준으로 상기 터치 데이터 좌표 열을 오프셋하는 것을 특징으로 하는 제스쳐 인식 시스템.And the gesture recognizer calculates a minimum value of x and y with respect to the touch data coordinate column, and offsets the touch data coordinate column based on the minimum value of x and y. 제6항에 있어서,The method of claim 6, 상기 제스쳐 인식기는 터치 패턴의 크기를 정해진 크기로 고정시키고, 고정된 크기에 따라서 상기 터치 데이터 좌표 열에서 기준 좌표 열에 상응하는 좌표 점을 추출함으로써 터치 데이터 좌표 열을 정규화하는 것을 특징으로 하는 제스쳐 인식 시스템.The gesture recognizer fixes the touch pattern to a predetermined size, and normalizes the touch data coordinate column by extracting coordinate points corresponding to the reference coordinate column from the touch data coordinate column according to the fixed size. . 제6항 내지 제8항 중 어느 한 항에 있어서,9. The method according to any one of claims 6 to 8, 상기 복수개의 제스쳐 프로파일 데이터를 제공하는 제스쳐 데이터베이스를 더 포함하는 것을 특징으로 하는 제스쳐 인식 시스템.And a gesture database that provides the plurality of gesture profile data. 제9항에 있어서,10. The method of claim 9, 상기 위치 생성기로부터 전송된 복수개의 트레이닝 데이터 좌표 열을 입력 받아, 상기 복수개의 트레이닝 데이터 좌표 열을 각각 오프셋(offset)한 후, 상기 오프셋된 복수개의 트레이닝 데이터 좌표 열 중에서 기준 좌표 열을 선택하고, 상기 기준 좌표 열을 기준으로 상기 복수개의 트레이닝 데이터 좌표 열을 정규화하며, 상기 정규화된 복수개의 트레이닝 데이터 좌표 열을 평균하여 제스쳐 프로파일 데이터를 생성하는 제스쳐 등록기를 더 포함하는 것을 특징으로 하는 제스쳐 인식 시스템.Receiving a plurality of training data coordinate columns transmitted from the position generator, offsetting the plurality of training data coordinate columns, and selecting a reference coordinate column from the plurality of offset training data coordinate columns, And a gesture register configured to normalize the plurality of training data coordinate columns based on a reference coordinate column, and to generate gesture profile data by averaging the normalized plurality of training data coordinate columns. NUI(Natural User Interface)를 위한 제스쳐(gesture) 인식 방법으로서,As a gesture recognition method for Natural User Interface (NUI), a) 제스쳐 인식을 위한 터치 데이터 좌표 열을 입력 받아, 상기 터치 데이터 좌표 열을 오프셋(offset)하는 단계;a) receiving a touch data coordinate string for gesture recognition, and offsetting the touch data coordinate string; b) 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 기준 좌표 열을 선택하고, 상기 기준 좌표 열을 기준으로 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열을 정규화하는 단계: 및b) selecting a reference coordinate column from the offset touch data coordinate column and the plurality of gesture profile data coordinate columns, and normalizing the touch data coordinate column and the plurality of gesture profile data coordinate columns based on the reference coordinate column: c) 상기 정규화된 터치 데이터 좌표 열과 상기 정규화된 복수개의 제스쳐 프로파일 데이터 좌표 열 사이의 거리를 각각 계산하고, 거리가 가장 짧은 제스쳐 프 로파일 데이터 좌표 열에 해당하는 제스쳐를 인식하는 단계를 포함하는 제스쳐 인식 방법.c) calculating a distance between the normalized touch data coordinate column and the normalized plurality of gesture profile data coordinate columns, and recognizing a gesture corresponding to the gesture profile data coordinate column having the shortest distance. Way. 제11항에 있어서,The method of claim 11, 상기 단계 a)의 오프셋은, 터치 데이터 좌표 열에 대해 x, y의 최소값을 계산하고, 상기 x, y의 최소값을 기준으로 상기 터치 데이터 좌표 열을 오프셋하는 것을 특징으로 하는 제스쳐 인식 방법.The offset of step a), the gesture recognition method, characterized in that to calculate the minimum value of x, y with respect to the touch data coordinate column, and to offset the touch data coordinate column based on the minimum value of the x, y. 제11항에 있어서,The method of claim 11, 상기 기준 좌표 열은 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 가장 짧은 좌표 열인 것을 특징으로 하는 제스쳐 인식 방법.And the reference coordinate column is a shortest coordinate column among the offset touch data coordinate column and a plurality of gesture profile data coordinate columns. 제11항 내지 제13항 중 어느 한 항에 있어서,14. The method according to any one of claims 11 to 13, 상기 단계 b)의 좌표 열 정규화는, 터치 패턴의 크기를 정해진 크기로 고정시키고, 고정된 크기에 따라서 상기 터치 데이터 좌표 열에서 기준 좌표 열에 상응하는 좌표 점을 추출하는 것을 특징으로 하는 제스쳐 인식 방법.In the coordinate column normalization of step b), the size of the touch pattern is fixed to a predetermined size, and a gesture point corresponding to a reference coordinate column is extracted from the touch data coordinate column according to the fixed size. 제11항 내지 제13항 중 어느 한 항에 있어서,14. The method according to any one of claims 11 to 13, 상기 거리 계산은 피타고라스의 정리를 이용하거나 각 좌표들의 X축 거리와 Y축 거리의 합을 이용하여 계산하는 것을 특징으로 하는 제스쳐 인식 방법.The distance calculation may be performed using a Pythagorean theorem or using a sum of the X-axis distance and the Y-axis distance of each coordinate. 제11항 내지 제13항 중 어느 한 항에 따른 제스쳐 인식 방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능 기록매체.A computer-readable recording medium having recorded thereon a program for performing a gesture recognition method according to any one of claims 11 to 13.
KR1020090104535A 2009-10-30 2009-10-30 Apparatus and method for recognizing NUI gesture KR101072858B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090104535A KR101072858B1 (en) 2009-10-30 2009-10-30 Apparatus and method for recognizing NUI gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090104535A KR101072858B1 (en) 2009-10-30 2009-10-30 Apparatus and method for recognizing NUI gesture

Publications (2)

Publication Number Publication Date
KR20110047776A true KR20110047776A (en) 2011-05-09
KR101072858B1 KR101072858B1 (en) 2011-10-17

Family

ID=44239017

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090104535A KR101072858B1 (en) 2009-10-30 2009-10-30 Apparatus and method for recognizing NUI gesture

Country Status (1)

Country Link
KR (1) KR101072858B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9126115B2 (en) 2011-12-02 2015-09-08 Empire Technology Development Llc Safety scheme for gesture-based game system
US9266019B2 (en) 2011-07-01 2016-02-23 Empire Technology Development Llc Safety scheme for gesture-based game
US9390318B2 (en) 2011-08-31 2016-07-12 Empire Technology Development Llc Position-setup for gesture-based game system
US10713479B2 (en) 2014-08-07 2020-07-14 Starship Vending-Machine Corp. Motion recognition method and motion recognition device for recognizing motion of user received via NUI device by comparing with preset comparison target information

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3470028B2 (en) 1997-12-04 2003-11-25 シャープ株式会社 Handwritten character recognition device and program storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9266019B2 (en) 2011-07-01 2016-02-23 Empire Technology Development Llc Safety scheme for gesture-based game
US9823740B2 (en) 2011-07-01 2017-11-21 Empire Technology Development Llc Safety scheme for gesture-based game
US9390318B2 (en) 2011-08-31 2016-07-12 Empire Technology Development Llc Position-setup for gesture-based game system
US9126115B2 (en) 2011-12-02 2015-09-08 Empire Technology Development Llc Safety scheme for gesture-based game system
US10713479B2 (en) 2014-08-07 2020-07-14 Starship Vending-Machine Corp. Motion recognition method and motion recognition device for recognizing motion of user received via NUI device by comparing with preset comparison target information

Also Published As

Publication number Publication date
KR101072858B1 (en) 2011-10-17

Similar Documents

Publication Publication Date Title
US8619036B2 (en) Virtual keyboard based activation and dismissal
US8941600B2 (en) Apparatus for providing touch feedback for user input to a touch sensitive surface
EP2756369B1 (en) Soft keyboard interface
CN102246134B (en) Soft keyboard control
US8004503B2 (en) Auto-calibration of a touch screen
KR101352994B1 (en) Apparatus and method for providing an adaptive on-screen keyboard
CN101520702B (en) Simulation of multi-point input
US20110216015A1 (en) Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions
US20150153897A1 (en) User interface adaptation from an input source identifier change
US20150160779A1 (en) Controlling interactions based on touch screen contact area
WO2016053698A1 (en) Method and apparatus for addressing touch discontinuities
JP2008192092A (en) Touch panel device, information processor and program
US20130120282A1 (en) System and Method for Evaluating Gesture Usability
US20150100911A1 (en) Gesture responsive keyboard and interface
JP2006524955A (en) Unambiguous text input method for touch screen and reduced keyboard
US20150160794A1 (en) Resolving ambiguous touches to a touch screen interface
US20150185850A1 (en) Input detection
Zhang et al. Gestkeyboard: enabling gesture-based interaction on ordinary physical keyboard
KR101072858B1 (en) Apparatus and method for recognizing NUI gesture
KR20160097410A (en) Method of providing touchless input interface based on gesture recognition and the apparatus applied thereto
US20100321293A1 (en) Command generation method and computer using the same
US20150103010A1 (en) Keyboard with Integrated Pointing Functionality
KR101048447B1 (en) Gesture registration device and method for NVI
JP2016164726A (en) Electronic apparatus
US20170371481A1 (en) Enhanced touchscreen

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee