KR20110047776A - Apparatus and method for recognizing NUI gesture - Google Patents
Apparatus and method for recognizing NUI gesture Download PDFInfo
- Publication number
- KR20110047776A KR20110047776A KR1020090104535A KR20090104535A KR20110047776A KR 20110047776 A KR20110047776 A KR 20110047776A KR 1020090104535 A KR1020090104535 A KR 1020090104535A KR 20090104535 A KR20090104535 A KR 20090104535A KR 20110047776 A KR20110047776 A KR 20110047776A
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- touch
- column
- data coordinate
- coordinate
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
Description
본 발명은 NUI(Natural User Interface)를 위한 제스쳐(gesture) 인식 장치 및 방법에 관한 것으로, 보다 상세하게는 터치 패널이나 터치 스크린상에서 사용되는 NUI(Natural User Interface)를 위한 제스쳐(gesture)를 인식하기 위한 장치 및 방법에 관한 것이다.The present invention relates to a gesture recognition device and method for a natural user interface (NUI), and more particularly, to recognize a gesture for a natural user interface (NUI) used on a touch panel or a touch screen. An apparatus and method are provided.
터치 스크린(터치 패널)은 컴퓨터, 휴대폰, PDA, 개인 정보용 단말기기, 상품 전시용 단말기기, 지하철이나 철도 승차권 발매기, 은행의 ATM 기기, 산업용 모니터 등 단순한 화면의 표시뿐만 아니라 기기와 사용자 사이의 상호 작용을 필요로 하는 곳에서 키패드, 키보드, 마우스, 조이스틱과 같은 입력 장치를 대신하여 스크린 상의 특정 부분의 접촉을 감지함으로써 소정의 정보를 입력 받을 수 있는 장치이다. 이러한 터치 스크린은 키패드, 키보드, 마우스, 조이스틱과 같은 입력 장치를 설치하기 곤란한 환경이나 사용자들에게 직관적인 상호작용을 요구하는 곳에서 주로 사용되고 있으며, 점차 그 수요가 날로 확대되고 있다.The touch screen (touch panel) is not only a simple screen display such as a computer, a mobile phone, a PDA, a personal information terminal device, a product display terminal device, a subway or railway ticket vending machine, a bank ATM machine, an industrial monitor, but also a mutual interaction between the device and the user. It is a device that can receive predetermined information by detecting contact of a specific part on the screen in place of an input device such as a keypad, a keyboard, a mouse, and a joystick where an action is required. Such touch screens are mainly used in environments where it is difficult to install input devices such as keypads, keyboards, mice, and joysticks, or where intuitive interaction is required for users, and the demand is gradually increasing.
이와 관련하여, 터치 스크린은 기존에는 싱글 터치(single-touch) 방식으로 스크린 상에 하나의 점에 대한 입력만을 허용하는 수준이었으나, 최근에는 멀티 터치(multi-touch)라는 다점 입력 기술이 나타나기 시작하여 스크린 상에서 여러 개의 점을 입력할 수 있게 되었으며, 이에 따라 기기와 사용자 사이의 상호 작용의 방식이 획기적으로 변화되기 시작하고 있다.In this regard, the touch screen is a level that only allows input of a single point on the screen by a single touch method, but recently, a multi-point input technology called multi-touch has started to appear. It is now possible to enter several points on the screen, and the way of interaction between the device and the user is beginning to change dramatically.
한편, 도 1은 이러한 터치 스크린을 이용하여 NUI(Natural User Interface)를 구현하는 것을 설명하는 도면이다.On the other hand, Figure 1 is a diagram illustrating the implementation of the Natural User Interface (NUI) using such a touch screen.
도 1을 참고하면, 터치 인식 장치(10)가 터치 스크린 상에서 터치(touch)를 인식하여 이에 상응하는 위치 정보(입력 좌표)를 NUI 장치(20)에 전송하면, NUI 장치(20)는 이를 기초로 기 등록된 제스쳐 프로파일과 비교하여 소정의 제스쳐를 인식하게 된다. 그리고, 이와 같이 인식된 제스쳐는 멀티 터치 어플리케이션(30)이나 GUI 어플리케이션(35)에 의해 소정의 명령 또는 입력으로 인식되어 해당 기능을 수행하게 된다.Referring to FIG. 1, when the
그러나, 종래기술에 따르면, 기존의 터치 스크린의 입력 장치의 한계(예컨대, 기존의 OS(Operating System)가 주로 단일 입력만 지원됨)로 인하여 사용자의 요구가 반영되거나 발굴하고자 하는 컨텐츠의 제작에 많은 제한이 있었으며, 이에 따라 프로그램이나 어플리케이션 개발자의 요구가 충실히 반영될 수 없는 문제점이 있었다.However, according to the prior art, due to the limitations of the input device of the existing touch screen (for example, the existing operating system (OS) mainly supports only a single input), many limitations on the production of content to be reflected or excavated by the user's needs As a result, there was a problem that the needs of the program or application developer could not be faithfully reflected.
또한, 멀티 터치(multi-touch)를 통한 제스쳐를 효율적으로 등록하고 인식할 수 있는 기술이 미비하여, 프로그램 개발자들이 멀티 터치에 기반한 NUI를 구현하는데 상당한 어려움이 있었다.In addition, there is a lack of technology for efficiently registering and recognizing gestures through multi-touch, so that program developers have difficulty in implementing NUI based on multi-touch.
본 발명은 전술한 바와 같은 문제점을 해결하기 위해 창안된 것으로, 본 발명의 목적은 터치 패널이나 터치 스크린상에서 사용되는 NUI를 위한 제스쳐를 효율적으로 등록하고 인식할 수 있는 장치 및 방법을 제공하는 것이다.The present invention was devised to solve the above problems, and an object of the present invention is to provide an apparatus and method capable of efficiently registering and recognizing a gesture for an NUI used on a touch panel or a touch screen.
본 발명의 다른 목적은, 기존의 싱글 터치에 기반한 제스쳐 뿐만 아니라 멀티 터치에 기반한 제스쳐도 용이하게 등록하고 인식할 수 있는 NUI를 위한 제스쳐 인식 장치 및 방법을 제공하는 것이다.Another object of the present invention is to provide a gesture recognition apparatus and method for NUI that can easily register and recognize not only a single touch based gesture but also a multi touch based gesture.
본 발명의 또 다른 목적은, 터치 패널이나 터치 스크린 상에서 다양한 제스쳐를 인식하여 NUI 프로그래밍의 여러 가지 기능들을 손쉽게 구현할 수 있는 프로그램 또는 어플리케이션 개발자를 위한 제스쳐 인식 장치 및 방법을 제공하는 것이다.Still another object of the present invention is to provide a gesture recognition apparatus and method for a program or application developer that can easily implement various functions of NUI programming by recognizing various gestures on a touch panel or a touch screen.
본 발명의 또 다른 목적은, 기존의 어플리케이션에 대하여 포인팅 디바이스로서 동작시켰던 부분을 터치를 이용한 제스쳐로 대체하여 호환이 가능하도록 구현할 수 있는 NUI를 위한 제스쳐 인식 장치 및 방법을 제공하는 것이다.It is still another object of the present invention to provide a gesture recognition apparatus and method for NUI that can be implemented to be compatible by replacing a portion operated as a pointing device with a gesture using a touch with respect to an existing application.
상기 목적을 위하여, 본 발명의 일 형태에 따른 NUI를 위한 제스쳐 인식 장치는, 제스쳐 인식을 위한 터치 데이터 좌표 열을 입력 받는 좌표 열 입력부; 상기 터치 데이터 좌표 열을 오프셋(offset)하는 좌표 열 오프셋부; 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 기준 좌표 열 을 선택하고, 상기 기준 좌표 열을 기준으로 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열을 정규화하는 좌표 열 정규화부; 및 상기 정규화된 터치 데이터 좌표 열과 상기 정규화된 복수개의 제스쳐 프로파일 데이터 좌표 열 사이의 거리를 각각 계산하고, 거리가 가장 짧은 제스쳐 프로파일 데이터 좌표 열에 해당하는 제스쳐를 인식하는 제스쳐 인식부를 포함하는 것을 특징으로 한다.For this purpose, a gesture recognition device for NUI of one embodiment of the present invention includes a coordinate string input unit for receiving a touch data coordinate string for gesture recognition; A coordinate column offset unit for offsetting the touch data coordinate column; A coordinate column normalization unit for selecting a reference coordinate column from the offset touch data coordinate column and the plurality of gesture profile data coordinate columns and normalizing the touch data coordinate column and the plurality of gesture profile data coordinate columns based on the reference coordinate column; And a gesture recognizer configured to calculate a distance between the normalized touch data coordinate column and the normalized plurality of gesture profile data coordinate columns, and recognize a gesture corresponding to the gesture profile data coordinate column having the shortest distance. .
그리고, 본 발명의 일 형태에 따른 NUI를 위한 제스쳐 인식 시스템은, 터치 스크린의 입력 장치로부터 터치를 감지하여 터치 위치에 대한 입력 좌표를 생성하는 터치 검출기; 상기 입력 좌표에 대해 인덱싱(indexing)을 수행하여 데이터 좌표 열을 생성하는 위치 생성기; 및 상기 위치 생성기로부터 전송된 터치 데이터 좌표 열을 오프셋(offset)한 후, 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 기준 좌표 열을 선택하고, 상기 기준 좌표 열을 기준으로 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열을 정규화한 후, 상기 정규화된 터치 데이터 좌표 열과 상기 정규화된 복수개의 제스쳐 프로파일 데이터 좌표 열 사이의 거리를 각각 계산하여 거리가 가장 짧은 제스쳐 프로파일 데이터 좌표 열에 해당하는 제스쳐를 인식하는 제스쳐 인식기를 포함하는 것을 특징으로 한다.The gesture recognition system for NUI of one embodiment of the present invention includes a touch detector for sensing a touch from an input device of a touch screen and generating input coordinates for a touch position; A location generator for indexing the input coordinates to generate a data coordinate column; And after offsetting the touch data coordinate column transmitted from the location generator, selecting a reference coordinate column from the offset touch data coordinate column and a plurality of gesture profile data coordinate columns, and based on the reference coordinate column, touch data. After normalizing a coordinate column and a plurality of gesture profile data coordinate columns, a distance corresponding to the gesture profile data coordinate column having the shortest distance is calculated by calculating a distance between the normalized touch data coordinate column and the normalized plurality of gesture profile data coordinate columns, respectively. Characterized in that it comprises a gesture recognizer for recognizing.
한편, 본 발명의 일 형태에 따른 NUI를 위한 제스쳐 인식 방법은, a) 제스쳐 인식을 위한 터치 데이터 좌표 열을 입력 받아, 상기 터치 데이터 좌표 열을 오프셋(offset)하는 단계; b) 상기 오프셋된 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열 중에서 기준 좌표 열을 선택하고, 상기 기준 좌표 열을 기준으로 터치 데이터 좌표 열과 복수개의 제스쳐 프로파일 데이터 좌표 열을 정규화하는 단계: 및 c) 상기 정규화된 터치 데이터 좌표 열과 상기 정규화된 복수개의 제스쳐 프로파일 데이터 좌표 열 사이의 거리를 각각 계산하고, 거리가 가장 짧은 제스쳐 프로파일 데이터 좌표 열에 해당하는 제스쳐를 인식하는 단계를 포함하는 것을 특징으로 한다.On the other hand, a gesture recognition method for NUI of one embodiment of the present invention, a) receiving a touch data coordinate string for gesture recognition, the step of offsetting the touch data coordinate column; b) selecting a reference coordinate column from the offset touch data coordinate column and the plurality of gesture profile data coordinate columns and normalizing the touch data coordinate column and the plurality of gesture profile data coordinate columns based on the reference coordinate column: and c) And calculating a distance between the normalized touch data coordinate column and the normalized plurality of gesture profile data coordinate columns, and recognizing a gesture corresponding to the gesture profile data coordinate column having the shortest distance.
본 발명에 따르면, 터치 패널이나 터치 스크린상에서 사용되는 NUI를 위한 제스쳐를 용이하고 효율적으로 등록하고 인식할 수 있는 효과를 가진다.According to the present invention, it is possible to easily and efficiently register and recognize a gesture for an NUI used on a touch panel or a touch screen.
그리고, 본 발명에 따르면, 단일 입력 시스템을 확장하여 다점 입력(멀티 터치)을 통한 제스쳐 인식 기능을 구현하여 사용자에게 직관적인 NUI를 제공할 수 있는 효과를 가진다.In addition, according to the present invention, by extending the single input system to implement the gesture recognition function through the multi-point input (multi-touch) has an effect that can provide an intuitive NUI to the user.
또한, 본 발명에 따르면, 터치 패널이나 터치 스크린 상에서 다양한 제스쳐를 등록하고 인식하여 NUI 프로그래밍의 여러 가지 기능들을 손쉽게 구현할 수 있는 개발자 환경을 제공할 수 있다.In addition, according to the present invention, by registering and recognizing various gestures on a touch panel or a touch screen, it is possible to provide a developer environment that can easily implement various functions of NUI programming.
이하에서는 첨부 도면 및 바람직한 실시예를 참조하여 본 발명을 상세히 설명한다. 참고로, 하기 설명에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings and preferred embodiments. For reference, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted in the following description.
본 발명에 대한 구체적인 설명에 앞서, 본 발명에서 말하는 제스쳐(gestue)에 대해 정의하면, 이는 터치 스크린 상에서 이루어지는 사용자의 동작을 통칭하는 의미라 할 수 있다. 즉, 제스쳐는 일반적으로 사용되는 기본 동작과 특정 어플리케이션에서 정의하는 어플리케이션 전용 제스쳐(Application-specific Gesture) 등을 포함하는 의미이다.Prior to the detailed description of the present invention, when defining a gesture in the present invention, this may mean a general operation of a user on a touch screen. That is, a gesture includes a basic operation generally used and an application-specific gesture defined in a specific application.
도 2는 터치 스크린 상에 소정의 제스쳐가 입력되는 것을 예시한 것인데, 터치 스크린 상에서 엄지 손가락과 집게 손가락을 오므렸다가(도 2의 (a) 참조) 폄으로써(도 2의 (b) 참조) 하나의 제스쳐를 입력하는 것을 나타낸다. 그리고, 도 3은 NUI를 위해 사용될 수 있는 여러 가지 제스쳐를 예시하는 도면인데, 본 발명은 이와 같이 다양한 제스쳐를 개발자나 사용자가 직접 정의하여 등록할 수 있도록 함으로써 사용자 편의적인 개발 환경을 제공할 수 있다.FIG. 2 illustrates that a predetermined gesture is input on the touch screen, and the thumb and forefinger are pinched on the touch screen (see FIG. 2 (a)) and then pressed (see FIG. 2 (b)). Indicates a gesture of. 3 is a diagram illustrating various gestures that can be used for NUI, the present invention can provide a user-friendly development environment by allowing a developer or a user to define and register various gestures. .
도 4는 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 시스템의 구성도를 예시한 것이다.4 illustrates a configuration diagram of a gesture recognition system for NUI according to an embodiment of the present invention.
도 4를 참고하면, 본 발명에 따른 제스쳐 인식 시스템은 크게 터치 인식 장치(100)와 NUI 장치(200)로 구성되고, 터치 인식 장치(100)는 터치 검출기(110), 위치 생성기(120), 위치 변환기(130) 등을 포함하고, NUI 장치(200)는 제스쳐 등록기(210), 제스쳐 데이터베이스(220), 제스쳐 인식기(230), 변수 조정기(240), 디버거(250) 등을 포함한다.Referring to FIG. 4, the gesture recognition system according to the present invention includes a
이를 상술하면, 터치 검출기(Touch Detector)(110)는 터치 스크린의 입력 장치로부터 싱글 터치(1점 입력) 또는 멀티 터치(다점 입력)를 감지하며 하드웨어에 종속적인 터치 스크린 상의 좌표를 얻는다. 참고로, 도 5의 (a)는 터치 검출기에 서 생성되는 데이터 포맷을 예시한 것인데, 여기서 중심 좌표 x, 중심 좌표 y, 반경 x, 반경 y는 터치 수만큼 반복된다.In detail, the touch detector 110 detects a single touch (one-point input) or multi-touch (multi-point input) from an input device of a touch screen and obtains coordinates on a hardware-dependent touch screen. For reference, (a) of FIG. 5 illustrates a data format generated by the touch detector, where the center coordinate x, the center coordinate y, the radius x, and the radius y are repeated by the number of touches.
그리고, 위치 생성기(Position Generator)(120)는 터치 검출기(110)로부터 전송 받은 데이터에 대해 인덱싱(indexing)을 수행한다. 여기서, 인덱싱을 수행한다는 것은 이산 시간에 측정된 좌표 데이터로부터 연속적인 데이터를 생성함으로써 연관성 있는 데이터로 변환하는 것을 의미한다. 그리고, 이에 따라 손가락을 누르고, 움직이고, 떼는 동작이 인덱스에 의하여 관리되게 된다. 참고로, 도 5의 (b)는 위치 생성기(120)에서 생성되는 데이터 포맷을 예시한 것인데, 여기서 중심 좌표 x, 중심 좌표 y, 반경 x, 반경 y는 터치 수만큼 반복되며, 터치 인덱스는 각 점의 번호를 의미하고, 동작은 누름, 움직임, 떼는 동작을 나타낸다.The
위치 변환기(Position Converter)(130)는 위치 생성기(120)로부터 얻은 하드웨어 종속적인 다중 입력 정보들을 다양한 모니터의 설정에 적합하게 시스템에 종속적인 좌표를 생성한다. 이 경우, 위치 변환기(130)는 다양한 해상도를 지원하도록 구현되며, 다중(multiple) 모니터, 클론(Clone) 모니터 등도 지원하도록 구현하는 것이 바람직하다. 그리고, 사용자가 모니터의 해상도를 변경할 경우 이를 반영하여 멀티 터치의 오차가 발생하지 않도록 하며, 좌표 변환식은 알고리즘이 간단한 선형 맵핑식을 이용하는 것이 바람직하고 필요한 경우 좌표 보정식을 추가한다.The
한편, 제스쳐 등록기(Gesture Profiler)(210)는 여러 차례의 트레이닝(training)을 통해 NUI를 위한 제스쳐를 등록한다. 즉, 제스쳐 등록기(210)는 터치 인식 장치(100)로부터 제공되는 여러 차례의 트레이닝에 대한 트레이닝 데이 터 좌표 열을 수신하고, 이에 근거하여 제스쳐로 등록할 프로파일 데이터를 생성한다.Meanwhile, the gesture profiler 210 registers the gesture for the NUI through several trainings. That is, the gesture register 210 receives training data coordinate sequences for a plurality of trainings provided from the
참고로, 도 6은 본 발명에서 사용될 수 있는 제스쳐 등록을 위한 사용자 인터페이스를 예시한 도면이다. 사용자는 시작(start) 버튼을 누른 후 제스쳐 입력 영역에 터치 드래깅(touch dragging)을 하며, 이를 여러 차례 반복한 후 종료(end) 버튼을 누르면, 트레이닝 데이터 좌표 열이 저장된다. 제스쳐 등록기(210)에 대한 보다 상세한 설명은 본 발명과 동일자로 출원된 특허 제10-2009-0104479호 "NUI를 위한 제스쳐 등록 장치 및 방법"을 참조할 수 있으며, 상기 특허 출원은 본 명세서에 포함되어 결합된다.For reference, FIG. 6 is a diagram illustrating a user interface for gesture registration that can be used in the present invention. The user presses the start button and then touch dragging the gesture input area. After repeating this several times and pressing the end button, the training data coordinate string is stored. For a more detailed description of the gesture register 210, refer to Patent No. 10-2009-0104479, "Gesture Registration Device and Method for NUI," filed with the same person as the present invention, and the patent application is included herein. Are combined.
제스쳐 데이터베이스(Gesture Database)(220)는 제스쳐 등록기(210)를 통해 생성된 제스쳐 프로파일을 저장하며, 추후 터치 스크린 상에서 터치가 인식되는 경우 이를 제스쳐 인식기(230)로 제공한다.The gesture database 220 stores a gesture profile generated through the gesture register 210, and provides the
제스쳐 인식기(Gesture Recognizer)(230)는 터치 스크린 상에서 터치가 있는 경우 터치 인식 장치(100)로부터 제공되는 터치 데이터 좌표 열을 수신하고, 이를 제스쳐 데이터베이스(220)로부터 전송 받은 제스쳐 프로파일과 비교하여, 입력된 터치가 어떠한 제스쳐에 해당하는지를 인식한다.The
그리고, 변수 조정기(Parameter Regulator)(240)는 각각의 파트(part)에서 변경될 수 있는 값들을 조정할 수 있도록 하여, 특정 디바이스나 응용 프로그램에 맞는 값들을 선택할 수 있게 한다.In addition, the
마지막으로, 디버거(Debugger)(250)는 입출력 데이터의 확인, 적용된 알고리 즘의 상태 파악 등 각각의 파트에서의 진행 상황을 확인할 수 있도록 하여 전체 개발 과정에서의 문제점을 확인할 수 있게 한다.Finally, the
이하에서는, 도 7 내지 도 11을 참조하여, 본 발명에 따른 NUI를 위한 제스쳐 인식 장치 및 방법에 대해 상세 설명하기로 한다. 참고로, 본 발명에 따른 제스쳐 인식 장치(제스쳐 인식기)는 도 4에 도시된 바와 같이 NUI 장치의 일 구성요소로 사용될 수도 있으며, 별개의 독립적인 장치로도 구현될 수도 있다.Hereinafter, a gesture recognition apparatus and method for NUI according to the present invention will be described in detail with reference to FIGS. 7 to 11. For reference, the gesture recognition device (gesture recognizer) according to the present invention may be used as one component of the NUI device as shown in FIG. 4 or may be implemented as a separate independent device.
먼저, 도 7은 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 장치의 구성도이다. 도시된 바와 같이, 본 발명의 일 실시예에 따른 제스쳐 인식 장치(230)는 좌표 열 입력부(231), 좌표 열 오프셋부(232), 좌표 열 정규화부(233), 제스쳐 인식부(234) 등을 포함한다.First, FIG. 7 is a block diagram of a gesture recognition apparatus for NUI according to an embodiment of the present invention. As shown, the
그리고, 도 8은 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 방법의 흐름도이다.8 is a flowchart illustrating a gesture recognition method for NUI according to an embodiment of the present invention.
이하, 도 7 및 도 8을 참조하여 본 발명에 따른 NUI를 위한 제스쳐 인식 장치 및 방법을 함께 설명한다.Hereinafter, a gesture recognition apparatus and method for NUI according to the present invention will be described with reference to FIGS. 7 and 8.
단계 S810에서, 제스쳐 인식부(234)는 제스쳐 데이터베이스(220)에서 프로파일 데이터 파일을 읽어 들인다. 참고로, 본 단계 S810은 제스쳐 인식 장치가 터치를 인식하기 위해 미리 프로파일 데이터를 메모리로 읽어 들이는 것을 표현한 것으로, 실제 구현에 있어서는 터치 데이터 좌표 열 입력 단계(S820)와 오프셋 단계(S830) 이후에 수행되거나 이들 단계와 함께 수행될 수 있다.In operation S810, the
한편, 단계 S820에서, 좌표 열 입력부(231)는 터치 인식 장치(100)로부터 제공되는 터치 데이터 좌표 열을 입력 받는다. 여기서, 데이터 좌표 열은 터치 시작부터 드래깅(dragging) 후 터치 종료까지의 입력 좌표의 집합을 의미한다. 이는 도 9에 도시된 바와 같이, 싱글 터치 인식 장치의 경우 입력 좌표의 수와 해당 입력 좌표를 포함하는 포맷을 가질 수 있으며(도 9의 (a) 참조), 멀티 터치 인식 장치의 경우 입력 좌표의 수와 해당 입력 좌표, 그리고 싱글 또는 멀티 터치를 나타내는 터치 타입 태그(touch type tag)를 포함할 수 있다.In operation S820, the coordinate
단계 S830에서, 좌표 열 오프셋부(232)는 좌표 열 입력부(231)를 통해 입력된 터치 데이터 좌표 열에 대해 x, y의 최소값을 계산하고, x, y 최소값을 기준으로 터치 데이터 좌표 열을 오프셋(offset)한다. 도 10은 이를 설명하는 도면으로, 도 10의 (a)는 x, y의 최소값으로 x9, y4 가 구해지는 것을 나타내며, 도 10의 (b)는 x, y의 최소값 x9, y4 를 기준으로 터치 데이터 좌표 열을 오프셋한 것을 나타낸다.In operation S830, the coordinate column offset
그리고, 단계 S840에서는, 좌표 열 정규화부(233)는 단계 S810에서 읽어 들인 적어도 하나의 프로파일 데이터 좌표 열과 단계 S820 및 단계 S80 과정에서 얻어진 터치 데이터 좌표 열 중에서 가장 짧은 데이터 좌표 열을 기준 좌표 열로 선택한다. 참고로, 여기서 데이터 좌표 열이 가장 짧다는 것은 프로파일 데이터 또는 터치 데이터의 좌표의 수가 가장 작다는 것을 의미한다.In operation S840, the coordinate
그리고, 좌표 열 정규화부(233)는, 단계 S850에서, 가장 짧은 데이터 좌표 열을 기준으로 나머지 프로파일 데이터 좌표 열 및/또는 터치 데이터 좌표 열을 정규화한다. 여기서, 좌표 열 정규화는, 예컨대 패턴의 크기를 일정한 크기로 고정시키고 고정된 크기에 따라서 필요한 좌표 점을 추출(decimation)함으로써 수행될 수 있다. 도 11은 이를 설명하는 도면으로, 만약 도 11의 (a)에 도시된 프로파일 데이터 좌표 열이 기준으로 선택된 경우, 도 11의 (b)에 도시된 터치 데이터 좌표 열은 정해진 패턴 크기(예, 기준으로 선택된 프로파일 패턴의 크기)로 변경된 후 프로파일 데이터 좌표 열에 상응하는 인덱스의 좌표 열이 추출된다. 예컨대, i를 기준 좌표 열의 인덱스, j를 대상 좌표 열의 인덱스라 하고, n을 기준 좌표 열의 크기, m을 대상 좌표 열의 크기라 하면, j=i*(m/n)에 해당하는 인덱스의 좌표가 대상 좌표 열 중에서 추출된다. In operation S850, the coordinate
마지막으로, 단계 S860에서, 제스쳐 인식부(234)는 이와 같이 정규화된 터치 데이터 좌표 열을 마찬가지로 각각 정규화된 적어도 하나의 프로파일 데이터 좌표 열과 각각 거리를 계산하여, 최소 거리에 해당하는 프로파일 데이터를 선택한다. 이 경우, 데이터 좌표 열 사이의 거리는 피타고라스의 정리를 이용하여 실제 거리를 구하거나 또는 연산량을 줄이기 위해 상응하는 각 좌표들의 X축 거리와 Y축 거리의 합을 이용할 수 있다. 그리고, 제스쳐 인식부(234)는 터치 인식 장치(100)에서 인식된 터치를 상기 선택된 프로파일 데이터에 해당하는 제스쳐로 인식한다.Finally, in step S860, the
참고로, 전술한 실시예에서는 좌표 열 정규화를 위해 터치 데이터 좌표 열과 적어도 하나의 프로파일 데이터 좌표 열 중에서 가장 짧은 데이터 좌표 열을 기준 좌표 열로 선택하였는데, 본 발명의 다른 실시예에서는 미리 기준 좌표 열의 좌표 수와 크기를 정해 놓고 이를 기준을 터치 좌표 열의 정규화를 수행할 수도 있다.For reference, in the above-described embodiment, the shortest data coordinate column is selected as the reference coordinate column among the touch data coordinate column and the at least one profile data coordinate column for the coordinate column normalization. You can also set the and size and normalize the touch coordinate column based on this.
한편, 본 발명에 따른 NUI를 위한 제스쳐 인식 방법은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독가능 기록매체를 통하여 실시될 수 있다. 상기 컴퓨터 판독가능 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기록매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Meanwhile, the gesture recognition method for NUI according to the present invention may be implemented through a computer readable recording medium including program instructions for performing operations implemented by various computers. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The recording medium may be one specially designed and configured for the present invention, or may be known and available to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, magnetic-optical media such as floppy disks, and ROM, RAM, flash memory, and the like. Hardware devices specifically configured to store and execute the same program instructions are included. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
지금까지 본 발명을 바람직한 실시예를 참조하여 상세히 설명하였지만, 본 발명이 속하는 기술분야의 당업자는 본 발명의 기술적 사상이나 필수적 특징들을 변경하지 않고서 다른 구체적인 다양한 형태로 실시할 수 있는 것이므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다.Although the present invention has been described in detail with reference to preferred embodiments, it will be apparent to those skilled in the art that the present invention may be embodied in other specific various forms without changing the technical spirit or essential features of the present invention. One embodiment is to be understood in all respects as illustrative and not restrictive.
그리고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 특정되는 것이며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태는 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. .
도 1은 터치 스크린을 이용하여 NUI를 구현하는 것을 설명하는 도면이다.1 is a diagram illustrating an implementation of an NUI using a touch screen.
도 2는 터치 스크린 상에 소정의 제스쳐가 입력되는 것을 예시한 도면이다.2 illustrates an example of inputting a predetermined gesture on a touch screen.
도 3은 NUI를 위해 사용될 수 있는 여러 가지 제스쳐를 예시하는 도면이다.3 is a diagram illustrating various gestures that may be used for NUI.
도 4는 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 시스템의 구성도이다.4 is a block diagram of a gesture recognition system for NUI according to an embodiment of the present invention.
도 5는 터치 검출기 및 위치 생성기에서 각각 생성되는 데이터 포맷을 예시한 것이다.5 illustrates a data format generated in the touch detector and the position generator, respectively.
도 6은 본 발명에서 사용될 수 있는 제스쳐 등록을 위한 사용자 인터페이스를 예시한 도면이다.6 is a diagram illustrating a user interface for gesture registration that can be used in the present invention.
도 7은 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 장치의 구성도이다.7 is a block diagram of a gesture recognition apparatus for NUI according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따른 NUI를 위한 제스쳐 인식 방법의 흐름도이다.8 is a flowchart illustrating a gesture recognition method for NUI according to an embodiment of the present invention.
도 9는 본 발명에 따른 데이터 좌표 열의 포맷을 예시하는 도면이다.9 is a diagram illustrating a format of a data coordinate column according to the present invention.
도 10은 본 발명에 따른 터치 데이터 좌표 열의 오프셋을 설명하는 도면이다.10 illustrates an offset of a touch data coordinate column according to the present invention.
도 11은 본 발명에 따른 프로파일 데이터 좌표 열과 터치 데이터 좌표 열의 거리 계산을 설명하는 도면이다.FIG. 11 is a diagram illustrating distance calculation between a profile data coordinate column and a touch data coordinate column according to the present invention. FIG.
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090104535A KR101072858B1 (en) | 2009-10-30 | 2009-10-30 | Apparatus and method for recognizing NUI gesture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090104535A KR101072858B1 (en) | 2009-10-30 | 2009-10-30 | Apparatus and method for recognizing NUI gesture |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110047776A true KR20110047776A (en) | 2011-05-09 |
KR101072858B1 KR101072858B1 (en) | 2011-10-17 |
Family
ID=44239017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090104535A KR101072858B1 (en) | 2009-10-30 | 2009-10-30 | Apparatus and method for recognizing NUI gesture |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101072858B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9126115B2 (en) | 2011-12-02 | 2015-09-08 | Empire Technology Development Llc | Safety scheme for gesture-based game system |
US9266019B2 (en) | 2011-07-01 | 2016-02-23 | Empire Technology Development Llc | Safety scheme for gesture-based game |
US9390318B2 (en) | 2011-08-31 | 2016-07-12 | Empire Technology Development Llc | Position-setup for gesture-based game system |
US10713479B2 (en) | 2014-08-07 | 2020-07-14 | Starship Vending-Machine Corp. | Motion recognition method and motion recognition device for recognizing motion of user received via NUI device by comparing with preset comparison target information |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3470028B2 (en) | 1997-12-04 | 2003-11-25 | シャープ株式会社 | Handwritten character recognition device and program storage medium |
-
2009
- 2009-10-30 KR KR1020090104535A patent/KR101072858B1/en not_active IP Right Cessation
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9266019B2 (en) | 2011-07-01 | 2016-02-23 | Empire Technology Development Llc | Safety scheme for gesture-based game |
US9823740B2 (en) | 2011-07-01 | 2017-11-21 | Empire Technology Development Llc | Safety scheme for gesture-based game |
US9390318B2 (en) | 2011-08-31 | 2016-07-12 | Empire Technology Development Llc | Position-setup for gesture-based game system |
US9126115B2 (en) | 2011-12-02 | 2015-09-08 | Empire Technology Development Llc | Safety scheme for gesture-based game system |
US10713479B2 (en) | 2014-08-07 | 2020-07-14 | Starship Vending-Machine Corp. | Motion recognition method and motion recognition device for recognizing motion of user received via NUI device by comparing with preset comparison target information |
Also Published As
Publication number | Publication date |
---|---|
KR101072858B1 (en) | 2011-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8619036B2 (en) | Virtual keyboard based activation and dismissal | |
US8941600B2 (en) | Apparatus for providing touch feedback for user input to a touch sensitive surface | |
EP2756369B1 (en) | Soft keyboard interface | |
CN102246134B (en) | Soft keyboard control | |
US8004503B2 (en) | Auto-calibration of a touch screen | |
KR101352994B1 (en) | Apparatus and method for providing an adaptive on-screen keyboard | |
CN101520702B (en) | Simulation of multi-point input | |
US20110216015A1 (en) | Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions | |
US20150153897A1 (en) | User interface adaptation from an input source identifier change | |
US20150160779A1 (en) | Controlling interactions based on touch screen contact area | |
WO2016053698A1 (en) | Method and apparatus for addressing touch discontinuities | |
JP2008192092A (en) | Touch panel device, information processor and program | |
US20130120282A1 (en) | System and Method for Evaluating Gesture Usability | |
US20150100911A1 (en) | Gesture responsive keyboard and interface | |
JP2006524955A (en) | Unambiguous text input method for touch screen and reduced keyboard | |
US20150160794A1 (en) | Resolving ambiguous touches to a touch screen interface | |
US20150185850A1 (en) | Input detection | |
Zhang et al. | Gestkeyboard: enabling gesture-based interaction on ordinary physical keyboard | |
KR101072858B1 (en) | Apparatus and method for recognizing NUI gesture | |
KR20160097410A (en) | Method of providing touchless input interface based on gesture recognition and the apparatus applied thereto | |
US20100321293A1 (en) | Command generation method and computer using the same | |
US20150103010A1 (en) | Keyboard with Integrated Pointing Functionality | |
KR101048447B1 (en) | Gesture registration device and method for NVI | |
JP2016164726A (en) | Electronic apparatus | |
US20170371481A1 (en) | Enhanced touchscreen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |