KR20120089992A - Gesture recognition device, gesture recognition method, computer readable recording medium recording control program - Google Patents
Gesture recognition device, gesture recognition method, computer readable recording medium recording control program Download PDFInfo
- Publication number
- KR20120089992A KR20120089992A KR1020110118799A KR20110118799A KR20120089992A KR 20120089992 A KR20120089992 A KR 20120089992A KR 1020110118799 A KR1020110118799 A KR 1020110118799A KR 20110118799 A KR20110118799 A KR 20110118799A KR 20120089992 A KR20120089992 A KR 20120089992A
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- gesture recognition
- temperature
- change
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
Description
본 발명은, 제스처를 인식하는 제스처 인식 장치, 제스처 인식 방법, 제어 프로그램 및 기록 매체에 관한 것이다.The present invention relates to a gesture recognition apparatus for recognizing a gesture, a gesture recognition method, a control program and a recording medium.
종래, 휴대 전화, PDA(Personal Digital Assistant), 텔레비전, 녹화재생 장치, 퍼스널 컴퓨터, 디지털 카메라 등의 전자 기기에 대한 입력 기능은 다양한 형태로 실현되어 왔다. 입력 기능의 실현 방법으로서는, 첫 번째로, 입력 장치(버튼, 터치 패널)에 대상물(손가락, 터치 펜 등)을 접촉시켜 입력을 행하는 방법이 있다(예를 들어, 특허 문헌 1, 2 등). 두 번째로, 입력 장치(카메라 등)에 대상물을 인식시켜, 입력 장치 혹은 전자 기기에 비접촉으로 입력을 행하는 방법이 있다(예를 들어, 특허 문헌 3 등).Background Art Conventionally, input functions for electronic devices such as mobile phones, PDAs (Personal Digital Assistants), televisions, recording / playback devices, personal computers, digital cameras, and the like have been realized in various forms. As a method of realizing an input function, first, there is a method of performing input by bringing an object (a finger, a touch pen, etc.) into contact with an input device (button, touch panel) (for example,
제1 접촉형의 입력 실현 방법에서는, 확실하게, 즉시, 다양한 입력을 전자 기기에 대하여 행할 수 있는 한편, 이하와 같은 문제점이 있다.In the input contact realization method of the first contact type, various inputs can be made to the electronic device reliably and immediately, but there are the following problems.
화면(터치 패널)이 지나치게 크면, 대상물(손가락 등)을 화면의 단부로부터 단부까지 접촉시키는 것이 곤란해지고, 조작성의 저하가 문제가 된다. 전자 기기로부터 이격된 곳에서, 화면을 열람하거나 하여 사용하고 있을 때, 전자 기기에 대하여 조작이 필요하게 되면, 전자 기기를 조작할 수 있는 장소까지 가까이 가지 않으면 안되기 때문에 불편하다. 화면에 지문이나 손의 오염물이 부착되므로, 화면의 오염이 신경쓰이는 사용자에는 부적합한 입력 방법이다. 손이 젖어 있거나, 오염되었거나 한 때는 화면에 접촉하지 않고 조작할 수 없기 때문에 불편하다.If the screen (touch panel) is too large, it is difficult to bring the object (finger, etc.) into contact from the end of the screen to the end, and a decrease in operability becomes a problem. It is inconvenient because when the screen is viewed or used away from the electronic device and the operation is required for the electronic device, it must be brought close to a place where the electronic device can be operated. Since fingerprints or contaminants on the screen are attached to the screen, it is an unsuitable input method for users who are concerned about screen contamination. This is inconvenient because the hands are wet, contaminated or cannot be operated without touching the screen at one time.
또한, 프로젝터 기능을 갖는 전자 기기에서는, 전자 기기를 정치(靜置)하여, 스크린에 표시 내용(슬라이드 쇼 등)을 영사한다고 하는 유즈 씬(use scene)이 상정되지만, 슬라이드(페이지)를 넘기는 등의 조작을 행하고 싶을 때 화면을 만지면, 적절한 포지션에 놓아둔 전자 기기의 위치가 어긋나거나 하여 스크린의 영상이 흔들려서 불편하다. 또한, 스크린의 옆에서 프리젠테이션을 행하고 있는 사용자가, 전자 기기를 조작하기 위해 이동하는 것은 번거롭다.In addition, in an electronic device having a projector function, a use scene is assumed that allows the electronic device to stand still and projects display contents (slideshows, etc.) on the screen, but turns a slide (page), etc. If you touch the screen when you want to perform the operation, it is inconvenient because the image of the screen is shaken because the position of the electronic device placed in the proper position is shifted. In addition, it is cumbersome for a user presenting by the screen to move to operate an electronic device.
상술한 바와 같은 문제가 발생하는, 접촉형의 입력 방법이 부적합한 유즈 케이스(use case)에서는, 전자 기기의 입력 기능은, 특허 문헌 3과 같은 제2 비접촉형의 입력 실현 방법이 채용되어 왔다. 특허 문헌 3의 기술에서는, 카메라로 촬상한 손의 화상 데이터를 화상 처리하여 손을 인식하고, 인식한 손의 움직임(핸드 제스처)을 검지하는 제스처 인식 시스템이 개시되어 있다. 다양한 핸드 제스처를 전자 기기에 인식시킴으로써, 전자 기기에 접촉하는 일 없이 전자 기기에 대한 조작 입력을 행할 수 있다.In a use case in which a contact type input method is inadequate where the problem described above occurs, a second non-contact type input realization method such as
그러나, 비접촉형의 입력 방법을 상술한 특허 문헌 3의 기술로 실현하면, 이하와 같은 문제가 발생한다.However, when the contactless input method is realized by the technique of
예를 들어, 어두운 곳(야간의 옥외, 프로젝터 기동 중 등에 조명이 어둡게 되어 있는 옥내 등)에서는, 카메라에 의한 피사체(손)의 촬영이 곤란하여, 손이라고 인식할 수 있는 화상 데이터를 얻을 수 없다. 따라서, 특허 문헌 3의 시스템은, 어두운 곳에서 사용되는 전자 기기의 입력 장치에는 적용할 수 없다고 하는 문제가 있다. 또한, 특허 문헌 3의 시스템에서는, 카메라에 의해 촬상된 화상을 취급하기 위해, 처리 부하가 높은 화상 처리를 행할 필요가 있다. 그로 인해, 고기능의 정보 처리 장치가 필요하게 되거나, 처리 시간이 길어진다고 하는 문제가 있다. 또한, 손의 형태를 인식하기 위해, 배경 화상과 손의 화상을 구별하는 처리가 행해지지만, 손과 유사한 텍스처가 배경 화상에도 포함되어 있는 경우, 정확하게 손의 형상(영역)을 추출할 수 없고, 제스처의 오류 인식이 일어날 가능성이 높다.For example, in a dark place (indoors where lighting is dimmed, for example, outdoors at night, during projector startup, etc.), photographing of a subject (hand) by a camera is difficult, and image data that can be recognized as a hand cannot be obtained. . Therefore, the system of
본 발명은, 상기한 문제점에 비추어 이루어진 것이며, 그 목적은, 사용 장소의 밝기에 상관없이, 고속 처리 또한 고정밀도의 비접촉형 입력 기능을 실현하는 제스처 인식 장치, 제스처 인식 방법, 제스처 인식 장치의 제어 프로그램 및 상기 제어 프로그램을 기록한 기록 매체를 제공하는 것에 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object thereof is to control a gesture recognition device, a gesture recognition method, and a gesture recognition device that realize a high-speed processing and a high accuracy non-contact input function regardless of the brightness of the place of use. There is provided a recording medium on which a program and the control program are recorded.
본 발명의 제스처 인식 장치는, 상기 과제를 해결하기 위해, 복수의 적외선 센서가 배치되어 구성된 온도 센서와, 상기 온도 센서의 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 수단과, 상기 변화 영역 특정 수단이 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 수단을 구비하고 있는 것을 특징으로 하고 있다.In order to solve the above problem, the gesture recognition apparatus of the present invention includes a temperature sensor in which a plurality of infrared sensors are disposed, and a change region in which a temperature change occurs based on a temperature detected by each of the infrared sensors of the temperature sensor, A change area specifying means for specifying as an area representing a hand and the change area specifying means are provided with gesture recognition means for recognizing a movement trajectory of a specific change area and recognizing a gesture of a hand.
상기 구성에 따르면, 제스처 인식 장치에 있어서, 대상물(손)의 움직임을 검지하기 위한 정보는, 복수 배치된 적외선 센서로부터 온도 정보로서 취득된다. 그리고 변화 영역 특정 수단이, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하고, 제스처 인식 수단이, 특정된 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식한다.According to the above configuration, in the gesture recognition apparatus, information for detecting the movement of an object (hand) is obtained as temperature information from a plurality of infrared sensors arranged. Then, the change area specifying means specifies the change area where the temperature change has occurred as the area indicating the hand, and the gesture recognizing means specifies the movement trajectory of the specified change area to recognize the gesture of the hand.
이와 같이 하여, 제스처 인식 장치는, 데이터량이 방대한 화상 데이터를 취급하지 않더라도, 온도 정보만으로 대상물의 움직임을 분석할 수 있고, 제스처를 인식하는 것이 가능해진다. 결과적으로, 제스처 인식 장치에 있어서, 처리 효율의 향상과, 처리 부하의 저감을 실현할 수 있다. 즉, 반응 속도가 빠른 입력 장치를 실현하는 것이 가능하다.In this way, the gesture recognizing apparatus can analyze the movement of the object only by the temperature information, even if the data amount does not handle the massive image data, and it becomes possible to recognize the gesture. As a result, in the gesture recognition apparatus, it is possible to realize an improvement in processing efficiency and a reduction in processing load. That is, it is possible to realize an input device with a fast reaction speed.
또한, 본 발명의 제스처 인식 장치는, 적외선 센서를 이용하여 대상물의 표면 온도를 취득함으로써, 대상물의 온도와 주위의 환경 온도의 차이에 의해, 대상물의 움직임을 검지하는 것이다. 따라서, 광학계 카메라로 대상물을 촬상하여 제스처를 인식하는 구성에서는, 어두운 곳에서의 사용이 제한되지만, 본 발명의 제스처 인식 장치는, 어두운 곳에서도 제한 없이 입력 장치로서 기능시키는 것이 가능하다.Moreover, the gesture recognition apparatus of this invention detects the movement of an object by the difference of the temperature of an object and the surrounding environmental temperature by acquiring the surface temperature of an object using an infrared sensor. Therefore, in the configuration of recognizing a gesture by imaging an object with an optical system camera, use in a dark place is limited, but the gesture recognition device of the present invention can function as an input device in a dark place without limitation.
또한, 광학계 카메라를 사용한 제스처 인식에서는, 대상물과 배경의 텍스처에 큰 차가 없는 경우에, 정확하게 대상물의 위치, 형상 등을 인식할 수 없고, 제스처의 오류 인식이 증가한다고 하는 문제가 있다. 한편, 본 발명의 제스처 인식 장치는, 주위 환경 온도와 다른 표면 온도를 갖는 대상물(손 등)을, 온도 정보에 기초하여 검지하므로, 텍스처의 유사에 의한 오류 인식의 문제는 일어날 수 없다.In addition, in gesture recognition using an optical camera, when there is no large difference between the texture of the object and the background, there is a problem that the position, shape, etc. of the object cannot be accurately recognized, and error recognition of the gesture increases. On the other hand, since the gesture recognition apparatus of the present invention detects an object (hand, etc.) having a surface temperature different from the ambient environment temperature based on the temperature information, the problem of error recognition due to similarity of texture cannot occur.
결과적으로, 본 발명의 제스처 인식 장치는, 사용 장소의 밝기에 상관없이, 고속 처리 또한 고정밀도의 비접촉형 입력 기능을 실현하는 것이 가능해진다고 하는 효과를 발휘한다.As a result, the gesture recognition apparatus of the present invention has an effect that it is possible to realize a high-speed processing and a highly accurate non-contact input function regardless of the brightness of the use place.
상기 제스처 인식 장치는, 또한, 상기 변화 영역 특정 수단에 의해 특정된 변화 영역의 무게 중심을 결정하는 무게 중심 결정 수단을 구비하고, 상기 제스처 인식 수단은, 상기 무게 중심의 위치를 추적함으로써 상기 이동 궤적을 특정하는 것이 바람직하다.The gesture recognition apparatus further includes a center of gravity determining means for determining the center of gravity of the change area specified by the change area specifying means, wherein the gesture recognizing means tracks the position of the center of gravity for the movement trajectory. It is desirable to specify.
이에 의해, 간소화된 처리 수순으로 변화 영역의 이동 궤적을 특정하는 것이 가능해진다.This makes it possible to specify the movement trajectory of the change area in a simplified processing procedure.
상기 제스처 인식 장치는, 또한, 적외선 센서 각각이 검지한 각각의 온도와, 소정의 기준 온도를 비교함으로써, 적외선 센서마다 온도 변화량을 산출하는 변화량 산출 수단을 구비하고, 상기 무게 중심 결정 수단은, 적외선 센서마다 얻어진 상기 온도 변화량에 기초하여, 상기 변화 영역의 무게 중심을 결정해도 된다.The gesture recognition apparatus further includes change amount calculating means for calculating a temperature change amount for each infrared sensor by comparing respective temperatures detected by each infrared sensor with a predetermined reference temperature, and the center of gravity determining means includes infrared rays. The center of gravity of the change area may be determined based on the temperature change amount obtained for each sensor.
상기 구성에 따르면, 상기 변화 영역의 기하학적 형상만에 기초하여 결정된 무게 중심이 아닌, 온도 변화량이 고려되어 변화 영역의 무게 중심이 구해진다.According to the above configuration, the center of gravity of the change area is obtained by considering the amount of temperature change, not the center of gravity determined only based on the geometry of the change area.
이와 같이 구해진 무게 중심의 궤적을 추적함으로써, 보다 정확하게 실제의 손의 움직임을 검지하는 것이 가능해지고, 제스처 인식의 정밀도를 향상시킬 수 있다.By tracking the trajectory of the center of gravity thus obtained, it is possible to more accurately detect the actual hand movement and improve the accuracy of gesture recognition.
상기 제스처 인식 장치는, 또한, 상기 복수의 적외선 센서에 있어서의 유효 무효인 배치 패턴을 나타내는 마스크를, 장치 스스로가 접속하는 전자 기기의 어플리케이션의 종류에 관련지어 기억하는 마스크 기억부와, 상기 전자 기기가 기동 중의 어플리케이션에 관련되어 있는 마스크를 상기 마스크 기억부로부터 선택하는 마스크 선택 수단을 구비하고, 상기 변화 영역 특정 수단은, 상기 마스크 선택 수단에 의해 선택된 마스크가 유효로 하는 적외선 센서에 의해 검지된 온도만에 기초하여 변화 영역을 특정해도 된다.The gesture recognition apparatus further includes a mask storage unit that stores a mask indicating a valid invalid placement pattern in the plurality of infrared sensors in association with the type of application of an electronic device to which the device itself connects, and the electronic device. Is provided with mask selection means for selecting a mask associated with an application during startup from the mask storage portion, and the change area specifying means has a temperature detected by an infrared sensor valid for the mask selected by the mask selection means. The change area may be specified based on the bay.
적외선 센서를 선택적으로 이용하는 구성으로 하면, 처리해야 할 정보량을 줄여 처리 속도를 빠르게 할 수 있는 동시에, 특정한 제스처를 인식할 경우에, 그 인식의 정밀도를 향상시키는 것이 가능하다.When the infrared sensor is selectively used, the amount of information to be processed can be reduced to increase the processing speed, and the recognition accuracy can be improved when a specific gesture is recognized.
상기 제스처 인식 장치는, 또한, 상기 변화 영역 특정 수단에 의해 특정된 변화 영역의 편차를 산출하는 편차 산출 수단을 구비하고, 상기 제스처 인식 수단은, 시간의 경과에 수반하는 상기 편차의 증감에 기초하여, 제스처를 인식해도 된다.The gesture recognition apparatus further includes deviation calculation means for calculating a deviation of the change area specified by the change area specifying means, wherein the gesture recognition means is based on the increase and decrease of the deviation with the passage of time. You may recognize a gesture.
상기 제스처 인식 수단은, 상기 변화 영역의 편차가 증가할 경우에, 양손 또는 손가락이 벌어지는 방향으로 움직였다고 인식하고, 상기 변화 영역의 편차가 감소할 경우에, 양손 또는 손가락이 모아지는 방향으로 움직였다고 인식할 수 있다.The gesture recognizing means recognizes that when the deviation of the change area increases, both hands or fingers move in the direction of spreading, and when the deviation of the change area decreases, the gesture recognition means moves in the direction of gathering both hands or fingers. I can recognize it.
본 발명의 제스처 인식 방법은, 상기 과제를 해결하기 위해, 복수의 적외선 센서가 배치되어 구성된 온도 센서로부터 적외선 센서마다의 온도를 취득하는 온도 취득 스텝과, 상기 온도 취득 스텝에서 취득한, 상기 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 스텝과, 상기 변화 영역 특정 스텝에서 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 스텝을 포함하는 것을 특징으로 하고 있다.In order to solve the said subject, the gesture recognition method of this invention is the temperature acquisition step which acquires the temperature for every infrared sensor from the temperature sensor in which the several infrared sensor was arrange | positioned, and each said said infrared sensor acquired by the said temperature acquisition step. On the basis of the detected temperature, the gesture of the hand is recognized by specifying a change area specifying step where the temperature change has occurred as an area indicating a hand and a movement trajectory of the change area specified in the change area specifying step. And a gesture recognition step.
또한, 상기 제스처 인식 장치는, 컴퓨터에 의해 실현해도 되고, 이 경우에는, 컴퓨터를 상기 각 수단으로서 동작시킴으로써 상기 제스처 인식 장치를 컴퓨터에서 실현시키는 제스처 인식 장치의 제어 프로그램 및 그것을 기록한 컴퓨터 판독 가능한 기록 매체도, 본 발명의 범주에 들어간다.The gesture recognition apparatus may be realized by a computer. In this case, the control program of the gesture recognition apparatus which realizes the gesture recognition apparatus in a computer by operating the computer as the above means and a computer-readable recording medium recording the same. Also, the scope of the present invention.
본 발명의 제스처 인식 장치는, 복수의 적외선 센서가 배치되어 구성된 온도 센서와, 상기 온도 센서의 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 수단과, 상기 변화 영역 특정 수단이 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 수단을 구비하고 있는 것을 특징으로 하고 있다.The gesture recognition apparatus of the present invention identifies a change region in which a temperature change has occurred, as a region indicating a hand, based on a temperature sensor in which a plurality of infrared sensors are arranged and a temperature detected by each of the infrared sensors of the temperature sensor. The change area specifying means and the change area specifying means are provided with gesture recognition means for identifying the movement trajectory of the specific change area and recognizing the gesture of the hand.
본 발명의 제스처 인식 방법은, 복수의 적외선 센서가 배치되어 구성된 온도 센서로부터 적외선 센서마다의 온도를 취득하는 온도 취득 스텝과, 상기 온도 취득 스텝에서 취득한, 상기 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 스텝과, 상기 변화 영역 특정 스텝에서 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 스텝을 포함하는 것을 특징으로 하고 있다.The gesture recognition method of this invention is based on the temperature acquisition step which acquires the temperature for every infrared sensor from the temperature sensor in which the several infrared sensor was arrange | positioned, and the temperature detected by each said infrared sensor acquired by the said temperature acquisition step. And a change region specifying step of specifying a change region in which a temperature change has occurred as an area representing a hand, and a gesture recognition step of specifying a movement trajectory of a specific change region in the change region specifying step to recognize a gesture of a hand. It is characterized by.
따라서, 사용 장소의 밝기에 상관없이, 고속 처리 또한 고정밀도의 비접촉형 입력 기능을 실현하는 것이 가능해진다고 하는 효과를 발휘한다.Therefore, regardless of the brightness of the place of use, the high-speed processing and the high accuracy non-contact input function can be realized.
도 1은 본 발명의 실시 형태에 있어서의 제스처 인식 장치가 구비하는 데이터 처리부의 주요부 구성의 상세를 나타내는 블록도.
도 2는 본 발명의 실시 형태에 있어서의 제스처 인식 장치가 탑재된 전자 기기(스마트 폰)의 외관을 도시하는 도면.
도 3은 상기 전자 기기에 내장되는 센서부의 분해 사시도.
도 4는 상기 센서부의 온도 센서 칩에 있어서의 적외선 검지 소자의 배치의 일례를 나타내는 도면.
도 5는 본 발명의 실시 형태에 있어서의 제스처 인식 장치의 주요부 구성을 나타내는 블록도.
도 6은 제스처 인식 장치의 좌표 배치부가 각 센서로부터의 온도를 XY 좌표계에 플롯한 후의 온도 정보의 데이터 구조를 모식적으로 나타내는 도면.
도 7은 XY 좌표계에 플롯된 온도 정보의 구체예를 나타내는 도면.
도 8은 각 검지 타이밍에 있어서의, (1)스마트 폰과 손의 위치 관계와, (2)당해 타이밍에 있어서 검지, 취득된 온도 정보의 관계를 나타내는 도면.
도 9는 도 8에 도시하는 타이밍 T1 내지 T3의 기간에 대해, 제스처 인식 장치의 변화량 산출부에 의해 생성된 정보와, 무게 중심 결정부에 의해 생성된 정보의 구체예를 나타내는 도면.
도 10은 제스처 인식 장치의 제스처 인식부가 무게 중심의 이동 궤적을 특정한 결과의 구체예를 나타내는 도면.
도 11은 각 검지 타이밍에 있어서의, (1)스마트 폰과 손의 위치 관계와, (2)당해 타이밍에 있어서 검지, 취득된 온도 정보의 관계를 나타내는 도면.
도 12는 제스처 인식 장치의 제스처 패턴 기억부에 기억되는 제스처 패턴의 일례를 나타내는 도면.
도 13은 제스처 인식 장치가 구비하는 데이터 처리부의 각 부가 실행하는 제스처 인식 처리의 흐름을 나타내는 흐름도.
도 14는 제스처 인식 장치의 제스처 인식부에 의해 실행되는 제스처 인식 처리의 흐름을 상세하게 나타내는 흐름도.
도 15는 제스처 인식 장치의 마스크 기억부에 기억되는 마스크의 구체예를 나타내는 도면.
도 16은 제스처 인식 장치의 마스크 기억부에 기억되는 마스크의 데이터 구조의 일례를 나타내는 도면.
도 17은 본 발명의 다른 실시 형태에 있어서의, 제스처 인식 장치의 좌표 배치부가 각 센서로부터의 온도를 XY 좌표계에 플롯한 후의 온도 정보의 데이터 구조를 모식적으로 나타내는 도면.
도 18은 각 검지 타이밍에 있어서의, (1)양손의 위치 관계와, (2)당해 타이밍에 있어서 취득된 온도 정보 및 변화 영역의 관계를 나타내는 도면.
도 19는 도 18에 도시하는 타이밍 T1, T2의 타이밍에 있어서, 제스처 인식 장치의 변화량 산출부에 의해 생성된 정보, 무게 중심 결정부에 의해 생성된 정보 및 편차 산출부에 의해 생성된 정보의 구체예를 나타내는 도면.
도 20은 다른 실시 형태에 있어서의 제스처 인식 장치의 제스처 패턴 기억부에 기억되는 제스처 패턴의 일례를 나타내는 도면.
도 21은 다른 실시 형태에 있어서의 제스처 인식 장치의 제스처 인식부에 의해 실행되는 제스처 인식 처리의 흐름을 상세하게 나타내는 흐름도.BRIEF DESCRIPTION OF THE DRAWINGS The block diagram which shows the detail of the principal part structure of the data processing part with which the gesture recognition apparatus in embodiment of this invention is equipped.
It is a figure which shows the external appearance of the electronic device (smartphone) in which the gesture recognition apparatus in embodiment of this invention is mounted.
3 is an exploded perspective view of a sensor unit embedded in the electronic device.
4 is a diagram showing an example of the arrangement of infrared detection elements in the temperature sensor chip of the sensor unit.
Fig. 5 is a block diagram showing a main part configuration of a gesture recognition apparatus according to the embodiment of the present invention.
Fig. 6 is a diagram schematically showing a data structure of temperature information after the coordinate arrangement unit of the gesture recognition apparatus plots the temperature from each sensor on the XY coordinate system.
FIG. 7 is a diagram showing a specific example of temperature information plotted in an XY coordinate system. FIG.
Fig. 8 is a diagram illustrating the relationship between (1) the positional relationship between a smartphone and a hand in each detection timing and (2) the temperature information detected and acquired at the corresponding timing.
FIG. 9 is a diagram showing a specific example of information generated by the change amount calculating unit of the gesture recognizing apparatus and information generated by the center of gravity determination unit for the periods of timings T 1 to T 3 shown in FIG. 8; FIG.
10 is a view showing a specific example of the result of specifying the movement trajectory of the center of gravity by the gesture recognition unit of the gesture recognition apparatus.
Fig. 11 is a diagram showing the relationship between (1) the positional relationship between a smartphone and a hand in each detection timing and (2) the temperature information detected and acquired at the corresponding timing.
12 is a diagram showing an example of a gesture pattern stored in a gesture pattern storage unit of the gesture recognition apparatus.
13 is a flowchart showing a flow of gesture recognition processing performed by each data processing unit included in the gesture recognition apparatus.
Fig. 14 is a flowchart showing in detail the flow of gesture recognition processing executed by the gesture recognition unit of the gesture recognition apparatus.
Fig. 15 is a diagram showing a specific example of a mask stored in a mask storage unit of the gesture recognition apparatus.
16 is a diagram showing an example of a data structure of a mask stored in a mask storage unit of a gesture recognition apparatus.
It is a figure which shows typically the data structure of the temperature information after the coordinate arrangement part of the gesture recognition apparatus plotted the temperature from each sensor in the XY coordinate system in another embodiment of this invention.
Fig. 18 is a diagram showing the relationship between (1) the positional relationship of both hands and (2) the temperature information and the change area acquired at the timing in each detection timing.
FIG. 19 shows information generated by the change amount calculating unit of the gesture recognition apparatus, information generated by the center of gravity determining unit, and information generated by the deviation calculating unit at the timings of timings T 1 and T 2 shown in FIG. 18. Drawing which shows the specific example of the.
20 is a diagram illustrating an example of a gesture pattern stored in a gesture pattern storage unit of a gesture recognition device according to another embodiment.
21 is a flowchart showing in detail the flow of gesture recognition processing executed by the gesture recognition unit of the gesture recognition apparatus according to the other embodiment.
≪제1 실시 형태≫`` First embodiment ''
본 발명의 실시 형태에 대해, 도면에 기초하여 설명하면 이하와 같다. 이하에서 설명하는 실시 형태에서는, 일례로서, 본 발명의 제스처 인식 장치를 스마트 폰에 탑재하여, 제스처 인식 장치가 스마트 폰의 입력 기능을 실현한다. 또한, 본 발명의 제스처 인식 장치는, 스마트 폰 이외에도, 휴대 전화, PDA, 휴대형 게임기, 전자 사전, 전자 수첩, 디지털 카메라, 디지털 비디오 카메라, 퍼스널 컴퓨터, 노트북 컴퓨터, 텔레비전, 녹화 생성 장치, 가정용 게임기 등의 각종 전자 기기에 탑재할 수 있고, 이들 전자 기기의 입력 기능을 담당할 수 있다.EMBODIMENT OF THE INVENTION Embodiment of this invention is described based on drawing. In embodiment described below, as an example, the gesture recognition apparatus of this invention is mounted in a smart phone, and a gesture recognition device implements the input function of a smart phone. In addition to the smart phone, the gesture recognition device of the present invention may be a mobile phone, a PDA, a portable game machine, an electronic dictionary, an electronic notebook, a digital camera, a digital video camera, a personal computer, a laptop computer, a television, a recording generator, a home game machine, or the like. Can be mounted on various electronic devices, and can take charge of the input function of these electronic devices.
〔제스처 인식 장치의 구성〕[Configuration of Gesture Recognition Device]
도 2는, 본 발명의 실시 형태에 있어서의 제스처 인식 장치의 외관을 도시하는 도면이다. 본 실시 형태에서는, 본 발명의 제스처 인식 장치는, 도 2에 도시하는 바와 같이, 센서부(2)를 구비하고, 스마트 폰(100)에 내장되어 있다.2 is a diagram illustrating an appearance of a gesture recognition apparatus according to the embodiment of the present invention. In this embodiment, the gesture recognition apparatus of this invention is equipped with the
센서부(2)는, 검지 가능 범위(예를 들어, 도 2의 파선 범위 내)에 있는 대상물의 온도를 검지하는 것이다.The
도 3은, 스마트 폰(100)에 내장되는 센서부(2)의 분해 사시도이다. 도 3에 도시하는 바와 같이, 센서부(2)는, 이하와 같이 구성된다. 구체적으로는, 기판(21) 상에, 신호 처리부(7)와 온도 센서 칩(6)이 탑재되고, 그 위에, 이들의 정밀 부품을 보호하는 동시에 렌즈(23)를 고정하기 위한 중간 케이스(22)가 설치되어 있다. 중간 케이스(22) 상에는, 렌즈(23)가 탑재되고, 이들 전체를 피복하도록 외부 케이스(24)가 설치된다.3 is an exploded perspective view of the
온도 센서 칩(6)은, 복수의 적외선 검지 소자(적외선 센서)를 면 상에 배치한 것으로 구성되어 있다. 각 적외선 센서는, 적외선을 접수함으로써 발생하는 온도 상승에 기초하여 검지 대상물의 온도 정보를 검지한다.The
도 4는, 온도 센서 칩(6)에 있어서의 적외선 검지 소자의 배치의 일례를 나타내는 도면이다. 온도 센서 칩(6)은, 예를 들어 도 4에 나타내는 바와 같이, 종횡으로 4×4개로 배치된 적외선 센서로 이루어져 있다. 각 센서에는, 예를 들어, 0으로부터 15까지의 번지가 할당되어 있고, 이 번지에 의해 각 센서의 면 상의 위치 관계가 파악되고 있다.4 is a diagram illustrating an example of the arrangement of the infrared detection element in the
이와 같이, 번지에 의해 관리된 복수의 센서를 면 상에 배치함으로써, 상기 검지 가능 범위에 있는 검지 대상물의 표면 온도를 2차원으로 취득할 수 있다. 예를 들어, 도 2에 도시한 바와 같이, 사용자의 손이 검지 가능 범위 내에 있어서 이동하면, 손의 표면 온도를 검지하는 센서의 위치의 차이에 의해, 그 이동을 검지할 수 있다.Thus, by arrange | positioning the some sensor managed by address on the surface, the surface temperature of the detection object in the said detectable range can be acquired in two dimensions. For example, as shown in FIG. 2, when a user's hand moves in the detectable range, the movement can be detected by the difference of the position of the sensor which detects the surface temperature of the hand.
다음으로, 상술한 바와 같이 온도 센서 칩(6)으로부터 얻어진 온도 정보를 사용하여 제스처 인식 처리를 행하는 제스처 인식 장치의 기능적 구성에 대해 설명한다.Next, the functional structure of the gesture recognition apparatus which performs a gesture recognition process using the temperature information obtained from the
도 5는, 본 발명의 실시 형태에 있어서의 제스처 인식 장치(1)의 주요부 구성을 나타내는 블록도이다. 도 5에 나타내는 바와 같이, 제스처 인식 장치(1)는, 온도 센서 칩(6)과 신호 처리부(7)를 포함하는 센서부(2)와, 센서부(2)를 포함하는 각 부를 통괄 제어하는 입력 제어부(3)와, 기억부(4) 및 일시 기억부(8)와, 커넥터부(5)를 포함하는 구성으로 되어 있다.5 is a block diagram showing the configuration of main parts of the
신호 처리부(7)는, 온도 센서 칩(6)의 각 센서가 접수하는 적외선으로부터 얻어진 적외선 신호를 취득하고, 신호 증폭의 처리 등을 행하는 것이다. 신호 처리부(7)는, 예를 들어, 특정 용도용 집적 회로(ASIC; Application Specific Integrated Circuit) 등으로 실현된다.The
본 실시 형태에서는, 신호 처리부(7)는, 신호 선택부(13)와 신호 증폭부(14)를 구비하고 있다. 신호 선택부(13)는, 온도 센서 칩(6)으로부터의 적외선 신호를 선택적으로 취득하는 것이다. 구체적으로는, 신호 선택부(13)는, 입력 제어부(3)의 제어에 따라, 특정 번지의 적외선 센서로부터의 적외선 신호를 선택적으로 취득할 수 있다.In the present embodiment, the
신호 증폭부(14)는, 신호 선택부(13)에 의해 취득된 적외선 신호를, 입력 제어부(3)에 있어서 디지털 처리 가능하도록 증폭하여, 입력 제어부(3)에 공급하는 것이다.The
이와 같이 하여 신호 처리부(7)에 의해 취득되어, 처리된 적외선 신호는, 입력 제어부(3)에 있어서 디지털화되어, 온도 정보로서 이용된다.The infrared signal acquired and processed by the
입력 제어부(3)는, 제스처 인식 장치(1)의 각 부의 동작을 통괄 제어하는 것이며, 마이크로 컴퓨터 등으로 실현된다. 혹은, 입력 제어부(3)의 기능은, 스마트 폰(100) 본체의 주제어부가 구비하는 구성이어도 된다. 이 경우, 스마트 폰(100) 자체가 본 발명의 제스처 인식 장치(1)로서 기능한다.The
입력 제어부(3)는, 신호 처리부(7)로부터 공급된 적외선 신호를 아날로그 신호로부터 디지털 신호로 변환하는 AD 변환부(12)와, 커넥터부(5)를 통하여, 스마트 폰(100) 본체의 주제어부와 통신하는 통신 제어부(11)와, 디지털화된 온도 정보를 사용하여 제스처 인식 처리를 실행하는 데이터 처리부(10)를 구비하고 있다. 기능 블록으로서의 데이터 처리부(10)의 구성과 동작에 대해서는 별도를 참조하면서 이후에 상세하게 서술한다.The
커넥터부(5)는, 제스처 인식 장치(1)와 스마트 폰(100)의 주제어부를 전기적으로 또한 통신 가능하게 접속하는 것이다. 데이터 처리부(10)가 제스처를 인식한 결과는, 통신 제어부(11) 및 커넥터부(5)를 통하여, 스마트 폰(100) 본체의 주제어부에 공급된다. 반대로, 스마트 폰(100)이 현재 어떤 어플리케이션을 기동 중인 것인지 등의 스마트 폰(100)의 상태에 관한 정보는, 스마트 폰(100)의 주제어부로부터 공급된다.The
일시 기억부(8)는, 제스처 인식 장치(1)가 실행하는 각종 처리의 과정에서, 연산에 사용하는 데이터 및 연산 결과 등을 일시적으로 기억하는 소위 워킹 메모리이다.The
기억부(4)는, 입력 제어부(3)가 실행하는 ① 제어 프로그램, ② OS 프로그램, ③ 입력 제어부(3)가, 제스처 인식 장치(1)가 갖는 각종 기능을 실행하기 위한 어플리케이션 프로그램 및 ④ 상기 어플리케이션 프로그램을 실행할 때에 판독하는 각종 데이터를 기억하는 것이다. 특히, 기억부(4)는, 제스처 인식 장치(1)가 제스처 인식 처리를 실행할 때에 판독하는 각종 프로그램, 데이터를 기억한다.The
이와 같이, 제스처 인식 장치(1)에 있어서, 입력 제어부(3)의 데이터 처리부(10)가, 온도 센서 칩(6)으로부터 취득된 온도 정보에 기초하여, 대상물(사용자의 손 등)의 움직임을 제스처로서 인식하고, 통신 제어부(11)가 이 인식 결과를 스마트 폰(100)에 대한 입력으로서, 스마트 폰(100) 본체에 공급한다. 이에 따라, 스마트 폰(100)은, 인식된 제스처에 할당된 동작을 실행할 수 있다.In this manner, in the
즉, 제스처 인식 장치(1)는, 스마트 폰(100)의 비접촉형 입력 장치로서 기능할 수 있다.That is, the
〔데이터 처리부의 구성〕[Configuration of Data Processing Unit]
도 1은, 제스처 인식 장치(1)의 데이터 처리부(10)의 주요부 구성의 상세를 나타내는 블록도이다.FIG. 1 is a block diagram showing the details of the configuration of main parts of the
데이터 처리부(10)는, 기능 블록으로서, 적어도, 온도 정보 취득부(30), 좌표 배치부(31), 변화량 산출부(32) 및 제스처 인식부(34)를 구비하는 구성으로 되어 있다. 데이터 처리부(10)는, 또한, 무게 중심 결정부(33)를 구비하고 있는 것이 바람직하다. 또한, 데이터 처리부(10)는, 또한, 마스크 선택부(35) 및 편차 산출부(36)를 구비하고 있어도 된다.The
그리고 기억부(4)는, 데이터 처리부(10)가 식별해야 할 제스처의 패턴을 기억하기 위한 제스처 패턴 기억부(40)를 적어도 포함하고 있다. 기억부(4)는, 또한, 마스크 기억부(41) 및 기준값 기억부(42)를 포함하고 있어도 된다.The
상술한 데이터 처리부(10)의 각 기능 블록은, MPU(micro processing unit) 또는 CPU(central processing unit) 등의 중앙 연산 처리 장치가, ROM(read only memory), NVRAM(non―Volatile random access memory) 등으로 실현된 기억 장치[기억부(4)]에 기억되어 있는 프로그램을 RAM(random access memory)[일시 기억부(8)] 등에 판독하여 실행하는 것으로 실현할 수 있다.Each functional block of the
온도 정보 취득부(30)는, 디지털 변환된 온도 정보(d1)를, AD 변환부(12)로부터 취득하는 것이다. 본 실시 형태에서는, 온도 정보(d1)는, 각 센서가 검지한 온도의 값에, 0 내지 15번지까지의 각 센서의 번지가 대응시켜진 데이터 구조로 되어 있다. 본 실시 형태에서는, 온도 정보 취득부(30)는, 온도 센서 칩(6)의 각 센서에 의해 리얼 타임으로 검지된 온도 정보(d1)를, 일정 시간 간격(예를 들어, 0.5초마다)으로 취득하여 일시 기억부(8)에 수시 저장한다. 이때, 온도 정보 취득부(30)는, 검지된 타이밍을 식별하는 타이밍 정보 Ti(i=0, 1, 2, ···, n)를, 취득하는 온도 정보(d1)에 관련지어 둔다.The temperature
좌표 배치부(31)는, 각 센서로부터 취득한 온도 정보를, 각 센서의 배치에 대응하도록 2차원 좌표 상에 플롯하는 것이다. 본 실시 형태에서는, 0번지로부터 15번지까지의, 4×4=16개의 센서의 배치에 대응하도록, 각 센서로부터 취득한 온도 정보를, XY 좌표계에 플롯한다.The coordinate
도 6은, 좌표 배치부(31)가 각 센서로부터의 온도를 XY 좌표계에 플롯한 후의 온도 정보의 데이터 구조를 모식적으로 나타내는 도면이다.FIG. 6: is a figure which shows typically the data structure of the temperature information after the coordinate
예를 들어, 도 4에 나타내는 바와 같이, 온도 센서 칩(6)에 있어서, 0 내지 15번지의 16개의 적외선 센서가, 종횡 4×4개가 되도록 배치되어 있는 경우, 좌표 배치부(31)는, 온도 센서 칩(6)의 좌측 하단부를 원점으로 하고, 동일하게, XY 좌표계의 좌측 하단부를 원점으로 하여, 각 센서의 온도를 플롯한다.For example, as shown in FIG. 4, in the
구체적으로는, 12번지의 센서가 검지한 온도를, (X, Y)=(1, 1)의 위치에 플롯하고, 그 우측 옆의 13번지의 센서의 온도를, (X, Y)=(2, 1)의 위치에 플롯한다. 좌표 배치부(31)는, 이후의 센서에 대해서도 마찬가지로, 센서의 실제의 배치에 대응하도록, 온도를 XY 좌표계에 플롯한다. 최종적으로, 가장 우측 상부의 3번지의 센서의 온도는, (X, Y)=(4, 4)의 위치에 플롯된다.Specifically, the temperature detected by the sensor at
이와 같이 XY 좌표계에 플롯된 온도 정보는, 타이밍 정보 Ti와 관련지어 일시 기억부(8)에 저장된다. 도 7은, XY 좌표계에 플롯된 온도 정보의 구체예를 나타내는 도면이다. 도 7에는, 타이밍 T0로부터 Tn까지의 사이에 취득된 온도 정보의 각각에 대해 XY 좌표계가 작성된 예를 나타내고 있다. XY 좌표계의 16개의 셀에 저장되어 있는 두 자리의 숫자는, 각 센서가 검지한 온도(여기서는, 단위는, ℃)를 나타내고 있다.The temperature information plotted in the XY coordinate system in this way is stored in the
변화량 산출부(32)는, 소정의 임계값과, 상술한 바와 같이 각 센서로부터 취득된 실제의 온도를 비교하여, 온도 변화 혹은 검지 대상물(손, 손가락 등)의 유무를 판정하는 것이다. 또한, 소정의 기준값과 실제의 온도를 비교하여, 각 센서의 검지 온도의 변화량을 산출하는 것이다.The change
변화량 산출부(32)는, 소정의 임계값과 비교하여, 각 센서의 온도가 대상물의 온도를 검지하고 있는지 아닌지를 판단한다. 예를 들어, 검지 대상물로서 인간의 손을 검지하고 싶은 경우, 인간의 체온으로서 상정할 수 있는 하한값(경우에 따라서는 상한값이어도 됨)을 임계값으로서 설정한다. 여기에서는, 33℃로 설정되어 있는 것으로 한다.The change
변화량 산출부(32)는, 각 센서의 온도를 임계값 33℃와 비교하여, 33℃ 이상의 온도가 검지된 센서를, 손을 검지한 센서로서 인식한다. 즉, 손을 검지한 센서의 위치를 확인하면, 그것을, 그대로 손이 존재하는 위치로서 취급하는 것이 가능하다.The change
상기 임계값은, 원하는 검지 대상물의 성질을 고려하여, 상기 대상물을 특정하기 위해 유효한 온도가 적절하게 설정되면 된다. 설정된 임계값은, 미리 기준값 기억부(42)에 기억되어 있고, 변화량 산출부(32)에 의해 필요에 따라 판독된다.The threshold value may be appropriately set to an effective temperature for specifying the object in consideration of the properties of the desired detection object. The set threshold value is previously stored in the reference
도 8은, 각 검지 타이밍에 있어서의, 스마트 폰(100)과 손의 위치 관계와, 당해 타이밍에 있어서 검지, 취득된 온도 정보의 관계를 나타내는 도면이다. 도 8에 나타내는 바와 같이, 타이밍 T1에 있어서, 손이 센서부(2)의 검지 범위의 좌측 단부에 위치하고 있다고 한다. 이 경우, 좌표 배치부(31)는, 도 8에 나타내는, 타이밍 T1을 관련되어진 XY 좌표계를 생성한다. 변화량 산출부(32)는, XY 좌표계의 각 좌표 위치에 저장되어 있는 온도와, 임계값(33)을 비교하고, 임계값 이상의 온도의 좌표 위치를 특정하여, 이를 손의 영역으로서 특정한다. 변화량 산출부(32)는, 도 8에 나타내는 예에서는, 상기 손의 실제의 위치와 마찬가지로, XY 좌표계에 있어서도, 좌측 단부의 영역(망점의 영역)을, 손의 영역으로서 특정하고 있다. 다음으로, 타이밍 T2에 있어서, 손이 스마트 폰(100)[센서부(2)]의 정면까지 이동했다고 한다. 이 경우, 좌표 배치부(31)는, 타이밍 T2를 관련되어진 XY 좌표계를 생성한다(도 8). 그리고 변화량 산출부(32)는, XY 좌표계의 전체면(망점의 영역)을, 손의 영역으로서 특정한다. 그리고 타이밍 T3에 있어서, 손이 더욱 이동하여, 상기 검지 범위의 우측 단부까지 이동했다고 한다. 이 경우, 좌표 배치부(31)는, 도 8에 도시하는, 타이밍 T3를 관련되어진 XY 좌표계를 생성한다. 변화량 산출부(32)는, 임계값 33℃ 이상인 우측 단부의 영역(망점의 영역)을, 손의 영역으로서 특정한다.FIG. 8: is a figure which shows the positional relationship of the
또한, 변화량 산출부(32)는, 실제로 검지된 온도와 기준값의 차분을, 변화량 ΔT로서 산출한다. 변화량 산출부(32)는, 각 번지(좌표 위치)의 온도에 관해, 변화량 ΔT(X, Y)를 각각 산출한다.The change
여기서, 기준값은, 상술한 대상물을 검지하기 위한 임계값과 동일해도 되고, 대상물이 아무것도 없는 때의 환경 온도를 고려하여 적절한 값이 정해져도 된다. 본 실시 형태에서는, 스마트 폰(100)의 주위의 환경 온도가 25℃이므로, 기준값이 25℃로 미리 정해져 있는 것으로 한다. 이 규정의 기준값은, 기준값 기억부(42)에 기억되어 있고, 변화량 산출부(32)에 의해 필요에 따라 판독된다.Here, the reference value may be the same as the threshold value for detecting the above-described object, or an appropriate value may be determined in consideration of the environmental temperature when there is nothing. In the present embodiment, since the ambient temperature around the
또한, 이 기준값은, 동적으로 갱신되는 구성이어도 된다. 예를 들어, 온도 센서 칩(6)에 의해 온도가 수시 측정되어, 변화량이 크게 변동하는 일 없이 일정 시간 경과했다고 한다. 이때, 데이터 처리부(10)의 도시하지 않은 평균값 산출부가, 이 기간에 측정된 온도의 평균값을 산출하고, 이를, 기준값으로서 기준값 기억부(42)에 저장해도 된다.The reference value may be a structure that is dynamically updated. For example, it is said that the temperature is measured from time to time by the
또한, 변화량 산출부(32)는, 각 셀의 번지마다 구한 변화량 ΔT(X, Y)를 모두 합산하고, 타이밍 Ti에 있어서의 XY 좌표계의 변화량 ΔT(X, Y)의 합계(이하, SUM)를 구한다. 구체적으로는, 본 실시 형태에서는, 변화량 산출부(32)는, 다음 식, SUM=ΔT(1, 1)+ΔT(1, 2)+ΔT(1, 3)+ΔT(1, 4)+ΔT(2, 1)+ΔT(2, 2)+ΔT(2, 3)+ΔT(2, 4)+ΔT(3, 1)+ΔT(3, 2)+ΔT(3, 3)+ΔT(3, 4)+ΔT(4, 1)+ΔT(4, 2)+ΔT(4, 3)+ΔT(4, 4)를 계산한다.In addition, the change
이에 의해, 타이밍 Ti에 있어서의, 검출 범위(도 2의 파선 범위 내)에 발생한 전체의 변화량(SUM)이 명백해진다.Thereby, the total amount of change SUM generated in the detection range (in the broken line range in FIG. 2) in the timing T i becomes apparent.
변화량 산출부(32)는, 상술한 바와 같이 각 셀의 번지마다 구한 변화량 ΔT(X, Y) 및 그 합계 SUM을, 타이밍 Ti에 관련짓고, XY 좌표계에 플롯하여, 일시 기억부(8)에 저장한다.The change
변화량 산출부(32)에 의해 구해진 변화량 ΔT를 참조함으로써, 어느 타이밍에서 어느 위치에 온도의 변화가 보인 것인지를 파악할 수 있다. 또한, 변화량 ΔT 및 SUM은, 제스처 인식 대상물의 유무나, 대상물의 영역(변화량이 큰 영역)의 무게 중심의 좌표 위치(Gx, Gy)를 판단하기 위해 후술의 각 기능 블록에 의해 판독되어, 사용된다.By referring to the change amount ΔT obtained by the change
또한, 변화량 산출부(32)는, 각 센서로부터 취득된 온도 정보에 기초하여, 언제의 타이밍으로부터 언제의 타이밍까지를, 사용자의 조작 기간[사용자가 스마트 폰(100)에 대하여 입력을 행하려고 하여 의도적으로 손을 움직이고 있는 기간]으로서 인식하면 좋은 것인지를 판단하는 것이 바람직하다.In addition, the change
사용자가 조작하고 있는 기간을 판단하는 방법의 몇 개에 대해 구체적으로 설명하면 이하와 같다.Some of the methods for determining the period of time that the user is operating will be described in detail below.
제1 방법은, 기준값 기억부(42)에 기억되어 있는 임계값을 사용하는 방법이다. 변화량 산출부(32)는, 어떤 타이밍에 있어서의 XY 좌표계에 플롯된 각 온도와 임계값(예를 들어, 33℃)을 비교하여, 33℃ 이상을 검출한 센서가 2개 이상 있는 경우에, 변화 있음(조작 개시)이라고 판단한다. 그리고 33℃ 이상을 검출한 센서가 2개 이상 있는 기간을 조작 기간으로서 판단할 수 있다.The first method is a method of using a threshold value stored in the reference
제2 방법은, 검지 타이밍마다 구한 XY 좌표계 전체의 변화량 SUM 및 기준값 기억부(42)에 기억되어 있는 기준값을 사용하는 방법이다. 변화량 산출부(32)는, 기준값을 Ta℃로 한 때, (35℃―Ta℃)×2를 변화량의 임계값으로 정하고, SUM이, (35℃―Ta℃)×2 이상인 경우에, 변화 있음(조작 개시)이라고 판단한다. 그리고 SUM이, (35℃―Ta℃)×2 이상인 기간을 조작 기간으로서 판단할 수 있다.The second method is a method of using the change amount SUM of the entire XY coordinate system obtained for each detection timing and the reference value stored in the reference
상기 구성에 따르면, 변화량 산출부(32)에 의해 조작 기간으로 판단된 기간의 온도 정보만에 한정하여 이후의 제스처 인식 처리를 진행할 수 있고, 처리에 들이는 정보량을 줄임으로써, 제스처 인식 장치(1)의 처리 효율의 향상과, 처리 부하의 저감을 실현할 수 있다.According to the above configuration, only the temperature information of the period determined as the operation period by the change
무게 중심 결정부(33)는, 각 센서의 변화량 ΔT 및 SUM에 기초하여, XY 좌표계에 있어서 변화가 인정된 영역, 구체적으로는, 손이 검지되는 등에 의해 온도 상승이 있었던 변화 영역(도 8의 망점의 영역)의 무게 중심을 결정하는 것이다. 무게 중심 결정부(33)는, 변화량 ΔT 및 SUM을 참조하면서, 이하의 수순에 따라, 변화 영역의 무게 중심 G의 좌표(Gx, Gy)를 결정한다.The center of
무게 중심 결정부(33)는, 무게 중심 G의 X 좌표(Gx)를 구한다. Gx는, 각 좌표 위치의 변화량 ΔT에, 각 좌표 위치의 X 좌표에 따른 계수를 곱한 것을 합계하고, 이를, 상기 SUM으로 나눔으로써 산출된다. 구체적으로는, 무게 중심 결정부(33)는, 다음 식, Gx={(ΔT(1, 1)+ΔT(1, 2)+ΔT(1, 3)+ΔT(1, 4))×1+(ΔT(2, 1)+ΔT(2, 2)+ΔT(2, 3)+ΔT(2, 4))×2+(ΔT(3, 1)+ΔT(3, 2)+ΔT(3, 3)+ΔT(3, 4))×3+(ΔT(4, 1)+ΔT(4, 2)+ΔT(4, 3)+ΔT(4, 4))×4}÷SUM을 계산한다.The center of
또한, 무게 중심 결정부(33)는, 무게 중심 G의 Y 좌표(Gy)를 구한다. Gy는, 각 좌표 위치의 변화량 ΔT에, 각 좌표 위치의 Y 좌표에 따른 계수를 곱한 것을 합계하고, 이를, 상기 SUM으로 나눔으로써 산출된다. 구체적으로는, 무게 중심 결정부(33)는, 다음 식, Gy={(ΔT(1, 1)+ΔT(2, 1)+ΔT(3, 1)+ΔT(4, 1))×1+(ΔT(1, 2)+ΔT(2, 2)+ΔT(3, 2)+ΔT(4, 2))×2+(ΔT(1, 3)+ΔT(2, 3)+ΔT(3, 3)+ΔT(4, 3))×3+(ΔT(1, 4)+ΔT(2, 4)+ΔT(3, 4)+ΔT(4, 4))×4}÷SUM을 계산한다.In addition, the center of
무게 중심 결정부(33)는, 상술한 바와 같이 하여 구한 타이밍 Ti에 있어서의 변화 영역의 무게 중심 G의 좌표(Gx, Gy)를, 타이밍 Ti에 관련지어 일시 기억부(8)에 저장한다. 무게 중심 결정부(33)는, 좌표 배치부(31)가 생성한 XY 좌표계에, 무게 중심 G(Gx, Gy)를 플롯해도 된다.The center of
도 9는, 도 8에 도시하는 타이밍 T1 내지 T3의 기간에 대해, 변화량 산출부(32)에 의해 생성된 정보와, 무게 중심 결정부(33)에 의해 생성된 정보의 구체예를 나타내는 도면이다.FIG. 9 shows a specific example of the information generated by the change
변화량 산출부(32)는, 타이밍 T1의 온도 정보(도 8의 XY 좌표계 T1)를 취득하고, 각 센서의 온도와 기준값 25℃의 차분을 산출하여, 각 센서의 변화량 ΔT의 값을 플롯한다. 이 플롯의 결과를, 도 9의 XY 좌표계 T1에 나타낸다. 마찬가지로, 도 9의 XY 좌표계 T2, T3은, 각각, 도 8에 나타내는 타이밍 T2, T3의 온도 정보로부터, 변화량 ΔT의 값을 구한 것을 나타내고 있다.The change
그리고 변화량 산출부(32)는, 또한, 도 9의 XY 좌표계 T1에 기초하여, 타이밍 T1에 있어서의 전체의 변화량 SUM을「105」로 산출한다. 마찬가지로, 타이밍 T2에 있어서의 전체의 변화량 SUM을「168」로 산출하고, 타이밍 T3에 있어서의 전체의 변화량 SUM을「84」로 산출한다.And the change
계속하여, 무게 중심 결정부(33)는, 상술한 바와 같이 하여 구해진 각 센서의 변화량 ΔT와 SUM을 사용하여, 변화 영역(도 8의 망점의 영역)의 무게 중심 G를 결정한다. 도 9에 나타내는 예에서는, 무게 중심 결정부(33)는, 타이밍 T1에 있어서의 무게 중심 G의 좌표(Gx, Gy)를, (1.8, 2.5)로 결정하고, 타이밍 T2에 있어서의 무게 중심 G의 좌표(Gx, Gy)를, (2.5, 2.5)로 결정하고, 타이밍 T3에 있어서의 무게 중심 G의 좌표(Gx, Gy)를, (3.5, 2.5)로 결정한다.Subsequently, the center of
이 무게 중심 G의 위치를 추종하면, 대상물(손)이 언제의 타이밍에서 어떻게 움직였는지를 이후의 공정에서 인식할 수 있다.By following this position of the center of gravity G, it is possible to recognize in a subsequent process how and when the object (hand) moved at the timing.
이상과 같이, 검지 타이밍마다, 변화 영역의 무게 중심 G의 좌표를 특정함으로써, 변화 영역(손)의 이동의 궤적을 적은 계산량으로 구하는 것이 가능해지므로, 무게 중심 결정부(33)의 구성 및 무게 중심을 결정하는 방법을 채용하는 것은, 처리 효율의 향상 및 처리 부하의 저감의 관점으로부터 바람직하다.As described above, by specifying the coordinates of the center of gravity G of the change area for each detection timing, the trajectory of the movement of the change area (hand) can be obtained with a small amount of calculation, so that the configuration and the center of gravity of the center of
또한, 대상물(손)의 제스처를 인식하기 위해, 손의 이동의 궤적을 추적할 필요가 있지만, 이동 궤적을 추적하는 방법으로서, 상술한 무게 중심을 결정하고, 무게 중심을 추적하는 방법은, 단순히 일례이며, 본 발명의 구성은 이것에 한정되지 않는다.In addition, in order to recognize the gesture of the object (hand), it is necessary to track the trajectory of the movement of the hand. As a method of tracking the movement trajectory, the above-described method of determining the center of gravity and tracking the center of gravity are simply It is an example and the structure of this invention is not limited to this.
제스처 인식부(34)는, 대상물의 위치를 추적하고, 대상물의 이동의 궤적에 따라 상기 대상물의 움직임을 제스처로서 인식하는 것이다. 본 실시 형태에서는, 구체적으로는, 무게 중심 결정부(33)에 의해 결정된 대상물의 무게 중심의 위치를 추적하여, 무게 중심의 궤적을 특정하고, 특정한 무게 중심의 궤적에 따라 대상물의 제스처를 식별한다.The
도 10은, 제스처 인식부(34)가 무게 중심의 궤적을 특정한 결과의 구체예를 나타내는 도면이다. 또한, 도 10에 나타낸 무게 중심의 궤적은, 제스처 인식부(34)가 특정하는 궤적의 일례를 설명을 위해 구체적으로 기재한 것이며, 실제로는 이와 같은 궤적은, 사용자가 육안 확인 가능하도록 제시되는 것은 아니다.10 is a diagram showing a specific example of the result of the
도 10에 나타내는 바와 같이, 도 9에 나타내는 타이밍 T1 내지 T3의 각각의 무게 중심을, 1개의 좌표계에 플롯하면, 무게 중심의 이동의 궤적이 명백해진다.As shown in Fig. 10, if the plot of each of the center of gravity of a timing T 1 to T 3 shown in FIG. 9, a single coordinate system, it is clear that the locus of movement of the center of gravity.
제스처 인식부(34)는, 조작 기간의 개시 타이밍 Ts로부터, ···, T1, T2, T3, ···, 그리고 조작기간 종료 타이밍 Te까지의 무게 중심을 추적하고, 그 움직임을 인식한다. 도 10에 나타내는 예에서는, T1의 위치로부터 T3의 위치에 걸쳐, 무게 중심이 좌측으로부터 우측으로 이동하고 있다. 따라서, 제스처 인식부(34)는,「좌측으로부터 우측으로 이동」이라고 하는 제스처가 행해졌다고 인식할 수 있다. 제스처 인식부(34)는, 무게 중심의 궤적에 따라,「우측으로부터 좌측으로 이동」,「상측으로부터 하측으로 이동」,「하측으로부터 상측으로 이동」,「시계 방향으로 이동」,「반시계 방향으로 이동」등의 각종 제스처를 식별할 수 있다.The
또한, 본 발명의 제스처 인식 장치(1)에 따르면, 제스처 인식부(34)는, 상술한 X축 방향 또는 Y축 방향의 움직임뿐만 아니라, Z축 방향의 움직임을 검지하고, 이를 제스처로서 식별하는 것이 가능하다.Further, according to the
도 11은, 각 검지 타이밍에 있어서의, 스마트 폰(100)과 손의 위치 관계와, 당해 타이밍에 있어서 검지, 취득된 온도 정보의 관계를 나타내는 도면이다. 도 11에 나타내는 바와 같이, 타이밍 T1에 있어서, 손이 센서부(2)의 검지 범위의 가장 먼 곳에 위치하고 있다고 한다. 이 경우, 좌표 배치부(31)는, 도 11에 도시한 바와 같이, 타이밍 T1가 관련되어진 XY 좌표계를 생성한다. 손은, 스마트 폰(100)의 센서부(2)로부터 Z축 상의 먼 위치에 있기 때문에, 센서부(2)의 온도 센서 칩(6)의 면에 있어서 작게 파악된다. 그로 인해, 온도 센서 칩(6)의 전체면이 아닌, 국소에 있어서 변화 영역(망점 영역)이 특정된다.11 is a diagram showing the positional relationship between the
한편, 타이밍 T2에 있어서, 손이, 타이밍 T1의 때보다도, 스마트 폰(100)에 가까운 위치에 있다고 한다. 이 경우, 좌표 배치부(31)는, 도 11에 나타내는 바와 같이, 타이밍 T2가 관련되어진 XY 좌표계를 생성한다. 손은, 스마트 폰(100)의 센서부(2)로부터 Z축 상의 가까운 위치에 있기 때문에, 온도 센서 칩(6)의 면에 있어서 크게 파악된다. 도 11에 나타내는 예에서는, 온도 센서 칩(6)의 전체면에 있어서 크게 파악된다. 그로 인해, 온도 센서 칩(6)의 전체면에 있어서 변화 영역이 특정된다. 즉, 변화 영역의 면적이 클(임계값 33℃ 이상의 센서의 수가 많을)수록, 대상물이 스마트 폰(100)의 가까운 곳에 위치하고, 변화 영역의 면적이 작을(임계값 33℃ 이상의 센서의 수가 적을)수록, 대상물이 스마트 폰(100)으로부터 먼 곳에 위치하고 있다고 판단할 수 있다.On the other hand, at time T 2, when all of the hand, the timing T 1, said to be in a position close to the
따라서, 제스처 인식부(34)는, 검지 타이밍마다 추이하는, 변화 영역의 면적의 증감에 따라, 대상물의 Z축 방향의 움직임을 추적하여, 제스처를 식별한다. 구체적으로는, 제스처 인식부(34)는, 변화 영역의 면적의 증감에 따라,「손을 가까이한다」, 또는,「손을 멀리한다」등의 각종 제스처를 식별할 수 있다.Therefore, the
본 실시 형태에서는, 기억부(4)는, 제스처 패턴 기억부(40)를 구비하고, 여기에, 미리 정해진 제스처의 몇 개의 패턴을 기억시키고 있다. 제스처 인식부(34)는, 무게 중심의 궤적, 또는, 변화 영역의 증감이, 제스처 패턴 기억부(40)에 기억되어 있는 어느 제스처 패턴에 합치하는 것인지를 판단하여, 제스처를 식별한다.In this embodiment, the memory |
도 12는, 제스처 패턴 기억부(40)에 기억되어 있는 제스처 패턴의 일례를 나타내는 도면이다. FIG. 12 is a diagram illustrating an example of a gesture pattern stored in the gesture
도 12에 나타내는 바와 같이, 제스처 패턴 기억부(40)에는, 제스처 인식부(34)가 인식할 수 있는 몇 개의 제스처 패턴이 기억되어 있다. 본 실시 형태에서는, 이들 제스처를 식별하기 위한 제스처 ID가, 각 제스처 패턴에 대응시켜 기억되어 있다.As shown in FIG. 12, in the gesture
예를 들어, 제스처 인식부(34)는, 도 10에 나타내는 무게 중심의 궤적에 따라, 대상물의 제스처를「좌측으로부터 우측으로 이동」이라고 인식한 경우에는,「좌측으로부터 우측으로 이동」의 제스처를 나타내는 제스처 ID「00」을, 인식 결과(d2)로서, 통신 제어부(11)에 출력한다(도 1 참조).For example, when the
인식 결과(d2)는, 커넥터부(5)를 통해 스마트 폰(100) 본체(의 주제어부)에 입력된다. 스마트 폰(100)의 주제어부는, 제스처 ID「00」이 입력된 것에 따라, 제스처 ID「00」에 할당되어 있는 동작을 실행한다.The recognition result d2 is input into the main body of the
또한, 도 12에 나타내는 제스처의 패턴은 일례이며, 본 발명을 한정하는 것은 아니다. 본 발명의 제스처 인식부(34)는, 여러 가지 대상물의 움직임의 패턴(예를 들어, 비스듬한 방향의 움직임 등)을, 도 12에 나타내는 제스처 이외의 제스처로서 인식해도 된다.In addition, the pattern of the gesture shown in FIG. 12 is an example, and does not limit this invention. The
〔제스처 인식 처리 흐름〕[Gesture recognition processing flow]
도 13은, 본 발명의 제스처 인식 장치(1)가 구비하는 데이터 처리부(10)의 각 부가 실행하는 제스처 인식 처리의 흐름을 나타내는 흐름도이다. 도 14는, 제스처 인식부(34)에 의해 실행되는 제스처 인식 처리의 흐름을 상세하게 나타내는 흐름도이다.13 is a flowchart showing the flow of gesture recognition processing performed by each unit of the
본 실시 형태에서는, 소정 기간 동안의 소정의 검지 타이밍(T0, T1, T2, …, Tn)에서, 센서부(2)가 대상물의 온도 정보를 검지하고, 수시, 데이터 처리부(10)에 공급하고 있는 구성을 상정하고 있다.In the present embodiment, the
우선, 소정의 검지 타이밍에 도달했을 때, 온도 정보 취득부(30)는, 검지 타이밍 Ti를 취득한다(S101). 그리고 취득한 타이밍 Ti에 관련되어진 온도 정보(d1)를, 온도 센서 칩(6)으로부터 취득한다(S102). 좌표 배치부(31)는, 취득된 온도 정보(d1)에 포함되는 센서마다의 온도를, 각 센서의 배치와 대응하는 XY 좌표계에 플롯한다(S103). 그리고 좌표 배치부(31)는, S103와 같이 하여 생성한 데이터를, 취득한 타이밍 Ti에 관련지어 일시 기억부(8)에 저장한다(S104).First, when the predetermined detection timing has been reached, the temperature
변화량 산출부(32)는, 임계값(예를 들어, 33℃)과, XY 좌표계의 각 좌표 위치에 플롯된 온도를 비교하여, 33℃ 이상을 검지한 센서가 2개 이상 있는지 여부를 판정한다(S105). 2개 이상 있는 경우(S105에 있어서 예), 변화량 산출부(32)는, 당해 타이밍 Ti에 있어서, 대상물(손)이 검지 범위에 존재하고, 타이밍 Ti의 시점은 사용자가 조작하고 있는 기간에 포함된다고 판단한다. 그리고 변화량 산출부(32)는, 각 좌표 위치의 온도의 변화량 ΔT를 각각 산출하고, 전체 좌표 위치의 변화량 ΔT를 합계하여 SUM을 산출한다(S106). 계속하여, 무게 중심 결정부(33)는, 변화량 ΔT 및 SUM에 기초하여, 손의 온도를 검지한 센서의 영역, 즉 변화 영역에 있어서의 무게 중심 G의 좌표(Gx, Gy)를 결정한다(S107).The change
무게 중심 결정부(33)는, 결정한 무게 중심을, S104에서 보존되어 있는 XY 좌표계에 플롯하고, 변화량 산출부(32)는, XY 좌표계에 변화량 ΔT 및 변화 영역을 플롯하는 동시에, SUM을 관련지어 일시 기억부(8)에 보존한다(S108).The center of
한편, 33℃ 이상을 검지한 센서가 2개 이상 없는 경우에는(S105에 있어서 아니오), 변화량 산출부(32)는, 당해 타이밍 Ti에 있어서, 대상물(손)이 검지 범위에 존재하고 있지 않고, 타이밍 Ti의 시점에서는 사용자는 입력 조작을 행하고 있지 않다고 판단한다. 그리고 S106 내지 S108의 처리를 생략한다.On the other hand, when there are no two or more sensors that detect 33 ° C. or more (NO in S105), the change
데이터 처리부(10)는, 제스처 인식을 행하는 소정 기간이 종료하고 있지 않으면, 즉, 처리되어 있지 않은 온도 정보(d1)가 센서부(2)로부터 공급되고 있으면(S109에 있어서 아니오), 타이밍 Ti의 i를 1개 증가시키고(S110), 그 다음 검지 타이밍에 있어서의 온도 정보(d1)에 관해, S102 내지 S108의 처리를 반복한다.If the predetermined time period for performing the gesture recognition is not finished, that is, if the unprocessed temperature information d1 is supplied from the sensor unit 2 (NO in S109), the
그리고 타이밍 Ti가 Tn에 도달하고, 공급된 모든 온도 정보(d1)에 대해 처리가 완료되면(S109에 있어서 예), 계속하여, 제스처 인식부(34)는, 일시 기억부(8)에 저장된 데이터에 기초하여, 검지된 손의 움직임에 대응하는 제스처를 인식한다(S111). 구체적으로는, 상기 소정 기간(T0 내지 Tn)에 있어서의 무게 중심 위치를 추적하여, 혹은, 변화 영역의 면적의 증감에 따라, 제스처 패턴 기억부(40)에 기억되어 있는 제스처 패턴 중에서, 합치하는 제스처를 특정한다.When the timing T i reaches T n and the processing is completed for all of the supplied temperature information d1 (YES in S109), the
제스처 인식부(34)는, 특정한 제스처를 나타내는 제스처 ID를, 인식 결과(d2)로서 통신 제어부(11)에 출력한다(S112).The
제스처 인식부(34)가 S111에 있어서 실행하는 제스처 인식 처리의 흐름을 도 14를 참조하면서 상세하게 설명하면 이하와 같다.The flow of gesture recognition processing executed by the
우선, 제스처 인식부(34)는, 검지 타이밍 Ti마다 결정된 무게 중심 좌표(Gx, Gy)에 기초하여, 손의 무게 중심의 이동 궤적을 취득한다(S201).First, the
여기서, 무게 중심의 이동 거리의 길이가 충분하면(S202에 있어서 예), 제스처 인식부(34)는, 손이 X축 방향 또는 Y축 방향으로 움직인 것으로 판단하고, 무게 중심의 이동 궤적 및 이동 방향을 특정한다(S203).Here, if the length of the movement distance of the center of gravity is sufficient (YES in S202), the
무게 중심의 이동 방향이, 좌우 방향(X축 방향)이면(S204에 있어서 1), 제스처 인식부(34)는, 이동 궤적에 기초하여, 손이 좌측으로부터 우측으로 이동한 것인지 여부를 판단한다(S205). 손이 좌측으로부터 우측으로 이동했다고 판단한 경우(S205에 있어서 예), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「00:좌측으로부터 우측으로 이동」이라고 인식한다(S206). 한편, 손이 우측으로부터 좌측으로 이동했다고 판단한 경우(S205에 있어서 아니오), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「01:우측으로부터 좌측으로 이동」이라고 인식한다(S207).If the movement direction of the center of gravity is the left-right direction (X-axis direction) (1 in S204), the
혹은, 무게 중심의 이동 방향이, 상하 방향(Y축 방향)이면(S204에 있어서 2), 제스처 인식부(34)는, 손이 상측으로부터 하측으로 이동한 것인지 여부를 판단한다(S208). 손이 상측으로부터 하측으로 이동했다고 판단한 경우(S208에 있어서 예), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「10:상측으로부터 하측으로 이동」이라고 인식한다(S209). 한편, 손이 하측으로부터 상측으로 이동했다고 판단한 경우(S208에 있어서 아니오), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「11:하측으로부터 상측으로 이동」이라고 인식한다(S210).Or if the movement direction of a center of gravity is an up-down direction (Y-axis direction) (2 in S204), the
혹은, 무게 중심의 이동 궤적이 원을 그리는 것 같이 회전하고 있는 경우에는(S204에 있어서 3), 제스처 인식부(34)는, 손이 시계 방향으로 이동한 것인지 여부를 판단한다(S211). 손이 시계 방향으로 이동했다고 판단한 경우(S211에 있어서 예), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「30:시계 방향으로 이동」이라고 인식한다(S212). 한편, 손이 반시계 방향으로 이동했다고 판단한 경우(S211에 있어서 아니오), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「31:반시계 방향으로 이동」이라고 인식한다(S213).Alternatively, when the movement trajectory of the center of gravity is rotating as if drawing a circle (3 in S204), the
한편, S202에 있어서, 무게 중심의 이동 거리의 길이가 충분하지 않으면(S202에 있어서 아니오), 제스처 인식부(34)는, 손이 X축 방향으로도, Y축 방향으로도 움직이지 않았다고 판단한다. 그리고 Z축 방향으로 움직인 것인지 여부를 판단하기 위한 처리로 이행한다. 즉, 제스처 인식부(34)는, 검지 타이밍 Ti마다, 변화량 산출부(32)에 의해 특정된 변화 영역의 면적(센서의 수)을 취득한다(S214).On the other hand, in S202, if the length of the movement distance of the center of gravity is not sufficient (NO in S202), the
제스처 인식부(34)는, 시간의 경과에 따라, 변화 영역의 면적이 증가 경향에 있는지 여부를 판단한다(S215). 면적이 증가 경향에 있는 경우(S215에 있어서 예), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「20:손을 가까이한다」라고 인식한다(S216). 한편, 면적이 감소 경향에 있는 경우(S215에 있어서 아니오), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「21:손을 멀리한다」라고 인식한다(S217).The
또한, 도 14에 나타내는 예에서는, 무게 중심의 이동도, 면적의 증감도 없는 케이스에 대해 설명하고 있지 않지만, 이와 같은 케이스는, 제스처 인식 장치(1)가 대상물을 오류 인식했든지, 혹은, 대상물의 움직임이 충분하지 않아, 제스처 인식 장치(1)가 대상물이 정지하고 있는 것처럼 인식해버렸을 때에 일어날 수 있다. 따라서, 이와 같은 케이스에서는, 제스처 인식 장치(1)는, 스마트 폰(100)을 통하여, 기준값이나 임계값을 변경하도록 사용자에 촉구하는 메시지를 표시하거나, 제스처 인식에 실패한 뜻을 나타내는 에러 표시를 행하거나, 제스처의 재입력을 촉진시키는 메시지를 표시하거나 하는 것이 바람직하다.In addition, although the case shown in FIG. 14 does not explain the case where neither the movement of the center of gravity nor the increase or decrease of the area is described, such a case is determined by the
이상, 지금까지 서술한 바와 같이, 본 발명의 제스처 인식 장치(1)는, 대상물의 온도를 검지하는 센서부(2)와, 상술한 일련의 제스처 인식 처리를 실행하는 데이터 처리부(10)를 구비함으로써, 스마트 폰(100)의 비접촉형 입력 장치를 실현할 수 있다.As mentioned above, the
상기 구성 및 방법에 따르면, 제스처 인식 장치(1)에 있어서, 대상물의 움직임을 검지하기 위한 정보는, 복수 배치된 적외선 센서로부터 온도 정보로서 취득된다. 그리고 데이터 처리부(10)는, 데이터량이 방대한 화상 데이터를 취급하지 않더라도, 온도 정보만으로 대상물의 움직임을 분석할 수 있고, 제스처를 인식하는 것이 가능해진다. 결과적으로, 입력 장치로서의 제스처 인식 장치(1)에 있어서, 처리 효율의 향상과, 처리 부하의 저감을 실현할 수 있다. 즉, 반응 속도가 빠른 입력 장치를 실현하는 것이 가능하다.According to the above configuration and method, in the
또한, 본 발명의 제스처 인식 장치(1)는, 적외선 센서를 사용하여 대상물의 표면 온도를 취득함으로써, 대상물의 온도와 주위의 환경 온도의 차이에 의해, 대상물의 움직임을 검지하는 것이다. 따라서, 광학계 카메라로 대상물을 촬상하여 제스처를 인식하는 구성에서는, 어두운 곳에서의 사용이 제한되지만, 본 발명의 제스처 인식 장치(1)는, 어두운 곳에서도 제한 없이 입력 장치로서 기능시키는 것이 가능하다.Moreover, the
또한, 광학계 카메라를 사용한 제스처 인식에서는, 대상물과 배경의 텍스처에 큰 차가 없는 경우에, 정확하게 대상물의 위치, 형상 등을 인식할 수 없고, 제스처의 오류 인식이 증가한다고 하는 문제가 있다. 한편, 본 발명의 제스처 인식 장치(1)는, 주위 환경 온도와 다른 표면 온도를 갖는 대상물(손 등)을, 온도 정보에 기초하여 검지하므로, 텍스처의 유사에 의한 오류 인식의 문제는 일어날 수 없다.In addition, in gesture recognition using an optical camera, when there is no large difference between the texture of the object and the background, there is a problem that the position, shape, etc. of the object cannot be accurately recognized, and error recognition of the gesture increases. On the other hand, since the
본 발명의 제스처 인식 장치(1)를, 프로젝터 기능을 갖는 전자 기기의 입력 장치로서 사용하면, 본 발명의 제스처 인식 장치(1)의 이점을 최대한으로 누릴 수 있다.When the
예를 들어, 전자 기기의 프로젝터 기능을 사용하여, 전자 기기에 기억되어 있는 사진 등의 슬라이드를, 이격된 곳에 있는 스크린에 영사하여 프리젠테이션을 행한다고 하는 유즈 케이스(use case)가 상정된다. 프로젝터 기능은, 일반적으로, 옥내를 어둡게 하여 이용되기 때문에, 종래의 광학계 카메라를 사용한 제스처 인식의 입력 장치를, 프리젠테이션 중에 기능시키는 것은 곤란했다. 그러나, 본 발명의 제스처 인식 장치(1)에 따르면, 어두운 곳에서도 비접촉형 입력 장치로서 기능시키는 것이 가능하기 때문에, 전자 기기로부터 이격된 위치에서 프레젠데이션을 행하는 사용자도, 전자 기기에 접촉하는 일 없이, 슬라이드의 조작을 용이하게 행하는 것이 가능하다.For example, a use case is assumed that uses a projector function of an electronic device to project a slide such as a photo stored in the electronic device onto a screen located at a spaced distance to give a presentation. Since the projector function is generally used by darkening the indoors, it has been difficult to make an input device for gesture recognition using a conventional optical system camera function during a presentation. However, according to the
〔변형예〕 [Variation example]
상술한 실시 형태에서는, 제스처 인식 장치(1)는, 온도 센서 칩(6)의 전체면(모든 적외선 센서)으로부터 취득된 온도 정보를 처리하여, 제스처를 인식하고 있었다. 본 발명의 제스처 인식 장치(1)는, 이 구성에 한하지 않고, 온도 센서 칩(6)에 배치되어 있는 적외선 센서로부터의 온도 정보를 부분적으로 사용하여 제스처 인식을 행해도 된다.In the above-mentioned embodiment, the
적외선 센서를 선택적으로 사용하는 구성으로 하면, 처리해야 할 정보량을 줄여서 처리 속도를 빠르게 할 수 있는 동시에, 특정한 제스처를 인식할 경우에, 그 인식의 정밀도를 향상시키는 것이 가능하다.When the infrared sensor is selectively used, the processing speed can be reduced by reducing the amount of information to be processed, and the recognition accuracy can be improved when a specific gesture is recognized.
스마트 폰(100)은, 다기능이고, 여러 가지 어플리케이션을 실행하도록 구성되어 있으며, 그 어플리케이션에 대한 지시 입력 형식은, 어플리케이션에 의해 다양하다. 예를 들어, 서적 열람 어플리케이션이나, 슬라이드 쇼 표시 어플리케이션이면, 페이지를 넘기기 위해 좌우 방향의 움직임을 수반하는 지시 입력이 행해질 것이고, 웹 열람 어플리케이션이면, 화면을 스크롤시키기 위해, 상하 방향의 움직임을 수반하는 지시 입력이 행해질 것이다. 또한, 음악 재생 어플리케이션에 있어서는, 볼륨의 조절을 위해, 다이얼을 다단계적으로 돌리는 움직임의 입력이 행해진다고 상정된다.The
따라서, 본 발명의 제스처 인식 장치(1)는, 스마트 폰(100)이 어떤 어플리케이션을 기동 중인 것인지에 기초하여, 인식해야 할 제스처를 한정하고, 그 한정된 제스처의 인식에 적합한 제스처 인식 처리를 효율적으로 실행할 수 있다. 그를 위한 구성으로서, 제스처 인식 장치(1)는 이하를 구비하고 있다.Therefore, the
즉, 도 1에 나타내는 바와 같이, 본 변형예에 있어서의 제스처 인식 장치(1)의 데이터 처리부(10)는, 상술한 구성에 더하여, 또한, 마스크 선택부(35)를 구비하고 있다.That is, as shown in FIG. 1, the
마스크 선택부(35)는, 스마트 폰(100) 본체가 기동 중의 어플리케이션의 종류에 따라, 인식해야 할 제스처의 종류를 한정하고, 그 한정된 제스처의 인식에 적합한 마스크를 선택하는 것이다.The
본 발명에 있어서의 마스크라 함은, 온도 센서 칩(6)에 배치된 적외선 센서 중, 어느 적외선 센서로부터의 온도를 제스처 인식 처리에 이용할 것인지, 혹은 이용하지 않을 것인지를 나타내는 패턴 정보이다.The mask in this invention is pattern information which shows which infrared sensor among the infrared sensors arrange | positioned at the
마스크는, 어떤 제스처를 인식하고 싶은 것인지에 따라, 그 제스처를 효율적으로 또한 고정밀도로 인식할 수 있도록, 미리 설계되어, 복수 종류 준비되어 있다. 본 변형예에서는, 도 1에 나타내는 바와 같이, 제스처 인식 장치(1)의 기억부(4)는, 마스크 기억부(41)를 구비한다. 마스크 기억부(41)는, 복수 종류의 마스크를 기억하고 있고, 어플리케이션마다 참조해야 할 마스크가 대응시켜져 있다.Masks are designed in advance and are prepared in plural kinds so that the gestures can be recognized efficiently and with high accuracy depending on which gestures are desired to be recognized. In this modification, as shown in FIG. 1, the memory |
도 15는, 마스크의 구체예를 나타내는 도면이다.15 is a diagram illustrating a specific example of a mask.
도 15에 나타내는 씬(50)과 같이, 손을 좌우 방향으로 움직이는 제스처로 특화하면, 온도 센서 칩(6)에 있어서의 적외선 센서 배치면 중, 좌측 단부와 우측 단부의 센서로 타이밍 좋게 손을 검지할 수 있으면 제스처를 효율적으로 정확하게 인식할 수 있다. 따라서, 좌우의 움직임을 인식하기 위한「좌우 검출용 마스크」는, 배치면의 좌측 단부의 열 및 우측 단부의 열을 유효로 하고, 중앙의 열을 무효로 하도록 설계되어 있다.As shown in the
도 15에 나타내는 마스크에 있어서, 사선의 영역이 유효, 백지의 영역이 무효를 나타내고 있다. 도 4에 나타내는 4×4의 배치를 예로 들어 구체적으로 설명하면,「좌우 검출용 마스크」는, 0, 4, 8, 12번지 및 3, 7, 11, 15번지의 적외선 센서로부터의 온도 정보만을 이용하도록 설계되어 있다.In the mask shown in FIG. 15, the diagonal line area is valid and the blank area is invalid. Specifically, the arrangement of 4x4 shown in FIG. 4 will be described as an example. The "left and right detection mask" includes only temperature information from infrared sensors at
씬(51)과 같이, 손을 상하 방향으로 움직이는 제스처로 특화하면, 상기 배치면 중, 상단부와 하단부의 센서로 타이밍 좋게 손을 검지할 수 있으면 제스처를 효율적으로 정확하게 인식할 수 있다. 따라서, 상하의 움직임을 인식하기 위한「상하 검출용 마스크」는, 배치면의 상단부의 행 및 하단부의 행을 유효로 하고, 중앙의 행을 무효로 하도록 설계되어 있다.When the hand is specialized in a gesture of moving the hand in the up and down direction as in the
도 15에 나타내는 바와 같이,「상하 검출용 마스크」는, 예를 들어, 0 내지 3번지 및 12 내지 15번지의 적외선 센서로부터의 온도 정보만을 이용하도록 설계되어 있다.As shown in FIG. 15, the "up and down detection mask" is designed so that only the temperature information from the infrared sensor of 0-3 and 12-15 may be used, for example.
씬(52)과 같이, 손을 돌리는 움직임의 제스처로 특화하면, 상기 배치면 중, 외측의 센서로 손을 검지하면, 회전의 제스처를 효율적으로 정확하게 인식할 수 있다. 따라서, 회전을 인식하기 위한「회전 검출용 마스크」는, 예를 들어, 0 내지 4, 7, 8, 11 내지 15번지의 적외선 센서로부터의 온도 정보만을 이용하도록 설계되어 있다.Specializing in the gesture of the hand turning like the
이와 같이, 씬(검출하고 싶은 손의 움직임)에 따른 마스크가, 마스크 기억부(41)에 복수 종류 기억되어 있다. 도 16은, 마스크 기억부(41)에 기억되어 있는 마스크의 데이터 구조의 일례를 나타내는 도면이다.In this way, a plurality of types of masks according to the scene (movement of a hand to be detected) are stored in the
도 16에 나타내는 바와 같이, 마스크 기억부(41)에는, 복수 종류의 마스크가 기억되어 있는 동시에, 어플리케이션마다 참조해야 할 마스크의 대응짓기가 기억되어 있다.As shown in FIG. 16, the mask memory |
이에 의해, 마스크 선택부(35)는, 스마트 폰(100)이 기동 중의 어플리케이션에 따라, 항상, 최적인 마스크를 선택할 수 있다. 보다 상세하게는, 마스크 선택부(35)는, 커넥터부(5) 및 통신 제어부(11)를 통하여, 스마트 폰(100)의 주제어부로부터, 스마트 폰(100) 본체가 현재 어느 어플리케이션을 기동 중인지를 나타내는 상태 정보(d3)를 취득한다(도 1을 참조). 마스크 선택부(35)는, 상태 정보(d3)에 기초하여 기동 중의 어플리케이션을 특정한다. 그리고 마스크 선택부(35)는, 마스크 기억부(41)를 참조하여, 특정한 어플리케이션에 대응하는 마스크를 선택한다.Thereby, the
어플리케이션이 특정되면, 그 어플리케이션에서는, 어떤 움직임이 제스처로서 입력되는 것인지가 한정된다. 예를 들어, 웹 열람 어플리케이션에서는, 상하 방향의 움직임이 입력되고, 서적 열람 어플리케이션에서는, 좌우 방향의 움직임이 입력되고, 음악 재생 어플리케이션에서는, 회전의 움직임이 입력된다.Once an application is specified, the application is limited in what movements are input as gestures. For example, in the web browsing application, the movement in the up and down direction is input, in the book browsing application, the movement in the left and right directions is input, and in the music reproduction application, the rotation movement is input.
예를 들어, 도 16에 나타내는 예에서는, TV 어플리케이션(TV_Channel)에는, 좌우 검출용 마스크가 대응시켜져 있다. 즉, 마스크 선택부(35)는, 스마트 폰(100)이 TV 어플리케이션을 기동 중이라고 판단한 경우에, 도 15에 나타내는 좌우 검출용 마스크를 선택한다.For example, in the example shown in FIG. 16, the mask for right and left detection is associated with the TV application (TV_Channel). That is, the
마스크 선택부(35)가 좌우 검출용 마스크를 선택하면, 데이터 처리부(10)의 각 부는, 좌우 방향의 움직임을 효율적으로 또한 정확하게 인식할 수 있게 된다. 구체적으로는, 온도 정보 취득부(30)는, 유효한 영역의 적외선 센서로부터만 온도를 취득하고, 이후의 각 부도 각각의 처리를, 유효한 영역에 저장된 온도에 대해서만 실행한다.When the
TV 어플리케이션의 이용중, 사용자는 채널 변경을 위해 오로지 좌우 방향의 제스처를 입력하기 때문에, 좌우 방향의 움직임을 효율적으로 또한 정확하게 인식할 수 있게 하면, 스마트 폰(100)의 조작성을 향상시키는 것이 가능해진다.During the use of the TV application, the user inputs only the left and right gestures for changing the channel, so that the operability of the
또한, 어플리케이션과 마스크의 대응짓기에 관해, 도 16에 나타내는 예는 발명을 설명하기 위한 일례이며, 발명의 구성을 한정하는 의도는 없다. 어플리케이션에 대해서는 그 어플리케이션에 필요한 제스처를 고려하여, 미리 최적인 마스크와의 대응짓기를 행해 둔다.In addition, the example shown in FIG. 16 regarding an association of an application and a mask is an example for demonstrating invention, and there is no intention to limit the structure of invention. For the application, the gesture necessary for the application is taken into consideration, and an association with the optimum mask is performed in advance.
이상과 같이, 마스크 선택부(35)가 선택하는 마스크는 상술한 각 움직임에 특화하고, 이를 효율적으로 또한 고정밀도로 제스처 인식하기 위해 설계된 마스크이다. 따라서, 어플리케이션마다 적합한 마스크를 선택함으로써, 그 어플리케이션에 대하여 입력되는 조작 제스처를 효율적으로 또한 고정밀도로 인식하는 것이 가능해진다.As described above, the mask selected by the
또한, 마스크 선택부(35)는, 선택한 마스크에 기초하여, 유효한 센서의 번지를 특정하고, 유효한 번지의 센서로부터만 적외선 신호를 취득하도록 신호 처리부(7)의 신호 선택부(13)에 지시하는 구성이어도 된다. 혹은, 마스크 선택부(35)는, 유효한 번지의 센서로부터의 온도만을 처리하도록, 데이터 처리부(10)의 각 부에 지시하는 구성이어도 된다.In addition, the
≪제2 실시 형태≫ `` Second embodiment ''
상술한 실시 형태에서는, 온도 센서 칩(6)을 4×4의 적외선 센서를 배치한 구성으로 한 경우에, 거기에서 얻어진 4×4의 온도 정보를 처리하여 제스처를 인식하는 제스처 인식 장치(1)의 구성에 대해 설명했다.In the above-described embodiment, when the
그러나, 본 발명의 제스처 인식 장치(1)의 구성은, 상기에 한정되지 않는다. 온도 센서 칩(6)의 적외선 센서의 배치는, 어떻게라도 구성할 수 있다. 예를 들어, 정사각형에 한하지 않고 직사각형이나 원형 형상으로 적외선 센서를 배치하는 것도 가능하다. 또한, 배치하는 적외선 센서의 수를 늘려 온도 센서 칩(6)을 고해상도로 하여도 된다. 이 구성에 따르면, 온도 정보를 사용하는 것만으로, 복수의 대상물(예를 들어, 양손의 동작)을 검지하거나, 대상물의 위치뿐만 아니라 형상을 정밀하게 검지하거나 할 수 있다. 이로 인해, 화상 처리 기술과 같이 연산량이 방대해지지 않고, 보다 다양한 제스처를 식별하는 것이 가능해지고, 전자 기기에 대하여 복잡한 조작 입력을 행하는 것이 가능해진다.However, the configuration of the
이하에서는, 온도 센서 칩(6)은, 8×8=64개의 적외선 센서가 배치되어 구성되어 있는 것으로 하고, 제스처 인식 장치(1)가, 64개의 센서의 온도를 처리하여 양손에 의한 제스처를 인식할 경우의 제스처 인식 장치(1)의 구성 및 제스처 인식 방법에 대해 설명한다. 또한, 설명의 편의상, 상술한 제1 실시 형태에서 설명한 도면과 같은 기능을 갖는 부재에 대해서는, 동일한 부호를 부기하고, 그 설명을 생략한다.In the following description, the
〔제스처 인식 장치의 구성〕[Configuration of Gesture Recognition Device]
본 실시 형태에 있어서의 제스처 인식 장치(1)에 있어서, 데이터 처리부(10)는, 도 1에 나타내는 바와 같이, 또한, 편차 산출부(36)를 구비하는 구성이다.In the
편차 산출부(36)는, 좌표 배치부(31), 변화량 산출부(32), 무게 중심 결정부(33)가 생성한 각종 정보에 기초하여, 변화 영역의 편차를 산출하는 것이다. 편차 산출부(36)는, 변화 영역의 X축 방향의 편차(σx2)와, Y축 방향의 편차(σy2)를 산출한다.The
우선, 제1 실시 형태에서 설명한 것과 마찬가지의 방법으로, 좌표 배치부(31)가, 8×8의 XY 좌표계에 온도 정보를 플롯한다. 도 17은, 좌표 배치부(31)가 각 센서로부터의 온도를 XY 좌표계에 플롯한 후의 온도 정보의 데이터 구조를 모식적으로 나타내는 도면이다.First, the coordinate arrangement | positioning
다음으로, 변화량 산출부(32)가, 검지 타이밍마다 얻어진 XY 좌표계의 온도 정보에 기초하여, 검지 타이밍마다의 변화 영역을 특정한다. 도 18은, 각 검지 타이밍에 있어서의, 양손의 위치 관계와, 당해 타이밍에 있어서 취득된 온도 정보 및 변화 영역의 관계를 나타태는 도면이다.Next, the change
양손이 서로 가까이 있는 타이밍 T1에 있어서는, XY 좌표계 T1에 나타내는 바와 같이, 변화 영역(망점의 영역)은 중앙에 모여 있다. 한편, 양손이 수평 방향으로 이격된 타이밍 T2에 있어서는, XY 좌표계 T2에 나타내는 바와 같이, 변화 영역은, 좌우 방향으로 흩어져 있다.In the timing T 1 where both hands are close to each other, as shown in the XY coordinate system T 1 , the change area (the area of the halftone point) is gathered at the center. On the other hand, in timing T 2 with both hands spaced apart in the horizontal direction, as shown in the XY coordinate system T 2 , the change area is scattered in the left and right directions.
계속하여, 변화량 산출부(32)는, 좌표 위치마다 변화량 ΔT를 구하고, 또한, SUM을 구한다. 무게 중심 결정부(33)는, 변화량 ΔT 및 SUM에 기초하여, 검지 타이밍마다 무게 중심 G의 좌표 위치(Gx, Gy)를 결정한다. 도 19는, 도 18에 나타내는 타이밍 T1, T2의 타이밍에 있어서, 변화량 산출부(32)에 의해 생성된 정보와, 무게 중심 결정부(33)에 의해 생성된 정보와, 편차 산출부(36)에 의해 생성된 정보의 구체예를 나타내는 도면이다.Subsequently, the change
도 19에 나타내는 바와 같이, 각 좌표 위치의 변화량 ΔT(X, Y)와, 변화량의 합계 SUM과, 변화 영역의 무게 중심 G의 좌표 위치(Gx, Gy)가 구해지면, 이들의 값에 기초하여, 편차 산출부(36)는, 변화 영역의 편차를 산출한다. 구체적으로는, 편차 산출부(36)는, 변화 영역의 X축 방향의 편차(σx2)와, Y축 방향의 편차(σy2)를, 각각, 다음 식에 기초하여 산출한다. 다음 식이라 함은, 즉, As shown in FIG. 19, when the change amount (DELTA) T (X, Y) of each coordinate position, the sum SUM of the change amount, and the coordinate position (Gx, Gy) of the center of gravity G of a change area | region are calculated | required, based on these values The
및, And,
이다.to be.
도 19에 나타내는 예에서는, 상술한 식에 따라서, 편차 산출부(36)는, 타이밍 T1에 있어서의 X축 방향의 편차(σx2)를 2.394, Y축 방향의 편차(σy2)를 1.222로 산출한다. 또한, 타이밍 T2에 있어서의 편차(σx2)를 6.125, 편차(σy2)를 1.018로 산출한다.In the example shown in FIG. 19, according to the above-described equation, the
마지막으로, 제스처 인식부(34)는, 편차 산출부(36)가 산출한 검지 타이밍마다의 편차의 추이와, 변화 영역의 면적의 추이에 기초하여, 양손의 제스처를 인식한다. 제1 실시 형태와 마찬가지로, 양손의 제스처 패턴도, 제스처 패턴 기억부(40)에 기억되어 있다.Finally, the
도 20은, 본 실시 형태에 있어서의 제스처 패턴 기억부(40)에 기억되어 있는 제스처 패턴의 일례를 나타내는 도면이다.20 is a diagram illustrating an example of a gesture pattern stored in the gesture
도 20에 나타내는 바와 같이, 제스처 패턴 기억부(40)에는, 도 12에 나타내는 제스처 패턴에 더하여, 또한, 제스처 인식부(34)가 인식할 수 있는 몇 개의 양손의 제스처 패턴이 기억되어 있다. 양손을 사용하면, 사용자는, 양손의 거리를 바꿈(양손을 모으거나, 벌리거나 함)으로써, 여러 가지 종류의 제스처를 장치에 입력할 수 있다.As shown in FIG. 20, in addition to the gesture pattern shown in FIG. 12, the gesture pattern memory |
본 실시 형태에서는, 제스처 인식부(34)는, 편차 산출부(36)가 산출한 편차를 참조하여, 양손이 어느 방향으로 모아졌는지, 벌려졌는지를 식별할 수 있다.In the present embodiment, the
제스처 인식부(34)는, 구체적으로는, 도 19의 예에 있는 바와 같이, 시간의 경과에 수반하여, X축 방향의 편차의 값이 증가한 경우, 양손이 수평 방향으로 벌려졌다고 판단한다. 반대로, 편차의 값이 감소한 경우, 양손이 벌려진 상태로부터, 수평 방향으로 모아졌다고 판단한다. 마찬가지로, 시간의 경과에 수반하여, Y축 방향의 편차의 값이 증가한 경우, 양손이 수직 방향으로 벌려졌다고 판단한다. 반대로, 편차의 값이 감소한 경우, 양손이 세로로 벌려진 상태로부터, 수직 방향으로 모아졌다고 판단한다.Specifically, as shown in the example of FIG. 19, the
또한, 제스처 인식부(34)는, X축 방향의 편차와 Y축 방향의 편차가 함께 증가한 경우에는, 양손이 비스듬한 방향으로 벌려졌는지, 혹은, 양손 간의 거리는 그대로이고 양손이 Z축 방향에서 장치에 가까워진 가능성이 있다고 판단한다. 이 경우, 제스처 인식부(34)는 또한, 변화 영역의 면적이 증가했는지의 여부에 의해, 비스듬한 방향으로 벌려졌는지, 가까워졌는지를 판단한다.In addition, when the deviation in the X-axis direction and the deviation in the Y-axis direction increase together, the
또한, 제스처 인식부(34)는 X축 방향의 편차와 Y축 방향의 편차가 함께 감소한 경우에는, 양손이 비스듬한 방향으로 모아졌는지, 혹은, 양손 간의 거리는 그대로이고 양손이 Z축 방향에서 장치로부터 멀어진 가능성이 있다고 판단한다. 이 경우, 제스처 인식부(34)는 또한, 변화 영역의 면적이 감소했는지의 여부에 의해, 비스듬한 방향으로 모아졌는지, 멀어졌는지를 판단한다.In addition, when the deviation in the X-axis direction and the Y-axis direction decrease together, the
또한, 제스처 인식부(34)는 X축 방향의 편차와 Y축 방향의 편차가 함께 그다지 변화되지 않은 경우에는, 양손의 거리는 변경되지 않고, 또한, Z축 방향으로도 움직여지고 있지 않다고 판단한다. 따라서, 이 경우에는, 제1 실시 형태의 한 손의 제스처 인식 수순을 적용할 수 있으므로, 도 14에 나타내는 수순으로, 양손이 X축 방향 또는 Y축 방향으로 어떻게 움직인 것인지를 판단한다.In addition, when the deviation in the X-axis direction and the deviation in the Y-axis direction do not change so much together, the
〔제스처 인식 처리 흐름〕[Gesture recognition processing flow]
도 21은 본 실시 형태의 제스처 인식부(34)에 의해 실행되는 제스처 인식 처리의 흐름을 상세하게 나타내는 흐름도이다.21 is a flowchart showing in detail the flow of gesture recognition processing executed by the
우선, 도 13을 참조하면서, 본 실시 형태에 있어서의 데이터 처리부(10)의 각 부가 실행하는 제스처 인식 처리의 흐름을 설명하면, 제1 실시 형태와 다른 점은 S107에서, 또한, 편차 산출부(36)가 검지 타이밍마다 편차(σX2, σY2)를 구하는 점과, S108에서, 또한, 타이밍 Ti에 관련지어 편차(σX2, σY2)가 보존되는 점이다.First, referring to FIG. 13, the flow of gesture recognition processing performed by each part of the
본 실시 형태에 있어서의 S111의 제스처 인식 처리에 대해, 도 21을 참조하면서 설명한다.The gesture recognition process of S111 in this embodiment is demonstrated, referring FIG.
제스처 인식부(34)는 우선, 소정 기간(타이밍 T0 내지 Tn)의 타이밍 Ti마다, 편차(σX2, σY2)를 취득한다(S301). 그리고 편차의 값이 시간의 경과와 함께 어떻게 변화하는지(증가, 감소, 또는, 변화 없음)를 판단한다.A
제스처 인식부(34)는 편차(σX2)에 변화가 있는 경우(S302에 있어서 아니오), 편차(σX2)가 증가 경향에 있는지 감소 경향에 있는지를 판단한다(S303).A
제스처 인식부(34)는 편차(σX2)가 감소 경향에 있는 경우(S303에 있어서 아니오), 다음으로, 편차(σY2)가 감소 경향에 있는지 여부를 판단한다(S304).A
편차(σY2)가 감소 경향에 없는 경우, 즉, 편차(σY2)가 증가 경향에 있든지, 또는, 변화 없음의 경우에는(S304에 있어서 아니오), X축 방향의 움직임을 기준으로 하여, 상기 소정 기간에 검지된 움직임을「03:양손을 좌우 방향으로 모은다」제스처로서 인식한다(S305). 한편, 편차(σY2)가 감소 경향에 있는 경우, 즉, 편차(σX2, σY2)가 함께 감소 경향에 있는 경우에는(S304에 있어서 예), 제스처 인식부(34)는, 타이밍 Ti마다, 변화 영역의 면적을 취득한다(S306). 그리고 변화 영역의 면적이, 시간의 경과와 함께 감소 경향에 있는지 여부를 판단한다(S307). 면적이 감소 경향에 없는 경우, 즉, 면적에 변화가 없는 경우에는(S307에 있어서 아니오), 상기 소정 기간에 검지된 움직임을「43:양손을 비스듬한 방향으로 모은다」제스처로서 인식한다(S308). 한편, 면적이 감소 경향에 있는 경우(S307에 있어서 예), 상기 소정 기간에 검지된 움직임을「21:손을 멀리한다」제스처로서 인식한다(S309).When the deviation σY 2 does not tend to decrease, that is, when the deviation σ Y 2 tends to increase, or when there is no change (NO in S304), the movement in the X-axis direction is referred to. The movement detected in the predetermined period of time is recognized as a gesture of "03: Put both hands in left and right directions" (S305). On the other hand, the deviation if (σY 2) is in a decrease trend, that is, the deviation (σX 2, σY 2) a case where the tendency to decrease together (in S304 YES), the
한편, 제스처 인식부(34)는 편차(σX2)가 증가 경향에 있는 경우(S303에 있어서 예), 다음으로, 편차(σY2)가 증가 경향에 있는지 여부를 판단한다(S310).On the other hand, the
편차(σY2)가 증가 경향에 없는 경우, 즉, 편차(σY2)가 감소 경향에 있는 또는, 변화 없음의 경우에는(S310에 있어서 아니오), X축 방향의 움직임을 기준으로 하여, 상기 소정 기간에 검지된 움직임을「02:양손을 좌우 방향으로 벌린다」제스처로서 인식한다(S311). 한편, 편차(σY2)가 증가 경향에 있는 경우 즉, 편차(σX2, σY2)가 함께 증가 경향에 있는 경우에는(S310에 있어서 예), 제스처 인식부(34)는 타이밍 Ti마다 변화 영역의 면적을 취득한다(S312). 그리고 변화 영역의 면적이 시간의 경과와 함께 증가 경향에 있는지 여부를 판단한다(S313). 면적이 증가 경향에 없는 경우 즉, 면적에 변화가 없는 경우에는(S313에 있어서 아니오), 상기 소정 기간에 검지된 움직임을「42:양손을 비스듬한 방향으로 벌린다」제스처로서 인식한다(S314). 한편, 면적이 증가 경향에 있는 경우(S313에 있어서 예), 상기 소정 기간에 검지된 움직임을「20:손을 가까이한다」제스처로서 인식한다(S315).When the deviation σ Y 2 does not tend to increase, that is, when the deviation σ Y 2 tends to decrease or there is no change (NO in S310), the predetermined value is based on the movement in the X-axis direction. The movement detected in the period is recognized as a gesture of " 02: hands are spread in left and right directions " (S311). On the other hand, when the deviation σ Y 2 tends to increase, that is, when the deviations σ X 2 and σ Y 2 tend to increase together (YES in S310), the
한편, 제스처 인식부(34)는 S302에 있어서, 편차(σX2)에 증감이 인정되지 않는 경우에는(S302에 있어서 예), 다음으로, 편차(σY2)의 증감의 유무를 판단한다(S316).In the other hand, the
제스처 인식부(34)는 편차(σY2)에 변화가 없는 경우 즉, 편차(σX2, σY2)가 함께 증감이 없는 경우에는(S316에 있어서 예), 도 14에 나타내는 무게 중심의 궤적에 기초하는 제스처 인식 처리를 실행하여 제스처를 인식한다. 한편, 제스처 인식부(34)는 편차(σY2)에 변화가 있는 경우(S316에 있어서 아니오), 편차(σY2)가 증가 경향에 있는지 감소 경향에 있는지를 판단한다(S317).A
제스처 인식부(34)는 편차(σY2)가 감소 경향에 있는 경우(S317에 있어서 아니오), 상기 소정 기간에 검지된 움직임을「13:양손을 상하 방향으로 모은다」제스처로서 인식한다(S318). 한편, 편차(σY2)가 증가 경향에 있는 경우(S317에 있어서 예), 제스처 인식부(34)는 상기 소정 기간에 검지된 움직임을「12:양손을 상하 방향으로 벌린다」제스처로서 인식한다(S319).When the deviation sigma Y 2 tends to decrease (NO in S317), the
상기 구성 및 방법에 따르면, 제1 실시 형태와 비교하여, 보다 고해상도의 온도 정보(d1)를 취득함으로써, 복수의 대상물, 혹은, 대상물의 형상까지 인식하는 것이 가능해진다. 따라서, 화상 처리 기술과 같이 방대한 정보량을 취급하지 않아도, 더욱, 다종다양한 조작 입력을 행할 수 있는 입력 장치를 실현하는 것이 가능해진다.According to the said structure and method, compared with 1st Embodiment, by acquiring more high-resolution temperature information d1, it becomes possible to recognize even a some object or the shape of an object. Therefore, it is possible to realize an input device capable of performing various types of operation inputs without dealing with a huge amount of information as in image processing technology.
또한 상술한 실시 형태에서는, 제스처 인식 장치(1)가 양손의 개폐 제스처를 인식하는 구성에 대해 설명했지만, 본 발명의 제스처 인식 장치(1)의 구성은 이에 한정되지 않는다. 본 발명의 제스처 인식 장치(1)는, 상기 수순에 기초하여, 한 손의 손가락의 개폐 제스처를 인식할 수 있다.In addition, in the above-mentioned embodiment, although the structure which the
〔변형예 2〕 [Modification 2]
상술한 각 실시 형태에서는, 센서부(2)와 제스처 인식 장치(1)[스마트 폰 폰(100)]를 일체로 구성한 경우에 대해 설명했지만, 본 발명의 제스처 인식 장치(1)의 구성은 이에 한정되지 않는다.In each of the above-described embodiments, the case where the
예를 들어, 센서부(2)를 제스처 인식 장치(1)와는 달리 원격으로 설치하고, 적당한 통신 수단을 사용하여 센서부(2)의 검지 신호를 제스처 인식 장치(1)에 취득시키는 구성도 본 발명에 포함된다. 즉, 제스처 인식 장치(1)는, 센서부(2)를 구비하고 있지 않아도 되고, 이 경우에는, 센서부(2)로부터 검지 신호를 취득하는 적절한 통신 수단을 구비하고 있으면 된다.For example, unlike the
본 발명은 상술한 각 실시 형태에 한정되는 것이 아닌, 청구항에 나타낸 범위에서 다양한 변경이 가능하고, 다른 실시 형태에 각각 개시된 기술적 수단을 적절하게 조합하여 얻어지는 실시 형태에 대해서도 본 발명의 기술적 범위에 포함된다.The present invention is not limited to the above-described embodiments, but various modifications are possible within the scope shown in the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the other embodiments are also included in the technical scope of the present invention. do.
마지막으로, 제스처 인식 장치(1)의 각 블록 특히, 데이터 처리부(10)의 각 부는, 하드웨어 로직에 의해 구성해도 되고, 다음과 같이 CPU를 사용하여 소프트웨어에 의해 실현해도 된다.Finally, each block of the
즉, 제스처 인식 장치(1)는 각 기능을 실현하는 제어 프로그램의 명령을 실행하는 CPU(central processing unit), 상기 프로그램을 저장한 ROM(read only memory), 상기 프로그램을 전개하는 RAM(random access memory), 상기 프로그램 및 각종 데이터를 저장하는 메모리 등의 기억 장치(기록 매체) 등을 구비하고 있다. 그리고 본 발명의 목적은 상술한 기능을 실현하는 소프트웨어인 제스처 인식 장치(1)의 제어 프로그램의 프로그램 코드(실행 형식 프로그램, 중간 코드 프로그램, 소스 프로그램)를 컴퓨터로 판독 가능하게 기록한 기록 매체를, 상기 제스처 인식 장치(1)에 공급하고, 그 컴퓨터(또는 CPU나 MPU)가 기록 매체에 기록되어 있는 프로그램 코드를 판독하여 실행하는 것에 의해서도 달성 가능하다.That is, the
상기 기록 매체로서는 예를 들어, 자기 테이프나 카세트 테이프 등의 테이프계, 플로피(등록 상표) 디스크/하드 디스크 등의 자기 디스크나 CD-ROM/MO/MD/DVD/CD-R 등의 광 디스크를 포함하는 디스크계, IC 카드(메모리 카드를 포함함)/광 카드 등의 카드계, 혹은 마스크 ROM/EPROM/EEPROM/플래시 ROM 등의 반도체 메모리계 등을 사용할 수 있다.Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy disks / hard disks, and optical disks such as CD-ROM / MO / MD / DVD / CD-R. A disk system, a card system such as an IC card (including a memory card) / optical card, or a semiconductor memory system such as a mask ROM / EPROM / EEPROM / flash ROM can be used.
또한, 제스처 인식 장치(1)를 통신 네트워크와 접속 가능하게 구성하고, 상기 프로그램 코드를, 통신 네트워크를 통해 공급해도 된다. 이 통신 네트워크로서는, 특별히 한정되지 않고, 예를 들어, 인터넷, 인트라넷, 엑스트라넷, LAN, ISDN, VAN, CATV 통신망, 가상 전용망(virtual private network), 전화 회선망, 이동 통신망, 위성 통신망 등이 이용 가능하다. 또한, 통신 네트워크를 구성하는 전송 매체로서는, 특별히 한정되지 않고, 예를 들어, IEEE 1394, USB, 전력선 반송, 케이블 TV 회선, 전화선, ADSL 회선 등의 유선이어도, IrDA나 리모트 컨트롤러와 같은 적외선, Bluetooth(등록 상표), 802.11 무선, HDR, 휴대 전화망, 위성 회선, 지상파 디지털망 등의 무선이어도 이용 가능하다. 또한, 본 발명은, 상기 프로그램 코드가 전자적인 전송으로 구현화된, 반송파에 매립된 컴퓨터 데이터 신호의 형태에서도 실현될 수 있다.In addition, the
본 발명의 제스처 인식 장치는, 스마트 폰, 휴대 전화, PDA, 휴대형 게임기, 전자 사전, 전자 수첩, 디지털 카메라, 디지털 비디오 카메라, 퍼스널 컴퓨터, 노트북 컴퓨터, 텔레비전, 녹화 생성 장치, 가정용 게임기 등의 각종 전자 기기에 탑재할 수 있고, 이들 전자 기기의 입력 기능을 담당할 수 있다. 특히, 프로젝터 기능을 구비한 전자 기기의 입력 장치로서, 매우 효과적으로 사용하는 것이 가능하다.The gesture recognition apparatus of the present invention includes various electronic devices such as a smartphone, a mobile phone, a PDA, a portable game machine, an electronic dictionary, an electronic notebook, a digital camera, a digital video camera, a personal computer, a notebook computer, a television, a recording generating device, and a home game machine. It can be mounted in a device, and can play the input function of these electronic devices. In particular, as an input device of an electronic device with a projector function, it is possible to use very effectively.
1 : 제스처 인식 장치
2 : 센서부
3 : 입력 제어부
4 : 기억부
5 : 커넥터부
6 : 온도 센서 칩(온도 센서)
7 : 신호 처리부
8 : 일시 기억부
10 : 데이터 처리부
11 : 통신 제어부
12 : AD 변환부
13 : 신호 선택부
14 : 신호 증폭부
21 : 기판
22 : 중간 케이스
23 : 렌즈
24 : 외부 케이스
30 : 온도 정보 취득부
31 : 좌표 배치부
32 : 변화량 산출부(변화 영역 특정 수단/변화량 산출 수단)
33 : 무게 중심 결정부(무게 중심 결정 수단)
34 : 제스처 인식부(제스처 인식 수단)
35 : 마스크 선택부(마스크 선택 수단)
36 : 편차 산출부(편차 산출 수단)
40 : 제스처 패턴 기억부
41 : 마스크 기억부
42 : 기준값 기억부
100 : 스마트 폰1: Gesture recognition device
2: sensor
3: input control unit
4: Memory
5 connector
6: temperature sensor chip (temperature sensor)
7: signal processing unit
8: temporary storage
10: data processing unit
11: communication control unit
12: AD conversion unit
13: signal selector
14: signal amplifier
21: substrate
22: middle case
23: lens
24: outer case
30: temperature information acquisition unit
31: coordinate arrangement
32: change amount calculation unit (change area specifying means / change amount calculating means)
33: center of gravity determining unit (weight center determining unit)
34: gesture recognition unit (gesture recognition means)
35 mask selection unit (mask selection means)
36: deviation calculation part (deviation calculation means)
40: gesture pattern memory
41: mask memory
42: reference value storage unit
100: smart phone
Claims (8)
상기 온도 센서의 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 수단과,
상기 변화 영역 특정 수단이 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 수단을 구비하고 있는 것을 특징으로 하는, 제스처 인식 장치.A temperature sensor in which a plurality of infrared sensors are arranged,
Change region specifying means for specifying, as a region indicating a hand, a change region in which a temperature change has occurred based on a temperature detected by each of the infrared sensors of the temperature sensor;
And the gesture recognizing device is provided with gesture recognition means for recognizing a gesture of a hand by specifying the movement trajectory of the specific change area.
상기 제스처 인식 수단은, 상기 무게 중심의 위치를 추적함으로써 상기 이동 궤적을 특정하는 것을 특징으로 하는, 제스처 인식 장치.The apparatus according to claim 1, further comprising: center of gravity determining means for determining a center of gravity of the change region specified by said change region specifying means,
And the gesture recognizing means specifies the movement trajectory by tracking the position of the center of gravity.
상기 무게 중심 결정 수단은, 적외선 센서마다 얻어진 상기 온도 변화량에 기초하여, 상기 변화 영역의 무게 중심을 결정하는 것을 특징으로 하는, 제스처 인식 장치.The apparatus according to claim 2, further comprising change amount calculating means for calculating a temperature change amount for each infrared sensor by comparing respective temperatures detected by each infrared sensor with a predetermined reference temperature,
And the center of gravity determining means determines the center of gravity of the change area based on the temperature change amount obtained for each infrared sensor.
상기 전자 기기가 기동 중의 어플리케이션에 관련되어 있는 마스크를 상기 마스크 기억부로부터 선택하는 마스크 선택 수단을 구비하고,
상기 변화 영역 특정 수단은,
상기 마스크 선택 수단에 의해 선택된 마스크가 유효로 하는 적외선 센서에 의해 검지된 온도만에 기초하여 변화 영역을 특정하는 것을 특징으로 하는, 제스처 인식 장치.The mask memory according to any one of claims 1 to 3, wherein the mask memory, which stores a mask indicating an invalid invalid placement pattern in the plurality of infrared sensors, is stored in association with the type of application of an electronic device to which the device itself is connected. Wealth,
Mask selection means for selecting from the mask storage section a mask associated with an application during which the electronic device is starting up,
The change area specifying means,
And the change region is specified based only on the temperature detected by the infrared sensor which the mask selected by the mask selecting means is valid.
상기 제스처 인식 수단은, 시간의 경과에 수반하는 상기 편차의 증감에 기초하여, 제스처를 인식하는 것을 특징으로 하는, 제스처 인식 장치.The apparatus according to any one of claims 1 to 3, further comprising deviation calculation means for calculating a deviation of the change region specified by the change region specifying means,
And the gesture recognizing means recognizes the gesture on the basis of the increase and decrease of the deviation with the passage of time.
상기 변화 영역의 편차가 증가할 경우에, 양손 또는 손가락이 벌어지는 방향으로 움직였다고 인식하고, 상기 변화 영역의 편차가 감소할 경우에, 양손 또는 손가락이 모아지는 방향으로 움직였다고 인식하는 것을 특징으로 하는, 제스처 인식 장치.The method of claim 5, wherein the gesture recognition means,
When the deviation of the change area is increased, it is recognized that both hands or fingers moved in the direction of spreading, and when the deviation of the change area is reduced, it is recognized that the movement in the direction in which both hands or fingers are collected. , Gesture recognition device.
상기 온도 취득 스텝에서 취득한, 상기 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 스텝과,
상기 변화 영역 특정 스텝에서 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 스텝을 포함하는 것을 특징으로 하는, 제스처 인식 방법.A temperature acquisition step of acquiring a temperature for each infrared sensor from a temperature sensor in which a plurality of infrared sensors are arranged;
A change region specifying step of specifying a change region in which a temperature change has occurred, as a region indicating a hand, based on the temperature detected by each of the infrared sensors acquired in the temperature obtaining step;
And a gesture recognition step of recognizing a gesture of a hand by specifying a movement trajectory of a specific change area in the change area specifying step.
The computer-readable recording medium which recorded the control program for making a computer function as each means of the gesture recognition apparatus in any one of Claims 1-3.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010273691A JP5617581B2 (en) | 2010-12-08 | 2010-12-08 | Gesture recognition device, gesture recognition method, control program, and recording medium |
JPJP-P-2010-273691 | 2010-12-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120089992A true KR20120089992A (en) | 2012-08-16 |
KR101302910B1 KR101302910B1 (en) | 2013-09-06 |
Family
ID=45442819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110118799A KR101302910B1 (en) | 2010-12-08 | 2011-11-15 | Gesture recognition device, gesture recognition method, computer readable recording medium recording control program |
Country Status (5)
Country | Link |
---|---|
US (1) | US20120146903A1 (en) |
EP (1) | EP2463751A3 (en) |
JP (1) | JP5617581B2 (en) |
KR (1) | KR101302910B1 (en) |
CN (1) | CN102591452B (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101370263B1 (en) * | 2013-03-15 | 2014-03-04 | 전자부품연구원 | Method for provide gesture-based remote control for electronic devices, and computer-readable recording medium for the same |
KR20170008720A (en) * | 2014-02-17 | 2017-01-24 | 메타이오 게엠베하 | Method and device for detecting a touch between a first object and a second object |
KR20170035240A (en) * | 2015-09-22 | 2017-03-30 | 삼성전자주식회사 | Method for performing image process and electronic device thereof |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009128064A2 (en) * | 2008-04-14 | 2009-10-22 | Pointgrab Ltd. | Vision based pointing device emulation |
JP2013080413A (en) * | 2011-10-05 | 2013-05-02 | Sony Corp | Input apparatus and input recognition method |
US9587804B2 (en) | 2012-05-07 | 2017-03-07 | Chia Ming Chen | Light control systems and methods |
US8938124B2 (en) | 2012-05-10 | 2015-01-20 | Pointgrab Ltd. | Computer vision based tracking of a hand |
CN103513782A (en) * | 2012-06-20 | 2014-01-15 | 鸿富锦精密工业(深圳)有限公司 | Mouse |
DE102012107739B4 (en) | 2012-08-22 | 2023-11-02 | Avago Technologies International Sales Pte. Ltd. | Sensor system for detecting movement of an infrared light source |
JP6019947B2 (en) * | 2012-08-31 | 2016-11-02 | オムロン株式会社 | Gesture recognition device, control method thereof, display device, and control program |
US20140340498A1 (en) * | 2012-12-20 | 2014-11-20 | Google Inc. | Using distance between objects in touchless gestural interfaces |
TWI536259B (en) * | 2012-12-28 | 2016-06-01 | 緯創資通股份有限公司 | Gesture recognition module and gesture recognition method |
TWI512544B (en) * | 2013-01-07 | 2015-12-11 | Eminent Electronic Technology Corp Ltd | Control method for electronic apparatus |
US9300645B1 (en) * | 2013-03-14 | 2016-03-29 | Ip Holdings, Inc. | Mobile IO input and output for smartphones, tablet, and wireless devices including touch screen, voice, pen, and gestures |
DE102014106680B4 (en) | 2013-05-24 | 2023-11-16 | Avago Technologies International Sales Pte. Ltd. | Switch operating device, mobile device and method for operating a switch by a non-tactile "push" gesture |
CN103279191B (en) * | 2013-06-18 | 2016-01-06 | 北京科技大学 | A kind of 3D virtual interacting method based on Gesture Recognition and system |
WO2014210502A1 (en) * | 2013-06-28 | 2014-12-31 | Chia Ming Chen | Controlling device operation according to hand gestures |
US9717118B2 (en) | 2013-07-16 | 2017-07-25 | Chia Ming Chen | Light control systems and methods |
US9477314B2 (en) | 2013-07-16 | 2016-10-25 | Google Technology Holdings LLC | Method and apparatus for selecting between multiple gesture recognition systems |
KR20150028619A (en) * | 2013-09-06 | 2015-03-16 | 현대자동차주식회사 | Misrecognition reducing type motion recognition apparatus and method thereof |
WO2015034453A1 (en) * | 2013-09-06 | 2015-03-12 | Latypov Ray | Providing a wide angle view image |
CN103472752B (en) * | 2013-09-17 | 2015-10-28 | 于金田 | A kind of infrared many gears gesture identification switch and gesture identification method |
CN105027031A (en) * | 2013-12-19 | 2015-11-04 | 谷歌公司 | Using distance between objects in touchless gestural interfaces |
JP6222830B2 (en) * | 2013-12-27 | 2017-11-01 | マクセルホールディングス株式会社 | Image projection device |
US9430046B2 (en) * | 2014-01-16 | 2016-08-30 | Denso International America, Inc. | Gesture based image capturing system for vehicle |
US9600993B2 (en) * | 2014-01-27 | 2017-03-21 | Atlas5D, Inc. | Method and system for behavior detection |
GB2524247B (en) * | 2014-03-17 | 2021-04-21 | Sony Interactive Entertainment Europe Ltd | Control of data processing |
US10406967B2 (en) | 2014-04-29 | 2019-09-10 | Chia Ming Chen | Light control systems and methods |
US9639167B2 (en) | 2014-05-30 | 2017-05-02 | Eminent Electronic Technology Corp. Ltd. | Control method of electronic apparatus having non-contact gesture sensitive region |
CN106462252B (en) | 2014-06-30 | 2019-05-21 | 歌乐株式会社 | Touchless manipulation detection device |
US9990043B2 (en) * | 2014-07-09 | 2018-06-05 | Atheer Labs, Inc. | Gesture recognition systems and devices for low and no light conditions |
JP5682899B1 (en) * | 2014-08-04 | 2015-03-11 | 求 藤川 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, ADJUSTING DEVICE, ADJUSTING DEVICE CONTROL METHOD, SETTING DEVICE, SETTING DEVICE CONTROL METHOD, DEVICE PROGRAM |
CN105571045A (en) * | 2014-10-10 | 2016-05-11 | 青岛海尔空调电子有限公司 | Somatosensory identification method, apparatus and air conditioner controller |
CN104392204B (en) * | 2014-10-21 | 2018-03-09 | 北京智谷睿拓技术服务有限公司 | Gesture recognition method and gesture recognition device |
CN104460987B (en) * | 2014-11-07 | 2019-05-28 | 惠州Tcl移动通信有限公司 | The electronic equipment that can be manipulated by Non-contact gesture |
DE102014116292A1 (en) * | 2014-11-07 | 2016-05-12 | Visteon Global Technologies, Inc. | System for transmitting information in a motor vehicle |
KR101608906B1 (en) * | 2014-11-17 | 2016-04-04 | 구본훈 | Smart lazer phone control method |
KR101609263B1 (en) * | 2014-12-04 | 2016-04-05 | 현대모비스 주식회사 | Apparatus for recognizing gesture using infrared ray and method thereof |
US9338627B1 (en) | 2015-01-28 | 2016-05-10 | Arati P Singh | Portable device for indicating emergency events |
JP6603024B2 (en) * | 2015-02-10 | 2019-11-06 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
JP6534011B2 (en) | 2015-02-10 | 2019-06-26 | 任天堂株式会社 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD |
JP6561400B2 (en) * | 2015-02-10 | 2019-08-21 | 任天堂株式会社 | Information processing apparatus, information processing program, information processing system, and information processing method |
JP6519075B2 (en) | 2015-02-10 | 2019-05-29 | 任天堂株式会社 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD |
WO2016168082A1 (en) * | 2015-04-13 | 2016-10-20 | Pi Konrad David | Method and system for hand washing compliance |
WO2016167331A1 (en) | 2015-04-17 | 2016-10-20 | 三菱電機株式会社 | Gesture recognition device, gesture recognition method, and information processing device |
DE102015006613A1 (en) * | 2015-05-21 | 2016-11-24 | Audi Ag | Operating system and method for operating an operating system for a motor vehicle |
JP6614831B2 (en) * | 2015-07-10 | 2019-12-04 | キヤノン株式会社 | Information processing apparatus and method for controlling power state of information processing apparatus |
CN108369451B (en) * | 2015-12-18 | 2021-10-29 | 索尼公司 | Information processing apparatus, information processing method, and computer-readable storage medium |
CN107199888A (en) * | 2016-03-18 | 2017-09-26 | 松下知识产权经营株式会社 | Posture input system and posture input method |
CN105867685A (en) * | 2016-03-28 | 2016-08-17 | 乐视控股(北京)有限公司 | Control method and device for terminal equipment |
US10338686B2 (en) * | 2016-03-31 | 2019-07-02 | Disney Enterprises, Inc. | Control system using aesthetically guided gesture recognition |
CN107330351A (en) * | 2016-04-28 | 2017-11-07 | 中华映管股份有限公司 | Posture behavioral value method |
CN105975073B (en) * | 2016-04-29 | 2019-07-02 | 广东美的制冷设备有限公司 | Gesture identification method, gesture identifying device and equipment |
CN106289555B (en) * | 2016-07-22 | 2018-09-18 | 京东方科技集团股份有限公司 | Display base plate |
US11017901B2 (en) | 2016-08-02 | 2021-05-25 | Atlas5D, Inc. | Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy |
JP2018530016A (en) * | 2016-08-30 | 2018-10-11 | 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. | VR control method, apparatus, electronic device, program, and recording medium |
CN106406640B (en) * | 2016-09-30 | 2019-07-26 | 维沃移动通信有限公司 | A kind of touch operation determines method and mobile terminal |
CN106527711A (en) * | 2016-11-07 | 2017-03-22 | 珠海市魅族科技有限公司 | Virtual reality equipment control method and virtual reality equipment |
CN106527712A (en) * | 2016-11-07 | 2017-03-22 | 珠海市魅族科技有限公司 | Information processing method for virtual reality device and virtual reality device |
CN106775415A (en) * | 2016-12-28 | 2017-05-31 | 珠海市魅族科技有限公司 | Application program launching method and system |
CN106650704B (en) * | 2017-01-10 | 2020-10-13 | 广东美的制冷设备有限公司 | Gesture recognition module, gesture recognition method and device and electric equipment |
US10649555B2 (en) * | 2017-09-28 | 2020-05-12 | Htc Corporation | Input interface device, control method and non-transitory computer-readable medium |
JP7061883B2 (en) * | 2018-01-22 | 2022-05-02 | マクセル株式会社 | Image display device and image display method |
JP2019175414A (en) * | 2018-03-28 | 2019-10-10 | 株式会社東海理化電機製作所 | Gesture input device |
JP2021527876A (en) | 2018-06-14 | 2021-10-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Augmented Reality Deep Gesture Network |
CN109241932B (en) * | 2018-09-21 | 2021-07-06 | 长江师范学院 | Thermal infrared human body action identification method based on motion variance map phase characteristics |
US10649539B1 (en) * | 2019-03-05 | 2020-05-12 | Motorola Mobility Llc | Hand temperature compensation |
US11450151B2 (en) * | 2019-07-18 | 2022-09-20 | Capital One Services, Llc | Detecting attempts to defeat facial recognition |
CN115877989A (en) * | 2022-11-14 | 2023-03-31 | 北京深光科技有限公司 | Touch identification method and device, electronic equipment and storage medium |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03164923A (en) * | 1989-11-24 | 1991-07-16 | Nec Corp | Coordinate output device |
JPH07288875A (en) * | 1994-04-14 | 1995-10-31 | Matsushita Electric Ind Co Ltd | Human body recognition sensor and non-contact operation device |
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
KR19980037590A (en) * | 1996-11-22 | 1998-08-05 | 김영귀 | Audio function switch structure |
JP2002083302A (en) * | 2000-09-07 | 2002-03-22 | Sony Corp | Information processing device, action recognition processing method, and program storage medium |
JP2002116859A (en) * | 2000-10-11 | 2002-04-19 | Sony Corp | Information processor, instruction recognition processing method and program storage medium |
US8608548B2 (en) * | 2002-06-12 | 2013-12-17 | Igt | Intelligent wagering token and wagering token tracking techniques |
JP2005047331A (en) * | 2003-07-31 | 2005-02-24 | Nissan Motor Co Ltd | Control device |
KR101114553B1 (en) * | 2003-11-18 | 2012-03-13 | 소니 주식회사 | Input device, input method, and electronic device |
US7115871B1 (en) * | 2005-08-25 | 2006-10-03 | Inet Consulting Limited Company | Field coverage configurable passive infrared radiation intrusion detection device |
US8610670B2 (en) * | 2006-08-31 | 2013-12-17 | Japan Display West Inc. | Imaging and display apparatus, information input apparatus, object detection medium, and object detection method |
US9317124B2 (en) * | 2006-09-28 | 2016-04-19 | Nokia Technologies Oy | Command input by hand gestures captured from camera |
KR20080098763A (en) * | 2007-05-07 | 2008-11-12 | 삼성전자주식회사 | Apparatus for adaptively operating according to grip of user and controlling method thereof |
JP5104150B2 (en) | 2007-09-14 | 2012-12-19 | オムロン株式会社 | Detection apparatus and method, and program |
US8416198B2 (en) * | 2007-12-03 | 2013-04-09 | Apple Inc. | Multi-dimensional scroll wheel |
JP2009140368A (en) * | 2007-12-07 | 2009-06-25 | Sony Corp | Input device, display device, input method, display method, and program |
TW200930015A (en) * | 2007-12-26 | 2009-07-01 | Htc Corp | A user interface of portable device and operating method thereof |
US20090174679A1 (en) * | 2008-01-04 | 2009-07-09 | Wayne Carl Westerman | Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface |
JP2009168647A (en) | 2008-01-17 | 2009-07-30 | Omron Corp | Touch sensor and method of controlling touch sensor, and program |
CN101609362B (en) * | 2008-06-19 | 2011-07-20 | 大同股份有限公司 | Vernier control device based on video signal and control method thereof |
JP4720874B2 (en) * | 2008-08-14 | 2011-07-13 | ソニー株式会社 | Information processing apparatus, information processing method, and information processing program |
TW201020856A (en) * | 2008-11-25 | 2010-06-01 | Asustek Comp Inc | Electronic device of inputting touch free and input method thereof |
JP5177075B2 (en) * | 2009-02-12 | 2013-04-03 | ソニー株式会社 | Motion recognition device, motion recognition method, and program |
KR20100095951A (en) * | 2009-02-23 | 2010-09-01 | 주식회사 팬택 | Portable electronic equipment and control method thereof |
JP5368134B2 (en) | 2009-02-25 | 2013-12-18 | 京セラ株式会社 | Portable electronic devices |
US8212788B2 (en) * | 2009-05-07 | 2012-07-03 | Microsoft Corporation | Touch input to modulate changeable parameter |
US8304733B2 (en) * | 2009-05-22 | 2012-11-06 | Motorola Mobility Llc | Sensing assembly for mobile device |
RU2501066C2 (en) * | 2009-07-30 | 2013-12-10 | Шарп Кабусики Кайся | Portable display device, method of controlling portable display device and recording medium |
US8345022B2 (en) * | 2009-12-08 | 2013-01-01 | Getac Technology Corporation | Linear compensation method of touch panel |
-
2010
- 2010-12-08 JP JP2010273691A patent/JP5617581B2/en active Active
-
2011
- 2011-11-15 KR KR1020110118799A patent/KR101302910B1/en active IP Right Grant
- 2011-11-17 EP EP11189599.1A patent/EP2463751A3/en not_active Withdrawn
- 2011-11-18 US US13/299,378 patent/US20120146903A1/en not_active Abandoned
- 2011-11-29 CN CN201110386488.2A patent/CN102591452B/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101370263B1 (en) * | 2013-03-15 | 2014-03-04 | 전자부품연구원 | Method for provide gesture-based remote control for electronic devices, and computer-readable recording medium for the same |
KR20170008720A (en) * | 2014-02-17 | 2017-01-24 | 메타이오 게엠베하 | Method and device for detecting a touch between a first object and a second object |
US10877605B2 (en) | 2014-02-17 | 2020-12-29 | Apple Inc. | Method and device for detecting a touch between a first object and a second object |
US11797132B2 (en) | 2014-02-17 | 2023-10-24 | Apple Inc. | Method and device for detecting a touch between a first object and a second object |
KR20170035240A (en) * | 2015-09-22 | 2017-03-30 | 삼성전자주식회사 | Method for performing image process and electronic device thereof |
Also Published As
Publication number | Publication date |
---|---|
JP5617581B2 (en) | 2014-11-05 |
JP2012123617A (en) | 2012-06-28 |
EP2463751A2 (en) | 2012-06-13 |
CN102591452A (en) | 2012-07-18 |
KR101302910B1 (en) | 2013-09-06 |
CN102591452B (en) | 2014-12-31 |
EP2463751A3 (en) | 2014-06-18 |
US20120146903A1 (en) | 2012-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20120089992A (en) | Gesture recognition device, gesture recognition method, computer readable recording medium recording control program | |
JP5802667B2 (en) | Gesture input device and gesture input method | |
JP5665140B2 (en) | Input device, input method, and program | |
WO2006036069A1 (en) | Information processing system and method | |
JP4609557B2 (en) | Information processing apparatus and information processing method | |
CN202584010U (en) | Wrist-mounting gesture control system | |
CN1322329B (en) | Imput device using scanning sensors | |
KR101547174B1 (en) | Information processing apparatus and control method therefor | |
US8269842B2 (en) | Camera gestures for user interface control | |
US20160124514A1 (en) | Electronic device and method of controlling the same | |
US20140300542A1 (en) | Portable device and method for providing non-contact interface | |
CN102915111A (en) | Wrist gesture control system and method | |
US20190228139A1 (en) | Method for recognizing fingerprint, and electronic device and storage medium therefor | |
CN102681656A (en) | Apparatuses and methods for providing 3d man-machine interface (mmi) | |
US20140267384A1 (en) | Display apparatus and control method thereof | |
US8264457B2 (en) | System and method for simulating a computer mouse | |
CN112486394A (en) | Information processing method and device, electronic equipment and readable storage medium | |
KR101365083B1 (en) | Interface device using motion recognition and control method thereof | |
US20220019288A1 (en) | Information processing apparatus, information processing method, and program | |
JP2013171529A (en) | Operation input device, operation determination method, and program | |
WO2011096571A1 (en) | Input device | |
US20120327118A1 (en) | Display control apparatus, display control method and program | |
KR20140097876A (en) | Controlling method and apparatus for photographing image | |
CN110007748A (en) | Control method, processing unit, storage medium and the terminal of terminal | |
KR101491648B1 (en) | System and Method for remote control using camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160727 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170804 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180816 Year of fee payment: 6 |