KR20120089992A - Gesture recognition device, gesture recognition method, computer readable recording medium recording control program - Google Patents

Gesture recognition device, gesture recognition method, computer readable recording medium recording control program Download PDF

Info

Publication number
KR20120089992A
KR20120089992A KR1020110118799A KR20110118799A KR20120089992A KR 20120089992 A KR20120089992 A KR 20120089992A KR 1020110118799 A KR1020110118799 A KR 1020110118799A KR 20110118799 A KR20110118799 A KR 20110118799A KR 20120089992 A KR20120089992 A KR 20120089992A
Authority
KR
South Korea
Prior art keywords
gesture
gesture recognition
temperature
change
unit
Prior art date
Application number
KR1020110118799A
Other languages
Korean (ko)
Other versions
KR101302910B1 (en
Inventor
다께시 아리하라
마사히로 아베
마사히로 기노시따
Original Assignee
오무론 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오무론 가부시키가이샤 filed Critical 오무론 가부시키가이샤
Publication of KR20120089992A publication Critical patent/KR20120089992A/en
Application granted granted Critical
Publication of KR101302910B1 publication Critical patent/KR101302910B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

PURPOSE: A gesture recognition apparatus, a method thereof, and computer readable recording medium are provided to implement a non-contact type input function of high process or high accuracy regardless of brightness of a used place by recognizing a gesture of hands based on a moving path of a variation area. CONSTITUTION: A temperature sensor is composed of infrared sensors. A variation specific unit(32) specifies a variation area whether temperature varies as a hand area based on temperature which the infrared sensors sense. A gesture recognizing unit(34) recognizes a gesture of hands. A center of gravity determining unit(33) determines the center of gravity of the variation area. The recognizing unit traces the center of gravity.

Description

제스처 인식 장치, 제스처 인식 방법, 제어 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체 {GESTURE RECOGNITION DEVICE, GESTURE RECOGNITION METHOD, COMPUTER READABLE RECORDING MEDIUM RECORDING CONTROL PROGRAM}Gesture recognition device, gesture recognition method, computer-readable recording medium recording control program {GESTURE RECOGNITION DEVICE, GESTURE RECOGNITION METHOD, COMPUTER READABLE RECORDING MEDIUM RECORDING CONTROL PROGRAM}

본 발명은, 제스처를 인식하는 제스처 인식 장치, 제스처 인식 방법, 제어 프로그램 및 기록 매체에 관한 것이다.The present invention relates to a gesture recognition apparatus for recognizing a gesture, a gesture recognition method, a control program and a recording medium.

종래, 휴대 전화, PDA(Personal Digital Assistant), 텔레비전, 녹화재생 장치, 퍼스널 컴퓨터, 디지털 카메라 등의 전자 기기에 대한 입력 기능은 다양한 형태로 실현되어 왔다. 입력 기능의 실현 방법으로서는, 첫 번째로, 입력 장치(버튼, 터치 패널)에 대상물(손가락, 터치 펜 등)을 접촉시켜 입력을 행하는 방법이 있다(예를 들어, 특허 문헌 1, 2 등). 두 번째로, 입력 장치(카메라 등)에 대상물을 인식시켜, 입력 장치 혹은 전자 기기에 비접촉으로 입력을 행하는 방법이 있다(예를 들어, 특허 문헌 3 등).Background Art Conventionally, input functions for electronic devices such as mobile phones, PDAs (Personal Digital Assistants), televisions, recording / playback devices, personal computers, digital cameras, and the like have been realized in various forms. As a method of realizing an input function, first, there is a method of performing input by bringing an object (a finger, a touch pen, etc.) into contact with an input device (button, touch panel) (for example, Patent Documents 1, 2, etc.). Secondly, there is a method in which an input device (a camera or the like) is recognized to input an object in a non-contact manner to an input device or an electronic device (for example, Patent Document 3).

제1 접촉형의 입력 실현 방법에서는, 확실하게, 즉시, 다양한 입력을 전자 기기에 대하여 행할 수 있는 한편, 이하와 같은 문제점이 있다.In the input contact realization method of the first contact type, various inputs can be made to the electronic device reliably and immediately, but there are the following problems.

화면(터치 패널)이 지나치게 크면, 대상물(손가락 등)을 화면의 단부로부터 단부까지 접촉시키는 것이 곤란해지고, 조작성의 저하가 문제가 된다. 전자 기기로부터 이격된 곳에서, 화면을 열람하거나 하여 사용하고 있을 때, 전자 기기에 대하여 조작이 필요하게 되면, 전자 기기를 조작할 수 있는 장소까지 가까이 가지 않으면 안되기 때문에 불편하다. 화면에 지문이나 손의 오염물이 부착되므로, 화면의 오염이 신경쓰이는 사용자에는 부적합한 입력 방법이다. 손이 젖어 있거나, 오염되었거나 한 때는 화면에 접촉하지 않고 조작할 수 없기 때문에 불편하다.If the screen (touch panel) is too large, it is difficult to bring the object (finger, etc.) into contact from the end of the screen to the end, and a decrease in operability becomes a problem. It is inconvenient because when the screen is viewed or used away from the electronic device and the operation is required for the electronic device, it must be brought close to a place where the electronic device can be operated. Since fingerprints or contaminants on the screen are attached to the screen, it is an unsuitable input method for users who are concerned about screen contamination. This is inconvenient because the hands are wet, contaminated or cannot be operated without touching the screen at one time.

또한, 프로젝터 기능을 갖는 전자 기기에서는, 전자 기기를 정치(靜置)하여, 스크린에 표시 내용(슬라이드 쇼 등)을 영사한다고 하는 유즈 씬(use scene)이 상정되지만, 슬라이드(페이지)를 넘기는 등의 조작을 행하고 싶을 때 화면을 만지면, 적절한 포지션에 놓아둔 전자 기기의 위치가 어긋나거나 하여 스크린의 영상이 흔들려서 불편하다. 또한, 스크린의 옆에서 프리젠테이션을 행하고 있는 사용자가, 전자 기기를 조작하기 위해 이동하는 것은 번거롭다.In addition, in an electronic device having a projector function, a use scene is assumed that allows the electronic device to stand still and projects display contents (slideshows, etc.) on the screen, but turns a slide (page), etc. If you touch the screen when you want to perform the operation, it is inconvenient because the image of the screen is shaken because the position of the electronic device placed in the proper position is shifted. In addition, it is cumbersome for a user presenting by the screen to move to operate an electronic device.

상술한 바와 같은 문제가 발생하는, 접촉형의 입력 방법이 부적합한 유즈 케이스(use case)에서는, 전자 기기의 입력 기능은, 특허 문헌 3과 같은 제2 비접촉형의 입력 실현 방법이 채용되어 왔다. 특허 문헌 3의 기술에서는, 카메라로 촬상한 손의 화상 데이터를 화상 처리하여 손을 인식하고, 인식한 손의 움직임(핸드 제스처)을 검지하는 제스처 인식 시스템이 개시되어 있다. 다양한 핸드 제스처를 전자 기기에 인식시킴으로써, 전자 기기에 접촉하는 일 없이 전자 기기에 대한 조작 입력을 행할 수 있다.In a use case in which a contact type input method is inadequate where the problem described above occurs, a second non-contact type input realization method such as Patent Document 3 has been adopted as the input function of an electronic device. In the technique of Patent Document 3, a gesture recognition system is disclosed in which image data of a hand captured by a camera is image-processed to recognize a hand and detect the movement (hand gesture) of the recognized hand. By recognizing the various hand gestures on the electronic device, it is possible to perform operation input on the electronic device without touching the electronic device.

일본 특허 출원 공개 제2009―071708호 공보(2009년 4월 2일 공개)Japanese Patent Application Publication No. 2009-071708 (published April 2, 2009) 일본 특허 출원 공개 제2009―168647호 공보(2009년 7월 30일 공개)Japanese Patent Application Publication No. 2009-168647 (published July 30, 2009) 일본 특허 출원 공개 평08―315154호 공보(1996년 11월 29일 공개)Japanese Patent Application Laid-Open No. 08-315154 (published November 29, 1996)

그러나, 비접촉형의 입력 방법을 상술한 특허 문헌 3의 기술로 실현하면, 이하와 같은 문제가 발생한다.However, when the contactless input method is realized by the technique of Patent Document 3 described above, the following problems arise.

예를 들어, 어두운 곳(야간의 옥외, 프로젝터 기동 중 등에 조명이 어둡게 되어 있는 옥내 등)에서는, 카메라에 의한 피사체(손)의 촬영이 곤란하여, 손이라고 인식할 수 있는 화상 데이터를 얻을 수 없다. 따라서, 특허 문헌 3의 시스템은, 어두운 곳에서 사용되는 전자 기기의 입력 장치에는 적용할 수 없다고 하는 문제가 있다. 또한, 특허 문헌 3의 시스템에서는, 카메라에 의해 촬상된 화상을 취급하기 위해, 처리 부하가 높은 화상 처리를 행할 필요가 있다. 그로 인해, 고기능의 정보 처리 장치가 필요하게 되거나, 처리 시간이 길어진다고 하는 문제가 있다. 또한, 손의 형태를 인식하기 위해, 배경 화상과 손의 화상을 구별하는 처리가 행해지지만, 손과 유사한 텍스처가 배경 화상에도 포함되어 있는 경우, 정확하게 손의 형상(영역)을 추출할 수 없고, 제스처의 오류 인식이 일어날 가능성이 높다.For example, in a dark place (indoors where lighting is dimmed, for example, outdoors at night, during projector startup, etc.), photographing of a subject (hand) by a camera is difficult, and image data that can be recognized as a hand cannot be obtained. . Therefore, the system of patent document 3 has a problem that it cannot apply to the input device of the electronic device used in a dark place. Moreover, in the system of patent document 3, in order to handle the image picked up by the camera, it is necessary to perform image processing with high processing load. Therefore, there exists a problem that a highly functional information processing apparatus is needed, or processing time becomes long. Further, in order to recognize the shape of the hand, a process of distinguishing the background image from the image of the hand is performed, but when the texture similar to the hand is included in the background image, the shape (area) of the hand cannot be extracted accurately, Error recognition of gestures is likely to occur.

본 발명은, 상기한 문제점에 비추어 이루어진 것이며, 그 목적은, 사용 장소의 밝기에 상관없이, 고속 처리 또한 고정밀도의 비접촉형 입력 기능을 실현하는 제스처 인식 장치, 제스처 인식 방법, 제스처 인식 장치의 제어 프로그램 및 상기 제어 프로그램을 기록한 기록 매체를 제공하는 것에 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object thereof is to control a gesture recognition device, a gesture recognition method, and a gesture recognition device that realize a high-speed processing and a high accuracy non-contact input function regardless of the brightness of the place of use. There is provided a recording medium on which a program and the control program are recorded.

본 발명의 제스처 인식 장치는, 상기 과제를 해결하기 위해, 복수의 적외선 센서가 배치되어 구성된 온도 센서와, 상기 온도 센서의 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 수단과, 상기 변화 영역 특정 수단이 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 수단을 구비하고 있는 것을 특징으로 하고 있다.In order to solve the above problem, the gesture recognition apparatus of the present invention includes a temperature sensor in which a plurality of infrared sensors are disposed, and a change region in which a temperature change occurs based on a temperature detected by each of the infrared sensors of the temperature sensor, A change area specifying means for specifying as an area representing a hand and the change area specifying means are provided with gesture recognition means for recognizing a movement trajectory of a specific change area and recognizing a gesture of a hand.

상기 구성에 따르면, 제스처 인식 장치에 있어서, 대상물(손)의 움직임을 검지하기 위한 정보는, 복수 배치된 적외선 센서로부터 온도 정보로서 취득된다. 그리고 변화 영역 특정 수단이, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하고, 제스처 인식 수단이, 특정된 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식한다.According to the above configuration, in the gesture recognition apparatus, information for detecting the movement of an object (hand) is obtained as temperature information from a plurality of infrared sensors arranged. Then, the change area specifying means specifies the change area where the temperature change has occurred as the area indicating the hand, and the gesture recognizing means specifies the movement trajectory of the specified change area to recognize the gesture of the hand.

이와 같이 하여, 제스처 인식 장치는, 데이터량이 방대한 화상 데이터를 취급하지 않더라도, 온도 정보만으로 대상물의 움직임을 분석할 수 있고, 제스처를 인식하는 것이 가능해진다. 결과적으로, 제스처 인식 장치에 있어서, 처리 효율의 향상과, 처리 부하의 저감을 실현할 수 있다. 즉, 반응 속도가 빠른 입력 장치를 실현하는 것이 가능하다.In this way, the gesture recognizing apparatus can analyze the movement of the object only by the temperature information, even if the data amount does not handle the massive image data, and it becomes possible to recognize the gesture. As a result, in the gesture recognition apparatus, it is possible to realize an improvement in processing efficiency and a reduction in processing load. That is, it is possible to realize an input device with a fast reaction speed.

또한, 본 발명의 제스처 인식 장치는, 적외선 센서를 이용하여 대상물의 표면 온도를 취득함으로써, 대상물의 온도와 주위의 환경 온도의 차이에 의해, 대상물의 움직임을 검지하는 것이다. 따라서, 광학계 카메라로 대상물을 촬상하여 제스처를 인식하는 구성에서는, 어두운 곳에서의 사용이 제한되지만, 본 발명의 제스처 인식 장치는, 어두운 곳에서도 제한 없이 입력 장치로서 기능시키는 것이 가능하다.Moreover, the gesture recognition apparatus of this invention detects the movement of an object by the difference of the temperature of an object and the surrounding environmental temperature by acquiring the surface temperature of an object using an infrared sensor. Therefore, in the configuration of recognizing a gesture by imaging an object with an optical system camera, use in a dark place is limited, but the gesture recognition device of the present invention can function as an input device in a dark place without limitation.

또한, 광학계 카메라를 사용한 제스처 인식에서는, 대상물과 배경의 텍스처에 큰 차가 없는 경우에, 정확하게 대상물의 위치, 형상 등을 인식할 수 없고, 제스처의 오류 인식이 증가한다고 하는 문제가 있다. 한편, 본 발명의 제스처 인식 장치는, 주위 환경 온도와 다른 표면 온도를 갖는 대상물(손 등)을, 온도 정보에 기초하여 검지하므로, 텍스처의 유사에 의한 오류 인식의 문제는 일어날 수 없다.In addition, in gesture recognition using an optical camera, when there is no large difference between the texture of the object and the background, there is a problem that the position, shape, etc. of the object cannot be accurately recognized, and error recognition of the gesture increases. On the other hand, since the gesture recognition apparatus of the present invention detects an object (hand, etc.) having a surface temperature different from the ambient environment temperature based on the temperature information, the problem of error recognition due to similarity of texture cannot occur.

결과적으로, 본 발명의 제스처 인식 장치는, 사용 장소의 밝기에 상관없이, 고속 처리 또한 고정밀도의 비접촉형 입력 기능을 실현하는 것이 가능해진다고 하는 효과를 발휘한다.As a result, the gesture recognition apparatus of the present invention has an effect that it is possible to realize a high-speed processing and a highly accurate non-contact input function regardless of the brightness of the use place.

상기 제스처 인식 장치는, 또한, 상기 변화 영역 특정 수단에 의해 특정된 변화 영역의 무게 중심을 결정하는 무게 중심 결정 수단을 구비하고, 상기 제스처 인식 수단은, 상기 무게 중심의 위치를 추적함으로써 상기 이동 궤적을 특정하는 것이 바람직하다.The gesture recognition apparatus further includes a center of gravity determining means for determining the center of gravity of the change area specified by the change area specifying means, wherein the gesture recognizing means tracks the position of the center of gravity for the movement trajectory. It is desirable to specify.

이에 의해, 간소화된 처리 수순으로 변화 영역의 이동 궤적을 특정하는 것이 가능해진다.This makes it possible to specify the movement trajectory of the change area in a simplified processing procedure.

상기 제스처 인식 장치는, 또한, 적외선 센서 각각이 검지한 각각의 온도와, 소정의 기준 온도를 비교함으로써, 적외선 센서마다 온도 변화량을 산출하는 변화량 산출 수단을 구비하고, 상기 무게 중심 결정 수단은, 적외선 센서마다 얻어진 상기 온도 변화량에 기초하여, 상기 변화 영역의 무게 중심을 결정해도 된다.The gesture recognition apparatus further includes change amount calculating means for calculating a temperature change amount for each infrared sensor by comparing respective temperatures detected by each infrared sensor with a predetermined reference temperature, and the center of gravity determining means includes infrared rays. The center of gravity of the change area may be determined based on the temperature change amount obtained for each sensor.

상기 구성에 따르면, 상기 변화 영역의 기하학적 형상만에 기초하여 결정된 무게 중심이 아닌, 온도 변화량이 고려되어 변화 영역의 무게 중심이 구해진다.According to the above configuration, the center of gravity of the change area is obtained by considering the amount of temperature change, not the center of gravity determined only based on the geometry of the change area.

이와 같이 구해진 무게 중심의 궤적을 추적함으로써, 보다 정확하게 실제의 손의 움직임을 검지하는 것이 가능해지고, 제스처 인식의 정밀도를 향상시킬 수 있다.By tracking the trajectory of the center of gravity thus obtained, it is possible to more accurately detect the actual hand movement and improve the accuracy of gesture recognition.

상기 제스처 인식 장치는, 또한, 상기 복수의 적외선 센서에 있어서의 유효 무효인 배치 패턴을 나타내는 마스크를, 장치 스스로가 접속하는 전자 기기의 어플리케이션의 종류에 관련지어 기억하는 마스크 기억부와, 상기 전자 기기가 기동 중의 어플리케이션에 관련되어 있는 마스크를 상기 마스크 기억부로부터 선택하는 마스크 선택 수단을 구비하고, 상기 변화 영역 특정 수단은, 상기 마스크 선택 수단에 의해 선택된 마스크가 유효로 하는 적외선 센서에 의해 검지된 온도만에 기초하여 변화 영역을 특정해도 된다.The gesture recognition apparatus further includes a mask storage unit that stores a mask indicating a valid invalid placement pattern in the plurality of infrared sensors in association with the type of application of an electronic device to which the device itself connects, and the electronic device. Is provided with mask selection means for selecting a mask associated with an application during startup from the mask storage portion, and the change area specifying means has a temperature detected by an infrared sensor valid for the mask selected by the mask selection means. The change area may be specified based on the bay.

적외선 센서를 선택적으로 이용하는 구성으로 하면, 처리해야 할 정보량을 줄여 처리 속도를 빠르게 할 수 있는 동시에, 특정한 제스처를 인식할 경우에, 그 인식의 정밀도를 향상시키는 것이 가능하다.When the infrared sensor is selectively used, the amount of information to be processed can be reduced to increase the processing speed, and the recognition accuracy can be improved when a specific gesture is recognized.

상기 제스처 인식 장치는, 또한, 상기 변화 영역 특정 수단에 의해 특정된 변화 영역의 편차를 산출하는 편차 산출 수단을 구비하고, 상기 제스처 인식 수단은, 시간의 경과에 수반하는 상기 편차의 증감에 기초하여, 제스처를 인식해도 된다.The gesture recognition apparatus further includes deviation calculation means for calculating a deviation of the change area specified by the change area specifying means, wherein the gesture recognition means is based on the increase and decrease of the deviation with the passage of time. You may recognize a gesture.

상기 제스처 인식 수단은, 상기 변화 영역의 편차가 증가할 경우에, 양손 또는 손가락이 벌어지는 방향으로 움직였다고 인식하고, 상기 변화 영역의 편차가 감소할 경우에, 양손 또는 손가락이 모아지는 방향으로 움직였다고 인식할 수 있다.The gesture recognizing means recognizes that when the deviation of the change area increases, both hands or fingers move in the direction of spreading, and when the deviation of the change area decreases, the gesture recognition means moves in the direction of gathering both hands or fingers. I can recognize it.

본 발명의 제스처 인식 방법은, 상기 과제를 해결하기 위해, 복수의 적외선 센서가 배치되어 구성된 온도 센서로부터 적외선 센서마다의 온도를 취득하는 온도 취득 스텝과, 상기 온도 취득 스텝에서 취득한, 상기 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 스텝과, 상기 변화 영역 특정 스텝에서 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 스텝을 포함하는 것을 특징으로 하고 있다.In order to solve the said subject, the gesture recognition method of this invention is the temperature acquisition step which acquires the temperature for every infrared sensor from the temperature sensor in which the several infrared sensor was arrange | positioned, and each said said infrared sensor acquired by the said temperature acquisition step. On the basis of the detected temperature, the gesture of the hand is recognized by specifying a change area specifying step where the temperature change has occurred as an area indicating a hand and a movement trajectory of the change area specified in the change area specifying step. And a gesture recognition step.

또한, 상기 제스처 인식 장치는, 컴퓨터에 의해 실현해도 되고, 이 경우에는, 컴퓨터를 상기 각 수단으로서 동작시킴으로써 상기 제스처 인식 장치를 컴퓨터에서 실현시키는 제스처 인식 장치의 제어 프로그램 및 그것을 기록한 컴퓨터 판독 가능한 기록 매체도, 본 발명의 범주에 들어간다.The gesture recognition apparatus may be realized by a computer. In this case, the control program of the gesture recognition apparatus which realizes the gesture recognition apparatus in a computer by operating the computer as the above means and a computer-readable recording medium recording the same. Also, the scope of the present invention.

본 발명의 제스처 인식 장치는, 복수의 적외선 센서가 배치되어 구성된 온도 센서와, 상기 온도 센서의 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 수단과, 상기 변화 영역 특정 수단이 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 수단을 구비하고 있는 것을 특징으로 하고 있다.The gesture recognition apparatus of the present invention identifies a change region in which a temperature change has occurred, as a region indicating a hand, based on a temperature sensor in which a plurality of infrared sensors are arranged and a temperature detected by each of the infrared sensors of the temperature sensor. The change area specifying means and the change area specifying means are provided with gesture recognition means for identifying the movement trajectory of the specific change area and recognizing the gesture of the hand.

본 발명의 제스처 인식 방법은, 복수의 적외선 센서가 배치되어 구성된 온도 센서로부터 적외선 센서마다의 온도를 취득하는 온도 취득 스텝과, 상기 온도 취득 스텝에서 취득한, 상기 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 스텝과, 상기 변화 영역 특정 스텝에서 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 스텝을 포함하는 것을 특징으로 하고 있다.The gesture recognition method of this invention is based on the temperature acquisition step which acquires the temperature for every infrared sensor from the temperature sensor in which the several infrared sensor was arrange | positioned, and the temperature detected by each said infrared sensor acquired by the said temperature acquisition step. And a change region specifying step of specifying a change region in which a temperature change has occurred as an area representing a hand, and a gesture recognition step of specifying a movement trajectory of a specific change region in the change region specifying step to recognize a gesture of a hand. It is characterized by.

따라서, 사용 장소의 밝기에 상관없이, 고속 처리 또한 고정밀도의 비접촉형 입력 기능을 실현하는 것이 가능해진다고 하는 효과를 발휘한다.Therefore, regardless of the brightness of the place of use, the high-speed processing and the high accuracy non-contact input function can be realized.

도 1은 본 발명의 실시 형태에 있어서의 제스처 인식 장치가 구비하는 데이터 처리부의 주요부 구성의 상세를 나타내는 블록도.
도 2는 본 발명의 실시 형태에 있어서의 제스처 인식 장치가 탑재된 전자 기기(스마트 폰)의 외관을 도시하는 도면.
도 3은 상기 전자 기기에 내장되는 센서부의 분해 사시도.
도 4는 상기 센서부의 온도 센서 칩에 있어서의 적외선 검지 소자의 배치의 일례를 나타내는 도면.
도 5는 본 발명의 실시 형태에 있어서의 제스처 인식 장치의 주요부 구성을 나타내는 블록도.
도 6은 제스처 인식 장치의 좌표 배치부가 각 센서로부터의 온도를 XY 좌표계에 플롯한 후의 온도 정보의 데이터 구조를 모식적으로 나타내는 도면.
도 7은 XY 좌표계에 플롯된 온도 정보의 구체예를 나타내는 도면.
도 8은 각 검지 타이밍에 있어서의, (1)스마트 폰과 손의 위치 관계와, (2)당해 타이밍에 있어서 검지, 취득된 온도 정보의 관계를 나타내는 도면.
도 9는 도 8에 도시하는 타이밍 T1 내지 T3의 기간에 대해, 제스처 인식 장치의 변화량 산출부에 의해 생성된 정보와, 무게 중심 결정부에 의해 생성된 정보의 구체예를 나타내는 도면.
도 10은 제스처 인식 장치의 제스처 인식부가 무게 중심의 이동 궤적을 특정한 결과의 구체예를 나타내는 도면.
도 11은 각 검지 타이밍에 있어서의, (1)스마트 폰과 손의 위치 관계와, (2)당해 타이밍에 있어서 검지, 취득된 온도 정보의 관계를 나타내는 도면.
도 12는 제스처 인식 장치의 제스처 패턴 기억부에 기억되는 제스처 패턴의 일례를 나타내는 도면.
도 13은 제스처 인식 장치가 구비하는 데이터 처리부의 각 부가 실행하는 제스처 인식 처리의 흐름을 나타내는 흐름도.
도 14는 제스처 인식 장치의 제스처 인식부에 의해 실행되는 제스처 인식 처리의 흐름을 상세하게 나타내는 흐름도.
도 15는 제스처 인식 장치의 마스크 기억부에 기억되는 마스크의 구체예를 나타내는 도면.
도 16은 제스처 인식 장치의 마스크 기억부에 기억되는 마스크의 데이터 구조의 일례를 나타내는 도면.
도 17은 본 발명의 다른 실시 형태에 있어서의, 제스처 인식 장치의 좌표 배치부가 각 센서로부터의 온도를 XY 좌표계에 플롯한 후의 온도 정보의 데이터 구조를 모식적으로 나타내는 도면.
도 18은 각 검지 타이밍에 있어서의, (1)양손의 위치 관계와, (2)당해 타이밍에 있어서 취득된 온도 정보 및 변화 영역의 관계를 나타내는 도면.
도 19는 도 18에 도시하는 타이밍 T1, T2의 타이밍에 있어서, 제스처 인식 장치의 변화량 산출부에 의해 생성된 정보, 무게 중심 결정부에 의해 생성된 정보 및 편차 산출부에 의해 생성된 정보의 구체예를 나타내는 도면.
도 20은 다른 실시 형태에 있어서의 제스처 인식 장치의 제스처 패턴 기억부에 기억되는 제스처 패턴의 일례를 나타내는 도면.
도 21은 다른 실시 형태에 있어서의 제스처 인식 장치의 제스처 인식부에 의해 실행되는 제스처 인식 처리의 흐름을 상세하게 나타내는 흐름도.
BRIEF DESCRIPTION OF THE DRAWINGS The block diagram which shows the detail of the principal part structure of the data processing part with which the gesture recognition apparatus in embodiment of this invention is equipped.
It is a figure which shows the external appearance of the electronic device (smartphone) in which the gesture recognition apparatus in embodiment of this invention is mounted.
3 is an exploded perspective view of a sensor unit embedded in the electronic device.
4 is a diagram showing an example of the arrangement of infrared detection elements in the temperature sensor chip of the sensor unit.
Fig. 5 is a block diagram showing a main part configuration of a gesture recognition apparatus according to the embodiment of the present invention.
Fig. 6 is a diagram schematically showing a data structure of temperature information after the coordinate arrangement unit of the gesture recognition apparatus plots the temperature from each sensor on the XY coordinate system.
FIG. 7 is a diagram showing a specific example of temperature information plotted in an XY coordinate system. FIG.
Fig. 8 is a diagram illustrating the relationship between (1) the positional relationship between a smartphone and a hand in each detection timing and (2) the temperature information detected and acquired at the corresponding timing.
FIG. 9 is a diagram showing a specific example of information generated by the change amount calculating unit of the gesture recognizing apparatus and information generated by the center of gravity determination unit for the periods of timings T 1 to T 3 shown in FIG. 8; FIG.
10 is a view showing a specific example of the result of specifying the movement trajectory of the center of gravity by the gesture recognition unit of the gesture recognition apparatus.
Fig. 11 is a diagram showing the relationship between (1) the positional relationship between a smartphone and a hand in each detection timing and (2) the temperature information detected and acquired at the corresponding timing.
12 is a diagram showing an example of a gesture pattern stored in a gesture pattern storage unit of the gesture recognition apparatus.
13 is a flowchart showing a flow of gesture recognition processing performed by each data processing unit included in the gesture recognition apparatus.
Fig. 14 is a flowchart showing in detail the flow of gesture recognition processing executed by the gesture recognition unit of the gesture recognition apparatus.
Fig. 15 is a diagram showing a specific example of a mask stored in a mask storage unit of the gesture recognition apparatus.
16 is a diagram showing an example of a data structure of a mask stored in a mask storage unit of a gesture recognition apparatus.
It is a figure which shows typically the data structure of the temperature information after the coordinate arrangement part of the gesture recognition apparatus plotted the temperature from each sensor in the XY coordinate system in another embodiment of this invention.
Fig. 18 is a diagram showing the relationship between (1) the positional relationship of both hands and (2) the temperature information and the change area acquired at the timing in each detection timing.
FIG. 19 shows information generated by the change amount calculating unit of the gesture recognition apparatus, information generated by the center of gravity determining unit, and information generated by the deviation calculating unit at the timings of timings T 1 and T 2 shown in FIG. 18. Drawing which shows the specific example of the.
20 is a diagram illustrating an example of a gesture pattern stored in a gesture pattern storage unit of a gesture recognition device according to another embodiment.
21 is a flowchart showing in detail the flow of gesture recognition processing executed by the gesture recognition unit of the gesture recognition apparatus according to the other embodiment.

≪제1 실시 형태≫`` First embodiment ''

본 발명의 실시 형태에 대해, 도면에 기초하여 설명하면 이하와 같다. 이하에서 설명하는 실시 형태에서는, 일례로서, 본 발명의 제스처 인식 장치를 스마트 폰에 탑재하여, 제스처 인식 장치가 스마트 폰의 입력 기능을 실현한다. 또한, 본 발명의 제스처 인식 장치는, 스마트 폰 이외에도, 휴대 전화, PDA, 휴대형 게임기, 전자 사전, 전자 수첩, 디지털 카메라, 디지털 비디오 카메라, 퍼스널 컴퓨터, 노트북 컴퓨터, 텔레비전, 녹화 생성 장치, 가정용 게임기 등의 각종 전자 기기에 탑재할 수 있고, 이들 전자 기기의 입력 기능을 담당할 수 있다.EMBODIMENT OF THE INVENTION Embodiment of this invention is described based on drawing. In embodiment described below, as an example, the gesture recognition apparatus of this invention is mounted in a smart phone, and a gesture recognition device implements the input function of a smart phone. In addition to the smart phone, the gesture recognition device of the present invention may be a mobile phone, a PDA, a portable game machine, an electronic dictionary, an electronic notebook, a digital camera, a digital video camera, a personal computer, a laptop computer, a television, a recording generator, a home game machine, or the like. Can be mounted on various electronic devices, and can take charge of the input function of these electronic devices.

〔제스처 인식 장치의 구성〕[Configuration of Gesture Recognition Device]

도 2는, 본 발명의 실시 형태에 있어서의 제스처 인식 장치의 외관을 도시하는 도면이다. 본 실시 형태에서는, 본 발명의 제스처 인식 장치는, 도 2에 도시하는 바와 같이, 센서부(2)를 구비하고, 스마트 폰(100)에 내장되어 있다.2 is a diagram illustrating an appearance of a gesture recognition apparatus according to the embodiment of the present invention. In this embodiment, the gesture recognition apparatus of this invention is equipped with the sensor part 2, as shown in FIG. 2, and is integrated in the smart phone 100. As shown in FIG.

센서부(2)는, 검지 가능 범위(예를 들어, 도 2의 파선 범위 내)에 있는 대상물의 온도를 검지하는 것이다.The sensor part 2 detects the temperature of the target object in a detectable range (for example, in the broken line range of FIG. 2).

도 3은, 스마트 폰(100)에 내장되는 센서부(2)의 분해 사시도이다. 도 3에 도시하는 바와 같이, 센서부(2)는, 이하와 같이 구성된다. 구체적으로는, 기판(21) 상에, 신호 처리부(7)와 온도 센서 칩(6)이 탑재되고, 그 위에, 이들의 정밀 부품을 보호하는 동시에 렌즈(23)를 고정하기 위한 중간 케이스(22)가 설치되어 있다. 중간 케이스(22) 상에는, 렌즈(23)가 탑재되고, 이들 전체를 피복하도록 외부 케이스(24)가 설치된다.3 is an exploded perspective view of the sensor unit 2 incorporated in the smartphone 100. As shown in FIG. 3, the sensor part 2 is comprised as follows. Specifically, the signal processing unit 7 and the temperature sensor chip 6 are mounted on the substrate 21, and the intermediate case 22 for protecting these precision components and fixing the lens 23 thereon is mounted thereon. ) Is installed. On the intermediate case 22, a lens 23 is mounted, and an outer case 24 is provided to cover all of them.

온도 센서 칩(6)은, 복수의 적외선 검지 소자(적외선 센서)를 면 상에 배치한 것으로 구성되어 있다. 각 적외선 센서는, 적외선을 접수함으로써 발생하는 온도 상승에 기초하여 검지 대상물의 온도 정보를 검지한다.The temperature sensor chip 6 is configured by arranging a plurality of infrared ray detection elements (infrared sensors) on the surface. Each infrared sensor detects the temperature information of a detection object based on the temperature rise which arises by receiving infrared light.

도 4는, 온도 센서 칩(6)에 있어서의 적외선 검지 소자의 배치의 일례를 나타내는 도면이다. 온도 센서 칩(6)은, 예를 들어 도 4에 나타내는 바와 같이, 종횡으로 4×4개로 배치된 적외선 센서로 이루어져 있다. 각 센서에는, 예를 들어, 0으로부터 15까지의 번지가 할당되어 있고, 이 번지에 의해 각 센서의 면 상의 위치 관계가 파악되고 있다.4 is a diagram illustrating an example of the arrangement of the infrared detection element in the temperature sensor chip 6. For example, as shown in FIG. 4, the temperature sensor chip 6 is made up of 4 x 4 infrared sensors arranged horizontally and horizontally. Addresses from 0 to 15 are assigned to each sensor, for example, and the positional relationship on the surface of each sensor is grasped by this address.

이와 같이, 번지에 의해 관리된 복수의 센서를 면 상에 배치함으로써, 상기 검지 가능 범위에 있는 검지 대상물의 표면 온도를 2차원으로 취득할 수 있다. 예를 들어, 도 2에 도시한 바와 같이, 사용자의 손이 검지 가능 범위 내에 있어서 이동하면, 손의 표면 온도를 검지하는 센서의 위치의 차이에 의해, 그 이동을 검지할 수 있다.Thus, by arrange | positioning the some sensor managed by address on the surface, the surface temperature of the detection object in the said detectable range can be acquired in two dimensions. For example, as shown in FIG. 2, when a user's hand moves in the detectable range, the movement can be detected by the difference of the position of the sensor which detects the surface temperature of the hand.

다음으로, 상술한 바와 같이 온도 센서 칩(6)으로부터 얻어진 온도 정보를 사용하여 제스처 인식 처리를 행하는 제스처 인식 장치의 기능적 구성에 대해 설명한다.Next, the functional structure of the gesture recognition apparatus which performs a gesture recognition process using the temperature information obtained from the temperature sensor chip 6 as mentioned above is demonstrated.

도 5는, 본 발명의 실시 형태에 있어서의 제스처 인식 장치(1)의 주요부 구성을 나타내는 블록도이다. 도 5에 나타내는 바와 같이, 제스처 인식 장치(1)는, 온도 센서 칩(6)과 신호 처리부(7)를 포함하는 센서부(2)와, 센서부(2)를 포함하는 각 부를 통괄 제어하는 입력 제어부(3)와, 기억부(4) 및 일시 기억부(8)와, 커넥터부(5)를 포함하는 구성으로 되어 있다.5 is a block diagram showing the configuration of main parts of the gesture recognition apparatus 1 according to the embodiment of the present invention. As shown in FIG. 5, the gesture recognition apparatus 1 collectively controls the sensor unit 2 including the temperature sensor chip 6 and the signal processing unit 7 and the unit including the sensor unit 2. The input control part 3, the memory | storage part 4, the temporary memory | storage part 8, and the connector part 5 are comprised.

신호 처리부(7)는, 온도 센서 칩(6)의 각 센서가 접수하는 적외선으로부터 얻어진 적외선 신호를 취득하고, 신호 증폭의 처리 등을 행하는 것이다. 신호 처리부(7)는, 예를 들어, 특정 용도용 집적 회로(ASIC; Application Specific Integrated Circuit) 등으로 실현된다.The signal processing unit 7 acquires an infrared signal obtained from the infrared rays received by each sensor of the temperature sensor chip 6, and performs signal amplification processing and the like. The signal processing unit 7 is realized by, for example, an application specific integrated circuit (ASIC).

본 실시 형태에서는, 신호 처리부(7)는, 신호 선택부(13)와 신호 증폭부(14)를 구비하고 있다. 신호 선택부(13)는, 온도 센서 칩(6)으로부터의 적외선 신호를 선택적으로 취득하는 것이다. 구체적으로는, 신호 선택부(13)는, 입력 제어부(3)의 제어에 따라, 특정 번지의 적외선 센서로부터의 적외선 신호를 선택적으로 취득할 수 있다.In the present embodiment, the signal processing unit 7 includes a signal selection unit 13 and a signal amplifier unit 14. The signal selector 13 selectively acquires an infrared signal from the temperature sensor chip 6. Specifically, the signal selector 13 can selectively acquire the infrared signal from the infrared sensor at a specific address under the control of the input control unit 3.

신호 증폭부(14)는, 신호 선택부(13)에 의해 취득된 적외선 신호를, 입력 제어부(3)에 있어서 디지털 처리 가능하도록 증폭하여, 입력 제어부(3)에 공급하는 것이다.The signal amplifier 14 amplifies the infrared signal acquired by the signal selector 13 so as to be digitally processed by the input controller 3 and supplies it to the input controller 3.

이와 같이 하여 신호 처리부(7)에 의해 취득되어, 처리된 적외선 신호는, 입력 제어부(3)에 있어서 디지털화되어, 온도 정보로서 이용된다.The infrared signal acquired and processed by the signal processing unit 7 in this manner is digitized in the input control unit 3 and used as temperature information.

입력 제어부(3)는, 제스처 인식 장치(1)의 각 부의 동작을 통괄 제어하는 것이며, 마이크로 컴퓨터 등으로 실현된다. 혹은, 입력 제어부(3)의 기능은, 스마트 폰(100) 본체의 주제어부가 구비하는 구성이어도 된다. 이 경우, 스마트 폰(100) 자체가 본 발명의 제스처 인식 장치(1)로서 기능한다.The input control unit 3 collectively controls the operation of each unit of the gesture recognition apparatus 1 and is realized by a microcomputer or the like. Or the function of the input control part 3 may be the structure with which the main control part of the smartphone 100 main body is equipped. In this case, the smartphone 100 itself functions as the gesture recognition apparatus 1 of the present invention.

입력 제어부(3)는, 신호 처리부(7)로부터 공급된 적외선 신호를 아날로그 신호로부터 디지털 신호로 변환하는 AD 변환부(12)와, 커넥터부(5)를 통하여, 스마트 폰(100) 본체의 주제어부와 통신하는 통신 제어부(11)와, 디지털화된 온도 정보를 사용하여 제스처 인식 처리를 실행하는 데이터 처리부(10)를 구비하고 있다. 기능 블록으로서의 데이터 처리부(10)의 구성과 동작에 대해서는 별도를 참조하면서 이후에 상세하게 서술한다.The input control unit 3 uses the AD conversion unit 12 for converting the infrared signal supplied from the signal processing unit 7 into an analog signal to a digital signal, and the main control unit of the main body of the smartphone 100 through the connector unit 5. The communication control part 11 which communicates with a part, and the data processing part 10 which performs a gesture recognition process using the digitized temperature information are provided. The structure and operation of the data processing unit 10 as a functional block will be described in detail later with reference to the separate section.

커넥터부(5)는, 제스처 인식 장치(1)와 스마트 폰(100)의 주제어부를 전기적으로 또한 통신 가능하게 접속하는 것이다. 데이터 처리부(10)가 제스처를 인식한 결과는, 통신 제어부(11) 및 커넥터부(5)를 통하여, 스마트 폰(100) 본체의 주제어부에 공급된다. 반대로, 스마트 폰(100)이 현재 어떤 어플리케이션을 기동 중인 것인지 등의 스마트 폰(100)의 상태에 관한 정보는, 스마트 폰(100)의 주제어부로부터 공급된다.The connector part 5 connects the gesture recognition apparatus 1 and the main control part of the smart phone 100 electrically and communicatively. The result of the gesture recognition by the data processing unit 10 is supplied to the main control unit of the main body of the smartphone 100 via the communication control unit 11 and the connector unit 5. On the contrary, the information regarding the state of the smartphone 100 such as which application the smartphone 100 is currently running is supplied from the main controller of the smartphone 100.

일시 기억부(8)는, 제스처 인식 장치(1)가 실행하는 각종 처리의 과정에서, 연산에 사용하는 데이터 및 연산 결과 등을 일시적으로 기억하는 소위 워킹 메모리이다.The temporary storage unit 8 is a so-called working memory that temporarily stores data to be used for calculations, calculation results, and the like in the course of various processes executed by the gesture recognition apparatus 1.

기억부(4)는, 입력 제어부(3)가 실행하는 ① 제어 프로그램, ② OS 프로그램, ③ 입력 제어부(3)가, 제스처 인식 장치(1)가 갖는 각종 기능을 실행하기 위한 어플리케이션 프로그램 및 ④ 상기 어플리케이션 프로그램을 실행할 때에 판독하는 각종 데이터를 기억하는 것이다. 특히, 기억부(4)는, 제스처 인식 장치(1)가 제스처 인식 처리를 실행할 때에 판독하는 각종 프로그램, 데이터를 기억한다.The storage unit 4 is an application program for executing the various functions of the gesture control device 1, the control program, the OS program, and the input control unit 3 that the input control unit 3 executes. It stores various data to be read when the application program is executed. In particular, the storage unit 4 stores various programs and data to be read when the gesture recognition apparatus 1 performs a gesture recognition process.

이와 같이, 제스처 인식 장치(1)에 있어서, 입력 제어부(3)의 데이터 처리부(10)가, 온도 센서 칩(6)으로부터 취득된 온도 정보에 기초하여, 대상물(사용자의 손 등)의 움직임을 제스처로서 인식하고, 통신 제어부(11)가 이 인식 결과를 스마트 폰(100)에 대한 입력으로서, 스마트 폰(100) 본체에 공급한다. 이에 따라, 스마트 폰(100)은, 인식된 제스처에 할당된 동작을 실행할 수 있다.In this manner, in the gesture recognition apparatus 1, the data processing unit 10 of the input control unit 3 performs movement of an object (such as a user's hand) based on temperature information acquired from the temperature sensor chip 6. It recognizes as a gesture, and the communication control unit 11 supplies this recognition result to the smartphone 100 main body as an input to the smartphone 100. Accordingly, the smartphone 100 may execute an operation assigned to the recognized gesture.

즉, 제스처 인식 장치(1)는, 스마트 폰(100)의 비접촉형 입력 장치로서 기능할 수 있다.That is, the gesture recognition apparatus 1 can function as a non-contact input device of the smart phone 100.

〔데이터 처리부의 구성〕[Configuration of Data Processing Unit]

도 1은, 제스처 인식 장치(1)의 데이터 처리부(10)의 주요부 구성의 상세를 나타내는 블록도이다.FIG. 1 is a block diagram showing the details of the configuration of main parts of the data processing unit 10 of the gesture recognition apparatus 1.

데이터 처리부(10)는, 기능 블록으로서, 적어도, 온도 정보 취득부(30), 좌표 배치부(31), 변화량 산출부(32) 및 제스처 인식부(34)를 구비하는 구성으로 되어 있다. 데이터 처리부(10)는, 또한, 무게 중심 결정부(33)를 구비하고 있는 것이 바람직하다. 또한, 데이터 처리부(10)는, 또한, 마스크 선택부(35) 및 편차 산출부(36)를 구비하고 있어도 된다.The data processing unit 10 is configured to include at least a temperature information acquisition unit 30, a coordinate arrangement unit 31, a change amount calculation unit 32, and a gesture recognition unit 34 as functional blocks. It is preferable that the data processing unit 10 further includes a center of gravity determination unit 33. In addition, the data processing unit 10 may further include a mask selection unit 35 and a deviation calculation unit 36.

그리고 기억부(4)는, 데이터 처리부(10)가 식별해야 할 제스처의 패턴을 기억하기 위한 제스처 패턴 기억부(40)를 적어도 포함하고 있다. 기억부(4)는, 또한, 마스크 기억부(41) 및 기준값 기억부(42)를 포함하고 있어도 된다.The storage unit 4 further includes at least a gesture pattern storage unit 40 for storing a pattern of gestures to be identified by the data processing unit 10. The storage unit 4 may further include a mask storage unit 41 and a reference value storage unit 42.

상술한 데이터 처리부(10)의 각 기능 블록은, MPU(micro processing unit) 또는 CPU(central processing unit) 등의 중앙 연산 처리 장치가, ROM(read only memory), NVRAM(non―Volatile random access memory) 등으로 실현된 기억 장치[기억부(4)]에 기억되어 있는 프로그램을 RAM(random access memory)[일시 기억부(8)] 등에 판독하여 실행하는 것으로 실현할 수 있다.Each functional block of the data processing unit 10 includes a central processing unit such as a micro processing unit (MPU) or a central processing unit (CPU) such as read only memory (ROM) and non-volatile random access memory (NVRAM). The program stored in the memory device (memory section 4) realized by, for example, can be realized by reading and executing a random access memory (RAM) (temporary memory section 8) or the like.

온도 정보 취득부(30)는, 디지털 변환된 온도 정보(d1)를, AD 변환부(12)로부터 취득하는 것이다. 본 실시 형태에서는, 온도 정보(d1)는, 각 센서가 검지한 온도의 값에, 0 내지 15번지까지의 각 센서의 번지가 대응시켜진 데이터 구조로 되어 있다. 본 실시 형태에서는, 온도 정보 취득부(30)는, 온도 센서 칩(6)의 각 센서에 의해 리얼 타임으로 검지된 온도 정보(d1)를, 일정 시간 간격(예를 들어, 0.5초마다)으로 취득하여 일시 기억부(8)에 수시 저장한다. 이때, 온도 정보 취득부(30)는, 검지된 타이밍을 식별하는 타이밍 정보 Ti(i=0, 1, 2, ···, n)를, 취득하는 온도 정보(d1)에 관련지어 둔다.The temperature information acquisition unit 30 acquires the digitally converted temperature information d1 from the AD conversion unit 12. In the present embodiment, the temperature information d1 has a data structure in which addresses of the sensors from 0 to 15 correspond to values of temperatures detected by the sensors. In the present embodiment, the temperature information acquisition unit 30 uses the temperature information d1 detected in real time by each sensor of the temperature sensor chip 6 at regular time intervals (for example, every 0.5 seconds). It acquires and stores it in the temporary storage part 8 from time to time. At this time, the temperature information acquisition unit 30 associates timing information T i (i = 0, 1, 2, ..., n) for identifying the detected timing with the temperature information d1 to be acquired.

좌표 배치부(31)는, 각 센서로부터 취득한 온도 정보를, 각 센서의 배치에 대응하도록 2차원 좌표 상에 플롯하는 것이다. 본 실시 형태에서는, 0번지로부터 15번지까지의, 4×4=16개의 센서의 배치에 대응하도록, 각 센서로부터 취득한 온도 정보를, XY 좌표계에 플롯한다.The coordinate arrangement unit 31 plots the temperature information acquired from each sensor on two-dimensional coordinates so as to correspond to the arrangement of each sensor. In this embodiment, temperature information acquired from each sensor is plotted on the XY coordinate system so as to correspond to the arrangement of 4x4 = 16 sensors from address 0 to address 15.

도 6은, 좌표 배치부(31)가 각 센서로부터의 온도를 XY 좌표계에 플롯한 후의 온도 정보의 데이터 구조를 모식적으로 나타내는 도면이다.FIG. 6: is a figure which shows typically the data structure of the temperature information after the coordinate arrangement part 31 plotted the temperature from each sensor on the XY coordinate system.

예를 들어, 도 4에 나타내는 바와 같이, 온도 센서 칩(6)에 있어서, 0 내지 15번지의 16개의 적외선 센서가, 종횡 4×4개가 되도록 배치되어 있는 경우, 좌표 배치부(31)는, 온도 센서 칩(6)의 좌측 하단부를 원점으로 하고, 동일하게, XY 좌표계의 좌측 하단부를 원점으로 하여, 각 센서의 온도를 플롯한다.For example, as shown in FIG. 4, in the temperature sensor chip 6, when 16 infrared sensors of 0-15 addresses are arrange | positioned so that it may become 4 * 4 vertically and horizontally, the coordinate arrangement part 31 is The temperature of each sensor is plotted using the left lower end of the temperature sensor chip 6 as the origin and the left lower end of the XY coordinate system as the origin.

구체적으로는, 12번지의 센서가 검지한 온도를, (X, Y)=(1, 1)의 위치에 플롯하고, 그 우측 옆의 13번지의 센서의 온도를, (X, Y)=(2, 1)의 위치에 플롯한다. 좌표 배치부(31)는, 이후의 센서에 대해서도 마찬가지로, 센서의 실제의 배치에 대응하도록, 온도를 XY 좌표계에 플롯한다. 최종적으로, 가장 우측 상부의 3번지의 센서의 온도는, (X, Y)=(4, 4)의 위치에 플롯된다.Specifically, the temperature detected by the sensor at address 12 is plotted at a position of (X, Y) = (1, 1), and the temperature of the sensor at address 13 on the right side is (X, Y) = ( Plot at the position of 2, 1). Similarly, the coordinate arranging unit 31 plots the temperature in the XY coordinate system so as to correspond to the actual arrangement of the sensor. Finally, the temperature of the sensor at the rightmost top three is plotted at the position of (X, Y) = (4, 4).

이와 같이 XY 좌표계에 플롯된 온도 정보는, 타이밍 정보 Ti와 관련지어 일시 기억부(8)에 저장된다. 도 7은, XY 좌표계에 플롯된 온도 정보의 구체예를 나타내는 도면이다. 도 7에는, 타이밍 T0로부터 Tn까지의 사이에 취득된 온도 정보의 각각에 대해 XY 좌표계가 작성된 예를 나타내고 있다. XY 좌표계의 16개의 셀에 저장되어 있는 두 자리의 숫자는, 각 센서가 검지한 온도(여기서는, 단위는, ℃)를 나타내고 있다.The temperature information plotted in the XY coordinate system in this way is stored in the temporary storage unit 8 in association with the timing information T i . 7 is a diagram illustrating a specific example of temperature information plotted on an XY coordinate system. 7 shows an example in which an XY coordinate system is created for each of the temperature information acquired between timings T 0 to T n . The two digits stored in 16 cells of the XY coordinate system indicate the temperature (in this case, the unit is ° C) detected by each sensor.

변화량 산출부(32)는, 소정의 임계값과, 상술한 바와 같이 각 센서로부터 취득된 실제의 온도를 비교하여, 온도 변화 혹은 검지 대상물(손, 손가락 등)의 유무를 판정하는 것이다. 또한, 소정의 기준값과 실제의 온도를 비교하여, 각 센서의 검지 온도의 변화량을 산출하는 것이다.The change amount calculation unit 32 compares the predetermined threshold value with the actual temperature acquired from each sensor as described above, and determines the presence or absence of a temperature change or a detection target (hand, finger, etc.). In addition, the amount of change in the detection temperature of each sensor is calculated by comparing the predetermined reference value with the actual temperature.

변화량 산출부(32)는, 소정의 임계값과 비교하여, 각 센서의 온도가 대상물의 온도를 검지하고 있는지 아닌지를 판단한다. 예를 들어, 검지 대상물로서 인간의 손을 검지하고 싶은 경우, 인간의 체온으로서 상정할 수 있는 하한값(경우에 따라서는 상한값이어도 됨)을 임계값으로서 설정한다. 여기에서는, 33℃로 설정되어 있는 것으로 한다.The change amount calculation unit 32 determines whether or not the temperature of each sensor detects the temperature of the target object in comparison with a predetermined threshold value. For example, when it is desired to detect a human hand as a detection object, a lower limit (which may be an upper limit in some cases) that can be assumed as human body temperature is set as a threshold. Here, it is set to 33 degreeC.

변화량 산출부(32)는, 각 센서의 온도를 임계값 33℃와 비교하여, 33℃ 이상의 온도가 검지된 센서를, 손을 검지한 센서로서 인식한다. 즉, 손을 검지한 센서의 위치를 확인하면, 그것을, 그대로 손이 존재하는 위치로서 취급하는 것이 가능하다.The change amount calculating part 32 compares the temperature of each sensor with the threshold value of 33 degreeC, and recognizes the sensor which detected the temperature of 33 degreeC or more as a sensor which detected a hand. That is, if the position of the sensor which detected a hand is confirmed, it can be treated as a position where a hand exists as it is.

상기 임계값은, 원하는 검지 대상물의 성질을 고려하여, 상기 대상물을 특정하기 위해 유효한 온도가 적절하게 설정되면 된다. 설정된 임계값은, 미리 기준값 기억부(42)에 기억되어 있고, 변화량 산출부(32)에 의해 필요에 따라 판독된다.The threshold value may be appropriately set to an effective temperature for specifying the object in consideration of the properties of the desired detection object. The set threshold value is previously stored in the reference value storage section 42, and is read by the change amount calculation section 32 as necessary.

도 8은, 각 검지 타이밍에 있어서의, 스마트 폰(100)과 손의 위치 관계와, 당해 타이밍에 있어서 검지, 취득된 온도 정보의 관계를 나타내는 도면이다. 도 8에 나타내는 바와 같이, 타이밍 T1에 있어서, 손이 센서부(2)의 검지 범위의 좌측 단부에 위치하고 있다고 한다. 이 경우, 좌표 배치부(31)는, 도 8에 나타내는, 타이밍 T1을 관련되어진 XY 좌표계를 생성한다. 변화량 산출부(32)는, XY 좌표계의 각 좌표 위치에 저장되어 있는 온도와, 임계값(33)을 비교하고, 임계값 이상의 온도의 좌표 위치를 특정하여, 이를 손의 영역으로서 특정한다. 변화량 산출부(32)는, 도 8에 나타내는 예에서는, 상기 손의 실제의 위치와 마찬가지로, XY 좌표계에 있어서도, 좌측 단부의 영역(망점의 영역)을, 손의 영역으로서 특정하고 있다. 다음으로, 타이밍 T2에 있어서, 손이 스마트 폰(100)[센서부(2)]의 정면까지 이동했다고 한다. 이 경우, 좌표 배치부(31)는, 타이밍 T2를 관련되어진 XY 좌표계를 생성한다(도 8). 그리고 변화량 산출부(32)는, XY 좌표계의 전체면(망점의 영역)을, 손의 영역으로서 특정한다. 그리고 타이밍 T3에 있어서, 손이 더욱 이동하여, 상기 검지 범위의 우측 단부까지 이동했다고 한다. 이 경우, 좌표 배치부(31)는, 도 8에 도시하는, 타이밍 T3를 관련되어진 XY 좌표계를 생성한다. 변화량 산출부(32)는, 임계값 33℃ 이상인 우측 단부의 영역(망점의 영역)을, 손의 영역으로서 특정한다.FIG. 8: is a figure which shows the positional relationship of the smartphone 100 and a hand in each detection timing, and the relationship of the temperature information detected and acquired in the said timing. As shown in Figure 8, at time T 1, and that the hand is located in the left end of the detection range of the sensor unit (2). In this case, the coordinate arranging unit 31 generates the XY coordinate system associated with the timing T 1 shown in FIG. 8. The change amount calculating unit 32 compares the temperature stored at each coordinate position of the XY coordinate system with the threshold value 33, specifies the coordinate position of the temperature of the threshold value or more, and specifies this as the area of the hand. In the example shown in FIG. 8, the change amount calculation part 32 specifies the area | region of a left end (area of a halftone point) as an area of a hand also in an XY coordinate system similarly to the actual position of the said hand. Next, at time T 2, and that the hand is moved to the front of the smart phone (100) the sensor section (2). In this case, the coordinate arranging unit 31 generates the XY coordinate system associated with the timing T 2 (FIG. 8). And the change amount calculation part 32 specifies the whole surface (area of a halftone point) of an XY coordinate system as an area | region of a hand. At timing T 3 , the hand was further moved to move to the right end of the detection range. In this case, the coordinate arranging unit 31 generates the XY coordinate system associated with the timing T 3 shown in FIG. 8. The change amount calculation part 32 specifies the area | region of the right end part (region of a half-dot) which is threshold value 33 degreeC or more as an area | region of a hand.

또한, 변화량 산출부(32)는, 실제로 검지된 온도와 기준값의 차분을, 변화량 ΔT로서 산출한다. 변화량 산출부(32)는, 각 번지(좌표 위치)의 온도에 관해, 변화량 ΔT(X, Y)를 각각 산출한다.The change amount calculation unit 32 calculates the difference between the temperature actually detected and the reference value as the change amount ΔT. The change amount calculation unit 32 calculates the change amounts ΔT (X, Y) respectively with respect to the temperature of each address (coordinate position).

여기서, 기준값은, 상술한 대상물을 검지하기 위한 임계값과 동일해도 되고, 대상물이 아무것도 없는 때의 환경 온도를 고려하여 적절한 값이 정해져도 된다. 본 실시 형태에서는, 스마트 폰(100)의 주위의 환경 온도가 25℃이므로, 기준값이 25℃로 미리 정해져 있는 것으로 한다. 이 규정의 기준값은, 기준값 기억부(42)에 기억되어 있고, 변화량 산출부(32)에 의해 필요에 따라 판독된다.Here, the reference value may be the same as the threshold value for detecting the above-described object, or an appropriate value may be determined in consideration of the environmental temperature when there is nothing. In the present embodiment, since the ambient temperature around the smartphone 100 is 25 ° C, the reference value is determined to be 25 ° C in advance. The reference value of this regulation is stored in the reference value storage section 42, and is read by the change amount calculation section 32 as necessary.

또한, 이 기준값은, 동적으로 갱신되는 구성이어도 된다. 예를 들어, 온도 센서 칩(6)에 의해 온도가 수시 측정되어, 변화량이 크게 변동하는 일 없이 일정 시간 경과했다고 한다. 이때, 데이터 처리부(10)의 도시하지 않은 평균값 산출부가, 이 기간에 측정된 온도의 평균값을 산출하고, 이를, 기준값으로서 기준값 기억부(42)에 저장해도 된다.The reference value may be a structure that is dynamically updated. For example, it is said that the temperature is measured from time to time by the temperature sensor chip 6, and it has elapsed for a certain period of time without a great fluctuation in the amount of change. At this time, the average value calculating part which is not shown in the data processing part 10 may calculate the average value of the temperature measured in this period, and may store this in the reference value storage part 42 as a reference value.

또한, 변화량 산출부(32)는, 각 셀의 번지마다 구한 변화량 ΔT(X, Y)를 모두 합산하고, 타이밍 Ti에 있어서의 XY 좌표계의 변화량 ΔT(X, Y)의 합계(이하, SUM)를 구한다. 구체적으로는, 본 실시 형태에서는, 변화량 산출부(32)는, 다음 식, SUM=ΔT(1, 1)+ΔT(1, 2)+ΔT(1, 3)+ΔT(1, 4)+ΔT(2, 1)+ΔT(2, 2)+ΔT(2, 3)+ΔT(2, 4)+ΔT(3, 1)+ΔT(3, 2)+ΔT(3, 3)+ΔT(3, 4)+ΔT(4, 1)+ΔT(4, 2)+ΔT(4, 3)+ΔT(4, 4)를 계산한다.In addition, the change amount calculation unit 32 adds all the change amounts ΔT (X, Y) obtained for each address of each cell, and sums up the change amount ΔT (X, Y) of the XY coordinate system at the timing T i (hereinafter, SUM). ) Specifically, in the present embodiment, the change amount calculation unit 32 has the following formula: SUM = ΔT (1, 1) + ΔT (1, 2) + ΔT (1, 3) + ΔT (1, 4) + ΔT (2, 1) + ΔT (2, 2) + ΔT (2, 3) + ΔT (2, 4) + ΔT (3, 1) + ΔT (3, 2) + ΔT (3, 3) + ΔT (3, 4) + ΔT (4, 1) Calculate + ΔT (4, 2) + ΔT (4, 3) + ΔT (4, 4).

이에 의해, 타이밍 Ti에 있어서의, 검출 범위(도 2의 파선 범위 내)에 발생한 전체의 변화량(SUM)이 명백해진다.Thereby, the total amount of change SUM generated in the detection range (in the broken line range in FIG. 2) in the timing T i becomes apparent.

변화량 산출부(32)는, 상술한 바와 같이 각 셀의 번지마다 구한 변화량 ΔT(X, Y) 및 그 합계 SUM을, 타이밍 Ti에 관련짓고, XY 좌표계에 플롯하여, 일시 기억부(8)에 저장한다.The change amount calculation unit 32 associates the change amount ΔT (X, Y) and the sum SUM obtained for each address of each cell as described above with the timing T i , and plots the result in the XY coordinate system to store the temporary storage unit 8. Store in

변화량 산출부(32)에 의해 구해진 변화량 ΔT를 참조함으로써, 어느 타이밍에서 어느 위치에 온도의 변화가 보인 것인지를 파악할 수 있다. 또한, 변화량 ΔT 및 SUM은, 제스처 인식 대상물의 유무나, 대상물의 영역(변화량이 큰 영역)의 무게 중심의 좌표 위치(Gx, Gy)를 판단하기 위해 후술의 각 기능 블록에 의해 판독되어, 사용된다.By referring to the change amount ΔT obtained by the change amount calculation unit 32, it is possible to determine at what timing and at which position the change in temperature is seen. In addition, the change amounts ΔT and SUM are read and used by the functional blocks described below to determine the presence or absence of a gesture recognition object and the coordinate positions (Gx, Gy) of the center of gravity of the area of the object (area of large change amount). do.

또한, 변화량 산출부(32)는, 각 센서로부터 취득된 온도 정보에 기초하여, 언제의 타이밍으로부터 언제의 타이밍까지를, 사용자의 조작 기간[사용자가 스마트 폰(100)에 대하여 입력을 행하려고 하여 의도적으로 손을 움직이고 있는 기간]으로서 인식하면 좋은 것인지를 판단하는 것이 바람직하다.In addition, the change amount calculation unit 32, based on the temperature information acquired from each sensor, the timing from when to when the user's operation period (the user tries to input to the smartphone 100, It is preferable to determine whether or not it is acceptable to recognize the period of time when the hand is intentionally moved.

사용자가 조작하고 있는 기간을 판단하는 방법의 몇 개에 대해 구체적으로 설명하면 이하와 같다.Some of the methods for determining the period of time that the user is operating will be described in detail below.

제1 방법은, 기준값 기억부(42)에 기억되어 있는 임계값을 사용하는 방법이다. 변화량 산출부(32)는, 어떤 타이밍에 있어서의 XY 좌표계에 플롯된 각 온도와 임계값(예를 들어, 33℃)을 비교하여, 33℃ 이상을 검출한 센서가 2개 이상 있는 경우에, 변화 있음(조작 개시)이라고 판단한다. 그리고 33℃ 이상을 검출한 센서가 2개 이상 있는 기간을 조작 기간으로서 판단할 수 있다.The first method is a method of using a threshold value stored in the reference value storage section 42. When the change amount calculation unit 32 compares each temperature plotted on the XY coordinate system at a certain timing with a threshold value (for example, 33 ° C), and there are two or more sensors that detect 33 ° C or more, It is judged that there is a change (operation start). And the period in which two or more sensors which detected 33 degreeC or more can be determined as an operation period.

제2 방법은, 검지 타이밍마다 구한 XY 좌표계 전체의 변화량 SUM 및 기준값 기억부(42)에 기억되어 있는 기준값을 사용하는 방법이다. 변화량 산출부(32)는, 기준값을 Ta℃로 한 때, (35℃―Ta℃)×2를 변화량의 임계값으로 정하고, SUM이, (35℃―Ta℃)×2 이상인 경우에, 변화 있음(조작 개시)이라고 판단한다. 그리고 SUM이, (35℃―Ta℃)×2 이상인 기간을 조작 기간으로서 판단할 수 있다.The second method is a method of using the change amount SUM of the entire XY coordinate system obtained for each detection timing and the reference value stored in the reference value storage section 42. When the change amount calculation unit 32 sets the reference value to Ta ° C, the change amount calculation unit 32 sets (35 ° C-Ta ° C) x 2 as the threshold of the change amount, and when the SUM is (35 ° C-Ta ° C) x 2 or more, the change It is judged that there is (operation start). And the period in which SUM is (35 degreeC-Ta degreeC) x2 or more can be judged as an operation period.

상기 구성에 따르면, 변화량 산출부(32)에 의해 조작 기간으로 판단된 기간의 온도 정보만에 한정하여 이후의 제스처 인식 처리를 진행할 수 있고, 처리에 들이는 정보량을 줄임으로써, 제스처 인식 장치(1)의 처리 효율의 향상과, 처리 부하의 저감을 실현할 수 있다.According to the above configuration, only the temperature information of the period determined as the operation period by the change amount calculating section 32 can proceed to the subsequent gesture recognition processing, and the gesture recognition apparatus 1 can be reduced by reducing the amount of information involved in the processing. ), And the processing load can be reduced.

무게 중심 결정부(33)는, 각 센서의 변화량 ΔT 및 SUM에 기초하여, XY 좌표계에 있어서 변화가 인정된 영역, 구체적으로는, 손이 검지되는 등에 의해 온도 상승이 있었던 변화 영역(도 8의 망점의 영역)의 무게 중심을 결정하는 것이다. 무게 중심 결정부(33)는, 변화량 ΔT 및 SUM을 참조하면서, 이하의 수순에 따라, 변화 영역의 무게 중심 G의 좌표(Gx, Gy)를 결정한다.The center of gravity determination unit 33 is a region in which a change is recognized in the XY coordinate system based on the change amounts ΔT and SUM of each sensor, specifically, a change region in which a temperature rise occurs due to the detection of a hand (see FIG. 8). Area of halftone). The center of gravity determination unit 33 determines the coordinates Gx and Gy of the center of gravity G of the change area in accordance with the following procedure while referring to the changes ΔT and SUM.

무게 중심 결정부(33)는, 무게 중심 G의 X 좌표(Gx)를 구한다. Gx는, 각 좌표 위치의 변화량 ΔT에, 각 좌표 위치의 X 좌표에 따른 계수를 곱한 것을 합계하고, 이를, 상기 SUM으로 나눔으로써 산출된다. 구체적으로는, 무게 중심 결정부(33)는, 다음 식, Gx={(ΔT(1, 1)+ΔT(1, 2)+ΔT(1, 3)+ΔT(1, 4))×1+(ΔT(2, 1)+ΔT(2, 2)+ΔT(2, 3)+ΔT(2, 4))×2+(ΔT(3, 1)+ΔT(3, 2)+ΔT(3, 3)+ΔT(3, 4))×3+(ΔT(4, 1)+ΔT(4, 2)+ΔT(4, 3)+ΔT(4, 4))×4}÷SUM을 계산한다.The center of gravity determination unit 33 obtains the X coordinate Gx of the center of gravity G. Gx is computed by adding up the product of the change amount (DELTA) T of each coordinate position multiplied by the coefficient according to the X coordinate of each coordinate position, and dividing this by the said SUM. Specifically, the center of gravity determination unit 33 is represented by the following equation, Gx = {(ΔT (1, 1) + ΔT (1, 2) + ΔT (1, 3) + ΔT (1, 4)) × 1 + (ΔT ( 2, 1) + ΔT (2, 2) + ΔT (2, 3) + ΔT (2, 4) × 2 + (ΔT (3, 1) + ΔT (3, 2) + ΔT (3, 3) + ΔT (3, 4) ) X 3 + (ΔT (4, 1) + ΔT (4, 2) + ΔT (4, 3) + ΔT (4, 4)) × 4} ÷ SUM.

또한, 무게 중심 결정부(33)는, 무게 중심 G의 Y 좌표(Gy)를 구한다. Gy는, 각 좌표 위치의 변화량 ΔT에, 각 좌표 위치의 Y 좌표에 따른 계수를 곱한 것을 합계하고, 이를, 상기 SUM으로 나눔으로써 산출된다. 구체적으로는, 무게 중심 결정부(33)는, 다음 식, Gy={(ΔT(1, 1)+ΔT(2, 1)+ΔT(3, 1)+ΔT(4, 1))×1+(ΔT(1, 2)+ΔT(2, 2)+ΔT(3, 2)+ΔT(4, 2))×2+(ΔT(1, 3)+ΔT(2, 3)+ΔT(3, 3)+ΔT(4, 3))×3+(ΔT(1, 4)+ΔT(2, 4)+ΔT(3, 4)+ΔT(4, 4))×4}÷SUM을 계산한다.In addition, the center of gravity determination unit 33 obtains the Y coordinate Gy of the center of gravity G. Gy is computed by multiplying the change quantity (DELTA) T of each coordinate position multiplied by the coefficient according to the Y coordinate of each coordinate position, and dividing this by the said SUM. Specifically, the center of gravity determination unit 33 is represented by the following equation, Gy = {(ΔT (1, 1) + ΔT (2, 1) + ΔT (3, 1) + ΔT (4, 1)) × 1 + (ΔT ( 1, 2) + ΔT (2, 2) + ΔT (3, 2) + ΔT (4, 2) × 2 + (ΔT (1, 3) + ΔT (2, 3) + ΔT (3, 3) + ΔT (4, 3) ) X 3 + (ΔT (1, 4) + ΔT (2, 4) + ΔT (3, 4) + ΔT (4, 4)) × 4} ÷ SUM.

무게 중심 결정부(33)는, 상술한 바와 같이 하여 구한 타이밍 Ti에 있어서의 변화 영역의 무게 중심 G의 좌표(Gx, Gy)를, 타이밍 Ti에 관련지어 일시 기억부(8)에 저장한다. 무게 중심 결정부(33)는, 좌표 배치부(31)가 생성한 XY 좌표계에, 무게 중심 G(Gx, Gy)를 플롯해도 된다.The center of gravity determination unit 33 stores the coordinates Gx and Gy of the center of gravity G of the change area at the timing T i obtained as described above in the temporary storage unit 8 in association with the timing T i . do. The center of gravity determination unit 33 may plot the center of gravity G (Gx, Gy) on the XY coordinate system generated by the coordinate arrangement unit 31.

도 9는, 도 8에 도시하는 타이밍 T1 내지 T3의 기간에 대해, 변화량 산출부(32)에 의해 생성된 정보와, 무게 중심 결정부(33)에 의해 생성된 정보의 구체예를 나타내는 도면이다.FIG. 9 shows a specific example of the information generated by the change amount calculation unit 32 and the information generated by the center of gravity determination unit 33 for the period of the timings T 1 to T 3 shown in FIG. 8. Drawing.

변화량 산출부(32)는, 타이밍 T1의 온도 정보(도 8의 XY 좌표계 T1)를 취득하고, 각 센서의 온도와 기준값 25℃의 차분을 산출하여, 각 센서의 변화량 ΔT의 값을 플롯한다. 이 플롯의 결과를, 도 9의 XY 좌표계 T1에 나타낸다. 마찬가지로, 도 9의 XY 좌표계 T2, T3은, 각각, 도 8에 나타내는 타이밍 T2, T3의 온도 정보로부터, 변화량 ΔT의 값을 구한 것을 나타내고 있다.The change amount calculation unit 32 obtains the temperature information of the timing T 1 (XY coordinate system T 1 in FIG. 8), calculates a difference between the temperature of each sensor and the reference value of 25 ° C., and plots the value of the change amount ΔT of each sensor. do. The results of this plot shows the XY coordinate system T 1 in Fig. Similarly, Figure 9 of the XY coordinate system T 2, T 3, respectively, indicates that the timing information from the temperature T 2, T 3 in Fig. 8, the determined value of the change amount ΔT.

그리고 변화량 산출부(32)는, 또한, 도 9의 XY 좌표계 T1에 기초하여, 타이밍 T1에 있어서의 전체의 변화량 SUM을「105」로 산출한다. 마찬가지로, 타이밍 T2에 있어서의 전체의 변화량 SUM을「168」로 산출하고, 타이밍 T3에 있어서의 전체의 변화량 SUM을「84」로 산출한다.And the change amount calculation unit 32 also calculates a total amount of change of the SUM at the timing T 1 on the basis of the XY coordinate system T 1 in Fig. 9 by "105". Similarly, the total amount of change SUM at timing T 2 is calculated as "168", and the total amount of change SUM at timing T 3 is calculated as "84".

계속하여, 무게 중심 결정부(33)는, 상술한 바와 같이 하여 구해진 각 센서의 변화량 ΔT와 SUM을 사용하여, 변화 영역(도 8의 망점의 영역)의 무게 중심 G를 결정한다. 도 9에 나타내는 예에서는, 무게 중심 결정부(33)는, 타이밍 T1에 있어서의 무게 중심 G의 좌표(Gx, Gy)를, (1.8, 2.5)로 결정하고, 타이밍 T2에 있어서의 무게 중심 G의 좌표(Gx, Gy)를, (2.5, 2.5)로 결정하고, 타이밍 T3에 있어서의 무게 중심 G의 좌표(Gx, Gy)를, (3.5, 2.5)로 결정한다.Subsequently, the center of gravity determination unit 33 determines the center of gravity G of the change area (the halftone dot area in FIG. 8) by using the change amounts ΔT and SUM of each sensor obtained as described above. In the example shown in Figure 9, the center-of-gravity determining section 33, the timing T weight coordinate of the center G of the 1 (Gx, Gy) to (1.8, 2.5) as determined, the weight in the timing T 2 The coordinates Gx and Gy of the center G are determined as (2.5, 2.5), and the coordinates Gx and Gy of the center of gravity G at the timing T 3 are determined as (3.5, 2.5).

이 무게 중심 G의 위치를 추종하면, 대상물(손)이 언제의 타이밍에서 어떻게 움직였는지를 이후의 공정에서 인식할 수 있다.By following this position of the center of gravity G, it is possible to recognize in a subsequent process how and when the object (hand) moved at the timing.

이상과 같이, 검지 타이밍마다, 변화 영역의 무게 중심 G의 좌표를 특정함으로써, 변화 영역(손)의 이동의 궤적을 적은 계산량으로 구하는 것이 가능해지므로, 무게 중심 결정부(33)의 구성 및 무게 중심을 결정하는 방법을 채용하는 것은, 처리 효율의 향상 및 처리 부하의 저감의 관점으로부터 바람직하다.As described above, by specifying the coordinates of the center of gravity G of the change area for each detection timing, the trajectory of the movement of the change area (hand) can be obtained with a small amount of calculation, so that the configuration and the center of gravity of the center of gravity determiner 33 are determined. It is preferable to adopt a method for determining the ratio from the viewpoint of improving the processing efficiency and reducing the processing load.

또한, 대상물(손)의 제스처를 인식하기 위해, 손의 이동의 궤적을 추적할 필요가 있지만, 이동 궤적을 추적하는 방법으로서, 상술한 무게 중심을 결정하고, 무게 중심을 추적하는 방법은, 단순히 일례이며, 본 발명의 구성은 이것에 한정되지 않는다.In addition, in order to recognize the gesture of the object (hand), it is necessary to track the trajectory of the movement of the hand. As a method of tracking the movement trajectory, the above-described method of determining the center of gravity and tracking the center of gravity are simply It is an example and the structure of this invention is not limited to this.

제스처 인식부(34)는, 대상물의 위치를 추적하고, 대상물의 이동의 궤적에 따라 상기 대상물의 움직임을 제스처로서 인식하는 것이다. 본 실시 형태에서는, 구체적으로는, 무게 중심 결정부(33)에 의해 결정된 대상물의 무게 중심의 위치를 추적하여, 무게 중심의 궤적을 특정하고, 특정한 무게 중심의 궤적에 따라 대상물의 제스처를 식별한다.The gesture recognition unit 34 tracks the position of the object and recognizes the movement of the object as a gesture according to the trajectory of the movement of the object. In this embodiment, specifically, the position of the center of gravity of the object determined by the center of gravity determination unit 33 is tracked, the trajectory of the center of gravity is specified, and the gesture of the object is identified according to the trajectory of the specific center of gravity. .

도 10은, 제스처 인식부(34)가 무게 중심의 궤적을 특정한 결과의 구체예를 나타내는 도면이다. 또한, 도 10에 나타낸 무게 중심의 궤적은, 제스처 인식부(34)가 특정하는 궤적의 일례를 설명을 위해 구체적으로 기재한 것이며, 실제로는 이와 같은 궤적은, 사용자가 육안 확인 가능하도록 제시되는 것은 아니다.10 is a diagram showing a specific example of the result of the gesture recognition unit 34 specifying the trajectory of the center of gravity. In addition, the trajectory of the center of gravity shown in FIG. 10 has described in detail the example of the trajectory which the gesture recognition part 34 specifies, and in fact, such a trajectory is presented so that a user can visually confirm. no.

도 10에 나타내는 바와 같이, 도 9에 나타내는 타이밍 T1 내지 T3의 각각의 무게 중심을, 1개의 좌표계에 플롯하면, 무게 중심의 이동의 궤적이 명백해진다.As shown in Fig. 10, if the plot of each of the center of gravity of a timing T 1 to T 3 shown in FIG. 9, a single coordinate system, it is clear that the locus of movement of the center of gravity.

제스처 인식부(34)는, 조작 기간의 개시 타이밍 Ts로부터, ···, T1, T2, T3, ···, 그리고 조작기간 종료 타이밍 Te까지의 무게 중심을 추적하고, 그 움직임을 인식한다. 도 10에 나타내는 예에서는, T1의 위치로부터 T3의 위치에 걸쳐, 무게 중심이 좌측으로부터 우측으로 이동하고 있다. 따라서, 제스처 인식부(34)는,「좌측으로부터 우측으로 이동」이라고 하는 제스처가 행해졌다고 인식할 수 있다. 제스처 인식부(34)는, 무게 중심의 궤적에 따라,「우측으로부터 좌측으로 이동」,「상측으로부터 하측으로 이동」,「하측으로부터 상측으로 이동」,「시계 방향으로 이동」,「반시계 방향으로 이동」등의 각종 제스처를 식별할 수 있다.The gesture recognition unit 34 tracks the center of gravity from the start timing T s of the operation period to T1, T2, T3, ... and the operation period end timing T e , and recognizes the movement. do. In the example shown in FIG. 10, the center of gravity moves from the left to the right from the position of T 1 to the position of T 3 . Therefore, the gesture recognition unit 34 can recognize that the gesture "move from left to right" was performed. The gesture recognition unit 34 moves "from right to left", "moves from top to bottom", "moves from bottom to top", "moves clockwise", and "counterclockwise" according to the trajectory of the center of gravity. And various gestures such as “move to "

또한, 본 발명의 제스처 인식 장치(1)에 따르면, 제스처 인식부(34)는, 상술한 X축 방향 또는 Y축 방향의 움직임뿐만 아니라, Z축 방향의 움직임을 검지하고, 이를 제스처로서 식별하는 것이 가능하다.Further, according to the gesture recognition apparatus 1 of the present invention, the gesture recognition unit 34 detects not only the movement in the X-axis direction or the Y-axis direction, but also the movement in the Z-axis direction, and identifies it as a gesture. It is possible.

도 11은, 각 검지 타이밍에 있어서의, 스마트 폰(100)과 손의 위치 관계와, 당해 타이밍에 있어서 검지, 취득된 온도 정보의 관계를 나타내는 도면이다. 도 11에 나타내는 바와 같이, 타이밍 T1에 있어서, 손이 센서부(2)의 검지 범위의 가장 먼 곳에 위치하고 있다고 한다. 이 경우, 좌표 배치부(31)는, 도 11에 도시한 바와 같이, 타이밍 T1가 관련되어진 XY 좌표계를 생성한다. 손은, 스마트 폰(100)의 센서부(2)로부터 Z축 상의 먼 위치에 있기 때문에, 센서부(2)의 온도 센서 칩(6)의 면에 있어서 작게 파악된다. 그로 인해, 온도 센서 칩(6)의 전체면이 아닌, 국소에 있어서 변화 영역(망점 영역)이 특정된다.11 is a diagram showing the positional relationship between the smartphone 100 and the hand at each detection timing, and the relationship between the temperature information detected and acquired at the timing. As shown in Figure 11, at time T 1, and that the hand is positioned furthest from within the detection range of the sensor unit (2). In this case, coordinate configuration unit 31, and generates the XY coordinate been timing T 1 are related as shown in Fig. Since the hand is located at a position distant on the Z axis from the sensor portion 2 of the smartphone 100, the hand is small in terms of the temperature sensor chip 6 of the sensor portion 2. Therefore, the change area (dotted dot area) is specified locally, not on the entire surface of the temperature sensor chip 6.

한편, 타이밍 T2에 있어서, 손이, 타이밍 T1의 때보다도, 스마트 폰(100)에 가까운 위치에 있다고 한다. 이 경우, 좌표 배치부(31)는, 도 11에 나타내는 바와 같이, 타이밍 T2가 관련되어진 XY 좌표계를 생성한다. 손은, 스마트 폰(100)의 센서부(2)로부터 Z축 상의 가까운 위치에 있기 때문에, 온도 센서 칩(6)의 면에 있어서 크게 파악된다. 도 11에 나타내는 예에서는, 온도 센서 칩(6)의 전체면에 있어서 크게 파악된다. 그로 인해, 온도 센서 칩(6)의 전체면에 있어서 변화 영역이 특정된다. 즉, 변화 영역의 면적이 클(임계값 33℃ 이상의 센서의 수가 많을)수록, 대상물이 스마트 폰(100)의 가까운 곳에 위치하고, 변화 영역의 면적이 작을(임계값 33℃ 이상의 센서의 수가 적을)수록, 대상물이 스마트 폰(100)으로부터 먼 곳에 위치하고 있다고 판단할 수 있다.On the other hand, at time T 2, when all of the hand, the timing T 1, said to be in a position close to the smartphone 100. The In this case, as shown in FIG. 11, the coordinate arranging unit 31 generates an XY coordinate system associated with the timing T 2 . Since the hand is in a position close to the Z axis from the sensor unit 2 of the smartphone 100, the hand is largely grasped in the surface of the temperature sensor chip 6. In the example shown in FIG. 11, the whole surface of the temperature sensor chip 6 is grasped large. Therefore, the change area is specified on the whole surface of the temperature sensor chip 6. That is, the larger the area of the change area (the number of sensors having a threshold value of 33 ° C. or higher), the closer the object is to the vicinity of the smartphone 100, and the smaller the area of the change area (the fewer the number of sensors having a threshold value of 33 ° C. or higher). It may be determined that the object is located far from the smart phone 100.

따라서, 제스처 인식부(34)는, 검지 타이밍마다 추이하는, 변화 영역의 면적의 증감에 따라, 대상물의 Z축 방향의 움직임을 추적하여, 제스처를 식별한다. 구체적으로는, 제스처 인식부(34)는, 변화 영역의 면적의 증감에 따라,「손을 가까이한다」, 또는,「손을 멀리한다」등의 각종 제스처를 식별할 수 있다.Therefore, the gesture recognition unit 34 tracks the movement in the Z-axis direction of the object in accordance with the increase and decrease of the area of the change area, which changes every detection timing, to identify the gesture. Specifically, the gesture recognizing unit 34 can identify various gestures such as "close hands" or "away hands" according to the increase and decrease of the area of the change area.

본 실시 형태에서는, 기억부(4)는, 제스처 패턴 기억부(40)를 구비하고, 여기에, 미리 정해진 제스처의 몇 개의 패턴을 기억시키고 있다. 제스처 인식부(34)는, 무게 중심의 궤적, 또는, 변화 영역의 증감이, 제스처 패턴 기억부(40)에 기억되어 있는 어느 제스처 패턴에 합치하는 것인지를 판단하여, 제스처를 식별한다.In this embodiment, the memory | storage part 4 is equipped with the gesture pattern memory | storage part 40, and memorize | stores some patterns of a predetermined gesture here. The gesture recognition unit 34 determines which gesture pattern stored in the gesture pattern storage unit 40 corresponds to the trajectory of the center of gravity or the increase or decrease of the change area to identify the gesture.

도 12는, 제스처 패턴 기억부(40)에 기억되어 있는 제스처 패턴의 일례를 나타내는 도면이다. FIG. 12 is a diagram illustrating an example of a gesture pattern stored in the gesture pattern storage unit 40.

도 12에 나타내는 바와 같이, 제스처 패턴 기억부(40)에는, 제스처 인식부(34)가 인식할 수 있는 몇 개의 제스처 패턴이 기억되어 있다. 본 실시 형태에서는, 이들 제스처를 식별하기 위한 제스처 ID가, 각 제스처 패턴에 대응시켜 기억되어 있다.As shown in FIG. 12, in the gesture pattern storage unit 40, some gesture patterns that the gesture recognition unit 34 can recognize are stored. In this embodiment, the gesture ID for identifying these gestures is stored in correspondence with each gesture pattern.

예를 들어, 제스처 인식부(34)는, 도 10에 나타내는 무게 중심의 궤적에 따라, 대상물의 제스처를「좌측으로부터 우측으로 이동」이라고 인식한 경우에는,「좌측으로부터 우측으로 이동」의 제스처를 나타내는 제스처 ID「00」을, 인식 결과(d2)로서, 통신 제어부(11)에 출력한다(도 1 참조).For example, when the gesture recognizing unit 34 recognizes the gesture of the object as "move from left to right" according to the locus of the center of gravity shown in FIG. 10, the gesture recognition unit 34 performs a gesture of "move from left to right". The gesture ID " 00 " indicating is output to the communication control unit 11 as the recognition result d2 (see Fig. 1).

인식 결과(d2)는, 커넥터부(5)를 통해 스마트 폰(100) 본체(의 주제어부)에 입력된다. 스마트 폰(100)의 주제어부는, 제스처 ID「00」이 입력된 것에 따라, 제스처 ID「00」에 할당되어 있는 동작을 실행한다.The recognition result d2 is input into the main body of the smartphone 100 via the connector unit 5. The main control unit of the smartphone 100 executes the operation assigned to the gesture ID "00" in response to the input of the gesture ID "00".

또한, 도 12에 나타내는 제스처의 패턴은 일례이며, 본 발명을 한정하는 것은 아니다. 본 발명의 제스처 인식부(34)는, 여러 가지 대상물의 움직임의 패턴(예를 들어, 비스듬한 방향의 움직임 등)을, 도 12에 나타내는 제스처 이외의 제스처로서 인식해도 된다.In addition, the pattern of the gesture shown in FIG. 12 is an example, and does not limit this invention. The gesture recognition unit 34 of the present invention may recognize patterns of movement of various objects (for example, movement in an oblique direction, etc.) as gestures other than the gestures shown in FIG. 12.

〔제스처 인식 처리 흐름〕[Gesture recognition processing flow]

도 13은, 본 발명의 제스처 인식 장치(1)가 구비하는 데이터 처리부(10)의 각 부가 실행하는 제스처 인식 처리의 흐름을 나타내는 흐름도이다. 도 14는, 제스처 인식부(34)에 의해 실행되는 제스처 인식 처리의 흐름을 상세하게 나타내는 흐름도이다.13 is a flowchart showing the flow of gesture recognition processing performed by each unit of the data processing unit 10 included in the gesture recognition apparatus 1 of the present invention. 14 is a flowchart showing in detail the flow of the gesture recognition processing executed by the gesture recognition unit 34.

본 실시 형태에서는, 소정 기간 동안의 소정의 검지 타이밍(T0, T1, T2, …, Tn)에서, 센서부(2)가 대상물의 온도 정보를 검지하고, 수시, 데이터 처리부(10)에 공급하고 있는 구성을 상정하고 있다.In the present embodiment, the sensor unit 2 detects the temperature information of the target object at predetermined detection timings T 0 , T 1 , T 2 ,..., T n for a predetermined period, and at any time, the data processing unit 10. I assume the constitution supplying to).

우선, 소정의 검지 타이밍에 도달했을 때, 온도 정보 취득부(30)는, 검지 타이밍 Ti를 취득한다(S101). 그리고 취득한 타이밍 Ti에 관련되어진 온도 정보(d1)를, 온도 센서 칩(6)으로부터 취득한다(S102). 좌표 배치부(31)는, 취득된 온도 정보(d1)에 포함되는 센서마다의 온도를, 각 센서의 배치와 대응하는 XY 좌표계에 플롯한다(S103). 그리고 좌표 배치부(31)는, S103와 같이 하여 생성한 데이터를, 취득한 타이밍 Ti에 관련지어 일시 기억부(8)에 저장한다(S104).First, when the predetermined detection timing has been reached, the temperature information acquisition unit 30 acquires the detection timing T i (S101). Then, the temperature information d1 associated with the acquired timing T i is obtained from the temperature sensor chip 6 (S102). The coordinate arrangement unit 31 plots the temperature for each sensor included in the acquired temperature information d1 in the XY coordinate system corresponding to the arrangement of each sensor (S103). The coordinate arranging unit 31 stores the data generated in the same manner as in S103 in the temporary storage unit 8 in association with the acquired timing Ti (S104).

변화량 산출부(32)는, 임계값(예를 들어, 33℃)과, XY 좌표계의 각 좌표 위치에 플롯된 온도를 비교하여, 33℃ 이상을 검지한 센서가 2개 이상 있는지 여부를 판정한다(S105). 2개 이상 있는 경우(S105에 있어서 예), 변화량 산출부(32)는, 당해 타이밍 Ti에 있어서, 대상물(손)이 검지 범위에 존재하고, 타이밍 Ti의 시점은 사용자가 조작하고 있는 기간에 포함된다고 판단한다. 그리고 변화량 산출부(32)는, 각 좌표 위치의 온도의 변화량 ΔT를 각각 산출하고, 전체 좌표 위치의 변화량 ΔT를 합계하여 SUM을 산출한다(S106). 계속하여, 무게 중심 결정부(33)는, 변화량 ΔT 및 SUM에 기초하여, 손의 온도를 검지한 센서의 영역, 즉 변화 영역에 있어서의 무게 중심 G의 좌표(Gx, Gy)를 결정한다(S107).The change amount calculating part 32 compares the threshold value (for example, 33 degreeC) with the temperature plotted in each coordinate position of an XY coordinate system, and determines whether there are two or more sensors which detected 33 degreeC or more. (S105). If there is more than two (in S105 YES), the change amount calculation unit 32, in the art the timing T i, and the object (hand) is present in the detection range, the point of timing T i is the period that the user operates I think it is included in. And the change amount calculation part 32 calculates the change amount (DELTA) T of the temperature of each coordinate position, respectively, and calculates SUM by adding up the change amount (DELTA) T of all coordinate positions (S106). Subsequently, the center of gravity determining unit 33 determines the coordinates Gx and Gy of the center of gravity G in the area of the sensor that detects the temperature of the hand, that is, the change area, based on the change amounts ΔT and SUM ( S107).

무게 중심 결정부(33)는, 결정한 무게 중심을, S104에서 보존되어 있는 XY 좌표계에 플롯하고, 변화량 산출부(32)는, XY 좌표계에 변화량 ΔT 및 변화 영역을 플롯하는 동시에, SUM을 관련지어 일시 기억부(8)에 보존한다(S108).The center of gravity determination unit 33 plots the determined center of gravity in the XY coordinate system stored in S104, and the change amount calculation unit 32 plots the change amount ΔT and the change area in the XY coordinate system and associates the SUM with each other. It saves in the temporary storage part 8 (S108).

한편, 33℃ 이상을 검지한 센서가 2개 이상 없는 경우에는(S105에 있어서 아니오), 변화량 산출부(32)는, 당해 타이밍 Ti에 있어서, 대상물(손)이 검지 범위에 존재하고 있지 않고, 타이밍 Ti의 시점에서는 사용자는 입력 조작을 행하고 있지 않다고 판단한다. 그리고 S106 내지 S108의 처리를 생략한다.On the other hand, when there are no two or more sensors that detect 33 ° C. or more (NO in S105), the change amount calculation unit 32 does not exist in the detection range at the timing T i . At the timing T i , the user determines that the input operation is not performed. The processing of S106 to S108 is omitted.

데이터 처리부(10)는, 제스처 인식을 행하는 소정 기간이 종료하고 있지 않으면, 즉, 처리되어 있지 않은 온도 정보(d1)가 센서부(2)로부터 공급되고 있으면(S109에 있어서 아니오), 타이밍 Ti의 i를 1개 증가시키고(S110), 그 다음 검지 타이밍에 있어서의 온도 정보(d1)에 관해, S102 내지 S108의 처리를 반복한다.If the predetermined time period for performing the gesture recognition is not finished, that is, if the unprocessed temperature information d1 is supplied from the sensor unit 2 (NO in S109), the data processing unit 10 determines the timing T i. Is increased by one (S110), and then the processes of S102 to S108 are repeated with respect to the temperature information d1 at the detection timing.

그리고 타이밍 Ti가 Tn에 도달하고, 공급된 모든 온도 정보(d1)에 대해 처리가 완료되면(S109에 있어서 예), 계속하여, 제스처 인식부(34)는, 일시 기억부(8)에 저장된 데이터에 기초하여, 검지된 손의 움직임에 대응하는 제스처를 인식한다(S111). 구체적으로는, 상기 소정 기간(T0 내지 Tn)에 있어서의 무게 중심 위치를 추적하여, 혹은, 변화 영역의 면적의 증감에 따라, 제스처 패턴 기억부(40)에 기억되어 있는 제스처 패턴 중에서, 합치하는 제스처를 특정한다.When the timing T i reaches T n and the processing is completed for all of the supplied temperature information d1 (YES in S109), the gesture recognition unit 34 continues to the temporary storage unit 8. Based on the stored data, a gesture corresponding to the movement of the detected hand is recognized (S111). Specifically, among the gesture patterns stored in the gesture pattern storage unit 40 by tracking the center of gravity position in the predetermined periods T 0 to T n or increasing or decreasing the area of the change area, Specifies the gesture to match.

제스처 인식부(34)는, 특정한 제스처를 나타내는 제스처 ID를, 인식 결과(d2)로서 통신 제어부(11)에 출력한다(S112).The gesture recognition unit 34 outputs the gesture ID indicating the specific gesture to the communication control unit 11 as the recognition result d2 (S112).

제스처 인식부(34)가 S111에 있어서 실행하는 제스처 인식 처리의 흐름을 도 14를 참조하면서 상세하게 설명하면 이하와 같다.The flow of gesture recognition processing executed by the gesture recognition unit 34 in S111 will be described in detail with reference to FIG. 14 as follows.

우선, 제스처 인식부(34)는, 검지 타이밍 Ti마다 결정된 무게 중심 좌표(Gx, Gy)에 기초하여, 손의 무게 중심의 이동 궤적을 취득한다(S201).First, the gesture recognizing unit 34 acquires the movement trajectory of the center of gravity of the hand based on the center of gravity coordinates Gx and Gy determined for each detection timing T i (S201).

여기서, 무게 중심의 이동 거리의 길이가 충분하면(S202에 있어서 예), 제스처 인식부(34)는, 손이 X축 방향 또는 Y축 방향으로 움직인 것으로 판단하고, 무게 중심의 이동 궤적 및 이동 방향을 특정한다(S203).Here, if the length of the movement distance of the center of gravity is sufficient (YES in S202), the gesture recognition unit 34 determines that the hand has moved in the X-axis direction or the Y-axis direction, and the movement trajectory and movement of the center of gravity are determined. The direction is specified (S203).

무게 중심의 이동 방향이, 좌우 방향(X축 방향)이면(S204에 있어서 1), 제스처 인식부(34)는, 이동 궤적에 기초하여, 손이 좌측으로부터 우측으로 이동한 것인지 여부를 판단한다(S205). 손이 좌측으로부터 우측으로 이동했다고 판단한 경우(S205에 있어서 예), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「00:좌측으로부터 우측으로 이동」이라고 인식한다(S206). 한편, 손이 우측으로부터 좌측으로 이동했다고 판단한 경우(S205에 있어서 아니오), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「01:우측으로부터 좌측으로 이동」이라고 인식한다(S207).If the movement direction of the center of gravity is the left-right direction (X-axis direction) (1 in S204), the gesture recognition unit 34 determines whether the hand has moved from left to right based on the movement trajectory ( S205). When it is determined that the hand has moved from left to right (YES in S205), the gesture recognition unit 34 recognizes the gesture input in this period as "00: move from left to right" (S206). On the other hand, when it is determined that the hand has moved from the right side to the left side (NO in S205), the gesture recognition unit 34 recognizes the gesture input in this period as "01: move from right side to left side" (S207).

혹은, 무게 중심의 이동 방향이, 상하 방향(Y축 방향)이면(S204에 있어서 2), 제스처 인식부(34)는, 손이 상측으로부터 하측으로 이동한 것인지 여부를 판단한다(S208). 손이 상측으로부터 하측으로 이동했다고 판단한 경우(S208에 있어서 예), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「10:상측으로부터 하측으로 이동」이라고 인식한다(S209). 한편, 손이 하측으로부터 상측으로 이동했다고 판단한 경우(S208에 있어서 아니오), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「11:하측으로부터 상측으로 이동」이라고 인식한다(S210).Or if the movement direction of a center of gravity is an up-down direction (Y-axis direction) (2 in S204), the gesture recognition part 34 will determine whether a hand moved from the upper side to the lower side (S208). When it is determined that the hand has moved from the upper side to the lower side (YES in S208), the gesture recognition unit 34 recognizes that the gesture input in this period is "10: Move from upper side to lower side" (S209). On the other hand, when it is determined that the hand has moved from the lower side to the upper side (NO in S208), the gesture recognition unit 34 recognizes the gesture input in this period as "11: Move from the lower side to the upper side" (S210).

혹은, 무게 중심의 이동 궤적이 원을 그리는 것 같이 회전하고 있는 경우에는(S204에 있어서 3), 제스처 인식부(34)는, 손이 시계 방향으로 이동한 것인지 여부를 판단한다(S211). 손이 시계 방향으로 이동했다고 판단한 경우(S211에 있어서 예), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「30:시계 방향으로 이동」이라고 인식한다(S212). 한편, 손이 반시계 방향으로 이동했다고 판단한 경우(S211에 있어서 아니오), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「31:반시계 방향으로 이동」이라고 인식한다(S213).Alternatively, when the movement trajectory of the center of gravity is rotating as if drawing a circle (3 in S204), the gesture recognition unit 34 determines whether the hand has moved clockwise (S211). When it is determined that the hand has moved clockwise (YES in S211), the gesture recognition unit 34 recognizes the gesture input in this period as "30: move clockwise" (S212). On the other hand, when it is determined that the hand has moved in the counterclockwise direction (NO in S211), the gesture recognition unit 34 recognizes the gesture input in this period as "31: moves in the counterclockwise direction" (S213).

한편, S202에 있어서, 무게 중심의 이동 거리의 길이가 충분하지 않으면(S202에 있어서 아니오), 제스처 인식부(34)는, 손이 X축 방향으로도, Y축 방향으로도 움직이지 않았다고 판단한다. 그리고 Z축 방향으로 움직인 것인지 여부를 판단하기 위한 처리로 이행한다. 즉, 제스처 인식부(34)는, 검지 타이밍 Ti마다, 변화량 산출부(32)에 의해 특정된 변화 영역의 면적(센서의 수)을 취득한다(S214).On the other hand, in S202, if the length of the movement distance of the center of gravity is not sufficient (NO in S202), the gesture recognition unit 34 determines that the hand did not move in the X axis direction or in the Y axis direction. . Subsequently, the process proceeds to processing for judging whether or not it has moved in the Z-axis direction. That is, the gesture recognition part 34 acquires the area (number of sensors) of the change area | region specified by the change amount calculation part 32 for every detection timing T i (S214).

제스처 인식부(34)는, 시간의 경과에 따라, 변화 영역의 면적이 증가 경향에 있는지 여부를 판단한다(S215). 면적이 증가 경향에 있는 경우(S215에 있어서 예), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「20:손을 가까이한다」라고 인식한다(S216). 한편, 면적이 감소 경향에 있는 경우(S215에 있어서 아니오), 제스처 인식부(34)는, 이 기간에 입력된 제스처를「21:손을 멀리한다」라고 인식한다(S217).The gesture recognition unit 34 determines whether the area of the change area tends to increase over time (S215). If the area tends to increase (YES in S215), the gesture recognition unit 34 recognizes the gesture input in this period as "20: hand close" (S216). On the other hand, when the area tends to decrease (NO in S215), the gesture recognition unit 34 recognizes the gesture input in this period as "21: Keep hands away" (S217).

또한, 도 14에 나타내는 예에서는, 무게 중심의 이동도, 면적의 증감도 없는 케이스에 대해 설명하고 있지 않지만, 이와 같은 케이스는, 제스처 인식 장치(1)가 대상물을 오류 인식했든지, 혹은, 대상물의 움직임이 충분하지 않아, 제스처 인식 장치(1)가 대상물이 정지하고 있는 것처럼 인식해버렸을 때에 일어날 수 있다. 따라서, 이와 같은 케이스에서는, 제스처 인식 장치(1)는, 스마트 폰(100)을 통하여, 기준값이나 임계값을 변경하도록 사용자에 촉구하는 메시지를 표시하거나, 제스처 인식에 실패한 뜻을 나타내는 에러 표시를 행하거나, 제스처의 재입력을 촉진시키는 메시지를 표시하거나 하는 것이 바람직하다.In addition, although the case shown in FIG. 14 does not explain the case where neither the movement of the center of gravity nor the increase or decrease of the area is described, such a case is determined by the gesture recognition apparatus 1 whether the object is recognized by error or the object. This may occur when the gesture recognition apparatus 1 recognizes that the object is stationary because the motion of the object is not sufficient. Therefore, in such a case, the gesture recognition apparatus 1 displays a message urging the user to change the reference value or the threshold value via the smart phone 100, or displays an error indication indicating that the gesture recognition has failed. Or display a message that facilitates re-entry of the gesture.

이상, 지금까지 서술한 바와 같이, 본 발명의 제스처 인식 장치(1)는, 대상물의 온도를 검지하는 센서부(2)와, 상술한 일련의 제스처 인식 처리를 실행하는 데이터 처리부(10)를 구비함으로써, 스마트 폰(100)의 비접촉형 입력 장치를 실현할 수 있다.As mentioned above, the gesture recognition apparatus 1 of this invention is equipped with the sensor part 2 which detects the temperature of an object, and the data processing part 10 which performs a series of gesture recognition processes mentioned above. Thereby, the contactless input device of the smart phone 100 can be realized.

상기 구성 및 방법에 따르면, 제스처 인식 장치(1)에 있어서, 대상물의 움직임을 검지하기 위한 정보는, 복수 배치된 적외선 센서로부터 온도 정보로서 취득된다. 그리고 데이터 처리부(10)는, 데이터량이 방대한 화상 데이터를 취급하지 않더라도, 온도 정보만으로 대상물의 움직임을 분석할 수 있고, 제스처를 인식하는 것이 가능해진다. 결과적으로, 입력 장치로서의 제스처 인식 장치(1)에 있어서, 처리 효율의 향상과, 처리 부하의 저감을 실현할 수 있다. 즉, 반응 속도가 빠른 입력 장치를 실현하는 것이 가능하다.According to the above configuration and method, in the gesture recognition apparatus 1, information for detecting the movement of the object is acquired as temperature information from a plurality of infrared sensors arranged. And the data processing part 10 can analyze the movement of an object only by temperature information, and can recognize a gesture, even if a data amount does not handle huge image data. As a result, in the gesture recognition apparatus 1 as the input device, it is possible to realize an improvement in processing efficiency and a reduction in processing load. That is, it is possible to realize an input device with a fast reaction speed.

또한, 본 발명의 제스처 인식 장치(1)는, 적외선 센서를 사용하여 대상물의 표면 온도를 취득함으로써, 대상물의 온도와 주위의 환경 온도의 차이에 의해, 대상물의 움직임을 검지하는 것이다. 따라서, 광학계 카메라로 대상물을 촬상하여 제스처를 인식하는 구성에서는, 어두운 곳에서의 사용이 제한되지만, 본 발명의 제스처 인식 장치(1)는, 어두운 곳에서도 제한 없이 입력 장치로서 기능시키는 것이 가능하다.Moreover, the gesture recognition apparatus 1 of this invention detects the movement of an object by the difference of the object's temperature and surrounding environmental temperature by acquiring the surface temperature of an object using an infrared sensor. Therefore, in the configuration of recognizing a gesture by capturing an object with an optical system camera, use in a dark place is limited, but the gesture recognition device 1 of the present invention can function as an input device in a dark place without limitation.

또한, 광학계 카메라를 사용한 제스처 인식에서는, 대상물과 배경의 텍스처에 큰 차가 없는 경우에, 정확하게 대상물의 위치, 형상 등을 인식할 수 없고, 제스처의 오류 인식이 증가한다고 하는 문제가 있다. 한편, 본 발명의 제스처 인식 장치(1)는, 주위 환경 온도와 다른 표면 온도를 갖는 대상물(손 등)을, 온도 정보에 기초하여 검지하므로, 텍스처의 유사에 의한 오류 인식의 문제는 일어날 수 없다.In addition, in gesture recognition using an optical camera, when there is no large difference between the texture of the object and the background, there is a problem that the position, shape, etc. of the object cannot be accurately recognized, and error recognition of the gesture increases. On the other hand, since the gesture recognition apparatus 1 of the present invention detects an object (such as a hand) having a surface temperature different from the ambient temperature based on the temperature information, the problem of error recognition due to the similarity of texture cannot occur. .

본 발명의 제스처 인식 장치(1)를, 프로젝터 기능을 갖는 전자 기기의 입력 장치로서 사용하면, 본 발명의 제스처 인식 장치(1)의 이점을 최대한으로 누릴 수 있다.When the gesture recognition apparatus 1 of the present invention is used as an input device of an electronic device having a projector function, the advantage of the gesture recognition apparatus 1 of the present invention can be maximally enjoyed.

예를 들어, 전자 기기의 프로젝터 기능을 사용하여, 전자 기기에 기억되어 있는 사진 등의 슬라이드를, 이격된 곳에 있는 스크린에 영사하여 프리젠테이션을 행한다고 하는 유즈 케이스(use case)가 상정된다. 프로젝터 기능은, 일반적으로, 옥내를 어둡게 하여 이용되기 때문에, 종래의 광학계 카메라를 사용한 제스처 인식의 입력 장치를, 프리젠테이션 중에 기능시키는 것은 곤란했다. 그러나, 본 발명의 제스처 인식 장치(1)에 따르면, 어두운 곳에서도 비접촉형 입력 장치로서 기능시키는 것이 가능하기 때문에, 전자 기기로부터 이격된 위치에서 프레젠데이션을 행하는 사용자도, 전자 기기에 접촉하는 일 없이, 슬라이드의 조작을 용이하게 행하는 것이 가능하다.For example, a use case is assumed that uses a projector function of an electronic device to project a slide such as a photo stored in the electronic device onto a screen located at a spaced distance to give a presentation. Since the projector function is generally used by darkening the indoors, it has been difficult to make an input device for gesture recognition using a conventional optical system camera function during a presentation. However, according to the gesture recognition apparatus 1 of the present invention, it is possible to function as a non-contact input device even in a dark place, so that a user who makes a presentation at a position away from the electronic device is in contact with the electronic device. Without this, the slide can be easily operated.

〔변형예〕 [Variation example]

상술한 실시 형태에서는, 제스처 인식 장치(1)는, 온도 센서 칩(6)의 전체면(모든 적외선 센서)으로부터 취득된 온도 정보를 처리하여, 제스처를 인식하고 있었다. 본 발명의 제스처 인식 장치(1)는, 이 구성에 한하지 않고, 온도 센서 칩(6)에 배치되어 있는 적외선 센서로부터의 온도 정보를 부분적으로 사용하여 제스처 인식을 행해도 된다.In the above-mentioned embodiment, the gesture recognition apparatus 1 processed the temperature information acquired from the whole surface (all infrared sensors) of the temperature sensor chip 6, and recognized the gesture. The gesture recognition apparatus 1 of this invention is not limited to this structure, You may perform gesture recognition using the temperature information from the infrared sensor arrange | positioned at the temperature sensor chip 6 partially.

적외선 센서를 선택적으로 사용하는 구성으로 하면, 처리해야 할 정보량을 줄여서 처리 속도를 빠르게 할 수 있는 동시에, 특정한 제스처를 인식할 경우에, 그 인식의 정밀도를 향상시키는 것이 가능하다.When the infrared sensor is selectively used, the processing speed can be reduced by reducing the amount of information to be processed, and the recognition accuracy can be improved when a specific gesture is recognized.

스마트 폰(100)은, 다기능이고, 여러 가지 어플리케이션을 실행하도록 구성되어 있으며, 그 어플리케이션에 대한 지시 입력 형식은, 어플리케이션에 의해 다양하다. 예를 들어, 서적 열람 어플리케이션이나, 슬라이드 쇼 표시 어플리케이션이면, 페이지를 넘기기 위해 좌우 방향의 움직임을 수반하는 지시 입력이 행해질 것이고, 웹 열람 어플리케이션이면, 화면을 스크롤시키기 위해, 상하 방향의 움직임을 수반하는 지시 입력이 행해질 것이다. 또한, 음악 재생 어플리케이션에 있어서는, 볼륨의 조절을 위해, 다이얼을 다단계적으로 돌리는 움직임의 입력이 행해진다고 상정된다.The smartphone 100 is multifunctional and is configured to execute various applications, and the instruction input format for the application varies depending on the application. For example, in a book reading application or a slide show display application, an instruction input involving a left-right movement will be performed to turn a page, and in a web browsing application, an up-down movement is performed to scroll a screen. Instruction input will be made. In addition, in the music reproduction application, it is assumed that the movement of turning the dial in multiple stages is input for adjusting the volume.

따라서, 본 발명의 제스처 인식 장치(1)는, 스마트 폰(100)이 어떤 어플리케이션을 기동 중인 것인지에 기초하여, 인식해야 할 제스처를 한정하고, 그 한정된 제스처의 인식에 적합한 제스처 인식 처리를 효율적으로 실행할 수 있다. 그를 위한 구성으로서, 제스처 인식 장치(1)는 이하를 구비하고 있다.Therefore, the gesture recognition apparatus 1 of the present invention limits the gesture to be recognized based on which application the smartphone 100 is running, and efficiently executes the gesture recognition process suitable for the recognition of the limited gesture. Can be. As a structure for that, the gesture recognition apparatus 1 is provided with the following.

즉, 도 1에 나타내는 바와 같이, 본 변형예에 있어서의 제스처 인식 장치(1)의 데이터 처리부(10)는, 상술한 구성에 더하여, 또한, 마스크 선택부(35)를 구비하고 있다.That is, as shown in FIG. 1, the data processing part 10 of the gesture recognition apparatus 1 in this modification is provided with the mask selection part 35 in addition to the structure mentioned above.

마스크 선택부(35)는, 스마트 폰(100) 본체가 기동 중의 어플리케이션의 종류에 따라, 인식해야 할 제스처의 종류를 한정하고, 그 한정된 제스처의 인식에 적합한 마스크를 선택하는 것이다.The mask selector 35 limits the types of gestures to be recognized by the main body of the smartphone 100 according to the type of application being activated, and selects a mask suitable for recognition of the limited gestures.

본 발명에 있어서의 마스크라 함은, 온도 센서 칩(6)에 배치된 적외선 센서 중, 어느 적외선 센서로부터의 온도를 제스처 인식 처리에 이용할 것인지, 혹은 이용하지 않을 것인지를 나타내는 패턴 정보이다.The mask in this invention is pattern information which shows which infrared sensor among the infrared sensors arrange | positioned at the temperature sensor chip 6 is used for the gesture recognition process, or not.

마스크는, 어떤 제스처를 인식하고 싶은 것인지에 따라, 그 제스처를 효율적으로 또한 고정밀도로 인식할 수 있도록, 미리 설계되어, 복수 종류 준비되어 있다. 본 변형예에서는, 도 1에 나타내는 바와 같이, 제스처 인식 장치(1)의 기억부(4)는, 마스크 기억부(41)를 구비한다. 마스크 기억부(41)는, 복수 종류의 마스크를 기억하고 있고, 어플리케이션마다 참조해야 할 마스크가 대응시켜져 있다.Masks are designed in advance and are prepared in plural kinds so that the gestures can be recognized efficiently and with high accuracy depending on which gestures are desired to be recognized. In this modification, as shown in FIG. 1, the memory | storage part 4 of the gesture recognition apparatus 1 is equipped with the mask memory | storage part 41. As shown in FIG. The mask memory | storage part 41 memorize | stores several types of mask, and the mask which should be referred for every application is associated.

도 15는, 마스크의 구체예를 나타내는 도면이다.15 is a diagram illustrating a specific example of a mask.

도 15에 나타내는 씬(50)과 같이, 손을 좌우 방향으로 움직이는 제스처로 특화하면, 온도 센서 칩(6)에 있어서의 적외선 센서 배치면 중, 좌측 단부와 우측 단부의 센서로 타이밍 좋게 손을 검지할 수 있으면 제스처를 효율적으로 정확하게 인식할 수 있다. 따라서, 좌우의 움직임을 인식하기 위한「좌우 검출용 마스크」는, 배치면의 좌측 단부의 열 및 우측 단부의 열을 유효로 하고, 중앙의 열을 무효로 하도록 설계되어 있다.As shown in the scene 50 shown in FIG. 15, when the hand is specialized in a gesture of moving the left and right directions, the hand is properly detected by a sensor at the left end and the right end of the infrared sensor arrangement surface of the temperature sensor chip 6. If you can, you can recognize gestures efficiently and accurately. Therefore, the "left and right detection mask" for recognizing the movement of right and left is designed to make the column at the left end and the column at the right end of the placement surface valid, and to invalidate the center column.

도 15에 나타내는 마스크에 있어서, 사선의 영역이 유효, 백지의 영역이 무효를 나타내고 있다. 도 4에 나타내는 4×4의 배치를 예로 들어 구체적으로 설명하면,「좌우 검출용 마스크」는, 0, 4, 8, 12번지 및 3, 7, 11, 15번지의 적외선 센서로부터의 온도 정보만을 이용하도록 설계되어 있다.In the mask shown in FIG. 15, the diagonal line area is valid and the blank area is invalid. Specifically, the arrangement of 4x4 shown in FIG. 4 will be described as an example. The "left and right detection mask" includes only temperature information from infrared sensors at addresses 0, 4, 8, 12 and 3, 7, 11 and 15. It is designed to be used.

씬(51)과 같이, 손을 상하 방향으로 움직이는 제스처로 특화하면, 상기 배치면 중, 상단부와 하단부의 센서로 타이밍 좋게 손을 검지할 수 있으면 제스처를 효율적으로 정확하게 인식할 수 있다. 따라서, 상하의 움직임을 인식하기 위한「상하 검출용 마스크」는, 배치면의 상단부의 행 및 하단부의 행을 유효로 하고, 중앙의 행을 무효로 하도록 설계되어 있다.When the hand is specialized in a gesture of moving the hand in the up and down direction as in the scene 51, the gesture can be recognized efficiently and efficiently if the hand can be detected with good timing by the sensors of the upper and lower parts of the placement surface. Therefore, the "up and down detection mask" for recognizing the movement of the up and down is designed to make the row of the upper end and the lower part of the placement surface valid, and invalidate the center row.

도 15에 나타내는 바와 같이,「상하 검출용 마스크」는, 예를 들어, 0 내지 3번지 및 12 내지 15번지의 적외선 센서로부터의 온도 정보만을 이용하도록 설계되어 있다.As shown in FIG. 15, the "up and down detection mask" is designed so that only the temperature information from the infrared sensor of 0-3 and 12-15 may be used, for example.

씬(52)과 같이, 손을 돌리는 움직임의 제스처로 특화하면, 상기 배치면 중, 외측의 센서로 손을 검지하면, 회전의 제스처를 효율적으로 정확하게 인식할 수 있다. 따라서, 회전을 인식하기 위한「회전 검출용 마스크」는, 예를 들어, 0 내지 4, 7, 8, 11 내지 15번지의 적외선 센서로부터의 온도 정보만을 이용하도록 설계되어 있다.Specializing in the gesture of the hand turning like the scene 52, when a hand is detected by the sensor outside of the said arrangement surface, a gesture of rotation can be recognized correctly efficiently. Therefore, the "rotation detection mask" for recognizing rotation is designed to use only temperature information from infrared sensors at addresses 0-4, 7, 8, 11-15, for example.

이와 같이, 씬(검출하고 싶은 손의 움직임)에 따른 마스크가, 마스크 기억부(41)에 복수 종류 기억되어 있다. 도 16은, 마스크 기억부(41)에 기억되어 있는 마스크의 데이터 구조의 일례를 나타내는 도면이다.In this way, a plurality of types of masks according to the scene (movement of a hand to be detected) are stored in the mask storage unit 41. FIG. 16 is a diagram illustrating an example of a data structure of a mask stored in the mask storage unit 41.

도 16에 나타내는 바와 같이, 마스크 기억부(41)에는, 복수 종류의 마스크가 기억되어 있는 동시에, 어플리케이션마다 참조해야 할 마스크의 대응짓기가 기억되어 있다.As shown in FIG. 16, the mask memory | storage part 41 memorize | stores several types of masks, and also stores the mapping of the mask which should be referred for every application.

이에 의해, 마스크 선택부(35)는, 스마트 폰(100)이 기동 중의 어플리케이션에 따라, 항상, 최적인 마스크를 선택할 수 있다. 보다 상세하게는, 마스크 선택부(35)는, 커넥터부(5) 및 통신 제어부(11)를 통하여, 스마트 폰(100)의 주제어부로부터, 스마트 폰(100) 본체가 현재 어느 어플리케이션을 기동 중인지를 나타내는 상태 정보(d3)를 취득한다(도 1을 참조). 마스크 선택부(35)는, 상태 정보(d3)에 기초하여 기동 중의 어플리케이션을 특정한다. 그리고 마스크 선택부(35)는, 마스크 기억부(41)를 참조하여, 특정한 어플리케이션에 대응하는 마스크를 선택한다.Thereby, the mask selection part 35 can always select the optimal mask according to the application in which the smartphone 100 is starting. In more detail, the mask selection part 35, through the connector part 5 and the communication control part 11, which application the main body of the smart phone 100 is currently starting from the main control part of the smart phone 100 is. The state information d3 indicating is obtained (see FIG. 1). The mask selection unit 35 specifies an application during startup based on the state information d3. The mask selection unit 35 then references the mask storage unit 41 to select a mask corresponding to the specific application.

어플리케이션이 특정되면, 그 어플리케이션에서는, 어떤 움직임이 제스처로서 입력되는 것인지가 한정된다. 예를 들어, 웹 열람 어플리케이션에서는, 상하 방향의 움직임이 입력되고, 서적 열람 어플리케이션에서는, 좌우 방향의 움직임이 입력되고, 음악 재생 어플리케이션에서는, 회전의 움직임이 입력된다.Once an application is specified, the application is limited in what movements are input as gestures. For example, in the web browsing application, the movement in the up and down direction is input, in the book browsing application, the movement in the left and right directions is input, and in the music reproduction application, the rotation movement is input.

예를 들어, 도 16에 나타내는 예에서는, TV 어플리케이션(TV_Channel)에는, 좌우 검출용 마스크가 대응시켜져 있다. 즉, 마스크 선택부(35)는, 스마트 폰(100)이 TV 어플리케이션을 기동 중이라고 판단한 경우에, 도 15에 나타내는 좌우 검출용 마스크를 선택한다.For example, in the example shown in FIG. 16, the mask for right and left detection is associated with the TV application (TV_Channel). That is, the mask selection part 35 selects the mask for right and left detection shown in FIG. 15, when it determines with the smartphone 100 starting up a TV application.

마스크 선택부(35)가 좌우 검출용 마스크를 선택하면, 데이터 처리부(10)의 각 부는, 좌우 방향의 움직임을 효율적으로 또한 정확하게 인식할 수 있게 된다. 구체적으로는, 온도 정보 취득부(30)는, 유효한 영역의 적외선 센서로부터만 온도를 취득하고, 이후의 각 부도 각각의 처리를, 유효한 영역에 저장된 온도에 대해서만 실행한다.When the mask selection unit 35 selects the left and right detection masks, each unit of the data processing unit 10 can recognize the movement in the left and right directions efficiently and accurately. Specifically, the temperature information acquisition unit 30 acquires the temperature only from the infrared sensor of the effective area, and executes each subsequent subsequent shading process only for the temperature stored in the effective area.

TV 어플리케이션의 이용중, 사용자는 채널 변경을 위해 오로지 좌우 방향의 제스처를 입력하기 때문에, 좌우 방향의 움직임을 효율적으로 또한 정확하게 인식할 수 있게 하면, 스마트 폰(100)의 조작성을 향상시키는 것이 가능해진다.During the use of the TV application, the user inputs only the left and right gestures for changing the channel, so that the operability of the smart phone 100 can be improved by enabling the user to recognize the left and right movements efficiently and accurately.

또한, 어플리케이션과 마스크의 대응짓기에 관해, 도 16에 나타내는 예는 발명을 설명하기 위한 일례이며, 발명의 구성을 한정하는 의도는 없다. 어플리케이션에 대해서는 그 어플리케이션에 필요한 제스처를 고려하여, 미리 최적인 마스크와의 대응짓기를 행해 둔다.In addition, the example shown in FIG. 16 regarding an association of an application and a mask is an example for demonstrating invention, and there is no intention to limit the structure of invention. For the application, the gesture necessary for the application is taken into consideration, and an association with the optimum mask is performed in advance.

이상과 같이, 마스크 선택부(35)가 선택하는 마스크는 상술한 각 움직임에 특화하고, 이를 효율적으로 또한 고정밀도로 제스처 인식하기 위해 설계된 마스크이다. 따라서, 어플리케이션마다 적합한 마스크를 선택함으로써, 그 어플리케이션에 대하여 입력되는 조작 제스처를 효율적으로 또한 고정밀도로 인식하는 것이 가능해진다.As described above, the mask selected by the mask selector 35 is a mask designed for gesture recognition specialized in each of the above-described movements and efficiently and with high precision. Therefore, by selecting a mask suitable for each application, it becomes possible to efficiently and accurately recognize the operation gesture input to the application.

또한, 마스크 선택부(35)는, 선택한 마스크에 기초하여, 유효한 센서의 번지를 특정하고, 유효한 번지의 센서로부터만 적외선 신호를 취득하도록 신호 처리부(7)의 신호 선택부(13)에 지시하는 구성이어도 된다. 혹은, 마스크 선택부(35)는, 유효한 번지의 센서로부터의 온도만을 처리하도록, 데이터 처리부(10)의 각 부에 지시하는 구성이어도 된다.In addition, the mask selection unit 35 specifies the address of the effective sensor based on the selected mask, and instructs the signal selection unit 13 of the signal processing unit 7 to acquire an infrared signal only from the sensor of the effective address. The structure may be sufficient. Alternatively, the mask selection unit 35 may be configured to instruct each unit of the data processing unit 10 to process only the temperature from the sensor at the effective address.

≪제2 실시 형태≫ `` Second embodiment ''

상술한 실시 형태에서는, 온도 센서 칩(6)을 4×4의 적외선 센서를 배치한 구성으로 한 경우에, 거기에서 얻어진 4×4의 온도 정보를 처리하여 제스처를 인식하는 제스처 인식 장치(1)의 구성에 대해 설명했다.In the above-described embodiment, when the temperature sensor chip 6 has a configuration in which a 4x4 infrared sensor is arranged, the gesture recognition device 1 which processes 4x4 temperature information obtained therein and recognizes a gesture is provided. The composition of the.

그러나, 본 발명의 제스처 인식 장치(1)의 구성은, 상기에 한정되지 않는다. 온도 센서 칩(6)의 적외선 센서의 배치는, 어떻게라도 구성할 수 있다. 예를 들어, 정사각형에 한하지 않고 직사각형이나 원형 형상으로 적외선 센서를 배치하는 것도 가능하다. 또한, 배치하는 적외선 센서의 수를 늘려 온도 센서 칩(6)을 고해상도로 하여도 된다. 이 구성에 따르면, 온도 정보를 사용하는 것만으로, 복수의 대상물(예를 들어, 양손의 동작)을 검지하거나, 대상물의 위치뿐만 아니라 형상을 정밀하게 검지하거나 할 수 있다. 이로 인해, 화상 처리 기술과 같이 연산량이 방대해지지 않고, 보다 다양한 제스처를 식별하는 것이 가능해지고, 전자 기기에 대하여 복잡한 조작 입력을 행하는 것이 가능해진다.However, the configuration of the gesture recognition apparatus 1 of the present invention is not limited to the above. Arrangement of the infrared sensor of the temperature sensor chip 6 can be configured in any way. For example, it is also possible to arrange | position an infrared sensor not only square but a rectangle or circular shape. Moreover, you may make the temperature sensor chip 6 high resolution by increasing the number of the infrared sensors arrange | positioned. According to this configuration, it is possible to detect a plurality of objects (for example, the operation of both hands) only by using the temperature information, or to precisely detect the shape as well as the position of the object. As a result, the calculation amount does not become large as in the image processing technology, and it becomes possible to identify more various gestures, and to perform complicated operation input on the electronic device.

이하에서는, 온도 센서 칩(6)은, 8×8=64개의 적외선 센서가 배치되어 구성되어 있는 것으로 하고, 제스처 인식 장치(1)가, 64개의 센서의 온도를 처리하여 양손에 의한 제스처를 인식할 경우의 제스처 인식 장치(1)의 구성 및 제스처 인식 방법에 대해 설명한다. 또한, 설명의 편의상, 상술한 제1 실시 형태에서 설명한 도면과 같은 기능을 갖는 부재에 대해서는, 동일한 부호를 부기하고, 그 설명을 생략한다.In the following description, the temperature sensor chip 6 is configured such that 8 x 8 = 64 infrared sensors are arranged, and the gesture recognition device 1 processes the temperatures of the 64 sensors to recognize gestures by both hands. The structure and gesture recognition method of the gesture recognition apparatus 1 in case of doing so are demonstrated. In addition, for the convenience of description, the same code | symbol is attached | subjected about the member which has a function similar to the drawing demonstrated in 1st Embodiment mentioned above, and the description is abbreviate | omitted.

〔제스처 인식 장치의 구성〕[Configuration of Gesture Recognition Device]

본 실시 형태에 있어서의 제스처 인식 장치(1)에 있어서, 데이터 처리부(10)는, 도 1에 나타내는 바와 같이, 또한, 편차 산출부(36)를 구비하는 구성이다.In the gesture recognition apparatus 1 in this embodiment, the data processing part 10 is a structure provided with the deviation calculation part 36 as shown in FIG.

편차 산출부(36)는, 좌표 배치부(31), 변화량 산출부(32), 무게 중심 결정부(33)가 생성한 각종 정보에 기초하여, 변화 영역의 편차를 산출하는 것이다. 편차 산출부(36)는, 변화 영역의 X축 방향의 편차(σx2)와, Y축 방향의 편차(σy2)를 산출한다.The deviation calculation unit 36 calculates the deviation of the change area based on various information generated by the coordinate arranging unit 31, the change amount calculation unit 32, and the center of gravity determination unit 33. Deviation calculating section 36 calculates a deviation (σy 2) of, and variance (σx 2) in the X-axis direction of the change area, Y-axis direction.

우선, 제1 실시 형태에서 설명한 것과 마찬가지의 방법으로, 좌표 배치부(31)가, 8×8의 XY 좌표계에 온도 정보를 플롯한다. 도 17은, 좌표 배치부(31)가 각 센서로부터의 온도를 XY 좌표계에 플롯한 후의 온도 정보의 데이터 구조를 모식적으로 나타내는 도면이다.First, the coordinate arrangement | positioning part 31 plots temperature information on the 8 * 8 XY coordinate system by the method similar to what was demonstrated in 1st Embodiment. FIG. 17: is a figure which shows typically the data structure of the temperature information after the coordinate arrangement part 31 plotted the temperature from each sensor on the XY coordinate system.

다음으로, 변화량 산출부(32)가, 검지 타이밍마다 얻어진 XY 좌표계의 온도 정보에 기초하여, 검지 타이밍마다의 변화 영역을 특정한다. 도 18은, 각 검지 타이밍에 있어서의, 양손의 위치 관계와, 당해 타이밍에 있어서 취득된 온도 정보 및 변화 영역의 관계를 나타태는 도면이다.Next, the change amount calculation part 32 specifies the change area for every detection timing based on the temperature information of the XY coordinate system obtained for every detection timing. FIG. 18 is a diagram showing the positional relationship between the two hands at each detection timing, and the relationship between the temperature information acquired at the timing and the change region.

양손이 서로 가까이 있는 타이밍 T1에 있어서는, XY 좌표계 T1에 나타내는 바와 같이, 변화 영역(망점의 영역)은 중앙에 모여 있다. 한편, 양손이 수평 방향으로 이격된 타이밍 T2에 있어서는, XY 좌표계 T2에 나타내는 바와 같이, 변화 영역은, 좌우 방향으로 흩어져 있다.In the timing T 1 where both hands are close to each other, as shown in the XY coordinate system T 1 , the change area (the area of the halftone point) is gathered at the center. On the other hand, in timing T 2 with both hands spaced apart in the horizontal direction, as shown in the XY coordinate system T 2 , the change area is scattered in the left and right directions.

계속하여, 변화량 산출부(32)는, 좌표 위치마다 변화량 ΔT를 구하고, 또한, SUM을 구한다. 무게 중심 결정부(33)는, 변화량 ΔT 및 SUM에 기초하여, 검지 타이밍마다 무게 중심 G의 좌표 위치(Gx, Gy)를 결정한다. 도 19는, 도 18에 나타내는 타이밍 T1, T2의 타이밍에 있어서, 변화량 산출부(32)에 의해 생성된 정보와, 무게 중심 결정부(33)에 의해 생성된 정보와, 편차 산출부(36)에 의해 생성된 정보의 구체예를 나타내는 도면이다.Subsequently, the change amount calculation unit 32 obtains the change amount ΔT for each coordinate position, and also calculates the SUM. The center of gravity determination unit 33 determines the coordinate positions Gx and Gy of the center of gravity G for each detection timing based on the change amounts ΔT and SUM. FIG. 19 shows the information generated by the change amount calculating unit 32, the information generated by the center of gravity determining unit 33, and the deviation calculating unit at the timings of the timings T 1 and T 2 shown in FIG. 18. It is a figure which shows the specific example of the information produced by 36).

도 19에 나타내는 바와 같이, 각 좌표 위치의 변화량 ΔT(X, Y)와, 변화량의 합계 SUM과, 변화 영역의 무게 중심 G의 좌표 위치(Gx, Gy)가 구해지면, 이들의 값에 기초하여, 편차 산출부(36)는, 변화 영역의 편차를 산출한다. 구체적으로는, 편차 산출부(36)는, 변화 영역의 X축 방향의 편차(σx2)와, Y축 방향의 편차(σy2)를, 각각, 다음 식에 기초하여 산출한다. 다음 식이라 함은, 즉, As shown in FIG. 19, when the change amount (DELTA) T (X, Y) of each coordinate position, the sum SUM of the change amount, and the coordinate position (Gx, Gy) of the center of gravity G of a change area | region are calculated | required, based on these values The deviation calculating unit 36 calculates the deviation of the change area. Specifically, the deviation calculator 36 calculates the deviation σx 2 in the X-axis direction and the deviation σy 2 in the Y-axis direction of the change area based on the following equations, respectively. The following equation means

Figure pat00001
Figure pat00001

및, And,

Figure pat00002
Figure pat00002

이다.to be.

도 19에 나타내는 예에서는, 상술한 식에 따라서, 편차 산출부(36)는, 타이밍 T1에 있어서의 X축 방향의 편차(σx2)를 2.394, Y축 방향의 편차(σy2)를 1.222로 산출한다. 또한, 타이밍 T2에 있어서의 편차(σx2)를 6.125, 편차(σy2)를 1.018로 산출한다.In the example shown in FIG. 19, according to the above-described equation, the deviation calculator 36 sets the deviation σx 2 in the X-axis direction 2.394 and the deviation σy 2 in the Y-axis direction 1.222 in the timing T 1 . Calculate Further, the variation (σx 2) at the timing T 2 is calculated as 6.125, 1.018 deviations (σy 2).

마지막으로, 제스처 인식부(34)는, 편차 산출부(36)가 산출한 검지 타이밍마다의 편차의 추이와, 변화 영역의 면적의 추이에 기초하여, 양손의 제스처를 인식한다. 제1 실시 형태와 마찬가지로, 양손의 제스처 패턴도, 제스처 패턴 기억부(40)에 기억되어 있다.Finally, the gesture recognition unit 34 recognizes the gestures of both hands based on the change of the deviation for each detection timing calculated by the deviation calculator 36 and the change of the area of the change area. Similarly to the first embodiment, the gesture pattern of both hands is also stored in the gesture pattern storage unit 40.

도 20은, 본 실시 형태에 있어서의 제스처 패턴 기억부(40)에 기억되어 있는 제스처 패턴의 일례를 나타내는 도면이다.20 is a diagram illustrating an example of a gesture pattern stored in the gesture pattern storage unit 40 according to the present embodiment.

도 20에 나타내는 바와 같이, 제스처 패턴 기억부(40)에는, 도 12에 나타내는 제스처 패턴에 더하여, 또한, 제스처 인식부(34)가 인식할 수 있는 몇 개의 양손의 제스처 패턴이 기억되어 있다. 양손을 사용하면, 사용자는, 양손의 거리를 바꿈(양손을 모으거나, 벌리거나 함)으로써, 여러 가지 종류의 제스처를 장치에 입력할 수 있다.As shown in FIG. 20, in addition to the gesture pattern shown in FIG. 12, the gesture pattern memory | storage part 40 memorizes several gesture patterns of both hands which the gesture recognition part 34 can recognize. Using both hands, the user can input various types of gestures to the device by changing the distance of both hands (collecting or spreading both hands).

본 실시 형태에서는, 제스처 인식부(34)는, 편차 산출부(36)가 산출한 편차를 참조하여, 양손이 어느 방향으로 모아졌는지, 벌려졌는지를 식별할 수 있다.In the present embodiment, the gesture recognition unit 34 can identify in which direction the two hands are gathered or spread with reference to the deviation calculated by the deviation calculator 36.

제스처 인식부(34)는, 구체적으로는, 도 19의 예에 있는 바와 같이, 시간의 경과에 수반하여, X축 방향의 편차의 값이 증가한 경우, 양손이 수평 방향으로 벌려졌다고 판단한다. 반대로, 편차의 값이 감소한 경우, 양손이 벌려진 상태로부터, 수평 방향으로 모아졌다고 판단한다. 마찬가지로, 시간의 경과에 수반하여, Y축 방향의 편차의 값이 증가한 경우, 양손이 수직 방향으로 벌려졌다고 판단한다. 반대로, 편차의 값이 감소한 경우, 양손이 세로로 벌려진 상태로부터, 수직 방향으로 모아졌다고 판단한다.Specifically, as shown in the example of FIG. 19, the gesture recognition unit 34 determines that both hands are spread in the horizontal direction when the value of the deviation in the X-axis direction increases with the passage of time. On the contrary, when the value of the deviation decreases, it is judged that the two hands are collected in the horizontal direction from the open state. Similarly, when the value of the deviation in the Y-axis direction increases with the passage of time, it is determined that both hands are spread in the vertical direction. On the contrary, when the value of the deviation decreases, it is judged that both hands are collected in the vertical direction from the state in which the hands are vertically spread.

또한, 제스처 인식부(34)는, X축 방향의 편차와 Y축 방향의 편차가 함께 증가한 경우에는, 양손이 비스듬한 방향으로 벌려졌는지, 혹은, 양손 간의 거리는 그대로이고 양손이 Z축 방향에서 장치에 가까워진 가능성이 있다고 판단한다. 이 경우, 제스처 인식부(34)는 또한, 변화 영역의 면적이 증가했는지의 여부에 의해, 비스듬한 방향으로 벌려졌는지, 가까워졌는지를 판단한다.In addition, when the deviation in the X-axis direction and the deviation in the Y-axis direction increase together, the gesture recognition unit 34 checks whether the hands are spread in an oblique direction or the two hands are held in the Z-axis direction without changing the distance between the two hands. We believe there is a possibility of getting close. In this case, the gesture recognizing unit 34 further determines whether the area is wider or closer to the oblique direction depending on whether the area of the change area is increased.

또한, 제스처 인식부(34)는 X축 방향의 편차와 Y축 방향의 편차가 함께 감소한 경우에는, 양손이 비스듬한 방향으로 모아졌는지, 혹은, 양손 간의 거리는 그대로이고 양손이 Z축 방향에서 장치로부터 멀어진 가능성이 있다고 판단한다. 이 경우, 제스처 인식부(34)는 또한, 변화 영역의 면적이 감소했는지의 여부에 의해, 비스듬한 방향으로 모아졌는지, 멀어졌는지를 판단한다.In addition, when the deviation in the X-axis direction and the Y-axis direction decrease together, the gesture recognition unit 34 determines whether both hands are gathered in an oblique direction, or both hands are separated from the device in the Z-axis direction while the distance between the two hands is the same. I think there is a possibility. In this case, the gesture recognizing unit 34 also determines whether the area of the change area is gathered in an oblique direction or away from the oblique direction.

또한, 제스처 인식부(34)는 X축 방향의 편차와 Y축 방향의 편차가 함께 그다지 변화되지 않은 경우에는, 양손의 거리는 변경되지 않고, 또한, Z축 방향으로도 움직여지고 있지 않다고 판단한다. 따라서, 이 경우에는, 제1 실시 형태의 한 손의 제스처 인식 수순을 적용할 수 있으므로, 도 14에 나타내는 수순으로, 양손이 X축 방향 또는 Y축 방향으로 어떻게 움직인 것인지를 판단한다.In addition, when the deviation in the X-axis direction and the deviation in the Y-axis direction do not change so much together, the gesture recognizing unit 34 determines that the distance between the two hands is not changed and is also not moved in the Z-axis direction. Therefore, in this case, since the gesture recognition procedure of one hand of the first embodiment can be applied, it is determined by the procedure shown in Fig. 14 how both hands move in the X-axis direction or the Y-axis direction.

〔제스처 인식 처리 흐름〕[Gesture recognition processing flow]

도 21은 본 실시 형태의 제스처 인식부(34)에 의해 실행되는 제스처 인식 처리의 흐름을 상세하게 나타내는 흐름도이다.21 is a flowchart showing in detail the flow of gesture recognition processing executed by the gesture recognition unit 34 of the present embodiment.

우선, 도 13을 참조하면서, 본 실시 형태에 있어서의 데이터 처리부(10)의 각 부가 실행하는 제스처 인식 처리의 흐름을 설명하면, 제1 실시 형태와 다른 점은 S107에서, 또한, 편차 산출부(36)가 검지 타이밍마다 편차(σX2, σY2)를 구하는 점과, S108에서, 또한, 타이밍 Ti에 관련지어 편차(σX2, σY2)가 보존되는 점이다.First, referring to FIG. 13, the flow of gesture recognition processing performed by each part of the data processing unit 10 according to the present embodiment will be described. The difference from the first embodiment is different from the first embodiment in S107. 36) in the deviation (σX 2, and that, to obtain S108 σY 2) for each detection timing, and the timing is a point to be stored is constructed deviation (σX 2, σY 2) relative to T i.

본 실시 형태에 있어서의 S111의 제스처 인식 처리에 대해, 도 21을 참조하면서 설명한다.The gesture recognition process of S111 in this embodiment is demonstrated, referring FIG.

제스처 인식부(34)는 우선, 소정 기간(타이밍 T0 내지 Tn)의 타이밍 Ti마다, 편차(σX2, σY2)를 취득한다(S301). 그리고 편차의 값이 시간의 경과와 함께 어떻게 변화하는지(증가, 감소, 또는, 변화 없음)를 판단한다.A gesture recognition unit 34, first, at timings of a predetermined period T i (at time T 0 to T n), and acquires the deviation (σX 2, σY 2) (S301). It is then determined how the value of the deviation changes (increases, decreases, or does not change) with time.

제스처 인식부(34)는 편차(σX2)에 변화가 있는 경우(S302에 있어서 아니오), 편차(σX2)가 증가 경향에 있는지 감소 경향에 있는지를 판단한다(S303).A gesture recognition unit 34, if there is a change in the deviation (σX 2) (NO in S302), it is determined whether the deviation (σX 2) is increased to reduce a tendency that the trend (S303).

제스처 인식부(34)는 편차(σX2)가 감소 경향에 있는 경우(S303에 있어서 아니오), 다음으로, 편차(σY2)가 감소 경향에 있는지 여부를 판단한다(S304).A gesture recognition unit 34 is in the tendency to decrease when the variation (σX 2) (in S303 NO), and then determines whether or not, the deviation (σY 2) has a decreasing trend (S304).

편차(σY2)가 감소 경향에 없는 경우, 즉, 편차(σY2)가 증가 경향에 있든지, 또는, 변화 없음의 경우에는(S304에 있어서 아니오), X축 방향의 움직임을 기준으로 하여, 상기 소정 기간에 검지된 움직임을「03:양손을 좌우 방향으로 모은다」제스처로서 인식한다(S305). 한편, 편차(σY2)가 감소 경향에 있는 경우, 즉, 편차(σX2, σY2)가 함께 감소 경향에 있는 경우에는(S304에 있어서 예), 제스처 인식부(34)는, 타이밍 Ti마다, 변화 영역의 면적을 취득한다(S306). 그리고 변화 영역의 면적이, 시간의 경과와 함께 감소 경향에 있는지 여부를 판단한다(S307). 면적이 감소 경향에 없는 경우, 즉, 면적에 변화가 없는 경우에는(S307에 있어서 아니오), 상기 소정 기간에 검지된 움직임을「43:양손을 비스듬한 방향으로 모은다」제스처로서 인식한다(S308). 한편, 면적이 감소 경향에 있는 경우(S307에 있어서 예), 상기 소정 기간에 검지된 움직임을「21:손을 멀리한다」제스처로서 인식한다(S309).When the deviation σY 2 does not tend to decrease, that is, when the deviation σ Y 2 tends to increase, or when there is no change (NO in S304), the movement in the X-axis direction is referred to. The movement detected in the predetermined period of time is recognized as a gesture of "03: Put both hands in left and right directions" (S305). On the other hand, the deviation if (σY 2) is in a decrease trend, that is, the deviation (σX 2, σY 2) a case where the tendency to decrease together (in S304 YES), the gesture recognition unit 34, the timing T i Each time, the area of the change area is obtained (S306). Then, it is determined whether or not the area of the change area is in a decreasing trend with the passage of time (S307). When the area does not tend to decrease, that is, when there is no change in the area (NO in S307), the movement detected in the predetermined period is recognized as a gesture of "43: Put both hands in an oblique direction" (S308). On the other hand, when the area tends to decrease (YES in S307), the movement detected in the predetermined period is recognized as a "21: Keep hands away" gesture (S309).

한편, 제스처 인식부(34)는 편차(σX2)가 증가 경향에 있는 경우(S303에 있어서 예), 다음으로, 편차(σY2)가 증가 경향에 있는지 여부를 판단한다(S310).On the other hand, the gesture recognition unit 34 if the trend increases the variation (σX 2) (in S303 YES), it is determined whether the following, the deviation (σY 2) is in the increasing tendency (S310).

편차(σY2)가 증가 경향에 없는 경우, 즉, 편차(σY2)가 감소 경향에 있는 또는, 변화 없음의 경우에는(S310에 있어서 아니오), X축 방향의 움직임을 기준으로 하여, 상기 소정 기간에 검지된 움직임을「02:양손을 좌우 방향으로 벌린다」제스처로서 인식한다(S311). 한편, 편차(σY2)가 증가 경향에 있는 경우 즉, 편차(σX2, σY2)가 함께 증가 경향에 있는 경우에는(S310에 있어서 예), 제스처 인식부(34)는 타이밍 Ti마다 변화 영역의 면적을 취득한다(S312). 그리고 변화 영역의 면적이 시간의 경과와 함께 증가 경향에 있는지 여부를 판단한다(S313). 면적이 증가 경향에 없는 경우 즉, 면적에 변화가 없는 경우에는(S313에 있어서 아니오), 상기 소정 기간에 검지된 움직임을「42:양손을 비스듬한 방향으로 벌린다」제스처로서 인식한다(S314). 한편, 면적이 증가 경향에 있는 경우(S313에 있어서 예), 상기 소정 기간에 검지된 움직임을「20:손을 가까이한다」제스처로서 인식한다(S315).When the deviation σ Y 2 does not tend to increase, that is, when the deviation σ Y 2 tends to decrease or there is no change (NO in S310), the predetermined value is based on the movement in the X-axis direction. The movement detected in the period is recognized as a gesture of " 02: hands are spread in left and right directions " (S311). On the other hand, when the deviation σ Y 2 tends to increase, that is, when the deviations σ X 2 and σ Y 2 tend to increase together (YES in S310), the gesture recognition unit 34 changes every timing T i . The area of the area is acquired (S312). Then, it is determined whether the area of the change area tends to increase with the passage of time (S313). When the area does not tend to increase, that is, when there is no change in area (NO in S313), the movement detected in the predetermined period is recognized as a gesture of " 42: spread both hands in an oblique direction " (S314). On the other hand, when the area tends to increase (YES in S313), the movement detected in the predetermined period of time is recognized as a "20: hand close" gesture (S315).

한편, 제스처 인식부(34)는 S302에 있어서, 편차(σX2)에 증감이 인정되지 않는 경우에는(S302에 있어서 예), 다음으로, 편차(σY2)의 증감의 유무를 판단한다(S316).In the other hand, the gesture recognition unit 34 is S302, the deviation, if (σX 2) that is increased or decreased is not recognized to have the following, (for example, in S302), and determines the presence or absence of the increase or decrease in the deviation (σY 2) (S316 ).

제스처 인식부(34)는 편차(σY2)에 변화가 없는 경우 즉, 편차(σX2, σY2)가 함께 증감이 없는 경우에는(S316에 있어서 예), 도 14에 나타내는 무게 중심의 궤적에 기초하는 제스처 인식 처리를 실행하여 제스처를 인식한다. 한편, 제스처 인식부(34)는 편차(σY2)에 변화가 있는 경우(S316에 있어서 아니오), 편차(σY2)가 증가 경향에 있는지 감소 경향에 있는지를 판단한다(S317).A gesture recognition unit 34 has deviation when there is no change in the (σY 2) That is, the deviation (σX 2, σY 2) is in the trajectory of the absence of sensitizer, the weight shown in (for example, in S316), FIG. 14 central with Based gesture recognition processing is performed to recognize a gesture. On the other hand, the gesture recognition unit 34, if there is a change in the deviation (σY 2) (NO in S316), it is determined whether the deviation (σY 2) is increased to reduce a tendency that the trend (S317).

제스처 인식부(34)는 편차(σY2)가 감소 경향에 있는 경우(S317에 있어서 아니오), 상기 소정 기간에 검지된 움직임을「13:양손을 상하 방향으로 모은다」제스처로서 인식한다(S318). 한편, 편차(σY2)가 증가 경향에 있는 경우(S317에 있어서 예), 제스처 인식부(34)는 상기 소정 기간에 검지된 움직임을「12:양손을 상하 방향으로 벌린다」제스처로서 인식한다(S319).When the deviation sigma Y 2 tends to decrease (NO in S317), the gesture recognition unit 34 recognizes the movement detected in the predetermined period as the "13: put both hands up and down" gesture (S318). . On the other hand, when the deviation σY 2 tends to increase (YES in S317), the gesture recognition unit 34 recognizes the movement detected in the predetermined period as the gesture "12: spread both hands upward and downward" ( S319).

상기 구성 및 방법에 따르면, 제1 실시 형태와 비교하여, 보다 고해상도의 온도 정보(d1)를 취득함으로써, 복수의 대상물, 혹은, 대상물의 형상까지 인식하는 것이 가능해진다. 따라서, 화상 처리 기술과 같이 방대한 정보량을 취급하지 않아도, 더욱, 다종다양한 조작 입력을 행할 수 있는 입력 장치를 실현하는 것이 가능해진다.According to the said structure and method, compared with 1st Embodiment, by acquiring more high-resolution temperature information d1, it becomes possible to recognize even a some object or the shape of an object. Therefore, it is possible to realize an input device capable of performing various types of operation inputs without dealing with a huge amount of information as in image processing technology.

또한 상술한 실시 형태에서는, 제스처 인식 장치(1)가 양손의 개폐 제스처를 인식하는 구성에 대해 설명했지만, 본 발명의 제스처 인식 장치(1)의 구성은 이에 한정되지 않는다. 본 발명의 제스처 인식 장치(1)는, 상기 수순에 기초하여, 한 손의 손가락의 개폐 제스처를 인식할 수 있다.In addition, in the above-mentioned embodiment, although the structure which the gesture recognition apparatus 1 recognizes the open / close gesture of both hands was demonstrated, the structure of the gesture recognition apparatus 1 of this invention is not limited to this. The gesture recognition apparatus 1 of the present invention can recognize the opening and closing gesture of a finger of one hand based on the above procedure.

〔변형예 2〕 [Modification 2]

상술한 각 실시 형태에서는, 센서부(2)와 제스처 인식 장치(1)[스마트 폰 폰(100)]를 일체로 구성한 경우에 대해 설명했지만, 본 발명의 제스처 인식 장치(1)의 구성은 이에 한정되지 않는다.In each of the above-described embodiments, the case where the sensor unit 2 and the gesture recognition device 1 (smartphone phone 100) are integrally described has been described. However, the configuration of the gesture recognition device 1 according to the present invention is described herein. It is not limited.

예를 들어, 센서부(2)를 제스처 인식 장치(1)와는 달리 원격으로 설치하고, 적당한 통신 수단을 사용하여 센서부(2)의 검지 신호를 제스처 인식 장치(1)에 취득시키는 구성도 본 발명에 포함된다. 즉, 제스처 인식 장치(1)는, 센서부(2)를 구비하고 있지 않아도 되고, 이 경우에는, 센서부(2)로부터 검지 신호를 취득하는 적절한 통신 수단을 구비하고 있으면 된다.For example, unlike the gesture recognition apparatus 1, the sensor part 2 is installed remotely and the structure which acquires the detection signal of the sensor part 2 to the gesture recognition apparatus 1 using a suitable communication means is also shown. It is included in the invention. That is, the gesture recognition apparatus 1 does not need to be provided with the sensor part 2, In this case, what is necessary is just to provide the appropriate communication means which acquires a detection signal from the sensor part 2.

본 발명은 상술한 각 실시 형태에 한정되는 것이 아닌, 청구항에 나타낸 범위에서 다양한 변경이 가능하고, 다른 실시 형태에 각각 개시된 기술적 수단을 적절하게 조합하여 얻어지는 실시 형태에 대해서도 본 발명의 기술적 범위에 포함된다.The present invention is not limited to the above-described embodiments, but various modifications are possible within the scope shown in the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the other embodiments are also included in the technical scope of the present invention. do.

마지막으로, 제스처 인식 장치(1)의 각 블록 특히, 데이터 처리부(10)의 각 부는, 하드웨어 로직에 의해 구성해도 되고, 다음과 같이 CPU를 사용하여 소프트웨어에 의해 실현해도 된다.Finally, each block of the gesture recognition apparatus 1, in particular, each part of the data processing unit 10 may be configured by hardware logic, or may be implemented by software using a CPU as follows.

즉, 제스처 인식 장치(1)는 각 기능을 실현하는 제어 프로그램의 명령을 실행하는 CPU(central processing unit), 상기 프로그램을 저장한 ROM(read only memory), 상기 프로그램을 전개하는 RAM(random access memory), 상기 프로그램 및 각종 데이터를 저장하는 메모리 등의 기억 장치(기록 매체) 등을 구비하고 있다. 그리고 본 발명의 목적은 상술한 기능을 실현하는 소프트웨어인 제스처 인식 장치(1)의 제어 프로그램의 프로그램 코드(실행 형식 프로그램, 중간 코드 프로그램, 소스 프로그램)를 컴퓨터로 판독 가능하게 기록한 기록 매체를, 상기 제스처 인식 장치(1)에 공급하고, 그 컴퓨터(또는 CPU나 MPU)가 기록 매체에 기록되어 있는 프로그램 코드를 판독하여 실행하는 것에 의해서도 달성 가능하다.That is, the gesture recognition apparatus 1 includes a central processing unit (CPU) for executing instructions of a control program for realizing each function, a read only memory (ROM) storing the program, and a random access memory (RAM) for expanding the program. ), And a storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is to provide a computer-readable recording medium for recording program code (executable program, intermediate code program, source program) of a control program of the gesture recognition apparatus 1, which is software for realizing the above functions. It can also be achieved by supplying to the gesture recognizing apparatus 1 and reading out and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

상기 기록 매체로서는 예를 들어, 자기 테이프나 카세트 테이프 등의 테이프계, 플로피(등록 상표) 디스크/하드 디스크 등의 자기 디스크나 CD-ROM/MO/MD/DVD/CD-R 등의 광 디스크를 포함하는 디스크계, IC 카드(메모리 카드를 포함함)/광 카드 등의 카드계, 혹은 마스크 ROM/EPROM/EEPROM/플래시 ROM 등의 반도체 메모리계 등을 사용할 수 있다.Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy disks / hard disks, and optical disks such as CD-ROM / MO / MD / DVD / CD-R. A disk system, a card system such as an IC card (including a memory card) / optical card, or a semiconductor memory system such as a mask ROM / EPROM / EEPROM / flash ROM can be used.

또한, 제스처 인식 장치(1)를 통신 네트워크와 접속 가능하게 구성하고, 상기 프로그램 코드를, 통신 네트워크를 통해 공급해도 된다. 이 통신 네트워크로서는, 특별히 한정되지 않고, 예를 들어, 인터넷, 인트라넷, 엑스트라넷, LAN, ISDN, VAN, CATV 통신망, 가상 전용망(virtual private network), 전화 회선망, 이동 통신망, 위성 통신망 등이 이용 가능하다. 또한, 통신 네트워크를 구성하는 전송 매체로서는, 특별히 한정되지 않고, 예를 들어, IEEE 1394, USB, 전력선 반송, 케이블 TV 회선, 전화선, ADSL 회선 등의 유선이어도, IrDA나 리모트 컨트롤러와 같은 적외선, Bluetooth(등록 상표), 802.11 무선, HDR, 휴대 전화망, 위성 회선, 지상파 디지털망 등의 무선이어도 이용 가능하다. 또한, 본 발명은, 상기 프로그램 코드가 전자적인 전송으로 구현화된, 반송파에 매립된 컴퓨터 데이터 신호의 형태에서도 실현될 수 있다.In addition, the gesture recognition apparatus 1 may be configured to be connectable with the communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited, and for example, the Internet, an intranet, an extranet, a LAN, an ISDN, a VAN, a CATV communication network, a virtual private network, a telephone line network, a mobile communication network, and a satellite communication network can be used. Do. In addition, the transmission medium constituting the communication network is not particularly limited, and, for example, infrared rays such as IrDA or a remote controller, Bluetooth, even a wire such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc. (Registered trademark), 802.11 wireless, HDR, mobile telephone network, satellite line, terrestrial digital network and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is implemented by electronic transmission.

본 발명의 제스처 인식 장치는, 스마트 폰, 휴대 전화, PDA, 휴대형 게임기, 전자 사전, 전자 수첩, 디지털 카메라, 디지털 비디오 카메라, 퍼스널 컴퓨터, 노트북 컴퓨터, 텔레비전, 녹화 생성 장치, 가정용 게임기 등의 각종 전자 기기에 탑재할 수 있고, 이들 전자 기기의 입력 기능을 담당할 수 있다. 특히, 프로젝터 기능을 구비한 전자 기기의 입력 장치로서, 매우 효과적으로 사용하는 것이 가능하다.The gesture recognition apparatus of the present invention includes various electronic devices such as a smartphone, a mobile phone, a PDA, a portable game machine, an electronic dictionary, an electronic notebook, a digital camera, a digital video camera, a personal computer, a notebook computer, a television, a recording generating device, and a home game machine. It can be mounted in a device, and can play the input function of these electronic devices. In particular, as an input device of an electronic device with a projector function, it is possible to use very effectively.

1 : 제스처 인식 장치
2 : 센서부
3 : 입력 제어부
4 : 기억부
5 : 커넥터부
6 : 온도 센서 칩(온도 센서)
7 : 신호 처리부
8 : 일시 기억부
10 : 데이터 처리부
11 : 통신 제어부
12 : AD 변환부
13 : 신호 선택부
14 : 신호 증폭부
21 : 기판
22 : 중간 케이스
23 : 렌즈
24 : 외부 케이스
30 : 온도 정보 취득부
31 : 좌표 배치부
32 : 변화량 산출부(변화 영역 특정 수단/변화량 산출 수단)
33 : 무게 중심 결정부(무게 중심 결정 수단)
34 : 제스처 인식부(제스처 인식 수단)
35 : 마스크 선택부(마스크 선택 수단)
36 : 편차 산출부(편차 산출 수단)
40 : 제스처 패턴 기억부
41 : 마스크 기억부
42 : 기준값 기억부
100 : 스마트 폰
1: Gesture recognition device
2: sensor
3: input control unit
4: Memory
5 connector
6: temperature sensor chip (temperature sensor)
7: signal processing unit
8: temporary storage
10: data processing unit
11: communication control unit
12: AD conversion unit
13: signal selector
14: signal amplifier
21: substrate
22: middle case
23: lens
24: outer case
30: temperature information acquisition unit
31: coordinate arrangement
32: change amount calculation unit (change area specifying means / change amount calculating means)
33: center of gravity determining unit (weight center determining unit)
34: gesture recognition unit (gesture recognition means)
35 mask selection unit (mask selection means)
36: deviation calculation part (deviation calculation means)
40: gesture pattern memory
41: mask memory
42: reference value storage unit
100: smart phone

Claims (8)

복수의 적외선 센서가 배치되어 구성된 온도 센서와,
상기 온도 센서의 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 수단과,
상기 변화 영역 특정 수단이 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 수단을 구비하고 있는 것을 특징으로 하는, 제스처 인식 장치.
A temperature sensor in which a plurality of infrared sensors are arranged,
Change region specifying means for specifying, as a region indicating a hand, a change region in which a temperature change has occurred based on a temperature detected by each of the infrared sensors of the temperature sensor;
And the gesture recognizing device is provided with gesture recognition means for recognizing a gesture of a hand by specifying the movement trajectory of the specific change area.
제1항에 있어서, 상기 변화 영역 특정 수단에 의해 특정된 변화 영역의 무게 중심을 결정하는 무게 중심 결정 수단을 구비하고,
상기 제스처 인식 수단은, 상기 무게 중심의 위치를 추적함으로써 상기 이동 궤적을 특정하는 것을 특징으로 하는, 제스처 인식 장치.
The apparatus according to claim 1, further comprising: center of gravity determining means for determining a center of gravity of the change region specified by said change region specifying means,
And the gesture recognizing means specifies the movement trajectory by tracking the position of the center of gravity.
제2항에 있어서, 적외선 센서 각각이 검지한 각각의 온도와, 소정의 기준 온도를 비교함으로써, 적외선 센서마다 온도 변화량을 산출하는 변화량 산출 수단을 구비하고,
상기 무게 중심 결정 수단은, 적외선 센서마다 얻어진 상기 온도 변화량에 기초하여, 상기 변화 영역의 무게 중심을 결정하는 것을 특징으로 하는, 제스처 인식 장치.
The apparatus according to claim 2, further comprising change amount calculating means for calculating a temperature change amount for each infrared sensor by comparing respective temperatures detected by each infrared sensor with a predetermined reference temperature,
And the center of gravity determining means determines the center of gravity of the change area based on the temperature change amount obtained for each infrared sensor.
제1항 내지 제3항 중 어느 한 항에 있어서, 상기 복수의 적외선 센서에 있어서의 유효 무효인 배치 패턴을 나타내는 마스크를, 장치 스스로가 접속하는 전자 기기의 어플리케이션의 종류에 관련지어 기억하는 마스크 기억부와,
상기 전자 기기가 기동 중의 어플리케이션에 관련되어 있는 마스크를 상기 마스크 기억부로부터 선택하는 마스크 선택 수단을 구비하고,
상기 변화 영역 특정 수단은,
상기 마스크 선택 수단에 의해 선택된 마스크가 유효로 하는 적외선 센서에 의해 검지된 온도만에 기초하여 변화 영역을 특정하는 것을 특징으로 하는, 제스처 인식 장치.
The mask memory according to any one of claims 1 to 3, wherein the mask memory, which stores a mask indicating an invalid invalid placement pattern in the plurality of infrared sensors, is stored in association with the type of application of an electronic device to which the device itself is connected. Wealth,
Mask selection means for selecting from the mask storage section a mask associated with an application during which the electronic device is starting up,
The change area specifying means,
And the change region is specified based only on the temperature detected by the infrared sensor which the mask selected by the mask selecting means is valid.
제1항 내지 제3항 중 어느 한 항에 있어서, 상기 변화 영역 특정 수단에 의해 특정된 변화 영역의 편차를 산출하는 편차 산출 수단을 구비하고,
상기 제스처 인식 수단은, 시간의 경과에 수반하는 상기 편차의 증감에 기초하여, 제스처를 인식하는 것을 특징으로 하는, 제스처 인식 장치.
The apparatus according to any one of claims 1 to 3, further comprising deviation calculation means for calculating a deviation of the change region specified by the change region specifying means,
And the gesture recognizing means recognizes the gesture on the basis of the increase and decrease of the deviation with the passage of time.
제5항에 있어서, 상기 제스처 인식 수단은,
상기 변화 영역의 편차가 증가할 경우에, 양손 또는 손가락이 벌어지는 방향으로 움직였다고 인식하고, 상기 변화 영역의 편차가 감소할 경우에, 양손 또는 손가락이 모아지는 방향으로 움직였다고 인식하는 것을 특징으로 하는, 제스처 인식 장치.
The method of claim 5, wherein the gesture recognition means,
When the deviation of the change area is increased, it is recognized that both hands or fingers moved in the direction of spreading, and when the deviation of the change area is reduced, it is recognized that the movement in the direction in which both hands or fingers are collected. , Gesture recognition device.
복수의 적외선 센서가 배치되어 구성된 온도 센서로부터 적외선 센서마다의 온도를 취득하는 온도 취득 스텝과,
상기 온도 취득 스텝에서 취득한, 상기 적외선 센서 각각이 검지한 온도에 기초하여, 온도 변화가 발생한 변화 영역을, 손을 나타내는 영역으로서 특정하는 변화 영역 특정 스텝과,
상기 변화 영역 특정 스텝에서 특정한 변화 영역의 이동 궤적을 특정하여, 손의 제스처를 인식하는 제스처 인식 스텝을 포함하는 것을 특징으로 하는, 제스처 인식 방법.
A temperature acquisition step of acquiring a temperature for each infrared sensor from a temperature sensor in which a plurality of infrared sensors are arranged;
A change region specifying step of specifying a change region in which a temperature change has occurred, as a region indicating a hand, based on the temperature detected by each of the infrared sensors acquired in the temperature obtaining step;
And a gesture recognition step of recognizing a gesture of a hand by specifying a movement trajectory of a specific change area in the change area specifying step.
컴퓨터를, 제1항 내지 제3항 중 어느 한 항에 기재된 제스처 인식 장치의 각 수단으로서 기능시키기 위한 제어 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.

The computer-readable recording medium which recorded the control program for making a computer function as each means of the gesture recognition apparatus in any one of Claims 1-3.

KR1020110118799A 2010-12-08 2011-11-15 Gesture recognition device, gesture recognition method, computer readable recording medium recording control program KR101302910B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010273691A JP5617581B2 (en) 2010-12-08 2010-12-08 Gesture recognition device, gesture recognition method, control program, and recording medium
JPJP-P-2010-273691 2010-12-08

Publications (2)

Publication Number Publication Date
KR20120089992A true KR20120089992A (en) 2012-08-16
KR101302910B1 KR101302910B1 (en) 2013-09-06

Family

ID=45442819

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110118799A KR101302910B1 (en) 2010-12-08 2011-11-15 Gesture recognition device, gesture recognition method, computer readable recording medium recording control program

Country Status (5)

Country Link
US (1) US20120146903A1 (en)
EP (1) EP2463751A3 (en)
JP (1) JP5617581B2 (en)
KR (1) KR101302910B1 (en)
CN (1) CN102591452B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101370263B1 (en) * 2013-03-15 2014-03-04 전자부품연구원 Method for provide gesture-based remote control for electronic devices, and computer-readable recording medium for the same
KR20170008720A (en) * 2014-02-17 2017-01-24 메타이오 게엠베하 Method and device for detecting a touch between a first object and a second object
KR20170035240A (en) * 2015-09-22 2017-03-30 삼성전자주식회사 Method for performing image process and electronic device thereof

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
JP2013080413A (en) * 2011-10-05 2013-05-02 Sony Corp Input apparatus and input recognition method
US9587804B2 (en) 2012-05-07 2017-03-07 Chia Ming Chen Light control systems and methods
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
CN103513782A (en) * 2012-06-20 2014-01-15 鸿富锦精密工业(深圳)有限公司 Mouse
DE102012107739B4 (en) 2012-08-22 2023-11-02 Avago Technologies International Sales Pte. Ltd. Sensor system for detecting movement of an infrared light source
JP6019947B2 (en) * 2012-08-31 2016-11-02 オムロン株式会社 Gesture recognition device, control method thereof, display device, and control program
US20140340498A1 (en) * 2012-12-20 2014-11-20 Google Inc. Using distance between objects in touchless gestural interfaces
TWI536259B (en) * 2012-12-28 2016-06-01 緯創資通股份有限公司 Gesture recognition module and gesture recognition method
TWI512544B (en) * 2013-01-07 2015-12-11 Eminent Electronic Technology Corp Ltd Control method for electronic apparatus
US9300645B1 (en) * 2013-03-14 2016-03-29 Ip Holdings, Inc. Mobile IO input and output for smartphones, tablet, and wireless devices including touch screen, voice, pen, and gestures
DE102014106680B4 (en) 2013-05-24 2023-11-16 Avago Technologies International Sales Pte. Ltd. Switch operating device, mobile device and method for operating a switch by a non-tactile "push" gesture
CN103279191B (en) * 2013-06-18 2016-01-06 北京科技大学 A kind of 3D virtual interacting method based on Gesture Recognition and system
WO2014210502A1 (en) * 2013-06-28 2014-12-31 Chia Ming Chen Controlling device operation according to hand gestures
US9717118B2 (en) 2013-07-16 2017-07-25 Chia Ming Chen Light control systems and methods
US9477314B2 (en) 2013-07-16 2016-10-25 Google Technology Holdings LLC Method and apparatus for selecting between multiple gesture recognition systems
KR20150028619A (en) * 2013-09-06 2015-03-16 현대자동차주식회사 Misrecognition reducing type motion recognition apparatus and method thereof
WO2015034453A1 (en) * 2013-09-06 2015-03-12 Latypov Ray Providing a wide angle view image
CN103472752B (en) * 2013-09-17 2015-10-28 于金田 A kind of infrared many gears gesture identification switch and gesture identification method
CN105027031A (en) * 2013-12-19 2015-11-04 谷歌公司 Using distance between objects in touchless gestural interfaces
JP6222830B2 (en) * 2013-12-27 2017-11-01 マクセルホールディングス株式会社 Image projection device
US9430046B2 (en) * 2014-01-16 2016-08-30 Denso International America, Inc. Gesture based image capturing system for vehicle
US9600993B2 (en) * 2014-01-27 2017-03-21 Atlas5D, Inc. Method and system for behavior detection
GB2524247B (en) * 2014-03-17 2021-04-21 Sony Interactive Entertainment Europe Ltd Control of data processing
US10406967B2 (en) 2014-04-29 2019-09-10 Chia Ming Chen Light control systems and methods
US9639167B2 (en) 2014-05-30 2017-05-02 Eminent Electronic Technology Corp. Ltd. Control method of electronic apparatus having non-contact gesture sensitive region
CN106462252B (en) 2014-06-30 2019-05-21 歌乐株式会社 Touchless manipulation detection device
US9990043B2 (en) * 2014-07-09 2018-06-05 Atheer Labs, Inc. Gesture recognition systems and devices for low and no light conditions
JP5682899B1 (en) * 2014-08-04 2015-03-11 求 藤川 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, ADJUSTING DEVICE, ADJUSTING DEVICE CONTROL METHOD, SETTING DEVICE, SETTING DEVICE CONTROL METHOD, DEVICE PROGRAM
CN105571045A (en) * 2014-10-10 2016-05-11 青岛海尔空调电子有限公司 Somatosensory identification method, apparatus and air conditioner controller
CN104392204B (en) * 2014-10-21 2018-03-09 北京智谷睿拓技术服务有限公司 Gesture recognition method and gesture recognition device
CN104460987B (en) * 2014-11-07 2019-05-28 惠州Tcl移动通信有限公司 The electronic equipment that can be manipulated by Non-contact gesture
DE102014116292A1 (en) * 2014-11-07 2016-05-12 Visteon Global Technologies, Inc. System for transmitting information in a motor vehicle
KR101608906B1 (en) * 2014-11-17 2016-04-04 구본훈 Smart lazer phone control method
KR101609263B1 (en) * 2014-12-04 2016-04-05 현대모비스 주식회사 Apparatus for recognizing gesture using infrared ray and method thereof
US9338627B1 (en) 2015-01-28 2016-05-10 Arati P Singh Portable device for indicating emergency events
JP6603024B2 (en) * 2015-02-10 2019-11-06 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
JP6534011B2 (en) 2015-02-10 2019-06-26 任天堂株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD
JP6561400B2 (en) * 2015-02-10 2019-08-21 任天堂株式会社 Information processing apparatus, information processing program, information processing system, and information processing method
JP6519075B2 (en) 2015-02-10 2019-05-29 任天堂株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD
WO2016168082A1 (en) * 2015-04-13 2016-10-20 Pi Konrad David Method and system for hand washing compliance
WO2016167331A1 (en) 2015-04-17 2016-10-20 三菱電機株式会社 Gesture recognition device, gesture recognition method, and information processing device
DE102015006613A1 (en) * 2015-05-21 2016-11-24 Audi Ag Operating system and method for operating an operating system for a motor vehicle
JP6614831B2 (en) * 2015-07-10 2019-12-04 キヤノン株式会社 Information processing apparatus and method for controlling power state of information processing apparatus
CN108369451B (en) * 2015-12-18 2021-10-29 索尼公司 Information processing apparatus, information processing method, and computer-readable storage medium
CN107199888A (en) * 2016-03-18 2017-09-26 松下知识产权经营株式会社 Posture input system and posture input method
CN105867685A (en) * 2016-03-28 2016-08-17 乐视控股(北京)有限公司 Control method and device for terminal equipment
US10338686B2 (en) * 2016-03-31 2019-07-02 Disney Enterprises, Inc. Control system using aesthetically guided gesture recognition
CN107330351A (en) * 2016-04-28 2017-11-07 中华映管股份有限公司 Posture behavioral value method
CN105975073B (en) * 2016-04-29 2019-07-02 广东美的制冷设备有限公司 Gesture identification method, gesture identifying device and equipment
CN106289555B (en) * 2016-07-22 2018-09-18 京东方科技集团股份有限公司 Display base plate
US11017901B2 (en) 2016-08-02 2021-05-25 Atlas5D, Inc. Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy
JP2018530016A (en) * 2016-08-30 2018-10-11 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. VR control method, apparatus, electronic device, program, and recording medium
CN106406640B (en) * 2016-09-30 2019-07-26 维沃移动通信有限公司 A kind of touch operation determines method and mobile terminal
CN106527711A (en) * 2016-11-07 2017-03-22 珠海市魅族科技有限公司 Virtual reality equipment control method and virtual reality equipment
CN106527712A (en) * 2016-11-07 2017-03-22 珠海市魅族科技有限公司 Information processing method for virtual reality device and virtual reality device
CN106775415A (en) * 2016-12-28 2017-05-31 珠海市魅族科技有限公司 Application program launching method and system
CN106650704B (en) * 2017-01-10 2020-10-13 广东美的制冷设备有限公司 Gesture recognition module, gesture recognition method and device and electric equipment
US10649555B2 (en) * 2017-09-28 2020-05-12 Htc Corporation Input interface device, control method and non-transitory computer-readable medium
JP7061883B2 (en) * 2018-01-22 2022-05-02 マクセル株式会社 Image display device and image display method
JP2019175414A (en) * 2018-03-28 2019-10-10 株式会社東海理化電機製作所 Gesture input device
JP2021527876A (en) 2018-06-14 2021-10-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. Augmented Reality Deep Gesture Network
CN109241932B (en) * 2018-09-21 2021-07-06 长江师范学院 Thermal infrared human body action identification method based on motion variance map phase characteristics
US10649539B1 (en) * 2019-03-05 2020-05-12 Motorola Mobility Llc Hand temperature compensation
US11450151B2 (en) * 2019-07-18 2022-09-20 Capital One Services, Llc Detecting attempts to defeat facial recognition
CN115877989A (en) * 2022-11-14 2023-03-31 北京深光科技有限公司 Touch identification method and device, electronic equipment and storage medium

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03164923A (en) * 1989-11-24 1991-07-16 Nec Corp Coordinate output device
JPH07288875A (en) * 1994-04-14 1995-10-31 Matsushita Electric Ind Co Ltd Human body recognition sensor and non-contact operation device
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
KR19980037590A (en) * 1996-11-22 1998-08-05 김영귀 Audio function switch structure
JP2002083302A (en) * 2000-09-07 2002-03-22 Sony Corp Information processing device, action recognition processing method, and program storage medium
JP2002116859A (en) * 2000-10-11 2002-04-19 Sony Corp Information processor, instruction recognition processing method and program storage medium
US8608548B2 (en) * 2002-06-12 2013-12-17 Igt Intelligent wagering token and wagering token tracking techniques
JP2005047331A (en) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd Control device
KR101114553B1 (en) * 2003-11-18 2012-03-13 소니 주식회사 Input device, input method, and electronic device
US7115871B1 (en) * 2005-08-25 2006-10-03 Inet Consulting Limited Company Field coverage configurable passive infrared radiation intrusion detection device
US8610670B2 (en) * 2006-08-31 2013-12-17 Japan Display West Inc. Imaging and display apparatus, information input apparatus, object detection medium, and object detection method
US9317124B2 (en) * 2006-09-28 2016-04-19 Nokia Technologies Oy Command input by hand gestures captured from camera
KR20080098763A (en) * 2007-05-07 2008-11-12 삼성전자주식회사 Apparatus for adaptively operating according to grip of user and controlling method thereof
JP5104150B2 (en) 2007-09-14 2012-12-19 オムロン株式会社 Detection apparatus and method, and program
US8416198B2 (en) * 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
JP2009140368A (en) * 2007-12-07 2009-06-25 Sony Corp Input device, display device, input method, display method, and program
TW200930015A (en) * 2007-12-26 2009-07-01 Htc Corp A user interface of portable device and operating method thereof
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
JP2009168647A (en) 2008-01-17 2009-07-30 Omron Corp Touch sensor and method of controlling touch sensor, and program
CN101609362B (en) * 2008-06-19 2011-07-20 大同股份有限公司 Vernier control device based on video signal and control method thereof
JP4720874B2 (en) * 2008-08-14 2011-07-13 ソニー株式会社 Information processing apparatus, information processing method, and information processing program
TW201020856A (en) * 2008-11-25 2010-06-01 Asustek Comp Inc Electronic device of inputting touch free and input method thereof
JP5177075B2 (en) * 2009-02-12 2013-04-03 ソニー株式会社 Motion recognition device, motion recognition method, and program
KR20100095951A (en) * 2009-02-23 2010-09-01 주식회사 팬택 Portable electronic equipment and control method thereof
JP5368134B2 (en) 2009-02-25 2013-12-18 京セラ株式会社 Portable electronic devices
US8212788B2 (en) * 2009-05-07 2012-07-03 Microsoft Corporation Touch input to modulate changeable parameter
US8304733B2 (en) * 2009-05-22 2012-11-06 Motorola Mobility Llc Sensing assembly for mobile device
RU2501066C2 (en) * 2009-07-30 2013-12-10 Шарп Кабусики Кайся Portable display device, method of controlling portable display device and recording medium
US8345022B2 (en) * 2009-12-08 2013-01-01 Getac Technology Corporation Linear compensation method of touch panel

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101370263B1 (en) * 2013-03-15 2014-03-04 전자부품연구원 Method for provide gesture-based remote control for electronic devices, and computer-readable recording medium for the same
KR20170008720A (en) * 2014-02-17 2017-01-24 메타이오 게엠베하 Method and device for detecting a touch between a first object and a second object
US10877605B2 (en) 2014-02-17 2020-12-29 Apple Inc. Method and device for detecting a touch between a first object and a second object
US11797132B2 (en) 2014-02-17 2023-10-24 Apple Inc. Method and device for detecting a touch between a first object and a second object
KR20170035240A (en) * 2015-09-22 2017-03-30 삼성전자주식회사 Method for performing image process and electronic device thereof

Also Published As

Publication number Publication date
JP5617581B2 (en) 2014-11-05
JP2012123617A (en) 2012-06-28
EP2463751A2 (en) 2012-06-13
CN102591452A (en) 2012-07-18
KR101302910B1 (en) 2013-09-06
CN102591452B (en) 2014-12-31
EP2463751A3 (en) 2014-06-18
US20120146903A1 (en) 2012-06-14

Similar Documents

Publication Publication Date Title
KR20120089992A (en) Gesture recognition device, gesture recognition method, computer readable recording medium recording control program
JP5802667B2 (en) Gesture input device and gesture input method
JP5665140B2 (en) Input device, input method, and program
WO2006036069A1 (en) Information processing system and method
JP4609557B2 (en) Information processing apparatus and information processing method
CN202584010U (en) Wrist-mounting gesture control system
CN1322329B (en) Imput device using scanning sensors
KR101547174B1 (en) Information processing apparatus and control method therefor
US8269842B2 (en) Camera gestures for user interface control
US20160124514A1 (en) Electronic device and method of controlling the same
US20140300542A1 (en) Portable device and method for providing non-contact interface
CN102915111A (en) Wrist gesture control system and method
US20190228139A1 (en) Method for recognizing fingerprint, and electronic device and storage medium therefor
CN102681656A (en) Apparatuses and methods for providing 3d man-machine interface (mmi)
US20140267384A1 (en) Display apparatus and control method thereof
US8264457B2 (en) System and method for simulating a computer mouse
CN112486394A (en) Information processing method and device, electronic equipment and readable storage medium
KR101365083B1 (en) Interface device using motion recognition and control method thereof
US20220019288A1 (en) Information processing apparatus, information processing method, and program
JP2013171529A (en) Operation input device, operation determination method, and program
WO2011096571A1 (en) Input device
US20120327118A1 (en) Display control apparatus, display control method and program
KR20140097876A (en) Controlling method and apparatus for photographing image
CN110007748A (en) Control method, processing unit, storage medium and the terminal of terminal
KR101491648B1 (en) System and Method for remote control using camera

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160727

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170804

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180816

Year of fee payment: 6