JP2016045670A - Gesture management system, gesture management program, gesture management method and finger pointing recognition device - Google Patents

Gesture management system, gesture management program, gesture management method and finger pointing recognition device Download PDF

Info

Publication number
JP2016045670A
JP2016045670A JP2014168933A JP2014168933A JP2016045670A JP 2016045670 A JP2016045670 A JP 2016045670A JP 2014168933 A JP2014168933 A JP 2014168933A JP 2014168933 A JP2014168933 A JP 2014168933A JP 2016045670 A JP2016045670 A JP 2016045670A
Authority
JP
Japan
Prior art keywords
distance image
gesture
arm
image sensor
pointing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014168933A
Other languages
Japanese (ja)
Other versions
JP6303918B2 (en
Inventor
康彦 鳩
Yasuhiko Hato
康彦 鳩
神田 崇行
Takayuki Kanda
崇行 神田
ドラジェン ブルシュチッチ
Drazen Brscic
ドラジェン ブルシュチッチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2014168933A priority Critical patent/JP6303918B2/en
Publication of JP2016045670A publication Critical patent/JP2016045670A/en
Application granted granted Critical
Publication of JP6303918B2 publication Critical patent/JP6303918B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

CONSTITUTION: A gesture management system (100) includes such as a plurality of distance image sensors 12 installed on a ceiling of a space and the distance image sensor 12 outputs a distance image. For example, when a human being H gestures by pointing a finger, body characteristic points such as a head top part (HT) or two shoulder positions (Sn) are detected from each of the distance images outputted by the distance image sensors 12. Then by using such as the body characteristic points, finger pointing direction (Px) of the finger pointing gesture is detected. Among the distance image sensors 12, the distance image sensor 12 detecting the finger pointing direction as well as with the greatest plotted range indicating the human being H is specified. Then, the finger pointing direction corresponding to the specified distance image sensor 12 is registered as a recognition result of the finger pointing gesture.EFFECT: A gesture is capable of being suitably recognized even when a human being H carries out a finger pointing gesture in a randomly selected position in a space.SELECTED DRAWING: Figure 1

Description

この発明は、ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置に関し、特にたとえば、腕を使ったジェスチャを認識する、ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置に関する。   The present invention relates to a gesture management system, a gesture management program, a gesture management method, and a pointing recognition device, and more particularly, to a gesture management system, a gesture management program, a gesture management method, and a pointing recognition device that recognizes a gesture using an arm, for example.

背景技術の一例が特許文献1に開示されている。この特許文献1の計測装置では、複数の3次元距離計測センサを利用して、人の位置および頭部の向きをリアルタイムに計測することが出来る。   An example of background art is disclosed in Patent Document 1. In the measuring device of this patent document 1, a person's position and head direction can be measured in real time using a plurality of three-dimensional distance measuring sensors.

また、特許文献2のジェスチャスイッチでは、検知対象エリア内に所定のジェスチャによる入力を受け付けるための入力空間が設定されている。人が入力空間の近傍で所定のジェスチャを行うと、そのジェスチャが認識される。   Moreover, in the gesture switch of patent document 2, the input space for receiving the input by a predetermined gesture is set in the detection target area. When a person makes a predetermined gesture in the vicinity of the input space, the gesture is recognized.

特開2012-215555号公報[G01S 17/89, G01S 17/66, G01C 3/06, G06T 7/20, G06T 7/60]JP 2012-215555 A [G01S 17/89, G01S 17/66, G01C 3/06, G06T 7/20, G06T 7/60] 特開2006-99749号公報[G06F 3/033, G06T 7/20, G01B 11/00,G01B 11/24]JP 2006-99749 A [G06F 3/033, G06T 7/20, G01B 11/00, G01B 11/24]

ところが、特許文献1の計測装置では、人間の位置などを計測することはできるが、指さしなどの腕を使ったジェスチャを認識することはできない。また、特許文献2のジェスチャスイッチは検知対象エリア内に設定されている入力空間の近傍でなければ、所定のジェスチャを認識することが出来ない。つまり、このジェスチャスイッチでは、人間などが移動する空間において、任意の位置で行なわれる腕を使ったジェスチャを認識することができない。   However, the measuring device of Patent Document 1 can measure a human position and the like, but cannot recognize a gesture using an arm such as a pointing finger. Further, the gesture switch of Patent Document 2 cannot recognize a predetermined gesture unless it is in the vicinity of the input space set in the detection target area. In other words, this gesture switch cannot recognize a gesture using an arm performed at an arbitrary position in a space where a human or the like moves.

それゆえに、この発明の主たる目的は、新規な、ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法、指さし認識装置を提供することである。   Therefore, a main object of the present invention is to provide a novel gesture management system, gesture management program, gesture management method, and pointing recognition device.

この発明の他の目的は、任意の位置で行われる腕を使ったジェスチャを適切に認識することができる、ジェスチャ管理システム、ジェスチャ管理プログラムおよびジェスチャ管理方法を提供することである。   Another object of the present invention is to provide a gesture management system, a gesture management program, and a gesture management method that can appropriately recognize a gesture using an arm performed at an arbitrary position.

この発明のその他の目的は、指さしを適切に認識することが出来る、指さし認識装置を提供することである。   Another object of the present invention is to provide a pointing device that can properly recognize a pointing device.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、複数の距離画像センサ、腕を使ったジェスチャを距離画像センサ毎に認識する認識手段、腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶手段、記憶手段によって記憶された距離画像センサから、腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定手段、および特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録手段を備える、ジェスチャ管理システムである。   The first invention includes a plurality of distance image sensors, a recognition means for recognizing a gesture using an arm for each distance image sensor, a storage means for storing a distance image sensor used for recognition of a gesture using an arm, and a storage means. Identification means for identifying the distance image sensor used when the gesture using the arm is appropriately recognized from the stored distance image sensor, and the arm recognized by using the distance image sensor identified by the identification means It is a gesture management system provided with a registration means for registering a gesture using a character as a recognition result.

第1の発明では、ジェスチャ管理システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)は、たとえば複数の距離画像センサ(12)が天井に設けられる空間で利用される。認識手段(60,S1)は、複数の距離画像センサに対応付けて腕を使ったジェスチャに認識する。記憶手段(60,S5)は、たとえば複数の距離画像センサのうち、腕を使ったジェスチャの認識に利用した距離画像センサの識別情報を記憶する。特定手段(60,S7)は、腕を使ったジェスチャの認識に利用した距離画像センサの中から、腕を使ったジェスチャを適切に認識したときに利用した距離画像センサを特定する。登録手段(60,S15)は、たとえば特定された距離画像センサを利用して認識した腕を使ったジェスチャを、認識結果として登録する。   In the first invention, the gesture management system (100: reference numerals exemplifying corresponding parts in the embodiment, hereinafter the same) is used in a space where a plurality of distance image sensors (12) are provided on the ceiling, for example. . The recognition means (60, S1) recognizes a gesture using an arm in association with a plurality of distance image sensors. A memory | storage means (60, S5) memorize | stores the identification information of the distance image sensor utilized for recognition of the gesture using an arm among several distance image sensors, for example. The specifying means (60, S7) specifies the distance image sensor used when the gesture using the arm is properly recognized from the distance image sensors used for recognizing the gesture using the arm. The registration means (60, S15) registers, for example, a gesture using an arm recognized by using the specified distance image sensor as a recognition result.

第1の発明によれば、たとえば人間が空間内の任意の位置で腕を使ったジェスチャを行っても、腕を使ったジェスチャを適切に認識している距離画像センサを特定することが出来る。したがって、空間内の任意の位置で人間が腕を使ったジェスチャを行っても、そのジェスチャを適切に認識することが出来る。   According to the first invention, for example, even if a human makes a gesture using an arm at an arbitrary position in the space, a distance image sensor that appropriately recognizes the gesture using the arm can be specified. Therefore, even if a human makes a gesture using an arm at an arbitrary position in the space, the gesture can be appropriately recognized.

第2の発明は、第1の発明に従属し、距離画像センサは、距離画像を出力し、特定手段は、距離画像センサから出力される距離画像における、腕を使ったジェスチャを行う人間の大きさに基づいて、腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する。   The second invention is dependent on the first invention, the distance image sensor outputs a distance image, and the specifying means is a size of a human performing a gesture using an arm in the distance image output from the distance image sensor. Based on this, the distance image sensor used when the gesture using the arm is properly recognized is specified.

第2の発明では、複数の距離画像センサはそれぞれ距離画像を出力する。出力された距離画像における人間の大きさに基づいて、腕を使ったジェスチャを適切に認識したときに利用した距離画像センサが特定される。   In the second invention, each of the plurality of distance image sensors outputs a distance image. Based on the human size in the output distance image, the distance image sensor used when the gesture using the arm is appropriately recognized is specified.

第3の発明は、第2の発明に従属し、人間の大きさは、距離画像のピクセル数によって示される。   The third invention is dependent on the second invention, and the size of the person is indicated by the number of pixels of the distance image.

第3の発明では、たとえば、複数の距離画像センサはそれぞれ異なる位置に設けられている。そのため、各距離画像センサから出力される距離画像では、人間の大きさを示すピクセル数は異なる。   In the third invention, for example, the plurality of distance image sensors are provided at different positions. Therefore, in the distance image output from each distance image sensor, the number of pixels indicating the size of a person is different.

第2の発明または第3の発明によれば、距離画像における人間の大きさを利用することで、距離画像センサを特定するまでの時間を短縮することが出来る。   According to the second invention or the third invention, the time until the distance image sensor is specified can be shortened by using the human size in the distance image.

第4の発明は、第1の発明ないし第3の発明のいずれかに従属し、腕を使ったジェスチャの認識に利用されていない距離画像センサのうち、そのジェスチャを観察可能な距離画像センサを検索する検索手段をさらに備え、登録手段は、検索手段によって腕を使ったジェスチャを観察可能な距離画像センサが発見されないとき、特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する。   According to a fourth aspect of the present invention, there is provided a distance image sensor according to any one of the first to third aspects of the present invention, the distance image sensor capable of observing the gesture among the distance image sensors not used for the recognition of the gesture using the arm. The registration means further includes a search means, and when the distance image sensor capable of observing the gesture using the arm is not found by the search means, the registration means uses the distance image sensor specified by the specifying means to recognize the recognized arm. Register the used gesture as a recognition result.

第4の発明では、検索手段(60,S11)は、腕を使ったジェスチャの認識に利用されていない距離画像センサの中から、そのジェスチャを観察可能な距離画像センサを検索する。検索手段によって腕を使ったジェスチャを観察可能な距離画像センサが発見されなければ、登録手段は、特定された距離画像センサによって認識された腕を使ったジェスチャを、認識結果として登録する。たとえば、腕を使ったジェスチャを観察可能な距離画像センサが発見された場合は、腕を使ったジェスチャを誤認識している可能性が高い。つまり、検索によって腕を使ったジェスチャが誤認識されていないかを確認することができる。   In the fourth invention, the retrieval means (60, S11) retrieves a distance image sensor capable of observing the gesture from the distance image sensors that are not used for recognizing the gesture using the arm. If no distance image sensor capable of observing the gesture using the arm is found by the search means, the registration means registers the gesture using the arm recognized by the specified distance image sensor as the recognition result. For example, when a distance image sensor capable of observing a gesture using an arm is found, there is a high possibility that the gesture using the arm is erroneously recognized. That is, it is possible to confirm whether or not a gesture using the arm has been erroneously recognized by the search.

第4の発明によれば、腕を使ったジェスチャの認識結果を統合する前に腕を使ったジェスチャが誤認識されていないかを確認することで、認識結果を統合する精度を高めることが出来る。   According to the fourth aspect of the present invention, it is possible to improve the accuracy of integrating the recognition results by checking whether the gesture using the arms is erroneously recognized before integrating the recognition results of the gestures using the arms. .

第5の発明は、第1の発明ないし第4の発明のいずれかに従属し、腕を使ったジェスチャは、指さしジェスチャを含み、登録手段は、指さしジェスチャにおける指さし方向(Px)を登録する。   The fifth invention is dependent on any one of the first to fourth inventions, and the gesture using the arm includes a pointing gesture, and the registration unit registers the pointing direction (Px) in the pointing gesture.

第5の発明によれば、指さしジェスチャの認識結果として指さし方向を登録することができる。   According to the fifth aspect, the pointing direction can be registered as the recognition result of the pointing gesture.

第6の発明は、複数の距離画像センサを有する、ジェスチャ管理システムのプロセッサを、腕を使ったジェスチャを距離画像センサ毎に認識する認識手段、腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶手段、記憶手段によって記憶された距離画像センサから、腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定手段、および特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録手段として機能させる、ジェスチャ管理プログラムである。   According to a sixth aspect of the present invention, there is provided a gesture management system processor having a plurality of distance image sensors, a recognition means for recognizing a gesture using an arm for each distance image sensor, and a distance image sensor used for recognizing a gesture using an arm. Storing means for storing the distance image sensor, the specifying means for specifying the distance image sensor used when the gesture using the arm is properly recognized from the distance image sensor stored by the storing means, and the distance image specified by the specifying means It is a gesture management program for causing a gesture using an arm recognized using a sensor to function as a registration unit for registering as a recognition result.

第6の発明でも、第1の発明と同様の効果を得ることが出来る。   In the sixth invention, the same effect as in the first invention can be obtained.

第7の発明は、複数の距離画像センサを有する、ジェスチャ管理システムにおけるジェスチャ管理方法であって、ジェスチャ管理システムのプロセッサが、腕を使ったジェスチャを距離画像センサ毎に認識する認識ステップ、腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶ステップ、記憶ステップによって記憶された距離画像センサから、腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定ステップ、および特定ステップによって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録ステップを実行する、ジェスチャ管理方法である。   A seventh invention is a gesture management method in a gesture management system having a plurality of distance image sensors, wherein a processor of the gesture management system recognizes a gesture using an arm for each distance image sensor. A storage step for storing the distance image sensor used for recognizing the used gesture, and a specification for specifying the distance image sensor used when the gesture using the arm is properly recognized from the distance image sensor stored in the storage step. This is a gesture management method for executing a registration step of registering a gesture using an arm recognized using the step and the distance image sensor specified in the specifying step as a recognition result.

第7の発明でも、第1の発明と同様の効果を得ることが出来る。   In the seventh invention, the same effect as in the first invention can be obtained.

第8の発明は、距離画像を出力する距離画像センサ、人間が存在する空間の距離画像に基づいて、体の特徴点を抽出する第1抽出手段、特徴点に基づいて、距離画像から候補点を抽出する第2抽出手段、特徴点と候補点とを含む領域があるとき、その領域を腕領域として記憶する第1記憶手段、および特徴点と腕領域に含まれる候補点とに基づいて、指さし方向を記憶する第2記憶手段を備える、指さし認識装置である。   According to an eighth aspect of the present invention, there is provided a distance image sensor that outputs a distance image, a first extraction unit that extracts a feature point of a body based on a distance image of a space in which a human exists, a candidate point from a distance image based on the feature point When there is a region including a feature point and a candidate point when there is a region including a feature point and a candidate point, a first storage unit that stores the region as an arm region, and a feature point and a candidate point included in the arm region, A pointing device recognizing device comprising second storage means for storing a pointing direction.

第8の発明では、指さし認識装置(10)の複数の距離画像センサ(12)は、たとえば人間が存在する空間の天井に設けられる。第1抽出手段(60,S33)は、たとえば距離画像センサの検出範囲に人間がいる場合、その距離画像センサが出力する距離画像から、人間の体の特徴点を複数抽出する。第2抽出手段(60,S35)は、たとえば特徴点から一定距離以上離れた特徴点(X)を、距離画像から抽出する。たとえば、特徴点から最も離れた候補点と略同じ距離の周囲の点を結合した結果の領域に特徴点が含まれている場合、第1記憶手段(60,S51)は結合結果の領域を腕領域として記憶する。第2記憶手段(60,S59)は、たとえば腕領域に含まれる、特徴点から最も離れた候補点と特徴点とによって示されるベクトルを指さし方向として記憶する。   In the eighth invention, the plurality of distance image sensors (12) of the pointing finger recognition device (10) are provided, for example, on the ceiling of a space where a human is present. The first extraction means (60, S33) extracts a plurality of feature points of the human body from the distance image output by the distance image sensor, for example, when a person is in the detection range of the distance image sensor. The second extraction means (60, S35) extracts, for example, a feature point (X) that is separated from the feature point by a certain distance or more from the distance image. For example, when a feature point is included in a region resulting from combining points around the same distance as a candidate point farthest from the feature point, the first storage means (60, S51) uses the region of the combination result as an arm. Store as an area. The second storage means (60, S59) stores, for example, a vector indicated by a candidate point and a feature point farthest from the feature point included in the arm region as a pointing direction.

第8の発明によれば、人間の特徴点を利用することで、その人間が行う指さしジェスチャの指さし方向を適切に検出することが出来る。   According to the eighth aspect, by using the human feature point, it is possible to appropriately detect the pointing direction of the pointing gesture performed by the human.

第9の発明は、第8の発明に従属し、第1記憶手段は、特徴点と候補点とを含む領域が、腕としての特徴を有しているとき、その領域を腕領域として記憶する。   A ninth invention is according to the eighth invention, and the first storage means stores the area as an arm area when the area including the feature point and the candidate point has a feature as an arm. .

第9の発明では、腕(領域)としての特徴とは、たとえば結合結果の領域が細長い形状をしており、かつ一定の長さを有していることである。そして、特徴点と候補点とを含む領域が上述の特徴を有しているとき、その領域が腕領域として記憶される。   In the ninth invention, the feature as an arm (region) is that, for example, the region resulting from the combination has an elongated shape and has a certain length. And when the area | region containing a feature point and a candidate point has the above-mentioned characteristic, the area | region is memorize | stored as an arm area | region.

第9の発明によれば、特徴点と候補点とを含む領域が腕の特徴を有しているかを判断することで、指さしジェスチャを認識する際の信頼性を高めることが出来る。   According to the ninth aspect, it is possible to increase the reliability when recognizing the pointing gesture by determining whether the region including the feature point and the candidate point has the arm feature.

第10の発明は、第8の発明または第9の発明に従属し、第2記憶手段は、腕領域と人間とに基づく角度が所定角度範囲内のとき、特徴点と腕領域に含まれる候補点とに基づいて、指さし方向を記憶する。   A tenth invention is dependent on the eighth invention or the ninth invention, and the second storage means is a candidate included in the feature point and the arm region when the angle based on the arm region and the human is within a predetermined angle range. Based on the points, the pointing direction is stored.

第10の発明では、たとえば所定角度範囲は、指さしジェスチャを行うときの腕の角度が含まれる範囲である。そして、たとえば腕領域と人間とに基づく角度が所定角度範囲内のとき、特徴点と腕領域に含まれる候補点とに基づいて、指さし方向が記憶される。   In the tenth invention, for example, the predetermined angle range is a range including the angle of the arm when performing a pointing gesture. For example, when the angle based on the arm region and the person is within a predetermined angle range, the pointing direction is stored based on the feature points and the candidate points included in the arm region.

第10の発明によれば、腕領域と人間とに基づく角度が所定範囲角度内を判断することで、指さしジェスチャを行っていない腕によって指さしジェスチャが誤認識される可能性を低くしている。   According to the tenth aspect, by determining that the angle based on the arm region and the person is within the predetermined range angle, the possibility that the pointing gesture is erroneously recognized by the arm that is not performing the pointing gesture is reduced.

第11の発明は、第8の発明ないし第10の発明のいずれかに従属し、第2抽出手段は、特徴点に基づいて、距離画像から複数の候補点を抽出し、第1記憶手段によって3つ以上の腕領域が記憶されたとき、第2記憶手段によって記憶されている指さし方向を削除する削除手段をさらに備える。   The eleventh invention is dependent on any of the eighth to tenth inventions, and the second extraction means extracts a plurality of candidate points from the distance image based on the feature points, and the first storage means When three or more arm regions are stored, a deletion unit that deletes the pointing direction stored by the second storage unit is further provided.

第11の発明では、第2抽出手段は、特徴点に基づいて、距離画像から複数の候補点を抽出する。3つ以上の腕領域が記憶された場合、削除手段(60,S63)は記憶されている指さし方向を削除する。   In the eleventh invention, the second extracting means extracts a plurality of candidate points from the distance image based on the feature points. When three or more arm regions are stored, the deleting means (60, S63) deletes the stored pointing direction.

第12の発明は、第11の発明に従属し、削除手段は、第1記憶手段によって新たな腕領域が記憶され、かつ第2記憶手段によってすでに指さし方向が記憶されているとき、第2記憶手段によって記憶されている指さし方向を削除する。   The twelfth invention is dependent on the eleventh invention, and the deleting means stores the second arm area when a new arm region is stored by the first storage means and the pointing direction is already stored by the second storage means. The pointing direction stored by the means is deleted.

第12の発明では、たとえば他の腕領域を利用して指さし方向が既に記憶されている場合、既に記憶されている指さし方向が削除される。   In the twelfth aspect, for example, when the pointing direction is already stored using another arm region, the pointing direction already stored is deleted.

第11の発明または第12の発明によれば、誤認識されている可能性が高い指さしジェスチャの認識結果を取り消すことが出来る。   According to the eleventh aspect or the twelfth aspect, it is possible to cancel the recognition result of the pointing gesture that is likely to be erroneously recognized.

第13の発明は、第8の発明ないし第12の発明のいずれかに従属し、特徴点は、人間の頭部位置および肩位置を含み、第2抽出手段は、肩位置に基づいて距離画像から候補点を抽出し、第1記憶手段は、肩位置と候補点とを含む領域があるとき、その領域を腕領域として記憶し、第2記憶手段は、頭部位置および肩位置の中点と、腕領域に含まれる候補点とに基づいて、指さし方向を記憶する。   A thirteenth invention is dependent on any of the eighth to twelfth inventions, wherein the feature points include a human head position and a shoulder position, and the second extracting means is a distance image based on the shoulder position. The first storage means stores the area as an arm area when there is an area including the shoulder position and the candidate point, and the second storage means stores the midpoint of the head position and the shoulder position. And the pointing direction is stored based on the candidate points included in the arm region.

第13の発明では、特徴点は、人間の頭部位置を示す頭頂部(HT)と2つの肩位置(Sn)と含む。たとえば頭頂部に基づいて距離画像から候補点が抽出される。たとえば、候補点と略同じ距離の周囲の点を結合した領域に、肩位置と候補点とが含まれていれば、その領域が腕領域として記憶される。たとえば頭頂部および肩位置の中点と、腕領域に含まれる候補点とに基づいて、指さし方向が記憶される。   In the thirteenth invention, the feature points include a crown (HT) indicating a human head position and two shoulder positions (Sn). For example, candidate points are extracted from the distance image based on the top of the head. For example, if a shoulder position and a candidate point are included in a region where peripheral points approximately the same distance as the candidate point are combined, that region is stored as an arm region. For example, the pointing direction is stored based on the midpoints of the top and shoulder positions and the candidate points included in the arm region.

第13の発明によれば、人間の頭部位置および肩位置を利用して、指さし方向を記憶することが出来る。   According to the thirteenth aspect, the pointing direction can be stored using the human head position and shoulder position.

この発明によれば、任意の位置で行われる腕を使ったジェスチャを適切に認識することができる。   According to the present invention, it is possible to appropriately recognize a gesture using an arm performed at an arbitrary position.

また、人間の特徴点を利用することで、その人間が行う指さしジェスチャの指さし方向を適切に検出することが出来る。   Further, by using a human feature point, the pointing direction of the pointing gesture performed by the human can be appropriately detected.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のジェスチャ管理システムの概要を示す図解図である。FIG. 1 is an illustrative view showing an outline of a gesture management system according to an embodiment of the present invention. 図2は図1に示すジェスチャ管理システムが利用される空間の平面図の一例を示す図解図である。FIG. 2 is an illustrative view showing one example of a plan view of a space in which the gesture management system shown in FIG. 1 is used. 図3は図1に示す距離画像センサの検出範囲の一例を示す図解図である。3 is an illustrative view showing one example of a detection range of the distance image sensor shown in FIG. 図4は図1に示すジェスチャ管理システムの構成の一例を示す図解図である。FIG. 4 is an illustrative view showing one example of a configuration of the gesture management system shown in FIG. 図5は図4に示す距離画像センサの電気的な構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the electrical configuration of the distance image sensor shown in FIG. 図6は図4に示す中央制御装置の電気的な構成の一例を示すブロック図である。FIG. 6 is a block diagram showing an example of an electrical configuration of the central controller shown in FIG. 図7は図1に示す人間の体の特徴点および指さし方向の一例を示す図解図であり、図7(A)は人間の上半身の一例を示し、図7(B)は図7(A)に示す人間の体の特徴点およびその特徴点に基づく指さし方向の一例を示す図解図である。7 is an illustrative view showing one example of the feature points and pointing direction of the human body shown in FIG. 1, FIG. 7 (A) shows an example of the upper body of the human, and FIG. 7 (B) shows FIG. 7 (A). It is an illustration figure which shows an example of the pointing direction based on the feature point of the human body shown in FIG. 図8は図4に示す距離画像センサから出力された距離画像の一例を示す図解図である。FIG. 8 is an illustrative view showing one example of a distance image output from the distance image sensor shown in FIG. 図9は図8に示す距離画像から指さし方向を検出する処理の流れの一例を示す図解図であり、図9(A)は図8に示す距離画像から体の特徴点が検出された状態の一例を示し、図9(B)は図9(A)に示す体の特徴点に基づいて検出された指さし方向の一例を示す図解図である。FIG. 9 is an illustrative view showing an example of a processing flow for detecting the pointing direction from the distance image shown in FIG. 8, and FIG. 9A shows a state in which the body feature points are detected from the distance image shown in FIG. An example is shown, and FIG. 9B is an illustrative view showing an example of the pointing direction detected based on the feature points of the body shown in FIG. 図10は図1に示す複数の距離画像センサから出力された距離画像の一例を示す図解図であり、図10(A)は或る距離画像センサから出力された距離画像の一例を示し、図10(B)は図10(A)に示す距離画像において体の特徴点が検出された状態の一例を示し、図10(C)は他の或る距離画像センサから出力された距離画像の一例を示し、図10(D)は図10(C)に示す距離画像において指さし方向が検出された状態の一例を示し、図10(E)はその他の或る距離画像センサから出力された距離画像の一例を示し、図10(F)は図10(E)に示す距離画像において体の特徴点が検出された状態の一例を示す。FIG. 10 is an illustrative view showing an example of a distance image output from a plurality of distance image sensors shown in FIG. 1, and FIG. 10 (A) shows an example of a distance image output from a certain distance image sensor. 10 (B) shows an example of a state in which feature points of the body are detected in the distance image shown in FIG. 10 (A), and FIG. 10 (C) shows an example of a distance image output from another certain distance image sensor. 10D shows an example of a state in which the pointing direction is detected in the distance image shown in FIG. 10C, and FIG. 10E shows a distance image output from some other distance image sensor. FIG. 10F shows an example of a state in which body feature points are detected in the distance image shown in FIG. 図11は図4に示す距離画像センサおよび人間を結ぶベクトルと指さし方向のベクトルとがなす角度の一例を示す図解図である。FIG. 11 is an illustrative view showing one example of an angle formed by a vector connecting the distance image sensor and the person shown in FIG. 4 and a vector in the pointing direction. 図12は図6に示す中央制御装置のメモリのメモリマップの一例を示す図解図である。FIG. 12 is an illustrative view showing one example of a memory map of a memory of the central control unit shown in FIG. 図13は図6に示す中央制御装置のプロセッサの指さし方向管理処理の一例を示すフロー図である。FIG. 13 is a flowchart showing an example of the pointing direction management process of the processor of the central controller shown in FIG. 図14は図6に示す中央制御装置のプロセッサの指さし認識処理の一部の一例を示すフロー図である。FIG. 14 is a flowchart showing an example of a part of the pointing recognition process of the processor of the central control unit shown in FIG. 図15は図6に示す中央制御装置のプロセッサの指さし認識処理の他の一部の一例であって図14に後続するフロー図である。FIG. 15 is an example of another part of the pointing recognition processing of the processor of the central controller shown in FIG. 6 and is a flowchart subsequent to FIG.

図1を参照して、実施例のジェスチャ管理システム100は、人間Hが自由に行き来するショッピングモールや、博物館、展示会場などの空間(環境)で利用される。たとえば、空間内の人間Hは、指さしジェスチャなどの腕を使ったジェスチャを行うと、そのジェスチャがジェスチャ管理システム100によって認識される。   With reference to FIG. 1, the gesture management system 100 according to the embodiment is used in a space (environment) such as a shopping mall, a museum, and an exhibition hall where a human H can freely come and go. For example, when the person H in the space performs a gesture using an arm such as a pointing gesture, the gesture management system 100 recognizes the gesture.

また、腕を使ったジェスチャを認識するために、空間内の天井には、空間内で人間Hの位置やその身体の向きを検出するための複数の距離画像センサ12(12a,…)が設けられている。複数の距離画像センサ12は、後述する中央制御装置10(図4参照)にそれぞれ接続される。   In order to recognize a gesture using an arm, a plurality of distance image sensors 12 (12a,...) For detecting the position of the person H and the direction of the body in the space are provided on the ceiling in the space. It has been. The plurality of distance image sensors 12 are respectively connected to a central control device 10 (see FIG. 4) described later.

なお、本実施例の空間内にいる人間Hは1人だけだが、他の実施例ではさらに多くの人間Hが空間内にいてもよい。また、人間Hだけに限らず、自立行動するロボットなどが空間内にいてもよい。   Note that only one person H is present in the space of the present embodiment, but more persons H may be present in the space in other embodiments. Further, not only the human H but also a robot or the like that can act independently may be in the space.

図2はこのような空間の平面的な位置を示す平面図(地図)である。図2を参照して、空間には、複数の距離画像センサ12(この実施例では14個)が設けられている。これらの距離画像センサ12は、空間の端に設けられているもの(12a,12b,12m,12n)以外は、2個で1セットとされている。図1も合わせて参照して、たとえば距離画像センサ12cおよび距離画像センサ12dなどが1セットとされている。1セットの距離画像センサ12では、センサ面がお互いの方を向き、かつ下側にセンサ面が鉛直下向きから一定角度(たとえば、10°程)傾くようにされている。これはセンサ面を真下に向けた場合よりも、センサ面を傾けた方が、距離画像センサ12の検出範囲が広くなるからである。また、センサ面を傾けた場合、お互いの検出範囲が大きく重複して非効率な検出とならないようにするために、1セットの距離画像センサ12は、センサ面が相手の方に傾けられている。さらに、1セットの距離画像センサ12における検出範囲が他のセットの距離画像センサ12と大きく重複して非効率な検出とならないようにするために、各セットの距離画像センサ12の水平方向の位置はズラして設けられている。   FIG. 2 is a plan view (map) showing the planar position of such a space. Referring to FIG. 2, a plurality of distance image sensors 12 (14 in this embodiment) are provided in the space. These distance image sensors 12 are one set except for those provided at the end of the space (12a, 12b, 12m, 12n). Referring also to FIG. 1, for example, the distance image sensor 12c and the distance image sensor 12d are set as one set. In one set of distance image sensors 12, the sensor surfaces face each other, and the sensor surface is inclined downward by a certain angle (for example, about 10 °) from the vertically downward direction. This is because the detection range of the distance image sensor 12 becomes wider when the sensor surface is tilted than when the sensor surface is directed directly below. In addition, when the sensor surface is tilted, the detection surface of one set of distance image sensors 12 is tilted toward the other party so that the detection ranges do not overlap each other and become inefficient detection. . Further, in order to prevent the detection range in one set of range image sensors 12 from overlapping with the other set of range image sensors 12 and resulting in inefficient detection, the horizontal position of each set of range image sensors 12 is determined. Is provided with a gap.

また、空間の端に設けられている距離画像センサ12は、空間の内側にセンサ面が向くように設けられている。   The distance image sensor 12 provided at the end of the space is provided such that the sensor surface faces the inside of the space.

なお、このような空間において、人間Hが距離画像センサ12kおよび距離画像センサ12lの略下側に居る場合、平面図上では図2に示すように人間Hの位置と体の向きなどが示される。また、他の実施例では、空間に設けられる複数の距離画像センサ12は13個以下であってもよいし、15個以上であってもよい。   In such a space, when the person H is substantially below the distance image sensor 12k and the distance image sensor 121, the position of the person H and the body orientation are shown on the plan view as shown in FIG. . In another embodiment, the number of distance image sensors 12 provided in the space may be 13 or less, or 15 or more.

図3を参照して、1つの距離画像センサ12は地面から約3.0mの位置に設けられている。また、センサ面が鉛直下向きから一定角度傾いているため検出範囲は略楕円形となる。この検出範囲において、楕円形の長軸に相当する部分では約6.0mとなり、楕円形の短軸に相当する部分では約4.5mとなる。そして、本実施例では、図3に示す検出範囲が大きく重複して非効率な検出とならないように、複数の距離画像センサ12を設ける位置が調整されている。   Referring to FIG. 3, one distance image sensor 12 is provided at a position of about 3.0 m from the ground. Further, since the sensor surface is inclined at a certain angle from the vertically downward direction, the detection range is substantially elliptical. In this detection range, the portion corresponding to the major axis of the ellipse is about 6.0 m, and the portion corresponding to the minor axis of the ellipse is about 4.5 m. In the present embodiment, the positions where the plurality of distance image sensors 12 are provided are adjusted so that the detection ranges shown in FIG.

図4を参照して、ジェスチャ管理システム100の中央制御装置10には、複数の距離画像センサ12が接続される。中央制御装置10は、一定時間毎に距離画像センサ12が出力する距離画像を取得する。そして、中央制御装置10は、取得した各距離画像から、人間Hの位置情報などを検出する。なお、本実施例では、中央制御装置10によって指さしジェスチャを認識する処理が実行されるため、中央制御装置10を「指さし認識装置」と言うことがある。   Referring to FIG. 4, a plurality of distance image sensors 12 are connected to central control device 10 of gesture management system 100. The central controller 10 acquires a distance image output from the distance image sensor 12 at regular time intervals. Then, the central control device 10 detects the position information of the person H from each acquired distance image. In the present embodiment, since the central control device 10 executes a process of recognizing a pointing gesture, the central control device 10 may be referred to as a “pointing recognition device”.

図5は距離画像センサ12の電気的な構成を示すブロック図である。図5を参照して、距離画像センサ12は制御IC30などを含む。制御IC30には、A/D変換器32、カメラ36、深度センサ38、深度カメラ40およびI/O42などが接続される。   FIG. 5 is a block diagram showing an electrical configuration of the distance image sensor 12. Referring to FIG. 5, the distance image sensor 12 includes a control IC 30 and the like. An A / D converter 32, a camera 36, a depth sensor 38, a depth camera 40, an I / O 42, and the like are connected to the control IC 30.

制御IC30は、キャッシュメモリなどを有し、距離画像センサ12の動作を制御する。たとえば、制御IC30は、中央制御装置10からの命令に従って動作し、検出した結果(距離画像)を中央制御装置10に送信する。   The control IC 30 includes a cache memory and the like, and controls the operation of the distance image sensor 12. For example, the control IC 30 operates according to a command from the central control device 10 and transmits the detected result (distance image) to the central control device 10.

A/D変換器32にはマイク34が接続され、マイク34からの音声信号はA/D変換器32でディジタル音声信号に変換され、制御IC30に入力される。また、マイク34によって集音された音は、空間内の雑音などの音量を計測するために利用されることもある。   A microphone 34 is connected to the A / D converter 32, and an audio signal from the microphone 34 is converted into a digital audio signal by the A / D converter 32 and input to the control IC 30. The sound collected by the microphone 34 may be used for measuring the volume of noise or the like in the space.

カメラ36は、距離画像センサ12が設置された空間のRGB情報、つまりカラー画像を撮影するためのカメラである。また、カメラ36は、後述する深度カメラ40が撮影している空間と略同じ空間を撮影することが可能なように、距離画像センサ12に設けられている。   The camera 36 is a camera for photographing RGB information of the space in which the distance image sensor 12 is installed, that is, a color image. In addition, the camera 36 is provided in the distance image sensor 12 so as to be able to capture a space that is substantially the same as the space that is captured by the depth camera 40 described later.

深度センサ38は、たとえば赤外線プロジェクタであり、深度カメラ40は、たとえば赤外線カメラである。深度センサ38は、たとえば赤外線によるレーザ光を距離画像センサ12の正面に照射する。空間には照射されたレーザ光によって特殊なパターンが描画され、深度カメラ40は描画されたパターンを撮影する。そして、撮影された画像は制御IC30に入力され、制御IC30はその画像を解析することで、レーザ光が照射された空間の奥行(depth)情報を計測する。   The depth sensor 38 is an infrared projector, for example, and the depth camera 40 is an infrared camera, for example. The depth sensor 38 irradiates the front of the distance image sensor 12 with, for example, infrared laser light. A special pattern is drawn in the space by the irradiated laser light, and the depth camera 40 captures the drawn pattern. The captured image is input to the control IC 30, and the control IC 30 analyzes the image to measure depth information of the space irradiated with the laser light.

I/O42は、入力/出力の制御が可能なディジタルポートであり、出力ポートからは音声信号や、RGB情報および奥行情報を含む距離画像が出力され、中央制御装置10に与えられる。一方、中央制御装置10からは制御信号が出力され、入力ポートに与えられる。   The I / O 42 is a digital port capable of input / output control, and an audio signal, a distance image including RGB information and depth information is output from the output port, and is provided to the central controller 10. On the other hand, a control signal is output from the central controller 10 and applied to the input port.

なお、距離画像センサ12は、RGB情報および奥行情報を出力することからRGB−Dセンサと言われることもある。   The distance image sensor 12 outputs RGB information and depth information, and is therefore sometimes referred to as an RGB-D sensor.

また、本実施例の距離画像センサ12には、Microsoft(登録商標)社製のKinect(登録商標)センサと呼ばれる製品が採用されている。ただし、他の実施例では、ASUS(登録商標)社製のXtion、パナソニック(登録商標)社製のD−IMager(登録商標)などが距離画像センサ12として採用されてもよい。   The distance image sensor 12 of this embodiment employs a product called a Kinect (registered trademark) sensor manufactured by Microsoft (registered trademark). However, in another embodiment, Xtion manufactured by ASUS (registered trademark), D-Imager (registered trademark) manufactured by Panasonic (registered trademark), or the like may be employed as the distance image sensor 12.

図6は中央制御装置10の電気的な構成を示すブロック図である。図6を参照して、中央制御装置10は、距離画像センサ12およびプロセッサ60などを含む。プロセッサ60は、マイクロコンピュータ或いはCPUと呼ばれることもある。プロセッサ60には、複数の距離画像センサ12、メモリ62、出力装置64および入力装置66などが接続される。   FIG. 6 is a block diagram showing an electrical configuration of the central controller 10. Referring to FIG. 6, central controller 10 includes a distance image sensor 12 and a processor 60. The processor 60 is sometimes called a microcomputer or CPU. A plurality of distance image sensors 12, a memory 62, an output device 64, an input device 66, and the like are connected to the processor 60.

距離画像センサ12は、上述したように距離画像などを出力する。この距離画像に含まれる奥行情報には、空間に居る人間Hの形状および人間Hまでの距離が含まれている。たとえば、人間Hが天井に設けられた距離画像センサ12によってセンシングされると、人間Hの体の特徴点である頭頂部HT(頭部位置)、前頭部HFおよび2つの肩位置Snまでの距離と、その特徴点を含む人間Hの3次元形状(たとえば、頭部および両肩の形状)とが得られる。   The distance image sensor 12 outputs a distance image or the like as described above. The depth information included in the distance image includes the shape of the person H in the space and the distance to the person H. For example, when the human H is sensed by the distance image sensor 12 provided on the ceiling, the head H HT (head position), the frontal head HF, and the two shoulder positions Sn, which are characteristic points of the human H body, are detected. The distance and the three-dimensional shape (for example, the shape of the head and both shoulders) of the person H including the feature point are obtained.

また、空間には14個の距離画像センサ12が所定の位置(既知)に設置されており、プロセッサ60は、各々から距離画像を取得して、空間(ワールド座標系)における人間Hの位置(たとえば、重心などの位置座標)および向き(角度)を計算することが出来る。   Further, 14 distance image sensors 12 are installed at predetermined positions (known) in the space, and the processor 60 acquires distance images from each of them, and the position of the human H in the space (world coordinate system) ( For example, position coordinates such as the center of gravity) and direction (angle) can be calculated.

なお、人間Hの体の特徴点、3次元形状、位置および向きを求める具体的な手法については、本明細書の特許文献1(特開2012 - 215555号公報)を参照されたい。   Refer to Patent Document 1 (Japanese Patent Laid-Open No. 2012-215555) of this specification for a specific method for obtaining the feature point, three-dimensional shape, position, and orientation of the human H body.

また、距離画像センサ12はマイク34を有するため、中央制御装置10では、音情報が入力される距離画像センサ12の位置から、音の発生源を推定することも出来る。   Further, since the distance image sensor 12 includes the microphone 34, the central control device 10 can also estimate the sound generation source from the position of the distance image sensor 12 to which sound information is input.

また、他の実施例では、距離画像センサ12ではなく、3次元のレーザレンジファインダ(LRF)が利用されてもよい。   In another embodiment, not the distance image sensor 12 but a three-dimensional laser range finder (LRF) may be used.

プロセッサ60は中央制御装置10の動作を制御し、日時情報を出力するRTCを含む。メモリ62は、記憶手段とも呼ばれ、ROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置10の動作を制御するための制御プログラムなどが予め記憶される。また、RAMは、プロセッサ60のワークメモリやバッファメモリとして用いられる。   The processor 60 includes an RTC that controls the operation of the central controller 10 and outputs date and time information. The memory 62 is also called storage means, and includes a ROM, an HDD, and a RAM. In the ROM and the HDD, a control program for controlling the operation of the central controller 10 is stored in advance. The RAM is used as a work memory or a buffer memory for the processor 60.

出力装置64は、たとえばディスプレイなどであり、入力装置66は、たとえばマウスやキーボードである。そして、ジェスチャ管理システム100の管理者は、中央制御装置10の状態を、出力装置64および入力装置66を利用して確認および利用することが出来る。   The output device 64 is, for example, a display, and the input device 66 is, for example, a mouse or a keyboard. The administrator of the gesture management system 100 can confirm and use the state of the central control device 10 using the output device 64 and the input device 66.

図7(A)および図7(B)を参照して、人間Hが指さしジェスチャを行っているときの指さし方向Pxについて説明する。図7(A)のように右手で指さしジェスチャを行っている人間Hに対して、上述した、頭頂部HT、前頭部HFおよび2つの肩位置Snを決めると共に、指さしジェスチャの先端、つまり指先Pの位置を決める。次に、頭頂部HTおよび指さしジェスチャを行う腕の肩位置Snの中点Cが求められる。この中点Cは人間Hの目の近くの位置となるため、中点Cと指先Pとを結ぶ線上に、人間Hが指さす対象物が存在すると考えられる。そのため、本実施例では、中点Cと指先Pとを結ぶベクトルを指さし方向Pxとする。以下、空間内にいる人間Hに対して、これらの位置を求めることで、腕を使ったジェスチャ、つまり指さしジェスチャの指さし方向Pxが認識(検出)される。   With reference to FIG. 7A and FIG. 7B, the pointing direction Px when the human H is performing a pointing gesture will be described. As shown in FIG. 7A, for the human H who is making a pointing gesture with the right hand, the above-described head top portion HT, frontal head portion HF, and two shoulder positions Sn are determined, and the tip of the pointing finger gesture, that is, the fingertip Determine the position of P. Next, the midpoint C of the crown position HT and the shoulder position Sn of the arm where the pointing gesture is performed are obtained. Since the midpoint C is located near the eyes of the human H, it is considered that an object pointed by the human H exists on a line connecting the midpoint C and the fingertip P. Therefore, in the present embodiment, a vector connecting the middle point C and the fingertip P is set as the pointing direction Px. Hereinafter, by obtaining these positions for the person H in the space, the gesture using the arm, that is, the pointing direction Px of the pointing gesture is recognized (detected).

図8は或る距離画像センサ12から出力された距離画像の一例を示す図解図である。図8を参照して、或る距離画像センサ12によって指さしジェスチャを行う人間Hが捉えられており、距離画像の略中央右側には指さしジェスチャを行う人間Hを示す領域が含まれている。そして、本実施例では、このような距離画像から図7に示す各部位の位置を検出し、人間Hの指さし方向Pxが検出される。なお、実際の距離画像では、検出されている距離に応じて白黒の濃淡が変化するようにしてあるが、図8の距離画像では図示の簡単のため距離を示す濃淡の描画は省略している。   FIG. 8 is an illustrative view showing an example of a distance image output from a certain distance image sensor 12. Referring to FIG. 8, a person H who performs a pointing gesture is captured by a certain distance image sensor 12, and a region indicating the person H who performs a pointing gesture is included on the right side of the approximate center of the distance image. In this embodiment, the position of each part shown in FIG. 7 is detected from such a distance image, and the pointing direction Px of the person H is detected. In the actual distance image, black and white shading changes according to the detected distance, but in the distance image in FIG. 8, the shading indicating the distance is omitted for simplicity of illustration. .

図9(A)を参照して、或る距離画像センサ12から出力される距離画像において、人間Hを示す領域が検出されると、人間Hを示す領域において、頭頂部HT、前頭部HFおよび2つの肩位置Snがそれぞれ示される。   Referring to FIG. 9A, when a region indicating human H is detected in a distance image output from a certain distance image sensor 12, in the region indicating human H, the parietal portion HT and frontal head HF are displayed. And two shoulder positions Sn are shown respectively.

次に、頭頂部HTから一定距離以上離れている点Xが抽出され、候補点リストに記憶される。候補点リストに記憶される点Xの中から、指さしジェスチャの先端部分(指先P)となっている点Xが求められる。具体的には、まず、頭頂部HTから最も遠い点Xを特定し、最も遠い点Xと略同じ距離の周囲の点を結合(クラスタリング)する。そして、周囲の点の結合が終了すると、結合結果にどちらか一方の肩位置Snが含まれているかが判断される。   Next, a point X that is more than a certain distance away from the crown HT is extracted and stored in the candidate point list. From the points X stored in the candidate point list, the point X that is the tip portion (fingertip P) of the pointing gesture is obtained. Specifically, first, a point X farthest from the top HT is specified, and points around the same distance as the farthest point X are combined (clustered). When the combination of the surrounding points is completed, it is determined whether one of the shoulder positions Sn is included in the combination result.

肩位置Snを含む結合結果が得られた場合は、結合結果が腕領域の特徴を有しているかが判断される。このように、指さしジェスチャを行う腕を示す領域が腕領域の特徴を有しているかを判断することで、指さしジェスチャを認識する際の信頼性を高めることが出来る。また、腕領域の特徴とは、領域が細長い形状をしており、かつ一定の長さを有していることである。結合結果の領域が上述の腕領域の特徴を有している場合、他の腕領域が2つ以上検出されていないかが判断される。つまり、腕が誤認識されていないかが判断される。   When the joining result including the shoulder position Sn is obtained, it is determined whether the joining result has the feature of the arm region. As described above, by determining whether or not the region indicating the arm on which the pointing gesture is performed has the characteristics of the arm region, it is possible to improve the reliability when the pointing gesture is recognized. The feature of the arm region is that the region has an elongated shape and has a certain length. If the combined region has the above-described arm region characteristics, it is determined whether two or more other arm regions have not been detected. That is, it is determined whether or not the arm is erroneously recognized.

また、腕が誤認識されていなければ、腕領域と人間Hとに基づく角度、つまり腕領域に含まれる指先Pおよび肩位置Snの線分と人間Hの鉛直方向の線分との角度(以下、腕の角度と言う。)が所定角度範囲(たとえば、60°から180°)内であるかが判断される。つまり、腕の角度が指さしジェスチャを行う腕として想定される範囲内であるかが判断される。そして、腕の角度が所定角度範囲内のときに、既に他の指さし方向Pxが検出されていなければ、腕領域に含まれる点X、つまり指先Pと上述の中点Cとを結ぶベクトルが、指さし方向Pxとして検出される。このように、腕の角度が所定範囲角度内を判断することで、指さしジェスチャを行っていない腕によって指さしジェスチャが誤認識される可能性を低くしている。   If the arm is not misrecognized, the angle based on the arm region and the human H, that is, the angle between the line segment of the fingertip P and the shoulder position Sn included in the arm region and the vertical segment of the human H (hereinafter referred to as the human segment H). It is determined whether the angle of the arm is within a predetermined angle range (for example, 60 ° to 180 °). In other words, it is determined whether the angle of the arm is within a range that is assumed as an arm that performs a pointing gesture. If the other finger pointing direction Px is not detected when the arm angle is within the predetermined angle range, the point X included in the arm region, that is, the vector connecting the fingertip P and the midpoint C described above is It is detected as the pointing direction Px. As described above, by determining that the angle of the arm is within the predetermined range angle, the possibility that the pointing gesture is erroneously recognized by the arm not performing the pointing gesture is reduced.

図9(B)を参照して、腕領域における点Xを指先Pとし、上述したように頭頂部HTと、指先Pとつながる肩位置Snとの中点Cが求められる。そして、中点Cに対する指先Pの方向が指さし方向(指さしベクトル)Pxとして検出され、距離画像センサ12の識別情報と共に指さし方向Pxが記憶される。   With reference to FIG. 9B, the point X in the arm region is set to the fingertip P, and the midpoint C between the crown HT and the shoulder position Sn connected to the fingertip P is obtained as described above. Then, the direction of the fingertip P with respect to the middle point C is detected as the pointing direction (pointing vector) Px, and the pointing direction Px is stored together with the identification information of the distance image sensor 12.

また、結合結果に肩位置Snが含まれていない場合、結合結果が腕領域の特徴を有していない場合または腕の角度が所定角度範囲外である場合、指さし方向Pxが検出されるまで他の点Xを選択し直して、上述の処理を繰り返す。ただし、候補点リストに記憶されている全ての点Xにおいて、指さし方向Pxを検出することが出来ない場合は、指さしジェスチャが行われていない可能性が高いため、指さし方向Pxを検出する処理は終了する。   Further, when the joint result does not include the shoulder position Sn, when the joint result does not have the characteristics of the arm region, or when the arm angle is out of the predetermined angle range, the pointing direction Px is detected until the pointing direction Px is detected. The point X is selected again and the above process is repeated. However, if the pointing direction Px cannot be detected at all the points X stored in the candidate point list, there is a high possibility that the pointing gesture is not performed. finish.

さらに、他の腕領域が2つ以上検出されている場合または指さし方向Pxが既に記憶されている場合は、記憶されている指さし方向Pxおよび腕領域を削除すると共に、候補点リストに含まれる点Xも全て削除される。   Further, when two or more other arm regions are detected or the pointing direction Px is already stored, the stored pointing direction Px and the arm region are deleted and the points included in the candidate point list All Xs are also deleted.

たとえば、3本目の腕が検出された場合は、人間Hに対する指さしジェスチャが正しく認識されていない可能性が高い。同様に、指さし方向Pxが記憶されている状態で新たに指さし方向Pxが検出された場合は、人間Hが2か所を同時に指すことは通常では考えられないので、人間Hは指さしジェスチャを行っていない可能性が高い。そのため、記憶されている指さし方向Pxおよび腕領域を削除することで、誤認識されている可能性が高い指さしジェスチャの認識結果が取り消される。   For example, when the third arm is detected, there is a high possibility that the pointing gesture for the human H is not correctly recognized. Similarly, when the pointing direction Px is newly detected in the state where the pointing direction Px is stored, it is not normally considered that the human H points to two places at the same time, so the human H performs a pointing gesture. Most likely not. Therefore, by deleting the stored pointing direction Px and the arm region, the recognition result of the pointing gesture that is highly likely to be erroneously recognized is canceled.

以上の説明から分かるように、特に人間Hの位置および方向を検出するための人間Hの頭部位置および肩位置Snなどの特徴点を利用することで、その人間Hが行う指さしジェスチャの指さし方向Pxを適切に検出することが出来る。   As can be understood from the above description, the pointing direction of the pointing gesture performed by the human H by using the characteristic points such as the head position and the shoulder position Sn of the human H in particular for detecting the position and direction of the human H. Px can be detected appropriately.

なお、図9(A)および図9(B)では、人間Hを示す領域では、距離を示す濃淡が描画されている。また、距離画像中の人間Hを示す領域は、体の特徴点と略同じ距離の周囲の点を結合(クラスタリング)することで検出される。ただし、他の実施例では、他の手法を用いて距離画像から人間Hを示す領域が検出されてもよい。   In FIGS. 9A and 9B, in the area indicating the person H, shades indicating the distance are drawn. Further, the region indicating the person H in the distance image is detected by combining (clustering) surrounding points that are substantially the same distance as the body feature points. However, in another embodiment, a region indicating the person H may be detected from the distance image using another method.

このように、各距離画像センサ12を利用して指さしジェスチャの認識が行われると、各認識結果が統合される。具体的には、指さしジェスチャを認識した距離画像センサ12の中から、指さしジェスチャを最も適切に認識したときに利用された距離画像センサ12が特定される。そして、距離画像センサ12が特定されると、その特定された距離画像センサ12を利用して検出した指さし方向Pxが、認識結果として登録される。   As described above, when the pointing gesture is recognized using the distance image sensors 12, the recognition results are integrated. Specifically, the distance image sensor 12 used when the finger pointing gesture is most appropriately recognized is specified from the distance image sensors 12 that have recognized the finger pointing gesture. When the distance image sensor 12 is specified, the pointing direction Px detected using the specified distance image sensor 12 is registered as a recognition result.

まず、指さしジェスチャを最も適切に認識したときに利用された距離画像センサ12を特定する手順について説明する。指さしジェスチャを認識するために利用された距離画像センサ12が複数ある場合、距離画像における指さしジェスチャを行う人間Hの大きさに基づいて、1つの距離画像センサ12が特定される。そして、この実施例では、人間Hを示す領域を構成するピクセル数が最も多い距離画像を出力している距離画像センサが、指さしジェスチャを最も適切に認識したときに利用された距離画像センサ12として特定される。このように、距離画像における人間Hの大きさを利用することで、距離画像センサ12を特定するまでの時間を短縮することが出来る。   First, a procedure for identifying the distance image sensor 12 used when the finger pointing gesture is most appropriately recognized will be described. When there are a plurality of distance image sensors 12 used for recognizing the pointing gesture, one distance image sensor 12 is specified based on the size of the person H who performs the pointing gesture in the distance image. In this embodiment, the distance image sensor 12 outputting the distance image having the largest number of pixels constituting the region indicating the person H is used as the distance image sensor 12 used when the pointing gesture is most appropriately recognized. Identified. Thus, by using the size of the person H in the distance image, it is possible to shorten the time until the distance image sensor 12 is specified.

たとえば、図2に示す人間Hが指さしジェスチャを行っているときに、距離画像センサ12a,12e,12mから出力された距離画像を図10(A)−図10(F)に示す。図10(A)は距離画像センサ12bから出力された距離画像を示し、図10(B)は距離画像センサ12bから出力された距離画像において体の特徴点が検出された状態を示す。また、図10(B)の距離画像から分かるように、この距離画像には指さしジェスチャを行う腕領域が含まれておらず、指さし方向Pxは検出されていない。   For example, FIG. 10A to FIG. 10F show distance images output from the distance image sensors 12a, 12e, and 12m when the human H shown in FIG. 2 is making a pointing gesture. FIG. 10A shows a distance image output from the distance image sensor 12b, and FIG. 10B shows a state where body feature points are detected in the distance image output from the distance image sensor 12b. Further, as can be seen from the distance image of FIG. 10B, this distance image does not include the arm region where the pointing gesture is performed, and the pointing direction Px is not detected.

また、図10(C)は距離画像センサ12eから出力された距離画像を示し、図10(D)は距離画像センサ12eから出力された距離画像において体の特徴点が検出された状態を示す。また、図10(D)の距離画像から分かるように、この距離画像には指さしジェスチャを行う腕領域が含まれており、指さし方向Pxが検出されている。   FIG. 10C shows a distance image output from the distance image sensor 12e, and FIG. 10D shows a state where body feature points are detected in the distance image output from the distance image sensor 12e. Further, as can be seen from the distance image in FIG. 10D, this distance image includes an arm region where a pointing gesture is performed, and the pointing direction Px is detected.

さらに、図10(E)は距離画像センサ12aから出力された距離画像を示し、図10(F)は距離画像センサ12aから出力された距離画像において体の特徴点が検出された状態を示す。また、図10(F)の距離画像から分かるように、この距離画像には指さしジェスチャを行う腕領域が含まれておらず、指さし方向Pxは検出されていない。   Further, FIG. 10E shows a distance image output from the distance image sensor 12a, and FIG. 10F shows a state where body feature points are detected in the distance image output from the distance image sensor 12a. Further, as can be seen from the distance image in FIG. 10F, the distance image does not include the arm region where the pointing gesture is performed, and the pointing direction Px is not detected.

そして、他の距離画像センサ12でも指さしジェスチャが認識されていなければ、図10(C)および図10(D)の距離画像を出力する距離画像センサ12eが特定される。ただし、他にも指さしジェスチャを認識している距離画像センサ12がある場合は、距離画像中の人間Hを示す領域の大きさによって、距離画像センサ12が特定される。   Then, if the pointing gesture is not recognized by the other distance image sensors 12, the distance image sensor 12e that outputs the distance images of FIGS. 10C and 10D is specified. However, when there is another distance image sensor 12 that recognizes the pointing gesture, the distance image sensor 12 is specified based on the size of the region indicating the person H in the distance image.

次に、距離画像センサ12が特定されると、指さしジェスチャが誤認識されていないかを確認する。具体的には、指さしジェスチャの認識に利用されていない距離画像センサ12において、人間Hが行う指さしジェスチャの指さし方向Px(腕)を観察可能な距離画像センサ12が検索される。   Next, when the distance image sensor 12 is specified, it is confirmed whether or not the pointing gesture is erroneously recognized. Specifically, a distance image sensor 12 that can observe the pointing direction Px (arm) of the pointing gesture performed by the person H is searched in the distance image sensor 12 that is not used for recognition of the pointing gesture.

図11を参照して、指さし方向Pxを観察可能な距離画像センサ12とは、距離画像センサ12と人間Hとの位置を結ぶベクトルSHと、指さし方向Pxを示すベクトルとがなす角度θが所定値(たとえば、15°)以下の場合、その距離画像センサ12は指さし方向Pxが観察できないと判断される。つまり、2つのベクトルがなす角度θが所定値より大きい場合は、その距離画像センサ12は指さし方向Pxを観察できるとして判断される。   Referring to FIG. 11, distance image sensor 12 capable of observing pointing direction Px has a predetermined angle θ formed by vector SH connecting the position of distance image sensor 12 and human H and a vector indicating pointing direction Px. In the case of a value (for example, 15 °) or less, it is determined that the distance image sensor 12 cannot observe the pointing direction Px. That is, when the angle θ formed by the two vectors is larger than the predetermined value, it is determined that the distance image sensor 12 can observe the pointing direction Px.

そして、指さしジェスチャの認識に利用されていない距離画像センサ12において、指さし方向Pxを観察可能な距離画像センサ12が発見されなかった場合は、指さし方向Pxが指さし方向テーブルに登録される。つまり、検出された指さし方向Pxが人間Hが行った指さしジェスチャの認識結果とされる。このように、指さしジェスチャの認識結果を統合する前に指さしジェスチャが誤認識されていないかを確認することで、認識結果を統合する精度を高めることが出来る。また、指さしジェスチャの認識結果として指さし方向Pxを登録することが出来る。   If no distance image sensor 12 that can observe the pointing direction Px is found in the distance image sensor 12 that is not used for recognizing the pointing gesture, the pointing direction Px is registered in the pointing direction table. That is, the detected pointing direction Px is the recognition result of the pointing gesture performed by the person H. As described above, it is possible to improve the accuracy of integrating the recognition results by confirming whether or not the pointing gesture is erroneously recognized before integrating the recognition results of the pointing gesture. Further, the pointing direction Px can be registered as a recognition result of the pointing gesture.

また、指さし方向Pxが登録された状態となると、指さし方向Pxが活用される。たとえば、空間内に案内を行うロボットが設置されている場合は、人間Hの指さし方向Pxを利用して、人間Hが指さしジェスチャによって指している対象物などを特定することが出来る。また、指さしジェスチャを行うことが可能なロボットが空間内に設置されている場合は、そのロボットによる指さしジェスチャの指さし方向Pxを認識することで、ロボットが指さしジェスチャによって正しく対象物を指しているかを確認することが出来る。   When the pointing direction Px is registered, the pointing direction Px is used. For example, when a robot for guiding is installed in the space, it is possible to specify an object or the like that the human H is pointing with the pointing gesture using the pointing direction Px of the human H. In addition, when a robot capable of performing a pointing gesture is installed in the space, by recognizing the pointing direction Px of the pointing gesture by the robot, it is possible to determine whether the robot is pointing correctly to the object by the pointing gesture. It can be confirmed.

以上の説明から分かるように、人間Hが空間内の任意の位置で指さしジェスチャを行っても、指さしジェスチャを適切に認識している距離画像センサ12を特定することが出来る。したがって、空間内の任意の位置で人間Hが指さしジェスチャを行っても、そのジェスチャを適切に認識することが出来る。   As can be understood from the above description, even if the human H performs a pointing gesture at an arbitrary position in the space, the distance image sensor 12 that appropriately recognizes the pointing gesture can be specified. Therefore, even if the human H performs a gesture at an arbitrary position in the space, the gesture can be appropriately recognized.

上述では本実施例の特徴を概説した。以下では、図12に示す中央制御装置10のメモリ62のメモリマップおよび図13−図15に示すフロー図を用いて本実施例について詳細に説明する。   The features of the present embodiment have been outlined above. Hereinafter, the present embodiment will be described in detail with reference to the memory map of the memory 62 of the central control apparatus 10 shown in FIG. 12 and the flowcharts shown in FIGS.

図12は図6に示す中央制御装置10のメモリ62のメモリマップの一例を示す図解図である。図12に示すように、メモリ62はプログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置10を動作させるためのプログラムとして、複数の距離画像センサ12によって認識された指さしジェスチャ(腕を使ったジェスチャ)の認識結果を統合するための指さし方向管理プログラム310および各距離画像センサ12によって指さしジェスチャを認識するための指さし認識プログラム312などが記憶される。なお、図示は省略するが、中央制御装置10を動作させるためのプログラムには、平面図データ340を編集するためのプログラムなども含まれる。   FIG. 12 is an illustrative view showing one example of a memory map of the memory 62 of the central controller 10 shown in FIG. As shown in FIG. 12, the memory 62 includes a program storage area 302 and a data storage area 304. In the program storage area 302, a pointing direction management program for integrating recognition results of pointing gestures (gestures using arms) recognized by the plurality of distance image sensors 12 as a program for operating the central control device 10. A finger pointing recognition program 312 for recognizing a finger pointing gesture by 310 and each distance image sensor 12 is stored. Although illustration is omitted, the program for operating the central control device 10 includes a program for editing the plan view data 340 and the like.

データ記憶領域304には、指さし方向バッファ330、候補点リストバッファ332、腕候補点リストバッファ334、腕領域バッファ336および仮指さし方向バッファ338などが設けられる。また、データ記憶領域304には、平面図データ340、距離画像センサテーブル342および指さし方向テーブル344などが記憶される。   In the data storage area 304, a pointing direction buffer 330, a candidate point list buffer 332, an arm candidate point list buffer 334, an arm area buffer 336, a temporary pointing direction buffer 338, and the like are provided. The data storage area 304 stores plan view data 340, a distance image sensor table 342, a pointing direction table 344, and the like.

指さし方向バッファ330には、特定された距離画像センサ12によって認識された指さしジェスチャの指さし方向Pxが一時的に記憶される。候補点リストバッファ332には、頭頂部HTから一定距離以上離れている点Xを含む候補点リストが一時的に記憶される。腕候補点リストバッファ334には、点Xの周辺の点が結合された結果を含む腕候補点リストが一時的に記憶される。腕領域バッファ336には、腕領域を示す情報が一時的に記憶される。仮指さし方向バッファ338には、各距離画像センサ12の識別情報と対応付けた指さし方向Pxが一時的に記憶される。   The pointing direction buffer 330 temporarily stores the pointing direction Px of the pointing gesture recognized by the specified distance image sensor 12. The candidate point list buffer 332 temporarily stores a candidate point list including a point X that is separated from the top HT by a certain distance or more. The arm candidate point list buffer 334 temporarily stores an arm candidate point list including a result of combining points around the point X. The arm area buffer 336 temporarily stores information indicating the arm area. The temporary pointing direction buffer 338 temporarily stores the pointing direction Px associated with the identification information of each distance image sensor 12.

平面図データ340は、たとえば図2に示す平面図を示すデータである。距離画像センサテーブル342は、指さしジェスチャを認識した距離画像を示す識別情報が記憶されるテーブルである。指さし方向テーブル344には、特定された距離画像センサ12によって認識された指さしジェスチャの指さし方向Pxが時系列順に記憶(登録)されるテーブルである。なお、指さし方向テーブル344に記憶されている複数の指さし方向Pxは、人間Hが行う指さしジェスチャの指さし方向Pxが変化する様子を表す。   The plan view data 340 is data indicating the plan view shown in FIG. 2, for example. The distance image sensor table 342 is a table in which identification information indicating a distance image in which the pointing gesture is recognized is stored. The pointing direction table 344 is a table in which the pointing direction Px of the pointing gesture recognized by the specified distance image sensor 12 is stored (registered) in chronological order. Note that the plurality of pointing directions Px stored in the pointing direction table 344 represent changes in the pointing direction Px of the pointing gesture performed by the person H.

なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファや、中央制御装置10の動作に必要な他のカウンタやフラグなども設けられる。   Although not shown, the data storage area 304 is also provided with a buffer for temporarily storing various calculation results, and other counters and flags necessary for the operation of the central controller 10.

中央制御装置10のプロセッサ60は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図13に示す指さし方向管理処理および図14、図15に示す指さし認識処理などを含む、複数のタスクを処理する。   The processor 60 of the central control device 10 includes a pointing direction management process shown in FIG. 13 and a pointing recognition process shown in FIGS. 14 and 15 under the control of a Linux (registered trademark) -based OS or other OS. Handle multiple tasks.

図13は指さし方向管理処理のフロー図である。中央制御装置10の電源がオンにされ、指さし方向管理処理の実行命令が出されると、指さし方向管理処理が実行される。なお、指さし方向管理処理の実行命令は一定周期毎に出される。   FIG. 13 is a flowchart of the pointing direction management process. When the central controller 10 is turned on and an execution command for the pointing direction management process is issued, the pointing direction management process is executed. The pointing direction management process execution command is issued at regular intervals.

指さし方向管理処理が実行されると、プロセッサ60はステップS1で、距離画像センサ12毎に指さし認識処理を実行する。つまり、各距離画像センサ12から出力された距離画像に対して後述の指さし認識処理が加えられる。なお、ステップS1の処理を実行するプロセッサ60は認識手段として機能する。   When the pointing direction management process is executed, the processor 60 executes the pointing recognition process for each distance image sensor 12 in step S1. That is, a finger pointing recognition process described later is added to the distance image output from each distance image sensor 12. The processor 60 that executes the process of step S1 functions as a recognition unit.

続いて、ステップS3でプロセッサ60は、指さしジェスチャを認識した距離画像センサ12があるか否かを判断する。たとえば、仮指さし方向バッファ338に指さし方向Pxが記憶されているかが判断される。ステップS3で“NO”であれば、つまり指さしジェスチャの認識に利用された距離画像センサ12が無ければ、プロセッサ60は指さし方向管理処理を終了する。   Subsequently, in step S3, the processor 60 determines whether or not there is the distance image sensor 12 that has recognized the pointing gesture. For example, it is determined whether the pointing direction Px is stored in the temporary pointing direction buffer 338. If “NO” in the step S3, that is, if there is no distance image sensor 12 used for recognizing the pointing gesture, the processor 60 ends the pointing direction management process.

一方、ステップS3で“YES”であれば、たとえば図10(D)に示すように、距離画像センサ12eが出力した距離画像から指さし方向Pxが検出されていれば、ステップS5でプロセッサ60は、指さしジェスチャを認識している距離画像センサ12を距離画像センサテーブル342に記憶する。つまり、プロセッサ60は、仮指さし方向バッファ338に記憶されている、距離画像センサ12の識別情報が対応付けられた指さし方向Pxを距離画像センサテーブル342に記憶する。なお、ステップS5の処理を実行するプロセッサ60は記憶手段として機能する。   On the other hand, if “YES” in the step S3, as shown in FIG. 10D, for example, if the pointing direction Px is detected from the distance image output by the distance image sensor 12e, the processor 60 in the step S5, The distance image sensor 12 that recognizes the pointing gesture is stored in the distance image sensor table 342. That is, the processor 60 stores the pointing direction Px stored in the temporary pointing direction buffer 338 and associated with the identification information of the distance image sensor 12 in the distance image sensor table 342. The processor 60 that executes the process of step S5 functions as a storage unit.

続いて、ステップS7でプロセッサ60は、指さしジェスチャを最も適切に認識している距離画像センサ12を特定する。つまり、指さし方向Pxを検出した距離画像において、人間Hと対応する領域が最も大きく描画されている距離画像が特定される。そして、特定された距離画像と対応する距離画像センサ12が、ステップS7では特定された距離画像センサ12とされる。なお、ステップS7の処理を実行するプロセッサ60は特定手段として機能する。   Subsequently, in step S7, the processor 60 specifies the distance image sensor 12 that most appropriately recognizes the pointing gesture. That is, in the distance image in which the pointing direction Px is detected, the distance image in which the area corresponding to the person H is drawn is specified. Then, the distance image sensor 12 corresponding to the identified distance image is set as the identified distance image sensor 12 in step S7. The processor 60 that executes the process of step S7 functions as a specifying unit.

続いて、ステップS9でプロセッサ60は、特定された距離画像センサ12と対応する指さし方向Pxを指さし方向バッファ330に記憶する。たとえば、距離画像センサ12eが特定されている場合、仮指さし方向バッファ338から距離画像センサ12eの識別情報が対応付けられた指さし方向Pxが読み出され、指さし方向バッファ330に記憶される。   Subsequently, in step S <b> 9, the processor 60 stores the pointing direction Px corresponding to the identified distance image sensor 12 in the pointing direction buffer 330. For example, when the distance image sensor 12 e is specified, the pointing direction Px associated with the identification information of the distance image sensor 12 e is read from the temporary pointing direction buffer 338 and stored in the pointing direction buffer 330.

続いて、ステップS11でプロセッサ60は、指さしジェスチャを認識していない距離画像センサ12から、指さし方向Pxを観察可能な距離画像センサ12を検索する。つまり、指さしジェスチャが誤認識されていないかが確認される。なお、ステップS11の処理を実行するプロセッサ60は検索手段として機能する。   Subsequently, in step S <b> 11, the processor 60 searches for the distance image sensor 12 that can observe the pointing direction Px from the distance image sensor 12 that has not recognized the pointing gesture. That is, it is confirmed whether or not the pointing gesture is misrecognized. The processor 60 that executes the process of step S11 functions as a search unit.

続いて、ステップS13でプロセッサ60は、観察可能な距離画像センサ12が発見されたか否かを判断する。つまり、指さしジェスチャを認識可能な距離画像センサ12によって指さしジェスチャが認識されていない状態であるかが判断される。ステップS13で“YES”であれば、つまり指さしジェスチャが誤認識されている可能性があれば、プロセッサ60は指さし方向管理処理を終了する。   Subsequently, in step S13, the processor 60 determines whether or not the observable distance image sensor 12 has been found. That is, it is determined whether the pointing gesture is not recognized by the distance image sensor 12 capable of recognizing the pointing gesture. If “YES” in the step S13, that is, if there is a possibility that the pointing gesture is erroneously recognized, the processor 60 ends the pointing direction management process.

一方、ステップS13で“NO”であれば、つまり指さしジェスチャが誤認識されている可能性がなければ、ステップS15でプロセッサ60は、指さし方向バッファ330に記憶されている指さし方向Pxを指さし方向テーブル344に登録する。つまり、検出された指さし方向Pxが、指さしジェスチャの認識結果とされる。そして、ステップS15の処理が終了すると、プロセッサ60は指さし方向管理処理を終了する。   On the other hand, if “NO” in the step S13, that is, if there is no possibility that the pointing gesture is erroneously recognized, the processor 60 in the step S15 points the pointing direction Px stored in the pointing direction buffer 330. Register at 344. That is, the detected pointing direction Px is a recognition result of the pointing gesture. Then, when the process of step S15 ends, the processor 60 ends the pointing direction management process.

なお、ステップS15の処理を実行するプロセッサ60は登録手段として機能する。また、ステップS15の処理が終了すると、各バッファは初期化される。   The processor 60 that executes the process of step S15 functions as a registration unit. Further, when the process of step S15 is completed, each buffer is initialized.

図14および図15は指さし認識処理のフロー図である。図13に示す指さし管理処理で、距離画像センサ12毎に指さし認識処理を実行させるステップS1が実行されると、指さし認識処理が実行される。なお、この認識処理は実行されてから、たとえば約1/30秒で終了する。   14 and 15 are flowcharts of the pointing finger recognition process. When step S1 for executing the pointing recognition process for each distance image sensor 12 is executed in the pointing management process shown in FIG. 13, the pointing recognition process is executed. In addition, after this recognition process is performed, it is completed in about 1/30 seconds, for example.

たとえば、距離画像センサ12eに対応して指さし認識処理が実行されると、プロセッサ60はステップS31で、距離画像を取得する。たとえば、距離画像センサ12eから出力された距離画像が取得される。続いて、ステップS33でプロセッサ60は、体の特徴点を抽出する。つまり、取得された距離画像から、体の特徴点として、頭頂部HT、前頭部HFおよび2つの肩位置Snが抽出される。続いて、ステップS35でプロセッサ60は、平面座標上の頭部位置から一定距離以上の点Xを抽出する。たとえば、頭頂部HTから一定距離以上離れており、人間Hと略同じ距離にある点Xが抽出される。なお、ステップS33の処理を実行するプロセッサ60は第1抽出手段として機能する。また、ステップS35の処理を実行するプロセッサ60は第2抽出手段として機能する。   For example, when a pointing recognition process is executed corresponding to the distance image sensor 12e, the processor 60 acquires a distance image in step S31. For example, the distance image output from the distance image sensor 12e is acquired. Subsequently, in step S33, the processor 60 extracts body feature points. That is, from the acquired distance image, the parietal region HT, the frontal region HF, and the two shoulder positions Sn are extracted as body feature points. Subsequently, in step S35, the processor 60 extracts a point X that is a predetermined distance or more from the head position on the plane coordinates. For example, a point X that is separated from the top of the head HT by a certain distance or more and is approximately the same distance as the human H is extracted. The processor 60 that executes the process of step S33 functions as a first extraction unit. The processor 60 that executes the process of step S35 functions as a second extraction unit.

続いて、ステップS37でプロセッサ60は、抽出した点Xを候補点リストに記憶する。つまり、候補点リストバッファ332に記憶されている候補点リストに、ステップS35の処理で抽出された点Xが記憶される。なお、点Xが抽出されていない場合は、候補点リストには何も記憶されない。   Subsequently, in step S37, the processor 60 stores the extracted point X in the candidate point list. That is, the point X extracted by the process of step S35 is stored in the candidate point list stored in the candidate point list buffer 332. If the point X has not been extracted, nothing is stored in the candidate point list.

続いて、ステップS39でプロセッサ60は、候補点リストに点Xが記憶されているか否かを判断する。たとえば、人間Hの頭頂部HTの近くに腕候補となる領域が存在するかが判断される。ステップS39で“NO”であれば、たとえばステップS35の処理で点Xが抽出されなかったり、後述の処理で候補点リストから点Xが全て削除されたりすると、プロセッサ60は指さし認識処理を終了する。   Subsequently, in step S39, the processor 60 determines whether or not the point X is stored in the candidate point list. For example, it is determined whether an area that is a candidate arm exists near the top HT of the human H. If “NO” in the step S39, for example, if the point X is not extracted in the process of the step S35, or if all the points X are deleted from the candidate point list in the process described later, the processor 60 ends the pointing recognition process. .

一方、ステップS39で“YES”であれば、たとえばステップS35の処理で抽出された点Xが候補点リストに記憶されていれば、ステップS41でプロセッサ60は、頭部位置から最も遠い点Xを候補点リストから読み出す。たとえば、頭頂部HTから最も遠い点Xが候補点リストから読み出される。続いて、ステップS43でプロセッサ60は、読み出された点Xと略同じ距離の周囲の点を結合する。つまり、頭部位置から最も遠い点Xにおいて、略同じ距離の周囲の点が結合(クラスタリング)される。続いて、ステップS45でプロセッサ60は、結合結果を腕候補点リストに記憶する。つまり、腕候補点リストバッファ334に記憶されている腕候補点リストに、ステップS43の処理で結合された全ての点(領域)が記憶される。   On the other hand, if “YES” in the step S39, for example, if the point X extracted in the process of the step S35 is stored in the candidate point list, the processor 60 selects the point X farthest from the head position in the step S41. Read from the candidate point list. For example, the point X farthest from the top HT is read from the candidate point list. Subsequently, in step S43, the processor 60 combines the peripheral points that are approximately the same distance as the read point X. That is, at a point X farthest from the head position, points around the same distance are combined (clustered). Subsequently, in step S45, the processor 60 stores the combination result in the arm candidate point list. That is, all the points (regions) combined in the process of step S43 are stored in the arm candidate point list stored in the arm candidate point list buffer 334.

続いて、ステップS47でプロセッサ60は、結合結果に肩位置Snが含まれるか否かを判断する。つまり、腕候補点リストの中に、人間Hの2つの肩位置Snのうちいずれか1つが含まれているかが判断される。また、ステップS47で“YES”であれば、つまり結合結果の領域に肩位置Snが含まれていれば、ステップS49でプロセッサ60は、結合結果は腕領域の特徴を有しているか否かを判断する。たとえば、腕候補点リストに記憶される結合結果の領域が、細長い形状をしており、かつ一定の長さを有しているかが判断される。ステップS49で“YES”であれば、つまり結合結果が腕領域の特徴を有していれば、ステップS51でプロセッサ60は、結合結果を腕領域として記憶する。つまり、腕候補点リストに記憶されている各点Xに基づいて腕領域が定義され、その腕領域が腕領域バッファ336に記憶される。なお、ステップS51の処理を実行するプロセッサ60は第1記憶手段として機能する。   Subsequently, in step S47, the processor 60 determines whether or not the shoulder position Sn is included in the combination result. That is, it is determined whether any one of the two shoulder positions Sn of the person H is included in the arm candidate point list. If “YES” in the step S47, that is, if the shoulder position Sn is included in the region of the joining result, the processor 60 determines whether or not the joining result has the feature of the arm region in a step S49. to decide. For example, it is determined whether the combined result area stored in the arm candidate point list has an elongated shape and a certain length. If “YES” in the step S49, that is, if the joining result has the characteristics of the arm region, the processor 60 stores the joining result as the arm region in a step S51. That is, an arm region is defined based on each point X stored in the arm candidate point list, and the arm region is stored in the arm region buffer 336. The processor 60 that executes the process of step S51 functions as a first storage unit.

続いて、ステップS53でプロセッサ60は、記憶されている腕領域が3つか否かを判断する。つまり、腕が誤認識されているかが判断される。ステップS53で“NO”であれば、つまり認識されている腕が2本以下であれば、ステップS55でプロセッサ60は、腕の角度が所定角度範囲内か否かを判断する。つまり、人間Hの腕の角度が指さしジェスチャを行っていると考えられる角度であるかが判断される。ステップS55で“NO”であれば、つまり人間Hの腕の角度が指さしジェスチャを行っているとは考えられない角度であれば、プロセッサ60はステップS61の処理に進む。つまり、認識された腕で指さしジェスチャが行われていないと判断されたため、他の点Xに基づく腕領域を検索するために、プロセッサ60はステップS61の処理に進む。   Subsequently, in step S53, the processor 60 determines whether or not there are three stored arm regions. That is, it is determined whether the arm is erroneously recognized. If “NO” in the step S53, that is, if the number of recognized arms is two or less, the processor 60 determines whether or not the arm angle is within a predetermined angle range in a step S55. That is, it is determined whether the angle of the human H's arm is an angle that is considered to be a pointing gesture. If “NO” in the step S55, that is, if the angle of the arm of the human H is an angle at which it cannot be considered that a pointing gesture is performed, the processor 60 proceeds to a process of step S61. That is, since it is determined that the finger pointing gesture is not performed with the recognized arm, the processor 60 proceeds to the process of step S61 in order to search for an arm region based on another point X.

同様に、結合された点の集まり(領域)に肩位置Snが含まれておらずステップS47で“NO”であるか、結合結果が腕領域の特徴を有しておらずステップS49で“NO”であれば、プロセッサ60はステップS61の処理に進む。つまり、結合結果の領域が人間Hの腕ではないと判断された場合も、他の点Xに基づく腕領域を検索するために、プロセッサ60はステップS61の処理に進む。   Similarly, the shoulder position Sn is not included in the group (area) of the combined points and “NO” is determined in step S47, or the combined result does not have the feature of the arm area and “NO” is determined in step S49. "If so, the processor 60 proceeds to the process of step S61. That is, even when it is determined that the combined region is not the arm of the human H, the processor 60 proceeds to the process of step S61 in order to search for an arm region based on another point X.

また、ステップS55で“YES”であれば、つまり腕の角度が指さしジェスチャを行っていると考えられる状態であれば、ステップS57でプロセッサ60は、指さし方向Pxが既に記憶されているか否かを判断する。つまり、他の腕によって行われた指さしジェスチャが既に認識されている状態かが判断される。具体的には、仮指さし方向バッファ338に指さし方向Pxが既に記憶されているかが判断される。   If “YES” in the step S55, that is, if the arm angle is considered to be a pointing gesture, the processor 60 determines whether or not the pointing direction Px is already stored in the step S57. to decide. That is, it is determined whether the finger pointing gesture performed by another arm has already been recognized. Specifically, it is determined whether the pointing direction Px is already stored in the temporary pointing direction buffer 338.

ステップS57で“NO”であれば、つまり他の腕による指さしジェスチャが認識されていなければ、ステップS59でプロセッサ60は、体の特徴点と腕領域とに基づいて指さし方向Pxを記憶する。つまり腕領域における点Xを指先Pとすると共に上述の中点Cが求められ、中点Cに対する指先Pの方向が指さし方向Pxとして記憶(検出)される。なお、ステップS59の処理を実行するプロセッサ60は第2記憶手段として機能する。   If “NO” in the step S57, that is, if the pointing gesture by another arm is not recognized, the processor 60 stores the pointing direction Px based on the body feature point and the arm region in a step S59. That is, the point X in the arm region is set as the fingertip P and the midpoint C described above is obtained, and the direction of the fingertip P relative to the midpoint C is stored (detected) as the pointing direction Px. The processor 60 that executes the process of step S59 functions as a second storage unit.

続いて、ステップS61でプロセッサ60は、候補点リストから結合結果と対応する点を削除する。つまり、腕候補点リストに記憶される結合結果(腕領域)が候補点リストから削除される。そして、ステップS61の処理が終了すると、プロセッサ60はステップS39の処理に戻る。なお、他の実施例では、指さし方向Pxが検出(記憶)されると、指さし認識処理が終了するようにしてもよい。   Subsequently, in step S61, the processor 60 deletes a point corresponding to the combination result from the candidate point list. That is, the combination result (arm region) stored in the arm candidate point list is deleted from the candidate point list. Then, when the process of step S61 ends, the processor 60 returns to the process of step S39. In another embodiment, the pointing recognition process may be terminated when the pointing direction Px is detected (stored).

また、腕領域が検出されていてステップS53で“YES”と判断されるか、指さし方向Pxが既に検出されていてステップS57で“YES”と判断されると、プロセッサ60は、ステップS63で記憶されている腕領域と指さし方向Pxとを削除し、ステップS65で候補点リストに記憶されている点Xを全て削除する。つまり、指さしジェスチャが誤認識されている可能性が高いため、認識されている腕領域および検出された指さし方向Pxが削除される。また、他の腕領域を検出する必要もないため、候補点リストから点Xが全て削除される。そして、ステップS65の処理が終了すると、プロセッサ39の処理に戻る。このとき、ステップS39では“NO”と判断されるため、プロセッサ60は指さし認識処理が終了する。また、ステップS63の処理を実行するプロセッサ60は削除手段として機能する。   On the other hand, if the arm region is detected and “YES” is determined in step S53, or if the pointing direction Px is already detected and “YES” is determined in step S57, the processor 60 stores in step S63. In step S65, all the points X stored in the candidate point list are deleted. That is, since there is a high possibility that the pointing gesture is misrecognized, the recognized arm region and the detected pointing direction Px are deleted. Further, since it is not necessary to detect other arm regions, all the points X are deleted from the candidate point list. Then, when the process of step S65 ends, the process returns to the process of the processor 39. At this time, since “NO” is determined in the step S39, the processor 60 ends the pointing recognition process. Further, the processor 60 that executes the process of step S63 functions as a deleting unit.

なお、他の実施例では、指さしジェスチャを適切に認識している距離画像センサ12を特定する際には、人間Hと距離画像センサ12との距離に基づいて判断されてもよい。   In another embodiment, when the distance image sensor 12 that appropriately recognizes the pointing gesture is specified, the distance image sensor 12 may be determined based on the distance between the person H and the distance image sensor 12.

また、その他の実施例では、腕を使ったジェスチャには、指さしジェスチャだけではなく、手のひらを広げて対象物を指し示すようなジェスチャも含まれる。   In another embodiment, the gesture using the arm includes not only a pointing gesture but also a gesture that extends a palm and points to an object.

また、さらにその他の実施例では、腕を使ったジェスチャを行っている時間を利用して、そのジェスチャが正しく行われているかを判断するようにしてもよい。たとえば、腕を使ったジェスチャを行っている時間が閾値(たとえば、2秒)より長い場合に、腕を使ったジェスチャが行われていると判断される。   In still another embodiment, it may be determined whether the gesture is performed correctly using the time during which the gesture is performed using the arm. For example, it is determined that the gesture using the arm is being performed when the time during which the gesture using the arm is performed is longer than a threshold (for example, 2 seconds).

また、本実施例では、人間Hと略同じ外観のロボットであっても、体の特徴点を抽出することが出来る。   Further, in this embodiment, even if the robot has substantially the same appearance as the human H, the feature points of the body can be extracted.

また、上述の実施例では、閾値(所定値)などに対して「より大きい」などの言葉を用いたが「閾値より大きい」とは「閾値以上」の意味も含まれる。同様に「閾値よりも小さい」とは「閾値以下」および「閾値未満」の意味も含まれる。   In the above-described embodiments, words such as “greater than” are used for the threshold (predetermined value) and the like, but “greater than the threshold” includes the meaning of “greater than or equal to the threshold”. Similarly, “smaller than a threshold” includes the meanings “below the threshold” and “below the threshold”.

また、本実施例で説明した複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムに配信されてもよい。また、CD, DVD, BD (Blu-ray(登録商標) Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、上記複数のプログラムが、本実施例と同等の構成のシステムに適用された場合、本実施例と同等の効果が得られる。   In addition, the plurality of programs described in the present embodiment may be stored in the HDD of a data distribution server and distributed to a system having the same configuration as that of the present embodiment via a network. In addition, storage programs such as CDs, DVDs, and BDs (Blu-ray (registered trademark) Disc) are sold or distributed with these programs stored in storage media such as USB memory and memory card. May be. When the plurality of programs downloaded through the server and storage medium described above are applied to a system having the same configuration as that of this embodiment, the same effect as that of this embodiment can be obtained.

そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。   The specific numerical values given in this specification are merely examples, and can be appropriately changed according to a change in product specifications.

10 …中央制御装置
12a−12n …距離画像センサ
60 …プロセッサ
62 …メモリ
100 …ジェスチャ管理システム
DESCRIPTION OF SYMBOLS 10 ... Central controller 12a-12n ... Distance image sensor 60 ... Processor 62 ... Memory 100 ... Gesture management system

Claims (13)

複数の距離画像センサ、
腕を使ったジェスチャを距離画像センサ毎に認識する認識手段、
前記腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶手段、
前記記憶手段によって記憶された距離画像センサから、前記腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定手段、および
前記特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録手段を備える、ジェスチャ管理システム。
Multiple distance image sensors,
Recognition means for recognizing gestures using arms for each distance image sensor,
Storage means for storing a distance image sensor used for recognizing a gesture using the arm;
Using the distance image sensor specified by the specifying means, the specifying means for specifying the distance image sensor used when the gesture using the arm is properly recognized from the distance image sensor stored by the storage means A gesture management system comprising registration means for registering a gesture using an arm recognized as a recognition result.
前記距離画像センサは、距離画像を出力し、
前記特定手段は、前記距離画像センサから出力される距離画像における、腕を使ったジェスチャを行う人間の大きさに基づいて、腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する、請求項1記載のジェスチャ管理システム。
The distance image sensor outputs a distance image;
The distance image sensor used when the identification unit appropriately recognizes the gesture using the arm based on the size of the person performing the gesture using the arm in the distance image output from the distance image sensor. The gesture management system according to claim 1, wherein:
前記人間の大きさは、距離画像のピクセル数によって示される、請求項2記載のジェスチャ管理システム。   The gesture management system according to claim 2, wherein the human size is indicated by the number of pixels of the distance image. 前記腕を使ったジェスチャの認識に利用されていない距離画像センサのうち、そのジェスチャを観察可能な距離画像センサを検索する検索手段をさらに備え、
前記登録手段は、前記検索手段によって前記腕を使ったジェスチャを観察可能な距離画像センサが発見されないとき、前記特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する、請求項1ないし3のいずれかに記載のジェスチャ管理システム。
Searching means for searching for a distance image sensor capable of observing the gesture among distance image sensors that are not used for recognizing the gesture using the arm,
When the distance image sensor capable of observing the gesture using the arm is not found by the search unit, the registration unit performs a gesture using the arm recognized by using the distance image sensor specified by the specifying unit. The gesture management system according to claim 1, wherein the gesture management system is registered as a recognition result.
前記腕を使ったジェスチャは、指さしジェスチャを含み、
前記登録手段は、前記指さしジェスチャにおける指さし方向を登録する、請求項1ないし4のいずれかに記載のジェスチャ管理システム。
The gesture using the arm includes a pointing gesture,
The gesture management system according to claim 1, wherein the registration unit registers a pointing direction in the pointing gesture.
複数の距離画像センサを有する、ジェスチャ管理システムのプロセッサを、
腕を使ったジェスチャを距離画像センサ毎に認識する認識手段、
前記腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶手段、
前記記憶手段によって記憶された距離画像センサから、前記腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定手段、および
前記特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録手段として機能させる、ジェスチャ管理プログラム。
A gesture management system processor having a plurality of range image sensors;
Recognition means for recognizing gestures using arms for each distance image sensor,
Storage means for storing a distance image sensor used for recognizing a gesture using the arm;
Using the distance image sensor specified by the specifying means, the specifying means for specifying the distance image sensor used when the gesture using the arm is properly recognized from the distance image sensor stored by the storage means A gesture management program that causes a gesture using an arm recognized as a recognition means to function as a registration means for registering the result as a recognition result.
複数の距離画像センサを有する、ジェスチャ管理システムにおけるジェスチャ管理方法であって、前記ジェスチャ管理システムのプロセッサが、
腕を使ったジェスチャを距離画像センサ毎に認識する認識ステップ、
前記腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶ステップ、
前記記憶ステップによって記憶された距離画像センサから、前記腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定ステップ、および
前記特定ステップによって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録ステップを実行する、ジェスチャ管理方法。
A gesture management method in a gesture management system having a plurality of range image sensors, wherein the processor of the gesture management system includes:
A recognition step for recognizing a gesture using an arm for each distance image sensor;
Storing a distance image sensor used for recognizing the gesture using the arm;
A specifying step of specifying a distance image sensor used when the gesture using the arm is appropriately recognized from the distance image sensor stored in the storing step, and using the distance image sensor specified in the specifying step A gesture management method for executing a registration step of registering a gesture using an arm recognized as a recognition result.
距離画像を出力する距離画像センサ、
人間が存在する空間の距離画像に基づいて、体の特徴点を抽出する第1抽出手段、
前記特徴点に基づいて、前記距離画像から候補点を抽出する第2抽出手段、
前記特徴点と前記候補点とを含む領域があるとき、その領域を腕領域として記憶する第1記憶手段、および
前記特徴点と前記腕領域に含まれる候補点とに基づいて、指さし方向を記憶する第2記憶手段を備える、指さし認識装置。
A distance image sensor that outputs a distance image,
First extraction means for extracting feature points of a body based on a distance image of a space in which a human exists;
Second extraction means for extracting candidate points from the distance image based on the feature points;
When there is an area including the feature point and the candidate point, a first storage unit that stores the area as an arm area, and stores a pointing direction based on the feature point and the candidate point included in the arm area A pointing device recognizing device comprising second storage means.
前記第1記憶手段は、前記特徴点と前記候補点とを含む領域が、腕としての特徴を有しているとき、その領域を腕領域として記憶する、請求項8記載の指さし認識装置。   The pointing device according to claim 8, wherein the first storage unit stores the region as an arm region when the region including the feature point and the candidate point has a feature as an arm. 前記第2記憶手段は、前記腕領域と前記人間とに基づく角度が所定角度範囲内のとき、前記特徴点と前記腕領域に含まれる候補点とに基づいて、指さし方向を記憶する、請求項8または9記載の指さし認識装置。   The said 2nd memory | storage means memorize | stores a pointing direction based on the said feature point and the candidate point contained in the said arm area | region when the angle based on the said arm area | region and the said person is in a predetermined angle range. A pointing device recognizing device according to 8 or 9. 前記第2抽出手段は、前記特徴点に基づいて、前記距離画像から複数の候補点を抽出し、
前記第1記憶手段によって3つ以上の腕領域が記憶されたとき、前記第2記憶手段によって記憶されている指さし方向を削除する削除手段をさらに備える、請求項8ないし10のいずれかに記載の指さし認識装置。
The second extraction means extracts a plurality of candidate points from the distance image based on the feature points,
11. The apparatus according to claim 8, further comprising a deletion unit that deletes the pointing direction stored by the second storage unit when three or more arm regions are stored by the first storage unit. Pointer recognition device.
前記削除手段は、前記第1記憶手段によって新たな腕領域が記憶され、かつ前記第2記憶手段によってすでに指さし方向が記憶されているとき、前記第2記憶手段によって記憶されている指さし方向を削除する、請求項11記載の指さし認識装置。   The deletion unit deletes the pointing direction stored by the second storage unit when a new arm region is stored by the first storage unit and the pointing direction is already stored by the second storage unit. The pointing finger recognition apparatus according to claim 11. 前記特徴点は、前記人間の頭部位置および肩位置を含み、
前記第2抽出手段は、前記頭部位置に基づいて前記距離画像から候補点を抽出し、
前記第1記憶手段は、前記肩位置と前記候補点とを含む領域があるとき、その領域を腕領域として記憶し、
前記第2記憶手段は、前記頭部位置および前記肩位置の中点と、前記腕領域に含まれる候補点とに基づいて、指さし方向を記憶する、請求項8ないし12のいずれかに記載の指さし認識装置。
The feature points include the human head position and shoulder position,
The second extraction means extracts candidate points from the distance image based on the head position,
When there is an area including the shoulder position and the candidate point, the first storage means stores the area as an arm area,
The said 2nd memory | storage means memorize | stores a pointing direction based on the midpoint of the said head position and the said shoulder position, and the candidate point contained in the said arm area | region. Pointer recognition device.
JP2014168933A 2014-08-22 2014-08-22 Gesture management system, gesture management program, gesture management method, and pointing recognition device Active JP6303918B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014168933A JP6303918B2 (en) 2014-08-22 2014-08-22 Gesture management system, gesture management program, gesture management method, and pointing recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014168933A JP6303918B2 (en) 2014-08-22 2014-08-22 Gesture management system, gesture management program, gesture management method, and pointing recognition device

Publications (2)

Publication Number Publication Date
JP2016045670A true JP2016045670A (en) 2016-04-04
JP6303918B2 JP6303918B2 (en) 2018-04-04

Family

ID=55636197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014168933A Active JP6303918B2 (en) 2014-08-22 2014-08-22 Gesture management system, gesture management program, gesture management method, and pointing recognition device

Country Status (1)

Country Link
JP (1) JP6303918B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220067356A1 (en) * 2020-09-02 2022-03-03 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11195525B2 (en) 2018-06-13 2021-12-07 Panasonic Intellectual Property Corporation Of America Operation terminal, voice inputting method, and computer-readable recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002008040A (en) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd Three-dimensional information detecting device and three-dimensional information detecting method
JP2003076488A (en) * 2001-09-03 2003-03-14 Takenaka Komuten Co Ltd Device and method of determining indicating position
JP2004246856A (en) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology Interface device
JP2004265222A (en) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> Interface method, system, and program
JP2007067510A (en) * 2005-08-29 2007-03-15 Toshiba Corp Video image photography system
US20130215027A1 (en) * 2010-10-22 2013-08-22 Curt N. Van Lydegraf Evaluating an Input Relative to a Display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002008040A (en) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd Three-dimensional information detecting device and three-dimensional information detecting method
JP2003076488A (en) * 2001-09-03 2003-03-14 Takenaka Komuten Co Ltd Device and method of determining indicating position
JP2004246856A (en) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology Interface device
JP2004265222A (en) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> Interface method, system, and program
JP2007067510A (en) * 2005-08-29 2007-03-15 Toshiba Corp Video image photography system
US20130215027A1 (en) * 2010-10-22 2013-08-22 Curt N. Van Lydegraf Evaluating an Input Relative to a Display

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220067356A1 (en) * 2020-09-02 2022-03-03 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP6303918B2 (en) 2018-04-04

Similar Documents

Publication Publication Date Title
CN112666714B (en) Gaze direction mapping
US10456918B2 (en) Information processing apparatus, information processing method, and program
US9501725B2 (en) Interactive and automatic 3-D object scanning method for the purpose of database creation
KR101514169B1 (en) Information processing device, information processing method, and recording medium
US20190355173A1 (en) Leveraging crowdsourced data for localization and mapping within an environment
JP7017689B2 (en) Information processing equipment, information processing system and information processing method
US10692291B2 (en) Apparatus, method, and medium for generating a 3D model of a finger using captured image
US9836130B2 (en) Operation input device, operation input method, and program
KR101436050B1 (en) Method of establishing database including hand shape depth images and method and device of recognizing hand shapes
JP2015079490A (en) Method, device and system for selecting frame
US9354712B2 (en) Recognition device, intelligent device and information providing method for human machine interaction
JP2016091457A (en) Input device, fingertip-position detection method, and computer program for fingertip-position detection
JP2016527477A (en) Device location using cameras and wireless signals
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP2020017111A (en) Work measurement device, work measurement method and program
JP2017199289A (en) Information processor, control method thereof, program, and storage medium
JP6127564B2 (en) Touch determination device, touch determination method, and touch determination program
US20170345184A1 (en) Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method
CN105242888A (en) System control method and electronic device
JP5248236B2 (en) Image processing apparatus and image processing method
US20160291698A1 (en) Image processing apparatus, non-transitory computer-readable recording medium, and image processing method
JP6303918B2 (en) Gesture management system, gesture management program, gesture management method, and pointing recognition device
JP2017191426A (en) Input device, input control method, computer program, and storage medium
WO2016084142A1 (en) Work assistance system and work assistance method
US20170069138A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170516

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180219

R150 Certificate of patent or registration of utility model

Ref document number: 6303918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250