JP2016045670A - Gesture management system, gesture management program, gesture management method and finger pointing recognition device - Google Patents
Gesture management system, gesture management program, gesture management method and finger pointing recognition device Download PDFInfo
- Publication number
- JP2016045670A JP2016045670A JP2014168933A JP2014168933A JP2016045670A JP 2016045670 A JP2016045670 A JP 2016045670A JP 2014168933 A JP2014168933 A JP 2014168933A JP 2014168933 A JP2014168933 A JP 2014168933A JP 2016045670 A JP2016045670 A JP 2016045670A
- Authority
- JP
- Japan
- Prior art keywords
- distance image
- gesture
- arm
- image sensor
- pointing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007726 management method Methods 0.000 title claims description 47
- 230000006870 function Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 9
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 54
- 238000001514 detection method Methods 0.000 description 13
- 239000013598 vector Substances 0.000 description 9
- 230000001419 dependent effect Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 3
- 230000001936 parietal effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
Images
Abstract
Description
この発明は、ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置に関し、特にたとえば、腕を使ったジェスチャを認識する、ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置に関する。 The present invention relates to a gesture management system, a gesture management program, a gesture management method, and a pointing recognition device, and more particularly, to a gesture management system, a gesture management program, a gesture management method, and a pointing recognition device that recognizes a gesture using an arm, for example.
背景技術の一例が特許文献1に開示されている。この特許文献1の計測装置では、複数の3次元距離計測センサを利用して、人の位置および頭部の向きをリアルタイムに計測することが出来る。
An example of background art is disclosed in
また、特許文献2のジェスチャスイッチでは、検知対象エリア内に所定のジェスチャによる入力を受け付けるための入力空間が設定されている。人が入力空間の近傍で所定のジェスチャを行うと、そのジェスチャが認識される。
Moreover, in the gesture switch of
ところが、特許文献1の計測装置では、人間の位置などを計測することはできるが、指さしなどの腕を使ったジェスチャを認識することはできない。また、特許文献2のジェスチャスイッチは検知対象エリア内に設定されている入力空間の近傍でなければ、所定のジェスチャを認識することが出来ない。つまり、このジェスチャスイッチでは、人間などが移動する空間において、任意の位置で行なわれる腕を使ったジェスチャを認識することができない。
However, the measuring device of
それゆえに、この発明の主たる目的は、新規な、ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法、指さし認識装置を提供することである。 Therefore, a main object of the present invention is to provide a novel gesture management system, gesture management program, gesture management method, and pointing recognition device.
この発明の他の目的は、任意の位置で行われる腕を使ったジェスチャを適切に認識することができる、ジェスチャ管理システム、ジェスチャ管理プログラムおよびジェスチャ管理方法を提供することである。 Another object of the present invention is to provide a gesture management system, a gesture management program, and a gesture management method that can appropriately recognize a gesture using an arm performed at an arbitrary position.
この発明のその他の目的は、指さしを適切に認識することが出来る、指さし認識装置を提供することである。 Another object of the present invention is to provide a pointing device that can properly recognize a pointing device.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、複数の距離画像センサ、腕を使ったジェスチャを距離画像センサ毎に認識する認識手段、腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶手段、記憶手段によって記憶された距離画像センサから、腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定手段、および特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録手段を備える、ジェスチャ管理システムである。 The first invention includes a plurality of distance image sensors, a recognition means for recognizing a gesture using an arm for each distance image sensor, a storage means for storing a distance image sensor used for recognition of a gesture using an arm, and a storage means. Identification means for identifying the distance image sensor used when the gesture using the arm is appropriately recognized from the stored distance image sensor, and the arm recognized by using the distance image sensor identified by the identification means It is a gesture management system provided with a registration means for registering a gesture using a character as a recognition result.
第1の発明では、ジェスチャ管理システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)は、たとえば複数の距離画像センサ(12)が天井に設けられる空間で利用される。認識手段(60,S1)は、複数の距離画像センサに対応付けて腕を使ったジェスチャに認識する。記憶手段(60,S5)は、たとえば複数の距離画像センサのうち、腕を使ったジェスチャの認識に利用した距離画像センサの識別情報を記憶する。特定手段(60,S7)は、腕を使ったジェスチャの認識に利用した距離画像センサの中から、腕を使ったジェスチャを適切に認識したときに利用した距離画像センサを特定する。登録手段(60,S15)は、たとえば特定された距離画像センサを利用して認識した腕を使ったジェスチャを、認識結果として登録する。 In the first invention, the gesture management system (100: reference numerals exemplifying corresponding parts in the embodiment, hereinafter the same) is used in a space where a plurality of distance image sensors (12) are provided on the ceiling, for example. . The recognition means (60, S1) recognizes a gesture using an arm in association with a plurality of distance image sensors. A memory | storage means (60, S5) memorize | stores the identification information of the distance image sensor utilized for recognition of the gesture using an arm among several distance image sensors, for example. The specifying means (60, S7) specifies the distance image sensor used when the gesture using the arm is properly recognized from the distance image sensors used for recognizing the gesture using the arm. The registration means (60, S15) registers, for example, a gesture using an arm recognized by using the specified distance image sensor as a recognition result.
第1の発明によれば、たとえば人間が空間内の任意の位置で腕を使ったジェスチャを行っても、腕を使ったジェスチャを適切に認識している距離画像センサを特定することが出来る。したがって、空間内の任意の位置で人間が腕を使ったジェスチャを行っても、そのジェスチャを適切に認識することが出来る。 According to the first invention, for example, even if a human makes a gesture using an arm at an arbitrary position in the space, a distance image sensor that appropriately recognizes the gesture using the arm can be specified. Therefore, even if a human makes a gesture using an arm at an arbitrary position in the space, the gesture can be appropriately recognized.
第2の発明は、第1の発明に従属し、距離画像センサは、距離画像を出力し、特定手段は、距離画像センサから出力される距離画像における、腕を使ったジェスチャを行う人間の大きさに基づいて、腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する。 The second invention is dependent on the first invention, the distance image sensor outputs a distance image, and the specifying means is a size of a human performing a gesture using an arm in the distance image output from the distance image sensor. Based on this, the distance image sensor used when the gesture using the arm is properly recognized is specified.
第2の発明では、複数の距離画像センサはそれぞれ距離画像を出力する。出力された距離画像における人間の大きさに基づいて、腕を使ったジェスチャを適切に認識したときに利用した距離画像センサが特定される。 In the second invention, each of the plurality of distance image sensors outputs a distance image. Based on the human size in the output distance image, the distance image sensor used when the gesture using the arm is appropriately recognized is specified.
第3の発明は、第2の発明に従属し、人間の大きさは、距離画像のピクセル数によって示される。 The third invention is dependent on the second invention, and the size of the person is indicated by the number of pixels of the distance image.
第3の発明では、たとえば、複数の距離画像センサはそれぞれ異なる位置に設けられている。そのため、各距離画像センサから出力される距離画像では、人間の大きさを示すピクセル数は異なる。 In the third invention, for example, the plurality of distance image sensors are provided at different positions. Therefore, in the distance image output from each distance image sensor, the number of pixels indicating the size of a person is different.
第2の発明または第3の発明によれば、距離画像における人間の大きさを利用することで、距離画像センサを特定するまでの時間を短縮することが出来る。 According to the second invention or the third invention, the time until the distance image sensor is specified can be shortened by using the human size in the distance image.
第4の発明は、第1の発明ないし第3の発明のいずれかに従属し、腕を使ったジェスチャの認識に利用されていない距離画像センサのうち、そのジェスチャを観察可能な距離画像センサを検索する検索手段をさらに備え、登録手段は、検索手段によって腕を使ったジェスチャを観察可能な距離画像センサが発見されないとき、特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する。 According to a fourth aspect of the present invention, there is provided a distance image sensor according to any one of the first to third aspects of the present invention, the distance image sensor capable of observing the gesture among the distance image sensors not used for the recognition of the gesture using the arm. The registration means further includes a search means, and when the distance image sensor capable of observing the gesture using the arm is not found by the search means, the registration means uses the distance image sensor specified by the specifying means to recognize the recognized arm. Register the used gesture as a recognition result.
第4の発明では、検索手段(60,S11)は、腕を使ったジェスチャの認識に利用されていない距離画像センサの中から、そのジェスチャを観察可能な距離画像センサを検索する。検索手段によって腕を使ったジェスチャを観察可能な距離画像センサが発見されなければ、登録手段は、特定された距離画像センサによって認識された腕を使ったジェスチャを、認識結果として登録する。たとえば、腕を使ったジェスチャを観察可能な距離画像センサが発見された場合は、腕を使ったジェスチャを誤認識している可能性が高い。つまり、検索によって腕を使ったジェスチャが誤認識されていないかを確認することができる。 In the fourth invention, the retrieval means (60, S11) retrieves a distance image sensor capable of observing the gesture from the distance image sensors that are not used for recognizing the gesture using the arm. If no distance image sensor capable of observing the gesture using the arm is found by the search means, the registration means registers the gesture using the arm recognized by the specified distance image sensor as the recognition result. For example, when a distance image sensor capable of observing a gesture using an arm is found, there is a high possibility that the gesture using the arm is erroneously recognized. That is, it is possible to confirm whether or not a gesture using the arm has been erroneously recognized by the search.
第4の発明によれば、腕を使ったジェスチャの認識結果を統合する前に腕を使ったジェスチャが誤認識されていないかを確認することで、認識結果を統合する精度を高めることが出来る。 According to the fourth aspect of the present invention, it is possible to improve the accuracy of integrating the recognition results by checking whether the gesture using the arms is erroneously recognized before integrating the recognition results of the gestures using the arms. .
第5の発明は、第1の発明ないし第4の発明のいずれかに従属し、腕を使ったジェスチャは、指さしジェスチャを含み、登録手段は、指さしジェスチャにおける指さし方向(Px)を登録する。 The fifth invention is dependent on any one of the first to fourth inventions, and the gesture using the arm includes a pointing gesture, and the registration unit registers the pointing direction (Px) in the pointing gesture.
第5の発明によれば、指さしジェスチャの認識結果として指さし方向を登録することができる。 According to the fifth aspect, the pointing direction can be registered as the recognition result of the pointing gesture.
第6の発明は、複数の距離画像センサを有する、ジェスチャ管理システムのプロセッサを、腕を使ったジェスチャを距離画像センサ毎に認識する認識手段、腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶手段、記憶手段によって記憶された距離画像センサから、腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定手段、および特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録手段として機能させる、ジェスチャ管理プログラムである。 According to a sixth aspect of the present invention, there is provided a gesture management system processor having a plurality of distance image sensors, a recognition means for recognizing a gesture using an arm for each distance image sensor, and a distance image sensor used for recognizing a gesture using an arm. Storing means for storing the distance image sensor, the specifying means for specifying the distance image sensor used when the gesture using the arm is properly recognized from the distance image sensor stored by the storing means, and the distance image specified by the specifying means It is a gesture management program for causing a gesture using an arm recognized using a sensor to function as a registration unit for registering as a recognition result.
第6の発明でも、第1の発明と同様の効果を得ることが出来る。 In the sixth invention, the same effect as in the first invention can be obtained.
第7の発明は、複数の距離画像センサを有する、ジェスチャ管理システムにおけるジェスチャ管理方法であって、ジェスチャ管理システムのプロセッサが、腕を使ったジェスチャを距離画像センサ毎に認識する認識ステップ、腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶ステップ、記憶ステップによって記憶された距離画像センサから、腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定ステップ、および特定ステップによって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録ステップを実行する、ジェスチャ管理方法である。 A seventh invention is a gesture management method in a gesture management system having a plurality of distance image sensors, wherein a processor of the gesture management system recognizes a gesture using an arm for each distance image sensor. A storage step for storing the distance image sensor used for recognizing the used gesture, and a specification for specifying the distance image sensor used when the gesture using the arm is properly recognized from the distance image sensor stored in the storage step. This is a gesture management method for executing a registration step of registering a gesture using an arm recognized using the step and the distance image sensor specified in the specifying step as a recognition result.
第7の発明でも、第1の発明と同様の効果を得ることが出来る。 In the seventh invention, the same effect as in the first invention can be obtained.
第8の発明は、距離画像を出力する距離画像センサ、人間が存在する空間の距離画像に基づいて、体の特徴点を抽出する第1抽出手段、特徴点に基づいて、距離画像から候補点を抽出する第2抽出手段、特徴点と候補点とを含む領域があるとき、その領域を腕領域として記憶する第1記憶手段、および特徴点と腕領域に含まれる候補点とに基づいて、指さし方向を記憶する第2記憶手段を備える、指さし認識装置である。 According to an eighth aspect of the present invention, there is provided a distance image sensor that outputs a distance image, a first extraction unit that extracts a feature point of a body based on a distance image of a space in which a human exists, a candidate point from a distance image based on the feature point When there is a region including a feature point and a candidate point when there is a region including a feature point and a candidate point, a first storage unit that stores the region as an arm region, and a feature point and a candidate point included in the arm region, A pointing device recognizing device comprising second storage means for storing a pointing direction.
第8の発明では、指さし認識装置(10)の複数の距離画像センサ(12)は、たとえば人間が存在する空間の天井に設けられる。第1抽出手段(60,S33)は、たとえば距離画像センサの検出範囲に人間がいる場合、その距離画像センサが出力する距離画像から、人間の体の特徴点を複数抽出する。第2抽出手段(60,S35)は、たとえば特徴点から一定距離以上離れた特徴点(X)を、距離画像から抽出する。たとえば、特徴点から最も離れた候補点と略同じ距離の周囲の点を結合した結果の領域に特徴点が含まれている場合、第1記憶手段(60,S51)は結合結果の領域を腕領域として記憶する。第2記憶手段(60,S59)は、たとえば腕領域に含まれる、特徴点から最も離れた候補点と特徴点とによって示されるベクトルを指さし方向として記憶する。 In the eighth invention, the plurality of distance image sensors (12) of the pointing finger recognition device (10) are provided, for example, on the ceiling of a space where a human is present. The first extraction means (60, S33) extracts a plurality of feature points of the human body from the distance image output by the distance image sensor, for example, when a person is in the detection range of the distance image sensor. The second extraction means (60, S35) extracts, for example, a feature point (X) that is separated from the feature point by a certain distance or more from the distance image. For example, when a feature point is included in a region resulting from combining points around the same distance as a candidate point farthest from the feature point, the first storage means (60, S51) uses the region of the combination result as an arm. Store as an area. The second storage means (60, S59) stores, for example, a vector indicated by a candidate point and a feature point farthest from the feature point included in the arm region as a pointing direction.
第8の発明によれば、人間の特徴点を利用することで、その人間が行う指さしジェスチャの指さし方向を適切に検出することが出来る。 According to the eighth aspect, by using the human feature point, it is possible to appropriately detect the pointing direction of the pointing gesture performed by the human.
第9の発明は、第8の発明に従属し、第1記憶手段は、特徴点と候補点とを含む領域が、腕としての特徴を有しているとき、その領域を腕領域として記憶する。 A ninth invention is according to the eighth invention, and the first storage means stores the area as an arm area when the area including the feature point and the candidate point has a feature as an arm. .
第9の発明では、腕(領域)としての特徴とは、たとえば結合結果の領域が細長い形状をしており、かつ一定の長さを有していることである。そして、特徴点と候補点とを含む領域が上述の特徴を有しているとき、その領域が腕領域として記憶される。 In the ninth invention, the feature as an arm (region) is that, for example, the region resulting from the combination has an elongated shape and has a certain length. And when the area | region containing a feature point and a candidate point has the above-mentioned characteristic, the area | region is memorize | stored as an arm area | region.
第9の発明によれば、特徴点と候補点とを含む領域が腕の特徴を有しているかを判断することで、指さしジェスチャを認識する際の信頼性を高めることが出来る。 According to the ninth aspect, it is possible to increase the reliability when recognizing the pointing gesture by determining whether the region including the feature point and the candidate point has the arm feature.
第10の発明は、第8の発明または第9の発明に従属し、第2記憶手段は、腕領域と人間とに基づく角度が所定角度範囲内のとき、特徴点と腕領域に含まれる候補点とに基づいて、指さし方向を記憶する。 A tenth invention is dependent on the eighth invention or the ninth invention, and the second storage means is a candidate included in the feature point and the arm region when the angle based on the arm region and the human is within a predetermined angle range. Based on the points, the pointing direction is stored.
第10の発明では、たとえば所定角度範囲は、指さしジェスチャを行うときの腕の角度が含まれる範囲である。そして、たとえば腕領域と人間とに基づく角度が所定角度範囲内のとき、特徴点と腕領域に含まれる候補点とに基づいて、指さし方向が記憶される。 In the tenth invention, for example, the predetermined angle range is a range including the angle of the arm when performing a pointing gesture. For example, when the angle based on the arm region and the person is within a predetermined angle range, the pointing direction is stored based on the feature points and the candidate points included in the arm region.
第10の発明によれば、腕領域と人間とに基づく角度が所定範囲角度内を判断することで、指さしジェスチャを行っていない腕によって指さしジェスチャが誤認識される可能性を低くしている。 According to the tenth aspect, by determining that the angle based on the arm region and the person is within the predetermined range angle, the possibility that the pointing gesture is erroneously recognized by the arm that is not performing the pointing gesture is reduced.
第11の発明は、第8の発明ないし第10の発明のいずれかに従属し、第2抽出手段は、特徴点に基づいて、距離画像から複数の候補点を抽出し、第1記憶手段によって3つ以上の腕領域が記憶されたとき、第2記憶手段によって記憶されている指さし方向を削除する削除手段をさらに備える。 The eleventh invention is dependent on any of the eighth to tenth inventions, and the second extraction means extracts a plurality of candidate points from the distance image based on the feature points, and the first storage means When three or more arm regions are stored, a deletion unit that deletes the pointing direction stored by the second storage unit is further provided.
第11の発明では、第2抽出手段は、特徴点に基づいて、距離画像から複数の候補点を抽出する。3つ以上の腕領域が記憶された場合、削除手段(60,S63)は記憶されている指さし方向を削除する。 In the eleventh invention, the second extracting means extracts a plurality of candidate points from the distance image based on the feature points. When three or more arm regions are stored, the deleting means (60, S63) deletes the stored pointing direction.
第12の発明は、第11の発明に従属し、削除手段は、第1記憶手段によって新たな腕領域が記憶され、かつ第2記憶手段によってすでに指さし方向が記憶されているとき、第2記憶手段によって記憶されている指さし方向を削除する。 The twelfth invention is dependent on the eleventh invention, and the deleting means stores the second arm area when a new arm region is stored by the first storage means and the pointing direction is already stored by the second storage means. The pointing direction stored by the means is deleted.
第12の発明では、たとえば他の腕領域を利用して指さし方向が既に記憶されている場合、既に記憶されている指さし方向が削除される。 In the twelfth aspect, for example, when the pointing direction is already stored using another arm region, the pointing direction already stored is deleted.
第11の発明または第12の発明によれば、誤認識されている可能性が高い指さしジェスチャの認識結果を取り消すことが出来る。 According to the eleventh aspect or the twelfth aspect, it is possible to cancel the recognition result of the pointing gesture that is likely to be erroneously recognized.
第13の発明は、第8の発明ないし第12の発明のいずれかに従属し、特徴点は、人間の頭部位置および肩位置を含み、第2抽出手段は、肩位置に基づいて距離画像から候補点を抽出し、第1記憶手段は、肩位置と候補点とを含む領域があるとき、その領域を腕領域として記憶し、第2記憶手段は、頭部位置および肩位置の中点と、腕領域に含まれる候補点とに基づいて、指さし方向を記憶する。 A thirteenth invention is dependent on any of the eighth to twelfth inventions, wherein the feature points include a human head position and a shoulder position, and the second extracting means is a distance image based on the shoulder position. The first storage means stores the area as an arm area when there is an area including the shoulder position and the candidate point, and the second storage means stores the midpoint of the head position and the shoulder position. And the pointing direction is stored based on the candidate points included in the arm region.
第13の発明では、特徴点は、人間の頭部位置を示す頭頂部(HT)と2つの肩位置(Sn)と含む。たとえば頭頂部に基づいて距離画像から候補点が抽出される。たとえば、候補点と略同じ距離の周囲の点を結合した領域に、肩位置と候補点とが含まれていれば、その領域が腕領域として記憶される。たとえば頭頂部および肩位置の中点と、腕領域に含まれる候補点とに基づいて、指さし方向が記憶される。 In the thirteenth invention, the feature points include a crown (HT) indicating a human head position and two shoulder positions (Sn). For example, candidate points are extracted from the distance image based on the top of the head. For example, if a shoulder position and a candidate point are included in a region where peripheral points approximately the same distance as the candidate point are combined, that region is stored as an arm region. For example, the pointing direction is stored based on the midpoints of the top and shoulder positions and the candidate points included in the arm region.
第13の発明によれば、人間の頭部位置および肩位置を利用して、指さし方向を記憶することが出来る。 According to the thirteenth aspect, the pointing direction can be stored using the human head position and shoulder position.
この発明によれば、任意の位置で行われる腕を使ったジェスチャを適切に認識することができる。 According to the present invention, it is possible to appropriately recognize a gesture using an arm performed at an arbitrary position.
また、人間の特徴点を利用することで、その人間が行う指さしジェスチャの指さし方向を適切に検出することが出来る。 Further, by using a human feature point, the pointing direction of the pointing gesture performed by the human can be appropriately detected.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、実施例のジェスチャ管理システム100は、人間Hが自由に行き来するショッピングモールや、博物館、展示会場などの空間(環境)で利用される。たとえば、空間内の人間Hは、指さしジェスチャなどの腕を使ったジェスチャを行うと、そのジェスチャがジェスチャ管理システム100によって認識される。
With reference to FIG. 1, the
また、腕を使ったジェスチャを認識するために、空間内の天井には、空間内で人間Hの位置やその身体の向きを検出するための複数の距離画像センサ12(12a,…)が設けられている。複数の距離画像センサ12は、後述する中央制御装置10(図4参照)にそれぞれ接続される。
In order to recognize a gesture using an arm, a plurality of distance image sensors 12 (12a,...) For detecting the position of the person H and the direction of the body in the space are provided on the ceiling in the space. It has been. The plurality of
なお、本実施例の空間内にいる人間Hは1人だけだが、他の実施例ではさらに多くの人間Hが空間内にいてもよい。また、人間Hだけに限らず、自立行動するロボットなどが空間内にいてもよい。 Note that only one person H is present in the space of the present embodiment, but more persons H may be present in the space in other embodiments. Further, not only the human H but also a robot or the like that can act independently may be in the space.
図2はこのような空間の平面的な位置を示す平面図(地図)である。図2を参照して、空間には、複数の距離画像センサ12(この実施例では14個)が設けられている。これらの距離画像センサ12は、空間の端に設けられているもの(12a,12b,12m,12n)以外は、2個で1セットとされている。図1も合わせて参照して、たとえば距離画像センサ12cおよび距離画像センサ12dなどが1セットとされている。1セットの距離画像センサ12では、センサ面がお互いの方を向き、かつ下側にセンサ面が鉛直下向きから一定角度(たとえば、10°程)傾くようにされている。これはセンサ面を真下に向けた場合よりも、センサ面を傾けた方が、距離画像センサ12の検出範囲が広くなるからである。また、センサ面を傾けた場合、お互いの検出範囲が大きく重複して非効率な検出とならないようにするために、1セットの距離画像センサ12は、センサ面が相手の方に傾けられている。さらに、1セットの距離画像センサ12における検出範囲が他のセットの距離画像センサ12と大きく重複して非効率な検出とならないようにするために、各セットの距離画像センサ12の水平方向の位置はズラして設けられている。
FIG. 2 is a plan view (map) showing the planar position of such a space. Referring to FIG. 2, a plurality of distance image sensors 12 (14 in this embodiment) are provided in the space. These
また、空間の端に設けられている距離画像センサ12は、空間の内側にセンサ面が向くように設けられている。
The
なお、このような空間において、人間Hが距離画像センサ12kおよび距離画像センサ12lの略下側に居る場合、平面図上では図2に示すように人間Hの位置と体の向きなどが示される。また、他の実施例では、空間に設けられる複数の距離画像センサ12は13個以下であってもよいし、15個以上であってもよい。
In such a space, when the person H is substantially below the
図3を参照して、1つの距離画像センサ12は地面から約3.0mの位置に設けられている。また、センサ面が鉛直下向きから一定角度傾いているため検出範囲は略楕円形となる。この検出範囲において、楕円形の長軸に相当する部分では約6.0mとなり、楕円形の短軸に相当する部分では約4.5mとなる。そして、本実施例では、図3に示す検出範囲が大きく重複して非効率な検出とならないように、複数の距離画像センサ12を設ける位置が調整されている。
Referring to FIG. 3, one
図4を参照して、ジェスチャ管理システム100の中央制御装置10には、複数の距離画像センサ12が接続される。中央制御装置10は、一定時間毎に距離画像センサ12が出力する距離画像を取得する。そして、中央制御装置10は、取得した各距離画像から、人間Hの位置情報などを検出する。なお、本実施例では、中央制御装置10によって指さしジェスチャを認識する処理が実行されるため、中央制御装置10を「指さし認識装置」と言うことがある。
Referring to FIG. 4, a plurality of
図5は距離画像センサ12の電気的な構成を示すブロック図である。図5を参照して、距離画像センサ12は制御IC30などを含む。制御IC30には、A/D変換器32、カメラ36、深度センサ38、深度カメラ40およびI/O42などが接続される。
FIG. 5 is a block diagram showing an electrical configuration of the
制御IC30は、キャッシュメモリなどを有し、距離画像センサ12の動作を制御する。たとえば、制御IC30は、中央制御装置10からの命令に従って動作し、検出した結果(距離画像)を中央制御装置10に送信する。
The
A/D変換器32にはマイク34が接続され、マイク34からの音声信号はA/D変換器32でディジタル音声信号に変換され、制御IC30に入力される。また、マイク34によって集音された音は、空間内の雑音などの音量を計測するために利用されることもある。
A
カメラ36は、距離画像センサ12が設置された空間のRGB情報、つまりカラー画像を撮影するためのカメラである。また、カメラ36は、後述する深度カメラ40が撮影している空間と略同じ空間を撮影することが可能なように、距離画像センサ12に設けられている。
The
深度センサ38は、たとえば赤外線プロジェクタであり、深度カメラ40は、たとえば赤外線カメラである。深度センサ38は、たとえば赤外線によるレーザ光を距離画像センサ12の正面に照射する。空間には照射されたレーザ光によって特殊なパターンが描画され、深度カメラ40は描画されたパターンを撮影する。そして、撮影された画像は制御IC30に入力され、制御IC30はその画像を解析することで、レーザ光が照射された空間の奥行(depth)情報を計測する。
The depth sensor 38 is an infrared projector, for example, and the
I/O42は、入力/出力の制御が可能なディジタルポートであり、出力ポートからは音声信号や、RGB情報および奥行情報を含む距離画像が出力され、中央制御装置10に与えられる。一方、中央制御装置10からは制御信号が出力され、入力ポートに与えられる。
The I /
なお、距離画像センサ12は、RGB情報および奥行情報を出力することからRGB−Dセンサと言われることもある。
The
また、本実施例の距離画像センサ12には、Microsoft(登録商標)社製のKinect(登録商標)センサと呼ばれる製品が採用されている。ただし、他の実施例では、ASUS(登録商標)社製のXtion、パナソニック(登録商標)社製のD−IMager(登録商標)などが距離画像センサ12として採用されてもよい。
The
図6は中央制御装置10の電気的な構成を示すブロック図である。図6を参照して、中央制御装置10は、距離画像センサ12およびプロセッサ60などを含む。プロセッサ60は、マイクロコンピュータ或いはCPUと呼ばれることもある。プロセッサ60には、複数の距離画像センサ12、メモリ62、出力装置64および入力装置66などが接続される。
FIG. 6 is a block diagram showing an electrical configuration of the
距離画像センサ12は、上述したように距離画像などを出力する。この距離画像に含まれる奥行情報には、空間に居る人間Hの形状および人間Hまでの距離が含まれている。たとえば、人間Hが天井に設けられた距離画像センサ12によってセンシングされると、人間Hの体の特徴点である頭頂部HT(頭部位置)、前頭部HFおよび2つの肩位置Snまでの距離と、その特徴点を含む人間Hの3次元形状(たとえば、頭部および両肩の形状)とが得られる。
The
また、空間には14個の距離画像センサ12が所定の位置(既知)に設置されており、プロセッサ60は、各々から距離画像を取得して、空間(ワールド座標系)における人間Hの位置(たとえば、重心などの位置座標)および向き(角度)を計算することが出来る。
Further, 14
なお、人間Hの体の特徴点、3次元形状、位置および向きを求める具体的な手法については、本明細書の特許文献1(特開2012 - 215555号公報)を参照されたい。 Refer to Patent Document 1 (Japanese Patent Laid-Open No. 2012-215555) of this specification for a specific method for obtaining the feature point, three-dimensional shape, position, and orientation of the human H body.
また、距離画像センサ12はマイク34を有するため、中央制御装置10では、音情報が入力される距離画像センサ12の位置から、音の発生源を推定することも出来る。
Further, since the
また、他の実施例では、距離画像センサ12ではなく、3次元のレーザレンジファインダ(LRF)が利用されてもよい。
In another embodiment, not the
プロセッサ60は中央制御装置10の動作を制御し、日時情報を出力するRTCを含む。メモリ62は、記憶手段とも呼ばれ、ROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置10の動作を制御するための制御プログラムなどが予め記憶される。また、RAMは、プロセッサ60のワークメモリやバッファメモリとして用いられる。
The
出力装置64は、たとえばディスプレイなどであり、入力装置66は、たとえばマウスやキーボードである。そして、ジェスチャ管理システム100の管理者は、中央制御装置10の状態を、出力装置64および入力装置66を利用して確認および利用することが出来る。
The
図7(A)および図7(B)を参照して、人間Hが指さしジェスチャを行っているときの指さし方向Pxについて説明する。図7(A)のように右手で指さしジェスチャを行っている人間Hに対して、上述した、頭頂部HT、前頭部HFおよび2つの肩位置Snを決めると共に、指さしジェスチャの先端、つまり指先Pの位置を決める。次に、頭頂部HTおよび指さしジェスチャを行う腕の肩位置Snの中点Cが求められる。この中点Cは人間Hの目の近くの位置となるため、中点Cと指先Pとを結ぶ線上に、人間Hが指さす対象物が存在すると考えられる。そのため、本実施例では、中点Cと指先Pとを結ぶベクトルを指さし方向Pxとする。以下、空間内にいる人間Hに対して、これらの位置を求めることで、腕を使ったジェスチャ、つまり指さしジェスチャの指さし方向Pxが認識(検出)される。 With reference to FIG. 7A and FIG. 7B, the pointing direction Px when the human H is performing a pointing gesture will be described. As shown in FIG. 7A, for the human H who is making a pointing gesture with the right hand, the above-described head top portion HT, frontal head portion HF, and two shoulder positions Sn are determined, and the tip of the pointing finger gesture, that is, the fingertip Determine the position of P. Next, the midpoint C of the crown position HT and the shoulder position Sn of the arm where the pointing gesture is performed are obtained. Since the midpoint C is located near the eyes of the human H, it is considered that an object pointed by the human H exists on a line connecting the midpoint C and the fingertip P. Therefore, in the present embodiment, a vector connecting the middle point C and the fingertip P is set as the pointing direction Px. Hereinafter, by obtaining these positions for the person H in the space, the gesture using the arm, that is, the pointing direction Px of the pointing gesture is recognized (detected).
図8は或る距離画像センサ12から出力された距離画像の一例を示す図解図である。図8を参照して、或る距離画像センサ12によって指さしジェスチャを行う人間Hが捉えられており、距離画像の略中央右側には指さしジェスチャを行う人間Hを示す領域が含まれている。そして、本実施例では、このような距離画像から図7に示す各部位の位置を検出し、人間Hの指さし方向Pxが検出される。なお、実際の距離画像では、検出されている距離に応じて白黒の濃淡が変化するようにしてあるが、図8の距離画像では図示の簡単のため距離を示す濃淡の描画は省略している。
FIG. 8 is an illustrative view showing an example of a distance image output from a certain
図9(A)を参照して、或る距離画像センサ12から出力される距離画像において、人間Hを示す領域が検出されると、人間Hを示す領域において、頭頂部HT、前頭部HFおよび2つの肩位置Snがそれぞれ示される。
Referring to FIG. 9A, when a region indicating human H is detected in a distance image output from a certain
次に、頭頂部HTから一定距離以上離れている点Xが抽出され、候補点リストに記憶される。候補点リストに記憶される点Xの中から、指さしジェスチャの先端部分(指先P)となっている点Xが求められる。具体的には、まず、頭頂部HTから最も遠い点Xを特定し、最も遠い点Xと略同じ距離の周囲の点を結合(クラスタリング)する。そして、周囲の点の結合が終了すると、結合結果にどちらか一方の肩位置Snが含まれているかが判断される。 Next, a point X that is more than a certain distance away from the crown HT is extracted and stored in the candidate point list. From the points X stored in the candidate point list, the point X that is the tip portion (fingertip P) of the pointing gesture is obtained. Specifically, first, a point X farthest from the top HT is specified, and points around the same distance as the farthest point X are combined (clustered). When the combination of the surrounding points is completed, it is determined whether one of the shoulder positions Sn is included in the combination result.
肩位置Snを含む結合結果が得られた場合は、結合結果が腕領域の特徴を有しているかが判断される。このように、指さしジェスチャを行う腕を示す領域が腕領域の特徴を有しているかを判断することで、指さしジェスチャを認識する際の信頼性を高めることが出来る。また、腕領域の特徴とは、領域が細長い形状をしており、かつ一定の長さを有していることである。結合結果の領域が上述の腕領域の特徴を有している場合、他の腕領域が2つ以上検出されていないかが判断される。つまり、腕が誤認識されていないかが判断される。 When the joining result including the shoulder position Sn is obtained, it is determined whether the joining result has the feature of the arm region. As described above, by determining whether or not the region indicating the arm on which the pointing gesture is performed has the characteristics of the arm region, it is possible to improve the reliability when the pointing gesture is recognized. The feature of the arm region is that the region has an elongated shape and has a certain length. If the combined region has the above-described arm region characteristics, it is determined whether two or more other arm regions have not been detected. That is, it is determined whether or not the arm is erroneously recognized.
また、腕が誤認識されていなければ、腕領域と人間Hとに基づく角度、つまり腕領域に含まれる指先Pおよび肩位置Snの線分と人間Hの鉛直方向の線分との角度(以下、腕の角度と言う。)が所定角度範囲(たとえば、60°から180°)内であるかが判断される。つまり、腕の角度が指さしジェスチャを行う腕として想定される範囲内であるかが判断される。そして、腕の角度が所定角度範囲内のときに、既に他の指さし方向Pxが検出されていなければ、腕領域に含まれる点X、つまり指先Pと上述の中点Cとを結ぶベクトルが、指さし方向Pxとして検出される。このように、腕の角度が所定範囲角度内を判断することで、指さしジェスチャを行っていない腕によって指さしジェスチャが誤認識される可能性を低くしている。 If the arm is not misrecognized, the angle based on the arm region and the human H, that is, the angle between the line segment of the fingertip P and the shoulder position Sn included in the arm region and the vertical segment of the human H (hereinafter referred to as the human segment H). It is determined whether the angle of the arm is within a predetermined angle range (for example, 60 ° to 180 °). In other words, it is determined whether the angle of the arm is within a range that is assumed as an arm that performs a pointing gesture. If the other finger pointing direction Px is not detected when the arm angle is within the predetermined angle range, the point X included in the arm region, that is, the vector connecting the fingertip P and the midpoint C described above is It is detected as the pointing direction Px. As described above, by determining that the angle of the arm is within the predetermined range angle, the possibility that the pointing gesture is erroneously recognized by the arm not performing the pointing gesture is reduced.
図9(B)を参照して、腕領域における点Xを指先Pとし、上述したように頭頂部HTと、指先Pとつながる肩位置Snとの中点Cが求められる。そして、中点Cに対する指先Pの方向が指さし方向(指さしベクトル)Pxとして検出され、距離画像センサ12の識別情報と共に指さし方向Pxが記憶される。
With reference to FIG. 9B, the point X in the arm region is set to the fingertip P, and the midpoint C between the crown HT and the shoulder position Sn connected to the fingertip P is obtained as described above. Then, the direction of the fingertip P with respect to the middle point C is detected as the pointing direction (pointing vector) Px, and the pointing direction Px is stored together with the identification information of the
また、結合結果に肩位置Snが含まれていない場合、結合結果が腕領域の特徴を有していない場合または腕の角度が所定角度範囲外である場合、指さし方向Pxが検出されるまで他の点Xを選択し直して、上述の処理を繰り返す。ただし、候補点リストに記憶されている全ての点Xにおいて、指さし方向Pxを検出することが出来ない場合は、指さしジェスチャが行われていない可能性が高いため、指さし方向Pxを検出する処理は終了する。 Further, when the joint result does not include the shoulder position Sn, when the joint result does not have the characteristics of the arm region, or when the arm angle is out of the predetermined angle range, the pointing direction Px is detected until the pointing direction Px is detected. The point X is selected again and the above process is repeated. However, if the pointing direction Px cannot be detected at all the points X stored in the candidate point list, there is a high possibility that the pointing gesture is not performed. finish.
さらに、他の腕領域が2つ以上検出されている場合または指さし方向Pxが既に記憶されている場合は、記憶されている指さし方向Pxおよび腕領域を削除すると共に、候補点リストに含まれる点Xも全て削除される。 Further, when two or more other arm regions are detected or the pointing direction Px is already stored, the stored pointing direction Px and the arm region are deleted and the points included in the candidate point list All Xs are also deleted.
たとえば、3本目の腕が検出された場合は、人間Hに対する指さしジェスチャが正しく認識されていない可能性が高い。同様に、指さし方向Pxが記憶されている状態で新たに指さし方向Pxが検出された場合は、人間Hが2か所を同時に指すことは通常では考えられないので、人間Hは指さしジェスチャを行っていない可能性が高い。そのため、記憶されている指さし方向Pxおよび腕領域を削除することで、誤認識されている可能性が高い指さしジェスチャの認識結果が取り消される。 For example, when the third arm is detected, there is a high possibility that the pointing gesture for the human H is not correctly recognized. Similarly, when the pointing direction Px is newly detected in the state where the pointing direction Px is stored, it is not normally considered that the human H points to two places at the same time, so the human H performs a pointing gesture. Most likely not. Therefore, by deleting the stored pointing direction Px and the arm region, the recognition result of the pointing gesture that is highly likely to be erroneously recognized is canceled.
以上の説明から分かるように、特に人間Hの位置および方向を検出するための人間Hの頭部位置および肩位置Snなどの特徴点を利用することで、その人間Hが行う指さしジェスチャの指さし方向Pxを適切に検出することが出来る。 As can be understood from the above description, the pointing direction of the pointing gesture performed by the human H by using the characteristic points such as the head position and the shoulder position Sn of the human H in particular for detecting the position and direction of the human H. Px can be detected appropriately.
なお、図9(A)および図9(B)では、人間Hを示す領域では、距離を示す濃淡が描画されている。また、距離画像中の人間Hを示す領域は、体の特徴点と略同じ距離の周囲の点を結合(クラスタリング)することで検出される。ただし、他の実施例では、他の手法を用いて距離画像から人間Hを示す領域が検出されてもよい。 In FIGS. 9A and 9B, in the area indicating the person H, shades indicating the distance are drawn. Further, the region indicating the person H in the distance image is detected by combining (clustering) surrounding points that are substantially the same distance as the body feature points. However, in another embodiment, a region indicating the person H may be detected from the distance image using another method.
このように、各距離画像センサ12を利用して指さしジェスチャの認識が行われると、各認識結果が統合される。具体的には、指さしジェスチャを認識した距離画像センサ12の中から、指さしジェスチャを最も適切に認識したときに利用された距離画像センサ12が特定される。そして、距離画像センサ12が特定されると、その特定された距離画像センサ12を利用して検出した指さし方向Pxが、認識結果として登録される。
As described above, when the pointing gesture is recognized using the
まず、指さしジェスチャを最も適切に認識したときに利用された距離画像センサ12を特定する手順について説明する。指さしジェスチャを認識するために利用された距離画像センサ12が複数ある場合、距離画像における指さしジェスチャを行う人間Hの大きさに基づいて、1つの距離画像センサ12が特定される。そして、この実施例では、人間Hを示す領域を構成するピクセル数が最も多い距離画像を出力している距離画像センサが、指さしジェスチャを最も適切に認識したときに利用された距離画像センサ12として特定される。このように、距離画像における人間Hの大きさを利用することで、距離画像センサ12を特定するまでの時間を短縮することが出来る。
First, a procedure for identifying the
たとえば、図2に示す人間Hが指さしジェスチャを行っているときに、距離画像センサ12a,12e,12mから出力された距離画像を図10(A)−図10(F)に示す。図10(A)は距離画像センサ12bから出力された距離画像を示し、図10(B)は距離画像センサ12bから出力された距離画像において体の特徴点が検出された状態を示す。また、図10(B)の距離画像から分かるように、この距離画像には指さしジェスチャを行う腕領域が含まれておらず、指さし方向Pxは検出されていない。
For example, FIG. 10A to FIG. 10F show distance images output from the
また、図10(C)は距離画像センサ12eから出力された距離画像を示し、図10(D)は距離画像センサ12eから出力された距離画像において体の特徴点が検出された状態を示す。また、図10(D)の距離画像から分かるように、この距離画像には指さしジェスチャを行う腕領域が含まれており、指さし方向Pxが検出されている。
FIG. 10C shows a distance image output from the
さらに、図10(E)は距離画像センサ12aから出力された距離画像を示し、図10(F)は距離画像センサ12aから出力された距離画像において体の特徴点が検出された状態を示す。また、図10(F)の距離画像から分かるように、この距離画像には指さしジェスチャを行う腕領域が含まれておらず、指さし方向Pxは検出されていない。
Further, FIG. 10E shows a distance image output from the
そして、他の距離画像センサ12でも指さしジェスチャが認識されていなければ、図10(C)および図10(D)の距離画像を出力する距離画像センサ12eが特定される。ただし、他にも指さしジェスチャを認識している距離画像センサ12がある場合は、距離画像中の人間Hを示す領域の大きさによって、距離画像センサ12が特定される。
Then, if the pointing gesture is not recognized by the other
次に、距離画像センサ12が特定されると、指さしジェスチャが誤認識されていないかを確認する。具体的には、指さしジェスチャの認識に利用されていない距離画像センサ12において、人間Hが行う指さしジェスチャの指さし方向Px(腕)を観察可能な距離画像センサ12が検索される。
Next, when the
図11を参照して、指さし方向Pxを観察可能な距離画像センサ12とは、距離画像センサ12と人間Hとの位置を結ぶベクトルSHと、指さし方向Pxを示すベクトルとがなす角度θが所定値(たとえば、15°)以下の場合、その距離画像センサ12は指さし方向Pxが観察できないと判断される。つまり、2つのベクトルがなす角度θが所定値より大きい場合は、その距離画像センサ12は指さし方向Pxを観察できるとして判断される。
Referring to FIG. 11,
そして、指さしジェスチャの認識に利用されていない距離画像センサ12において、指さし方向Pxを観察可能な距離画像センサ12が発見されなかった場合は、指さし方向Pxが指さし方向テーブルに登録される。つまり、検出された指さし方向Pxが人間Hが行った指さしジェスチャの認識結果とされる。このように、指さしジェスチャの認識結果を統合する前に指さしジェスチャが誤認識されていないかを確認することで、認識結果を統合する精度を高めることが出来る。また、指さしジェスチャの認識結果として指さし方向Pxを登録することが出来る。
If no
また、指さし方向Pxが登録された状態となると、指さし方向Pxが活用される。たとえば、空間内に案内を行うロボットが設置されている場合は、人間Hの指さし方向Pxを利用して、人間Hが指さしジェスチャによって指している対象物などを特定することが出来る。また、指さしジェスチャを行うことが可能なロボットが空間内に設置されている場合は、そのロボットによる指さしジェスチャの指さし方向Pxを認識することで、ロボットが指さしジェスチャによって正しく対象物を指しているかを確認することが出来る。 When the pointing direction Px is registered, the pointing direction Px is used. For example, when a robot for guiding is installed in the space, it is possible to specify an object or the like that the human H is pointing with the pointing gesture using the pointing direction Px of the human H. In addition, when a robot capable of performing a pointing gesture is installed in the space, by recognizing the pointing direction Px of the pointing gesture by the robot, it is possible to determine whether the robot is pointing correctly to the object by the pointing gesture. It can be confirmed.
以上の説明から分かるように、人間Hが空間内の任意の位置で指さしジェスチャを行っても、指さしジェスチャを適切に認識している距離画像センサ12を特定することが出来る。したがって、空間内の任意の位置で人間Hが指さしジェスチャを行っても、そのジェスチャを適切に認識することが出来る。
As can be understood from the above description, even if the human H performs a pointing gesture at an arbitrary position in the space, the
上述では本実施例の特徴を概説した。以下では、図12に示す中央制御装置10のメモリ62のメモリマップおよび図13−図15に示すフロー図を用いて本実施例について詳細に説明する。
The features of the present embodiment have been outlined above. Hereinafter, the present embodiment will be described in detail with reference to the memory map of the
図12は図6に示す中央制御装置10のメモリ62のメモリマップの一例を示す図解図である。図12に示すように、メモリ62はプログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置10を動作させるためのプログラムとして、複数の距離画像センサ12によって認識された指さしジェスチャ(腕を使ったジェスチャ)の認識結果を統合するための指さし方向管理プログラム310および各距離画像センサ12によって指さしジェスチャを認識するための指さし認識プログラム312などが記憶される。なお、図示は省略するが、中央制御装置10を動作させるためのプログラムには、平面図データ340を編集するためのプログラムなども含まれる。
FIG. 12 is an illustrative view showing one example of a memory map of the
データ記憶領域304には、指さし方向バッファ330、候補点リストバッファ332、腕候補点リストバッファ334、腕領域バッファ336および仮指さし方向バッファ338などが設けられる。また、データ記憶領域304には、平面図データ340、距離画像センサテーブル342および指さし方向テーブル344などが記憶される。
In the
指さし方向バッファ330には、特定された距離画像センサ12によって認識された指さしジェスチャの指さし方向Pxが一時的に記憶される。候補点リストバッファ332には、頭頂部HTから一定距離以上離れている点Xを含む候補点リストが一時的に記憶される。腕候補点リストバッファ334には、点Xの周辺の点が結合された結果を含む腕候補点リストが一時的に記憶される。腕領域バッファ336には、腕領域を示す情報が一時的に記憶される。仮指さし方向バッファ338には、各距離画像センサ12の識別情報と対応付けた指さし方向Pxが一時的に記憶される。
The pointing direction buffer 330 temporarily stores the pointing direction Px of the pointing gesture recognized by the specified
平面図データ340は、たとえば図2に示す平面図を示すデータである。距離画像センサテーブル342は、指さしジェスチャを認識した距離画像を示す識別情報が記憶されるテーブルである。指さし方向テーブル344には、特定された距離画像センサ12によって認識された指さしジェスチャの指さし方向Pxが時系列順に記憶(登録)されるテーブルである。なお、指さし方向テーブル344に記憶されている複数の指さし方向Pxは、人間Hが行う指さしジェスチャの指さし方向Pxが変化する様子を表す。
The
なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファや、中央制御装置10の動作に必要な他のカウンタやフラグなども設けられる。
Although not shown, the
中央制御装置10のプロセッサ60は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図13に示す指さし方向管理処理および図14、図15に示す指さし認識処理などを含む、複数のタスクを処理する。
The
図13は指さし方向管理処理のフロー図である。中央制御装置10の電源がオンにされ、指さし方向管理処理の実行命令が出されると、指さし方向管理処理が実行される。なお、指さし方向管理処理の実行命令は一定周期毎に出される。
FIG. 13 is a flowchart of the pointing direction management process. When the
指さし方向管理処理が実行されると、プロセッサ60はステップS1で、距離画像センサ12毎に指さし認識処理を実行する。つまり、各距離画像センサ12から出力された距離画像に対して後述の指さし認識処理が加えられる。なお、ステップS1の処理を実行するプロセッサ60は認識手段として機能する。
When the pointing direction management process is executed, the
続いて、ステップS3でプロセッサ60は、指さしジェスチャを認識した距離画像センサ12があるか否かを判断する。たとえば、仮指さし方向バッファ338に指さし方向Pxが記憶されているかが判断される。ステップS3で“NO”であれば、つまり指さしジェスチャの認識に利用された距離画像センサ12が無ければ、プロセッサ60は指さし方向管理処理を終了する。
Subsequently, in step S3, the
一方、ステップS3で“YES”であれば、たとえば図10(D)に示すように、距離画像センサ12eが出力した距離画像から指さし方向Pxが検出されていれば、ステップS5でプロセッサ60は、指さしジェスチャを認識している距離画像センサ12を距離画像センサテーブル342に記憶する。つまり、プロセッサ60は、仮指さし方向バッファ338に記憶されている、距離画像センサ12の識別情報が対応付けられた指さし方向Pxを距離画像センサテーブル342に記憶する。なお、ステップS5の処理を実行するプロセッサ60は記憶手段として機能する。
On the other hand, if “YES” in the step S3, as shown in FIG. 10D, for example, if the pointing direction Px is detected from the distance image output by the
続いて、ステップS7でプロセッサ60は、指さしジェスチャを最も適切に認識している距離画像センサ12を特定する。つまり、指さし方向Pxを検出した距離画像において、人間Hと対応する領域が最も大きく描画されている距離画像が特定される。そして、特定された距離画像と対応する距離画像センサ12が、ステップS7では特定された距離画像センサ12とされる。なお、ステップS7の処理を実行するプロセッサ60は特定手段として機能する。
Subsequently, in step S7, the
続いて、ステップS9でプロセッサ60は、特定された距離画像センサ12と対応する指さし方向Pxを指さし方向バッファ330に記憶する。たとえば、距離画像センサ12eが特定されている場合、仮指さし方向バッファ338から距離画像センサ12eの識別情報が対応付けられた指さし方向Pxが読み出され、指さし方向バッファ330に記憶される。
Subsequently, in step S <b> 9, the
続いて、ステップS11でプロセッサ60は、指さしジェスチャを認識していない距離画像センサ12から、指さし方向Pxを観察可能な距離画像センサ12を検索する。つまり、指さしジェスチャが誤認識されていないかが確認される。なお、ステップS11の処理を実行するプロセッサ60は検索手段として機能する。
Subsequently, in step S <b> 11, the
続いて、ステップS13でプロセッサ60は、観察可能な距離画像センサ12が発見されたか否かを判断する。つまり、指さしジェスチャを認識可能な距離画像センサ12によって指さしジェスチャが認識されていない状態であるかが判断される。ステップS13で“YES”であれば、つまり指さしジェスチャが誤認識されている可能性があれば、プロセッサ60は指さし方向管理処理を終了する。
Subsequently, in step S13, the
一方、ステップS13で“NO”であれば、つまり指さしジェスチャが誤認識されている可能性がなければ、ステップS15でプロセッサ60は、指さし方向バッファ330に記憶されている指さし方向Pxを指さし方向テーブル344に登録する。つまり、検出された指さし方向Pxが、指さしジェスチャの認識結果とされる。そして、ステップS15の処理が終了すると、プロセッサ60は指さし方向管理処理を終了する。
On the other hand, if “NO” in the step S13, that is, if there is no possibility that the pointing gesture is erroneously recognized, the
なお、ステップS15の処理を実行するプロセッサ60は登録手段として機能する。また、ステップS15の処理が終了すると、各バッファは初期化される。
The
図14および図15は指さし認識処理のフロー図である。図13に示す指さし管理処理で、距離画像センサ12毎に指さし認識処理を実行させるステップS1が実行されると、指さし認識処理が実行される。なお、この認識処理は実行されてから、たとえば約1/30秒で終了する。
14 and 15 are flowcharts of the pointing finger recognition process. When step S1 for executing the pointing recognition process for each
たとえば、距離画像センサ12eに対応して指さし認識処理が実行されると、プロセッサ60はステップS31で、距離画像を取得する。たとえば、距離画像センサ12eから出力された距離画像が取得される。続いて、ステップS33でプロセッサ60は、体の特徴点を抽出する。つまり、取得された距離画像から、体の特徴点として、頭頂部HT、前頭部HFおよび2つの肩位置Snが抽出される。続いて、ステップS35でプロセッサ60は、平面座標上の頭部位置から一定距離以上の点Xを抽出する。たとえば、頭頂部HTから一定距離以上離れており、人間Hと略同じ距離にある点Xが抽出される。なお、ステップS33の処理を実行するプロセッサ60は第1抽出手段として機能する。また、ステップS35の処理を実行するプロセッサ60は第2抽出手段として機能する。
For example, when a pointing recognition process is executed corresponding to the
続いて、ステップS37でプロセッサ60は、抽出した点Xを候補点リストに記憶する。つまり、候補点リストバッファ332に記憶されている候補点リストに、ステップS35の処理で抽出された点Xが記憶される。なお、点Xが抽出されていない場合は、候補点リストには何も記憶されない。
Subsequently, in step S37, the
続いて、ステップS39でプロセッサ60は、候補点リストに点Xが記憶されているか否かを判断する。たとえば、人間Hの頭頂部HTの近くに腕候補となる領域が存在するかが判断される。ステップS39で“NO”であれば、たとえばステップS35の処理で点Xが抽出されなかったり、後述の処理で候補点リストから点Xが全て削除されたりすると、プロセッサ60は指さし認識処理を終了する。
Subsequently, in step S39, the
一方、ステップS39で“YES”であれば、たとえばステップS35の処理で抽出された点Xが候補点リストに記憶されていれば、ステップS41でプロセッサ60は、頭部位置から最も遠い点Xを候補点リストから読み出す。たとえば、頭頂部HTから最も遠い点Xが候補点リストから読み出される。続いて、ステップS43でプロセッサ60は、読み出された点Xと略同じ距離の周囲の点を結合する。つまり、頭部位置から最も遠い点Xにおいて、略同じ距離の周囲の点が結合(クラスタリング)される。続いて、ステップS45でプロセッサ60は、結合結果を腕候補点リストに記憶する。つまり、腕候補点リストバッファ334に記憶されている腕候補点リストに、ステップS43の処理で結合された全ての点(領域)が記憶される。
On the other hand, if “YES” in the step S39, for example, if the point X extracted in the process of the step S35 is stored in the candidate point list, the
続いて、ステップS47でプロセッサ60は、結合結果に肩位置Snが含まれるか否かを判断する。つまり、腕候補点リストの中に、人間Hの2つの肩位置Snのうちいずれか1つが含まれているかが判断される。また、ステップS47で“YES”であれば、つまり結合結果の領域に肩位置Snが含まれていれば、ステップS49でプロセッサ60は、結合結果は腕領域の特徴を有しているか否かを判断する。たとえば、腕候補点リストに記憶される結合結果の領域が、細長い形状をしており、かつ一定の長さを有しているかが判断される。ステップS49で“YES”であれば、つまり結合結果が腕領域の特徴を有していれば、ステップS51でプロセッサ60は、結合結果を腕領域として記憶する。つまり、腕候補点リストに記憶されている各点Xに基づいて腕領域が定義され、その腕領域が腕領域バッファ336に記憶される。なお、ステップS51の処理を実行するプロセッサ60は第1記憶手段として機能する。
Subsequently, in step S47, the
続いて、ステップS53でプロセッサ60は、記憶されている腕領域が3つか否かを判断する。つまり、腕が誤認識されているかが判断される。ステップS53で“NO”であれば、つまり認識されている腕が2本以下であれば、ステップS55でプロセッサ60は、腕の角度が所定角度範囲内か否かを判断する。つまり、人間Hの腕の角度が指さしジェスチャを行っていると考えられる角度であるかが判断される。ステップS55で“NO”であれば、つまり人間Hの腕の角度が指さしジェスチャを行っているとは考えられない角度であれば、プロセッサ60はステップS61の処理に進む。つまり、認識された腕で指さしジェスチャが行われていないと判断されたため、他の点Xに基づく腕領域を検索するために、プロセッサ60はステップS61の処理に進む。
Subsequently, in step S53, the
同様に、結合された点の集まり(領域)に肩位置Snが含まれておらずステップS47で“NO”であるか、結合結果が腕領域の特徴を有しておらずステップS49で“NO”であれば、プロセッサ60はステップS61の処理に進む。つまり、結合結果の領域が人間Hの腕ではないと判断された場合も、他の点Xに基づく腕領域を検索するために、プロセッサ60はステップS61の処理に進む。
Similarly, the shoulder position Sn is not included in the group (area) of the combined points and “NO” is determined in step S47, or the combined result does not have the feature of the arm area and “NO” is determined in step S49. "If so, the
また、ステップS55で“YES”であれば、つまり腕の角度が指さしジェスチャを行っていると考えられる状態であれば、ステップS57でプロセッサ60は、指さし方向Pxが既に記憶されているか否かを判断する。つまり、他の腕によって行われた指さしジェスチャが既に認識されている状態かが判断される。具体的には、仮指さし方向バッファ338に指さし方向Pxが既に記憶されているかが判断される。
If “YES” in the step S55, that is, if the arm angle is considered to be a pointing gesture, the
ステップS57で“NO”であれば、つまり他の腕による指さしジェスチャが認識されていなければ、ステップS59でプロセッサ60は、体の特徴点と腕領域とに基づいて指さし方向Pxを記憶する。つまり腕領域における点Xを指先Pとすると共に上述の中点Cが求められ、中点Cに対する指先Pの方向が指さし方向Pxとして記憶(検出)される。なお、ステップS59の処理を実行するプロセッサ60は第2記憶手段として機能する。
If “NO” in the step S57, that is, if the pointing gesture by another arm is not recognized, the
続いて、ステップS61でプロセッサ60は、候補点リストから結合結果と対応する点を削除する。つまり、腕候補点リストに記憶される結合結果(腕領域)が候補点リストから削除される。そして、ステップS61の処理が終了すると、プロセッサ60はステップS39の処理に戻る。なお、他の実施例では、指さし方向Pxが検出(記憶)されると、指さし認識処理が終了するようにしてもよい。
Subsequently, in step S61, the
また、腕領域が検出されていてステップS53で“YES”と判断されるか、指さし方向Pxが既に検出されていてステップS57で“YES”と判断されると、プロセッサ60は、ステップS63で記憶されている腕領域と指さし方向Pxとを削除し、ステップS65で候補点リストに記憶されている点Xを全て削除する。つまり、指さしジェスチャが誤認識されている可能性が高いため、認識されている腕領域および検出された指さし方向Pxが削除される。また、他の腕領域を検出する必要もないため、候補点リストから点Xが全て削除される。そして、ステップS65の処理が終了すると、プロセッサ39の処理に戻る。このとき、ステップS39では“NO”と判断されるため、プロセッサ60は指さし認識処理が終了する。また、ステップS63の処理を実行するプロセッサ60は削除手段として機能する。
On the other hand, if the arm region is detected and “YES” is determined in step S53, or if the pointing direction Px is already detected and “YES” is determined in step S57, the
なお、他の実施例では、指さしジェスチャを適切に認識している距離画像センサ12を特定する際には、人間Hと距離画像センサ12との距離に基づいて判断されてもよい。
In another embodiment, when the
また、その他の実施例では、腕を使ったジェスチャには、指さしジェスチャだけではなく、手のひらを広げて対象物を指し示すようなジェスチャも含まれる。 In another embodiment, the gesture using the arm includes not only a pointing gesture but also a gesture that extends a palm and points to an object.
また、さらにその他の実施例では、腕を使ったジェスチャを行っている時間を利用して、そのジェスチャが正しく行われているかを判断するようにしてもよい。たとえば、腕を使ったジェスチャを行っている時間が閾値(たとえば、2秒)より長い場合に、腕を使ったジェスチャが行われていると判断される。 In still another embodiment, it may be determined whether the gesture is performed correctly using the time during which the gesture is performed using the arm. For example, it is determined that the gesture using the arm is being performed when the time during which the gesture using the arm is performed is longer than a threshold (for example, 2 seconds).
また、本実施例では、人間Hと略同じ外観のロボットであっても、体の特徴点を抽出することが出来る。 Further, in this embodiment, even if the robot has substantially the same appearance as the human H, the feature points of the body can be extracted.
また、上述の実施例では、閾値(所定値)などに対して「より大きい」などの言葉を用いたが「閾値より大きい」とは「閾値以上」の意味も含まれる。同様に「閾値よりも小さい」とは「閾値以下」および「閾値未満」の意味も含まれる。 In the above-described embodiments, words such as “greater than” are used for the threshold (predetermined value) and the like, but “greater than the threshold” includes the meaning of “greater than or equal to the threshold”. Similarly, “smaller than a threshold” includes the meanings “below the threshold” and “below the threshold”.
また、本実施例で説明した複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムに配信されてもよい。また、CD, DVD, BD (Blu-ray(登録商標) Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、上記複数のプログラムが、本実施例と同等の構成のシステムに適用された場合、本実施例と同等の効果が得られる。 In addition, the plurality of programs described in the present embodiment may be stored in the HDD of a data distribution server and distributed to a system having the same configuration as that of the present embodiment via a network. In addition, storage programs such as CDs, DVDs, and BDs (Blu-ray (registered trademark) Disc) are sold or distributed with these programs stored in storage media such as USB memory and memory card. May be. When the plurality of programs downloaded through the server and storage medium described above are applied to a system having the same configuration as that of this embodiment, the same effect as that of this embodiment can be obtained.
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。 The specific numerical values given in this specification are merely examples, and can be appropriately changed according to a change in product specifications.
10 …中央制御装置
12a−12n …距離画像センサ
60 …プロセッサ
62 …メモリ
100 …ジェスチャ管理システム
DESCRIPTION OF
Claims (13)
腕を使ったジェスチャを距離画像センサ毎に認識する認識手段、
前記腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶手段、
前記記憶手段によって記憶された距離画像センサから、前記腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定手段、および
前記特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録手段を備える、ジェスチャ管理システム。 Multiple distance image sensors,
Recognition means for recognizing gestures using arms for each distance image sensor,
Storage means for storing a distance image sensor used for recognizing a gesture using the arm;
Using the distance image sensor specified by the specifying means, the specifying means for specifying the distance image sensor used when the gesture using the arm is properly recognized from the distance image sensor stored by the storage means A gesture management system comprising registration means for registering a gesture using an arm recognized as a recognition result.
前記特定手段は、前記距離画像センサから出力される距離画像における、腕を使ったジェスチャを行う人間の大きさに基づいて、腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する、請求項1記載のジェスチャ管理システム。 The distance image sensor outputs a distance image;
The distance image sensor used when the identification unit appropriately recognizes the gesture using the arm based on the size of the person performing the gesture using the arm in the distance image output from the distance image sensor. The gesture management system according to claim 1, wherein:
前記登録手段は、前記検索手段によって前記腕を使ったジェスチャを観察可能な距離画像センサが発見されないとき、前記特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する、請求項1ないし3のいずれかに記載のジェスチャ管理システム。 Searching means for searching for a distance image sensor capable of observing the gesture among distance image sensors that are not used for recognizing the gesture using the arm,
When the distance image sensor capable of observing the gesture using the arm is not found by the search unit, the registration unit performs a gesture using the arm recognized by using the distance image sensor specified by the specifying unit. The gesture management system according to claim 1, wherein the gesture management system is registered as a recognition result.
前記登録手段は、前記指さしジェスチャにおける指さし方向を登録する、請求項1ないし4のいずれかに記載のジェスチャ管理システム。 The gesture using the arm includes a pointing gesture,
The gesture management system according to claim 1, wherein the registration unit registers a pointing direction in the pointing gesture.
腕を使ったジェスチャを距離画像センサ毎に認識する認識手段、
前記腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶手段、
前記記憶手段によって記憶された距離画像センサから、前記腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定手段、および
前記特定手段によって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録手段として機能させる、ジェスチャ管理プログラム。 A gesture management system processor having a plurality of range image sensors;
Recognition means for recognizing gestures using arms for each distance image sensor,
Storage means for storing a distance image sensor used for recognizing a gesture using the arm;
Using the distance image sensor specified by the specifying means, the specifying means for specifying the distance image sensor used when the gesture using the arm is properly recognized from the distance image sensor stored by the storage means A gesture management program that causes a gesture using an arm recognized as a recognition means to function as a registration means for registering the result as a recognition result.
腕を使ったジェスチャを距離画像センサ毎に認識する認識ステップ、
前記腕を使ったジェスチャの認識に利用した距離画像センサを記憶する記憶ステップ、
前記記憶ステップによって記憶された距離画像センサから、前記腕を使ったジェスチャを適切に認識したときに利用された距離画像センサを特定する特定ステップ、および
前記特定ステップによって特定された距離画像センサを利用して認識された腕を使ったジェスチャを、認識結果として登録する登録ステップを実行する、ジェスチャ管理方法。 A gesture management method in a gesture management system having a plurality of range image sensors, wherein the processor of the gesture management system includes:
A recognition step for recognizing a gesture using an arm for each distance image sensor;
Storing a distance image sensor used for recognizing the gesture using the arm;
A specifying step of specifying a distance image sensor used when the gesture using the arm is appropriately recognized from the distance image sensor stored in the storing step, and using the distance image sensor specified in the specifying step A gesture management method for executing a registration step of registering a gesture using an arm recognized as a recognition result.
人間が存在する空間の距離画像に基づいて、体の特徴点を抽出する第1抽出手段、
前記特徴点に基づいて、前記距離画像から候補点を抽出する第2抽出手段、
前記特徴点と前記候補点とを含む領域があるとき、その領域を腕領域として記憶する第1記憶手段、および
前記特徴点と前記腕領域に含まれる候補点とに基づいて、指さし方向を記憶する第2記憶手段を備える、指さし認識装置。 A distance image sensor that outputs a distance image,
First extraction means for extracting feature points of a body based on a distance image of a space in which a human exists;
Second extraction means for extracting candidate points from the distance image based on the feature points;
When there is an area including the feature point and the candidate point, a first storage unit that stores the area as an arm area, and stores a pointing direction based on the feature point and the candidate point included in the arm area A pointing device recognizing device comprising second storage means.
前記第1記憶手段によって3つ以上の腕領域が記憶されたとき、前記第2記憶手段によって記憶されている指さし方向を削除する削除手段をさらに備える、請求項8ないし10のいずれかに記載の指さし認識装置。 The second extraction means extracts a plurality of candidate points from the distance image based on the feature points,
11. The apparatus according to claim 8, further comprising a deletion unit that deletes the pointing direction stored by the second storage unit when three or more arm regions are stored by the first storage unit. Pointer recognition device.
前記第2抽出手段は、前記頭部位置に基づいて前記距離画像から候補点を抽出し、
前記第1記憶手段は、前記肩位置と前記候補点とを含む領域があるとき、その領域を腕領域として記憶し、
前記第2記憶手段は、前記頭部位置および前記肩位置の中点と、前記腕領域に含まれる候補点とに基づいて、指さし方向を記憶する、請求項8ないし12のいずれかに記載の指さし認識装置。 The feature points include the human head position and shoulder position,
The second extraction means extracts candidate points from the distance image based on the head position,
When there is an area including the shoulder position and the candidate point, the first storage means stores the area as an arm area,
The said 2nd memory | storage means memorize | stores a pointing direction based on the midpoint of the said head position and the said shoulder position, and the candidate point contained in the said arm area | region. Pointer recognition device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014168933A JP6303918B2 (en) | 2014-08-22 | 2014-08-22 | Gesture management system, gesture management program, gesture management method, and pointing recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014168933A JP6303918B2 (en) | 2014-08-22 | 2014-08-22 | Gesture management system, gesture management program, gesture management method, and pointing recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016045670A true JP2016045670A (en) | 2016-04-04 |
JP6303918B2 JP6303918B2 (en) | 2018-04-04 |
Family
ID=55636197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014168933A Active JP6303918B2 (en) | 2014-08-22 | 2014-08-22 | Gesture management system, gesture management program, gesture management method, and pointing recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6303918B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220067356A1 (en) * | 2020-09-02 | 2022-03-03 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11195525B2 (en) | 2018-06-13 | 2021-12-07 | Panasonic Intellectual Property Corporation Of America | Operation terminal, voice inputting method, and computer-readable recording medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002008040A (en) * | 2000-06-16 | 2002-01-11 | Matsushita Electric Ind Co Ltd | Three-dimensional information detecting device and three-dimensional information detecting method |
JP2003076488A (en) * | 2001-09-03 | 2003-03-14 | Takenaka Komuten Co Ltd | Device and method of determining indicating position |
JP2004246856A (en) * | 2002-12-18 | 2004-09-02 | National Institute Of Advanced Industrial & Technology | Interface device |
JP2004265222A (en) * | 2003-03-03 | 2004-09-24 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, system, and program |
JP2007067510A (en) * | 2005-08-29 | 2007-03-15 | Toshiba Corp | Video image photography system |
US20130215027A1 (en) * | 2010-10-22 | 2013-08-22 | Curt N. Van Lydegraf | Evaluating an Input Relative to a Display |
-
2014
- 2014-08-22 JP JP2014168933A patent/JP6303918B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002008040A (en) * | 2000-06-16 | 2002-01-11 | Matsushita Electric Ind Co Ltd | Three-dimensional information detecting device and three-dimensional information detecting method |
JP2003076488A (en) * | 2001-09-03 | 2003-03-14 | Takenaka Komuten Co Ltd | Device and method of determining indicating position |
JP2004246856A (en) * | 2002-12-18 | 2004-09-02 | National Institute Of Advanced Industrial & Technology | Interface device |
JP2004265222A (en) * | 2003-03-03 | 2004-09-24 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, system, and program |
JP2007067510A (en) * | 2005-08-29 | 2007-03-15 | Toshiba Corp | Video image photography system |
US20130215027A1 (en) * | 2010-10-22 | 2013-08-22 | Curt N. Van Lydegraf | Evaluating an Input Relative to a Display |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220067356A1 (en) * | 2020-09-02 | 2022-03-03 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
Also Published As
Publication number | Publication date |
---|---|
JP6303918B2 (en) | 2018-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112666714B (en) | Gaze direction mapping | |
US10456918B2 (en) | Information processing apparatus, information processing method, and program | |
US9501725B2 (en) | Interactive and automatic 3-D object scanning method for the purpose of database creation | |
KR101514169B1 (en) | Information processing device, information processing method, and recording medium | |
US20190355173A1 (en) | Leveraging crowdsourced data for localization and mapping within an environment | |
JP7017689B2 (en) | Information processing equipment, information processing system and information processing method | |
US10692291B2 (en) | Apparatus, method, and medium for generating a 3D model of a finger using captured image | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
KR101436050B1 (en) | Method of establishing database including hand shape depth images and method and device of recognizing hand shapes | |
JP2015079490A (en) | Method, device and system for selecting frame | |
US9354712B2 (en) | Recognition device, intelligent device and information providing method for human machine interaction | |
JP2016091457A (en) | Input device, fingertip-position detection method, and computer program for fingertip-position detection | |
JP2016527477A (en) | Device location using cameras and wireless signals | |
KR101631011B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
JP2020017111A (en) | Work measurement device, work measurement method and program | |
JP2017199289A (en) | Information processor, control method thereof, program, and storage medium | |
JP6127564B2 (en) | Touch determination device, touch determination method, and touch determination program | |
US20170345184A1 (en) | Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method | |
CN105242888A (en) | System control method and electronic device | |
JP5248236B2 (en) | Image processing apparatus and image processing method | |
US20160291698A1 (en) | Image processing apparatus, non-transitory computer-readable recording medium, and image processing method | |
JP6303918B2 (en) | Gesture management system, gesture management program, gesture management method, and pointing recognition device | |
JP2017191426A (en) | Input device, input control method, computer program, and storage medium | |
WO2016084142A1 (en) | Work assistance system and work assistance method | |
US20170069138A1 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170516 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180131 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6303918 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |