JP6091407B2 - Gesture registration device - Google Patents
Gesture registration device Download PDFInfo
- Publication number
- JP6091407B2 JP6091407B2 JP2013261423A JP2013261423A JP6091407B2 JP 6091407 B2 JP6091407 B2 JP 6091407B2 JP 2013261423 A JP2013261423 A JP 2013261423A JP 2013261423 A JP2013261423 A JP 2013261423A JP 6091407 B2 JP6091407 B2 JP 6091407B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- candidate
- pose
- data
- definition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 218
- 238000004458 analytical method Methods 0.000 claims description 61
- 238000007562 laser obscuration time method Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 description 39
- 230000007704 transition Effects 0.000 description 25
- 230000008569 process Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 230000036544 posture Effects 0.000 description 8
- 101100002669 Arabidopsis thaliana ADT1 gene Proteins 0.000 description 7
- 101100002673 Arabidopsis thaliana ADT3 gene Proteins 0.000 description 7
- 101100463170 Schizosaccharomyces pombe (strain 972 / ATCC 24843) pdt1 gene Proteins 0.000 description 7
- 238000005452 bending Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 101100002671 Arabidopsis thaliana ADT2 gene Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明は、人間が実施したジェスチャを装置が認識するために必要となるジェスチャ定義を生成し登録するジェスチャ登録装置に関するものである。 The present invention relates to a gesture registration device that generates and registers a gesture definition necessary for a device to recognize a gesture performed by a human.
人体を撮影した映像から、人体の構成を特徴付ける身体部位の位置やその関係(骨格)をリアルタイムに算出することができるモーションキャプチャシステムにより、人体の姿勢の時系列データを得ることが可能である。このような人体の動きを取得可能なシステムの登場により、身体の姿勢データを計算機への入力として利用し、何らかの制御処理を行うようなアプリケーションの開発が容易となった。例えば、予め人間の腕や足の一連の動きをジェスチャとして計算機上に定義し、ある制御処理と関連付けておくことで、アプリケーション実行時に人間の行動の中から特定の動きを識別し、それに対応する制御処理を実行することができる。ジェスチャの認識は、入力される時系列の姿勢データと、予め登録されたジェスチャ定義データとのパターンマッチングにより行われる。 It is possible to obtain time-series data of the posture of the human body by a motion capture system capable of calculating in real time the position of the body part that characterizes the structure of the human body and the relationship (skeleton) from the video image of the human body. With the advent of such a system that can acquire the movement of the human body, it has become easier to develop an application that uses body posture data as input to a computer and performs some kind of control processing. For example, by defining a series of movements of human arms and legs as gestures in advance on a computer and associating them with a certain control process, specific movements are identified from human actions during application execution and corresponding to them Control processing can be executed. Gesture recognition is performed by pattern matching between input time-series posture data and pre-registered gesture definition data.
ジェスチャは、複数の姿勢(ポーズ)の連続により表すことができる。ジェスチャ定義は、動きの中でキーとなる複数のポーズ(姿勢を構成する身体部位の条件)と、ポーズ間の遷移条件から構成される。これらを予め定義しておくことで、アプリケーション実行時に行われた動作があるジェスチャ定義に含まれる条件をすべて満たした場合、そのジェスチャとして識別することができる。モーションキャプチャシステムは既知の画像処理技術により、人間の複数の特徴的な身体部位(例えば手、肘、肩、頭など)を弁別し、各部位の3次元座標を取得することが可能である。1つのポーズは、各身体部位の3次元座標や、各3次元座標から算出される骨格同士(関節)の角度などを用いて定義される。ポーズは必ずしも全身の情報から定義される必要はなく、1つ以上の部分的な身体部位の情報から定義されても良い。ポーズは、身体部位同士の位置関係を用いて定義することができる。右腕を下ろしている状態をポーズとして定義するには、例えば右手の位置が右足の付け根の位置よりも下方に位置するという関係性を条件として設定できる。また、あるポーズから次のポーズへと身体を動かす際の遷移条件を設けることもできる。遷移条件の例としては、各身体部位の移動方向、移動速度、移動中の関節角度などが挙げられる。ジェスチャ認識時に、ポーズ間の遷移条件を満たす動きが行われた場合には認識を続行する。 A gesture can be represented by a sequence of a plurality of postures (poses). The gesture definition is composed of a plurality of poses (conditions of body parts constituting posture) that are keys in motion and transition conditions between poses. By defining these in advance, when all of the conditions included in the gesture definition having an operation performed at the time of executing the application are satisfied, the gesture can be identified. The motion capture system can distinguish a plurality of characteristic human body parts (for example, a hand, an elbow, a shoulder, and a head) by a known image processing technique, and can acquire a three-dimensional coordinate of each part. One pose is defined using the three-dimensional coordinates of each body part, the angles of skeletons (joints) calculated from the three-dimensional coordinates, and the like. The pose does not necessarily need to be defined from whole body information, and may be defined from information of one or more partial body parts. A pose can be defined using the positional relationship between body parts. In order to define a state where the right arm is lowered as a pose, for example, a relationship that the position of the right hand is positioned below the position of the base of the right foot can be set as a condition. It is also possible to provide a transition condition for moving the body from one pose to the next. Examples of transition conditions include the movement direction, movement speed, and joint angle during movement of each body part. If a movement that satisfies the transition condition between poses is performed during gesture recognition, the recognition is continued.
アプリケーションのインタフェースとしてジェスチャ認識を利用する場合には、アプリケーション開発者などのジェスチャ登録者がその機能に応じた適切なジェスチャを定義・登録することが必要となる。従来技術としては、ジェスチャ登録者が実際に行った動作を、機器の特定の制御処理に対応させてジェスチャとして登録する手法が提案されている。例えば特許文献1の手法では、ジェスチャ登録時には、まずユーザ入力認識部が撮影映像から左右の腕、肘、手、および各指などの部位の移動方向と移動量とを含むジェスチャ特徴情報を周期的に抽出してジェスチャ定義として記録する。ジェスチャ認識時には、同じように撮影映像からジェスチャ特徴情報を抽出し、事前に定義されたジェスチャ特徴情報とマッチングを行い、ジェスチャを認識する。開発者はこのように機能に応じて検討したジェスチャを自ら例示することでジェスチャの登録ができる。
When using gesture recognition as an application interface, it is necessary for a gesture registrant such as an application developer to define and register an appropriate gesture corresponding to the function. As a conventional technique, a method has been proposed in which an action actually performed by a gesture registrant is registered as a gesture corresponding to a specific control process of the device. For example, in the method of
人間の自然な振る舞いを計算機への入力として利用する場合、人間の動作の中から、意図して行ったと思われる動作のみをジェスチャとして認識することが重要である。これを実現するために、アプリケーション開発者は、適切に動作をフィルタする制約条件を有したジェスチャ定義を設計することが必要となる。身体部位同士の位置関係を用いたジェスチャ定義においては、認識に利用する身体部位、関節角度などのパラメータがポーズの制約条件となり、身体部位の移動速度、関節角度などのパラメータがポーズ間遷移における制約条件の例となる。そして、開発者は、アプリケーションの内容に応じて適切な認識範囲(制約として設定するパラメータの種類、パラメータ値の範囲など)の制約条件を設けることが必要である。 When human natural behavior is used as an input to a computer, it is important to recognize only human motions that are supposed to be performed as gestures. To achieve this, application developers need to design gesture definitions with constraints that appropriately filter their actions. In the definition of gestures using the positional relationship between body parts, parameters such as body parts and joint angles used for recognition are the constraint conditions for poses, and parameters such as body part movement speeds and joint angles are restrictions on transitions between poses. An example of the condition. Then, the developer needs to set a constraint condition of an appropriate recognition range (a parameter type set as a constraint, a parameter value range, etc.) according to the contents of the application.
しかし実際には、開発者が意図したとおりのジェスチャを定義することは難しく、評価時に定義の修正を繰り返し行うことが多い。例えば、開発者がユーザに行ってほしいジェスチャを意図して設計したとしても、実際には認識の範囲となる制約条件が広すぎる、範囲が厳しすぎる、範囲に漏れがある等の理由で、意図通りに認識しないことがある。具体的には、認識の制約条件が広すぎると、開発者が想定していなかったユーザの動きまでもジェスチャとして認識することがある。逆に制約条件が狭すぎると、開発者が意図に近い動きをユーザが行っていてもジェスチャとして認識できないことがある。これらの原因は、開発者側にとっては自らが設計したジェスチャの計算機上での認識状態が分かりづらく、逆に計算機側は開発者がジェスチャの特徴として着目しているパラメータが何か正しく判断できないことにある。このような開発者と計算機の認識を近づけ、適切な範囲の制約条件をもつジェスチャを定義できるようにすることが求められている。 However, in practice, it is difficult to define a gesture as intended by the developer, and the definition is often modified repeatedly during evaluation. For example, even if the developer intends to design a gesture that the user wants to perform, it is actually intended because the constraints that are the scope of recognition are too wide, the scope is too strict, or there is a leak in the scope. May not recognize the street. Specifically, if the recognition constraint is too wide, even a user's movement that the developer did not assume may be recognized as a gesture. On the other hand, if the constraint condition is too narrow, the developer may not be recognized as a gesture even if the user performs a movement close to the intention. The cause of this is that it is difficult for the developer to recognize the recognition state of the gesture he designed on the computer, and conversely, the computer cannot correctly determine what parameter the developer focuses on as a feature of the gesture. It is in. There is a need to be able to define gestures with constraints within an appropriate range by bringing such developers and computers closer together.
この点、特許文献1では、ジェスチャ登録者の身体部位の移動方向や移動量のパラメータを制約条件としてジェスチャを登録することができる。しかし、制約条件の広さが適切に設定されたジェスチャは登録することができない。
In this regard, in
この発明は、上述の課題に鑑みてなされたものであり、開発者の意図に沿ったジェスチャを定義して登録することが可能なジェスチャ登録装置の提供を目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to provide a gesture registration device capable of defining and registering a gesture in accordance with a developer's intention.
本発明のジェスチャ登録装置は、ジェスチャのモーションデータを取得するモーションデータ取得部と、モーションデータに基づき、ジェスチャを構成する各ポーズにおける各身体特徴点の3次元座標を示すポーズデータを生成するジェスチャ解析部と、ポーズデータに基づき、各ポーズ時およびポーズ間遷移時におけるジェスチャの特徴を表すパラメータの制約条件を示す特徴データを算出する特徴解析部と、人体を構成する骨格の可動範囲を定義した人体動作モデルデータベースと、一部のパラメータの制約条件を満たしつつその他のパラメータを変更し、人体動作モデルデータベースに基づき骨格の可動範囲内の候補ジェスチャを生成する候補ジェスチャ生成部と、候補ジェスチャをユーザに提示し、かつ候補ジェスチャに対するユーザの操作を受け付ける入出力部と、を備え、候補ジェスチャ生成部は、入出力部において候補ジェスチャを拒否するユーザの操作を受け付けると、新たな候補ジェスチャを生成し、かつ、候補ジェスチャに対するユーザの操作に基づき、前記その他のパラメータの制約条件を決定し、ジェスチャにおける各パラメータの制約条件を示すジェスチャ定義データをジェスチャ定義データベースに登録するジェスチャ定義登録部をさらに備える。 The gesture registration device according to the present invention includes a motion data acquisition unit that acquires motion data of a gesture, and gesture analysis that generates pose data indicating the three-dimensional coordinates of each body feature point in each pose constituting the gesture based on the motion data. Based on the pose data, a feature analysis unit that calculates feature data indicating the constraint conditions of the parameters representing the features of the gesture at the time of each pose and at the time of transition between poses, and a human body that defines the movable range of the skeleton constituting the human body The motion model database, a candidate gesture generation unit that generates other candidate gestures within the movable range of the skeleton based on the human body motion model database, while satisfying the constraints of some parameters, and the candidate gesture to the user Present and use the candidate gesture An input / output unit that accepts an operation of the user, and the candidate gesture generation unit generates a new candidate gesture upon accepting a user operation that rejects the candidate gesture in the input / output unit, and the user's operation on the candidate gesture And a gesture definition registration unit for determining constraint conditions for the other parameters and registering gesture definition data indicating the constraint conditions of each parameter in the gesture in the gesture definition database.
本発明のジェスチャ登録装置は、ジェスチャのモーションデータを取得するモーションデータ取得部と、モーションデータに基づき、ジェスチャを構成する各ポーズにおける各身体特徴点の3次元座標を示すポーズデータを生成するジェスチャ解析部と、ポーズデータに基づき、各ポーズ時およびポーズ間遷移時におけるジェスチャの特徴を表すパラメータの制約条件を示す特徴データを算出する特徴解析部と、人体を構成する骨格の可動範囲を定義した人体動作モデルデータベースと、一部のパラメータの制約条件を満たしつつその他のパラメータを変更し、人体動作モデルデータベースに基づき骨格の可動範囲内の候補ジェスチャを生成する候補ジェスチャ生成部と、候補ジェスチャをユーザに提示し、かつ候補ジェスチャに対するユーザの操作を受け付ける入出力部と、を備える。候補ジェスチャ生成部は、入出力部において候補ジェスチャを拒否するユーザの操作を受け付けると新たな候補ジェスチャを生成し、かつ、候補ジェスチャに対するユーザの操作に基づき、前記その他のパラメータの制約条件を決定する。本発明のジェスチャ登録装置は、ジェスチャにおける各パラメータの制約条件を示すジェスチャ定義データをジェスチャ定義データベースに登録するジェスチャ定義登録部をさらに備える。これにより、ユーザが示したジェスチャを一部変形した様々なジェスチャを候補ジェスチャとしてユーザに提示し、それらに対するユーザ操作に基づき各パラメータの制約条件を決定することによって、ユーザが各パラメータの制約条件を漏れなく検討することができ、意図に沿った適切なジェスチャ定義を容易に登録することが出来る。 The gesture registration device according to the present invention includes a motion data acquisition unit that acquires motion data of a gesture, and gesture analysis that generates pose data indicating the three-dimensional coordinates of each body feature point in each pose constituting the gesture based on the motion data. Based on the pose data, a feature analysis unit that calculates feature data indicating the constraint conditions of the parameters representing the features of the gesture at the time of each pose and at the time of transition between poses, and a human body that defines the movable range of the skeleton constituting the human body The motion model database, a candidate gesture generation unit that generates other candidate gestures within the movable range of the skeleton based on the human body motion model database, while satisfying the constraints of some parameters, and the candidate gesture to the user Present and use the candidate gesture And an input-output unit that accepts the operation. The candidate gesture generation unit generates a new candidate gesture upon accepting a user operation for rejecting the candidate gesture at the input / output unit, and determines a constraint condition for the other parameters based on the user operation on the candidate gesture. . The gesture registration device according to the present invention further includes a gesture definition registration unit that registers gesture definition data indicating constraint conditions of each parameter in the gesture in the gesture definition database. As a result, various gestures obtained by partially deforming the gestures indicated by the user are presented to the user as candidate gestures, and the constraint conditions of each parameter are determined by the user by determining the constraint conditions of each parameter based on the user operation on them. It is possible to review without omission, and it is possible to easily register an appropriate gesture definition according to the intention.
<A.実施の形態1>
<A−1.構成>
図1は、本発明の実施の形態1によるジェスチャ登録装置の構成の一例を示すブロック図である。図1に示すように、本実施の形態1によるジェスチャ登録装置は、モーション入力部1と、ジェスチャ解析部21と特徴解析部22とを有するモーション解析部2と、人体動作モデルデータベース3と、候補ジェスチャ生成部4と、ジェスチャ提示部5と、入出力部6と、ジェスチャ定義登録部7と、ジェスチャ定義データベース8を備える。
<
<A-1. Configuration>
FIG. 1 is a block diagram showing an example of a configuration of a gesture registration apparatus according to
モーション入力部1は、各種画像センサを用いて、ジェスチャとして定義したい人間の動きを撮影した1つの動画データを受け付け、モーション解析部2内のジェスチャ解析部21へと入力する。動画データの例としては、RGB画像や距離画像の時系列データが挙げられる。
The
人体動作モデルデータベース3には、図2に示すような人体を構成する部位の構造に関する身体構造テーブル31と、図3に示すような関節の可動範囲に関する身体可動範囲テーブル32が格納されている。身体のある部分が動く際には、関連する部位が同時に動く。例えば、手を移動させようとすると、手首、肘、肩も連動して移動する。このような身体の連動性から、身体は大きく6つの部位(頭部、胴体部、右腕部、左腕部、右脚部、左足部)に分けることができる。身体構造テーブル31には、部位311と、部位に対応した身体特徴点312(後に説明するさらに詳細な部位)、各身体特徴点の接続先を示した接続先身体特徴点313、各部位内での身体特徴点の親子関係314が登録されている。身体可動範囲テーブル32の具体的な内容は後に説明する。
The human body
モーション解析部2は、ジェスチャ解析部21と、特徴解析部22を有しており、それぞれ人体動作モデルデータベース3を参照しながら各種処理を行う。
The
<A−2.ジェスチャ解析>
ジェスチャ解析部21は、入力された動画データの全フレームに対して、既存の画像処理技術を用いて人間の特徴的な部位(身体特徴点)を弁別し、その3次元座標を取得する。例えば、人体構造の学習データなどを用いて、入力されたRGB画像や距離画像から身体特徴点を弁別してそれぞれの3次元座標を得る手法など、その方法は問わない。ここで判別する身体特徴点は、図2の身体特徴点312と一致するものである。実施の形態1では、例として図4に示すような頭から足まで16点の身体特徴点FP1〜FP16を弁別し、その3次元座標を取得する。図4は、動画データのとあるフレーム画像に対して身体特徴点を解析した例である。3次元座標の座標系は、図5に示す画像センサC1を中心とした座標系である。なお、弁別する身体特徴点の種類や数はこの例の限りではない。今後、この処理で得られた身体特徴点と3次元座標の時系列データをモーションデータMDと呼ぶ。すなわち、ジェスチャ解析部21は、動画データからモーションデータを取得するモーションデータ取得部として動作する。なお、上記でモーション入力部1は動画データを受け付けたが、モーションデータを受け付けても良い。この場合、ジェスチャ解析部21は、モーション入力部1からモーションデータを取得する。
<A-2. Gesture analysis>
The
ジェスチャ解析部21ではさらに、弁別した身体特徴点の3次元座標の動きから、ジェスチャを構成するポーズを解析および抽出する。ジェスチャは、それを特徴づける数個のポーズを順にとることで表される。ここでジェスチャには、左腕を動かすものなど1つの部位の動きから成るものもあれば、右腕と左腕の両方を動かすものなど複数の部位が関係するものもある。特に複数部位が動く場合、ジェスチャはそれぞれの部位の動き(サブジェスチャ)の組み合わせで表される。そこで、ポーズを抽出するにあたり、モーションデータMDの解析は部位ごとに行う。具体的には、身体構造テーブル31を参照し、それに記載された部位ごとの身体特徴点の動きを追い、顕著な動きが見られる部位に対して解析を行う。
The
ジェスチャは、開始ポーズ、終了ポーズ、および中間ポーズにより構成される。開始ポーズは、ジェスチャ又はサブジェスチャの開始時のポーズとして定義され、モーションデータMD内である部位が動き始めた際のポーズとして検出できる。終了ポーズは、ジェスチャ又はサブジェスチャの終了時のポーズとして定義され、モーションデータMD内である部位の動きが止まった際のポーズとして検出できる。中間ポーズは、ジェスチャの開始時から終了時の間の特徴的な時点のポーズとして定義される。特徴的な時点とは、例えばジェスチャまたはサブジェスチャが複数の移動方向を含む動きから構成される場合に、骨格の動く方向が変化する時点である。 A gesture is composed of a start pose, an end pose, and an intermediate pose. The start pose is defined as a pose at the start of a gesture or sub-gesture, and can be detected as a pose when a part in the motion data MD starts to move. The end pose is defined as a pose at the end of the gesture or sub-gesture, and can be detected as a pose when the movement of a part in the motion data MD stops. An intermediate pose is defined as a characteristic time pose between the start and end of a gesture. The characteristic time point is a time point when the moving direction of the skeleton changes when, for example, the gesture or the sub-gesture includes a movement including a plurality of moving directions.
ジェスチャ解析部21は、モーションデータMDからポーズデータPDを作成する。図6に、ポーズデータPDを例示する。ポーズデータPDは、各身体特徴点の3次元座標PDT1と、モーションデータMD内のフレーム位置PDT2、ジェスチャに関与する部位(ジェスチャ部位)PDT3から構成される。例えば、開始ポーズP1のポーズデータPD1として、ジェスチャ部位の動き始めにおける各身体特徴点の3次元座標、フレーム位置、現在解析しているジェスチャ部位を抽出する。また、終了ポーズP2のポーズデータPD2として、ジェスチャ部位の動き終わりにおける各身体特徴点の3次元座標、フレーム位置、現在解析しているジェスチャ部位を抽出する。骨格の移動方向が変化する時点のポーズを中間ポーズとする場合、中間ポーズのポーズデータとして、3次元座標の変化量が少ないフレームのフレーム位置と、当該フレームにおける各身体特徴点の3次元座標を抽出することができる。なぜなら、骨格の移動方向が変化するときには、身体部位の動きが少なくなる傾向にあるためである。3次元座標の変化量が少ないフレームを検出するには、例えば各フレーム前後の各3次元座標の変化量を算出し、変化量が少ない数フレームのうち代表的なフレーム(例えば中間)のフレームを検出すればよい。
The
なお、移動方向が急激に変化する点のフレームを中間ポーズのフレームとしても良い。また、ジェスチャ解析部21によるポーズデータPDの取得方法は上述の方法に限られない。
It should be noted that a frame at a point where the moving direction changes abruptly may be used as an intermediate pause frame. Further, the method of acquiring the pose data PD by the
図7はジェスチャ例を示している。このジェスチャは、下した状態の左腕を、腕をのばしたまま前方向を経由して上にまっすぐ挙げるというものである。図7(a)はこのジェスチャの開始ポーズP1における身体特徴点とフレーム位置を、図7(b)は終了ポーズP2における身体特徴点とフレーム位置をそれぞれ示している。ジェスチャ解析部21は上記のジェスチャを示すモーションデータMDを解析し、ポーズデータPD1,PD2を生成する。ポーズデータPD1は、開始ポーズP1における各身体特徴点の3次元座標、フレーム位置、およびジェスチャ部位であり、ポーズデータPD2は、終了ポーズP2における各身体特徴点の3次元座標、フレーム位置、およびジェスチャ部位である。なお、ジェスチャ部位としては、顕著に動作する部位として身体可動範囲テーブル32から「左腕部」という部位を取得する。
FIG. 7 shows an example of a gesture. In this gesture, the left arm in a lowered state is lifted straight through the front direction with the arm extended. FIG. 7A shows the body feature point and frame position in the start pose P1 of this gesture, and FIG. 7B shows the body feature point and frame position in the end pose P2. The
図8は、別のジェスチャを示している。このジェスチャは、下した状態の左腕を体前方に伸ばし、その後左方向へ移動するというものである。図8(a)は開始ポーズP3における身体特徴点とフレーム位置を、図8(b)は中間ポーズP4における身体特徴点とフレーム位置を、図8(c)は終了ポーズP5における身体特徴点とフレーム位置を、それぞれ示している。ジェスチャ解析部21は上記のジェスチャを示すモーションデータMDを解析し、各ポーズP3〜P5に対応するポーズデータPD3〜PD5を生成する。
FIG. 8 shows another gesture. This gesture is to extend the left arm in a lowered state to the front of the body and then move to the left. 8A shows body feature points and frame positions in the start pose P3, FIG. 8B shows body feature points and frame positions in the intermediate pose P4, and FIG. 8C shows body feature points in the end pose P5. Each frame position is shown. The
図7,8では一つの部位が移動するジェスチャを例示した。しかし、例えば右腕と左腕を同時に動かすジェスチャの場合は、右腕と左腕のそれぞれに属する身体特徴点に着目してモーションデータMDを解析し、各部位の動き始め、動き終わり、および途中の姿勢のポーズデータPDを抽出する。 7 and 8 exemplify a gesture in which one part moves. However, for example, in the case of a gesture for moving the right arm and the left arm at the same time, the motion data MD is analyzed by focusing on the body feature points belonging to the right arm and the left arm, and the movement of each part starts, ends, and the posture of the posture in the middle Data PD is extracted.
<A−3.特徴解析>
特徴解析部22は、ジェスチャ解析部21からモーションデータMDとポーズデータPDを取得し、これらに基づきジェスチャを特徴付ける特徴データFDを算出する。特徴データFDの例を図9に示す。図9に示す特徴データFDは、ジェスチャ部位FD1,主な移動方向FD2,重要身体特徴点FD3,重要身体特徴点の配置特徴FD4,ポーズ間遷移時の関節角度FD5,移動速度FD6の6項目を有している。ジェスチャ部位FD1は、ジェスチャに関与する人体の部位を示す。主な移動方向FD2は、ジェスチャにおいてジェスチャ部位が移動する主な方向を示す。重要身体特徴点FD3は、ジェスチャを特徴づける身体特徴点を示し、詳しくは後述する。なお、複数部位のポーズデータが存在する場合には、各部位のポーズが発生するタイミングも特徴データの1項目とすることができる。
<A-3. Feature analysis>
The
このような特徴データを後に説明する候補ジェスチャの生成処理に用いることで、ユーザが入力したジェスチャの特徴から大きく外れない範囲で、一部のパラメータが異なる候補ジェスチャを作成することができる。なお、特徴データFDの項目はこの限りでなくともよい。 By using such feature data for candidate gesture generation processing, which will be described later, it is possible to create candidate gestures having different parameters within a range that does not greatly deviate from the features of the gesture input by the user. Note that the item of the feature data FD is not limited to this.
以下、図7に示すポーズのポーズデータPDを取得した例を用い、特徴データFDの算出方法について説明する。 Hereinafter, a method of calculating the feature data FD will be described using an example in which the pose data PD of the pose illustrated in FIG. 7 is acquired.
ジェスチャ部位FD1は、ポーズデータPDのジェスチャ部位PDT3から取得する。図7の例でのジェスチャ部位FD1は左腕部となる。以下、同一のジェスチャ部位FD1を持ち、かつ連続した2つのポーズデータごとに処理を行う。 The gesture part FD1 is acquired from the gesture part PDT3 of the pose data PD. The gesture part FD1 in the example of FIG. 7 is the left arm part. Hereinafter, processing is performed for every two consecutive pose data having the same gesture part FD1.
まず、2つのポーズ間においてジェスチャ部位FD1の移動が発生する空間(移動空間)を求める。各ポーズ間のモーションデータMDを参照し、ジェスチャ部位を構成する各身体特徴点の座標の最大値および最小値を、x,y,z軸のそれぞれについて求める。そして、その範囲を満たす直方体領域を身体特徴点の移動空間とし、さらに全ての身体特徴点の移動区間を満たす領域をジェスチャ部位の移動空間とする。 First, a space (movement space) in which the movement of the gesture part FD1 occurs between two poses is obtained. With reference to the motion data MD between the poses, the maximum value and the minimum value of the coordinates of the body feature points constituting the gesture part are obtained for each of the x, y, and z axes. A rectangular parallelepiped region that satisfies the range is used as a movement space for body feature points, and a region that satisfies the movement section for all body feature points is used as a movement space for gesture parts.
次に、ジェスチャ部位の主要な移動方向FD2を算出する。ジェスチャ部位のうち、最も移動量が大きな身体特徴点を求め、その身体特徴点の移動方向の主成分(第1成分)を算出する。具体的に、例えば移動量が大きな身体特徴点は、各ポーズ間のモーションデータMDを用いて各身体特徴点の移動量を算出した中で、それが最も大きなものとする。例えば、図7の例では、左手が最も移動量の大きな身体特徴点となる。ただし、関節の曲げが発生せず2つ以上の部位が平行移動する動作の場合など、ほぼ同じ移動量の身体特徴点が2つ以上ある場合は、それら全てを算出対象とする。移動方向は、最も移動量の大きな身体特徴点の動きを基準として算出する。具体的には、その身体特徴点の移動空間を構成する各軸の範囲と、連続した2つのポーズのうち最初のポーズにおける当該身体特徴点の3次元座標の差分を計算することで、連続した2つのポーズのうち最初のポーズの座標を基準に、x,y,z軸正負の6方向のうち最も大きく移動した方向を移動方向の主成分として算出する。例えば、図7ではy軸正方向が移動方向の主成分(第1成分)となる。また、2番目、3番目に主要な方向も同様に求め、2番目(第2成分)はz軸負方向、3番目(第3成分)はx軸負方向となる。 Next, the main movement direction FD2 of the gesture part is calculated. A body feature point having the largest movement amount is obtained from the gesture parts, and a main component (first component) of the movement direction of the body feature point is calculated. Specifically, for example, a body feature point having a large movement amount is assumed to be the largest among the movement amounts of each body feature point calculated using the motion data MD between the poses. For example, in the example of FIG. 7, the left hand is the body feature point with the largest amount of movement. However, when there are two or more body feature points with almost the same movement amount, such as in the case of an operation in which two or more parts move in parallel without bending of the joint, all of them are set as calculation targets. The movement direction is calculated based on the movement of the body feature point having the largest movement amount. Specifically, the range of each axis constituting the movement space of the body feature point and the difference between the three-dimensional coordinates of the body feature point in the first pose among the two consecutive poses are calculated. Based on the coordinates of the first pose of the two poses, the direction of the largest movement among the six positive, negative, and negative x-axis directions is calculated as the principal component of the movement direction. For example, in FIG. 7, the positive y-axis direction is the main component (first component) of the movement direction. Similarly, the second and third main directions are obtained in the same manner, the second (second component) is the negative z-axis direction, and the third (third component) is the negative x-axis direction.
次に、ジェスチャ部位のうち、人間が特に意識して動かしていると考えられる身体特徴点(重要身体特徴点FD3)を推定する。人間がジェスチャを行う際、意識的に動かそうとした部位は大きく動くことが多い。例えば関節の曲げを伴うジェスチャ(伸ばした腕を曲げるなど)では、その部位の端点(手)が大きく動く。そこで、最も移動量が大きな身体特徴点が一意に求まった場合、それを重要身体特徴点FD3とする。図7の例では、「左手」が重要身体特徴点FD3となる。ただし、例えば、2つの身体特徴点をその2点から成る骨格と同じ方向へ平行移動させるジェスチャなどの場合には、複数の身体特徴点の移動量がほぼ同一になる。このように、移動量が大きな身体特徴点が2点以上ある場合、移動方向の主成分の方向により近い身体特徴点を重要身体特徴点FD3とする。 Next, a body feature point (important body feature point FD3) that is considered to be moved with particular consciousness among the gesture parts is estimated. When humans make gestures, the part that they try to move consciously moves often. For example, in a gesture involving bending of a joint (such as bending an extended arm), the end point (hand) of the part moves greatly. Therefore, when a body feature point having the largest movement amount is uniquely determined, it is set as an important body feature point FD3. In the example of FIG. 7, “left hand” is the important body feature point FD3. However, for example, in the case of a gesture that translates two body feature points in the same direction as a skeleton composed of the two points, the movement amounts of the plurality of body feature points are substantially the same. As described above, when there are two or more body feature points with a large movement amount, the body feature point closer to the direction of the main component of the movement direction is set as the important body feature point FD3.
次に、連続した2つのポーズのうち最初のポーズと最後のポーズに対して、重要身体的特徴点の配置特徴FD4を算出する。具体的には、重要身体特徴点FD3と、ジェスチャ部位FD1内で最も親となる身体特徴点(身体構造テーブル31の親子関係314で親のない身体特徴点)との相対位置を、重要身体的特徴点の配置特徴FD4とする。図7に示したポーズP1,P2の例では、重要身体特徴点FD3が左手で、最も親となる身体特徴点が肩である。したがって、左手と肩の3次元座標の差分を取り、3軸のうち最も差分が大きい順に、重要身体的特徴点の配置特徴FD4の第1成分、第2成分、第3成分を決定する。ポーズP1,P2の例では、第1成分がy軸、第2成分がz軸、第3成分がx軸となる。また、重要身体特徴点FD3とジェスチャ部位FD1内の他の身体特徴点との上記第1〜第3成分に関する相対位置方向も、重要身体的特徴点の配置特徴FD4として算出する。開始ポーズP1の場合、重要身体的特徴点の配置特徴FD4の第1成分はy軸、第2成分はz軸、第3成分はx軸であるので、左手と肘に対してy軸、z軸、x軸に関する座標の差分を計算する。この結果、左手は肘と肩に対してy軸負方向、z軸負方向およびx軸負方向にあるとのデータを得る。
Next, an arrangement feature FD4 of important physical feature points is calculated for the first and last poses of two consecutive poses. Specifically, the relative positions of the important body feature point FD3 and the body feature point that is the most parent in the gesture part FD1 (the body feature point having no parent in the parent-
次に、関節角度FD5を、連続した2つのポーズの各ポーズ時や、各ポーズ間の遷移時について算出する。関節は骨格(並んだ2つの身体特徴点を結んだ線分)同士が繋がる点であり、関節角度は骨格間の角度として定義される。骨格方向は、方向ベクトルとして2点の身体特徴点の3次元座標から算出され、2つの骨格方向の方向ベクトルから関節角度が算出される。各ポーズ時の関節角度は上記の方法で求める。ポーズ間遷移時の関節角度については、ポーズ間のモーションデータMD内の全てのフレームについてジェスチャ部位の関節角度を求めた上で、連続する2フレームごとにその差分を計算し、最大関節角度と最小関節角度を求める。 Next, the joint angle FD5 is calculated at each pose of two consecutive poses and at the time of transition between each pose. A joint is a point where skeletons (lines connecting two body feature points arranged side by side) are connected to each other, and a joint angle is defined as an angle between skeletons. The skeleton direction is calculated from the three-dimensional coordinates of the two body feature points as direction vectors, and the joint angle is calculated from the direction vectors of the two skeleton directions. The joint angle at each pose is obtained by the above method. As for the joint angle at the time of transition between poses, the joint angle of the gesture part is calculated for all the frames in the motion data MD between poses, and the difference is calculated every two consecutive frames. Find the joint angle.
ポーズ遷移時の移動速度FD6は、例えば連続した2つのポーズの間のモーションデータMDのフレーム数とする。 The moving speed FD6 at the pose transition is, for example, the number of frames of the motion data MD between two consecutive poses.
このように特徴データFDの算出方法を示したが、特徴データFDを構成する各種パラメータの算出方法に関してはこの限りではない。 Although the calculation method of the feature data FD has been described above, the calculation method of various parameters constituting the feature data FD is not limited to this.
<A−4.候補ジェスチャの生成からジェスチャ定義登録まで>
次に、候補ジェスチャ生成部4、ジェスチャ提示部5、入出力部6、ジェスチャ定義登録部7、ジェスチャ定義データベース8について説明する。
<A-4. From generation of candidate gestures to registration of gesture definitions>
Next, the candidate
候補ジェスチャ生成部4は、特徴解析部22にて算出した特徴データFDを用いて、ジェスチャの基本的な特徴は残しつつも、入力されたモーションデータMDを構成する一部パラメータの制約条件の範囲を変更した候補ジェスチャの定義データを生成する。このとき、人体動作モデルデータベース3の身体可動範囲テーブル32を参照し、人間の身体が実行可能な候補ジェスチャを生成する。生成した候補ジェスチャの定義データは、ジェスチャ提示部5に送信する。また、候補ジェスチャに対するユーザの反応を反映し、新たな候補ジェスチャを作成する。
The candidate
ここで、図3に示す身体可動範囲テーブル32について説明する。身体可動範囲テーブル32には、各関節の可動範囲が記録されている。具体的には部位321と各部位に含まれる関節322、関節を構成する身体特徴点323、関節の動作324、動作ごとの可動範囲325が登録されている。可動範囲325は、人間の自然な姿勢の状態から+方向および−方向に関節を動かすことができる限界の角度を示している。
Here, the body movable range table 32 shown in FIG. 3 will be described. In the body movable range table 32, the movable range of each joint is recorded. Specifically, a
ジェスチャ提示部5は、候補ジェスチャ生成部4で生成した候補ジェスチャ定義データの内容を、開発者などのユーザが把握しやすい形の描画データに変換し、入出力部6に送信する。さらに、候補ジェスチャに対する反応をユーザに促す表示も作成し、入出力部6に送信する。また、入出力部6からのユーザの入力を受け付け、その内容を候補ジェスチャ生成部4に送信する。
The
入出力部6は、開発者などのユーザに対し候補ジェスチャの内容を表示し、かつユーザによる入力(候補ジェスチャに対する選択操作など)を受け付ける。入出力部6によるユーザへの表示例を、図10に示す。図10では、出力画面61上に候補ジェスチャ提示エリア62とユーザ操作エリア63が設けられている。候補ジェスチャ提示エリア62にはポーズP1,P2の候補とポーズ間遷移条件の候補がそれぞれ表示されている。図10は、開始ポーズP1の左手の位置に関する候補を表示しているときの例であり、左腕の候補の様子621とその座標622、変更前の左手の位置623を表示している。候補の表示内容に関しては、図10のように候補を1つずつ表示してもよいし、候補を一度に複数表示してもよい。またユーザ操作エリア63には、例えばユーザの反応をシステムへ入力するよう促すメッセージ631や、入力ボタン632が表示されているものとする。候補ジェスチャに対する操作の例としては、図10のように提示された候補ジェスチャの許容可否を選択させるものの他、許容できるジェスチャのパラメータの範囲を選択させるもの、複数候補からどれが良いかを選択させるものなどでもよく、この限りではない。
The input /
このように、候補ジェスチャを入出力部6でユーザに提示し、候補ジェスチャに対するユーザの反応に基づき、制約条件を変えた候補ジェスチャを作成するという流れを繰り返すことによって、ジェスチャの制約条件を1つずつ決定し、ジェスチャ定義を生成する。
Thus, by repeating the flow of presenting a candidate gesture to the user at the input /
最終的にジェスチャ定義が決定すれば、ジェスチャ提示部5がそのジェスチャ定義データをジェスチャ定義登録部7に送信する。
When the gesture definition is finally determined, the
ジェスチャ定義登録部7は、受け取ったジェスチャ定義データを、ジェスチャ定義データベース8に登録する。ジェスチャ定義データベース8に登録された内容は、ジェスチャ認識アプリケーションを備えた装置などが、ジェスチャ認識時に参照することができる。
The gesture
<A−5.候補ジェスチャの生成>
以下、候補ジェスチャ生成部4による候補ジェスチャの定義データの生成について具体的に説明する。
<A-5. Generating candidate gestures>
Hereinafter, generation of candidate gesture definition data by the candidate
同じような動きを行うジェスチャであっても、開発者のジェスチャに対するイメージによって、ジェスチャ認識条件は変化する。例えば、図7のジェスチャの例は、肘をほとんど曲げず左手をまっすぐ上に挙げるジェスチャを示しているが、この通りにしなければ「左手を上に上げる」ジェスチャとして認識させないようにしたいと開発者が考える場合がある。他方、真っ直ぐに手を上げてはいるが肘が曲がっている場合や、肘は曲がっていないが手が肩の斜め上方向に上げるジェスチャも、「手を上に上げる」ジェスチャとして認識して良いと開発者が考える場合もある。もし、単純に手が肩より上部に上がっていれば良いと開発者が考えるなら、肘の角度や、手の細かな位置に対する制約条件は設けなくても良い。その中間で、ある一定の範囲内の位置に手が存在すればよい、一定範囲内であれば肘が曲がっていても良いという条件で、ジェスチャを検討する場合もある。このように、ジェスチャを構成する各パラメータの制約条件には、制約が最も強い「特定値」、中間の「一定範囲」、最も弱い「自由」の3段階の強さが考えられる。実施の形態1での候補ジェスチャ生成部4は、人体動作モデルデータベース3の身体可動範囲テーブル32を参照し、人体が動ける範囲内で、ジェスチャを構成するポーズのパラメータ、およびポーズ間遷移中のパラメータを変更し、候補ジェスチャを生成する。
Even for gestures that move in the same manner, the gesture recognition conditions change depending on the image of the developer. For example, the gesture example in Fig. 7 shows a gesture that raises the left hand straight up with little bending of the elbow, but if you don't do this, you want to prevent it from being recognized as a gesture that raises the left hand. May think. On the other hand, a gesture in which the hand is raised straight but the elbow is bent, or a gesture in which the elbow is not bent but the hand is raised diagonally above the shoulder may be recognized as a gesture of raising the hand. Sometimes the developer thinks. If the developer simply thinks that the hand should be raised above the shoulder, there are no restrictions on the elbow angle or the fine position of the hand. In the middle, the gesture may be considered on the condition that the hand should be present at a position within a certain range, and the elbow may be bent within the certain range. As described above, the constraint conditions of the parameters constituting the gesture include three levels of strength: “specific value” having the strongest constraint, “fixed range” in the middle, and “free” being the weakest. The candidate
図11は、候補ジェスチャ生成処理のフローチャートである。以下、図11に沿って候補ジェスチャ生成処理を説明する。まず、候補ジェスチャ生成部4は特徴解析部22から、ジェスチャデータとしてジェスチャの特徴データFDやポーズデータPDを取得する(ステップS1)。以下、図6に示すポーズデータPDと図9に示す特徴データFDを取得したものとして、説明を行う。
FIG. 11 is a flowchart of candidate gesture generation processing. Hereinafter, the candidate gesture generation process will be described with reference to FIG. First, the candidate
その後、候補ジェスチャ生成部4は、ジェスチャの本質を示す基本制約条件BRを算出する(ステップS2)。これは、パラメータを変更した結果、本来のジェスチャの特徴から大きく外れてしまわないように、最低限守るべきパラメータの制約条件を算出することを意味する。基本制約条件BRは、各ポーズにおける重要身体特徴点の位置に関する制約条件BR1と、ポーズ間遷移時の重要身体特徴点の移動方向に関する制約条件BR2の2種類から成る。これを算出するにあたり、2つの連続するポーズごとに、それら2つのポーズデータPDと特徴データFDを用いて、以下の処理を行う。
Thereafter, the candidate
重要身体特徴点FD3の位置に関する制約条件BR1は、特徴データFD内の各ポーズにおける重要身体的特徴点の配置特徴FD4の第1成分とする。ここで、開始ポーズP1の第1成分はy軸負方向である。なお、第2成分はz軸負方向、第3成分はx軸負方向である。また、終了ポーズP2の第1成分はy軸正方向である。なお、第2成分はz軸負方向、第3成分はx軸負方向である。すなわち、開始ポーズP1で左手が肘や肩よりy軸負方向の位置にあることと、終了ポーズP2で左手が肘や肩よりy軸正方向の位置にあることが、制約条件BR1となる。言い換えれば、重要身体特徴点の他の身体特徴点に対する配置特徴が、制約条件を有する固定パラメータとなる。 The constraint condition BR1 related to the position of the important body feature point FD3 is a first component of the arrangement feature FD4 of the important body feature point in each pose in the feature data FD. Here, the first component of the start pose P1 is the y-axis negative direction. The second component is the negative z-axis direction, and the third component is the negative x-axis direction. The first component of the end pose P2 is the positive y-axis direction. The second component is the negative z-axis direction, and the third component is the negative x-axis direction. That is, the constraint condition BR1 is that the left hand is in the negative y-axis position from the elbow and shoulder in the start pose P1, and the left hand is in the positive y-axis position from the elbow and shoulder in the end pose P2. In other words, the arrangement feature with respect to the other body feature point of the important body feature point is a fixed parameter having a constraint condition.
重要身体特徴点FD3の移動方向に関する制約条件BR2は、特徴データFD内の遷移中の主要な移動方向FD2(第1成分、第2成分、第3成分)とする。この例では、第1成分はy軸正方向、第2成分はz軸負方向、第3成分はx軸負方向である。言い換えれば、ポーズ間遷移時に最も移動距離の長い身体特徴点の移動方向が、制約条件を有する固定パラメータとなる。 The constraint condition BR2 regarding the movement direction of the important body feature point FD3 is the main movement direction FD2 (first component, second component, third component) during the transition in the feature data FD. In this example, the first component is the positive y-axis direction, the second component is the negative z-axis direction, and the third component is the negative x-axis direction. In other words, the moving direction of the body feature point having the longest moving distance at the time of transition between poses is a fixed parameter having a constraint condition.
したがって、図9に示す特徴データFDの例において基本制約条件BRは、左手が、肘や肩よりy軸負方向の開始ポーズP1の位置から、大きくy軸正方向へz軸負方向への移動を伴って遷移し、肘や肩よりy軸正方向の終了ポーズP2の位置にたどり着くという内容になる。なお、基本制約条件BRの算出方法は、この限りではない。 Therefore, in the example of the feature data FD shown in FIG. 9, the basic constraint condition BR is that the left hand moves largely in the y-axis positive direction and in the z-axis negative direction from the position of the start pose P1 in the y-axis negative direction from the elbow and shoulder. And the content is that the end pose P2 in the positive y-axis direction is reached from the elbow or shoulder. Note that the calculation method of the basic constraint condition BR is not limited to this.
次に、候補ジェスチャ生成部4は、ステップS2で求めた基本制約条件BRを満たす範囲で、ポーズとポーズ間遷移時のパラメータをそれぞれ変更し、候補ジェスチャを生成する(ステップS3)。但し、人体動作モデルデータベース3の身体可動範囲テーブル32の可動範囲325を参照し、人体が動作可能な範囲でパラメータを変更する。ここで変更する変動パラメータとしては、ポーズのパラメータとしてジェスチャ部位の関節角度、ポーズ間遷移時のパラメータとして移動中の関節角度、移動速度が挙げられる。
Next, the candidate
以下、パラメータの変更方法を具体的に説明する。まず、各ポーズのパラメータについては、ジェスチャ部位の関節角度を変更し、ポーズの定義を生成する。ここで、関節角度は実質的に関節を構成する3点の身体特徴点の座標により決まる。そこで、候補ジェスチャ生成部4は、重要身体特徴点FD3および他の身体特徴点の座標を3次元座標軸ごとに変更する。なお、変更は重要身体特徴点から他の身体特徴点に対して順に行い、各身体特徴点においては重要身体的特徴点の配置特徴FD4の第1成分の軸から順に行う。図9の特徴データFDの例では、左手のy軸方向のパラメータを最初に変更する。基本的には身体可動範囲テーブル32の可動範囲325を満たすようにパラメータを変更するが、重要身体特徴点FD3に関しては、さらに先に求めた基本制約条件BRも同時に満たすようにする。
Hereinafter, the parameter changing method will be described in detail. First, for each pose parameter, the pose definition is generated by changing the joint angle of the gesture part. Here, the joint angle is determined by the coordinates of three body feature points that substantially constitute the joint. Therefore, the candidate
制約条件を決定するため、最初に基本制約条件BRや可動範囲325の限界まで大きくパラメータを変更し、ユーザの入力に基づき徐々にその変更幅を絞る。図9の特徴データFDの例において、重要身体特徴点FD3である左手は、左肩および左肘よりy軸負方向にあるという基本制約条件BRがある。そこで、まず左手の3次元座標のy軸成分を、部位の中で最もy座標値が大きな左肩のy軸成分に限界まで近づけた座標に設定する。左手の親である左肘の座標は、左手の位置から逆にその位置を算出するインバースキネマティクス技術などにより求められる。
In order to determine the constraint condition, first, the parameter is greatly changed to the limit of the basic constraint condition BR and the
このようにして候補ジェスチャ生成部4は身体特徴点の座標を変化したポーズデータを、候補ジェスチャデータとしてジェスチャ提示部5に送信する(ステップS4)。ジェスチャ提示部5は候補ジェスチャデータを図10に例示する態様で入出力部6を通してユーザに提示する。
In this way, the candidate
入出力部6を通じてユーザによる候補ジェスチャ選択操作が入力されると、候補ジェスチャ生成部4は、その入力結果をジェスチャ提示部5から受信する(ステップS5)。ここでは、ユーザが候補ジェスチャ選択操作の一例として、候補ジェスチャがユーザにとって許容できるか否かを選択するものとする。候補ジェスチャ生成部4は、候補ジェスチャの許容可否を判断する(ステップS6)。候補ジェスチャを許容できるとの入力結果であれば(ステップS6でYes)、ステップS7へ進む。ステップS7では、全てのパラメータに関する処理を行ったか否かを判断する。ここでは、まだ重要身体的特徴点の配置特徴FD4の第1成分であるy軸成分しか変更処理を行っていない(ステップS7でNo)。そこで、ステップS3に戻り、第2成分、第3成分であるz軸、x軸についても順に変更を行う。
When a candidate gesture selection operation by the user is input through the input /
ユーザの入力結果が、候補ジェスチャを許容できないとのものであれば、ステップS3に戻り、左手のy軸成分のy座標を、従来のジェスチャデータの左手の座標に近づくように設定する。例えば、左肘のy軸成分に限界まで近づけた座標に設定する。そして、当該ポーズデータをジェスチャ提示部5に送信する(ステップS4)。これを、ユーザが候補ジェスチャを許容できると入力するまで繰り返す。 If the input result of the user is that the candidate gesture cannot be permitted, the process returns to step S3, and the y coordinate of the y-axis component of the left hand is set so as to approach the left hand coordinate of the conventional gesture data. For example, the coordinates are set close to the limit of the y-axis component of the left elbow. And the said pose data are transmitted to the gesture presentation part 5 (step S4). This is repeated until the user inputs that the candidate gesture is acceptable.
x,y,z軸成分の全てについて変更後の座標が確定すれば、左手に対する位置の制約条件(取り得る位置の範囲)が求まる。次は、左手に接続する左肘の座標を変更した候補ジェスチャを作成する処理を行う。左肘は、先に求めた左手の位置の制約条件の範囲内で、可動範囲325に基づいて座標を変更した候補のポーズデータを作成し、同様に位置の制約条件を生成する。そして、左手と左肘、左肩の位置の配置特徴を定めた重要身体的特徴点の配置特徴FD4から、ポーズ全体の制約条件(定義)について決定する。ある身体特徴点について、可動範囲325以外の新たな制約条件が生まれなかった場合(変更したパラメータが全てユーザに受け入れられた場合)、その身体特徴点の制約条件の制約強度は「自由」となり、ジェスチャ定義におけるポーズの定義としては考慮しない。ある身体特徴点に位置の制約条件(位置の範囲)が加わった場合、制約条件の制約強度は「一定範囲」となり、その座標がとりうる範囲をジェスチャ定義におけるポーズ定義として設定する。一方ジェスチャ部位の全ての座標が元のパラメータ変更前と同じとなる場合(ユーザに候補のポーズを提示したが全て受け入れられなかった場合)、制約条件の制約強度は最も強い「特定値」となり、その座標をジェスチャ定義におけるポーズ定義として設定する。各身体特徴点の制約条件(座標や座標の範囲)を定義として設定する際、他の近い位置にある身体特徴点を基準とした相対位置を算出し設定する(例えば開始ポーズP1の左手の場合は左臀部を基準とする)。ただしこの限りではなく、3次元空間における絶対位置を設定してもよい。
If the changed coordinates are determined for all of the x, y, and z axis components, the position constraint condition (the range of possible positions) for the left hand can be obtained. Next, a process for creating a candidate gesture in which the coordinates of the left elbow connected to the left hand are changed is performed. The left elbow creates candidate pose data whose coordinates have been changed based on the
次に、ステップS3に戻り、ポーズのパラメータと同様に、ポーズ間遷移時のパラメータである移動時の関節角度、移動速度を変更する。移動時の関節角度は、基本制約条件BRの主要な移動方向を踏まえたうえで変更する。関節角度の制約条件についても、関節角度を考慮しない「自由」、関節角度に範囲を設ける「一定範囲」、移動中は前後のポーズでの関節角度を維持する「特定値」の3段階が考えられる。 Next, returning to step S3, similarly to the pose parameters, the joint angle and the moving speed at the time of movement, which are parameters at the time of transition between poses, are changed. The joint angle at the time of movement is changed in consideration of the main movement direction of the basic constraint condition BR. There are three possible joint angle constraints: “free” that does not consider the joint angle, “constant range” that provides a range for the joint angle, and “specific value” that maintains the joint angle in the previous and next poses during movement. It is done.
そこで候補ジェスチャ生成部4は、上記で求めた移動前後のポーズの制約条件も加味しつつ、その範囲内で各関節角度を1つずつ変更する。まず前後のポーズで同じ関節角度を取れるか否かを計算する。同じ関節角度を取れないものであれば、制約条件は「一定範囲」または「自由」となる。候補ジェスチャ生成部4は、例えば可動範囲325を考慮してジェスチャ部位の各関節が取り得る最大角度と最小角度を算出し、それを候補ジェスチャデータとしてジェスチャ提示部5に送信する(ステップS4)。
Therefore, the candidate
ジェスチャ提示部5は、候補ジェスチャデータから得られた関節角度のデータを基に、ポーズ間を移動するジェスチャ部位の身体特徴点の座標を計算する。その結果はユーザが分かりやすい形(例えば動画データなど)に変換され、遷移中の動きの候補として、入出力部6へと送信される。ポーズの場合と同様、ユーザは候補を許容するか否かを選択入力し、入力結果は入出力部6からジェスチャ提示部5を介して候補ジェスチャ生成部4が受信する(ステップS5)。
Based on the joint angle data obtained from the candidate gesture data, the
初めてのステップS6で候補ジェスチャデータが許容されれば(ステップS6でYes)、関節角度はどのような範囲でも良い「自由」と設定される。すなわち、関節角度は遷移中のパラメータとして定義されない。一方、許容されなければ、ステップS3に戻って、候補ジェスチャがユーザに許容されるまで、関節の最大角度または最小角度を変更する。ユーザが許容した関節角度の最大角度と最小角度が、「一定範囲」としてポーズ遷移時の制約条件となる。 If the candidate gesture data is allowed in the first step S6 (Yes in step S6), the joint angle is set to “free” in any range. That is, the joint angle is not defined as a parameter during transition. On the other hand, if not permitted, the process returns to step S3 to change the maximum angle or the minimum angle of the joint until the candidate gesture is permitted by the user. The maximum and minimum joint angles allowed by the user are the “constant range” and become a constraint condition during pose transition.
関節角度の特定値のみがユーザに許容される場合は、当該「特定値」がポーズ遷移時の制約条件となる。このような場合は、遷移前後のポーズで関節角度が同じであり、関節角度が一定値のまま移動を行うこととなる。 When only a specific value of the joint angle is allowed by the user, the “specific value” becomes a constraint condition at the time of pose transition. In such a case, the joint angle is the same between the poses before and after the transition, and the movement is performed while the joint angle remains constant.
また、ポーズ遷移の移動速度に関しては、特徴データFDの移動速度FD6を基に、速度の倍率を変更した候補ジェスチャを作成する(ステップS3)。なお、候補ジェスチャ生成部4には予め、速度の倍率の最大値および最小値が登録されており、最大倍率および最小倍率で速度を変更した2パターンの候補ジェスチャを作成する。当該候補ジェスチャは候補ジェスチャ生成部4からジェスチャ提示部5へ送信され(ステップS4)、描画データに変換される。ジェスチャ提示部5は、候補ジェスチャを作成する元となったモーションデータMDを用いる等して、上記倍率に速度を変更した動画を作成し、入出力部6にて表示する。
Further, regarding the movement speed of the pose transition, a candidate gesture in which the speed magnification is changed is created based on the movement speed FD6 of the feature data FD (step S3). In addition, the maximum value and the minimum value of the speed magnification are registered in advance in the candidate
ユーザは候補ジェスチャを許容するか否かを選択入力し、入力結果は入出力部6からジェスチャ提示部5を介して候補ジェスチャ生成部4が受信する(ステップS5)。
The user selects and inputs whether or not to allow the candidate gesture, and the input result is received by the candidate
ここで、候補ジェスチャは速度の倍率を最大値と最小値で変更したものである。ポーズ遷移の移動速度に関する初めてのステップS6で、当該候補ジェスチャがユーザに許容されれば(ステップS6でYes)、移動速度はどのような範囲でも良い「自由」と設定される。すなわち、移動角度は遷移中のパラメータとして定義されない。候補ジェスチャが許容されなかった場合(ステップS6でNo)、ステップS3に戻り、倍率を変更した候補ジェスチャの生成とユーザへの提示を、ユーザが候補ジェスチャを許容するまで繰り返す。そして、移動速度がある範囲で許容されれば「一定範囲」として、当該範囲を移動速度の制約条件として定義する。一方、倍率を変更した結果、元の特徴データFDの移動速度まで収束した場合、「特定値」として当該移動速度を制約条件として定義する。 Here, the candidate gesture is obtained by changing the speed magnification between the maximum value and the minimum value. In the first step S6 regarding the movement speed of the pose transition, if the candidate gesture is permitted by the user (Yes in step S6), the movement speed is set to “free” in any range. That is, the moving angle is not defined as a parameter during transition. If the candidate gesture is not permitted (No in step S6), the process returns to step S3, and the generation of the candidate gesture whose magnification has been changed and the presentation to the user are repeated until the user allows the candidate gesture. Then, if the moving speed is allowed within a certain range, the range is defined as a “constant range” and the moving speed is defined as a constraint condition for the moving speed. On the other hand, when the magnification has converged to the moving speed of the original feature data FD, the moving speed is defined as a “specific value” as a constraint condition.
なお、上述の各種パラメータ変更方法は一例であり、これ以外の方法を用いても良い。 The above-described various parameter changing methods are merely examples, and other methods may be used.
上述の処理が全てのパラメータについて行われると(ステップS7でYes)、各ポーズおよびポーズ間遷移時の各種パラメータに対する制約条件が設定され、ジェスチャ定義が生成される(ステップS8)。 When the above-described processing is performed for all parameters (Yes in step S7), constraint conditions for various parameters at the time of each pose and transition between poses are set, and a gesture definition is generated (step S8).
図12は、図7に示すジェスチャ(左腕を降ろした状態から、腕をのばした状態で前方向を経由し、上にまっすぐに挙げるジェスチャ)に対し、ユーザの入力に応じて生成したジェスチャ定義データを示している。ジェスチャ定義データは、ジェスチャ番号81と、ポーズ82、ジェスチャ部位83、および制約条件84を含んでいる。なお、ユーザの入力内容は、各ポーズで左手の位置はy軸方向に一定の認識幅を持たせてもよく、左肘の位置は自由で、ポーズ遷移中の関節角度や移動速度は、y軸正方向かつz軸負方向に動いていれば自由で良い、というものとする。
FIG. 12 shows a gesture definition generated in response to a user input for the gesture shown in FIG. 7 (from the state in which the left arm is lowered to the gesture in which the arm is extended and then forwards in the forward direction). Data are shown. The gesture definition data includes a
<A−6.変形例>
なお、上述したジェスチャ定義方法は、ユーザに対して候補ジェスチャの可否を選択させる例であったが、他の方法でジェスチャの定義を行っても良い。例えば、候補ジェスチャに対して直接的にユーザがパラメータの範囲を入力しても良い。また、パラメータごとに、変更をしない、あるいはパラメータを考慮しない旨をユーザが入力できるようにし、それを基にジェスチャ定義を生成してもよい。
<A-6. Modification>
Note that the gesture definition method described above is an example in which the user selects whether or not a candidate gesture is allowed, but the gesture may be defined by another method. For example, the user may input the parameter range directly for the candidate gesture. In addition, for each parameter, the user can input that no change is made or the parameter is not considered, and the gesture definition may be generated based on the input.
また、上述の例では、1つずつ順番に変更するパラメータを提示していたが、ユーザが自由にパラメータを選択してパラメータの制約条件を設定できるようにしてもよい。このような場合、ユーザが所望のパラメータの制約条件を設定した後、ジェスチャ定義登録部7に送信するジェスチャ定義データを決定するためのボタンなどの入力手段をユーザ操作エリア63(図10参照)に設けても良い。また、制約条件として「特定値」が設定された場合、認識しやすさを考慮して、その値の前後でも認識できるようにする一定範囲を設けても良い。
In the above example, the parameters to be changed one by one in order are presented, but the user may freely select parameters and set parameter constraint conditions. In such a case, an input means such as a button for determining the gesture definition data to be transmitted to the gesture
また、複数部位のポーズデータPDが存在する場合、特徴解析部22にて各ポーズのフレーム位置から、各部位の移動タイミングの特徴を抽出し、ジェスチャの制約条件に加えても良い。すなわち、各部位が同時に動き始めるか、ある部位が他の部位より先に動くか後に動くかなどの順番を制約条件とする。そして、候補ジェスチャ生成部4では各部位のポーズの順序を守った、あるいは変更したジェスチャ定義を生成する。
If there is pose data PD for a plurality of parts, the
<A−7.効果>
実施の形態1に係るジェスチャ登録装置101は、ジェスチャ解析部21、特徴解析部22、人体動作モデルデータベース3、候補ジェスチャ生成部4、入出力部6およびジェスチャ定義登録部7を備えている。ジェスチャ解析部21は、ジェスチャのモーションデータを取得するモーションデータ取得部として動作する。また、ジェスチャ解析部21は、モーションデータに基づき、ジェスチャを構成する各ポーズにおける各身体特徴点の3次元座標を示すポーズデータを生成する。特徴解析部22は、ポーズデータに基づき、各ポーズ時およびポーズ間遷移時におけるジェスチャの特徴を表すパラメータの制約条件を示す特徴データを算出する。人体動作モデルデータベース3は、人体を構成する骨格の可動範囲を定義する。候補ジェスチャ生成部4は、一部のパラメータの制約条件を満たしつつその他のパラメータを変更し候補ジェスチャを生成する。また、入出力部6において候補ジェスチャを拒否するユーザの操作を受け付けると、新たな候補ジェスチャを生成し、候補ジェスチャに対するユーザの操作に基づき、前記その他のパラメータの制約条件を決定する。入出力部6は、候補ジェスチャをユーザに提示し、かつ候補ジェスチャに対するユーザの操作を受け付ける。ジェスチャ定義登録部7は、ジェスチャにおける各パラメータの制約条件を示すジェスチャ定義データをジェスチャ定義データベース8に登録する。以上の構成によれば、ユーザ(ジェスチャ登録者)が1つのモーションデータをジェスチャ登録装置101に入力すると、特徴解析部22で解析したモーションデータの基本的な特徴を残しつつ、他のパラメータを変更した候補ジェスチャがユーザに提示される。そして、候補ジェスチャに対するユーザの反応を踏まえて各パラメータの制約条件が決定されるので、ユーザは各パラメータの制約条件を漏れなく検討することができる。したがって、意図に沿った適切なジェスチャ定義を容易に登録することが出来る。
<A-7. Effect>
The
また、候補ジェスチャ生成部4は、人体動作モデルデータベース3に基づき骨格の可動範囲内の候補ジェスチャを生成するため、実際に人体が動作可能なジェスチャ定義を登録することが出来る。
Moreover, since the candidate gesture production |
また、候補ジェスチャ生成部4は、ジェスチャを定義するパラメータを固定パラメータと変動パラメータに分け、固定パラメータの制約条件(基本制約条件BR)を満たしつつ、変動パラメータを変更して候補ジェスチャを生成する。そして、各ポーズ時における固定パラメータは、ジェスチャにおいて最も移動距離の長い身体特徴点の他の身体特徴点に対する配置特徴や、ジェスチャにおいて最も移動距離の長い前記身体特徴点の移動方向を含む。したがって、モーションデータの基本的な特徴を残しつつ、他のパラメータを変更した候補ジェスチャを生成することができる。
In addition, the candidate
<B.実施の形態2>
実施の形態1では、ユーザが1つの動画データを通してモーションデータを入力すると、ジェスチャ登録装置101はそれに対する候補ジェスチャをユーザに提示し、ユーザの反応を基にジェスチャ定義を作成した。実施の形態2では、ジェスチャ登録装置101の別のジェスチャ定義作成方法を説明する。すなわち、ジェスチャ登録装置101は複数の動画データを通して複数のモーションデータを受けると、当該複数のモーションデータが満たすジェスチャの制約条件を算出し、それを基に候補ジェスチャをユーザに提示する。ユーザは、登録したいジェスチャ定義に関し、考え得る複数個のモーションデータをジェスチャ登録装置に例示することで、意図した候補ジェスチャが提示され、簡単にジェスチャ定義を作成することができる。
<B. Second Embodiment>
In the first embodiment, when the user inputs motion data through one moving image data, the
<B−1.動作>
モーション入力部1は、複数の動画データあるいは複数のモーションデータの入力を受け付け、ジェスチャ解析部21に送信する。本実施の形態では、2種類のモーションデータMD1,MD2が入力されるとして説明を行う。
<B-1. Operation>
The
図13はモーションデータMD1のジェスチャを、図14はモーションデータMD2のジェスチャを示している。モーションデータMD1のジェスチャは、図7に示すジェスチャと同様、左腕を下にまっすぐ降ろした状態から、腕を伸ばした状態を保って前方向を経由して上部に移動させるジェスチャに関する。モーションデータMD2は、右臀部の近くへ斜めに下した左腕を、前方向を経由して左上部へ移動させるジェスチャに関する。 FIG. 13 shows a gesture of motion data MD1, and FIG. 14 shows a gesture of motion data MD2. Like the gesture shown in FIG. 7, the gesture of the motion data MD <b> 1 relates to a gesture of moving the left arm straight down and moving it upward through the forward direction while keeping the arm extended. The motion data MD2 relates to a gesture for moving the left arm slanted downward near the starboard area to the upper left via the front direction.
モーション解析部2のジェスチャ解析部21と特徴解析部22は、複数のモーションデータに対し、それぞれ実施の形態1と同様の処理を行って特徴データFD11、FD12を生成する。特徴データFD11は実施の形態1の特徴データFDと同じである。特徴データFD12では、ジェスチャ部位FD1が左腕部、主要な移動方向FD2の第1成分がy軸正方向、第2成分がx軸負方向、第3成分がz軸負方向、重要身体特徴点FD3は左手となる。また、重要身体的特徴点の配置特徴FD4として、ポーズP21の第1〜第3成分はそれぞれy軸、x軸、z軸、ポーズP22の第1〜第3成分はy軸、x軸、z軸、遷移時の関節角度FD5は最大値および最小値共に170、移動速度FD6は70となる。
The
候補ジェスチャ生成部4は、特徴データFD11とFD12を含む複数のジェスチャデータを受け取り、そこから各特徴を満たすパラメータの制約条件を生成する。
The candidate
図11のフローチャートに沿って、以下候補ジェスチャ生成部4の候補ジェスチャ生成処理を説明する。まず、特徴解析部22から複数のジェスチャデータを受信し(ステップS1)、複数のモーションデータの特徴を満たす統一基本制約条件BRCを生成する(ステップS2)。
The candidate gesture generation processing of the candidate
統一基本制約条件BRCは、モーションデータごとの基本制約条件BRの和である。基本制約条件BRは、各ポーズにおける重要身体特徴点の位置に関する制約条件BR1と、ポーズ間遷移時における重要身体特徴点の移動方向に関する制約条件BR2の2種類からなる。この例でモーションデータMD2の基本制約条件BRは、重要身体部位である左手が、肘や肩より主にy軸負方向の開始ポーズP21の位置から、大きくy軸正方向へx軸負方向への移動を伴って遷移し、肘や肩よりy軸正方向の終了ポーズP22にたどり着くという内容を示す。これをモーションデータMD1の基本制約条件BRとあわせて、統一基本制約条件BRCが得られる。その内容は、重要身体部位である左手が、肘や肩より主にy軸負方向であって開始ポーズP11から開始ポーズP21の範囲の位置を起点とし、大きくy軸正方向へz軸負方向およびx軸負方向への移動を伴って遷移し、肘や肩よりy軸正方向であって終了ポーズP12から終了ポーズP22の範囲の位置にたどり着く、というものである。 The unified basic constraint condition BRC is the sum of the basic constraint conditions BR for each motion data. The basic constraint condition BR consists of two types: a constraint condition BR1 related to the position of the important body feature point in each pose, and a constraint condition BR2 related to the movement direction of the important body feature point at the time of transition between poses. In this example, the basic constraint condition BR of the motion data MD2 is that the left hand, which is an important body part, largely moves from the position of the starting pose P21 in the negative y-axis direction to the positive y-axis direction and in the negative x-axis direction from the elbow and shoulder. It shows the content of transition with the movement of, reaching the end pose P22 in the positive y-axis direction from the elbow or shoulder. By combining this with the basic constraint condition BR of the motion data MD1, a unified basic constraint condition BRC is obtained. The content is that the left hand, which is an important body part, is mainly in the y-axis negative direction from the elbow or shoulder and starts from the position in the range from the start pose P11 to the start pose P21, and greatly increases in the y-axis positive direction to the z-axis negative direction. And transition with a movement in the negative x-axis direction, reaching the position in the positive y-axis direction from the end pose P12 to the end pose P22 from the elbow or shoulder.
次に、候補ジェスチャ生成部4は上記で求めた統一基本制約条件BRCを基に、まず複数モーションデータの特徴を満たす、ポーズとポーズ間遷移時のパラメータの制約条件を候補ジェスチャとして生成する(ステップS3)。パラメータの制約条件には、各ポーズにおけるジェスチャ部位の関節角度、ポーズ間遷移時におけるジェスチャ部位の関節角度、移動速度がある。
Next, based on the unified basic constraint condition BRC obtained above, the candidate
各ポーズにおけるジェスチャ部位の関節角度に関する制約条件は、実施の形態1と同様、各身体特徴点の座標を基に算出する。例えば、左手に関する制約条件は、ポーズP11、P21における各左手のx、y、z座標それぞれの範囲(一定範囲)とする。 The constraint condition regarding the joint angle of the gesture part in each pose is calculated based on the coordinates of each body feature point as in the first embodiment. For example, the constraint condition regarding the left hand is a range (constant range) of each x, y, z coordinate of each left hand in the poses P11, P21.
ポーズ間遷移時におけるジェスチャ部位の関節角度に関する制約条件は、それぞれの特徴データの遷移時の関節角度FD5を参照し、その最大値および最小値からなる範囲の和を制約条件とする。この例では、全て170度であるため、関節角度は170度を保って動くという「特定値」の制約条件となる。 The constraint condition regarding the joint angle of the gesture part at the time of transition between poses refers to the joint angle FD5 at the time of transition of each feature data, and uses the sum of the range of the maximum value and the minimum value as the constraint condition. In this example, since all are 170 degrees, the joint angle becomes a “specific value” constraint condition that the joint angle moves while maintaining 170 degrees.
ポーズ間遷移時の移動速度に関する制約条件は、それぞれの特徴データFD11,12における移動速度の範囲の和とする。ここでは、特徴データFD11の移動速度が60、特徴データFD12の移動速度が70であるので、移動速度60〜70の「一定範囲」が制約条件となる。
The constraint on the movement speed at the time of transition between poses is the sum of the movement speed ranges in the respective feature data FD11 and FD12. Here, since the moving speed of the feature data FD11 is 60 and the moving speed of the feature data FD12 is 70, the “constant range” of the moving
候補ジェスチャ生成部4は、このように求めた制約条件を記載した候補ジェスチャの定義データを、ジェスチャ提示部5に送信する(ステップS4)。
The candidate
ジェスチャ提示部5では、各ポーズの制約条件やポーズ間遷移中の制約条件を、ユーザにとって分かりやすい表示形態に変換して、入出力部6の候補ジェスチャ提示エリア62に表示する。ここで、ユーザ操作エリア63には、現在の候補ジェスチャの制約条件がユーザにとって許容できるか否かの選択操作を促すような表示や、変更したいパラメータを選択して変更内容を入力できるような表示がなされる。
In the
ユーザが入出力部6に対し、例えば現在の候補ジェスチャの制約条件がユーザにとって許容できるか否かの選択操作を行う。候補ジェスチャ生成部4は、その入力結果をジェスチャ提示部5を介して受信する(ステップS5)。
For example, the user performs a selection operation on the input /
ユーザが現在の候補ジェスチャを許容しなければ(ステップS6でNo)、ステップS3に戻り、パラメータを変更した候補ジェスチャの生成とユーザへの提示を、ユーザが候補ジェスチャを許容するまで繰り返す。なお、新たな候補ジェスチャの生成は、実施の形態1と同様に、設定されている制約条件や身体の可動範囲325を参照しながら行う。あるいは、新たなモーションデータの入力をモーション入力部1で受け付け、新たなモーションデータの特徴データも加味した制約条件をもつ候補ジェスチャを生成しても良い。
If the user does not allow the current candidate gesture (No in step S6), the process returns to step S3, and the generation of the candidate gesture with the changed parameter and the presentation to the user are repeated until the user allows the candidate gesture. It should be noted that the generation of a new candidate gesture is performed with reference to the set constraint conditions and the
ユーザが候補ジェスチャを許容すれば(ステップS6)、当該候補ジェスチャの中で変更したパラメータの制約条件が確定する。候補ジェスチャの全てのパラメータについて制約条件が確定すれば(ステップS7でYes)、ジェスチャ定義が生成される(ステップS8)。すなわち、ジェスチャ定義登録部7がジェスチャ定義データベース8にジェスチャ定義データを登録する。
If the user allows the candidate gesture (step S6), the parameter constraint condition changed in the candidate gesture is determined. If the constraint condition is confirmed for all parameters of the candidate gesture (Yes in step S7), a gesture definition is generated (step S8). That is, the gesture
なお、実施の形態1と実施の形態2のどちらの処理を行うかどうかは、最初にモーション入力部1に入力されるモーションデータMDの個数に応じて決定しても良い。例えば、モーションデータMDの入力数が1であれば実施の形態1の動作を行い、2以上であれば実施の形態2の動作を行っても良い。また、候補ジェスチャ生成部4にどちらの処理を行うかのモードを持たせ、その設定に従って受け付けるモーションデータの個数を制御してもよい。
Whether to perform the processing of the first embodiment or the second embodiment may be determined according to the number of motion data MD input to the
<B−2.効果>
実施の形態2に係るジェスチャ登録装置101において、ジェスチャ解析部21は、ジェスチャのモーションデータを複数取得するモーションデータ取得部として動作する。また、ジェスチャ解析部21はモーションデータ毎にポーズデータを生成する。また、特徴解析部22は、ポーズデータ毎にパラメータの制約条件を示す特徴データを算出する。そして、候補ジェスチャ生成部4は、全てのポーズデータにおける固定パラメータの制約条件の和を満たしつつ、変動パラメータを変更して候補ジェスチャのデータを生成する。以上の構成によれば、ユーザ(ジェスチャ登録者)が複数のモーションデータをジェスチャ登録装置102に入力すると、特徴解析部22で解析した各モーションデータの基本的な特徴をあわせ持ちながら、一部のパラメータを変更した候補ジェスチャがユーザに提示される。そして、候補ジェスチャに対するユーザの反応を踏まえて各パラメータの制約条件が決定されるので、ユーザは各パラメータの制約条件を漏れなく検討することができる。したがって、意図に沿った適切なジェスチャ定義を容易に登録することが出来る。また、予めユーザが複数のモーションデータを登録することにより、ユーザの意図に沿ったジェスチャ定義を容易に登録することができる。
<B-2. Effect>
In the
<C.実施の形態3>
開発者が複数のジェスチャを登録する場合には、それらが正しく区別されて認識されるように検討したうえで、それぞれのジェスチャ定義を設定することが必要となる。ジェスチャ同士の定義が被っていると、意図しないタイミングでジェスチャが認識されたり、認識されない場合が発生するからである。前者が発生するのは、あるジェスチャの開始ポーズまたは終了ポーズの定義(制約条件)が、他のジェスチャの終了ポーズまたは開始ポーズの定義(制約条件)と重複する場合である。例えば、あるジェスチャの終了ポーズと、他のジェスチャの開始ポーズとで制約条件が重複していれば、あるジェスチャが終了したと同時に他のジェスチャが開始してしまう。また、あるジェスチャの定義が他のジェスチャの定義の範囲に包含されてしまうことで、ジェスチャが認識されない場合が発生する。
<
When a developer registers multiple gestures, it is necessary to set each gesture definition after considering that they are correctly distinguished and recognized. This is because if the gestures are defined, the gesture may or may not be recognized at an unintended timing. The former occurs when the definition (constraint condition) of the start pose or end pose of one gesture overlaps the definition (constraint condition) of the end pose or start pose of another gesture. For example, if the constraint condition overlaps between the end pose of a certain gesture and the start pose of another gesture, another gesture starts at the same time as the end of the certain gesture. In addition, when a gesture definition is included in the range of another gesture definition, the gesture may not be recognized.
こうした問題を解決するため、実施の形態3では、ユーザが入力したジェスチャが登録済みのジェスチャ定義と重複するか否か、すなわちジェスチャの整合性を判断する。 In order to solve such a problem, in the third embodiment, it is determined whether or not the gesture input by the user overlaps with the registered gesture definition, that is, the consistency of the gesture.
<C−1.構成>
図15は、実施の形態3に係るジェスチャ登録装置102の構成を例示するブロック図である。ジェスチャ登録装置102は、実施の形態1,2に係るジェスチャ登録装置101の構成に加えて、整合性判定部9を備える。
<C-1. Configuration>
FIG. 15 is a block diagram illustrating the configuration of the
<C−2.動作>
図16は、ジェスチャ登録装置102におけるジェスチャ定義登録処理のフローチャートである。以下、図16に沿って候補ジェスチャ生成処理を説明する。但し、ステップS2A以外の工程は図11に示すジェスチャ登録装置101のフローチャートと同様であるため、説明を省略する。
<C-2. Operation>
FIG. 16 is a flowchart of the gesture definition registration process in the
候補ジェスチャ生成部4は、モーションデータMDのポーズデータPDと特徴データFDから基本制約条件BRを生成すると(ステップS2)、整合性判定部9にポーズデータPD、特徴データFDおよび基本制約条件BRを送信する。
When the candidate
整合性判定部9は、ジェスチャ定義データベース8に登録されている各ジェスチャ定義データを参照しながら、現在入力されているモーションデータと各ジェスチャ定義との整合性を判定する(ステップS2A)。
The
具体的には、まず、モーションデータのジェスチャ部位が、ジェスチャ定義データベース8に登録されたジェスチャ定義データのジェスチャ部位83と一致するか否かを判断する。ここで、モーションデータのジェスチャ部位とは、ポーズデータPDのジェスチャ部位PDT3のことである。一致するジェスチャ定義データがあれば、モーションデータの開始ポーズ及び終了ポーズを、ジェスチャ定義データベースの開始ポーズ及び終了ポーズの制約条件と比較し、整合性を判断する。この比較は、(1)モーションデータとジェスチャ定義データの開始ポーズ同士、(2)モーションデータとジェスチャ定義データの終了ポーズ同士、(3)モーションデータの開始ポーズとジェスチャ定義データの終了ポーズ、(4)モーションデータの終了ポーズとジェスチャ定義データの開始ポーズ、の4パターンで行われる。
Specifically, first, it is determined whether or not the gesture part of the motion data matches the
ジェスチャ定義データ側の比較対象は制約条件84とし、モーションデータ側の比較対象は、ポーズデータPD内のジェスチャ部位PDT3に含まれる身体特徴点の3次元座標PDT1とする。ジェスチャ定義の制約条件84に記述がない身体特徴点は、3次元座標がどのような値となっていても良い「自由」の制約条件であるため、その身体特徴点に関しては整合性を考慮せず、制約条件として記載されている身体特徴点同士のみを比較する。具体的には、モーションデータ側の3次元座標PDT1が、制約条件84を満たすか否かを判断する。
The comparison target on the gesture definition data side is the
上記パターン(3)、(4)の比較において、3次元座標PDT1が制約条件84を満たすと判断した場合、当該ジェスチャは別のジェスチャと連続して、意図しないタイミングで認識されるものとなる。したがって、整合性に問題があると判断する。
In the comparison of the patterns (3) and (4), when it is determined that the three-dimensional coordinate PDT1 satisfies the
上記パターン(1)、(2)の比較において、3次元座標PDT1が制約条件84を満たすと判断した場合、開始ポーズおよび終了ポーズを除いたポーズ数を比較する。もし、ポーズ数が同じであれば、それらのポーズに関しても、3次元座標PDT1と制約条件84を比較する。そして、開始ポーズ及び終了ポーズを含め、全てのポーズにおいて3次元座標PDT1が制約条件84を満たすと判断されれば、整合性に問題があると判断する。なぜなら、当該モーションデータは以前に登録されたジェスチャ定義と非常に似ているものであるとして、登録しても認識されないためである。
In the comparison of the patterns (1) and (2), when it is determined that the three-dimensional coordinate PDT1 satisfies the
整合性なしと判断した場合(ステップS2AでNo)、整合性判定部9はジェスチャ提示部5にその旨を示す信号を送る。そして、整合性がない旨の表示をジェスチャ提示部5が生成し、入出力部6で表示される(ステップS9)。図11に示すステップS3以降の処理は中断され、当該モーションデータから候補ジェスチャは生成されない。そして、モーション入力部1において別のモーションデータの入力の受付を可能とする。
When it is determined that there is no consistency (No in step S2A), the
整合性に問題がないと判断した場合(ステップS2AでYes)、実施の形態1,2と同様にステップS3以降の処理が行われ、ジェスチャ定義が登録される。 If it is determined that there is no problem with the consistency (Yes in step S2A), the processing after step S3 is performed in the same manner as in the first and second embodiments, and the gesture definition is registered.
上記の処理を、図17,18に示すジェスチャのモーションデータが入力された場合を例として説明する。例えばジェスチャ定義データベース8には、図12に示すジェスチャ定義が予め登録されているとする。なお、図12に示すジェスチャ定義は、図7のモーションデータに対応している。
The above process will be described by taking as an example the case where the motion data of the gesture shown in FIGS. For example, it is assumed that the gesture definition shown in FIG. 12 is registered in advance in the
図17に示すジェスチャの場合、開始ポーズP1の左手のx座標やz座標は図7のジェスチャと変わらないが、y座標は頭部y座標+30に位置している(図17(a))。同じく終了ポーズP2では、左手のx座標やz座標は図7のジェスチャと変わらないが、y座標のみ左臀部−5に位置している(図17(b))。すなわち、モーションデータの終了ポーズP2において、左手の3次元座標はジェスチャ定義データの開始ポーズの制約条件84を満たしている。また、モーションデータの開始ポーズP1において、左手の3次元座標はジェスチャ定義データの終了ポーズの制約条件84を満たしている。したがって、図17に示すジェスチャのモーションデータは、整合性に問題があると判断される。
In the case of the gesture shown in FIG. 17, the x-coordinate and z-coordinate of the left hand of the start pose P1 are not different from the gesture of FIG. 7, but the y coordinate is located at the head y coordinate +30 (FIG. 17 (a)). Similarly, in the end pose P2, the x-coordinate and z-coordinate of the left hand are not different from the gesture of FIG. 7, but only the y-coordinate is located at the port part-5 (FIG. 17B). That is, at the end pose P2 of the motion data, the three-dimensional coordinates of the left hand satisfy the start pose
図18に示すジェスチャの場合、開始ポーズP1では少し左肘を曲げており、左手が図7のジェスチャよりもy軸正方向(左臀部y座標+10)に位置している(図18(a))。左手のx座標やz座標は図7のジェスチャと変わらない。同じく終了ポーズP2の左手は、図7よりもy軸負方向(頭部y座標+20)に位置している(図18(b))。左手のx座標やz座標は図7のジェスチャと変わらない。すなわち、モーションデータの開始ポーズP1の3次元座標は、ジェスチャ定義データの開始ポーズの制約条件を満たし、モーションデータの終了ポーズP2の3次元座標は、ジェスチャ定義データの終了ポーズの制約条件を満たしている。図18に示すジェスチャのモーションデータには、開始ポーズP1および終了ポーズP2以外のポーズが存在しないため、整合性に問題があると判断される。 In the case of the gesture shown in FIG. 18, the left elbow is bent slightly in the start pose P1, and the left hand is positioned in the positive direction of the y-axis (left port part y-coordinate +10) with respect to the gesture of FIG. ). The x-coordinate and z-coordinate of the left hand are the same as the gesture in FIG. Similarly, the left hand of the end pose P2 is located in the negative y-axis direction (head y coordinate + 20) from FIG. 7 (FIG. 18B). The x-coordinate and z-coordinate of the left hand are the same as the gesture in FIG. That is, the 3D coordinate of the start pose P1 of the motion data satisfies the constraint condition of the start pose of the gesture definition data, and the 3D coordinate of the end pose P2 of the motion data satisfies the constraint condition of the end pose of the gesture definition data. Yes. In the gesture motion data shown in FIG. 18, since there is no pose other than the start pose P1 and the end pose P2, it is determined that there is a problem in consistency.
なお、整合性判定部9が、入力されたモーションデータに対し整合性に問題があると判断した場合、当該モーションデータについての候補ジェスチャの生成をやめるのではなく、整合性に問題がなくなるようにパラメータを変更した候補ジェスチャを生成しても良い。
If the
また、ジェスチャ定義データベース8にジェスチャ定義データの他、候補ジェスチャ作成時に利用したモーションデータやポーズデータ、特徴データを併せて登録しても良い。そして、入力されたモーションデータがジェスチャと整合性がない場合に、候補ジェスチャ生成部4が登録済のジェスチャ定義データを変更してもよい。
In addition to the gesture definition data, motion data, pose data, and feature data used when creating the candidate gesture may be registered in the
<C−3.効果>
実施の形態3に係るジェスチャ登録装置102は、ジェスチャ登録装置101の構成に加えて整合性判定部9を備える。整合性判定部9は、ジェスチャ定義データベース8に登録されたジェスチャ定義データと、ジェスチャ解析部21(モーションデータ取得部)が取得したモーションデータのジェスチャとが重複するか否かを判断する。また、候補ジェスチャ生成部4は、整合性判定部9が重複しないと判断したモーションデータに対してのみ候補ジェスチャを生成する。これにより、重複するジェスチャ定義が登録され、ジェスチャが意図しないタイミングで認識され、または認識されないという問題を避けることができる。
<C-3. Effect>
The
<D.実施の形態4>
ユーザが複数のジェスチャを登録する際に、登録済みのジェスチャ定義データと整合性がとれなかった場合、他のジェスチャを登録しなおす必要がある。このとき、他の候補となるジェスチャとしては、登録しようとしていたジェスチャのパラメータを修正する方法も考えられるが、同じ身体部位を用いて全く異なる動きを行うジェスチャや、他の身体部位を用いたジェスチャを登録することも考えられる。本実施の形態では、ジェスチャ同士の整合性がとれなかった場合に、後者のような候補ジェスチャを生成する方法について説明する。
<
When the user registers a plurality of gestures, if the consistency with the registered gesture definition data cannot be obtained, it is necessary to re-register other gestures. At this time, as another candidate gesture, a method of correcting the parameter of the gesture to be registered may be considered, but a gesture that performs a completely different movement using the same body part or a gesture using another body part is possible. It is possible to register. In the present embodiment, a method for generating a candidate gesture such as the latter in the case where consistency between gestures cannot be obtained will be described.
<D−1.構成>
図19は、実施の形態4に係るジェスチャ登録装置103の構成を例示するブロック図である。ジェスチャ登録装置103は、実施の形態3のジェスチャ登録装置102の構成に加えて、ジェスチャルールデータベース10を備える。
<D-1. Configuration>
FIG. 19 is a block diagram illustrating the configuration of the
ジェスチャルールデータベース10には、候補ジェスチャ生成ルールと、汎用ジェスチャ定義データが、部位ごとに複数個登録されている。候補ジェスチャ生成ルールとは、登録しようとしたジェスチャがジェスチャ定義データと整合性がとれなかったときに、代替となる候補ジェスチャを生成するためのルールである。また汎用ジェスチャ定義データとは、一般的に用いられ得るジェスチャの定義データである。
In the
候補ジェスチャ生成ルールの例としては、腕部や足部など身体的に左右一対となった部位の一方を用いたジェスチャが登録できない場合に、(1)他方の部位を用いて同じ動きを行う候補ジェスチャを生成する、(2)両方の部位を用いた候補ジェスチャを生成する、(3)ジェスチャルールデータベース10に登録されている同じ部位のジェスチャを候補ジェスチャとして生成する、などがある。候補ジェスチャ生成ルールは、身体部位の特性や、ジェスチャ定義データベース8へのジェスチャの登録状況、候補ジェスチャを提示した際のユーザの反応に応じて処理内容が分岐される。
Examples of candidate gesture generation rules include: (1) Candidate to perform the same movement using the other part when the gesture using one of the left and right parts such as arms and legs cannot be registered Generating a gesture, (2) generating a candidate gesture using both parts, and (3) generating a gesture of the same part registered in the
汎用ジェスチャ定義データとしては、ジェスチャ定義を区別する番号、ポーズデータ、ジェスチャ部位、制約条件などが登録されている。他にも、他の部位のジェスチャ定義と併用しても良いかの条件や、併用可能なジェスチャ定義の番号などが登録されていてもよい。 As general-purpose gesture definition data, numbers for distinguishing gesture definitions, pose data, gesture parts, constraint conditions, and the like are registered. In addition, conditions for determining whether or not to use together with gesture definitions of other parts, gesture definition numbers that can be used together, and the like may be registered.
<D−2.動作>
図20は、ジェスチャ登録装置103におけるジェスチャ定義登録処理のフローチャートである。以下、図20に沿ってジェスチャ定義登録処理を説明する。但し、ステップS2A,S9,10以外の工程は図11に示すジェスチャ登録装置101のフローチャートと同様であるため、説明を省略する。
<D-2. Operation>
FIG. 20 is a flowchart of the gesture definition registration process in the
整合性判定部9は、ジェスチャ定義データベース8に登録されている各ジェスチャ定義データを参照しながら、現在入力されているモーションデータと各ジェスチャ定義との整合性を判定する(ステップS2A)。整合性がある場合には、実施の形態1と同様にステップS3以下の処理を行い、ジェスチャ定義を登録する(ステップS8)。
The
ステップS2Aで整合性がない場合、整合性判定部9は候補ジェスチャ生成部4にその内容を示す信号を送る。候補ジェスチャ生成部4は、ジェスチャルールデータベース10を参照して、そのルールに基づいて候補ジェスチャを生成する(ステップS9)。
If there is no consistency in step S <b> 2 </ b> A, the
図7に示す、左手を下から上にあげるジェスチャのモーションデータが入力され、それが既に登録されたジェスチャ定義と不整合である場合を例として、ステップS9の処理を説明する。ジェスチャルールデータベース10に、「ジェスチャ部位に対となる部位があり、かつその部位を用いた同じ動きを行うジェスチャが登録されていなければ、対となる部位で同じ動きを行う」と記述されているとする。候補ジェスチャ生成部4は、身体可動範囲テーブル32の部位321を参照して対となる部位(右腕部)を取得し、右手を下から上に挙げるジェスチャがジェスチャ定義データベース8に登録されているかを確認する。登録されていなければ、当該ジェスチャを候補ジェスチャとして生成し(ステップS10)、ジェスチャ提示部5へ送信する(ステップS11)。候補ジェスチャは、入出力部6を通してユーザに提示される。入出力部6を通じてユーザによる候補ジェスチャ選択操作が入力されると、候補ジェスチャ生成部4は、その入力結果をジェスチャ提示部5から受信する(ステップS12)。候補ジェスチャ生成部4は、候補ジェスチャの許容可否を判断する(ステップS13)。候補ジェスチャを許容できるとの入力結果であれば(ステップS13でYes)、当該候補ジェスチャをジェスチャ定義として登録する(ステップS8)。
The process of step S9 will be described by taking as an example a case where the motion data of a gesture in which the left hand is raised from the bottom to the top shown in FIG. 7 is input and is inconsistent with the already registered gesture definition. It is described in the
ステップS13で候補ジェスチャがユーザに許容されなかった場合は、ステップS10に戻り、ジェスチャルールデータベース10をさらに参照して、ユーザに許容されるまで新たな候補ジェスチャを生成する。例えば、ルールに応じて汎用ジェスチャ定義データのうち、左腕部を用いたジェスチャ定義を参照して、左から右方向に左腕を動かす候補ジェスチャを生成したり、左腕部や右腕部を併用して動かす候補ジェスチャを生成する。
When the candidate gesture is not permitted by the user in step S13, the process returns to step S10, and further refers to the
<D−3.効果>
実施の形態4に係るジェスチャ登録装置103は、ジェスチャ登録装置102の構成に加えて、ジェスチャ定義データベースに登録済みのジェスチャを代替する代替ジェスチャの生成ルールと、各身体部位を用いたジェスチャの定義とが登録された、ジェスチャルールデータベース10を備える。そして、候補ジェスチャ生成部4は、ジェスチャ解析部21が取得したモーションデータのジェスチャが、登録済みのジェスチャと重複すると整合性判定部9により判断された場合、候補ジェスチャに代えてジェスチャルールデータベースに基づく代替候補ジェスチャを生成する。取得したモーションデータが登録済みのジェスチャ定義と重複する場合には、代替候補ジェスチャを生成してユーザに提示するので、利便性の良いジェスチャ登録装置となる。
<D-3. Effect>
In addition to the configuration of the
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。 It should be noted that the present invention can be freely combined with each other within the scope of the invention, and each embodiment can be appropriately modified or omitted.
1 モーション入力部、2 モーション解析部、3 人体動作モデルデータベース、4 候補ジェスチャ生成部、5 ジェスチャ提示部、6 入出力部、7 ジェスチャ定義登録部、8 ジェスチャ定義データベース、9 整合性判定部、10 ジェスチャルールデータベース、21 ジェスチャ解析部、22 特徴解析部、101,102,103 ジェスチャ登録装置。
DESCRIPTION OF
Claims (6)
前記モーションデータに基づき、前記ジェスチャを構成する各ポーズにおける各身体特徴点の3次元座標を示すポーズデータを生成するジェスチャ解析部と、
前記ポーズデータに基づき、各前記ポーズ時および前記各ポーズ間の遷移時における前記ジェスチャの特徴を表すパラメータの制約条件を示す特徴データを算出する特徴解析部と、
人体を構成する骨格の可動範囲を定義した人体動作モデルデータベースと、
一部の前記パラメータの前記制約条件を満たしつつその他の前記パラメータを変更し、前記人体動作モデルデータベースに基づき骨格の可動範囲内の候補ジェスチャを生成する候補ジェスチャ生成部と、
前記候補ジェスチャをユーザに提示し、かつ前記候補ジェスチャに対する前記ユーザの操作を受け付ける入出力部と、を備え、
前記候補ジェスチャ生成部は、前記入出力部において前記候補ジェスチャを拒否する前記ユーザの操作を受け付けると新たな前記候補ジェスチャを生成し、かつ、前記候補ジェスチャに対する前記ユーザの操作に基づき、前記その他のパラメータの前記制約条件を決定し、
前記ジェスチャにおける各前記パラメータの前記制約条件を示すジェスチャ定義データをジェスチャ定義データベースに登録するジェスチャ定義登録部をさらに備える、
ジェスチャ登録装置。 A motion data acquisition unit for acquiring gesture motion data;
A gesture analysis unit that generates pose data indicating three-dimensional coordinates of each body feature point in each pose constituting the gesture based on the motion data;
Based on the pose data, a feature analysis unit that calculates feature data indicating constraint conditions of parameters representing the features of the gesture at the time of each pose and at the time of transition between the poses;
A human body motion model database that defines the movable range of the skeleton constituting the human body,
A candidate gesture generation unit that changes the other parameters while satisfying the constraints of some of the parameters, and generates a candidate gesture within a movable range of the skeleton based on the human body motion model database;
An input / output unit that presents the candidate gesture to a user and receives the user's operation on the candidate gesture;
The candidate gesture generation unit generates a new candidate gesture upon accepting the user's operation to reject the candidate gesture at the input / output unit, and based on the user's operation on the candidate gesture, Determine the constraints of the parameters;
A gesture definition registration unit that registers, in a gesture definition database, gesture definition data indicating the constraint condition of each of the parameters in the gesture;
Gesture registration device.
前記ジェスチャ解析部は、前記モーションデータ毎に前記ポーズデータを生成し、
前記特徴解析部は、前記ポーズデータ毎に前記パラメータの前記制約条件を示す前記特徴データを算出し、
前記候補ジェスチャ生成部は、全ての前記ポーズデータにおける前記一部のパラメータの前記制約条件の和を満たしつつ、前記その他のパラメータを変更して前記候補ジェスチャを生成する、
請求項1に記載のジェスチャ登録装置。 The motion data acquisition unit acquires a plurality of the motion data of the gesture,
The gesture analysis unit generates the pose data for each motion data,
The feature analysis unit calculates the feature data indicating the constraint condition of the parameter for each pose data,
The candidate gesture generation unit generates the candidate gesture by changing the other parameters while satisfying the sum of the constraints of the partial parameters in all the pose data.
The gesture registration device according to claim 1.
各前記ポーズ時における前記固定パラメータは、前記ジェスチャにおいて最も移動距離の長い前記身体特徴点の他の前記身体特徴点に対する配置特徴を含む、
請求項1又は2に記載のジェスチャ登録装置。 The candidate gesture generation unit divides the parameter into a fixed parameter and a variable parameter, generates the candidate gesture by changing the variable parameter while satisfying the constraint condition of the fixed parameter,
The fixed parameter at each pose includes an arrangement feature of the body feature point having the longest movement distance in the gesture with respect to the body feature point.
The gesture registration device according to claim 1.
前記各ポーズ間の遷移時における前記固定パラメータは、前記ジェスチャにおいて最も移動距離の長い前記身体特徴点の移動方向を含む、
請求項1から3のいずれかに記載のジェスチャ登録装置。 The candidate gesture generation unit divides the parameter into a fixed parameter and a variable parameter, generates the candidate gesture by changing the variable parameter while satisfying the constraint condition of the fixed parameter,
The fixed parameter at the time of transition between the poses includes a moving direction of the body feature point having the longest moving distance in the gesture.
The gesture registration device according to any one of claims 1 to 3.
前記候補ジェスチャ生成部は、前記整合性判定部が重複しないと判断した前記モーションデータに対してのみ前記候補ジェスチャを生成する、
請求項1から4のいずれかに記載のジェスチャ登録装置。 A consistency determination unit that determines whether or not the gesture definition data registered in the gesture definition database overlaps the gesture of the motion data acquired by the motion data acquisition unit;
The candidate gesture generation unit generates the candidate gesture only for the motion data determined that the consistency determination unit does not overlap.
The gesture registration device according to claim 1.
前記候補ジェスチャ生成部は、前記モーションデータ取得部が取得した前記モーションデータの前記ジェスチャが、登録済みの前記ジェスチャと重複すると前記整合性判定部により判断された場合、前記候補ジェスチャに代えて前記ジェスチャルールデータベースに基づく代替候補ジェスチャを生成する、
請求項5に記載のジェスチャ登録装置。 A gesture rule database in which a rule for generating an alternative gesture that replaces the gesture registered in the gesture definition database and a definition of the gesture using each body part are registered;
When the consistency determination unit determines that the gesture of the motion data acquired by the motion data acquisition unit overlaps the registered gesture, the candidate gesture generation unit replaces the gesture with the gesture. Generate alternative candidate gestures based on the rule database,
The gesture registration device according to claim 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013261423A JP6091407B2 (en) | 2013-12-18 | 2013-12-18 | Gesture registration device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013261423A JP6091407B2 (en) | 2013-12-18 | 2013-12-18 | Gesture registration device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015116308A JP2015116308A (en) | 2015-06-25 |
JP6091407B2 true JP6091407B2 (en) | 2017-03-08 |
Family
ID=53529598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013261423A Active JP6091407B2 (en) | 2013-12-18 | 2013-12-18 | Gesture registration device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6091407B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019008337A (en) * | 2015-10-26 | 2019-01-17 | 三郎 山内 | Object identification system, object identification method, program and computer storage medium |
JP6293953B1 (en) * | 2017-04-04 | 2018-03-14 | 京セラ株式会社 | Electronic device, program, and control method |
WO2019049216A1 (en) * | 2017-09-05 | 2019-03-14 | 富士通株式会社 | Grading method, grading program and grading device |
DE102017216000A1 (en) * | 2017-09-11 | 2019-03-14 | Conti Temic Microelectronic Gmbh | Gesture control for communication with an autonomous vehicle based on a simple 2D camera |
JP6943294B2 (en) | 2017-12-14 | 2021-09-29 | 富士通株式会社 | Technique recognition program, technique recognition method and technique recognition system |
JP6735780B2 (en) * | 2018-02-19 | 2020-08-05 | 株式会社ドワンゴ | Information processing device, information processing method, and program |
CN111460870A (en) | 2019-01-18 | 2020-07-28 | 北京市商汤科技开发有限公司 | Target orientation determination method and device, electronic equipment and storage medium |
JP7482471B2 (en) * | 2019-12-23 | 2024-05-14 | 住友ゴム工業株式会社 | How to generate a learning model |
CN111694429B (en) * | 2020-06-08 | 2023-06-02 | 北京百度网讯科技有限公司 | Virtual object driving method and device, electronic equipment and readable storage |
JP2022107137A (en) | 2021-01-08 | 2022-07-21 | 富士通株式会社 | Information processing device, output method, and output program |
JP7234324B1 (en) | 2021-09-28 | 2023-03-07 | 三菱電機インフォメーションシステムズ株式会社 | NOTIFICATION RECEIVING DEVICE, NOTIFICATION METHOD AND NOTIFICATION RECEIVING PROGRAM |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3431452B2 (en) * | 1997-06-16 | 2003-07-28 | 株式会社東芝 | Animation creation device and animation creation method |
JPH10302085A (en) * | 1997-04-30 | 1998-11-13 | Yamaha Corp | Operation recording system for cg model |
JP4185421B2 (en) * | 2003-08-27 | 2008-11-26 | 日本電信電話株式会社 | PROCESS INFORMATION INPUT DEVICE, PROCESS INFORMATION INPUT METHOD, PROGRAM OF THE METHOD, AND RECORDING MEDIUM CONTAINING THE PROGRAM |
JP4481663B2 (en) * | 2004-01-15 | 2010-06-16 | キヤノン株式会社 | Motion recognition device, motion recognition method, device control device, and computer program |
JP2005267604A (en) * | 2004-02-18 | 2005-09-29 | Fuji Xerox Co Ltd | Operation classification support device and operation classifying device |
JP4613142B2 (en) * | 2006-03-31 | 2011-01-12 | 日本システムウエア株式会社 | Gesture recognition apparatus, online operation system using the same, gesture recognition method, and computer-readable medium |
EP2132650A4 (en) * | 2007-03-01 | 2010-10-27 | Sony Comp Entertainment Us | System and method for communicating with a virtual world |
JP2013218480A (en) * | 2012-04-06 | 2013-10-24 | Kddi Corp | Motion generating device and method |
JP6195893B2 (en) * | 2013-02-19 | 2017-09-13 | ミラマ サービス インク | Shape recognition device, shape recognition program, and shape recognition method |
-
2013
- 2013-12-18 JP JP2013261423A patent/JP6091407B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015116308A (en) | 2015-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6091407B2 (en) | Gesture registration device | |
JP6642968B2 (en) | Information processing apparatus, information processing method, and program | |
KR101761050B1 (en) | Human-to-computer natural three-dimensional hand gesture based navigation method | |
CN103718175B (en) | Detect equipment, method and the medium of subject poses | |
JP5403699B2 (en) | Finger shape estimation device, finger shape estimation method and program | |
JP6771996B2 (en) | Systems and methods for real-time interactive operation of the user interface | |
Wen et al. | A robust method of detecting hand gestures using depth sensors | |
JP2018116599A (en) | Information processor, method for processing information, and program | |
JP6618276B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
JPWO2012011263A1 (en) | Gesture input device and gesture input method | |
CN105589553A (en) | Gesture control method and system for intelligent equipment | |
KR101760159B1 (en) | Method and device for detecting gesture inputs | |
JP2013125402A (en) | Posture estimation device and posture estimation method | |
CN104850219A (en) | Equipment and method for estimating posture of human body attached with object | |
JP6141108B2 (en) | Information processing apparatus and method | |
CN113228070A (en) | Method and system for automatic repeat step and loop detection for manual assembly line operations | |
JP6425405B2 (en) | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM | |
Rodriguez et al. | Robust vision-based hand tracking using single camera for ubiquitous 3D gesture interaction | |
KR20160141023A (en) | The method of dynamic and static gesture recognition using depth camera and interface of immersive media contents | |
KR101447958B1 (en) | Method and apparatus for recognizing body point | |
Siam et al. | Human computer interaction using marker based hand gesture recognition | |
Yokota et al. | Intuitive Arm-Pointing based Home-Appliance Control from Multiple Camera Views | |
JP6289655B2 (en) | Screen operation apparatus and screen operation method | |
KR101370830B1 (en) | System and Method for Implementing User Interface | |
Tran et al. | A hand gesture recognition library for a 3D viewer supported by kinect's depth sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6091407 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |