JP2018142815A - Three-dimensional data acquisition device and method - Google Patents

Three-dimensional data acquisition device and method Download PDF

Info

Publication number
JP2018142815A
JP2018142815A JP2017035228A JP2017035228A JP2018142815A JP 2018142815 A JP2018142815 A JP 2018142815A JP 2017035228 A JP2017035228 A JP 2017035228A JP 2017035228 A JP2017035228 A JP 2017035228A JP 2018142815 A JP2018142815 A JP 2018142815A
Authority
JP
Japan
Prior art keywords
state
posture
dimensional data
technique
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017035228A
Other languages
Japanese (ja)
Other versions
JP6834590B2 (en
Inventor
河合 淳
Atsushi Kawai
淳 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017035228A priority Critical patent/JP6834590B2/en
Publication of JP2018142815A publication Critical patent/JP2018142815A/en
Application granted granted Critical
Publication of JP6834590B2 publication Critical patent/JP6834590B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To continue acquisition of three-dimensional data in a state where the ratio of an object occupying the field angle of a three-dimensional sensor is high.SOLUTION: An acquisition unit 11 acquires three-dimensional data indicating the three-dimensional position of each point on the object detected by a 3D sensor 31, a recognition unit 12 recognizes the position and the posture of the object based on the three-dimensional data, an estimation unit 13 estimates the posture of the object at a time Tn+1, based on a received activity list 21 and the posture of the object recognized by the recognition unit 12, with reference to an operation pattern DB23 indicating multiple related operations including the same posture, and storing multiple operation patterns defined by transition of the state indicating the posture of the object, and a control unit 17 controls the orientation and the field angle of the 3D sensor 31 based on the estimated posture and position of the object.SELECTED DRAWING: Figure 1

Description

開示の技術は、3次元データ取得装置、及び3次元データ取得に関する。   The disclosed technology relates to a three-dimensional data acquisition apparatus and three-dimensional data acquisition.

従来、対象物の3次元位置座標を示す3次元データを取得可能な3次元センサにより対象物を追跡する技術が存在する。   Conventionally, there is a technique for tracking an object using a three-dimensional sensor capable of acquiring three-dimensional data indicating the three-dimensional position coordinates of the object.

例えば、広域における動体検出と解像度の高い動体の画像の出力とを同時に実現する動体検出装置が提案されている。この装置は、広角画像を撮影する第1の撮影部と、広角画像よりも狭い画角の狭角画像を撮影する第2の撮影部とを備える。また、この装置は、広角画像中における動体の位置を検出し、動体の位置に基づいて、広角画像から動体を含む動体画像を切り出し、動体画像から動体の特徴を示す特徴画像情報を作成し、特徴画像情報と狭角画像とを照合する。また、この装置は、検出された動体の位置に基づいて、所定時間後における広角画像中の動体の移動位置を予測し、予測された動体の位置の情報に基づいて、第2の撮影部が動体を視野に捉えるように、第2の撮影部の位置又は方向を移動させる。   For example, there has been proposed a moving object detection apparatus that simultaneously realizes moving object detection in a wide area and output of a moving object image with high resolution. This apparatus includes a first image capturing unit that captures a wide-angle image and a second image capturing unit that captures a narrow-angle image having a narrower angle of view than the wide-angle image. Further, this apparatus detects the position of a moving object in a wide-angle image, cuts out a moving object image including the moving object from the wide-angle image based on the position of the moving object, creates feature image information indicating the characteristics of the moving object from the moving object image, The feature image information and the narrow-angle image are collated. In addition, the apparatus predicts the moving position of the moving object in the wide-angle image after a predetermined time based on the detected position of the moving object, and the second imaging unit detects the position of the moving object based on the predicted position information of the moving object. The position or direction of the second imaging unit is moved so as to capture the moving object in the field of view.

特開2005−72840号公報JP 2005-72840 A

従来技術では、動体が移動履歴の延長線上を移動する場合には、動体の移動先を予測して追跡することが可能である。しかし、従来技術の手法では、例えば体操選手などのように、動作方向が急変する対象物の場合には、次のタイミングにおける対象物の移動先を適切に予測することができず、対象物の追跡精度が低下する。   In the prior art, when the moving object moves on the extension line of the movement history, it is possible to predict and track the moving destination of the moving object. However, in the case of an object whose movement direction changes suddenly, such as a gymnast, the conventional technique cannot appropriately predict the movement destination of the object at the next timing. Tracking accuracy is reduced.

また、対象物の詳細な動作を把握したい場合などには、3次元センサの画角に占める対象物の割合が高い状態で3次元データの取得を継続できることが望ましい。   In addition, when it is desired to grasp the detailed operation of the object, it is desirable that the acquisition of the three-dimensional data can be continued in a state where the ratio of the object in the angle of view of the three-dimensional sensor is high.

開示の技術は、一つの側面として、3次元センサの画角に占める対象物の割合が高い状態で3次元データの取得を継続することを目的とする。   An object of the disclosed technique is to continue acquiring three-dimensional data in a state in which a ratio of an object occupying a field angle of a three-dimensional sensor is high.

一つの態様として、3次元データ取得装置は、3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得する取得部と、前記取得部により取得された3次元データに基づいて、前記対象物の位置及び姿勢を認識する認識部とを備える。また、3次元データ取得装置は、同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照する推定部を備える。推定部は、受け付けた前記対象物が実施する予定の動作の情報と、前記認識部により認識された前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定する。また、推定部は、推定した姿勢と、前記認識部により認識された前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定する。また、3次元データ取得装置は、前記推定部で推定された前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する制御部を備える。   As one aspect, the three-dimensional data acquisition device includes an acquisition unit that acquires three-dimensional data indicating the three-dimensional position of each point on the object detected by the three-dimensional sensor, and the 3D acquired by the acquisition unit. A recognition unit for recognizing the position and orientation of the object based on the dimension data. In addition, the three-dimensional data acquisition apparatus refers to an operation pattern storage unit that shows a plurality of related operations including the same posture and stores a plurality of operation patterns defined by state transitions indicating the posture of the object. And an estimation unit. The estimation unit estimates the posture of the target object at the next timing based on the received information on the operation scheduled to be performed by the target object and the posture of the target object recognized by the recognition unit. Further, the estimation unit estimates a position where the object is present at the next timing based on the estimated posture and a change in the position of the object recognized by the recognition unit. In addition, the three-dimensional data acquisition apparatus includes a control unit that controls the orientation and the angle of view of the three-dimensional sensor based on the posture and position of the object estimated by the estimation unit.

一つの側面として、3次元センサの画角に占める対象物の割合が高い状態で3次元データの取得を継続することができる。   As one aspect, acquisition of three-dimensional data can be continued in a state where the ratio of the object in the angle of view of the three-dimensional sensor is high.

第1及び第2実施形態に係る3次元データ取得装置の機能ブロック図である。It is a functional block diagram of the three-dimensional data acquisition device according to the first and second embodiments. 演技予定リストの一例を示す図である。It is a figure which shows an example of a performance schedule list. 履歴データベース(DB)の一例を示す図である。It is a figure which shows an example of a history database (DB). 動作パターンDBの一例を示す図である。It is a figure which shows an example of operation | movement pattern DB. 動作の進行方向を軸にしたローカル座標系を説明するための図である。It is a figure for demonstrating the local coordinate system centering on the advancing direction of operation | movement. センサ座標系を説明するための図である。It is a figure for demonstrating a sensor coordinate system. 現在の姿勢と状態候補が示す姿勢との差分に応じた遷移確率の算出を説明するための図である。It is a figure for demonstrating calculation of the transition probability according to the difference of the attitude | position which a present attitude | position and a state candidate show. 3Dセンサの向き及び画角の算出を説明するための図である。It is a figure for demonstrating calculation of direction and angle of view of 3D sensor. 第1及び第2実施形態に係る3次元データ取得装置として機能するコンピュータの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the computer which functions as a three-dimensional data acquisition apparatus which concerns on 1st and 2nd embodiment. 第1及び第2実施形態における3次元データ取得処理の一例を示すフローチャートである。It is a flowchart which shows an example of the three-dimensional data acquisition process in 1st and 2nd embodiment. 状態判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of a state determination process. 状態推定処理の一例を示すフローチャートである。It is a flowchart which shows an example of a state estimation process. つなぎ動作テーブルの一例を示す図である。It is a figure which shows an example of a connection operation | movement table. 人体モデルのサイズの正規化及び補正を説明するための図である。It is a figure for demonstrating normalization and correction | amendment of the size of a human body model.

以下、図面を参照して開示の技術に係る実施形態の一例を詳細に説明する。なお、以下の各実施形態では、追跡対象の対象物を、演技を実施する体操選手とする場合について説明する。   Hereinafter, an example of an embodiment according to the disclosed technology will be described in detail with reference to the drawings. In each of the following embodiments, a case will be described in which an object to be tracked is a gymnast performing performance.

<第1実施形態>
図1に示すように、第1実施形態に係る3次元データ取得装置10は、3次元センサ(以下、「3Dセンサ」と表記する)31と接続される。
<First Embodiment>
As shown in FIG. 1, the three-dimensional data acquisition apparatus 10 according to the first embodiment is connected to a three-dimensional sensor (hereinafter referred to as “3D sensor”) 31.

3Dセンサ31は、例えば、TOF(Time Of Flight)方式により、対象物までの距離及び方向を所定の解像度で検出し、対象物上の各点の3次元位置座標を示す3次元データを出力する。3Dセンサ31は、水平方向及び垂直方向の検出範囲を示す画角、及び検出範囲の中心と3Dセンサ31とを結ぶ中心線の向きが変更可能であり、設定された制御値が示す画角及び向きとなるように、駆動部32により駆動される。   The 3D sensor 31 detects, for example, the distance and direction to the object with a predetermined resolution by a TOF (Time Of Flight) method, and outputs three-dimensional data indicating the three-dimensional position coordinates of each point on the object. . The 3D sensor 31 can change the angle of view indicating the detection range in the horizontal direction and the vertical direction, and the direction of the center line connecting the center of the detection range and the 3D sensor 31, and the angle of view indicated by the set control value and It drives by the drive part 32 so that it may become direction.

3次元データ取得装置10は、3Dセンサ31により、3Dセンサ31の画角に占める対象物の割合が高い状態で3次元データの取得を継続することができるように、3Dセンサ31の画角及び向きを制御する。   The 3D data acquisition device 10 uses the 3D sensor 31 so that the 3D sensor 31 can continue to acquire 3D data in a state in which the proportion of the object in the 3D sensor 31 is high. Control the orientation.

ここで、3Dセンサ31の画角に占める対象物の割合が高い状態で3次元データを取得する理由について説明する。   Here, the reason for acquiring the three-dimensional data in a state where the ratio of the object in the angle of view of the 3D sensor 31 is high will be described.

例えば、TOF方式の3Dセンサは、対象物に照射したレーザー光の反射を受光して、レーザー光の照射から反射までの経過時間から、対象物上の各点までの距離を測定する。対象物と3Dセンサとの距離が1mの場合、レーザー光が往復するのにかかる時間は6.7nsである。また、照射光は対象物までの距離の2乗で減衰するため、受光時には非常に弱いレーザー光を受光する必要がある。   For example, a TOF 3D sensor receives a reflection of laser light applied to an object, and measures a distance to each point on the object from an elapsed time from irradiation to reflection of the laser light. When the distance between the object and the 3D sensor is 1 m, the time required for the laser beam to reciprocate is 6.7 ns. Further, since the irradiation light is attenuated by the square of the distance to the object, it is necessary to receive very weak laser light when receiving light.

対象物までの距離と、得られる3次元データの高精細化とを両立するには、照射光の強度向上の点から2Dスキャン式のTOFが有利であるが、2Dスキャン式の場合、対象物までの最大距離×(6.7ns+判別マージン)×1フレームの測距点数×フレームレートが1秒以下という原理上の制約が生じる。対象物までの最大距離を10mとした場合、30fpsで取得しようとすると、1フレームの測距点数は、判別のための時間マージンを無視しても50万点弱(約800×600画素)となる。つまり、通常の可視カメラと比べると、3Dセンサでは高速かつ高解像度での撮影が困難である。   In order to achieve both the distance to the object and the high-definition of the obtained three-dimensional data, the 2D scan type TOF is advantageous from the viewpoint of improving the intensity of irradiation light, but in the case of the 2D scan type, the object Maximum theoretical distance x (6.7 ns + discrimination margin) x number of distance measuring points in one frame x frame rate is 1 second or less. If the maximum distance to the object is 10 m and the acquisition is performed at 30 fps, the number of distance measurement points for one frame is less than 500,000 points (about 800 × 600 pixels) even if the time margin for determination is ignored. Become. That is, compared with a normal visible camera, it is difficult to photograph at a high speed and a high resolution with a 3D sensor.

例えば、320×240(QVGA)の解像度の3Dセンサで、体操選手を対象物として3次元データを取得する場合を考える。移動していない状態の選手の全身をカバーする検出範囲を3m×3m程度とすると、1画素間が約1cm未満で測定可能である。しかし、選手の移動時を想定して10m×6m程度を検出範囲とすると、1画素間は約2〜3cmとなる。この場合、3Dセンサに対する選手の体の向きにもよるが、例えば、選手の手足の先など、3次元データを検出できない部分が生じ、体のラインや手足の真っ直ぐさなどを詳細に分析可能な3次元データが取得できない可能性がある。   For example, consider a case where a 3D sensor having a resolution of 320 × 240 (QVGA) acquires three-dimensional data with a gymnast as an object. If the detection range covering the whole body of a player who is not moving is about 3 m × 3 m, the measurement can be performed with less than about 1 cm between one pixel. However, assuming that the player is moving, if the detection range is about 10 m × 6 m, the distance between one pixel is about 2 to 3 cm. In this case, although depending on the orientation of the player's body with respect to the 3D sensor, for example, a portion where the 3D data cannot be detected, such as the tip of the player's limb, can be generated, and the body line and the straightness of the limb can be analyzed in detail There is a possibility that 3D data cannot be acquired.

したがって、解像度が比較的低い3Dセンサであっても、3Dセンサの画角内に対象物の全身いっぱいを収めるように3次元データを取得することで、対象物の細部の3次元データの取得も可能となるように、3Dセンサにより対象物を追跡する必要がある。   Therefore, even with a 3D sensor having a relatively low resolution, by acquiring 3D data so that the entire body of the object is contained within the angle of view of the 3D sensor, it is possible to acquire 3D data of the details of the object. To be possible, it is necessary to track the object with a 3D sensor.

図1に示すように、3次元データ取得装置10は、取得部11と、認識部12と、状態判定部14、状態推定部15、及び位置推定部16を含む推定部13と、制御部17とを含む。また、3次元データ取得装置10の所定の記憶領域には、演技予定リスト21と、履歴データベース(DB)22と、動作パターンDB23とが記憶される。   As illustrated in FIG. 1, the three-dimensional data acquisition apparatus 10 includes an acquisition unit 11, a recognition unit 12, a state determination unit 14, a state estimation unit 15, and a position estimation unit 16, an estimation unit 13, and a control unit 17. Including. In addition, in a predetermined storage area of the three-dimensional data acquisition apparatus 10, a performance schedule list 21, a history database (DB) 22, and an operation pattern DB 23 are stored.

演技予定リスト21は、対象物である体操選手が実施予定の技を時系列に記述したリストである。図2に、演技予定リスト21の一例を示す。図2では、演技の開始(Start)から終了(end)までに含まれる実施予定の技の識別情報である技番号が、実施予定順に記述された例を示している。演技予定リスト21は、対象物である体操選手が演技を開始する前に3次元データ取得装置10に入力され、所定の記憶領域に記憶される。   The acting schedule list 21 is a list in which techniques scheduled to be performed by a gymnast as an object are described in time series. FIG. 2 shows an example of the performance schedule list 21. FIG. 2 shows an example in which technique numbers, which are identification information of techniques scheduled to be included from the start (Start) to the end (end) of an action, are described in the order of the execution. The acting schedule list 21 is input to the three-dimensional data acquisition device 10 and stored in a predetermined storage area before the target gymnast starts acting.

履歴DB22には、3Dセンサ31から取得された3次元データに基づいて認識された人体モデルや、判定された状態及び実施された技の履歴が記憶される。図3に、履歴DB22の一例を示す。図3の例では、履歴DB22には、人体モデル履歴テーブル22Aと、状態履歴テーブル22Bと、技実施履歴テーブル22Cとが含まれる。   The history DB 22 stores the human body model recognized based on the three-dimensional data acquired from the 3D sensor 31, the determined state, and the history of the technique performed. FIG. 3 shows an example of the history DB 22. In the example of FIG. 3, the history DB 22 includes a human body model history table 22A, a state history table 22B, and a technique execution history table 22C.

人体モデル履歴テーブル22Aには、認識部12により認識された人体モデルを構成する人体の各部位の座標値群が時系列に記憶される。人体モデルを構成する各部位は、対象物の姿勢を特定するための特徴点となる関節などの人体の部位である。例えば、各部位は、頭、肩の中心、右肩、右肘、右手首、右手、左肩、左肘、左手首、左手、背骨、臀部の中心、右臀部、右膝、右足首、右足、左臀部、左膝、左足首、左足等である。各部位の座標値としては、各部位の軸方向を示すベクトル及び回転を表すクォータニオンを用いることができる。図3の例では、各部位のインデックスに各部位の座標値を対応付けて記憶した例を示している。   In the human body model history table 22A, a coordinate value group of each part of the human body constituting the human body model recognized by the recognition unit 12 is stored in time series. Each part that constitutes the human body model is a part of the human body such as a joint that is a feature point for specifying the posture of the object. For example, each part is the center of the head, shoulder, right shoulder, right elbow, right wrist, right hand, left shoulder, left elbow, left wrist, left hand, spine, buttocks, right hip, right knee, right ankle, right foot, These include the left hip, left knee, left ankle, and left foot. As the coordinate value of each part, a vector indicating the axial direction of each part and a quaternion representing rotation can be used. In the example of FIG. 3, an example in which the coordinate value of each part is stored in association with the index of each part is shown.

状態履歴テーブル22Bには、状態判定部14で判定された対象物の状態(詳細は後述)が時系列に記憶される。図3の例では、状態履歴テーブル22Bには、時刻に対応付けて、判定された状態の識別情報である状態番号が記憶されている。   In the state history table 22B, the state (details will be described later) of the object determined by the state determination unit 14 is stored in time series. In the example of FIG. 3, the state history table 22B stores a state number that is identification information of the determined state in association with the time.

技実施履歴テーブル22Cには、状態判定部14で実施の完了が判定された技の技番号が時系列に記憶される。図3の例では、技実施履歴テーブル22Cのデータ構造は、図2に示す演技予定リスト21のデータ構造と同様である。   In the technique execution history table 22C, technique numbers of techniques determined to be completed by the state determination unit 14 are stored in time series. In the example of FIG. 3, the data structure of the technique performance history table 22C is the same as the data structure of the performance schedule list 21 shown in FIG.

動作パターンDB23には、同一の姿勢を含む関連する複数の動作を示し、かつ対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶される。具体的には、動作パターンは、同一の姿勢を含む関連する複数の動作として、基準の技を示す動作と、基準の技の実施中における対象物の姿勢から遷移可能な他の技を示す動作と、基準の技及び他の技の実施が不成立又は失敗した場合の動作とを含む。   The motion pattern DB 23 stores a plurality of motion patterns defined by state transitions indicating a plurality of related motions including the same posture and indicating the posture of the object. Specifically, the motion pattern is an operation indicating the standard technique and other techniques that can be changed from the posture of the target object during the execution of the standard technique as a plurality of related operations including the same posture. And the operation when the execution of the standard technique and other techniques is not established or fails.

図4に、動作パターンDB23の一例を示す。図4に示すように、本実施形態では、各動作パターンを、その動作パターンに含まれる各姿勢を示す状態に対応したノードと、遷移可能な状態間に対応するノード間を接続したエッジとを含む木構造で表現される。図4において、内部に数字を記したノードは、技の途中の姿勢を示す状態に対応したノードであり、数字は、各ノードに対応した状態の状態番号である。また、網掛けのノードは、技の区切りを示す姿勢(例えば、直立姿勢、手を挙げた姿勢、鉄棒や吊り輪にぶら下がった姿勢など)を示す状態に対応したノードである。また、二重丸のノードは、転倒や落下などの失敗時の姿勢を示す状態に対応したノードである。   FIG. 4 shows an example of the operation pattern DB 23. As shown in FIG. 4, in the present embodiment, each motion pattern is divided into a node corresponding to a state indicating each posture included in the motion pattern, and an edge connecting between nodes corresponding to transitionable states. It is expressed as a tree structure that contains it. In FIG. 4, nodes in which numbers are written are nodes corresponding to states indicating postures in the middle of techniques, and numbers are state numbers corresponding to the respective nodes. A shaded node is a node corresponding to a state indicating an attitude of a technique (for example, an upright attitude, an attitude with a hand raised, an attitude hanging on a horizontal bar or a hanging ring). The double circle node is a node corresponding to a state indicating a posture at the time of failure such as a fall or fall.

図4の例で、動作パターンの識別情報である動作パターン番号が1の動作パターンを示す木構造を例に、より詳細に動作パターンについて説明する。なお、以下では、動作パターン番号がiの動作パターンを「パターンi」、状態番号がjの状態を「状態j」、技番号がkの技を「技k」、パターンiに含まれる状態jを、「パターンi:状態j」と表記する。   In the example of FIG. 4, the operation pattern will be described in more detail by taking as an example a tree structure indicating an operation pattern having an operation pattern number of 1 which is identification information of the operation pattern. In the following, the motion pattern with the motion pattern number i is “pattern i”, the state with the state number j is “state j”, the skill with the skill number k is “skill k”, and the state j included in the pattern i Is expressed as “pattern i: state j”.

パターン1の1段目の部分は、技の区切りを示す姿勢から始まり、状態1、状態2、・・・、状態7の各状態が示す途中の姿勢を経て、技の区切りの姿勢を示す状態に達すると、技1が成立する場合の姿勢の変化を表している。また、技1の実施途中で選手が意図して異なる技の実施に変更したり、選手が意図せず途中でバランスを崩すなどして、結果的に技1より下位の技になってしまったり、下位の技も成立しなかったり、失敗して終わったりする場合がある。   The first stage part of pattern 1 starts from the posture indicating the break of the technique, and shows the posture of the break of the technique through the intermediate postures indicated by the states 1, 2,. , It represents a change in posture when technique 1 is established. Also, during the implementation of Technique 1, the player may intentionally change to a different technique, or the player may unintentionally lose balance, resulting in a technique lower than Technique 1. , Subordinate techniques may not be established or may end in failure.

状態5から分岐して技2へ至る経路、及び状態4から分岐して技3へ至る経路は、下位の技になってしまう場合の姿勢の変化を表している。なお、下位の技になってしまう例としては、3回ひねりが2回ひねりや1回ひねりになってしまう場合がある。また、状態3から分岐して、状態11、状態12、及び状態13を経て技不成立へ至る経路は、転倒や落下等には至らないまでも、回転不足や大きく姿勢が乱れるなどして、いずれの技も成立しない場合の姿勢の変化を表している。また、状態11から分岐して、状態14を経て失敗に至る経路は、技1、技2、又は技3の実施に失敗する場合の姿勢の変化を表している。   A route that branches from state 5 to technique 2 and a route that branches from state 4 to technique 3 represent a change in posture in the case of a lower technique. In addition, as an example of becoming a low-order technique, there is a case where a three-time twist becomes a two-time twist or a one-time twist. In addition, the route that branches from the state 3 and passes through the state 11, the state 12, and the state 13 to the failure of the technique is not rotated, dropped, etc. This represents a change in posture when the technique is not established. Further, a path that branches from the state 11 and reaches the failure through the state 14 represents a change in posture when the execution of the technique 1, technique 2, or technique 3 fails.

また、動作パターンDB23には、動作パターンに含まれる各状態が示す姿勢を定義した状態情報も記憶される。状態情報は、基準の座標系、基準の座標系における人体の各部位の座標値群、及び許容誤差範囲の情報を含む。人体の各部位の座標値群は、上述した人体モデル履歴テーブル22Aに記憶される人体モデルを構成する各部位の座標値群と同様である。なお、動作パターンDB23に記憶される各状態の状態情報に含まれる各部位の座標値群は、標準的な人体のサイズを想定した基準のサイズの人体モデルを構成する各部位の座標値群である。   The motion pattern DB 23 also stores state information defining postures indicated by the states included in the motion pattern. The state information includes a reference coordinate system, a coordinate value group of each part of the human body in the reference coordinate system, and information on an allowable error range. The coordinate value group of each part of the human body is the same as the coordinate value group of each part constituting the human body model stored in the above-described human body model history table 22A. In addition, the coordinate value group of each part included in the state information of each state stored in the motion pattern DB 23 is a coordinate value group of each part constituting a human body model of a reference size assuming a standard human body size. is there.

基準の座標系としては、例えば、人体の所定部位の座標値を基準とした相対座標系、あん馬などの器具や、床の演技エリアなどを基準として設定されるグローバル座標系、演技の進行方向を軸にしたローカル座標系などを定義することができる。演技の進行方向を軸にしたローカル座標系は、床で実施される技など、グローバル座標に依存しない技の姿勢を示す状態についての状態情報に用いる座標系である。   As a reference coordinate system, for example, a relative coordinate system based on the coordinate value of a predetermined part of the human body, a global coordinate system set on the basis of an instrument such as a horse or a floor performance area, and the direction of progress of the performance You can define a local coordinate system with axes. The local coordinate system with the acting direction as an axis is a coordinate system used for state information about a state indicating a posture of a technique that does not depend on global coordinates, such as a technique performed on the floor.

許容誤差範囲は、人体の各部位の座標値群が示す基準の姿勢からの許容誤差範囲を示す情報である。許容誤差範囲は、例えば、図4に示すように、両足のなす角の範囲のように相対座標系で定義したり、器具を基準に設定した軸からの角度範囲のようにグローバル座標系で定義したりすることができる。また、例えば、図5に示すように、踏み切り時の足の方向を軸とするローカル座標系を人体に設定し、踏み切り時の足の方向と、着地時の足の方向とのなす角の範囲で定義してもよい。   The allowable error range is information indicating the allowable error range from the reference posture indicated by the coordinate value group of each part of the human body. For example, as shown in FIG. 4, the allowable error range is defined in a relative coordinate system such as an angle range formed by both feet, or is defined in a global coordinate system such as an angle range from an axis set based on an instrument. You can do it. Also, for example, as shown in FIG. 5, a local coordinate system with the direction of the foot at the time of crossing as an axis is set for the human body, and the range of the angle between the direction of the foot at the time of crossing and the direction of the foot at the time of landing You may define

次に、3次元データ取得装置10の各機能部について説明する。   Next, each functional unit of the three-dimensional data acquisition apparatus 10 will be described.

取得部11は、3Dセンサ31により検出された、対象物上の各点の3次元位置を示す3次元データを取得する。3次元データは、図6に示すように、時刻Tn毎に3Dセンサ31で検出される対象物上の点群に含まれる各点の3次元座標値をセンサ座標系で表したデータである。時刻Tnにおける点Pの3次元座標値をPTn(Xsn,Ysn,Zsn)とする。取得部11は、取得した3次元データ群を認識部12へ受け渡す。   The acquisition unit 11 acquires three-dimensional data indicating the three-dimensional position of each point on the object detected by the 3D sensor 31. As shown in FIG. 6, the three-dimensional data is data in which a three-dimensional coordinate value of each point included in a point group on the object detected by the 3D sensor 31 at each time Tn is expressed in a sensor coordinate system. The three-dimensional coordinate value of the point P at time Tn is defined as PTn (Xsn, Ysn, Zsn). The acquisition unit 11 passes the acquired three-dimensional data group to the recognition unit 12.

また、取得部11は、3次元データと共に、時刻Tnにおける3Dセンサ31の向き及び画角の情報を取得し、推定部13へ受け渡す。時刻Tnにおける3Dセンサ31の向きは、パン角θpan、チルト角θtilt、及びロール角θrollを用いて、θTn(θpan_n,θtilt_n,θroll_n)と表す。また、時刻Tnにおける3Dセンサ31の画角は、センサ座標系における水平方向の画角φxs及び垂直方向の画角φysを用いて、φTn(φxs_n,φys_n)と表す。なお、グローバル座標系における3Dセンサ31の位置が変動する場合には、取得部11は、時刻Tnにおける3Dセンサ31のグローバル座標系での位置情報も3Dセンサ31から取得して、推定部13へ受け渡す。   Further, the acquisition unit 11 acquires information on the direction and angle of view of the 3D sensor 31 at time Tn together with the three-dimensional data, and passes the information to the estimation unit 13. The direction of the 3D sensor 31 at time Tn is expressed as θTn (θpan_n, θtilt_n, θroll_n) using the pan angle θpan, the tilt angle θtilt, and the roll angle θroll. The angle of view of the 3D sensor 31 at time Tn is expressed as φTn (φxs_n, φys_n) using the horizontal field angle φxs and the vertical field angle φys in the sensor coordinate system. When the position of the 3D sensor 31 in the global coordinate system changes, the acquisition unit 11 also acquires position information in the global coordinate system of the 3D sensor 31 at time Tn from the 3D sensor 31 and sends it to the estimation unit 13. Deliver.

また、取得部11は、入力された演技予定リスト21を取得し、所定の記憶領域に記憶する。   The acquisition unit 11 acquires the input performance schedule list 21 and stores it in a predetermined storage area.

認識部12は、取得部11から受け渡された3次元データ群に基づいて、センサ座標系における対象物の位置及び姿勢を示す人体モデルを認識する。具体的には、認識部12は、3次元データ群から、上述した人体の各部位についての座標値(例えば、クォータニオン表現のベクトル値)を算出する。3次元データ群から人体各部位の座標値を算出する方法は、従来技術を適用することができるため、ここでは詳細な説明を省略する。認識部12は、対象物である選手毎の体格差を考慮して、算出した各部位の座標値を、基準となる人体モデルのサイズに正規化する。   The recognition unit 12 recognizes a human body model indicating the position and orientation of the object in the sensor coordinate system based on the three-dimensional data group transferred from the acquisition unit 11. Specifically, the recognition unit 12 calculates coordinate values (for example, quaternion expression vector values) for each part of the human body described above from the three-dimensional data group. Since the conventional technique can be applied to the method of calculating the coordinate value of each part of the human body from the three-dimensional data group, detailed description thereof is omitted here. The recognizing unit 12 normalizes the calculated coordinate values of each part to the size of the human model serving as a reference in consideration of the physique difference for each player as the object.

認識部12は、算出した各部位の座標値群で表される人体モデルを、3次元データの取得時刻Tn、及び各部位のインデックスと対応付けて、履歴DB22の人体モデル履歴テーブル22Aに記憶する。例えば、このインデックス(body index)を用いて、時刻Tnにおける人体モデルを構成する各部位のセンサ座標系における座標値は、body index_Tn(xs,ys,zs,ws)と表すことができる。   The recognizing unit 12 stores the human body model represented by the calculated coordinate value group of each part in the human body model history table 22A of the history DB 22 in association with the acquisition time Tn of the three-dimensional data and the index of each part. . For example, using this index (body index), the coordinate value in the sensor coordinate system of each part constituting the human body model at time Tn can be expressed as body index_Tn (xs, ys, zs, ws).

推定部13は、次のタイミング(時刻Tn+1)における対象物の位置及び姿勢を推定する。上述したように、推定部13は、状態判定部14と、状態推定部15と、位置推定部16とを含む。   The estimation unit 13 estimates the position and orientation of the object at the next timing (time Tn + 1). As described above, the estimation unit 13 includes the state determination unit 14, the state estimation unit 15, and the position estimation unit 16.

状態判定部14は、演技予定リスト21及び動作パターンDB23を参照して、認識部12により認識された対象物の人体モデルが示す姿勢が、どの動作パターンに含まれるどの状態かを判定する。   The state determination unit 14 refers to the performance schedule list 21 and the motion pattern DB 23 to determine which state the posture of the target human body model recognized by the recognition unit 12 includes in which motion pattern.

具体的には、状態判定部14は、履歴DB22の人体モデル履歴テーブル22Aに記憶された時刻Tnにおけるセンサ座標系の座標値群を、取得部11から受け渡された3Dセンサ31の向き及び画角の情報を用いて、グローバル座標系の座標値群に変換する。状態判定部14は、人体モデル履歴テーブル22Aに記憶された時刻Tnにおける座標値を、グローバル座標系に変換した座標値に更新する。   Specifically, the state determination unit 14 receives the coordinate value group of the sensor coordinate system at the time Tn stored in the human body model history table 22A of the history DB 22 and the orientation and image of the 3D sensor 31 transferred from the acquisition unit 11. Using the corner information, it is converted into a coordinate value group in the global coordinate system. The state determination unit 14 updates the coordinate value at time Tn stored in the human body model history table 22A to the coordinate value converted into the global coordinate system.

また、状態判定部14は、履歴DB22の状態履歴テーブル22Bを参照して、時刻Tn−1の状態が技の区切りの姿勢を示す状態である場合、演技予定リスト21及び履歴DB22の技実施履歴テーブル22Cを参照して、終了した技の次の技を特定する。そして、状態判定部14は、特定した技を含む動作パターンを動作パターンDB23から取得し、取得した動作パターンの各々において、最初の姿勢を示す状態(技の区切りの姿勢を示す状態の次の状態)を、時刻Tnの状態候補として抽出する。例えば、次の技が技1の場合、図4に示す動作パターンDB23から、パターン1が取得され、パターン1:状態1が、時刻Tnの状態候補として抽出される。動作パターンDB23に技1を含む動作パターンが他にも存在する場合には、その動作パターンからも状態候補が抽出される。   In addition, the state determination unit 14 refers to the state history table 22B of the history DB 22, and when the state at the time Tn-1 indicates a posture of a technique break, the technique execution history of the performance schedule list 21 and the history DB 22 Referring to the table 22C, the next technique after the completed technique is specified. Then, the state determination unit 14 acquires an operation pattern including the specified technique from the operation pattern DB 23, and in each of the acquired operation patterns, the state indicating the first posture (the state next to the state indicating the posture of the technique delimiter) ) Is extracted as a state candidate at time Tn. For example, when the next technique is technique 1, pattern 1 is acquired from operation pattern DB 23 shown in FIG. 4, and pattern 1: state 1 is extracted as a state candidate at time Tn. If there are other motion patterns including technique 1 in the motion pattern DB 23, state candidates are also extracted from the motion patterns.

また、状態判定部14は、時刻Tn−1の状態が技の途中の姿勢を示す状態である場合、時刻Tn−1の状態を含む動作パターンにおいて、時刻Tn−1の状態から遷移可能な状態を、時刻Tnの状態候補として抽出する。例えば、時刻Tn−1の状態が、図4に示すパターン1の状態3の場合、パターン1:状態3、パターン1:状態4、及びパターン1:状態11が、時刻Tnの状態候補として抽出される。なお、状態候補「パターン1:状態3」は、時刻Tn−1から状態が遷移していない場合である。   In addition, when the state at the time Tn−1 is a state indicating a posture in the middle of the technique, the state determination unit 14 is a state that can transition from the state at the time Tn−1 in the operation pattern including the state at the time Tn−1. Are extracted as state candidates at time Tn. For example, when the state at time Tn−1 is state 3 of pattern 1 shown in FIG. 4, pattern 1: state 3, pattern 1: state 4, and pattern 1: state 11 are extracted as state candidates at time Tn. The The state candidate “pattern 1: state 3” is a case where the state has not changed since time Tn−1.

状態判定部14は、抽出した状態候補の各々の状態情報と、履歴DB22の人体モデル履歴テーブル22Aに記憶された人体モデルとを比較し、時刻Tnにおける状態を判定する。例えば、状態判定部14は、状態情報に含まれる座標値群と、人体モデルに含まれる座標値群とのユークリッド距離を、対応する部位同士で算出し、各部位のユークリッド距離の総和が最も小さい状態候補を、時刻Tnにおける状態を判定することができる。なお、本実施形態では、人体モデル履歴テーブル22Aに記憶する人体モデルを基準のサイズに正規化しているため、動作パターンDB23に記憶された各状態の状態情報との比較が容易となる。   The state determination unit 14 compares the state information of each extracted state candidate with the human body model stored in the human body model history table 22A of the history DB 22, and determines the state at time Tn. For example, the state determination unit 14 calculates the Euclidean distance between the coordinate value group included in the state information and the coordinate value group included in the human body model between corresponding portions, and the sum of the Euclidean distances of the respective portions is the smallest. The state candidate at the time Tn can be determined. In the present embodiment, since the human body model stored in the human body model history table 22A is normalized to the reference size, comparison with the state information of each state stored in the operation pattern DB 23 is facilitated.

状態判定部14は、判定した状態の状態番号を、その状態を含む動作パターンのパターン番号と共に、時刻Tnと対応付けて、履歴DB22の状態履歴テーブル22Bに記憶する。   The state determination unit 14 stores the state number of the determined state together with the pattern number of the operation pattern including the state in association with the time Tn in the state history table 22B of the history DB 22.

状態推定部15は、状態判定部14により判定された時刻Tnの状態から遷移可能な状態を、時刻Tn+1における状態候補として抽出する。状態候補の抽出方法は、状態判定部14が時刻tnにおける状態候補を抽出する場合と同様である。   The state estimation unit 15 extracts a state that can transition from the state at the time Tn determined by the state determination unit 14 as a state candidate at the time Tn + 1. The method for extracting the state candidates is the same as the case where the state determination unit 14 extracts the state candidates at time tn.

状態推定部15は、抽出した状態候補の各々について、時刻Tnの状態からの遷移確率を算出する。例えば、各動作パターンの状態間に、その状態間の遷移を経て実施される技の難易度に応じた遷移確率を予め与えておく。例えば、図4のパターン1で、技2より技1の難易度の方が高い場合には、状態5から状態6への遷移よりも、状態5から状態8への遷移の方が遷移確率が高くなるように各状態間に遷移確率を与えておく。技の難易度は、採点基準に定められた難易度や価値点を用いることができる。   The state estimation unit 15 calculates a transition probability from the state at time Tn for each of the extracted state candidates. For example, a transition probability corresponding to the level of difficulty of the technique performed through the transition between the states is given in advance between the states of each operation pattern. For example, in the pattern 1 of FIG. 4, when the difficulty level of the technique 1 is higher than the technique 2, the transition probability from the state 5 to the state 8 is higher than the transition from the state 5 to the state 6. A transition probability is given between the states so as to increase. The difficulty level of a technique can use the difficulty level and value point defined by the scoring standard.

また、選手のレベルに応じて、遷移確率を変更するようにしてもよい。例えば、実施予定の技が技1の場合、レベルの高い選手ほど、技1に至る経路に含まれる状態間の遷移確率を高くし、レベルの低い選手ほど、技1よりも下位の技、技不成立、又は失敗に至る経路に含まれる状態間の遷移確率を高くすることができる。なお、選手のレベルは、例えば、世界ランキングや、直近数試合での得点などから決定することができる。状態推定部15は、このように、予め状態間に与えられた遷移確率を、時刻Tnの状態から各状態候補への遷移確率とすることができる。   Moreover, you may make it change a transition probability according to a player's level. For example, when the technique to be implemented is technique 1, the higher the level, the higher the transition probability between the states included in the route to technique 1, and the lower the level, the lower level technique and technique. The transition probability between the states included in the path leading to failure or failure can be increased. The level of the player can be determined from, for example, the world ranking or the score in the most recent game. In this way, the state estimation unit 15 can use the transition probability given in advance between the states as the transition probability from the state at the time Tn to each state candidate.

また、動作パターンに含まれる各状態について、その状態が示す姿勢が維持される標準時間を定義しておき、状態推定部15は、状態履歴テーブル22Bを参照して、標準時間に対する対象物である選手の実際の実施時間の比率を求める。そして、状態推定部15は、求めた比率に応じて、現在の状態が維持される場合の遷移確率、及び次の状態へ遷移する場合の遷移確率を算出してもよい。   In addition, for each state included in the motion pattern, a standard time for maintaining the posture indicated by the state is defined, and the state estimation unit 15 is an object with respect to the standard time with reference to the state history table 22B. Find the ratio of actual run time of the players. Then, the state estimating unit 15 may calculate a transition probability when the current state is maintained and a transition probability when transitioning to the next state according to the obtained ratio.

また、状態推定部15は、図7に示すように、状態候補のうち、各状態候補が示す姿勢と、認識部12で認識された時刻Tnの人体モデルが示す姿勢との差分に応じた遷移確率を算出してもよい。例えば、以下の式で、時刻Tnの状態から状態候補iへの遷移確率を算出することができる。なお、姿勢の差分は、各部位の座標値のユークリッド距離の総和として算出することができる。   In addition, as shown in FIG. 7, the state estimation unit 15 makes a transition according to the difference between the posture indicated by each state candidate and the posture indicated by the human body model at the time Tn recognized by the recognition unit 12. The probability may be calculated. For example, the transition probability from the state at time Tn to the state candidate i can be calculated by the following equation. Note that the difference in posture can be calculated as the sum of the Euclidean distances of the coordinate values of each part.

状態候補iへの遷移確率=
1−(状態候補iとの差分)/(Σ状態候補iとの差分)
なお、上記式における「状態候補iとの差分」とは、時刻Tnの人体モデルが示す姿勢と、状態候補iの状態情報に含まれる座標値群が示す姿勢との差分を意味する。
Transition probability to state candidate i =
1- (the difference between the state candidate i) / (the difference between Σ i state candidate i)
The “difference from state candidate i” in the above expression means the difference between the posture indicated by the human body model at time Tn and the posture indicated by the coordinate value group included in the state information of state candidate i.

また、状態推定部15は、状態履歴テーブル22Bに記憶された各時刻の状態について動作パターンDB23に記憶された状態情報が示す姿勢と、対応する時刻における認識部12で認識された人体モデルが示す姿勢との差分の時間変化を算出する。そして、状態推定部15は、算出した時間変化に応じて、現在の状態が維持される場合の遷移確率、及び次の状態へ遷移する場合の遷移確率を算出してもよい。   Further, the state estimation unit 15 indicates the posture indicated by the state information stored in the operation pattern DB 23 for the state at each time stored in the state history table 22B and the human body model recognized by the recognition unit 12 at the corresponding time. The time change of the difference from the posture is calculated. Then, the state estimation unit 15 may calculate a transition probability when the current state is maintained and a transition probability when transitioning to the next state according to the calculated time change.

また、状態推定部15は、人体モデル履歴テーブル22Aに記憶された各時刻の各部位の座標値について曲線近似を行い、近似曲線の延長線上の座標値から、時刻Tn+1の人体モデルを推定する。そして、状態推定部15は、推定した人体モデルが示す姿勢と、各状態候補の状態情報が示す姿勢との類似度に基づいて、各状態候補への遷移確率を算出してもよい。   Further, the state estimation unit 15 performs curve approximation on the coordinate values of each part at each time stored in the human body model history table 22A, and estimates the human body model at time Tn + 1 from the coordinate values on the extension line of the approximate curve. And the state estimation part 15 may calculate the transition probability to each state candidate based on the similarity with the attitude | position which the estimated human body model shows, and the attitude | position which the state information of each state candidate shows.

状態推定部15は、状態候補のうち、時刻Tnにおける状態からの遷移確率が最も高い状態候補を、時刻Tn+1における状態として推定する。例えば、状態候補として、状態3、状態4、及び状態11が抽出され、各状態候補について、以下のように遷移確率が算出された場合、状態推定部15は、状態3を時刻Tn+1における状態として推定する。   The state estimation unit 15 estimates a state candidate having the highest transition probability from the state at time Tn among the state candidates as a state at time Tn + 1. For example, when the state 3, state 4, and state 11 are extracted as state candidates, and the transition probability is calculated for each state candidate as follows, the state estimation unit 15 sets the state 3 as the state at time Tn + 1. presume.

状態候補 3:遷移確率=0.6
状態候補 4:遷移確率=0.3
状態候補11:遷移確率=0.1
State candidate 3: Transition probability = 0.6
State candidate 4: Transition probability = 0.3
State candidate 11: transition probability = 0.1

状態推定部15は、推定した状態の状態情報を制御部17へ受け渡す。   The state estimation unit 15 passes the state information of the estimated state to the control unit 17.

位置推定部16は、履歴DB22の人体モデル履歴テーブル22Aを参照して、対象物の位置の変化に基づいて、次のタイミングに対象物が存在する位置を推定する。例えば、位置推定部16は、人体の所定部位の座標値について曲線近似を行い、近似曲線の延長線上で、かつ座標値の履歴が示す所定部位の移動速度に応じた座標値を、時刻Tn+1における対象物の位置として推定する。なお、人体の所定部位としては、1部位でもよいし、複数部位の平均を用いてもよい。また、実施中の技に応じた所定部位を決定してもよい。さらに、実施中の技に応じて、時刻Tn+1における対象物の位置となり得る領域を制限してもよい。位置推定部16は、推定した時刻Tn+1における対象物の位置の情報を、制御部17へ受け渡す。   The position estimation unit 16 refers to the human body model history table 22A of the history DB 22 and estimates the position where the object exists at the next timing based on the change in the position of the object. For example, the position estimation unit 16 performs curve approximation on the coordinate value of a predetermined part of the human body, and obtains a coordinate value on the extension line of the approximate curve and the coordinate value according to the moving speed of the predetermined part indicated by the history of the coordinate value at time Tn + 1. Estimated as the position of the object. The predetermined part of the human body may be one part or an average of a plurality of parts. Moreover, you may determine the predetermined site | part according to the technique in implementation. Furthermore, the region that can be the position of the object at time Tn + 1 may be limited according to the technique being performed. The position estimation unit 16 passes information on the position of the object at the estimated time Tn + 1 to the control unit 17.

制御部17は、推定部13で推定された対象物の姿勢及び位置に基づいて、次のタイミングにおける3Dセンサ31の向き及び画角の制御値を算出し、駆動部32へ出力する。具体的には、制御部17は、位置推定部16で推定された時刻Tn+1における対象物の位置に、状態推定部15で推定された時刻Tn+1における状態が示す姿勢の人体モデルを展開し、対象物である選手の体格に応じて、人体モデルのサイズを補正する。制御部17は、補正した人体モデルを示す各部位の座標値群の各々を、グローバル座標系からセンサ座標系に変換する。制御部17は、図8に示すように、センサ座標系の座標値に変換された人体モデルを包含し、かつ3Dセンサ31に正対する最小の直方体領域を算出し、この直方体領域を包含する3Dセンサ31の向き及び画角を算出する。具体的には、制御部17は、時刻Tn+1における3Dセンサ31の向きθTn+1(θpan_n+1,θtilt_n+1,θroll_n+1)、及び画角φTn+1(φxs_n+1,φys_n+1)を制御値として算出する。   Based on the posture and position of the object estimated by the estimation unit 13, the control unit 17 calculates the control value of the direction and angle of view of the 3D sensor 31 at the next timing, and outputs the control value to the drive unit 32. Specifically, the control unit 17 develops the human body model having the posture indicated by the state at the time Tn + 1 estimated by the state estimation unit 15 at the position of the target at the time Tn + 1 estimated by the position estimation unit 16. The size of the human body model is corrected according to the physique of the player who is the object. The control unit 17 converts each coordinate value group of each part indicating the corrected human body model from the global coordinate system to the sensor coordinate system. As shown in FIG. 8, the control unit 17 includes a human body model converted into coordinate values in the sensor coordinate system, calculates a minimum rectangular parallelepiped region facing the 3D sensor 31, and includes 3D including this rectangular parallelepiped region. The direction and angle of view of the sensor 31 are calculated. Specifically, the control unit 17 calculates the orientation θTn + 1 (θpan_n + 1, θtilt_n + 1, θroll_n + 1) and the angle of view φTn + 1 (φxs_n + 1, φys_n + 1) of the 3D sensor 31 at time Tn + 1 as control values.

この制御値に基づいて駆動部32が3Dセンサ31を駆動することにより、3Dセンサ31の画角に占める対象物の割合が高い状態で、時刻Tn+1における3次元データを取得できる可能性が高まる。   When the drive unit 32 drives the 3D sensor 31 based on this control value, the possibility that the three-dimensional data at the time Tn + 1 can be acquired in a state where the ratio of the object in the angle of view of the 3D sensor 31 is high increases.

3次元データ取得装置10は、例えば図9に示すコンピュータ40で実現することができる。コンピュータ40は、Central Processing Unit(CPU)41と、一時記憶領域としてのメモリ42と、不揮発性の記憶部43とを備える。また、コンピュータ40は、表示部及び入力部を含む入出力装置44と、記憶媒体49に対するデータの読み込み及び書き込みを制御するRead/Write(R/W)部45とを備える。また、コンピュータ40は、インターネット等のネットワークに接続される通信インターフェース(I/F)46を備える。CPU41、メモリ42、記憶部43、入出力装置44、R/W部45、及び通信I/F46は、バス47を介して互いに接続される。   The three-dimensional data acquisition apparatus 10 can be realized by a computer 40 shown in FIG. 9, for example. The computer 40 includes a central processing unit (CPU) 41, a memory 42 as a temporary storage area, and a nonvolatile storage unit 43. The computer 40 also includes an input / output device 44 including a display unit and an input unit, and a read / write (R / W) unit 45 that controls reading and writing of data with respect to the storage medium 49. The computer 40 also includes a communication interface (I / F) 46 connected to a network such as the Internet. The CPU 41, the memory 42, the storage unit 43, the input / output device 44, the R / W unit 45, and the communication I / F 46 are connected to each other via a bus 47.

記憶部43は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部43には、コンピュータ40を3次元データ取得装置10として機能させるための3次元データ取得プログラム50が記憶される。3次元データ取得プログラム50は、取得プロセス51と、認識プロセス52と、推定プロセス53と、制御プロセス57とを有する。また、記憶部43は、動作パターンDB23を構成する情報が記憶される情報記憶領域60を有する。   The storage unit 43 can be realized by a hard disk drive (HDD), a solid state drive (SSD), a flash memory, or the like. The storage unit 43 as a storage medium stores a three-dimensional data acquisition program 50 for causing the computer 40 to function as the three-dimensional data acquisition device 10. The three-dimensional data acquisition program 50 includes an acquisition process 51, a recognition process 52, an estimation process 53, and a control process 57. Further, the storage unit 43 has an information storage area 60 in which information constituting the operation pattern DB 23 is stored.

CPU41は、3次元データ取得プログラム50を記憶部43から読み出してメモリ42に展開し、3次元データ取得プログラム50が有するプロセスを順次実行する。CPU41は、取得プロセス51を実行することで、図1に示す取得部11として動作する。また、CPU41は、認識プロセス52を実行することで、図1に示す認識部12として動作する。また、CPU41は、推定プロセス53を実行することで、図1に示す推定部13として動作する。また、CPU41は、制御プロセス57を実行することで、図1に示す制御部17として動作する。また、CPU41は、情報記憶領域60から情報を読み出して、メモリ42に動作パターンDB23を展開する。また、CPU41は、入力された演技予定リスト21をメモリ42に記憶する。また、CPU41は、認識プロセス52及び推定プロセス53を実行する際、メモリ42上に履歴DB22を作成する。これにより、3次元データ取得プログラム50を実行したコンピュータ40が、3次元データ取得装置10として機能する。なお、プログラムを実行するCPU41はハードウェアである。   The CPU 41 reads the three-dimensional data acquisition program 50 from the storage unit 43 and develops it in the memory 42, and sequentially executes the processes included in the three-dimensional data acquisition program 50. The CPU 41 operates as the acquisition unit 11 illustrated in FIG. 1 by executing the acquisition process 51. The CPU 41 operates as the recognition unit 12 illustrated in FIG. 1 by executing the recognition process 52. Further, the CPU 41 operates as the estimation unit 13 illustrated in FIG. 1 by executing the estimation process 53. Further, the CPU 41 operates as the control unit 17 illustrated in FIG. 1 by executing the control process 57. Further, the CPU 41 reads information from the information storage area 60 and develops the operation pattern DB 23 in the memory 42. Further, the CPU 41 stores the inputted performance schedule list 21 in the memory 42. Further, the CPU 41 creates the history DB 22 on the memory 42 when executing the recognition process 52 and the estimation process 53. Accordingly, the computer 40 that has executed the three-dimensional data acquisition program 50 functions as the three-dimensional data acquisition device 10. The CPU 41 that executes the program is hardware.

なお、3次元データ取得プログラム50により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。   The function realized by the three-dimensional data acquisition program 50 can be realized by, for example, a semiconductor integrated circuit, more specifically, an application specific integrated circuit (ASIC).

次に、第1実施形態に係る3次元データ取得装置10の作用について説明する。   Next, the operation of the three-dimensional data acquisition apparatus 10 according to the first embodiment will be described.

3次元データ取得装置10に事前に入力された演技予定リスト21を取得部11が取得し、所定の記憶領域に記憶する。演技予定リスト21が記憶された状態で、対象物である選手の演技の開始に合わせて、3次元データの取得開始が指示されると、3次元データ取得装置10において、図10に示す3次元データ取得処理が実行される。   The acquisition unit 11 acquires the performance schedule list 21 input in advance to the three-dimensional data acquisition apparatus 10 and stores it in a predetermined storage area. When the start of the acquisition of 3D data is instructed in accordance with the start of the performance of the target player in the state where the performance schedule list 21 is stored, the 3D data acquisition apparatus 10 displays the 3D data shown in FIG. Data acquisition processing is executed.

ステップS11で、取得部11が、時刻に対応する変数nを初期値の0に設定する。   In step S11, the acquisition unit 11 sets the variable n corresponding to the time to an initial value of 0.

次に、ステップS12で、取得部11が、演技予定リスト21、及び履歴DB22の技実施履歴テーブル22Cを参照して、演技が終了しているか否かを判定する。まだ演技が終了していない場合には、処理はステップS13へ移行し、取得部11が、3Dセンサ31から、時刻Tnにおける3次元データ群PTn(Xsn,Ysn,Zsn)を取得する。取得部11は、取得した3次元データ群を認識部12へ受け渡す。また、取得部11は、3次元データと共に、時刻Tnにおける3Dセンサ31の向きθTn(θpan_n,θtilt_n,θroll_n)、及び画角φTn(φxs_n,φys_n)を取得し、推定部13へ受け渡す。   Next, in step S12, the acquisition unit 11 refers to the performance schedule list 21 and the technique performance history table 22C of the history DB 22, and determines whether or not the performance has ended. If the performance has not ended yet, the process proceeds to step S13, and the acquisition unit 11 acquires the three-dimensional data group PTn (Xsn, Ysn, Zsn) at time Tn from the 3D sensor 31. The acquisition unit 11 passes the acquired three-dimensional data group to the recognition unit 12. The acquisition unit 11 also acquires the orientation θTn (θpan_n, θtilt_n, θroll_n) and the angle of view φTn (φxs_n, φys_n) of the 3D sensor 31 at time Tn together with the three-dimensional data, and passes them to the estimation unit 13.

次に、ステップS14で、認識部12が、取得部11から受け渡された3次元データ群に基づいて、センサ座標系における対象物の位置及び姿勢を示す人体モデル認識し、基準となる人体モデルのサイズに正規化する。認識部12は、時刻Tnにおける人体モデルを構成する各部位のセンサ座標系における座標値body index_Tn(xs,ys,zs,ws)を、履歴DB22の人体モデル履歴テーブル22Aに記憶する。   Next, in step S14, the recognition unit 12 recognizes the human body model indicating the position and orientation of the object in the sensor coordinate system based on the three-dimensional data group delivered from the acquisition unit 11, and becomes a reference human body model. Normalize to the size of. The recognizing unit 12 stores the coordinate values body index_Tn (xs, ys, zs, ws) in the sensor coordinate system of each part constituting the human body model at time Tn in the human body model history table 22A of the history DB 22.

次に、ステップS20で、状態判定処理が実行される。ここで、図11を参照して、状態判定処理について説明する。   Next, in step S20, a state determination process is executed. Here, the state determination processing will be described with reference to FIG.

ステップS21で、状態判定部14が、人体モデル履歴テーブル22Aに記憶された時刻Tnにおけるセンサ座標系の座標値群を、取得部11から受け渡された3Dセンサ31の向き及び画角の情報を用いて、グローバル座標系の座標値群に変換する。状態判定部14は、人体モデル履歴テーブル22Aに記憶された時刻Tnにおける座標値を、グローバル座標系に変換した座標値に更新する。   In step S <b> 21, the state determination unit 14 receives the coordinate value group of the sensor coordinate system at time Tn stored in the human body model history table 22 </ b> A as the information on the orientation and angle of view of the 3D sensor 31 passed from the acquisition unit 11. To convert to a coordinate value group in the global coordinate system. The state determination unit 14 updates the coordinate value at time Tn stored in the human body model history table 22A to the coordinate value converted into the global coordinate system.

次に、ステップS22で、状態判定部14が、状態履歴テーブル22Bを参照して、時刻Tn−1の状態が技の区切りの姿勢を示す状態であるか否かを判定する。技の区切りの姿勢を示す状態の場合には、処理はステップS23へ移行し、技の途中の姿勢を示す状態の場合には、処理はステップS24へ移行する。   Next, in step S22, the state determination unit 14 refers to the state history table 22B to determine whether or not the state at the time Tn-1 indicates a technique break posture. In the case of a state indicating the posture of a technique, the process proceeds to step S23, and in the case of a state indicating an attitude in the middle of the technique, the process proceeds to step S24.

ステップS23では、状態判定部14が、演技予定リスト21及び技実施履歴テーブル22Cを参照して、終了した技の次の技を特定する。そして、状態判定部14は、特定した技を含む動作パターンを動作パターンDB23から取得し、取得した動作パターンの各々において、最初の姿勢を示す状態(技の区切りの姿勢を示す状態の次の状態)を、時刻Tnの状態候補として抽出する。   In step S23, the state determination unit 14 refers to the performance schedule list 21 and the technique execution history table 22C, and specifies the next technique after the completed technique. Then, the state determination unit 14 acquires an operation pattern including the specified technique from the operation pattern DB 23, and in each of the acquired operation patterns, the state indicating the first posture (the state next to the state indicating the posture of the technique delimiter) ) Is extracted as a state candidate at time Tn.

一方、ステップS24では、状態判定部14が、時刻Tn−1の状態を含む動作パターンにおいて、時刻Tn−1の状態から遷移可能な状態を、時刻Tnの状態候補として抽出する。   On the other hand, in step S24, the state determination unit 14 extracts states that can transition from the state at time Tn-1 as state candidates at time Tn in the operation pattern including the state at time Tn-1.

次に、ステップS25で、状態判定部14が、抽出した状態候補の各々の状態情報のうち、人体モデル履歴テーブル22Aに記憶された人体モデルの姿勢と最も類似する姿勢を示す状態候補を、時刻Tnにおける状態として判定する。状態判定部14は、判定した状態の状態番号を、その状態を含む動作パターンのパターン番号と共に、時刻Tnと対応付けて、状態履歴テーブル22Bに記憶する。そして、処理は図10に示す3次元データ取得処理に戻る。   Next, in step S25, the state determination unit 14 selects a state candidate indicating the posture most similar to the posture of the human body model stored in the human body model history table 22A from the state information of each of the extracted state candidates. It is determined as the state at Tn. The state determination unit 14 stores the state number of the determined state in association with the time Tn together with the pattern number of the operation pattern including the state in the state history table 22B. Then, the process returns to the three-dimensional data acquisition process shown in FIG.

次に、ステップS30で、状態推定処理が実行される。ここで、図12を参照して、状態推定処理について説明する。   Next, a state estimation process is performed at step S30. Here, the state estimation process will be described with reference to FIG.

ステップS31〜S33で、状態推定部15が、状態判定処理(図11)のステップS22〜S24の処理と同様の処理であって、時刻Tn−1を時刻Tn、時刻Tnを時刻Tn+1と読み替えた処理を実行して、時刻Tn+1の状態候補を抽出する。   In steps S31 to S33, the state estimation unit 15 reads the time Tn-1 as the time Tn and the time Tn as the time Tn + 1, which is the same processing as the processing in steps S22 to S24 of the state determination processing (FIG. 11). The process is executed to extract a state candidate at time Tn + 1.

次に、ステップS34で、状態推定部15が、抽出した状態候補の各々について、時刻Tnの状態からの遷移確率を算出する。状態推定部15は、状態候補のうち、時刻Tnにおける状態からの遷移確率が最も高い状態候補を、時刻Tn+1における状態として推定する。状態推定部15は、推定した状態の状態情報を制御部17へ受け渡す。そして、処理は図10に示す3次元データ取得処理に戻る。   Next, in step S34, the state estimation unit 15 calculates a transition probability from the state at time Tn for each of the extracted state candidates. The state estimation unit 15 estimates a state candidate having the highest transition probability from the state at time Tn among the state candidates as a state at time Tn + 1. The state estimation unit 15 passes the state information of the estimated state to the control unit 17. Then, the process returns to the three-dimensional data acquisition process shown in FIG.

次に、ステップS41で、位置推定部16が、履歴DB22の人体モデル履歴テーブル22Aを参照して、対象物の位置の変化に基づいて、時刻Tn+1に対象物が存在する位置を推定する。位置推定部16は、推定した時刻Tn+1における対象物の位置の情報を、制御部17へ受け渡す。   Next, in step S41, the position estimation unit 16 refers to the human body model history table 22A of the history DB 22, and estimates the position where the object exists at time Tn + 1 based on the change in the position of the object. The position estimation unit 16 passes information on the position of the object at the estimated time Tn + 1 to the control unit 17.

次に、ステップS42で、制御部17が、位置推定部16で推定された時刻Tn+1における対象物の位置に、状態推定部15で推定された時刻Tn+1における状態が示す姿勢の人体モデルを展開する。そして、制御部17は、対象物である選手の体格に応じて、人体モデルのサイズを補正する。次に、ステップS43で、制御部17が、補正した人体モデルを示す各部位の座標値群の各々を、グローバル座標系からセンサ座標系に変換する。   Next, in step S <b> 42, the control unit 17 develops the human body model having the posture indicated by the state at the time Tn + 1 estimated by the state estimation unit 15 at the position of the target at the time Tn + 1 estimated by the position estimation unit 16. . And the control part 17 correct | amends the size of a human body model according to the physique of the player who is a target object. Next, in step S43, the control unit 17 converts each coordinate value group of each part indicating the corrected human body model from the global coordinate system to the sensor coordinate system.

次に、ステップS44で、制御部17が、センサ座標系の座標値に変換された人体モデルを包含し、かつ3Dセンサ31に正対する最小の直方体領域を算出する。次に、ステップS45で、制御部17が、この直方体領域を包含する3Dセンサ31の向きθTn+1(θpan_n+1,θtilt_n+1,θroll_n+1)、及び画角Tn+1(φxs_n+1,φys_n+1)を制御値として算出する。制御部17は、算出した時刻Tn+1における3Dセンサ31の向き及び画角の制御値を駆動部32へ出力する。   Next, in step S <b> 44, the control unit 17 calculates a minimum rectangular parallelepiped region that includes the human body model converted into the coordinate value of the sensor coordinate system and faces the 3D sensor 31. Next, in step S45, the control unit 17 calculates the orientation θTn + 1 (θpan_n + 1, θtilt_n + 1, θroll_n + 1) and the angle of view Tn + 1 (φxs_n + 1, φys_n + 1) of the 3D sensor 31 including this rectangular parallelepiped region as control values. The control unit 17 outputs the calculated control value of the direction and the angle of view of the 3D sensor 31 at the calculated time Tn + 1 to the drive unit 32.

次にステップS46で、取得部11が、変数nを1インクリメントして、処理はステップS12に戻る。ステップS12で、演技が終了したと判定された場合には、3次元データ取得処理は終了する。   Next, in step S46, the acquisition unit 11 increments the variable n by 1, and the process returns to step S12. If it is determined in step S12 that the performance has ended, the three-dimensional data acquisition process ends.

以上説明したように、第1実施形態に係る3次元データ取得装置10は、事前に入力された演技予定リストと、姿勢の遷移を表現した動作パターンと、現在の対象物の位置及び姿勢とに基づいて、次のタイミングにおける対象物の位置及び姿勢を推定する。そして、3次元データ取得装置10は、推定した位置及び姿勢の対象物を画角いっぱいに収めるように3Dセンサの画角及び向きを制御する。これにより、動作方向が急変する対象物であっても、3Dセンサの画角に占める対象物の割合が高い状態で3次元データの取得を継続することができる。   As described above, the three-dimensional data acquisition apparatus 10 according to the first embodiment includes the performance schedule list input in advance, the motion pattern expressing the transition of the posture, and the current position and posture of the target object. Based on this, the position and orientation of the object at the next timing are estimated. Then, the three-dimensional data acquisition apparatus 10 controls the angle of view and orientation of the 3D sensor so that the object having the estimated position and orientation is accommodated to the full angle of view. Thereby, even if it is the target object whose operation direction changes suddenly, acquisition of three-dimensional data can be continued in the state where the ratio of the target object to the angle of view of the 3D sensor is high.

また、3次元データ取得装置10は、次のタイミングにおける状態を推定する際に、同じ姿勢を含む複数の動作を、各姿勢を1つの状態に対応させ、遷移可能な状態間を接続した1つの木構造で表した動作パターンを用いる。同じ姿勢を含む複数の動作としては、基準の技を示す動作、基準の技の下位の技を示す動作、基準の技及び下位の技が不成立や失敗となる場合の動作が挙げられる。これにより、対象物である選手の動作が予定外の動作となった場合でも、次のタイミングにおける対象物の姿勢を精度良く推定することができ、3Dセンサの画角に占める対象物の割合が高い状態で3次元データの取得を継続することができる。   In addition, when estimating the state at the next timing, the three-dimensional data acquisition apparatus 10 associates a plurality of operations including the same posture with each posture corresponding to one state, and connects the transitionable states. An operation pattern represented by a tree structure is used. Examples of the plurality of actions including the same posture include an action indicating a reference technique, an action indicating a technique lower than the reference technique, and an action when the reference technique and the lower technique are not established or failed. Thereby, even when the motion of the player, which is the object, becomes an unscheduled motion, the posture of the object at the next timing can be accurately estimated, and the proportion of the object in the angle of view of the 3D sensor is Acquisition of three-dimensional data can be continued in a high state.

また、動作パターンに含まれる状態のうち、遷移可能な状態であって、遷移確率が最も高い状態が示す姿勢を、次のタイミングにおける対象物の姿勢として推定することで、より精度良く次のタイミングにおける対象物の姿勢を推定することができる。   In addition, by estimating the posture indicated by the state having the highest transition probability among the states included in the motion pattern as the posture of the object at the next timing, the next timing can be more accurately performed. The posture of the object at can be estimated.

<第2実施形態>
次に、第2実施形態について説明する。なお、第2実施形態に係る3次元データ取得装置において、第1実施形態に係る3次元データ取得装置10と同様の部分については、同一符号を付して詳細な説明を省略する。
Second Embodiment
Next, a second embodiment will be described. In the three-dimensional data acquisition device according to the second embodiment, the same parts as those of the three-dimensional data acquisition device 10 according to the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

図1に示すように、3次元データ取得装置210は、取得部11と、認識部12と、推定部213と、制御部17とを含む。また、3次元データ取得装置210の所定の記憶領域には、演技予定リスト21と、履歴DB22と、動作パターンDB223とが記憶される。   As illustrated in FIG. 1, the three-dimensional data acquisition apparatus 210 includes an acquisition unit 11, a recognition unit 12, an estimation unit 213, and a control unit 17. In addition, in a predetermined storage area of the three-dimensional data acquisition apparatus 210, a performance schedule list 21, a history DB 22, and an operation pattern DB 223 are stored.

動作パターンDB223には、第1実施形態に係る動作パターンDB23に含まれる動作パターンを表現した木構造、及び各状態の状態情報に加え、図13に示すような、つなぎ動作テーブル223Aが含まれる。先行の技が終了して後続の技の実施に移る場合に、歩いたり、ステップしたり、ポーズをとったり、前転等の難易度の低い技を実施したりなど、演技予定リスト21に含まれない動作が実施される場合がある。このようなつなぎ動作は、先行の技を接続元の技、後続の技を接続先の技とした場合、その接続される技の種類によって、ある程度決まったパターンの動作が実施される傾向がある。そこで、つなぎ動作テーブル223Aには、つなぎ動作のパターンを、接続元の技と接続先の技と対応付けて記憶しておく。   In addition to the tree structure representing the operation pattern included in the operation pattern DB 23 according to the first embodiment and the state information of each state, the operation pattern DB 223 includes a connection operation table 223A as shown in FIG. Included in the scheduled performance list 21 such as walking, stepping, posing, performing tricks such as forward rotation, etc. when the preceding technique is finished and the subsequent technique is carried out. Some operations may be performed. In such a connecting operation, when the preceding technique is the connection source technique and the subsequent technique is the connection destination technique, there is a tendency that an operation of a pattern determined to some extent is performed depending on the type of the connected technique. . Therefore, the joining operation table 223A stores the joining operation pattern in association with the connection source technique and the connection destination technique.

例えば、図13の例では、つなぎ動作パターンID=1のつなぎ動作パターンは、技4と技6との間には、つなぎ動作として技5が実施されることを表している。つなぎ動作パターンは、つなぎ動作パターンID=3、4、5のつなぎ動作パターンのように、複数のつなぎ動作を含む場合もある。また、図13の例で、「つなぎ動作パターン」の欄が空欄のつなぎ動作パターンは、「接続元技」及び「接続先技」欄の動作を複数回繰り返すことを表している。例えば、技6と技1との間のつなぎ動作パターンとして、つなぎ動作パターンID=3及び6が実施される場合、技6→つなぎ動作A→つなぎ動作A→つなぎ動作B→技1となる。   For example, in the example of FIG. 13, the connection operation pattern with the connection operation pattern ID = 1 represents that the technique 5 is performed as a connection operation between the technique 4 and the technique 6. The connection operation pattern may include a plurality of connection operations, such as a connection operation pattern of connection operation pattern ID = 3, 4, and 5. In the example of FIG. 13, the connection operation pattern in which the “connection operation pattern” field is blank represents that the operations in the “connection source technique” and “connection destination technique” fields are repeated a plurality of times. For example, when the connection operation pattern ID = 3 and 6 is implemented as the connection operation pattern between the technique 6 and the technique 1, the technique 6 → the connection operation A → the connection operation A → the connection operation B → the technique 1 is performed.

また、動作パターンDB223に記憶される動作パターンには、つなぎ動作の動作パターンも含まれる。   Further, the operation pattern stored in the operation pattern DB 223 includes an operation pattern of a linkage operation.

推定部213は、状態判定部214と、状態推定部215と、位置推定部16とを含む。   The estimation unit 213 includes a state determination unit 214, a state estimation unit 215, and a position estimation unit 16.

状態判定部214は、第1実施形態の状態判定部14と同様に、認識部12により認識された対象物の人体モデルが示す姿勢が、どの動作パターンに含まれるどの状態かを判定する。時刻Tn−1の状態が技の区切りの姿勢を示す状態である場合、状態判定部214は、終了した技の次の技を含む動作パターンから時刻Tnの状態候補を抽出する。この際、状態判定部214は、次の技として、演技予定リスト21から得られる次の技だけでなく、つなぎ動作テーブル223Aを参照して、時刻Tn−1で終了した技と、次の技との間のつなぎ動作も対象とする。   Similarly to the state determination unit 14 of the first embodiment, the state determination unit 214 determines which state the posture of the target human body model recognized by the recognition unit 12 includes in which operation pattern. When the state at the time Tn−1 is a state indicating the posture of the technique, the state determination unit 214 extracts a state candidate at the time Tn from the motion pattern including the technique next to the technique that has been completed. At this time, as the next technique, the state determination unit 214 refers to not only the next technique obtained from the acting schedule list 21 but also the connection technique table 223A, the technique completed at the time Tn-1 and the next technique. This also applies to the connection between the two.

例えば、図2に示す演技予定リスト21にしたがって、時刻Tn−1で、演技予定リストの2番目の技6が終了している場合、状態判定部214は、次の技1を示す動作パターン(例えば、図4のパターン1)から状態候補を抽出する。さらに、状態判定部214は、例えば図13に示すつなぎ動作テーブル223Aを参照して、技6と技1とのつなぎ動作パターンに含まれるつなぎ動作Aの動作パターンからも状態候補を抽出する。   For example, according to the performance schedule list 21 shown in FIG. 2, when the second technique 6 in the performance schedule list is completed at time Tn−1, the state determination unit 214 operates the operation pattern ( For example, state candidates are extracted from pattern 1) in FIG. Furthermore, the state determination unit 214 refers to, for example, the connection operation table 223A illustrated in FIG. 13 and extracts a state candidate from the operation pattern of the connection operation A included in the connection operation pattern of the technique 6 and the technique 1.

状態推定部215は、時刻Tn+1の状態候補を抽出する際に、状態判定部214と同様に、つなぎ動作テーブル223Aも参照する点が、第1実施形態の状態推定部15と異なる。   The state estimation unit 215 differs from the state estimation unit 15 of the first embodiment in that the state estimation unit 215 refers to the connection operation table 223A as well as the state determination unit 214 when extracting the state candidate at the time Tn + 1.

3次元データ取得装置210は、例えば図9に示すコンピュータ40で実現することができる。コンピュータ40の記憶部43には、コンピュータ40を3次元データ取得装置210として機能させるための3次元データ取得プログラム250が記憶される。3次元データ取得プログラム250は、取得プロセス51と、認識プロセス52と、推定プロセス253と、制御プロセス57とを有する。また、記憶部43は、動作パターンDB223を構成する情報が記憶される情報記憶領域60を有する。   The three-dimensional data acquisition device 210 can be realized by a computer 40 shown in FIG. 9, for example. The storage unit 43 of the computer 40 stores a three-dimensional data acquisition program 250 for causing the computer 40 to function as the three-dimensional data acquisition device 210. The three-dimensional data acquisition program 250 includes an acquisition process 51, a recognition process 52, an estimation process 253, and a control process 57. The storage unit 43 has an information storage area 60 in which information constituting the operation pattern DB 223 is stored.

CPU41は、3次元データ取得プログラム250を記憶部43から読み出してメモリ42に展開し、3次元データ取得プログラム250が有するプロセスを順次実行する。CPU41は、推定プロセス253を実行することで、図1に示す推定部213として動作する。他のプロセスについては、第1実施形態における3次元データ取得プログラム50と同様である。これにより、3次元データ取得プログラム250を実行したコンピュータ40が、3次元データ取得装置210として機能する。   The CPU 41 reads the three-dimensional data acquisition program 250 from the storage unit 43 and expands it in the memory 42, and sequentially executes the processes included in the three-dimensional data acquisition program 250. The CPU 41 operates as the estimation unit 213 illustrated in FIG. 1 by executing the estimation process 253. Other processes are the same as those of the three-dimensional data acquisition program 50 in the first embodiment. As a result, the computer 40 that has executed the three-dimensional data acquisition program 250 functions as the three-dimensional data acquisition device 210.

なお、3次元データ取得プログラム250により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。   The function realized by the three-dimensional data acquisition program 250 can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC.

次に、第2実施形態に係る3次元データ取得装置210の作用について説明する。第2実施形態においても、図10に示す3次元データ取得処理が実行されるが、以下の点が、第1実施形態における3次元データ取得処理と異なる。1つ目は、図11に示す状態判定処理のステップS23で、時刻Tnの状態候補を抽出する際に、つなぎ動作テーブル223Aも参照する点である。2つ目は、図12に示す状態推定処理のステップS32で、事項Tn+1の状態候補を抽出する際に、つなぎ動作テーブル223Aも参照する点である。他の点については、第1実施形態における3次元データ取得処理と同様の処理が実行されるため、詳細な説明を省略する。   Next, the operation of the three-dimensional data acquisition apparatus 210 according to the second embodiment will be described. Also in the second embodiment, the three-dimensional data acquisition process shown in FIG. 10 is executed, but the following points are different from the three-dimensional data acquisition process in the first embodiment. The first point is that the connection operation table 223A is also referred to when the state candidate at time Tn is extracted in step S23 of the state determination process shown in FIG. The second point is that the connection operation table 223A is also referred to when the state candidate of the item Tn + 1 is extracted in step S32 of the state estimation process shown in FIG. About another point, since the process similar to the three-dimensional data acquisition process in 1st Embodiment is performed, detailed description is abbreviate | omitted.

以上説明したように、第2実施形態に係る3次元データ取得装置210は、次の技に移行するタイミングにおける時刻Tnの状態を判定する際、及び時刻Tn+1の状態を推定する際に、技と技との間のつなぎの動作も考慮する。これにより、演技予定リストに記述されていない動作が技と技との間に実施された場合でも、3次元センサの画角に占める対象物の割合が高い状態で3次元データの取得を継続することができる。   As described above, the three-dimensional data acquisition apparatus 210 according to the second embodiment determines the state at the time Tn at the timing of shifting to the next technique and estimates the state at the time Tn + 1. Also consider the connection between tricks. Thereby, even when an operation not described in the performance schedule list is performed between the techniques, the acquisition of the three-dimensional data is continued in a state where the ratio of the object in the angle of view of the three-dimensional sensor is high. be able to.

なお、上記各実施形態では、演技を実施する体操選手を対象物とする場合について説明したが、これに限定されない。事前のプランに従った動作を行う対象物、例えば、フィギュアスケート、スケートボードやスノーボードなどのハーフパイプ、モーグル、水泳飛込み、演武、ダンスなどの競技者を対象物として適用することも可能である。   In addition, although each said embodiment demonstrated the case where the gymnast who performs acting was made into a target object, it is not limited to this. It is also possible to apply an object that performs an action according to a prior plan, for example, a figure skating, a half pipe such as a skateboard or a snowboard, a mogul, a swimming jump, a performance, a dance, or the like.

また、上記各実施形態では、認識部で認識した人体モデルのサイズを正規化した上で、動作パターンDBに記憶された状態の状態情報(姿勢を示す各部位の座標群)と比較する場合について説明したが、これに限定されない。例えば、動作パターンDBに記憶された状態の状態情報が示す人体モデルを、実際の選手のサイズに対応したサイズに補正した上で、認識部で認識されたサイズを正規化していない人体モデルと比較するようにしてもよい。図14に示すように、人体モデルのサイズを正規化したり補正したりすることにより、様々なサイズに適用するために、1つの状態について複数の状態情報を動作パターンDBに記憶しておく必要がない。   In each of the above embodiments, the size of the human body model recognized by the recognition unit is normalized and then compared with the state information (coordinate group of each part indicating posture) stored in the motion pattern DB. Although described, it is not limited to this. For example, the human body model indicated by the state information stored in the motion pattern DB is corrected to a size corresponding to the actual player size, and then compared with the human body model whose size recognized by the recognition unit is not normalized. You may make it do. As shown in FIG. 14, in order to apply to various sizes by normalizing or correcting the size of the human body model, it is necessary to store a plurality of state information for one state in the operation pattern DB. Absent.

また、上記各実施形態では、時刻Tn+1の状態候補のうち、時刻Tnの状態からの遷移確率が最も高い状態候補を時刻Tn+1の状態として推定する場合について説明したが、これに限定されない。抽出された状態候補の全て、又は遷移確率が所定値以上の状態候補などのように、複数の状態候補を時刻Tn+1の状態として採用してもよい。この場合、採用した状態の各々が示す姿勢の全てを包含する領域を、時刻Tn+1における対象物が占める領域として算出することができる。   Moreover, although each said embodiment demonstrated the case where the state candidate with the highest transition probability from the state of the time Tn among the state candidates of the time Tn + 1 was estimated as a state of the time Tn + 1, it is not limited to this. A plurality of state candidates may be adopted as the state at time Tn + 1, such as all of the extracted state candidates or state candidates having a transition probability equal to or higher than a predetermined value. In this case, a region including all the postures indicated by each of the adopted states can be calculated as a region occupied by the object at time Tn + 1.

また、上記各実施形態では、時刻Tn+1における対象物の位置を推定する際に、人体モデルを構成する各部位の座標値の履歴を参照する場合について説明したが、これに限定されない。例えば、推定された時刻Tn+1の状態が示す姿勢が、人体の所定部位が固定地点にある姿勢の場合は、その部位を基準とした位置を推定してもよい。人体の所定部位とは、例えば、あん馬の場合は体を支持している手、床の場合は地面に着いている手や足、人体が空中にある場合は背骨などの重心である。   In each of the above embodiments, the case where the history of the coordinate values of each part constituting the human body model is referred to when estimating the position of the object at time Tn + 1 is not limited to this. For example, when the posture indicated by the estimated state at time Tn + 1 is a posture in which a predetermined part of the human body is at a fixed point, the position based on that part may be estimated. The predetermined part of the human body is, for example, the center of gravity of a hand supporting the body in the case of a pommel horse, the hand or foot that is on the ground in the case of the floor, or the spine in the case of the human body in the air.

また、上記では、3次元データ取得プログラム50、250が記憶部43に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。   In the above description, the mode in which the three-dimensional data acquisition programs 50 and 250 are stored (installed) in the storage unit 43 in advance has been described. However, the present invention is not limited to this. The program can also be provided in a form stored in a storage medium such as a CD-ROM, DVD-ROM, or USB memory.

以上の各実施形態に関し、更に以下の付記を開示する。   Regarding the above embodiments, the following additional notes are disclosed.

(付記1)
3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得する取得部と、
前記取得部により取得された3次元データに基づいて、前記対象物の位置及び姿勢を認識する認識部と、
同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照して、受け付けた前記対象物が実施する予定の動作の情報と、前記認識部により認識された前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定すると共に、推定した姿勢と、前記認識部により認識された前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定する推定部と、
前記推定部で推定された前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する制御部と、
を含む3次元データ取得装置。
(Appendix 1)
An acquisition unit for acquiring three-dimensional data indicating a three-dimensional position of each point on the object detected by the three-dimensional sensor;
A recognition unit for recognizing the position and orientation of the object based on the three-dimensional data acquired by the acquisition unit;
With reference to an operation pattern storage unit that stores a plurality of operation patterns defined by state transitions indicating a plurality of related operations including the same posture and indicating the posture of the object, the received object is Based on the information of the operation scheduled to be performed and the posture of the target object recognized by the recognition unit, the posture of the target object at the next timing is estimated, and the estimated posture is recognized by the recognition unit. An estimation unit for estimating a position where the object is present at the next timing based on the position change of the object performed,
A control unit that controls the orientation and angle of view of the three-dimensional sensor based on the posture and position of the object estimated by the estimation unit;
A three-dimensional data acquisition device.

(付記2)
前記動作パターンは、前記同一の姿勢を含む関連する複数の動作として、基準の技を示す動作と、前記基準の技の実施中における対象物の姿勢から遷移可能な他の技を示す動作と、前記基準の技及び前記他の技が不成立又は失敗した場合の動作とを含む対象物の動作を示す動作パターンであり、
前記推定部は、前記対象物が実施する予定の動作の情報として、前記対象物が実施予定の技のリストを参照する
付記1記載の3次元データ取得装置。
(Appendix 2)
The motion pattern includes a plurality of related operations including the same posture, an operation indicating a standard technique, and an operation indicating another technique that can be transitioned from the posture of an object during the execution of the standard technique, It is an operation pattern showing an operation of an object including an operation when the reference technique and the other technique are not established or failed,
The three-dimensional data acquisition apparatus according to claim 1, wherein the estimation unit refers to a list of techniques scheduled to be performed by the target object as information on an operation scheduled to be performed by the target object.

(付記3)
前記推定部は、前記認識部により認識された前記対象物の姿勢に対応する状態を含んで定義された動作パターンにおいて、前記対応する状態から遷移可能な状態が示す姿勢を、前記次のタイミングにおける前記対象物の姿勢として推定する付記1又は付記2に記載の3次元データ取得装置。
(Appendix 3)
In the motion pattern defined including the state corresponding to the posture of the object recognized by the recognition unit, the estimation unit indicates the posture indicated by the state that can be transitioned from the corresponding state at the next timing. The three-dimensional data acquisition device according to supplementary note 1 or supplementary note 2, which estimates the posture of the object.

(付記4)
前記認識部は、前記取得部により取得された3次元データに基づいて、前記対象物の各部位の座標値の集合で表される人体モデルを認識し、
前記動作パターンは、前記対象物の各部位の座標値の集合で表された前記対象物の姿勢を示す状態の遷移で定義され、
前記推定部は、前記対象物の各部位の相対座標系、グローバル座標系、及び前記動作パターンが示す動作の進行方向を基準とした座標系の少なくとも1つの座標系において、前記認識部により認識された前記人体モデルを表す座標値の集合との差が所定の範囲内となる座標値の集合で表された前記動作パターンの状態を、前記認識部により認識された前記対象物の姿勢に対応する状態として判定する
付記3に記載の3次元データ取得装置。
(Appendix 4)
The recognition unit recognizes a human body model represented by a set of coordinate values of each part of the object based on the three-dimensional data acquired by the acquisition unit;
The movement pattern is defined by a state transition indicating a posture of the object represented by a set of coordinate values of each part of the object,
The estimation unit is recognized by the recognition unit in at least one coordinate system of a relative coordinate system of each part of the object, a global coordinate system, and a coordinate system based on a movement direction indicated by the movement pattern. In addition, the state of the motion pattern represented by a set of coordinate values whose difference from the set of coordinate values representing the human body model is within a predetermined range corresponds to the posture of the object recognized by the recognition unit. The three-dimensional data acquisition device according to attachment 3, wherein the three-dimensional data acquisition device is determined as a state.

(付記5)
前記推定部は、前記対応する状態から遷移可能な状態を、状態間の遷移確率に基づいて推定する付記3又は付記4に記載の3次元データ取得装置。
(Appendix 5)
The three-dimensional data acquisition device according to supplementary note 3 or supplementary note 4, wherein the estimation unit estimates a state that can transition from the corresponding state based on a transition probability between states.

(付記6)
前記遷移確率は、動作の難易度、対象物の特性、対象物の姿勢の変化の速度、現在の対象物の姿勢と対応する状態が示す姿勢との逸脱度のいずれかを含む付記5に記載の3次元データ取得装置。
(Appendix 6)
The transition probability includes any one of a difficulty level of movement, a characteristic of the target object, a speed of change of the target object attitude, and a deviation degree from the current object attitude and the attitude indicated by the corresponding state. 3D data acquisition device.

(付記7)
前記動作パターン記憶部に、技と技との間の動作を示すつなぎ動作パターンがさらに記憶され、
前記推定部は、前記実施予定の技のリストにしたがって、次に実施する予定の技を含む動作パターンと、直前に終了した技と次に実施する予定の技との間の動作を示すつなぎ動作パターンとを参照する
付記2〜付記6のいずれか1項記載の3次元データ取得装置。
(Appendix 7)
The operation pattern storage unit further stores a connection operation pattern indicating an operation between techniques,
According to the list of techniques to be performed, the estimation unit includes a motion pattern including a technique to be performed next, and a linkage operation indicating an operation between a technique that has just been completed and a technique to be performed next. The three-dimensional data acquisition device according to any one of appendix 2 to appendix 6, which refers to a pattern.

(付記8)
3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得し、
取得した3次元データに基づいて、前記対象物の位置及び姿勢を認識し、
同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照して、受け付けた前記対象物が実施する予定の動作の情報と、認識した前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定すると共に、推定した姿勢と、認識した前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定し、
推定した前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する
ことを含む処理をコンピュータが実行する3次元データ取得方法。
(Appendix 8)
Obtaining three-dimensional data indicating the three-dimensional position of each point on the object detected by the three-dimensional sensor;
Based on the acquired three-dimensional data, recognize the position and orientation of the object,
With reference to an operation pattern storage unit that stores a plurality of operation patterns defined by state transitions indicating a plurality of related operations including the same posture and indicating the posture of the object, the received object is Based on the information on the action to be performed and the posture of the recognized object, the posture of the object at the next timing is estimated, and the estimated posture and the change in the position of the recognized object On the basis of the position of the object at the next timing,
A three-dimensional data acquisition method in which a computer executes processing including controlling the orientation and angle of view of the three-dimensional sensor based on the estimated posture and position of the object.

(付記9)
前記動作パターンは、前記同一の姿勢を含む関連する複数の動作として、基準の技を示す動作と、前記基準の技の実施中における対象物の姿勢から遷移可能な他の技を示す動作と、前記基準の技及び前記他の技が不成立又は失敗した場合の動作とを含む対象物の動作を示す動作パターンであり、
前記対象物が実施する予定の動作の情報として、前記対象物が実施予定の技のリストを参照する
付記8記載の3次元データ取得方法。
(Appendix 9)
The motion pattern includes a plurality of related operations including the same posture, an operation indicating a standard technique, and an operation indicating another technique that can be transitioned from the posture of an object during the execution of the standard technique, It is an operation pattern showing an operation of an object including an operation when the reference technique and the other technique are not established or failed,
The three-dimensional data acquisition method according to supplementary note 8, wherein a list of techniques scheduled to be performed by the target object is referred to as information on an operation scheduled to be performed by the target object.

(付記10)
認識した前記対象物の姿勢に対応する状態を含んで定義された動作パターンにおいて、前記対応する状態から遷移可能な状態が示す姿勢を、前記次のタイミングにおける前記対象物の姿勢として推定する付記8又は付記9に記載の3次元データ取得方法。
(Appendix 10)
Supplementary Note 8: Estimating a posture indicated by a state capable of transitioning from the corresponding state as a posture of the target object at the next timing in an operation pattern defined including a state corresponding to the recognized posture of the target object Alternatively, the three-dimensional data acquisition method according to attachment 9.

(付記11)
取得した3次元データに基づいて、前記対象物の各部位の座標値の集合で表される人体モデルを認識し、
前記動作パターンは、前記対象物の各部位の座標値の集合で表された前記対象物の姿勢を示す状態の遷移で定義され、
前記対象物の各部位の相対座標系、グローバル座標系、及び前記動作パターンが示す動作の進行方向を基準とした座標系の少なくとも1つの座標系において、認識した前記人体モデルを表す座標値の集合との差が所定の範囲内となる座標値の集合で表された前記動作パターンの状態を、認識した前記対象物の姿勢に対応する状態として判定する
付記10に記載の3次元データ取得方法。
(Appendix 11)
Based on the acquired three-dimensional data, recognize a human body model represented by a set of coordinate values of each part of the object,
The movement pattern is defined by a state transition indicating a posture of the object represented by a set of coordinate values of each part of the object,
A set of coordinate values representing the recognized human body model in at least one coordinate system of a relative coordinate system of each part of the object, a global coordinate system, and a coordinate system based on the moving direction of the motion indicated by the motion pattern The three-dimensional data acquisition method according to supplementary note 10, wherein the state of the motion pattern represented by a set of coordinate values within which a difference between and is within a predetermined range is determined as a state corresponding to the recognized posture of the object.

(付記12)
前記対応する状態から遷移可能な状態を、状態間の遷移確率に基づいて推定する付記10又は付記11に記載の3次元データ取得方法。
(Appendix 12)
The three-dimensional data acquisition method according to supplementary note 10 or supplementary note 11, wherein a state that can transition from the corresponding state is estimated based on a transition probability between states.

(付記13)
前記遷移確率は、動作の難易度、対象物の特性、対象物の姿勢の変化の速度、現在の対象物の姿勢と対応する状態が示す姿勢との逸脱度のいずれかを含む付記12に記載の3次元データ取得方法。
(Appendix 13)
The transition probability includes any one of a difficulty level of motion, a characteristic of the target object, a speed of change of the target object attitude, and a deviation degree from the current object attitude and the attitude indicated by the corresponding state. 3D data acquisition method.

(付記14)
前記動作パターン記憶部に、技と技との間の動作を示すつなぎ動作パターンがさらに記憶され、
前記実施予定の技のリストにしたがって、次に実施する予定の技を含む動作パターンと、直前に終了した技と次に実施する予定の技との間の動作を示すつなぎ動作パターンとを参照する
付記9〜付記13のいずれか1項記載の3次元データ取得方法。
(Appendix 14)
The operation pattern storage unit further stores a connection operation pattern indicating an operation between techniques,
In accordance with the list of techniques to be executed, the operation pattern including the technique to be executed next is referred to, and the connection operation pattern indicating the operation between the technique just completed and the technique to be executed next is referred to. The three-dimensional data acquisition method according to any one of appendix 9 to appendix 13.

(付記15)
3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得し、
取得した3次元データに基づいて、前記対象物の位置及び姿勢を認識し、
同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照して、受け付けた前記対象物が実施する予定の動作の情報と、認識した前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定すると共に、推定した姿勢と、認識した前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定し、
推定した前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する
ことを含む処理をコンピュータに実行させる3次元データ取得プログラム。
(Appendix 15)
Obtaining three-dimensional data indicating the three-dimensional position of each point on the object detected by the three-dimensional sensor;
Based on the acquired three-dimensional data, recognize the position and orientation of the object,
With reference to an operation pattern storage unit that stores a plurality of operation patterns defined by state transitions indicating a plurality of related operations including the same posture and indicating the posture of the object, the received object is Based on the information on the action to be performed and the posture of the recognized object, the posture of the object at the next timing is estimated, and the estimated posture and the change in the position of the recognized object On the basis of the position of the object at the next timing,
A three-dimensional data acquisition program for causing a computer to execute processing including controlling the orientation and angle of view of the three-dimensional sensor based on the estimated posture and position of the object.

(付記16)
前記動作パターンは、前記同一の姿勢を含む関連する複数の動作として、基準の技を示す動作と、前記基準の技の実施中における対象物の姿勢から遷移可能な他の技を示す動作と、前記基準の技及び前記他の技が不成立又は失敗した場合の動作とを含む対象物の動作を示す動作パターンであり、
前記対象物が実施する予定の動作の情報として、前記対象物が実施予定の技のリストを参照する
付記15記載の3次元データ取得プログラム。
(Appendix 16)
The motion pattern includes a plurality of related operations including the same posture, an operation indicating a standard technique, and an operation indicating another technique that can be transitioned from the posture of an object during the execution of the standard technique, It is an operation pattern showing an operation of an object including an operation when the reference technique and the other technique are not established or failed,
The three-dimensional data acquisition program according to supplementary note 15, wherein a list of techniques scheduled to be performed by the object is referred to as information on an operation scheduled to be performed by the object.

(付記17)
認識した前記対象物の姿勢に対応する状態を含んで定義された動作パターンにおいて、前記対応する状態から遷移可能な状態が示す姿勢を、前記次のタイミングにおける前記対象物の姿勢として推定する付記15又は付記16に記載の3次元データ取得プログラム。
(Appendix 17)
(Supplementary Note 15) In the motion pattern defined including the state corresponding to the recognized posture of the object, the posture indicated by the state capable of transition from the corresponding state is estimated as the posture of the object at the next timing. Or the three-dimensional data acquisition program according to attachment 16.

(付記18)
取得した3次元データに基づいて、前記対象物の各部位の座標値の集合で表される人体モデルを認識し、
前記動作パターンは、前記対象物の各部位の座標値の集合で表された前記対象物の姿勢を示す状態の遷移で定義され、
前記対象物の各部位の相対座標系、グローバル座標系、及び前記動作パターンが示す動作の進行方向を基準とした座標系の少なくとも1つの座標系において、認識した前記人体モデルを表す座標値の集合との差が所定の範囲内となる座標値の集合で表された前記動作パターンの状態を、認識した前記対象物の姿勢に対応する状態として判定する
付記17に記載の3次元データ取得プログラム。
(Appendix 18)
Based on the acquired three-dimensional data, recognize a human body model represented by a set of coordinate values of each part of the object,
The movement pattern is defined by a state transition indicating a posture of the object represented by a set of coordinate values of each part of the object,
A set of coordinate values representing the recognized human body model in at least one coordinate system of a relative coordinate system of each part of the object, a global coordinate system, and a coordinate system based on the moving direction of the motion indicated by the motion pattern The three-dimensional data acquisition program according to appendix 17, wherein the state of the motion pattern represented by a set of coordinate values that is within a predetermined range is determined as a state corresponding to the recognized posture of the object.

(付記19)
前記対応する状態から遷移可能な状態を、状態間の遷移確率に基づいて推定する付記17又は付記18に記載の3次元データ取得プログラム。
(Appendix 19)
The three-dimensional data acquisition program according to supplementary note 17 or supplementary note 18, wherein a transitionable state from the corresponding state is estimated based on a transition probability between states.

(付記20)
前記遷移確率は、動作の難易度、対象物の特性、対象物の姿勢の変化の速度、現在の対象物の姿勢と対応する状態が示す姿勢との逸脱度のいずれかを含む付記19に記載の3次元データ取得プログラム。
(Appendix 20)
The transition probability includes any one of a difficulty level of movement, a characteristic of the target object, a speed of change of the target object attitude, and a deviation degree from the attitude indicated by the current object attitude and the corresponding state. 3D data acquisition program.

10、210 3次元データ取得装置
11 取得部
12 認識部
13、213 推定部
14、214 状態判定部
15、215 状態推定部
16 位置推定部
17 制御部
21 演技予定リスト
22 履歴DB
22A 人体モデル履歴テーブル
22B 状態履歴テーブル
22C 技実施履歴テーブル
23、223 動作パターンDB
223A つなぎ動作テーブル
31 3Dセンサ
32 駆動部
40 コンピュータ
41 CPU
42 メモリ
43 記憶部
49 記憶媒体
50、250 3次元データ取得プログラム
DESCRIPTION OF SYMBOLS 10, 210 Three-dimensional data acquisition apparatus 11 Acquisition part 12 Recognition part 13, 213 Estimation part 14, 214 State determination part 15, 215 State estimation part 16 Position estimation part 17 Control part 21 Scheduled action list 22 History DB
22A Human body model history table 22B State history table 22C Technique implementation history table 23, 223 Operation pattern DB
223A Connection operation table 31 3D sensor 32 Drive unit 40 Computer 41 CPU
42 Memory 43 Storage 49 Storage medium 50, 250 Three-dimensional data acquisition program

Claims (8)

3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得する取得部と、
前記取得部により取得された3次元データに基づいて、前記対象物の位置及び姿勢を認識する認識部と、
同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照して、受け付けた前記対象物が実施する予定の動作の情報と、前記認識部により認識された前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定すると共に、推定した姿勢と、前記認識部により認識された前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定する推定部と、
前記推定部で推定された前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する制御部と、
を含む3次元データ取得装置。
An acquisition unit for acquiring three-dimensional data indicating a three-dimensional position of each point on the object detected by the three-dimensional sensor;
A recognition unit for recognizing the position and orientation of the object based on the three-dimensional data acquired by the acquisition unit;
With reference to an operation pattern storage unit that stores a plurality of operation patterns defined by state transitions indicating a plurality of related operations including the same posture and indicating the posture of the object, the received object is Based on the information of the operation scheduled to be performed and the posture of the target object recognized by the recognition unit, the posture of the target object at the next timing is estimated, and the estimated posture is recognized by the recognition unit. An estimation unit for estimating a position where the object is present at the next timing based on the position change of the object performed,
A control unit that controls the orientation and angle of view of the three-dimensional sensor based on the posture and position of the object estimated by the estimation unit;
A three-dimensional data acquisition device.
前記動作パターンは、前記同一の姿勢を含む関連する複数の動作として、基準の技を示す動作と、前記基準の技の実施中における対象物の姿勢から遷移可能な他の技を示す動作と、前記基準の技及び前記他の技が不成立又は失敗した場合の動作とを含む対象物の動作を示す動作パターンであり、
前記推定部は、前記対象物が実施する予定の動作の情報として、前記対象物が実施予定の技のリストを参照する
請求項1記載の3次元データ取得装置。
The motion pattern includes a plurality of related operations including the same posture, an operation indicating a standard technique, and an operation indicating another technique that can be transitioned from the posture of an object during the execution of the standard technique, It is an operation pattern showing an operation of an object including an operation when the reference technique and the other technique are not established or failed,
The three-dimensional data acquisition apparatus according to claim 1, wherein the estimation unit refers to a list of techniques scheduled to be performed by the object as information on an operation scheduled to be performed by the object.
前記推定部は、前記認識部により認識された前記対象物の姿勢に対応する状態を含んで定義された動作パターンにおいて、前記対応する状態から遷移可能な状態が示す姿勢を、前記次のタイミングにおける前記対象物の姿勢として推定する請求項1又は請求項2に記載の3次元データ取得装置。   In the motion pattern defined including the state corresponding to the posture of the object recognized by the recognition unit, the estimation unit indicates the posture indicated by the state that can be transitioned from the corresponding state at the next timing. The three-dimensional data acquisition apparatus according to claim 1, wherein the three-dimensional data acquisition apparatus estimates the posture of the object. 前記認識部は、前記取得部により取得された3次元データに基づいて、前記対象物の各部位の座標値の集合で表される人体モデルを認識し、
前記動作パターンは、前記対象物の各部位の座標値の集合で表された前記対象物の姿勢を示す状態の遷移で定義され、
前記推定部は、前記対象物の各部位の相対座標系、グローバル座標系、及び前記動作パターンが示す動作の進行方向を基準とした座標系の少なくとも1つの座標系において、前記認識部により認識された前記人体モデルを表す座標値の集合との差が所定の範囲内となる座標値の集合で表された前記動作パターンの状態を、前記認識部により認識された前記対象物の姿勢に対応する状態として判定する
請求項3に記載の3次元データ取得装置。
The recognition unit recognizes a human body model represented by a set of coordinate values of each part of the object based on the three-dimensional data acquired by the acquisition unit;
The movement pattern is defined by a state transition indicating a posture of the object represented by a set of coordinate values of each part of the object,
The estimation unit is recognized by the recognition unit in at least one coordinate system of a relative coordinate system of each part of the object, a global coordinate system, and a coordinate system based on a movement direction indicated by the movement pattern. In addition, the state of the motion pattern represented by a set of coordinate values whose difference from the set of coordinate values representing the human body model is within a predetermined range corresponds to the posture of the object recognized by the recognition unit. The three-dimensional data acquisition device according to claim 3, which is determined as a state.
前記推定部は、前記対応する状態から遷移可能な状態を、状態間の遷移確率に基づいて推定する請求項3又は請求項4に記載の3次元データ取得装置。   The three-dimensional data acquisition apparatus according to claim 3, wherein the estimation unit estimates a state that can transition from the corresponding state based on a transition probability between states. 前記遷移確率は、動作の難易度、対象物の特性、対象物の姿勢の変化の速度、現在の対象物の姿勢と対応する状態が示す姿勢との逸脱度のいずれかを含む請求項5に記載の3次元データ取得装置。   The transition probability includes any one of a difficulty level of movement, a characteristic of the target object, a speed of change of the target object attitude, and a deviation degree from a current attitude of the target object and a corresponding attitude. The three-dimensional data acquisition device described. 前記動作パターン記憶部に、技と技との間の動作を示すつなぎ動作パターンがさらに記憶され、
前記推定部は、前記実施予定の技のリストにしたがって、次に実施する予定の技を含む動作パターンと、直前に終了した技と次に実施する予定の技との間の動作を示すつなぎ動作パターンとを参照する
請求項2〜請求項6のいずれか1項記載の3次元データ取得装置。
The operation pattern storage unit further stores a connection operation pattern indicating an operation between techniques,
According to the list of techniques to be performed, the estimation unit includes a motion pattern including a technique to be performed next, and a linkage operation indicating an operation between a technique that has just been completed and a technique to be performed next. The three-dimensional data acquisition apparatus according to claim 2, wherein the pattern is referred to.
3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得し、
取得した3次元データに基づいて、前記対象物の位置及び姿勢を認識し、
同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照して、受け付けた前記対象物が実施する予定の動作の情報と、認識した前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定すると共に、推定した姿勢と、認識した前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定し、
推定した前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する
ことを含む処理をコンピュータが実行する3次元データ取得方法。
Obtaining three-dimensional data indicating the three-dimensional position of each point on the object detected by the three-dimensional sensor;
Based on the acquired three-dimensional data, recognize the position and orientation of the object,
With reference to an operation pattern storage unit that stores a plurality of operation patterns defined by state transitions indicating a plurality of related operations including the same posture and indicating the posture of the object, the received object is Based on the information on the action to be performed and the posture of the recognized object, the posture of the object at the next timing is estimated, and the estimated posture and the change in the position of the recognized object On the basis of the position of the object at the next timing,
A three-dimensional data acquisition method in which a computer executes processing including controlling the orientation and angle of view of the three-dimensional sensor based on the estimated posture and position of the object.
JP2017035228A 2017-02-27 2017-02-27 3D data acquisition device and method Active JP6834590B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017035228A JP6834590B2 (en) 2017-02-27 2017-02-27 3D data acquisition device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017035228A JP6834590B2 (en) 2017-02-27 2017-02-27 3D data acquisition device and method

Publications (2)

Publication Number Publication Date
JP2018142815A true JP2018142815A (en) 2018-09-13
JP6834590B2 JP6834590B2 (en) 2021-02-24

Family

ID=63528308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017035228A Active JP6834590B2 (en) 2017-02-27 2017-02-27 3D data acquisition device and method

Country Status (1)

Country Link
JP (1) JP6834590B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110246209A (en) * 2019-06-19 2019-09-17 腾讯科技(深圳)有限公司 Image processing method and device
WO2022215116A1 (en) * 2021-04-05 2022-10-13 富士通株式会社 Information processing program, device, and method
CN115497087A (en) * 2022-11-18 2022-12-20 广州煌牌自动设备有限公司 Tableware posture recognition system and method
CN115497087B (en) * 2022-11-18 2024-04-19 广州煌牌自动设备有限公司 Tableware gesture recognition system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006173872A (en) * 2004-12-14 2006-06-29 Matsushita Electric Ind Co Ltd Camera controller
WO2007138885A1 (en) * 2006-05-26 2007-12-06 The University Of Tokyo Structure and design method for database of motion data, and database system
JP2010079639A (en) * 2008-09-26 2010-04-08 Mazda Motor Corp Pedestrian detecting device for vehicle
WO2016056449A1 (en) * 2014-10-10 2016-04-14 富士通株式会社 Skill determination program, skill determination method, skill determination device, and server
US20160300347A1 (en) * 2014-01-02 2016-10-13 Accelerated Conditioning And Learning, Llc Dynamic movement assessment system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006173872A (en) * 2004-12-14 2006-06-29 Matsushita Electric Ind Co Ltd Camera controller
WO2007138885A1 (en) * 2006-05-26 2007-12-06 The University Of Tokyo Structure and design method for database of motion data, and database system
JP2010079639A (en) * 2008-09-26 2010-04-08 Mazda Motor Corp Pedestrian detecting device for vehicle
US20160300347A1 (en) * 2014-01-02 2016-10-13 Accelerated Conditioning And Learning, Llc Dynamic movement assessment system and method
WO2016056449A1 (en) * 2014-10-10 2016-04-14 富士通株式会社 Skill determination program, skill determination method, skill determination device, and server

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"技術者のためのオリンピック観戦ガイド2016 Part2 設備編 自動採点システム[富士通グループ/日", 日経ものづくり, JPN6020029659, 1 August 2016 (2016-08-01), pages 57 - 59, ISSN: 0004419558 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110246209A (en) * 2019-06-19 2019-09-17 腾讯科技(深圳)有限公司 Image processing method and device
WO2022215116A1 (en) * 2021-04-05 2022-10-13 富士通株式会社 Information processing program, device, and method
CN115497087A (en) * 2022-11-18 2022-12-20 广州煌牌自动设备有限公司 Tableware posture recognition system and method
CN115497087B (en) * 2022-11-18 2024-04-19 广州煌牌自动设备有限公司 Tableware gesture recognition system and method

Also Published As

Publication number Publication date
JP6834590B2 (en) 2021-02-24

Similar Documents

Publication Publication Date Title
US9842405B2 (en) Visual target tracking
US8565476B2 (en) Visual target tracking
US8577084B2 (en) Visual target tracking
JP6082101B2 (en) Body motion scoring device, dance scoring device, karaoke device, and game device
US8682028B2 (en) Visual target tracking
KR101738569B1 (en) Method and system for gesture recognition
JP6617830B2 (en) Skeletal estimation device, skeleton estimation method, and skeleton estimation program
US8577085B2 (en) Visual target tracking
JP7367764B2 (en) Skeleton recognition method, skeleton recognition program, and information processing device
US8565477B2 (en) Visual target tracking
WO2005088244A1 (en) Plane detector, plane detecting method, and robot apparatus with plane detector
CN105229666A (en) Motion analysis in 3D rendering
JP7164045B2 (en) Skeleton Recognition Method, Skeleton Recognition Program and Skeleton Recognition System
WO2019116495A1 (en) Technique recognition program, technique recognition method, and technique recognition system
US20220207921A1 (en) Motion recognition method, storage medium, and information processing device
US20220222975A1 (en) Motion recognition method, non-transitory computer-readable recording medium and information processing apparatus
JP6834590B2 (en) 3D data acquisition device and method
JP2018014579A (en) Camera tracking device and method
JP2019219989A (en) Posture estimation device, posture estimation method, and program
US20200226787A1 (en) Information processing apparatus, information processing method, and program
JP7248137B2 (en) Evaluation method, evaluation program and information processing device
JP6981340B2 (en) Display control programs, devices, and methods
US20240020976A1 (en) Information processing program, device, and method
JP2019197278A (en) Image processing apparatus, method of controlling image processing apparatus, and program
US20220301352A1 (en) Motion recognition method, non-transitory computer-readable storage medium for storing motion recognition program, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R150 Certificate of patent or registration of utility model

Ref document number: 6834590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150