JP6834590B2 - 3次元データ取得装置及び方法 - Google Patents

3次元データ取得装置及び方法 Download PDF

Info

Publication number
JP6834590B2
JP6834590B2 JP2017035228A JP2017035228A JP6834590B2 JP 6834590 B2 JP6834590 B2 JP 6834590B2 JP 2017035228 A JP2017035228 A JP 2017035228A JP 2017035228 A JP2017035228 A JP 2017035228A JP 6834590 B2 JP6834590 B2 JP 6834590B2
Authority
JP
Japan
Prior art keywords
state
posture
unit
technique
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017035228A
Other languages
English (en)
Other versions
JP2018142815A (ja
Inventor
河合 淳
淳 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017035228A priority Critical patent/JP6834590B2/ja
Publication of JP2018142815A publication Critical patent/JP2018142815A/ja
Application granted granted Critical
Publication of JP6834590B2 publication Critical patent/JP6834590B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

開示の技術は、3次元データ取得装置、及び3次元データ取得に関する。
従来、対象物の3次元位置座標を示す3次元データを取得可能な3次元センサにより対象物を追跡する技術が存在する。
例えば、広域における動体検出と解像度の高い動体の画像の出力とを同時に実現する動体検出装置が提案されている。この装置は、広角画像を撮影する第1の撮影部と、広角画像よりも狭い画角の狭角画像を撮影する第2の撮影部とを備える。また、この装置は、広角画像中における動体の位置を検出し、動体の位置に基づいて、広角画像から動体を含む動体画像を切り出し、動体画像から動体の特徴を示す特徴画像情報を作成し、特徴画像情報と狭角画像とを照合する。また、この装置は、検出された動体の位置に基づいて、所定時間後における広角画像中の動体の移動位置を予測し、予測された動体の位置の情報に基づいて、第2の撮影部が動体を視野に捉えるように、第2の撮影部の位置又は方向を移動させる。
特開2005−72840号公報
従来技術では、動体が移動履歴の延長線上を移動する場合には、動体の移動先を予測して追跡することが可能である。しかし、従来技術の手法では、例えば体操選手などのように、動作方向が急変する対象物の場合には、次のタイミングにおける対象物の移動先を適切に予測することができず、対象物の追跡精度が低下する。
また、対象物の詳細な動作を把握したい場合などには、3次元センサの画角に占める対象物の割合が高い状態で3次元データの取得を継続できることが望ましい。
開示の技術は、一つの側面として、3次元センサの画角に占める対象物の割合が高い状態で3次元データの取得を継続することを目的とする。
一つの態様として、3次元データ取得装置は、3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得する取得部と、前記取得部により取得された3次元データに基づいて、前記対象物の位置及び姿勢を認識する認識部とを備える。また、3次元データ取得装置は、同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照する推定部を備える。推定部は、受け付けた前記対象物が実施する予定の動作の情報と、前記認識部により認識された前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定する。また、推定部は、推定した姿勢と、前記認識部により認識された前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定する。また、3次元データ取得装置は、前記推定部で推定された前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する制御部を備える。
一つの側面として、3次元センサの画角に占める対象物の割合が高い状態で3次元データの取得を継続することができる。
第1及び第2実施形態に係る3次元データ取得装置の機能ブロック図である。 演技予定リストの一例を示す図である。 履歴データベース(DB)の一例を示す図である。 動作パターンDBの一例を示す図である。 動作の進行方向を軸にしたローカル座標系を説明するための図である。 センサ座標系を説明するための図である。 現在の姿勢と状態候補が示す姿勢との差分に応じた遷移確率の算出を説明するための図である。 3Dセンサの向き及び画角の算出を説明するための図である。 第1及び第2実施形態に係る3次元データ取得装置として機能するコンピュータの概略構成を示すブロック図である。 第1及び第2実施形態における3次元データ取得処理の一例を示すフローチャートである。 状態判定処理の一例を示すフローチャートである。 状態推定処理の一例を示すフローチャートである。 つなぎ動作テーブルの一例を示す図である。 人体モデルのサイズの正規化及び補正を説明するための図である。
以下、図面を参照して開示の技術に係る実施形態の一例を詳細に説明する。なお、以下の各実施形態では、追跡対象の対象物を、演技を実施する体操選手とする場合について説明する。
<第1実施形態>
図1に示すように、第1実施形態に係る3次元データ取得装置10は、3次元センサ(以下、「3Dセンサ」と表記する)31と接続される。
3Dセンサ31は、例えば、TOF(Time Of Flight)方式により、対象物までの距離及び方向を所定の解像度で検出し、対象物上の各点の3次元位置座標を示す3次元データを出力する。3Dセンサ31は、水平方向及び垂直方向の検出範囲を示す画角、及び検出範囲の中心と3Dセンサ31とを結ぶ中心線の向きが変更可能であり、設定された制御値が示す画角及び向きとなるように、駆動部32により駆動される。
3次元データ取得装置10は、3Dセンサ31により、3Dセンサ31の画角に占める対象物の割合が高い状態で3次元データの取得を継続することができるように、3Dセンサ31の画角及び向きを制御する。
ここで、3Dセンサ31の画角に占める対象物の割合が高い状態で3次元データを取得する理由について説明する。
例えば、TOF方式の3Dセンサは、対象物に照射したレーザー光の反射を受光して、レーザー光の照射から反射までの経過時間から、対象物上の各点までの距離を測定する。対象物と3Dセンサとの距離が1mの場合、レーザー光が往復するのにかかる時間は6.7nsである。また、照射光は対象物までの距離の2乗で減衰するため、受光時には非常に弱いレーザー光を受光する必要がある。
対象物までの距離と、得られる3次元データの高精細化とを両立するには、照射光の強度向上の点から2Dスキャン式のTOFが有利であるが、2Dスキャン式の場合、対象物までの最大距離×(6.7ns+判別マージン)×1フレームの測距点数×フレームレートが1秒以下という原理上の制約が生じる。対象物までの最大距離を10mとした場合、30fpsで取得しようとすると、1フレームの測距点数は、判別のための時間マージンを無視しても50万点弱(約800×600画素)となる。つまり、通常の可視カメラと比べると、3Dセンサでは高速かつ高解像度での撮影が困難である。
例えば、320×240(QVGA)の解像度の3Dセンサで、体操選手を対象物として3次元データを取得する場合を考える。移動していない状態の選手の全身をカバーする検出範囲を3m×3m程度とすると、1画素間が約1cm未満で測定可能である。しかし、選手の移動時を想定して10m×6m程度を検出範囲とすると、1画素間は約2〜3cmとなる。この場合、3Dセンサに対する選手の体の向きにもよるが、例えば、選手の手足の先など、3次元データを検出できない部分が生じ、体のラインや手足の真っ直ぐさなどを詳細に分析可能な3次元データが取得できない可能性がある。
したがって、解像度が比較的低い3Dセンサであっても、3Dセンサの画角内に対象物の全身いっぱいを収めるように3次元データを取得することで、対象物の細部の3次元データの取得も可能となるように、3Dセンサにより対象物を追跡する必要がある。
図1に示すように、3次元データ取得装置10は、取得部11と、認識部12と、状態判定部14、状態推定部15、及び位置推定部16を含む推定部13と、制御部17とを含む。また、3次元データ取得装置10の所定の記憶領域には、演技予定リスト21と、履歴データベース(DB)22と、動作パターンDB23とが記憶される。
演技予定リスト21は、対象物である体操選手が実施予定の技を時系列に記述したリストである。図2に、演技予定リスト21の一例を示す。図2では、演技の開始(Start)から終了(end)までに含まれる実施予定の技の識別情報である技番号が、実施予定順に記述された例を示している。演技予定リスト21は、対象物である体操選手が演技を開始する前に3次元データ取得装置10に入力され、所定の記憶領域に記憶される。
履歴DB22には、3Dセンサ31から取得された3次元データに基づいて認識された人体モデルや、判定された状態及び実施された技の履歴が記憶される。図3に、履歴DB22の一例を示す。図3の例では、履歴DB22には、人体モデル履歴テーブル22Aと、状態履歴テーブル22Bと、技実施履歴テーブル22Cとが含まれる。
人体モデル履歴テーブル22Aには、認識部12により認識された人体モデルを構成する人体の各部位の座標値群が時系列に記憶される。人体モデルを構成する各部位は、対象物の姿勢を特定するための特徴点となる関節などの人体の部位である。例えば、各部位は、頭、肩の中心、右肩、右肘、右手首、右手、左肩、左肘、左手首、左手、背骨、臀部の中心、右臀部、右膝、右足首、右足、左臀部、左膝、左足首、左足等である。各部位の座標値としては、各部位の軸方向を示すベクトル及び回転を表すクォータニオンを用いることができる。図3の例では、各部位のインデックスに各部位の座標値を対応付けて記憶した例を示している。
状態履歴テーブル22Bには、状態判定部14で判定された対象物の状態(詳細は後述)が時系列に記憶される。図3の例では、状態履歴テーブル22Bには、時刻に対応付けて、判定された状態の識別情報である状態番号が記憶されている。
技実施履歴テーブル22Cには、状態判定部14で実施の完了が判定された技の技番号が時系列に記憶される。図3の例では、技実施履歴テーブル22Cのデータ構造は、図2に示す演技予定リスト21のデータ構造と同様である。
動作パターンDB23には、同一の姿勢を含む関連する複数の動作を示し、かつ対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶される。具体的には、動作パターンは、同一の姿勢を含む関連する複数の動作として、基準の技を示す動作と、基準の技の実施中における対象物の姿勢から遷移可能な他の技を示す動作と、基準の技及び他の技の実施が不成立又は失敗した場合の動作とを含む。
図4に、動作パターンDB23の一例を示す。図4に示すように、本実施形態では、各動作パターンを、その動作パターンに含まれる各姿勢を示す状態に対応したノードと、遷移可能な状態間に対応するノード間を接続したエッジとを含む木構造で表現される。図4において、内部に数字を記したノードは、技の途中の姿勢を示す状態に対応したノードであり、数字は、各ノードに対応した状態の状態番号である。また、網掛けのノードは、技の区切りを示す姿勢(例えば、直立姿勢、手を挙げた姿勢、鉄棒や吊り輪にぶら下がった姿勢など)を示す状態に対応したノードである。また、二重丸のノードは、転倒や落下などの失敗時の姿勢を示す状態に対応したノードである。
図4の例で、動作パターンの識別情報である動作パターン番号が1の動作パターンを示す木構造を例に、より詳細に動作パターンについて説明する。なお、以下では、動作パターン番号がiの動作パターンを「パターンi」、状態番号がjの状態を「状態j」、技番号がkの技を「技k」、パターンiに含まれる状態jを、「パターンi:状態j」と表記する。
パターン1の1段目の部分は、技の区切りを示す姿勢から始まり、状態1、状態2、・・・、状態7の各状態が示す途中の姿勢を経て、技の区切りの姿勢を示す状態に達すると、技1が成立する場合の姿勢の変化を表している。また、技1の実施途中で選手が意図して異なる技の実施に変更したり、選手が意図せず途中でバランスを崩すなどして、結果的に技1より下位の技になってしまったり、下位の技も成立しなかったり、失敗して終わったりする場合がある。
状態5から分岐して技2へ至る経路、及び状態4から分岐して技3へ至る経路は、下位の技になってしまう場合の姿勢の変化を表している。なお、下位の技になってしまう例としては、3回ひねりが2回ひねりや1回ひねりになってしまう場合がある。また、状態3から分岐して、状態11、状態12、及び状態13を経て技不成立へ至る経路は、転倒や落下等には至らないまでも、回転不足や大きく姿勢が乱れるなどして、いずれの技も成立しない場合の姿勢の変化を表している。また、状態11から分岐して、状態14を経て失敗に至る経路は、技1、技2、又は技3の実施に失敗する場合の姿勢の変化を表している。
また、動作パターンDB23には、動作パターンに含まれる各状態が示す姿勢を定義した状態情報も記憶される。状態情報は、基準の座標系、基準の座標系における人体の各部位の座標値群、及び許容誤差範囲の情報を含む。人体の各部位の座標値群は、上述した人体モデル履歴テーブル22Aに記憶される人体モデルを構成する各部位の座標値群と同様である。なお、動作パターンDB23に記憶される各状態の状態情報に含まれる各部位の座標値群は、標準的な人体のサイズを想定した基準のサイズの人体モデルを構成する各部位の座標値群である。
基準の座標系としては、例えば、人体の所定部位の座標値を基準とした相対座標系、あん馬などの器具や、床の演技エリアなどを基準として設定されるグローバル座標系、演技の進行方向を軸にしたローカル座標系などを定義することができる。演技の進行方向を軸にしたローカル座標系は、床で実施される技など、グローバル座標に依存しない技の姿勢を示す状態についての状態情報に用いる座標系である。
許容誤差範囲は、人体の各部位の座標値群が示す基準の姿勢からの許容誤差範囲を示す情報である。許容誤差範囲は、例えば、図4に示すように、両足のなす角の範囲のように相対座標系で定義したり、器具を基準に設定した軸からの角度範囲のようにグローバル座標系で定義したりすることができる。また、例えば、図5に示すように、踏み切り時の足の方向を軸とするローカル座標系を人体に設定し、踏み切り時の足の方向と、着地時の足の方向とのなす角の範囲で定義してもよい。
次に、3次元データ取得装置10の各機能部について説明する。
取得部11は、3Dセンサ31により検出された、対象物上の各点の3次元位置を示す3次元データを取得する。3次元データは、図6に示すように、時刻Tn毎に3Dセンサ31で検出される対象物上の点群に含まれる各点の3次元座標値をセンサ座標系で表したデータである。時刻Tnにおける点Pの3次元座標値をPTn(Xsn,Ysn,Zsn)とする。取得部11は、取得した3次元データ群を認識部12へ受け渡す。
また、取得部11は、3次元データと共に、時刻Tnにおける3Dセンサ31の向き及び画角の情報を取得し、推定部13へ受け渡す。時刻Tnにおける3Dセンサ31の向きは、パン角θpan、チルト角θtilt、及びロール角θrollを用いて、θTn(θpan_n,θtilt_n,θroll_n)と表す。また、時刻Tnにおける3Dセンサ31の画角は、センサ座標系における水平方向の画角φxs及び垂直方向の画角φysを用いて、φTn(φxs_n,φys_n)と表す。なお、グローバル座標系における3Dセンサ31の位置が変動する場合には、取得部11は、時刻Tnにおける3Dセンサ31のグローバル座標系での位置情報も3Dセンサ31から取得して、推定部13へ受け渡す。
また、取得部11は、入力された演技予定リスト21を取得し、所定の記憶領域に記憶する。
認識部12は、取得部11から受け渡された3次元データ群に基づいて、センサ座標系における対象物の位置及び姿勢を示す人体モデルを認識する。具体的には、認識部12は、3次元データ群から、上述した人体の各部位についての座標値(例えば、クォータニオン表現のベクトル値)を算出する。3次元データ群から人体各部位の座標値を算出する方法は、従来技術を適用することができるため、ここでは詳細な説明を省略する。認識部12は、対象物である選手毎の体格差を考慮して、算出した各部位の座標値を、基準となる人体モデルのサイズに正規化する。
認識部12は、算出した各部位の座標値群で表される人体モデルを、3次元データの取得時刻Tn、及び各部位のインデックスと対応付けて、履歴DB22の人体モデル履歴テーブル22Aに記憶する。例えば、このインデックス(body index)を用いて、時刻Tnにおける人体モデルを構成する各部位のセンサ座標系における座標値は、body index_Tn(xs,ys,zs,ws)と表すことができる。
推定部13は、次のタイミング(時刻Tn+1)における対象物の位置及び姿勢を推定する。上述したように、推定部13は、状態判定部14と、状態推定部15と、位置推定部16とを含む。
状態判定部14は、演技予定リスト21及び動作パターンDB23を参照して、認識部12により認識された対象物の人体モデルが示す姿勢が、どの動作パターンに含まれるどの状態かを判定する。
具体的には、状態判定部14は、履歴DB22の人体モデル履歴テーブル22Aに記憶された時刻Tnにおけるセンサ座標系の座標値群を、取得部11から受け渡された3Dセンサ31の向き及び画角の情報を用いて、グローバル座標系の座標値群に変換する。状態判定部14は、人体モデル履歴テーブル22Aに記憶された時刻Tnにおける座標値を、グローバル座標系に変換した座標値に更新する。
また、状態判定部14は、履歴DB22の状態履歴テーブル22Bを参照して、時刻Tn−1の状態が技の区切りの姿勢を示す状態である場合、演技予定リスト21及び履歴DB22の技実施履歴テーブル22Cを参照して、終了した技の次の技を特定する。そして、状態判定部14は、特定した技を含む動作パターンを動作パターンDB23から取得し、取得した動作パターンの各々において、最初の姿勢を示す状態(技の区切りの姿勢を示す状態の次の状態)を、時刻Tnの状態候補として抽出する。例えば、次の技が技1の場合、図4に示す動作パターンDB23から、パターン1が取得され、パターン1:状態1が、時刻Tnの状態候補として抽出される。動作パターンDB23に技1を含む動作パターンが他にも存在する場合には、その動作パターンからも状態候補が抽出される。
また、状態判定部14は、時刻Tn−1の状態が技の途中の姿勢を示す状態である場合、時刻Tn−1の状態を含む動作パターンにおいて、時刻Tn−1の状態から遷移可能な状態を、時刻Tnの状態候補として抽出する。例えば、時刻Tn−1の状態が、図4に示すパターン1の状態3の場合、パターン1:状態3、パターン1:状態4、及びパターン1:状態11が、時刻Tnの状態候補として抽出される。なお、状態候補「パターン1:状態3」は、時刻Tn−1から状態が遷移していない場合である。
状態判定部14は、抽出した状態候補の各々の状態情報と、履歴DB22の人体モデル履歴テーブル22Aに記憶された人体モデルとを比較し、時刻Tnにおける状態を判定する。例えば、状態判定部14は、状態情報に含まれる座標値群と、人体モデルに含まれる座標値群とのユークリッド距離を、対応する部位同士で算出し、各部位のユークリッド距離の総和が最も小さい状態候補を、時刻Tnにおける状態を判定することができる。なお、本実施形態では、人体モデル履歴テーブル22Aに記憶する人体モデルを基準のサイズに正規化しているため、動作パターンDB23に記憶された各状態の状態情報との比較が容易となる。
状態判定部14は、判定した状態の状態番号を、その状態を含む動作パターンのパターン番号と共に、時刻Tnと対応付けて、履歴DB22の状態履歴テーブル22Bに記憶する。
状態推定部15は、状態判定部14により判定された時刻Tnの状態から遷移可能な状態を、時刻Tn+1における状態候補として抽出する。状態候補の抽出方法は、状態判定部14が時刻tnにおける状態候補を抽出する場合と同様である。
状態推定部15は、抽出した状態候補の各々について、時刻Tnの状態からの遷移確率を算出する。例えば、各動作パターンの状態間に、その状態間の遷移を経て実施される技の難易度に応じた遷移確率を予め与えておく。例えば、図4のパターン1で、技2より技1の難易度の方が高い場合には、状態5から状態6への遷移よりも、状態5から状態8への遷移の方が遷移確率が高くなるように各状態間に遷移確率を与えておく。技の難易度は、採点基準に定められた難易度や価値点を用いることができる。
また、選手のレベルに応じて、遷移確率を変更するようにしてもよい。例えば、実施予定の技が技1の場合、レベルの高い選手ほど、技1に至る経路に含まれる状態間の遷移確率を高くし、レベルの低い選手ほど、技1よりも下位の技、技不成立、又は失敗に至る経路に含まれる状態間の遷移確率を高くすることができる。なお、選手のレベルは、例えば、世界ランキングや、直近数試合での得点などから決定することができる。状態推定部15は、このように、予め状態間に与えられた遷移確率を、時刻Tnの状態から各状態候補への遷移確率とすることができる。
また、動作パターンに含まれる各状態について、その状態が示す姿勢が維持される標準時間を定義しておき、状態推定部15は、状態履歴テーブル22Bを参照して、標準時間に対する対象物である選手の実際の実施時間の比率を求める。そして、状態推定部15は、求めた比率に応じて、現在の状態が維持される場合の遷移確率、及び次の状態へ遷移する場合の遷移確率を算出してもよい。
また、状態推定部15は、図7に示すように、状態候補のうち、各状態候補が示す姿勢と、認識部12で認識された時刻Tnの人体モデルが示す姿勢との差分に応じた遷移確率を算出してもよい。例えば、以下の式で、時刻Tnの状態から状態候補iへの遷移確率を算出することができる。なお、姿勢の差分は、各部位の座標値のユークリッド距離の総和として算出することができる。
状態候補iへの遷移確率=
1−(状態候補iとの差分)/(Σ状態候補iとの差分)
なお、上記式における「状態候補iとの差分」とは、時刻Tnの人体モデルが示す姿勢と、状態候補iの状態情報に含まれる座標値群が示す姿勢との差分を意味する。
また、状態推定部15は、状態履歴テーブル22Bに記憶された各時刻の状態について動作パターンDB23に記憶された状態情報が示す姿勢と、対応する時刻における認識部12で認識された人体モデルが示す姿勢との差分の時間変化を算出する。そして、状態推定部15は、算出した時間変化に応じて、現在の状態が維持される場合の遷移確率、及び次の状態へ遷移する場合の遷移確率を算出してもよい。
また、状態推定部15は、人体モデル履歴テーブル22Aに記憶された各時刻の各部位の座標値について曲線近似を行い、近似曲線の延長線上の座標値から、時刻Tn+1の人体モデルを推定する。そして、状態推定部15は、推定した人体モデルが示す姿勢と、各状態候補の状態情報が示す姿勢との類似度に基づいて、各状態候補への遷移確率を算出してもよい。
状態推定部15は、状態候補のうち、時刻Tnにおける状態からの遷移確率が最も高い状態候補を、時刻Tn+1における状態として推定する。例えば、状態候補として、状態3、状態4、及び状態11が抽出され、各状態候補について、以下のように遷移確率が算出された場合、状態推定部15は、状態3を時刻Tn+1における状態として推定する。
状態候補 3:遷移確率=0.6
状態候補 4:遷移確率=0.3
状態候補11:遷移確率=0.1
状態推定部15は、推定した状態の状態情報を制御部17へ受け渡す。
位置推定部16は、履歴DB22の人体モデル履歴テーブル22Aを参照して、対象物の位置の変化に基づいて、次のタイミングに対象物が存在する位置を推定する。例えば、位置推定部16は、人体の所定部位の座標値について曲線近似を行い、近似曲線の延長線上で、かつ座標値の履歴が示す所定部位の移動速度に応じた座標値を、時刻Tn+1における対象物の位置として推定する。なお、人体の所定部位としては、1部位でもよいし、複数部位の平均を用いてもよい。また、実施中の技に応じた所定部位を決定してもよい。さらに、実施中の技に応じて、時刻Tn+1における対象物の位置となり得る領域を制限してもよい。位置推定部16は、推定した時刻Tn+1における対象物の位置の情報を、制御部17へ受け渡す。
制御部17は、推定部13で推定された対象物の姿勢及び位置に基づいて、次のタイミングにおける3Dセンサ31の向き及び画角の制御値を算出し、駆動部32へ出力する。具体的には、制御部17は、位置推定部16で推定された時刻Tn+1における対象物の位置に、状態推定部15で推定された時刻Tn+1における状態が示す姿勢の人体モデルを展開し、対象物である選手の体格に応じて、人体モデルのサイズを補正する。制御部17は、補正した人体モデルを示す各部位の座標値群の各々を、グローバル座標系からセンサ座標系に変換する。制御部17は、図8に示すように、センサ座標系の座標値に変換された人体モデルを包含し、かつ3Dセンサ31に正対する最小の直方体領域を算出し、この直方体領域を包含する3Dセンサ31の向き及び画角を算出する。具体的には、制御部17は、時刻Tn+1における3Dセンサ31の向きθTn+1(θpan_n+1,θtilt_n+1,θroll_n+1)、及び画角φTn+1(φxs_n+1,φys_n+1)を制御値として算出する。
この制御値に基づいて駆動部32が3Dセンサ31を駆動することにより、3Dセンサ31の画角に占める対象物の割合が高い状態で、時刻Tn+1における3次元データを取得できる可能性が高まる。
3次元データ取得装置10は、例えば図9に示すコンピュータ40で実現することができる。コンピュータ40は、Central Processing Unit(CPU)41と、一時記憶領域としてのメモリ42と、不揮発性の記憶部43とを備える。また、コンピュータ40は、表示部及び入力部を含む入出力装置44と、記憶媒体49に対するデータの読み込み及び書き込みを制御するRead/Write(R/W)部45とを備える。また、コンピュータ40は、インターネット等のネットワークに接続される通信インターフェース(I/F)46を備える。CPU41、メモリ42、記憶部43、入出力装置44、R/W部45、及び通信I/F46は、バス47を介して互いに接続される。
記憶部43は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部43には、コンピュータ40を3次元データ取得装置10として機能させるための3次元データ取得プログラム50が記憶される。3次元データ取得プログラム50は、取得プロセス51と、認識プロセス52と、推定プロセス53と、制御プロセス57とを有する。また、記憶部43は、動作パターンDB23を構成する情報が記憶される情報記憶領域60を有する。
CPU41は、3次元データ取得プログラム50を記憶部43から読み出してメモリ42に展開し、3次元データ取得プログラム50が有するプロセスを順次実行する。CPU41は、取得プロセス51を実行することで、図1に示す取得部11として動作する。また、CPU41は、認識プロセス52を実行することで、図1に示す認識部12として動作する。また、CPU41は、推定プロセス53を実行することで、図1に示す推定部13として動作する。また、CPU41は、制御プロセス57を実行することで、図1に示す制御部17として動作する。また、CPU41は、情報記憶領域60から情報を読み出して、メモリ42に動作パターンDB23を展開する。また、CPU41は、入力された演技予定リスト21をメモリ42に記憶する。また、CPU41は、認識プロセス52及び推定プロセス53を実行する際、メモリ42上に履歴DB22を作成する。これにより、3次元データ取得プログラム50を実行したコンピュータ40が、3次元データ取得装置10として機能する。なお、プログラムを実行するCPU41はハードウェアである。
なお、3次元データ取得プログラム50により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。
次に、第1実施形態に係る3次元データ取得装置10の作用について説明する。
3次元データ取得装置10に事前に入力された演技予定リスト21を取得部11が取得し、所定の記憶領域に記憶する。演技予定リスト21が記憶された状態で、対象物である選手の演技の開始に合わせて、3次元データの取得開始が指示されると、3次元データ取得装置10において、図10に示す3次元データ取得処理が実行される。
ステップS11で、取得部11が、時刻に対応する変数nを初期値の0に設定する。
次に、ステップS12で、取得部11が、演技予定リスト21、及び履歴DB22の技実施履歴テーブル22Cを参照して、演技が終了しているか否かを判定する。まだ演技が終了していない場合には、処理はステップS13へ移行し、取得部11が、3Dセンサ31から、時刻Tnにおける3次元データ群PTn(Xsn,Ysn,Zsn)を取得する。取得部11は、取得した3次元データ群を認識部12へ受け渡す。また、取得部11は、3次元データと共に、時刻Tnにおける3Dセンサ31の向きθTn(θpan_n,θtilt_n,θroll_n)、及び画角φTn(φxs_n,φys_n)を取得し、推定部13へ受け渡す。
次に、ステップS14で、認識部12が、取得部11から受け渡された3次元データ群に基づいて、センサ座標系における対象物の位置及び姿勢を示す人体モデル認識し、基準となる人体モデルのサイズに正規化する。認識部12は、時刻Tnにおける人体モデルを構成する各部位のセンサ座標系における座標値body index_Tn(xs,ys,zs,ws)を、履歴DB22の人体モデル履歴テーブル22Aに記憶する。
次に、ステップS20で、状態判定処理が実行される。ここで、図11を参照して、状態判定処理について説明する。
ステップS21で、状態判定部14が、人体モデル履歴テーブル22Aに記憶された時刻Tnにおけるセンサ座標系の座標値群を、取得部11から受け渡された3Dセンサ31の向き及び画角の情報を用いて、グローバル座標系の座標値群に変換する。状態判定部14は、人体モデル履歴テーブル22Aに記憶された時刻Tnにおける座標値を、グローバル座標系に変換した座標値に更新する。
次に、ステップS22で、状態判定部14が、状態履歴テーブル22Bを参照して、時刻Tn−1の状態が技の区切りの姿勢を示す状態であるか否かを判定する。技の区切りの姿勢を示す状態の場合には、処理はステップS23へ移行し、技の途中の姿勢を示す状態の場合には、処理はステップS24へ移行する。
ステップS23では、状態判定部14が、演技予定リスト21及び技実施履歴テーブル22Cを参照して、終了した技の次の技を特定する。そして、状態判定部14は、特定した技を含む動作パターンを動作パターンDB23から取得し、取得した動作パターンの各々において、最初の姿勢を示す状態(技の区切りの姿勢を示す状態の次の状態)を、時刻Tnの状態候補として抽出する。
一方、ステップS24では、状態判定部14が、時刻Tn−1の状態を含む動作パターンにおいて、時刻Tn−1の状態から遷移可能な状態を、時刻Tnの状態候補として抽出する。
次に、ステップS25で、状態判定部14が、抽出した状態候補の各々の状態情報のうち、人体モデル履歴テーブル22Aに記憶された人体モデルの姿勢と最も類似する姿勢を示す状態候補を、時刻Tnにおける状態として判定する。状態判定部14は、判定した状態の状態番号を、その状態を含む動作パターンのパターン番号と共に、時刻Tnと対応付けて、状態履歴テーブル22Bに記憶する。そして、処理は図10に示す3次元データ取得処理に戻る。
次に、ステップS30で、状態推定処理が実行される。ここで、図12を参照して、状態推定処理について説明する。
ステップS31〜S33で、状態推定部15が、状態判定処理(図11)のステップS22〜S24の処理と同様の処理であって、時刻Tn−1を時刻Tn、時刻Tnを時刻Tn+1と読み替えた処理を実行して、時刻Tn+1の状態候補を抽出する。
次に、ステップS34で、状態推定部15が、抽出した状態候補の各々について、時刻Tnの状態からの遷移確率を算出する。状態推定部15は、状態候補のうち、時刻Tnにおける状態からの遷移確率が最も高い状態候補を、時刻Tn+1における状態として推定する。状態推定部15は、推定した状態の状態情報を制御部17へ受け渡す。そして、処理は図10に示す3次元データ取得処理に戻る。
次に、ステップS41で、位置推定部16が、履歴DB22の人体モデル履歴テーブル22Aを参照して、対象物の位置の変化に基づいて、時刻Tn+1に対象物が存在する位置を推定する。位置推定部16は、推定した時刻Tn+1における対象物の位置の情報を、制御部17へ受け渡す。
次に、ステップS42で、制御部17が、位置推定部16で推定された時刻Tn+1における対象物の位置に、状態推定部15で推定された時刻Tn+1における状態が示す姿勢の人体モデルを展開する。そして、制御部17は、対象物である選手の体格に応じて、人体モデルのサイズを補正する。次に、ステップS43で、制御部17が、補正した人体モデルを示す各部位の座標値群の各々を、グローバル座標系からセンサ座標系に変換する。
次に、ステップS44で、制御部17が、センサ座標系の座標値に変換された人体モデルを包含し、かつ3Dセンサ31に正対する最小の直方体領域を算出する。次に、ステップS45で、制御部17が、この直方体領域を包含する3Dセンサ31の向きθTn+1(θpan_n+1,θtilt_n+1,θroll_n+1)、及び画角Tn+1(φxs_n+1,φys_n+1)を制御値として算出する。制御部17は、算出した時刻Tn+1における3Dセンサ31の向き及び画角の制御値を駆動部32へ出力する。
次にステップS46で、取得部11が、変数nを1インクリメントして、処理はステップS12に戻る。ステップS12で、演技が終了したと判定された場合には、3次元データ取得処理は終了する。
以上説明したように、第1実施形態に係る3次元データ取得装置10は、事前に入力された演技予定リストと、姿勢の遷移を表現した動作パターンと、現在の対象物の位置及び姿勢とに基づいて、次のタイミングにおける対象物の位置及び姿勢を推定する。そして、3次元データ取得装置10は、推定した位置及び姿勢の対象物を画角いっぱいに収めるように3Dセンサの画角及び向きを制御する。これにより、動作方向が急変する対象物であっても、3Dセンサの画角に占める対象物の割合が高い状態で3次元データの取得を継続することができる。
また、3次元データ取得装置10は、次のタイミングにおける状態を推定する際に、同じ姿勢を含む複数の動作を、各姿勢を1つの状態に対応させ、遷移可能な状態間を接続した1つの木構造で表した動作パターンを用いる。同じ姿勢を含む複数の動作としては、基準の技を示す動作、基準の技の下位の技を示す動作、基準の技及び下位の技が不成立や失敗となる場合の動作が挙げられる。これにより、対象物である選手の動作が予定外の動作となった場合でも、次のタイミングにおける対象物の姿勢を精度良く推定することができ、3Dセンサの画角に占める対象物の割合が高い状態で3次元データの取得を継続することができる。
また、動作パターンに含まれる状態のうち、遷移可能な状態であって、遷移確率が最も高い状態が示す姿勢を、次のタイミングにおける対象物の姿勢として推定することで、より精度良く次のタイミングにおける対象物の姿勢を推定することができる。
<第2実施形態>
次に、第2実施形態について説明する。なお、第2実施形態に係る3次元データ取得装置において、第1実施形態に係る3次元データ取得装置10と同様の部分については、同一符号を付して詳細な説明を省略する。
図1に示すように、3次元データ取得装置210は、取得部11と、認識部12と、推定部213と、制御部17とを含む。また、3次元データ取得装置210の所定の記憶領域には、演技予定リスト21と、履歴DB22と、動作パターンDB223とが記憶される。
動作パターンDB223には、第1実施形態に係る動作パターンDB23に含まれる動作パターンを表現した木構造、及び各状態の状態情報に加え、図13に示すような、つなぎ動作テーブル223Aが含まれる。先行の技が終了して後続の技の実施に移る場合に、歩いたり、ステップしたり、ポーズをとったり、前転等の難易度の低い技を実施したりなど、演技予定リスト21に含まれない動作が実施される場合がある。このようなつなぎ動作は、先行の技を接続元の技、後続の技を接続先の技とした場合、その接続される技の種類によって、ある程度決まったパターンの動作が実施される傾向がある。そこで、つなぎ動作テーブル223Aには、つなぎ動作のパターンを、接続元の技と接続先の技と対応付けて記憶しておく。
例えば、図13の例では、つなぎ動作パターンID=1のつなぎ動作パターンは、技4と技6との間には、つなぎ動作として技5が実施されることを表している。つなぎ動作パターンは、つなぎ動作パターンID=3、4、5のつなぎ動作パターンのように、複数のつなぎ動作を含む場合もある。また、図13の例で、「つなぎ動作パターン」の欄が空欄のつなぎ動作パターンは、「接続元技」及び「接続先技」欄の動作を複数回繰り返すことを表している。例えば、技6と技1との間のつなぎ動作パターンとして、つなぎ動作パターンID=3及び6が実施される場合、技6→つなぎ動作A→つなぎ動作A→つなぎ動作B→技1となる。
また、動作パターンDB223に記憶される動作パターンには、つなぎ動作の動作パターンも含まれる。
推定部213は、状態判定部214と、状態推定部215と、位置推定部16とを含む。
状態判定部214は、第1実施形態の状態判定部14と同様に、認識部12により認識された対象物の人体モデルが示す姿勢が、どの動作パターンに含まれるどの状態かを判定する。時刻Tn−1の状態が技の区切りの姿勢を示す状態である場合、状態判定部214は、終了した技の次の技を含む動作パターンから時刻Tnの状態候補を抽出する。この際、状態判定部214は、次の技として、演技予定リスト21から得られる次の技だけでなく、つなぎ動作テーブル223Aを参照して、時刻Tn−1で終了した技と、次の技との間のつなぎ動作も対象とする。
例えば、図2に示す演技予定リスト21にしたがって、時刻Tn−1で、演技予定リストの2番目の技6が終了している場合、状態判定部214は、次の技1を示す動作パターン(例えば、図4のパターン1)から状態候補を抽出する。さらに、状態判定部214は、例えば図13に示すつなぎ動作テーブル223Aを参照して、技6と技1とのつなぎ動作パターンに含まれるつなぎ動作Aの動作パターンからも状態候補を抽出する。
状態推定部215は、時刻Tn+1の状態候補を抽出する際に、状態判定部214と同様に、つなぎ動作テーブル223Aも参照する点が、第1実施形態の状態推定部15と異なる。
3次元データ取得装置210は、例えば図9に示すコンピュータ40で実現することができる。コンピュータ40の記憶部43には、コンピュータ40を3次元データ取得装置210として機能させるための3次元データ取得プログラム250が記憶される。3次元データ取得プログラム250は、取得プロセス51と、認識プロセス52と、推定プロセス253と、制御プロセス57とを有する。また、記憶部43は、動作パターンDB223を構成する情報が記憶される情報記憶領域60を有する。
CPU41は、3次元データ取得プログラム250を記憶部43から読み出してメモリ42に展開し、3次元データ取得プログラム250が有するプロセスを順次実行する。CPU41は、推定プロセス253を実行することで、図1に示す推定部213として動作する。他のプロセスについては、第1実施形態における3次元データ取得プログラム50と同様である。これにより、3次元データ取得プログラム250を実行したコンピュータ40が、3次元データ取得装置210として機能する。
なお、3次元データ取得プログラム250により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に、第2実施形態に係る3次元データ取得装置210の作用について説明する。第2実施形態においても、図10に示す3次元データ取得処理が実行されるが、以下の点が、第1実施形態における3次元データ取得処理と異なる。1つ目は、図11に示す状態判定処理のステップS23で、時刻Tnの状態候補を抽出する際に、つなぎ動作テーブル223Aも参照する点である。2つ目は、図12に示す状態推定処理のステップS32で、事項Tn+1の状態候補を抽出する際に、つなぎ動作テーブル223Aも参照する点である。他の点については、第1実施形態における3次元データ取得処理と同様の処理が実行されるため、詳細な説明を省略する。
以上説明したように、第2実施形態に係る3次元データ取得装置210は、次の技に移行するタイミングにおける時刻Tnの状態を判定する際、及び時刻Tn+1の状態を推定する際に、技と技との間のつなぎの動作も考慮する。これにより、演技予定リストに記述されていない動作が技と技との間に実施された場合でも、3次元センサの画角に占める対象物の割合が高い状態で3次元データの取得を継続することができる。
なお、上記各実施形態では、演技を実施する体操選手を対象物とする場合について説明したが、これに限定されない。事前のプランに従った動作を行う対象物、例えば、フィギュアスケート、スケートボードやスノーボードなどのハーフパイプ、モーグル、水泳飛込み、演武、ダンスなどの競技者を対象物として適用することも可能である。
また、上記各実施形態では、認識部で認識した人体モデルのサイズを正規化した上で、動作パターンDBに記憶された状態の状態情報(姿勢を示す各部位の座標群)と比較する場合について説明したが、これに限定されない。例えば、動作パターンDBに記憶された状態の状態情報が示す人体モデルを、実際の選手のサイズに対応したサイズに補正した上で、認識部で認識されたサイズを正規化していない人体モデルと比較するようにしてもよい。図14に示すように、人体モデルのサイズを正規化したり補正したりすることにより、様々なサイズに適用するために、1つの状態について複数の状態情報を動作パターンDBに記憶しておく必要がない。
また、上記各実施形態では、時刻Tn+1の状態候補のうち、時刻Tnの状態からの遷移確率が最も高い状態候補を時刻Tn+1の状態として推定する場合について説明したが、これに限定されない。抽出された状態候補の全て、又は遷移確率が所定値以上の状態候補などのように、複数の状態候補を時刻Tn+1の状態として採用してもよい。この場合、採用した状態の各々が示す姿勢の全てを包含する領域を、時刻Tn+1における対象物が占める領域として算出することができる。
また、上記各実施形態では、時刻Tn+1における対象物の位置を推定する際に、人体モデルを構成する各部位の座標値の履歴を参照する場合について説明したが、これに限定されない。例えば、推定された時刻Tn+1の状態が示す姿勢が、人体の所定部位が固定地点にある姿勢の場合は、その部位を基準とした位置を推定してもよい。人体の所定部位とは、例えば、あん馬の場合は体を支持している手、床の場合は地面に着いている手や足、人体が空中にある場合は背骨などの重心である。
また、上記では、3次元データ取得プログラム50、250が記憶部43に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得する取得部と、
前記取得部により取得された3次元データに基づいて、前記対象物の位置及び姿勢を認識する認識部と、
同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照して、受け付けた前記対象物が実施する予定の動作の情報と、前記認識部により認識された前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定すると共に、推定した姿勢と、前記認識部により認識された前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定する推定部と、
前記推定部で推定された前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する制御部と、
を含む3次元データ取得装置。
(付記2)
前記動作パターンは、前記同一の姿勢を含む関連する複数の動作として、基準の技を示す動作と、前記基準の技の実施中における対象物の姿勢から遷移可能な他の技を示す動作と、前記基準の技及び前記他の技が不成立又は失敗した場合の動作とを含む対象物の動作を示す動作パターンであり、
前記推定部は、前記対象物が実施する予定の動作の情報として、前記対象物が実施予定の技のリストを参照する
付記1記載の3次元データ取得装置。
(付記3)
前記推定部は、前記認識部により認識された前記対象物の姿勢に対応する状態を含んで定義された動作パターンにおいて、前記対応する状態から遷移可能な状態が示す姿勢を、前記次のタイミングにおける前記対象物の姿勢として推定する付記1又は付記2に記載の3次元データ取得装置。
(付記4)
前記認識部は、前記取得部により取得された3次元データに基づいて、前記対象物の各部位の座標値の集合で表される人体モデルを認識し、
前記動作パターンは、前記対象物の各部位の座標値の集合で表された前記対象物の姿勢を示す状態の遷移で定義され、
前記推定部は、前記対象物の各部位の相対座標系、グローバル座標系、及び前記動作パターンが示す動作の進行方向を基準とした座標系の少なくとも1つの座標系において、前記認識部により認識された前記人体モデルを表す座標値の集合との差が所定の範囲内となる座標値の集合で表された前記動作パターンの状態を、前記認識部により認識された前記対象物の姿勢に対応する状態として判定する
付記3に記載の3次元データ取得装置。
(付記5)
前記推定部は、前記対応する状態から遷移可能な状態を、状態間の遷移確率に基づいて推定する付記3又は付記4に記載の3次元データ取得装置。
(付記6)
前記遷移確率は、動作の難易度、対象物の特性、対象物の姿勢の変化の速度、現在の対象物の姿勢と対応する状態が示す姿勢との逸脱度のいずれかを含む付記5に記載の3次元データ取得装置。
(付記7)
前記動作パターン記憶部に、技と技との間の動作を示すつなぎ動作パターンがさらに記憶され、
前記推定部は、前記実施予定の技のリストにしたがって、次に実施する予定の技を含む動作パターンと、直前に終了した技と次に実施する予定の技との間の動作を示すつなぎ動作パターンとを参照する
付記2〜付記6のいずれか1項記載の3次元データ取得装置。
(付記8)
3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得し、
取得した3次元データに基づいて、前記対象物の位置及び姿勢を認識し、
同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照して、受け付けた前記対象物が実施する予定の動作の情報と、認識した前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定すると共に、推定した姿勢と、認識した前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定し、
推定した前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する
ことを含む処理をコンピュータが実行する3次元データ取得方法。
(付記9)
前記動作パターンは、前記同一の姿勢を含む関連する複数の動作として、基準の技を示す動作と、前記基準の技の実施中における対象物の姿勢から遷移可能な他の技を示す動作と、前記基準の技及び前記他の技が不成立又は失敗した場合の動作とを含む対象物の動作を示す動作パターンであり、
前記対象物が実施する予定の動作の情報として、前記対象物が実施予定の技のリストを参照する
付記8記載の3次元データ取得方法。
(付記10)
認識した前記対象物の姿勢に対応する状態を含んで定義された動作パターンにおいて、前記対応する状態から遷移可能な状態が示す姿勢を、前記次のタイミングにおける前記対象物の姿勢として推定する付記8又は付記9に記載の3次元データ取得方法。
(付記11)
取得した3次元データに基づいて、前記対象物の各部位の座標値の集合で表される人体モデルを認識し、
前記動作パターンは、前記対象物の各部位の座標値の集合で表された前記対象物の姿勢を示す状態の遷移で定義され、
前記対象物の各部位の相対座標系、グローバル座標系、及び前記動作パターンが示す動作の進行方向を基準とした座標系の少なくとも1つの座標系において、認識した前記人体モデルを表す座標値の集合との差が所定の範囲内となる座標値の集合で表された前記動作パターンの状態を、認識した前記対象物の姿勢に対応する状態として判定する
付記10に記載の3次元データ取得方法。
(付記12)
前記対応する状態から遷移可能な状態を、状態間の遷移確率に基づいて推定する付記10又は付記11に記載の3次元データ取得方法。
(付記13)
前記遷移確率は、動作の難易度、対象物の特性、対象物の姿勢の変化の速度、現在の対象物の姿勢と対応する状態が示す姿勢との逸脱度のいずれかを含む付記12に記載の3次元データ取得方法。
(付記14)
前記動作パターン記憶部に、技と技との間の動作を示すつなぎ動作パターンがさらに記憶され、
前記実施予定の技のリストにしたがって、次に実施する予定の技を含む動作パターンと、直前に終了した技と次に実施する予定の技との間の動作を示すつなぎ動作パターンとを参照する
付記9〜付記13のいずれか1項記載の3次元データ取得方法。
(付記15)
3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得し、
取得した3次元データに基づいて、前記対象物の位置及び姿勢を認識し、
同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照して、受け付けた前記対象物が実施する予定の動作の情報と、認識した前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定すると共に、推定した姿勢と、認識した前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定し、
推定した前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する
ことを含む処理をコンピュータに実行させる3次元データ取得プログラム。
(付記16)
前記動作パターンは、前記同一の姿勢を含む関連する複数の動作として、基準の技を示す動作と、前記基準の技の実施中における対象物の姿勢から遷移可能な他の技を示す動作と、前記基準の技及び前記他の技が不成立又は失敗した場合の動作とを含む対象物の動作を示す動作パターンであり、
前記対象物が実施する予定の動作の情報として、前記対象物が実施予定の技のリストを参照する
付記15記載の3次元データ取得プログラム。
(付記17)
認識した前記対象物の姿勢に対応する状態を含んで定義された動作パターンにおいて、前記対応する状態から遷移可能な状態が示す姿勢を、前記次のタイミングにおける前記対象物の姿勢として推定する付記15又は付記16に記載の3次元データ取得プログラム。
(付記18)
取得した3次元データに基づいて、前記対象物の各部位の座標値の集合で表される人体モデルを認識し、
前記動作パターンは、前記対象物の各部位の座標値の集合で表された前記対象物の姿勢を示す状態の遷移で定義され、
前記対象物の各部位の相対座標系、グローバル座標系、及び前記動作パターンが示す動作の進行方向を基準とした座標系の少なくとも1つの座標系において、認識した前記人体モデルを表す座標値の集合との差が所定の範囲内となる座標値の集合で表された前記動作パターンの状態を、認識した前記対象物の姿勢に対応する状態として判定する
付記17に記載の3次元データ取得プログラム。
(付記19)
前記対応する状態から遷移可能な状態を、状態間の遷移確率に基づいて推定する付記17又は付記18に記載の3次元データ取得プログラム。
(付記20)
前記遷移確率は、動作の難易度、対象物の特性、対象物の姿勢の変化の速度、現在の対象物の姿勢と対応する状態が示す姿勢との逸脱度のいずれかを含む付記19に記載の3次元データ取得プログラム。
10、210 3次元データ取得装置
11 取得部
12 認識部
13、213 推定部
14、214 状態判定部
15、215 状態推定部
16 位置推定部
17 制御部
21 演技予定リスト
22 履歴DB
22A 人体モデル履歴テーブル
22B 状態履歴テーブル
22C 技実施履歴テーブル
23、223 動作パターンDB
223A つなぎ動作テーブル
31 3Dセンサ
32 駆動部
40 コンピュータ
41 CPU
42 メモリ
43 記憶部
49 記憶媒体
50、250 3次元データ取得プログラム

Claims (8)

  1. 3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得する取得部と、
    前記取得部により取得された3次元データに基づいて、前記対象物の位置及び姿勢を認識する認識部と、
    同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照して、受け付けた前記対象物が実施する予定の動作の情報と、前記認識部により認識された前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定すると共に、推定した姿勢と、前記認識部により認識された前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定する推定部と、
    前記推定部で推定された前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する制御部と、
    を含む3次元データ取得装置。
  2. 前記動作パターンは、前記同一の姿勢を含む関連する複数の動作として、基準の技を示す動作と、前記基準の技の実施中における対象物の姿勢から遷移可能な他の技を示す動作と、前記基準の技及び前記他の技が不成立又は失敗した場合の動作とを含む対象物の動作を示す動作パターンであり、
    前記推定部は、前記対象物が実施する予定の動作の情報として、前記対象物が実施予定の技のリストを参照する
    請求項1記載の3次元データ取得装置。
  3. 前記推定部は、前記認識部により認識された前記対象物の姿勢に対応する状態を含んで定義された動作パターンにおいて、前記対応する状態から遷移可能な状態が示す姿勢を、前記次のタイミングにおける前記対象物の姿勢として推定する請求項1又は請求項2に記載の3次元データ取得装置。
  4. 前記認識部は、前記取得部により取得された3次元データに基づいて、前記対象物の各部位の座標値の集合で表される人体モデルを認識し、
    前記動作パターンは、前記対象物の各部位の座標値の集合で表された前記対象物の姿勢を示す状態の遷移で定義され、
    前記推定部は、前記対象物の各部位の相対座標系、グローバル座標系、及び前記動作パターンが示す動作の進行方向を基準とした座標系の少なくとも1つの座標系において、前記認識部により認識された前記人体モデルを表す座標値の集合との差が所定の範囲内となる座標値の集合で表された前記動作パターンの状態を、前記認識部により認識された前記対象物の姿勢に対応する状態として判定する
    請求項3に記載の3次元データ取得装置。
  5. 前記推定部は、前記対応する状態から遷移可能な状態を、状態間の遷移確率に基づいて推定する請求項3又は請求項4に記載の3次元データ取得装置。
  6. 前記遷移確率は、動作の難易度、対象物の特性、対象物の姿勢の変化の速度、現在の対象物の姿勢と対応する状態が示す姿勢との逸脱度のいずれかを含む請求項5に記載の3次元データ取得装置。
  7. 前記動作パターン記憶部に、技と技との間の動作を示すつなぎ動作パターンがさらに記憶され、
    前記推定部は、実施予定の技のリストにしたがって、次に実施する予定の技を含む動作パターンと、直前に終了した技と次に実施する予定の技との間の動作を示すつなぎ動作パターンとを参照する
    請求項2〜請求項6のいずれか1項記載の3次元データ取得装置。
  8. 3次元センサにより検出された、対象物上の各点の3次元位置を示す3次元データを取得し、
    取得した3次元データに基づいて、前記対象物の位置及び姿勢を認識し、
    同一の姿勢を含む関連する複数の動作を示し、かつ前記対象物の姿勢を示す状態の遷移で定義された動作パターンが複数記憶された動作パターン記憶部を参照して、受け付けた前記対象物が実施する予定の動作の情報と、認識した前記対象物の姿勢とに基づいて、次のタイミングにおける前記対象物の姿勢を推定すると共に、推定した姿勢と、認識した前記対象物の位置の変化とに基づいて、前記次のタイミングに前記対象物が存在する位置を推定し、
    推定した前記対象物の姿勢及び位置に基づいて、前記3次元センサの向き及び画角を制御する
    ことを含む処理をコンピュータが実行する3次元データ取得方法。
JP2017035228A 2017-02-27 2017-02-27 3次元データ取得装置及び方法 Active JP6834590B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017035228A JP6834590B2 (ja) 2017-02-27 2017-02-27 3次元データ取得装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017035228A JP6834590B2 (ja) 2017-02-27 2017-02-27 3次元データ取得装置及び方法

Publications (2)

Publication Number Publication Date
JP2018142815A JP2018142815A (ja) 2018-09-13
JP6834590B2 true JP6834590B2 (ja) 2021-02-24

Family

ID=63528308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017035228A Active JP6834590B2 (ja) 2017-02-27 2017-02-27 3次元データ取得装置及び方法

Country Status (1)

Country Link
JP (1) JP6834590B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110246209B (zh) * 2019-06-19 2021-07-09 腾讯科技(深圳)有限公司 图像处理方法及装置
JP7403340B2 (ja) * 2020-02-17 2023-12-22 株式会社日立製作所 物体認識モデルの流用可否を判定するシステム。
WO2022215116A1 (ja) * 2021-04-05 2022-10-13 富士通株式会社 情報処理プログラム、装置、及び方法
CN115497087B (zh) * 2022-11-18 2024-04-19 广州煌牌自动设备有限公司 一种餐具姿态的识别系统及其方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006173872A (ja) * 2004-12-14 2006-06-29 Matsushita Electric Ind Co Ltd カメラ制御装置
WO2007138885A1 (ja) * 2006-05-26 2007-12-06 The University Of Tokyo 運動データのデータベースの構造および設計法、データベースシステム
JP2010079639A (ja) * 2008-09-26 2010-04-08 Mazda Motor Corp 車両の歩行者検出装置
WO2015103359A1 (en) * 2014-01-02 2015-07-09 Accelerated Conditioning And Learning, Llc Dynamic movement assessment system and method
WO2016056449A1 (ja) * 2014-10-10 2016-04-14 富士通株式会社 スキル判定プログラム、スキル判定方法、スキル判定装置およびサーバ

Also Published As

Publication number Publication date
JP2018142815A (ja) 2018-09-13

Similar Documents

Publication Publication Date Title
JP6834590B2 (ja) 3次元データ取得装置及び方法
US9842405B2 (en) Visual target tracking
KR101738569B1 (ko) 제스쳐 인식 방법 및 시스템
JP5898199B2 (ja) 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
US8565476B2 (en) Visual target tracking
US8577084B2 (en) Visual target tracking
US8682028B2 (en) Visual target tracking
CN101964047B (zh) 一种基于多跟踪点的人体动作识别方法
US8577085B2 (en) Visual target tracking
WO2005088244A1 (ja) 平面検出装置、平面検出方法、及び平面検出装置を搭載したロボット装置
US8565477B2 (en) Visual target tracking
CN105229666A (zh) 3d图像中的运动分析
US11491371B2 (en) Device and method for monitoring activity performance
CN110544302A (zh) 基于多目视觉的人体动作重建系统、方法和动作训练系统
JP2018014579A (ja) カメラトラッキング装置および方法
US11461905B2 (en) Determining a kinematic sequence
JP2019045967A (ja) 姿勢推定装置、方法、及びプログラム
JP6981340B2 (ja) 表示制御プログラム、装置、及び方法
US20240020976A1 (en) Information processing program, device, and method
US20230285802A1 (en) Method, device, and non-transitory computer-readable recording medium for estimating information on golf swing
KR102413988B1 (ko) 골프 스윙에 관한 정보를 추정하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체
JP2019197278A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
KR102342760B1 (ko) 인공지능 기반의 골프 영상 학습장치, 그 방법 및 그 기록매체
US20220301352A1 (en) Motion recognition method, non-transitory computer-readable storage medium for storing motion recognition program, and information processing device
CN116648190A (zh) 骨架估计装置、骨架估计方法及体操评分辅助系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R150 Certificate of patent or registration of utility model

Ref document number: 6834590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150