JPWO2018207388A1 - モーションキャプチャに関するプログラム、装置および方法 - Google Patents
モーションキャプチャに関するプログラム、装置および方法 Download PDFInfo
- Publication number
- JPWO2018207388A1 JPWO2018207388A1 JP2019516884A JP2019516884A JPWO2018207388A1 JP WO2018207388 A1 JPWO2018207388 A1 JP WO2018207388A1 JP 2019516884 A JP2019516884 A JP 2019516884A JP 2019516884 A JP2019516884 A JP 2019516884A JP WO2018207388 A1 JPWO2018207388 A1 JP WO2018207388A1
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- dimensional object
- joint
- matching
- object model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B69/00—Training appliances or apparatus for special sports
- A63B69/18—Training appliances or apparatus for special sports for skiing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physical Education & Sports Medicine (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】 人物等のオブジェクトの動作を撮影した2次元動画に基づいて3次元動画を作成することができる、モーションキャプチャに関するプログラム、装置および方法を提供する。【解決手段】 2次元動画を構成する所定のフレーム画像を取得するフレーム画像取得部31と、フレーム画像内のパーツを特定する2次元パーツ特定部32と、フレーム画像内のジョイントの位置を特定する2次元ジョイント位置特定部33と、3次元オブジェクトモデルの縮尺を決定する縮尺決定部34と、3次元オブジェクトモデルの基準パーツの位置および方向を整合させる基準パーツ整合部36と、3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合部37と、3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向をジョイントの自由度に応じて整合させるパーツ整合部38とを有する。
Description
本発明は、モーションキャプチャの技術に関し、特に人物等のオブジェクトの動作に係る2次元動画を3次元データ化して3次元動画を作成するモーションキャプチャに係るプログラム、装置および方法に関するものである。
モーションキャプチャ技術は、オブジェクトの動作を3次元データ化して記録するものであり、スポーツ分野、医療分野およびエンターテイメント分野等において広く利用されている。例えば、スポーツ分野では、スポーツ選手の動作を3次元データ化して動作を詳細に解析し、技術の向上や怪我の防止などに用いられている。また、医療分野では、身体的なリハビリテーションにおいて、リハビリテーション前後の動作を3次元データ化することで、効果的なリハビリ方法の選択や快復への進捗状況の確認などに用いられている。さらに、エンターテイメント分野では、映画やゲームにおいて、実際の人間が演じた動作を3次元データ化し、その3次元データにコンピュータグラフィックによって作成したキャラクターを当てはめることで、前記キャラクターに人間のようなスムーズな動作をさせるために用いられている。
このようなモーションキャプチャ技術に関するものとして、例えば、特開2017−53739号公報では、マーカーを装着したオブジェクトと、角度の異なる位置に配置し、前記マーカーの動きを三角測量の原理で計測して時系列的に撮影する複数のカメラと、複数のカメラの撮影情報よりマーカーの3次元時系列位置情報を得る画像処理装置とを備えたモーションキャプチャシステムが提案されている(特許文献1)。この他にも、ジャイロセンサや加速度計等の各種センサをオブジェクトに装着させ、前記各種センサにより計測された数値から動作をデータ化する方法等がある。
しかしながら、特許文献1に記載された発明など、従来のモーションキャプチャ技術や方法では、オブジェクトに対してマーカーや各種センサーを装着しなければならない。このため競技中のスポーツ選手に装着させることはコンマ数秒の世界における繊細な動作を争う競技においては実質的に不可能である。また、特許文献1に記載された発明のように複数台のカメラを使用する方法では、撮影可能な範囲が限られるため、スキー競技などの屋外競技に利用する場合には莫大な費用が必要となる。したがって、従来のモーションキャプチャ技術では、オブジェクトの動作が制限されており、マーカーの動きが取得しやすい条件下での動作しか3次元データ化できておらず、競技中の動作を3次元データ化することができない。
ところで、スポーツ分野では、ビデオカメラなどにより2次元動画を撮影し、その動画をチェックしながら技術の分析や技術指導などが行われている。しかし、一台のビデオカメラでは1方向から撮影した情報しか得られず、同じ姿勢であっても撮影される方向によって異なる姿勢に見えるため、錯覚することがある。例えば、図15はスキー選手の右ターン中の同じ姿勢を正面、左前方および右前方から見たものであるが、図15(a)および図15(b)に示すように、下腿部の姿勢は本来ハの字である。しかし、図15(c)に示すように、右前方から見た場合、下腿部の姿勢は左右平行のように見える。このように、一方向から撮影された2次元動画だけでは、競技中の姿勢および動作を誤って把握することがある。よって、実際に競技を行っているスポーツ選手の3次元の動画が取得できれば、適宜、見る方向を変えながら分析や検討することが可能となり、利用価値は極めて高い。
本発明は、以上のような問題点を解決するためになされたものであって、人物等のオブジェクトの動作を撮影した2次元動画に基づいて前記オブジェクトに関する3次元動画を作成することができる、モーションキャプチャプログラム、モーションキャプチャ装置およびモーションキャプチャ方法を提供することを目的としている。
本発明に係るモーションキャプチャ装置およびモーションキャプチャプログラムは、オブジェクトの動作を撮影した2次元動画から前記オブジェクトに関する3次元動画を作成するという課題を解決するために、オブジェクトの動作を撮影した2次元動画に基づいて、前記オブジェクトを構成する複数のパーツおよび各パーツ同士を連結するジョイントからなる3次元オブジェクトモデルを使って前記オブジェクトに関する3次元動画を作成するモーションキャプチャ装置およびモーションキャプチャプログラムであって、前記2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するフレーム画像取得部と、前記フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する2次元パーツ特定部と、前記2次元オブジェクトのジョイントの位置を特定する2次元ジョイント位置特定部と、前記2次元オブジェクトの大きさに合わせて前記3次元オブジェクトモデルの縮尺を決定する縮尺決定部と、前記2次元パーツ特定部により特定された前記2次元オブジェクトの所定のパーツに対して、前記3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる基準パーツ整合部と、前記2次元ジョイント位置特定部により特定された前記2次元オブジェクトのジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合部と、前記2次元オブジェクトにおける前記基準パーツに対応するパーツ以外の各パーツに対して、前記基準パーツを整合させた後の前記3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させるパーツ整合部とを有する。
また、本発明の一態様として、フレーム画像内の2次元オブジェクトに3次元オブジェクトモデルを整合させる時間の短縮を図るとともに整合の精度を向上させるという課題を解決するために、前記オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルが記憶されている3次元オブジェクトモデル記憶部から前記フレーム画像内の前記2次元オブジェクトに整合させる3次元オブジェクトモデルを取得するモデル取得部を有するようにしてもよい。
さらに、本発明の一態様として、フレーム画像内の2次元オブジェクトに3次元オブジェクトモデルを整合させる時間の短縮を図るとともに整合の精度を向上させるという課題を解決するために、前記オブジェクトが人物または動物の場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの骨盤を前記基準パーツとして設定されていてもよい。
また、本発明の一態様として、フレーム画像内の2次元オブジェクトに3次元オブジェクトモデルを整合させる時間の短縮を図るとともに整合の精度を向上させるという課題を解決するために、前記オブジェクトが人物または動物の場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの頭部を前記基準パーツとして設定されていてもよい。
さらに、本発明の一態様として、フレーム画像内の2次元オブジェクトに3次元オブジェクトモデルを整合させる時間の短縮を図るとともに整合の精度を向上させるという課題を解決するために、前記オブジェクトが用具を装着している場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの前記用具を基準パーツとして設定されていてもよい。
また、本発明の一態様として、フレーム画像内の2次元オブジェクトに3次元オブジェクトモデルを整合させる時間の短縮を図るとともに整合の精度を向上させるという課題を解決するために、前記オブジェクトが用具を装着している場合、前記縮尺決定部では、前記用具の大きさに合わせて縮尺を決定するようにしてもよい。
本発明に係るモーションキャプチャ方法は、オブジェクトの動作を撮影した2次元動画から前記オブジェクトに関する3次元動画を作成するという課題を解決するために、オブジェクトの動作を撮影した2次元動画に基づいて、前記オブジェクトを構成する複数のパーツおよび各パーツ同士を連結するジョイントからなる3次元オブジェクトモデルを使って前記オブジェクトに関する3次元動画を作成するモーションキャプチャ方法であって、前記2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するフレーム画像取得ステップと、前記フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する2次元パーツ特定ステップと、前記2次元オブジェクトのジョイントの位置を特定する2次元ジョイント位置特定ステップと、前記2次元オブジェクトの大きさに合わせて前記3次元オブジェクトモデルの縮尺を決定する縮尺決定ステップと、前記2次元パーツ特定ステップにより特定された前記2次元オブジェクトの所定のパーツに対して、前記3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる基準パーツ整合ステップと、前記2次元ジョイント位置特定ステップにより特定された前記2次元オブジェクトのジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合ステップと、前記2次元オブジェクトにおける前記基準パーツに対応するパーツ以外の各パーツに対して、前記基準パーツを整合させた後の前記3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させるパーツ整合ステップとを有する。
本発明によれば、オブジェクトの動作を撮影した2次元動画に基づいて前記オブジェクトに関する3次元動画を作成することができる。
以下、本発明に係るモーションキャプチャプログラム、モーションキャプチャ装置およびモーションキャプチャ方法の一実施形態について図面を用いて説明する。
本実施形態のモーションキャプチャ装置1は、オブジェクトの動作を撮影した2次元動画に基づいて前記オブジェクトに関する3次元動画を作成するための装置であり、図1に示すように、主として、モーションキャプチャプログラム1aおよび各種データを記憶する記憶手段2と、この記憶手段2から各種データを取得して演算処理を実行する演算処理手段3とを有する。以下、各構成の詳細について説明する。
記憶手段2は、ROM、RAM、ハードディスク、フラッシュメモリ等によって構成されており、各種のデータを記憶するとともに、演算処理手段3が演算を実行する際のワーキングエリアとして機能するものである。図1に示すように、本実施形態における記憶手段2は、主に、モーションキャプチャプログラム1aを記憶するプログラム記憶部21と、オブジェクトの動作を撮影した2次元動画を記憶する2次元動画記憶部22と、前記オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルを記憶させる3次元オブジェクトモデル記憶部23と、2次元動画と整合させた3次元オブジェクトモデルを時系列で並べて作成される3次元動画を記憶する3次元動画記憶部24とを有する。
プログラム記憶部21には、本実施形態のモーションキャプチャプログラム1aがインストールされている。そして、演算処理手段3が、前記モーションキャプチャプログラム1aを実行し、後述する演算処理手段3の各構成部として機能させることにより、コンピュータをモーションキャプチャ装置1として機能させるようになっている。
なお、モーションキャプチャプログラム1aの利用形態は、上記構成に限られるものではない。例えば、CD−ROMやUSBメモリ等のように、コンピュータで読み取り可能な非一時的な記録媒体にモーションキャプチャプログラム1aを記憶させておき、この記録媒体から直接読み出して実行してもよい。また、外部サーバ等からクラウドコンピューティング方式やASP(application service provider)方式等で利用してもよい。
2次元動画記憶部22には、オブジェクトの動作を撮影した2次元動画が記憶されており、本実施形態では、前記2次元動画を構成する複数のフレーム画像が記憶されている。具体的には、例えばスキー競技を撮影した2次元動画に関して、1秒当たり30コマのフレーム画像が記憶されている。また、フレーム画像内にはオブジェクトを撮影することで得られる2次元オブジェクトを備えている。ここで2次元オブジェクトとは、フレーム画像内において3次元動画を作成する対象物である。オブジェクトの例としては、人物、動物、ロボット、キャラクター、用具等の各種のものが挙げられる。本実施形態では、図2に示すように、フレーム画像内のスキー選手およびこのスキー選手が装着するスキー板の部分がフレーム画像内の2次元オブジェクトに該当する。
3次元オブジェクトモデル記憶部23には、フレーム画像内の2次元オブジェクトに整合させるための3次元オブジェクトモデルが記憶されており、本実施形態では、前記オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルが記憶されている。
ここで、3次元オブジェクトモデルについて説明する。3次元オブジェクトモデルは、フレーム画像内の2次元オブジェクトに整合させるための3次元モデルである。この3次元オブジェクトモデルはCADソフトやコンピュータグラフィックに用いられる剛体モデリングソフト等によって作成される。本実施形態の3次元オブジェクトモデルは、スキー競技を撮影した2次元動画のフレーム画像内のスキー選手およびスキー板に整合させるため、図3に示すように、スキー選手モデルと、当該スキー選手が装着しているスキー板モデルとから構成されている。
スキー選手モデルは、人物の主な構成に合わせて、頭部、胴部、骨盤、左上腕、左前腕、左手部、右上腕、右前腕、右手部、左大腿、左下腿、左足部、右大腿、右下腿および右足部の合計15個のパーツから構成されている。
本実施形態では、複数のスキー選手の2次元動画に整合させるため、スキー選手モデルにおける各パーツの長さ比率は、図4に示すように、欧米人の身体データの統計値(R.Contini著、"Body Segment Parameters, PartII"、Artificial Limbs 16, (1972), pp.1-19.)に基づき設定している。なお、各パーツの長さやその比率は、整合させる対象が特定されている場合は、その対象のデータ、例えばスキー選手の場合はその選手の実際の体型に基づいて設定してもよい。
また、3次元オブジェクトモデルは、各パーツがジョイントによって連結されており、各ジョイントには曲がる方向を示す自由度が設定されている。例えばスキー選手モデルでは、図5に示すように、頭部と胴部とを連結する首関節、胴部と左右の上腕とを連結する肩関節、上腕と前腕とを連結する肘関節、前腕と手部とを連結する手関節、胴部と左右の大腿とを連結する股関節、大腿と下腿とを連結する膝関節、および、下腿と足部とを連結する足関節を有する。
また、各ジョイントの自由度は、人間の関節の自由度に基づいて設定されている。具体的には、表1に示すように、首関節には自由度3が設定されており、前後方向、左右方向および回転方向にジョイントが動かせるようになっている。また、肩関節、股関節も同様に、前後方向、左右方向および回転方向に動かせるように自由度3が設定されている。手関節は、手首関節の自由度2と、前腕の回内・回外の自由度1とを合わせて自由度3が設定されている。さらに、肘関節および膝関節は、曲げ伸ばしのみの動きであるため自由度1が設定されている。一方、人間の足関節は前後方向および左右方向に動かせるため、その自由度は2であるが、スキー選手は足関節がスキーブーツで覆われることにより左右方向への移動が制限されており、前後方向の曲げ伸ばしに限定される。よって、本実施形態におけるスキー選手モデルの足関節の自由度は、自由度1に設定している。このように、ジョイントの自由度は、オブジェクトが装着する用具やオブジェクトの動作の制約等に合わせて自由に設定可能である。
また、スキー板モデルは、図3に示すように、長さ方向に対して分割された8個のパーツとビンディングプレートに係る1個のパーツとして構成されており、左右一対であることから合計18個のパーツから構成されている。また、スキー板モデルの長さは、複数のスキー選手の2次元動画に対して整合させるため、FIS(国際スキー連盟)のアルペンスキー用具規格に基づき設定されている。なお、スキー板モデル等、オブジェクトが装着している用具の長さは、規格に基づいて設定されるものに限定されず、その対象のデータ、例えば、スキー選手が装着している実際のスキーの長さ寸法に基づいて設定してもよい。
また、スキー板モデルの各パーツはジョイントで連結されており、スキー板の先端側または後端側が上下方向に反り返るたわみを表現できるように、その反る方向に対して自由度1が設定されている。
さらに、スキー板モデルのスキー板部分とビンディングプレート、ビンディングプレートとスキー選手モデルの足部とは、2次元モデルにおいてそれぞれ固定されているため、3次元オブジェクトモデルにおけるこれらのジョイントの自由度は、自由度0に設定されている。
また、本実施形態における3次元オブジェクトモデル記憶部23には、前記オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルが記憶されている。スキー競技の場合、1つのターンにおいて、図6に示すように、主に、ターンの切り換え時であるニュートラル姿勢、斜面に対してスキーのエッジを立てるエッジングといわれる動作を開始するエッジング開始姿勢、前記エッジを立てる角度や体をターン方向に傾斜させる角度が最も大きくなるターンマキシマム姿勢、前記エッジングを終了するエッチング終了姿勢がある。そこで、本実施形態では、これらのターン時の姿勢を基本姿勢として、図7および図8に示すように、各種の3次元オブジェクトモデルを設定している。なお、図7および図8に示す複数の3次元オブジェクトモデルの基本姿勢は一例であり、各基本姿勢同士の間にはその中間姿勢となる複数の基本姿勢が設定されている。
3次元動画記憶部24は、フレーム画像ごとに整合された3次元オブジェクトモデルをフレーム画像と同じ時系列順で表示可能なデータとして作成された3次元動画を記憶するものである。本実施形態における3次元動画記憶部24は、3次元動画とともに、3次元オブジェクトモデルにおける所定のジョイントの角度を、フレーム画像の順と同じ時系列で記憶するようになっている。
つぎに、演算処理手段3について説明する。演算処理手段3は、CPU(Central Processing Unit)等から構成されており、記憶手段2にインストールされたモーションキャプチャプログラム1aを実行させることにより、図1に示すように、モーションキャプチャ装置1としてのコンピュータを、フレーム画像取得部31、2次元パーツ特定部32、2次元ジョイント位置特定部33、モデル取得部34、縮尺決定部35、基準パーツ整合部36、ジョイント位置整合部37、パーツ整合部38および3次元動画作成部39として機能させるようになっている。
フレーム画像取得部31は、2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するものであり、本実施形態では、2次元動画記憶部22に記憶されているフレーム画像を2次元動画の時系列にしたがって取得するようになっている。
2次元パーツ特定部32は、フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定するものである。本実施形態では、フレーム画像内のどの部分が頭部、胴部、骨盤、左上腕、左前腕、左手部、右上腕、右前腕、右手部、左大腿、左下腿、左足部、右大腿、右下腿、右脚部およびスキー部分に相当するかを識別して特定するようになっている。本実施形態における2次元パーツ特定部32は、ディープラーニングによる画像認識技術や顔認証に用いられる画像認識技術等を用いて、各パーツを特定するとともに、特定された各パーツに係る部分(範囲)を示すフレーム画像内における位置座標を取得するようになっている。これにより、各パーツのフレーム画像内における位置および大きさに関するデータを得ることができる。
2次元ジョイント位置特定部33は、フレーム画像内の2次元オブジェクトのジョイントの位置を特定するものである。本実施形態における2次元ジョイント位置特定部33は、2次元パーツ特定部32と同様、ディープラーニングによる画像認識技術や顔認証に用いられる画像認識技術等を用いて2次元オブジェクトのジョイントの位置座標を取得するようになっている。なお、ジョイント位置を特定する方法は、画像認識技術に限定されるものではなく、例えば、2次元パーツ特定部32により特定された各パーツの境界をジョイント位置として特定してもよい。
モデル取得部34は、3次元オブジェクトモデル記憶部23から、フレーム画像内の2次元オブジェクトに整合させる3次元オブジェクトモデルを取得するものである。また、本実施形態におけるモデル取得部34は、整合時間の短縮や整合精度を向上させるため、図7および図8に示すように、オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルからフレーム画像内の2次元オブジェクトに対する整合に適した3次元オブジェクトモデルを等を用いて判別し、取得するようになっている。この際、解析的に求まらない最適解を試行錯誤的に収束解として獲得する進化的アルゴリズム(Evolutionary Algorithm:EA)に基づくAI(人工知能)技術等を利用する。前記進化的アルゴリズムは、特別な理論的背景なしで、人間が手作業でマッチさせる作業と同様のプロセスで自動的に各パーツのマッチングを行うことができるアルゴリズムの一つであり、遺伝的アルゴリズム(Genetic Algorithm、:GA)、遺伝的プログラミング(Genetic Programming:GP)、進化戦略(Evolution Strategy:ES)、進化的プログラミング(Evolutionary Programming:EP)等が利用可能である。
2次元オブジェクトに対する整合に最も適しているか否かの判別方法は、特に限定されるものではないが、例えば、フレーム画像内から2次元オブジェクト部分とその他の部分とを2値化し、前記2次元オブジェクト部分から算出された面積値と、3次元オブジェクトモデルの所定の方向から投影された面積値とを比較して差分値の小さいものを適していると判別してもよい。あるいは2次元オブジェクトにおける所定のパーツ同士の距離と3次元オブジェクトモデルの対応するパーツ同士の距離との差分値から判別してもよい。または、取得された3次元オブジェクトモデルをフレーム画像の2次元オブジェクトを整合させる際に、前記3次元オブジェクトモデルにおける所定のパーツの移動量や移動角度が所定値以上になった場合に、異なる3次元オブジェクトモデルを再取得するようにしてもよい。さらに、直前の整合に用いられた3次元オブジェクトモデルをそのまま用いてもよい。また、前記3次元オブジェクトモデルを用いた場合の整合に係る処理時間が所定の時間よりも長くなった場合には、予め定めておいた順に従って次の基本姿勢に係る3次元オブジェクトモデルを取得するようにしてもよい。
縮尺決定部35は、2次元オブジェクトの全体の大きさまたは任意に選択されたパーツの大きさに合わせて3次元オブジェクトモデルの縮尺を決定するものである。本実施形態では、オブジェクトが人物に係るスキー選手であるため、2次元パーツ特定部32により特定された骨盤部分に係る位置座標から当該骨盤の大きさを算出し、3次元オブジェクトモデルの骨盤をその大きさに合わせることで3次元オブジェクトモデルの縮尺を決定するようになっている。
なお、3次元オブジェクトモデルの縮尺を決定する基準となるパーツは、骨盤などの人物または動物の一部のパーツに限定されるものではなく、適宜、オブジェクトの特徴に応じて選択してよい。例えば、オブジェクトが用具を装着している場合には、その用具の大きさに合わせて縮尺を決定してもよい。本実施形態では、上述のとおり、スキー選手が足部にスキーを装着しており、当該スキーの寸法はFISの規格に基づきほぼ一定の寸法を有しているため、フレーム画像内のスキー部分の大きさを基準にすることにより縮尺の精度向上が期待される。また、2次元オブジェクトの全体の大きさに合わせる場合には、フレーム画像内から2次元オブジェクト部分とその他の部分とを2値化し、2値化した前記2次元オブジェクト全体の大きさに合わせて3次元オブジェクトモデルの縮尺を決定してもよい。
基準パーツ整合部36は進化的アルゴリズムに基づくAI技術等を用いることにより、2次元パーツ特定部32によって特定された2次元オブジェクトの所定のパーツに対して、3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させるものである。本実施形態では、基準パーツとして3次元オブジェクトモデルの骨盤を採用している。骨盤は人物または動物の動作の中心となる部分であり、かつ体の中心位置にあって画像認識技術において特定し易く、他のパーツに比べて捻りや傾き等が少ないため、位置および方向を整合し易く、整合時間の短縮や整合精度の向上が期待できる。
なお、基準パーツは、骨盤に限定されるものではなく、パーツの特徴やオブジェクトの動作の特徴に応じて適宜選択してもよい。例えば、頭部は、人物の各パーツにおいて特徴的な球状パーツであるため、他のパーツに比べて画像認識技術によって特定し易い。また、頭部は目、鼻、口等があるため方向も合わせ易い。よって、基準パーツとして頭部を採用しても整合時間の短縮や整合精度の向上が期待できる。また、オブジェクトが用具を装着している場合には、前記用具を基準パーツとしてもよい。用具は、色や形などから人物等と区別が容易であって画像認識技術により特定し易いからである。また、スキー板やゴルフクラブ等の長尺状の用具やテニスラケット等の打撃面がある用具は、傾斜角度や傾斜面の方向が判別し易い。よって、用具を基準パーツとする場合も、整合時間の短縮や整合精度の向上が期待できる。
ジョイント位置整合部37は、2次元ジョイント位置特定部33により特定された2次元オブジェクトの各ジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるものである。本実施形態におけるジョイント位置整合部37は、前記2次元オブジェクトのジョイント位置座標に対して、3次元オブジェクトモデルを構成する各ジョイント位置を整合させるようになっている。
パーツ整合部38は、進化的アルゴリズムに基づくAI技術等を用いて、2次元オブジェクトに対して、基準パーツを整合させた後の3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向をジョイントの自由度に応じて整合させるものである。本実施形態におけるパーツ整合部38は、基準パーツ整合部36またはパーツ整合部38により位置および方向が整合されたパーツに連結されている他のパーツを、それらを連結するジョイントにおける自由度に応じて屈曲させて、前記パーツの位置および方向を整合させるようになっている。つまり、パーツ整合部38では、各パーツの位置および方向をジョイントの自由度の条件下で整合させるため、3次元オブジェクトモデルが現実のオブジェクトではあり得ない姿勢になるのを防ぐことができる。
3次元動画作成部39は、フレーム画像ごとに整合された3次元オブジェクトモデルをフレーム画像の順と同じ時系列で連続的に表示可能なデータとして3次元動画を作成するものである。本実施形態における3次元動画作成部39は、3次元オブジェクトモデルに対する視点を任意に設定することで、当該視点に基づく3次元オブジェクトモデルの動画を作成し、3次元動画記憶部24に記憶するようになっている。また、3次元動画作成部39は、3次元オブジェクトモデルにおける所定のジョイントの角度について、フレーム画像の順と同じ時系列で取得し、前記3次元動画記憶部24に記憶するようになっている。
つぎに、本実施形態のモーションキャプチャプログラム1aおよびモーションキャプチャ装置1における各構成の作用について、モーションキャプチャ方法とともに説明する。
本実施形態のモーションキャプチャ方法では、図9に示すように、2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得する(フレーム画像取得ステップS1)。本実施形態では、フレーム画像取得部31が、2次元動画記憶部22に記憶されている複数のフレーム画像を適切な間隔で時系列順に取得する。
そして、取得したフレーム画像内の2次元オブジェクトに対して、3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する(2次元パーツ特定ステップS2)。本実施形態では、2次元パーツ特定部32が、ディープラーニングなどによる画像認識技術等によってフレーム画像のいずれの部分(範囲)が3次元オブジェクトモデルを構成する各パーツのいずれのパーツに相当するかを特定し、その部分の位置座標を取得する。
そして、取得したフレーム画像内の2次元オブジェクトに対して、2次元オブジェクトのジョイントの位置を特定する(2次元ジョイント位置特定ステップS3)。本実施形態では、2次元ジョイント位置特定部33が、ディープラーニングなどによる画像認識技術等によってフレーム画像のいずれの部分がジョイントの位置に相当するかを特定し、その位置の位置座標を取得する。
つぎに、取得されたフレーム画像に対して3次元オブジェクトモデルを整合させる。具体的には、フレーム画像内の前記2次元オブジェクトに整合させる3次元オブジェクトモデルを取得する(モデル取得ステップS4)。本実施形態では、モデル取得部34が、2値化された2次元オブジェクトと3次元オブジェクトモデルの所定の方向からの投影面積との差分値等に基づき、3次元オブジェクトモデル記憶部23に記憶されている複数の3次元オブジェクトモデルから、フレーム画像内の2次元オブジェクトに対する整合に最も適した基本姿勢として設定された3次元オブジェクトモデルを取得する。このように、フレーム画像内の2次元オブジェクトの姿勢に近い3次元オブジェクトモデルを用いることで、整合に係る時間の短縮および整合精度の向上を図ることができる。
なお、以下において、整合前と整合後の3次元オブジェクトモデルの各パーツの変化をわかり易くするため、2次元オブジェクトに対する整合に最も適している3次元オブジェクトモデルが、図10に示すように、直立した姿勢の3次元オブジェクトモデルであった場合を例に説明する。
まずは2次元オブジェクトの大きさに合わせて3次元オブジェクトモデルの縮尺を決定する(縮尺決定ステップS5)。本実施形態では、縮尺決定部35が、2次元パーツ特定部32によって骨盤と特定されたフレーム画像内の所定の部分の位置座標からフレーム画面上における骨盤の大きさを算出し、3次元オブジェクトモデルの骨盤を前記算出された骨盤の大きさに合わせることで縮尺を決定する。
つぎに、2次元オブジェクトに対して、3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる(基準パーツ整合ステップS6)。本実施形態では、図10に示すように、3次元オブジェクトモデルの骨盤を基準パーツとしている。よって、基準パーツ整合部36は、進化的アルゴリズムに基づくAI技術等を用いて、図11に示すように、3次元オブジェクトモデルの骨盤を2次元パーツ特定部32が骨盤として特定した部分に重ね合わせることでその位置および方向を整合させる。骨盤は、画像認識技術等において特定し易く、他のパーツに比べて捻りや傾き等が少ないため、整合に係る時間の短縮を図ることができるとともに整合の精度を向上させることができる。
基準パーツの整合処理が終了すると、その後、2次元オブジェクトの特定された各ジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させる(ジョイント位置整合ステップS7)。本実施形態では、ジョイント位置整合部37が、例えば、2次元ジョイント位置特定部33により特定された膝関節の位置座標に合わせて、基準パーツに連結された大腿の膝関節の位置を整合させる。
そして、2次元オブジェクトの特定された各パーツに対して、基準パーツを整合させた後の3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させる(パーツ整合ステップS8)。本実施形態では、パーツ整合部38が、進化的アルゴリズムに基づくAI技術等を用いて、図12に示すように、基準パーツ整合部36により位置および方向が整合された骨盤に連結されている大腿を、それらを連結する股関節における自由度3の条件下で屈曲させて、前記大腿の位置および方向を整合させる。ここで大腿は、股関節の自由度の条件下で屈曲されるため、実際の関節の動きでは取り得ない姿勢になることはない。
そして、パーツ整合部38が、全てのパーツの整合処理が終了したか否かを判別する(パーツ整合終了判別ステップS9)。ここで、全てのパーツの整合処理が終了していない場合は(S9:NO)、ジョイント位置整合ステップS6に戻って、全てのパーツの整合処理が終了するまで各処理を繰り返す。そして、全てのパーツの整合処理が終了した場合は(S9:YES)、1つのフレーム画像に対する整合処理が終了する。これにより、図13に示すように、取得したフレーム画像の2次元オブジェクトに対する3次元オブジェクトモデルの姿勢が決定する。
つぎに、フレーム画像取得部31が、全てのフレーム画像の整合処理が終了したか否かを判別する(全フレーム整合終了判別ステップS10)。ここで、全てのフレーム画像の整合処理が終了していない場合は(S10:NO)、フレーム画像取得ステップS1に戻って、全てのフレーム画像の整合が終了するまで処理を繰り返す。そして、全てのフレーム画像の整合処理が終了した場合は(S10:YES)、当該2次元動画に対する整合処理を終了する。
2次元動画に対する全てのフレーム画像の整合処理が終了すると、3次元動画作成部39が、各フレーム画像ごとに整合された3次元オブジェクトモデルを時系列に並べることにより表示可能な3次元動画を作成し、3次元動画記憶部24に記憶する(3次元動画作成ステップS11)。例えば、3次元動画の視点をスキー選手の背後から見た状態に設定すれば、図14に示すように、ニュートラル姿勢から左ターンを行い再びニュートラル姿勢から右ターンを行う一連の動作を真後ろから追いかけるような動画として見ることができる。よって、模範的な動作を行う選手の背面から見た3次元動画を作成できれば、そのターン姿勢を参考にしつつ自らの姿勢の良否をチェックすることも可能になり、有用なトレーニングの一つとなり得る。
最後に、3次元動画作成部39が、3次元オブジェクトモデルにおける所定のジョイントの角度について、フレーム画像の順と同じ時系列で取得し、3次元動画記憶部24に記憶する(ジョイント角度取得ステップS12)。例えば、3次元オブジェクトモデルの股関節や膝関節の角度についての時系列データを取得する。これにより選手の全体的な姿勢のみならず、大腿および下腿からなる下肢部分の屈伸にかかる角度変化量や仕事量等を算出することができる。よって、模範的な動作を行う選手の所定のジョイントの角度についての時系列データを取得できれば、当該ジョイントの屈伸に必要とされるスキルの分析が可能となり、当該分析に基づき計画された筋力トレーニングや持久力トレーニング等を実施することで、選手のスキルを効率的にアップさせることができる。
以上のような本実施形態によれば、以下の効果を奏することができる。
1.オブジェクトの動作を撮影した2次元動画を構成する各フレーム画像に対して3次元オブジェクトモデルを重ね合わせることにより、前記オブジェクトの姿勢を特定することができ、これに基づいて前記オブジェクトに関する3次元動画を作成することができる。
2.フレーム画像内の2次元オブジェクトに対して3次元オブジェクトモデルを整合させる際に、各ジョイントがオブジェクトに応じた適切な自由度に設定されているため、3次元オブジェクトモデルが当該オブジェクトにとって実際にはあり得ない姿勢になるのを防ぐことができる。
3.オブジェクトの動作に関する基本姿勢として設定された各種の3次元オブジェクトモデルを備えることにより、フレーム画像内の2次元オブジェクトに対して3次元オブジェクトモデルを整合させる時間を短縮することができる。
4.3次元オブジェクトモデルを整合させる際に使用する基準パーツについて、パーツの特徴やオブジェクトの動作の特徴に合わせて適宜設定することにより、整合時間を短縮し、整合精度も向上させることができる。
1.オブジェクトの動作を撮影した2次元動画を構成する各フレーム画像に対して3次元オブジェクトモデルを重ね合わせることにより、前記オブジェクトの姿勢を特定することができ、これに基づいて前記オブジェクトに関する3次元動画を作成することができる。
2.フレーム画像内の2次元オブジェクトに対して3次元オブジェクトモデルを整合させる際に、各ジョイントがオブジェクトに応じた適切な自由度に設定されているため、3次元オブジェクトモデルが当該オブジェクトにとって実際にはあり得ない姿勢になるのを防ぐことができる。
3.オブジェクトの動作に関する基本姿勢として設定された各種の3次元オブジェクトモデルを備えることにより、フレーム画像内の2次元オブジェクトに対して3次元オブジェクトモデルを整合させる時間を短縮することができる。
4.3次元オブジェクトモデルを整合させる際に使用する基準パーツについて、パーツの特徴やオブジェクトの動作の特徴に合わせて適宜設定することにより、整合時間を短縮し、整合精度も向上させることができる。
なお、本発明に係るモーションキャプチャプログラム、モーションキャプチャ装置およびモーションキャプチャ方法は、前述した実施形態に限定されるものではなく、適宜変更することができる。例えば、本実施形態では、スポーツ分野のスキー競技を対象としているが、本発明の対象はスポーツ分野に限られるものではなく、医療分野およびエンターテイメント分野等を対象としてもよい。
1 モーションキャプチャ装置
1a モーションキャプチャプログラム
2 記憶手段
3 演算処理手段
21 プログラム記憶部
22 2次元動画記憶部
23 3次元オブジェクトモデル記憶部
24 3次元動画記憶部
31 フレーム画像取得部
32 2次元パーツ特定部
33 2次元ジョイント位置特定部
34 モデル取得部
35 縮尺決定部
36 基準パーツ整合部
37 ジョイント位置整合部
38 パーツ整合部
39 3次元動画作成部
1a モーションキャプチャプログラム
2 記憶手段
3 演算処理手段
21 プログラム記憶部
22 2次元動画記憶部
23 3次元オブジェクトモデル記憶部
24 3次元動画記憶部
31 フレーム画像取得部
32 2次元パーツ特定部
33 2次元ジョイント位置特定部
34 モデル取得部
35 縮尺決定部
36 基準パーツ整合部
37 ジョイント位置整合部
38 パーツ整合部
39 3次元動画作成部
Claims (8)
- オブジェクトの動作を撮影した2次元動画に基づいて前記オブジェクトを構成する複数のパーツおよび各パーツ同士を連結するジョイントからなる3次元オブジェクトモデルを使って前記オブジェクトに関する3次元動画を作成するモーションキャプチャプログラムであって、
前記2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するフレーム画像取得部と、
前記フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する2次元パーツ特定部と、
前記2次元オブジェクトのジョイントの位置を特定する2次元ジョイント位置特定部と、
前記2次元オブジェクトの大きさに合わせて前記3次元オブジェクトモデルの縮尺を決定する縮尺決定部と、
前記2次元パーツ特定部により特定された前記2次元オブジェクトの所定のパーツに対して、前記3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる基準パーツ整合部と、
前記2次元ジョイント位置特定部により特定された前記2次元オブジェクトのジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合部と、
前記2次元オブジェクトにおける前記基準パーツに対応するパーツ以外の各パーツに対して、前記基準パーツを整合させた後の前記3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させるパーツ整合部
としてコンピュータを機能させる、前記モーションキャプチャプログラム。 - 前記オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルが記憶されている3次元オブジェクトモデル記憶部から前記フレーム画像内の前記2次元オブジェクトに整合させる3次元オブジェクトモデルを取得するモデル取得部としてコンピュータを機能させる、請求項1に記載のモーションキャプチャプログラム。
- 前記オブジェクトが人物または動物の場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの骨盤を前記基準パーツとして設定されている、請求項1または請求項2に記載のモーションキャプチャプログラム。
- 前記オブジェクトが人物または動物の場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの頭部を前記基準パーツとして設定されている、請求項1または請求項2に記載のモーションキャプチャプログラム。
- 前記オブジェクトが用具を装着している場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの前記用具を基準パーツとして設定されている、請求項1または請求項2に記載のモーションキャプチャプログラム。
- 前記オブジェクトが用具を装着している場合、前記縮尺決定部では、前記用具の大きさに合わせて縮尺を決定する、請求項1から請求項5のいずれかに記載のモーションキャプチャプログラム。
- オブジェクトの動作を撮影した2次元動画に基づいて、前記オブジェクトを構成する複数のパーツおよび各パーツ同士を連結するジョイントからなる3次元オブジェクトモデルを使って前記オブジェクトに関する3次元動画を作成するモーションキャプチャ方法であって、
前記2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するフレーム画像取得ステップと、
前記フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する2次元パーツ特定ステップと、
前記2次元オブジェクトのジョイントの位置を特定する2次元ジョイント位置特定ステップと、
前記2次元オブジェクトの大きさに合わせて前記3次元オブジェクトモデルの縮尺を決定する縮尺決定ステップと、
前記2次元パーツ特定ステップにより特定された前記2次元オブジェクトの所定のパーツに対して、前記3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる基準パーツ整合ステップと、
前記2次元ジョイント位置特定ステップにより特定された前記2次元オブジェクトのジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合ステップと、
前記2次元オブジェクトにおける前記基準パーツに対応するパーツ以外の各パーツに対して、前記基準パーツを整合させた後の前記3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させるパーツ整合ステップと
を有する、前記モーションキャプチャ方法 - オブジェクトの動作を撮影した2次元動画に基づいて前記オブジェクトを構成する複数のパーツおよび各パーツ同士を連結するジョイントからなる3次元オブジェクトモデルを使って前記オブジェクトに関する3次元動画を作成するモーションキャプチャ装置であって、
前記2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するフレーム画像取得部と、
前記フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する2次元パーツ特定部と、
前記2次元オブジェクトのジョイントの位置を特定する2次元ジョイント位置特定部と、
前記2次元オブジェクトの大きさに合わせて前記3次元オブジェクトモデルの縮尺を決定する縮尺決定部と、
前記2次元パーツ特定部により特定された前記2次元オブジェクトの所定のパーツに対して、前記3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる基準パーツ整合部と、
前記2次元ジョイント位置特定部により特定された前記2次元オブジェクトのジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合部と、
前記2次元オブジェクトにおける前記基準パーツに対応するパーツ以外の各パーツに対して、前記基準パーツを整合させた後の前記3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させるパーツ整合部と
を有する、前記モーションキャプチャ装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017095520 | 2017-05-12 | ||
JP2017095520 | 2017-05-12 | ||
PCT/JP2017/040810 WO2018207388A1 (ja) | 2017-05-12 | 2017-11-13 | モーションキャプチャに関するプログラム、装置および方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2018207388A1 true JPWO2018207388A1 (ja) | 2020-03-12 |
Family
ID=64105172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019516884A Pending JPWO2018207388A1 (ja) | 2017-05-12 | 2017-11-13 | モーションキャプチャに関するプログラム、装置および方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2018207388A1 (ja) |
WO (1) | WO2018207388A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460871B (zh) | 2019-01-18 | 2023-12-22 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、存储介质 |
JP2022501732A (ja) * | 2019-01-18 | 2022-01-06 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co., Ltd. | 画像処理方法及び装置、画像デバイス並びに記憶媒体 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4077622B2 (ja) * | 2001-11-15 | 2008-04-16 | 独立行政法人科学技術振興機構 | 3次元人物動画像生成システム |
JP2015102913A (ja) * | 2013-11-21 | 2015-06-04 | キヤノン株式会社 | 姿勢推定装置及び姿勢推定方法 |
-
2017
- 2017-11-13 WO PCT/JP2017/040810 patent/WO2018207388A1/ja active Application Filing
- 2017-11-13 JP JP2019516884A patent/JPWO2018207388A1/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2018207388A1 (ja) | 2018-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6703199B2 (ja) | 動作状態評価システム、動作状態評価装置、動作状態評価サーバ、動作状態評価方法、および動作状態評価プログラム | |
US8175326B2 (en) | Automated scoring system for athletics | |
US8565476B2 (en) | Visual target tracking | |
JP6143469B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111093782A (zh) | 评分方法、评分程序以及评分装置 | |
JP6369811B2 (ja) | 歩行解析システムおよび歩行解析プログラム | |
US20100197395A1 (en) | Visual target tracking | |
KR101931784B1 (ko) | 복수의 사용자 대결 구도의 가상 피트니스 시스템 | |
US8565477B2 (en) | Visual target tracking | |
CN111514584B (zh) | 游戏控制方法及装置、游戏终端及存储介质 | |
US20220165012A1 (en) | Personalized avatar for movement analysis and coaching | |
KR100452917B1 (ko) | 색 마커를 이용한 3차원 신체 동작 인식방법 및 시스템 | |
JP7008342B2 (ja) | 運動評価システム | |
CN111480178A (zh) | 技巧识别程序、技巧识别方法以及技巧识别系统 | |
CN110404243A (zh) | 一种基于体态测量的康复方法及康复系统 | |
JP6796197B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN108211318A (zh) | 基于多方感知的竞走运动姿态分析方法 | |
JPWO2018207388A1 (ja) | モーションキャプチャに関するプログラム、装置および方法 | |
Kaichi et al. | Estimation of center of mass for sports scene using weighted visual hull | |
JP7103998B2 (ja) | 骨格抽出方法、装置およびプログラム | |
JP6993866B2 (ja) | ゴルフスイング評価システムおよびゴルフスイング評価方法 | |
WO2021039642A1 (ja) | 3次元再構成装置、方法及びプログラム | |
KR102400638B1 (ko) | 실시간 골프 스윙 동작 분석 장치 및 그 방법 | |
JP7442258B2 (ja) | 評価方法および評価システム | |
JP7017921B2 (ja) | ゴルフスイング評価システムおよびゴルフスイング評価方法 |