JP2015011480A - 画像生成装置、画像生成方法及びプログラム - Google Patents
画像生成装置、画像生成方法及びプログラム Download PDFInfo
- Publication number
- JP2015011480A JP2015011480A JP2013135615A JP2013135615A JP2015011480A JP 2015011480 A JP2015011480 A JP 2015011480A JP 2013135615 A JP2013135615 A JP 2013135615A JP 2013135615 A JP2013135615 A JP 2013135615A JP 2015011480 A JP2015011480 A JP 2015011480A
- Authority
- JP
- Japan
- Prior art keywords
- skeleton
- index
- animation data
- input
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Abstract
Description
そこで、本発明は、上述のような状況に鑑みてなされたものであり、取得されたアニメーションデータを容易にユーザの所望の動きに対応させたものにすることを目的とする。
複数のアニメーションデータを取得するデータ取得手段と、
アニメーションデータの運動に関する指標の値を入力する入力手段と、
前記データ取得手段により取得された複数のアニメーションデータを用いて、前記入力手段によって入力された指標の値に応じたアニメーションデータを生成する第1の生成手段と、
を備えることを特徴とする。
これにより、動作を測定して得られたスケルトン(アニメーション)を所望の動きに変更することが可能となる。
また、軸パラメータは、複数のスケルトンに基づき取得されたものである。そのため、軸パラメータに従って動作を変更することにより、標準のスケルトンの動きの変化が、人間の動きに基づくものとなり、より適切な動きの変化を実現することが可能となる。
さらに、標準のスケルトン動作を変更した場合の変更部分をユーザにわかりやすく提示することができる。
図1において、画像生成システム1は、画像生成装置100と、端末装置200とを含み、画像生成装置100と端末装置200とは、インターネット等のネットワーク300を介して通信可能に構成されている。
画像生成装置100は、例えばサーバによって構成される。
出力部117は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部118は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、スケルトンのデータや運動に関する指標の指標値あるいは軸パラメータ等のデータを記憶する。
通信部119は、インターネットを含むネットワークを介して他の装置との間で行う通信を制御する。
端末装置200は、例えばスマートフォンと呼ばれる携帯端末によって構成される。
図3において、端末装置200は、CPU211と、ROM212と、RAM213と、バス214と、入出力インターフェース215と、撮像部216と、入力部217と、出力部218と、記憶部219と、通信部220と、ドライブ221と、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部216の出力信号(撮像画像のデータ)として出力される。
出力部218は、ディスプレイや、スピーカ及びD/A変換回路等を有しており、画像や音声を出力する。
記憶部219は、ハードディスクあるいはDRAM等で構成され、各種画像のデータ及び属性を格納した画像データベース等を記憶する。
通信部220は、インターネットを含むネットワークを介して、他の装置との間で行う通信を制御する。
図4は、画像生成装置100の機能的構成のうち、事前準備処理を実行するための機能的構成を示す機能ブロック図である。
事前準備処理とは、モーションキャプチャによって得られるモーションキャプチャデータから標準のスケルトン(以下、「標準スケルトン」と呼ぶ。)を取得し、標準スケルトンに対して、運動に関する軸パラメータを設定する一連の処理である。
なお、以下、ランニングを行う人物のアニメーションデータを対象とする場合を例に挙げて説明する。
なお、正規化スケルトン取得部151、標準スケルトン取得部152、指標関連付け処理部153及び軸パラメータ決定部154の機能の一部をGA(Graphic Accelerator)等の画像処理を行う機能部に移譲してもよい。
スケルトンとは、一般に、動物や人間の全体的骨格を指すもので、スケルトンそのもので動作を表現したり、コンピュータグラフィックにてバインドしたモデルをアニメートするために用いられたりする。階層構造を持ち、可動部であるジョイント(関節)と、剛体であるボーンから構成される。
図5において、スケルトンSは、基準となるルートジョイントJ201、ボーンB201a、ジョイントJ202、ボーンB202a、ジョイントJ203の順に連結された構成を有している。
また、ボーンの長さは剛体であるので時間変化はせず定数となる。上述の座標変換情報は、関節からボーンが伸びていく回転方向を意味している。なお、以下、全ジョイントという場合、ルートジョイントとジョイントとを含むものとする。
図6は、端末装置200の機能的構成のうち、スケルトン描画処理を実行するための機能的構成を示す機能ブロック図である。
スケルトン描画処理とは、入力された指標値に応じて、動きの度合いを変化させたスケルトン動作(合成スケルトン動作)を生成し、生成した合成スケルトン動作を描画する一連の処理である。
なお、指標値取得部251、合成スケルトン生成部252及び描画処理部253の機能の一部をGA(Graphic Accelerator)等の画像処理を行う機能部に移譲してもよい。
指標値取得部251は、ユーザインターフェースの画面において、ユーザによって入力された指標値(変更後の指標値)を取得する。例えば、ユーザインターフェースの画面において、標準スケルトン動作のキック力の指標値が「25」であるときに、ユーザによって最大キック加速度の指標値として「40」が入力されると、指標値取得部251は、変更後の最大キック加速度の指標値として「40」を取得する。
次に、動作を説明する。
[事前準備処理]
図7は、図4の機能的構成を有する図2の画像生成装置100が実行する事前準備処理の流れの一例を説明するフローチャートである。
事前準備処理は、端末装置200等を介して事前準備処理の起動が入力されることに対応して開始される。
ステップS102において、標準スケルトン取得部152は、標準スケルトン取得処理(後述)を実行する。
ステップS103において、指標関連付け処理部153は、指標関連付け処理(後述)を実行する。
ステップS104において、軸パラメータ決定部154は、軸パラメータ決定処理(後述)を実行する。
全ての指標について軸パラメータ決定処理が完了していない場合、ステップS105においてNOと判定され、処理はステップS104に戻る。
これに対し、全ての指標について軸パラメータ決定処理が完了した場合、ステップS105においてYESと判定されて、事前準備処理は終了する。
次に、事前準備処理のステップS101において実行される正規化スケルトン取得処理について説明する。
図8は、事前準備処理のうち正規化スケルトン取得処理の流れの一例を説明するフローチャートである。
正規化スケルトン取得処理が開始されると、ステップS201において、正規化スケルトン取得部151は、光学式モーションキャプチャ装置及びフォースプレート装置によって測定されたモーションキャプチャデータ及び地面反力のデータ(ランニング時の動作のデータ)を取得する。
ここで、マーカは、動作の測定対象となる人物において、スケルトンを構築するためのジョイント部位が推定できる位置に装着される。つまり、モーションキャプチャにより、スケルトンのジョイント位置が追跡可能となる。
一例として、フォースプレート装置は、地面に埋め込まれ、測定対象の人物がその上を走ることにより、地面反力(地面が測定対象に与える力)の情報を取得する。地面反力より、測定対象から地面への鉛直方向に向かうキック力と、進行方向への推進力を得ることができる。
地面反力は力であるため、ニュートンの運動の法則に従い、以下の(1)式から導き出すことができる。
F=m×a (1)
ここで、「F」は力、「m」は質量、「a」は加速度を示す。「F」は、質量に依存するので、測定対象の人物の体重に依存する。そのため、地面反力を力ではなく加速度として取り扱うことにより測定対象の人物の体重に依存しない指標となる。
ステップS202において、正規化スケルトン取得部151は、スケルトン動作を取得する。具体的には、正規化スケルトン取得部151は、モーションキャプチャ装置から取得したモーションキャプチャデータからスケルトン動作を生成する。正規化スケルトン取得部151は、モーションキャプチャデータからスケルトンのジョイント位置を推定し、ジョイント間をボーンとする。ただし、このようにボーンを決定した場合、ボーンが厳密には剛体とならず伸縮することがあるため、正規化スケルトン取得部151は、ボーンが剛体となるように制約をかけながら、推定したジョイント位置をできるだけ満足させるよう、全体最適化を行ってスケルトン動作を生成する。
具体的には、正規化スケルトン取得部151は、ランニングフォームの周期性に従ってスケルトン動作の正規化を行う。本実施形態においては、右足の膝が左足の膝を追い越すポイントでスケルトン動作の動画像を切り出し、切り出したフレーム数を合わせるために、全て同一のフレーム数(例えば100フレーム)となるように補間することで、正規化を行う。補間が行われる場合、ルートジョイントの位置情報と、ルートジョイント及びジョイントが持つ角度情報を対象としてデータの補間が施される。
ステップS204において、正規化スケルトン取得部151は、スケルトン動作の正規化がN試技分行われたか否かの判定を行う。
スケルトン動作の正規化がN試技分行われていない場合、ステップS204においてNOと判定されて、処理はステップS201に戻る。
これに対し、スケルトン動作の正規化がN試技分行われた場合、ステップS204においてYESと判定されて、処理は事前準備処理に戻る。
次に、事前準備処理のステップS102において実行される標準スケルトン取得処理について説明する。
図9は、事前準備処理のうち標準スケルトン取得処理の流れの一例を説明するフローチャートである。
標準スケルトン取得処理が開始されると、ステップS301において、標準スケルトン取得部152は、全ジョイントの処理が終了しているか否かを判断する。即ち、標準スケルトン取得部152は、全ジョイント(ルートジョイント及び各ジョイント)ごとに、全てのフレームをそれぞれ処理したか否かの判定を行う。
これに対し、全ジョイントごとに、全てのフレームをそれぞれ処理し終えていない場合、ステップS301においてNOと判定されて、処理はステップS302に移行する。
ステップS302において、標準スケルトン取得部152は、全試技のジョイントのパラメータを取得する。
例えば、ルートジョイントの場合には、該当フレームの全試技の位置座標の平均を求め、標準スケルトン動作の該当フレームの位置座標とされる。
また、クォータニオンで示される角度情報であれば、以下の(2)式に従って算出される。即ち、q1,q2,q3,q4,q5の5つのクォータニオンの平均の場合には、
Qmean=exp((1/5)×(ln(q1)+ln(q2)+ln(q3)+ln(q4)+ln(q5)) (2)
として算出される。
ここで、「exp」は底がネイピア数である指数関数を表し、「ln」は自然対数を表す。
このように、対数クォータニオンに変換することで、標準スケルトン動作のための平均値を取得することができる。
全フレームを処理した場合、ステップS304においてYESと判定されて、処理は事前準備処理に戻る。
これに対し、全フレームを処理していない場合、ステップS304においてNOと判定されて、処理はステップS302に戻る。
次に、事前準備処理のステップS103において実行される指標関連付け処理について説明する。
図10は、事前準備処理のうち指標関連付け処理の流れの一例を説明するフローチャートである。
指標関連付け処理が開始されると、ステップS401において、指標関連付け処理部153は、全てのスケルトン動作の処理(即ち、正規化スケルトン動作の全てについての標準スケルトン動作を生成するための処理)が終了しているか否かの判定を行う。
これに対し、全てのスケルトン動作の処理が終了していない場合、ステップS401においてNOと判定されて、処理はステップS402に進む。
ステップS402において、指標関連付け処理部153は、運動に関する指標全ての処理が終了しているか否かの判定を行う。
運動に関する指標全ての処理が終了している場合、ステップS402においてYESと判定されて、処理はステップS401に戻る。
これに対し、運動に関する指標全ての処理が終了していない場合、ステップS402においてNOと判定されて、処理はステップS403に進む。
最大キック加速度は、フォースプレート装置によって取得された地面反力の鉛直方向の成分における最大値として取得される。そして、1周期の動作において、最大値に対応するフレームの正規化スケルトン動作に対して、最大キック加速度を表す指標値が関連づけられる。標準スケルトン動作については、標準スケルトン動作の生成時に用いた正規化スケルトン動作の最大キック加速度の平均が、標準スケルトン動作の最大キック加速度を表す指標値とされる。
ステップS404の後、処理はステップS402に戻る。
次に、事前準備処理のステップS104において実行される軸パラメータ決定処理について説明する。
図11は、事前準備処理のうち軸パラメータ決定処理の流れの一例を説明するフローチャートである。
軸パラメータ決定処理が開始されると、ステップS501において、軸パラメータ決定部154は、運動に関する指標全ての処理が終了しているか否かの判定を行う。
運動に関する指標全ての処理が終了している場合、ステップS501においてYESと判定され、処理は事前準備処理に戻る。
運動に関する指標全ての処理が終了してはいない場合、ステップS501においてNOと判定され、処理はステップS502に進む。
ステップS503において、軸パラメータ決定部154は、変数Loopを0にセット(Loop=0)する。
ステップS504において、軸パラメータ決定部154は、取得した正規化スケルトン動作の平均スケルトン動作(即ち、上位側特徴スケルトン動作の平均値)を算出する。
ステップS505において、軸パラメータ決定部154は、1ずつインクリメントされる変数Loopが3未満(Loop++<3)であるか否かの判定を行う。
これに対し、変数Loopが3未満である場合、ステップS505においてYESと判定されて、処理はステップS506に進む。
ステップS506において、軸パラメータ決定部154は、選択したスケルトン動作と、平均スケルトン動作とのユークリッド距離を算出する。即ち、軸パラメータ決定部154は、標準スケルトン動作の生成時と同様に上位側特徴スケルトン動作の平均値を算出し、上位側の平均スケルトン動作を生成する。そして、軸パラメータ決定部154は、生成した上位側の平均スケルトン動作を、位置空間に展開する。つまり、軸パラメータ決定部154は、全フレームで持つ変数と定数(ルートジョイントの位置及び角度情報、ボーン長、各ジョイントでの角度情報)から、空間位置座標となるルートジョイント位置とジョイント位置に変換する。そして、軸パラメータ決定部154は、生成した上位側の平均スケルトン動作と、上位側の平均スケルトン動作の生成に用いたそれぞれの正規化スケルトン動作との間で、全てのフレームで積算した空間位置誤差(ユークリッド誤差)を求める。求められたユークリッド誤差がユークリッド距離となる。
ステップS508において、軸パラメータ決定部154は、上位側の特徴スケルトン動作を算出する。即ち、軸パラメータ決定部154は、生成した上位側の平均スケルトン動作を、最大キック加速度が大きいスケルトン動作の代表とし、最大キック加速度に関する上位側特徴スケルトン動作とする。また、軸パラメータ決定部154は、上位側特徴スケルトン動作に対応する上位側最大キック加速度指標を求める。上位側最大キック加速度指標値は、上位側特徴スケルトン動作の生成に用いた正規化スケルトン動作の最大キック加速度指標値の平均とする。
ステップS510において、軸パラメータ決定部154は、全ての正規化スケルトン動作の中から、最大キック加速度が小さい下位20%の正規化スケルトン動作を取得する。但し、標準スケルトンの最大キック加速度より大きいものが含まれていたらこれを除外する。
ステップS511において、軸パラメータ決定部154は、変数Loopを0にセット(Loop=0)する。
ステップS512において、軸パラメータ決定部154は、取得した正規化スケルトン動作の平均スケルトン動作(即ち、下位側特徴スケルトン動作の平均値)を算出する。
変数Loopが3未満でない場合、ステップS513においてNOと判定されて、処理はステップS516に進む。
これに対し、変数Loopが3未満である場合、ステップS513においてYESと判定されて、処理はステップS514に進む。
ステップS516において、軸パラメータ決定部154は、下位側の特徴スケルトン動作を算出する。即ち、軸パラメータ決定部154は、求めた下位側の平均スケルトン動作を、最大キック加速度が小さいスケルトン動作の代表とし、最大キック加速度に関する下位側特徴スケルトン動作とする。また、軸パラメータ決定部154は、下位側特徴スケルトン動作に対応する下位側最大キック加速度指標を求める。下位側最大キック加速度指標値は、下位側特徴スケルトン動作の生成に用いた正規化スケルトン動作の最大キック加速度指標値の平均とする。
ステップS518において、軸パラメータ決定部154は、最大キック加速度の軸パラメータとして、標準スケルトン動作の最大キック加速度を表す指標値、最大キック加速度の上位側特徴スケルトン動作、最大キック加速度の上位の基準値、最大キック加速度の下位側特徴スケルトン動作、最大キック加速度の下位の基準値を記憶部118に記憶させる。
ステップS518の後、処理はステップS501に戻る。
ステップS507、ステップS515にて、位置空間による評価を行ったが、全ジョイントの回転量そのものの偏差で評価を行っても良い。
図12は、図5の機能的構成を有する図3の端末装置200が実行するスケルトン描画処理の流れの一例を説明するフローチャートである。
スケルトン描画処理は、入力部217を介してスケルトン描画処理の起動が入力されることに対応して開始される。
スケルトン描画処理が開始されると、ステップS601において、描画処理部253は、フレーム変数の初期化(FrameNo=0)を行う。
ステップS602において、指標値取得部251は、入力された各運動に関する指標値を取得する。例えば、ユーザインターフェースにおいて、スライドバーによって運動指標が与えられるとすると、指標値取得部251は、スライドバーが示す値を取得する。
ステップS604において、描画処理部253は、合成スケルトンを描画するように出力部218を制御する。合成スケルトンの描画では、合成スケルトンが進行方向に動かないように、ルートジョイントの進行方向位置座標は固定される。
描画するフレームが最大フレーム番号より小さくない場合、ステップS605においてNOと判定されて、処理はステップS607に進む。
ステップS607において、描画処理部253は、フレーム番号をリセットする(FrameNo=0)。
その後、処理はステップS608に進む。
これに対し、描画するフレームが最大フレーム番号より小さい場合、ステップS605においてYESと判定されて、処理はステップS606に進む。
ステップS608において、描画処理部253は、描画タイミングを調整するか否かの判定を行う。即ち、運動に関する指標値が変更されることにより、フレームの補間や削除等の必要が生じ、フレームの描画タイミングが調整されるか否かが判定される。
描画タイミングを調整する場合、ステップS608の処理が繰り返される。
これに対し、描画タイミングを調整しない場合、ステップS608においてNOと判定されて、処理はステップS609に進む。
終了操作されていない場合、ステップS609においてNOと判定されて、処理はステップS602に戻る。
これに対し、終了操作された場合、ステップS609においてYESと判定されて、スケルトン描画処理は終了する。
図13に示すように、表示画面の左側に運動に関する指標として、平均前後体軸及び最大キック加速度を示すスライドバー及び現在の設定値(平均前後体軸5.0[deg]、最大キック加速度25[m/s2])が表示されている。また、表示画面の右側に合成スケルトンSK401が表示されている。
図13に示す表示画面例において、運動に関する指標、即ち、平均前後体軸及び最大キック加速度それぞれについて、スライドバーによって指標値を変化させることができる。
次に、スケルトン描画処理のステップS603において実行される合成スケルトン生成処理について説明する。
図14は、スケルトン描画処理のうち合成スケルトン生成処理の流れの一例を説明するフローチャートである。
なお、本実施形態では、最大キック加速度を表す指標値が変更される場合を例に挙げて説明を行う。
合成スケルトン生成処理が開始されると、ステップS701において、合成スケルトン生成部252は、全ての運動に関する指標の処理が終了したか否かの判定を行う。
これに対し、全ての運動に関する指標の処理が終了していない場合、ステップS701においてNOと判定されて、処理はステップS702に進む。
ステップS702において、合成スケルトン生成部252は、入力された各運動に関する指標値及び最大キック加速度の軸パラメータ(軸パラメータ決定処理のステップS518で取得された標準スケルトン動作の最大キック加速度を表す指標値、最大キック加速度の上位側特徴スケルトン動作、最大キック加速度の上位の基準値、最大キック加速度の下位側特徴スケルトン動作、最大キック加速度の下位の基準値)を取得する。
例えば、Sbase=標準スケルトン動作(フレーム番号FrameNoのフレーム)、Dbase=標準スケルトン動作の最大キック加速度の指標値「25」、Din=入力された最大キック加速度の指標値「40」とする。
ステップS704において、合成スケルトン生成部252は、標準スケルトン動作の運動に関する指標値より入力された最大キック加速度の指標値の方が大きい(Dbase<Din)か否かの判定を行う。
標準スケルトン動作の運動に関する指標値より入力された最大キック加速度の指標値が大きい場合、ステップS704においてYESと判定されて、処理はステップS705に進む。
例えば、Ss=軸パラメータの上位側特徴スケルトン動作(フレーム番号FrameNoのフレーム)、Ds=軸パラメータの上位の基準値「35」を設定する。
その後、処理はステップS707に進む。
これに対し、標準スケルトン動作の運動に関する指標値より入力された最大キック加速度の指標値が小さい場合、ステップS704においてNOと判定されて、処理はステップS706に進む。
例えば、Ss=軸パラメータの上位側特徴スケルトン動作(フレーム番号FrameNoのフレーム)、Ds=軸パラメータの下位の基準値「10」を設定する。
ステップS707において、合成スケルトン生成部252は、比率r=(Din−Dbase)/(Ds−Dbase)を算出する。
ステップS708において、合成スケルトン生成部252は、比率rに対応する特徴スケルトン(変更後のスケルトン)を求める。ルートジョイントの位置座標については、XYZ軸それぞれで独立に、例えばX座標では、以下の(3)式に従って算出される。
X’=x_base+r×(x_s−x_base) (3)
また、クォータニオンで示された角度情報についても同様に下記の補間式で変更後の値を求めることができる。
q’=q_base×(inv(q_base)×q_s)r
ここで、「q_base」は、標準スケルトンのクォータニオンを示し、「q_s」は、上位側特徴スケルトン動作Ssのクォータニオンを示し、「inv( )」は逆関数を示す。
その後、処理はステップS701に戻る。
ステップS709において、合成スケルトン生成部252は、全ての運動に関する指標の特徴スケルトンの平均を取り、合成スケルトンとする。
その後、処理はスケルトン描画処理に戻る。
図15に示すように、スケルトン空間の変数は、ルートジョイントの位置座標、ルートジョイント及びジョイントの角度情報からなる次元により構成される。
なお、ここでは説明を簡単にするため、角度情報がθ1、θ2の2次元からなるものとする。
所望のフレームにおいて、標準スケルトン動作がSK301、上位側特徴スケルトン動作がSK302、下位側特徴スケルトン動作がSK303であるものとする。標準スケルトン動作SK301から上位側特徴スケルトン動作SK302に向けた軸312上に、変更後の特徴スケルトンSK304が設定されることになる。特徴スケルトンSK304は、時刻ごとに異なり、つまりフレームが異なれば、それぞれのスケルトン動作の変数も異なるので特徴スケルトンSK304も異なる。
軸312は、標準スケルトン動作SK301から上位側特徴スケルトン動作を見たときの補間軸である。また、軸313は、標準スケルトン動作SK301から下位側特徴スケルトン動作SK303を見たときの補間軸である。つまり、特定の運動に関する指標について、比率rが種々変化された場合、特徴スケルトンSK304は、軸312もしくは軸313上に設定される。
なお、図17(a)には、スケルトン空間に、標準スケルトン動作SK301が設定された状態が示され、図17(b)には、異なる運動に関する指標値に応じた特徴スケルトンSK324、SK334が示されている。また、図17(c)には、合成スケルトンSK340が示されている。
図17(a)に示す軸322,323及び軸332,333は、それぞれ異なる運動に関する指標に応じた補間軸であり、これらの運動に関する指標における比率rがそれぞれ入力されると、図17(b)における特徴スケルトンSK324,SK334が設定される。
なお、上述の説明では、1つの運動に関する指標について、上位側特徴スケルトン動作及び下位側特徴スケルトン動作の2つの補間方向を設定し、それぞれ1つのスケルトン動作で線形な軸を設定した。しかしながら複数のスケルトン動作を設定し、軸を直線でなく折れ線で設定した場合でも同様のアルゴリズムで合成スケルトンを設定できる。より折れ数が多い軸を設定した方が、より複雑な動作に適切に対応することができる。
次に、端末装置200の描画処理部253が合成スケルトンを描画する際の具体的形態について説明する。
図18は、図5の機能的構成を有する図3の端末装置200が実行する第1矢印描画処理の流れを説明するフローチャートである。
第1矢印描画処理とは、スケルトンの変更状態を可視化するために表示する矢印を生成する処理である。
第1矢印描画処理は、スケルトンが繰り返し描画されている状態(図19参照)で、例えば、ユーザインターフェースにおける最大キック加速度のラベルをクリック操作し、最大キック加速度の指標値を選択する操作が行われることにより開始される。なお、このとき、描画対象のフレーム番号(FrameNo)及び最大キック加速度の指標値を引数として、第1矢印描画処理が呼び出される。
ステップS802において、描画処理部253は、算出されたスケルトン空間姿勢(合成スケルトンの空間位置座標)において、右足首、左足首、胸、右手首、左手首のジョイントを検索ジョイントとする。
ステップS804において、描画処理部253は、差分量が大きい2つのジョイントを選択する。
ステップS805において、描画処理部253は、差分量を「矢印の長さ」とし、ベクトルの向きを「矢印の向き」とする矢印を生成する。具体的には、描画処理部253は、例えば、一番大きいジョイントが左足首のジョイント、次に大きいジョイントが右足首のジョイントである場合には、差分量を矢印の長さ(あるいは大きさ)で、差分方向を矢印の向きとして、それぞれのジョイントに矢印を描画する。
ステップS807において、描画処理部253は、生成した矢印を対応するジョイント上に描画するように出力部218を制御する。
その後、第1矢印描画処理は終了する。
図20においては、図19の表示画面例に対して、合成スケルトンが側面視された状態に変更され、左足首のジョイントにおける矢印A441及び右足首のジョイントにおける矢印A442が正面視される状態となっている。なお、図20においては、選択された運動に関する指標(最大キック加速度)のスライドバー及び現在の設定値の領域が矩形のカーソルで囲まれている。
また、フレームごとに運動に関する指標値が変化することから、図20のような表示画面例は、時刻と共に変化することとなる。
図21に示す表示画面例では、右足首のジョイント及び胸部のジョイントに矢印A442、A443が表示されている。
このようなスケルトンの状態では、最大キック加速度の指標値が変化しても左足首のジョイントの位置変化が小さいため、図21に示すフレームでは、最大キック加速度のスライドバーを操作しても、左足首のジョイントには矢印が表示されない。
図22は、図5の機能構成を有する図3の端末装置200が実行する第2矢印描画処理の流れを説明するフローチャートである。
第2矢印描画処理とは、運動に関する指標値を選択する操作が行われた場合に、その指標をさらに変更した場合におけるスケルトンの部位の変化の方向を示す矢印を描画する処理である。
第2矢印描画処理は、スケルトンが繰り返し描画されている状態(図23参照)で、例えば、ユーザインターフェースにおける最大キック加速度のラベルをクリック操作し、最大キック加速度の指標値を選択する操作が行われることにより開始される。
ステップS902において、描画処理部253は、さらに同じ方向に指標値が変化した場合の合成スケルトンの空間位置座標P2を算出する。
ステップS903において、描画処理部253は、右足首、左足首、胸、右手首、左手首のジョイントを検索ジョイントとする。
ステップS905において、描画処理部253は、差分量が最も大きいジョイントを選択する。
その後、第2矢印描画処理は終了する。
図24においては、図23における指標値の変更前のスケルトンSK441が破線で描画され、指標値の変更後のスケルトンSK442が実線で描画されている。さらに、スケルトンSK442の右足首のジョイント近傍には、指標値がさらに変更された場合に右足首が変化する方向を示す矢印A443が表示されている。
なお、図24に示す表示画面例において、指標値の変更前のスケルトンSK441は、描画しないこととしてもよい。矢印443及び指標値の変更前スケルトンSK441は、指標値を変更する操作の後、予め設定された時間後に消滅する。
図25は、図5の機能構成を有する図3の端末装置200が実行する対応指標報知処理の流れを説明するフローチャートである。
対応指標報知処理は、スケルトンマニュアル操作モード(スケルトンに対するユーザの操作を受け付けるモード)が選択されることに対応して開始される。
ステップS1002において、描画処理部253は、移動可能なジョイントを大きい円で描画する(図26参照)。
ステップS1003において、描画処理部253は、終了操作に対する割り込み設定、及び、ジョイントの移動操作に対する割り込み設定を行う。即ち、終了操作を示す割り込み信号及びジョイントの移動操作を示す割り込み信号を受け付ける状態に設定される。
ステップS1003の後、描画処理部253は、待機モードに移行する。
図26に示す表示画面例において、ユーザが、画面上の移動可能なジョイントを動かした場合(例えば、図26中の矢印A463の方向にジョイントJ462が移動された場合)、ジョイントの移動操作を示す割り込み信号が発生し、ジョイント移動割り込み処理が実行される。
ジョイント割り込み移動処理が開始されると、ステップS1011において、描画処理部253は、移動されたジョイントの位置に対応する新たなスケルトンN1を生成する。なお、移動可能なジョイントであっても、自由な移動をさせることはできず、ボーンが剛体であるという制約の下、移動操作が許容される。
ステップS1012において、描画処理部253は、新たなスケルトンN1を描画する。
ステップS1013において、描画処理部253は、次の操作のため、移動されたジョイントの部位を描画する。
ステップS1015において、描画処理部253は、検索された正規化スケルトン動作が有する指標値に対応させて、表示画面のスライドバーを移動させる。
図26において、右足首のジョイントJ462が、矢印A463の方向に移動された場合に、移動後のスケルトンに応じた指標値が表示されている。
ステップS1015の後、描画処理部253は、再び待機モードに移行する。
また、対応指標報知処理及びジョイント割り込み移動処理で待機モードとなっている場合に、終了操作が行われると、当該終了操作を示す割り込み信号が発生し、終了割り込み処理が実行される。
終了割り込み処理が開始されると、ステップS1021において、対応指標報知処理の終了のための準備(必要なパラメータの記憶、設定のリセット等)を実行する。
ステップS1021の後、終了割り込み処理は終了となる。また、これにより、対応指標報知処理も終了となる。
これにより、複数の個人の動きを統合した標準スケルトン動作から、特定の個人の動きを反映させた合成スケルトン動作を生成することができる。
この場合、サービスの提供者が標準スケルトン動作のデータを提供し、サービスを利用するユーザそれぞれが、ユーザ自身の動きを反映させた合成スケルトン動作を生成するといった形態を実現できる。
画像生成装置100は、アニメーション取得部150を備え、アニメーション取得部150は、複数のアニメーションデータを取得する。
端末装置200は、指標値取得部251と、合成スケルトン生成部252と、描画処理部253とを備えている。
指標値取得部251は、アニメーションデータの運動に関する指標の値を入力し、合成スケルトン生成部252は、アニメーション取得部150により取得された複数のアニメーションデータを用いて、指標値取得部251によって入力された指標の値に応じたアニメーションデータ(合成スケルトン動作のデータ)を生成する。
したがって、動作を測定して得られたアニメーションデータ(スケルトンのデータ)を所望の動きに変更することが可能となる。
したがって、アニメーションデータにおいて、複数の運動に関する指標を関連付け、これらの指標それぞれを変更させることができるため、より複雑な動きの変更を実現することが可能となる。
したがって、動作を測定して得られた複数のアニメーションデータに基づき設定した基準値に基づいて、運動に関する指標を変更したアニメーションデータを生成することができるため、指標を変更した場合の動きの変化が、測定された動作に基づくものとなり、より適切な動きの変化を実現することが可能となる。
したがって、視覚的にわかりやすい形態で、運動に関する指標の値を入力することができる。
したがって、運動に関する指標の変更によるアニメーションの変化部分をわかりやすく表示することができる。
したがって、運動に関する指標を変化させた場合に影響の生じる部分をわかりやすく表示することができる。
したがって、アニメーションに対する直接的な操作に応じて、運動に関する指標を変更することができるため、アニメーションデータに対する変更を行う場合の操作性を高めることができる。
上述の実施形態において、運動に関する指標値の入力は、アプリケーションによって生成される表示画面内のスライドバーによって行うこととした。
これに対し、リアルタイムな運動によって運動に関する指標値を入力し、スケルトン動作を表示することとしてもよい。
具体的には、ユーザの靴に加速度センサを装着し、腕に表示装置(例えば携帯端末等)を装着した状態でランニングを行い、ユーザの実際の動きによって指標値を入力して、スケルトン動作を生成することができる。
図29は、図6の機能的構成を有する図3の端末装置200が実行するリアルタイム表示処理の流れを説明するフローチャートである。
リアルタイム表示処理は、リアルタイムに運動に関する指標値を入力してスケルトン動作を表示する処理である。
リアルタイム表示処理は、ユーザの靴に加速度センサを装着し、腕に端末装置200を装着した状態で、リアルタイム表示処理の起動が入力されることに対応して開始される。
ステップS1032において、端末装置200は、運動に関する指標としての速度に応じた合成スケルトンを表示画面に描画する。
ステップS1033において、端末装置200は、リアルタイム処理における時間調整のためのウェイトを実行する。
その後、リアルタイム表示処理が繰り返し実行される。
また、靴に装着される加速度センサの他、複数種類のセンサを用いて複数種類の運動に関する指標を取得し、複数種類の運動に関する指標に応じた合成スケルトンをリアルタイムに表示することができる。この場合にも、事前準備処理によるデータが生成されていれば、低い計算コストで合成スケルトン動作を生成することができる。
これにより、標準スケルトン動作を生成した母集合の正規化スケルトン動作のデータが利用できない場合等であっても、他のスケルトン動作の集合から求めた指標値を標準スケルトンに設定することができるため、より柔軟に本発明を実現することが可能となる。
また、上述の実施形態において、標準スケルトン動作を生成するために用いられるスケルトン動作の集合は、特定の個人の複数のモーションキャプチャデータから構成することや、複数の個人のモーションキャプチャデータから構成することのいずれも可能である。
例えば、本発明は、情報処理機能を有する電子機器一般によって実現することができる。具体的には、例えば、本発明における画像生成装置100及び端末装置200は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等によって構成することが可能である。
例えば、画像生成装置100をPC等によって構成し、画像生成装置100に上述の実施形態における端末装置200の機能を備えることができる。
換言すると、図4及び図6の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像生成装置100及び端末装置200に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4及び図6の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
[付記1]
複数のアニメーションデータを取得するデータ取得手段と、
アニメーションデータの運動に関する指標の値を入力する入力手段と、
前記データ取得手段により取得された複数のアニメーションデータを用いて、前記入力手段によって入力された指標の値に応じたアニメーションデータを生成する第1の生成手段と、
を備えることを特徴とする画像生成装置。
[付記2]
前記入力手段は、アニメーションデータの運動に関する複数の指標の値を入力し、
前記第1の生成手段は、前記入力手段によって入力された複数の指標の値に応じたアニメーションデータを生成することを特徴とする付記1に記載の画像生成装置。
[付記3]
前記データ取得手段により取得された複数のアニメーションデータから、運動に関する指標が対応付けられた標準のアニメーションデータを生成する第2の生成手段を更に備え、
前記第1の生成手段は、前記標準のアニメーションデータから前記入力手段により入力された指標の値に応じたアニメーションデータを生成することを特徴とする付記1又は2に記載の画像生成装置。
[付記4]
前記標準のアニメーションデータには、前記運動に関する指標の基準値が設定され、
前記第1の生成手段は、前記標準のアニメーションデータにおける前記基準値に基づいて、前記入力手段により入力された指標の値に応じたアニメーションデータを生成することを特徴とする付記3に記載の画像生成装置。
[付記5]
前記標準のアニメーションデータに基づくアニメーションと、当該アニメーションデータに設定されている前記運動に関する指標の値の入力のためのユーザインターフェースとを表示手段に表示させる表示制御手段を更に備え、
前記入力手段は、前記ユーザインターフェースを操作することにより、前記運動に関する指標の値を入力することを特徴とする付記3又は4に記載の画像生成装置。
[付記6]
前記表示制御手段は、前記入力手段によって前記運動に関する指標の値が入力された場合に、前記第1の生成手段によって生成されたアニメーションデータに基づくアニメーションを、当該入力された指標の値に対応する部分を識別して前記表示手段に表示させることを特徴とする付記5に記載の画像生成装置。
[付記7]
前記表示制御手段は、前記入力手段によって入力された前記運動に関する指標の値に応じて変化する前記アニメーションの部分を識別して前記表示手段に表示させることを特徴とする付記5または6に記載の画像生成システム。
[付記8]
前記表示制御手段は、前記入力手段による前記運動に関する値の入力後の前記アニメーションデータに対応する指標を前記表示手段に表示させることを特徴とする付記5から7の何れか1つに記載の画像生成装置。
[付記9]
複数のアニメーションデータを取得するデータ取得ステップと、
アニメーションデータの運動に関する指標の値を入力する入力ステップと、
前記データ取得ステップにより取得された複数のアニメーションデータを用いて、前記入力ステップにおいて入力された指標の値に応じたアニメーションデータを生成する生成ステップと、
を含むことを特徴とする画像生成方法。
[付記10]
コンピュータを、
複数のアニメーションデータを取得するデータ取得手段、
アニメーションデータの運動に関する指標の値を入力する入力手段、
前記データ取得手段により取得された複数のアニメーションデータを用いて、前記入力手段によって入力された指標の値に応じたアニメーションデータを生成する生成手段、
として機能させることを特徴とするプログラム。
Claims (10)
- 複数のアニメーションデータを取得するデータ取得手段と、
アニメーションデータの運動に関する指標の値を入力する入力手段と、
前記データ取得手段により取得された複数のアニメーションデータを用いて、前記入力手段によって入力された指標の値に応じたアニメーションデータを生成する第1の生成手段と、
を備えることを特徴とする画像生成装置。 - 前記入力手段は、アニメーションデータの運動に関する複数の指標の値を入力し、
前記第1の生成手段は、前記入力手段によって入力された複数の指標の値に応じたアニメーションデータを生成することを特徴とする請求項1に記載の画像生成装置。 - 前記データ取得手段により取得された複数のアニメーションデータから、運動に関する指標が対応付けられた標準のアニメーションデータを生成する第2の生成手段を更に備え、
前記第1の生成手段は、前記標準のアニメーションデータから前記入力手段により入力された指標の値に応じたアニメーションデータを生成することを特徴とする請求項1又は2に記載の画像生成装置。 - 前記標準のアニメーションデータには、前記運動に関する指標の基準値が設定され、
前記第1の生成手段は、前記標準のアニメーションデータにおける前記基準値に基づいて、前記入力手段により入力された指標の値に応じたアニメーションデータを生成することを特徴とする請求項3に記載の画像生成装置。 - 前記標準のアニメーションデータに基づくアニメーションと、当該アニメーションデータに設定されている前記運動に関する指標の値の入力のためのユーザインターフェースとを表示手段に表示させる表示制御手段を更に備え、
前記入力手段は、前記ユーザインターフェースを操作することにより、前記運動に関する指標の値を入力することを特徴とする請求項3又は4に記載の画像生成装置。 - 前記表示制御手段は、前記入力手段によって前記運動に関する指標の値が入力された場合に、前記第1の生成手段によって生成されたアニメーションデータに基づくアニメーションを、当該入力された指標の値に対応する部分を識別して前記表示手段に表示させることを特徴とする請求項5に記載の画像生成装置。
- 前記表示制御手段は、前記入力手段によって入力された前記運動に関する指標の値に応じて変化する前記アニメーションの部分を識別して前記表示手段に表示させることを特徴とする請求項5または6に記載の画像生成システム。
- 前記表示制御手段は、前記入力手段による前記運動に関する値の入力後の前記アニメーションデータに対応する指標を前記表示手段に表示させることを特徴とする請求項5から7の何れか1項に記載の画像生成装置。
- 複数のアニメーションデータを取得するデータ取得ステップと、
アニメーションデータの運動に関する指標の値を入力する入力ステップと、
前記データ取得ステップにより取得された複数のアニメーションデータを用いて、前記入力ステップにおいて入力された指標の値に応じたアニメーションデータを生成する生成ステップと、
を含むことを特徴とする画像生成方法。 - コンピュータを、
複数のアニメーションデータを取得するデータ取得手段、
アニメーションデータの運動に関する指標の値を入力する入力手段、
前記データ取得手段により取得された複数のアニメーションデータを用いて、前記入力手段によって入力された指標の値に応じたアニメーションデータを生成する生成手段、
として機能させることを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013135615A JP2015011480A (ja) | 2013-06-27 | 2013-06-27 | 画像生成装置、画像生成方法及びプログラム |
US14/310,812 US20150002518A1 (en) | 2013-06-27 | 2014-06-20 | Image generating apparatus |
CN201410292738.XA CN104252712B (zh) | 2013-06-27 | 2014-06-25 | 图像生成装置、图像生成方法和记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013135615A JP2015011480A (ja) | 2013-06-27 | 2013-06-27 | 画像生成装置、画像生成方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017186500A Division JP6547807B2 (ja) | 2017-09-27 | 2017-09-27 | 画像生成装置、画像生成方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015011480A true JP2015011480A (ja) | 2015-01-19 |
Family
ID=52115141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013135615A Pending JP2015011480A (ja) | 2013-06-27 | 2013-06-27 | 画像生成装置、画像生成方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150002518A1 (ja) |
JP (1) | JP2015011480A (ja) |
CN (1) | CN104252712B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3785629A4 (en) * | 2018-04-26 | 2022-03-30 | Hitachi High-Tech Corporation | WALKWAY INDICATION METHOD, WALKWAY INDICATION SYSTEM AND WALKWAY ANALYSIS DEVICE |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101619599B1 (ko) * | 2014-08-08 | 2016-05-10 | 현대자동차주식회사 | 융합 레이더 센서 기반 저전력 차량 충돌 방지 방법 및 장치 |
US10660533B2 (en) * | 2014-09-30 | 2020-05-26 | Rapsodo Pte. Ltd. | Remote heart rate monitoring based on imaging for moving subjects |
US10973440B1 (en) * | 2014-10-26 | 2021-04-13 | David Martin | Mobile control using gait velocity |
US11068647B2 (en) * | 2015-05-28 | 2021-07-20 | International Business Machines Corporation | Measuring transitions between visualizations |
US10607139B2 (en) | 2015-09-23 | 2020-03-31 | International Business Machines Corporation | Candidate visualization techniques for use with genetic algorithms |
US10685035B2 (en) | 2016-06-30 | 2020-06-16 | International Business Machines Corporation | Determining a collection of data visualizations |
CN106384385B (zh) * | 2016-09-17 | 2020-10-30 | 北京航空航天大学 | 一种基于图论的人体形态建模方法 |
CN111080756B (zh) * | 2019-12-19 | 2023-09-08 | 米哈游科技(上海)有限公司 | 一种交互动画生成方法、装置、设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0471078A (ja) * | 1990-07-12 | 1992-03-05 | Hitachi Ltd | コンピュータグラフィック表示方法およびその装置 |
JP2008015713A (ja) * | 2006-07-04 | 2008-01-24 | Kyushu Institute Of Technology | 動作変形システム及びその方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2232997C (en) * | 1997-03-26 | 2001-07-10 | Dalhousie University | Dynamic target addressing system |
US5930379A (en) * | 1997-06-16 | 1999-07-27 | Digital Equipment Corporation | Method for detecting human body motion in frames of a video sequence |
US6061644A (en) * | 1997-12-05 | 2000-05-09 | Northern Digital Incorporated | System for determining the spatial position and orientation of a body |
US6052132A (en) * | 1998-02-06 | 2000-04-18 | Digital Equipment Corporation | Technique for providing a computer generated face having coordinated eye and head movement |
US6731287B1 (en) * | 2000-10-12 | 2004-05-04 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret A.S. | Method for animating a 3-D model of a face |
US7127081B1 (en) * | 2000-10-12 | 2006-10-24 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. | Method for tracking motion of a face |
US8626472B2 (en) * | 2006-07-21 | 2014-01-07 | James C. Solinsky | System and method for measuring balance and track motion in mammals |
US20080170750A1 (en) * | 2006-11-01 | 2008-07-17 | Demian Gordon | Segment tracking in motion picture |
CN101573959A (zh) * | 2006-11-01 | 2009-11-04 | 索尼株式会社 | 运动图片中的片段跟踪 |
CN102015037A (zh) * | 2008-04-09 | 2011-04-13 | 耐克国际有限公司 | 用于运动表现赛跑的系统和方法 |
US9981193B2 (en) * | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
US20120028707A1 (en) * | 2010-02-24 | 2012-02-02 | Valve Corporation | Game animations with multi-dimensional video game data |
JP5434965B2 (ja) * | 2011-06-03 | 2014-03-05 | カシオ計算機株式会社 | 動画生成方法、動画生成装置及びプログラム |
AU2013226907B2 (en) * | 2012-02-29 | 2015-10-29 | Mizuno Corporation | Running form diagnostic system and method for scoring running form |
WO2014008134A1 (en) * | 2012-07-02 | 2014-01-09 | Infomotion Sports Technologies, Inc. | Computer-implemented capture of live sporting event data |
-
2013
- 2013-06-27 JP JP2013135615A patent/JP2015011480A/ja active Pending
-
2014
- 2014-06-20 US US14/310,812 patent/US20150002518A1/en not_active Abandoned
- 2014-06-25 CN CN201410292738.XA patent/CN104252712B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0471078A (ja) * | 1990-07-12 | 1992-03-05 | Hitachi Ltd | コンピュータグラフィック表示方法およびその装置 |
JP2008015713A (ja) * | 2006-07-04 | 2008-01-24 | Kyushu Institute Of Technology | 動作変形システム及びその方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3785629A4 (en) * | 2018-04-26 | 2022-03-30 | Hitachi High-Tech Corporation | WALKWAY INDICATION METHOD, WALKWAY INDICATION SYSTEM AND WALKWAY ANALYSIS DEVICE |
Also Published As
Publication number | Publication date |
---|---|
CN104252712B (zh) | 2018-11-16 |
CN104252712A (zh) | 2014-12-31 |
US20150002518A1 (en) | 2015-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015011480A (ja) | 画像生成装置、画像生成方法及びプログラム | |
US10674142B2 (en) | Optimized object scanning using sensor fusion | |
JP6515813B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP5857946B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6373026B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
JPWO2017217050A1 (ja) | 情報処理装置、情報処理方法及び記憶媒体 | |
JPWO2014016992A1 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP2011028309A5 (ja) | ||
JP2022500801A (ja) | モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム | |
JP2018148272A (ja) | 撮像装置、画像処理装置、撮像方法およびプログラム | |
JP2013257656A (ja) | 動き類似度算出装置、動き類似度算出方法およびコンピュータプログラム | |
US20220215581A1 (en) | Method for displaying three-dimensional augmented reality | |
WO2019093457A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6547807B2 (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP7207546B2 (ja) | 情報処理装置、制御方法及びプログラム | |
CN110781820B (zh) | 游戏角色的动作生成方法、装置、计算机设备及存储介质 | |
JP2010231452A (ja) | 多次元時系列データ分析装置及び多次元時系列データ分析プログラム | |
JP2020005150A (ja) | 録画再生装置及びプログラム | |
US20230137198A1 (en) | Approximating motion capture of plural body portions using a single imu device | |
JP2020086511A (ja) | データ補正装置およびプログラム | |
JP2017208631A (ja) | 画像表示システム、情報処理装置、撮像装置、及びプログラム | |
JP2017199980A (ja) | 画像表示システム、情報処理装置、撮像装置、及びプログラム | |
JP2017130008A (ja) | 三次元被写体形状推定装置 | |
KR20220156873A (ko) | 다수의 포즈 추정 엔진을 사용한 손의 마커리스 모션 캡쳐 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160404 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170407 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170718 |