JP3862348B2 - モーションキャプチャシステム - Google Patents

モーションキャプチャシステム Download PDF

Info

Publication number
JP3862348B2
JP3862348B2 JP08469197A JP8469197A JP3862348B2 JP 3862348 B2 JP3862348 B2 JP 3862348B2 JP 08469197 A JP08469197 A JP 08469197A JP 8469197 A JP8469197 A JP 8469197A JP 3862348 B2 JP3862348 B2 JP 3862348B2
Authority
JP
Japan
Prior art keywords
user
sensor
shoulder
angle
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08469197A
Other languages
English (en)
Other versions
JPH10261090A (ja
Inventor
功 中山
俊喜 南雲
治雄 甘利
幹夫 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Co Inc
Original Assignee
Tokyo Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc filed Critical Tokyo Electric Power Co Inc
Priority to JP08469197A priority Critical patent/JP3862348B2/ja
Publication of JPH10261090A publication Critical patent/JPH10261090A/ja
Application granted granted Critical
Publication of JP3862348B2 publication Critical patent/JP3862348B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)

Description

【0001】
【発明が属する技術分野】
本発明は、モーションキャプチャシステムに関するものである。
【0002】
【従来の技術】
バーチャルリアリティシステムの一形態として、表示装置上に使用者の分身(キャラクタ)を表示させ、その表示させたキャラクタを実際に使用者が動くのとほぼ同じ動きをさせることにより、使用者が表示装置に表示された仮想空間(映像空間)内に自分自身があたかも存在している(入り込んでいる)と感じることができるとともに、インタラクティブに仮想空間内で疑似体験ができるようなものがある。
【0003】
そして、係る処理を行うため、従来のモーションキャプチャ入力装置としては、使用者の身体の所定位置にセンサを取り付け、そのセンサを検出して使用者の存在位置並びに姿勢や動作を求め、それに基づいて表示装置上に形成された前記キャラクタを移動等させるようになっている。
【0004】
具体的には、使用者の体中に多数の磁界式三次元センサを取り付け、そのセンサの位置情報と角度情報により使用者の体の各部の位置と向きを検出するようにしたものがある。つまり、たとえばセンサを手の甲側の手首に付けた場合には、センサの位置が同じであっても、その角度が異なると掌を下に向けているか上に向けているのかの判別もできるようになる。
【0005】
【発明が解決しようとする課題】
しかしながら、上記した従来のものは、掌の向きも判別できることから、逆にセンサを身体に強固に固定し、移動しないようにする必要がある。つまり、例えば上記のように手の甲側の手首に装着した場合に、センサが回って掌側に移動してしまうと、使用者は移動していないのにもかかわらず掌を返したような動作をしたように判断されてしまう。
【0006】
その結果、センサをきつく固定することになり、装着に時間がかかるとともに装着感も悪くなる。よって、例えばアミューズメントや広報設備などの一般の人を対象としたシステムには適用できない。
【0007】
また、例えば使用者がどちらの方向を向いているかを検出するためには、従来首にセンサを取り付けている。しかし、上記と同様に首の周りでセンサが移動してしまうことは許されないが、あまりきつく取り付けることはできないので、結局やや弱めに取り付けるとになり、そうすると精度よく向きを検出できなくなる。さらに、従来は、身体の各部に多数のセンサを取り付け、それに基づいて精度よく再現して表示装置に表示したため、計算すべき処理量が大きくなり、インタラクティブな迅速な表示がしにくくなるばかりでなく、そのように多数のセンサを身体に付けた状態では、動きにくい等の操作性の問題もあった。しかも、各センサの検出結果には、誤差成分が含まれており、時間遅延からかなり振動を伴い安定性に欠ける。特に角度情報は、角度自体の誤差が小さくても、ベクトル両端点における距離の誤差は大きくなってしまう。
【0008】
本発明は、上記した背景に鑑みてなされたもので、その目的とするところは、少ないセンサ数でもって、使用者の向きや姿勢を検出でき、演算も簡単に行え、また、センサの装着も短時間で行えるとともに、装着感も良好となり、一般の人であっても違和感なくすぐに使用することができるモーションキャプチャシステムを提供するものである。
【0009】
【課題を解決するための手段】
上記した目的を達成するため、本発明に係るモーションキャプチャシステムでは、使用者の両肩と両手首にそれぞれ取り付けた三次元位置センサの出力に基づいて、以下の要件▲1▼〜▲3▼を実行し使用者の動作状態を検出する(請求項1)。
▲1▼三次元位置センサの存在する場所を特定する位置情報のみを用いる。
▲2▼両肩のセンサの位置から使用者の向きを特定する。
▲3▼同一側に位置する肩と手首に装着したセンサ間の距離から、肘の曲げ角を算出し、前記同一側に位置する肩と手首に装着したセンサの相対位置関係から腕の振れ角を算出し、それら算出した肘の曲げ角並びに腕の振れ角に基づいて腕の状態・姿勢を特定する。
【0010】
また、前記特定した使用者の向きと姿勢から、仮想空間を構成する表示装置に、その使用者の動作状態に応じた姿勢のキャラクタの状態を求め表示するようにし、前記使用者が、コマンド入力に対応する特定の動作を行った場合は、それを検知してコマンドを実行するようにしてもよい(請求項2)。
【0011】
そして好ましくは、少なくとも肩に装着するセンサは、上着の肩部に固定しておき、前記使用者はその上着を装着することにより、センサの肩への取り付けを行うようにすることである(請求項3)。
【0012】
本発明で言う「モーションキャプチャ」とは、使用者の動き(モーション)を検出・捕捉(キャプチャ)することをいい、そのように動きを検出することにより、例えば表示装置(画面)内に表示したキャラクタを使用者の動きに合わせて動作させて、仮想空間内を自由に動き回ることができインタラクション機能を実現するための入力装置として用いられるものである。そして、キャラクタを使用者の動きに合わせて動作させるとは、使用者の動きの通りにキャラクタを動かす場合と、使用者が特定の動作を行うことによりコマンド入力をし、そのコマンドに合わせてキャラクタを動作させることなどがある。
【0013】
本発明では、センサの位置情報のみを利用することにより、振動を伴わない安定したなめらかなモーションキャプチャが可能となる。また、角度情報を見ないことから取付も比較的ラフに行えるとともに、取付後に軸周りで回転しても問題がないので、比較的ゆるく装着することも可能となり取付作業が容易で短時間に行える。しかも、使用するセンサ数が4つで済むので、軽量化が可能となるばかりでなく、動作・姿勢を特定するための演算処理も軽くなり、迅速に姿勢・動作を算出できる。
【0014】
【発明の実施の形態】
図1は、本発明が適用されるシステム構成の一例を示している。同図に示すように、使用者10の両肩と両手首にそれぞれ三次元位置センサ(子局)S1〜S4を取り付けている。以下、便宜上右肩に装着するセンサを第1センサS1,左肩に装着するセンサを第2センサS2,右手首に装着するセンサを第3センサS3,左手首に装着するセンサを第4センサS4と称する。また、システム稼働中における実際の使用者10の存在可能領域に対して交流磁場を作る三次元位置センサの親局12が、設けられている。そして、親局12と各センサS1〜S4は三次元位置端末14に接続され、信号の送受が行われる。
【0015】
さらに、各センサS1〜S4は、いずれもコイルが内蔵されており、親局12から放射される交流磁場からの誘導を測定することにより自己の親局12に対する相対的な位置を検出できるものである。そして、その検出結果を三次元位置センサ端末14に送る。すると、端末14では、親局12の位置はわかっており、その親局12と子局である各センサS1〜S4の位置関係から三次元空間上での各センサS1〜S4の絶対位置を算出する。なお、係る絶対位置を求めるまでの装置・アルゴリズムは従来のものと同様であるので、その詳細な説明を省略する。
【0016】
また、本形態では、4つのセンサS1〜S4の使用者10の装着を容易にすべく、各センサS1〜S4は上着11等に取り付けられ、使用者はその上着11を着用することにより、身体の所定位置にセンサが位置するようにしている。つまり、上着11は、ベスト状態からなり、その両肩の部分に第1,第2センサS1,S2を固定する。よって、上着11を着用すると、両センサS1,S2は、自動的に使用者10の肩の位置にくる。また、第3,第4センサS3,S4は、リストバンド11aに取り付けられ、そのリストバンド11aを手首に巻き付け固定することにより、各センサS3,S4をそれぞれ固定する。この時、本発明では角度情報は見ないので、仮にリストバンド11aが回ってしまい、第3,第4センサS3,S4が当初手首に取り付けた位置からずれても問題がない。よって、リストバンド11aは、手首から落下しない程度に取り付ければよいので、使用者10は圧迫感がない。また、使用中にセンサS3,S4が手首の周囲に沿って移動しても問題がないため、装着する際にも取付位置を気にすることなく行える。このことは、肩に取り付ける第1,第2センサS1,S2に対してもいえる。よって、単に上着11を着るとともに、リストバンド1aで手首に固定すればよいので、各センサS1〜S4の装着作業が極めて簡単で、短時間に行える。そして、各センサS1〜S4は、ともに信号線13により三次元位置センサ端末14に接続され、それら各信号線13は、上着13の背面で一旦束ねられる。もちろん無線により端末14に情報を伝達するようにしても良い。
【0017】
そして、後述するように三次元位置端末14で検出されたセンサ位置情報が、キャラクタ姿勢算出部15に与えられ、そこにおいて4つのセンサ位置情報からキャラクタの姿勢を決定し、それに基づいてグラフィックワークステーション16を用いて表示装置18に表示するようにしている。なお、図示の例では、本発明との関係でキャラクタ姿勢算出部15をグラフィックワークステーション16の外部におき、別の装置として示したが、本発明はこれに限ることはなく、グラフィックワークステーション16の一部の機能として実現するようにしても良い。
【0018】
ここで、本発明の要部の一つとなるキャラクタ姿勢算出部15の機能について説明する。まず、このキャラクタ姿勢算出部15は、第1,第2センサS1,S2の位置情報から使用者10の向きを検出する機能と、第1,第3センサS1,S3から右腕の状態を検出する機能と、第2,第4センサS2,S4から左腕の状態を検出する機能を備えている。そして、腕の状態を検出する機能は、使用するセンサ情報が異なるだけで、具体的な処理は同じである。よって、以下では、向きを検出する機能と、腕の状態を検出する機能の2つに分けて説明する。
【0019】
図2は、使用者である人間のスケルトンモデルを示しており、同図中nx (x =1,2,3,…)は、代表的な関節点を示している。そして、図中S1〜S4が各センサの設置位置である。そして、このスケルトンモデルをさらに模式化すると、図3に示すように、Y軸回りの回転が行われる胴体(Body)についてのモデルBと、X軸回りの回転が行われる腕(Arm)についてのモデルAに分けることができる。
【0020】
そして、モデルBからは、S1とS2の三次元座標系における座標点のうちX座標値がS1とS2のどちらが大きいかにより、前方を向いているか後方を向いているかが判別できる。そして、正面に対して真っ直ぐに向いているか否かは、Z座標値が等しいか否かにより判断できる。さらに、右または左のどちらを向いているかは、S1とS2のZ座標値の大小関係により求めることができる。もちろん、右または左にどのくらいの角度で向いているかまで知りたい場合には、S1とS2の座標値の差から求めることができる。係る処理を行うのが、向きを検出する機能である。
【0021】
また、モデルAは、X軸回りの回転に限定され、肩と手首の位置関係から腕の方向を決定できる。さらに、肩と手首の間の関節は肘Qが1つあるだけで、肩Pと肘Qまでの上腕部分A1と、肘Qから手首Rまでの前腕部分A2の長さは一定である。なお、具体的な長さは個人差があるが、これは例えばセンサを取り付けた際に腕を伸ばした状態をとり、その時の各センサの位置情報から腕全体の長さd0 を知ることができる。そして、例えば上腕部分と前腕部分の長さの比を1:1と仮定することにより各部の長さ(d0 /2)を求めることができる。なお、本形態では、計算を簡単にするために1:1としたが、その比は統計などにより適宜の値に設定してもよく、或いはそのように固定するのではなく、使用者に応じて比を調整・設定できるようにしていても良い。
【0022】
具体的な腕の状態を求めるには、まず、肩と手首のセンサS1とS3(S2とS4)間の距離dを求める。そして、その距離dが上記した予め求めた腕の全長d0 と等しければ、腕を伸ばした状態であることがわかる。そして、どちらの方向に伸ばしているかは、各センサの三次元座標上の位置により特定できる。
【0023】
また、両センサ間の距離dが全長d0 よりも小さい場合には、肘を曲げた状態であることがわかり、距離dが小さいほど、肘を大きく曲げているといえる。そして、腕の部分のみをモデル化すると、図4に示すように表現でき、距離dを底辺とする二等辺三角形となる。そして、その三角形の斜辺の長さは(d0 /2)で既知であるので、底辺の長さdが求められると、底角θの角度が算出できる。この角度θが、肘の曲げ角度である。
【0024】
さらに、図5に示すように、左肩に設置した第2センサS2の存在位置を原点とした三次元座標系を想定した場合の左手首に設置した第4センサS4の存在位置から、X軸に対する腕の回転角(振れ角)rx0が求められる。ここで、肘の位置Qは直接求められないので、肘Qは幾何学的には図5中に示した円錐の底面の周囲に存在し、上腕部分A1は円錐の側面に位置することになる。但し、関節の機構上、肘は360度回転するわけではないので、実際に存在する位置は図示した円錐のうち一定の角度範囲内に制限される。そこで限定された範囲の中から適当な位置を決定する。この決定に際しては、例えば角度範囲内の中央位置であったりすることができる。また、予め使用者のとりうる動作に制限を持たせることにより、より正確に特定できる。係る処理を行うのが、腕の状態を検出する機能である。
【0025】
本形態では、具体的な使用者が行うモーションによるコマンドとして、
▲1▼両手を振る→前進する
▲2▼左右を向く→左右に回転する
▲3▼両手を上に上げる→飛ぶ
等の限られた動作に限定しているので、モデルの動作が安定し、自然なモーションキャプチャが実現できる。そして、上記各機能を用いて使用者10の向きや腕の状態から、使用者の姿勢を判定するとともに、使用者が意図するモーションによるコマンドの内容も判断する機能も、キャラクタ姿勢算出部15が備えている。
【0026】
もちろん、両手を振る際の速度や、振れ角の大きさなどから前進する速度を変えたり、歩く/走るを判別するようにしたり、左右を向く角度に応じて回転角度を変化させたり、両手をあげた際の速度や、手首の第3,第4センサのY軸方向の位置の変位から、ジャンプする飛距離などを求めるなど使用者10の動作に応じて対応することができる。
【0027】
一方、表示装置18としては、使用者が表示装置18に表示された仮想空間(映像空間)内に自分自身があたかも存在している(入り込んでいる)と感じることのできる没入感・臨場感を発生する必要がある。そして、係る没入感・臨場感を得るために、視野角の大きく(好ましくは両眼で120度以上)とれるものがよい。
【0028】
視野角を大きくとる点では、例えばCAVE(立方体配置:全周型ディスプレイ)表示と称される方式をとることができる。係る方式は、所定の大きさの平板状のスクリーンを、立方体の6つの内面に配置し、使用者は、その立方体の内部に位置した状態で任意のスクリーンを介して画像を見るようにしている。これにより、使用者の前後左右並びに上下のどの方向にも画像が表示されることになり、立体視が120度以上の視野角を得ることができる。
【0029】
また、図6,図7に示すような表示装置を適用することもできる。図6は広視野角の表示装置18の外観図の一例を示している。同図に示すように、ある室内に4つのスクリーン20a〜20dを所定の位置関係に配置し、各スクリーン20a〜20dには、それぞれ対応して配置された4つのプロジェクタ21a〜21dを用いて所定の映像を表示するようになっている。つまり、マルチプロジェクタ方式により構成されている。そして、各プロジェクタ21a〜21dに対して上記のグラフィックワークステーション16からの出力信号が送られ、所定の映像を映写するようになっている。さらに、各スクリーン20a〜20dの相対位置関係は、図7に示すように、正面のスクリーン20aの両側に45度傾斜状に左右のスクリーン20b,20cを配置し、正面のスクリーン20aの手前側下方に70度傾斜状にスクリーン20dを配置している。
【0030】
任意の地点Pから各スクリーン20a〜20cへの入射角をRa,Rb,Rcとした場合に、係る入射角の角度が小さいスクリーンに映った映像は、その地点Pに立った人に迫ってくる感じが生じるので、実空間のものと異なり臨場感・没入感が低くなる。そこで、1つのスクリーンでも入射角の小さいものがあると、表示装置全体における当該部分で違和感を生じてしまい好ましくない。よって、任意の地点Pにおける見やすさの指標hを、各スクリーンに対する入射角に基づいて下記式(1)のように定義し、その指標hが正になる箇所を求めた。
【0031】
【数1】
h=min(Ra,Rb,Rc)−60度 …(1)
その結果、本形態のようにスクリーン角度を45度にすると、図9(A)中円筒で示すように広範囲の領域にわたって条件を具備する箇所が得られる。なお、円筒の高さが高いものほど指標hも大きいことを意味する。そして、同図(B),(C)に示すように、スクリーン角度を大きくするにつれて、スクリーン入射角Rが、所定の条件を具備する領域が狭くなることがわかる。そして、従来のCAVE方式の場合(同図(C))には、スクリーン角度は90度であるので、条件を具備する領域は非常に狭い。そして、見やすさの指標が最も高い箇所をスイートスポットとし、図中黒丸で示した。
【0032】
また、図8(B)に示すように、任意の地点Pにおける各スクリーン20a〜20cに対する視野角をそれぞれHa〜Hcで表わすことができるので、結局、その地点Pにおける表示装置の水平方向の視野角は、各スクリーンHa〜Hcの総和となる。そこで、下記式(2)に基づいてdを求める。そして、得られた値dに比例する長さを、図9に示した各円筒(見やすさの指標が正の箇所)の底面の直径となるように表わした。
【0033】
d=Ha+Hb+Hc …(2)
従って、図9中に示す円筒の直径が大きいものほど視野角が大きいことを意味し、円筒の高さが高いものほど見やすいものとなる。つまり、より高い没入感・臨場感が得られることを意味する。そして、スクリーン角度が45度とすると、視野角は135度以上確保できた。
【0034】
なお、垂直方向、つまり、正面スクリーン20aと下面スクリーン20dとの関係については、図9のような具体的な図示は省略するが、スクリーン角度を70度とすることにより、視野角は51度となった。これは、人間の頭部の垂直方向の回転角度が下に40度であることを鑑みると、頭部の回転方向をカバーでき、臨場感が良好なものとなることが確認できた。
【0035】
なおまた、各スクリーンを上記のように配置すると、左右の側面スクリーン20b,20cと、下面スクリーン20dとの間に、三角形状の隙間(スクリーンのない領域)が発生する。しかし、人間は、前進しているときには、前方及びやや斜め前下方に大部分の注意を向けながら、左右方向を意識する。従って、斜め下方のさらに両サイドの上記したスクリーン未形成領域に対しては、元々あまり注意して見ない部分である。同様のことは、左右に旋回する場合にもいえ、回転方向の側面に注意が向く。よって、三角形状のスクリーン未形成領域は、実用上問題がなく、これは実験の結果でも確認できた。
【0036】
次に、上記の各スクリーン20a〜20dに所定の映像を映し出すための出力装置について説明する。上記のように各スクリーン20a〜20dに対してそれぞれプロジェクタ21a〜21dを有しており、正面用のプロジェクタ21aは、直接正面スクリーン20aの裏面側から映像を表示させ、他のプロジェクタ21b〜21dは、いずれもミラー12b〜12dに反射させて裏面側から映像を表示させるようにしている。これは、限られた空間内にコンパクトに配置するためである。
【0037】
そして、各プロジェクター21a〜21dから出力される画像は、各スクリーン20a〜20dの視点方向が異なることに鑑み、係る視点方向を考慮した画面が出力される。一例を示すと、「T型に組まれた板」を表示する場合には、各画面に対しては図10に示すようになる。係る状態で出力すると、左右側面スクリーン20b,20cと下面スクリーン20dが、所定のスクリーン角度で傾斜していることから、正面スクリーン20aの前に立った使用者は、ゆがみのない「T型」の状態をみることができる。上記したスクリーン,プロジェクタ及びミラーが表示装置18を構成する。
【0038】
そこで、コンピュータグラフィックによる画像データを製造する場合には、上記の視点方向の相違を考慮し、画面ごとに計算して作成することになる。そして、キャラクタ姿勢算出部15で求めた使用者の姿勢に基づいたキャラクタの姿勢をグラフィックワークステーション16で作成し、背景画面に合成して出力する。もちろん、モーションによるコマンド入力があった場合には、そのコマンドを実行する。
【0039】
【発明の効果】
以上のように本発明に係るモーションキャプチャシステムでは、4つという少ないセンサ数でもって、使用者の向きや姿勢を検出でき、しかも、位置情報しか見ないので、演算も簡単かつ迅速に行える。また、角度情報を見ないことから、角度に対する取付位置の調整が不要であるので、センサの装着も短時間で行えるとともに、取付後に回転移動してもさほど問題がないので手首にはゆるく取り付けることができ装着感も良好となる。よって、一般の人であっても違和感なくすぐに使用することができる。
【図面の簡単な説明】
【図1】本発明に係るモーションキャプチャシステムの一実施の形態を示す図である。
【図2】使用者のスケルトンモデル及びセンサの取付位置を説明する図である。
【図3】動作原理を説明する図である。
【図4】動作原理を説明する図である。
【図5】動作原理を説明する図である。
【図6】広視野角の表示装置の一例を示す外観図である。
【図7】各スクリーンの相対位置関係を説明する図である。
【図8】表示装置の動作原理を説明する図である。
【図9】表示装置の効果を説明する図である。
【図10】各スクリーンへの表示態様の一例を示す図である。
【符号の説明】
10 使用者
11 上着
11a リストバンド
12 親局
13 信号線
14 三次元位置センサ端末
15 キャラクタ姿勢算出部
16 グラフィックワークステーション
18 表示装置
S1,S2 肩に取り付けるセンサ
S3,S4 手首に取り付けるセンサ

Claims (3)

  1. 使用者の両肩と両手首にそれぞれ取り付けた三次元位置センサの出力に基づいて、以下の要件▲1▼〜▲3▼を実行し使用者の動作状態を検出することを特徴とするモーションキャプチャシステム。
    ▲1▼三次元位置センサの存在する場所を特定する位置情報のみを用いる。
    ▲2▼両肩のセンサの位置から使用者の向きを特定する。
    ▲3▼同一側に位置する肩と手首に装着したセンサ間の距離から、肘の曲げ角を算出し、前記同一側に位置する肩と手首に装着したセンサの相対位置関係から腕の振れ角を算出し、それら算出した肘の曲げ角並びに腕の振れ角に基づいて腕の状態・姿勢を特定する。
  2. 前記特定した使用者の向きと姿勢から、仮想空間を構成する表示装置に、その使用者の動作状態に応じた姿勢のキャラクタの状態を求め表示するようにし、
    前記使用者が、コマンド入力に対応する特定の動作を行った場合は、それを検知してコマンドを実行するようにしたことを特徴とする請求項1に記載のモーションキャプチャシステム。
  3. 少なくとも肩に装着するセンサは、上着の肩部に固定しておき、前記使用者はその上着を装着することにより、センサの肩への取り付けを行うようにしたことを特徴とする請求項1または2に記載のモーションキャプチャシステム。
JP08469197A 1997-03-19 1997-03-19 モーションキャプチャシステム Expired - Fee Related JP3862348B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08469197A JP3862348B2 (ja) 1997-03-19 1997-03-19 モーションキャプチャシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08469197A JP3862348B2 (ja) 1997-03-19 1997-03-19 モーションキャプチャシステム

Publications (2)

Publication Number Publication Date
JPH10261090A JPH10261090A (ja) 1998-09-29
JP3862348B2 true JP3862348B2 (ja) 2006-12-27

Family

ID=13837701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08469197A Expired - Fee Related JP3862348B2 (ja) 1997-03-19 1997-03-19 モーションキャプチャシステム

Country Status (1)

Country Link
JP (1) JP3862348B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020085538A1 (ko) * 2018-10-25 2020-04-30 (주)리얼감 동작인식 시스템 및 이를 이용한 동작인식 방법
WO2020085537A1 (ko) * 2018-10-25 2020-04-30 (주)리얼감 동작인식 디바이스 및 이를 이용한 동작인식 방법

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000315259A (ja) * 1999-05-06 2000-11-14 Sharp Corp データベース作成装置及びデータベース作成プログラムを記録した記録媒体
KR100373758B1 (ko) * 2000-05-23 2003-02-26 (주)두모션 2축 2센서 방식에 의한 인체 동작 범위 인지용 무선모션캡처장치
US6831603B2 (en) 2002-03-12 2004-12-14 Menache, Llc Motion tracking system and method
KR20020072518A (ko) * 2002-08-27 2002-09-16 진영정보통신 주식회사 무선 기계식 모션캡쳐
US7009561B2 (en) 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
JP2005337983A (ja) * 2004-05-28 2005-12-08 Spice:Kk モーションキャプチャー方法及びシステム
JP2005339306A (ja) * 2004-05-28 2005-12-08 Yokogawa Electric Corp データ入力装置
NZ561570A (en) 2005-03-16 2010-02-26 Lucasfilm Entertainment Compan Three-dimensional motion capture
KR100792293B1 (ko) * 2006-01-16 2008-01-07 삼성전자주식회사 사용자의 컨텍스트를 고려한 서비스 제공방법 및 그 장치
JP5051839B2 (ja) * 2007-10-29 2012-10-17 国立大学法人東京工業大学 視標位置測定装置
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
JP5392671B2 (ja) * 2008-12-02 2014-01-22 学校法人早稲田大学 歩行計測装置
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
KR101835413B1 (ko) * 2010-04-13 2018-03-09 삼성전자주식회사 가상 세계 처리 장치 및 방법
US9436286B2 (en) * 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
US8831794B2 (en) * 2011-05-04 2014-09-09 Qualcomm Incorporated Gesture recognition via an ad-hoc proximity sensor mesh for remotely controlling objects
US9508176B2 (en) 2011-11-18 2016-11-29 Lucasfilm Entertainment Company Ltd. Path and speed based character control
JP6098799B2 (ja) * 2013-02-28 2017-03-22 公立大学法人 富山県立大学 指差し呼称監視システム
US10415975B2 (en) * 2014-01-09 2019-09-17 Xsens Holding B.V. Motion tracking with reduced on-body sensors set
WO2020049692A2 (ja) 2018-09-06 2020-03-12 株式会社ソニー・インタラクティブエンタテインメント 推定装置、学習装置、推定方法、学習方法及びプログラム
CN111923051A (zh) * 2020-09-08 2020-11-13 杨博琛 一种无人机机械手臂的控制装置
WO2022113520A1 (ja) * 2020-11-30 2022-06-02 株式会社電通 情報処理システム
CN112990089B (zh) * 2021-04-08 2023-09-26 重庆大学 一种判断人体运动姿态的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020085538A1 (ko) * 2018-10-25 2020-04-30 (주)리얼감 동작인식 시스템 및 이를 이용한 동작인식 방법
WO2020085537A1 (ko) * 2018-10-25 2020-04-30 (주)리얼감 동작인식 디바이스 및 이를 이용한 동작인식 방법

Also Published As

Publication number Publication date
JPH10261090A (ja) 1998-09-29

Similar Documents

Publication Publication Date Title
JP3862348B2 (ja) モーションキャプチャシステム
CN205666911U (zh) 一种运动视觉呈现系统
US7259771B2 (en) Image processing system, image processing apparatus, and display apparatus
JP4251673B2 (ja) 画像呈示装置
US6181343B1 (en) System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP4871270B2 (ja) 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム
US20170352188A1 (en) Support Based 3D Navigation
JP6316186B2 (ja) 広範囲同時遠隔ディジタル提示世界
US6195104B1 (en) System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US8988438B2 (en) Motion capture apparatus and method
JP4413203B2 (ja) 画像呈示装置
WO2020110659A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
KR20160147735A (ko) 헤드부 위치 검출 장치 및 헤드부 위치 검출 방법, 화상 처리 장치 및 화상 처리 방법, 표시 장치, 및 컴퓨터 프로그램
JP7060544B6 (ja) 運動用設備
Webel et al. Immersive experience of current and ancient reconstructed cultural attractions
JP3026716B2 (ja) 立体型表示装置
CN108205823A (zh) Mr全息真空体验店和体验方法
Hashimoto et al. Immersive multi-projector display on hybrid screens with human-scale haptic and locomotion interfaces
JP7370198B2 (ja) 処理システム、情報処理装置、プログラム及び処理方法
WO2024125465A1 (zh) 视角跟随显示系统、操作系统、重构感知控制系统及控制方法
Strickland et al. Self-tracking of human motion for virtual reality systems
JP3830923B2 (ja) 仮想空間表示方法及び仮想空間表示装置
WO2016057997A1 (en) Support based 3d navigation
JP3830922B2 (ja) 仮想空間表示方法及び仮想空間表示装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060926

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees