JP2014517413A - 仮想環境におけるオブジェクトの制御 - Google Patents

仮想環境におけるオブジェクトの制御 Download PDF

Info

Publication number
JP2014517413A
JP2014517413A JP2014514530A JP2014514530A JP2014517413A JP 2014517413 A JP2014517413 A JP 2014517413A JP 2014514530 A JP2014514530 A JP 2014514530A JP 2014514530 A JP2014514530 A JP 2014514530A JP 2014517413 A JP2014517413 A JP 2014517413A
Authority
JP
Japan
Prior art keywords
skeleton
user
storage media
mapping
computer storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014514530A
Other languages
English (en)
Other versions
JP5985619B2 (ja
Inventor
ウィロビー,クリストファー・ハーレー
エバート,ジェフリー・ジーザス
クラーク,ジャスティン・アヴラム
ヒンドル,ベン・ジョン
サーレット,ピーター・グレン
ディーゲロ,ジョエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014517413A publication Critical patent/JP2014517413A/ja
Application granted granted Critical
Publication of JP5985619B2 publication Critical patent/JP5985619B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • A63F13/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

仮想環境においてオブジェクトを制御するための方法、システム、および組み込まれたコンピュータ使用可能な命令を有するコンピュータ記憶媒体が提供される。実世界オブジェクトが、仮想環境へと受信可能である。実世界オブジェクトは、任意の人間でないオブジェクトであってもよい。オブジェクトスケルトンは、特定され、オブジェクトにマッピングされ得る。実世界ユーザのユーザスケルトンも、やはり特定され得、オブジェクトスケルトンにマッピングされ得る。ユーザスケルトンをオブジェクトスケルトンにマッピングすることによって、ユーザの動作は、仮想環境においてオブジェクトの動作を制御する。

Description

本願発明の一実施例は、例えば、仮想環境におけるオブジェクトの制御に関する。
[0001]仮想環境は、近年著しい進歩を遂げている。これらの進歩につれて、仮想環境との相互作用を高めたいというユーザからの要求が増加してきている。ウェブカメラに基づく頭部追跡を使用する所定のモデルのリアルタイム制御は、いくつかのビデオチャットアプリケーションにおいて現在利用可能であり、それにより、ユーザは、ユーザの頭部の位置を追跡することによって仮想アバターの頭部を制御し、ユーザの音声を使用してアバターの口を制御することが可能になる。それにもかかわらずこのケースでは、アバターは、事前に決められており、追跡は、頭部に限定され、ユーザの頭部の向きとアバターの頭部の向きとの間の単純な1対1マッピングが使用される。実世界から受信され、仮想オブジェクトへとディジタル化されたオブジェクトを、ユーザが十分に制御することを可能にするモデルは、現在のところ存在しない。言い換えると、オブジェクトは、事前に決められていない。さらに、ユーザの身体を使用して全体の仮想オブジェクト(例えば、手足、頭部、等)を制御するのにユーザのスケルトンの追跡情報を利用することは、利用可能ではない。
本願発明の一実施例は、例えば、仮想環境におけるオブジェクトの制御に関する。
[0002]この「発明の概要」は、「発明を実施するための形態」において下記にさらに説明される概念の選択を単純化した形態で紹介するために提供される。この「発明の概要」は、特許請求した主題の鍵となる特徴または本質的な特徴を特定することを目的とせず、特許請求した主題の範囲を決定する際に補助として使用されることも目的としない。
[0003]本発明の実施形態は、とりわけ、仮想環境においてオブジェクトを制御するためのシステム、方法、およびコンピュータ記憶媒体に関する。実世界オブジェクトは、以降に詳細に説明されるように、ディジタル化され得、例えば、ゲームシステムによって受信可能である。一実施形態では、実世界オブジェクトは、無生物オブジェクト(例えば、椅子、ボール、動物のぬいぐるみ、等)、ペット(例えば、猫)、等などの人間でないオブジェクトである。一旦、ディジタル化したオブジェクトが受信されると、オブジェクトがユーザによって制御されるように、オブジェクトおよび人間ユーザのさまざまなスケルトンのマッピングが実行可能である。言い換えると、ユーザの動作は、仮想環境においてオブジェクトの動作を制御することができる。
[0004]本発明は、添付した図面を参照して下記に詳細に説明される。
[0005]本発明の実施形態を実装する際に使用するのに適した例示的なコンピューティング環境のブロック図である。 [0006]本発明の一実施形態による、仮想環境においてオブジェクトを制御するための環境を示すブロック図である。 [0007]本発明の一実施形態による、ディジタル化のためにオブジェクトを提示するユーザの図である。 [0008]本発明の一実施形態による、オブジェクトをディジタル化するための作業の流れの図である。 [0009]図5Aは、本発明の一実施形態による、ディジタル化のためにオブジェクトを提示するユーザのカメラ視野像である。図5Bは、本発明の一実施形態による、ディジタル化のためにオブジェクトを提示するユーザのカメラ視野像である。 [0010]本発明の一実施形態による、オブジェクトをディジタル化するために利用可能なセグメント化した深さ画像である。 [0011]本発明の一実施形態による、深さと色のオフセットの図である。 [0012]本発明の一実施形態による、オブジェクトをディジタル化するために利用可能なソースカラー画像である。 [0013]本発明の一実施形態による、取り込んだオブジェクトの色セグメント化の図である。 [0014]本発明の一実施形態による、ディジタル化すべきオブジェクトを保持するために指図を与えるユーザインターフェース(UI)の図である。 本発明の一実施形態による、ディジタル化すべきオブジェクトを保持するために指図を与えるユーザインターフェース(UI)の図である。 [0015]本発明の一実施形態による、オブジェクトの三次元(3D)ポイントクラウド構成の図である。 [0016]本発明の一実施形態による、位置を合わせたポイントシートの2つの視野の図である。 [0017]本発明の一実施形態による、最終的なポイントクラウド構成の図である。 [0018]本発明の一実施形態による、ユーザに表示されたディジタル化したオブジェクトの確認画像を表示するUIの図である。 [0019]本発明の一実施形態による、取り込んだ画像のメッシュ出力の図である。 [0020]本発明の一実施形態による、オブジェクトのスムージングし処理した画像である。 [0021]本発明の一実施形態による、UV座標を有する画像である。 [0022]本発明の一実施形態による、最終的なテクスチャマップのセクションへと描かれた前向きの三角形エッジの図である。 [0023]図20Aは、本発明の一実施形態による、生成したスケルトンの構造の骨に加えられた重み付けを示す図である。図20Bは、本発明の一実施形態による、生成したスケルトンの構造の骨に加えられた重み付けを示す図である。図20Cは、本発明の一実施形態による、生成したスケルトンの構造の骨に加えられた重み付けを示す図である。図20Dは、本発明の一実施形態による、生成したスケルトンの構造の骨に加えられた重み付けを示す図である。図20Eは、本発明の一実施形態による、生成したスケルトンの構造の骨に加えられた重み付けを示す図である。 [0024]図21Aは、本発明の一実施形態による、輝度/彩度処理前の画像の図である。図21Bは、本発明の一実施形態による、輝度/彩度処理後の画像である。 [0025]図22Aは、本発明の一実施形態による、ソース画像の図である。図22Bは、本発明の一実施形態による、エッジがフィルタリングされた後の出力画像である。 [0026]図23Aは、本発明の一実施形態による、エッジ修復フィルタが背景色になる色を見つけた場合の画像の図である。図23Bは、本発明の一実施形態による、エッジ修復フィルタが対象になる色を見つけた場合の画像である。 [0027]図24Aは、本発明の一実施形態による、エッジから問題となる領域までの距離を示す画像である。図24Bは、本発明の一実施形態による、計算した背景確率値を示す画像である。 [0028]一実施形態による、最終的な合成テクスチャマップの図である。 [0029]図26Aは、本発明の一実施形態による、マスクされた値の図である。図26Bは、本発明の一実施形態による、ひどくぼけた頂点の色の図である。 [0030]図27Aは、本発明の一実施形態による、テクスチャだけを有するメッシュの図である。図27Bは、本発明の一実施形態による、頂点の色がマスク値によって混ぜ合わさったテクスチャを有するメッシュの図である。 [0031]本発明の一実施形態による、ディジタル化したオブジェクトの最終的なレンダリングの図である。 [0032]本発明の一実施形態による、仮想環境においてオブジェクトを制御するための方法を示す流れ図である。 [0033]本発明の一実施形態による、仮想環境においてオブジェクトを制御するための方法を示す流れ図である。
[0034]本発明の主題は、法的要件を満たすように本明細書において特異性と共に説明される。しかしながら、説明それ自体は、本発明の範囲を限定することを目的としない。むしろ、特許請求した主題が、他の方法でも具体化されて、他の現在の技術または将来の技術と協働して、本明細書に説明するものとは異なるステップまたは類似のステップの組合せを含み得ることが企図される。その上、「ステップ」および/または「ブロック」という用語が、利用する方法のさまざまな要素を含むように本明細書においては使用され得るが、これらの用語は、個々のステップの順序が明確に記載されない限りおよび記載されるときを除いて、本明細書中に開示したさまざまなステップ間でいずれかの特定の順序を示唆するようには解釈されるべきではない。
[0035]本発明の実施形態は、とりわけ、仮想環境においてオブジェクトを制御するためのシステム、方法、およびコンピュータ記憶媒体を対象とする。実世界オブジェクトは、以降に詳細に説明されるように、ディジタル化され得、例えば、ゲームシステムによって受信可能である。一実施形態では、実世界オブジェクトは、無生物オブジェクト(例えば、椅子、ボール、動物のぬいぐるみ、等)、ペット(例えば、猫)、等などの人間でないオブジェクトである。一旦、ディジタル化したオブジェクトが受信されると、オブジェクトがユーザによって制御されるように、オブジェクトおよびユーザのさまざまなスケルトンのマッピングが実行可能である。言い換えると、ユーザの動作は、仮想環境においてオブジェクトの動作を制御することができる。
[0036]したがって、本発明の一実施形態は、1つまたは複数のコンピューティングデバイスによって使用されるときに、仮想環境においてオブジェクトを制御するための方法をコンピューティングデバイスに実行させるコンピュータ使用可能な命令を記憶する1つまたは複数のコンピュータ記憶媒体を対象とする。本方法は、仮想環境においてオブジェクトを特定するステップを含む。オブジェクトは、任意の人間でないオブジェクトであってもよい。オブジェクトスケルトンは、オブジェクトにマッピングされる。オブジェクトスケルトンは、事前に定義されたテンプレートであってもよく、オブジェクトおよび/またはオブジェクトスケルトンは、相互にぴったりと合うように調節され得る。ユーザスケルトンは、受信され、オブジェクトスケルトンにマッピングされる。ユーザスケルトンは、ユーザのスケルトンの画像である。一旦、ユーザスケルトンがオブジェクトスケルトンにマッピングされると、オブジェクトは、ユーザによって制御される。特に、ユーザの動作は、仮想環境においてオブジェクトの動作を制御する。
[0037]本発明の別の一実施形態では、仮想環境においてオブジェクトを制御するためのプロセッサおよびメモリを備えたシステムを対象とする。本システムは、1つまたは複数のプロセッサおよび1つまたは複数のコンピュータ可読記憶媒体に関係付けられたコンピューティングデバイス、コンピューティングデバイスにつなげられたデータストア、ならびにユーザスケルトンおよびオブジェクトスケルトンを含む1つまたは複数のスケルトンを特定し、ユーザスケルトンをオブジェクトスケルトンにマッピングし、オブジェクトがユーザスケルトンの動作を忠実に反映するように操作されるようにオブジェクトスケルトンを管理する制御エンジンを備える。
[0038]本発明のさらに別の一実施形態は、1つまたは複数のコンピューティングデバイスによって使用されたときに、仮想環境においてオブジェクトを制御するための方法をコンピューティングデバイスに実行させるコンピュータ使用可能な命令を記憶する1つまたは複数のコンピュータ記憶媒体を対象とする。方法は、仮想環境においてオブジェクトを特定するステップを含む。オブジェクトは、仮想環境において仮想形態へとディジタル化されてきている実世界オブジェクトである。オブジェクトスケルトンは、オブジェクトの重心を特定し、オブジェクトスケルトンの中心をオブジェクトの重心上へと置くことによってオブジェクトにマッピングされる。オブジェクトは、オブジェクトスケルトンの底部がオブジェクトの底部と位置合わせされるように、オブジェクトスケルトンのサイズに対応するようにサイズを変更される。ユーザスケルトンは、次に受信され、オブジェクトスケルトンの1つまたは複数の関節角度がユーザスケルトンの1つまたは複数の関節角度を忠実に反映するように、オブジェクトスケルトンにマッピングされる。ユーザの動作は、特定され、ユーザの動作を特定するステップに応じて、オブジェクトの動作がユーザの動作を忠実に反映するように、オブジェクトを動かす。
[0039]本発明の実施形態の概要を手短に説明すると、本発明の実施形態が実装され得る例示的な動作環境が、本発明のさまざまな態様についての概括的なコンテキストを提供するために下記に説明される。特に、最初に図1を参照すると、本発明の実施形態を実装するための例示的な動作環境が示され、全体としてコンピューティングデバイス100と示される。コンピューティングデバイス100は、適したコンピューティング環境のほんの一例であり、本発明の使用または機能の範囲に関して何らかの限定を示唆しないものとする。コンピューティングデバイス100が、示したコンポーネントのいずれか1つまたは組合せに関係する何らかの依存性または必要条件を有するように解釈されるべきではない。
[0040]本発明は、コンピュータ、またはパーソナルデータアシスタントもしくは他のハンドヘルドデバイスなどの他のマシンによって実行される、プログラムモジュールなどのコンピュータ実行可能な命令を含むコンピュータコードまたはマシン使用可能な命令の概括的なコンテキストにおいて説明することができる。概して、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造、等を含むプログラムモジュールとは、特定のタスクを実行するまたは特定の抽象データタイプを実装するコードを言う。本発明は、ハンドヘルドデバイス、家庭用電気製品、汎用コンピュータ、より専門的なコンピューティングデバイス、等を含むさまざまなシステム構成において実行可能である。本発明はまた、通信ネットワーク介してリンクされたリモート処理デバイスによってタスクが実行される分散型コンピューティング環境において実行可能である。
[0041]図1を参照すると、コンピューティングデバイス100は、下記のデバイス、すなわちメモリ112、1つまたは複数のプロセッサ114、1つまたは複数のプレゼンテーションコンポーネント116、入力/出力(I/O)ポート118、入力/出力コンポーネント120、および例示の電源122、を直接的にまたは間接的につなげるバス110を含む。バス110は、何であろうとも(アドレスバス、データバス、またはこれらの組合せなどの)1つまたは複数のバスを表す。図1のさまざまなブロックが明確化のために線で示されるが、実際には、描かれたさまざまなコンポーネントは、それほど明確ではなく、例えて言えば、線は、さらに正確な表現をすれば、灰色であり曖昧であるはずである。例えば、I/Oコンポーネントになる表示デバイスなどのプレゼンテーションコンポーネントを考えることができる。また、プロセッサはメモリを有する。発明者らは、このようなものが本技術の本質であることを認識し、図1の図が本発明の1つまたは複数の実施形態とともに使用されることが可能な例示的なコンピューティングデバイスの単なる例示であることを繰り返して述べる。下記のすべてが、図1および「コンピューティングデバイス」への言及の範囲内であると考えられるので、「ワークステーション」、「サーバ」、「ラップトップ」、「ハンドヘルドデバイス」、等などのカテゴリー間で、区別は行われない。
[0042]コンピューティングデバイス100は、典型的にはさまざまなコンピュータ可読媒体を含む。コンピュータ可読媒体は、コンピューティングデバイス100によってアクセスされることが可能な任意の利用可能な媒体であることが可能であり、揮発性媒体と不揮発性媒体の両方、リムーバブル媒体とノンリムーバブル媒体の両方を含む。例として、限定ではなく、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含むことができる。コンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータなどの情報の記憶のための任意の方法または技術で実装された揮発性媒体および不揮発性媒体の両者、リムーバブル媒体およびノンリムーバブル媒体を含む。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、CD−ROM、ディジタル多用途ディスク(DVD)もしくは他の光ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置もしくは他の磁気記憶デバイス、または所望の情報を記憶するために使用されること可能であり、コンピューティングデバイス100によってアクセスされ得る任意の他の媒体を含むが、これらに限定されない。通信媒体は、典型的には、コンピュータ可読命令、データ構造、プログラムモジュールまたは、搬送波もしくは他のトランスポート機構などの変調されたデータ信号中の他のデータを組み込み、そして任意の情報配信媒体を含む。「変調されたデータ信号」という用語は、信号内に情報をエンコードするような方式で1つまたは複数の信号の特性を設定したまたは変更した信号を意味する。例として、限定するのではなく、通信媒体は、有線ネットワークまたは直接有線接続などの有線媒体ならびに、アコースティック媒体、RF媒体、赤外媒体、および他のワイヤレス媒体などのワイヤレス媒体を含む。上記のいずれかの組合せもまた、コンピュータ可読媒体の範囲内にやはり含まれるべきである。
[0043]メモリ112は、揮発性メモリおよび/または不揮発性メモリの形態のコンピュータ記憶媒体を含む。メモリは、リムーバブル、ノンリムーバブル、またはこれらの組合せであってもよい。例示的なハードウェアデバイスは、固体メモリ、ハードドライブ、光ディスクドライブ、等を含む。コンピューティングデバイス100は、メモリ112またはI/Oコンポーネント120などのさまざまなエンティティからデータを読み出す1つまたは複数のプロセッサを含む。(1つまたは複数の)プレゼンテーションコンポーネント116は、ユーザまたは他のデバイスにデータ表示を提示する。例示的なプレゼンテーションコンポーネントは、表示デバイス、スピーカ、印刷コンポーネント、振動コンポーネント、等を含む。
[0044]I/Oポート118は、コンピューティングデバイス100がI/Oコンポーネント120を含む他のデバイスに論理的につなげられることを可能にし、他のデバイスのいくつかは、ビルトインであってもよい。例示のコンポーネントは、マイクロフォン、ジョイスティック、ゲームパッド、衛星用パラボラアンテナ、スキャナ、プリンタ、ワイヤレスデバイス、等を含む。
[0045]前に示したように、本発明の実施形態は、仮想環境においてオブジェクトを制御することを対象とする。ここで図2に転じて、ブロック図は、本発明の実施形態が利用可能な例示的なコンピューティングシステム200を図説することを提供する。本明細書において説明するこの配置および他の配置が例としてのみ示されることを理解すべきである。別の配置および要素(例えば、マシン、インターフェース、機能、順序、および機能のグループ分け、等)が、示したものに加えてまたは代わりに使用されても、いくつかの要素は、完全に省略されてもよい。さらに、本明細書において説明する要素の多くは、別個の要素もしくは分散型要素として、または他のコンポーネントとともに、ならびに任意の適した組合せおよび場所に実装可能な機能エンティティである。1つまたは複数のエンティティによって実行されるように本明細書において説明するさまざまな機能は、ハードウェア、ファームウェア、および/またはソフトウェアによって実行可能である。例えば、さまざまな機能は、メモリ内に記憶された命令を実行するプロセッサによって実行可能である。
[0046]示されていない他のコンポーネントの中で、コンピューティングシステム200は、概してネットワーク210、データストア220、および制御エンジン230を含む。制御エンジン230は、下記に説明する機能を実行するために専用デバイスの形態を取ることができ、例えば、ネットワークアクセスデバイス、ゲームシステム、等、またはこれらの任意の組合せへと一体化され得る。コンピューティングシステム200のコンポーネントは、ネットワーク210を介して相互に通信することができ、ネットワークは、限定ではなく、1つもしくは複数のローカルエリアネットワーク(LAN)および/またはワイドエリアネットワーク(WAN)を含むことができる。このようなネットワーク環境は、事務所、会社規模のコンピュータネットワーク、イントラネット、およびインターネットにおいて普通である。任意の数のコンピューティングデバイスおよび制御エンジンが本発明の実施形態の範囲内でコンピューティングシステム200の中に採用され得ることを、理解すべきである。1つのデバイス/インターフェースまたは分散型環境において協働する複数のデバイス/インターフェースを、各々が含むことができる。例えば、制御エンジン230は、分散型環境内に配置された複数のデバイスおよび/またはモジュールを含むことができ、これらは本明細書において説明する制御エンジン230の機能を全体として与える。加えて、示されていない他のコンポーネント/モジュールもまた、コンピューティングシステム200内に含まれることがある。
[0047]いくつかの実施形態では、示したコンポーネント/モジュールのうちの1つまたは複数は、スタンドアロンアプリケーションとして実装され得る。別の実施形態では、示したコンポーネント/モジュールのうちの1つまたは複数は、インターネットベースのサービスとして、またはゲームシステムの内部のモジュールとして制御エンジン230を介して実装され得る。図2に示されたコンポーネント/モジュールは、性質においておよび数において例示的であり、限定するようには解釈すべきでないことが、当業者には理解されるであろう。任意の数のコンポーネント/モジュールが、本発明の実施形態の範囲内で所望の機能を実現するために採用されことがある。さらに、コンポーネント/モジュールは、任意の数のサーバまたはクライアントコンピューティングデバイス上に設置され得る。単に例として、制御エンジン230は、ゲームシステム、サーバ、サーバのクラスタ、または1つもしくは複数の残りのコンポーネントからは遠くのコンピューティングデバイス内に存在することがある。
[0048]本明細書において説明するこの配置および他の配置が例としてのみ示されることが理解されるはずである。別の配置ならびに要素(例えば、マシン、インターフェース、機能、順序、および機能のグループ分け、等)が、示したものに加えてまたは代わりに使用されても、いくつかの要素は、完全に省略されてもよい。さらに、本明細書において説明する要素の多くは、個別の要素もしくは分散型要素として、または他のコンポーネント/モジュールとともに、ならびに任意の適した組合せおよび場所に実装可能な機能エンティティである。1つまたは複数のエンティティによって実行されるように本明細書において説明するさまざまな機能は、ハードウェア、ファームウェア、および/またはソフトウェアによって実行可能である。例えば、さまざまな機能は、メモリ内に記憶された命令を実行するプロセッサによって実行可能である。
[0049]概して、システム200は、仮想環境におけるオブジェクトが実世界ユーザによって制御される環境を示す。下記にさらに詳細に説明するように、本発明の実施形態は、ディジタル化したオブジェクトを受信するステップおよびスケルトンをオブジェクトにマッピングするステップを提供する。本発明のさらなる実施形態は、ユーザが仮想環境においてオブジェクトを制御するように、ユーザスケルトンをオブジェクトにマッピングするステップを提供する。
[0050]制御エンジン230は、仮想環境においてオブジェクトを管理するように構成され、その結果、オブジェクトは、ユーザによって制御され得る。仮想環境におけるオブジェクトは、ペット、動物のぬいぐるみ、椅子、等などの任意の人間でないオブジェクトであってもよい。制御エンジン230は、受信コンポーネント231、特定コンポーネント232、マッピングコンポーネント233、および表示コンポーネント234を含む。コンポーネントの各々は、ユーザが仮想環境においてオブジェクトを制御することを、制御エンジン230が容易にすることを可能にするように構成される。
[0051]受信コンポーネント231は、とりわけ、ディジタル化されているオブジェクトを受信するように構成され得る。オブジェクトは、一実施形態では、実世界オブジェクトである。実施形態では、オブジェクトは、任意の人間でない、実世界オブジェクトである。ディジタル化とは、本明細書において使用するとき、概して、システム200に提供された実世界オブジェクトを特定し、実世界オブジェクトを仮想オブジェクトへと処理するプロセスを言う。
[0052]図3は、一実施形態による、オブジェクト306のディジタル表示を作るためのユーザ304のための環境300の図である。具体的に、環境300は、コンピューティングデバイス302へタコの人形として示されたオブジェクト306を提示するユーザ304を示し、コンピューティングデバイス302は、2つのカメラすなわちカラーカメラ308および深さカメラ310を搭載している。環境300において、コンピューティングデバイス302は、Microsoft Corporation(登録商標)によって作られたMicrosoft Kinect(商標)などのゲームコンソールである。コンピューティングデバイス302上のカメラは、オブジェクト306を含む1つまたは複数の画像を取り込む。カラーカメラ308は、画像用の色データを取り込み、深さカメラ310は、深さデータを取り込む。代替実施形態では、コンピューティングデバイス302は、色データおよび深さデータの両方を取り込む1つのカメラを有するだけであってもよい。
[0053]図示しないが、ユーザ304は、裏側の画像を取り込むために、コンピューティングデバイスにオブジェクト306の裏側を提示することができ、裏側画像は、表側画像と結合され、オブジェクト306の3D表示を生成するために使用され得る。オブジェクトの別の視野の追加画像もまたより完全な3Dディジタル化をもたらすために取り込まれることがある。
[0054]図4は、一実施形態による、オブジェクトをディジタル化するための作業の流れ400の図である。最初に、402において示したように、ユーザは、画像が撮られるように、コンピューティングデバイス上のカメラにオブジェクトを提示する。コンピューティングデバイスは、いくつかの実施形態では、画像の最適画像を取り込むために特定の領域へとオブジェクトを動かすようにユーザに指示することができる。例えば、ディスプレイ上に外形線を形成し、ユーザおよびオブジェクトのリアルタイム画像を示し、次に外形線へとオブジェクトを動かすようにユーザに指示する。一旦、初期画像が撮られると、404において示したように、コンピューティングデバイスは、取り込むためにオブジェクトの裏側を提示するようにユーザに指示することができる。裏側を取り込むための指図は、コンピューティングデバイスによって同様に行われることがある。取り込まれた各画像について、色データおよび深さデータが、記憶され、表示されるオブジェクトをディジタル化するために使用される。その上、複数の画像が、オブジェクトの前側像および裏側像用に取り込まれることがある。例えば、コンピューティングデバイスは、10枚の前面画像および10枚の裏面画像を撮るように、そしておそらく前面の10枚を一緒におよび裏面の10枚を一緒にマージするように、または画像をディジタル化するために20枚すべてを使用するように構成され得る。10枚の画像が、オブジェクトをディジタル化するための画像の理想的な数であるように示しているが、別の実施形態は、異なる数の取り込んだ画像を使用することができる。
[0055]一旦、オブジェクトの前面画像および裏面画像がカメラによって取り込まれると、一実施形態は、406において示したように、カメラまでの画像内で最も近接した点を画像の深さデータを使用して検索することによって、オブジェクトをディジタル化することを始める。ユーザは、ユーザの前にディジタル化するオブジェクトをおそらく保持し、そのためオブジェクトは、他のものよりもカメラに近いはずである。図3に戻って、ユーザ304が自分の前にオブジェクト306を保持し、そのため、コンピューティングデバイス302により近いことに気付くことがある。画像内で最も近接したオブジェクトの場所を見つけることは、画像に関係する深さデータを使用して実現されることがあり、いくつかの実施形態は、前側画像および裏側画像の両者について処理を実行し、両者の中で最も近接したオブジェクトを特定する。
[0056]408において示したように、画像内で特定された最も近接したオブジェクトは、次に、オブジェクト端がどこであるかを特定するためにエッジを検索される。深さデータは、画像中のオブジェクトのエッジの位置を見つけるために再び使用される。エッジ検索は、最も近接した点から外へ向かって始められ、複数の点の深さの著しい違いを探す。例えば、図3中のタコのエッジは、ユーザ304の肩を表す隣接する点よりもほぼ0.5メートル近い点を有することがある。このような著しい違いは、隣接する点がオブジェクトの一部ではなく、したがってさらに先のディジタル化ステップには含まれるべきではないという読み取り可能な信号を表す。このような方法でオブジェクトのすべてのエッジの位置を見つけることは、コンピューティングデバイスが画像内のオブジェクトを特定することを可能にする。
[0057]一旦、オブジェクトが決定されると、一実施形態は、画像の残り(すなわち、オブジェクトとして特定されない画像の部分)に関係する色データをオフに切り替える。いくつかの実施形態では、複数の画像(例えば、オブジェクトの前面の10枚の画像および裏面の10枚の画像)を取り込むことが必要である場合があり、そのため、410において示したように、スムージング技術が、フレーム間の見つけたエッジを混ぜ合わせるために必要とされることがある。例えば、オブジェクトは、フレーム1とフレーム4との間で動くことがあり、そのためフレーム間のエッジのスムージングが、オブジェクトの正確な表示を得るために必要とされることがある。加えて、ノイズ、低解像度、および深さと色の位置合わせにおける不完全性がまた、エッジの追加のスムージングおよび/またはフィルタリングを必要とさせることがある。
[0058]一実施形態では、412において示したように、結果として得られたスムージングしおよび/またはフィルタリングしたオブジェクトは、確認のためにユーザに提示される。ユーザは、次に、結果として得られたオブジェクトを受容するまたは拒絶することが可能である。受容された場合には、追加の処理が、オブジェクトをディジタル化するために続くことがある。拒絶された場合には、実施形態は、オブジェクトの新しい写真を撮ることによって処理全体を始めるかどうかをユーザに問い合わせることができる、または単純にオブジェクトを再スムージングするまたは再フィルタリングすることができる。
[0059]最終的に、前面画像および裏面画像は、3Dでのオブジェクトのポイントクラウド構成を生成するために使用される。図12に詳細に示される「ポイントクラウド構成」は、特定されたオブジェクトの各点またはピクセルの深さを用いて、3D空間へのオブジェクトの前面画像および/または裏面画像のマッピングである。ポイントクラウド構成は、オブジェクトのさらに先のディジタル化の際に使用される。
[0060]図5〜図27は、ディジタル化プロセスにおけるさまざまなステップの画像を示し、さまざまな実施形態によって使用される処理を図説するために下記にさらに詳細に論じられる。具体的に、図5Aおよび図5Bは、一実施形態による、ディジタル化のためにオブジェクトを提示するユーザのカメラ視野像である。図示した実施形態では、オブジェクトの2つの視野が取り込まれる。カラーカメラは、対象になるオブジェクトの周りの640×480の色ウィンドウを得るためにフレームの中心上にズームインされ、色ウィンドウの角は、次に(角が、対象になるオブジェクトの前面にあると仮定して)深さフレーム座標へと変換される。一致する160×120のウィンドウが、次に、深さフレームから捉えられる。(カメラまでの対象になるオブジェクトの距離に依存して)この事前フレームウィンドウ調節を用いないと、深さウィンドウおよび色ウィンドウは、可能な限り十分には重ならないことがある。その上、生の色および生の深さは、深さと色の位置合わせまたは色と深さの位置合わせを実行しないで取り込まれる。さまざまな他の解像度が代わりに使用され得るので、この解像度数およびウィンドウは、単に例示の目的で与えられる。
[0061]一実施形態では、深さ画像は、対象になるオブジェクトにセグメント化される。そうするために、カメラに最も近接した深さピクセルが、このような点が対象になるオブジェクト上にあると仮定して、検索され、見つけられる。この実施形態は、次に、見つけた最も近接した点から外へ向かって、深さエッジ(すなわち、深さがオブジェクトの前面から遠すぎる場合、または深さデータがない場合)にぶつかるまで塗りつぶす。加えて、大きな勾配の領域の周りでありかつ非常に少ない隣接点しか有さない点は、除かれることがある。結果は、図6に示したように、対象になるオブジェクト上にある深さピクセルのマスク(本明細書においては「セグメント化した深さ画像」と呼ばれる)である。セグメント化した深さ画像は、深さフレーム(10のリングバッファサイズで出荷されたBAB/GOE)のリングバッファ中に記憶され、最も古い深さフレームを書き換え、すべてのフレームを全体として平均して最終的な深さ画像を得る。一実施形態では、セグメント化した深さピクセルだけが、最終的な平均に寄与する。結果として、ノイズはスムージングされ、より安定なオブジェクトエッジをもたらし、オブジェクトの複数の部分がノイズまたはIR反射の悪い物質のために点滅しセグメント化から外れるシナリオを改善する。
[0062]図7は、一実施形態による、深さと色のオフセットの図である。図示したように、一実施形態は、緑色点を表す緑色(最上部の右角に示される)、赤色(下側左角に示される)、およびその間に2つの混合色を有する深さと色のオフセットテーブルを作る。各ピクセルの深さ空間座標と色空間座標との間のオフセットは、色セグメント化およびメッシュ処理中に迅速なルックアップのためにテーブル中に記憶され、同様に、特定のカメラの較正設定にかかわらず、2枚の取り込んだカラー画像だけを使用して出力メッシュを完全に再生することを助ける。オブジェクトセグメント化の外のテーブルの領域は、外に向かうセグメント化のエッジのところのオフセットをコピーすることによって埋められることがある。エッジにおけるコピーしたオフセットは、深さ画像へと投影された出力メッシュ中の頂点が深さセグメント化の境界線の外側になるケースを取り扱うために後で使用され得る。
[0063]一実施形態に従って、図8は、ソースカラー画像であり、図9は、取り込んだオブジェクトの色セグメント化の図である。深さ空間におけるセグメント化から始めると、一実施形態は、星形分配パターンを使用して、各々のセグメント化した深さピクセルを320×240の色セグメント化バッファへと分配する。結果として得られたパターンは、次に、640×480へと「アップサンプル」され、ソース深さピクセルが「理想的な」距離からどれだけ遠いかを記述する「理想からの距離」値が、次に各々のセグメント化した色ピクセルについて計算される。理想的な距離は、可能な限り色/深さデータを多く取得するために、ユーザが対象になるオブジェクトをどれだけカメラに近づけて保持すべきかを、深さカメラの前面クリップ平面を横切らずに表す。これらの値は、取込みプロセス中にユーザへのフィードバックとして表示され得る。理想からさらに遠くのピクセルは、理想に近いピクセルよりももっとひどくぼかされ汚されることがある。理想からの距離値は、リアルタイムプレビューのために使用されるカラー画像のアルファチャネルへと最終的にはコピーされる。
[0064]図10および図11は、一実施形態による、ディジタル化されるオブジェクトを保持するための指図を与えるユーザインターフェース(UI)の図である。図10は、図示した実施形態が、セグメント化したピクセルの数、カメラまでの距離、カメラ視野の中心からの距離、ピクセル安定性、オブジェクトサイズを解析し、オブジェクトをどのようにして最良の位置に置くかについての視覚フィードバックおよびテキストフィードバックを与えることを示す。フィードバックは、スクリーン上の外形線の形態であってもよい。図11は、上記のものと同じプロセスを使用する、対象になるオブジェクトの裏面の画像の色データおよび深さデータを示す。一実施形態は、セグメント化した前面取込み画像の外形線を使用してオブジェクトを正しく向けるようにユーザに指図する。前面取込み画像および裏面取込み画像が後で自動的に位置合わせ可能であるという理由で、ユーザは、正確に外形線を一致させなければならないことはない。
[0065]図12は、一実施形態による、ポイントクラウド構成を示す。この時点で、2つの色データ画像および深さデータ画像は、対象になるオブジェクトへとセグメント化されている。これらの画像を使用して、対象になるオブジェクトの表面上の点のポイントクラウド構成が、作られることが可能であり、三角形メッシュを再構成するために後で使用され得る。前面深さ画像中のセグメント化したピクセルは、3Dポイント「シート」へと変換される。一実施形態では、位置は、深さデータを使用して深さ画像空間からモデル空間へと投影されずに、原点はシートの裏面中心である。シートのエッジは、追加の点を加えることによって裏に向かって突き出し、オブジェクトの側面を形成する。オブジェクトがどれだけ「深い」かを推測するために、BAB/GOEでは、突き出した距離についての一定値が使用される。
[0066]同様に、裏面深さ画像からの3Dポイントシートは、原点として前面取込み画像の裏面中心を使用して作られる。図13は、一実施形態による、位置を合わせられたポイントシートの2つの視野である。シートの位置を合わせるために、初期変換は、上向きの軸の周りで180度このシートを回転して計算され、その結果、ポイントクラウドの裏面を形成する。一実施形態では、前面シートおよび裏面シートのエッジを可能な限り近くに位置を合わせる別の変換が、計算される。位置合わせプロセスは、裏面シートの重心が前面シートの重心と一致するように裏面シートを移動することがある。ブルートフォース反復は、次に、各前面エッジ点からその最も近接した裏面エッジ点までの距離の総和として計算される「位置合わせ誤差」値を最小にするために、移動および回転の範囲全体にわたって使用される。反復は、マルチパス(各パスで、1回に1つ各々の移動および回転軸についての最良値を計算することを試みる)で行われることがあり、各軸を横切る検索は、効率性のために2段の階層的な手法を使用して行われる。最近接点検索は、3Dセル空間区分を使用して加速される。一実施形態はまた、高速のきめ細かい位置合わせ用の反復最近接点(「ICP」)アルゴリズムを実装する、または代替で、より優れた制御の必要性が、ブルートフォース法反復だけの使用を指示することがある。
[0067]裏面シート中に対応する点を有さない前面シートからの点は、最も近い裏面点を見つけるために各前面点から後ろに向かって検索するために抜粋されることがある。同じように、前面シート中に対応する点を有さない裏面シートからの点は、抜粋されることがある。これが、ユーザの手が取込み画像内にあるが、取込み画像間で位置を変える場合に、またはオブジェクトが前面取込み画像と裏面取込み画像との間で形状を変える場合に生じることがあるような、前面取込み画像と裏面取込み画像との間で一致しないシートの部分を取り除く。
[0068]一実施形態では、残りの点は、最終的なポイントクラウドへと一緒にマージされ、点に対する法線は、各点およびその右隣りと下隣りによって形成される平面を使用して計算される。図14は、一実施形態による、最終的なポイントクラウド構成を示す。
[0069]確認画像は、図15に示したように、次に、ユーザに提示され得る。確認画像は、シート位置合わせおよび点抜粋の結果を組み入れて、取込み、位置合わせ、または抜粋がひどく失敗したケースを検出すること、および構成プロセスの残りを経ずに再び取り込むことをユーザに可能にする。画像は、最終的なポイントクラウド中の点を前面カラー画像および裏面カラー画像のアルファチャネルへと投影しかつ分配し、位置合わせ変換に基づいて裏面画像を回転し、ある追加の画像のクリーンアップを行うことによって、作られる。
[0070]表面再構成ステップは、最終的なポイントクラウドを撮り、三角形メッシュを生成する。図16は、表面再構成を用いたメッシュ出力の図を示す。これは、メモリと時間の両方においてディジタル化の計算的に見て最も激しい部分である場合があり、いくつかの実施形態では、ほぼ20,000点の典型的なポイントクラウドデータに対して10〜20秒かかる。穴埋めの量は、制御下にメモリ使用量を保つために再構成中には制限され得るが、ポイントクラウド中に大きな穴がある場合には、このような制限は、水漏れの多いメッシュのような状態を結果としてもたらすことがある。
[0071]図17は、一実施形態による、オブジェクトのスムージングし処理した画像である。頂点隣接リストが作られ、面法線および頂点法線が計算される。次に、一実施形態は、ラプラスアルゴリズムを使用して、いくつかの制約をスムージングする。結果として、オブジェクトの側面は丸められ、ノイズが除去され、ポイントシートが完全には整列していな領域は、クリーンアップされる。
[0072]ポイントクラウドの品質に応じて、表面再構成は、単一の大きなメッシュの代わりに形状の小さな「島」を作ることが可能である。一実施形態は、接続されたコンポーネントのラベルを使用して、島を見つけ、その体積を計算し、最も大きな島よりも著しく小さな島を除去する。
[0073]各頂点について、一実施形態は、その頂点の法線と前面取込み視野方向および裏面取込み視野方向との間のドット積を考察する。前面視野方向は、モデル空間の負のZ軸に沿うことがあり、裏面視野方向は、シート位置合わせプロセスの結果に依存することがあり、正のZ軸に沿わないことがある。結果として、いくつかの頂点は、前面取込み視野および裏面取込み視野の両方に見られことがあり、いくつかの頂点は、どちらの視野にも見られないことがある。いくつかの頂点は、その法線が裏面よりも前面に向いている場合には「前面」として分類されることがあり、逆もまた同様である。これはやはり、「シーム」頂点(すなわち、オブジェクトの前面視野および裏面視野にまたがる頂点)の位置決定を可能にする。
[0074]最終的なメッシュ上へと適用するテクスチャマップを作るために、一実施形態は、前面取込み画像からのカラー画像をテクスチャの最上部に置き、裏面取込み画像からのカラー画像を前面取込み画像のすぐ下に置く。テクスチャの最上部部分からのテクセルは、次に、主として前向きの三角形上へとマッピングされ、主として裏向きの三角形についても同様である。頂点は、最初には、ちょうど前面裏面のシームに沿った前面三角形と裏面三角形との間で共有されることがあり、後に、これらの共有された頂点は、複製されることがあり、その結果、前面三角形と対比して裏面三角形にテクスチャの異なる部分をマッピングする。
[0075]一実施形態に従って、図18は、UV座標を有する画像を示し、図19は、最終的なテクスチャマップの一部へと描かれた前向きの三角形エッジの図を示す。UV座標を計算するために、前向き三角形は、前面取込みカラー画像が置かれるテクスチャの最上部部分にマッピングされ、底部についても同様である。頂点位置は、深さカメラの空間内にあるが、カラー画像は、カラーカメラの空間内にあり、そのため、前面深さ画像/裏面深さ画像上へと頂点を投影した後で、一実施形態は、深さと色のオフセットテーブルを使用して、座標をカラーカメラ空間へと変換する。
[0076]一実施形態では、メッシュは、中心位置を変更され、上向きの軸に関してミラーリングされ、最大幅/高さアスペクト比を守るためにスケーリングされる。取り込んだカラー画像および深さ画像は、実際の物理的なオブジェクトと比較するためにミラーリングされ、そのために別のミラーリングが、これを反転するために使用される。スケルトンは、最適化されることがあり、アニメーションが、幅の広いオブジェクトよりもむしろ背の高いオブジェクトに対して追加されることがあり、そのため、幅/高さアスペクト比制限が、ある種のスケルトンとは一致しない幅の広いオブジェクトをアニメ化することによって生じるアーティファクト上に境界線を引く。
[0077]一実施形態では、1つのスケルトンが、オブジェクトのすべてのアニメーションに対して使用される。スケルトンは、対象になるオブジェクトがはるかに多くの形状を有することを必要とせずに、動き(歩くこと、ジャンプすること、はうこと、ダンスすること、左右を見ること、等)の良い範囲を与える骨を有することができる。
[0078]ディジタル化した画像に肌を付けるために、メッシュは、スケーリングし直され、位置決めされ、その結果、スケルトンは、最上部の骨がオブジェクトの最上部からある割合(例えば、ほぼ90%)に位置し(最上部の骨をオブジェクトの「頭部」の大雑把に内側に置き)、底部の骨をオブジェクトの底部範囲のところに置いた状態で、その内側にぴったりと一致する。骨インデックスが、次に計算されることが可能であり、各頂点への上向きの軸に沿って最も近い骨を見つけることによってスケルトンに重みが付け加えられ、フォールオフ曲線を使用して骨を重み付けする。図20A〜図20Eは、一実施形態による、生成したスケルトン構造のさまざまな骨に加えられた重み付けを示す図である。オブジェクトにスケルトンを適用することは、下記に詳細に論じられる。
[0079]カラー画像および/または深さ画像は、ノイズを減少させ品質を向上させるために処理される。処理は、一実施形態では、前面画像および裏面画像に独立に行われ、結果が、最終的なテクスチャマップへとマージされ、このマップは追加の処理を必要とすることがある。いくつかの実験およびアーティストからのフィードバックの後で、下記のステップが最適であることが見出された。sRGB色を線形空間へと変換し、「グレイワールド」自動ホワイトバランスを適用し、エッジアーティファクトを修復し、輝度値および彩度値を計算し、輝度に対してバイラテラルフィルタリング、ヒストグラムイコライゼーション、およびシャープニングを適用し、彩度に中央値フィルタリングを適用し、sRGBに変換して戻し、最後に、画像のセグメント化していない領域へと外に向かって色のエッジを延伸する。他のステップが、追加されてもよく、上記のいくつかは、別の実施形態では削除されてもよい。
[0080]図21Aおよび図21Bは、一実施形態による、輝度/彩度処理前後の画像を示す。独立に輝度/彩度を処理することは、輝度画像中の詳細を保存しながら彩度をはるかに強くフィルタリングすることを可能にし、これは画像をノイズ除去することに効果的である。ヒストグラムイコライゼーションは、露出の悪い画像を補償するために非常に軽く適用され得る。
[0081]図22Aおよび図22Bは、一実施形態による、ソース画像およびエッジがフィルタリングされた後の出力画像を示す。一実施形態では、「エッジ修復フィルタ」は、実際には背景からでありオブジェクト自体ではないものに由来する対象になるオブジェクトのエッジのところの色を置き換えるように試みる。悪い色は、深さ画像の比較的低い解像度および大きなノイズならびに不完全な深さと色の位置合わせに起因して紛れ込むことがある。エッジ修復フィルタは、オブジェクトエッジのすぐ周りのピクセルの「議論の領域」上に動作する。議論の領域の内側のピクセルは、明確に対象になるオブジェクトの一部分であり、もっと外部のピクセルは背景の一部分であるという仮定を使用すると、「背景確率」値は、議論の領域のピクセルごとに計算され、高確率背景ピクセルを内側の色に対して混ぜるために使用される。
[0082]図23Aおよび図23Bは、一実施形態による、エッジ修復フィルタが背景色および対象になる色を見つける画像を示す。対象になる色は、外側から議論の領域へと外挿される。
[0083]図24Aおよび図24Bは、一実施形態による、エッジから議論の領域までの距離および計算した背景確率値を示す画像である。さらにその上、図25は、一実施形態による、最終処理をしていない画像上にテクスチャ加工を行った画像の最終的な合成テクスチャマップを示す。
[0084]前面画像および裏面画像を一緒に置くことから生じるシームは、修復される必要がある場合がある。メッシュ処理のわずかな残りは、前面と裏面シームの近くでありかつ取込み中にカラーカメラに見えない領域内のオブジェクトの外見を改善するために使用される。最初に、テクスチャ色が頂点においてどれだけ「悪い」かを表す頂点ごとのマスク値が計算される。この値は、(前面画像および裏面画像が接触するが、概して、上手く並んでない)シームまでの距離と、(カメラ視野から遠くに向いている表面に起因して、およびやはり不十分なテクセル密度から、テクスチャ色が分解される)取り込んだ画像のいずれかに対して頂点がどれだけ裏に向いているかとの積である。これらの値は、頂点色アルファチャネル内に記憶され得る。次に、表面色のぼかしたバージョンが、計算され、頂点色RGBチャネル中に記憶される。これらの色は、(細部においては低いが)かなり良い品質である。修復を必要とする負のアーティファクトは、比較的局在化され、高い頻度のものであり、ぼかすことは、より全体的な、低い頻度の色を与える。
[0085]図26Aおよび図26Bは、一実施形態による、マスクした値およびひどくぼけた頂点の色を示す。実行時間において、マスク値は、一実施形態では、ソーステクスチャとぼけた頂点の色とを混ぜ合わせるために使用される。図27Aおよび図27Bは、一実施形態による、テクスチャだけを有するメッシュ(図27A)および頂点の色がマスク値によって混ぜ合わさったメッシュ(図27B)を示す。
[0086]図28は、一実施形態による、ディジタル化したオブジェクトの最終的なレンダリングを示す。一実施形態では、一旦、最終的なメッシュおよびテクスチャが完成すると、Unreal Engine3メッシュが、作られ、環境ならびにリム照明、自己遮蔽、およびアニメーションでレンダリングされる。GOEアプリもまた、Nuiスケルトンをスケルトン上へとマッピングすることによってオブジェクトをアバター化することを可能にする。
[0087]図2に戻って、受信コンポーネント231は、ユーザスケルトン情報を受信するようにさらに構成され得る。ユーザスケルトン情報とは、本明細書において使用するとき、概して、ユーザのスケルトンを特定するデータを言う。特に、関節角度、関節位置、等は、ユーザスケルトン情報中に含まれる。一実施形態では、受信コンポーネント231は、オブジェクトおよびユーザスケルトン情報を受信するように構成されたカメラの形態を取ることができる。追加の実施形態では、カメラは、ゲームシステムのカメラである。
[0088]特定コンポーネント232は、とりわけ、仮想環境においてオブジェクト(例えば、受信コンポーネント231によって受信されているディジタル化されたオブジェクト)、ユーザスケルトン、オブジェクトスケルトン、等を特定するように構成され得る。オブジェクトスケルトンとは、本明細書において使用するとき、概して、仮想環境においてオブジェクト上に置くためのスケルトンを言う。一実施形態では、1つのシステムが定義したテンプレートオブジェクトスケルトンが、仮想環境においてオブジェクトを制御するために使用される。代替実施形態では、複数のシステムが定義したテンプレートが、仮想環境においてオブジェクト上に置くために利用可能である場合がある。追加の実施形態では、オブジェクトスケルトンは、下記により詳細に説明するように、ユーザの動きのデモンストレーションに基づいてリアルタイムで作られてもよい。
[0089]最初に、一旦、オブジェクトがシステム200によって受信されると、特定コンポーネント232は、オブジェクトと関係付けるためにオブジェクトスケルトンを特定することができる。1つのシステムが定義したテンプレートオブジェクトスケルトンが、オブジェクトと関係付けるために利用可能であると仮定すると、特定コンポーネント232は、オブジェクトと関係付けるために1つのシステムが定義したテンプレートオブジェクトスケルトンを特定することができる。
[0090]あるいは、複数のオブジェクトスケルトンが利用可能である場合には、特定コンポーネント232は、オブジェクトの1つまたは複数の特性を特定することができる。オブジェクトの1つまたは複数の特性は、オブジェクトの手足の数、オブジェクトの形状、オブジェクトのサイズ(例えば、長さ、幅、等)、等を含むことができるが、これらに限定されない。1つまたは複数の特性は、次に、特定コンポーネント232によって利用されることがあり、複数のオブジェクトスケルトンのうちの、オブジェクトの1つまたは複数の特性と対応する1つまたは複数のオブジェクトスケルトンを特定することができる。例えば、オブジェクトが2つの手足を有すると特定される場合には、2つの手足を有するオブジェクトスケルトンは、4つの手足を有するオブジェクトスケルトンよりもオブジェクトに対してよい一致である。
[0091]追加の実施形態では、オブジェクトスケルトンは、ユーザの自由度に基づいてリアルタイムで作られることがある。例えば、ユーザは、その手足を使用することによって特定コンポーネント232に対して動きをデモンストレーションすることができる。動作における自由度(すなわち、関節)をデモンストレーションすることによって、オブジェクトスケルトンは、ユーザの関節情報に基づいてリアルタイムで作られることがある。
[0092]特定コンポーネント232はまた、ユーザのユーザスケルトンを特定するように構成され得る。実施形態では、ユーザは、人間のユーザである。ユーザスケルトンは、例えば、Microsoft Corporation(登録商標)によって作られたMicrosoft Kinetic(商標)システムなどのゲームシステムへと集積された、例えば、スケルトン追跡技術を使用して特定され得る。特定コンポーネント232は、システム200の画像内のユーザを特定することができる。ユーザは、画像の各ピクセルおよび特定コンポーネント232からの各ピクセルの距離によって画像内で特定され得る。例えば、ユーザの各ピクセルは、特定コンポーネント232からほぼ等距離であるはずであるが、ユーザの背後のランプは、特定コンポーネント232からはユーザとは異なる距離であるはずである。加えて、ユーザの形状が、画像内のユーザを特定するために使用され得る。これらの技術を使用して、ユーザは、次に、背景から分離され得る。
[0093]一旦、ユーザが画像内で特定されると(すなわち、背景から分離されると)、ユーザのユーザスケルトンは、特定され得る。ユーザスケルトンは、ユーザの姿勢を特定することによって特定され得る。ユーザの姿勢とは、本明細書において使用されるとき、概して、ユーザの画像が取り込まれる時点でのユーザの位置を言う。ユーザの姿勢の中で、姿勢の関節角度、姿勢の関節位置、等を含むが、これらに限定されないユーザスケルトン情報が、特定される。ユーザの姿勢、およびその中のユーザスケルトン情報は、例えば、データストア220から入手可能である1つまたは複数のテンプレート姿勢に対して比較され得る。比較は、ユーザの姿勢の関節角度および関節位置をテンプレート姿勢の関節角度および関節位置と比較することができる。この情報を比較することによって、テンプレート姿勢に最も近い一致が特定され得る。最も近い一致は、ユーザスケルトンに関係付けられることがある。
[0094]マッピングコンポーネント233は、とりわけ、オブジェクトスケルトンをオブジェクトにおよびユーザスケルトンをオブジェクトにマッピングするように構成され得る。最初に、オブジェクトスケルトンは、仮想環境においてオブジェクトにマッピングされ得る。前に説明したように、オブジェクトスケルトンは、1つまたは複数のテンプレートオブジェクトスケルトンから選択され得る。マッピングコンポーネント233は、オブジェクトスケルトンの中心を特定することによってオブジェクトスケルトンをオブジェクトにマッピングすることができる。マッピングコンポーネント233はやはり、仮想環境においてオブジェクトの重心を特定することができる。マッピングコンポーネント233は、次にオブジェクトスケルトンの中心をオブジェクトの重心にマッピングすることができる。
[0095]想像できるように、オブジェクトスケルトンは、システムが定義したテンプレートスケルトンであるので、オブジェクトにぴったりと一致しないことがある(すなわち、オブジェクトは、オブジェクトスケルトンよりも大きいことも小さいこともある)。一実施形態では、オブジェクトは、オブジェクトスケルトンにぴったりと一致するようにサイズを変更される。オブジェクトスケルトンにぴったりと一致するようにオブジェクトのサイズを変更することは、オブジェクトの底部をユーザスケルトンの底部と位置合わせすることを含むことができるが、これに限定されない。実施形態では、オブジェクトの底部およびユーザスケルトンの底部は、相互に正確に位置合わせされる。次に、オブジェクトの最上部は、オブジェクトスケルトンの最上部と位置合わせされ得る。オブジェクトスケルトンの最上部がオブジェクトの最上部の下方の所定の距離となるように、オブジェクトの最上部は、オブジェクトスケルトンと位置合わせされ得る。オブジェクトスケルトンの最上部は、オブジェクトの頭部であると思われるオブジェクトの一部分を占めるオブジェクトの最上部の下方の所定の距離に位置合わせされ得る。一実施形態では、所定の距離は、オブジェクトの最上部の10パーセント(10%)下方である。所定の距離は、承認されたユーザによって指定される任意の距離であってもよい。
[0096]一代替実施形態では、オブジェクトスケルトンは、オブジェクトのサイズを変更するよりもむしろオブジェクトにぴったりと一致するようにサイズを変更される。オブジェクトスケルトンは、このように、オブジェクトスケルトンの底部およびオブジェクトの底部が位置合わせされるように、オブジェクトと位置合わせされるはずである。オブジェクトスケルトンの最上部はまた、オブジェクトスケルトンの最上部がオブジェクトの最上部の下方の所定の距離となるように、オブジェクトの最上部と位置合わせされ得る。実施形態では、所定の距離は、オブジェクトの最上部の10パーセント(10%)下方である。所定の距離は、承認されたユーザによって指定される任意の距離であってもよい。
[0097]一旦、マッピングコンポーネント233がオブジェクトスケルトンをオブジェクトにマッピングすると、ユーザスケルトンは、オブジェクトスケルトンにマッピングされ得る。ユーザスケルトンをオブジェクトスケルトンにマッピングすることは、1対1マッピング(1:1)であってもよく、1:1マッピングでなくてもよい。1:1マッピングは、ユーザスケルトンおよびオブジェクトスケルトン内の同じ数の関節を示す。この状況では、ユーザスケルトンの関節角度は、オブジェクトスケルトンの対応する関節角度にマッピングされ、その結果、オブジェクトスケルトンが、ユーザスケルトンの関節角度を忠実に反映する。
[0098]しかしながら、時には、マッピングは、1:1マッピングでないことがあり、オブジェクトスケルトンおよびユーザスケルトンが、異なる数の関節を有することを意味する。このケースでは、いくつかの関節の動きを誇張し、他の関節の動きを抑えることが望ましいことがある。加えて、1つの関節の動作が、オブジェクトスケルトン内の違った関節にマッピングされ得る。例えば、オブジェクトが象であると仮定する。明らかに、ユーザは、象の鼻を有さず、象は、ユーザの腕と同じように働く腕を有さない。ユーザスケルトンの腕の動作は、例えば、象の鼻にマッピングされ得る。このように、象の鼻は、ユーザの腕の動作に従って応答するであろう。
[0099]また、マッピングは、角度対角度である必要はない。例えば、関節位置(例えば、ユーザがどれだけ高く自分の手を持ち上げるか)は、オブジェクトスケルトンの関節のスケールでマッピングされることがあり、自分の手を持ち上げるユーザに応じて上に向かってオブジェクトに伸ばさせる。加えて、ユーザ関節角度は、さらに手の込んだ多関節アニメーションを制御するために使用されることがあり、そのため、1つのユーザ関節位置は、非線形の様式で複数のオブジェクト関節を制御するはずである。
[00100]一旦、ユーザスケルトンがオブジェクトスケルトンにマッピングされると、仮想環境におけるオブジェクトは、実世界ユーザを忠実に反映する。例えば、ユーザが自分の右腕を持ち上げる場合には、オブジェクトは、マッピングに従って同じやり方で反応するであろう(例えば、マッピングは、同様にオブジェクトにその右腕を持ち上げさせる1:1であってもよく、またはマッピングは、ユーザの右腕の動作にマッピングされてきている別の動作でオブジェクトに応答させる1:1でなくてもよい)。
[00101]制御エンジン230は、ユーザが動くたびにデータが更新されるように、リアルタイムで動作することがある。特に、ユーザスケルトンは、ユーザが動くたびに毎回更新され得る。これはまた、オブジェクトスケルトンへのユーザスケルトンの再マッピングを生じさせることがある。これがリアルタイムで起きているので、オブジェクトは、ユーザによって制御されたままであり、マッピングに従ってユーザの動作に応答し続けるであろう。
[00102]表示コンポーネント234は、オブジェクトを表示するように構成される。表示されたオブジェクトは、マッピングに従って、ユーザの動作に応答するであろう。
[00103]ここで図29を参照すると、本発明の一実施形態に従って、仮想環境においてオブジェクトを制御するための全体にわたる方法2900を示す流れ図が提供される。最初に、ブロック2910において示したように、オブジェクトは、仮想環境において特定される。以前に示したように、オブジェクトは、実世界から仮想環境へと受信された任意の人間でないオブジェクトであってもよい。オブジェクトスケルトンは、ブロック2920においてオブジェクトにマッピングされる。オブジェクトスケルトンは、オブジェクトにぴったりと一致するようにサイズを変更された、システムが定義したオブジェクトスケルトンテンプレートである場合がある。あるいは、オブジェクトは、オブジェクトスケルトンにぴったりと一致するようにサイズを変更されてもよい。ブロック2930において、ユーザのユーザスケルトンが受信される。実世界ユーザのユーザスケルトンが受信され、関節の数、関節角度、関節位置、等を含むスケルトン情報が、特定され得る。ブロック2940において、ユーザスケルトンは、オブジェクトがユーザによって制御されるように、オブジェクトスケルトンにマッピングされる。特に、ユーザの動作は、オブジェクトの動作を制御する。
[00104]ここで図30を参照すると、本発明の一実施形態に従って、仮想環境においてオブジェクトを制御するための全体にわたる方法3000を示す流れ図が提供される。最初に、ブロック3010において示したように、オブジェクトが、仮想環境において特定される。実施形態では、オブジェクトは、ディジタル化されてきており、仮想環境において受信されてきている実世界オブジェクトである場合がある。ブロック3020において、オブジェクトの重心を特定し、オブジェクトスケルトンの中心をオブジェクトの重心上へと置くことによって、オブジェクトスケルトンは、オブジェクトにマッピングされる。オブジェクトおよび/またはオブジェクトスケルトンは、次に、ブロック3030において、オブジェクトスケルトンの底部がオブジェクトの底部と位置合わせされるように、ぴったりと一致するようにサイズを変更され得る。ユーザのユーザスケルトンは、ブロック3040において受信される。ユーザスケルトンは、ブロック3050において、オブジェクトスケルトンの1つまたは複数の関節角度がユーザスケルトンの1つまたは複数の関節角度を忠実に反映するように、オブジェクトスケルトンにマッピングされる。ブロック3060において、ユーザの動作が特定され、ブロック3070において、オブジェクトの動作がユーザの動作を忠実に反映するように、オブジェクトは動く。
[00105]本発明は、特定の実施形態に関して記載されてきており、これは、すべてに関して限定的であるというよりはむしろ例示的であることを目的としている。代替実施形態は、本発明がその範囲から乖離せずに関係する当業者には明らかになるであろう。
[00106]本発明はさまざまな変形形態および代替構成の影響を受けやすいが、本発明のある種の図示した実施形態は、図面に示され、上に詳細に記述されてきている。しかしながら、開示した特定の形態に本発明を限定するものではなく、対照的に、目的は、本発明の精神および範囲内になるすべての変形形態、代替構成、および等価物を包含することであることを、理解すべきである。
[00107]上記から、本発明が、システムおよび方法に対して明らかであり本質的である他の利点とともに、上に述べたすべての目的および目標を達成するようによく適合されていることが分かるであろう。ある種の構成および部分的組合せが有用なものであり、他の構成および部分的組合せを参照せずに利用される場合があることが理解されるであろう。これは、特許請求の範囲によって予期され、特許請求の範囲の範囲内である。

Claims (10)

  1. 1つまたは複数のコンピューティングデバイスによって使用されたときに、前記1つまたは複数のコンピューティングデバイスに方法を実行させるコンピュータ使用可能な命令を記憶する1つまたは複数のコンピュータ記憶媒体であって、前記方法が、
    仮想環境においてオブジェクトを特定する(identifying)テップと、
    オブジェクトスケルトン(skeleton)を前記オブジェクトにマッピングするステップであり、前記オブジェクトスケルトンが事前に定義されたテンプレートである、ステップと、
    ユーザスケルトンを受信するステップであり、前記ユーザスケルトンがユーザのスケルトンの画像である、ステップと、
    前記オブジェクトが前記ユーザによって制御されるように、前記ユーザスケルトンを前記オブジェクトスケルトンにマッピングするステップとを含む、
    1つまたは複数のコンピュータ記憶媒体。
  2. 前記オブジェクトスケルトンを前記オブジェクトにマッピングするステップが、
    前記オブジェクトスケルトンの中心(center)を特定するサブステップと、
    前記オブジェクトの重心(center of mass)を特定するサブステップと、
    前記オブジェクトスケルトンの前記中心を前記オブジェクトの前記重心上へと置く(imposing)サブステップとを含む、請求項1に記載の1つまたは複数のコンピュータ記憶媒体。
  3. 前記方法が、前記オブジェクトスケルトンにぴったりと一致するように前記オブジェクトのサイズを変更するステップ
    をさらに含む、請求項2に記載の1つまたは複数のコンピュータ記憶媒体。
  4. 前記オブジェクトスケルトンにぴったりと一致するように前記オブジェクトのサイズを変更するステップが、
    前記オブジェクトの底部(bottom)を前記オブジェクトスケルトンの底部と位置合わせ(aligning)するサブステップと、
    前記オブジェクトスケルトンの最上部(top)が前記オブジェクトスケルトンの前記最上部の下方の(below)所定の距離となるように前記オブジェクトの最上部を前記オブジェクトスケルトンの前記最上部と位置合わせするサブステップと
    を含む、請求項3に記載の1つまたは複数のコンピュータ記憶媒体。
  5. 前記オブジェクトスケルトンの前記最上部の下方の前記所定の距離が、前記オブジェクトスケルトンの前記最上部の10パーセント(10%)下方である、請求項4に記載の1つまたは複数のコンピュータ記憶媒体。
  6. 前記オブジェクトは、前記オブジェクトの動作が前記ユーザの動作を忠実に反映するように前記ユーザによって制御される、請求項1に記載の1つまたは複数のコンピュータ記憶媒体。
  7. 仮想環境においてオブジェクトを制御するためのシステムであって、
    1つまたは複数のプロセッサおよび1つまたは複数のコンピュータ可読記憶媒体に関係付けられたコンピューティングデバイスと、
    前記コンピューティングデバイスにつなげられたデータストアと、
    制御エンジンであり、
    ユーザスケルトンおよびオブジェクトスケルトンを含む1つまたは複数のスケルトンを特定し、
    前記ユーザスケルトンを前記オブジェクトスケルトンにマッピングし、
    オブジェクトが前記ユーザスケルトンの動作を忠実に反映するように操作されるように前記オブジェクトスケルトンを管理する
    制御エンジンと
    を備えた、システム。
  8. 前記制御エンジンが、前記ユーザの姿勢を複数のテンプレート姿勢と比較し、前記ユーザの前記姿勢と対応する前記複数のテンプレート姿勢のうちの1つを特定することによって、前記複数のテンプレート姿勢から前記ユーザスケルトンを特定する、請求項7に記載のシステム。
  9. 1つまたは複数のコンピューティングデバイスによって使用されたときに、前記1つまたは複数のコンピューティングデバイスに方法を実行させるコンピュータ使用可能な命令を記憶する1つまたは複数のコンピュータ記憶媒体であって、前記方法が、
    仮想環境においてオブジェクトを特定するステップであり、前記オブジェクトが仮想形態へとディジタル化されている実世界オブジェクトである、ステップと、
    前記オブジェクトの重心を特定し、オブジェクトスケルトンの中心を前記オブジェクトの前記重心上へと置くことによって、前記オブジェクトスケルトンを前記オブジェクトにマッピングするステップであり、前記オブジェクトスケルトンが事前に定義されたテンプレートである、ステップと、
    前記オブジェクトスケルトンの底部が前記オブジェクトの底部と位置合わせされるように、前記オブジェクトスケルトンのサイズに対応するように前記オブジェクトのサイズを変更するステップと、
    ユーザスケルトンを受信するステップであり、前記ユーザスケルトンがユーザのスケルトンである、ステップと、
    前記オブジェクトスケルトンの1つまたは複数の関節角度が前記ユーザスケルトンの1つまたは複数の関節角度を忠実に反映するように、前記ユーザスケルトンを前記オブジェクトスケルトンにマッピングするステップであり、1つの関節角度が1つまたは複数の関節間の角度のある程度(a degree of an angle)を表す、ステップと、
    前記ユーザの動作を特定するステップと、
    前記ユーザの前記動作を特定するステップに応じて、前記オブジェクトの動作が前記ユーザの前記動作を忠実に反映するように、前記オブジェクトを動かすステップとを含む、
    1つまたは複数のコンピュータ記憶媒体。
  10. 前記ユーザスケルトンを前記オブジェクトスケルトンにマッピングするステップは、前記オブジェクトスケルトンの1つまたは複数の関節角度が、前記ユーザを表す前記テンプレート姿勢の前記1つまたは複数の関節角度を忠実に反映するように、前記テンプレート姿勢の前記1つまたは複数の関節角度を前記オブジェクトスケルトンに関係付けるサブステップを含む、請求項9に記載の1つまたは複数のコンピュータ記憶媒体。
JP2014514530A 2011-06-06 2012-06-04 仮想環境におけるオブジェクトの制御 Active JP5985619B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161493787P 2011-06-06 2011-06-06
US61/493,787 2011-06-06
US13/281,596 US9724600B2 (en) 2011-06-06 2011-10-26 Controlling objects in a virtual environment
US13/281,596 2011-10-26
PCT/US2012/040796 WO2012170361A2 (en) 2011-06-06 2012-06-04 Controlling objects in a virtual environment

Publications (2)

Publication Number Publication Date
JP2014517413A true JP2014517413A (ja) 2014-07-17
JP5985619B2 JP5985619B2 (ja) 2016-09-06

Family

ID=47261335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014514530A Active JP5985619B2 (ja) 2011-06-06 2012-06-04 仮想環境におけるオブジェクトの制御

Country Status (6)

Country Link
US (1) US9724600B2 (ja)
EP (1) EP2718903B1 (ja)
JP (1) JP5985619B2 (ja)
KR (1) KR102060206B1 (ja)
CN (1) CN103597516B (ja)
WO (1) WO2012170361A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128721A (ja) * 2018-01-23 2019-08-01 株式会社コロプラ ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2021527895A (ja) * 2018-06-21 2021-10-14 華為技術有限公司Huawei Technologies Co.,Ltd. オブジェクト・モデリング動作方法及び装置並びにデバイス

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10332176B2 (en) 2014-08-28 2019-06-25 Ebay Inc. Methods and systems for virtual fitting rooms or hybrid stores
US9529428B1 (en) * 2014-03-28 2016-12-27 Amazon Technologies, Inc. Using head movement to adjust focus on content of a display
US9311565B2 (en) * 2014-06-16 2016-04-12 Sony Corporation 3D scanning with depth cameras using mesh sculpting
US10529009B2 (en) 2014-06-25 2020-01-07 Ebay Inc. Digital avatars in online marketplaces
US9536138B2 (en) * 2014-06-27 2017-01-03 Microsoft Technology Licensing, Llc Dynamic remapping of components of a virtual skeleton
US10719123B2 (en) 2014-07-15 2020-07-21 Nant Holdings Ip, Llc Multiparty object recognition
US10653962B2 (en) 2014-08-01 2020-05-19 Ebay Inc. Generating and utilizing digital avatar data for online marketplaces
US9733790B2 (en) 2014-10-30 2017-08-15 Disney Enterprises, Inc. Haptic interface for population of a three-dimensional virtual environment
CN104740869B (zh) * 2015-03-26 2018-04-03 北京小小牛创意科技有限公司 一种融合真实环境的虚实结合的交互方法及系统
KR101677165B1 (ko) * 2016-02-18 2016-12-23 대한민국(국가기록원) 행정박물의 3D 정보의 종합품질을 Test Bed에 의한 검증방법
US10380803B1 (en) * 2018-03-26 2019-08-13 Verizon Patent And Licensing Inc. Methods and systems for virtualizing a target object within a mixed reality presentation
CN111739146A (zh) * 2019-03-25 2020-10-02 华为技术有限公司 物体三维模型重建方法及装置
CN110570357A (zh) * 2019-07-09 2019-12-13 深圳市瑞立视多媒体科技有限公司 基于ue4引擎的镜像实现方法、装置、设备及存储介质
GB2586059B (en) * 2019-08-01 2023-06-07 Sony Interactive Entertainment Inc System and method for generating user inputs for a video game

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043400A (ja) * 2000-01-01 2001-02-16 Hitachi Ltd コンピュータグラフィックの表示方法
JP2006514366A (ja) * 2003-02-11 2006-04-27 株式会社ソニー・コンピュータエンタテインメント リアルタイムのモーション・キャプチャ方法および装置
US20070211067A1 (en) * 1997-10-15 2007-09-13 Electric Planet, Inc. System and method for generating an animatable character
JP2008033521A (ja) * 2006-07-27 2008-02-14 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
JP2012528398A (ja) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション スケルトン・データーのゲーム・アバターへのリアル・タイム・リターゲティング

Family Cites Families (175)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ja) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH06508788A (ja) 1991-12-03 1994-10-06 フレンチ スポーテク コーポレイション 対話型ビデオ式検査および訓練システム
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US6229913B1 (en) 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
WO1999044698A2 (en) 1998-03-03 1999-09-10 Arena, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
US5909218A (en) 1996-04-25 1999-06-01 Matsushita Electric Industrial Co., Ltd. Transmitter-receiver of three-dimensional skeleton structure motions and method thereof
US6152856A (en) 1996-05-08 2000-11-28 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
JP2001504605A (ja) 1996-08-14 2001-04-03 ラティポフ,ヌラフメド,ヌリスラモビチ 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
JPH10188028A (ja) * 1996-10-31 1998-07-21 Konami Co Ltd スケルトンによる動画像生成装置、該動画像を生成する方法、並びに該動画像を生成するプログラムを記憶した媒体
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6130677A (en) * 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
WO2000034919A1 (en) 1998-12-04 2000-06-15 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
JP4578686B2 (ja) 1998-12-16 2010-11-10 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. 3dカメラ
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US7095388B2 (en) 2001-04-02 2006-08-22 3-Dac Golf Corporation Method and system for developing consistency of motion
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP3420221B2 (ja) * 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
ATE321689T1 (de) 2002-04-19 2006-04-15 Iee Sarl Sicherheitsvorrichtung für ein fahrzeug
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
JP4546956B2 (ja) 2003-06-12 2010-09-22 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
EP1743277A4 (en) 2004-04-15 2011-07-06 Gesturetek Inc MONITORING OF BI-MANUAL MOVEMENTS
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US20080062169A1 (en) * 2004-08-02 2008-03-13 Koninklijke Philips Electronics, N.V. Method Of Enabling To Model Virtual Objects
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060028035A (ko) * 2004-09-24 2006-03-29 유용석 3차원 형상의 평균화 모델 구성방법
US7433760B2 (en) * 2004-10-28 2008-10-07 Accelerated Pictures, Inc. Camera and animation controller, systems and methods
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
CN101622630B (zh) 2005-01-07 2012-07-04 高通股份有限公司 检测和跟踪图像中的物体
US7430312B2 (en) 2005-01-07 2008-09-30 Gesturetek, Inc. Creating 3D images of objects by illuminating with infrared patterns
EP1849123A2 (en) 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
CN103257684B (zh) 2005-05-17 2017-06-09 高通股份有限公司 方向敏感的信号输出方法及装置
US20060274068A1 (en) 2005-06-06 2006-12-07 Electronic Arts Inc. Adaptive contact based skeleton for animation of characters in video games
DE602005010696D1 (de) 2005-08-12 2008-12-11 Mesa Imaging Ag Hochempfindliches, schnelles Pixel für Anwendung in einem Bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US8540638B2 (en) 2006-10-24 2013-09-24 Alla Gourevitch 3-D quantitative-imaging ultrasonic method for bone inspections and device for its implementation
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
CN101515374B (zh) 2008-02-20 2010-12-01 中国科学院自动化研究所 基于图像的个性化真实感虚拟人物造型方法
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US8737721B2 (en) 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
US8471843B2 (en) 2008-07-07 2013-06-25 International Business Machines Corporation Geometric and texture modifications of objects in a virtual universe based on real world user characteristics
US8306265B2 (en) 2009-01-12 2012-11-06 Eastman Kodak Company Detection of animate or inanimate objects
US8560267B2 (en) 2009-09-15 2013-10-15 Imetrikus, Inc. Identifying one or more activities of an animate or inanimate object
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
CN101579238B (zh) 2009-06-15 2012-12-19 吴健康 人体运动捕获三维再现系统及其方法
KR101640039B1 (ko) * 2009-09-22 2016-07-18 삼성전자주식회사 영상 처리 장치 및 방법
US8864589B2 (en) 2009-10-27 2014-10-21 Activision Publishing, Inc. Video game with representative physical object related content
KR101035291B1 (ko) * 2009-12-18 2011-05-18 전남대학교산학협력단 관절모델db을 이용한 포즈인식 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070211067A1 (en) * 1997-10-15 2007-09-13 Electric Planet, Inc. System and method for generating an animatable character
JP2001043400A (ja) * 2000-01-01 2001-02-16 Hitachi Ltd コンピュータグラフィックの表示方法
JP2006514366A (ja) * 2003-02-11 2006-04-27 株式会社ソニー・コンピュータエンタテインメント リアルタイムのモーション・キャプチャ方法および装置
JP2008033521A (ja) * 2006-07-27 2008-02-14 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
JP2012528398A (ja) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション スケルトン・データーのゲーム・アバターへのリアル・タイム・リターゲティング

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016008278; 山中 修: 'Softimage3Dで大作アニメーションを作ろう!' dpi 第6巻 第1号 第6巻 第1号, 19980110, P.122-127, 株式会社毎日コミュニケーションズ *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128721A (ja) * 2018-01-23 2019-08-01 株式会社コロプラ ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2021527895A (ja) * 2018-06-21 2021-10-14 華為技術有限公司Huawei Technologies Co.,Ltd. オブジェクト・モデリング動作方法及び装置並びにデバイス
US11436802B2 (en) 2018-06-21 2022-09-06 Huawei Technologies Co., Ltd. Object modeling and movement method and apparatus, and device
JP7176012B2 (ja) 2018-06-21 2022-11-21 華為技術有限公司 オブジェクト・モデリング動作方法及び装置並びにデバイス

Also Published As

Publication number Publication date
WO2012170361A3 (en) 2013-03-14
US20120306924A1 (en) 2012-12-06
KR20140043378A (ko) 2014-04-09
CN103597516A (zh) 2014-02-19
EP2718903A4 (en) 2014-05-14
EP2718903B1 (en) 2019-04-03
EP2718903A2 (en) 2014-04-16
CN103597516B (zh) 2018-08-28
KR102060206B1 (ko) 2019-12-27
JP5985619B2 (ja) 2016-09-06
US9724600B2 (en) 2017-08-08
WO2012170361A2 (en) 2012-12-13

Similar Documents

Publication Publication Date Title
JP5985619B2 (ja) 仮想環境におけるオブジェクトの制御
US10460445B2 (en) Object digitization
US9336625B2 (en) Object refinement using many data sets
JP6638892B2 (ja) 画像及び深度データを用いて3次元(3d)人物顔面モデルを発生させるための仮想現実ベースの装置及び方法
CN112669447B (zh) 一种模型头像创建方法、装置、电子设备和存储介质
Zollhöfer et al. Automatic reconstruction of personalized avatars from 3D face scans
JP5784356B2 (ja) 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法
US20180114363A1 (en) Augmented scanning of 3d models
US10347052B2 (en) Color-based geometric feature enhancement for 3D models
US10484599B2 (en) Simulating depth of field
WO2014076744A1 (ja) 画像処理装置および画像処理方法
CN113706431B (zh) 模型优化方法及相关装置、电子设备和存储介质
JP2008033522A (ja) プログラム、情報記憶媒体、及び画像生成システム
KR101566459B1 (ko) 이미지 기반의 비주얼 헐에서의 오목 표면 모델링
Lee et al. Interactive retexturing from unordered images
Obaid Moment Based Painterly Rendering Using Connected Color Components

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150525

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160803

R150 Certificate of patent or registration of utility model

Ref document number: 5985619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250