JP5619964B2 - 拡張現実感シミュレーション連続体 - Google Patents

拡張現実感シミュレーション連続体 Download PDF

Info

Publication number
JP5619964B2
JP5619964B2 JP2013134217A JP2013134217A JP5619964B2 JP 5619964 B2 JP5619964 B2 JP 5619964B2 JP 2013134217 A JP2013134217 A JP 2013134217A JP 2013134217 A JP2013134217 A JP 2013134217A JP 5619964 B2 JP5619964 B2 JP 5619964B2
Authority
JP
Japan
Prior art keywords
physical object
augmented reality
visual scene
virtual objects
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013134217A
Other languages
English (en)
Other versions
JP2014010838A (ja
Inventor
ミッチェル ケニー
ミッチェル ケニー
シー. ホシュテトラー ラファエル
シー. ホシュテトラー ラファエル
コロス ステリアン
コロス ステリアン
サムナー ロバート
サムナー ロバート
Original Assignee
ディズニー エンタープライゼス インコーポレイテッド
ディズニー エンタープライゼス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ディズニー エンタープライゼス インコーポレイテッド, ディズニー エンタープライゼス インコーポレイテッド filed Critical ディズニー エンタープライゼス インコーポレイテッド
Publication of JP2014010838A publication Critical patent/JP2014010838A/ja
Application granted granted Critical
Publication of JP5619964B2 publication Critical patent/JP5619964B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Description

[0001]本発明は、一般に、ヒューマンコンピュータインターフェースに関するものであり、より具体的には、拡張現実感デバイス上の動的相互作用をシミュレーションするための技術に関するものである。
[関連技術の説明]
[0002]コンピュータグラフィックス技術は、ビデオゲームが最初に開発されて以来、大きな発展を遂げている。今では、比較的安価な3Dグラフィックスエンジンが、わずか数百ドルしか費用がかからない手持ち式のビデオゲーム、ホームビデオゲーム及びパーソナルコンピュータハードウェアプラットフォーム上でほぼフォトリアリスティクなインタラクティブゲームプレイを提供する。これらのビデオゲームシステムは、典型的に、手持ち式のコントローラ、ゲームコントローラ、あるいは、手持ち式のビデオゲームプラットフォームの場合には、一体型コントローラを含む。ユーザ又はプレーヤーは、プレイされるビデオゲーム又は他のシミュレーションを制御するビデオゲームシステムにコマンド又は他の命令を送信するためにコントローラを使用する。例えば、コントローラは、ユーザによって操作されるマニピュレータ(例えば、ジョイスティック)及びボタンを備えていてもよい。
[0003]多くの手持ち式のゲームデバイスは、物理的な実世界シーンの画像又は一連の画像を取り込むために使用されるであろういくつかの形式のカメラデバイスを含む。次いで、取り込まれた画像は、例えば手持ち式のゲームデバイスのディスプレイ上に、表示され得る。拡張現実感デバイスにおいて、これらの取り込まれた画像は、仮想オブジェクトなどの追加的コンテンツを含むように修正され得る。しかしながら、撮影される物理オブジェクトが一連のフレーム上で動く場合、これらの物理オブジェクトは、挿入された仮想オブジェクトと非現実的に相互作用する(又はその仮想オブジェクトと全く相互作用しない)ように見えるであろう。同様に、仮想オブジェクトが表示されたシーン内を動く場合、仮想オブジェクトは、シーン内に示された物理オブジェクトと理想的に相互作用しないであろう。
[0004]実施形態は、拡張現実感デバイスを用いて相互作用をシミュレーションするための方法、拡張現実感デバイス及びコンピュータ可読記憶媒体を提供する。その方法、拡張現実感デバイス及びコンピュータ可読記憶媒体は、表示用の視覚的シーンであって、1つまたは複数のカメラデバイスを用いて取り込まれる視覚的シーンを取り込むことを含む。その方法、拡張現実感デバイス及びコンピュータ可読記憶媒体は、第1の物理オブジェクトと1つまたは複数の仮想オブジェクトとの間の動的相互作用をシミュレーションすることを更に含む。その方法、拡張現実感デバイス及びコンピュータ可読記憶媒体はまた、第1の物理オブジェクトと1つまたは複数の仮想オブジェクトとの間のシミュレーションされた動的相互作用を描写する表示用の一連のフレームをレンダリングすることを含む。
[0005]上記で挙げられた態様が達成される手法が詳細に理解され得るように、上記で簡単に要約された発明の実施形態のより詳細な記載は、添付された図面を参照にして示されるであろう。
[0006]しかしながら、添付された図面は、この発明の典型的な実施形態を例示するだけであり、したがって、その発明の範囲を限定するものとみなされないことに留意されたい。なぜなら、発明は、他の同様に有効な実施形態を許容し得るからである。
図1は、本明細書に記載された一実施形態に係る動力学シミュレーション構成要素を備えて構成された拡張現実感デバイスを例示するブロック図である。 図2Aは、本明細書に記載された実施形態に係る拡張現実感デバイスを例示する図である。 図2Bは、本明細書に記載された実施形態に係る拡張現実感デバイスを例示する図である。 図3は、本明細書に記載された一実施形態に係る拡張現実感デバイスを例示する図である。 図4は、本明細書に記載された一実施形態に係る拡張現実感デバイス上の仮想オブジェクトと物理オブジェクトとの間の相互作用の動力学をシミュレーションする方法を例示するフロー図である。 図5は、本明細書に記載された一実施形態に係る動力学シミュレーション構成要素を備えて構成された拡張現実感デバイスを例示するブロック図である。
[0012]本明細書に記載された実施形態は、一般に、拡張現実感デバイス上にコンテンツを表示するための技術に関する。本明細書中で使用されるとき、拡張現実感デバイスは、物理的な実世界環境のリアルタイムの視野を表示する一方で、その環境の表示された視野内の要素を変えることが可能な任意のデバイスのことを言う。そのように、仮想世界の視野を表示する仮想現実感デバイスとは異なり、拡張現実感デバイスは、実世界の視野を表示するが、コンピュータグラフィックス技術を用いて要素を拡張する。実世界のこの拡張された視野は、本明細書中において「拡張現実感世界」又は「拡張現実感空間」と呼ばれ得る。
[0013]そのような拡張現実感デバイスは、実世界環境の視野を取り込むために使用されるカメラデバイス(又は複数のカメラデバイス)を含んでもよいし、取り込まれたシーンの要素を拡張するように構成されたコンピュータソフトウェア及び/又はハードウェアを更に含んでもよい。例えば、拡張現実感デバイスは、テーブルの上部上にあるコーヒーカップの一連の画像を取り込み、コーヒーカップが動画漫画的特徴として現れるように一連の画像を修正し、修正された一連の画像をリアルタイムでユーザに表示することができる。そのように、ユーザが拡張現実感デバイスに目を向けると、ユーザは、ユーザが位置する物理的な実世界環境の拡張された視野を見る。上記例を続けると、ユーザは、拡張現実感デバイスのカメラを異なる角度からテーブル上の物理的なコーヒーカップに向ける際、ユーザは、拡張現実感デバイス上に表示される仮想漫画的コーヒーカップの異なる角度を代わりに見るであろう。
[0014]拡張現実感デバイスの一つの難題は、拡張現実感デバイス上に表示される仮想オブジェクトが、物理的な実世界環境内のオブジェクトと現実的に相互作用し得ないことである。すなわち、仮想オブジェクトが、取り込まれたシーン内の物理オブジェクトに加えて又は代わって、取り込まれたシーンに単に挿入される拡張現実感デバイスについて、これらのデバイスは、仮想オブジェクトと物理オブジェクトとの間の相互作用を現実的に表示しないであろうし、あるいは、これらの相互作用の結果として生じる動力学効果を考慮しないであろう。本明細書に記載されるように、動力学は、オブジェクトに加えられるエネルギー又は力の結果として(物理オブジェクトと仮想オブジェクトとの両方を含む)オブジェクトの動きに関連する。例えば、動力学シミュレーションを全く実行せずに物理テーブル上のコーヒーカップを動画漫画的コーヒーカップと取り替えるように構成された拡張現実感デバイスは、動画のコーヒーカップが、物理オブジェクトによる相互作用に現実的に応答しないであろうから、物理オブジェクト(例えば、ユーザの手)と挿入された漫画のコーヒーカップとの間の相互作用を現実感に欠けて描写するであろう。別の例として、仮想ボールの動力学を考慮せずに仮想ボールを視覚的シーンに挿入する拡張現実感デバイスは、物理オブジェクト(例えば、物理ボール)が、何の相互作用も無しに、仮想ボール(逆の場合も同じ)を通して単純に動くように見えるであろうから、現実感に欠けるようにユーザに見えるであろう。
[0015]本明細書に記載される実施形態であって、拡張現実感デバイスを用いて相互作用をシミュレーションするための技術を提供する実施形態が記載される。例えば、手持ち式のデバイス上にあるソフトウェアは、表示用の視覚的シーンを取り込んでもよい。そのような視覚的シーンは、例えば、物理的な実世界環境を描写する複数のフレームであって、拡張現実感デバイスの1つまたは複数のカメラを用いて取り込まれた複数のフレームを含んでもよい。ソフトウェアは、視覚的シーン内の物理オブジェクトを更に識別してもよい。一例として、ソフトウェアは、取り込まれた視覚的シーン内のテーブル上にあるボールを識別することができる。さらに、ソフトウェアは、シーン内に表示するための1つまたは複数の仮想オブジェクトを識別することができる。例えば、特定の拡張現実感デバイスは、仮想ボールをそのシーンに挿入するように構成され得る。次いで、ソフトウェアは、視覚的シーン内の物理オブジェクトと1つまたは複数の仮想オブジェクトとの間の相互作用の動力学をシミュレーションしてもよい。
[0016]例えば、物理ボールが、拡張現実感デバイス上に表示される視覚的シーン内の仮想ボールと衝突するように見えるように、ユーザは、テーブル上の物理ボールを物理的に転がすことができる。このシナリオにおいて、拡張現実感デバイスは、物理ボールが、拡張現実感デバイスによって表示される拡張現実感シーン内の仮想ボールといつ衝突するかを判断する動力学シミュレーション構成要素を備えて構成され得る。このことが起こると、動力学シミュレーション構成要素は、動力学ルールのセットを用いて仮想ボールの反応をシミュレーションし、拡張現実感デバイス上に仮想ボールの反応を表示することができる。例えば、拡張現実感デバイスは、物理ボールと衝突している仮想ボールに応答して、テーブルを横切って転がる仮想ボールを描写することができる。そうすることによって、より現実感のある拡張現実感シーンを拡張現実感デバイス上に提供し、ひいては、拡張現実感デバイスとのユーザの相互作用を強めるであろう。
[0017]特定の実施形態では、拡張現実感デバイス上のソフトウェアは、シーン内の物理表面の1つまたは複数の物理特徴を判断することができる。例えば、そのような物理特徴は、物理表面の一定の摩擦、一定の表面張力、及び一定の変形性を含むことができる。ソフトウェアは、物理表面の1つまたは複数の物理特徴についての情報を用いて予め構成されることができる。一実施形態では、ソフトウェアは、表面の他の特性に基づいて、表面の物理特徴を判断するように構成される。例えば、ソフトウェアは、光る鏡面反射性表面がより低い摩擦係数(例えば、一片の氷の表面)を示すことを判断することができる。次いで、ソフトウェアは、これらの判断された物理特徴の一部における仮想オブジェクトと物理オブジェクトとの間の相互作用のシミュレーションに基づくことができる。一例として、仮想のクモが、低い摩擦係数を有する物理表面(例えば、一片の氷)を横切って歩くように拡張現実感デバイス上に描写され得る。次いで、ソフトウェアは、仮想のクモが物理表面を横切って進むように滑る又は落ちるように見えるよう、仮想のクモの挙動を調整することができる。有利なことに、そうすることで、ユーザの拡張現実感体験の現実感を強める。
[0018]図1は、本発明の一実施形態に係る動力学シミュレーション構成要素を備えて構成された拡張現実感デバイスを例示するブロック図である。図示されるように、拡張現実感デバイス100は、動力学シミュレーション構成要素110、カメラデバイス120、ディスプレイデバイス130及び加速度計140を含む。一般に、動力学シミュレーション構成要素110は、(例えば、ディスプレイデバイス130上に)表示されるときの拡張現実感シーンの現実感を向上するために、実世界環境の取り込まれたシーン内の物理オブジェクトと仮想オブジェクトとの間の相互作用を検出し、これらの相互作用の動力学をシミュレーションするように構成される。カメラデバイス120は、視覚的シーンを取り込むためのカメラを含んでもよい。本明細書中で使用されるとき、視覚的シーンは、実世界環境の(複数の)視野のことを言い、その実世界環境において、デバイス100が使用される。例えば、視覚的シーンは、実世界環境の一連の画像(本明細書中において「フレーム」とも呼ばれる)であってもよい。カメラデバイス120はまた、ユーザの方を向いた1つまたは複数のカメラを含んでもよい。一般に、加速度計140は、拡張現実感デバイス100の物理的(又は適切な)加速度を測定することが可能なデバイスである。
[0019]上記したように、動力学シミュレーション構成要素110は、拡張現実感デバイス100上に表示される拡張現実感シーン内の物理オブジェクトと仮想オブジェクトとの間の相互作用をシミュレーションするように構成されてもよい。そうする際、動力学シミュレーション構成要素110は、取り込まれた視覚的シーン内の物理オブジェクトを識別することができる。例えば、動力学シミュレーション構成要素110は、取り込まれた視覚的シーン内の一定の既定のオブジェクトを認識するよう構成され得る。一例として、動力学シミュレーション構成要素110は、物理オブジェクトの特定の特徴(例えば、形状、色、パターンなど)に基づいて、視覚的シーン内の特定の物理オブジェクト(例えば、ボール)を識別するよう予め構成され得る。
[0020]一実施形態では、動力学シミュレーション構成要素110は、取り込まれた視覚的シーン内の物理オブジェクトの深度を見積もるよう更に構成される。すなわち、取り込まれた視覚的シーンは、複数の2次元フレームから成ってもよいが、これらの2次元フレームは、3次元空間(例えば、拡張現実感デバイスが位置する物理環境)を表わす。そのように、動力学シミュレーション構成要素110は、3次元空間内の物理オブジェクトの深度を判断するために、取り込まれた視覚的シーンを解析することができる。例えば、動力学シミュレーション構成要素110は、オブジェクトについての幾何学情報に基づいて、一定の既定の物理オブジェクトを認識するように構成され得る。そのような幾何学情報は、例えば既定の物理オブジェクトの形状及びサイズを含むことができ、動力学シミュレーション構成要素110が、シーン内のオブジェクトを利用可能な幾何学情報と比較することを可能にする。動力学シミュレーション構成要素110は、視覚的シーン内の物理オブジェクトの深度を判断するために幾何学情報を使用することができる。一例として、幾何学情報が特定のボールが直径3インチを示すことと、視覚的シーンがその種類のボールの2つのインスタンスを含むことと、ここで、第1のインスタンスは10画素の視覚的シーンを用いて表示され、第2のインスタンスは50画素の視覚的シーンを用いて表示されることとを仮定する。そのような例において、幾何学情報は、2つの物理ボールが同じサイズであることを示すものの、第1のインスタンスが、第2のインスタンスよりも少ない数の画素を用いて表わされるので、動力学シミュレーション構成要素110は、ボールの第1のインスタンスが、ボールの第2のインスタンスよりもカメラから更に離れていることを判断することができる。
[0021]物理オブジェクトがそのシーン内で識別されるとき、動力学シミュレーション構成要素110は、時間の経過に伴って、物理オブジェクトの動き又は運動(もしあれば)を観測することができる。一実施形態では、動力学シミュレーション構成要素110は、物理オブジェクトの速度を判断するように構成される。例えば、動力学シミュレーション構成要素110は、視覚的シーンを構成する複数の取り込まれたフレームにわたって物理オブジェクトを監視することができ、物理オブジェクトの速さ及び軌道を判断することができる。
[0022]さらに、動力学シミュレーション構成要素110は、(例えば、ディスプレイ130を用いて)拡張現実感デバイス100上に表示される視覚的シーン内に含めるための1つまたは複数の仮想オブジェクトを識別する。一例として、動力学シミュレーション構成要素110は、視覚的シーン内に仮想ボールを表示することを判断することができる。もちろん、そのような例は、限定するものではないし、例示目的のためだけに提供され、より一般的には、仮想オブジェクトは、視覚的シーン内に表示されることが可能な任意の仮想オブジェクトであり得る。さらに、動力学シミュレーション構成要素110は、例えば、速さ、仮想オブジェクトの速度、仮想オブジェクトなどの、仮想オブジェクトについての動力学特性及び運動学を識別するように構成され得る。
[0023]次いで、動力学シミュレーション構成要素110は、相互作用が、視覚的シーン内の物理オブジェクトと1つまたは複数の仮想オブジェクトとの間にいつ生じるかを判断する。一般的に言えば、相互作用は、物理オブジェクトと(複数の)仮想オブジェクトとが互いに触れる場合か、あるいはそうではなくて、拡張現実感デバイス100上に表示されたシーンによって表わされる3次元拡張現実感空間内で互いに力を伝える場合に、生じる。例えば、物理ボール及び仮想ボールは、その2つのボールが3次元拡張現実感空間内で互いに衝突する場合、相互作用することが言えるであろう。別の例として、仮想動物が物理テーブル上部上に立っているように表示される実施形態では、ユーザは、仮想動物が描写されている位置におけるテーブル上部上に彼の又は彼女の手を移動させることによって、仮想動物と相互作用することができる。更に別の例として、仮想ボールは、テーブルから転がって離れるようにレンダリングされることができ、ここで、ボールの速さの度合いは、テーブルから転がって離れる物理ボールに作用するであろう重力の実際の力を模倣する。
[0024]一実施形態では、動力学シミュレーション構成要素110は、(例えば、物理オブジェクトについての既定の幾何学情報を用いて)取り込まれた視覚的シーンによって表わされた3次元空間内の物理オブジェクトの深度を判断し、3次元拡張現実感空間内の仮想オブジェクトの深度(すなわち、3次元の位置)を更に判断する。次いで、動力学シミュレーション構成要素110は、仮想オブジェクトと物理オブジェクトとの間のより現実感のある相互作用を描写する動画をレンダリングするために、深度の値を使用することができる。例えば、第1のオブジェクトが第2のオブジェクトよりも3次元空間内においてカメラにより近い場合、第1のオブジェクトは、第2のオブジェクトと衝突するのではなく、第2のオブジェクトを単に遮ってもよい。換言すれば、動力学シミュレーション構成要素110は、3次元空間の3つの軸すべてを考慮するために深度情報を使用してもよい。
[0025]相互作用が物理オブジェクトと1つまたは複数の仮想オブジェクトとの間で生じていることを判断すると、動力学シミュレーション構成要素110は、オブジェクト間の相互作用をモデル化するために動力学シミュレーションを実行することができる。例えば、物理ボールが仮想ボールと衝突する実施形態では、動力学シミュレーション構成要素110は、物理ボールとの現実感のある衝突をシミュレーションするような手法で仮想ボールを動かすように構成され得る。一例として、動力学シミュレーション構成要素110は、物理ボールとの衝突から仮想ボールに伝えられる仮想の力を計算するために、実世界の物理をモデル化する動力学ルールのセットを仮想ボールに適用することができ、動力学シミュレーション構成要素110は、仮想ボール上の仮想の力の効果を判断するために、そのルールを更に適用することができる。一実施形態ではこれらの動力学ルールが実世界の物理ルールをモデル化するが、他の動力学システム(例えば、低重力、無重力など)が広く意図される。
[0026]特定の実施形態では、物理オブジェクトと1つまたは複数の仮想オブジェクトとの間の相互作用を検出した後に、動力学シミュレーション構成要素110は、拡張現実感世界内の仮想オブジェクトとの相互作用をシミュレーションするために、実世界内の物理オブジェクトに力を加えてもよい。例えば、物理オブジェクトは、表面コントローラによって操作されることが可能な制御された表面上を転がるボールとすることができる。物理オブジェクトと仮想オブジェクトとの間の相互作用を検出することに応答して、動力学シミュレーション構成要素110は、(例えば、表面内の回転子、表面内の磁石及び/又はボールなどを用いて)制御された表面経由で物理ボールに力を加えるためにコントローラにメッセージを伝送することができる。一実施形態では、物理オブジェクト自体は、要求に応答して、それ自体の運動を操作するように構成される。例えば、物理ボールは、そのボールの動きを変えることが可能なジャイロスコープを備えて構成され得る。そのような実施形態では、動力学シミュレーション構成要素110は、例えば、物理ボールが拡張現実感空間内の仮想オブジェクトといつ衝突するかを検出することができるし、物理ボール内のコントローラに信号を伝送することができ、コントローラにジャイロスコープを作動させ、物理ボールの軌道を変えることを命令する。結果として、拡張現実感デバイス100を通して物理ボールを見ているユーザは、仮想ボールと相互に作用する物理ボールを知覚することができ、それによって、より現実感のある拡張現実感体験をユーザのためにもたらす。
[0027]図2A〜Bは、本明細書に記載された実施形態に係る拡張現実感デバイスを例示する例を提供する。図2Aは、テーブル215を含むシーン200を例示し、そのテーブル上で、物理ボール225は、出発点220から転がっており、拡張現実感デバイス100はディスプレイ210を有する。描写されるように、拡張現実感デバイス100のディスプレイ210は、出発位置220の出発位置仮想表示212と共に、物理ボール225の仮想表示216を示す。さらに、ディスプレイ210は、出発位置214と共に、仮想ボール218を示す。
[0028]シーン200では、物理ボール225がそれの出発位置220から転がったので、仮想表示216は、ディスプレイ210上のそれの出発位置212に静止した。しかしながら、交差する点222で、仮想表示216は、仮想ボールの出発位置214で仮想ボール218と衝突した。仮想表示216と仮想ボール218との間の衝突を検出すると、動力学シミュレーション構成要素110は、仮想表示216と仮想ボール218との間の相互作用の動力学をシミュレーションするために、仮想ボール218の運動を調整することができる。それゆえに、この例では、動力学シミュレーション構成要素110は、仮想表示216及び仮想ボール218が交差する点222で衝突したことを判断し、それに応じて、仮想の力を仮想ボール218に加え、仮想ボール218をそれの出発位置214から転がさせる。そうすることで、例えば、仮想オブジェクト(例えば、仮想ボール218)が、拡張現実感デバイス100上の物理オブジェクトの仮想表示(例えば、仮想表示216)と現実的に相互作用できるようにすることによって、拡張現実感デバイス100とのユーザ相互作用を強めてもよい。
[0029]一実施形態では、動力学シミュレーション構成要素110は、拡張現実感世界についての動力学相互作用を定義する動力学ルールのセットを適用するように構成される。一実施形態では、動力学ルールのセットは、実世界物理を拡張現実感世界内のオブジェクトに適用する。しかしながら、そのような例は、例示目的のためだけのものであり、限定するものではなく、より一般的には、動力学シミュレーション構成要素110は、任意の組の動力学ルールを拡張現実感世界(例えば、低重力物理)内の相互作用に適用するように構成され得ることが意図される。
[0030]図2Bは、物理オブジェクト(及びそれらの仮想表示)と仮想オブジェクトとが相互作用する別の例を例示する。より詳細には、図2Bは、テーブル215を含むシーン240を例示し、そのテーブル上で、物理ボール230は、それの出発点220から転がっており、点225でそのボールのコースを変える。さらに、シーン240は、ディスプレイデバイス210を有する拡張現実感デバイス100を含む。ディスプレイデバイス210は、物理ボール230の仮想表示265と仮想ボール260とを示す。ここで、仮想表示265は、物理ボール230の出発位置220に対応する出発位置250から転がっており、仮想表示265は、交差する点255で仮想ボールと衝突している。
[0031]仮想表示265と仮想ボール260との間の衝突を検出すると、動力学シミュレーション構成要素110は、衝突をモデル化するための動力学シミュレーションを実行し、結果として仮想ボール260がそれの出発点245から転がることをもたらした。すなわち、動力学シミュレーション構成要素110は、仮想ボール260上に仮想の力を伝えられる交差する点255で生じている衝突を判断し、その仮想の力は、仮想ボール260がそれの最初の出発位置245から転がることを引き起こした。さらに、動力学シミュレーション構成要素110は、衝突の結果として、仮想ボール260が仮想表示265上で次いで仮想の力を伝えられたことを判断した。上記のように、動力学シミュレーション構成要素110は、例えば、制御された表面(例えば、テーブル215)内の回転子、物理オブジェクト内のジャイロスコープ、制御された表面及び/又は物理オブジェクト内の磁石などを用いて、物理オブジェクト(例えば、物理ボール230)の運動を変えるように構成され得る。より一般的には、物理オブジェクトの運動を変えるための任意の機構が、本明細書に記載された機能と矛盾せずに、動力学シミュレーション構成要素110によって使用されてもよいことが広く意図される。
[0032]描写された例に戻ると、動力学シミュレーション構成要素110は、仮想の力を物理ボール230に加えており、それゆえに、交差する点235で物理ボールの軌道を変える(そして次に、交差する点255で仮想表示の軌道を変える)。有利なことに、そうすることで、動力学的連続体を生成することによって、拡張現実感デバイス100のユーザのために向上された拡張現実感体験が提供された。その動力学的連続体では、仮想オブジェクトは、拡張現実感デバイス上に示される実世界オブジェクトの動力学に影響を及ぼすことができ、逆の場合もまた同じである。
[0033]さらに、動力学シミュレーション構成要素110は、2つの物理オブジェクトの間の相互作用(例えば、衝突)の結果として、仮想オブジェクト上に伝えられる動力学をシミュレーションするように構成され得る。例えば、動力学シミュレーション構成要素110は、仮想特徴が、物理的な実世界オブジェクトの運動に現実的に反応するように、拡張現実感空間内の仮想特徴の動作を調整するよう構成されてもよい。この例は図3に示され、図3は、本明細書に記載された一実施形態に係る拡張現実感デバイスを例示する図である。より詳細には、シーン300は、テーブル215と、ディスプレイ210を有する拡張現実感デバイス100とを含む。ここで、第1の物理ボール325及び第2の物理ボール330が、それらのそれぞれの出発位置305及び310からテーブル215を横切って転がっているように示される。この例の目的のために、物理ボール325が出発位置305で静止しており、ボール330が、それの出発位置310から動くように設定されており、静止した第1のボール325と交差する点320で衝突することを仮定する。衝突の結果として、物理ボール325は、それの出発位置305からそれの現在の位置まで転がった一方で、ボール330は、転がり続けたものの、それの描写された位置で静止することになる前にそれの軌道を変えた。
[0034]この衝突は、拡張現実感デバイス100のディスプレイ210上にもまた例示され、そのディスプレイ210では、第1の物理ボール325の仮想表示360と第2の物理ボール330の仮想表示365は、それらのそれぞれの出発位置345及び340からテーブルを横切って転がっているように示される。ここで、仮想表示360は出発位置345で静止しており、仮想表示365は、それの出発位置340から動くように設定されており、静止した仮想表示360と交差する点355で衝突する。衝突の結果として、仮想表示360は、それの出発位置345からそれの現在の位置まで転がった一方で、仮想表示365は、転がり続けたものの、それの描写された位置で静止することになる前にそれの軌道を変えた。
[0035]さらに、拡張現実感デバイス100のディスプレイ210は、最初の位置350を有する仮想特徴370を含む。それゆえに、現在の例の目的のために、仮想特徴370が、出発位置350によって示されるように、仮想表示360の出発位置345内の仮想表示360の上部上でバランスをとっていたことを仮定する。しかしながら、仮想表示360が仮想表示365と衝突した場合、描写された実施形態における動力学シミュレーション構成要素110は、仮想表示360の結果として生じる動きは、仮想表示360上部上で仮想特徴370のバランスを保つためには仮想特徴370にとって速すぎたことを判断した。結果として、仮想特徴370は、その仮想特徴370の出発位置350から落ちており、描写された位置で静止することになる。
[0036]拡張現実感デバイスのディスプレイ210上に示された実世界オブジェクトの運動を監視し、拡張現実感空間内の実世界オブジェクトと仮想オブジェクトとの間の相互作用についての動力学をシミュレーションすることによって、実施形態は、より没入型の拡張現実感体験及びより現実感のある拡張現実感体験をユーザのためにもたらすことができる。例えば、上記例を続けると、ユーザは、仮想特徴370が位置する場所における拡張現実感デバイス100の前面に彼の又は彼女の手を届かすことができ、動力学シミュレーション構成要素110は、特徴370とユーザの手との間の相互作用の動力学をシミュレーションするために仮想特徴の動作を変えることができる。例えば、一旦、仮想特徴370が仮想表示360から落ちたら、ユーザは、仮想特徴370を持ち上げて戻すように彼の又は彼女の手を用い、ユーザは、仮想特徴370をボール325の表示360の頂部に戻すことができる。有利なことに、そうすることで、没入型の体験を拡張現実感デバイスのユーザのためにもたらすことに役立ち、その拡張現実感デバイスでは、ユーザは、リアルタイムでデバイス上に示された仮想オブジェクト及び特徴と相互作用することができ、それに応じで、仮想オブジェクト及び特徴は、ユーザとの相互作用に応答することになる。
[0037]注目すべきことには、動力学シミュレーション構成要素110は、拡張現実感シーンの物理オブジェクト及び仮想オブジェクトとの仮想特徴370の相互作用をシミュレーションするときに、物理学ベースのルールのセットをモデル化するように構成され得る。例えば、その特徴の腕、足及び関節のそれぞれのシミュレーションされた挙動は、重力又は任意の他の外部衝撃力の存在を考慮することができる。有利なことに、そうすることで、拡張現実感環境における仮想特徴とオブジェクトとの間により現実感のある相互作用をもたらす。さらに、本明細書において提供された様々な例は実世界の物理を使用するが、拡張現実感世界は、物理の他のルールを使用できることが広く意図される。例えば、動力学シミュレーション構成要素110は、実世界に比較してより低い重力係数を用いて、拡張現実感世界内の仮想特徴とオブジェクトとの間の相互作用をシミュレーションするように構成され得る。より一般的には、実施形態は、本明細書に記載された機能と矛盾しない任意の物理に基づくルールを使用するように構成されてもよい。
[0038]図4は、一実施形態に係る拡張現実感デバイス上の仮想オブジェクトと物理オブジェクトとの間の相互作用の動力学をシミュレーションする方法を例示するフロー図である。図示されるように、方法400は、拡張現実感デバイスがシーンを取り込むステップ410で始まる。上記のように、視覚的シーンは、拡張現実感デバイスのカメラを用いて取り込まれた一連のフレーム(すなわち、画像)とすることができる。次いで、動力学シミュレーション構成要素110は、そのシーン内の物理オブジェクトを識別する(ステップ415)。例えば、動力学シミュレーション構成要素110は、そのオブジェクトの既定の特徴に基づいて、一定のオブジェクトを認識するように構成され得る。そのような特徴は、オブジェクトの色、形状、テクスチャなどを含むことができるが、これらに限定されるものではない。
[0039]描写された実施形態では、動力学シミュレーション構成要素110は、視覚的シーン内に表示される1つまたは複数の仮想オブジェクトを識別する(ステップ420)。もちろん、上記参考例は仮想ボール及び仮想特徴に関係するが、そのような例は、限定するものではなく、例示目的のために提供される。その上、本明細書に記載された実施形態は、視覚的シーンに挿入され、拡張現実感デバイス上に表示されることが可能な任意の仮想オブジェクトと共に使用され得ることが広く意図される。
[0040]識別された物理オブジェクトのそれぞれについて、動力学シミュレーション構成要素110は、対応する速度(すなわち、速さ及び軌道)を判断する(ステップ430)。例えば、動力学シミュレーション構成要素110は、それらの実世界物理次元などの一定の物理オブジェクトの幾何学的特徴を記載する幾何学情報を記憶することができる。動力学シミュレーション構成要素110は、視覚的シーン内の識別された物理オブジェクトの深度を判断するためにこの幾何学的情報を使用してもよい。さらに、この情報は、(例えば、一連のフレーム上のオブジェクトの位置を監視することによって)これらのオブジェクトの実世界速度を判断するために使用され得る。
[0041]図示されるように、動力学シミュレーション構成要素110は、1つまたは複数の仮想オブジェクトと相互作用する1つまたは複数の物理オブジェクトの動力学をモデル化するために、この速度情報を使用する(ステップ435)。例えば、シミュレーション構成要素110は、物理ボールが拡張現実感空間内で仮想ボールと衝突していることを判断すると、仮想ボールに加えられる仮想の力の量を判断するために、物理ボールが移動している速度を使用することができる。次いで、この仮想の力の情報は、(例えば、物理ボールと衝突する結果として、仮想ボールが転がっていくことを引き起こす)仮想ボールの動きを変えるために使用され得る。
[0042]さらに、この例では、動力学シミュレーション構成要素110はまた、仮想オブジェクトの少なくとも1つと相互作用する物理オブジェクトをシミュレーションするために、少なくとも1つの物理オブジェクトの経路を調整することができる(ステップ440)。例えば、動力学シミュレーション構成要素110は、物理オブジェクト内のコントローラにメッセージを伝送することができ、仮想オブジェクトとの衝突の結果として一定の方向に動くよう物理オブジェクトに命令する。別の例として、動力学シミュレーション構成要素110は、物理オブジェクトが配置された表面と関連付けられたコントローラにメッセージを伝送することができ、(例えば、表面及び/又は物理オブジェクト内の磁石を用いて)衝突の結果として物理オブジェクトの動きを変えるよう表面に命令する。もちろん、そのような例は、限定するものではなく、例示目的のためだけに提供されるものであり、より一般的には、本明細書に記載された機能と矛盾せずに、物理オブジェクトの動きを変えるための任意の機構が使用されてもよいことが広く意図される。
[0043]上記のように、一実施形態では、動力学シミュレーション構成要素110は、シーン内の物理表面の1つまたは複数の物理特徴を判断することができる。そのような物理特徴は、物理表面の一定の摩擦、一定の表面張力、及び一定の変形性を含むことができるが、これらに限定されるものではない。動力学シミュレーション構成要素110は、物理表面の1つまたは複数の物理特徴についての情報を用いて予め構成され得る。例えば、動力学シミュレーション構成要素110は、シーン内の表面の種類を識別することができ、次いで、識別された表面についての予め構成された物理特徴情報にアクセスすることができる。一実施形態では、動力学シミュレーション構成要素110は、表面の他の特性に基づいて、表面の物理特徴を判断するように構成される。例えば、動力学シミュレーション構成要素110は、光る鏡面反射性表面がより低い摩擦係数(例えば、一片の氷の表面)を示すことを判断することができる。次いで、動力学シミュレーション構成要素110は、これらの判断された物理特徴の一部における仮想オブジェクトと物理オブジェクトとの間の相互作用のシミュレーションに基づくことができる。例えば、上記のように、仮想のクモが、低い摩擦係数を有する物理表面(例えば、一片の氷)を横切って歩くように拡張現実感デバイス上に描写され得る。動力学シミュレーション構成要素110は、仮想のクモが物理表面を横切って進むように滑る又は落ちるように見えるよう、仮想のクモの挙動を調整することができる。有利なことに、そうすることで、ユーザの拡張現実感体験の現実感を強める。
[0044]ステップ445では、動力学シミュレーション構成要素110は、仮想オブジェクトとシーン内に存在するオブジェクトとの間のモデル化された相互作用を考慮する拡張現実感デバイス上の視覚的シーンのフレームをレンダリングする。有利なことに、実施形態は、より現実感のある拡張現実感体験を拡張現実感デバイスのユーザのためにもたらすことに役立つ。次いで、これは、ユーザが、拡張現実感デバイス上に表示される仮想オブジェクトと相互作用するために物理オブジェクト(例えば、ユーザの手)を使用することができるので、より没入型の体験をユーザのためにもたらす。
[0045]図5は、本明細書に記載された一実施形態に係る動力学シミュレーション構成要素を備えて構成された拡張現実感デバイスを例示するブロック図である。この例では、拡張現実感デバイス100は、プロセッサ500、記憶装置505、メモリ510、入出力デバイス520、ネットワークインターフェース525、カメラデバイス120、ディスプレイデバイス130及び加速度計デバイス140を含むが、これらに限定されるものではない。一般に、プロセッサ500は、メモリ510内に記憶されたプログラミング命令を検索し実行する。プロセッサ500は、単一CPU、複数CPU、複数処理コアを有する単一CPU、複数実行経路を有するGPUなどを代表するものに含まれる。メモリ510は、一般に、ランダムアクセスメモリを代表するものに含まれる。ネットワークインターフェース525は、拡張現実感デバイス100がデータ通信ネットワーク(例えば、有線イーサネット(登録商標)接続又は802.11無線ネットワーク)に接続することを可能にする。さらに、描写された実施形態は、特定の拡張現実感デバイス100の構成要素を例示するが、当業者は、拡張現実感デバイスが様々な異なるハードウェアアーキテクチャを使用してもよいことを認識するであろう。その上、発明の実施形態は、本明細書に記載された機能を実行することが可能な任意のデバイス又はコンピュータシステムを用いて実施されてもよいことが明確に意図される。
[0046]メモリ510は、必要なプログラム及びデータ構造を保持するために十分に大きな任意のメモリを表わす。メモリ510は、ランダムアクセスメモリ、不揮発性又はバックアップメモリ(例えば、プログラム可能な又はフラッシュメモリ、読み取り専用メモリなど)を含むメモリデバイスの一つまたは組み合わせとすることができる。さらに、メモリ510及び記憶装置505は、どこか他の場所に、例えば、拡張現実感デバイス100に通信可能に結合された別のコンピュータ上に、物理的に位置するメモリを含むことが考慮されてもよい。実例として、メモリ510は、動力学シミュレーション構成要素110とオペレーティングシステム515を含む。オペレーティングシステム515は、一般に、拡張現実感デバイス100上のアプリケーションプログラムの実行を制御する。オペレーティングシステム515の例は、UNIX(登録商標)、あるバージョンのMicrosoft Windows(登録商標)オペレーティングシステム、及びLinux(登録商標)オペレーティングシステムの配布物を含む(注釈:Linuxは、Linus Torvalds氏の米国及び他の国における商標である)。オペレーティングシステム515の追加的な例は、ゲームコンソールのためのカスタムオペレーティングシステムを含み、Nintendo DS(登録商標)及びSony PSP(登録商標)などのシステムのためのカスタムオペレーティングシステムを含む。
[0047]入出力デバイス520は、多種多様の入出力デバイスを表わし、ディスプレイ、キーボード、タッチスクリーンなどを含む。例えば、入出力デバイス520は、ユーザインターフェースを提供するために使用されるディスプレイデバイスを含んでもよい。一例として、ディスプレイは、ユーザが、(例えば、仮想オブジェクトを選択し制御するために)異なるアプリケーション及びアプリケーション内のオプションを選択することを可能にするタッチセンサ式表面を提供してもよい。さらに、入出力デバイス520は、拡張現実感デバイス100を制御するための一組のボタン、スイッチ又は他の物理デバイス機構を含んでもよい。例えば、入出力デバイス520は、拡張現実感デバイス100を用いてプレイされるビデオゲームの態様を制御するために使用される一組の方向性ボタンを含むことができる。
[0048]一般に、動力学シミュレーション構成要素110は、(例えば、ディスプレイ130を用いて)拡張現実感デバイス100によって表示される仮想オブジェクトと、デバイス100の外側の物理オブジェクト(例えば、カメラ120を用いて撮影された物理ボール)との間の相互作用を制御する。動力学シミュレーション構成要素110は、表示用の視覚的シーンを取り込んでもよい。例えば、視覚的シーンは、拡張現実感デバイス100のカメラ120を用いて取り込まれた一連のフレームとすることができる。動力学シミュレーション構成要素110は、視覚的シーン内の1つまたは複数の物理オブジェクトを識別することができ、視覚的シーン内に表示される1つまたは複数の仮想オブジェクトを更に識別することができる。動力学シミュレーション構成要素110は、オブジェクトがいつ互いに相互作用するかを判断するために、物理オブジェクト及び仮想オブジェクトの運動を更に監視することができる。次いで、動力学シミュレーション構成要素110は、視覚的シーン内における物理オブジェクトと1つまたは複数の仮想オブジェクトとの間の相互作用の動力学をシミュレーションすることができる。次いで、このシミュレーションの出力は、ディスプレイ130を用いて表示され得る。有利なことに、そうすることで、物理オブジェクトが拡張現実感デバイス100上に表示される仮想オブジェクトと相互作用することを可能にすることによって、また逆の場合も同じようにすることによって、より現実感のある及びより没入型の拡張現実感体験を提供することに役立つ。
[0049]上記では、言及は発明の実施形態になされた。しかしながら、発明は、特定の記載された実施形態に限定されない。その代わりに、以下の特徴及び要素の任意の組み合わせは、異なる実施形態に関するものであろうとなかろうと、発明を実施し実行することが意図される。さらに、発明の実施形態は、他の可能な解決策に勝る及び/又は先行技術に勝る利点を実現するであろうが、いずれにせよ、所与の実施形態によって実現される特定の利点は発明を限定するものではない。それゆえに、上記の態様、特徴、実施形態及び利点は、単に例示的なものであり、(複数の)特許請求の範囲に明確に列挙される場合を除き、添付された特許請求の範囲の要素又は限定とみなされない。同様に、「発明」への言及は、本明細書に開示された任意の発明の主題の一般化として解釈されないものとし、(複数の)特許請求の範囲に明確に列挙される場合を除き、添付された特許請求の範囲の要素又は限定とみなされないものとする。
[0050]本発明の態様は、システム、方法又はコンピュータプログラム製品として具体化されてもよい。それに応じて、本発明の態様は、完全にハードウェアの実施形態、(ファームウェア、常駐のソフトウェア、マイクロコードなどを含む)完全にソフトウェアの実施形態、あるいはすべて一般に本明細書において「回路」、「モジュール」又は「システム」と呼ばれるであろうソフトウェア態様とハードウェア態様とを組み合わせた実施形態の形式をとってもよい。その上、本発明の態様は、コンピュータ可読媒体上に具体化されるコンピュータ可読プログラムコードを有する1つまたは複数のコンピュータ可読媒体内に具体化されるコンピュータプログラム製品の形式をとってもよい。
[0051]1つまたは複数のコンピュータ可読媒体の任意の組み合わせが利用されてもよい。コンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体であってもよい。コンピュータ可読記憶媒体は、例えば、限定されるものではないが、電子、磁気、光学、電磁気、赤外線、若しくは半導体システム、装置、又はデバイス、あるいは前記したものの任意適切な組み合わせであってもよい。コンピュータ可読記憶媒体のより詳細な例(包括的ではないリスト)は、以下のもの、すなわち、1つまたは複数の電線を有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能でプログラム可能な読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD‐ROM)、光学記憶デバイス、磁気記憶デバイス、あるいは前記したものの任意適切な組み合わせを含むであろう。この文書との関連において、コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによる使用、あるいはその命令実行システム、装置、又はデバイスと関連する使用のためのプログラムを含むか記憶することができる任意の有形の媒体であってもよい。
[0052]コンピュータ可読信号媒体は、例えば、ベースバンド内に又は搬送波の一部として、その媒体内に具体化されたコンピュータ可読プログラムコードを用いて伝搬されるデータ信号を含んでもよい。そのような伝搬される信号は、限定されるものではないが、電磁気、光、又はそれらの任意適切な組み合わせを含む様々な形式のいずれかをとってもよい。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体ではない任意のコンピュータ可読媒体であって、命令実行システム、装置、若しくはデバイスによる使用、あるいはその命令実行システム、装置、若しくはデバイスと関連する使用のためのプログラムを通信し、伝搬し、又は伝送することができる任意のコンピュータ可読媒体であってもよい。
[0053]コンピュータ可読媒体上に具体化されたプログラムコードは、限定されるものではないが無線、有線、光ファイバケーブル、RFなど、あるいは前記のものの任意適切な組み合わせを含む任意適切な媒体を用いて伝送されてもよい。
[0054]本発明の態様についての動作を実行するためのコンピュータプログラムコードは、Java(登録商標)、Smalltalk、C++又は同様のものなどのオブジェクト指向プログラミング言語と、「C」プログラミング言語又は類似のプログラミング言語などの従来の手続き型プログラミング言語とを含む、1つまたは複数のプログラミング言語の任意の組み合わせで書かれていてもよい。プログラムコードは、ユーザのコンピュータ上で全部、ユーザのコンピュータ上で部分的に、独立型のソフトウェアパッケージとして、ユーザのコンピュータ上で部分的にかつ遠隔コンピュータ上で部分的に、あるいは遠隔コンピュータ又はサーバ上で全部実行されてもよい。後者のシナリオでは、遠隔コンピュータは、ローカルエリアネットワーク(LAN)若しくはワイドエリアネットワーク(WAN)を含む任意の種類のネットワーク経由でユーザのコンピュータに接続されてもよく、あるいは接続は、(例えば、インターネットサービスプロバイダを用いたインターネット経由で)外部コンピュータになされてもよい。
[0055]本発明の態様は、発明の実施形態に係る方法、装置(システム)及びコンピュータプログラム製品のフローチャート図並びに/又はブロック図に関して上記された。フローチャート図及び/又はブロック図の各ブロック、並びにフローチャート図及び/又はブロック図内のブロックの組み合わせが、コンピュータプログラム命令によって実施され得ることは理解されるであろう。コンピュータのプロセッサ又は他のプログラム可能なデータ処理装置経由で実行する命令が、フローチャート及び/又はブロック図のブロックあるいは複数ブロック内において指定された機能/動作を実施するための手段を生成するように、これらのコンピュータプログラム命令は、マシンを作るための一般目的のコンピュータ、特別目的のコンピュータ、又は他のプログラム可能なデータ処理装置のプロセッサに提供されてもよい。
[0056]コンピュータ可読媒体内に記憶された命令が、フローチャート及び/又はブロック図のブロックあるいは複数ブロック内において指定された機能/動作を実施する命令を含む製造品をもたらすように、これらのコンピュータプログラム命令はまた、特定の手法で機能するようにコンピュータ、他のプログラム可能なデータ処理装置、又は他のデバイスに指示することができるコンピュータ可読媒体内に記憶されてもよい。
[0057]コンピュータ又は他のプログラム可能な装置上で実行する命令が、フローチャート及び/又はブロック図のブロックあるいは複数ブロック内において指定された機能/動作を実施するためのプロセスを提供するように、コンピュータプログラム命令はまた、コンピュータにより実施されるプロセスを生じさせるために、一連の操作上のステップをコンピュータ、他のプログラム可能な装置又は他のデバイス上で実行させるように、コンピュータ、他のプログラム可能なデータ処理装置、又は他のデバイス上にロードされてもよい。
[0058]発明の実施形態は、クラウドコンピューティングインフラストラクチャを通してエンドユーザに提供されてもよい。クラウドコンピューティングは、一般に、ネットワーク上のサービスとして拡張可能なコンピューティングリソースの供給に関連する。より正式には、クラウドコンピューティングは、コンピューティングリソースとそれの基礎をなす技術的アーキテクチャ(例えば、サーバ、記憶装置、ネットワーク)との間の抽象化を提供するコンピューティング機能として定義されてもよく、最小限の管理努力又はサービスプロバイダ相互作用で迅速に提供され解放され得る構成可能なコンピューティングリソースの共有プールへの便利な、オンデマンド式ネットワークアクセスを可能にする。それゆえに、クラウドコンピューティングは、ユーザが、コンピューティングリソースを提供するために使用される基礎をなす物理システム(又はそれらのシステムの位置)を考慮せずに、「クラウド」内の仮想コンピューティングリソース(例えば、記憶装置、データ、アプリケーション、さらには、完全に仮想化されたコンピューティングシステム)にアクセスすることを可能にする。
[0059]典型的に、クラウドコンピューティングリソースは、ユーザが、実際に使用されたコンピューティングリソース(例えば、ユーザによって消費された記憶スペースの量又はユーザによってインスタンス化された仮想化システムの数)についてだけ請求される使用回数制料金で、ユーザに提供される。ユーザは、インターネット上でどこからでも、任意の時間にクラウド内にあるいずれのリソースにもアクセスすることができる。本発明の関係において、ユーザは、クラウド内で利用可能な幾何学的データにアクセスしてもよい。例えば、動力学シミュレーション構成要素110は、ユーザによって操作される拡張現実感デバイス100上で実行することができ、ユーザの現在の環境(例えば、ユーザの現在の環境内の物理オブジェクトの寸法)に関係する幾何学的情報を収集することができる。そのような場合では、動力学シミュレーション構成要素110は、収集されたデータを記憶用のクラウド内のコンピューティングシステムに伝送することができる。ユーザが同じ環境に再度戻ると、動力学シミュレーション構成要素110は、幾何学的データを検索するためにクラウド内のコンピュータシステムに問い合わせることができ、次いで、ユーザの物理環境内の物理オブジェクトと拡張現実感デバイス100上に表示される仮想オブジェクトとの間の動力学シミュレーションを実行するために、検索されたデータを使用することができる。例えば、動力学シミュレーション構成要素110は、取り込まれた視覚的シーン内の物理オブジェクトの深度を判断するために幾何学的情報を使用することができる。そうすることで、ユーザが、クラウドに接続されたネットワーク(例えば、インターネット)に付属した任意のデバイス又はコンピュータシステムからこの情報にアクセスすることを可能にする。
[0060]図面内のフローチャート及びブロック図は、本発明の様々な実施形態に係るシステム、方法及びコンピュータプログラム製品の可能な実施のアーキテクチャ、機能性、及び動作を例示する。これに関して、フローチャート又はブロック図内の各ブロックは、(複数の)指定された論理的機能を実施するための1つまたは複数の実行可能な命令を含むモジュール、セグメント、又はコードの一部を表わしてもよい。いくつかの代替の実施では、ブロック内に示された機能は、図面内に示された順序から外れて生じてもよい。例えば、連続して示された2つのブロックは、実際、実質的に同時に実行されてもよいし、あるいは、そのブロックは、関係する機能性次第で、時には逆の順序で実行されてもよい。ブロック図及び/又はフローチャート図の各ブロック、並びにブロック図及び/又はフローチャート図内のブロックの組み合わせは、指定された機能又は動作を実行する特別目的のハードウェアベースのシステム、あるいは特別目的のハードウェアとコンピュータ命令との組み合わせによって実施され得る。
[0061]前記したものは、本発明の実施形態に関するものであるが、発明の他の及び更なる実施形態は、発明の基本的な範囲から逸脱することなく考案されてもよく、その発明の範囲は、以下に続く特許請求の範囲によって決定される。

Claims (21)

  1. 拡張現実感デバイスを用いて相互作用をシミュレーションする方法であって、
    第1の物理オブジェクトを含み、1つまたは複数のカメラデバイスを用いて取り込まれる視覚的シーンを表示用に取り込むことと、
    前記拡張現実感デバイスの1つまたは複数のコンピュータプロセッサの動作によって、前記第1の物理オブジェクトと1つまたは複数の仮想オブジェクトとの間の動的相互作用をシミュレーションすることと、
    前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の前記シミュレーションされた動的相互作用を描写する表示用の一連のフレームをレンダリングすることと、を含み、
    前記視覚的シーン内の前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の前記シミュレーションされた動的相互作用に基づいて、前記取り込まれた視覚的シーンの外側の前記第1の物理オブジェクトに力を加えることを更に含む、
    方法。
  2. 前記第1の物理オブジェクトについての既定の幾何学情報であって、少なくとも前記第1の物理オブジェクトについての一定のサイズを含む既定の幾何学情報を識別することと、
    前記識別された既定の幾何学情報に基づいて、前記視覚的シーン内の前記第1の物理オブジェクトの深度を見積もることと、を更に含み、
    前記動的相互作用をシミュレーションすることは、前記第1の物理オブジェクトの前記見積もられた深度に更に基づく、請求項1に記載の方法。
  3. 前記視覚的シーン内の前記第1の物理オブジェクトの動きを監視することと、
    前記監視された動きに基づいて、前記第1の物理オブジェクトの速度を見積もることと、を更に含む、請求項1に記載の方法。
  4. 前記視覚的シーン内に表示される前記1つまたは複数の仮想オブジェクトの速度を判断することを更に含み、
    動力学的な前記シミュレーションは、前記第1の物理オブジェクトの前記判断された速度と、前記1つまたは複数の仮想オブジェクトの前記判断された速度とに更に基づく、請求項3に記載の方法。
  5. 前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の動的相互作用をシミュレーションすることは、前記拡張現実感デバイス上に表示される前記視覚的シーンについての動力学相互作用を定義する動力学ルールのセットに更に基づく、請求項1に記載の方法。
  6. 前記取り込まれた視覚的シーンの外側の前記第1の物理オブジェクトと関連付けられたコントローラであって、メッセージを受信することに応答して前記第1の物理オブジェクトに力を加えるように構成されたコントローラに前記メッセージを伝送することを更に含む、請求項1に記載の方法。
  7. 前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の前記動的相互作用をシミュレーションすることは、
    前記第1の物理オブジェクトの1つまたは複数の特徴を判断することと、
    前記判断された1つまたは複数の特徴に基づいて、前記動的相互作用の一部として前記1つまたは複数の仮想オブジェクトの挙動を調整することと、を更に含む、請求項1に記載の方法。
  8. プロセッサと、
    前記プロセッサによって実行されるとき、拡張現実感デバイスを用いて相互作用をシミュレーションするための動作であって、
    1つまたは複数のカメラデバイスを用いて取り込まれる視覚的シーンを表示用に取り込むことと、
    第1の物理オブジェクトと1つまたは複数の仮想オブジェクトとの間の動的相互作用をシミュレーションすることと、
    前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の前記シミュレーションされた動的相互作用を描写する表示用の一連のフレームをレンダリングすることと、を含む動作を実行するプログラムを含むメモリと、を備え
    前記動作は、
    前記視覚的シーン内の前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の前記シミュレーションされた動的相互作用に基づいて、前記取り込まれた視覚的シーンの外側の前記第1の物理オブジェクトに力を加えることを更に含む、
    拡張現実感デバイス。
  9. 前記動作は、
    前記第1の物理オブジェクトについての既定の幾何学情報であって、前記第1の物理オブジェクトについての少なくとも一定のサイズを含む既定の幾何学情報を識別することと、
    前記識別された既定の幾何学情報に基づいて、前記視覚的シーン内の前記第1の物理オブジェクトの深度を見積もることと、を更に含み、
    前記動的相互作用をシミュレーションすることは、前記第1の物理オブジェクトの前記見積もられた深度に更に基づく、請求項に記載の拡張現実感デバイス。
  10. 前記視覚的シーン内の前記第1の物理オブジェクトの動きを監視することと、
    前記監視された動きに基づいて、前記第1の物理オブジェクトの速度を見積もることと、を更に含む、請求項に記載の拡張現実感デバイス。
  11. 前記視覚的シーン内に表示される前記1つまたは複数の仮想オブジェクトの速度を判断することを更に含み、
    動力学的な前記シミュレーションは、前記第1の物理オブジェクトの前記判断された速度と、前記1つまたは複数の仮想オブジェクトの前記判断された速度とに更に基づく、請求項10に記載の拡張現実感デバイス。
  12. 前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の動的相互作用をシミュレーションすることは、前記拡張現実感デバイス上に表示される前記視覚的シーンについての動力学相互作用を定義する動力学ルールのセットに更に基づく、請求項に記載の拡張現実感デバイス。
  13. 前記動作は、
    前記取り込まれた視覚的シーンの外側の前記第1の物理オブジェクトと関連付けられたコントローラであって、メッセージを受信することに応答して、力を前記第1の物理オブジェクトに加えるように構成されるコントローラに前記メッセージを伝送することを更に含む、請求項に記載の拡張現実感デバイス。
  14. 前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の前記動的相互作用をシミュレーションすることは、
    前記第1の物理オブジェクトの1つまたは複数の特徴を判断することと、
    前記判断された1つまたは複数の特徴に基づいて、前記動的相互作用の一部として前記1つまたは複数の仮想オブジェクトの挙動を調整することと、を更に含む、請求項に記載の拡張現実感デバイス。
  15. 実行されるとき、拡張現実感デバイスを用いて相互作用をシミュレーションするための動作であって、
    1つまたは複数のカメラデバイスを用いて取り込まれる視覚的シーンを表示用に取り込むことと、
    第1の物理オブジェクトと1つまたは複数の仮想オブジェクトとの間の動的相互作用をシミュレーションすることと、
    前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の前記シミュレーションされた動的相互作用を描写する表示用の一連のフレームをレンダリングすることと、を含む動作を実行するプログラムを含み、
    前記動作は、
    前記視覚的シーン内の前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の前記シミュレーションされた動的相互作用に基づいて、前記取り込まれた視覚的シーンの外側の前記第1の物理オブジェクトに力を加えることを更に含む、
    コンピュータ可読記憶媒体。
  16. 前記動作は、
    前記第1の物理オブジェクトについての既定の幾何学情報であって、前記第1の物理オブジェクトについての少なくとも一定のサイズを含む既定の幾何学情報を識別することと、
    前記識別された既定の幾何学情報に基づいて、前記視覚的シーン内の前記第1の物理オブジェクトの深度を見積もることと、を更に含み、
    前記動的相互作用をシミュレーションすることは、前記第1の物理オブジェクトの前記見積もられた深度に更に基づく、請求項15に記載のコンピュータ可読記憶媒体。
  17. 前記視覚的シーン内の前記第1の物理オブジェクトの動きを監視することと、
    前記監視された動きに基づいて、前記第1の物理オブジェクトの速度を見積もることと、を更に含む、請求項15に記載のコンピュータ可読記憶媒体。
  18. 前記視覚的シーン内に表示される前記1つまたは複数の仮想オブジェクトの速度を判断することを更に含み、
    動力学的な前記シミュレーションは、前記第1の物理オブジェクトの前記判断された速度と、前記1つまたは複数の仮想オブジェクトの前記判断された速度とに更に基づく、請求項17に記載のコンピュータ可読記憶媒体。
  19. 前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の動的相互作用をシミュレーションすることは、前記拡張現実感デバイス上に表示される前記視覚的シーンについての動力学相互作用を定義する動力学ルールのセットに更に基づく、請求項15に記載のコンピュータ可読記憶媒体。
  20. 前記動作は、
    前記取り込まれた視覚的シーンの外側の前記第1の物理オブジェクトと関連付けられたコントローラであって、メッセージを受信することに応答して、力を前記第1の物理オブジェクトに加えるように構成されるコントローラに前記メッセージを伝送することを更に含む、請求項15に記載のコンピュータ可読記憶媒体。
  21. 前記第1の物理オブジェクトと前記1つまたは複数の仮想オブジェクトとの間の前記動的相互作用をシミュレーションすることは、
    前記第1の物理オブジェクトの1つまたは複数の特徴を判断することと、
    前記判断された1つまたは複数の特徴に基づいて、前記動的相互作用の一部として前記1つまたは複数の仮想オブジェクトの挙動を調整することと、を更に含む、請求項15に記載のコンピュータ可読記憶媒体。
JP2013134217A 2012-06-29 2013-06-26 拡張現実感シミュレーション連続体 Active JP5619964B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/538,699 US9741145B2 (en) 2012-06-29 2012-06-29 Augmented reality simulation continuum
US13/538,699 2012-06-29

Publications (2)

Publication Number Publication Date
JP2014010838A JP2014010838A (ja) 2014-01-20
JP5619964B2 true JP5619964B2 (ja) 2014-11-05

Family

ID=48746322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013134217A Active JP5619964B2 (ja) 2012-06-29 2013-06-26 拡張現実感シミュレーション連続体

Country Status (5)

Country Link
US (2) US9741145B2 (ja)
EP (1) EP2680230A3 (ja)
JP (1) JP5619964B2 (ja)
KR (1) KR101660089B1 (ja)
CN (1) CN103530495B (ja)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014013628A1 (ja) 2012-07-20 2014-01-23 楽天株式会社 動画処理装置、動画処理方法、ならびに、情報記録媒体
US9773346B1 (en) * 2013-03-12 2017-09-26 Amazon Technologies, Inc. Displaying three-dimensional virtual content
JP6217747B2 (ja) * 2013-04-16 2017-10-25 ソニー株式会社 情報処理装置及び情報処理方法
US20150077340A1 (en) * 2013-09-18 2015-03-19 Genius Toy Taiwan Co., Ltd. Method, system and computer program product for real-time touchless interaction
US9704295B2 (en) * 2013-11-05 2017-07-11 Microsoft Technology Licensing, Llc Construction of synthetic augmented reality environment
US9286725B2 (en) * 2013-11-14 2016-03-15 Nintendo Co., Ltd. Visually convincing depiction of object interactions in augmented reality images
US20150185826A1 (en) * 2013-12-30 2015-07-02 Daqri, Llc Mapping gestures to virtual functions
GB2542518B (en) * 2014-05-21 2020-07-22 Tangible Play Inc Virtualization of tangible interface objects
US10583354B2 (en) 2014-06-06 2020-03-10 Lego A/S Interactive game apparatus and toy construction system
US10518188B2 (en) * 2014-06-30 2019-12-31 Microsoft Technology Licensing, Llc Controlling physical toys using a physics engine
KR20170031656A (ko) * 2014-07-08 2017-03-21 삼성전자주식회사 화상을 이용해 3차원 정보를 처리하는 전자 장치 및 방
JP6390277B2 (ja) 2014-09-02 2018-09-19 ソニー株式会社 情報処理装置、制御方法、およびプログラム
FR3026872A1 (fr) * 2014-10-02 2016-04-08 Amega Signaletiques Procede de fabrication d'objets personnalises pour enseignes de magasin, utilisant la realite augmentee.
MX2017004225A (es) 2014-10-02 2018-03-28 Lego As Sistema de juego.
US9696757B2 (en) 2014-10-08 2017-07-04 Microsoft Corporation Transfer of attributes between generations of characters
US10369477B2 (en) 2014-10-08 2019-08-06 Microsoft Technology Licensing, Llc Management of resources within a virtual world
CN104407696B (zh) * 2014-11-06 2016-10-05 北京京东尚科信息技术有限公司 移动设备的虚拟球模拟及控制的方法
US10495726B2 (en) * 2014-11-13 2019-12-03 WorldViz, Inc. Methods and systems for an immersive virtual reality system using multiple active markers
US9791917B2 (en) * 2015-03-24 2017-10-17 Intel Corporation Augmentation modification based on user interaction with augmented reality scene
US10620778B2 (en) 2015-08-31 2020-04-14 Rockwell Automation Technologies, Inc. Augmentable and spatially manipulable 3D modeling
US10095928B2 (en) 2015-12-22 2018-10-09 WorldViz, Inc. Methods and systems for marker identification
GB201607639D0 (en) * 2016-05-02 2016-06-15 Univ Leuven Kath Sensing method
US10242501B1 (en) 2016-05-03 2019-03-26 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
US10235809B2 (en) * 2016-06-30 2019-03-19 Microsoft Technology Licensing, Llc Reality to virtual reality portal for dual presence of devices
US10943398B2 (en) * 2016-07-15 2021-03-09 Samsung Electronics Co., Ltd. Augmented reality device and operation thereof
GB2555841A (en) * 2016-11-11 2018-05-16 Sony Corp An apparatus, computer program and method
US10782668B2 (en) * 2017-03-16 2020-09-22 Siemens Aktiengesellschaft Development of control applications in augmented reality environment
CN108334806B (zh) * 2017-04-26 2021-12-14 腾讯科技(深圳)有限公司 图像处理方法、装置和电子设备
CN110520902B (zh) * 2017-03-30 2023-04-28 韩国斯诺有限公司 对图像应用动态效果的方法及装置
US10403050B1 (en) 2017-04-10 2019-09-03 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
US11054894B2 (en) 2017-05-05 2021-07-06 Microsoft Technology Licensing, Llc Integrated mixed-input system
CN107393017A (zh) * 2017-08-11 2017-11-24 北京铂石空间科技有限公司 图像处理方法、装置、电子设备及存储介质
US20190056799A1 (en) * 2017-08-15 2019-02-21 TinMoon Studios, LLC Method and system for resolving spatial boundary conflicts of virtual objects using simulated spring constraints in 3d virtual space
JP7060355B2 (ja) * 2017-10-17 2022-04-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理システムおよび情報処理方法
WO2019082854A1 (ja) * 2017-10-26 2019-05-02 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム
US10957103B2 (en) * 2017-11-03 2021-03-23 Adobe Inc. Dynamic mapping of virtual and physical interactions
US10139899B1 (en) * 2017-11-30 2018-11-27 Disney Enterprises, Inc. Hypercatching in virtual reality (VR) system
US10360454B1 (en) * 2017-12-28 2019-07-23 Rovi Guides, Inc. Systems and methods for presenting supplemental content in augmented reality
US10546425B2 (en) 2018-01-30 2020-01-28 Disney Enterprises, Inc. Real physical objects interacting with augmented reality features
US11262838B2 (en) * 2018-01-30 2022-03-01 Sony Corporation Information processing device and information processing method
US10445940B2 (en) 2018-03-15 2019-10-15 Disney Enterprises, Inc. Modeling interactions between simulated characters and real-world objects for more realistic augmented reality
CN108573530B (zh) * 2018-03-29 2022-02-11 麒麟合盛网络技术股份有限公司 增强现实ar交互方法及系统
CN108543309B (zh) * 2018-04-03 2020-03-10 网易(杭州)网络有限公司 在增强现实中控制虚拟控制对象移动的方法、装置及终端
US10877554B2 (en) * 2018-04-19 2020-12-29 Samsung Electronics Co., Ltd. High efficiency input apparatus and method for virtual reality and augmented reality
CN108635847B (zh) * 2018-05-14 2021-06-01 北京卡路里科技有限公司 运动中互动的方法与装置
WO2019226001A1 (en) * 2018-05-23 2019-11-28 Samsung Electronics Co., Ltd. Method and apparatus for managing content in augmented reality system
US10984600B2 (en) 2018-05-25 2021-04-20 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US10818093B2 (en) 2018-05-25 2020-10-27 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US10748342B2 (en) 2018-06-19 2020-08-18 Google Llc Interaction system for augmented reality objects
CN110852143B (zh) * 2018-08-21 2024-04-09 元平台公司 在增强现实环境中的交互式文本效果
US10832481B2 (en) * 2018-08-21 2020-11-10 Disney Enterprises, Inc. Multi-screen interactions in virtual and augmented reality
US11030813B2 (en) * 2018-08-30 2021-06-08 Snap Inc. Video clip object tracking
US10692294B1 (en) 2018-12-17 2020-06-23 Universal City Studios Llc Systems and methods for mediated augmented physical interaction
CN109727315B (zh) * 2018-12-29 2023-08-22 上海曼恒数字技术股份有限公司 一对多集群渲染方法、装置、设备及存储介质
US10780359B2 (en) 2019-01-08 2020-09-22 Universal City Studios Llc Systems and methods for a connected augmented environment
US11308652B2 (en) 2019-02-25 2022-04-19 Apple Inc. Rendering objects to match camera noise
US10937218B2 (en) * 2019-07-01 2021-03-02 Microsoft Technology Licensing, Llc Live cube preview animation
KR102570009B1 (ko) * 2019-07-31 2023-08-23 삼성전자주식회사 Ar 객체 생성 방법 및 전자 장치
WO2021038565A1 (en) * 2019-08-26 2021-03-04 Agt International Gmbh Tracking dynamics using a computerized device
US20230005262A1 (en) * 2019-11-25 2023-01-05 Alon Melchner System and method for dynamic synchronization between real and virtual environments
GB2590422B (en) * 2019-12-17 2024-03-06 Sony Interactive Entertainment Inc Content generation system and method
US20230377280A1 (en) * 2020-06-22 2023-11-23 Alon Melchner System and method for rendering virtual interactions of an immersive reality-virtuality continuum-based object and a real environment
CN111773736B (zh) * 2020-07-03 2024-02-23 珠海金山数字网络科技有限公司 一种虚拟角色的行为生成方法及装置
CN111880659A (zh) * 2020-07-31 2020-11-03 北京市商汤科技开发有限公司 虚拟人物控制方法及装置、设备、计算机可读存储介质
WO2022061114A1 (en) 2020-09-17 2022-03-24 Bogie Inc. System and method for an interactive controller
KR20220046261A (ko) * 2020-10-07 2022-04-14 삼성전자주식회사 증강 현실을 디스플레이하는 방법 및 이를 수행하는 전자 장치
US20220383601A1 (en) * 2021-05-25 2022-12-01 Samsung Electronics Co., Ltd. Virtual avatars and physical object interaction in augmented reality applications

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06131442A (ja) * 1992-10-19 1994-05-13 Mazda Motor Corp 3次元虚像造形装置
US6028593A (en) * 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
JP3486536B2 (ja) 1997-09-01 2004-01-13 キヤノン株式会社 複合現実感提示装置および方法
JP2000132329A (ja) * 1998-10-27 2000-05-12 Sony Corp 面認識装置、面認識方法及び仮想画像立体合成装置
JP3413129B2 (ja) 1999-06-11 2003-06-03 キヤノン株式会社 画像処理方法及び画像処理装置
JP3517639B2 (ja) * 2000-09-27 2004-04-12 キヤノン株式会社 複合現実感提示装置及びその方法並びに記憶媒体
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
JP3841806B2 (ja) * 2004-09-01 2006-11-08 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
CN101438221A (zh) * 2004-12-01 2009-05-20 皇家飞利浦电子股份有限公司 移动物理对象和引起触觉的图像显示器
US20070205963A1 (en) * 2006-03-03 2007-09-06 Piccionelli Gregory A Heads-up billboard
JP4989383B2 (ja) * 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
KR101146091B1 (ko) 2007-11-30 2012-05-16 광주과학기술원 증강 현실을 위한 입력 인터페이스 장치 및 이를 구비한 증강 현실 시스템
JP4881336B2 (ja) 2008-03-07 2012-02-22 ラピスセミコンダクタ株式会社 画像表示制御装置、画像表示制御プログラム、及び半導体装置
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
US20100238161A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
US20120113223A1 (en) 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US8736583B2 (en) * 2011-03-29 2014-05-27 Intel Corporation Virtual links between different displays to present a single virtual object
US9183676B2 (en) * 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects

Also Published As

Publication number Publication date
US20170330362A1 (en) 2017-11-16
CN103530495A (zh) 2014-01-22
KR20140002567A (ko) 2014-01-08
EP2680230A2 (en) 2014-01-01
EP2680230A3 (en) 2016-02-10
CN103530495B (zh) 2017-10-20
KR101660089B1 (ko) 2016-09-26
US20140002493A1 (en) 2014-01-02
US10282882B2 (en) 2019-05-07
JP2014010838A (ja) 2014-01-20
US9741145B2 (en) 2017-08-22

Similar Documents

Publication Publication Date Title
JP5619964B2 (ja) 拡張現実感シミュレーション連続体
US9898872B2 (en) Mobile tele-immersive gameplay
US8411092B2 (en) 2D imposters for simplifying processing of plural animation objects in computer graphics generation
JP5439367B2 (ja) ゲームギアリングを変更するための方法
US10068547B2 (en) Augmented reality surface painting
JP6959365B2 (ja) 中心窩レンダリングシステムにおけるシャドーの最適化及びメッシュスキンの適応
TWI567659B (zh) 照片表示視圖的基於主題的增強
JP4822553B2 (ja) ゲーム装置、ゲームプログラム、コンピュータ読み取り可能な情報記憶媒体、ゲームシステムおよびゲーム処理方法
US8049756B2 (en) Time-dependent client inactivity indicia in a multi-user animation environment
US8957858B2 (en) Multi-platform motion-based computer interactions
EP3072033B1 (en) Motion control of a virtual environment
JP2007300974A (ja) プログラム、情報記憶媒体及び画像生成システム
JP7503122B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
CN105144240B (zh) 使用深度图像的用户质心和质量分布提取
US20080043042A1 (en) Locality Based Morphing Between Less and More Deformed Models In A Computer Graphics System
WO2013059751A1 (en) Calculating metabolic equivalence with a computing device
CA2850143A1 (en) Motion controlled list scrolling
JP5876600B1 (ja) 情報処理プログラム、及び情報処理方法
US8538736B1 (en) System and method for simulating object weight in animations
JP6959267B2 (ja) 場所ベースゲームプレイコンパニオンアプリケーションを使用するチャレンジの生成
JP6863678B2 (ja) プログラム及びゲーム装置
Garcia et al. Modifying a game interface to take advantage of advanced I/O devices
Chung Metaverse XR Components
JP6945699B2 (ja) プログラム及びゲーム装置
JP2008071049A (ja) プログラム、情報記憶媒体、及び画像生成システム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140917

R150 Certificate of patent or registration of utility model

Ref document number: 5619964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250