JP2015506032A - 複数のデバイスにまたがる拡張現実表現 - Google Patents

複数のデバイスにまたがる拡張現実表現 Download PDF

Info

Publication number
JP2015506032A
JP2015506032A JP2014547168A JP2014547168A JP2015506032A JP 2015506032 A JP2015506032 A JP 2015506032A JP 2014547168 A JP2014547168 A JP 2014547168A JP 2014547168 A JP2014547168 A JP 2014547168A JP 2015506032 A JP2015506032 A JP 2015506032A
Authority
JP
Japan
Prior art keywords
display
virtual object
real space
presenting
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014547168A
Other languages
English (en)
Other versions
JP5832666B2 (ja
Inventor
ジェイ. アンダーソン、グレン
ジェイ. アンダーソン、グレン
エー. マーチ、ウェンディ
エー. マーチ、ウェンディ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2015506032A publication Critical patent/JP2015506032A/ja
Application granted granted Critical
Publication of JP5832666B2 publication Critical patent/JP5832666B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

複数のデバイスにまたがる拡張現実表現を生成するための方法および装置が記載される。一実施例において、動作は、仮想物体を生成するステップと、第1のディスプレイを含む現実空間を生成するステップと、第2のディスプレイにおいて、第1のディスプレイを含む現実空間内に仮想物体を提示するステップとを含む。さらなる動作は、仮想物体が現実空間を通って移動する際に、現実空間における仮想物体の位置を追跡するステップと、追跡された位置を用いて、第2のディスプレイにおける仮想物体の提示を更新するステップと、仮想物体の追跡された位置が現実空間における第1のディスプレイの位置と一致するときに、第1のディスプレイに仮想物体を提示するステップとを含む。【選択図】図4

Description

拡張現実(Augmented Reality:AR)は、現実の場所の画像に仮想物体を重ね合わせて見せるための技術を含む。簡単な例において、その画像はレストランを含む街路の風景であり、レストランの画像の上に重ね合わされたレストランの名前を加えることによって、この現実が拡張される。これが拡大されて、メニュー、レビュー、中にいる友人、およびその他の情報が含まれる。画像は画像のビデオシーケンスであってもよい。ユーザがカメラ付き携帯電話である場所を指して、その場所をスマートフォンディスプレイ上で見ることを可能にするスマートフォンアプリケーションが提案または開発されている。このアプリケーションは次いで、たとえばレストラン名など、その場所に関するデータを取得し、スマートフォンディスプレイに示されている現実を、名前、メニュー、レビューなどによって拡張する。
AR技術は、現実世界のビデオと3次元グラフィックスとを混合するためにも用いられてきた。一例においては、現実の場面のビデオフィードの上に仮想の人間または動物を重ね合わせるためにARが用いられる。いくつかの場合には、現実の場面がカメラによって観察され、次いでその場面の中に立つ人物がジェスチャーをすると、それがカメラによって観察されて、現実の人物と仮想の人物または動物との双方向性を提供するために用いられてもよい。この現実の人物と仮想の人物との交流を現実の人物は直接見ることができないが、拡張現実ビューを示すディスプレイを通じて見ることができる。このビューは現実の場面と、現実の人物と、仮想の人物とを含む。
さらなるARの開発では、場面の中の現実の物体が増強または変換されて、他の仮想の物体または人間と交流する仮想の物体となる。つまり、たとえば現実のキャンディが仮想の爆弾になることもできるし、テレビの現実の映像が仮想的にテレビのチャンネルを表示することもできる。これらのタイプのAR技術は娯楽および新規性を提供する。改善によって、AR技術はゲームプレイ、訓練および教育に用いられるかもしれない。
添付の図面において、本発明の実施形態は例として示されるものであって、限定として示されるものではない。図面において類似の参照番号は類似の構成要素を示す。
本発明の実施形態に従う、AR表現に好適な複数のディスプレイを有する現実の場面の図である。 本発明の実施形態に従う、ARキャラクターのサラマンダー(salamander)がディスプレイから出現したところを示す、複数のディスプレイを有する図1の現実の場面の図である。 本発明の実施形態に従う、ARキャラクターのサラマンダーが現実の場面を横切るところを示す、複数のディスプレイを有する図1の現実の場面の図である。 本発明の実施形態に従う、ARキャラクターのサラマンダーがディスプレイに入るところを示す、複数のディスプレイを有する図1の現実の場面の図である。 本発明の実施形態に従う、複数のディスプレイを有する現実の場面およびその場面の中を動き回る複数のARキャラクターの図である。 本発明の実施形態に従う、複数のディスプレイにまたがってARキャラクターを表現するステップのプロセス流れ図である。 本発明の別の実施形態に従う、複数のディスプレイを含む現実空間においてARキャラクターを表現するステップのプロセス流れ図である。 本発明の実施形態に従う、本開示のプロセスを実施するために好適なコンピュータシステムのブロック図である。 本発明の実施形態に従う、本開示のプロセスを実施するために好適な図8のコンピュータシステムの代替図のブロック図である。
本発明の実施形態に従うと、非ARビューで同じキャラクターを示している画面からARキャラクターが出現してもよい。言い換えると、AR画面上で、キャラクターが第2の画面から出現するところが示される。同時に第2の画面も、その画面上にキャラクターのいずれかの部分が残っている間は、キャラクターがその画面から出現するところを示す。次いで、キャラクターは現実空間を横切って移動する。この移動は第2の画面で見ることができず、AR画面のみで見られる。キャラクターは、ARおよび非AR表示の混合によって示されるとおり、別の第3の画面ともインタラクションしてもよい。キャラクターが画面から画面へと移動する際に、そのキャラクターの属性を含むがそれに限定されないデータも、画面から画面へと移動するか、または1つの画面を支援するデバイスから別の画面を支援するデバイスへと移動してもよい。
図1は、AR(拡張現実)技術を用いた拡張における複数の画面の間のインタラクションの例を示す。第1の画面14上に、苔むした岩12の上に立つサラマンダー10が提示される。第1の画面は、机16の上に置かれたタブレットコンピュータのディスプレイである。このサラマンダーは完全にディスプレイ内に含まれているため、ARは伴われていない。サラマンダーは、従来のグラフィックスレンダリング技術を用いて仮想環境における仮想物体として生成されてもよい。サラマンダーは、2次元または3次元技術を用いて生成されてもよい。画面は2次元または3次元提示が可能であってもよい。
図1の現実の場面は、第2のデバイスの第2の画面18も含み、それはこの場合にはポータブルノート型コンピュータであるが、たとえばデスクトップコンピュータ画面またはテレビなど、あらゆるその他のタイプのディスプレイデバイスが用いられてもよい。これら2つのディスプレイは机16の上で互いに間隔を置かれており、2つの画面の間にはペンを上に載せた開いた本20が置かれている。加えて、2つの画面の間にはボタン型キャンディ22の列がある。
図2において、サラマンダーは第3の画面24によって提示されるビューの中に示される。第3の画面は、たとえば別のタブレットコンピュータ、携帯電話またはポータブル媒体もしくはゲーム機などの第3のデバイスの部分である。第3のデバイスは、図1に示されるものと同じ机およびスレートコンピュータを示す。このビューは第3のデバイスの裏側のカメラを用いて提供されてもよいし、異なるデバイスで生成されて第3のデバイスに送られてもよい。このビューは、机16および2つの画面14、18ならびに周囲環境を含む。
サラマンダーがディスプレイに残っている限り、第1のデバイスは、第3の画面24の位置にいる人物が見るものを正確に示してもよい。特定の実施形態によって、このビューはこのデバイス自身のカメラを通じてこのデバイスによって直接生成されてもよいし、ソフトウェアによって描画されてもよい。一実施例において、デバイスの背部のカメラは画面および机の位置を判断し、次いでグラフィックスレンダリングシステムが、AR技術を用いた第3のディスプレイにおける表示のための拡張された画面表示を含む、第1および第2の画面の拡張バージョンを生成する。
図2に示されるとおり、電話24を通じたARによって示されるように、サラマンダー10はタブレット画面14から机16の上に出現する。第3の画面において、サラマンダーはARキャラクターとして描画される。第3の画面において、サラマンダーは、たとえば机およびボタン型キャンディなどの現実の物体の状況において表示される仮想物体となっている。
図3においては、電話のディスプレイを通じてARキャラクターとして示されるサラマンダーが現在机の上を歩いている。サラマンダーはボタン型キャンディの列をたどり、それらを仮想的に食べている。図面の左側では、サラマンダーはまだ図1と同様に苔むした岩の上に立っている。このことは、第3のディスプレイにおけるARレンダリングが、第1のディスプレイ14に実際に示される場面に影響していないことを示す。
図4において、サラマンダー10は現在ノート型コンピュータディスプレイ18の端縁をつついている。画面表面の水のシミュレーションは、ARを通じて見ても通じずに見ても波紋を示す。言い換えると、サラマンダーは第2の画面とインタラクションしており、第2の画面に対するこのインタラクションの効果が第3のAR画面に示される。第2および第3のデバイスの間の通信リンクを通じて、サラマンダーのインタラクションがそのリンクを通じて第3のディスプレイに送られてもよい。次いで、第2のディスプレイは図4に示されるとおりの水の波紋を生成するようにされてもよい。次いでAR画面は、第3のデバイスのカメラが第2の画面上に見たものを正確に示してもよいし、AR技術を用いて波紋を生成して、それがあたかも第2の画面上にあるかのようにARディスプレイ上に提示してもよい。その結果、サラマンダーは電話を通じてしか見られないが、ノート型コンピュータにおける水のシミュレーションの波紋はARなしでも見ることができる。
さらに図4では、図面の左側に見える現実の場面のボタン型キャンディが、机上の元々置かれたところに残っていることが示される。しかしながらAR画面では、キャンディは食べられていてもはや見えない。加えて、第3のAR画面に示されるAR場面においてはサラマンダーが第2の画面に移動しているにもかかわらず、現実の場面ではサラマンダーがなおも第1の画面14に提示されている。第1の画面への通信リンクを提供することによって、第1の画面がARビューと一致する態様でサラマンダーを提示するようにしてもよい。この場合には、サラマンダーはARキャラクターとして提示されて第1の画面を去っているので、第1の画面はサラマンダー10のいない苔むした岩12を提示することになる。
加えて、サラマンダーはARキャラクターとして、キャンディだけでなく本、ノート型コンピュータ、およびノート型コンピュータに表示された水ともインタラクションしたことに留意されたい。加えて、図1から図4を比べると、第3のディスプレイに提示される特定の物品は、第3のディスプレイの位置によって異なる。図3において、ノート型コンピュータのすべておよびボタン型キャンディのすべてはARディスプレイにおいてのみ示される。図4において、ディスプレイは
ARキャラクターの簡単なインタラクションは、さまざまな異なるやり方で向上されてもよい。ARキャラクターとして描画される仮想物体として、ARキャラクターの行動、外観および特徴は、あらゆる特定の適用に適合するように修正されてもよい。サラマンダーが示されているが、あらゆる人物、動物または物体が提示されてもよい。加えて、ARキャラクターは現実物体または他の仮想物体とのインタラクションによって変化してもよい。たとえば、その生物がキャンディに出合うかまたはキャンディを食べるたびに、より高等な生物形態に進化してもよい。ゲームの状況においては、ゲームキャラクターがキャンディを吸収するたびに、より多くの寿命、武器またはキーを得てもよい。
図5は、現実空間と第1のディスプレイに提示される空間との組み合わせにおいて提示されるAR物体の別の実施例を示す。この実施例において、より大きなコンピュータデスクトップディスプレイまたはテレビの形の3次元ディスプレイ28は、部屋を飛び回る複数の宇宙船を含む場面を提示している。たとえばテレビ画面28のフレーム内にある第1の宇宙船30など、宇宙船のいくつかはテレビのディスプレイに提示され得る。テレビの3次元提示能力によっては、画面の面の外側にあるが視聴者またはユーザ32の視点からはまだ画面の近くにある他の宇宙船36もテレビは提示し得るかもしれない。
図示されるとおり、ユーザは、たとえばタブレットまたはスレートコンピュータなどの第2のディスプレイ34を有し、それによってユーザは部屋を飛び回っているように見える追加の宇宙船36、38、40を見ることができる。ユーザが第2のARディスプレイを動かすとき、異なる宇宙船が視界に入り、ユーザがすべての宇宙船を見ることを可能にするが、必ずしも同時にすべてが見えるわけではない。サラマンダーの実施例と同様に、第1の宇宙船30は画面から出現するところである。この実施例において、この物体は3Dテレビのディスプレイに現れ、次いで画面を離れて部屋を飛び回る際にはARの態様でタブレット上で見られてもよい。この物体はテレビ画面に現れてもよく、第1の宇宙船として表現される仮想物体に関して2つのデバイスが互いに通信することを可能にすることによって、出現するところが示されてもよい。
サラマンダーと同様に、宇宙船は単なる例として提供されるものである。たとえば飛行機、鳥、魚、潜水艦、またはあらゆるその他の種類の敵戦闘機など、類似のタイプの物体に対してこの原理が容易に適用されてもよい。訓練の目的のために、同じ原理がフライト(flight)、運転、飛行(flying)、およびその他のタイプの訓練に適用されてもよい。さらに、同じ原理が医学診断情報に適用されてもよいし、教育または学習の目的のために数学的および科学的概念を示すために適用されてもよい。他の実施において、店および友人、ならびにその他多くのタイプの情報を示す現実の街路の場面が提供されてもよい。
上の2つの実施例は、ARキャラクターにさらに多くの特徴を加えることによって向上されてもよい。以下により詳細に説明するとおり、これらの特徴はゲームソフトウェアタイプの構成要素によって生成されてもよい。ARキャラクターは視覚効果に加えて、たとえば足音、エンジン音または声などの音を出すように構成されてもよい。これらの音は、ディスプレイによって提供される空間位置に付加されるべきキャラクターの聴覚的位置を提示するための3次元処理効果によって増強されてもよい。複数のスピーカとともに立体およびサラウンド音響効果を用いることによって、キャラクター音響を、キャラクターがあたかも特定の位置にいるようにしたり、移動しているようにしたりしてもよい。
他の現実および仮想物体とのキャラクターのインタラクションもこのやり方で提示されてもよい。よって、たとえばサラマンダーが現実のボタン型キャンディを仮想的に食べる際に、噛んだり飲み込んだりする音が生成されてもよく、その音があたかもサラマンダーの口の空間位置から出ているように聞こえてもよい。同様に、サラマンダーがノート型ディスプレイ上の水に触って波紋を起こす際に、波打つ水の音が生成されてもよく、その音があたかもノート型コンピュータから出ているように聞こえてもよい。これは、ノート型コンピュータに命令およびデータを送って自身のスピーカから同じ音を出させることによって増強されてもよい。宇宙船の実施例においては、こうした宇宙船が生成し得る音を示唆する多くの異なる独立した音および相互作用的な音が生成されている。
さらに、ARキャラクターは一方の画面から他方の画面に構成要素を運ぶように実現されてもよい。サラマンダーは、苔むした岩から何かを運び、次いでそれを水中に落としてもよい。仮想の人物または乗り物が、広範囲の異なる物品を一方の画面から他方の画面に運んでもよい。これはゲームプレイに用いられてもよいし、2つの機械の間のデータ転送の娯楽的アニメーションとして用いられてもよい。ゲームプレイのシナリオにおいて、1人のユーザがこうしたアニメーションを用いてポイント、寿命、武器またはトークンを受け取ってもよい。
上に提供された2つの実施例は、付加的なユーザインタラクションによってさらに向上されてもよい。ゲームの部分として、プレイヤーは互いのデバイスに向けてARキャラクターを送ってもよい。これは仮想の社会的交流、バトル、構築の形であっても、あらゆるその他の目的のためであってもよい。こうした例において、プレイヤーは人物、動物、乗り物またはその他の物体であってもよいARキャラクターを選択し、次いでそれが他方のプレイヤーのディスプレイに行くように指示してもよい。その物体は他方のプレイヤーに何かを持って行ってもよいし、途中で他の物体とインタラクションしてもよい。
別の例において、ユーザは、タッチスクリーンをスワイプまたはフリックするジェスチャー、コントローラ、またはエアジェスチャーを用いて、ARキャラクターをユーザのデバイスから特定の目標に向けて送るか、またはより一般的な方向に送ってもよい。上述の相互作用的かつ通信的な複数画面ARを用いると、発信ユーザはARキャラクターをユーザ自身のデバイスで見てもよく、他のユーザまたはプレイヤーも彼ら自身のデバイスでARキャラクターを見てもよい。これらのアプローチは、複数のプレイヤーが同じARキャラクターに同時に関与することを可能にするために用いられてもよい。たとえば、宇宙船が主テレビディスプレイ画面を離れた後に、何人かのプレイヤーがその同じ宇宙船を仮想的に撃ってもよい。
図6および図7は、図1から図5の実施例において示されたとおりに複数のディスプレイによってARキャラクターを生成および使用するステップのプロセス流れ図の例である。図6においては、ブロック602において、ユーザは複数のディスプレイを有するシステム内の1つのディスプレイからのAR物体の開始を引き起こす。各ディスプレイはそれ自身の処理リソースに結合されてもよいし、別のディスプレイのリソースとリソースを共有してもよい。このシステムは単一の処理システムによって中央で駆動されてもよいし、いくつかの異なる処理システムの間でタスクが共有されてもよい。
AR物体は上述のとおりのARキャラクターであってもよいし、ARキャラクターとして用いられ得るあらゆる仮想物体であってもよい。コントローラからタッチスクリーンまたは表面、声またはジェスチャー入力システムまで、さまざまな異なるコマンド入力システムのいずれかを用いて、当該キャラクターが開始されてよい。宇宙船の実施例においては、ゲームコントローラが用いられてもよいし、画面ジェスチャーとスレートコンピュータの動きとの組み合わせが用いられてもよい。
ARキャラクターが開始された後、604において、システム処理リソースは、システム内の他のディスプレイに関するARキャラクターの仮想位置を決定し、この位置を追跡する。606において、仮想位置情報が他のディスプレイに送られてもよい。この情報は、影を示したり、たとえば主要な音響効果、有声化、またはエコーなどの聴覚的指示を生成したり、ユーザのAR体験を向上するその他の効果を提供したりするために他のディスプレイによって用いられてもよい。
608において、システムは604における位置の追跡を通じて、AR物体が仮想的にディスプレイに触れたことを判断する。これは図面に示されるディスプレイ2であっても、システム内のあらゆるその他のディスプレイであってもよい。システムは、ディスプレイを含む3次元空間を生成し、次いで現実空間内のARキャラクターの仮想的行動を追跡することによって、これを行い得る。610において、システムは影響を受けたディスプレイにおいてAR物体の効果の現実の表示を開始する。上記のサラマンダーの実施例において、サラマンダーは第1のディスプレイにおいてディスプレイを離れるところが示され、第2のディスプレイにおいて波紋をもたらすところが示されてもよい。これらのインタラクションはそれぞれのディスプレイ上に提示されてもよく、かつインタラクションの聴覚的表現、たとえば足音または波打つ水音なども伴っていてもよい。特定の効果を定めるためにディスプレイの処理リソースが用いられてもよいし、別の計算リソースによって決定が行われてもよい。
図7は、複数のディスプレイを用いてARキャラクターまたはその他の仮想物体を提示するステップの代替的プロセスを示す。702において、システムは、好適なARキャラクターまたは相互作用的ARデバイスとしての目的を果たす、たとえばサラマンダーもしくは宇宙船またはあらゆるその他の仮想物体などの仮想物体を生成する。704において、システムは、少なくとも1つの現実のディスプレイを含む現実空間を生成する。この現実空間は非常に単純であってもよいし、複数の現実物体を有してもよい。現実空間は音源をも含んでもよい。
706において、第2のディスプレイにおいて、生成された仮想物体が現実空間に提示される。上記の実施例において、この第2のディスプレイはそれを通じて現実空間を見ることのできる可動ポータブルディスプレイであるが、代替的にそれは固定されたディスプレイであってもよい。仮想物体は、現実空間内のあらゆる所望の位置に提示されてもよい。上述のとおり、ユーザが仮想物体を現実空間に開始または投入してもよいし、第1のディスプレイまたは別のディスプレイから仮想物体が出現してもよい。代替的に、実施に応じて、現実空間のある部分から仮想物体が出現してもよい。
708において、システムは仮想物体の位置を追跡する。サイズ、外観、動きおよび音に関する仮想物体の行動も追跡されてもよい。これは、仮想物体の運動を生成するシステム内で行われてもよいし、別個の追跡モジュールで行われてもよい。710において、仮想物体が現実空間内で移動および行動する際に、第2のディスプレイにおける仮想物体の提示が更新される。
712において、仮想物体の位置が、たとえば第1のディスプレイなどの他の現実物体の位置と比較される。仮想物体の行動および現実物体の性質に依存して、第2のディスプレイにはさまざまな異なるインタラクションが提示されてもよい。ディスプレイ、この場合には第1のディスプレイによって、仮想物体の位置が第1のディスプレイの位置と少なくとも部分的に一致するとき、それらの相対位置に基づいて、仮想物体の少なくとも一部が第1のディスプレイに提示されてもよい。
これらの動作は、たとえば上記の水の波紋の例のように、仮想物体と第1のディスプレイに表示される物品とのインタラクションを提示することなどによって増強されてもよい。インタラクションの効果は、第1の画面および第2の画面の両方に表示されてもよい。第2の画面における表示物体はさらに仮想物体に変換されて、第1のディスプレイの現実空間を越えてもよい。例として、水の波紋は、第2のディスプレイに示されるARの波として、ディスプレイを越えて外の机の上にまで水の波を送ってもよい。
他の現実ディスプレイに関する仮想物体の位置が追跡されるように、追加のディスプレイが用いられてもよい。仮想物体の位置がディスプレイのいずれかと一致するとき、そのディスプレイとのインタラクションが提示されてもよい。その提示はARディスプレイだけでなく、現実空間のディスプレイにも提供されてもよい。これによってARキャラクターのインタラクションの現実感が向上してもよい。
たとえばサラマンダーの実施例におけるボタン型キャンディ、本、およびディスプレイベゼルなど、ディスプレイ以外の他の現実物体も存在してもよい。これらの現実物体とのインタラクションは、そのインタラクションが別のディスプレイにも影響を与えるほど十分に大きいものでない限り、ARディスプレイに限定されてもよい。たとえば、サラマンダーが第3のディスプレイにおいてボタン型キャンディを水中に投げ込むかまたは蹴り込むものであるとき、この現実物体は投げられるときに別の仮想物体に変換されてもよい。それが水を伴うディスプレイに達するとき、仮想物体は表示物体となり、その軌跡および水に飛び込むところは、ARディスプレイと同様に現実空間の第3のディスプレイに提示されてもよい。
同じやり方で、追加の仮想物体が場面に加えられてもよい。宇宙船の実施例においては、いくつかの宇宙船が存在する。同様に、何匹かのサラマンダーまたはサラマンダーに対するその他の仮想物体が存在して、たとえば他のサラマンダー、食物、餌、または捕食者などとインタラクションしてもよい。これらの物体すべての位置が同時に追跡されることによって、ARディスプレイおよび現実空間のディスプレイにインタラクションが提供されてもよい。
上述の動作に、さまざまな異なるユーザ入力およびインタラクションが加えられてもよい。これらの入力は、1つまたは複数の仮想物体とのインタラクションを表現するために用いられてもよく、仮想物体とユーザ入力との対応するインタラクションは、現実空間のディスプレイと同様にARディスプレイにも提示されてもよい。インタラクションを提示するための現実空間の特定のディスプレイは、そのインタラクションと比較したときの現実空間におけるディスプレイの位置によって決まる。たとえディスプレイが遠く離れていても、インタラクションの効果は現実空間におけるディスプレイの位置と一致してもよい。たとえば、サラマンダーが何かを投げるかまたは蹴るものであれば、その仮想物体は長距離を移動するかもしれない。同様に、爆発する宇宙船は広い範囲に炎または破片をまき散らすかもしれない。特定の実施に基づいて特定のユーザ入力が選択されてもよい。それらはとりわけ、仮想物体におけるエアジェスチャー、仮想物体におけるタッチスクリーンジェスチャー、および音声コマンドを含んでもよい。
現実空間に新たなARキャラクターもしくは異なるARキャラクターを新たに開始するため、または新たな仮想物体を生成するために、このプロセスは戻る。図6および図7の動作は他のプロセスと組み合わされてもよく、他の場合のこうした動作が続いている間、繰り返されてもよい。この動作は複数の処理システムによって行われてもよいし、複数のディスプレイを有する単一のシステムによって行われてもよい。
図8は、上記で考察した動作を支援できる計算環境のブロック図である。これらのモジュールおよびシステムはさまざまな異なるハードウェアアーキテクチャにおいて実現されてもよく、図9に示されるものを含む要素を形成する。
コマンド実行モジュール801は、中央処理ユニットを含むことによって、コマンドをキャッシュおよび実行し、さらに図示される他のモジュールおよびシステム、ならびに通信インタフェースを通じてリモートシステムにタスクを分散させる。コマンド実行モジュール801は、命令スタックと、中間および最終結果を保存するためのキャッシュメモリと、アプリケーションおよびオペレーティングシステムを保存するための大容量メモリとを含んでもよい。加えて、コマンド実行モジュール801は、システムに対する中央協調およびタスク割り当てユニットとして働いてもよい。
画面レンダリングモジュール821は、ユーザが見るためのARディスプレイを含む1つまたは複数の複数画面に物体を描く。画面レンダリングモジュール821は、以下に説明される仮想物体行動モジュール804からデータを受け取り、適切な単数または複数の画面に仮想物体、現実物体、表示物体ならびにあらゆるその他の物体および力を描画するように適合されてもよい。よって、仮想物体行動モジュール804からのデータは、たとえば仮想物体の位置および動力学、ならびに関連する動き、作用および音響などを定め、画面レンダリングモジュール821は、それに従って画面上に仮想物体ならびに関連する物体および環境を描く。
画面レンダリングモジュールはさらに、以下に説明される隣接画面透視モジュール807からデータを受け取り、仮想物体および他の画面の間のオーバーラップを示すように適合されてもよい。よって、たとえば仮想物体が第1の画面から第2の画面に移動されるとき、隣接画面透視モジュール807は画面レンダリングモジュール821にデータを送って、たとえば第2の画面において仮想物体をどのように描画するかを示唆してもよい。
物体およびジェスチャー認識システム822は、ユーザの手および腕のジェスチャーを認識および追跡するように適合されてもよい。こうしたモジュールは、手、指、指のジェスチャー、手の動き、およびディスプレイに対する手の位置を認識するために用いられてもよい。たとえば物体およびジェスチャー認識モジュールは、たとえばユーザが仮想物体を複数画面の一方または他方に落とすかもしくは投げるための身体部分ジェスチャーをしたこと、またはユーザが仮想物体を1つの位置から別の位置に移動させるための身体部分ジェスチャーをしたことなどを判断してもよい。物体およびジェスチャー認識システムは、ユーザからのジェスチャーおよびコマンドを検出するために、カメラもしくはカメラアレイ、マイクロホンもしくはマイクロホンアレイ、タッチスクリーンもしくはタッチ表面、またはポインティングデバイス、またはこれらの物品の何らかの組み合わせに結合されてもよい。
物体およびジェスチャー認識システムのタッチスクリーンまたはタッチ表面は、タッチスクリーンセンサを含んでもよい。そのセンサからのデータがハードウェア、ソフトウェア、ファームウェアまたはその組み合わせに供給されることによって、画面または表面におけるユーザの手のタッチジェスチャーを仮想物体の対応する動的行動にマップしてもよい。たとえば画面に対するユーザの指のスワイプ速度など、ユーザの手からの入力に基づいて仮想物体がさまざまな運動量の行動をすることを可能にするために、運動量および慣性係数を定めるためにセンサデータが用いられてもよい。タッチ表面の利益なしに、1つまたは複数のカメラを用いる物体およびジェスチャー認識システムによって類似のコマンドが生成されてもよい。
データ転送および協調モジュール823は、システム内のさまざまな計算および表示リソースとともに働いて、仮想物体および効果に関する情報を他のデバイスに送ることによって、それらが他のディスプレイに提示され得るようにする。このモジュールは音声情報も送ることによって、スピーカから聴覚的効果が提示され得るようにししてもよい。データ転送および協調モジュール823は、他のデバイスが表示の決定に用いるためのパラメータを送ってもよいし、すぐに表示できる完全に描画されたグラフィカル効果を送ってもよいし、計算タスクがどのように分散されるかに依存して何らかの他の形のデータを送ってもよい。
データ通信モジュール825は、システム内のすべてのデバイスが通信することを可能にする有線または無線のデータインタフェースを含む。各デバイスとともに複数のインタフェースが存在してもよい。一実施例において、ARディスプレイは、ARキャラクターに関する詳細なパラメータを送るためにWiFiを通じて通信する。ARディスプレイはさらに、ユーザコマンドを送るため、およびARディスプレイデバイスを通じて再生するための音声を受け取るためにBluetooth(登録商標)を通じて通信する。あらゆる好適な有線または無線デバイス通信プロトコルが用いられてもよい。
仮想物体行動モジュール804は、物体速度および方向モジュール803からの入力を受け取り、ディスプレイのあらゆる1つまたは複数に示される仮想物体にこうした入力を適用するように適合される。よってたとえば、物体およびジェスチャー認識システムがユーザのジェスチャーを解釈し、ユーザの手の捕捉された動きを認識される動きにマップすることによって、仮想物体追跡モジュールが仮想物体の位置および動きを物体およびジェスチャー認識システムによって認識された動きに関連付け、物体速度および方向モジュール803は仮想物体の動きの動力学を捕捉し、仮想物体行動モジュールは物体速度および方向モジュール803からの入力を受け取ることによって、物体速度および方向モジュール803からの入力に対応する仮想物体の動きを指示するデータを生成する。
他方で、仮想物体追跡モジュール806は、ディスプレイに近接する3次元空間において仮想物体が位置すべきところを追跡するように適合されてもよい。たとえば仮想物体追跡モジュール806は、仮想物体が画面を横切ったり画面の間を移動したりする際に仮想物体を追跡し、かつその仮想物体の近くにあるあらゆる現実物体または付加的な仮想物体の位置を追跡してもよい。これは、仮想物体の位置が1つまたは複数の画面と一致するかどうかに関する最終的認識を提供するために用いられてもよい。
ARおよび他の物体追跡モジュール808は、さまざまな画面上または画面間にあるときのキャラクターの行動を協調させる。たとえば、ARキャラクターが1つの画面から去ったとき、その画面はそのセッションが終わるか、またはARキャラクターの仮想位置がその画面に戻るまではそのキャラクターを示さなくてもよい。これを達成するために、仮想物体行動モジュール804によってARキャラクターが生成されるとき、生成するデバイスは仮想物体追跡モジュールからのデータを用いて、他の画面に対する視野におけるそのキャラクターの位置を理解する。これを行うために、隣接画面透視モジュールによって画像データが分析されることによって、デバイス間の距離が推定されてもよい。ARキャラクターの位置を中心とするARキャラクターの寸法を用いて、ARキャラクターが画面に仮想的に触れているかどうかを推定してもよい。代替的には、仮想物体追跡モジュールからのデータを隣接画面透視モジュールによって用いることによって、ARキャラクターの特定の位置を定めてもよい。
デバイス近接検出モジュール825を含むか、またはそれに結合されてもよい隣接画面透視モジュール807は、1つのディスプレイの別のディスプレイに対する角度および位置を定めるように適合されてもよい。これは、自身のカメラまたはその他のセンサを用いてARディスプレイの位置および動きを定めたり、他のディスプレイの互いに対する位置を観察したりするために用いられてもよい。デバイスが保持されている角度を定めるために加速度計、磁力計、コンパス、またはカメラが用いられてもよく、一方で赤外線エミッタおよびカメラは隣接デバイスのセンサに関する画面デバイスの向きを定めることを可能にしてもよい。このやり方で、隣接画面透視モジュール807はそれ自身の画面座標に対する隣接画面の座標を定めてもよい。よって、隣接画面透視モジュールはどのデバイスが互いに近接しているかを定めたり、1つまたは複数の仮想物体を画面を横切って移動させたり画面間で移動させたりするためのさらなる潜在的目標を定めたりしてもよい。隣接画面透視モジュールはさらに、すべての現存する物体および仮想物体を表す3次元空間のモデルに画面の位置を相関させることを可能にしてもよい。
物体速度および方向モジュール803は、仮想物体追跡モジュール806からの入力を受け取ることによって、移動される仮想物体のたとえば軌跡、速度(線速度または角速度)、運動量(線運動量または角運動量)などの動力学を推定するように適合されてもよい。物体速度および方向モジュール803はさらに、たとえば加速、偏向、仮想結合の伸長の程度などを推定することなどによって、あらゆる物理的な力の動力学を推定したり、仮想物体が他の物体とインタラクションするときの仮想物体の動的行動を推定したりするように適合されてもよい。物体速度および方向モジュール803はさらに、画像の動き、サイズおよび角度変化を用いて仮想物体の速度を推定してもよい。
運動量および慣性モジュール802は、画像の動き、画像サイズ、像平面または3次元空間における物体の角度変化を用いて、空間またはディスプレイにおける物体の速度および方向を推定できる。
3D画像インタラクションおよび効果モジュール805は、仮想物体および現実物体を含む3次元空間を生成し、仮想物体の表示画像とのインタラクションを追跡する。次いで、3D画像インタラクションおよび効果モジュール805は、3次元の現実空間内の物体が1つまたは複数の画面の位置にマップされることを可能にする。(画面の面に向かう、およびそこから遠ざかる)z軸における物体の影響は、これらの物体の互いに対する相対的影響とともに算出できる。たとえば、ユーザのジェスチャーによって投げられる物体は、その仮想物体が画面の面に到着する前に前景の3D物体によって影響され得る。これらの物体は、投射物の方向もしくは速度を変えるか、またはそれを完全に破壊するかもしれない。物体は、3D画像インタラクションおよび効果モジュールによって、ディスプレイの1つまたは複数において前景に描画されてもよい。
図9は、たとえばパーソナルコンピュータ、タブレットもしくはスレートコンピュータ、ゲームコンソール、スマートフォン、またはポータブルゲーム機などのコンピュータシステムのブロック図である。コンピュータシステム900は、情報を通信するためのバスまたはその他の通信手段901、および情報を処理するための、バス901に結合されたたとえばマイクロプロセッサ902などの処理手段を含む。コンピュータシステムは、並列パイプラインを通じて特定的にグラフィックスを描画するためのグラフィックスプロセッサ903と、上述のとおりの物理インタラクションを算出するための物理プロセッサ905とによって増強されてもよい。これらのプロセッサは中央プロセッサ902に組み込まれてもよいし、1つまたは複数の別個のプロセッサとして提供されてもよい。
コンピュータシステム900はさらに、プロセッサ902によって実行されるべき命令および情報を保存するための、バス901に結合された、たとえばランダムアクセスメモリ(random access memory:RAM)またはその他の動的データ記憶装置などのメインメモリ904を含む。メインメモリはさらに、プロセッサによる命令の実行中に一時変数またはその他の中間情報を保存するために用いられてもよい。コンピュータシステムはさらに、静的情報およびプロセッサに対する命令を保存するための、バスに結合された、たとえばリードオンリメモリ(read only memory:ROM)またはその他の静的データ記憶装置などの不揮発性メモリ906を含んでもよい。
加えて、情報および命令を保存するために、たとえば磁気ディスク、光ディスク、または固体アレイおよびその対応するドライブなどの大容量メモリ907が、コンピュータシステムのバスに結合されてもよい。コンピュータシステムはさらに、ユーザに情報を表示するために、たとえば液晶ディスプレイ(Liquid Crystal Display:LCD)または有機発光ダイオード(Organic Light Emitting Diode:OLED)アレイなどのディスプレイデバイスまたはモニタ921にバスを介して結合されてもよい。たとえば、上記で考察したさまざまなビューおよびユーザインタラクションに加えて、インストール状態、動作状態およびその他の情報のグラフィックスおよびテキスト表示がディスプレイデバイス上でユーザに提示されてもよい。
典型的に、プロセッサに情報およびコマンド選択を通信するために、たとえば英数字キー、ファンクションキーおよびその他のキーを有するキーボードなどのユーザ入力デバイスがバスに結合されてもよい。付加的なユーザ入力デバイスは、たとえばマウス、トラックボール、トラックパッド、またはカーソル方向キーなどのカーソル制御入力デバイスを含んでもよく、それらはプロセッサに方向情報およびコマンド選択を通信したり、ディスプレイ921におけるカーソルの動きを制御したりするためにバスに結合されてもよい。
カメラおよびマイクロホンアレイ923は、上述のとおり、ジェスチャーを観察し、音声およびビデオを記録し、かつ視覚および音声コマンドを受け取るためにバスに結合される。
加えて、通信インタフェース925がバス901に結合される。通信インタフェースは、モデム、ネットワークインタフェースカード、またはその他の周知のインタフェースデバイス、たとえばイーサネット(登録商標)への結合のために用いられるものなど、トークンリング、または、たとえばローカルもしくは広域ネットワーク(local or wide area network)(LANまたはWAN)などを支援するための通信リンクを提供する目的のためのその他のタイプの物理的有線もしくは無線アタッチメントなどを含んでもよい。この態様で、コンピュータシステムはさらに、たとえばイントラネットまたはインターネットなどを含む従来のネットワークインフラストラクチャを介して、いくつかの周辺デバイス、他のクライアント、または制御表面もしくはコンソール、またはサーバに結合されてもよい。
特定の実施に対しては、上述の例よりも装備が少ないかまたは多いシステムが好ましいかもしれない。したがって、たとえば価格の制約、性能要求、技術的改善またはその他の状況など、多数の要素に依存して、例示的システム800および900の構成は実施ごとに変動するだろう。
実施形態は、以下のいずれかまたはその組み合わせとして実施されてもよい。すなわち、親基板(parentboard)を用いて相互接続された1つまたは複数のマイクロチップまたは集積回路、ハードワイヤード論理、メモリデバイスに保存されてマイクロプロセッサによって実行されるソフトウェア、ファームウェア、特定用途向け集積回路(application specific integrated circuit:ASIC)、および/またはフィールドプログラマブルゲートアレイ(field programmable gate array:FPGA)である。「論理(logic)」という用語は、例として、ソフトウェアまたはハードウェア、および/またはソフトウェアとハードウェアとの組み合わせを含んでもよい。
たとえば実施形態は、たとえばコンピュータ、コンピュータのネットワーク、またはその他の電子デバイスなどの1つまたは複数の機械によって実行されるときに、その1つまたは複数の機械に本発明の実施形態に従う動作を行わせる機械実行可能命令を保存する1つまたは複数の機械読取り可能媒体を含んでもよいコンピュータプログラム製品などとして提供されてもよい。機械読取り可能媒体は、フロッピー(登録商標)ディスケット、光ディスク、CD−ROM(コンパクトディスク・リードオンリメモリ(Compact Disc−Read Only Memories))、および光磁気ディスク、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)、EPROM(消去可能プログラマブルリードオンリメモリ(Erasable Programmable Read Only Memories))、EEPROM(電気的消去可能プログラマブルリードオンリメモリ(Electrically Erasable Programmable Read Only Memories))、磁気または光カード、フラッシュメモリ、または機械実行可能命令を保存するために好適なその他のタイプの媒体/機械読取り可能媒体を含んでもよいが、それに限定されない。
さらに、実施形態はコンピュータプログラム製品としてダウンロードされてもよく、ここでそのプログラムは、通信リンク(例、モデムおよび/またはネットワーク接続)を介して、搬送波またはその他の伝播媒体において具現化されるか、および/またはそれによって変調された1つまたは複数のデータ信号によって、リモートコンピュータ(例、サーバ)から要求コンピュータ(例、クライアント)に転送されてもよい。したがって、本明細書において用いられる機械読取り可能媒体はこうした搬送波を含んでもよいが、それが要求されるわけではない。
「一実施形態」、「実施形態」、「実施形態の例」、「さまざまな実施形態」などに対する参照は、そのように記載される本発明の実施形態が特定の特徴、構造または特性を含んでもよいことを示すが、すべての実施形態が必ずしもその特定の特徴、構造または特性を含むわけではない。さらに、いくつかの実施形態は、他の実施形態に対して記載される特徴のいくつかまたはすべてを有してもよいし、有さなくてもよい。
以下の記載および請求項において、「結合される(coupled)」という用語およびその派生語が用いられることがある。「結合される」は2つまたは複数の構成要素が互いに協働または相互作用することを示すために用いられるが、それらの構成要素の間に介在する物理的または電気的構成要素はあってもなくてもよい。
請求項において用いられるとき、別様に指定されない限り、一般的な構成要素を説明するために順序を示す形容詞「第1の」、「第2の」、「第3の」などを用いることは、単に類似の構成要素の異なる事例に言及していることを示すものであって、そのように記載される構成要素が、時間、空間、順位、またはあらゆるその他の態様において所与の順序である必要があることを意味することは意図されない。
図面および前述の記載は実施形態の例を与えるものである。記載される構成要素の1つまたは複数が組み合わされて単一の機能的構成要素にされてもよいことを当業者は認識するだろう。代替的に、特定の構成要素が分割されて複数の機能的構成要素にされてもよい。1つの実施形態の構成要素が別の実施形態に加えられてもよい。たとえば、本明細書に記載されるプロセスの順序は変更されてもよく、本明細書に記載される態様に限定されない。さらに、あらゆる流れ図の動作は図示される順序に実施される必要はないし、必ずしもすべての動作が実行される必要はない。加えて、他の動作に依存しない動作は、他の動作と並行して行われてもよい。実施形態の範囲は、決してこれらの特定の実施例によって限定されない。明細書に明確に示されていてもいなくても、たとえば構造、寸法および材料の使用の相違など、多数の変更形が可能である。実施形態の範囲は、少なくとも以下の請求項によって与えられるものと同じ広さである。
図面および前述の記載は実施形態の例を与えるものである。記載される構成要素の1つまたは複数が組み合わされて単一の機能的構成要素にされてもよいことを当業者は認識するだろう。代替的に、特定の構成要素が分割されて複数の機能的構成要素にされてもよい。1つの実施形態の構成要素が別の実施形態に加えられてもよい。たとえば、本明細書に記載されるプロセスの順序は変更されてもよく、本明細書に記載される態様に限定されない。さらに、あらゆる流れ図の動作は図示される順序に実施される必要はないし、必ずしもすべての動作が実行される必要はない。加えて、他の動作に依存しない動作は、他の動作と並行して行われてもよい。実施形態の範囲は、決してこれらの特定の実施例によって限定されない。明細書に明確に示されていてもいなくても、たとえば構造、寸法および材料の使用の相違など、多数の変更形が可能である。実施形態の範囲は、少なくとも以下の請求項によって与えられるものと同じ広さである。本願によれば、以下の構成もまた開示される。
(項目1)
仮想物体を生成するステップと、
第1のディスプレイを含む現実空間を生成するステップと、
第2のディスプレイにおいて、前記第1のディスプレイを含む前記現実空間内に前記仮想物体を提示するステップと、
前記仮想物体が前記現実空間を通って移動する際に、前記現実空間における前記仮想物体の位置を追跡するステップと、
前記追跡された位置を用いて、前記第2のディスプレイにおける前記仮想物体の前記提示を更新するステップと、
前記仮想物体の前記追跡された位置が前記現実空間における前記第1のディスプレイの位置と一致する場合に、前記第1のディスプレイに前記仮想物体を提示するステップと
を含む、方法。
(項目2)
前記現実空間内にさらなる仮想物体を生成するステップと、
前記追跡された位置が前記さらなる仮想物体に近接する場合に、前記第2のディスプレイにおいて前記仮想物体と前記さらなる仮想物体とのインタラクションを提示するステップと
をさらに含む、項目1に記載の方法。
(項目3)
前記第2のディスプレイに前記仮想物体を提示するステップは、前記第2のディスプレイに前記仮想物体に関するデータを転送するステップと、前記第2のディスプレイが前記仮想物体に関する前記データを前記現実空間に関する捕捉データと組み合わせるステップとを含む、請求項1に記載の方法。
(項目4)
前記第2のディスプレイにおいて前記現実空間内に前記仮想物体を提示するステップは、前記追跡された位置が前記第1のディスプレイの前記位置と一致する場合に、前記第1のディスプレイに前記仮想物体を提示するステップを含む、項目1に記載の方法。
(項目5)
前記現実空間における前記仮想物体の音声表現を提示するステップと、前記追跡された位置を用いて前記音声表現を修正するステップとをさらに含む、項目1に記載の方法。

Claims (20)

  1. 仮想物体を生成するステップと、
    第1のディスプレイを含む現実空間を生成するステップと、
    第2のディスプレイにおいて、前記第1のディスプレイを含む前記現実空間内に前記仮想物体を提示するステップと、
    前記仮想物体が前記現実空間を通って移動する際に、前記現実空間における前記仮想物体の位置を追跡するステップと、
    前記追跡された位置を用いて、前記第2のディスプレイにおける前記仮想物体の前記提示を更新するステップと、
    前記仮想物体の前記追跡された位置が前記現実空間における前記第1のディスプレイの位置と一致する場合に、前記第1のディスプレイに前記仮想物体を提示するステップと
    を含む、方法。
  2. 前記第1のディスプレイに表示物体を提示するステップと、
    前記追跡された位置が前記第1のディスプレイに近接する場合に、前記第2のディスプレイにおいて前記表示物体と前記仮想物体とのインタラクションを提示するステップと、
    前記第1のディスプレイにおいて前記表示物体に対する前記インタラクションの効果を提示するステップと
    をさらに含む、請求項1に記載の方法。
  3. 前記表示物体をさらなる仮想物体に変換して、前記さらなる仮想物体を前記第1のディスプレイではなく前記第2のディスプレイに提示するステップをさらに含む、請求項2に記載の方法。
  4. 前記現実空間内にさらなる仮想物体を生成するステップと、
    前記追跡された位置が前記さらなる仮想物体に近接する場合に、前記第2のディスプレイにおいて前記仮想物体と前記さらなる仮想物体とのインタラクションを提示するステップと
    をさらに含む、請求項1に記載の方法。
  5. 前記インタラクションは、前記仮想物体に対する効果と、前記さらなる仮想物体に対する効果とを含む、請求項1に記載の方法。
  6. 前記現実空間は現実物体を含み、前記方法はさらに、前記追跡された位置が前記現実空間における前記現実物体に近接する場合に、前記第2のディスプレイにおいて前記仮想物体と前記現実物体とのインタラクションを提示するステップを含む、請求項1に記載の方法。
  7. 前記第2のディスプレイに前記仮想物体を提示するステップは、前記第2のディスプレイに前記仮想物体に関するデータを転送するステップと、前記第2のディスプレイが前記仮想物体に関する前記データを前記現実空間に関する捕捉データと組み合わせるステップとを含む、請求項1に記載の方法。
  8. 前記第2のディスプレイにおいて前記現実空間内に前記仮想物体を提示するステップは、前記追跡された位置が前記第1のディスプレイの前記位置と一致する場合に、前記第1のディスプレイに前記仮想物体を提示するステップを含む、請求項1に記載の方法。
  9. 前記現実空間における前記仮想物体の音声表現を提示するステップと、前記追跡された位置を用いて前記音声表現を修正するステップとをさらに含む、請求項1に記載の方法。
  10. 前記仮想物体とのインタラクションを表すユーザ入力を受け取るステップと、前記第2のディスプレイにおいて前記仮想物体と前記ユーザ入力との前記インタラクションを提示するステップとをさらに含む、請求項1に記載の方法。
  11. ユーザ入力を受け取るステップは、前記仮想物体におけるエアジェスチャー、前記仮想物体におけるタッチスクリーンジェスチャー、および音声コマンドのうちの少なくとも1つを受け取るステップを含む、請求項10に記載の方法。
  12. 前記現実空間は3次元空間であり、前記第1のディスプレイは3次元ディスプレイであり、前記第1のディスプレイに前記仮想物体を提示するステップは、前記仮想物体を3次元提示として提示するステップを含む、請求項1に記載の方法。
  13. 仮想物体および第1のディスプレイを有する3次元現実空間を生成するための物体速度および方向モジュールと、
    前記仮想物体および前記第1のディスプレイを含む表示範囲を第2のディスプレイに提示するための画面レンダリングモジュールと、
    前記仮想物体が前記現実空間を通って移動する際に前記現実空間における前記仮想物体の位置を追跡し、かつ前記追跡された位置を用いて前記第2のディスプレイにおける前記仮想物体の前記提示を更新するための仮想物体追跡モジュールと、
    前記仮想物体の前記追跡された位置が前記現実空間における前記第1のディスプレイの位置と一致する場合に、前記第1のディスプレイに前記仮想物体を提示するためのデータ転送協調モジュールと
    を含む、装置。
  14. 前記物体速度および方向モジュールは、前記第1のディスプレイに対する表示物体を生成し、前記データ転送協調モジュールは、前記第1のディスプレイに前記表示物体を提示し、前記装置はさらに、
    前記仮想物体の前記追跡された位置が前記第1のディスプレイに近接する場合に、前記表示物体と前記仮想物体とのインタラクションを定めるための画像インタラクションおよび効果モジュールを含み、
    前記画面レンダリングモジュールは、前記定められたインタラクションを前記第2のディスプレイに提示する、請求項13に記載の装置。
  15. 前記物体速度および方向モジュールは、前記現実空間内にさらなる仮想物体を生成し、
    前記画像インタラクションおよび効果モジュールは、前記追跡された位置が前記さらなる仮想物体に近接する場合に、前記仮想物体と前記さらなる仮想物体との仮想物体インタラクションを定め、
    前記画面レンダリングモジュールは、前記定められた仮想物体インタラクションを前記第2のディスプレイに提示する、請求項13に記載の装置。
  16. 前記現実空間は現実物体を含み、前記装置はさらに、前記追跡された位置が前記現実空間における前記現実物体に近接する場合に、前記仮想物体と前記現実物体との現実物体インタラクションを定めるためのAR(拡張現実)および他の物体追跡モジュールを含み、前記画面レンダリングモジュールは、前記定められた現実物体インタラクションを前記第2のディスプレイに提示する、請求項13に記載の装置。
  17. 前記第2のディスプレイに対する前記第1のディスプレイの角度および位置を定め、かつ前記第1および第2のディスプレイにおける前記提示を修正するために前記定められた角度および位置を前記画面レンダリングモジュールに提供するための、前記画面レンダリングモジュールに結合された隣接画面透視モジュールをさらに含む、請求項13に記載の装置。
  18. 命令を有する機械読取り可能非一時的媒体であって、前記命令は前記機械によって読取られるときに、
    仮想物体を生成するステップと、
    第1のディスプレイを含む現実空間を生成するステップと、
    第2のディスプレイにおいて、前記第1のディスプレイを含む前記現実空間内に前記仮想物体を提示するステップと、
    前記仮想物体が前記現実空間を通って移動する際に、前記現実空間における前記仮想物体の位置を追跡するステップと、
    前記追跡された位置を用いて、前記第2のディスプレイにおける前記仮想物体の前記提示を更新するステップと、
    前記仮想物体の前記追跡された位置が前記現実空間における前記第1のディスプレイの位置と一致する場合に、前記第1のディスプレイに前記仮想物体を提示するステップと
    を含む動作を前記機械に行わせる、媒体。
  19. 前記動作はさらに、
    前記第1のディスプレイに表示物体を提示するステップと、
    前記追跡された位置が前記第1のディスプレイに近接する場合に、前記第2のディスプレイにおいて前記表示物体と前記仮想物体とのインタラクションを提示するステップと、
    前記第1のディスプレイにおいて前記表示物体に対する前記インタラクションの効果を提示するステップと
    を含む、請求項18に記載の媒体。
  20. 前記現実空間は第3のディスプレイを含み、前記動作はさらに、
    前記第3のディスプレイに関する前記仮想物体の前記位置を追跡するステップと、
    前記仮想物体の前記追跡された位置が前記現実空間における前記第3のディスプレイの位置と一致する場合に、前記第3のディスプレイに前記仮想物体を提示するステップと
    を含む、請求項18に記載の媒体。
JP2014547168A 2011-12-20 2011-12-20 複数のデバイスにまたがる拡張現実表現 Expired - Fee Related JP5832666B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/066218 WO2013095393A1 (en) 2011-12-20 2011-12-20 Augmented reality representations across multiple devices

Publications (2)

Publication Number Publication Date
JP2015506032A true JP2015506032A (ja) 2015-02-26
JP5832666B2 JP5832666B2 (ja) 2015-12-16

Family

ID=48669052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014547168A Expired - Fee Related JP5832666B2 (ja) 2011-12-20 2011-12-20 複数のデバイスにまたがる拡張現実表現

Country Status (6)

Country Link
US (1) US9952820B2 (ja)
EP (1) EP2795893A4 (ja)
JP (1) JP5832666B2 (ja)
KR (1) KR101574099B1 (ja)
CN (1) CN103959344B (ja)
WO (1) WO2013095393A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015531114A (ja) * 2012-07-26 2015-10-29 クアルコム,インコーポレイテッド 拡張の継続性の維持
JP2017138907A (ja) * 2016-02-05 2017-08-10 凸版印刷株式会社 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
JP2022525412A (ja) * 2019-03-15 2022-05-13 株式会社ソニー・インタラクティブエンタテインメント 仮想キャラクタの現実間のクロスオーバ

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6121647B2 (ja) * 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8982133B2 (en) * 2012-01-31 2015-03-17 Disney Enterprises, Inc. Portable virtual characters
WO2013119221A1 (en) * 2012-02-08 2013-08-15 Intel Corporation Augmented reality creation using a real scene
KR20240045365A (ko) 2012-05-11 2024-04-05 가부시키가이샤 한도오따이 에네루기 켄큐쇼 전자 기기, 기억 매체, 프로그램, 및 표시 방법
US9767720B2 (en) * 2012-06-25 2017-09-19 Microsoft Technology Licensing, Llc Object-centric mixed reality space
US9292085B2 (en) * 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
US8773591B1 (en) 2012-08-13 2014-07-08 Nongqiang Fan Method and apparatus for interacting with television screen
US9729695B2 (en) 2012-11-20 2017-08-08 Dropbox Inc. Messaging client application interface
US9935907B2 (en) 2012-11-20 2018-04-03 Dropbox, Inc. System and method for serving a message client
US9755995B2 (en) 2012-11-20 2017-09-05 Dropbox, Inc. System and method for applying gesture input to digital content
US10275825B2 (en) * 2012-12-04 2019-04-30 Paypal, Inc. Augmented reality in-store product detection system
WO2014091824A1 (ja) * 2012-12-10 2014-06-19 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
CN104007889B (zh) * 2013-02-27 2018-03-27 联想(北京)有限公司 一种反馈方法和电子设备
US10319145B2 (en) 2013-03-14 2019-06-11 Intel Corporation Asynchronous representation of alternate reality characters
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
CN105210116A (zh) * 2013-05-24 2015-12-30 汤姆逊许可公司 用于对于多个3d显示器呈现对象的方法和装置
EP3067781B1 (en) 2013-11-05 2023-03-08 Sony Group Corporation Information processing device, method of processing information, and program
US9011246B1 (en) 2013-11-18 2015-04-21 Scott Kier Systems and methods for immersive backgrounds
US9747307B2 (en) 2013-11-18 2017-08-29 Scott Kier Systems and methods for immersive backgrounds
US9613448B1 (en) 2014-03-14 2017-04-04 Google Inc. Augmented display of information in a device view of a display screen
US10373259B1 (en) 2014-05-20 2019-08-06 State Farm Mutual Automobile Insurance Company Fully autonomous vehicle insurance pricing
US11669090B2 (en) 2014-05-20 2023-06-06 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US9972054B1 (en) 2014-05-20 2018-05-15 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US10185998B1 (en) 2014-05-20 2019-01-22 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US10599155B1 (en) 2014-05-20 2020-03-24 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
WO2015183232A1 (en) * 2014-05-26 2015-12-03 Nongqiang Fan Method and apparatus for interacting with display screen
CN104168315B (zh) * 2014-08-08 2018-07-06 三星电子(中国)研发中心 一种全视角平滑的沉浸式显示方法和系统
CN105426376B (zh) * 2014-09-22 2019-04-23 联想(北京)有限公司 一种信息处理方法和电子设备
US20160163063A1 (en) * 2014-12-04 2016-06-09 Matthew Ashman Mixed-reality visualization and method
US9696549B2 (en) 2014-12-22 2017-07-04 International Business Machines Corporation Selectively pairing an application presented in virtual space with a physical display
US9836895B1 (en) 2015-06-19 2017-12-05 Waymo Llc Simulating virtual objects
US10025447B1 (en) * 2015-06-19 2018-07-17 Amazon Technologies, Inc. Multi-device user interface
US10388277B1 (en) 2015-06-25 2019-08-20 Amazon Technologies, Inc. Allocation of local and remote resources for speech processing
US10799792B2 (en) * 2015-07-23 2020-10-13 At&T Intellectual Property I, L.P. Coordinating multiple virtual environments
EP3342189B1 (en) * 2015-08-24 2020-10-14 PCMS Holdings, Inc. Systems and methods for enhancing augmented reality experience with dynamic output mapping
US11107365B1 (en) 2015-08-28 2021-08-31 State Farm Mutual Automobile Insurance Company Vehicular driver evaluation
US20170228929A1 (en) * 2015-09-01 2017-08-10 Patrick Dengler System and Method by which combining computer hardware device sensor readings and a camera, provides the best, unencumbered Augmented Reality experience that enables real world objects to be transferred into any digital space, with context, and with contextual relationships.
JP6879479B2 (ja) * 2015-09-02 2021-06-02 インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ 拡張されたシーンでナビゲーションを容易にする方法、装置及びシステム
EP3360029B1 (en) 2015-10-08 2019-11-13 PCMS Holdings, Inc. Methods and systems of automatic calibration for dynamic display configurations
US10168768B1 (en) 2016-03-02 2019-01-01 Meta Company Systems and methods to facilitate interactions in an interactive space
GB2551473A (en) * 2016-04-29 2017-12-27 String Labs Ltd Augmented media
EP3452991A4 (en) * 2016-05-02 2020-01-08 Warner Bros. Entertainment Inc. GEOMETRY ADJUSTMENT IN VIRTUAL REALITY AND EXTENDED REALITY
US10186088B2 (en) * 2016-05-13 2019-01-22 Meta Company System and method for managing interactive virtual frames for virtual objects in a virtual environment
US9990779B2 (en) 2016-05-13 2018-06-05 Meta Company System and method for modifying virtual objects in a virtual environment in response to user interactions
CN106200944A (zh) * 2016-06-30 2016-12-07 联想(北京)有限公司 一种对象的控制方法、控制装置和控制系统
US10482662B2 (en) 2016-06-30 2019-11-19 Intel Corporation Systems and methods for mixed reality transitions
US10002454B2 (en) 2016-09-16 2018-06-19 International Business Machines Corporation Reactive overlays of multiple representations using augmented reality
US10297085B2 (en) 2016-09-28 2019-05-21 Intel Corporation Augmented reality creations with interactive behavior and modality assignments
US10751605B2 (en) 2016-09-29 2020-08-25 Intel Corporation Toys that respond to projections
JP6598753B2 (ja) * 2016-10-07 2019-10-30 任天堂株式会社 ゲームシステム
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
US11861136B1 (en) * 2017-09-29 2024-01-02 Apple Inc. Systems, methods, and graphical user interfaces for interacting with virtual reality environments
CN107728984A (zh) * 2017-10-25 2018-02-23 上海皮格猫信息科技有限公司 一种虚拟现实画面显示控制系统
US11257250B2 (en) 2017-10-31 2022-02-22 Outward, Inc. Blended physical and virtual realities
US10937240B2 (en) * 2018-01-04 2021-03-02 Intel Corporation Augmented reality bindings of physical objects and virtual objects
WO2019141879A1 (en) * 2018-01-22 2019-07-25 The Goosebumps Factory Bvba Calibration to be used in an augmented reality method and system
US11014242B2 (en) 2018-01-26 2021-05-25 Microsoft Technology Licensing, Llc Puppeteering in augmented reality
US10825223B2 (en) 2018-05-31 2020-11-03 Microsoft Technology Licensing, Llc Mixed reality animation
US10832481B2 (en) * 2018-08-21 2020-11-10 Disney Enterprises, Inc. Multi-screen interactions in virtual and augmented reality
US10699489B2 (en) 2018-10-02 2020-06-30 International Business Machines Corporation Method and system for displaying a virtual item in an augmented reality environment
KR102581146B1 (ko) * 2018-11-23 2023-09-21 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11010974B2 (en) * 2019-01-04 2021-05-18 Vungle, Inc. Augmented reality in-application advertisements
US11182953B2 (en) * 2019-01-08 2021-11-23 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Mobile device integration with a virtual reality environment
US10909751B2 (en) 2019-01-31 2021-02-02 Intel Corporation Methods and apparatus to transition between 2D and 3D renderings of augmented reality content
US11468611B1 (en) 2019-05-16 2022-10-11 Apple Inc. Method and device for supplementing a virtual environment
CN115509363A (zh) * 2019-11-05 2022-12-23 Oppo广东移动通信有限公司 多增强现实设备的协作方法及装置、电子设备、存储介质
JP7038153B2 (ja) 2020-02-13 2022-03-17 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
US11557182B2 (en) * 2020-10-13 2023-01-17 Trax Technology Solutions Pte Ltd. Regaining frictionless status of shoppers
US11615592B2 (en) 2020-10-27 2023-03-28 Snap Inc. Side-by-side character animation from realtime 3D body motion capture
US11734894B2 (en) 2020-11-18 2023-08-22 Snap Inc. Real-time motion transfer for prosthetic limbs
US11574423B2 (en) * 2021-01-29 2023-02-07 Boomanity Corp. A Delaware Corporation Augmented reality (AR) object communication and interaction system and method
DE102021206565A1 (de) * 2021-06-24 2022-12-29 Siemens Healthcare Gmbh Darstellungsvorrichtung zur Anzeige einer graphischen Darstellung einer erweiterten Realität
US11943227B2 (en) 2021-09-17 2024-03-26 Bank Of America Corporation Data access control for augmented reality devices
US11880947B2 (en) 2021-12-21 2024-01-23 Snap Inc. Real-time upper-body garment exchange
WO2023136380A1 (ko) * 2022-01-17 2023-07-20 고태규 오브젝트를 활용하여 메타버스를 구현하는 시스템 및 시스템의 동작 방법
KR20230111582A (ko) * 2022-01-17 2023-07-25 고태규 오브젝트를 활용하여 메타버스를 구현하는 시스템 및 시스템의 동작방법
WO2024101950A1 (ko) * 2022-11-11 2024-05-16 삼성전자 주식회사 가상 오브젝트를 표시하는 전자 장치 및 이의 제어 방법
US11822941B2 (en) * 2023-08-28 2023-11-21 International Business Machines Corporation Mobile computing device projected visualization interaction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352960A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感画像の効果付加装置、効果付加のための画像処理方法およびプログラム記憶媒体
JP2001136504A (ja) * 1999-11-08 2001-05-18 Sony Corp 情報入出力システム及び情報入出力方法
JP2009281830A (ja) * 2008-05-21 2009-12-03 Panasonic Corp 複数ディスプレイ設置設定装置、方法、プログラム、及びシステム
JP2011028309A (ja) * 2009-07-21 2011-02-10 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057856A (en) * 1996-09-30 2000-05-02 Sony Corporation 3D virtual reality multi-user interaction with superimposed positional information display for each user
JPH11161590A (ja) * 1997-11-27 1999-06-18 Hitachi Ltd 情報視聴装置
US7084869B2 (en) * 2000-03-31 2006-08-01 Massachusetts Institute Of Technology Methods and apparatus for detecting and correcting penetration between objects
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP3398796B2 (ja) 2001-01-31 2003-04-21 飛島建設株式会社 複合現実感を利用した3次元測量支援用画像システム
WO2002073955A1 (en) * 2001-03-13 2002-09-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, studio apparatus, storage medium, and program
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP2004310470A (ja) * 2003-04-07 2004-11-04 Advanced Telecommunication Research Institute International 視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム
JP2004348647A (ja) * 2003-05-26 2004-12-09 Hitachi Ltd ヒューマン・コミュニケーション・システム
WO2006025137A1 (ja) * 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. 画像処理装置、ゲーム装置および画像処理方法
PT103264B (pt) * 2005-04-22 2007-02-28 Ydreams Informatica Sa Miradouro virtual: sistema de visualização de informação sobreposta a imagem real
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
JP4883774B2 (ja) * 2006-08-07 2012-02-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP4926916B2 (ja) * 2007-11-07 2012-05-09 キヤノン株式会社 情報処理装置、情報処理方法、およびコンピュータプログラム
US8203561B2 (en) * 2008-09-10 2012-06-19 International Business Machines Corporation Determining valued excursion corridors in virtual worlds
JP5158006B2 (ja) * 2009-04-23 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP4938819B2 (ja) * 2009-05-18 2012-05-23 株式会社スクウェア・エニックス ゲーム装置,ゲーム用プログラム及び情報記録媒体
US9129644B2 (en) * 2009-06-23 2015-09-08 Disney Enterprises, Inc. System and method for rendering in accordance with location of virtual objects in real-time
US20110084983A1 (en) * 2009-09-29 2011-04-14 Wavelength & Resonance LLC Systems and Methods for Interaction With a Virtual Environment
US8284157B2 (en) * 2010-01-15 2012-10-09 Microsoft Corporation Directed performance in motion capture system
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
US8923686B2 (en) * 2011-05-20 2014-12-30 Echostar Technologies L.L.C. Dynamically configurable 3D display
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US20130063560A1 (en) * 2011-09-12 2013-03-14 Palo Alto Research Center Incorporated Combined stereo camera and stereo display interaction
US8990682B1 (en) * 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
WO2013119221A1 (en) 2012-02-08 2013-08-15 Intel Corporation Augmented reality creation using a real scene
US9041622B2 (en) * 2012-06-12 2015-05-26 Microsoft Technology Licensing, Llc Controlling a virtual object with a real controller device
US9767720B2 (en) 2012-06-25 2017-09-19 Microsoft Technology Licensing, Llc Object-centric mixed reality space
US9292085B2 (en) 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
US8773591B1 (en) 2012-08-13 2014-07-08 Nongqiang Fan Method and apparatus for interacting with television screen
US9011246B1 (en) 2013-11-18 2015-04-21 Scott Kier Systems and methods for immersive backgrounds

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352960A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感画像の効果付加装置、効果付加のための画像処理方法およびプログラム記憶媒体
JP2001136504A (ja) * 1999-11-08 2001-05-18 Sony Corp 情報入出力システム及び情報入出力方法
JP2009281830A (ja) * 2008-05-21 2009-12-03 Panasonic Corp 複数ディスプレイ設置設定装置、方法、プログラム、及びシステム
JP2011028309A (ja) * 2009-07-21 2011-02-10 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015022315; 木村 朝子: '壁面と卓上面を併用する電子作業空間WATARIシステムのデザインスキームと実現例' 日本バーチャルリアリティ学会論文誌 第15巻 第2号 Vol.15 No.2, 20100630, P.191-201, 特定非営利活動法人日本バーチャルリアリティ学会 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015531114A (ja) * 2012-07-26 2015-10-29 クアルコム,インコーポレイテッド 拡張の継続性の維持
JP2017138907A (ja) * 2016-02-05 2017-08-10 凸版印刷株式会社 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
JP2022525412A (ja) * 2019-03-15 2022-05-13 株式会社ソニー・インタラクティブエンタテインメント 仮想キャラクタの現実間のクロスオーバ
JP7355841B2 (ja) 2019-03-15 2023-10-03 株式会社ソニー・インタラクティブエンタテインメント 仮想キャラクタの現実間のクロスオーバを示すための方法及び非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
CN103959344A (zh) 2014-07-30
US20130290876A1 (en) 2013-10-31
EP2795893A4 (en) 2015-08-19
KR20140091710A (ko) 2014-07-22
KR101574099B1 (ko) 2015-12-03
CN103959344B (zh) 2017-03-01
EP2795893A1 (en) 2014-10-29
WO2013095393A1 (en) 2013-06-27
JP5832666B2 (ja) 2015-12-16
US9952820B2 (en) 2018-04-24

Similar Documents

Publication Publication Date Title
JP5832666B2 (ja) 複数のデバイスにまたがる拡張現実表現
US10596478B2 (en) Head-mounted display for navigating a virtual environment
US9656168B1 (en) Head-mounted display for navigating a virtual environment
US9330478B2 (en) Augmented reality creation using a real scene
KR102365579B1 (ko) 디스플레이 디바이스 뷰어 시선 유인
US11969666B2 (en) Head-mounted display for navigating virtual and augmented reality
JP7503122B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
TW202121155A (zh) 互動對象的驅動方法、裝置、設備以及電腦可讀儲存介質
JP2009070076A (ja) プログラム、情報記憶媒体及び画像生成装置
Lee et al. A development of virtual reality game utilizing Kinect, Oculus Rift and smartphone
CN117590935A (zh) 二维界面与人工现实界面之间的人工现实环境中视角共享
JP5479503B2 (ja) プログラム、情報記憶媒体及び画像生成装置
Zhang et al. " Third-Person" Augmented Reality-Based Interactive Chinese Drama
US20240181350A1 (en) Registering hand-held non-electronic object as game controller to control vr object position, orientation, game state
Lerga Valencia Merging augmented reality and virtual reality
Sodhi Ubiquitous interactive displays: Magical experiences beyond the screen

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151027

R150 Certificate of patent or registration of utility model

Ref document number: 5832666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees