JP2018503165A - 複合現実の可視化および方法 - Google Patents

複合現実の可視化および方法 Download PDF

Info

Publication number
JP2018503165A
JP2018503165A JP2017527315A JP2017527315A JP2018503165A JP 2018503165 A JP2018503165 A JP 2018503165A JP 2017527315 A JP2017527315 A JP 2017527315A JP 2017527315 A JP2017527315 A JP 2017527315A JP 2018503165 A JP2018503165 A JP 2018503165A
Authority
JP
Japan
Prior art keywords
virtual reality
real
environment
window
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017527315A
Other languages
English (en)
Inventor
アッシュマン,マシュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2018503165A publication Critical patent/JP2018503165A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

複合現実ビューを可視化デバイスのユーザに提供するための技法が開示される。デバイスは、ユーザに、ユーザの環境の現実世界の実時間ビューを、デバイスの表示エリア上で提供する。デバイスはさらに、仮想現実ウィンドウを、ユーザの環境の現実世界の実時間ビュー内に表示すべき位置を決定し、ユーザの環境の現実世界の実時間ビュー内の決定された位置に仮想現実ウィンドウを表示する。デバイスはさらに、1つまたは複数の拡張現実オブジェクトをユーザの環境の現実世界の実時間ビュー内に表示することができる。

Description

[0001] 本発明の少なくとも一実施形態は、仮想現実(VR)および拡張現実(AR)表示システムに関し、より詳細には、表示されるシーンに、VR、AR、および/または現実世界の視覚的コンテンツを組み合わせるためのデバイス、および方法に関する。
[0002] 仮想現実(VR)は、様々な現実世界および想像された環境においてユーザの物理的な存在をシミュレートできる、コンピュータでシミュレートされた環境である。従来のVR表示システムは、物理的な現実と最小限のやりとりを有する3次元(3D)コンテンツを表示し、その結果、「切り離された(disconnected)」(しかし、潜在的には無限の)ユーザ体験をもたらす。拡張現実(AR)は、ビデオ、グラフィックス、音など、コンピュータで生成される感覚入力によりその要素が増強された(または補われた)、物理的な現実世界の環境の直接的または間接的な生のビューである。現在のARシステムは、物理的なものおよびオクルージョンに対する表面再構成など3D拡張を現実世界の理解と統合しようとしている。
[0003] ここで導入されるのは、VRとARコンテンツの組合せを含む、複合現実の視覚的なコンテンツをユーザに提供するための可視化法および可視化デバイス(総称的に、また個々に、「可視化技法」または「技法」)であり、それにより、両タイプの可視化法の利点が提供される。本技法は、ユーザの環境の現実世界のビュー内に、別の世界もしくは環境(すなわち、VR環境)への物理的なウィンドウの錯覚をユーザに提供する。可視化技法は、例えば、スマートフォンもしくはタブレットコンピュータなど、標準のハンドヘルドのモバイルコンピューティングデバイスにより、または頭部搭載型ディスプレイ(HMD)システムなど、専用の可視化デバイスにより実施することができる。
[0004] いくつかの実施形態では、可視化デバイスは、ユーザ(または複数のユーザ)に、デバイスの表示エリア上で、ユーザの(またはデバイスの)環境の現実世界の実時間ビュー(「現実のビュー」)を提供する。デバイスは、VRウィンドウ、またはVR「ポータル」を現実のビュー内でユーザに表示すべき位置を決定し、それがユーザにはその決定された位置に存在するかのように見えるようにVRポータルを表示する。いくつかの実施形態では、これは、現実のビューにおける所定の視覚的マーカパターンを検出し、マーカパターンに(例えば、マーカパターン上にVRポータルを重ね合わせることに)基づいてVRポータルを配置することにより行われる。デバイスは、次いで、VRポータル内にVRシーンを表示し、さらに、VRポータルの外側の、現実のビュー上に重ね合わされた1つまたは複数のARオブジェクトを表示することができる。いくつかの実施形態では、デバイスは、その(またはユーザが保持する/装着するデバイスの)物理的な位置および/または向きの変化を検出することができ、それに応じて、VRポータル、およびVRポータル内のコンテンツの見かけ上の(表示された)位置および/または向きを動的に調整する。そのようにすることにより、デバイスは、VRポータルが、別の世界もしくは環境(すなわち、VR環境)への物理的なウィンドウであるという一貫性があり、現実感のある錯覚をユーザに提供する。
[0005] VRコンテンツおよびARコンテンツはそれぞれ、静的もしくは動的なもの、または静的および動的なコンテンツの両方の組合せ(すなわち、ユーザ/デバイスが動かない場合であっても)とすることができる。さらに、表示されるオブジェクトは、VRポータル内の位置から、VRポータル外の位置に移動することができ、その場合、このようなオブジェクトは、それらの表示位置に従って、VRオブジェクトであることからARオブジェクトであることへと、またはその逆に本質的に変化する。
[0006] 本技法の他の態様は、添付図および詳細な説明から明らかになろう。
[0007] この要約は、以下の詳細な説明においてさらに述べられる概念の選択を、簡単化した形で導くために提供されている。この要約は、特許請求される主題の重要な特徴、または本質的な特徴を識別することを意図しておらず、特許請求される主題の範囲を限定するために使用されることも意図していない。
[0008] 本発明の1つまたは複数の実施形態が、添付図面の図で例として限定することなく示されており、図中、同様の参照は同様の要素を示す。
[0009]複合現実可視化デバイスによる複合現実表示の例を示す図である。 [0010]VRウィンドウの位置を特定するのに使用されるターゲット画像の例を示す図である。 [0011]オクルージョン幾何形状とVR画像との間の関係を示す図である。 [0012]複合現実可視化技法がどのように適用され得るかの例を示す図である。 複合現実可視化技法がどのように適用され得るかの例を示す図である。 複合現実可視化技法がどのように適用され得るかの例を示す図である。 複合現実可視化技法がどのように適用され得るかの例を示す図である。 [0013]複合現実可視化デバイスにより実施され得る全体プロセスの例を示す図である。 [0014]複合現実可視化デバイスにより実施され得るプロセスの例をより詳細に示す図である。 [0015]複合現実可視化デバイスの機能的な構成要素の例を示す高水準ブロック図である。 [0016]複合現実可視化デバイスの物理的な構成要素の高水準ブロック図である。
[0017] この記述では、「実施形態」、「一実施形態」、または同様のものに対する参照は、述べられる特定の特徴、機能、構造または特性が、本明細書で導入される技法の少なくとも1つの実施形態に含まれることを意味する。この明細書においてこのようなフレーズが生ずることは、必ずしもすべてが同じ実施形態を参照するものではない。他方で、参照された実施形態はまた、必ずしも互いに矛盾するものではない。
[0018] 本明細書で導入される技法は、例えば、HMDまたはAR対応モバイルデバイスでなど、従来の画像表示デバイス(例えば、液晶ディスプレイ(LCD))を使用して、現実世界と仮想世界との間の有孔インターフェースのように見える仮想の「ポータル」を作成できるようにし、任意選択のARコンテンツが、ユーザの現実世界ビュー上に重ね合わされる。この技法は、例えば、(とりわけ)HMDデバイスに関して利点を有しているが、それは、画面の暗い背景が、向上させたコントラスト比を提供するできるためであって、例えば、シーンに光を加えるだけの透明または半透明な表示を有するため、背景にある現実世界のコンテンツを遮ることなく、ARコンテンツを表示するHMDデバイスに対する技術的課題に対処するからである。
[0019] いくつかの実施形態では、複合現実可視化デバイスは、1)6自由度(6DOF)ポジション/位置追跡機能と、平面マーカ画像を認識および追跡する機能ならびに現実世界に対して固定されているように見える複合現実のオーバーレイを提供する機能とを備えるHMDデバイスまたはハンドヘルドのモバイルAR対応デバイス、2)ターゲット画像を表示し、必要な場合、空白もしくは暗いシーンを提示できる画像表示システム、および3)別個の表示システム上で平面マーカ画像の表示をトリガする表示制御インターフェースを含む。オペレーションでは、複合現実可視化技法は、平面マーカ画像を可視化デバイスとは分離された別個の画像表示システム(例えば、LCDモニタ)上で表示させること、可視化デバイスを用いて、平面マーカ画像の位置および向きを認識すること、ならびに画像表示システムが、ARコンテンツとVRコンテンツの間の有孔インターフェースもしくは「ポータル」となるように可視化デバイスを動作させることを含むことができる。少なくとも、可視化デバイスがスマートフォンまたはタブレットコンピュータなど、標準のハンドヘルドのモバイルデバイスである実施形態では、複合されたVR/ARコンテンツを、複数のユーザにより同時に見ることができる。
[0020] 図1は、デバイスが、本明細書で導入される複合現実可視化技法を使用するとき、可視化デバイスのユーザが見ることのできる表示の例を概念的に示している。図1の外側の破線枠、およびこの説明のすべての他の図は、可視化デバイス(図示せず)の表示要素の表示エリア境界を、または代替えとしてユーザの視野の境界を表している。実線2は、可視化デバイスのユーザにより占められた部屋の壁、床、および天井の交差部を表している。ユーザが、可視化デバイスを保持する、または装着しているものと想定することができる。表示において、ユーザは、部屋の中の様々な現実世界(物理的な)オブジェクト6を含む自分の環境の現実のビューを見ることができる。少なくとも可視化デバイスがHMDデバイスである場合、表示エリアは透明または半透明とすることができ、したがって、ユーザは、ディスプレイを通して直接自分の環境を見ることができる。スマートフォンまたはタブレット実施形態などの他の実施形態では、ディスプレイ上で提供される現実のビューは、可視化デバイス上の少なくとも1つのカメラからのものである。
[0021] 可視化デバイスはまた、少なくともいくつかの実施形態では、以下で論ずるように、ユーザには、空間中で固定された位置および向きにあるように見えるVRウィンドウ(VRポータルとも呼ばれる)3を生成し、ユーザに表示する。可視化デバイスは、いくつかのVRオブジェクト4を含むVR環境を表すVRウィンドウ3内にVRコンテンツを表示する。VRオブジェクト4(図1で示されたものよりも外観ははるかに多様なものであり得る)は、従来の透視技法を用いてレンダリングされて、VRウィンドウ3内で深度の錯覚をユーザに与えることができる。任意選択により、可視化デバイスはまた、VRウィンドウ3の外側に1つまたは複数のARオブジェクト5を生成し、ユーザに表示することもできる。VR/ARオブジェクト4または5のいずれも動くように見え、またVRウィンドウ3の中に、またその外に移動するかのように見えるように表示することができる。
[0022] いくつかの実施形態では、ユーザに表示されるようなVRウィンドウ3の位置および向きは、所定の平面マーカ画像もしくはターゲット画像を使用することにより決定される。図2は、ターゲット画像の例を示す。図2では、従来のコンピュータモニタ21が、ターゲット画像22を表示している。しかし、モニタ21は、可視化デバイスの一部ではないことに留意されたい。示された例では、ターゲット画像22は、その上に大きな文字「Q」を有するモニタの全体の(暗い)表示エリアである。「Q」画像は、水平および垂直軸が共に対称性を欠いているため有利である。対称性は、ターゲット画像の検出された姿勢に曖昧さを生ずるおそれがある。しかし、ターゲット画像は、水平の対称性または垂直の対称のいずれも有していないものが好ましいが、それに代えて、何らかの他の所定の画像とすることも可能であることに留意されたい。例えば、ターゲット画像は、それに代えて、壁もしくは何らかの他の物理的なオブジェクト上にペイントされる、または貼付されることも可能である。あるいは、ターゲット画像は、(可視化デバイス上のカメラにより見られるような)実際の物理的なオブジェクトとすることもできる。さらに、ターゲット画像は、示された実施形態では固定されているが、他の実施形態では、ターゲット画像は、現実世界の環境を物理的に移動することができる。いずれのシナリオにおいても、可視化デバイスは、可視化デバイスに対するターゲット画像の現在のポジションおよび向きを考慮するために、VRウィンドウに表示された位置、サイズ、および形状を絶えず調整することができる。
[0023] 可視化デバイスは、ターゲット画像を使用して、ユーザに表示されるVRウィンドウをどこに配置するか、またどのようなサイズおよび向きにするかを決定する。いくつかの実施形態では、可視化デバイスは、VRウィンドウをターゲット画像上に重ね合わせ、VRウィンドウの境界を、ターゲット画像の境界に正確に一致させる、すなわち、それは、VRウィンドウとターゲット画像とを共に位置合せすることになる。他の実施形態では、デバイスは、例えば、VRウィンドウを中心化するための単に基準点としてターゲット画像を使用することができる。
[0024] 加えて、可視化デバイスは、そのローカルな物理的環境内におけるそれ自体の位置と、6DOF(すなわち、3つの直交軸のそれぞれに沿った平行移動、およびそれぞれの周りの回転)におけるその運動とを感知する能力を有する。それは、ユーザの位置および視点における変化を反映させるために、ユーザがマーカ画像に対して空間を移動すると、VRウィンドウで表示されるコンテンツを修正するためにこの能力を使用する。例えば、ユーザ(または可視化デバイス)がターゲット画像のより近くに移動した場合、その内部のVRウィンドウおよびVRコンテンツは、ディスプレイ上で大きくなる。その場合、ユーザがウィンドウに正対して、そこから少し離れて立っているとき、ユーザが実際の(物理的な)ウィンドウの外に多くのものが見えることになるのと同じように、VRウィンドウ内のコンテンツも修正され、オブジェクトのさらなる細部を、および/またはVRウィンドウの縁部周りのさらなるオブジェクトを示すことができる。同様に、ユーザが、ターゲット画像から移動して離れた場合、VRウィンドウおよびその内部のVRコンテンツは、ディスプレイ上で小さくなり、VRコンテンツは、それに従って修正される。さらに、デバイスが、平面ターゲット画像の直接的な(垂直な)ビューを有しないように、ユーザが横に移動した場合、可視化デバイスは、VRウィンドウの表示される形状およびコンテンツをそれに従って調整することになり、ユーザの視点の変化を考慮して、VRウィンドウが別の環境/世界へのポータルであるという現実感のある錯覚を維持する。
[0025] いくつかの実施形態では、VRウィンドウ内のVRコンテンツは、可視化デバイスによって維持される、より大きなVR画像のサブセットである。例えば、より大きなVR画像は、少なくとも表示されるエリア全体、またはユーザの視野を包含するサイズとすることができる。このような実施形態では、可視化デバイスは、VR画像のその部分がユーザに表示されないように、VRウィンドウの外側のVR画像の部分をマスクする、メッシュもしくはシェーダなどのオクルージョン幾何形状を使用する。オクルージョン幾何形状の例が、オクルージョンメッシュ31の形態で図3に示されている。VR画像全体は、いくつかのVRオブジェクトを含むが、図1の例で示されるように、少なくとも部分的にVRウィンドウ内にあるVRオブジェクトだけが、ユーザに見えるようになる。
[0026] 図4Aから図4Dは、複合現実可視化技法がどのように適用され得るかの少し複雑な例を示している。図4では、可視化デバイスは、ターゲット画像(図示せず)の上に、VRシーンを含むVRウィンドウ40を重ね合わせており、したがって、ターゲット画像は、ディスプレイを通してユーザにはもはや見えない。この例のVRシーンは、宇宙船41、惑星42、および月43を含む。したがって、VRシーンは、モニタ21(またはそれに接続されたデバイス)により実際に生成されているのではなく、ユーザにより保持された、または装着された可視化デバイス(図4Aから図4Dで示されていない)により生成され、表示されていることを理解されたい。そうではあるが、可視化デバイスは、例えば、別のデバイスと通信して、その別のデバイスにターゲット画像を表示させることにより、ターゲット画像の表示をトリガするための適切な制御インターフェースを有することができる。
[0027] VRオブジェクト41から43までの少なくともいくつかのものを動画化することができる。例えば、宇宙船41は、図4Bおよび図4Cで示されるように、ユーザに向けてVRウィンドウから外に飛び出すように見えるようにすることができる(破線の矢印、および--の宇宙船の輪郭は、この文書における説明のためだけのものであり、ユーザには表示されない)。VRウィンドウ40の境界の外側に表示されるオブジェクト、またはそのいずれかの部分は、VRオブジェクトではなく、ARオブジェクトであると見なされる。しかし、ディスプレイ上のそれらの見かけ上の位置、およびユーザからの見かけ上の距離は別として、ARオブジェクトとVRオブジェクトの間の機能的な差はなく、それらの間の何らかの差異にユーザが気付くこともない。可視化デバイスにおけるレンダリングハードウェアおよびソフトウェアは、任意のVRオブジェクトをVRウィンドウ40の外側にシームレスに移動させることができ(その場合、オブジェクトはARオブジェクトになる)、また任意のARオブジェクトをVRウィンドウ40の内部にシームレスに移動させることができる(その場合、オブジェクトはVRオブジェクトになる)。
[0028] 図4Dは、ユーザが、ユーザの左側の離れたポジションからシーンを見ている代替ビューを示しており、ユーザ/デバイスは、平面ターゲット画像の直接(垂直な)ビューを有していない。このビューでは、VRウィンドウ40の形状、およびその内部のVRコンテンツの形状はそれに従って修正されており、VRウィンドウ40は、別の環境/世界へのポータルであるという現実感のある錯覚を維持する。この例では、ユーザは現在、VRウィンドウの背景の中に、(ユーザは画像を正面に見ていた)図4Aから図4Cの例では隠されていた別の惑星45を見ることができ、また前景に、さらに多くの第1の惑星42を見ることができる。さらに宇宙船41はこの場合、ユーザにより異なる角度から(ARオブジェクトとして)見られる。さらに、VRウィンドウ40それ自体の形状は、異なる視野角を反映するために、完全な長方形ではなく、わずかに台形となるように変化している。
[0029] 図5は、いくつかの実施形態において、可視化デバイスにより実施される全体プロセスの例を示す。ステップ501で、デバイスは、ユーザに、ユーザの環境の現実世界の実時間ビューを提供する。この「現実のビュー」は、HMDデバイス上の透明または半透明なディスプレイなどを通した直接ビュー、またはカメラにより取得され、次いで、ハンドヘルドのモバイルデバイス上に表示されるなどの間接ビューとすることができる。ステップ501と同時に、502で、デバイスは、VRウィンドウを、環境の現実世界の実時間ビュー内に表示すべき位置を決定し、ステップ503で、VRウィンドウを、その決定された位置に表示する。このプロセスは、上記で述べられたように、連続的に繰り返すことができる。他の実施形態では、ステップの構成が異なる可能性のあることに留意されたい。
[0030] 図6は、いくつかの実施形態による、可視化デバイスのオペレーションの例を、さらに詳細に示している。ステップ601で、可視化デバイスは、ターゲット画像の6DOF姿勢を推定する。ステップ602で次いで、デバイスは、上記で述べられたように、ターゲット画像に位置合せされたオクルージョン幾何形状を作成する。オクルージョン幾何形状は、事実上VRウィンドウを作成する。デバイスは、ステップ603で、それ自体の6DOFカメラ姿勢を、すなわち、それ自体の追跡カメラの6DOF位置および向きを推定する。示された実施形態では、デバイスは、次いで、ステップ604で、6DOFカメラ姿勢を用いてその仮想カメラでVRウィンドウ内のVRシーンをレンダリングし、一方、ステップ605で、VRウィンドウの外側に1つまたは複数のARオブジェクトをレンダリングする。ステップ604および605は、明確にするために、図6では別々に示されているが、単一のレンダリングステップとして実施することができることに留意されたい。さらに、図6のプロセスにおけるステップのシーケンスは、他の実施形態では異なる可能性がある。6DOFカメラ姿勢は、ターゲット画像の座標系から可視化デバイス上の表示カメラ(例えば、RGBカメラ)の座標系への、またはその逆の推定された姿勢変換(回転および平行移動)である。ターゲット画像の中心は、ターゲット画像の座標系の原点にすることができる。仮想カメラは、グラフィックスソフトウェア、またはハードウェアにより実装されるレンダリングカメラである。推定された6DOFカメラ姿勢は、生のビデオフィードからの背景画像の前面のシーンに仮想カメラを移動するために使用され、複合されたシーンでコンテンツの錯覚を生成することができる。上記で述べたプロセスは、次いで、ステップ603へとループで戻り、その時点から、上記で述べたように連続的に繰り返すことができる。
[0031] 図7は、いくつかの実施形態による、複合現実可視化デバイスのいくつかの機能的な構成要素の例を示す高水準ブロック図である。示された、複合現実可視化デバイス71は、6DOF追跡モジュール72、アプリケーションレンダリングモジュール73、1つまたは複数の追跡(ビデオ)カメラ74、および1つまたは複数の表示(ビデオ)カメラ75を含む。6DOF追跡モジュール72は、追跡カメラ74から(また任意選択により、図示されていないIMUから)入力を受け取り、これらの入力に基づいて、カメラ姿勢を連続的に更新する。6DOF追跡モジュール72は、これらの入力に基づいて、ターゲット画像の座標系から、表示カメラの座標系への推定される姿勢変換を表す変換データ(例えば、回転(R)および平行移動(t)など)を生成し、出力する。
[0032] アプリケーション&レンダリングモジュール73は、複合現実可視化技法が適用され、例えば、ゲームソフトウェアアプリケーションであり得るアプリケーションコンテキストを生成する。アプリケーション&レンダリングモジュール73は、6DOF追跡モジュール72から変換データ(R、t)を受け取り、そのデータならびに表示カメラ75からの画像データに基づいて、ユーザに表示するために、表示デバイス76に送られる画像データを生成する。6DOF追跡モジュール72、およびアプリケーションレンダリングモジュール73は、それぞれ、適切にプログラムされたプログラム可能な回路により、もしくは専用に設計された(「ハードワイヤード」)回路、またはそれらの組合せにより実装することができる。
[0033] 上記で述べたように、複合現実可視化デバイス71は、例えば、適切に構成された従来のハンドヘルドモバイルデバイス、または専用のHMDデバイスとすることができる。いずれの場合にも、このような可視化デバイスの物理的な構成要素は、図8で示されるようなものとすることができ、図8は、このようなデバイスの高水準の概念的な図を示している。このような可視化デバイスの他の実施形態は、図8で示される構成要素のすべてを含まない可能性のあること、および/または図8で示されていないさらなる構成要素を含み得ることに留意されたい。
[0034] 示された可視化デバイス71の物理的な構成要素は、以下のそれぞれの1つまたは複数のインスタンスを含む、すなわち、プロセッサ81、メモリ82、表示デバイス83、表示ビデオカメラ84、深度感知追跡ビデオカメラ85、慣性計測装置(IMU)86、および通信デバイス87であり、すべては相互接続88によって共に(直接または間接的に)結合される。相互接続88は、1つまたは複数の導電性トレース、バス、ポイントツーポイント接続、コントローラ、アダプタ、無線リンク、および/または他の従来の接続デバイス、および/また媒体であり得る、または含むことができ、それらの少なくともいくつかは、互いに独立して動作することができる。
[0035] プロセッサ81は、個々に、および/または集合的に、可視化デバイス71の全体動作を制御し、様々なデータ処理機能を実施する。さらにプロセッサ81は、上記で述べた仮想測定ツールを生成し、表示するための少なくともいくつかの計算およびデータ処理機能を提供することができる。各プロセッサ81は、例えば、1つまたは複数の汎用のプログラム可能なマイクロプロセッサ、デジタル信号プロセッサ(DSP)、モバイルアプリケーションプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC)、プログラム可能ゲートアレイ(PGA)、もしくは同様のもの、またはこのようなデバイスの組合せであり得る、またはそれらを含むことができる。
[0036] 本明細書で導入される複合現実可視化技法の諸態様を実行するようにプロセッサ81を構成するデータおよび命令(コード)90は、1つまたは複数のメモリ82に記憶することができる。各メモリ82は、1つまたは複数の物理的な記憶デバイスであり得る、またはそれらを含むことができ、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)(消去可能およびプログラム可能である)、フラッシュメモリ、小型のハードディスクドライブ、もしくは他の適切なタイプの記憶デバイス、またはこのようなデバイスの組合せの形態とすることができる。
[0037] 1つまたは複数の通信デバイス87は、可視化デバイス71が、パーソナルコンピュータ、ゲーム機、または遠隔サーバなど、別個の、外部の処理システムからデータおよび/またはコマンドを受け取り、データおよび/またはコマンドをそれらに送ることを可能にする。各通信デバイス88は、ユニバーサルシリアルバス(USB)アダプタ、WiFi(登録商標)送受信機、Bluetooth(登録商標)もしくはBluetooth低エネルギー(BLE)送受信機、イーサネット(登録商標)アダプタ、ケーブルモデム、DSLモデム、セルラ式送受信機(例えば、3G、LTE/4Gもしくは5G)、ベースバンドプロセッサ、もしくは同様のもの、またはそれらの組合せであり得る、もしくはそれらを含むことができる。
[0038] 表示ビデオカメラ84は、特に従来のハンドヘルドのモバイルデバイス実施形態において、ユーザの環境の生のビデオフィードを取得して、ユーザの環境の現実のビューを生成する。追跡ビデオカメラ85は、そのローカルな環境に対する(および特に、ターゲット画像に対する)可視化デバイス71の動き(平行移動および/または回転)を検出するために使用することができる。追跡カメラ85の1つまたは複数のものは、深度感知カメラ85とすることができ、その場合、カメラ85を使用して、例えば、飛行時間(time-of-flight)原理を適用し、ターゲット画像を含む近傍のオブジェクトへの距離を求めることができる。IMU86は、例えば、デバイス71の平行移動および/または回転を送るために、1つまたは複数のジャイロスコープおよび/または加速度計を含むことができる。少なくともいくつかの実施形態では、IMU86は、追跡カメラ85の存在を考慮すると、必要なものではないが、それにもかかわらずよりロバストな推定を提供するために使用することができる。
[0039] 上記で述べた構成要素のいずれも、またはすべては、それらの上記で述べられた機能の観点から、完全に自己完結型のものであるとすることができるが、いくつかの実施形態では、1つまたは複数のプロセッサ81は、他の構成要素に関連付けられた処理機能の少なくともいくつかを提供することに留意されたい。例えば、追跡カメラ85に関連付けられた深度検出に対するデータ処理の少なくともいくつかのものは、プロセッサ81により実施することができる。同様に、IMU86に関連付けられる視線追跡のためのデータ処理の少なくともいくつかのものは、プロセッサ81により実施することができる。同様に、AR/VRディスプレイ83をサポートする画像処理の少なくともいくつかのものは、プロセッサ81により実施することができ、以下同様である。
[0040] 上記で述べられた、機械で実装されるオペレーションは、ソフトウェアおよび/またはファームウェアによりプログラムされ/構成されたプログラム可能回路により、もしくは全く専用の回路により、またはこのような形態の組合せにより実装することができる。このような専用の回路(もしある場合)は、例えば、1つまたは複数の特定用途向け集積回路(ASIC)、プログラム可能論理デバイス(PLD)、書替え可能ゲートアレイ(FPGA)、システムオンチップシステム(SOC)などの形態とすることができる。
[0041] 本明細書で導入される技法を実装するためのソフトウェアは、機械可読の記憶媒体に記憶することができ、また1つまたは複数の汎用の、または専用のプログラム可能マイクロプロセッサにより実行することができる。「機械可読媒体」という用語は、本明細書で使用される場合、機械(機械は、例えば、コンピュータ、ネットワークデバイス、セルラ式電話、携帯情報端末(PDA)、製造ツール、1つまたは複数のプロセッサを有する任意のデバイスなどとすることができる)によりアクセス可能な形態で情報を記憶できる任意の機構を含む。例えば、機械がアクセス可能な媒体は、記録可能/記録不可能な媒体(例えば、読出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイスなど)などを含む。
いくつかの実施形態の例
[0042] 本明細書で導入される技術のいくつかの実施形態は、以下の番号が付された例のように要約される。
[0043] 1.可視化デバイスのユーザに、ユーザの環境の現実世界の実時間ビューを可視化デバイスの表示エリア上で提供するステップと、可視化デバイスにおいて、仮想現実ウィンドウを、ユーザの環境の現実世界の実時間ビュー内で表示すべき位置を決定するステップと、可視化デバイスの表示エリア上で、ユーザの環境の現実世界の実時間ビュー内の決定された位置に、仮想現実ウィンドウを表示するステップとを含む方法。
[0044] 2.ユーザの環境以外の第2の環境のシミュレートされたシーンを、可視化デバイスで生成するステップをさらに含み、仮想現実ウィンドウを表示する前記ステップが、仮想現実ウィンドウ内に、第2の環境のシミュレートされたシーンを表示するステップを含む、例1に記載の方法。
[0045] 3.可視化デバイスの物理的な動きを検出するステップをさらに含み、仮想現実ウィンドウを表示する前記ステップが、仮想現実ウィンドウに対する可視化デバイスの視点の変化をシミュレートするために、可視化デバイスにおいて、可視化デバイスの物理的な動きに応じて、仮想現実ウィンドウのコンテンツを修正するステップを含む、例1または例2に記載の方法。
[0046] 4.仮想現実ウィンドウを表示すべき位置を決定する前記ステップが、ユーザの環境における所定のパターンを識別するステップと、所定のパターンに基づいて、仮想現実ウィンドウを表示すべき位置を設定するステップとを含む、例1から3までのいずれか一項に記載の方法。
[0047] 5.仮想現実ウィンドウを表示する前記ステップは、可視化デバイスの視点からの所定のパターン上に、仮想現実ウィンドウを重ね合わせるステップを含む、例1から4までのいずれか一項に記載の方法。
[0048] 6.所定のパターンの位置および向きを検出するステップと、所定のパターンの位置および向きに基づいて、仮想現実ウィンドウに対する表示位置および向きを決定するステップとをさらに含む、例1から5までのいずれか一項に記載の方法。
[0049] 7.可視化デバイスの表示エリア上で、仮想現実ウィンドウの外側に、現実世界の実時間ビュー上に重ね合わされた拡張現実画像を表示するステップをさらに含む、例1から6までのいずれか一項に記載の方法。
[0050] 8.オブジェクトが仮想現実ウィンドウからユーザの環境の現実世界の実時間ビューへと、またはその逆に移動するように見えるように、デバイスにより生成されるオブジェクトを表示エリア上で表示するステップをさらに含む、例1から7までのいずれか一項に記載の方法。
[0051] 9.表示機能を有するデバイスにより、デバイスのユーザによって占められている3次元空間内に位置する第1の領域を識別するステップと、ユーザに、デバイス上で、第1の領域を除く3次元空間の一部の実時間の現実世界ビューを見ることを可能にするステップと、第1の領域を除く3次元空間の一部の実時間の現実世界のビューを見ることをユーザに可能にする前記ステップと同時に、デバイスに、ユーザに対して仮想現実画像を第1の領域で表示させるステップと、デバイスに、ユーザに対して実時間の現実世界のビューを表示させる前記ステップと同時に、デバイスに、ユーザに対してユーザの視点からの3次元空間の第2の領域に拡張現実画像を表示させるステップであり、第2の領域が第1の領域の外側にある、ステップと、デバイスの位置および向きの変化をデバイスによって検出するステップと、表示デバイスの位置および向きの変化に応じて、デバイスにより表示された仮想現実画像の位置または向きを調整するステップとを含む方法。
[0052] 10.第1の領域を識別する前記ステップが、ユーザにより占められる3次元空間における所定の可視マーカパターンを識別するステップを含む、例9に記載の方法。
[0053] 11.デバイスに、仮想現実画像を第1の領域で表示させる前記ステップは、第1の領域が、所定の可視マーカパターンと同じ広がりを持つように、仮想現実画像を第1の領域上に重ね合わせるステップを含む、例9または例10に記載の方法。
[0054] 12.オブジェクトが第1の領域からから第2の領域へと、またはその逆に移動するかのように見えるように、デバイスにより生成されるオブジェクトをデバイス上で表示するステップをさらに含む、例9から11までのいずれか一項に記載の方法。
[0055] 13.可視化デバイスであって、表示エリアを有する表示デバイスと、デバイスが位置する環境の画像を取得するためのカメラと、慣性計測装置(IMU)と、表示デバイス、カメラ、およびIMUに結合される少なくとも1つのプロセッサであり、表示デバイスに、デバイスが位置する環境の現実世界の実時間ビューを、表示エリア上で表示させ、仮想現実ウィンドウを現実世界の実時間ビュー内で表示すべき位置を決定し、表示デバイスに、仮想現実ウィンドウを、表示エリア上で現実世界の実時間ビュー内の決定された位置に表示させ、カメラまたはIMUの少なくとも一方からのデータに基づき、デバイスの物理的な動きを検出し、仮想現実ウィンドウに対するユーザの視点の変化をシミュレートするために、デバイスの物理的な動きに応じて、仮想現実ウィンドウのコンテンツを修正するように構成された少なくとも1つのプロセッサとを備える可視化デバイス。
[0056] 14.デバイスは、ハンドヘルドのモバイルコンピューティングデバイスでありまたデバイスが位置する環境の現実世界の実時間ビューは、カメラによって取得される、例13に記載の可視化デバイス。
[0057] 15.デバイスは、頭部搭載型AR/VR表示デバイスである、例13に記載の可視化デバイス。
[0058] 16.少なくとも1つのプロセッサは、デバイスが位置する環境以外の第2の環境のシミュレートされたシーンを生成するようにさらに構成され、仮想現実ウィンドウを表示することは、仮想現実ウィンドウ内の第2の環境のシミュレートされたシーンを表示することを含む、例13から15までのいずれか一項に記載の可視化デバイス。
[0059] 17.少なくとも1つのプロセッサは、表示デバイスに、仮想現実ウィンドウの外側にある現実世界の実時間ビュー上に重ね合わされた拡張現実画像を、表示エリア上で表示させるようにさらに構成される、例13から16までのいずれか一項に記載の可視化デバイス。
[0060] 18.少なくとも1つのプロセッサは、オブジェクトを生成し、表示デバイスに、オブジェクトが仮想現実ウィンドウから、デバイスが位置する環境の現実世界の実時間ビューへと、またはその逆に移動するように見えるように、オブジェクトを表示エリア上で表示させるようにさらに構成される、例13から17までのいずれか一項に記載の可視化デバイス。
[0061] 19.仮想現実ウィンドウを表示すべき位置を決定することが、ユーザの環境における所定のパターンを識別することと、所定のパターンの位置に基づいて位置を設定することとを含む、例13から18までのいずれか一項に記載の可視化デバイス。
[0062] 20.仮想現実ウィンドウを表示することは、可視化デバイスの視点からの所定のパターンの上に、仮想現実ウィンドウを重ね合わせることを含む、例13から19までのいずれか一項に記載の可視化デバイス。
[0063] 21.可視化デバイスのユーザに、ユーザの環境の現実世界の実時間ビューを可視化デバイスの表示エリア上で提供するための手段と、可視化デバイスにおいて、仮想現実ウィンドウを、ユーザの環境の現実世界の実時間ビュー内で表示すべき位置を決定するための手段と、可視化デバイスの表示エリア上で、ユーザの環境の現実世界の実時間ビュー内の決定された位置に仮想現実ウィンドウを表示するための手段とを備える装置。
[0064] 22.ユーザの環境以外の第2の環境のシミュレートされたシーンを、可視化デバイスで生成するための手段をさらに備え、仮想現実ウィンドウを表示するための前記手段が、仮想現実ウィンドウ内に、第2の環境のシミュレートされたシーンを表示するための手段を備える、例21に記載の装置。
[0065] 23.可視化デバイスの物理的な動きを検出するための手段をさらに備え、仮想現実ウィンドウを表示するための前記手段が、仮想現実ウィンドウに対する可視化デバイスの視点の変化をシミュレートするために、可視化デバイスにおいて、可視化デバイスの物理的な動きに応じて、仮想現実ウィンドウのコンテンツを修正するための手段を備える、例21または例22に記載の装置。
[0066] 24.仮想現実ウィンドウを表示すべき位置を決定するための前記手段が、ユーザの環境における所定のパターンを識別し、所定のパターンに基づいて、仮想現実ウィンドウを表示すべき位置を設定するための手段を備える、例21から23までのいずれか一項に記載の装置。
[0067] 25.仮想現実ウィンドウを表示するための前記手段は、可視化デバイスの視点からの所定のパターン上に、仮想現実ウィンドウを重ね合わせるための手段を備える、例21から24までのいずれか一項に記載の装置。
[0068] 26.所定のパターンの位置および向きを検出するための手段と、所定のパターンの位置および向きに基づいて、仮想現実ウィンドウに対する表示位置および向きを決定するための手段とをさらに備える、例21から25までのいずれか一項に記載の装置。
[0069] 27.可視化デバイスの表示エリア上で、仮想現実ウィンドウの外側に、現実世界の実時間ビュー上に重ね合わされた拡張現実画像を表示するための手段をさらに備える、例21から26までのいずれか一項に記載の装置。
[0070] 28.オブジェクトが仮想現実ウィンドウからユーザの環境の現実世界の実時間ビューへと、またはその逆に移動するように見えるように、デバイスにより生成されるオブジェクトを表示エリア上で表示するための手段をさらに備える、例21から27までのいずれか一項に記載の装置。
[0071] 上記で述べられた特徴および機能のいずれかまたはすべてのものは、当業者には明らかであろうが、その他の形で前述されている場合を除き、またはいずれかのこのような実施形態が、その機能もしくは構造により互換性がない場合を除き、互いに組み合わせることができる。物理的な可能性に反していない限り、(i)本明細書で述べられる方法/ステップは、任意のシーケンスおよび/または任意の組合せで実施できること、および(ii)各実施形態の構成要素は、任意の方法で組み合わせることが可能であると考えられる。
[0072] 主題は、構造的な特徴および/または行為に特有の文言で述べられてきているが、添付の特許請求の範囲で定義される主題は、上記で述べた特有の特徴および行為に必ずしも限定されないことを理解されたい。そうではなくて、上記で述べた特有の特徴および行為は、特許請求の範囲を実施する例として開示されており、他の等価な特徴および行為も、特許請求の範囲に含まれるように意図されている。

Claims (15)

  1. 可視化デバイスのユーザに、前記ユーザの環境の現実世界の実時間ビューを前記可視化デバイスの表示エリア上で提供するステップと、
    前記可視化デバイスにおいて、前記ユーザの前記環境の前記現実世界の実時間ビュー内で仮想現実ウィンドウを表示すべき位置を決定するステップと、
    前記可視化デバイスの前記表示エリア上で、前記ユーザの前記環境の前記現実世界の実時間ビュー内の前記決定された位置に前記仮想現実ウィンドウを表示するステップと
    を含む方法。
  2. 前記ユーザの前記環境以外の第2の環境のシミュレートされたシーンを、前記可視化デバイスで生成するステップをさらに含み、
    前記仮想現実ウィンドウを表示する前記ステップが、前記仮想現実ウィンドウ内に、前記第2の環境の前記シミュレートされたシーンを表示するステップを含む、請求項1に記載の方法。
  3. 前記可視化デバイスの物理的な動きを検出するステップをさらに含み、
    前記仮想現実ウィンドウを表示する前記ステップが、前記仮想現実ウィンドウに対する前記可視化デバイスの視点の変化をシミュレートするために、前記可視化デバイスにおいて、前記可視化デバイスの前記物理的な動きに応じて前記仮想現実ウィンドウのコンテンツを修正するステップを含む、請求項1または請求項2に記載の方法。
  4. 仮想現実ウィンドウを表示すべき位置を決定する前記ステップが、
    前記ユーザの前記環境における所定のパターンを識別するステップと、
    前記所定のパターンに基づいて、仮想現実ウィンドウを表示すべき前記位置を設定するステップとを含む、請求項1から3までのいずれか一項に記載の方法。
  5. 前記仮想現実ウィンドウを表示する前記ステップは、
    前記可視化デバイスの視点からの前記所定のパターン上に前記仮想現実ウィンドウを重ね合わせるステップを含む、請求項4に記載の方法。
  6. 前記可視化デバイスの前記表示エリア上で、前記仮想現実ウィンドウの外側に、前記現実世界の実時間ビュー上に重ね合わされた拡張現実画像を表示するステップをさらに含む、請求項1から5までのいずれか一項に記載の方法。
  7. オブジェクトが前記仮想現実ウィンドウから前記ユーザの前記環境の前記現実世界の実時間ビューへと、またはその逆に移動するように見えるように、前記デバイスにより生成される前記オブジェクトを前記表示エリア上で表示するステップをさらに含む、請求項1から6までのいずれか一項に記載の方法。
  8. 可視化デバイスであって、
    表示エリアを有する表示デバイスと、
    前記デバイスが位置する環境の画像を取得するためのカメラと、
    慣性計測装置(IMU)と、
    前記表示デバイス、前記カメラ、および前記IMUに結合される少なくとも1つのプロセッサであって、
    前記表示デバイスに、前記デバイスが位置する前記環境の現実世界の実時間ビューを前記表示エリア上で表示させ、
    前記現実世界の実時間ビュー内で仮想現実ウィンドウを表示すべき位置を決定し、
    前記表示デバイスに、前記表示エリア上で前記現実世界の実時間ビュー内の前記決定された位置に前記仮想現実ウィンドウを表示させ、
    前記カメラまたは前記IMUの少なくとも一方からのデータに基づき、前記デバイスの物理的な動きを検出し、
    前記仮想現実ウィンドウに対するユーザの視点の変化をシミュレートするために、前記デバイスの前記物理的な動きに応じて、前記仮想現実ウィンドウのコンテンツを修正する
    ように構成された少なくとも1つのプロセッサと
    を備える可視化デバイス。
  9. 前記デバイスは、ハンドヘルドのモバイルコンピューティングデバイスであり、前記デバイスが位置する前記環境の前記現実世界の実時間ビューは、前記カメラによって取得される、請求項8に記載の可視化デバイス。
  10. 前記デバイスは、頭部搭載型AR/VR表示デバイスである、請求項8または請求項9に記載の可視化デバイス。
  11. 前記少なくとも1つのプロセッサは、
    前記デバイスが位置する前記環境以外の第2の環境のシミュレートされたシーンを生成するようにさらに構成され、
    前記仮想現実ウィンドウを表示することは、前記仮想現実ウィンドウ内の前記第2の環境の前記シミュレートされたシーンを表示することを含む、請求項8から10までのいずれか一項に記載の可視化デバイス。
  12. 前記少なくとも1つのプロセッサは、
    前記表示デバイスに、前記仮想現実ウィンドウの外側にある前記現実世界の実時間ビュー上に重ね合わされた拡張現実画像を前記表示エリア上で表示させるようにさらに構成される、請求項8から11までのいずれか一項に記載の可視化デバイス。
  13. 前記少なくとも1つのプロセッサは、
    オブジェクトを生成し、
    前記表示デバイスに、前記オブジェクトが前記仮想現実ウィンドウから、前記デバイスが位置する前記環境の前記現実世界の実時間ビューへと、またはその逆に移動するように見えるように、前記オブジェクトを前記表示エリア上で表示させるようにさらに構成される、請求項8から12までのいずれか一項に記載の可視化デバイス。
  14. 仮想現実ウィンドウを表示すべき位置を決定することが、
    前記ユーザの前記環境における所定のパターンを識別することと、
    前記所定のパターンの位置に基づいて前記位置を設定することと
    を含む、請求項8から13までのいずれか一項に記載の可視化デバイス。
  15. 前記仮想現実ウィンドウを表示することは、前記可視化デバイスの視点からの前記所定のパターン上に前記仮想現実ウィンドウを重ね合わせることを含む、請求項14に記載の可視化デバイス。
JP2017527315A 2014-12-04 2015-11-24 複合現実の可視化および方法 Pending JP2018503165A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201414561167A 2014-12-04 2014-12-04
US14/561,167 2014-12-04
US14/610,992 2015-01-30
US14/610,992 US20160163063A1 (en) 2014-12-04 2015-01-30 Mixed-reality visualization and method
PCT/US2015/062241 WO2016089655A1 (en) 2014-12-04 2015-11-24 Mixed-reality visualization and method

Publications (1)

Publication Number Publication Date
JP2018503165A true JP2018503165A (ja) 2018-02-01

Family

ID=54838440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017527315A Pending JP2018503165A (ja) 2014-12-04 2015-11-24 複合現実の可視化および方法

Country Status (6)

Country Link
US (1) US20160163063A1 (ja)
EP (1) EP3227862A1 (ja)
JP (1) JP2018503165A (ja)
KR (1) KR20170092632A (ja)
CN (1) CN107004303A (ja)
WO (1) WO2016089655A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200627A (ja) * 2018-05-17 2019-11-21 グリー株式会社 データ処理プログラム、データ処理方法、および、データ処理装置
JP2020010318A (ja) * 2018-05-28 2020-01-16 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム
JP2021022207A (ja) * 2019-07-29 2021-02-18 株式会社スクウェア・エニックス 画像処理プログラム、画像処理装置及び画像処理方法

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014069248A1 (ja) * 2012-11-02 2014-05-08 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US10147388B2 (en) * 2015-04-29 2018-12-04 Rovi Guides, Inc. Systems and methods for enhancing viewing experiences of users
US10003778B2 (en) 2015-04-29 2018-06-19 Rovi Guides, Inc. Systems and methods for augmenting a viewing environment of users
CN105955456B (zh) * 2016-04-15 2018-09-04 深圳超多维科技有限公司 虚拟现实与增强现实融合的方法、装置及智能穿戴设备
US20180190022A1 (en) * 2016-12-30 2018-07-05 Nadav Zamir Dynamic depth-based content creation in virtual reality environments
JP7116410B2 (ja) * 2017-03-31 2022-08-10 株式会社バンダイナムコエンターテインメント プログラム及び画像生成システム
US10444506B2 (en) 2017-04-03 2019-10-15 Microsoft Technology Licensing, Llc Mixed reality measurement with peripheral tool
KR20240051315A (ko) * 2017-06-20 2024-04-19 포토니카, 아이엔씨. 착용식 개선 현실 시각화
EP3422148B1 (en) * 2017-06-29 2021-03-10 Nokia Technologies Oy An apparatus and associated methods for display of virtual reality content
CN107515674B (zh) * 2017-08-08 2018-09-04 山东科技大学 一种基于虚拟现实与增强现实的采矿操作多交互实现方法
CN108022302B (zh) * 2017-12-01 2021-06-29 深圳市天界幻境科技有限公司 一种Inside-Out空间定位的AR立体显示装置
US10816334B2 (en) 2017-12-04 2020-10-27 Microsoft Technology Licensing, Llc Augmented reality measurement and schematic system including tool having relatively movable fiducial markers
KR102559011B1 (ko) * 2017-12-06 2023-07-24 주식회사 케이티 가상 현실 체험 서비스를 제공하는 방법, 단말 및 서버
CN111615835B (zh) 2017-12-18 2021-11-30 杜比国际公司 用于在虚拟现实环境中呈现音频信号的方法和系统
EP3743787A1 (en) 2018-01-22 2020-12-02 Apple Inc. Method and device for presenting synthesized reality companion content
US10861238B2 (en) 2018-05-14 2020-12-08 Microsoft Technology Licensing, Llc Experiential representation of data in mixed reality
US11587292B2 (en) * 2018-07-30 2023-02-21 Disney Enterprises, Inc. Triggered virtual reality and augmented reality events in video streams
CN109242980A (zh) * 2018-09-05 2019-01-18 国家电网公司 一种基于增强现实技术的隐蔽管道可视化系统和方法
KR102620363B1 (ko) 2018-10-12 2024-01-04 삼성전자주식회사 모바일 장치 및 모바일 장치의 제어 방법
KR102620702B1 (ko) * 2018-10-12 2024-01-04 삼성전자주식회사 모바일 장치 및 모바일 장치의 제어 방법
US10854169B2 (en) 2018-12-14 2020-12-01 Samsung Electronics Co., Ltd. Systems and methods for virtual displays in virtual, mixed, and augmented reality
CN109727318B (zh) * 2019-01-10 2023-04-28 广州视革科技有限公司 在ar设备中实现传送门效果并呈现vr全景视频画面的方法
EP3914994A1 (en) 2019-01-21 2021-12-01 Sony Advanced Visual Sensing AG Transparent smartphone
US11644940B1 (en) * 2019-01-31 2023-05-09 Splunk Inc. Data visualization in an extended reality environment
US11853533B1 (en) 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
EP4235381A3 (en) 2019-03-18 2023-11-01 Apple Inc. Virtual paper
CN109862286B (zh) * 2019-03-28 2021-08-17 深圳创维-Rgb电子有限公司 图像显示方法、装置、设备和计算机存储介质
EP4270159A3 (en) * 2019-09-26 2024-01-03 Apple Inc. Wearable electronic device presenting a computer-generated reality environment
CN117999535A (zh) * 2021-09-24 2024-05-07 苹果公司 用于内容项目的门户视图
US11790776B1 (en) 2022-07-01 2023-10-17 State Farm Mutual Automobile Insurance Company Generating virtual reality (VR) alerts for challenging streets
US20240054690A1 (en) * 2022-08-15 2024-02-15 Disney Enterprises, Inc. User Responsive Augmented Reality Enhancement of Moving Images

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8037416B2 (en) * 2008-08-06 2011-10-11 International Business Machines Corporation Presenting and filtering objects in a virtual world
GB2470073B (en) * 2009-05-08 2011-08-24 Sony Comp Entertainment Europe Entertainment device, system and method
JP5480777B2 (ja) * 2010-11-08 2014-04-23 株式会社Nttドコモ オブジェクト表示装置及びオブジェクト表示方法
US9280851B2 (en) * 2010-11-08 2016-03-08 Sony Corporation Augmented reality system for supplementing and blending data
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
KR101308184B1 (ko) * 2011-01-13 2013-09-12 주식회사 팬택 윈도우 형태의 증강현실을 제공하는 장치 및 방법
US20120182313A1 (en) * 2011-01-13 2012-07-19 Pantech Co., Ltd. Apparatus and method for providing augmented reality in window form
EP2579128B1 (en) * 2011-10-05 2017-11-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Portable device, virtual reality system and method
JP5832666B2 (ja) * 2011-12-20 2015-12-16 インテル・コーポレーション 複数のデバイスにまたがる拡張現実表現
KR101360061B1 (ko) * 2012-12-05 2014-02-12 현대자동차 주식회사 증강 현실 제공 방법 및 그 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200627A (ja) * 2018-05-17 2019-11-21 グリー株式会社 データ処理プログラム、データ処理方法、および、データ処理装置
JP2020010318A (ja) * 2018-05-28 2020-01-16 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム
JP7069085B2 (ja) 2018-05-28 2022-05-17 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー 一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム
JP2021022207A (ja) * 2019-07-29 2021-02-18 株式会社スクウェア・エニックス 画像処理プログラム、画像処理装置及び画像処理方法
US11087526B2 (en) 2019-07-29 2021-08-10 Square Enix Co., Ltd. Image processing program, image processing apparatus, and image processing method

Also Published As

Publication number Publication date
EP3227862A1 (en) 2017-10-11
CN107004303A (zh) 2017-08-01
WO2016089655A1 (en) 2016-06-09
US20160163063A1 (en) 2016-06-09
KR20170092632A (ko) 2017-08-11

Similar Documents

Publication Publication Date Title
JP2018503165A (ja) 複合現実の可視化および方法
US11752431B2 (en) Systems and methods for rendering a virtual content object in an augmented reality environment
US10725297B2 (en) Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
KR102291777B1 (ko) 바디 락 증강 현실과 월드 락 증강 현실 사이의 전환 기법
KR102257255B1 (ko) 혼합 현실 스포트라이트
US20180190022A1 (en) Dynamic depth-based content creation in virtual reality environments
JP7008730B2 (ja) 画像に挿入される画像コンテンツについての影生成
EP3624066A2 (en) Location-based virtual element modality in three-dimensional content
US20200211288A1 (en) Hybrid placement of objects in an augmented reality environment
EP3814876B1 (en) Placement and manipulation of objects in augmented reality environment
CN115335894A (zh) 用于虚拟和增强现实的系统和方法
US20190139307A1 (en) Modifying a Simulated Reality Display Based on Object Detection
CN114514493A (zh) 增强设备
EP4272061A1 (en) Systems and methods for generating stabilized images of a real environment in artificial reality
EP3594906B1 (en) Method and device for providing augmented reality, and computer program