JP2014515130A - 写実的に表されたビューのテーマベースの拡張 - Google Patents

写実的に表されたビューのテーマベースの拡張 Download PDF

Info

Publication number
JP2014515130A
JP2014515130A JP2013557791A JP2013557791A JP2014515130A JP 2014515130 A JP2014515130 A JP 2014515130A JP 2013557791 A JP2013557791 A JP 2013557791A JP 2013557791 A JP2013557791 A JP 2013557791A JP 2014515130 A JP2014515130 A JP 2014515130A
Authority
JP
Japan
Prior art keywords
display
user
physical environment
spatial model
theme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013557791A
Other languages
English (en)
Other versions
JP5976019B2 (ja
JP2014515130A5 (ja
Inventor
ウィグドー,ダニエル・ジェイ
テデスコ,メーガン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014515130A publication Critical patent/JP2014515130A/ja
Publication of JP2014515130A5 publication Critical patent/JP2014515130A5/ja
Application granted granted Critical
Publication of JP5976019B2 publication Critical patent/JP5976019B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Studio Devices (AREA)

Abstract

ユーザの視点からの、ユーザが位置する物理的環境の写実的に表されたビューを提供するように構成されたディスプレイにおいて、写実的に表されたビューを拡張する際に使用するためのテーマを選択する入力をユーザから受けるステップを含む方法が提供される。この方法は、物理的環境の環境情報を光学的に、かつリアルタイムで取得するステップと、その環境情報に基づいて、物理的環境の空間モデルを生成するステップとをさらに含む。この方法は、空間モデルの解析を介して、それぞれが物理環境内の1つまたは複数の物理的特徴に対応する、空間モデル内の1つまたは複数の特徴を識別するステップをさらに含む。この方法は、そのような解析に基づいて、識別された特徴の拡張をディスプレイ上に表示するステップをさらに含み、拡張は、テーマに関連している。

Description

[0001]ユーザがその中で没頭できる仮想環境をシミュレートするための仮想現実システムが存在する。
仮想環境を表示するために、ヘッドアップディスプレイ、ヘッドマウントディスプレイなどのディスプレイが利用され得る。ユーザが完全に没頭するのでなく、むしろ、実環境と多少つながった状態を保つ仮想現実体験をユーザに提供することが望ましい場合がある。したがって、ユーザの実世界環境の認識をグラフィック、音声などで拡張するための拡張現実システムが開発されている。ある例として、実物体に仮想画像を統合した、パイロットの訓練およびシミュレーションのためのコックピット・シミュレーション環境を提供するために、拡張現実システムが使用され得る。
既存の拡張現実技術は、通常、仮想要素が適切に統合され得るように、シミュレーション環境の事前に設定されたモデルなど、所定のデータに依存する。
[0002]本開示の一態様によれば、ユーザが選択したテーマに従って、ユーザの自らの環境のビューが拡張される。詳細には、ディスプレイは、ユーザの視点からの、ユーザの環境の写実的に表されたビュー(photorepresentative view)をユーザに提供する。このディスプレイはまた、ビューを拡張するように、ユーザが選択したテーマに関連する(1つまたは複数の)拡張を表示する。そのような(1つまたは複数の)拡張の表示は、拡張され得る特徴を識別するためにリアルタイムで生成および解析される物理的環境の空間モデルに基づく。そのような識別された特徴は、物理的環境内の物理的特徴に対応する。
[0003]この「発明の概要」は、「発明を実施するための形態」においてさらに後述される概念の選択を簡素化された形で紹介するために提供される。この「発明の概要」は、特許請求される主題の主な特徴または重要な特徴を識別することが意図されず、特許請求される主題の範囲を限定するために使用されることも意図されない。さらに、特許請求される主題は、本開示のいずれかの部分に記述される何らかのまたはすべての不利点を解決する実装形態に限定されない。
本開示の一実施形態による、一例示的な使用環境を示す図である。 本開示の一実施形態による、別の例示的な使用環境を示す図である。 本開示の一実施形態による写実的に表されたビューのテーマベースの拡張を提供する、一例示的な方法を示す図である。 本開示の一実施形態による、ある空間モデルを形成するステップの一例示的な概略図である。 本開示の一実施形態による、一例示的なテーマベースの拡張を示す図である。 本開示の一実施形態による、一例示的なコンピューティングシステムを示す図である。
[0010]写実的に表されたビューのテーマベースの拡張を実現することに関する実施形態が本明細書で開示される。写実的に表されたビューは、ディスプレイによって提供され、ユーザの視点からの、ユーザが位置する物理的環境のビューの実質的に現実的な(例えば、写真のような)表現である。自らの環境のユーザの認識をそのように拡張することは、ユーザが、自らの環境自体と多少つながった状態を保ちながら、自らの環境のテーマに合わせたビューを体験することを可能にする。
[0011]本開示の態様が、次に、例として、上に記載された、例示される実施形態を参照して記述される。1つまたは複数の実施形態内で実質的に同じ可能性がある構成要素、プロセスステップ、およびその他の要素は、連係して識別され、反復を最小限に抑えて記述される。しかし、連係して識別される要素は、ある程度異なる場合もある点に留意されよう。本明細書に含まれる図面は、概略図であり、全体に原寸に比例して描かれていない点にさらに留意されよう。むしろ、様々な図面の縮尺、アスペクト比、および図面に示される構成要素の数は、ある種の特徴または関係をより分かり易くするために、意図的に歪められる場合がある。
[0012]図1Aは、本開示のある実施形態による、ある例示的な使用環境、すなわち、ユーザ102が位置する物理的環境100の概略図を示す。図1Aは、例示のためであり、原寸に比例して描かれていない点を理解されたい。さらに、物理的環境100は、この例で、居間として示されるが、そのような環境は例示的であり、限定的であることが決して意図されない点を理解されたい。むしろ、物理的環境100は、屋内環境、屋外環境、慣れた環境、不慣れな環境などを含むが、これらに限定されない、ユーザ102が位置する、事実上、いかなるタイプの物理的環境であってもよい。ユーザ102に加えて、物理的環境100は、ソファー104aと、コーヒーテーブル104bと、犬104cとを含めて、いくつかの物理的な特徴104をさらに含む。
[0013]図1Aは、ディスプレイ出力を介してテーマベースの拡張を提供するためのディスプレイシステム106をさらに示す。ディスプレイシステム106は、ユーザ102の視点からの物理的環境100の写実的に表されたビューを提供するように構成されたディスプレイ108を含む。ディスプレイ108の非限定的な例は、ヘッドアップディスプレイ(HUD)、ヘッドマウントディスプレイ(HMD)などを含む。
[0014]いくつかの実施形態では、ディスプレイ108は、1つまたは複数の十分に透過的な部分を有する光透過型ディスプレイ(optical see−through display)であってもよい。そのようなディスプレイは、それを介して物理的環境がユーザに可視である(1つまたは複数の)透過的な部分を介して写実的に表されたビューを提供する。しかし、他の実施形態では、ディスプレイ108は、その環境の空間モデルの完全にレンダリングされた画像を表示することによって、写実的に表されたビューを提供するように構成された没頭型ディスプレイであってもよい。
[0015]ディスプレイシステム106は、写実的に表されたビューを拡張するためのテーマを選択する入力を含めて、1つまたは複数のユーザ入力を(例えば、入力デバイスを経由して)受けるように構成される。それに応じて、ディスプレイシステム106は、物理的特徴104など、そのテーマに従って拡張され得る環境内の物理的特徴(例えば、物体、人々、建物など)を識別し、次いで、(例えば、写実的に表されたビューの少なくともいくつかを依然として提供しながら)そのような拡張を表示する。このように、ユーザ102は、その環境自体と多少つながった状態を保ちながら、物理的環境100のテーマに合わせたビューを体験する。
[0016]ある例として、ディスプレイ108は、選択されたテーマに従って物理的環境100を拡張できるように、ユーザ102がオーバーレイしている物理的特徴104として認知する画像を表示することができる。図2を参照して以下でより詳細に記述されるように、そのようなディスプレイシステムは、ディスプレイシステムがその環境の空間モデルを生成するために利用できる、物理的環境100に関する情報を取得するために、デプスカメラ(depth camera)などの画像キャプチャデバイスを利用することができる。このディスプレイシステムは、次いで、そのモデルを解析して、拡張され得るモデル内の特徴を識別することができる。
[0017]図1Aに例示されたようなディスプレイシステム106は、非限定的である点を理解されたい。その他の実施形態では、ディスプレイ108において写実的に表されたビューを提供できるように、ディスプレイシステムの1つまたは複数の構成要素は、外部で実装されてもよい。図1Bは、ディスプレイシステム106Bがディスプレイ108で見るための写実的に表されたビューを提供/送信する、別の例示的な物理的環境内、すなわち、物理的環境100B内のユーザ102の概略図を示す。図3を参照して以下でより詳細に記述されるように、そのようなディスプレイシステムは、例えば、ユーザ102と物理的環境とを追跡して、ユーザの視点から、物理的環境の空間モデルを生成するために、デプスカメラなどの画像キャプチャデバイスが利用され得る。
[0018]ディスプレイシステム(例えば、ディスプレイシステム106、ディスプレイシステム106B)は、任意の適切な様式でテーマベースの拡張を提供するように構成され得る。図2は、写実的に表されたビューのテーマベースの拡張を提供する、ある例示的な方法200を示す。そのような方法は、例えば、その中に格納された命令を実行することによって、ディスプレイシステム(例えば、ディスプレイシステム106、ディスプレイシステム106B)によって提供可能である。
[0019]202で、方法200は、写実的に表されたビューを拡張する際に使用するためのテーマを選択する入力をユーザから受けるステップを含む。そのような入力は、ディスプレイ(例えば、ディスプレイ108)において、もしくは別の場所で表示されるユーザ選択可能ボタン、仮想ボタン、またはその他のユーザインターフェースなど、ディスプレイシステムと通信するように構成された入力デバイスから受けることができる。
[0020]204で、方法200は、物理的環境の環境情報を光学的に、かつリアルタイムで取得するステップを含む。そのような環境情報は、物理的環境と、図1Aに例示された物理的環境100の物理的特徴104など、その特徴とを記述する何らかの適切な情報であってもよい。適切な環境情報の例は、(例えば、色彩情報、奥行き情報、赤外線情報など)画像データ、寸法データ、表面データ、動きデータ、音声データなどを含むが、これらに限定されない。
[0021]ディスプレイシステム(例えば、ディスプレイシステム106、ディスプレイシステム106B)は、任意の適切な様式で物理的環境(例えば、物理的環境100、物理的環境100B)の環境情報を取得するように構成され得る。非限定的な例として、ディスプレイシステムは、そのような環境情報を光学的に、かつリアルタイムで取得するように構成された、1つまたは複数のセンサをさらに含むことが可能である。したがって、方法200は、206に示されるように、ディスプレイに関連する1つまたは複数のセンサを経由して環境情報を検出するステップを含むことが可能である。
[0022]いくつかの実施形態では、そのような(1つまたは複数の)センサは、ユーザ102の視点から環境情報をキャプチャできるように、ディスプレイ108の近位に配置されてもよい。図1Aは、ディスプレイ108に関連し、かつディスプレイ108の近位に配置された、そのようなある例示的なセンサ110を示す。しかし、別の例として、図1Bは、ディスプレイ108に関連するが、ディスプレイ108から離れて配置された、ある例示的なセンサ110Bを示す。後者の場合、ディスプレイシステム106Bは、検出された情報に基づいて、ユーザ102の視点を判断するように構成され得る。非限定的な例として、センサは、物理的環境とその特徴の観察された場面とを視覚的に監視または追跡する、デプスカメラなどのキャプチャデバイスを含むことが可能である。中でも、ディスプレイシステム106Bがユーザの現在の視点および/または変化する視点を反映する写実的に表されたビューを提供できるように、ユーザ102の位置および向きを追跡することによって、ディスプレイシステム106Bは情報をディスプレイ108に送信することができる。
[0023]208で、方法200は、環境情報に基づいて、物理的環境の空間モデルを生成するステップを含む。そのような空間モデルは、二次元モデル、三次元モデルなど、ユーザの視点から物理的環境を表すための任意の適切なモデルであってもよい。空間モデルは、ユーザの眺めから、物理的環境の写実的に表されたビュー内のほぼどんな1つまたは複数の物理的な特徴の表現も含むことができる。詳細には、空間モデルは、物理的環境の表現と、物理的環境内の物体の表現とを含む。空間モデルは、したがって、環境内の物体の空間的な配置と、互いに対する相対的は配置とを示す。ある非限定的な例として、空間モデルは、コンピュータ生成されたモデルであってもよい。加えて、変化するユーザの視点を明らかにするために、モデルはリアルタイムで動的に更新され得る。
[0024]図3は、奥行き画像解析を用いたディスプレイシステムの事例に関する空間モデルを形成するステップのある例示的な概略図を示す。図3は、センサ110が観察された場面112を検出する図1Aを参照して以下でより詳細に議論されるが、そのような議論は、センサ110Bが観察された場面112Bを検出する図1Bにも適用できる点を理解されたい。前者の場合、センサ110は、ディスプレイ108の近位に配置され、したがって、取得される環境情報は、既に、ユーザの視点からである(例えば、センサは、ユーザの頭の動きの結果として狙いを定める)。後者の場合、センサ110Bはディスプレイ108から離れて配置されているため、ディスプレイシステムは、ユーザの眺めから物理的環境の空間モデルを生成するために、環境情報からユーザの視点(例えば、身体的な位置/向き、視線など)を判断することができる。
[0025]図3を続けると、ディスプレイシステム106の奥行き画像解析システムは、センサ110(例えば、デプスカメラ)を利用して、センサ110によって観察された、観察された場面112内の物理的環境100の物理的特徴(例えば、物体、人々など)を視覚的に監視または追跡することができる。示される例では、犬104cの形の物理的特徴がセンサ110によって追跡される。図3で例示されるシナリオは、ある例として提供されるが、限定的であることが決して意図されない点を理解されたい。反対に、例示されるシナリオは、本開示の範囲から逸脱せずに、様々な異なる用途に適用され得る概括的な概念を明示することが意図される。したがって、観察された場面112内のその他の物理的特徴は、加えて、またはその代わりに、センサ110によって追跡されることもある。
[0026]図3は、仮想アバター316を生成するために使用され得る仮想骨格338として、観察された場面112内の犬104cがモデル形成される簡素化された処理パイプラインを示す。環境内の物理的特徴のそれぞれをそのようにモデル形成することによって、その環境の空間モデルが生成され得る。したがって、アバター、仮想物体、表面、床などは、その物理的な対照物の追跡された配置、向き、動きなどを正確に表すために、空間モデル内で適切にパラメーター化され、それにより、物理的環境の正確な表現を提供する空間モデルを生み出す。処理パイプラインは、本開示の範囲から逸脱せずに、図3に示されたステップ以外の追加のステップおよび/または代替のステップを含むことが可能である点を理解されよう。
[0027]図3に示されるように、簡素化された処理パイプラインは、対象(例えば、犬104c)が、センサ110(例えば、デプスカメラ)などのキャプチャデバイスによって撮像されることから始まる。環境内のいくつかの対象、ならびに環境自体(例えば、壁、床など)も撮像可能である点を理解されたい。デプスカメラは、それぞれの画素に関して、デプスカメラに対して、観察された場面内の表面の奥行きを判断することができる。本開示の範囲から逸脱せずに、事実上、いかなる奥行き検出技術が使用されもよい。例示的な奥行き検出技術の例は、図5のキャプチャデバイス518を参照してより詳細に議論される。
[0028]奥行きマップ(depth map)336を生成するために、それぞれの画素に関して判断された奥行き情報が使用され得る。そのような奥行きマップは、観察された場面のそれぞれの画素に関する奥行き値を含むマトリックスに限定されないが、そのようなマトリックスを含めて、事実上、いかなる適切なデータ構造の形をとってもよい。図3では、奥行きマップ336は、対象の輪郭の画素化されたグリッドとして概略的に示される。この例示は、技術的な精度に関するものではなく、理解し易くするためである。奥行きマップは、概して、対象を撮像する単なる画素ではなく、すべての画素に関する奥行き情報を含み、センサ110の眺めは結果として図3に示される輪郭をもたらさない点を理解されたい。
[0029]いくつかの実施形態では、仮想骨格338は、対象の機械可読表現を提供するために、奥行きマップ336から導出され得る。すなわち、仮想骨格338は、対象をモデル形成するために、奥行きマップ336から導出され得る。仮想骨格338は、任意の適切な様式で奥行きマップから導出され得る。いくつかの実施形態では、1つまたは複数の骨格調整アルゴリズム(skeletal fitting algorithms)が奥行きマップに適用され得る。本開示は、事実上、いかなる骨格モデル形成技法とも互換性がある。
[0030]仮想骨格338は、複数の関節を含むことが可能であり、それぞれの関節は対象の一部に対応する。図3では、仮想骨格338は、多関節棒線図として示される。この例示は、技術的な精度に関するものではなく、理解し易くするためである。本開示による仮想骨格は、そのそれぞれが、事実上、任意の数のパラメーター(例えば、三次元の関節位置、関節回転、対応する身体部分の体位(例えば、開いた手、握った手など)など)に関連し得る、任意の数の関節を含むことが可能である。仮想骨格は、複数の骨格関節のそれぞれに関する1つまたは複数のパラメーター(例えば、それぞれの関節に関するx位置、y位置、z位置、および回転を含む関節マトリックス)を含めて、データ構造の形をとってよい点を理解されたい。いくつかの実施形態では、(例えば、ワイヤーフレーム、形状プリミティブ(shape primitives)のセットなど)他のタイプの仮想骨格が使用され得る。
[0031]図3に示されるように、仮想アバター316が生成され得る。そのようなアバターは、その環境に対応する空間モデル内の対象の仮想表現を提供する。より詳細には、仮想骨格338は、追跡された対象をモデル形成し、仮想骨格338に基づいて仮想アバター316が生成されるため、仮想アバター316は、空間モデル内の対象のデジタル表現として機能する。そのように空間モデルを生成することによって、空間モデルの任意の1つまたは複数の部分が、オプションで、表示のためにレンダリングされ得る点を理解されたい。さらに、そのような空間モデルは、そのモデル内のデジタル表現の特性が修正されて、表示のためにレンダリングされ得るという点で拡張をサポートする。
[0032]物理的環境内の物体をモデル形成するための上述の技法は単一の対象をモデル形成することに関するが、そのような記述は非限定的である点を理解されたい。したがって、本開示の範囲から逸脱せずに、上述の技法を使用して、いくつかの対象がモデル形成され得る。また、上に示されたように、床、壁、天井など、動く対象以外の物理的特徴がモデル形成されることも可能である。
[0033]このように、物理的環境とその特徴とをモデル形成することによって、物理的環境の空間モデルが生成され得る。環境情報は光学的に、かつリアルタイムで取得され得るため、空間モデルがリアルタイムで生成および/または更新可能であるだけでなく、さらに、空間モデルは事前に設定されたデータに依存する必要がない。したがって、従来のシミュレーション環境と異なり、ユーザは、ディスプレイシステムがそれに関して(例えば、事前に構成された空間モデル、GPSデータなど)既存の知識をわずかに有するか、または既存の知識を全く有さない「新しい」環境内でそのようなディスプレイシステムを利用することができる。したがって、ユーザは、それに関してシステムが事前の情報を有さない新しい環境を含めて、様々な異なる物理的環境に関するテーマベースの拡張を体験することができる。
[0034]図2に戻ると、空間モデルを生成するとすぐに、方法200は、次に、210で、空間モデルの解析を介して、それぞれが物理的環境内の1つまたは複数の物理的特徴に対応する、空間モデル内の1つまたは複数の特徴を識別するステップを含む。このように、ディスプレイシステムは、環境のユーザのビュー内の特徴を判断する。そのような解析は、物体認識、ジェスチャー認識、顔認識、ボイス認識、音声認識など、任意の適切な解析を含むことが可能である。いくつかの事例では、そのような解析は、(例えば、物体の寸法を示す)概括的な記述などを生み出すことが可能であるのに対して、他の事例では、そのような解析は、(例えば、物体が犬であることを示す)より詳細な記述を生み出すことが可能である。
[0035]図2を続けると、212で、方法200は、次に、そのような解析に基づいて、1つまたは複数の識別された特徴の1つまたは複数の拡張をディスプレイ(例えば、ディスプレイ108)において表示するステップを含む。いくつかの実施形態では、この拡張は、例えば、物理的環境の写実的に表されたビューのうちの少なくとも一部を依然として提供しながら表示され得る。(1つまたは複数の)拡張は、ユーザによって選択されたテーマに関連する。いくつかの実施形態では、(1つまたは複数の)拡張は、そのテーマに関連する複数の拡張から選択されることがあり、そのような選択は、214に示されるように、空間モデル内で識別された特徴に基づく。例えば、大きな物体が空間モデル内で識別された場合、そのテーマに関連して利用可能な拡張から、寸法の点で類似の程度の拡張が選択され得る。例えば、長椅子など、居間の比較的大きな物体は、結果として、テーマ内の特定の利用可能な拡張(例えば、中世のテーマで、大きな城)を使用させることが可能である。自然/森林のテーマを仮定すると、物理的環境内の背が高く細い物体は仮想木でオーバーレイされ得る。
[0036]表示される拡張は、ユーザに提供される写実的に表されたビューを拡張する、事実上、いかなるタイプの仮想画像であってもよい。ある例として、216に示されるように、ユーザの視点から、物理的環境内の対応する物理的特徴をオーバーレイする画像が表示され得る。ある非限定的な例として、空間モデル内で識別された特徴に仮想皮膚が適用されることもあり、仮想皮膚の画像が表示され得る。この皮膚はモデル内の特徴に適用されたため、表示される皮膚は、ユーザによれば、その環境内の対応する物理的特徴をオーバーレイするように見えることになる。
[0037]図4は、図1Aのユーザ102に関するある例を示し、ユーザは中世のテーマを選択した。この例では、ディスプレイシステム106は、物理的環境100の空間モデルを生成して、物理的特徴、すなわち、ソファー104aと、コーヒーテーブル104bと、犬104cとを識別した。そのような解析に基づいて、400で拡張されたビュー内で例示される、写実的に表されたビューの拡張がディスプレイ108に表示される。そのような拡張を表示することは、ユーザがソファー104a上にオーバーレイされた城402と、コーヒーテーブル104b上にオーバーレイされた緑樹404と、犬104c上にオーバーレイされた衣装406とを見ることを可能にする。これらの拡張の表示は空間モデルの解析に基づくため、これらの拡張は物理的環境に合わせてカスタマイズされる。例えば、城402は、ソファー104aの寸法および特徴に対応するようにカスタマイズされ得る。さらに、新しい環境情報が取得されるにつれて、空間モデルはリアルタイムで更新され得るため、これらの拡張の表示もリアルタイムで更新され得る。したがって、ユーザが物理的環境の中を移動する際に、これらの拡張の表示を維持することができ、ユーザがテーマベースの体験を続けることを可能にする。したがって、これらの拡張の表示はいかなる意味でも「静的」ではない。反対に、ユーザが移動するにつれて、ユーザの動的な変化する視点に従って拡張が継続的に表示されるように、これらの拡張の表示は動的に調整されてもよい。
[0038]図4に例示されるシナリオは、ある例として提供され、限定的であることが決して意図されない点を理解されたい。反対に、例示されるシナリオは、本開示の範囲から逸脱せずに、様々な異なる用途に適用され得る概括的な概念を明示することが意図される。
[0039]図2を続けると、この拡張は、任意の適切な様式で表示されてもよい。例えば、光透過型ディスプレイの場合、ユーザは、ディスプレイの光透過部分によって提供される写実的に表されたビューを経由して、その環境を既に見ている可能性がある。そのような場合、ユーザの視点から、物理的環境内の対応する物理的特徴をオーバーレイする仮想物体の1つまたは複数の画像がディスプレイ上に表示され得る。したがって、218に示されるように、表示された画像はユーザのビューを拡張する。このようにして、自らの環境自体と多少つながった状態を保ちながら、その環境のテーマベースの体験がユーザに提供される。
[0040]あるいは、没頭型ディスプレイの場合、ユーザは、空間モデルの完全にレンダリングされた画像を介して提供された写実的に表されたビューを経由してその環境を既に見ている可能性がある(例えば、ユーザがそのディスプレイの光透過部分を介して場面を直接的に見るのではなく、ディスプレイ全体がレンダリングされる)。そのような場合、空間モデル内で識別された1つまたは複数の特徴は修正されることがあり、それに応じて、空間モデルのそのような修正を反映する、空間モデルの完全にレンダリングされた画像が表示され得る。空間モデル内で識別された特徴は十分に保持され得るため、220に示されるように、ユーザは、環境内の物理的特徴のオーバーレイとして、それらの修正を認識することができる。
[0041]したがって、ディスプレイが光透過型ディスプレイであるか、または没頭型ディスプレイであるかにかかわらず、その環境自体と多少つながった状態を保ちながら、その環境のテーマベースの体験がユーザに提供される。すなわち、典型的には、例えば、物理的環境の正確なビューに、写真のような、比較的高いレベルの忠実性(fidelity)を提供して、表示される内容の一部がフォトレプリゼンタティブ状態に留まる。すなわち、いくつかの事例では、空間モデルに応答して選択された適切なテーマベースの修正を用いて、物理的環境全体がオーバーレイされること、覆われる(skinned)ことなどが可能である。
[0042]さらに、ディスプレイシステムは環境情報を光学的に、かつリアルタイムで取得するため、222に示されるように、ユーザが物理的環境の中を移動するにつれて、拡張の表示が維持され得る。すなわち、ユーザが物理的環境内で移動するにつれて、拡張が動的に表示され、その結果として、写実的に表されたビュー内に変更をもたらすことが可能である。いくつかの実施形態では、これは、ユーザの視点がやはりリアルタイムで変更する場合ですら、ユーザの視点に従って、表示された拡張が引き続き表示されるように、拡張および/または空間モデルを修正するステップを含むことが可能である。したがって、ユーザがその環境の中を移動するにつれて、かつ/またはその環境と相互作用するにつれて、ユーザはテーマベースの体験を自然に続けることができる。
[0043]いくつかの実施形態では、上述の方法およびプロセスは、1つまたは複数のコンピュータを含むコンピューティングシステムに連結され得る。詳細には、本明細書に記述される方法およびプロセスは、コンピュータアプリケーション、コンピュータサービス、コンピュータAPI、コンピュータライブラリ、および/またはその他のコンピュータプログラム製品として実施され得る。
[0044]図5は、上述の方法およびプロセスのうちの1つまたは複数を実行することが可能な非限定的なコンピューティングシステム500を概略的に示す。コンピューティングシステム500は簡素化された形で示される。本開示の範囲から逸脱せずに、事実上、いかなるコンピュータアーキテクチャが使用されてもよい点を理解されたい。様々な実施形態で、コンピューティングシステム500は、メインフレームコンピュータ、サーバーコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ホーム・エンターテイメント・コンピュータ、ネットワーク・コンピューティング・デバイス、モバイル・コンピューティングデバイス、モバイル通信デバイス、ゲームデバイスなどの形をとってもよい。
[0045]コンピューティングシステム500は、論理サブシステム502とデータ保持サブシステム504とを含む。コンピューティングシステム500は、ディスプレイサブシステム506、通信サブシステム508、環境サブシステム510、解析サブシステム512、および/または図5に示されない他の構成要素をオプションで含むことが可能である。コンピューティングシステム500は、例えば、キーボード、マウス、ゲームコントローラ、カメラ、マイクロフォン、および/またはタッチスクリーンなどのユーザ入力デバイスをオプションで含むことも可能である。
[0046]論理サブシステム502は、1つまたは複数の命令を実行するように構成された1つまたは複数の物理的デバイスを含むことが可能である。例えば、論理サブシステムは、1つもしくは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、構成要素、データ構造、またはその他の論理的構造の一部である、1つもしくは複数の命令を実行するように構成され得る。そのような命令は、タスクを実行するため、データタイプを実行するため、1つもしくは複数のデバイスの状態を変更するため、またはそうでない場合、所望される結果を達するために実施され得る。
[0047]論理サブシステムは、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含むことが可能である。加えて、またはその代わりに、論理サブシステムは、ハードウェア命令またはファームウェア命令を実行するように構成された1つもしくは複数のハードウェア論理マシンあるいはファームウェア論理マシンを含むことが可能である。論理サブシステムのプロセッサは、シングルコアであってもよく、またはマルチコアであってもよく、プロセッサにおいて実行されるプログラムは、並行処理用に構成されても、または分散型処理用に構成されてもよい。論理サブシステムは、遠隔で配置されてもよく、かつ/または協調的な処理用に構成されてもよい、2つ以上のデバイスを通して分散された個々の構成要素をオプションで含むことが可能である。論理サブシステムの1つまたは複数の態様は、仮想化されて、クラウドコンピューティング構成で構成された、遠隔でアクセス可能なネットワーク接続されたコンピューティングデバイスよって実行可能である。
[0048]データ保持サブシステム504は、ディスプレイと1つもしくは複数のセンサ(例えば、センサ516)とに動作可能に結合され得、本明細書に記述される方法およびプロセスを実行するために論理サブシステムによって実行可能なデータならびに/または命令を保持するように構成された、1つもしくは複数の物理的な非一時的デバイスを含むことが可能である。そのような方法およびプロセスが実施されるとき、データ保持サブシステム504の状態は(例えば、異なるデータを保持するように)変換され得る。
[0049]データ保持サブシステム504は、取外し可能媒体および/または内蔵型デバイスを含むことが可能である。データ保持サブシステム504は、中でも、(例えば、CD、DVD、HD−DVD、Blu−Rayディスクなど)光メモリデバイス、(例えば、RAM、EPROM、EEPROMなど)半導体メモリデバイス、および/または(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRAMなど)磁気メモリデバイスを含むことが可能である。データ保持サブシステム504は、以下の特性、すなわち、揮発性特性、不揮発性特性、動的特性、静的特性、読取り/書込み特性、読取り専用特性、ランダムアクセス特性、シーケンシャルアクセス特性、位置アドレス可能(location addressable)特性、ファイルアドレス可能(file addressable)特性、およびコンテンツアドレス可能(content addressable)特性のうちの1つまたは複数を備えたデバイスを含むことが可能である。いくつかの実施形態では、論理サブシステム502およびデータ保持サブシステム504は、特定用途向け集積回路またはシステムオンチップなど、1つもしくは複数の共通デバイス内に統合され得る。
[0050]図5は、本明細書に記述される方法とプロセスとを実施するために実行可能なデータおよび/もしくは命令を記憶ならびに/または転送するために使用され得る、取外し可能なコンピュータ可読記憶媒体514の形のデータ保持サブシステムのある態様をやはり示す。取外し可能なコンピュータ可読記憶媒体514は、中でも、CD、DVD、HD−DVD、Rlu−Rayディスク、EEPROM、および/またはフロッピー(登録商標)ディスクの形をとってもよい。
[0051]データ保持サブシステム504は、1つまたは複数の物理的な非一時的デバイスを含む点を理解されたい。対照的に、いくつかの実施形態では、本明細書に記述される命令の態様は、少なくとも有限存続期間にわたって物理的デバイスによって保持されないピュアな信号(pure signal)(例えば、電磁信号、光信号など)によって一時的な形で伝搬され得る。さらに、本開示に関するデータおよび/または他の形の情報はピュアな信号によって伝搬され得る。
[0052]ディスプレイサブシステム506は、含まれるとき、データ保持サブシステム504によって保持されるデータの視覚的表現(例えば、仮想アバターおよび/または三次元仮想世界)を提示するために使用され得る。本明細書で開示される方法およびプロセスはデータ保持サブシステムによって保持されるデータを変更し、それにより、データ保持サブシステムの状態を変換するため、ディスプレイサブシステム506の状態も同様に変換されて、基礎となるデータ内の変更を視覚的に表すことが可能である。例えば、コンピューティングシステム500は、ディスプレイサブシステム506のディスプレイデバイスにおいて表示するために運転ゲームをレンダリングするように構成され得る。したがって、コンピューティングシステム500は、運転ゲームインターフェースをディスプレイデバイスに出力するためのディスプレイ出力を含むことが可能である。ディスプレイサブシステム506は、事実上、いかなるタイプの技術も利用する、1つまたは複数のディスプレイデバイスを含むことが可能である。そのようなディスプレイデバイスは共有筐体内で論理サブシステム502および/もしくはデータ保持サブシステム504と組み合わされてもよく、またはそのようなディスプレイデバイスは、ディスプレイ出力を介して論理サブシステムに接続された周辺ディスプレイデバイスであってもよい。
[0053]含まれるとき、通信サブシステム508は、コンピューティングシステム500を1つまたは複数の他のコンピューティングデバイスと通信可能に結合するように構成され得る。通信サブシステムは、1つもしくは複数の異なる通信プロトコルと互換性のある有線通信デバイスおよび/または無線通信デバイスを含むことが可能である。非限定的な例として、通信サブシステムは、無線電話ネットワーク、無線ローカルエリアネットワーク、有線ローカルエリアネットワーク、無線広域ネットワーク、有線広域ネットワークなどを経由して通信するように構成され得る。いくつかの実施形態では、通信サブシステムは、コンピューティングシステム500が、インターネットなどのネットワークを経由して、他のデバイスにメッセージを送信すること、および/または他のデバイスからメッセージを受けることを可能にできる。
[0054]環境サブシステム510は、環境情報を光学的に、かつリアルタイムで取得するための1つまたは複数のセンサ516を含むことが可能である。センサ516は、1つもしくは複数の対象の奥行き画像を取得するように構成された統合キャプチャデバイスおよび/または周辺キャプチャデバイス518を含むことが可能である。いずれの場合も、コンピューティングシステム500は、デプスカメラから奥行き画像を受け、受けた奥行き画像を処理のために論理サブシステムに配信するための周辺入力を含むことが可能である。キャプチャデバイス518は、任意の適切な技法(例えば、飛行時間(time−of−flight)、構造化光(structured light)、ステレオ画像(stereo image)など)により奥行き情報を有するビデオをキャプチャするように構成され得る。したがって、キャプチャデバイス518は、デプスカメラ、ビデオカメラ、ステレオカメラ、および/またはその他の適切なキャプチャデバイスを含むことが可能である。
[0055]例えば、飛行時間解析では、キャプチャデバイス518は、赤外線を対象に放射することが可能であり、次いで、センサを使用して、対象の表面から後方散乱した光を検出することが可能である。いくつかの事例では、パルス赤外線が使用されてもよく、出射光パルスと対応する入射光パルスとの間の時間が測定されて、キャプチャデバイスから対象上の特定の位置までの物理的距離を判断するために、その時間が使用され得る。いくつかの事例では、位相偏移を判断するために、出射光波の位相が入射光波の位相と比較され得、キャプチャデバイスから対象上の特定の位置までの物理的距離を判断するために、位相偏移が使用され得る。
[0056]別の例では、シャッター光パルス結像(shuttered light pulse imaging)などの技法によって、光の反射ビームの強度を経時的に解析することによって、キャプチャデバイスから対象上の特定の位置までの物理的距離を間接的に判断するために、飛行時間解析が使用され得る。
[0057]別の例では、奥行き情報をキャプチャするために、キャプチャデバイス518によって構造化光解析が利用され得る。そのような解析では、パターン化された光(例えば、グリッドパターン、ストライプパターン、ドットのコンステレーション(constellation of dots)など、知られているパターンとして表示された光)が対象上に投影され得る。対象の表面を照らすとすぐに、そのパターンは変形し、キャプチャデバイスから対象上の特定の位置までの物理的距離を判断するために、パターンのこの変形が調査され得る。
[0058]別の例では、キャプチャデバイスは、視覚的なステレオデータを取得するために、異なる角度からターゲットを見る、1つまたは複数の物理的に分離されたカメラを含むことが可能である。そのような場合、奥行き画像を生成するために、視覚的ステレオデータが解決され得る。
[0059]他の実施形態では、キャプチャデバイス518は、他の技術を利用して、奥行き値を測定および/または計算することが可能である。加えて、キャプチャデバイス518は、計算された奥行き情報を「Z」個の層、例えば、その見通し線に沿ってデプスカメラからその対象まで伸びるZ軸に対して直角な層に組織化することが可能である。
[0060]いくつかの実施形態では、2つ以上の異なるカメラが統合キャプチャデバイス内に組み込まれることが可能である。例えば、デプスカメラおよびビデオカメラ(例えば、RGBビデオカメラ)が共通キャプチャデバイス内に組み込まれてもよい。いくつかの実施形態では、2つ以上の別個のキャプチャデバイスが協働的に使用され得る。例えば、デプスカメラと、別個のビデオカメラとが使用されてもよい。ビデオカメラが使用されるとき、そのビデオカメラは、対象追跡データ、ならびに対象追跡の誤り訂正、画像キャプチャ、顔認識、指(もしくは、その他の小さな特徴)の高精度追跡、光感知、および/またはその他の機能に関する確認データを提供するために使用され得る。
[0061]環境サブシステム510は、環境情報に基づいて、物理的環境の空間モデルを生成するようにさらに構成され得る。少なくともいくつかの対象解析動作および対象追跡動作が1つまたは複数のキャプチャデバイスの論理マシンによって実行され得る点を理解されたい。キャプチャデバイスは、1つもしく複数の対象解析機能および/または対象追跡機能を実行するように構成された1つもしくは複数のオンボード処理ユニットを含むことが可能である。キャプチャデバイスは、そのようなオンボード処理論理の更新を円滑にするためのファームウェアを含むことが可能である。
[0062]コンピューティングシステム500は、入力デバイス520など、1つまたは複数の入力デバイスをオプションで含むことが可能である。例えば、写実的に表されたビューを拡張するためのテーマを選択するユーザ入力を受けるために、入力デバイス520が利用され得る。コンピューティングシステムの動作を制御するために、入力デバイスが使用され得る。ゲームの文脈で、本明細書に記述された対象認識、対象追跡、ならびに対象解析の方法および手順によって制御されないゲームの側面を制御するために、入力デバイスが使用され得る。いくつかの実施形態では、入力デバイスは、物理的空間内でコントローラの動きを測定するために使用され得る、加速度計、ジャイロスコープ、赤外線ターゲットシステム/赤外線センサシステムなどのうちの1つまたは複数を含むことが可能である。いくつかの実施形態では、コンピューティングシステムは、入力グラブ、キーボード、マウス、トラックパッド、トラックボール、タッチスクリーン、ボタン、スイッチ、ダイアル、および/またはその他の入力デバイスをオプションで含むこと、ならびに/または利用することが可能である。理解されるように、ゲームコントローラなど、入力デバイスによって従来制御されたゲーム、もしくはその他のアプリケーションの側面を制御または拡張するために、対象認識、対象追跡、および対象解析が使用され得る。いくつかの実施形態では、他の形態のユーザ入力に対する完全な置換として本明細書に記述された対象追跡が使用され得るのに対して、他の実施形態では、1つまたは複数の他の形態のユーザ入力を補間するために、そのような対象追跡が使用され得る。
[0063]解析サブシステム512は、次いで、環境サブシステム510によって生み出された空間モデルを解析するように構成され得る。そのような解析は、物体認識、ジェスチャー認識、顔認識、ボイス認識、音声認識、および/または任意のその他の適切なタイプの解析を含むことが可能である。
[0064]本明細書に記述された構成および/または手法は、本質的に例示であり、数多くの改変が可能であるため、これらの特定の実施形態または例は限定的な意味で考察されるべきではない点を理解されたい。本明細書に記述された特定のルーチンまたは方法は、任意の数の処理戦略のうちの1つまたは複数を表す場合がある。したがって、例示された様々な活動は、例示された順序で実行されても、他の順序で実行されても、並行して実行されても、または、場合によっては、省略されてもよい。同様に、上述のプロセスの順序も変更されてもよい。
[0065]本開示の主題は、本明細書で開示された様々なプロセス、システムおよび構成、その他の特徴、機能、活動、ならびに/または特性のみならず、それらの何らかの均等物およびすべての均等物のすべての新規性があり、かつ自明でない組合せとサブコンビネーションとを含む。

Claims (10)

  1. ユーザの視点からの、前記ユーザが位置する物理的環境の写実的に表されたビューを提供するように構成されたディスプレイにおいて、前記写実的に表されたビューのテーマベースの拡張を実現する方法であって、
    前記写実的に表されたビューを拡張する際に使用するためのテーマを選択する入力を前記ユーザから受けるステップと、
    前記物理的環境の環境情報を光学的にリアルタイムで取得するステップと、
    前記環境情報に基づいて、前記物理的環境の空間モデルを生成するステップと、
    前記空間モデルの解析を介して、それぞれが前記物理的環境内の1つまたは複数の物理的特徴に対応する、前記空間モデル内の1つまたは複数の特徴を識別するステップと、
    前記解析に基づいて、前記テーマに関連した、識別された特徴の拡張を前記ディスプレイ上に表示するステップと
    を含む方法。
  2. 請求項1に記載の方法であって、前記空間モデルの解析時に、前記テーマに関連する複数の拡張から前記拡張を選択するステップをさらに含み、前記選択が識別された前記1つまたは複数の特徴に基づく、方法。
  3. 請求項1に記載の方法であって、前記拡張を表示するステップが、前記識別された特徴に対応する、前記物理的環境内の前記物理的特徴を前記ユーザの視点からオーバーレイする画像を表示するステップを含む、方法。
  4. 請求項1に記載の方法であって、前記ディスプレイは、前記物理的環境が前記ユーザに可視である前記ディスプレイの1つまたは複数の十分に透過的な部分を介して、前記写実的に表されたビューを提供するように構成された光透過型ディスプレイである、方法。
  5. 請求項4に記載の方法であって、前記拡張を表示するステップが、仮想物体を前記空間モデルの識別された前記特徴上にオーバーレイするステップと、前記仮想物体の画像を表示するステップであって、該画像は、前記ディスプレイを介して前記ユーザに可視である、前記物理的環境内の前記対応する物理的特徴を前記ユーザの視点からオーバーレイする、ステップとを含む、方法。
  6. 請求項1に記載の方法であって、前記ディスプレイが、前記空間モデルの完全にレンダリングされた画像を表示することによって、前記写実的に表されたビューを提供するように構成された没頭型ディスプレイである、方法。
  7. 請求項6に記載の方法であって、前記拡張を表示するステップが、前記空間モデル内で識別された1つまたは複数の特徴を修正するステップと、それに応じて、前記空間モデルの前記修正を反映する、前記空間モデルの完全にレンダリングされた画像を表示するステップとを含む、方法。
  8. 請求項1に記載の方法であって、前記ユーザが前記物理的環境の中を移動する際に、前記拡張の表示を維持するステップをさらに含む、方法。
  9. ディスプレイ出力を介してテーマベースの拡張を提供するためのディスプレイシステムであって、
    ユーザの視点からの、前記ユーザが位置する物理的環境の写実的に表されたビューを提供するように構成されたディスプレイと、
    前記物理的環境の環境情報を光学的にリアルタイムで取得するように構成された1つまたは複数のセンサと、
    前記ディスプレイおよび前記1つまたは複数のセンサと動作上結合されたデータ保持サブシステムであって、
    前記写実的に表されたビューを拡張する際に使用するためのテーマを選択する入力を前記ユーザから受けることと、
    前記環境情報に基づいて、前記物理的環境の空間モデルを生成することと、
    前記空間モデルの解析を介して、それぞれが前記物理的環境内の1つまたは複数の物理的特徴に対応する、前記空間モデル内の1つまたは複数の特徴を識別することと、
    前記解析に基づいて、前記テーマに関連した、識別された特徴の拡張を前記ディスプレイ上に表示することと
    を行うために、論理サブシステムによって実行可能な命令を含むデータ保持サブシステムと
    を備えたディスプレイシステム。
  10. 請求項9に記載のディスプレイシステムであって、前記1つまたは複数のセンサが、前記物理的環境の1つまたは複数の奥行き画像を取得するように構成された画像キャプチャデバイスを含む、ディスプレイシステム。
JP2013557791A 2011-03-10 2012-03-05 写実的に表されたビューのテーマベースの拡張 Active JP5976019B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/044,895 US10972680B2 (en) 2011-03-10 2011-03-10 Theme-based augmentation of photorepresentative view
US13/044,895 2011-03-10
PCT/US2012/027787 WO2012122133A2 (en) 2011-03-10 2012-03-05 Theme-based augmentation of photorepresentative view

Publications (3)

Publication Number Publication Date
JP2014515130A true JP2014515130A (ja) 2014-06-26
JP2014515130A5 JP2014515130A5 (ja) 2015-04-09
JP5976019B2 JP5976019B2 (ja) 2016-08-23

Family

ID=46795136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013557791A Active JP5976019B2 (ja) 2011-03-10 2012-03-05 写実的に表されたビューのテーマベースの拡張

Country Status (8)

Country Link
US (1) US10972680B2 (ja)
EP (1) EP2684350A4 (ja)
JP (1) JP5976019B2 (ja)
KR (1) KR101961964B1 (ja)
CN (1) CN102681811B (ja)
AR (1) AR085659A1 (ja)
TW (1) TWI567659B (ja)
WO (1) WO2012122133A2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015118574A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 事前計算された照明による拡張現実環境の構築
JP2016534461A (ja) * 2013-08-30 2016-11-04 クアルコム,インコーポレイテッド 物理的光景を表すための方法および装置
JP2017199238A (ja) * 2016-04-28 2017-11-02 株式会社カプコン 仮想空間表示システム
US9892562B2 (en) 2012-11-05 2018-02-13 Microsoft Technology Licensing, Llc Constructing augmented reality environment with pre-computed lighting
WO2018131238A1 (ja) * 2017-01-16 2018-07-19 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2019155889A1 (ja) * 2018-02-08 2019-08-15 株式会社バンダイナムコスタジオ シミュレーションシステム、処理方法及び情報記憶媒体
JP2020024759A (ja) * 2017-12-28 2020-02-13 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
JP2020074064A (ja) * 2019-09-05 2020-05-14 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
CN111278520A (zh) * 2017-10-24 2020-06-12 Vr考斯特有限及两合公司 用于生成和显示虚拟现实的vr装置
WO2020166352A1 (ja) * 2019-02-13 2020-08-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020173699A (ja) * 2019-04-12 2020-10-22 日産自動車株式会社 映像出力システム及び映像出力方法
WO2022009607A1 (ja) * 2020-07-09 2022-01-13 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2023286321A1 (ja) * 2021-07-12 2023-01-19 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及びプログラム
US11562564B2 (en) 2017-12-28 2023-01-24 Konami Digital Entertainment Co., Ltd. Recording medium, information processing system, and display method
US11832000B2 (en) 2017-12-28 2023-11-28 Konami Digital Entertainment Co., Ltd. Recording medium, information processing system, and display method
WO2024048060A1 (ja) * 2022-08-31 2024-03-07 株式会社Jvcケンウッド 提供装置および提供方法

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10332176B2 (en) 2014-08-28 2019-06-25 Ebay Inc. Methods and systems for virtual fitting rooms or hybrid stores
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
US20120320216A1 (en) * 2011-06-14 2012-12-20 Disney Enterprises, Inc. Method and System for Object Recognition, Authentication, and Tracking with Infrared Distortion Caused by Objects for Augmented Reality
DE102011104524A1 (de) * 2011-06-15 2012-12-20 Ifakt Gmbh Verfahren und Vorrichtung zum Ermitteln und Wiedergeben virtueller ortsbezogener Informationen für einen Raumbereich
US9734633B2 (en) * 2012-01-27 2017-08-15 Microsoft Technology Licensing, Llc Virtual environment generating system
EP2629498A1 (en) * 2012-02-17 2013-08-21 Sony Ericsson Mobile Communications AB Portable electronic equipment and method of visualizing sound
US10067568B2 (en) * 2012-02-28 2018-09-04 Qualcomm Incorporated Augmented reality writing system and method thereof
US9001153B2 (en) * 2012-03-21 2015-04-07 GM Global Technology Operations LLC System and apparatus for augmented reality display and controls
CN103869933B (zh) * 2012-12-11 2017-06-27 联想(北京)有限公司 信息处理的方法和终端设备
DE102012224321B4 (de) * 2012-12-21 2022-12-15 Applejack 199 L.P. Messvorrichtung zum Erfassen einer Schlagbewegung eines Schlägers, Trainingsvorrichtung und Verfahren zum Training einer Schlagbewegung
US10514541B2 (en) * 2012-12-27 2019-12-24 Microsoft Technology Licensing, Llc Display update time reduction for a near-eye display
US9083960B2 (en) 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
US10572118B2 (en) * 2013-03-28 2020-02-25 David Michael Priest Pattern-based design system
US9245387B2 (en) * 2013-04-12 2016-01-26 Microsoft Technology Licensing, Llc Holographic snap grid
US9367960B2 (en) * 2013-05-22 2016-06-14 Microsoft Technology Licensing, Llc Body-locked placement of augmented reality objects
KR102249577B1 (ko) * 2013-05-30 2021-05-07 찰스 안소니 스미스 Hud 객체 설계 및 방법
US9779548B2 (en) * 2013-06-25 2017-10-03 Jordan Kent Weisman Multiuser augmented reality system
US9934611B2 (en) 2013-09-11 2018-04-03 Qualcomm Incorporated Structural modeling using depth sensors
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
KR102197504B1 (ko) * 2013-12-18 2020-12-31 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 사전 계산된 조명으로 증강 현실 환경을 구성하는 기법
US9761049B2 (en) 2014-03-28 2017-09-12 Intel Corporation Determination of mobile display position and orientation using micropower impulse radar
CN103902983A (zh) * 2014-04-14 2014-07-02 夷希数码科技(上海)有限公司 一种穿戴式人脸识别方法及装置
US20170043256A1 (en) * 2014-04-30 2017-02-16 Robert Paul Severn An augmented gaming platform
US10296663B2 (en) * 2014-05-13 2019-05-21 Atheer, Inc. Method for moving and aligning 3D objects in a plane within the 2D environment
US9959675B2 (en) * 2014-06-09 2018-05-01 Microsoft Technology Licensing, Llc Layout design using locally satisfiable proposals
US10529009B2 (en) 2014-06-25 2020-01-07 Ebay Inc. Digital avatars in online marketplaces
US10653962B2 (en) 2014-08-01 2020-05-19 Ebay Inc. Generating and utilizing digital avatar data for online marketplaces
CN106062862B (zh) * 2014-10-24 2020-04-21 杭州凌感科技有限公司 用于沉浸式和交互式多媒体生成的系统和方法
US10091015B2 (en) * 2014-12-16 2018-10-02 Microsoft Technology Licensing, Llc 3D mapping of internet of things devices
US20160224657A1 (en) * 2015-01-30 2016-08-04 Llc Daqri, Llc Digitized interactions with an identified object
CN106033418B (zh) 2015-03-10 2020-01-31 阿里巴巴集团控股有限公司 语音添加、播放方法及装置、图片分类、检索方法及装置
US10799792B2 (en) * 2015-07-23 2020-10-13 At&T Intellectual Property I, L.P. Coordinating multiple virtual environments
US20170256096A1 (en) * 2016-03-07 2017-09-07 Google Inc. Intelligent object sizing and placement in a augmented / virtual reality environment
US10037465B2 (en) 2016-03-18 2018-07-31 Disney Enterprises, Inc. Systems and methods for generating augmented reality environments
US9933855B2 (en) * 2016-03-31 2018-04-03 Intel Corporation Augmented reality in a field of view including a reflection
US10909761B1 (en) 2016-07-07 2021-02-02 Google Llc 2D video with option for projected viewing in modeled 3D space
KR101692267B1 (ko) * 2016-08-25 2017-01-04 지스마트 주식회사 Hmd 유저와 복수의 일반인들 간에 상호작용이 가능한 가상현실 컨텐츠 시스템 및 그 제어방법
US10068379B2 (en) * 2016-09-30 2018-09-04 Intel Corporation Automatic placement of augmented reality models
TWI637287B (zh) * 2016-11-04 2018-10-01 宏達國際電子股份有限公司 在虛擬實境中快速移動的方法、虛擬實境裝置及記錄媒體
GB2555838A (en) * 2016-11-11 2018-05-16 Sony Corp An apparatus, computer program and method
US10359863B2 (en) * 2016-11-15 2019-07-23 Google Llc Dragging virtual elements of an augmented and/or virtual reality environment
US10542300B2 (en) 2017-05-31 2020-01-21 Verizon Patent And Licensing Inc. Methods and systems for customizing virtual reality data
US20190108682A1 (en) 2017-07-28 2019-04-11 Magical Technologies, Llc Systems, Methods and Apparatuses To Create Real World Value And Demand For Virtual Spaces Via An Alternate Reality Environment
US20210166481A1 (en) * 2017-08-04 2021-06-03 Zyetric Enterprise Limited Intelligent virtual object in an augmented reality environment interactively responding to ambient environmental changes
WO2019028479A1 (en) * 2017-08-04 2019-02-07 Magical Technologies, Llc SYSTEMS, METHODS AND APPARATUSES FOR DEPLOYING AND TARGETING VIRTUAL OBJECTS SENSITIVE TO CONTEXT AND MODELING BEHAVIOR OF VIRTUAL OBJECTS BASED ON PHYSICAL PRINCIPLES
US20190107991A1 (en) 2017-09-13 2019-04-11 Magical Technologies, Llc Systems and methods of virtual billboarding and collaboration facilitation in an augmented reality environment
WO2019079826A1 (en) 2017-10-22 2019-04-25 Magical Technologies, Llc DIGITAL ASSISTANT SYSTEMS, METHODS AND APPARATUSES IN AN INCREASED REALITY ENVIRONMENT AND LOCAL DETERMINATION OF VIRTUAL OBJECT PLACEMENT AND SINGLE OR MULTIDIRECTIONAL OBJECTIVES AS GATEWAYS BETWEEN A PHYSICAL WORLD AND A DIGITAL WORLD COMPONENT OF THE SAME ENVIRONMENT OF INCREASED REALITY
US11232502B2 (en) * 2017-12-20 2022-01-25 Signify Holding B.V. Lighting and internet of things design using augmented reality
US10500496B2 (en) * 2018-01-12 2019-12-10 International Business Machines Corporation Physical obstacle avoidance in a virtual reality environment
US10904374B2 (en) 2018-01-24 2021-01-26 Magical Technologies, Llc Systems, methods and apparatuses to facilitate gradual or instantaneous adjustment in levels of perceptibility of virtual objects or reality object in a digital scene
US11398088B2 (en) 2018-01-30 2022-07-26 Magical Technologies, Llc Systems, methods and apparatuses to generate a fingerprint of a physical location for placement of virtual objects
US10803671B2 (en) 2018-05-04 2020-10-13 Microsoft Technology Licensing, Llc Authoring content in three-dimensional environment
CN109344923A (zh) * 2018-08-27 2019-02-15 百度在线网络技术(北京)有限公司 关联物体的显示方法、装置及电子设备
US10783713B2 (en) 2018-09-05 2020-09-22 International Business Machines Corporation Transmutation of virtual entity sketch using extracted features and relationships of real and virtual objects in mixed reality scene
US10664989B1 (en) 2018-12-19 2020-05-26 Disney Enterprises, Inc. Systems and methods to present interactive content based on detection of markers
CN109543663B (zh) * 2018-12-28 2021-04-27 北京旷视科技有限公司 一种犬只身份识别方法、装置、系统及存储介质
US11467656B2 (en) 2019-03-04 2022-10-11 Magical Technologies, Llc Virtual object control of a physical device and/or physical device control of a virtual object
US11335060B2 (en) * 2019-04-04 2022-05-17 Snap Inc. Location based augmented-reality system
US11380070B2 (en) * 2019-10-30 2022-07-05 The Paddock LLC Real-time augmentation of a virtual object onto a real-world object
US11206365B2 (en) * 2020-01-13 2021-12-21 Charter Communications Operating, Llc Method and apparatus for overlaying themed imagery onto real-world objects in a head-mounted display device
US11095855B2 (en) 2020-01-16 2021-08-17 Microsoft Technology Licensing, Llc Remote collaborations with volumetric space indications
US11636726B2 (en) * 2020-05-08 2023-04-25 Aristocrat Technologies, Inc. Systems and methods for gaming machine diagnostic analysis
US11514690B2 (en) 2020-06-30 2022-11-29 Sony Interactive Entertainment LLC Scanning of 3D objects with a second screen device for insertion into a virtual environment
CN113298938A (zh) * 2021-06-23 2021-08-24 东莞市小精灵教育软件有限公司 一种辅助建模方法、系统、可穿戴智能设备及vr设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207575A (ja) * 1999-01-08 2000-07-28 Nadeisu:Kk 空間融合装置及びこれを適用した応用装置
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2006318095A (ja) * 2005-05-11 2006-11-24 Canon Inc 画像処理方法、画像処理装置
JP2009014415A (ja) * 2007-07-02 2009-01-22 National Institute Of Advanced Industrial & Technology 物体認識装置および物体認識方法
JP2009076060A (ja) * 2007-08-29 2009-04-09 Casio Comput Co Ltd 画像合成装置および画像合成処理プログラム
JP2009195707A (ja) * 2008-02-21 2009-09-03 Palo Alto Research Center Inc 位置認識混合現実感ゲームプラットフォーム
JP2009281895A (ja) * 2008-05-23 2009-12-03 Calsonic Kansei Corp 車両用距離画像データ生成装置および車両用距離画像データの生成方法
US20100103075A1 (en) * 2008-10-24 2010-04-29 Yahoo! Inc. Reconfiguring reality using a reality overlay device

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870136A (en) * 1997-12-05 1999-02-09 The University Of North Carolina At Chapel Hill Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications
JP3728160B2 (ja) 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
US6930715B1 (en) * 2000-07-21 2005-08-16 The Research Foundation Of The State University Of New York Method, system and program product for augmenting an image of a scene with information about the scene
GB0111431D0 (en) 2001-05-11 2001-07-04 Koninkl Philips Electronics Nv A real-world representation system and language
US6917370B2 (en) * 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
US7277572B2 (en) * 2003-10-10 2007-10-02 Macpearl Design Llc Three-dimensional interior design system
KR100500898B1 (ko) 2003-12-18 2005-07-18 한국전자통신연구원 공간정보를 이용한 3차원 공간모델링 장치 및 그 방법
US8965460B1 (en) * 2004-01-30 2015-02-24 Ip Holdings, Inc. Image and augmented reality based networks using mobile devices and intelligent electronic glasses
US20160267720A1 (en) * 2004-01-30 2016-09-15 Electronic Scripting Products, Inc. Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
CN101010224B (zh) 2004-09-06 2012-11-14 宝马股份公司 用于检测车辆座位上对象的装置
RU2008110056A (ru) * 2005-08-15 2009-09-27 Конинклейке Филипс Электроникс Н.В. (Nl) Система, устройство и способ для очков расширенной реальности для программирования конечным пользователем
JP5084167B2 (ja) 2006-03-31 2012-11-28 キヤノン株式会社 位置姿勢計測方法及び装置
US9703369B1 (en) * 2007-10-11 2017-07-11 Jeffrey David Mullen Augmented reality video game systems
KR101367282B1 (ko) 2007-12-21 2014-03-12 삼성전자주식회사 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치
US8264505B2 (en) 2007-12-28 2012-09-11 Microsoft Corporation Augmented reality and filtering
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
WO2009094587A1 (en) 2008-01-23 2009-07-30 Deering Michael F Eye mounted displays
KR100912264B1 (ko) 2008-02-12 2009-08-17 광주과학기술원 사용자 반응형 증강 영상 생성 방법 및 시스템
KR100963238B1 (ko) * 2008-02-12 2010-06-10 광주과학기술원 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
WO2009117450A1 (en) * 2008-03-18 2009-09-24 Invism, Inc. Enhanced immersive soundscapes production
US20090313285A1 (en) 2008-06-16 2009-12-17 Andreas Hronopoulos Methods and systems for facilitating the fantasies of users based on user profiles/preferences
US20100110069A1 (en) * 2008-10-31 2010-05-06 Sharp Laboratories Of America, Inc. System for rendering virtual see-through scenes
US8303406B2 (en) 2008-11-24 2012-11-06 Disney Enterprises, Inc. System and method for providing an augmented reality experience
KR101062961B1 (ko) 2009-01-07 2011-09-06 광주과학기술원 증강현실 컨텐츠 저작 시스템과 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
KR101002785B1 (ko) 2009-02-06 2010-12-21 광주과학기술원 증강 현실 환경에서의 공간 상호 작용 방법 및 시스템
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
US20140240313A1 (en) * 2009-03-19 2014-08-28 Real Time Companies Computer-aided system for 360° heads up display of safety/mission critical data
KR101343054B1 (ko) 2009-07-30 2013-12-18 에스케이플래닛 주식회사 사용자 선택 정보에 의해 증강 현실을 제공하는 방법과 그를 위한 서버 및 휴대용 단말기
HU0900478D0 (en) 2009-07-31 2009-09-28 Holografika Hologrameloeallito Method and apparatus for displaying 3d images
KR20110118421A (ko) * 2010-04-23 2011-10-31 엘지전자 주식회사 증강 원격제어장치, 증강 원격제어장치 제어방법 및 그 시스템
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
KR101135186B1 (ko) * 2010-03-03 2012-04-16 광주과학기술원 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
US20110234631A1 (en) * 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
US9122707B2 (en) * 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US9247238B2 (en) * 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8711206B2 (en) * 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US20120194547A1 (en) * 2011-01-31 2012-08-02 Nokia Corporation Method and apparatus for generating a perspective display
US9480907B2 (en) * 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US20120223885A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
US8721337B2 (en) * 2011-03-08 2014-05-13 Bank Of America Corporation Real-time video image analysis for providing virtual landscaping
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
US8743244B2 (en) * 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
US8963956B2 (en) * 2011-08-19 2015-02-24 Microsoft Technology Licensing, Llc Location based skins for mixed reality displays
US9274595B2 (en) * 2011-08-26 2016-03-01 Reincloud Corporation Coherent presentation of multiple reality and interaction models
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US9286711B2 (en) * 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
US9911232B2 (en) * 2015-02-27 2018-03-06 Microsoft Technology Licensing, Llc Molding and anchoring physically constrained virtual environments to real-world environments

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207575A (ja) * 1999-01-08 2000-07-28 Nadeisu:Kk 空間融合装置及びこれを適用した応用装置
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2006318095A (ja) * 2005-05-11 2006-11-24 Canon Inc 画像処理方法、画像処理装置
JP2009014415A (ja) * 2007-07-02 2009-01-22 National Institute Of Advanced Industrial & Technology 物体認識装置および物体認識方法
JP2009076060A (ja) * 2007-08-29 2009-04-09 Casio Comput Co Ltd 画像合成装置および画像合成処理プログラム
JP2009195707A (ja) * 2008-02-21 2009-09-03 Palo Alto Research Center Inc 位置認識混合現実感ゲームプラットフォーム
JP2009281895A (ja) * 2008-05-23 2009-12-03 Calsonic Kansei Corp 車両用距離画像データ生成装置および車両用距離画像データの生成方法
US20100103075A1 (en) * 2008-10-24 2010-04-29 Yahoo! Inc. Reconfiguring reality using a reality overlay device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6015052573; 横小路泰義: '"拡張現実感技術によるイメージオーバレイとカーナビゲーションシステムへの応用"' 映像情報インダストリアル 第35巻,第7号, 20030701, p.11-16, 産業開発機構(株) *
JPN6015052575; 佐藤宏介: '"形を測る"' 映像情報メディア学会誌 第56巻,第4号, 20020401, p.554-557, (社)映像情報メディア学会 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9892562B2 (en) 2012-11-05 2018-02-13 Microsoft Technology Licensing, Llc Constructing augmented reality environment with pre-computed lighting
US10229544B2 (en) 2012-11-05 2019-03-12 Microsoft Technology Licensing, Llc Constructing augmented reality environment with pre-computed lighting
JP2016534461A (ja) * 2013-08-30 2016-11-04 クアルコム,インコーポレイテッド 物理的光景を表すための方法および装置
JP2015118574A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 事前計算された照明による拡張現実環境の構築
JP2017199238A (ja) * 2016-04-28 2017-11-02 株式会社カプコン 仮想空間表示システム
WO2018131238A1 (ja) * 2017-01-16 2018-07-19 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10868977B2 (en) 2017-01-16 2020-12-15 Sony Corporation Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
JPWO2018131238A1 (ja) * 2017-01-16 2019-12-12 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN111278520A (zh) * 2017-10-24 2020-06-12 Vr考斯特有限及两合公司 用于生成和显示虚拟现实的vr装置
JP2021501930A (ja) * 2017-10-24 2021-01-21 ファオエル コースター ゲーエムベーハー ウント コー.カーゲーVR Coaster GmbH & Co. KG 仮想現実を生成し、かつ、表示するためのvr装置
JP7030186B2 (ja) 2017-10-24 2022-03-04 ファオエル コースター ゲーエムベーハー ウント コー.カーゲー 仮想現実を生成し、かつ、表示するためのvr装置
US11832000B2 (en) 2017-12-28 2023-11-28 Konami Digital Entertainment Co., Ltd. Recording medium, information processing system, and display method
US11562564B2 (en) 2017-12-28 2023-01-24 Konami Digital Entertainment Co., Ltd. Recording medium, information processing system, and display method
JP2020024759A (ja) * 2017-12-28 2020-02-13 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
JP7364218B2 (ja) 2017-12-28 2023-10-18 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
JP7041888B2 (ja) 2018-02-08 2022-03-25 株式会社バンダイナムコ研究所 シミュレーションシステム及びプログラム
US11738270B2 (en) 2018-02-08 2023-08-29 Bandai Namco Entertainment Inc. Simulation system, processing method, and information storage medium
JP2019139425A (ja) * 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ シミュレーションシステム及びプログラム
WO2019155889A1 (ja) * 2018-02-08 2019-08-15 株式会社バンダイナムコスタジオ シミュレーションシステム、処理方法及び情報記憶媒体
WO2020166352A1 (ja) * 2019-02-13 2020-08-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11605207B2 (en) 2019-02-13 2023-03-14 Sony Group Corporation Information processing device, information processing method, and program
JP2020173699A (ja) * 2019-04-12 2020-10-22 日産自動車株式会社 映像出力システム及び映像出力方法
JP7315362B2 (ja) 2019-04-12 2023-07-26 日産自動車株式会社 映像出力システム及び映像出力方法
JP2020074064A (ja) * 2019-09-05 2020-05-14 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
WO2022009607A1 (ja) * 2020-07-09 2022-01-13 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2023286321A1 (ja) * 2021-07-12 2023-01-19 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2024048060A1 (ja) * 2022-08-31 2024-03-07 株式会社Jvcケンウッド 提供装置および提供方法

Also Published As

Publication number Publication date
US10972680B2 (en) 2021-04-06
US20120229508A1 (en) 2012-09-13
TWI567659B (zh) 2017-01-21
WO2012122133A2 (en) 2012-09-13
KR20140007427A (ko) 2014-01-17
CN102681811A (zh) 2012-09-19
AR085659A1 (es) 2013-10-16
WO2012122133A3 (en) 2012-11-29
JP5976019B2 (ja) 2016-08-23
CN102681811B (zh) 2018-01-26
EP2684350A4 (en) 2014-08-13
TW201246088A (en) 2012-11-16
KR101961964B1 (ko) 2019-03-25
EP2684350A2 (en) 2014-01-15

Similar Documents

Publication Publication Date Title
JP5976019B2 (ja) 写実的に表されたビューのテーマベースの拡張
US10083540B2 (en) Virtual light in augmented reality
CN108292444B (zh) 更新混合现实缩略图
CN105981076B (zh) 合成增强现实环境的构造
EP2948227B1 (en) Mixed reality experience sharing
US9429912B2 (en) Mixed reality holographic object development
EP2887322B1 (en) Mixed reality holographic object development
US10559130B2 (en) Displaying image data behind surfaces
JP2014509429A (ja) ユーザーインターフェースの提示およびインタラクション
CN112154405B (zh) 三维推送通知
KR20140081840A (ko) 모션으로 제어되는 리스트 스크롤 방법
JP2023520765A (ja) 仮想および拡張現実のためのシステムおよび方法
CA2948761A1 (en) Virtual training system
EP4279157A1 (en) Space and content matching for augmented and mixed reality
Hamadouche Augmented reality X-ray vision on optical see-through head mounted displays

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160719

R150 Certificate of patent or registration of utility model

Ref document number: 5976019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250