JP2019517012A5 - - Google Patents

Download PDF

Info

Publication number
JP2019517012A5
JP2019517012A5 JP2018548381A JP2018548381A JP2019517012A5 JP 2019517012 A5 JP2019517012 A5 JP 2019517012A5 JP 2018548381 A JP2018548381 A JP 2018548381A JP 2018548381 A JP2018548381 A JP 2018548381A JP 2019517012 A5 JP2019517012 A5 JP 2019517012A5
Authority
JP
Japan
Prior art keywords
real object
value
color
background
overlap region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018548381A
Other languages
English (en)
Other versions
JP2019517012A (ja
JP6750025B2 (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/US2017/022578 external-priority patent/WO2017161039A1/en
Publication of JP2019517012A publication Critical patent/JP2019517012A/ja
Publication of JP2019517012A5 publication Critical patent/JP2019517012A5/ja
Application granted granted Critical
Publication of JP6750025B2 publication Critical patent/JP6750025B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明の追加のおよび他の目的、特徴、ならびに利点が、発明を実施するための形態、図、および請求項で説明される。
本発明は、例えば、以下を提供する。
(項目1)
拡張現実(AR)システムを動作させる方法であって、前記方法は、
エンドユーザが周囲環境内の3次元場面からの直接光を可視化することを可能にすることと、
前記エンドユーザの視点からの仮想画像データを生成することと、
前記3次元場面内の実オブジェクトと前記仮想画像データ内の仮想オブジェクトとの間の空間重複の領域を決定することと、
前記重複領域内の前記実オブジェクトの色特性を決定することと、
前記重複領域内の前記実オブジェクトの決定された色特性に基づいて、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることと、
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストが減少させられた後、前記可視化された直接光とともに、仮想画像として前記仮想画像データを前記エンドユーザに表示することにより、3次元拡張場面を作成することと
を含む、方法。
(項目2)
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される色コントラストを修正することを含む、項目1に記載の方法。
(項目3)
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される強度コントラストを修正することをさらに含む、項目2に記載の方法。
(項目4)
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることは、
前記重複領域内の実オブジェクトの決定された色特性に基づいて、干渉データを生成することと、
干渉画像が前記実オブジェクトからの直接光と組み合わさり、前記重複領域内の前記仮想オブジェクトのための背景を作成するように、前記干渉データを前記重複領域を覆う前記干渉画像として前記エンドユーザに表示することと
を含む、項目1に記載の方法。
(項目5)
前記重複領域内の前記背景は、前記重複領域内の前記実オブジェクトに対して減少したダイナミックカラーレンジを有する、項目4に記載の方法。
(項目6)
前記背景は、略均一色を前記重複領域内に有する、項目5に記載の方法。
(項目7)
前記略均一色は、灰色である、項目6に記載の方法。
(項目8)
前記干渉画像は、色を前記重複領域内の前記実オブジェクトに加える、項目4に記載の方法。
(項目9)
前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させることは、前記重複領域内の前記実オブジェクトの決定された色特性に基づいて、前記仮想画像データを修正することを含む、項目1に記載の方法。
(項目10)
前記仮想画像データを修正することは、色を前記重複領域内の前記仮想オブジェクトから減じることを含む、項目9に記載の方法。
(項目11)
前記ユーザの頭部に対して取り付けられている少なくとも1つのカメラを用いて、前記実3次元場面の画像データを捕捉することと、
前記捕捉された画像データを前記ユーザの視点に対してワープさせることと
をさらに含み、
前記実オブジェクトと前記仮想オブジェクトとの間の前記重複領域を決定することは、前記捕捉された画像データ内の対応する実オブジェクトと前記仮想画像データ内の前記仮想オブジェクトとの間の空間重複を決定することを含み、前記重複領域内の前記実オブジェクトの色特性を決定することは、前記重複領域内の前記捕捉された画像データ内の前記対応する実オブジェクトの色特性を決定することを含む、項目1に記載の方法。
(項目12)
前記捕捉された画像データおよび前記仮想画像データの各々は、複数のピクセルを備え、前記複数のピクセルの各々は、少なくとも1つの値によって定義され、前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させることは、前記重複領域内の前記仮想オブジェクトおよび前記捕捉された画像データから導出される干渉データのうちの一方または両方のピクセルの前記少なくとも1つの値を修正することを含む、項目11に記載の方法。
(項目13)
前記ピクセルの各々は、色ベクトルを定義する3つの値を有する、項目12に記載の方法。
(項目14)
前記色ベクトルは、赤色値、緑色値、および青色値を備えている、項目13に記載の方法。
(項目15)
前記ピクセルの各々は、前記ピクセルの強度を定義する第4の値を有する、項目13に記載の方法。
(項目16)
拡張現実(AR)システムであって、前記拡張現実システムは、
エンドユーザが周囲環境内の3次元場面からの直接光を可視化することを可能にするために構成されているディスプレイシステムと、
制御システムと
を備え、
前記制御システムは、
前記エンドユーザの視点からの仮想画像データを生成することと、
前記3次元場面内の実オブジェクトと前記仮想画像データ内の仮想オブジェクトとの間の空間重複の領域を決定することと、
前記重複領域内の前記実オブジェクトの色特性を決定することと、
前記重複領域内の前記実オブジェクトの決定された色特性に基づいて、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることと、
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストが減少させられた後、前記可視化された直接光とともに、仮想画像として前記仮想画像データを前記エンドユーザに表示することにより、3次元拡張場面を作成するように前記ディスプレイシステムに命令することと
を行うめに構成されている、拡張現実システム。
(項目17)
前記制御システムは、前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させるために構成され、前記減少させることは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される色コントラストを修正することを含む、項目16に記載の拡張現実システム。
(項目18)
前記制御システムは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される強度コントラストを修正することによって、前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させるためにさらに構成されている、項目17に記載の拡張現実システム。
(項目19)
前記制御システムは、
前記重複領域内の前記実オブジェクトの前記決定された色特性に基づいて、干渉データを生成することと、
干渉画像が前記実オブジェクトからの直接光と組み合わさり、前記重複領域内の前記仮想オブジェクトのための背景を作成するように、前記干渉データを前記重複領域を覆う前記干渉画像として前記エンドユーザに表示するように前記ディスプレイシステムに命令することと
によって、前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させるために構成されている、項目16に記載の拡張現実システム。
(項目20)
前記重複領域内の前記背景は、前記重複領域内の前記実オブジェクトに対して減少したダイナミックカラーレンジを有する、項目19に記載の拡張現実システム。
(項目21)
前記背景は、略均一色を前記重複領域内に有する、項目20に記載の拡張現実システム。
(項目22)
前記略均一色は、灰色である、項目21に記載の拡張現実システム。
(項目23)
前記干渉画像は、色を前記重複領域内の前記実オブジェクトに加える、項目19に記載の拡張現実システム。
(項目24)
前記制御システムは、前記重複領域内の前記実オブジェクトの前記決定された色特性に基づいて、前記仮想画像データを修正することによって、前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させるために構成されている、項目16に記載の拡張現実システム。
(項目25)
前記仮想画像データを修正することは、色を前記重複領域内の前記仮想オブジェクトから減じることを含む、項目24に記載の拡張現実システム。
(項目26)
前記ユーザの頭部に対して取り付けられるために構成され、前記実3次元場面の画像データを捕捉するためにさらに構成されている少なくとも1つのカメラをさらに備え、前記制御システムは、前記捕捉された画像データを前記ユーザの視点に対してワープさせるために構成され、前記制御システムは、前記捕捉された画像データ内の対応する実オブジェクトと前記仮想画像データ内の前記仮想オブジェクトとの間の空間重複を決定することによって、前記実オブジェクトと前記仮想オブジェクトとの間の前記重複領域を決定するために構成され、前記重複領域内の前記実オブジェクトの色特性を決定することは、前記重複領域内の前記捕捉された画像データ内の前記対応する実オブジェクトの色特性を決定することを含む、項目16に記載の拡張現実システム。
(項目27)
前記捕捉された画像データおよび前記仮想画像データの各々は、複数のピクセルを備え、前記複数のピクセルの各々は、少なくとも1つの値によって定義され、前記制御システムは、前記重複領域内の前記仮想オブジェクトおよび前記捕捉された画像データから導出される干渉データのうちの一方または両方のピクセルの前記少なくとも1つの値を修正することによって、前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させるために構成されている、項目26に記載の拡張現実システム。
(項目28)
前記ピクセルの各々は、色ベクトルを定義する3つの値を有する、項目27に記載の拡張現実システム。
(項目29)
前記色ベクトルは、赤色値、緑色値、および青色値を備えている、項目28に記載の拡張現実システム。
(項目30)
前記ピクセルの各々は、前記ピクセルの強度を定義する第4の値を有する、項目28に記載の拡張現実システム。
(項目31)
前記ディスプレイシステムは、前記エンドユーザの眼の正面に位置付けられるために構成されている、項目16に記載の仮想画像生成システム。
(項目32)
前記ディスプレイシステムは、投影サブシステムと、部分的透明ディスプレイ表面とを含み、前記投影サブシステムは、前記仮想画像を前記部分的透明ディスプレイ表面上に投影するために構成され、前記部分的透明ディスプレイ表面は、前記エンドユーザの眼と前記周囲環境との間の視野内に位置するために構成されている、項目16に記載の仮想画像生成システム。
(項目33)
前記エンドユーザによって装着されるために構成されているフレーム構造をさらに備え、前記フレーム構造は、前記ディスプレイシステムを支持する、項目16に記載の仮想画像生成システム。
(項目34)
前記制御システムは、グラフィック制御システムユニット(GPU)を備えている、項目16に記載の仮想画像生成システム。

Claims (17)

  1. 拡張現実(AR)システムを動作させる方法であって、前記方法は、
    エンドユーザが周囲環境内の3次元場面からの直接光を可視化することを可能にすることと、
    ユーザの頭部に対して取り付けられている少なくとも1つのカメラを用いて、実3次元場面の画像データを捕捉することと、
    前記エンドユーザの視点からの仮想画像データを生成することであって、前記少なくとも1つのカメラを用いて捕捉された前記画像データおよび前記仮想画像データの各々は、複数のピクセルを備え、前記複数のピクセルの各ピクセルは、少なくとも1つの値によって定義される、ことと、
    前記3次元場面内の実オブジェクトと前記仮想画像データ内の仮想オブジェクトとの間の空間重複の重複領域を決定することであって、前記実オブジェクトと前記仮想オブジェクトとの間の前記重複領域を決定することは、前記画像データ内の対応する実オブジェクトと前記仮想画像データ内の前記仮想オブジェクトとの間の前記空間重複を決定することを含む、ことと、
    少なくとも、前記重複領域について前記画像データ内の前記対応する実オブジェクトの対応する色を決定することによって、前記重複領域内の前記実オブジェクトの色決定することと、
    記可視化された直接光とともに、仮想画像として前記仮想画像データを前記エンドユーザに表示することにより、3次元拡張場面を作成することと
    前記重複領域内の前記実オブジェクトの前記色に基づいて、前記エンドユーザの視点から前記重複領域内の前記実オブジェクトを完全に覆い隠すことであって、前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、前記重複領域内の前記実オブジェクトのピクセルの前記少なくとも1つの値を修正することを含み、前記重複領域内の前記実オブジェクトの前記ピクセルの前記少なくとも1つの値を修正することは、前記仮想オブジェクトの前記ピクセルの前記少なくとも1つの値を減少させることを含み、前記仮想オブジェクトの前記ピクセルの前記少なくとも1つの値は、前記対応する実オブジェクトの対応するピクセルの少なくとも1つの対応する値だけ減少させられる、ことと
    を含む、方法。
  2. 前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、
    前記重複領域内の前記実オブジェクトの前記基づいて、干渉データを生成することと、
    干渉画像が前記実オブジェクトからの前記直接光と組み合わさり、前記重複領域内の前記仮想オブジェクトのための背景を作成するように、記重複領域を覆う前記干渉画像として前記干渉データを前記ーザに表示することと
    を含む、請求項1に記載の方法。
  3. 前記重複領域内の前記背景は、前記重複領域内の前記実オブジェクトに対して減少したダイナミックカラーレンジを有する、請求項に記載の方法。
  4. 前記背景は、略均一色を前記重複領域内に有する、請求項に記載の方法。
  5. 前記略均一色は、灰色である、請求項に記載の方法。
  6. 前記干渉画像は、第1の色を前記重複領域内の前記実オブジェクトに加える、請求項に記載の方法。
  7. 前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、前記重複領域内の前記実オブジェクトの前記色に基づいて、前記仮想画像データを修正することを含む、請求項1に記載の方法。
  8. 前記仮想画像データを修正することは、前記色を前記重複領域内の前記仮想オブジェクトから減じることを含む、請求項に記載の方法。
  9. 前記複数のピクセルの各々は、色ベクトルを定義する3つの値を有する、請求項に記載の方法。
  10. 前記色ベクトルは、赤色値、緑色値、および青色値を備えている、請求項に記載の方法。
  11. 前記仮想オブジェクトの前記ピクセルの前記少なくとも1つの値は、第1の色ベクトルを定義する3つの第1の値を有し、前記実オブジェクトの前記対応するピクセルの前記少なくとも1つの値は、第2の色ベクトルを定義する3つの第2の値を有する、請求項1に記載の方法。
  12. 前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、
    前記重複領域内の前記仮想オブジェクトのための背景の背景ピクセルの少なくとも1つの背景値を選択することと、
    第1の複数のピクセルを備える干渉データを生成することであって、その各々は、少なくとも1つの第2の値によって定義される、ことと、
    干渉画像が前記実オブジェクトからの前記直接光と組み合わさり、前記重複領域内の前記仮想オブジェクトのための前記背景を作成するように、前記重複領域を覆う前記干渉画像として前記干渉データを前記ユーザに表示することと
    を含む、請求項1に記載の方法。
  13. 前記第1の複数のピクセルの各々は、色ベクトルを定義する3つの値を有する、請求項12に記載の方法。
  14. 前記色ベクトルは、赤色値、緑色値、および青色値を備えている、請求項12に記載の方法。
  15. 前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、前記重複領域内の前記仮想オブジェクトのための前記背景の背景ピクセルの少なくとも1つの背景値を選択することをさらに含み、前記干渉データの第1の対応するピクセルの少なくとも1つの干渉値は、前記重複領域内の前記画像データにおける前記対応する実オブジェクトの前記対応するピクセルの前記少なくとも1つの対応する値にそれぞれ追加されると、前記重複領域内の前記実オブジェクトのための前記背景の前記背景ピクセルの前記少なくとも1つの背景値に等しい、請求項12に記載の方法。
  16. 前記重複領域について前記画像データにおける前記対応する実オブジェクトの対応するピクセルの対応する値の全ては、それぞれ、前記重複領域内の前記仮想オブジェクトのための前記背景の前記背景ピクセルの前記少なくとも1つの背景値を下回る、請求項12に記載の方法。
  17. 前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、
    前記重複領域内の前記画像データにおける前記対応する実オブジェクトの別の対応するピクセルの前記少なくとも1つの第1の対応する値が前記重複領域内の前記仮想オブジェクトのための前記背景の別の対応する背景ピクセルの少なくとも1つの第1の背景値を下回ることを決定することと、
    前記重複領域内の前記仮想オブジェクトの別の対応するピクセルの前記少なくとも1つの値を修正することと
    をさらに含む、請求項16に記載の方法。
JP2018548381A 2016-03-15 2017-03-15 拡張現実(ar)システムを動作させる方法 Active JP6750025B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662308433P 2016-03-15 2016-03-15
US62/308,433 2016-03-15
PCT/US2017/022578 WO2017161039A1 (en) 2016-03-15 2017-03-15 Direct light compensation technique for augmented reality system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020136187A Division JP7054406B2 (ja) 2016-03-15 2020-08-12 拡張現実(ar)システムを動作させる方法

Publications (3)

Publication Number Publication Date
JP2019517012A JP2019517012A (ja) 2019-06-20
JP2019517012A5 true JP2019517012A5 (ja) 2020-04-23
JP6750025B2 JP6750025B2 (ja) 2020-09-02

Family

ID=59847083

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018548381A Active JP6750025B2 (ja) 2016-03-15 2017-03-15 拡張現実(ar)システムを動作させる方法
JP2020136187A Active JP7054406B2 (ja) 2016-03-15 2020-08-12 拡張現実(ar)システムを動作させる方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020136187A Active JP7054406B2 (ja) 2016-03-15 2020-08-12 拡張現実(ar)システムを動作させる方法

Country Status (10)

Country Link
US (2) US10628996B2 (ja)
EP (2) EP4156167A1 (ja)
JP (2) JP6750025B2 (ja)
KR (1) KR102180060B1 (ja)
CN (2) CN116485929A (ja)
AU (2) AU2017232527A1 (ja)
CA (1) CA3016344A1 (ja)
IL (2) IL261478B (ja)
NZ (2) NZ745790A (ja)
WO (1) WO2017161039A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3016344A1 (en) * 2016-03-15 2017-09-21 Magic Leap, Inc. Direct light compensation technique for augmented reality system
US10290120B2 (en) * 2017-03-20 2019-05-14 SK Commercial Construction, Inc. Color analysis and control using an electronic mobile device transparent display screen
US10803988B2 (en) * 2017-03-20 2020-10-13 SK Commercial Construction, Inc. Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment
WO2018212225A1 (ja) * 2017-05-17 2018-11-22 Telexistence株式会社 感覚付与装置、ロボット制御システム、ロボット制御方法及びプログラム
US10338400B2 (en) 2017-07-03 2019-07-02 Holovisions LLC Augmented reality eyewear with VAPE or wear technology
US10859834B2 (en) 2017-07-03 2020-12-08 Holovisions Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear
KR102591582B1 (ko) * 2018-06-22 2023-10-19 삼성전자주식회사 컨텐츠를 표시하는 방법 및 전자 장치
TWI675583B (zh) * 2018-07-23 2019-10-21 緯創資通股份有限公司 擴增實境系統及其色彩補償方法
US10909373B1 (en) 2018-08-24 2021-02-02 Snap Inc. Augmented reality system using structured light
CN111818326B (zh) * 2019-04-12 2022-01-28 广东虚拟现实科技有限公司 图像处理方法、装置、系统、终端设备及存储介质
US11004269B2 (en) * 2019-04-22 2021-05-11 Microsoft Technology Licensing, Llc Blending virtual environments with situated physical reality
US11216920B2 (en) * 2019-05-31 2022-01-04 Apple Inc. Enhanced local contrast
CN112241199B (zh) 2019-07-19 2023-03-24 华为技术有限公司 虚拟现实场景中的交互方法及装置
EP3819699B1 (en) * 2019-11-08 2024-02-21 Leica Instruments (Singapore) Pte. Ltd. Optical system and corresponding apparatus, method and computer program
US11645756B2 (en) * 2019-11-14 2023-05-09 Samsung Electronics Co., Ltd. Image processing apparatus and method
US11545108B2 (en) * 2020-02-03 2023-01-03 Apple Inc. Modifying rendered image data based on ambient light from a physical environment
US11423621B1 (en) * 2020-05-21 2022-08-23 Facebook Technologies, Llc. Adaptive rendering in artificial reality environments
CN111832104B (zh) * 2020-06-24 2023-07-28 深圳市万翼数字技术有限公司 三维设备模型的建立方法及相关设备
US11715405B1 (en) * 2021-02-10 2023-08-01 Sivalogeswaran Ratnasingam Chroma modification based on ambient light characteristics
US12003859B2 (en) * 2021-07-16 2024-06-04 Samsung Electronics Co., Ltd. Brightness adjustment method, and apparatus thereof
KR20230103379A (ko) * 2021-12-31 2023-07-07 삼성전자주식회사 Ar 처리 방법 및 장치
CN114419293B (zh) * 2022-01-26 2023-06-06 广州鼎飞航空科技有限公司 一种增强现实的数据处理方法、装置及设备
CN116883607B (zh) * 2023-09-06 2023-12-05 四川物通科技有限公司 基于辐射传输的虚拟现实场景生成系统

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3450792B2 (ja) 1999-03-25 2003-09-29 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
JP2002148559A (ja) * 2000-11-15 2002-05-22 Mixed Reality Systems Laboratory Inc 画像観察装置及びそれを用いた画像観察システム
WO2010071531A1 (en) * 2008-12-19 2010-06-24 Saab Ab System and method for mixing a scene with a virtual scenario
JP5136442B2 (ja) * 2009-01-27 2013-02-06 ブラザー工業株式会社 ヘッドマウントディスプレイ
US8107084B2 (en) * 2009-01-30 2012-01-31 Zygo Corporation Interference microscope with scan motion detection using fringe motion in monitor patterns
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US8670000B2 (en) * 2011-09-12 2014-03-11 Google Inc. Optical display system and method with virtual image contrast control
US9734633B2 (en) * 2012-01-27 2017-08-15 Microsoft Technology Licensing, Llc Virtual environment generating system
US9147111B2 (en) * 2012-02-10 2015-09-29 Microsoft Technology Licensing, Llc Display with blocking image generation
CN103472909B (zh) * 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
US20130328925A1 (en) * 2012-06-12 2013-12-12 Stephen G. Latta Object focus in a mixed reality environment
US9430055B2 (en) 2012-06-15 2016-08-30 Microsoft Technology Licensing, Llc Depth of field control for see-thru display
US9158114B2 (en) * 2012-11-05 2015-10-13 Exelis Inc. Image display utilizing a variable mask to selectively block image data
JP6273677B2 (ja) 2013-02-28 2018-02-07 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
BR112015024910A2 (pt) * 2013-03-26 2017-07-18 Seiko Epson Corp dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição
CN106133796B (zh) * 2014-03-25 2019-07-16 苹果公司 用于在真实环境的视图中表示虚拟对象的方法和系统
JP6571110B2 (ja) * 2014-07-18 2019-09-04 ビュージックス コーポレーションVuzix Corporation 自己発光型マイクロディスプレイエンジンを有する接眼ディスプレイ
US10750153B2 (en) * 2014-09-22 2020-08-18 Samsung Electronics Company, Ltd. Camera system for three-dimensional video
CN107111366B (zh) * 2014-12-22 2020-10-30 依视路国际公司 用于使感觉输出装置的感觉输出模式与使用者适配的方法
CA3016344A1 (en) * 2016-03-15 2017-09-21 Magic Leap, Inc. Direct light compensation technique for augmented reality system

Similar Documents

Publication Publication Date Title
JP2019517012A5 (ja)
JP6750025B2 (ja) 拡張現実(ar)システムを動作させる方法
US10204452B2 (en) Apparatus and method for providing augmented reality-based realistic experience
US20200126292A1 (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods
CA2857510C (en) Display of shadows via see-through display
US11353703B2 (en) Image processing via multi-sample anti-aliasing
US20130293531A1 (en) User perception of visual effects
US20190188914A1 (en) Terminal device, system, program, and method
US20240202005A1 (en) Encoding stereo splash screen in static image
US11941729B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
Manabe et al. Shadow inducers: Inconspicuous highlights for casting virtual shadows on ost-hmds
JP2005250978A (ja) 三次元画像処理装置および三次元画像処理方法
WO2022070270A1 (ja) 画像生成装置および画像生成方法
JP6717486B1 (ja) 拡張仮想空間提供システム
WO2022244131A1 (ja) 画像データ生成装置、表示装置、画像表示システム、画像データ生成方法、画像表示方法、および、画像データのデータ構造
KR20180092187A (ko) 증강 현실 제공 시스템
WO2024071208A1 (ja) 表示装置、表示方法及びプログラム
NZ751028B2 (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods