JP2019517012A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2019517012A5 JP2019517012A5 JP2018548381A JP2018548381A JP2019517012A5 JP 2019517012 A5 JP2019517012 A5 JP 2019517012A5 JP 2018548381 A JP2018548381 A JP 2018548381A JP 2018548381 A JP2018548381 A JP 2018548381A JP 2019517012 A5 JP2019517012 A5 JP 2019517012A5
- Authority
- JP
- Japan
- Prior art keywords
- real object
- value
- color
- background
- overlap region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000875 corresponding Effects 0.000 claims description 22
- 230000003190 augmentative Effects 0.000 claims description 19
- 238000004587 chromatography analysis Methods 0.000 claims 1
- 210000003128 Head Anatomy 0.000 description 2
Description
本発明の追加のおよび他の目的、特徴、ならびに利点が、発明を実施するための形態、図、および請求項で説明される。
本発明は、例えば、以下を提供する。
(項目1)
拡張現実(AR)システムを動作させる方法であって、前記方法は、
エンドユーザが周囲環境内の3次元場面からの直接光を可視化することを可能にすることと、
前記エンドユーザの視点からの仮想画像データを生成することと、
前記3次元場面内の実オブジェクトと前記仮想画像データ内の仮想オブジェクトとの間の空間重複の領域を決定することと、
前記重複領域内の前記実オブジェクトの色特性を決定することと、
前記重複領域内の前記実オブジェクトの決定された色特性に基づいて、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることと、
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストが減少させられた後、前記可視化された直接光とともに、仮想画像として前記仮想画像データを前記エンドユーザに表示することにより、3次元拡張場面を作成することと
を含む、方法。
(項目2)
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される色コントラストを修正することを含む、項目1に記載の方法。
(項目3)
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される強度コントラストを修正することをさらに含む、項目2に記載の方法。
(項目4)
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることは、
前記重複領域内の実オブジェクトの決定された色特性に基づいて、干渉データを生成することと、
干渉画像が前記実オブジェクトからの直接光と組み合わさり、前記重複領域内の前記仮想オブジェクトのための背景を作成するように、前記干渉データを前記重複領域を覆う前記干渉画像として前記エンドユーザに表示することと
を含む、項目1に記載の方法。
(項目5)
前記重複領域内の前記背景は、前記重複領域内の前記実オブジェクトに対して減少したダイナミックカラーレンジを有する、項目4に記載の方法。
(項目6)
前記背景は、略均一色を前記重複領域内に有する、項目5に記載の方法。
(項目7)
前記略均一色は、灰色である、項目6に記載の方法。
(項目8)
前記干渉画像は、色を前記重複領域内の前記実オブジェクトに加える、項目4に記載の方法。
(項目9)
前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させることは、前記重複領域内の前記実オブジェクトの決定された色特性に基づいて、前記仮想画像データを修正することを含む、項目1に記載の方法。
(項目10)
前記仮想画像データを修正することは、色を前記重複領域内の前記仮想オブジェクトから減じることを含む、項目9に記載の方法。
(項目11)
前記ユーザの頭部に対して取り付けられている少なくとも1つのカメラを用いて、前記実3次元場面の画像データを捕捉することと、
前記捕捉された画像データを前記ユーザの視点に対してワープさせることと
をさらに含み、
前記実オブジェクトと前記仮想オブジェクトとの間の前記重複領域を決定することは、前記捕捉された画像データ内の対応する実オブジェクトと前記仮想画像データ内の前記仮想オブジェクトとの間の空間重複を決定することを含み、前記重複領域内の前記実オブジェクトの色特性を決定することは、前記重複領域内の前記捕捉された画像データ内の前記対応する実オブジェクトの色特性を決定することを含む、項目1に記載の方法。
(項目12)
前記捕捉された画像データおよび前記仮想画像データの各々は、複数のピクセルを備え、前記複数のピクセルの各々は、少なくとも1つの値によって定義され、前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させることは、前記重複領域内の前記仮想オブジェクトおよび前記捕捉された画像データから導出される干渉データのうちの一方または両方のピクセルの前記少なくとも1つの値を修正することを含む、項目11に記載の方法。
(項目13)
前記ピクセルの各々は、色ベクトルを定義する3つの値を有する、項目12に記載の方法。
(項目14)
前記色ベクトルは、赤色値、緑色値、および青色値を備えている、項目13に記載の方法。
(項目15)
前記ピクセルの各々は、前記ピクセルの強度を定義する第4の値を有する、項目13に記載の方法。
(項目16)
拡張現実(AR)システムであって、前記拡張現実システムは、
エンドユーザが周囲環境内の3次元場面からの直接光を可視化することを可能にするために構成されているディスプレイシステムと、
制御システムと
を備え、
前記制御システムは、
前記エンドユーザの視点からの仮想画像データを生成することと、
前記3次元場面内の実オブジェクトと前記仮想画像データ内の仮想オブジェクトとの間の空間重複の領域を決定することと、
前記重複領域内の前記実オブジェクトの色特性を決定することと、
前記重複領域内の前記実オブジェクトの決定された色特性に基づいて、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることと、
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストが減少させられた後、前記可視化された直接光とともに、仮想画像として前記仮想画像データを前記エンドユーザに表示することにより、3次元拡張場面を作成するように前記ディスプレイシステムに命令することと
を行うめに構成されている、拡張現実システム。
(項目17)
前記制御システムは、前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させるために構成され、前記減少させることは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される色コントラストを修正することを含む、項目16に記載の拡張現実システム。
(項目18)
前記制御システムは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される強度コントラストを修正することによって、前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させるためにさらに構成されている、項目17に記載の拡張現実システム。
(項目19)
前記制御システムは、
前記重複領域内の前記実オブジェクトの前記決定された色特性に基づいて、干渉データを生成することと、
干渉画像が前記実オブジェクトからの直接光と組み合わさり、前記重複領域内の前記仮想オブジェクトのための背景を作成するように、前記干渉データを前記重複領域を覆う前記干渉画像として前記エンドユーザに表示するように前記ディスプレイシステムに命令することと
によって、前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させるために構成されている、項目16に記載の拡張現実システム。
(項目20)
前記重複領域内の前記背景は、前記重複領域内の前記実オブジェクトに対して減少したダイナミックカラーレンジを有する、項目19に記載の拡張現実システム。
(項目21)
前記背景は、略均一色を前記重複領域内に有する、項目20に記載の拡張現実システム。
(項目22)
前記略均一色は、灰色である、項目21に記載の拡張現実システム。
(項目23)
前記干渉画像は、色を前記重複領域内の前記実オブジェクトに加える、項目19に記載の拡張現実システム。
(項目24)
前記制御システムは、前記重複領域内の前記実オブジェクトの前記決定された色特性に基づいて、前記仮想画像データを修正することによって、前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させるために構成されている、項目16に記載の拡張現実システム。
(項目25)
前記仮想画像データを修正することは、色を前記重複領域内の前記仮想オブジェクトから減じることを含む、項目24に記載の拡張現実システム。
(項目26)
前記ユーザの頭部に対して取り付けられるために構成され、前記実3次元場面の画像データを捕捉するためにさらに構成されている少なくとも1つのカメラをさらに備え、前記制御システムは、前記捕捉された画像データを前記ユーザの視点に対してワープさせるために構成され、前記制御システムは、前記捕捉された画像データ内の対応する実オブジェクトと前記仮想画像データ内の前記仮想オブジェクトとの間の空間重複を決定することによって、前記実オブジェクトと前記仮想オブジェクトとの間の前記重複領域を決定するために構成され、前記重複領域内の前記実オブジェクトの色特性を決定することは、前記重複領域内の前記捕捉された画像データ内の前記対応する実オブジェクトの色特性を決定することを含む、項目16に記載の拡張現実システム。
(項目27)
前記捕捉された画像データおよび前記仮想画像データの各々は、複数のピクセルを備え、前記複数のピクセルの各々は、少なくとも1つの値によって定義され、前記制御システムは、前記重複領域内の前記仮想オブジェクトおよび前記捕捉された画像データから導出される干渉データのうちの一方または両方のピクセルの前記少なくとも1つの値を修正することによって、前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させるために構成されている、項目26に記載の拡張現実システム。
(項目28)
前記ピクセルの各々は、色ベクトルを定義する3つの値を有する、項目27に記載の拡張現実システム。
(項目29)
前記色ベクトルは、赤色値、緑色値、および青色値を備えている、項目28に記載の拡張現実システム。
(項目30)
前記ピクセルの各々は、前記ピクセルの強度を定義する第4の値を有する、項目28に記載の拡張現実システム。
(項目31)
前記ディスプレイシステムは、前記エンドユーザの眼の正面に位置付けられるために構成されている、項目16に記載の仮想画像生成システム。
(項目32)
前記ディスプレイシステムは、投影サブシステムと、部分的透明ディスプレイ表面とを含み、前記投影サブシステムは、前記仮想画像を前記部分的透明ディスプレイ表面上に投影するために構成され、前記部分的透明ディスプレイ表面は、前記エンドユーザの眼と前記周囲環境との間の視野内に位置するために構成されている、項目16に記載の仮想画像生成システム。
(項目33)
前記エンドユーザによって装着されるために構成されているフレーム構造をさらに備え、前記フレーム構造は、前記ディスプレイシステムを支持する、項目16に記載の仮想画像生成システム。
(項目34)
前記制御システムは、グラフィック制御システムユニット(GPU)を備えている、項目16に記載の仮想画像生成システム。
本発明は、例えば、以下を提供する。
(項目1)
拡張現実(AR)システムを動作させる方法であって、前記方法は、
エンドユーザが周囲環境内の3次元場面からの直接光を可視化することを可能にすることと、
前記エンドユーザの視点からの仮想画像データを生成することと、
前記3次元場面内の実オブジェクトと前記仮想画像データ内の仮想オブジェクトとの間の空間重複の領域を決定することと、
前記重複領域内の前記実オブジェクトの色特性を決定することと、
前記重複領域内の前記実オブジェクトの決定された色特性に基づいて、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることと、
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストが減少させられた後、前記可視化された直接光とともに、仮想画像として前記仮想画像データを前記エンドユーザに表示することにより、3次元拡張場面を作成することと
を含む、方法。
(項目2)
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される色コントラストを修正することを含む、項目1に記載の方法。
(項目3)
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される強度コントラストを修正することをさらに含む、項目2に記載の方法。
(項目4)
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることは、
前記重複領域内の実オブジェクトの決定された色特性に基づいて、干渉データを生成することと、
干渉画像が前記実オブジェクトからの直接光と組み合わさり、前記重複領域内の前記仮想オブジェクトのための背景を作成するように、前記干渉データを前記重複領域を覆う前記干渉画像として前記エンドユーザに表示することと
を含む、項目1に記載の方法。
(項目5)
前記重複領域内の前記背景は、前記重複領域内の前記実オブジェクトに対して減少したダイナミックカラーレンジを有する、項目4に記載の方法。
(項目6)
前記背景は、略均一色を前記重複領域内に有する、項目5に記載の方法。
(項目7)
前記略均一色は、灰色である、項目6に記載の方法。
(項目8)
前記干渉画像は、色を前記重複領域内の前記実オブジェクトに加える、項目4に記載の方法。
(項目9)
前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させることは、前記重複領域内の前記実オブジェクトの決定された色特性に基づいて、前記仮想画像データを修正することを含む、項目1に記載の方法。
(項目10)
前記仮想画像データを修正することは、色を前記重複領域内の前記仮想オブジェクトから減じることを含む、項目9に記載の方法。
(項目11)
前記ユーザの頭部に対して取り付けられている少なくとも1つのカメラを用いて、前記実3次元場面の画像データを捕捉することと、
前記捕捉された画像データを前記ユーザの視点に対してワープさせることと
をさらに含み、
前記実オブジェクトと前記仮想オブジェクトとの間の前記重複領域を決定することは、前記捕捉された画像データ内の対応する実オブジェクトと前記仮想画像データ内の前記仮想オブジェクトとの間の空間重複を決定することを含み、前記重複領域内の前記実オブジェクトの色特性を決定することは、前記重複領域内の前記捕捉された画像データ内の前記対応する実オブジェクトの色特性を決定することを含む、項目1に記載の方法。
(項目12)
前記捕捉された画像データおよび前記仮想画像データの各々は、複数のピクセルを備え、前記複数のピクセルの各々は、少なくとも1つの値によって定義され、前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させることは、前記重複領域内の前記仮想オブジェクトおよび前記捕捉された画像データから導出される干渉データのうちの一方または両方のピクセルの前記少なくとも1つの値を修正することを含む、項目11に記載の方法。
(項目13)
前記ピクセルの各々は、色ベクトルを定義する3つの値を有する、項目12に記載の方法。
(項目14)
前記色ベクトルは、赤色値、緑色値、および青色値を備えている、項目13に記載の方法。
(項目15)
前記ピクセルの各々は、前記ピクセルの強度を定義する第4の値を有する、項目13に記載の方法。
(項目16)
拡張現実(AR)システムであって、前記拡張現実システムは、
エンドユーザが周囲環境内の3次元場面からの直接光を可視化することを可能にするために構成されているディスプレイシステムと、
制御システムと
を備え、
前記制御システムは、
前記エンドユーザの視点からの仮想画像データを生成することと、
前記3次元場面内の実オブジェクトと前記仮想画像データ内の仮想オブジェクトとの間の空間重複の領域を決定することと、
前記重複領域内の前記実オブジェクトの色特性を決定することと、
前記重複領域内の前記実オブジェクトの決定された色特性に基づいて、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させることと、
前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストが減少させられた後、前記可視化された直接光とともに、仮想画像として前記仮想画像データを前記エンドユーザに表示することにより、3次元拡張場面を作成するように前記ディスプレイシステムに命令することと
を行うめに構成されている、拡張現実システム。
(項目17)
前記制御システムは、前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させるために構成され、前記減少させることは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される色コントラストを修正することを含む、項目16に記載の拡張現実システム。
(項目18)
前記制御システムは、前記重複領域内の前記実オブジェクトと前記仮想オブジェクトとの間で知覚される強度コントラストを修正することによって、前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させるためにさらに構成されている、項目17に記載の拡張現実システム。
(項目19)
前記制御システムは、
前記重複領域内の前記実オブジェクトの前記決定された色特性に基づいて、干渉データを生成することと、
干渉画像が前記実オブジェクトからの直接光と組み合わさり、前記重複領域内の前記仮想オブジェクトのための背景を作成するように、前記干渉データを前記重複領域を覆う前記干渉画像として前記エンドユーザに表示するように前記ディスプレイシステムに命令することと
によって、前記実オブジェクトと前記仮想オブジェクトとの間で知覚されるコントラストを減少させるために構成されている、項目16に記載の拡張現実システム。
(項目20)
前記重複領域内の前記背景は、前記重複領域内の前記実オブジェクトに対して減少したダイナミックカラーレンジを有する、項目19に記載の拡張現実システム。
(項目21)
前記背景は、略均一色を前記重複領域内に有する、項目20に記載の拡張現実システム。
(項目22)
前記略均一色は、灰色である、項目21に記載の拡張現実システム。
(項目23)
前記干渉画像は、色を前記重複領域内の前記実オブジェクトに加える、項目19に記載の拡張現実システム。
(項目24)
前記制御システムは、前記重複領域内の前記実オブジェクトの前記決定された色特性に基づいて、前記仮想画像データを修正することによって、前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させるために構成されている、項目16に記載の拡張現実システム。
(項目25)
前記仮想画像データを修正することは、色を前記重複領域内の前記仮想オブジェクトから減じることを含む、項目24に記載の拡張現実システム。
(項目26)
前記ユーザの頭部に対して取り付けられるために構成され、前記実3次元場面の画像データを捕捉するためにさらに構成されている少なくとも1つのカメラをさらに備え、前記制御システムは、前記捕捉された画像データを前記ユーザの視点に対してワープさせるために構成され、前記制御システムは、前記捕捉された画像データ内の対応する実オブジェクトと前記仮想画像データ内の前記仮想オブジェクトとの間の空間重複を決定することによって、前記実オブジェクトと前記仮想オブジェクトとの間の前記重複領域を決定するために構成され、前記重複領域内の前記実オブジェクトの色特性を決定することは、前記重複領域内の前記捕捉された画像データ内の前記対応する実オブジェクトの色特性を決定することを含む、項目16に記載の拡張現実システム。
(項目27)
前記捕捉された画像データおよび前記仮想画像データの各々は、複数のピクセルを備え、前記複数のピクセルの各々は、少なくとも1つの値によって定義され、前記制御システムは、前記重複領域内の前記仮想オブジェクトおよび前記捕捉された画像データから導出される干渉データのうちの一方または両方のピクセルの前記少なくとも1つの値を修正することによって、前記実オブジェクトと前記仮想オブジェクトとの間のコントラストを減少させるために構成されている、項目26に記載の拡張現実システム。
(項目28)
前記ピクセルの各々は、色ベクトルを定義する3つの値を有する、項目27に記載の拡張現実システム。
(項目29)
前記色ベクトルは、赤色値、緑色値、および青色値を備えている、項目28に記載の拡張現実システム。
(項目30)
前記ピクセルの各々は、前記ピクセルの強度を定義する第4の値を有する、項目28に記載の拡張現実システム。
(項目31)
前記ディスプレイシステムは、前記エンドユーザの眼の正面に位置付けられるために構成されている、項目16に記載の仮想画像生成システム。
(項目32)
前記ディスプレイシステムは、投影サブシステムと、部分的透明ディスプレイ表面とを含み、前記投影サブシステムは、前記仮想画像を前記部分的透明ディスプレイ表面上に投影するために構成され、前記部分的透明ディスプレイ表面は、前記エンドユーザの眼と前記周囲環境との間の視野内に位置するために構成されている、項目16に記載の仮想画像生成システム。
(項目33)
前記エンドユーザによって装着されるために構成されているフレーム構造をさらに備え、前記フレーム構造は、前記ディスプレイシステムを支持する、項目16に記載の仮想画像生成システム。
(項目34)
前記制御システムは、グラフィック制御システムユニット(GPU)を備えている、項目16に記載の仮想画像生成システム。
Claims (17)
- 拡張現実(AR)システムを動作させる方法であって、前記方法は、
エンドユーザが周囲環境内の3次元場面からの直接光を可視化することを可能にすることと、
ユーザの頭部に対して取り付けられている少なくとも1つのカメラを用いて、実3次元場面の画像データを捕捉することと、
前記エンドユーザの視点からの仮想画像データを生成することであって、前記少なくとも1つのカメラを用いて捕捉された前記画像データおよび前記仮想画像データの各々は、複数のピクセルを備え、前記複数のピクセルの各ピクセルは、少なくとも1つの値によって定義される、ことと、
前記3次元場面内の実オブジェクトと前記仮想画像データ内の仮想オブジェクトとの間の空間重複の重複領域を決定することであって、前記実オブジェクトと前記仮想オブジェクトとの間の前記重複領域を決定することは、前記画像データ内の対応する実オブジェクトと前記仮想画像データ内の前記仮想オブジェクトとの間の前記空間重複を決定することを含む、ことと、
少なくとも、前記重複領域について前記画像データ内の前記対応する実オブジェクトの対応する色を決定することによって、前記重複領域内の前記実オブジェクトの色を決定することと、
前記可視化された直接光とともに、仮想画像として前記仮想画像データを前記エンドユーザに表示することにより、3次元拡張場面を作成することと、
前記重複領域内の前記実オブジェクトの前記色に基づいて、前記エンドユーザの視点から前記重複領域内の前記実オブジェクトを完全に覆い隠すことであって、前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、前記重複領域内の前記実オブジェクトのピクセルの前記少なくとも1つの値を修正することを含み、前記重複領域内の前記実オブジェクトの前記ピクセルの前記少なくとも1つの値を修正することは、前記仮想オブジェクトの前記ピクセルの前記少なくとも1つの値を減少させることを含み、前記仮想オブジェクトの前記ピクセルの前記少なくとも1つの値は、前記対応する実オブジェクトの対応するピクセルの少なくとも1つの対応する値だけ減少させられる、ことと
を含む、方法。 - 前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、
前記重複領域内の前記実オブジェクトの前記色に基づいて、干渉データを生成することと、
干渉画像が前記実オブジェクトからの前記直接光と組み合わさり、前記重複領域内の前記仮想オブジェクトのための背景を作成するように、前記重複領域を覆う前記干渉画像として前記干渉データを前記ユーザに表示することと
を含む、請求項1に記載の方法。 - 前記重複領域内の前記背景は、前記重複領域内の前記実オブジェクトに対して減少したダイナミックカラーレンジを有する、請求項2に記載の方法。
- 前記背景は、略均一色を前記重複領域内に有する、請求項3に記載の方法。
- 前記略均一色は、灰色である、請求項4に記載の方法。
- 前記干渉画像は、第1の色を前記重複領域内の前記実オブジェクトに加える、請求項2に記載の方法。
- 前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、前記重複領域内の前記実オブジェクトの前記色に基づいて、前記仮想画像データを修正することを含む、請求項1に記載の方法。
- 前記仮想画像データを修正することは、前記色を前記重複領域内の前記仮想オブジェクトから減じることを含む、請求項7に記載の方法。
- 前記複数のピクセルの各々は、色ベクトルを定義する3つの値を有する、請求項1に記載の方法。
- 前記色ベクトルは、赤色値、緑色値、および青色値を備えている、請求項9に記載の方法。
- 前記仮想オブジェクトの前記ピクセルの前記少なくとも1つの値は、第1の色ベクトルを定義する3つの第1の値を有し、前記実オブジェクトの前記対応するピクセルの前記少なくとも1つの値は、第2の色ベクトルを定義する3つの第2の値を有する、請求項1に記載の方法。
- 前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、
前記重複領域内の前記仮想オブジェクトのための背景の背景ピクセルの少なくとも1つの背景値を選択することと、
第1の複数のピクセルを備える干渉データを生成することであって、その各々は、少なくとも1つの第2の値によって定義される、ことと、
干渉画像が前記実オブジェクトからの前記直接光と組み合わさり、前記重複領域内の前記仮想オブジェクトのための前記背景を作成するように、前記重複領域を覆う前記干渉画像として前記干渉データを前記ユーザに表示することと
を含む、請求項1に記載の方法。 - 前記第1の複数のピクセルの各々は、色ベクトルを定義する3つの値を有する、請求項12に記載の方法。
- 前記色ベクトルは、赤色値、緑色値、および青色値を備えている、請求項12に記載の方法。
- 前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、前記重複領域内の前記仮想オブジェクトのための前記背景の背景ピクセルの少なくとも1つの背景値を選択することをさらに含み、前記干渉データの第1の対応するピクセルの少なくとも1つの干渉値は、前記重複領域内の前記画像データにおける前記対応する実オブジェクトの前記対応するピクセルの前記少なくとも1つの対応する値にそれぞれ追加されると、前記重複領域内の前記実オブジェクトのための前記背景の前記背景ピクセルの前記少なくとも1つの背景値に等しい、請求項12に記載の方法。
- 前記重複領域について前記画像データにおける前記対応する実オブジェクトの対応するピクセルの対応する値の全ては、それぞれ、前記重複領域内の前記仮想オブジェクトのための前記背景の前記背景ピクセルの前記少なくとも1つの背景値を下回る、請求項12に記載の方法。
- 前記重複領域内の前記実オブジェクトを完全に覆い隠すことは、
前記重複領域内の前記画像データにおける前記対応する実オブジェクトの別の対応するピクセルの前記少なくとも1つの第1の対応する値が前記重複領域内の前記仮想オブジェクトのための前記背景の別の対応する背景ピクセルの少なくとも1つの第1の背景値を下回ることを決定することと、
前記重複領域内の前記仮想オブジェクトの別の対応するピクセルの前記少なくとも1つの値を修正することと
をさらに含む、請求項16に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662308433P | 2016-03-15 | 2016-03-15 | |
US62/308,433 | 2016-03-15 | ||
PCT/US2017/022578 WO2017161039A1 (en) | 2016-03-15 | 2017-03-15 | Direct light compensation technique for augmented reality system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020136187A Division JP7054406B2 (ja) | 2016-03-15 | 2020-08-12 | 拡張現実(ar)システムを動作させる方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019517012A JP2019517012A (ja) | 2019-06-20 |
JP2019517012A5 true JP2019517012A5 (ja) | 2020-04-23 |
JP6750025B2 JP6750025B2 (ja) | 2020-09-02 |
Family
ID=59847083
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018548381A Active JP6750025B2 (ja) | 2016-03-15 | 2017-03-15 | 拡張現実(ar)システムを動作させる方法 |
JP2020136187A Active JP7054406B2 (ja) | 2016-03-15 | 2020-08-12 | 拡張現実(ar)システムを動作させる方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020136187A Active JP7054406B2 (ja) | 2016-03-15 | 2020-08-12 | 拡張現実(ar)システムを動作させる方法 |
Country Status (10)
Country | Link |
---|---|
US (2) | US10628996B2 (ja) |
EP (2) | EP4156167A1 (ja) |
JP (2) | JP6750025B2 (ja) |
KR (1) | KR102180060B1 (ja) |
CN (2) | CN116485929A (ja) |
AU (2) | AU2017232527A1 (ja) |
CA (1) | CA3016344A1 (ja) |
IL (2) | IL261478B (ja) |
NZ (2) | NZ745790A (ja) |
WO (1) | WO2017161039A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3016344A1 (en) * | 2016-03-15 | 2017-09-21 | Magic Leap, Inc. | Direct light compensation technique for augmented reality system |
US10290120B2 (en) * | 2017-03-20 | 2019-05-14 | SK Commercial Construction, Inc. | Color analysis and control using an electronic mobile device transparent display screen |
US10803988B2 (en) * | 2017-03-20 | 2020-10-13 | SK Commercial Construction, Inc. | Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment |
WO2018212225A1 (ja) * | 2017-05-17 | 2018-11-22 | Telexistence株式会社 | 感覚付与装置、ロボット制御システム、ロボット制御方法及びプログラム |
US10338400B2 (en) | 2017-07-03 | 2019-07-02 | Holovisions LLC | Augmented reality eyewear with VAPE or wear technology |
US10859834B2 (en) | 2017-07-03 | 2020-12-08 | Holovisions | Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear |
KR102591582B1 (ko) * | 2018-06-22 | 2023-10-19 | 삼성전자주식회사 | 컨텐츠를 표시하는 방법 및 전자 장치 |
TWI675583B (zh) * | 2018-07-23 | 2019-10-21 | 緯創資通股份有限公司 | 擴增實境系統及其色彩補償方法 |
US10909373B1 (en) | 2018-08-24 | 2021-02-02 | Snap Inc. | Augmented reality system using structured light |
CN111818326B (zh) * | 2019-04-12 | 2022-01-28 | 广东虚拟现实科技有限公司 | 图像处理方法、装置、系统、终端设备及存储介质 |
US11004269B2 (en) * | 2019-04-22 | 2021-05-11 | Microsoft Technology Licensing, Llc | Blending virtual environments with situated physical reality |
US11216920B2 (en) * | 2019-05-31 | 2022-01-04 | Apple Inc. | Enhanced local contrast |
CN112241199B (zh) | 2019-07-19 | 2023-03-24 | 华为技术有限公司 | 虚拟现实场景中的交互方法及装置 |
EP3819699B1 (en) * | 2019-11-08 | 2024-02-21 | Leica Instruments (Singapore) Pte. Ltd. | Optical system and corresponding apparatus, method and computer program |
US11645756B2 (en) * | 2019-11-14 | 2023-05-09 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
US11545108B2 (en) * | 2020-02-03 | 2023-01-03 | Apple Inc. | Modifying rendered image data based on ambient light from a physical environment |
US11423621B1 (en) * | 2020-05-21 | 2022-08-23 | Facebook Technologies, Llc. | Adaptive rendering in artificial reality environments |
CN111832104B (zh) * | 2020-06-24 | 2023-07-28 | 深圳市万翼数字技术有限公司 | 三维设备模型的建立方法及相关设备 |
US11715405B1 (en) * | 2021-02-10 | 2023-08-01 | Sivalogeswaran Ratnasingam | Chroma modification based on ambient light characteristics |
US12003859B2 (en) * | 2021-07-16 | 2024-06-04 | Samsung Electronics Co., Ltd. | Brightness adjustment method, and apparatus thereof |
KR20230103379A (ko) * | 2021-12-31 | 2023-07-07 | 삼성전자주식회사 | Ar 처리 방법 및 장치 |
CN114419293B (zh) * | 2022-01-26 | 2023-06-06 | 广州鼎飞航空科技有限公司 | 一种增强现实的数据处理方法、装置及设备 |
CN116883607B (zh) * | 2023-09-06 | 2023-12-05 | 四川物通科技有限公司 | 基于辐射传输的虚拟现实场景生成系统 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3450792B2 (ja) | 1999-03-25 | 2003-09-29 | キヤノン株式会社 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
JP2002148559A (ja) * | 2000-11-15 | 2002-05-22 | Mixed Reality Systems Laboratory Inc | 画像観察装置及びそれを用いた画像観察システム |
WO2010071531A1 (en) * | 2008-12-19 | 2010-06-24 | Saab Ab | System and method for mixing a scene with a virtual scenario |
JP5136442B2 (ja) * | 2009-01-27 | 2013-02-06 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
US8107084B2 (en) * | 2009-01-30 | 2012-01-31 | Zygo Corporation | Interference microscope with scan motion detection using fringe motion in monitor patterns |
US9323325B2 (en) * | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US8670000B2 (en) * | 2011-09-12 | 2014-03-11 | Google Inc. | Optical display system and method with virtual image contrast control |
US9734633B2 (en) * | 2012-01-27 | 2017-08-15 | Microsoft Technology Licensing, Llc | Virtual environment generating system |
US9147111B2 (en) * | 2012-02-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Display with blocking image generation |
CN103472909B (zh) * | 2012-04-10 | 2017-04-12 | 微软技术许可有限责任公司 | 用于头戴式、增强现实显示器的逼真遮挡 |
US20130328925A1 (en) * | 2012-06-12 | 2013-12-12 | Stephen G. Latta | Object focus in a mixed reality environment |
US9430055B2 (en) | 2012-06-15 | 2016-08-30 | Microsoft Technology Licensing, Llc | Depth of field control for see-thru display |
US9158114B2 (en) * | 2012-11-05 | 2015-10-13 | Exelis Inc. | Image display utilizing a variable mask to selectively block image data |
JP6273677B2 (ja) | 2013-02-28 | 2018-02-07 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
BR112015024910A2 (pt) * | 2013-03-26 | 2017-07-18 | Seiko Epson Corp | dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição |
CN106133796B (zh) * | 2014-03-25 | 2019-07-16 | 苹果公司 | 用于在真实环境的视图中表示虚拟对象的方法和系统 |
JP6571110B2 (ja) * | 2014-07-18 | 2019-09-04 | ビュージックス コーポレーションVuzix Corporation | 自己発光型マイクロディスプレイエンジンを有する接眼ディスプレイ |
US10750153B2 (en) * | 2014-09-22 | 2020-08-18 | Samsung Electronics Company, Ltd. | Camera system for three-dimensional video |
CN107111366B (zh) * | 2014-12-22 | 2020-10-30 | 依视路国际公司 | 用于使感觉输出装置的感觉输出模式与使用者适配的方法 |
CA3016344A1 (en) * | 2016-03-15 | 2017-09-21 | Magic Leap, Inc. | Direct light compensation technique for augmented reality system |
-
2017
- 2017-03-15 CA CA3016344A patent/CA3016344A1/en active Pending
- 2017-03-15 AU AU2017232527A patent/AU2017232527A1/en not_active Abandoned
- 2017-03-15 NZ NZ745790A patent/NZ745790A/en unknown
- 2017-03-15 EP EP22204618.7A patent/EP4156167A1/en active Pending
- 2017-03-15 US US15/460,009 patent/US10628996B2/en active Active
- 2017-03-15 CN CN202310452721.5A patent/CN116485929A/zh active Pending
- 2017-03-15 CN CN201780017089.4A patent/CN108780578B/zh active Active
- 2017-03-15 EP EP17767470.2A patent/EP3430610B1/en active Active
- 2017-03-15 KR KR1020187029599A patent/KR102180060B1/ko active IP Right Grant
- 2017-03-15 JP JP2018548381A patent/JP6750025B2/ja active Active
- 2017-03-15 NZ NZ786033A patent/NZ786033A/en unknown
- 2017-03-15 WO PCT/US2017/022578 patent/WO2017161039A1/en active Application Filing
-
2018
- 2018-08-30 IL IL261478A patent/IL261478B/en unknown
-
2020
- 2020-03-08 US US16/812,343 patent/US11257285B2/en active Active
- 2020-08-12 JP JP2020136187A patent/JP7054406B2/ja active Active
-
2021
- 2021-10-18 IL IL287369A patent/IL287369B2/en unknown
-
2022
- 2022-03-09 AU AU2022201635A patent/AU2022201635A1/en not_active Abandoned
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019517012A5 (ja) | ||
JP6750025B2 (ja) | 拡張現実(ar)システムを動作させる方法 | |
US10204452B2 (en) | Apparatus and method for providing augmented reality-based realistic experience | |
US20200126292A1 (en) | Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods | |
CA2857510C (en) | Display of shadows via see-through display | |
US11353703B2 (en) | Image processing via multi-sample anti-aliasing | |
US20130293531A1 (en) | User perception of visual effects | |
US20190188914A1 (en) | Terminal device, system, program, and method | |
US20240202005A1 (en) | Encoding stereo splash screen in static image | |
US11941729B2 (en) | Image processing apparatus, method for controlling image processing apparatus, and storage medium | |
Manabe et al. | Shadow inducers: Inconspicuous highlights for casting virtual shadows on ost-hmds | |
JP2005250978A (ja) | 三次元画像処理装置および三次元画像処理方法 | |
WO2022070270A1 (ja) | 画像生成装置および画像生成方法 | |
JP6717486B1 (ja) | 拡張仮想空間提供システム | |
WO2022244131A1 (ja) | 画像データ生成装置、表示装置、画像表示システム、画像データ生成方法、画像表示方法、および、画像データのデータ構造 | |
KR20180092187A (ko) | 증강 현실 제공 시스템 | |
WO2024071208A1 (ja) | 表示装置、表示方法及びプログラム | |
NZ751028B2 (en) | Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods |