JP2021093206A - 仮想および拡張現実システムならびに方法 - Google Patents

仮想および拡張現実システムならびに方法 Download PDF

Info

Publication number
JP2021093206A
JP2021093206A JP2021033518A JP2021033518A JP2021093206A JP 2021093206 A JP2021093206 A JP 2021093206A JP 2021033518 A JP2021033518 A JP 2021033518A JP 2021033518 A JP2021033518 A JP 2021033518A JP 2021093206 A JP2021093206 A JP 2021093206A
Authority
JP
Japan
Prior art keywords
display
image
virtual
depth plane
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021033518A
Other languages
English (en)
Other versions
JP7230082B2 (ja
Inventor
フェリックス ロドリゲス ホセ
Felix Rodriguez Jose
フェリックス ロドリゲス ホセ
マルティネス ペレス リカルド
Martinez Perez Ricardo
マルティネス ペレス リカルド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021093206A publication Critical patent/JP2021093206A/ja
Priority to JP2022179495A priority Critical patent/JP7454627B2/ja
Application granted granted Critical
Publication of JP7230082B2 publication Critical patent/JP7230082B2/ja
Priority to JP2024014037A priority patent/JP2024036460A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0235Field-sequential colour display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/08Details of timing specific for flat panels, other than clock recovery
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • G09G3/2022Display of intermediate tones by time modulation using two or more time intervals using sub-frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想および拡張現実イメージングおよび可視化システムを提供すること。【解決手段】ディスプレイ上に示されることを意図している仮想または拡張現実画像とともに含まれる制御情報を使用して、ディスプレイを制御する、仮想または拡張現実ディスプレイシステム。制御情報は、複数の可能性として考えられるディスプレイ深度平面のうちの1つを規定するために使用されることができる。制御情報はまた、所与の深度平面内または深度平面間のピクセル偏移を規定することもできる。本システムはまた、生理学的可動域内のユーザの頭部姿勢位置に基づいて変動する利得係数を使用することによって、センサからの頭部姿勢測定を強化することもできる。【選択図】なし

Description

(関連出願の相互参照)
本願は、2015年8月18日に出願され、“VIRTUAL AND AUGMENTED REALITY SYSTEMS AND METHODS”と題された米国仮出願第62/206,765号の35 USC §119(e)のもとでの優先権の利益を主張するものであり、該米国仮出願は、その全体が参照により本明細書中に援用される。
本開示は、仮想および拡張現実イメージングおよび可視化システムに関する。
現代のコンピューティングおよびディスプレイ技術は、仮想現実および拡張現実システムの開発を促進している。仮想現実または「VR」システムは、ユーザが体験するためのシミュレーションされた環境を作成する。これは、ディスプレイを通してコンピュータ生成画像をユーザに提示することによって、行われることができる。本画像は、シミュレーションされた環境にユーザを没頭させる感覚的体験を生成する。仮想現実シナリオは、典型的には、コンピュータ生成画像の提示だけではなく、実世界画像を含むことも伴う。
拡張現実システムは、概して、実世界環境をシミュレーションされた要素で補完する。例えば、拡張現実または「AR」システムは、ディスプレイを介して、周辺の実世界環境の光景をユーザに提供し得る。しかしながら、コンピュータ生成画像はまた、実世界環境を強化するようにディスプレイ上に提示されることもできる。本コンピュータ生成画像は、実世界環境に状況的に関連する要素を含むことができる。そのような要素は、シミュレーションされたテキスト、画像、オブジェクト等を含むことができる。シミュレーションされた要素は、多くの場合、リアルタイムで双方向性であり得る。図1は、AR技術のユーザが、背景における人々、木々、建物を特徴とする実世界公園状設定6と、コンクリートプラットフォーム1120とを見る、例示的拡張現実場面1を描写する。これらのアイテムに加えて、コンピュータ生成画像もユーザに提示される。コンピュータ生成画像は、例えば、実世界プラットフォーム1120上に立っているロボット像1110、およびマルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ2が、実際には実世界環境に存在していなくても、これらの要素2、1110を含むことができる。
ヒトの視知覚系は、複雑であって、仮想または実世界画像要素の中でもとりわけ仮想画像要素の快適、自然な感覚、かつ豊かな提示を促進する、VRまたはAR技術を生成することは困難である。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムは、複数の深度平面の画像を表示するように構成される、ディスプレイと、グラフィックスプロセッサからレンダリングされた仮想または拡張現実画像データを受信するように、かつレンダリングされた画像に埋め込まれた制御情報に少なくとも部分的に基づいてディスプレイを制御するように構成される、ディスプレイコントローラとを備え、埋め込まれた制御情報は、画像を表示するときに、レンダリングされた画像の少なくとも一部に適用する偏移を示す。
いくつかの実施形態では、偏移は、レンダリングされた画像内の1つまたはそれを上回るオブジェクトの位置と比較して、1つまたはそれを上回る仮想または拡張現実オブジェクトの表示された位置を変更する。
いくつかの実施形態では、偏移は、同一深度平面内の規定数のピクセルによる、画像の少なくとも一部の横方向偏移を備える。
いくつかの実施形態では、偏移は、1つの深度平面から別の深度平面への画像の少なくとも一部の縦方向偏移を備える。
いくつかの実施形態では、ディスプレイコントローラはさらに、1つの深度平面から別の深度平面への縦方向偏移と併せて、画像の少なくとも一部を拡大縮小するように構成される。
いくつかの実施形態では、偏移は、1つの深度平面から仮想深度平面への画像の少なくとも一部の縦方向偏移を備え、仮想深度平面は、少なくとも2つの深度平面の加重組み合わせを備える。
いくつかの実施形態では、偏移は、ユーザの頭部姿勢に関する情報に基づく。
いくつかの実施形態では、偏移は、画像を再レンダリングすることなくディスプレイコントローラによって行われる。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムにおける方法は、グラフィックスプロセッサからレンダリングされた仮想または拡張現実画像データを受信するステップと、レンダリングされた画像に埋め込まれた制御情報に少なくとも部分的に基づいて、複数の深度平面の画像を表示するステップとを含み、埋め込まれた制御情報は、画像を表示するときに、レンダリングされた画像の少なくとも一部に適用する偏移を示す。
いくつかの実施形態では、本方法はさらに、レンダリングされた画像内の1つまたはそれを上回るオブジェクトの位置と比較して、1つまたはそれを上回る仮想または拡張現実オブジェクトの表示された位置を偏移させるステップを含む。
いくつかの実施形態では、本方法はさらに、制御情報に基づいて、同一深度平面内の規定数のピクセルによって画像の少なくとも一部を横方向に偏移させるステップを含む。
いくつかの実施形態では、本方法はさらに、制御情報に基づいて、1つの深度平面から別の深度平面へ画像の少なくとも一部を縦方向に偏移させるステップを含む。
いくつかの実施形態では、本方法はさらに、1つの深度平面から別の深度平面へ画像を縦方向に偏移させるステップと併せて、画像の少なくとも一部を拡大縮小するステップを含む。
いくつかの実施形態では、本方法はさらに、1つの深度平面から仮想深度平面へ画像の少なくとも一部を縦方向に偏移させるステップを含み、仮想深度平面は、少なくとも2つの深度平面の加重組み合わせを備える。
いくつかの実施形態では、偏移は、ユーザの頭部姿勢に関する情報に基づく。
いくつかの実施形態では、本方法はさらに、画像を再レンダリングすることなく画像を偏移させるステップを含む。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムは、複数の深度平面のための仮想または拡張現実画像を表示するように構成されたディスプレイであって、該画像は、ピクセルデータの行および列で構成される一連の画像を備える、ディスプレイと、グラフィックスプロセッサから画像を受信するように、かつ画像に埋め込まれた制御情報に少なくとも部分的に基づいてディスプレイを制御するように構成される、ディスプレイコントローラとを備え、埋め込まれた制御情報は、複数の深度平面のうちのいずれにおいて画像の少なくとも一部を表示するかを示す、深度平面インジケータデータを備える。
いくつかの実施形態では、制御情報は、一連の画像内のピクセルデータの行および列の数を変更しない。
いくつかの実施形態では、制御情報は、一連の画像のうちの1つまたはそれを上回るものの中のピクセルデータの行または列に代用される、情報の行または列を備える。
いくつかの実施形態では、制御情報は、一連の画像のうちの1つまたはそれを上回るもののピクセルデータに添付される情報の行または列を備える。
いくつかの実施形態では、ピクセルデータは、複数の色値を備え、深度平面インジケータデータは、色値のうちの少なくとも1つのものの1つまたはそれを上回るビットに代用される。
いくつかの実施形態では、深度平面インジケータデータは、色値のうちの少なくとも1つのものの1つまたはそれを上回る最下位ビットに代用される。
いくつかの実施形態では、深度平面インジケータデータは、青色値の1つまたはそれを上回るビットに代用される。
いくつかの実施形態では、各ピクセルは、深度平面インジケータデータを備える。
いくつかの実施形態では、ディスプレイコントローラは、少なくとも部分的に深度平面インジケータデータに基づいて、一連の画像を順序付けるように構成される。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムにおける方法は、グラフィックスプロセッサから、仮想または拡張現実画像を受信するステップであって、該画像は、複数の深度平面のピクセルデータの行および列で構成される一連の画像を備える、ステップと、画像に埋め込まれた制御情報に少なくとも部分的に基づいて画像を表示するステップとを含み、埋め込まれた制御情報は、複数の深度平面のうちのいずれにおいて画像の少なくとも一部を表示するかを示す、深度平面インジケータデータを備える。
いくつかの実施形態では、制御情報は、一連の画像内のピクセルデータの行および列の数を変更しない。
いくつかの実施形態では、制御情報は、一連の画像のうちの1つまたはそれを上回るものの中のピクセルデータの行または列に代用される、情報の行または列を備える。
いくつかの実施形態では、制御情報は、一連の画像のうちの1つまたはそれを上回るもののピクセルデータに添付される情報の行または列を備える。
いくつかの実施形態では、ピクセルデータは、複数の色値を備え、深度平面インジケータデータは、色値のうちの少なくとも1つのものの1つまたはそれを上回るビットに代用される。
いくつかの実施形態では、深度平面インジケータデータは、色値のうちの少なくとも1つのものの1つまたはそれを上回る最下位ビットに代用される。
いくつかの実施形態では、深度平面インジケータデータは、青色値の1つまたはそれを上回るビットに代用される。
いくつかの実施形態では、各ピクセルは、深度平面インジケータデータを備える。
いくつかの実施形態では、本方法はさらに、少なくとも部分的に深度平面インジケータデータに基づいて、一連の画像を順序付けるステップを含む。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムは、経時的にユーザの頭部姿勢の測定を提供するように構成される、第1のセンサと、少なくとも1つの頭部姿勢測定に基づいて、かつ少なくとも1つの計算された予測頭部姿勢に基づいて、ユーザの頭部姿勢を推定するように構成される、プロセッサとを備え、プロセッサは、1つまたはそれを上回る利得係数を使用して、頭部姿勢測定および予測頭部姿勢を組み合わせるように構成され、1つまたはそれを上回る利得係数は、生理学的可動域内のユーザの頭部姿勢位置に基づいて変動する。
いくつかの実施形態では、第1のセンサは、頭部搭載型であるように構成される。
いくつかの実施形態では、第1のセンサは、慣性測定ユニットを備える。
いくつかの実施形態では、1つまたはそれを上回る利得係数は、ユーザの頭部姿勢が生理学的可動域の中心部分にあるときに、頭部姿勢測定よりも予測頭部姿勢を強調する。
いくつかの実施形態では、1つまたはそれを上回る利得係数は、ユーザの頭部姿勢が、ユーザの生理学的可動域の限界よりも生理学的可動域の中央に近いときに、頭部姿勢測定よりも予測頭部姿勢を強調する。
いくつかの実施形態では、1つまたはそれを上回る利得係数は、ユーザの頭部姿勢が生理学的可動域の限界に接近するときに、予測頭部姿勢よりも頭部姿勢測定を強調する。
いくつかの実施形態では、1つまたはそれを上回る利得係数は、ユーザの頭部姿勢が、生理学的可動域の中央よりも生理学的可動域の限界に近いときに、予測頭部姿勢よりも頭部姿勢測定を強調する。
いくつかの実施形態では、第1のセンサは、頭部搭載型であるように構成され、身体搭載型であるように構成される第2のセンサをさらに備え、少なくとも1つの頭部姿勢測定は、第1のセンサおよび第2のセンサの両方からの測定に基づいて判定される。
いくつかの実施形態では、頭部姿勢測定は、第1のセンサおよび第2のセンサからの測定の間の差に基づいて判定される。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムにおいて頭部姿勢を推定する方法は、第1のセンサから経時的にユーザの頭部姿勢の測定を受信するステップと、プロセッサを使用して、少なくとも1つの頭部姿勢測定に基づいて、かつ少なくとも1つの計算された予測頭部姿勢に基づいて、ユーザの頭部姿勢を推定するステップとを含み、ユーザの頭部姿勢を推定するステップは、1つまたはそれを上回る利得係数を使用して、頭部姿勢測定および予測頭部姿勢を組み合わせるステップを含み、1つまたはそれを上回る利得係数は、生理学的可動域内のユーザの頭部姿勢位置に基づいて変動する。
いくつかの実施形態では、第1のセンサは、頭部搭載型であるように構成され、本方法はさらに、身体搭載型であるように構成される第2のセンサから身体配向測定を受信するステップと、少なくとも1つの頭部姿勢測定に基づいて、かつ少なくとも1つの計算された予測頭部姿勢に基づいて、ユーザの頭部姿勢を推定するステップとを含み、少なくとも1つの頭部姿勢測定は、第1のセンサおよび第2のセンサの両方からの測定に基づいて判定される。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムは、周囲照明の1つまたはそれを上回る特性を判定するように構成される、センサと、周囲照明の1つまたはそれを上回る特性に基づいて、仮想オブジェクトの1つまたはそれを上回る特性を調節するように構成される、プロセッサと、仮想オブジェクトをユーザに表示するように構成される、ディスプレイとを備える。
いくつかの実施形態では、周囲照明の1つまたはそれを上回る特性は、周囲照明の明度を備える。
いくつかの実施形態では、周囲照明の1つまたはそれを上回る特性は、周囲照明の色相を備える。
いくつかの実施形態では、仮想オブジェクトの1つまたはそれを上回る特性は、仮想オブジェクトの明度を備える。
いくつかの実施形態では、仮想オブジェクトの1つまたはそれを上回る特性は、仮想オブジェクトの色相を備える。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムにおける方法は、センサから周囲照明の1つまたはそれを上回る特性を受信するステップと、プロセッサを使用して、周囲照明の1つまたはそれを上回る特性に基づいて、仮想オブジェクトの1つまたはそれを上回る特性を調節するステップと、仮想オブジェクトをユーザに表示するステップとを含む。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムは、仮想または拡張現実画像データを圧縮するように構成される、プロセッサであって、画像は、複数の深度平面の画像を備え、該プロセッサは、画像の深度平面の間の冗長情報を削減することによって、画像データを圧縮するように構成される、プロセッサと、複数の深度平面の画像を表示するように構成される、ディスプレイとを備える。
いくつかの実施形態では、深度平面の画像は、隣接する深度平面に対する差に関して表される。
いくつかの実施形態では、プロセッサは、深度平面の間のオブジェクトの運動を符号化する。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムにおける方法は、プロセッサを用いて、仮想または拡張現実画像データを圧縮するステップであって、画像は、複数の深度平面の画像を備え、プロセッサは、画像の深度平面の間の冗長情報を削減することによって、画像データを圧縮するように構成される、ステップと、複数の深度平面の画像を表示するステップとを含む。
いくつかの実施形態では、深度平面の画像は、隣接する深度平面に対する差に関して表される。
いくつかの実施形態では、本方法はさらに、深度平面の間のオブジェクトの運動を符号化するステップを含む。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムは、複数の深度平面の仮想または拡張現実画像を表示するように構成される、ディスプレイと、ディスプレイを制御するように構成される、ディスプレイコントローラとを備え、ディスプレイコントローラは、表示サイクル毎にリフレッシュするようにディスプレイの下位部分を動的に構成する。
いくつかの実施形態では、ディスプレイは、走査ディスプレイを備え、ディスプレイコントローラは、画像がリフレッシュされる必要がない、ディスプレイのエリアを省略するように走査パターンを動的に構成する。
いくつかの実施形態では、表示サイクルは、ビデオ画像のフレームを備える。
いくつかの実施形態では、ディスプレイコントローラは、リフレッシュされるディスプレイの下位部分がサイズを縮小させる場合にビデオフレームレートを増加させる。
いくつかの実施形態では、ディスプレイコントローラは、リフレッシュされるディスプレイの下位部分がサイズを増大させる場合にビデオフレームレートを減少させる。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムにおける方法は、ディスプレイを用いて、複数の深度平面の仮想または拡張現実画像を表示するステップと、表示サイクル毎にリフレッシュするようにディスプレイの下位部分を動的に構成するステップとを含む。
いくつかの実施形態では、ディスプレイは、走査ディスプレイを備え、本方法はさらに、画像がリフレッシュされる必要がない、ディスプレイのエリアを省略するように走査パターンを動的に構成するステップを含む。
いくつかの実施形態では、表示サイクルは、ビデオ画像のフレームを備える。
いくつかの実施形態では、本方法はさらに、リフレッシュされるディスプレイの下位部分がサイズを縮小させる場合にビデオフレームレートを増加させるステップを含む。
いくつかの実施形態では、本方法はさらに、リフレッシュされるディスプレイの下位部分がサイズを増大させる場合にビデオフレームレートを減少させるステップを含む。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムは、空間内で変動する電場または磁場を伝送するトランスミッタと、ユーザが仮想オブジェクトまたは場面と相互作用することを可能にする、有形オブジェクトであって、トランスミッタから電場または磁場を検出するセンサを備える、有形オブジェクトとを備え、センサからの測定は、トランスミッタに対する有形オブジェクトの位置または配向を判定するために使用される。
いくつかの実施形態では、トランスミッタは、仮想または拡張現実ディスプレイシステムの頭部搭載型部分と統合される。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムにおける方法は、トランスミッタを使用して、空間内で変動する電場または磁場を伝送するステップと、センサを使用して、電場または磁場を検出するステップと、センサからの測定を使用し、トランスミッタに対するセンサの位置または配向を判定するステップとを含む。
いくつかの実施形態では、トランスミッタは、仮想または拡張現実ディスプレイシステムの頭部搭載型部分と統合される。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムは、複数の深度平面の画像を表示するように構成される、ディスプレイと、レンダリングされた仮想または拡張現実画像データを受信するように、かつレンダリングされた画像に埋め込まれた制御情報に少なくとも部分的に基づいてディスプレイを制御するように構成される、ディスプレイコントローラとを備え、埋め込まれた制御情報は、画像を表示するときに、レンダリングされた画像の少なくとも一部に適用する所望の明度または色を示す。所望の明度または色は、レンダリングされた画像内の1つまたはそれを上回るオブジェクトの位置と比較して、1つまたはそれを上回る仮想または拡張現実オブジェクトの表示された位置を変更することができる。所望の明度または色は、1つの深度平面から仮想深度平面への画像の少なくとも一部の縦方向偏移を備えることができ、仮想深度平面は、少なくとも2つの深度平面の加重組み合わせを備える。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムは、複数の深度平面の画像を表示するように構成される、ディスプレイと、レンダリングされた仮想または拡張現実画像データを受信するように、かつ少なくとも部分的に制御情報に基づいてディスプレイを制御するように構成される、ディスプレイコントローラとを備え、制御情報は、少なくとも1つの深度平面が非アクティブであることを示し、ディスプレイコントローラは、少なくとも1つの深度平面が非アクティブであるというインジケーションに基づいて、ディスプレイを制御し、それによって、電力消費量を削減するように構成される。
いくつかの実施形態では、少なくとも1つの深度平面が非アクティブであるというインジケーションは、画像を表示する複数のアクティブな深度平面を規定する、深度平面インジケータデータを備える、制御情報を備える。
いくつかの実施形態では、少なくとも1つの深度平面が非アクティブであるというインジケーションは、少なくとも1つの深度平面が非アクティブであることを規定する、深度平面インジケータデータを備える、制御情報を備える。
いくつかの実施形態では、制御情報は、レンダリングされた画像に埋め込まれる。
いくつかの実施形態では、ディスプレイコントローラは、少なくとも1つの深度平面が非アクティブであることを示す該制御情報の結果として、1つまたはそれを上回る光源の電力を削減させ、それによって、電力消費量を削減する。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムにおける方法は、複数の深度平面上で画像を表示するためのレンダリングされた仮想または拡張現実画像データを受信するステップと、少なくとも1つの深度平面が非アクティブであることを示す、制御情報を受信するステップと、少なくとも1つの深度平面が非アクティブであることを示す該制御情報に少なくとも部分的に基づいて、複数の深度平面の画像を表示し、それによって、電力消費量を削減するステップとを含む。
いくつかの実施形態では、制御情報は、画像を表示する複数のアクティブな深度平面を規定する、深度平面インジケータデータを備える。
いくつかの実施形態では、制御情報は、非アクティブである少なくとも1つの深度平面を規定する、深度平面インジケータデータを備える。
いくつかの実施形態では、制御情報は、レンダリングされた画像に埋め込まれる。
いくつかの実施形態では、少なくとも1つの深度平面が非アクティブであることを示す該制御情報の結果として、1つまたはそれを上回る光源は、電力が削減され、それによって、電力消費量を削減する。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムは、複数の色視野を有する複数の深度平面の画像を表示するように構成される、ディスプレイと、レンダリングされた仮想または拡張現実画像データを受信するように、かつ少なくとも部分的に制御情報に基づいてディスプレイを制御するように構成される、ディスプレイコントローラとを備え、制御情報は、少なくとも1つの色視野が非アクティブであることを示し、ディスプレイコントローラは、少なくとも1つの色視野が非アクティブであるというインジケーションに基づいて、ディスプレイを制御し、それによって、電力消費量を削減するように構成される。
いくつかの実施形態では、少なくとも1つの色視野が非アクティブであるというインジケーションは、画像を表示する複数のアクティブな色視野を規定する、色視野インジケータデータを備える、制御情報を備える。
いくつかの実施形態では、少なくとも1つの色視野が非アクティブであるというインジケーションは、少なくとも1つの色視野が非アクティブであることを規定する、色視野インジケータデータを備える、制御情報を備える。
いくつかの実施形態では、制御情報は、レンダリングされた画像に埋め込まれる。
いくつかの実施形態では、ディスプレイコントローラは、少なくとも1つの色視野が非アクティブであることを示す該制御情報の結果として、1つまたはそれを上回る光源の電力を削減させ、それによって、電力消費量を削減する。
いくつかの実施形態では、仮想または拡張現実ディスプレイシステムにおける方法は、複数の色視野を有する複数の深度平面上で画像を表示するためのレンダリングされた仮想または拡張現実画像データを受信するステップと、少なくとも1つの色視野が非アクティブであることを示す制御情報を受信するステップと、少なくとも1つの色視野が非アクティブであることを示す該制御情報に少なくとも部分的に基づいて、複数の深度平面内で複数の色視野の画像を表示し、それによって、電力消費量を削減するステップとを含む。
いくつかの実施形態では、制御情報は、画像を表示する複数のアクティブな色視野を規定する、色視野インジケータデータを備える。
いくつかの実施形態では、制御情報は、非アクティブである少なくとも1つの色視野を規定する、色視野インジケータデータを備える。
いくつかの実施形態では、制御情報は、レンダリングされた画像に埋め込まれる。
いくつかの実施形態では、少なくとも1つの色視野が非アクティブであることを示す該制御情報の結果として、1つまたはそれを上回る光源は、電力が削減され、それによって、電力消費量を削減する。本発明は、例えば、以下を提供する。
(項目1)
複数の深度平面の画像を表示するように構成される、ディスプレイと、
グラフィックスプロセッサからレンダリングされた仮想または拡張現実画像データを受信するように、かつ前記レンダリングされた画像に埋め込まれた制御情報に少なくとも部分的に基づいて前記ディスプレイを制御するように構成される、ディスプレイコントローラと、
を備え、
前記埋め込まれた制御情報は、前記画像を表示するときに、前記レンダリングされた画像の少なくとも一部に適用する偏移を示す、仮想または拡張現実ディスプレイシステム。
(項目2)
前記偏移は、前記レンダリングされた画像内の1つまたはそれを上回るオブジェクトの位置と比較して、1つまたはそれを上回る仮想または拡張現実オブジェクトの表示された位置を変更する、項目1に記載の仮想または拡張現実ディスプレイシステム。
(項目3)
前記偏移は、同一深度平面内の規定数のピクセルによる、前記画像の少なくとも一部の横方向偏移を備える、項目1に記載の仮想または拡張現実ディスプレイシステム。
(項目4)
前記偏移は、1つの深度平面から別の深度平面への前記画像の少なくとも一部の縦方向偏移を備える、項目1に記載の仮想または拡張現実ディスプレイシステム。
(項目5)
前記ディスプレイコントローラはさらに、1つの深度平面から別の深度平面への縦方向偏移と併せて、前記画像の少なくとも一部を拡大縮小するように構成される、項目4に記載の仮想または拡張現実ディスプレイシステム。
(項目6)
前記偏移は、1つの深度平面から仮想深度平面への前記画像の少なくとも一部の縦方向偏移を備え、前記仮想深度平面は、少なくとも2つの深度平面の加重組み合わせを備える、項目1に記載の仮想または拡張現実ディスプレイシステム。
(項目7)
前記偏移は、ユーザの頭部姿勢に関する情報に基づく、項目1に記載の仮想または拡張現実ディスプレイシステム。
(項目8)
前記偏移は、前記画像を再レンダリングすることなく前記ディスプレイコントローラによって行われる、項目1に記載の仮想または拡張現実ディスプレイシステム。
(項目9)
仮想または拡張現実ディスプレイシステムにおける方法であって、
グラフィックスプロセッサからレンダリングされた仮想または拡張現実画像データを受信するステップと、
前記レンダリングされた画像に埋め込まれた制御情報に少なくとも部分的に基づいて、複数の深度平面の画像を表示するステップと、
を含み、
前記埋め込まれた制御情報は、前記画像を表示するときに、前記レンダリングされた画像の少なくとも一部に適用する偏移を示す、方法。
(項目10)
前記画像を表示するステップは、前記レンダリングされた画像内の1つまたはそれを上回るオブジェクトの位置と比較して、1つまたはそれを上回る仮想または拡張現実オブジェクトの表示された位置を偏移させるステップを含む、項目9に記載の方法。
(項目11)
前記表示された位置を偏移させるステップは、前記制御情報に基づいて、同一深度平面内の規定数のピクセルによって前記画像の少なくとも一部を横方向に偏移させるステップを含む、項目9に記載の方法。
(項目12)
前記表示された位置を偏移させるステップは、前記制御情報に基づいて、1つの深度平面から別の深度平面へ前記画像の少なくとも一部を縦方向に偏移させるステップを含む、項目9に記載の方法。
(項目13)
1つの深度平面から別の深度平面へ前記画像を縦方向に偏移させるステップと併せて、前記画像の少なくとも一部を拡大縮小するステップをさらに含む、項目12に記載の方法。
(項目14)
前記表示された位置を偏移させるステップは、1つの深度平面から仮想深度平面へ前記画像の少なくとも一部を縦方向に偏移させるステップを含み、前記仮想深度平面は、少なくとも2つの深度平面の加重組み合わせを備える、項目9に記載の方法。
(項目15)
前記偏移は、ユーザの頭部姿勢に関する情報に基づく、項目9に記載の方法。
(項目16)
前記画像を再レンダリングすることなく前記画像を偏移させるステップをさらに含む、項目9に記載の方法。
(項目17)
周囲照明の1つまたはそれを上回る特性を判定するように構成される、センサと、
前記周囲照明の前記1つまたはそれを上回る特性に基づいて、仮想オブジェクトの1つまたはそれを上回る特性を調節するように構成される、プロセッサと、
前記仮想オブジェクトをユーザに表示するように構成される、ディスプレイと、
を備える、仮想または拡張現実ディスプレイシステム。
(項目18)
前記周囲照明の前記1つまたはそれを上回る特性は、前記周囲照明の明度を備える、項目17に記載の仮想または拡張現実ディスプレイシステム。
(項目19)
前記周囲照明の前記1つまたはそれを上回る特性は、前記周囲照明の色相を備える、項目17に記載の仮想または拡張現実ディスプレイシステム。
(項目20)
前記仮想オブジェクトの前記1つまたはそれを上回る特性は、前記仮想オブジェクトの明度を備える、項目17に記載の仮想または拡張現実ディスプレイシステム。
(項目21)
前記仮想オブジェクトの前記1つまたはそれを上回る特性は、前記仮想オブジェクトの色相を備える、項目17に記載の仮想または拡張現実ディスプレイシステム。
(項目22)
仮想または拡張現実ディスプレイシステムにおける方法であって、
センサから周囲照明の1つまたはそれを上回る特性を受信するステップと、
プロセッサを使用して、前記周囲照明の前記1つまたはそれを上回る特性に基づいて、仮想オブジェクトの1つまたはそれを上回る特性を調節するステップと、
前記仮想オブジェクトをユーザに表示するステップと、
を含む、方法。
図1は、例示的ARシステムを使用した拡張現実(AR)場面のユーザの視界を図示する。
図2は、装着可能ディスプレイシステムの実施例を図示する。
図3は、ユーザのための3次元画像をシミュレーションするための従来のディスプレイシステムを図示する。
図4は、複数の深度平面を使用して3次元画像をシミュレーションするためのアプローチの側面を図示する。
図5A−5Cは、曲率半径と焦点半径との間の関係を図示する。
図6は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。
図7は、導波管によって出力された出射ビームの実施例を示す。
図8は、各深度平面が、異なる色の光をそれぞれ出力する、3つの関連付けられる導波管を有する、導波管スタックの例示的設計を図示する。
図9は、ライトフィールド画像を表示する仮想または拡張現実システムのための例示的タイミング方式を図示する。
図10は、添付制御データを含む、ビデオデータのフレームの例示的フォーマットを図示する。
図11は、制御データを含む、ビデオデータのフレームの別の例示的フォーマットを図示する。
図12は、埋め込まれた制御データを含む、ビデオデータのピクセルの例示的フォーマットを図示する。
図13は、どのようにしてビデオのフレームが、連続的に表示され得る色成分に分離されることができるかを図示する。
図14は、どのようにしてライトフィールドビデオデータのフレームが、深度平面インジケータデータを使用して、ディスプレイのための色成分サブフレームにそれぞれ分割され得る複数の深度平面に分離されることができるかを図示する。
図15は、図12の深度平面インジケータデータが、ライトフィールドビデオデータのフレームの1つまたはそれを上回る深度平面が非アクティブであることを示す、実施例を図示する。
図16は、拡張現実システムにおけるコンピュータ生成画像のフレームのための例示的描画エリアを図示する。
図17は、2つの回転軸を中心としたユーザの頭部の可能性として考えられる運動を概略的に図示する。
図18は、どのようにしてユーザの頭部姿勢が3次元表面上にマップされることができるかを図示する。
図19は、頭部姿勢追跡を向上させるための利得係数を定義するために使用され得る、種々の頭部姿勢領域を概略的に図示する。
本明細書に開示される仮想および拡張現実システムは、コンピュータ生成画像をユーザに提示する、ディスプレイを含むことができる。いくつかの実施形態では、ディスプレイシステムは、装着可能であって、これは、有利なこととして、より没入型のVRまたはAR体験を提供し得る。図2は、装着可能ディスプレイシステム80の実施例を図示する。ディスプレイシステム80は、ディスプレイ62と、そのディスプレイ62の機能をサポートする種々の機械モジュールおよびシステムならびに電子モジュールおよびシステムとを含む。ディスプレイ62は、ディスプレイシステムユーザまたは視認者60によって装着可能であって、ディスプレイ62をユーザ60の眼の正面に位置付けるように構成される、フレーム64に結合されてもよい。いくつかの実施形態では、スピーカ66が、フレーム64に結合され、ユーザの外耳道に隣接して位置付けられる(いくつかの実施形態では、示されていない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する)。ディスプレイ62は、有線または無線接続68によって等、フレーム64に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホン内に埋設される、または別様にユーザ60に除去可能に取り付けられる(例えば、リュック式構成、ベルト結合式構成において等)等、種々の構成で搭載され得る、ローカルデータ処理モジュール70に動作可能に結合される。
ローカル処理およびデータモジュール70は、両方ともデータの処理および記憶を支援するために利用され得る、プロセッサと、不揮発性メモリ(例えば、フラッシュメモリ)
等のデジタルメモリとを含んでもよい。これは、画像捕捉デバイス(例えば、カメラ)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープ等のセンサから捕捉されるデータを含む。センサは、例えば、フレーム64に動作可能に結合されてもよい、または別様にユーザ60に取り付けられてもよい。代替として、または加えて、センサデータは、おそらく、そのような処理または読出後のディスプレイ62への通過のために、遠隔処理モジュール72および/または遠隔データリポジトリ74を使用して取得および/または処理されてもよい。ローカル処理およびデータモジュール70は、遠隔モジュール(72、74)が相互に動作可能に結合され、ローカル処理およびデータモジュール70へのリソースとして利用可能であるように、有線または無線通信リンクを介して等、通信リンク(76、78)によって、これらの遠隔処理モジュール72および遠隔データリポジトリ74に動作可能に結合されてもよい。
いくつかの実施形態では、遠隔処理モジュール72は、データ(例えば、センサデータおよび/または画像情報)を分析および処理するように構成される、1つまたはそれを上回るプロセッサを含んでもよい。いくつかの実施形態では、遠隔データリポジトリ74は、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であり得る、デジタルデータ記憶設備を備えてもよい。いくつかの実施形態では、全てのデータは、記憶され、全ての計算は、ローカル処理およびデータモジュール内で行われ、遠隔モジュールからの完全に自律的な使用を可能にする。
いくつかの実施形態では、ディスプレイ62を介して提供されるコンピュータ生成画像は、3次元であるという印象を生成することができる。これは、例えば、立体画像をユーザに提示することによって、行われることができる。いくつかの従来のシステムでは、そのような画像は、わずかに異なる視点からの場面またはオブジェクトの別個の画像を含むことができる。別個の画像は、それぞれ、ユーザの右眼および左眼に提示されることができ、したがって、両眼視およびその関連付けられる深度知覚をシミュレーションする。
図3は、ユーザのための3次元画像をシミュレーションするための従来のディスプレイシステムを図示する。眼4および6毎に1つずつ、2つの明確に異なる画像74および76が、ユーザに出力される。画像74および76は、視認者の視線と平行な光学軸またはz−軸に沿って距離10だけ眼4および6から離間される。画像74および76は、平坦であり、眼4および6は、単一の遠近調節された状態をとることによって、画像上に合焦し得る。そのようなシステムは、画像74および76を組み合わせて、組み合わせられた画像の深度の知覚を提供するように、ヒト視覚系に依拠する。
しかしながら、ヒト視覚系は、より複雑であり、深度の現実的知覚を提供することは、より困難であることを理解されたい。例えば、従来の3Dディスプレイシステムの多くの視認者は、そのようなシステムが不快であることを見出すか、または深度の感覚を全く知覚しない場合がある。理論によって限定されるわけではないが、オブジェクトの視認者は、輻輳・開散運動(vergence)および遠近調節(accmmodation)の組み合わせに起因して、オブジェクトを「3次元」として知覚し得ると考えられる。相互に対する2つの眼の輻輳・開散運動の移動(すなわち、眼の視線を収束させ、オブジェクトに固定させるための、相互に向かった、または、そこから離れる瞳孔の転動移動)は、眼の水晶体を集束させること(または「遠近調節」)と密接に関連付けられる。通常条件下では、眼の水晶体の焦点を変化させる、または眼を遠近調節し、異なる距離における1つのオブジェクトから別のオブジェクトに焦点を変化させることは、「遠近調節−輻輳・開散運動反射」として既知である関係のもとで、同一距離までの輻輳・開散運動の整合的変化を自動的に引き起こすであろう。同様に、輻輳・開散運動の変化は、正常条件下で、遠近調節の整合的変化を誘起するであろう。本明細書に記述されるように、多くの立体ディスプレイシステムは、3次元視点がヒト視覚系によって知覚されるように、各眼へのわずかに異なる提示(したがって、わずかに異なる画像)を使用して、場面を表示する。しかしながら、そのようなシステムは、単に場面の異なる提示を提供するが、眼が全画像情報を単一の遠近調節された状態において視認し、したがって、遠近調節−輻輳・開散運動反射に対抗して機能するため、多くの視認者にとって不快である。遠近調節と輻輳・開散運動との間のより優れた整合を提供するディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し得る。
例えば、ライトフィールド画像は、3次元視界をシミュレーションするようにユーザに提示されることができる。ライトフィールド画像は、実世界環境で視認者の眼に入射する光線を模倣することができる。例えば、ライトフィールド画像を表示するとき、ある距離において知覚されるようにシミュレーションされたオブジェクトからの光線が、視認者の眼に入射するときに、よりコリメートされる一方で、近くで知覚されるようにシミュレーションされたオブジェクトからの光線は、より発散させられる。したがって、場面内のオブジェクトからの光線が視認者の眼に入射する角度は、視認者からのこれらのオブジェクトのシミュレーションされた距離に依存する。仮想または拡張現実システムにおけるライトフィールド画像は、異なる深度平面からの場面またはオブジェクトの複数の画像を含むことができる。画像は、深度平面毎に異なり得(例えば、場面またはオブジェクトのわずかに異なる提示を提供する)、視認者の眼によって別個に集束され、それによって、快適な深度の知覚をユーザに提供することに役立ち得る。
これらの複数の深度平面画像が、同時に、または立て続けに視認者に提示されるとき、結果は、視認者によって3次元画像として解釈される。視認者が本タイプのライトフィールド画像を体験するとき、眼は、実世界場面を体験するときに行うであろう方法とほぼ同様に、異なる深度平面を集束させるように遠近調節する。これらの焦点合図は、より現実的なシミュレーションされた3次元環境を提供することができる。
いくつかの構成では、各深度平面において、フルカラー画像が、それぞれ特定の構成色を有する、構成画像を重ね合わせることによって形成されてもよい。例えば、赤色、緑色、および青色画像はそれぞれ、各フルカラー深度平面画像を形成するように、別個に出力されてもよい。結果として、各深度平面は、それと関連付けられる複数の構成色画像を有してもよい。
図4は、複数の深度平面を使用して3次元画像をシミュレーションするためのアプローチの側面を図示する。図4Aを参照すると、z−軸上の眼4および6からの種々の距離におけるオブジェクトは、それらのオブジェクトが合焦するように、眼(4、6)によって遠近調節される。眼4および6は、特定の遠近調節された状態をとり、z−軸に沿って異なる距離においてオブジェクトに合焦させる。その結果、特定の遠近調節された状態は、特定の深度平面内のオブジェクトまたはオブジェクトの一部が、眼がその深度平面のための遠近調節された状態にあるときに合焦するように、深度平面14のうちの特定の1つと関連付けられると言え得る。いくつかの実施形態では、3次元画像は、眼(4、6)毎に画像の異なる提示を提供することによって、また、深度平面のそれぞれに対応する画像の異なる提示を提供することによってシミュレーションされてもよい。
オブジェクトと眼(4または6)との間の距離は、その眼によって視認されるようなそのオブジェクトからの光の発散の量を変化させることができる。図5A−5Cは、距離と光線の発散との間の関係を図示する。オブジェクトと眼4との間の距離は、減少していく距離R1、R2、およびR3の順序で表される。図5A−5Cに示されるように、光線は、オブジェクトまでの距離が減少するにつれてより発散する。距離が増加するにつれて、光線は、よりコリメートされる。換言すると、点(オブジェクトまたはオブジェクトの一部)によって生成されるライトフィールドは、点がユーザの眼から離れている距離の関数である、球状波面曲率を有すると言え得る。曲率は、オブジェクトと眼4との間の距離の減少に伴って増加する。その結果、異なる深度平面では、光線の発散度も異なり、発散度は、深度平面と視認者の眼4との間の距離の減少に伴って増加する。単眼4のみが、例証を明確にするために、図5A−5Cおよび本明細書の他の図に図示されるが、眼4に関する議論は、視認者の両眼(4および6)に適用され得ることを理解されたい。
理論によって限定されるわけではないが、ヒトの眼は、典型的には、深度知覚を提供するように、有限数の深度平面を解釈することができると考えられる。その結果、知覚された深度の高度に真実味のあるシミュレーションが、これらの限定数の深度平面のそれぞれに対応する画像の異なる提示を眼に提供することによって達成され得る。
図6は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ディスプレイシステム1000は、複数の導波管(182、184、186、188、190)を使用して3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ178を含む。いくつかの実施形態では、ディスプレイシステム1000は、図2のシステム80であり、図6は、そのシステム80のいくつかの部分をより詳細に概略的に示す。例えば、導波管アセンブリ178は、図2のディスプレイ62の中に統合されてもよい。
図6を継続して参照すると、導波管アセンブリ178はまた、複数の特徴(198、196、194、192)を導波管の間に含んでもよい。いくつかの実施形態では、特徴(198、196、194、192)は、レンズであってもよい。導波管(182、184、186、188、190)および/または複数のレンズ(198、196、194、192)は、種々のレベルの波面曲率または光線発散を用いて画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度平面と関連付けられてもよく、その深度平面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス(200、202、204、206、208)は、導波管(182、184、186、188、190)の中に画像情報を投入するために利用されてもよく、これらのそれぞれは、本明細書に説明されるように、眼4に向かった出力のために各個別の導波管を横断して入射光を分散させるように構成され得る。光は、画像投入デバイス(200、202、204、206、208)の出力表面(300、302、304、306、308)から出射し、導波管(182、184、186、188、190)の対応する入力縁(382、384、386、388、390)の中に投入される。いくつかの実施形態では、単一の光ビーム(例えば、コリメートされたビーム)が、特定の導波管と関連付けられる深度平面に対応する特定の角度(および発散量)において眼4に向かって指向される、クローン化されたコリメートされたビームの全体場を出力するように、各導波管の中に投入されてもよい。
いくつかの実施形態では、画像投入デバイス(200、202、204、206、208)は、離散ディスプレイであり、これらのそれぞれは、対応する導波管(それぞれ、182、184、186、188、190)の中への投入のために画像情報を生成する。いくつかの他の実施形態では、画像投入デバイス(200、202、204、206、208)は、例えば、1つまたはそれを上回る光学導管(光ファイバケーブル等)を介して画像情報を画像投入デバイス(200、202、204、206、208)のそれぞれに送り得る、単一の多重化ディスプレイの出力端である。
コントローラ210は、スタックされた導波管アセンブリ178および画像投入デバイス(200、202、204、206、208)の動作を制御する。いくつかの実施形態では、コントローラ210は、例えば、本明細書に開示される種々の方式のうちのいずれかに従って、導波管(182、184、186、188、190)への画像情報のタイミングおよびプロビジョニングを調整する、プログラミング(例えば、非一過性コンピュータ可読媒体内の命令)を含む。いくつかの実施形態では、コントローラは、単一の一体型デバイス、または有線または無線通信チャネルによって接続される分散型システムであってもよい。コントローラ210は、いくつかの実施形態では、処理モジュール(70または72)(図2)の一部であってもよい。
導波管(182、184、186、188、190)は、全内部反射(TIR)によって各個別の導波管内で光を伝搬するように構成されてもよい。導波管(182、184、186、188、190)はそれぞれ、主要な頂面および底面およびこれらの頂面と底面との間に延在する縁を伴って、平面または曲面であり得る。図示される構成では、導波管
(182、184、186、188、190)はそれぞれ、各個別の導波管内で伝搬する光を導波管から外に再指向し、画像情報を眼4に出力するように構成される、光再指向要素(282、284、286、288、290)を含んでもよい。光のビームは、導波管によって、導波管内で伝搬する光が光再指向要素に衝打する場所において出力される。光再指向要素(282、284、286、288、290)は、反射および/または回折光学特徴であってもよい。説明の容易性および図面の明確性のために、導波管(182、184、186、188、190)の底部主要表面に配置されて図示されるが、いくつかの実施形態では、光再指向要素(282、284、286、288、290)は、上部および/または底部主要表面に配置されてもよい、および/または導波管(182、184、186、188、190)の容積内に直接配置されてもよい。いくつかの実施形態では、光再指向要素(282、284、286、288、290)は、導波管(182、184、186、188、190)を形成するように透明基板に取り付けられる、材料の層内に形成されてもよい。いくつかの他の実施形態では、導波管(182、184、186、188、190)は、モノリシックな材料片であってもよく、光再指向要素(282、284、286、288、290)は、その材料片の表面上および/またはその内部に形成されてもよい。
図6を継続して参照すると、本明細書に議論されるように、各導波管(182、184、186、188、190)は、光を出力し、特定の深度平面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管(182)は、そのような導波管182の中に投入されるにつれて、コリメートされた光を眼4に送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管184は、眼4に到達し得る前に、第1のレンズ(192;例えば、負のレンズ)を通過する、コリメートされた光を送出するように構成されてもよい。そのような第1のレンズ192は、眼/脳が、その次の上方の導波管184から生じる光を光学無限遠から眼4に向かって内向きにより近い第1の焦点面から生じるものとして解釈するように、わずかな凸面波面曲率を生成するように構成されてもよい。同様に、第3の上方の導波管186は、眼4に到達する前に、その出力光を第1のレンズ192および第2のレンズ194の両方に通過させる。第1のレンズ192および第2のレンズ194の組み合わせられた屈折力は、眼/脳が、第3の導波管186から生じる光を次の上方の導波管184からの光より光学無限遠から人物に向かって内向きにさらに近い第2の焦点面から生じるものとして解釈するように、別の漸増量の波面曲率を生成するように構成されてもよい。
他の導波管層(188、190)およびレンズ(196、198)も同様に構成され、スタック内の最高導波管190は、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ178の反対側の世界144から生じる光を視認/解釈するときに、レンズ(198、196、194、192)のスタックを補償するために、補償レンズ層180が、下方のレンズスタック(198、196、194、192)の集約力を補償するように、スタックの上部に配置されてもよい。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の光再指向要素およびレンズの集束側面は両方とも、静的であり得る(すなわち、動的または電気活性ではない)。いくつかの代替実施形態では、それらは、電気活性特徴を使用して動的であり得る。
図6を継続して参照すると、光再指向要素(282、284、286、288、290)は、導波管と関連付けられる特定の深度平面のために、光をその個別の導波管から外へ再指向することと、本光を適切な量の発散またはコリメーションを伴って出力することとの両方のために、構成されてもよい。結果として、異なる関連付けられる深度平面を有する導波管は、関連付けられる深度平面に応じて、異なる量の発散を伴う光を出力する、光再指向要素(282、284、286、288、290)の異なる構成を有してもよい。いくつかの実施形態では、本明細書に議論されるように、光再指向要素(282、284、286、288、290)は、光を具体的角度において出力するように構成され得る、体積または表面特徴であってもよい。例えば、光再指向要素(282、284、286、288、290)は、体積ホログラム、表面ホログラム、および/または回折格子であってもよい。回折格子等の光再指向要素は、参照することによってその全体として本明細書に組み込まれる、2015年3月7日に出願された米国特許出願第14/641,376号で説明されている。いくつかの実施形態では、特徴(198、196、194、192)は、レンズではなくてもよく、むしろ、それらは、単に、スペーサ(例えば、クラッディング層および/または空隙を形成するための構造)であってもよい。
いくつかの実施形態では、光再指向要素(282、284、286、288、290)
は、回折パターンまたは「回折光学要素」(本明細書では「DOE」とも称される)を形成する、回折特徴である。好ましくは、DOEは、ビームの光の一部のみがDOEの各交差点を伴って眼4に向かって偏向される一方で、残りが全内部反射を介して導波管を通って移動し続けるように、比較的低い回折効率を有する。画像情報を搬送する光は、したがって、様々な場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果は、導波管内の周囲で反射する本特定のコリメートされたビームに関して、眼4に向かった出射放出の非常に均一なパターンである。
いくつかの実施形態では、1つまたはそれを上回るDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であり得る。例えば、切替可能なDOEは、微小液滴がホスト媒体中に回折パターンを備える、ポリマー分散液晶の層を備えてもよく、微小液滴の屈折率は、ホスト材料の屈折率に実質的に合致するように切り替えられることができる(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のものに合致しない屈折率に切り替えられることができる(その場合、パターンは、入射光を能動的に回折させる)。
図7は、導波管によって出力された出射ビームの実施例を示す。1つの導波管が図示されているが、導波管のスタック178内の他の導波管も同様に機能し得ることを理解されたい。光400が、導波管182の入力縁382において導波管182の中に投入され、TIRによって導波管182内を伝搬する。光400がDOE282上に衝突する点では、光の一部は、導波管から出射ビーム402として出射する。出射ビーム402は、実質的に平行として図示されるが、本明細書に議論されるように、それらはまた、導波管182と関連付けられる深度平面に応じて、ある角度(例えば、発散出射ビームを形成する)
において眼4に伝搬するように再指向されてもよい。実質的に平行な出射ビームは、眼4からの大きいシミュレーションされた距離(例えば、光学無限遠)における深度平面に対応する導波管を示し得ることを理解されたい。他の導波管は、より発散する出射ビームパターンを出力してもよく、これは、眼4がより近いシミュレーションされた距離上で合焦するように遠近調節することを要求し、光学無限遠より眼4に近い距離からの光として脳によって解釈されるであろう。
図8は、各深度平面が、異なる色の光をそれぞれ出力する、3つの関連付けられる導波管を有する、スタックされた導波管アセンブリの例示的設計を概略的に図示する。フルカラー画像が、複数の構成色、例えば、3つまたはそれを上回る構成色のそれぞれにおける画像を重ね合わせることによって、各深度平面に形成されてもよい。いくつかの実施形態では、構成色は、赤、緑、および青を含む。いくつかの他の実施形態では、マゼンタ、黄、およびシアンを含む、他の色が、赤、緑、または青のうちの1つと併せて使用されてもよい、またはそれに取って代わってもよい。各導波管は、特定の構成色を出力するように構成されてもよく、その結果、各深度平面は、それと関連付けられる複数の導波管を有してもよい。各深度平面は、例えば、それと関連付けられる3つの導波管、すなわち、赤色光を出力するための1つの導波管、緑色光を出力するための第2の導波管、および青色光を出力するための第3の導波管を有してもよい。
図8を継続して参照すると、深度平面14a−14fが示されている。図示される実施形態では、各深度平面は、それと関連付けられる3つの構成色画像、すなわち、第1の色Gの第1の画像、第2の色Rの第2の画像、および第3の色Bの第3の画像を有する。本明細書のきまりとして、これらの文字のそれぞれに続く数字は、ジオプタ(1/m)、または視認者からの深度平面の見掛けの距離の逆数を示し、図中の各ボックスは、個々の構成色画像を表す。いくつかの実施形態では、Gは、緑色であり、Rは、赤色であり、Bは、青色である。上記で議論されるように、視認者からの深度平面の知覚された距離は、光再指向要素(282、284、286、288、290)、例えば、回折光学要素(DOE)によって、および/または見掛けの距離と関連付けられる角度で光を発散させるレンズ(198、196、194、192)によって、確立されてもよい。
いくつかの配列では、各構成色画像は、導波管のスタックの中の異なる導波管によって出力されてもよい。例えば、各深度平面は、それと関連付けられる3つの構成色画像、すなわち、第1の色Gを出力する第1の導波管、第2の色Rを出力する第2の導波管、および第3の色Bを出力する第3の導波管を有してもよい。導波管が構成色画像を出力するために使用される配列では、図中の各ボックスは、個々の導波管を表すと理解され得る。
各深度平面と関連付けられる導波管が、説明を容易にするために本概略図中で相互に隣接して示されているが、物理的デバイスでは、導波管は全て、レベル毎に1つの導波管を伴うスタックに配列され得ることを理解されたい。異なる深度平面が、文字G、R、およびBに続くジオプタの異なる数字によって、図に示されている。
(ディスプレイタイミング方式)
いくつかの実施形態では、仮想または拡張現実システムは、ビデオデータの所与のフレームのための複数の異なる深度平面を連続的に表示することによって、ライトフィールド画像を提供する。本システムは、次いで、ビデオデータの次のフレームまで更新し、そのフレームのための複数の異なる深度平面を連続的に表示する。例えば、ビデオデータの第1のフレームは、実際に、データの3つの別個のサブフレーム、すなわち、遠視野フレームD0、中視野フレームD1、および近視野フレームD2を含むことができる。D0、D1、およびD2は、連続して表示されることができる。続いて、ビデオデータの第2のフレームが、表示されることができる。ビデオデータの第2のフレームは、同様に、連続的に表示される、遠視野フレーム、中視野フレーム、および近視野フレーム等を含むことができる。本実施例は、3つの深度平面を使用するが、ライトフィールド画像は、そのように限定されない。むしろ、任意の複数の深度平面が、例えば、所望のビデオフレームレートおよびシステムの能力に応じて、使用されることができる。
ライトフィールドビデオデータの各フレームが、異なる深度平面のための複数のサブフレームを含むため、ライトフィールド画像を提供するシステムは、高いリフレッシュレートが可能であるディスプレイパネルから利益を享受し得る。例えば、本システムが、120Hzのフレームレートでビデオを表示するが、複数の異なる深度平面からの画像を含む場合には、ディスプレイは、ビデオの各フレームのための複数の深度平面画像を遠近調節するために、120Hzを上回るリフレッシュレートが可能である必要があろう。いくつかの実施形態では、シリコン面上液晶(LCOS)ディスプレイパネルが使用されるが、他のタイプのディスプレイパネル(カラー順次ディスプレイおよび非カラー順次ディスプレイを含む)も使用されることができる。
図9は、ライトフィールド画像を表示する仮想または拡張現実システムのための例示的タイミング方式を図示する。本実施例では、ビデオフレームレートは、120Hzであり、ライトフィールド画像は、3つの深度平面を含む。いくつかの実施形態では、各フレームの緑色、赤色、および青色成分が、同時ではなくて連続的に表示される。
120Hzのビデオフレームレートは、ビデオの単一のフレームのために深度平面の全てを表示する、8.333ミリ秒を可能にする。図9に図示されるように、ビデオデータの各フレームは、3つの深度平面を含み、各深度平面は、緑色、赤色、および青色成分を含む。例えば、深度平面D0は、緑色サブフレームG0と、赤色サブフレームR0と、青色サブフレームB0とを含む。同様に、深度平面D1は、それぞれ、緑色、赤色、および青色サブフレームG1、R1、およびB1を備え、深度平面D2は、それぞれ、緑色、赤色、および青色サブフレームG2、R2、およびB2を備える。各ビデオフレームが3つの深度平面を備え、各深度平面が3つの色成分を有することを考慮すると、配分された8.333ミリ秒は、それぞれ0.926ミリ秒の9つの区画に分割される。図9に図示されるように、第1の深度平面のための緑色サブフレームG0は、第1の時間区画中に表示される、第1の深度平面のための赤色サブフレームR0は、第2の時間区画中に表示される、等である。ビデオの各フレームのための合計緑色オン時間は、2.778ミリ秒である。同じことが、各ビデオフレームのための合計赤色オン時間および青色オン時間に当てはまる。しかしながら、他のビデオフレームレートも使用されることができ、その場合、それに応じて、図9に図示される具体的時間間隔が調節され得ることを理解されたい。個々の色成分が、等しい表示時間を有するものとして図示されるが、これは必須ではなく、色成分の間の表示時間の比は、変動させられ得る。さらに、深度平面および色成分サブフレームについて図9に図示される点滅順は、一実施例にすぎない。他の点滅順も、使用されることができる。また、図9は、カラー順次ディスプレイ技術を使用する実施形態を図示するが、本明細書に説明される技法は、カラー順次ディスプレイに限定されない。
他のディスプレイタイミング方式も、可能である。例えば、フレームレート、深度平面の数、および色成分は、変動し得る。いくつかの実施形態では、本明細書に説明されるような仮想または拡張現実システムのフレームレートは、80Hzであり、3つの深度平面がある。いくつかの実施形態では、異なる深度平面が、異なるフレームの中で表示されることができる。例えば、4つの深度平面を伴うライトフィールドビデオは、120Hzのフレームレートでフレーム毎に2つの深度平面を表示することによって、60Hzの有効フレームレートで表示されることができる(深度平面D0およびD1は、最初の8.33ミリ秒に表示されることができ、深度平面D2およびD3は、次の8.33ミリ秒に表示されることができ、全深度情報は、60Hzの有効フレームレートについて16.7ミリ秒で提供される)。いくつかの実施形態では、示される深度平面の数は、ディスプレイ上で空間的に変動し得る。例えば、より多数の深度平面は、ユーザの視線内でディスプレイの下位部分に示されることができ、より少数の深度平面は、ユーザの周辺視野内に位置するディスプレイの下位部分に示されることができる。そのような実施形態では、視線追跡装置(例えば、カメラおよび視線追跡ソフトウェア)が、ディスプレイのいずれの部分をユーザが見ているかを判定するために使用されることができる。
(ビデオデータ用の制御データ)
図10は、添付制御データを含む、ビデオデータのフレームの例示的フォーマットを図示する。図10に図示されるように、ビデオデータの各フレームは、行および列にフォーマットされたピクセルデータのアレイを備えてもよい。図示される実施例では、画像を形成する、1280列および960行のピクセルデータがある。図10はまた、制御データ1010がビデオデータのフレームに添付され得ることも図示する。本実施例では、制御パケット1010は、例えば、余剰行として、ビデオデータのフレームに添付されることができる。第1の行(行000)が、制御情報を備える一方で、行1−960は、実際の画像を含有する。したがって、本実施形態では、ホストは、1280×961の解像度をディスプレイコントローラに伝送する。
ディスプレイコントローラは、添付制御情報を読み取り、例えば、1つまたはそれを上回るディスプレイパネル(例えば、左眼および右眼ディスプレイパネル)に送信される画像情報1020を構成するためにそれを使用する。本実施例では、制御情報1010の行は、ディスプレイパネルに送信されない。したがって、ホストは、1280×961の解像度で情報をディスプレイコントローラに伝送するが、ディスプレイコントローラは、データのストリームから制御情報1010を除去し、1280×961の解像度でビデオ情報1020のみをディスプレイパネルに伝送する。画像データは、例えば、ディスプレイシリアルインターフェース(DSI)フォーマットで、ディスプレイパネル(例えば、LCOSディスプレイパネル)に伝送されることができる。図10は、添付制御情報1010がビデオデータの各フレームの冒頭に添付される単一の行を備えることを図示するが、他の量の制御情報が、代替として、添付され得る。さらに、制御情報1010は、必ずしもビデオデータの各フレームの冒頭に添付される必要はないが、代わりに、他の場所においてビデオデータの中に挿入され得る。しかしながら、フレームの冒頭に制御情報を添付することは、画像データを表示することに先立って、コントローラがレンダリングされた画像のフレームの冒頭における制御情報により容易に作用することを可能にし得る。
図11は、制御データを含む、ビデオデータのフレームの別の例示的フォーマットを図示する。図11は、制御情報1110が、第1の行の前のビデオデータのフレームに添付されるのではなく、ビデオデータの第1の行の代わりに挿入されることを除いて、図10に類似する。したがって、フレームの第1の行(行000)が、制御情報を備える一方で、残りの959行は、実際の画像データ1120を備える。
本実施例では、ホストは、1280×961の解像度で情報をディスプレイコントローラに伝送する。ディスプレイコントローラは、ディスプレイパネルに送信される画像情報を構成するために、制御データ1110を使用することができる。ディスプレイコントローラは、次いで、図11に図示されるビデオデータのフレームをディスプレイパネルに伝送する。しかしながら、いくつかの実施形態では、図11に図示されるビデオデータのフレームをディスプレイパネルに伝送する前に、ディスプレイコントローラは、例えば、ビデオデータのその行をゼロに設定することによって、制御情報1110を除去することができる。これは、ビデオデータの各フレームの第1の行をディスプレイ上で暗い色の線として出現させる。
図11に図示される方式を使用して、制御情報1110は、ディスプレイコントローラに送信される情報の解像度を変化させることなく、ビデオデータのフレームとともに含まれることができる。しかしながら、本実施例におけるトレードオフは、ある画像データが制御データによって置換されるという事実に起因して、有効ディスプレイ解像度が減少させられることである。図11は、制御データ1110が画像データの第1の行の代わりに挿入されることを図示するが、制御データは、代替として、フレーム内の別の行の代わりに挿入され得る。
例えば、図10および11に(および以降で図12に)図示される制御データは、いくつかの異なる目的のために使用されることができる。例えば、制御データは、ビデオデータのフレームが左眼ビデオパネルに表示されるべきかまたは右眼ビデオパネル上に表示されるべきかを示すことができる。制御データは、複数の深度平面のうちのいずれにビデオデータのフレームが対応するかを示すことができる。制御データは、ライトフィールドビデオデータの点滅順を示すことができる。例えば、制御データは、各深度平面を表示する順序、および深度平面毎に色成分サブフレームを表示する順序を示すことができる。加えて、ディスプレイのためのコンテンツがすでにホストによって生成された後に、ピクセルを左右または上下に偏移させる必要があり得る。画像データを調節および再レンダリングするのではなく、制御データは、ディスプレイコントローラによって実施されるべきであるピクセル偏移の方向および規模を規定する、ピクセル偏移情報を含むことができる。
そのようなピクセル偏移は、いくつかの理由のために実施されることができる。ピクセル偏移は、画像コンテンツが、例えば、ユーザの頭部の動きに起因して、ディスプレイ上で移動される必要がある場合に、行われることができる。そのような場合には、コンテンツは、同一であり得るが、ディスプレイ上の視認エリア内のその場所は、偏移される必要があり得る。GPUにおいて画像コンテンツを再レンダリングし、ピクセルのセット全体をディスプレイコントローラに再び送信するのではなく、ピクセル偏移が、ピクセル偏移制御情報を使用して、画像データに適用されることができる。図10および11に図示されるように、ピクセル偏移制御情報は、フレームの冒頭に含まれることができる。代替として、および/または加えて、後期更新制御データパケットが、更新された頭部姿勢中間フレームに基づいて適切なピクセル偏移を行うように、(例えば、第1の行の後に)フレーム内で送信されることができる。これは、例えば、Mobile Industry Processor Interface(MIPI)ディスプレイシリアルインターフェース(DSI)仮想チャネルを使用して、行われることができる。
ピクセル偏移はまた、ユーザが自分の頭部を動かし、ピクセルのより正確な表現が所望される場合に、行われることもできる。GPUに画像を再レンダリングさせるのではなく、ディスプレイ上の後期偏移が、ピクセル偏移アプローチを使用して適用されることができる。本明細書に説明される任意のピクセル偏移が、単一の深度平面または複数の深度平面に影響を及ぼし得る。本明細書ですでに議論されているように、いくつかの実施形態では、種々の深度平面が表示されるときに、時間の差がある。これらの時間差中に、ユーザは、視認錐台が偏移される必要があり得るように、自分の眼を偏移させてもよい。これは、深度平面のうちのいずれかにピクセル偏移を使用して達成されることができる。
ピクセル偏移制御情報は、単一の深度平面のフレーム内のX−Y方向へのピクセル偏移を示すことができる。代替として、および/または加えて、ピクセル偏移制御情報は、深度平面バッファの間のZ方向への偏移を示すことができる。例えば、1つまたはそれを上回る深度平面内で以前に表示されたオブジェクトは、Z−ピクセル偏移を用いて設定された別の深度平面まで移動してもよい。本タイプの偏移はまた、深度毎に部分的画像を拡大または縮小するスケーラを含むこともできる。例えば、表示されるキャラクタが2つの深度平面の間で浮動しており、別のオブジェクトによるそのキャラクタの妨害がないことを仮定されたい。深度方向へのキャラクタの見掛けの移動は、Z−ピクセル偏移およびスケーラを使用して、1つまたはそれを上回る深度平面で前方または後方にキャラクタを再描画することによって、達成されることができる。これは、キャラクタを再レンダリングし、フレーム更新をディスプレイコントローラに送信することなく、達成されることができ、より低い計算費用において、より円滑な運動性能をもたらす。
スケーラはまた、例えば、レンズ192、194、196、198の結果としてディスプレイ内で生じる、拡大効果を補償するために使用されることもできる。そのようなレンズは、ユーザによって観察可能である仮想画像を作成してもよい。仮想オブジェクトが1つの深度平面から別の深度平面まで移動するとき、仮想画像の光学拡大は、実際には、物理的世界で予期されるであろうものと正反対であり得る。例えば、物理的世界では、オブジェクトが視認者からさらに遠い深度平面に位置するとき、オブジェクトは、より近い深度平面に位置する場合よりも小さく見える。しかしながら、仮想オブジェクトが、ディスプレイ内でより近い深度平面からより遠い深度平面まで移動するとき、レンズは、実際にオブジェクトの仮想画像を拡大してもよい。したがって、いくつかの実施形態では、スケーラが、ディスプレイ内の光学拡大効果を補償するために使用される。スケーラが、光学素子によって引き起こされる拡大効果を補正するように、深度平面毎に提供されることができる。加えて、スケーラが、色毎の基準で対処されるべき任意の拡大縮小問題がある場合、色毎に提供されることができる。
いくつかの実施形態では、最大水平ピクセル偏移が、パネル幅全体に対応することができる一方で、最大垂直ピクセル偏移は、パネル高さ全体に対応することができる。正および負の偏移の両方が、制御データによって示されることができる。本ピクセル偏移情報を使用して、ディスプレイコントローラは、深度平面の間で左または右、上または下、および前方または後方にビデオデータのフレームを偏移させることができる。ピクセル偏移情報はまた、ビデオデータのフレームを左眼ディスプレイパネルから右眼ディスプレイパネルに、またはその逆も同様に、完全または部分的に偏移させることもできる。ピクセル偏移情報は、深度平面毎にライトフィールドビデオデータの中に含まれることができる。
走査ベースのディスプレイが使用されるもの等のいくつかの実施形態では、増分分散型ピクセル偏移が提供されることができる。例えば、ビデオのフレームのための画像は、画像の終了(例えば、底部)に達するまで、1つまたはそれを上回る深度平面内で増分的に偏移されることができる。最初に表示されるピクセルは、頭部の動きを補償するため、またはオブジェクトの運動をシミュレーションするために、フレーム内の以降に表示されるピクセルよりも多く、または少なく偏移されることができる。さらに、平面毎の基準で増分ピクセル偏移が存在し得る。例えば、1つの深度平面内のピクセルは、別の深度平面内のピクセルよりも多く、または少なく偏移されることができる。いくつかの実施形態では、視線追跡技術が、ディスプレイ画面のいずれの部分をユーザが凝視しているかを判定するために使用される。異なる深度平面内、またはさらに単一の深度平面内の異なる場所におけるオブジェクトが、ユーザが見ている場所に応じてピクセル偏移される(または偏移されない)ことができる。ユーザが凝視していないオブジェクトがある場合、これらのオブジェクトのためのピクセル偏移情報は、ユーザが凝視している画像内のピクセル偏移のための性能を向上させるために無視されてもよい。再度、視線追跡装置が、ユーザが見ているディスプレイ上の場所を判定するために使用されることができる。
制御情報はまた、1つまたはそれを上回る仮想深度平面を規定および/または調整するために使用することもできる。仮想深度平面は、画像の所望の明度を維持するように2つの深度平面画像を適切な加重と混合することによって、仮想または拡張現実システムにおいて2つの画定された深度平面の間の所望の間隔で提供されることができる。例えば、仮想深度平面が深度平面D0と深度平面D1との間で所望される場合には、混合ユニットが、D1画像データのピクセル値も50%だけ加重しながら、D0画像データのピクセル値を50%だけ加重することができる。(加重が合計で100%になる限り、次いで、画像の見掛けの明度が維持されることができる。)結果は、D0とD1との中間に位置するように見える仮想深度平面であろう。仮想深度平面の見掛けの深度は、異なる混合加重を使用することによって、制御されることができる。例えば、仮想深度平面がD0よりもD1に近く見えることが所望される場合には、D1画像は、より重く加重されることができる。1つまたはそれを上回るスケーラは、仮想オブジェクトが、仮想オブジェクトの同様の部分が混合動作中に組み合わせられるように混合されている深度平面の両方の中で実質的に同一のサイズであることを確実にするために、使用されることができる。制御データは、仮想深度平面画像が計算されるときを規定することができ、制御情報はまた、仮想深度平面のための混合加重を含むこともできる。種々の実施形態では、加重は、プログラム可能なルックアップテーブル(LUT)に記憶されることができる。制御情報は、LUTから所望の仮想深度平面を提供するであろう適切な加重を選択するために使用されることができる。
制御情報はまた、2つの立体ディスプレイのうちの一方のための画像フレームが他方にコピーされるべきであるかどうかを示すこともできる。例えば、最も遠いシミュレーションされた深度平面(例えば、背景画像)の場合に、左右の眼の画像の間に(例えば、視差偏移に起因する)比較的小さい差があり得る。そのような場合には、制御情報は、立体ディスプレイのうちの一方のための画像が、1つまたはそれを上回る深度平面のための他方のディスプレイにコピーされることを示すことができる。これは、左右の眼のディスプレイの両方のためにGPUにおいて画像データを再レンダリングすること、またはデータをディスプレイコントローラに再転送することなく、達成されることができる。左右の眼の画像の間に比較的小さい差がある場合、ピクセル偏移もまた、両眼のための画像データを再レンダリングまたは再転送することなく、補償するために使用されることができる。
図10および11に図示される制御データはまた、ここで具体的に列挙されるもの以外に他の目的のために使用されることもできる。
図10および11は、制御データの行がビデオデータとともに含まれ得ることを示すが、制御データはまた(または代替として)ビデオデータの個々のピクセルに埋め込まれることもできる。これは、埋め込まれた制御データ1240を含む、ビデオデータのピクセル1200の例示的フォーマットを図示する、図12に図示されている。図12は、ビデオデータのピクセルが青色値1230(バイト0)と、緑色値1220(バイト1)と、赤色値1210(バイト2)とを備えることを図示する。本実施形態では、色値はそれぞれ、8ビットの色深度を有する。いくつかの実施形態では、色値のうちの1つまたはそれを上回るものに対応する、ビットのうちの1つまたはそれを上回るものは、色値のビット深度を犠牲にして、制御データ1240によって置換されることができる。したがって、制御データは、ピクセルの色値のダイナミックレンジを犠牲にして、ビデオデータのピクセルに直接埋め込まれることができる。例えば、図12に図示されるように、青色値の強調表示された2つの最下位ビットは、制御データ1240として専用にされることができる。図示されていないが、他の色値のビットもまた、制御データとして専用にされることができる。また、異なる数のピクセルビットが、制御データとして専用にされることができる。
いくつかの実施形態では、ビデオデータのピクセルに組み込まれる制御データ1240は、深度平面インジケータデータであることができる(但し、ピクセルに組み込まれる制御データはまた、本明細書に説明される他のタイプを含む、任意の他のタイプの制御データであることもできる)。本明細書で議論されるように、ライトフィールドビデオデータは、いくつかの深度平面を含むことができる。ビデオフレーム内の1つまたはそれを上回るピクセルのためのビット深度は、低減されることができ、結果として生じる利用可能なビットは、ピクセルが対応する深度平面を示すために使用されることができる。
具体的な実施例として、図12に図示される24ビットRGBピクセルデータを考慮されたい。赤色、緑色、および青色値はそれぞれ、8ビットのビット深度を有する。すでに議論されているように、色成分のうちの1つまたはそれを上回るもののビット深度は、犠牲にされ、深度平面インジケータデータによって置換されることができる。例えば、眼が青色にあまり敏感ではないため、青色成分は、8ビットの代わりに6ビット(図12のビットB3−B8)によって表されることができる。結果として生じる余剰な2つのビット
(ビットB1およびB2)は、最大4つの深度平面のうちのいずれにそのピクセルが対応するかを規定するために使用されることができる。より多いまたは少ない深度平面がある場合には、より多数または少数の色ビットが犠牲にされ得る。例えば、ビット深度が1ビット低減される場合、最大2つの深度平面が規定されることができる。ビット深度が3ビット低減される場合、最大8つの深度平面が規定されることができる、等である。このようにして、色値のダイナミックレンジは、直接、画像データ自体内で深度平面インジケータデータを符号化する能力とトレードオフされ得る。
いくつかの実施形態では、深度平面インジケータデータ1240は、ビデオデータの全ピクセルにおいて符号化される。他の実施形態では、深度平面インジケータデータ1240は、フレーム毎に1つのピクセル、または線毎に1つのピクセル、仮想または拡張現実オブジェクト毎に1つのピクセル等において符号化されてもよい。加えて、深度平面インジケータデータ1240は、単一の色成分のみにおいて、または複数の色成分において符号化されることができる。同様に、直接、画像データ内で深度平面インジケータデータ1240を符号化する技法は、カラー画像のみに限定されない。本技法は、グレースケール画像等にも同様に実践されることができる。
図12は、画像データ内の深度平面インジケータデータを符号化するための1つの技法を図示する。別の技法は、彩度サブサンプリングを採用し、結果として生じる利用可能なビットを深度平面インジケータデータとして使用するものである。例えば、画像データは、Yが(ガンマ補正される場合もあり、されない場合もある)輝度成分を表し、Cbが青色差彩度成分を表し、Crが赤色差彩度成分を表す、YCbCrフォーマットで表されることができる。眼が輝度解像度ほど彩度解像度に敏感ではないため、彩度情報は、画像品質を過度に劣化させることなく、輝度情報よりも劣った解像度を伴って提供されることができる。いくつかの実施形態では、Y値がピクセル毎に提供されるが、CbおよびCr値がそれぞれ、交互様式で1つおきのピクセルのみに提供される、YCbCr4:2:2フォーマットが使用される。(彩度サンプリングがない場合)ピクセルが、通常、24ビットの情報(8ビットY値、8ビットCb値、および8ビットCr値)から成る場合には、彩度サブサンプリングを採用した後、各ピクセルは、16ビットの情報(8ビットY値および8ビットCbまたはCr値)のみを要求するであろう。残りの8ビットは、深度平面インジケータデータとして使用されることができる。深度平面インジケータデータは、ピクセルを適切な時間に表示される適切な深度平面に分離するために使用されることができる。
図12に図示される実施形態および彩度サブサンプリング実施形態の両方で、深度平面インジケータデータは、仮想または拡張現実システムによってサポートされる実際の深度平面および/または本明細書で議論されるような仮想深度平面を規定することができる。深度平面インジケータデータが仮想深度平面を規定する場合、これはまた、本明細書で議論されるように、混合される深度平面の加重を規定することもできる。
ディスプレイコントローラにおける埋め込まれた深度平面インジケータデータの使用が、図14に図示されている。しかし、最初に、単一の深度平面のみが存在するときのディスプレイコントローラの動作を示すように、図13が、背景として提供される。図13は、どのようにしてビデオのフレームが、連続的に表示され得る色成分に分離されることができるかを図示する。図13の左側のパネル1310は、毎秒120フレームのビデオの1つのフレームを備える、画像を示す。図13の右側のパネル1330によって示されるように、画像は、1秒の1/120(8.33ミリ秒)にわたってディスプレイコントローラによってディスプレイ上で点滅される、赤色、緑色、および青色成分に分離される。簡単にするために、図13は、色成分がそれぞれ1回点滅され、色成分がそれぞれ同一の時間量にわたってアクティブであることを示す。ヒト視覚系は、次いで、個々の色成分サブフレームを図13の左側のパネルに示される元の色画像に融合させる。図14は、ビデオデータの各フレームが複数の深度平面を含むときに、どのようにして本プロセスが適合されることができるかを示す。
図14は、どのようにしてライトフィールドビデオデータのフレームが、深度平面インジケータデータを使用して、ディスプレイのための色成分サブフレームにそれぞれ分割され得る複数の深度平面に分離されることができるかを図示する。いくつかの実施形態では、ホストが、ライトフィールドビデオデータのストリームをディスプレイコントローラに伝送する。ビデオデータの本ストリームは、図14の左側のパネル1410内の画像によって表される。ディスプレイコントローラは、ビデオデータのストリームを複数のRxGxBxシーケンスに分離するために埋め込まれた深度平面インジケータデータ1240を使用することができ、R0G0B0シーケンスは、第1の深度平面に対応し、R1G1B1シーケンスは、第2の深度平面に対応し、R2G2B2シーケンスは、第3の深度平面に対応する。図13に図示されるように、本深度平面分離は、各ピクセルの中の2つの最下位青色ビットに基づいて行われることができる。結果は、3つの別個の深度平面画像を示す、図14の中央パネル1420に示される。最終的に、図14の中央パネル1420に示される3つの別個の深度平面画像はそれぞれ、その構成色成分サブフレームに分離されることができる。各深度平面の色成分サブフレームは、次いで、図14の右側のパネル1430によって図示されるように、ディスプレイに連続的に点滅されることができる。シーケンス順は、例えば、図14に図示されるようなR0G0B0R1G1B1R2G2B2、または図9に図示されるようなG0R0B0G1R1B1G2R2B2であることができる。
深度平面インジケータデータ1240は、使用するRxGxBxシーケンスの数、およびいずれのピクセルがいずれのシーケンスに対応するかを判定するために、ディスプレイコントローラによって使用されることができる。制御データもまた、ディスプレイに点滅されるRxGxBx色シーケンスの順序を規定するように提供されることができる。例えば、3つの深度平面(D0、D1、D2)を含むビデオデータの場合、個々のRxGxBxシーケンスがディスプレイパネルに点滅されることができる、6つの可能性として考えられる順序、すなわち、D0、D1、D2;D0、D2、D1;D1、D0、D2;D1、D2、D0;D2、D0、D1;およびD2、D1、D0がある。制御データによって規定される順序がD0、D1、D2である場合には、第1の深度平面D0に対応する青色LSBビット0b00を伴うピクセルが、出て行く第1のRxGxBx色シーケンス画像として選択されることができる。第2の深度平面D1に対応する青色LSBビット0b01を伴うピクセルは、出て行く第2のRxGxBx色シーケンス画像として選択されることができる、等である。
図15は、図12の深度平面インジケータデータが、ライトフィールドビデオデータのフレームの1つまたはそれを上回る深度平面が非アクティブであることを示す、実施例を図示する。図15は、その後にそれぞれ(図15の右側のパネル1530によって表される)色成分サブフレームに分離される深度平面(図15の中央パネル1520によって表される)に分離されている(図15の左側のパネル1510によって表される)ビデオデータのストリームを示すという点で、図14に類似する。しかしながら、図15は、単一の深度平面のみがアクティブであるものとして示されているという点で、図14と明確に異なる。
すでに議論されているように、図12の深度平面インジケータデータ1240は、各ピクセルの中の青色値の2つの最下位ビットを備える。これら2つのビットは、最大4つの深度平面を規定することが可能である。しかしながら、ライトフィールドビデオデータは、4つよりも少ない深度平面を含んでもよい。例えば、前述の実施例では、ライトフィールドビデオデータは、3つだけの深度平面を含む。ビデオデータが最大数よりも少ない規定可能な深度平面を含む、そのような場合には、深度平面インジケータデータは、1つまたはそれを上回る深度平面が非アクティブであることを規定することができる。例えば、前述の実施例を続けると、ピクセルの中の2つの青色LSBビットが0b11に設定される場合には、ピクセルは、非アクティブな第4の深度平面D3に割り当てられることができる。図15に示されるように、3つのRxGxBx色シーケンスのうちの1つだけが、出力シーケンスにおいてアクティブ化され、非アクティブな深度平面は、黒色フレームとして示される。以前のように、制御データは、深度平面が表示される順序を規定するように提供されることができる。図15の中央パネル1520に示されるように、図示される実施例では、制御データは、非アクティブな深度平面D3がシーケンスの中で最初および最後に示されることを規定している。したがって、シーケンスの中の中央フレームのみが、ディスプレイに点滅される実際の画像データを備える。(他のシーケンスも使用されることができる。例えば、アクティブな深度平面は、シーケンスの中で最初または最後に順序付けられ得る、またはシーケンスの中で1回を上回って繰り返され得る。)ディスプレイコントローラが、ピクセルが非アクティブな深度平面に割り当てられることを見出す場合には、ディスプレイコントローラは、単に、ピクセルを無視することができ、それをディスプレイに点滅することができない。例えば、制御データが、深度平面が非アクティブであることを示すとき、その特定の深度平面のために光をディスプレイに提供する、光源への電力は、削減(例えば、遮断)され、それによって、電力消費量を削減することができる。これは、ディスプレイドライバにおける切替電力を節約することができる。したがって、ビデオデータの1つまたはそれを上回る深度平面を非アクティブとして指定することによって、節電モードが実装されることができる。同様に、いくつかの実施形態では、制御データは、1つまたはそれを上回る色視野が深度平面内で非アクティブである一方で、深度平面内の1つまたはそれを上回る他の色視野がアクティブであることを示すことができる。本制御データに基づいて、ディスプレイコントローラは、非アクティブである1つまたは複数の色視野を無視し、非アクティブな色視野を伴わずに1つまたはそれを上回るアクティブな色視野からの画像を表示するように、ディスプレイを制御することができる。例えば、制御データが、色視野が非アクティブであることを示すとき、その特定の色視野のために光をディスプレイに提供する、光源への電力は、削減(例えば、遮断)され、それによって、電力消費量を削減することができる。故に、照明をディスプレイに提供する、発光ダイオード(LED)、レーザ等の光源は、遮断される、または非アクティブな深度平面および/または非アクティブな色視野のためにそれらの電力を低減させることができる。
(多重深度平面画像圧縮)
いくつかの実施形態では、画像圧縮技法は、深度平面の間の情報の冗長性を除去することによってビデオ画像データの量を低減させるために、複数の深度平面を横断して適用される。例えば、深度平面毎に画像データのフレーム全体を伝送するのではなく、深度平面のうちのいくつかまたは全てが、代わりに、隣接する深度平面に対する変化に関して表されてもよい。(これはまた、隣接する瞬間においてフレームの間の時間的基準で行われることもできる。)圧縮技法は、無損失であり得る、または隣接する深度平面フレームの間、または所与の閾値未満である時間的に隣接するフレームの間の変化が、無視されることができ、したがって、画像情報の低減をもたらすように、損失性であり得る。加えて、圧縮アルゴリズムは、運動ベクトルを使用して、単一の深度平面(X−Y運動)内および/または深度平面(Z運動)の間でオブジェクトの運動を符号化することができる。移動オブジェクトの画像データが経時的に繰り返し伝送されることを要求するのではなく、オブジェクトの運動は、本明細書で議論されるように、ピクセル偏移制御情報を用いて、完全または部分的に達成されることができる。
(動的に構成可能なディスプレイ描画エリア)
ライトフィールド画像を表示するシステムでは、ビデオフレーム毎に含まれる比較的大量の情報(例えば、それぞれ複数の色成分を伴う複数の深度平面)により、高いビデオフレームレートを達成することは困難であり得る。しかしながら、ビデオフレームレートは、特に拡張現実モードで、図16に示されるように、コンピュータ生成ライトフィールド画像が一度にディスプレイの一部のみを占有し得ることを認識することによって、向上されることができる。
図16は、拡張現実システムにおけるコンピュータ生成画像のフレームのための例示的描画エリアを図示する。図16は、拡張現実画像が描画されるものである、ディスプレイの一部のみを示すことを除いて、図1に類似する。この場合、拡張現実画像は、ロボット像1110と、マルハナバチのキャラクタ2とを含む。拡張現実モードにおけるディスプレイの残りのエリアは、単に、ユーザを囲繞する実世界環境の視界であってもよい。したがって、ディスプレイのこれらのエリア内でコンピュータ生成画像を描画する必要がなくてもよい。多くの場合、コンピュータ生成画像が、一度にディスプレイエリアの比較的わずかな一部のみを占有する場合があり得る。コンピュータ生成画像が示される必要がないエリアを除外するよう、フレーム毎にリフレッシュされる具体的描画エリアを動的に再構成することによって、ビデオフレームレートが、向上されることができる。
コンピュータ生成拡張現実画像は、それぞれ、例えば、関連付けられる明度および色を有する、複数のピクセルとして表されてもよい。ビデオデータのフレームは、そのようなピクセルのm×xアレイ(mが行の数を表し、nが列の数を表す)を備えてもよい。いくつかの実施形態では、拡張現実システムのディスプレイは、コンピュータ生成画像を示すことに加えて、ユーザの実世界の周囲状況の視界を提供することが可能であるよう、少なくとも部分的に透明である。コンピュータ生成画像内の所与のピクセルの明度がゼロまたは比較的低い値に設定される場合には、視認者は、そのピクセル場所で実世界環境を見るであろう。代替として、所与のピクセルの明度がより高い値に設定される場合には、視認者は、そのピクセル場所でコンピュータ生成画像を見るであろう。拡張現実画像の任意の所与のフレームに関して、ピクセルの多くの明度は、ディスプレイ上に示される必要がないように、規定閾値を下回り得る。これらの閾値を下回るピクセル毎にディスプレイをリフレッシュするのではなく、ディスプレイは、これらのピクセルをリフレッシュしないよう動的に構成されることができる。
いくつかの実施形態では、拡張現実システムは、ディスプレイを制御するためのディスプレイコントローラを含む。コントローラは、ディスプレイのための描画エリアを動的に構成することができる。例えば、コントローラは、ビデオデータのフレームの中のピクセルのうちのいずれが任意の所与のリフレッシュサイクル中にリフレッシュされるかを動的に構成することができる。いくつかの実施形態では、コントローラは、ビデオの第1のフレームに対応するコンピュータ生成画像データを受信することができる。本明細書で議論されるように、コンピュータ生成画像は、いくつかの深度平面を含んでもよい。ビデオの第1のフレームのための画像データに基づいて、コントローラは、ディスプレイピクセルのうちのいずれを深度平面毎にリフレッシュするかを動的に判定することができる。例えば、ディスプレイが走査型ディスプレイ技術を利用する場合、コントローラは、拡張現実画像がリフレッシュされる必要がないエリア(例えば、拡張現実画像がない、または拡張現実画像の明度が規定閾値を下回る、フレームのエリア)を省略するよう、走査パターンを動的に調節することができる。
このようにして、受信されるビデオデータの各フレームに基づいて、コントローラは、拡張現実画像が示されるべきである、ディスプレイの下位部分を識別することができる。各そのような下位部分は、ディスプレイ上に単一の隣接エリアまたは複数の非隣接エリア
(図16に示されるような)を含んでもよい。ディスプレイのそのような下位部分は、ライトフィールド画像データ内の深度平面毎に判定されることができる。ディスプレイコントローラは、次いで、ディスプレイに、ビデオのその特定のフレームのためのディスプレイの識別された下位部分をリフレッシュさせることのみができる。本プロセスは、ビデオのフレーム毎に行われることができる。いくつかの実施形態では、コントローラは、ビデオデータの各フレームの冒頭におけるリフレッシュされるであろうディスプレイのエリアを動的に調節する。
コントローラが、リフレッシュされるべきであるディスプレイの面積が経時的により小さくなっていることを判定する場合には、より少ない時間が拡張現実データの各フレームを描画するために必要されるであろうため、コントローラは、ビデオフレームレートを増加させ得る。代替として、コントローラが、リフレッシュされるべきであるディスプレイの面積が経時的により大きくなっていることを判定する場合には、拡張現実データの各フレームを描画するために十分な時間を可能にするように、ビデオフレームレートを減少させることができる。ビデオフレームレートの変化は、画像で満たされる必要があるディスプレイの割合に反比例し得る。例えば、コントローラは、ディスプレイの10分の1のみが満たされる必要がある場合に、フレームレートを10倍増加させることができる。
そのようなビデオフレームレート調節は、フレーム毎の基準で行われることができる。代替として、そのようなビデオフレームレート調節は、規定時間間隔で、またはリフレッシュされるディスプレイの下位部分のサイズが規定量だけ増大または縮小するときに、行われることができる。ある場合には、特定のディスプレイ技術に応じて、コントローラはまた、ディスプレイ上に示される拡張現実画像の解像度を調節してもよい。例えば、ディスプレイ上の拡張現実画像のサイズが比較的小さい場合には、コントローラは、画像を増加した解像度で表示させることができる。逆に、ディスプレイ上の拡張現実画像のサイズが比較的大きい場合には、コントローラは、画像を減少した解像度で表示させることができる。
(強化された頭部姿勢推定)
本明細書で議論されるように、仮想および拡張現実システムは、ヘルメット、眼鏡、ゴーグル等の身体搭載型ディスプレイを含むことができる。加えて、仮想拡張現実システムは、3次元でユーザの頭部の位置、配向、速度、および/または加速度を推定して追跡するために使用され得る測定を行う、ジャイロスコープ、加速度計等のセンサを含むことができる。センサは、ユーザによって自分の頭部に装着される慣性測定ユニットの中に提供されることができる。このようにして、ユーザの頭部姿勢が、推定されることができる。頭部姿勢推定値は、ユーザが仮想または拡張現実場面と相互作用することを可能にする手段として使用されることができる。例えば、ユーザが自分の頭の向きを変えるかまたは傾転させる場合には、仮想または拡張現実場面は、対応する様式で調節されることができる
(例えば、場面の視野が偏移または傾転されることができる)。
図17は、2つの回転軸を中心としたユーザの頭部の可能性として考えられる運動を概略的に図示する。図示されるように、ユーザは、垂直軸およびページと垂直な水平軸を中心として自分の頭部を回転させることができる。図示されていないが、ユーザはまた、ページの平面内に位置する水平軸を中心として自分の頭部を回転させることもできる。いくつかの実施形態では、ユーザの視線の方向を頭部姿勢方向として定義することが有用であり得る。(頭部姿勢のそのような定義は、必ずしも頭部の側方傾転を考慮するわけではないであろうが、頭部姿勢の他の定義も考慮し得る。)図18は、どのようにしてユーザの頭部姿勢が3次元表面1810上にマップされることができるかを図示する。図18は、ユーザの頭部姿勢を示す、表面法線ベクトル1820を含む。3次元表面上の各可能性として考えられる表面法線ベクトル1820は、明確に異なる頭部姿勢に対応する。図18では、まっすぐ上を指し示す表面法線ベクトルは、ユーザがまっすぐ前方を見ているときのユーザの中立頭部姿勢に対応するであろう。
種々のアルゴリズムが、頭部搭載型慣性測定ユニットからのセンサ測定に基づいて、ユーザの頭部姿勢を推定して追跡するために使用されることができる。これらは、例えば、カルマンフィルタおよび他の類似アルゴリズムを含む。これらのタイプのアルゴリズムは、典型的には、任意の単一の瞬間のみではなくて経時的なセンサ測定に基づく、推定値を生成する。カルマンフィルタは、例えば、フィルタが前の瞬間における頭部姿勢推定値に基づいて頭部姿勢の予測推定値を出力する、予測フェーズを含む。次に、更新フェーズ中に、フィルタは、現在のセンサ測定に基づいて頭部姿勢推定値を更新する。そのようなアルゴリズムは、頭部姿勢推定値の正確度を向上させることができ、頭部の動きに応答して仮想または拡張現実画像を適切に表示する際に誤差を低減させる。正確な頭部姿勢推定値はまた、システムの待ち時間を短縮することもできる。
典型的には、カルマンフィルタまたは類似アルゴリズムは、(図18の垂直表面法線ベクトル1820に対応する)ユーザの中立頭部姿勢に近い頭部姿勢の最も正確な頭部姿勢推定値を生成する。残念ながら、そのようなアルゴリズムは、ヒト生理学または身体に対するユーザの頭部の動きによって課される移動限界を考慮しないため、頭部姿勢が中立頭部姿勢からさらに逸脱するにつれて、頭部姿勢移動を適切に推定することができなくなり得る。しかしながら、頭部姿勢追跡へのこれらの弱点の影響を低減させるために、種々の適合が行われることができる。
いくつかの実施形態では、カルマンフィルタまたは類似アルゴリズムを使用する、頭部姿勢推定および追跡は、生理学的に可能性として考えられる頭部姿勢の限度内の現在の頭部姿勢の場所に応じて異なる、可変利得係数を使用することによって、向上されることができる。図18は、生理学的に可能性として考えられる頭部姿勢のそのような限度内に対応する、3次元表面1810を図示する。図18は、ユーザの頭部が約180°以下の任意の方向に(例えば、左右または上下に)可動域を有することを示す。生理学的限度内の現在の頭部姿勢は、カルマンフィルタが推定した可変利得係数を調節するために使用されることができる。限度の中心(すなわち、中立頭部姿勢)に近いエリアでは、カルマンフィルタ予測誤差が、本領域中の頭部の動きのより高い直線性に起因してより低くあり得るため、利得係数は、測定頭部姿勢よりも予測頭部姿勢を強調するように設定されることができる。これは、頭部姿勢推定の正確度に過度に影響を及ぼすことなく、システムの待ち時間を短縮することができる。頭部姿勢が生理学的な頭部の動きの限度境界に接近するとき、次いで、アルゴリズムは、誤差を低減させるために、予測頭部姿勢へのフィルタの依拠を低減させる、または予測頭部姿勢よりも測定頭部姿勢を強調するように設定される、利得係数を使用することができる。
いくつかの実施形態では、図18に図示される生理学的頭部姿勢限度上の各場所は、異なる利得に対応することができる。他の実施形態では、生理学的頭部姿勢限度は、別個の領域に分割されることができ、異なる利得値は、異なる領域のそれぞれと関連付けられることができる。これは、図19に図示されている。
図19は、頭部姿勢追跡を向上させるための利得係数を定義するために使用され得る、種々の頭部姿勢領域を概略的に図示する。図19は、比較的中立の頭部姿勢に対応する中心領域1910を示す。これはまた、生理学的境界に近い頭部姿勢に対応する外側領域1930と、中心領域と外側領域との間の中間領域1920とを含む。いくつかの実施形態では、利得係数の異なるセットが、頭部姿勢領域毎に規定されることができる。中心領域1910は、カルマンフィルタアルゴリズムによって生成される、より高い正確度の予測値を有するであろう、移動のより高い直線性を伴うエリアを示す。頭部姿勢が中心領域1910内にあるとき、カルマンフィルタの利得係数は、測定頭部姿勢よりも予測頭部姿勢を強調するように、または別様に測定頭部姿勢への依拠を低減させるように、設定されることができる。頭部姿勢が中心領域から退出し、中間または外側領域(それぞれ、1920、1930)に進入するとき、移動は、アルゴリズムによって考慮されない場合にカルマン予測頭部姿勢に悪影響を及ぼすであろう、生理学的要因によってさらに制約され得る。故に、これらの領域(特に、外側領域1930)では、カルマンフィルタ利得値は、予測頭部姿勢へのフィルタの依拠を低減させ、測定頭部姿勢へのその依拠を増加させるように、設定されることができる。例えば、頭部の加速度が限度境界の近くで停止するであろうことが既知である場合、遠すぎる将来に向けて予測頭部姿勢に強く依拠することは不正確であろう。3つの頭部姿勢領域が図19に図示されているが、異なる数の頭部姿勢領域も、他の実施形態で使用されることができる。
いくつかの実施形態では、頭部姿勢推定および追跡はまた、絶対的な感覚で頭部の動きを感知するのではなく、ユーザの身体に対してユーザの頭部の位置、配向、速度、および/または加速度を感知することによって、向上されることもできる。これは、ユーザによって自分の身体に(例えば、胴体または腰に)装着される付加的慣性測定ユニットを提供することによって、行われることができる。頭部姿勢が頭部および身体の動きの関数であることに留意することが重要である。生理学的に可能性として考えられる頭部姿勢の限度は、空間内で固定されず、例えば、身体の回転とともに動く。ユーザが、身体を固定化して保ちながら自分の頭部を動かし、椅子に座っていた場合には、生理学的限度は、頭部の動きのみを考慮することによって、非常に良好な頭部姿勢推定値が達成され得るように、比較的制約されるであろう。しかしながら、ユーザが実際に仮想または拡張現実頭部搭載型ディスプレイを装着し、動き回っているとき、次いで、可能性として考えられる頭部姿勢の生理学的限度は、身体の動きとともに変動する。
身体に装着される(例えば、仮想または拡張現実システム用のバッテリパックおよび/またはプロセッサとともに搭載される)第2の慣性測定ユニットは、頭部姿勢の生理学的限度の動きを追跡するように付加的情報を提供することに役立ち得る。空間内で限度を固定する代わりに、第2の慣性測定ユニットは、頭部の動きが身体に関して判定されることを可能にし得る。例えば、身体が右に回転する場合には、生理学的限度は、生理学的限度内で頭部姿勢をより正確に判定し、カルマンフィルタの動作を過度に制約することを回避するように、それに対応して右に回転されることができる。
いくつかの実施形態では、頭部搭載型慣性測定ユニットを使用して判定される頭部の運動は、身体搭載型慣性測定ユニットを使用して判定される身体の運動から差し引かれることができる。例えば、身体の絶対位置、配向、速度、および/または加速度は、身体に関して頭部の位置、配向、速度、および/または加速度を推定するために、頭部の絶対位置、配向、速度、および/または加速度から差し引かれることができる。いったん身体に関して頭部の配向または運動が把握されると、次いで、生理学的限度内の実際の頭部姿勢場所が、より正確に推定されることができる。本明細書で議論されるように、これは、頭部姿勢の推定および追跡を向上させるために、カルマンフィルタ利得係数が判定されることを可能にする。
(強化された「トーテム」位置推定)
いくつかの仮想または拡張現実システムでは、規定有形オブジェクトは、ユーザが仮想オブジェクトまたは場面と相互作用することを可能にする、「トーテム」として使用されることができる。例えば、ユーザが自分の手で保持する有形ブロックは、コンピュータマウス等の双方向デバイスとしてシステムによって認識され得る。本システムは、例えば、ユーザの手の中の有形ブロックの移動を追跡し、次いで、それに応じて仮想ポインタを調節する、カメラを含むことができる。空間内でトーテムを追跡するためのコンピュータ視覚を使用することの可能性として考えられる欠点は、トーテムが、場合によっては、カメラの視野の外側にあり得る、または別様に覆い隠され得ることである。したがって、6自由度を用いて3次元でトーテムの位置および運動を堅調に追跡するためのシステムを提供することが有益であろう。
いくつかの実施形態では、トーテムの位置および移動を追跡するためのシステムは、トーテムの中に1つまたはそれを上回るセンサを含む。これらの1つまたはそれを上回るセンサは、空間内のトーテムの位置および移動を独立して判定する、加速度計および/またはジャイロスコープであり得る。本データは、次いで、仮想または拡張現実システムに伝送されることができる。
代替として、トーテムの中の1つまたはそれを上回るセンサは、トーテムおよび空間の位置および移動を判定するようにトランスミッタと連動することができる。例えば、トランスミッタは、空間内で空間的に変動する電場および/または磁場を生成することができ、トーテムは、トーテムの場所において電場または磁場を繰り返し測定し、それによって、トーテムの位置および運動が判定されることを可能にする、1つまたはそれを上回るセンサを含むことができる。いくつかの実施形態では、そのようなトランスミッタは、有利なこととして、仮想または拡張現実システムの頭部搭載型ディスプレイに組み込まれることができる。代替として、トランスミッタは、身体搭載型パックに組み込まれ得る。このようにして、それぞれ、ユーザの頭部または身体に対するトーテムの場所および/または移動が、判定されることができる。これは、トーテムの場所および/または移動がユーザの頭部または身体に関して判定されることができるため、トランスミッタが、単に、固定場所に(例えば、近くのテーブルの上に)位置した場合よりも有用な情報であってもよい。
(周囲照明に基づく画像色の調節)
いくつかの実施形態では、本明細書に説明される仮想および拡張現実システムは、周囲照明の明度および/または色相を検出するように1つまたはそれを上回るセンサ(例えば、カメラ)を含む。そのようなセンサは、例えば、仮想または拡張現実システムのディスプレイヘルメットの中に含まれることができる。周囲照明に関する感知された情報は、次いで、仮想オブジェクトのための生成されたピクセルの明度または色相を調節するために使用されることができる。例えば、周囲照明が黄色かかった色合いを有する場合、コンピュータ生成仮想オブジェクトは、室内の実際のオブジェクトの色調により密接に合致する、黄色かかった色調を有するように改変されることができる。そのようなピクセル調節は、画像がGPUによってレンダリングされるときに行われることができる。代替として、および/または加えて、そのようなピクセル調節は、本明細書で議論される制御情報を使用することによって、レンダリング後に行われることができる。
本開示を要約する目的のために、本発明のある側面、利点、および特徴が、本明細書に説明されている。必ずしも全てのそのような利点が、本発明の任意の特定の実施形態に従って達成され得るわけではないことを理解されたい。したがって、本発明は、本明細書で教示または提案され得るような他の利点を必ずしも達成することなく、本明細書で教示されるような1つの利点または利点群を達成または最適化する様式で、具現化または実施されてもよい。
実施形態は、付随の図面に関連して説明されている。しかしながら、図が一定の縮尺で描かれていないことを理解されたい。距離、角度等は、例証的にすぎず、必ずしも図示されるデバイスの実際の寸法およびレイアウトと正確な関係を持つわけではない。加えて、前述の実施形態は、当業者が本明細書に説明されるデバイス、システム、方法等を生産および使用することを可能にする詳細さのレベルで説明されている。多種多様な変形例が、可能である。構成要素、要素、および/またはステップは、改変、追加、除去、または再編成されてもよい。
本明細書に説明されるデバイスおよび方法は、有利なこととして、例えば、コンピュータソフトウェア、ハードウェア、ファームウェア、またはソフトウェア、ハードウェア、およびファームウェアの任意の組み合わせを使用して、少なくとも部分的に実装されることができる。ソフトウェアモジュールは、本明細書に説明される機能を果たすために、コンピュータのメモリの中に記憶されたコンピュータ実行可能コードを備えることができる。いくつかの実施形態では、コンピュータ実行可能コードは、1つまたはそれを上回る汎用コンピュータによって実行される。しかしながら、当業者は、本開示に照らして、汎用コンピュータ上で実行されるソフトウェアを使用して実装され得る、任意のモジュールもまた、ハードウェア、ソフトウェア、またはファームウェアの異なる組み合わせを使用して実装され得ることを理解するであろう。例えば、そのようなモジュールは、集積回路の組み合わせを使用して、完全にハードウェアで実装されることができる。代替として、または加えて、そのようなモジュールは、汎用コンピュータによってではなく、本明細書に説明される特定の機能を果たすように設計される特殊化コンピュータを使用して、完全または部分的に実装されることができる。加えて、少なくとも部分的にコンピュータソフトウェアによって実施される、または実施され得る方法が説明される場合、そのような方法は、コンピュータまたは他の処理デバイスによって読み取られたときに方法を実施させる、非一過性のコンピュータ可読媒体(例えば、CDまたはDVD等の光ディスク、ハードディスクドライブ、フラッシュメモリ、ディスケット、または同等物)上に提供され得ることを理解されたい。
ある実施形態が明示的に説明されているが、他の実施形態も、本開示に基づいて当業者に明白となるであろう。

Claims (1)

  1. 本明細書に記載の発明。
JP2021033518A 2015-08-18 2021-03-03 仮想および拡張現実システムならびに方法 Active JP7230082B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022179495A JP7454627B2 (ja) 2015-08-18 2022-11-09 仮想および拡張現実システムならびに方法
JP2024014037A JP2024036460A (ja) 2015-08-18 2024-02-01 仮想および拡張現実システムならびに方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562206765P 2015-08-18 2015-08-18
US62/206,765 2015-08-18

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018508163A Division JP7036711B2 (ja) 2015-08-18 2016-08-17 仮想および拡張現実システムならびに方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022179495A Division JP7454627B2 (ja) 2015-08-18 2022-11-09 仮想および拡張現実システムならびに方法

Publications (2)

Publication Number Publication Date
JP2021093206A true JP2021093206A (ja) 2021-06-17
JP7230082B2 JP7230082B2 (ja) 2023-02-28

Family

ID=58051711

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2018508163A Active JP7036711B2 (ja) 2015-08-18 2016-08-17 仮想および拡張現実システムならびに方法
JP2019110260A Active JP7036773B2 (ja) 2015-08-18 2019-06-13 仮想および拡張現実システムならびに方法
JP2021033518A Active JP7230082B2 (ja) 2015-08-18 2021-03-03 仮想および拡張現実システムならびに方法
JP2022179495A Active JP7454627B2 (ja) 2015-08-18 2022-11-09 仮想および拡張現実システムならびに方法
JP2024014037A Pending JP2024036460A (ja) 2015-08-18 2024-02-01 仮想および拡張現実システムならびに方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2018508163A Active JP7036711B2 (ja) 2015-08-18 2016-08-17 仮想および拡張現実システムならびに方法
JP2019110260A Active JP7036773B2 (ja) 2015-08-18 2019-06-13 仮想および拡張現実システムならびに方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022179495A Active JP7454627B2 (ja) 2015-08-18 2022-11-09 仮想および拡張現実システムならびに方法
JP2024014037A Pending JP2024036460A (ja) 2015-08-18 2024-02-01 仮想および拡張現実システムならびに方法

Country Status (10)

Country Link
US (3) US11481911B2 (ja)
EP (2) EP3338251B1 (ja)
JP (5) JP7036711B2 (ja)
KR (2) KR20230042142A (ja)
CN (4) CN114998557A (ja)
AU (2) AU2016308731A1 (ja)
CA (1) CA2995978A1 (ja)
IL (2) IL257505B2 (ja)
NZ (2) NZ752336A (ja)
WO (1) WO2017031246A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022112493A1 (de) 2021-06-02 2022-12-08 Toyota Jidosha Kabushiki Kaisha Stator und dessen herstellungsverfahren

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9407865B1 (en) * 2015-01-21 2016-08-02 Microsoft Technology Licensing, Llc Shared scene mesh data synchronization
CN114998557A (zh) 2015-08-18 2022-09-02 奇跃公司 虚拟和增强现实系统和方法
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
KR20180000771A (ko) * 2016-06-23 2018-01-04 삼성디스플레이 주식회사 표시 장치
WO2018039270A1 (en) 2016-08-22 2018-03-01 Magic Leap, Inc. Virtual, augmented, and mixed reality systems and methods
US10869026B2 (en) * 2016-11-18 2020-12-15 Amitabha Gupta Apparatus for augmenting vision
US20200158517A1 (en) * 2017-01-19 2020-05-21 Mindmaze Holding Sa System, methods, device and apparatuses for preforming simultaneous localization and mapping
CN114578562A (zh) 2017-03-22 2022-06-03 奇跃公司 用于显示系统的基于深度的凹式渲染
US20180300916A1 (en) * 2017-04-14 2018-10-18 Facebook, Inc. Prompting creation of a networking system communication with augmented reality elements in a camera viewfinder display
CN110431468B (zh) * 2017-04-28 2022-12-06 惠普发展公司,有限责任合伙企业 确定用于显示系统的用户躯干的位置和取向
JP6257825B1 (ja) * 2017-05-26 2018-01-10 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US20200145696A1 (en) * 2017-06-05 2020-05-07 Immersive Robotics Pty Ltd Digital Content Stream Compression
JP6791034B2 (ja) * 2017-06-16 2020-11-25 株式会社Jvcケンウッド 表示システム、映像処理装置、画素ずらし表示装置、映像処理方法、表示方法、及びプログラム
US10859834B2 (en) 2017-07-03 2020-12-08 Holovisions Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear
US10338400B2 (en) 2017-07-03 2019-07-02 Holovisions LLC Augmented reality eyewear with VAPE or wear technology
IL253432A0 (en) 2017-07-11 2017-09-28 Elbit Systems Ltd System and method for correcting a rolling display effect
US11311188B2 (en) * 2017-07-13 2022-04-26 Micro Medical Devices, Inc. Visual and mental testing using virtual reality hardware
CN107835403B (zh) * 2017-10-20 2020-06-26 华为技术有限公司 一种以3d视差效果显示的方法及装置
US10705606B1 (en) * 2017-10-23 2020-07-07 Facebook Technologies, Llc Tracking sensor integration system and method for recursive estimation of pose of user's body part
US10839576B2 (en) * 2017-10-27 2020-11-17 Magic Leap, Inc. Virtual reticle for augmented reality systems
US10735649B2 (en) 2018-02-22 2020-08-04 Magic Leap, Inc. Virtual and augmented reality systems and methods using display system control information embedded in image data
WO2019178566A1 (en) 2018-03-16 2019-09-19 Magic Leap, Inc. Depth based foveated rendering for display systems
US11012694B2 (en) * 2018-05-01 2021-05-18 Nvidia Corporation Dynamically shifting video rendering tasks between a server and a client
US10284752B1 (en) * 2018-05-22 2019-05-07 BioForce Analytics LLC Method for determining a start offset between a video recording device and an inertial measurement unit for use in synchronizing motion data of an object collected by the inertial measurement unit attached to the object with video frames captured by an image sensor of the video recording device of the object in motion
US10469750B1 (en) 2018-05-22 2019-11-05 BioForce Analytics LLC Method for embedding motion data of an object into a video file to allow for synchronized visualization of the motion data upon playback of the video file
WO2019246044A1 (en) 2018-06-18 2019-12-26 Magic Leap, Inc. Head-mounted display systems with power saving functionality
WO2019246129A2 (en) 2018-06-18 2019-12-26 Magic Leap, Inc. Augmented reality display with frame modulation functionality
US10812731B2 (en) * 2018-08-22 2020-10-20 Qualcomm Incorporated Adjustable receiver exposure times for active depth sensing systems
US10991283B2 (en) * 2018-09-04 2021-04-27 Apple Inc. Decimated burn-in compensation with pixel shifting
US11189054B2 (en) * 2018-09-28 2021-11-30 Apple Inc. Localization and mapping using images from multiple devices
CN109633632B (zh) * 2018-12-26 2021-11-30 青岛小鸟看看科技有限公司 一种头戴显示设备,手柄及其定位追踪方法
CN109862339A (zh) * 2019-02-19 2019-06-07 浙江舜宇光学有限公司 增强现实的再现方法、装置、系统、存储介质和处理器
EP3914942A4 (en) * 2019-02-22 2022-10-26 Vuzix Corporation PARALLEL PLATE WAVEGUIDES
CN110033521B (zh) * 2019-04-01 2020-01-14 重庆固成未来教育科技有限公司 一种基于vr与ar技术的三维可视化系统
CN113875230B (zh) 2019-05-23 2023-03-28 奇跃公司 混合模式三维显示方法
JP7379961B2 (ja) * 2019-09-04 2023-11-15 株式会社Jvcケンウッド 表示システム、及び表示方法
CN110782532B (zh) * 2019-10-23 2021-04-16 北京达佳互联信息技术有限公司 图像生成方法、生成装置、电子设备及存储介质
EP4058835A4 (en) 2019-11-13 2022-12-07 Magic Leap, Inc. AMBIENT LIGHT MANAGEMENT SYSTEMS AND METHODS FOR PORTABLE DEVICES
EP4070286A4 (en) 2019-12-06 2023-01-18 Magic Leap, Inc. VIRTUAL, AUGMENTED AND MIXED REALITY PROCESSES AND SYSTEMS
US11748954B2 (en) 2020-06-01 2023-09-05 Snap Inc. Tracking an augmented reality device
US11276201B1 (en) 2020-06-01 2022-03-15 Snap Inc. Localizing an augmented reality device
SE2030252A1 (en) 2020-08-13 2022-02-14 Nagoon AB Method performed by a computer system for creation of augmented reality experiences and connection of these to the real world
CN117280695A (zh) * 2021-04-09 2023-12-22 交互数字Ce专利控股有限公司 多平面图像序列的编码/解码方法和装置及计算机生成全息图的重建方法和装置
US11288027B1 (en) * 2021-04-14 2022-03-29 Varjo Technologies Oy Peripheral display apparatus and system
US20230136662A1 (en) * 2021-10-27 2023-05-04 Meta Platforms Technologies, Llc Parallax Asynchronous Spacewarp for Multiple Frame Extrapolation
CN114265330B (zh) * 2021-12-17 2023-05-02 中国人民解放军空军特色医学中心 一种基于模拟飞行的增强现实显示效果评估系统及方法
US11586286B1 (en) 2022-05-18 2023-02-21 Bank Of America Corporation System and method for navigating on an augmented reality display
US11720380B1 (en) 2022-05-18 2023-08-08 Bank Of America Corporation System and method for updating augmented reality navigation instructions based on a detected error

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025919A (ja) * 2007-07-17 2009-02-05 Canon Inc 画像処理装置、画像処理方法
US20130286053A1 (en) * 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
US20150116528A1 (en) * 2012-08-04 2015-04-30 Paul Lapstun Scanning Light Field Camera
WO2015081313A2 (en) * 2013-11-27 2015-06-04 Magic Leap, Inc. Virtual and augmented reality systems and methods
US20150201176A1 (en) * 2014-01-10 2015-07-16 Ostendo Technologies, Inc. Methods for Full Parallax Compressed Light Field 3D Imaging Systems

Family Cites Families (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US6351261B1 (en) 1993-08-31 2002-02-26 Sun Microsystems, Inc. System and method for a virtual reality system having a frame buffer that stores a plurality of view points that can be selected and viewed by the user
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US6084979A (en) * 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
DE19906769A1 (de) 1998-02-19 1999-12-16 Leica Microsystems Überlastschutz zur Vermeidung einer Beschädigung optischer Komponenten
US6377276B1 (en) * 1998-06-18 2002-04-23 Sony Corporation Bitmap animation of on-screen-display graphics over a distributed network and a clipping region having a visible window
US6801213B2 (en) 2000-04-14 2004-10-05 Brillian Corporation System and method for superframe dithering in a liquid crystal display
US20050193425A1 (en) * 2000-07-24 2005-09-01 Sanghoon Sull Delivery and presentation of content-relevant information associated with frames of audio-visual programs
JP3406965B2 (ja) 2000-11-24 2003-05-19 キヤノン株式会社 複合現実感提示装置及びその制御方法
US7604348B2 (en) 2001-01-23 2009-10-20 Kenneth Martin Jacobs Continuous adjustable 3deeps filter spectacles for optimized 3deeps stereoscopic viewing and its control method and means
US7508485B2 (en) 2001-01-23 2009-03-24 Kenneth Martin Jacobs System and method for controlling 3D viewing spectacles
US7850304B2 (en) 2001-01-23 2010-12-14 Kenneth Martin Jacobs Continuous adjustable 3Deeps filter spectacles for optimized 3Deeps stereoscopic viewing and its control method and means
US7522257B2 (en) * 2001-01-23 2009-04-21 Kenneth Jacobs System and method for a 3-D phenomenoscope
US7218339B2 (en) * 2002-01-22 2007-05-15 Kenneth Jacobs Eternalism, a method for creating an appearance of sustained three-dimensional motion-direction of unlimited duration, using a finite number of pictures
US7391888B2 (en) * 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems
JP4463538B2 (ja) 2003-12-15 2010-05-19 三菱電機株式会社 マルチディスプレイ三次元グラフィックス表示装置
US20060028459A1 (en) * 2004-08-03 2006-02-09 Silverbrook Research Pty Ltd Pre-loaded force sensor
JP4904692B2 (ja) 2005-01-28 2012-03-28 株式会社ニコン 画像再生装置、及び画像再生プログラム
JP2007018173A (ja) * 2005-07-06 2007-01-25 Canon Inc 画像処理方法、画像処理装置
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
JP2007148567A (ja) 2005-11-24 2007-06-14 Canon Inc 画像処理方法、画像処理装置
EP1966788B1 (en) * 2005-12-19 2013-09-04 Pixtronix, Inc. Direct-view mems display devices and methods for generating images thereon
JP4519865B2 (ja) 2007-01-29 2010-08-04 三菱電機株式会社 通信装置
JP4857196B2 (ja) 2007-05-31 2012-01-18 キヤノン株式会社 頭部装着型表示装置、及びその制御方法
US20130044104A1 (en) * 2008-01-22 2013-02-21 Jaison Bouie Methods and Apparatus for Displaying an Image with Enhanced Depth Effect
EP2329313A4 (en) 2008-08-27 2013-04-10 Puredepth Ltd IMPROVEMENTS OF, OR IN CONNECTION WITH ELECTRONIC VISUAL DISPLAYS
WO2010035193A1 (en) 2008-09-25 2010-04-01 Koninklijke Philips Electronics N.V. Three dimensional image data processing
TWI542190B (zh) 2008-11-04 2016-07-11 皇家飛利浦電子股份有限公司 編碼三維影像信號的方法及系統、經編碼之三維影像信號、解碼三維影像信號的方法及系統
US8301013B2 (en) * 2008-11-18 2012-10-30 Panasonic Corporation Reproduction device, reproduction method, and program for stereoscopic reproduction
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
CN102160389B (zh) 2009-06-11 2013-03-27 松下电器产业株式会社 再现装置、集成电路、记录介质
JP5604825B2 (ja) 2009-08-19 2014-10-15 ソニー株式会社 画像処理装置および方法
JP2011082675A (ja) 2009-10-05 2011-04-21 Sony Corp 画像信号処理装置、画像信号処理方法、画像表示装置、画像表示方法、プログラム、および画像表示システム
US20110175902A1 (en) * 2010-01-20 2011-07-21 Apple Inc. Multilayer display device
GB2477120A (en) * 2010-01-22 2011-07-27 Icescreen Ehf Media editing using poly-dimensional display of sequential image frames
JP6106586B2 (ja) 2010-06-28 2017-04-05 トムソン ライセンシングThomson Licensing 立体コンテンツの3次元効果をカスタマイズする方法及び装置
KR20120017228A (ko) 2010-08-18 2012-02-28 엘지전자 주식회사 이동 단말기 및 상기 이동 단말기의 영상 표시 방법
DE112011103496T5 (de) 2010-11-15 2013-08-29 Lg Electronics Inc. Verfahren zum Umwandeln eines Einzelbildformats und Vorrichtung zur Benutzung dieses Verfahrens
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
JP2012120067A (ja) 2010-12-03 2012-06-21 Brother Ind Ltd シースルー型画像表示装置およびシースルー型画像表示方法
CN103688208B (zh) 2010-12-24 2017-06-06 奇跃公司 人体工程学头戴式显示设备和光学系统
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
US9041774B2 (en) * 2011-01-07 2015-05-26 Sony Computer Entertainment America, LLC Dynamic adjustment of predetermined three-dimensional video settings based on scene content
US8514225B2 (en) * 2011-01-07 2013-08-20 Sony Computer Entertainment America Llc Scaling pixel depth values of user-controlled virtual object in three-dimensional scene
CA3035118C (en) 2011-05-06 2022-01-04 Magic Leap, Inc. Massive simultaneous remote digital presence world
JP2013003848A (ja) * 2011-06-16 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 仮想物体表示装置
JP2013066075A (ja) 2011-09-01 2013-04-11 Sony Corp 送信装置、送信方法および受信装置
JP2015504616A (ja) 2011-09-26 2015-02-12 マイクロソフト コーポレーション 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正
EP2760363A4 (en) 2011-09-29 2015-06-24 Magic Leap Inc TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION
CA3048647C (en) 2011-10-28 2022-08-16 Magic Leap, Inc. System and method for augmented and virtual reality
KR102513896B1 (ko) 2011-11-23 2023-03-23 매직 립, 인코포레이티드 3차원 가상 및 증강 현실 디스플레이 시스템
US9392251B2 (en) * 2011-12-29 2016-07-12 Samsung Electronics Co., Ltd. Display apparatus, glasses apparatus and method for controlling depth
BR112013026086A2 (pt) * 2012-02-16 2020-08-11 Sony Corporation aparelho de transmissão, método de transmissão e aparelho de recepção
WO2013152205A1 (en) 2012-04-05 2013-10-10 Augmented Vision Inc. Wide-field of view (fov) imaging devices with active foveation capability
GB2501929B (en) * 2012-05-11 2015-06-24 Sony Comp Entertainment Europe Apparatus and method for augmented reality
JP2013254151A (ja) 2012-06-08 2013-12-19 Canon Inc 画像処理装置および画像処理方法
CN107817556B (zh) * 2012-06-11 2020-01-31 奇跃公司 使用波导反射器阵列投射器的多深度平面三维显示器
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US8957855B2 (en) * 2012-06-25 2015-02-17 Cyberlink Corp. Method for displaying a stereoscopic cursor among stereoscopic objects
US10129524B2 (en) * 2012-06-26 2018-11-13 Google Llc Depth-assigned content for depth-enhanced virtual reality images
RU2012138174A (ru) * 2012-09-06 2014-03-27 Сисвел Текнолоджи С.Р.Л. Способ компоновки формата цифрового стереоскопического видеопотока 3dz tile format
CN104813218A (zh) 2012-09-11 2015-07-29 奇跃公司 人机工程学的头戴显示设备和光学系统
JP5873982B2 (ja) 2012-10-09 2016-03-01 パナソニックIpマネジメント株式会社 3次元表示装置、3次元画像処理装置および3次元表示方法
KR101909630B1 (ko) 2012-10-30 2018-10-18 삼성전자주식회사 동작 인식 방법 및 동작 인식 장치
US9619911B2 (en) 2012-11-13 2017-04-11 Qualcomm Incorporated Modifying virtual object display properties
KR101984915B1 (ko) * 2012-12-03 2019-09-03 삼성전자주식회사 증강 현실 컨텐츠 운용 방법 및 이를 지원하는 단말기와 시스템
CN105027190B (zh) * 2013-01-03 2019-06-21 美达视野股份有限公司 用于虚拟或增强介导视觉的射出空间成像数字眼镜
JP6025050B2 (ja) 2013-01-11 2016-11-16 パナソニックIpマネジメント株式会社 照明装置
CA2898283C (en) 2013-01-15 2021-05-11 Magic Leap, Inc. Ultra-high resolution scanning fiber display
IL298018B2 (en) 2013-03-11 2024-04-01 Magic Leap Inc System and method for augmentation and virtual reality
US10371943B2 (en) 2013-03-14 2019-08-06 Valve Corporation Method and system to control the focus depth of projected images
KR102271726B1 (ko) 2013-03-15 2021-06-30 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
BR112015024910A2 (pt) 2013-03-26 2017-07-18 Seiko Epson Corp dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição
US9036078B1 (en) 2013-05-14 2015-05-19 Google Inc. Reducing light damage in shutterless imaging devices
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9514571B2 (en) 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
JP5466786B1 (ja) * 2013-08-28 2014-04-09 株式会社 ディー・エヌ・エー 画像処理装置及び画像処理プログラム
IL295157B2 (en) 2013-10-16 2023-10-01 Magic Leap Inc An augmented or virtual reality head device with intrapupillary distance adjustment
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
KR102197504B1 (ko) * 2013-12-18 2020-12-31 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 사전 계산된 조명으로 증강 현실 환경을 구성하는 기법
EP3100098B8 (en) 2014-01-31 2022-10-05 Magic Leap, Inc. Multi-focal display system and method
CA2938262C (en) 2014-01-31 2021-01-19 Magic Leap, Inc. Multi-focal display system and method
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
GB2524478A (en) 2014-03-20 2015-09-30 Nokia Technologies Oy Method, apparatus and computer program product for filtering of media content
US9563269B2 (en) 2014-03-25 2017-02-07 Microsoft Technology Licensing, Llc Scanning liquid-crystal display backlight
US9971153B2 (en) 2014-03-29 2018-05-15 Frimory Technologies Ltd. Method and apparatus for displaying video data
US9495801B2 (en) * 2014-05-01 2016-11-15 Microsoft Technology Licensing, Llc Pose tracking an augmented reality device
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
EP3149539A4 (en) 2014-05-30 2018-02-07 Magic Leap, Inc. Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
GB2528699B (en) * 2014-07-29 2017-05-03 Sony Computer Entertainment Europe Ltd Image processing
CN104392045B (zh) * 2014-11-25 2018-01-09 沈阳建筑大学 一种基于智能移动终端的实时增强虚拟现实系统及方法
WO2016105521A1 (en) 2014-12-23 2016-06-30 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest
WO2016150350A1 (zh) 2015-03-20 2016-09-29 柳州桂通科技股份有限公司 一种多媒体多信息同步重现的方法和系统
US10284816B2 (en) * 2015-03-23 2019-05-07 Intel Corporation Facilitating true three-dimensional virtual representation of real objects using dynamic three-dimensional shapes
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
US9240069B1 (en) * 2015-06-30 2016-01-19 Ariadne's Thread (Usa), Inc. Low-latency virtual reality display system
US10089790B2 (en) * 2015-06-30 2018-10-02 Ariadne's Thread (Usa), Inc. Predictive virtual reality display system with post rendering correction
CN114998557A (zh) 2015-08-18 2022-09-02 奇跃公司 虚拟和增强现实系统和方法
KR20210060676A (ko) 2016-09-13 2021-05-26 매직 립, 인코포레이티드 감각 안경류
US10735649B2 (en) 2018-02-22 2020-08-04 Magic Leap, Inc. Virtual and augmented reality systems and methods using display system control information embedded in image data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025919A (ja) * 2007-07-17 2009-02-05 Canon Inc 画像処理装置、画像処理方法
US20130286053A1 (en) * 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
US20150116528A1 (en) * 2012-08-04 2015-04-30 Paul Lapstun Scanning Light Field Camera
WO2015081313A2 (en) * 2013-11-27 2015-06-04 Magic Leap, Inc. Virtual and augmented reality systems and methods
US20150201176A1 (en) * 2014-01-10 2015-07-16 Ostendo Technologies, Inc. Methods for Full Parallax Compressed Light Field 3D Imaging Systems

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022112493A1 (de) 2021-06-02 2022-12-08 Toyota Jidosha Kabushiki Kaisha Stator und dessen herstellungsverfahren

Also Published As

Publication number Publication date
NZ752336A (en) 2023-06-30
EP3338251A4 (en) 2019-04-03
CN109409251B (zh) 2023-05-16
AU2021209169A1 (en) 2021-08-19
EP3338251A1 (en) 2018-06-27
US11481911B2 (en) 2022-10-25
CN108140259B (zh) 2022-06-14
EP4198911A1 (en) 2023-06-21
US20170053450A1 (en) 2017-02-23
NZ739860A (en) 2019-10-25
JP7036711B2 (ja) 2022-03-15
US20230005167A1 (en) 2023-01-05
CN108140259A (zh) 2018-06-08
CA2995978A1 (en) 2017-02-23
US20180061139A1 (en) 2018-03-01
CN109407835A (zh) 2019-03-01
AU2016308731A1 (en) 2018-03-15
JP7036773B2 (ja) 2022-03-15
IL305152A (en) 2023-10-01
JP7454627B2 (ja) 2024-03-22
US11302018B2 (en) 2022-04-12
JP2023010774A (ja) 2023-01-20
IL257505B1 (en) 2023-09-01
CN109409251A (zh) 2019-03-01
KR20180038552A (ko) 2018-04-16
CN114998557A (zh) 2022-09-02
IL257505A (en) 2018-06-28
EP3338251B1 (en) 2023-01-25
JP7230082B2 (ja) 2023-02-28
KR20230042142A (ko) 2023-03-27
JP2018533108A (ja) 2018-11-08
KR102511490B1 (ko) 2023-03-16
JP2019191600A (ja) 2019-10-31
WO2017031246A1 (en) 2017-02-23
JP2024036460A (ja) 2024-03-15
CN109407835B (zh) 2023-01-13
IL257505B2 (en) 2024-01-01

Similar Documents

Publication Publication Date Title
JP7036773B2 (ja) 仮想および拡張現実システムならびに方法
JP7329105B2 (ja) ディスプレイシステムのための深度ベース中心窩化レンダリング
AU2022201611B2 (en) Virtual, augmented, and mixed reality systems and methods
US11800218B2 (en) Virtual and augmented reality systems and methods
JP6923552B2 (ja) 可変焦点レンズ要素を用いた拡張現実システムおよび方法
JP2019507902A (ja) 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム
AU2023201212B2 (en) Virtual, augmented, and mixed reality systems and methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R150 Certificate of patent or registration of utility model

Ref document number: 7230082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150