JP7397777B2 - 仮想現実、拡張現実、および複合現実システムおよび方法 - Google Patents
仮想現実、拡張現実、および複合現実システムおよび方法 Download PDFInfo
- Publication number
- JP7397777B2 JP7397777B2 JP2020138439A JP2020138439A JP7397777B2 JP 7397777 B2 JP7397777 B2 JP 7397777B2 JP 2020138439 A JP2020138439 A JP 2020138439A JP 2020138439 A JP2020138439 A JP 2020138439A JP 7397777 B2 JP7397777 B2 JP 7397777B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- depth plane
- display
- virtual
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 454
- 230000003190 augmentative effect Effects 0.000 title claims description 102
- 230000003287 optical effect Effects 0.000 claims description 168
- 230000004044 response Effects 0.000 claims description 49
- 210000003128 head Anatomy 0.000 description 272
- 238000012937 correction Methods 0.000 description 172
- 238000012545 processing Methods 0.000 description 171
- 239000000872 buffer Substances 0.000 description 148
- 238000005259 measurement Methods 0.000 description 125
- 238000004891 communication Methods 0.000 description 87
- 238000005096 rolling process Methods 0.000 description 85
- 210000000695 crystalline len Anatomy 0.000 description 83
- 230000033001 locomotion Effects 0.000 description 74
- 238000002156 mixing Methods 0.000 description 51
- 238000009877 rendering Methods 0.000 description 47
- 230000008447 perception Effects 0.000 description 40
- 230000009466 transformation Effects 0.000 description 39
- 230000004075 alteration Effects 0.000 description 36
- 238000003384 imaging method Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 31
- 230000000694 effects Effects 0.000 description 27
- 230000008859 change Effects 0.000 description 26
- 230000001976 improved effect Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 24
- 239000003086 colorant Substances 0.000 description 23
- 238000013459 approach Methods 0.000 description 21
- 230000002829 reductive effect Effects 0.000 description 21
- 230000001131 transforming effect Effects 0.000 description 21
- 238000000638 solvent extraction Methods 0.000 description 17
- 238000001514 detection method Methods 0.000 description 15
- 230000004424 eye movement Effects 0.000 description 15
- 210000001747 pupil Anatomy 0.000 description 15
- 238000007906 compression Methods 0.000 description 13
- 230000006835 compression Effects 0.000 description 13
- 230000008901 benefit Effects 0.000 description 12
- 230000004886 head movement Effects 0.000 description 12
- 238000012856 packing Methods 0.000 description 12
- 238000003860 storage Methods 0.000 description 12
- 238000000844 transformation Methods 0.000 description 12
- 238000013519 translation Methods 0.000 description 10
- 230000004308 accommodation Effects 0.000 description 9
- 230000000977 initiatory effect Effects 0.000 description 9
- 239000000463 material Substances 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000003705 background correction Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 241000256837 Apidae Species 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 239000004020 conductor Substances 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 239000000470 constituent Substances 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000036961 partial effect Effects 0.000 description 5
- 125000006850 spacer group Chemical group 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000012952 Resampling Methods 0.000 description 4
- 230000003416 augmentation Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 210000001061 forehead Anatomy 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000002347 injection Methods 0.000 description 4
- 239000007924 injection Substances 0.000 description 4
- 230000004434 saccadic eye movement Effects 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000002350 accommodative effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 3
- 238000013144 data compression Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000006266 hibernation Effects 0.000 description 3
- 238000009396 hybridization Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000007958 sleep Effects 0.000 description 3
- 238000004381 surface treatment Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 206010021703 Indifference Diseases 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000003750 conditioning effect Effects 0.000 description 2
- 238000005336 cracking Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000000193 eyeblink Effects 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000011010 flushing procedure Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000013021 overheating Methods 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 229920001296 polysiloxane Polymers 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 229930091051 Arenine Natural products 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 239000000956 alloy Substances 0.000 description 1
- 229910045601 alloy Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000007743 anodising Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/3243—Power saving in microcontroller unit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3265—Power saving in display device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/44—Morphing
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2330/00—Aspects of power supply; Aspects of display protection and defect management
- G09G2330/02—Details of power systems and of start or stop of display operation
- G09G2330/021—Power management, e.g. power saving
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/04—Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Geometry (AREA)
- Controls And Circuits For Display Device (AREA)
- Liquid Crystal (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
- Power Sources (AREA)
- Computing Systems (AREA)
- Transforming Electric Information Into Light Information (AREA)
Description
本願は、米国仮出願第62/377,829号、出願日2016年8月22日、代理人管理番号ML.30085.00、発明の名称“MIXED REALITY SYSTEMS AND METHODS”、米国仮出願第62/377,804号、出願日2016年8月22日、代理人管理番号ML.30086.00、発明の名称 “MIXED REALITY SYSTEMS AND METHODS”、および米国仮出願第62/462,279号、出願日2017年2月22日、代理人管理番号MLk-30093、発明の名称 “VIRTUAL, AUGMENTED, AND MIXED REALITY SYSTEMS AND METHODS”に対する優先権を主張するものである。本願は、米国特許出願第14/555,585号、出願日2014年11月27日、代理人管理番号ML.20011.00、発明の名称“VIRTUAL AND AUGMENTED REALITY SYSTEMS AND METHODS”に関連している。上記特許出願の内容は、全体が記載されているかのように、それらの全体が参照により明示的かつ完全に本明細書中に援用される。上記援用された特許出願における記載は、仮想現実、拡張現実、および複合現実システムおよび方法の種々の実施形態である。本明細書中に記載されているのは、仮想現実、拡張現実、および複合現実システムおよび方法のさらなる実施形態である。
一実施形態では、仮想、拡張、または複合現実ディスプレイシステムは、仮想、拡張、または複合現実画像データを表示するように構成される、ディスプレイであって、光学歪曲または収差を画像データに導入する、1つ以上の光学コンポーネントを含む、ディスプレイを含む。本システムはまた、画像データをディスプレイに提供するように構成される、コントローラを含む。ディスプレイコントローラは、光学歪曲補正情報を記憶するためのメモリと、少なくとも部分的に、光学歪曲補正情報を使用して、光学歪曲または収差のために画像データを補正するための1つ以上の処理要素とを含む。
さらに別の実施形態では、仮想、拡張、または複合現実ディスプレイシステムは、1つ以上の深度平面のためのデジタル画像データを表示するように構成される、ディスプレイであって、第1の深度平面に対応する画像データを表示するための第1の光学経路と、第2の深度平面に対応する画像データを表示するための少なくとも部分的に明確に異なる第2の光学経路とを含む、ディスプレイを含む。本システムはまた、混成された画像データがディスプレイによって表示されると、第1の深度平面と第2の深度平面との間に位置する仮想深度平面に対応するように現れるように、第1の深度平面に対応する画像データと第2の深度平面に対応する画像データを混成するように構成される、ディスプレイコントローラを含む。
別の実施形態では、仮想、拡張、または複合現実ディスプレイシステムは、ユーザの頭部の位置に関連する測定を行うように構成される、慣性測定ユニットを含む。本システムはまた、仮想、拡張、または複合現実画像データをレンダリングするように構成される、グラフィック処理ユニットを含む。本システムはさらに、変換された画像データをユーザに示すように構成される、ディスプレイを含む。さらに、本システムは、走査出力されたレンダリングされた画像データを受信し、ディスプレイに変換された画像データを示させるように構成される、ディスプレイドライバを含む。ディスプレイドライバは、測定を慣性測定ユニットから受信し、頭部姿勢情報を決定するように構成される、頭部姿勢プロセッサと、頭部姿勢情報に基づいて、レンダリングされた画像データを変換された画像データに変換するように構成される、画像ワーピングプロセッサとを含む。
さらに別の実施形態では、仮想、拡張、または複合現実ディスプレイシステムは、明度の変動をディスプレイの異なる部分に生じさせる、1つ以上の光学コンポーネントを含む、ディスプレイを含む。本システムはまた、1つ以上の異なる明度補正値を画像データ内の1つ以上のピクセル値に適用し、補正された画像データを作成するように構成される、ディスプレイコントローラを含む。ディスプレイは、明度変動を低減させるように、ユーザに、補正された画像データを示すように構成される。
さらに別の実施形態では、仮想、拡張、または複合現実ディスプレイシステムは、1つ以上の深度平面のための仮想、拡張、または複合現実画像データを表示するように構成される、ディスプレイを含む。ディスプレイは、第1の深度平面に対応する画像データを表示するための第1の光学経路と、第2の深度平面に対応する画像データを表示するための少なくとも部分的に明確に異なる第2の光学経路とを含む。ディスプレイはまた、光学歪曲または収差を画像データに導入する、1つ以上の光学コンポーネントを含む。ディスプレイはさらに、明度の変動をディスプレイの異なる部分に生じさせる、1つ以上の光学コンポーネントを含む。本システムはまた、コントローラを含む。コントローラは、少なくとも部分的に、光学歪曲補正情報を使用して、光学歪曲または収差のために画像データを補正するように構成される。コントローラはまた、混成された画像データが、第1の深度平面と第2の深度平面との間に位置する仮想深度平面に対応するように現れるように、第1の深度平面に対応する画像データと第2の深度平面に対応する画像データを混成するように構成される。コントローラはさらに、明度変動を低減させるように、1つ以上の異なる明度補正値を画像データ内の1つ以上のピクセル値に適用するように構成される。さらに、コントローラは、制御データに基づいて、回転またはピクセル偏移動作を用いて画像データを変換するように構成される。加えて、コントローラは、画像データをディスプレイに提供するように構成される。
別の実施形態では、仮想、拡張、または複合現実システムにおける方法は、システムが低電力モードで動作するステップを含む。本方法はまた、システムが通常プロセッサモードで動作するための要求を受信するステップを含む。本方法はさらに、通常プロセッサモードのための要求の受信に応答して、システムが低電力モードから通常電力モードに切り替わるステップを含む。さらに、本方法は、システムが低プロセッサモードの容認のインジケータを受信するステップを含む。さらに、本方法は、低プロセッサモードの容認のインジケータの受信に応答して、システムが通常電力モードからより低い電力モードに切り替わるステップを含む。
さらに別の実施形態では、仮想、拡張、または複合現実システムにおける方法は、システムが画像を1つ以上の深度平面上にレンダリングおよび投影する多平面モードで動作するステップを含む。本方法はまた、単一平面アクティビティのインジケータを受信するステップを含む。本方法はさらに、単一平面アクティビティのインジケータの受信に応答して、多平面結像モードから離散結像モードに切り替わるステップであって、離散結像モードでは、システムが画像を単一深度平面上にレンダリングおよび投影する、ステップを含む。さらに、本方法は、多平面アクティビティのインジケータを受信するステップを含む。加えて、本方法は、多平面アクティビティのインジケータの受信に応答して、単一平面モードから多平面モードに切り替わるステップを含む。
さらに別の実施形態では、仮想、拡張、または複合現実システムにおける方法は、ユーザの視野の画像を取得するステップを含む。本方法はまた、画像が私的情報を含むことを決定するステップを含む。本方法はさらに、画像から生成された光マップが公的であろうことを決定するステップを含む。さらに、本方法は、画像が私的情報を含むことの決定に応答して、かつ光マップが公的であろうことの決定に応答して、採光情報を含むが、私的情報を含まない、プロキシ画像を生成するステップを含む。加えて、本方法は、プロキシ画像をサーバに送信するステップを含む。本方法はまた、プロキシ画像を使用して、公的光マップを生成するステップを含む。
別の実施形態では、仮想、拡張、または複合現実システムにおける方法は、ユーザの眼位置を追跡するステップを含む。本方法はまた、ユーザの眼位置を使用して、ユーザの焦点を計算するステップを含む。本方法はさらに、ユーザの焦点上に心合される中心窩化エリアを識別するステップを含む。さらに、本方法は、中心窩化エリア外の画像の第2の部分に対して、中心窩化エリア内の画像の第1の部分をより正確にレンダリングするステップを含む。加えて、本方法は、第1および第2の部分を含む、画像を表示するステップを含む。
さらに別の実施形態では、仮想、拡張、または複合現実システムにおける方法は、それぞれ、第1の平面および第2の平面のための第1の平面および第2のコンテンツを取得するステップを含む。本方法はまた、瞳孔配向を決定するステップを含む。本方法はさらに、第1のコンテンツおよび第2のコンテンツと瞳孔情報を組み合わせ、切替パターンを生成するステップを含む。さらに、本方法は、切替パターンをシステムのディスプレイに送信するステップを含む。加えて、本方法は、ディスプレイが切替パターンを使用して切替を実施するステップを含む。
さらに別の実施形態では、仮想、拡張、または複合現実システムにおける方法は、個別の複数の平面のための1つ以上のコンテンツを取得するステップを含む。本方法はまた、複数のコンテンツを分析し、切替パターンを生成するステップを含む。本方法はさらに、切替パターンをシステムのディスプレイに送信するステップを含む。さらに、本方法は、ディスプレイが切替パターンを使用して切替を実施するステップを含む。
さらに別の実施形態では、仮想、拡張、または複合現実システムは、ヘッドセットと、遠隔コンピューティングモジュールとを含む。ヘッドセットは、ユーザ入力を受信し、ユーザ入力内のキーワードを検出し、ユーザ入力内のキーワードの検出に応答して、ウェイクアップコードを遠隔コンピューティングモジュールに送信するように構成され、遠隔コンピューティングモジュールは、低電力スタンバイモードにある。遠隔コンピューティングモジュールは、ウェイクアップコードの受信に応答して、低電力スタンバイモードを終了するように構成される。
低電力短待ち時間移動予測
低電力側チャネル
さらに別の実施形態では、仮想、拡張、または複合現実システムにおける方法は、仮想、拡張、または複合現実システムの第1のコンポーネントにおける低電力要件のインジケータを検出するステップを含む。本方法はまた、第1のコンポーネントにおけるローカル低電力モードを識別するステップを含む。本方法はさらに、仮想、拡張、または複合現実システムの第2のコンポーネントを含む、協調低電力モードを識別するステップを含む。さらに、本方法は、協調低電力モードのインジケータを第2のコンポーネントに送信するステップを含む。加えて、本方法は、第1のコンポーネントがローカル低電力モードを開始するステップを含む。本方法はまた、第2のコンポーネントが協調低電力モードを開始するステップを含む。
さらに別の実施形態では、仮想、拡張、または複合現実システムにおける方法であって、システムは、ヘッドセットと、遠隔コンピューティングモジュールとを有し、本方法は、ヘッドセットがヘッドセットタイムコードを遠隔コンピューティングモジュールに送信するステップを含む。本方法はまた、遠隔コンピューティングモジュールが遠隔コンピューティングモジュールタイムコードをヘッドセットに送信するステップを含む。本方法はさらに、ヘッドセットが、遠隔コンピューティングモジュールタイムコードとヘッドセットタイムコードを比較し、第1のドリフトを識別するステップを含む。さらに、本方法は、遠隔コンピューティングモジュールが、ヘッドセットタイムコードと遠隔コンピューティングモジュールタイムコードを比較し、第2のドリフトを識別するステップを含む。
別の実施形態では、仮想、拡張、または複合現実システムにおける方法であって、システムは、ヘッドセットと、遠隔コンピューティングモジュールとを有し、本方法は、ヘッドセット内のマイクロホンを構成するステップを含む。本方法はまた、ヘッドセットから遠隔コンピューティングモジュールへの通信経路を構成するステップを含む。本方法はさらに、ヘッドセット内の知覚プロセッサが第1の利用可能な音チャネルの数および第2の必要とされる音チャネルの数を計算するステップを含む。さらに、本方法は、知覚プロセッサが第2の数が第1の数を上回ることを決定するステップを含む。加えて、本方法は、知覚プロセッサが余剰データを未使用音チャネルの中にパッキングするステップを含む。
本発明は、例えば、以下を提供する。
(項目1)
仮想、拡張、または複合現実ディスプレイシステムであって、
仮想、拡張、または複合現実画像データを表示するように構成されるディスプレイであって、前記ディスプレイは、光学歪曲または収差を前記画像データに導入する1つ以上の光学コンポーネントを備える、ディスプレイと、
前記画像データを前記ディスプレイに提供するように構成されるディスプレイコントローラであって、前記ディスプレイコントローラは、
光学歪曲補正情報を記憶するためのメモリと、
少なくとも部分的に、前記光学歪曲補正情報を使用して、前記光学歪曲または収差のために前記画像データを補正するための1つ以上の処理要素と
を備える、ディスプレイコントローラと
を備える、システム。
(項目2)
前記光学歪曲補正情報は、少なくとも部分的に、前記光学歪曲または収差に反比例するように、前記ディスプレイコントローラによって使用され、前記画像データを事前に歪曲させる、項目1に記載のシステム。
(項目3)
前記ディスプレイコントローラは、前記ディスプレイコントローラによって受信された非歪曲補正画像データ内の異なる第2の場所(x’,y’)の近傍の1つ以上の非歪曲補正ピクセルに基づいて、第1の場所(x,y)における歪曲補正ピクセルを決定することによって、前記ディスプレイに提供する前記画像データを事前に歪曲させるように構成される、項目2に記載のシステム。
(項目4)
前記光学歪曲補正情報は、前記第2の場所(x’,y’)を決定するために使用される、項目3に記載のシステム。
(項目5)
前記第2の場所の(x’,y’)座標は、分数である、項目4に記載のシステム。
(項目6)
前記ディスプレイコントローラは、前記第2の場所(x’,y’)を囲繞する複数の非歪曲補正ピクセル間を補間することによって、前記第1の場所(x,y)における前記歪曲補正ピクセルを決定するように構成される、項目5に記載のシステム。
(項目7)
前記ディスプレイコントローラは、バイリニア補間を使用する、項目6に記載のシステム。
(項目8)
前記ディスプレイは、前記画像データの複数の色に対応する複数の少なくとも部分的に明確に異なる光学経路を備え、前記光学歪曲補正情報は、前記画像データの複数の色毎に別個の光学歪曲補正情報を含む、項目1に記載のシステム。
(項目9)
前記光学歪曲補正情報は、1つ以上のルックアップテーブル内の形態で記憶される、項目1に記載のシステム。
(項目10)
前記1つ以上のルックアップテーブルは、圧縮フォーマットで記憶され、前記ディスプレイコントローラは、前記光学歪曲補正情報を使用して前記光学歪曲または収差を補正する前に、前記1つ以上のルックアップテーブルを拡張させるように構成される、項目9に記載のシステム。
(項目11)
前記光学歪曲補正情報はさらに、1つ以上の画像ワーピング操作を実施するための情報を含み、前記ディスプレイコントローラはさらに、前記1つ以上の画像ワーピング操作を前記画像データに実施するように構成される、項目1に記載のシステム。
(項目12)
仮想、拡張、または複合現実ディスプレイシステムにおける方法であって、前記方法は、
ディスプレイ上に示されるための仮想、拡張、または複合現実画像データを提供することであって、前記ディスプレイは、光学歪曲または収差を前記画像データに導入する1つ以上の光学コンポーネントを備える、ことと、
光学歪曲補正情報を記憶することと、
少なくとも部分的に、前記光学歪曲補正情報を使用して、前記光学歪曲または収差のために前記画像データを補正することと、
前記ディスプレイを用いて、前記画像データをユーザに表示することと
を含む、方法。
(項目13)
少なくとも部分的に、前記光学歪曲または収差に反比例するように、前記光学歪曲補正情報を使用して、前記画像データを事前に歪曲させることをさらに含む、項目12に記載の方法。
(項目14)
非歪曲画像データ内の異なる第2の場所(x’,y’)の近傍の1つ以上の非歪曲補正ピクセルに基づいて、第1の場所(x,y)における歪曲補正ピクセルを決定することによって、前記ディスプレイに提供される前記画像データを事前に歪曲させることをさらに含む、項目13に記載の方法。
(項目15)
前記光学歪曲補正情報を使用して、前記第2の場所(x’,y’)を決定することをさらに含む、項目14に記載の方法。
(項目16)
前記第2の場所の(x’,y’)座標は、分数である、項目15に記載の方法。
(項目17)
前記第2の場所(x’,y’)を囲繞する複数の非歪曲補正ピクセル間を補間することによって、前記第1の場所(x,y)における前記歪曲補正ピクセルを決定することをさらに含む、項目16に記載の方法。
(項目18)
バイリニア補間を使用することをさらに含む、項目17に記載の方法。
(項目19)
前記ディスプレイは、前記画像データの複数の色に対応する複数の少なくとも部分的に明確に異なる光学経路を備え、前記光学歪曲補正情報は、前記画像データの複数の色毎に別個の光学歪曲補正情報を含む、項目12に記載の方法。
(項目20)
前記光学歪曲補正情報を1つ以上のルックアップテーブルの形態で記憶することをさらに含む、項目12に記載の方法。
(項目21)
前記1つ以上のルックアップテーブルを圧縮フォーマットで記憶することと、前記光学歪曲補正情報を使用して前記光学歪曲または収差を補正する前に、前記1つ以上のルックアップテーブルを拡張させることとをさらに含む、項目20に記載の方法。
(項目22)
前記光学歪曲補正情報はさらに、1つ以上の画像ワーピング操作を実施するための情報を含み、前記1つ以上の画像ワーピング操作を前記画像データに実施することをさらに含む、項目12に記載の方法。
(項目23)
仮想、拡張、または複合現実ディスプレイシステムであって、
複数の深度平面のためのデジタル画像データを表示するように構成されるディスプレイであって、前記ディスプレイは、第1の深度平面に対応する画像データを表示するための第1の光学経路と、第2の深度平面に対応する画像データを表示するための少なくとも部分的に明確に異なる第2の光学経路とを備える、ディスプレイと、
ディスプレイコントローラであって、前記ディスプレイコントローラは、前記混成された画像データが前記ディスプレイによって表示されると、前記第1の深度平面と前記第2の深度平面との間に位置する仮想深度平面に対応するように現れるように、前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データを混成するように構成される、ディスプレイコントローラと
を備える、システム。
(項目24)
前記ディスプレイコントローラは、前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データの加重された組み合わせを計算することによって、前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データを混成するように構成される、項目23に記載のシステム。
(項目25)
前記ディスプレイコントローラは、前記デジタル画像データに埋め込まれた仮想深度平面インジケータ情報に基づいて、前記加重された組み合わせを決定するように構成され、前記仮想深度平面インジケータデータは、複数の可能性として考えられる仮想深度平面のうちの1つを規定する、項目24に記載のシステム。
(項目26)
前記仮想深度平面インジケータデータは、前記デジタル画像データのピクセル値に埋め込まれる、項目25に記載のシステム。
(項目27)
前記デジタル画像データは、ピクセル毎に複数の色値を含み、前記色値の複数の最下位ビットは、前記仮想深度平面インジケータデータである、項目26に記載のシステム。
(項目28)
前記仮想深度平面インジケータデータは、前記仮想深度平面インジケータデータによって規定された前記仮想深度平面と関連付けられた混成加重値にアクセスするために使用される、項目26に記載のシステム。
(項目29)
仮想深度平面毎の混成加重値は、ルックアップテーブル内に記憶される、項目28に記載のシステム。
(項目30)
1つ以上のルックアップテーブルは、前記デジタル画像データの深度平面毎に提供される、項目29に記載のシステム。
(項目31)
前記ディスプレイコントローラは、前記第1の深度平面に対応する画像データの全てのピクセルと前記第2の深度平面に対応する画像データの全てのピクセルを同一仮想深度平面に混成するように構成される、項目23に記載のシステム。
(項目32)
前記ディスプレイコントローラは、前記第1の深度平面に対応する画像データの異なるピクセルを異なる仮想深度平面に混成するように構成される、項目23に記載のシステム。
(項目33)
仮想、拡張、または複合現実ディスプレイシステムにおける方法であって、前記方法は、
ディスプレイ上に示されるための複数の深度平面のデジタル画像データを提供することであって、前記ディスプレイは、第1の深度平面に対応する画像データを表示するための第1の光学経路と、第2の深度平面に対応する画像データを表示するための少なくとも部分的に明確に異なる第2の光学経路とを備える、ことと、
前記混成された画像データが前記ディスプレイによって表示されると、前記第1の深度平面と前記第2の深度平面との間に位置する仮想深度平面に対応するように現れるように、前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データを混成することと
を含む、方法。
(項目34)
前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データの加重された組み合わせを計算することによって、前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データを混成することをさらに含む、項目33に記載の方法。
(項目35)
前記デジタル画像データに埋め込まれた仮想深度平面インジケータ情報に基づいて、前記加重された組み合わせを決定することをさらに含み、前記仮想深度平面インジケータデータは、複数の可能性として考えられる仮想深度平面のうちの1つを規定する、項目34に記載の方法。
(項目36)
前記仮想深度平面インジケータデータは、前記デジタル画像データのピクセル値に埋め込まれる、項目35に記載の方法。
(項目37)
前記デジタル画像データは、ピクセル毎に複数の色値を含み、前記色値の複数の最下位ビットは、前記仮想深度平面インジケータデータである、項目36に記載の方法。
(項目38)
前記仮想深度平面インジケータデータを使用して、前記仮想深度平面インジケータデータによって規定された前記仮想深度平面と関連付けられた混成加重値にアクセスすることをさらに含む、項目36に記載の方法。
(項目39)
仮想深度平面毎の混成加重値をルックアップテーブル内に記憶することをさらに含む、項目38に記載の方法。
(項目40)
前記デジタル画像データの深度平面毎に、1つ以上のルックアップテーブルを提供することをさらに含む、項目39に記載の方法。
(項目41)
前記第1の深度平面に対応する画像データの全てのピクセルと前記第2の深度平面に対応する画像データの全てのピクセルを同一仮想深度平面に混成することをさらに含む、項目33に記載の方法。
(項目42)
前記第1の深度平面に対応する画像データの異なるピクセルを異なる仮想深度平面に混成することをさらに含む、項目33に記載の方法。
(項目43)
仮想、拡張、または複合現実ディスプレイシステムであって、
ユーザの頭部の位置に関連する測定を行うように構成される慣性測定ユニットと、
仮想、拡張、または複合現実画像データをレンダリングするように構成されるグラフィック処理ユニットと、
変換された画像データをユーザに示すように構成されるディスプレイと、
走査出力された前記レンダリングされた画像データを受信し、前記ディスプレイに前記変換された画像データを示させるように構成されるディスプレイドライバであって、前記ディスプレイドライバは、
前記測定を前記慣性測定ユニットから受信し、頭部姿勢情報を決定するように構成される頭部姿勢プロセッサと、
前記頭部姿勢情報に基づいて、前記レンダリングされた画像データを前記変換された画像データに変換するように構成される画像ワーピングプロセッサと
を備える、ディスプレイドライバと
を備える、システム。
(項目44)
前記レンダリングされた画像データを前記グラフィック処理ユニットから受信し、前記レンダリングされた画像データを前記ディスプレイドライバに走査出力するように構成される、ディスプレイコントローラをさらに備える、項目43に記載のシステム。
(項目45)
前記グラフィック処理ユニットおよび前記ディスプレイコントローラのうちの少なくとも1つは、前記慣性測定ユニットからの第1の測定を使用して決定された第1の頭部姿勢情報に基づいて、第1の変換を前記レンダリングされた画像データ上で実施するように構成され、
前記ディスプレイドライバは、前記慣性測定ユニットからの更新された第2の測定を使用して決定された第2の頭部姿勢情報に基づいて、第2の変換を前記レンダリングされた画像データ上で実施するように構成され、前記第2の頭部姿勢情報は、前記第1の頭部姿勢情報によって示される前記ユーザの頭部の位置と前記第2の頭部姿勢情報によって示される前記ユーザの頭部の位置との間の差異に関連する、
項目44に記載のシステム。
(項目46)
前記レンダリングされた画像データは、複数の色成分を含み、
前記画像ワーピングプロセッサは、別個の頭部姿勢情報に基づいて、前記レンダリングされた画像データの各色成分を変換するように構成され、
前記ディスプレイは、前記変換された画像データの複数の色成分を連続して示すように構成される、
項目43に記載のシステム。
(項目47)
前記ディスプレイは、前記変換された画像データの第1の色成分を第1の時間に、前記変換された画像データの第2の色成分を後続の第2の時間に示すように構成され、
前記画像ワーピングプロセッサは、前記第1の時間後に決定された頭部姿勢情報に基づいて、前記レンダリングされた画像データの第2の色成分を変換するように構成される、
項目46に記載のシステム。
(項目48)
前記画像ワーピングプロセッサによって実施される変換は、前記レンダリングされた画像データの各色成分の回転または平行移動偏移を含む、項目46に記載のシステム。
(項目49)
前記レンダリングされた画像データは、複数の深度平面を含み、
前記画像ワーピングプロセッサは、別個の頭部姿勢情報に基づいて、前記レンダリングされた画像データの各深度平面を変換するように構成され、
前記ディスプレイは、前記変換された画像データの複数の深度平面を連続して示すように構成される、
項目43に記載のシステム。
(項目50)
前記ディスプレイは、前記変換された画像データの第1の深度平面を第1の時間に、前記変換された画像データの第2の深度平面を後続の第2の時間に示すように構成され、
前記画像ワーピングプロセッサは、前記第1の時間後に決定された頭部姿勢情報に基づいて前記レンダリングされた画像データの第2の深度平面を変換するように構成される、
項目49に記載のシステム。
(項目51)
前記画像ワーピングプロセッサによって実施される変換は、前記レンダリングされた画像データの各深度平面の回転または平行移動偏移を含む、項目49に記載のシステム。
(項目52)
前記画像ワーピングプロセッサによって実施される変換は、画像回転または平行移動偏移を含む、項目43に記載のシステム。
(項目53)
前記ディスプレイは、第1のピクセル列の数および第2のピクセル行の数を含む前記変換された画像データを示すように構成され、
前記グラフィック処理ユニットは、前記第1のピクセル列の数を上回るまたは前記第2のピクセル行の数を上回る数を含むレンダリングされた画像データを前記ディスプレイドライバに提供するように構成される、
項目43に記載のシステム。
(項目54)
前記ディスプレイドライバに提供されるレンダリングされた画像データは、レンダリングされた画像データの中心ゾーンと、レンダリングされた画像データのバッファゾーンとを備え、前記中心ゾーンは、前記第1のピクセル列の数と、前記第2のピクセル行の数とを有し、前記バッファゾーンは、前記中心ゾーンを越えて延在するピクセルを備え、
前記頭部姿勢情報に基づいて、前記レンダリングされた画像データを変換することは、前記レンダリングされた画像データを前記バッファゾーンから前記中心ゾーンの中にもたらさせる、
項目53に記載のシステム。
(項目55)
前記グラフィック処理ユニットは、頭部姿勢情報に基づいて画像ワーピングを実施するように構成されない、項目43に記載のシステム。
(項目56)
前記グラフィック処理ユニットは、前記慣性測定ユニットからの更新された測定または更新された頭部姿勢情報を前記レンダリングされた画像データに追加するように構成される、項目43に記載のシステム。
(項目57)
前記グラフィック処理ユニットは、レンダリングされた画像データの最後のラインを走査出力した後、前記慣性測定ユニットからの更新された測定または更新された頭部姿勢情報を前記レンダリングされた画像データに追加するように構成される、項目56に記載のシステム。
(項目58)
クロックをさらに備え、前記クロックは、共通クロック信号を前記慣性測定ユニット、前記グラフィック処理ユニット、および前記ディスプレイドライバに提供し、前記ユーザの頭部の位置、頭部姿勢情報、または頭部姿勢情報に基づく変換に関連する測定のための共通基準を提供するように構成される、項目43に記載のシステム。
(項目59)
仮想、拡張、または複合現実ディスプレイシステムにおける方法であって、前記方法は、
グラフィック処理ユニットを使用して、仮想、拡張、または複合現実画像データをレンダリングすることと、
前記レンダリングされた画像データをユーザに示されるためのディスプレイに走査出力することと、
慣性測定ユニットを使用して、前記ユーザの頭部の位置に関連する測定を行うことと、
前記慣性測定ユニットからの測定を使用して、頭部姿勢情報を決定することと、
前記レンダリングされた画像データを前記ディスプレイに走査出力した後、前記頭部姿勢情報に基づいて、前記レンダリングされた画像データを変換することと、
前記変換された画像データを前記ディスプレイ上に示すことと
を含む、方法。
(項目60)
前記慣性測定ユニットからの第1の測定を使用して決定された第1の頭部姿勢情報に基づいて、第1の変換を前記レンダリングされた画像データ上で実施することと、
前記慣性測定ユニットからの更新された第2の測定を使用して決定された第2の頭部姿勢情報に基づいて、第2の変換を前記走査出力されたレンダリングされた画像データに実施することであって、前記第2の頭部姿勢情報は、前記第1の頭部姿勢情報によって示される前記ユーザの頭部の位置と前記第2の頭部姿勢情報によって示される前記ユーザの頭部の位置との間の差異に関連する、ことと
をさらに含む、項目59に記載の方法。
(項目61)
前記慣性測定ユニットからの測定を使用して、頭部姿勢情報を決定することは、前記レンダリングされた画像データを前記ディスプレイに走査出力した後に行われる、項目59に記載の方法。
(項目62)
前記レンダリングされた画像データは、複数の色成分を含み、前記方法はさらに、
別個の頭部姿勢情報に基づいて、前記レンダリングされた画像データの各色成分を変換することと、
前記変換された画像データの複数の色成分を連続して示すことと
を含む、項目59に記載の方法。
(項目63)
前記変換された画像データの第1の色成分を第1の時間に、前記変換された画像データの第2の色成分を後続の第2の時間に示すことと、
前記第1の時間後に決定された頭部姿勢情報に基づいて、前記レンダリングされた画像データの第2の色成分を変換することと
をさらに含む、項目62に記載の方法。
(項目64)
前記レンダリングされた画像データの各色成分を変換することは、前記レンダリングされた画像データの各色成分を回転または平行移動偏移させることを含む、項目62に記載の方法。
(項目65)
前記レンダリングされた画像データは、複数の深度平面を含み、前記方法はさらに、
別個の頭部姿勢情報に基づいて、前記レンダリングされた画像データの各深度平面を変換することと、
前記変換された画像データの複数の深度平面を連続して示すことと
を含む、項目59に記載の方法。
(項目66)
前記変換された画像データの第1の深度平面を第1の時間に、前記変換された画像データの第2の深度平面を後続の第2の時間に示すことと、
前記第1の時間後に決定された頭部姿勢情報に基づいて、前記レンダリングされた画像データの第2の深度平面を変換することと
をさらに含む、項目65に記載の方法。
(項目67)
前記レンダリングされた画像データの各深度平面を変換することは、前記レンダリングされた画像データの各深度平面を回転または平行移動偏移させることを含む、項目65に記載の方法。
(項目68)
前記頭部姿勢情報に基づいて、前記レンダリングされた画像データを変換することは、前記レンダリングされた画像データを回転または偏移させることを含む、項目59に記載の方法。
(項目69)
前記変換された画像データは、前記ディスプレイ上に第1のピクセル列の数および第2のピクセル行の数を含み、前記方法はさらに、
前記第1のピクセル列の数を上回る数または前記第2のピクセル行の数を上回る数を含む、レンダリングされた画像データを前記ディスプレイドライバに提供すること
を含む、項目59に記載の方法。
(項目70)
前記ディスプレイドライバに提供されるレンダリングされた画像データは、レンダリングされた画像データの中心ゾーンと、レンダリングされた画像データのバッファゾーンとを含み、前記中心ゾーンは、前記第1のピクセル列の数と、前記第2のピクセル行の数とを有し、前記バッファゾーンは、前記中心ゾーンを越えて延在するピクセルを備え、前記方法はさらに、
レンダリングされた画像データを前記バッファゾーンから前記中心ゾーンの中にもたらすことによって、前記頭部姿勢情報に基づいて、前記レンダリングされた画像データを変換すること
を含む、項目69に記載の方法。
(項目71)
前記頭部姿勢情報に基づいて、前記レンダリングされた画像データを変換することは、前記仮想、拡張、または複合現実画像データをレンダリングする、前記グラフィック処理ユニットによって実施されない、項目58に記載の方法。
(項目72)
前記慣性測定ユニットからの更新された測定または更新された頭部姿勢情報を前記レンダリングされた画像データに追加することをさらに含む、項目58に記載の方法。
(項目73)
レンダリングされた画像データの最後のラインを走査出力した後、前記慣性測定ユニットからの更新された測定または更新された頭部姿勢情報を前記レンダリングされた画像データに追加することをさらに含む、項目72に記載の方法。
(項目74)
共通クロック信号を提供し、前記ユーザの頭部の位置、頭部姿勢情報、または頭部姿勢情報に基づく変換に関連する測定のための共通基準を提供することをさらに含む、項目58に記載の方法。
(項目75)
仮想、拡張、または複合現実ディスプレイシステムであって、
明度の変動を前記ディスプレイの異なる部分に生じさせる1つ以上の光学コンポーネントを備えるディスプレイと、
複数の異なる明度補正値を画像データ内の複数のピクセル値に適用し、補正された画像データを作成するように構成されるディスプレイコントローラと
を備え、
前記ディスプレイは、前記明度変動を低減させるように、ユーザに、前記補正された画像データを示すように構成される、システム。
(項目76)
前記ディスプレイコントローラは、前記複数の異なる明度補正値の中からの明度補正値と、前記画像データ内の複数のピクセル値の中からの対応するピクセル値を乗算することによって、明度補正値を適用するように構成される、項目75に記載のシステム。
(項目77)
前記複数の異なる明度補正値は、前記ディスプレイ上に示される較正画像に基づいて決定される、項目76に記載のシステム。
(項目78)
前記複数の異なる明度補正値は、ルックアップテーブル内に記憶される、項目75に記載のシステム。
(項目79)
前記記憶されたルックアップテーブルの分解能は、前記画像データの分解能未満であり、
前記ディスプレイコントローラは、前記ルックアップテーブルを拡張し、前記画像データの分解能に合致させるように構成される、
項目78に記載のシステム。
(項目80)
前記ディスプレイは、
前記補正された画像データの複数の色成分を誘導するための複数の導波管と、
前記導波管からの光をユーザの眼に複数の出射ビームとして再指向するための複数の光再指向要素と
を備え、
前記複数の出射ビーム間には、前記表示される画像データの明度の変動を前記ディスプレイの異なる部分に生じさせる変動が存在する、項目75に記載のシステム。
(項目81)
前記複数の導波管の中からの異なる導波管は、前記画像データの異なる深度平面を異なる見掛け深度に表示するように、異なる屈折力と関連付けられる、項目80に記載のシステム。
(項目82)
仮想、拡張、または複合現実ディスプレイシステムにおける方法であって、前記方法は、
明度の変動を前記ディスプレイの異なる部分に生じさせる1つ以上の光学コンポーネントを備えるディスプレイを使用することと、
複数の異なる明度補正値を画像データ内の複数のピクセル値に適用し、補正された画像データを作成することと、
前記明度変動を低減させるように、ユーザに、前記補正された画像データを前記ディスプレイ上で示すことと
を含む、方法。
(項目83)
明度補正値を適用することは、前記複数の明度補正値の中からの明度補正値と前記画像データ内の複数ピクセル値の中からの対応するピクセル値を乗算することを含む、項目82に記載の方法。
(項目84)
前記ディスプレイ上に示される較正画像に基づいて、前記複数の異なる明度補正値を決定することをさらに含む、項目83に記載の方法。
(項目85)
前記複数の異なる明度補正値をルックアップテーブル内に記憶することをさらに含む、項目82に記載の方法。
(項目86)
前記記憶されたルックアップテーブルの分解能は、前記画像データの分解能未満であり、前記方法はさらに、
前記ルックアップテーブルを拡張し、前記画像データの分解能に合致させること
を含む、項目85に記載の方法。
(項目87)
複数の導波管を使用して、前記補正された画像データの複数の色成分を誘導することと、
複数の光再指向要素を使用して、前記導波管からの光をユーザの眼に複数の出射ビームとして再指向することと
をさらに含み、
前記複数の出射ビーム間には、前記表示される画像データの明度の変動を前記ディスプレイの異なる部分に生じさせる変動が存在する、項目82に記載の方法。
(項目88)
異なる屈折力と関連付けられた前記複数の導波管の中からの異なる導波管を使用して、前記画像データの異なる深度平面を異なる見掛け深度に表示することをさらに含む、項目87に記載の方法。
(項目89)
仮想、拡張、または複合現実ディスプレイシステムであって、
複数の深度平面のための仮想、拡張、または複合現実画像データを表示するように構成される、ディスプレイであって、前記ディスプレイは、
第1の深度平面に対応する画像データを表示するための第1の光学経路と、第2の深度平面に対応する画像データを表示するための少なくとも部分的に明確に異なる第2の光学経路と、
光学歪曲または収差を前記画像データに導入する、1つ以上の光学コンポーネントと、
明度の変動を前記ディスプレイの異なる部分に生じさせる、1つ以上の光学コンポーネントと
を備える、ディスプレイと、
コントローラであって、前記コントローラは、
少なくとも部分的に、光学歪曲補正情報を使用して、前記光学歪曲または収差のために前記画像データを補正することと、
前記混成された画像データが、前記第1の深度平面と前記第2の深度平面との間に位置する仮想深度平面に対応するように現れるように、前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データを混成することと、
前記明度変動を低減させるように、複数の異なる明度補正値を前記画像データ内の複数のピクセル値に適用することと、
制御データに基づいて、回転またはピクセル偏移動作を用いて前記画像データを変換することと、
前記画像データを前記ディスプレイに提供することと
を行うように構成される、コントローラと
を備える、仮想、拡張、または複合現実ディスプレイシステム。
(項目90)
前記コントローラは、ディスプレイコントローラである、項目89に記載の仮想、拡張、または複合現実ディスプレイシステム。
(項目91)
前記コントローラは、遠隔処理ユニットである、項目89に記載の仮想、拡張、または複合現実ディスプレイシステム。
(項目92)
前記コントローラは、DP/MPIブリッジである、項目89に記載の仮想、拡張、または複合現実ディスプレイシステム。
(項目93)
仮想、拡張、または複合現実ディスプレイシステムにおける方法であって、前記方法は、
ディスプレイを使用して、複数の深度平面のための仮想、拡張、または複合現実画像データを表示することであって、前記ディスプレイは、
第1の深度平面に対応する画像データを表示するための第1の光学経路と、第2の深度平面に対応する画像データを表示するための少なくとも部分的に明確に異なる第2の光学経路と、
光学歪曲または収差を前記画像データに導入する1つ以上の光学コンポーネントと、
明度の変動を前記ディスプレイの異なる部分に生じさせる1つ以上の光学コンポーネントと
を備える、ことと、
ディスプレイコントローラを用いて、前記画像データを前記ディスプレイに提供することであって、前記ディスプレイコントローラは、
少なくとも部分的に、光学歪曲補正情報を使用して、前記光学歪曲または収差のために前記画像データを補正することと、
前記混成された画像データが、前記第1の深度平面と前記第2の深度平面との間に位置する仮想深度平面に対応するように現れるように、前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データを混成することと、
前記明度変動を低減させるように、複数の異なる明度補正値を前記画像データ内の複数のピクセル値に適用することと、
制御データに基づいて、回転またはピクセル偏移動作を用いて前記画像データを変換することと
を行うように構成される、ことと
を含む、方法。
(項目94)
仮想、拡張、または複合現実システムにおける方法であって、
前記システムが低電力モードで動作することと、
前記システムが通常プロセッサモードで動作するための要求を受信することと、
前記通常プロセッサモードのための要求の受信に応答して、前記システムが前記低電力モードから通常電力モードに切り替わることと、
前記システムが低プロセッサモードの容認のインジケータを受信することと、
前記低プロセッサモードの容認のインジケータの受信に応答して、前記システムが前記通常電力モードからより低い電力モードに切り替わることと
を含む、方法。
(項目95)
前記低電力モードでは、システムコンポーネントは、オフに切り替えられる、または高速ウェイクアップ機能を伴うスタンバイモードにある、項目94に記載の方法。
(項目96)
前記システムが前記低電力モードから前記通常電力モードに切り替わることは、前記システムが、これまでオフに切り替えられていた、またはスタンバイモードであった前記システムコンポーネントをアクティブ化することを含む、項目95に記載の方法。
(項目97)
前記システムが前記通常プロセッサモードのための要求を受信することは、短待ち時間通信チャネルを通して、前記通常プロセッサモードのための要求を受信することを含む、項目94に記載の方法。
(項目98)
前記通常プロセッサモードのための要求は、所定の閾値量を上回るユーザの姿勢変化に応答して生成される、項目94に記載の方法。
(項目99)
前記低プロセッサモードの容認のインジケータは、所定の時間内における所定の閾値量未満のユーザの姿勢変化である、項目94に記載の方法。
(項目100)
仮想、拡張、または複合現実システムにおける方法であって、
前記システムが通常電力モードで動作することと、
前記システムが高プロセッサモードのための要求を受信することと、
前記高プロセッサモードのための要求の受信に応答して、前記システムが前記通常電力モードから高電力モードに切り替わることと、
前記システムが通常プロセッサモードの容認のインジケータを受信することと、
前記通常プロセッサモードの容認のインジケータの受信に応答して、前記システムが前記高電力モードから前記通常電力モードに切り替わることと
を含む、方法。
(項目101)
前記高電力モードは、前記システムに利用可能な電流量の増加を含む、項目100に記載の方法。
(項目102)
前記システムが前記高電力モードから前記通常電力モードに切り替わることは、前記システムが前記システムに利用可能な電流量を低減させることを含む、項目101に記載の方法。
(項目103)
前記高プロセッサモードのための要求は、仮想オブジェクトの所定の閾値量を上回ってレンダリングするための要求に応答して生成される、項目100に記載の方法。
(項目104)
前記通常プロセッサモードの容認のインジケータは、所定の時間にわたる仮想オブジェクトの所定の閾値量未満でレンダリングするための要求である、項目100に記載の方法。
(項目105)
仮想、拡張、または複合現実システムにおける方法であって、
前記システムが画像を複数の深度平面上にレンダリングおよび投影する多平面モードで動作することと、
単一平面アクティビティのインジケータを受信することと、
前記単一平面アクティビティのインジケータの受信に応答して、前記多平面結像モードから離散結像モードに切り替わることであって、前記離散結像モードでは、前記システムが画像を単一深度平面上にレンダリングおよび投影する、ことと、
多平面アクティビティのインジケータを受信することと、
前記多平面アクティビティのインジケータの受信に応答して、前記単一平面モードから前記多平面モードに切り替わることと
を含む、方法。
(項目106)
前記単一平面アクティビティのインジケータは、ユーザが映画が仮想画面上に表示されることを要求すること、前記ユーザが2Dアプリケーションを開くこと、またはセンサデータが前記ユーザの視線が所定の閾値時間量にわたって特定の平面に収束していることを示すことを含む、項目105に記載の方法。
(項目107)
瞬目または眼移動の間、前記離散結像モードと前記多平面結像モードとの間で切り替わることをさらに含む、項目105に記載の方法。
(項目108)
前記多平面アクティビティのインジケータは、ユーザが現在仮想画面上に表示されている映画が停止されることを要求すること、またはセンサデータが前記ユーザの視線が所定の閾値時間量にわたって特定の平面から離れて収束していることを示すことを含む、項目105に記載の方法。
(項目109)
仮想、拡張、または複合現実システムにおける方法であって、
前記システムが画像を複数の深度平面上にレンダリングおよび投影する多平面モードで動作することと、
前記システムが所定の閾値に到達したことのインジケータを受信することと、
前記システムが所定の閾値に到達したことのインジケータの受信に応答して、前記多平面結像モードから離散結像モードに切り替わることであって、前記離散結像モードでは、前記システムが画像を単一深度平面上にレンダリングおよび投影する、ことと、
通常システム動作のインジケータを受信することと、
前記通常システム動作のインジケータの受信に応答して、前記単一平面モードから前記多平面モードに切り替わることと
を含む、方法。
(項目110)
前記所定の閾値は、温度閾値またはバッテリ電力残閾値を含む、項目109に記載の方法。
(項目111)
瞬目または眼移動の間、前記離散結像モードと前記多平面結像モードとの間で切り替わることをさらに含む、項目109に記載の方法。
(項目112)
前記通常システム動作のインジケータは、前記所定の閾値の所定の量内にシステム特性を有していないことを含む、項目109に記載の方法。
(項目113)
仮想、拡張、または複合現実システムにおける方法であって、
ユーザの視野の画像を取得することと、
前記画像が私的情報を含むことを決定することと、
前記画像から生成された光マップが公的であろうことを決定することと、
前記画像が私的情報を含むことの決定に応答して、かつ前記光マップが公的であろうことの決定に応答して、採光情報を含むが、前記私的情報を含まない、プロキシ画像を生成することと、
前記プロキシ画像をサーバに送信することと、
前記プロキシ画像を使用して、公的光マップを生成することと
を含む、方法。
(項目114)
前記私的情報は、財務情報または子供の画像である、項目113に記載の方法。
(項目115)
前記画像から生成された光マップが公的であろうことを決定することは、画像データをサーバに送信する命令を検出することを含む、項目113に記載の方法。
(項目116)
プロキシ画像は、前記私的情報を表示する前記ユーザの視野内のオリジナルオブジェクトのための置換オブジェクトを備える、項目113に記載の方法。
(項目117)
仮想、拡張、または複合現実システムにおける方法であって、
実部屋に関する採光情報を受信することと、
前記実部屋の光マップを生成することと、
前記光マップを使用して、仮想オブジェクトを生成することと、
前記仮想オブジェクトを表示することと
を含む、方法。
(項目118)
前記採光情報は、色情報、照明レベル、または光方向を含む、項目117に記載の方法。
(項目119)
前記光マップは、前記実部屋内の採光源のモデルを含む、項目117に記載の方法。
(項目120)
前記モデルは、透過される光、拡散される光、反射される光、または回折される光を含む、項目119に記載の方法。
(項目121)
仮想、拡張、または複合現実システムにおける方法であって、
ユーザの眼位置を追跡することと、
前記ユーザの眼位置を使用して、ユーザの焦点を計算することと、
前記ユーザの焦点上に心合される中心窩化エリアを識別することと、
前記中心窩化エリア外の前記画像の第2の部分に対して、前記中心窩化エリア内の画像の第1の部分をより正確にレンダリングすることと、
前記第1および第2の部分を含む、前記画像を表示することと
を含む、方法。
(項目122)
前記ユーザの焦点は、X,Y、またはZ方向に決定される、項目121に記載の方法。
(項目123)
前記ユーザの焦点は、前記ユーザの視野の象限である、項目121に記載の方法。
(項目124)
前記画像の前記第1の部分をより正確にレンダリングすることは、前記画像の第2の部分に対して前記画像の第1の部分の鮮明度を増加させることを含む、項目121に記載の方法。
(項目125)
前記中心窩化エリアの中心から前記中心窩化エリアの外側縁に増加する鮮明度の勾配をレンダリングすることをさらに含む、項目12に記載の方法。
(項目126)
ユーザ眼移動の量、システム温度、またはユーザ選好に基づいて、中心窩化の量を修正することをさらに含む、項目121に記載の方法。
(項目127)
前記中心窩化エリア内の眼位置追跡の正確度を増加させることをさらに含む、項目121に記載の方法。
(項目128)
仮想、拡張、または複合現実システムにおける方法であって、
それぞれ、第1の平面および第2の平面のための第1のコンテンツおよび第2のコンテンツを取得することと、
瞳孔配向を決定することと、
前記第1のコンテンツおよび前記第2のコンテンツと前記瞳孔情報を組み合わせ、切替パターンを生成することと、
前記切替パターンを前記システムのディスプレイに送信することと、
前記ディスプレイが前記切替パターンを使用して切替を実施することと
を含む、方法。
(項目129)
前記切替は、前記第1の平面および前記第2の平面毎に30または60フレーム/秒の高速切替である、項目128に記載の方法。
(項目130)
前記切替は、前記第1の平面をブランキングすることを含む、項目128に記載の方法。
(項目131)
前記ディスプレイは、アナログスイッチを使用して、前記切替を実施する、項目128に記載の方法。
(項目132)
仮想、拡張、または複合現実システムにおける方法であって、
個別の複数の平面のための複数のコンテンツを取得することと、
前記複数のコンテンツを分析し、切替パターンを生成することと、
前記切替パターンを前記システムのディスプレイに送信することと、
前記ディスプレイが前記切替パターンを使用して切替を実施することと
を含む、方法。
(項目133)
前記切替パターンは、
前記複数の平面のいくつかを並べ替えることと、
前記複数の平面のうちの1つをブランキングすることと、
画像フレームをスキップすることと、
画像フレームのペアをスワッピングすることと、
カラーシーケンスを実施することと
のうちの少なくとも1つを含む、項目132に記載の方法。
(項目134)
前記切替は、前記複数の平面の平面毎に30または60フレーム/秒における高速切替である、項目132に記載の方法。
(項目135)
前記ディスプレイは、アナログスイッチを使用して、前記切替を実施する、項目132に記載の方法。
(項目136)
仮想、拡張、または複合現実システムにおける方法であって、
複数のフレームに対応する個別の複数のコンテンツを取得することと、
前記個別の複数のコンテンツを分析し、前記複数のフレームに対応する複数の切替パターンを生成することと、
前記複数の切替パターンを前記システムのディスプレイに送信することと、
前記ディスプレイがフレーム毎に前記切替パターンを使用して切替を実施することと
を含む、方法。
(項目137)
前記複数の切替パターンをメモリバッファ内に記憶することをさらに含む、項目136に記載の方法。
(項目138)
前記メモリバッファは、時系列先入れ先出しバッファ、循環バッファ、および一連のメモリ場所またはレジスタのうちの1つである、項目137に記載の方法。
(項目139)
前記切替は、30または60フレーム/秒における高速切替である、項目136に記載の方法。
(項目140)
前記ディスプレイは、アナログスイッチを使用して、前記切替を実施する、項目136に記載の方法。
(項目141)
ユーザ瞬目を検出することと、
前記切替パターンを修正し、前記ユーザ瞬目と一致する2つのディスプレイのためのフレームをブランキングすることと
をさらに含む、項目136に記載の方法。
(項目142)
ユーザウインクを検出することと、
前記切替パターンを修正し、前記ユーザ瞬目と一致する1つのディスプレイのためのフレームをブランキングすることと
をさらに含む、項目136に記載の方法。
(項目143)
仮想、拡張、または複合現実システムであって、
ヘッドセットと、
遠隔コンピューティングモジュールと
を備え、前記ヘッドセットは、
ユーザ入力を受信することと、
前記ユーザ入力内のキーワードを検出することと、
前記ユーザ入力内のキーワードの検出に応答して、ウェイクアップコードを前記遠隔コンピューティングモジュールに送信することであって、前記遠隔コンピューティングモジュールは、低電力スタンバイモードにある、ことと
を行うように構成され、
前記遠隔コンピューティングモジュールは、前記ウェイクアップコードの受信に応答して、前記低電力スタンバイモードを終了するように構成される、システム。
(項目144)
前記ユーザ入力は、オーディオ入力であり、前記ユーザ入力を受信することは、前記ヘッドセット上のマイクロホンを使用して、前記オーディオ入力を検出することを含む、項目143に記載のシステム。
(項目145)
前記ユーザ入力内のキーワードを検出するヘッドセットは、
前記マイクロホンと通信し、前記オーディオ入力を受信する、前記ヘッドセット内のオーディオプロセッサと、
前記オーディオプロセッサと通信し、オーディオデータを受信する、前記ヘッドセット内の知覚プロセッサと
を備える、項目144に記載のシステム。
(項目146)
前記ヘッドセットがユーザ入力内のキーワードを検出することはさらに、
前記知覚プロセッサがキーワード記憶装置にアクセスすることと、
前記知覚プロセッサが、前記オーディオデータと前記キーワード記憶装置内の複数のキーワードを比較し、前記キーワードを検出することと
を含む、項目145に記載のシステム。
(項目147)
前記ユーザ入力内のキーワードの検出に応答して、前記ヘッドセットがインタラプトコードを前記遠隔コンピューティングモジュールに送信することをさらに含む、項目143に記載のシステム。
(項目148)
仮想、拡張、または複合現実システムであって、
知覚プロセッサ内に予測エンジンを有する、ヘッドセットと、
遠隔コンピューティングモジュールと
を備え、
前記ヘッドセットは、ユーザ移動の開始を検出し、前記ユーザ移動の開始の検出に応答して、前記ユーザ移動を測定するように構成され、
前記ヘッドセット内の知覚プロセッサ内の予測エンジンは、前記測定されたユーザ移動から予測されるユーザ移動を生成し、
前記ヘッドセット内の知覚プロセッサは、前記予測エンジンが前記予測されるユーザ移動を生成することに応答して、前記予測されるユーザ移動を使用して変換を画像データに実施する、システム。
(項目149)
前記ヘッドセットは、前記予測されるユーザ移動および変換パラメータを使用して、前記変換を前記画像データに実施する、項目148に記載のシステム。
(項目150)
前記ヘッドセットは、前記予測されるユーザ移動および予測される色変化を使用して、前記変換を前記画像データに実施する、項目148に記載のシステム。
(項目151)
前記ヘッドセットは、前記予測されるユーザ移動および予測される採光変化または予測されるコントラスト変化を使用して、前記変換を前記画像データに実施する、項目148に記載のシステム。
(項目152)
前記ヘッドセット内の知覚プロセッサがユーザ焦点を予測することと、
前記予測エンジンが前記予測されるユーザ移動を生成することに応答して、前記ヘッドセット内の知覚プロセッサが、前記予測されるユーザ移動および前記予測されるユーザ焦点を使用して、前記変換を前記画像データに実施することと
さらに含む、項目148に記載のシステム。
(項目153)
前記ユーザ移動は、頭部移動である、項目148に記載のシステム。
(項目154)
前記ユーザ移動は、眼移動である、項目148に記載のシステム。
(項目155)
仮想、拡張、または複合現実システムであって、
ローカル処理モジュールを有するヘッドセットと、
遠隔処理モジュールと、
前記ローカル処理モジュールと前記遠隔処理モジュールとの間の第1の通信チャネルと、
前記ローカル処理モジュールと前記遠隔処理モジュールとの間の第2の通信チャネルであって、前記第2の通信チャネルは、前記第1の通信チャネル未満の電力を要求する、第2の通信チャネルと
を備える、システム。
(項目156)
前記第1の通信チャネルは、USBまたはPCIE接続であり、前記第2の通信チャネルは、SPIまたは類似低電力接続である、項目155に記載のシステム。
(項目157)
遠隔処理モジュールと、ローカル処理モジュールを含むヘッドセットとを有する、仮想、拡張、または複合現実システムにおける方法であって、
動作モードを検出することと、
前記動作モードの間、前記ローカル処理モジュールと前記遠隔処理モジュールとの間の第1の通信チャネルがディスエーブルにされ得ることを決定することと、
前記動作モードの間、ディスエーブルにされ得る前記第1の通信チャネルのコンポーネントを識別することと、
前記ローカル処理モジュールと前記遠隔処理モジュールとの間の第2の通信チャネルを経由して通信することであって、前記第2の通信チャネルは、前記第1の通信チャネル未満の電力を要求する、ことと、
前記第2の通信チャネルを経由した通信の成功に基づいて、前記第1の通信チャネルのコンポーネントをディスエーブルにすることと
を含む、方法。
(項目158)
前記第2の通信チャネルのコネクタを再マッピングし、前記第2の通信チャネルを経由した通信を促進することをさらに含む、項目157に記載の方法。
(項目159)
前記第2の通信チャネルのコネクタへの相互に排他的アクセスを提供し、前記第2の通信チャネルを経由した通信を促進することをさらに含む、項目157に記載の方法。
(項目160)
仮想、拡張、または複合現実システムにおける方法であって、
前記仮想、拡張、または複合現実システムの第1のコンポーネントにおける低電力要件のインジケータを検出することと、
前記第1のコンポーネントにおけるローカル低電力モードを識別することと、
前記仮想、拡張、または複合現実システムの第2のコンポーネントを含む協調低電力モードを識別することと、
前記協調低電力モードのインジケータを前記第2のコンポーネントに送信することと、
前記第1のコンポーネントが前記ローカル低電力モードを開始することと、
前記第2のコンポーネントが前記協調低電力モードを開始することと
を含む、方法。
(項目161)
前記低電力要件のインジケータは、消音ボタンのアクティブ化である、項目160に記載の方法。
(項目162)
前記ローカル低電力モードは、マイクロホンを非アクティブ化することを含む、項目161に記載の方法。
(項目163)
前記協調低電力モードは、発話プロセッサを非アクティブ化することを含む、項目162に記載の方法。
(項目164)
仮想、拡張、または複合現実システムにおける方法であって、
前記仮想、拡張、または複合現実システムの第1のコンポーネントにおける低電力要件のインジケータを検出することと、
前記第1のコンポーネントにおける第1および第2のローカル低電力モードを識別することと、
それぞれ、前記仮想、拡張、または複合現実システムの第2のコンポーネントを含む、第1および第2の協調低電力モードを識別することと、
前記第1および第2のローカル低電力モードを比較し、好ましいローカル低電力モードを識別することと、
前記第1および第2の協調低電力モードを比較し、好ましい協調低電力モードを識別することと、
組み合わせ低電力モードを前記好ましいローカル低電力モードおよび前記好ましい協調低電力モードから生成することと、
前記第1および第2のコンポーネントが前記組み合わせ低電力モードを開始することと
を含む、方法。
(項目165)
仮想、拡張、または複合現実システムにおける方法であって、前記システムは、ヘッドセットと、遠隔コンピューティングモジュールとを有し、前記方法は、
前記ヘッドセットがヘッドセットタイムコードを前記遠隔コンピューティングモジュールに送信することと、
前記遠隔コンピューティングモジュールが遠隔コンピューティングモジュールタイムコードを前記ヘッドセットに送信することと、
前記ヘッドセットが、前記遠隔コンピューティングモジュールタイムコードと前記ヘッドセットタイムコードを比較し、第1のドリフトを識別することと、
前記遠隔コンピューティングモジュールが、前記ヘッドセットタイムコードと前記遠隔コンピューティングモジュールタイムコードを比較し、第2のドリフトを識別することと
を含む、方法。
(項目166)
前記ヘッドセットが、前記第1のドリフトに基づいて、そのクロックをリセットし、前記ヘッドセットおよび前記遠隔コンピューティングモジュールを同期させることをさらに含む、項目165に記載の方法。
(項目167)
前記遠隔コンピューティングモジュールが、前記第2のドリフトに基づいて、そのクロックをリセットし、前記ヘッドセットおよび前記遠隔コンピューティングモジュールを同期させることをさらに含む、項目165に記載の方法。
(項目168)
仮想、拡張、または複合現実システムにおける方法であって、前記システムは、ヘッドセットと、プロジェクタと、遠隔コンピューティングモジュールとを有し、前記方法は、
前記遠隔コンピューティングモジュールが低帯域幅構成を前記ヘッドセットに送信することと、
前記プロジェクタが低電力オプションを前記ヘッドセットに送信することと、
前記ヘッドセットが低電力コマンドを前記低電力オプションから前記プロジェクタに送信することと
を含む、方法。
(項目169)
仮想、拡張、または複合現実システムにおける方法であって、前記システムは、ヘッドセットと、遠隔コンピューティングモジュールとを有し、前記方法は、
前記ヘッドセット内のマイクロホンを構成することと、
前記ヘッドセットから前記遠隔コンピューティングモジュールへの通信経路を構成することと、
前記ヘッドセット内の知覚プロセッサが利用可能な音チャネルの第1の数および必要とされる音チャネルの第2の数を計算することと、
前記知覚プロセッサが前記第2の数が前記第1の数を上回ることを決定することと、
前記知覚プロセッサが余剰データを未使用音チャネルの中にパッキングすることと
を含む、方法。
(項目170)
前記余剰データは、エコーキャンセルデータ、眼姿勢データ、またはおよび頭部姿勢データのうちの少なくとも1つを含む、項目169に記載の方法。
(項目171)
前記方法は、動的に実施される、項目169に記載の方法。
本明細書に開示される仮想現実(「VR」)、拡張現実(「AR」)、および複合現実(「MR」)システムは、ディスプレイを含むことができ、これは、コンピュータ生成された画像(ビデオ/画像データ)をユーザに提示する。いくつかの実施形態では、ディスプレイシステムは、装着可能であって、これは、有利には、より没入型のVR/AR/MR体験を提供し得る。図2Aは、ウェアラブルVR/AR/MRディスプレイシステム80(以降、「システム80」と称される)の実施例を図示する。システム80は、ディスプレイ62と、そのディスプレイ62の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ62は、フレーム64に結合されてもよく、これは、ディスプレイシステムユーザまたは視認者60(以降、「ユーザ60」と称される)によって装着可能であって、ディスプレイ62をユーザ60の眼の正面に位置付けるように構成される。いくつかの実施形態では、スピーカ66が、フレーム64に結合され、ユーザ60の外耳道に隣接して位置付けられる。いくつかの実施形態では、示されない、別のスピーカが、ユーザ60の他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する。ディスプレイ62は、有線または無線接続68等によって、ローカル処理およびデータモジュール70に動作可能に結合され、これは、フレーム64に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ60に除去可能に取り付けられる(例えば、リュック式構成、ベルト結合式構成等において)等、種々の構成において搭載されてもよい。
本説明で使用される用語のいくつかが、参照のために、以下に定義される。提示される用語およびその個別の定義は、これらの定義に厳密に制限されるわけではなく、用語は、本開示内の用語の使用によってさらに定義され得る。用語「例示的」は、本明細書では、実施例、インスタンス、または例証としての役割を果たすように意味するために使用される。「例示的」として本明細書に説明される任意の側面または設計は、必ずしも、他の側面または設計より好ましいまたは有利であるものとして解釈されるわけではない。むしろ、単語「例示的」の使用は、具体的方式で概念を提示することが意図される。本願および添付の請求項で使用されるようには、用語「または」は、排他的「または」ではなく、包含的「または」を意味するように意図される。すなわち、別様に規定されない限り、または文脈から明白ではない限り、「Xは、AまたはBを採用する」は、自然包含的順列のいずれかを意味するように意図される。すなわち、Xが、Aを採用する、Xは、Bを採用する、またはXが、AおよびBの両方を採用する場合、「Xは、AまたはBを採用する」は、前述のインスタンスのいずれでも満たされる。本明細書で使用されるように、「AまたはBのうちの少なくとも1つ」は、Aのうちの少なくとも1つ、またはBのうちの少なくとも1つ、またはAおよびBの両方のうちの少なくとも1つを意味する。言い換えると、本語句は、離接語である。本願および付加される実施例で使用されるような冠詞「a」および「an」は、概して、別様に規定されない限り、または単数形であるように指示されることが文脈から明白ではない限り、「1つ以上の」を意味するように解釈されるべきである。
いくつかの実施形態では、VR/AR/MRシステム(例えば、システム80)は、ビデオデータの所与のフレームのための複数の異なる深度平面を連続的に表示することによって、ライトフィールドビデオデータを提供する。システム80は、次いで、ビデオデータの次のフレームを更新し、そのフレームのための複数の異なる深度平面を連続的に表示する。例えば、ビデオデータの第1のフレームは、実際には、ビデオデータの3つの別個のサブフレーム、すなわち、遠距離フレームD0と、中距離フレームD1と、近距離フレームD2とを含み得る。D0、D1、およびD2は、連続して表示されることができる。続いて、ビデオデータの第2のフレームが、表示されることができる。ビデオデータの第2のフレームも同様に、遠距離フレームと、中距離フレームと、近距離フレームとを含み得、これは、連続的に表示され、以降同様に続く。本実施例は、3つの深度平面を使用するが、ライトフィールドビデオデータは、そのように限定されない。むしろ、任意の複数の数の深度平面が、例えば、システム80の所望のビデオフレームレートおよび能力に応じて使用されることができる。
図10は、一実施形態による、ビデオデータのフレームのための例示的フォーマットを図示し、これは、付加される制御データを含む。図10に図示されるように、各フレームは、制御データ1010と、画像データ1020とを含む。画像データ1020は、行(行0001-行0960)および列(列0000-列1279)にフォーマットされる、ピクセルデータのアレイであってもよい。図示される実施例では、画像を形成する、1280列および960行の画像データ1020が、存在する。図10はまた、制御データ1010が画像データ1020に付加され得ることを図示する。制御データ1010は、例えば、余剰行として画像データ1020に付加されることができる。いくつかの構成では、制御データ1010は、水平または垂直ブランキング時間の間に送信される、制御パケットまたはメタデータであってもよい。最初の行(行0000)は、制御データ1010を含む一方、残りの行(行0001-0960)は、画像データ1020を含む。したがって、本実施形態では、ホストは、1280×961の分解能をディスプレイコントローラに伝送し、画像データ1020は、1280×960であって、制御データは、1280×1である。
上記に説明される制御パケットは、画像データ内に記憶されるが、他の実施形態では、制御パケットは、別個のメモリ場所内に記憶されてもよく、ピクセル処理パイプラインは、一時停止され、制御パケットが読み取られることを可能にしてもよい(例えば、ディスプレイによって)。制御パケットの一部は、制御パケット全体を読み取らずに、別個に読み取られてもよい。
いくつかの実施形態では、画像圧縮技法が、深度平面の間の情報の冗長性を除去することによって画像データの量を低減させるために、複数の深度平面を横断して適用される。例えば、深度平面毎に画像データのフレーム全体を伝送するのではなく、深度平面の一部または全部が、代わりに、隣接する深度平面に対する変化の観点から表されてもよい。いくつかの実施形態では、これは、隣接する瞬間においてフレーム間において時間ベースで行われることができる。圧縮技法は、無損失であり得る、または隣接する深度平面フレームの間、もしくは所与の閾値未満である時間的に隣接するフレームの間の変化が、無視されることができ、したがって、画像データ内の低減をもたらすように、損失性であり得る。加えて、圧縮アルゴリズムは、運動ベクトルを使用して、単一深度平面(X-Y運動)内および/または深度平面(Z運動)間のオブジェクトの運動をエンコードすることができる。移動オブジェクトの画像データが経時的に繰り返し伝送されることを要求するのではなく、オブジェクトの運動は、本明細書で議論されるように、ピクセル偏移制御情報を用いて、完全または部分的に達成されることができる。
ライトフィールドビデオデータを表示するシステムでは、ビデオフレーム毎に含まれる比較的大量の情報(例えば、それぞれ複数の色成分を伴う複数の深度平面)により、高いビデオフレームレートを達成することは困難であり得る。しかしながら、ビデオフレームレートは、特に、ARモードにおいて、図16に示されるように、コンピュータ生成されたライトフィールドビデオデータが一度にディスプレイの一部のみを占有し得ることを認識することによって、改良されることができる。
いくつかの実施形態では、本明細書に説明されるシステム80は、1つ以上のセンサ(例えば、カメラ)を含み、周囲採光の明度および/または色相を検出する。そのようなセンサは、例えば、システム80のディスプレイヘルメット内に含まれることができる。周囲採光に関する感知される情報は、次いで、仮想オブジェクト(例えば、VR、AR、またはMR画像)のために生成されたピクセルの明度または色相を調節するために使用されることができる。例えば、周囲採光が、黄味がかった色合いを有する場合、コンピュータ生成された仮想オブジェクトは、黄味がかった色調を有するように改変されることができ、これは、部屋内の実オブジェクトのものにより緊密に合致する。同様に、部屋内の光の強度が、比較的に高い場合、ディスプレイ62の光源を駆動するために使用される電流は、コンピュータ生成された仮想オブジェクトの明度が周囲採光により緊密に合致するように、増加されることができる。または、その逆に、ディスプレイ62の光源を駆動するために使用される電流は、より暗い周囲採光に応答して減少されることができる。これはまた、電力を節約する利点を有する。そのようなピクセル調節は、画像がGPUによってレンダリングされるときに行われることができる。代替として、および/または加えて、そのようなピクセル調節は、本明細書で議論される制御データを使用することによって、レンダリング後に行われることができる。
図17は、システム80のディスプレイコントローラによって実装される、例示的ピクセル処理パイプライン1700のブロック図である。いくつかの実施形態では、ピクセル処理パイプライン1700は、専用ハードウェアとして実装される。ディスプレイコントローラは、レンダリングされた画像データをグラフィック処理ユニット(GPU)から受信し(フレームバッファ1702において)、次いで、レンズ歪曲補正、再サンプリング/画像スケーリング、グローバル偏移、色混成、フラットフィールド補正、およびガンマ補正を含む、いくつかの機能を実施する。これらの機能が実施された後、ディスプレイコントローラは、処理された画像データ(カラーフィールドバッファ1750において)をディスプレイ62に出力する。例示的機能のセットが、図17に図示されるが、ピクセル処理パイプライン1700の他の実施形態は、図示される機能を省略する、または本明細書に説明される他の機能を含んでもよい。
本明細書に議論されるように、システム80は、ヘルメット、眼鏡、ゴーグル等の身体搭載型ディスプレイを含むことができる。加えて、システム80は、ジャイロスコープ、加速度計等のセンサを含むことができ、これは、3次元においてユーザ60の頭部の位置、配向、速度、および/または加速を推定および追跡するために使用され得る、測定を実施する。センサは、ユーザ60によってその頭部上に装着される慣性測定ユニットに提供されることができる。このように、ユーザ60の頭部姿勢は、例えば、頭部の配向を示す、ベクトルとして推定されることができる。これ等の頭部姿勢情報は、ユーザ60がVR/AR/MR場面と相互作用することを可能にする手段として使用されることができる。例えば、ユーザ60が、その頭部を旋回または傾斜させる場合、場面は、対応する様式でワーピング、すなわち、調節されることができる(例えば、場面の視野は、偏移または傾斜されることができる)。
図26は、色ルックアップテーブル混成操作モードを実装するためのシステム2600の例示的実施形態を図示する。システム2600は、3/1マルチプレクサ2640と、1つ以上のルックアップテーブル2650とを含む。マルチプレクサ2640への入力は、画像データであって、これは、赤色、緑色、および青色フィールドを含む。画像データの各ピクセルは、8ビット赤色値2610と、8ビット緑色値2620と、8ビット青色値2630とを有する。これらの色値のためのビットのいくつかは、本明細書のいずれかに議論されるように、制御データを含むことができる。例えば、図示される実施形態では、カラーフィールド毎のピクセル値は、8ビットを含み、その6つの最上位ビットは、色を規定するために使用される一方、2つの最下位ビットは、制御データとして確保される。いくつかの実施形態では、制御データは、画像データの各ピクセルが対応する、深度平面(図26では、RGBxシーケンスと称される)を規定してもよい。
図27は、一実施形態による、MR体験を生成するための方法3700を図式的に図示する。ステップ3702では、MRシステムを装着しているユーザが、実際の物理的世界を動き回る。それにつれて、その個別のMRシステムは、画像および深度情報を捕捉する。随意に、捕捉された画像および深度情報は、画像および深度情報を捕捉時に、MRシステムの位置および配向を説明する姿勢情報でタグ付けされてもよい。種々のユーザは、実際の物理的世界に対して異なる位置および配向を有するため、種々のユーザからの捕捉された画像および深度情報は、複数の位置および配向からのより正確な実際の物理的世界のより完全な表現を構築するために使用されることができる。
MR頭部搭載型ディスプレイ、モバイルコンピューティングサポートシステム、およびトーテムコントローラ間の無線接続は、より容易かつ自然に使用可能なMRシステムをもたらすであろう。しかしながら、ユーザの身体は、現在の無線コネクティビティが容認可能品質のMR体験を生成するために要求されるデータの量を効果的に伝送するために、信号損失が高すぎ、および/または帯域幅が低すぎるように、無線信号を減衰させる。
さらに別の実施形態は、増加される電力消費およびプロセッササイクルに伴う、システム電力消費およびシステム加熱の関連問題に対処する。
離散結像モードは、多平面を有するMRシステムのための具体的電力節約および熱低減モードである。離散結像モードでは、コンテンツの全部または大部分が、1つの平面上にある。離散結像モードにおけるMRシステムは、そのリソースに、画像を1つの平面にレンダリングおよび投影させるように指示することによって、電力を節約し、熱を低減させる。他の平面における画像は、はるかに少ない処理を伴って提示される(例えば、ぼかすことによって、更新頻度を低減させることによって、および同等物によって)。画像を単一深度平面上に提示することは、多くのプロセッササイクルを要求し得る、混成問題を低減させる。
眼および視線追跡は、オブジェクトのレンダリングを修正し、プロセッササイクルおよびバッテリ電力消費ならびに熱の生成を低減させるために使用されることができる。例えば、眼および/または視線追跡は、ユーザがそのFOV内の特定のエリアに合焦している/それを見ていることを示し、画像のレンダリングは、ユーザの焦点上に集中/中心窩化されて心合されることができる。これは、光学軸(例えば、特定の深度平面)に沿って、XおよびY方向ならびにZ方向において行われることができる。ユーザの焦点はまた、ユーザの眼移動を予測する(例えば、深層学習ネットワークを使用して)ことによって予測されることができる。ユーザの眼移動はまた、MRシステムに動作可能に結合される種々のセンサ(例えば、IMU、マイクロホン、カメラ等)のセンサ融合を使用して予測されることができる。
場面拡張
図34は、VR/AR/MRシステムを実装するコンポーネント内で使用されるような連続的により離れる深度平面4500(ユーザから1ジオプタ~6ジオプタ離れる)の編成を描写する。オプションとして、深度平面4500またはその任意の側面の1つ以上の変形例が、本明細書に説明される実施形態のアーキテクチャおよび機能性のコンテキストにおいて実装されてもよい。
図36は、低電力深度平面切替技法4700をVR/AR/MRシステム内に実装するためのアナログスイッチ4708の使用を描写する。オプションとして、低電力深度平面切替技法4700またはその任意の側面の1つ以上の変形例は、本明細書に説明される実施形態のアーキテクチャおよび機能性のコンテキストにおいて実装されてもよい。低電力深度平面切替技法4700またはその任意の側面は、任意の環境内に実装されてもよい。
LEDの多重化(「MUX」)を利用するための1つの方法は、1つのRBGドライバおよび時間ドメインMUXを使用し、前述のアナログスイッチを使用して、2つの深度平面間で切り替えることである。これは、非常に高速の切替をサポートし、また、データが特定の平面に存在しない場合、レーザを自動的にディスエーブルにすることができる。別の方法は、「カラーシーケンシャル」パターンを実装することである。RGB平面1を表示し、次いで、ディスプレイRGB平面2を表示し、以降同様に続くのではなく、R、G、次いで、Bをフラッシングすることが可能である。時間MUXアプローチを使用して、スワッピングし、カラーシーケンシャル操作を行うことが可能である。本技法は、ユーザがその頭部を移動させるにつれて、(例えば)平面1と平面2との間の色分離を低減させる。フレーム毎のカラーシーケンシャルカラースワッピングを促進するように、スワッピング命令をフレームデータの中にコード化することが可能である。
画像データの時間MUXは、興味深い効果をもたらす。1つの深度平面、次いで、別の深度平面、次いで、別の深度平面等を送信するときに生じる、短バーストから成る、「時間的ライトフィールド」を作成することが可能である。さらにより興味深いことに、カラーシーケンシャルディスプレイ(第1の平面のためのR、G、次いで、B、次いで、第2の平面のためのR、G、次いで、B)を使用するとき、切替が高速であるほど、ユーザによって気付かれることになるフレーム毎の割れは、少なくなる。
図39は、低電力VR/AR/MRシステム内に表示技法を実装するための6連射アーキテクチャの使用を描写する。6連射アーキテクチャは、3つの異なる色(例えば、R、G、B)の3つのエミッタおよび2つのフレームのシーケンスと組み合わせて使用されることができる。フレームは、第1のフレーム内の任意の特定のピクセルが6連射の要素と関連づけられ得、第2のフレーム内の任意の特定のピクセルが6連射の異なる要素と関連づけられ得るように、シーケンス化されることができる。故に、6連射は、6つの独立して制御可能エミッタを制御する。
図40は、VR/AR/MRシステム内で使用されるような低電力短待ち時間ヘッドセットアーキテクチャ5100を描写する。オプションとして、低電力短待ち時間ヘッドセットアーキテクチャ5100またはその任意の側面の1つ以上の変形例は、本明細書に説明される実施形態のアーキテクチャおよび機能性のコンテキストにおいて実装されてもよい。低電力短待ち時間ヘッドセット5100またはその任意の側面は、任意の環境内に実装されてもよい。
図42は、移動予測をVR/AR/MRシステムのヘッドセットコンポーネントに送達するためのVR/AR/MRシステムブロック図5300である。オプションとして、VR/AR/MRシステムブロック図5300またはその任意の側面の1つ以上の変形例は、本明細書に説明される実施形態のアーキテクチャおよび機能性のコンテキストにおいて実装されてもよい。VR/AR/MRシステムブロック図5300またはその任意の側面は、任意の環境内に実装されてもよい。
先に示されたように、変換調節5306は、移動予測5312と調節パラメータ5404の組み合わせに基づいて行われることができる。さらに、変換調節5306は、予測される色変化と組み合わせて、移動予測5312に基づいて行われることができる。例えば、部屋内の場面等の実世界画像にわたって場面拡張を生産するとき、ユーザは、その頭部を移動させ、部屋の比較的に暗いエリアから部屋の比較的により明るいエリアに焦点を変化させ得る。故に、変換調節5306は、計算される調節が、予測される頭部移動および予測される頭部位置の時点においてフレーム内に存在するであろう実世界場面の採光条件に対して実施されるように、採光調節、コントラスト調節、色調節等を含むことができる。ユーザ焦点の正確な予測は、正確なレンダリングを促進し、および/または誤った/破棄された採光レンダリングを排除し、したがって、ユーザ体験から注意を逸らすことなく、電力を節約することができる。
加速度計は、センサ融合データを内蔵プロセッサに提供し、これは、センサ融合、ディスプレイ調節、および同等物のために、移動更新をローカルプロセッサに送信することができる。前述は全て、ローカルで、すなわち、ディスプレイ/ヘッドセットにおいてすぐに行われることができる。単なる付加的実施例として、ディスプレイ調節は、ディスプレイ(例えば、LCOS)に非常に近接して(例えば、かつ遠位ベルトパックからの関与に依拠せず)、ワーピング、変換、および同等物を含むことができる。そのようなアプローチは、遠隔コンポーネントへ/からの待ち時間を低減させる。待ち時間は、望ましくなく、画像処理ブロックをディスプレイ/ヘッドセットの近位に位置させることが改良するための方法である。
図45はVR/AR/MRシステム内で使用されるような低電力側チャネルを示す、システムブロック図5600である。オプションとして、システムブロック図5600またはその任意の側面の1つ以上の変形例は、本明細書に説明される実施形態のアーキテクチャおよび機能性のコンテキストにおいて実装されてもよい。システムブロック図5600またはその任意の側面は、任意の環境内に実装されてもよい。
前述のSPI接続は、ベルトパックプロセッサ上のUSBの全部または一部、ウェアラブルプロセッサ上のUSB SSの全部または一部、およびUSBリドライバの全部または一部をディスエーブルにするために使用されることができる。USB電力消費は、システム内で有意であり得、本低電力インターフェースは、より高い電力インターフェース(すなわち、USB)を常時イネーブルにさせる必要性を低減させる。
さらなる低電力モードは、コンポーネントがそれら自体の間で協働するときに、開始および終了されることができる。より具体的には、ローカル処理モジュール70を組成するコンポーネントは、プロトコルを経由して通信し、遮断される、または個別の低電力モードにもたらされ得る、遠隔処理モジュール72を組成するコンポーネントに関して合意に達することができる。代替として、遠隔処理モジュール72を組成するコンポーネントは、プロトコルを経由して通信し、遮断される、または個別の低電力モードにもたらされ得る、ローカル処理モジュール70を組成するコンポーネントに関して合意に達することができる。
図50は、VR/AR/MRシステムの協働コンポーネント間で使用されるような低電力同期技法6100を描写する。オプションとして、低電力同期技法6100またはその任意の側面の1つ以上の変形例は、本明細書に説明される実施形態のアーキテクチャおよび機能性のコンテキストにおいて実装されてもよい。低電力同期技法6100またはその任意の側面は、任意の環境内に実装されてもよい。
ある場合には、オーディオデータの通信は、アイソクロナスデータ伝送をエミュレートする様式において、USB経路を経由して実施される。例えば、発話が、ステレオ(例えば、左チャネルおよび右チャネル)または4チャネルデータフォーマットにおいて送信され得る。継続中の発話は、データのステレオまたは4チャネルパッケージの継続中のストリーム中で送信され得る。ある場合には、周辺チップが、発話またはオーディオデータのストリームもしくは自動発話認識ASRデータを小バーストのデータ内で送信する。さらに、ある場合には、データのバーストのフォーマット化は、周辺チップの構成(例えば、ステレオ構成、4チャネル構成)によって固定される。なおもさらに、ステレオ伝送の一方のチャネル(例えば、右チャネル)が必要とされ得ない瞬間が、存在し得る。多くのそのような場合では、音データ以外のデータは、4チャネルストリームのステレオの未使用部分の中にパッキングされ得る。図51および52の図および議論は、協働コンポーネント間で通信されるためにデータをパッキングおよび/または多重化するためのいくつかの技法を提示する。
図53は、VR/AR/MRシステムの協働コンポーネント間でバッテリ寿命時間情報を通信するためのバッテリブーストシステム6400を描写する。オプションとして、バッテリブーストシステム6400またはその任意の側面の1つ以上の変形例は、本明細書に説明される実施形態のアーキテクチャおよび機能性のコンテキストにおいて実装されてもよい。バッテリブーストシステム6400またはその任意の側面は、任意の環境内に実装されてもよい。
図54は、VR/AR/MRシステムの協働コンポーネントを含む、ケーブル接続システム6500を描写する。オプションとして、ケーブル接続システム6500またはその任意の側面の1つ以上の変形例は、本明細書に説明される実施形態のアーキテクチャおよび機能性のコンテキストにおいて実装されてもよい。ケーブル接続システム6500またはその任意の側面は、任意の環境内に実装されてもよい。
図56は、VR/AR/MRシステムの複数の協働コンポーネントを含む、システムコンポーネントパーティション化6700を描写する。オプションとして、システムコンポーネントパーティション化6700またはその任意の側面の1つ以上の変形例は、本明細書に説明される実施形態のアーキテクチャおよび機能性のコンテキストにおいて実装されてもよい。システムコンポーネントパーティション化6700またはその任意の側面は、任意の環境内に実装されてもよい。
現実性のために、圧縮およびブランキング等の動作は、控えられる傾向にある。未加工光子イベントの捕捉、留保(例えば、記録)、およびレンダリング/表示は、多くの場合、現実性を体験にもたらす。未加工イベントを広範囲の3次元空間内に記録することは、大メモリを要求する。未加工光子イベントドメイン内におけるある範囲の作業対現実性には、トレードオフが存在し、収穫逓減点が、存在する。前述のシステム内の処理は、例えば、瞬間帯域幅要件、VR/AR/MRシステムの他の動作(例えば、非結像動作)への影響、瞬間中心窩化、フレーム/秒等のシステム制約、フレームまたはシーケンス内に示すための平面の数、および同等物等の現実性とシステム効果との間のトレードオフを検討する。平面のより小さいサブセットに分割することは、単に、瞬間的に測定または予測される帯域幅可用性を満たすために使用され得る、1つの技法である。
前述のサブブロックの識別は、眼が受信するためにデバイス上の平面を照明する(または照明しない)ための種々の技法の使用を促進する。例えば、あるキャラクタが、特定のサブブロック内に存在し、同一サブブロック内(例えば、より近い深度平面)にブロックするオブジェクトが存在する場合、現実性を向上させるための1つの技法は、オブジェクトによってオクルードされるキャラクタの部分を照明しないことである。
VR、AR、またはMRシステム等の光学システムは、実際の物理的環境と組み合わせて、仮想オブジェクトをレンダリングおよび表示する。これらの仮想オブジェクトを自然に現れる光を用いて照明することは、困難であり得る。
Claims (8)
- 仮想、拡張、または複合現実ディスプレイシステムであって、
複数の深度平面のためのデジタル画像データを表示するように構成されるディスプレイであって、前記ディスプレイは、第1の深度平面に対応する画像データを表示するための第1の光学経路と、第2の深度平面に対応する画像データを表示するための少なくとも部分的に明確に異なる第2の光学経路とを備える、ディスプレイと、
ディスプレイコントローラであって、前記ディスプレイコントローラは、前記第1の深度平面に対応する画像データのピクセル値を第1の量だけ加重し、前記第2の深度平面に対応する画像データのピクセル値を第2の量だけ加重することにより、前記加重されたピクセル値を有する前記第1の深度平面に対応する画像データおよび前記加重されたピクセル値を有する前記第2の深度平面に対応する画像データが前記ディスプレイによって表示されると、その結果として生じる画像が、前記第1の深度平面と前記第2の深度平面との間に位置する仮想深度平面に対応するように現れるようにするように構成される、ディスプレイコントローラと
を備え、前記第1の量と前記第2の量の合計が100%であり、
前記ディスプレイコントローラは、前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データとの加重された組み合わせを計算することによって、前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データを混成するように構成され、
前記ディスプレイコントローラは、前記デジタル画像データに埋め込まれた仮想深度平面インジケータデータに基づいて、前記加重された組み合わせを決定するように構成され、前記仮想深度平面インジケータデータは、複数の可能性として考えられる仮想深度平面のうちの1つを規定し、
前記仮想深度平面インジケータデータは、前記デジタル画像データのピクセル値に埋め込まれ、
前記デジタル画像データは、ピクセル毎に複数の色値を含み、前記色値の複数の最下位ビットは、前記仮想深度平面インジケータデータであり、
前記仮想深度平面インジケータデータは、前記仮想深度平面インジケータデータによって規定された前記仮想深度平面と関連付けられた混成加重値にアクセスするために使用され、
前記ディスプレイコントローラは、前記デジタル画像データのピクセルが非アクティブ深度平面に割り当てられるかどうかを決定することと、前記ピクセルが非アクティブ深度平面に割り当てられることを決定したことに応答して、前記ピクセルを無視し、前記ピクセルを前記ディスプレイにフラッシングしないこととを行うようにさらに構成される、システム。 - 仮想深度平面毎の混成加重値は、ルックアップテーブル内に記憶される、請求項1に記載のシステム。
- 1つ以上のルックアップテーブルは、前記デジタル画像データの深度平面毎に提供される、請求項2に記載のシステム。
- 前記ディスプレイコントローラは、前記第1の深度平面に対応する画像データの全てのピクセルと前記第2の深度平面に対応する画像データの全てのピクセルとを同一仮想深度平面に混成するように構成される、請求項1に記載のシステム。
- 前記ディスプレイコントローラは、前記第1の深度平面に対応する画像データの異なるピクセルを異なる仮想深度平面に混成するように構成される、請求項1に記載のシステム。
- 仮想、拡張、または複合現実ディスプレイシステムにおける方法であって、前記方法は、
ディスプレイ上に示されるための複数の深度平面のデジタル画像データを提供することであって、前記ディスプレイは、第1の深度平面に対応する画像データを表示するための第1の光学経路と、第2の深度平面に対応する画像データを表示するための少なくとも部分的に明確に異なる第2の光学経路とを備える、ことと、
前記第1の深度平面に対応する画像データのピクセル値を第1の量だけ加重し、前記第2の深度平面に対応する画像データのピクセル値を第2の量だけ加重することにより、前記加重されたピクセル値を有する前記第1の深度平面に対応する画像データおよび前記加重されたピクセル値を有する前記第2の深度平面に対応する画像データが前記ディスプレイによって表示されると、その結果として生じる画像が、前記第1の深度平面と前記第2の深度平面との間に位置する仮想深度平面に対応するように現れるようにすることと、
前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データとの加重された組み合わせを計算することによって、前記第1の深度平面に対応する画像データと前記第2の深度平面に対応する画像データを混成することと、
前記デジタル画像データに埋め込まれた仮想深度平面インジケータデータに基づいて、前記加重された組み合わせを決定することであって、前記仮想深度平面インジケータデータは、複数の可能性として考えられる仮想深度平面のうちの1つを規定する、ことと、
前記仮想深度平面インジケータデータを使用して、前記仮想深度平面インジケータデータによって規定された前記仮想深度平面と関連付けられた混成加重値にアクセスすることと
を含み、
前記第1の量と前記第2の量の合計が100%であり、
前記仮想深度平面インジケータデータは、前記デジタル画像データのピクセル値に埋め込まれ、
前記デジタル画像データは、ピクセル毎に複数の色値を含み、前記色値の複数の最下位ビットは、前記仮想深度平面インジケータデータであり、
前記方法は、
前記デジタル画像データのピクセルが非アクティブ深度平面に割り当てられるかどうかを決定することと、
前記ピクセルが非アクティブ深度平面に割り当てられることを決定したことに応答して、前記ピクセルを無視し、前記ピクセルを前記ディスプレイにフラッシングしないことと
をさらに含む、方法。 - 仮想深度平面毎の混成加重値をルックアップテーブル内に記憶することをさらに含む、請求項6に記載の方法。
- 前記デジタル画像データの深度平面毎に、1つ以上のルックアップテーブルを提供することをさらに含む、請求項7に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022162258A JP2023015037A (ja) | 2016-08-22 | 2022-10-07 | 仮想現実、拡張現実、および複合現実システムおよび方法 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662377804P | 2016-08-22 | 2016-08-22 | |
US201662377829P | 2016-08-22 | 2016-08-22 | |
US62/377,804 | 2016-08-22 | ||
US62/377,829 | 2016-08-22 | ||
US201762462279P | 2017-02-22 | 2017-02-22 | |
US62/462,279 | 2017-02-22 | ||
JP2019510409A JP6880174B2 (ja) | 2016-08-22 | 2017-08-22 | 仮想現実、拡張現実、および複合現実システムおよび方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019510409A Division JP6880174B2 (ja) | 2016-08-22 | 2017-08-22 | 仮想現実、拡張現実、および複合現実システムおよび方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022162258A Division JP2023015037A (ja) | 2016-08-22 | 2022-10-07 | 仮想現実、拡張現実、および複合現実システムおよび方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020195154A JP2020195154A (ja) | 2020-12-03 |
JP7397777B2 true JP7397777B2 (ja) | 2023-12-13 |
Family
ID=61190829
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019510409A Active JP6880174B2 (ja) | 2016-08-22 | 2017-08-22 | 仮想現実、拡張現実、および複合現実システムおよび方法 |
JP2020138439A Active JP7397777B2 (ja) | 2016-08-22 | 2020-08-19 | 仮想現実、拡張現実、および複合現実システムおよび方法 |
JP2022162258A Pending JP2023015037A (ja) | 2016-08-22 | 2022-10-07 | 仮想現実、拡張現実、および複合現実システムおよび方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019510409A Active JP6880174B2 (ja) | 2016-08-22 | 2017-08-22 | 仮想現実、拡張現実、および複合現実システムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022162258A Pending JP2023015037A (ja) | 2016-08-22 | 2022-10-07 | 仮想現実、拡張現実、および複合現実システムおよび方法 |
Country Status (9)
Country | Link |
---|---|
US (5) | US10529063B2 (ja) |
EP (2) | EP3500977B1 (ja) |
JP (3) | JP6880174B2 (ja) |
KR (5) | KR102357273B1 (ja) |
CN (1) | CN109863533B (ja) |
AU (3) | AU2017317600B2 (ja) |
CA (1) | CA3034384A1 (ja) |
IL (4) | IL307594A (ja) |
WO (1) | WO2018039270A1 (ja) |
Families Citing this family (152)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10365711B2 (en) | 2012-05-17 | 2019-07-30 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display |
US9351060B2 (en) | 2014-02-14 | 2016-05-24 | Sonic Blocks, Inc. | Modular quick-connect A/V system and methods thereof |
US11049476B2 (en) | 2014-11-04 | 2021-06-29 | The University Of North Carolina At Chapel Hill | Minimal-latency tracking and display for matching real and virtual worlds in head-worn displays |
CN112764536A (zh) | 2015-03-05 | 2021-05-07 | 奇跃公司 | 用于增强现实的系统和方法 |
US10838207B2 (en) | 2015-03-05 | 2020-11-17 | Magic Leap, Inc. | Systems and methods for augmented reality |
KR20190034321A (ko) | 2016-08-02 | 2019-04-01 | 매직 립, 인코포레이티드 | 고정-거리 가상 및 증강 현실 시스템들 및 방법들 |
CN109863533B (zh) | 2016-08-22 | 2024-03-15 | 奇跃公司 | 虚拟、增强和混合现实系统和方法 |
CN108111874B (zh) * | 2016-11-16 | 2020-01-31 | 腾讯科技(深圳)有限公司 | 一种文件处理方法、终端及服务器 |
KR20180061956A (ko) * | 2016-11-30 | 2018-06-08 | 삼성전자주식회사 | 눈 위치 예측 방법 및 장치 |
US10451714B2 (en) | 2016-12-06 | 2019-10-22 | Sony Corporation | Optical micromesh for computerized devices |
US10536684B2 (en) * | 2016-12-07 | 2020-01-14 | Sony Corporation | Color noise reduction in 3D depth map |
US20190129183A1 (en) * | 2016-12-08 | 2019-05-02 | Snail Innovation Institute | Integrated frames in wearable display devices |
JP7320352B2 (ja) * | 2016-12-28 | 2023-08-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置 |
US10812936B2 (en) | 2017-01-23 | 2020-10-20 | Magic Leap, Inc. | Localization determination for mixed reality systems |
US10560680B2 (en) * | 2017-01-28 | 2020-02-11 | Microsoft Technology Licensing, Llc | Virtual reality with interactive streaming video and likelihood-based foveation |
US10495735B2 (en) | 2017-02-14 | 2019-12-03 | Sony Corporation | Using micro mirrors to improve the field of view of a 3D depth map |
US11127110B2 (en) * | 2017-03-01 | 2021-09-21 | Arm Limited | Data processing systems |
US10795022B2 (en) | 2017-03-02 | 2020-10-06 | Sony Corporation | 3D depth map |
US10409363B1 (en) | 2017-03-07 | 2019-09-10 | vGolf, LLC | Mixed-reality golf tracking and simulation |
WO2018165278A1 (en) | 2017-03-07 | 2018-09-13 | vGolf, LLC | Mixed reality golf simulation and training system |
WO2018165284A1 (en) | 2017-03-07 | 2018-09-13 | vSports, LLC | Mixed reality sport simulation and training system |
AU2018236457B2 (en) | 2017-03-17 | 2021-04-29 | Magic Leap, Inc. | Mixed reality system with virtual content warping and method of generating virtual content using same |
KR102594063B1 (ko) | 2017-03-17 | 2023-10-24 | 매직 립, 인코포레이티드 | 컬러 가상 콘텐츠 워핑을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법 |
KR102359978B1 (ko) | 2017-03-17 | 2022-02-07 | 매직 립, 인코포레이티드 | 다중-소스 가상 콘텐츠 합성을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법 |
US10290120B2 (en) * | 2017-03-20 | 2019-05-14 | SK Commercial Construction, Inc. | Color analysis and control using an electronic mobile device transparent display screen |
US10803988B2 (en) * | 2017-03-20 | 2020-10-13 | SK Commercial Construction, Inc. | Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment |
US10499042B2 (en) * | 2017-04-01 | 2019-12-03 | Intel Corporation | Barreling and compositing of images |
US10979687B2 (en) | 2017-04-03 | 2021-04-13 | Sony Corporation | Using super imposition to render a 3D depth map |
EP3607382A1 (de) * | 2017-04-06 | 2020-02-12 | Konstantin Roggatz | Augmented-reality(ar)-brille und verfahren zur einmischung virtueller bilder in ein durch mindestens ein brillenglas für einen träger der brille sichtbares bild |
CN110832439B (zh) | 2017-04-27 | 2023-09-29 | 奇跃公司 | 发光用户输入设备 |
US10497090B2 (en) * | 2017-05-16 | 2019-12-03 | Qualcomm Incorporated | Systems and methods for reducing memory bandwidth via multiview compression/decompression |
WO2018218253A1 (en) | 2017-05-26 | 2018-11-29 | vSports, LLC | Mixed-reality kick tracking and simulation |
IL270856B2 (en) * | 2017-05-30 | 2023-12-01 | Magic Leap Inc | Power supply assembly with fan assembly for an electronic device |
WO2018227011A1 (en) | 2017-06-07 | 2018-12-13 | vSports, LLC | Mixed-reality sports tracking and simulation |
US10859834B2 (en) | 2017-07-03 | 2020-12-08 | Holovisions | Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear |
US10338400B2 (en) | 2017-07-03 | 2019-07-02 | Holovisions LLC | Augmented reality eyewear with VAPE or wear technology |
JP7398962B2 (ja) | 2017-07-28 | 2023-12-15 | マジック リープ, インコーポレイテッド | 画像を表示するためのファンアセンブリ |
US10360832B2 (en) * | 2017-08-14 | 2019-07-23 | Microsoft Technology Licensing, Llc | Post-rendering image transformation using parallel image transformation pipelines |
US11533450B2 (en) | 2017-09-25 | 2022-12-20 | Comcast Cable Communications, Llc | Anti-piracy video transmission and display |
US10521881B1 (en) * | 2017-09-28 | 2019-12-31 | Apple Inc. | Error concealment for a head-mountable device |
US10484667B2 (en) | 2017-10-31 | 2019-11-19 | Sony Corporation | Generating 3D depth map using parallax |
US10652550B2 (en) * | 2017-12-22 | 2020-05-12 | Shenzhen China Star Optoelectronics Semiconductor Display Technology Co., Ltd. | Compensation table compressing method |
US11533272B1 (en) * | 2018-02-06 | 2022-12-20 | Amesite Inc. | Computer based education methods and apparatus |
CN110494792B (zh) | 2018-03-07 | 2021-07-09 | 奇跃公司 | 外围设备的视觉跟踪 |
CN111819843A (zh) * | 2018-03-09 | 2020-10-23 | 马克斯-普朗克科学促进学会 | 用于向用户显示信息的系统 |
US10714050B2 (en) * | 2018-03-21 | 2020-07-14 | Daqri, Llc | Reducing latency in augmented reality (AR) displays |
JP7188900B2 (ja) * | 2018-03-30 | 2022-12-13 | 東京ガスiネット株式会社 | 情報処理システム及びプログラム |
US11039041B2 (en) * | 2018-04-03 | 2021-06-15 | Intel Corporation | Display panel synchronization for a display device |
US11006154B2 (en) * | 2018-04-04 | 2021-05-11 | DISH Technologies L.L.C. | Selected replacement of digital imagery portions using augmented reality |
US10636362B2 (en) | 2018-04-09 | 2020-04-28 | Apple Inc. | Radio frequency signal emission induced display artifact mitigation systems and methods |
US11262839B2 (en) * | 2018-05-17 | 2022-03-01 | Sony Interactive Entertainment Inc. | Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment |
CN112567329A (zh) * | 2018-05-24 | 2021-03-26 | 复合光子美国公司 | 用于驱动显示器的系统和方法 |
US10827165B2 (en) * | 2018-05-30 | 2020-11-03 | Intel Corporation | Enhanced imaging for thin form factor head mounted displays and near light field displays |
US10825424B2 (en) * | 2018-06-05 | 2020-11-03 | Magic Leap, Inc. | Homography transformation matrices based temperature calibration of a viewing system |
US10410372B1 (en) * | 2018-06-14 | 2019-09-10 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration |
WO2019246058A1 (en) * | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device |
US11624909B2 (en) | 2018-06-18 | 2023-04-11 | Magic Leap, Inc. | Head-mounted display systems with power saving functionality |
JP7419270B2 (ja) * | 2018-06-21 | 2024-01-22 | マジック リープ, インコーポレイテッド | ウェアラブルシステム発話処理 |
US10549186B2 (en) | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
GB2575097B (en) * | 2018-06-29 | 2023-01-18 | Advanced Risc Mach Ltd | Data processing systems |
US10802585B2 (en) * | 2018-07-12 | 2020-10-13 | Apple Inc. | Electronic devices with display operation based on eye activity |
CN112470464B (zh) * | 2018-07-23 | 2023-11-28 | 奇跃公司 | 场顺序显示器中的场内子码时序 |
EP3827299A4 (en) | 2018-07-23 | 2021-10-27 | Magic Leap, Inc. | SYSTEM OF MIXED REALITY WITH VIRTUAL CONTENT DISTORTION AND PROCESS FOR GENERATING VIRTUAL CONTENT WITH IT |
USD930614S1 (en) | 2018-07-24 | 2021-09-14 | Magic Leap, Inc. | Totem controller having an illumination region |
USD918176S1 (en) | 2018-07-24 | 2021-05-04 | Magic Leap, Inc. | Totem controller having an illumination region |
WO2020026226A1 (en) * | 2018-07-30 | 2020-02-06 | Reality Plus Ltd. | Mixed reality glasses which display virtual objects that move naturally throughout a user's complete field of view |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
US10957112B2 (en) | 2018-08-13 | 2021-03-23 | Magic Leap, Inc. | Cross reality system |
US10607353B2 (en) * | 2018-08-30 | 2020-03-31 | Facebook Technologies, Llc | Structured light depth sensing |
CN112639579B (zh) * | 2018-08-31 | 2023-09-15 | 奇跃公司 | 用于增强现实装置的空间分辨的动态调暗 |
US11040441B2 (en) * | 2018-09-20 | 2021-06-22 | Sony Group Corporation | Situation-aware robot |
US11455705B2 (en) * | 2018-09-27 | 2022-09-27 | Qualcomm Incorporated | Asynchronous space warp for remotely rendered VR |
US11232635B2 (en) | 2018-10-05 | 2022-01-25 | Magic Leap, Inc. | Rendering location specific virtual content in any location |
US11308681B1 (en) * | 2018-11-02 | 2022-04-19 | Facebook Technologies, Llc. | Display engine for post-rendering processing |
CN109327284B (zh) * | 2018-11-27 | 2021-04-13 | 联想(北京)有限公司 | 数据传输方法、装置及电子设备 |
KR102091217B1 (ko) | 2018-12-12 | 2020-03-19 | 주식회사 하이쓰리디 | 모바일 증강현실 영상 편집 시스템 |
CN115100020A (zh) * | 2019-01-18 | 2022-09-23 | 奇跃公司 | 虚拟、增强和混合现实系统以及方法 |
WO2020152550A1 (en) * | 2019-01-21 | 2020-07-30 | Maestre Gomez Esteban | Method and system for virtual acoustic rendering by time-varying recursive filter structures |
EP3931827A4 (en) | 2019-03-01 | 2022-11-02 | Magic Leap, Inc. | INPUT DETERMINATION FOR A VOICE PROCESSING ENGINE |
US11373400B1 (en) | 2019-03-18 | 2022-06-28 | Express Scripts Strategic Development, Inc. | Methods and systems for image processing to present data in augmented reality |
US11089282B2 (en) | 2019-05-23 | 2021-08-10 | Magic Leap, Inc. | Blended mode three dimensional display systems and methods |
US11386237B2 (en) * | 2019-06-19 | 2022-07-12 | Facebook Technologies, Llc | Scalable encryption engine having partitionable data paths |
US11288763B1 (en) * | 2019-06-21 | 2022-03-29 | Gopro, Inc. | Systems and methods for visually encoding information into a pixel-based image |
US11189061B2 (en) * | 2019-06-25 | 2021-11-30 | Universal City Studios Llc | Systems and methods for virtual feature development |
US11049330B2 (en) * | 2019-06-27 | 2021-06-29 | Facebook Technologies, Llc | Color reference for overlaid images |
US20220319105A1 (en) * | 2019-07-10 | 2022-10-06 | Sony Interactive Entertainment Inc. | Image display apparatus, image display system, and image display method |
CN112241068A (zh) * | 2019-07-18 | 2021-01-19 | 三星电子株式会社 | 能够多深度表达的图像显示装置 |
EP4001995A4 (en) * | 2019-07-18 | 2023-11-29 | Samsung Electronics Co., Ltd. | IMAGE DISPLAY DEVICE FOR EXPRESSING MULTIPLE DEPTHS |
US11328740B2 (en) | 2019-08-07 | 2022-05-10 | Magic Leap, Inc. | Voice onset detection |
US11176901B1 (en) * | 2019-08-13 | 2021-11-16 | Facebook Technologies, Llc. | Pan-warping and modifying sub-frames with an up-sampled frame rate |
US11660535B2 (en) * | 2019-10-11 | 2023-05-30 | Nvidia Corporation | Hardware acceleration and event decisions for late latch and warp in interactive computer products |
CN114616534A (zh) | 2019-10-15 | 2022-06-10 | 奇跃公司 | 具有无线指纹的交叉现实系统 |
US11568605B2 (en) | 2019-10-15 | 2023-01-31 | Magic Leap, Inc. | Cross reality system with localization service |
WO2021076757A1 (en) | 2019-10-15 | 2021-04-22 | Magic Leap, Inc. | Cross reality system supporting multiple device types |
US11232834B2 (en) | 2019-10-29 | 2022-01-25 | Qualcomm Incorporated | Pose estimation in extended reality systems |
IL270429B2 (en) * | 2019-11-05 | 2023-08-01 | Simbionix Ltd | A method and system for an enveloping mixed reality space(s). |
CN114730546A (zh) | 2019-11-12 | 2022-07-08 | 奇跃公司 | 具有定位服务和基于位置的共享内容的交叉现实系统 |
CN110990917A (zh) * | 2019-11-19 | 2020-04-10 | 北京长空云海科技有限公司 | Bim模型展示的方法、装置及系统 |
WO2021107828A1 (en) * | 2019-11-26 | 2021-06-03 | Telefonaktiebolaget Lm Ericsson (Publ) | Supply of multi-layer extended reality images to a user |
IL271129B (en) * | 2019-12-02 | 2021-12-01 | Elbit Systems Ltd | Method and system for optical vision through a head-mounted display of virtual objects precisely aligned with external objects |
WO2021113482A1 (en) | 2019-12-06 | 2021-06-10 | Magic Leap, Inc. | Virtual, augmented, and mixed reality systems and methods |
CN113031754A (zh) * | 2019-12-09 | 2021-06-25 | 未来市股份有限公司 | 头戴式显示系统及其旋转中心修正方法 |
US11562542B2 (en) | 2019-12-09 | 2023-01-24 | Magic Leap, Inc. | Cross reality system with simplified programming of virtual content |
US11109073B2 (en) * | 2020-01-16 | 2021-08-31 | Rockwell Collins, Inc. | Image compression and transmission for heads-up display (HUD) rehosting |
CN115004128A (zh) | 2020-01-27 | 2022-09-02 | 奇跃公司 | 基于注视计时器的用户输入设备的功能增强 |
KR20210096449A (ko) | 2020-01-28 | 2021-08-05 | 삼성전자주식회사 | Hud 시스템에서 영상을 재생하는 방법 및 그 hud 시스템 |
US20210240257A1 (en) * | 2020-01-31 | 2021-08-05 | Ati Technologies Ulc | Hiding latency in wireless virtual and augmented reality systems |
US11170678B2 (en) | 2020-02-06 | 2021-11-09 | Varjo Technologies Oy | Display apparatus and method incorporating gaze-based modulation of pixel values |
EP4052245A1 (en) * | 2020-02-06 | 2022-09-07 | Varjo Technologies Oy | Display apparatus and method incorporating adaptive pose locking |
US11308900B2 (en) | 2020-02-06 | 2022-04-19 | Varjo Technologies Oy | Display apparatus and method incorporating sub-pixel aware shifting and overlap compensation |
US11348514B2 (en) | 2020-02-06 | 2022-05-31 | Varjo Technologies Oy | LED-based display apparatus and method incorporating sub-pixel shifting |
US11307410B2 (en) | 2020-02-06 | 2022-04-19 | Varjo Technologies Oy | Display apparatus and method incorporating adaptive pose locking |
US11625037B2 (en) * | 2020-02-13 | 2023-04-11 | Honeywell International Inc. | Methods and systems for searchlight control for aerial vehicles |
WO2021163306A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with accurate shared maps |
CN115398314A (zh) | 2020-02-13 | 2022-11-25 | 奇跃公司 | 使用多分辨率帧描述符进行地图处理的交叉现实系统 |
EP4104145A4 (en) | 2020-02-13 | 2024-01-24 | Magic Leap Inc | CROSS-REALLY SYSTEM PRIORITIZING GEOLOCALIZATION INFORMATION FOR LOCALIZATION |
USD940688S1 (en) * | 2020-02-19 | 2022-01-11 | XRSpace CO., LTD. | Controller |
JP2023515524A (ja) | 2020-02-26 | 2023-04-13 | マジック リープ, インコーポレイテッド | 高速位置特定を伴うクロスリアリティシステム |
EP4091128A4 (en) * | 2020-02-27 | 2023-06-21 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND METHOD FOR DEPTH MAP REPROJECTION ON AN ELECTRONIC DEVICE |
US11107290B1 (en) | 2020-02-27 | 2021-08-31 | Samsung Electronics Company, Ltd. | Depth map re-projection on user electronic devices |
US11917384B2 (en) | 2020-03-27 | 2024-02-27 | Magic Leap, Inc. | Method of waking a device using spoken voice commands |
WO2021222371A1 (en) | 2020-04-29 | 2021-11-04 | Magic Leap, Inc. | Cross reality system for large scale environments |
KR20210143607A (ko) * | 2020-05-20 | 2021-11-29 | 삼성전자주식회사 | 이미지 생성 장치 및 방법 |
KR20220008118A (ko) | 2020-07-13 | 2022-01-20 | 삼성전자주식회사 | 가상 객체들의 밝기를 다르게 표시하는 방법 및 장치 |
KR20220009733A (ko) * | 2020-07-16 | 2022-01-25 | 엘지디스플레이 주식회사 | 증강 현실을 구현할 수 있는 착용형 표시 시스템 |
CN111915683A (zh) * | 2020-07-27 | 2020-11-10 | 湖南大学 | 图像位置标定方法、智能设备及存储介质 |
US11228750B1 (en) * | 2020-09-08 | 2022-01-18 | Rovi Guides, Inc. | Systems and methods for generating virtual reality scenes |
JP2022046316A (ja) * | 2020-09-10 | 2022-03-23 | キヤノン株式会社 | 情報提示システム、その制御方法、および、プログラム |
CN112181139B (zh) * | 2020-09-17 | 2022-04-15 | 东北大学 | 一种虚拟现实和混合现实的协作控制交互方法 |
CN116547582A (zh) * | 2020-09-25 | 2023-08-04 | 苹果公司 | 视频透传电子设备的结构化显示关机 |
US11648959B2 (en) * | 2020-10-20 | 2023-05-16 | Argo AI, LLC | In-vehicle operation of simulation scenarios during autonomous vehicle runs |
KR20220074643A (ko) * | 2020-11-27 | 2022-06-03 | 가온미디어 주식회사 | 슬림형 xr 디바이스 및 그 제어 방법 |
KR20220093985A (ko) * | 2020-12-28 | 2022-07-05 | 삼성전자주식회사 | 이미지 지연 보정 방법 및 이를 이용한 장치 |
US20220254114A1 (en) * | 2021-02-08 | 2022-08-11 | CITA Equity Partners, LLC | Shared mixed reality and platform-agnostic format |
US11741918B1 (en) | 2021-02-22 | 2023-08-29 | Apple Inc. | Display with a vignetting mask |
WO2022197987A1 (en) * | 2021-03-19 | 2022-09-22 | Dolby Laboratories Licensing Corporation | Sensor data prediction |
CN117120912A (zh) * | 2021-04-06 | 2023-11-24 | 维耶尔公司 | 具有混合式显示器的ar系统 |
WO2022229943A1 (en) * | 2021-04-27 | 2022-11-03 | Elbit Systems Ltd | Optical see through (ost) head mounted display (hmd) system and method for precise alignment of virtual objects with outwardly viewed objects |
KR20220156331A (ko) * | 2021-05-18 | 2022-11-25 | 삼성전자주식회사 | 이미지 지연을 보정하기 위한 전자 장치 및 방법 |
US11570418B2 (en) | 2021-06-17 | 2023-01-31 | Creal Sa | Techniques for generating light field data by combining multiple synthesized viewpoints |
JP7365066B2 (ja) * | 2021-12-08 | 2023-10-19 | 株式会社palan | 表示システム |
KR20230088534A (ko) * | 2021-12-10 | 2023-06-20 | 삼성디스플레이 주식회사 | 표시장치 및 이의 구동방법 |
US11900840B2 (en) | 2021-12-13 | 2024-02-13 | Qualcomm Incorporated | Chrominance optimizations in rendering pipelines |
KR20230105139A (ko) * | 2022-01-03 | 2023-07-11 | 한국전자통신연구원 | 깊이 분포 기반 워핑 영상 혼합 방법 및 장치 |
GB202205618D0 (en) * | 2022-04-14 | 2022-06-01 | V Nova Int Ltd | Extended reality encoding |
US20230350213A1 (en) * | 2022-04-28 | 2023-11-02 | Dell Products, Lp | Method and apparatus for a frame, shroud, and face mask for a head mounted display device |
US20230350203A1 (en) * | 2022-04-29 | 2023-11-02 | Snap Inc. | Ar/vr enabled contact lens |
JP2023177951A (ja) * | 2022-06-03 | 2023-12-14 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイおよびコンテンツ表示システム |
US20240037698A1 (en) * | 2022-07-27 | 2024-02-01 | Rockwell Collins, Inc. | Head-frame symbology isolation for head worn display (hwd) |
WO2024029212A1 (ja) * | 2022-08-03 | 2024-02-08 | ソニーグループ株式会社 | 立体画像表示装置および立体画像表示方法 |
KR102617175B1 (ko) * | 2022-08-04 | 2023-12-27 | 주식회사 라온텍 | 화면 왜곡 보정이 가능한 디스플레이 장치 및 그의 화면 왜곡 보정 방법 |
US11797099B1 (en) * | 2022-09-19 | 2023-10-24 | Snap Inc. | Visual and audio wake commands |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3022558B1 (ja) | 1998-05-21 | 2000-03-21 | 日本電信電話株式会社 | 三次元表示方法及び装置 |
JP2000261832A (ja) | 1999-03-08 | 2000-09-22 | Nippon Telegr & Teleph Corp <Ntt> | 三次元表示方法およびヘッドマウントディスプレイ装置 |
JP2001320738A (ja) | 2000-05-12 | 2001-11-16 | Nippon Telegr & Teleph Corp <Ntt> | 三次元表示方法 |
JP2004109994A (ja) | 2002-08-30 | 2004-04-08 | Olympus Corp | 頭部装着型画像表示システム装置及びその画像処理方法 |
JP2004236191A (ja) | 2003-01-31 | 2004-08-19 | Nikon Corp | 画像表示装置 |
JP2004274642A (ja) | 2003-03-12 | 2004-09-30 | Nippon Telegr & Teleph Corp <Ntt> | 3次元映像情報の伝送方法 |
JP2007166277A (ja) | 2005-12-14 | 2007-06-28 | Nippon Telegr & Teleph Corp <Ntt> | 3次元画像情報の伝送方法、送信側装置および受信側装置 |
WO2016054092A1 (en) | 2014-09-29 | 2016-04-07 | Magic Leap, Inc. | Architectures and methods for outputting different wavelength light out of waveguides |
Family Cites Families (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5583656A (en) * | 1992-12-31 | 1996-12-10 | Eastman Kodak Company | Methods and apparatus for attaching compressed look-up table (LUT) representations of N to M-dimensional transforms to image data and for processing image data utilizing the attached compressed LUTs |
JP3212762B2 (ja) * | 1993-06-11 | 2001-09-25 | オリンパス光学工業株式会社 | 表示装置 |
US5594563A (en) * | 1994-05-31 | 1997-01-14 | Honeywell Inc. | High resolution subtractive color projection system |
US5760636A (en) * | 1996-06-28 | 1998-06-02 | Intel Corporation | Adjusting clock frequency and voltage supplied to a processor in a computer system |
US6988214B1 (en) * | 2000-11-06 | 2006-01-17 | Dell Products L.P. | Processor power state transistions using separate logic control |
JP3755593B2 (ja) * | 2002-03-26 | 2006-03-15 | セイコーエプソン株式会社 | 投写型画像表示システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法 |
HUP0203993A2 (hu) * | 2002-11-19 | 2004-08-30 | László Domján | Binokuláris videoszemüveg optikai rendszere |
US7205960B2 (en) * | 2003-02-19 | 2007-04-17 | Mirage Innovations Ltd. | Chromatic planar optic display system |
EP1889171A4 (en) * | 2005-04-07 | 2012-11-28 | Visionsense Ltd | METHOD FOR RECONSTRUCTING A THREE-DIMENSIONAL SURFACE OF AN OBJECT |
JP4013989B2 (ja) * | 2006-02-20 | 2007-11-28 | 松下電工株式会社 | 映像信号処理装置、仮想現実感生成システム |
JP2009105593A (ja) * | 2007-10-23 | 2009-05-14 | Nikon Corp | ヘッドマウントディスプレイ装置 |
US8266507B2 (en) | 2007-11-16 | 2012-09-11 | Samsung Electronics Co., Ltd. | Data processing apparatus for operating lens correction and method for compressing and restoring lookup table values |
JP5094430B2 (ja) * | 2008-01-10 | 2012-12-12 | キヤノン株式会社 | 画像処理方法、画像処理装置、システム |
JP5078781B2 (ja) * | 2008-07-04 | 2012-11-21 | オリンパス株式会社 | 画像表示装置及び撮像装置 |
JP5388534B2 (ja) | 2008-10-09 | 2014-01-15 | キヤノン株式会社 | 画像処理装置およびその方法、頭部装着型ディスプレイ、プログラム、記録媒体 |
JP5341462B2 (ja) | 2008-10-14 | 2013-11-13 | キヤノン株式会社 | 収差補正方法、画像処理装置および画像処理システム |
US20110075257A1 (en) * | 2009-09-14 | 2011-03-31 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | 3-Dimensional electro-optical see-through displays |
US10180572B2 (en) | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
KR101222155B1 (ko) * | 2010-03-15 | 2013-01-15 | 한국과학기술원 | 어안렌즈를 이용한 증강현실 구현 시스템 및 그 구현 방법 |
JP5652037B2 (ja) * | 2010-07-30 | 2015-01-14 | 富士通株式会社 | 模擬映像生成装置、方法、プログラム |
JP5299383B2 (ja) * | 2010-08-20 | 2013-09-25 | 株式会社Jvcケンウッド | 画像補正装置および画像補正方法 |
US8595529B2 (en) * | 2010-12-16 | 2013-11-26 | Qualcomm Incorporated | Efficient power management and optimized event notification in multi-processor computing devices |
JP5948801B2 (ja) * | 2011-11-14 | 2016-07-06 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
US10509466B1 (en) * | 2011-05-11 | 2019-12-17 | Snap Inc. | Headwear with computer and optical element for use therewith and systems utilizing same |
US8670000B2 (en) * | 2011-09-12 | 2014-03-11 | Google Inc. | Optical display system and method with virtual image contrast control |
JP2013061442A (ja) * | 2011-09-13 | 2013-04-04 | Seiko Epson Corp | 電気光学装置 |
US8862338B2 (en) * | 2011-09-29 | 2014-10-14 | Cnh Industrial Canada, Ltd. | Method and apparatus for auto-leveling of bulk fill hopper frame |
JP5779512B2 (ja) * | 2012-01-24 | 2015-09-16 | 株式会社ソシオネクスト | 画像の光学歪み補正装置,画像の光学歪み補正方法,および,画像の光学歪み補正装置を有する画像生成装置 |
CN104115491A (zh) * | 2012-02-22 | 2014-10-22 | 索尼公司 | 显示装置、图像处理装置和图像处理方法、以及计算机程序 |
KR101222153B1 (ko) * | 2012-05-21 | 2013-01-15 | 한국과학기술원 | 어안렌즈를 이용한 증강현실 구현 시스템 및 그 구현 방법 |
US8793518B2 (en) * | 2012-06-13 | 2014-07-29 | Dell Products Lp | Systems and methods for providing supplemental power to battery powered information handling systems |
JP5929567B2 (ja) * | 2012-07-03 | 2016-06-08 | ソニー株式会社 | 画像信号処理装置、および画像信号処理方法、並びにプログラム |
US20150237323A1 (en) * | 2012-07-23 | 2015-08-20 | Thomlson Licensing | 3d video representation using information embedding |
WO2014115400A1 (ja) * | 2013-01-22 | 2014-07-31 | ソニー株式会社 | 投影型画像表示装置、画像処理装置及び画像処理方法、並びにコンピューター・プログラム |
US20140376773A1 (en) * | 2013-06-21 | 2014-12-25 | Leap Motion, Inc. | Tunable operational parameters in motion-capture and touchless interface operation |
US9443355B2 (en) * | 2013-06-28 | 2016-09-13 | Microsoft Technology Licensing, Llc | Reprojection OLED display for augmented reality experiences |
US9514571B2 (en) * | 2013-07-25 | 2016-12-06 | Microsoft Technology Licensing, Llc | Late stage reprojection |
US11402629B2 (en) | 2013-11-27 | 2022-08-02 | Magic Leap, Inc. | Separated pupil optical systems for virtual and augmented reality and methods for displaying images using same |
CN107315249B (zh) * | 2013-11-27 | 2021-08-17 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9652893B2 (en) * | 2014-04-29 | 2017-05-16 | Microsoft Technology Licensing, Llc | Stabilization plane determination based on gaze location |
US9983663B2 (en) * | 2014-05-16 | 2018-05-29 | Qualcomm Incorporated | Imaging arrangement for object motion detection and characterization |
US10438331B2 (en) | 2014-06-26 | 2019-10-08 | Intel Corporation | Distortion meshes against chromatic aberrations |
JP2016016856A (ja) * | 2014-07-04 | 2016-02-01 | 現代自動車株式会社Hyundaimotor Company | 車両ランプ用光学モジュールの故障判断方法および装置 |
US10368011B2 (en) * | 2014-07-25 | 2019-07-30 | Jaunt Inc. | Camera array removing lens distortion |
US20160025971A1 (en) * | 2014-07-25 | 2016-01-28 | William M. Crow | Eyelid movement as user input |
US9462189B2 (en) * | 2014-07-31 | 2016-10-04 | Apple Inc. | Piecewise perspective transform engine |
WO2016032973A1 (en) * | 2014-08-25 | 2016-03-03 | Schepens Eye Research Institute | Compensating 3d stereoscopic imagery |
US9836828B2 (en) * | 2015-04-22 | 2017-12-05 | Esight Corp. | Methods and devices for optical aberration correction |
CN114998557A (zh) * | 2015-08-18 | 2022-09-02 | 奇跃公司 | 虚拟和增强现实系统和方法 |
US20170115489A1 (en) * | 2015-10-26 | 2017-04-27 | Xinda Hu | Head mounted display device with multiple segment display and optics |
US20170169612A1 (en) | 2015-12-15 | 2017-06-15 | N.S. International, LTD | Augmented reality alignment system and method |
KR101785027B1 (ko) * | 2016-01-14 | 2017-11-06 | 주식회사 라온텍 | 화면 왜곡 보정이 가능한 디스플레이 장치 및 이를 이용한 화면 왜곡 보정 방법 |
CN105791789B (zh) * | 2016-04-28 | 2019-03-19 | 努比亚技术有限公司 | 头戴设备、显示设备及自动调整显示输出的方法 |
US10156723B2 (en) * | 2016-05-12 | 2018-12-18 | Google Llc | Display pre-distortion methods and apparatus for head-mounted displays |
CN109863533B (zh) | 2016-08-22 | 2024-03-15 | 奇跃公司 | 虚拟、增强和混合现实系统和方法 |
US10955685B2 (en) * | 2018-12-28 | 2021-03-23 | Lightspace Technologies, SIA | Volumetric display arrangement and a method for representing content of an image |
-
2017
- 2017-08-22 CN CN201780065160.6A patent/CN109863533B/zh active Active
- 2017-08-22 KR KR1020217012256A patent/KR102357273B1/ko active IP Right Grant
- 2017-08-22 AU AU2017317600A patent/AU2017317600B2/en active Active
- 2017-08-22 US US15/683,677 patent/US10529063B2/en active Active
- 2017-08-22 EP EP17844304.0A patent/EP3500977B1/en active Active
- 2017-08-22 KR KR1020227002570A patent/KR102566791B1/ko active IP Right Grant
- 2017-08-22 JP JP2019510409A patent/JP6880174B2/ja active Active
- 2017-08-22 KR KR1020197008251A patent/KR102246836B1/ko active IP Right Grant
- 2017-08-22 KR KR1020247003927A patent/KR20240024290A/ko active Application Filing
- 2017-08-22 CA CA3034384A patent/CA3034384A1/en active Pending
- 2017-08-22 IL IL307594A patent/IL307594A/en unknown
- 2017-08-22 IL IL287380A patent/IL287380B2/en unknown
- 2017-08-22 KR KR1020237026979A patent/KR102634343B1/ko active IP Right Grant
- 2017-08-22 WO PCT/US2017/048069 patent/WO2018039270A1/en active Application Filing
- 2017-08-22 EP EP23174743.7A patent/EP4235391A3/en active Pending
-
2019
- 2019-02-05 IL IL264666A patent/IL264666B/en active IP Right Grant
- 2019-11-27 US US16/697,711 patent/US10748259B2/en active Active
-
2020
- 2020-07-10 US US16/926,484 patent/US11151699B2/en active Active
- 2020-08-06 IL IL276547A patent/IL276547B/en unknown
- 2020-08-19 JP JP2020138439A patent/JP7397777B2/ja active Active
-
2021
- 2021-09-15 US US17/476,392 patent/US11823360B2/en active Active
-
2022
- 2022-03-08 AU AU2022201611A patent/AU2022201611B2/en active Active
- 2022-10-07 JP JP2022162258A patent/JP2023015037A/ja active Pending
-
2023
- 2023-02-28 AU AU2023201212A patent/AU2023201212A1/en active Pending
- 2023-10-16 US US18/487,794 patent/US20240046433A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3022558B1 (ja) | 1998-05-21 | 2000-03-21 | 日本電信電話株式会社 | 三次元表示方法及び装置 |
JP2000261832A (ja) | 1999-03-08 | 2000-09-22 | Nippon Telegr & Teleph Corp <Ntt> | 三次元表示方法およびヘッドマウントディスプレイ装置 |
JP2001320738A (ja) | 2000-05-12 | 2001-11-16 | Nippon Telegr & Teleph Corp <Ntt> | 三次元表示方法 |
JP2004109994A (ja) | 2002-08-30 | 2004-04-08 | Olympus Corp | 頭部装着型画像表示システム装置及びその画像処理方法 |
JP2004236191A (ja) | 2003-01-31 | 2004-08-19 | Nikon Corp | 画像表示装置 |
JP2004274642A (ja) | 2003-03-12 | 2004-09-30 | Nippon Telegr & Teleph Corp <Ntt> | 3次元映像情報の伝送方法 |
JP2007166277A (ja) | 2005-12-14 | 2007-06-28 | Nippon Telegr & Teleph Corp <Ntt> | 3次元画像情報の伝送方法、送信側装置および受信側装置 |
WO2016054092A1 (en) | 2014-09-29 | 2016-04-07 | Magic Leap, Inc. | Architectures and methods for outputting different wavelength light out of waveguides |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7397777B2 (ja) | 仮想現実、拡張現実、および複合現実システムおよび方法 | |
JP7454627B2 (ja) | 仮想および拡張現実システムならびに方法 | |
CN118115357A (zh) | 虚拟、增强和混合现实系统和方法 | |
NZ791444A (en) | Virtual, augmented, and mixed reality systems and methods | |
NZ791441A (en) | Virtual, augmented, and mixed reality systems and methods | |
Das et al. | NextGen XR Requirements State-of-the-Art |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220113 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221007 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221007 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221019 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221020 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20221111 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20221115 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20221122 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230315 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20230403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7397777 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |