CN110520781A - 可转向中央凹显示器 - Google Patents
可转向中央凹显示器 Download PDFInfo
- Publication number
- CN110520781A CN110520781A CN201880021927.XA CN201880021927A CN110520781A CN 110520781 A CN110520781 A CN 110520781A CN 201880021927 A CN201880021927 A CN 201880021927A CN 110520781 A CN110520781 A CN 110520781A
- Authority
- CN
- China
- Prior art keywords
- display
- central fovea
- field
- image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 64
- 210000001508 eye Anatomy 0.000 claims description 118
- 230000033001 locomotion Effects 0.000 claims description 28
- 238000002156 mixing Methods 0.000 claims description 25
- 230000001360 synchronised effect Effects 0.000 claims description 15
- 238000005520 cutting process Methods 0.000 claims description 13
- 230000004424 eye movement Effects 0.000 claims description 12
- 238000012795 verification Methods 0.000 claims description 5
- 230000008447 perception Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 2
- 229910052934 alunite Inorganic materials 0.000 claims 2
- 239000010424 alunite Substances 0.000 claims 2
- 230000011514 reflex Effects 0.000 claims 2
- KPZTWMNLAFDTGF-UHFFFAOYSA-D trialuminum;potassium;hexahydroxide;disulfate Chemical compound [OH-].[OH-].[OH-].[OH-].[OH-].[OH-].[Al+3].[Al+3].[Al+3].[K+].[O-]S([O-])(=O)=O.[O-]S([O-])(=O)=O KPZTWMNLAFDTGF-UHFFFAOYSA-D 0.000 claims 2
- 239000003205 fragrance Substances 0.000 claims 1
- 238000000034 method Methods 0.000 description 50
- 230000008569 process Effects 0.000 description 45
- 230000003287 optical effect Effects 0.000 description 42
- 238000012545 processing Methods 0.000 description 20
- 230000008859 change Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 19
- 238000009877 rendering Methods 0.000 description 11
- 238000003860 storage Methods 0.000 description 10
- 241000287181 Sturnus vulgaris Species 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000003321 amplification Effects 0.000 description 5
- 238000003199 nucleic acid amplification method Methods 0.000 description 5
- 230000010287 polarization Effects 0.000 description 5
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000005043 peripheral vision Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 238000005096 rolling process Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000004304 visual acuity Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000000571 coke Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 239000004606 Fillers/Extenders Substances 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 241001300078 Vitrea Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000004925 denaturation Methods 0.000 description 1
- 230000036425 denaturation Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000009885 systemic effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
- G09G5/026—Control of mixing and/or overlay of colours in general
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0123—Head-up displays characterised by optical features comprising devices increasing the field of view
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0147—Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/10—Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Controls And Circuits For Display Device (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种显示系统位于至少20度的可扫描视场内,所述显示系统包括中央凹显示器,所述中央凹显示器具有至少1度的单目视场,所述中央凹显示器是针对用户而定位。在一个实施例中,所述中央凹显示器是针对所述用户的中央凹而定位。
Description
相关申请
本申请要求2017年3月27日提交的第62/477,404号美国临时申请和2017年10月20日提交的第62/575,354号美国临时申请的优先权,所述两个申请的全文并入本申请中。
背景技术
近眼显示器具有在大视场(FOV)范围内以高分辨率显示图像的竞争要求。对于虚拟和增强现实中的许多应用,视场应大于90度,并且理想地,双目视场将延伸超过180度。同时,显示器的分辨率应与人类视觉系统的分辨率匹配,使得在虚拟图像中几乎不会感知到像素化。在单个系统中组合这两个要求会带来许多挑战。为了避免出现像素化,分辨率需要为每像素大约0.01到0.02度。在90度方形视场范围内,这相当于每只眼睛4.5k×4.5k像素或更高。在面板、驱动电子设备和渲染管道的层面,实现此类分辨率会有挑战性。
另外,可以在整个视场范围内以足够高的分辨率向用户投影宽FOV图像的光学系统也难以设计。能够在宽视场范围内向用户呈现高分辨率图像、同时降低渲染、数据速率和面板要求的系统架构将为增强和虚拟现实系统实现新的应用。
附图说明
通过示例而非限制的方式在附图中示出了本发明,其中相同的附图标记表示类似的元件,并且其中:
图1A示出眼睛,其展示了中央凹。
图1B示出眼睛的视觉范围。
图1C示出距中央凹中心的距离与视觉敏锐度之间的关系。
图1D示出示例性竖直视场。
图1E示出示例性水平视场。
图1F示出具有第一示例性凝视向量的眼睛。
图1G示出针对图1F所展示的第一示例性凝视向量的可转向中央凹显示器的位置。
图1H示出具有第二示例性凝视向量的眼睛。
图1I示出针对图1H所展示的第二示例性凝视向量的可转向中央凹显示器的位置。
图1J示出双目显示器的一个实施例,其展示了针对每只眼睛的中央凹显示器和场显示器。
图1K示出双目显示器的一个实施例,其展示了针对每只眼睛的中央凹显示器,以及共享场显示器。
图2是系统的一个实施例的框图。
图3是在可移动中央凹显示器中高分辨率区域随时间推移的移动的一个实施例的图示。
图4A和4B是利用显示器的一个实施例的流程图。
图5A是混合显示器的一个实施例的图示。
图5B是使用滚降放大的显示器的一个实施例的图示。
图6是混合显示器的一个实施例的图示。
图7是混合显示器的一个实施例的图示。
图8是混合显示器的一个实施例的图示。
图9是混合显示器的一个实施例的图示。
图10是混合显示器的一个实施例的图示。
图11是混合显示器的一个实施例的图示。
图12是使用时间复用的混合显示器的一个实施例的图示。
图13A和13B是使用时间复用的混合显示器的一个实施例的图示。
图14A和14B是使用可以用于上述系统的波导的中央凹显示器的一个实施例的图示。
图15A和15B是使用可以用于上述系统的波导的场显示器的一个实施例的图示。
图16A是混合显示系统的另一个实施例的图示。
图16B是混合显示系统的另一个实施例的图示。
图17是使用具有外部显示器的中央凹显示器的一个实施例的流程图。
图18是在没有相关联的较大显示器的情况下使用中央凹显示器的一个实施例的流程图。
图19是调合中央凹显示器的边缘的一个实施例的流程图。
图20是使用眼睛运动分类的一个实施例的流程图。
图21是示例性类型的眼睛运动的表。
图22是智能定位的一个实施例的流程图。
图23是可以与本发明一起使用的计算机系统的一个实施例的框图。
具体实施方式
本申请公开了一种可转向中央凹显示器,被称为中央凹显示器。在一个实施例中,中央凹显示器被定位成提供用户的中央凹所处的高分辨率区域。“中央凹”是眼睛的视网膜中的小凹陷,在所述小凹陷中,视觉敏锐度最高。图1A示出眼睛,其展示了视网膜和中央凹。视场中心聚焦在此区,视网膜锥体尤其集中在此区。中央凹中心是视网膜的具有最高分辨率的区,但是具有大约2度的视场。图1B中示出从最高分辨率的中央凹区到最低分辨率的远外围区的视觉敏锐度区。相比于远离中央凹中心20度,眼睛的分辨率减低了几乎一个数量级。图1C示出基于距中央凹中心的距离(偏心率)的敏锐度下降(斯涅伦小数(Snellenfraction))。
在一个实施例中,系统通过提供可转向中央凹显示器来利用这一点,所述可转向中央凹显示器被引导成与用户眼睛的视场中心或另一个计算位置对准。在一个实施例中,场显示器在较大视场范围内提供较低分辨率的场显示图像。这意味着用户在其外围视觉中以及在其凝视方向上感知图像。在一个实施例中,系统使用中央凹显示器提供主要朝向用户眼睛的视场中心引导的高分辨率图像,以及利用第二场显示器在大视场范围内提供场显示图像。这意味着用户在其外围视觉中以及在其凝视方向上感知图像。在一个实施例中,系统针对每只眼睛使用高像素密度显示器以在小视场范围内呈现高分辨率图像,并且在大视场范围内呈现较低分辨率图像以填充双目区和外围区。在一个实施例中,中央凹显示器的分辨率介于每像素0.2弧分与每像素3弧分之间。在一个实施例中,场显示器的分辨率介于每像素1弧分与每像素20弧分之间。在一个实施例中,场显示器和中央凹显示器可以组合在单个可变像素显示器中。在一个实施例中,系统针对每只眼睛使用可变像素密度显示器以在小视场范围内将高分辨率图像呈现到每只眼睛的中央凹区,并且在大视场范围内呈现较低分辨率图像以填充双目区和外围区。在一个实施例中,可变像素密度显示器可以是以可变密度寻址的标准显示器。
此类系统产生了具有宽视场的高分辨率图像的感知,同时仅需要具有同样高的感知分辨率的传统近眼显示器的像素数量或处理量的一小部分。在一个实施例中,此类系统还通过减少所渲染的像素数量来显著地降低渲染系统的功耗。
在一个实施例中,所述系统可以包含两个以上显示器。在一个实施例中,可以存在三个级别的分辨率,覆盖每只眼睛的中央凹区域、双目重叠区域,以及外围区域。在一个实施例中,针对多个显示器和分辨率的视频图像可以聚合在一起。在另一个实施例中,针对多个显示器和分辨率的视频图像可以是分开的。
图1D示出示例性竖直视场,其展示了55度的聚焦区域或舒适区,以及外围区域。符号识别区域在竖直方向上为大约30度。
图1E示出示例性水平视场,其展示了60度的聚焦区域和30度的符号识别区,以及外围视觉区域和135度的全双目范围。除此之外,还存在单目范围(针对右眼和左眼),以及仅在用户使眼睛移位时才可见的颞侧范围。
在一个实施例中,可转向中央凹显示器位于竖直和水平的30度符号识别区域内。在另一个实施例中,可转向中央凹显示器位于55度竖直和60度水平聚焦区域/舒适区内。
图1F和1G示出针对一只眼睛的中央凹显示器的视场。在一个实施例中,中央凹显示器110被定位成以凝视向量105为中心。凝视向量限定眼睛的视场中心。
在一个实施例中,中央凹显示器110的视场是跨越1度的最小视场和跨越20度的最大视场的单目视场。在一个实施例中,场显示器120的视场提供跨越40度的单目视场,以及至多为全单目范围。视场的全单目范围通常被视为朝向鼻子60度、远离鼻子107度、高于水平方向70度和低于水平方向80度。
在一个实施例中,场显示器120可以在中央凹显示器110的范围之外提供图像数据。图1F提供俯视图,其展示了眼睛,以及以凝视向量105为中心的中央凹显示器110的视场。图1G提供正视图,其展示了中央凹显示器110的视场的示例性位置。在一个实施例中,中央凹显示器110具有介于20度与160度之间的总可扫描视场160,所述中央凹显示器可以位于所述总可扫描视场内。如上所述,中央凹显示器110具有至少1度的单目视场。在一个实施例中,中央凹显示器中央凹110具有10度的单目视场,并且中央凹显示器的总可扫描视场160为60度。这使得能够使中央凹显示器110位于正确的位置。
图1H和1I展示随着用户向上和向左看而位于不同位置的中央凹显示器110的视场。在此配置中可以看出,中央凹显示器110的视场移动,并且场显示器的视场在中央凹显示器110的视场上方和下方的部分不均匀。图1I从正面展示显示器的视场的示例性定位。
使用包含中央凹显示器与场显示器的组合的系统产生了具有宽视场的高分辨率图像的感知,同时仅需要传统近眼显示器的像素数量和处理量的一小部分。在一个实施例中,此类系统还通过减少所渲染的像素数量来显著地降低渲染系统的功耗。
在一个实施例中,所述系统可以包含每只眼睛两个以上显示器。在一个实施例中,可以存在三个级别的分辨率,覆盖每只眼睛的中央凹区域、双目重叠区域,以及外围区域。在另一个实施例中,所述系统仅包含可转向中央凹显示器,并且场显示器可以由外部系统提供。在另一个实施例中,所述系统可以仅由可转向中央凹显示器组成,而没有相关联的场显示器。
图1J示出双目显示器的一个实施例,其包含右眼中央凹显示器110A的视场和左眼中央凹显示器110B的视场。对于右眼150A和左眼150B中的每一个,还存在具有较大视场的场显示器,分别为120A和120B。在一个实施例中,场显示器视场120A、120B至少延伸通过聚焦区域。
图1K示出双目显示器的一个实施例,其包含右眼中央凹显示器110A的视场和左眼中央凹显示器110B的视场。然而,在此配置中,场显示器170是横跨用户的视场延伸的单个显示器。在一个实施例中,中央凹显示器和场显示器可以是集成到例如护目镜的可穿戴显示器中的显示器。在另一个实施例中,中央凹显示器可以是可穿戴装置的一部分,而场显示器是分开的显示器,例如投影仪或屏幕。
图2示出示例性光学系统210、280和相关联的处理系统238的一个实施例。在一个实施例中,处理系统可以实施在包含处理器的计算机系统中。在一个实施例中,处理系统238可以是显示系统的一部分。在另一个实施例中,处理系统238可以是远程的。在一个实施例中,光学系统210、280可以实施在例如头戴式显示器的可穿戴系统中。中央凹图像是通过右眼中央凹显示器220和左眼中央凹显示器230呈现给用户的眼睛,右眼中央凹显示器220和左眼中央凹显示器230引导中央凹显示器。在一个实施例中,中央凹显示器220、230主要朝向用户眼睛的视场中心引导中央凹显示图像。在另一个实施例中,图像可以被引导到不同的位置,如下文将描述。
右眼的中央凹图像是使用第一显示元件222产生的。在一个实施例中,显示元件是数字微镜装置(DMD)。在一个实施例中,显示元件222是扫描微镜装置。在一个实施例中,显示元件222是扫描光纤装置。在一个实施例中,显示元件是有机发光二极管(OLED)。在一个实施例中,显示元件222是硅上液晶(LCOS)面板。在一个实施例中,显示元件222是液晶显示器(LCD)面板。在一个实施例中,显示元件222是微LED或微发光二极管(μLED)面板。在一个实施例中,显示元件是扫描激光系统。在一个实施例中,所述系统是具有离轴全息光学元件(HOE)的混合系统。在一个实施例中,所述系统包含波导。在一个实施例中,波导是多层波导。在一个实施例中,显示元件可以包含此类元件的组合。以下的图5到16更详细地讨论了显示元件。
在一个实施例中,第一显示元件222位于例如眼镜或护目镜的近眼装置中。
中央凹显示器的焦点和视场是使用中间光学元件224设置的。中间光学元件224可以包含但不限于透镜、反射镜和衍射光学元件。在一个实施例中,虚拟图像的焦点被设置为无穷大。在另一个实施例中,虚拟图像的焦点被设置为较接近无穷大。在一个实施例中,虚拟图像的焦点可以改变。在一个实施例中,虚拟图像可以具有同时感知的两个或更多个焦距。
在一个实施例中,中央凹显示图像主要朝向用户眼睛的视场中心引导。在一个实施例中,中央凹显示图像的视场(FOV)大于1度。在一个实施例中,中央凹显示图像的FOV介于1度与20度之间。在一个实施例中,中央凹显示图像可以大于5度,以处理眼睛跟踪的不准确性,提供成功地调合使得用户不能感知到调合所需要的区,并且考虑针对各种类型的眼睛运动重新定位中央凹显示器所花费的时间。
在一个实施例中,所述系统还包含较低分辨率的场显示图像,所述较低分辨率的场显示图像具有20到220度的视场。
在一个实施例中,中央凹显示图像是使用一组一个或多个完全或部分透明的定位元件226直接投影到用户的眼睛上。在一个实施例中,定位元件226包含可转向反射镜。在一个实施例中,定位元件226包含曲面反射镜。在一个实施例中,定位元件226包含菲涅耳反射器(Fresnel reflector)。在一个实施例中,定位元件226包含衍射元件。在一个实施例中,衍射元件是表面浮雕光栅。在一个实施例中,衍射元件是体积全息图。在一个实施例中,显示器220可以包含焦点调节器223,焦点调节器223使得显示器能够在同一个帧中的多个焦距处展示图像元素。在一个实施例中,焦点调节器223可以是光程长度延长器,如2016年12月8日提交的第15/236,101号美国专利申请中所描述。
对于左眼中央凹显示器230存在类似的一组元件。在一个实施例中,右眼中央凹显示器220和左眼中央凹显示器230匹配。在另一个实施例中,它们可以包含不同的元件。
在一个实施例中,眼睛跟踪器240跟踪用户的凝视向量,例如眼睛正在看的位置。在一个实施例中,眼睛跟踪系统是基于相机的眼睛跟踪系统240。在一个实施例中,眼睛跟踪系统240是具有接收传感器的红外扫描激光器。可以使用其它眼睛跟踪机构。中央凹位置计算器245基于来自眼睛跟踪系统240的数据确定用户的视场中心。
在一个实施例中,可调节定位元件226、236用于调节中央凹显示器220、230,以将中央凹图像定位成主要朝向用户眼睛的视场中心引导。在一个实施例中,通过改变反射镜——定位元件226、236中的一个——的角度来调节图像的方向。在一个实施例中,通过使用电磁力来改变反射镜的角度。在一个实施例中,通过使用静电力来改变反射镜的角度。在一个实施例中,通过使用压电力来改变反射镜的角度。在一个实施例中,可调节元件是图像源或显示元件222、232,其移动以定位图像。在一个实施例中,中央凹图像被定位成引导到用户眼睛的视场中心。在另一个实施例中,可以改变另一个定位元件226、236,例如转向元件226、236。
场显示器280经由通信逻辑270、290与处理系统238通信。在一个实施例中,可以存在多个显示器。这里指示了两个场显示器:场显示器285和外围显示器288。还可以展示额外级别的分辨率。在一个实施例中,场显示器280可以包含由用户的双眼观看的单个场显示器285,或每只眼睛观看一个场显示器。在一个实施例中,场显示器280可以具有可变分辨率。
在一个实施例中,当场显示器280是分开的系统时,使用同步信号生成器292以使独立的中央凹显示器210的显示与场显示器280的显示同步。在一个实施例中,使用同步信号生成器292以使可调节反射镜或者中央凹显示器的其它定位元件与场显示器同步。这会引起所述显示器同步。在一个实施例中,场显示器280包含调合器系统294,调合器系统294用于将中央凹显示图像的边缘与场显示图像的边缘调合,以确保过渡是平滑的。
在一个实施例中,较低分辨率的场显示图像是利用完全或部分透明的光学系统呈现给用户。在一个实施例中,此部分透明的系统包含波导光学系统。在一个实施例中,此部分透明的系统包含部分反射镜,所述部分反射镜可以是平坦的或具有光功率。在一个实施例中,此部分透明的系统包含衍射光学元件。在一个实施例中,此图像是通过直视光学系统呈现给用户。在一个实施例中,此部分透明的系统包含用于反射或散射光的内含物。
在场显示器280的一个实施例中,使用额外的显示子系统以在单眼视外围视图288的区中显示图像。在一个实施例中,此子系统是LED阵列。在一个实施例中,此子系统是OLED阵列。在一个实施例中,此显示子系统使用扫描激光器。在一个实施例中,此子系统使用LCD面板。在一个实施例中,此子系统没有中间光学元件来操纵图像的FOV或焦点。在一个实施例中,此子系统具有中间光学元件。在一个实施例中,这些中间光学元件包含微透镜阵列。
由可转向中央凹显示器210和场显示器280显示的图像数据是由处理系统238生成。在一个实施例中,所述系统包含眼睛跟踪器240。在一个实施例中,眼睛跟踪器240跟踪用户的凝视向量,例如眼睛正在看的位置。在一个实施例中,眼睛跟踪系统是基于相机的眼睛跟踪系统240。替代地,眼睛跟踪系统240可以基于红外激光器。中央凹位置计算器245基于来自眼睛跟踪系统240的数据确定用户的视场中心。
在一个实施例中,处理系统238还包含中央凹位置验证器247,中央凹位置验证器247验证定位元件226、236的定位,以确保显示器220、230适当地定位。在一个实施例中,这包含根据中央凹显示器的移动而相对于用户眼睛的视场中心重新评估中央凹显示器位置。在一个实施例中,中央凹位置验证器247使用感测机构提供反馈以校验定位元件已到达其目标位置。在一个实施例中,感测机构可以是相机。在一个实施例中,感测机构可以是传动装置。感测机构可以是可以确定光学元件的位置的另一种类型的传感器。在一个实施例中,如果中央凹显示器的实际位置不是目标位置,则中央凹位置验证器247可以更改显示器以提供正确的图像数据。下文更详细地描述此情况。
在一个实施例中,眼睛运动分类器260可以用于预测用户的凝视向量将在何处移动。预测定位器265可以使用此数据以基于用户的凝视向量的下一个位置来移动中央凹显示器220、230。在一个实施例中,智能定位器267可以利用例如眼睛运动分类和眼睛跟踪的用户数据来预测性地定位显示器220、230。在一个实施例中,智能定位器267可以另外使用关于要显示的帧中即将出现的数据的数据来识别针对显示器220、230的最佳定位。在一个实施例中,智能定位器267可以使显示器220、230位于未由凝视向量指示的位置。例如,如果所显示的帧数据仅具有少量相关数据(例如在原本暗的屏幕上照亮的蝴蝶),或帧的意图是使观看者看到特定位置。
处理系统238还可以包含切断逻辑250。切断逻辑250限定中央凹显示器220、230的位置,并将带有切断的显示信息提供给相关联的场显示器280。场显示器280渲染此数据以生成较低分辨率的场显示图像,包含在场显示器中切断图像的对应部分。这确保了中央凹图像与场图像之间没有干扰。在一个实施例中,当存在切断时,调合器逻辑255将切断的边缘与中央凹图像调合以确保过渡是平滑的。在另一个实施例中,中央凹显示器可以用于显示子画面,所述子画面是覆叠在较低分辨率的场图像之上的较亮元素。在此类情况下,切断逻辑250和调合器逻辑255都不是必要的。在一个实施例中,可以根据需要选择性地激活切断逻辑250和调合器逻辑255。
在一个实施例中,所述系统可以使中央凹显示器210与独立的场显示器280同步。在这种情况下,在一个实施例中,同步逻辑272使所述显示器同步。在一个实施例中,独立的场显示器280与可调节反射镜或者中央凹显示器210的其它定位元件同步。这会引起所述显示器同步。场显示器280可以接收定位数据。在一个实施例中,在这种情况下可能没有切断。
在一个实施例中,处理系统238可以包含用于中央凹显示器210的光学畸变系统275,光学畸变系统275具有从图像的中心到边缘增加的畸变。这种有意的畸变将会使像素在从中央凹图像的中心移动到边缘的感知大小上增加。感知分辨率的这种改变将会减少所需要的处理量,因为将会需要较少的像素来覆盖中央凹显示图像的同一个角区域。
图5B示出随着与光轴所成的角度增加而具有较低分辨率的畸变图像的示例。光学畸变可以有助于中央凹显示器210与场显示器280之间的调合。在另一个实施例中,可以在没有场显示器的情况下使用包含光学畸变系统275的中央凹显示器210。它还提供了较简单的光学设计,并节省了调合处理。
在一个实施例中,可变分辨率的高度畸变图像具有中心与边缘之间的大比率。此显示器的总FOV将很大(至多180度)。
在一个实施例中,滚降逻辑277在显示器的边缘处提供滚降。在一个实施例中,滚降可以包含分辨率滚降(朝向显示区域的边缘减低分辨率)。在一个实施例中,这可以通过光学畸变系统275的放大来实施。在一个实施例中,滚降包含亮度和/或对比度滚降(朝向边缘减低亮度和/或对比度)。此类滚降被设计成减小显示器边缘的突变性。在一个实施例中,滚降可以被设计成滚降成“无(nothing)”,即,从全亮度/对比度逐渐减低到灰色或黑色或环境颜色。在一个实施例中,当没有相关联的场显示器时,可以由中央凹显示器210使用滚降逻辑277。在一个实施例中,当系统中存在场显示器时,滚降逻辑297可以是场显示器280的一部分。
图3示出当用户的眼睛运动时中央凹图像随时间推移的移动的一个实施例。在任何时间实例中,都存在小的区,中央凹图像被显示到所述区。高分辨率(在此示例中)的5度显示的位置聚焦在用户的视场中心。低分辨率的场图像提供大视场。但是,因为眼睛在中央凹区域之外的相对分辨率较低,所以用户将包含小的高分辨率的中央凹图像和较大的低分辨率的场图像的此组合图像感知为横跨大视场的高分辨率。
图4A是利用中央凹显示器的一个实施例的流程图。过程在框410处开始。在一个实施例中,在此过程开始之前,将显示系统装配到用户。此初始设置包含确定瞳孔间距(IPD)和所需要的任何规定,以确保用户的“基线”显示是准确的。
在框415处,跟踪用户的眼睛。在一个实施例中,使用IR相机来跟踪眼睛。在一个实施例中,眼睛跟踪识别用户的凝视向量,例如用户聚焦的位置。眼睛跟踪可以识别左眼和右眼凝视向量/角度,以及凝视中心(从左眼/右眼凝视向量导出)。眼睛跟踪可以确定左眼和右眼相对于基线参考系的位置(X、Y、Z)和取向(横摇、俯仰、偏航)。在一个实施例中,在最初将显示器装配到用户并且建立了用户的瞳孔间距、屈光度和其它相关数据时建立基线参考系。
在框420处,基于凝视向量数据确定中央凹的位置。在一个实施例中,中央凹位置包含每只眼睛的坐标(X、Y、Z)和取向(横摇、俯仰、偏航)。
在框425处,过程确定是否应重新定位中央凹显示器。这是基于将中央凹显示器的当前位置与用户的凝视向量或中央凹图像的预期位置进行比较。如果它们未对准,则系统确定应重新定位中央凹显示器。如果应重新定位中央凹显示器,则在框430处重新定位显示器。在一个实施例中,如果中央凹显示器移动超过特定距离,则在移动期间关闭显示器。这确保了用户不会感知到移动。在一个实施例中,所述特定距离大于0.5度。在一个实施例中,如果在用户眨眼时发生移动,则不关闭中央凹显示器。应注意,尽管使用术语“重新定位”,但是这通常并不意味着目镜进行物理移动。在一个实施例中,使用定位所述显示器的反射镜或其它光学元件来更改中央凹图像的中心定位。过程然后继续到框435,而无论是否重新定位显示器。
在框435处,任选地,系统切断场显示器的将与中央凹显示器位于同一个位置的部分。这会防止场显示器干扰中央凹显示器。在一个实施例中,在渲染引擎处执行切断。在另一个实施例中,中央凹图像可以是子画面,或是不需要将被清除的切断的其它亮图像元素。在所述情况下,可以跳过此框。在一个实施例中,如果用户眼睛跟踪指示用户的凝视已从基线参考大致上移动,则跳过切断。基线参考是用户的默认凝视位置,从此默认凝视位置跟踪凝视的移动。从基线参考的大致移动意味着系统无法确定用户的正确凝视位置。在这种情况下,在一个实施例中,可以丢弃中央凹图像,或可以暂时关闭中央凹显示器。
在框440处,在一个实施例中,调合中央凹图像与场图像之间的边缘。这确保了场图像与中央凹图像之间的平滑且不易察觉的过渡。在框445处,将结合中央凹显示器和场显示器的混合图像显示给用户。过程然后返回到框410,以继续跟踪和显示。应注意,虽然本说明书谈论了中央凹图像和场图像,但是所考虑的图像包含视频的顺序图像。
图4B示出当显示器位置验证指示中央凹显示器的实际位置与预期位置不匹配时可采取的校正措施的一个实施例。过程在框450处开始。
在框452处,启动中央凹显示器定位。在一个实施例中,这对应于图4A的框430。返回到图4B,在框454处,校验中央凹显示器的实际位置。在一个实施例中,使用一个或多个传感器来确定中央凹显示器的位置和取向。在一个实施例中,传感器可以包含相机、检测可调节反射镜或其它定位元件的位置的机械元件等。
在框456处,过程确定中央凹显示器是否正确地定位。正确定位使中央凹显示器处于计算位置,以在适当位置为用户显示中央凹图像。如果中央凹显示器正确地定位,则在框464处显示图像。在一个实施例中,这包含显示包含计算位置中的中央凹图像和相关联的场显示图像的混合图像。过程然后在框475处结束。
如果在框456处,过程确定中央凹显示器未正确地定位,则过程继续到框458。
在框458处,过程确定是否有足够的时间来重新定位中央凹显示器。此确定是基于需要移动的距离、移动速度,以及直到处理系统将发送下一个图像的时间。在一个实施例中,此确定还取决于用户的眼睛运动。在一个实施例中,当没有感知到图像时,系统优先地在用户眨眼时移动中央凹显示器。在一个实施例中,在显示器的消隐时段内发生重新定位。例如,相比于显著地且在三个维度上移动中央凹显示器,沿着一个坐标仅仅一度的移动会花费较少的时间。如果有足够的时间,则过程返回到框452,以重新定位中央凹显示器。否则,过程继续到框460。
在框460处,过程确定中央凹显示器的实际位置是否在预期位置的范围内。在一个实施例中,在此内容背景下,“在范围内”意味着系统能够针对差异调节显示器。如果实际位置在范围内,则过程继续到框462。
在框462处,调节中央凹图像以在实际位置中渲染,并且在框464处显示图像。例如,在一个实施例中,如果位置差异非常小,则可以在错误的位置渲染原始计算中央凹图像,而不会造成视觉伪影。在另一个实施例中,可以调节中央凹图像以在实际位置适当地渲染。例如,可以对中央凹图像进行裁剪、调亮、畸变、对比度调节、色度坐标(白点)调节、裁剪和横向移位以考虑位置差异。在一个实施例中,可以使边缘调合的径向位置移位或改变。在一个实施例中,系统可能过度渲染,例如对于5度的中央凹显示器渲染5.5度的视觉图像,从而使得能够移位0.5度而无需重新渲染。
如果中央凹显示器不在范围内,则在框466处,在一个实施例中,将帧数据发送到场显示器以进行渲染。在框468处,在一个实施例中,不显示中央凹图像。在一个实施例中,丢弃帧。在另一个实施例中,暂时关闭中央凹显示器。在一个实施例中,如果用户眼睛跟踪指示用户的凝视已经移动到基线参考之外太远,则不认为中央凹显示器在范围内。
在框470处,渲染场显示图像,而不进行图像切断并且不进行中央凹图像的显示或渲染。在框472处,显示场显示图像。过程然后结束。
图5A示出显示器的一个实施例,其包含中央凹显示子系统510和场显示子系统550。在一个实施例中,中央凹显示子系统510包含显示面板515或另一图像源,以及中间光学器件520。中间光学器件520的输出被引导到可调节反射镜525,或被引导到提供定位的其它元件。可调节反射镜525将图像引导到部分反射镜530和曲面部分反射镜535,部分反射镜530和曲面部分反射镜535朝向用户的眼睛590引导图像。在一个实施例中,可调节反射镜525可以由可调谐棱镜替换,其中棱镜的一个表面移动以调节角度,例如来自OPTOTUNETM的可调谐棱镜TP-12-16。在一个实施例中,可调节反射镜525可以由声光调制器和反射镜替换。在一个实施例中,这些元件中的每一个可以用类似的元件替换,这些类似的元件使得高分辨率显示器的选择性移动能够被引导以与用户眼睛590的视场中心对准。在一个实施例中,场显示子系统550包含投影子系统555和光导560。替代实施例可以对场显示子系统550使用不同的投影方法。
图5B示出可以用于调合中央凹图像与场图像的滚降的一个实施例。在一个实施例中,系统分辨率滚降包括放大显示器的边缘以在中央凹区域之外展示较低分辨率数据。这也增大了视场。可以使用硬件、软件或组合以各种方式提供放大。图16B示出示例性显示器580,其展示了在分辨率滚降时像素密度的分布。在中心可以看出,像素的大小均一(由中心多边形585示出)。朝向显示区域的边缘,像素大小变大,并且畸变。这可以在左侧多边形595中看出。因为像素边缘之间的距离在水平方向和竖直方向上都增加,所以在一个实施例中,从中心区域水平地和竖直地移除的像素更加畸变,并且更大,这可以在底部多边形1680中看出。应注意,图5B示出相对小的显示器,并且中心多边形585与拐角多边形595之间的比率可以在大于1到小于或等于10的范围内。
图6示出显示器的另一个实施例,其包含中央凹子系统610和场显示子系统650。除了所述两个子系统之外,图6的实施例还包含外围视觉显示器670。在一个实施例中,外围视觉显示器是OLED显示器。
图7示出显示器的另一个实施例,其包含中央凹显示子系统710和场显示子系统750。在此实施例中,场显示子系统是具有微透镜阵列的OLED 760。
图8示出显示器的另一个实施例,其包含中央凹显示子系统810和任选的场显示子系统850。在此实施例中,中央凹显示子系统810可以实施在由用户佩戴的眼镜或护目镜中。在一个实施例中,任选的场显示子系统850可以是例如TV监控器860的显示屏。场显示子系统850可以是模块化元件,其可以任选地附接到眼镜或护目镜。在一个实施例中,系统可以仅通过中央凹显示子系统810提供高分辨率图像。当用户确实有可用的任选的场显示子系统850时,渲染系统(未展示)可以与中央凹显示子系统810和场显示子系统850通信,提供了较宽的视场。在一个实施例中,在此配置中,中央凹显示子系统可以提供至多20度的视场。
图9示出显示器的另一个实施例,其包含中央凹显示子系统910和场显示子系统950。在此实施例中,中央凹显示子系统910包括具有40°到55°的FoV的光导930,光导930与投影仪920耦合,投影仪920用作显示面板,比如OLED微显示器。在一个实施例中,显示面板920仅发送与覆盖用户视场的中央凹区的区域相关联的小图像,而不发送全40°到55°图像。波导930的在光斑之外的其余部分将是透明的。在中央凹区之外,这可以被填充有较低分辨率的场显示器950,例如OLED显示器960。
图10示出显示器的另一个实施例,其包含中央凹显示子系统1010和场显示子系统1050。在此实施例中,中央凹显示子系统1010包含显示面板1015、中间光学器件1020、可调节反射镜1025,可调节反射镜1025将光引导到离轴全息光学元件(HOE)1030。HOE 1030将来自显示器1015的光引导到用户的眼睛。可调节反射镜1025提供移动以使得中央凹显示子系统1010能够正确地定位。在一个实施例中,场显示子系统1050包括投影子系统1055和光导1060。
图11示出显示器的另一个实施例,其包含中央凹显示子系统1110和场显示子系统1150。在此实施例中,中央凹显示子系统1110包含显示面板1115、中间光学器件1120、可调节反射镜1125,可调节反射镜1125将光引导到具有嵌入式部分反射镜的棱镜1130。来自棱镜1130中的嵌入式部分反射镜的光由曲面部分反射镜1140反射到用户的眼睛。可调节反射镜1125提供移动以使得中央凹显示子系统1110能够正确地定位。在一个实施例中,场显示子系统1150包括投影子系统1155和光导1160。
图12示出显示器的另一个实施例,其提供了空间复用的高分辨率显示器和低分辨率显示器。在图12的实施例中,光是由单个显示面板1210提供。单个显示面板1210显示两个分开的图像:中央凹显示部分和场显示部分。中央凹显示部分通过中央凹显示中间光学器件1220、可调节反射镜1230,以及部分反射镜1240和曲面部分反射镜1245。在一个实施例中,反射镜1240、1245可以由另一种机构替换以将光重定向。
在一个实施例中,来自单个显示面板1210的场显示图像部分到达场显示中间选项1250,场显示中间选项1250将它们传递到光导1260。这使得单个显示面板1210能够利用空间复用为中央凹显示器和场显示器都提供数据。在一个实施例中,用于中央凹显示部分和场显示部分的显示面板1210上的图像的相对大小不相同。在一个实施例中,显示大小相同,但是场显示中间光学器件1250扩大了将用作场显示的图像部分。
图13A和13B示出时间复用的显示器的一个实施例,其包含中央凹图像和低分辨率的场显示图像。系统利用单个显示面板1310和颜色或偏振选择性反射镜1325,颜色或偏振选择性反射镜1325选择性地发送数据(用于中央凹图像数据)或将其反射到场显示中间光学器件1355。显示面板1310以时间复用的方式显示中央凹图像数据和较低分辨率的场显示数据,例如使帧以足够快以产生人类能感知的两组图像的速度交替。
图13A示出中央凹图像帧的光路。数据通过中央凹显示中间光学器件1320,然后被引导通过颜色或偏振敏感反射镜1325。所述数据由可调节反射镜1330反射。在一个实施例中,部分反射镜1340和曲面部分反射镜1345用于将图像引导到用户的眼睛。在一个实施例中,额外的中央凹显示中间光学器件1320可以位于颜色或偏振选择性反射镜1325之后。可以使用用于引导图像的替代配置。
图13B示出场显示图像数据的光路。来自单个面板显示器1310的图像数据行进通过中央凹显示中间光学器件1320,之后由颜色或偏振选择性反射镜1325朝向场显示中间光学器件反射。在一个实施例中,可以使用一个或多个重定向反射镜1350来引导光。光从场显示中间光学器件1355通过光导1360。输出然后通过曲面部分反射镜1345和部分反射镜1340传递到用户的眼睛。
通过在中央凹图像与场显示图像之间快速地切换显示器,系统以时间复用的方式显示两个图像,使得两个图像都同时被用户感知。
图14A和14B示出使用波导的中央凹显示子系统的一个实施例。在一个实施例中,中央凹显示子系统的这种配置可以用于上述任何实施例中。在一个实施例中,中央凹图像利用显示面板1410。显示面板1410的输出通过光学器件1420。尽管光学器件1420被示出为单个透镜,但是本领域技术人员将理解,可以包含任何中间光学元件作为光学器件1420。光学器件1420的输出传递到转向元件1430,转向元件1430将所述输出转向到光导输入耦合器1440中。转向元件1430将光引导到光导输入耦合器1440的适当部分。图像数据然后通过光导1450,并通过光导输出耦合器1460输出到用户的眼睛。转向元件1430正确地引导用于中央凹图像的光,其被调节到用户的眼睛位置。
图15A和15B示出使用多层光导的场显示图像的一个实施例。此堆叠式波导可以用于上文针对场显示器所描述的配置中。在此示例中,存在两个波导,视场的每个部分存在一个波导。在另一个实施例中,可以存在四个堆叠式波导。
显示面板1510的输出通过光学器件1520。尽管光学器件1520被示出为单个透镜,但是本领域技术人员将理解,可以包含任何中间光学元件作为光学器件1520。光学器件1520的输出传递到光导输入耦合器1540、1545。在一个实施例中,光学器件1520基于颜色或偏振将来自显示面板1510的数据分离,并将其引导到光导输入耦合器1540、1545中的一个。在此示例中,顶部光导1550用于图像的第一视场部分,并且底部光导1555用于图像的第二视场部分。来自中央凹光导1550、1555的输出由光导输出耦合器1560、1565引导到用户的眼睛。
图16A示出显示器的另一个实施例,其包含中央凹显示子系统1610和场显示子系统1640。此配置类似于上文关于图5所描述的配置,然而,代替使用可调节反射镜,使用可移动显示面板1615来为用户的眼睛定位中央凹显示器。用于中央凹显示子系统的可移动元件的这种配置可以用于替换了可调节反射镜的上述系统中。
图16B示出显示器的另一个实施例,其包含中央凹显示子系统1650和场显示子系统1690。此配置类似于上文关于图5所描述的配置,然而,代替使用可调节反射镜,使用可调谐棱镜1665来为用户的眼睛定位中央凹显示器。在此实施例中,可调谐棱镜的一个表面移动以调节角度,从而定位中央凹图像。可调谐棱镜可以是来自OPTOTUNETM的可调谐棱镜TP-12-16。用于中央凹显示子系统的可移动元件的这种配置可以用于用可调谐棱镜1665替换了可调节反射镜的上述系统中。在另一个实施例中,可调节反射镜525可以由声光调制器和反射镜替换。用于中央凹显示子系统的可移动元件的这种配置可以用于替换了可调节反射镜的上述系统中。
应注意,图5至16A所展示的配置被呈现有光学器件和特定布局。然而,设计并不需要特定布局,并且可以在系统中使用额外的光学元件。此外,可以在配置之间混合元件并使元件匹配。
图17是使用具有外部显示器的中央凹显示器的一个实施例的流程图。外部显示器是不与中央凹显示器受同一个系统控制的显示器。例如,外部显示器可以是例如在虚拟现实(VR)洞穴或提供场显示的其它环境中的投影系统。在一个实施例中,除了由其它系统提供的场显示器之外,用户还可以佩戴增强现实(AR)或虚拟现实(VR)头戴式耳机,其与环境交互以提供混合显示器,其中AR/VR头戴式耳机提供中央凹显示器。
过程在框1710处开始。在框1715处,执行中央凹显示系统与外部显示系统之间的握手。在一个实施例中,握手确定了两个系统能够一起工作以提供组合显示。在一个实施例中,握手包括在中央凹显示系统与场显示系统之间设置连接。
在框1720处,从外部显示系统设置同步数据。因为中央凹系统被设计成与外部系统完全同步,所以在一个实施例中,此同步信号提供帧数据。
在框1725处,确定中央凹显示器的定位。如上所述,此确定可以基于用户的凝视向量、预测凝视,或基于来自正被显示的帧的数据的智能定位。
在框1730处,过程确定是否应重新定位中央凹显示器,以在选定位置进行显示。如果应重新定位中央凹显示器,则在框1735处触发定位。
在框1750处,覆叠中央凹显示器,以增强外部显示器。在一个实施例中,因为外部显示器是分开的,所以它不包含切断逻辑。在另一个实施例中,可以存在切断逻辑,其阻止系统从中央凹显示图像被展示的位置渲染低分辨率图像的一部分。
在框1760处,应用模糊以调合中央凹显示图像与场显示图像之间的边缘。在框1770处,将包含中央凹图像和场图像的混合图像显示给用户。以这种方式,当进入VR洞穴或具有大视场但是具有场显示器的其它显示环境时,用户可以具有增强的观看质量。过程然后循环回到框1720,以继续所述过程,直到视频或其它显示结束。
图18是在没有相关联的场显示器的情况下使用中央凹显示器的一个实施例的流程图。在这种情况下,系统仅提供中央凹显示器,而没有上文所讨论的场显示器。然而,在一个实施例中,中央凹显示器可以应用调合或放大以增大视场。
在框1820处,过程基于用户数据或其它数据确定中央凹显示器的位置。用户数据可以包含凝视向量、预测凝视向量等。外部数据可以包含关于将被显示的图像数据的信息。
在框1830处,过程确定是否应重新定位中央凹显示器。可能不需要为多个帧重新定位显示器,因为用户的凝视无变化。如果应更改位置,则在框1840处调节中央凹显示器。在一个实施例中,调节可以包含可转向适眼区(eye box)以校正眼睛位置。在一个实施例中,调节可以包含使显示器相对于用户视场的中央凹区的位置移位。在一个实施例中,如果移动大于某一距离,则在移动期间关闭中央凹显示器。在一个实施例中,距离大于0.5度。在一个实施例中,如果用户在移动期间眨眼,则可能不会关闭中央凹显示器。
在框1850处,在针对用户的适当位置设置中央凹显示器。
在框1860处,在一个实施例中,在显示器的边缘处提供滚降。在一个实施例中,滚降包含分辨率滚降(朝向显示区域的边缘减低分辨率)。在一个实施例中,滚降包含亮度和/或对比度滚降(朝向边缘减低亮度和/或对比度)。此类滚降被设计成减小显示器末端的突变性。在一个实施例中,滚降可以被设计成滚降成“无”,即,从全亮度/对比度逐渐减低到灰色或黑色或环境颜色。
在一个实施例中,分辨率滚降包括扩大中央凹显示器边缘处的像素大小,以较佳地与中央凹区域之外的较低分辨率的场显示图像调合。这也增大了视场。可以使用硬件、软件或组合以各种方式提供放大。图5B示出示例性显示器,其展示了在分辨率滚降时像素密度的分布。
在框1870处,将适当的基于凝视角度的校正应用于图像。随着凝视向量笔直向前改变,横跨视场的畸变增加。基于凝视角度的校正利用用于定位的已知凝视角度,来以软件校正任何畸变。过程然后返回到框1820。以这种方式,可转向中央凹显示器可以用于遵循用户的凝视或其它提示而提供可转向中央凹显示。在一个实施例中,中央凹显示器可以提供可变视场。
图19是调合中央凹显示器的边缘的一个实施例的流程图。过程在框1910处开始。如上文所讨论,当中央凹显示器与场显示器一起定位时,调合所述显示器之间的边缘。这为用户产生了连续的印象。在一个实施例中,此过程对应于图4的框440和图17的框1760。
在框1920处,过程识别中央凹图像的边缘。在一个实施例中,边缘由中央凹显示器可用的视场限定。在另一个实施例中,中央凹显示器可以显示小于其可以显示的最大视场的视场。
在框1930处,过程确定最佳调合技术,并应用所述技术。在一个实施例中,调合技术可以包含使用以下的调合:alpha蒙板(alpha mask)、抖动调合、交错像素、基于颜色的alpha通道调合、基于像素的alpha通道调合、多重采样抗锯齿(MSAA)、时域滤波调合,和/或其它调合技术。
在框1950处,过程确定是否应应用其它技术。如果应应用其它技术,则在框1960处选择下一种技术,并且过程返回到框1940。如果不应应用其它技术,则过程在框1970处结束。如上所述,在一个实施例中,在包含高分辨率的中央凹显示图像和低分辨率的场显示图像的每个帧叠加的情况下调用此过程。在一个实施例中,当中央凹显示器展示叠加在背景上的子画面或其它图像元素时,可能不应用调合。
图20是使用眼睛运动分类的一个实施例的流程图。使用眼睛运动分类来预测用户眼睛的未来位置以定位中央凹显示器。过程在框2010处开始。在框2015处,确定2015用户视场的中央凹区的位置。在框2020处,对用户的眼睛运动进行分类。图21示出可以识别的一些示例性眼睛运动。眼睛运动包含注视、眨眼、微扫视、缓慢追踪和快速运动/扫视。在一个实施例中,除了眼睛运动之外,还可以使用头部位置来对眼睛运动进行分类以用于预测目的。这些类型的眼睛运动在本领域中是已知的。
在框2025处,过程确定对眼睛运动的适当响应。所述响应可以包含更改显示器的位置,更改视场,更改分辨率,更改深度数据(其可以取决于3D凝视向量),更改会聚点。所述确定可以基于依据眼睛运动分类来预测用户的凝视向量的后续位置。
在框2030处,过程确定是否应改变中央凹显示器。如果应改变中央凹显示器,则在框2035处更改中央凹显示器。如上所述,所述更改可以包含改变位置、视场、分辨率等。
在框2040处,过程基于分析确定是否应改变场显示器。如果应改变场显示器,则在框2045处改变场显示器。在一个实施例中,可以通过改变分辨率、深度数据、会聚点等来改变场显示器。在一个实施例中,场显示器不是可转向的,但是可以进行其它改变。
在框2050处,使中央凹显示图像与场显示图像之间的边缘模糊。在框2060处,将混合图像显示给用户。过程然后返回到框2015,以继续处理下一个图像。应注意,在一个实施例中,此过程非常快速地进行,使得在每个帧显示之前对每个帧进行评估。
图22是智能定位的一个实施例的流程图。过程在框2210处开始。当系统被设计成不仅仅基于用户的凝视向量来利用定位时,可以使用此过程。
在框2215处,跟踪用户的眼睛。在一个实施例中,还可以跟踪用户的头部运动。这对于基于前庭眼动反射来预测用户的眼睛运动是有用的。可以组合头部运动和眼睛运动来确定每只眼睛的位置和取向。
在框2220处,接收外部数据。此外部数据可以包含应使用中央凹显示器以高分辨率展示的突出显示元素、用户的眼睛应被导引的位置,或另一种外部因素。在一个实施例中,中央凹显示器可以被指向不在用户的凝视向量处的相关元素。例如,当存在暗屏并且仅有一个感兴趣的元素时,高分辨率的中央凹显示器最佳地部署在感兴趣的元素处。作为另一个示例,如果屏幕的大部分是故意模糊的,但是存在一些具有书写或其它精细细节内容的部分,则所述部分可能是部署中央凹显示器的地方。可以使用定位所述显示器的其它原因。
在框2225处,基于外部数据和用户数据确定针对中央凹显示器的最佳定位和配置。如上所述,用户数据包含用户的眼睛和头部定位。在一个实施例中,外部数据独立于用户,并反映关于正在显示的帧的信息。在一个实施例中,除非存在重新定位中央凹显示器的外部数据,否则默认配置是使中央凹显示器位于用户的中央凹中心。然而,基于外部信息,可能会针对某些帧和内容改变此配置。
在框2230处,过程确定是否应更改中央凹显示器。改变可以是改变位置、分辨率、焦距等。如果应更改中央凹显示器,则在框2235处改变显示器。
在框2240处,过程确定是否应更改场显示部分。改变可以是改变分辨率、亮度、对比度等。如果应更改场显示部分,则在框2245处改变显示器。
在框2250处,调合中央凹显示图像与场显示图像之间的边缘,并且在框2255处,显示组合图像。过程然后返回到框2215。
尽管以流程图形式示出了上述过程,但是本领域技术人员将理解,这是为了简单起见而进行。除非各种元件之间存在相依性,否则所述元件的次序不需要保持不变。例如,可以按任何次序进行中央凹显示器和场显示器的调节。可以连续地进行用户的眼睛和头部的跟踪。系统可以在外部数据可用时接收外部数据,而不是连续地或在过程中的特定时间接收外部数据。对流程图的其它此类调节也在本发明的范围内。
图23是可以与本发明一起使用的计算机系统的一个实施例的框图。然而,对于本领域普通技术人员来说显而易见的是,也可以使用各种系统架构的其它替代系统。
图23所示出的数据处理系统包含用于传送信息的总线或其它内部通信构件2340,以及耦合到总线2340以处理信息的处理单元2310。处理单元2310可以是中央处理单元(CPU)、数字信号处理器(DSP),或另一种类型的处理单元2310。
在一个实施例中,所述系统还包含耦合到总线2340以存储将由处理器2310执行的信息和指令的随机存取存储器(RAM)或其它易失性存储装置2320(被称为存储器)。主存储器2320还可以用于在处理单元2310执行指令期间存储临时变量或其它中间信息。
在一个实施例中,所述系统还包括耦合到总线2340以存储用于处理器2310的静态信息和指令的只读存储器(ROM)2350和/或静态存储装置2350。在一个实施例中,所述系统还包含数据存储装置2330,例如磁盘或光盘以及其对应的磁盘驱动器,或闪存或其它能够在不向所述系统供电时存储数据的存储装置。在一个实施例中,数据存储装置2330耦合到总线2340以存储信息和指令。
所述系统还可以耦合到输出装置2370,例如通过总线2360耦合到总线2340以输出信息的阴极射线管(CRT)或液晶显示器(LCD)。输出装置2370可以是视觉输出装置、音频输出装置和/或触觉输出装置(例如振动等)。
输入装置2375可以耦合到总线2360。输入装置2375可以是字母数字输入装置,例如包含字母数字键和其它键的键盘,用于使得用户能够将信息和命令选择传送到处理单元2310。还可以包含额外的用户输入装置2380。一种此类用户输入装置2380是光标控制装置2380,例如鼠标、跟踪球、触控笔、光标方向键或触摸屏,用户输入装置2380可以通过总线2360耦合到总线2340,用于将方向信息和命令选择传送到处理单元2310,并且用于控制显示装置2370上的移动。
可以任选地耦合到计算机系统2300的另一种装置是用于经由网络访问分布式系统的其它节点的网络装置2385。通信装置2385可以包含许多市场上可购得的联网外围装置中的任何一种,例如用于耦合到以太网、令牌环、因特网或广域网、个域网、无线网络或访问其它装置的其它方法的那些装置。通信装置2385还可以是虚设调制解调器连接,或是提供计算机系统2300与外界之间的连接的任何其它机构。
应注意,图23所示出的此系统的任何或所有组件以及相关联的硬件可以用于本发明的各种实施例中。
本领域普通技术人员将理解,可以根据特定实施方式以各种方式配置体现本发明的特定机器。实施本发明的控制逻辑或软件可以存储在主存储器2320、大容量存储装置2330或者可以由处理器2310本地或远程访问的其它存储介质中。
对于本领域普通技术人员来说显而易见的是,本文所描述的系统、方法和过程可以被实施为存储在主存储器2320或只读存储器2350中并由处理器2310执行的软件。此控制逻辑或软件也可以常驻于制品上,所述制品包括计算机可读介质,所述计算机可读介质具有体现在其中并可由大容量存储装置2330读取并且用于使处理器2310根据本文的方法和教导进行操作的计算机可读程序代码。
本发明还可以体现在含有上述计算机硬件组件的子集的手持式或便携式装置中。例如,手持式装置可以被配置成仅含有总线2340、处理器2310,以及存储器2350和/或2320。
手持式装置可以被配置成包含一组按钮或输入信令组件,用户可以使用所述按钮或输入信令组件从一组可用选项中进行选择。这些组件可以被视为输入装置#1 2375或输入装置#2 2380。手持式装置还可以被配置成包含输出装置2370,例如液晶显示器(LCD)或显示元件矩阵,用于向手持式装置的用户显示信息。可以使用常规方法来实施此类手持式装置。鉴于本文所提供的本发明的公开,本发明对于此类装置的实施方式对于本领域普通技术人员来说是显而易见的。
本发明还可以体现在专用设备中,所述专用设备包含上述计算机硬件组件的子集,例如自助服务终端或车辆。例如,设备可以包含处理单元2310、数据存储装置2330、总线2340和存储器2320,没有输入/输出机构,或者只有基本的通信机构,例如允许用户以基本方式与装置通信的小型触摸屏。通常,装置越具有专用性,装置运行所需的元件越少。在一些装置中,与用户的通信可以通过基于触摸的屏幕或类似机构。在一个实施例中,装置可以不提供任何直接输入/输出信号,但是可以通过网站或通过网络装置2385的其它基于网络的连接来配置和访问。
本领域普通技术人员将理解,可以根据特定实施方式使用被实施为计算机系统的特定机器的任何配置。实施本发明的控制逻辑或软件可以存储在可以由处理器2310本地或远程访问的任何机器可读介质上。机器可读介质包含用于以机器(例如计算机)可读的形式存储信息的任何机构。例如,机器可读介质包含只读存储器(ROM)、随机存取存储器(RAM)、磁盘存储介质、光存储介质、闪存装置,或可以用于临时或永久数据存储的其它存储介质。在一个实施例中,控制逻辑可以被实施为可传输数据,例如电学、光学、声学或其它形式的传播信号(例如载波、红外信号、数字信号等)。
在前述说明书中,已经参考本发明的特定示例性实施例描述了本发明。然而,显而易见的是,在不脱离所附权利要求书中所阐述的本发明的更广泛的精神和范围的情况下,可以对特定示例性实施例进行各种修改和改变。因此,说明书和附图应被视为说明性的而非限制性的。
Claims (20)
1.一种混合显示系统,包括:
场显示器,所述场显示器具有至少40度的单目视场;
中央凹显示器,所述中央凹显示器具有至少1度的单目视场,位于跨越至少20度的可扫描视场内,所述中央凹显示器是针对所述场显示器的所述视场内的用户而定位,从而呈现包含来自所述场显示器和所述中央凹显示器中的每一个的图像数据的混合显示。
2.根据权利要求1所述的混合显示系统,其还包括:
其中所述中央凹显示器实施在可穿戴显示中央凹显示器中。
3.根据权利要求1所述的混合显示系统,其还包括中央凹位置验证器,用于校验所述中央凹显示器的实际位置,并且当所述实际位置不是预期位置时调节中央凹显示图像数据。
4.根据权利要求1所述的混合显示系统,其还包括:
所述中央凹显示器是基于对未来眼睛位置的预测而定位。
5.根据权利要求3所述的混合显示系统,其还包括:
眼睛跟踪器,所述眼睛跟踪器用于跟踪用户眼睛的位置和取向;以及
眼睛运动分类器,所述眼睛运动分类器用于识别眼睛运动类型,眼睛运动分类用于提供用于预测性地定位所述中央凹显示器的预测。
6.根据权利要求1所述的混合系统,其还包括:
切断逻辑,所述切断逻辑用于在对应于中央凹显示图像的位置切断来自所述场显示器的场显示图像的一部分。
7.根据权利要求6所述的混合显示系统,其还包括:
调合逻辑,所述调合逻辑用于调合所述中央凹显示图像和所述场显示图像相交的边缘。
8.根据权利要求7所述的混合显示系统,其中所述调合包括以下中的一种或多种:alpha蒙板、抖动调合、交错像素、基于颜色的alpha通道调合、基于像素的alpha通道调合、多重采样抗锯齿(MSAA),以及时域滤波调合。
9.根据权利要求1所述的混合显示系统,其中所述场显示器是外部显示器,并且所述混合显示系统还包括:
同步逻辑,所述同步逻辑用于使所述中央凹显示器与所述场显示器之间的显示同步。
10.根据权利要求1所述的混合显示系统,其还包括:
用于所述中央凹显示器的定位元件,所述定位元件用于使得可转向中央凹显示器能够移动。
11.根据权利要求10所述的混合显示系统,其中可定位元件包含以下中的一种或多种:可调节反射镜、可调谐棱镜、声光调制器、可调节显示面板、曲面反射镜、衍射元件,以及菲涅耳反射器。
12.一种显示系统,包括:
中央凹显示器,所述中央凹显示器具有至少1度的单目视场,位于至少20度的可扫描视场内,所述中央凹显示器是针对用户而定位。
13.根据权利要求12所述的显示系统,其还包括:
场显示器,所述场显示器具有显示场显示图像的至少30度的单目视场,所述场显示图像与中央凹显示图像重叠;
使得所述中央凹显示器和所述场显示器的组合提供大视场和感知的高分辨率。
14.根据权利要求13所述的显示系统,其还包括:
切断逻辑,所述切断逻辑用于在对应于中央凹显示图像的位置的位置切断场显示图像的一部分。
15.根据权利要求14所述的显示系统,其还包括调合逻辑,所述调合逻辑用于调合所述中央凹显示图像和所述场显示图像相交的边缘。
16.根据权利要求15所述的显示系统,其中所述调合包括以下中的一种或多种:alpha蒙板、抖动调合、交错像素、基于颜色的alpha通道调合、基于像素的alpha通道调合、多重采样抗锯齿(MSAA),以及时域滤波调合。
17.根据权利要求12所述的显示系统,其还包括:
同步逻辑,所述同步逻辑用于使所述中央凹显示器与提供场显示的外部显示器之间的显示同步。
18.根据权利要求12所述的显示系统,其还包括:
眼睛跟踪器,所述眼睛跟踪器用于跟踪用户眼睛的位置和取向;以及
眼睛运动分类器,所述眼睛运动分类器用于识别眼睛运动类型,眼睛运动分类用于预测性地定位所述中央凹显示器。
19.根据权利要求12所述的显示系统,其还包括用于所述中央凹显示器的定位元件,所述定位元件用于使得可转向中央凹显示器能够移动。
20.根据权利要求19所述的显示系统,其中所述定位元件包含以下中的一种或多种:可调节反射镜、可调谐棱镜、声光调制器、可调节显示面板、曲面反射镜、衍射元件,以及菲涅耳反射器。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762477404P | 2017-03-27 | 2017-03-27 | |
US62/477,404 | 2017-03-27 | ||
US201762575354P | 2017-10-20 | 2017-10-20 | |
US62/575,354 | 2017-10-20 | ||
PCT/US2018/024680 WO2018183405A1 (en) | 2017-03-27 | 2018-03-27 | Steerable foveal display |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110520781A true CN110520781A (zh) | 2019-11-29 |
Family
ID=63669309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880021927.XA Pending CN110520781A (zh) | 2017-03-27 | 2018-03-27 | 可转向中央凹显示器 |
Country Status (7)
Country | Link |
---|---|
US (4) | US10514546B2 (zh) |
EP (1) | EP3602181A4 (zh) |
JP (2) | JP2020515895A (zh) |
KR (1) | KR102578929B1 (zh) |
CN (1) | CN110520781A (zh) |
CA (1) | CA3057878A1 (zh) |
WO (1) | WO2018183405A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114868069A (zh) * | 2019-12-04 | 2022-08-05 | 元平台技术有限公司 | 用电子显示器的中央凹渲染的预测性眼睛跟踪系统和方法 |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018175625A1 (en) | 2017-03-22 | 2018-09-27 | Magic Leap, Inc. | Depth based foveated rendering for display systems |
WO2018183405A1 (en) | 2017-03-27 | 2018-10-04 | Avegant Corp. | Steerable foveal display |
US11194391B2 (en) * | 2017-09-27 | 2021-12-07 | Apple Inc. | Visual artifact mitigation of dynamic foveated displays |
JP7381482B2 (ja) * | 2018-03-16 | 2023-11-15 | マジック リープ, インコーポレイテッド | ディスプレイシステムのための深度ベースの中心窩化レンダリング |
US10359845B1 (en) * | 2018-05-01 | 2019-07-23 | Facebook Technologies, Llc | Display assembly using dynamic liquid crystal array |
US20200049946A1 (en) * | 2018-08-10 | 2020-02-13 | Varjo Technologies Oy | Display apparatus and method of displaying using gaze prediction and image steering |
US11099381B2 (en) * | 2018-08-10 | 2021-08-24 | Varjo Technologies Oy | Synchronizing light sources and optics in display apparatuses |
US20200133385A1 (en) * | 2018-10-26 | 2020-04-30 | Otis Elevator Company | Priority-based adjustment to display content |
GB2578769B (en) * | 2018-11-07 | 2022-07-20 | Advanced Risc Mach Ltd | Data processing systems |
US11169383B2 (en) | 2018-12-07 | 2021-11-09 | Avegant Corp. | Steerable positioning element |
CN113412442A (zh) * | 2019-01-07 | 2021-09-17 | 阿维甘特公司 | 控制系统和渲染管道 |
US11181979B2 (en) * | 2019-01-08 | 2021-11-23 | Avegant Corp. | Sensor-based eye-tracking using a holographic optical element |
US11070778B2 (en) * | 2019-02-14 | 2021-07-20 | Facebook Technologies, Llc | Multi-projector display architecture |
DE102020104527B4 (de) | 2019-03-19 | 2023-06-22 | Nvidia Corporation | Foveales anzeigesystem für erweiterte realität |
US10725304B1 (en) * | 2019-03-28 | 2020-07-28 | Facebook Technologies, Llc | Compensatory image during swift-eye movement |
US10554940B1 (en) | 2019-03-29 | 2020-02-04 | Razmik Ghazaryan | Method and apparatus for a variable-resolution screen |
US11284053B2 (en) | 2019-03-29 | 2022-03-22 | Razmik Ghazaryan | Head-mounted display and projection screen |
US10466489B1 (en) | 2019-03-29 | 2019-11-05 | Razmik Ghazaryan | Methods and apparatus for a variable-resolution screen |
KR102649783B1 (ko) | 2019-03-29 | 2024-03-20 | 아브간트 코포레이션 | 도파관을 사용한 조향 가능한 하이브리드 디스플레이 |
WO2021055230A1 (en) * | 2019-09-19 | 2021-03-25 | Akalana Management Llc | Optical systems with low resolution peripheral displays |
US11435821B2 (en) | 2019-09-26 | 2022-09-06 | Apple Inc. | Gaze-independent dithering for dynamically foveated displays |
KR20210138739A (ko) | 2019-09-27 | 2021-11-19 | 애플 인크. | 애디티브 디스플레이들을 갖는 관리 디바이스들 |
US11662807B2 (en) * | 2020-01-06 | 2023-05-30 | Tectus Corporation | Eye-tracking user interface for virtual tool control |
US11614797B2 (en) * | 2019-11-05 | 2023-03-28 | Micron Technology, Inc. | Rendering enhancement based in part on eye tracking |
WO2021101815A1 (en) * | 2019-11-22 | 2021-05-27 | Akalana Management Llc | Display systems having multiple light paths for performing foveation |
WO2021122902A1 (en) * | 2019-12-17 | 2021-06-24 | Tobii Ab | Method and system for applying adapted colour rendering on a display |
US11624921B2 (en) | 2020-01-06 | 2023-04-11 | Avegant Corp. | Head mounted system with color specific modulation |
KR20210107408A (ko) | 2020-02-24 | 2021-09-01 | 삼성전자주식회사 | 광학 장치 및 이를 포함한 근안 디스플레이 장치 |
FR3107611B1 (fr) | 2020-02-26 | 2022-03-04 | Aledia | Ecran d’affichage à résolution multiple et procédé de réalisation |
DE102020203638A1 (de) | 2020-03-20 | 2021-09-23 | Robert Bosch Gesellschaft mit beschränkter Haftung | Projektionsvorrichtung für eine Datenbrille, Verfahren zum Darstellen von Bildinformationen mittels einer Projektionsvorrichtung und Steuergerät |
EP4143793A4 (en) * | 2020-04-30 | 2024-05-22 | Marsupial Holdings Inc. | DISPLAY DEVICE WAS WEARABLE NEAR THE EYE WITH EXTENDED FIELD OF VISION |
WO2022015647A2 (en) * | 2020-07-13 | 2022-01-20 | Perdix Systems Llc | Optical systems with multiple light engines for foveation |
WO2022038400A1 (en) * | 2020-08-20 | 2022-02-24 | Creal Sa | Near-eye image projection system and wearable device comprising said near-eye image projection system |
US11488345B2 (en) * | 2020-10-22 | 2022-11-01 | Varjo Technologies Oy | Display apparatuses and rendering servers incorporating prioritized re-rendering |
US11971556B2 (en) | 2020-11-19 | 2024-04-30 | Google Llc | MEMS device with elliptical mirror |
CN115280404A (zh) | 2020-12-14 | 2022-11-01 | 谷歌有限责任公司 | 可变亮度和视场显示 |
US11442543B1 (en) | 2021-01-29 | 2022-09-13 | Apple Inc. | Electronic devices with monocular gaze estimation capabilities |
CN117043663A (zh) * | 2021-03-31 | 2023-11-10 | 索尼集团公司 | 图像显示设备 |
CN115494640A (zh) * | 2021-06-17 | 2022-12-20 | 中强光电股份有限公司 | 产生虚拟实境影像的光场近眼显示器及其方法 |
US11495194B1 (en) * | 2021-08-10 | 2022-11-08 | Varjo Technologies Oy | Display apparatuses and methods incorporating pattern conversion |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120154277A1 (en) * | 2010-12-17 | 2012-06-21 | Avi Bar-Zeev | Optimized focal area for augmented reality displays |
US20160240013A1 (en) * | 2015-02-12 | 2016-08-18 | Google Inc. | Combining a high resolution narrow field display and a mid resolution wide field display |
US20160274365A1 (en) * | 2015-03-17 | 2016-09-22 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays with heterogeneous display quality |
US9588408B1 (en) * | 2014-05-15 | 2017-03-07 | Autofuss | Methods and systems for projecting a target portion of an image at a higher resolution |
Family Cites Families (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4924522A (en) | 1987-08-26 | 1990-05-08 | Ncr Corporation | Method and apparatus for displaying a high resolution image on a low resolution CRT |
US5035500A (en) * | 1988-08-12 | 1991-07-30 | Rorabaugh Dale A | Automated ocular perimetry, particularly kinetic perimetry |
US6008781A (en) * | 1992-10-22 | 1999-12-28 | Board Of Regents Of The University Of Washington | Virtual retinal display |
US8330812B2 (en) * | 1995-05-30 | 2012-12-11 | Simulated Percepts, Llc | Method and apparatus for producing and storing, on a resultant non-transitory storage medium, computer generated (CG) video in correspondence with images acquired by an image acquisition device tracked in motion with respect to a 3D reference frame |
US6204974B1 (en) * | 1996-10-08 | 2001-03-20 | The Microoptical Corporation | Compact image display system for eyeglasses or other head-borne frames |
US6097353A (en) * | 1998-01-20 | 2000-08-01 | University Of Washington | Augmented retinal display with view tracking and data positioning |
CA2375519A1 (en) * | 1999-06-21 | 2000-12-28 | The Microoptical Corporation | Eyeglass display lens system employing off-axis optical design |
JP4374708B2 (ja) * | 2000-03-30 | 2009-12-02 | 株式会社デンソー | 網膜走査ディスプレイ装置及び光走査装置 |
NZ537849A (en) * | 2005-01-21 | 2007-09-28 | Peter James Hilton | Direct Retinal Display projecting a scanned optical beam via diverging and converging reflectors |
JP4735234B2 (ja) | 2005-12-19 | 2011-07-27 | ブラザー工業株式会社 | 画像表示システム |
US20080015553A1 (en) | 2006-07-12 | 2008-01-17 | Jaime Zacharias | Steering laser treatment system and method of use |
CN102289073B (zh) * | 2007-11-21 | 2014-01-15 | 松下电器产业株式会社 | 显示装置 |
US8314814B2 (en) * | 2007-12-20 | 2012-11-20 | Raytheon Company | Imaging system |
US20100149073A1 (en) | 2008-11-02 | 2010-06-17 | David Chaum | Near to Eye Display System and Appliance |
US7786648B2 (en) | 2008-08-18 | 2010-08-31 | New Scale Technologies | Semi-resonant driving systems and methods thereof |
US20110075257A1 (en) * | 2009-09-14 | 2011-03-31 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | 3-Dimensional electro-optical see-through displays |
US20110141225A1 (en) | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama Imaging Based on Low-Res Images |
US9128281B2 (en) * | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US20120249797A1 (en) * | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US9632315B2 (en) * | 2010-10-21 | 2017-04-25 | Lockheed Martin Corporation | Head-mounted display apparatus employing one or more fresnel lenses |
US9513490B2 (en) * | 2011-01-10 | 2016-12-06 | Eastman Kodak Company | Three channel delivery of stereo images |
CA2845567C (en) | 2011-09-07 | 2019-05-21 | Improved Vision Systems (I.V.S.) Ltd. | Method and system for treatment of visual impairment |
US20130100176A1 (en) | 2011-10-21 | 2013-04-25 | Qualcomm Mems Technologies, Inc. | Systems and methods for optimizing frame rate and resolution for displays |
US8681426B2 (en) | 2011-11-04 | 2014-03-25 | Honeywell International Inc. | Steerable near-to-eye display and steerable near-to-eye display system |
JP5524254B2 (ja) | 2012-02-14 | 2014-06-18 | 富士フイルム株式会社 | ミラー駆動装置及びその制御方法 |
US9779643B2 (en) | 2012-02-15 | 2017-10-03 | Microsoft Technology Licensing, Llc | Imaging structure emitter configurations |
US20130286053A1 (en) * | 2012-04-25 | 2013-10-31 | Rod G. Fleck | Direct view augmented reality eyeglass-type display |
US9788714B2 (en) * | 2014-07-08 | 2017-10-17 | Iarmourholdings, Inc. | Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance |
EP2979128B1 (en) | 2013-03-25 | 2017-10-25 | Intel Corporation | Method for displaying an image projected from a head-worn display with multiple exit pupils |
DE102013208625A1 (de) | 2013-05-10 | 2014-11-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multiapertur-projektionsdisplay und einzelbilderzeuger für ein solches |
US9952042B2 (en) | 2013-07-12 | 2018-04-24 | Magic Leap, Inc. | Method and system for identifying a user location |
US9335548B1 (en) * | 2013-08-21 | 2016-05-10 | Google Inc. | Head-wearable display with collimated light source and beam steering mechanism |
US11402629B2 (en) | 2013-11-27 | 2022-08-02 | Magic Leap, Inc. | Separated pupil optical systems for virtual and augmented reality and methods for displaying images using same |
JP2015132747A (ja) | 2014-01-15 | 2015-07-23 | セイコーエプソン株式会社 | プロジェクター |
US9766463B2 (en) * | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10068311B2 (en) | 2014-04-05 | 2018-09-04 | Sony Interacive Entertainment LLC | Varying effective resolution by screen location by changing active color sample count within multiple render targets |
US9874744B2 (en) * | 2014-06-25 | 2018-01-23 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays |
WO2016002318A1 (ja) * | 2014-06-30 | 2016-01-07 | ソニー株式会社 | 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム |
GB201417208D0 (en) * | 2014-09-30 | 2014-11-12 | Ibvision Ltd | Method Software And Apparatus For Testing A Patiants Visual Field |
IL235073A (en) * | 2014-10-07 | 2016-02-29 | Elbit Systems Ltd | Head-mounted view of enlarged images that are locked on an object of interest |
EP3234920A4 (en) | 2014-12-23 | 2017-10-25 | Meta Company | Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest |
EP3237953A1 (en) * | 2014-12-26 | 2017-11-01 | CY Vision Inc. | Near-to-eye display device with variable resolution |
US10013808B2 (en) * | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
US10284118B2 (en) | 2015-02-06 | 2019-05-07 | New Scale Technologies, Inc. | Two-axis angular pointing device and methods of use thereof |
US10417832B2 (en) | 2015-03-11 | 2019-09-17 | Facebook Technologies, Llc | Display device supporting configurable resolution regions |
JP6520432B2 (ja) | 2015-06-09 | 2019-05-29 | セイコーエプソン株式会社 | 光学デバイスおよび画像表示装置 |
US10210844B2 (en) * | 2015-06-29 | 2019-02-19 | Microsoft Technology Licensing, Llc | Holographic near-eye display |
CN116366906A (zh) | 2015-08-07 | 2023-06-30 | 苹果公司 | 用于显示图像流的系统和方法 |
WO2017062289A1 (en) * | 2015-10-08 | 2017-04-13 | Pcms Holdings, Inc. | Methods and systems of automatic calibration for dynamic display configurations |
US10726619B2 (en) | 2015-10-29 | 2020-07-28 | Sony Interactive Entertainment Inc. | Foveated geometry tessellation |
US11109916B2 (en) * | 2015-11-09 | 2021-09-07 | Digital Surgicals Pte Ltd | Personalized hand-eye coordinated digital stereo microscopic systems and methods |
WO2017112958A1 (en) | 2015-12-24 | 2017-06-29 | Meta Company | Optical engine for creating wide-field of view fovea-based display |
US20170255020A1 (en) * | 2016-03-04 | 2017-09-07 | Sharp Kabushiki Kaisha | Head mounted display with directional panel illumination unit |
US20170255012A1 (en) * | 2016-03-04 | 2017-09-07 | Sharp Kabushiki Kaisha | Head mounted display using spatial light modulator to move the viewing zone |
US10438400B2 (en) | 2016-03-08 | 2019-10-08 | Nvidia Corporation | Perceptually-based foveated rendering using a contrast-enhancing filter |
US10192528B2 (en) * | 2016-03-31 | 2019-01-29 | Sony Interactive Entertainment Inc. | Real-time user adaptive foveated rendering |
US10460704B2 (en) * | 2016-04-01 | 2019-10-29 | Movidius Limited | Systems and methods for head-mounted display adapted to human visual mechanism |
GB2553744B (en) | 2016-04-29 | 2018-09-05 | Advanced Risc Mach Ltd | Graphics processing systems |
WO2018019831A1 (en) | 2016-07-25 | 2018-02-01 | Optotune Ag | Optical device for enhancing resolution of an image using multistable states |
US10255714B2 (en) * | 2016-08-24 | 2019-04-09 | Disney Enterprises, Inc. | System and method of gaze predictive rendering of a focal area of an animation |
US10140695B2 (en) | 2016-10-04 | 2018-11-27 | Facebook Technologies, Llc | Head-mounted compound display including a high resolution inset |
US9779478B1 (en) | 2016-10-04 | 2017-10-03 | Oculus Vr, Llc | Rendering composite content on a head-mounted display including a high resolution inset |
CN116153272A (zh) * | 2016-11-16 | 2023-05-23 | 奇跃公司 | 用于头戴式显示系统的多分辨率显示组件 |
US9711114B1 (en) | 2016-12-01 | 2017-07-18 | Varjo Technologies Oy | Display apparatus and method of displaying using projectors |
US9711072B1 (en) | 2016-12-01 | 2017-07-18 | Varjo Technologies Oy | Display apparatus and method of displaying using focus and context displays |
US11050364B2 (en) | 2016-12-09 | 2021-06-29 | New Scale Technologies, Inc. | Semi-resonant motion devices and methods thereof |
GB2560306B (en) * | 2017-03-01 | 2020-07-08 | Sony Interactive Entertainment Inc | Image processing |
US20180269266A1 (en) | 2017-03-16 | 2018-09-20 | Intel Corporation | Foveated displays for virtual and augmented reality |
WO2018175625A1 (en) * | 2017-03-22 | 2018-09-27 | Magic Leap, Inc. | Depth based foveated rendering for display systems |
WO2018183405A1 (en) | 2017-03-27 | 2018-10-04 | Avegant Corp. | Steerable foveal display |
US11209650B1 (en) | 2018-09-06 | 2021-12-28 | Facebook Technologies, Llc | Waveguide based display with multiple coupling elements for artificial reality |
US10866422B2 (en) | 2019-02-21 | 2020-12-15 | Microsoft Technology Licensing, Llc | Micro LED display system |
-
2018
- 2018-03-27 WO PCT/US2018/024680 patent/WO2018183405A1/en unknown
- 2018-03-27 EP EP18775536.8A patent/EP3602181A4/en active Pending
- 2018-03-27 CN CN201880021927.XA patent/CN110520781A/zh active Pending
- 2018-03-27 JP JP2019553025A patent/JP2020515895A/ja active Pending
- 2018-03-27 CA CA3057878A patent/CA3057878A1/en active Pending
- 2018-03-27 KR KR1020197031073A patent/KR102578929B1/ko active IP Right Grant
- 2018-03-27 US US15/937,770 patent/US10514546B2/en active Active
-
2019
- 2019-12-23 US US16/726,212 patent/US11163164B2/en active Active
-
2021
- 2021-10-04 US US17/449,946 patent/US11656468B2/en active Active
-
2022
- 2022-12-23 JP JP2022206640A patent/JP2023027369A/ja active Pending
-
2023
- 2023-05-22 US US18/321,704 patent/US20240027771A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120154277A1 (en) * | 2010-12-17 | 2012-06-21 | Avi Bar-Zeev | Optimized focal area for augmented reality displays |
US9588408B1 (en) * | 2014-05-15 | 2017-03-07 | Autofuss | Methods and systems for projecting a target portion of an image at a higher resolution |
US20160240013A1 (en) * | 2015-02-12 | 2016-08-18 | Google Inc. | Combining a high resolution narrow field display and a mid resolution wide field display |
US20160274365A1 (en) * | 2015-03-17 | 2016-09-22 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays with heterogeneous display quality |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114868069A (zh) * | 2019-12-04 | 2022-08-05 | 元平台技术有限公司 | 用电子显示器的中央凹渲染的预测性眼睛跟踪系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
US11163164B2 (en) | 2021-11-02 |
US11656468B2 (en) | 2023-05-23 |
KR102578929B1 (ko) | 2023-09-15 |
WO2018183405A1 (en) | 2018-10-04 |
US20200133006A1 (en) | 2020-04-30 |
KR20190126428A (ko) | 2019-11-11 |
US20240027771A1 (en) | 2024-01-25 |
CA3057878A1 (en) | 2018-10-04 |
US10514546B2 (en) | 2019-12-24 |
EP3602181A1 (en) | 2020-02-05 |
US20220187604A1 (en) | 2022-06-16 |
US20180284451A1 (en) | 2018-10-04 |
JP2023027369A (ja) | 2023-03-01 |
EP3602181A4 (en) | 2020-05-13 |
JP2020515895A (ja) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110520781A (zh) | 可转向中央凹显示器 | |
JP7329105B2 (ja) | ディスプレイシステムのための深度ベース中心窩化レンダリング | |
US11710469B2 (en) | Depth based foveated rendering for display systems | |
US12007573B2 (en) | Dynamic field of view variable focus display system | |
Kramida | Resolving the vergence-accommodation conflict in head-mounted displays | |
JP2023504373A (ja) | 電子ディスプレイの中心窩レンダリングのための予測視線追跡システムおよび方法 | |
TWI551145B (zh) | 頭戴式顯示器之增強影像顯示技術 | |
US11586049B2 (en) | Steerable hybrid display using a waveguide | |
US20200137377A1 (en) | Binocular Display with Digital Light Path Length Modulation | |
JP2000503781A (ja) | 3次元観察および投影用システム | |
US20060158731A1 (en) | FOCUS fixation | |
EP3918781B1 (en) | Display system having 1-dimensional pixel array with scanning mirror | |
KR102026361B1 (ko) | 접안 디스플레이 장치 | |
KR102135888B1 (ko) | 프로젝션 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |