CN114442319A - 影像的显示方法 - Google Patents
影像的显示方法 Download PDFInfo
- Publication number
- CN114442319A CN114442319A CN202110657102.0A CN202110657102A CN114442319A CN 114442319 A CN114442319 A CN 114442319A CN 202110657102 A CN202110657102 A CN 202110657102A CN 114442319 A CN114442319 A CN 114442319A
- Authority
- CN
- China
- Prior art keywords
- image
- distance
- user
- plane
- eyes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000007613 environmental effect Effects 0.000 claims abstract description 37
- 230000004438 eyesight Effects 0.000 claims description 3
- 230000003190 augmentative effect Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 239000011521 glass Substances 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 239000010408 film Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 230000004308 accommodation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
Abstract
本发明提供一种影像的显示方法。一显示器提供一第一影像。当使用者观看第一影像时,使用者的两眼的一第一视线会聚面位于一第一位置,而当使用者观看一环境景象中的一物件时,两眼的一第二视线会聚面位于一第二位置。第一位置与使用者之间具有一第一距离,第二位置与使用者之间具有一第二距离,且第一距离和第二距离符合一第一关系式:Dn<D1<Df,D1代表第一距离,Dn=D2+Δn,Df=D2+Δf,D2代表第二距离,Δn=(De/2)*{tan[tan‑1(2*D2/De)‑δ]}‑D2,Δf=(De/2)*{tan[tan‑1(2*D2/De)+δ]}‑D2,De代表两眼之间的距离,δ代表人眼角鉴别率,且δ=0.02度。
Description
技术领域
本发明涉及一种影像的显示方法,特别是一种增强现实技术的影像的显示方法。
背景技术
增强现实(augmented reality,AR)显示技术已广泛应用在多种领域之中,此技术可将图像添加到现实环境的景象中。然而,在现有的影像的显示方法中,使用者在观看时无法有效叠合图像及现实环境的景象,造成图像或现实环境的景象模糊,因此,需要针对增强现实的显示方法提供改进方案。
发明内容
本发明的一个实施例提供一种影像的显示方法,其包括以下步骤:提供一显示器,显示器提供一第一影像,且第一影像和一环境景象存在于一使用者的一视野之中。当使用者观看第一影像时,使用者的两眼的一第一视线会聚面位于一第一位置,而当使用者观看环境景象中的一物件时,两眼的一第二视线会聚面位于一第二位置。第一视线会聚面的第一位置与使用者之间具有一第一距离,第二视线会聚面的第二位置与使用者之间具有一第二距离,且第一距离和第二距离符合一第一关系式:Dn<D1<Df,其中D1代表第一距离,Dn=D2+Δn,而Df=D2+Δf,其中D2代表第二距离,Δn=(De/2)*{tan[tan-1(2*D2/De)-δ]}-D2,且Δf=(De/2)*{tan[tan-1(2*D2/De)+δ]}-D2,以及其中De代表两眼之间的一距离,δ代表两眼的人眼角鉴别率,且δ=0.02度。
附图说明
图1所示为本发明第一实施例的电子装置的示意图。
图2所示为不同的使用者观看状态的比较示意图。
图3所示为使用者观看影像和环境景象的两眼的会聚面的位置关系示意图。
图4所示为本发明调整两眼的会聚面的位置的示意图。
图5所示为使用者观看影像时的两眼的会聚面和单眼的聚焦面的位置关系示意图。
图6所示为本发明第二实施例的使用者观看影像的示意图。
图7所示为本发明第二实施例的使用者观看状态的示意图。
图8所示为本发明第三实施例的使用者观看影像的示意图。
图9所示为本发明第四实施例的使用者观看状态的示意图。
图10所示为本发明调整单眼的聚焦面的位置的示意图。
附图标记说明:10-电子装置;100-显示器;1021、1023-眼睛;104-光学元件;108-控制器;106、110-感测元件;112-玻璃;114-瞳孔;Ap1、Ap2-焦点;D1-D6、Di、Dr、Da、De-距离;Df、Dt-上限距离;Dn、Ds-下限距离;La1-La4、Lb1-Lb14-光束;Par、Pax、Pa1、Pa2-聚焦面;Pe-面;Pi、Pj、Pk-虚像面;Pr-影像面;Pv1、Pv2、Pvr、Pvx-视线会聚面;Pxa-Pxd、Px1-Px14-子像素;R1、R2-范围;V1、V2、Vx-影像;Vp1-Vp14-视点;Vt1、Vt2-会聚点;X、Y-虚线框;(i)-(iii)-示例;Δd1、Δd2-距离差。
具体实施方式
通过参考以下的详细描述并同时结合附图可以理解本发明,须注意的是,为了使读者能容易了解及图式的简洁,本发明中的多张图式只绘出电子装置的一部分,且图式中的特定元件并非依照实际比例绘图。此外,图中各元件的数量及尺寸仅作为示意,并非用来限制本发明的范围。
本发明通篇说明书与权利要求中会使用某些词汇来指称特定元件。本领域技术人员应理解,电子设备制造商可能会以不同的名称来指称相同的元件。本文并不意在区分那些功能相同但名称不同的元件。在下文说明书与权利要求书中,“含有”与“包括”等词为开放式词语,因此其应被解释为“含有但不限定为…”之意。
此外,当元件被称为“直接”在另一个元件或膜层“上”、“直接设置”在另一个元件或膜层“上”、“直接连接到”另一个元件或膜层或“直接耦接到”另一个元件或膜层时,两者之间不存在有插入的元件或膜层。
电性连接可以是直接连接或是间接连接。两个元件电性连接可以是直接接触以传输电信号,两者之间未有其他元件。两个元件电性连接可以通过两者之间的元件中介桥接以传输电信号。电性连接亦可称为耦接。
虽然术语第一、第二、第三…可用以描述多种组成元件,但组成元件并不以此术语为限。此术语仅用于区别说明书内单一组成元件与其他组成元件。权利要求中可不使用相同术语,而依照权利要求中元件宣告的顺序以第一、第二、第三…取代。因此,在下文说明书中,第一组成元件在权利要求中可能为第二组成元件。
须知悉的是,以下所举实施例可以在不脱离本发明的精神下,将数个不同实施例中的技术特征进行替换、重组、混合以完成其他实施例。
本发明的电子装置可包括显示装置,但不以此为限。显示装置可包括触控显示装置(touch display)、曲面显示装置(curved display)或非矩形显示装置(free shapedisplay),但不以此为限。显示装置可为可弯折或可挠式显示装置。显示装置可例如包括发光二极管、液晶(liquid crystal)、荧光(fluorescence)、磷光(phosphor)、其它合适的显示介质或前述的组合,但不以此为限。发光二极管可例如包括有机发光二极管(organiclight-emitting diode,OLED)、无机发光二极管(inorganic light-emitting diode,LED)、次毫米发光二极管(mini-light-emitting diode,mini LED)、微发光二极管(micro-light-emitting diode,micro-LED)、量子点(quantum dots,QDs)发光二极管(可例如为QLED、QDLED)、其他适合的材料或上述的任意排列组合,但不以此为限。本发明的概念或原理也可应用在非自发光式的液晶显示器(liquid crystal display,LCD),但不以此为限。
显示装置可为前述的任意排列组合,但不以此为限。此外,显示装置的外型可为矩形、圆形、多边形、具有弯曲边缘的形状或其他适合的形状。显示装置可以具有驱动系统、控制系统、光源系统、层架系统等外围系统以支持显示装置。
请参考图1,其所示为本发明第一实施例的电子装置的示意图。电子装置10可例如是增强现实(augmented reality,AR)系统或其他型式的三维影像显示系统,但不以此为限。举例而言,本实施例的电子装置10是以应用在车辆上作为一种示例,但本发明的电子装置10的应用并不以此为限。在其他实施例中,增强现实系统也可应用在眼镜上,并且不限于此。
如图1,电子装置10中可包括一显示器100、一光学元件104和一控制器108,但不限于此。电子装置10还可选择性地包括一感测元件106和一感测元件110,但不限于此。控制器108可耦接于显示器100、光学元件104、感测元件106和感测元件110。
显示器100可提供一影像,所述影像可经由光学元件104投射至一玻璃112(如挡风玻璃)上,所述影像可在玻璃112外的一虚像面Pi上形成一影像V1(或可称为第一影像),且使用者的两眼(如眼睛1021和眼睛1023)可通过玻璃112观看到影像V1。因此,玻璃112外的影像V1和一环境景象可存在于使用者的视野之中。此外,显示器100可针对眼睛1021提供一左眼影像并可针对眼睛1023提供一右眼影像,其中左眼影像和右眼影像之间可具有一错位量,使得使用者最终观看到影像V1为一三维影像,但不以此为限。此外,本实施例的电子装置10可将单一影像V1投影至单一虚像面Pi上,但不以此为限。
请参考图2,其所示为不同的使用者观看状态的比较示意图,其中示例(i)为使用者观看环境景象中的物件的状态,示例(ii)为现有的增强现实系统的使用者观看状态,而示例(iii)为使用本实施例的影像的显示方法的使用者观看状态。在图2中,环境景象中的一第一物件(如道路、行人等)可位于一影像面Pr上,而增强现实系统产生的影像可位于虚像面Pi上。在示例(i)中,当使用者观看环境景象中的第一物件时,两眼(如眼睛1021和眼睛1023)的视线会聚在影像面Pr上,且单眼(如眼睛1021或眼睛1023)亦聚焦于影像面Pr上。换言之,在示例(i)中,两眼的视线会聚面Pvr、单眼的聚焦面Par以及环境景象中的第一物件的影像面Pr的位置是相同的。然而在示例(i)中,如虚线框X所示,当使用者观看环境景象中的第一物件时,使用者观看到的显示器的影像是模糊的。
在示例(ii)中,现有的增强现实系统所提供的一影像Vx可位于虚像面Pi上。当使用者观看影像Vx时,两眼的视线会聚在虚像面Pi上,且单眼亦聚焦于虚像面Pi上。换言之,在示例(ii)中,两眼的视线会聚面Pvx、单眼的聚焦面Pax以及影像Vx的虚像面Pi的位置是相同的。然而在示例(ii)中,如虚线框Y所示,当使用者观看影像Vx时,使用者观看到的位于虚线框Y内的环境景象中的第一物件是模糊的。
然而,当增强现实系统所提供的影像Vx是用于标示环境景象中的第一物件时,由于两眼的视线会聚面的位置差异,会造成使用者无法同时清楚观看到增强现实系统的影像Vx以及环境景象中的第一物件,或可能造成使用者感到不适。因此,在本发明的影像的显示方法中,通过调整使用者观看增强现实的影像V1的两眼的视线会聚面的位置,能够改善现有增强现实系统存在的缺点。
如图2中的示例(iii),在本实施例的影像的显示方法中,当使用者的两眼观看影像V1时,使用者的两眼的视线会聚于一视线会聚面Pv1(或可称为第一视线会聚面)可位于一第一位置,且视线会聚面Pv1的第一位置与使用者之间具有一距离D1(或可称为第一距离)。另当使用者观看环境景象中的第一物件时,两眼的视线会聚于一视线会聚面Pv2(或可称为第二视线会聚面)可位于一第二位置,且视线会聚面Pv2的第二位置与使用者之间具有一距离D2(或可称为第二距离)。
另外,请参考图3,其所示为使用者观看影像和环境景象的两眼的会聚面的位置关系示意图。图3中的距离Di可为使用者观看影像V1时,两眼的视线会聚面Pv1与使用者之间的距离D1,而图3中的距离Dr可为使用者观看环境景象中的第一物件时,两眼的视线会聚面Pv2与使用者之间的距离D2。如图3所示,距离Di和距离Dr可具有一范围R1,且距离D1和距离D2可落在范围R1之内。当距离D1和距离D2落在范围R1之内时,使用者可同时清楚观看到影像V1以及环境景象中的第一物件,或可有效减少使用者所感到的不适感。
当距离D1和距离D2落在范围R1之内时,距离D1和距离D2可符合一第一关系式:Dn<D1<Df。下限距离Dn=D2+Δn,而下限距离Dn(如图3)可为使用者能同时清楚观看到影像V1以及环境景象中的第一物件的最短的距离Di。上限距离Df=D2+Δf,而上限距离Df(如图3)可为使用者能同时清楚观看到影像V1以及环境景象中的第一物件的最远的距离Di。此外,Δn=(De/2)*{tan[tan-1(2*D2/De)-δ]}-D2,且Δf=(De/2)*{tan[tan-1(2*D2/De)+δ]}-D2。再者,De代表两眼之间的一距离(如图2中眼睛1021和眼睛1023之间的一距离De),δ代表所述两眼的一人眼角鉴别率,且δ=0.02度。
以下将说明本发明中调整使用者观看增强现实的影像V1的两眼的视线会聚面Pv1的位置的方法。请参考图4,其所示为本发明调整两眼的会聚面的位置的示意图。此外,为了图式的简洁,图4省略绘示了图1中的光学元件104和玻璃112。
在图4的一个示例中,显示器100的子像素Pxa可发出光束(light beam)La1至眼睛1021,而显示器100的子像素Pxb可发出光束La2至眼睛1023,其中光束La1和光束La2可相交于一会聚点(vergence point)Vt1。由以上的原理延伸,各图像可由对应的一或多个子像素所显示,且不同的图像可由不同的子像素所显示。眼睛1021可观看到光束La1所代表的图像,眼睛1023可观看到光束La2所代表的图像,通过由不同的子像素显示出光束La1和光束La2所代表的图像,可在光束La1和光束La2所代表的图像彼此之间产生错位量,进而使得两眼会聚在会聚点Vt1。
在图4的另一个示例中,显示器100的子像素Pxc可发出光束La3至眼睛1021,而显示器100的子像素Pxd可发出光束La4至眼睛1023,其中光束La3和光束La4可相交于一会聚点Vt2。眼睛1021可观看到光束La3所代表的图像,眼睛1023可观看到光束La4所代表的图像,通过由不同的子像素显示出光束La3和光束La4所代表的图像,可在光束La3和光束La4所代表的图像彼此之间产生错位量,进而使得两眼会聚在会聚点Vt2,而且会聚点Vt2的位置可和会聚点Vt1的位置不同。以此,通过不同的子像素提供图像至眼睛1021和眼睛1023,可调整两眼的视线会聚面的位置。
请再次参考图2,在示例(ii)的现有的增强现实系统中,当使用者观看影像Vx时,两眼的视线会聚面Pvx的位置和影像Vx的位置是相同的。然而,如图2中的示例(iii),相较于现有的增强现实系统,在本实施例的影像的显示方法中,由于视线会聚面Pv1的第一位置可被调整,因此视线会聚面Pv1的第一位置可和影像V1的一第三位置不同。
另一方面,如图2中的示例(iii),在本实施例的影像的显示方法中,当使用者的单眼(如眼睛1021或眼睛1023)观看影像V1时可聚焦于一聚焦面Pa1(或可称为第一聚焦面),且聚焦面Pa1的一第四位置和影像V1的第三位置相同,但不以此为限。此外,聚焦面Pa1的第四位置和使用者之间可具有一距离D3(或可称为第三距离)。
请参考图5,其所示为使用者观看影像V1时的两眼的会聚面和单眼的聚焦面的位置关系示意图。图5中的距离Di可为使用者观看影像V1时,两眼的视线会聚面Pv1与使用者之间的距离D1,而图5中的距离Da可为使用者观看影像V1时,单眼的聚焦面Pa1与使用者之间的距离D3。如图5所示,距离Di和距离Da可具有一范围R2,且距离D1和距离D3可落在范围R2之内。当距离D1和距离D3落在范围R2之内时,可减少聚焦面Pa1的位置和视线会聚面Pv1的位置之间的距离差,进而减轻使用者受到视觉辐辏调节冲突(vergence-accommodationconflict)所产生的不适感。
当距离D1和距离D3落在图5的范围R2之内时,距离D1和距离D3可符合一第二关系式,如下:
D3+(D1/1.3052-0.2657*D1)<Δd1<D3-(D1/1.1286+0.442*D1)
其中距离D1和距离D3之间具有一距离差Δd1,当距离差Δd1符合第二关系式时,可减轻使用者受到视觉辐辏调节冲突所产生的不舒服的感觉。此外,在一些实施例中,第二关系式可为:0≤Δd1<D3-(D1/1.1286+0.442*D1)。
显示器100可包括发光二极管、液晶(liquid crystal)、荧光(fluorescence)、磷光(phosphor)、其它合适的显示介质或前述的组合,但不以此为限。发光二极管可例如包括有机发光二极管(organic light-emitting diode,OLED)、无机发光二极管(inorganiclight-emitting diode,LED)、次毫米发光二极管(mini-light-emitting diode,miniLED)、微发光二极管(micro-light-emitting diode,micro-LED)、量子点(quantum dots,QDs)发光二极管(可例如为QLED、QDLED)、其他适合的材料或上述的任意排列组合,但不以此为限。显示器100也可为可弯折或可挠式电子装置。另如图4所示,显示器的表面上可包括多个透镜112,且透镜112可依不同光学上的需求而有不同形状,但不以此为限。
光学元件104可包括面镜、透镜或上述的组合,但不以此为限。光学元件104可包括影像面移位系统(image surface shift system),但不以此为限。影像面移位系统可包括投影系统(projector system)、光场技术(light filed technology)元件、光路折叠(folding light path)元件或上述的组合,但不以此为限。投影系统可包括透镜投影元件(lens projector)、面镜或上述的组合,但不以此为限。光场技术元件可包括全像光学元件(holographic optical element,HOE)、影像集成(integral image)元件或上述的组合,但不以此为限。光路折叠元件可包括多面镜空间(multi-mirror and space)元件,但不以此为限。
玻璃112可包括挡风玻璃,但不限于此。玻璃112可为楔型(wedge type)、平面型(flat type)、曲型(curve type)或上述的组合,但不以此为限。玻璃112上还可具有薄膜,但不以此为限。
感测元件106可包括眼睛追踪传感器(eye tracking sensor)、头部追踪传感器(head tracking sensor)、特征追踪传感器(feature tracking sensor)或上述的组合,但不以此为限。
感测元件110可包括环境传感器(environment sensor),但不以此为限。感测元件110可包括相机、光场相机(light field camera)、结构光相机(structure lightcamera)、特征侦测器(feature detector)、光达(lidar)、雷达(radar)或上述的组合,但不以此为限。
控制器108可包括可程序化的编程,以执行算法处理,其可例如包括中央处理器(central processing unit,CPU)、片上系统(system on chip,SoC)或专用集成电路(application specific integrated circuit,ASIC)等,但不以此为限。举例而言,控制器108可接收感测元件106和感测元件110所得到的信息,例如街景、路人、使用者的眼睛信息等。基于这些信息,控制器108可通过算法计算得到显示器100所需的影像信息。控制器108可将包含所述影像信息的显示数据传送到显示器100,而显示器100可根据所述显示数据提供影像V1,进而实现本发明的影像的显示方法。
下文将继续详述本发明的其它实施例,为了简化说明,下文中使用相同标号标注相同元件。为了突显各实施例之间的差异,以下针对不同实施例间的差异详加叙述,而不再对重复的技术特征作赘述。此外,这些重复的技术特征是可应用于以下的各实施例。
请参考图6和图7,图6所示为本发明第二实施例的使用者观看影像的示意图,而图7所示为本发明第二实施例的使用者观看状态的示意图。在一些实施例中,电子装置10的显示器100可提供多个影像。如图6,除了影像V1外,显示器还可提供一影像V2(或可称为第二影像),影像V2可位于一虚像面Pj上。虚像面Pj的位置可和虚像面Pi的位置不同,因此影像V2的位置可和影像V1的位置不同。使用者的两眼可通过玻璃112观看到影像V2,且影像V2和环境景象可存在于使用者的视野之中。
如图7,当使用者观看影像V2时,使用者的两眼的一视线会聚面Pv3(或可称为第三视线会聚面)可位于一第五位置,且视线会聚面Pv3的第五位置可和视线会聚面Pv1(如图2)的第一位置不同。当使用者观看环境景象中的一第二物件时,两眼的一视线会聚面Pv4(或可称为第四视线会聚面)可位于一第六位置。环境景象中的第一物件和第二物件的位置可不相同,因此图7中的视线会聚面Pv4的第六位置可和图2中的视线会聚面Pv2的第二位置不同。此外,视线会聚面Pv3的第五位置与使用者之间具有一距离D4(或可称为第四距离),而视线会聚面Pv4的第六位置与使用者之间具有一距离D5(或可称为第五距离)。
为了让使用者可同时清楚观看到影像V2以及环境景象中的第二物件,或可有效减少使用者所感到的不适感,可让距离D4和距离D5也落在图3的范围R1之内。此时,图3中的距离Di可为使用者观看影像V2时,两眼的视线会聚面Pv3与使用者之间的距离D4,而图3中的距离Dr可为使用者观看环境景象中的第二物件时,两眼的视线会聚面Pv4与使用者之间的距离D5。当距离D4和距离D5落在图3的范围R1之内时,距离D4和距离D5可符合一第三关系式:Ds<D4<Dt。
在第三关系式中,下限距离Ds=D5+Δs,而下限距离Ds(如图3)可为使用者能同时清楚观看到影像V2以及环境景象中的第二物件的最短的距离Di。上限距离Dt=D5+Δt,而上限距离Dt(如图3)可为使用者能同时清楚观看到影像V2以及环境景象中的第二物件的最远的距离Di。此外,Δs=(De/2)*{tan[tan-1(2*D5/De)-δ]}-D5,且Δt=(De/2)*{tan[tan-1(2*D5/De)+δ]}-D5。再者,De代表两眼之间的一距离(如图2中眼睛1021和眼睛1023之间的一距离De),δ代表所述两眼的一人眼角鉴别率,且δ=0.02度。
因此,当环境景象中存在第一物件和第二物件,且第一物件与使用者的距离和第二物件与使用者的距离不同时,电子装置10可对应第一物件提供影像V1并对应第二物件提供影像V2。此外,通过本实施例的影像的显示方法来调整使用者观看增强现实的影像V1和影像V2的两眼的视线会聚面的位置,可让使用者同时清楚观看到影像V1以及环境景象中的第一物件,或同时清楚观看到影像V2以及环境景象中的第二物件。
另一方面,当使用者的单眼(如眼睛1021或眼睛1023)观看影像V2时可聚焦于一聚焦面Pa2(也可称为第二聚焦面),且聚焦面Pa2的一第七位置和影像V2的位置相同。由于影像V2的位置和影像V1的位置不同(如图6),因此聚焦面Pa2(如图7)的第七位置也和聚焦面Pa1(如图2)的第四位置不同。此外,聚焦面Pa2的第七位置和使用者之间可具有一距离D6(或可称为第六距离)。
为了减轻使用者受到视觉辐辏调节冲突所产生的不适感,可让距离D4和距离D6也落在图5的范围R2之内。此时,图5中的距离Di可为使用者观看影像V2时,两眼的视线会聚面Pv3与使用者之间的距离D4,而图5中的距离Da可为使用者观看影像V2时,单眼的聚焦面Pa2与使用者之间的距离D6。当距离D4和距离D6落在图5的范围R2之内时,距离D4和距离D6可符合一第四关系式,如下:
D6+(D4/1.3052-0.2657*D4)<Δd2<D6-(D4/1.1286+0.442*D4)
其中距离D4和距离D6之间具有一距离差Δd2。此外,在一些实施例中,第四关系式可为:0≤Δd2<D6-(D4/1.1286+0.442*D4)。
在一些实施例中,影像V1和影像V2可由显示器100的不同区域显示,如图4,影像V1和影像V2可由显示器100的不同区域中的子像素所显示,使得使用者观看影像V1和影像V2时可具有不同的视线会聚面(如会聚点Vt1和会聚点Vt2),但不以此为限。另在一些实施例中,显示器100可在一第一时间点提供影像V1并在一第二时间点提供影像V2,且第一时间点和第二时间点不同,但不以此为限。上述方法可使得使用者观看影像V1和影像V2的两眼的视线会聚面的位置不同,或可使得使用者观看影像V1和影像V2的单眼的聚焦面的位置不同,其中调整聚焦面的位置的方法可参考后续的图10。
请参考图8,其所示为本发明第三实施例的使用者观看影像的示意图。在一些实施例(如图8)中,电子装置10的显示器100可提供一影像V3,影像V3可位于一虚像面Pk上,且影像V3或虚像面Pk中的不同部分和使用者之间的距离可以是不同的。举例而言,影像V3之中可包括由显示器100的不同区域(或子像素)所显示的不同影像内容,当使用者观看这些不同的影像内容时,使用者可具有不同距离的两眼的视线会聚面或单眼的聚焦面,但不以此为限。此外,所述两眼的视线会聚面和环境景象中的不同物件可满足图3中的范围R1,或所述两眼的视线会聚面和所述单眼的聚焦面可满足图5中的范围R2。因此,使用者可同时清楚观看到不同的影像内容以及环境景象中的不同物件,或可减轻使用者受到视觉辐辏调节冲突所产生的不适感。
请参考图9,其所示为本发明第四实施例的使用者观看状态的示意图。在一些实施例中,当两眼的视线会聚面Pv1与使用者之间的距离D1和单眼的聚焦面Pa1与使用者之间的距离D3落在图5中的范围R2之外时,或需减少聚焦面Pa1的位置和视线会聚面Pv1的位置之间的距离差,以更进一步减轻使用者受到视觉辐辏调节冲突所产生的不适感时,可于影像的显示方法中进一步调整聚焦面Pa1的位置。
不同于第一实施例(如图2的示例(iii)),在本实施例(如图9)中,当使用者的单眼(如眼睛1021或眼睛1023)观看影像V1时聚焦于聚焦面Pa1,聚焦面Pa1的第四位置可和影像V1的第三位置不同,且聚焦面Pa1的第四位置也可和视线会聚面Pv1的第一位置不同。因此,可使得聚焦面Pa1的第四位置更接近视线会聚面Pv1的第一位置,而可进一步缩减距离D1和距离D3之间的距离差Δd1。
以下将说明本实施例的调整单眼的聚焦位置的方法。请参考图10,其所示为本发明调整单眼的聚焦面的位置的示意图。图10以眼睛1021为例,但此方法也可应用于眼睛1023。此外,为了图式的简洁,图10省略绘示了图1中的光学元件104和玻璃112。
在图10的示例(i)中,显示器100的子像素Px1、子像素Px2、子像素Px3、子像素Px4、子像素Px5、子像素Px6和子像素Px7可分别发出光束Lb1、光束Lb2、光束Lb3、光束Lb4、光束Lb5、光束Lb6和光束Lb7至眼睛1021所在的一面Pe上的视点(view point)Vp1、视点Vp2、视点Vp3、视点Vp4、视点Vp5、视点Vp6和视点Vp7,其中光束Lb1、光束Lb2、光束Lb3、光束Lb4、光束Lb5、光束Lb6和光束Lb7可聚焦于一焦点(accommodation point)Ap1。
再者,由子像素Px3、子像素Px4和子像素Px5发出的光束Lb3、光束Lb4和光束Lb5可以不同的视像方向(view direction)进入到眼睛1021的瞳孔114,换言之,眼睛1021可同时观看到由不同子像素发出的光束Lb3、光束Lb4和光束Lb5。由以上的原理延伸,各光束可各自代表一图像,各图像可由对应的一或多个子像素所显示,且不同的图像可由不同的子像素所显示。举例而言,显示器100所提供的一个影像内可同时包括了光束Lb1至光束Lb7所代表的图像,而眼睛1021可同时观看到光束Lb3、光束Lb4和光束Lb5所代表的图像。通过由不同的子像素显示出光束Lb3、光束Lb4和光束Lb5所代表的图像,可在同一影像内光束Lb3、光束Lb4和光束Lb5所代表的图像彼此之间产生错位量,进而使得眼睛1021可聚焦于焦点Ap1。
另在图10的示例(ii)中,显示器100的子像素Px8、子像素Px9、子像素Px10、子像素Px11、子像素Px12、子像素Px13和子像素Px14可分别发出光束Lb8、光束Lb9、光束Lb10、光束Lb11、光束Lb12、光束Lb13和光束Lb14至眼睛1021所在的面Pe上的视点Vp8、视点Vp9、视点Vp10、视点Vp11、视点Vp12、视点Vp13和视点Vp14,其中光束Lb8、光束Lb9、光束Lb10、光束Lb11、光束Lb12、光束Lb13和光束Lb14可聚焦于另一焦点Ap2,且焦点Ap2和焦点Ap1的位置不同。
再者,由子像素Px8、子像素Px9和子像素Px10发出的光束Lb8、光束Lb9和光束Lb10可以不同的视像方向进入到眼睛1021的瞳孔114,换言之,眼睛1021可同时观看到由不同子像素发出的光束Lb8、光束Lb9和光束Lb10。举例而言,显示器100所提供的一个影像内可同时包括了光束Lb8至光束Lb14所代表的图像,而眼睛1021可同时观看到光束Lb8、光束Lb9和光束Lb10所代表的图像。通过由不同的子像素显示出光束Lb8、光束Lb9和光束Lb10所代表的图像,可在同一影像内光束Lb8、光束Lb9和光束Lb10所代表的图像彼此之间产生错位量,进而使得眼睛1021可聚焦于焦点Ap2。
如图10,通过不同的子像素(如子像素Px1-Px7及子像素Px8-Px14)显示出不同影像(如包含光束Lb1-Lb7的影像及包含光束Lb8-Lb14的影像),可使显示器100所提供的影像具有不同的错位量,进而可调整图9中单眼的聚焦面Pa1的第四位置。举例而言,控制器108可通过算法计算得到显示器100所需的影像信息(例如有关错位量的信息),控制器108可将包含所述影像信息的显示数据传送到显示器100,而显示器100可根据所述显示数据提供影像V1,进而实现调整单眼的聚焦面的方法。
此外,以图10为例,视点Vp1、视点Vp2、视点Vp6和视点Vp7(或视点Vp11、视点Vp12、视点Vp13和视点Vp14)位于瞳孔114外,这些视点(或其所代表的图像)让眼睛1021在移动时还能看到影像,亦即这些视点增加了眼睛移动范围的维度。
在本发明的影像的显示方法中,可通过调整两眼的视线会聚面的位置,使得视线会聚面的位置和影像的位置不相同。当使用者观看增强现实的影像时,使用者的两眼的视线会聚面与使用者之间具有第一距离,且单眼的聚焦面与使用者之间具有第三距离。另当使用者观看环境景象中的物件时,两眼的视线会聚面与使用者之间具有第二距离。通过将第一距离和第二距离控制在图3的范围R1之内,可使得使用者能同时清楚观看到增强现实的影像以及环境景象中的物件,或可有效减少使用者所感到的不适感。另外,通过将第一距离和第三距离控制在图5的范围R2之内,可减轻使用者受到视觉辐辏调节冲突所产生的不舒服的感觉。
以上所述仅为本发明的实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种影像的显示方法,其特征在于,包括:
提供一显示器,所述显示器提供一第一影像,且所述第一影像和一环境景象存在于一使用者的一视野之中,当所述使用者观看所述第一影像时,所述使用者的两眼的一第一视线会聚面位于一第一位置,而当所述使用者观看所述环境景象中的一物件时,所述两眼的一第二视线会聚面位于一第二位置,
其中所述第一视线会聚面的所述第一位置与所述使用者之间具有一第一距离,所述第二视线会聚面的所述第二位置与所述使用者之间具有一第二距离,且所述第一距离和所述第二距离符合一第一关系式:
Dn<D1<Df,
其中D1代表所述第一距离,Dn=D2+Δn,而Df=D2+Δf,
其中D2代表所述第二距离,Δn=(De/2)*{tan[tan-1(2*D2/De)-δ]}-D2,且Δf=(De/2)*{tan[tan-1(2*D2/De)+δ]}-D2,以及
其中De代表所述两眼之间的一距离,δ代表所述两眼的一人眼角鉴别率,且δ=0.02度。
2.如权利要求1所述的影像的显示方法,其特征在于,所述第一影像位于一第三位置,且所述第一视线会聚面的所述第一位置和所述第一影像的所述第三位置不同。
3.如权利要求2所述的影像的显示方法,其特征在于,当所述使用者的所述两眼中的一单眼观看所述第一影像时聚焦于一第一聚焦面,且所述第一聚焦面的一第四位置和所述第一影像的所述第三位置相同。
4.如权利要求3所述的影像的显示方法,其特征在于,所述第一聚焦面的所述第四位置和所述使用者之间具有一第三距离,且所述第三距离和所述第一距离符合一第二关系式:
D3+(D1/1.3052-0.2657*D1)<Δd1<D3-(D1/1.1286+0.442*D1)
其中D1代表所述第一距离,D3代表所述第三距离,且Δd1代表所述第一距离和所述第三距离之间的一距离差。
5.如权利要求4所述的影像的显示方法,其特征在于,所述显示器还提供一第二影像,且所述第二影像和所述环境景象存在于所述使用者的所述视野之中,当所述使用者观看所述第二影像时,所述使用者的所述两眼的一第三视线会聚面位于一第五位置,而当所述使用者观看所述环境景象中的另一物件时,所述两眼的一第四视线会聚面位于一第六位置,
其中所述第三视线会聚面的所述第五位置与所述使用者之间具有一第四距离,所述第四视线会聚面的所述第六位置与所述使用者之间具有一第五距离,且所述第四距离和所述第五距离符合一第三关系式:
Ds<D4<Dt,
其中D4代表所述第四距离,Ds=D5+Δs,而Dt=D5+Δt,
其中D5代表所述第五距离,Δs=(De/2)*{tan[tan-1(2*D5/De)-δ]}-D5,且Δt=(De/2)*{tan[tan-1(2*D5/De)+δ]}-D5。
6.如权利要求5所述的影像的显示方法,其特征在于,当所述使用者的所述单眼观看所述第二影像时聚焦于一第二聚焦面,所述第二聚焦面的一第七位置不同于所述第一聚焦面的所述第四位置。
7.如权利要求6所述的影像的显示方法,其特征在于,所述第二聚焦面的所述第七位置和所述使用者之间具有一第六距离,其中所述第六距离和所述第四距离符合一第四关系式:
D6+(D4/1.3052-0.2657*D4)<Δd2<D6-(D4/1.1286+0.442*D4)
其中D4代表所述第四距离,D6代表所述第六距离,且Δd2代表所述第四距离和所述第六距离之间的一距离差。
8.如权利要求5所述的影像的显示方法,其特征在于,所述显示器在一第一时间点提供所述第一影像并在一第二时间点提供所述第二影像,所述第一时间点和所述第二时间点不同,当所述使用者的所述单眼观看所述第一影像时聚焦于一第一聚焦面,当所述使用者的所述单眼观看所述第二影像时聚焦于一第二聚焦面,且所述第一聚焦面的一第四位置和所述第二聚焦面的一第七位置不同。
9.如权利要求1所述的影像的显示方法,其特征在于,所述显示器还提供一第二影像,所述第一影像和所述第二影像由所述显示器的不同区域显示,当所述使用者的所述两眼中的一单眼观看所述第一影像时聚焦于一第一聚焦面,当所述使用者的所述单眼观看所述第二影像时聚焦于一第二聚焦面,且所述第一聚焦面的一第四位置和所述第二聚焦面的一第七位置不同。
10.如权利要求2所述的影像的显示方法,其特征在于,当所述使用者的所述两眼中的一单眼观看所述第一影像时聚焦于一第一聚焦面,所述第一聚焦面的一第四位置和所述第一影像的所述第三位置不同,且所述第一聚焦面的所述第四位置和所述第一视线会聚面的所述第一位置不同。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/495,829 US11393368B2 (en) | 2020-11-05 | 2021-10-07 | Display method of image |
EP21203383.1A EP3995880A1 (en) | 2020-11-05 | 2021-10-19 | Display method of image |
US17/838,254 US11705026B2 (en) | 2020-11-05 | 2022-06-12 | Display method of electronic device |
US18/202,307 US12067908B2 (en) | 2020-11-05 | 2023-05-26 | Display method of display disposed in vehicle for displaying virtual images at different positions |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063109873P | 2020-11-05 | 2020-11-05 | |
US63/109,873 | 2020-11-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114442319A true CN114442319A (zh) | 2022-05-06 |
Family
ID=81362518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110657102.0A Pending CN114442319A (zh) | 2020-11-05 | 2021-06-11 | 影像的显示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114442319A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09322197A (ja) * | 1996-05-24 | 1997-12-12 | Olympus Optical Co Ltd | 立体視ディスプレイ装置 |
US20140267398A1 (en) * | 2013-03-14 | 2014-09-18 | Honda Motor Co., Ltd | Augmented reality heads up display (hud) for yield to pedestrian safety cues |
CN104954777A (zh) * | 2014-03-29 | 2015-09-30 | 罗恩·福里丹托尔 | 一种显示视频数据的方法和装置 |
US20160260258A1 (en) * | 2014-12-23 | 2016-09-08 | Meta Company | Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest |
CN107848416A (zh) * | 2015-08-03 | 2018-03-27 | 三菱电机株式会社 | 显示控制装置、显示装置及显示控制方法 |
CN109979016A (zh) * | 2019-03-26 | 2019-07-05 | 徐治国 | 一种ar设备显示光场影像的方法、ar设备和存储介质 |
CN111201151A (zh) * | 2017-10-10 | 2020-05-26 | 麦克赛尔株式会社 | 信息显示装置 |
CN111295702A (zh) * | 2017-11-02 | 2020-06-16 | 麦克赛尔株式会社 | 虚像显示装置以及使用该装置的头戴式显示器 |
-
2021
- 2021-06-11 CN CN202110657102.0A patent/CN114442319A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09322197A (ja) * | 1996-05-24 | 1997-12-12 | Olympus Optical Co Ltd | 立体視ディスプレイ装置 |
US20140267398A1 (en) * | 2013-03-14 | 2014-09-18 | Honda Motor Co., Ltd | Augmented reality heads up display (hud) for yield to pedestrian safety cues |
CN104954777A (zh) * | 2014-03-29 | 2015-09-30 | 罗恩·福里丹托尔 | 一种显示视频数据的方法和装置 |
US20160260258A1 (en) * | 2014-12-23 | 2016-09-08 | Meta Company | Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest |
CN107848416A (zh) * | 2015-08-03 | 2018-03-27 | 三菱电机株式会社 | 显示控制装置、显示装置及显示控制方法 |
CN111201151A (zh) * | 2017-10-10 | 2020-05-26 | 麦克赛尔株式会社 | 信息显示装置 |
CN111295702A (zh) * | 2017-11-02 | 2020-06-16 | 麦克赛尔株式会社 | 虚像显示装置以及使用该装置的头戴式显示器 |
CN109979016A (zh) * | 2019-03-26 | 2019-07-05 | 徐治国 | 一种ar设备显示光场影像的方法、ar设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Haas | 40‐2: Invited paper: Microdisplays for augmented and virtual reality | |
US10334236B2 (en) | See-through type display apparatus | |
TWI786150B (zh) | 電子顯示器及其控制方法 | |
CN109302594B (zh) | 包括眼睛跟踪器的投影显示装置 | |
WO2020042605A1 (en) | Display apparatus and display system | |
US20210215937A1 (en) | Light projection system including an optical assembly for correction of differential distortion | |
JP2017003981A (ja) | 表示装置及び表示装置の動作方法 | |
CN109073900B (zh) | 具有多路复用微投影仪的平视显示器 | |
US10775617B2 (en) | Eye tracked lens for increased screen resolution | |
CN114365027A (zh) | 显示具有景深的物体的系统与方法 | |
US10353212B2 (en) | See-through type display apparatus and method of operating the same | |
CN114137737A (zh) | 光场显示装置 | |
US20190035157A1 (en) | Head-up display apparatus and operating method thereof | |
US10698218B1 (en) | Display system with oscillating element | |
US10382738B2 (en) | Method and apparatus for processing image | |
JP7438737B2 (ja) | 3次元映像を表示する装置及び方法 | |
CN112970247B (zh) | 显示多重景深影像的系统与方法 | |
CN114442319A (zh) | 影像的显示方法 | |
EP3995880A1 (en) | Display method of image | |
US20240061246A1 (en) | Light field directional backlighting based three-dimensional (3d) pupil steering | |
US11716457B2 (en) | Display method of image | |
US10877276B1 (en) | Pixel design for calibration compensation | |
US11682325B2 (en) | Display apparatus including free-formed surface and operating method thereof | |
WO2024188002A1 (zh) | 光场显示装置 | |
CN114979609A (zh) | 显示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |