CN109764888A - 显示系统以及显示方法 - Google Patents
显示系统以及显示方法 Download PDFInfo
- Publication number
- CN109764888A CN109764888A CN201810669179.8A CN201810669179A CN109764888A CN 109764888 A CN109764888 A CN 109764888A CN 201810669179 A CN201810669179 A CN 201810669179A CN 109764888 A CN109764888 A CN 109764888A
- Authority
- CN
- China
- Prior art keywords
- ken
- viewer
- image
- eye
- right eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种显示系统,包括一影像获取模块、一显示装置以及一处理单元。处理单元耦接于影像获取模块与显示装置。影像获取模块获取观看者的一头部影像。处理单元根据头部影像,计算一头部向量,其中头部向量包括观看者与显示装置之间的一距离的信息。处理单元根据头部向量计算一双目立体视域。显示装置在双目立体视域显示一画面。
Description
技术领域
本发明关于一种显示系统以及显示方法,尤指一种利用三维效果在有限的显示范围中显示更多内容的显示系统以及方法。
背景技术
人眼的视域(field of view,FOV)有一定的界线,因此必须通过不停的更换视线才可以增加看到的范围。举例来说,假设在真实世界中有一台汽车位于一观看者的正前方,因为视域的限制,观看者仅能看到的汽车的正面。但如果观看者稍微往右边移动,将视线由右侧往左边看,就会看到部分汽车正面以及部分侧面的影像。通过移动,在真实世界中视域可以无限地被延伸。然而如果画面是通过显示装置呈现时,受限于显示装置尺寸的关系,影像仅能以符合显示装置的尺寸呈现,能显示的信息也有限。
此外,已知的平面画面利用透视法使得物件(例如一台汽车)在显示装置的屏幕上呈现立体的视觉效果。但是,透视法是一种将三维实体影像压缩至平面呈现的方法,这样的平面立体物件是静态的,在观赏者转变观赏视线后,所看物件的角度及样貌并不会因此而改变,这与我们在真实世界中所体验到的现象不同,大大减损了显示画面呈现的真实感。
发明内容
根据部分实施例,本发明揭露一种显示系统。本发明的显示系统包括:一显示装置;一影像获取模块,用于获取一观看者的一头部影像;以及一处理单元,与影像获取模块以及显示装置连接。处理单元根据头部影像计算一头部向量,且根据观看者的一脸部影像计算该观看者的一左眼位置以及一右眼位置。处理单元根据头部向量、左眼位置以及右眼位置分别计算一左眼视域以及一右眼视域,且处理单元根据左眼视域以及右眼视域的集合得到一双目立体视域。显示装置在双目立体视域显示一画面。
根据部分实施例,本发明揭露一种随着一观看者位置改变显示方式以及内容的显示系统。包括:一显示装置;一影像获取模块,其中当观看者位于一第一视线位置时,影像获取模块获取观看者的一第一头部影像,且当观看者位于一第二视线位置时,影像获取模块获取观看者的一第二头部影像;以及一处理单元,与显示装置以及影像获取模块连接。其中处理单元根据第一头部影像计算观看者位于第一视线位置的一第一头部向量;取得观看者的一第一脸部影像,并根据第一脸部影像计算观看者的一第一左眼位置以及一第一右眼位置;根据第一头部向量、第一左眼位置以及第一右眼位置分别得到一第一左眼视域、一第一右眼视域以及一第一双目立体视域,其中第一双目立体视域为第一左眼视域以及第二右眼视域的集合。此外,处理单元根据第二头部影像计算观看者位于第二视线位置的一第二头部向量;取得观看者的一第二脸部影像,并根据第二脸部影像计算观看者的一第二左眼位置以及一第二右眼位置;根据第二头部向量、第二左眼位置以及第二右眼位置分别得到一第二左眼视域、一第二右眼视域以及一第二双目立体视域,其中第二双目立体视域为第二左眼视域以及第二右眼视域的集合。其中,当观看者位于第一视线位置时,显示装置在第一双目立体视域显示一第一画面,而当观看者位于第二视线位置时,显示装置在第二双目立体视域显示一第二画面。
本发明另外的实施例揭露一种随着一观看者位置改变显示一导航地图图资的显示方法。显示方法包括:储存导航地图图资于一数据库中;判断观看者位于一第一视线位置,且对应导航地图图资的一第一部分显示一第一画面给观看者;以及判断观看者由第一视线位置移至一第二视线位置,且对应导航地图图资的一第二部分显示一第二画面给观看者。
有关本发明之前述及其他技术内容、特点与功效,在以下配合参考图式的实施例的详细说明中,将可清楚的呈现。
附图说明
图1为本发明实施例智能汽车的示意图。
图2为本发明实施例显示系统的功能方块示意图。
图3为本发明实施例显示系统的示意图。
图4为本发明实施例影像获取模块所获取包括观看者的头部影像的示意图。
图5为本发明实施例处理单元提取观看者脸部影像的示意图。
图6为本发明实施例的显示方法的流程图。
图7A为图3所示的显示系统的俯视示意图。
图7B为本发明实施例显示当观看者由左往右看时的示意图。
图7C图为本发明实施例显示当观看者由右往左看时的示意图。
图8为图3所示的显示系统的侧视示意图。
图9为显示系统处理画面放大的俯视示意图。
图10为显示系统处理画面放大的侧视示意图。
图11A、11B与11C分别为本发明实施例显示系统根据观看者相对显示装置移动时的显示方法的流程图。
图12为图7B所示显示系统用于显示该地图信息的情境示意图。
图13为图7C所示显示系统用于显示该地图信息的情境示意图。
图14为观看者的视线位置改变显示的方式并同时调整显示内容示意图。
附图标记:
1000:智能汽车;1:底盘;2:车架;20:座舱;3:显示系统;30:影像获取模块;32:显示装置;34:处理单元;;40:头部;401:左眼;
402:右眼;42:头部影像;44:脸部影像;440:脸部特征信息;R、R':头部向量;R0:第一头部向量;R1、R2:第二头部向量;D1、D1':距离;D2:景深;A:显示范围;FOV_A、FOV_C:视野范围;B:建筑物;BFOV、BFOV':双目立体视域;BFOV:第一双目立体视域;BFOV-1:第二双目立体视域;LFOV、LFOV':左眼视域;LFOV:第一左眼视域;LFOV-1:第二左眼视域;RFOV、RFOV':右眼视域;RFOV:第一右眼视域;RFOV-1:第二右眼视域;OA:重叠区;HAOV:水平视角;VAOV:垂直视角;M、PC:画面;LRI:左眼渲染图像;RRI:右眼渲染图像;P1、P2、A1、A2:位置;X:第一转轴;X1:第一方向;X2:第二方向。
具体实施方式
以下实施例中所提到的方向用语,例如:上、下、左、右、前或后等,是参考附图的方向。因此,使用的方向用语是用来说明并非用来限制本发明。
本发明揭露一显示系统以及方法。本发明的显示系统与方法可根据观看者的视线改变显示的方式,通过本发明的显示系统,物件可以呈现在仿真真实世界中随观看者观看视线变化而变化的效果,进一步使得物件的显示更具真实性。此外,本发明也可根据观看者的位置变化改变显示方式以及对应的内容,达到视域(field of view,FOV)延伸的效果。
图1是将本发明的显示方法以及显示系统实施于一种智能汽车1000的示意图。智能汽车1000包括一底盘1、一车架2及一显示系统3。车架2设置于底盘1上且具有一座舱20。须注意的是本发明的显示系统以及方法并不限于仅能应用于智能汽车上,任何配备有显示系统的应用,例如手持装置等等都可采用本发明所揭露的方法与系统。
图2是依据本发明实施例的显示系统功能方块图。如图所示,显示系统3包括一影像获取模块30、一显示装置32及一处理单元34。影像获取模块30及显示装置32可设置于座舱20内,处理单元34耦接于影像获取模块30及显示装置32。实施上,影像获取模块30可为一摄影机或任何具有获取影像功能的装置。显示装置32可以是但不限于一数字车用仪表板(digital vehicle instrument cluster)、一中控面板(central console panel)或一抬头显示器(head-up display)。处理单元34可以是但不限于一车用电子单元(ElectronicControl Unit,ECU)。
如前所述,不论显示图像中的物件是立体或是平面的,一般显示装置仅能以平面地方式显示这些图像。不论由什么方向观看显示装置,这些图像都不会有任何的变化,因此对观看者来说,显示装置能够呈现的视域范围是固定不变的。本发明的相关申请案揭露一种随观看者视线角度改变显示内容的显示系统以及显示方法。在该申请案中,根据观看者视线的不同,显示装置可以显示不同的内容。
延续该申请案的虚拟空间(virtual box)概念,本发明揭露一种利用虚拟空间的延伸感显示不同景深的内容。另外,也通过这样的虚拟空间效果,相同的显示内容(例如一地图图资数据)可以根据观看者视线的不同而以对应的方式以及内容显示在虚拟空间的任何位置上。
举例来说,假设显示系统要显示的内容为一导航数据。如上所述,因为尺寸大小的限制,显示装置在已知技术的应用下仅能显示有限范围的内容。如果观看者想要得到更多的数据,可能必须通过放大、缩小或移动显示画面的方式达到这样的目的。以图13为例,假设导航系统已具备有完整的图资数据,对应的范围为如图13所示的显示范围A。因为显示装置的尺寸限制,且为了让观看者能清楚地看显示数据,所以仅有部分的图资数据(图13的实线部分)能够显示在显示装置上。如图13所示,假设显示装置的右边界刚好切在第五大道上。如果观看者想知道第五大道右边的的建筑物B是什么,他必须要通过缩小显示影像的方式或是将画面往右方拉移到相对的位置上才能让有限显示范围的显示装置能够显示相关的数据。反之,本发明利用判断观看者的视线位置改变显示的方式并同时调整显示内容,使得即使是显示范围有限的显示装置也可以通过简单的方式显示更多的内容。以图12以及图13为例,图12为观看者由较为偏左的视角向右观看时,地图图资会在显示装置32中呈现出的画面。而图13则为同样的地图图资但观看者由较为偏右边的视角向左观看时所呈现出的画面。如图12所示,此时观看者看到的路线规划以及其他车辆等信息会呈现在画面的右手边,且观看者可以看到地图图资较为偏右边的内容。反之,如图13所示,观看者看到的路线规划以及其他车辆的信息则会呈现在画面的左手边,且观看者也可以看到地图图资较为偏左边的内容。连续上面的例子,如果观看者想要知道第五大道的建筑物B为何,在本发明的应用下,观看者仅需要将视线稍微偏右边,使得视线变成由右向左看,本发明的显示系统3即可以在显示装置32上显示出对应的建筑物B信息。在这样的效果下,本发明显示系统3能让观看者用更直觉的方式获得额外的信息,且进一步提供观看者更贴近现实生活中人眼观看实际物件时所呈现的视觉效果。应用在例如地图图资或导航的情况下,驾驶人可以更容易地辨识路线方向,且在有需要特别注意的情况发生时,更能直觉反应。
图3为本发明显示系统3的实施例示意图。如图所示,本发明显示系统3可显示包括有一景深信息的画面(如图12以及图13所示的地图图资画面)。当观看者通过显示装置32观看画面时,视觉上会觉得显示装置32后方有一虚拟空间(图中未显示标号)。本发明利用这样的视觉虚拟空间使得显示物件(例如图12以及图13所示的建筑物、前方汽车、路线等)可以随着观看者的视线而显示在虚拟空间的任何一个地方,同时使得显示装置32可以在有限的显示范围中显示出更多的信息。
图3为例解释本发明的显示系统如何运作。假设观看者距离显示装置的距离为D1,因为显示画面M为具有景深资料的画面,对观看者而言,通过显示装置32观看显示画面M时,会觉得显示画面M不是在呈现在显示装置32的表面,而是距离显示装置32表面后方D2位置的虚拟空间中。显示画面M与显示装置32的距离D2即为画面M的景深。
由于影像获取模块30是设置在显示装置32上(或附近),且观看者是坐于座舱20内。对处理单元34来说,影像获取模块30的位置以及座舱20的位置为已知,根据这些相关位置并利用一参考原点(例如影像获取模块30),处理单元34便可建立一坐标系统。在当影像获取模块30对观看者获取头部40的影像时,处理单元34根据坐标系统得到头部40相对于显示装置32的一头部向量R。其中头部向量R可以用来表示观看者的头部位置,且头部像量R可包括头部40与显示装置32之间的一距离D1的信息。
在正确显示画面前,本发明显示系统3也会先针对观看者的脸部特征进行定义。图4为影像获取模块30获取观看者的一头部影像42。如图5所示,处理单元34根据脸部影像44定义脸部特征信息440。本发明的脸部影像44可由头部影像42取得或者由影像获取模块30直接获取。脸部影像以及脸部特征的建立方法可以通过一般已知影像辨识与图像处理的方法进行,本发明不再赘述。脸部特征可包括:左眼瞳孔、右眼瞳孔、鼻头、眉心、嘴角等。相应地,脸部特征信息440包括左眼位置、右眼位置、鼻头位置、眉心位置、嘴角位置等,在本实施例中,脸部特征信息440包括一左眼位置及一右眼位置。处理单元34会根据脸部特征信息440在不同的脸部影像44上的变化分析并判断观看者的视角等。
图6为本发明实施例的显示方法的流程图;显示方法包括下列步骤:
步骤100:影像获取模块30获取观看者的头部影像42。
步骤101:处理单元34根据头部影像42,计算一头部向量R。
步骤102:处理单元34根据观看者的脸部影像44以及脸部特征信息440计算判断观看者的一左眼位置(left eye position)及一右眼位置(right eye position);其中脸部影像44可由头部影像42取得,或者由影像获取模块30直接获取得到。
步骤103:处理单元34根据头部向量R、该左眼位置及该右眼位置,计算一左眼视域LFOV、一右眼视域RFOV以及一双目立体视域BFOV。
步骤104:处理单元34根据左眼视域LFOV产生一左眼渲染图像LRI。
步骤105:处理单元34根据右眼视域RFOV产生一右眼渲染图像RRI。
步骤106:处理单元34根据左眼渲染图像LRI及右眼渲染图像RRI,产生一画面(plane of content)PC。
步骤107:显示装置32在双目立体视域BFOV显示画面PC。
以下针对本发明的显示系统以及方法作进一步说明,请一并参阅图2至图3、图7A以及图8。其中图7A为图3所示的显示系统3的俯视示意图;图8为图3所示的显示系统3的侧视示意图。
首先,影像获取模块30获取观看者头部40的头部影像42。根据头部影像42,处理单元34利用已知的位置关系得到一头部向量R。举例来说,假设影像获取模块30的位置固定不变,本发明的显示系统3便可将其定义为坐标系统的原点;根据观看者与影像获取模块30的相对位置,处理单元34便可计算出对应的头部向量。
接着,处理单元34根据预录的脸部特征依据观看者的脸部影像44判断观看者的左眼位置(left eye position)及右眼位置(right eye position)。其中脸部影像44可由头部影像42取得,或者由影像获取模块30直接获取得到。接着,如图3、图7A以及图8所示,处理单元34根据头部向量R、左眼位置及右眼位置,估算一左眼视域LFOV(left eye field ofview)、一右眼视域RFOV(right eye field of view)以及一双目立体视域BFOV(binocularfield of view)。其中,左眼视域LFOV与右眼视域RFOV是根据人类水平视角HAOV(horizontal angle of view)、垂直视角VAOV(vertical angle of view)、头部40与显示装置32之间的距离D1以及显示装置32与要显示画面的景深D2所决定。举例来说,如图7A所示,假设显示画面M为一景深D2的画面,则左眼视域LFOV可以视为由观看者左眼位置延伸到显示装置32后方距离D2的位置所形成的区域,另外右眼视域RFOV则可以视为由观看者右眼位置延伸到显示装置32后方距离D2的位置所形成的区域,而双目立体视域BFOV则为左眼视域LFOV以及右眼视域RFOV所组成的区域。
接着,处理单元34根据左眼视域LFOV计算一左眼渲染图像LRI(left eyerendering image),且根据右眼视域RFOV计算一右眼渲染图像RRI(right eye renderingimage)。接着,处理单元34根据左眼渲染图像LRI及右眼渲染图像RRI产生一画面PC。在本发明中,渲染图像的数据为已知且完整的数据。举上述导航为例,本发明的显示系统3可还包括有一数据库,储存所有完整的地图图资数据。此后,显示系统3便可以根据观看者的视线角度从数据库中抓取对应的数据并以图像的方式呈现在显示装置32上。另外,数据库也可以仅储存部分的地图图资数据,当需要显示对应的内容时,处理单元34可以及时运算取得对应的内容。
如图7A所示,左眼视域LFOV与右眼视域RFOV在双目立体视域BFOV内是具有一重叠区OA(overlapping area)。位于重叠区OA内的左眼渲染图像LRI及右眼渲染图像RRI需经过融合(fusion)处理,位于重叠区OA外的左眼渲染图像LRI保留,且位于重叠区OA外的右眼渲染图像RRI保留。由此,处理单元34便可根据左眼渲染图像LRI及右眼渲染图像RRI产生所要呈现的内容-画面PC。最后,显示装置32在双目立体视域BFOV显示画面PC。
本发明显示系统3会根据观看者的视线而改变呈现画面PC的显示方式以及内容。在本发明中,观看者的视线可根据观看者的头部40位置(头部向量R)或者观看者的脸部特征的变化而判定。举例来说,本发明的显示系统3根据观看者的头部影像42以及脸部影像44通过图像处理的方式判断观看者头部40、左眼401与右眼402的位置,再通过处理单元34计算后,在显示装置32上对应头部40、左眼401与右眼402的位置的双目立体视域BFOV显示画面PC。
由于影像获取模块30是固设于显示装置32上,影像获取模块30所能获取的视角为固定不变的。在这样的前提下,影像获取模块30所获取出的头部影像42或脸部影像44便会随着观看者的位置而有不同。举例来说,如图3所示,假设观看者由位置P1移到位置P2时,脸部影像44便会由如图5实线所表示的样子转变为虚线所表示的样子。在影像获取模块30所拍摄到的画面中,由于影像获取模块30能够感测观看者头部的动态偏移,因此相对于所有静态的车内设备(如驾驶座的头枕部)来说,脸部影像44的偏移过程(如图5所示,由实线样貌转变为虚线样貌的过程)是能够被确实获取的。接着处理单元34便可根据新位置所获取到的脸部影像44计算现在观看者位于位置P2时与显示装置32之间的距离。除了针对头部40的位置外,处理单元34也可根据脸部影像44上的脸部特征信息440间彼此的变化,判断观看者的动作,例如摆头、转头等。
图7A-7C为本发明随着观看者视线改变显示方法的示意图。图7A为当观看者由显示装置32正前方观看显示画面时的示意图;图7B为当观看者由左往右看时的示意图;而图7C为当观看者由右往左看时的示意图。以图7A为例,如上所述,当观看者位于显示装置正前方时,处理单元34可以计算出显示装置32到观看者的距离D1。处理单元34进一步得到一头部向量R,并计算此时观看者的左眼位置401以及右眼位置402。如上所述,根据这些数据,显示装置32便可以在观看这位于正前方的位置时在观看者的双目立体视域BFOV以及对应的景深D2处显示对应的画面M。
图7B为当观看者从中间位置移往左边,视线由左往右看时的示意图。此时,处理单元34计算得知代表观看者位置的头部向量R由原本的R变成R1。具体来说,观看者头部40的位置沿着X轴方向向左边移动了X1的距离。须注意的是,本实施例是以影像获取模块30当作坐标系统的原点,而计算观看者的相对移动距离以及方向。此外,本实施例只以X轴方向移动为例,但须知道的是观看者也可能同时前后移动。在这样的情况下,新的头部向量也包括Y轴方向移动的分量。
进一步地,当观看者位于头部向量R所指的位置时(例如:显示装置的正前方),影像获取模块30在获取观看者的第一头部影像。接着,处理单元34根据第一头部影像,计算第一头部向量R0,其中第一头部向量R0包括观看者与显示装置32之间的第一距离的信息。接着,处理单元34得到一第一脸部影像。根据第一脸部影像,处理单元34可以计算观看者的第一左眼位置及第一右眼位置。接着,处理单元34根据第一头部向量R0、第一左眼位置及第一右眼位置,得到第一左眼视域LFOV、第一右眼视域RFOV以及第一双目立体视域BFOV。接着,处理单元34根据第一左眼视域产生第一左眼渲染图像;且根据第一右眼视域产生第一右眼渲染图像。接着,处理单元34根据第一左眼渲染图像及第一右眼渲染图像产生第一画面并于显示装置32上显示第一画面,其中第一画面具有一景深资料。
进一步地,当观看者向左边移动时,影像获取模块30同样获取观看者的第二头部影像。接着,处理单元34根据第二头部影像计算第二头部向量R1,其中第二头部向量R1包括观看者与显示装置32之间的第二距离的信息。接着,处理单元34得到一第二脸部影像。根据第二脸部影像,处理单元34计算观看者此时的第二左眼位置401及第二右眼位置402。根据第二头部向量R1、第二左眼位置及第二右眼位置,处理单元34可以得到第二左眼视域LFOV-1、第二右眼视域RFOV-1以及第二双目立体视域BFOV-1。接着,处理单元34根据第二左眼视域产生第二左眼渲染图像,且根据第二右眼视域产生第二右眼渲染图像。接着,处理单元34根据第二左眼渲染图像及第二右眼渲染图像,产生第二画面并于显示装置32上显示第二画面,其中第二画面也具有一景深资料。
假设观看者在一第一时间点时位于一第一视线位置,而在第二时间点时位于一第二视线位置,利用本发明的显示系统以及方法,显示装置32可以分别在第一双目立体视域BFOV显示第一画面,以及在第二双目立体视域BFOV-1显示第二画面。如图7A以及图7B所示,因为观看者在第一时间点及第二时间点的位置有位移产生(即第二头部向量R1与第一头部向量R0的向量差),这样的位移会导致第一画面与第二画面间也有一摇曳位移(pandisplacement)的效果。其中摇曳位移即第二双目立体视域BFOV-1与第一双目立体视域BFOV间的位移。
进一步地,请参阅图7A以及图7C。图7C为当观看者从中间位置移往右边,视线由右往左看时的示意图。此时,处理单元34计算得知代表观看者位置的头部向量R由原本的R变成R2。具体来说,观看者头部40的位置沿着X轴方向向右边移动了X2的距离。须注意的是,本实施例是以影像获取模块30当作坐标系统的原点,而计算观看者的相对移动距离以及方向。此外,本实施例只以X轴方向移动为例,但须知道的是观看者也可能同时前后移动。在这样的情况下,新的头部向量也包括Y轴方向移动的分量。如同上面所描述的,本发明的显示系统3以及方法可以根据此时观看者的位置而改变显示方式。
本发明的显示系统3在视觉上成产生一个虚拟空间49,当观看者移动至左边时,视线看出去会看到虚拟空间的右角;同样地,当观看者移到右边时,视线看出去会看到虚拟空间的左角。利用这样的视觉虚拟空间,显示系统不仅可以在有限的显示范围中显示更多的内容,也或者可以利用这样的视觉虚拟空间改变显示的方式。举例来说,如上所述,本发明显示系统以及方法可应用在呈现一导航系统画面,也即画面M可以是一地图信息。请一并参阅图7B、图7C、图12以及图13。在这样的应用例中,图12为对应图7B的情境示意图,而图13则为图7C所对应的情境示意图。具体来说,当观看者向左边移动使得视线变成由左向右看时,观看者可以看到如图12所示的地图数据画面;视觉上,观看者会觉得是由地图的左侧往屏幕里看(即左侧视角)。反之,当观看者向右边移动使得视线变成由右向左看时,观看者可以看到如图13所示的地图数据画面;视觉上,观看者会觉得是由地图的右侧往屏幕里看(即右侧视角)。
再者,套用本发明的显示系统以及方法所产生的视觉虚拟空间,观看者可以容易地放大或缩小显示画面。举放大显示画面为例,图9以及图10分别为本发明显示系统3处理画面放大(zoom-in)的俯视以及侧视示意图。假设当观看者由原本如图8的位置朝显示装置32靠近至如图10所示的位置时,观看者与显示装置32的距离由原本的D1变成D1’。如图9以及图10所示,左眼视域LFOV’、右眼视域RFOV’及双目立体视域BFOV的范围会因此增加。也即图9与图10所示的左眼视域LFOV’、右眼视域RFOV’及双目立体视域BFOV的范围是大于图7A与图8所示的左眼视域LFOV、右眼视域RFOV及双目立体视域BFOV的范围。也即,当观看者跟显示装置的距离变短时,同样的画面可以在更大范围的双目立体视域BFOV中被显示。利用这样的特性,仅要靠近或远离显示装置32,观看者便可以轻易地将显示画面放大或缩小。
换句话说,当第一头部向量R0沿显示装置32的一法线方向的分量小于第二头部向量R'沿显示装置32的该法线方向的分量时,第一双目立体视域会大于该第二双目立体视域,造成画面放大效果(zoom-in effect)。同理,画面缩小效果(zoom-out effect)是可以此类推,为求简洁,在此不再赘述。
图11A、图11B与图11C分别为本发明实施例显示系统3根据观看者的视线位置调整显示方式的流程图,总结来说,本发明的显示方法包括下列步骤:
步骤200:影像获取模块30在观看者位于一第一视线位置P1时获取一第一头部影像。
步骤201:处理单元34根据第一头部影像,计算一第一头部向量R0,其中第一头部向量R0包括观看者头部与显示装置32之间的一第一距离的信息。
步骤202:处理单元34根据第一头部影像,计算一第一双目立体视域BFOV1。
步骤203:当观看者位于第一视线位置P1时,显示装置32在第一双目立体视域BFOV1显示一第一画面。
步骤204:影像获取模块30在观看者位于一第二视线位置P2时获取一第二头部影像。
步骤205:处理单元34根据该第二头部影像,计算一第二头部向量R2,其中第二头部向量R2包括观看者头部与显示装置32之间的一第二距离的信息。
步骤206:处理单元34根据第二头部影像,计算一第二双目立体视域BFOV2。
步骤207:当观看者位于第二视线位置P2时,显示装置32在第二双目立体视域BFOV2显示一第二画面。
如图11B所示,显示系统3根据观看者的视线调整显示方式的流程图还包括下列步骤:
步骤300:处理单元34获得一第一脸部影像,其中第一脸部影像可以由第一头部影像获得,或是直接由影像获取模块30获取。
步骤301:处理单元34根据第一脸部影像,计算观看者的一第一左眼位置LE1及一第一右眼位置RE1。
步骤302:处理单元34根据第一头部向量R0、第一左眼位置LE1及第一右眼位置RE1,计算一第一左眼视域LFOV1以及一第一右眼视域RFOV1,通过第一左眼视域LFOV1以及第一右眼视域RFOV1的集合,处理单元34可以得到第一双目立体视域BFOV1。
步骤303:处理单元34获得一第二脸部影像,其中第二脸部影像可以由第二头部影像获得,或是直接由影像获取模块30获取。
步骤304:处理单元34根据第二脸部影像,计算观看者的一第二左眼位置LE2及一第二右眼位置RE2。
步骤305:处理单元34根据第二头部向量R2、第二左眼位置LE2及第二右眼位置RE2,计算一第二左眼视域LFOV2以及一第二右眼视域RFOV2,通过第二左眼视域LFOV2以及右眼第二视域RFOV2的集合,处理单元34可以得到第二双目立体视域BFOV2。
如图11C所示,显示系统3根据观看者的视线改变显示方式的流程还包括下列步骤:
步骤400:处理单元34根据第一左眼视域LFOV1计算一第一左眼渲染图像。
步骤401:处理单元34根据第一右眼视域RFOV1计算一第一右眼渲染图像。
步骤402:处理单元34根据第一左眼渲染图像及第一右眼渲染图像得到第一画面。
步骤403:处理单元34根据第二左眼视域LFOV2计算一第二左眼渲染图像。
步骤404:处理单元34根据第二右眼视域RFOV2计算一第二右眼渲染图像。
步骤405:处理单元34根据第二左眼渲染图像及第二右眼渲染图像得到第二画面。
如上所述,本发明利用左右眼视差达到增加视域范围的同等效果。进一步来说,本发明的显示系统3在视觉上成产生一个虚拟空间49,当观看者移动至左边时,视线看出去会看到虚拟空间的右角(如图14所示的视野范围FOV_A);同样地,当观看者移到右边时,视线看出去会看到虚拟空间的左角(如图14所示的视野范围FOV_C)。以如此使得原本平面的显示装置能由此这样的空间延伸来显示更多的内容。例如原本大小12.3吋的屏幕,通过视线移动能显示出多于12.3吋显示装置所能显示的内容。如此可以避免传统显示屏幕上可能需要放大、缩小、移动图像等复杂的动作指令。
相较于背景技术,本发明的显示系统可利用影像获取模块获取包括观看者的头部影像,根据头部影像计算双目立体视域,并控制显示装置在双目立体视域显示画面,即本发明的显示系统根据双目立体视域显示画面,所呈现的画面符合人类双目视觉。再者,本发明的显示系统还可在不同的位置以及时间点,渲染不同的画面,且这些画面对应观看者以及显示装置间的相对位置。
以上所述仅为本发明的较佳实施例,凡依本发明权利要求所做的均等变化与修饰,都应属本发明的涵盖范围。
Claims (20)
1.一种显示系统,包括:
一显示装置;
一影像获取模块,用于获取一观看者的一头部影像;以及
一处理单元,与该影像获取模块以及该显示装置连接,该处理单元根据该头部影像计算一头部向量并根据该观看者的一脸部影像计算该观看者的一左眼位置以及一右眼位置,该头部向量包括该观看者与该显示装置的一距离信息,该处理单元根据该头部向量、该左眼位置以及该右眼位置分别计算一左眼视域以及一右眼视域,该处理单元根据该左眼视域以及该右眼视域的一集合得到一双目立体视域,该显示装置在该双目立体视域显示一画面。
2.如权利要求1所述的显示系统,其中该处理单元根据该头部影像建立该脸部影像,或该影像获取模块直接取得该脸部影像。
3.如权利要求1所述的显示系统,该显示系统还包括一数据库,用于储存一数据。
4.如权利要求3所述的显示系统,其中该处理单元根据该数据的一第一部分在该左眼视域产生一左眼渲染图像,并在该右眼视域产生一右眼渲染图像,该处理单元根据该左眼渲染图像及该右眼渲染图像产生该画面,其中该左眼视域以及该右眼视域重叠的部分图像须经过图像融合处理,而非重叠的部分图像则分别保留。
5.如权利要求1所述的显示系统,其中当该观看者靠近该显示装置时,该双目立体视域的一范围增加,且当该观看者远离该显示装置时,该双目立体视域的一范围缩小。
6.一种随着一观看者位置改变显示方式以及内容的显示系统,包括:
一显示装置;
一影像获取模块,当该观看者位于一第一视线位置时,该影像获取模块获取该观看者的一第一头部影像,且当该观看者位于一第二视线位置时,该影像获取模块获取该观看者的一第二头部影像;以及
一处理单元,与该显示装置以及该影像获取模块连接,该处理单元用于执行以下步骤:
根据该第一头部影像计算该观看者位于该第一视线位置的一第一头部向量;
取得该观看者的一第一脸部影像,并根据该第一脸部影像计算该观看者的一第一左眼位置以及一第一右眼位置;
根据该第一头部向量、该第一左眼位置以及该第一右眼位置分别得到一第一左眼视域、一第一右眼视域以及一第一双目立体视域,其中该第一双目立体视域为该第一左眼视域以及该第二右眼视域的一集合;
根据该第二头部影像计算该观看者位于该第二视线位置的一第二头部向量;
取得该观看者的一第二脸部影像,并根据该第二脸部影像计算该观看者的一第二左眼位置以及一第二右眼位置;以及
根据该第二头部向量、该第二左眼位置以及该第二右眼位置分别得到一第二左眼视域、一第二右眼视域以及一第二双目立体视域,其中该第二双目立体视域为该第二左眼视域以及该第二右眼视域的一集合;
其中当该观看者位于该第一视线位置时,该显示装置在该第一双目立体视域显示一第一画面,而当该观看者位于该第二视线位置时,该显示装置在该第二双目立体视域显示一第二画面。
7.如权利要求6所述的显示系统,其中该处理单元根据该第一头部影像以及该第二头部影像分别建立该第一脸部影像以及该第二脸部影像,或该影像获取模块直接取得该第一脸部影像以及该第二脸部影像。
8.如权利要求6所述的显示系统,其中该第一头部向量包括该观看者与该显示装置的一第一距离信息,而该第二头部向量包括该观看者与该显示装置的一第二距离信息。
9.如权利要求6所述的显示系统,其中该处理单元根据该第一左眼视域产生一第一左眼渲染图像,且根据该第一右眼视域产生一第一右眼渲染图像;其中该处理单元根据该第一左眼渲染图像及该第一右眼渲染图像产生该第一画面,其中该第一左眼视域以及该第一右眼视域重叠的部分图像须经过图像融合处理,而非重叠的部分图像则分别保留;
其中该处理单元根据该第二左眼视域产生一第二左眼渲染图像,且根据该第二右眼视域产生一第二右眼渲染图像;其中该处理单元根据该第二左眼渲染图像及该第二右眼渲染图像产生该第二画面,其中该第二左眼视域以及该第二右眼视域重叠的部分图像须经过图像融合处理,而非重叠的部分图像则分别保留。
10.如权利要求9所述的显示系统,该显示系统还包括一数据库,用于储存该第一左眼渲染图像、该第一右眼渲染图像、该第二左眼渲染图像以及该第二右眼渲染图像所对应的一数据。
11.如权利要求6所述的显示系统,其中该第一画面与该第二画面为一地图图资数据,且该第一画面以及该第二画面具有部分相同的内容。
12.如权利要求6所述的显示系统,其中若该观看者的该第一视线位置较该第二视线位置远离该显示装置时,则该第一双目立体视域的范围较该第二双目立体视域的范围小。
13.一种随着一观看者位置改变显示一导航地图图资的方法,包括:
储存该导航地图图资于一数据库中;
判断该观看者位于一第一视线位置,且对应该导航地图图资的一第一部分在一显示装置上显示一第一画面给该观看者;以及
判断该观看者由该第一视线位置移至一第二视线位置,且对应该导航地图图资的一第二部分在该显示装置上显示一第二画面给该观看者。
14.如权利要求13所述的显示方法,其中还包括根据该观看者的一头部位置、一左眼位置以及一右眼位置判断该观察者位于该第一视线位置或该第二视线位置。
15.如权利要求13所述的显示方法,其中还包括取得该观看者位于该第一视线位置时的一第一左眼视域、一第一右眼视域以及一第一双目立体视域,其中该双目立体视域为该第一左眼视域以及该第一右眼视域的集合;且其中还包括取得该观看者位于该第二视线位置时的一第二左眼视域、一第二右眼视域以及一第二双目立体视域,其中该第二双目立体视域为该第二左眼视域以及该第二右眼视域的集合。
16.如权利要求15所述的显示方法,其中还包括根据该观看者的该第一左眼视域以及对应的该导航地图图资渲染成一第一左眼渲染图像,根据该观看者的该第一右眼视域以及对应的该导航地图图资渲染成一第一右眼渲染图像,且根据该第一左眼渲染图像以及该第一右眼渲染图像产生该第一画面。
17.如权利要求15所述的显示方法,还包括根据该观看者的该第二左眼视域以及对应的该导航地图图资渲染成一第二左眼渲染图像,根据该观看者的该第二右眼视域以及对应的该导航地图图资渲染成一第二右眼渲染图像,以及根据该第二左眼渲染图像以及该第二右眼渲染图像产生该第二画面,其中该第二左眼渲染图像以及该第二右眼渲染图像的一数据来源为该导航地图图资的该第二部分。
18.如权利要求13所述的显示方法,其中若该观看者由较远离该显示装置的该第一视线位置前移至较靠近该显示装置的该第二视线位置时,该第二画面为该第一画面的一放大画面。
19.如权利要求13所述的显示方法,其中若该观看者由面对该显示装置正中央的该第一视线位置向左移动至该第二视线位置,则该第二画面相较于该第一画面包括更多该导航地图图资的一右侧数据。
20.如权利要求13所述的显示方法,其中若该观看者由面对该显示装置正中央的该第一视线位置向右移动至该第二视线位置,则该第二画面相较于该第一画面包括更多该导航地图图资的一左侧数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762583524P | 2017-11-09 | 2017-11-09 | |
US62/583524 | 2017-11-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109764888A true CN109764888A (zh) | 2019-05-17 |
Family
ID=66449061
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810654285.9A Pending CN109769113A (zh) | 2017-11-09 | 2018-06-22 | 显示系统及显示影像的显示方法 |
CN201810654286.3A Pending CN109765693A (zh) | 2017-11-09 | 2018-06-22 | 立体成像显示系统及显示立体影像的显示方法 |
CN201810669179.8A Pending CN109764888A (zh) | 2017-11-09 | 2018-06-26 | 显示系统以及显示方法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810654285.9A Pending CN109769113A (zh) | 2017-11-09 | 2018-06-22 | 显示系统及显示影像的显示方法 |
CN201810654286.3A Pending CN109765693A (zh) | 2017-11-09 | 2018-06-22 | 立体成像显示系统及显示立体影像的显示方法 |
Country Status (2)
Country | Link |
---|---|
CN (3) | CN109769113A (zh) |
TW (3) | TW201919391A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113031892A (zh) * | 2019-12-25 | 2021-06-25 | 财团法人工业技术研究院 | 信息显示方法及其处理装置与显示系统 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112929642A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 人眼追踪装置、方法及3d显示设备、方法 |
CN112040316B (zh) * | 2020-08-26 | 2022-05-20 | 深圳创维-Rgb电子有限公司 | 视频图像显示方法、装置、多媒体设备以及存储介质 |
CN113315964B (zh) * | 2021-06-21 | 2023-04-14 | 北京京东方光电科技有限公司 | 一种3d图像的显示方法、装置及电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120200676A1 (en) * | 2011-02-08 | 2012-08-09 | Microsoft Corporation | Three-Dimensional Display with Motion Parallax |
WO2013021505A1 (ja) * | 2011-08-11 | 2013-02-14 | 富士通株式会社 | 立体画像表示装置 |
TW201320717A (zh) * | 2011-11-08 | 2013-05-16 | Unique Instr Co Ltd | 一種三次元影像顯示之方法 |
US9274597B1 (en) * | 2011-12-20 | 2016-03-01 | Amazon Technologies, Inc. | Tracking head position for rendering content |
CN103248905A (zh) * | 2013-03-22 | 2013-08-14 | 深圳市云立方信息科技有限公司 | 一种模仿全息3d场景的显示装置和视觉显示方法 |
CN104618706A (zh) * | 2015-01-12 | 2015-05-13 | 深圳市亿思达科技集团有限公司 | 一种分时实现多人多角度全息立体显示的移动终端及方法 |
-
2018
- 2018-06-20 TW TW107121038A patent/TW201919391A/zh unknown
- 2018-06-20 TW TW107121040A patent/TW201919393A/zh unknown
- 2018-06-20 TW TW107121103A patent/TW201919390A/zh unknown
- 2018-06-22 CN CN201810654285.9A patent/CN109769113A/zh active Pending
- 2018-06-22 CN CN201810654286.3A patent/CN109765693A/zh active Pending
- 2018-06-26 CN CN201810669179.8A patent/CN109764888A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113031892A (zh) * | 2019-12-25 | 2021-06-25 | 财团法人工业技术研究院 | 信息显示方法及其处理装置与显示系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109765693A (zh) | 2019-05-17 |
CN109769113A (zh) | 2019-05-17 |
TW201919393A (zh) | 2019-05-16 |
TW201919390A (zh) | 2019-05-16 |
TW201919391A (zh) | 2019-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4323377B2 (ja) | 画像表示装置 | |
CN104883554B (zh) | 通过虚拟透视仪器群集显示直播视频的方法和系统 | |
CN109764888A (zh) | 显示系统以及显示方法 | |
US20160307374A1 (en) | Method and system for providing information associated with a view of a real environment superimposed with a virtual object | |
EP1462762A1 (en) | Circumstance monitoring device of a vehicle | |
US10274726B2 (en) | Dynamic eyebox correction for automotive head-up display | |
CN111739101B (zh) | 一种消除车辆a柱盲区的装置和方法 | |
US11050997B2 (en) | Dynamic display system capable of generating images corresponding to positions of users | |
JP2013216286A (ja) | 車両周囲確認用モニター装置 | |
CN106168855B (zh) | 一种便携式mr眼镜、手机和mr眼镜系统 | |
KR102223852B1 (ko) | 영상 디스플레이 시스템 및 방법 | |
EP3811326A1 (en) | Heads up display (hud) content control system and methodologies | |
CN115984122A (zh) | 一种hud背光显示系统及方法 | |
US8896631B2 (en) | Hyper parallax transformation matrix based on user eye positions | |
US20190141314A1 (en) | Stereoscopic image display system and method for displaying stereoscopic images | |
JP2005269010A (ja) | 画像生成装置、画像生成プログラム、及び画像生成方法 | |
US20190137770A1 (en) | Display system and method thereof | |
KR102490465B1 (ko) | 증강 현실 카메라를 사용한 후방 시야 방법 및 장치 | |
EP2624117A2 (en) | System and method providing a viewable three dimensional display cursor | |
US20220072957A1 (en) | Method for Depicting a Virtual Element | |
JP4696825B2 (ja) | 車両用死角映像表示装置 | |
CN103162708A (zh) | 具有改善的地图显示的导航系统 | |
CN117193530B (zh) | 基于虚拟现实技术的智能座舱沉浸式用户体验方法及系统 | |
US20190138789A1 (en) | Display system and method for displaying images | |
US20240214510A1 (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190517 |
|
WD01 | Invention patent application deemed withdrawn after publication |