CN107465909B - 用于裸眼立体图像的显示设备和显示方法 - Google Patents

用于裸眼立体图像的显示设备和显示方法 Download PDF

Info

Publication number
CN107465909B
CN107465909B CN201611113725.7A CN201611113725A CN107465909B CN 107465909 B CN107465909 B CN 107465909B CN 201611113725 A CN201611113725 A CN 201611113725A CN 107465909 B CN107465909 B CN 107465909B
Authority
CN
China
Prior art keywords
user
pixels
display module
distance
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611113725.7A
Other languages
English (en)
Other versions
CN107465909A (zh
Inventor
辛昌奉
申允澈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mopic Co ltd
Original Assignee
Mopic Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160069372A external-priority patent/KR101897229B1/ko
Priority claimed from KR1020160069378A external-priority patent/KR101808758B1/ko
Application filed by Mopic Co ltd filed Critical Mopic Co ltd
Publication of CN107465909A publication Critical patent/CN107465909A/zh
Application granted granted Critical
Publication of CN107465909B publication Critical patent/CN107465909B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • G06F1/1607Arrangements to support accessories mechanically attached to the display housing
    • G06F1/1609Arrangements to support accessories mechanically attached to the display housing to support filters or lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1633Protecting arrangement for the entire housing of the computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Abstract

本发明涉及用于裸眼立体图像的显示设备和显示方法。该裸眼立体图像显示设备可以包括:显示模块,所述显示模块通过盖显示立体图像,所述盖包括具有多个凸透镜的柱状透镜;以及处理器,所述处理器控制所述显示模块,其中,所述处理器通过基于指示所述多个凸透镜之间的距离的透镜间距控制所述显示模块的左眼图像像素和右眼图像像素来提供立体图像,以及所述盖设置在所述用户设备的前表面上以与所述用户设备组合。

Description

用于裸眼立体图像的显示设备和显示方法
技术领域
本发明涉及用于裸眼立体图像的显示设备和显示方法,更具体地涉及用于提供通过移动设备如智能电话或平板电脑优化的裸眼立体图像的显示设备和显示方法。
背景技术
3D显示器(即立体图像显示设备)指的是使得用户能够通过平面显示硬件,利用人的眼睛在水平方向上彼此相距约65mm时产生的双眼视差,感觉到虚拟三维效果的整个系统,其各种因素允许用户感觉到三维效果。换句话说,虽然人眼观看同一对象,但是由于双眼视差他们看到稍微不同的图像(更正确地,水平空间信息被稍微分割)。当两个图像通过视网膜被传送到大脑时,大脑精确地将两个图像组合在一起,以允许用户感觉到三维效果。基于此,2D显示设备被设计为同时显示左右两个图像并将它们传送到各个眼睛以创建虚拟三维效果,其被称为立体图像显示设备。
为了在立体图像显示设备的单个屏幕上显示两个通道的图像,在大多数情况下,一次输出一个通道,同时在单个屏幕上沿水平方向或竖直方向中的一者改变行。当从单个显示设备同时输出两个通道的图像时,在裸眼方案的情况下,根据硬件结构,右图像按原样被传送到右眼,而左图像仅被传送到左眼。
作为代表性的裸眼方法,已知一种柱状透镜方案,其中,竖直布置有柱面透镜的柱状透镜被设置于显示面板的前面。这种裸眼立体图像显示设备主要在如电视的大规模显示设备的领域中开发。
发明内容
鉴于上述,本发明提供了一种通过移动设备如智能电话或平板电脑提供裸眼立体图像的显示设备和显示方法。
根据本发明的第一示例性实施方式,一种裸眼立体图像显示设备可以包括:显示模块,所述显示模块通过盖显示立体图像,所述盖包括具有多个柱状透镜的透镜片;以及处理器,所述处理器控制所述显示模块,其中,所述处理器通过基于表示所述多个柱状透镜之间的距离的透镜间距控制所述显示模块的左眼图像像素和右眼图像像素来提供立体图像,以及所述盖设置在所述用户设备的前表面上以与所述用户设备组合。
根据本发明的第二示例性实施方式,通过用户设备的处理器执行的裸眼立体图像显示方法可以包括:通过控制所述用户设备的显示模块的左眼图像像素和右眼图像像素来提供立体图像,其中,在提供立体图像中,在将显示在所述显示模块上的图像通过设置在所述用户设备的前表面上且包括多个柱状透镜的盖转换为立体图像然后提供给用户时,基于表示在所述多个柱状透镜之间的距离的透镜间距来控制所述显示模块。
根据本发明的第三示例性实施方式,一种裸眼立体图像显示设备可以包括:盖,所述盖设置在用户设备的前表面上以与所述用户设备组合,其中,所述盖包括:主体,所述主体覆盖所述用户设备的前表面且被配置成与所述用户设备组合;以及透镜片,所述透镜片位于所述主体内或下方且包括多个柱状透镜,以及所述盖通过所述透镜片将设置在所述用户设备的显示模块的左眼图像像素和右眼图像像素上的图像转换为立体图像。
根据本发明,将柱状透镜插入到移动用户常用的移动盖中,并因此用户可以容易地随时随地享受移动设备上的立体图像内容。
此外,根据本发明,可以通过调整显示模块的呈现间距(rendering pitch,即再现间距)和进行眼睛追踪,且还抵消盖内的柱状透镜的位置与显示器的接通/断开位置之间的未对准,提高在移动设备上提供的立体图像的分辨率,提供生动的立体图像。
附图说明
在下面的详细描述中,实施方式仅被描述为示例,这是因为根据以下详细描述,各种改变和修改对于本领域技术人员将变得显而易见。在不同的附图中使用相同的附图标记表示相似或相同的项目。
图1为根据本发明的示例性实施方式的裸眼立体图像显示设备的结构图。
图2为根据本发明的示例性实施方式的包括柱状透镜的盖的分解透视图。
图3为根据本发明的另一示例性实施方式的盖的结构图。
图4为根据本发明的又一示例性实施方式的盖的结构图。
图5为提供用于解释根据本发明的示例性实施方式的实现立体图像显示的原理的概念图。
图6和图7是为提供用于解释根据本发明的示例性实施方式的调节眉间宽度的方法的概念图。
图8A和图8B为提供用于说明根据本发明的示例性实施方式的因眉间宽度的变化(误差)引起的呈现错配的图。
图9至图11为提供用于解释根据本发明的示例性实施方式的设置最佳观看范围的方法的概念图。
图12为提供用于解释用户面部左右移动的偏移方法的概念图。
图13为提供用于说明观看者的观看距离改变的偏移方法的图。
图14A至图14C为提供用于解释根据本发明的示例性实施方式的通过立体图像显示设备改善定制观看环境的方法的流程图。
图15至图18为提供用于解释根据本发明的示例性实施方式的校正透镜位置和显示器的接通/断开位置之间的未对准的方法的概念图。
图19为提供用于解释根据本发明的示例性实施方式的引导最佳观看范围的方法的图。
图20A、图20B和图21为提供用于解释根据本发明的示例性实施方式的调整由透镜的倾斜角引起的屏幕的呈现角度的方法的图。
图22至图25为提供用于解释根据本发明的示例性实施方式的通过立体图像显示设备校正未对准的方法的流程图。
图26示出用于调整屏幕和膜之间的视角的用户界面的示例。
图27示出用于调整屏幕和膜之间的左值和右值的用户界面的示例。
图28A至图28C为提供用于解释根据本发明的另一示例性实施方式的校正透镜位置和显示器的接通/断开位置之间的未对准的方法的图。
图29为提供用于解释根据本发明的示例性实施方式的在保持观看距离的同时改善分辨率的方法的概念图。
图30为提供用于解释根据本发明的示例性实施方式的裸眼立体图像显示方法的流程图。
具体实施方式
在下文中,将参考附图详细描述本发明的实施方式,使得本发明可以由本领域技术人员容易地实现。然而,应当注意的是,本发明不限于实施方式,而是可以以各种其它方式实施。在附图中,为了简化说明,省略了与说明无关的部分,并且在整个文件中相同的附图标记表示相同的部分。
在整个文件中,用于指示一个元件与另一元件的连接或联接的术语“连接到”或“联接到”包括一个元件“直接连接或联接到”另一元件的情况,以及一个元件通过再另一元件“电连接或联接到”另一元件的情况。此外,在文件中使用的术语“包含或包括”和/或“包含有或包括有”意指除了所描述的部件、步骤、操作和/或元件之外,不排除一个或多个其它部件、步骤、操作和/或元件的存在或添加,除非上下文另有规定。
下面将描述的“用户设备”可以用能够通过网络访问服务器或另一设备的计算机或便携式设备来实现。在此,计算机可以包括例如笔记本、台式机和装备有网页浏览器的笔记本电脑。例如,便携式设备为确保便携性和移动性的无线通信设备,且可以包括所有种类的手持类无线通信设备,如通信类设备、智能电话和平板电脑等。
在下文中,将参照附图详细描述本发明的示例性实施方式。
参照图1,根据本发明的示例性实施方式的裸眼立体图像显示设备100包括盖110、处理器121、相机122和显示模块123。
盖110被配置成覆盖用户设备120的显示区域,以保护用户设备120的外部。盖110可以与用户设备120分开制造,然后与用户设备120组合。
用户设备120可以包括处理器121、存储器(未示出)和显示模块123。在此,在存储器中存储用于执行裸眼立体图像显示方法的程序(或应用程序),以及当通过处理器121执行程序时,可以通过显示模块123提供立体图像。在此,显示模块123为被配置成输出图像的模块,且如果被实现为触摸型模块,则显示模块123可以接收用户输入。在此,由程序(或应用程序)提供的立体图像内容可以预先存储在用户设备120中或者从内容提供服务器(未示出)接收。也就是说,内容提供服务器包括多个裸眼立体图像内容,且用户可以通过程序(或应用程序)访问内容提供服务器,且检查和播放裸眼立体图像内容。
此外,相机122可以内置于用户设备120中或者可以实现为可拆卸地安装在用户设备120上的单独的外部相机。例如,如果用户设备120为智能电话或平板电脑,相机120可以被实现为内置相机。
根据本发明的示例性实施方式的裸眼立体图像显示设备100为柱状透镜210型设备,且柱状透镜210位于盖110内。
在下文中,将参考图2至图4详细描述盖110的结构。
如图2所示,盖110可以包括主体110a和透镜片110b。
主体110a可以形成为具有适于与用户设备120的前表面组合的尺寸和形状。例如,如图2所示,主体110a可以形成为具有带有接合部分的向下突出的顶点,且因此可以完全紧固到用户设备120。
透镜片110b位于主体110a下方或主体110a内,并且包含柱状透镜210。
此外,图2中所示的盖110可以为双面组合盖。具体地,如果用户设备120为iOS(苹果)类智能设备,则由于后置相机122位于后表面的一侧的最上端,因此后置盖110在该侧的最上端具有开口以露出后置相机122。在这种情况下,即使后置盖110附接到用户设备120的前表面,开口位于显示区域上方,并因此后置盖110可以直接用作前置盖110。
此外,图3所示的盖110可以为单面组合盖。具体地,如果用户设备120为安卓类智能设备中后置相机122位于后表面的上端和中间之间的智能设备,后置盖110可以在后表面的上端和中间之间具有开口131以露出后置相机122。在这种情况下,如果后置盖110附接到用户设备120的前表面,则开口131与显示区域重叠,并因此显示区域具有不能布置柱状透镜210的空白空间。
因此,盖110可以设置为前置组合盖,并因此难以将盖110直接与用户设备120的后表面组合。因此,还设置后置辅助盖130以与用户设备120的后表面组合,且盖110与后置辅助盖130组合,从而可以实现盖110的双面组合功能。
此外,如果用户想要的立体照片印在后置辅助盖130上,且盖110与后置辅助盖130组合,则可以通过立体照片与盖110的柱状透镜210的组合,提供使得用户欣赏立体照片的附加功能。
此外,盖110可以为如图4所示的翻盖。翻盖110配置为固定在用户设备120的一侧上,并以铰链方式打开和覆盖用户设备120的前表面。翻盖110可以分为盖部111和壳体部112。盖部111包括主体110a和透镜片110b,因此可以用作提供裸眼立体图像的部件。壳体部112被制造成覆盖用户设备120的外部并与用户设备120组合,以便将盖部111连续地固定在用户设备120的一侧上。
此外,翻盖110可以在盖部111的一个区域中包括霍尔传感器113。霍尔传感器113用于检测盖部111是否与用户设备120的显示区域接触,将检测结果传送到用户设备120,且将在用户设备120上播放的2D图像转换为3D图像。
此外,翻盖110的盖部111和壳体部112的顶点可以具有单独的结构,当盖部111覆盖用户设备120的前表面时,盖部111可以固定到壳体部112。
此外,为了提供良好的立体图像,透镜片与屏幕之间的距离需要是均匀的。为此,柱状透镜需要尽可能靠近地附接到用户设备的屏幕。
常规的翻盖不需要紧密地附接到盖。
然而,根据另外的示例性实施方式,在翻盖或前置组合盖中,与用户设备的上部组合的主体110a和与用户设备的下部组合的辅助盖(未示出)可以具有平坦的前表面,且从前表面延伸的边缘可以弯曲以覆盖用户设备的侧表面的一部分。在这种情况下,主体110a和辅助盖的对应于用户设备的侧表面的弯曲边缘(角部)可以配置为彼此接触。此外,具有不同极性的磁体可以安装在主体110a和辅助盖的边缘上。例如,N极磁体可以安装在主体110a上,S极磁体可以安装在辅助盖上。因此,主体110a和辅助盖的边缘可以彼此紧密地附接,使得设置在主体110a下方的透镜片110b可以紧密地附接到用户设备的屏幕。同时,挂钩可以代替磁体安装在主体110a和辅助盖的边缘上。
如此,在本发明的示例性实施方式中,柱状透镜210不内置在用户设备120中,而是以可拆卸的模块的形式包括在用户设备120的盖110内,因此,可以以低成本实现裸眼立体图像系统。此外,将柱状透镜210插入由用户通常使用的盖110中,因此,用户可以容易地随时随地在移动设备上欣赏立体图像。此外,盖110可以配置为双面组合盖,或者盖110可以利用后置辅助盖130与两个表面组合,并因此用户可以容易地携带和使用盖110。
在下文中,将参照图5详细描述根据本发明的示例性实施方式的裸眼立体图像显示设备的操作原理。
在图5中,观看位置指的是用户的右眼和左眼所在的位置,柱状透镜210指的是盖110的透镜片110b,且显示器指的是用户设备120的显示模块123。透镜片110b具有其中并排布置多个凸透镜210的结构,且显示模块123包括像素220,即多个第一映射图案222和第二映射图案224,用于实现对应于立体图像的颜色。第一映射图案222和第二映射图案224交替地布置并且配置为提供给用户的各个眼睛。
可以通过分别限定提供给用户右眼的第一映射图案和提供给用户左眼的第二映射图案,并通过透镜片110b将第一映射图案和第二映射图案投影到各个眼睛来向用户提供立体图像。
在这种情况下,为了通过用户设备120和放置于用户设备120的屏幕上的透镜片110b观看更加清晰的裸眼立体图像,需要调整柱状透镜210的位置以及第一映射图案222和第二映射图案224的位置。
例如,用于左眼L的像素(即第二映射图案224)可以存在于用于右眼R的位置处,或者可以偏离期望的位置。为了使第二映射图案224位于用于左眼L的位置,可以考虑移动柱状透镜210的方法。然而,透镜片110b已经固定在一个位置。因此,难以实现这样的方法。这意味着指示包括在透镜片110b中的柱状透镜210之间距离的透镜间距LP'具有固定值。
因此,根据本发明的示例性实施方式,即使当柱状透镜210固定时,也向用户提供最佳的立体图像。
首先,处理器121提供如图7所示的用户界面,并因此可以从用户接收眉间宽度。也就是说,由于不同人的眉间宽度不同,且用户难以数字地测量他/她的眉间宽度,因此对于每个面部尺寸预先设置了眉间宽度。因此,当用户选择脸部尺寸时,自动输入标准的眉间宽度。
例如,如图7所示,如果选择Kid(小孩),则输入60mm作为眉间宽度b,如果选择S,则输入63mm作为眉间宽度b。此外,如果选择L,则输入65mm作为眉间宽度b,如果选择XL,则输入67mm作为眉间宽度b。
选择面部大小的这种方法使得不知道他们的眉间宽度b的大多数用户相当容易地输入他们的眉间宽度b,且提供比使用均匀固定眉间宽度b的观看环境好得多的观看环境。
然后,处理器121基于眉间宽度b和预定透镜间距LP'来调整显示模块123的呈现间距P2
具体地,处理器121可以基于透镜间距LP'和眉间宽度b计算多个第一映射图案222和第二映射图案224中彼此相邻的第一映射图案222和第二映射图案224之间的距离P1,和指示多个第二映射图案224之间的距离的呈现间距P2。在这种情况下,处理器121可以使用图5所示的计算出的距离P1和呈现间距P2之间的三角形比例来进行计算。
第一映射图案222和第二映射图案224之间的距离P1和呈现间距P2从使用图5所示的三角形比例的透镜间距LP'、眉间宽度b、观看距离Z和光学距离gn之间的比例表达式(等式1)获得。
[等式1]
P1=(LP′*b)/(2b-LP′)
呈现间距P2为P1的两倍,因此可以以与P1相同的方式,由相对于透镜间距LP'和眉间宽度b的函数表示。因此,可以获得呈现间距P2
在调整呈现间距P2的状态下,处理器121可以基于眉间宽度b、透镜间距LP'、和表示柱状透镜210和用户设备120的显示模块123之间的距离的光学距离gn,计算表示用户能够通过用户设备120观看最生动立体图像的距离的第一观看距离(最佳观看距离)Z。在此,光学距离gn可以为考虑柱状透镜210和显示模块123的折射率和物理距离而计算的值(固定的)。
眉间宽度b、透镜间距LP'和光学距离gn为已经确定的值。因此,根据等式1,第一观看距离Z可以由等式2表示。
[等式2]
Z=(2b*gn)/LP′-gn
处理器121可以通过在等式2中分别代入眉间宽度b、透镜间距LP'和光学距离gn的预定值来计算第一观看距离Z。第一观看距离Z可以通过显示模块123显示在用户设备120的屏幕上。因此,用户可以在检查显示信息的同时保持最佳观看距离,使得用户可以观看生动的立体图像。
然后,如图6所示,处理器121可以通过使用相机122的用户设备120,测量表示从用户设备120到观看立体图像的用户的实际距离的第二观看距离Z',并将第二观看距离Z'与第一观看距离Z进行比较。
然后,处理器121可以提供引导信号,以引导用户基于第一观看距离Z和第二观看距离Z'之间的距离差,通过显示模块123来调整用户的第二观看距离Z'。
例如,如果第一观看距离Z和第二观看距离Z'之间的比较结果为第二观看距离Z'大于第一观看距离Z,则处理器121可以向用户设备120提供引导信号以请求用户更靠近用户设备120的屏幕。引导信号可以包括用于最佳观看距离的焦点坐标和顺着用户脸部移动而移动的可移动坐标,且可以用于将可移动坐标引导到与焦点坐标相同的位置。因此,用户可以通过减小实际观看距离来连续地观看生动的立体图像。
根据另一示例,如果第一观看距离Z和第二观看距离Z'之间的比较结果为第二观看距离Z'小于第一观看距离Z,则处理器121可以向用户设备120提供引导信号以请求用户更远离用户设备120的屏幕。换句话说,如果实际观看距离小于最佳观看距离,则处理器121可以向用户设备120提供引导信号以请求观看者的眼睛离用户设备120更远。因此,观看者可以通过增加实际观看距离来连续地观看生动的立体图像。
此外,作为又一示例,处理器121可以不将用户引导到最佳观看距离,而是可以将呈现间距调整为适合于用户的实际观看距离。具体地,当调整呈现间距时,用户通过连接到用户设备的相机从用户设备测量他/她的实际观看距离。然后,用户可以基于实际观看距离、眉间宽度、透镜间距以及到左眼图像像素和右眼图像像素的光学距离来调整显示模块的呈现间距。
此外,由于不同人之间的眉间宽度不同,因此如果不同的观看者使用相同的用户设备120,则需要调整眉间宽度。特别地,具有短眉间宽度的儿童和具有长眉间宽度的成年男性之间存在大的差异。因此,在本发明的示例性实施方式中,可以提供这样的环境,其中每个观看者可以通过调整这种眉间宽度的差异来通过同一用户设备120观看具有较小串扰的完整立体图像。为此,在本发明的示例性实施例中,如图7所示用于选择面部大小的选项(Kid,S,L,XL)可以通过稍后描述的显示模块123显示在用户设备120的屏幕上。
此外,如图6所示,如果调整(改变)眉间宽度,则处理器121可以再次调整呈现间距P2以适合于调整的眉间宽度b'。也就是说,如图6所示,如果选择或输入眉间宽度b'作为眉间宽度b,则可以通过应用b'作为参考眉间宽度来改变。当将眉间宽度b改变为b'时,由于透镜间距LP'和光学距离gn为固定的物理值,所以只能改变呈现间距P2。因此,在本发明的示例性实施方式中,如果在等式1和2中将眉间宽度从b改变为b',则可以计算新的第一观看距离Z'和新的呈现间距P2'。
[等式3]
P1'=(LP'*b')/(2b-LP')
[等式4]
Z'=(2b'*gn)/LP'-gn
如果眉间宽度从b改变到b',则处理器121可以使用等式3和等式4再次调整呈现间距P2'。因此,根据本发明的示例性实施方式,可以在同一用户设备120中对具有不同眉头宽度的人提供最佳观看环境。
在等式4中,Z'表示随着眉间宽度的变化(b->b')观看者具有最佳观看环境的观看距离,且如果观看者比Z'更远离或更靠近用户设备120,则指示用户的状态(引导信号),并因此作为参考以将观看者引导到最佳观看距离。因此,根据本发明的示例性实施方式,可以在同一用户设备120中对具有不同眉头宽度的人提供最佳观看环境。
此外,通过显示模块123输入的眉间宽度b与用户的实际眉间宽度之间可能存在差异。例如,如果当将眉间宽度设置(输入)为b时,具有眉间宽度b'的用户观看立体图像,则用户不能看到第一映射图案222和第二映射图案224的中心,而是可以看到边缘,这可能使左视区和右视区容易混合,且导致最佳观看距离Z的宽度显著减小。
关于眉间宽度的差异,不像给出相同距离的图8A,可以如下应用使用相机测量观看距离的方法。
参照图8B,将眉间宽度固定为b,此时,观看距离为Z。如果具有眉间宽度b'(在图8B中假设b'小于b)的用户以相同的观看距离Z看屏幕,则眉间宽度变得小于具有眉间宽度b的用户的眉间宽度。因此,最佳观看距离检测为比Z远,并因此,改变的观看距离Z'被输入到显示模块123中。
如果具有眉间宽度b'的用户在距离屏幕距离Z处观看屏幕,则用户设备120可以识别具有眉间宽度b的用户在距离屏幕观看距离Z'处观看屏幕。
因此,即使具有眉间宽度b'的用户在位置R'和L'处观看屏幕,用户120将识别R和L为位置,b为眉间宽度,从而进行不合适的呈现。
这可能具有坏的结果,其中,在更接近用户设备120的屏幕边缘的位置处,用户逐渐看到离期望位置(第一映射图案和第二映射图案)更远的位置。也就是说,观看者需要看到如虚线所示的第一映射图案222和第二映射图案224,但是可以看出,当观看者看到的位置偏离第一映射图案222和第二映射图案224而更靠近如实线所示的边缘时,观看者转向另一映射图案。因此,在本发明的示例性实施方式中,用户可以以适合他/她的眉间宽度的最佳观看距离连续观看屏幕,从而更舒适地观看图像。在下文中,将参考图9至图13详细描述最佳观看范围。
参照图9,用户可以在最佳观看距离Z处看到用于右眼R的第一映射图案222的中心或用于左眼L的第二映射图案224的中心。然而,当观看距离从最佳观看距离Z减小到Z'或增加时,用户看到映射图案222和映射图案224的边缘而不是中心。
当观看距离改变时,可以通过计算获得用户看到的映射图案222和映射图案224的位置。因此,根据观看距离与映射图案222和映射图案224中心的偏离度可以从如等式5所示的函数值获得。
[等式5]
ER=(EL*2)/(0.5*P2)*100(%)
在此,如果ER为100%,则用户看到另一个观看区域。也就是说,如果ER为100%,则可以用左眼L看到第二映射图案224,或者可以用右眼R看到第一映射图案222。
如图10所示,可以使用等式5的函数在图中显示观看距离和ER。图10中的图可以根据最佳观看距离、用户设备120的显示特性和应用的镜头等来改变。在本发明的示例性实施方式中,可以在10%的ER处选择最佳观看范围,且可以在50%的ER处选择最大观看范围。然而,这些范围可以根据应用的模型(用户设备120)而变化,并因此针对每个模型通过实验来确定。
根据本示例性实施方式,在最佳观看范围(10%)内,在用户设备120的屏幕上没有显示,但是在超过10%的观看距离处,无论当前距离是比最佳观看距离更远还是更近都可以显示。此外,在等于或大于50%的观看距离处,可以在屏幕上显示消息“超出边界”,且可以引导用户保持在最大观看范围内,且如果可能,则在最佳观看范围内。
此外,为了更容易地将用户引导至用户的最大(最佳)观看范围内,处理器121可以显示条框,其通过显示模块123在用户设备120的显示部上显示关于观看距离的距离差。
为此,处理器121使用用户设备120的相机122测量用户和屏幕之间的实际观看距离。如果实际观看距离大于最佳观看距离,则处理器121可以向用户设备120提供信号以更靠近屏幕,且如果实际观看距离小于最佳观看距离,则处理器121可以向用户设备120提供信号以更远离屏幕。因此,根据本发明的示例性实施方式,处理器121引导用户知道提供最佳观看环境的位置。
在这种情况下,在开始时用户设备120显示用户的最佳观看距离以通知用户适当的距离,然后如果确定用户充分感知到最佳观看距离,则用户设备120引导用户按下底部的OK按钮以移除指示距离状态的条框(BAR)。在此,用户设备120通过仅当用户的实际观看距离偏离最佳观看距离预定程度或更大时才允许显示表示距离状态的条框,来帮助用户保持适当的观看距离。
此外,用户可以如上所述在观看图像的同时来回移动,或者可以在观看图像的同时从一侧移动到另一侧。
例如,如图12所示,如果用户在没有来回移动的情况下沿右方向从R-L移动X到R'-L',则映射图案222和映射图案224需要沿相反方向移动x(偏移值)以使用户连续观看同一屏幕。在这种情况下,用户在位置R-L处观看屏幕,如虚线所示,然后在位置R'-L'处观看屏幕,如实线所示,且x的值(偏移值)根据用户的移动距离X改变。如果观看距离来回移动,则x(偏移值)也根据观看距离而改变。在本发明的示例性实施方式中,用户眼睛的移动方向和移动距离可以用于抵消由用户的左右移动引起的差异。
具体地,处理器121使用用户设备120的相机122对用户眼睛进行眼睛追踪,以测量用户眼睛的移动方向和移动距离。如图12所示,如果用户从R-L移动X到R'-L',则移动方向是右方向,且移动距离是X。处理器121基于测得的移动距离和眉间宽度来计算待应用至显示模块123的偏移x,且将在用户设备120的显示模块123上交替布置的多个第一映射图案222和第二映射图案224在与测得的移动方向相反的方向上移动偏移值x。
在此,通过使用用户设备120的相机测量观看者眼睛的移动距离来计算偏移值的方法可以使用三角比来进行。可以使用用户设备120的相机来计算观看者眼睛的移动距离X(mm),且可以使用等式6来计算与移动距离X对应的映射图案的移动量。
[等式6]
gn:Z=-x:X
此外,如果用户的观看距离改变,则改变用于用户的右眼R和左眼L的第一映射图案222和第二映射图案224的位置,使得用户可能观看失真的立体图像。因此,需要抵消失真。也就是说,当用户在比参考(最佳)观看距离更近或更远的距离处观看屏幕时,需要一种抵消差异的方法。
如图13所示,根据本发明的示例性实施方式,当用户位于比参考观看距离Z更近的距离Z'处时,由于透镜间距LP'和光学距离gn是固定的物理值且因此不能改变,可以使用可改变的呈现间距P2'以抵消观看距离的改变。因此,处理器121可以将改变的观看距离Z'与固定透镜间距LP'和光学距离gn一起应用至等式7,以计算用户设备120的显示模块123的呈现间距P2'。
[等式7]
P2′=[LP′*(Z′+gn)]/Z′
处理器121使用呈现间距P2'进行呈现,并因此使得用户能够在相同视区中观看立体图像,而不管观看距离的改变。
显示模块123可以向用户设备120提供由处理器121计算的第一观看距离(最佳观看距离),以通过用户设备120的屏幕显示部向观看者显示第一观看距离。显示模块123可以向用户设备120提供由处理器121计算的第一观看距离(最佳观看距离),以通过用户设备120的屏幕向观看者显示第一观看距离。
如果处理器121的比较结果为第一观看距离(最佳观看距离)和第二观看距离(实际观看距离)之间的距离差不包括在预定范围内,则显示模块123可以接收来自处理器121的引导信号,并且显示条框,该条框使得可以基于用户设备120(参见图11)屏幕上的第一观看距离来调整距离差。
显示模块123可以在用户设备120的屏幕上显示用于选择面部大小的选项。如果从选项中选择任何一个面部大小,则显示模块123可以接收与所选择的面部大小相对应的值作为眉间宽度。
显示模块123可以在用户设备120的屏幕上显示用于输入数值的输入按钮。如果通过输入按钮输入观看者的瞳孔之间的宽度的实际测量值,则显示模块123可以接收输入的测量值作为眉间宽度。
图14A至图14C提供了用于解释根据本发明的示例性实施方式的通过立体图像显示设备改善定制观看环境的方法的流程图。
参照图14A,在1310中,立体图像显示设备接收观看者的眉间宽度。
然后,在1320中,立体图像显示设备基于所输入的眉间宽度和透镜间距来调整显示器的呈现间距,该透镜间距表示在对应于用户设备120的显示器位置处的透镜片上设置的多个凸透镜之间的距离。
图14B为提供用于解释根据本发明的另一示例性实施方式的通过立体图像显示设备改进定制观看环境的方法的流程图。
参照图14B,在1410中,立体图像显示设备接收观看者的眉间宽度。
然后,在1420中,立体图像显示设备基于所输入的眉间宽度和透镜间距来调整用户设备120的显示器的呈现间距。
然后,在1430中,立体图像显示设备基于眉间宽度、透镜间距和表示凸透镜和显示器之间的距离的光学距离来计算观看者可以通过用户设备120观看最生动的立体图像的第一观看距离。
然后,在1440中,立体图像显示设备使用用户设备120的相机来测量实际观看距离(第二观看距离)。
然后,在1450中,立体图像显示设备基于第一观看距离和第二观看距离之间的距离差,向用户设备提供引导信号,用于引导观看者调整观看者的第二观看距离。
图14C为提供用于解释根据本发明的又一示例性实施方式的通过立体图像显示设备改进定制观看环境的方法的流程图。
参照图14C,在1510中,立体图像显示设备接收观看者的眉间宽度。
然后,在1520中,立体图像显示设备基于所输入的眉间宽度和透镜间距来调整显示器的呈现间距,该透镜间距表示在对应于用户设备120的显示器的位置处的透镜片上设置的多个凸透镜之间的距离。
然后,在1530中,立体图像显示设备使用用户设备120的相机对观看者眼睛进行眼睛追踪。
然后,在1540中,立体图像显示设备获取通过使用相机进行眼睛追踪而测量的观看者眼睛的移动方向和移动距离。
然后,在1550中,立体图像显示设备基于移动距离和眉间宽度计算待应用到显示器上的偏移值。
然后,在1560中,立体图像显示设备将在显示器上交替布置的多个第一映射图案和第二映射图案在与所测量的移动方向相反的方向上移动偏移值。
在下文中,将参照图15至图21详细描述根据本发明的示例性实施方式的通过立体图像显示设备100校正未对准的方法。
即使调整用户设备120的显示模块123的呈现间距P2,当透镜片附接到用户设备120时,透镜片可能偏离期望位置。在这种情况下,透镜片的柱状透镜210的位置偏离显示模块123的像素位置,并因此,如图15所示,用于左眼L的像素可以存在于用于右眼R的位置,或者可以偏离目标位置。因此,需要利用像素的位置(接通/断开位置)相互调整柱状透镜210的位置。然而,由于透镜片附接并固定到用户设备120上,因此难以调整柱状透镜210的位置。
因此,在本发明的示例性实施方式中,可以通过调整用户设备120的显示模块123的像素的位置(即,第一映射图案222和第二映射图案224的位置)校正柱状透镜210在附接到透镜片时的位置与第一映射图案和第二映射图案的位置之间的未对准。
为此,如图15所示,处理器121可以接通用户设备120的显示模块123的像素以对应于呈现间距P2的空间。在这种情况下,观看者可以在保持他/她的一只眼睛在用户设备120屏幕上的同时检查是否看到接通的像素。如图16所示,如果所接通的像素偏离目标位置,则观看者看不到所接通的像素。在本示例性实施方式中,接通的像素被假定为与观看者的右眼R相对应的第一映射图案222。作为参考,第一映射图案222可以包括一个或多个像素,或者可以包括一半像素。第二映射图案224可以与第一映射图案222以相同的方式包括像素。
如果观看者不能如此识别接通的像素,则如图17所示,处理器121可以改变用于接通的像素的位置的映射值,以将像素的位置向左移动,并因此校正柱状透镜210在附接到透镜片时的位置和用户设备120的显示模块123的接通/断开位置之间的未对准。在这种情况下,处理器121可以不像图17,将用户设备120的显示模块123的接通/断开位置向右移动。
也就是说,处理器121可以基于观看者是否能够识别接通的像素,来改变用于用户设备120的显示模块123的接通/断开位置的映射值,以向左或向右移动用户设备120的显示模块123的接通/断开位置,使得处理器121可以相互调整柱状透镜210的位置和用户设备120的显示模块123的接通/断开位置。在这种情况下,如果初始接通的像素不能被观看者的一只眼睛识别,则处理器121可以重复地移动用户设备120的显示模块123的接通/断开位置,直到随后接通的像素可以被观看者的一只眼睛识别。
在下文中,将参考图18和图19更详细地描述移动用户设备120的显示模块123的接通/断开位置的方法。
如图18所示,处理器121可对呈现间距P2的空间内的每个像素编号,以便为用户设备120的显示模块123的接通/断开位置分配映射值,且基于与观看者的左眼相对应的像素的编号和与观看者的右眼相对应的像素的编号之间的差异,从呈现间距P2的空间内的像素中设置要接通的像素的编号。在这种情况下,处理器121可以参考所设置的像素的编号接通预定范围内的像素。
这里,呈现间距P2可以不是用户设备120的显示模块123的像素尺寸的整数倍。在这种情况下,处理器121可以将呈现间距P2的空间划分为N(N为自然数)个相等部分,且使用N个部分中的对应于一个像素的相等部分的数量,对呈现间距P2的空间内的每个像素编号。在这种情况下,处理器121可以通过将分配给每个像素的编号除以N来计算余数,然后使用所计算的余数来改变分配给每个像素的编号。
例如,如果在呈现间距P2中包括5.2个像素,则难以确定哪个像素需要接通/断开。在这种情况下,呈现间距P2被划分为100个相等部分,并且如果与一个像素相对应的相等部分的数量是H,则H是100/P2。如果P2为5.2,H为19.23。据此,每个像素可以编号如下。
0 19 39 58 77 96 115 135 154 173 192 212 231 250...
在本文中,每100个单位重复编号。因此,可以通过除以100获得如下余数。
0 19 39 58 77 96 15 35 54 73 92 12 31 50...
如果分别将用于左眼的像素的编号和用于右眼的像素的编号确定为25和75,差值为50,则只有具有与25或75相同的编号的像素需要接通。相同的编号可以设置为范围。因此,由于H为19.25,所以该范围可以为15-35或65-85。该范围可以根据像素的结构或H的值而变化。
在这种情况下,只有在65-85范围内的像素可以接通(x表示断开,o表示接通)。
0(x) 19(x) 39(x) 58(x) 77(o) 96(x) 15(x) 35(x) 54(x) 73(o) 92(x) 12(x) 31(x) 50(x) 69(o) 88(x) 8(x) 27(x) 46(x) 65(o) 85(o) 4(x) 23(x) 42(x) 62(x) 81(o) 0(x) 19(x) 39(x) 58(x)...
如图19所示,当位于预定范围内的像素接通时,如果观看者不能用观看者的一只眼睛识别位于预定范围内的像素,则处理器将呈现间距P2的空间内的每个像素的编号增加以将用户设备120的显示模块123的接通/断开位置向左移动。否则,处理器121可以减小呈现间距P2的空间内的每个像素的编号,以将用户设备120的显示模块123的接通/断开位置向右移动。
例如,如图19所示,当编号从0开始且对应于65-85的范围内的编号的像素接通时,像素58、54和50存在于对应于左眼的位置处。因此,观看者不能用左眼看到从65到68的像素。偏移调整是指将65-85的范围内的像素放置成用左眼很好地看到的过程。
为此,将初始像素的编号增加10。如果这样,则像素68、64和60位于对应于观看者的左眼的位置处,因此,观看者可以用左眼看到像素68。然而,观看者仍然不能用左眼看到像素64和60。因此,将初始像素的编号再增加10。如果这样,像素78、74和70位于与观看者的左眼对应的位置处,因此,观看者可以用左眼看到所有的像素。
如此,在本发明的示例性实施方式中,将初始像素的编号增加10,如果这样,则接通的像素逐渐向左移动。如果重复该过程,则观看者的左眼可以在某一时刻与像素匹配。根据本发明的示例性实施方式,只要观看者找到用其左眼看到屏幕亮的时刻,则观看者可以利用像素的位置来调整镜头的位置。因此,容易以高精度用于位置中。
同时,在调整呈现间距P2的状态下,处理器121可以基于眉间宽度b,透镜间距LP'和表示柱状透镜210与用户设备120的显示模块123之间的距离的光学距离gn,计算表示观看者可以通过用户设备120观看最生动的立体图像的距离的第一观看距离(最佳观看距离)Z。
在此,光学距离gn可以为考虑用户设备120的柱状透镜210和显示模块123的折射率和物理距离而计算(固定)的值。
然后,处理器121可以使用用户设备120的相机测量第二观看距离,该第二观看距离表示从用户设备120到观看者通过用户设备120观看立体图像的实际距离。然后,处理器121可以将所测量的第二观看距离与第一观看距离Z进行比较。
因此,处理器121可以向用户设备120提供引导信号,以引导观看者基于第一观看距离Z和第二观看距离之间的距离差来调整观看者的第二观看距离。
例如,如果第一观看距离Z和第二观看距离之间的比较结果为第二观看距离大于第一观看距离Z,则处理器121可以向用户设备120提供引导信号,以引导观看者更靠近用户设备120。换句话说,如图11所示,如果实际观看距离大于最佳观看距离,则处理器121可以向用户设备120提供引导信号,以引导观看者的眼睛更靠近用户设备120。因此,观看者可以通过减小实际观看距离来保持校正柱状透镜210的位置和用户设备120的显示模块123的接通/断开位置之间的未对准的精度。
根据另一示例,如果第一观看距离Z和第二观看距离之间的比较结果为第二观看距离小于第一观看距离Z,则处理器121可以向用户设备120提供引导信号,以引导观看者更远离用户设备120。换句话说,如果实际观看距离小于最佳观看距离,则处理器121可以向用户设备120提供引导信号,以引导观看者的眼睛更远离用户设备120。因此,观看者可以通过增大实际观看距离来保持校正柱状透镜210的位置和用户设备120的显示模块123的接通/断开位置之间的未对准的精度。
此外,设置在透镜片上的柱状透镜210可以以预定的倾斜角度布置于透镜片。换句话说,如图20A和20B所示,由于具有倾斜角度的柱状透镜210的布置,透镜片在其顶表面上包括倾斜图案。
因此,如图21所示,处理器121可以进行操作,以用于匹配用户设备120屏幕的呈现角度与柱状透镜210的倾斜角度。
显示模块123可以在用户设备120的屏幕上显示偏移控制用户界面(UserInterface,UI)。在此,偏移控制UI可以包括用于在每个预定的时间间隔处增大或减小每个像素的编号的工作按钮,用于临时停止增大或减小每个像素的编号的暂停按钮,用于在选择暂停按钮的状态下微调每个像素的编号的微调按钮,以及当用观看者的一只眼睛可以看到预定范围内的像素时用于选择的OK按钮。
例如,观看者按下用户设备120的屏幕上的工作按钮。如果这样,则从0开始的初始像素的标号自动增加10。当观看者发现观看者用其左眼看到屏幕亮的时刻时,观看者按下暂停按钮并使用微调按钮将初始像素的编号改变-1或+1,以找到屏幕变得最亮的位置。当观看者找到最亮屏幕的位置时,观看者按下OK按钮。
在另一示例性实施方式中,如图26所示,显示模块123可以提供用于调整屏幕和膜(即透镜片)之间视角的UI。UI可以通过识别用户绘制左半圆和右半圆的手势来调整屏幕和膜之间的视角。例如,右侧手势可以给出“+”值以增大视角,且左侧手势可以给出“-”值以减小视角。UI可以将屏幕划分为三个等级,以便更容易地调整视角。从底部起依次以1、2和3倍速度进行改变,且可以提供用于各个等级的引导路线。
在又一示例性实施方式中,如图27所示,显示模块123可以提供用于调整屏幕和膜之间的左值和右值的UI。UI可以通过识别用户的左水平移动和右水平移动的手势来调整屏幕和膜之间的左值和右值。例如,右侧手势可以给出“+”值以将屏幕向右移动,且左侧手势可以给出“-”值以将屏幕向左移动。UI可以将屏幕划分为三个等级,以便更容易地调整左值和右值。从底部起依次以1,2和3倍速度进行改变,且可以提供用于各个等级的引导路线。
图22至图25为提供用于解释根据本发明的示例性实施方式的通过立体图像显示设备校正未对准的方法的流程图。
参照图22至图24,在1210中,立体图像显示设备接收观看者的眉间宽度。
然后,在1220中,立体图像显示设备基于所输入的眉间宽度和透镜间距调整用户设备120的显示器的呈现间距。
然后,在1230中,立体图像显示设备通过移动显示器的接通/断开位置来校正凸透镜在附接到透镜片时的位置和显示器的接通/断开位置之间的未对准。
为此,在1310中,立体图像显示设备接通显示器的像素以对应于呈现间距的空间。
具体地,在1410中,立体图像显示设备对呈现间距的空间内的每个像素进行编号,以便为显示器的接通/断开位置分配映射值。然后,在1420中,立体图像显示设备基于与观看者的左眼相对应的像素的编号和与观看者的右眼相对应的像素的编号之间的差异,从呈现间距的空间内的像素中设置要接通的像素的编号。然后,在1430中,立体图像显示设备参考所设置的像素的编号接通预定范围内的像素。
然后,在1320中,立体图像显示设备确定观看者是否能够识别接通的像素。
如果确定观看者未识别接通的像素(1320的“否”),则在1330中,立体图像显示设备改变用于显示器的接通/断开位置的映射值,以向左(或向右)移动显示器的接通/断开位置。同时,如果确定观看者识别出接通的像素(1320的“是”),则立体图像显示设备结束本示例性实施方式。
在下文中,将参照图25详细描述在呈现间距不是显示器的像素尺寸的整数倍的情况下,对呈现间距的空间内的每个像素进行编号的过程。
首先,在1510中,立体图像显示设备将呈现间距的空间划分为N(N是自然数)个相等部分。然后,在1520中,立体图像显示设备计算N个部分中的对应于一个像素的相等部分的数量H。然后,在1530中,立体图像显示设备使用计算出的数量H对呈现间距的空间内的每个像素进行编号。然后,在1540中,立体图像显示设备通过将分配给每个像素的编号除以N来计算余数。然后,在1550中,立体图像显示设备使用计算出的余数来改变分配给每个像素的编号。
此外,立体图像显示设备可以如上所述执行针对用户的每只眼睛校正未对准的操作,或者可以执行在用户打开他/她的双眼时校正未对准的操作。
下面将描述操作原理。
参考图28A,断开的像素与用户的两只眼睛匹配,并因此,用户的双眼看到的用户设备的屏幕是黑的。然而,如图28B所示,如果改变接通的像素的位置以与用户的双眼匹配,则用户可以看到明亮的屏幕。在这种情况下,可以利用用户与用户设备的相对位置和像素信息来计算柱状透镜的位置,使得可以发现透镜和像素的校正对准位置。
在此,重要的是,接通像素的宽度需要小于断开像素的宽度,且然后才可以发现校正对准位置。
此外,与上述示例相反,可以通过应用接通/断开像素的位置以找到屏幕变得最暗的位置来校正未对准。
使用用户界面校正未对准的操作可以如下进行。
也就是说,当用户在相对于用户设备的特定位置处观看屏幕时,根据预定规则改变接通/断开像素的位置,并且在位置改变期间,用户可以找到屏幕变得最亮或最暗的时刻。因此,可以使得用户每次利用双眼容易地校正对准。
具体地,检查用户的双眼和用户设备的相对位置。
用户设备的处理器可以使用相机测量用户的双眼与用户设备的屏幕之间的距离。否则,处理器可以提供引导信息,以引导用户的双眼观看屏幕的中心,从而估计用户的双眼和屏幕之间的距离。例如,可以在屏幕的中心处显示目标,且在屏幕上显示用户的双眼针对屏幕的焦点位置,使得可以通过调整目标到屏幕,引导用户的双眼观看屏幕的中心。
当用户观看用户设备的屏幕时,用户设备的处理器可以通过按钮或滑块,提供将像素的接通/断开位置移动到屏幕的左侧或右侧的信息。
如果用户响应于此向用户设备输入向左或向右移动的信号,则显示模块上的接通的像素和断开的像素的位置根据信号所指示的方向逐个移动。也就是说,实际上不移动像素,而是改变各个位置处的像素的亮度值,使得接通像素和断开像素的位置改变。从用户的角度来看,亮像素可能看起来像实际上向左或向右移动。否则,如果用户点击工作按钮,则待接通的像素的编号可以在左方向或右方向中的预定方向上自动增加1。
在此,在包括如图28C所示配置的像素的屏幕上,待接通的像素从0开始,然后自动地依次移动到像素1和像素2,使得可以将一些像素的编号加1。
然后,用户可以在屏幕最暗或最亮的位置处输入停止信号以停止接通/断开像素的移动。停止信号可以为使得用户的身体部分离开暂停按钮、停止按钮或屏幕的行为。
此外,用户难以在改变接通/断开像素的位置的同时精确地捕获最亮或最暗的时刻。因此,可以提供使得用户能够进行微调的界面。例如,可以在暂停按钮或停止按钮的左侧和右侧分别布置左侧微调按钮和右侧微调按钮,该左侧微调按钮给出将接通/断开像素的位置值向左移动1的命令,该右侧微调按钮给出将接通/断开像素的位置值向右移动的命令。因此,当用户识别出屏幕变亮时,用户输入停止信号并在按压右侧微调按钮或左侧微调按钮的同时找到屏幕变得最亮的位置。当用户找到最亮屏幕的位置时,用户点击“OK”按钮,从而可以完成校正未对准的过程。
在下文中,将参考图29描述在相同条件下在眉间宽度b、观看距离b和光学距离gn方面改善立体图像显示设备100的分辨率的方法。
处理器121可以基于眉间宽度b、观看距离b和光学距离gn来减小呈现间距P2。这里,处理器121可以以奇数倍(例如3倍)将相邻的第一映射图案222和第二映射图案224之间的距离P1减小,以将基于眉间宽度和透镜间距计算的第一呈现间距调整为基于眉间宽度、观看距离和光学距离计算的第二呈现间距。因此,可以增加相邻的第一映射图案222和第二映射图案224之间的密度,且可以提高分辨率。
此外,处理器121可以基于第二呈现间距和眉间宽度来计算透镜间距LP',使得右眼R和左眼L分别通过同一柱状透镜210而对应于多个第一映射图案222和第二映射图案224之中不相邻的第一映射图案和第二映射图案。也就是说,透镜间距设计为使得通过每个柱状透镜210提供给用户的右眼图像和左眼图像,都由显示模块123中不相邻的映射图案222和映射图案224引起。此外,处理器121可以向显示模块123提供关于计算的透镜间距LP'的信息。显示模块123可以在用户设备120的屏幕上显示关于透镜间距LP'的信息,因此,用户可以检查关于透镜间距LP'的信息,并将透镜片110b附接到用户设备120以适合于透镜间距LP'。因此,用户可以在保持观看距离的同时观看更高分辨率的立体图像。
在下文中,将参照图30详细描述根据本发明的示例性实施方式的裸眼立体图像显示方法。
以下方法由上述裸眼立体图像显示设备100执行。因此,任何省略的部分将被上述描述代替。
首先,用户可以通过安装在立体图像显示设备100的用户设备中的程序(或应用程序)来访问内容提供服务器。内容提供服务器包括多个裸眼立体图像内容,且提供让用户选择播放期望的立体图像内容的服务。
用户可以使用该程序选择任何一个立体图像内容并且进行输入以播放该立体图像内容。
在这种情况下,立体图像显示设备100从用户接收眉间宽度的输入(S110)。可以通过预先提供针对面部大小的特定选项,并提供使得用户能够选择任何一个选项的用户界面,以进行眉间宽度的输入。
然后,立体图像显示设备100基于眉间宽度和盖110内的柱状透镜210之间的透镜间距来调整显示模块123的呈现间距(S120)。
立体图像显示设备100基于呈现间距来计算最佳观看距离,并提供引导信号,以引导用户至最佳观看距离(S130)。在此,立体图像显示设备100基于眉间宽度、透镜间距和表示柱状透镜210和显示器之间距离的光学距离,计算表示用户可以观看最生动的图像的距离的第一观看距离,并且使用用户设备120的相机122测量作为实际观看距离的第二观看距离。此外,立体图像显示设备100向用户设备120提供引导信号,以引导用户基于第一观看距离和第二观看距离之间的距离差来调整用户的第二观看距离。
然后,立体图像显示设备100使用相机122对用户的眼睛进行眼睛追踪,以获取用户眼睛的移动方向和移动距离(S140)。通过眼睛追踪可以知道用户眼睛的位置是否移动。
立体图像显示设备100基于移动距离和眉间宽度来控制显示模块123。因此,即使用户进行移动,立体图像显示设备100也可以主动地向用户提供立体图像(S150)。具体地,计算偏移值,并将显示模块123中像素220的发光图案(即多个第一映射图案和第二映射图案)在测得的移动方向的相反方向上移动偏移值,使得立体图像显示设备100可以主动地提供适合于移动的用户的立体图像。
可以在包括能够由计算机执行的指令代码(如由计算机执行的程序模块)的存储介质中实现本发明的实施方式。此外,根据本发明的实施方式的数据结构可以存储在可由计算机执行的存储介质中。计算机可读介质可以为可由计算机访问的任何可用介质,并且包括所有易失性/非易失性介质和可移动/不可移动介质。此外,计算机可读介质可以包括所有计算机存储器。计算机存储介质包括可通过某种方法或技术实现的所有易失性/非易失性介质和可移动/不可移动介质,以存储信息如计算机可读指令代码、数据结构、程序模块或其它数据。
提供本发明的上述描述是为了说明的目的,并且本领域技术人员将理解,在不改变本发明的技术概念和本质特征的情况下,可以进行各种改变和修改。因此,清楚的是,上述实施方式在所有方面都是示例性的且不限制本发明。例如,描述为单一类型的每个部件可以以分布的方式实现。同样,描述为分布式的部件可以以组合的方式实现。
本发明的范围由所附权利要求书而不是由实施方式的详细描述限定。应当理解的是,从权利要求及其等同物的含义和范围所构思的所有修改和实施方式都包括在本发明的范围内。

Claims (7)

1.一种裸眼立体图像显示设备,包括:
显示模块,所述显示模块通过盖显示立体图像,所述盖包括具有多个凸透镜的柱状透镜;以及
处理器,所述处理器控制所述显示模块,
其中,所述处理器执行如下操作:
在提供立体图像之前,通过移动包括在所述显示模块中的像素的接通和断开位置,来校正所述柱状透镜与所述显示模块的左眼图像像素和右眼图像像素之间的未对准;
其中,在校正未对准时,所述处理器执行如下操作:
使用所述裸眼立体图像显示设备的相机或预定参考值,来指定用户的两只眼睛与所述裸眼立体图像显示设备的屏幕之间的距离;
从用户接收用于移动所述像素的所述接通和断开位置的信号,然后将所述显示模块的所述像素的所述接通和断开位置依次移动到初始预定位置的左侧或右侧;
响应于用户的输入通过执行微调,将所述像素的所述接通和断开位置向左或向右移动,其中,所述输入是关于所述显示模块的屏幕变为最亮或最暗的时刻的信号;以及
当从用户接收到OK信号时,确定在接收到所述OK信号时所述像素的接通和断开位置,作为所述柱状透镜与所述左眼图像像素和所述右眼图像像素之间的对准位置;
其中,接通像素的宽度小于断开像素的宽度,
通过与所述裸眼立体图像显示设备连接的相机测量用户针对所述裸眼立体图像显示设备的观看位置;
基于透镜间距和所述观看位置调整与所述显示模块的左眼图像像素对应的多个图案当中彼此相邻的图案之间的距离或者与所述显示模块的右眼图像像素对应的多个图案当中彼此相邻的图案之间的距离,其中所述透镜间距指示位于所述裸眼立体图像显示设备的前表面处的所述盖的多个凸透镜之间的距离;
通过基于与所述显示模块的左眼图像像素对应的多个图案当中彼此相邻的图案之间的所述距离或者与所述显示模块的右眼图像像素对应的多个图案当中彼此相邻的图案之间的所述距离控制所述显示模块的左眼图像像素和右眼图像像素来提供裸眼立体图像,使得在所述显示模块上出现并穿过所述盖的图像被提供为针对所述用户的所述裸眼立体图像,
如果通过使用连接到所述裸眼立体图像显示设备的相机对用户的眼睛进行眼睛追踪而确定所述用户的眼睛的位置已经移动,则基于所述用户的眼睛的位置的移动距离、观看位置和所述柱状透镜之间的距离和所述柱状透镜和所述显示模块之间的距离来计算所述显示模块的偏移值,以及
控制所述显示模块以将与所述显示模块的左眼图像像素对应的图案或与所述显示模块的右眼图像像素对应的图案朝向与所述用户的眼睛的移动方向相反的方向移动所述偏移值,
所述观看位置指的是所述用户的右眼和左眼所在的位置,
所述柱状透镜固定在一个位置且因此所述透镜间距具有固定值。
2.一种裸眼立体图像显示方法,所述裸眼立体图像显示方法由用户设备的处理器执行,所述裸眼立体图像显示方法包括:
在提供立体图像之前,通过移动包括在所述用户设备的显示模块中的像素的接通和断开位置,来校正在位于所述用户设备的前表面处的盖中包括的具有多个凸透镜的柱状透镜与所述显示模块的左眼图像像素和右眼图像像素之间的未对准;
其中,校正未对准包括:
使用所述用户设备的相机或预定参考值,来指定用户的两只眼睛与所述用户设备的屏幕之间的距离;
从用户接收用于移动所述像素的所述接通和断开位置的信号,然后将所述用户设备的所述显示模块的所述像素的所述接通和断开位置依次移动到初始预定位置的左侧或右侧;
响应于用户的输入通过执行微调,将所述像素的所述接通和断开位置向左或向右移动,其中,所述输入是关于所述显示模块的屏幕变为最亮或最暗的时刻的信号;以及
当从用户接收到OK信号时,确定在接收到所述OK信号时所述像素的接通和断开位置,作为所述柱状透镜与所述左眼图像像素和所述右眼图像像素之间的对准位置;
其中,接通像素的宽度小于断开像素的宽度,
通过控制所述用户设备的显示模块的左眼图像像素和右眼图像像素来提供立体图像,
其中,提供立体图像包括:
通过与所述用户设备连接的相机测量用户针对所述用户设备的观看位置;
基于透镜间距和所述观看位置调整与所述显示模块的左眼图像像素对应的多个图案当中彼此相邻的图案之间的距离或者与所述显示模块的右眼图像像素对应的多个图案当中彼此相邻的图案之间的距离,其中所述透镜间距指示在位于所述用户设备的前表面处的盖中包括的柱状透镜的多个凸透镜之间的距离;
通过基于与所述显示模块的左眼图像像素对应的多个图案当中彼此相邻的图案之间的所述距离或者与所述显示模块的右眼图像像素对应的多个图案当中彼此相邻的图案之间的所述距离控制所述显示模块的像素来提供裸眼立体图像,使得在所述显示模块上出现并穿过包括所述柱状透镜的所述盖的图像被提供为针对所述用户的所述裸眼立体图像,
如果通过使用连接到所述用户设备的相机对用户的眼睛进行眼睛追踪而确定所述用户的眼睛的位置已经移动,则基于所述用户的眼睛的位置的移动距离、观看位置和所述柱状透镜之间的距离和所述柱状透镜和所述显示模块之间的距离来计算所述显示模块的偏移值,以及
控制所述显示模块以将与所述显示模块的左眼图像像素对应的图案或与所述显示模块的右眼图像像素对应的图案朝向与所述用户的眼睛的移动方向相反的方向移动所述偏移值,
所述观看位置指的是所述用户的右眼和左眼所在的位置,
其中,所述柱状透镜固定在一个位置且因此所述透镜间距具有固定值。
3.根据权利要求2所述的裸眼立体图像显示方法,还包括:
在提供立体图像之前,
通过执行安装在所述用户设备中的应用程序从内容提供服务器接收多个裸眼立体图像内容的列表,向用户提供所述列表,以及接收输入以显示由用户所选择的任一立体图像内容。
4.根据权利要求2所述的裸眼立体图像显示方法,
其中,提供立体图像包括:
基于所述透镜间距和所述用户的所述观看位置,计算在与所述左眼图像像素对应的多个第一映射图案和与所述右眼图像像素对应的多个第二映射图案当中彼此相邻的第一映射图案和第二映射图案之间的距离;以及
基于所计算的距离,调整表示所述多个第一映射图案之间的距离和所述多个第二映射图案之间的距离的呈现间距。
5.根据权利要求2所述的裸眼立体图像显示方法,
其中,提供立体图像还包括:
基于眉间宽度、所述透镜间距和光学距离计算第一观看距离,所述第一观看距离表示用户能够通过所述用户设备观看最生动的立体图像时的最佳观看距离,所述光学距离表示从所述柱状透镜到所述左眼图像像素和所述右眼图像像素的距离;
使用连接到所述用户设备的相机测量第二观看距离,所述第二观看距离表示从所述用户设备到用户的实际观看距离;以及
提供引导信号,以引导用户基于所述第一观看距离和所述第二观看距离之间的距离差,通过所述显示模块来调整用户的第二观看距离。
6.根据权利要求4所述的裸眼立体图像显示方法,
其中,校正未对准包括:
通过接通所述显示模块的区域中的像素以对应于所述呈现间距的空间,并基于用户是否识别接通的所述像素改变用于所述显示模块的所述像素的所述接通和断开位置的映射值,将所述显示模块的所述像素的所述接通和断开位置向左或向右移动。
7.根据权利要求6所述的裸眼立体图像显示方法,
其中,执行将所述显示模块的所述像素的所述接通和断开位置向左或向右移动,直至用户的一只眼睛或两只眼睛识别接通的所述像素。
CN201611113725.7A 2016-06-03 2016-12-07 用于裸眼立体图像的显示设备和显示方法 Active CN107465909B (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020160069372A KR101897229B1 (ko) 2016-06-03 2016-06-03 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법
KR10-2016-0069378 2016-06-03
KR10-2016-0069372 2016-06-03
KR1020160069378A KR101808758B1 (ko) 2016-06-03 2016-06-03 입체 영상 표시 장치 및 그 오정렬 보정 방법
KR10-2016-0078744 2016-06-23
KR20160078744 2016-06-23

Publications (2)

Publication Number Publication Date
CN107465909A CN107465909A (zh) 2017-12-12
CN107465909B true CN107465909B (zh) 2020-11-03

Family

ID=60483913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611113725.7A Active CN107465909B (zh) 2016-06-03 2016-12-07 用于裸眼立体图像的显示设备和显示方法

Country Status (2)

Country Link
US (2) US10448001B2 (zh)
CN (1) CN107465909B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101880751B1 (ko) * 2017-03-21 2018-07-20 주식회사 모픽 무안경 입체영상시청을 위해 사용자 단말과 렌티큘러 렌즈 간 정렬 오차를 줄이기 위한 방법 및 이를 수행하는 사용자 단말
JP2019017800A (ja) * 2017-07-19 2019-02-07 富士通株式会社 コンピュータプログラム、情報処理装置及び情報処理方法
CN107396087B (zh) * 2017-07-31 2019-03-12 京东方科技集团股份有限公司 裸眼三维显示装置及其控制方法
TWI680325B (zh) * 2018-04-19 2019-12-21 宏達國際電子股份有限公司 顯示裝置及其顯示方法
US10817055B2 (en) * 2018-05-24 2020-10-27 Innolux Corporation Auto-stereoscopic display device
JP2020048017A (ja) * 2018-09-18 2020-03-26 ソニー株式会社 表示制御装置および表示制御方法、並びに記録媒体
TWI779842B (zh) * 2021-09-22 2022-10-01 宏碁股份有限公司 立體顯示裝置及其顯示方法
CN114253398A (zh) * 2021-12-08 2022-03-29 深圳市多狗乐智能研发有限公司 一种高仿真生物眼睛互动图像显示模块及方法
CN114513649A (zh) * 2022-01-28 2022-05-17 深圳看到科技有限公司 3d立体相机
CN115150390B (zh) * 2022-06-27 2024-04-09 山东信通电子股份有限公司 一种图像显示方法、装置、设备及介质
WO2024034895A1 (ko) * 2022-08-11 2024-02-15 삼성전자 주식회사 디스플레이 패널의 구동 시점을 조정하는 방법 및 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102088638A (zh) * 2009-11-24 2011-06-08 Lg电子株式会社 图像显示装置及其操作方法
CN102158721A (zh) * 2011-04-06 2011-08-17 青岛海信电器股份有限公司 调节三维立体图像的方法、装置及电视机
CN102572483A (zh) * 2011-12-02 2012-07-11 深圳超多维光电子有限公司 跟踪式裸眼立体显示控制方法、装置及显示设备、系统
CN104539923A (zh) * 2014-12-03 2015-04-22 深圳市亿思达科技集团有限公司 一种景深自适应的全息显示方法及其装置
CN105103032A (zh) * 2013-03-26 2015-11-25 鲁索空间工程项目有限公司 显示装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2321815A (en) * 1997-02-04 1998-08-05 Sharp Kk Autostereoscopic display with viewer position indicator
KR20070111763A (ko) 2006-05-19 2007-11-22 한국과학기술원 3차원 모니터에서 영상왜곡을 보상하는 방법
JP2008015063A (ja) 2006-07-04 2008-01-24 Nikon Corp 立体視光学系
WO2012127282A1 (en) * 2011-03-23 2012-09-27 Sony Ericsson Mobile Communications Ab Rearranging pixels of a three-dimensional display to reduce pseudo-stereoscopic effect
US9414049B2 (en) * 2011-09-19 2016-08-09 Écrans Polaires Inc./Polar Screens Inc. Method and display for showing a stereoscopic image
KR101867815B1 (ko) 2011-10-21 2018-06-18 엘지전자 주식회사 입체영상 처리 장치 및 입체영상의 시역 거리를 조절하기 위한 방법
KR101316795B1 (ko) * 2012-02-02 2013-10-11 한국과학기술연구원 시역 평탄화 및 동적 크로스토크 최소화를 위한 무안경식 3차원 영상표시장치
KR101958447B1 (ko) * 2012-05-16 2019-03-15 삼성디스플레이 주식회사 입체 영상 표시 장치 및 그 표시 방법
CN102681185B (zh) * 2012-05-30 2014-07-30 深圳超多维光电子有限公司 一种立体显示装置及其调整方法
TWI516093B (zh) * 2012-12-22 2016-01-01 財團法人工業技術研究院 影像互動系統、手指位置的偵測方法、立體顯示系統以及立體顯示器的控制方法
KR20140089860A (ko) 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
KR102208898B1 (ko) 2014-06-18 2021-01-28 삼성전자주식회사 무안경 3d 디스플레이 모바일 장치, 이의 설정방법 및 사용방법
US10394037B2 (en) * 2014-06-18 2019-08-27 Samsung Electronics Co., Ltd. Glasses-free 3D display mobile device, setting method of the same, and using method of the same
GB2527548A (en) * 2014-06-25 2015-12-30 Sharp Kk Variable barrier pitch correction
KR102218777B1 (ko) 2014-09-11 2021-02-19 엘지디스플레이 주식회사 무안경 입체영상표시장치
CN104601981A (zh) 2014-12-30 2015-05-06 深圳市亿思达科技集团有限公司 一种基于人眼跟踪的调整观看角度的方法及全息显示装置
CN104994373A (zh) * 2015-07-31 2015-10-21 京东方科技集团股份有限公司 三维显示装置及三维显示方法
KR101664959B1 (ko) 2016-02-04 2016-10-12 삼성디스플레이 주식회사 입체 영상 표시 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102088638A (zh) * 2009-11-24 2011-06-08 Lg电子株式会社 图像显示装置及其操作方法
CN102158721A (zh) * 2011-04-06 2011-08-17 青岛海信电器股份有限公司 调节三维立体图像的方法、装置及电视机
CN102572483A (zh) * 2011-12-02 2012-07-11 深圳超多维光电子有限公司 跟踪式裸眼立体显示控制方法、装置及显示设备、系统
CN105103032A (zh) * 2013-03-26 2015-11-25 鲁索空间工程项目有限公司 显示装置
CN104539923A (zh) * 2014-12-03 2015-04-22 深圳市亿思达科技集团有限公司 一种景深自适应的全息显示方法及其装置

Also Published As

Publication number Publication date
US10448001B2 (en) 2019-10-15
US20170353716A1 (en) 2017-12-07
US20190394452A1 (en) 2019-12-26
US10855976B2 (en) 2020-12-01
CN107465909A (zh) 2017-12-12

Similar Documents

Publication Publication Date Title
CN107465909B (zh) 用于裸眼立体图像的显示设备和显示方法
US11729369B2 (en) Digital inter-pupillary distance adjustment
US10488920B2 (en) Immersive headset system and control method thereof
US8606043B2 (en) Method and apparatus for generating 3D image data
US9319674B2 (en) Three-dimensional image display device and driving method thereof
CN104076512A (zh) 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
US11428951B2 (en) Glasses-free 3D display mobile device, setting method of the same, and using method of the same
EP3132305B1 (en) Glasses-free 3d display mobile device, setting method of the same, and using method of the same
WO2015180402A1 (zh) 显示控制方法、装置及系统
JP2013051627A (ja) 視域調整装置、映像処理装置および視域調整方法
US9648307B2 (en) Display apparatus and display method thereof
KR20140067575A (ko) 삼차원 이미지 구동 방법 및 이를 수행하는 입체 영상 표시 장치
EP3169068B1 (en) Portable device that controls photography mode, and control method therefor
US10924725B2 (en) Method of reducing alignment error between user device and lenticular lenses to view glass-free stereoscopic image and user device performing the same
KR101956532B1 (ko) 무안경 입체 영상 표시 장치 및 방법
CN105824408A (zh) 虚拟现实头盔瞳距调节同步装置及方法
KR101863155B1 (ko) 무안경 입체 영상 표시 장치 및 방법
KR101808758B1 (ko) 입체 영상 표시 장치 및 그 오정렬 보정 방법
KR101897229B1 (ko) 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법
KR101950816B1 (ko) 입체영상 디스플레이장치 및 그 구동 방법
KR20180100291A (ko) 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법
KR20180003153A (ko) 입체 영상 표시 장치 및 그 해상도 향상 방법
KR20130064937A (ko) 입체영상 디스플레이장치 및 그 구동 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant