CN106170084B - 多视点图像显示设备及其控制方法及多视点图像产生方法 - Google Patents
多视点图像显示设备及其控制方法及多视点图像产生方法 Download PDFInfo
- Publication number
- CN106170084B CN106170084B CN201610084899.9A CN201610084899A CN106170084B CN 106170084 B CN106170084 B CN 106170084B CN 201610084899 A CN201610084899 A CN 201610084899A CN 106170084 B CN106170084 B CN 106170084B
- Authority
- CN
- China
- Prior art keywords
- pixel
- image
- viewpoint
- region
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
- H04N13/351—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/317—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
Abstract
提供了一种多视点图像显示设备及其控制方法及多视点图像产生方法。一种多视点图像显示设备,包括:图像接收器;显示器,包括显示面板和视场划分器,其中,视场划分器被布置在显示面板的观看表面的前面并被配置为在观看区域中提供观看图像的不同视点;处理器,被配置为:基于图像的深度来渲染图像的具有不同视点的多个视图,产生多视点图像,以及控制显示面板显示所述多视点图像。所述处理器还被配置为将混合像素值映射到所述多视点图像的目标区域,其中,所述混合像素值是基于第一视点和第二视点的像素值而被产生的,所述目标区域是基于显示面板的输出像素区域和观看区域中的相应可见像素区域之间的差而被计算的。
Description
本申请要求于2015年5月21日提交到韩国知识产权局的第10-2015-0070914号韩国专利申请的优先权,所述申请的公开通过引用其全部合并于此。
技术领域
一个或更多个示例性实施例的一个或更多个方面涉及一种多视点图像显示设备及其控制方法、一种控制器以及一种多视点图像产生方法,更具体地讲,涉及提供一种自动立体多视点图像显示设备及其控制方法。
背景技术
各种类型的电子设备已被开发并得到推广。显示设备(诸如电视机(TV)等)已经得到持续开发。
具有高质量性能的显示设备可显示各种内容。具体而言,可观看三维(3D)内容的立体显示系统已被开发出并得到推广。
立体显示设备可被实现为各种类型的显示设备,诸如3D TV、各种类型的监视器、便携式电话、个人数字助理(PDA)、个人计算机(PC)、机顶PC(set-top PC)、平板PC、电子相框、一体机PC等。此外,3D显示技术可在家庭和需要3D成像的各种领域(诸如科学、医学、设计、教育、广告、计算机游戏等)中被使用。
通常可将立体显示系统分为在没有眼镜的情况下实现3D观看的自动立体系统和在有眼镜的情况下实现观看3D的立体系统。
立体系统可提供令人满意的3D效果,然而观看者必须使用眼镜。由于自动立体系统使得能够在没有眼镜的情况下观看3D图像,因此渴望继续开发自动立体系统。
现有的自动立体系统由于其光学结构而具有图像质量劣化的问题。
发明内容
一个或更多个示例性实施例解决以上问题和/或缺点以及以上未描述的其它缺点。此外,不要求示例性实施例克服上述缺点,并且一个或更多个示例性实施例可不克服上述任何问题。
根据一个或更多个示例性实施例的一方面,提供一种多视点图像显示设备及其控制方法,其中,所述多视点图像显示设备通过使用输入图像的像素和深度信息来显示输出图像以提供清晰的三维(3D)图像。
根据一个或更多个示例性实施例的一方面,提供一种多视点图像显示设备,包括:图像接收器,被配置为接收图像;显示器,包括显示面板和视场划分器,其中,视场划分器被布置在显示面板的观看表面(viewing surface)的前面并被配置为在观看区域(viewingzone)中提供观看图像的不同视点;处理器,被配置为基于图像的深度来渲染图像的具有不同视点的多个视图,基于形成图像的所述多个视图的像素值来产生将在显示面板上显示的多视点图像,并控制显示面板显示所述多视点图像,其中,所述处理器还被配置为通过将混合像素值映射到所述多视点图像的目标区域来产生所述多视点图像,其中,所述混合像素值是基于所述不同视点中的第一视点的像素值和所述不同视点中的第二视点的像素值而被产生的,其中,所述目标区域是基于显示面板的输出像素区域与在观看区域中提供的相应可见像素区域(visible pixel area)之间的差(difference)而被计算的。
视场划分器可被配置为在观看区域中按照预设角度提供至少一个像素区域,处理器可还被配置为基于所述预设角度以及所述可见像素区域的像素间距来计算所述目标区域。
处理器可还被配置为通过对所述第一视点的像素值和所述第二视点的像素值进行加权来计算所述混合像素值,加权操作可基于所述可见像素区域的像素间距和所述预设角度来确定。
处理器可还被配置为通过对第一值和第二值求和来计算所述混合像素值,其中,所述第一值是通过将所述第一视点的像素值和基于所述可见像素区域中的与输出像素区域相应的第一区域的面积比(area ratio)的权重相乘而获得的,所述第二值是通过将所述第二视点的像素值和基于所述可见像素区域中的第二区域的面积比的权重相乘而获得的。
处理器可还被配置为:检测输入图像的边缘区域,并基于与检测到的边缘区域相应的输出像素区域和与检测到的边缘区域相应的可见像素区域之间的差来计算所述目标区域。
处理器可还被配置为:确定与检测到的边缘区域相应的像素值的位置,并根据输入图像的深度信息来计算包括在所确定的位置中的目标区域,其中,该检测到的边缘区域分布在所述多个视图中。
处理器可还被配置为:确定与检测到的边缘区域相应的像素值的位置,并根据所述深度信息对所确定的位置应用滤波以计算所述混合像素值,其中,该检测到的边缘区域分布在基于包括所述多个视图的等像素线(equal pixel line)的核线图像(epipolarimage)而产生的核线域(epipolar domain)中。
处理器可还被配置为:在具有低深度的图像中对低深度对象执行弱滤波(其中,低深度对象的深度以所述深度信息为基础),并在具有高深度的图像中对高深度对象执行强滤波(其中,高深度对象的深度以所述深度信息为基础)。
所述第二视点可包括所述第一视点的上一视点和下一视点中的至少一个视点。
处理器可还被配置为:针对红色(R)子像素、绿色(G)子像素和蓝色(B)子像素中的每种子像素计算上述混合像素值。
所述第二视点可以是所述第一视点的邻近视点。
可按照预设角度布置视场划分器,并且所述可见像素区域的像素间距可与布置视场划分器所依据的所述预设角度相应。
根据一个或更多个示例性实施例的另一方面,提供一种控制多视点图像显示设备的方法,其中,所述多视点图像显示设备包括显示面板和视场划分器,视场划分器被布置在显示面板的观看表面的前面并被配置为在观看区域中提供具有不同视点的光学视图(optical view),所述方法包括:基于输入图像的深度来渲染具有不同视点的多个视图;基于形成所述多个视图的像素值来产生将在显示面板上显示的多视点图像;在显示面板上显示多视点图像,其中,产生多视点图像的步骤包括:将混合像素值映射到所述多视点图像中的目标区域,其中,所述混合像素值是基于所述不同视点中的第一视点的像素值和所述不同视点中的第二视点的像素值而被产生的,其中,所述目标区域是基于显示面板的输出像素区域和在观看区域中提供的相应可见像素区域之间的差而被计算的。
视场划分器可操作用于在观看区域中按照预设角度提供至少一个像素区域,并且所述方法可还包括:基于所述预设角度以及所述可见像素区域的像素间距来计算所述目标区域。
所述方法可还包括:通过对所述第一视点的像素值和所述第二视点的像素值进行加权来计算所述混合像素值,并且所述加权步骤可基于所述可见像素区域的像素间距和所述预设角度来确定。
所述方法可还包括:通过将所述第一视点的像素值和基于所述可见像素区域的与输出像素区域相应的第一区域的面积比的权重相乘来获得第一值;通过将所述第二视点的像素值和基于所述可见像素区域的第二区域的面积比的权重相乘来获得第二值;通过对所述第一值和所述第二值求和来计算所述混合像素值。
所述方法可还包括:检测输入图像的边缘区域,并基于与检测到的边缘区域相应的输出像素区域和与检测到的边缘区域相应的可见像素区域之间的差来计算所述目标区域。
所述方法可还包括:确定与检测到的边缘区域相应的像素值的位置,其中,该检测到的边缘区域分布在多个视图中;根据输入图像的深度信息来计算包括在所确定的位置中的目标区域。
所述方法可还包括:确定与检测到的边缘区域相应的像素值的位置,其中,该检测到的边缘区域分布在基于包括所述多个视图的等像素线的核线图像而产生的核线域中;根据所述深度信息输入对所确定的位置进行滤波以计算将被映射在目标区域中的混合像素值。
计算混合像素值的步骤可包括:在具有低深度的图像中对低深度对象执行弱滤波(其中,所述低深度对象的深度以所述深度信息为基础),并在具有高深度的图像中对高深度对象执行强滤波(其中,所述高深度对象的深度以所述深度信息为基础)。
所述第二视点可包括所述第一视点的上一视点和下一视点中的至少一个视点。
所述方法可还包括:计算红色(R)子像素、绿色(G)子像素及蓝色(B)子像素中的每种子像素的混合像素值。
所述第二视点可以是所述第一视点的邻近视点。
可按照预设角度布置视场划分器,并且可见像素区域的像素间距可与布置视场划分器所依据的所述预设角度相应。
根据一个或更多个示例性实施例的另一方面,提供一种针对被配置为在观看区域中提供多个不同视点的显示器的控制器,所述控制器包括:存储器,具有在其中存储的程序,其中,当由处理器执行所述程序时,所述程序指示处理器进行以下操作:基于图像的深度来渲染图像的不同视点的多个视图;基于所述多个视图中的第一视图的第一视点的像素值和所述多个视图中的第二视图的第二视点的像素值来产生混合像素值;基于形成所述多个视图的像素值,通过将所述混合像素值映射到将在显示器上显示的多视点图像的目标区域来产生所述多视点图像。
当由处理器执行所述程序时,所述程序可还指示处理器控制显示器显示包括映射的混合像素值的多视点图像。
根据一个或更多个示例性实施例的另一方面,提供一种针对被配置为在观看区域中提供多个不同视点的显示器的产生多视点图像的方法,所述方法包括:基于输入图像的深度来渲染具有不同视点的多个视图;基于所述多个视图中的第一视图的第一视点的像素值和所述多个视图中的第二视图的第二视点的像素值来产生混合像素值;基于形成所述多个视图的像素值来产生将在显示器上显示的多视点图像,其中,产生将在显示器上显示的多视点图像的步骤包括:将所述混合像素值映射到所述多视点图像的目标区域。
所述方法可还包括:控制显示器显示包括映射的混合像素值的多视点图像。
附图说明
通过参照附图描述特定示例性实施例,以上和/或其它方面将会更清楚,其中:
图1是示出根据示例性实施例的多视点图像显示设备的操作的示图;
图2A至图2C是示出根据示例性实施例的多视点图像显示设备的结构的示图;
图3是示出根据示例性实施例的像素映射方法的示图;
图4A和图4B是示出根据另一示例性实施例的像素映射方法的示图;
图5A和图5B是示出根据示例性实施例的减轻图像质量的劣化的效果的示图;
图6和图7是示出根据另一示例性实施例的视图之间的像素移动的示图;
图8A至图8C是示出根据另一示例性实施例的用于映射像素的反映深度的方法的示图;
图9是示出根据示例性实施例的在核线域中对像素值进行滤波的方法的示图;
图10和图11是示出根据另一示例性实施例的在核线域中对像素值进行滤波的方法的示图;
图12是示出根据示例性实施例的控制多视点图像显示设备的方法的流程图。
具体实施方式
可多样化地修改一个或更多个示例性实施例。相应地,在附图中示出一个或更多个示例性实施例并在详细的说明中予以详尽描述。然而,将理解:示例性实施例不限于在此描述的一个或更多个示例性实施例,而是在不脱离本公开的范围和精神的情况下包括全部修改、等同物和替代形式。
在以下描述中,即使在不同附图中,相同的附图标号也被用于相同的元件。提供在描述中限定的事宜(诸如详细构造和元件)以帮助全面理解一个或更多个示例性实施例。因此,能够在没有那些具体限定的事宜的情况下实施示例性实施例。此外,由于公知的功能或构造会利用不必要的细节使描述变模糊,因此不详细描述公知的功能或构造。
虽然术语“第一”、“第二”等可在此被用于描述各种元件,但是这些元件不应被这些术语限制。这些术语仅被用于使一个元件区别于另一元件。
这里使用的术语仅仅是为了描述特定示例性实施例的目的而并非意在限制。如这里所使用,除非上下文清楚地另有指示,否则单数形式意在也包括复数形式。还将理解:术语“包括”、“包括……的”、“包含”和/或“包含……的”指明存在声明的特征、整数、步骤、操作、元件和/或组件,但是并不排除一个或更多个其它特征、整数、步骤、操作、元件、组件和/或它们的组合的存在或添加。
在一个或更多个示例性实施例中,“模块”或“单元”可执行至少一个功能或操作并且可被实施为硬件或软件或者被实现为硬件和软件的组合。此外,可将多个“模块”或多个“单元”集成到将被实现为至少一个处理器和/或存储器的至少一个模块中。某些模块可被实现为具体硬件。
此外,当任何部分连接到另一部分时,这包括直接连接和通过另一介质的间接连接。除非另有限定,否则当任何部分包括任何元件时,这可意指在不排除其它元件的情况下任何部分还包括其它元件。
在下文中,将参照附图详细描述一个或更多个示例性实施例。
图1是示出根据示例性实施例的多视点图像显示设备的操作的示图。
图1示出显示多视点图像以按照自动立体方法提供三维(3D)图像的设备的操作方法。可基于通过按照不同角度捕捉对象而获得的多个图像来产生多视点图像。换言之,从不同视点捕捉到的多个图像按照不同角度被折射,并且聚焦于保持被称为“观看距离”的预设距离(例如,约3m)的位置的图像被提供。形成图像的位置被称为“观看区域”(或“光学视点”)。因此,如果观看者的一只眼睛位于第一观看区域中并且观看者的另一只眼睛位于第二观看区域中,则观看者可感受到3D效果。
图1是示出具有总计七个视图的多视点图像的显示操作的示图。参照图1,自动立体3D显示设备可将与所述七个视图中的第一视点图像相应的光投射进左眼并将与第二视点图像相应的光投射进右眼。因此,观看者可利用左眼和右眼观看具有不同视点的视点图像并由此感受到3D效果。
图2A至图2C是示出根据示例性实施例的多视点图像显示设备100的结构的示图。
图2A是示出根据示例性实施例的多视点图像显示设备100的结构的框图。
参照图2A,多视点图像显示设备100包括图像接收器110(例如,图像输入单元)、显示器120及处理器130。
可将多视点图像显示设备100实现为各种类型的显示设备,诸如TV、监视器、PC、一体机PC、平板PC、电子相框、便携式电话等。
图像接收器110接收图像。图像接收器110可从各种类型的外部设备(诸如外部存储介质、广播站、web服务器等)接收图像。接收到的图像是单视点图像、立体图像及多视点图像中的一种。单视点图像是由普通拍摄设备捕捉到的图像,立体图像是仅利用左眼图像和右眼图像表现的3D视频图像,即,由立体拍摄设备捕捉到的3D图像。一般而言,立体拍摄设备是包括两个镜头并被用于捕捉3D图像的拍摄设备。多视点图像是指通过由一个或更多个拍摄设备捕捉的图像的地理校正(geographical correction)和空间合成(spatialsynthesis)将来自若干方向的各种视图提供给观看者的3D图像。
图像接收器110可接收图像的深度信息。一般而言,图像的深度是被分配到图像的每个像素的深度值。作为非限制性示例,使用8个比特的深度可具有0与255之间的值,即,灰度值。可选地,可基于黑色和白色来表示深度值,黑色(低值)可指示远离观看者的位置,白色(高值)可指示靠近观看者的位置。
深度信息是指示3D图像的深度的信息,即,与形成3D图像的左眼图像和右眼图像之间的双眼视差相应的信息。人感受到的3D效果的程度随深度而变化。换言之,如果深度高,则在左眼和右眼之间的双眼视差高,因此,相对强烈地感受到3D效果。如果深度低,则在左眼和右眼之间的双眼视差低,因此,相对弱地感受到3D效果。一般而言,可通过仅使用图像的二维(2D)特性(诸如立体匹配等)来获得深度信息的被动方法(passive method)和使用诸如深度相机的设备的主动方法(active method)来获得深度信息。深度信息可具有深度图形式。深度图是指包括图像的多个区域中的每个区域的深度信息的表格。可根据像素单元来划分所述区域或者所述区域可被限定为大于像素单元的预设区域。例如,深度图可指示:灰度值127或128被设置为参考值,即,0(或焦平面),低于127或128的值被表达为“-”值,高于127或128的值被表达为“+”值。可在0与255之间任意选择焦平面的参考值。在这里,-值指示凹陷,+值指示凸起。
显示器120提供多个光学视点(或观看区域)。为此,显示器120包括显示面板121和用于提供多个光学视点的视场划分器122。
显示面板121包括均具有多个子像素的多个像素。在这里,子像素可包括红色(R)子像素、绿色(G)子像素和蓝色(B)子像素。换言之,包括R子像素、G子像素及B子像素的像素可按照多行和多列中被排列以形成显示面板121。可将显示面板121实现为各种类型的显示面板,诸如液晶显示面板(LCDP)、等离子显示面板(PDP)、有机发光二极管(OLED)、真空荧光显示器(VFD)、场发射显示器(FED)、电致发光显示器(ELD)等。
处理器130可渲染具有不同视点的多个视图。
详细地讲,处理器130可基于当将二维(2D)图像转换为三维(3D)图像时提取的深度信息来渲染具有不同视点的多个视图。可选地,如果输入了具有不同视点的N个视图和与所述N个视图相应的N条深度信息,则处理器130可基于输入的N个视图和输入的N条深度信息之中的至少一个图像和至少一条深度信息来渲染多视点图像。此外,如果仅输入了具有不同视点的N个视图,则处理器130可从所述N个视图提取深度信息,并基于提取的深度信息来渲染多视点图像。
例如,处理器130可将3D图像(即,左眼图像和右眼图像中的一个图像)选为参考视图(或中心视图)以产生形成多视点图像的基础的最左视图和最右视图。在这种情况下,处理器130可基于经过校正的与左眼图像和右眼图像中的被选为参考视图的所述一个图像相应的深度信息来产生最左视图和最右视图。如果产生了最左视图和最右视图,则处理器130可在中心视图和最左视图之间产生多个内插视图(interpolation view)并在中心视图和最右视图之间产生多个内插视图以渲染多视点图像。然而,一个或更多个示例性实施例不限于此,因此,可根据外插技术产生外插视图(extrapolation view)。如果基于2D图像和深度信息渲染了多视点图像,则2D图像可被选为中心视图。
处理器130的上述详细操作仅是示例性实施例,因此,除上述操作以外,处理器130可根据各种方法渲染多个视图。
处理器130也可根据各种标准基于深度信息来控制输入图像的深度,并基于具有被控制的深度的图像来渲染多个视图。
在处理器130的控制下,显示面板121显示图像帧。详细地讲,显示面板121可显示多视点图像帧,其中,在多视点图像帧中,具有不同视点的多个视图被按顺序重复排列。
如果将显示面板121实现为LCD面板,则显示设备100可还包括:背光单元(BLU)(例如,背光),向显示面板121提供背光;面板驱动器,根据形成图像帧的像素的像素值来驱动显示面板121的像素。
视场划分器122可被布置在显示面板121的前表面(或后表面)以根据观看区域提供不同视图(即,光学视图)。在这种情况下,可将视场划分器122实现为柱状透镜或视差屏障。
作为非限制性示例,可将视场划分器122实现为包括多个透镜区域的柱状透镜。因此,柱状透镜可通过多个透镜区域来折射在显示面板121上显示的图像。可按照与至少一个像素相应的尺寸形成每个透镜区域并且每个透镜区域可根据观看区域而有区别地漫射透过每个像素的光。
作为另一示例,可将视场划分器122实现为视差屏障。将视差屏障实现为包括多个屏障区域的透明狭缝阵列(slit array)。因此,视差屏障可阻挡通过屏障区域之间的狭缝的光,以根据观看区域发射具有不同视点的图像。
图2B是示出根据示例性实施例的被实现为柱状透镜阵列的视场划分器122的示图。
参照图2B,显示器120包括显示面板121、柱状透镜阵列122’和BLU 123。
如图2B所示,显示面板121包括被划分为多列的多个像素。具有不同视点的图像被排列在各个区域中。参照图2B,具有不同视点的多个图像1、2、3和4被按顺序重复排列。换言之,标号1、2、3及4的群组被排列在每个像素列中。应用于显示面板121的图形信号被排列以使第一像素列能够显示第一图像并使第二像素列能够显示第二图像。
BLU 123向显示面板121提供光。由于从BLU 123提供的光,在显示面板121上形成的图像1、2、3及4被投射到柱状透镜阵列122’上,并且柱状透镜阵列122’漫射与投射的图像1、2、3及4相应的光以向观看者发送漫射的光。换言之,柱状透镜阵列122’在观看者的位置(即,在观看距离处)产生出射光瞳(exit pupil)。如果如所示实现柱状透镜阵列,则柱状透镜的厚度和直径可被设计为使每列产生的出射光瞳能够以65mm或更少的平均双眼中心距离隔开。如果利用视差屏障,则狭缝等之间的距离可被设计为使每列的出射光瞳能够以65mm或更少的平均双眼中心距离隔开。来自隔开的图像的光形成各个观看区域。换言之,如图2B所示,如果形成了第一至第四视点并且观看者的左眼和右眼分别位于第二视点和第三视点,则观看者可观看3D图像。
视场划分器122可按照预设角度倾斜以操作用于提高图像质量。处理器130可基于视场划分器122倾斜的角度来划分多个视图并产生用于组合和输出所述多个视图的多视点图像帧。因此,观看者可观看到按照特定方向倾斜的区域而不是按照与显示面板121的子像素垂直或水平的方向显示的图像。因此,观看者可观看到关于至少一些像素的子像素的一部分而不是一个完整的子像素。
例如,如图2C所示,观看者可观看到由视场划分器122按照预设角度倾斜的区域210。具体而言,通过视场划分器122的光学操作,观看者观看到如图2C所示倾斜的区域210中的像素区域(在下文中称为“可见像素区域”)。在这种情况下,可按照柱状透镜的间距来确定在可见像素区域中提供的像素A、B和C的尺寸。
根据示例性实施例,处理器130基于形成具有不同视点的多个视图的子像素值来产生将在显示面板121上显示的多视点图像。
详细地讲,处理器130可在至少一个目标像素区域中映射混合像素值以产生多视点图像,其中,在混合像素值中,具有不同视点的多个视图的特定视点的像素值与所述特定视点的邻近视点的像素值混合。在这种情况下,处理器130可计算R子像素、G子像素及B子像素中的每种子像素的混合像素值,并在至少一个目标子像素区域中映射计算出的混合像素值以产生多视点图像。这里,用于计算混合像素值的所述特定视点的邻近视点可包括所述特定视点的上一视点和下一视点,或者可以是相隔若干或更多个视点的视点。
换言之,与在特定子像素区域中映射一个视图的子像素值来产生将被输出的多视点图像的现有方法不同,处理器130可将与至少两个视图相应的至少两个子像素值混合并在特定子像素区域中映射混合后的子像素值以产生将在显示面板121上输出的多视点图像。
例如,如果计算出将作为将在显示面板121上显示的多视点图像的位置(1,1)处的R子像素的混合像素值,则处理器130可混合并计算所选择的第一视点的位置(1,1)处的R子像素值和至少一个邻近视点的位置(1,1)处的R子像素值。
具体而言,处理器130可在显示面板121上显示多视点图像。这里,基于显示面板121的输出显示区域和通过观看者的观看区域中的光学视图提供给观看者的相应可见像素区域之间的差来计算目标区域,并且在目标区域中映射基于多个视图的特定视点的像素值和所述特定视点的邻近视点的像素值而产生的混合像素值,以产生多视点图像。
处理器130可检测输入图像的至少一个边缘区域,并基于与检测到的边缘区域相应的输出像素区域和通过光学视图提供所述边缘区域的可见像素区域之间的差来计算目标区域。在这种情况下,处理器130可基于视场划分器122倾斜的角度和可见像素区域的像素间距来计算目标区域。
处理器130可将权重应用于特定视点的像素值和所述特定视点的邻近视点的像素值以计算混合像素值。这里,基于与输入图像的边缘区域相应的可见像素区域的像素间距和视场划分器122倾斜的角度来确定所述权重。
详细地讲,处理器130可对第一值和第二值进行求和以计算将映射在第一区域中的混合像素值,其中,所述第一值是通过将输出像素区域的像素值和下述权重相乘而获得的:(该权重以可见像素区域的与输入图像的边缘区域相应且与输出像素区域相应的第一区域的面积比为基础,所述第二值是通过将输出像素区域的邻近像素值和下述权重相乘而获得的:该权重以可见像素区域的造成锯齿(jagging)的第二区域的面积比为基础。稍后将参照附图对此进行描述。
另外,处理器130可确定与至少一个边缘区域相应并被分布在多个视图上的像素值的位置,以根据输入图像的深度信息来计算包括在确定的位置中的目标区域。
处理器130还可确定与至少一个边缘区域相应并被分布核线域中的像素值的位置,并将根据深度信息对所确定的位置应用滤波以计算将被映射在目标区域中的混合像素值,其中,所述核线域是基于在多个视图的相同像素线中形成的核线图像而产生的。
图3是示出根据示例性实施例的像素映射方法的示图。
根据示例性实施例,多个视图的数量以及柱状透镜的间距可以是标准的以从具有渲染的不同视点的多个视图产生将被显示的多视点图像。
为便于描述,在图3中,具有不同视点的多个视图311、312等的数量可以是M,柱状透镜的间距可覆盖4.6个子像素。在这种情况下,可基于在非专利参考文献“Cees vanDerkel,“针对3D-LCD的图像准备(Image Preparation for 3D-LCD),”电子成像(Electronic Imaging)‘99”(其公开通过引用其全部内容合并与此)中公开的方法来计算被分配到像素位置(i,j)的视图。
图4A和图4B是示出根据示例性实施例的像素映射方法的示图。
如图4A所示,显示面板121包括均包含多个子像素的多个像素。在这里,子像素可包括R子像素、G子像素和B子像素。换言之,均包含R子像素、G子像素和B子像素的像素可按照多行和多列被排列以形成显示面板121。
通过在显示面板121的前表面上提供的视场划分器的光学操作,观看者观看如图4A所示按照预设角度倾斜的可见像素区域410、420、430等。可按照柱状透镜的间距确定在可见像素区域中提供的像素421-1、421-2及421-3的尺寸。
如果显示面板121在输出显示区域440中显示特定边缘图像,则所述特定边缘图像被看作针对观看者的可见像素区域410和420。换言之,像素锯齿现象可能造成图像质量的劣化。现在将参照图4A的左侧示图详细描述根据示例性实施例的用于防止像素锯齿现象的像素映射方法。
图4A的左侧示图放大了在图4A的右侧示图中示出的元素的一部分,即,示出可见像素区域的一部分421,其中,与特定边缘图像相应的输出像素区域440被看作针对观看者的可见像素区域。
按与特定边缘图像相应的输出像素区域440划分的相应可见像素区域421的区域422可与造成锯齿现象的区域相应。
因此,与区域422相应的输出像素区域450的像素值可被校正为混合像素值以减少锯齿现象。例如,如果边缘图像是白色并且邻近背景区域是黑色,则与可见像素区域422(其中,可见像素区域422对于观看者的眼睛而言被看成是白色的从而造成锯齿)相应的输出像素区域450可被映射为原始像素值(即,与白色邻近的像素值,也就是黑色的混合像素值)以被平滑地处理从而减少锯齿现象。
在这种情况下,为了计算混合像素值,可将基于可见像素区域的像素间距和倾斜角度而确定的权重应用于在输出像素区域中映射的特定视点的像素值以及在邻近像素区域中映射的邻近视点的像素值。一般而言,在多视点图像中,可在映射有特定视点的像素值的输出像素的邻近像素中映射所述特定视点的邻近视点的像素值。因此,可将所述特定视点的像素值和所述邻近视点的像素值混合以计算混合像素值。在这里,除上一视点和下一视点以外,所述邻近视点可指隔开若干视点的视点。
详细地讲,可对通过将输出像素区域的像素值(例如,与边缘图像相应的白色像素值255)与关于与输出像素区域相应的第一像素区域421-1、421-2及421-3的面积比的权重相乘而获得的值以及通过将邻近像素值(例如,与背景图像相应的黑色像素值0)与关于可见像素区域的造成锯齿的第二区域422的面积比的权重相乘而获得的值求和,以计算将被映射在对于观看者而言被看作第二区域422的输出像素区域450中的混合像素值。
例如,如果像素间距是4.688p并且倾斜角度是80.50°,则可将第一可见像素区域421-1中造成锯齿的第一子像素422-1的面积计算为a*b/2,可将第二子像素422-2的面积计算为a*b*3/2并且可将第三子像素422-3的面积计算为a*b*5/2。在这种情况下,根据三角函数法则,可将a的值计算为a=1/cos(80.50°)并且可将b的值计算为b=a/tan(80.50°)。
如果在可见像素区域421-1中第一子像素422-1的面积比是r,则可将混合像素值计算为邻近像素区域的像素值(例如,与背景图像相应的黑色像素值0)*r+输出像素区域的像素值(例如,与边缘图像相应的白色像素值255)*(1-r)。如上所述计算出的混合像素值可被映射在与第一可见像素区域421-1相应的输出像素区域中。根据此方法,可计算基于第二子区域422-2和第三子区域422-3的混合像素值,并可在与第二可见像素区域421-2和第三可见像素区域421-3相应的输出像素区域中映射所述混合像素值。可对每个子像素执行如上所述的像素映射方法。
此外,如图4B所示,可对与造成锯齿现象的可见像素区域450相应的输出像素区域执行与图4A的像素映射方法相似的像素映射方法。简而言之,可在与可见像素区域450相应的输出像素区域(即,显示边缘图像的输出像素区域)的右邻近像素区域中映射如图4B所示计算出的混合像素值,以减少在边缘区域中发生的锯齿现象。
然而,根据另一示例性实施例,可基于邻近视点的像素值和所述邻近视点的邻近视点的像素值来计算混合像素值。例如,如果邻近视点(该邻近视点是基于参照图4A描述的像素映射方法确定的并且将被映射在第一R子像素中)是第一视点,则混合了第一视点的像素值和作为邻近视点的第二视点和第七视点的像素值的像素值可被映射在输出图像的第一R子像素中。换言之,在根据预设权重将第一视点的R子像素值、第二视点的R子像素值和第七视点的R子像素值混合以计算像素值的情况下,可该像素值映射在第一R子像素中。
根据另一示例性实施例,可基于邻近视点的像素值和包括邻近视点的邻近像素值的邻近像素区域的像素值来计算混合像素值。例如,如果邻近视点(该邻近视点是根据参照图4A描述的像素映射方法确定的并且被映射在第一R子像素中)是第一视点,则可基于下述项来计算混合像素值:包括第一视点的特定子像素值的像素区域、相应子像素、邻近子像素以及与作为邻近视点的第二视点和第七视点相应的像素区域。换言之,在第一R子像素中映射下述像素值:在该像素值中,第一视点的特定R子像素区域、第二视点的特定R子像素区域以及第七视点的特定R子像素区域的R像素值根据预设权重被混合。
图5A和图5B是示出根据示例性实施例的减轻图像质量的劣化的效果的示图。
图5A是示出未应用一个或更多个示例性实施例的图像质量劣化现象的示图。
图5A的左侧示图510示出在显示面板上实际显示的边缘图像,右侧示图520示出可见图像,其中,通过3D显示设备的光学结构,边缘图像对于观看者而言被看作所述可见图像。
如图5A所示,通过3D显示设备的光学结构,图像质量由于边缘区域中发生的锯齿现象而劣化。
图5B是示出根据示例性实施例的减轻图像质量的劣化的效果的示图。
图5B的左侧示图530示出在显示面板上实际输出的边缘图像。右侧示图540示出根据一个或更多个示例性实施例的可见图像,其中,在显示面板上实际输出的边缘图像对于观看者而言被看作所述可见图像。根据一个或多个示例性实施例,可减轻锯齿现象。
图6和图7是示出根据另一示例性实施例的视图之间的像素移动的示图。
图6示出在视图之间根据深度的像素移动的量。
如图6所示,具有高深度的像素的位置的移动量大于具有低深度的像素的位置的移动量。
例如,如图6所示,具有高深度的像素在第一视图上的位置611、第二视图上的位置612和第N个视图上的位置613之间移动,而具有低深度的像素在第一视图上的位置621、第二视图上的位置622和第N个视图上的位置623之间移动。
不具有深度的像素在各个视图中处于相同位置。
如图7所示,在包含具有相同深度的前视图(例如,建筑物)和背景(例如,道路)的图像710中包括边缘图像711。观看者看到具有与在显示面板上输出的图像相同的形式720的边缘图像711。
然而,如果前视图(即,建筑物图像)具有预设深度,则在多个视图之中与边缘图像713相应的像素的移动量大幅增加。因此,看到基于多个视图而产生的多视点图像的观看者将相应像素看成是模糊的,并且被看作彼此隔开的像素740和像素750的程度随着深度值的增加而增加。。
如图6和图7所示,如果深度高,则在视图之间像素的移动量高,因此,图像质量被劣化。因此,可在核线域中执行反映深度的图像质量处理。
图8A至图8C是示出根据另一示例性实施例的用于映射像素的反映深度的方法的示图。
如图8A所示,在核线域810中,已经从不同视点渲染的多个视图可被排列在Y轴(或视图轴)上,并且所述视图的宽度和高度形成X-Z轴(即,宽-高轴)。换言之,组合了多个视图的相同像素线的图像可形成X-Y轴(即,宽-高轴)。例如,多个视图的相同像素线可形成Y轴,即,视图轴。
例如,如图8B所示,可渲染高度为h且宽度为w的35个多视点图像。
在这种情况下,可将35个多视点图像811至814的像素线进行组合以形成分别与所述像素线相应的核线图像。详细地讲,可组合第一像素线以形成第一图像821,可组合第a像素线以形成第a个图像822,可按顺序组合与如所述产生的像素线的数量相应的h个图像以形成核线图像。
在这种情况下,具有预设形状的线可根据对象的深度大小(即,像素区域的深度大小)出现在与每条像素线相应的图像中。例如,对象A“●”具有深度0并由此存在于35个多视点图像中的相同位置。然而,对象B“△”具有预设大小的深度,因此对象B的位置在35个多视点图像中被逐渐改变。这种位置改变以预设线形式出现。参照图8B,与具有深度值0的对象A“●”相应的线以垂直形式出现,与具有预设深度大小的对象B“△”和对象C“×”相应的线以斜线形式出现。
因此,如果如图8C所示图8A的核线域的视图边具有低深度,则如图8C的左侧示图所示,线以稍微倾斜的直线出现。如果核线域的视图边具有高深度,则如图8C的右侧所示,所述线以大幅倾斜的直线出现。
可根据显示面板的可见像素区域的像素间距、倾斜角度及深度来改变考虑视点之间的信息的程度以执行像素映射。
图9是示出根据另一示例性实施例的对核线域中的像素值进行滤波的方法的示图。
如图9所示,图像可形成在核线域中,然后可考虑显示面板的可见像素区域的像素间距、倾斜角度及深度来确定增加了高通滤波器(HPF)的结果值的比值,以确定通过反锐化掩模(unsharp masking)的输出图像的子像素值。
详细地讲,显示面板可根据深度以及可见像素区域的像素间距和倾斜角度来选择HPF的强度。
图10和图11是示出根据另一示例性实施例的对核线域中的像素值进行滤波的方法的示图。
如图10所示,图像可形成在核线域中,然后可选择滤波强度以应用亮度改进算法。
详细地讲,如图11所示,可对具有低深度的背景图像执行弱滤波,可对具有高深度的背景图像执行强滤波。
图12是示出根据示例性实施例的控制多视点图像显示设备的方法的流程图。
在操作S1210,根据控制多视点图像显示设备的方法,基于输入图像的深度来渲染具有不同视点的多个视图,其中,所述多视点图显示设备包括显示面板和视场划分器,其中,视场划分器被布置在显示面板的前表面以在观看者的观看区域中提供具有不同视点的光学视图。
在操作S1220,基于形成多个视图的像素值来产生将在显示面板上显示的多视点图像。
在操作S1230,在显示面板上显示多视点图像。在这里,混合像素值是基于多个视图的特定视点的像素值和所述特定视点的邻近视点的像素值而产生的,并且被映射在目标区域中以产生多视点图像。目标区域是基于显示面板的输出显示区域和通过光学视图提供给观看者的相应可见像素区域之间差而计算出的。
这里,视场划分器操作用于通过光学视图提供按照预设角度倾斜的至少一个像素区域。此外,所述方法可还包括:由视场划分器基于可见像素区域的像素间距和可见像素区域倾斜的角度来计算所述目标区域。
此外,所述方法可还包括:将权重应用于所述特定视点的像素值和所述特定视点的邻近视点的像素值以计算混合像素值,其中,所述权重是由视场划分器基于可见像素区域的像素间距和可见像素区域倾斜的角度而确定的。
计算混合像素值的操作可包括:对通过将输出像素区域的像素值和基于可见像素区域的与输出像素区域相应的第一区域的面积比的权重相乘而获得的值以及通过将邻近像素值和基于可见像素区域的造成锯齿的第二区域的面积比的权重相乘而获得的值求和,以计算将被映射在输出像素区域中的混合像素值。
所述方法可还包括:检测输入图像的至少一个边缘区域,并基于与检测到的边缘区域相应的输出像素区域和与所述边缘区域相应的可见像素区域之间的差来计算所述目标区域。
计算目标区域的操作可包括:确定与所述至少一个边缘区域相应且被分布在多个视图上的像素值的位置,并根据输入图像的深度信息来计算包括在所确定的位置中的目标区域。
所述方法可还包括:确定与所述至少一个边缘区域相应并且被分布核线域中的像素值的位置,并根据深度信息对所确定的位置应用滤波以计算将被映射在目标区域中的混合像素值,其中,所述核线域是基于包括多个视图的相同像素线的核线图像而产生的。
计算混合像素值的操作可包括:基于所述深度信息,对具有低深度的对象执行弱滤波,并对具有高深度的对象执行强滤波。
用于计算混合像素值的所述特定视点的邻近视点可包括所述特定视点的上一视点和下一视点。
所述方法可还包括:计算R子像素、G子像素和B子像素中的一种子像素的混合像素值。
如上所述,根据各种示例性实施例,可考虑输入图像的深度以及在观看者的观看区域中通过光学视图提供给观看者的可见像素区域的像素间距和倾斜角度来确定将被映射在输出像素中的像素值。因此,可减少由3D显示设备的光学结构造成的混叠(aliasing)或锯齿现象,从而可向观看者提供清晰的3D图像。
根据一个或更多个示例性实施例,可提供一种用于显示器的控制器。所述控制器可包括存储器。所述存储器可存储程序。所述程序可指示处理器进行以下操作:基于输入图像的深度来渲染具有不同视点的多个视图,基于形成所述多个视图的像素值来产生将在显示器上显示的多视点图像,基于所述多个视图中的第一视图的第一视点的像素值和所述多个视图中的第二视图的第二视点的像素值来产生混合像素值,并将所述混合像素值映射到多视点图像的目标区域,其中,所述目标区域是基于显示器的输出像素区域和通过光学视图提供的相应可见像素区域之间的差而被计算的。所述控制器可还包括所述处理器。
可在将被提供给显示设备的程序中实施上述根据各种示例性实施例的显示多视点图像的方法。可在非暂时性计算机可读介质中存储并提供包括显示多视点图像的方法的所述程序。
例如,可提供一种存储执行以下处理的程序的非暂时性计算机可读介质:基于输入图像的深度来渲染具有不同视点的多个视图;基于形成所述多个视图的像素值来产生将在显示面板上显示的多视点图像;产生将被输出的混合像素值,其中,混合像素值是基于所述多个视图中的特定视点的像素值和所述特定视点的邻近视点的像素值而被产生的,并且被映射在目标区域中以产生多视点图像,其中,所述目标区域是基于显示面板的输出像素区域和通过光学视图提供给观看者的相应可见像素区域之间的差而被计算的。
非暂时性计算机可读介质并非意指短期存储数据的介质(诸如注册表、高速缓存器、内存等),而是意指半永久地存储数据的机器可读介质。可在非暂时性计算机可读介质(诸如压缩盘(CD)、数字通用盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)记忆棒、存储卡、只读存储器(ROM)等)中存储并提供上述各种应用或程序。
在上文中,虽然已经示出并描述了特定示例性实施例,但是应理解:本公开不限于所公开的示例性实施例,并且在不脱离本公开的精神和范围的情况下,可由本领域技术人员可进行各种改变。因此,本公开应被理解为包括本公开的精神和范围中所包含的所有改变、等同物及替代形式。
Claims (14)
1.一种多视点图像显示设备,包括:
图像接收器,被配置为接收图像;
显示器,包括:
显示面板;
视场划分器,被布置在显示面板的观看表面的前面并被配置为在观看区域中提供观看图像的不同视点;
处理器,被配置为:
基于图像的深度来渲染图像的具有不同视点的多个视图,
基于形成图像的所述多个视图的像素值来产生将在显示面板上显示的多视点图像,以及
控制显示面板显示所述多视点图像,
其中,处理器还被配置为通过将混合像素值映射到所述多视点图像的目标区域的子像素来产生所述多视点图像,
其中,所述混合像素值是基于所述不同视点中的第一视点的像素值和所述不同视点中的第二视点的像素值而被产生的,
其中,所述目标区域是基于显示面板的输出像素区域与在观看区域中提供的相应可见像素区域之间的预设倾斜角度以及所述可见像素区域的像素间距而被确定的,
其中,所述第一视点是与所述目标区域的子像素对应的视点。
2.如权利要求1所述的多视点图像显示设备,其中:
视场划分器被配置为在观看区域中按照所述预设倾斜角度提供至少一个像素区域。
3.如权利要求2所述的多视点图像显示设备,其中:
处理器还被配置为通过对所述第一视点的像素值和所述第二视点的像素值进行加权来计算所述混合像素值,
所述加权操作是基于所述可见像素区域的像素间距和所述预设倾斜角度来确定的。
4.如权利要求3所述的多视点图像显示设备,其中,处理器还被配置为通过对第一值和第二值求和来计算所述混合像素值,其中,所述第一值是通过将所述第一视点的像素值和基于所述可见像素区域中的与输出像素区域相应的第一区域的面积比的权重相乘而获得的,所述第二值是通过将所述第二视点的像素值和基于所述可见像素区域中的第二区域的面积比的权重相乘而获得的。
5.如权利要求1所述的多视点图像显示设备,其中,处理器还被配置为:
检测输入图像的边缘区域,
确定与检测到的边缘区域相应的像素值的位置,其中,该检测到的边缘区域分布在所述多个视图中;以及
根据所述输入图像的深度信息来计算包括在所确定的位置中的目标区域。
6.如权利要求5所述的多视点图像显示设备,其中,处理器还被配置为:
确定与检测到的边缘区域相应的像素值的位置,其中,该检测到的边缘区域分布在基于包括所述多个视图的等像素线的核线图像而产生的核线域中;以及
根据所述深度信息对所确定的位置应用滤波,以计算所述混合像素值。
7.如权利要求6所述的多视点图像显示设备,其中,处理器还被配置为:
在具有低深度的图像中对低深度对象执行弱滤波,其中,低深度对象的深度以所述深度信息为基础;以及
在具有高深度的图像中对高深度对象执行强滤波,其中,高深度对象的深度以所述深度信息为基础。
8.如权利要求1所述的多视点图像显示设备,其中,所述第二视点包括所述第一视点的上一视点和下一视点中的至少一个视点。
9.如权利要求1所述的多视点图像显示设备,其中,处理器还被配置为:针对红色(R)子像素、绿色(G)子像素和蓝色(B)子像素中的每种子像素计算所述混合像素值。
10.如权利要求1所述的多视点图像显示设备,其中,所述第二视点是所述第一视点的邻近视点。
11.一种控制多视点图像显示设备的方法,其中,所述多视点图像显示设备包括显示面板和视场划分器,视场划分器被布置在显示面板的观看表面的前面并被配置为在观看区域中提供具有不同视点的光学视图,所述方法包括:
基于输入图像的深度来渲染具有不同视点的多个视图;
基于形成所述多个视图的像素值来产生将在显示面板上显示的多视点图像;
在显示面板上显示所述多视点图像,
其中,产生所述多视点图像的步骤包括:将混合像素值映射到所述多视点图像中的目标区域的子像素,
其中,所述混合像素值是基于所述不同视点中的第一视点的像素值和所述不同视点中的第二视点的像素值而被产生的,
其中,所述目标区域是基于显示面板的输出像素区域和在观看区域中提供的相应可见像素区域之间的预设倾斜角度以及可见像素区域的像素间距而被确定的,
其中,所述第一视点是与所述目标区域的子像素对应的视点。
12.如权利要求11所述的方法,其中:
视场划分器操作用于在观看区域中按照所述预设倾斜角度提供至少一个像素区域。
13.如权利要求12所述的方法,还包括:通过对所述第一视点的像素值和所述第二视点的像素值进行加权来计算所述混合像素值,
其中,所述加权步骤是基于所述可见像素区域的像素间距和所述预设倾斜角度来确定的。
14.如权利要求13所述的方法,还包括:
通过将所述第一视点的像素值和基于所述可见像素区域中的与输出像素区域相应的第一区域的面积比的权重相乘来获得第一值;
通过将所述第二视点的像素值和基于所述可见像素区域的第二区域的面积比的权重相乘来获得第二值;以及
通过对所述第一值和所述第二值求和来计算所述混合像素值。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2015-0070914 | 2015-05-21 | ||
KR1020150070914A KR102185130B1 (ko) | 2015-05-21 | 2015-05-21 | 다시점 영상 디스플레이 장치 및 그 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106170084A CN106170084A (zh) | 2016-11-30 |
CN106170084B true CN106170084B (zh) | 2020-05-26 |
Family
ID=57320728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610084899.9A Active CN106170084B (zh) | 2015-05-21 | 2016-02-14 | 多视点图像显示设备及其控制方法及多视点图像产生方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10264246B2 (zh) |
KR (1) | KR102185130B1 (zh) |
CN (1) | CN106170084B (zh) |
WO (1) | WO2016186441A1 (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9928371B2 (en) | 2014-11-19 | 2018-03-27 | Papal, Inc. | Systems and methods for protecting information displayed on a user interface of a device |
US9886598B2 (en) | 2014-12-29 | 2018-02-06 | Paypal, Inc. | Automatic adjustment of a display to obscure data |
US9928372B2 (en) * | 2015-10-23 | 2018-03-27 | Paypal, Inc. | Selective screen privacy |
CN106851254B (zh) * | 2017-03-01 | 2018-09-28 | 广州弥德科技有限公司 | 一种指向性背光立体显示的视区划分方法和显示系统 |
CN107135388A (zh) * | 2017-05-27 | 2017-09-05 | 东南大学 | 一种光场图像的深度提取方法 |
US20180357981A1 (en) * | 2017-06-13 | 2018-12-13 | Misapplied Sciences, Inc. | Coordinated multi-view display experiences |
CN107347150B (zh) * | 2017-07-07 | 2019-05-28 | 广东小天才科技有限公司 | 一种实现裸眼3d效果的方法、装置、设备及存储介质 |
CN109389558B (zh) * | 2017-08-03 | 2020-12-08 | 广州汽车集团股份有限公司 | 一种消除图像边缘锯齿的方法及装置 |
US10212532B1 (en) | 2017-12-13 | 2019-02-19 | At&T Intellectual Property I, L.P. | Immersive media with media device |
CN108156446B (zh) * | 2017-12-28 | 2019-10-22 | 广州弥德科技有限公司 | 一种纵深可调指向性背光立体显示的视区划分系统及方法 |
US11106883B2 (en) * | 2018-08-02 | 2021-08-31 | Samsung Electronics Co., Ltd. | Method and apparatus for processing data corresponding to fingerprint image |
CN109147913A (zh) * | 2018-09-28 | 2019-01-04 | 广州狄卡视觉科技有限公司 | 一种手术显微镜双路同步微型图像的显示系统及其方法 |
CN111757088A (zh) * | 2019-03-29 | 2020-10-09 | 刁鸿浩 | 一种分辨率无损的裸眼立体显示系统 |
CN110139092A (zh) * | 2019-05-20 | 2019-08-16 | 中国科学院长春光学精密机械与物理研究所 | 立体显示系统、图像处理方法、装置、设备及存储介质 |
KR20210027918A (ko) * | 2019-09-03 | 2021-03-11 | (주)코믹스브이 | 2차원 이미지로부터 hmd를 위한 3차원 이미지를 생성하는 방법 |
WO2022245194A1 (ko) * | 2021-05-20 | 2022-11-24 | 삼성전자 주식회사 | 이미지를 처리하기 위한 방법 및 장치 |
EP4311233A1 (en) | 2021-05-20 | 2024-01-24 | Samsung Electronics Co., Ltd. | Method and apparatus for processing images |
KR20220170090A (ko) * | 2021-06-22 | 2022-12-29 | 에스케이하이닉스 주식회사 | 멀티-뷰 이미지에서 노이즈 감소를 위한 장치 및 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103124362A (zh) * | 2012-10-09 | 2013-05-29 | 友达光电股份有限公司 | 多视角三维显示器 |
CN103226810A (zh) * | 2012-01-26 | 2013-07-31 | 索尼公司 | 图像处理设备和图像处理方法 |
CN103686124A (zh) * | 2012-09-26 | 2014-03-26 | 三星电子株式会社 | 用于处理多视点图像的设备和方法 |
CN104079919A (zh) * | 2009-11-04 | 2014-10-01 | 三星电子株式会社 | 使用主动亚像素渲染的高密度多视点图像显示系统及方法 |
CN104185014A (zh) * | 2013-05-24 | 2014-12-03 | 三星电子株式会社 | 显示多视角图像的显示设备和方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4589277B2 (ja) | 2006-08-09 | 2010-12-01 | 日本電信電話株式会社 | 3次元表示方法 |
KR100954281B1 (ko) | 2008-02-14 | 2010-04-23 | 한국전자통신연구원 | 다시점 영상의 엘리애징 제거를 위한 필터링 장치 및 방법 |
KR20110091833A (ko) * | 2010-02-07 | 2011-08-16 | 김마리용 | 컨테이너 화물운송 에어 파이프라인 시스템 |
JP6027026B2 (ja) | 2011-01-22 | 2016-11-16 | ヒューマンアイズ テクノロジーズ リミテッド | レンチキュラ印刷および表示におけるぼけアーチファクトを低減する方法およびシステム |
WO2012131887A1 (ja) * | 2011-03-29 | 2012-10-04 | 株式会社 東芝 | 三次元映像表示装置 |
JP5291755B2 (ja) | 2011-04-21 | 2013-09-18 | 株式会社エム・ソフト | 立体視画像生成方法および立体視画像生成システム |
JP5355616B2 (ja) * | 2011-04-21 | 2013-11-27 | 株式会社エム・ソフト | 立体視画像生成方法および立体視画像生成システム |
TWI420152B (zh) * | 2011-04-26 | 2013-12-21 | Unique Instr Co Ltd | A Method of Multi - view Three - dimensional Image Display |
US9007435B2 (en) | 2011-05-17 | 2015-04-14 | Himax Technologies Limited | Real-time depth-aware image enhancement system |
JPWO2012176431A1 (ja) * | 2011-06-20 | 2015-02-23 | パナソニック株式会社 | 多視点画像生成装置、多視点画像生成方法 |
KR20130060041A (ko) | 2011-11-29 | 2013-06-07 | 삼성전자주식회사 | 입체영상표시장치 및 방법, 입체영상수신장치 및 방법 |
JP2013172229A (ja) | 2012-02-20 | 2013-09-02 | Kddi Corp | 立体映像制御装置、立体映像制御方法、およびプログラム |
KR101350310B1 (ko) * | 2012-11-12 | 2014-01-13 | 전자부품연구원 | 3차원 디스플레이 장치 및 그 제조 방법 |
KR20140089860A (ko) * | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | 디스플레이 장치 및 그 디스플레이 방법 |
KR20140134512A (ko) | 2013-05-14 | 2014-11-24 | 삼성디스플레이 주식회사 | 입체 영상 표시 장치 및 입체 영상 표시 방법 |
US9565414B2 (en) | 2013-05-24 | 2017-02-07 | Disney Enterprises, Inc. | Efficient stereo to multiview rendering using interleaved rendering |
JP2015050482A (ja) * | 2013-08-29 | 2015-03-16 | 株式会社東芝 | 画像処理装置、立体画像表示装置、画像処理方法およびプログラム |
KR102130123B1 (ko) | 2013-10-31 | 2020-07-03 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 그 제어 방법 |
US20150195502A1 (en) * | 2014-01-06 | 2015-07-09 | Innolux Corporation | Display device and controlling method thereof |
-
2015
- 2015-05-21 KR KR1020150070914A patent/KR102185130B1/ko active IP Right Grant
- 2015-10-19 US US14/886,611 patent/US10264246B2/en active Active
-
2016
- 2016-02-14 CN CN201610084899.9A patent/CN106170084B/zh active Active
- 2016-05-18 WO PCT/KR2016/005249 patent/WO2016186441A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104079919A (zh) * | 2009-11-04 | 2014-10-01 | 三星电子株式会社 | 使用主动亚像素渲染的高密度多视点图像显示系统及方法 |
CN103226810A (zh) * | 2012-01-26 | 2013-07-31 | 索尼公司 | 图像处理设备和图像处理方法 |
CN103686124A (zh) * | 2012-09-26 | 2014-03-26 | 三星电子株式会社 | 用于处理多视点图像的设备和方法 |
CN103124362A (zh) * | 2012-10-09 | 2013-05-29 | 友达光电股份有限公司 | 多视角三维显示器 |
CN104185014A (zh) * | 2013-05-24 | 2014-12-03 | 三星电子株式会社 | 显示多视角图像的显示设备和方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102185130B1 (ko) | 2020-12-01 |
US10264246B2 (en) | 2019-04-16 |
WO2016186441A1 (en) | 2016-11-24 |
CN106170084A (zh) | 2016-11-30 |
US20160345001A1 (en) | 2016-11-24 |
KR20160136831A (ko) | 2016-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106170084B (zh) | 多视点图像显示设备及其控制方法及多视点图像产生方法 | |
KR102140080B1 (ko) | 다시점 영상 디스플레이 장치 및 제어 방법 | |
KR102121389B1 (ko) | 무안경 3d 디스플레이 장치 및 그 제어 방법 | |
US8253740B2 (en) | Method of rendering an output image on basis of an input image and a corresponding depth map | |
KR102174258B1 (ko) | 무안경 3d 디스플레이 장치 및 그 제어 방법 | |
US10694173B2 (en) | Multiview image display apparatus and control method thereof | |
US9035943B1 (en) | Multi-view image display apparatus and multi-view image display method thereof | |
KR20150031626A (ko) | 다시점 영상 디스플레이 장치 및 제어 방법 | |
US10805601B2 (en) | Multiview image display device and control method therefor | |
US20170070728A1 (en) | Multiview image display apparatus and control method thereof | |
US10939092B2 (en) | Multiview image display apparatus and multiview image display method thereof | |
CN106559662B (zh) | 多视图图像显示设备及其控制方法 | |
KR101980275B1 (ko) | 다시점 영상 디스플레이 장치 및 디스플레이 방법 | |
KR20150012976A (ko) | 다시점 영상 처리 장치 및 그 영상 처리 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |