CN102625114A - 显示3d图像的方法和设备以及区分3d图像的设备和方法 - Google Patents
显示3d图像的方法和设备以及区分3d图像的设备和方法 Download PDFInfo
- Publication number
- CN102625114A CN102625114A CN201110329398XA CN201110329398A CN102625114A CN 102625114 A CN102625114 A CN 102625114A CN 201110329398X A CN201110329398X A CN 201110329398XA CN 201110329398 A CN201110329398 A CN 201110329398A CN 102625114 A CN102625114 A CN 102625114A
- Authority
- CN
- China
- Prior art keywords
- image
- rendering
- data
- input
- zone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Library & Information Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
提供了一种在二维图像显示区域显示局部三维图像的方法和设备。为了在二维(2D)图像显示区域中显示至少一个三维(3D)图像,提供了这样的一种方法和设备:将3D图像显示区域和2D图像显示区域区分开,其中,在所述3D图像显示区域中显示所述至少一个3D图像;并分别在2D图像显示区域和3D图像显示区域中显示2D图像和3D图像,从而提高显示分辨率。
Description
技术领域
本发明涉及一种在二维(2D)图像显示区域显示至少一个三维(3D)图像的方法和设备、以及在2D图像显示区域显示至少一个3D图像的方法和设备。
背景技术
当观看者或观察者通过他或她的左眼和右眼的视网膜沿不同方向同时观看对象,并通过大脑识别所述对象时,可实现对象的3D效果(也被称为双目视差)。因此,为了显示3D图像,观看者的左眼和右眼被允许通过使用双目视差的原理观看不同图像,使得观看者能够识别3D图像。
可将3D显示技术划分成:立体显示技术,需要观看者佩戴特殊眼镜(例如,快门眼镜)观看3D立体图像;自动立体显示技术,不需要观看者佩戴眼镜。立体显示可使用液晶快门眼镜和用于这些快门眼镜的驱动装置,在所述液晶快门眼镜中,右眼液晶和左眼液晶以预定周期交替通过光和阻挡光。因此,不同的左眼图像和右眼图像被分开,并被提供,从而允许观看者识别相关的立体图像。
自动立体显示技术可包括视差屏障3D显示装置和双凸透镜3D显示装置。视差屏障3D显示装置包括视差屏障,其中,所述视差屏障安装在显示面板的前面,并具有竖直网格形式的孔,所述显示面板具有以矩阵的行和列布置的像素。视差屏障针对观看者的右眼和左眼将右眼图像和左眼图像分开,这引起显示面板中的不同的右眼图像和左眼图像之间的双目视差。双凸透镜3D显示装置或双凸透镜装置包括:代替竖直网格形式的视差屏障的双凸透镜片(lenticular lens sheet),具有沿列方向的半圆柱透镜阵列;表面平坦的平板,朝向双凸透镜片;液晶,填充在双凸透镜片和表面平坦的平板之间;电极,形成在双凸透镜片和表面平坦的平板的内侧上。该双凸透镜装置安装在显示面板的前面,显示装置可通过接通/断开施加到电极的电压来在2D显示模式和3D显示模式之间进行切换。在2D模式下,沿观看方向,依据存在/不存在施加在液晶材料的电压,液晶的折射率变得与用于双凸透镜片的材料的折射率大体相同,从而去除双凸透镜装置的透镜效应。在这种情况下,双凸透镜装置可用作显示面板上的光传输平板,而不影响从显示面板发出的光路。另一方面,在3D模式下,因为液晶的折射率根据由于存在/不存在施加在液晶材料的电压引起的液晶材料的排列而变得与用于双凸透镜片的材料的折射率不同,所以双凸透镜装置可用作透镜,从而向观看者的左眼和右眼提供不同的图像,并允许观看者感知立体图像。
因为观看者可观看3D图像的视点可被固定,因此,对于自动立体3D显示设备而言具有多个可用的视点是重要的。为了使得观看者能在多个视点观看3D图像,显示设备应该接收合适的输入数据。所述合适的输入数据可包括针对中心视点的输入图像序列和与其对应的深度图(depth map)序列。可将像素转换成与输入图像对应的深度图,从而产生与视点的数量对应的一组输出图像。通过使用这一组输出图像,可产生自动立体3D图像信号或合成的立体图像信号,以通过使用双凸透镜装置驱动液晶显示器(LCD)面板。基于多个视点及其深度数据的像素偏移数据的查找表被存储在存储器中,显示设备通过基于像素偏移数据所偏移的图像数据来显示3D图像数据。
如果用于3D图像显示的视点的数量增加,则分辨率与视点的数量成反比。当在2D图像显示区域中显示3D图像,并且通过上述技术在3D图像显示中在2D图像显示区域中执行2D图像显示时,如果视点的数量增加,则对于包括2D图像的所有图像的显示的分辨率降低。这种降低的分辨率消极地影响显示质量。
发明内容
本发明的示例性实施例提供了一种能够在2D图像显示区域中显示至少一个局部3D图像以提高显示分辨率的方法。
本发明的示例性实施例还提供了一种能够在2D图像显示区域中显示至少一个局部3D图像以提高显示分辨率的设备。
本发明的示例性实施例还提供了一种用于在2D图像显示区域中区分3D图像显示区域以提高显示分辨率的方法。
本发明的示例性实施例还提供了一种用于在2D图像显示区域中区分3D图像显示区域以提高显示分辨率的电路。
本发明的其他特征将在下面的描述中被阐述,部分从描述将是清楚的,或者通过实施本发明可被获知。
本发明的示例性实施例公开了一种基于包括二维(2D)输入图像数据及其相关输入深度数据的输入数据在第一视点在显示面板上自动立体显示三维(3D)图像的方法,其中,所述3D图像存在于至少一个局部3D图像区域中,所述至少一个局部3D图像区域位于2D图像显示区域中。所述方法包括:基于输入深度数据的数据值,在与第一视点不同的多个给定视点中的每个给定视点,在所述至少一个局部3D图像区域的边界将每个3D偏移图像区域与2D图像显示区域区分开。
本发明的示例性实施例还公开了一种基于包括二维(2D)输入图像数据及其相关输入深度数据的输入数据在第一视点在显示面板上自动立体显示三维(3D)图像的设备,其中,所述3D图像存在于至少一个局部3D图像区域中,所述至少一个局部3D图像区域位于2D图像显示区域中。所述设备包括:3D区域区分电路,被配置为基于与参考值不同的输入深度数据的数据值,在与第一视点不同的多个给定视点中的每个给定视点,在所述至少一个局部3D图像区域的边界将每个3D偏移图像区域与2D图像显示区域区分开。
本发明的示例性实施例还公开了一种基于包括二维(2D)输入图像数据及其相关输入深度数据的输入数据在第一视点在至少一个局部三维(3D)图像区域中区分3D图像的方法,其中,所述至少一个局部3D图像区域位于2D图像显示区域中。所述方法包括:通过在与第一视点不同的给定视点在所述至少一个局部3D图像区域的边界将与2D输入图像数据相关的输入深度数据和参考数据进行比较,来将3D偏移图像区域与2D图像显示区域区分开。
本发明的示例性实施例还公开了一种基于包括二维(2D)输入图像数据及其相关输入深度数据的输入数据在第一视点在至少一个局部三维(3D)图像区域中区分3D图像的设备,其中,所述至少一个局部3D图像区域位于2D图像显示区域中。所述设备包括:3D图像区分电路,被配置为通过在与第一视点不同的给定视点在所述至少一个局部3D图像区域的边界将与2D输入图像数据相关的输入深度数据和参考数据进行比较,来将3D偏移图像区域与2D图像显示区域区分开。
本发明的示例性实施例还公开了一种显示三维(3D)图像的方法。所述方法包括:在图像帧的第一时间段期间显示第一图像,在图像帧的第二时间段期间显示第二图像。所述第一图像以第一分辨率被交织,所述第二图像以与第一分辨率不同的第二分辨率被交织。
本发明的示例性实施例还公开了一种显示三维(3D)图像的方法。所述方法包括:在图像帧的第一时间段期间显示第一图像;在图像帧的第二时间段期间显示第二图像;在图像帧的第三时间段期间显示第三图像。第一图像和第二图像是二维图像,第三图像是3D图像。
本发明的示例性实施例还公开了一种通过使用至少三个操作模式在显示装置上显示图像的方法。所述方法包括:在第一操作模式下,通过使用二维(2D)图像渲染处理在第一帧期间显示第一2D图像;在第二操作模式下,通过使用三维(3D)图像渲染处理在第二帧期间显示第一3D图像;在第三操作模式下,在第三帧的第一时间段期间显示2D图像,并在第三帧的第二时间段期间显示3D图像。
本发明的示例性实施例还公开了一种在包括像素的显示面板上显示三维(3D)图像的方法。所述方法包括:通过使用用于根据二维(2D)图像输入数据显示2D图像的第一像素,并通过以相同的灰度值设置第二像素,来在图像帧的第一时间段期间显示2D图像;通过使用用于根据3D图像输入数据显示3D图像的第二像素,并通过以相同的灰度值设置第一像素,来在图像帧的第二时间段期间显示3D图像。
将理解,前面总的描述和下面详细的描述是示例性和说明性的,并且意图提供所要求的本发明的进一步解释。
附图说明
附图与用于解释本发明原理的描述一起示出本发明的示例性实施例,其中,所述附图被包括以提供对本发明的进一步理解,被包含在本说明书中,并构成本说明书的一部分。
图1是示出根据本发明示例性实施例的驱动单元和显示单元的示意性框图。
图2是示出根据本发明示例性实施例使用的输入图像的示图。
图3是示出根据本发明示例性实施例的操作的示意性时序图。
图4A、图4B、图4C和图4D是示出根据本发明示例性实施例的驱动方法的示意性流程图。
图5是示出依据深度数据来偏移图像数据的示例的概念性示图。
图6A显示根据本发明实施例的3D总和区域,图6B和图6C显示根据本发明实施例的提供给显示面板的输出图像的示例。
具体实施方式
现在将参照附图详细地描述本发明的示例性实施例。在下面的描述中,特定的细节(例如,详细的构造和部件)仅被提供用于帮助全面理解本发明的示例性实施例。因此,对于本领域技术人员而言应该清楚的是,在不脱离本发明的范围和精神的情况下,可对这里描述的示例性实施例进行各种改变和修改。另外,为了清晰和简明,可能省略对公知功能和结构的描述。
贯穿附图,相同的附图标号将被理解为表示相同的元件、特征和结构。
下面将详细描述根据本发明示例性实施例的能够在2D图像显示区域自动立体显示在至少一个局部3D图像区域中存在的3D图像的方法和设备。尽管将在本发明的示例性实施例中呈现多种数值,但应该注意,这些数值作为示例被提供。因此,这些数值没有意图限制本发明的范围,除非在权利要求书中限定了这些数值。
图1示意性地示出在单个屏幕上自动立体显示2D图像和2D图像中的3D图像的设备。所述设备包括显示单元100和驱动单元200。显示单元100包括:显示面板120,例如,液晶显示器(LCD)面板;背光源110,位于显示面板120的后面;双凸透镜装置130,位于显示面板120的前面。显示面板120包括以矩阵的行和列布置的像素(未示出),所述像素包括薄膜晶体管(TFT),所述TFT的栅极、源极和漏极分别连接到行线(或栅极线)、列线(或数据线)和像素电极。显示面板120包括:第一基底,在所述第一基底上形成有行线和列线、TFT以及像素电极;第二基底,具有朝向像素电极的公共电极;液晶,填充在第一基底和第二基底之间;一个或多个偏振器,位于第一基底和第二基底中的任何一个或者二者的外侧。显示面板120可包括用于驱动栅极线的栅极驱动装置和用于驱动数据线的数据驱动装置。背光源110在显示面板120的后面产生辐射光,并改变液晶的排列(这是由于在像素电极和公共电极之间施加的电压所引起的),即改变液晶的折射率,对辐射的光的传输进行调整,从而产生图像。尽管命名为“背光”源110,但光源110可以是能够向显示面板120提供光的任何类型的光源。如上所述,双凸透镜装置130能够在显示面板120上在2D显示模式和3D显示模式之间进行切换。尽管显示单元100这里被描述为LCD显示器和双凸透镜装置,但本发明的示例性实施例可被应用于能够显示3D图像的任何类型的显示装置。此外,可在已知3D显示装置和还未制造的3D显示装置中利用本发明的示例性实施例。
根据本发明的示例性实施例,驱动单元200表示渲染装置,所述渲染装置在2D图像显示区域中渲染至少一个局部3D图像。
驱动单元200包括接收器210、控制器220、存储器230、3D区域区分电路240、2D图像产生电路250、3D图像产生电路260、双凸透镜控制器270、时序控制器(TCON)280和背光源控制器290。接收器210对输入信号解码,控制器220执行存储器230中存储的程序。在控制器220的控制下,3D区域区分电路240从2D输入图像数据及其相关输入深度数据为多个给定视点中的每个给定视点产生3D偏移图像区域,其中,在前面的视点观看时,所述2D输入图像数据和与其相关的输入深度数据在2D图像区域中呈现局部3D图像。2D图像产生电路250针对每个视点产生每个3D偏移图像区域之外的每个2D图像区域中存在的2D图像的像素数据,并对每个3D偏移图像区域中的像素分配灰度值。分配的灰度值可以是黑色灰度值、白色灰度值或一些其他任意选择的灰度值。3D图像产生电路260基于用于3D偏移图像区域中的数据的输入深度数据来产生每个3D偏移图像区域中的3D图像的像素数据,并对每个3D偏移图像区域之外的每个2D图像区域中的像素分配灰度值。分配的灰度值可以是黑色灰度值、白色灰度值或一些其他任意选择的灰度值。TCON 280基于图像数据提供时序信息以使得显示面板120能够显示图像,其中,分别在两个时间段内针对每个视点从2D图像产生电路250和3D图像产生电路260产生所述图像数据,所述两个时间段合起来比2D输入图像数据及其相关输入深度数据的一帧时间段短。背光源控制器290控制背光源110在这两个时间段内发射辐射光。双凸透镜控制器270向双凸透镜装置130供电,以在这两个时间段的第二时间段内产生3D图像。这里,可通过使用例如现场可编程门阵列(FPGA)或专用集成电路(ASIC)来实现3D区域区分电路240、2D图像产生电路250和3D图像产生电路260。
可在控制器220的控制下将由接收器210解码的输入图像信号流存储在存储器230中。接收器210可包括例如数字调制解调器,控制器220可以是例如微处理器或中央处理单元。
由接收器210解码的图像信号数据可以是图2中示出的数据。
图2示意性地示出具有高分辨率(全高清(FHD)或1920×1080像素)的图像数据。线L1和线L2将1080行和1920列划分成4个相等部分。左上区域LU、右上区域RU、左下区域LL和右下区域RL中的每一个具有960×540的分辨率。左上区域LU和左下区域LL呈现颜色信息,而右上区域RU和右下区域RL呈现深度信息。颜色信息是用于显示彩色图像的信息。例如,可使用颜色红色(R)、绿色(G)和蓝色(B)来显示图像。左上区域LU和右上区域RU分别呈现用于在前面看见的图像的颜色信息和深度信息,而左下区域LL和右下区域RL分别呈现用于在后面看见的图像的颜色信息和深度信息。换句话讲,左上区域LU和右上区域RU呈现前景信息,左下区域LL和右下区域RL呈现背景信息。此外,左上区域LU中的像素呈现在中心视点(例如,屏幕前面的9个视点中的第五个视点)看见的2D输入图像数据,而右上区域RU中的像素呈现与左上区域LU中的2D输入图像数据相应的深度数据。类似地,左下区域LL呈现左上区域LU中的2D输入图像的后面的图像数据(即,输入的背景图像数据),而右下区域RL呈现左下区域LL中的输入的背景图像数据的深度数据。尽管这里描述了解码的图像信号包括用于左上区域LU、右上区域RU、左下区域LL、右下区域RL的信息,但其他选择也可行。例如,解码的信息可仅包括用于左上区域LU和右上区域RU的信息,并可通过使用用于左上区域LU和右上区域RU的信息来计算用于左下区域LL和右下区域RL的信息。
如图2中所示,左上区域LU具有2D输入图像区域204中存在的局部3D输入区域202,右上区域RU具有与局部3D输入区域202相应的局部3D输入深度数据区域208。左上区域LU中的像素与右上区域RU中的像素具有一对一的关系,左下区域LL中的像素与右下区域RL中的像素具有一对一的关系。即,左上区域LU中的第i行第j列的像素与右上区域RU、左下区域LL和右下区域RL中的每一区域中的第i行第j列的像素对应。因此,从相同行和相同列的像素可获取颜色信息、深度信息、背景颜色信息和背景深度信息。
为了自动立体地显示存在于局部3D输入区域202(局部3D输入区域202位于2D输入图像区域204中)中的局部3D输入图像,应该检测在多个视点中的每个视点的局部3D输入图像的边界上的像素的深度值的改变,并应该将没有移动的2D区域与被移动了像素的3D区域区分开,其中,被移动的像素的数量通过检测来确定。
可通过使用灰度值来呈现深度值。在公开号为2010/0007661的美国专利中公开了可使用灰度值或深度值在每个视点确定的像素偏移数据,上述内容通过引用包含于此。为了更好地理解本发明的示例性实施例,这里讨论来自公开号为2010/0007661的美国专利的图5。
参照图5,9个视点位于屏幕前面。对于彩色显示,每个像素可包括R子像素、G子像素和B子像素。假定每个像素(即,每个子像素)具有8比特数据。那样,每个像素可具有28=256个灰度值。假定屏幕的灰度值(即,参考值)是128,则将在屏幕前面显示的像素的灰度值将具有129至256的值,而将在屏幕后面显示的像素的灰度值将具有1至127的值。如果与屏幕表面垂直并在沿中心视点5的方向具有高度h的点A是最高点,即如果点A是最大高度点,则点A的灰度值是256。以这种方式,如果给定了最大高度值,则可确定低于最大高度的高度的灰度值或深度值。这里,最低高度具有灰度值1。如果给定了最高高度和最低高度,则可确定多个高度的灰度值。如果给定了点A的高度h,则可确定点A的灰度值。对于点A,可针对每个视点计算像素偏移数据。当在第一视点1观看点A时,可在像素的基础上通过等式(1)表示在屏幕上从点A到点A″的像素偏移数据(x):
像素偏移数据(x)=(h×D)/{q×(H-h)} …(1)
其中,H表示从第一视点1至屏幕的垂直距离,h表示视点A的高度,D表示从中心视点线至第一视点1的最短距离,q表示子像素的宽度。如果给定了高度值h,则可确定其灰度值或深度值,并可通过使用等式(1)计算在每个视点的像素偏移数据。因此,如果给定了灰度值或深度值,则可计算针对9个视点中的每个视点的深度值的像素偏移数据,包括256个灰度值的查找表和针对9个视点的像素偏移数据可被获得并被存储在存储器230中。针对每个视点的像素偏移数据可通过使用等式(1)被计算,或者可通过参照查找表被确定。
尽管在下面对本发明的示例性实施例的描述中将假定屏幕的参考灰度值为128,但可根据计划的设计来选择备选参考值作为屏幕的灰度值或参考深度值。
图3示出根据本发明示例性实施例的通过使用图像数据(例如,图2中示出的图像数据)显示图像的操作时序示图。因为图2中示出的输入图像具有FHD分辨率或1920×1080的分辨率,所以在1080个水平周期的每个水平周期1H中提供该输入图像作为具有1920像素数据的数据使能信号DE。与数据使能信号DE一起,可基于垂直同步信号信息来获得垂直同步信号VS,并可从输入使能信号产生在一帧1F内具有1080个水平周期的数据使能信号DE。一帧内的输入图像数据(即图2中示出并存在于一帧内的输入图像数据)被存储在存储器230中。因此,输入图像数据(所述输入图像数据在图3中示出的当前帧300之前的帧中被存储在存储器230中)在当前帧300中产生其输出图像。在时间段T1内,输出图像被输出,其中,通过对前一帧中的输入图像数据分配黑色灰度值来获得所述输出图像。将输出图像提供给LCD面板120,以使具有在前一帧中提供的输入图像数据的所有像素的像素数据值可具有黑色灰度值。换句话讲,可在时间段T1内产生黑色图像。在时间段T1内背光源110和双凸透镜装置130均不工作。
在时间段T2内,与针对所有视点的区分的局部3D偏移区域的总和相应的3D总和区域中的像素的像素值被分配灰度值。分配的灰度值可以是黑色灰度值、白色灰度值或一些其他任意选择的灰度值。基于图2的左上区域LU中的输入图像数据,在3D总和区域之外的2D区域中产生剩余的2D图像。可选地,可使用左下区域LL中的输入图像数据。在时间段T2内,产生包括具有分配的灰度值的3D总和区域和剩余的2D图像区域的2D总和图像信号,并将该2D总和图像信号提供给LCD面板120。在时间段T2内背光源110工作,而双凸透镜装置130不工作。图6A显示根据本发明实施例的3D总和区域,图6B显示根据本发明实施例的提供给显示面板的输出图像的示例。在图6A中显示的示例中,在9个视点的情况下,3D总和区域600包括9个区分的局部3D偏移区域的区域。使用虚线的椭圆形来显示9个区分的局部3D偏移区域。图6B显示包括3D总和区域600和剩余的2D图像区域625的输出图像620的示例,其中,所述3D总和区域600具有分配的灰度值,当使用图2的输入图像数据在时间段T2内显示2D图像时,在所述剩余的2D图像区域625中显示2D图像。
在时间段T3内,与在时间段T1内相同,将输出图像提供给LCD面板120,以使具有在前一帧中提供的输入图像数据的所有像素的像素数据值可具有黑色灰度值。因此,与在时间段T1内相同,可在时间段T3内产生黑色图像。在时间段T3内双凸透镜装置130和背光源110均不工作。
在时间段T4内,基于与针对每个视点的局部3D图像区域相应的输入深度数据,在每个3D偏移图像区域中产生3D图像,并对每个3D偏移图像区域之外的剩余的2D图像区域中的像素分配灰度值。分配的灰度值可以是黑色灰度值、白色灰度值或一些其他任意选择的灰度值。产生每个3D总和图像,所述每个3D总和图像包括具有针对每个视点的3D图像的每个3D偏移图像区域和具有分配的灰度值的剩余的2D图像区域。将合成的3D图像信号的提供给LCD面板120,其中,通过交织和缩放每个3D总和图像以使与9个视点相应的9个3D总和图像中的每个3D总和图像的分辨率可与LCD面板120的分辨率相同来获得所述合成的3D图像信号。在该时间段内,双凸透镜装置130和背光源110均工作,并对背光源110施加较高电压,以发射比在时间段T2内的辐射光更亮的辐射光。图6C显示根据本发明实施例的提供给显示面板的输出图像的示例。在图6C中显示的示例中,输出图像640包括3D总和区域600和剩余的2D图像区域625,其中,当通过使用图2的输入图像数据在时间段T4内显示3D图像时,在所述3D总和区域600显示3D图像,在剩余的2D图像区域625显示具有分配的灰度值的2D图像。
假定时间段T1、T2、T3和T4中的每个是1帧时间段的四分之一,在LCD面板120和双凸透镜装置130中使用液晶不需要是能够快速响应的液晶。例如,产品代码被命名为MAT-10-238的Merck的向列液晶可被用作这些液晶。尽管时间段T1、T2、T3和T4均被显示为1帧时间段的四分之一,但普通技术人员将理解,当在时间段T1和时间段T4内显示黑色图像时,由于LCD面板的操作特性导致该黑色图像可能实际比在时间段T2和时间段T4内显示的图像显示的时间段短。因此,图3没有要求在每个时间段T1、T2、T3和T4内显示的每个图像被显示相同的时间量。
如上所述,可通过关闭背光源110在时间段T1和时间段T3内产生黑色图像。如普通技术人员所理解的,在这些时间段内可能进行其他选择。例如,背光源110可工作,黑色灰度值可被提供给所有像素。或者,在背光源110工作时,可将除了黑色灰度值之外的灰度值提供给所有像素。
图4A、图4B、图4C和图4D示出根据本发明示例性实施例的示意性流程图。
参照图4A,步骤402是初始化处理。在步骤404,执行初始化以将n设置为‘0’。在步骤406,将n设置为‘1’。在步骤408,将帧F1或第一帧中的输入图像数据存储在存储器230中。换句话讲,在存储器230中存储以下数据:2D输入图像(或像素)数据,存在于左上区域LU中,其中,如图2所示,所述左上区域LU存在于第一帧中并具有960×540的分辨率;输入深度数据,存在于具有相同的分辨率的右上区域RU中,并与2D输入图像(或像素)数据相应;输入背景数据,存在于具有相同的分辨率的左下区域LL中,并与2D输入图像(或像素)数据相应;输入背景深度数据,存在于具有相同的分辨率的右下区域RL中,并与输入背景数据相应。
在步骤410,从存储器230中存储的输入图像数据读取头。所述头提供信息,基于该信息可确定输入图像数据是用于呈现3D图像、2D图像还是局部3D图像的数据。可从960×540的分辨率的第一行中布置的像素的数据中读取所述头。如上所述,在每行中布置的像素包括R子像素、G子像素和B子像素,因为每个像素具有8比特数据,所以可通过合适的一个像素或多个像素的最高有效位(MSB)比特的值来定义所述头。
在步骤412,确定读取的头是否呈现3D图像。如果不是3D图像,则因为帧F1中的输入图像数据呈现2D图像,所以可根据用于产生2D图像的任何合适方法,从左上区域LU中的2D输入图像数据来产生2D输出图像,如步骤414和步骤415中所指示。在后面的帧中,可通过重复步骤406至步骤415来产生2D输出图像。如果读取的头呈现3D图像而不是局部3D图像,则可在步骤418和步骤419中,通过任何合适的方法(诸如在上面陈述的例如公开号为2009/0115780的美国专利中公开的方法)用2D输入图像数据及其相关深度数据来产生3D输出图像。之后,在后面的帧中,可通过重复步骤406至步骤412和步骤416至步骤419来产生3D输出图像。在步骤416,如果读取的头呈现局部3D图像,则执行步骤420。
根据本发明的示例性实施例,当在2D图像区域中存在3D图像区域时,执行步骤420及其后续步骤。根据本发明的示例性实施例,步骤420在局部3D偏移图像区域和局部3D偏移图像区域之外的剩余的2D图像区域之间进行区分。假定存在9个视点,且关于输入图像数据,2D输入图像(或像素)数据具有如图2所示的2D输入图像区域204中的局部3D输入区域202。在这种情况下,因为在2D输入图像区域204中的局部3D输入区域202之外的剩余区域具有2D图像,所以第一区域206中与该剩余区域中的像素数据相应的输入深度数据具有如上所述的参考值128。然而,因为局部3D输入区域202中的局部3D输入图像具有3D图像,所以与局部3D输入区域202相应的第二区域208中的输入深度数据具有不同于参考值的值。因此,在第二区域208的边界(与局部3D输入区域202的边界对应)的附近存在的像素的深度值与参考值128比较并且具有用于呈现3D图像的其他非128深度值的情况下,参照存储器230中存储的查找表,通过其他深度值来确定针对9个视点中每个视点的局部3D输入区域202的偏移,并可针对每个视点通过偏移的局部3D输入区域将局部3D输入区域202与2D区域区分开。换句话讲,在顺序扫描右上区域RU中的行的同时,可通过检测不同于参考值的深度数据值的开始点和结束点来确定局部3D输入区域202的边界。通过根据等式(1)计算表示边界的开始点和结束点的深度数据值,或通过参照存储器230中存储的查找表,来将针对每个视点的每个局部3D偏移区域与2D区域区分开。换句话讲,在局部3D输入区域202的边缘,将像素的深度数据和参考值进行比较,在所述边缘,可基于不同于参考值的深度数据值来将针对每个视点的局部3D偏移区域和2D区域区分开。仅为了便于描述,图2在左上区域LU中显示了单个局部3D输入区域202。清楚的是,多个局部3D输入区域可存在于左上区域LU中。
图4D示出步骤420的示意性子程序。在步骤502,通过顺序地扫描图2的右上区域RU中的行线来读取与2D输入图像数据相应的输入深度数据。在步骤504,确定读取的深度数据的值是否为参考值。如果读取的深度数据值是参考值,则下一输入深度数据被读取,并与参考值进行比较。该步骤一直继续,直到输入深度数据值不是参考值。如果读取的深度数据值不是参考值,则在步骤506存储该值和像素位置。接下来,在步骤508,读取下一输入深度数据,在步骤510,将读取的深度数据与参考值进行比较。如果读取的深度数据值不是参考值,则下一输入深度数据被读取,并与参考值比较。作为步骤504至步骤510的结果的通过扫描行线被检测并且不是参考值的一组开始深度数据值和结束深度数据值成为局部3D输入区域的边界或边缘。与具有深度数据值的区域及其在边界或边缘的位置有关的信息,或者与具有不同于参考值的深度数据值有关的信息可被存储在存储器230中。在步骤512,在边界或边缘,可通过使用深度数据值和等式(1)计算在每个视点的像素偏移值或者通过参照存储器230中存储的查找表,来确定在每个视点的像素偏移值。重复步骤502至步骤512,直到每行中的最后的像素被读取且直到右上区域RU的最后一行被扫描为止。当确定最后一行已被扫描(步骤514)时,用于区分2D图像显示区域中的至少一个3D图像显示区域的处理完成。如上所述,在扫描右上区域RU的每行之后,在步骤512确定在每个视点的像素偏移值。或者,可在确定像素偏移值之前扫描右上区域RU的所有行。
返回图4B,图3中示出的时序运行。在步骤422,如果当前时间段是时间段T1,则在步骤424以前一帧F1中的图像数据可具有黑色灰度值的方式来产生输出图像。在步骤426,确定是否对前一帧F1中的所有图像数据都执行了产生具有黑色灰度值的输出图像。如果是,则在步骤428,在时间段T1内将用于帧F1中的所有图像数据的黑色显示信号提供给LCD面板120。
在步骤430,在时间段T1过去之后开始的时间段T2内,在步骤432,对与针对所有视点的区分的局部3D偏移区域的总和相应的3D总和区域中的像素的像素值分配预定的灰度值(例如,白色灰度值或黑色灰度值)。在步骤434,基于左下区域LL中的背景2D输入图像数据和/或左上区域LU中的2D输入图像数据,在3D总和区域之外的2D区域中产生剩余的2D图像。在步骤436,包括具有分配的灰度值的3D总和区域和剩余的2D图像的2D总和图像信号被产生,并被提供给LCD面板120。在时间段T2内,因为仅显示2D图像,所以背光源110工作,双凸透镜装置130不工作。
在时间段T2过去之后的时间段T3内,执行步骤440至步骤444。步骤440至步骤444在操作上与时间段T1内执行的步骤424至步骤428类似。因此,在时间段T3内,以这样的方式产生显示信号:在帧F1中所有像素可具有黑色灰度值,并且在时间段T3和时间段T1内,LCD面板120显示黑色图像。
在步骤446中的时间段T3过去之后的时间段T4内,步骤448至步骤454被执行。在步骤448,基于与针对每个视点的局部3D图像区域相应的输入深度数据,在每个3D偏移图像区域中产生3D图像。在步骤450,对针对每个视点的每个3D偏移图像区域之外的剩余的2D图像区域中的像素分配灰度值。在步骤452,产生每个3D总和图像,所述每个3D总和图像包括具有针对每个视点的3D图像的每个3D偏移图像区域和具有分配的灰度值的剩余的2D图像区域。因此,针对9个视点的9个3D总和图像中的每一个具有如上所述的960×540的分辨率。在步骤454,每个3D总和图像被标准化为具有1920×1080的分辨率,并将合成的3D图像提供给LCD面板120,其中,通过布置通过映射9个被标准化的3D总和图像以成为自动立体图像所产生的像素来创建所述合成的3D图像。在完成帧F1的数据处理之后,在步骤406及其后续步骤中对下一帧F2执行相同的数据处理。
可通过处理器中的程序来执行上述自动立体显示局部3D图像的方法。
从以上描述清楚的是,当与图2中显示的图像相同的输入图像被自动立体显示时,2D区域和3D区域被相互区分开,并且因为图2中的左上区域LU被放大4倍,所以2D区域的分辨率是正常分辨率的1/4。然而,在根据现有技术针对3D图像显示将2D区域和3D区域一起处理的情况下,因为在全屏显示期间分辨率与视点的数量成反比,所以如果视点的数量增加,则与当2D区域被分离以产生2D图像时相比,传统的分辨率降低。
尽管已参照本发明的特定示例性实施例显示和描述了本发明,但本领域的技术人员应该理解,在不脱离由权利要求及其等同物限定的本发明的精神和范围的情况下,可进行形式和细节方面的各种改变。
Claims (24)
1.一种基于包括二维2D输入图像数据及其相关输入深度数据的输入数据针对第一视点在显示面板上自动立体显示三维3D图像的方法,其中,所述3D图像存在于至少一个局部3D图像区域中,所述至少一个局部3D图像区域位于2D图像显示区域中,所述方法包括:
基于输入深度数据的数据值,针对与第一视点不同的多个给定视点中的每个给定视点,在所述至少一个局部3D图像区域的边界将每个3D偏移图像区域与2D图像显示区域区分开。
2.如权利要求1所述的方法,其中,通过与参考值不同的深度数据值来呈现每个3D偏移图像区域,所述参考值是用于呈现2D输入图像的深度数据值。
3.如权利要求2所述的方法,其中,输入数据还包括与2D输入图像数据相应的背景输入数据;
其中,所述方法还包括:基于背景输入图像数据,在与针对所述多个给定视点的3D偏移图像区域的总和相应的3D总和区域之外的2D区域中产生剩余的2D图像。
4.如权利要求3所述的方法,还包括:对3D总和区域中的像素分配灰度值。
5.如权利要求4所述的方法,还包括:基于与所述至少一个局部3D图像区域相应的输入深度数据,在每个3D偏移图像区域中产生3D图像。
6.如权利要求5所述的方法,还包括:对3D偏移图像区域之外的2D图像显示区域中的像素分配灰度值。
7.一种基于包括二维2D输入图像数据及其相关输入深度数据的输入数据针对第一视点在显示面板上自动立体显示三维3D图像的设备,其中,所述3D图像存在于至少一个局部3D图像区域中,所述至少一个局部3D图像区域位于2D图像显示区域中,所述设备包括:
3D区域区分电路,被配置为基于与参考值不同的输入深度数据的数据值,针对与第一视点不同的多个给定视点中的每个给定视点,在所述至少一个局部3D图像区域的边界将每个3D偏移图像区域与2D图像显示区域区分开。
8.一种基于包括二维2D输入图像数据及其相关输入深度数据的输入数据,针对第一视点在至少一个局部三维3D图像区域中区分3D图像的方法,其中,所述至少一个局部3D图像区域位于2D图像显示区域中,所述方法包括:
通过针对与第一视点不同的给定视点在所述至少一个局部3D图像区域的边界将与2D输入图像数据相关的输入深度数据和参考数据进行比较,来将3D偏移图像区域与2D图像显示区域区分开。
9.如权利要求8所述的方法,其中,所述参考数据是用于在2D图像显示区域中呈现2D图像的深度数据。
10.一种基于包括二维2D输入图像数据及其相关输入深度数据的输入数据,针对第一视点在至少一个局部三维3D图像区域中区分3D图像的设备,其中,所述至少一个局部3D图像区域位于2D图像显示区域中,所述设备包括:
3D图像区分电路,被配置为通过针对与第一视点不同的给定视点在所述至少一个局部3D图像区域的边界将与2D输入图像数据相关的输入深度数据和参考数据进行比较,来将3D偏移图像区域与2D图像显示区域区分开。
11.如权利要求10所述的设备,其中,所述参考数据是用于在2D图像显示区域中呈现2D图像的深度数据。
12.一种显示三维3D图像的方法,包括:
在图像帧的第一时间段期间显示第一图像,所述第一图像以第一分辨率被交织;
在图像帧的第二时间段期间显示第二图像,所述第二图像以与第一分辨率不同的第二分辨率被交织。
13.如权利要求12所述的方法,其中,第一分辨率高于第二分辨率,第一图像是二维图像,第二图像是3D图像。
14.一种显示三维3D图像的方法,包括:
在图像帧的第一时间段期间显示第一图像;
在图像帧的第二时间段期间显示第二图像;
在图像帧的第三时间段期间显示第三图像,
其中,第一图像和第二图像是二维图像,第三图像是3D图像。
15.如权利要求14所述的方法,还包括:
不使用用于改变第二图像的双凸透镜元件来提供用于显示第二图像的光;
使用用于改变第三图像的双凸透镜元件来提供用于显示第三图像的光。
16.如权利要求15所述的方法,其中,提供的用于显示第三图像的光比提供的用于显示第二图像的光亮。
17.如权利要求16所述的方法,其中,在不提供用于显示第一图像的光以及不使用用于改变第一图像的双凸透镜元件的情况下,显示第一图像。
18.一种通过使用至少三个操作模式在显示装置上显示图像的方法,所述方法包括:
在第一操作模式下,通过使用二维2D图像渲染处理在第一帧期间显示第一2D图像;
在第二操作模式下,通过使用三维3D图像渲染处理在第二帧期间显示第一3D图像;
在第三操作模式下,在第三帧的第一时间段期间显示2D图像,并在第三帧的第二时间段期间显示3D图像。
19.如权利要求18所述的方法,其中,在第三操作模式下,以第一分辨率显示2D图像,以第二分辨率显示3D图像,第一分辨率高于第二分辨率。
20.一种在包括像素的显示面板上显示三维3D图像的方法,所述方法包括:
通过使用用于根据二维2D图像输入数据显示2D图像的第一像素,并通过以相同的灰度值设置第二像素,来在图像帧的第一时间段期间显示2D图像;
通过使用用于根据3D图像输入数据显示3D图像的第二像素,并通过以相同的灰度值设置第一像素,来在图像帧的第二时间段期间显示3D图像。
21.如权利要求20所述的方法,其中,在图像帧的第一时间段内,设置第二像素以显示第一黑色图像,在图像帧的第二时间段内,设置第一像素以显示第二黑色图像。
22.如权利要求20所述的方法,还包括:通过使用第一像素和第二像素,在图像帧的第三时间段期间显示第一黑色图像。
23.如权利要求22所述的方法,还包括:通过使用第一像素和第二像素,在图像帧的第四时间段期间显示第二黑色图像。
24.如权利要求23所述的方法,其中,图像帧顺序地包括第三时间段、第一时间段、第四时间段和第二时间段。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110009829A KR20120088467A (ko) | 2011-01-31 | 2011-01-31 | 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치 |
KR10-2011-0009829 | 2011-01-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102625114A true CN102625114A (zh) | 2012-08-01 |
CN102625114B CN102625114B (zh) | 2015-12-02 |
Family
ID=46564775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110329398.XA Active CN102625114B (zh) | 2011-01-31 | 2011-10-24 | 显示3d图像的方法和设备以及区分3d图像的设备和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9253479B2 (zh) |
JP (1) | JP6066547B2 (zh) |
KR (1) | KR20120088467A (zh) |
CN (1) | CN102625114B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103369338A (zh) * | 2013-06-25 | 2013-10-23 | 四川虹视显示技术有限公司 | 基于fpga的近眼双目成像系统的图像处理系统及方法 |
CN109561294A (zh) * | 2017-09-25 | 2019-04-02 | 三星电子株式会社 | 用于渲染图像的方法和设备 |
CN112584124A (zh) * | 2019-09-30 | 2021-03-30 | 北京芯海视界三维科技有限公司 | 实现3d显示的方法及装置、3d显示终端 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120088467A (ko) * | 2011-01-31 | 2012-08-08 | 삼성전자주식회사 | 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치 |
US20130050415A1 (en) * | 2011-08-30 | 2013-02-28 | Himax Technologies Limited | System and Method of Handling Data Frames for Stereoscopic Display |
JP2013134279A (ja) * | 2011-12-26 | 2013-07-08 | Jvc Kenwood Corp | 裸眼立体ディスプレイ装置 |
KR101961145B1 (ko) | 2012-10-17 | 2019-03-26 | 삼성디스플레이 주식회사 | 표시 장치 |
KR20150069415A (ko) | 2013-12-13 | 2015-06-23 | 삼성디스플레이 주식회사 | 표시 장치 및 이를 위한 액정 렌즈 패널 장치 |
KR102118577B1 (ko) | 2013-12-24 | 2020-06-04 | 삼성디스플레이 주식회사 | 표시 장치용 영상 제어 패널 |
US20160203624A1 (en) * | 2014-03-05 | 2016-07-14 | Google Inc. | System and Method for Providing Combined Multi-Dimensional Map Views |
KR102175813B1 (ko) * | 2014-04-18 | 2020-11-09 | 삼성디스플레이 주식회사 | 입체 영상 표시 장치 및 영상 처리 방법 |
GB2540376A (en) * | 2015-07-14 | 2017-01-18 | Sharp Kk | Parallax barrier with independently controllable regions |
GB2540377A (en) | 2015-07-14 | 2017-01-18 | Sharp Kk | Parallax barrier with independently controllable regions |
US10999573B2 (en) * | 2018-04-25 | 2021-05-04 | Raxium, Inc. | Partial light field display architecture |
CN109144393B (zh) * | 2018-08-28 | 2020-08-07 | 维沃移动通信有限公司 | 一种图像显示方法及移动终端 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004001209A (ja) * | 2002-04-30 | 2004-01-08 | Xerox Corp | 微小電気機械システム、及び、静電力を用いて可動電極を移動させる方法 |
WO2004030377A1 (ja) * | 2002-09-27 | 2004-04-08 | Sharp Kabushiki Kaisha | 立体画像表示装置、記録方法、及び伝送方法 |
EP1463341A2 (en) * | 2003-03-25 | 2004-09-29 | DHS Ltd. | Three-dimensional image calculating method, three-dimensional image generating method and three-dimensional image display device |
CN1971340A (zh) * | 2005-11-21 | 2007-05-30 | 耿征 | 真三维高清晰度显示方法和装置 |
WO2009157710A2 (en) * | 2008-06-24 | 2009-12-30 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4907174A (en) * | 1988-06-02 | 1990-03-06 | Sun Microsystems, Inc. | Z-buffer allocated for window identification |
JPH0345994A (ja) * | 1989-07-13 | 1991-02-27 | Seiko Instr Inc | 画像表示装置 |
GB9513658D0 (en) | 1995-07-05 | 1995-09-06 | Philips Electronics Uk Ltd | Autostereoscopic display apparatus |
US6157424A (en) * | 1998-03-30 | 2000-12-05 | Dimension Technologies, Inc. | 2D/3D imaging display |
GB0119176D0 (en) * | 2001-08-06 | 2001-09-26 | Ocuity Ltd | Optical switching apparatus |
KR100487309B1 (ko) * | 2002-05-17 | 2005-05-03 | 엘지전자 주식회사 | Lcd 프로젝션 티브이의 감마 & 화이트 밸런스조정장치 및 그 방법 |
GB0326005D0 (en) * | 2003-11-07 | 2003-12-10 | Koninkl Philips Electronics Nv | Waveguide for autostereoscopic display |
JP2005164916A (ja) * | 2003-12-02 | 2005-06-23 | Canon Inc | 立体表示装置 |
GB0328005D0 (en) * | 2003-12-03 | 2004-01-07 | Koninkl Philips Electronics Nv | 2D/3D Displays |
ES2306198T3 (es) * | 2004-08-17 | 2008-11-01 | Koninklijke Philips Electronics N.V. | Deteccion de modo de vista. |
JP2006186768A (ja) | 2004-12-28 | 2006-07-13 | Seiko Epson Corp | 画像表示装置及び方法 |
TWI261099B (en) * | 2005-02-17 | 2006-09-01 | Au Optronics Corp | Backlight modules |
JP5090337B2 (ja) * | 2005-04-08 | 2012-12-05 | リアルディー インコーポレイテッド | 平面パススルーを有する自動立体ディスプレイ |
PL1897056T3 (pl) * | 2005-06-23 | 2017-01-31 | Koninklijke Philips N.V. | Połączona wymiana danych obrazu i powiązanych |
JP5043018B2 (ja) * | 2005-09-28 | 2012-10-10 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 切り換え可能表示装置 |
ATE499800T1 (de) * | 2006-03-03 | 2011-03-15 | Koninkl Philips Electronics Nv | Autostereoskopische anzeigevorrichtung mit steuerbarem flüssigkristall-linsenarray zur umschaltung zwischen einem 3d- und einem 2d-modus |
KR100839429B1 (ko) | 2007-04-17 | 2008-06-19 | 삼성에스디아이 주식회사 | 전자 영상 기기 및 그 구동방법 |
KR20100033067A (ko) * | 2008-09-19 | 2010-03-29 | 삼성전자주식회사 | 2차원과 3차원 겸용 영상 표시 장치 및 방법 |
US8750632B2 (en) * | 2008-12-26 | 2014-06-10 | JVC Kenwood Corporation | Apparatus and method for encoding images from multiple viewpoints and associated depth information |
JP5185145B2 (ja) | 2009-01-16 | 2013-04-17 | 株式会社東芝 | 立体画像表示装置、立体画像表示方法 |
EP2389665A1 (en) * | 2009-01-20 | 2011-11-30 | Koninklijke Philips Electronics N.V. | Method and system for transmitting over a video interface and for compositing 3d video and 3d overlays |
JP5665135B2 (ja) * | 2009-03-30 | 2015-02-04 | 日本電気株式会社 | 画像表示装置、画像生成装置、画像表示方法、画像生成方法、及びプログラム |
US20120212579A1 (en) * | 2009-10-20 | 2012-08-23 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and Arrangement for Multi-View Video Compression |
US8964013B2 (en) * | 2009-12-31 | 2015-02-24 | Broadcom Corporation | Display with elastic light manipulator |
US20120050483A1 (en) * | 2010-08-27 | 2012-03-01 | Chris Boross | Method and system for utilizing an image sensor pipeline (isp) for 3d imaging processing utilizing z-depth information |
TW201209791A (en) * | 2010-08-30 | 2012-03-01 | Ind Tech Res Inst | Two mode image displaying apparatus and adjustment method of image brightness |
TWI433529B (zh) * | 2010-09-21 | 2014-04-01 | Huper Lab Co Ltd | 增強辨識3d物件的方法 |
KR20120088467A (ko) * | 2011-01-31 | 2012-08-08 | 삼성전자주식회사 | 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치 |
JP2012186653A (ja) * | 2011-03-04 | 2012-09-27 | Toshiba Corp | 画像表示装置、方法およびプログラム |
-
2011
- 2011-01-31 KR KR1020110009829A patent/KR20120088467A/ko active IP Right Grant
- 2011-08-12 US US13/209,139 patent/US9253479B2/en active Active
- 2011-10-12 JP JP2011225279A patent/JP6066547B2/ja active Active
- 2011-10-24 CN CN201110329398.XA patent/CN102625114B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004001209A (ja) * | 2002-04-30 | 2004-01-08 | Xerox Corp | 微小電気機械システム、及び、静電力を用いて可動電極を移動させる方法 |
WO2004030377A1 (ja) * | 2002-09-27 | 2004-04-08 | Sharp Kabushiki Kaisha | 立体画像表示装置、記録方法、及び伝送方法 |
EP1463341A2 (en) * | 2003-03-25 | 2004-09-29 | DHS Ltd. | Three-dimensional image calculating method, three-dimensional image generating method and three-dimensional image display device |
CN1971340A (zh) * | 2005-11-21 | 2007-05-30 | 耿征 | 真三维高清晰度显示方法和装置 |
WO2009157710A2 (en) * | 2008-06-24 | 2009-12-30 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103369338A (zh) * | 2013-06-25 | 2013-10-23 | 四川虹视显示技术有限公司 | 基于fpga的近眼双目成像系统的图像处理系统及方法 |
CN103369338B (zh) * | 2013-06-25 | 2016-01-20 | 四川虹视显示技术有限公司 | 基于fpga的近眼双目成像系统的图像处理系统及方法 |
CN109561294A (zh) * | 2017-09-25 | 2019-04-02 | 三星电子株式会社 | 用于渲染图像的方法和设备 |
CN109561294B (zh) * | 2017-09-25 | 2023-09-01 | 三星电子株式会社 | 用于渲染图像的方法和设备 |
CN112584124A (zh) * | 2019-09-30 | 2021-03-30 | 北京芯海视界三维科技有限公司 | 实现3d显示的方法及装置、3d显示终端 |
Also Published As
Publication number | Publication date |
---|---|
CN102625114B (zh) | 2015-12-02 |
JP2012161067A (ja) | 2012-08-23 |
US9253479B2 (en) | 2016-02-02 |
US20120194509A1 (en) | 2012-08-02 |
KR20120088467A (ko) | 2012-08-08 |
JP6066547B2 (ja) | 2017-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102625114B (zh) | 显示3d图像的方法和设备以及区分3d图像的设备和方法 | |
CN106023907B (zh) | 驱动彩色顺序显示器的方法 | |
US7997748B2 (en) | Stereoscopic display device | |
JP6278323B2 (ja) | 自動立体ディスプレイの製造方法 | |
US20100171811A1 (en) | Method and device for the creation of pseudo-holographic images | |
KR20160010169A (ko) | 곡면형 다시점 영상 디스플레이 장치 및 그 제어 방법 | |
CN105744253B (zh) | 自动立体三维显示设备 | |
CN103988504A (zh) | 用于子像素渲染的图像处理设备和方法 | |
WO2017092453A1 (zh) | 三维显示装置及其驱动方法 | |
KR20120097381A (ko) | 오토스테레오스코픽 디스플레이 디바이스 | |
WO2017118058A1 (zh) | 三维显示装置及其驱动方法 | |
KR20150123834A (ko) | 무안경 입체 영상 디스플레이 디바이스 | |
US9509984B2 (en) | Three dimensional image display method and device utilizing a two dimensional image signal at low-depth areas | |
WO2015198606A1 (en) | Image data redundancy for high quality 3D | |
JP2013527932A5 (zh) | ||
KR20160018022A (ko) | 다시점 영상 디스플레이 장치 및 그 제어 방법 | |
US8982117B2 (en) | Display apparatus and method of displaying three-dimensional image using same | |
KR101975246B1 (ko) | 다시점 영상 디스플레이 장치 및 그 제어 방법 | |
CN105430369A (zh) | 自动立体三维显示设备 | |
CN113900273B (zh) | 裸眼3d显示方法及相关设备 | |
CN107257937A (zh) | 显示装置以及控制显示装置的方法 | |
US20180157055A1 (en) | Three-dimensional display device | |
US10104366B2 (en) | Stereopsis image display device and method for driving the same | |
KR20130066902A (ko) | 3차원 영상 표시 방법 및 이를 수행하기 위한 표시 장치 | |
KR20160081029A (ko) | 무안경 다시점 3d 디스플레이 장치 및 그의 영상 처리 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
ASS | Succession or assignment of patent right |
Owner name: SAMSUNG DISPLAY CO., LTD. Free format text: FORMER OWNER: SAMSUNG ELECTRONICS CO., LTD. Effective date: 20121219 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20121219 Address after: South Korea Gyeonggi Do Yongin Applicant after: Samsung Display Co., Ltd. Address before: Gyeonggi Do Korea Suwon Applicant before: Samsung Electronics Co., Ltd. |
|
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |