CN102761761A - 立体图像显示器及其立体图像调整方法 - Google Patents
立体图像显示器及其立体图像调整方法 Download PDFInfo
- Publication number
- CN102761761A CN102761761A CN2011103993154A CN201110399315A CN102761761A CN 102761761 A CN102761761 A CN 102761761A CN 2011103993154 A CN2011103993154 A CN 2011103993154A CN 201110399315 A CN201110399315 A CN 201110399315A CN 102761761 A CN102761761 A CN 102761761A
- Authority
- CN
- China
- Prior art keywords
- depth
- eye image
- roi
- depth map
- input picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
本发明提供了一种立体图像显示器及其立体图像调整方法,所述立体图像显示器包括:深度图提取单元,其用于从3D输入图像中提取感兴趣区域(ROI)和深度图;平均深度计算单元,其计算所述ROI的平均深度;深度图调整单元,其将所述ROI的所述平均深度转换为显示板的屏幕深度值,在所述平均深度的改变方向上将所述3D输入图像的深度值改变达所述ROI的所述平均深度的改变量,并调整所述3D输入图像的深度图;左/右眼图像生成单元,其基于所调整的深度图生成左眼图像数据和右眼图像数据;以及显示板驱动器,其用于在所述显示板上显示所述左眼图像数据和所述右眼图像数据。
Description
技术领域
本发明的实施方式涉及立体图像显示器和立体图像显示器的立体图像的调整方法。
背景技术
立体图像显示器使用立体技术或者自动立体技术来实现3D图像。
立体技术利用了左右眼之间具有高立体效果的视差图像。立体技术可以分为眼镜型方法和非眼镜型方法。在眼镜型方法中,通过改变视差图像的偏振方向或者按照时分方式在直视型显示器或者投影仪上显示左右眼之间的视差图像,并由此利用偏振眼镜或液晶快门眼镜(liquid crystal shutter glasses)来实现立体图像。在非眼镜型方法中,通过使用诸如视差栅栏(parallax barrier)和柱状透镜(lenticular lens)的光学板使视差图像的光轴分离而实现立体图像。
立体技术使观看者因左眼图像与右眼图像之间的双目视差(binocular disparity)而感知到形成在显示板的屏幕前方或后方的虚像,由此显示立体图像。取决于立体图像的双目视差度,立体技术的立体感觉与观看者的疲劳度具有互补关系。取决于实现立体图像的方法或者在利用立体技术的立体图像显示器中的优化程度,会产生3D串扰,在3D串扰中,观看者通过他/她的左眼或右眼看到左眼和右眼图像的双重图像。
当虚像的位置距离立体图像显示器的屏幕等于或大于±0.3屈光度(简称“D”)时,用户眼睛的内聚(convergence)与调节(accommodation)之间的不一致度增大。结果,虚像离显示板的屏幕变远,观看者的疲劳度增加。屈光度是焦距的倒数。随着虚像的位置变得更加远离显示板的屏幕,3D串扰的出现会增多。
图1A和图1B例示了立体图像显示器中虚像的示例。
如图1A所示,当通过观看者的左眼观看到的左眼图像L的光线与通过观看者的右眼观看到的右眼图像R的光线在屏幕的前方交叉时,在屏幕的前方形成虚像的焦点。因此,在屏幕的前方形成虚像。相反,如图1B所示,当通过观看者的左眼观看到的左眼图像L的光线与通过观看者的右眼观看到的右眼图像R的光线在屏幕的后方交叉时,在屏幕的后方形成虚像的焦点。因此,在屏幕的后方形成虚像。此外,如图1C所示,当通过观看者的左眼观看到的左眼图像L和通过观看者的右眼观看到的右眼图像R显示在屏幕上而没有双目视差时,观看者不会感知到在屏幕上显示的图像是虚像。在图1A和图1B中,在左眼图像L和右眼图像R的相同像素数据之间存在双目视差。相反,在图1C中,在左眼图像L和右眼图像R的相同像素数据之间不存在双目视差。
具体而言,当观看者观看到在屏幕前方的立体图像的感兴趣区域(ROI)的虚像时,观看者的疲劳度增加,并且观看者可能强烈地感觉到3D串扰。ROI被称为感兴趣的对象(OOI)或是显著的对象,并且是立体图像中吸引了观看者最大兴趣的对象。观看者主要观看立体图像的ROI。ROI是立体图像的一个画面中主要聚焦的区域、特写人物、与环境反差最大的对象等。
如图2所示,可以对显示板施加从3D图像分离的左眼图像的数据和右眼图像的数据。图2中的ROI是在画面中心处的特写女性的半身图像。左眼图像和右眼图像的分辨率均被调整为与显示板的分辨率一致,并且左眼图像和右眼图像共同显示在显示板上。结果,如图3所示,由于ROI的双目视差而导致观看者看到在屏幕前方的ROI的虚像,并且看到左眼图像和右眼图像的重像,由此感觉到3D串扰。
发明内容
本发明的实施方式提供了能够在不损失立体感的情况下减少观看者的疲劳度的立体图像显示器和该立体图像显示器的立体图像调整方法。
本发明的一个方面提供了一种立体图像显示器,其包括:ROI和深度图提取单元,其被配置为从3D输入图像中提取感兴趣区域(ROI)和深度图(depth map);平均深度计算单元,其被配置为计算所述ROI的平均深度;深度图调整单元,其被配置为将所述ROI的所述平均深度转换为显示板的屏幕深度值,在所述平均深度的改变方向上将所述3D输入图像的深度值改变达所述ROI的所述平均深度的改变量,并调整所述3D输入图像的深度图;左/右眼图像生成单元,其被配置为基于经所述深度图调整单元调整的所述深度图,生成左眼图像数据和右眼图像数据;以及显示板驱动器,其被配置为在所述显示板上显示从所述左/右眼图像生成单元接收的所述左眼图像数据和所述右眼图像数据。
所述立体图像显示器还包括2D-3D图像转换器,该2D-3D图像转换器被配置为将2D输入图像转换为3D输入图像。
将所述显示板实现为液晶显示器(LCD)、场致发射显示器(FED)、等离子体显示板(PDP)显示器、电致发光设备(EL)以及电泳显示器(EPD)中的一种的显示板。该电致发光设备(EL)可以包括有机发光二极管(OLED)。
本发明的另一个方面提供了一种立体图像显示器的立体图像调整方法,该方法包括以下步骤:从3D输入图像中提取感兴趣区域(ROI)和深度图;计算所述ROI的平均深度;将所述ROI的所述平均深度转换为显示板的屏幕深度值,并在所述平均深度的改变方向上将所述3D输入图像的深度值改变达所述ROI的所述平均深度的改变量,以调整所述3D输入图像的深度图;基于经调整的深度图生成左眼图像数据和右眼图像数据;以及在所述显示板上显示所述左眼图像数据和所述右眼图像数据。
附图说明
附图被包括进来以提供对本发明的进一步理解,并且被并入而构成了本说明书的一部分,附图例示了本发明的实施方式,并与说明书一起用于解释本发明的原理。在附图中:
图1A例示了观看到在立体图像显示器的屏幕前方的虚像的示例;
图1B例示了观看到在立体图像显示器的屏幕后方的虚像的示例;
图1C例示了在立体图像显示器中没有虚像的情况下在屏幕上观看到图像的示例;
图2例示了从立体图像分离的左眼图像和右眼图像;
图3例示了左眼图像和右眼图像,该左眼图像和右眼图像的分辨率被调整为与显示板的分辨率一致,并共同显示在显示板上;
图4是顺序地例示了根据本发明的示例性实施方式的立体图像显示器的立体图像的调整方法的流程图;
图5例示了根据本发明的第一实施方式的立体图像显示器的立体图像调整电路;
图6例示了根据本发明的第二实施方式的立体图像显示器的立体图像调整电路;
图7例示了根据本发明的第三实施方式的立体图像显示器的立体图像调整电路;
图8A例示了感兴趣区域(ROI)的虚像位于屏幕前方的3D输入图像的示例;
图8B例示了将图8A所示的3D输入图像中的ROI的平均深度转换为屏幕位置、并将3D输入图像的深度值在与ROI的平均深度的改变(shift)方向相同的方向上进行改变的示例;
图9A例示了ROI的虚像位于屏幕后方的3D输入图像的示例;
图9B例示了将图9A所示的3D输入图像中的ROI的平均深度转换为屏幕位置、并将3D输入图像的深度值在与ROI的平均深度的改变方向相同的方向上进行改变的示例;
图10例示了根据本发明的示例性实施方式的实验结果的图像;以及
图11是例示根据本发明的示例性实施方式的立体图像显示器的框图。
具体实施方式
下面将详细说明本发明的实施方式,在附图中例示了这些实施方式的示例。在附图中将尽可能用相同的附图标记指代相同或相似的部分。应当注意的是,如果认为已有技术会误导本发明的实施方式,则省略对该已有技术的详细说明。
如图4所示,根据本发明的实施方式的立体图像显示器的立体图像调整方法在3D模式下选择3D输入图像的左眼图像和右眼图像之一作为基准图像数据。在步骤S1和S2中,根据本发明的该实施方式的立体图像调整方法从该基准图像数据中提取感兴趣区域(ROI),并计算表示该3D输入图像的双目视差的深度的深度图。可以通过任何已有的方法来实现用于提取ROI的方法和用于计算深度图的方法。例如,用于提取ROI的方法可以使用在Xiaodi Hou and Liqing Zhang,″Saliency Detection:ASpectral Residual Approach″,Proc.CVPR,2007中公开的方法。用于计算深度图的方法可以使用在Andreas Klaus,Mario Sorman,and Konrad Karner,″Segment-based stereomatching using belief propagation and a self-adapting dissimilarity measure″Proc.IEEEInt.Conf.Pattern Recognit.pp.15,2006中公开的方法。
随后,在步骤S3中,根据本发明的该实施方式的立体图像调整方法计算深度图中ROI的平均深度AD(ROI)。在步骤S4中,立体图像调整方法将步骤S3中计算出的ROI的平均深度AD(ROI)转换为零,并基于转换后的ROI的平均深度AD(ROI)(=0)对3D输入图像的深度值进行改变,以维持3D输入图像的深度值之间的差,由此调整在步骤S2中计算出的深度图。
随后,在步骤S5中,立体图像调整方法将步骤S4中调整后的深度图映射到基准图像数据,并生成具有由调整后的深度图限定的双目视差的左右眼图像的数据。在步骤S6中,立体图像调整方法在立体图像显示器上显示左眼图像数据和右眼图像数据。基于深度图生成左眼图像数据和右眼图像数据的方法可以使用任何已有的算法。立体图像显示器可以通过眼镜型方法或者非眼镜型方法来实现立体图像,并且以时分方式或空分方式在显示板上显示左眼图像和右眼图像。
在步骤S7中,立体图像调整方法以2D模式在立体图像显示器上显示2D输入图像。
图5至图7例示了根据本发明的多种实施方式的立体图像显示器的立体图像调整电路。
图5例示了根据本发明的第一实施方式的立体图像显示器的立体图像调整电路。
如图5所示,根据本发明的第一实施方式的立体图像调整电路包括左/右眼图像分离单元11、ROI提取单元12、深度图提取单元13、平均深度计算单元14、深度图调整单元15、左/右眼图像生成单元16等。
左/右眼图像分离单元11接收3D输入图像,并从该3D输入图像中分离左眼图像和右眼图像。ROI提取单元12选择从左/右眼图像分离单元11接收的左眼图像和右眼图像中的一种作为基准图像,分析该基准图像的数据,并从该基准图像中提取ROI。例如,如图5所示,ROI提取单元12选择左眼图像作为基准图像,并从该左眼图像中提取ROI。另选地,ROI提取单元12可以选择右眼图像作为基准图像,并且可以从该右眼图像中提取ROI。深度图提取单元13对从左/右眼图像分离单元11接收的左眼图像和右眼图像逐像素地彼此进行比较和分析,并提取限定了左眼图像与右眼图像之间的双目视差的深度的深度图DM。
平均深度计算单元14对从ROI提取单元12接收的ROI的图像和从深度图提取单元13接收的深度图DM进行映射。此外,平均深度计算单元14提取ROI的深度图,并根据ROI的深度图计算平均深度AD(ROI)。
深度图调整单元15将从平均深度计算单元14接收的ROI的平均深度AD(ROI)转换为零。当ROI的平均深度AD(ROI)被转换为零时,由于ROI的大多数深度值位于屏幕上或屏幕附近,因此在ROI的左眼图像与右眼图像之间有小的双目视差。深度图调整单元15基于“ROI的平均深度AD(ROI)=0(零)”对3D输入图像的深度值进行改变,并调整深度图,使得通过维持3D输入图像中的左眼图像与右眼图像之间的双目视差而使观看者能够感受3D输入图像的立体感。
左/右眼图像生成单元16对经深度图调整单元15调整后的深度图DM′以及基准图像数据进行映射,并生成具有由该深度图DM′限定的双目视差的左眼图像数据L和右眼图像数据R。
图6例示了根据本发明的第二实施方式的立体图像显示器的立体图像调整电路。
如图6所示,根据本发明的第二实施方式的立体图像调整电路包括基准图像和深度图分离单元51、ROI提取单元52、平均深度计算单元54、深度图调整单元55、左/右眼图像生成单元56等。
图6中的3D输入图像不包括左眼图像和右眼图像,并且可以按照包括基准图像和深度图的格式进行编码。
基准图像和深度图分离单元51接收3D输入图像,并从3D输入图像中分离基准图像和深度图DM。ROI提取单元52分析从基准图像和深度图分离单元51接收的基准图像的数据,并从该基准图像中提取ROI。
平均深度计算单元54对从ROI提取单元52接收的ROI的图像以及从基准图像和深度图分离单元51接收的深度图DM进行映射。此外,平均深度计算单元54提取ROI的深度图,并根据该深度图计算ROI的平均深度AD(ROI)。
深度图调整单元55将从平均深度计算单元54接收的ROI的平均深度AD(ROI)转换为零。当ROI的平均深度AD(ROI)被转换为零时,由于ROI的大多数深度值位于屏幕上或屏幕附近,因此在ROI的左眼图像与右眼图像之间有小的双目视差。深度图调整单元55基于“ROI的平均深度AD(ROI)=0(零)”对3D输入图像的深度值进行改变,并调整深度图,使得通过维持3D输入图像中左眼图像与右眼图像之间的双目视差而使观看者能够感受3D输入图像的立体感。
左/右眼图像生成单元56对经深度图调整单元55调整后的深度图DM′以及基准图像数据进行映射,并生成具有由该深度图DM′限定的双目视差的左眼图像数据L和右眼图像数据R。
图7例示了根据本发明的第三实施方式的立体图像显示器的立体图像调整电路。
如图7所示,根据本发明的第三实施方式的立体图像调整电路包括2D-3D图像转换器60、基准图像和深度图分离单元61、ROI提取单元62、平均深度计算单元64、深度图调整单元65、左/右眼图像生成单元66等。
2D-3D图像转换器60使用先前确定的2D-3D图像转换算法将2D输入图像转换为3D输入图像。该2D-3D图像转换算法可以使用任何已有的算法。该2D-3D图像转换算法可以使用本申请人的韩国专利申请第10-2010-0101767号(2010年10月19日)中具体公开的算法,以引证方式将其完全合并于此。从2D-3D图像转换器60输出的3D图像可以是将3D图像分离为左眼图像和右眼图像的格式,或者可以是3D图像包括基准图像和深度图的格式。
基准图像和深度图分离单元61从2D-3D图像转换器60接收3D输入图像,并从该3D输入图像中分离基准图像和深度图DM。该基准图像可以是左眼图像和右眼图像中的一种。可以通过在左眼图像与右眼图像之间逐像素地比较和分析来提取该深度图DM。ROI提取单元62分析从基准图像和深度图分离单元61接收的基准图像的数据,并基于该分析结果提取ROI。
平均深度计算单元64对从ROI提取单元62接收的ROI的图像以及从基准图像和深度图分离单元61接收的深度图DM进行映射。此外,平均深度计算单元64提取ROI的深度图,并根据该ROI的深度图计算平均深度AD(ROI)。
深度图调整单元65将从平均深度计算单元64接收的ROI的平均深度AD(ROI)转换为零。当ROI的平均深度AD(ROI)被转换为零时,由于ROI的大多数深度值位于屏幕上或屏幕附近,因此在ROI的左眼图像与右眼图像之间有小的双目视差。深度图调整单元65基于“ROI的平均深度AD(ROI)=0(零)”对3D输入图像的深度值进行改变,并调整深度图,使得通过维持3D输入图像中左眼图像与右眼图像之间的双目视差而使观看者能够感受到3D输入图像的立体感。
左/右眼图像生成单元66对经深度图调整单元65调整后的深度图DM′以及基准图像数据进行映射,并生成具有由该深度图DM′限定的双目视差的左眼图像数据L和右眼图像数据R。
图8A例示了ROI的虚像位于屏幕前方的3D输入图像的示例。图8B例示了将图8A中所示的3D输入图像中的ROI的平均深度AD(ROI)转换为屏幕位置(深度=0)并且在与ROI的平均深度AD(ROI)的改变方向相同的方向上对该3D输入图像的深度图进行改变的示例。在图8A和图8B中,x轴是虚像距屏幕的距离,而y轴是3D输入图像的深度值。屏幕的深度为零(参见图1C)。随着深度值去往x轴的“+”方向,3D输入图像的虚像位于屏幕的前方(参见图1A)。此外,随着深度值去往x轴的“-”方向,3D输入图像的虚像位于屏幕的后方(参见图1B)。在图8A和图8B中,假设具有斜线图案的部分是ROI的深度值的分布。
如图8A所示,当ROI的虚像位于屏幕位置(深度=0)前方时,观看者的眼睛的内聚与调节之间的不一致性增大。因此,观看者的疲劳度增大,并且观看者会感觉到3D串扰。根据本发明的实施方式的立体图像调整电路和立体图像调整方法从3D输入图像中提取ROI,并将该ROI的平均深度AD(ROI)改变为零(即显示板的屏幕位置)。此外,根据本发明的实施方式的立体图像调整电路和立体图像调整方法在平均深度AD(ROI)的改变方向上将3D输入图像的深度值改变达如图8B所示的ROI的平均深度AD(ROI)的改变量,使得能够维持3D输入图像的立体感。
根据本发明的实施方式的立体图像调整电路和立体图像调整方法通过图8A和图8B所示的方法调整3D输入图像的深度图。此外,如图9A所示,当ROI的虚像位于屏幕后方时,可以通过如图9B所示的方法调整3D输入图像的深度图。
图9A例示了ROI的虚像位于屏幕后方的3D输入图像的示例。图9B例示了图9A中所示的3D输入图像中的ROI的平均深度AD(ROI)被转换为屏幕位置(深度=0)、并且在与ROI的平均深度AD(ROI)的改变方向相同的方向上对该3D输入图像的深度图进行改变的示例。在图9A和图9B中,x轴是虚像距屏幕的距离,而y轴是3D输入图像的深度值。在图9A和图9B中,假设具有斜线图案的部分是ROI的深度值的分布。
如图9A所示,当ROI的虚像位于屏幕位置(深度=0)后方时,产生了观看者的眼睛的内聚与调节之间的不一致性。因此,观看者会感到疲劳,并且会感觉到3D串扰。根据本发明的实施方式的立体图像调整电路和立体图像调整方法从3D输入图像中提取ROI,并将该ROI的平均深度AD(ROI)改变为零(即显示板的屏幕位置)。此外,根据本发明的实施方式的立体图像调整电路和立体图像调整方法在平均深度AD(ROI)的改变方向上将3D输入图像的深度值改变达如图9B所示的ROI的平均深度AD(ROI)的改变量,使得能够维持3D输入图像的立体感。
根据本发明的实施方式的立体图像调整电路和立体图像调整方法通过图8A至图9B所示的方法调整3D输入图像的深度图。结果,由于在3D输入图像的ROI中的双目视差不大,所以根据本发明的实施方式的立体图像调整电路和立体图像调整方法可以减小观看者所感觉到的3D串扰。此外,由于ROI位于屏幕上,因此根据本发明的实施方式的立体图像调整电路和立体图像调整方法可以使由于观看者眼睛的内聚和调节之间的不一致性而导致的观看者的疲劳度最小化。
图10例示了根据本发明的实施方式的实验结果的图像。
如图10所示,左图是在实验中使用的3D原始图像。在该3D原始图像中,与ROI相对应的女子的半身像在左眼图像和右眼图像之间具有大的双目视差,并且其虚像位于屏幕前方。由于该ROI的左眼图像与右眼图像之间的距离差,使得观看者可以感觉到3D原始图像的ROI中的3D串扰。
位于中心的上图是通过从3D原始图像(即基准图像)中提取ROI而得到的图像。位于中心的下图是通过对3D原始图像的深度图进行成像而得到的图像。
根据本发明的实施方式的立体图像显示器将ROI的平均深度转换为零,并基于该ROI的为零的平均深度对3D原始图像的深度图进行调整,由此生成如图10的右图所示的新的左眼图像数据和新的右眼图像数据。从应用了根据本发明的实施方式的立体图像调整方法的图10的右图中可以看出,由于在左眼图像与右眼图像之间不存在双目视差,因此可以减小观看者的疲劳度,并且可以使3D串扰最小化。
根据本发明的实施方式的立体图像显示器可以实现为眼镜型立体图像显示器和非眼镜型立体图像显示器。可以基于诸如液晶显示器(LCD)、场致发射显示器(FED)、等离子体显示板(PDP)显示器、例如有机发光二极管(OLED)显示器的电致发光设备(EL)以及电泳显示器(EPD)等平板显示器的显示板实现依据本发明的实施方式的立体图像显示器的显示元件。
图11是根据本发明的实施方式的立体图像显示器的框图。
如图11所示,根据本发明的实施方式的立体图像显示器包括显示板100、立体图像调整电路112、定时控制器101、数据驱动电路102、扫描驱动电路104等。
显示板100可以实现为上述平板显示器的显示板。当显示板100选用LCD板时,必须具有为显示板100提供光的背光单元。显示板100在2D模式显示2D图像数据,并且在3D模式下以时分方式或者以空分方式显示左眼图像数据和右眼图像数据。
立体图像调整电路112从3D输入图像中提取ROI,将该ROI的平均深度AD(ROI)改变到显示板100的屏幕,并基于该平均深度AD(ROI)的改变来调整该3D输入图像的深度图。立体图像调整电路112基于调整后的深度图生成新的左眼图像数据和新的右眼图像数据,并将它们提供给定时控制器101。可以按照图5至图7所示方式配置立体图像调整电路112。
定时控制器101为数据驱动电路102提供通过立体图像调整电路112从主机系统110接收的2D输入图像,或为数据驱动电路102提供从立体图像调整电路112接收的3D输入图像的数字视频数据RGB。定时控制器101通过立体图像调整电路112从主机系统110接收诸如垂直同步信号、水平同步信号、数据使能信号和点时钟(dotclock)的定时信号,并生成用于对数据驱动电路102和扫描驱动电路104的操作定时进行控制的控制信号。
定时控制器101可以基于通过立体图像调整电路112从主机系统110接收的模式信号(未示出)或者基于编码到输入图像信号的标识码,在数据驱动电路102、扫描驱动电路104或背光驱动电路(未示出)的2D模式与3D模式之间进行切换。
数据驱动电路102和扫描驱动电路104是用于在显示板100上显示从定时控制器101接收的2D或3D图像的数字视频数据的显示板驱动电路。
数据驱动电路102在定时控制器101的控制下对2D/3D图像的数字视频数据进行锁存。数据驱动电路102将锁存的数字视频数据转换为模拟数据电压或数据电流,并向数据线输出该模拟数据电压或数据电流。当向显示板100提供如在LCD或EPD中那样进行了极性反转的数据电压时,数据驱动电路102在定时控制器101的控制下将2D/3D图像的数字视频数据转换为正和负模拟伽马补偿电压,并将该数据电压的极性进行反转以提供至数据线。
扫描驱动电路104在定时控制器101的控制下向扫描线顺序地提供与提供至数据线的数据电压同步的扫描脉冲。
主机系统110连接至外部视频源设备(未示出),例如机顶盒、DVD播放器、蓝光播放器、个人计算机和家庭影院系统。主机系统110包括具有缩放器(scaler)的片上系统(SOC),并将从外部视频源设备接收的2D/3D图像的数据的分辨率转换为适合于显示板100的显示器的分辨率。
主机系统110响应于通过用户输入设备(未示出)输入的用户数据在2D模式操作与3D模式操作之间切换。该用户输入设备包括键板、键盘、鼠标、在屏显示(OSD)、远程控制器、触摸屏等。观看者可以通过用户输入设备选择2D模式和3D模式,并且可以在3D模式选择2D-3D图像转换。
主机系统110可以通过编码到输入图像的数据的2D/3D标识码在2D模式操作与3D模式操作之间进行切换。主机系统110可以生成能够确定当前驱动模式是2D模式还是3D模式的模式信号,并且可以将该模式信号发送至立体图像调整电路112和定时控制器101。
如上所述,根据本发明的实施方式的立体图像显示器从3D输入图像提取ROI,将该ROI的平均深度转换为屏幕位置的深度值,并基于具有屏幕位置的深度值的ROI的平均深度来调整3D输入图像的深度图,使得能够维持3D输入图像的立体感。结果,根据本发明的实施方式的立体图像显示器可以将3D输入图像的ROI实现为不具有双目视差的图像,由此使3D串扰最小化。此外,根据本发明的实施方式的立体图像显示器可以在不损失3D输入图像的立体感的情况下减小观看者的疲劳度。
虽然已经参照多个说明性实施方式对实施方式进行了说明,但应当理解的是,本领域技术人员能够设想落入本公开的原理的范围内的许多其它的修改和实施方式。更具体地,在本公开、附图和所附权利要求书的范围内,可以在主题组合设置的组成部件和/或设置方面做出各种变型和修改。除了在组成部件和/或设置方面的变型和修改以外,另外的使用方式对本领域技术人员也是显而易见的。
本申请要求2011年4月28日提交的韩国专利申请第10-2011-0040005号的优先权,针对所有目的以引证方式将其全部内容合并于此,如同在此进行了完整阐述一样。
Claims (5)
1.一种立体图像显示器,所述立体图像显示器包括:
感兴趣区域和深度图提取单元,所述感兴趣区域和深度图提取单元被配置为从3D输入图像中提取感兴趣区域和深度图;
平均深度计算单元,所述平均深度计算单元被配置为计算所述感兴趣区域的平均深度;
深度图调整单元,所述深度图调整单元被配置为将所述感兴趣区域的所述平均深度转换为显示板的屏幕深度值,在所述平均深度的改变方向上将所述3D输入图像的深度值改变达所述感兴趣区域的所述平均深度的改变量,并调整所述3D输入图像的深度图;
左/右眼图像生成单元,所述左/右眼图像生成单元被配置为基于经所述深度图调整单元调整的所述深度图,生成左眼图像数据和右眼图像数据;以及
显示板驱动器,所述显示板驱动器被配置为在所述显示板上显示从所述左/右眼图像生成单元接收的所述左眼图像数据和所述右眼图像数据。
2.根据权利要求1所述的立体图像显示器,所述立体图像显示器还包括2D-3D图像转换器,所述2D-3D图像转换器被配置为将2D输入图像转换为所述3D输入图像。
3.根据权利要求1所述的立体图像显示器,其中,所述显示板被实现为液晶显示器、场致发射显示器、等离子体显示板显示器、电致发光设备和电泳显示器中的一种的显示板。
4.一种立体图像显示器的立体图像调整方法,所述方法包括以下步骤:
从3D输入图像中提取感兴趣区域和深度图;
计算所述感兴趣区域的平均深度;
将所述感兴趣区域的所述平均深度转换为显示板的屏幕深度值,并在所述平均深度的改变方向上将所述3D输入图像的深度值改变达所述感兴趣区域的所述平均深度的改变量,以调整所述3D输入图像的深度图;
基于经调整的深度图生成左眼图像数据和右眼图像数据;以及
在所述显示板上显示所述左眼图像数据和所述右眼图像数据。
5.根据权利要求4所述的方法,所述方法还包括以下步骤:
将2D输入图像转换为所述3D输入图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2011-0040005 | 2011-04-28 | ||
KR1020110040005A KR101777875B1 (ko) | 2011-04-28 | 2011-04-28 | 입체 영상 표시장치와 그 입체 영상 조절 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102761761A true CN102761761A (zh) | 2012-10-31 |
CN102761761B CN102761761B (zh) | 2015-07-29 |
Family
ID=47007714
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110399315.4A Expired - Fee Related CN102761761B (zh) | 2011-04-28 | 2011-12-05 | 立体图像显示器及其立体图像调整方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8963913B2 (zh) |
KR (1) | KR101777875B1 (zh) |
CN (1) | CN102761761B (zh) |
DE (1) | DE102011057187B4 (zh) |
TW (1) | TWI511522B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104125445A (zh) * | 2013-04-25 | 2014-10-29 | 奇景光电股份有限公司 | 影像景深调整装置与影像景深调整方法 |
CN104914575A (zh) * | 2014-09-29 | 2015-09-16 | 北京蚁视科技有限公司 | 带有屈光度检测装置的微透镜阵列式近眼显示器 |
CN105263011A (zh) * | 2014-07-09 | 2016-01-20 | 三星电子株式会社 | 多视点图像显示设备及其多视点图像显示方法 |
CN105306919A (zh) * | 2014-06-03 | 2016-02-03 | 宏碁股份有限公司 | 立体图像合成方法及装置 |
CN107240007A (zh) * | 2017-07-21 | 2017-10-10 | 陕西科技大学 | 一种与3d人体模型结合的ar三维虚拟试衣系统 |
WO2018000305A1 (en) * | 2016-06-30 | 2018-01-04 | Intel Corporation | Method and apparatus for virtual reality depth retargeting |
WO2019047896A1 (zh) * | 2017-09-11 | 2019-03-14 | 西安中兴新软件有限责任公司 | 一种图像处理方法及装置 |
Families Citing this family (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9100642B2 (en) * | 2011-09-15 | 2015-08-04 | Broadcom Corporation | Adjustable depth layers for three-dimensional images |
JP2013090031A (ja) * | 2011-10-14 | 2013-05-13 | Sony Corp | 画像処理装置、画像処理方法およびプログラム |
JP6167525B2 (ja) * | 2012-03-21 | 2017-07-26 | 株式会社リコー | 距離計測装置及び車両 |
KR101364860B1 (ko) * | 2012-09-03 | 2014-02-20 | 강원대학교산학협력단 | 입체 영상의 입체감 향상을 위한 입체 영상 변환 방법 및 이를 기록한 기록매체 |
US9182817B2 (en) * | 2013-03-12 | 2015-11-10 | Intel Corporation | Techniques for automated evaluation of 3D visual content |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US10484661B2 (en) * | 2013-08-06 | 2019-11-19 | Sony Interactive Entertainment Inc. | Three-dimensional image generating device, three-dimensional image generating method, program, and information storage medium |
TWI536316B (zh) * | 2013-10-30 | 2016-06-01 | 宏達國際電子股份有限公司 | 用於產生三維景象之裝置及由電腦執行之產生三維景象之方法 |
KR102192986B1 (ko) * | 2014-05-23 | 2020-12-18 | 삼성전자주식회사 | 영상 디스플레이 장치 및 영상 디스플레이 방법 |
US10070172B2 (en) | 2014-07-01 | 2018-09-04 | Lg Electronics Inc. | Method and apparatus for processing broadcast data by using external device |
CN105323573B (zh) | 2014-07-16 | 2019-02-05 | 北京三星通信技术研究有限公司 | 三维图像显示装置和方法 |
EP3198473A1 (en) | 2014-09-22 | 2017-08-02 | THOMSON Licensing | Use of depth perception as indicator of search, user interest or preference |
US11587304B2 (en) | 2017-03-10 | 2023-02-21 | Tusimple, Inc. | System and method for occluding contour detection |
US10147193B2 (en) | 2017-03-10 | 2018-12-04 | TuSimple | System and method for semantic segmentation using hybrid dilated convolution (HDC) |
US9953236B1 (en) | 2017-03-10 | 2018-04-24 | TuSimple | System and method for semantic segmentation using dense upsampling convolution (DUC) |
US10067509B1 (en) | 2017-03-10 | 2018-09-04 | TuSimple | System and method for occluding contour detection |
US10311312B2 (en) | 2017-08-31 | 2019-06-04 | TuSimple | System and method for vehicle occlusion detection |
US10671873B2 (en) | 2017-03-10 | 2020-06-02 | Tusimple, Inc. | System and method for vehicle wheel detection |
US9952594B1 (en) | 2017-04-07 | 2018-04-24 | TuSimple | System and method for traffic data collection using unmanned aerial vehicles (UAVs) |
US10471963B2 (en) | 2017-04-07 | 2019-11-12 | TuSimple | System and method for transitioning between an autonomous and manual driving mode based on detection of a drivers capacity to control a vehicle |
US10710592B2 (en) | 2017-04-07 | 2020-07-14 | Tusimple, Inc. | System and method for path planning of autonomous vehicles based on gradient |
US10552691B2 (en) | 2017-04-25 | 2020-02-04 | TuSimple | System and method for vehicle position and velocity estimation based on camera and lidar data |
US10481044B2 (en) | 2017-05-18 | 2019-11-19 | TuSimple | Perception simulation for improved autonomous vehicle control |
US10558864B2 (en) | 2017-05-18 | 2020-02-11 | TuSimple | System and method for image localization based on semantic segmentation |
US10474790B2 (en) | 2017-06-02 | 2019-11-12 | TuSimple | Large scale distributed simulation for realistic multiple-agent interactive environments |
US10762635B2 (en) | 2017-06-14 | 2020-09-01 | Tusimple, Inc. | System and method for actively selecting and labeling images for semantic segmentation |
US10752246B2 (en) | 2017-07-01 | 2020-08-25 | Tusimple, Inc. | System and method for adaptive cruise control with proximate vehicle detection |
US10308242B2 (en) | 2017-07-01 | 2019-06-04 | TuSimple | System and method for using human driving patterns to detect and correct abnormal driving behaviors of autonomous vehicles |
US10303522B2 (en) | 2017-07-01 | 2019-05-28 | TuSimple | System and method for distributed graphics processing unit (GPU) computation |
US10737695B2 (en) | 2017-07-01 | 2020-08-11 | Tusimple, Inc. | System and method for adaptive cruise control for low speed following |
US10493988B2 (en) | 2017-07-01 | 2019-12-03 | TuSimple | System and method for adaptive cruise control for defensive driving |
US10360257B2 (en) | 2017-08-08 | 2019-07-23 | TuSimple | System and method for image annotation |
US11029693B2 (en) | 2017-08-08 | 2021-06-08 | Tusimple, Inc. | Neural network based vehicle dynamics model |
US10816354B2 (en) | 2017-08-22 | 2020-10-27 | Tusimple, Inc. | Verification module system and method for motion-based lane detection with multiple sensors |
US10762673B2 (en) | 2017-08-23 | 2020-09-01 | Tusimple, Inc. | 3D submap reconstruction system and method for centimeter precision localization using camera-based submap and LiDAR-based global map |
US10565457B2 (en) | 2017-08-23 | 2020-02-18 | Tusimple, Inc. | Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map |
US10303956B2 (en) | 2017-08-23 | 2019-05-28 | TuSimple | System and method for using triplet loss for proposal free instance-wise semantic segmentation for lane detection |
US10678234B2 (en) | 2017-08-24 | 2020-06-09 | Tusimple, Inc. | System and method for autonomous vehicle control to minimize energy cost |
US10783381B2 (en) | 2017-08-31 | 2020-09-22 | Tusimple, Inc. | System and method for vehicle occlusion detection |
US10953880B2 (en) | 2017-09-07 | 2021-03-23 | Tusimple, Inc. | System and method for automated lane change control for autonomous vehicles |
US10656644B2 (en) | 2017-09-07 | 2020-05-19 | Tusimple, Inc. | System and method for using human driving patterns to manage speed control for autonomous vehicles |
US10649458B2 (en) | 2017-09-07 | 2020-05-12 | Tusimple, Inc. | Data-driven prediction-based system and method for trajectory planning of autonomous vehicles |
US10782694B2 (en) | 2017-09-07 | 2020-09-22 | Tusimple, Inc. | Prediction-based system and method for trajectory planning of autonomous vehicles |
US10782693B2 (en) | 2017-09-07 | 2020-09-22 | Tusimple, Inc. | Prediction-based system and method for trajectory planning of autonomous vehicles |
US10953881B2 (en) | 2017-09-07 | 2021-03-23 | Tusimple, Inc. | System and method for automated lane change control for autonomous vehicles |
US10671083B2 (en) | 2017-09-13 | 2020-06-02 | Tusimple, Inc. | Neural network architecture system for deep odometry assisted by static scene optical flow |
US10552979B2 (en) | 2017-09-13 | 2020-02-04 | TuSimple | Output of a neural network method for deep odometry assisted by static scene optical flow |
US10387736B2 (en) | 2017-09-20 | 2019-08-20 | TuSimple | System and method for detecting taillight signals of a vehicle |
US10733465B2 (en) | 2017-09-20 | 2020-08-04 | Tusimple, Inc. | System and method for vehicle taillight state recognition |
US10962979B2 (en) | 2017-09-30 | 2021-03-30 | Tusimple, Inc. | System and method for multitask processing for autonomous vehicle computation and control |
US10970564B2 (en) | 2017-09-30 | 2021-04-06 | Tusimple, Inc. | System and method for instance-level lane detection for autonomous vehicle control |
US10768626B2 (en) | 2017-09-30 | 2020-09-08 | Tusimple, Inc. | System and method for providing multiple agents for decision making, trajectory planning, and control for autonomous vehicles |
US10410055B2 (en) | 2017-10-05 | 2019-09-10 | TuSimple | System and method for aerial video traffic analysis |
US10739775B2 (en) | 2017-10-28 | 2020-08-11 | Tusimple, Inc. | System and method for real world autonomous vehicle trajectory simulation |
US10666730B2 (en) | 2017-10-28 | 2020-05-26 | Tusimple, Inc. | Storage architecture for heterogeneous multimedia data |
US10812589B2 (en) | 2017-10-28 | 2020-10-20 | Tusimple, Inc. | Storage architecture for heterogeneous multimedia data |
US10657390B2 (en) | 2017-11-27 | 2020-05-19 | Tusimple, Inc. | System and method for large-scale lane marking detection using multimodal sensor data |
US10528823B2 (en) | 2017-11-27 | 2020-01-07 | TuSimple | System and method for large-scale lane marking detection using multimodal sensor data |
US10528851B2 (en) | 2017-11-27 | 2020-01-07 | TuSimple | System and method for drivable road surface representation generation using multimodal sensor data |
US10877476B2 (en) | 2017-11-30 | 2020-12-29 | Tusimple, Inc. | Autonomous vehicle simulation system for analyzing motion planners |
US10860018B2 (en) | 2017-11-30 | 2020-12-08 | Tusimple, Inc. | System and method for generating simulated vehicles with configured behaviors for analyzing autonomous vehicle motion planners |
EP3737595B1 (en) | 2018-01-09 | 2023-12-27 | TuSimple, Inc. | Real-time remote control of vehicles with high redundancy |
CN111989716B (zh) | 2018-01-11 | 2022-11-15 | 图森有限公司 | 用于自主车辆操作的监视系统 |
US11009365B2 (en) | 2018-02-14 | 2021-05-18 | Tusimple, Inc. | Lane marking localization |
US11009356B2 (en) | 2018-02-14 | 2021-05-18 | Tusimple, Inc. | Lane marking localization and fusion |
US10685244B2 (en) | 2018-02-27 | 2020-06-16 | Tusimple, Inc. | System and method for online real-time multi-object tracking |
US10685239B2 (en) | 2018-03-18 | 2020-06-16 | Tusimple, Inc. | System and method for lateral vehicle detection |
CN110378185A (zh) | 2018-04-12 | 2019-10-25 | 北京图森未来科技有限公司 | 一种应用于自动驾驶车辆的图像处理方法、装置 |
CN110458854B (zh) | 2018-05-02 | 2022-11-15 | 北京图森未来科技有限公司 | 一种道路边缘检测方法和装置 |
US11104334B2 (en) | 2018-05-31 | 2021-08-31 | Tusimple, Inc. | System and method for proximate vehicle intention prediction for autonomous vehicles |
US10839234B2 (en) | 2018-09-12 | 2020-11-17 | Tusimple, Inc. | System and method for three-dimensional (3D) object detection |
CN112689586B (zh) | 2018-09-13 | 2024-04-16 | 图森有限公司 | 远程安全驾驶方法和系统 |
US10796402B2 (en) | 2018-10-19 | 2020-10-06 | Tusimple, Inc. | System and method for fisheye image processing |
US10942271B2 (en) | 2018-10-30 | 2021-03-09 | Tusimple, Inc. | Determining an angle between a tow vehicle and a trailer |
CN116184417A (zh) | 2018-12-10 | 2023-05-30 | 北京图森智途科技有限公司 | 一种挂车夹角的测量方法、装置及车辆 |
CN111319629B (zh) | 2018-12-14 | 2021-07-16 | 北京图森智途科技有限公司 | 一种自动驾驶车队的组队方法、装置及系统 |
US11823460B2 (en) | 2019-06-14 | 2023-11-21 | Tusimple, Inc. | Image fusion for autonomous vehicle operation |
CN112188181B (zh) * | 2019-07-02 | 2023-07-04 | 中强光电股份有限公司 | 图像显示设备、立体图像处理电路及其同步信号校正方法 |
EP3893150A1 (en) | 2020-04-09 | 2021-10-13 | Tusimple, Inc. | Camera pose estimation techniques |
USD953374S1 (en) * | 2020-05-15 | 2022-05-31 | Lg Electronics Inc. | Display panel with animated graphical user interface |
AU2021203567A1 (en) | 2020-06-18 | 2022-01-20 | Tusimple, Inc. | Angle and orientation measurements for vehicles with multiple drivable sections |
WO2023184526A1 (en) * | 2022-04-02 | 2023-10-05 | Covidien Lp | System and method of real-time stereoscopic visualization based on monocular camera |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5861936A (en) * | 1996-07-26 | 1999-01-19 | Gillan Holdings Limited | Regulating focus in accordance with relationship of features of a person's eyes |
CN1462416A (zh) * | 2000-08-04 | 2003-12-17 | 动态数字视距研究有限公司 | 图像变换和编码技术 |
CN101588445A (zh) * | 2009-06-09 | 2009-11-25 | 宁波大学 | 一种基于深度的视频感兴趣区域提取方法 |
US20090315981A1 (en) * | 2008-06-24 | 2009-12-24 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
US20110081042A1 (en) * | 2009-10-07 | 2011-04-07 | Samsung Electronics Co., Ltd. | Apparatus and method for adjusting depth |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7239318B2 (en) * | 2001-03-23 | 2007-07-03 | Rise Kabushikikaisha | Method and computer software program product for processing characters based on outline font |
US7532753B2 (en) * | 2003-09-29 | 2009-05-12 | Lipsky Scott E | Method and system for specifying color of a fill area |
KR101185870B1 (ko) * | 2005-10-12 | 2012-09-25 | 삼성전자주식회사 | 3d 입체 영상 처리 장치 및 방법 |
US7559653B2 (en) * | 2005-12-14 | 2009-07-14 | Eastman Kodak Company | Stereoscopic display apparatus using LCD panel |
KR101030797B1 (ko) | 2009-03-10 | 2011-04-22 | 조문호 | 패킹스토퍼 |
US8947422B2 (en) | 2009-09-30 | 2015-02-03 | Disney Enterprises, Inc. | Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images |
KR101780813B1 (ko) | 2010-10-19 | 2017-09-21 | 엘지디스플레이 주식회사 | 2d-3d 영상 변환 방법 및 이를 이용한 입체 영상 표시장치 |
US8628193B2 (en) * | 2010-11-20 | 2014-01-14 | Yibin TIAN | Automatic accommodative spectacles using a scene analyzer and focusing elements |
-
2011
- 2011-04-28 KR KR1020110040005A patent/KR101777875B1/ko active IP Right Grant
- 2011-12-05 CN CN201110399315.4A patent/CN102761761B/zh not_active Expired - Fee Related
- 2011-12-06 US US13/312,493 patent/US8963913B2/en not_active Expired - Fee Related
- 2011-12-16 TW TW100146928A patent/TWI511522B/zh not_active IP Right Cessation
- 2011-12-30 DE DE102011057187.6A patent/DE102011057187B4/de active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5861936A (en) * | 1996-07-26 | 1999-01-19 | Gillan Holdings Limited | Regulating focus in accordance with relationship of features of a person's eyes |
CN1462416A (zh) * | 2000-08-04 | 2003-12-17 | 动态数字视距研究有限公司 | 图像变换和编码技术 |
US20090315981A1 (en) * | 2008-06-24 | 2009-12-24 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
CN101588445A (zh) * | 2009-06-09 | 2009-11-25 | 宁波大学 | 一种基于深度的视频感兴趣区域提取方法 |
US20110081042A1 (en) * | 2009-10-07 | 2011-04-07 | Samsung Electronics Co., Ltd. | Apparatus and method for adjusting depth |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104125445A (zh) * | 2013-04-25 | 2014-10-29 | 奇景光电股份有限公司 | 影像景深调整装置与影像景深调整方法 |
CN104125445B (zh) * | 2013-04-25 | 2016-03-02 | 奇景光电股份有限公司 | 影像景深调整装置与影像景深调整方法 |
CN105306919A (zh) * | 2014-06-03 | 2016-02-03 | 宏碁股份有限公司 | 立体图像合成方法及装置 |
US9729845B2 (en) | 2014-06-03 | 2017-08-08 | Acer Incorporated | Stereoscopic view synthesis method and apparatus using the same |
US10939092B2 (en) | 2014-07-09 | 2021-03-02 | Samsung Electronics Co., Ltd. | Multiview image display apparatus and multiview image display method thereof |
CN105263011A (zh) * | 2014-07-09 | 2016-01-20 | 三星电子株式会社 | 多视点图像显示设备及其多视点图像显示方法 |
CN105263011B (zh) * | 2014-07-09 | 2018-11-02 | 三星电子株式会社 | 多视点图像显示设备及其多视点图像显示方法 |
CN104914575B (zh) * | 2014-09-29 | 2017-11-14 | 北京蚁视科技有限公司 | 带有屈光度检测装置的微透镜阵列式近眼显示器 |
WO2016050119A1 (zh) * | 2014-09-29 | 2016-04-07 | 北京蚁视科技有限公司 | 带有屈光度检测装置的微透镜阵列式近眼显示器 |
US10133347B2 (en) | 2014-09-29 | 2018-11-20 | Beijing Antvr Technology Co., Ltd. | Near-eye microlens array display having diopter detection device |
CN104914575A (zh) * | 2014-09-29 | 2015-09-16 | 北京蚁视科技有限公司 | 带有屈光度检测装置的微透镜阵列式近眼显示器 |
WO2018000305A1 (en) * | 2016-06-30 | 2018-01-04 | Intel Corporation | Method and apparatus for virtual reality depth retargeting |
CN109314777A (zh) * | 2016-06-30 | 2019-02-05 | 英特尔公司 | 用于虚拟现实深度重定位的方法和装置 |
US10869015B2 (en) | 2016-06-30 | 2020-12-15 | Intel Corporation | Method and apparatus for virtual reality depth retargeting |
CN109314777B (zh) * | 2016-06-30 | 2021-04-27 | 英特尔公司 | 用于虚拟现实深度重定位的方法和装置 |
CN107240007A (zh) * | 2017-07-21 | 2017-10-10 | 陕西科技大学 | 一种与3d人体模型结合的ar三维虚拟试衣系统 |
WO2019047896A1 (zh) * | 2017-09-11 | 2019-03-14 | 西安中兴新软件有限责任公司 | 一种图像处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN102761761B (zh) | 2015-07-29 |
TWI511522B (zh) | 2015-12-01 |
KR20120122042A (ko) | 2012-11-07 |
US8963913B2 (en) | 2015-02-24 |
DE102011057187A1 (de) | 2012-10-31 |
TW201244458A (en) | 2012-11-01 |
US20120274629A1 (en) | 2012-11-01 |
KR101777875B1 (ko) | 2017-09-13 |
DE102011057187B4 (de) | 2022-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102761761B (zh) | 立体图像显示器及其立体图像调整方法 | |
TWI598846B (zh) | 影像資料處理方法以及使用該方法的立體影像顯示裝置 | |
KR101869872B1 (ko) | 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치 | |
CN104539935B (zh) | 图像亮度的调节方法及调节装置、显示装置 | |
KR102121389B1 (ko) | 무안경 3d 디스플레이 장치 및 그 제어 방법 | |
US10694173B2 (en) | Multiview image display apparatus and control method thereof | |
KR20110044573A (ko) | 디스플레이장치 및 그 영상표시방법 | |
CN102932662A (zh) | 单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法 | |
EP2466362A2 (en) | Method and apparatus for providing stereoscopic image | |
KR20130056133A (ko) | 표시 장치 및 그 구동 방법 | |
EP2752815A1 (en) | Display method and display apparatus | |
KR20140004393A (ko) | 디스플레이 장치 및 그 제어 방법 | |
KR102143463B1 (ko) | 다시점 영상 디스플레이 장치 및 그 제어 방법 | |
CN108881878B (zh) | 一种裸眼3d显示设备和方法 | |
KR101780813B1 (ko) | 2d-3d 영상 변환 방법 및 이를 이용한 입체 영상 표시장치 | |
KR20150134911A (ko) | 영상 디스플레이 장치 및 영상 디스플레이 방법 | |
CN105578171B (zh) | 一种图像信号处理方法及装置 | |
TWI449956B (zh) | 主動式偏光三維顯示裝置 | |
KR102334031B1 (ko) | 무안경 입체영상표시장치 및 그 구동방법 | |
TWI499279B (zh) | 影像處理裝置及其方法 | |
US20130021324A1 (en) | Method for improving three-dimensional display quality | |
KR101922086B1 (ko) | 입체영상 디스플레이장치 및 그 구동 방법 | |
KR20130079044A (ko) | 디스플레이 장치 및 그 제어 방법 | |
KR101863140B1 (ko) | 입체영상 디스플레이장치 및 그 구동 방법 | |
KR101620969B1 (ko) | 디스플레이 장치 및 이에 적용되는 3d 영상 미리보기 제공 방법, 그리고 3d 영상 제공 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150729 Termination date: 20201205 |
|
CF01 | Termination of patent right due to non-payment of annual fee |