CN102821293B - 图像处理方法和设备 - Google Patents

图像处理方法和设备 Download PDF

Info

Publication number
CN102821293B
CN102821293B CN201210192069.XA CN201210192069A CN102821293B CN 102821293 B CN102821293 B CN 102821293B CN 201210192069 A CN201210192069 A CN 201210192069A CN 102821293 B CN102821293 B CN 102821293B
Authority
CN
China
Prior art keywords
view
cavity
image
reference layer
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210192069.XA
Other languages
English (en)
Other versions
CN102821293A (zh
Inventor
黄圭荣
朴斗植
李晧荣
赵良镐
白艾伦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020110118334A external-priority patent/KR20120137205A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN102821293A publication Critical patent/CN102821293A/zh
Application granted granted Critical
Publication of CN102821293B publication Critical patent/CN102821293B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Abstract

一种图像处理方法和设备。所述图像处理方法和设备可产生关于参考视点的参考层。所述参考层可包括用于执行针对输出图像内的空洞的空洞恢复。可通过将参考层扭曲至输出图像的视点来产生信息。

Description

图像处理方法和设备
本申请要求于2011年6月10提交到美国专利商标局的第61/495,436号美国临时专利申请以及2011年11月14日提交到韩国知识产权局的第10-2011-0118334号韩国专利申请的优先权权益,所述申请的公开通过引用其全部包含于此。
技术领域
一个或多个实施例涉及一种图像处理方法和设备,更具体地,涉及一种可使用参考层执行针对输出图像内的空洞的空洞恢复的方法和设备。
背景技术
三维(3D)显示装置可显示3D图像以增强观看者感受的真实感和投入感。
为了对在各种视点观看图像的观看者提供3D效果,输出视图图像可能需要在各种视点被产生。可通过对若干输入视图图像进行内插或通过对单个输入视图图像进行外插来产生输出视图图像。当使用少量输入视图图像产生多个输出视图图像时,需要一种可对在输入视图图像中不可见而在输出视图图像中可见的区域进行处理的方法。这样的区域可被称为“空洞(hole)”。在现有技术中,可针对每个输出视图图像独立执行空洞填充,而无需考虑所有可用的图像数据。也就是说,在现有技术中,针对每个输出图像独立执行空洞恢复,从而迫使进行多次空洞恢复程序步骤。
发明内容
通过提供一种图像处理方法来实现前述和/或其他方面,所述图像处理方法包括:使用至少一个输入视图产生关于参考视点的参考层;使用所述至少一个输入视图产生输出视点图像;使用参考层执行针对输出视点图像内的空洞的空洞恢复。每个输入视图可包括图像和视差信息,参考层可包括图像和视差信息。
所述至少一个输入视图可以是左输入视图和右输入视图。
参考视点可以是左输入视图的视点与右输入视图的视点之间的视点。
参考视点可以是所述至少一个输入视图中的中心输入视图的视点。
产生参考层的步骤可包括:使用所述至少一个输入视图产生参考视点图像和参考视点视差信息;产生关于参考视点的空洞图,其中,在所述空洞图中,与每个输出视点图像内的空洞相关的信息被收集;使用空洞图、参考视点图像和参考视点视差信息来产生初始参考层;通过执行针对初始参考层内的空洞的空洞恢复来产生参考层。
可基于包括在参考视点图像中的像素的视差之间的差来产生空洞图。
可通过在参考视点图像和空洞图之间执行AND运算来产生初始参考层的图像。
可使用与初始参考层内的空洞邻近的背景来执行针对初始参考层内的空洞的空洞恢复。
当第一像素的第一视差比与第一像素的左侧邻近的第二像素的第二视差至少大一阈值时,从第一像素的右侧起的像素可被设置为空洞,并且所述像素的数量可与第一视差和第二视差之间的差成比例;
当第一像素的第一视差比与第一像素的右侧邻近的第三像素的第三视差至少大一阈值时,从第一像素的左侧起的像素被设置为空洞,并且所述像素的数量与第一视差和第三视差之间的差成比例。
产生输出视点图像的步骤可包括:从所述至少一个输入视图选择至少一个参考视图;通过使用参考视图视差信息将参考视图图像扭曲至输出视点来产生输出视点图像;
执行空洞恢复的步骤可包括:通过使用参考层的视差信息将参考层图像扭曲至输出视点,来产生输出视点的参考层图像;将与输出视点的参考层图像中的空洞对应的区域复制到所述空洞。
可提供多个输出视点图像。
通过提供一种图像处理设备来实现前述和/或其他方面,所述图像处理设备包括:参考层产生器,用于使用至少一个输入视图产生关于参考视点的参考层;输出视点图像产生器,用于使用所述至少一个输入视图产生输出视点图像;空洞恢复单元,用于使用参考层执行针对输出视点图像内的空洞的空洞恢复。每个输入视图可包括图像和视差信息,参考层可包括图像和视差信息。
参考层产生器可包括:参考视点图像/视差信息产生器,用于使用所述至少一个输入视图产生参考视点图像和参考视点视差信息;空洞图产生器,用于产生关于参考视点的空洞图,其中,在所述空洞图中,与每个输出视点图像内的空洞相关的信息被收集;初始参考层产生器,用于使用空洞图、参考视点图像和参考视点视差信息来产生初始参考层;参考层产生器,用于通过执行针对初始参考层内的空洞的空洞恢复来产生参考层。
输出视点图像产生器可包括:参考视点选择器,用于从所述至少一个输入视图选择至少一个参考视图;参考视图扭曲单元,用于通过使用参考视图视差信息将参考视图图像扭曲至输出视点,来产生输出视点图像。
空洞恢复单元可包括:参考层扭曲单元,用于通过使用参考层的视差信息将参考层的图像扭曲至输出视点,来产生输出视点的参考层图像;空洞区域复制单元,用于将与输出视点的参考层图像中的空洞对应的区域复制到所述空洞。
通过提供一种图像处理方法来实现前述和/或其他方面,所述图像处理方法包括:基于至少一个输入视图图像和输入视差来计算参考视点图像和参考视点视差;基于参考视点视差构建与参考视点对应的空洞图;使用空洞图和参考视点图像来产生参考视点处的初始参考层;通过对产生的初始参考层内的空洞执行空洞恢复来产生参考层;从参考层向每个输出视点图像的空洞位置传播恢复的空洞信息。
通过提供一种构建用于多视图图像数据的空洞图的方法来实现前述和/或其他方面。所述方法包括:在单个参考视点处聚集在多个不同视点中的每一个视点处获得的空洞信息;在所述单个参考视点处构建包括聚集的空洞信息的空洞图。
通过提供一种包括图像处理设备的多视图显示装置来实现前述和/或其他方面。所述多视图显示装置还包括:参考视点图像/视差信息产生器,用于基于至少一个输入视图图像和输入视差来计算参考视点图像和参考视点视差;空洞图产生器,用于基于参考视点视差构建参考视点处的空洞图;初始参考层产生器,用于使用空洞图以及参考视点图像和参考视点视差,产生参考视点处的初始参考层;参考层产生器,用于通过对产生的初始参考层内的空洞执行空洞恢复来产生参考层;空洞恢复单元,用于从参考层向每个输出视点图像的空洞位置传播恢复的空洞信息。
实施例的另外的方面将在描述中被部分阐述,还有部分从描述中将是清楚的,或者可通过本公开的实施而得知。
附图说明
通过下面结合附图对实施例进行的描述,这些和/或其他方面将变得清楚并更易于理解,其中:
图1示出根据实施例的图像处理方法;
图2示出用于描述根据实施例的基于两个输入视图确定参考视点并针对所述参考视点产生图像和视差的方法的示图;
图3示出用于描述根据实施例的基于2n-1个输入视图确定参考视点并针对所述参考视点产生图像和视差的方法的示图;
图4示出用于描述根据实施例的使用参考视点图像和参考视点视差信息来产生参考层和所述参考层的视差信息的处理的示图;
图5示出用于描述根据实施例的产生空洞图的原理的示图;
图6示出用于描述根据实施例的产生空洞图的方法的示图;
图7示出用于描述根据实施例的确定被设置为空洞的像素的数量的方法的示图;
图8示出根据实施例的产生空洞图的处理;
图9示出用于描述根据实施例的产生输出视点图像并执行针对输出视点图像内的空洞的空洞恢复的原理的示图;
图10示出根据实施例的产生输出视点图像并执行针对输出视点图像内的空洞的空洞恢复的处理;
图11示出根据实施例的图像处理设备的配置;
图12示出根据示例实施例的包括图像处理设备的多视图(multi-view)显示装置的框图。
具体实施方式
现在将详细描述实施例,其示例在附图中示出,其中,相同的标号始终表示相同的元件。以下描述实施例以通过参考附图解释本公开。
在下文中,术语“视图(view)”可包括图像以及与所述图像相关的视差信息。术语视图可指示具有视差信息的图像。
视图的图像可包括例如二维(2D)像素。视图的视差信息可包括每个像素的视差或视差值。视差信息可指示图像内的像素的视差。
输入视图可指示被用作输入信息的视图。输出视图可指示基于输入视图产生的视图。在输入视图中,被用于产生输出视图的视图可被称为参考视图。
内插可指示产生参考视图之间的图像。外插可指示产生参考视图的外部图像。
可通过基于参考视图图像的视差信息,根据输出视图的视点扭曲(warp)参考视图图像来产生输出视图图像。
这里,扭曲可指示基于图像的视差信息使图像内的每个像素的坐标移位。具有较大视差的像素可能比具有较小视差的像素移位的更远。
通过相互恒定的条件(mutual constant term),深度和视差可能负相关。因此,在以下实施例中,术语“深度”和“视差”可被可交换地使用。
另外,将深度转换为视差或将视差转换为深度的操作可被添加到以下实施例。
图1示出根据实施例的图像处理方法。
在操作110,参考视点可被确定。
参考视点可以是参考视点图像、参考视点视差信息、空洞图(hole map)和参考层的视点。例如,参考视点可以是被用作用于产生空洞图和参考层的参考的视点。
稍后将参照图2和图3进一步描述确定参考视点的示例。
在操作122至128,可使用至少一个输入视图产生针对参考视点的参考层(例如,参考层的图像和参考层的视差信息)。每个输入视图可包括图像和与所述图像相关的视差信息。
在操作122,可使用所述至少一个输入视图产生参考视点图像和参考视点视差信息。
参考视点图像和参考视点视差信息可被用于产生空洞图和参考层。稍后将描述空洞图的产生。
所述至少一个输入视图中的中心输入视图的视点可被选为参考视点。也就是说,位于所述至少一个输入视图中的其他输入视图之间的视点可被选为参考视点。
在操作124,与参考视点对应的空洞图可被产生。
可通过收集作为参考视点图像的与每个视点图像内的空洞相关的信息来产生空洞图。也就是说,在多个不同视点中的每一个视点处获得的空洞信息可被聚集在参考视点图像。这里,每个视点图像可指示将稍后描述的输出图像。
在操作126,可使用空洞图、参考视点图像和参考视点视差信息来产生初始参考层。
在初始参考层中,可在参考视点图像内,或者在参考视点图像和参考视点视差信息内产生空洞分量。
在操作128,可通过执行针对初始参考层内的空洞的空洞恢复来产生参考层(例如,参考层的图像和参考层的视差信息)。也就是说,初始参考层的空洞可被恢复以产生参考层。
稍后将参照图4描述使用参考视点图像和参考视点视差信息来产生参考层的处理。
在操作126和128,可使用空洞图、参考视点图像和参考视点视差信息产生执行针对每个输出图像内的空洞的空洞恢复所需要的信息。
在操作130,可使用所述至少一个输入视图来产生输出视点图像或目标视点图像。
输出视点可指示将被提供给观看者的目标视点。
输出视点图像可包括空洞。
在操作140,可使用参考层和所述参考层的视差信息来执行针对输出视点图像内的空洞的空洞恢复。
在操作150,已执行了空洞恢复的输出视点图像可被输出。
可随后提供空洞已被恢复的多个输出视点图像。
图2示出用于描述根据实施例的基于两个输入视图确定参考视点并针对所述参考视点产生图像和视差的方法的示图。
图2示出第一输入视图210和第二输入视图220。
第一输入视图210和第二输入视图220可分别是例如立体2路视图输入的左输入视图和右输入视图。
第一输入视图210和第二输入视图220可以可选择地分别是多视图装置的2n个输入视图中的第n输入视图和第n+1输入视图。这里,n可以是大于或等于“1”的整数。第一输入视图210和第二输入视图220可以是被放在多个输入视图的中心的两个输入视图。也就是说,第一输入视图210和第二输入视图220可被放在其他输入视图之间。
第一输入视图210可包括图像212和视差信息214。
第二输入视图220可包括图像222和视差信息224。
参考视点可位于第一输入视图210的视点与第二输入视图220的视点之间的中心位置。参考视点可位于从所有输入视图选择的两个输入视图的视点之间的中心位置。
作为一个示例,可基于与左输入视图对应的第一输入视图210和与右输入视图对应的第二输入视图220来产生参考视点视图230(即,参考视点图像232和参考视点视差信息234)。
作为另一示例,可通过使用第一输入视图210的图像212和视差信息214以及第二输入视图220的图像222和视差信息224执行扭曲,来产生参考视点视图230(即,参考视点图像232和参考视点视差信息234)。
图3示出用于描述根据实施例的基于2n-1个输入视图确定参考视点并针对所述参考视点产生图像和视差的方法的示图。
图3示出三个输入视图,例如,第一输入示图310、第n输入示图320以及第2n-1输入示图330。
输入视图的数量可以是2n-1。这里,n可指示大于或等于“1”的整数。
与中心输入视图对应的第n输入视图320可包括图像322和视差信息324。
参考视点可以是位于多个输入视图之间的输入视图的视点。例如,在2n-1个输入视图中,第n输入视图320的视点可以是参考视点。
当参考视点与输入视图之中的预定视图的视点相同时,所述预定视图可被设置为或者可被用作参考视点视图340。所述预定视图的图像可被设置为参考视点图像342,所述预定视图的视差信息可被设置为参考视点视差信息344。
例如,当参考视点是输入视图320的视点时,输入视图320可被设置为参考视点视图340。
当输入视图的数量为奇数(例如,2n-1)时,位于中心的输入视图320(例如,第n输入视图)的图像322可被设置为参考视点图像342。输入视图320的视差信息324可被设置为参考视点视差信息344。
图4示出用于描述根据实施例的使用参考视点图像和参考视点视差信息来产生初始参考层和所述初始参考层的视差信息以及参考层和所述参考层的视差信息的处理的示图。例如,可在多个视图的产生中使用图4的处理。
如以上参照图1至图3所述,可基于至少一个输入视图(例如,输入视图410和415)来产生参考视点图像430和参考视点视差信息435。
参考视点视图420可包括参考视点图像430和参考视点视差信息435。
参考视点图像430可包括前景(foreground)432和背景(background)434。通常,前景432可能比背景434具有更大的视差(例如,更小的深度)。
参考视点视差信息435可包括与前景432相关的前景视差信息436以及与背景434相关的背景视差信息438。
空洞图440可与通过将在每个多视图图像中产生的空洞聚集在参考视点上而获得的数据对应,并且可包括空洞部分442和444以及非空洞部分446。
空洞图440可以是空洞部分442和444被表示为“0”而非空洞部分446被表示为“1”的二进制映射。
稍后将参照图5至图8进一步描述产生空洞图440的示例。
初始参考层450可与通过对被指示为空洞图440上的空洞的区域进行处理而获得的图像对应,并且可包括图像460和视差信息470。
初始参考层450的图像460可包括前景462、背景464以及空洞466和468。
可基于参考视点图像430和空洞图440来产生初始参考层450的图像460。例如,空洞466和468可与参考视点图像430的空洞部分442和444对应。前景462或背景464可与参考视点图像430的非空洞部分446对应。
初始参考层450的视差信息470可以是参考视点视差信息435。可选择地,可基于参考视点视差信息435和空洞图440来产生初始参考层450的视差信息470。例如,视差信息470可包括与前景462对应的前景视差信息472、与背景464对应的背景视差信息474以及空洞476和478。
可通过在参考视点图像430和空洞图440之间执行AND(逻辑与)运算来产生初始参考层450的图像460。通过执行AND运算,空洞466和468可与“0”对应,例如,与参考视点图像430中的空洞图440的空洞部分422和444对应。在参考视点图像430中,与“1”对应的部分(例如,空洞图440的非空洞部分446)可不受AND运算的影响。因此,即使在执行了AND运算之后,所述部分可继续保持为前景462或背景464。
也就是说,针对与初始参考层450的图像460中的非空洞部分446对应的前景462和464,参考视点图像430可被“原样”使用。同时,图像460中的空洞466和468可与空洞部分442和444对应。可选择地,针对与初始参考层450的视差信息470中的非空洞部分446对应的前景视差信息472和背景视差信息474,参考视点视差信息435可被原样使用。视差信息470中的与空洞部分442和444对应的区域可以是空洞476和478。
可通过针对初始参考层450的图像460的空洞恢复处理来产生所有空洞已被填充的参考层480。参考层480可包括图像490和视差信息495。由于空洞已通过空洞恢复处理被填充,因此图像490和视差信息495通常不包括空洞。
可使用例如修补、空洞填充等来填充初始参考层450内的空洞。
例如,可使用与初始参考层450内空洞邻近的背景部分来执行针对初始参考层450内的空洞的空洞恢复。例如,可使用例如背景464的与空洞466或468邻近的部分的颜色的信息来填充初始参考层450的图像460内的空洞466或468。可使用背景视差信息474中的与空洞476或478邻近的部分的视差来填充初始参考层450的视差信息470内的空洞476或478。
例如,可使用不同的视点输入视图(例如,不同输入视图的图像和视差信息)来执行针对初始参考层450内的空洞的空洞恢复。
由于参考层被连续保存,因此可使用时间上在前的参考层(例如,使用时间上在前的参考层的图像和视差信息),执行针对初始参考层450内的空洞的空洞恢复。例如,时间上在前的参考层可与先前帧的图像数据对应。
可通过扩展空洞周围的背景的视差来执行针对初始参考层的视差信息495内的空洞的空洞恢复。
图5示出用于描述根据实施例的产生空洞图的原理的示图。
可能由于参考视点图像内的邻近区域(例如,彼此相邻的左像素和右像素)的视差之间的差而出现输出图像内的空洞。
当对应像素具有比所述像素的左像素更大的视差时(例如,当通过从所述像素的视差减去左像素的视差而获得的值ΔdL大于“0”)时,在从参考视点向左扭曲的输出图像内的所述像素的左侧可能出现空洞。
当所述像素具有比所述像素的右像素更大的视差时(例如,当通过从所述像素的视差减去右像素的视差而获得的值ΔdR大于“0”)时,在从参考视点向右扭曲的输出图像内的所述像素的右侧可能出现空洞。
可通过将参考视点视图420或参考视点图像430向左扭曲来产生第一输出图像510。在第一输出图像510内的前景512的左侧可能出现与ΔdL(例如,20个像素)对应的空洞516。可通过将参考视点视图420向右扭曲来产生第二输出图像520。在第二输出图像520内的前景522的右侧可能出现与ΔdR(例如,20个像素)对应的空洞526。
因此,可通过分析参考视点视图420内的邻近像素之间的视差之差(disparity difference)来预测在预定视点的输出图像内出现的空洞区域。
可通过收集或聚集作为参考视点图像的通过将参考视点视图420扭曲到预定视点而出现的空洞来配置空洞图440。
图6示出用于描述根据实施例的产生空洞图的方法的示图。
为了预测当产生(诸如多视图图像中的)至少一个输出视图时可能出现的空洞区域,可计算参考视点视图420内的像素之间的视差之差。
视差之差可包括左差(left difference)ΔdL和右差(right difference)ΔdR所述左差可以是相对于与所述像素的左侧邻近的像素(在下文中,左像素)的差。所述右差可以是相对于与所述像素的右侧邻近的像素(在下文中,右像素)的差。
参考视点视差信息435内的预定水平线610的视差被表示为图(graph)620。
基于如图表620中所示的视差之差,通过参考视点图像430内的前景432封闭的区域可被确定为空洞区域。
可基于1)左视差之差、2)右视差之差、3)输入视图之间的输入基线以及4)最外侧的输出视图的视点之间的距离,计算通过前景432封闭的区域。
可基于参考视点图像430内的像素之间的视差之差(例如,ΔdL和ΔdR)产生空洞图440。
在下文中,将描述确定通过前景封闭的区域(例如,被设置为空洞的像素)的示例。
当第一像素的第一视差比与第一像素的左侧邻近的第二像素的第二视差至少大一阈值时(例如,当第一像素的ΔdL大于所述阈值时),从第一像素的右侧起的像素可被设置为空洞。所述像素的数量可对应于α·ΔdL。被设置为空洞的像素的数量可与第一视差和第二视差之间的差成比例。这里,α表示常量。
当第一像素的第一视差比与第一像素的右侧邻近的第三像素的第三视差至少大一阈值时(例如,当第一像素的ΔdR大于所述阈值时),从第一像素的左侧起的像素可被设置为空洞。像素的数量可对应于α·ΔdR。被设置为空洞的像素的数量可与第一视差和第三视差之间的差成比例。
第一区域630和第二区域640可基于像素之间的视差之差来指示空洞区域(例如,被确定为通过前景432被封闭的区域)。
第二图表650示出与差ΔdL或ΔdR以及α成比例地设置或计算第一区域630和第二区域640的示例。
将参照图7进一步描述计算α的示例。
通过复制至少一个像素而被设置为空洞的区域可被存储为单个空洞区域。
图7示出用于描述根据实施例的确定被设置为空洞的像素的数量的方法的示图。
输入基线可指示输入视图之中的最左输入视图710的视点与最右输入视图720的视点之间的距离。
最左输出视图730可以是基于至少一个输入视图而产生的输出视图中具有最左视点的输出视图。最右输出视图740可以是具有最右视点的输出视图。
例如,可根据等式1计算α。
[等式1]
例如,当输出视图的视点之间的最大距离是输入视图的视点之间的最大距离的两倍时,α可变为“2”。
图8示出根据实施例的产生空洞图的处理。
图1的操作124可包括以下空洞图产生方法的操作810和820。
如以上参照图4至图6所述,可基于参考视点视差信息来产生空洞图440。
在操作810,参考视点视图420内的每个像素的视差之差(例如,左差ΔdL和右差ΔdR)可被计算并可被存储以预测当产生至少一个输出图像时可能出现的空洞区域。
在操作820,使用计算的不同视差,通过前景被封闭的区域可被确定为空洞区域。
在操作830,可使用被确定为空洞区域的区域来配置空洞图440。操作810至830可使用针对诸如多视图装置的多个视点中的每个视点的空洞信息而被重复。
图9示出用于描述根据实施例的产生输出视点图像并执行针对输出视点图像内的空洞的空洞恢复的原理的示图。
可使用至少一个参考视图产生第一输出图像910和第二输出图像920。
这里,参考视图可以是被选择以产生至少一个输入视图的预定输出图像的视图。例如,当通过内插产生输出图像时,最接近于输出图像的视点的左侧和右侧的两个输入视图可被选为参考视图。当通过外插产生输出图像时,最接近于输出图像的视点的输入视图(例如,最外侧的视图)可被选为参考视图。
例如,第一输出图像910的参考视图可与图4的输入视图410对应,第二输出图像920的参考视图可与图4的输入视图415对应。
可通过使用参考视图的视差信息将参考视图的图像扭曲到第一输出图像910的视点,来产生第一输出图像910。可通过使用参考视图的视差信息将参考视图的图像扭曲到第二输出图像920的视点,来产生第二输出图像920。
由于至少一个输入视图(例如,输入视图410和415)的视点与至少一个输出视图(例如,第一输出图像910和第二输出图像920)的视点之间的差,可产生诸如空洞912或空洞922的空洞。
可分别针对第一输出图像910和第二输出图像920产生输出视点的参考层图像930和940。
可通过使用参考层480的视差信息495扭曲参考层480的图像490来产生参考层图像930和940。
参考层的扭曲可被视为一种用于将参考层480内的空洞恢复所需的信息扩展至每个输出视点的方式。
可使用被扭曲到第一输出图像910的视点的参考层图像930来执行针对第一输出图像910内的空洞912的空洞恢复。参考层图像930的与空洞912对应的区域932可被用于空洞恢复。
被扭曲到第二输出图像920的视点的参考层图像940的区域942可被用于针对空洞922的空洞恢复。
可通过将第一输出图像910与扭曲的参考层图像930或将第二输出图像920与扭曲的参考层图像940进行合成来产生已执行了空洞恢复的输出图像950或960。
扭曲的参考层图像930或940可被视为输出图像950或960的视点处的背景信息。例如,参考层480的图像490通过扭曲可被用作第一输出图像950或第二输出图像960的背景。由于上述特性,参考层480可被称为参考背景层。初始参考层450可被称为初始参考背景层。
图10示出根据实施例的产生输出视点图像并执行针对输出视点图像内的空洞的空洞恢复的处理。
图10的操作1010至1050可被执行以产生预定输出视点处的最终输出图像。
图1的操作130可包括操作1010和1020。
在操作1010,可从至少一个输入视图选择至少一个参考视图。
所述至少一个参考视图可被选择以从所述至少一个输入视图产生预定输出视图。当通过外插产生输出图像时,单个输入视图可被选为参考视图。当通过内插产生输出图像时,两个输入视图可被选为参考视图。
在操作1020,可通过使用选择的至少一个参考视图的视差信息将参考视图图像扭曲至输出视图的输出视点,产生输出视点图像(例如,第一输出图像910或第二输出图像920)。
图1的操作140可包括操作1030、1040和1050。
在操作1030,第一输出图像910的空洞912或第二输出图像920的空洞922可被选择。
在操作1040,可通过使用参考层480的视差信息495将参考层480的图像490扭曲至输出视点,来产生输出视点的参考层图像930或940。
在操作1050,参考层图像930的与空洞912对应的区域932或参考层图像940的与空洞922对应的区域942可被复制到空洞912或922。也就是说,可通过将区域932或942的例如颜色的信息复制到空洞912或922来执行针对空洞912或922的空洞恢复。
可使用参考层480的信息执行针对第一输出图像910的空洞912或第二输出图像920的空洞922的空洞恢复。例如,对空洞912或922的恢复不需要针对每个视点被独立执行。可通过将参考层480的图像490和视差信息495扩展至第一输出图像910内的空洞912或第二输出图像920内的空洞922来执行针对空洞912或922的空洞恢复。
可通过基于参考视点处的视图信息执行针对所有输出图像内的空洞的空洞恢复,从而解决输出图像之间的视觉不一致。另外,(诸如在操作128)可仅执行单次空洞恢复,而不是重复空洞恢复处理(其次数与产生的输出视点的图像的数量对应),因此,可降低操作重复。
图11示出根据实施例的图像处理设备1100的配置。
参照图11,图像处理设备110可包括例如参考视点确定单元1110、参考层产生器1120、输出视点图像产生器1170、空洞恢复单元1180和输出单元1190。
图像处理设备1100的输入可包括至少一个输入视图。图像处理设备1100可输出至少一个输出视图或至少一个输出视点图像。
参考视点确定单元1110可执行操作1100,并可确定参考视点。参考视点确定单元1100的输入可包括至少一个输入视图。
参考层产生器1120可执行操作122至128。参考层产生器1120可使用至少一个输入视图来产生关于参考视点的参考层480。
输出视点图像产生器1170可执行操作1130。输出视点图像产生器1170可使用所述至少一个输入视图产生输出视点图像(例如,第一输出图像910和第二输出图像920)。
空洞恢复单元1180可执行操作140。空洞恢复单元1180可使用参考层480执行针对输出视点图像内的空洞(例如,第一输出图像910的空洞912或第二输出图像920的空洞922)的空洞恢复。
参考层产生器1120可包括参考视点图像/视差信息产生器1130、空洞图产生器1140、初始参考层产生器1150和参考层产生器1160。
参考视点图像/视差信息产生器1130可执行操作122。参考视点图像/视差信息产生器1130可使用所述至少一个输入视图产生参考视点图像430和参考视点视差信息435。
空洞图产生器1140可执行操作124。空洞图产生器1140可产生关于参考视点的空洞图440。空洞图产生器1140的输入可以是参考视点视差信息435。例如,空洞图产生器1140可输出空洞图440。
初始参考层产生器1150可执行操作126。初始参考层产生器1150可使用空洞图440、参考视点图像430和参考视点视差信息435产生初始参考层450。
参考层产生器1160可执行操作128。参考层产生器1160可通过恢复初始参考层内的空洞来产生参考层。
空洞图产生器1140可包括例如差计算器1142、空洞区域计算器1144和空洞图配置单元1146。
差计算器1142可执行操作810。为了预测当产生至少一个输出图像(例如,第一输出图像910和第二输出图像920)时可能出现的空洞区域,差计算器1142可计算并存储参考视点视图420内的每个像素的视差之差(例如,左差ΔdL和右差ΔdR)。
空洞区域计算器1144可执行操作820。空洞区域计算器1144可使用计算的视差之差将通过前景封闭的区域确定为空洞区域。
空洞图配置单元1146可执行操作830。空洞图配置单元1146可使用被确定为空洞区域的区域来配置空洞图440。
输出视点图像产生器可包括例如参考视图选择器1172和参考视图扭曲单元1174。
参考视图选择器1172可执行操作1010。参考视图选择器1172可从所述至少一个输入视图选择至少一个参考视图。
参考视图扭曲单元1174可通过使用选择的至少一个参考视图的视差信息将参考视图图像扭曲至输出视图的输出视点,来产生输出视点图像(例如,第一输出图像910和第二输出图像920)。参考视图扭曲单元1174的输入可包括参考视图或所述至少一个输入视图的一部分或全部。参考视图扭曲单元1174可输出所述输出视点图像(例如,第一输出图像910和第二输出图像920)。
空洞恢复单元1180可包括例如参考层扭曲单元1182、空洞区域检测器1184和空洞区域复制器1186。
参考层扭曲单元1182可执行操作1040。参考层扭曲单元1182可通过使用参考层480的视差信息将参考层480的图像490扭曲至输出视点,来产生输出视点的参考层图像930或940。参考层扭曲单元1182的输入可包括参考层480。参考层扭曲单元1182可输出所述输出视点的参考层图像(例如,参考层图像930或940)。
空洞区域检测器1184可执行操作1030。空洞区域检测器1184可检测由参考视图扭曲单元1174产生的输出图像内的空洞(例如,第一输出图像910的空洞912或第二输出图像920的空洞922)。空洞区域检测器1184的输入可包括输出视点图像(例如,第一输出图像910或第二输出图像920以及输出视点的参考层图像930或940)。
空洞区域复制器1186可执行操作1050。空洞区域复制器1186可将参考层图像930的与空洞912对应的区域932或参考层图像940的与空洞922对应的区域942复制到空洞912或922。空洞区域复制器1186的输入可以是输出视点图像(例如,第一输出图像910或第二输出图像920以及输出视点的参考层图像930或940)。空洞区域复制器1186可将被执行了空洞恢复的输出图像950或960输出为输出视点的最终图像。
在上述组成元件之间描述的关系仅是示例。例如,参考视点图像/视差信息产生器1130可包括在参考视点确定单元1110中。参考层扭曲单元1182可包括在输出视点图像产生器1170中。
可由控制单元(未示出)执行上述组成元件的功能。这里,控制单元可指示单个芯片或多个芯片、处理器或核(core)。所述组成元件中的每一个可指示由控制单元执行的功能、库(library)、服务、处理、线程或模块。
以上参照图1至图10进行的技术描述可原样适用于本实施例,因此,这里将省略进一步的描述。
根据上述实施例的图像处理方法可被记录在非暂时性计算机可读介质中,所述非暂时性计算机可读介质包括程序指令以实施由计算机执行的各种操作。所述介质可单独包括程序指令、数据文件、数据结构等或可包括与程序指令结合的数据文件、数据结构等。非暂时性计算机可读介质的示例包括磁介质(诸如硬盘、软盘和磁带)、光介质(诸如CD ROM盘和DVD)、磁光介质(诸如光盘)以及专门配置为存储和执行程序指令的硬件装置(诸如只读存储器(ROM)、随机存取存储器(RAM)、闪存等)。程序指令的示例包括(诸如由编译器产生的)机器代码和包含可由计算机使用解释器执行的更高级代码的文件。描述的硬件装置可被配置用作一个或多个软件模块以执行上述实施例的操作,反之亦然。
在此描述的任意一个或多个软件模块可由控制器(诸如对该单元唯一的专用处理器或对一个或多个所述模块常见的处理器)运行。描述的方法可在通用计算机或处理器上被运行,或者可在特殊机器(诸如在此描述的图像处理设备)上被运行。
图12示出根据示例实施例的包括图像处理设备的多视图显示装置1200的框图。
参照图2,多视图显示装置1200可包括例如控制器1201和图像处理设备1205。
多视图显示装置1200可以是用于显示3D图像的3D显示器的形式,并可采用多视图方案以输出两个更多个不同视点。3D显示器的示例可包括平板计算装置、便携式游戏装置、3D电视显示器或便携式3D监控器(诸如膝上型计算机)。
控制器1201可产生用于控制多视图显示装置1200并将由多视图显示装置1200显示的一个或多个控制信号。控制器1201可包括一个或多个处理器。
图像处理设备1205可被用于产生针对多视图显示装置1200的多视图图像,并可与例如图11中示出的图像处理设备1100对应。因此,图像处理设备1205可包括例如参考视点确定单元1110、参考层产生器1120、输出视点图像产生器1170、空洞恢复单元1180和输出单元1190。尽管在图12中没有示出,但这些单元中的每一个可对应于例如针对图11在此讨论的类似命名的单元,因此这里不需要被进一步讨论。
图像处理设备1205可被内部安装在多视图显示装置1200内,可被附于多视图显示装置1200或者可与多视图显示装置1200分离地实施。不管它的物理配置如何,图像处理设备1205具有在此讨论的所有功能。图像处理设备1205可包括一个或多个内部处理器或者可由多视图显示装置1200内包括的一个或多个处理器(诸如控制器1201的一个或多个处理器)控制。
尽管已具体显示和描述了实施例,但是本领域的技术人员应该理解,在不脱离本公开的原理和精神情况下,可以对这些实施例进行各种改变,本公开的范围由权利要求及其等同物限定。

Claims (23)

1.一种图像处理方法,包括:
使用至少一个输入视图产生关于参考视点的参考层;
使用所述至少一个输入视图产生输出视点图像;
使用参考层执行针对输出视点图像内的空洞的空洞恢复,
其中,产生参考层的步骤包括:
使用所述至少一个输入视图产生参考视点图像和参考视点视差信息;
产生关于参考视点的空洞图,其中,在所述空洞图中,与每个输出视点图像内的空洞相关的信息被收集;
使用空洞图、参考视点图像和参考视点视差信息来产生初始参考层;
通过执行针对初始参考层内的空洞的空洞恢复来产生参考层。
2.如权利要求1所述的方法,其中,每个输入视图包括图像和视差信息,参考层包括参考层的图像和参考层的视差信息。
3.如权利要求1所述的方法,其中:
所述至少一个输入视图包括左输入视图和右输入视图;
参考视点包括左输入视图的视点与右输入视图的视点之间的视点。
4.如权利要求1所述的方法,其中,参考视点包括所述至少一个输入视图中的中心输入视图的视点。
5.如权利要求1所述的方法,其中,基于包括在参考视点图像中的像素的视差之间的差来产生空洞图。
6.如权利要求1所述的方法,其中,通过在参考视点图像和空洞图之间执行AND运算来产生初始参考层的图像。
7.如权利要求1所述的方法,其中,使用与初始参考层内的空洞邻近的背景来执行针对初始参考层内的空洞的空洞恢复。
8.如权利要求1所述的方法,其中:
当第一像素的第一视差比与第一像素的左侧邻近的第二像素的第二视差至少大第一阈值时,从第一像素的右侧起的像素被设置为空洞,并且被设置为空洞的像素的数量与第一视差和第二视差之间的差成比例;
当第一像素的第一视差比与第一像素的右侧邻近的第三像素的第三视差至少大第二阈值时,从第一像素的左侧起的像素被设置为空洞,并且被设置为空洞的像素的数量与第一视差和第三视差之间的差成比例。
9.如权利要求2所述的方法,其中,产生输出视点图像的步骤包括:
从所述至少一个输入视图选择至少一个参考视图;
通过使用参考视图视差信息将参考视图图像扭曲至输出视点,来产生输出视点图像;
其中,执行空洞恢复的步骤包括:
通过使用参考层的视差信息将参考层图像扭曲至输出视点,来产生输出视点的参考层图像;
将与输出视点的参考层图像中的空洞对应的区域复制到所述空洞。
10.如权利要求1所述的方法,其中,提供多个输出视点图像。
11.一种图像处理设备,包括:
参考层产生器,用于使用至少一个输入视图产生关于参考视点的参考层;
输出视点图像产生器,用于使用所述至少一个输入视图产生输出视点图像;
空洞恢复单元,用于使用参考层执行针对输出视点图像内的空洞的空洞恢复,
其中,参考层产生器包括:
参考视点图像/视差信息产生器,用于使用所述至少一个输入视图产生参考视点图像和参考视点视差信息;
空洞图产生器,用于产生关于参考视点的空洞图,其中,在所述空洞图中,与每个输出视点图像内的空洞相关的信息被收集;
初始参考层产生器,用于使用空洞图、参考视点图像和参考视点视差信息来产生初始参考层;
参考层产生器,用于通过执行针对初始参考层内的空洞的空洞恢复来产生参考层。
12.如权利要求11所述的图像处理设备,其中,每个输入视图包括图像和视差信息,参考层包括参考层的图像和参考层的视差信息。
13.如权利要求11所述的图像处理设备,其中:
所述至少一个输入视图包括左输入视图和右输入视图;
参考视点包括左输入视图的视点与右输入视图的视点之间的视点。
14.如权利要求11所述的图像处理设备,其中,参考视点包括所述至少一个输入视图中的中心输入视图的视点。
15.如权利要求11所述的图像处理设备,其中,基于包括在参考视点图像中的像素的视差之间的差来产生空洞图。
16.如权利要求11所述的图像处理设备,其中,通过在参考视点图像和空洞图之间执行AND运算来产生初始参考层。
17.如权利要求11所述的图像处理设备,其中,使用与初始参考层内的空洞邻近的背景来执行针对初始参考层内的空洞的空洞恢复。
18.如权利要求11所述的图像处理设备,其中:
当第一像素的第一视差比与第一像素的左侧邻近的第二像素的第二视差至少大第一阈值时,从第一像素的右侧起的像素被设置为空洞,并且被设置为空洞的像素的数量与第一视差和第二视差之间的差成比例;
当第一像素的第一视差比与第一像素的右侧邻近的第三像素的第三视差至少大第二阈值时,从第一像素的左侧起的像素被设置为空洞,并且被设置为空洞的像素的数量与第一视差和第三视差之间的差成比例。
19.如权利要求12所述的图像处理设备,其中,输出视点图像产生器包括:
参考视点选择器,用于从所述至少一个输入视图选择至少一个参考视图;
参考视图扭曲单元,用于通过使用参考视图视差信息将参考视图图像扭曲至输出视点来产生输出视点图像;
其中,空洞恢复单元包括:
参考层扭曲单元,用于通过使用参考层的视差信息将参考层图像扭曲至输出视点,来产生输出视点的参考层图像;
空洞区域复制单元,用于将与输出视点的参考层图像中的空洞对应的区域复制到所述空洞。
20.如权利要求11所述的图像处理设备,其中,提供多个输出视点图像。
21.一种图像处理方法,包括:
基于至少一个输入视图图像和输入视差来计算参考视点图像和参考视点视差;
基于参考视点视差构建与参考视点对应的空洞图;
使用空洞图和参考视点图像来产生参考视点处的初始参考层;
通过对产生的初始参考层内的空洞执行空洞恢复来产生参考层;
从参考层向每个输出视点图像的空洞位置传播恢复的空洞信息。
22.一种图像处理方法,所述方法包括:
在单个参考视点处聚集在多个不同视点中的每一个视点处获得的空洞信息;
在所述单个参考视点处构建包括聚集的空洞信息的空洞图;
使用空洞图和参考视点图像来产生参考视点处的初始参考层;
通过对产生的初始参考层内的空洞执行空洞恢复来产生参考层;
从参考层向每个输出视点图像的空洞位置传播恢复的空洞信息。
23.一种包括图像处理设备的多视图显示装置,所述多视图显示装置包括:
参考视点图像/视差信息产生器,用于基于至少一个输入视图图像和输入视差来计算参考视点图像和参考视点视差;
空洞图产生器,用于基于参考视点视差构建参考视点处的空洞图;
初始参考层产生器,用于使用空洞图以及参考视点图像和参考视点视差,产生参考视点处的初始参考层;
参考层产生器,用于通过对产生的初始参考层内的空洞执行空洞恢复来产生参考层;
空洞恢复单元,用于从参考层向每个输出视点图像的空洞位置传播恢复的空洞信息。
CN201210192069.XA 2011-06-10 2012-06-11 图像处理方法和设备 Expired - Fee Related CN102821293B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161495436P 2011-06-10 2011-06-10
US61/495,436 2011-06-10
KR10-2011-0118334 2011-11-14
KR1020110118334A KR20120137205A (ko) 2011-06-10 2011-11-14 영상 처리를 위한 방법 및 장치

Publications (2)

Publication Number Publication Date
CN102821293A CN102821293A (zh) 2012-12-12
CN102821293B true CN102821293B (zh) 2016-11-02

Family

ID=46598363

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210192069.XA Expired - Fee Related CN102821293B (zh) 2011-06-10 2012-06-11 图像处理方法和设备

Country Status (4)

Country Link
US (1) US20120313932A1 (zh)
EP (1) EP2533212A1 (zh)
JP (1) JP6184062B2 (zh)
CN (1) CN102821293B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102156402B1 (ko) * 2013-11-05 2020-09-16 삼성전자주식회사 영상 처리 방법 및 장치
EP2960864B1 (en) * 2014-06-23 2018-12-05 Harman Becker Automotive Systems GmbH Device and method for processing a stream of video data
KR102350235B1 (ko) 2014-11-25 2022-01-13 삼성전자주식회사 영상 처리 방법 및 장치
CN104574311B (zh) * 2015-01-06 2017-08-11 华为技术有限公司 图像处理方法和装置
KR20170046434A (ko) * 2015-10-21 2017-05-02 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
US10204418B2 (en) * 2016-09-07 2019-02-12 Nokia Technologies Oy Method and apparatus for facilitating stereo vision through the use of multi-layer shifting
WO2023225825A1 (zh) * 2022-05-23 2023-11-30 上海玄戒技术有限公司 位置差异图生成方法及装置、电子设备、芯片及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556700A (zh) * 2009-05-15 2009-10-14 宁波大学 一种虚拟视点图像绘制方法
CN100576934C (zh) * 2008-07-03 2009-12-30 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
CN101911124A (zh) * 2007-12-26 2010-12-08 皇家飞利浦电子股份有限公司 用于覆盖图形对象的图像处理器

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3826236B2 (ja) * 1995-05-08 2006-09-27 松下電器産業株式会社 中間像生成方法、中間像生成装置、視差推定方法、及び画像伝送表示装置
CA2511040A1 (en) * 2004-09-23 2006-03-23 The Governors Of The University Of Alberta Method and system for real time image rendering
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
CN101390131B (zh) * 2006-02-27 2013-03-13 皇家飞利浦电子股份有限公司 呈现输出图像
TWI314832B (en) * 2006-10-03 2009-09-11 Univ Nat Taiwan Single lens auto focus system for stereo image generation and method thereof
US8207962B2 (en) * 2007-06-18 2012-06-26 Mediatek Inc. Stereo graphics system based on depth-based image rendering and processing method thereof
US20100220932A1 (en) * 2007-06-20 2010-09-02 Dong-Qing Zhang System and method for stereo matching of images
CN102239506B (zh) * 2008-10-02 2014-07-09 弗兰霍菲尔运输应用研究公司 中间视合成和多视点数据信号的提取
EP2180449A1 (en) * 2008-10-21 2010-04-28 Koninklijke Philips Electronics N.V. Method and device for providing a layered depth model of a scene
JP5209121B2 (ja) * 2009-09-18 2013-06-12 株式会社東芝 視差画像生成装置
KR101752690B1 (ko) * 2010-12-15 2017-07-03 한국전자통신연구원 변이 맵 보정 장치 및 방법
KR101798408B1 (ko) * 2011-01-03 2017-11-20 삼성전자주식회사 3d 디스플레이를 위한 고품질 멀티-뷰 영상의 생성 방법 및 장치
US8666146B1 (en) * 2011-01-18 2014-03-04 Disney Enterprises, Inc. Discontinuous warping for 2D-to-3D conversions
US8994722B2 (en) * 2011-02-14 2015-03-31 Mitsubishi Electric Research Laboratories, Inc. Method for enhancing depth images of scenes using trellis structures
US20120206578A1 (en) * 2011-02-15 2012-08-16 Seung Jun Yang Apparatus and method for eye contact using composition of front view image
US20120262542A1 (en) * 2011-04-15 2012-10-18 Qualcomm Incorporated Devices and methods for warping and hole filling during view synthesis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101911124A (zh) * 2007-12-26 2010-12-08 皇家飞利浦电子股份有限公司 用于覆盖图形对象的图像处理器
CN100576934C (zh) * 2008-07-03 2009-12-30 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
CN101556700A (zh) * 2009-05-15 2009-10-14 宁波大学 一种虚拟视点图像绘制方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Depth-image-based rendering (DIBR), compression, and transmission for a new approach on 3D-TV;Christoph Fehn;《Proc. of SPIE-IS&T Electronic Imaging》;20041231;第5291卷;第93-104页 *
Reliability-based Generation and View Synthesis in Layered Depth Video;Karsten Muller et.al.;《2008 IEEE 10th workshop on Multimedia Signal Processing》;20081008;第34-39页 *
Three-Dimensional Video Postproduction and Processing;Aljoscha Smolic et.al.;《Proceedings of the IEEE》;20110430;第99卷(第4期);第607-625页 *
View synthesis techniques for 3D video;Dong Tian et.al.;《Proc. of SPIE》;20091231;第7443卷;第74430T-1至74430T-11页 *

Also Published As

Publication number Publication date
JP2013005440A (ja) 2013-01-07
EP2533212A1 (en) 2012-12-12
US20120313932A1 (en) 2012-12-13
JP6184062B2 (ja) 2017-08-23
CN102821293A (zh) 2012-12-12

Similar Documents

Publication Publication Date Title
CN102821293B (zh) 图像处理方法和设备
CN101902657B (zh) 一种基于深度图分层的虚拟多视点图像的生成方法
CN103096106B (zh) 图像处理设备和方法
CN101803395B (zh) 3d显示器的呈现改善
KR101497503B1 (ko) 2차원 영상의 3차원 영상 변환을 위한 깊이 맵 생성 방법 및 장치
CN108513123B (zh) 一种集成成像光场显示的图像阵列生成方法
CN105678836A (zh) 在具备立体功能的显示器上呈现三维视频图像
CN102972038A (zh) 图像处理装置、图像处理方法、程序、集成电路
CN104052983A (zh) 使用显示控制器窗口的高效自动立体支持
CN102834849A (zh) 进行立体视图像的描绘的图像描绘装置、图像描绘方法、图像描绘程序
CN108573521B (zh) 基于cuda并行计算框架的实时交互式裸眼3d显示方法
CN103826114B (zh) 一种立体显示方法及自由立体显示装置
CN102687178A (zh) 用于产生多视图的渲染设备和方法
CN110096993A (zh) 双目立体视觉的目标检测设备及方法
US9495793B2 (en) Method and device for generating an image view for 3D display
CN106231287A (zh) 一种增强用户体验的裸眼3d图像设计方法
CN105957068A (zh) 构建三维重建模型表面的方法和系统
CN102768761B (zh) 一种基于透视变换的立体视频绘制方法
US20170116777A1 (en) Image processing method and apparatus
KR102091860B1 (ko) 영상 부호화 방법 및 장치
CN1848179B (zh) 高效z测试
CN103945206B (zh) 一种基于相似帧比较的立体图像合成系统
CN104717514A (zh) 多视点图像渲染系统及方法
CN103250185B (zh) 使用能量值的图像处理装置及其图像处理方法和显示方法
CN103871094A (zh) 一种基于体扫描三维显示系统数据源生成方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20161102

Termination date: 20180611