CN101923728A - 将二维图像转换为三维图像的转换装置及方法 - Google Patents
将二维图像转换为三维图像的转换装置及方法 Download PDFInfo
- Publication number
- CN101923728A CN101923728A CN2010102058615A CN201010205861A CN101923728A CN 101923728 A CN101923728 A CN 101923728A CN 2010102058615 A CN2010102058615 A CN 2010102058615A CN 201010205861 A CN201010205861 A CN 201010205861A CN 101923728 A CN101923728 A CN 101923728A
- Authority
- CN
- China
- Prior art keywords
- image
- disparity map
- depth value
- optionally
- illumination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
公开了一种将二维(2D)图像转换为三维(3D)图像的图像转换装置及方法。所述图像转换装置可选择性地调整2D图像内的光照,生成经光照调整的图像的视差图,并基于边缘区别选择性地调整视差图的深度值。
Description
本申请要求于2009年6月16日提交到韩国知识产权局的第10-2009-0053462号韩国专利申请的权益,该申请的公开通过引用全部包含于此。
技术领域
一个或多个实施例涉及一种将二维(2D)图像转换为三维(3D)图像的图像转换装置和方法。
背景技术
最近,3D显示装置得到了发展并提供了具有真实的3D效果和真实性的3D图像。因此,对3D内容的需求在持续增长。
一般来说,通常需要基于多种视点的2D图像来提供3D图像。然而,这种方案不适用于先前基于单一视点制作的2D图像。因此,2D图像到3D图像的转换可使下一代显示装置能够利用先前生成的仅用一个视点制作的内容。
用于将2D图像数据转换为3D图像数据的技术先前涉及视差图的使用,所述视差图表示相关图像(例如,从有相同视野的各自的左2D相机和右2D相机捕获的图像)之间的视差。当图像之间的视差低时,能够推断出查看的对象/点接近查看位置,但当视差大时,能够推断出查看的对象/点远离查看位置。这里,例如,可只依赖左图像或右图像中的一个图像,从而能够参考映射两幅图像之间的差别的视差图而从那个图像生成3D图像。同样,能够从参考视差图中对应的/相关的位置获得选择的图像内的各个像素或参考像素的深度。视差图与对应的深度图之间的关系可因此是线性的。因此,用已知的视差图和对应的2D图像,就可将2D图像转换为3D图像。当仅有单一视点图像可用时,也可为单一的2D图像执行视差估计,其中,从单一的2D图像的分析估计视差图。
发明内容
根据一个或多个实施例,可提供一种图像转换装置,包括:光照调整单元,选择性地调整二维(2D)图像内的光照;视差图生成单元,生成用于将调整的2D图像转换为三维(3D)图像的视差图。
根据一个或多个实施例,可提供一种图像转换装置,包括:视差图生成单元,生成用于将2D图像转换为3D图像的视差图;深度锐化单元,选择性地调整视差图内的深度值来锐化由视差图的深度值表示的对象或区域的边界。
根据一个或多个实施例,可提供一种图像转换装置,包括:光照调整单元,选择性地调整2D图像内的光照;视差图生成单元,生成用于将调整的2D图像转换为3D图像的视差图;深度锐化单元,选择性地调整视差图内的深度值以锐化由视差图的深度值表示的对象或区域的边界。
根据一个或多个实施例,可提供一种图像转换方法,包括:选择性地调整2D图像内的光照;生成用于将调整的2D图像转换为3D图像的视差图。
根据一个或多个实施例,可提供一种图像转换方法,包括:生成用于将2D图像转换为3D图像的视差图;选择性地调整视差图内的深度值来锐化由视差图的深度值表示的对象或区域的边界。
根据一个或多个实施例,可提供一种图像转换方法,包括:选择性地调整2D图像内的光照;生成用于将调整的2D图像转换为3D图像的视差图;选择性地调整视差图内的深度值以锐化由视差图的深度值表示的对象或区域的边界。
将在接下来的描述中部分阐述另外的方面和/或优点,还有一部分通过描述将是清楚的,或者可以经过实施例的实施而得知。
附图说明
通过下面结合附图进行的实施例的描述,这些和/或其他方面和优点将会变得清楚并更容易理解,其中:
图1示出根据一个或多个实施例的用光照调整来将二维(2D)图像转换为三维(3D)图像的图像转换装置;
图2示出根据一个或多个实施例的用深度锐化来将2D图像转换为3D图像的图像转换装置;
图3示出根据一个或多个实施例的用光照调整和深度锐化来将2D图像转换为3D图像的图像转换装置;
图4是根据一个或多个实施例的用于执行色调映射的曲线图;
图5示出根据一个或多个实施例的通过使用特征信息来执行平滑滤波的处理;
图6示出根据一个或多个实施例的用光照调整来将2D图像转换为3D图像的图像转换方法;
图7示出根据一个或多个实施例的用深度锐化来将2D图像转换为3D图像的图像转换方法;
图8示出根据一个或多个实施例的调整深度值的过程(例如,图7的深度值调整过程);
图9示出根据一个或多个实施例的调整深度值的另一过程(例如,图7的深度值调整过程);
图10示出根据一个或多个实施例的调整深度值的另一过程(例如,图7的深度值调整过程)。
具体实施方式
现在将详细参考实施例,其示例在附图中被示出,其中,相同的标号始终表示相同的部件。在这点上,本发明的实施例可按多种不同的形式被实施并不应被解释为仅限于在此阐述的实施例,因此,通过参考附图,仅在下面描述实施例以解释本发明的多个方面。
简要地讲,图3示出根据一个或多个实施例的将2D图像转换为3D图像的图像转换装置300。参照图3,将2D图像转换为3D图像的图像转换装置300可包括:例如,光照调整单元310、视差图生成单元320和深度锐化单元330。通过对显示光照调整单元的图1和显示深度锐化单元的图2的讨论,将在下面更详细地阐述图3的进一步描述及对应的实施例,应该注意,可替代的实施例也是可用的。这里,可通过用于视差估计的一种或多种公知技术来实现例如通过视差图生成单元320的视差估计。
因此,图1示出根据一个或多个实施例的用光照调整来将二维(2D)图像转换为三维(3D)图像的图像转换装置100。如上所述,图1示出例如用光照调整单元110和视差图生成单元120来将2D图像转换为3D图像的图像转换装置100。
例如,关于上述传统的视差估计,发明人发现,当通过这样的视差估计来生成2D图像的视差图时,由于深度在亮区域或暗区域中被错误地平滑,对象之间的区别可能削弱。因此,基于此视差估计的稍后渲染的3D效果可能比预期表现出更低质量的图像。例如,视差图可能不能准确地区分出2D图像内的点之间的视差/深度的差别。为防止所述区别的削弱,可调整2D图像的光照。
因此,光照调整单元110可选择性地调整将被转换为3D图像的2D图像内的光照。在一个实施例中,仅作为示例,通过这样的光照调整,原始输出图像的暗区域中的对比度可被增强,并且过亮的区域中的高对比度可被降低。在实施例中,可在视差估计期间通过最大地排除光照影响来反映对象的原始颜色。
在实施例中,光照调整单元110可通过使用存储与原始光照值对应的调整光照值的查找表来执行2D图像的色调映射。所述色调映射可以是执行针对整个2D图像的映射的全局色调映射或者是执行对2D图像的各个部分的映射的局部色调映射。尽管全局色调映射在横跨场景的光照特征(描述性的统计数字,例如平均值和偏差)是恒定的情况下会是足够的,但如果具有不同特征的区域同时在场景中出现,则这样的局部色调映射会产生更好的结果。这里,局部色调映射可通过在不同的区域中使用不同的映射曲线来自适应地处理所有的区域。在实施例中,局部区域的范围可以是固定大小的窗口,也可以是可变窗口,并且区域还可被定义为可变大小的圆块,其中,各圆块具有相似的光照特征,并且相邻的圆块不共享相同的属性。此外,仅作为示例,所述查找表可以是伽马校正表或对数校正表中的至少一个,其中,光照被降低到它的对数。将参照图4详细描述所述查找表。
图4示出根据一个或多个实施例的用于执行色调映射的曲线图。
如图4所述,伽马校正曲线图的X-轴可表示原始值,伽马校正曲线图的Y-轴可表示校正值,可提供如图4中给出的调整值关于原始值的曲线410。
再次参照图1,在实施例中,当2D图像是RGB图像时,可通过使用用于RGB图像的各通道的单独查找表来执行色调映射。此外,可将单一的查找表应用于所有通道。
此外,光照调整单元110可通过使用2D图像的强度的平均值和2D图像的强度的分散度的至少一个来执行2D图像的强度值的归一化。所述归一化可针对例如2D图像的各个部分、整个2D图像或两者的结合被执行,并可通过使用归一化的强度值来调整强度范围。在实施例中,用于归一化的强度值的示例可以是亮度强度值。
视差图生成单元120可生成用于将2D图像转换为3D图像的视差图。在本实例中,可在视差图的生成的同时或在视差图的生成之前执行上述光照的调整。如上所述,可在视差图的生成的时间或在视差图的生成之前调整2D图像的光照,因而,可提供将2D图像转换为3D图像并且即使在亮区域或暗区域也能增加对象之间的区别的图像转换装置。
如上所述,图2示出根据一个或多个实施例的用深度锐化将2D图像转换为3D图像的图像转换装置200。参照图2,图像转换装置200可包括:例如,视差图生成单元210和深度锐化单元220。
视差图生成单元210可生成用于将2D图像转换为3D图像的视差图。
与目前使用视差图的2D到3D转换的上述问题类似,发明人还发现,在图像边缘区域和对应的视差图的边缘区域之间会发生不一致。例如,当对象和背景在图像中存在时,视差图中对应于对象的区域和对应于背景的区域之间的视差差别可能需要是明显的不同以最大化3D效果。然而,图像和视差图之间的相关性可能不足,因此,3D效果可能经常被削弱。
因此,在一个或多个实施例中,深度锐化单元220可选择性地调整视差图内的深度值。即,深度锐化单元220可执行视差图的深度之间的边界的锐化,从而当用户查看3D图像时,用户能够感受最大的3D效果。深度锐化滤波器可被用于调整深度值。此外,要求使用为执行边缘保留设计的深度锐化滤波器,以清楚地表现对象之间的边界。当边缘被适当地保留时,对象之间的边界会是明显的。
用于深度锐化的调整可使用将视差图的深度值分组为至少一组并平滑所述至少一组的深度值的方法。即,在视差图中具有相似深度的区域可被分组为相同组,并针对所述相同组执行平滑来获得相似深度值,反之在具有不同深度的区域可不执行平滑,从而清楚地表现对象之间的边界、对象和背景之间的边界等。这样的相似性可由阈值化处理确定(例如,如果深度值之间的差别高于一些选择的阈值,则两个区域不相似)。这里,这样的阈值可用实验的方法确定或由用户定义。
用于深度锐化的调整可通过使用双边滤波器来执行深度图的相似区域的深度值的平滑。这里,所述双边滤波器可以是使图像的线条保持清楚并平滑相似区域的深度值的滤波器。所述相似区域可以是具有相似深度值的区域,并且被包括在图像中的各个对象可以是单一的相似区域。
用于深度锐化的调整可将2D图像与视差图比较并可调整所述视差图的深度值。为实现这个目的,将2D图像与视差图比较并将所述2D图像的区域分类为边界区域和非边界区域。可通过使用例如交叉(联合)双边滤波器来平滑与非边界区域对应的视差图的深度值。即,2D图像可被用作基本图像,并可基于所述2D图像,清楚地保持视差图的线条之间的边界并可同时平滑相似区域。换句话说,例如,可使2D图像中的相似区域在视差图中具有相似的深度值,不同的区域(对象之间的边界或对象与背景之间的边界)可不被平滑,或被尽可能多的被平滑。
深度锐化单元220可包括:特征信息提取器221和平滑滤波单元222。特征信息提取器221可从2D图像提取至少一个特征信息。特征图像信息可包括例如颜色、光照、方位、纹理和动作中的至少一个的信息。
平滑滤波单元222可通过使用视差图的深度值和从特征信息提取器提取的至少一个特征信息来执行滤波并同时保留高频边缘。作为示例,可从提取的特征信息中提取关于2D图像的边界的信息,并可通过使用关于边界的信息保留2D图像的边缘。当两个这样的明显的影响被建立时,这样的平滑滤波单元222还可被称为交叉(联合)双边滤波器。这里,将参照图5更详细地描述通过使用特征信息执行深度值的调整。
图5示出根据一个或多个实施例的通过使用特征信息来执行平滑滤波的处理。
参照图5,特征提取器520可提取与将被滤波的对应视差图530的区域对应的2D图像510的至少一个特征信息,以执行视差图的区域的滤波。随后,基于与现有视差图530的深度值相关的至少一个特征信息521、522、523、524和525,可通过平滑滤波器来计算填充新视差图550的像素值。这里,仅作为示例,这样的特征信息可包括:颜色信息521、亮度信息522、方位信息523、纹理信息524和/或动作信息525,应该注意,可替代的特征同样会是可用的。
如注意到的,所述平滑滤波器可以是非线性边缘保留平滑滤波器。所述平滑滤波器可通过将高斯核(Gaussian Kernel)同时地应用到现有视差图的像素值和至少一个特征信息来执行平滑以保留高频区域。
再次参照图2,可在新的视差被生成之后或在新的视差图被生成的同时执行深度值的调整。
如上所述,视差图被调整用于将2D图像转换为3D图像,从而清楚地锐化对象之间的边界。
如注意到的,图3示出根据一个或多个实施例的将2D图像转换为3D图像的图像转换装置300。
这里,将2D图像转换为3D图像的图像转换装置300可包括:例如,光照调整单元310、视差图生成单元320和深度锐化单元330。例如,在实施例中,可将RGB帧输入到图像转换装置300,由光照调整单元310对RGB帧执行光照调整,然后基于经光照调整的RGB帧由视差图生成单元320执行视差估计,并可将RGB帧加上估计的视差提供给用于深度锐化的深度锐化单元330,导致深度锐化之后的最终的视差图的生成。在一个或多个实施例中,最终的视差图和2D图像可随后被输出作为3D数据和/或用来生成3D图像。因此,光照调整单元310可选择性地调整2D图像内的光照。即,可选择性地调整2D图像的光照来补偿在一个或多个亮区域或暗区域中的对象之间的区别的弱化。视差图生成单元320可生成用于将2D图像转换为3D图像的视差图。深度锐化单元330可选择性地调整视差图内的深度值。即,可选择性地调整视差图的深度值来更清楚地表现边缘。
当视差图被生成时,可执行光照的调整和深度值的调整。作为另一示例,可在视差图被生成之前执行光照的调整,并还可在视差被生成之后执行深度值的调整。
与参照图1和图2描述的光照调整单元110、视差图生成单元120和深度锐化单元220的描述相似的光照调整单元310、视差图生成单元320和深度锐化单元330的描述将被进一步省略。
执行2D图像到3D图像的转换并执行光照的调整和深度值的调整中的至少一个的图像转换装置还可是3D立体显示器、3D立体TV、3D多视图(multi-view)显示器、3D多视图TV、3D立体广播装置、3D媒体播放器、游戏机、TV机顶盒、PC软件、PC图形卡等。此外,图像转换装置可以是包括硬件的设备(例如,实现所描述的方面中的一个或多个方面的一个或多个处理装置)。
图6示出根据一个或多个实施例的用光照调整来将2D图像转换为3D图像的图像转换方法。
参照图6,在操作610,可选择性地调整2D图像内的光照。即,如上所述,例如,由于视差图被生成时的低对比度,在暗区域中多个对象之间的常见的区别会被弱化,并且暗区域的深度会被平滑,从而可能降低3D效果。因此,为避免这种情况,可选择性地调整2D图像内的至少一个区域的光照。可通过针对所述至少一个区域追踪光的方向和光的强度的至少一个来做出调整。
可通过使用查找表色调映射2D图像来调整光照,所述色调映射可以是全局色调映射也可以是局部色调映射。此外,当2D图像是RGB图像时,可通过使用用于所述RGB图像的各通道的单独查找表来执行色调映射。此外,当光照被调整时,可用过使用2D图像的强度值的平均值和2D图像的强度的分散度中的至少一个来归一化2D图像的强度值,所述归一化被执行用于2D图像的各个部分或用于整个2D图像。
在操作620,视差图可被生成以将调整的2D图像转换为3D图像。
图7示出根据一个或多个实施例的用深度锐化来将2D图像转换为3D图像的图像转换方法。
参照图7,在操作710,视差图被生成用于将2D图像转换为3D图像。
在操作720,可选择性地调整视差图内的深度值以锐化由视差图的深度值表示的对象或区域的边界。可保持图像的线条清楚并同时平滑相似区域的深度值的双边滤波器或交叉双边滤波器可被用于调整深度值。当使用双边滤波器或交叉双边滤波器时,可执行精确计算。然而,为了减少运算速度或存储器的使用量,可执行近似而不是精确计算。
图8示出根据一个或多个实施例的调整深度值的过程(例如,图7的深度值调整过程)。
参照图8,在操作810,视差图的深度值可被分组为至少一组。即,可通过对具有相似深度值的视差图内的区域分组来生成所述至少一组。
在操作820,可在操作820中选择性地平滑所述至少一组的深度值。即,所述至少一组的深度值被平滑,从而清楚地区别多个组之间的深度值。因此,对象之间的边界、对象与背景之间的边界等会变的清楚。
图9示出根据一个或多个实施例的调整深度值的另一过程(例如,图7的深度值调整过程)。
参照图9,2D图像可被分类为边界区域和非边界区域。即,包括对象之间的边界区域、对象与背景之间的边界等的2D图像的区域可被分类为边界区域,并且2D图像的剩余区域可被分类为非边界区域。
在操作920,可通过使用不能平滑边界区域的交叉双边滤波器来选择性地平滑与非边界区域对应的视差图的深度值。因此,非边界区域的深度值被平滑并且边界区域的深度值没有被平滑,从而,边界会是清楚的。即,通过将2D图像作为基本图像使用,视差图的线条边界会是清楚的。
图10示出根据一个或多个实施例的调整深度值的另一过程(例如,图7的深度值调整过程)。
参照图10,在操作1010,可从2D图像提取至少一个特征信息。这里,特征信息可包括例如颜色信息、亮度信息、方位信息、纹理信息和动作信息中的至少一个。
在操作1020,基于视差图的深度值和至少一个特征信息可选择性地执行用于保留高频边缘的滤波。即,可从特征信息提取边界信息,并可基于边界信息来平滑具有相似深度值的区域。此外,可不平滑具有不同深度值的区域。在本实例中,具有相似深度值的一个或多个区域可以是例如单一的对象或单一的背景。
如上所述,2D图像内的光照可被选择性地调整以将2D图像转换为3D图像,因此,无论2D图像的光的方向或2D图像的光的强度如何,关于对象的区别会增加。此外,视差图内的深度值可被选择性地调整以将2D图像转换为3D图像,并且对象之间的边界、对象与背景之间的边界等会变的清楚。因此,可提供3D效果。此外,如上所述,选择性的光照调整和选择性的深度值调整均可被执行,并且还能够同时在例如图像的一边扫描中执行所述的两个调整,而不用执行对各任务的单独的扫描。
除上述实施例之外,还能够通过永久性的介质(例如,计算机可读介质)中/上的计算机可读代码/指令控制实现任何上述实施例的至少一个处理装置(例如,处理器或计算机)来实现实施例。所述介质可与允许存储和/或发送计算机可读代码的任何定义的、可测量的、有形的结构对应。因此,在一个或多个实施例中,计算机可读介质可包括计算机可读代码以控制实现将2D图像转换为3D图像的图像转换方法的至少一个处理装置。作为另一示例,所述处理装置可以是可编程的计算机。
所述介质还可包括例如计算机可读代码、数据文件、数据结构等或者它们的组合。计算机可读介质的示例包括:磁性介质(例如,硬盘、软盘、磁带等)、光介质(例如,CD ROM盘和DVD)、光磁介质(例如,光盘)以及专门构造用于存储和执行程序指令的硬件装置(例如,只读存储器(ROM)和随机存取存储器(RAM)、闪存等)。计算机可读代码的示例包括机器代码(例如,由编译器产生的机器代码)和包含例如通过使用翻译器的计算机可被执行的高层代码的文件。所述介质也可以是分布的网络,从而计算机可读代码以分布式存储和执行。此外,仅作为示例,处理元件能够包括处理器或计算机处理器,并且处理元件可被分布并/或包括在单个装置中。
尽管已经参照本发明的不同实施例具体显示和描述了本发明的多个方面,但是应该理解,这些实施例应该仅被考虑为描述性的理解而非限制的目的。各个实施例内的特点或方面的描述通常应该被认为是可用于剩余实施例中的其他相似的特点或方面。
因此,尽管已显示和描述了一些实施例,另外的实施例同样是可用的,但是本领域的技术人员应该理解,在不脱离发明的原理和精神的情况下可以对这些示例实施例进行改变,本发明的范围由权利要求及其等同物限定。
Claims (41)
1.一种图像转换装置,包括:
光照调整单元,选择性地调整二维(2D)图像内的光照;
视差图生成单元,生成用于将调整的2D图像转换为三维(3D)图像的视差图。
2.如权利要求1所述的装置,其中,光照调整单元通过使用存储与原始光照值对应的调整光照值的查找表来执行2D图像的色调映射,所述色调映射针对2D图像的各个部分或整个2D图像被执行。
3.如权利要求2所述的装置,其中,光照调整单元通过使用用于2D图像的RGB图像的各个通道的单独查找表来执行所述2D图像的RGB图像的色调映射。
4.如权利要求2所述的装置,其中,查找表包括伽马校正表和对数校正表的中至少一个。
5.如权利要求1所述的装置,其中,光照调整单元通过使用2D图像的亮度强度值的平均值和2D图像的亮度强度值的分散度中的至少一个,来执行所述2D图像的至少一个亮度强度值的归一化,所述归一化针对2D图像的各个部分或整个2D图像被执行。
6.一种图像转换装置,包括:
视差图生成单元,生成用于将2D图像转换为3D图像的视差图;
深度锐化单元,选择性地调整视差图内的深度值来锐化由视差图的深度值表示的对象或区域的边界。
7.如权利要求6所述的装置,其中,深度锐化单元通过使用双边滤波器来平滑与由视差图的深度值表示的对象或区域对应的深度值。
8.如权利要求6所述的装置,其中,深度锐化单元将2D图像与视差图比较并基于比较调整所述视差图的深度值。
9.如权利要求6所述的装置,其中,深度锐化单元将2D图像分类为边界区域和非边界区域,并通过使用交叉双边滤波器来选择性地平滑与相对于边界区域的非边界区域对应的视差图的深度值。
10.如权利要求6所述的装置,其中,深度锐化单元还包括:
特征信息提取器,从2D图像中提取关于2D图像的特征信息,所述特征信息包括颜色、亮度、方位、纹理和动作中的至少一个的信息;
平滑滤波器,通过使用视差图的深度值和至少一个提取的特征信息来在视差图内执行选择性地滤波以保留高频边缘。
11.一种图像转换装置,包括:
光照调整单元,选择性地调整2D图像内的光照;
视差图生成单元,生成用于将调整的2D图像转换为3D图像的视差图;
深度锐化单元,选择性地调整视差图内的深度值以锐化由视差图的深度值表示的对象或区域的边界的视差图。
12.如权利要求11所述的装置,其中,光照调整单元通过使用存储与原始光照值对应的调整光照值的查找表来执行2D图像的色调映射,所述色调映射针对2D图像的各个部分或整个2D图像被执行。
13.如权利要求12所述的装置,其中,光照调整单元通过使用用于2D图像的RGB图像的各个通道的单独查找表来执行所述2D图像的RGB图像的色调映射。
14.如权利要求12所述的装置,其中,查找表包括伽马校正表和对数校正表中的至少一个。
15.如权利要求11所述的装置,其中,光照调整单元通过使用2D图像的亮度强度值的平均值和2D图像的亮度强度值的分散度中的至少一个,来执行所述2D图像的至少一个亮度强度值的归一化,所述归一化针对2D图像的各个部分或整个2D图像被执行。
16.如权利要求11所述的装置,其中,深度锐化单元通过使用双边滤波器来平滑与由视差图的深度值表示的对象或区域对应的深度值。
17.如权利要求11所述的装置,其中,深度锐化单元将2D图像与视差图比较并基于比较调整所述视差图的深度值。
18.如权利要求11所述的装置,其中,深度锐化单元将2D图像分类为边界区域和非边界区域,并通过使用交叉双边滤波器来选择性地平滑与相对于边界区域的非边界区域对应的视差图的深度值。
19.如权利要求11所述的装置,其中,深度锐化单元包括:
特征信息提取器,从2D图像中提取关于2D图像的特征信息,所述特征信息包括颜色、亮度、方位、纹理和动作中的至少一个的信息;
平滑滤波器,通过使用视差图的深度值和至少一个提取的特征信息来在视差图内选择性地执行滤波以保留高频边缘。
20.一种图像转换方法,包括:
选择性地调整2D图像内的光照;
生成用于将调整的2D图像转换为3D图像的视差图。
21.如权利要求20所述的方法,其中,选择性地调整光照的步骤通过使用存储与原始光照值对应的调整光照值的查找表来执行2D图像的色调映射,所述色调映射针对2D图像的各个部分或整个2D图像被执行。
22.如权利要求21所述的方法,其中,选择性地调整光照的步骤通过使用用于2D图像的RGB图像的各个通道的单独查找表来执行所述2D图像的RGB图像的色调映射。
23.如权利要求21所述的方法,其中,查找表包括伽马校正表和对数校正表中的至少一个。
24.如权利要求20所述的方法,其中,选择性地调整光照的步骤通过使用2D图像的亮度强度值的平均值和2D图像的亮度强度值的分散度中的至少一个来执行所述2D图像的至少一个亮度强度值的归一化,所述归一化针对2D图像的各个部分或整个2D图像被执行。
25.一种图像转换方法,包括:
生成用于将2D图像转换为3D图像的视差图;
选择性地调整视差图内的深度值来锐化由视差图的深度值表示的对象或区域的边界。
26.如权利要求25所述的方法,其中,选择性地调整深度值的步骤包括:
将视差图的至少一个深度值分组为至少一组;
基于分组,选择性地平滑所述至少一组的深度值。
27.如权利要求25所述的方法,其中,选择性地调整深度值的步骤通过使用双边滤波器来平滑与由视差图的深度值表示的对象或区域对应的深度值。
28.如权利要求25所述的方法,其中,选择性地调整深度值的步骤将2D图像与视差图比较并基于比较调整所述视差图的深度值。
29.如权利要求25所述的方法,其中,选择性地调整深度值的步骤包括:
将2D图像分类为边界区域和非边界区域;
通过使用交叉双边滤波器来选择性地平滑与相对于边界区域的非边界区域对应的视差图的深度值。
30.如权利要求25所述的方法,其中,选择性地调整深度值的步骤包括:
从2D图像提取关于2D图像的特征信息,所述特征信息包括颜色、亮度、方位、纹理和动作中的至少一个的信息;
通过使用视差图的深度值和至少一个提取的特征信息来在视差图内执行选择性地滤波以保留高频边缘。
31.一种图像转换方法,包括;
选择性地调整2D图像内的光照;
生成用于将调整的2D图像转换为3D图像的视差图;
选择性地调整视差图内的深度值以锐化由视差图的深度值表示的对象或区域的边界。
32.如权利要求31所述的方法,其中,选择性地调整光照的步骤通过使用存储与原始光照值对应的调整光照值的查找表来执行2D图像的色调映射,所述色调映射针对2D图像的各个部分或整个2D图像被执行。
33.如权利要求32所述的方法,其中,选择性地调整光照的步骤通过使用用于2D图像的RGB图像的各个通道的单独查找表来执行所述2D图像的RGB图像的色调映射。
34.如权利要求32所述的方法,其中,查找表包括伽马校正表和对数校正表中的至少一个。
35.如权利要求31所述的方法,其中,选择性地调整光照的步骤通过使用2D图像的亮度强度值的平均值和2D图像的亮度强度值的分散度中的至少一个来执行所述2D图像的至少一个亮度强度值的归一化,所述归一化针对2D图像的各个部分或整个2D图像被执行。
36.如权利要求31所述的方法,其中,选择性地调整深度值的步骤包括:
将视差图的至少一个深度值分组为至少一组;
基于分组,选择性地平滑所述至少一组的深度值。
37.如权利要求31所述的方法,其中,选择性地调整深度值的步骤通过使用双边滤波器来平滑与由视差图的深度值表示的对象或区域对应的深度值。
38.如权利要求31所述的方法,其中,选择性地调整深度值的步骤将2D图像与视差图比较并基于比较调整所述视差图的深度值。
39.如权利要求31所述的方法,其中,选择性地调整深度值的步骤包括:
将2D图像分类为边界区域和非边界区域;
通过使用交叉双边滤波器来选择性地平滑与相对于边界区域的非边界区域对应的视差图的深度值。
40.如权利要求31所述的方法,其中,选择性地调整深度值的步骤包括:
从2D图像提取关于2D图像的特征信息,所述特征信息包括颜色、亮度、方位、纹理和动作中的至少一个的信息;
通过使用视差图的深度值和至少一个提取的特征信息来在视差图内执行选择性地滤波以保留高频边缘。
41.一种包括控制实现权利要求20的方法的至少一个处理装置的计算机可读代码的永久性的计算机可读记录介质。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2009-0053462 | 2009-06-16 | ||
KR1020090053462A KR20100135032A (ko) | 2009-06-16 | 2009-06-16 | 2차원 영상의 3차원 영상 변환 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101923728A true CN101923728A (zh) | 2010-12-22 |
Family
ID=42710644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010102058615A Pending CN101923728A (zh) | 2009-06-16 | 2010-06-17 | 将二维图像转换为三维图像的转换装置及方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20100315488A1 (zh) |
EP (1) | EP2268047A3 (zh) |
JP (2) | JP2011004396A (zh) |
KR (1) | KR20100135032A (zh) |
CN (1) | CN101923728A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102360489A (zh) * | 2011-09-26 | 2012-02-22 | 盛乐信息技术(上海)有限公司 | 实现二维图像到三维图像转换的方法及装置 |
CN102447939A (zh) * | 2011-10-12 | 2012-05-09 | 绍兴南加大多媒体通信技术研发有限公司 | 一种影视作品2d转3d的优化方法 |
CN102521879A (zh) * | 2012-01-06 | 2012-06-27 | 肖华 | 一种2d转3d的方法 |
CN102802005A (zh) * | 2011-04-26 | 2012-11-28 | 李国君 | 三维视频内容产生方法 |
CN103108198A (zh) * | 2011-11-09 | 2013-05-15 | 宏碁股份有限公司 | 图像产生装置及图像调整方法 |
CN103380624A (zh) * | 2011-02-23 | 2013-10-30 | 皇家飞利浦有限公司 | 处理三维场景的深度数据 |
CN104378621A (zh) * | 2014-11-25 | 2015-02-25 | 深圳超多维光电子有限公司 | 立体场景处理方法及装置 |
CN104756490A (zh) * | 2012-09-18 | 2015-07-01 | Iee国际电子工程股份公司 | 深度图像增强方法 |
WO2018152654A1 (zh) * | 2017-02-22 | 2018-08-30 | 刘简 | 2d视频转换为3d视频的理论方法和眼镜装置 |
CN108777784A (zh) * | 2018-06-06 | 2018-11-09 | Oppo广东移动通信有限公司 | 深度获取方法和装置、电子装置、计算机设备和存储介质 |
CN108830785A (zh) * | 2018-06-06 | 2018-11-16 | Oppo广东移动通信有限公司 | 背景虚化方法及装置、电子装置、计算机设备和存储介质 |
CN110663257A (zh) * | 2017-05-31 | 2020-01-07 | 维里逊专利及许可公司 | 使用场景的2d捕获图像提供虚拟现实内容的方法和系统 |
CN110832853A (zh) * | 2017-07-03 | 2020-02-21 | 韦斯特尔电子工业和贸易有限责任公司 | 用于渲染三维图像的显示设备和方法 |
CN112653933A (zh) * | 2020-12-09 | 2021-04-13 | 深圳市创维软件有限公司 | 基于机顶盒的vr数据显示方法、装置、系统及存储介质 |
CN113256489A (zh) * | 2021-06-22 | 2021-08-13 | 深圳掌酷软件有限公司 | 三维壁纸生成方法、装置、设备及存储介质 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110222757A1 (en) | 2010-03-10 | 2011-09-15 | Gbo 3D Technology Pte. Ltd. | Systems and methods for 2D image and spatial data capture for 3D stereo imaging |
KR101054043B1 (ko) * | 2010-05-23 | 2011-08-10 | 강원대학교산학협력단 | 2차원 의료영상으로부터 3차원 영상을 생성하는 방법 |
JP5556394B2 (ja) * | 2010-06-07 | 2014-07-23 | ソニー株式会社 | 立体画像表示システム、視差変換装置、視差変換方法およびプログラム |
JP5197683B2 (ja) * | 2010-06-30 | 2013-05-15 | 株式会社東芝 | 奥行き信号生成装置及び方法 |
CN102595151A (zh) * | 2011-01-11 | 2012-07-18 | 倚强科技股份有限公司 | 影像深度计算方法 |
JP5488482B2 (ja) | 2011-01-24 | 2014-05-14 | 株式会社Jvcケンウッド | 奥行き推定データ生成装置、奥行き推定データ生成プログラム及び擬似立体画像表示装置 |
US20120224037A1 (en) * | 2011-03-02 | 2012-09-06 | Sharp Laboratories Of America, Inc. | Reducing viewing discomfort for graphical elements |
KR20140045349A (ko) * | 2011-05-19 | 2014-04-16 | 삼성전자주식회사 | 3d컨텐츠제공장치 및 3d컨텐츠제공방법 |
WO2013023325A1 (zh) * | 2011-08-18 | 2013-02-21 | 北京世纪高蓝科技有限公司 | 基于图像运动信息的2d转3d方法 |
JP6113411B2 (ja) * | 2011-09-13 | 2017-04-12 | シャープ株式会社 | 画像処理装置 |
WO2013054454A1 (ja) * | 2011-10-14 | 2013-04-18 | パナソニック株式会社 | 映像信号処理装置 |
WO2013081383A1 (ko) * | 2011-11-29 | 2013-06-06 | 삼성전자주식회사 | 깊이 영상을 고해상도로 변환하는 방법 및 장치 |
KR101978172B1 (ko) * | 2011-11-29 | 2019-05-15 | 삼성전자주식회사 | 깊이 영상을 고해상도로 변환하는 방법 및 장치 |
TWI483612B (zh) * | 2011-12-22 | 2015-05-01 | Nat Univ Chung Cheng | Converting the video plane is a perspective view of the video system |
KR101906142B1 (ko) * | 2012-01-17 | 2018-12-07 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
KR101332638B1 (ko) * | 2012-02-10 | 2013-11-25 | 시모스 미디어텍(주) | 깊이 맵 보정 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법 |
US9361699B2 (en) * | 2012-06-27 | 2016-06-07 | Imec Taiwan Co. | Imaging system and method |
WO2014023641A1 (en) * | 2012-08-09 | 2014-02-13 | Sony Corporation | Refinement of a disparity or motion map based on user interaction |
US9654764B2 (en) * | 2012-08-23 | 2017-05-16 | Sharp Kabushiki Kaisha | Stereoscopic image processing device, stereoscopic image processing method, and program |
US9641821B2 (en) | 2012-09-24 | 2017-05-02 | Panasonic Intellectual Property Management Co., Ltd. | Image signal processing device and image signal processing method |
EP2904774A1 (en) * | 2012-10-01 | 2015-08-12 | Telefonaktiebolaget LM Ericsson (PUBL) | Method and apparatus for generating a depth cue |
CN103139522B (zh) * | 2013-01-21 | 2016-03-23 | 宁波大学 | 一种多视点图像的处理方法 |
US9460543B2 (en) | 2013-05-31 | 2016-10-04 | Intel Corporation | Techniques for stereo three dimensional image mapping |
US10109076B2 (en) * | 2013-06-12 | 2018-10-23 | Brigham Young University | Depth-aware stereo image editing method apparatus and computer-readable medium |
KR101433082B1 (ko) * | 2013-08-02 | 2014-08-25 | 주식회사 고글텍 | 2차원 영상과 3차원 영상의 중간 정도 느낌을 주는 영상 변환 및 재생 방법 |
KR102224716B1 (ko) | 2014-05-13 | 2021-03-08 | 삼성전자주식회사 | 스테레오 소스 영상 보정 방법 및 장치 |
EP3236657A1 (en) * | 2016-04-21 | 2017-10-25 | Ultra-D Coöperatief U.A. | Dual mode depth estimator |
KR20210128274A (ko) | 2020-04-16 | 2021-10-26 | 삼성전자주식회사 | 라이브니스 검사 방법 및 장치 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1678085A (zh) * | 2004-03-31 | 2005-10-05 | 三洋电机株式会社 | 立体图像处理方法以及立体图像处理装置 |
US20070035530A1 (en) * | 2003-09-30 | 2007-02-15 | Koninklijke Philips Electronics N.V. | Motion control for image rendering |
CN101189643A (zh) * | 2005-04-25 | 2008-05-28 | 株式会社亚派 | 3d图像生成和显示系统 |
CN101217674A (zh) * | 2007-01-04 | 2008-07-09 | 三星电子株式会社 | 用于环境光自适应颜色校正的设备和方法 |
CN101309411A (zh) * | 2008-07-07 | 2008-11-19 | 浙江大学 | 一种利用深度信息的多通道视频流编码方法 |
CN101322418A (zh) * | 2005-12-02 | 2008-12-10 | 皇家飞利浦电子股份有限公司 | 图像信号的深度相关的滤波 |
WO2009013682A2 (en) * | 2007-07-26 | 2009-01-29 | Koninklijke Philips Electronics N.V. | Method and apparatus for depth-related information propagation |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10191397A (ja) * | 1996-12-27 | 1998-07-21 | Sanyo Electric Co Ltd | 意図適応型の2次元映像を3次元映像に変換する装置 |
JP3593466B2 (ja) * | 1999-01-21 | 2004-11-24 | 日本電信電話株式会社 | 仮想視点画像生成方法およびその装置 |
JP2000261828A (ja) * | 1999-03-04 | 2000-09-22 | Toshiba Corp | 立体映像生成方法 |
US7068825B2 (en) * | 1999-03-08 | 2006-06-27 | Orametrix, Inc. | Scanning system and calibration method for capturing precise three-dimensional information of objects |
JP2001103513A (ja) * | 1999-09-27 | 2001-04-13 | Sanyo Electric Co Ltd | 2次元映像を3次元映像に変換する方法 |
JP2001175863A (ja) * | 1999-12-21 | 2001-06-29 | Nippon Hoso Kyokai <Nhk> | 多視点画像内挿方法および装置 |
JP3531003B2 (ja) * | 2001-03-30 | 2004-05-24 | ミノルタ株式会社 | 画像処理装置、画像処理プログラムが記録された記録媒体、および、画像再生装置 |
US7080979B2 (en) * | 2001-04-13 | 2006-07-25 | Orametrix, Inc. | Method and workstation for generating virtual tooth models from three-dimensional tooth data |
EP1403759A3 (en) * | 2002-09-17 | 2007-04-04 | Sharp Kabushiki Kaisha | Electronic equipment with two and three dimensional display functions |
JP3938122B2 (ja) * | 2002-09-20 | 2007-06-27 | 日本電信電話株式会社 | 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体 |
CN100510943C (zh) * | 2003-01-08 | 2009-07-08 | 奥普提克斯晶硅有限公司 | 图像投影的系统和方法 |
JP4262014B2 (ja) * | 2003-07-31 | 2009-05-13 | キヤノン株式会社 | 画像撮影装置および画像処理方法 |
US7623674B2 (en) * | 2003-11-05 | 2009-11-24 | Cognex Technology And Investment Corporation | Method and system for enhanced portal security through stereoscopy |
JP4385776B2 (ja) * | 2004-01-27 | 2009-12-16 | ソニー株式会社 | 表示性能測定装置およびその方法 |
US7636473B2 (en) * | 2004-03-12 | 2009-12-22 | Seiko Epson Corporation | Image color adjustment |
US7015926B2 (en) * | 2004-06-28 | 2006-03-21 | Microsoft Corporation | System and process for generating a two-layer, 3D representation of a scene |
US7324687B2 (en) * | 2004-06-28 | 2008-01-29 | Microsoft Corporation | Color segmentation-based stereo 3D reconstruction system and process |
IL165190A (en) * | 2004-11-14 | 2012-05-31 | Elbit Systems Ltd | System and method for stabilizing an image |
US7768496B2 (en) * | 2004-12-02 | 2010-08-03 | Sharp Laboratories Of America, Inc. | Methods and systems for image tonescale adjustment to compensate for a reduced source light power level |
CA2553473A1 (en) * | 2005-07-26 | 2007-01-26 | Wa James Tam | Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging |
US7639893B2 (en) * | 2006-05-17 | 2009-12-29 | Xerox Corporation | Histogram adjustment for high dynamic range image mapping |
US7881554B2 (en) * | 2006-06-05 | 2011-02-01 | Stmicroelectronics S.R.L. | Method for correcting a digital image |
WO2008062351A1 (en) * | 2006-11-21 | 2008-05-29 | Koninklijke Philips Electronics N.V. | Generation of depth map for an image |
US8184926B2 (en) * | 2007-02-28 | 2012-05-22 | Microsoft Corporation | Image deblurring with blurred/noisy image pairs |
US8077964B2 (en) * | 2007-03-19 | 2011-12-13 | Sony Corporation | Two dimensional/three dimensional digital information acquisition and display device |
JP2008237840A (ja) * | 2007-03-29 | 2008-10-09 | Gifu Univ | 画像解析システム、及び画像解析プログラム |
KR101345303B1 (ko) * | 2007-03-29 | 2013-12-27 | 삼성전자주식회사 | 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치 |
KR101484487B1 (ko) * | 2007-10-11 | 2015-01-28 | 코닌클리케 필립스 엔.브이. | 깊이-맵을 프로세싱하는 방법 및 디바이스 |
EP2051527A1 (en) * | 2007-10-15 | 2009-04-22 | Thomson Licensing | Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs |
EP2213102B1 (en) * | 2007-11-09 | 2012-02-22 | Thomson Licensing | System and method for depth map extraction using region-based filtering |
JP4958807B2 (ja) * | 2008-01-24 | 2012-06-20 | 株式会社キーエンス | 画像処理装置 |
US8238639B2 (en) * | 2008-04-09 | 2012-08-07 | Cognex Corporation | Method and system for dynamic feature detection |
NZ567986A (en) * | 2008-05-02 | 2010-08-27 | Auckland Uniservices Ltd | Real-time stereo image matching system |
-
2009
- 2009-06-16 KR KR1020090053462A patent/KR20100135032A/ko not_active Application Discontinuation
-
2010
- 2010-06-11 US US12/801,514 patent/US20100315488A1/en not_active Abandoned
- 2010-06-14 JP JP2010135402A patent/JP2011004396A/ja active Pending
- 2010-06-15 EP EP10165949A patent/EP2268047A3/en not_active Withdrawn
- 2010-06-17 CN CN2010102058615A patent/CN101923728A/zh active Pending
-
2014
- 2014-11-17 JP JP2014232922A patent/JP2015073292A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070035530A1 (en) * | 2003-09-30 | 2007-02-15 | Koninklijke Philips Electronics N.V. | Motion control for image rendering |
CN1678085A (zh) * | 2004-03-31 | 2005-10-05 | 三洋电机株式会社 | 立体图像处理方法以及立体图像处理装置 |
CN101189643A (zh) * | 2005-04-25 | 2008-05-28 | 株式会社亚派 | 3d图像生成和显示系统 |
CN101322418A (zh) * | 2005-12-02 | 2008-12-10 | 皇家飞利浦电子股份有限公司 | 图像信号的深度相关的滤波 |
CN101217674A (zh) * | 2007-01-04 | 2008-07-09 | 三星电子株式会社 | 用于环境光自适应颜色校正的设备和方法 |
WO2009013682A2 (en) * | 2007-07-26 | 2009-01-29 | Koninklijke Philips Electronics N.V. | Method and apparatus for depth-related information propagation |
CN101309411A (zh) * | 2008-07-07 | 2008-11-19 | 浙江大学 | 一种利用深度信息的多通道视频流编码方法 |
Non-Patent Citations (1)
Title |
---|
JIANFENG YIN ET AL.: "Improving Depth Maps by Nonlinear Diffusion", 《WSCG’2004》, 6 February 2004 (2004-02-06), pages 3, XP 002632173 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103380624A (zh) * | 2011-02-23 | 2013-10-30 | 皇家飞利浦有限公司 | 处理三维场景的深度数据 |
CN102802005A (zh) * | 2011-04-26 | 2012-11-28 | 李国君 | 三维视频内容产生方法 |
CN102802005B (zh) * | 2011-04-26 | 2014-11-05 | 李国君 | 三维视频内容产生方法 |
CN102360489A (zh) * | 2011-09-26 | 2012-02-22 | 盛乐信息技术(上海)有限公司 | 实现二维图像到三维图像转换的方法及装置 |
CN102447939A (zh) * | 2011-10-12 | 2012-05-09 | 绍兴南加大多媒体通信技术研发有限公司 | 一种影视作品2d转3d的优化方法 |
CN103108198A (zh) * | 2011-11-09 | 2013-05-15 | 宏碁股份有限公司 | 图像产生装置及图像调整方法 |
CN102521879A (zh) * | 2012-01-06 | 2012-06-27 | 肖华 | 一种2d转3d的方法 |
US10275857B2 (en) | 2012-09-18 | 2019-04-30 | Iee International Electronics & Engineering S.A. | Depth image enhancement method |
CN104756490A (zh) * | 2012-09-18 | 2015-07-01 | Iee国际电子工程股份公司 | 深度图像增强方法 |
CN104756490B (zh) * | 2012-09-18 | 2017-11-28 | Iee国际电子工程股份公司 | 深度图像增强方法 |
CN104378621A (zh) * | 2014-11-25 | 2015-02-25 | 深圳超多维光电子有限公司 | 立体场景处理方法及装置 |
WO2018152654A1 (zh) * | 2017-02-22 | 2018-08-30 | 刘简 | 2d视频转换为3d视频的理论方法和眼镜装置 |
CN110663257A (zh) * | 2017-05-31 | 2020-01-07 | 维里逊专利及许可公司 | 使用场景的2d捕获图像提供虚拟现实内容的方法和系统 |
CN110832853A (zh) * | 2017-07-03 | 2020-02-21 | 韦斯特尔电子工业和贸易有限责任公司 | 用于渲染三维图像的显示设备和方法 |
CN108830785A (zh) * | 2018-06-06 | 2018-11-16 | Oppo广东移动通信有限公司 | 背景虚化方法及装置、电子装置、计算机设备和存储介质 |
CN108777784A (zh) * | 2018-06-06 | 2018-11-09 | Oppo广东移动通信有限公司 | 深度获取方法和装置、电子装置、计算机设备和存储介质 |
CN108830785B (zh) * | 2018-06-06 | 2021-01-15 | Oppo广东移动通信有限公司 | 背景虚化方法及装置、电子装置、计算机设备和存储介质 |
CN112653933A (zh) * | 2020-12-09 | 2021-04-13 | 深圳市创维软件有限公司 | 基于机顶盒的vr数据显示方法、装置、系统及存储介质 |
CN113256489A (zh) * | 2021-06-22 | 2021-08-13 | 深圳掌酷软件有限公司 | 三维壁纸生成方法、装置、设备及存储介质 |
CN113256489B (zh) * | 2021-06-22 | 2021-10-26 | 深圳掌酷软件有限公司 | 三维壁纸生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP2268047A3 (en) | 2011-03-02 |
JP2011004396A (ja) | 2011-01-06 |
JP2015073292A (ja) | 2015-04-16 |
US20100315488A1 (en) | 2010-12-16 |
KR20100135032A (ko) | 2010-12-24 |
EP2268047A2 (en) | 2010-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101923728A (zh) | 将二维图像转换为三维图像的转换装置及方法 | |
US9153032B2 (en) | Conversion method and apparatus with depth map generation | |
US9445075B2 (en) | Image processing apparatus and method to adjust disparity information of an image using a visual attention map of the image | |
JP2016100899A (ja) | 映像補正方法及び装置 | |
Jung et al. | Depth sensation enhancement using the just noticeable depth difference | |
KR102138847B1 (ko) | 알파 블렌딩을 사용한 동적 이미지 컬러 리매핑 방법 | |
CN104185857A (zh) | 深度图处理 | |
TWI712990B (zh) | 用於判定影像之深度圖之方法與裝置、及非暫時性電腦可讀取儲存媒體 | |
Nam et al. | A SIFT features based blind watermarking for DIBR 3D images | |
Kim et al. | 2D-to-3D conversion by using visual attention analysis | |
Fan et al. | Vivid-DIBR based 2D–3D image conversion system for 3D display | |
Nam et al. | NSCT-based robust and perceptual watermarking for DIBR 3D images | |
Liu et al. | An enhanced depth map based rendering method with directional depth filter and image inpainting | |
Loghman et al. | Segmentation-based view synthesis for multi-view video plus depth | |
Afridi et al. | Degraded image enhancement by image dehazing and Directional Filter Banks using Depth Image based Rendering for future free-view 3D-TV | |
Liu et al. | An efficient depth map preprocessing method based on structure-aided domain transform smoothing for 3D view generation | |
Yao et al. | Fast and high-quality virtual view synthesis from multi-view plus depth videos | |
US20120170841A1 (en) | Image processing apparatus and method | |
Habigt et al. | Image completion for view synthesis using markov random fields and efficient belief propagation | |
Lee et al. | Depth manipulation using disparity histogram analysis for stereoscopic 3d | |
Sun et al. | Seamless view synthesis through texture optimization | |
US9787980B2 (en) | Auxiliary information map upsampling | |
WO2022155950A1 (zh) | 虚拟视点合成方法、电子设备和计算机可读介质 | |
Phan et al. | Semi-automatic 2D to 3D image conversion using a hybrid random walks and graph cuts based approach | |
Pan et al. | An automatic 2D to 3D video conversion approach based on RGB-D images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20101222 |