CN107071383A - 基于图像局部分割的虚拟视点合成方法 - Google Patents
基于图像局部分割的虚拟视点合成方法 Download PDFInfo
- Publication number
- CN107071383A CN107071383A CN201710113048.7A CN201710113048A CN107071383A CN 107071383 A CN107071383 A CN 107071383A CN 201710113048 A CN201710113048 A CN 201710113048A CN 107071383 A CN107071383 A CN 107071383A
- Authority
- CN
- China
- Prior art keywords
- parallax
- depth
- formula
- image
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000000007 visual effect Effects 0.000 title claims abstract description 21
- 230000002194 synthesizing effect Effects 0.000 title claims abstract description 18
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 22
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 22
- 230000011218 segmentation Effects 0.000 claims abstract description 12
- 238000003325 tomography Methods 0.000 claims description 19
- 238000004040 coloring Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 235000008694 Humulus lupulus Nutrition 0.000 claims description 2
- 230000000903 blocking effect Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000010189 synthetic method Methods 0.000 claims 5
- 230000004927 fusion Effects 0.000 claims 1
- 230000003247 decreasing effect Effects 0.000 abstract description 5
- 238000007654 immersion Methods 0.000 abstract description 5
- 230000007812 deficiency Effects 0.000 abstract description 4
- 238000009499 grossing Methods 0.000 abstract description 4
- 238000012544 monitoring process Methods 0.000 abstract description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 239000002131 composite material Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 241001116389 Aloe Species 0.000 description 1
- 235000011399 aloe vera Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
本发明公布了一种基于图像局部分割的虚拟视点合成方法,属于数字图像处理技术领域。本方法将输入的左右图像映射到虚拟视点进行融合得到合成的图像,通过利用场景的物体分割信息对粗糙的、有噪声的深度图进行平滑去噪,在进行视点合成的过程中通过局部区域的切分来解决遮挡问题,能够在深度图存在比较大的瑕疵的情况下保证视点合成的主观质量不会显著下降,并最大可能地保持场景的几何信息以产生真实的沉浸感,改善现有方法在场景深度信息存在误差、噪声的情况下合成质量显著下降问题的不足,对于场景深度图信息中的误差有较强鲁棒性。本发明可用于视频监控系统和图像处理软件等。
Description
技术领域
本发明属于数字图像处理技术领域,涉及图像增强方法,尤其涉及一种通过图像局部区域分割进行虚拟视点合成的方法,可用于视频监控系统和图像处理软件等。
背景技术
裸眼三维技术(Three Dimensions,3D)和虚拟现实技术随着相应硬件市场的发展已经开始大范围普及,这种新型媒体相比传统媒体可以为用户提供更强的沉浸感,但是,新型媒体内容并没有催生与之匹配的采集设备。以裸眼3D为例,市场上的裸眼3D电视通常需要多路视点(8/9/27/64)输入,在仅有数量较少的相机的情况下,拍摄裸眼3D内容就需要对已有的真实视点进行扩充,比如由两路的立体相机拍摄的内容合成8路的视频流。这种通过已知视点的内容以及场景的深度信息对已知视点附近的一些虚拟的视点进行合成的技术就是虚拟视点合成技术。
现有传统的虚拟视点合成方法采用基于稠密深度图的虚拟视点合成技术,该方法对深度图的准确度依赖很大,深度图中的噪声和误差会对合成视点的质量造成很大的影响。而深度图的采集往往受限于场景的纹理复杂度和是否存在非漫反射的物体,无法做到非常精确。因此,现有虚拟视点合成方法对于深度图中的误差不够鲁棒,造成在深度图存在比较大的瑕疵的情况下视点合成的主观质量下降显著,难以保持场景的几何信息以产生真实的沉浸感。
发明内容
为了克服上述现有技术的不足,本发明提供一种基于图像局部分割的虚拟视点合成方法,本方法能够在深度图存在比较大的瑕疵的情况下保证视点合成的主观质量不会显著下降,并最大可能地保持场景的几何信息以产生真实的沉浸感,改善现有方法在场景深度信息存在误差、噪声的情况下合成质量显著下降问题的不足,对于场景深度图信息中的误差有较强鲁棒性。
本发明提供的技术方案是:
一种基于图像局部分割的虚拟视点合成方法,将输入的左右图像映射到虚拟视点进行融合得到合成的图像;通过利用场景的物体分割信息对粗糙的、有噪声的深度图进行平滑去噪,并且在进行视点合成的过程中通过局部区域的切分来解决遮挡问题,对于场景深度信息中的误差有较强鲁棒性;包括如下步骤:
第一步,对输入的左右图像进行立体匹配并去除噪声;
首先使用立体匹配算法SGM(Semi Global Matching,半全局匹配算法)得到初始的视差图。对得到的左右视点的视差图进行左右一致性检验和比率测试,将每个像素位置的视差相应地标记为“可靠”,“不可靠”和“遮挡”,对标记为“遮挡”的视差可以通过周围的背景视差进行替换。
第二步,对初始的视差图切分成规则的网格,进行下采样;对得到的视差图中标记为“不可靠”的视差,通过场景的色彩信息进行替换;具体地,首先将视差图切分成规则的网格,并对每个格点周围的色彩信息使用LAB颜色直方图进行记录。对于周围一定范围内有可靠视差的格点,进行平面拟合估计出一个视差。对于周围仅有不可靠深度的格点,通过在规则网格上利用动态规划算法求解最有可能与其位于同一物体上的格点,利用格点上的深度对其进行替换。
第三步,对于视差图上每个矩形网格,根据其四个角点的视差信息,判断该网格内是否存在深度断层;
由于位于深度断层上的矩形网格的内容在新合成的视点上会产生遮挡,因此需要将其中的前景物体和背景物体区域切分开分别进行映射。根据四个角度的视差信息还可以将需要切分的网格划分为“横向切分”、“纵向切分”、“对角线切分”,并以此确定分割线的起始边和终止边。寻找切分线的问题可以相应地转化为在网格寻找从初始边到终止边的最短路径问题,并通过动态规划求解。
第四步,将输入的左右图像映射到虚拟视点进行融合得到合成的图像;
对于内部没有深度断层的矩形网格,可以直接通过其角点上的视差信息映射到虚拟视点上;对于内部有深度断层的矩形网格,可以沿着切分线将它分成两部分,分别按照前景,背景的视差映射到虚拟视点上。合成的虚拟视点需要维护一个视差缓存区z-buffer,即在每个像素位置需要记录映射到这个位置上的像素对应的视差,具有更高视差值的像素会遮挡视差值较低的像素。
通过上述步骤,获得虚拟视点合成的图像。
与现有技术相比,本发明的有益效果是:
本发明提供一种基于图像局部分割的虚拟视点合成方法,能够在深度图存在比较大的瑕疵的情况下保证视点合成的主观质量不会显著下降,并最大可能地保持场景的几何信息以产生真实的沉浸感,改善现有方法在场景深度信息存在误差、噪声的情况下合成质量显著下降问题的不足,对于场景深度图信息中的误差有较强鲁棒性。本发明具有以下优点:
一,针对基于深度图的视点合成进行了改进,对含有噪声的深度图通过场景的纹理和分割信息进行平滑去噪,降低深度估计噪声对视点合成质量的影响。
二,利用场景的颜色信息和几何位置信息,使用视差图中可靠的视差来替换不可靠视差,提升了视差图的完整性。
三,利用场景的深度和颜色信息对图像的中含有深度断层的局部区域进行切分,解决了虚拟视点合成中的遮挡问题。
附图说明
图1是本发明提供的虚拟视点合成方法的流程框图。
图2本发明实施例进行虚拟视点合成实施步骤的示意图。
图3是本发明实施例中虚拟视点合成效果的对比图。
其中,(a)为采用基于图像域形变的视点合成方法的合成结果;(b)为采用基于深度图的视点合成方法的合成结果;(c)为使用本发明提供的虚拟视点合成方法进行虚拟视点合成的结果。
具体实施方式
下面结合附图,通过实施例进一步描述本发明,但不以任何方式限制本发明的范围。
本发明提供一种基于图像局部分割的虚拟视点合成方法,通过利用场景的物体分割信息对粗糙的、有噪声的深度图进行平滑去噪,并且在进行视点合成的过程中通过局部区域的切分来解决遮挡问题,从而获得虚拟视点图像;图1是本发明提供的虚拟视点合成方法的流程框图。本发明对于场景深度信息中的误差有较强鲁棒性。
图2表示了本发明实施例进行虚拟视点合成的实施步骤,实施例输入的左、右图像为MiddleBury立体匹配数据集中的一组测试图片Aloe,首先经过立体匹配得到初始视差图,对初始视差图进行下采样和调优得到规则网格上的稀疏视差,将所有含有深度断层的网格进行切分开,最终将输入的左右图像映射到虚拟视点进行融合得到合成的图像,具体包括如下步骤:
第一步:对输入的左右图像进行立体匹配并去除噪声。首先使用SGM立体匹配算法得到初始的视差图。对得到的左右视点的视差图进行左右一致性检验和比率测试。
第二步:对初始视差图进行下采样,得到稀疏的深度图。首先将视差图切分成规则的网格,并对格点位置上的稀疏视差进行估计,具体步骤分为两轮。
在第一轮中,对格点位置(p,q),采集其周围大小为Δx×Δy窗口内部所有的可靠视差值并构建一个大小为max_disparity+1的视差直方图H。记H中具有最多数量的视差级为d*,S为窗口内可靠视差的总数量。如果满足式1表示的约束条件,则标记当前格点位置为“可靠”:
其中,阈值参数取值可τ1=0.5;τ2=0.8。
以集合表示”可靠”格点周围的可靠视差值以及其图像坐标,通过式2对M进行视差平面拟合:
π(x,y)=πax+πby+πc (式2)
式2中,πa,πb,πc为拟合的平面系数。
并据此计算当前格点的视差值disp(p,q)为:
disp(p,q)=πaΔxp+πbΔyq+πc (式3)
p、q为路径上相邻两个节点
在第二轮中,对于没有标记为“可靠”的格点位置(“不可靠”的格点位置)的视差进行估计。具体地对每个格点位置,收集其周围Δx×Δy窗口内的LAB颜色信息(LAB为一种颜色空间)并构建一个直方图。记当前“不可靠”的格点位置为Ns,对其周围W/6×H/6范围内的所有“可靠”格点使用动态规划算法计算Ns到的路径费用,其中,两个相邻节点的路径费用表示为式4:
其中,d(.,.)表示两个LAB直方图之间的χ2距离,γ代表一条路径经过的节点,C(.,.)表示两个节点间路径的代价,表示两个节点间所有路径中的最小代价。以上述路径中有最小费用的目标节点上的差值赋给Ns。
第三步:对于每个矩形网格,根据其四个角点的视差信息,判断该网格内是否存在深度断层。由于位于深度断层上的矩形网格的内容在新合成的视点上会产生遮挡,因此需要将其中的前景物体和背景物体区域切分开分别进行映射。
对于一个矩形网格Q(p,q),将其四个角点上的视差值{d1,d2,d3,d4}根据式5分为子集S1、S2、…Sk…:
以N表示分割后子集的总个数,如果N=1,那么该网格内不存在深度断层,不需要进行切分。如果N=2,那么该网格内存在深度断层,需要进行切分。如果N≥3,那么当前网格的角点视差不一致,舍弃当前的网格。对于N=2的情况,我们还可以根据角点的视差分布将其分为“横向切分”,“纵向切分”或“对角线切分”。
以“横向切分”为例,记该网格内竖直方向的左右两个边分别为起始边和终止边,寻找切分线的问题可以转化为求解所有从起始边上某个节点到终止边上某个节点的路径中花费最小的一条,其中路径上相邻两个节点p,q的花费定义为p点上的边缘强度。
第四步:对于内部没有深度断层的矩形网格,可以直接通过其角点上的视差信息映射到虚拟视点上。对于内部有深度断层的矩形网格,可以沿着切分线将它分成两部分,分别按照前景、背景的视差映射到虚拟视点上,用视差缓存区(z-buffer)消除遮挡的像素。
对左右视图IL,IR分别进行上述视点映射后,需要通过式6对得到的虚拟视点图像进行融合,得到最终的合成视点IM:
其中,0<α<1,表示虚拟视点到左视点IL的归一化距离;IM为最终的合成视点,为IL,IR映射到虚拟视点位置的图像,具体合成效果如图3所示。
图3是本实施例最终的输出结果,并经本发明方法得到的结果与传统的方法的进行比较,如图3所示,其中,(a)为采用基于图像域形变的视点合成方法的合成结果;(b)为采用基于深度图的视点合成方法的合成结果;(c)为使用本发明提供的虚拟视点合成方法进行虚拟视点合成的结果。图3表明,本发明方法能有效减少传统方法合成产生的瑕疵。
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。
Claims (6)
1.一种基于图像局部分割的虚拟视点合成方法,将输入的左右图像映射到虚拟视点进行融合得到合成的图像;包括如下步骤:
第一步,对输入的左右图像进行立体匹配并去除噪声;得到初始的视差图;对得到的左右视点的视差图进行左右一致性检验和比率测试,将每个像素位置的视差相应地标记类别,分别为“可靠”、“不可靠”和“遮挡”;
第二步,对初始的视差图进行下采样,将视差图切分成规则的网格,对格点位置上的稀疏视差进行估计;
第三步,对于视差图上每个矩形网格,根据矩形网格四个角点的视差信息,判断该网格内是否存在深度断层;
第四步,对于内部没有深度断层的矩形网格,不切分而直接通过其角点上的视差信息映射到虚拟视点上;对于内部有深度断层的矩形网格,进行切分,分别按照前景和背景的视差映射到虚拟视点上,并维护一个视差缓存区用于记录映射到每个像素位置上的像素对应的视差;
第五步,对视点映射后得到的虚拟视点图像进行融合,获得最终的合成视点图像。
2.如权利要求1所述合成方法,其特征是,所述第一步通过立体匹配算法SGM进行立体匹配,得到初始的视差图。
3.如权利要求1所述合成方法,其特征是,所述第二步对格点位置上的稀疏视差进行估计,具体包括第一轮估计和第二轮估计:
在第一轮估计中,对格点位置(p,q)采集其周围大小为Δx×Δy窗口内部所有的可靠视差值,构建一个大小为max_disparity+1的视差直方图H;记H中具有最多数量的视差级为d*,S为窗口内可靠视差的总数量;当满足式1表示的约束条件时,标记当前格点位置为“可靠”:
其中,τ1、τ2为阈值参数;
以集合表示“可靠”格点周围的可靠视差值及其图像坐标,通过式2对M进行视差平面拟合:
π(x,y)=πax+πby+πc (式2)
式2中,πa,πb,πc为拟合的平面系数;
并通过式3计算当前格点的视差值disp(p,q)为:
disp(p,q)=πaΔxp+πbΔyq+πc (式3)
其中,p、q为路径上相邻两个节点;
第二轮估计对没有标记为“可靠”的格点位置(“不可靠”的格点位置)的视差进行估计;具体地,对每个格点位置,收集其周围Δx×Δy窗口内的LAB颜色信息并构建一个直方图,记当前“不可靠”的格点位置为Ns,对其周围W/6×H/6范围内的所有“可靠”格点使用动态规划算法计算Ns到的路径费用,其中,两个相邻节点的路径费用表示为式4:
其中,d(.,.)表示两个LAB直方图之间的χ2距离,γ代表一条路径经过的节点,C(.,.)表示两个节点间路径的代价,表示两个节点间所有路径中的最小代价。
4.如权利要求1所述合成方法,其特征是,所述第三步具体通过如下方法判断网格内是否存在深度断层:
对于一个矩形网格Q(p,q),将其四个角点上的视差值{d1,d2,d3,d4}根据式5分为子集S1、S2、…、Sk:
当网格分割后子集的总个数等于1时,该网格内不存在深度断层;当网格分割后子集的总个数等于2时,该网格内存在深度断层;当网格分割后子集的总个数大于等于N≥3时,表明该网格的角点视差不一致,舍弃当前的网格。
5.如权利要求1所述合成方法,其特征是,第四步所述对于内部有深度断层的矩形网格进行切分,具体可根据角点的视差分布分为横向切分、纵向切分或对角线切分。
6.如权利要求1所述合成方法,其特征是,第五步通过式6对得到的虚拟视点图像进行融合,得到最终的合成视点IM:
其中,0<α<1,表示虚拟视点到左视点IL的归一化距离;IM为最终的合成视点,为IL,IR映射到虚拟视点位置的图像。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710113048.7A CN107071383A (zh) | 2017-02-28 | 2017-02-28 | 基于图像局部分割的虚拟视点合成方法 |
US16/489,209 US10887569B2 (en) | 2017-02-28 | 2017-08-14 | Virtual viewpoint synthesis method based on local image segmentation |
PCT/CN2017/097358 WO2018157562A1 (zh) | 2017-02-28 | 2017-08-14 | 基于图像局部分割的虚拟视点合成方法 |
US16/553,948 US10834374B2 (en) | 2017-02-28 | 2019-08-28 | Method, apparatus, and device for synthesizing virtual viewpoint images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710113048.7A CN107071383A (zh) | 2017-02-28 | 2017-02-28 | 基于图像局部分割的虚拟视点合成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107071383A true CN107071383A (zh) | 2017-08-18 |
Family
ID=59622250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710113048.7A Pending CN107071383A (zh) | 2017-02-28 | 2017-02-28 | 基于图像局部分割的虚拟视点合成方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10887569B2 (zh) |
CN (1) | CN107071383A (zh) |
WO (1) | WO2018157562A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062741A (zh) * | 2017-12-15 | 2018-05-22 | 上海兴芯微电子科技有限公司 | 双目图像处理方法、成像装置和电子设备 |
CN108337498A (zh) * | 2018-01-31 | 2018-07-27 | 北京大学深圳研究生院 | 一种曲面拟合的视差计算方法及系统 |
CN108921938A (zh) * | 2018-06-28 | 2018-11-30 | 西安交通大学 | 3d场景中基于最小费用最大流的层次结构构建方法 |
WO2022120809A1 (zh) * | 2020-12-11 | 2022-06-16 | Oppo广东移动通信有限公司 | 虚拟视点绘制、渲染、解码方法及装置、设备、存储介质 |
CN115100621A (zh) * | 2022-08-25 | 2022-09-23 | 北京中科慧眼科技有限公司 | 基于深度学习网络的地面场景检测方法和系统 |
CN115866151A (zh) * | 2023-02-27 | 2023-03-28 | 南昌市一境信息技术有限公司 | 一种图像通信方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022141222A1 (zh) * | 2020-12-30 | 2022-07-07 | Oppo广东移动通信有限公司 | 虚拟视点生成、渲染、解码方法及装置、设备、存储介质 |
CN113763449B (zh) * | 2021-08-25 | 2022-08-12 | 合肥的卢深视科技有限公司 | 深度恢复方法、装置、电子设备及存储介质 |
CN116542859B (zh) * | 2023-07-06 | 2023-09-01 | 武汉船舶职业技术学院 | 用于智能建造的建筑结构柱图像缩略图智能生成方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102938844A (zh) * | 2011-10-13 | 2013-02-20 | 微软公司 | 利用立体成像生成自由视点视频 |
US20150348319A1 (en) * | 2014-06-03 | 2015-12-03 | Alexey M. Supikov | Adaptive re-meshing for view interpolation from images with depth or disparity |
CN106210696A (zh) * | 2016-07-22 | 2016-12-07 | 北京大学深圳研究生院 | 一种实时虚拟视点合成的方法及装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7257272B2 (en) * | 2004-04-16 | 2007-08-14 | Microsoft Corporation | Virtual image generation |
US8780172B2 (en) * | 2009-01-27 | 2014-07-15 | Telefonaktiebolaget L M Ericsson (Publ) | Depth and video co-processing |
EP2461579A4 (en) * | 2009-07-29 | 2012-06-06 | Huawei Device Co Ltd | METHOD, DEVICE AND SYSTEM FOR VIDEO COMMUNICATION |
CN101720047B (zh) | 2009-11-03 | 2011-12-21 | 上海大学 | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 |
US9030530B2 (en) * | 2009-12-15 | 2015-05-12 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
US8670630B1 (en) * | 2010-12-09 | 2014-03-11 | Google Inc. | Fast randomized multi-scale energy minimization for image processing |
US20120206442A1 (en) * | 2011-02-14 | 2012-08-16 | Dong Tian | Method for Generating Virtual Images of Scenes Using Trellis Structures |
US9565450B2 (en) * | 2012-03-07 | 2017-02-07 | Lg Electronics Inc. | Method and device for processing video signal |
US9462301B2 (en) * | 2013-03-15 | 2016-10-04 | Google Inc. | Generating videos with multiple viewpoints |
CN104756489B (zh) | 2013-07-29 | 2018-01-23 | 北京大学深圳研究生院 | 一种虚拟视点合成方法及系统 |
CN104574342B (zh) | 2013-10-14 | 2017-06-23 | 株式会社理光 | 视差深度图像的噪声识别方法和噪声识别装置 |
EP2887311B1 (en) | 2013-12-20 | 2016-09-14 | Thomson Licensing | Method and apparatus for performing depth estimation |
US20180091798A1 (en) * | 2016-09-26 | 2018-03-29 | Imec Taiwan Co. | System and Method for Generating a Depth Map Using Differential Patterns |
US20200162719A1 (en) | 2017-02-07 | 2020-05-21 | Mindmaze Holding Sa | Systems, methods and apparatuses for stereo vision |
-
2017
- 2017-02-28 CN CN201710113048.7A patent/CN107071383A/zh active Pending
- 2017-08-14 WO PCT/CN2017/097358 patent/WO2018157562A1/zh active Application Filing
- 2017-08-14 US US16/489,209 patent/US10887569B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102938844A (zh) * | 2011-10-13 | 2013-02-20 | 微软公司 | 利用立体成像生成自由视点视频 |
US20150348319A1 (en) * | 2014-06-03 | 2015-12-03 | Alexey M. Supikov | Adaptive re-meshing for view interpolation from images with depth or disparity |
CN106210696A (zh) * | 2016-07-22 | 2016-12-07 | 北京大学深圳研究生院 | 一种实时虚拟视点合成的方法及装置 |
Non-Patent Citations (3)
Title |
---|
G. CHAURASIA, S. DUCHENE, O. SORKINE-HORNUNG, AND G. DRETTAKIS: "《Depth synthesis and local warps for plausible image-based navigation》", 《ACM TRANSACTIONS ON GRAPHICS (TOG), VOL. 32, NO. 3, P. 30, 2013》 * |
XIUBAO JIANG;RONGGANG WANG;JIAJIA LUO;ZHENYU WANG;WEN GAO: "《Robust view interpolation with mesh cutting》", 《2016 VISUAL COMMUNICATIONS AND IMAGE PROCESSING (VCIP) 》 * |
姚莉,吴琼颖,许辉: "《基于网格映射的虚拟视点合成》", 《系统仿真学报》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062741A (zh) * | 2017-12-15 | 2018-05-22 | 上海兴芯微电子科技有限公司 | 双目图像处理方法、成像装置和电子设备 |
CN108062741B (zh) * | 2017-12-15 | 2021-08-06 | 上海兴芯微电子科技有限公司 | 双目图像处理方法、成像装置和电子设备 |
CN108337498A (zh) * | 2018-01-31 | 2018-07-27 | 北京大学深圳研究生院 | 一种曲面拟合的视差计算方法及系统 |
CN108337498B (zh) * | 2018-01-31 | 2020-04-28 | 北京大学深圳研究生院 | 一种曲面拟合的视差计算方法及系统 |
CN108921938A (zh) * | 2018-06-28 | 2018-11-30 | 西安交通大学 | 3d场景中基于最小费用最大流的层次结构构建方法 |
CN108921938B (zh) * | 2018-06-28 | 2020-06-19 | 西安交通大学 | 3d场景中基于最小费用最大流的层次结构构建方法 |
WO2022120809A1 (zh) * | 2020-12-11 | 2022-06-16 | Oppo广东移动通信有限公司 | 虚拟视点绘制、渲染、解码方法及装置、设备、存储介质 |
CN115100621A (zh) * | 2022-08-25 | 2022-09-23 | 北京中科慧眼科技有限公司 | 基于深度学习网络的地面场景检测方法和系统 |
CN115866151A (zh) * | 2023-02-27 | 2023-03-28 | 南昌市一境信息技术有限公司 | 一种图像通信方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200099911A1 (en) | 2020-03-26 |
WO2018157562A1 (zh) | 2018-09-07 |
US10887569B2 (en) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107071383A (zh) | 基于图像局部分割的虚拟视点合成方法 | |
Cabral et al. | Piecewise planar and compact floorplan reconstruction from images | |
US10559127B2 (en) | Methods and systems for detecting and combining structural features in 3D reconstruction | |
Hirschmuller | Stereo processing by semiglobal matching and mutual information | |
CN101625768B (zh) | 一种基于立体视觉的三维人脸重建方法 | |
US9324184B2 (en) | Image three-dimensional (3D) modeling | |
CN104065947B (zh) | 一种集成成像系统的深度图获取方法 | |
CN106228605A (zh) | 一种基于动态规划的立体匹配三维重建方法 | |
US20080089577A1 (en) | Feature extraction from stereo imagery | |
CN103236160A (zh) | 基于视频图像处理技术的路网交通状态监测系统 | |
CN104780355A (zh) | 一种视点合成中基于深度的空洞修复方法 | |
CN108596975A (zh) | 一种针对弱纹理区域的立体匹配算法 | |
CN106530336B (zh) | 基于色彩信息和图割理论的立体匹配方法 | |
CN104156957A (zh) | 一种稳定高效的高分辨率立体匹配方法 | |
TW201300734A (zh) | 應用複數攝影裝置之物件定位方法 | |
CN108510529A (zh) | 一种基于自适应权值的图割立体匹配方法 | |
Lhuillier et al. | Manifold surface reconstruction of an environment from sparse structure-from-motion data | |
CN104778673B (zh) | 一种改进的高斯混合模型深度图像增强方法 | |
US10834374B2 (en) | Method, apparatus, and device for synthesizing virtual viewpoint images | |
Rothermel et al. | Fast and robust generation of semantic urban terrain models from UAV video streams | |
Ebrahimikia et al. | True orthophoto generation based on unmanned aerial vehicle images using reconstructed edge points | |
CN103955886A (zh) | 一种基于图论和灭点检测的2d-3d图像转换方法 | |
Kang et al. | Automatic texture reconstruction of 3d city model from oblique images | |
Dai et al. | Fast minimax path-based joint depth interpolation | |
Wei et al. | Dense and occlusion-robust multi-view stereo for unstructured videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170818 |
|
WD01 | Invention patent application deemed withdrawn after publication |