CN102750711A - 一种基于图像分割和运动估计的双目视频深度图求取方法 - Google Patents
一种基于图像分割和运动估计的双目视频深度图求取方法 Download PDFInfo
- Publication number
- CN102750711A CN102750711A CN2012101816535A CN201210181653A CN102750711A CN 102750711 A CN102750711 A CN 102750711A CN 2012101816535 A CN2012101816535 A CN 2012101816535A CN 201210181653 A CN201210181653 A CN 201210181653A CN 102750711 A CN102750711 A CN 102750711A
- Authority
- CN
- China
- Prior art keywords
- template
- image segmentation
- depth map
- estimation
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明提出了一种基于图像分割和运动估计的双目视频深度图求取方法,其包括如下步骤:对两幅图像分别进行单帧图像分割;利用基于图像分割的立体匹配算法进行深度计算;利用运动估计修正深度提取的结果。该基于图像分割和运动估计的双目视频深度图求取方法提取的深度图边缘准确,在遮挡部分也能够得到理想效果,能够兼顾准确性和实时性,真实地反映出场景物体的远近关系。
Description
技术领域
本发明涉及计算机多媒体技术领域,特别涉及一种基于图像分割和运动估计的双目视频深度图求取方法。
背景技术
立体视频是一种能够使人产生立体感的新型视频技术,它可以使人通过视频看到与真实世界几乎完全一样的景象,产生真实感和临场感,所以必将成为未来多媒体技术的发展方向。目前,通常采用的立体视频体系结构为:同时传输两段视频,其中一段是待转换的平面视频序列,另一段是相对应的深度图序列,其包含了各帧中每个像素的深度信息,通过DIBR(Depth Image BasedRendering,基于深度图渲染)技术,获得真实世界场景在一个或多个方向上的虚拟视角,最终合成立体视频。
这种使用DIBR技术的立体视频体系结构,最重要的和最困难的一步就是深度图的获取,目前,一种获取方法是通过软件算法,由一对从不同视角拍摄到的场景图像恢复出场景的深度图,还有一种方法是通过对平面图像进行手工或半自动地处理,得到伪深度图。
但是,上述获取双目视频深度图的方法存在很多缺陷,例如边缘不够准确,在遮挡部分得不到理想效果,准确性和实时性无法兼顾,深度图不能够较真实的反映场景物体的远近关系等。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种基于图像分割和运动估计的双目视频深度图求取方法。
为了实现本发明的上述目的,本发明提供了一种基于图像分割和运动估计的双目视频深度图求取方法,其包括如下步骤:
S1:对两幅图像分别进行单帧图像分割;
S2:利用基于图像分割的立体匹配算法进行深度计算;
S3:利用运动估计修正深度提取的结果。
本发明的基于图像分割和运动估计的双目视频深度图求取方法提取的深度图边缘准确,在遮挡部分也能够得到理想效果,能够兼顾准确性和实时性,真实地反映出场景物体的远近关系。
在本发明的优选实施例中,采用自适应grabcut算法对两幅图像分别进行分割。该自适应grabcut算法为:假设前景为一个圆形,先对图片进行hough变换寻找前景,再进行grabcut算法进行分割。
本发明的图像分割方法充分利用彩色图像的彩色信息将图像分割成不同区域,有效克服了视差图边界模糊问题,能较好处理大的低纹理区域。
在本发明的另一优选实施例中,计算初始匹配点的方法为:计算各像素在不同视差的叠加匹配代价时采用改进的SSD算法,窗口选取为3*3,在分析和利用计算图像每个窗口的SSD值时的模板在水平方向和竖直方向上具有的平移特性,以及前后上下窗口模板的相互关系,利用已计算的值,来计算新的窗口的SSD值。
本发明改进了grabcut和SSD算法,提出了新的能量函数和评价函数,得到了较好的深度图效果。
在本发明的另一优选实施例中,进行深度计算的方法时引入模板优化和模板分配。该模板优化和模板分配的方法为:将不同时刻的同一不可靠区域的模板作为不同阶段,此时对应的全局能量函数值即为此阶段的状态,每次改变一个不可靠区域的模板,而同时其他区域模板均不作改变,采用自底向上的方式计算最优值,最不同时刻的值依次计算,计算完成后,计算临近帧能量函数值相差最小的一条最优轨迹,同时,更新这些帧的模板区域分配,下一帧使用更新后的结果。
本发明区域模板及模板优化的引入使得整个算法具有更好的鲁棒性。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明基于图像分割和运动估计的双目视频深度图求取方法的流程图;
图2是本发明一个优选实施例中提供的单帧场景图像对;
图3是图2中所示单帧场景图像对利用基于图像分割的立体匹配算法进行深度计算后的深度图;
图4是图3中所示图像利用运动估计进行修正后的深度图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
图1是本发明基于图像分割和运动估计的双目视频深度图求取方法的流程图,从图中可见,该基于图像分割和运动估计的双目视频深度图求取方法包括如下步骤:
S1:对两幅图像分别进行单帧图像分割;
S2:利用基于图像分割的立体匹配算法进行深度计算;
S3:利用运动估计修正深度提取的结果。
在本实施方式中,步骤S1中采用自适应grabcut算法对两幅图像分别进行分割。该自适应grabcut算法为:假设前景为一个圆形,先对图片进行hough变换寻找前景,再进行grabcut算法进行分割。对图片进行hough变换寻找前景的方法为:先在2维平面的每个切面上检测圆形,将每个切片圆心的累计值加到同一个二维累计数组中,最终累计数组最大值所在位置就是二维平面上的球心,利用这个球心在每个切片上估计圆的半径,在第三维和半径平面上进行累计,取最大值即可得到球心在第三维位置和半径。
具体地,采用grabcut算法需要首先在图像上人工通过笔画标定前景和背景,为了达到自适应grabcut算法的效果,第一步需要标定前景位置,为了处理方便,将物体的前景假设为圆形,采用hough变化确定位置。首先在xyz三维景物上做平行于xy平面的各个切片的采样,并在这些平面上检测圆形,先将所有检测到的所有边界标记下来,将所有不过同一直线的边界上3个点的组合看作一个圆形,计算这个圆形的圆心,将每个切片的圆心位置统计下来,将这些圆心的累计值都加到一个二维数组中,将数组中每个圆心对应位置记为1,最终累计数组中最大值的所在位置就作为球心在xy平面上的投影位置,利用这个坐标,可以得到关于这个坐标在每个切片上圆半径的估计值,利用这些值再关于z轴和球半径r做累计,得到的累计最大值就作为球的半径。估计出球心位置和半径之后,可以得到在z轴上的起始和终止位置,将能量函数定义为:
其中,Rt(At)为grabcut算法中定义的参量,Rt=-lnR(It)表示在对象中t像素的亮度I出现的概率,应该由统计人工笔画像素点在前景和背景出现的概率而决定,在本实施方式中将这个概率看成是正态分布,其中,在检测到的圆形中搜索亮度最小值和最大值,将最小值定位于正态分布x轴左端,将最大值定位于正态分布x轴右端,均值定位于原点,其余值按照比例关系分别定位,由此估计出各个亮度I的概率。能量函数中的是定义的代价项,其中为加权值,由点I出现在正态分布y轴的左边或者右边决定,出现在左边即取人工设定的在右边即取设定的Pt(At)为代价值,由t点与圆心直接的像素距离和亮度差决定,记为:
按照此能量函数迭代后即可估计出前景和背景的标定,同时基于防止错分情况的发生,设定硬性阈值条件,前景亮度值与当前圆中亮度最小值的差须大于当前圆中亮度最大值与最小值差的25%。
按照求得的前景和背景标记结果利用grabcut算法对单帧图像进行分割,具体地,使用GMM模型来建立彩色图像数据模型。前景和背景的每一个GMM都可以看作是一个K维的协方差,在本实施方式中,K取为5。为了方便处理GMM,在优化过程中引入向量k=(k1,…,kn,…,kN)作为每个像素的独立GMM参数,且kn∈{1,2,…,K},相应像素点上的不透明度α=0或1。能量函数改写为:
E(α,k,θ,z)=U(α,k,θ,z)+V(α,z) (3)
其中,U为数据项,V为平滑项,α为相应像素点上的不透明度,k为像素对应的GMM里的高斯模型序号,θ为GMM参数,z为图像的像素。grabcut算法中的能量最小化通过迭代来实现,不像Graph cuts算法是一次完成的,优点是可自动修改不透明度α值,并利用从初始三元图的像素中重新确定的像素来校正彩色模型GMM的参数θ。
grabcut算法的主要流程描述如下:
1)确定前景和背景的标定点,用α=0或者1初始化前景和背景的GMM模型;
3)边界优化,对于边界优化应该用连续的α值来处理。可以进一步优化硬分割,这种方法允许在硬分割边界附近存在一条完全透明的窄带,这就足以处理当前待分割物体边界处的模糊和像素重叠问题。边界优化主要任务是统计这个窄带的α图,恢复前景的颜色。
图2是本发明一个优选实施例中提供的单帧场景图像对,在采用步骤S1对两幅图像分别进行单帧图像分割后,进行步骤S2,即利用基于图像分割的立体匹配算法进行深度计算。具体是先计算初始匹配点,然后计算模板和不同区域的合并,最后进行模板优化和模板分配。在本实施方式中,计算初始匹配点的方法为:计算各像素在不同视差的叠加匹配代价时采用改进的SSD算法,窗口选取为3*3,在分析和利用计算图像每个窗口的SSD值时的模板在水平方向和竖直方向上具有的平移特性,以及前后上下窗口模板的相互关系,利用已计算的值,来计算新的窗口的SSD值。计算模板和不同区域的合并的方法为:利用加权最小二乘法计算可靠区域的模板参数,对于不可靠区域,利用相同或相近的可靠区域模板代替,取可靠区域模板集合中相似度匹配代价最小的模板作为该区域的初始模板。模板优化和模板分配的方法为:将不同时刻的同一不可靠区域的模板作为不同阶段,此时对应的全局能量函数值即为此阶段的状态,每次改变一个不可靠区域的模板,而同时其他区域模板均不作改变,采用自底向上的方式计算最优值,最不同时刻的值依次计算,计算完成后,计算临近帧的能量函数值相差最小的一条最优轨迹,同时,更新这些帧的模板区域分配,下一帧使用更新后的结果。
对两幅分割好的图像进行初始匹配点计算时,匹配点视差的初始值的准确性对模板的估计影响很大,除了通常用的交叉校验外,本发明还采用了相似点误差滤除,从而进一步增强了初始值的可靠性。
在计算各像素在不同视差的叠加匹配代价时采用改进的SSD算法,窗口大小为3×3。如果扩大窗口大小,在低纹理区将获得更加可靠的初始匹配结果,但同时也会不可避免的增强基于区域算法中的“前景膨胀效应”。位于背景层的遮挡区域,这种区域与前景物体形成匹配关系后,将会造成物体边界扩大,形成所谓的“前景膨胀效应”。所以遮挡区域对深度图的结果有很大影响。显然,窗口越大,上述的前景膨胀效应越大,所以在本算法中所有的叠加匹配代价都用3×3小窗口进行计算。
在分析和利用计算图像每个窗口的SSD值时的模板在水平方向和竖直方向上具有的平移特性,以及前后上下窗口模板的相互关系,利用已计算的值,来计算新的窗口的SSD值,这样能够有效的降低计算量,而且可以使初始匹配点结果更为平滑,这对最后深度图的平滑和精度是很重要的。
在获取可靠点的视差值之后,开始计算模板,采用的是加权最小二乘法,并进行多次迭代直至参数收敛。可靠区域确定之后,为了使模板计算更为准确,需要充分利用可靠区域里的匹配点数。采用加权最小二乘法,并多次迭代求取可靠区域的模板参数。对于每个不可靠区域,无法直接计算其模板参数,可以利用相同或相近的可靠区域模板代替,以便模板参数优化阶段使用。取可靠区域模板集合中相似度匹配代价最小的一个模板作为该区域的初始模板。
由于通过对每个不可靠区域进行模板分配使得全局能量函数取得最小值是一个NP(Non-Deterministic Polynomial,非确定多项式)问题。为此本发明采用动态规划算法求全局最优解来得到更好的效果。这里选用动态规划算法的原因是本发明使用的是双目视频,每一帧都有前后帧的信息,在这种情况下,动态规划法能很好的利用到前后帧的信息,得到更好的精度。在求解过程中,首先进行镜头检测,将视频相邻两帧所有像素亮度值相减,据此得到一个统计直方图,视为一个高斯模型,并由此模型判断当相邻帧像素亮度差大于某一阈值时,此镜头结束。本发明将不同时刻的同一不可靠区域的模板作为不同阶段,对应的全局能量函数值即为此阶段的状态:
E=Edata+Esmooth (4)
其中,E为总的能量函数,数据项EK为计算的这几帧每帧的全局能量函数,N为帧间改变的点的个数,P为人工设定的加权系数,其中EK=∑C(x.y.d)+n*p,其中,C(x.y.d)为单帧图像各个像素的能量函数,n为遮挡点的个数,p为对遮挡点的惩罚项系数,Esmooth=L*∑Z,L为当前不可靠区域的长度,Z为两帧同一区域内平滑项,其中的两帧同一区域取两帧同一区域并集,在这个并集中,当所有像素两帧间的亮度值的差大于某一帧当前像素亮度值的20%时,Z=1,其余都有Z=0,当∑Z大于此区域像素数的40%时,视为镜头检测错误,此镜头结束。每次改变一个不可靠区域的模板,而同时其他区域模板均不作改变,采用自底向上的方式计算最优值,将不同时刻的值依次计算,计算完成后,计算临近帧的能量函数值相差最小的一条最优轨迹,同时,更新这些帧的模板区域分配,下一帧使用更新后的结果。图3即是图2中所示单帧场景图像对利用基于图像分割的立体匹配算法进行深度计算后的深度图。
在利用基于图像分割的立体匹配算法进行深度计算后,进行步骤S3,即利用运动估计修正深度提取的结果。图4即是图3中所示图像利用运动估计进行修正后的深度图。在本实施方式中,具体是首先利用光流法进行运动估计,利用同一镜头内其他帧信息提高预测精度,即提取出当前帧前后的多个帧,用当前帧和所有提取出来的帧之间寻找最优匹配块进行运动补偿,利用BP算法求解融入时间项后的能量函数。
在本实施方式中,采用OpenCV光流法进行运动估计,首先利用goodFeatures To Track函数得到图像中的强边界作为跟踪的特征点,接下来调用calcOptical Flow PyrLK函数,输入两幅连续的图像,并在第一幅图像里选择一组特征点,输出是这组特征点在下一幅图像中的位置。再把得到的跟踪结果过滤一下,去掉不好的特征点,再把特征点的跟踪路径标示出来。据此在原能量函数式中加入时间项:
E=Edata+Esmooth+Etime (5)
其中,Etime=Etime-r+Etime+r,
其中,k为当前镜头中帧数,p为图像中的像素,d为视差值,-r为当前点之前帧的取值,+r为当前点之后帧的取值,∑ρ(L(p,d)-L(p-r,d))为在当前帧p点与同一镜头内当前帧之前每一帧d视差下的光流运动估计路径代价的总和。
本发明在修正了之前的能量函数后利用BP(Error Back Propagation,误差反向传播)算法求解新的能量函数,求得利用运动估计后提取的视差图。将时间维的颜色、几何信息融入到能量函数中,不仅增加同一视角前后帧深度图的连续性,同时也能利用旁帧的深度图对当前帧的一些错误深度进行纠正。此外,引入运动估计,正确时能增加正确视差的权重,在不准确的情况下,也不会对能量函数带来负面的影响,确保深度图至少能保证单帧求取的结果。
本发明在求取深度图后,利用求取的深度图进行多目DIBR,具体地,对于一张求得的降采样深度图,首先移除其中的遮挡区域,进行双边滤波以及有向非遮挡区域的填充,边缘增强得到一张平滑的深度图。深度图后处理之后,需要经过立体渲染来得到能够观赏的多目视图。立体渲染的方法包括两步:像素偏移和空洞填充。像素偏移将两幅图像作为输出的多目视图中的两部分,根据前面得到的双目图像匹配点信息为基础,对其中的视差进行插值计算,得出相邻图像每一像素应有的平移量,根据这个平移量设计DIBR参数。对于不同的视角来说,部分区域无法在所有视角中都看到,这种遮挡区域在经过像素偏移后需要进行填充,因为多目视图在像素平移后容易产生较大的空洞,所以使用Inpainting的方法进行填充,这种方法可以使空洞点很好地融合于周围的像素之中。
本发明针对目前双目视频深度提取中存在的边缘不够准确,在遮挡部分得不到理想效果,准确性和实时性无法兼顾,深度图不能较真实的反映出场景物体的远近关系等问题,通过单帧图像分割、计算双目图像初始匹配点、初始模板计算、不同区域模板计算、区域合并、模板优化、模板分配、计算前后帧运动估计纠正深度图错误、多目DIBR等步骤来实现。其中图像分割和初始匹配点的获取充分利用彩色图像的彩色信息将图像分割成不同区域,有效克服了视差图边界模糊问题,能较好处理大的低纹理区域。区域模板及模板优化的引入使得算法具有更好的鲁棒性。本发明改进了的grabcut算法及SSD算法,提出了新的能量函数和评价函数,得到和较好的深度图效果。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (9)
1.一种基于图像分割和运动估计的双目视频深度图求取方法,其特征在于,包括如下步骤:
S1:对两幅图像分别进行单帧图像分割;
S2:利用基于图像分割的立体匹配算法进行深度计算;
S3:利用运动估计修正深度提取的结果。
2.如权利要求1所述的基于图像分割和运动估计的双目视频深度图求取方法,其特征在于,采用自适应grabcut算法对两幅图像分别进行分割。
3.如权利要求2所述的基于图像分割和运动估计的双目视频深度图求取方法,其特征在于,所述自适应grabcut算法为:假设前景为一个圆形,先对图片进行hough变换寻找前景,再进行grabcut算法进行分割。
4.如权利要求3所述的基于图像分割和运动估计的双目视频深度图求取方法,其特征在于,所述对图片进行hough变换寻找前景的方法为:先在2维平面的每个切面上检测圆形,将每个切片圆心的累计值加到同一个二维累计数组中,最终累计数组最大值所在位置就是二维平面上的球心,利用这个球心在每个切片上估计圆的半径,在第三维和半径平面上进行累计,取最大值即可得到球心在第三维位置和半径。
5.如权利要求1所述的基于图像分割和运动估计的双目视频深度图求取方法,其特征在于,所述利用基于图像分割的立体匹配算法进行深度计算的方法为:先计算初始匹配点,然后计算模板和不同区域的合并,最后进行模板优化和模板分配。
6.如权利要求5所述的基于图像分割和运动估计的双目视频深度图求取方法,其特征在于,所述计算初始匹配点的方法为:计算各像素在不同视差的叠加匹配代价时采用改进的SSD算法,窗口选取为3*3,在分析和利用计算图像每个窗口的SSD值时的模板在水平方向和竖直方向上具有的平移特性,以及前后上下窗口模板的相互关系,利用已计算的值,来计算新的窗口的SSD值。
7.如权利要求5所述的基于图像分割和运动估计的双目视频深度图求取方法,其特征在于,所述计算模板和不同区域的合并的方法为:利用加权最小二乘法计算可靠区域的模板参数,对于不可靠区域,利用相同或相近的可靠区域模板代替,取可靠区域模板集合中相似度匹配代价最小的模板作为该区域的初始模板。
8.如权利要求5所述的基于图像分割和运动估计的双目视频深度图求取方法,其特征在于,所述模板优化和模板分配的方法为:将不同时刻的同一不可靠区域的模板作为不同阶段,此时对应的全局能量函数值即为此阶段的状态,每次改变一个不可靠区域的模板,而同时其他区域模板均不作改变,采用自底向上的方式计算最优值,最不同时刻的值依次计算,计算完成后,计算临近帧的能量函数值相差最小的一条最优轨迹,同时,更新这些帧的模板区域分配,下一帧使用更新后的结果。
9.如权利要求1所述的基于图像分割和运动估计的双目视频深度图求取方法,其特征在于,所述利用运动估计修正深度提取的结果的方法为:首先利用光流法进行运动估计,利用同一镜头内其他帧的信息提高预测精度,即提取出当前帧前后的多个帧,用当前帧和所有提取出来的帧之间寻找最优匹配块进行运动补偿,利用BP算法求解融入时间项后的能量函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210181653.5A CN102750711B (zh) | 2012-06-04 | 2012-06-04 | 一种基于图像分割和运动估计的双目视频深度图求取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210181653.5A CN102750711B (zh) | 2012-06-04 | 2012-06-04 | 一种基于图像分割和运动估计的双目视频深度图求取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102750711A true CN102750711A (zh) | 2012-10-24 |
CN102750711B CN102750711B (zh) | 2015-07-29 |
Family
ID=47030860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210181653.5A Active CN102750711B (zh) | 2012-06-04 | 2012-06-04 | 一种基于图像分割和运动估计的双目视频深度图求取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102750711B (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103237228A (zh) * | 2013-04-28 | 2013-08-07 | 清华大学 | 双目立体视频的时空一致性分割方法 |
CN103268604A (zh) * | 2013-05-10 | 2013-08-28 | 清华大学 | 双目视频深度图求取方法 |
CN104091339A (zh) * | 2014-07-17 | 2014-10-08 | 清华大学深圳研究生院 | 一种图像快速立体匹配方法及装置 |
CN104506872A (zh) * | 2014-11-26 | 2015-04-08 | 深圳凯澳斯科技有限公司 | 一种平面视频转立体视频的方法及装置 |
CN104680534A (zh) * | 2015-03-09 | 2015-06-03 | 西安电子科技大学 | 基于单帧复合模板的物体深度信息获取方法 |
CN104982032A (zh) * | 2012-12-12 | 2015-10-14 | 华为技术有限公司 | 3d图像数据分割的方法和装置 |
CN105069808A (zh) * | 2015-08-31 | 2015-11-18 | 四川虹微技术有限公司 | 基于图像分割的视频图像深度估计方法 |
CN105100771A (zh) * | 2015-07-14 | 2015-11-25 | 山东大学 | 一种基于场景分类和几何标注的单视点视频深度获取方法 |
CN105335934A (zh) * | 2014-06-06 | 2016-02-17 | 株式会社理光 | 视差图计算方法和装置 |
CN105516578A (zh) * | 2014-09-25 | 2016-04-20 | 联想(北京)有限公司 | 图像处理方法、装置及电子设备 |
CN106952222A (zh) * | 2017-03-17 | 2017-07-14 | 成都通甲优博科技有限责任公司 | 一种交互式图像虚化方法及装置 |
CN108205324A (zh) * | 2018-01-03 | 2018-06-26 | 李文清 | 一种智能道路清理装置 |
CN108492323A (zh) * | 2018-01-18 | 2018-09-04 | 天津大学 | 融合机器视觉与听觉的水下运动物体检测与识别方法 |
CN108596919A (zh) * | 2018-04-24 | 2018-09-28 | 重庆邮电大学 | 一种基于深度图的自动图像分割方法 |
CN109658451A (zh) * | 2018-12-04 | 2019-04-19 | 深圳市道通智能航空技术有限公司 | 一种深度感知方法,装置和深度感知设备 |
CN112258617A (zh) * | 2020-12-07 | 2021-01-22 | 南京爱奇艺智能科技有限公司 | 一种物体边缘修正优化的相机新视点图像生成方法和系统 |
CN112991193A (zh) * | 2020-11-16 | 2021-06-18 | 武汉科技大学 | 深度图像修复方法、设备及计算机可读存储介质 |
CN112991419A (zh) * | 2021-03-09 | 2021-06-18 | Oppo广东移动通信有限公司 | 视差数据生成方法、装置、计算机设备及存储介质 |
CN113052885A (zh) * | 2021-03-29 | 2021-06-29 | 中国海洋大学 | 一种基于光流和深度估计的水下环境安全性评估方法 |
CN113256611A (zh) * | 2021-06-21 | 2021-08-13 | 浙江光珀智能科技有限公司 | 一种rgb-d配准精度测试方法及设备 |
CN114463409A (zh) * | 2022-02-11 | 2022-05-10 | 北京百度网讯科技有限公司 | 图像深度信息的确定方法、装置、电子设备和介质 |
CN114780666A (zh) * | 2022-06-23 | 2022-07-22 | 四川见山科技有限责任公司 | 一种数字孪生城市中道路标签优化方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101640809A (zh) * | 2009-08-17 | 2010-02-03 | 浙江大学 | 一种融合运动信息与几何信息的深度提取方法 |
CN101710426A (zh) * | 2009-10-30 | 2010-05-19 | 无锡景象数字技术有限公司 | 一种深度图像跟踪方法 |
US20100220932A1 (en) * | 2007-06-20 | 2010-09-02 | Dong-Qing Zhang | System and method for stereo matching of images |
-
2012
- 2012-06-04 CN CN201210181653.5A patent/CN102750711B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100220932A1 (en) * | 2007-06-20 | 2010-09-02 | Dong-Qing Zhang | System and method for stereo matching of images |
CN101640809A (zh) * | 2009-08-17 | 2010-02-03 | 浙江大学 | 一种融合运动信息与几何信息的深度提取方法 |
CN101710426A (zh) * | 2009-10-30 | 2010-05-19 | 无锡景象数字技术有限公司 | 一种深度图像跟踪方法 |
Non-Patent Citations (4)
Title |
---|
FANG LIU ET AL.: "Disparity Estimation in Stereo Sequences using Scene Flow", 《BMVC 2009》 * |
丁丽君: "基于模板的可信传播立体匹配算法", 《中国优秀硕士学位论文全文数据库》 * |
李逵: "双目视觉立体匹配算法研究", 《中国优秀硕士学位论文全文数据库》 * |
韦轶群等: "基于自适应Graph Cuts的自动股骨头分割", 《上海交通大学学报》 * |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10096116B2 (en) | 2012-12-12 | 2018-10-09 | Huawei Technologies Co., Ltd. | Method and apparatus for segmentation of 3D image data |
CN104982032A (zh) * | 2012-12-12 | 2015-10-14 | 华为技术有限公司 | 3d图像数据分割的方法和装置 |
CN103237228B (zh) * | 2013-04-28 | 2015-08-12 | 清华大学 | 双目立体视频的时空一致性分割方法 |
CN103237228A (zh) * | 2013-04-28 | 2013-08-07 | 清华大学 | 双目立体视频的时空一致性分割方法 |
CN103268604B (zh) * | 2013-05-10 | 2016-06-01 | 清华大学 | 双目视频深度图求取方法 |
CN103268604A (zh) * | 2013-05-10 | 2013-08-28 | 清华大学 | 双目视频深度图求取方法 |
CN105335934B (zh) * | 2014-06-06 | 2018-10-26 | 株式会社理光 | 视差图计算方法和装置 |
CN105335934A (zh) * | 2014-06-06 | 2016-02-17 | 株式会社理光 | 视差图计算方法和装置 |
CN104091339A (zh) * | 2014-07-17 | 2014-10-08 | 清华大学深圳研究生院 | 一种图像快速立体匹配方法及装置 |
CN104091339B (zh) * | 2014-07-17 | 2017-01-11 | 清华大学深圳研究生院 | 一种图像快速立体匹配方法及装置 |
CN105516578A (zh) * | 2014-09-25 | 2016-04-20 | 联想(北京)有限公司 | 图像处理方法、装置及电子设备 |
CN105516578B (zh) * | 2014-09-25 | 2019-01-15 | 联想(北京)有限公司 | 图像处理方法、装置及电子设备 |
CN104506872A (zh) * | 2014-11-26 | 2015-04-08 | 深圳凯澳斯科技有限公司 | 一种平面视频转立体视频的方法及装置 |
CN104680534B (zh) * | 2015-03-09 | 2017-08-25 | 西安电子科技大学 | 基于单帧复合模板的物体深度信息获取方法 |
CN104680534A (zh) * | 2015-03-09 | 2015-06-03 | 西安电子科技大学 | 基于单帧复合模板的物体深度信息获取方法 |
CN105100771A (zh) * | 2015-07-14 | 2015-11-25 | 山东大学 | 一种基于场景分类和几何标注的单视点视频深度获取方法 |
CN105069808B (zh) * | 2015-08-31 | 2017-09-26 | 四川虹微技术有限公司 | 基于图像分割的视频图像深度估计方法 |
CN105069808A (zh) * | 2015-08-31 | 2015-11-18 | 四川虹微技术有限公司 | 基于图像分割的视频图像深度估计方法 |
CN106952222A (zh) * | 2017-03-17 | 2017-07-14 | 成都通甲优博科技有限责任公司 | 一种交互式图像虚化方法及装置 |
CN108205324B (zh) * | 2018-01-03 | 2021-01-15 | 耀维科技南京有限公司 | 一种智能道路清理装置 |
CN108205324A (zh) * | 2018-01-03 | 2018-06-26 | 李文清 | 一种智能道路清理装置 |
CN108492323A (zh) * | 2018-01-18 | 2018-09-04 | 天津大学 | 融合机器视觉与听觉的水下运动物体检测与识别方法 |
CN108596919A (zh) * | 2018-04-24 | 2018-09-28 | 重庆邮电大学 | 一种基于深度图的自动图像分割方法 |
CN108596919B (zh) * | 2018-04-24 | 2021-07-13 | 重庆邮电大学 | 一种基于深度图的自动图像分割方法 |
CN109658451A (zh) * | 2018-12-04 | 2019-04-19 | 深圳市道通智能航空技术有限公司 | 一种深度感知方法,装置和深度感知设备 |
CN112991193A (zh) * | 2020-11-16 | 2021-06-18 | 武汉科技大学 | 深度图像修复方法、设备及计算机可读存储介质 |
CN112258617A (zh) * | 2020-12-07 | 2021-01-22 | 南京爱奇艺智能科技有限公司 | 一种物体边缘修正优化的相机新视点图像生成方法和系统 |
CN112991419A (zh) * | 2021-03-09 | 2021-06-18 | Oppo广东移动通信有限公司 | 视差数据生成方法、装置、计算机设备及存储介质 |
CN112991419B (zh) * | 2021-03-09 | 2023-11-14 | Oppo广东移动通信有限公司 | 视差数据生成方法、装置、计算机设备及存储介质 |
CN113052885B (zh) * | 2021-03-29 | 2023-02-03 | 中国海洋大学 | 一种基于光流和深度估计的水下环境安全性评估方法 |
CN113052885A (zh) * | 2021-03-29 | 2021-06-29 | 中国海洋大学 | 一种基于光流和深度估计的水下环境安全性评估方法 |
CN113256611A (zh) * | 2021-06-21 | 2021-08-13 | 浙江光珀智能科技有限公司 | 一种rgb-d配准精度测试方法及设备 |
CN114463409A (zh) * | 2022-02-11 | 2022-05-10 | 北京百度网讯科技有限公司 | 图像深度信息的确定方法、装置、电子设备和介质 |
CN114463409B (zh) * | 2022-02-11 | 2023-09-26 | 北京百度网讯科技有限公司 | 图像深度信息的确定方法、装置、电子设备和介质 |
US11783501B2 (en) | 2022-02-11 | 2023-10-10 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method and apparatus for determining image depth information, electronic device, and media |
CN114780666A (zh) * | 2022-06-23 | 2022-07-22 | 四川见山科技有限责任公司 | 一种数字孪生城市中道路标签优化方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102750711B (zh) | 2015-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102750711B (zh) | 一种基于图像分割和运动估计的双目视频深度图求取方法 | |
Li et al. | Simultaneous video defogging and stereo reconstruction | |
CN103136726B (zh) | 用于恢复图像的深度信息的方法和设备 | |
CN105825173B (zh) | 通用道路和车道检测系统与方法 | |
Wedel et al. | Efficient dense scene flow from sparse or dense stereo data | |
CA2760973C (en) | Piecewise planar reconstruction of three-dimensional scenes | |
Broggi et al. | The single frame stereo vision system for reliable obstacle detection used during the 2005 DARPA grand challenge on TerraMax | |
Zhang et al. | Consistent depth maps recovery from a video sequence | |
Yang et al. | Near Real-time Stereo for Weakly-Textured Scenes. | |
CN110310320A (zh) | 一种双目视觉匹配代价聚合优化方法 | |
CN105069808A (zh) | 基于图像分割的视频图像深度估计方法 | |
CN103002309B (zh) | 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法 | |
CN102982334B (zh) | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 | |
CN101765019B (zh) | 一种用于运动模糊和光照变化图像的立体匹配方法 | |
CN103279961A (zh) | 基于深度恢复和运动估计的视频分割方法 | |
CN104820991A (zh) | 一种基于代价矩阵的多重软约束立体匹配方法 | |
El Ansari et al. | Temporal consistent real-time stereo for intelligent vehicles | |
Zhang et al. | Simultaneous multi-body stereo and segmentation | |
Fei et al. | Ossim: An object-based multiview stereo algorithm using ssim index matching cost | |
CN104331890A (zh) | 一种全局视差估计方法和系统 | |
Zhao et al. | Double propagation stereo matching for urban 3-d reconstruction from satellite imagery | |
CN107578419A (zh) | 一种基于一致性轮廓提取的立体图像分割方法 | |
Jain et al. | Enhanced stable view synthesis | |
Sato et al. | Efficient hundreds-baseline stereo by counting interest points for moving omni-directional multi-camera system | |
Wei et al. | Dense and occlusion-robust multi-view stereo for unstructured videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |