CN108986136A - 一种基于语义分割的双目场景流确定方法及系统 - Google Patents

一种基于语义分割的双目场景流确定方法及系统 Download PDF

Info

Publication number
CN108986136A
CN108986136A CN201810809498.4A CN201810809498A CN108986136A CN 108986136 A CN108986136 A CN 108986136A CN 201810809498 A CN201810809498 A CN 201810809498A CN 108986136 A CN108986136 A CN 108986136A
Authority
CN
China
Prior art keywords
pixel
image
indicate
semantic
binocular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810809498.4A
Other languages
English (en)
Other versions
CN108986136B (zh
Inventor
陈震
马龙
张聪炫
黎明
陈昊
危水根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Hangkong University
Original Assignee
Nanchang Hangkong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Hangkong University filed Critical Nanchang Hangkong University
Priority to CN201810809498.4A priority Critical patent/CN108986136B/zh
Publication of CN108986136A publication Critical patent/CN108986136A/zh
Application granted granted Critical
Publication of CN108986136B publication Critical patent/CN108986136B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于语义分割的双目场景流确定方法及系统,该方法先对双目图像中的场景进行语义分割,通过添加语义分割的标签信息计算语义光流,通过半全局匹配算法计算视差信息,然后结合语义光流和视差信息拟合计算无数个小平面区域的运动参数并优化。在优化运动过程中,先由超像素分割求得初始场景流,然后在语义分割的标签内部进行优化,使得语义标签内部的超像素块的运动趋于一致,同时很好地保护了运动物体的边缘信息。本发明在光流信息中加入语义信息,使得物体的边缘得到保护,大大简化了遮挡问题的推理过程;此外,语义标签层面的运动推理使得同一个运动物体的表面像素点的场景流近似一致,最终达到了优化场景流的目的。

Description

一种基于语义分割的双目场景流确定方法及系统
技术领域
本发明涉及场景流优化技术领域,特别涉及一种基于语义分割的双目场景流确定方法及系统。
背景技术
场景流是空间中场景的三维运动所形成的三维运动场,场景流的提出将对物体的运动估计由二维拓展到三维,其在3D重构、视觉导航等方面处于核心位置。常见的场景流确定方法为基于双目视觉的场景流计算方法,原理为利用立体匹配模块中获取的图像像素的深度信息结合传统光流感知模型获取的图像像素的二维速度矢量信息,构建对应图像像素点在三维空间中的运动场景,即场景流。场景流包含三维场景的结构和运动特征,是诸多视觉应用中的核心问题,如视频跟踪与监控,自主机器人导航,虚拟现实,三维视频压缩与显示等。场景流确定方法的准确性正在稳步提高,数据集排行榜中的结果证明了这一点。然而,即使是目前最先进的场景流方法在运动边缘和物体遮挡边界附近仍然表现不佳,运动边缘模糊和遮挡问题一直是场景流估计算法中的难题。
发明内容
本发明的目的是提供一种基于语义分割的双目场景流确定方法及系统,通过添加语义分割信息,准确估计物体运动边缘信息,从而有效地解决遮挡问题,最终达到提高场景流准确度的目的。
为实现上述目的,本发明提供了如下方案:
一种基于语义分割的双目场景流确定方法,所述双目场景流确定方法包括:
建立语义分割模型;所述语义分割模型是根据深度卷积神经网络和全连接条件随机场确定的;所述语义分割模型的输入为当前帧双目图像和下一帧双目图像;所述语义分割模型的输出为按照类别分割成的图像区域;所述类别包括物体类别、平面类别以及第三类别;所述第三类别包含的图像区域为双目图像除了所述物体类别和所述平面类别包含的图像区域以外的图像区域;
获取双目图像序列;所述双目图像序列包括多帧图像;每帧图像均包括左目图像和右目图像;
将所述双目图像序列中任意连续两帧的双目图像输入到所述语义分割模型中,输出不同的图像区域,并根据不同的图像区域建立不同的运动模型;
根据所有所述运动模型综合确定所述双目图像的语义光流;
采用半全局匹配算法计算所述双目图像的左右目的视差信息;
根据所述语义光流和所述视差信息,采用洛伦兹惩罚优化能量函数,计算所述双目图像中多个平面的运动参数;
采用融合流算法和二次伪布尔优化算法对所述平面运动参数进行优化处理,确定双目图像序列的场景流。
可选的,所述物体类别包括:飞机、火车、汽车、摩托车、人;所述平面类别包括天空、水;所述第三类别包括建筑物、植被。
可选的,所述建立语义分割模型,具体包括:
采用Caffe深度学习框架训练所述语义分割模型;所述深度卷积神经网络是通过将VGG-16中的全连接层调整为卷积层得到的;在所述深度卷积神经网络深后面连接一个全连接条件随机场;所述全连接条件随机场的能量函数为:
其中,x是像素的标签分配,i和j表示图像中两个不同的像素;
ξi(xi)=-logP(xi)表示一元势能,是定义在像素i的状态特征函数,用于描述像素i对标签类别的影响;P(xi)是DCNN计算的像素i处的标签分配概率;
表示二元势能,定义为不同像素点上的转移特征函数,用于描述像素之间的相关关系,并当xi≠xj,μ(xi,xj)=1,否则,μ(xi,xj)=0;K表示高斯核的个数,ωm表示高斯核的加权参数,km是提取特征的高斯核,fi和fj表示像素i和j提取的特征;
高斯核表示为:
其中,ω1和ω2表示高斯加权系数;pi和pj表示像素i和j的位置,Ii和Ij表示像素i和j的颜色强度;σα、σβ、σγ表示控制高斯核的尺度;第一个高斯核取决于像素位置和像素颜色强度;第二个核只取决于像素位置。
可选的,所述根据不同的图像区域建立不同的运动模型,具体包括:
当所述图像区域属于所述物体类别时,对应的运动为添加仿射形变的仿射运动,则属于所述物体类别的图像区域的运动模型为:
其中,u代表水平方向的运动分量;v代表垂直方向的运动分量;g代表物体所属的标签类别;θ表示输出运动模型的参数;I表示输入图像的灰度;代表输入图像的标签类别;k表示像素所在的图层,k∈{1,2};t表示当前帧时间序号,t+1表示下一帧时间序号;λmotion表示运动项系数;λtime表示时间项系数;λlayer表示层支持项系数;λspace表示空间项系数;utk代表当前帧到下一帧的水平方向的运动分量;vtk代表当前帧到下一帧的垂直方向的运动分量;gtk代表当前帧像素的语义标签层数;It代表当前帧图像的灰度,It+1代表下一帧图像的灰度;θtk代表运动模型的参数,运动模型的参数取决于所处的语义类别;
Edata数据项表示为:
其中,p表示当前帧的像素点;q表示像素p在下一帧的匹配像素;ρD表示鲁棒惩罚函数;表示当前帧像素p的灰度值;表示下一帧像素q的灰度值;λD表示对遮挡像素的恒定惩罚;表示指示函数;表示当前帧像素p的语义标签,表示下一帧像素q的语义标签,并当时,表示像素p与像素q处于不同的语义标签,发生遮挡,此时Edata同时施加外观一致性和遮挡惩罚;当时,表示像素p与经过运动后的匹配像素q处于相同的语义标签,未发生遮挡,此时Edata仅施加外观一致性;
Emotion包含相似运动一致项和全局运动项,表示为:
其中,r表示像素p的相邻像素;
第一项中Np包含像素p的四个最近邻域,ρ表示运动项惩罚函数,表示当前帧像素p的运动向量,表示当前帧像素r的运动向量,表示当前帧像素p的语义标签,表示当前帧像素r的语义标签,当时,表明像素p与相邻像素r处于同一语义标签,则像素p与相邻像素r具有相似的运动,施加相似运动一致项;
第二项中λaff表示仿射运动的平滑系数,ρaff表示添加形变后的仿射运动惩罚函数;表示全局运动模型;
Etime时间项鼓励随着时间的推移相应的像素具有相同的层标签,表示为:
其中,表示当前帧像素p的语义标签,表示下一帧像素q的语义标签,当时,指示函数时,指示函数
Elayer实现了前景层分割和语义分割之间的相似性,表示为:
其中,表示当前帧像素p的语义标签,表示前景物体的分割标签,当时,时,
Espace鼓励分层的空间邻接性,对非相邻空间的像素施加惩罚,表示为:
其中,表示空间项的权重系数;表示当前帧像素p的语义标签;表示当前帧像素r的语义标签,当时,不是相邻空间的像素,施加空间惩罚项;当时,像素处于相邻空间;
当所述图像区域属于所述平面体类别时,使用单应性将平面运动建模为uplane(x;hi);
其中,x是图像序列中的像素点;给定区域i中的初始流向量使用随机抽样一致性算法来鲁棒地估计单应性参数hi
当图像区域属于所述第三类别时所对应的运动模型为每个属于所述第三类别的图像区域中的流场设置为初始流向量。
可选的,所述根据所述语义光流和所述视差信息,采用洛伦兹惩罚优化能量函数,计算所述双目图像中多个平面的运动参数,具体包括:
采用预选设定的超像素分割数目对所述双目图像进行分割,得到多个平面;
利用洛伦兹惩罚优化能量函数结合所述语义光流和所述视差信息,使用最小二乘法求解所述洛伦兹惩罚优化能量函数的最小化误差的平方和,得到每个平面的运动参数其中,每个平面的运动参数的计算公式为:
其中,表示洛伦兹惩罚优化能量函数;T表示由三维坐标到图像坐标的投影算子;p'表示像素p的匹配点;R表示旋转矩阵;t表示平移矩阵;表示法向量;H表示由组成运动平面的映射关系;(K|0)为左目相机的投影矩阵,(M|m)为右目相机的投影矩阵,当运动参数的计算公式最小时,求得运动参数
可选的,所述采用融合流算法和二次伪布尔优化算法对所述平面运动参数进行优化处理,确定双目图像序列的场景流,具体包括:
根据预先设定的超像素分割映射关系,确定每个平面的初始场景流;
确定平面的运动参数在所述语义标签层面内部优化的能量函数模型;
根据所述初始场景流和所述能量函数模型,添加语义分割模型中的语义标签层面,使每个平面的运动参数在所述语义标签层面内部得到优化,确定所有双目图像的场景流。
可选的,所述根据预先设定的超像素分割映射关系,确定每个平面的初始场景流,具体包括:
根据预先设定的超像素分割确定像素到平面区域的映射关系S,更新平面区域到运动平面的映射关系P,得到初始场景流;
min{ED(P,S)+λER(P,S)};
其中,ED表示图像在四个视图中遵守外观一致性,可表示为:
分别表示立体匹配在当前帧和下一帧的外观一致性,可表示为:
ti表示当前帧和下一帧的时间序号,ρc表示单应性转换参数;表示从当前帧左目图像到ti时刻左目图像的单应性变换,表示从当前帧左目图像到ti时刻右目图像的单应性变换;分别表示光流在左目、右目的外观一致性,可表示为:
z表示左目相机和右目相机序号;表示从当前帧左目图像到当前帧z目图像的单应性变换;表示从当前帧左目图像到下一帧z目图像的单应性变换;
ER由几何项和运动项组成,可表示为:
为几何项,表示为:
当像素p和像素q表示8邻域N中两个相邻的像素,但处于两个不同的运动平面,ωp,q表示调节共享边缘长度的权重系数,ψ(·)表示鲁棒性惩罚函数,fγ(α,β)定义为一个距离函数,表示为:
fγ(α,β)=||α(d1+γβdn)+(1-α)(d2+γβdn)||;
其中,α和β分别表示边界和法向量系数;表示3D端点间的距离,分别是像素p和像素q投影到两个运动平面的端点,共享边缘长度表示为端点距离的凸组合||αd1+(1-α)d2||;
由于平面曲率引入法向量np和nq,dn=np-nq表示法向量的差;设定γ=1,此时距离函数fγ(α,β)优于当平面存在曲率变化时的情况;
为运动项,表示为:
其中,表示 经过旋转、平移运动后的端点间的距离,考虑到平面曲率,表示法向量经过旋转后的差。
可选的,所述根据所述初始场景流和所述能量函数模型,添加语义分割模型中的语义标签层面,使每个平面的运动参数在所述语义标签层面内部得到优化,确定所有双目图像的场景流,具体包括:
所述平面的运动参数在所述语义标签层面内部优化的能量函数模型为:
E(P,S)=ED(P,S)+λER(P,S)+μES(S);
其中,S表示像素到平面区域的映射,将每个像素p分配给平面区域;P表示平面区域到运动平面的映射,将每个平面区域分配给一个3D刚性移动平面ED(P,S)+λER(P,S)表示数据项和正则化项;ES表示分割项,表示为:
其中,第一项up,q表示为考虑图像结构和边缘信息的权重参数,p和q表示图像中分割段的两个像素点,Sse表示语义分割段;表示当前帧的左目图像;第二项e表示一个分割段的种子点,ε表示超像素分割段区域,NS表示限制分割段大小的尺寸;
根据所述初始场景流和所述能量函数模型,优化像素到平面区域的映射关系S,确定最终场景流;所述最终场景流的确定公式为:
min{ED(P,S)+λER(P,S)+μES(S)}。
本发明还提供了一种基于语义分割的双目场景流确定系统,所述双目场景流确定系统包括:
语义分割模型建立模块,用于建立语义分割模型;所述语义分割模型是根据深度卷积神经网络和全连接条件随机场确定的;所述语义分割模型的输入为当前帧双目图像和下一帧双目图像;所述语义分割模型的输出为按照类别分割成的图像区域;所述类别包括物体类别、平面类别以及第三类别;所述第三类别包含的图像区域为双目图像除了所述物体类别和所述平面类别包含的图像区域以外的图像区域;
双目图像序列获取模块,用于获取双目图像序列;所述双目图像序列包括多帧图像;每帧图像均包括左目图像和右目图像;
运动模型建立模块,用于将所述双目图像序列中任意连续两帧的双目图像输入到所述语义分割模型中,输出不同的图像区域,并根据不同的图像区域建立不同的运动模型;
语义光流确定模块,用于根据所有所述运动模型综合确定所述双目图像的语义光流;
视差信息计算模块,用于采用半全局匹配算法计算所述双目图像的左右目的视差信息;
运动参数计算模块,用于根据所述语义光流和所述视差信息,采用洛伦兹惩罚优化能量函数,计算所述双目图像中多个平面的运动参数;
场景流确定模块,采用融合流算法和二次伪布尔优化算法对所述平面运动参数进行优化处理,确定双目图像序列的场景流。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供了一种基于语义分割的双目场景流确定方法及系统。该方法包括建立语义分割模型;所述语义分割模型是根据深度卷积神经网络和全连接条件随机场确定的;所述语义分割模型的输入为当前帧双目图像和下一帧双目图像;所述语义分割模型的输出为按照类别分割成的图像区域;所述类别包括物体类别、平面类别以及第三类别;所述第三类别包含的图像区域为双目图像除了所述物体类别和所述平面类别包含的图像区域以外的图像区域;获取双目图像序列;所述双目图像序列包括多帧图像;每帧图像均包括左目图像和右目图像;将所述双目图像序列中任意连续两帧的双目图像输入到所述语义分割模型中,输出不同的图像区域,并根据不同的图像区域建立不同的运动模型;根据所有所述运动模型综合确定所述双目图像的语义光流;采用半全局匹配算法计算所述双目图像的左右目的视差信息;根据所述语义光流和所述视差信息,采用洛伦兹惩罚优化能量函数,计算所述双目图像中多个平面的运动参数;采用融合流算法和二次伪布尔优化算法对所述平面运动参数进行优化处理,确定双目图像序列的场景流。应用本发明提供的方法或者系统,通过添加语义分割信息,准确估计物体运动边缘信息,从而有效地解决遮挡问题,最终达到提高场景流准确度的目的。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例基于语义分割的双目场景流确定方法的流程示意图;
图2为本发明实施例基于语义分割的双目场景流确定系统的结构示意图;
图3为本发明KITTI 2015图像序列左右目连续两帧图像;其中:图3a是左目第一帧图像,图3b是左目第二帧图像,图3c是右目第一帧图像,图3d是右目第二帧图像;
图4为本发明参考视图的语义分割图;其中:图4a是左目第一帧语义分割图像,图4b是左目第二帧语义分割图像;
图5为本发明计算得到的语义光流图;
图6为本发明计算得到的视差图;
图7为本发明由光流场和视差场两部分组成的场景流图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
与场景流一样,语义分割领域也在卷积神经网络(CNN)和大量标记数据的驱动下快速发展。由于有关深度的推理通常具有挑战性,本发明使用语义信息来简化这一点,改善遮挡边界处的流量估计。因此,本发明的目的是提供一种基于语义分割的双目场景流确定方法及系统,通过添加语义分割信息,准确估计物体运动边缘信息,从而有效地解决遮挡问题,最终达到提高场景流准确度的目的。
目前,现有的双目场景流计算方法还没能实现通过语义信息进行深度的推理来解决遮挡问题。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明实施例基于语义分割的双目场景流确定方法的流程示意图,如图1所示,本发明实施例提供的基于语义分割的双目场景流确定方法包括以下几个步骤。
步骤101:建立语义分割模型;所述语义分割模型是根据深度卷积神经网络和全连接条件随机场确定的;所述语义分割模型的输入为当前帧双目图像和下一帧双目图像;所述语义分割模型的输出为按照类别分割成的图像区域;所述类别包括物体类别、平面类别以及第三类别;所述第三类别包含的图像区域为双目图像除了所述物体类别和所述平面类别包含的图像区域以外的图像区域。所述物体类别包括:飞机、火车、汽车、摩托车、人等;所述平面类别包括天空、水等;所述第三类别包括建筑物、植被等。
步骤102:获取双目图像序列;所述双目图像序列包括多帧图像;每帧图像均包括左目图像和右目图像。
步骤103:将所述双目图像序列中任意连续两帧的双目图像输入到所述语义分割模型中,输出不同的图像区域,并根据不同的图像区域建立不同的运动模型。
步骤104:根据所有所述运动模型综合确定所述双目图像的语义光流。
步骤105:采用半全局匹配算法计算所述双目图像的左右目的视差信息。
步骤106:根据所述语义光流和所述视差信息,采用洛伦兹惩罚优化能量函数,计算所述双目图像中多个平面的运动参数。
步骤107:采用融合流算法和二次伪布尔优化算法对所述平面运动参数进行优化处理,确定双目图像序列的场景流。
步骤101具体包括:
Caffe(Convolutional Architecture for Fast Feature Embedding)是一个清晰高效的深度学习框架。采用Caffe深度学习框架训练所述语义分割模型;深度卷积神经网络(DCNNs)由调整VGG-16模型得到。VGG-16是牛津大学计算机视觉组(Visual GeometryGroup)和Google DeepMind公司一起研发的深度卷积神经网络,16表示构筑了16层深的卷积神经网络。本发明使用的深度卷积神经网络(DCNNs)通过将VGG-16中的FC层(全连接层)调整为卷积层得到。原本的VGG-16有5个池化层,在经过第5层池化层后输出的特征图会非常稀疏,因此将第4、5池化层的步长由2改为1。感受野是某一层输出结果中一个元素所对应的输入层的区域大小,为了避免感受野因步长改变而发生变化,此模型提出空洞卷积,空洞卷积在原始图和特征图之间做了一个双线性插值,在卷积中间插入0,使得卷积核扩大,在对特征图进行卷积的时候,进行隔像素地卷积,从而使得感受野保持不变。
深度卷积神经网络(DCNNs)可以预测是否存在物体以及物体出现的大致位置,但不能真正描绘它们的边界,为了准确地估计物体的边界,在深度卷积神经网络(DCNNs)后面接了一个全连接条件随机场(Fully-Connected Conditional Random Fields);所述全连接条件随机场的能量函数为:
式(1)中,x是像素的标签分配,i和j表示图像中两个不同的像素。
ξi(xi)=-logP(xi)表示一元势能,是定义在像素i的状态特征函数,用于描述像素i对标签类别的影响;P(xi)是DCNN计算的像素i处的标签分配概率。
表示二元势能,定义为不同像素点上的转移特征函数,用于描述像素之间的相关关系,并当xi≠xj,μ(xi,xj)=1,否则,μ(xi,xj)=0;K表示高斯核的个数,ωm表示高斯核的加权参数,km是提取特征的高斯核,fi和fj表示像素i和j提取的特征。
高斯核表示为:
式(2)中,ω1和ω2表示高斯加权系数;pi和pj表示像素i和j的位置,Ii和Ij表示像素i和j的颜色强度;σα、σβ、σγ表示控制高斯核的尺度;第一个高斯核取决于像素位置和像素颜色强度;第二个核只取决于像素位置。
步骤103:具体包括:
采用步骤101语义分割模型对双目图像序列中的物体进行区域划分,不同区域采取不同运动的建模方式,计算双目图像序列相邻两帧间的语义光流。
当所述图像区域属于所述物体类别时,对应的运动为添加仿射形变的仿射运动,则属于所述物体类别的图像区域的运动模型为:
式(3)中,u代表水平方向的运动分量;v代表垂直方向的运动分量;g代表物体所属的标签类别;θ表示输出运动模型的参数;I表示输入图像的灰度;代表输入图像的标签类别;k表示像素所在的图层,k∈{1,2};t表示当前帧时间序号,t+1表示下一帧时间序号;λmotion表示运动项系数;λtime表示时间项系数;λlayer表示层支持项系数;λspace表示空间项系数;utk代表当前帧到下一帧的水平方向的运动分量;vtk代表当前帧到下一帧的垂直方向的运动分量;gtk代表当前帧像素的语义标签层数;It代表当前帧图像的灰度,It+1代表下一帧图像的灰度;θtk代表运动模型的参数,运动模型的参数取决于所处的语义类别。
式(3)中,Edata数据项表示为:
式(4),p表示当前帧的像素点;q表示像素p在下一帧的匹配像素;ρD表示鲁棒惩罚函数;表示当前帧像素p的灰度值;表示下一帧像素q的灰度值;λD表示对遮挡像素的恒定惩罚;表示指示函数;表示当前帧像素p的语义标签,表示下一帧像素q的语义标签,并当时,表示像素p与像素q处于不同的语义标签,发生遮挡,此时Edata同时施加外观一致性和遮挡惩罚;当时,表示像素p与经过运动后的匹配像素q处于相同的语义标签,未发生遮挡,此时Edata仅施加外观一致性。
式(3)中,Emotion包含相似运动一致项和全局运动项,表示为:
式(5)中,r表示像素p的相邻像素。
第一项中Np包含像素p的四个最近邻域,ρ表示运动项惩罚函数,表示当前帧像素p的运动向量,表示当前帧像素r的运动向量,表示当前帧像素p的语义标签,表示当前帧像素r的语义标签,当时,表明像素p与相邻像素r处于同一语义标签,则像素p与相邻像素r具有相似的运动,施加相似运动一致项。
第二项中λaff表示仿射运动的平滑系数,ρaff表示添加形变后的仿射运动惩罚函数;表示全局运动模型。
式(3)中,Etime时间项鼓励随着时间的推移相应的像素具有相同的层标签,表示为:
式(6)中,表示当前帧像素p的语义标签,表示下一帧像素q的语义标签,当时,指示函数时,指示函数
式(3)中,Elayer实现了前景层分割和语义分割之间的相似性,表示为:
式(7)中,表示当前帧像素p的语义标签,表示前景物体的分割标签,当时,时,
式(3)中,Espace鼓励分层的空间邻接性,对非相邻空间的像素施加惩罚,表示为:
式(8)中,表示空间项的权重系数;表示当前帧像素p的语义标签;表示当前帧像素r的语义标签,当时,不是相邻空间的像素,施加空间惩罚项;当时,像素处于相邻空间。
当所述图像区域属于所述平面体类别时,使用单应性将平面运动建模为uplane(x;hi),其中x∈Ri;给定区域i中的初始流向量使用随机抽样一致性算法来鲁棒地估计单应性参数hi
当所述图像区域属于所述第三类别时,对应的运动模型为其中x∈Ri;每个属于所述第三类别的图像区域中的流场设置为初始流向量。
步骤104具体包括:使用不同的流动模型来表示场景的不同部分的运动,结合不同模型的流场得到最终的语义光流。
步骤106具体包括:
采用预选设定的超像素分割数目对所述双目图像进行分割,得到多个平面。
利用洛伦兹惩罚优化能量函数结合所述语义光流和所述视差信息,使用最小二乘法求解所述洛伦兹惩罚优化能量函数的最小化误差的平方和,得到每个平面的运动参数其中,每个平面的运动参数的计算公式为:
式(9)、式(10)中,表示洛伦兹惩罚优化能量函数;T表示由三维坐标到图像坐标的投影算子;p'表示像素p的匹配点;R表示旋转矩阵;t表示平移矩阵;表示法向量;H表示由组成运动平面的映射关系;(K|0)为左目相机的投影矩阵,(M|m)为右目相机的投影矩阵,当运动参数的计算公式最小时,求得运动参数
步骤107具体包括:
根据预先设定的超像素分割映射关系,确定每个平面的初始场景流。
确定平面的运动参数在所述语义标签层面内部优化的能量函数模型。
根据所述初始场景流和所述能量函数模型,添加语义分割模型中的语义标签层面,使每个平面的运动参数在所述语义标签层面内部得到优化,确定所有双目图像的场景流。
其中,平面的运动参数在所述语义标签层面内部优化的能量函数模型为:
E(P,S)=ED(P,S)+λER(P,S)+μES(S)(11);
式(11)中,S表示像素到平面区域的映射,将每个像素p分配给平面区域;P表示平面区域到运动平面的映射,将每个平面区域分配给一个3D刚性移动平面ED(P,S)+λER(P,S)表示数据项和正则化项;ES表示分割项,表示为:
其中,第一项up,q表示为考虑图像结构和边缘信息的权重参数,p和q表示图像中分割段的两个像素点,Sse表示语义分割段;表示当前帧的左目图像;第二项e表示一个分割段的种子点,ε表示超像素分割段区域,NS表示限制分割段大小的尺寸。
优化过程如下:
根据预先设定的超像素分割确定像素到平面区域的映射关系S,更新平面区域到运动平面的映射关系P,得到初始场景流;初始场景流确定公式如下,
min{ED(P,S)+λER(P,S)}(12);
式(12)中,ED表示图像在四个视图中遵守外观一致性,可表示为:
式(13)中,分别表示立体匹配在当前帧和下一帧的外观一致性,
可表示为:
ti表示当前帧和下一帧的时间序号,ρc表示单应性转换参数;表示从当前帧左目图像到ti时刻左目图像的单应性变换,表示从当前帧左目图像到ti时刻右目图像的单应性变换;分别表示光流在左目、右目的外观一致性,可表示为:
z表示左目相机和右目相机序号;表示从当前帧左目图像到当前帧z目图像的单应性变换;表示从当前帧左目图像到下一帧z目图像的单应性变换。
式(12)中,ER由几何项和运动项组成,可表示为:
式(14)中,为几何项,表示为
假设像素p和像素q表示8邻域N中两个相邻的像素,但处于两个不同的运动平面,ωp,q表示调节共享边缘长度的权重系数,ψ(·)表示鲁棒性惩罚函数,fγ(α,β)定义为一个距离函数,表示为:
fγ(α,β)=||α(d1+γβdn)+(1-α)(d2+γβdn)||;
其中,α和β分别表示边界和法向量系数;表示3D端点间的距离,分别是像素p和像素q投影到两个运动平面的端点,共享边缘长度表示为端点距离的凸组合||αd1+(1-α)d2||。
由于平面曲率引入法向量np和nq,dn=np-nq表示法向量的差;设定γ=1,此时距离函数fγ(α,β)优于当平面存在曲率变化时的情况。
式(14)中,为运动项,表示为:
式(16)中,表示 经过旋转、平移运动后的端点间的距离,考虑到平面曲率,表示法向量经过旋转后的差。
根据所述初始场景流和所述能量函数模型,优化像素到平面区域的映射关系S,确定最终场景流;所述最终场景流的确定公式为:
min{ED(P,S)+λER(P,S)+μES(S)}。
为实现上述目的本发明还提供了一种基于语义分割的双目场景流确定系统。
图2为本发明实施例基于语义分割的双目场景流确定系统的结构示意图,如图2所示,本发明实施例提供的一种双目场景流确定系统包括:
语义分割模型建立模块100,用于建立语义分割模型;所述语义分割模型是根据深度卷积神经网络和全连接条件随机场确定的;所述语义分割模型的输入为当前帧双目图像和下一帧双目图像;所述语义分割模型的输出为按照类别分割成的图像区域;所述类别包括物体类别、平面类别以及第三类别;所述第三类别包含的图像区域为双目图像除了所述物体类别和所述平面类别包含的图像区域以外的图像区域。
双目图像序列获取模块200,用于获取双目图像序列;所述双目图像序列包括多帧图像;每帧图像均包括左目图像和右目图像。
运动模型建立模块300,用于将所述双目图像序列中任意连续两帧的双目图像输入到所述语义分割模型中,输出不同的图像区域,并根据不同的图像区域建立不同的运动模型。
语义光流确定模块400,用于根据所有所述运动模型综合确定所述双目图像的语义光流。
视差信息计算模块500,用于采用半全局匹配算法计算所述双目图像的左右目的视差信息。
运动参数计算模块600,用于根据所述语义光流和所述视差信息,采用洛伦兹惩罚优化能量函数,计算所述双目图像中多个平面的运动参数。
场景流确定模块700,采用融合流算法和二次伪布尔优化算法对所述平面运动参数进行优化处理,确定双目图像序列的场景流。
下面采用KITTI2015图像序列进行实验说明。
1)图3a、图3b、图3c和图3d是KITTI 2015图像序列左右目连续两帧图像。其中:图3a是左目第一帧图像,图3b是左目第二帧图像,图3c是右目第一帧图像,图3d是右目第二帧图像。2)使用Caffe训练语义分割模型DeepLab,得到参考视图的语义分割图,如图4所示,图4a是左目第一帧语义分割图像,图4b是左目第二帧语义分割图像。3)由语义信息计算图像序列连续两帧间的语义光流,图5是添加语义信息后计算得到的参考视图的语义光流图。4)由半全局匹配计算得到第一帧左右目的视差图,图6是计算得到第一帧的视差图。5)结合语义光流和视差信息,经过二次伪布尔优化算法优化,得到更新后的视差图图7,即得到由光流场和视差场两部分组成的运动场即场景流。
本发明的方法通过添加语义信息,更加精准地估计运动物体的边缘信息,并通过判断像素与匹配点是否处于同一图层,从而在深度层次上大大简化了遮挡问题的推理。在优化运动过程中,由全局像素的优化改进为在语义分割的标签内部进行优化,使得语义标签内部的超像素块的运动趋于一致,同时很好地保护了运动物体的边缘信息,从而大大提高了场景流算法的准确性。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种基于语义分割的双目场景流确定方法,其特征在于,所述双目场景流确定方法包括:
建立语义分割模型;所述语义分割模型是根据深度卷积神经网络和全连接条件随机场确定的;所述语义分割模型的输入为当前帧双目图像和下一帧双目图像;所述语义分割模型的输出为按照类别分割成的图像区域;所述类别包括物体类别、平面类别以及第三类别;所述第三类别包含的图像区域为双目图像除了所述物体类别和所述平面类别包含的图像区域以外的图像区域;
获取双目图像序列;所述双目图像序列包括多帧图像;每帧图像均包括左目图像和右目图像;
将所述双目图像序列中任意连续两帧的双目图像输入到所述语义分割模型中,输出不同的图像区域,并根据不同的图像区域建立不同的运动模型;
根据所有所述运动模型综合确定所述双目图像的语义光流;
采用半全局匹配算法计算所述双目图像的左右目的视差信息;
根据所述语义光流和所述视差信息,采用洛伦兹惩罚优化能量函数,计算所述双目图像中多个平面的运动参数;
采用融合流算法和二次伪布尔优化算法对所述平面运动参数进行优化处理,确定双目图像序列的场景流。
2.根据权利要求1所述的双目场景流确定方法,其特征在于,所述物体类别包括:飞机、火车、汽车、摩托车、人;所述平面类别包括天空、水;所述第三类别包括建筑物、植被。
3.根据权利要求1所述的双目场景流确定方法,其特征在于,所述建立语义分割模型,具体包括:
采用Caffe深度学习框架训练所述语义分割模型;所述深度卷积神经网络是通过将VGG-16中的全连接层调整为卷积层得到的;在所述深度卷积神经网络深后面连接一个全连接条件随机场;所述全连接条件随机场的能量函数为:
其中,x是像素的标签分配,i和j表示图像中两个不同的像素;
ξi(xi)=-logP(xi)表示一元势能,是定义在像素i的状态特征函数,用于描述像素i对标签类别的影响;P(xi)是DCNN计算的像素i处的标签分配概率;
表示二元势能,定义为不同像素点上的转移特征函数,用于描述像素之间的相关关系,并当xi≠xj,μ(xi,xj)=1,否则,μ(xi,xj)=0;K表示高斯核的个数,ωm表示高斯核的加权参数,km是提取特征的高斯核,fi和fj表示像素i和j提取的特征;
高斯核表示为:
其中,ω1和ω2表示高斯加权系数;pi和pj表示像素i和j的位置,Ii和Ij表示像素i和j的颜色强度;σα、σβ、σγ表示控制高斯核的尺度;第一个高斯核取决于像素位置和像素颜色强度;第二个核只取决于像素位置。
4.根据权利要求3所述的双目场景流确定方法,其特征在于,所述根据不同的图像区域建立不同的运动模型,具体包括:
当所述图像区域属于所述物体类别时,对应的运动为添加仿射形变的仿射运动,则属于所述物体类别的图像区域的运动模型为:
其中,u代表水平方向的运动分量;v代表垂直方向的运动分量;g代表物体所属的标签类别;θ表示输出运动模型的参数;I表示输入图像的灰度;代表输入图像的标签类别;k表示像素所在的图层,k∈{1,2};t表示当前帧时间序号,t+1表示下一帧时间序号;λmotion表示运动项系数;λtime表示时间项系数;λlayer表示层支持项系数;λspace表示空间项系数;utk代表当前帧到下一帧的水平方向的运动分量;vtk代表当前帧到下一帧的垂直方向的运动分量;gtk代表当前帧像素的语义标签层数;It代表当前帧图像的灰度,It+1代表下一帧图像的灰度;θtk代表运动模型的参数,运动模型的参数取决于所处的语义类别;
Edata数据项表示为:
其中,p表示当前帧的像素点;q表示像素p在下一帧的匹配像素;ρD表示鲁棒惩罚函数;表示当前帧像素p的灰度值;表示下一帧像素q的灰度值;λD表示对遮挡像素的恒定惩罚;表示指示函数;表示当前帧像素p的语义标签,表示下一帧像素q的语义标签,并当时,表示像素p与像素q处于不同的语义标签,发生遮挡,此时Edata同时施加外观一致性和遮挡惩罚;当时,表示像素p与经过运动后的匹配像素q处于相同的语义标签,未发生遮挡,此时Edata仅施加外观一致性;
Emotion包含相似运动一致项和全局运动项,表示为:
其中,r表示像素p的相邻像素;
第一项中Np包含像素p的四个最近邻域,ρ表示运动项惩罚函数,表示当前帧像素p的运动向量,表示当前帧像素r的运动向量,表示当前帧像素p的语义标签,表示当前帧像素r的语义标签,当时,表明像素p与相邻像素r处于同一语义标签,则像素p与相邻像素r具有相似的运动,施加相似运动一致项;
第二项中λaff表示仿射运动的平滑系数,ρaff表示添加形变后的仿射运动惩罚函数;表示全局运动模型;
Etime时间项鼓励随着时间的推移相应的像素具有相同的层标签,表示为:
其中,表示当前帧像素p的语义标签,表示下一帧像素q的语义标签,当时,指示函数时,指示函数
Elayer实现了前景层分割和语义分割之间的相似性,表示为:
其中,表示当前帧像素p的语义标签,表示前景物体的分割标签,当时,时,
Espace鼓励分层的空间邻接性,对非相邻空间的像素施加惩罚,表示为:
其中,表示空间项的权重系数;表示当前帧像素p的语义标签;表示当前帧像素r的语义标签,当时,不是相邻空间的像素,施加空间惩罚项;当时,像素处于相邻空间;
当所述图像区域属于所述平面体类别时,使用单应性将平面运动建模为uplane(x;hi);
其中,x是图像序列中的像素点;给定区域i中的初始流向量使用随机抽样一致性算法来鲁棒地估计单应性参数hi
当图像区域属于所述第三类别时所对应的运动模型为每个属于所述第三类别的图像区域中的流场设置为初始流向量。
5.根据权利要求4所述的双目场景流确定方法,其特征在于,所述根据所述语义光流和所述视差信息,采用洛伦兹惩罚优化能量函数,计算所述双目图像中多个平面的运动参数,具体包括:
采用预选设定的超像素分割数目对所述双目图像进行分割,得到多个平面;
利用洛伦兹惩罚优化能量函数结合所述语义光流和所述视差信息,使用最小二乘法求解所述洛伦兹惩罚优化能量函数的最小化误差的平方和,得到每个平面的运动参数其中,每个平面的运动参数的计算公式为:
其中,表示洛伦兹惩罚优化能量函数;T表示由三维坐标到图像坐标的投影算子;p'表示像素p的匹配点;R表示旋转矩阵;t表示平移矩阵;表示法向量;H表示由组成运动平面的映射关系;(K|0)为左目相机的投影矩阵,(M|m)为右目相机的投影矩阵,当运动参数的计算公式最小时,求得运动参数
6.根据权利要求5所述的双目场景流确定方法,其特征在于,所述采用融合流算法和二次伪布尔优化算法对所述平面运动参数进行优化处理,确定双目图像序列的场景流,具体包括:
根据预先设定的超像素分割映射关系,确定每个平面的初始场景流;
确定平面的运动参数在所述语义标签层面内部优化的能量函数模型;
根据所述初始场景流和所述能量函数模型,添加语义分割模型中的语义标签层面,使每个平面的运动参数在所述语义标签层面内部得到优化,确定所有双目图像的场景流。
7.根据权利要求6所述的双目场景流确定方法,其特征在于,所述根据预先设定的超像素分割映射关系,确定每个平面的初始场景流,具体包括:
根据预先设定的超像素分割确定像素到平面区域的映射关系S,更新平面区域到运动平面的映射关系P,得到初始场景流;
min{ED(P,S)+λER(P,S)};
其中,ED表示图像在四个视图中遵守外观一致性,可表示为:
分别表示立体匹配在当前帧和下一帧的外观一致性,可表示为:
ti表示当前帧和下一帧的时间序号,ρc表示单应性转换参数;表示从当前帧左目图像到ti时刻左目图像的单应性变换,表示从当前帧左目图像到ti时刻右目图像的单应性变换;分别表示光流在左目、右目的外观一致性,可表示为:
z表示左目相机和右目相机序号;表示从当前帧左目图像到当前帧z目图像的单应性变换;表示从当前帧左目图像到下一帧z目图像的单应性变换;
ER由几何项和运动项组成,可表示为:
为几何项,表示为:
当像素p和像素q表示8邻域N中两个相邻的像素,但处于两个不同的运动平面,ωp,q表示调节共享边缘长度的权重系数,ψ(·)表示鲁棒性惩罚函数,fγ(α,β)定义为一个距离函数,表示为:
fγ(α,β)=||α(d1+γβdn)+(1-α)(d2+γβdn)||;
其中,α和β分别表示边界和法向量系数;表示3D端点间的距离,分别是像素p和像素q投影到两个运动平面的端点,共享边缘长度表示为端点距离的凸组合||αd1+(1-α)d2||;
由于平面曲率引入法向量np和nq,dn=np-nq表示法向量的差;设定γ=1,此时距离函数fγ(α,β)优于当平面存在曲率变化时的情况;
为运动项,表示为:
其中,表示 经过旋转、平移运动后的端点间的距离,考虑到平面曲率,表示法向量经过旋转后的差。
8.根据权利要求7所述的双目场景流确定方法,其特征在于,所述根据所述初始场景流和所述能量函数模型,添加语义分割模型中的语义标签层面,使每个平面的运动参数在所述语义标签层面内部得到优化,确定所有双目图像的场景流,具体包括:
所述平面的运动参数在所述语义标签层面内部优化的能量函数模型为:
E(P,S)=ED(P,S)+λER(P,S)+μES(S);
其中,S表示像素到平面区域的映射,将每个像素p分配给平面区域;P表示平面区域到运动平面的映射,将每个平面区域分配给一个3D刚性移动平面ED(P,S)+λER(P,S)表示数据项和正则化项;ES表示分割项,表示为:
其中,第一项up,q表示为考虑图像结构和边缘信息的权重参数,p和q表示图像中分割段的两个像素点,Sse表示语义分割段;表示当前帧的左目图像;第二项e表示一个分割段的种子点,ε表示超像素分割段区域,NS表示限制分割段大小的尺寸;
根据所述初始场景流和所述能量函数模型,优化像素到平面区域的映射关系S,确定最终场景流;所述最终场景流的确定公式为:
min{ED(P,S)+λER(P,S)+μES(S)}。
9.一种基于语义分割的双目场景流确定系统,其特征在于,所述双目场景流确定系统包括:
语义分割模型建立模块,用于建立语义分割模型;所述语义分割模型是根据深度卷积神经网络和全连接条件随机场确定的;所述语义分割模型的输入为当前帧双目图像和下一帧双目图像;所述语义分割模型的输出为按照类别分割成的图像区域;所述类别包括物体类别、平面类别以及第三类别;所述第三类别包含的图像区域为双目图像除了所述物体类别和所述平面类别包含的图像区域以外的图像区域;
双目图像序列获取模块,用于获取双目图像序列;所述双目图像序列包括多帧图像;每帧图像均包括左目图像和右目图像;
运动模型建立模块,用于将所述双目图像序列中任意连续两帧的双目图像输入到所述语义分割模型中,输出不同的图像区域,并根据不同的图像区域建立不同的运动模型;
语义光流确定模块,用于根据所有所述运动模型综合确定所述双目图像的语义光流;
视差信息计算模块,用于采用半全局匹配算法计算所述双目图像的左右目的视差信息;
运动参数计算模块,用于根据所述语义光流和所述视差信息,采用洛伦兹惩罚优化能量函数,计算所述双目图像中多个平面的运动参数;
场景流确定模块,采用融合流算法和二次伪布尔优化算法对所述平面运动参数进行优化处理,确定双目图像序列的场景流。
CN201810809498.4A 2018-07-23 2018-07-23 一种基于语义分割的双目场景流确定方法及系统 Active CN108986136B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810809498.4A CN108986136B (zh) 2018-07-23 2018-07-23 一种基于语义分割的双目场景流确定方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810809498.4A CN108986136B (zh) 2018-07-23 2018-07-23 一种基于语义分割的双目场景流确定方法及系统

Publications (2)

Publication Number Publication Date
CN108986136A true CN108986136A (zh) 2018-12-11
CN108986136B CN108986136B (zh) 2020-07-24

Family

ID=64550561

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810809498.4A Active CN108986136B (zh) 2018-07-23 2018-07-23 一种基于语义分割的双目场景流确定方法及系统

Country Status (1)

Country Link
CN (1) CN108986136B (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109801307A (zh) * 2018-12-17 2019-05-24 中国科学院深圳先进技术研究院 一种全景分割方法、装置及设备
CN109816629A (zh) * 2018-12-20 2019-05-28 新绎健康科技有限公司 一种基于k-means聚类的苔质分离方法和装置
CN109859249A (zh) * 2019-01-24 2019-06-07 西安理工大学 Rgbd序列中基于自动分层的场景流估计方法
CN109919993A (zh) * 2019-03-12 2019-06-21 腾讯科技(深圳)有限公司 视差图获取方法、装置和设备及控制系统
CN110047093A (zh) * 2019-04-23 2019-07-23 南昌航空大学 高精度边缘保护型rgbd场景流估计方法
CN110060264A (zh) * 2019-04-30 2019-07-26 北京市商汤科技开发有限公司 神经网络训练方法、视频帧处理方法、装置及系统
CN110086973A (zh) * 2019-05-10 2019-08-02 中国计量大学 一种基于光流相机的云台稳像系统
CN110163239A (zh) * 2019-01-25 2019-08-23 太原理工大学 一种基于超像素和条件随机场的弱监督图像语义分割方法
CN110349186A (zh) * 2019-07-16 2019-10-18 南昌航空大学 基于深度匹配的大位移运动光流计算方法
CN111311708A (zh) * 2020-01-20 2020-06-19 北京航空航天大学 一种基于语义光流和逆深度滤波的视觉slam方法
CN111340852A (zh) * 2020-03-10 2020-06-26 南昌航空大学 一种基于优化语义分割的图像序列光流计算方法
CN111382753A (zh) * 2018-12-27 2020-07-07 曜科智能科技(上海)有限公司 光场语义分割方法、系统、电子终端及存储介质
CN111415380A (zh) * 2020-03-03 2020-07-14 智方达(天津)科技有限公司 一种基于景深信息的视频运动放大方法
CN111553181A (zh) * 2019-02-12 2020-08-18 上海欧菲智能车联科技有限公司 车载相机语义识别方法、系统及装置
WO2020258286A1 (zh) * 2019-06-28 2020-12-30 深圳市大疆创新科技有限公司 图像处理方法、装置、拍摄装置和可移动平台
CN112288755A (zh) * 2020-11-26 2021-01-29 深源恒际科技有限公司 基于视频的车辆外观部件深度学习分割方法和系统
CN112581494A (zh) * 2020-12-30 2021-03-30 南昌航空大学 基于金字塔块匹配的双目场景流计算方法
CN112571425A (zh) * 2020-11-30 2021-03-30 汕头大学 一种带压堵漏机器人的漏点定位自主控制方法及系统
CN113228102A (zh) * 2019-01-09 2021-08-06 奥林巴斯株式会社 图像处理装置、图像处理方法和图像处理程序
CN114280323A (zh) * 2021-12-24 2022-04-05 凌云光技术股份有限公司 一种轨道车辆矢量速度的测量设备、系统及方法
US11657324B2 (en) * 2020-04-30 2023-05-23 EMC IP Holding Company LLC Method, electronic device, and computer program product for processing data
WO2023164857A1 (en) * 2022-03-03 2023-09-07 Nvidia Corporation Optical flow techniques and systems for accurate identification and tracking of moving objects

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120306847A1 (en) * 2011-05-31 2012-12-06 Honda Motor Co., Ltd. Online environment mapping
CN103279961A (zh) * 2013-05-22 2013-09-04 浙江大学 基于深度恢复和运动估计的视频分割方法
CN103955948A (zh) * 2014-04-03 2014-07-30 西北工业大学 一种动态环境下的空间运动目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120306847A1 (en) * 2011-05-31 2012-12-06 Honda Motor Co., Ltd. Online environment mapping
CN103279961A (zh) * 2013-05-22 2013-09-04 浙江大学 基于深度恢复和运动估计的视频分割方法
CN103955948A (zh) * 2014-04-03 2014-07-30 西北工业大学 一种动态环境下的空间运动目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHILE REN等: "cascaded scene flow prediction using semantic segmentation", 《INTERNATIONAL CONFERENCE ON 3D VISION (3DV), 2017》 *

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109801307A (zh) * 2018-12-17 2019-05-24 中国科学院深圳先进技术研究院 一种全景分割方法、装置及设备
CN109816629A (zh) * 2018-12-20 2019-05-28 新绎健康科技有限公司 一种基于k-means聚类的苔质分离方法和装置
CN109816629B (zh) * 2018-12-20 2023-10-13 新绎健康科技有限公司 一种基于k-means聚类的苔质分离方法和装置
CN111382753A (zh) * 2018-12-27 2020-07-07 曜科智能科技(上海)有限公司 光场语义分割方法、系统、电子终端及存储介质
CN111382753B (zh) * 2018-12-27 2023-05-12 曜科智能科技(上海)有限公司 光场语义分割方法、系统、电子终端及存储介质
CN113228102A (zh) * 2019-01-09 2021-08-06 奥林巴斯株式会社 图像处理装置、图像处理方法和图像处理程序
CN109859249A (zh) * 2019-01-24 2019-06-07 西安理工大学 Rgbd序列中基于自动分层的场景流估计方法
CN109859249B (zh) * 2019-01-24 2022-09-20 西安理工大学 Rgbd序列中基于自动分层的场景流估计方法
CN110163239A (zh) * 2019-01-25 2019-08-23 太原理工大学 一种基于超像素和条件随机场的弱监督图像语义分割方法
CN111553181A (zh) * 2019-02-12 2020-08-18 上海欧菲智能车联科技有限公司 车载相机语义识别方法、系统及装置
WO2020182117A1 (zh) * 2019-03-12 2020-09-17 腾讯科技(深圳)有限公司 视差图获取方法、装置和设备及控制系统和存储介质
US11830211B2 (en) 2019-03-12 2023-11-28 Tencent Technology (Shenzhen) Company Limited Disparity map acquisition method and apparatus, device, control system and storage medium
CN109919993A (zh) * 2019-03-12 2019-06-21 腾讯科技(深圳)有限公司 视差图获取方法、装置和设备及控制系统
CN109919993B (zh) * 2019-03-12 2023-11-07 腾讯科技(深圳)有限公司 视差图获取方法、装置和设备及控制系统
CN110047093A (zh) * 2019-04-23 2019-07-23 南昌航空大学 高精度边缘保护型rgbd场景流估计方法
CN110047093B (zh) * 2019-04-23 2021-04-27 南昌航空大学 高精度边缘保护型rgbd场景流估计方法
CN110060264B (zh) * 2019-04-30 2021-03-23 北京市商汤科技开发有限公司 神经网络训练方法、视频帧处理方法、装置及系统
CN110060264A (zh) * 2019-04-30 2019-07-26 北京市商汤科技开发有限公司 神经网络训练方法、视频帧处理方法、装置及系统
CN110086973A (zh) * 2019-05-10 2019-08-02 中国计量大学 一种基于光流相机的云台稳像系统
WO2020258286A1 (zh) * 2019-06-28 2020-12-30 深圳市大疆创新科技有限公司 图像处理方法、装置、拍摄装置和可移动平台
CN110349186B (zh) * 2019-07-16 2021-05-11 南昌航空大学 基于深度匹配的大位移运动光流计算方法
CN110349186A (zh) * 2019-07-16 2019-10-18 南昌航空大学 基于深度匹配的大位移运动光流计算方法
CN111311708A (zh) * 2020-01-20 2020-06-19 北京航空航天大学 一种基于语义光流和逆深度滤波的视觉slam方法
CN111415380B (zh) * 2020-03-03 2022-08-02 智方达(天津)科技有限公司 一种基于景深信息的视频运动放大方法
CN111415380A (zh) * 2020-03-03 2020-07-14 智方达(天津)科技有限公司 一种基于景深信息的视频运动放大方法
CN111340852A (zh) * 2020-03-10 2020-06-26 南昌航空大学 一种基于优化语义分割的图像序列光流计算方法
CN111340852B (zh) * 2020-03-10 2022-09-27 南昌航空大学 一种基于优化语义分割的图像序列光流计算方法
US11657324B2 (en) * 2020-04-30 2023-05-23 EMC IP Holding Company LLC Method, electronic device, and computer program product for processing data
CN112288755A (zh) * 2020-11-26 2021-01-29 深源恒际科技有限公司 基于视频的车辆外观部件深度学习分割方法和系统
CN112571425B (zh) * 2020-11-30 2022-04-01 汕头大学 一种带压堵漏机器人的漏点定位自主控制方法及系统
CN112571425A (zh) * 2020-11-30 2021-03-30 汕头大学 一种带压堵漏机器人的漏点定位自主控制方法及系统
CN112581494B (zh) * 2020-12-30 2023-05-02 南昌航空大学 基于金字塔块匹配的双目场景流计算方法
CN112581494A (zh) * 2020-12-30 2021-03-30 南昌航空大学 基于金字塔块匹配的双目场景流计算方法
CN114280323A (zh) * 2021-12-24 2022-04-05 凌云光技术股份有限公司 一种轨道车辆矢量速度的测量设备、系统及方法
WO2023164857A1 (en) * 2022-03-03 2023-09-07 Nvidia Corporation Optical flow techniques and systems for accurate identification and tracking of moving objects

Also Published As

Publication number Publication date
CN108986136B (zh) 2020-07-24

Similar Documents

Publication Publication Date Title
CN108986136A (zh) 一种基于语义分割的双目场景流确定方法及系统
CN108596974B (zh) 动态场景机器人定位建图系统及方法
CN108416840B (zh) 一种基于单目相机的三维场景稠密重建方法
CN108230240B (zh) 一种基于深度学习获取图像城市范围内位置及姿态的方法
CN105631861B (zh) 结合高度图从无标记单目图像中恢复三维人体姿态的方法
CN104376552B (zh) 一种3d模型与二维图像的虚实配准方法
CN111325794A (zh) 一种基于深度卷积自编码器的视觉同时定位与地图构建方法
CN113160375B (zh) 一种基于多任务学习算法的三维重建及相机位姿估计方法
CN109003325A (zh) 一种三维重建的方法、介质、装置和计算设备
CN107204010A (zh) 一种单目图像深度估计方法与系统
CN106127739A (zh) 一种结合单目视觉的rgb‑d slam方法
CN110009674A (zh) 基于无监督深度学习的单目图像景深实时计算方法
CN110473284A (zh) 一种基于深度学习的运动物体三维模型重建方法
CN113538667B (zh) 动态场景光场重建方法及装置
CN112308918A (zh) 一种基于位姿解耦估计的无监督单目视觉里程计方法
Gao et al. Joint optimization of depth and ego-motion for intelligent autonomous vehicles
CN110942484A (zh) 基于遮挡感知和特征金字塔匹配的相机自运动估计方法
CN107689060A (zh) 目标对象的视觉处理方法、装置及基于视觉处理的设备
CN111462274A (zh) 一种基于smpl模型的人体图像合成方法及系统
CN114170290A (zh) 图像的处理方法及相关设备
Fan et al. RS-DPSNet: Deep plane sweep network for rolling shutter stereo images
CN113780389B (zh) 基于一致性约束的深度学习半监督密集匹配方法及系统
CN111292425A (zh) 一种基于单双目混合数据集的视图合成方法
CN115761116B (zh) 一种基于单目相机的透视投影下三维人脸重建方法
Bhutani et al. Unsupervised Depth and Confidence Prediction from Monocular Images using Bayesian Inference

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant