CN109859249B - Rgbd序列中基于自动分层的场景流估计方法 - Google Patents
Rgbd序列中基于自动分层的场景流估计方法 Download PDFInfo
- Publication number
- CN109859249B CN109859249B CN201910068479.5A CN201910068479A CN109859249B CN 109859249 B CN109859249 B CN 109859249B CN 201910068479 A CN201910068479 A CN 201910068479A CN 109859249 B CN109859249 B CN 109859249B
- Authority
- CN
- China
- Prior art keywords
- image
- depth
- layer
- pixel
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开的RGBD序列中基于自动分层的场景流估计方法,首先获得连续两帧RGB图像和深度图像;其次,计算连续两帧RGB图像之间的光流信息,根据对应的RGB图像修复深度图像,然后使用SLIC超像素分割和相似区域合并信息得到初始分层深度图像,使用自动分层程序将初始分层图像中冗余的层进行合并得到最终的深度图像分层信息,最后根据深度图像和RGB图像间的光流信息得到场景流信息。本发明与传统的计算场景流方法相比,在提高精确度的同时增加了分层的自动化程度。
Description
技术领域
本发明属于计算机数字图像处理技术领域,具体涉及一种RGBD序列中基于自动分层的场景流估计方法。
背景技术
光流是指空间运动物体在观察平面上的像素运动的顺时速度,表达了图像的变化,由于它包含了目标运动的信息,因此被观察者用来确定目标的运动情况。由光流的定义引申出光流场,它是指图像中所有像素点构成的一种二维(2D)瞬时速度场,其中的二维速度矢量是景物中可见点的三维速度矢量在成像表面的投影,所以光流不仅包含了被观察物体的运动信息,而且还包含有关景物三维结构的丰富信息。
通常3D场景流(Scene Flow)被看作是二维光流到三维的扩展,能够描述空间物体运动所形成的三维运动矢量。近年来随着计算机技术的发展,场景流及相关技术的研究也得到了迅速的提升和广泛的应用。在理论方面,场景流的计算方法由传统的双目立体视觉发展到用RGBD方法估计场景流;在应用方面,场景流技术可应用于虚拟现实,目标检测,跟踪与识别等。
目前,计算场景流的方法主要有两种,分别是基于双目立体视觉和基于RGBD计算场景流。前者主要是通过左右两个相机同步拍照,获得左右图像,对左右图像进行匹配,能够获得左右光流,进而得到场景流的估计。这种方法由于估计视差图而额外消耗时间的同时容易受到噪声和异常点估计的影响。随着深度传感器的诞生,基于RGBD方法成为计算场景流的主要方法。与前者相比,基于RGBD方法能够直接利用传感器获取较为精确的深度信息,因此能够提高计算准确性并节省计算时间。但是基于RGBD方法在遮挡处容易造成误差甚至错误。分层场景流方法针对RGBD方法这一缺点,分别对平滑性和不连续性建模,进而能够对遮挡的边界部分进行真实性建模;在边界建模中,对已知的场景的相对深度进行排序,进而将场景分成不同的层,然后针对不同的层次分别进行处理。
发明内容
本发明的目的是提供一种RGBD序列中基于自动分层的场景流估计方法,解决了传统方法中存在深度图像分层的自动化程度低和计算误差大的问题。
本发明所采用的技术方案是,RGBD序列中基于自动分层的场景流估计方法,具体包括如下步骤:
步骤1,分别输入连续两帧RGB图像和连续两帧深度图像,根据输入的RGB图像1和RGB图像2,分别计算RGB图像1到RGB图像2之间的光流图和RGB图像2到RGB图像1之间的光流图;
步骤2,修复深度图像:
根据坐标转换配准输入的深度图像和RGB图像,将深度图像中的噪声根据深度值为0的连通区域的大小分为洞和噪声点,然后根据区域相似性和颜色一致性修补洞,根据双边滤波消除噪声点;
步骤3,将深度图像语义分层:
采用SLIC超像素分割和相似区域合并算法对步骤2得到的深度图像进行语义分层,得到轮廓保持好的初始分层图像;
步骤4,将深度图像自动分层:
根据自动分层算法判断步骤3得到的初始分层图像中相邻两层是否能够合并,如果能够合并,则合并相邻层,并对所有层重新排序;如果不能合并,则分层结果保持不变;
步骤5,判断步骤4重新排序后的层数是否改变,如果层数未发生改变,则自动分层得到深度图像最终的分层结果;如果层数发生改变则返回执行步骤4;
步骤6,计算层辅助函数的权重:
层辅助函数gk(-1.5≤gk≤1.5)表示第k层的每个像素点属于第k层的可能性的大小,根据AR模型调制深度图像与RGB图像边缘不一致性获得层辅助函数的空间一致性;
步骤7,计算场景流:
根据步骤1得到的光流信息和步骤6得到深度图像的分层信息,计算每层的2D运动和深度变化得到场景流信息。
本发明的其他特点还在于,
步骤2的具体过程如下:
深度图像和RGB图像的配准过程:在深度图像和RGB图像中分别找到四对对应的点,这四对对应点坐标的位置信息根据式(1)得到投影矩阵,使用opencv中的函数warpPerspective()得到深度图像与RGB图像的配准图像;
式中,(X,Y)为RGB图像中的像素点坐标,(x,y)为深度图像中的像素点坐标,A为投影矩阵;
如果深度图像中深度值为0的连通区域的面积大于4,则该区域是洞,根据区域一致性和颜色的一致性修补洞,然后根据双边滤波消除噪声点;
如果深度图像中深度值为0的连通区域的面积为4或者小于4,则该区域是噪声点,根据双边滤波消除噪声点。
步骤3的具体过程如下:
步骤3.1,选取聚类中心,即分别选取初始化种子点和优化种子点;
初始化种子点的选取:根据设定的超像素个数,在图像内均匀的分配种子点,假设图片中有N个像素点,预设为R个相同尺寸的超像素,则每个超像素块的大小为N/R,则相邻种子点的距离为S=sqrt(N/R);
优化种子点的选取:由于初始化选取的种子点可能会落在梯度较大的轮廓边界上而影响后续效果,在初始种子点的n*n邻域内,n=3,根据公式(2)-(4)计算所有像素的梯度值,然后选择梯度值最小的地方作为新种子点,同时给每个种子点分配一个单独的标签,记为优化种子点;
G(x,y)=dx(x,y)+dy(x,y) (2)
dx(x,y)=I(x+1,y)-I(x,y) (3)
dy(x,y)=I(x,y+1)-I(x,y) (4)
其中,I是图像像素的值,(x,y)为像素的坐标,G(x,y)为像素的梯度函数,dx为水平方向的梯度,dy为垂直方向的梯度;
步骤3.2,根据公式(5)和(6)计算种子点邻域内每个像素到种子点的颜色距离dφ和空间距离dθ:
式中,e是邻域内的点,m是种子点,ln(n=m,e)表示像素n的亮度(Luminosity),ln的值域由0(黑色)到100(白色);an(n=m,e)表示像素n从洋红色至绿色的范围(an为负值指示绿色,正值指示品红);bn(n=m,e)表示像素n从黄色至蓝色的范围(bn为负值指示蓝色,正值指示黄色);
根据公式(7)得到相似性度量,选择最小值作为新的聚类中心:
式中,dφ代表颜色距离,dθ代表空间距离,De是相似性度量,h是最大的颜色空间距离,随着图片的不同而不同,也随着聚类的不同而不同,取值范围为[1,40],取值为10,S=sqrt(N/R)为相邻种子点的距离;
步骤3.3,合并相似区域:经过SLIC超像素分割之后获得带有标签的初始分割图像,这些相似的邻近区域仍可以通过合并产生有语义的分割,使得合并后的每个区域里面应具有相似性,而相邻区域之间具有差异性;
区域合并的主要过程如下:
根据初始分割图像建立相对应的区域邻接图G=(V,E),V={S1,S2,...,SR}是顶点的集合,每个顶点Si(1≤i≤R)对应分割图中的一个分割区域,R是分割图中的分割区域数,E是边的集合,在分割图中,如果两个区域相邻,则相对应的两个端点之间存在一条边;
在无向图G=(V,E)中,每条边赋予一定的权重,这个权重对应于合并两个区域的权重如公式(8)所示,区域越相似,权重值越小,在每一次合并过程中,寻找权重最小的边,并进行相邻区域合并;
式中,Cp,r为相邻区域p,r之间的权重,Np表示区域p(1≤p≤R)的面积,Nr表示区域r(1≤r≤R)的面积,μp表示p区域的光谱平均值,μr表示r区域的光谱平均值,l是相邻区域i和j的公共边长度,λ是公共边的影响系数,当λ=0时,lλ=1,表示公共边长度改变不影响区域异质性度量;当λ不为0时,公共边越长,异质性越小。
步骤4的具体过程如下:
步骤4.1,将步骤3得到的初始分层层数定义为K,然后判断第k(1≤k<K)层和第k+1层是否相邻,首先将第k层的像素分别上下左右移动一个像素点,将移动之后的像素的标签和第k+1层的标签相加,检测是否存在2k+1,如果有,则说明这两个区域是相邻的;
步骤4.2,判断相邻层是否能够合并:分别计算相邻层第k层和k+1层在光流中的映射区域Sk和Sk+1,计算两个区域中所有像素点平均光流的角误差AE和点误差EE,如果计算得到的角误差AE和点误差EE满足如式(9)和(10)中任意一个判定公式,则将第k层和第k+1层合并;
步骤6的具体过程如下:
步骤6.2,计算RGB权重:在与深度图像对应的RGB图像中,分别提取以像素x为中心的w×w块的RGB三通道信息,接着对于提取到的w×w三通道信息根据公式(12)和(13)进行双边滤波得到RGB权重aI x,y:
式中,σ2控制指数函数的衰减率,表示以像素x为中心的w×w块的三通道信息中的第i通道信息矩阵,表示逐个元素相乘,Bx是w×w块的双边滤波,是像素点x的第i通道的强度值,σ3和σ4分别是根据空间距离和强度差异调整的双边滤波器的参数;
步骤6.3,计算层辅助函数权重:将步骤6.1得到的深度权重和步骤6.2得到RGB权重,带入公式(14)得到层辅助函数的权重:
步骤7的具体过程如下:
RGBD分层场景流能量函数如式(15)所示:
式中,是每层的运动,包括2D运动{utk,vtk}和深度变化wtk,Edata反应了第t帧和第t+1帧连续两帧在2D运动{utk,vtk}后的时间一致性;Espa反映了每层像素分别在垂直,水平,深度方向上经过运动R,τ后的区域一致性,R是旋转,τ是平移;Esup反映了层辅助函数的空间一致性和表面运动{utk,vtk}的时间一致性;λdata,λspa,λsup分别是Edata,Espa,Esup相对应的权重系数;gtk(-1.5≤gtk≤1.5)是辅助函数,反映了像素属于第t帧第k层的概率;
根据帧间光流和深度图像的分割图像初始化场景流,初始场景流的计算模型根据二维光流到三维场景流的映射公式得到,二维光流到三维场景流的映射模型如下:
对于连续两帧RGB图像,第一帧的图像像素点α1=(x1,y1)在第二帧中对应的坐标为α2=(x2,y2),根据对应的坐标信息得到像素点α1的运动信息(u1,v1)=(x2-x1,y2-y1),由跟RGB图像对应的深度图像知道α1对应的深度值为z1,α2对应的深度值为z2,则深度值的变化为z=z2-z1,根据像素点的透视投影关系得到图像像素点α1和α2对应的3D空间点坐标如式(16)所示:
u=X2-X1,v=Y2-Y1,Z=Z2-Z1 (16)
这里α12=(X1,Y1,Z1)是平面像素点α1对应的空间坐标点,α22=(X2,Y2,Z2)是平面像素点α2对应的空间像素点,X1,Y1,Z1,X2,Y2,Z2,根据式(17)获得:
式中,fx,fy和cx,cy分别是相机焦距和畸变系数,当图像场景运动包含旋转Rt,k和平移τt,k的情况下空间点α22可由空间点α12根据式(18)计算获得:
α22=Rt,kα12 T+τt,k (18)
则空间点α22对应的坐标如式(19)所示:
根据空间点α12和空间点α22计算得到的场景流如式(20)-(22)所示:
wt,k(α22)=z2-z1(22)
式中,ut,k,vt,k wt,k分别是x方向,y方向和深度方向的变化。
本发明的有益效果是,RGBD序列中基于自动分层的场景流估计方法,与传统的场景流方法相比能够提高分割精度和自动化程度,同时还能够解决深度图像与RGB图像的边缘不一致性。
附图说明
图1是本发明的RGBD序列中基于自动分层的场景流估计方法的流程图;
图2是修复深度图像的流程图;
图3是深度图像初始分割的流程图;
图4是包含数据集SRSF_20的原始图像;
图5是连续两帧RGB图计算的光流图;
图6是修复后的连续两帧深度图像;
图7是执行语义分割后的初始分层图像;
图8是执行自动分层后的最终深度分层图;
图9是计算的遮挡图;
图10是计算出的场景流的结果图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明的RGBD序列中基于自动分层的场景流估计方法,如图1所示,具体包括如下步骤:
步骤1,分别输入连续两帧RGB图像和连续两帧深度图像,根据输入的RGB图像1和RGB图像2,分别计算RGB图像1到RGB图像2之间的光流图和RGB图像2到RGB图像1之间的光流图;
步骤2,修复深度图像:
如图2所示,根据坐标转换配准输入的深度图像和RGB图像,将深度图像中的噪声根据深度值为0的连通区域的大小分为洞和噪声点,然后根据区域相似性和颜色一致性修补洞,根据双边滤波消除噪声点;
步骤2的具体过程如下:
深度图像和RGB图像的配准过程:在深度图像和RGB图像中分别找到四对对应的点,这四对对应点坐标的位置信息根据式(1)得到投影矩阵A,使用opencv中的函数warpPerspective()得到深度图像与RGB图像的配准图像;
式中,(X,Y)为RGB图像中的像素点坐标,(x,y)为深度图像中的像素点坐标,A为投影矩阵;
如果深度图像中深度值为0的连通区域的面积(像素总数)大于4,则该区域是洞,根据区域一致性和颜色的一致性修补洞,然后根据双边滤波消除噪声点;
如果深度图像中深度值为0的连通区域的面积(像素总数)为4或者小于4,则该区域是噪声点,根据双边滤波消除噪声点。
步骤3,将深度图像语义分层:
采用SLIC超像素分割和相似区域合并算法对步骤2得到的深度图像进行语义分层,得到轮廓保持好的初始分层图像;
如图3所示,步骤3的具体过程如下:
步骤3.1,选取聚类中心,即分别选取初始化种子点和优化种子点;
初始化种子点的选取:根据设定的超像素个数,在图像内均匀的分配种子点,假设图片中有N个像素点,预设为R个相同尺寸的超像素,则每个超像素块的大小为N/R,则相邻种子点的距离为S=sqrt(N/R);
优化种子点的选取:由于初始化选取的种子点可能会落在梯度较大的轮廓边界上而影响后续效果,在初始种子点的n*n邻域内(一般n=3),根据公式(2)-(4)计算所有像素的梯度值,然后选择梯度值最小的地方作为新种子点,同时给每个种子点分配一个单独的标签,记为优化种子点;
G(x,y)=dx(x,y)+dy(x,y) (2)
dx(x,y)=I(x+1,y)-I(x,y) (3)
dy(x,y)=I(x,y+1)-I(x,y) (4)
其中,I是图像像素的值,(x,y)为像素的坐标,G(x,y)为像素的梯度函数,dx为水平方向的梯度,dy为垂直方向的梯度;
步骤3.2,根据公式(5)和(6)计算种子点邻域内每个像素到种子点的颜色距离dφ和空间距离dθ:
式中,e是邻域内的点,m是种子点,ln(n=m,e)表示像素n的亮度(Luminosity),ln的值域由0(黑色)到100(白色);an(n=m,e)表示像素n从洋红色至绿色的范围(an为负值指示绿色,正值指示品红);bn(n=m,e)表示像素n从黄色至蓝色的范围(bn为负值指示蓝色,正值指示黄色);
根据公式(7)得到相似性度量,选择最小值作为新的聚类中心:
式中,dφ代表颜色距离,dθ代表空间距离,De是相似性度量,h是最大的颜色空间距离,随着图片的不同而不同,也随着聚类的不同而不同,取值范围为[1,40],取值为10,S=sqrt(N/R)为相邻种子点的距离;
步骤3.3,合并相似区域:经过SLIC超像素分割之后获得带有标签的初始分割图像,这些相似的邻近区域仍可以通过合并产生有语义的分割,使得合并后的每个区域里面应具有相似性,而相邻区域之间具有差异性;
区域合并的主要过程如下:
根据初始分割图像建立相对应的区域邻接图G=(V,E),V={S1,S2,...,SR}是顶点的集合,每个顶点Si(1≤i≤R)对应分割图中的一个分割区域,R是分割图中的分割区域数,E是边的集合,在分割图中,如果两个区域相邻,则相对应的两个端点之间存在一条边;
在无向图G=(V,E)中,每条边赋予一定的权重,这个权重对应于合并两个区域的权重如公式(8)所示,区域越相似,权重值越小,在每一次合并过程中,寻找权重最小的边,并进行相邻区域合并;
式中,Cp,r为相邻区域p,r之间的权重,Np表示区域p(1≤p≤R)的面积,Nr表示区域r(1≤r≤R)的面积,μp表示p区域的光谱平均值,μr表示r区域的光谱平均值,l是相邻区域i和j的公共边长度,λ是公共边的影响系数,当λ=0时,lλ=1,表示公共边长度改变不影响区域异质性度量;当λ不为0时,公共边越长,异质性越小。
步骤4,将深度图像自动分层:
根据自动分层算法判断步骤3得到的初始分层图像中相邻两层是否能够合并,如果能够合并,则合并相邻层,并对所有层重新排序;如果不能合并,则分层结果保持不变;
步骤4的具体过程如下:
步骤4.1,将步骤3得到的初始分层层数定义为K,然后判断第k(1≤k<K)层和第k+1层是否相邻,首先将第k层的像素分别上下左右移动一个像素点,将移动之后的像素的标签和第k+1层的标签相加,检测是否存在2k+1,如果有,则说明这两个区域是相邻的;
步骤4.2,判断相邻层是否能够合并:分别计算相邻层第k层和k+1层在光流中的映射区域Sk和Sk+1,计算两个区域中所有像素点平均光流的角误差AE和点误差EE,如果计算得到的角误差AE和点误差EE满足如式(9)和(10)中任意一个判定公式,则将第k层和第k+1层合并;
步骤5,判断步骤4重新排序后的层数是否改变,如果层数未发生改变,则自动分层得到深度图像最终的分层结果;如果层数发生改变则返回执行步骤4;
步骤6,计算层辅助函数的权重:
层辅助函数gk(-1.5≤gk≤1.5)表示第k层的每个像素点属于第k层的可能性的大小,根据AR模型调制深度图像与RGB图像边缘不一致性获得层辅助函数的权重;
步骤6的具体过程如下:
式中,是深度图像中像素点n的深度值,其中,n=x,y;y是x的邻域内的像素,σ1是滤波器的衰减率,当和非常接近时,的值则非常大;相同深度层的像素颜色可能存在很大差别;颜色类似的像素可能属于不同的层,深度权重能够避免这一点;
步骤6.2,计算RGB权重:在与深度图像对应的RGB图像中,分别提取以像素x为中心的w×w块的RGB三通道信息,接着对于提取到的w×w三通道信息根据公式(12)和公式(13)进行双边滤波得到RGB权重aI x,y:
式中,σ2控制指数函数的衰减率,表示以像素x为中心的w×w块的三通道信息中的第i通道信息矩阵,表示逐个元素相乘,Bx是w×w块的双边滤波,是像素点x的第i通道的强度值,σ3和σ4分别是根据空间距离和强度差异调整的双边滤波器的参数;RGB权重项能够提取深度图像与RGB图像的相关性,RGB图像的边缘和深度图像边缘的共同使用能使够避免AR模型中深度图像的不连续性;
步骤6.3,计算层辅助函数权重:将步骤6.1得到的深度权重和步骤6.2得到RGB权重,带入公式(14)得到层辅助函数的权重:
步骤7,计算场景流:
根据光流信息和深度图像的分层信息,计算每层的2D运动和深度变化得到场景流信息;
步骤7的具体过程如下:
RGBD分层场景流能量函数如式(15)所示:
式中,是每层的运动,包括2D运动{utk,vtk}和深度变化wtk,Edata反应了第t帧和第t+1帧连续两帧在2D运动{utk,vtk}后的时间一致性;Espa反映了每层像素分别在垂直,水平,深度方向上经过运动R,τ后的区域一致性,R是旋转,τ是平移;Esup反映了层辅助函数的空间一致性和表面运动{utk,vtk}的时间一致性;λdata,λspa,λsup分别是Edata,Espa,Esup相对应的权重系数;gtk(-1.5≤gtk≤1.5)是辅助函数,反映了像素属于第t帧第k层的概率;
根据帧间光流和深度图像的分割图像初始化场景流,初始场景流的计算模型根据二维光流到三维场景流的映射公式得到,二维光流到三维场景流的映射模型如下:
对于连续两帧RGB图像,第一帧的图像像素点α1=(x1,y1)在第二帧中对应的坐标为α2=(x2,y2),根据对应的坐标信息得到像素点α1的运动信息(u1,v1)=(x2-x1,y2-y1),由跟RGB图像对应的深度图像知道α1对应的深度值为z1,α2对应的深度值为z2,则深度值的变化为z=z2-z1,根据像素点的透视投影关系得到图像像素点α1和α2对应的3D空间点坐标如式16所示:
u=X2-X1,v=Y2-Y1,Z=Z2-Z1 (16)
这里α12=(X1,Y1,Z1)是平面像素点α1对应的空间坐标点,α22=(X2,Y2,Z2)是平面像素点α2对应的空间像素点,X1,Y1,Z1,X2,Y2,Z2,根据式(17)获得:
式中,fx,fy和cx,cy分别是相机焦距和畸变系数,当图像场景运动包含旋转Rt,k和平移τt,k的情况下空间点α22可由空间点α12根据式(18)计算获得:
α22=Rt,kα12 T+τt,k (18)
则空间点α22对应的坐标如式(19)所示:
根据空间点α12和空间点α22计算得到的场景流如式(20)-(22)所示:
wt,k(α22)=z2-z1 (22)
式中,ut,k,vt,k wt,k分别是x方向,y方向和深度方向的变化。
实施例
下面通过对一组仿真数据的操作实例来说明本发明的RGBD序列中基于自动分层的场景流估计方法的实现过程:
(1)首先执行步骤1,采集到连续两帧RGB和深度图像,接着根据连续两帧RGB图像计算出光流信息,图4是采集到连续两帧原始RGB图像和深度图像;图5根据两帧RGB图像分别计算出来的由RGB图像1到RGB图像2的光流信息和RGB图像2到RGB图像1的光流信息图;
(2)执行步骤2,能够得到修复的深度图像,结果如图6所示,分别是根据对应的RGB图像信息修复的两帧深度图像;
(3)执行步骤3,能够得到边缘保留较好的深度图像的初始分层信息;SLIC超像素分割对深度图像的分割结果如图7左侧所示,根据相似区域合并信息对分割后的超像素图像合并后的结果如图7右侧所示;
(4)执行步骤4和步骤5,能够将初始分割中冗余的分层进行合并,将有同一个运动信息的物体分割到同一层,结果如图8显示。
将深度图像进行自动分层后能够得到深度图像的最终分层,分别计算每层的2维运动信息和深度变化能够得到场景流信息,具体的过程是利用坐标下降法最小化能量函数,在能量函数的计算过程中根据步骤6和步骤7得到最终的场景流信息,如图10所示为场景流信息,我们使用灰度图像来表示场景流;图9所示为根据两帧深度图像计算出来的遮挡信息,图9中的黑色轮廓为计算出来的遮挡信息。
Claims (6)
1.RGBD序列中基于自动分层的场景流估计方法,其特征在于,具体包括如下步骤:
步骤1,分别输入连续两帧RGB图像和连续两帧深度图像,根据输入的RGB图像1和RGB图像2,分别计算RGB图像1到RGB图像2之间的光流图和RGB图像2到RGB图像1之间的光流图;
步骤2,修复深度图像:
根据坐标转换配准输入的深度图像和RGB图像,将深度图像中的噪声根据深度值为0的连通区域的大小分为洞和噪声点,然后根据区域相似性和颜色一致性修补洞,根据双边滤波消除噪声点;
步骤3,将深度图像语义分层:
采用SLIC超像素分割和相似区域合并算法对步骤2得到的深度图像进行语义分层,得到轮廓保持好的初始分层图像;
步骤4,将深度图像自动分层:
根据自动分层算法判断步骤3得到的初始分层图像中相邻两层是否能够合并,如果能够合并,则合并相邻层,并对所有层重新排序;如果不能合并,则分层结果保持不变;
步骤5,判断步骤4重新排序后的层数是否改变,如果层数未发生改变,则自动分层得到深度图像最终的分层结果;如果层数发生改变则返回执行步骤4;
步骤6,计算层辅助函数的权重:
层辅助函数gk(-1.5≤gk≤1.5)表示第k层的每个像素点属于第k层的可能性的大小,根据AR模型调制深度图像与RGB图像边缘不一致性获得层辅助函数的空间一致性;
步骤7,计算场景流:
根据步骤1得到的光流信息和步骤6得到深度图像的分层信息,计算每层的2D运动和深度变化得到场景流信息。
2.如权利要求1所述的RGBD序列中基于自动分层的场景流估计方法,其特征在于,所述步骤2的具体过程如下:
深度图像和RGB图像的配准过程:在深度图像和RGB图像中分别找到四对对应的点,这四对对应点坐标的位置信息根据式(1)得到投影矩阵,使用opencv中的函数warpPerspective()得到深度图像与RGB图像的配准图像;
式中,(X,Y)为RGB图像中的像素点坐标,(x,y)为深度图像中的像素点坐标,A为投影矩阵;
如果深度图像中深度值为0的连通区域的面积大于4,则该区域是洞,根据区域一致性和颜色的一致性修补洞,然后根据双边滤波消除噪声点;
如果深度图像中深度值为0的连通区域的面积为4或者小于4,则该区域是噪声点,根据双边滤波消除噪声点。
3.如权利要求1所述的RGBD序列中基于自动分层的场景流估计方法,其特征在于,所述步骤3的具体过程如下:
步骤3.1,选取聚类中心,即分别选取初始化种子点和优化种子点;
初始化种子点的选取:根据设定的超像素个数,在图像内均匀的分配种子点,假设图片中有N个像素点,预设为R个相同尺寸的超像素,则每个超像素块的大小为N/R,则相邻种子点的距离为S=sqrt(N/R);
优化种子点的选取:由于初始化选取的种子点可能会落在梯度较大的轮廓边界上而影响后续效果,在初始种子点的n*n邻域内,n=3,根据公式(2)-(4)计算所有像素的梯度值,然后选择梯度值最小的地方作为新种子点,同时给每个种子点分配一个单独的标签,记为优化种子点;
G(x,y)=dx(x,y)+dy(x,y) (2)
dx(x,y)=I(x+1,y)-I(x,y) (3)
dy(x,y)=I(x,y+1)-I(x,y) (4)
其中,I是图像像素的值,(x,y)为像素的坐标,G(x,y)为像素的梯度函数,dx为水平方向的梯度,dy为垂直方向的梯度;
步骤3.2,根据公式(5)和(6)计算种子点邻域内每个像素到种子点的颜色距离dφ和空间距离dθ:
式中,e是邻域内的点,m是种子点,ln(n=m,e)表示像素n的亮度(Luminosity),ln的值域由0(黑色)到100(白色);an(n=m,e)表示像素n从洋红色至绿色的范围(an为负值指示绿色,正值指示品红);bn(n=m,e)表示像素n从黄色至蓝色的范围(bn为负值指示蓝色,正值指示黄色);
根据公式(7)得到相似性度量,选择最小值作为新的聚类中心:
式中,dφ代表颜色距离,dθ代表空间距离,De是相似性度量,h是最大的颜色空间距离,随着图片的不同而不同,也随着聚类的不同而不同,取值范围为[1,40],取值为10,S=sqrt(N/R)为相邻种子点的距离;
步骤3.3,合并相似区域:经过SLIC超像素分割之后获得带有标签的初始分割图像,这些相似的邻近区域仍可以通过合并产生有语义的分割,使得合并后的每个区域里面应具有相似性,而相邻区域之间具有差异性;
区域合并的主要过程如下:
根据初始分割图像建立相对应的区域邻接图G=(V,E),V={S1,S2,...,SR}是顶点的集合,每个顶点Si(1≤i≤R)对应分割图中的一个分割区域,R是分割图中的分割区域数,E是边的集合,在分割图中,如果两个区域相邻,则相对应的两个端点之间存在一条边;
在无向图G=(V,E)中,每条边赋予一定的权重,这个权重对应于合并两个区域的权重如公式(8)所示,区域越相似,权重值越小,在每一次合并过程中,寻找权重最小的边,并进行相邻区域合并;
式中,Cp,r为相邻区域p,r之间的权重,Np表示区域p(1≤p≤R)的面积,Nr表示区域r(1≤r≤R)的面积,μp表示p区域的光谱平均值,μr表示r区域的光谱平均值,l是相邻区域i和j的公共边长度,λ是公共边的影响系数,当λ=0时,lλ=1,表示公共边长度改变不影响区域异质性度量;当λ不为0时,公共边越长,异质性越小。
4.如权利要求1所述的RGBD序列中基于自动分层的场景流估计方法,其特征在于,所述步骤4的具体过程如下:
步骤4.1,将步骤3得到的初始分层层数定义为K,然后判断第k层和第k+1层是否相邻,首先将第k层的像素分别上下左右移动一个像素点,将移动之后的像素的标签和第k+1层的标签相加,检测是否存在2k+1,如果有,则说明这两个区域是相邻的;
步骤4.2,判断相邻层是否能够合并:分别计算相邻层第k层和k+1层在光流中的映射区域Sk和Sk+1,计算两个区域中所有像素点平均光流的角误差AE和点误差EE,如果计算得到的角误差AE和点误差EE满足如式(9)和(10)中任意一个判定公式,则将第k层和第k+1层合并;
5.如权利要求1所述的RGBD序列中基于自动分层的场景流估计方法,其特征在于,所述步骤6的具体过程如下:
式中,σ2控制指数函数的衰减率,表示以像素x为中心的w×w块的三通道信息中的第i通道信息矩阵,表示逐个元素相乘,Bx是w×w块的双边滤波,是像素点x的第i通道的强度值,σ3和σ4分别是根据空间距离和强度差异调整的双边滤波器的参数;
步骤6.3,计算层辅助函数权重:将步骤6.1得到的深度权重和步骤6.2得到RGB权重,带入公式(14)得到层辅助函数的权重:
6.如权利要求5所述的RGBD序列中基于自动分层的场景流估计方法,其特征在于,所述步骤7的具体过程如下:
RGBD分层场景流能量函数如式(15)所示:
式中,是每层的运动,包括2D运动{utk,vtk}和深度变化wtk,Edata反应了第t帧和第t+1帧连续两帧在2D运动{utk,vtk}后的时间一致性;Espa反映了每层像素分别在垂直,水平,深度方向上经过运动R,τ后的区域一致性,R是旋转,τ是平移;Esup反映了层辅助函数的空间一致性和表面运动{utk,vtk}的时间一致性;λdata,λspa,λsup分别是Edata,Espa,Esup相对应的权重系数;gtk(-1.5≤gtk≤1.5)是辅助函数,反映了像素属于第t帧第k层的概率;
根据帧间光流和深度图像的分割图像初始化场景流,初始场景流的计算模型根据二维光流到三维场景流的映射公式得到,二维光流到三维场景流的映射模型如下:
对于连续两帧RGB图像,第一帧的图像像素点α1=(x1,y1)在第二帧中对应的坐标为α2=(x2,y2),根据对应的坐标信息得到像素点α1的运动信息(u1,v1)=(x2-x1,y2-y1),由跟RGB图像对应的深度图像知道α1对应的深度值为z1,α2对应的深度值为z2,则深度值的变化为z=z2-z1,根据像素点的透视投影关系得到图像像素点α1和α2对应的3D空间点坐标如式(16)所示:
u=X2-X1,v=Y2-Y1,Z=Z2-Z1 (16)
这里α12=(X1,Y1,Z1)是平面像素点α1对应的空间坐标点,α22=(X2,Y2,Z2)是平面像素点α2对应的空间像素点,X1,Y1,Z1,X2,Y2,Z2,根据式(17)获得:
式中,fx,fy和cx,cy分别是相机焦距和畸变系数,当图像场景运动包含旋转Rt,k和平移τt,k的情况下空间点α22可由空间点α12根据式(18)计算获得:
α22=Rt,kα12 T+τt,k (18)
则空间点α22对应的坐标如式(19)所示:
根据空间点α12和空间点α22计算得到的场景流如式(20)-(22)所示:
wt,k(α22)=z2-z1 (22)
式中,ut,k,vt,k wt,k分别是x方向,y方向和深度方向的变化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910068479.5A CN109859249B (zh) | 2019-01-24 | 2019-01-24 | Rgbd序列中基于自动分层的场景流估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910068479.5A CN109859249B (zh) | 2019-01-24 | 2019-01-24 | Rgbd序列中基于自动分层的场景流估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109859249A CN109859249A (zh) | 2019-06-07 |
CN109859249B true CN109859249B (zh) | 2022-09-20 |
Family
ID=66895995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910068479.5A Active CN109859249B (zh) | 2019-01-24 | 2019-01-24 | Rgbd序列中基于自动分层的场景流估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109859249B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110309335B (zh) * | 2019-07-03 | 2023-01-06 | 腾讯科技(深圳)有限公司 | 一种图片匹配方法、装置、设备及存储介质 |
CN110473228B (zh) * | 2019-07-03 | 2022-03-04 | 西安理工大学 | Rgbd视频中基于局部刚性假设的场景流估计方法 |
WO2021068799A1 (en) * | 2019-10-07 | 2021-04-15 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Occlusion and collision detection for augmented reality applications |
CN112734874A (zh) * | 2021-01-04 | 2021-04-30 | 厦门美图之家科技有限公司 | 油画生成方法、装置、计算机设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014063373A1 (zh) * | 2012-10-23 | 2014-05-01 | 青岛海信信芯科技有限公司 | 深度图提取、判断视频场景切换及深度图边缘优化方法 |
CN106952266A (zh) * | 2017-03-17 | 2017-07-14 | 南昌航空大学 | Rgbd序列场景流计算中深度图像优化方法 |
CN108986136A (zh) * | 2018-07-23 | 2018-12-11 | 南昌航空大学 | 一种基于语义分割的双目场景流确定方法及系统 |
-
2019
- 2019-01-24 CN CN201910068479.5A patent/CN109859249B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014063373A1 (zh) * | 2012-10-23 | 2014-05-01 | 青岛海信信芯科技有限公司 | 深度图提取、判断视频场景切换及深度图边缘优化方法 |
CN106952266A (zh) * | 2017-03-17 | 2017-07-14 | 南昌航空大学 | Rgbd序列场景流计算中深度图像优化方法 |
CN108986136A (zh) * | 2018-07-23 | 2018-12-11 | 南昌航空大学 | 一种基于语义分割的双目场景流确定方法及系统 |
Non-Patent Citations (2)
Title |
---|
《基于深度自动分层的RGBD序列场景流计算技术研究》;朱令令;《中国优秀硕士学位论文全文数据库-信息科技辑》;20180131;全文 * |
深度图像优化分层分割的3D场景流估计;葛利跃等;《南昌航空大学学报(自然科学版)》;20180615(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109859249A (zh) | 2019-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109859249B (zh) | Rgbd序列中基于自动分层的场景流估计方法 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN108986136B (zh) | 一种基于语义分割的双目场景流确定方法及系统 | |
CN111066065B (zh) | 用于混合深度正则化的系统和方法 | |
CN109360235B (zh) | 一种基于光场数据的混合深度估计方法 | |
RU2382406C1 (ru) | Способ улучшения карты диспарантности и устройство для реализации способа | |
US8326025B2 (en) | Method for determining a depth map from images, device for determining a depth map | |
CN111833393A (zh) | 一种基于边缘信息的双目立体匹配方法 | |
CN110544294B (zh) | 一种基于全景视频的稠密三维重构方法 | |
CN105005988B (zh) | 一种基于交互式图像分割的立体匹配方法 | |
CN107170037A (zh) | 一种基于多摄像机的实时三维点云重建方法和系统 | |
CN205451195U (zh) | 一种基于多摄像机的实时三维点云重建系统 | |
CN106530336B (zh) | 基于色彩信息和图割理论的立体匹配方法 | |
WO2018053952A1 (zh) | 一种基于场景样本库的影视图像深度提取方法 | |
Cherian et al. | Accurate 3D ground plane estimation from a single image | |
CN111462030A (zh) | 多图像融合的立体布景视觉新角度构建绘制方法 | |
CN112927251B (zh) | 基于形态学的场景稠密深度图获取方法、系统及装置 | |
CN114332214A (zh) | 物体姿态估计方法、装置、电子设备及存储介质 | |
CN111914913B (zh) | 一种新型立体匹配优化方法 | |
CN101765019A (zh) | 一种用于运动模糊和光照变化图像的立体匹配方法 | |
CN115423978A (zh) | 用于建筑物重建的基于深度学习的图像激光数据融合方法 | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 | |
CN110473228B (zh) | Rgbd视频中基于局部刚性假设的场景流估计方法 | |
CN112712566B (zh) | 基于结构参数在线校正的双目立体视觉传感器测量方法 | |
CN113034681B (zh) | 空间平面关系约束的三维重建方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |