CN106485675B - 一种基于3d局部刚性和深度图引导各向异性平滑的场景流估计方法 - Google Patents
一种基于3d局部刚性和深度图引导各向异性平滑的场景流估计方法 Download PDFInfo
- Publication number
- CN106485675B CN106485675B CN201610854331.0A CN201610854331A CN106485675B CN 106485675 B CN106485675 B CN 106485675B CN 201610854331 A CN201610854331 A CN 201610854331A CN 106485675 B CN106485675 B CN 106485675B
- Authority
- CN
- China
- Prior art keywords
- scene flows
- scene
- depth
- image
- flows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013461 design Methods 0.000 claims abstract description 14
- 230000009977 dual effect Effects 0.000 claims abstract description 5
- 238000005457 optimization Methods 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000008439 repair process Effects 0.000 abstract description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000287196 Asthenes Species 0.000 description 1
- 240000006927 Foeniculum vulgare Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于3D局部刚性和深度图引导各向异性平滑的场景流估计方法。S1利用RGB‑D传感器同时获取对齐的纹理图像和深度图像;构建场景流估计能量泛函,结合3D局部刚性表面假设和全局约束方法求解稠密场景流,场景流能量函数的形式为;利用纹理图像和深度图像,结合3D局部刚性表面假设设计数据项;结合深度图驱动的各向异性扩散张量和全变分正则化设计平滑项;创建图像金字塔,采用由粗到精的求解策略;利用对偶方法求解场景流,引入场景流辅助变量。本发明利用彩色图像的像素间色差与像素之间的位置关系来共同确定空域滤波器权值,进而解决了修复过程中边缘失真的问题,为减少修复误差,结合颜色信息与结构相似度系数共同确定值域滤波器权值。
Description
技术领域
本发明涉及一种基于3D局部刚性和深度图引导各向异性平滑的场景流估计方法。
背景技术
场景流是3维稠密运动场,表示实际场景中每个点的3D运动。场景流表示场景的真实运动场,并且包含深度信息,因此场景流在智能人机交互,3维重建和车辆辅助驾驶等领域具有广泛的应用前景。为使场景流能够广泛应用,准确估计场景流是一个至关重要的问题。场景流求解是一个病态问题,需要附加多种假设约束才能求解。
场景流的概念是卡内基梅隆大学的Vedula于1999年首次提出。场景流估计主要分为:基于双目立体视觉的场景流估计和深度传感器的场景流估计。随着深度传感器技术的发展和广泛应用,基于彩色图和深度图(RGB-D)的场景流估计,引起了研究者越来越多的关注。基于深度传感器的场景流估计,可以利用单传感器计算场景流,由于具备准确的深度初值,因此与基于双目立体视觉的场景流估计相比,可以减小计算量和计算的复杂度,具有广泛的发展前景。随着Kinect V1的出现,Gottfried较早提出了一种基于RGB-D的场景流求解算法。Quiroga提出局部和全局结合的方法求解场景流,局部和全局结合更有利于得到精确、稠密的场景流。随后利用全局约束结合自适应的TV正则化求解稠密场景流。Ferstl提出各向异性扩散张量的全总变分正则化。Sun提出一种分层求解策略,取得了较好的效果。但是现有技术,很少有人注重求解场景流精度的同时还注重研究运动边缘的保持效果。
本方案的根据目前的研究现状,考虑存在的技术问题,提出一种场景流求解思路。
发明内容
本发明的目的在于提出一种基于3D局部刚性和深度图引导各向异性平滑的场景流估计方法。
本发明的目的是这样实现的:
包括以下步骤:
S1利用RGB-D传感器同时获取对齐的纹理图像和深度图像;
S2构建场景流估计能量泛函,结合3D局部刚性表面假设和全局约束方法求解稠密场景流,场景流能量函数的形式为:
由数据项和平滑项组成,为场景流,λ为平衡因子;
S3利用纹理图像和深度图像,结合3D局部刚性表面假设设计数据项;
S4结合深度图驱动的各向异性扩散张量和全变分正则化设计平滑项;
S5创建图像金字塔,采用由粗到精的求解策略;利用对偶方法求解场景流,引入场景流辅助变量:
其中为场景流辅助变量,θ为常量;
将能量函数分解成基于数据项的优化求解和基于平滑项的优化求解两部分,两部分进行交替求解。
所述的步骤S1包括:
在t时刻和t+1时刻,利用RGB-D相机获取场景中运动目标的纹理图像和深度图像,并进行视角对齐;获取的深度图边缘处会有空洞和深度值缺失,利用三边滤波对深度图进行修复。
步骤S3包括:
基于3D局部刚性表面的数据项,即设在3D场景局部表面满足运动一致性,数据项包括基于鲁棒惩罚约束的亮度恒常和深度恒常,亮度恒常是基于纹理图像的约束,为在图像中约束3D场景流,数据项表示成场景流的函数,将场景流通过透视投影变换映射到2维空间,得到其2维映射光流,通过场景流表示的映射光流在图像域约束3D场景流;深度恒常是基于深度图像的约束,t时刻深度图的深度值加上场景流z方向分量值,与t+1时刻深度图像的深度值相等。
场景流在图像域的映射光流为用表示第1帧图像点x1(x,y)在第2帧图像估算的位置点,则有:
根据亮度恒常得到:
其中:I1(x)为x点在第1帧图像的灰度值,I2(W(x,v))为第2帧图像W(x,v)点的灰度值;
根据深度恒常得到:
其中:Z1(x)为x点深度值,为点的深度值,vz(x)为场景流在z方向分量;
推出残余项分别为:
其中:D=(0,0,1)T;
引入的鲁棒惩罚函数:
Ψ(S2)=(S2+ε2)α
取ε=0.001,α=0.45;
进一步推出数据项:
数据项采用3D局部刚性表面,在图像域的表示形式为将约束方程设定在x的邻域N(x)内成立:
步骤S4包括:
定义深度图驱动的各向异性扩散张量和全变分相结合的平滑项为:
其中vd(d=1,2,3)对应于场景流的3个分量:vx,vy,vz,T1/2为各向异性扩散张量,定义为:
其中Z(x)为深度图,x为深度图的像素点,为深度图的梯度,为的法向量;通过引入各向异性扩散张量,减弱梯度方向的平滑程度。
步骤S5包括:
S5.1场景流能量函数求解采取多分辨率细化的金字塔求解策略,并把该层金字塔求解的场景流值作为下一层的求解初值;
S5.2对偶方法求解场景流是引入辅助变量将场景流能量泛函分解成两个相互联系的能量泛函:基于数据项的能量泛函,类似于最小二乘的求解问题,用高斯牛顿算法求解;基于平滑项的能量泛函,用基于Legendre-Fenchel变换的ROF模型的求解方法进行求解,并将这两个能量泛函交替优化求解,得到最终的估计的场景流。
步骤S5.2包括:
最终的场景流能量泛函为:
引入场景流辅助变量则上式变为:
基于数据项的优化求解:
通过固定不变求解
数据项最优化求解问题,类似于最小二乘的求解问题,利用高斯牛顿迭代求解,设其中即设初始值已知,求
则上式变为:
进行泰勒展开:
求的导数,并令导数等于0,最后求得的表达式,并用迭代策略求解,
基于平滑项的优化求解符合ROF去噪模型,利用基于Legendre-Fenchel变换的ROF模型求解方法进行求解。
本发明的有益效果在于:
本发明利用彩色图像的像素间色差与像素之间的位置关系来共同确定空域滤波器权值,进而解决了修复过程中边缘失真的问题,为减少修复误差,结合颜色信息与结构相似度系数共同确定值域滤波器权值。
附图说明
图1为本发明的设计流程图。
图2为本发明的映射关系图。
具体实施方式
下面结合附图对本发明进行更详尽的描述。
3D局部刚性表面假设和基于深度图驱动的各向异性全变分正则化共同约束场景流。3D局部刚性表面假设可以使计算场景流更精确;基于深度图驱动的各向异性全变分正则化可以得到稠密且运动边缘清晰的场景流,二者结合可以得到稠密、精确,运动边缘清晰的场景流。
S1.获取场景纹理图像和深度图像,并对纹理图像和深度图像进行视角对齐,为保证场景流计算的准确度和深度图引导场景流各向异性平滑的可靠性,利用纹理图像进行修复的方法,对深度图进行三边滤波修复。
S2.使用变分法求解场景流,设计场景流求解的能量函数,附加多种约束条件解决场景流计算的病态问题,结合3D局部刚性表面假设和全局约束方法约束场景流,求解能量函数的极小值估计场景流。
S3.场景流能量泛函数据项设计。基于3D局部刚性表面假设的数据项,即假设在3D场景局部表面满足运动一致性。基于鲁棒惩罚约束的亮度恒常假设和深度恒常假设共同构建数据项。
S4.场景流能量泛函平滑项设计。平滑项使用基于深度图驱动的各向异性全变分正则化平滑场景流,避免运动边界模糊。
S5.为解决大位移问题,构建图像金字塔求解场景流。对场景流能量泛函在由粗到精不同分辨率图像上进行求解,并把该层金字塔求解的场景流值作为下一层的求解初值;利用对偶模型,引入场景流辅助变量分步求解场景流,将场景流能量函数数据项和平滑项分离开来,进行分步交替求解,交替求解不仅可以降低计算难度,还有助于将不同的算法整合到一个算法框架中。数据项最优化求解,类似于最小二乘问题,利用高斯牛顿迭代求解;平滑项最优化求解,符合ROF(Rudin,Osher,Fatemi)去噪模型,用一种基于Legendre-Fenchel变换的ROF模型求解方法进行求解。
S1.在t时刻和t+1时刻,利用Kinect V1相机获取场景中运动目标的纹理图像和深度图像,并进行视角对齐。
受RGB-D相机设备原理限制,深度图边缘处会有空洞和深度值缺失,因此为保证场景流计算的准确度和深度图引导场景流各向异性平滑的可靠性,先对深度图进行修复。利用结合纹理图像进行修复的方法,借助与深度图视角对齐的纹理图像信息的方法,对深度图边缘的保持具有较好的效果。利用三边滤波修复模型对深度图像进行修复,弥补传统双边滤波模型在一定程度上会造成图像特征模糊的不足。本发明利用彩色图像的像素间色差与像素之间的位置关系来共同确定空域滤波器权值,进而解决了修复过程中边缘失真的问题,为减少修复误差,结合颜色信息与结构相似度系数共同确定值域滤波器权值。
S2.构建场景流能量泛函求解场景流,通过求解能量函数的极小值来估计场景流。场景流是一种3维稠密运动场,本发明通过施加多种约束条件进行求解,定义场景流的能量泛函的表达式:
由数据项和平滑项组成,为场景流,λ为平衡因子。
S3.场景流能量泛函数据项设计。亮度恒常假设和深度恒常假设共同构建数据项。
亮度恒常假设和深度恒常假设。恒常假设是在图像域,为在图像中约束三维流场,数据项需要表示成场景流与深度Z的函数。需要将场景流通过透视投影变换映射到二维空间,得到二维映射光流,映射关系图如图2:
如图1所示,摄像机在t时刻的一帧图像中的一点为x1(x,y),其对应三维空间坐标为X1(X,Y,Z),在t+1时刻该点的位置为x2(x',y'),X2(X',Y',Z')。光流表示为场景流表示为则X1,X2与场景流的关系可表示为:
已知二维和三维空间的转换关系为:
M为摄像机内参数矩阵。有(3)(4)式可得:
光流的u分量:
对泰勒展开:
当则可以得到
又因为:于是
同理可得光流分量:
于是:
令表示x1(x,y)点在第2帧估算的位置所以:
根据亮度恒常假设得到:
其中:I1(x)为x点在第1帧图像的灰度值,为点在第2帧图像的灰度值。
根据深度恒常假设得到:
其中:Z1(x)为x点深度值,为点的深度值,vz(x)为场景流在z方向分量。
因此根据公式(13)和公式(14)可推出残余项分别为:
其中:D=(0,0,1)T
为抑制光流数据项中的集外点,同时保证能量泛函的凸性与可微性引入形如的公式(17)的鲁棒惩罚函数,取ε=0.001。
进一步推出数据项:
对数据项进行局部约束,将约束方程设定在x的邻域N(x)内成立:
S4.场景流能量泛函平滑项设计。平滑项使用基于深度图驱动的各向异性全变分正则化平滑场景流,避免运动边界模糊。
全变分正则化是非常有效的正则化方法,本专利定义深度图的各向异性扩散张量和全变分相结合的平滑项为:
其中vd(d=1,2,3)对应于场景流的三个分量:vx,vy,vz,T1/2为各向异性扩散张量,可定义:
其中Z(x)为深度图,x为深度像素点,为的法向量,深度图边界往往与运动边界重合,通过引入各向异性扩散张量,减弱梯度方向的平滑程度,而沿着边缘方向的平滑不受影响,从而达到保持运动边缘的目的。
S5.为解决大位移问题,构建4层图像金字塔求解场景流。对场景流能量泛函在由粗到精的不同分辨率的图像上进行求解,并把该层金字塔求解的场景流值作为下一层的求解初值。
利用对偶模型,引入场景流辅助变量分步求解场景流。将场景流能量函数数据项和平滑项分离开来,进行分步交替求解,交替求解不仅可以降低计算难度,还有助于将不同的算法整合到一个算法框架中。数据项最优化求解时,利用高斯牛顿迭代求解,平滑项最优求解利用基于Legendre-Fenchel变换的ROF求解方法进行求解。
最后得到能量函数的表达式:
引入场景流辅助变量则:
S5.数据项最优化求解时,利用高斯牛顿迭代求解.
通过固定不变求解
假设其中即假设初始值已知,求即通过求其增量的形式求解。
则上式变为:
在处进行泰勒展开得:
对于每一个点x对上式求的导数:
将提出:
其中:
场景流的求解是一个迭代方案,因此利用迭代的方案表示初始化则公式(28)可以表示为:
其中:E为单位阵,
其中:
Q11=fx 2Ix 2 (37)
Q12=Q21=fxIxfyIy (38)
Q13=Q31=fxIx[Ix(cx-x)+Iy(cy-y)] (39)
Q22=fy 2Iy 2(40)
Q23=Q32=fyIy[Ix(cx-x)+Iy(cy-y)] (41)
Q33=[Ix(cx-x)+Iy(cy-y)]2 (42)
其中:
R11=fx 2Zx 2(45)
R12=R21=fxfyZxZy (46)
R13=R31=fxZx[Zx(cx-x)+Zy(cy-y)-Z] (47)
R22=fy 2Zy 2 (48)
R23=R32=fyZy[Zx(cx-x)+Zy(cy-y)-Z] (49)
R33=[Zx(cx-x)+Zy(cy-y)-Z]2 (50)
S8.平滑项最优化求解符合ROF去噪模型,可用对偶ROF模型求解。
通过固定不变求解v':
利用Legendre-Fenchel(LF)变换进行求解:
若:
LF变换为:
又因为满足条件:
所以:
若令:
则原公式可变为:
对于每一个点x,对上式求的偏导:
利用梯度下降法:
根据散度定理,由上式可得:
对于每一个点x,对上式求ud的偏导:
因此:
因此最后的迭代公式为:
针对场景流估计问题,本发明提出了一种基于3D局部刚性和深度图驱动的各向异性全变分正则化的场景流估计方法。具体内容包括:S1.利用RGB-D传感器同时获取对齐的纹理图像和深度图像,并用三边滤波对深度图进行修复;S2.构建场景流能量泛函,包括数据项和平滑项;S3.基于3D局部刚性表面假设的数据项设计;S4.基于深度图引导的各向异性张量和全变分正则化的平滑项设计;S5.场景流的求解:为解决大位移问题,构建图像金字塔分层求解场景流;利用对偶模型分步求解,将能量函数分解成基于数据项的优化求解和基于平滑项的优化求解两部分,两部分进行交替求解。基于数据项部分,利用高斯牛顿算法迭代求解;基于平滑项部分看作ROF去噪模型,利用一种基于Legendre-Fenchel变换的ROF模型求解方法进行求解。
Claims (2)
1.一种基于3D局部刚性和深度图引导各向异性平滑的场景流估计方法,其特征在于,包括以下步骤:
S1利用RGB-D传感器同时获取对齐的纹理图像和深度图像;
S2构建场景流估计能量泛函,结合3D局部刚性表面假设和全局约束方法求解稠密场景流,场景流能量函数的形式为:
数据项为平滑项 为场景流,λ为平衡因子;
S3利用纹理图像和深度图像,结合3D局部刚性表面假设设计数据项;
步骤S3包括:
基于3D局部刚性表面的数据项,即设在3D场景局部表面满足运动一致性,数据项包括基于鲁棒惩罚约束的亮度恒常和深度恒常,亮度恒常是基于纹理图像的约束,为在图像中约束3D场景流,数据项表示成场景流的函数,将场景流通过透视投影变换映射到2维空间,得到其2维映射光流,通过场景流表示的映射光流在图像域约束3D场景流;深度恒常是基于深度图像的约束,t时刻深度图的深度值加上场景流z方向分量值,与t+1时刻深度图像的深度值相等;
所述的场景流在图像域的映射光流为用表示第1帧图像点x1(x,y)在第2帧图像估算的位置点,则有:
根据亮度恒常得到:
其中:I1(x)为x点在第1帧图像的灰度值,I2(W(x,v))为第2帧图像W(x,v)点的灰度值;
根据深度恒常得到:
其中:Z1(x)为x点深度值,为点的深度值,vz(x)为场景流在z方向分量;
推出残余项分别为:
其中:D=(0,0,1)T;
引入的鲁棒惩罚函数:
Ψ(S2)=(S2+ε2)α
取ε=0.001,α=0.45;
进一步推出数据项:
数据项采用3D局部刚性表面,在图像域的表示形式为将约束方程设定在x的邻域N(x)内成立:
S4结合深度图驱动的各向异性扩散张量和全变分正则化设计平滑项;
步骤S4包括:
定义深度图驱动的各向异性扩散张量和全变分相结合的平滑项为:
其中vd(d=1,2,3)对应于场景流的3个分量:vx,vy,vz,T1/2为各向异性扩散张量,定义为:
其中Z(x)为深度图,x为深度图的像素点,为深度图的梯度,为的法向量;通过引入各向异性扩散张量,减弱梯度方向的平滑程度;
S5创建图像金字塔,采用由粗到精的求解策略;利用对偶方法求解场景流,引入场景流辅助变量:
其中为场景流辅助变量,θ为常量;
将能量函数分解成基于数据项的优化求解和基于平滑项的优化求解两部分,两部分进行交替求解;
步骤S5包括:
S5.1场景流能量函数求解采取多分辨率细化的金字塔求解策略,并把该层金字塔求解的场景流值作为下一层的求解初值;
S5.2对偶方法求解场景流是引入辅助变量将场景流能量泛函分解成两个相互联系的能量泛函:基于数据项的能量泛函,类似于最小二乘的求解问题,用高斯牛顿算法求解;基于平滑项的能量泛函,用基于Legendre-Fenchel变换的ROF模型的求解方法进行求解,并将这两个能量泛函交替优化求解,得到最终的估计的场景流;
步骤S5.2包括:
最终的场景流能量泛函为:
引入场景流辅助变量则上式变为:
基于数据项的优化求解:
通过固定不变求解
数据项最优化求解问题,类似于最小二乘的求解问题,利用高斯牛顿迭代求解,设其中即设初始值已知,求
则上式变为:
进行泰勒展开:
求的导数,并令导数等于0,最后求得的表达式,并用迭代策略求解,
基于平滑项的优化求解符合ROF去噪模型,利用基于Legendre-Fenchel变换的ROF模型求解方法进行求解。
2.根据权利要求1所述的一种基于3D局部刚性和深度图引导各向异性平滑的场景流估计方法,其特征在于,所述的步骤S1包括:
在t时刻和t+1时刻,利用RGB-D相机获取场景中运动目标的纹理图像和深度图像,并进行视角对齐;获取的深度图边缘处会有空洞和深度值缺失,利用三边滤波对深度图进行修复。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610854331.0A CN106485675B (zh) | 2016-09-27 | 2016-09-27 | 一种基于3d局部刚性和深度图引导各向异性平滑的场景流估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610854331.0A CN106485675B (zh) | 2016-09-27 | 2016-09-27 | 一种基于3d局部刚性和深度图引导各向异性平滑的场景流估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106485675A CN106485675A (zh) | 2017-03-08 |
CN106485675B true CN106485675B (zh) | 2019-06-14 |
Family
ID=58267989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610854331.0A Active CN106485675B (zh) | 2016-09-27 | 2016-09-27 | 一种基于3d局部刚性和深度图引导各向异性平滑的场景流估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106485675B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106952291B (zh) * | 2017-03-14 | 2020-07-14 | 哈尔滨工程大学 | 基于3维结构张量各向异性流驱动的场景流车流量统计与测速方法 |
CN107169933B (zh) * | 2017-04-14 | 2020-08-18 | 浙江光珀智能科技有限公司 | 一种基于tof深度相机的边缘反射像素校正方法 |
CN107341815B (zh) * | 2017-06-01 | 2020-10-16 | 哈尔滨工程大学 | 基于多目立体视觉场景流的剧烈运动检测方法 |
CN107767393B (zh) * | 2017-09-07 | 2021-05-25 | 南京信息工程大学 | 一种面向移动硬件的场景流估计方法 |
CN107657644B (zh) * | 2017-09-28 | 2019-11-15 | 浙江大华技术股份有限公司 | 一种移动环境下稀疏场景流检测方法和装置 |
CN108932725B (zh) * | 2018-06-08 | 2021-10-26 | 哈尔滨工程大学 | 基于卷积神经网络的场景流估计方法 |
CN111066063B (zh) * | 2018-06-29 | 2023-07-21 | 百度时代网络技术(北京)有限公司 | 利用卷积空间传播网络学习的亲和度进行深度估计的系统和方法 |
CN110473228B (zh) * | 2019-07-03 | 2022-03-04 | 西安理工大学 | Rgbd视频中基于局部刚性假设的场景流估计方法 |
US10748351B1 (en) | 2019-08-05 | 2020-08-18 | Sony Corporation | Shape refinement of three dimensional shape model |
CN110992342B (zh) * | 2019-12-05 | 2023-04-18 | 电子科技大学 | 基于3datv约束的spcp红外弱小目标检测方法 |
CN112446179B (zh) * | 2020-12-10 | 2024-05-14 | 华中科技大学 | 一种基于变分光流模型的流体速度测量方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318569A (zh) * | 2014-10-27 | 2015-01-28 | 北京工业大学 | 基于深度变分模型的空间显著性区域提取方法 |
CN104680544A (zh) * | 2015-03-18 | 2015-06-03 | 哈尔滨工程大学 | 基于3维流场正则化的变分场景流估计方法 |
-
2016
- 2016-09-27 CN CN201610854331.0A patent/CN106485675B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318569A (zh) * | 2014-10-27 | 2015-01-28 | 北京工业大学 | 基于深度变分模型的空间显著性区域提取方法 |
CN104680544A (zh) * | 2015-03-18 | 2015-06-03 | 哈尔滨工程大学 | 基于3维流场正则化的变分场景流估计方法 |
Non-Patent Citations (1)
Title |
---|
大规模场景流体模拟的耦合算法;武小龙等;《计算机辅助设计与图形学学报》;20110630;1029-1031 |
Also Published As
Publication number | Publication date |
---|---|
CN106485675A (zh) | 2017-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106485675B (zh) | 一种基于3d局部刚性和深度图引导各向异性平滑的场景流估计方法 | |
CN103247075B (zh) | 基于变分机制的室内环境三维重建方法 | |
CN104869387B (zh) | 基于光流法的双目图像最大视差获取方法 | |
CN102880866B (zh) | 一种人脸特征提取方法 | |
CN105631861B (zh) | 结合高度图从无标记单目图像中恢复三维人体姿态的方法 | |
CN103400409B (zh) | 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法 | |
CN107204010A (zh) | 一种单目图像深度估计方法与系统 | |
CN106803267A (zh) | 基于Kinect的室内场景三维重建方法 | |
CN104036488B (zh) | 一种基于双目视觉的人体姿态动作研究方法 | |
CN108564616A (zh) | 快速鲁棒的rgb-d室内三维场景重建方法 | |
CN112001926B (zh) | 基于多维语义映射rgbd多相机标定方法、系统及应用 | |
CN104318569A (zh) | 基于深度变分模型的空间显著性区域提取方法 | |
CN105809687A (zh) | 一种基于图像中边沿点信息的单目视觉测程方法 | |
CN103106688A (zh) | 基于双层配准方法的室内三维场景重建方法 | |
CN113256698B (zh) | 一种具有深度预测的单目3d重建方法 | |
Yang et al. | Reactive obstacle avoidance of monocular quadrotors with online adapted depth prediction network | |
CN102368137B (zh) | 嵌入式标定立体视觉系统 | |
CN106056622B (zh) | 一种基于Kinect相机的多视点深度视频复原方法 | |
CN102521846B (zh) | 基于3d视频的时空域运动分割与运动估计方法 | |
CN104680544B (zh) | 基于3维流场正则化的变分场景流估计方法 | |
CN107527366A (zh) | 一种面向深度相机的相机跟踪方法 | |
CN105279758A (zh) | 使用双球的相切像与圆环点的像标定拋物折反射摄像机 | |
CN109978919A (zh) | 一种基于单目相机的车辆定位方法及系统 | |
CN105321181A (zh) | 使用双球的相离像与圆环点的像标定拋物折反射摄像机 | |
CN114677479A (zh) | 一种基于深度学习的自然景观多视图三维重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |