CN108520537B - 一种基于光度视差的双目深度获取方法 - Google Patents

一种基于光度视差的双目深度获取方法 Download PDF

Info

Publication number
CN108520537B
CN108520537B CN201810270422.9A CN201810270422A CN108520537B CN 108520537 B CN108520537 B CN 108520537B CN 201810270422 A CN201810270422 A CN 201810270422A CN 108520537 B CN108520537 B CN 108520537B
Authority
CN
China
Prior art keywords
depth
camera
image
depth map
reflectivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810270422.9A
Other languages
English (en)
Other versions
CN108520537A (zh
Inventor
晁志超
班永灵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201810270422.9A priority Critical patent/CN108520537B/zh
Publication of CN108520537A publication Critical patent/CN108520537A/zh
Application granted granted Critical
Publication of CN108520537B publication Critical patent/CN108520537B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于光度视差的双目深度获取方法,属于立体视觉技术领域。本发明所述方法包括标定双目摄像机、立体匹配、深度图滤波、左右相机坐标系深度图转换、初始法向量计算和深度图优化六个步骤。本发明所述方法利用立体匹配的深度作为初始深度,提供了先验条件,简化了计算过程;该方法利用左右视图的灰度信息,较利用单幅图像的灰度信息,加入了光度视差的约束条件,重建精度更高。

Description

一种基于光度视差的双目深度获取方法
技术领域
本发明属于立体视觉技术领域,具体涉及一种基于光度视差的双目深度获取方法。
背景技术
立体视觉是计算机视觉中的一个关键性问题,它的目标是通过单个或两个以上的摄像机来获取拍摄物体的深度信息。双目立体视觉是其中的一种重要形式,它利用成像设备从左右两个不同角度获取被测物体的两幅图像,计算两幅图像之间对应点的位置偏差,获得视差图。通过视差图与相机内外参数重建的深度信息被广泛应用于机器人视觉、航空测绘、医学诊断、工业监控、军事工程、三维物体表面建模等领域。相较于结构光获取场景三维信息,双目视觉对硬件需求更低,但重建物体表面精细程度低于结构光。光度学是1970年由朗博建立,定义了光通量、发光强度、照度、亮度等主要光度学参数。摄像机成像过程除满足几何模型外,还满足光度学模型。即在成像过程中,能通过光度学理论建立环境光照度与图像亮度之间的关系模型。在此基础之上衍生的三维重建方法有阴影重建法、光度立体法等。阴影重建法利用图像中的明暗信息,获得物体的三维形状信息,该方法仅通过一幅图像即可重建物体的相对深度信息;光度立体法使用多个光源从不同角度轮流照射物体,分别采集多幅图像求得曲面的反射方程与物体表面法向量,对法向量积分可恢复物体表面各点的相对高度。利用光度学理论重建的物体表面精细度高,故基于光度学的重建方法在医学图像处理、卫星遥感技术、工业过程检测等诸多领域也有着广泛的应用。
现有的立体匹配算法,测量得到的深度信息存在严重的深度不连续性。通过对测量结果进行双边滤波等后处理操作,虽能有效减少测量物体表面的不连续性,但仍无法重建出物体表面的精细信息。当系统对重建物体表面精细度要求较高时,传统的双目立体匹配方法无法适用。而单纯使用光度学的重建方法由于反射模型,光源条件,图像质量等方面的限制,其具体应用和效果都受到很大的限制,虽能重建出精细度较高的表面信息,但测量物体在整体尺度上存在较大偏差。
发明内容
本发明的目的是克服上述现有技术的不足,提供一种基于光度视差的双目深度获取方法。
本发明所提出的技术问题是这样解决的:
一种基于光度视差的双目深度获取方法,包括以下步骤:
步骤1.标定双目摄像机
对单摄像机内参矩阵、畸变系数矩阵和双摄像机的外参矩阵进行标定,并通过标定参数实现左右视图极线校正;
步骤2.立体匹配
对极线校正后的左右视图图像进行同名点匹配,得到左右视图的视差图,再根据视差图和步骤1中标定得到的双摄像机外参矩阵得到深度图;
步骤3.深度图滤波
由于匹配过程中的各种不确定性,物体深度图存在深度不连续,噪声大等问题,因此在对深度图进行优化前,需通过双边滤波等方式对初始深度图进行预处理,滤除空间离群点,平滑深度图中由匹配误差引入的深度不连续区域;
步骤4.左右相机坐标系深度图转换
一次立体匹配,只能获取到一个相机坐标系下物体的深度信息,而深度代价函数由左右两图建立的反射模型构造。因此,立体匹配完成后需将左相机坐标系下的深度图转换至右相机坐标系下,并建立左右图像素点对应关系;
通过相机标定过程中获取的相机外参、内参,以及立体匹配中获取的同名点对应关系,可建立左右相机深度图对应关系如下所示:
Figure BDA0001612394400000021
其中(i,j)为图像坐标,[r31r32r33]为左右相机标定的外参旋转矩阵末行参数,(ux,uy)为左相机主点,(fx,fy)为左相机焦距,zL(i,j)为左图的深度信息,zR(i,j)为右图对应点的深度信息,上标T表示向量转置;
步骤5.初始法向量计算
在平滑后的深度图基础上,通过法向量计算准则,分别求取左右图的初始法向量信息;
步骤6.深度图优化
根据光度学理论,相机成像单元的感光强度与环境光光强、光源方向与物体表面法向量夹角、物体表面反射率等参数有关,以上参数统称为相机成像光度学模型参数;由于左右相机存在视差,双相机成像光度学模型的参数存在差异;利用该差异信息,可增加深度图优化的约束条件;在自然光照环境下,光照函数可通过一组正交球谐波函数基表示;为构造合理的深度图优化代价函数,将环境光照简化为一阶球谐波函数表示;因此在优化深度图前需计算的相机成像光度学模型参数包括左右图球谐波系数、反射率、过拟合惩罚项;最后,联合左右图参数构建深度图优化代价函数,获得具有精细表面的深度图;
步骤6-1.左右图球谐波系数计算
根据光度学理论基础,物体表面入射光强与图像灰度信息的关系可表示为:
Figure BDA0001612394400000031
其中I(i,j)为图像灰度信息,a(i,j)为物体反射率,
Figure BDA0001612394400000032
为入射光光强分布函数,b(i,j)为过拟合惩罚项,
Figure BDA0001612394400000033
为物体表面初始法向量;
在自然光照条件下,入射光光强分布函数
Figure BDA0001612394400000034
可简化为一阶球谐波函数:
其中
Figure BDA0001612394400000036
为一阶球谐波函数系数,上标T表示向量转置;
为简化计算方法,首先假设物体表面反射率相同,且无过拟合惩罚项,即设a(i,j)为固定值1,b(i,j)为固定值0,最小化公式(4)求解该光照条件下一阶球谐波函数系数
Figure BDA0001612394400000038
步骤6-2.左右图反射率计算
为更精确的构造光照模型,在公式(4)中加入反射率a(i,j);由于真实世界中物体表面深度、颜色具有连续性,加入补偿项c(i,j)对a(i,j)优化结果进行平滑性约束;固定谐波系数
Figure BDA0001612394400000039
最小化公式(5)可求解物体每点的反射率a(i,j):
Figure BDA00016123944000000310
其中λa为常数平滑权重,|| ||2为取二范数;
其中,反射率约束项c(i,j)可表示如下:
Figure BDA00016123944000000311
k的范围是[1,N],N为位于当前像素(i,j)周围邻域内的总的像素数目,反射率约束项c(i,j)根据当前像素点N邻域像素数据进行处理,分为对二维图像灰度值I(i,j)进行的约束和对三维深度值z(i,j)的约束两部分:其中ωk c为灰度平滑约束项权重,ωk d为深度平滑约束项权重;σc、σd分别为二维图像灰度值I(i,j)和三维深度值z(i,j)对应的表示平滑项强弱的方差,根据实际测量目标的噪声而不同;ak(i,j)为像素邻域内像素对应的反射率,zk(i,j)为像素邻域内像素对应的深度值,Ik(i,j)为像素邻域内像素对应的图像灰度值;
步骤6-3.过拟合惩罚项求解
为防止物体高光,尖锐和阴影部分引入误差,加入惩罚项b(i,j),最小化公式(7)可求解物体每点的惩罚项b(i,j):
其中,bk(i,j))为像素邻域内像素对应的惩罚项,
Figure BDA0001612394400000042
Figure BDA0001612394400000043
分别为第一权重值和第二权重值;
步骤6-4.深度值优化
联合左右图球谐波系数、反射率、过拟合惩罚项,构造整体优化代价函数:
Figure BDA0001612394400000044
z0为深度图滤波后得到的初始深度值、Δ为梯度算符,R为右相机到做相机的转换矩阵;
其中,aL,bL,IL,SL
Figure BDA0001612394400000045
为步骤6-1至步骤6-3求得的左图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,aR,bR,IR,SR为步骤6-1至步骤6-3求得的右图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,zn为n次迭代后的深度值。为防止优化后深度与初始深度偏差太大,代价函数中引入附加项,λ1 zL2 zL为左图附加项权重系数,λ1 zR2 zR为右图附加项权重系数;R为左右图相同点深度转换关系:
Figure BDA0001612394400000047
最小化公式(8)的代价函数,可获得优化后的物体深度,该深度信息在整体上具有正确的空间尺度,同时具有精细的表面结构。
本发明的有益效果是:
本发明所述方法在传统双目立体匹配的基础上,引入光度理论,建立具有视差的双目法向量信息来优化双目立体匹配获得的初始深度信息;该方法利用立体匹配的深度作为初始深度,提供了先验条件,简化了计算过程;该方法利用左右视图的灰度信息,较利用单幅图像的灰度信息,加入了光度视差的约束条件,重建精度更高。
附图说明
图1为本发明所述方法的装置图;
图2为本发明所述方法的算法流程图。
具体实施方式
下面结合附图和实施例对本发明进行进一步的说明。
本实施例提供一种基于光度视差的双目深度获取方法,其装置图如图1所示,算法流程图如图2所示,包括以下步骤:
步骤1.标定双目摄像机
对单摄像机内参矩阵、畸变系数矩阵和双摄像机的外参矩阵进行标定,并通过标定参数实现左右视图极线校正;
步骤2.立体匹配
对极线校正后的左右视图图像进行同名点匹配,得到左右视图的视差图,再根据视差图和步骤1中标定得到的双摄像机外参矩阵得到深度图;
步骤3.深度图滤波
由于匹配过程中的各种不确定性,物体深度图存在深度不连续,噪声大等问题,因此在对深度图进行优化前,需通过双边滤波等方式对初始深度图进行预处理,滤除空间离群点,平滑深度图中由匹配误差引入的深度不连续区域;
步骤4.左右相机坐标系深度图转换
一次立体匹配,只能获取到一个相机坐标系下物体的深度信息,而深度代价函数由左右两图建立的反射模型构造。因此,立体匹配完成后需将左相机坐标系下的深度图转换至右相机坐标系下,并建立左右图像素点对应关系;
通过相机标定过程中获取的相机外参、内参,以及立体匹配中获取的同名点对应关系,可建立左右相机深度图对应关系如下所示:
其中(i,j)为图像坐标,[r31 r32 r33]为左右相机标定的外参旋转矩阵末行参数,(ux,uy)为左相机主点,(fx,fy)为左相机焦距,zL(i,j)为左图的深度信息,zR(i,j)为右图对应点的深度信息,上标T表示向量转置;
步骤5.初始法向量计算
在平滑后的深度图基础上,通过法向量计算准则,分别求取左右图的初始法向量信息;
步骤6.深度图优化
根据光度学理论,相机成像单元的感光强度与环境光光强、光源方向与物体表面法向量夹角、物体表面反射率等参数有关,以上参数统称为相机成像光度学模型参数;由于左右相机存在视差,双相机成像光度学模型的参数存在差异;利用该差异信息,可增加深度图优化的约束条件;在自然光照环境下,光照函数可通过一组正交球谐波函数基表示;为构造合理的深度图优化代价函数,将环境光照简化为一阶球谐波函数表示;因此在优化深度图前需计算的相机成像光度学模型参数包括左右图球谐波系数、反射率、过拟合惩罚项;最后,联合左右图参数构建深度图优化代价函数,获得具有精细表面的深度图;
步骤6-1.左右图球谐波系数计算
根据光度学理论基础,物体表面入射光强与图像灰度信息的关系可表示为:
Figure BDA0001612394400000061
其中I(i,j)为图像灰度信息,a(i,j)为物体反射率,
Figure BDA0001612394400000062
为入射光光强分布函数,b(i,j)为过拟合惩罚项,
Figure BDA0001612394400000063
为物体表面初始法向量;
在自然光照条件下,入射光光强分布函数
Figure BDA0001612394400000064
可简化为一阶球谐波函数:
Figure BDA0001612394400000065
其中
Figure BDA0001612394400000066
为一阶球谐波函数系数,上标T表示向量转置;
为简化计算方法,首先假设物体表面反射率相同,且无过拟合惩罚项,即设a(i,j)为固定值1,b(i,j)为固定值0,最小化公式(4)求解该光照条件下一阶球谐波函数系数
Figure BDA0001612394400000067
Figure BDA0001612394400000068
步骤6-2.左右图反射率计算
为更精确的构造光照模型,在公式(4)中加入反射率a(i,j);由于真实世界中物体表面深度、颜色具有连续性,加入补偿项c(i,j)对a(i,j)优化结果进行平滑性约束;固定谐波系数
Figure BDA0001612394400000069
最小化公式(5)可求解物体每点的反射率a(i,j):
其中λa为常数平滑权重,|| ||2为取二范数;
其中,反射率约束项c(i,j)可表示如下:
Figure BDA0001612394400000071
k的范围是[1,N],N为位于当前像素(i,j)周围邻域内的总的像素数目,反射率约束项c(i,j)根据当前像素点N邻域像素数据进行处理,分为对二维图像灰度值I(i,j)进行的约束和对三维深度值z(i,j)的约束两部分:其中ωk c为灰度平滑约束项权重,ωk d为深度平滑约束项权重;σc、σd分别为二维图像灰度值I(i,j)和三维深度值z(i,j)对应的表示平滑项强弱的方差,根据实际测量目标的噪声而不同;ak(i,j)为像素邻域内像素对应的反射率,zk(i,j)为像素邻域内像素对应的深度值,Ik(i,j)为像素邻域内像素对应的图像灰度值;
步骤6-3.过拟合惩罚项求解
为防止物体高光,尖锐和阴影部分引入误差,加入惩罚项b(i,j),最小化公式(7)可求解物体每点的惩罚项b(i,j):
Figure BDA0001612394400000072
其中,bk(i,j))为像素邻域内像素对应的惩罚项,
Figure BDA0001612394400000073
Figure BDA0001612394400000074
分别为第一权重值和第二权重值;
步骤6-4.深度值优化
联合左右图球谐波系数、反射率、过拟合惩罚项,构造整体优化代价函数:
Figure BDA0001612394400000075
z0为深度图滤波后得到的初始深度值、Δ为梯度算符,R为右相机到做相机的转换矩阵;
其中,aL,bL,IL,SL
Figure BDA0001612394400000076
为步骤6-1至步骤6-3求得的左图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,aR,bR,IR,SR
Figure BDA0001612394400000077
为步骤6-1至步骤6-3求得的右图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,zn为n次迭代后的深度值。为防止优化后深度与初始深度偏差太大,代价函数中引入附加项,λ1 zL2 zL为左图附加项权重系数,λ1 zR2 zR为右图附加项权重系数;R为左右图相同点深度转换关系:
最小化公式(8)的代价函数,可获得优化后的物体深度,该深度信息在整体上具有正确的空间尺度,同时具有精细的表面结构。

Claims (5)

1.一种基于光度视差的双目深度获取方法,其特征在于,包括以下步骤:
步骤1.标定双目摄像机
对单摄像机内参矩阵、畸变系数矩阵和双摄像机的外参矩阵进行标定,并通过标定参数实现左右视图极线校正;
步骤2.立体匹配
对极线校正后的左右视图图像进行同名点匹配,得到左右视图的视差图,再根据视差图和步骤1中标定得到的双摄像机外参矩阵得到深度图;
步骤3.深度图滤波
通过双边滤波方式对初始深度图进行预处理,滤除空间离群点,平滑深度图中由匹配误差引入的深度不连续区域;
步骤4.左右相机坐标系深度图转换
将左相机坐标系下的深度图转换至右相机坐标系下,并建立左右图像素点对应关系;
通过相机标定过程中获取的相机外参、内参,以及立体匹配中获取的同名点对应关系,建立左右相机深度图对应关系如下所示:
Figure FDA0002232034320000011
其中(i,j)为图像坐标,[r31 r32 r33]为左右相机标定的外参旋转矩阵末行参数,(ux,uy)为左相机主点,(fx,fy)为左相机焦距,zL(i,j)为左图的深度信息,zR(i,j)为右图对应点的深度信息,上标T表示向量转置;
步骤5.初始法向量计算
在平滑后的深度图基础上,通过法向量计算准则,分别求取左右图的初始法向量信息;
步骤6.深度图优化
相机成像单元的感光强度与环境光光强、光源方向与物体表面法向量夹角、物体表面反射率有关,以上参数统称为相机成像光度学模型参数;由于左右相机存在视差,双相机成像光度学模型的参数存在差异;利用该差异信息,增加深度图优化的约束条件;在自然光照环境下,光照函数可通过一组正交球谐波函数基表示;为构造合理的深度图优化代价函数,将环境光照简化为一阶球谐波函数表示;因此在优化深度图前需计算的相机成像光度学模型参数包括左右图球谐波系数、反射率、过拟合惩罚项;最后,联合左右图参数构建深度图优化代价函数,获得具有精细表面的深度图。
2.根据权利要求1所述的基于光度视差的双目深度获取方法,其特征在于,步骤6中左右图球谐波系数计算方法如下:
物体表面入射光强与图像灰度信息的关系可表示为:
Figure FDA0002232034320000021
其中I(i,j)为图像灰度信息,a(i,j)为物体反射率,
Figure FDA0002232034320000022
为入射光光强分布函数,b(i,j)为过拟合惩罚项,
Figure FDA0002232034320000023
为物体表面初始法向量;
在自然光照条件下,入射光光强分布函数
Figure FDA0002232034320000024
可简化为一阶球谐波函数:
Figure FDA0002232034320000025
其中为一阶球谐波函数系数,上标T表示向量转置;
为简化计算方法,首先假设物体表面反射率相同,且无过拟合惩罚项,令a(i,j)为固定值1,b(i,j)为固定值0,最小化公式(4)求解该光照条件下一阶球谐波函数系数
Figure FDA0002232034320000027
Figure FDA0002232034320000028
3.根据权利要求2所述的基于光度视差的双目深度获取方法,其特征在于,步骤6中左右图反射率计算方法如下:
在公式(4)中加入反射率a(i,j),加入反射率约束项c(i,j)对a(i,j)优化结果进行平滑性约束;固定一阶球谐波函数系数
Figure FDA0002232034320000029
最小化公式(5)可求解物体每点的反射率a(i,j):
Figure FDA00022320343200000210
其中λa为常数平滑权重,|| ||2为取二范数;
其中,反射率约束项c(i,j)可表示如下:
Figure FDA00022320343200000211
k的范围是[1,N],N为位于当前像素(i,j)周围邻域内的总的像素数目,反射率约束项c(i,j)根据当前像素点N邻域像素数据进行处理,分为对二维图像灰度值I(i,j)进行的约束和对三维深度值z(i,j)的约束两部分:其中ωk c为灰度平滑约束项权重,ωk d为深度平滑约束项权重;σc、σd分别为二维图像灰度值I(i,j)和三维深度值z(i,j)对应的表示平滑项强弱的方差,根据实际测量目标的噪声而不同;ak(i,j)为像素邻域内像素对应的反射率,zk(i,j)为像素邻域内像素对应的深度值,Ik(i,j)为像素邻域内像素对应的图像灰度值。
4.根据权利要求3所述的基于光度视差的双目深度获取方法,其特征在于,步骤6中过拟合惩罚项求解方法如下:
加入惩罚项b(i,j),
Figure FDA0002232034320000031
Figure FDA0002232034320000032
最小化公式(7)可求解物体每点的惩罚项b(i,j):
Figure FDA0002232034320000033
其中,bk(i,j))为像素邻域内像素对应的惩罚项,
Figure FDA0002232034320000034
Figure FDA0002232034320000035
分别为第一权重值和第二权重值。
5.根据权利要求4所述的基于光度视差的双目深度获取方法,其特征在于,步骤6中深度图优化方法如下:
联合左右图球谐波系数、反射率、过拟合惩罚项,构造整体优化代价函数:
Figure FDA0002232034320000036
z0为深度图滤波后得到的初始深度值、Δ为梯度算符,R为右相机到左相机的转换矩阵;
其中,aL,bL,IL,SL
Figure FDA0002232034320000037
为左图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,aR,bR,IR,SR
Figure FDA0002232034320000038
为右图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,zn为n次迭代后的深度值;为防止优化后深度与初始深度偏差太大,代价函数中引入附加项,λ1 zL,λ2 zL为左图附加项权重系数,λ1 zR,λ2 zR为右图附加项权重系数;
Figure FDA0002232034320000039
最小化公式(8)的代价函数,可获得优化后的物体深度,该深度信息在整体上具有正确的空间尺度,同时具有精细的表面结构。
CN201810270422.9A 2018-03-29 2018-03-29 一种基于光度视差的双目深度获取方法 Expired - Fee Related CN108520537B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810270422.9A CN108520537B (zh) 2018-03-29 2018-03-29 一种基于光度视差的双目深度获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810270422.9A CN108520537B (zh) 2018-03-29 2018-03-29 一种基于光度视差的双目深度获取方法

Publications (2)

Publication Number Publication Date
CN108520537A CN108520537A (zh) 2018-09-11
CN108520537B true CN108520537B (zh) 2020-02-18

Family

ID=63431367

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810270422.9A Expired - Fee Related CN108520537B (zh) 2018-03-29 2018-03-29 一种基于光度视差的双目深度获取方法

Country Status (1)

Country Link
CN (1) CN108520537B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109615652B (zh) * 2018-10-23 2020-10-27 西安交通大学 一种深度信息获取方法及装置
CN109741385A (zh) * 2018-12-24 2019-05-10 浙江大华技术股份有限公司 一种图像处理系统、方法、装置、电子设备及存储介质
CN111062900B (zh) * 2019-11-21 2021-02-12 西北工业大学 一种基于置信度融合的双目视差图增强方法
CN110992431B (zh) * 2019-12-16 2023-04-18 电子科技大学 一种双目内窥镜软组织图像的联合三维重建方法
CN111210481A (zh) * 2020-01-10 2020-05-29 大连理工大学 多波段立体相机的深度估计加速方法
CN111539280B (zh) * 2020-04-15 2024-04-09 深圳一清创新科技有限公司 基于自动驾驶技术的路面清扫方法、装置和计算机设备
CN111951376B (zh) * 2020-07-28 2023-04-07 中国科学院深圳先进技术研究院 融合结构光和光度学的三维对象重建方法及终端设备
CN112634375B (zh) * 2020-12-21 2022-08-05 杭州东信北邮信息技术有限公司 一种ai智能检测中的平面标定和三维重建方法
CN113052886A (zh) * 2021-04-09 2021-06-29 同济大学 一种采用双目原理的双tof相机深度信息获取方法
CN113534176A (zh) * 2021-06-22 2021-10-22 武汉工程大学 基于图正则化的光场高精度三维测距方法
CN114612544B (zh) * 2022-03-11 2024-01-02 北京百度网讯科技有限公司 图像处理方法、装置、设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103236082A (zh) * 2013-04-27 2013-08-07 南京邮电大学 面向捕获静止场景的二维视频的准三维重建方法
CN107578430A (zh) * 2017-07-26 2018-01-12 昆明理工大学 一种基于自适应权值和局部熵的立体匹配方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105894499B (zh) * 2016-03-25 2018-09-14 华南理工大学 一种基于双目视觉的空间物体三维信息快速检测方法
CN107087150B (zh) * 2017-04-26 2019-05-21 成都通甲优博科技有限责任公司 一种基于双目立体和光度立体的三维摄像方法、系统及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103236082A (zh) * 2013-04-27 2013-08-07 南京邮电大学 面向捕获静止场景的二维视频的准三维重建方法
CN107578430A (zh) * 2017-07-26 2018-01-12 昆明理工大学 一种基于自适应权值和局部熵的立体匹配方法

Also Published As

Publication number Publication date
CN108520537A (zh) 2018-09-11

Similar Documents

Publication Publication Date Title
CN108520537B (zh) 一种基于光度视差的双目深度获取方法
CN109919911B (zh) 基于多视角光度立体的移动三维重建方法
CN108510551B (zh) 一种远距离大视场条件下相机参数的标定方法及系统
CN114399554B (zh) 一种多相机系统的标定方法及系统
CN103278138B (zh) 一种复杂结构薄部件三维位置及姿态的测量方法
CN104537707B (zh) 像方型立体视觉在线移动实时测量系统
CN107155341B (zh) 三维扫描系统和框架
CN112308963B (zh) 一种无感三维人脸重建方法及采集重建系统
CN110345921B (zh) 立体视场视觉测量及垂轴像差和轴向像差校正方法及系统
CN110363838B (zh) 基于多球面相机模型的大视野图像三维重构优化方法
CN110599578A (zh) 一种真实感三维彩色纹理重建方法
CN114283203B (zh) 一种多相机系统的标定方法及系统
CN110782498B (zh) 一种视觉传感网络的快速通用标定方法
CN111027415B (zh) 一种基于偏振图像的车辆检测方法
CN111189416B (zh) 基于特征相位约束的结构光360°三维面形测量方法
CN110349257B (zh) 一种基于相位伪映射的双目测量缺失点云插补方法
CN109087339A (zh) 一种激光扫描点与影像配准方法
CN111354077A (zh) 一种基于双目视觉的三维人脸重建方法
CN112734824A (zh) 一种基于广义光度立体模型的三维重建方法
CN110992429B (zh) 一种单一场景大视场相机外参数标定方法
CN110378967B (zh) 一种光栅投射与立体视觉结合的虚拟靶标标定方法
CN108830921A (zh) 基于入射角度的激光点云反射强度纠正方法
CN108898550B (zh) 基于空间三角面片拟合的图像拼接方法
CN116152442B (zh) 一种三维点云模型生成方法及装置
CN110458879A (zh) 一种基于机器视觉的室内定位与地图构建装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200218