CN108520537A - 一种基于光度视差的双目深度获取方法 - Google Patents

一种基于光度视差的双目深度获取方法 Download PDF

Info

Publication number
CN108520537A
CN108520537A CN201810270422.9A CN201810270422A CN108520537A CN 108520537 A CN108520537 A CN 108520537A CN 201810270422 A CN201810270422 A CN 201810270422A CN 108520537 A CN108520537 A CN 108520537A
Authority
CN
China
Prior art keywords
depth
camera
reflectivity
depth map
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810270422.9A
Other languages
English (en)
Other versions
CN108520537B (zh
Inventor
晁志超
班永灵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201810270422.9A priority Critical patent/CN108520537B/zh
Publication of CN108520537A publication Critical patent/CN108520537A/zh
Application granted granted Critical
Publication of CN108520537B publication Critical patent/CN108520537B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于光度视差的双目深度获取方法,属于立体视觉技术领域。本发明所述方法包括标定双目摄像机、立体匹配、深度图滤波、左右相机坐标系深度图转换、初始法向量计算和深度图优化六个步骤。本发明所述方法利用立体匹配的深度作为初始深度,提供了先验条件,简化了计算过程;该方法利用左右视图的灰度信息,较利用单幅图像的灰度信息,加入了光度视差的约束条件,重建精度更高。

Description

一种基于光度视差的双目深度获取方法
技术领域
本发明属于立体视觉技术领域,具体涉及一种基于光度视差的双目深度获取方法。
背景技术
立体视觉是计算机视觉中的一个关键性问题,它的目标是通过单个或两个以上的摄像机来获取拍摄物体的深度信息。双目立体视觉是其中的一种重要形式,它利用成像设备从左右两个不同角度获取被测物体的两幅图像,计算两幅图像之间对应点的位置偏差,获得视差图。通过视差图与相机内外参数重建的深度信息被广泛应用于机器人视觉、航空测绘、医学诊断、工业监控、军事工程、三维物体表面建模等领域。相较于结构光获取场景三维信息,双目视觉对硬件需求更低,但重建物体表面精细程度低于结构光。光度学是1970年由朗博建立,定义了光通量、发光强度、照度、亮度等主要光度学参数。摄像机成像过程除满足几何模型外,还满足光度学模型。即在成像过程中,能通过光度学理论建立环境光照度与图像亮度之间的关系模型。在此基础之上衍生的三维重建方法有阴影重建法、光度立体法等。阴影重建法利用图像中的明暗信息,获得物体的三维形状信息,该方法仅通过一幅图像即可重建物体的相对深度信息;光度立体法使用多个光源从不同角度轮流照射物体,分别采集多幅图像求得曲面的反射方程与物体表面法向量,对法向量积分可恢复物体表面各点的相对高度。利用光度学理论重建的物体表面精细度高,故基于光度学的重建方法在医学图像处理、卫星遥感技术、工业过程检测等诸多领域也有着广泛的应用。
现有的立体匹配算法,测量得到的深度信息存在严重的深度不连续性。通过对测量结果进行双边滤波等后处理操作,虽能有效减少测量物体表面的不连续性,但仍无法重建出物体表面的精细信息。当系统对重建物体表面精细度要求较高时,传统的双目立体匹配方法无法适用。而单纯使用光度学的重建方法由于反射模型,光源条件,图像质量等方面的限制,其具体应用和效果都受到很大的限制,虽能重建出精细度较高的表面信息,但测量物体在整体尺度上存在较大偏差。
发明内容
本发明的目的是克服上述现有技术的不足,提供一种基于光度视差的双目深度获取方法。
本发明所提出的技术问题是这样解决的:
一种基于光度视差的双目深度获取方法,包括以下步骤:
步骤1.标定双目摄像机
对单摄像机内参矩阵、畸变系数矩阵和双摄像机的外参矩阵进行标定,并通过标定参数实现左右视图极线校正;
步骤2.立体匹配
对极线校正后的左右视图图像进行同名点匹配,得到左右视图的视差图,再根据视差图和步骤1中标定得到的双摄像机外参矩阵得到深度图;
步骤3.深度图滤波
由于匹配过程中的各种不确定性,物体深度图存在深度不连续,噪声大等问题,因此在对深度图进行优化前,需通过双边滤波等方式对初始深度图进行预处理,滤除空间离群点,平滑深度图中由匹配误差引入的深度不连续区域;
步骤4.左右相机坐标系深度图转换
一次立体匹配,只能获取到一个相机坐标系下物体的深度信息,而深度代价函数由左右两图建立的反射模型构造。因此,立体匹配完成后需将左相机坐标系下的深度图转换至右相机坐标系下,并建立左右图像素点对应关系;
通过相机标定过程中获取的相机外参、内参,以及立体匹配中获取的同名点对应关系,可建立左右相机深度图对应关系如下所示:
其中(i,j)为图像坐标,[r31r32r33]为左右相机标定的外参旋转矩阵末行参数,(ux,uy)为左相机主点,(fx,fy)为左相机焦距,zL(i,j)为左图的深度信息,zR(i,j)为右图对应点的深度信息,上标T表示向量转置;
步骤5.初始法向量计算
在平滑后的深度图基础上,通过法向量计算准则,分别求取左右图的初始法向量信息;
步骤6.深度图优化
根据光度学理论,相机成像单元的感光强度与环境光光强、光源方向与物体表面法向量夹角、物体表面反射率等参数有关,以上参数统称为相机成像光度学模型参数;由于左右相机存在视差,双相机成像光度学模型的参数存在差异;利用该差异信息,可增加深度图优化的约束条件;在自然光照环境下,光照函数可通过一组正交球谐波函数基表示;为构造合理的深度图优化代价函数,将环境光照简化为一阶球谐波函数表示;因此在优化深度图前需计算的相机成像光度学模型参数包括左右图球谐波系数、反射率、过拟合惩罚项;最后,联合左右图参数构建深度图优化代价函数,获得具有精细表面的深度图;
步骤6-1.左右图球谐波系数计算
根据光度学理论基础,物体表面入射光强与图像灰度信息的关系可表示为:
其中I(i,j)为图像灰度信息,a(i,j)为物体反射率,为入射光光强分布函数,b(i,j)为过拟合惩罚项,为物体表面初始法向量;
在自然光照条件下,入射光光强分布函数可简化为一阶球谐波函数:
其中为一阶球谐波函数系数,上标T表示向量转置;
为简化计算方法,首先假设物体表面反射率相同,且无过拟合惩罚项,即设a(i,j)为固定值1,b(i,j)为固定值0,最小化公式(4)求解该光照条件下一阶球谐波函数系数
步骤6-2.左右图反射率计算
为更精确的构造光照模型,在公式(4)中加入反射率a(i,j);由于真实世界中物体表面深度、颜色具有连续性,加入补偿项c(i,j)对a(i,j)优化结果进行平滑性约束;固定谐波系数最小化公式(5)可求解物体每点的反射率a(i,j):
其中λa为常数平滑权重,|| ||2为取二范数;
其中,反射率约束项c(i,j)可表示如下:
k的范围是[1,N],N为位于当前像素(i,j)周围邻域内的总的像素数目,反射率约束项c(i,j)根据当前像素点N邻域像素数据进行处理,分为对二维图像灰度值I(i,j)进行的约束和对三维深度值z(i,j)的约束两部分:其中ωk c为灰度平滑约束项权重,ωk d为深度平滑约束项权重;σc、σd分别为二维图像灰度值I(i,j)和三维深度值z(i,j)对应的表示平滑项强弱的方差,根据实际测量目标的噪声而不同;ak(i,j)为像素邻域内像素对应的反射率,zk(i,j)为像素邻域内像素对应的深度值,Ik(i,j)为像素邻域内像素对应的图像灰度值;
步骤6-3.过拟合惩罚项求解
为防止物体高光,尖锐和阴影部分引入误差,加入惩罚项b(i,j),最小化公式(7)可求解物体每点的惩罚项b(i,j):
其中,bk(i,j))为像素邻域内像素对应的惩罚项,分别为第一权重值和第二权重值;
步骤6-4.深度值优化
联合左右图球谐波系数、反射率、过拟合惩罚项,构造整体优化代价函数:
z0为深度图滤波后得到的初始深度值、Δ为梯度算符,R为右相机到做相机的转换矩阵;
其中,aL,bL,IL,SL为步骤6-1至步骤6-3求得的左图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,aR,bR,IR,SR为步骤6-1至步骤6-3求得的右图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,zn为n次迭代后的深度值。为防止优化后深度与初始深度偏差太大,代价函数中引入附加项,λ1 zL2 zL为左图附加项权重系数,λ1 zR2 zR为右图附加项权重系数;R为左右图相同点深度转换关系:
最小化公式(8)的代价函数,可获得优化后的物体深度,该深度信息在整体上具有正确的空间尺度,同时具有精细的表面结构。
本发明的有益效果是:
本发明所述方法在传统双目立体匹配的基础上,引入光度理论,建立具有视差的双目法向量信息来优化双目立体匹配获得的初始深度信息;该方法利用立体匹配的深度作为初始深度,提供了先验条件,简化了计算过程;该方法利用左右视图的灰度信息,较利用单幅图像的灰度信息,加入了光度视差的约束条件,重建精度更高。
附图说明
图1为本发明所述方法的装置图;
图2为本发明所述方法的算法流程图。
具体实施方式
下面结合附图和实施例对本发明进行进一步的说明。
本实施例提供一种基于光度视差的双目深度获取方法,其装置图如图1所示,算法流程图如图2所示,包括以下步骤:
步骤1.标定双目摄像机
对单摄像机内参矩阵、畸变系数矩阵和双摄像机的外参矩阵进行标定,并通过标定参数实现左右视图极线校正;
步骤2.立体匹配
对极线校正后的左右视图图像进行同名点匹配,得到左右视图的视差图,再根据视差图和步骤1中标定得到的双摄像机外参矩阵得到深度图;
步骤3.深度图滤波
由于匹配过程中的各种不确定性,物体深度图存在深度不连续,噪声大等问题,因此在对深度图进行优化前,需通过双边滤波等方式对初始深度图进行预处理,滤除空间离群点,平滑深度图中由匹配误差引入的深度不连续区域;
步骤4.左右相机坐标系深度图转换
一次立体匹配,只能获取到一个相机坐标系下物体的深度信息,而深度代价函数由左右两图建立的反射模型构造。因此,立体匹配完成后需将左相机坐标系下的深度图转换至右相机坐标系下,并建立左右图像素点对应关系;
通过相机标定过程中获取的相机外参、内参,以及立体匹配中获取的同名点对应关系,可建立左右相机深度图对应关系如下所示:
其中(i,j)为图像坐标,[r31 r32 r33]为左右相机标定的外参旋转矩阵末行参数,(ux,uy)为左相机主点,(fx,fy)为左相机焦距,zL(i,j)为左图的深度信息,zR(i,j)为右图对应点的深度信息,上标T表示向量转置;
步骤5.初始法向量计算
在平滑后的深度图基础上,通过法向量计算准则,分别求取左右图的初始法向量信息;
步骤6.深度图优化
根据光度学理论,相机成像单元的感光强度与环境光光强、光源方向与物体表面法向量夹角、物体表面反射率等参数有关,以上参数统称为相机成像光度学模型参数;由于左右相机存在视差,双相机成像光度学模型的参数存在差异;利用该差异信息,可增加深度图优化的约束条件;在自然光照环境下,光照函数可通过一组正交球谐波函数基表示;为构造合理的深度图优化代价函数,将环境光照简化为一阶球谐波函数表示;因此在优化深度图前需计算的相机成像光度学模型参数包括左右图球谐波系数、反射率、过拟合惩罚项;最后,联合左右图参数构建深度图优化代价函数,获得具有精细表面的深度图;
步骤6-1.左右图球谐波系数计算
根据光度学理论基础,物体表面入射光强与图像灰度信息的关系可表示为:
其中I(i,j)为图像灰度信息,a(i,j)为物体反射率,为入射光光强分布函数,b(i,j)为过拟合惩罚项,为物体表面初始法向量;
在自然光照条件下,入射光光强分布函数可简化为一阶球谐波函数:
其中为一阶球谐波函数系数,上标T表示向量转置;
为简化计算方法,首先假设物体表面反射率相同,且无过拟合惩罚项,即设a(i,j)为固定值1,b(i,j)为固定值0,最小化公式(4)求解该光照条件下一阶球谐波函数系数
步骤6-2.左右图反射率计算
为更精确的构造光照模型,在公式(4)中加入反射率a(i,j);由于真实世界中物体表面深度、颜色具有连续性,加入补偿项c(i,j)对a(i,j)优化结果进行平滑性约束;固定谐波系数最小化公式(5)可求解物体每点的反射率a(i,j):
其中λa为常数平滑权重,|| ||2为取二范数;
其中,反射率约束项c(i,j)可表示如下:
k的范围是[1,N],N为位于当前像素(i,j)周围邻域内的总的像素数目,反射率约束项c(i,j)根据当前像素点N邻域像素数据进行处理,分为对二维图像灰度值I(i,j)进行的约束和对三维深度值z(i,j)的约束两部分:其中ωk c为灰度平滑约束项权重,ωk d为深度平滑约束项权重;σc、σd分别为二维图像灰度值I(i,j)和三维深度值z(i,j)对应的表示平滑项强弱的方差,根据实际测量目标的噪声而不同;ak(i,j)为像素邻域内像素对应的反射率,zk(i,j)为像素邻域内像素对应的深度值,Ik(i,j)为像素邻域内像素对应的图像灰度值;
步骤6-3.过拟合惩罚项求解
为防止物体高光,尖锐和阴影部分引入误差,加入惩罚项b(i,j),最小化公式(7)可求解物体每点的惩罚项b(i,j):
其中,bk(i,j))为像素邻域内像素对应的惩罚项,分别为第一权重值和第二权重值;
步骤6-4.深度值优化
联合左右图球谐波系数、反射率、过拟合惩罚项,构造整体优化代价函数:
z0为深度图滤波后得到的初始深度值、Δ为梯度算符,R为右相机到做相机的转换矩阵;
其中,aL,bL,IL,SL为步骤6-1至步骤6-3求得的左图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,aR,bR,IR,SR为步骤6-1至步骤6-3求得的右图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,zn为n次迭代后的深度值。为防止优化后深度与初始深度偏差太大,代价函数中引入附加项,λ1 zL2 zL为左图附加项权重系数,λ1 zR2 zR为右图附加项权重系数;R为左右图相同点深度转换关系:
最小化公式(8)的代价函数,可获得优化后的物体深度,该深度信息在整体上具有正确的空间尺度,同时具有精细的表面结构。

Claims (5)

1.一种基于光度视差的双目深度获取方法,其特征在于,包括以下步骤:
步骤1.标定双目摄像机
对单摄像机内参矩阵、畸变系数矩阵和双摄像机的外参矩阵进行标定,并通过标定参数实现左右视图极线校正;
步骤2.立体匹配
对极线校正后的左右视图图像进行同名点匹配,得到左右视图的视差图,再根据视差图和步骤1中标定得到的双摄像机外参矩阵得到深度图;
步骤3.深度图滤波
通过双边滤波方式对初始深度图进行预处理,滤除空间离群点,平滑深度图中由匹配误差引入的深度不连续区域;
步骤4.左右相机坐标系深度图转换
将左相机坐标系下的深度图转换至右相机坐标系下,并建立左右图像素点对应关系;
通过相机标定过程中获取的相机外参、内参,以及立体匹配中获取的同名点对应关系,建立左右相机深度图对应关系如下所示:
其中(i,j)为图像坐标,[r31 r32 r33]为左右相机标定的外参旋转矩阵末行参数,(ux,uy)为左相机主点,(fx,fy)为左相机焦距,zL(i,j)为左图的深度信息,zR(i,j)为右图对应点的深度信息,上标T表示向量转置;
步骤5.初始法向量计算
在平滑后的深度图基础上,通过法向量计算准则,分别求取左右图的初始法向量信息;
步骤6.深度图优化
相机成像单元的感光强度与环境光光强、光源方向与物体表面法向量夹角、物体表面反射率等参数有关,以上参数统称为相机成像光度学模型参数;由于左右相机存在视差,双相机成像光度学模型的参数存在差异;利用该差异信息,增加深度图优化的约束条件;在自然光照环境下,光照函数可通过一组正交球谐波函数基表示;为构造合理的深度图优化代价函数,将环境光照简化为一阶球谐波函数表示;因此在优化深度图前需计算的相机成像光度学模型参数包括左右图球谐波系数、反射率、过拟合惩罚项;最后,联合左右图参数构建深度图优化代价函数,获得具有精细表面的深度图。
2.根据权利要求1所述的基于光度视差的双目深度获取方法,其特征在于,步骤6中左右图球谐波系数计算方法如下:
物体表面入射光强与图像灰度信息的关系可表示为:
其中I(i,j)为图像灰度信息,a(i,j)为物体反射率,为入射光光强分布函数,b(i,j)为过拟合惩罚项,为物体表面初始法向量;
在自然光照条件下,入射光光强分布函数可简化为一阶球谐波函数:
其中为一阶球谐波函数系数,上标T表示向量转置;
为简化计算方法,首先假设物体表面反射率相同,且无过拟合惩罚项,即设a(i,j)为固定值1,b(i,j)为固定值0,最小化公式(4)求解该光照条件下一阶球谐波函数系数
3.根据权利要求1所述的基于光度视差的双目深度获取方法,其特征在于,步骤6中左左右图反射率计算方法如下:
在公式(4)中加入反射率a(i,j),加入补偿项c(i,j)对a(i,j)优化结果进行平滑性约束;固定谐波系数最小化公式(5)可求解物体每点的反射率a(i,j):
其中λa为常数平滑权重,|| ||2为取二范数;
其中,反射率约束项c(i,j)可表示如下:
k的范围是[1,N],N为位于当前像素(i,j)周围邻域内的总的像素数目,反射率约束项c(i,j)根据当前像素点N邻域像素数据进行处理,分为对二维图像灰度值I(i,j)进行的约束和对三维深度值z(i,j)的约束两部分:其中ωk c为灰度平滑约束项权重,ωk d为深度平滑约束项权重;σc、σd分别为二维图像灰度值I(i,j)和三维深度值z(i,j)对应的表示平滑项强弱的方差,根据实际测量目标的噪声而不同;ak(i,j)为像素邻域内像素对应的反射率,zk(i,j)为像素邻域内像素对应的深度值,Ik(i,j)为像素邻域内像素对应的图像灰度值。
4.根据权利要求1所述的基于光度视差的双目深度获取方法,其特征在于,步骤6中过拟合惩罚项求解方法如下:
加入惩罚项b(i,j),最小化公式(7)可求解物体每点的惩罚项b(i,j):
其中,bk(i,j))为像素邻域内像素对应的惩罚项,分别为第一权重值和第二权重值。
5.根据权利要求1所述的基于光度视差的双目深度获取方法,其特征在于,步骤6中深度值优化方法如下:
联合左右图球谐波系数、反射率、过拟合惩罚项,构造整体优化代价函数:
z0为深度图滤波后得到的初始深度值、Δ为梯度算符,R为右相机到做相机的转换矩阵;
其中,aL,bL,IL,SL为步骤6-1至步骤6-3求得的左图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,aR,bR,IR,SR为步骤6-1至步骤6-3求得的右图的反射率、惩罚项、图像灰度值、光强分布和图像法向方向,zn为n次迭代后的深度值。为防止优化后深度与初始深度偏差太大,代价函数中引入附加项,λ1 zL2 zL为左图附加项权重系数,λ1 zR2 zR为右图附加项权重系数;R为左右图相同点深度转换关系:
最小化公式(8)的代价函数,可获得优化后的物体深度,该深度信息在整体上具有正确的空间尺度,同时具有精细的表面结构。
CN201810270422.9A 2018-03-29 2018-03-29 一种基于光度视差的双目深度获取方法 Expired - Fee Related CN108520537B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810270422.9A CN108520537B (zh) 2018-03-29 2018-03-29 一种基于光度视差的双目深度获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810270422.9A CN108520537B (zh) 2018-03-29 2018-03-29 一种基于光度视差的双目深度获取方法

Publications (2)

Publication Number Publication Date
CN108520537A true CN108520537A (zh) 2018-09-11
CN108520537B CN108520537B (zh) 2020-02-18

Family

ID=63431367

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810270422.9A Expired - Fee Related CN108520537B (zh) 2018-03-29 2018-03-29 一种基于光度视差的双目深度获取方法

Country Status (1)

Country Link
CN (1) CN108520537B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109615652A (zh) * 2018-10-23 2019-04-12 西安交通大学 一种深度信息获取方法及装置
CN109741385A (zh) * 2018-12-24 2019-05-10 浙江大华技术股份有限公司 一种图像处理系统、方法、装置、电子设备及存储介质
CN110992431A (zh) * 2019-12-16 2020-04-10 电子科技大学 一种双目内窥镜软组织图像的联合三维重建方法
CN111062900A (zh) * 2019-11-21 2020-04-24 西北工业大学 一种基于置信度融合的双目视差图增强方法
CN111210481A (zh) * 2020-01-10 2020-05-29 大连理工大学 多波段立体相机的深度估计加速方法
CN111539280A (zh) * 2020-04-15 2020-08-14 深圳一清创新科技有限公司 基于自动驾驶技术的路面清扫方法、装置和计算机设备
CN111951376A (zh) * 2020-07-28 2020-11-17 中国科学院深圳先进技术研究院 融合结构光和光度学的三维对象重建方法及终端设备
CN112634375A (zh) * 2020-12-21 2021-04-09 杭州东信北邮信息技术有限公司 一种ai智能检测中的平面标定和三维重建方法
CN113052886A (zh) * 2021-04-09 2021-06-29 同济大学 一种采用双目原理的双tof相机深度信息获取方法
CN113534176A (zh) * 2021-06-22 2021-10-22 武汉工程大学 基于图正则化的光场高精度三维测距方法
CN114612544A (zh) * 2022-03-11 2022-06-10 北京百度网讯科技有限公司 图像处理方法、装置、设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103236082A (zh) * 2013-04-27 2013-08-07 南京邮电大学 面向捕获静止场景的二维视频的准三维重建方法
CN105894499A (zh) * 2016-03-25 2016-08-24 华南理工大学 一种基于双目视觉的空间物体三维信息快速检测方法
CN107087150A (zh) * 2017-04-26 2017-08-22 成都通甲优博科技有限责任公司 一种基于双目立体和光度立体的三维摄像方法、系统及装置
CN107578430A (zh) * 2017-07-26 2018-01-12 昆明理工大学 一种基于自适应权值和局部熵的立体匹配方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103236082A (zh) * 2013-04-27 2013-08-07 南京邮电大学 面向捕获静止场景的二维视频的准三维重建方法
CN105894499A (zh) * 2016-03-25 2016-08-24 华南理工大学 一种基于双目视觉的空间物体三维信息快速检测方法
CN107087150A (zh) * 2017-04-26 2017-08-22 成都通甲优博科技有限责任公司 一种基于双目立体和光度立体的三维摄像方法、系统及装置
CN107578430A (zh) * 2017-07-26 2018-01-12 昆明理工大学 一种基于自适应权值和局部熵的立体匹配方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109615652B (zh) * 2018-10-23 2020-10-27 西安交通大学 一种深度信息获取方法及装置
CN109615652A (zh) * 2018-10-23 2019-04-12 西安交通大学 一种深度信息获取方法及装置
CN109741385A (zh) * 2018-12-24 2019-05-10 浙江大华技术股份有限公司 一种图像处理系统、方法、装置、电子设备及存储介质
CN111062900A (zh) * 2019-11-21 2020-04-24 西北工业大学 一种基于置信度融合的双目视差图增强方法
CN110992431A (zh) * 2019-12-16 2020-04-10 电子科技大学 一种双目内窥镜软组织图像的联合三维重建方法
CN111210481A (zh) * 2020-01-10 2020-05-29 大连理工大学 多波段立体相机的深度估计加速方法
CN111539280A (zh) * 2020-04-15 2020-08-14 深圳一清创新科技有限公司 基于自动驾驶技术的路面清扫方法、装置和计算机设备
CN111539280B (zh) * 2020-04-15 2024-04-09 深圳一清创新科技有限公司 基于自动驾驶技术的路面清扫方法、装置和计算机设备
CN111951376B (zh) * 2020-07-28 2023-04-07 中国科学院深圳先进技术研究院 融合结构光和光度学的三维对象重建方法及终端设备
CN111951376A (zh) * 2020-07-28 2020-11-17 中国科学院深圳先进技术研究院 融合结构光和光度学的三维对象重建方法及终端设备
CN112634375A (zh) * 2020-12-21 2021-04-09 杭州东信北邮信息技术有限公司 一种ai智能检测中的平面标定和三维重建方法
CN112634375B (zh) * 2020-12-21 2022-08-05 杭州东信北邮信息技术有限公司 一种ai智能检测中的平面标定和三维重建方法
CN113052886A (zh) * 2021-04-09 2021-06-29 同济大学 一种采用双目原理的双tof相机深度信息获取方法
CN113534176A (zh) * 2021-06-22 2021-10-22 武汉工程大学 基于图正则化的光场高精度三维测距方法
CN114612544A (zh) * 2022-03-11 2022-06-10 北京百度网讯科技有限公司 图像处理方法、装置、设备和存储介质
CN114612544B (zh) * 2022-03-11 2024-01-02 北京百度网讯科技有限公司 图像处理方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN108520537B (zh) 2020-02-18

Similar Documents

Publication Publication Date Title
CN108520537A (zh) 一种基于光度视差的双目深度获取方法
CN104335005B (zh) 3d扫描以及定位系统
CN104299261B (zh) 人体三维成像方法及系统
CN104330074B (zh) 一种智能测绘平台及其实现方法
CN112308963B (zh) 一种无感三维人脸重建方法及采集重建系统
CN104331897A (zh) 基于极线校正的亚像素级相位立体匹配方法
CN111091076B (zh) 基于立体视觉的隧道限界数据测量方法
CN109242898B (zh) 一种基于图像序列的三维建模方法及系统
CN104537707A (zh) 像方型立体视觉在线移动实时测量系统
CN102831601A (zh) 基于联合相似性测度和自适应支持权重的立体匹配方法
CN107067394A (zh) 一种倾斜摄影获取点云坐标的方法及装置
CN110363838A (zh) 基于多球面相机模型的大视野图像三维重构优化方法
CN112270698A (zh) 基于最邻近曲面的非刚性几何配准方法
US11959744B1 (en) Stereophotogrammetric method based on binocular vision
CN111649694B (zh) 一种隐式相位-视差映射的双目测量缺失点云插补方法
CN116797742A (zh) 室内场景的三维重建方法及系统
CN110728745B (zh) 一种基于多层折射图像模型的水下双目立体视觉三维重建方法
CN114998399B (zh) 一种异源光学遥感卫星影像立体像对预处理方法
CN108830921A (zh) 基于入射角度的激光点云反射强度纠正方法
CN115359127A (zh) 一种适用于多层介质环境下的偏振相机阵列标定方法
CN110619601A (zh) 一种基于三维模型的图像数据集生成方法
CN107610215B (zh) 一种高精度多角度口腔三维数字成像模型构建方法
CN113345084A (zh) 三维建模系统及三维建模方法
CN108898550A (zh) 基于空间三角面片拟合的图像拼接方法
CN108182727B (zh) 基于多视点几何一致性的相位展开方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200218