CN110223377A - 一种基于立体视觉系统高精度的三维重建方法 - Google Patents

一种基于立体视觉系统高精度的三维重建方法 Download PDF

Info

Publication number
CN110223377A
CN110223377A CN201910449687.XA CN201910449687A CN110223377A CN 110223377 A CN110223377 A CN 110223377A CN 201910449687 A CN201910449687 A CN 201910449687A CN 110223377 A CN110223377 A CN 110223377A
Authority
CN
China
Prior art keywords
image
dimensional
fuzzy core
reconstructing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910449687.XA
Other languages
English (en)
Inventor
周虹
高锋
周瓒
郝路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Engineering Science
Original Assignee
Shanghai University of Engineering Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Engineering Science filed Critical Shanghai University of Engineering Science
Priority to CN201910449687.XA priority Critical patent/CN110223377A/zh
Publication of CN110223377A publication Critical patent/CN110223377A/zh
Pending legal-status Critical Current

Links

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Abstract

本发明公开了一种基于立体视觉系统高精度的三维重建方法,涉及三维重建领域,解决了现有的双目视觉法操作步骤异常繁琐、立体匹配的运算量过大、匹配速度较慢,最终三维重建的效果和精度不佳的弊端,其技术方案要点是经过图像采集、相机标定和立体矫正、图像预处理、使用去模糊单元对图像进行去模糊、多重网络算法立体匹配、小波神经网络曲面拟合法拟合点云误差之后再进行三维重建,本发明的一种基于立体视觉系统高精度的三维重建方法,三维重建效果佳,精度较高,较传统的双目视觉法相比,操作步骤简单,精度高,匹配速度快。

Description

一种基于立体视觉系统高精度的三维重建方法
技术领域
本发明涉及三维重建领域,特别涉及一种基于立体视觉系统高精度的三维重建方法。
背景技术
三维重建经过数十年的发展,已经取得巨大的成功。基于视觉的三维重建在计算机领域是一个重要的研究内容,主要通过使用相关仪器来获取物体的二维图像数据信息,然后,再对获取的数据信息进行分析处理,最后,利用三维重建的相关理论重建出真实环境中物体表面的轮廓信息。基于视觉的三维重建具有速度快、实时性好等优点,能够广泛应用于人工智能、机器人、无人驾驶、虚拟现实和3D打印等领域,具有重要的研究价值,也是未来发展的重要研究方向。
三维重建方法分为将非接触式方法分为主动式和被动式两类,主动视觉又包括激光扫描法、结构光法、阴影法、TOF技术、雷达技术、Kinect技术等;被动视觉法根据摄像机数目的不同分为单目视觉法、双目视觉法和多目视觉法;根据原理(匹配方法)不同又可以分为区域视觉法、特征视觉法等;根据应用方法也可以分为运动恢复结构法和机器学习法等。
但是现有的双目视觉法操作步骤异常繁琐,导致了立体匹配的运算量过大,匹配速度较慢,最终三维重建的效果和精度都往往不尽人意。
发明内容
本发明的目的是提供一种基于立体视觉系统高精度的三维重建方法,三维重建效果佳,精度较高,较传统的双目视觉法相比,操作步骤简单,精度高,匹配速度快。
本发明的上述技术目的是通过以下技术方案得以实现的:
一种基于立体视觉系统高精度的三维重建方法,包括有以下步骤:
S1、图像采集:选取两台相同的相机,分别平行放置于目标物体的左右两侧,并同时获取同一场景中目标物体的图像;
S2、相机标定及立体校正:获取相机内外部的参数,并根据相机的内外部参数将采集的图像矫正为标准极线几何结构;
S3、图像预处理:将校正后的图像匹配至同一水平线,通过加权平均法转化为灰度图像,通过直方图均衡化使得图像的灰度分布趋向平均,并进行自动全局阈值分割,识别出物体所在区域;
S4、图像去模糊:使用去模糊单元对图像进行去模糊,去模糊单元包括小视场模糊核获取单元、全视场模糊核获取单元、非盲区卷积处理单元和盲区卷积处理单元,使用小视场模糊核获取单元对预处理后的图像进行模糊核估计处理,以获取小视场模糊核,再使用全视场模糊核获取单元将小视场模糊核获取单元获取的小视场模糊核替代为全视场图像的全视场模糊核,非盲区卷积处理单元根据模糊核替代单元替代后的全视场模糊核对全视场图像进行非盲区卷积处理,盲区卷积处理单元根据模糊核替代单元替代后的全视场模糊核对全视场图像进行盲区卷积处理;
S5、立体匹配:通过多重网络算法进行立体匹配,以极线约束与金字塔算法为基础,引进一组不同分辨率的图像,采用SLIC对图像进行分割,并对分割的区域应用迭代α扩张算法进行若干次迭代以获得对应的视差图;
S6、三维重建:通过双目立体视觉原理,结合相机内外参数及视差图获取物体的三维坐标图像,并获取离散点云数据,通过基于小波神经网络的曲面拟合法对离散点云数据进行深度恢复及点云平滑,得到一个隐式曲面,然后通过拟合点云误差剔除误差比较大的离散点云数据,进而重建出光滑的网格表面。
作为优选,在步骤S5中采用SLIC对图像进行分割,通过分割图像的每一个像素都被分配了一个表示Segment编号的Label,从1到最大分割块数K,对于每一个Segment,在包含该Segment的最小的矩形区域内,遍历所有像素,当该像素在Segment内部时,以该像素为中心构建扩张区域和计算能量函数时引导滤波的滤波窗口,每个像素在建立的扩张区域内应用迭代α扩张算法进行迭代。
作为优选,步骤S5中进行迭代扩张时,初始的α由Segment内部随机选择的像素当前的3D标签值确定,比较当像素视差标签取α时系统能量与像素视差标签取当前值时整个MRF系统的能量的大小,每次迭代遍历Segment中的所有像素,将α向扩张区域内扩张,经过7至9次迭代,像素取得对应视差标签,从而获得视差图。
作为优选,多重网格算法包括:
a1、细网格松弛过程去除高频分量的误差;
a2、粗网格修正过程消除低频分量的误差;
a3、套迭代技术通过限制算子和延拓算子连接各层网格,将方程解的残差从细网格依次限制到粗网格,然后将解从粗网格依次延拓到细网格,遍历构成一个V形迭代路径。
作为优选,在S5中,多重网格算法通过极线约束及测量双目立体系统与目标物体之间的距离估计视差搜索范围,以左图像中的像素点为待匹配点,沿极线在右图像搜索范围中搜索匹配点,通过多重网格迭代方法计算各点的能量值,若右图像中某个点的能量值最低,则该点即为最佳匹配点,遍历整幅图像得到稠密平滑的视差图。
作为优选,在S6中,通过移动小波神经网络曲面拟合法对离散三维点云集进行深度恢复及点云平滑,其具体步骤为:
b1、点云数据的归一化;
b2、小波神经网络模型的构建,确定网络输入层、隐含层、输出层。
作为优选,所述左相机和右相机的型号均为BV6,所述左相机和右相机的表面均作镀黑锌处理。
综上所述,本发明具有以下有益效果:
通过图像预处理和去模糊处理,使得图像的进度更高,通过引入多重网格算法进行立体匹配,提高匹配速度,获取的视差图效果更佳,三维重建的效果佳,精度较高,较传统的双目视觉法相比,操作步骤简单,精度高,匹配速度快。
附图说明
图1为本发明的流程图;
图2为本发明的双目立体视觉原理图;
图3为去模糊单元处的部分功能模块框图;
图4为本发明的V形迭代路径图;
图5为极线约束搜索原理图;
图6为小波结合神经网络模型图。
具体实施方式
以下结合附图对本发明作进一步详细说明。
本实施例公开的一种基于立体视觉系统高精度的三维重建方法,如图1所示,包括有以下步骤:
S1、图像采集:选取两台相同的相机,放置于目标物体的左右两侧,根据放置位置分别定义为左相机和右相机,将左相机和右相机平行放置,考虑到相机的分辨率,设定左相机光心与右相机光心之间的基线距离上限值为20cm,如图2所示,左相机光心与右相机光心之间的基线距离数值为b,采用左相机和右相机同时获取同一个场景中的目标物体图像,完成图像采集;
S2、相机标定及立体校正:获取相机内外部参数,内部参数包括且不限于镜头焦距f、图像中心位置(u0,v0)及镜头畸变,外部参数包括且不限于旋转矩阵R和平移向量t,将采集到的图像校正为标准极线几何结构;
S3、图像预处理:经过校正后的左右图像匹配点在同一水平线上,用于简化复杂度,然后通过加权平均法转化为灰度图像,增强图像对比度,再通过直方图均衡化使得图像的灰度分布趋向平均,加大图像的反差,改善视觉效果,达到图像增强的目的最后进行自动全局阈值分割,识别出物体所在区域;
S4、使用去模糊单元对图像进行去模糊:请参阅图3,去模糊单元包括小视场模糊核获取单元、全视场模糊核获取单元、非盲区卷积处理单元和盲区卷积处理单元,使用小视场模糊核获取单元对预处理后的图像进行模糊核估计处理,以获取小视场模糊核,再使用全视场模糊核获取单元将小视场模糊核获取单元获取的小视场模糊核替代为全视场图像的全视场模糊核,非盲区卷积处理单元根据模糊核替代单元替代后的全视场模糊核对全视场图像进行非盲区卷积处理,盲区卷积处理单元根据模糊核替代单元替代后的全视场模糊核对全视场图像进行盲区卷积处理;经过对图像进行去模糊之后可使三维重建后的模型图更加清晰。
S5、立体匹配:将多重网格算法应用于立体匹配过程,多重网格算法包括:
a1、细网格松弛过程去除高频分量的误差,细网格松弛过程可以迅速去除高频分量;
a2、粗网格修正过程消除低频分量的误差,粗网格修正过程可以消除被光滑的低频分量;
a3、套迭代技术通过限制算子和延拓算子连接各层网格,将方程解的残差从细网格依次限制到粗网格,然后将解从粗网格依次延拓到细网格,遍历构成一个V形迭代路径。
如图4所示,其中为限制算子,为延拓算子,M×N、(M/2)×(N/2)、(M/4)×(N/4)、(M/8)×(N/8)为每一级网格尺寸;迭代技术负责通过限制算子和延拓算子连接各层通过不断迭代快速精确地处理问题,该方法以极线约束与金字塔算法为基础,引进一组不同分辨率的图像,采用SLIC对图像进行分割,通过分割图像的每一个像素都被分配了一个表示Segment编号的Label,从1到最大分割块数K;对于每一个Segment,在包含该Segment的最小的矩形区域内,遍历所有像素,只有当该像素在Segment内部时,才以该像素为中心构建扩张区域和滤波窗口,以一个Segment为例,对于Segment中的每个像素,以其为中心,r为半径构建扩张区域,扩张区域再往外扩大R作为计算能量函数时引导滤波的滤波窗口,每个像素在建立的扩张区域内应用迭代α扩张算法,初始的α由Segment内部随机选择的像素当前的3D标签值确定,当像素视差标签取α时比较系统能量与像素视差标签取当前值时整个MRF系统的能量的大小,每次迭代遍历Segment中的所有像素,将α向扩张区域内扩张,经过7-9次迭代,像素就能够取得比较理想的视差标签,从而获得视差图;多重网格算法通过极线约束及测量双目立体系统与目标物体之间的距离估计视差搜索范围,参考图5,其搜索原理为以左图像中的像素点为待匹配点,沿极线在右图像搜索范围中搜索匹配点,通过多重网格迭代方法计算各点的能量值,若右图像中某个点的能量值最低,则该点即为最佳匹配点,通过以上方法遍历整幅图像得到稠密平滑的视差图,令I1(x,y)与Ir(x,y)分别为左右图像在坐标(x,y),d是坐标(x,y)处的视差值,则其能量函数被定义为:
其中Gc为决定灰度值的权重因子,Gd为决定灰度值梯度的权重因子,S为决定平滑项的权重子,通过细网格迭代,将残差从最细网格依次限制到粗糙的网格中,运用像素的灰度、梯度及平滑度相结合的相似度判断准则在粗网格搜索空间内寻找匹配点,得到视差值,将粗网格得到的视差值依次延拓到细网格,通过组合修正得到最终匹配点的视差值,按照以上步骤在整幅图像上进行遍历,直到得到完整连续的视差图。
S6、三维重建:利用双目立体视觉原理,通过移动神经网络曲面拟合法对离散点云数据进行深度恢复及点云平滑,其具体步骤为:
b1、由于离散点云数据是随机抽取的,若试验部分离散点云数据坐标的最大值和最小值相差很大,那么网络训练过程中坐标值大的数据的权重比较大,会导致网络收敛速度较慢或者不收敛,所以必须把点云数据归一化,公式为这样可以把数据归一化到0到1之间,然后带入训练的神将网络,训练完成后,需要反归一化处理,公式为xi=x*(xmax-xmin)-1;
b2、小波神经网络模型的构建,先确定输入输出因子,然后构建合适小波神经网络,包括结构设计和激活函数,待训练完成后如果测试误差可以接受则得出离散点云数据坐标的值。参考图2及图6,设空间点P(xw,yw,zw)在左右相机下的坐标分别为P(x1,y1,z1)和P(x2,y2,z2),空间点与左右相机成像平面交点分别为P(u1,v1)和P(ur,vr),经立体校正后点P投影点的行坐标相同,即v1=vr,左右相机投影中心连线的距离为基线b=x1-x2,根据相似三角形原理有u1=fx1/z1,ur=f(x1-b)/z1和v1=vr=fy1/z1,左图像内点列坐标与右图像内对应点列坐标之差,为对应点视差值D=u1-ur=bf/z1,故点P的三维坐标为xw=x1=bu1/D,yw=y1=bv1/D,zw=z1=bf/D,结合相机内外参数以及视差图可获得物体的三维坐标图像,进而得到离散点云数据信息,然后通过基于小波神经网络的曲面拟合法对离散点云数据进行深度恢复及点云平滑,其基本思想是利用网络训练后的离散点云数据对神经网络进行非线性的无限逼近,进而得到一个的隐式曲面,然后通过拟合点云误差剔除误差比较大的离散点云数据,进而重建出光滑的网格表面,经过上述步骤,得到三维重建后的模型图。
本发明较传统双目立体视觉的三维重建方法相比较,在图像预处理之后,使用了去模糊单元对图像进行去模糊处理,使用小视场模糊核获取单元对预处理后的图像进行模糊核估计处理,以获取小视场模糊核,再使用全视场模糊核获取单元将小视场模糊核获取单元获取的小视场模糊核替代为全视场图像的全视场模糊核,非盲区卷积处理单元根据模糊核替代单元替代后的全视场模糊核对全视场图像进行非盲区卷积处理,盲区卷积处理单元根据模糊核替代单元替代后的全视场模糊核对全视场图像进行盲区卷积处理,使得图像的精度更高,便于后期的立体匹配,在立体匹配阶段引入多重网格算法,该方法以极线约束与金字塔算法为基础,引进一组不同分辨率的图像,从而提高匹配速度,所得视差域平滑连续,在应用多重网格算法之后,采用SLIC对图像进行分割,之后又应用了迭代α扩张算法,经过7-9次迭代,像素就能够取得比较理想的视差标签,从而获得的视差图效果更佳,在三维重建阶段,通过神经网络的优点来拟合重建的误差,通过点云平滑,得到的三维点云平滑图效果较好,从而得效果好的三维重建模型图。
本具体实施例仅仅是对本发明的解释,其并不是对本发明的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本发明的权利要求范围内都受到专利法的保护。

Claims (7)

1.一种基于立体视觉系统高精度的三维重建方法,其特征是,包括有以下步骤:
S1、图像采集:选取两台相同的相机,分别平行放置于目标物体的左右两侧,并同时获取同一场景中目标物体的图像;
S2、相机标定及立体校正:获取相机内外部的参数,并根据相机的内外部参数将采集的图像矫正为标准极线几何结构;
S3、图像预处理:将校正后的图像匹配至同一水平线,通过加权平均法转化为灰度图像,通过直方图均衡化使得图像的灰度分布趋向平均,并进行自动全局阈值分割,识别出物体所在区域;
S4、图像去模糊:使用去模糊单元对图像进行去模糊;去模糊单元包括小视场模糊核获取单元、全视场模糊核获取单元、非盲区卷积处理单元和盲区卷积处理单元;使用小视场模糊核获取单元对预处理后的图像进行模糊核估计处理,以获取小视场模糊核,再使用全视场模糊核获取单元将小视场模糊核获取单元获取的小视场模糊核替代为全视场图像的全视场模糊核,非盲区卷积处理单元根据模糊核替代单元替代后的全视场模糊核对全视场图像进行非盲区卷积处理,盲区卷积处理单元根据模糊核替代单元替代后的全视场模糊核对全视场图像进行盲区卷积处理;
S5、立体匹配:通过多重网络算法进行立体匹配,以极线约束与金字塔算法为基础,引进一组不同分辨率的图像,采用SLIC对图像进行分割,并对分割的区域应用迭代α扩张算法进行若干次迭代以获得对应的视差图;
S6、三维重建:通过双目立体视觉原理,结合相机内外参数及视差图获取物体的三维坐标图像,并获取离散点云数据通过基于小波神经网络的曲面拟合法对离散点云数据进行深度恢复及点云平滑,得到一个隐式曲面,然后通过拟合点云误差剔除误差比较大的离散点云数据,进而重建出光滑的网格表面。
2.根据权利要求1所述的基于立体视觉系统高精度的三维重建方法,其特征是:在S5中采用SLIC对图像进行分割,通过分割图像的每一个像素都被分配了一个表示Segment编号的Label,从1到最大分割块数K,对于每一个Segment,在包含该Segment的最小的矩形区域内,遍历所有像素,当该像素在Segment内部时,以该像素为中心构建扩张区域和计算能量函数时引导滤波的滤波窗口,每个像素在建立的扩张区域内应用迭代α扩张算法进行迭代。
3.根据权利要求2所述的基于立体视觉系统高精度的三维重建方法,其特征是:在S5中进行迭代扩张时,初始的α由Segment内部随机选择的像素当前的3D标签值确定,比较当像素视差标签取α时系统能量与像素视差标签取当前值时整个MRF系统的能量的大小,每次迭代遍历Segment中的所有像素,将α向扩张区域内扩张,经过7至9次迭代,像素取得对应视差标签,从而获得视差图。
4.根据权利要求3所述的基于立体视觉系统高精度的三维重建方法,其特征是,多重网格算法包括:
a1、细网格松弛过程去除高频分量的误差;
a2、粗网格修正过程消除低频分量的误差;
a3、套迭代技术通过限制算子和延拓算子连接各层网格,将方程解的残差从细网格依次限制到粗网格,然后将解从粗网格依次延拓到细网格,遍历构成一个V形迭代路径。
5.根据权利要求4所述的基于立体视觉系统高精度的三维重建方法,其特征是:在S5中,多重网格算法通过极线约束及测量双目立体系统与目标物体之间的距离估计视差搜索范围,以左图像中的像素点为待匹配点,沿极线在右图像搜索范围中搜索匹配点,通过多重网格迭代方法计算各点的能量值,若右图像中某个点的能量值最低,则该点即为最佳匹配点,遍历整幅图像得到稠密平滑的视差图。
6.根据权利要求5所述的基于立体视觉系统高精度的三维重建方法,其特征是,在S6中,通过移动小波神经网络曲面拟合法对离散三维点云集进行深度恢复及点云平滑,其具体步骤为:
b1、点云数据的归一化;
b2、小波神经网络模型的构建,确定网络输入层、隐含层、输出层。
7.根据权利要求1所述的基于立体视觉系统高精度的三维重建方法,其特征是:所述左相机和右相机的型号均为BV6,所述左相机和右相机的表面均作镀黑锌处理。
CN201910449687.XA 2019-05-28 2019-05-28 一种基于立体视觉系统高精度的三维重建方法 Pending CN110223377A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910449687.XA CN110223377A (zh) 2019-05-28 2019-05-28 一种基于立体视觉系统高精度的三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910449687.XA CN110223377A (zh) 2019-05-28 2019-05-28 一种基于立体视觉系统高精度的三维重建方法

Publications (1)

Publication Number Publication Date
CN110223377A true CN110223377A (zh) 2019-09-10

Family

ID=67818610

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910449687.XA Pending CN110223377A (zh) 2019-05-28 2019-05-28 一种基于立体视觉系统高精度的三维重建方法

Country Status (1)

Country Link
CN (1) CN110223377A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956658A (zh) * 2019-10-26 2020-04-03 湖北讯獒信息工程有限公司 一种双目立体视觉系统中图像特征识别算法加速方法
CN110991463A (zh) * 2019-11-04 2020-04-10 同济大学 一种超像素图引导下的多尺度引导滤波特征提取方法
CN111179333A (zh) * 2019-12-09 2020-05-19 天津大学 一种基于双目立体视觉的散焦模糊核估计方法
CN111612731A (zh) * 2020-04-01 2020-09-01 中国科学院上海微系统与信息技术研究所 基于双目显微视觉的测量方法、装置、系统及介质
CN112381886A (zh) * 2020-11-16 2021-02-19 深圳市洲明科技股份有限公司 基于多相机的三维场景重建方法、存储介质及电子设备
CN112686916A (zh) * 2020-12-28 2021-04-20 淮阴工学院 一种基于异质多区域ct扫描数据处理的曲面重建系统
CN112907714A (zh) * 2021-03-05 2021-06-04 兰州大学 一种基于Census变换和灰度绝对差的混合匹配双目视觉系统
CN113344956A (zh) * 2021-06-21 2021-09-03 深圳市武测空间信息有限公司 基于无人机航摄三维建模的地物轮廓提取分类方法
CN113393396A (zh) * 2021-06-18 2021-09-14 江苏园上园智能科技有限公司 图像去模糊模型、去模糊的三维重建方法及系统
CN113408916A (zh) * 2021-06-28 2021-09-17 河南唐都科技有限公司 基于智能ai和移动app的消防设施检测及现场验收评定系统
CN113496521A (zh) * 2020-04-08 2021-10-12 复旦大学 利用多张彩色图片生成深度图像与相机外参的方法及装置
CN114283081A (zh) * 2021-12-16 2022-04-05 北京的卢深视科技有限公司 基于金字塔加速的深度恢复方法、电子设备及存储介质
CN114859072A (zh) * 2022-05-11 2022-08-05 北京航空航天大学 一种体视粒子追踪测速方法
CN114923665A (zh) * 2022-05-27 2022-08-19 上海交通大学 波浪三维高度场的图像重构方法及图像重构试验系统
CN116030352A (zh) * 2023-03-29 2023-04-28 山东锋士信息技术有限公司 融合多尺度分割和超像素分割的长时序土地利用分类方法
CN111179333B (zh) * 2019-12-09 2024-04-26 天津大学 一种基于双目立体视觉的散焦模糊核估计方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683174A (zh) * 2016-12-23 2017-05-17 上海斐讯数据通信技术有限公司 双目视觉系统的三维重建方法、装置及双目视觉系统
CN108335350A (zh) * 2018-02-06 2018-07-27 聊城大学 双目立体视觉的三维重建方法
CN108830895A (zh) * 2018-06-28 2018-11-16 西安交通大学 一种立体匹配中基于分割的局部扩张移动方法
CN109141847A (zh) * 2018-07-20 2019-01-04 上海工程技术大学 一种基于mscnn深度学习的飞机系统故障诊断方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683174A (zh) * 2016-12-23 2017-05-17 上海斐讯数据通信技术有限公司 双目视觉系统的三维重建方法、装置及双目视觉系统
CN108335350A (zh) * 2018-02-06 2018-07-27 聊城大学 双目立体视觉的三维重建方法
CN108830895A (zh) * 2018-06-28 2018-11-16 西安交通大学 一种立体匹配中基于分割的局部扩张移动方法
CN109141847A (zh) * 2018-07-20 2019-01-04 上海工程技术大学 一种基于mscnn深度学习的飞机系统故障诊断方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
但立: "基于小波神经网络的地面三维激光扫描点云数据的滑坡监测研究", 《中国优秀硕士学位论文全文数据库》 *
张如如 等: "基于双目立体视觉的三维重建方法", 《扬州大学学报(自然科学版)》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956658A (zh) * 2019-10-26 2020-04-03 湖北讯獒信息工程有限公司 一种双目立体视觉系统中图像特征识别算法加速方法
CN110991463A (zh) * 2019-11-04 2020-04-10 同济大学 一种超像素图引导下的多尺度引导滤波特征提取方法
CN110991463B (zh) * 2019-11-04 2023-05-02 同济大学 一种超像素图引导下的多尺度引导滤波特征提取方法
CN111179333A (zh) * 2019-12-09 2020-05-19 天津大学 一种基于双目立体视觉的散焦模糊核估计方法
CN111179333B (zh) * 2019-12-09 2024-04-26 天津大学 一种基于双目立体视觉的散焦模糊核估计方法
CN111612731A (zh) * 2020-04-01 2020-09-01 中国科学院上海微系统与信息技术研究所 基于双目显微视觉的测量方法、装置、系统及介质
CN113496521A (zh) * 2020-04-08 2021-10-12 复旦大学 利用多张彩色图片生成深度图像与相机外参的方法及装置
CN112381886A (zh) * 2020-11-16 2021-02-19 深圳市洲明科技股份有限公司 基于多相机的三维场景重建方法、存储介质及电子设备
CN112381886B (zh) * 2020-11-16 2024-04-09 深圳市洲明科技股份有限公司 基于多相机的三维场景重建方法、存储介质及电子设备
CN112686916A (zh) * 2020-12-28 2021-04-20 淮阴工学院 一种基于异质多区域ct扫描数据处理的曲面重建系统
CN112686916B (zh) * 2020-12-28 2024-04-05 淮阴工学院 一种基于异质多区域ct扫描数据处理的曲面重建系统
CN112907714A (zh) * 2021-03-05 2021-06-04 兰州大学 一种基于Census变换和灰度绝对差的混合匹配双目视觉系统
CN113393396A (zh) * 2021-06-18 2021-09-14 江苏园上园智能科技有限公司 图像去模糊模型、去模糊的三维重建方法及系统
CN113344956B (zh) * 2021-06-21 2022-02-01 深圳市武测空间信息有限公司 基于无人机航摄三维建模的地物轮廓提取分类方法
CN113344956A (zh) * 2021-06-21 2021-09-03 深圳市武测空间信息有限公司 基于无人机航摄三维建模的地物轮廓提取分类方法
CN113408916A (zh) * 2021-06-28 2021-09-17 河南唐都科技有限公司 基于智能ai和移动app的消防设施检测及现场验收评定系统
CN113408916B (zh) * 2021-06-28 2023-12-29 河南唐都科技有限公司 基于智能ai和移动app的消防设施检测及现场验收评定系统
CN114283081A (zh) * 2021-12-16 2022-04-05 北京的卢深视科技有限公司 基于金字塔加速的深度恢复方法、电子设备及存储介质
CN114283081B (zh) * 2021-12-16 2022-11-08 合肥的卢深视科技有限公司 基于金字塔加速的深度恢复方法、电子设备及存储介质
CN114859072A (zh) * 2022-05-11 2022-08-05 北京航空航天大学 一种体视粒子追踪测速方法
CN114923665A (zh) * 2022-05-27 2022-08-19 上海交通大学 波浪三维高度场的图像重构方法及图像重构试验系统
CN116030352A (zh) * 2023-03-29 2023-04-28 山东锋士信息技术有限公司 融合多尺度分割和超像素分割的长时序土地利用分类方法

Similar Documents

Publication Publication Date Title
CN110223377A (zh) 一种基于立体视觉系统高精度的三维重建方法
CN110874864B (zh) 获取对象三维模型的方法、装置、电子设备及系统
CN111063021B (zh) 一种空间运动目标的三维重建模型建立方法及装置
CN111462206B (zh) 一种基于卷积神经网络的单目结构光深度成像方法
Fuhl et al. Fast camera focus estimation for gaze-based focus control
CN107679537A (zh) 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法
CN110298884A (zh) 一种适于动态环境中单目视觉相机的位姿估计方法
CN111340944A (zh) 基于隐式函数和人体模板的单图像人体三维重建方法
Wei Converting 2d to 3d: A survey
CN111951368B (zh) 一种点云、体素和多视图融合的深度学习方法
Malik et al. Application of passive techniques for three dimensional cameras
Condorelli et al. A comparison between 3D reconstruction using nerf neural networks and mvs algorithms on cultural heritage images
CN109218706B (zh) 一种由单张图像生成立体视觉图像的方法
CN114494644A (zh) 一种基于双目立体匹配的空间非合作目标位姿估计与三维重建方法及系统
CN111260712B (zh) 一种基于重聚焦极线图邻域分布的深度估计方法和装置
CN113313740A (zh) 一种基于平面连续性的视差图和表面法向量联合学习方法
Tagawa Depth perception model based on fixational eye movements using bayesian statistical inference
CN112991504A (zh) 一种改进的基于tof相机三维重建的补空洞方法
CN116681839A (zh) 一种基于改进NeRF的实景三维目标重建与单体化方法
CN115147709B (zh) 一种基于深度学习的水下目标三维重建方法
CN113225484B (zh) 快速获取屏蔽非目标前景的高清图片的方法及装置
CN108830804A (zh) 基于线扩展函数标准差的虚实融合模糊一致性处理方法
Olszewski HashCC: Lightweight Method to Improve the Quality of the Camera-less NeRF Scene Generation
Kuo et al. 2D-to-3D conversion for single-view image based on camera projection model and dark channel model
CN105989591A (zh) 一种自动获取取款人面部立体信息的自动取款机成像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190910