CN110349251B - 一种基于双目相机的三维重建方法及装置 - Google Patents
一种基于双目相机的三维重建方法及装置 Download PDFInfo
- Publication number
- CN110349251B CN110349251B CN201910577732.XA CN201910577732A CN110349251B CN 110349251 B CN110349251 B CN 110349251B CN 201910577732 A CN201910577732 A CN 201910577732A CN 110349251 B CN110349251 B CN 110349251B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- point cloud
- target
- binocular camera
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Abstract
本发明公开了一种基于双目相机的三维重建方法及装置,方法包括:通过平行排布的双目相机分别对目标进行拍摄,计算两幅目标图像的共视区域的点云数据;根据所述点云数据对目标进行三维重建,得到三维立体网格模型;对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型。本发明实施例通过双目相机获取两幅目标图像,计算获取两幅目标图像共视区域的点云数据来实现三维重建与纹理恢复,成像方案结构简单、灵活,成本低且重建速度快,同时兼顾了三维重建方案的低成本与重建效率的要求。
Description
技术领域
本发明涉及三维重建技术领域,尤其涉及一种基于双目相机的三维重建方法及装置。
背景技术
现有的三维重建的方案有:基于单相机与彩色光栅条纹投影仪的重建;基于双目视差与彩色结构光方案;基于相移法的高速工业相机与黑白条纹结构光方案等。其中,基于单相机与彩色光栅条纹投影仪的重建,对拍摄环境要求比较高,对图像质量的成像要求高,彩色条纹处理难度大;基于双目视差与彩色结构光方案,通过打彩色光斑,增加了图像的特征,但同时也增加了整套产品的成本;基于相移法的高速工业相机与黑白条纹结构光方案,可以达到比较高的精度,但系统复杂、重建速度较慢、产品成本较高,可见目前三维重建方案无法同时兼顾低成本与重建效率的要求。
因此,现有技术还有待于改进和发展。
发明内容
鉴于上述现有技术的不足,本发明的目的在于提供一种基于双目相机的三维重建方法及装置,旨在解决现有技术中三维重建方案无法同时满足低成本与重建效率要求的问题。
本发明的技术方案如下:
一种基于双目相机的三维重建方法,其包括如下步骤:
通过平行排布的双目相机分别对目标进行拍摄,计算两幅目标图像的共视区域的点云数据;
根据所述点云数据对目标进行三维重建,得到三维立体网格模型;
对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型。
所述的基于双目相机的三维重建方法中,所述通过平行排布的双目相机分别对目标进行拍摄,计算两幅目标图像的共视区域的点云数据,包括:
通过双目相机分别对目标进行拍摄,对两幅目标图像进行畸变校正与极线平行处理后输出共视图;
根据预设匹配算法对所述共视图进行深度数据计算,获取两幅目标图像的共视区域的点云数据。
所述的基于双目相机的三维重建方法中,所述对两幅目标图像进行畸变校正与极线平行处理后输出共视图,包括:
对双目相机进行标定,获取双目相机的内参、外参和畸变参数;
根据所述内参将目标图像从图像像素坐标系转换至相机坐标系;
通过所述外参对目标图像进行极线平行处理,通过所述畸变参数对目标图像的相机坐标进行畸变校正;
根据所述内参将经过畸变校正与极线平行处理后的目标图像从相机坐标系转换至图像像素坐标系,输出共视图。
所述的基于双目相机的三维重建方法中,所述根据预设匹配算法对所述共视图进行深度数据计算,获取两幅目标图像的共视区域的点云数据,包括:
根据预设匹配算法对双目相机获取的两幅目标图像进行像素匹配,计算输出每个像素点的视差;
根据每个像素点的视差、双目相机光心之间的距离以及双目相机的焦距对所述共视图进行深度数据计算,获取两幅目标图像的共视区域的点云数据。
所述的基于双目相机的三维重建方法中,所述根据所述点云数据对目标进行三维重建,得到三维立体网格模型之前,还包括:
对所述点云数据进行点云滤波预处理。
所述的基于双目相机的三维重建方法中,所述根据所述点云数据对目标进行三维重建,得到三维立体网格模型,包括:
给定预设离散点,将点云数据投影至水平面上;
逐行遍历每个点,将相邻点构成三角面片;
恢复预设离散点的深度值,生成三维立体网格模型。
所述的基于双目相机的三维重建方法中,对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型,包括:
根据所述点云数据获取每个三维点对应的纹理坐标;
根据所述纹理坐标对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型。
本发明又一实施例还提供了一种基于双目相机的三维重建装置,所述装置包括双目相机、至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述基于双目相机的三维重建方法。
本发明的另一实施例还提供了一种非易失性计算机可读存储介质,所述非易失性计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行时,可使得所述一个或多个处理器执行上述的基于双目相机的三维重建方法。
本发明的另一实施例还提供了一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被处理器执行时,使所述处理器执行上述的基于双目相机的三维重建方法。
有益效果:本发明公开了一种基于双目相机的三维重建方法及装置,相比于现有技术,本发明实施例通过双目相机获取两幅目标图像,计算获取两幅目标图像共视区域的点云数据来实现三维重建与纹理恢复,成像方案结构简单、灵活,成本低且重建速度快,同时兼顾了三维重建方案的低成本与重建效率的要求。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1为本发明提供的基于双目相机的三维重建方法较佳实施例的流程图;
图2为本发明提供的基于双目相机的三维重建方法较佳实施例中的对极几何图;
图3为本发明提供的基于双目相机的三维重建方法较佳实施例中双目视差原理图;
图4为本发明提供的基于双目相机的三维重建方法较佳实施例中三角面片生成示意图;
图5为本发明提供的基于双目相机的三维重建装置较佳实施例的硬件结构示意图。
具体实施方式
为使本发明的目的、技术方案及效果更加清楚、明确,以下对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。以下结合附图对本发明实施例进行介绍。
请参阅图1,图1为本发明提供的基于双目相机的三维重建方法较佳实施例的流程图。如图1所示,其包括如下步骤:
S100、通过平行排布的双目相机分别对目标进行拍摄,计算两幅目标图像的共视区域的点云数据;
S200、根据所述点云数据对目标进行三维重建,得到三维立体网格模型;
S300、对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型。
本实施例中,在进行三维重建和纹理恢复时,采用一对平行排布在固定水平结构上的双目相机实现,即左目相机与右目相机处于同一水平面上且平行排布,通过双目相机分别对目标进行拍摄,得到两幅目标图像,之后计算两幅目标图像的共视区域的点云数据,即得到了共视区域的三维数据,根据所述点云数据对目标进行三维重建得到三维立体网格模型,再对该三维立体网格模型进行纹理贴图处理,使得三维立体网格模型具有纹理信息,因此本发明只需要通过两个高分辨率的相机获取目标图像,通过高速运算获取共视区域的点云数据即可实现三维模型的重建以及纹理恢复,成像方案结构简单、灵活,成本低且重建速度快,同时兼顾了三维重建方案的低成本与重建效率的要求。
进一步地,所述通过双目相机获取当前环境的包含深度信息的共视图数据,包括:
通过双目相机分别对目标进行拍摄,对两幅目标图像进行畸变校正与极线平行处理后输出共视图;
根据预设匹配算法对所述共视图进行深度数据计算,获取两幅目标图像的共视区域的点云数据。
本实施例中,采用双目相机来分别对目标进行拍摄,进而根据两幅目标图像的共视区域进行深度数据计算获取目标的深度信息,具体通过规格参数统一的左右两个相机分别获取两幅目标图像,两幅目标图像均只包含二维信息,不包括深度信息,对两幅目标图像进行畸变校正与极线平行处理后输出共视图,该共视图是左右两个相机像平面的公共部分,具有基线和极线都处于垂直于深度坐标轴Z的平面上以及基线和极线平行的特点,之后根据预设匹配算法对所述共视图进行立体匹配实现深度数据计算,获取两幅目标图像的共视区域的点云数据,实现共视区域深度信息的输出,获取目标的三维信息,由于进行了极线平行处理,在进行立体匹配时只需在同一行上搜索左右像平面的匹配点即可,使深度计算效率大大提高。其中所述双目相机的规格参数可根据实际需要选择,本发明对此不作限定。
进一步地,所述对两幅目标图像进行畸变校正与极线平行处理后输出共视图,包括:
对双目相机进行标定,获取双目相机的内参、外参和畸变参数;
根据所述内参将目标图像从图像像素坐标系转换至相机坐标系;
通过所述外参对目标图像进行极线平行处理,通过所述畸变参数对目标图像的相机坐标进行畸变校正;
根据所述内参将经过畸变校正与极线平行处理后的目标图像从相机坐标系转换至图像像素坐标系,输出共视图。
本实施例中,在采用双目相机拍摄目标图像之前,需要对双目相机进行标定,分别获取左右两个相机的内参、外参和畸变参数,以单相机标定为例,在不考虑畸变的情况下,根据相机的成像原理,世界坐标系的点P(X,Y,Z)到图像像素坐标系上点p(u,v)转换关系如下:
其中,fx、fy为水平和竖直方向的焦距,cx、cy为水平竖直方向的主光轴点,一般为图像的中心,R、T为世界坐标系到相机坐标系的旋转矩阵及平移向量,s为伸缩系数。
当考虑相机的畸变时,对于径向畸变,使用以下公式:
xcorrected=x(1+k1r2+k2r4+k3r6) (3-2)
ycorrected=y(1+k1r2+k2r4+k3r6) (3-3)
x、y为未校正前的图像物理坐标,xcorrected和ycorrected为校正后的图像物理坐标,k1、k2、k3为径向畸变参数,r为成像位置到图像物理坐标系原点的距离。
而因为镜头不能和成像平面完美平行而导致的切向畸变,用如下公式进行校正:
xcorrected=x+[2p1xy+p2(r2+2x2)] (3-4)
ycorrected=y+[p1(r2+2y2)+2p2xy] (3-5)
x、y为未校正前的图像物理坐标,xcorrected和ycorrected为校正后的图像物理坐标,p1、p2为切向畸变参数,r为成像位置到图像物理坐标系原点的距离。
具体标定过程为打印一张棋盘格,将其贴在一个平面上作为标定物,通过调整标定物或者相机的方向,为棋盘格拍摄若干不同方向的照片,从照片中提取棋盘格交点,根据上述坐标转换与畸变校正过程求解得到相机的内参、外参以及畸变参数,本实施例中优选拍摄十张以上的棋盘格进行标定,以获取准确的相机标定参数。
获取双目相机的内参、外参和畸变参数后,根据所述内参将目标图像从图像像素坐标系转换至相机坐标系,其与图像像素坐标系比较,多了缩放和Z轴数据,之后通过所述畸变参数对目标图像的相机坐标进行畸变校正(公式3-2、3-3、3-4、3-5),且通过所述外参对目标图像进行极线平行处理。
具体地,极线平行校正前双目相机位姿如图2所示,校正前的左右相机的光轴并不是平行的。两个光心O1、O2的连线为基线;e1和e2为极点,是像平面与基线的交点;线段p1e1和线段p2e2为极线,是像点与极点的连线,左右极线与基线构成的平面就是空间点对应的极平面,校正后,极点在无穷远处,两个相机的光轴平行,像点在左右图像上的高度一致,处于同一平面上。这也就是极线平行校正的目标,校正后在后续的立体匹配时,只需在同一行上搜索左右像平面的匹配点即可,能使效率大大提高。
R为两个相机之间的旋转矩阵,rl为要达到极线平行,左侧相机需旋转的矩阵,rr为要达到极线平行,右侧相机需要旋转的矩阵,因此经过公式3-6、3-7后可通过旋转矩阵rl和rr进行平行极线校正,在经过畸变校正与平行极线校正后,此时相机的左右两路相机的像平面都垂直于深度坐标轴Z,获得了经过匹配的共视图,通过内参将校正后的图像从相机坐标系转换至图像像素坐标系,输出共视图以用于后续的深度计算。
进一步地,所述根据预设匹配算法对所述共视图进行深度数据计算,获取两幅目标图像的共视区域的点云数据,包括:
根据预设匹配算法对双目相机获取的两幅目标图像进行像素匹配,计算输出每个像素点的视差;
根据每个像素点的视差、双目相机光心之间的距离以及双目相机的焦距对所述共视图进行深度数据计算,获取两幅目标图像的共视区域的点云数据。
本实施例中,获取了共视图后,需要进一步进行立体匹配从而计算生成点云数据,具体为根据预设匹配算法对双目相机获取的两幅目标进行像素匹配,计算输出每个像素点的视差,具体实施时,所述预设匹配算法优选为SGBM算法,其为一种用于计算双目视觉中视差(disparity)的半全局块匹配算法,在匹配计算前,先采用水平sobel算子对双目相机拍摄的两幅图像作预处理,使用如下卷积核:
重新映射后得到图像的梯度信息:
其中,k为常数参数,可取15;p为像素灰度值,之后使用SGBM算法对双目相机分别获取的两幅图像进行像素匹配,计算输出每个像素点的视差。
之后根据三角形相似原理计算图像的深度信息生成点云数据,具体如图3所示,ol为左相机的光心,Or为右相机的光心,B为基线,即两相机光心的距离,Z为物距,即物体的深度距离,f为焦距,p为左图像素点,p’为右图对应的像素点,xl为p点的水平坐标,xr为p’的水平坐标,根据三角形相似原理,可得:
因此可推到得出深度为:
其中d为像素点之间的视差,即计算输出每个像素点的视差并生成点云后,可根据每个像素点的视差、双目相机光心之间的距离以及双目相机的焦距计算输出所述共视图的深度数据,进而生成所述共视图的三维点云数据。
进一步优选地,所述根据所述点云数据对目标进行三维重建,得到三维立体网格模型之前,包括:
对所述点云数据进行点云滤波预处理。
即在经过双目视差计算,获得三维点云数据后,由于在点云数据中存在一定的测量噪声和误差,本发明中,进一步采用了直通滤波的方法对点云数据进行滤波预处理,具体为沿着z轴方向,过滤掉z方向大于某个阈值的所有点,因为较大的z值,用双目估计的准确度比较低,从而对共视图的深度数据实现去噪,提高后续三维重建的准确性。
进一步地,所述根据所述点云数据对目标进行三维重建,得到三维立体网格模型,包括:
给定预设离散点,将点云数据投影至水平面上;
逐行遍历每个点,将相邻点构成三角面片;
恢复预设离散点的深度值,生成三维立体网格模型。
本实施例中,在根据三维点云数据对目标进行三维重建时,先给定一片预设离散点,将点云数据投影至xy水平面上,然后从左往右、从上到下逐行遍历每个点,将相邻点构成三角面片,如图4所示,将相邻的右边点、下方点或相邻左边点、上方点构成三角面片,之后恢复预设离散点的深度值即z值,进而得到三维立体网格模型,通过点云数据逐行遍历的方式进行三维重建,重建速度快,提高了三维模型重建的效率。
进一步地,对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型,包括:
根据所述点云数据获取每个三维点对应的纹理坐标;
根据所述纹理坐标对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型。
本实施例中,在进行立体匹配生成点云数据后,根据所述点云数据获取每个三维点对应的纹理坐标,具体可根据相机成像原理,对图像进行畸变校正后,根据公式3-1可推导出已知的三维点XYZ对应的纹理坐标uv,从而获取到每个三维点对应的纹理坐标,之后再根据所述纹理坐标对三维立体玩个模型进行纹理贴图处理,使三维立体网格模型进一步具有纹理信息,最后输具有纹理信息的目标三维模型,完成带有纹理的三维模型重建,重建方式简单灵活且效率高,无需搭建复杂系统即可实现,很好地平衡了三维重建中系统成本与重建效率之间的要求。
本发明另一实施例提供一种基于双目相机的三维重建装置,如图5所示,装置10包括双目相机(图中未示出),以及:
一个或多个处理器110以及存储器120,图5中以一个处理器110为例进行介绍,处理器110和存储器120可以通过总线或者其他方式连接,图5中以通过总线连接为例。
处理器110用于完成装置10的各种控制逻辑,其可以为通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、单片机、ARM(Acorn RISCMachine)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。还有,处理器110还可以是任何传统处理器、微处理器或状态机。处理器110也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP核、或任何其它这种配置。
存储器120作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的基于双目相机的三维重建方法对应的程序指令。处理器110通过运行存储在存储器120中的非易失性软件程序、指令以及单元,从而执行装置10的各种功能应用以及数据处理,即实现上述方法实施例中的基于双目相机的三维重建方法。
存储器120可以包括存储程序区和存储数据区,其中,存储程序区可存储操作装置、至少一个功能所需要的应用程序;存储数据区可存储根据装置10使用所创建的数据等。此外,存储器120可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器120可选包括相对于处理器110远程设置的存储器,这些远程存储器可以通过网络连接至装置10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
一个或者多个单元存储在存储器120中,当被一个或者多个处理器110执行时,执行上述任意方法实施例中的基于双目相机的三维重建方法,例如,执行以上描述的图1中的方法步骤S100至步骤S300。
本发明实施例提供了一种非易失性计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,例如,执行以上描述的图1中的方法步骤S100至步骤S300。
作为示例,非易失性存储介质能够包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦ROM(EEPROM)或闪速存储器。易失性存储器能够包括作为外部高速缓存存储器的随机存取存储器(RAM)。通过说明丽非限制,RAM可以以诸如同步RAM(SRAM)、动态RAM、(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、Synchlink DRAM(SLDRAM)以及直接Rambus(兰巴斯)RAM(DRRAM)之类的许多形式得到。本文中所描述的操作环境的所公开的存储器组件或存储器旨在包括这些和/或任何其他适合类型的存储器中的一个或多个。
本发明的另一种实施例提供了一种计算机程序产品,计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被处理器执行时,使所述处理器执行上述方法实施例的基于双目相机的三维重建方法。例如,执行以上描述的图1中的方法步骤S100至步骤S300。
综上所述,本发明公开的基于双目相机的三维重建方法及装置中,所述方法包括:通过平行排布的双目相机分别对目标进行拍摄,计算两幅目标图像的共视区域的点云数据;根据所述点云数据对目标进行三维重建,得到三维立体网格模型;对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型。本发明实施例通过双目相机获取两幅目标图像,计算获取两幅目标图像共视区域的点云数据来实现三维重建与纹理恢复,成像方案结构简单、灵活,成本低且重建速度快,同时兼顾了三维重建方案的低成本与重建效率的要求。
以上所描述的实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施例的描述,本领域的技术人员可以清楚地了解到各实施例可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件实现。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存在于计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机电子设备(可以是个人计算机,服务器,或者网络电子设备等)执行各个实施例或者实施例的某些部分的方法。
除了其他之外,诸如"能够'、"能"、"可能"或"可以"之类的条件语言除非另外具体地陈述或者在如所使用的上下文内以其他方式理解,否则一般地旨在传达特定实施方式能包括(然而其他实施方式不包括)特定特征、元件和/或操作。因此,这样的条件语言一般地不旨在暗示特征、元件和/或操作对于一个或多个实施方式无论如何都是需要的或者一个或多个实施方式必须包括用于在有或没有学生输入或提示的情况下判定这些特征、元件和/或操作是否被包括或者将在任何特定实施方式中被执行的逻辑。
已经在本文中在本说明书和附图中描述的内容包括能够提供基于双目相机的三维重建方法及装置的示例。当然,不能够出于描述本公开的各种特征的目的来描述元件和/或方法的每个可以想象的组合,但是可以认识到,所公开的特征的许多另外的组合和置换是可能的。因此,显而易见的是,在不脱离本公开的范围或精神的情况下能够对本公开做出各种修改。此外,或在替代方案中,本公开的其他实施例从对本说明书和附图的考虑以及如本文中所呈现的本公开的实践中可能是显而易见的。意图是,本说明书和附图中所提出的示例在所有方面被认为是说明性的而非限制性的。尽管在本文中采用了特定术语,但是它们在通用和描述性意义上被使用并且不用于限制的目的。
Claims (7)
1.一种基于双目相机的三维重建方法,其特征在于,包括如下步骤:
通过平行排布的双目相机分别对目标进行拍摄,计算两幅目标图像的共视区域的点云数据;
根据所述点云数据对目标进行三维重建,得到三维立体网格模型;
对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型;
所述通过平行排布的双目相机分别对目标进行拍摄,计算两幅目标图像的共视区域的点云数据,包括:
通过双目相机分别对目标进行拍摄,对两幅目标图像进行畸变校正与极线平行处理后输出共视图;
根据预设匹配算法对所述共视图进行深度数据计算,获取两幅目标图像的共视区域的点云数据;
所述根据所述点云数据对目标进行三维重建,得到三维立体网格模型之前,还包括:
对所述点云数据进行点云滤波预处理;
所述根据所述点云数据对目标进行三维重建,得到三维立体网格模型,包括:
给定预设离散点,将点云数据投影至水平面上;
逐行遍历每个点,将相邻点构成三角面片;
恢复预设离散点的深度值,生成三维立体网格模型。
2.根据权利要求1所述的基于双目相机的三维重建方法,其特征在于,所述对两幅目标图像进行畸变校正与极线平行处理后输出共视图,包括:
对双目相机进行标定,获取双目相机的内参、外参和畸变参数;
根据所述内参将目标图像从图像像素坐标系转换至相机坐标系;
通过所述外参对目标图像进行极线平行处理,通过所述畸变参数对目标图像的相机坐标进行畸变校正;
根据所述内参将经过畸变校正与极线平行处理后的目标图像从相机坐标系转换至图像像素坐标系,输出共视图。
3.根据权利要求1所述的基于双目相机的三维重建方法,其特征在于,所述根据预设匹配算法对所述共视图进行深度数据计算,获取两幅目标图像的共视区域的点云数据,包括:
根据预设匹配算法对双目相机获取的两幅目标图像进行像素匹配,计算输出每个像素点的视差;
根据每个像素点的视差、双目相机光心之间的距离以及双目相机的焦距对所述共视图进行深度数据计算,获取两幅目标图像的共视区域的点云数据。
4.根据权利要求3所述的基于双目相机的三维重建方法,其特征在于,对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型,包括:
根据所述点云数据获取每个三维点对应的纹理坐标;
根据所述纹理坐标对所述三维立体网格模型进行纹理贴图处理,输出具有纹理信息的目标三维模型。
5.一种基于双目相机的三维重建装置,其特征在于,所述装置包括双目相机、至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4任一项所述的基于双目相机的三维重建方法。
6.一种非易失性计算机可读存储介质,其特征在于,所述非易失性计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行时,可使得所述一个或多个处理器执行权利要求1-4任一项所述的基于双目相机的三维重建方法。
7.一种计算机程序产品,其特征在于,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被处理器执行时,使所述处理器执行权利要求1-4任一项所述的基于双目相机的三维重建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910577732.XA CN110349251B (zh) | 2019-06-28 | 2019-06-28 | 一种基于双目相机的三维重建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910577732.XA CN110349251B (zh) | 2019-06-28 | 2019-06-28 | 一种基于双目相机的三维重建方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110349251A CN110349251A (zh) | 2019-10-18 |
CN110349251B true CN110349251B (zh) | 2020-06-16 |
Family
ID=68177171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910577732.XA Active CN110349251B (zh) | 2019-06-28 | 2019-06-28 | 一种基于双目相机的三维重建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110349251B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111223053A (zh) * | 2019-11-18 | 2020-06-02 | 北京邮电大学 | 基于深度图像的数据增强方法 |
CN111062990B (zh) * | 2019-12-13 | 2023-06-02 | 哈尔滨工程大学 | 一种面向水下机器人目标抓取的双目视觉定位方法 |
CN110907457A (zh) * | 2019-12-19 | 2020-03-24 | 长安大学 | 基于3d点云数据的集料形态特征检测系统及检测方法 |
CN110895823B (zh) * | 2020-01-10 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 一种三维模型的纹理获取方法、装置、设备及介质 |
CN111369666A (zh) * | 2020-03-02 | 2020-07-03 | 中国电子科技集团公司第五十二研究所 | 一种基于多台rgbd相机的动态目标重建方法和装置 |
CN111553850B (zh) * | 2020-03-30 | 2023-10-24 | 深圳一清创新科技有限公司 | 基于双目立体视觉的三维信息获取方法和装置 |
CN111524174B (zh) * | 2020-04-16 | 2023-08-29 | 上海航天控制技术研究所 | 一种动平台动目标双目视觉三维构建方法 |
CN111724432B (zh) * | 2020-06-04 | 2023-08-22 | 杭州飞步科技有限公司 | 物体三维检测方法和装置 |
CN112288689B (zh) * | 2020-10-09 | 2024-03-22 | 浙江清华长三角研究院 | 一种显微手术成像过程中术区三维重建方法及系统 |
CN112529960A (zh) * | 2020-12-17 | 2021-03-19 | 珠海格力智能装备有限公司 | 目标对象的定位方法、装置、处理器和电子装置 |
CN112581542A (zh) * | 2020-12-24 | 2021-03-30 | 北京百度网讯科技有限公司 | 自动驾驶单目标定算法的评估方法、装置及设备 |
CN112686877B (zh) * | 2021-01-05 | 2022-11-11 | 同济大学 | 基于双目相机的三维房屋损伤模型构建测量方法及系统 |
CN112767484B (zh) * | 2021-01-25 | 2023-09-05 | 脸萌有限公司 | 定位模型的融合方法、定位方法、电子装置 |
CN113012293B (zh) * | 2021-03-22 | 2023-09-29 | 平安科技(深圳)有限公司 | 石刻模型构建方法、装置、设备及存储介质 |
CN112927271B (zh) * | 2021-03-31 | 2024-04-05 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、存储介质与电子设备 |
CN113052898B (zh) * | 2021-04-08 | 2022-07-12 | 四川大学华西医院 | 基于主动式双目相机的点云和强反光目标实时定位方法 |
CN113034490B (zh) * | 2021-04-16 | 2023-10-10 | 北京石油化工学院 | 化学品库房的堆垛安全距离监测方法 |
CN113160335A (zh) * | 2021-04-28 | 2021-07-23 | 哈尔滨理工大学 | 一种基于双目视觉的模型点云及三维表面重建方法 |
CN113793255A (zh) * | 2021-09-09 | 2021-12-14 | 百度在线网络技术(北京)有限公司 | 用于图像处理的方法、装置、设备、存储介质和程序产品 |
CN114898068B (zh) * | 2022-05-19 | 2023-10-20 | 海尔数字科技(上海)有限公司 | 三维建模方法、装置、设备及存储介质 |
CN115272618B (zh) * | 2022-09-20 | 2022-12-20 | 深圳市其域创新科技有限公司 | 三维网格优化方法、设备及存储介质 |
CN115546071B (zh) * | 2022-11-28 | 2023-03-31 | 南京视云信息科技有限公司 | 一种适于图像恢复的数据处理方法和设备 |
CN115880448A (zh) * | 2022-12-06 | 2023-03-31 | 温州鹿城佳涵网络技术服务工作室 | 基于双目成像的三维测量方法、装置、设备及存储介质 |
CN116543091B (zh) * | 2023-07-07 | 2023-09-26 | 长沙能川信息科技有限公司 | 输电线路的可视化方法、系统、计算机设备和存储介质 |
CN116665139B (zh) * | 2023-08-02 | 2023-12-22 | 中建八局第一数字科技有限公司 | 堆状物料体积识别方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107170043A (zh) * | 2017-06-19 | 2017-09-15 | 电子科技大学 | 一种三维重建方法 |
CN108053435A (zh) * | 2017-11-29 | 2018-05-18 | 深圳奥比中光科技有限公司 | 基于手持移动设备的动态实时三维重建方法和系统 |
KR20180066551A (ko) * | 2016-12-09 | 2018-06-19 | 한국과학기술원 | 전방향 카메라의 깊이 지도 획득 방법 및 장치 |
CN109003325A (zh) * | 2018-06-01 | 2018-12-14 | 网易(杭州)网络有限公司 | 一种三维重建的方法、介质、装置和计算设备 |
CN109816782A (zh) * | 2019-02-03 | 2019-05-28 | 哈尔滨理工大学 | 一种基于双目视觉的室内场景三维重建方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104517280B (zh) * | 2013-11-14 | 2017-04-12 | 广东朗呈医疗器械科技有限公司 | 三维成像方法 |
CN106683068B (zh) * | 2015-11-04 | 2020-04-07 | 北京文博远大数字技术有限公司 | 一种三维数字化图像采集方法 |
CN109215109A (zh) * | 2017-07-06 | 2019-01-15 | 幻视互动(北京)科技有限公司 | 一种基于深度摄像模组的三维重建方法及装置 |
CN108335350A (zh) * | 2018-02-06 | 2018-07-27 | 聊城大学 | 双目立体视觉的三维重建方法 |
-
2019
- 2019-06-28 CN CN201910577732.XA patent/CN110349251B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180066551A (ko) * | 2016-12-09 | 2018-06-19 | 한국과학기술원 | 전방향 카메라의 깊이 지도 획득 방법 및 장치 |
CN107170043A (zh) * | 2017-06-19 | 2017-09-15 | 电子科技大学 | 一种三维重建方法 |
CN108053435A (zh) * | 2017-11-29 | 2018-05-18 | 深圳奥比中光科技有限公司 | 基于手持移动设备的动态实时三维重建方法和系统 |
CN109003325A (zh) * | 2018-06-01 | 2018-12-14 | 网易(杭州)网络有限公司 | 一种三维重建的方法、介质、装置和计算设备 |
CN109816782A (zh) * | 2019-02-03 | 2019-05-28 | 哈尔滨理工大学 | 一种基于双目视觉的室内场景三维重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110349251A (zh) | 2019-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110349251B (zh) | 一种基于双目相机的三维重建方法及装置 | |
CN106780590B (zh) | 一种深度图的获取方法及系统 | |
CN108122191B (zh) | 鱼眼图像拼接成全景图像和全景视频的方法及装置 | |
JP5285619B2 (ja) | カメラシステムのキャリブレーション | |
CN104537707B (zh) | 像方型立体视觉在线移动实时测量系统 | |
CN106447602B (zh) | 一种图像拼接方法及装置 | |
CN105654547B (zh) | 三维重建方法 | |
TW201715880A (zh) | 一種全景魚眼相機影像校正、合成與景深重建方法與其系統 | |
WO2013005265A1 (ja) | 三次元座標計測装置及び三次元座標計測方法 | |
WO2014110954A1 (en) | Method, device and computer-readable storage medium for panoramic image completion | |
CN111080776B (zh) | 人体动作三维数据采集和复现的处理方法及系统 | |
CN110336991B (zh) | 一种基于双目相机的环境提示方法及装置 | |
WO2019232793A1 (zh) | 双摄像头标定方法、电子设备、计算机可读存储介质 | |
CN116433843A (zh) | 基于双目视觉重建路线的三维模型重建方法及装置 | |
BR112021008558A2 (pt) | aparelho, método de estimativa de disparidade, e produto de programa de computador | |
CN114119987A (zh) | 基于卷积神经网络的特征提取和描述子生成方法及系统 | |
CN109859313B (zh) | 3d点云数据获取方法、装置、3d数据生成方法及系统 | |
CN108961378B (zh) | 一种多目点云三维重建方法、装置及其设备 | |
Zhang et al. | Pseudo-LiDAR point cloud magnification | |
CN111432117A (zh) | 图像矫正方法、装置和电子系统 | |
CN112509124B (zh) | 深度图获得方法及系统及无人机正射图生成方法及介质 | |
CN110148086B (zh) | 稀疏深度图的深度补齐方法、装置及三维重建方法、装置 | |
CN113223137A (zh) | 透视投影人脸点云图的生成方法、应用程序及电子设备 | |
CN111915741A (zh) | 一种基于三维重建的vr生成器 | |
Kang et al. | A highly accurate dense approach for homography estimation using modified differential evolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 518000 1001, Beiyou science and technology building, No.42, Gaoxin South Ring Road, high tech Zone community, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province Patentee after: Shenzhen digital Big Data Technology Co.,Ltd. Address before: 518000 18 / F, unit 1, building B, Kexing Science Park, 15 Keyuan Road, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province Patentee before: SHENZHEN SHUWEI MEDIA TECHNOLOGY Co.,Ltd. |