CN105825518A - 基于移动平台拍摄的序列图像快速三维重建方法 - Google Patents
基于移动平台拍摄的序列图像快速三维重建方法 Download PDFInfo
- Publication number
- CN105825518A CN105825518A CN201610195877.XA CN201610195877A CN105825518A CN 105825518 A CN105825518 A CN 105825518A CN 201610195877 A CN201610195877 A CN 201610195877A CN 105825518 A CN105825518 A CN 105825518A
- Authority
- CN
- China
- Prior art keywords
- image
- mobile platform
- matrix
- point
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于移动平台拍摄的序列图像快速三维重建方法,主要解决了现有三维重建方法处理速度慢的问题,其实现方案是:1.利用移动平台拍摄场景目标的序列图像,在拍摄图像的同时记录移动平台中微惯性传感器输出的数据;2.对序列图像进行SIFT特征点检测与匹配得到序列图像特征点匹配集合;3.利用微惯性传感器数据计算移动平台拍摄图像时姿态矩阵与位置信息;4.由姿态矩阵与位置信息求解图像序列对应的投影矩阵;5.根据序列图像特征点匹配集合与对应的投影矩阵计算场景中三维点坐标,完成序列图像三维重建。本发明提高了运动恢复结构SFM三维重建的速度,可用于室内外场景三维重建。
Description
技术领域
本发明属于图像处理技术领域,具体的说是一种对序列图像的快速三维重建方法,可用与室内外场景的三维重建。
背景技术
近年来随着微机电系统的快速发展,微惯性传感器普遍应用于移动平台中,常见的移动平台有智能手机、无人机、机器人等,此类移动平台共有的特点为搭载有较高分辨率的摄像头,并于自身中集成由检测自身运动状态的微型传感器。
同时,随着人们认知水平和获取信息能力的提高,二维图像已经不能满足工作和生活的需要。相对于二维图像,三维模型对于处在常规尺度下的人类是最直观的结构,我们最习惯的方式就是从三维的角度去观察物体、环境,因此三维重建就成了计算机视觉和虚拟现实等领域的主要研究热点之一。三维重建是指为三维物体建立适合计算机表示和处理的数学模型,是在计算机环境下对物体进行处理、操作和分析其性质的基础,也是在计算机中建立表达客观世界的虚拟现实环境的关键技术。因此,物体三维重建是计算机辅助几何设计(CAGD)、计算机图形学(CG)、医学影像处理、虚拟与增强现实(VR&AR)和数字媒体创作等领域的共性科学问题和核心技术,具有非常高的研究价值。
目前,三维重建的方法可以分为三类:第一,直接利用数字模型或三维建模软件,如AutoCAD、3Dmax等建立模型,此方法需要专业的技术人员进行处理,并且建模周期长,相应建模成本比较高;第二,利用机械或非接触性扫描设备对真实物体进行扫描,如Kinect等,进而重构出模型,其结果比较准确,但是由于采用结构光进行深度估计,不能适用于室外场景目标的重建;第三,利用运动恢复结构SFM的方法重建物体三维模型,SFM是指通过分析序列图像来寻找场景中物体的三维结构的过程,具有低成本、方便、灵活的特点。然而,在SFM三维重建方法的初始重构和增量式重构过程中,需要利用匹配的特征点计算相机之间的位姿关系,该方法是一种以暴力循环的方式寻找最优解的过程,耗时较高且受图像误匹配点影响很大;同时,在利用本质矩阵计算相机平移向量时,丢失真实比例因子,因此基于运动恢复结构(SFM)的三维重建结果是尺度模糊的。
发明内容
本发明的目的在于针对上述已有技术的问题,提出一种基于移动平台拍摄的序列图像快速三维重建方法,将序列图像与移动平台中微惯性传感器的输出信息相结合,简化运动恢复结构SFM中计算相机位姿的过程,并恢复三维模型的真实尺度。
为实现上述目的,本发明的技术方案包括如下:
(1)利用移动平台拍摄场景目标序列图像,并对采集的序列图像进行编号,分别记为{I1,I2...Ij...IM},其中Ij为第j幅图像的编号,1≤j≤M,M为拍摄图像的总个数;
(2)在拍摄目标序列图像的过程中,记录第i个采样点时移动平台的微惯性传感器中加速度计输出数据ai、磁力计输出数据mi和陀螺仪输出数据ωi,其中i=1,2...N,为总的采样点数,H为拍摄序列图像时所用的总时间,Δt为移动平台微惯性传感器的采样间隔;
(3)对移动平台采集的序列图像{I1,I2...Ij...IM}通过尺度不变特征变换SIFT进行特征点检测与匹配,得到序列图像的特征点匹配集合NA={NA1,2,NA1,3...NAk, l...NAM-1,M},其中NAk,l表示第k幅图像与第l幅图像之间的匹配特征点集;
(4)恢复移动平台拍摄图像时的位姿信息:
(4a)利用记录的传感器数据ai,mi,ωi通过互补滤波算法计算移动平台在第i个采样点时的姿态矩阵R(i);
(4b)利用加速度输出数据ai检测移动平台拍摄图像时所对应的采样点,分别记为t1,t2...tj...tM,其中tj为拍摄第j幅图像时所对应的采样点;
(4c)利用移动平台的姿态矩阵R(i)与其拍摄图像时所对应的采样点t1,t2...tj...tM,得出移动平台在拍摄图像时所对应的姿态矩阵R(t1),R(t2)...R(tj)...R(tM),其中R(tj)表示移动平台在拍摄第j幅图像时对应的姿态矩阵;
(4d)利用移动平台拍摄图像时所对应的采样点t1,t2...tj...tM、姿态矩阵R(i)和记录的加速度数据ai通过零速修正算法恢复移动平台拍摄图像时的位置信息S(t1),S(t2)....S(tj)...S(tM),其中S(tj)表示移动平台拍摄第j幅图像时的位置信息;
(5)场景目标三维重建:
(5a)以编号为I1的图像所对应的相机坐标系作为三维重建过程中的参考坐标系;
(5b)利用移动平台的姿态矩阵R(t1),R(t2)...R(tj)...R(tM)与位置信息S(t1),S(t2)....S(tj)...S(tM)计算编号为Ij的图像在参考坐标系下的相机投影矩阵φj,1≤j≤M;
(5c)根据相机投影矩阵φj,利用三角化方法重建出图像对{I1,I2}的匹配特征点集NA1,2所对应的三维点,并将图像I1,I2标记为已使用;
(5d)选择未使用图像中编号最小的一幅图像,并从特征点匹配集合NA中找出该图像与已使用的图像中编号最大的图像的匹配特征点集,根据相机投影矩阵φj,利用三角化方法重建该匹配点集对应的三维点,并将该图像标记为已使用;
(5e)重复步骤(5d)直到所有的图像序列都已经使用,完成序列图像的三维重建。
本发明具有如下优点:
1)本发明由于利用移动平台的微惯性传感器输出信息恢复移动平台拍摄图像时的位姿信息,简化了SFM中计算相机位姿的过程;
2)本发明计算出的移动平台拍摄图像时的位置信息S(t1),S(t2)....S(tj)...S(tM)具有真实的比例因子,消除了SFM三维重建结果的尺度模糊。
3)本发明由于利用零速修正法计算移动平台拍摄图像时的位置信息,较好的抑制了加速度计的累积积分误差。
附图说明
图1是本发明的实现流程图;
图2是本发明中进行互补滤波的子流程图;
图3是本发明仿真中使用的利用移动平台拍摄的序列图像;
图4是用本发明对移动平台加速度计输出数据进行巴特沃斯低通滤波的仿真结果图;
图5是本发明仿真中移动平台拍摄图像时的位姿信息示意图;
图6是本发明仿真中利用序列图像进行三维重建的结果示意图。
具体实施方式
本发明中,利用移动平台围绕场景中待重建目标运动,在运动的过程中每隔一段时间拍摄一幅场景目标的图像,并且在拍摄图像的时刻使移动平台处于静止状态,同时在移动平台围绕场景目标运动的整个过程中记录移动平台的微惯性传感器中加速度计、磁力计和陀螺仪的输出数据,利用微惯性传感器中输出信息与场景目标的序列图像,进行场景目标的三维重建。
参照图1,本发明的实现步骤如下:
步骤1,获取场景目标的序列图像。
利用移动平台拍摄场景目标序列图像,并将采集的序列图像按拍摄的先后顺序进行编号,分别记为{I1,I2...Ij...IM},其中Ij为第j幅图像的编号,1≤j≤M,M为拍摄图像的总个数。
步骤2,记录移动平台微惯性传感器输出信息。
在拍摄目标序列图像的过程中,记录第i个采样点时移动平台的微惯性传感器中加速度计输出数据ai、磁力计输出数据mi和陀螺仪输出数据ωi,其中i=1,2...N,为总的采样点数,H为拍摄序列图像时所用的总时间,Δt为移动平台微惯性传感器的采样间隔。
步骤3,对采集的序列图像{I1,I2...Ij...IM}进行尺度不变特征变换SIFT特征检测与匹配。
尺度不变特征变换SIFT是一种计算机视觉算法,用来检测与描述图像中的局部性特征,该算法具有对图像旋转、缩放和光照变换保持不变性的特点,能够满足本发明中对移动平台拍摄的具有旋转和缩放属性的序列图像进行特征检测与匹配的需求,其实现步骤如下:
(3.1)对序列图像进行SIFT特征检测:
对序列图像{I1,I2...Ij...IM}中的每一幅图像,在其高斯差分尺度空间DOG中检测极值点作为图像的特征点,其中DOG尺度空间定义为两个不同尺度的高斯核的差分,DOG尺度空间表示为:D(u,v,σ)=(G(u,v,kσ)-G(u,v,σ))*I(u,v),D(u,v,σ)表示高斯差分函数,G(u,v,σ)表示尺度可变的高斯核函数,σ为尺度参数,I(u,v)表示需要进行特征点检测的图像,(u,v)表示图像像素点的横纵坐标,k表示比例因子;
(3.2)对序列图像进行特征匹配:
在对序列图像{I1,I2...Ij...IM}中每一幅图像进行SIFT特征点检测之后,利用最近邻算法查找序列图像中每幅图像的SIFT特征点在除该幅图像之外的其他图像中的匹配特征点,得到序列图像的特征点匹配集合NA={NA1,2,NA1,3...NAk,l...NAM-1,M},其中NAk,l表示第k幅图像与第l幅图像之间的匹配特征点集。
步骤4,恢复移动平台拍摄图像时的位姿信息。
本发明在移动平台拍摄图像的同时,采集其微惯性传感器的输出信息,利用微惯性传感器输出信息恢复移动平台在拍摄图像时的相对位姿,即拍摄图像时的姿态矩阵与位置信息,具体计算过程如下:
(4.1)计算移动平台在第i个采样点时的姿态矩阵R(i):
移动平台的姿态矩阵R(i)即地理坐标系到载体坐标系的旋转矩阵,本发明中载体坐标系的定义与移动平台中微惯性传感器PCB板规定的自身坐标系重合,地理坐标系的定义为:平行于地面指向东方为Xe轴,平行于地面指向北方为Ye轴,Ze轴垂直于地面指向地心,移动平台的姿态矩阵R(i)计算步骤如下:
(4.1.1)将第i个采样点时陀螺仪输出数据ωi代入四元数微分方程中,计算第i个采样点时由地理坐标系到载体坐标系的角速度旋转四元数qω,i,其中qω,i-1为第i-1个采样点时角速度旋转四元数的值,矩阵[0ωi]是陀螺仪输出数据ωi的四元数表示形式;
(4.1.2)利用在第i个采样点的加速度计输出数据ai和磁力计输出数据mi,计算第i个采样点时由地理坐标系到载体坐标系的梯度旋转四元数qΛ,i:其中qΛ,i-1为第i-1个采样点时梯度旋转四元数的值,μi为收敛因子,是函数的梯度,为qΛ,i-1的共轭四元数,g=[001]T,b=[010]T,T表示矩阵的转置,为梯度的二范数;
(4.1.3)利用互补滤波算法融合角速度旋转四元数qω,i和梯度旋转四元数qΛ,i得到由地理坐标系到载体坐标系的融合旋转四元数qi:
如图2所示,将角速度旋转四元数qω,i和梯度旋转四元数qΛ,i通过互补滤波算法进行融合,滤除加速度计和磁力计因受到干扰等因素引起的输出数据的高频噪声,同时消除陀螺仪积分累积的低频噪声,得到表示移动平台准确姿态的融合旋转四元数qi:
qi=γqΛ,i+(1-γ)qω,i,0≤γ≤1<3>
其中γ为比例因子,0≤γ≤1;
(4.1.4)由融合旋转四元数qi计算移动平台姿态矩阵R(i),在求出第i个采样点时融合旋转四元数qi之后,利用融合四元数qi计算移动平台在第i个采样点时的姿态矩阵R(i):
其中,q0为融合旋转四元数qi的实部,q1,q2,q3为融合旋转四元数qi的虚部;
(4.2)检测移动平台拍摄图像时所对应的采样点t1,t2...tj...tM,为了后续计算移动平台拍摄图像时的姿态矩阵与位置信息,需要检测移动平台拍摄图像时所对应的采样点,具体步骤如下:
(4.2.1)令tM所对应的采样点为第N个采样点,N为总的采样点数;
(4.2.2)将加速度计输出数据ai输入到巴特沃斯低通滤波器中,将滤波器输出的方波中第α个下降沿所对应的采样点赋值给tα,1≤α≤M-1;
(4.3)将移动平台拍摄图像时所对应的采样点t1,t2...tj...tM代入到移动平台的姿态矩阵R(i)中得到移动平台拍摄图像时的姿态矩阵R(t1),R(t2)....R(tM);
(4.4)计算移动平台拍摄图像时的位置信息,利用移动平台拍摄图像时所对应的采样点t1,t2...tj...tM,姿态矩阵R(i)和记录的加速度数据ai通过零速修正算法恢复移动平台拍摄图像时的位置信息S(t1),S(t2)....S(tj)...S(tM):
(4.4.1)将加速度计输出数据ai转换到地理坐标系下:
记录的加速度计输出数据ai是基于载体坐标系的,由于载体坐标系是固定在移动平台上的,当移动平台的姿态发生变化时,载体坐标系姿态也在发生变化,无法根据载体坐标系下加速度计输出数据ai直接计算出移动平台的位置信息,需要将加速度计输出数据ai转换到姿态固定的地理坐标系下,其转换公式如下:
Acci=R(i)T·ai<5>
其中Acci表示第i个采样点时地理坐标系下加速度的值,R(i)T表示在第i个采样点时姿态矩阵R(i)的转置;
(4.4.2)利用地理坐标系下加速度的值Acci计算在第i个采样点时移动平台的速度:v(i)=v(i-1)+Acci·Δt,其中v(i-1)为第i-1个采样点时移动平台的速度,Δt为移动平台微惯性传感器的采样间隔;
(4.4.3)修正第i个采样点时的速度v(i),若直接利用v(i)计算移动平台的位置信息,会产生巨大的累积误差,本发明利用移动平台拍摄图像时所对应的采样点t1,t2...tj...tM将拍摄目标序列图像的过程分为M个子过程,修正第i个采样点时的速度v(i),使每个子过程结束时移动平台的速度为零,当第i个采样点属于第j个子过程时,第i个采样点修正后的速度vc(i)为:
(4.4.4)利用修正后的速度vc(i)计算拍摄目标序列图像过程中第i个采样点时移动平台的位置:S(i)=S(i-1)+vc(i)·Δt,其中S(i-1)为第i-1个采样点时移动平台的位置;
(4.4.5)将移动平台拍摄图像时所对应的采样点t1,t2...tj...tM代入到移动平台的位置S(i)中,得到移动平台拍摄图像时的位置信息S(t1),S(t2)....S(tj)...S(tM),其中S(tj)表示移动平台拍摄第j幅图像时的位置信息;
步骤5,场景目标三维重建。
根据二维图像中的像素点恢复出该点的空间三维坐标的过程称为三维重建,对于移动平台拍摄的序列图像的三维重建,本发明采用增量式的重建过程,先重建出图像对{I1,I2}的匹配特征点集NA1,2所对应的三维点,再添加未使用的图像进行多幅图像的目标三维重建,具体过程如下:
(5.1)以编号为I1的图像所对应的相机坐标系作为三维重建过程中的参考坐标系;
(5.2)计算编号为Ij的图像在参考坐标系下的相机投影矩阵φj,1≤j≤M,投影矩阵表征了三维空间点投影到二维平面点的运算过程,投影矩阵φj的计算步骤如下:
(5.2.1)从序列图像的可交换图像文件EXIF中提取相机焦距的物理长度fm,利用相机焦距的物理长度fm计算相机焦距的像素长度:f=Wim·fm/WCCD,其中WCCD为移动平台中电荷耦合元件CCD的宽度,Wim为移动平台拍摄的图像的宽度;
(5.2.2)利用相机焦距的像素长度f计算相机内参矩阵其中Him为移动平台拍摄的图像的高度;
(5.2.3)利用移动平台拍摄图像时所对应的姿态矩阵R(t1),R(t2)...R(tj)...R(tM),计算编号为Ij的图像在参考坐标系下的相机旋转矩阵Rotj:
其中Rtra表示由载体坐标系到相机坐标系的转换矩阵,R(t1)-1表示姿态矩阵R(t1)的逆矩阵,表示Rtra的逆矩阵;
(5.2.4)利用移动平台拍摄图像时所对应的位置信息S(t1),S(t2)....S(tj)...S(tM),计算编号为Ij的图像在参考坐标系下的相机平移向量Tj:
Tj=-Rotj·R(t1)·Rtra[S(tj)-S(t1)],1≤j≤M<8>
(5.2.5)利用相机内参矩阵K、相机旋转矩阵Rotj和相机平移向量Tj,计算编号为Ij的图像在参考坐标系下的相机投影矩阵φj:
φj=K·[RotjTj],1≤j≤M;<9>
(5.3)根据相机投影矩阵φj,利用三角化方法重建出图像对{I1,I2}的匹配特征点集NA1,2所对应的三维点,并将图像I1,I2标记为已使用,重建图像对{I1,I2}的匹配特征点集NA1,2所对应的三维点:
(5.3.1)根据相机投影矩阵φj,1≤j≤M,得到图像对{I1,I2}所对应的投影矩阵分别记为
(5.3.2)将图像对{I1,I2}的匹配特征点集NA1,2中第d个匹配特征点在第一幅图像I1上的像素坐标设为(ud,vd)T,在第二幅图像I2上的像素坐标设为(u′d,v′d)T,其中(ud,vd)表示第d个匹配特征点在第一幅图像中的像素点横纵坐标,(u′d,v′d)表示第d个匹配特征点在第二幅图像中的像素点横纵坐标;
(5.3.3)将第d个匹配特征点像素坐标(ud,vd)T与(u′d,v′d)T代入到矩阵方程:中,计算出匹配特征点集NA1,2中第d个匹配特征点的空间三维坐标Xd,其中P11,P12,P13表示投影矩阵P1的行向量,P21,P22,P23表示投影矩阵P2的行向量,(u,v)表示第一幅图像中像素点的横纵坐标,(u′,v′)表示第二幅图像中像素点的横纵坐标,X表示像素点的空间三维坐标;
(5.3.4)利用步骤(5.3.3)中的矩阵方程计算出匹配特征点集NA1,2中所有的匹配特征点所对应的空间三维坐标,即重建出图像对{I1,I2}的匹配特征点集NA1,2所对应的三维点;
(5.4)选择未使用图像中编号最小的一幅图像,并从特征点匹配集合NA中找出该图像与已使用的图像中编号最大的图像的匹配特征点集,根据相机投影矩阵φj,利用三角化方法重建该匹配点集对应的三维点,并将该图像标记为已使用;
(5.5)重复步骤(5.4)直到所有的图像序列都已经使用,完成序列图像的三维重建。
本发明的效果可以通过以下实验进一步说明。
本发明在移动平台围绕待重建目标运动的过程中拍摄了9幅图像用于序列图像的三维重建,移动平台拍摄的序列图像如图3所示。
实验1,用本发明对移动平台加速度计输出数据进行巴特沃斯低通滤波的仿真,结果如图4所示。
由图4的结果可以看出,本发明对加速度计输出数据进行巴特沃斯低通滤波之后可以检测出移动平台拍摄图像时所对应的采样点。
实验2,用本发明对移动平台的微惯性传感器输出信息进行处理,得到的移动平台拍摄图像时的位姿信息,结果如图5所示。
由图5可以看出,本发明利用移动平台的微惯性传感器输出信息能够恢复移动平台拍摄图像时的位姿信息,简化了运动恢复结构SFM方法中求解相机位姿的过程。
实验3,用本发明中利用移动平台拍摄的9幅序列图像进行三维重建的结果如图6所示。
由图6可以看出,本发明利用移动平台拍摄的序列图像与移动平台的微惯性传感器信息能够重建出场景目标的三维点。
实验4,用本发明的方法与运动恢复结构SFM方法对图3中的序列图像进行三维重建,重建结果的比较如表1所示:
表1本发明的方法与SFM方法的重建结果比较
由表1所示的实验结果可以看出,由于本发明简化了SFM方法中求解相机位姿的过程,减少了三维重建过程的时间。
Claims (6)
1.基于移动平台拍摄的序列图像快速三维重建方法,包括:
(1)利用移动平台拍摄场景目标序列图像,并对采集的序列图像进行编号,分别记为{I1,I2...Ij...IM},其中Ij为第j幅图像的编号,1≤j≤M,M为拍摄图像的总个数;
(2)在拍摄目标序列图像的过程中,记录第i个采样点时移动平台的微惯性传感器中加速度计输出数据ai、磁力计输出数据mi和陀螺仪输出数据ωi,其中i=1,2...N,为总的采样点数,H为拍摄序列图像时所用的总时间,Δt为移动平台微惯性传感器的采样间隔;
(3)对移动平台采集的序列图像{I1,I2...Ij...IM}通过尺度不变特征变换SIFT进行特征点检测与匹配,得到序列图像的特征点匹配集合NA={NA1,2,NA1,3...NAk,l...NAM-1,M},其中NAk,l表示第k幅图像与第l幅图像之间的匹配特征点集;
(4)恢复移动平台拍摄图像时的位姿信息:
(4a)利用记录的传感器数据ai,mi,ωi通过互补滤波算法计算移动平台在第i个采样点时的姿态矩阵R(i);
(4b)利用加速度输出数据ai检测移动平台拍摄图像时所对应的采样点,分别记为t1,t2...tj...tM,其中tj为拍摄第j幅图像时所对应的采样点;
(4c)利用移动平台的姿态矩阵R(i)与其拍摄图像时所对应的采样点t1,t2...tj...tM,得出移动平台在拍摄图像时所对应的姿态矩阵R(t1),R(t2)...R(tj)...R(tM),其中R(tj)表示移动平台在拍摄第j幅图像时对应的姿态矩阵;
(4d)利用移动平台拍摄图像时所对应的采样点t1,t2...tj...tM、姿态矩阵R(i)和记录的加速度数据ai通过零速修正算法恢复移动平台拍摄图像时的位置信息S(t1),S(t2)....S(tj)...S(tM),其中S(tj)表示移动平台拍摄第j幅图像时的位置信息;
(5)重建三维场景目标:
(5a)以编号为I1的图像所对应的相机坐标系作为三维重建过程中的参考坐标系;
(5b)利用移动平台的姿态矩阵R(t1),R(t2)...R(tj)...R(tM)与位置信息S(t1),S(t2)....S(tj)...S(tM)计算编号为Ij的图像在参考坐标系下的相机投影矩阵φj,1≤j≤M;
(5c)根据相机投影矩阵φj,利用三角化方法重建出图像对{I1,I2}的匹配特征点集NA1,2所对应的三维点,并将图像I1,I2标记为已使用;
(5d)选择未使用图像中编号最小的一幅图像,并从特征点匹配集合NA中找出该图像与已使用的图像中编号最大的图像的匹配特征点集,根据相机投影矩阵φj,利用三角化方法重建该匹配点集对应的三维点,并将该图像标记为已使用;
(5e)重复步骤(5d)直到所有的图像序列都已经使用,完成序列图像的三维重建。
2.根据权利要求1所述的三维重建方法,其中所述步骤(4a)中计算移动平台在第i个采样点时的姿态矩阵R(i),按如下步骤进行:
(4a1)将第i个采样点时陀螺仪输出数据ωi代入四元数微分方程中,计算第i个采样点时由地理坐标系到载体坐标系的角速度旋转四元数qω,i,其中qω,i-1为第i-1个采样点时角速度旋转四元数的值,矩阵[0ωi]是陀螺仪输出数据ωi的四元数表示,地理坐标系的定义为:平行于地面指向东方为Xe轴,平行于地面指向北方为Ye轴,Ze轴垂直于地面指向地心,载体坐标系的定义与移动平台中微惯性传感器PCB板规定的自身坐标系重合;
(4a2)利用在第i个采样点的加速度计输出数据ai和磁力计输出数据mi,计算第i个采样点时由地理坐标系到载体坐标系的梯度旋转四元数qΛ,i:其中qΛ,i-1为第i-1个采样点时梯度旋转四元数的值,μi为收敛因子,是函数的梯度,为qΛ,i-1的共轭四元数,g=[001]T,b=[010]T,T表示矩阵的转置,为梯度的二范数;
(4a3)利用在第i个采样点的角速度旋转四元数qω,i和梯度旋转四元数qΛ,i,计算第i个采样点时由地理坐标系到载体坐标系的融合旋转四元数qi:qi=γqΛ,i+(1-γ)qω,i,其中γ为比例因子,0≤γ≤1;
(4a4)利用融合旋转四元数qi计算出移动平台在第i个采样点时的姿态矩阵R(i):
其中q0为融合旋转四元数qi的实部,q1,q2,q3为融合旋转四元数qi的虚部。
3.根据权利要求1所述的三维重建方法,其中所述步骤(4b)中检测移动平台拍摄图像时所对应的采样点t1,t2...tj...tM,按如下步骤进行:
(4b1)令tM所对应的采样点为第N个采样点,N为总的采样点数;
(4b2)将加速度计输出数据ai输入到巴特沃斯低通滤波器中,将滤波器输出的方波中第α个下降沿所对应的采样点赋值给tα,1≤α≤M-1。
4.根据权利要求1所述的三维重建方法,其中所述步骤(4d)中通过零速修正算法恢复移动平台拍摄图像时的位置信息S(t1),S(t2)....S(tj)...S(tM),按如下步骤进行:
(4d1)将加速度计输出数据ai代入到由载体坐标系下加速度到地理坐标系下加速度的转换公式:Acci=R(i)Tai中,得到在第i个采样点时地理坐标系下加速度的值Acci,1≤i≤N,R(i)T表示在第i个采样点姿态矩阵R(i)的转置;
(4d2)利用地理坐标系下加速度的值Acci计算在第i个采样点时移动平台的速度:v(i)=v(i-1)+Acci·Δt,其中v(i-1)为第i-1个采样点时移动平台的速度,Δt为移动平台微惯性传感器的采样间隔;
(4d3)利用移动平台拍摄图像时所对应的采样点t1,t2...tj...tM将拍摄目标序列图像的过程分为M个子过程,修正第i个采样点时的速度v(i),使每个子过程结束时移动平台的速度为零,当第i个采样点属于第j个子过程时,第i个采样点修正后的速度vc(i)为:
(4d4)利用修正后的速度vc(i)计算拍摄目标序列图像过程中第i个采样点时移动平台的位置:S(i)=S(i-1)+vc(i)·Δt,其中S(i-1)为第i-1个采样点时移动平台的位置;
(4d5)将移动平台拍摄图像时所对应的采样点t1,t2...tj...tM代入到移动平台的位移S(i)中得到移动平台拍摄图像时的位置信息S(t1),S(t2)....S(tj)...S(tM)。
5.根据权利要求1所述的三维重建方法,其中所述步骤(5b)中计算编号为Ij的图像在参考坐标系下的相机投影矩阵φj,1≤j≤M,按如下步骤进行:
(5b1)从序列图像的可交换图像文件EXIF中提取相机焦距的物理长度fm,利用相机焦距的物理长度fm计算相机焦距的像素长度:f=Wim·fm/WCCD,其中WCCD为移动平台中电荷耦合元件CCD的宽度,Wim为移动平台拍摄的图像的宽度;
(5b2)利用相机焦距的像素长度f计算相机内参矩阵其中Him为移动平台拍摄的图像的高度;
(5b3)利用移动平台拍摄图像时所对应的姿态矩阵R(t1),R(t2)...R(tj)...R(tM),计算编号为Ij的图像在参考坐标系下的相机旋转矩阵Rotj:
其中Rtra表示由载体坐标系到相机坐标系的转换矩阵,R(t1)-1表示姿态矩阵R(t1)的逆矩阵,表示Rtra的逆矩阵;
(5b4)利用移动平台拍摄图像时所对应的位置信息S(t1),S(t2)....S(tj)...S(tM),计算编号为Ij的图像在参考坐标系下的相机平移向量Tj:
Tj=-Rotj·R(t1)·Rtra[S(tj)-S(t1)],1≤j≤M
(5b5)利用相机内参矩阵K、相机旋转矩阵Rotj和相机平移向量Tj,计算编号为Ij的图像在参考坐标系下的相机投影矩阵φj:
φj=K·[RotjTj],1≤j≤M。
6.根据权利要求1所述的三维重建方法,其中所述步骤(5c)中利用三角化方法重建出图像对{I1,I2}的匹配特征点集NA1,2所对应的三维点,按如下步骤进行:
(5c1)根据相机投影矩阵φj,1≤j≤M,得到图像对{I1,I2}所对应的投影矩阵分别记为
(5c2)将图像对{I1,I2}的匹配特征点集NA1,2中第d个匹配特征点在第一幅图像I1上的像素坐标设为(ud,vd)T,在第二幅图像I2上的像素坐标设为(u′d,v′d)T,其中(ud,vd)表示第d个匹配特征点在第一幅图像中的像素点横纵坐标,(u′d,v′d)表示第d个匹配特征点在第二幅图像中的像素点横纵坐标;
(5c3)将第d个匹配特征点像素坐标(ud,vd)T与(u′d,v′d)T代入到矩阵方程:中,计算出匹配特征点集NA1,2中第d个匹配特征点的空间三维坐标Xd,其中P11,P12,P13表示投影矩阵P1的行向量,P21,P22,P23表示投影矩阵P2的行向量,(u,v)表示第一幅图像中像素点的横纵坐标,(u′,v′)表示第二幅图像中像素点的横纵坐标,X表示像素点的空间三维坐标;
(5c4)利用步骤(5c3)中的矩阵方程计算出匹配特征点集NA1,2中所有的匹配特征点所对应的空间三维坐标,即重建出图像对{I1,I2}的匹配特征点集NA1,2所对应的三维点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610195877.XA CN105825518B (zh) | 2016-03-31 | 2016-03-31 | 基于移动平台拍摄的序列图像快速三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610195877.XA CN105825518B (zh) | 2016-03-31 | 2016-03-31 | 基于移动平台拍摄的序列图像快速三维重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105825518A true CN105825518A (zh) | 2016-08-03 |
CN105825518B CN105825518B (zh) | 2019-03-01 |
Family
ID=56525468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610195877.XA Active CN105825518B (zh) | 2016-03-31 | 2016-03-31 | 基于移动平台拍摄的序列图像快速三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105825518B (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106815556A (zh) * | 2016-12-20 | 2017-06-09 | 华中科技大学 | 一种多数据类型的平面群集运动数据采集系统 |
CN108259858A (zh) * | 2018-04-10 | 2018-07-06 | 四川华雁信息产业股份有限公司 | 变电站场景与设备的监控方法及装置 |
CN108648224A (zh) * | 2018-05-18 | 2018-10-12 | 杭州电子科技大学 | 一种基于人工神经网络的实时场景布局识别及重建的方法 |
CN109146965A (zh) * | 2017-06-16 | 2019-01-04 | 精工爱普生株式会社 | 信息处理装置和计算机程序 |
CN109410330A (zh) * | 2018-11-12 | 2019-03-01 | 中国十七冶集团有限公司 | 一种基于bim技术无人机航拍建模方法 |
CN109815301A (zh) * | 2018-12-21 | 2019-05-28 | 平安科技(深圳)有限公司 | 线缆标签管理方法、装置、计算机设备及存储介质 |
CN109978931A (zh) * | 2019-04-04 | 2019-07-05 | 北京悉见科技有限公司 | 三维场景重建方法及设备、存储介质 |
CN110047104A (zh) * | 2017-12-26 | 2019-07-23 | 精工爱普生株式会社 | 对象检测和跟踪方法、头戴式显示装置和存储介质 |
CN110366670A (zh) * | 2017-03-02 | 2019-10-22 | 深圳市大疆创新科技有限公司 | 三维形状推断方法、飞行体、移动平台、程序及记录介质 |
CN110533589A (zh) * | 2019-07-18 | 2019-12-03 | 上海大学 | 一种基于变焦显微图像序列的三维模型拼接方法 |
CN110555908A (zh) * | 2019-08-28 | 2019-12-10 | 西安电子科技大学 | 基于室内移动目标背景修复的三维重建方法 |
CN110750094A (zh) * | 2018-07-23 | 2020-02-04 | 杭州海康威视数字技术股份有限公司 | 确定可移动设备的位姿变化信息的方法、装置和系统 |
CN110930510A (zh) * | 2019-11-29 | 2020-03-27 | 广东优世联合控股集团股份有限公司 | 城市空间三维重建方法 |
CN110992487A (zh) * | 2019-12-10 | 2020-04-10 | 南京航空航天大学 | 手持式飞机油箱快速三维地图重建装置及重建方法 |
CN111247389A (zh) * | 2019-03-29 | 2020-06-05 | 深圳市大疆创新科技有限公司 | 关于拍摄设备的数据处理方法、装置及图像处理设备 |
CN111815765A (zh) * | 2020-07-21 | 2020-10-23 | 西北工业大学 | 一种基于异构数据融合的图像三维重建方法 |
CN112288817A (zh) * | 2020-11-18 | 2021-01-29 | Oppo广东移动通信有限公司 | 基于图像的三维重建处理方法及装置 |
TWI717726B (zh) * | 2019-04-30 | 2021-02-01 | 財團法人國家實驗研究院 | 一種繞地衛星姿態資料融合系統及其方法 |
CN113379822A (zh) * | 2020-03-16 | 2021-09-10 | 天目爱视(北京)科技有限公司 | 一种基于采集设备位姿信息获取目标物3d信息的方法 |
CN113504385A (zh) * | 2021-06-30 | 2021-10-15 | 上海爱观视觉科技有限公司 | 复数相机测速方法及测速装置 |
CN118138717A (zh) * | 2024-01-04 | 2024-06-04 | 西南计算机有限责任公司 | 一种面向无人平台集群的图像传输方法 |
JP7580614B2 (ja) | 2021-06-30 | 2024-11-11 | 安徽愛観視覚科技有限公司 | 複数カメラによる速度測定方法及び速度測定装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102445200A (zh) * | 2011-09-30 | 2012-05-09 | 南京理工大学 | 微小型个人组合导航系统及其导航定位方法 |
-
2016
- 2016-03-31 CN CN201610195877.XA patent/CN105825518B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102445200A (zh) * | 2011-09-30 | 2012-05-09 | 南京理工大学 | 微小型个人组合导航系统及其导航定位方法 |
Non-Patent Citations (5)
Title |
---|
WALTER T. HIGGINS等: "A Comparison of Complementary and Kalman Filtering", 《IEEE TRANACTIONS ON AEROSPACE AND ELECTRONIC SYSTEMS》 * |
刘洁瑜等: "《军队"2110工程"三期建设教材 导弹惯性导航技术》", 28 February 2016 * |
朱文杰等: "基于 MIMU 和磁强计的在线实时定姿方法", 《传感技术学报》 * |
王云舒等: "结构光辅助的惯性/视觉室内导航三维环境重构方法", 《中国惯性技术学报》 * |
郭复胜等: "基于辅助信息的无人机图像批处理三维重建方法", 《自动化学报》 * |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106815556A (zh) * | 2016-12-20 | 2017-06-09 | 华中科技大学 | 一种多数据类型的平面群集运动数据采集系统 |
CN110366670A (zh) * | 2017-03-02 | 2019-10-22 | 深圳市大疆创新科技有限公司 | 三维形状推断方法、飞行体、移动平台、程序及记录介质 |
CN109146965A (zh) * | 2017-06-16 | 2019-01-04 | 精工爱普生株式会社 | 信息处理装置和计算机程序 |
CN110047104B (zh) * | 2017-12-26 | 2023-12-08 | 精工爱普生株式会社 | 对象检测和跟踪方法、头戴式显示装置和存储介质 |
CN110047104A (zh) * | 2017-12-26 | 2019-07-23 | 精工爱普生株式会社 | 对象检测和跟踪方法、头戴式显示装置和存储介质 |
CN108259858A (zh) * | 2018-04-10 | 2018-07-06 | 四川华雁信息产业股份有限公司 | 变电站场景与设备的监控方法及装置 |
CN108259858B (zh) * | 2018-04-10 | 2020-10-30 | 华雁智能科技(集团)股份有限公司 | 变电站场景与设备的监控方法及装置 |
CN108648224A (zh) * | 2018-05-18 | 2018-10-12 | 杭州电子科技大学 | 一种基于人工神经网络的实时场景布局识别及重建的方法 |
CN108648224B (zh) * | 2018-05-18 | 2021-07-13 | 杭州电子科技大学 | 一种基于人工神经网络的实时场景布局识别及重建的方法 |
CN110750094A (zh) * | 2018-07-23 | 2020-02-04 | 杭州海康威视数字技术股份有限公司 | 确定可移动设备的位姿变化信息的方法、装置和系统 |
CN109410330A (zh) * | 2018-11-12 | 2019-03-01 | 中国十七冶集团有限公司 | 一种基于bim技术无人机航拍建模方法 |
CN109815301A (zh) * | 2018-12-21 | 2019-05-28 | 平安科技(深圳)有限公司 | 线缆标签管理方法、装置、计算机设备及存储介质 |
WO2020198963A1 (zh) * | 2019-03-29 | 2020-10-08 | 深圳市大疆创新科技有限公司 | 关于拍摄设备的数据处理方法、装置及图像处理设备 |
CN111247389A (zh) * | 2019-03-29 | 2020-06-05 | 深圳市大疆创新科技有限公司 | 关于拍摄设备的数据处理方法、装置及图像处理设备 |
CN109978931A (zh) * | 2019-04-04 | 2019-07-05 | 北京悉见科技有限公司 | 三维场景重建方法及设备、存储介质 |
TWI717726B (zh) * | 2019-04-30 | 2021-02-01 | 財團法人國家實驗研究院 | 一種繞地衛星姿態資料融合系統及其方法 |
CN110533589A (zh) * | 2019-07-18 | 2019-12-03 | 上海大学 | 一种基于变焦显微图像序列的三维模型拼接方法 |
CN110555908A (zh) * | 2019-08-28 | 2019-12-10 | 西安电子科技大学 | 基于室内移动目标背景修复的三维重建方法 |
CN110930510A (zh) * | 2019-11-29 | 2020-03-27 | 广东优世联合控股集团股份有限公司 | 城市空间三维重建方法 |
CN110992487B (zh) * | 2019-12-10 | 2020-09-29 | 南京航空航天大学 | 手持式飞机油箱快速三维地图重建装置及重建方法 |
CN110992487A (zh) * | 2019-12-10 | 2020-04-10 | 南京航空航天大学 | 手持式飞机油箱快速三维地图重建装置及重建方法 |
CN113379822B (zh) * | 2020-03-16 | 2024-03-22 | 天目爱视(北京)科技有限公司 | 一种基于采集设备位姿信息获取目标物3d信息的方法 |
CN113379822A (zh) * | 2020-03-16 | 2021-09-10 | 天目爱视(北京)科技有限公司 | 一种基于采集设备位姿信息获取目标物3d信息的方法 |
CN111815765B (zh) * | 2020-07-21 | 2022-07-05 | 西北工业大学 | 一种基于异构数据融合的图像三维重建方法 |
CN111815765A (zh) * | 2020-07-21 | 2020-10-23 | 西北工业大学 | 一种基于异构数据融合的图像三维重建方法 |
CN112288817A (zh) * | 2020-11-18 | 2021-01-29 | Oppo广东移动通信有限公司 | 基于图像的三维重建处理方法及装置 |
CN112288817B (zh) * | 2020-11-18 | 2024-05-07 | Oppo广东移动通信有限公司 | 基于图像的三维重建处理方法及装置 |
CN113504385A (zh) * | 2021-06-30 | 2021-10-15 | 上海爱观视觉科技有限公司 | 复数相机测速方法及测速装置 |
WO2023273427A1 (zh) * | 2021-06-30 | 2023-01-05 | 安徽爱观视觉科技有限公司 | 复数相机测速方法及测速装置 |
CN113504385B (zh) * | 2021-06-30 | 2023-07-14 | 安徽爱观视觉科技有限公司 | 复数相机测速方法及测速装置 |
JP7580614B2 (ja) | 2021-06-30 | 2024-11-11 | 安徽愛観視覚科技有限公司 | 複数カメラによる速度測定方法及び速度測定装置 |
CN118138717A (zh) * | 2024-01-04 | 2024-06-04 | 西南计算机有限责任公司 | 一种面向无人平台集群的图像传输方法 |
CN118138717B (zh) * | 2024-01-04 | 2024-09-10 | 西南计算机有限责任公司 | 一种面向无人平台集群的图像传输方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105825518B (zh) | 2019-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105825518A (zh) | 基于移动平台拍摄的序列图像快速三维重建方法 | |
Zhang et al. | A UAV-based panoramic oblique photogrammetry (POP) approach using spherical projection | |
Ventura et al. | Wide-area scene mapping for mobile visual tracking | |
Jiang et al. | Unmanned Aerial Vehicle-Based Photogrammetric 3D Mapping: A survey of techniques, applications, and challenges | |
Wei et al. | Applications of structure from motion: a survey | |
CN109166149A (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN104794737B (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN109242873A (zh) | 一种基于消费级彩色深度相机对物体进行360度实时三维重建的方法 | |
CN107680133A (zh) | 一种基于改进闭环检测算法的移动机器人视觉slam方法 | |
CN107424181A (zh) | 一种改进的图像拼接关键帧快速提取方法 | |
Pan et al. | Rapid scene reconstruction on mobile phones from panoramic images | |
CN106447766A (zh) | 一种基于移动设备单目相机的场景重建方法及装置 | |
CN112833892B (zh) | 一种基于轨迹对齐的语义建图方法 | |
CN110675453B (zh) | 一种已知场景中运动目标的自定位方法 | |
CN111368759B (zh) | 基于单目视觉的移动机器人语义地图构建系统 | |
Cheng et al. | Near-real-time gradually expanding 3D land surface reconstruction in disaster areas by sequential drone imagery | |
CN111860651B (zh) | 一种基于单目视觉的移动机器人半稠密地图构建方法 | |
CN101794459A (zh) | 一种立体视觉影像与三维虚拟物体的无缝融合方法 | |
CN113593001A (zh) | 目标对象三维重建方法、装置、计算机设备和存储介质 | |
CN105488541A (zh) | 增强现实系统中基于机器学习的自然特征点识别方法 | |
CN113284239B (zh) | 一种关于智慧城市的电子沙盘制作方法及装置 | |
CN116563377A (zh) | 一种基于半球投影模型的火星岩石测量方法 | |
CN104463962B (zh) | 基于gps信息视频的三维场景重建方法 | |
Ye et al. | A coarse-to-fine visual geo-localization method for GNSS-denied UAV with oblique-view imagery | |
CN107345814A (zh) | 一种移动机器人视觉定位系统及定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |