CN116309844A - 一种基于无人机单张航空图片的三维测量方法 - Google Patents

一种基于无人机单张航空图片的三维测量方法 Download PDF

Info

Publication number
CN116309844A
CN116309844A CN202310303473.8A CN202310303473A CN116309844A CN 116309844 A CN116309844 A CN 116309844A CN 202310303473 A CN202310303473 A CN 202310303473A CN 116309844 A CN116309844 A CN 116309844A
Authority
CN
China
Prior art keywords
image
point
dimensional
coordinate system
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310303473.8A
Other languages
English (en)
Inventor
高骞
王传云
胡安琪
王恩刚
孙冬冬
杨健祺
刘明慧
孙云飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Aerospace University
Original Assignee
Shenyang Aerospace University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Aerospace University filed Critical Shenyang Aerospace University
Priority to CN202310303473.8A priority Critical patent/CN116309844A/zh
Publication of CN116309844A publication Critical patent/CN116309844A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明提供一种基于无人机单张航空图片的三维测量方法,涉及计算机视觉技术领域。本发明通过无人机相机获得待检测图像,构造小孔成像模型,将二维空间坐标转化至三维空间坐标,将已知的若干控制点的坐标系进行数据转换,进行相机标定获得相机内外参数,矫正待处理图像的畸变问题,并将待处理图像进行灰度化预处理,构造了一种端到端的单目三维物体测量模型,将处理后图像输入至三维物体测量模型中,优化了视频中三维测量技术,不限于目标物体的类型,大幅度提高了检测正确率。并且能够以无监督的方式从简单的视频中学习,容易迁移到其他数据集上。

Description

一种基于无人机单张航空图片的三维测量方法
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于无人机单张航空图片的三维测量方法。
背景技术
计算机视觉是指利用计算机来实现人类的相关视觉功能,计算机视觉技术作为一门新兴学科,它涉及到信号处理、人工智能、图像处理和模式识别等多个领域。近年来,随着人工智能技术以及数字图像处理技术的飞速发展,计算机视觉技术已经被广泛应用于各个行业如航空航天等。三维视觉测量的开创性工作是从六十年代中期开始的,美国麻省理工学院的Robert完成了三维景物分析开创性工作,把对二维图像推广到了三维图像,三维视觉技术由此诞生。在之后的二十年中,三维视觉测量迅速发展成为一门学科。D.Marr创立的立体视觉计算理论对三维视觉技术的发展产生了深远影响。三维视觉测量在军事、航空航天和目标识别等领域应用变得非常广泛。当前对于三维视觉测量方法的性能在不断提高,其理论和方法也处于不断发展和完善之中。
当代所生产的无人机具有成本费用低、灵活度高、容易操作、体积小等特点,目前被应用在了更多多元化的场景中。无人机航拍是极具创新性的成像方式,它的智能分析处理可以快速高效地提取所拍摄图像中的物体信息。无人机航空拍摄系统可用如数码相机、磁测仪或激光扫描仪等机载遥感设备,获取指定区域范围内的图像,再进行相关图像数据的处理。恢复一张图像中某一个物体的三维信息是无人机航空拍摄系统一个非常重要的研究方向,而物体的三维信息研究的一个非常重要的基础环节就是测量目标物体的长宽高。三维测量信息图像中的目标分割、目标行为分析与场景动态分析,对以无人机为背景的其他技术具有重要的辅助。
发明内容
针对现有技术的不足,本发明提供一种基于无人机单张航空图片的三维测量方法。本发明能够提高测量精度,解决了现有三维物体测量需要人工参与的问题。该方法不限制于检测物体的类型,不需要考虑物体类别的差别性。
一种基于无人机单张航空图片的三维测量方法,具体包括以下步骤:
步骤1:利用无人机的相机进行单张图像拍摄并记录无人机拍摄时的飞行高度s。
步骤2:构造光学二维空间小孔成像模型,建立物距与焦距的关系,来确定空间中目标三维物体信息与图像二维成像之间的点面关系。
步骤2.1:建立物距与像距和焦距的关系表达式
Figure BDA0004145959960000025
其中焦距设为f,物体到镜头光心称为物距设为u,成像平面到镜头光心称为像距设为v;
步骤2.2:若己知物距v,设x1、y1为物体在三维空间的长和宽,x2、y2分别为物体摄像头所拍摄的二维图像的长和宽,则求得物距与焦距的关系公式,即光学二维空间小孔成像模型为:
Figure BDA0004145959960000021
步骤3:将二维空间坐标转化至三维空间坐标,将已知的若干控制点的坐标系进行数据转换。
步骤3.1:建立像素坐标系:在图像上定义直角坐标系,每一像素的坐标点(a,b)表示其坐标值,a和b分别是这个像素在数组中的行数与列数;
步骤3.2:建立图像坐标系:X轴和Y轴分别平行于二维图像的两条垂直边,用(x,y)表示像素坐标值,设(a0,b0)为二维图像的中心,相机中感光器件的尺寸为x*y,像素坐标系与图像坐标系之间的关系表示为:
Figure BDA0004145959960000022
其中a-a0和b-b0分别表示某以像素点坐标数值与中心点坐标数值的X轴差值与Y轴差值;
将上式改写成矩阵形式得:
Figure BDA0004145959960000023
将偏移项带入进乘积项中,构造一个三维矩阵乘法形式,转化为齐次坐标形式为:
Figure BDA0004145959960000024
步骤3.3:建立相机坐标系:相机坐标系中心点设为Ox,图像坐标系中心点设为Ot,Ox与的Ot相交点的延长线为Z轴,即步骤3.2所述图像坐标系的延伸,Z轴的方向服从物理学中的右手规则,根据欧拉旋转定理知三维空间的旋转顺序不可逆性,X和Y轴在一平面内且平行,Z轴与X和Y轴所称平面不平行,三维空间中的点P在二维平面的投影点设为P',再通过透视投影关系算出坐标,设点P在三维图像中的坐标为(x,y,z),点P在二维平面投影点P'的坐标(x',y')用步骤2.3中物距与焦距的关系公式及相似三角形比例关系求出透视投影关系公式:
Figure BDA0004145959960000031
用齐次坐标与矩阵表示前述的透视投影关系公式为:
Figure BDA0004145959960000032
步骤3.4:建立世界坐标系;
所述世界坐标系是描述摄像头所在位置的一个基准坐标系,由X轴、Y轴、Z轴组成;摄像机坐标系与世界坐标系之间的关系在用旋转矩阵R与偏移向量T来描述,即物体只需要被旋转和平移;若在三维空间中存在一点P,其在世界坐标系下与像机坐标系下的齐次坐标分别是(xs,ys,zs,1)与(x',y',z'),则存在如下关系:
Figure BDA0004145959960000033
建立像素坐标系与世界坐标系之间的变换关系:
Figure BDA0004145959960000034
式中,其中m及n是相机内部参数;
建立投影矩阵M为:
Figure BDA0004145959960000035
其中a0、b0为二维图像的中心点坐标,只与摄像机内部结构有关,为摄像机内部参数,是摄像头感光芯片安装时与理论中心的水平与垂直差值,
Figure BDA0004145959960000036
由摄像头相对于世界坐标系的方位决定,是相机相对于世界坐标系的平移变换关系,即摄像机外部参数;
步骤3.5:从图像坐标系转换到世界坐标系,己知摄像机的内外参数,获得投影矩阵M,对三维空间中的点P=(x,y,z),最终需要得到其在世界坐标系下的坐标Ps=(xs,ys,zs,1),求出在图像坐标系点P的位置(x,y),先从像素坐标系变换到相机坐标系,再由相机坐标系变换到世界坐标系,具体为:
Figure BDA0004145959960000041
其中,s为从世界坐标系转换到图像坐标系的尺度因子,t为平移矩阵。
步骤4:进行无人机相机标定,求出相机参数;
步骤4.1:根据步骤3.4中建立的像素坐标系与世界坐标系之间的变换关系,使用张氏标定法,每一个角点的像素坐标设为(a,b),每一个角点在世界坐标系下的物理坐标(A,B,C)=0来进行相机的标定,获得相机的内参矩阵和径向畸变参数。
步骤4.2:将2D空间中的图像点设为n=[a,b]T,3D空间中的图像点设为N=[x,y,z],齐次坐标分别为
Figure BDA0004145959960000042
三维空间坐标映射到二维图像坐标转换为/>
Figure BDA0004145959960000043
其中s为世界坐标系到图像坐标系的尺度因子,α和β分别为焦距与像素横纵比,γ为径向畸变参数,/>
Figure BDA0004145959960000044
为相机内参矩阵;
步骤4.3:求解相机内参,三维空间坐标到二维图像坐标的映射为:H=A[r1 r2t],其中r1和r2为两个相互正交的旋转向量,A=s*M,解Homographic矩阵进行单位性转换,将平面的点映射到另一个二维平面的投影,定义旋转矩阵的第i列为ri,棋盘格位于Z轴上,表示为:s*[a b 1]T=A[r1r2 r3 t]*c*[x y 0 1]T。Homography有8个自由度,r1和r2正交且模相等,得到约束式为:
Figure BDA0004145959960000045
式中,h1、h2分别表示矩阵H的第一列与第二列;
构造一个矩阵B,使得
Figure BDA0004145959960000046
且约束条件为:
Figure BDA0004145959960000047
式中,v代表图像中棋盘格的角点纵坐标,因棋盘格是长方形,所以只需要得知这个棋盘格的其中三个角点坐标就可以确定剩余一个角点坐标。v11、v12、v22分别表示棋盘格的左上方、右上方、右下方角点的纵坐标,b表示用奇异值分解最小奇异值对应的特征向量。
内参表达式如下:
Figure BDA0004145959960000051
Figure BDA0004145959960000052
Figure BDA0004145959960000053
Figure BDA0004145959960000054
Figure BDA0004145959960000055
Figure BDA0004145959960000056
其中,B11、B12、B13、B22、B23、B33公式表示矩阵B中不同位置元素,v0、u0表示中心点的实际位置坐标,λ为λ=s-1即尺度因子的逆矩阵,γ为径向畸变参数;
步骤4.4:求解相机外参:
r1=λM-1h1
r2=λM-1h1
r3=h1*h2
t=λM-1h3
其中,r1、r2、r3分别表示三个旋转向量,h1、h2、h3分别表示矩阵H的第一列、第二列和第三列;
根据旋转矩阵的性质得:||r1||=||λM-1h1||=1即
Figure BDA0004145959960000057
用h1求解推导出r1、r2、r3和t。
步骤5:解决图像畸变问题,对图像进行矫正;
步骤5.1:为解决因相机摄像头前方的透镜对光的传播路径的影响,对图像进行径向畸变矫正。
对于图像中某一点为点P,设xj为发生径向畸变后的该点横坐标,yj为发生径向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标,归一化极坐标表示为[r,θ],其中r为矢量长度,t是矢量的水平夹角,则径向畸变的矫正公式为:
xj=x*(1+k1r2+k3r6+k2r4)
yj=y*(1+k1r2+k3r6+k2r4)
其中,k1、k2、k3是径向畸变参数;
步骤5.2:为解决因在机械组装中的误差产生的影响,对图像进行切向畸变矫正。
对于图像中某一点为点P,设x0为发生横向畸变后的该点横坐标,y0为发生横向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标;用另外两个参数p1、p2进行纠正,则切向畸变的矫正公式为:
x0=x+2p1y+p2(r2+2x2)
y0=y+2p2x+p1(r2+2y2)
步骤5.3:联合步骤5.1和步骤5.2中的径向畸变、切向畸变矫正公式,对于相机坐标系中的点P[x,y,z],寻找它对应点的像素坐标的过程时将三维空间点投影到归一化图像平面,该点的像素坐标为:u=fx*x+cx,v=fy*y+cy。其中,u为像素点的横坐标,v为像素点的纵坐标,cx为图像像素中心点的横坐标,cy为图像像素中心点的横坐标。
步骤6:将图像进行预处理;
步骤6.1:直方图是在灰度范围[0,...,k,...,225]区间的功能函数,列出原图像的灰度级j,统计出原图像中每个灰度级所拥有的像素个数nj
步骤6.2:计算出原图像的各灰度级的灰度分布概率
Figure BDA0004145959960000061
其中n为直方图中的像素总个数,再计算出原图像的各灰度累积分布概率/>
Figure BDA0004145959960000062
其中k表示灰度级,,求出均衡化后的灰度级i=INT[(L-1)S(i)+0.5],INT()表示取整函数、L表示总灰度级数目、S(i)表示在i级的离散灰度,将(L-1)*p(k)进行四舍五入计算。
步骤6.3:确定原图像的灰度级与均衡化后的灰度级的映射关系j→i,再计算变换后的图像直方图
Figure BDA0004145959960000063
步骤7:设计一种端到端的单目三维物体测量模型,将预处理后的航拍图像输入到单目三维物体测量模型中,完成航空图片的三维测量。
步骤7.1:建立单目三维物体测量模型,所述单目三维物体测量模型包括backbone、关键点检测分支和3D框回归分支;其中所述backbone层使用DLA-34结构来提取特征,将所获取的二维的RGB图像输入至backbone层中,通过DLA-34输出特征图,其长和宽分别为输入图像的1/4,通道数为256;在backbone中加入GN层,GN层将channel分组,在每个group中做LN,再做归一化处理;
所述二维RGB图像中,设W代表图像宽度,H代表图像高度;用(d,w,l,x,y,z,θ)表示目标三维图像,其中(d,w,l)的分别表示目标三维图像的高、宽、长,(x,y,z)表示目标三维图像在相机坐标系中的中心坐标点,θ表示拍摄图像时摄像头角度,拍摄图像时的飞行高度为s,相机内参设为K,
Figure BDA0004145959960000071
步骤7.2:将步骤7.1中backbone层输出的特征图输入关键点检测分支网络层,所述关键点检测分支网络层用于寻找目标的3D中心点在二维图像中的投影点位置;在关键点检测分支网络层寻找输入图像中的关键点并标记绿色,将目标三维图像的中心点在二维图像平面的映射点[xcyc]T设为关键点,目标三维图像的中心点坐标设为[x y z]T,用坐标[xb,1 yb,1]T、[xb,2 yb,2]T、[xb,3 yb,3]T、[xb,4 yb,4]T、[xb,5 yb,5]T、[xb,6 yb,6]T、[xb,7 yb,7]T、[xb,8 yb,8]T分别表示目标三维图像的8个顶点在图像中的位置,并用
Figure BDA0004145959960000072
确定高斯函数的标准差,其中/>
Figure BDA0004145959960000073
表示为表示3D框的最小长方形。
步骤7.3:将步骤7.1中backbone层输出的特征图像及步骤7.2中所得得到的目标3D中心点输入至3D框回归分支网络层中,设δz表示深度偏移,δxc和δyc为量化误差,δd、δw、δl分别表示高、宽、长的残差,通过深度偏移求得目标的深度值z=μzzσz,μz、σz分别尺度因子和平移因子,物体的目标三维图像的中心点坐标表示为:
Figure BDA0004145959960000074
再求目标物体的长、宽、高表达式为:
Figure BDA0004145959960000075
在式中,
Figure BDA0004145959960000076
分别为公开的KITTI数据集中计算出的平均长度、宽度、高度,eδl、eδw、eδd分别为长宽高的残差值。
步骤7.5:根据角度和目标在三维空间中的位置求得摄像头角度
Figure BDA0004145959960000081
α是预测的观测角,则拍摄该物体时,无人机距离目标物体的直线距离m为/>
Figure BDA0004145959960000082
通过将航向角矩阵R绕x轴旋转得到矩阵Rθ,根据物体的长宽高[l w d]T和中心点坐标[x y z]T得到目标三维物体的8个角点坐标矩阵表示为:
Figure BDA0004145959960000083
采用上述技术方案所产生的有益效果在于:
本发明提供一种基于无人机单张航空图片的三维测量方法,本方法本申请提供了一种根据视频中给定的图像进行分布式三维测量的方法,能够提高测量精度,解决了现有三维物体测量需要人工参与的问题。该方法不限制于检测物体的类型,不需要考虑物体类别的差别性。
附图说明
图1为本发明实施例提供的单张图像三维测量方法中方案总体步骤示意图;
图2为本发明实施例提供的单张图像三维测量方法中灰度级处理步骤示意图;
图3为本发明实施例提供的单张图像三维测量方法中将预处理后的图像输入三维物体测量模型步骤示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
一种基于无人机单张航空图片的三维测量方法,如图1所示,具体包括以下步骤:
步骤1:利用无人机的相机进行单张图像拍摄并记录无人机拍摄时的飞行高度s。
本实施例中利用安装相机无人机进行图像拍摄,且无人机由控制端操控。无人机在飞行过程中其摄像头将当前环境画面实时直播至控制端,控制端找到目标物体后,无人机利用其拍摄设备进行图像拍摄,不局限于拍摄设备,同时需要记录无人机拍摄目标物体时的飞行高度为s。
步骤2:构造光学二维空间小孔成像模型,建立物距与焦距的关系,来确定空间中目标三维物体信息与图像二维成像之间的点面关系。
步骤2.1:建立物距与像距和焦距的关系表达式
Figure BDA0004145959960000091
其中焦距设为f,物体到镜头光心称为物距设为u,成像平面到镜头光心称为像距设为v;
步骤2.2:若己知物距v,设x1、y1为物体在三维空间的长和宽,x2、y2分别为物体摄像头所拍摄的二维图像的长和宽,则求得物距与焦距的关系公式,即光学二维空间小孔成像模型为:
Figure BDA0004145959960000092
焦距的大小决定着视场角的大小,焦距数值与视场角大小成反比。
步骤3:将二维空间坐标转化至三维空间坐标,将已知的若干控制点的坐标系进行数据转换。摄像头拍到的图像的是二维的平面,最终想要将二维平面图像变为3D立体图像并进行三维测量就需要在不同参考坐标系进行相关转换,具体需从图像坐标系经过其他坐标系转换到世界坐标系。
步骤3.1:建立像素坐标系:在图像上定义直角坐标系,每一像素的坐标点(a,b)表示其坐标值,a和b分别是这个像素在数组中的行数与列数;
步骤3.2:建立图像坐标系:X轴和Y轴分别平行于二维图像的两条垂直边,用(x,y)表示像素坐标值,设(a0,b0)为二维图像的中心,相机中感光器件的尺寸为x*y,像素坐标系与图像坐标系之间的关系表示为:
Figure BDA0004145959960000093
其中a-a0和b-b0分别表示某以像素点坐标数值与中心点坐标数值的X轴差值与Y轴差值;
将上式改写成矩阵形式得:
Figure BDA0004145959960000094
将偏移项带入进乘积项中,构造一个三维矩阵乘法形式,转化为齐次坐标形式为:
Figure BDA0004145959960000095
步骤3.3:建立相机坐标系:相机坐标系中心点设为Ox,图像坐标系中心点设为Ot,Ox与的Ot相交点的延长线为Z轴,即步骤3.2所述图像坐标系的延伸,Z轴的方向服从物理学中的右手规则,根据欧拉旋转定理知三维空间的旋转顺序不可逆性,X和Y轴在一平面内且平行,Z轴与X和Y轴所称平面不平行,三维空间中的点P在二维平面的投影点设为P',再通过透视投影关系算出坐标,设点P在三维图像中的坐标为(x,y,z),点P在二维平面投影点P'的坐标(x',y')用步骤2.3中物距与焦距的关系公式及相似三角形比例关系求出透视投影关系公式:
Figure BDA0004145959960000101
上式描述了点P和点P'之间的空间关系;
用齐次坐标与矩阵表示前述的透视投影关系公式为:
Figure BDA0004145959960000102
步骤3.4:建立世界坐标系;
所述世界坐标系是描述摄像头所在位置的一个基准坐标系,由X轴、Y轴、Z轴组成;摄像机坐标系与世界坐标系之间的关系在用旋转矩阵R与偏移向量T来描述,即物体只需要被旋转和平移;若在三维空间中存在一点P,其在世界坐标系下与像机坐标系下的齐次坐标分别是(xs,ys,zs,1)与(x',y',z'),则存在如下关系:
Figure BDA0004145959960000103
建立像素坐标系与世界坐标系之间的变换关系:
Figure BDA0004145959960000104
式中,其中m及n是相机内部参数,与具体的摄影场景无关。
建立投影矩阵M为:
Figure BDA0004145959960000105
其中a0、b0为二维图像的中心点坐标,只与摄像机内部结构有关,为摄像机内部参数,是摄像头感光芯片安装时与理论中心的水平与垂直差值,
Figure BDA0004145959960000106
由摄像头相对于世界坐标系的方位决定,是相机相对于世界坐标系的平移变换关系,即摄像机外部参数;
步骤3.5:从图像坐标系转换到世界坐标系,己知摄像机的内外参数,获得投影矩阵M,对三维空间中的点P=(x,y,z),最终需要得到其在世界坐标系下的坐标Ps=(xs,ys,zs,1),求出在图像坐标系点P的位置(x,y),先从像素坐标系变换到相机坐标系,再由相机坐标系变换到世界坐标系,具体为:
Figure BDA0004145959960000111
其中,s为从世界坐标系转换到图像坐标系的尺度因子,t为平移矩阵。
步骤4:进行无人机相机标定,求出相机参数;
为确定图像中的空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系,需要建立摄像机成像的几何模型,利用步骤2和步骤3得到的数值和公式,其中的几何模型参数就是摄像机参数。求解参数的过程就称之为相机标定。这个步骤非常重要,会影响到最终测量结果的准确性,主要是求拍摄设备的内参、外参以及畸变参数。求从世界坐标系换到图像坐标系的过程,也就是求最终的投影矩阵P的过程。
步骤4.1:根据步骤3.4中建立的像素坐标系与世界坐标系之间的变换关系,使用张氏标定法,每一个角点的像素坐标设为(a,b),每一个角点在世界坐标系下的物理坐标(A,B,C)=0来进行相机的标定,获得相机的内参矩阵和径向畸变参数。
步骤4.2:将2D空间中的图像点设为n=[a,b]T,3D空间中的图像点设为N=[x,y,z],齐次坐标分别为
Figure BDA0004145959960000112
三维空间坐标映射到二维图像坐标转换为/>
Figure BDA0004145959960000113
其中s为世界坐标系到图像坐标系的尺度因子,α和β分别为焦距与像素横纵比,γ为径向畸变参数,/>
Figure BDA0004145959960000114
为相机内参矩阵;
步骤4.3:求解相机内参,三维空间坐标到二维图像坐标的映射为:H=A[r1 r2t],其中r1和r2为两个相互正交的旋转向量,A=s*M,解Homographic矩阵进行单位性转换,将平面的点映射到另一个二维平面的投影,定义旋转矩阵的第i列为ri,棋盘格位于Z轴上,表示为:s*[a b 1]T=A[r1r2 r3 t]*c*[x y 0 1]T。Homography有8个自由度,r1和r2正交且模相等,得到约束式为:
Figure BDA0004145959960000121
式中,h1、h2分别表示矩阵H的第一列与第二列;
构造一个矩阵B,使得
Figure BDA0004145959960000122
且约束条件为:
Figure BDA0004145959960000123
式中,v代表图像中棋盘格的角点纵坐标,因棋盘格是长方形,所以只需要得知这个棋盘格的其中三个角点坐标就可以确定剩余一个角点坐标。v11、v12、v22分别表示棋盘格的左上方、右上方、右下方角点的纵坐标,b表示用奇异值分解最小奇异值对应的特征向量。
内参表达式如下:
Figure BDA0004145959960000124
Figure BDA0004145959960000125
Figure BDA0004145959960000126
Figure BDA0004145959960000127
Figure BDA0004145959960000128
Figure BDA0004145959960000129
/>
其中,B11、B12、B13、B22、B23、B33公式表示矩阵B中不同位置元素,v0、u0表示中心点的实际位置坐标,λ为λ=s-1即尺度因子的逆矩阵,γ为径向畸变参数;
步骤4.4:求解相机外参:
r1=λM-1h1
r2=λM-1h1
r3=h1*h2
t=λM-1h3
其中,r1、r2、r3分别表示三个旋转向量,h1、h2、h3分别表示矩阵H的第一列、第二列和第三列;
根据旋转矩阵的性质得:||r1||=||λM-1h1||=1即
Figure BDA0004145959960000131
λ由步骤4.3求出,矩阵投影M可由步骤3.4求出,继而可求得h1,用h1求解推导出r1、r2、r3和t。
步骤5:解决图像畸变问题,对图像进行矫正;无人机在拍摄目标图像的过程中受到透镜及相机自身出厂组装影响从而导致所拍摄的图像出现畸变,为了获得最佳的成像效果,需要在相机镜头前加透镜,但透镜会对光线的传播路线产生影响。透镜种类不同,成像的畸变程度也不同,为解决此影响应进行径向畸变矫正。为解决因在机械组装中的误差产生的影响,例如透镜和成像平面不平行等,应进行切向畸变矫正。两种畸变共同之处在于它们都会导致空间点成像画面不在实际线性模型所描述的位置,此时需要对图像进行矫正。
步骤5.1:为解决因相机摄像头前方的透镜对光的传播路径的影响,对图像进行径向畸变矫正。
径向畸变主要分为桶形畸变和枕形畸变,穿过图像中心和光轴由交点的延长直线能保持形状不变。对于图像中某一点为点P,设xj为发生径向畸变后的该点横坐标,yj为发生径向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标,归一化极坐标表示为[r,θ],其中r为矢量长度,t是矢量的水平夹角。可看成是某一个坐标点沿着长度方向发生了δr,其中δr=r'-r即矢量长度的变化变化也就是它距离远点的长度发生了变化,都是随着与中心之间的距离增加而增加,则径向畸变的矫正公式为:
xj=x*(1+k1r2+k3r6+k2r4)
yj=y*(1+k1r2+k3r6+k2r4)
其中,k1、k2、k3是径向畸变参数;
在本式中,纠正畸变比较小的图像中心区域时k1起主要作用,纠正畸变比较大图像边缘区域时k2起主要作用。
步骤5.2:为解决因在机械组装中的误差产生的影响,对图像进行切向畸变矫正。
切向畸变不存在对称的性质。可以卡成是坐标点沿着切线的方向发生了变化,水平夹角变化了δθ。对于图像中某一点为点P,设x0为发生横向畸变后的该点横坐标,y0为发生横向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标;用另外两个参数p1、p2进行纠正,则切向畸变的矫正公式为:
x0=x+2p1y+p2(r2+2x2)
y0=y+2p2x+p1(r2+2y2)
步骤5.3:联合步骤5.1和步骤5.2中的径向畸变、切向畸变矫正公式,对于相机坐标系中的点P[x,y,z],寻找它对应点的像素坐标的过程时将三维空间点投影到归一化图像平面,该点的像素坐标为:u=fx*x+cx,v=fy*y+cy。其中,u为像素点的横坐标,v为像素点的纵坐标,cx为图像像素中心点的横坐标,cy为图像像素中心点的横坐标。
步骤6:将图像进行预处理,图像质量的好坏影响到最后的测量数据。因图像是彩色图像,我们若直接对其三个通道R、G、B进行依次处理将会非常耗时,所以应对图像进行灰度化。
将图像进行预处理。也就是想增强图像的质量或突出图像某个特性,为了得到更加清晰的图像,需要通过某技术对图像进行处理,使用对比度增强的方法来处理图像,即对图像输出的灰度级进行放大。通过调整图像灰度值的分布来丰富所获取图像的灰度层次,目的是改善图像的检测效果。本实施例采用直方图均衡化的算法,将原图像的直方图修正为均匀的直方图,然后按均衡直方图修正原图像。将一副图像的直方图分布通过累积分布函数变成近似均匀分布,从而增强图像的对比度。均衡化图像后图像的直方图是平直的,灰度级具有均匀的概率分布图像就更清晰。如图2所示,本实施例的方法如下所述。
步骤6.1:直方图是在灰度范围[0,...,k,...,225]区间的功能函数,列出原图像的灰度级j,统计出原图像中每个灰度级所拥有的像素个数nj
步骤6.2:计算出原图像的各灰度级的灰度分布概率
Figure BDA0004145959960000141
其中n为直方图中的像素总个数,再计算出原图像的各灰度累积分布概率/>
Figure BDA0004145959960000142
其中k表示灰度级,,求出均衡化后的灰度级i=INT[(L-1)S(i)+0.5],INT()表示取整函数、L表示总灰度级数目、S(i)表示在i级的离散灰度,将((L-1)*p(k))进行四舍五入计算。
步骤6.3:确定原图像的灰度级与均衡化后的灰度级的映射关系j→i,再计算变换后的图像直方图
Figure BDA0004145959960000143
步骤7:设计一种端到端的单目三维物体测量模型,如图3所示,将预处理后的航拍图像输入到单目三维物体测量模型中,完成航空图片的三维测量。
步骤7.1:建立单目三维物体测量模型,所述单目三维物体测量模型包括backbone、关键点检测分支和3D框回归分支;其中所述backbone层使用DLA-34结构来提取特征,以便对不同层之间的特征进行融合。其中,DLA-34增加了FPN结构以此提高小物体检测的性能;将所获取的二维的RGB图像输入至backbone层中,通过DLA-34输出特征图,其长和宽分别为输入图像的1/4,通道数为256;在backbone中加入GN层,GN层将channel分组,在每个group中做LN,再做归一化处理;以此减小网络性能对batch_size的敏感程度,还可以减少训练时间。
所述二维RGB图像中,设W代表图像宽度,H代表图像高度;用(d,w,l,x,y,z,θ)表示目标三维图像,其中(d,w,l)的分别表示目标三维图像的高、宽、长,(x,y,z)表示目标三维图像在相机坐标系中的中心坐标点,θ表示拍摄图像时摄像头角度,拍摄图像时的飞行高度为s,相机内参设为K,
Figure BDA0004145959960000151
其中fx及fy在步骤4.3已经求出,cx及cy在步骤5.3已经求出。/>
步骤7.2:将步骤7.1中backbone层输出的特征图输入关键点检测分支网络层,所述关键点检测分支网络层用于寻找目标的3D中心点在二维图像中的投影点位置;在关键点检测分支网络层寻找输入图像中的关键点并标记绿色,将目标三维图像的中心点在二维图像平面的映射点[xcyc]T设为关键点,目标三维图像的中心点坐标设为[x y z]T,用坐标[xb,1yb,1]T、[xb,2yb,2]T、[xb,3yb,3]T、[xb,4yb,4]T、[xb,5yb,5]T、[xb,6yb,6]T、[xb,7yb,7]T、[xb,8yb,8]T分别表示目标三维图像的8个顶点在图像中的位置,并用
Figure BDA0004145959960000152
确定高斯函数的标准差,其中/>
Figure BDA0004145959960000153
表示为表示3D框的最小长方形。
步骤7.3:将步骤7.1中backbone层输出的特征图像及步骤7.2中所得得到的目标3D中心点输入至3D框回归分支网络层中,设δz表示深度偏移,δxc和δyc为量化误差,δd、δw、δl分别表示高、宽、长的残差,通过深度偏移求得目标的深度值z=μzzσz,μz、σz分别尺度因子和平移因子,都为预先设定好的值,物体的目标三维图像的中心点坐标表示为:
Figure BDA0004145959960000154
再求目标物体的长、宽、高表达式为:
Figure BDA0004145959960000155
(单位为米)
在式中,
Figure BDA0004145959960000156
分别为公开的KITTI数据集中计算出的平均长度、宽度、高度,eδl、eδw、eδd分别为长宽高的残差值。
步骤7.5:根据角度和目标在三维空间中的位置求得摄像头角度
Figure BDA0004145959960000161
α是预测的观测角,则拍摄该物体时,无人机距离目标物体的直线距离m为/>
Figure BDA0004145959960000162
通过将航向角矩阵R绕x轴旋转得到矩阵Rθ,根据物体的长宽高[l w d]T和中心点坐标[x y z]T得到目标三维物体的8个角点坐标矩阵表示为:
Figure BDA0004145959960000163
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (7)

1.一种基于无人机单张航空图片的三维测量方法,其特征在于,包括以下步骤:
步骤1:利用无人机的相机进行单张图像拍摄并记录无人机拍摄时的飞行高度s;
步骤2:构造光学二维空间小孔成像模型,建立物距与焦距的关系,来确定空间中目标三维物体信息与图像二维成像之间的点面关系;
步骤3:将二维空间坐标转化至三维空间坐标,将已知的若干控制点的坐标系进行数据转换;
步骤4:进行无人机相机标定,求出相机参数;
步骤5:解决图像畸变问题,对图像进行矫正;
步骤6:将图像进行预处理;
步骤7:设计一种端到端的单目三维物体测量模型,将预处理后的航拍图像输入到单目三维物体测量模型中,完成航空图片的三维测量。
2.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,所述步骤2具体包括以下步骤:
步骤2.1:建立物距与像距和焦距的关系表达式
Figure FDA0004145959950000011
其中焦距设为f,物体到镜头光心称为物距设为u,成像平面到镜头光心称为像距设为v;
步骤2.2:若己知物距v,设x1、y1为物体在三维空间的长和宽,x2、y2分别为物体摄像头所拍摄的二维图像的长和宽,则求得物距与焦距的关系公式,即光学二维空间小孔成像模型为:
Figure FDA0004145959950000012
3.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,所述步骤3具体包括以下步骤:
步骤3.1:建立像素坐标系:在图像上定义直角坐标系,每一像素的坐标点(a,b)表示其坐标值,a和b分别是这个像素在数组中的行数与列数;
步骤3.2:建立图像坐标系:X轴和Y轴分别平行于二维图像的两条垂直边,用(x,y)表示像素坐标值,设(a0,b0)为二维图像的中心,相机中感光器件的尺寸为x*y,像素坐标系与图像坐标系之间的关系表示为:
Figure FDA0004145959950000013
其中a-a0和b-b0分别表示某以像素点坐标数值与中心点坐标数值的X轴差值与Y轴差值;
将上式改写成矩阵形式得:
Figure FDA0004145959950000021
将偏移项带入进乘积项中,构造一个三维矩阵乘法形式,转化为齐次坐标形式为:
Figure FDA0004145959950000022
步骤3.3:建立相机坐标系:相机坐标系中心点设为Ox,图像坐标系中心点设为Ot,Ox与的Ot相交点的延长线为Z轴,即步骤3.2所述图像坐标系的延伸,Z轴的方向服从物理学中的右手规则,根据欧拉旋转定理知三维空间的旋转顺序不可逆性,X和Y轴在一平面内且平行,Z轴与X和Y轴所称平面不平行,三维空间中的点P在二维平面的投影点设为P',再通过透视投影关系算出坐标,设点P在三维图像中的坐标为(x,y,z),点P在二维平面投影点P'的坐标(x',y')用步骤2.3中物距与焦距的关系公式及相似三角形比例关系求出透视投影关系公式:
Figure FDA0004145959950000023
用齐次坐标与矩阵表示前述的透视投影关系公式为:
Figure FDA0004145959950000024
步骤3.4:建立世界坐标系;
所述世界坐标系是描述摄像头所在位置的一个基准坐标系,由X轴、Y轴、Z轴组成;摄像机坐标系与世界坐标系之间的关系在用旋转矩阵R与偏移向量T来描述,即物体只需要被旋转和平移;若在三维空间中存在一点P,其在世界坐标系下与像机坐标系下的齐次坐标分别是(xs,ys,zs,1)与(x',y',z'),则存在如下关系:
Figure FDA0004145959950000025
建立像素坐标系与世界坐标系之间的变换关系:
Figure FDA0004145959950000026
式中,其中m及n是相机内部参数;
建立投影矩阵M为:
Figure FDA0004145959950000031
其中a0、b0为二维图像的中心点坐标,只与摄像机内部结构有关,为摄像机内部参数,是摄像头感光芯片安装时与理论中心的水平与垂直差值,
Figure FDA0004145959950000032
由摄像头相对于世界坐标系的方位决定,是相机相对于世界坐标系的平移变换关系,即摄像机外部参数;
步骤3.5:从图像坐标系转换到世界坐标系,己知摄像机的内外参数,获得投影矩阵M,对三维空间中的点P=(x,y,z),最终需要得到其在世界坐标系下的坐标Ps=(xs,ys,zs,1),求出在图像坐标系点P的位置(x,y),先从像素坐标系变换到相机坐标系,再由相机坐标系变换到世界坐标系,具体为:
Figure FDA0004145959950000033
其中,s为从世界坐标系转换到图像坐标系的尺度因子,t为平移矩阵。
4.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,
步骤4.1:根据步骤3.4中建立的像素坐标系与世界坐标系之间的变换关系,使用张氏标定法,每一个角点的像素坐标设为(a,b),每一个角点在世界坐标系下的物理坐标(A,B,C)=0来进行相机的标定,获得相机的内参矩阵和径向畸变参数;
步骤4.2:将2D空间中的图像点设为n=[a,b]T,3D空间中的图像点设为N=[x,y,z],齐次坐标分别为
Figure FDA0004145959950000034
三维空间坐标映射到二维图像坐标转换为
Figure FDA0004145959950000035
其中s为世界坐标系到图像坐标系的尺度因子,α和β分别为焦距与像素横纵比,γ为径向畸变参数,/>
Figure FDA0004145959950000036
为相机内参矩阵;
步骤4.3:求解相机内参,三维空间坐标到二维图像坐标的映射为:H=A[r1 r2 t],其中r1和r2为两个相互正交的旋转向量,A=s*M,解Homographic矩阵进行单位性转换,将平面的点映射到另一个二维平面的投影,定义旋转矩阵的第i列为ri,棋盘格位于Z轴上,表示为:s*[a b 1]T=A[r1r2 r3 t]*c*[x y 0 1]T;Homography有8个自由度,r1和r2正交且模相等,得到约束式为:
Figure FDA0004145959950000041
式中,h1、h2分别表示矩阵H的第一列与第二列;
构造一个矩阵B,使得
Figure FDA0004145959950000042
且约束条件为:
Figure FDA0004145959950000043
式中,v代表图像中棋盘格的角点纵坐标,因棋盘格是长方形,所以只需要得知这个棋盘格的其中三个角点坐标就可以确定剩余一个角点坐标;v11、v12、v22分别表示棋盘格的左上方、右上方、右下方角点的纵坐标,b表示用奇异值分解最小奇异值对应的特征向量;
内参表达式如下:
Figure FDA0004145959950000044
Figure FDA0004145959950000045
Figure FDA0004145959950000046
Figure FDA0004145959950000047
Figure FDA0004145959950000048
Figure FDA0004145959950000049
其中,B11、B12、B13、B22、B23、B33公式表示矩阵B中不同位置元素,v0、u0表示中心点的实际位置坐标,λ为λ=s-1即尺度因子的逆矩阵,γ为径向畸变参数;
步骤4.4:求解相机外参:
r1=λM-1h1
r2=λM-1h1
r3=h1*h2
t=λM-1h3
其中,r1、r2、r3分别表示三个旋转向量,h1、h2、h3分别表示矩阵H的第一列、第二列和第三列;
根据旋转矩阵的性质得:||r1||=||λM-1h1||=1即
Figure FDA0004145959950000051
用h1求解推导出r1、r2、r3和t。
5.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,所述步骤5具体包括以下步骤:
步骤5.1:为解决因相机摄像头前方的透镜对光的传播路径的影响,对图像进行径向畸变矫正;
对于图像中某一点为点P,设xj为发生径向畸变后的该点横坐标,yj为发生径向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标,归一化极坐标表示为[r,θ],其中r为矢量长度,t是矢量的水平夹角,则径向畸变的矫正公式为:
xj=x*(1+k1r2+k3r6+k2r4)
yj=y*(1+k1r2+k3r6+k2r4)
其中,k1、k2、k3是径向畸变参数;
步骤5.2:为解决因在机械组装中的误差产生的影响,对图像进行切向畸变矫正;
对于图像中某一点为点P,设x0为发生横向畸变后的该点横坐标,y0为发生横向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标;用另外两个参数p1、p2进行纠正,则切向畸变的矫正公式为:
x0=x+2p1y+p2(r2+2x2)
y0=y+2p2x+p1(r2+2y2)
步骤5.3:联合步骤5.1和步骤5.2中的径向畸变、切向畸变矫正公式,对于相机坐标系中的点P[x,y,z],寻找它对应点的像素坐标的过程时将三维空间点投影到归一化图像平面,该点的像素坐标为:u=fx*x+cx,v=fy*y+cy;其中,u为像素点的横坐标,v为像素点的纵坐标,cx为图像像素中心点的横坐标,cy为图像像素中心点的横坐标。
6.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,所述步骤6具体包括以下步骤:
步骤6.1:直方图是在灰度范围[0,...,k,...,225]区间的功能函数,列出原图像的灰度级j,统计出原图像中每个灰度级所拥有的像素个数nj
步骤6.2:计算出原图像的各灰度级的灰度分布概率
Figure FDA0004145959950000061
其中n为直方图中的像素总个数,再计算出原图像的各灰度累积分布概率/>
Figure FDA0004145959950000062
其中k表示灰度级,求出均衡化后的灰度级i=INT[(L-1)S(i)+0.5],其中INT()表示取整函数、L表示总灰度级数目、S(i)表示在i级的离散灰度,将(L-1)*p(k)进行四舍五入计算;
步骤6.3:确定原图像的灰度级与均衡化后的灰度级的映射关系j→i,再计算变换后的图像直方图
Figure FDA0004145959950000063
7.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,所述步骤7具体包括以下步骤:
步骤7.1:建立单目三维物体测量模型,所述单目三维物体测量模型包括backbone、关键点检测分支和3D框回归分支;其中所述backbone层使用DLA-34结构来提取特征,将所获取的二维的RGB图像输入至backbone层中,通过DLA-34输出特征图,其长和宽分别为输入图像的1/4,通道数为256;在backbone中加入GN层,GN层将channel分组,在每个group中做LN,再做归一化处理;
所述二维RGB图像中,设W代表图像宽度,H代表图像高度;用(d,w,l,x,y,z,θ)表示目标三维图像,其中(d,w,l)的分别表示目标三维图像的高、宽、长,(x,y,z)表示目标三维图像在相机坐标系中的中心坐标点,θ表示拍摄图像时摄像头角度,拍摄图像时的飞行高度为s,相机内参设为K,
Figure FDA0004145959950000064
步骤7.2:将步骤7.1中backbone层输出的特征图输入关键点检测分支网络层,所述关键点检测分支网络层用于寻找目标的3D中心点在二维图像中的投影点位置;在关键点检测分支网络层寻找输入图像中的关键点并标记绿色,将目标三维图像的中心点在二维图像平面的映射点[xc yc]T设为关键点,目标三维图像的中心点坐标设为[x y z]T,用坐标[xb, 1yb,1]T、[xb,2yb,2]T、[xb,3yb,3]T、[xb,4yb,4]T、[xb,5yb,5]T、[xb,6yb,6]T、[xb,7yb,7]T、[xb,8yb,8]T分别表示目标三维图像的8个顶点在图像中的位置,并用
Figure FDA0004145959950000065
确定高斯函数的标准差,其中/>
Figure FDA0004145959950000071
表示为表示3D框的最小长方形;
步骤7.3:将步骤7.1中backbone层输出的特征图像及步骤7.2中所得得到的目标3D中心点输入至3D框回归分支网络层中,设δz表示深度偏移,δxc和δyc为量化误差,δd、δw、δl分别表示高、宽、长的残差,通过深度偏移求得目标的深度值z=μzzσz,μz、σz分别尺度因子和平移因子,物体的目标三维图像的中心点坐标表示为:
Figure FDA0004145959950000072
再求目标物体的长、宽、高表达式为:
Figure FDA0004145959950000073
在式中,
Figure FDA0004145959950000074
分别为公开的KITTI数据集中计算出的平均长度、宽度、高度,eδl、eδw、eδd分别为长宽高的残差值;
步骤7.5:根据角度和目标在三维空间中的位置求得摄像头角度
Figure FDA0004145959950000075
α是预测的观测角,则拍摄该物体时,无人机距离目标物体的直线距离m为/>
Figure FDA0004145959950000076
通过将航向角矩阵R绕x轴旋转得到矩阵Rθ,根据物体的长宽高[l w d]T和中心点坐标[x y z]T得到目标三维物体的8个角点坐标矩阵表示为:
Figure FDA0004145959950000077
CN202310303473.8A 2023-03-24 2023-03-24 一种基于无人机单张航空图片的三维测量方法 Pending CN116309844A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310303473.8A CN116309844A (zh) 2023-03-24 2023-03-24 一种基于无人机单张航空图片的三维测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310303473.8A CN116309844A (zh) 2023-03-24 2023-03-24 一种基于无人机单张航空图片的三维测量方法

Publications (1)

Publication Number Publication Date
CN116309844A true CN116309844A (zh) 2023-06-23

Family

ID=86832260

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310303473.8A Pending CN116309844A (zh) 2023-03-24 2023-03-24 一种基于无人机单张航空图片的三维测量方法

Country Status (1)

Country Link
CN (1) CN116309844A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117291980A (zh) * 2023-10-09 2023-12-26 宁波博登智能科技有限公司 一种基于深度学习的单张无人机图像像素定位方法
CN117934600A (zh) * 2024-03-25 2024-04-26 南京信息工程大学 基于无人机对于远距离标志物快速识别与三维位置解算方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117291980A (zh) * 2023-10-09 2023-12-26 宁波博登智能科技有限公司 一种基于深度学习的单张无人机图像像素定位方法
CN117291980B (zh) * 2023-10-09 2024-03-15 宁波博登智能科技有限公司 一种基于深度学习的单张无人机图像像素定位方法
CN117934600A (zh) * 2024-03-25 2024-04-26 南京信息工程大学 基于无人机对于远距离标志物快速识别与三维位置解算方法

Similar Documents

Publication Publication Date Title
CN109813251B (zh) 用于三维测量的方法、装置以及系统
CN110211043B (zh) 一种用于全景图像拼接的基于网格优化的配准方法
CN109410207B (zh) 一种基于ncc特征的无人机巡线图像输电线路检测方法
CN102065313B (zh) 平行式相机阵列的未标定多视点图像校正方法
CN116309844A (zh) 一种基于无人机单张航空图片的三维测量方法
CN112070845B (zh) 双目相机的标定方法、装置及终端设备
CN111553939B (zh) 一种多目摄像机的图像配准算法
CN111145269B (zh) 一种鱼眼相机与单线激光雷达的外方位元素的标定方法
CN110874854B (zh) 一种基于小基线条件下的相机双目摄影测量方法
CN111709985A (zh) 一种基于双目视觉的水下目标测距方法
CN111461963A (zh) 一种鱼眼图像拼接方法及装置
CN114549746A (zh) 一种高精度真彩三维重建方法
CN115239820A (zh) 一种分体式飞行车辆鸟瞰图实时拼接及车位检测方法
CN113160048A (zh) 一种缝合线引导的图像拼接方法
Kurmi et al. Pose error reduction for focus enhancement in thermal synthetic aperture visualization
CN116625258A (zh) 链条间距测量系统及链条间距测量方法
CN114998448A (zh) 一种多约束双目鱼眼相机标定与空间点定位的方法
CN111951339A (zh) 利用异构双目相机进行视差计算的图像处理方法
CN113706635B (zh) 一种基于点特征和线特征融合的长焦距相机标定方法
CN110660099B (zh) 基于神经网络的遥感影像处理的有理函数模型拟合方法
CN108520541B (zh) 一种广角摄像机的标定方法
CN114897676A (zh) 一种无人机遥感多光谱图像拼接方法、设备及介质
CN111325218B (zh) 基于光场图像的Hog特征检测与匹配方法
CN110322514B (zh) 一种基于多中心投影模型的光场相机参数估计方法
CN112258581A (zh) 一种多鱼眼镜头全景相机的现场标定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination