CN116309844A - 一种基于无人机单张航空图片的三维测量方法 - Google Patents
一种基于无人机单张航空图片的三维测量方法 Download PDFInfo
- Publication number
- CN116309844A CN116309844A CN202310303473.8A CN202310303473A CN116309844A CN 116309844 A CN116309844 A CN 116309844A CN 202310303473 A CN202310303473 A CN 202310303473A CN 116309844 A CN116309844 A CN 116309844A
- Authority
- CN
- China
- Prior art keywords
- image
- point
- dimensional
- coordinate system
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000691 measurement method Methods 0.000 title claims abstract description 20
- 238000003384 imaging method Methods 0.000 claims abstract description 19
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 238000006243 chemical reaction Methods 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 61
- 238000005259 measurement Methods 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 27
- 238000013507 mapping Methods 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 17
- 238000012937 correction Methods 0.000 claims description 16
- 230000003287 optical effect Effects 0.000 claims description 13
- 230000014509 gene expression Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000013519 translation Methods 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 8
- 150000001875 compounds Chemical class 0.000 claims description 6
- 210000000988 bone and bone Anatomy 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000013139 quantization Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000004438 eyesight Effects 0.000 abstract description 12
- 238000005516 engineering process Methods 0.000 abstract description 10
- 230000000694 effects Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 235000012766 Cannabis sativa ssp. sativa var. sativa Nutrition 0.000 description 1
- 235000012765 Cannabis sativa ssp. sativa var. spontanea Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 235000009120 camo Nutrition 0.000 description 1
- 235000005607 chanvre indien Nutrition 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000011487 hemp Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
- G01C11/025—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/36—Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明提供一种基于无人机单张航空图片的三维测量方法,涉及计算机视觉技术领域。本发明通过无人机相机获得待检测图像,构造小孔成像模型,将二维空间坐标转化至三维空间坐标,将已知的若干控制点的坐标系进行数据转换,进行相机标定获得相机内外参数,矫正待处理图像的畸变问题,并将待处理图像进行灰度化预处理,构造了一种端到端的单目三维物体测量模型,将处理后图像输入至三维物体测量模型中,优化了视频中三维测量技术,不限于目标物体的类型,大幅度提高了检测正确率。并且能够以无监督的方式从简单的视频中学习,容易迁移到其他数据集上。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于无人机单张航空图片的三维测量方法。
背景技术
计算机视觉是指利用计算机来实现人类的相关视觉功能,计算机视觉技术作为一门新兴学科,它涉及到信号处理、人工智能、图像处理和模式识别等多个领域。近年来,随着人工智能技术以及数字图像处理技术的飞速发展,计算机视觉技术已经被广泛应用于各个行业如航空航天等。三维视觉测量的开创性工作是从六十年代中期开始的,美国麻省理工学院的Robert完成了三维景物分析开创性工作,把对二维图像推广到了三维图像,三维视觉技术由此诞生。在之后的二十年中,三维视觉测量迅速发展成为一门学科。D.Marr创立的立体视觉计算理论对三维视觉技术的发展产生了深远影响。三维视觉测量在军事、航空航天和目标识别等领域应用变得非常广泛。当前对于三维视觉测量方法的性能在不断提高,其理论和方法也处于不断发展和完善之中。
当代所生产的无人机具有成本费用低、灵活度高、容易操作、体积小等特点,目前被应用在了更多多元化的场景中。无人机航拍是极具创新性的成像方式,它的智能分析处理可以快速高效地提取所拍摄图像中的物体信息。无人机航空拍摄系统可用如数码相机、磁测仪或激光扫描仪等机载遥感设备,获取指定区域范围内的图像,再进行相关图像数据的处理。恢复一张图像中某一个物体的三维信息是无人机航空拍摄系统一个非常重要的研究方向,而物体的三维信息研究的一个非常重要的基础环节就是测量目标物体的长宽高。三维测量信息图像中的目标分割、目标行为分析与场景动态分析,对以无人机为背景的其他技术具有重要的辅助。
发明内容
针对现有技术的不足,本发明提供一种基于无人机单张航空图片的三维测量方法。本发明能够提高测量精度,解决了现有三维物体测量需要人工参与的问题。该方法不限制于检测物体的类型,不需要考虑物体类别的差别性。
一种基于无人机单张航空图片的三维测量方法,具体包括以下步骤:
步骤1:利用无人机的相机进行单张图像拍摄并记录无人机拍摄时的飞行高度s。
步骤2:构造光学二维空间小孔成像模型,建立物距与焦距的关系,来确定空间中目标三维物体信息与图像二维成像之间的点面关系。
步骤2.2:若己知物距v,设x1、y1为物体在三维空间的长和宽,x2、y2分别为物体摄像头所拍摄的二维图像的长和宽,则求得物距与焦距的关系公式,即光学二维空间小孔成像模型为:
步骤3:将二维空间坐标转化至三维空间坐标,将已知的若干控制点的坐标系进行数据转换。
步骤3.1:建立像素坐标系:在图像上定义直角坐标系,每一像素的坐标点(a,b)表示其坐标值,a和b分别是这个像素在数组中的行数与列数;
步骤3.2:建立图像坐标系:X轴和Y轴分别平行于二维图像的两条垂直边,用(x,y)表示像素坐标值,设(a0,b0)为二维图像的中心,相机中感光器件的尺寸为x*y,像素坐标系与图像坐标系之间的关系表示为:
其中a-a0和b-b0分别表示某以像素点坐标数值与中心点坐标数值的X轴差值与Y轴差值;
将上式改写成矩阵形式得:
将偏移项带入进乘积项中,构造一个三维矩阵乘法形式,转化为齐次坐标形式为:
步骤3.3:建立相机坐标系:相机坐标系中心点设为Ox,图像坐标系中心点设为Ot,Ox与的Ot相交点的延长线为Z轴,即步骤3.2所述图像坐标系的延伸,Z轴的方向服从物理学中的右手规则,根据欧拉旋转定理知三维空间的旋转顺序不可逆性,X和Y轴在一平面内且平行,Z轴与X和Y轴所称平面不平行,三维空间中的点P在二维平面的投影点设为P',再通过透视投影关系算出坐标,设点P在三维图像中的坐标为(x,y,z),点P在二维平面投影点P'的坐标(x',y')用步骤2.3中物距与焦距的关系公式及相似三角形比例关系求出透视投影关系公式:
用齐次坐标与矩阵表示前述的透视投影关系公式为:
步骤3.4:建立世界坐标系;
所述世界坐标系是描述摄像头所在位置的一个基准坐标系,由X轴、Y轴、Z轴组成;摄像机坐标系与世界坐标系之间的关系在用旋转矩阵R与偏移向量T来描述,即物体只需要被旋转和平移;若在三维空间中存在一点P,其在世界坐标系下与像机坐标系下的齐次坐标分别是(xs,ys,zs,1)与(x',y',z'),则存在如下关系:
建立像素坐标系与世界坐标系之间的变换关系:
式中,其中m及n是相机内部参数;
建立投影矩阵M为:
其中a0、b0为二维图像的中心点坐标,只与摄像机内部结构有关,为摄像机内部参数,是摄像头感光芯片安装时与理论中心的水平与垂直差值,由摄像头相对于世界坐标系的方位决定,是相机相对于世界坐标系的平移变换关系,即摄像机外部参数;
步骤3.5:从图像坐标系转换到世界坐标系,己知摄像机的内外参数,获得投影矩阵M,对三维空间中的点P=(x,y,z),最终需要得到其在世界坐标系下的坐标Ps=(xs,ys,zs,1),求出在图像坐标系点P的位置(x,y),先从像素坐标系变换到相机坐标系,再由相机坐标系变换到世界坐标系,具体为:
其中,s为从世界坐标系转换到图像坐标系的尺度因子,t为平移矩阵。
步骤4:进行无人机相机标定,求出相机参数;
步骤4.1:根据步骤3.4中建立的像素坐标系与世界坐标系之间的变换关系,使用张氏标定法,每一个角点的像素坐标设为(a,b),每一个角点在世界坐标系下的物理坐标(A,B,C)=0来进行相机的标定,获得相机的内参矩阵和径向畸变参数。
步骤4.2:将2D空间中的图像点设为n=[a,b]T,3D空间中的图像点设为N=[x,y,z],齐次坐标分别为三维空间坐标映射到二维图像坐标转换为其中s为世界坐标系到图像坐标系的尺度因子,α和β分别为焦距与像素横纵比,γ为径向畸变参数,为相机内参矩阵;
步骤4.3:求解相机内参,三维空间坐标到二维图像坐标的映射为:H=A[r1 r2t],其中r1和r2为两个相互正交的旋转向量,A=s*M,解Homographic矩阵进行单位性转换,将平面的点映射到另一个二维平面的投影,定义旋转矩阵的第i列为ri,棋盘格位于Z轴上,表示为:s*[a b 1]T=A[r1r2 r3 t]*c*[x y 0 1]T。Homography有8个自由度,r1和r2正交且模相等,得到约束式为:
式中,h1、h2分别表示矩阵H的第一列与第二列;
且约束条件为:
式中,v代表图像中棋盘格的角点纵坐标,因棋盘格是长方形,所以只需要得知这个棋盘格的其中三个角点坐标就可以确定剩余一个角点坐标。v11、v12、v22分别表示棋盘格的左上方、右上方、右下方角点的纵坐标,b表示用奇异值分解最小奇异值对应的特征向量。
内参表达式如下:
其中,B11、B12、B13、B22、B23、B33公式表示矩阵B中不同位置元素,v0、u0表示中心点的实际位置坐标,λ为λ=s-1即尺度因子的逆矩阵,γ为径向畸变参数;
步骤4.4:求解相机外参:
r1=λM-1h1
r2=λM-1h1
r3=h1*h2
t=λM-1h3
其中,r1、r2、r3分别表示三个旋转向量,h1、h2、h3分别表示矩阵H的第一列、第二列和第三列;
步骤5:解决图像畸变问题,对图像进行矫正;
步骤5.1:为解决因相机摄像头前方的透镜对光的传播路径的影响,对图像进行径向畸变矫正。
对于图像中某一点为点P,设xj为发生径向畸变后的该点横坐标,yj为发生径向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标,归一化极坐标表示为[r,θ],其中r为矢量长度,t是矢量的水平夹角,则径向畸变的矫正公式为:
xj=x*(1+k1r2+k3r6+k2r4)
yj=y*(1+k1r2+k3r6+k2r4)
其中,k1、k2、k3是径向畸变参数;
步骤5.2:为解决因在机械组装中的误差产生的影响,对图像进行切向畸变矫正。
对于图像中某一点为点P,设x0为发生横向畸变后的该点横坐标,y0为发生横向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标;用另外两个参数p1、p2进行纠正,则切向畸变的矫正公式为:
x0=x+2p1y+p2(r2+2x2)
y0=y+2p2x+p1(r2+2y2)
步骤5.3:联合步骤5.1和步骤5.2中的径向畸变、切向畸变矫正公式,对于相机坐标系中的点P[x,y,z],寻找它对应点的像素坐标的过程时将三维空间点投影到归一化图像平面,该点的像素坐标为:u=fx*x+cx,v=fy*y+cy。其中,u为像素点的横坐标,v为像素点的纵坐标,cx为图像像素中心点的横坐标,cy为图像像素中心点的横坐标。
步骤6:将图像进行预处理;
步骤6.1:直方图是在灰度范围[0,...,k,...,225]区间的功能函数,列出原图像的灰度级j,统计出原图像中每个灰度级所拥有的像素个数nj;
步骤6.2:计算出原图像的各灰度级的灰度分布概率其中n为直方图中的像素总个数,再计算出原图像的各灰度累积分布概率其中k表示灰度级,,求出均衡化后的灰度级i=INT[(L-1)S(i)+0.5],INT()表示取整函数、L表示总灰度级数目、S(i)表示在i级的离散灰度,将(L-1)*p(k)进行四舍五入计算。
步骤7:设计一种端到端的单目三维物体测量模型,将预处理后的航拍图像输入到单目三维物体测量模型中,完成航空图片的三维测量。
步骤7.1:建立单目三维物体测量模型,所述单目三维物体测量模型包括backbone、关键点检测分支和3D框回归分支;其中所述backbone层使用DLA-34结构来提取特征,将所获取的二维的RGB图像输入至backbone层中,通过DLA-34输出特征图,其长和宽分别为输入图像的1/4,通道数为256;在backbone中加入GN层,GN层将channel分组,在每个group中做LN,再做归一化处理;
所述二维RGB图像中,设W代表图像宽度,H代表图像高度;用(d,w,l,x,y,z,θ)表示目标三维图像,其中(d,w,l)的分别表示目标三维图像的高、宽、长,(x,y,z)表示目标三维图像在相机坐标系中的中心坐标点,θ表示拍摄图像时摄像头角度,拍摄图像时的飞行高度为s,相机内参设为K,
步骤7.2:将步骤7.1中backbone层输出的特征图输入关键点检测分支网络层,所述关键点检测分支网络层用于寻找目标的3D中心点在二维图像中的投影点位置;在关键点检测分支网络层寻找输入图像中的关键点并标记绿色,将目标三维图像的中心点在二维图像平面的映射点[xcyc]T设为关键点,目标三维图像的中心点坐标设为[x y z]T,用坐标[xb,1 yb,1]T、[xb,2 yb,2]T、[xb,3 yb,3]T、[xb,4 yb,4]T、[xb,5 yb,5]T、[xb,6 yb,6]T、[xb,7 yb,7]T、[xb,8 yb,8]T分别表示目标三维图像的8个顶点在图像中的位置,并用确定高斯函数的标准差,其中表示为表示3D框的最小长方形。
步骤7.3:将步骤7.1中backbone层输出的特征图像及步骤7.2中所得得到的目标3D中心点输入至3D框回归分支网络层中,设δz表示深度偏移,δxc和δyc为量化误差,δd、δw、δl分别表示高、宽、长的残差,通过深度偏移求得目标的深度值z=μz+δzσz,μz、σz分别尺度因子和平移因子,物体的目标三维图像的中心点坐标表示为:
再求目标物体的长、宽、高表达式为:
步骤7.5:根据角度和目标在三维空间中的位置求得摄像头角度α是预测的观测角,则拍摄该物体时,无人机距离目标物体的直线距离m为通过将航向角矩阵R绕x轴旋转得到矩阵Rθ,根据物体的长宽高[l w d]T和中心点坐标[x y z]T得到目标三维物体的8个角点坐标矩阵表示为:
采用上述技术方案所产生的有益效果在于:
本发明提供一种基于无人机单张航空图片的三维测量方法,本方法本申请提供了一种根据视频中给定的图像进行分布式三维测量的方法,能够提高测量精度,解决了现有三维物体测量需要人工参与的问题。该方法不限制于检测物体的类型,不需要考虑物体类别的差别性。
附图说明
图1为本发明实施例提供的单张图像三维测量方法中方案总体步骤示意图;
图2为本发明实施例提供的单张图像三维测量方法中灰度级处理步骤示意图;
图3为本发明实施例提供的单张图像三维测量方法中将预处理后的图像输入三维物体测量模型步骤示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
一种基于无人机单张航空图片的三维测量方法,如图1所示,具体包括以下步骤:
步骤1:利用无人机的相机进行单张图像拍摄并记录无人机拍摄时的飞行高度s。
本实施例中利用安装相机无人机进行图像拍摄,且无人机由控制端操控。无人机在飞行过程中其摄像头将当前环境画面实时直播至控制端,控制端找到目标物体后,无人机利用其拍摄设备进行图像拍摄,不局限于拍摄设备,同时需要记录无人机拍摄目标物体时的飞行高度为s。
步骤2:构造光学二维空间小孔成像模型,建立物距与焦距的关系,来确定空间中目标三维物体信息与图像二维成像之间的点面关系。
步骤2.2:若己知物距v,设x1、y1为物体在三维空间的长和宽,x2、y2分别为物体摄像头所拍摄的二维图像的长和宽,则求得物距与焦距的关系公式,即光学二维空间小孔成像模型为:
焦距的大小决定着视场角的大小,焦距数值与视场角大小成反比。
步骤3:将二维空间坐标转化至三维空间坐标,将已知的若干控制点的坐标系进行数据转换。摄像头拍到的图像的是二维的平面,最终想要将二维平面图像变为3D立体图像并进行三维测量就需要在不同参考坐标系进行相关转换,具体需从图像坐标系经过其他坐标系转换到世界坐标系。
步骤3.1:建立像素坐标系:在图像上定义直角坐标系,每一像素的坐标点(a,b)表示其坐标值,a和b分别是这个像素在数组中的行数与列数;
步骤3.2:建立图像坐标系:X轴和Y轴分别平行于二维图像的两条垂直边,用(x,y)表示像素坐标值,设(a0,b0)为二维图像的中心,相机中感光器件的尺寸为x*y,像素坐标系与图像坐标系之间的关系表示为:
其中a-a0和b-b0分别表示某以像素点坐标数值与中心点坐标数值的X轴差值与Y轴差值;
将上式改写成矩阵形式得:
将偏移项带入进乘积项中,构造一个三维矩阵乘法形式,转化为齐次坐标形式为:
步骤3.3:建立相机坐标系:相机坐标系中心点设为Ox,图像坐标系中心点设为Ot,Ox与的Ot相交点的延长线为Z轴,即步骤3.2所述图像坐标系的延伸,Z轴的方向服从物理学中的右手规则,根据欧拉旋转定理知三维空间的旋转顺序不可逆性,X和Y轴在一平面内且平行,Z轴与X和Y轴所称平面不平行,三维空间中的点P在二维平面的投影点设为P',再通过透视投影关系算出坐标,设点P在三维图像中的坐标为(x,y,z),点P在二维平面投影点P'的坐标(x',y')用步骤2.3中物距与焦距的关系公式及相似三角形比例关系求出透视投影关系公式:
上式描述了点P和点P'之间的空间关系;
用齐次坐标与矩阵表示前述的透视投影关系公式为:
步骤3.4:建立世界坐标系;
所述世界坐标系是描述摄像头所在位置的一个基准坐标系,由X轴、Y轴、Z轴组成;摄像机坐标系与世界坐标系之间的关系在用旋转矩阵R与偏移向量T来描述,即物体只需要被旋转和平移;若在三维空间中存在一点P,其在世界坐标系下与像机坐标系下的齐次坐标分别是(xs,ys,zs,1)与(x',y',z'),则存在如下关系:
建立像素坐标系与世界坐标系之间的变换关系:
式中,其中m及n是相机内部参数,与具体的摄影场景无关。
建立投影矩阵M为:
其中a0、b0为二维图像的中心点坐标,只与摄像机内部结构有关,为摄像机内部参数,是摄像头感光芯片安装时与理论中心的水平与垂直差值,由摄像头相对于世界坐标系的方位决定,是相机相对于世界坐标系的平移变换关系,即摄像机外部参数;
步骤3.5:从图像坐标系转换到世界坐标系,己知摄像机的内外参数,获得投影矩阵M,对三维空间中的点P=(x,y,z),最终需要得到其在世界坐标系下的坐标Ps=(xs,ys,zs,1),求出在图像坐标系点P的位置(x,y),先从像素坐标系变换到相机坐标系,再由相机坐标系变换到世界坐标系,具体为:
其中,s为从世界坐标系转换到图像坐标系的尺度因子,t为平移矩阵。
步骤4:进行无人机相机标定,求出相机参数;
为确定图像中的空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系,需要建立摄像机成像的几何模型,利用步骤2和步骤3得到的数值和公式,其中的几何模型参数就是摄像机参数。求解参数的过程就称之为相机标定。这个步骤非常重要,会影响到最终测量结果的准确性,主要是求拍摄设备的内参、外参以及畸变参数。求从世界坐标系换到图像坐标系的过程,也就是求最终的投影矩阵P的过程。
步骤4.1:根据步骤3.4中建立的像素坐标系与世界坐标系之间的变换关系,使用张氏标定法,每一个角点的像素坐标设为(a,b),每一个角点在世界坐标系下的物理坐标(A,B,C)=0来进行相机的标定,获得相机的内参矩阵和径向畸变参数。
步骤4.2:将2D空间中的图像点设为n=[a,b]T,3D空间中的图像点设为N=[x,y,z],齐次坐标分别为三维空间坐标映射到二维图像坐标转换为其中s为世界坐标系到图像坐标系的尺度因子,α和β分别为焦距与像素横纵比,γ为径向畸变参数,为相机内参矩阵;
步骤4.3:求解相机内参,三维空间坐标到二维图像坐标的映射为:H=A[r1 r2t],其中r1和r2为两个相互正交的旋转向量,A=s*M,解Homographic矩阵进行单位性转换,将平面的点映射到另一个二维平面的投影,定义旋转矩阵的第i列为ri,棋盘格位于Z轴上,表示为:s*[a b 1]T=A[r1r2 r3 t]*c*[x y 0 1]T。Homography有8个自由度,r1和r2正交且模相等,得到约束式为:
式中,h1、h2分别表示矩阵H的第一列与第二列;
且约束条件为:
式中,v代表图像中棋盘格的角点纵坐标,因棋盘格是长方形,所以只需要得知这个棋盘格的其中三个角点坐标就可以确定剩余一个角点坐标。v11、v12、v22分别表示棋盘格的左上方、右上方、右下方角点的纵坐标,b表示用奇异值分解最小奇异值对应的特征向量。
内参表达式如下:
其中,B11、B12、B13、B22、B23、B33公式表示矩阵B中不同位置元素,v0、u0表示中心点的实际位置坐标,λ为λ=s-1即尺度因子的逆矩阵,γ为径向畸变参数;
步骤4.4:求解相机外参:
r1=λM-1h1
r2=λM-1h1
r3=h1*h2
t=λM-1h3
其中,r1、r2、r3分别表示三个旋转向量,h1、h2、h3分别表示矩阵H的第一列、第二列和第三列;
步骤5:解决图像畸变问题,对图像进行矫正;无人机在拍摄目标图像的过程中受到透镜及相机自身出厂组装影响从而导致所拍摄的图像出现畸变,为了获得最佳的成像效果,需要在相机镜头前加透镜,但透镜会对光线的传播路线产生影响。透镜种类不同,成像的畸变程度也不同,为解决此影响应进行径向畸变矫正。为解决因在机械组装中的误差产生的影响,例如透镜和成像平面不平行等,应进行切向畸变矫正。两种畸变共同之处在于它们都会导致空间点成像画面不在实际线性模型所描述的位置,此时需要对图像进行矫正。
步骤5.1:为解决因相机摄像头前方的透镜对光的传播路径的影响,对图像进行径向畸变矫正。
径向畸变主要分为桶形畸变和枕形畸变,穿过图像中心和光轴由交点的延长直线能保持形状不变。对于图像中某一点为点P,设xj为发生径向畸变后的该点横坐标,yj为发生径向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标,归一化极坐标表示为[r,θ],其中r为矢量长度,t是矢量的水平夹角。可看成是某一个坐标点沿着长度方向发生了δr,其中δr=r'-r即矢量长度的变化变化也就是它距离远点的长度发生了变化,都是随着与中心之间的距离增加而增加,则径向畸变的矫正公式为:
xj=x*(1+k1r2+k3r6+k2r4)
yj=y*(1+k1r2+k3r6+k2r4)
其中,k1、k2、k3是径向畸变参数;
在本式中,纠正畸变比较小的图像中心区域时k1起主要作用,纠正畸变比较大图像边缘区域时k2起主要作用。
步骤5.2:为解决因在机械组装中的误差产生的影响,对图像进行切向畸变矫正。
切向畸变不存在对称的性质。可以卡成是坐标点沿着切线的方向发生了变化,水平夹角变化了δθ。对于图像中某一点为点P,设x0为发生横向畸变后的该点横坐标,y0为发生横向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标;用另外两个参数p1、p2进行纠正,则切向畸变的矫正公式为:
x0=x+2p1y+p2(r2+2x2)
y0=y+2p2x+p1(r2+2y2)
步骤5.3:联合步骤5.1和步骤5.2中的径向畸变、切向畸变矫正公式,对于相机坐标系中的点P[x,y,z],寻找它对应点的像素坐标的过程时将三维空间点投影到归一化图像平面,该点的像素坐标为:u=fx*x+cx,v=fy*y+cy。其中,u为像素点的横坐标,v为像素点的纵坐标,cx为图像像素中心点的横坐标,cy为图像像素中心点的横坐标。
步骤6:将图像进行预处理,图像质量的好坏影响到最后的测量数据。因图像是彩色图像,我们若直接对其三个通道R、G、B进行依次处理将会非常耗时,所以应对图像进行灰度化。
将图像进行预处理。也就是想增强图像的质量或突出图像某个特性,为了得到更加清晰的图像,需要通过某技术对图像进行处理,使用对比度增强的方法来处理图像,即对图像输出的灰度级进行放大。通过调整图像灰度值的分布来丰富所获取图像的灰度层次,目的是改善图像的检测效果。本实施例采用直方图均衡化的算法,将原图像的直方图修正为均匀的直方图,然后按均衡直方图修正原图像。将一副图像的直方图分布通过累积分布函数变成近似均匀分布,从而增强图像的对比度。均衡化图像后图像的直方图是平直的,灰度级具有均匀的概率分布图像就更清晰。如图2所示,本实施例的方法如下所述。
步骤6.1:直方图是在灰度范围[0,...,k,...,225]区间的功能函数,列出原图像的灰度级j,统计出原图像中每个灰度级所拥有的像素个数nj;
步骤6.2:计算出原图像的各灰度级的灰度分布概率其中n为直方图中的像素总个数,再计算出原图像的各灰度累积分布概率其中k表示灰度级,,求出均衡化后的灰度级i=INT[(L-1)S(i)+0.5],INT()表示取整函数、L表示总灰度级数目、S(i)表示在i级的离散灰度,将((L-1)*p(k))进行四舍五入计算。
步骤7:设计一种端到端的单目三维物体测量模型,如图3所示,将预处理后的航拍图像输入到单目三维物体测量模型中,完成航空图片的三维测量。
步骤7.1:建立单目三维物体测量模型,所述单目三维物体测量模型包括backbone、关键点检测分支和3D框回归分支;其中所述backbone层使用DLA-34结构来提取特征,以便对不同层之间的特征进行融合。其中,DLA-34增加了FPN结构以此提高小物体检测的性能;将所获取的二维的RGB图像输入至backbone层中,通过DLA-34输出特征图,其长和宽分别为输入图像的1/4,通道数为256;在backbone中加入GN层,GN层将channel分组,在每个group中做LN,再做归一化处理;以此减小网络性能对batch_size的敏感程度,还可以减少训练时间。
所述二维RGB图像中,设W代表图像宽度,H代表图像高度;用(d,w,l,x,y,z,θ)表示目标三维图像,其中(d,w,l)的分别表示目标三维图像的高、宽、长,(x,y,z)表示目标三维图像在相机坐标系中的中心坐标点,θ表示拍摄图像时摄像头角度,拍摄图像时的飞行高度为s,相机内参设为K,其中fx及fy在步骤4.3已经求出,cx及cy在步骤5.3已经求出。
步骤7.2:将步骤7.1中backbone层输出的特征图输入关键点检测分支网络层,所述关键点检测分支网络层用于寻找目标的3D中心点在二维图像中的投影点位置;在关键点检测分支网络层寻找输入图像中的关键点并标记绿色,将目标三维图像的中心点在二维图像平面的映射点[xcyc]T设为关键点,目标三维图像的中心点坐标设为[x y z]T,用坐标[xb,1yb,1]T、[xb,2yb,2]T、[xb,3yb,3]T、[xb,4yb,4]T、[xb,5yb,5]T、[xb,6yb,6]T、[xb,7yb,7]T、[xb,8yb,8]T分别表示目标三维图像的8个顶点在图像中的位置,并用确定高斯函数的标准差,其中表示为表示3D框的最小长方形。
步骤7.3:将步骤7.1中backbone层输出的特征图像及步骤7.2中所得得到的目标3D中心点输入至3D框回归分支网络层中,设δz表示深度偏移,δxc和δyc为量化误差,δd、δw、δl分别表示高、宽、长的残差,通过深度偏移求得目标的深度值z=μz+δzσz,μz、σz分别尺度因子和平移因子,都为预先设定好的值,物体的目标三维图像的中心点坐标表示为:
再求目标物体的长、宽、高表达式为:
步骤7.5:根据角度和目标在三维空间中的位置求得摄像头角度α是预测的观测角,则拍摄该物体时,无人机距离目标物体的直线距离m为通过将航向角矩阵R绕x轴旋转得到矩阵Rθ,根据物体的长宽高[l w d]T和中心点坐标[x y z]T得到目标三维物体的8个角点坐标矩阵表示为:
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (7)
1.一种基于无人机单张航空图片的三维测量方法,其特征在于,包括以下步骤:
步骤1:利用无人机的相机进行单张图像拍摄并记录无人机拍摄时的飞行高度s;
步骤2:构造光学二维空间小孔成像模型,建立物距与焦距的关系,来确定空间中目标三维物体信息与图像二维成像之间的点面关系;
步骤3:将二维空间坐标转化至三维空间坐标,将已知的若干控制点的坐标系进行数据转换;
步骤4:进行无人机相机标定,求出相机参数;
步骤5:解决图像畸变问题,对图像进行矫正;
步骤6:将图像进行预处理;
步骤7:设计一种端到端的单目三维物体测量模型,将预处理后的航拍图像输入到单目三维物体测量模型中,完成航空图片的三维测量。
3.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,所述步骤3具体包括以下步骤:
步骤3.1:建立像素坐标系:在图像上定义直角坐标系,每一像素的坐标点(a,b)表示其坐标值,a和b分别是这个像素在数组中的行数与列数;
步骤3.2:建立图像坐标系:X轴和Y轴分别平行于二维图像的两条垂直边,用(x,y)表示像素坐标值,设(a0,b0)为二维图像的中心,相机中感光器件的尺寸为x*y,像素坐标系与图像坐标系之间的关系表示为:
其中a-a0和b-b0分别表示某以像素点坐标数值与中心点坐标数值的X轴差值与Y轴差值;
将上式改写成矩阵形式得:
将偏移项带入进乘积项中,构造一个三维矩阵乘法形式,转化为齐次坐标形式为:
步骤3.3:建立相机坐标系:相机坐标系中心点设为Ox,图像坐标系中心点设为Ot,Ox与的Ot相交点的延长线为Z轴,即步骤3.2所述图像坐标系的延伸,Z轴的方向服从物理学中的右手规则,根据欧拉旋转定理知三维空间的旋转顺序不可逆性,X和Y轴在一平面内且平行,Z轴与X和Y轴所称平面不平行,三维空间中的点P在二维平面的投影点设为P',再通过透视投影关系算出坐标,设点P在三维图像中的坐标为(x,y,z),点P在二维平面投影点P'的坐标(x',y')用步骤2.3中物距与焦距的关系公式及相似三角形比例关系求出透视投影关系公式:
用齐次坐标与矩阵表示前述的透视投影关系公式为:
步骤3.4:建立世界坐标系;
所述世界坐标系是描述摄像头所在位置的一个基准坐标系,由X轴、Y轴、Z轴组成;摄像机坐标系与世界坐标系之间的关系在用旋转矩阵R与偏移向量T来描述,即物体只需要被旋转和平移;若在三维空间中存在一点P,其在世界坐标系下与像机坐标系下的齐次坐标分别是(xs,ys,zs,1)与(x',y',z'),则存在如下关系:
建立像素坐标系与世界坐标系之间的变换关系:
式中,其中m及n是相机内部参数;
建立投影矩阵M为:
其中a0、b0为二维图像的中心点坐标,只与摄像机内部结构有关,为摄像机内部参数,是摄像头感光芯片安装时与理论中心的水平与垂直差值,由摄像头相对于世界坐标系的方位决定,是相机相对于世界坐标系的平移变换关系,即摄像机外部参数;
步骤3.5:从图像坐标系转换到世界坐标系,己知摄像机的内外参数,获得投影矩阵M,对三维空间中的点P=(x,y,z),最终需要得到其在世界坐标系下的坐标Ps=(xs,ys,zs,1),求出在图像坐标系点P的位置(x,y),先从像素坐标系变换到相机坐标系,再由相机坐标系变换到世界坐标系,具体为:
其中,s为从世界坐标系转换到图像坐标系的尺度因子,t为平移矩阵。
4.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,
步骤4.1:根据步骤3.4中建立的像素坐标系与世界坐标系之间的变换关系,使用张氏标定法,每一个角点的像素坐标设为(a,b),每一个角点在世界坐标系下的物理坐标(A,B,C)=0来进行相机的标定,获得相机的内参矩阵和径向畸变参数;
步骤4.2:将2D空间中的图像点设为n=[a,b]T,3D空间中的图像点设为N=[x,y,z],齐次坐标分别为三维空间坐标映射到二维图像坐标转换为其中s为世界坐标系到图像坐标系的尺度因子,α和β分别为焦距与像素横纵比,γ为径向畸变参数,为相机内参矩阵;
步骤4.3:求解相机内参,三维空间坐标到二维图像坐标的映射为:H=A[r1 r2 t],其中r1和r2为两个相互正交的旋转向量,A=s*M,解Homographic矩阵进行单位性转换,将平面的点映射到另一个二维平面的投影,定义旋转矩阵的第i列为ri,棋盘格位于Z轴上,表示为:s*[a b 1]T=A[r1r2 r3 t]*c*[x y 0 1]T;Homography有8个自由度,r1和r2正交且模相等,得到约束式为:
式中,h1、h2分别表示矩阵H的第一列与第二列;
且约束条件为:
式中,v代表图像中棋盘格的角点纵坐标,因棋盘格是长方形,所以只需要得知这个棋盘格的其中三个角点坐标就可以确定剩余一个角点坐标;v11、v12、v22分别表示棋盘格的左上方、右上方、右下方角点的纵坐标,b表示用奇异值分解最小奇异值对应的特征向量;
内参表达式如下:
其中,B11、B12、B13、B22、B23、B33公式表示矩阵B中不同位置元素,v0、u0表示中心点的实际位置坐标,λ为λ=s-1即尺度因子的逆矩阵,γ为径向畸变参数;
步骤4.4:求解相机外参:
r1=λM-1h1
r2=λM-1h1
r3=h1*h2
t=λM-1h3
其中,r1、r2、r3分别表示三个旋转向量,h1、h2、h3分别表示矩阵H的第一列、第二列和第三列;
5.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,所述步骤5具体包括以下步骤:
步骤5.1:为解决因相机摄像头前方的透镜对光的传播路径的影响,对图像进行径向畸变矫正;
对于图像中某一点为点P,设xj为发生径向畸变后的该点横坐标,yj为发生径向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标,归一化极坐标表示为[r,θ],其中r为矢量长度,t是矢量的水平夹角,则径向畸变的矫正公式为:
xj=x*(1+k1r2+k3r6+k2r4)
yj=y*(1+k1r2+k3r6+k2r4)
其中,k1、k2、k3是径向畸变参数;
步骤5.2:为解决因在机械组装中的误差产生的影响,对图像进行切向畸变矫正;
对于图像中某一点为点P,设x0为发生横向畸变后的该点横坐标,y0为发生横向畸变后的该点纵坐标;x为校正后的该点横坐标,y为校正后的该点纵坐标;用另外两个参数p1、p2进行纠正,则切向畸变的矫正公式为:
x0=x+2p1y+p2(r2+2x2)
y0=y+2p2x+p1(r2+2y2)
步骤5.3:联合步骤5.1和步骤5.2中的径向畸变、切向畸变矫正公式,对于相机坐标系中的点P[x,y,z],寻找它对应点的像素坐标的过程时将三维空间点投影到归一化图像平面,该点的像素坐标为:u=fx*x+cx,v=fy*y+cy;其中,u为像素点的横坐标,v为像素点的纵坐标,cx为图像像素中心点的横坐标,cy为图像像素中心点的横坐标。
6.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,所述步骤6具体包括以下步骤:
步骤6.1:直方图是在灰度范围[0,...,k,...,225]区间的功能函数,列出原图像的灰度级j,统计出原图像中每个灰度级所拥有的像素个数nj;
步骤6.2:计算出原图像的各灰度级的灰度分布概率其中n为直方图中的像素总个数,再计算出原图像的各灰度累积分布概率其中k表示灰度级,求出均衡化后的灰度级i=INT[(L-1)S(i)+0.5],其中INT()表示取整函数、L表示总灰度级数目、S(i)表示在i级的离散灰度,将(L-1)*p(k)进行四舍五入计算;
7.根据权利要求1所述的一种基于无人机单张航空图片的三维测量方法,其特征在于,所述步骤7具体包括以下步骤:
步骤7.1:建立单目三维物体测量模型,所述单目三维物体测量模型包括backbone、关键点检测分支和3D框回归分支;其中所述backbone层使用DLA-34结构来提取特征,将所获取的二维的RGB图像输入至backbone层中,通过DLA-34输出特征图,其长和宽分别为输入图像的1/4,通道数为256;在backbone中加入GN层,GN层将channel分组,在每个group中做LN,再做归一化处理;
所述二维RGB图像中,设W代表图像宽度,H代表图像高度;用(d,w,l,x,y,z,θ)表示目标三维图像,其中(d,w,l)的分别表示目标三维图像的高、宽、长,(x,y,z)表示目标三维图像在相机坐标系中的中心坐标点,θ表示拍摄图像时摄像头角度,拍摄图像时的飞行高度为s,相机内参设为K,
步骤7.2:将步骤7.1中backbone层输出的特征图输入关键点检测分支网络层,所述关键点检测分支网络层用于寻找目标的3D中心点在二维图像中的投影点位置;在关键点检测分支网络层寻找输入图像中的关键点并标记绿色,将目标三维图像的中心点在二维图像平面的映射点[xc yc]T设为关键点,目标三维图像的中心点坐标设为[x y z]T,用坐标[xb, 1yb,1]T、[xb,2yb,2]T、[xb,3yb,3]T、[xb,4yb,4]T、[xb,5yb,5]T、[xb,6yb,6]T、[xb,7yb,7]T、[xb,8yb,8]T分别表示目标三维图像的8个顶点在图像中的位置,并用确定高斯函数的标准差,其中表示为表示3D框的最小长方形;
步骤7.3:将步骤7.1中backbone层输出的特征图像及步骤7.2中所得得到的目标3D中心点输入至3D框回归分支网络层中,设δz表示深度偏移,δxc和δyc为量化误差,δd、δw、δl分别表示高、宽、长的残差,通过深度偏移求得目标的深度值z=μz+δzσz,μz、σz分别尺度因子和平移因子,物体的目标三维图像的中心点坐标表示为:
再求目标物体的长、宽、高表达式为:
步骤7.5:根据角度和目标在三维空间中的位置求得摄像头角度α是预测的观测角,则拍摄该物体时,无人机距离目标物体的直线距离m为通过将航向角矩阵R绕x轴旋转得到矩阵Rθ,根据物体的长宽高[l w d]T和中心点坐标[x y z]T得到目标三维物体的8个角点坐标矩阵表示为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310303473.8A CN116309844A (zh) | 2023-03-24 | 2023-03-24 | 一种基于无人机单张航空图片的三维测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310303473.8A CN116309844A (zh) | 2023-03-24 | 2023-03-24 | 一种基于无人机单张航空图片的三维测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116309844A true CN116309844A (zh) | 2023-06-23 |
Family
ID=86832260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310303473.8A Pending CN116309844A (zh) | 2023-03-24 | 2023-03-24 | 一种基于无人机单张航空图片的三维测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116309844A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117291980A (zh) * | 2023-10-09 | 2023-12-26 | 宁波博登智能科技有限公司 | 一种基于深度学习的单张无人机图像像素定位方法 |
CN117934600A (zh) * | 2024-03-25 | 2024-04-26 | 南京信息工程大学 | 基于无人机对于远距离标志物快速识别与三维位置解算方法 |
CN118552603A (zh) * | 2024-07-30 | 2024-08-27 | 泉州装备制造研究所 | 古建筑三维模型中任意两点的测距方法、系统及存储介质 |
CN118552603B (zh) * | 2024-07-30 | 2024-09-27 | 泉州装备制造研究所 | 古建筑三维模型中任意两点的测距方法、系统及存储介质 |
-
2023
- 2023-03-24 CN CN202310303473.8A patent/CN116309844A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117291980A (zh) * | 2023-10-09 | 2023-12-26 | 宁波博登智能科技有限公司 | 一种基于深度学习的单张无人机图像像素定位方法 |
CN117291980B (zh) * | 2023-10-09 | 2024-03-15 | 宁波博登智能科技有限公司 | 一种基于深度学习的单张无人机图像像素定位方法 |
CN117934600A (zh) * | 2024-03-25 | 2024-04-26 | 南京信息工程大学 | 基于无人机对于远距离标志物快速识别与三维位置解算方法 |
CN118552603A (zh) * | 2024-07-30 | 2024-08-27 | 泉州装备制造研究所 | 古建筑三维模型中任意两点的测距方法、系统及存储介质 |
CN118552603B (zh) * | 2024-07-30 | 2024-09-27 | 泉州装备制造研究所 | 古建筑三维模型中任意两点的测距方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109813251B (zh) | 用于三维测量的方法、装置以及系统 | |
CN110211043B (zh) | 一种用于全景图像拼接的基于网格优化的配准方法 | |
CN109410207B (zh) | 一种基于ncc特征的无人机巡线图像输电线路检测方法 | |
CN116309844A (zh) | 一种基于无人机单张航空图片的三维测量方法 | |
CN109859272B (zh) | 一种自动对焦双目摄像头标定方法及装置 | |
CN112070845B (zh) | 双目相机的标定方法、装置及终端设备 | |
CN112767542A (zh) | 一种多目相机的三维重建方法、vr相机和全景相机 | |
CN108305233B (zh) | 一种针对微透镜阵列误差的光场图像校正方法 | |
CN111145269B (zh) | 一种鱼眼相机与单线激光雷达的外方位元素的标定方法 | |
CN106225676B (zh) | 三维测量方法、装置及系统 | |
CN110874854B (zh) | 一种基于小基线条件下的相机双目摄影测量方法 | |
CN105809706B (zh) | 一种分布式多像机系统的全局标定方法 | |
CN111709985A (zh) | 一种基于双目视觉的水下目标测距方法 | |
CN114549746A (zh) | 一种高精度真彩三维重建方法 | |
CN115239820A (zh) | 一种分体式飞行车辆鸟瞰图实时拼接及车位检测方法 | |
CN106871900A (zh) | 船舶磁场动态检测中图像匹配定位方法 | |
CN111461963A (zh) | 一种鱼眼图像拼接方法及装置 | |
CN113160048A (zh) | 一种缝合线引导的图像拼接方法 | |
CN114998448B (zh) | 一种多约束双目鱼眼相机标定与空间点定位的方法 | |
Kurmi et al. | Pose error reduction for focus enhancement in thermal synthetic aperture visualization | |
CN116625258A (zh) | 链条间距测量系统及链条间距测量方法 | |
CN111951339A (zh) | 利用异构双目相机进行视差计算的图像处理方法 | |
CN108520541B (zh) | 一种广角摄像机的标定方法 | |
CN113706635A (zh) | 一种基于点特征和线特征融合的长焦距相机标定方法 | |
CN111325218B (zh) | 基于光场图像的Hog特征检测与匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |