CN115222819A - 一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法 - Google Patents

一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法 Download PDF

Info

Publication number
CN115222819A
CN115222819A CN202210767906.0A CN202210767906A CN115222819A CN 115222819 A CN115222819 A CN 115222819A CN 202210767906 A CN202210767906 A CN 202210767906A CN 115222819 A CN115222819 A CN 115222819A
Authority
CN
China
Prior art keywords
coordinates
airplane
camera
calibration
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210767906.0A
Other languages
English (en)
Inventor
罗晓燕
朱衍波
常宇
王雅民
卢京泽
张磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202210767906.0A priority Critical patent/CN115222819A/zh
Publication of CN115222819A publication Critical patent/CN115222819A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明设计了一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法,属于计算机视觉技术领域。本发明通过飞机导航信息以及相机有关参数获取飞机地理坐标、实际像素坐标、理论像素坐标三级坐标,然后根据地理坐标的几何特性以及三级坐标间的对应关系,解出像素坐标与地理坐标的对应矩阵,再引入典型参考点进行外参标定,通过相机内外参解算出的典型目标点实时位置,获得检测误差,最后利用对应矩阵,结合目标检测算法,解算出非合作检测目标的实时位置,在机场大范围场景下的安全监测领域具有重大意义。

Description

一种基于机场大范围场景下多模信息参照的相机自标定和目 标追踪方法
技术领域
本发明涉及相机标定技术领域,提出了一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法,在机场大范围场景下的安全监测具有重大意义。
背景技术
在机器视觉领域,相机标定是采集理想视觉数据的前提与关键技术。然而,由于生产加工等技术问题会导致相机存在误差,并且在使用过程中由于各种物理或化学因素的影响,相机会不断产生新的误差,甚至会造成误差累积。因此,在实际过程当中需要对相机进行标定,并对标定结果进行不断修正以获得理想的使用效果。
按照现有相机标定技术方法,可以将其大致可分为三类:传统摄影测量学中的相机标定方法、主动视觉标定方法以及自标定方法。传统摄影测量学中的相机标定方法需要精密加工得到的标定块,通过测量相机与标定块之间的位置关系,依据已知的标定块的几何位形关系完成标定;主动视觉方法则需要控制相机做精确的特定运动,如绕光心旋转或纯平移等,然后根据在多个位置拍摄得到的图像以及相机在每个位置的姿态完成标定;而自标定技术利用相机自身的约束,通过对于同一静止物体进行多次拍摄,或多个相机同时进行拍摄,利用图像序列间的约束关系进行标定,此种方法精度以及鲁棒性差,不适用实时性较强的场合。
在机场大范围场景下,对于传统摄影测量学中的相机标定方法,标定块体积、数量以及加工精度难以满足要求,成本较高但标定精度较低;对于主动视觉标定方法,绝大部分机场现有监控设备不支持受控精准运动,若应用主动视觉标定方法,需进行改装,成本极高;对于单纯的相机自标定技术,其本身的标定精度以及鲁棒性不高,难以直接应用。
综上所述,现有研究尚没有一种适用于机场大范围场景的标定和目标跟踪方法。本发明提出一种基于飞机多级坐标间的对应关系,通过机场中存在典型几何约束的点集,进行相机外参标定并结合目标检测算法实时计算目标位置信息的方法。
发明内容
本发明的目的在于提出一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法。
本发明的特征在于提供了一种基于机场大范围场景下多模信息参照的相机自标定方法,结合机场大范围场景下飞机与相机相对运动可精确测定的特点,依托飞机导航信息以及机场典型几何约束构成的多模信息,以相机自标定方法为基础,综合传统摄影测量学中的相机标定方法以及主动视觉标定方法的特性,在机场大范围场景下解决了相机自标定精度以及时效性差的问题。
本发明提供的基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法,包括以下步骤:
1)通过GBAS系统获取飞机地理坐标;
2)图像内检测飞机像素坐标,并计算飞机在像素坐标系中的理想坐标;
3)形成图像像素级与地理空间级的飞机坐标对应矩阵;
4)寻找典型目标点作为参考点,确定典型几何约束;
5)根据参考点确定的几何约束以及飞机多级坐标构成的多模信息,进行相机外参标定;
6)通过对应矩阵解算出的典型目标点实时位置;
7)根据需求,进一步解算出非合作检测目标的实时位置;
本发明的系统具有如下特点:
1、算法简单,通用性强。
本发明的方法具有如下特点:
1、有效对标定结果进行不断修正以获得理想的使用效果;
2、结合对相机的物理参数与飞机的各级坐标进行相机标定;
3、对大范围场景中的目标位置能实时计算位置信息。
附图说明
图1基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法工作流程图
图2理想像素坐标计算流程图
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出了一种基于机场大范围场景下几何约束及导航信息的相机自标定及目标追踪方法,可以有效提升标定精度与实时性,对机场大范围情景下安全监控重大的意义。
实际应用中的具体实施流程如图1所示,具体为:
1)通过GBAS系统,对大范围监控下飞机沿指示线在地面上行驶时的地理位置信息间隔合适时间取样,获取对应tk时刻飞机地理坐标Wk(xk,yk,zk),k=1,2,3,4,...,n;
2)确定地理信息与机身的相对位置关系,通过目标检测算法,根据飞机的几何尺寸,获取图像中对应时刻飞机的像素坐标并根据飞机实际坐标以及相机各项参数,利用小孔成像模型计算出飞机各个时刻在像素坐标系中的理想坐标;
首先,确定地理坐标Vk在机身上的详细位置;
然后,通过YOLO等目标检测算法,根据飞机的几何尺寸,获取图像中tk时刻飞机地理坐标Wk对应的像素坐标
Figure BDA0003722878970000054
3,4,...,n;
最后,根据飞机地理坐标Wk(xk,yk,zk)、相机位置坐标(x0,y0,z0),相机光轴与竖直方向夹角Φ、与水平参考方向夹角θ以及焦距f、像素在相机感光板上的物理长度dx、dy,利用小孔成像模型计算出tk时刻飞机在像素坐标系中的理想坐标Vk(uk,vk),k=1,2,3,4,...,n;
具体的,在2)中计算飞机在像素坐标系中的理想坐标步骤如下:
首先,根据相机光轴与竖直方向夹角Φ、与水平参考方向夹角θ以及飞机地理坐标Wk(xk,yk,zk)、相机位置坐标(x0,y0,z0),将飞机地理坐标转换为以光轴为轴的柱面坐标(ρkk,lk)。
然后,以小孔成像模型,将(ρkk,lk)转换为成像平面上的极坐标
Figure BDA0003722878970000051
再转换为理想像素坐标(uk,vk),其中
Figure BDA0003722878970000052
Figure BDA0003722878970000053
其中f为相机焦距、dx、dy为像素在相机感光板上的物理长度,u0,v0为像素坐标系原点的偏移量。
其中飞机地理坐标Wk(xk,yk,zk)、相机位置坐标(x0,y0,z0)可通过定位信息直接获得,Φ、θ可通过精密测量仪器直接测得,u0、v0、f、dx、dy可通过光学方法在实验室中测量。
3)对飞机的各级坐标进行分类,再参照分类后的飞机三级坐标求解地理坐标级与图像像素级对应矩阵,舍弃有明显误差的坐标点,将平均值作为最终的对应矩阵;
首先,对飞机地理坐标Wk(xk,yk,zk),k=1,2,3,4,...,n;以线性相关的坐标为同一类的分类方法进行分类,分为m组;
然后,按S12所述分类方法,以时间tk为基准,将像素坐标
Figure BDA0003722878970000061
Figure BDA0003722878970000062
以及理想像素坐标Vk(uk,vk),k=1,2,3,4,...,n,对应到S31所述m组中;
最后,将m组理想像素坐标Vk、飞机地理坐标Wk带入Wk=HVk中,求解对应矩阵H,解出的m个值舍去有明显误差的,其余值求平均值作为最终的对应矩阵H。
4)寻找典型目标点作为参考点;
首先,人工选取飞机轨迹周围合适区域,使得区域内包含有成像清晰的指示线;
然后,对选取得到区域利用canny算子监测边缘方法提取边缘特征,获取边缘像素及其方向向量,使用shi-tomasi角点提取算法提取指示若干线角点像素坐标(u,v),根据飞机相对坐标Vk以及指示线的位形数据计算出若干角点的实际坐标(xw,yw,zw)。
5)将飞机理想像素坐标、实际像素坐标带入求解畸变方程,求出去畸矩阵,再根据像素坐标系与世界坐标系中坐标的对应关系求解出若干组旋转矩阵、平移矩阵,实现相机标定;
首先,分别将m组飞机理想像素坐标Vk、像素坐标
Figure BDA0003722878970000063
带入求解方程
Figure BDA0003722878970000064
其中,
Figure BDA0003722878970000065
得到m组k1,k2,k3,p1,p2,将有明显误差的数据舍去,取剩余数据平均值作为畸变参数,并求出去畸矩阵D;
然后,根据
Figure BDA0003722878970000071
求解出若干组旋转矩阵R、平移矩阵T,取平均值作为最终的R、T,其中D为去畸矩阵,I为内参矩阵。
6)通过对应矩阵解算出的典型目标点实时位置;
首先,选取图像中可检测性好、检测误差小的若干角点使用shi-tomasi角点提取算法提取指示若干线角点像素坐标(un,vn),根据飞机理想像素坐标坐标Vk、飞机地理坐标Wk、以及已知的几何约束计算出若干角点的实际坐标(xn,yn,zn);
然后,将实际坐标(xn,yn,zn)带入到公式(2)中,解出坐标
Figure BDA0003722878970000072
与实际坐标(xn,yn,zn)逐一作差、求得平方和的平均值S,以
Figure BDA0003722878970000073
为误差;
最后,设第一次检测时误差为
Figure BDA0003722878970000074
每间隔适宜时间,重新进行检测,获取误差
Figure BDA0003722878970000075
Figure BDA0003722878970000076
大于某一值,则重复进行S1至S6,重新进行标定以修正相机使用过程中产生的累计误差。
7)使用目标识别算法进行目标识别,检测出图像中非合作目标的像素坐标,再使用多模信息参照下求得的对应矩阵求解出非合作目标的实际坐标,实现目标追踪;
首先进行预训练。使用ImageNet数据集训练YOLO网络,为了获取目标的抽象判别信息,采用深度卷积神经网络进行目标特征提取;
然后,使用预训练得到的模型来初始化YOLO模型的网络参数,然后用VOC数据集进行模型的训练与微调。
将训练好的YOLO模型用于飞机的检测,在检测框内提取飞机的轮廓并获取质心,利用质心与飞机的尺寸计算出与飞机地理坐标对应的像素坐标;
然后,带入Wt=HVt求解出非合作目标的实际坐标Wt(xt,yt,zt);
最后,在实际坐标的基础上增加误差项,以
Figure BDA0003722878970000081
作为带误差的坐标值。
具体的,在7)中,首先进行YOLO模型的预训练。使用包含1000个类别的ImageNet数据集训练YOLO网络所采用DarkNet53的前20个卷积层+1个average池化层+1个全连接层。
然后使用预训练模型来初始化YOLO模型前20个卷积层的网络参数,然后通过具有20个类别的VOC数据集对YOLO模型进行训练与微调。
最后,将训练好的YOLO模型用于飞机的检测,在检测框内提取飞机的轮廓并获取质心,利用质心与飞机的尺寸计算出与飞机地理坐标对应的像素坐标。
实施例
本项目的具体实施过程如图1所示。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (3)

1.一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法,其特征在于,通过GBAS系统,对大范围监控下飞机沿指示线在地面上行驶时的地理位置信息间隔合适时间取样,获取对应时刻飞机地理坐标;在确定地理信息与机身的相对位置关系之后,再通过目标检测算法,根据飞机的几何尺寸,获取图像中对应时刻飞机的像素坐标并根据飞机实际坐标以及相机各项参数,利用小孔成像模型计算出飞机各个时刻在像素坐标系中的理想坐标;对飞机的各级坐标进行分类,再参照分类后的飞机三级坐标求解地理坐标级与图像像素级对应矩阵,舍弃有明显误差的坐标点,将平均值作为最终的对应矩阵;选取飞机轨迹周围合适区域,再对选取得到区域通过边缘检测方法提取边缘特征,使用角点提取算法提取指示若干线角点像素坐标,再根据飞机相对坐标以及指示线的位形数据计算出若干角点的实际坐标,作为标定的实际参照;将飞机理想像素坐标、实际像素坐标带入求解畸变方程,求出去畸矩阵,再根据像素坐标系与世界坐标系中坐标的对应关系求解出若干组旋转矩阵、平移矩阵,实现相机标定。
2.选取图像中可检测性好、检测误差小的若干角点使用角点提取算法提取指示若干线角点像素坐标,根据飞机各级坐标以及几何约束等多模信息计算出若干角点的实际坐标,并根据多级坐标间对应关系,解出坐标的计算值,与实际坐标逐一作差,求得平方和的平均值,将其平方根作为误差,此后间隔合适时间,参照新的多模信息,重新进行标定,以修正相机使用过程中产生的累计误差产生的影响,实现对相机标定结果的校准。
3.使用目标识别算法进行目标识别,检测出图像中非合作目标的像素坐标,再使用多模信息参照下求得的对应矩阵求解出非合作目标的实际坐标,实现目标追踪。
CN202210767906.0A 2022-06-30 2022-06-30 一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法 Pending CN115222819A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210767906.0A CN115222819A (zh) 2022-06-30 2022-06-30 一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210767906.0A CN115222819A (zh) 2022-06-30 2022-06-30 一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法

Publications (1)

Publication Number Publication Date
CN115222819A true CN115222819A (zh) 2022-10-21

Family

ID=83610758

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210767906.0A Pending CN115222819A (zh) 2022-06-30 2022-06-30 一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法

Country Status (1)

Country Link
CN (1) CN115222819A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116753918A (zh) * 2023-06-19 2023-09-15 中国人民解放军61540部队 基于空天线阵传感器的地面目标位置估计方法和装置
CN116758150A (zh) * 2023-05-15 2023-09-15 阿里云计算有限公司 位置信息确定方法及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758150A (zh) * 2023-05-15 2023-09-15 阿里云计算有限公司 位置信息确定方法及装置
CN116758150B (zh) * 2023-05-15 2024-04-30 阿里云计算有限公司 位置信息确定方法及装置
CN116753918A (zh) * 2023-06-19 2023-09-15 中国人民解放军61540部队 基于空天线阵传感器的地面目标位置估计方法和装置
CN116753918B (zh) * 2023-06-19 2024-03-19 中国人民解放军61540部队 基于空天线阵传感器的地面目标位置估计方法和装置

Similar Documents

Publication Publication Date Title
CN109269430B (zh) 基于深度提取模型的多株立木胸径被动测量方法
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
CN108510530B (zh) 一种三维点云匹配方法及其系统
CN115222819A (zh) 一种基于机场大范围场景下多模信息参照的相机自标定和目标追踪方法
CN108107462B (zh) Rtk与高速相机组合的交通标志杆姿态监测装置及方法
CN105716542B (zh) 一种基于柔性特征点的三维数据拼接方法
CN105118086B (zh) 3d‑aoi设备中的3d点云数据配准方法及系统
CN106996748A (zh) 一种基于双目视觉的轮径测量方法
CN112929626B (zh) 一种基于智能手机影像的三维信息提取方法
CN106971408A (zh) 一种基于时空转换思想的摄像机标定方法
CN115187798A (zh) 一种多无人机高精度匹配定位方法
CN110246194A (zh) 一种像机与惯性测量单元旋转关系快速标定方法
CN113313659A (zh) 一种多机协同约束下高精度图像拼接方法
CN109242774A (zh) 一种基于多维空间不变特征的平板类零件点云拼接方法
CN115578315A (zh) 一种基于无人机图像的桥梁应变近景摄影测量方法
CN110068313B (zh) 一种基于投影变换的数字天顶仪定向方法
CN114372992A (zh) 一种基于动平台的边缘角点检测四目视觉算法
US11544837B2 (en) Method for dynamically measuring deformation of rotating-body mold
CN113963067B (zh) 一种采用小靶标对大视场视觉传感器进行标定的标定方法
CN115294313A (zh) 基于3d-2d多模态融合的密集真彩点云数据采集方法及装置
CN112712566B (zh) 基于结构参数在线校正的双目立体视觉传感器测量方法
CN111457914B (zh) 一种基于可编码视觉合作目标的多舵翼动态摆角测量方法
CN111833281B (zh) 面向可重复使用火箭回收的多视觉敏感器数据融合方法
CN112924708B (zh) 一种适用于水下近底作业航行器的速度估计方法
CN115797185B (zh) 一种基于图像处理、复球面的坐标转换的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination