CN113066050A - 一种基于视觉的空投货台航向姿态解算方法 - Google Patents
一种基于视觉的空投货台航向姿态解算方法 Download PDFInfo
- Publication number
- CN113066050A CN113066050A CN202110261412.0A CN202110261412A CN113066050A CN 113066050 A CN113066050 A CN 113066050A CN 202110261412 A CN202110261412 A CN 202110261412A CN 113066050 A CN113066050 A CN 113066050A
- Authority
- CN
- China
- Prior art keywords
- image
- air
- feature
- cargo bed
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 239000011159 matrix material Substances 0.000 claims description 33
- 238000004422 calculation algorithm Methods 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 25
- 238000012706 support-vector machine Methods 0.000 claims description 20
- 238000001914 filtration Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 13
- 238000012216 screening Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 230000002093 peripheral effect Effects 0.000 claims description 9
- 238000002834 transmittance Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 7
- 238000013519 translation Methods 0.000 claims description 5
- 239000003550 marker Substances 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000015556 catabolic process Effects 0.000 claims description 3
- 238000006731 degradation reaction Methods 0.000 claims description 3
- 239000002245 particle Substances 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000001502 supplementing effect Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 7
- 230000000007 visual effect Effects 0.000 description 17
- 238000000605 extraction Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Mathematical Optimization (AREA)
- General Engineering & Computer Science (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Artificial Intelligence (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
Abstract
本发明提供了一种基于视觉的空投货台航向姿态解算方法,本发明方法分别在近地面拍摄合作目标和远地面自然特征影像,从而得到具有稳定特征的影像序列,能有效提高空投货台位姿解算技术的精确性,鲁棒性和实时性。
Description
技术领域
本发明属于空投系统与计算机视觉的交叉领域,尤其涉及一种基于视觉的空投货台航向姿态解算方法。
背景技术
随着我国国产大型军用运输机的研制,运输机投放辎重利用空投货台作为载体,为实现空投货台的平稳着陆,空投系统需实时解算出空投货台的姿态角,使空投系统的平稳降落。
目前空降系统货台的位姿估计技术,大多采用GPS或者惯性测量单元(IMU)进行位姿的估计。但GPS在楼宇,山谷等复杂场景中GPS信号被遮挡,无法进行精准的定位;惯性测量单元利用加速度计和陀螺仪长时间工作,逐渐累积误差产生严重的漂移,无法单独定位。而采用视觉导航系统进行空投货台航向姿态的估计,具有抗干扰能力,数据无延迟的优点。视觉导航方法就是利用机载摄像机采集地面人工特征或自然环境下的复杂特征的影像序列,经过视觉位姿算法解算出空投货台的航向姿态信息,将姿态信息反馈到空投系统的控制系统,控制牵引伞对货台的拉直张满力度,使货台平稳落地。
空投货台位姿估计技术国内外研究人员主要从视觉导引的空投货台自主着陆和未知环境下空投货台视觉定位这两个方面进行研究。但是针对空投货台着陆都是基于10-20米的近地面,而空降系统高空空投货台将面临复杂环境和距地面大距离下降拍摄目标的情况很少有研究。
发明内容
发明目的:本发明针对现有空投活动依赖全球定位系统(GPS)和惯性导航系统(INS)来进行定位定姿的问题,为进一步提高在有信号遮挡场景的空降空投能力,本发明公开了一种基于视觉的高空空投货台航向姿态解算方法。
为了达到上述的方法目的,本发明提出基于视觉的空投货台航向姿态解算技术,包括以下步骤:
步骤1,根据空投货台初始降落高度将着陆过程分为近地面和远地面两个阶段,近地面设定为空投货台距地高度200m以下的范围,远地面设定为距地高度200m-800m范围内;
步骤2,标定空投货台的机载摄像机的参数;
步骤3,当空投货台位于远地面时,通过大气散射模型和导向滤波降低复杂天气对影像降质的影响,再利用点线混合特征提取自然环境下的几何信息,并对线特征寿命进行筛选,提高算法实时性;
步骤4,当空投货台位于近地面时,设计合作目标作为地面辅助特征,降低影像中的特征数量,再通过图像处理筛选出影像中稳定的特征;
步骤5,将特征进行匹配,通过单应性对空投货台姿态进行解算,再减去云台转动角度,获取空投货台下降过程中的三轴姿态。
步骤1包括:通过安装在空投货台的GPS或者高度计判断货台所降落的高度,当进入着陆窗口时,对空投货台进行位姿的解算,将姿态信息反馈给控制系统,控制牵引伞的拉力使空投货台的平稳着陆。
步骤2包括:
步骤1-1,标定机载摄像机获得内参矩阵与机载摄像机的畸变系数,设定畸变参数K1,K2;fx表示焦距横坐标,fy表示焦距纵坐标,cx表示光心位置横坐标,cy表示光心位置纵坐标,K1表示第一个畸变系数,K2表示第二个畸变系数;
步骤1-2,将机载摄像机下的世界坐标系和影像坐标系的转换如下:
其中,u v分别表示像素坐标系下平面横坐标、纵坐标,Xw Yw Zw表示世界坐标系下三维坐标;
其中Rz表示绕Z轴旋转的旋转矩阵,Ry表示绕Y轴旋转的旋转矩阵,Rx表示绕X轴旋转的旋转矩阵。
步骤3中,所述当空投货台位于远地面时,通过大气散射模型和导向滤波还原影像,具体包括:
空投货台雾天侦察的大气散射成像模型如下:
I(x)=J(x)t(x)+A(1-t(x)) (3)
I(x)表示拍摄到的雾天模糊影像,J(x)表示复原出的清晰影像,A表示大气光成分,t(x)表示折射率;J(x)t)(x)为直接衰减项,即场景入射光在传输介质中因大气粒子的散射作用而衰减的程度;A(1-t(x))为大气光幕亮度,即在成像过程中所加入的大气散射光;通过暗通道先验假设和大气散射模型的计算得到粗略的透射率图,然后通过导向滤波进行优化,补充粗略的透射率图中的细节,最后通过大气散射模型的计算得到去雾后的图片。参考文献:He Kaiming,Sun Jian,Tang Xiaoou.Single image haze removal usingdark channel prior[C]//IEEE Conference on Computer Vision and PatternRecognition.IEEE Press,2009:1956–1963.
He,Kaiming;Sun,Jian;Tang,Xiaoou.Guided Image Filtering[C].IEEETransactions on Pattern Analysis and Machine Intelligence,2013,35(6),1397–1409.
步骤3中,所述利用点线混合特征提取自然环境下的几何信息,并对线特征寿命进行筛选,具体包括:
线特征算法采用LSD算法提取影像中的线段,并用LBD描述子对其加以描述;线特征的提取速度相较于点特征的提取速度慢,因此根据提取的点特征数量来判断是否需要提取线特征.当点特征数量不足时,提取线特征,并匹配线特征,最终融合点特征的匹配结果,根据点线两种特征解算位姿信息。
步骤4中,空降系统货台的初始降落高度在近地面时,机载摄像机拍摄地面上的人工设计的合作目标作为采集标志物,设计单一合作目标和五点分散合作目标,大大提高了合作目标的有效拍摄距离,设计的单一合作目标中有11个角点,可提供稳定的角点。
步骤4中,所述当空投货台位于近地面时,设计合作目标作为辅助特征,降低影像中的特征数量,完成姿态调整平稳着陆,具体包括:
步骤4-1,空降系统货台的初始降落高度在近地面时,机载摄像机拍摄地面上的人工设计的合作目标作为采集标志物,设计单一合作目标和五点分散合作目标,设计的单一合作目标中有11个角点。合作目标的颜色要相对于背景要突出,形状简单,相对于背景容易分割。但解算位姿需要分割出合作目标的角点进行匹配,提取角点数量越多,解算出的姿态角精度越高,但计算时间也将过长。影像中角点的数量与计算时间是需要平衡的。人工设计的合作目标大小的实际有效探测距离影响空降系统位姿解算的精度。单一合作目标的大小固定,只适用于有效距离的位姿获取,超出有效距离后,拍摄的影像角点将会模糊,导致解算位姿算法失效。设计五点分散合作目标,可调节各个合作目标的距离,使目标放大,增加了合作目标的有效距离,满足空降货台在近地面的测姿要求。
步骤4-2,通过高斯影像金字塔将机载摄像机采集到的序列影像进行压缩:高斯金字塔用于降采样图像,首先将复原后的清晰影像作为最底层图像,进行高斯核卷积,去除影像中偶数行和列,生成的图像为原影像的四分之一大小,降低了影像的数据量;
|dstsize.width*2-src.cols|≤2
|dstsize.height*2-src.rows|≤2
输出影像大小dstsize.width、dstsize.height;
输入影像大小src.cols、src.rows;
参考文献:屠礼芬,仲思东,彭祺,梅天灿.基于高斯金字塔的运动目标检测[J].中南大学学报(自然科学版),2013,44(07):2778-2786.;
步骤4-3,颜色空间转化:将合作目标背景设置为黑色,使用RGB彩色模式转换成HSV彩色模型,实现颜色特征的提取;
步骤4-4,获取ROI感兴趣区域:从影像中分割出合作目标的矩形区域,减少后续步骤的图像处理的计算量;
刘昌祥等.学习OpenCV3[M].清华大学出版社,2018:177-180.
步骤4-5,影像灰度化和二值化:将序列影像中感兴趣区域变为黑白两色影像,影像二值化采用最大类间差法,利用一种自适应的方法确定不同场景下的灰度阈值,将序列影像变为二值影像;
参考文献:Otsu N.A Threshold Selection Method from Gray-LevelHistograms[J].IEEE Trans,1979,9(1),62–66.
步骤4-6,中值滤波:中值滤波器将每个序列影像中每个像素替换成围绕这个像素的矩形邻域内的中值,用于去除影像中的噪声;
步骤4-7,提取影像中的FAST特征点:FAST是一种角点,主要检测局部像素灰度变化明显的地方,且提取速度快;
参考文献:Edward Rosten,Reid Porter,and Tom Drummond,“Faster andbetter:a machine learning approach to corner detection”in IEEE Trans.PatternAnalysis and Machine Intelligence,2010,vol 32,pp.105-119.
步骤4-8,空投货台的机载摄像机拍摄到合作目标,利用SVM支持向量机判别影像中的特征点是单一合作目标或是五点合作目标的,对影像序列中的特征点进行筛选;当空投货台从200m的近地面降落时,将五点合作目标退化成五个特征点集,利用对极几何中的五点法处理退化的特征点集;当空投货台能够拍摄到五点合作目标时,机载摄像机在理想情况下(理想情况指,五点合作目标可被摄像机全部拍摄到,55个特征点可全部检测出来),可检测到五点合作目标中的55个特征点,需要剔除分布在四周的合作目标中的特征点,保留影像中稳定的11个特征点,稳定的特征点指特征点在图像中位置相对固定,不易消失在视野范围内,中心合作目标集中影像中间部位,故为稳定的特征点。而四周的合作目标中的特征点因拍摄视角变化,无法被检测到,故为不稳定的特征点;
利用SVM支持向量机判别出中心特征点和四周特征点,进行分类:当影像中的特征点数量少于5个时,影像认定无效,删除此帧影像,并控制转动云台上的机载摄像机追踪合作目标,直至检测特征点大于5个;
当影像中的特征点数量在5个到11个时,说明影像中只采集到四周合作目标的其中一个,特征点数量满足检测特征点数量的要求,跳转到步骤4-9进行特征的匹配;如果影像中不满足5~11个特征点数量要求,则调整机载摄像机拍摄角度,定位中心合作目标;
当影像中的特征点数量在11到55个时,说明影像中已拍摄到中心合作目标,也拍摄到部分四周的合作目标,只选取11个中心稳定特征点作为特征匹配的特征;11个稳定特征集中在影像中间部位,不易移出视野范围,其余的特征点由于分布在影像四周会随机载相机的移动而消失在视野中,不利用特征的匹配;
利用SVM支持向量机归类中心特征点集和四周特征点集,选择检测到的特征点到影像中点的距离作为判别元素,利用所有检测出的特征点的最上,最下,最左,最右四个坐标计算出影像中心的坐标位置,选取离影像中心最近的11个特征作为稳定特征,筛除四周的合作目标中的特征点;
步骤4-9,特征匹配:使用LK稀疏光流法跟踪特征点的运动,实现相邻影像对特征点的跟踪。
参考文献:B.Lucas,T.Kanade,An iterative image registration techniquewith an application to stereo vision[C].Joint Conference in ArtificialIntelligence,pp.674-679,1981.
步骤5包括:利用已匹配成功的11的特征点对进行位姿解算,影像中所有特征点都落在同一平面上,计算平面的法向量,通过单应性进行运动估计,根据对极几何计算出相应的单应矩阵,利用非奇异值分解对单应矩阵进行分解,得到旋转矩阵R和平移矩阵t,从而根据旋转矩阵解算出空投货台的姿态角;世界坐标系下的绝对运动参数则利用GPS或者高度计获取得到摄像机高度来确定,最终实现空投货台的三轴欧拉角的准确解算。
参考文献:高翔,张涛等著.视觉SLAM十四讲从理论到实践[M].电子工业出版社,2017:170-172.
机载摄像机固定在空投货台质心处,拍摄合作目标得到序列影像,并利用序列影像解算得到的姿态等效于货台的三轴姿态。货台搭载机载摄像机需要对焦近地面的合作目标或者远地面的自然环境特征,使拍摄特征一直保持机载摄像机的视场范围内。空投货台质心处安装云台,摄像机的转动需要云台协同控制,使机载摄像机的主点对准目标特征中心;通过角度编码器获取云台转动的角度θT,并和解算出的姿态角θ进行加和公式如下,从而获得机载摄像机在世界坐标系的位姿来获取空投货台的真实的三轴姿态角θr。
θr=θ+θT (4)
本发明的有益效果是:本发明提供了一种基于视觉的空投货台航向姿态解算技术,分别在近地面拍摄合作目标和远地面自然特征影像,从而得到具有稳定特征的影像序列,能有效提高空投货台位姿解算技术的精确性,鲁棒性和实时性。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是总体技术线路图。
图2是点线混合特征技术线路图。
图3是单个合作目标示意图。
图4是五点合作目标示意图。
图5是合作目标影像处理技术流程图。
具体实施方式
本实施为一种基于视觉的空投货台航向姿态解算方法,包括下列步骤:
步骤1:本发明为基于视觉的实时检测空投系统货台位姿和航向技术,设计了视觉导引的空投货台两阶段位姿解算方案,解决了空投货台从不同初始空投高度下落位姿解算问题。空投系统通过GPS或者高度计记录下降高度,实现两阶段解算位姿算法的转换。在初始空投高度较高时,空投系统将面临复杂天气环境以及大距离下合作标志无法成像的情况,提出了基于暗通道先验去雾算法,利用大气散射模型和导向滤波还原出清晰的去雾影像。由于摄像机视角发生变化和空降系统快速下降的原因,在自然环境下提取点特征容易匹配失败,而线特征更加侧重拍摄场景中的几何约束,对模糊场景的鲁棒性更高。提取影像中的点线混合特征能够发挥互补作用,提高在弱纹理的自然场景下解算位姿的精度。影像中线特征的提取采取LSD算法,并利用LBD描述子对其加以描述。为提升算法的实时性,提出线特征寿命的概念,检测出寿命长的线特征作为RANRAS算法的样本,减少误匹配的的计算时间。当空投系统下降高度到达近地面时,设计五点合作目标作为辅助特征,解决单个合作目标有效拍摄高度的问题大大提升了利用合作目标解算空投货台的位姿的使用高度。对影像序列进行影像处理降低数据维度,获取感兴趣区域,最后筛选出稳定的特征点,、进行特征点提取与匹配,解算出空投货台的三轴姿态角,可实现空投货台相对于合作标志的相对位姿解算,并将姿态信息反馈给无人机控制模块,为空投系统精确导航及着陆控制提供支撑。总体技术流程参考图1所示。
步骤2:在处理机载摄像机所采集的影像序列前,需标定机载摄像机的主要参数,最终确定空投系统货台在世界坐标系与影像坐标系的转换关系,最终得到货台在世界坐标下的三轴欧拉角。
空投货台的机载摄像机采集影像序列的影像质量对空投货台的位姿解算结果有着重要的影响。而采集影像的质量主要由机载摄像机的成像模型,空投系统的初始空投高度,和空投系统遇到的复杂环境等因素决定。为增强影像质量,利用张正友法对机载摄像机进行标定,标定摄像机的内参(焦距,主点坐标,畸变系数)。标定摄像机获得内参矩阵与摄像机的畸变系数,畸变参数包括径向畸变和桶形畸变,但是通常非线性畸变仅考虑径向畸变,所以仅设定畸变参数K1,K2。
坐标系转换,需要将机载摄像机下的世界坐标系和影像坐标系的转换如下:
步骤3:在高空空投中可能会出现有云层或者雾霾气候的情况,单目摄像机高空拍摄影像整体呈灰白色,清晰度降低,物体特征被掩盖难以辨认,影响影像后期的处理,降低雾天对成像效果的影响就成为货台空投时采集影像预处理的关键。针对这一问题采取暗通道去雾算法并利用导向滤波得到更精细的透射率图,还原清晰的影像,减少云雾遮挡,使用去雾算法提高影像质量,解决目标特征难以提取的问题。
暗通道去雾是基于先验知识的去雾算法,在绝大多数非天空的局部区域中存在一些像素至少有一个极小的颜色通道值接近零,并称为暗通道。空投货台雾天侦察的大气散射成像模型如下:
I(x)=J(x)t(x)+A(1-t(x)) (3)
I(x)表示拍摄到的雾天模糊影像,J(x)表示复原出的清晰影像,A表示大气光成分,t(x)表示折射率。J(x)t)(x)为直接衰减项,即场景入射光在传输介质中因大气粒子的散射作用而衰减的程度;A(1-t(x))为大气光幕亮度,即在成像过程中所加入的大气散射光,它是导致场景模糊和颜色失真的主要原因。
基于暗通道先验去雾算法实际上求得的只是粗略的大气透射率,对于不同景深的边缘部分透射率处理就会过于粗糙,采用导向滤波可实现对透射率精细的求解。首先通过暗通道先验假设和大气散射模型的得到粗略的透射率图,然后通过导向滤波进行优化,补充原影像中的细节,使得到的透射率图更加精细,最后通过大气散射模型的计算得到去雾后的图片。
步骤3:空投货台从远地面初始降落,机载摄像机高空拍摄自然环境,高空拍摄自然环境中点特征较少,且随着空投系统高速下落,摄像机的视角变化极大,容易跟丢一些角点。影像中充满大量的点特征和线特征,但是由于空投系统下降过程中出现抖动,导致影像的出现模糊,使得大量特征点失效,使影像中的无明显特征,自然环境中也有很多几何信息,线特征大多是影像中的边缘,线特征更加侧重影像的几何约束关系,并且线特征对模糊场景具有更高的鲁棒性,受噪声和遮挡影响较少,提取的特征更加的稳定。同时提取点特征和线特征可以更好地利用环境信息,发挥互补作用,提高提取特征的数量,为精确解算位姿奠定基础。
针对空投系统货台高空采集影像的特征点较少的情况,提出了一种基于点线混合特征预处理算法,充分利用目标的特征,提高对影像特征的提取识别。线特征的提取速度相较于点特征的提取速度慢,因此根据提取的点特征数量来判断是否需要提取线特征.当点特征数量不足时,提取线特征,并匹配线特征,最终融合点特征的匹配结果,根据点线两种特征解算位姿信息。线特征算法采用LSD算法提取影像中的线段,并用LBD描述子对其加以描述,为了简化计算,使用普吕克坐标系表示空间直线。
线特征的提取时间较长,且在匹配方面误差较大,甚至会有误匹配。检测特征点数量过少时,提取线特征,但是提取线特征的时间过长,为进一步提高算法的实时性,提出线特征寿命的概念,筛选线特征寿命长的作为可靠性较高的特征,进行特征的匹配,尽可能将寿命短的线特征剔除。线特征寿命的概念,线特征在影像序列中存在的帧数,通过设置人工阈值,线特征寿命大于固定阈值,就认定为寿命长的线特征,再计算线特征汉明距离短的,减少了RANSAC算法中的样本数量,减少计算时间,线特征计算流程图参考图2。
参考文献:Gioi R G V,jeremie Jakubowicz,Morel J M,et al.LSD:A FastLine Segment Detector with a False Detection Control[J].IEEE Transactions onSoftware Engineering,2010,32(4):722-732.
Zhang L,Koch R.An efficient and robust line segment matching approachbased on LBD descriptor and pairwise geometric consistency[J].Journal ofVisual Communication&Image Representation,2013,24(7):794-805.
步骤4:空降系统货台的初始降落高度在近地面时,机载摄像机拍摄地面上的人工设计的合作目标作为采集标志物。合作目标的颜色要相对于背景要突出,形状简单,相对于背景容易分割。但解算位姿需要分割出合作目标的角点进行匹配,提取角点数量越多,解算出的姿态角精度越高,但计算时间也将过长。影像中角点的数量与计算时间是需要平衡的。人工设计的合作目标大小的实际有效探测距离影响空降系统位姿解算的精度。单一合作目标的大小固定,只适用于有效距离的位姿获取,超出有效距离后,拍摄的影像角点将会模糊,导致解算位姿算法失效。设计五点分散合作目标,形状参考图3,可调节各个合作目标的距离,使目标放大,增加了合作目标的有效距离,满足空投货台在近地面的测姿要求。
通过空投货台机从距地面高度200m的近地面采集五点合作目标的影像序列,设置单一人工合作标志形状为长方形,长约1.1m,宽约0.8m,为便于目标在影像中便于分割,单一合作目标参考图4。合作目标提取共有11个角点,提取的角点数量与算法时长的相平衡。即可保证五点合作目标的整体尺寸在200m下的范围可以清晰照到合作目标。
步骤6:空投货台在离近地面较近时,通过机载摄像机采集人工固定的合作目标,视觉算法处理影像序列,得到货台降落实时的姿态信息。视觉算法通过高斯金字塔对影像进行压缩,在获取ROI区域得到,减少影像的处理信息量,再提取FAST特征点,并利用SVM分类器,分类五点合作目标或单一合作目标的特征点,最后匹配特征,解算出货台的三轴姿态参阅图5所示,具体过程如下:
6.1高斯影像金字塔将序列影像进行压缩,降低影像的维度,减少计算机处理的数据量。高斯影像金字塔的处理既除去了影像中部分噪声,也提高处理影像的实时性。高斯影像金字塔对影像进行高斯卷积,再删除影像中的偶数列和偶数行,经过一次降采样后影像降为原影像的四分之一,有效提高了整个识别算法的效率。
6.2颜色空间转化:合作目标背景设置为黑色的目的就是为与其他背景区分开,使用RGB彩色模式转换成HSV彩色模型(色调,饱和度,明度),以实现颜色特征的提取。HSV颜色空间对于指定颜色分割有重要应用,通常利用H和S分量反映两种颜色的数值差异。
6.3获取ROI区域:机载摄像机拍摄到合格的合作目标只理论占整幅影像的50%-80%。如果对整幅影像提取特征点,会提取除合作目标之外的环境特征增加特征提取的时间,计算量大。所以预先将感兴趣的部分提取出来,只对感兴趣的合作目标区域进行特征的提取检测,需要使用OpenCV函数进行轮廓查找并绘制。由于合作目标外环境区域也存在噪声干扰,噪声为小面积的区域,噪声添加了干扰因素。所以选取面积较大的合作目标设置为ROI区域,筛除小面积区域的干扰。
6.4影像灰度化和二值化:影像的二值化将影像变为黑白两色影像,影像二值化采用最大类间差法,选取固定的阈值无法应对空投货台降落过程中所拍摄的复杂多变的场景,需利用一种自适应的方法确定不同场景下的灰度阈值,将影像变为二值影像。
6.5中值滤波:中值滤波器将每个影像中每个像素围绕这个像素卷积核的矩形邻域内的中值,中值滤波利用矩形邻域内中间值的方式对影像中噪声进行平滑,不会引起影像的模糊。
6.6FAST特征点提取:FAST角点主要是检测局部像素灰度变换明显的地方,FAST角点所提取特征仅比较像素间的亮度的差异,提取特征速度远远快于Harris算子,但是不具有方向性且定位精度较低。
6.7SVM判别器:空投货台的机载摄像机拍摄到人工五点合作目标,利用SVM支持向量机判别影像中中心单一合作目标中的特征点还是分散的在中心合作目标的四周的合作目标中的特征点,以减少近距离拍摄过程中五点合作目标特征点数量,对影像序列中的特征点进行筛选,提高算法的实时性。当空投货台位于初始降落的高空时,摄像机拍摄到的五点合作目标像素区域占整体影像比例较小,则可将五点合作目标退化成五个特征点集,利用对极几何中的五点法处理该问题。当空投货台可清晰拍摄到五点合作目标时,机载摄像机在理想情况下,拍摄到五点合作目标则可检测到55个特征点,需要剔除分布在四周的合作目标中的特征点,保留影像中稳定的特征点,以减少特征点的数量,提高算法的实时性。
利用SVM支持向量机判别出中心特征点和四周特征点。基于视觉特征的空投货台投影矩阵的估计位姿方法拍摄到的合作目标所有特征不一定全部都在影像中,导致部分特征点无法采集到。空投系统需控制云台转动保证机载摄像机拍摄到的中心合作目标出现在整张影像的中心。因为影像的连续拍摄,需要稳定的特征点。但由于空投货台下降移动,机载摄像机的拍摄视场或者是高速下降的原因,四周的特征点有可能飘出整张影像,影响特征点的提取,SVM分类器是确定中心合作目标的特征点,为特征的稳定匹配做铺垫基础。利用影像中各特征点到中心点的距离作为判别因素获得稳定的角点。
分类:当影像中的特征点数量少于5个时,此影像认定无效,故删除此帧影像,并控制转动云台上的机载摄像机追踪合作目标,直至检测特征点大于5个。
当影像中的特征点数量在5个到11个时,说明影像中只采集到四周合作目标的其中一个,特征点数量满足算法检测特征点数量的要求直接进行计算。但是此时只有拍摄到部分合作目标的特征,导致特征点的分布极为集中,都集中到影像中以及角落,会影响特征提取与匹配以及最后位姿解算的精度,需要及时调整机载摄像机拍摄角度,定位中心合作目标。
当影像中的特征点数量在11到55个时,说明影像中已拍摄到中心合作目标,也拍摄到部分四周的合作目标。但要确保拍摄到中心的合作目标。但仍有部分特征点因视场和空降距离的原因,未在影像中出现的。为提升中心特征点的稳定,只选取中心特征点作为特征匹配的特征。利用SVM支持向量机归类中心特征点集和四周特征点集,选择检测到的特征点到影像中点的距离作为判别元素,利用所有检测出的特征点的最上,最下,最左,最右四个坐标计算出影像中心的坐标位置,筛选11个中心特征,并筛除四周的合作目标中的特征点。
6.8特征匹配:使用LK稀疏光流法跟踪特征点的运动,可实现相邻影像对特征点的跟踪,可回避计算和匹配描述子带来的时间,而光流本身的计算时间要小于描述子的计算和匹配。
步骤7:位姿解算利用已匹配成功的11的角点对,空投系统高空降落,拍摄近地面的人工合作标志或者远地面的自然环境特征,由于距离关系,影像中所有特征都落在同一平面上,并计算平面的法向量,通过单应性进行运动估计。根据对极几何计算出相应的单应矩阵,利用非奇异值分解(SVD)对单应矩阵进行分解,就可以得到旋转矩阵R和平移矩阵t,从而根据旋转矩阵解算出空投货台的姿态角。世界坐标系下的绝对运动参数则利用GPS或者高度计获取得到摄像机高度来确定,最终实现空投货台的三轴欧拉角的准确解算。
步骤8:机载摄像机固定在空投货台质心处,解算序列影像得到的姿态可等效于货台的三轴姿态。在空投系统下降过程中货台运动剧烈,货台搭载机载摄像机需要对焦近地面的合作目标或者远地面的自然环境特征,使拍摄特征一直保持摄像机的视场范围内,控制云台摄像机转动,使摄像机的主点对准目标特征中心。云台的转动导致通过摄像机采集得到影像无法真实反应空投货台的真实的三轴欧拉角的数值。通过角度编码器获取云台转动的角度θT,并和解算出的姿态角θ进行加和公式如下,从而获得机载摄像机在世界坐标系的位姿来获取空投货台的真实的三轴姿态角θr。
θr=θ+θT (4)
本发明提供了一种基于视觉的空投货台航向姿态解算方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (7)
1.一种基于视觉的空投货台航向姿态解算方法,其特征在于,包括以下步骤:
步骤1,根据空投货台初始降落高度将着陆过程分为近地面和远地面两个阶段;
步骤2,标定空投货台的机载摄像机的参数;
步骤3,当空投货台位于远地面时,通过大气散射模型和导向滤波降低复杂天气对影像降质的影响,利用点线混合特征提取自然环境下的几何信息,并对线特征寿命进行筛选;
步骤4,当空投货台位于近地面时,设计合作目标作为地面辅助特征,降低影像中的特征数量,再通过图像处理筛选出影像中稳定的特征;
步骤5,将特征进行匹配,通过单应性对空投货台姿态进行解算,再减去云台转动角度,获取空投货台下降过程中的三轴姿态。
2.根据权利要求1所述的方法,其特征在于,步骤1包括:通过安装在空投货台的GPS或者高度计判断货台所降落的高度,当进入着陆窗口时,对空投货台进行实时位姿的解算,将姿态信息反馈给控制系统,控制牵引伞的拉力使空投货台的平稳着陆。
3.根据权利要求2所述的方法,其特征在于,步骤2包括:
步骤1-1,标定机载摄像机获得内参矩阵与机载摄像机的畸变系数,设定畸变参数K1,K2;fx表示焦距横坐标,fy表示焦距纵坐标,cx表示光心位置横坐标,cy表示光心位置纵坐标,K1表示第一个畸变系数,K2表示第二个畸变系数;
步骤1-2,将机载摄像机下的世界坐标系和影像坐标系的转换如下:
其中,u v分别表示像素坐标系下平面横坐标、纵坐标,Xw Yw Zw表示世界坐标系下三维坐标;
其中Rz表示绕Z轴旋转的旋转矩阵,Ry表示绕Y轴旋转的旋转矩阵,Rx表示绕X轴旋转的旋转矩阵。
4.根据权利要求3所述的方法,其特征在于,步骤3中,所述通过大气散射模型和导向滤波降低复杂天气对影像降质的影响,具体包括:
建立如下空投货台雾天侦察的大气散射成像模型:
I(x)=J(x)t(x)+A(1-t(x)) (3)
I(x)表示拍摄到的雾天模糊影像,J(x)表示复原出的清晰影像,A表示大气光成分,t(x)表示折射率;J(x)t)(x)为直接衰减项,即场景入射光在传输介质中因大气粒子的散射作用而衰减的程度;A(1-t(x))为大气光幕亮度,即在成像过程中所加入的大气散射光;通过暗通道先验假设和大气散射模型得到粗略的透射率图,然后通过导向滤波进行优化,补充粗略的透射率图中的细节,最后通过大气散射模型的计算得到去雾后的图片。
5.根据权利要求4所述的方法,其特征在于,步骤3中,所述利用点线混合特征提取自然环境下的几何信息,并对线特征寿命进行筛选,具体包括:
线特征算法采用LSD算法提取影像中的线段,并用LBD描述子对其加以描述;根据提取的点特征数量来判断是否需要提取线特征.当点特征数量不足时,提取线特征,并匹配线特征,最终融合点特征的匹配结果,根据点线两种特征解算位姿信息。
6.根据权利要求5所述的方法,其特征在于,步骤4具体包括:
步骤4-1,空降系统货台的初始降落高度在近地面时,机载摄像机拍摄地面上的人工设计的合作目标作为采集标志物,设计单一合作目标和五点分散合作目标,设计的单一合作目标中有11个角点;
步骤4-2,通过高斯影像金字塔将机载摄像机采集到的序列影像进行压缩:高斯金字塔用于降采样图像,首先将复原后的清晰影像作为最底层图像,进行高斯核卷积,去除影像中偶数行和列,生成的图像为原影像的四分之一大小:
|dstsize.width*2-src.cols|≤2
|dstsize.height*2-src.rows|≤2
dstsize.width表示输出的影像宽度;
dstsize.height表示输出的影像高度;
src.cols表示输入的影像宽度;
src.rows表示输入的影像高度;
步骤4-3,颜色空间转化:将合作目标背景设置为黑色,使用RGB彩色模式转换成HSV彩色模型,实现颜色特征的提取;
步骤4-4,获取ROI感兴趣区域:从影像中分割出合作目标的矩形区域;
步骤4-5,影像灰度化和二值化:将序列影像中感兴趣区域变为黑白两色影像,影像二值化采用最大类间差法,利用一种自适应的方法确定不同场景下的灰度阈值,将序列影像变为二值影像;
步骤4-6,中值滤波:中值滤波器将每个序列影像中每个像素替换成围绕这个像素的矩形邻域内的中值,用于去除影像中的噪声;
步骤4-7,提取影像中的FAST特征点;
步骤4-8,空投货台的机载摄像机拍摄到合作目标,利用SVM支持向量机判别影像中的特征点是单一合作目标的或是五点合作目标的,对影像序列中的特征点进行筛选;当空投货台从近地面降落时,将五点合作目标退化成五个特征点集,利用对极几何中的五点法处理退化的特征点集;当空投货台能够拍摄到五点合作目标时,机载摄像机在理想情况下,能够检测到五点合作目标中的55个特征点,需要剔除分布在四周的合作目标中的特征点,保留影像中稳定的11个特征点;
利用SVM支持向量机判别出中心特征点和四周特征点,进行分类:当影像中的特征点数量少于5个时,认定影像无效,删除此帧影像,并控制转动云台上的机载摄像机追踪合作目标,直至检测特征点大于5个;
当影像中的特征点数量在5个到11个时,说明影像中只采集到四周合作目标的其中一个,特征点数量满足检测特征点数量的要求,跳转到步骤4-9进行特征的匹配;如果影像中不满足5~11个特征点数量要求,则调整机载摄像机拍摄角度,定位中心合作目标;
当影像中的特征点数量在11到55个时,说明影像中已拍摄到中心合作目标,也拍摄到部分四周的合作目标,只选取11个中心稳定特征点作为特征匹配的特征;
利用SVM支持向量机归类中心特征点集和四周特征点集,选择检测到的特征点到影像中点的距离作为判别元素,利用所有检测出的特征点的最上,最下,最左,最右四个坐标计算出影像中心的坐标位置,选取离影像中心最近的11个特征作为稳定特征,筛除四周的合作目标中的特征点;
步骤4-9,特征匹配:使用LK稀疏光流法跟踪特征点的运动,实现相邻影像对特征点的跟踪。
7.根据权利要求6所述的方法,其特征在于,步骤5包括:空投货台质心处安装云台,摄像机的转动需要云台协同控制,使机载摄像机的主点对准目标特征中心;通过角度编码器获取云台转动的角度θT,并和解算出的姿态角θ进行加和,公式如下,从而获得机载摄像机在世界坐标系的位姿来获取空投货台的真实的三轴姿态角θr:
θr=θ+θT (4)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110261412.0A CN113066050B (zh) | 2021-03-10 | 2021-03-10 | 一种基于视觉的空投货台航向姿态解算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110261412.0A CN113066050B (zh) | 2021-03-10 | 2021-03-10 | 一种基于视觉的空投货台航向姿态解算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113066050A true CN113066050A (zh) | 2021-07-02 |
CN113066050B CN113066050B (zh) | 2022-10-21 |
Family
ID=76560325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110261412.0A Active CN113066050B (zh) | 2021-03-10 | 2021-03-10 | 一种基于视觉的空投货台航向姿态解算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113066050B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113284197A (zh) * | 2021-07-22 | 2021-08-20 | 浙江华睿科技股份有限公司 | Agv的tof相机外参标定方法及装置、电子设备 |
CN113436113A (zh) * | 2021-07-22 | 2021-09-24 | 黑芝麻智能科技有限公司 | 防抖动的图像处理方法、装置、电子设备和存储介质 |
CN117011344A (zh) * | 2023-10-07 | 2023-11-07 | 中国科学院光电技术研究所 | 一种两步在轨校正星敏感器内参数的方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103941750A (zh) * | 2014-04-30 | 2014-07-23 | 东北大学 | 基于小型四旋翼无人机的构图装置及方法 |
CN105000194A (zh) * | 2015-08-13 | 2015-10-28 | 史彩成 | 基于地面合作标志的无人机助降视觉引导方法及机载系统 |
CN108562274A (zh) * | 2018-04-20 | 2018-09-21 | 南京邮电大学 | 一种基于标志器的非合作目标位姿测量方法 |
CN110780675A (zh) * | 2019-10-29 | 2020-02-11 | 航宇救生装备有限公司 | 空投系统航向姿态控制方法 |
CN110865650A (zh) * | 2019-11-19 | 2020-03-06 | 武汉工程大学 | 基于主动视觉的无人机位姿自适应估计方法 |
CN110866497A (zh) * | 2019-11-14 | 2020-03-06 | 合肥工业大学 | 基于点线特征融合的机器人定位与建图方法和装置 |
US20200184658A1 (en) * | 2018-12-05 | 2020-06-11 | Ankobot (Shenzhen) Smart Technologies Co., Ltd. | Monitoring method and device for mobile target, monitoring system and mobile robot |
CN111562791A (zh) * | 2019-03-22 | 2020-08-21 | 沈阳上博智像科技有限公司 | 一种无人机合作目标识别视觉辅助着陆的系统及方法 |
-
2021
- 2021-03-10 CN CN202110261412.0A patent/CN113066050B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103941750A (zh) * | 2014-04-30 | 2014-07-23 | 东北大学 | 基于小型四旋翼无人机的构图装置及方法 |
CN105000194A (zh) * | 2015-08-13 | 2015-10-28 | 史彩成 | 基于地面合作标志的无人机助降视觉引导方法及机载系统 |
CN108562274A (zh) * | 2018-04-20 | 2018-09-21 | 南京邮电大学 | 一种基于标志器的非合作目标位姿测量方法 |
US20200184658A1 (en) * | 2018-12-05 | 2020-06-11 | Ankobot (Shenzhen) Smart Technologies Co., Ltd. | Monitoring method and device for mobile target, monitoring system and mobile robot |
CN111562791A (zh) * | 2019-03-22 | 2020-08-21 | 沈阳上博智像科技有限公司 | 一种无人机合作目标识别视觉辅助着陆的系统及方法 |
CN110780675A (zh) * | 2019-10-29 | 2020-02-11 | 航宇救生装备有限公司 | 空投系统航向姿态控制方法 |
CN110866497A (zh) * | 2019-11-14 | 2020-03-06 | 合肥工业大学 | 基于点线特征融合的机器人定位与建图方法和装置 |
CN110865650A (zh) * | 2019-11-19 | 2020-03-06 | 武汉工程大学 | 基于主动视觉的无人机位姿自适应估计方法 |
Non-Patent Citations (1)
Title |
---|
CHRIS DEVER ET AL.: "Guided-Airdrop Vision-based Navigation", 《24TH AIAA AERODYNAMIC DECELERATOR SYSTEMS TECHNOLOGH CONFERENCE》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113284197A (zh) * | 2021-07-22 | 2021-08-20 | 浙江华睿科技股份有限公司 | Agv的tof相机外参标定方法及装置、电子设备 |
CN113436113A (zh) * | 2021-07-22 | 2021-09-24 | 黑芝麻智能科技有限公司 | 防抖动的图像处理方法、装置、电子设备和存储介质 |
CN113284197B (zh) * | 2021-07-22 | 2021-11-23 | 浙江华睿科技股份有限公司 | Agv的tof相机外参标定方法及装置、电子设备 |
US11770613B2 (en) | 2021-07-22 | 2023-09-26 | Black Sesame Technologies Inc. | Anti-shake image processing method, apparatus, electronic device and storage medium |
CN117011344A (zh) * | 2023-10-07 | 2023-11-07 | 中国科学院光电技术研究所 | 一种两步在轨校正星敏感器内参数的方法 |
CN117011344B (zh) * | 2023-10-07 | 2024-02-02 | 中国科学院光电技术研究所 | 一种两步在轨校正星敏感器内参数的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113066050B (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113066050B (zh) | 一种基于视觉的空投货台航向姿态解算方法 | |
CN115439424B (zh) | 一种无人机航拍视频图像智能检测方法 | |
Huang et al. | Individual tree crown detection and delineation from very-high-resolution UAV images based on bias field and marker-controlled watershed segmentation algorithms | |
Li et al. | Multi-feature combined cloud and cloud shadow detection in GaoFen-1 wide field of view imagery | |
CN109657632B (zh) | 一种车道线检测识别方法 | |
CN111079556A (zh) | 一种多时相无人机视频图像变化区域检测及分类方法 | |
Nieto et al. | Road environment modeling using robust perspective analysis and recursive Bayesian segmentation | |
WO2016106955A1 (zh) | 一种激光红外复合的地面建筑物识别及导航方法 | |
CN107330376A (zh) | 一种车道线识别方法及系统 | |
CN111598952B (zh) | 一种多尺度合作靶标设计与在线检测识别方法及系统 | |
CN106780560B (zh) | 一种基于特征融合粒子滤波的仿生机器鱼视觉跟踪方法 | |
Wang et al. | An overview of 3d object detection | |
Li et al. | Road markings extraction based on threshold segmentation | |
CN112683228A (zh) | 单目相机测距方法及装置 | |
CN115240089A (zh) | 一种航空遥感图像的车辆检测方法 | |
CN116978009A (zh) | 基于4d毫米波雷达的动态物体滤除方法 | |
CN112634130A (zh) | Quick-SIFT算子下无人机航拍图像拼接方法 | |
CN115841633A (zh) | 一种电力塔和电力线关联矫正的电力塔和电力线检测方法 | |
CN112115737B (zh) | 一种车辆朝向的确定方法、装置及车载终端 | |
CN112767459A (zh) | 基于2d-3d转换的无人机激光点云与序列影像配准方法 | |
CN116185049A (zh) | 基于视觉引导的无人直升机自主着舰方法 | |
Budzan | Fusion of visual and range images for object extraction | |
Majidi et al. | Aerial tracking of elongated objects in rural environments | |
Büschenfeld et al. | Edge preserving land cover classification refinement using mean shift segmentation | |
CN111833384A (zh) | 一种可见光和红外图像快速配准方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |