CN110766728A - 基于深度学习的组合图像特征精确匹配算法 - Google Patents

基于深度学习的组合图像特征精确匹配算法 Download PDF

Info

Publication number
CN110766728A
CN110766728A CN201910981182.8A CN201910981182A CN110766728A CN 110766728 A CN110766728 A CN 110766728A CN 201910981182 A CN201910981182 A CN 201910981182A CN 110766728 A CN110766728 A CN 110766728A
Authority
CN
China
Prior art keywords
matching
target
feature
deep learning
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910981182.8A
Other languages
English (en)
Other versions
CN110766728B (zh
Inventor
付润喆
冷雪飞
刘瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201910981182.8A priority Critical patent/CN110766728B/zh
Publication of CN110766728A publication Critical patent/CN110766728A/zh
Application granted granted Critical
Publication of CN110766728B publication Critical patent/CN110766728B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于深度学习的组合图像特征精确匹配算法,利用所识别目标,计算目标中心点位置,根据目标数量进行局部ORB算子匹配,或者构造Delaunay三角剖分网络,计算特征三角形进行目标点匹配,能有效提高图像匹配算法的鲁棒性和精度。

Description

基于深度学习的组合图像特征精确匹配算法
技术领域
本发明涉及图像处理与图像导航技术领域,具体涉及一种基于目标识别的图像精确匹配方法。
技术背景
图像匹配技术是视觉导航、目标识别跟踪、人脸识别等领域的重点研究内容之一,是后续视觉任务的关键。随着系统对算法的实时性、精确性和鲁棒性要求的日益提高,以角点检测算子为主的Harris检测算子和SIFT等多尺度人工定义的特征算子已无法满足需求。图像匹配任务在实际机载导航、道路避障等背景下,采用基于像素级的特征提取方法会产生大量的特征冗余,尺度、光照、角度等变化会会引起特征的误匹配。实际能够正确匹配的特征点对只占提取到的特征点的一部分,另一方面,庞大的数据计算量将严重拖慢图像匹配算法的运行速度,即便是速度很快的ORB算法一旦在巨大数量级的运算量下也难以满足导航需求。
由于像素特征能反映的图像信息有限,难以完全显示图像目标的信息,并且大多数算法只针对特定场景有效,对于不同的光照、旋转、尺度变化等鲁棒性较弱。在这方面,基于深度学习的图像特征提取与目标识别算法具有较高的鲁棒性,并且提取的特征比单一算子或组合特征要丰富。随着基于深度学习的图像处理方法的兴起,基于卷积神经网络的深度学习框架被广泛地研究和应用。相比于人工设计的特征算子,基于深度学习的特征提取与目标检测算法能更加直观、稳定地提取出图像中的信息,并且减少了特征数量。基于卷积神经网络的组合特征构建是当下图像匹配研究的热门方向之一。然而,该类特征提取方法可以很好地提取图像特征,但是定位精度较低。采用神经网络进行目标识别或缩小匹配区域,然后进行精确匹配的方法既可以保证图像匹配的精确度,又可以一定程度上削弱神经网络对目标定位的误差。
发明内容
针对上述现有技术的优势与不足,本发明提出一种基于目标识别的图像精确匹配方法,利用所识别目标,计算目标中心点位置,根据目标数量进行局部ORB算子匹配,或者构造Delaunay三角剖分网络,计算特征三角形进行目标点匹配,能有效提高图像匹配算法的鲁棒性和精度。
为了实现上述目的,本算采用如下技术方案:
基于深度学习的组合图像特征精确匹配算法,包括如下步骤:
步骤1:将两幅待匹配图像分别进行基于CenterNet神经网络的目标提取,并对提取目标进行非极大值抑制,合并重叠面积大的目标;
步骤2:如果两幅待匹配图像之一的目标数量小于等于5,则对两幅待匹配图像进行局部ORB算子匹配,否则构造Delaunay三角剖分网络,计算特征三角形进行目标点匹配。根据实验经验,当目标数大于5个时,构建Delaunay三角网络可以比较好地体现出目标之间的几何关系,5个以下时比较方便ORB算法进行分组匹配,并且目标数较多时,目标大小普遍会较小,不利于目标框的准确定位。目标数阈值的选取可以根据应用场景做修改,一般情况下选取5个更为合适。
优选的,步骤2中局部ORB算子匹配的步骤包括:
步骤a.1:将两幅待匹配图像分别按照各自提取出的目标框进行图像分割,对图像中每个目标框内的图像进行ORB特征提取,并统计特征数目;
步骤a.2:遍历待匹配图像中的目标,对两幅图像中分类标签相同的目标进行ORB特征匹配,对于每个目标,只保留与之匹配特征点对数最多的目标作为匹配结果;
步骤a.3:根据分割出的目标,将匹配对索引回原图位置,完成图像匹配。
优选的,步骤2中构造Delaunay三角剖分网络,计算特征三角形进行目标点匹配的步骤包括:
步骤b.1:对图像中所有置信度高于阈值的目标中心点进行delaunay三角剖分;
步骤b.2:设计相似性度量,根据相似性度量构建相似度矩阵;
步骤b.3:遍历相似度矩阵进行特征三角形匹配,筛选出匹配特征三角形;
步骤b.4:遍历特征三角形中的目标点,进行自适应精匹配,完成最终的图像匹配。
优选的,步骤a.2中,对于属于同一类别的目标au和bv,如果
Figure BDA0002235233760000021
则对目标au和bv进行ORB特征匹配,pau和pbv分别表示目标au和bv的特征数量。
优选的,步骤b.2中,所述相似性度量为delaunay三角形顶角的角度。
优选的,步骤b.4中,对于位于剖分网络边缘且作为三个以上三角形的共同顶点的目标点进行射影不变判定。
优选的,步骤b.4中,对于除位于剖分网络边缘且作为三个以上三角形的共同顶点的目标点以外的其他顶点进行相邻三角形相似度判定。
有益效果:本发明提出的图像精确匹配方法,一定程度上减少了特征的冗余、增强了特征的可理解性,同时降低了误匹配率,相对于单一神经网络算法增强了目标的定位精度,相比于人工设计的特征提取算法,增强了鲁棒性,具有更强的抗旋转、尺度缩放的能力。
附图说明
图1是基于深度学习的组合图像特征精确匹配算法流程图;
图2是目标点定位误差分析示意图;
图3是ε-σ误差函数图像;
图4是特征三角形顶点情况示意图;
图5是四线交比示意图;
图6是排除误匹配示意图。
具体实施方式
下面结合附图对本发明做进一步说明。匹配对象是机载成像传感器拍摄的实时图与导航系统预存地图,通常情况下,实时图与预存地图之间存在一定灰度差异与旋转、尺度变化。
如图1所示,本发明提出的基于深度学习的组合图像特征精确匹配算法包括如下步骤:
步骤1,分别对待匹配图像A与图像B尺寸转化成512*512大小的图像,输入CenterNet神经网络,进行目标识别。
步骤2,分别对每张图识别出的目标框进行非极大值抑制。以图像A中两个目标ai和aj为例,分别计算互相遮挡的目标框面积I和J,当他们的交并比满足
Figure BDA0002235233760000041
时,合并两个目标,将两个目标视作一个目标,目标标签取置信度较大的标签值,目标中心为合并后的几何中心,δ取0.3。经过以上方法得到A图中目标a1,a2……am与B图中目标b1,b2……bn。m和n表示目标数量。
步骤2,判断A图与B图中目标数量,若m与n中任意一个值小于等于5,则执行步骤3-步骤5,若目标数m与n均大于5个,执行步骤6-步骤9。
步骤3,分别对A图与B图中的目标a1,a2……am与b1,b2……bn按照提取的目标框分割出来,分别进行ORB特征提取,并统计特征数量pa1,pa2……pam,pb1,pb2……pbn
步骤4,对A图与B图中分类标签相同的目标进行特征数量判断,对于属于同一类别的目标au和bv,如果
Figure BDA0002235233760000042
则对目标au和bv进行ORB特征匹配,并统计匹配数目,对于A图中的每个目标ai,取匹配数目最多的一对目标对ai-bz(1≤z≤n)作为最佳匹配目标对。
步骤5,对于每对最佳匹配目标对,根据目标框的坐标索引回原图位置,把目标中的匹配点对对应其在原图A和B中的位置标记并匹配,完成图像A与B的匹配。
步骤6,对图像中每个目标采用逐点插入法对目标中心点的点集ca1,ca2……cam,cb1,cb2……cbn,构建delaunay三角网络,得到特征三角形Δa1,Δa2……Δag,Δb1,Δb2……Δbh。g、h表示特征三角形数量。对于每个特征三角形Δi,按角度大小标记每个顶角imax,imid,imin用于后续匹配。
步骤7,根据三角形顶角大小计算特征三角形的相似度并构建相似度矩阵。
对于每一个delaunay三角形顶点,角度越接近90°,角度误差反映出的顶点定位误差越小,可信度越高。证明如下:
如图2,三角形OP1Q中,对目标点P1做误差分析,为了简化问题,假设P1在直线q这一个维度上产生位移,导致初始P1移动到了P2,σ1变为了σ1,Δ取值范围为[0°,180°]。过顶点O做直线q的垂线,垂足为H,HP=w,OH=s,OP=v,P的偏移导致直线p旋转了dξ。由几何关系可知
Figure BDA0002235233760000051
w=stanξ (4)
Figure BDA0002235233760000052
由式(3)-(5)可解得存在线段倾角误差dξ时的匹配元误差,顶点P1到P2的偏移误差ε:
ε=d(s tanξ)=s(secξ)2dξ=-s[sec(90-σ)2]dσ=-s(cscσ)2dσ (6)
其中,s是定值,误差ε与cscσ的平方正相关。
由图3所示误差函数可以得出结论,线段交点的位置误差ε在
Figure BDA0002235233760000053
处取最小值,即,相同提取误差下,两条直线越接近垂直,交点的位置误差越小,置信度越高。
假设需要判断相似性的两个三角形分别为Δai与Δbj,分别对应三角形的角∠ai-max=α,∠ai-mid=β,∠ai-min=γ,∠bj-max=α′,∠bj-mid=β′,∠bj-min=γ′,则∠ai-max与∠bj-max的相似度为:
Figure BDA0002235233760000055
其中,
Figure BDA0002235233760000056
P=0.5。求出三角形其余各内角的相似度Iβ,Iγ之后,根据式(8)可以加权求得三角形的相似度。
其中μ是匹配点的类别匹配度,实验中取0.88,k是匹配点对中目标类别不同的对数,当一对特征三角形中所有对应目标类别标签全部相等时μk=1。λ是每个特征三角形顶角角度的加权值,对于任意内角θ,满足
λθ=sin2θ (10)
步骤8,根据步骤7计算得到的相似度,构造相似度矩阵。相似度矩阵元素Ief代表A图中第e个特征三角形与B图中第f个特征三角形的相似度。从相似度矩阵中寻找相似度大于给定阈值的元素,根据行列索引找到对应三角形,完成目标三角形特征的粗匹配。
步骤9,对于每个目标点,位于delaunay三角剖分网络的不同位置,所在的特征三角形个数不同,匹配的可靠程度和误匹配的概率也不同,难以用统一的衡量准则判定是否是匹配点对。如图4,对于顶点E、F、J等位于轮廓边缘,且作为三个以上特征三角形的顶点,可以通过采用四线交比的射影不变量作为匹配准则进行精匹配。对于D、I等所在三角形不足三个的点,无法直接获得足够的三角形顶角信息进行判断,以及G、H等位于剖分网络内部三顶角之和大于180°,判断射影不变量需要进一步索引子凸包,这将增大算法复杂度,也不适合用此判定准则进行匹配。对于这些点进行相邻三角形的相似度判定进行筛选。
对于位于三角剖分网边缘且作为三个以上特征三角形的顶点进行射影定理判定。如图5所示,假设aO是A图中当前遍历的满足要求的目标点,ΔaPaOaQ,ΔaQaOaR,ΔaRaOaS是其所在的三个特征三角形,线段aOaP,aOaQ,aOaR,aOas所在的直线的四线交比定义为:
采用同样方法,对于点aO对应于B图中的匹配点bO可以得到对应的四线交比R(bObP,bObQ,bObR,bObS)。对应点之间满足射影不变准则,如果匹配点对满足:
|R(aOaP,aOaQ,aOaR,aOaS)-R(bObP,bObQ,bObR,bObS)|<∈ (12)
则判断是正确匹配点,其中∈是设定阈值。
对于其他目标点,采取比对相邻三角形相似度的方法减小特征三角形误匹配造成的匹配误差。由于点集几何位置情况复杂,形状相似的特征三角形之间可能造成误匹配(如图6),假设于匹配过程中错误地将ΔaBaEaC与ΔbEbCbF匹配导致误匹配点对aEbC的出现。我们采取比对相邻三角形相似度的方法减小特征三角形误匹配造成的匹配误差。
遍历匹配点对,查找当前匹配点所有预匹配项,分别遍历匹配点所在的三角形,并得到当前顶点aE、bE在对应三角形上的顶角大小e、e′,如果对应三角形相似度满足阈值且顶角大小近似,则得分加一,统计遍历得到的分数,选取最大的一对匹配项作为精匹配结果。即满足
Irs1 (13)
|er-e′s|<ε2 (14)
时,增加得分。其中r、s是当前遍历的第r、s个相邻三角形标号。取ε1=0.8,ε2=0.1rad。遍历完所有点匹配对,完成匹配过程。

Claims (7)

1.基于深度学习的组合图像特征精确匹配算法,其特征在于,包括如下步骤:
步骤1:将两幅待匹配图像分别进行基于CenterNet神经网络的目标提取,并对提取目标进行非极大值抑制,合并重叠面积大的目标;
步骤2:如果两幅待匹配图像之一的目标数量小于等于5,则对两幅待匹配图像进行局部ORB算子匹配,否则构造Delaunay三角剖分网络,计算特征三角形进行目标点匹配。
2.根据权利要求1所述的基于深度学习的组合图像特征精确匹配算法,其特征在于,步骤2中局部ORB算子匹配的步骤包括:
步骤a.1:将两幅待匹配图像分别按照各自提取出的目标框进行图像分割,对图像中每个目标框内的图像进行ORB特征提取,并统计特征数目;
步骤a.2:遍历待匹配图像中的目标,对两幅图像中分类标签相同的目标进行ORB特征匹配,对于每个目标,只保留与之匹配特征点对数最多的目标作为匹配结果;
步骤a.3:根据分割出的目标,将匹配对索引回原图位置,完成图像匹配。
3.根据权利要求1所述的基于深度学习的组合图像特征精确匹配算法,其特征在于,步骤2中构造Delaunay三角剖分网络,计算特征三角形进行目标点匹配的步骤包括:
步骤b.1:对图像中所有置信度高于阈值的目标中心点进行delaunay三角剖分;
步骤b.2:设计相似性度量,根据相似性度量构建相似度矩阵;
步骤b.3:遍历相似度矩阵进行特征三角形匹配,筛选出匹配特征三角形;
步骤b.4:遍历特征三角形中的目标点,进行自适应精匹配,完成最终的图像匹配。
4.根据权利要求2所述的基于深度学习的组合图像特征精确匹配算法,其特征在于,步骤a.2中,对于属于同一类别的目标au和bv,如果
Figure FDA0002235233750000011
则对目标au和bv进行ORB特征匹配,pau和pbv分别表示目标au和bv的特征数量。
5.根据权利要求3所述的基于深度学习的组合图像特征精确匹配算法,其特征在于,步骤b.2中,所述相似性度量为delaunay三角形顶角的角度。
6.根据权利要求3所述的基于深度学习的组合图像特征精确匹配算法,其特征在于,步骤b.4中,对于位于剖分网络边缘且作为三个以上三角形的共同顶点的目标点进行射影不变判定。
7.根据权利要求3所述的基于深度学习的组合图像特征精确匹配算法,其特征在于,步骤b.4中,对于除位于剖分网络边缘且作为三个以上三角形的共同顶点的目标点以外的其他顶点进行相邻三角形相似度判定。
CN201910981182.8A 2019-10-16 2019-10-16 基于深度学习的组合图像特征精确匹配方法 Active CN110766728B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910981182.8A CN110766728B (zh) 2019-10-16 2019-10-16 基于深度学习的组合图像特征精确匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910981182.8A CN110766728B (zh) 2019-10-16 2019-10-16 基于深度学习的组合图像特征精确匹配方法

Publications (2)

Publication Number Publication Date
CN110766728A true CN110766728A (zh) 2020-02-07
CN110766728B CN110766728B (zh) 2023-09-29

Family

ID=69331327

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910981182.8A Active CN110766728B (zh) 2019-10-16 2019-10-16 基于深度学习的组合图像特征精确匹配方法

Country Status (1)

Country Link
CN (1) CN110766728B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733624A (zh) * 2020-12-26 2021-04-30 电子科技大学 室内密集场景的人流密度检测方法、系统存储介质及终端
CN112966695A (zh) * 2021-02-04 2021-06-15 成都国翼电子技术有限公司 桌面遗留物检测方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160196665A1 (en) * 2013-07-30 2016-07-07 Holition Limited Locating and Augmenting Object Features in Images
CN106909552A (zh) * 2015-12-22 2017-06-30 成都理想境界科技有限公司 图像检索服务器、系统、相关检索及排错方法
CN109816706A (zh) * 2019-02-01 2019-05-28 辽宁工程技术大学 一种平滑约束与三角网等比例剖分像对稠密匹配方法
CN110288620A (zh) * 2019-05-07 2019-09-27 南京航空航天大学 基于线段几何特征的图像匹配方法及飞行器导航方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160196665A1 (en) * 2013-07-30 2016-07-07 Holition Limited Locating and Augmenting Object Features in Images
CN106909552A (zh) * 2015-12-22 2017-06-30 成都理想境界科技有限公司 图像检索服务器、系统、相关检索及排错方法
CN109816706A (zh) * 2019-02-01 2019-05-28 辽宁工程技术大学 一种平滑约束与三角网等比例剖分像对稠密匹配方法
CN110288620A (zh) * 2019-05-07 2019-09-27 南京航空航天大学 基于线段几何特征的图像匹配方法及飞行器导航方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733624A (zh) * 2020-12-26 2021-04-30 电子科技大学 室内密集场景的人流密度检测方法、系统存储介质及终端
CN112733624B (zh) * 2020-12-26 2023-02-03 电子科技大学 室内密集场景的人流密度检测方法、系统存储介质及终端
CN112966695A (zh) * 2021-02-04 2021-06-15 成都国翼电子技术有限公司 桌面遗留物检测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110766728B (zh) 2023-09-29

Similar Documents

Publication Publication Date Title
Ammar Abbas et al. A geometric approach to obtain a bird's eye view from an image
CN109829398B (zh) 一种基于三维卷积网络的视频中的目标检测方法
CN110569878B (zh) 一种基于卷积神经网络的照片背景相似度聚类方法及计算机
CN109243289B (zh) 高精度地图制作中地下车库停车位提取方法及系统
Zhou et al. A novel lane detection based on geometrical model and gabor filter
CN111899334B (zh) 一种基于点线特征的视觉同步定位与地图构建方法及装置
US7376262B2 (en) Method of three dimensional positioning using feature matching
CN111145228B (zh) 基于局部轮廓点与形状特征融合的异源图像配准方法
JP5385105B2 (ja) 画像検索方法およびシステム
Dong et al. Accurate detection of ellipses with false detection control at video rates using a gradient analysis
Yang et al. Fast and accurate vanishing point detection and its application in inverse perspective mapping of structured road
Konishi et al. Real-time 6D object pose estimation on CPU
CN108491498A (zh) 一种基于多特征检测的卡口图像目标搜索方法
CN112101160B (zh) 一种面向自动驾驶场景的双目语义slam方法
CN111898428A (zh) 一种基于orb的无人机特征点匹配方法
Armagan et al. Accurate Camera Registration in Urban Environments Using High-Level Feature Matching.
CN110766728B (zh) 基于深度学习的组合图像特征精确匹配方法
Zhu et al. Arbitrary-oriented ship detection based on retinanet for remote sensing images
CN112861870A (zh) 指针式仪表图像矫正方法、系统及存储介质
CN113393524A (zh) 一种结合深度学习和轮廓点云重建的目标位姿估计方法
CN109508674B (zh) 基于区域划分的机载下视异构图像匹配方法
Bui et al. A texture-based local soft voting method for vanishing point detection from a single road image
KR102492230B1 (ko) 영상 워핑을 이용한 번호판 검출 장치 및 방법
Ren et al. SAR image matching method based on improved SIFT for navigation system
WO2018057082A1 (en) Curvature-based face detector

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant