CN107464252A - 一种基于混合特征的可见光与红外异源图像识别方法 - Google Patents

一种基于混合特征的可见光与红外异源图像识别方法 Download PDF

Info

Publication number
CN107464252A
CN107464252A CN201710522969.9A CN201710522969A CN107464252A CN 107464252 A CN107464252 A CN 107464252A CN 201710522969 A CN201710522969 A CN 201710522969A CN 107464252 A CN107464252 A CN 107464252A
Authority
CN
China
Prior art keywords
mrow
msub
image
point
msup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710522969.9A
Other languages
English (en)
Inventor
陈艳
曾庆化
王云舒
刘建业
张月圆
孙克诚
戴宇庭
孙永荣
赖际舟
熊智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201710522969.9A priority Critical patent/CN107464252A/zh
Publication of CN107464252A publication Critical patent/CN107464252A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明公开一种基于混合特征的可见光与红外异源图像识别方法,包括如下步骤:利用基于改进最大类间方差法的自适应canny算子提取边缘信息,获取可见光图像和红外图像的边缘图像;对可见光图像和红外图像的边缘图像进行多尺度FAST特征检测,依据灰度质心法获得特征点的主方向;分别对特征点点集进行ORB特征描述,根据最近次临近原则,采用汉明距离度量特征点间的相似性进行粗匹配,分别获得边缘图像的粗匹配特征点点集;利用改进RANSAC算法剔除其中的错误匹配点对,在可见光图像和红外图像中展现出结果。此种方法可有效实现可见光图像与红外图像的匹配,并提高算法效率和匹配准确率。

Description

一种基于混合特征的可见光与红外异源图像识别方法
技术领域
本发明属于计算机视觉技术领域,特别涉及一种基于混合特征的可见光与红外异源图像识别方法。
背景技术
图像匹配技术最初是由美国提出的,从20世纪70年代开始,美国开始从事飞行器辅助导航系统、武器投射系统的制导及搜索等应用的研究。目前,这项技术的应用已经逐渐从最初的军事应用扩展到计算机视觉、医学诊断、目标识别、异源图像中的目标定位和跟踪等领域。图像匹配技术分为同源图像匹配和异源图像匹配,分类依据是图像是否是由同类成像设备获得。异源图像间的灰度信息差距较大,大多数同源图像匹配技术在异源图像匹配中使用效果不佳,因此急需研究鲁棒性高的异源图像匹配算法。
基于特征的图像匹配方法常常通过提取图像中的点特征、线特征等进行匹配。特征是对图像信息更高层次的描述,可以在异源图像中稳定存在,因此,基于特征的图像匹配方法常用于异源图像间的匹配,也成为国内外在该领域中研究的主要方向。基于特征的图像匹配算法不直接对灰度信息进行采集处理,而是通过提取图像上有代表性的特征信息,如点特征、线特征等,进行相似性度量完成图像匹配。由于异源图像中检测到的特征点一般含有较多的干扰点,因此需要鲁棒性较强的点特征匹配算法。与点特征相比,线特征在异源图像中表现得更加稳定,因此线特征在异源图像匹配中应用也较为广泛。
在国内外,诸多的科研院所和研究单位对异源图像匹配算法进行了大量研究,取得了一定的进展。国外,相关文献对基于点特征或基于互信息的匹配算法进行改进实现了异源图像的匹配。国内,相关文献直接利用边缘匹配算法或使用形状上下文描述符实现了可见光与红外图像的匹配。总的来说,上述异源图像匹配算法的实现较为复杂,算法效率和匹配正确率还有待提高。
发明内容
本发明的目的,在于提供一种基于混合特征的可见光与红外异源图像识别方法,其可有效实现可见光图像与红外图像的匹配,并提高算法效率和匹配准确率。
为了达成上述目的,本发明的解决方案是:
一种基于混合特征的可见光与红外异源图像识别方法,包括如下步骤:
步骤1,利用基于改进最大类间方差法的自适应canny算子提取边缘信息,获取可见光图像V和红外图像I的边缘图像V'和I';
步骤2:对可见光图像V和红外图像I的边缘图像V'和I'进行多尺度FAST特征检测,即分别利用不同参数值的高斯函数与边缘图像V'和I'进行卷积,生成不同尺度的图像集合S1和S2,对图像集合S1和S2中所有的子图像都采用FAST特征检测法获取特征点,最后汇集为V'和I'上的特征点点集D1和D2,依据灰度质心法获得特征点的主方向;
步骤3:分别对V'和I'的特征点点集D1和D2进行ORB特征描述,根据最近次临近原则,采用汉明距离度量特征点间的相似性进行粗匹配,分别获得V'和I'的粗匹配特征点点集D1'和D2';
步骤4:根据V'和I'的粗匹配特征点点集D1'和D2',利用改进RANSAC算法剔除D1'和D2'中的错误匹配点对,在可见光图像和红外图像中展现出结果。
上述步骤1中,基于改进最大类间方差法的自适应canny算子的具体实现形式是:
首先,采用一维高斯滤波函数G(x)分别按行和列对原始图像A进行卷积操作得到平滑图像A';
其中,σ为高斯函数的标准差;
其次,计算每个像素的梯度幅值和梯度方向,采用2×2邻域一阶偏导的有限差分H1、H2分别对平滑图像A'进行卷积计算A'中各点两个方向的像素梯度dx(x,y)和dy(x,y),获得平滑图像A'的梯度幅值M(x,y)和梯度方向θ(x,y),其中:代表卷积操作;
θ(x,y)=arctan(dy(x,y),dx(x,y))
接着,在3×3的邻域中比较平滑图像A'的梯度幅值M(x,y),若邻域中心点的梯度幅值M(x,y)比沿其梯度方向θ(x,y)上的两个相邻点幅值大,则初步将其判别为可能的边缘点,否则将其M(x,y)赋值为零,判别为非边缘点;
然后,根据平滑图像A'的梯度幅值M(x,y),采用改进最大类间方差法,计算得到高阈值Vh和低阈值Vl;
最后,扫描平滑图像A',若点(x,y)的梯度幅值M(x,y)大于高阈值Vh,则将该像素点标识为边缘点,若梯度幅值M(x,y)小于低阈值Vl,则标识该点为非边缘点,梯度幅值介于Vl和Vh之间的像素点,则将其看作可疑边缘,再进一步依据周围像素的连通性对该像素进行判断。
上述采用改进最大类间方差法,计算得到高阈值Vh和低阈值Vl的详细过程是:
平滑图像A'各像素的梯度幅值M(x,y)组成梯度幅值图像M,M(x,y)的取值在[0,L]范围内;使用T1和T2把梯度幅值图像M处理为三类A0、A1和A2,其中A0由M中梯度幅值M(x,y)在[0,T1]范围内的所有像素组成,A1由梯度幅值M(x,y)在[T1+1,T2]范围内所有像素组成,A2由梯度幅值M(x,y)在[T2+1,L]范围内所有像素组成;由阈值T1和T2,像素被分到类A0、A1和A2中的概率分别为P0(T1,T2)、P1(T1,T2)和P2(T1,T2),如下式所示:
其中,pi为梯度幅值为i的概率,ni为梯度幅值为i的像素数,N为图像总的像素数;
整个图像的平均梯度幅值为类A0、A1和A2的平均梯度幅值分别为:
A0、A1和A2的类间方差表示为:
类间方差最大时的阈值T1和T2分别为低阈值Vl和高阈值Vh。
上述步骤2中,利用特征点到邻域灰度质心的向量方向表示特征点的主方向,对任意一个特征点,定义其局部区域灰度矩为:
其中,m(x,y)为点(x,y)处的灰度值,p与q的和为灰度矩的阶数,局部区域零阶灰度矩表示该局部区域总的灰度值,局部区域一阶灰度矩用于确定局部区域的灰度质心C:
则特征点的主方向为:
α=arctan(m01,m10)。
上述步骤2的具体内容是:将不同参数取值的二维高斯函数与图像进行卷积,生成不同尺度的图像集合,如下式:
其中,L(x,y,σ)为某一尺度的图像,B(x,y)表示输入图像,G(x,y,σ)为二维高斯函数,代表卷积操作。
上述步骤4中,利用改进RANSAC算法剔除D1'和D2'中的错误匹配点对的具体内容是:首先设置最大迭代次数K和最少内点数目阈值R,根据最近次临近的比值升序,对D1'和D2'重新排序,选取前k个具有较高质量的数据;从这k个数据中随机去除j个数据,计算得到变换矩阵,及误差小于设定值的数据,即内点,统计内点数目,若内点数目小于设定阈值R,迭代次数加1,重复前述过程,重新随机去除j个数据,直至内点数目达到设定阈值R,保存内点点集,即为精匹配特征点点集;若迭代次数大于K,但内点数目未达到设定阈值R,算法失效。
采用上述方案后,本发明具有如下有益效果:
(1)本发明采用的基于改进最大类间方差法的自适应canny算法检测图像边缘,无需人工设定canny算子的双阈值,在实际运用过程中能根据图像灰度自适应地获取阈值。较人工设定阈值而言,本发明提供的方法更智能,且边缘检测结果更稳定,更精确。
(2)本发明采用改进RANSAC法进行精匹配,从具有较高质量的数据子集中抽取样本,能够大大减少算法运行速度,提高算法效率。
附图说明
图1是本发明的整体流程示意图;
图2是基于改进最大类间方差法的自适应canny算子的流程示意图;
图3是改进RANSAC算法的流程示意图。
具体实施方式
以下将结合附图,对本发明的技术方案及有益效果进行详细说明。
如图1所示,本发明提供一种基于混合特征的可见光与红外异源图像识别方法,利用基于改进最大类间方差法的canny算子和多尺度FAST特征点检测法,结合了边缘特征和点特征,在最近次临近粗匹配的基础上进行改进RANSAC精匹配,所述方法具体包括如下步骤:
步骤1:利用基于改进最大类间方差法的自适应canny算子提取边缘信息,获取可见光图像V和红外图像I的边缘图像V'和I';
如图2所示,基于改进最大类间方差法的自适应canny算子的具体实现形式是:首先,进行图像平滑,采用一维高斯滤波函数G(x)分别按行和列对原始图像A进行卷积操作得到平滑图像A';
其中,σ为高斯函数的标准差,控制平滑程度。
其次,计算每个像素的梯度幅值和梯度方向,采用2×2邻域一阶偏导的有限差分H1、H2分别对平滑图像A'进行卷积计算A'中各点两个方向的像素梯度dx(x,y)和dy(x,y),获得平滑图像A'的梯度幅值M(x,y)和梯度方向θ(x,y),其中,代表卷积操作;
θ(x,y)=arctan(dy(x,y),dx(x,y)) (5)
接着进行非极大值抑制,在3×3的邻域中比较平滑图像A'的梯度幅值M(x,y),若邻域中心点的梯度幅值M(x,y)比沿其梯度方向θ(x,y)上的两个相邻点幅值大,则初步将其判别为可能的边缘点,否则将其M(x,y)赋值为零,判别为非边缘点,从而抑制局部区域内的干扰值,获得更加精确的边缘。
然后根据平滑图像A'的梯度幅值M(x,y),采用改进最大类间方差法,计算得到高阈值Vh和低阈值Vl。
最后进行边缘检测,扫描平滑图像A',若点(x,y)的梯度幅值M(x,y)大于高阈值Vh,则将该像素点标识为边缘点,若梯度幅值M(x,y)小于低阈值Vl,则标识该点为非边缘点,梯度幅值介于Vl和Vh之间的像素点,则将其看作可疑边缘,再进一步依据周围像素的连通性对该像素进行判断。
其中,采用改进最大类间方差法的高低阈值求解方法如下。
平滑图像A'各像素的梯度幅值M(x,y)组成梯度幅值图像M,M(x,y)的取值在[0,L]范围内。使用T1和T2把梯度幅值图像M处理为三类A0、A1和A2,其中,A0由M中梯度幅值M(x,y)在[0,T1]范围内的所有像素组成,A1由梯度幅值M(x,y)在[T1+1,T2]范围内所有像素组成,A2由梯度幅值M(x,y)在[T2+1,L]范围内所有像素组成。由阈值T1和T2,像素被分到类A0、A1和A2中的概率分别为P0(T1,T2)、P1(T1,T2)和P2(T1,T2),如下式所示。
其中,pi为梯度幅值为i的概率,ni为梯度幅值为i的像素数,N为图像总的像素数。
整个图像的平均梯度幅值为类A0、A1和A2的平均梯度幅值分别为:
A0、A1和A2的类间方差表示为:
类间方差最大时的阈值T1和T2分别为前文所述的canny算子所需的低阈值Vl和高阈值Vh。
步骤2:对可见光图像和红外图像的边缘图像V'和I'进行多尺度FAST特征检测,即分别利用不同参数值的高斯函数与边缘图像V'和I'进行卷积,生成不同尺度的图像集合S1和S2,对图像集合S1和S2中所有的子图像都采用FAST特征检测法获取特征点,最后汇集为V'和I'上的特征点点集D1和D2,依据灰度质心法获得特征点的主方向。
利用特征点到邻域灰度质心的向量方向表示特征点的主方向,对任意一个特征点,定义其局部区域灰度矩为:
其中,m(x,y)为点(x,y)处的灰度值,p与q的和为灰度矩的阶数,局部区域零阶灰度矩表示该局部区域总的灰度值,局部区域一阶灰度矩用于确定局部区域的灰度质心C:
特征点的主方向为:
α=arctan(m01,m10) (15)
将不同参数取值的二维高斯函数与图像进行卷积,生成不同尺度的图像集合,如下式:
其中,L(x,y,σ)为某一尺度的图像,B(x,y)表示输入图像,G(x,y,σ)为二维高斯函数,代表卷积操作。
G(x,y,σ)的表达式如下所示:
其中,σ为高斯函数的标准差,改变σ即改变图像的尺度;(x,y)表述图像的像素位置。一组不同尺度的图像集合,可通过连续改变σ的大小,由式(16)得到。
步骤3:分别对图像V'和I'的特征点点集D1和D2进行ORB特征描述,根据最近次临近原则,采用汉明距离度量特征点间的相似性进行粗匹配,分别获得图像V'和I'的粗匹配特征点点集D1'和D2'。
步骤4:根据图像V'和I'的粗匹配特征点点集D1'和D2',利用改进RANSAC算法剔除D1'和D2'中的错误匹配点对,在可见光图像和红外图像中展现出结果。
改进RANSAC算法的原理如图3所示,首先设置最大迭代次数K和最少内点数目阈值R,根据最近次临近的比值升序,对D1'和D2'重新排序,选取前k个具有较高质量的数据。从这k个数据中随机去除j个数据,计算得到变换矩阵,及误差小于设定值的数据,即内点,统计内点数目,若内点数目小于设定阈值R,迭代次数加1,重复前述过程,重新随机去除j个数据,直至内点数目达到设定阈值R,保存内点点集,即为精匹配特征点点集。若迭代次数大于K,但内点数目未达到设定阈值R,算法失效。
综合上述,本发明一种基于混合特征的可见光与红外异源图像识别方法,采用基于改进最大类间方差(Otsu)法的自适应canny算子获取可见光与红外图像的边缘图像,对边缘图像进行多尺度FAST法检测特征点,并依据特征点邻域灰度求得特征点的主方向,进而采用ORB描述符对特征点进行描述,在最近次临近粗匹配的基础上采用改进RANSAC方法进行精匹配,从而提高算法正确率。本发明很好地进行可见光与红外图像匹配,具备抗尺度和旋转变换能力,算法效率和匹配正确率高,能推广使用到可见光和红外图像融合等领域。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (6)

1.一种基于混合特征的可见光与红外异源图像识别方法,其特征在于包括如下步骤:
步骤1:利用基于改进最大类间方差法的自适应canny算子提取边缘信息,获取可见光图像V和红外图像I的边缘图像V'和I';
步骤2:对可见光图像V和红外图像I的边缘图像V'和I'进行多尺度FAST特征检测,即分别利用不同参数值的高斯函数与边缘图像V'和I'进行卷积,生成不同尺度的图像集合S1和S2,对图像集合S1和S2中所有的子图像都采用FAST特征检测法获取特征点,最后汇集为V'和I'上的特征点点集D1和D2,依据灰度质心法获得特征点的主方向;
步骤3:分别对V'和I'的特征点点集D1和D2进行ORB特征描述,根据最近次临近原则,采用汉明距离度量特征点间的相似性进行粗匹配,分别获得V'和I'的粗匹配特征点点集D1'和D2';
步骤4:根据V'和I'的粗匹配特征点点集D1'和D2',利用改进RANSAC算法剔除D1'和D2'中的错误匹配点对,在可见光图像和红外图像中展现出结果。
2.如权利要求1所述的一种基于混合特征的可见光与红外异源图像识别方法,其特征在于:所述步骤1中,基于改进最大类间方差法的自适应canny算子的具体实现形式是:
首先,采用一维高斯滤波函数G(x)分别按行和列对原始图像A进行卷积操作得到平滑图像A';
<mrow> <mi>G</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>exp</mi> <mrow> <mo>(</mo> <mrow> <mo>-</mo> <msup> <mi>x</mi> <mn>2</mn> </msup> <mo>/</mo> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <mi>&amp;pi;</mi> <mi>&amp;sigma;</mi> </mrow> </mfrac> </mrow>
其中,σ为高斯函数的标准差;
其次,计算每个像素的梯度幅值和梯度方向,采用2×2邻域一阶偏导的有限差分H1、H2分别对平滑图像A'进行卷积计算A'中各点两个方向的像素梯度dx(x,y)和dy(x,y),获得平滑图像A'的梯度幅值M(x,y)和梯度方向θ(x,y),其中:代表卷积操作;
<mrow> <msub> <mi>H</mi> <mn>1</mn> </msub> <mo>=</mo> <mfenced open = "|" close = "|"> <mtable> <mtr> <mtd> <mrow> <mo>-</mo> <mn>0.5</mn> </mrow> </mtd> <mtd> <mn>0.5</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mn>0.5</mn> </mrow> </mtd> <mtd> <mn>0.5</mn> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <msub> <mi>H</mi> <mn>1</mn> </msub> <mo>=</mo> <mfenced open = "|" close = "|"> <mtable> <mtr> <mtd> <mn>0.5</mn> </mtd> <mtd> <mn>0.5</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mn>0.5</mn> </mrow> </mtd> <mtd> <mrow> <mo>-</mo> <mn>0.5</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
<mrow> <msub> <mi>d</mi> <mi>x</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <msub> <mi>H</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>d</mi> <mi>y</mi> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>=</mo> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>&amp;CircleTimes;</mo> <msub> <mi>H</mi> <mn>2</mn> </msub> </mrow>
<mrow> <mi>M</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <msqrt> <mrow> <msubsup> <mi>d</mi> <mi>x</mi> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>d</mi> <mi>y</mi> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> </msqrt> </mrow>
θ(x,y)=arctan(dy(x,y),dx(x,y))
接着,在3×3的邻域中比较平滑图像A'的梯度幅值M(x,y),若邻域中心点的梯度幅值M(x,y)比沿其梯度方向θ(x,y)上的两个相邻点幅值大,则初步将其判别为可能的边缘点,否则将其M(x,y)赋值为零,判别为非边缘点;
然后,根据平滑图像A'的梯度幅值M(x,y),采用改进最大类间方差法,计算得到高阈值Vh和低阈值Vl;
最后,扫描平滑图像A',若点(x,y)的梯度幅值M(x,y)大于高阈值Vh,则将该像素点标识为边缘点,若梯度幅值M(x,y)小于低阈值Vl,则标识该点为非边缘点,梯度幅值介于Vl和Vh之间的像素点,则将其看作可疑边缘,再进一步依据周围像素的连通性对该像素进行判断。
3.如权利要求2所述的一种基于混合特征的可见光与红外异源图像识别方法,其特征在于:所述采用改进最大类间方差法,计算得到高阈值Vh和低阈值Vl的详细过程是:
平滑图像A'各像素的梯度幅值M(x,y)组成梯度幅值图像M,M(x,y)的取值在[0,L]范围内;使用T1和T2把梯度幅值图像M处理为三类A0、A1和A2,其中A0由M中梯度幅值M(x,y)在[0,T1]范围内的所有像素组成,A1由梯度幅值M(x,y)在[T1+1,T2]范围内所有像素组成,A2由梯度幅值M(x,y)在[T2+1,L]范围内所有像素组成;由阈值T1和T2,像素被分到类A0、A1和A2中的概率分别为P0(T1,T2)、P1(T1,T2)和P2(T1,T2),如下式所示:
<mrow> <msub> <mi>P</mi> <mn>0</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <msub> <mi>T</mi> <mn>1</mn> </msub> </munderover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <msub> <mi>T</mi> <mn>1</mn> </msub> </munderover> <mfrac> <msub> <mi>n</mi> <mi>i</mi> </msub> <mi>N</mi> </mfrac> </mrow>
<mrow> <msub> <mi>P</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>+</mo> <mn>1</mn> </mrow> <msub> <mi>T</mi> <mn>2</mn> </msub> </munderover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>+</mo> <mn>1</mn> </mrow> <msub> <mi>T</mi> <mn>2</mn> </msub> </munderover> <mfrac> <msub> <mi>n</mi> <mi>i</mi> </msub> <mi>N</mi> </mfrac> </mrow>
<mrow> <msub> <mi>P</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>+</mo> <mn>1</mn> </mrow> <mi>L</mi> </munderover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>+</mo> <mn>1</mn> </mrow> <mi>L</mi> </munderover> <mfrac> <msub> <mi>n</mi> <mi>i</mi> </msub> <mi>N</mi> </mfrac> </mrow>
其中,pi为梯度幅值为i的概率,ni为梯度幅值为i的像素数,N为图像总的像素数;
整个图像的平均梯度幅值为类A0、A1和A2的平均梯度幅值分别为:
<mrow> <mover> <msub> <mi>&amp;mu;</mi> <mn>0</mn> </msub> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msub> <mi>P</mi> <mn>0</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <msub> <mi>T</mi> <mn>1</mn> </msub> </munderover> <msub> <mi>ip</mi> <mi>i</mi> </msub> </mrow>
<mrow> <mover> <msub> <mi>&amp;mu;</mi> <mn>1</mn> </msub> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msub> <mi>P</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>+</mo> <mn>1</mn> </mrow> <msub> <mi>T</mi> <mn>2</mn> </msub> </munderover> <msub> <mi>ip</mi> <mi>i</mi> </msub> </mrow>
<mrow> <mover> <msub> <mi>&amp;mu;</mi> <mn>2</mn> </msub> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msub> <mi>P</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> <mo>+</mo> <mn>1</mn> </mrow> <mi>L</mi> </munderover> <msub> <mi>ip</mi> <mi>i</mi> </msub> </mrow>
A0、A1和A2的类间方差表示为:
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <mi>&amp;chi;</mi> <mn>2</mn> </msup> <mo>=</mo> <msub> <mi>P</mi> <mn>0</mn> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> </mrow> <mo>)</mo> </mrow> <msup> <mrow> <mo>&amp;lsqb;</mo> <mrow> <mover> <msub> <mi>&amp;mu;</mi> <mn>0</mn> </msub> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mrow> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mover> <mi>&amp;mu;</mi> <mo>&amp;OverBar;</mo> </mover> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>P</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> </mrow> <mo>)</mo> </mrow> <msup> <mrow> <mo>&amp;lsqb;</mo> <mrow> <mover> <msub> <mi>&amp;mu;</mi> <mn>1</mn> </msub> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mrow> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mover> <mi>&amp;mu;</mi> <mo>&amp;OverBar;</mo> </mover> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msub> <mi>P</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> </mrow> <mo>)</mo> </mrow> <msup> <mrow> <mo>&amp;lsqb;</mo> <mrow> <mover> <msub> <mi>&amp;mu;</mi> <mn>2</mn> </msub> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mrow> <msub> <mi>T</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>T</mi> <mn>2</mn> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mover> <mi>&amp;mu;</mi> <mo>&amp;OverBar;</mo> </mover> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> </mrow> </mtd> </mtr> </mtable> </mfenced>
类间方差最大时的阈值T1和T2分别为低阈值Vl和高阈值Vh。
4.如权利要求1所述的一种基于混合特征的可见光与红外异源图像识别方法,其特征在于:所述步骤2中,利用特征点到邻域灰度质心的向量方向表示特征点的主方向,对任意一个特征点,定义其局部区域灰度矩为:
<mrow> <msub> <mi>m</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> </munder> <msup> <mi>x</mi> <mi>p</mi> </msup> <msup> <mi>y</mi> <mi>q</mi> </msup> <mi>m</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow>
其中,m(x,y)为点(x,y)处的灰度值,p与q的和为灰度矩的阶数,局部区域零阶灰度矩表示该局部区域总的灰度值,局部区域一阶灰度矩用于确定局部区域的灰度质心C:
<mrow> <mi>C</mi> <mo>=</mo> <mrow> <mo>(</mo> <mrow> <mfrac> <msub> <mi>m</mi> <mn>10</mn> </msub> <msub> <mi>m</mi> <mn>00</mn> </msub> </mfrac> <mo>,</mo> <mfrac> <msub> <mi>m</mi> <mn>01</mn> </msub> <msub> <mi>m</mi> <mn>00</mn> </msub> </mfrac> </mrow> <mo>)</mo> </mrow> </mrow>
则特征点的主方向为:
α=arctan(m01,m10)。
5.如权利要求4所述的一种基于混合特征的可见光与红外异源图像识别方法,其特征在于:所述步骤2的具体内容是:将不同参数取值的二维高斯函数与图像进行卷积,生成不同尺度的图像集合,如下式:
<mrow> <mi>L</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>&amp;sigma;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>G</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>&amp;sigma;</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <mi>B</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow>
其中,L(x,y,σ)为某一尺度的图像,B(x,y)表示输入图像,G(x,y,σ)为二维高斯函数,代表卷积操作。
6.如权利要求1所述的一种基于混合特征的可见光与红外异源图像识别方法,其特征在于:所述步骤4中,利用改进RANSAC算法剔除D1'和D2'中的错误匹配点对的具体内容是:首先设置最大迭代次数K和最少内点数目阈值R,根据最近次临近的比值升序,对D1'和D2'重新排序,选取前k个具有较高质量的数据;从这k个数据中随机去除j个数据,计算得到变换矩阵,及误差小于设定值的数据,即内点,统计内点数目,若内点数目小于设定阈值R,迭代次数加1,重复前述过程,重新随机去除j个数据,直至内点数目达到设定阈值R,保存内点点集,即为精匹配特征点点集;若迭代次数大于K,但内点数目未达到设定阈值R,算法失效。
CN201710522969.9A 2017-06-30 2017-06-30 一种基于混合特征的可见光与红外异源图像识别方法 Pending CN107464252A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710522969.9A CN107464252A (zh) 2017-06-30 2017-06-30 一种基于混合特征的可见光与红外异源图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710522969.9A CN107464252A (zh) 2017-06-30 2017-06-30 一种基于混合特征的可见光与红外异源图像识别方法

Publications (1)

Publication Number Publication Date
CN107464252A true CN107464252A (zh) 2017-12-12

Family

ID=60546593

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710522969.9A Pending CN107464252A (zh) 2017-06-30 2017-06-30 一种基于混合特征的可见光与红外异源图像识别方法

Country Status (1)

Country Link
CN (1) CN107464252A (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109461135A (zh) * 2018-09-18 2019-03-12 易思维(杭州)科技有限公司 涂胶图片的处理方法
CN109934296A (zh) * 2019-03-18 2019-06-25 江苏科技大学 一种基于红外和可见光图像多环境下水面人员识别方法
CN110232387A (zh) * 2019-05-24 2019-09-13 河海大学 一种基于kaze-hog算法的异源图像匹配方法
CN110264569A (zh) * 2019-05-30 2019-09-20 南京航空航天大学 一种红外图像三维重建算法
CN110458877A (zh) * 2019-08-14 2019-11-15 湖南科华军融民科技研究院有限公司 基于仿生视觉的红外与可见光信息融合的导航方法
CN110796691A (zh) * 2018-08-03 2020-02-14 中国科学院沈阳自动化研究所 一种基于形状上下文和hog特征的异源图像配准方法
CN111369605A (zh) * 2020-02-27 2020-07-03 河海大学 一种基于边缘特征的红外与可见光图像的配准方法和系统
CN111578838A (zh) * 2020-05-25 2020-08-25 安徽工业大学 一种齿轮尺寸视觉测量装置及测量方法
CN111899289A (zh) * 2020-06-19 2020-11-06 北京理工大学 一种基于图像特征信息的红外图像与可见光图像的配准方法
CN112381844A (zh) * 2020-11-12 2021-02-19 三峡大学 基于图像分块的自适应orb特征提取方法
CN113128573A (zh) * 2021-03-31 2021-07-16 北京航天飞腾装备技术有限责任公司 一种红外-可见光异源图像匹配方法
CN114202679A (zh) * 2021-12-01 2022-03-18 昆明理工大学 一种基于gan网络的异源遥感图像自动化标注方法
CN114331879A (zh) * 2021-12-15 2022-04-12 中国船舶重工集团公司第七0九研究所 一种均衡化二阶梯度直方图描述子的可见光与红外图像配准方法
CN114723770A (zh) * 2022-05-16 2022-07-08 中国人民解放军96901部队 一种基于特征空间关系的异源图像匹配方法
CN115797453A (zh) * 2023-01-17 2023-03-14 西南科技大学 一种红外微弱目标的定位方法、定位装置及可读存储介质
CN110956640B (zh) * 2019-12-04 2023-05-05 国网上海市电力公司 一种异源图像边缘点检测与配准方法
CN116521927A (zh) * 2023-06-30 2023-08-01 成都智遥云图信息技术有限公司 基于网络地图瓦片的遥感影像匹配方法与系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103714548A (zh) * 2013-12-27 2014-04-09 西安电子科技大学 基于视觉注意的红外图像与可见光图像配准方法
CN104134208A (zh) * 2014-07-17 2014-11-05 北京航空航天大学 利用几何结构特征从粗到精的红外与可见光图像配准方法
CN104361314A (zh) * 2014-10-21 2015-02-18 华北电力大学(保定) 基于红外与可见光图像融合的变电设备定位方法及装置
CN104867137A (zh) * 2015-05-08 2015-08-26 中国科学院苏州生物医学工程技术研究所 一种基于改进ransac算法的图像配准方法
CN106447704A (zh) * 2016-10-13 2017-02-22 西北工业大学 基于显著区域特征和边缘度的可见光‑红外图像配准方法
CN106683046A (zh) * 2016-10-27 2017-05-17 山东省科学院情报研究所 用于警用无人机侦察取证的图像实时拼接方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103714548A (zh) * 2013-12-27 2014-04-09 西安电子科技大学 基于视觉注意的红外图像与可见光图像配准方法
CN104134208A (zh) * 2014-07-17 2014-11-05 北京航空航天大学 利用几何结构特征从粗到精的红外与可见光图像配准方法
CN104361314A (zh) * 2014-10-21 2015-02-18 华北电力大学(保定) 基于红外与可见光图像融合的变电设备定位方法及装置
CN104867137A (zh) * 2015-05-08 2015-08-26 中国科学院苏州生物医学工程技术研究所 一种基于改进ransac算法的图像配准方法
CN106447704A (zh) * 2016-10-13 2017-02-22 西北工业大学 基于显著区域特征和边缘度的可见光‑红外图像配准方法
CN106683046A (zh) * 2016-10-27 2017-05-17 山东省科学院情报研究所 用于警用无人机侦察取证的图像实时拼接方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
E. RUBLEE 等: ""ORB: AN efficient alternative to sift or surf"", 《2011 INTERNATIONAL CONFERENCE ON COMPUTER VISION, BARCELONA》 *
张启灿 等: ""一种自适应阈值的Canny边缘检测算法"", 《光电工程》 *
陈艳 等: ""一种基于边缘特征的改进ORB算法"", 《导航与控制》 *
陈艳: ""基于特征图像匹配的目标定位关键技术研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796691B (zh) * 2018-08-03 2023-04-11 中国科学院沈阳自动化研究所 一种基于形状上下文和hog特征的异源图像配准方法
CN110796691A (zh) * 2018-08-03 2020-02-14 中国科学院沈阳自动化研究所 一种基于形状上下文和hog特征的异源图像配准方法
CN109461135A (zh) * 2018-09-18 2019-03-12 易思维(杭州)科技有限公司 涂胶图片的处理方法
CN109461135B (zh) * 2018-09-18 2021-08-17 易思维(杭州)科技有限公司 涂胶图片的处理方法
CN109934296A (zh) * 2019-03-18 2019-06-25 江苏科技大学 一种基于红外和可见光图像多环境下水面人员识别方法
CN109934296B (zh) * 2019-03-18 2023-04-07 江苏科技大学 一种基于红外和可见光图像多环境下水面人员识别方法
CN110232387A (zh) * 2019-05-24 2019-09-13 河海大学 一种基于kaze-hog算法的异源图像匹配方法
CN110232387B (zh) * 2019-05-24 2022-08-05 河海大学 一种基于kaze-hog算法的异源图像匹配方法
CN110264569A (zh) * 2019-05-30 2019-09-20 南京航空航天大学 一种红外图像三维重建算法
CN110458877A (zh) * 2019-08-14 2019-11-15 湖南科华军融民科技研究院有限公司 基于仿生视觉的红外与可见光信息融合的导航方法
CN110956640B (zh) * 2019-12-04 2023-05-05 国网上海市电力公司 一种异源图像边缘点检测与配准方法
CN111369605A (zh) * 2020-02-27 2020-07-03 河海大学 一种基于边缘特征的红外与可见光图像的配准方法和系统
CN111369605B (zh) * 2020-02-27 2022-08-16 河海大学 一种基于边缘特征的红外与可见光图像的配准方法和系统
CN111578838A (zh) * 2020-05-25 2020-08-25 安徽工业大学 一种齿轮尺寸视觉测量装置及测量方法
CN111899289A (zh) * 2020-06-19 2020-11-06 北京理工大学 一种基于图像特征信息的红外图像与可见光图像的配准方法
CN112381844B (zh) * 2020-11-12 2022-12-02 三峡大学 基于图像分块的自适应orb特征提取方法
CN112381844A (zh) * 2020-11-12 2021-02-19 三峡大学 基于图像分块的自适应orb特征提取方法
CN113128573A (zh) * 2021-03-31 2021-07-16 北京航天飞腾装备技术有限责任公司 一种红外-可见光异源图像匹配方法
CN114202679A (zh) * 2021-12-01 2022-03-18 昆明理工大学 一种基于gan网络的异源遥感图像自动化标注方法
CN114331879A (zh) * 2021-12-15 2022-04-12 中国船舶重工集团公司第七0九研究所 一种均衡化二阶梯度直方图描述子的可见光与红外图像配准方法
CN114723770B (zh) * 2022-05-16 2022-08-09 中国人民解放军96901部队 一种基于特征空间关系的异源图像匹配方法
CN114723770A (zh) * 2022-05-16 2022-07-08 中国人民解放军96901部队 一种基于特征空间关系的异源图像匹配方法
CN115797453A (zh) * 2023-01-17 2023-03-14 西南科技大学 一种红外微弱目标的定位方法、定位装置及可读存储介质
CN116521927A (zh) * 2023-06-30 2023-08-01 成都智遥云图信息技术有限公司 基于网络地图瓦片的遥感影像匹配方法与系统
CN116521927B (zh) * 2023-06-30 2024-02-13 成都智遥云图信息技术有限公司 基于网络地图瓦片的遥感影像匹配方法与系统

Similar Documents

Publication Publication Date Title
CN107464252A (zh) 一种基于混合特征的可见光与红外异源图像识别方法
CN109614922B (zh) 一种动静态手势识别方法和系统
Gao et al. Automatic change detection in synthetic aperture radar images based on PCANet
Timofte et al. Multi-view traffic sign detection, recognition, and 3D localisation
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN106530347B (zh) 一种稳定的高性能圆特征检测方法
CN106709950B (zh) 一种基于双目视觉的巡线机器人跨越障碍导线定位方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN101923640B (zh) 基于鲁棒纹理特征和机器学习对伪造虹膜图像判别的方法
CN104102904B (zh) 一种静态手势识别方法
CN104881671B (zh) 一种基于2D‑Gabor的高分遥感影像局部特征提取方法
CN103903013A (zh) 一种无标记平面物体识别的优化算法
CN104268602A (zh) 一种基于二进制特征匹配的遮挡工件识别方法及装置
CN107729820A (zh) 一种基于多尺度hog的手指静脉识别方法
CN103870808A (zh) 一种手指静脉识别方法
CN102521597B (zh) 一种基于分级策略的影像直线特征匹配方法
CN108334875A (zh) 基于自适应多阈值的静脉特征提取方法
CN103218605A (zh) 一种基于积分投影与边缘检测的快速人眼定位方法
WO2022121025A1 (zh) 证件增减类别检测方法、装置、可读存储介质和终端
CN108121972A (zh) 一种局部遮挡条件下的目标识别方法
Kim et al. Autonomous vehicle detection system using visible and infrared camera
CN101833763B (zh) 一种水面倒影图像检测方法
CN109727363A (zh) 一种在票据中识别大写金额的方法
Varjas et al. Car recognition from frontal images in mobile environment
CN101950448A (zh) Atm的伪装与偷窥行为检测的方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171212