CN108304883B - 基于改进sift的sar图像匹配方法 - Google Patents
基于改进sift的sar图像匹配方法 Download PDFInfo
- Publication number
- CN108304883B CN108304883B CN201810144442.1A CN201810144442A CN108304883B CN 108304883 B CN108304883 B CN 108304883B CN 201810144442 A CN201810144442 A CN 201810144442A CN 108304883 B CN108304883 B CN 108304883B
- Authority
- CN
- China
- Prior art keywords
- image
- gaussian
- pyramids
- group
- processed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 239000013598 vector Substances 0.000 claims abstract description 42
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 230000004044 response Effects 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000001629 suppression Effects 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 239000000956 alloy Substances 0.000 claims description 2
- 229910045601 alloy Inorganic materials 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- NTHWMYGWWRZVTN-UHFFFAOYSA-N sodium silicate Chemical compound [Na+].[Na+].[O-][Si]([O-])=O NTHWMYGWWRZVTN-UHFFFAOYSA-N 0.000 claims 1
- 230000002457 bidirectional effect Effects 0.000 abstract description 4
- 238000012216 screening Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 15
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000746 purification Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于雷达信号处理技术领域,公开了基于改进SIFT的SAR图像匹配方法,主要解决了当SAR图像信噪比低,并且与基准图存在场景差异时,现有的匹配算法无法满足精确匹配需求的问题。其实现步骤为:先对图像进行Gamma_MAP滤波,抑制相干斑噪声的影响,然后构造高斯差分尺度空间,在尺度空间中检测极值点,对极值点进行筛选和剔除,得到特征点,进而得到每一个特征点的主方向和特征向量,最后根据双向欧氏距离准则,得到图像匹配点。本发明提高了图像特征点的稳定性和匹配的正确率,能得到高精度的匹配对,可用于低信噪比SAR图像的匹配。
Description
技术领域
本发明属于雷达信号处理技术领域,尤其涉及基于改进SIFT的SAR图像匹配方法,可用于弹载SAR景象匹配。
背景技术
在图像处理过程中,对于获取的多幅图像,往往要对其进行分析和研究,如图像融合、变化检测和目标识别等。
目前,常用的基于特征点的图像匹配方法有尺度不变特征变换(Scale InvariantFeature Transform,SIFT)算法、SIFT-like算法和SURF算法。其中,原始SIFT算法是一种针对光学图像的局部不变量特征检测方法,没有考虑到SAR图像与光学图像的差异,因此不适用于SAR图像配准。基于SAR图像存在相干斑噪声,以及低信噪比的特点,一种多尺度的SIFT-like匹配算法被提出,在一定程度上提高了SAR图像的匹配效果,但当图像中无明显特征时,该方法的匹配正确率低,甚至失效。SURF算法是一种加快的SIFT算法,提高了匹配速度,但该算法检测的特征点对场景存在差异的图像匹配不适用。
发明内容
针对上述问题,本发明的目的在于提供一种基于改进SIFT的SAR图像匹配方法,具有旋转不变性、亮度不变性、仿射不变性,可对场景存在差异,并且低信噪比的两幅图像进行配准。尤其当图像分辨率高、特征明显时,能获得高精度的匹配结果。
为达到上述目的,本发明采用如下技术方案予以实现。
一种基于改进SIFT的SAR图像匹配方法,所述方法包括如下步骤:
步骤1,获取实时SAR图像和基准SAR图像,分别对所述实时SAR图像和所述基准SAR图像进行两次Gamma MAP滤波,得到相干斑噪声抑制后的实时SAR图像和相干斑噪声抑制后的基准SAR图像;所述基准SAR图像为采用遥感成像对第一成像区域的预先成像结果,所述实时SAR图像为弹载雷达对第二成像区域的实时成像结果,且所述第一成像区域包含所述第二成像区域;
步骤2,设待处理图像的尺寸为M×N,对所述待处理图像进行双线性插值使得所述待处理图像的尺寸变为2M×2N;所述待处理图像为所述相干斑噪声抑制后的实时SAR图像或者所述相干斑噪声抑制后的基准SAR图像;
步骤3,构造待处理图像对应的高斯尺度空间,所述高斯尺度空间包含Q组高斯金字塔,每组高斯金字塔包含P层高斯图像,Q为正整数,P为正整数;
步骤4,根据所述待处理图像对应的高斯尺度空间,构造待处理图像对应的高斯差分尺度空间,所述高斯差分尺度空间包含Q组高斯差分金字塔,每组高斯差分金字塔包含P-1层高斯差分图像;
步骤5,确定待处理图像每组高斯差分金字塔中每层高斯差分图像的所有像素点分别对应的DOG响应,根据每组高斯差分金字塔中每层高斯差分图像的所有像素点分别对应的DOG响应,确定每组高斯差分金字塔的初步极值点集合;
步骤6,对于待处理图像每组高斯差分金字塔中的初步极值点集合,剔除所述初步极值点集合中对比度低于给定对比度阈值的极值点,得到待处理图像每组高斯差分金字塔对应的第一极值点集合;
步骤7,对于待处理图像每组高斯差分金字塔对应的第一极值点集合,剔除所述第一极值点集合中边缘主曲率大于给定边缘主曲率阈值的极值点,得到待处理图像每组高斯差分金字塔对应的第二极值点集合,所述待处理图像第二极值点集合中的极值点作为待处理图像每组高斯差分金字塔的特征点集合;
步骤8,确定所述待处理图像每组高斯差分金字塔的特征点集合中每个特征点的主方向,并计算每个特征点的特征描述向量,从而得到待处理图像每组高斯差分金字塔的特征点集合中每个特征点的特征描述向量;
步骤9,当所述待处理图像为相干斑噪声抑制后的实时SAR图像时,经过步骤2至步骤8后,得到待处理图像每组高斯差分金字塔的特征点集合中每个特征点的特征描述向量,记为实时SAR图像的全部特征点及其对应的特征描述向量;
当所述待处理图像为相干斑噪声抑制后的基准SAR图像时,经过步骤2至步骤8后,得到待处理图像每组高斯差分金字塔的特征点集合中每个特征点的特征描述向量,记为基准SAR图像的全部特征点及其对应的特征描述向量;
步骤10,根据所述实时SAR图像的全部特征点及其对应的特征描述向量,以及所述基准SAR图像的全部特征点及其对应的特征描述向量,得到实时SAR图像和基准SAR图像的匹配结果。
本发明技术方案与现有技术相比具有如下优点:第一,常用的SAR图像匹配方法,对于低信噪比的图像无法精确匹配,本发明技术方案从SAR图像的特点出发,提出了对实时图和基准图进行两次Gamma_MAP滤波预处理操作,能够有效地抑制相干斑噪声,并控制边缘损失。第二,常用的SIFT算法无法适应SAR图像匹配,SIFT-like算法得到的匹配对数目少,无法精确得到两幅图像的变换模型,因此本发明技术方案从准确率和匹配对数目出发,提出了一种基于改进SIFT的SAR图像匹配方法。该方法采用指数加权均值比(ROEWA)代替传统的均值比(ROA)算子计算像素点梯度,更能抑制SAR图像的相干斑噪声。并且用ROEWA算子改进主方向和特征描述向量,降低了特征点的误警率。第三,在相似性度量时,本发明技术方案采用双向欧式距离中最近邻值与次近邻值得比值法以及随机一致提纯算法对特征点进行配准,提高了匹配的准确率和算法的稳定性。尤其当图像分辨率低,信噪比低时,严格的相似性度量可以使匹配正确率得到保障。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于改进SIFT的SAR图像匹配方法的流程示意图;
图2为本发明实施例提供的高斯尺度空间示意图;
图3为本发明实施例提供的高斯差分尺度空间示意图;
图4为本发明实施例提供的初步极值点检测时第一邻域立方体的结构示意图;
图5为本发明实施例提供的连续空间与离散空间的极值点对比示意图;
图6为本发明实施例提供的高斯函数的sigma和3*sigma范围示意图;
图7为本发明实施例提供的特征点的第二邻域范围及梯度直方图示意图;
图8为本发明实施例提供的特征点第三邻域以及旋转至主方向示意图;
图9为本发明实施例提供的特征点的特征描述向量生成示意图;
图10为本发明实施例提供的SIFT-like算法、SURF算法与本发明方法对实时图与基准图的匹配结果示意图;
图11为本发明实施例提供的采用本发明方法对实时图与基准图的匹配结果示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种基于改进SIFT的SAR图像匹配方法,如图1所示,所述方法包括如下步骤:
步骤1,获取实时SAR图像和基准SAR图像,分别对所述实时SAR图像和所述基准SAR图像进行两次Gamma MAP滤波,得到相干斑噪声抑制后的实时SAR图像和相干斑噪声抑制后的基准SAR图像;所述基准SAR图像为采用遥感成像对第一成像区域的预先成像结果,所述实时SAR图像为弹载雷达对第二成像区域的实时成像结果,且所述第一成像区域包含所述第二成像区域。
步骤2,设待处理图像的尺寸为M×N,对所述待处理图像进行双线性插值使得所述待处理图像的尺寸变为2M×2N;所述待处理图像为所述相干斑噪声抑制后的实时SAR图像或者所述相干斑噪声抑制后的基准SAR图像。
步骤3,构造待处理图像对应的高斯尺度空间,所述高斯尺度空间包含Q组高斯金字塔,每组高斯金字塔包含P层高斯图像,Q为正整数,P为正整数。
示例性的,如图2所示为高斯尺度空间示意图。需要说明的是,高斯金字塔一共可以有O(octaves)组,其中O是一个与图像尺寸有关的值,一般有O={log2(min(M,N))}({}表示取整运算),其中每一组图像由s+3层图像组成,s为用于检测特征点的图像层数,通常取值为3。
步骤3具体包括:
(1)待处理图像对应的高斯尺度空间中第一组高斯金字塔的构造过程为:
(3a)选取第一组高斯金字塔的P个不同的尺度因子σ1,1,σ1,2,…σ1,P,根据所述P个不同的尺度因子σ1,1,σ1,2,…σ1,P得到P个不同的高斯核函数G(x,y,σ1,1),G(x,y,σ1,2),…,G(x,y,σ1,P);
(3b)记所述待处理图像为I(x,y),将所述待处理图像与所述P个不同的高斯核函数进行卷积,得到P个具有不同尺度的图像序列,作为第一组高斯金字塔包含的P层高斯图像;其中,x,y为高斯核函数和待处理图像的二维变量;
(2)待处理图像对应的高斯尺度空间中第q组高斯金字塔的构造过程为:
(3c)记每组高斯金字塔塔底的图像为第一层高斯图像,塔顶的图像为第P层高斯图像,选取第q-1组高斯金字塔的倒数第三层高斯图像,将所述倒数第三层高斯图像以因子2进行降采样得到的图像作为第q组高斯金字塔的第一层高斯图像;其中,1<q≤Q;
(3d)第q组高斯金字塔的第p层高斯图像的尺度因子σq,p与第q组高斯金字塔的第p-1层高斯图像的尺度因子σq,p-1存在如下关系:σq,p=σq,p-1×k,从而得到第q组高斯金字塔的第p层高斯图像,k为尺度变换系数,且0<k<1,1<p≤P。
步骤4,根据所述待处理图像对应的高斯尺度空间,构造待处理图像对应的高斯差分尺度空间,所述高斯差分尺度空间包含Q组高斯差分金字塔,每组高斯差分金字塔包含P-1层高斯差分图像。
示例性的,如图3所示为高斯差分尺度空间示意图,每组高斯差分金字塔比该组高斯金字塔少一层。
步骤4具体包括:
(4a)将所述待处理图像对应的高斯尺度空间中,将第q1组高斯金字塔的第p1+1层高斯图像与第q1组高斯金字塔的第p1层高斯图像相减得到的图像作为第q1组高斯差分金字塔的第p1层高斯差分图像;p1的初值为1,1≤p1≤P-1,q1的初值为1,1≤q1≤Q;
(4b)令p1的值加1,重复执行子步骤(4a),直到得到第q1组高斯金字塔的P-1层高斯差分图像;
(4c)重置p1的值为1,令q1的值加1,重复执行子步骤(4a)和(4b),直到得到Q组高斯差分金字塔分别对应的P-1层高斯差分图像,作为待处理图像对应的高斯差分尺度空间。
步骤5,确定待处理图像每组高斯差分金字塔中每层高斯差分图像的所有像素点分别对应的DOG响应,根据每组高斯差分金字塔中每层高斯差分图像的所有像素点分别对应的DOG响应,确定每组高斯差分金字塔的初步极值点集合。
步骤5中,确定待处理图像每组高斯差分金字塔中每层高斯差分图像的所有像素点分别对应的DOG响应,具体包括:
其中,表示尺度因子为的高斯核函数,表示第一组高斯差分金字塔的第p1+1层高斯差分图像的尺度因子,表示尺度因子为的高斯核函数,表示第一组高斯差分金字塔的第p1层高斯差分图像的尺度因子,I1(x0,y0)表示待处理图像在任意坐标(x0,y0)处的灰度值,表示卷积操作;
其中,表示尺度因子为的高斯核函数,表示第q1组高斯差分金字塔的第p1+1层高斯差分图像的尺度因子,表示尺度因子为的高斯核函数,表示第q1组高斯差分金字塔的第p1层高斯差分图像的尺度因子,表示第q1-1组高斯差分金字塔的倒数第三层高斯差分图像在任意坐标(x0,y0)处的灰度值,表示卷积操作;
(5c)重置p1的值为1,令q1的值加1,重复执行子步骤(5a)和(5b),直到得到Q组高斯差分金字塔分别对应的P-1层高斯差分图像的中所有像素点的DOG响应值。
步骤5中,根据每组高斯差分金字塔中每层高斯差分图像的所有像素点分别对应的DOG响应,确定每组高斯差分金字塔的初步极值点集合,具体包括:
(5d)对待处理图像对应的高斯差分尺度空间中第q1组高斯差分金字塔,构造分别由第p2+1层高斯差分图像中△t1×△t1大小的第一区域、第p2层高斯差分图像中△t1×△t1大小的第二区域、第p2-1层高斯差分图像中高斯差分图像中△t1×△t1大小的第三区域组成的第一邻域立方体,如图4所示为第一邻域立方体的结构示意图,所述第一区域在第p2+1层高斯差分图像中的位置、所述第二区域在第p2层高斯差分图像中的位置以及第三区域在第p2-1层高斯差分图像中的位置分别对应相同;其中,p2的初值为2,且1<p2<P-1,q1的初值为1,1≤q1≤Q;
(5e)对位于第p2层高斯差分图像中第二区域的中心位置像素点,判断所述中心位置像素点的DOG响应是否为所述第一邻域立方体所包含的所有像素点对应的DOG响应中的最大值;
若为最大值,则将该位于第p2层高斯差分图像中第二区域的中心位置像素点记录为初步极值点;
(5f)遍历第p2层高斯差分图像中的所有像素点,直到得到第p2层高斯差分图像对应的所有初步极值点;
(5g)令p2的值加1,重复执行子步骤(5d)至子步骤(5f),直到得到第q1组高斯差分金字塔的初步极值点集合;所述初步极值点集合中记录的极值点至少包含每个极值点所在的高斯差分图像的层数,以及该极值点在对应高斯差分图像中的坐标;
(5h)重置p2的值为1,令q1的值加1,重复执行子步骤(5d)和(5g),直到得到Q组高斯差分金字塔分别对应的初步极值点集合。
需要说明的是,由于DoG函数对图像的噪声和场景边缘较敏感,若极值点的DoG响应值太小,或极值点落在图像的边缘处,则易受到噪声、视角、旋转等影响而不稳定。因此,需剔除低对比度的极值点和图像边缘的极值点,以确保特征点的稳定性。
需要补充的是,由于上述初步极值点是在离散空间中得到的,而离散极值点不一定就是连续空间的极值点,因此精度不够高,如图5所示。为了使特征点的坐标和尺度信息具有亚像素级的精度,需要对高斯差分函数DoG进行三维二次函数拟合,通过子像元插值的方法,计算初步极值点的亚像素坐标和所在的新层数。
步骤6,对于待处理图像每组高斯差分金字塔中的初步极值点集合,剔除所述初步极值点集合中对比度低于给定对比度阈值的极值点,得到待处理图像每组高斯差分金字塔对应的第一极值点集合。
步骤7,对于待处理图像每组高斯差分金字塔对应的第一极值点集合,剔除所述第一极值点集合中边缘主曲率大于给定边缘主曲率阈值的极值点,得到待处理图像每组高斯差分金字塔对应的第二极值点集合,所述待处理图像第二极值点集合中的极值点作为待处理图像每组高斯差分金字塔的特征点集合。
步骤7具体包括:
(7a)记待处理图像每组高斯差分金字塔对应的第一极值点集合中的任意一个极值点a,该极值点a对应的Hessian矩阵H表示为:
其中,Dx1x1、Dx1y1、Dy1x1、Dy1y1分别表示极值点a的DOG响应关于该极值点a的坐标(x1,y1)的二阶偏导数;
(7c)设所述极值点a对应的Hessian矩阵的特征值为λ1、λ2,则:
Trace(H)=Dxx+Dyy=λ1+λ2
Det(H)=DxxDyy-Dxy 2=λ1×λ2
(7d)给定边缘主曲率阈值thresh_P,若所述极值点a对应的边缘主曲率PC<thresh_P,则将所述极值点a保留在所述待处理图像第二极值点集合中;否则,剔除所述极值点a。
步骤8,确定所述待处理图像每组高斯差分金字塔的特征点集合中每个特征点的主方向,并计算每个特征点的特征描述向量,从而得到待处理图像每组高斯差分金字塔的特征点集合中每个特征点的特征描述向量。
步骤8中,确定所述待处理图像每组高斯差分金字塔的特征点集合中每个特征点的主方向,具体包括:
(8a)记待处理图像每组高斯差分金字塔的特征点集合中任意一个特征点b,确定以特征点b为中心的第二邻域;所述第二邻域是边长为3×1.5σb的正方形区域,其中,σb为特征点b所在高斯差分图像对应的尺度因子;
(8b)对以特征点b为中心的第二邻域内的所有像素点,获取任意一个像素点c对应的梯度幅值和梯度幅角,对第二邻域内的任意一个像素点c的梯度幅值M′(xc,yc)和梯度幅角G′(xc,yc)进行高斯加权,分别得到像素点c的加权梯度幅值M(xc,yc)和加权梯度幅角G(xc,yc):
M(xc,yc)=M′(xc,yc)×g(xc,yc,σb)
G(xc,yc)=G′(xc,yc)×g(xc,yc,σb)
其中,(xc,yc)表示任意一个像素点c的坐标,从而得到任意一个像素点的加权梯度,所述像素点的加权梯度包含加权梯度幅值和加权梯度幅角,g(xc,yc,σb)表示像素点c的高斯加权值,高斯函数的函数形式如图6所示。
(8c)根据子步骤(8b)计算得到以特征点b为中心的第二邻域内的所有像素点的加权梯度,
(8d)根据所述以特征点b为中心的第二邻域内的所有像素点的加权梯度得到梯度直方图,所述梯度直方图包含36个柱,每个柱代表的角度范围为10°,36个柱依次表示0°~360°的角度范围;将以特征点b为中心的第二邻域内的每个像素点的加权梯度幅值叠加到该像素点的加权梯度幅角对应的柱上得到梯度直方图;确定所述梯度直方图中峰值柱对应的角度为特征点b的主方向;
示例性的,如图7所示,左边方格点代表第二邻域范围,圆圈代表高斯函数覆盖的范围,箭头指向代表加权梯度方向(也就是幅角),箭头长度代表加权梯度幅值。右边为梯度直方图(36个柱,每柱代表10°,图7只示意了8个柱)。
(8e)遍历所述待处理图像每组高斯差分金字塔的特征点集合中所有特征点,得到所述待处理图像每组高斯差分金字塔的特征点集合中每个特征点的主方向。
步骤8中,计算每个特征点的特征描述向量,具体包括:
(8f)对所述特征点b,确定以特征点b为中心的第三邻域;所述第三邻域是边长的正方形区域,其中,σb为特征点b所在高斯差分图像对应的尺度因子,m为确定第三邻域大小的第一参数,d为确定第三邻域大小的第二参数;一般的d=4,m=3。
(8g)为了保证特征描述向量具有旋转不变性,将所述第三邻域旋转到与所述特征点b的主方向相同的方向,得到旋转后的第三邻域,对应的旋转矩阵T为:
其中,θ表示特征点b的主方向;
示例性的,如图8所示,左边的每个小方格代表一个像素,方格中的箭头和长度表示该像素的加权梯度方向和幅值,中间方格中的箭头表示特征点b的主方向,将每个像素的坐标进行顺时针旋转得到右图中新的坐标,此时中间方格中的箭头为水平向右,右边方格中的箭头和长度表示旧坐标对应梯度方向和幅值。
(8h)在所述旋转后的第三邻域内选取第四邻域,所述第四邻域是边长为mσbd的正方形区域,再将所述第四邻域等间隔划分为d×d个子区域,每个子区域包含mσb×mσb个像素,确定每个子区域对应的梯度直方图,所述每个子区域对应的梯度直方图包含8个柱,每个柱代表的角度范围为45°,8个柱依次表示0°~360°的角度范围;
(8i)对于任意一个子区域,将该子区域中每个像素点的加权梯度幅值叠加到该像素点的加权梯度幅角对应的柱上得到该子区域对应的梯度直方图;从而得到d×d个子区域分别对应的梯度直方图;
(8j)根据d×d个子区域分别对应的梯度直方图得到所述特征点b对应的d×d×8维的特征描述向量,如图9所示。
步骤9,当所述待处理图像为相干斑噪声抑制后的实时SAR图像时,经过步骤2至步骤8后,得到待处理图像每组高斯差分金字塔的特征点集合中每个特征点的特征描述向量,记为实时SAR图像的全部特征点及其对应的特征描述向量;
当所述待处理图像为相干斑噪声抑制后的基准SAR图像时,经过步骤2至步骤8后,得到待处理图像每组高斯差分金字塔的特征点集合中每个特征点的特征描述向量,记为基准SAR图像的全部特征点及其对应的特征描述向量。
步骤10,根据所述实时SAR图像的全部特征点及其对应的特征描述向量,以及所述基准SAR图像的全部特征点及其对应的特征描述向量,得到实时SAR图像和基准SAR图像的匹配结果。
需要补充的是,进行两幅图像所有特征点(分b_s为实时图中特征点的统称、b_j为基准图中特征点的统称)之间的相似性度量。主要分为两步,首先进行随机一致提纯法(RANSAC),然后计算b_s与b_j的双向欧式距离。
RANSAC算法步骤如下:
(1)对一个匹配点集P,假设初始化模型需要的样本数为n,此处由于仿射变换矩阵有8个自由未知量,此处n为4。从匹配点集P中随机抽取4对匹配点组成集合P的一个子集S,并根据抽取的4对匹配点初始化仿射变换模型H。
(2)判断S的补集中匹配点是否在一定的误差容忍度范围内符合该矩阵H,若符合,则加入到集合S中,否则,剔除之。该集合称为H的一致集。
(3)根据当前一致集S中的匹配点个数判断是否满足预定的特征点数目阈值,若为当前最优的一致集,再判断当前仿射变换矩阵H的错误概率PH是否满足所允许的最小错误概率,若满足,则此时的矩阵H为最优模型,再根据一致集S中的所有匹配点,采用最小二乘法拟合新的矩阵H,得到最终的仿射变换模型;若不满足一致集合S最优,或者矩阵H的错误概率太大,则重复步骤(1)~(3),直到找到符合要求的矩阵H;若没有满足的变换矩阵H,则选取当前的最优矩阵即可。
步骤10中计算b_s与b_j的双向欧式距离具体包括:
第一次匹配:
(10a)选取所述实时SAR图像的一个特征点,计算所述基准SAR图像的全部特征点分别与所述实时SAR图像的该特征点的欧式距离,所述欧式距离采用特征向量计算,选取所述基准SAR图像中最近欧式距离和次近欧式距离分别对应的基准SAR图像中的两个特征点;
(10b)计算所述最近欧式距离与所述次近欧氏距离的比值,若所述比值小于给定阈值,则保留基准SAR图像中最近欧式距离与所述次近欧氏距离分别对应的两个特征点,作为所述实时SAR图像的该特征点的两个匹配点;
(10c)遍历所述实时SAR图像的所有特征点,得到实时SAR图像的所有特征点分别对应的两个匹配点;
第二次匹配:
(10d)选取所述基准SAR图像的一个特征点,计算所述实时SAR图像的全部特征点分别与所述基准SAR图像的该特征点的欧式距离,所述欧式距离采用特征向量计算,选取所述实时SAR图像中最近欧式距离和次近欧式距离分别对应的实时SAR图像中的两个特征点;
(10e)计算所述最近欧式距离与所述次近欧氏距离的比值,若所述比值小于给定阈值,则保留实时SAR图像中最近欧式距离与所述次近欧氏距离分别对应的两个特征点,作为所述基准SAR图像的该特征点的两个匹配点;
(10f)遍历所述基准SAR图像的所有特征点,得到基准SAR图像的所有特征点分别对应的两个匹配点;
(10g)若实时SAR图像中的任一特征点A和基准SAR图像中的任一特征点B在第一次匹配和第二次匹配的过程中,分别满足匹配条件,则确定所述特征点A和所述特征点B为最终的匹配特征点。
仿真内容
仿真1:对两组图像进行匹配,第一组:实时图为260*260(如图10(a)中左边的图),基准图为668*742(如图10(a)中右边的图),将实时图旋转45°;第二组:实时图为256*256(如图10(b)中左边的图),基准图为512*512(如图10(b)中右边的图),将实时图旋转90°。分别用SIFT-like、SURF和本发明方法对两组图像进行匹配,匹配结果如图10所示,其中,图10(c)为采用SIFT-like方法分别对两组图像进行匹配的结果示意图,图10(d)为采用SURF方法分别对两组图像进行匹配的结果示意图,图10(e)为采用本发明方法分别对两组图像进行匹配的结果示意图。
仿真2:实测数据处理:实时图为192*256(如图11(a)所示),基准图为320*300(如图11(b)所示),两幅图像分辨率均为15米,采用本发明方法对实时图和基准图的匹配结果如图11(c)所示。
仿真结果分析
在仿真1中,从三种匹配结果的比较可知,本发明技术方案在匹配点数和旋转角度方面均比另外两种方法效果好,体现了可行性和高效性。
在仿真2中,通过实测图的匹配结果可知,本发明技术方案能适应低信噪比,以及场景有明显变化的图像匹配,实用性好。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (2)
1.一种基于改进SIFT的SAR图像匹配方法,其特征在于,所述方法包括如下步骤:
步骤1,获取实时SAR图像和基准SAR图像,分别对所述实时SAR图像和所述基准SAR图像进行两次Gamma MAP滤波,得到相干斑噪声抑制后的实时SAR图像和相干斑噪声抑制后的基准SAR图像;所述基准SAR图像为采用遥感成像对第一成像区域的预先成像结果,所述实时SAR图像为弹载雷达对第二成像区域的实时成像结果,且所述第一成像区域包含所述第二成像区域;
步骤2,设待处理图像的尺寸为M×N,对所述待处理图像进行双线性插值使得所述待处理图像的尺寸变为2M×2N;所述待处理图像为所述相干斑噪声抑制后的实时SAR图像或者所述相干斑噪声抑制后的基准SAR图像;
步骤3,构造待处理图像对应的高斯尺度空间,所述高斯尺度空间包含Q组高斯金字塔,每组高斯金字塔包含P层高斯图像,Q为正整数,P为正整数;
(1)待处理图像对应的高斯尺度空间中第一组高斯金字塔的构造过程为:
(3a)选取第一组高斯金字塔的P个不同的尺度因子σ1,1,σ1,2,…σ1,P,根据所述P个不同的尺度因子σ1,1,σ1,2,…σ1,P得到P个不同的高斯核函数G(x,y,σ1,1),G(x,y,σ1,2),…,G(x,y,σ1,P);
(3b)记所述待处理图像为I(x,y),将所述待处理图像与所述P个不同的高斯核函数进行卷积,得到P个具有不同尺度的图像序列,作为第一组高斯金字塔包含的P层高斯图像;其中,x,y为高斯核函数和待处理图像的二维变量;
(2)待处理图像对应的高斯尺度空间中第q组高斯金字塔的构造过程为:
(3c)记每组高斯金字塔塔底的图像为第一层高斯图像,塔顶的图像为第P层高斯图像,选取第q-1组高斯金字塔的倒数第三层高斯图像,将所述倒数第三层高斯图像以因子2进行降采样得到的图像作为第q组高斯金字塔的第一层高斯图像;其中,1<q≤Q;
(3d)第q组高斯金字塔的第p层高斯图像的尺度因子σq,p与第q组高斯金字塔的第p-1层高斯图像的尺度因子σq,p-1存在如下关系:σq,p=σq,p-1×k,从而得到第q组高斯金字塔的第p层高斯图像,k为尺度变换系数,且0<k<1,1<p≤P;
步骤4,根据所述待处理图像对应的高斯尺度空间,构造待处理图像对应的高斯差分尺度空间,所述高斯差分尺度空间包含Q组高斯差分金字塔,每组高斯差分金字塔包含P-1层高斯差分图像;
所述步骤4具体包括:
(4a)将所述待处理图像对应的高斯尺度空间中,将第q1组高斯金字塔的第p1+1层高斯图像与第q1组高斯金字塔的第p1层高斯图像相减得到的图像作为第q1组高斯差分金字塔的第p1层高斯差分图像;p1的初值为1,1≤p1≤P-1,q1的初值为1,1≤q1≤Q;
(4b)令p1的值加1,重复执行子步骤(4a),直到得到第q1组高斯金字塔的P-1层高斯差分图像;
(4c)重置p1的值为1,令q1的值加1,重复执行子步骤(4a)和(4b),直到得到Q组高斯差分金字塔分别对应的P-1层高斯差分图像,作为待处理图像对应的高斯差分尺度空间;
步骤5,确定待处理图像每组高斯差分金字塔中每层高斯差分图像的所有像素点分别对应的DOG响应,根据每组高斯差分金字塔中每层高斯差分图像的所有像素点分别对应的DOG响应,确定每组高斯差分金字塔的初步极值点集合;
在所述步骤5中,确定待处理图像每组高斯差分金字塔中每层高斯差分图像的所有像素点分别对应的DOG响应,具体包括:
其中,表示尺度因子为的高斯核函数,表示第一组高斯差分金字塔的第p1+1层高斯差分图像的尺度因子,表示尺度因子为的高斯核函数,表示第一组高斯差分金字塔的第p1层高斯差分图像的尺度因子,I1(x0,y0)表示待处理图像在任意坐标(x0,y0)处的灰度值,表示卷积操作;
其中,表示尺度因子为的高斯核函数,表示第q1组高斯差分金字塔的第p1+1层高斯差分图像的尺度因子,表示尺度因子为的高斯核函数,表示第q1组高斯差分金字塔的第p1层高斯差分图像的尺度因子,表示第q1-1组高斯差分金字塔的倒数第三层高斯差分图像在任意坐标(x0,y0)处的灰度值,表示卷积操作;
(5c)重置p1的值为1,令q1的值加1,重复执行子步骤(5a)和(5b),直到得到Q组高斯差分金字塔分别对应的P-1层高斯差分图像的中所有像素点的DOG响应值;
在所述步骤5中,根据每组高斯差分金字塔中每层高斯差分图像的所有像素点分别对应的DOG响应,确定每组高斯差分金字塔的初步极值点集合,具体包括:
(5d)对待处理图像对应的高斯差分尺度空间中第q1组高斯差分金字塔,构造分别由第p2+1层高斯差分图像中Δt1×Δt1大小的第一区域、第p2层高斯差分图像中Δt1×Δt1大小的第二区域、第p2-1层高斯差分图像中高斯差分图像中Δt1×Δt1大小的第三区域组成的第一邻域立方体,所述第一区域在第p2+1层高斯差分图像中的位置、所述第二区域在第p2层高斯差分图像中的位置以及第三区域在第p2-1层高斯差分图像中的位置分别对应相同;其中,p2的初值为2,且1<p2<P-1,q1的初值为1,1≤q1≤Q;
(5e)对位于第p2层高斯差分图像中第二区域的中心位置像素点,判断所述中心位置像素点的DOG响应是否为所述第一邻域立方体所包含的所有像素点对应的DOG响应中的最大值;
若为最大值,则将该位于第p2层高斯差分图像中第二区域的中心位置像素点记录为初步极值点;
(5f)遍历第p2层高斯差分图像中的所有像素点,直到得到第p2层高斯差分图像对应的所有初步极值点;
(5g)令p2的值加1,重复执行子步骤(5d)至子步骤(5f),直到得到第q1组高斯差分金字塔的初步极值点集合;所述初步极值点集合中记录的极值点至少包含每个极值点所在的高斯差分图像的层数,以及该极值点在对应高斯差分图像中的坐标;
(5h)重置p2的值为1,令q1的值加1,重复执行子步骤(5d)和(5g),直到得到Q组高斯差分金字塔分别对应的初步极值点集合;
步骤6,对于待处理图像每组高斯差分金字塔中的初步极值点集合,剔除所述初步极值点集合中对比度低于给定对比度阈值的极值点,得到待处理图像每组高斯差分金字塔对应的第一极值点集合;
步骤7,对于待处理图像每组高斯差分金字塔对应的第一极值点集合,剔除所述第一极值点集合中边缘主曲率大于给定边缘主曲率阈值的极值点,得到待处理图像每组高斯差分金字塔对应的第二极值点集合,所述待处理图像第二极值点集合中的极值点作为待处理图像每组高斯差分金字塔的特征点集合;
步骤8,确定所述待处理图像每组高斯差分金字塔的特征点集合中每个特征点的主方向,并计算每个特征点的特征描述向量,从而得到待处理图像每组高斯差分金字塔的特征点集合中每个特征点的特征描述向量;
其中,确定所述待处理图像每组高斯差分金字塔的特征点集合中每个特征点的主方向,具体包括:
(8a)记待处理图像每组高斯差分金字塔的特征点集合中任意一个特征点b,确定以特征点b为中心的第二邻域;所述第二邻域是边长为3×1.5σb的正方形区域,其中,σb为特征点b所在高斯差分图像对应的尺度因子;
(8b)对以特征点b为中心的第二邻域内的所有像素点,获取任意一个像素点c对应的梯度幅值和梯度幅角,对第二邻域内的任意一个像素点c的梯度幅值M′(xc,yc)和梯度幅角G′(xc,yc)进行高斯加权,分别得到像素点c的加权梯度幅值M(xc,yc)和加权梯度幅角G(xc,yc):
M(xc,yc)=M′(xc,yc)×g(xc,yc,σb)
G(xc,yc)=G′(xc,yc)×g(xc,yc,σb)
(8c)根据子步骤(8b)计算得到以特征点b为中心的第二邻域内的所有像素点的加权梯度;
(8d)根据所述以特征点b为中心的第二邻域内的所有像素点的加权梯度得到梯度直方图,所述梯度直方图包含36个柱,每个柱代表的角度范围为10°,36个柱依次表示0°~360°的角度范围;将以特征点b为中心的第二邻域内的每个像素点的加权梯度幅值叠加到该像素点的加权梯度幅角对应的柱上得到梯度直方图;确定所述梯度直方图中峰值柱对应的角度为特征点b的主方向;
(8e)遍历所述待处理图像每组高斯差分金字塔的特征点集合中所有特征点,得到所述待处理图像每组高斯差分金字塔的特征点集合中每个特征点的主方向;
计算每个特征点的特征描述向量,具体包括:
(8f)对所述特征点b,确定以特征点b为中心的第三邻域;所述第三邻域是边长的正方形区域,其中,σb为特征点b所在高斯差分图像对应的尺度因子,m为确定第三邻域大小的第一参数,d为确定第三邻域大小的第二参数;
(8g)将所述第三邻域旋转到与所述特征点b的主方向相同的方向,得到旋转后的第三邻域,对应的旋转矩阵T为:
其中,θ表示特征点b的主方向;
(8h)在所述旋转后的第三邻域内选取第四邻域,所述第四邻域是边长为mσbd的正方形区域,再将所述第四邻域等间隔划分为d×d个子区域,每个子区域包含mσb×mσb个像素,确定每个子区域对应的梯度直方图,所述每个子区域对应的梯度直方图包含8个柱,每个柱代表的角度范围为45°,8个柱依次表示0°~360°的角度范围;
(8i)对于任意一个子区域,将该子区域中每个像素点的加权梯度幅值叠加到该像素点的加权梯度幅角对应的柱上得到该子区域对应的梯度直方图;从而得到d×d个子区域分别对应的梯度直方图;
(8j)根据d×d个子区域分别对应的梯度直方图得到所述特征点b对应的d×d×8维的特征描述向量;
步骤9,当所述待处理图像为相干斑噪声抑制后的实时SAR图像时,经过步骤2至步骤8后,得到待处理图像每组高斯差分金字塔的特征点集合中每个特征点的特征描述向量,记为实时SAR图像的全部特征点及其对应的特征描述向量;
当所述待处理图像为相干斑噪声抑制后的基准SAR图像时,经过步骤2至步骤8后,得到待处理图像每组高斯差分金字塔的特征点集合中每个特征点的特征描述向量,记为基准SAR图像的全部特征点及其对应的特征描述向量;
步骤10,根据所述实时SAR图像的全部特征点及其对应的特征描述向量,以及所述基准SAR图像的全部特征点及其对应的特征描述向量,得到实时SAR图像和基准SAR图像的匹配结果;具体包括:
第一次匹配:
(10a)选取所述实时SAR图像的一个特征点,计算所述基准SAR图像的全部特征点分别与所述实时SAR图像的该特征点的欧式距离,所述欧式距离采用特征向量计算,选取所述基准SAR图像中最近欧式距离和次近欧式距离分别对应的基准SAR图像中的两个特征点;
(10b)计算所述最近欧式距离与所述次近欧式距离 的比值,若所述比值小于给定阈值,则保留基准SAR图像中最近欧式距离与所述次近欧式距离 分别对应的两个特征点,作为所述实时SAR图像的该特征点的两个匹配点;
(10c)遍历所述实时SAR图像的所有特征点,得到实时SAR图像的所有特征点分别对应的两个匹配点;
第二次匹配:
(10d)选取所述基准SAR图像的一个特征点,计算所述实时SAR图像的全部特征点分别与所述基准SAR图像的该特征点的欧式距离,所述欧式距离采用特征向量计算,选取所述实时SAR图像中最近欧式距离和次近欧式距离分别对应的实时SAR图像中的两个特征点;
(10e)计算所述最近欧式距离与所述次近欧式距离 的比值,若所述比值小于给定阈值,则保留实时SAR图像中最近欧式距离与所述次近欧式距离 分别对应的两个特征点,作为所述基准SAR图像的该特征点的两个匹配点;
(10f)遍历所述基准SAR图像的所有特征点,得到基准SAR图像的所有特征点分别对应的两个匹配点;
(10g)若实时SAR图像中的任一特征点A和基准SAR图像中的任一特征点B在第一次匹配和第二次匹配的过程中,分别满足匹配条件,则确定所述特征点A和所述特征点B为最终的匹配特征点。
2.根据权利要求1所述的一种基于改进SIFT的SAR图像匹配方法,其特征在于,步骤7具体包括:
(7a)记待处理图像每组高斯差分金字塔对应的第一极值点集合中的任意一个极值点a,该极值点a对应的Hessian矩阵H表示为:
其中,Dx1x1、Dx1y1、Dy1x1、Dy1y1分别表示极值点a的DOG响应关于该极值点a的坐标(x1,y1)的二阶偏导数;
(7c)设所述极值点a对应的Hessian矩阵的特征值为λ1、λ2,则:
Trace(H)=Dxx+Dyy=λ1+λ2
Det(H)=DxxDyy-Dxy 2=λ1×λ2
(7d)给定边缘主曲率阈值thresh_P,若所述极值点a对应的边缘主曲率PC<thresh_P,则将所述极值点a保留在所述待处理图像第二极值点集合中;否则,剔除所述极值点a。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810144442.1A CN108304883B (zh) | 2018-02-12 | 2018-02-12 | 基于改进sift的sar图像匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810144442.1A CN108304883B (zh) | 2018-02-12 | 2018-02-12 | 基于改进sift的sar图像匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108304883A CN108304883A (zh) | 2018-07-20 |
CN108304883B true CN108304883B (zh) | 2022-09-16 |
Family
ID=62865266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810144442.1A Active CN108304883B (zh) | 2018-02-12 | 2018-02-12 | 基于改进sift的sar图像匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108304883B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410175B (zh) * | 2018-09-26 | 2020-07-14 | 北京航天自动控制研究所 | 基于多子区图像匹配的sar雷达成像质量快速自动评价方法 |
CN109615584B (zh) * | 2018-12-17 | 2022-12-06 | 辽宁工程技术大学 | 一种基于单应性约束的sar图像序列map超分辨率重建方法 |
CN110097585B (zh) * | 2019-04-29 | 2021-01-26 | 中国水利水电科学研究院 | 一种基于sift算法的sar影像匹配方法及系统 |
CN112348032B (zh) * | 2019-08-09 | 2022-10-14 | 珠海一微半导体股份有限公司 | 一种基于硬件电路的sift算法关键点检测方法 |
CN110929598B (zh) * | 2019-11-07 | 2023-04-18 | 西安电子科技大学 | 基于轮廓特征的无人机载sar图像匹配方法 |
CN112102381A (zh) * | 2020-09-11 | 2020-12-18 | 西安电子科技大学 | 一种基于r-sift的硬件木马图像配准方法、存储介质及设备 |
CN112017223B (zh) * | 2020-09-11 | 2024-01-30 | 西安电子科技大学 | 基于改进SIFT-Delaunay的异源图像配准方法 |
CN112288009A (zh) * | 2020-10-29 | 2021-01-29 | 西安电子科技大学 | 一种基于模板匹配的r-sift芯片硬件木马图像配准方法 |
CN112488958A (zh) * | 2020-12-15 | 2021-03-12 | 西安交通大学 | 一种基于尺度空间的图像对比度增强方法 |
CN112508947A (zh) * | 2020-12-29 | 2021-03-16 | 苏州光格科技股份有限公司 | 一种电缆隧道异常检测方法 |
CN112784761A (zh) * | 2021-01-26 | 2021-05-11 | 哈尔滨理工大学 | 一种特殊纹理背景遥感图像匹配方法 |
CN113421249B (zh) * | 2021-06-30 | 2024-02-06 | 上海申瑞继保电气有限公司 | 变电站设备可变尺度图像数值处理方法 |
CN113781411B (zh) * | 2021-08-25 | 2022-12-09 | 西安交通大学 | 一种图像特征匹配的转子叶片动频测量方法 |
CN115205558B (zh) * | 2022-08-16 | 2023-03-24 | 中国测绘科学研究院 | 一种具有旋转和尺度不变性的多模态影像匹配方法及装置 |
CN115393406B (zh) * | 2022-08-17 | 2024-05-10 | 中船智控科技(武汉)有限公司 | 一种基于孪生卷积网络的图像配准方法 |
CN117761695B (zh) * | 2024-02-22 | 2024-04-30 | 中国科学院空天信息创新研究院 | 基于自适应分区sift的多角度sar三维成像方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102646267A (zh) * | 2011-12-12 | 2012-08-22 | 中国科学院深圳先进技术研究院 | 退化图像复原方法及系统 |
CN102903109A (zh) * | 2012-09-27 | 2013-01-30 | 武汉大学 | 一种光学影像和sar影像一体化分割配准方法 |
CN103049905A (zh) * | 2012-12-07 | 2013-04-17 | 中国人民解放军海军航空工程学院 | 利用单演信号三分量的合成孔径雷达图像配准方法 |
CN103077512A (zh) * | 2012-10-18 | 2013-05-01 | 北京工业大学 | 基于主成分析的数字图像的特征提取与匹配方法及装置 |
CN103345757A (zh) * | 2013-07-19 | 2013-10-09 | 武汉大学 | 多层次多特征约束下的光学和sar影像自动配准方法 |
CN103489176A (zh) * | 2012-06-13 | 2014-01-01 | 中国科学院电子学研究所 | 一种对于严重几何畸变的sar图像进行同名点提取的方法 |
CN103646389A (zh) * | 2013-03-26 | 2014-03-19 | 中国科学院电子学研究所 | 一种基于几何模型的sar斜距图像同名点自动提取方法 |
CN103729654A (zh) * | 2014-01-22 | 2014-04-16 | 青岛新比特电子科技有限公司 | 基于改进sift算法的图像匹配检索系统 |
KR101742115B1 (ko) * | 2016-08-30 | 2017-05-31 | 광운대학교 산학협력단 | 건물 인식을 위한 멀티뷰 영상에서의 인라이어 선택 및 잉여 제거 방법 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8441489B2 (en) * | 2008-12-31 | 2013-05-14 | Intel Corporation | System and method for SIFT implementation and optimization |
US20120182442A1 (en) * | 2011-01-14 | 2012-07-19 | Graham Kirsch | Hardware generation of image descriptors |
US9141871B2 (en) * | 2011-10-05 | 2015-09-22 | Carnegie Mellon University | Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space |
CN103065135A (zh) * | 2013-01-25 | 2013-04-24 | 上海理工大学 | 基于数字图像处理的车牌号码匹配算法 |
CN103593832A (zh) * | 2013-09-25 | 2014-02-19 | 重庆邮电大学 | 一种基于高斯二阶差分特征检测算子的图像拼接方法 |
CN103839265B (zh) * | 2014-02-26 | 2017-05-24 | 西安电子科技大学 | 基于sift和归一化互信息的sar图像配准方法 |
CN103914847B (zh) * | 2014-04-10 | 2017-03-29 | 西安电子科技大学 | 基于相位一致性和sift的sar图像配准方法 |
CN104036494B (zh) * | 2014-05-21 | 2016-10-12 | 浙江大学 | 一种用于水果图像的快速匹配计算方法 |
WO2016172656A1 (en) * | 2015-04-24 | 2016-10-27 | Canfield Scientific, Incorporated | Dermatological feature tracking over multiple images |
US20170243084A1 (en) * | 2015-11-06 | 2017-08-24 | The Regents Of The University Of California | Dsp-sift: domain-size pooling for image descriptors for image matching and other applications |
CN106373147A (zh) * | 2016-08-22 | 2017-02-01 | 西安电子科技大学 | 基于改进拉普拉斯多极值抑制的sar图像配准方法 |
GB2556908B (en) * | 2016-11-24 | 2021-10-13 | Emdalo Tech Limited Ie | System and method for determining the presence of objects in an image |
-
2018
- 2018-02-12 CN CN201810144442.1A patent/CN108304883B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102646267A (zh) * | 2011-12-12 | 2012-08-22 | 中国科学院深圳先进技术研究院 | 退化图像复原方法及系统 |
CN103489176A (zh) * | 2012-06-13 | 2014-01-01 | 中国科学院电子学研究所 | 一种对于严重几何畸变的sar图像进行同名点提取的方法 |
CN102903109A (zh) * | 2012-09-27 | 2013-01-30 | 武汉大学 | 一种光学影像和sar影像一体化分割配准方法 |
CN103077512A (zh) * | 2012-10-18 | 2013-05-01 | 北京工业大学 | 基于主成分析的数字图像的特征提取与匹配方法及装置 |
CN103049905A (zh) * | 2012-12-07 | 2013-04-17 | 中国人民解放军海军航空工程学院 | 利用单演信号三分量的合成孔径雷达图像配准方法 |
CN103646389A (zh) * | 2013-03-26 | 2014-03-19 | 中国科学院电子学研究所 | 一种基于几何模型的sar斜距图像同名点自动提取方法 |
CN103345757A (zh) * | 2013-07-19 | 2013-10-09 | 武汉大学 | 多层次多特征约束下的光学和sar影像自动配准方法 |
CN103729654A (zh) * | 2014-01-22 | 2014-04-16 | 青岛新比特电子科技有限公司 | 基于改进sift算法的图像匹配检索系统 |
KR101742115B1 (ko) * | 2016-08-30 | 2017-05-31 | 광운대학교 산학협력단 | 건물 인식을 위한 멀티뷰 영상에서의 인라이어 선택 및 잉여 제거 방법 |
Non-Patent Citations (3)
Title |
---|
"基于改进SIFT-Like算法的SAR图像特征匹配;刘瑞红;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170315(第3期);第23-39、60-63页 * |
SAR图像结构特征匹配方法研究;陈天泽;《中国博士学位论文全文数据库 信息科技辑》;20170215(第2期);第I136-295页 * |
Yu, Q等.High-performance SAR image registration algorithm using guided filter & ROEWA-based SIFT framework.《2017 International Symposium on Intelligent Signal Processing and Communication Systems (ISPACS) IEEE》.2018,第376-379页. * |
Also Published As
Publication number | Publication date |
---|---|
CN108304883A (zh) | 2018-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108304883B (zh) | 基于改进sift的sar图像匹配方法 | |
CN108765458B (zh) | 基于相关滤波的高海况无人艇海面目标尺度自适应跟踪方法 | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
CN110335285B (zh) | 基于稀疏表示的sar图像目标标记方法、系统、装置 | |
Wang et al. | Gaussian focal loss: Learning distribution polarized angle prediction for rotated object detection in aerial images | |
CN104809731B (zh) | 一种基于梯度二值化的旋转尺度不变场景匹配方法 | |
Chen et al. | A degraded reconstruction enhancement-based method for tiny ship detection in remote sensing images with a new large-scale dataset | |
CN107067415A (zh) | 一种基于图像匹配的目标快速精确定位方法 | |
CN111476159A (zh) | 一种基于双角回归的检测模型训练、检测方法及装置 | |
CN108346162A (zh) | 基于结构信息和空间约束的遥感图像配准方法 | |
CN110349188B (zh) | 基于tsk模糊模型的多目标跟踪方法、装置及存储介质 | |
CN114359591B (zh) | 一种融合边缘特征的自适应图像匹配算法 | |
CN115601574A (zh) | 一种改进akaze特征的无人机影像匹配方法 | |
CN116310837B (zh) | 一种sar舰船目标旋转检测方法及系统 | |
Zhang et al. | Saliency-driven oil tank detection based on multidimensional feature vector clustering for SAR images | |
CN112308873A (zh) | 多尺度Gabor小波PCA融合图像边缘检测方法 | |
CN110390338A (zh) | 一种基于非线性引导滤波与比率梯度的sar高精度匹配方法 | |
CN110580705A (zh) | 一种基于双域图信号滤波检测建筑物边缘点的方法 | |
CN112102381A (zh) | 一种基于r-sift的硬件木马图像配准方法、存储介质及设备 | |
CN109241981B (zh) | 一种基于稀疏编码的特征检测方法 | |
CN117196954A (zh) | 一种面向飞机蒙皮的弱纹理曲面图像拼接方法和装置 | |
CN112906564A (zh) | 用于无人机载sar图像自动目标识别的智能决策支持系统设计及实现方法 | |
CN104700359A (zh) | 像平面不同极轴方向图像序列进行超分辨率重建的方法 | |
CN112435211A (zh) | 一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法 | |
CN110458878A (zh) | 一种基于特征匹配跟踪算法的降水云团跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |