CN108446627A - 一种基于局部深度哈希的航拍图像匹配方法 - Google Patents
一种基于局部深度哈希的航拍图像匹配方法 Download PDFInfo
- Publication number
- CN108446627A CN108446627A CN201810223444.XA CN201810223444A CN108446627A CN 108446627 A CN108446627 A CN 108446627A CN 201810223444 A CN201810223444 A CN 201810223444A CN 108446627 A CN108446627 A CN 108446627A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- hash
- local
- aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000008569 process Effects 0.000 title claims abstract description 8
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 15
- 238000013139 quantization Methods 0.000 claims abstract description 10
- 238000005457 optimization Methods 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 238000009795 derivation Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000010845 search algorithm Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 abstract description 3
- 229910002056 binary alloy Inorganic materials 0.000 abstract 1
- 230000006870 function Effects 0.000 description 23
- 238000012549 training Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 description 1
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于局部深度哈希的航拍图像匹配方法,包括如下步骤:1、根据航拍图像重叠率计算待匹配图像的间隔数N,并根据重叠率要求,估计局部匹配区域;2、利用归一化互相关算法对局部区域进行寻优;3、基于VGG‑F网络构建Triplet网络结构作为本发明的特征提取网络,使用哈希层替换输出层构建哈希网络;4、基于传统Triplet loss进行改进,增加绝对距离约束和量化误差损失,作为损失函数优化网络;5、根据DoG算法检测特征点并构建特征点邻域,作为网络的输入,通过训练好的网络得到每个图像块的二进制哈希码,并利用近似最近邻搜索在汉明空间完成匹配。本发明提供的基于局部深度哈希的航拍图像匹配方法,在满足实时性的条件下具备较高的准确率。
Description
技术领域
本发明涉及一种航拍图像匹配方法,特别涉及一种基于局部深度哈希的航拍图像匹配方法。
背景技术
近年来,随着航拍技术的不断发展,高分辨率航拍遥感相机相继研制成功,航拍图像在应急救灾、数字城市建设、工程设计等重大需求领域得到广泛的应用;同时,随着大数据技术的兴起为航拍图像处理提供了新的思路。航拍图像处理的一个重要前提就是获取图像的物理和几何信息,即对应的图像特征。航拍图像的特征点提取与匹配是影像分析、图像融合、变化检测和立体匹配的基础,在航拍领域有着重要作用。
航拍图像具有大范围、宽视角、高分辨率、数据量巨大的特点,这给航拍匹配带来巨大的问题与挑战。航拍图像序列中不同帧图像存在大量重叠区域,若直接对整幅航拍图像进行特征提取和匹配,存在大量冗余计算,从而降低航拍图像的匹配效率;同时,且由于航拍镜头的变化以及航拍环境的多变使得通常的单一特征提取和特征描述算法难以适用于航拍图像的匹配任务。目前的研究主要是通过结合低层特征实现对航拍图像特征提取和在欧式空间通过浮点型描述子完成匹配,没有充分考虑到图像的高层特征和汉明空间匹配效率高的优点。
发明内容
目的:为了克服现有技术中存在的不足,本发明提供一种基于局部深度哈希的航拍图像匹配方法。
技术方案:为解决上述技术问题,本发明采用的技术方案为:
一种基于局部深度哈希的航拍图像匹配方法,包括如下步骤,
(1)根据航拍图像重叠率计算待匹配图像的间隔数N,并根据重叠率要求,估计局部匹配区域;
(2)将初步提取到的航拍图像局部匹配区域,在横向和纵向分别进行一定步长的移位,利用归一化互相关算法对局部区域进行寻优;
(3)基于VGG-F网络构建Triplet网络结构作为特征提取网络,使用哈希层替换输出层,构建具有独立性的哈希网络;
(4)基于传统Triplet loss进行改进,增加绝对距离约束和量化误差损失,作为损失函数优化网络;
(5)根据DoG算法检测特征点并构建特征点邻域,作为网络的输入,通过训练好的网络得到每个图像块的二进制哈希码,并利用近似最近邻搜索在汉明空间完成匹配。
进一步地,步骤(1)中所述的N的取值为
式一中,α0表示航拍图像的航向重叠率,αbest表示实际应用中航拍图像的最佳重叠率,表示向下取整。
进一步地,步骤(2)中所述的对局部区域进行寻优的具体方法如下,
将图像子集中需要匹配的第i帧和第N+i帧图像分别记为I1和I2,重叠区域分别为A和B,其中I2为具有理想重叠率的图像,而实际获得图像为I2′和I2″;根据式二计算两幅图像中的重叠区域的相关度:
其中,分别表示局部区域A、B的均值,m、n分别为局部区域的横向和纵向坐标变量,a、b分别为该区域横向和纵向的移动步长,A(m+a,n+b)和B(m+a,n+b)分别为该局部区域在横向和纵向进行移动后的区域所对应的像素灰度值。
进一步地,步骤(3)中所述的哈希层包括分片层、激活层、阈值化层和全连接层。
进一步地,步骤(4)中损失函数优化网络的完成具体包括如下过程:基于特征提取网络和哈希函数构建目标函数,包括分类损失和量化损失两个部分,采用随机梯度下降法对目标函数求导数,即完成网络优化。
进一步地,步骤(5)具体操作流程如下,
S5.1将匹配和待匹配航拍图像进行预处理,并根据航向重叠率计算局部匹配区域并进行寻优;
S5.2利用DoG算法在局部匹配区域进行特征点检测,并在其领域构建特征点局部图像块,大小为64*64;
S5.3根据训练好的网络,每个特征点图像块作为输入,获得二进制哈希编码表示;
S5.4对于任一匹配图像上的特征点,通过近似最近邻搜索算法,在待匹配图像上根据汉明距离寻找对应匹配点,实现两幅图像快速匹配。
有益效果:本发明提供的基于局部深度哈希的航拍图像匹配方法,克服了现有技术中对整幅航拍图像提取特征点冗余计算量大,提取效率低的问题;从航拍图像的航向重叠率和归一化互相关出发,结合深度卷积网络和哈希函数提取更具有表征力的图像二进制哈希特征,不仅解决了传统手工特征构建的特征描述子表征能力不足的缺陷,同时也突破了当Triplet loss中正负样本对差值大于间隔参数时不能对网络优化的局限性,且网络输出的特征具有更好的表征力和判别力。本发明基于深度哈希的航拍图像匹配,在满足实时性的条件下能够取得较高的准确率。
附图说明
图1为本发明的总体框架示意图;
图2为本发明重叠区域示意图;
图3为本发明局部区域寻优示意图;
图4为本发明深度卷积神经网络哈希码学习框架图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
如图1所示,一种基于局部深度哈希的航拍图像匹配方法,包括如下步骤:
步骤(1),根据航拍图像重叠率计算待匹配图像的间隔数N,并根据重叠率要求,估计局部匹配区域;
步骤(2),将初步提取到的航拍图像局部匹配区域,在横向和纵向分别进行一定步长的移位,利用归一化互相关算法对局部区域进行寻优;
步骤(3),基于VGG-F网络构建Triplet网络结构作为本发明的特征提取网络,使用哈希层替换输出层作为本发明的哈希网络;
步骤(4),基于传统Triplet loss进行改进,增加绝对距离约束和量化误差损失,作为本发明的损失函数优化网络;
步骤(5),根据DoG算法检测特征点并构建特征点邻域,作为网络的输入,通过训练好的网络得到每个图像块的二进制哈希码,并利用近似最近邻搜索在汉明空间完成匹配。
通过以下具体实施例对本发明的方法进行进一步阐述。
(1)根据航拍图像重叠率计算待匹配图像的间隔数N,并根据重叠率要求,估计局部匹配区域,具体如下:
N的取值为:
式一中,α0表示航拍图像的航向重叠率,αbest表示实际应用中航拍图像的最佳重叠率,表示向下取整。根据上式,每隔N幅图像进行选取,则图像子集中相邻图像的重叠率为:1-N(1-α0),根据新的重叠率构造矩形匹配区域,如图2所示。
(2)将初步提取到的航拍图像局部匹配区域,在横向和纵向分别进行一定步长的移位,利用归一化互相关算法对局部区域进行寻优,具体如下:
将图像子集中需要匹配的第i帧和第N+i帧图像分别记为I1和I2,重叠区域分别为A和B,其中I2为具有理想重叠率的图像,而实际获得图像往往如图3中I2′和I2″所示。假设实际获得图像I2′与I2的横向和纵向差异为a和b,根据式(2)计算两幅图像中的重叠区域的相关度:
其中,分别表示局部区域A、B的均值,m、n分别为局部区域的横向和纵向坐标变量,a、b分别为该区域横向和纵向的移动步长,A(m+a,n+b)和B(m+a,n+b)分别为该局部区域在横向和纵向进行移动后的区域所对应的像素灰度值。通过对理想重叠区域进行横向和纵向变换,计算每次移动后A、B的相关度,当其最大时,即为这两幅航拍图像收到外界影响后的实际重叠区域。
(3)基于VGG-F网络构建Triplet网络结构作为本发明的特征提取网络,使用哈希层替换输出层作为本发明的哈希网络,其中,哈希层包括:分片层、激活层、阈值化层和全连接层。
学习哈希函数首先需要包含大量具有标签信息的三元组训练样本作为离线训练数据T={(a1,p1,n1),(a2,p2,n2),…(aM,pM,nM)},再将训练数据输入到网络中同时进行图像块特征学习和二进制哈希码表示,其中,三元组标签am∈{1,2,…N}为基准图像块,与正样本图像块pm∈{1,2,…N}更相似,而与负样本图像块nm∈{1,2,…N}不相似,即am和pm表示同一个特征点,而nm是与am和pm表示不同的特征点,具体如下,参阅图4:
Step 3.1提出基于VGG-F的Triplet特征提取网络:
使用多个较小卷积核的卷积层代替一个卷积核较大的卷积层,不仅可以减少参数,还可以进行更多的非线性映射,增加网络的表达能力,而基于Triplet网络结构通过三个相同的的特征子网络VGG-F共享参数,减少了参数的数量,加快了网络的训练过程。设网络输入图像块x∈Rn×n,f(x)∈RD为网络的输出,是一个D维的描述子,f(·)表示神经网络的非线性变换。目标就是要求得变换f(·),使得表示同一特征点的网络输出||f(xa)-f(xp)||2尽可能小,而不同特征点的网络输出||f(xa)-f(xn)||2尽可能大。
Step 3.2构建具有独立性的哈希网络:
首先将VGG-F的输出层替换为哈希层以进行哈希函数的学习,然后将Fc15层的D维特征表示平均分为q个独立的子特征{f1(x),f2(x)…fq(x)},通过激活函数将Fc7层的每一个子特征表示fi(x)(i=1,2,…q)映射为范围在[0,1]之间的输出值:
其中,fi(x)表示特征提取网络的输出,Wh和vh为哈希层参数,分别表示权重和偏置,β为超参数,控制激活函数的平滑程度。由于激活函数获得的哈希编码hi(x)为0到1之间的连续实值,因此构建阈值函数获得二进制哈希码,i=1,…,q,其中,sgn(·)为符号函数,括号内若大于0则为1,小于0则为-1。经过全连接层,得到q维的哈希码{0,1}q。
(4)基于传统Triplet loss进行改进,增加绝对距离约束和量化误差损失,作为本发明的损失函数优化网络。具体为:
基于特征提取网络和哈希函数构建目标函数,包括分类损失和量化损失两个部分,采用随机梯度下降法对目标函数求导数,完成网络优化。整体目标函数表达式如下:
其中,h(·)∈[0,1]q为激活层输出,是0~1之间的连续实值,b(·)∈{0,1}q为阈值化层输出,为0或者1,||·||2表示欧式距离,α为参数,表示间隔,λ、γ为权重因子,控制各部分所占重要性比例。loss*为分类损失,其中为hinge loss函数,其目的在于正样本对h(a)和h(p)的欧式距离竟可能小,而负样本对h(a)和h(n)尽可能大;为增加的正样本对绝对距离约束,其目的在于克服当负样本对与正样本对的差值||b(a)-b(n)||H-||b(a)-b(p)||H大于间隔α时,不能对网络进行优化的缺陷。loss(q)表示量化误差,其主要是为了减少损失函数进行优化过程中,将阈值化层输出替换为激活层输出带来的信息损失。
根据式四,采用反向传播算法对目标函数进行优化,使得损失函数达到最小值,获得特征提取网络的各参数以及哈希层的权值Wh和偏置vh。
(5)根据DoG算法检测特征点并构建特征点邻域,作为网络的输入,通过训练好的网络得到每个图像块的二进制哈希码,并利用近似最近邻搜索在汉明空间完成匹配。
当通过反向传播学习的到整个特征网络后,每个输入的图像都可以以二进制编码的形式表示,并在汉明空间通过汉明距离比较实现图像匹配,步骤如下:
S5.1将匹配和待匹配航拍图像进行预处理,并根据航向重叠率计算局部匹配区域并进行寻优;
S5.2利用DoG算法在局部匹配区域进行特征点检测,并在其邻域构建特征点局部图像块,大小为64*64;
S5.3根据训练好的网络,每个特征点图像块作为输入,经过训练好的神经网络,在网络输出层直接获得图像块的二进制哈希编码表示;
S5.4对于任一匹配图像上的特征点,通过近似最近邻搜索算法,在待匹配图像上根据汉明距离寻找对应匹配点,实现两幅图像快速匹配。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (6)
1.一种基于局部深度哈希的航拍图像匹配方法,其特征在于:包括如下步骤,
(1)根据航拍图像重叠率计算待匹配图像的间隔数N,并根据重叠率要求,估计局部匹配区域;
(2)将初步提取到的航拍图像局部匹配区域,在横向和纵向分别进行一定步长的移位,利用归一化互相关算法对局部区域进行寻优;
(3)基于VGG-F网络构建Triplet网络结构作为特征提取网络,使用哈希层替换输出层,构建具有独立性的哈希网络;
(4)基于传统Triplet loss进行改进,增加绝对距离约束和量化误差损失,作为损失函数优化网络;
(5)根据DoG算法检测特征点并构建特征点邻域,作为网络的输入,通过训练好的网络得到每个图像块的二进制哈希码,并利用近似最近邻搜索在汉明空间完成匹配。
2.根据权利要求1所述的基于局部深度哈希的航拍图像匹配方法,其特征在于:步骤(1)中所述的N的取值为
式一中,α0表示航拍图像的航向重叠率,αbest表示实际应用中航拍图像的最佳重叠率,表示向下取整。
3.根据权利要求1所述的基于局部深度哈希的航拍图像匹配方法,其特征在于:步骤(2)中所述的对局部区域进行寻优的具体方法如下,
将图像子集中需要匹配的第i帧和第N+i帧图像分别记为I1和I2,重叠区域分别为A和B,其中I2为具有理想重叠率的图像,而实际获得图像为I2′和I2″;根据式二计算两幅图像中的重叠区域的相关度:
其中,分别表示局部区域A、B的均值,m、n分别为局部区域的横向和纵向坐标变量,a、b分别为该区域横向和纵向的移动步长,A(m+a,n+b)和B(m+a,n+b)分别为该局部区域在横向和纵向进行移动后的区域所对应的像素灰度值。
4.根据权利要求1所述的基于局部深度哈希的航拍图像匹配方法,其特征在于:步骤(3)中所述的哈希层包括分片层、激活层、阈值化层和全连接层。
5.根据权利要求1所述的基于局部深度哈希的航拍图像匹配方法,其特征在于:步骤(4)中损失函数优化网络的完成具体包括如下过程:基于特征提取网络和哈希函数构建目标函数,包括分类损失和量化损失两个部分,采用随机梯度下降法对目标函数求导数,即完成网络优化。
6.根据权利要求1所述的基于局部深度哈希的航拍图像匹配方法,其特征在于:步骤(5)具体操作流程如下,
S5.1将匹配和待匹配航拍图像进行预处理,并根据航向重叠率计算局部匹配区域并进行寻优;
S5.2利用DoG算法在局部匹配区域进行特征点检测,并在其领域构建特征点局部图像块,大小为64*64;
S5.3根据训练好的网络,每个特征点图像块作为输入,获得二进制哈希编码表示;
S5.4对于任一匹配图像上的特征点,通过近似最近邻搜索算法,在待匹配图像上根据汉明距离寻找对应匹配点,实现两幅图像快速匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810223444.XA CN108446627A (zh) | 2018-03-19 | 2018-03-19 | 一种基于局部深度哈希的航拍图像匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810223444.XA CN108446627A (zh) | 2018-03-19 | 2018-03-19 | 一种基于局部深度哈希的航拍图像匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108446627A true CN108446627A (zh) | 2018-08-24 |
Family
ID=63195020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810223444.XA Pending CN108446627A (zh) | 2018-03-19 | 2018-03-19 | 一种基于局部深度哈希的航拍图像匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108446627A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109801317A (zh) * | 2018-12-29 | 2019-05-24 | 天津大学 | 基于卷积神经网络进行特征提取的图像匹配方法 |
CN110135474A (zh) * | 2019-04-26 | 2019-08-16 | 武汉市土地利用和城市空间规划研究中心 | 一种基于深度学习的倾斜航空影像匹配方法和系统 |
CN111340109A (zh) * | 2020-02-25 | 2020-06-26 | 深圳市景阳科技股份有限公司 | 图像匹配方法、装置、设备及存储介质 |
CN112446431A (zh) * | 2020-11-27 | 2021-03-05 | 鹏城实验室 | 特征点提取与匹配方法、网络、设备及计算机存储介质 |
CN113657124A (zh) * | 2021-07-14 | 2021-11-16 | 内蒙古工业大学 | 基于循环共同注意力Transformer的多模态蒙汉翻译方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203396A (zh) * | 2016-07-25 | 2016-12-07 | 南京信息工程大学 | 基于深度卷积和梯度旋转不变性的航拍图像目标检测方法 |
CN106886785A (zh) * | 2017-02-20 | 2017-06-23 | 南京信息工程大学 | 一种基于多特征哈希学习的航拍图像快速匹配算法 |
-
2018
- 2018-03-19 CN CN201810223444.XA patent/CN108446627A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203396A (zh) * | 2016-07-25 | 2016-12-07 | 南京信息工程大学 | 基于深度卷积和梯度旋转不变性的航拍图像目标检测方法 |
CN106886785A (zh) * | 2017-02-20 | 2017-06-23 | 南京信息工程大学 | 一种基于多特征哈希学习的航拍图像快速匹配算法 |
Non-Patent Citations (1)
Title |
---|
SUTING CHEN,ETC: "Local Deep Hashing Matching of Aerial Images Based on Relative Distance and Absolute Distance Constraints", 《REMOTING SENSING》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109801317A (zh) * | 2018-12-29 | 2019-05-24 | 天津大学 | 基于卷积神经网络进行特征提取的图像匹配方法 |
CN110135474A (zh) * | 2019-04-26 | 2019-08-16 | 武汉市土地利用和城市空间规划研究中心 | 一种基于深度学习的倾斜航空影像匹配方法和系统 |
CN111340109A (zh) * | 2020-02-25 | 2020-06-26 | 深圳市景阳科技股份有限公司 | 图像匹配方法、装置、设备及存储介质 |
CN111340109B (zh) * | 2020-02-25 | 2024-01-26 | 深圳市景阳科技股份有限公司 | 图像匹配方法、装置、设备及存储介质 |
CN112446431A (zh) * | 2020-11-27 | 2021-03-05 | 鹏城实验室 | 特征点提取与匹配方法、网络、设备及计算机存储介质 |
CN113657124A (zh) * | 2021-07-14 | 2021-11-16 | 内蒙古工业大学 | 基于循环共同注意力Transformer的多模态蒙汉翻译方法 |
CN113657124B (zh) * | 2021-07-14 | 2023-06-30 | 内蒙古工业大学 | 基于循环共同注意力Transformer的多模态蒙汉翻译方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN108446627A (zh) | 一种基于局部深度哈希的航拍图像匹配方法 | |
CN109800692B (zh) | 一种基于预训练卷积神经网络的视觉slam回环检测方法 | |
CN109493346B (zh) | 一种基于多损失的胃癌病理切片图像分割方法和装置 | |
CN109840556B (zh) | 一种基于孪生网络的图像分类识别方法 | |
CN111259786B (zh) | 一种基于视频的外观和运动信息同步增强的行人重识别方法 | |
CN108921051B (zh) | 基于循环神经网络注意力模型的行人属性识别网络及技术 | |
CN110287826B (zh) | 一种基于注意力机制的视频目标检测方法 | |
CN110120064B (zh) | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 | |
Liu et al. | A night pavement crack detection method based on image‐to‐image translation | |
CN111753682B (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN111738206B (zh) | 基于CenterNet的用于无人机巡检的挖掘机检测方法 | |
CN112395957A (zh) | 一种针对视频目标检测的在线学习方法 | |
CN111723693A (zh) | 一种基于小样本学习的人群计数方法 | |
CN111832484A (zh) | 一种基于卷积感知哈希算法的回环检测方法 | |
CN116485717B (zh) | 一种基于像素级深度学习的混凝土坝表面裂缝检测方法 | |
CN112560865B (zh) | 一种室外大场景下点云的语义分割方法 | |
CN115147418B (zh) | 缺陷检测模型的压缩训练方法和装置 | |
CN112883850A (zh) | 一种基于卷积神经网络的多视角空天遥感图像匹配方法 | |
CN115171047A (zh) | 基于轻量级长短距离注意力transformer网络的火灾图像检测方法 | |
CN115375672A (zh) | 一种基于改进型YOLOv4算法的煤矸检测方法 | |
CN117274627A (zh) | 一种基于图像转换的多时相积雪遥感图像匹配方法及系统 | |
CN115953736A (zh) | 一种基于视频监控与深度神经网络的人群密度估计方法 | |
CN111784679A (zh) | 一种基于cnn和svm的挡土墙裂缝识别方法 | |
Li et al. | Real-time tracking algorithm for aerial vehicles using improved convolutional neural network and transfer learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180824 |