CN109711454B - 一种基于卷积神经网络的特征匹配方法 - Google Patents

一种基于卷积神经网络的特征匹配方法 Download PDF

Info

Publication number
CN109711454B
CN109711454B CN201811571581.9A CN201811571581A CN109711454B CN 109711454 B CN109711454 B CN 109711454B CN 201811571581 A CN201811571581 A CN 201811571581A CN 109711454 B CN109711454 B CN 109711454B
Authority
CN
China
Prior art keywords
feature
matching
points
point
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811571581.9A
Other languages
English (en)
Other versions
CN109711454A (zh
Inventor
杨波
向龙海
闫新童
刘珊
曾庆川
刘婷婷
郑文锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201811571581.9A priority Critical patent/CN109711454B/zh
Publication of CN109711454A publication Critical patent/CN109711454A/zh
Application granted granted Critical
Publication of CN109711454B publication Critical patent/CN109711454B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的特征匹配方法,利用内窥镜初始视频序列获得训练数据,再利用训练数据构造用于后续帧特征点分类的卷积神经网络模型,并利用训练数据训练卷积神经网络模型,最后,后续帧特征通过网络输出分类结果实现特征匹配,具有简单、适用性好等特点,符合当前临床医疗发展的需要。

Description

一种基于卷积神经网络的特征匹配方法
技术领域
本发明属于图像处理技术领域,更为具体地讲,涉及一种基于卷积神经网络的特征匹配方法。
背景技术
随着机器人辅助微创手术在手术领域的普遍使用,内窥镜数据相关的处理技术得到了飞速的发展。这类手术通过对内窥镜获得的实时影像进行处理,从而辅助医生完成复杂的心脏手术操作。
特征匹配是图像处理中的经典问题,其目的在于寻找不同帧中的匹配特征点对,特征匹配效果的精确度对后续流程如主动运动补偿、三维重建等起着至关重要的影响。由于内窥镜影像像中存在大量的组织表面非刚性变形、画面模糊、高光反射等问题,传统的基于描述符的特征匹配方法难以在内窥镜图像处理中取得较好的鲁棒性和精确度。卷积神经网络相关算法具有在没有过多人工干预的情况下自动查找图像之间的关系和特征的性质,并在图像分类领域得到了广泛应用。Ahmad等在文献《Endoscopic image classificationand retrieval using clustered convolutional features》利用医学图像中的视觉特征来训练卷积神经网络模型,从而实现了对医学图像的分类和检索,Zhang等在文献《SIFTmatching with CNN evidences for particular object retrieval》中将传统的SIFT算法和卷积神经网络算法相结合,实现了更高精度的特定目标检索。但这些改进大多用于医学图像的分类和检索管理,卷积神经网络在医学图像的特征匹配方面一直没有较为有效的应用。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于卷积神经网络的特征匹配方法,利用卷积神经网络训练特征点的分类模型,然后对后续图像帧中特征点进行分类,完成特征匹配。
为实现上述发明目的,本发明一种基于卷积神经网络的特征匹配方法,其特征在于,包括以下步骤:
(1)、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
(2)、利用特征点集合生成训练数据集
(2.1)、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
(2.2)、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
将L中特征点标签对应的特征点最少的类别记为Lmin,然后以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval
(3)、构建用于计算特征类别的卷积神经网络
构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
(4)、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
(5)、利用卷积神经网络对后续帧特征点进行分类
(5.1)、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq
(5.2)、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,D,…DtH],Dq=[Dq1,Dq2,…,D,…DqH],λ=1,2,…,H,H特征点总数,D表示It中第λ个特征点的特征表述,D表示Iq中第λ个特征点的特征表述;
(5.3)、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,O,…OtH],Oq=[Oq1,Oq2,…,O,…OqH],O表示It中第λ个特征点的分类结果,O表示Iq中第λ个特征点的分类结果,O和O的具体形式为:O=[C P]、O=[C P],C、C为第λ个特征点的分类类别,P、P为第λ个特征点的分类概率;
(6)、计算特征匹配结果
(6.1)、构建It、Iq两帧的匹配矩阵Tt、Tq,其中,
Figure BDA0001915669560000031
Figure BDA0001915669560000032
m'为特征类别,
Figure BDA0001915669560000033
表示第
Figure BDA0001915669560000034
个类别在It中特征点信息,
Figure BDA0001915669560000035
表示第
Figure BDA0001915669560000036
个类别在Iq中特征点信息,
Figure BDA0001915669560000037
Figure BDA0001915669560000038
的具体形式为:
Figure BDA0001915669560000039
Figure BDA00019156695600000310
表示第
Figure BDA00019156695600000311
个类别在It中特征点序列,
Figure BDA00019156695600000312
为其对应的分类概率,
Figure BDA00019156695600000313
表示第
Figure BDA00019156695600000317
个类别在Iq中特征点序列,
Figure BDA00019156695600000314
为其对应的分类概率,
Figure BDA00019156695600000315
的初值为-1,
Figure BDA00019156695600000316
的初值为0;
(6.2)、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别C、C满足:C、C∈1,2,…,m';
更新过程为:在It帧的分类结果Ot中,如果O中的P的值大于Tt中类别为C的概率值
Figure BDA0001915669560000041
则令
Figure BDA0001915669560000042
在Iq帧的分类结果Oq中,如果O中的P的值大于Tq中类别为C的概率值
Figure BDA0001915669560000043
则令
Figure BDA0001915669560000044
(6.3)、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M,…,M0X],τ=1,2,…,X,X为匹配对总数,M为第τ个匹配对,M的具体形式为:M=[M0τt M0τq]M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
在匹配矩阵Tt、Tq中,如果
Figure BDA0001915669560000045
中的
Figure BDA0001915669560000046
的初值不为-1,则将
Figure BDA0001915669560000047
所对应的两个特征点视为匹配,并将
Figure BDA0001915669560000048
存入至M0中的M;当匹配矩阵Tt、Tq中所有的
Figure BDA0001915669560000049
比对完成后,得到最终的特征匹配结果。
本发明的发明目的是这样实现的:
本发明一种基于卷积神经网络的特征匹配方法,利用内窥镜初始视频序列获得训练数据,再利用训练数据构造用于后续帧特征点分类的卷积神经网络模型,并利用训练数据训练卷积神经网络模型,最后,后续帧特征通过网络输出分类结果实现特征匹配,具有简单、适用性好等特点,符合当前临床医疗发展的需要。
同时,本发明一种基于卷积神经网络的特征匹配方法还具有以下有益效果:
(1)、匹配鲁棒性好:引入卷积神经网络相关算法,对一定长度帧序列中的特征点进行分类后训练,对软组织表面的非刚性形变具有跟好的识别能力,因此具有更高的鲁棒性。
(2)、匹配精度更高:利用卷积神经网络自动学习的能力,大大降低了传统方法在计算描述符时带来的误差,其匹配性能相较传统特征匹配方法更好。
附图说明
图1是本发明基于卷积神经网络的特征匹配方法流程图;
图2是卷积神经网络框架示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明基于卷积神经网络的特征匹配方法流程图。
在本实施例中,如图1所示,本发明一种基于卷积神经网络的特征匹配方法,包括以下步骤:
S1、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
S2、利用特征点集合生成训练数据集
S2.1、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
S2.2、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
其中,特征类别m'的确定方法为:
m'=m0×σ
其中,m0为第0帧中特征点的总数;σ为特征类别的选取阈值,σ的取值范围为:σ=10%~30%,本实施例中取20%;
将L中特征点标签对应的特征点最少的类别记为Lmin,为了保证训练数据集上各个类别标签的均衡性,以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval
S3、构建用于计算特征类别的卷积神经网络
如图2所示,构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
本实施例中两层卷积层的卷积核都为3像素×3像素大小,第一层拥有64个卷积核,第二层有128个卷积核,第一层全连接层有1024个神经元,第二层全连接层拥有26个神经元。
S4、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
S5、利用卷积神经网络对后续帧特征点进行分类
S5.1、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq
S5.2、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,D,…DtH],Dq=[Dq1,Dq2,…,D,…DqH],λ=1,2,…,H,H特征点总数,D表示It中第λ个特征点的特征表述,D表示Iq中第λ个特征点的特征表述;
S5.3、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,O,…OtH],Oq=[Oq1,Oq2,…,O,…OqH],O表示It中第λ个特征点的分类结果,O表示Iq中第λ个特征点的分类结果,O和O的具体形式为:O=[C P]、O=[C P],C、C为第λ个特征点的分类类别,P、P为第λ个特征点的分类概率;
S6、计算特征匹配结果
S6.1、构建It、Iq两帧的匹配矩阵Tt、Tq,其中,
Figure BDA0001915669560000071
Figure BDA0001915669560000072
m'为特征类别,
Figure BDA0001915669560000073
表示第
Figure BDA0001915669560000074
个类别在It中特征点信息,
Figure BDA0001915669560000075
表示第
Figure BDA0001915669560000076
个类别在Iq中特征点信息,
Figure BDA0001915669560000077
Figure BDA0001915669560000078
的具体形式为:
Figure BDA0001915669560000079
Figure BDA00019156695600000710
表示第
Figure BDA00019156695600000711
个类别在It中特征点序列,
Figure BDA00019156695600000712
为其对应的分类概率,
Figure BDA00019156695600000713
表示第
Figure BDA00019156695600000714
个类别在Iq中特征点序列,
Figure BDA00019156695600000715
为其对应的分类概率,
Figure BDA00019156695600000716
的初值为-1,
Figure BDA00019156695600000717
的初值为0;
S6.2、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别C、C满足:C、C∈1,2,…,m';
根据步骤S6.1,分别计算出分类类别C、C在匹配矩阵Tt、Tq中分类概率值
Figure BDA00019156695600000718
然后进行更新过程:在It帧的分类结果Ot中,如果O中的P的值大于Tt中类别为C的概率值
Figure BDA00019156695600000719
则令
Figure BDA00019156695600000720
在Iq帧的分类结果Oq中,如果O中的P的值大于Tq中类别为C的概率值
Figure BDA00019156695600000721
则令
Figure BDA00019156695600000722
S6.3、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M,…,M0X],τ=1,2,…,X,X为匹配对总数,M为第τ个匹配对,M的具体形式为:M=[M0τt M0τq]M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
在匹配矩阵Tt、Tq中,如果
Figure BDA0001915669560000081
中的
Figure BDA0001915669560000082
的初值不为-1,则将
Figure BDA0001915669560000083
所对应的两个特征点视为匹配,并将
Figure BDA0001915669560000084
存入至M0中的M;当匹配矩阵Tt、Tq中所有的
Figure BDA0001915669560000085
比对完成后,得到最终的特征匹配结果。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (2)

1.一种基于卷积神经网络的特征匹配方法,其特征在于,包括以下步骤:
(1)、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
(2)、利用特征点集合生成训练数据集
(2.1)、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
(2.2)、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
将L中特征点标签对应的特征点最少的类别记为Lmin,然后以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval
(3)、构建用于计算特征类别的卷积神经网络
构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
(4)、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
(5)、利用卷积神经网络对后续帧特征点进行分类
(5.1)、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq
(5.2)、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,D,…DtH],Dq=[Dq1,Dq2,…,D,…DqH],λ=1,2,…,H,H表示特征点总数,D表示It中第λ个特征点的特征表述,D表示Iq中第λ个特征点的特征表述;
(5.3)、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,O,…OtH],Oq=[Oq1,Oq2,…,O,…OqH],O表示It中第λ个特征点的分类结果,O表示Iq中第λ个特征点的分类结果,O和O的具体形式为:O=[C P]、O=[C P],C、C为第λ个特征点的分类类别,P、P为第λ个特征点的分类概率;
(6)、计算特征匹配结果
(6.1)、构建It、Iq两帧的匹配矩阵Tt、Tq,其中,
Figure FDA0002512982970000021
Figure FDA0002512982970000022
m'为特征类别,
Figure FDA0002512982970000023
表示第
Figure FDA0002512982970000024
个类别在It中特征点信息,
Figure FDA0002512982970000025
表示第
Figure FDA0002512982970000026
个类别在Iq中特征点信息,
Figure FDA0002512982970000027
Figure FDA0002512982970000028
的具体形式为:
Figure FDA0002512982970000029
Figure FDA00025129829700000210
表示第
Figure FDA00025129829700000211
个类别在It中特征点序列,
Figure FDA00025129829700000212
为其对应的分类概率,
Figure FDA0002512982970000031
表示第
Figure FDA0002512982970000032
个类别在Iq中特征点序列,
Figure FDA0002512982970000033
为其对应的分类概率,
Figure FDA0002512982970000034
的初值为-1,
Figure FDA0002512982970000035
的初值为0;
(6.2)、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别C、C满足:C、C∈1,2,…,m';
更新过程为:在It帧的分类结果Ot中,如果O中的P的值大于Tt中类别为C的概率值
Figure FDA0002512982970000036
则令
Figure FDA0002512982970000037
在Iq帧的分类结果Oq中,如果O中的P的值大于Tq中类别为C的概率值
Figure FDA0002512982970000038
则令
Figure FDA0002512982970000039
(6.3)、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M,…,M0X],τ=1,2,…,X,X为匹配对总数,M为第τ个匹配对,M的具体形式为:M=[M0τt M0τq],M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
在匹配矩阵Tt、Tq中,如果
Figure FDA00025129829700000310
中的
Figure FDA00025129829700000311
的初值不为-1,则将
Figure FDA00025129829700000312
所对应的两个特征点视为匹配,并将
Figure FDA00025129829700000313
存入至M0中的M;当匹配矩阵Tt、Tq中所有的
Figure FDA00025129829700000314
比对完成后,得到最终的特征匹配结果。
2.根据权利要求1所述的基于卷积神经网络的特征匹配方法,其特征在于,所述特征类别m'的确定方法为:
m'=m0×σ
其中,m0为第0帧中特征点的总数;σ为特征类别的选取阈值,σ的取值范围为:σ=10%~30%。
CN201811571581.9A 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法 Active CN109711454B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811571581.9A CN109711454B (zh) 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811571581.9A CN109711454B (zh) 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法

Publications (2)

Publication Number Publication Date
CN109711454A CN109711454A (zh) 2019-05-03
CN109711454B true CN109711454B (zh) 2020-07-31

Family

ID=66256102

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811571581.9A Active CN109711454B (zh) 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法

Country Status (1)

Country Link
CN (1) CN109711454B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080676B (zh) * 2019-12-20 2022-03-25 电子科技大学 一种通过在线分类跟踪内窥镜图像序列特征点的方法
CN111813996B (zh) * 2020-07-22 2022-03-01 四川长虹电器股份有限公司 基于单帧和连续多帧抽样并行的视频搜索方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408932A (zh) * 2008-04-11 2009-04-15 浙江师范大学 一种基于指纹结构特征与纹理分析的指纹图像匹配方法
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN105512640A (zh) * 2015-12-30 2016-04-20 重庆邮电大学 一种基于视频序列的人流量统计方法
CN107194559A (zh) * 2017-05-12 2017-09-22 杭州电子科技大学 一种基于三维卷积神经网络的工作流识别方法
CN108491858A (zh) * 2018-02-11 2018-09-04 南京邮电大学 基于卷积神经网络的疲劳驾驶检测方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552709B2 (en) * 2016-10-05 2020-02-04 Ecole Polytechnique Federale De Lausanne (Epfl) Method, system, and device for learned invariant feature transform for computer images
US11379688B2 (en) * 2017-03-16 2022-07-05 Packsize Llc Systems and methods for keypoint detection with convolutional neural networks

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408932A (zh) * 2008-04-11 2009-04-15 浙江师范大学 一种基于指纹结构特征与纹理分析的指纹图像匹配方法
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN105512640A (zh) * 2015-12-30 2016-04-20 重庆邮电大学 一种基于视频序列的人流量统计方法
CN107194559A (zh) * 2017-05-12 2017-09-22 杭州电子科技大学 一种基于三维卷积神经网络的工作流识别方法
CN108491858A (zh) * 2018-02-11 2018-09-04 南京邮电大学 基于卷积神经网络的疲劳驾驶检测方法及系统

Also Published As

Publication number Publication date
CN109711454A (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
CN108510485B (zh) 一种基于卷积神经网络的无参照图像质量评估方法
CN110969250B (zh) 一种神经网络训练方法及装置
WO2018108129A1 (zh) 用于识别物体类别的方法及装置、电子设备
CN113554665B (zh) 一种血管分割方法及装置
CN110309732A (zh) 基于骨架视频的行为识别方法
CN110378208B (zh) 一种基于深度残差网络的行为识别方法
CN112597883A (zh) 一种基于广义图卷积和强化学习的人体骨架动作识别方法
CN111178319A (zh) 基于压缩奖惩机制的视频行为识别方法
CN112036260B (zh) 一种自然环境下多尺度子块聚合的表情识别方法及系统
CN114842343B (zh) 一种基于ViT的航空图像识别方法
CN111027610B (zh) 图像特征融合方法、设备和介质
CN113673482B (zh) 基于动态标签分配的细胞抗核抗体荧光识别方法及系统
CN110362715A (zh) 一种基于图卷积网络的未剪辑视频动作时序定位方法
CN114998362B (zh) 基于双分割模型的医学图像分割方法
CN111860353A (zh) 基于双流神经网络的视频行为预测方法、装置及介质
CN114898141B (zh) 一种基于对比损失的多视图半监督图像分类方法
CN114998602A (zh) 基于低置信度样本对比损失的域适应学习方法及系统
CN109711454B (zh) 一种基于卷积神经网络的特征匹配方法
CN110705490A (zh) 视觉情感识别方法
CN114821770A (zh) 文本到图像的跨模态行人再识别方法、系统、介质和设备
Zhou et al. Hybrid knowledge distillation for RGB-T crowd density estimation in smart surveillance systems
CN114170558B (zh) 用于视频处理的方法、系统、设备、介质和产品
CN114913164A (zh) 基于超像素的两阶段弱监督新冠病灶分割方法
CN107274425A (zh) 一种基于脉冲耦合神经网络的彩色图像分割方法及装置
CN112528077B (zh) 基于视频嵌入的视频人脸检索方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant