CN109711454B - 一种基于卷积神经网络的特征匹配方法 - Google Patents

一种基于卷积神经网络的特征匹配方法 Download PDF

Info

Publication number
CN109711454B
CN109711454B CN201811571581.9A CN201811571581A CN109711454B CN 109711454 B CN109711454 B CN 109711454B CN 201811571581 A CN201811571581 A CN 201811571581A CN 109711454 B CN109711454 B CN 109711454B
Authority
CN
China
Prior art keywords
feature
matching
points
point
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811571581.9A
Other languages
English (en)
Other versions
CN109711454A (zh
Inventor
杨波
向龙海
闫新童
刘珊
曾庆川
刘婷婷
郑文锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201811571581.9A priority Critical patent/CN109711454B/zh
Publication of CN109711454A publication Critical patent/CN109711454A/zh
Application granted granted Critical
Publication of CN109711454B publication Critical patent/CN109711454B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的特征匹配方法,利用内窥镜初始视频序列获得训练数据,再利用训练数据构造用于后续帧特征点分类的卷积神经网络模型,并利用训练数据训练卷积神经网络模型,最后,后续帧特征通过网络输出分类结果实现特征匹配,具有简单、适用性好等特点,符合当前临床医疗发展的需要。

Description

一种基于卷积神经网络的特征匹配方法
技术领域
本发明属于图像处理技术领域,更为具体地讲,涉及一种基于卷积神经网络的特征匹配方法。
背景技术
随着机器人辅助微创手术在手术领域的普遍使用,内窥镜数据相关的处理技术得到了飞速的发展。这类手术通过对内窥镜获得的实时影像进行处理,从而辅助医生完成复杂的心脏手术操作。
特征匹配是图像处理中的经典问题,其目的在于寻找不同帧中的匹配特征点对,特征匹配效果的精确度对后续流程如主动运动补偿、三维重建等起着至关重要的影响。由于内窥镜影像像中存在大量的组织表面非刚性变形、画面模糊、高光反射等问题,传统的基于描述符的特征匹配方法难以在内窥镜图像处理中取得较好的鲁棒性和精确度。卷积神经网络相关算法具有在没有过多人工干预的情况下自动查找图像之间的关系和特征的性质,并在图像分类领域得到了广泛应用。Ahmad等在文献《Endoscopic image classificationand retrieval using clustered convolutional features》利用医学图像中的视觉特征来训练卷积神经网络模型,从而实现了对医学图像的分类和检索,Zhang等在文献《SIFTmatching with CNN evidences for particular object retrieval》中将传统的SIFT算法和卷积神经网络算法相结合,实现了更高精度的特定目标检索。但这些改进大多用于医学图像的分类和检索管理,卷积神经网络在医学图像的特征匹配方面一直没有较为有效的应用。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于卷积神经网络的特征匹配方法,利用卷积神经网络训练特征点的分类模型,然后对后续图像帧中特征点进行分类,完成特征匹配。
为实现上述发明目的,本发明一种基于卷积神经网络的特征匹配方法,其特征在于,包括以下步骤:
(1)、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
(2)、利用特征点集合生成训练数据集
(2.1)、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
(2.2)、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
将L中特征点标签对应的特征点最少的类别记为Lmin,然后以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval
(3)、构建用于计算特征类别的卷积神经网络
构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
(4)、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
(5)、利用卷积神经网络对后续帧特征点进行分类
(5.1)、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq
(5.2)、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,D,…DtH],Dq=[Dq1,Dq2,…,D,…DqH],λ=1,2,…,H,H特征点总数,D表示It中第λ个特征点的特征表述,D表示Iq中第λ个特征点的特征表述;
(5.3)、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,O,…OtH],Oq=[Oq1,Oq2,…,O,…OqH],O表示It中第λ个特征点的分类结果,O表示Iq中第λ个特征点的分类结果,O和O的具体形式为:O=[C P]、O=[C P],C、C为第λ个特征点的分类类别,P、P为第λ个特征点的分类概率;
(6)、计算特征匹配结果
(6.1)、构建It、Iq两帧的匹配矩阵Tt、Tq,其中,
Figure BDA0001915669560000031
Figure BDA0001915669560000032
m'为特征类别,
Figure BDA0001915669560000033
表示第
Figure BDA0001915669560000034
个类别在It中特征点信息,
Figure BDA0001915669560000035
表示第
Figure BDA0001915669560000036
个类别在Iq中特征点信息,
Figure BDA0001915669560000037
Figure BDA0001915669560000038
的具体形式为:
Figure BDA0001915669560000039
Figure BDA00019156695600000310
表示第
Figure BDA00019156695600000311
个类别在It中特征点序列,
Figure BDA00019156695600000312
为其对应的分类概率,
Figure BDA00019156695600000313
表示第
Figure BDA00019156695600000317
个类别在Iq中特征点序列,
Figure BDA00019156695600000314
为其对应的分类概率,
Figure BDA00019156695600000315
的初值为-1,
Figure BDA00019156695600000316
的初值为0;
(6.2)、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别C、C满足:C、C∈1,2,…,m';
更新过程为:在It帧的分类结果Ot中,如果O中的P的值大于Tt中类别为C的概率值
Figure BDA0001915669560000041
则令
Figure BDA0001915669560000042
在Iq帧的分类结果Oq中,如果O中的P的值大于Tq中类别为C的概率值
Figure BDA0001915669560000043
则令
Figure BDA0001915669560000044
(6.3)、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M,…,M0X],τ=1,2,…,X,X为匹配对总数,M为第τ个匹配对,M的具体形式为:M=[M0τt M0τq]M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
在匹配矩阵Tt、Tq中,如果
Figure BDA0001915669560000045
中的
Figure BDA0001915669560000046
的初值不为-1,则将
Figure BDA0001915669560000047
所对应的两个特征点视为匹配,并将
Figure BDA0001915669560000048
存入至M0中的M;当匹配矩阵Tt、Tq中所有的
Figure BDA0001915669560000049
比对完成后,得到最终的特征匹配结果。
本发明的发明目的是这样实现的:
本发明一种基于卷积神经网络的特征匹配方法,利用内窥镜初始视频序列获得训练数据,再利用训练数据构造用于后续帧特征点分类的卷积神经网络模型,并利用训练数据训练卷积神经网络模型,最后,后续帧特征通过网络输出分类结果实现特征匹配,具有简单、适用性好等特点,符合当前临床医疗发展的需要。
同时,本发明一种基于卷积神经网络的特征匹配方法还具有以下有益效果:
(1)、匹配鲁棒性好:引入卷积神经网络相关算法,对一定长度帧序列中的特征点进行分类后训练,对软组织表面的非刚性形变具有跟好的识别能力,因此具有更高的鲁棒性。
(2)、匹配精度更高:利用卷积神经网络自动学习的能力,大大降低了传统方法在计算描述符时带来的误差,其匹配性能相较传统特征匹配方法更好。
附图说明
图1是本发明基于卷积神经网络的特征匹配方法流程图;
图2是卷积神经网络框架示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明基于卷积神经网络的特征匹配方法流程图。
在本实施例中,如图1所示,本发明一种基于卷积神经网络的特征匹配方法,包括以下步骤:
S1、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
S2、利用特征点集合生成训练数据集
S2.1、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
S2.2、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
其中,特征类别m'的确定方法为:
m'=m0×σ
其中,m0为第0帧中特征点的总数;σ为特征类别的选取阈值,σ的取值范围为:σ=10%~30%,本实施例中取20%;
将L中特征点标签对应的特征点最少的类别记为Lmin,为了保证训练数据集上各个类别标签的均衡性,以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval
S3、构建用于计算特征类别的卷积神经网络
如图2所示,构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
本实施例中两层卷积层的卷积核都为3像素×3像素大小,第一层拥有64个卷积核,第二层有128个卷积核,第一层全连接层有1024个神经元,第二层全连接层拥有26个神经元。
S4、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
S5、利用卷积神经网络对后续帧特征点进行分类
S5.1、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq
S5.2、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,D,…DtH],Dq=[Dq1,Dq2,…,D,…DqH],λ=1,2,…,H,H特征点总数,D表示It中第λ个特征点的特征表述,D表示Iq中第λ个特征点的特征表述;
S5.3、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,O,…OtH],Oq=[Oq1,Oq2,…,O,…OqH],O表示It中第λ个特征点的分类结果,O表示Iq中第λ个特征点的分类结果,O和O的具体形式为:O=[C P]、O=[C P],C、C为第λ个特征点的分类类别,P、P为第λ个特征点的分类概率;
S6、计算特征匹配结果
S6.1、构建It、Iq两帧的匹配矩阵Tt、Tq,其中,
Figure BDA0001915669560000071
Figure BDA0001915669560000072
m'为特征类别,
Figure BDA0001915669560000073
表示第
Figure BDA0001915669560000074
个类别在It中特征点信息,
Figure BDA0001915669560000075
表示第
Figure BDA0001915669560000076
个类别在Iq中特征点信息,
Figure BDA0001915669560000077
Figure BDA0001915669560000078
的具体形式为:
Figure BDA0001915669560000079
Figure BDA00019156695600000710
表示第
Figure BDA00019156695600000711
个类别在It中特征点序列,
Figure BDA00019156695600000712
为其对应的分类概率,
Figure BDA00019156695600000713
表示第
Figure BDA00019156695600000714
个类别在Iq中特征点序列,
Figure BDA00019156695600000715
为其对应的分类概率,
Figure BDA00019156695600000716
的初值为-1,
Figure BDA00019156695600000717
的初值为0;
S6.2、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别C、C满足:C、C∈1,2,…,m';
根据步骤S6.1,分别计算出分类类别C、C在匹配矩阵Tt、Tq中分类概率值
Figure BDA00019156695600000718
然后进行更新过程:在It帧的分类结果Ot中,如果O中的P的值大于Tt中类别为C的概率值
Figure BDA00019156695600000719
则令
Figure BDA00019156695600000720
在Iq帧的分类结果Oq中,如果O中的P的值大于Tq中类别为C的概率值
Figure BDA00019156695600000721
则令
Figure BDA00019156695600000722
S6.3、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M,…,M0X],τ=1,2,…,X,X为匹配对总数,M为第τ个匹配对,M的具体形式为:M=[M0τt M0τq]M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
在匹配矩阵Tt、Tq中,如果
Figure BDA0001915669560000081
中的
Figure BDA0001915669560000082
的初值不为-1,则将
Figure BDA0001915669560000083
所对应的两个特征点视为匹配,并将
Figure BDA0001915669560000084
存入至M0中的M;当匹配矩阵Tt、Tq中所有的
Figure BDA0001915669560000085
比对完成后,得到最终的特征匹配结果。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (2)

1.一种基于卷积神经网络的特征匹配方法,其特征在于,包括以下步骤:
(1)、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
(2)、利用特征点集合生成训练数据集
(2.1)、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
(2.2)、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
将L中特征点标签对应的特征点最少的类别记为Lmin,然后以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval
(3)、构建用于计算特征类别的卷积神经网络
构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
(4)、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
(5)、利用卷积神经网络对后续帧特征点进行分类
(5.1)、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq
(5.2)、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,D,…DtH],Dq=[Dq1,Dq2,…,D,…DqH],λ=1,2,…,H,H表示特征点总数,D表示It中第λ个特征点的特征表述,D表示Iq中第λ个特征点的特征表述;
(5.3)、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,O,…OtH],Oq=[Oq1,Oq2,…,O,…OqH],O表示It中第λ个特征点的分类结果,O表示Iq中第λ个特征点的分类结果,O和O的具体形式为:O=[C P]、O=[C P],C、C为第λ个特征点的分类类别,P、P为第λ个特征点的分类概率;
(6)、计算特征匹配结果
(6.1)、构建It、Iq两帧的匹配矩阵Tt、Tq,其中,
Figure FDA0002512982970000021
Figure FDA0002512982970000022
m'为特征类别,
Figure FDA0002512982970000023
表示第
Figure FDA0002512982970000024
个类别在It中特征点信息,
Figure FDA0002512982970000025
表示第
Figure FDA0002512982970000026
个类别在Iq中特征点信息,
Figure FDA0002512982970000027
Figure FDA0002512982970000028
的具体形式为:
Figure FDA0002512982970000029
Figure FDA00025129829700000210
表示第
Figure FDA00025129829700000211
个类别在It中特征点序列,
Figure FDA00025129829700000212
为其对应的分类概率,
Figure FDA0002512982970000031
表示第
Figure FDA0002512982970000032
个类别在Iq中特征点序列,
Figure FDA0002512982970000033
为其对应的分类概率,
Figure FDA0002512982970000034
的初值为-1,
Figure FDA0002512982970000035
的初值为0;
(6.2)、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别C、C满足:C、C∈1,2,…,m';
更新过程为:在It帧的分类结果Ot中,如果O中的P的值大于Tt中类别为C的概率值
Figure FDA0002512982970000036
则令
Figure FDA0002512982970000037
在Iq帧的分类结果Oq中,如果O中的P的值大于Tq中类别为C的概率值
Figure FDA0002512982970000038
则令
Figure FDA0002512982970000039
(6.3)、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M,…,M0X],τ=1,2,…,X,X为匹配对总数,M为第τ个匹配对,M的具体形式为:M=[M0τt M0τq],M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
在匹配矩阵Tt、Tq中,如果
Figure FDA00025129829700000310
中的
Figure FDA00025129829700000311
的初值不为-1,则将
Figure FDA00025129829700000312
所对应的两个特征点视为匹配,并将
Figure FDA00025129829700000313
存入至M0中的M;当匹配矩阵Tt、Tq中所有的
Figure FDA00025129829700000314
比对完成后,得到最终的特征匹配结果。
2.根据权利要求1所述的基于卷积神经网络的特征匹配方法,其特征在于,所述特征类别m'的确定方法为:
m'=m0×σ
其中,m0为第0帧中特征点的总数;σ为特征类别的选取阈值,σ的取值范围为:σ=10%~30%。
CN201811571581.9A 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法 Active CN109711454B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811571581.9A CN109711454B (zh) 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811571581.9A CN109711454B (zh) 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法

Publications (2)

Publication Number Publication Date
CN109711454A CN109711454A (zh) 2019-05-03
CN109711454B true CN109711454B (zh) 2020-07-31

Family

ID=66256102

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811571581.9A Active CN109711454B (zh) 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法

Country Status (1)

Country Link
CN (1) CN109711454B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080676B (zh) * 2019-12-20 2022-03-25 电子科技大学 一种通过在线分类跟踪内窥镜图像序列特征点的方法
CN111813996B (zh) * 2020-07-22 2022-03-01 四川长虹电器股份有限公司 基于单帧和连续多帧抽样并行的视频搜索方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408932A (zh) * 2008-04-11 2009-04-15 浙江师范大学 一种基于指纹结构特征与纹理分析的指纹图像匹配方法
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN105512640A (zh) * 2015-12-30 2016-04-20 重庆邮电大学 一种基于视频序列的人流量统计方法
CN107194559A (zh) * 2017-05-12 2017-09-22 杭州电子科技大学 一种基于三维卷积神经网络的工作流识别方法
CN108491858A (zh) * 2018-02-11 2018-09-04 南京邮电大学 基于卷积神经网络的疲劳驾驶检测方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552709B2 (en) * 2016-10-05 2020-02-04 Ecole Polytechnique Federale De Lausanne (Epfl) Method, system, and device for learned invariant feature transform for computer images
US11379688B2 (en) * 2017-03-16 2022-07-05 Packsize Llc Systems and methods for keypoint detection with convolutional neural networks

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408932A (zh) * 2008-04-11 2009-04-15 浙江师范大学 一种基于指纹结构特征与纹理分析的指纹图像匹配方法
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN105512640A (zh) * 2015-12-30 2016-04-20 重庆邮电大学 一种基于视频序列的人流量统计方法
CN107194559A (zh) * 2017-05-12 2017-09-22 杭州电子科技大学 一种基于三维卷积神经网络的工作流识别方法
CN108491858A (zh) * 2018-02-11 2018-09-04 南京邮电大学 基于卷积神经网络的疲劳驾驶检测方法及系统

Also Published As

Publication number Publication date
CN109711454A (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
EP3832534B1 (en) Video action segmentation by mixed temporal domain adaptation
CN105095862B (zh) 一种基于深度卷积条件随机场的人体动作识别方法
CN111695469A (zh) 轻量化深度可分离卷积特征融合网的高光谱图像分类方法
CN111931602B (zh) 基于注意力机制的多流分段网络人体动作识别方法及系统
US20210326638A1 (en) Video panoptic segmentation
CN110288555B (zh) 一种基于改进的胶囊网络的低照度增强方法
CN111276240B (zh) 一种基于图卷积网络的多标签多模态全息脉象识别方法
CN110378208B (zh) 一种基于深度残差网络的行为识别方法
WO2023273668A1 (zh) 图像分类方法、装置、设备、存储介质及程序产品
CN113807318B (zh) 一种基于双流卷积神经网络和双向gru的动作识别方法
Jia et al. Stacked denoising tensor auto-encoder for action recognition with spatiotemporal corruptions
CN109711454B (zh) 一种基于卷积神经网络的特征匹配方法
CN110110648A (zh) 基于视觉感知与人工智能的动作提名方法
CN115578589B (zh) 一种无监督超声心动图切面识别方法
CN114596338B (zh) 一种考虑时序关系的孪生网络目标跟踪方法
CN112446253A (zh) 一种骨架行为识别方法及装置
Dong et al. Research on image classification based on capsnet
Uddin et al. A perceptually inspired new blind image denoising method using $ L_ {1} $ and perceptual loss
CN112200096A (zh) 基于压缩视频实现实时异常行为识别的方法、装置及其存储介质
CN116883751A (zh) 基于原型网络对比学习的无监督领域自适应图像识别方法
Ma et al. Attention-based cross-layer domain alignment for unsupervised domain adaptation
CN114492634A (zh) 一种细粒度装备图片分类识别方法及系统
CN117152851B (zh) 基于大模型预训练的人脸、人体协同聚类方法
CN114372962A (zh) 基于双粒度时间卷积的腹腔镜手术阶段识别方法与系统
CN112528077B (zh) 基于视频嵌入的视频人脸检索方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant