CN109711454A - 一种基于卷积神经网络的特征匹配方法 - Google Patents

一种基于卷积神经网络的特征匹配方法 Download PDF

Info

Publication number
CN109711454A
CN109711454A CN201811571581.9A CN201811571581A CN109711454A CN 109711454 A CN109711454 A CN 109711454A CN 201811571581 A CN201811571581 A CN 201811571581A CN 109711454 A CN109711454 A CN 109711454A
Authority
CN
China
Prior art keywords
characteristic point
characteristic
feature
matching
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811571581.9A
Other languages
English (en)
Other versions
CN109711454B (zh
Inventor
杨波
向龙海
闫新童
刘珊
曾庆川
刘婷婷
郑文锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201811571581.9A priority Critical patent/CN109711454B/zh
Publication of CN109711454A publication Critical patent/CN109711454A/zh
Application granted granted Critical
Publication of CN109711454B publication Critical patent/CN109711454B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的特征匹配方法,利用内窥镜初始视频序列获得训练数据,再利用训练数据构造用于后续帧特征点分类的卷积神经网络模型,并利用训练数据训练卷积神经网络模型,最后,后续帧特征通过网络输出分类结果实现特征匹配,具有简单、适用性好等特点,符合当前临床医疗发展的需要。

Description

一种基于卷积神经网络的特征匹配方法
技术领域
本发明属于图像处理技术领域,更为具体地讲,涉及一种基于卷积神经网络的特征匹配方法。
背景技术
随着机器人辅助微创手术在手术领域的普遍使用,内窥镜数据相关的处理技术得到了飞速的发展。这类手术通过对内窥镜获得的实时影像进行处理,从而辅助医生完成复杂的心脏手术操作。
特征匹配是图像处理中的经典问题,其目的在于寻找不同帧中的匹配特征点对,特征匹配效果的精确度对后续流程如主动运动补偿、三维重建等起着至关重要的影响。由于内窥镜影像像中存在大量的组织表面非刚性变形、画面模糊、高光反射等问题,传统的基于描述符的特征匹配方法难以在内窥镜图像处理中取得较好的鲁棒性和精确度。卷积神经网络相关算法具有在没有过多人工干预的情况下自动查找图像之间的关系和特征的性质,并在图像分类领域得到了广泛应用。Ahmad等在文献《Endoscopic image classificationand retrieval using clustered convolutional features》利用医学图像中的视觉特征来训练卷积神经网络模型,从而实现了对医学图像的分类和检索,Zhang等在文献《SIFTmatching with CNN evidences for particular object retrieval》中将传统的SIFT算法和卷积神经网络算法相结合,实现了更高精度的特定目标检索。但这些改进大多用于医学图像的分类和检索管理,卷积神经网络在医学图像的特征匹配方面一直没有较为有效的应用。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于卷积神经网络的特征匹配方法,利用卷积神经网络训练特征点的分类模型,然后对后续图像帧中特征点进行分类,完成特征匹配。
为实现上述发明目的,本发明一种基于卷积神经网络的特征匹配方法,其特征在于,包括以下步骤:
(1)、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
(2)、利用特征点集合生成训练数据集
(2.1)、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
(2.2)、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
将L中特征点标签对应的特征点最少的类别记为Lmin,然后以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval
(3)、构建用于计算特征类别的卷积神经网络
构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
(4)、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
(5)、利用卷积神经网络对后续帧特征点进行分类
(5.1)、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq
(5.2)、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,D,…DtH],Dq=[Dq1,Dq2,…,D,…DqH],λ=1,2,…,H,H特征点总数,D表示It中第λ个特征点的特征表述,D表示Iq中第λ个特征点的特征表述;
(5.3)、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,O,…OtH],Oq=[Oq1,Oq2,…,O,…OqH],O表示It中第λ个特征点的分类结果,O表示Iq中第λ个特征点的分类结果,O和O的具体形式为:O=[C P]、O=[C P],C、C为第λ个特征点的分类类别,P、P为第λ个特征点的分类概率;
(6)、计算特征匹配结果
(6.1)、构建It、Iq两帧的匹配矩阵Tt、Tq,其中, m'为特征类别,表示第个类别在It中特征点信息,表示第个类别在Iq中特征点信息,的具体形式为: 表示第个类别在It中特征点序列,为其对应的分类概率,表示第个类别在Iq中特征点序列,为其对应的分类概率,的初值为-1,的初值为0;
(6.2)、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别C、C满足:C、C∈1,2,…,m';
更新过程为:在It帧的分类结果Ot中,如果O中的P的值大于Tt中类别为C的概率值则令在Iq帧的分类结果Oq中,如果O中的P的值大于Tq中类别为C的概率值则令
(6.3)、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M,…,M0X],τ=1,2,…,X,X为匹配对总数,M为第τ个匹配对,M的具体形式为:M=[M0τt M0τq]M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
在匹配矩阵Tt、Tq中,如果中的的初值不为-1,则将所对应的两个特征点视为匹配,并将存入至M0中的M;当匹配矩阵Tt、Tq中所有的比对完成后,得到最终的特征匹配结果。
本发明的发明目的是这样实现的:
本发明一种基于卷积神经网络的特征匹配方法,利用内窥镜初始视频序列获得训练数据,再利用训练数据构造用于后续帧特征点分类的卷积神经网络模型,并利用训练数据训练卷积神经网络模型,最后,后续帧特征通过网络输出分类结果实现特征匹配,具有简单、适用性好等特点,符合当前临床医疗发展的需要。
同时,本发明一种基于卷积神经网络的特征匹配方法还具有以下有益效果:
(1)、匹配鲁棒性好:引入卷积神经网络相关算法,对一定长度帧序列中的特征点进行分类后训练,对软组织表面的非刚性形变具有跟好的识别能力,因此具有更高的鲁棒性。
(2)、匹配精度更高:利用卷积神经网络自动学习的能力,大大降低了传统方法在计算描述符时带来的误差,其匹配性能相较传统特征匹配方法更好。
附图说明
图1是本发明基于卷积神经网络的特征匹配方法流程图;
图2是卷积神经网络框架示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明基于卷积神经网络的特征匹配方法流程图。
在本实施例中,如图1所示,本发明一种基于卷积神经网络的特征匹配方法,包括以下步骤:
S1、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
S2、利用特征点集合生成训练数据集
S2.1、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
S2.2、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
其中,特征类别m'的确定方法为:
m'=m0×σ
其中,m0为第0帧中特征点的总数;σ为特征类别的选取阈值,σ的取值范围为:σ=10%~30%,本实施例中取20%;
将L中特征点标签对应的特征点最少的类别记为Lmin,为了保证训练数据集上各个类别标签的均衡性,以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval
S3、构建用于计算特征类别的卷积神经网络
如图2所示,构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
本实施例中两层卷积层的卷积核都为3像素×3像素大小,第一层拥有64个卷积核,第二层有128个卷积核,第一层全连接层有1024个神经元,第二层全连接层拥有26个神经元。
S4、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
S5、利用卷积神经网络对后续帧特征点进行分类
S5.1、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq
S5.2、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,D,…DtH],Dq=[Dq1,Dq2,…,D,…DqH],λ=1,2,…,H,H特征点总数,D表示It中第λ个特征点的特征表述,D表示Iq中第λ个特征点的特征表述;
S5.3、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,O,…OtH],Oq=[Oq1,Oq2,…,O,…OqH],O表示It中第λ个特征点的分类结果,O表示Iq中第λ个特征点的分类结果,O和O的具体形式为:O=[C P]、O=[C P],C、C为第λ个特征点的分类类别,P、P为第λ个特征点的分类概率;
S6、计算特征匹配结果
S6.1、构建It、Iq两帧的匹配矩阵Tt、Tq,其中, m'为特征类别,表示第个类别在It中特征点信息,表示第个类别在Iq中特征点信息,的具体形式为: 表示第个类别在It中特征点序列,为其对应的分类概率,表示第个类别在Iq中特征点序列,为其对应的分类概率,的初值为-1,的初值为0;
S6.2、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别C、C满足:C、C∈1,2,…,m';
根据步骤S6.1,分别计算出分类类别C、C在匹配矩阵Tt、Tq中分类概率值
然后进行更新过程:在It帧的分类结果Ot中,如果O中的P的值大于Tt中类别为C的概率值则令在Iq帧的分类结果Oq中,如果O中的P的值大于Tq中类别为C的概率值则令
S6.3、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M,…,M0X],τ=1,2,…,X,X为匹配对总数,M为第τ个匹配对,M的具体形式为:M=[M0τt M0τq]M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
在匹配矩阵Tt、Tq中,如果中的的初值不为-1,则将所对应的两个特征点视为匹配,并将存入至M0中的M;当匹配矩阵Tt、Tq中所有的比对完成后,得到最终的特征匹配结果。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (2)

1.一种基于卷积神经网络的特征匹配方法,其特征在于,包括以下步骤:
(1)、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
(2)、利用特征点集合生成训练数据集
(2.1)、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
(2.2)、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
将L中特征点标签对应的特征点最少的类别记为Lmin,然后以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval
(3)、构建用于计算特征类别的卷积神经网络
构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P];
(4)、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
(5)、利用卷积神经网络对后续帧特征点进行分类
(5.1)、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq
(5.2)、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,D,…DtH],Dq=[Dq1,Dq2,…,D,…DqH],λ=1,2,…,H,H特征点总数,D表示It中第λ个特征点的特征表述,D表示Iq中第λ个特征点的特征表述;
(5.3)、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,O,…OtH],Oq=[Oq1,Oq2,…,O,…OqH],O表示It中第λ个特征点的分类结果,O表示Iq中第λ个特征点的分类结果,O和O的具体形式为:O=[C P]、O=[C P],C、C为第λ个特征点的分类类别,P、P为第λ个特征点的分类概率;
(6)、计算特征匹配结果
(6.1)、构建It、Iq两帧的匹配矩阵Tt、Tq,其中, m'为特征类别,表示第个类别在It中特征点信息,表示第个类别在Iq中特征点信息,的具体形式为: 表示第个类别在It中特征点序列,为其对应的分类概率,表示第个类别在Iq中特征点序列,为其对应的分类概率,的初值为-1,的初值为0;
(6.2)、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别C、C满足:C、C∈1,2,…,m';
更新过程为:在It帧的分类结果Ot中,如果O中的P的值大于Tt中类别为C的概率值则令在Iq帧的分类结果Oq中,如果O中的P的值大于Tq中类别为C的概率值则令
(6.3)、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M,…,M0X],τ=1,2,…,X,X为匹配对总数,M为第τ个匹配对,M的具体形式为:M=[M0τt M0τq]M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
在匹配矩阵Tt、Tq中,如果中的的初值不为-1,则将所对应的两个特征点视为匹配,并将存入至M0中的M;当匹配矩阵Tt、Tq中所有的比对完成后,得到最终的特征匹配结果。
2.根据权利要求1所述的基于卷积神经网络的特征匹配方法,其特征在于,所述特征类别m'的确定方法为:
m'=m0×σ
其中,m0为第0帧中特征点的总数;σ为特征类别的选取阈值,σ的取值范围为:σ=10%~30%。
CN201811571581.9A 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法 Active CN109711454B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811571581.9A CN109711454B (zh) 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811571581.9A CN109711454B (zh) 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法

Publications (2)

Publication Number Publication Date
CN109711454A true CN109711454A (zh) 2019-05-03
CN109711454B CN109711454B (zh) 2020-07-31

Family

ID=66256102

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811571581.9A Active CN109711454B (zh) 2018-12-21 2018-12-21 一种基于卷积神经网络的特征匹配方法

Country Status (1)

Country Link
CN (1) CN109711454B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080676A (zh) * 2019-12-20 2020-04-28 电子科技大学 一种通过在线分类跟踪内窥镜图像序列特征点的方法
CN111813996A (zh) * 2020-07-22 2020-10-23 四川长虹电器股份有限公司 基于单帧和连续多帧抽样并行的视频搜索方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408932A (zh) * 2008-04-11 2009-04-15 浙江师范大学 一种基于指纹结构特征与纹理分析的指纹图像匹配方法
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN105512640A (zh) * 2015-12-30 2016-04-20 重庆邮电大学 一种基于视频序列的人流量统计方法
CN107194559A (zh) * 2017-05-12 2017-09-22 杭州电子科技大学 一种基于三维卷积神经网络的工作流识别方法
US20180096224A1 (en) * 2016-10-05 2018-04-05 Ecole Polytechnique Federale De Lausanne (Epfl) Method, System, and Device for Learned Invariant Feature Transform for Computer Images
CN108491858A (zh) * 2018-02-11 2018-09-04 南京邮电大学 基于卷积神经网络的疲劳驾驶检测方法及系统
US20180268256A1 (en) * 2017-03-16 2018-09-20 Aquifi, Inc. Systems and methods for keypoint detection with convolutional neural networks

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408932A (zh) * 2008-04-11 2009-04-15 浙江师范大学 一种基于指纹结构特征与纹理分析的指纹图像匹配方法
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN105512640A (zh) * 2015-12-30 2016-04-20 重庆邮电大学 一种基于视频序列的人流量统计方法
US20180096224A1 (en) * 2016-10-05 2018-04-05 Ecole Polytechnique Federale De Lausanne (Epfl) Method, System, and Device for Learned Invariant Feature Transform for Computer Images
US20180268256A1 (en) * 2017-03-16 2018-09-20 Aquifi, Inc. Systems and methods for keypoint detection with convolutional neural networks
CN107194559A (zh) * 2017-05-12 2017-09-22 杭州电子科技大学 一种基于三维卷积神经网络的工作流识别方法
CN108491858A (zh) * 2018-02-11 2018-09-04 南京邮电大学 基于卷积神经网络的疲劳驾驶检测方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080676A (zh) * 2019-12-20 2020-04-28 电子科技大学 一种通过在线分类跟踪内窥镜图像序列特征点的方法
CN111813996A (zh) * 2020-07-22 2020-10-23 四川长虹电器股份有限公司 基于单帧和连续多帧抽样并行的视频搜索方法

Also Published As

Publication number Publication date
CN109711454B (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
Allaouzi et al. A novel approach for multi-label chest X-ray classification of common thorax diseases
CN107480261B (zh) 一种基于深度学习细粒度人脸图像快速检索方法
CN112528780B (zh) 通过混合时域自适应的视频动作分割
CN111695469A (zh) 轻量化深度可分离卷积特征融合网的高光谱图像分类方法
Zhou et al. Convnets vs. transformers: Whose visual representations are more transferable?
CN111931602B (zh) 基于注意力机制的多流分段网络人体动作识别方法及系统
CN110288555B (zh) 一种基于改进的胶囊网络的低照度增强方法
CN107122809A (zh) 基于图像自编码的神经网络特征学习方法
Wang et al. Unsupervised joint feature learning and encoding for RGB-D scene labeling
JP7111088B2 (ja) 画像検索装置、学習方法及びプログラム
CN107463932B (zh) 一种使用二进制瓶颈神经网络来抽取图片特征的方法
Yang et al. Cross-domain visual representations via unsupervised graph alignment
CN111080591A (zh) 基于编码解码结构结合残差模块的医学图像分割方法
CN115578589B (zh) 一种无监督超声心动图切面识别方法
US11704892B2 (en) Apparatus and method for image classification
CN112766376A (zh) 一种基于gacnn的多标签眼底图像识别方法
CN109711454A (zh) 一种基于卷积神经网络的特征匹配方法
CN115273244A (zh) 基于图神经网络的人体动作识别方法和系统
Dong et al. Research on image classification based on capsnet
Saeed et al. 2D Facial Images Attractiveness Assessment Based on Transfer Learning of Deep Convolutional Neural Networks
CN113378938A (zh) 一种基于边Transformer图神经网络的小样本图像分类方法及系统
Saboori et al. Adversarial discriminative active deep learning for domain adaptation in hyperspectral images classification
CN114596338B (zh) 一种考虑时序关系的孪生网络目标跟踪方法
CN115761342A (zh) 一种肺部ct影像肺炎分类方法、装置及设备
CN113936333A (zh) 一种基于人体骨架序列的动作识别算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant