CN109711454B - 一种基于卷积神经网络的特征匹配方法 - Google Patents
一种基于卷积神经网络的特征匹配方法 Download PDFInfo
- Publication number
- CN109711454B CN109711454B CN201811571581.9A CN201811571581A CN109711454B CN 109711454 B CN109711454 B CN 109711454B CN 201811571581 A CN201811571581 A CN 201811571581A CN 109711454 B CN109711454 B CN 109711454B
- Authority
- CN
- China
- Prior art keywords
- feature
- matching
- points
- point
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的特征匹配方法,利用内窥镜初始视频序列获得训练数据,再利用训练数据构造用于后续帧特征点分类的卷积神经网络模型,并利用训练数据训练卷积神经网络模型,最后,后续帧特征通过网络输出分类结果实现特征匹配,具有简单、适用性好等特点,符合当前临床医疗发展的需要。
Description
技术领域
本发明属于图像处理技术领域,更为具体地讲,涉及一种基于卷积神经网络的特征匹配方法。
背景技术
随着机器人辅助微创手术在手术领域的普遍使用,内窥镜数据相关的处理技术得到了飞速的发展。这类手术通过对内窥镜获得的实时影像进行处理,从而辅助医生完成复杂的心脏手术操作。
特征匹配是图像处理中的经典问题,其目的在于寻找不同帧中的匹配特征点对,特征匹配效果的精确度对后续流程如主动运动补偿、三维重建等起着至关重要的影响。由于内窥镜影像像中存在大量的组织表面非刚性变形、画面模糊、高光反射等问题,传统的基于描述符的特征匹配方法难以在内窥镜图像处理中取得较好的鲁棒性和精确度。卷积神经网络相关算法具有在没有过多人工干预的情况下自动查找图像之间的关系和特征的性质,并在图像分类领域得到了广泛应用。Ahmad等在文献《Endoscopic image classificationand retrieval using clustered convolutional features》利用医学图像中的视觉特征来训练卷积神经网络模型,从而实现了对医学图像的分类和检索,Zhang等在文献《SIFTmatching with CNN evidences for particular object retrieval》中将传统的SIFT算法和卷积神经网络算法相结合,实现了更高精度的特定目标检索。但这些改进大多用于医学图像的分类和检索管理,卷积神经网络在医学图像的特征匹配方面一直没有较为有效的应用。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于卷积神经网络的特征匹配方法,利用卷积神经网络训练特征点的分类模型,然后对后续图像帧中特征点进行分类,完成特征匹配。
为实现上述发明目的,本发明一种基于卷积神经网络的特征匹配方法,其特征在于,包括以下步骤:
(1)、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
(2)、利用特征点集合生成训练数据集
(2.1)、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
(2.2)、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
将L中特征点标签对应的特征点最少的类别记为Lmin,然后以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval;
(3)、构建用于计算特征类别的卷积神经网络
构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
(4)、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
(5)、利用卷积神经网络对后续帧特征点进行分类
(5.1)、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq;
(5.2)、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,Dtλ,…DtH],Dq=[Dq1,Dq2,…,Dqλ,…DqH],λ=1,2,…,H,H特征点总数,Dtλ表示It中第λ个特征点的特征表述,Dqλ表示Iq中第λ个特征点的特征表述;
(5.3)、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,Otλ,…OtH],Oq=[Oq1,Oq2,…,Oqλ,…OqH],Otλ表示It中第λ个特征点的分类结果,Oqλ表示Iq中第λ个特征点的分类结果,Otλ和Oqλ的具体形式为:Otλ=[Ctλ Ptλ]、Oqλ=[Cqλ Pqλ],Ctλ、Cqλ为第λ个特征点的分类类别,Ptλ、Pqλ为第λ个特征点的分类概率;
(6)、计算特征匹配结果
(6.1)、构建It、Iq两帧的匹配矩阵Tt、Tq,其中, m'为特征类别,表示第个类别在It中特征点信息,表示第个类别在Iq中特征点信息,和的具体形式为: 表示第个类别在It中特征点序列,为其对应的分类概率,表示第个类别在Iq中特征点序列,为其对应的分类概率,的初值为-1,的初值为0;
(6.2)、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别Ctλ、Cqλ满足:Ctλ、Cqλ∈1,2,…,m';
(6.3)、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M0τ,…,M0X],τ=1,2,…,X,X为匹配对总数,M0τ为第τ个匹配对,M0τ的具体形式为:M0τ=[M0τt M0τq]M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
本发明的发明目的是这样实现的:
本发明一种基于卷积神经网络的特征匹配方法,利用内窥镜初始视频序列获得训练数据,再利用训练数据构造用于后续帧特征点分类的卷积神经网络模型,并利用训练数据训练卷积神经网络模型,最后,后续帧特征通过网络输出分类结果实现特征匹配,具有简单、适用性好等特点,符合当前临床医疗发展的需要。
同时,本发明一种基于卷积神经网络的特征匹配方法还具有以下有益效果:
(1)、匹配鲁棒性好:引入卷积神经网络相关算法,对一定长度帧序列中的特征点进行分类后训练,对软组织表面的非刚性形变具有跟好的识别能力,因此具有更高的鲁棒性。
(2)、匹配精度更高:利用卷积神经网络自动学习的能力,大大降低了传统方法在计算描述符时带来的误差,其匹配性能相较传统特征匹配方法更好。
附图说明
图1是本发明基于卷积神经网络的特征匹配方法流程图;
图2是卷积神经网络框架示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明基于卷积神经网络的特征匹配方法流程图。
在本实施例中,如图1所示,本发明一种基于卷积神经网络的特征匹配方法,包括以下步骤:
S1、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
S2、利用特征点集合生成训练数据集
S2.1、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
S2.2、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
其中,特征类别m'的确定方法为:
m'=m0×σ
其中,m0为第0帧中特征点的总数;σ为特征类别的选取阈值,σ的取值范围为:σ=10%~30%,本实施例中取20%;
将L中特征点标签对应的特征点最少的类别记为Lmin,为了保证训练数据集上各个类别标签的均衡性,以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval;
S3、构建用于计算特征类别的卷积神经网络
如图2所示,构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
本实施例中两层卷积层的卷积核都为3像素×3像素大小,第一层拥有64个卷积核,第二层有128个卷积核,第一层全连接层有1024个神经元,第二层全连接层拥有26个神经元。
S4、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
S5、利用卷积神经网络对后续帧特征点进行分类
S5.1、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq;
S5.2、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,Dtλ,…DtH],Dq=[Dq1,Dq2,…,Dqλ,…DqH],λ=1,2,…,H,H特征点总数,Dtλ表示It中第λ个特征点的特征表述,Dqλ表示Iq中第λ个特征点的特征表述;
S5.3、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,Otλ,…OtH],Oq=[Oq1,Oq2,…,Oqλ,…OqH],Otλ表示It中第λ个特征点的分类结果,Oqλ表示Iq中第λ个特征点的分类结果,Otλ和Oqλ的具体形式为:Otλ=[Ctλ Ptλ]、Oqλ=[Cqλ Pqλ],Ctλ、Cqλ为第λ个特征点的分类类别,Ptλ、Pqλ为第λ个特征点的分类概率;
S6、计算特征匹配结果
S6.1、构建It、Iq两帧的匹配矩阵Tt、Tq,其中, m'为特征类别,表示第个类别在It中特征点信息,表示第个类别在Iq中特征点信息,和的具体形式为: 表示第个类别在It中特征点序列,为其对应的分类概率,表示第个类别在Iq中特征点序列,为其对应的分类概率,的初值为-1,的初值为0;
S6.2、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别Ctλ、Cqλ满足:Ctλ、Cqλ∈1,2,…,m';
S6.3、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M0τ,…,M0X],τ=1,2,…,X,X为匹配对总数,M0τ为第τ个匹配对,M0τ的具体形式为:M0τ=[M0τt M0τq]M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (2)
1.一种基于卷积神经网络的特征匹配方法,其特征在于,包括以下步骤:
(1)、特征提取
将内窥镜获取的视频序列的前N+1帧依次标记为I0,I1,…,IN,然后提取前N+1帧的特征点,记为F0,F1,…,FN,其中,第i帧的特征点集合Fi=[Fi1,Fi2,…,Fim,…,FiM],i=0,1,2,…,N,m=1,2,…,M,M表示特征点总数,Fim表示第i帧中第m个特征点的特征表述,具体形式为:Fim=[Fim1 Fim2],Fim1为第m个特征点的位置向量,Fim2为第m个特征点的描述向量;
(2)、利用特征点集合生成训练数据集
(2.1)、将第0帧的特征点集合分别与其后N帧的特征点集合做特征匹配,特征匹配结果分别记为M1,M2,…,Mi,…,MN,i=1,2,…,N;其中,第i帧与第0帧的特征匹配结果为Mi=[Mi1,Mi2,…,Min],Min为第n个匹配对,具体形式为:Min=[Min1 Min2]其中,Min1为匹配对中的一个特征在第0帧中的特征,取值为该特征在第0帧特征总数中所处的特征序列;Min2为匹配对中的一个特征在第i帧中的特征,取值为该特征在第i帧特征总数中所处的特征序列;
(2.2)、获取训练数据
设置集合D和L,D和L分别用于存放训练数据的特征点和特征点标签;
统计特征匹配结果中匹配对在第0帧中出现频率最高的m'种特征序列,将其视为m'个特征类别;然后将第0帧中这m'个特征类别的特征点及每个特征点在后面N帧中匹配的特征点存入至D中,并将相同特征点贴上相同标签存入至L中;
将L中特征点标签对应的特征点最少的类别记为Lmin,然后以Lmin为基准,将D和L中的所有特征类别中的特征点及对应的特征点标签进行随机删减,删减后分别记为D'和L';
将D'中的所有特征点旋转180度,再加入到D'中,其对应标签也加入L'中,得到特征点和特征点标签的集合记为D”和L”;
在D”中随机抽取80%的特征点作为训练数据,记为D”train,将抽取的特征点对应的特征点标签作为训练标签,记为L”train,抽取后剩下的特征点和特征点标签分别作为验证数据和验证标签,记为D”eval和L”eval;
(3)、构建用于计算特征类别的卷积神经网络
构建一个包含两层卷积层和两层全连接层的卷积神经网络,每层后面接一个ReLU层,最后一层全连接层接一层m'个输出的Softmax层;卷积神经网络的输出为[C,P],C,P表示输入特征的分类结果和对应概率;
(4)、训练卷积神经网络
将D”train和L”train中的每一组特征点及对应的特征点标签作为输入,输入至卷积神经网络进行训练,经过多次重复训练后,再利用D”eval和L”eval中的一组特征点及对应的特征点标签进行验证,当卷积神经网络的分类准确率高于90%时完成训练;
(5)、利用卷积神经网络对后续帧特征点进行分类
(5.1)、提取内窥镜视频后续帧中待匹配的两帧,记为It、Iq;
(5.2)、提取It、Iq中的特征点数据集合,分别记为Dt、Dq,其中,Dt=[Dt1,Dt2,…,Dtλ,…DtH],Dq=[Dq1,Dq2,…,Dqλ,…DqH],λ=1,2,…,H,H表示特征点总数,Dtλ表示It中第λ个特征点的特征表述,Dqλ表示Iq中第λ个特征点的特征表述;
(5.3)、将It、Iq中的每个特征点分别输入至训练好的卷积神经网络,得到每个特征点的分类结果和对应概率,分类结果分别记为Ot、Oq,其中,Ot=[Ot1,Ot2,…,Otλ,…OtH],Oq=[Oq1,Oq2,…,Oqλ,…OqH],Otλ表示It中第λ个特征点的分类结果,Oqλ表示Iq中第λ个特征点的分类结果,Otλ和Oqλ的具体形式为:Otλ=[Ctλ Ptλ]、Oqλ=[Cqλ Pqλ],Ctλ、Cqλ为第λ个特征点的分类类别,Ptλ、Pqλ为第λ个特征点的分类概率;
(6)、计算特征匹配结果
(6.1)、构建It、Iq两帧的匹配矩阵Tt、Tq,其中, m'为特征类别,表示第个类别在It中特征点信息,表示第个类别在Iq中特征点信息,和的具体形式为: 表示第个类别在It中特征点序列,为其对应的分类概率,表示第个类别在Iq中特征点序列,为其对应的分类概率,的初值为-1,的初值为0;
(6.2)、更新匹配矩阵
根据步骤(5.3)的分类结果更新It、Iq两帧的匹配矩阵,第λ个特征点的分类类别Ctλ、Cqλ满足:Ctλ、Cqλ∈1,2,…,m';
(6.3)、计算特征匹配结果
构建It、Iq两帧的特征匹配结果矩阵M0,M0=[M01,M02,…,M0τ,…,M0X],τ=1,2,…,X,X为匹配对总数,M0τ为第τ个匹配对,M0τ的具体形式为:M0τ=[M0τt M0τq],M0τt表示第τ个匹配对中一个特征在It中的特征序列,M0τq表示第τ个匹配对中一个特征在Iq中的特征序列;
2.根据权利要求1所述的基于卷积神经网络的特征匹配方法,其特征在于,所述特征类别m'的确定方法为:
m'=m0×σ
其中,m0为第0帧中特征点的总数;σ为特征类别的选取阈值,σ的取值范围为:σ=10%~30%。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811571581.9A CN109711454B (zh) | 2018-12-21 | 2018-12-21 | 一种基于卷积神经网络的特征匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811571581.9A CN109711454B (zh) | 2018-12-21 | 2018-12-21 | 一种基于卷积神经网络的特征匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109711454A CN109711454A (zh) | 2019-05-03 |
CN109711454B true CN109711454B (zh) | 2020-07-31 |
Family
ID=66256102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811571581.9A Active CN109711454B (zh) | 2018-12-21 | 2018-12-21 | 一种基于卷积神经网络的特征匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109711454B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111080676B (zh) * | 2019-12-20 | 2022-03-25 | 电子科技大学 | 一种通过在线分类跟踪内窥镜图像序列特征点的方法 |
CN111813996B (zh) * | 2020-07-22 | 2022-03-01 | 四川长虹电器股份有限公司 | 基于单帧和连续多帧抽样并行的视频搜索方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101408932A (zh) * | 2008-04-11 | 2009-04-15 | 浙江师范大学 | 一种基于指纹结构特征与纹理分析的指纹图像匹配方法 |
CN104281853A (zh) * | 2014-09-02 | 2015-01-14 | 电子科技大学 | 一种基于3d卷积神经网络的行为识别方法 |
CN105512640A (zh) * | 2015-12-30 | 2016-04-20 | 重庆邮电大学 | 一种基于视频序列的人流量统计方法 |
CN107194559A (zh) * | 2017-05-12 | 2017-09-22 | 杭州电子科技大学 | 一种基于三维卷积神经网络的工作流识别方法 |
CN108491858A (zh) * | 2018-02-11 | 2018-09-04 | 南京邮电大学 | 基于卷积神经网络的疲劳驾驶检测方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10552709B2 (en) * | 2016-10-05 | 2020-02-04 | Ecole Polytechnique Federale De Lausanne (Epfl) | Method, system, and device for learned invariant feature transform for computer images |
US11379688B2 (en) * | 2017-03-16 | 2022-07-05 | Packsize Llc | Systems and methods for keypoint detection with convolutional neural networks |
-
2018
- 2018-12-21 CN CN201811571581.9A patent/CN109711454B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101408932A (zh) * | 2008-04-11 | 2009-04-15 | 浙江师范大学 | 一种基于指纹结构特征与纹理分析的指纹图像匹配方法 |
CN104281853A (zh) * | 2014-09-02 | 2015-01-14 | 电子科技大学 | 一种基于3d卷积神经网络的行为识别方法 |
CN105512640A (zh) * | 2015-12-30 | 2016-04-20 | 重庆邮电大学 | 一种基于视频序列的人流量统计方法 |
CN107194559A (zh) * | 2017-05-12 | 2017-09-22 | 杭州电子科技大学 | 一种基于三维卷积神经网络的工作流识别方法 |
CN108491858A (zh) * | 2018-02-11 | 2018-09-04 | 南京邮电大学 | 基于卷积神经网络的疲劳驾驶检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109711454A (zh) | 2019-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3832534B1 (en) | Video action segmentation by mixed temporal domain adaptation | |
CN105095862B (zh) | 一种基于深度卷积条件随机场的人体动作识别方法 | |
CN111695469A (zh) | 轻量化深度可分离卷积特征融合网的高光谱图像分类方法 | |
CN111931602B (zh) | 基于注意力机制的多流分段网络人体动作识别方法及系统 | |
US20210326638A1 (en) | Video panoptic segmentation | |
CN110288555B (zh) | 一种基于改进的胶囊网络的低照度增强方法 | |
CN111276240B (zh) | 一种基于图卷积网络的多标签多模态全息脉象识别方法 | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
WO2023273668A1 (zh) | 图像分类方法、装置、设备、存储介质及程序产品 | |
CN113807318B (zh) | 一种基于双流卷积神经网络和双向gru的动作识别方法 | |
Jia et al. | Stacked denoising tensor auto-encoder for action recognition with spatiotemporal corruptions | |
CN109711454B (zh) | 一种基于卷积神经网络的特征匹配方法 | |
CN110110648A (zh) | 基于视觉感知与人工智能的动作提名方法 | |
CN115578589B (zh) | 一种无监督超声心动图切面识别方法 | |
CN114596338B (zh) | 一种考虑时序关系的孪生网络目标跟踪方法 | |
CN112446253A (zh) | 一种骨架行为识别方法及装置 | |
Dong et al. | Research on image classification based on capsnet | |
Uddin et al. | A perceptually inspired new blind image denoising method using $ L_ {1} $ and perceptual loss | |
CN112200096A (zh) | 基于压缩视频实现实时异常行为识别的方法、装置及其存储介质 | |
CN116883751A (zh) | 基于原型网络对比学习的无监督领域自适应图像识别方法 | |
Ma et al. | Attention-based cross-layer domain alignment for unsupervised domain adaptation | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
CN117152851B (zh) | 基于大模型预训练的人脸、人体协同聚类方法 | |
CN114372962A (zh) | 基于双粒度时间卷积的腹腔镜手术阶段识别方法与系统 | |
CN112528077B (zh) | 基于视频嵌入的视频人脸检索方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |