CN113807176B - 一种基于多知识融合的小样本视频行为识别方法 - Google Patents
一种基于多知识融合的小样本视频行为识别方法 Download PDFInfo
- Publication number
- CN113807176B CN113807176B CN202110930711.9A CN202110930711A CN113807176B CN 113807176 B CN113807176 B CN 113807176B CN 202110930711 A CN202110930711 A CN 202110930711A CN 113807176 B CN113807176 B CN 113807176B
- Authority
- CN
- China
- Prior art keywords
- training
- samples
- sample
- propagation
- query
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 230000004927 fusion Effects 0.000 title claims abstract description 26
- 238000009826 distribution Methods 0.000 claims abstract description 47
- 238000012512 characterization method Methods 0.000 claims abstract description 46
- 230000006399 behavior Effects 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims description 192
- 230000000007 visual effect Effects 0.000 claims description 90
- 239000011159 matrix material Substances 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 8
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 230000000644 propagated effect Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 230000001902 propagating effect Effects 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 abstract description 20
- NVNSXBXKNMWKEJ-UHFFFAOYSA-N 5-[[5-(2-nitrophenyl)furan-2-yl]methylidene]-1,3-diphenyl-2-sulfanylidene-1,3-diazinane-4,6-dione Chemical compound [O-][N+](=O)C1=CC=CC=C1C(O1)=CC=C1C=C1C(=O)N(C=2C=CC=CC=2)C(=S)N(C=2C=CC=CC=2)C1=O NVNSXBXKNMWKEJ-UHFFFAOYSA-N 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 24
- 230000009471 action Effects 0.000 description 15
- 230000006872 improvement Effects 0.000 description 12
- 238000012795 verification Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 238000002679 ablation Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多知识融合的小样本视频行为识别方法,该方法首先提出多知识融合的思想,通过同时使用深度特征与流形特征,从而增加样本信息量,进而缓解小样本学习样本稀缺的问题。其次,本发明选择数据的流形分布特征,并提出使用表征传播对流形分布进行平滑操作,从而更好的缓解小样本学习中的域偏移与枢纽点问题。最后,为了减少模型的参数量与计算量,本发明基于2D方法构建模型,挖掘2D方法的潜力。在HMDB51和UCF101两个数据集上进行实验,结果表明,本发明方法在“5‑way 1‑shot”任务下表现突出,识别率优于现有的小样本视频行为识别方法,在HMDB51上提高了3.6%,在UCF101上提高了4.6%。
Description
技术领域
本发明涉及小样本视频行为识别方法,特别涉及基于2D方法与多知识融合的小样本视频行为识别方法。
背景技术
人工智能时代的来临,行为识别作为一项重要的基础技术,已经逐渐应用在智能家居、智能监控、人机交互等领域。如今随着通讯技术的发展,网络传输速度越来越快,网络视频用户规模也在逐年增加,视频创作者越来越多,直播行业也十分火热,行为识别技术将给这些领域带来便利,例如将行为识别技术应用到视频审核以及直播监管当中。此外,虚拟现实、自动驾驶等前沿技术也随着5G的应用得以进一步发展,这些技术的继续发展也少不了行为识别技术的支持。
传统的视频行为识别方法依赖大规模且强标记的视频数据集,但是这些视频数据集的获取需要花费大量的人力和物力,难度较大。在现实生活中,很多场景下的视频行为识别任务中带有标注的数据是明显不足的,例如安全领域。因此,如何降低视频行为识别对数据集的要求就显得尤为重要,基于小样本学习的视频行为识别的研究也随之应运而生。人类具有很强的知识迁移的能力,例如一个小孩在了解体育项目时,他只需要浏览几个视频就能区分跳远与跳高两种动作,这就是小样本学习在现实生活中的直观体现。近几年,图像方面的小样本学习研究有不少进展,但在视频方面,由于视频比图片多了时序信息,处理起来更为复杂困难,这给小样本视频行为识别提出了不小的挑战。
目前小样本视频行为识别中主要存在以下主要难点:信息量不足、域偏移与枢纽点问题。 (1)信息量不足问题,指的是小样本学习中的模型迁移到新的数据集时,可供学习的样本数量非常少,进而导致判别信息不足。(2)域偏移问题,是指在更换数据集或者数据模态后,会造成模型的认知偏差。(3)枢纽点问题,其描述是某个点会成为大多数点的最邻近点(即使这个点与其近邻点无关)。
针对小样本视频行为识别中的难点,研究人员从多个方面进行探究。以信息量不足问题为出发点,现有方法的策略是增加数据集样本数量和获取视频时序信息。(1)增加数据集样本数量,为了增加小样本学习中支持集中样本的数量,Fu8等人提出一种扩充数据集的办法,他们使用虚幻引擎(Unreal Engine)制作了一些标准的虚拟动作视频,通过将原视频帧序列中的部分帧替换成与之最相似的虚拟视频帧,从而生成新的视频帧序列,称之为“增强视频”,同时因为替换对象是标准的虚拟视频帧,新视频帧序列与标签的契合度得到了提升。(2)获取时序信息,首先是3D特征提取器的出现,通过同时对多张视频帧图像进行卷积操作提取视频数据中的时序特征,之后为了更加有效的利用是时序信息,出现了时序信息对齐与时序信息增强。此外,有的方法致力于提升模型的效率,旨在构建更为有效的映射模型,如CMN (Compound Memory Network,复合记忆网络),它是一种基于2D方法的模型,查询集样本将在记忆网络中搜索最邻近类别作为分类结果。
虽然以上方法在小样本视频行为识别上取得了一定的进展,但其方法仍存在不足之处。首先是增加数据集信息量的方法,尽管单个类别的信息总量得到了提升,但是存过过多的冗余信息,同时数据增强的效果也十分有限,真正得到增强的视频数量有限。其次,通过使用 3D特征提取器获取时序信息,模型的网络复杂度大大提升,且要面临巨大的计算压力和资源消耗。CMN使用的是2D特征提取器,极大减小了参数量与运算量,但样本数量少导致记忆网络中存储的类原型判别性较弱,从而影响分类精度。此外,不难发现以往的方法缺少对域偏移与枢纽点问题的关注。
发明内容
针对现有技术存在的上述问题,本发明的要解决的技术问题是:小样本视频行为识别中动作类表达能力弱和行为识别中错误分类和参数量与计算量很大的问题。
为解决上述技术问题,本发明采用如下技术方案:一种基于多知识融合的小样本视频行为识别方法,包括如下步骤:
S100:获取多段有标签的视频作为训练数据集Dtrain={(vi,ci),ci∈ctrain},vi表示第i个视频, ci表示第i个标签,ctrain表示训练类,紧接着对这些视频进行视频帧采样操作;
S200:构建识别模型,所述识别模型包括ResNet18-2D卷积神经网络,基于数据视觉特征的预测器和基于数据流形分布特征的预测器;
S300:识别模型的训练,针对训练类ctrain中的每个类选择同样数量的训练样本,设置训练阶段的耐心值阈值,训练阶段的耐心值初始值patience=0、初始化训练阶段的识别模型的参数和训练阶段的学习率阈值;
S310:特征提取器提取视频特征,使用ResNet18-2D卷积神经网络作为特征提取器,对训练集中的视频进行特征提取,得到每个训练样本对应的视觉特征;
S320:将每个训练样本对应的视觉特征输入基于数据视觉特征的预测器中进行分类,得到每个训练样本属于某一训练类的第一个预测得分,然后通过交叉熵损失函数得到每个训练样本的线性分类损失,所有训练样本的线性分类损失之和为LD;
将每个训练样本对应的视觉特征输入基于数据流形分布特征的预测器中进行分类,将每个训练样本对应的视觉特使用表征传播后再进行线性分类得到每个训练样本的属于某一训练类的第二个预测值得分,然后通过交叉熵损失函数得到每个训练样本的流形分类损失,所有训练样本的流形分类损失之和为LE;
S330:计算损失,训练阶段的总损失Ltrain=LD+LE,如果当前总损失大于以前训练阶段所有次迭代总损失的平均值,则patience=patience+1并执行下一步,否则令patience=0patience=0并执行下一步;
S340:如果patience达到训练阶段的耐心值阈值,则调整训练阶段的学习率;当训练阶段的学习率达到训练阶段的学习率阈值则得到训练好的识别模型并执行下一步,否则采用梯度下降法反向传播,更新识别模型的参数并返回S310继续训练;
S400:对训练好的识别模型进行微调,具体如下:
在训练数据集Dtrain中完成对支持集与查询集的采样,二者交集为空集,支持集中的样本称为支持样本,查询集中的样本称为查询样本;针对“N-way,K-shot”任务对训练好的识别模型进行微调,N表示训练类的个数,K表示每个类的样本个数;
预设查询集中每个类的样本个数;
以episode为单元进行训练,每个episode包括多个支持样本和多个查询样本,其中支持样本涵盖了N个类中的每个类,且每个类均选取K个训练样本,查询样本涵盖了N个类中的每个类,且每个类所选的查询样本数量相同;
使用ProtoNet分类器代替训练好的识别模型中的基于数据视觉特征的预测器,并给基于数据流形分布特征的预测流程增加标签传播操作,从而得到修订的识别模型;
设置微调阶段的耐心值阈值,微调阶段的耐心值初始值patience'=0,初始化训练阶段的学习率阈值;
S410:将每个episode中的所有支持样本和查询样本输入ResNet18-2D卷积神经网络进行特征提取,得到每个样本对应的视觉特征;
S420:将每个episode中的样本对应的视觉特征输入ProtoNet分类器中进行分类,得到每个查询样本属于N个类中某一类的第一个预测得分Pcls_proto;
将每个episode中的所有支持样本和查询样本对应的视觉特征输入基于数据的流形分布特征预测器中进行分类,每个episode中的所有支持样本和查询样本对应的视觉特征使用表征传播后得到表征传播特征,再对表征传播特征使用线性分类进行分类,得到每个查询样本属于N个类中某一类的第二个预测得分;然后通过交叉熵损失函数得到每个查询样本的流形分类损失,所有查询样本的流形分类损失之和为L'E;
将每个episode中的所有支持样本和查询样本对应的表征传播特征进行标签传播得到每个查询样本属于N个类中某一类的第三个预测得分Pcls_lab;
每个查询样本的总预测分数Ptotal是Pcls_proto和Pcls_lab的加权之和,再通过交叉熵损失函数计算每个查询样本的微调分类损失Lfusion;
S430:计算损失,微调阶段的总损失Lfinetune等于Lfusion和L'E加权之和,如果当前总损失大于以前微调阶段所有次迭代总损失的平均值,则patience'=patience'+1并执行下一步,否则令 patience'=0并执行下一步;
S440:如果patience'达到微调阶段的耐心值阈值,则调整微调阶段的学习率;当微调阶段的学习率达到微调阶段的学习率阈值则得到最终识别模型并执行下一步,否则采用随机梯度下降法反向传播,更新修订的识别模型的参数并返回S310继续微调;
S500:预测,将一段待预测视频,输入最终识别模型中的ResNet18-2D卷积神经网络进行特征提取,得到待预测视频对应的视觉特征;
将待预测视频的视觉特征输入最终识别模型中ProtoNet分类器中行分类,得到该待预测视频属于每一类的第一个得分;
将待预测视频的视觉特征输入最终识别模型中流形数据分布分类器中,得到该待预测视频属于每一类的第二个得分;
将该待预测视频属于每一类的第一个得分和第二个得分进行加权求和得到该待预测视频属于每一类的最终得分,按照得分由大到小排序并输出。
作为改进,所述S320中基于数据的流形分布特征预测器中的对每个训练样本对应的视觉特使用表征传播的过程如下:
输入是每个训练样本经特征提取器所获得的视觉特征fi表示第i个训练样本的视觉特征,/>表示M维的视觉特征;在传播的第一步就是计算所有的视觉特征对之间的欧式距离,将一个特征对用(i,j)表示,两者之间的欧式距离为dij=||fi-fj||,然后计算Aij=exp(dij 2/σ),其中σ是一个缩放因子,定义为/>σ就是dij 2的标准差;
接下来需要计算的是所有训练样本的拉普拉斯矩阵L:
A表示所有训练样本的邻接矩阵,D表示所有训练样本的对角矩阵,Dii表示第i行第i 列,Aij表示邻接矩阵的第i行第j列,E表示当前迭代中训练样本的总数;
最后通过经典的标签传播矩阵,标签传播矩阵可以表示为:
P=(I-αL-1) (5)
其中α是缩放因子,I是身份矩阵,身份矩阵就是对角线的值为1的矩阵,对应的就是节点自身对自身的影响力,所以,表征传播过程用公式(6)表示:
其中,表示的就是第i个训练样本的所有“邻居”的加权和,经过表征传播后,所有的训练样本的特征都实现为其“邻居”的特征加权表示,Pij表示传播矩阵P的第i行第j列。
作为改进,所述S320使用基于数据视觉特征的预测器后得到的预测分数为每次迭代损失计算方法参见公式(3):
当Lcls=LD时,pc取每个训练样本的属于某一训练类的第一个预测得分,yc为符号函数,如果样本的真实类等于c取1,否则取0,C表示训练类的个数;
当Lcls=LE时,pc取每个训练样本的属于某一训练类的第二个预测得分,yc为符号函数,如果样本的真实类等于c取1,否则取0,C表示训练类的个数。
作为改进,所述S420中将每个episode中的所有支持样本和查询样本对应的视觉特征输入基于数据的流形分布特征预测器中进行分类,每个episode中的所有支持样本和查询样本对应的视觉特征使用表征传播的方法与S320中对每个训练样本对应的视觉特使用表征传播的方法相同。
作为改进,所述S420中将每个episode中的所有支持样本和查询样本对应的视觉特征输入基于数据的流形分布特征预测器中进行分类,每个episode中的所有支持样本和查询样本对应的表征传播特征使用标签传播的方法如下:
每个episode中经过表征传播后获得的所有支持样本和查询样本对应的特征集合,表示为其中,k表示支持样本的个数q表示查询样本的个数m表示经过表征传播后单个特征的维度,然后计算/>对应的邻接矩阵A',计算方法同S320中训练样本邻接矩阵的计算方法进而计算/>对应的拉普拉斯矩阵L',使用经典的标签传播公式得到传播矩阵P';
对支持集中的支持样本的标签进行独热编码,得到编码结果矩阵Ys,其中k=K, n=N,同时对查询集中的查询样本建立对应的零矩阵/>q表示查询集样本个数,然后将Ys和Yq二者并联得到矩阵/>最后对Y进行标签传播,如公式(7):
最终可以得到查询集中每个查询样本标签的传播结果集合
其中,表示第i个查询样本的标签经过标签传播后的传播结果,/>表示传播矩阵P'的第i行第j列,Yj表示第j个查询样本的标签。
作为改进,所述S420所有微调样本的标签传播分类损失之和为L'E的计算方法使用公式(3),此时Lcls=L'E,pc取每个微调样本属于某一训练类的第二个预测得分,C表示训练类的个数。
作为改进,所述S420中每个微调样本的总预测分数Ptotal采用公式(8)计算:
其中α与β分别表示权重。
作为改进,所述S430微调阶段的总损失Lfinetune的计算方法如公式(9):
其中C表示episode中训练类的个数,C=N,γ表示权重。
相对于现有技术,本发明至少具有如下优点:
本发明摒弃表示能力弱的初级知识和解释性弱且存在多义性的外部知识,选用表达能力强且广泛应用的抽象知识,具体为深度视觉特征和流形特征。深度视觉特征能很好的反应数据的本质特征,但会损失部分的分布信息,因此同时选用了数据的流形特征,其中流形正则化项能有效保持数据的结构,保留更多的数据信息,从而缓解域偏移与枢纽点问题。以上两种知识之间的信息重复度低,通过对二者进行融合,支持集样本中单个类别的信息总量得到有效的提升,较好的缓解了小样本学习中判别信息不足的问题。深度视觉特征与流形特征的优势各不相同,二者融合后能达到优势互补、相辅相成的效果,其中流形特征对与缓解小样本学习中的域偏移与枢纽点问题尤为有效。
多知识融合的具体操作是将深度特征与流形特征分别对应的标签预测分数进行加权求和,从而得到最终的标签预测分数。
附图说明
图1为本发明方法的原理框架图。
图2为本发明方法中表征传播的原理示意图。
图3为本发明方法中标签传播的原理示意图。
图4为本发明方法中识别模型的训练过程图。
图5为本发明方法中识别模型的微调过程图。
图6为实验分析阶段使用不同权重分配融合后对应的预测结果。
图7为实验分析阶段不同权重分配下测试集中所有类的分类准确率。
具体实施方式
下面对本发明作进一步详细说明。
本发明的模型整体框架如图1所示,该模型分为训练阶段、微调阶段和测试阶段。在对查询集样本进行标签预测时,首先由特征提取器提取视频特征,该模型中特征提取模块中使用了2D特征提取器,以达到减小计算量的目的。在完成特征提取操作之后,模型开始分为两个分支,其中一个是基于深度视觉特征的预测,该分支直接对视觉特征使用分类器得到预测分数,另一个分支则是基于数据的流形分布的预测,其对特征使用表征传播与标签传播以获取预测分数,然后对以上两个预测分数进行加权求和以完成知识融合,从而获得最终的预测分数。在基于数据的流形分布的预测分支上,表征传播完成对数据间流形结构的平滑,获得表征传播特征,再基于此特征使用标签传播,经过以上操作能更好的缓解域偏移与枢纽点问题,从而获得泛化能力更强的模型。
首先将数据集的类别划分为三部分,分别是训练类ctrain、验证类cval和测试类ctest,其对应有训练数据集Dtrain={(vi,ci),ci∈ctrain}、验证数据集Dval={(vi,ci),ci∈cval}以及测试数据集Dtest={(vi,ci),ci∈ctest}。识别算法在Dtrain上进行训练,在Dval上进行验证,最后在Dtest上完成测试,其中验证集是为了知晓模型在训练过程中的性能,进而调整模型的一些参数,而测试集则用来评估模型的最终性能。需要注意的是以上三个数据集两两之间交集均为空集。在小样本学习中,定义episode为训练单位,它包含支持集和查询集,而小样本指的就是支持集样本少。小样本学习中的N-way K-shot指的就是支持集有N个类以及每个类有K个样本,在进行测试的时候,这N个类对于模型来说是全新的类,模型需要依靠支持集中这N×K个样本完成对查询集样本归属类别的预测。
本发明对标签进行预测的时候,使用了多分类线性分类器和ProtoNet分类器。其中 ProtoNet分类器是基于欧氏距离的一种度量学习方法,其思想是将一个类用一个“代表”表示,称之为类原型,类原型为该类所有样本特征的均值。假设类为c的N个视频提取到的视频特征为于是类原型应该表示为:
给定一个查询样本q,它被预测为类别c的概率的计算公式为:
通过与所有类原型之间计算概率值,最后取最大概率值对应的类为样本q的预测类。
一种基于多知识融合的小样本视频行为识别方法,包括如下步骤:
S100:获取多段有标签的视频作为训练数据集Dtrain={(vi,ci),ci∈ctrain},vi表示第i个视频, ci表示第i个标签,ctrain表示训练类,紧接着对这些视频进行视频帧采样操作;
S200:构建识别模型,所述识别模型包括ResNet18-2D卷积神经网络,基于数据视觉特征的预测器和基于数据流形分布特征的预测器;
S300:识别模型的训练,针对训练类ctrain中的每个类选择同样数量的训练样本,设置训练阶段的耐心值阈值,训练阶段的耐心值初始值patience=0、初始化训练阶段的识别模型的参数和训练阶段的学习率阈值;
S310:特征提取器提取视频特征,使用ResNet18-2D卷积神经网络作为特征提取器,对训练集中的视频进行特征提取,得到每个训练样本对应的视觉特征;
S320:将每个训练样本对应的视觉特征输入基于数据视觉特征的预测器中进行分类,得到每个训练样本属于某一训练类的第一个预测得分,然后通过交叉熵损失函数得到每个训练样本的线性分类损失,所有训练样本的线性分类损失之和为LD。
将每个训练样本对应的视觉特征输入基于数据流形分布特征的预测器中进行分类,将每个训练样本对应的视觉特使用表征传播后再进行线性分类得到每个训练样本的属于某一训练类的第二个预测值得分,然后通过交叉熵损失函数得到每个训练样本的流形分类损失,所有训练样本的流形分类损失之和为LE;表征传播主要是平滑视频特征之间流形结构同时生成表征传播特征,而标签传播则是根据表征传播特征完成标签预测。二者的使用可以缓解小样本学习中的域偏移与枢纽点问题。
S330:计算损失,训练阶段的总损失Ltrain=LD+LE,如果当前总损失大于以前训练阶段所有次迭代总损失的平均值,则patience=patience+1并执行下一步,否则令patience=0patience=0并执行下一步。
S340:如果patience达到训练阶段的耐心值阈值,则调整训练阶段的学习率;当训练阶段的学习率达到训练阶段的学习率阈值则得到训练好的识别模型并执行下一步,否则采用梯度下降法反向传播,更新识别模型的参数并返回S310继续训练;学习率的调整方法可以是现有的任何方法,例如每次学习率下降为原来的1/10。
经过训练阶段后得到的模型还不够完善,因此设计了一个针对小样本学习任务“N-way, K-shot”的微调阶段,目的是让模型小样本学习的模式,以获得更好的泛化性能。在此阶段是以episode为单位进行训练,当中包含的查询集样本标签是未知的,为了更好的进行标签预测,将训练阶段使用的基于深度视觉特征的线性分类器替换成ProtoNet分类器。在流形的数据分布分支上也加入了标签传播,这些都是为了更好的对小样本学习中的查询集样本进行预测,所以说此阶段是针对小样本学习任务进行的适应性调整。微调阶段训练过程对应的网络如图 5所示,首先使用特征提取器获得深度特征,然后对特征直接使用ProtoNet分类器得到查询集的预测分数Pcls_proto,另一分支上对特征使用表征传播和标签传播得到预测分数Pcls_lab,两者加权相加得到最终预测分数Ptotal,进而得到分类损失Lfusion,微调阶段的总损失Lfinetune还需要加上对表征传播特征使用线性分类器获得的交叉熵分类损失LE赋予权重γ。该阶段的验证和测试流程与训练阶段相同,不同的地方在于微调阶段在训练时增加了一个损失,即对表征传播特征使用线性分类器得到的分类损失。
S400:对训练好的识别模型进行微调,获取多段无标签的视频构成查询集。
在训练数据集Dtrain中完成对支持集与查询集的采样,二者交集为空集,支持集中的样本称为支持样本,查询集中的样本称为查询样本;针对“N-way,K-shot”任务对训练好的识别模型进行微调,N表示训练类的个数,K表示每个类的样本个数。
预设查询集中每个类的样本个数;
以episode为单元进行训练,每个episode包括多个支持样本和多个查询样本,其中支持样本涵盖了N个类中的每个类,且每个类均选取K个训练样本,查询样本涵盖了N个类中的每个类,且每个类所选的查询样本数量相同。
使用ProtoNet分类器代替训练好的识别模型中的基于数据视觉特征的预测器,并给基于数据流形分布特征的预测流程增加标签传播操作,从而得到修订的识别模型;
设置微调阶段的耐心值阈值,微调阶段的耐心值初始值patience'=0,初始化训练阶段的学习率阈值。
S410:将每个episode中的所有支持样本和查询样本输入ResNet18-2D卷积神经网络进行特征提取,得到每个样本对应的视觉特征;
S420:将每个episode中的样本对应的视觉特征输入ProtoNet分类器中进行分类,得到每个查询样本属于N个类中某一类的第一个预测得分Pcls_proto;
将每个episode中的所有支持样本和查询样本对应的视觉特征输入基于数据的流形分布特征预测器中进行分类,每个episode中的所有支持样本和查询样本对应的视觉特征使用表征传播后得到表征传播特征,再对表征传播特征使用线性分类进行分类,得到每个查询样本属于N个类中某一类的第二个预测得分;然后通过交叉熵损失函数得到每个查询样本的流形分类损失,所有查询样本的流形分类损失之和为L'E;
将每个episode中的所有支持样本和查询样本对应的表征传播特征进行标签传播得到每个查询样本属于N个类中某一类的第三个预测得分Pcls_lab;
每个查询样本的总预测分数Ptotal是Pcls_proto和Pcls_lab的加权之和,再通过交叉熵损失函数计算每个查询样本的微调分类损失Lfusion;
S430:计算损失,微调阶段的总损失Lfinetune等于Lfusion和L'E加权之和,如果当前总损失大于以前微调阶段所有次迭代总损失的平均值,则patience'=patience'+1并执行下一步,否则令 patience'=0并执行下一步。
S440:如果patience'达到微调阶段的耐心值阈值,则调整微调阶段的学习率;当微调阶段的学习率达到微调阶段的学习率阈值则得到最终识别模型并执行下一步,否则采用随机梯度下降法反向传播,更新修订的识别模型的参数并返回S310继续微调。
S600:预测,将一段待预测视频,输入最终识别模型中的ResNet18-2D卷积神经网络进行特征提取,得到待预测视频对应的视觉特征;
将待预测视频的视觉特征输入最终识别模型中ProtoNet分类器中行分类,得到该待预测视频属于每一类的第一个得分;
将待预测视频的视觉特征输入最终识别模型中流形数据分布分类器中,得到该待预测视频属于每一类的第二个得分;
将该待预测视频属于每一类的第一个得分和第二个得分进行加权求和得到该待预测视频属于每一类的最终得分,按照得分由大到小排序并输出。
作为改进,所述S320中基于数据的流形分布特征预测器中的对每个训练样本对应的视觉特使用表征传播的过程如下:
输入是每个训练样本经特征提取器所获得的视觉特征fi表示第i个训练样本的视觉特征,/>表示M维的视觉特征;在传播的第一步就是计算所有的视觉特征对之间的欧式距离,将一个特征对用(i,j)表示,两者之间的欧式距离为dij=||fi-fj||,然后计算Aij=exp(dij 2/σ),其中σ是一个缩放因子,定义为/>σ就是dij 2的标准差;
接下来需要计算的是所有训练样本的拉普拉斯矩阵L:
A表示所有训练样本的邻接矩阵,D表示所有训练样本的对角矩阵,Dii表示第i行第i 列,在矩阵D中,Dii为A的第i行所有列对于的数据的和,其他项都为0,Aij表示邻接矩阵的第i行第j列,E表示当前迭代中训练样本的总数。最后通过经典的标签传播矩阵,标签传播矩阵可以表示为:
P=(I-αL-1) (5)
其中α是缩放因子,I是身份矩阵,身份矩阵就是对角线的值为1的矩阵,对应的就是节点自身对自身的影响力,所以,表征传播过程用公式(6)表示:
其中,表示的就是第i个训练样本的所有“邻居”的加权和,经过表征传播后,所有的训练样本的特征都实现为其“邻居”的特征加权表示,Pij表示传播矩阵P的第i行第j列。联系“紧密”的邻居节点的权重就高一些,关系不密切的邻居权重就低。以上操作在小样本学习中实现后的计算复杂度不算高;图2中展示了表征传播的传播过程,图2中一个节点代表一个样本。
作为改进,所述S320使用基于数据视觉特征的预测器后得到的预测分数为每次迭代损失计算方法参见公式(3):
当Lcls=LD时,pc取每个训练样本的属于某一训练类的第一个预测得分,yc为符号函数(取值为0或1),如果样本的真实类等于c取1,否则取0,C表示训练类的个数;
当Lcls=LE时,pc取每个训练样本的属于某一训练类的第二个预测得分,yc为符号函数 (取值为0或1),如果样本的真实类等于c取1,否则取0,C表示训练类的个数。
作为改进,所述S420中将每个episode中的所有支持样本和查询样本对应的视觉特征输入基于数据的流形分布特征预测器中进行分类,每个episode中的所有支持样本和查询样本对应的视觉特征使用表征传播的方法与S320中对每个训练样本对应的视觉特使用表征传播的方法相同。
作为改进,所述S420中将每个episode中的所有支持样本和查询样本对应的视觉特征输入基于数据的流形分布特征预测器中进行分类,每个episode中的所有支持样本和查询样本对应的表征传播特征使用标签传播的方法如下:
不同于表征传播,标签传播的对象由特征变成了样本标签,而且标签传播是在表征传播的基础上的再传播。在标签传播进行之前,依旧先由特征提取器获得特征,再将这些视频特征进行表征传播,然后才是标签传播。
每个episode中经过表征传播后获得的所有支持样本和查询样本对应的特征集合,表示为其中,k表示支持样本的个数q表示查询样本的个数m表示经过表征传播后单个特征的维度,然后计算/>对应的邻接矩阵A',计算方法同S320中训练样本邻接矩阵的计算方法进而计算/>对应的拉普拉斯矩阵L',使用经典的标签传播公式得到传播矩阵P';
对支持集中的支持样本的标签进行独热编码(One-Hot Encoding)【所述独热编码是一种现有技术】,得到编码结果矩阵Ys,其中k=K,n=N,同时对查询集中的查询样本建立对应的零矩阵/>q表示查询集样本个数,零矩阵的维度q×n,,然后将Ys和Yq二者并联得到矩阵/>最后对Y进行标签传播,如公式(7):
最终可以得到查询集中每个查询样本标签的传播结果集合
其中,表示第i个查询样本的标签经过标签传播后的传播结果,/>表示传播矩阵P'的第i行第j列,Yj表示第j个查询样本的标签。
标签传播的示意图如图3所示,图中非白色的几何图形即代表有标签的支持集数据样本,而白色的几何图形则表示未带标签的查询集样本。经过标签传播,从示意图不难看出所有标签的颜色变为了“彩色”,意思是它们的标签被表示为其他样本标签的加权和,其中不同的颜色对应不同的类标签,随后将查询集样本标签被预测为占比最大的颜色对应的类标签,也就是各个类的累加预测分数中的最高值对应的类标签。在图3中,一个节点代表一个样本。
作为改进,所述S420所有微调样本的标签传播分类损失之和为L'E的计算方法使用公式 (3),此时Lcls=L'E,pc取每个微调样本属于某一训练类的第二个预测得分,C表示训练类的个数。
作为改进,所述S420中每个微调样本的总预测分数Ptotal采用公式(8)计算:
其中α与β分别表示权重。
作为改进,所述S430微调阶段的总损失Lfinetune的计算方法如公式(9):
其中C表示episode中训练类的个数,C=N,γ表示权重。
实验与评估
本发明方法使用的数据集是HMDB51和UCF101。HMDB51数据集由51个动作类的6849个视频组成,每个动作类至少包含101个视频,视频主要来源是电影作品。该数据集中数据的变化主要体现在目标外观和人体姿态方面,其包含的动作主要分为五类:一般面部动作、有操作对象的面部动作、一般的身体动作、人与人交互的动作和人与对象交互的动作。本发明将该数据集划分为训练集、验证集和测试集三部分,这三部分各自包含31、10和10个动作类。
UCF101是从YouTube收集的包含101个动作类的视频数据集。该数据集追求视频动作的真实性,每个动作类中的视频都由25组人完成,每组人完成4至7个视频,同时每组人完成的视频内容在相机运动、目标姿势与变化、物体大小、视角、背景纯净度、光照等方面存在很大的差异,数据集共13320个视频,分辨率均为320×240。同样该数据集被划分为训练集、验证集和测试集三部分,每部分含有70、10以及21个动作类。
识别模型中使用ResNet18网络作为特征提取器,进行特征提取的时候,输入的一个视频经采样后由16帧的RGB图像代替,然后将每一帧图片都重新裁剪为224×224大小,并且对视频帧图片采取了50%概率的水平方向的随机翻转策略。
在识别模型的训练阶段的训练过程中,批处理大小被设置为16,训练、验证流程都迭代 100次。在微调阶段,针对1-shot和5-shot两种情形对模型进行微调,因为此时模型是基于 episode进行训练的,batch-size为1,训练和验证过程的迭代次数设置为100和200。实验中融合深度特征与数据的流形分布进行预测的时候,深度特征对应预测分数占比为α=0.4,流形的数据分布对应的预测分数占比为β=0.6。在模型进行微调的时候,微调损失函数中表征传播特征对应的分类损失L'E权重γ=0.1。在学习率的设置上,训练阶段和微调阶段的初始学习率都是0.01,然后设置一个参数patience,当模型在验证集上计算得到的损失值连续patience 次小于之前所有的验证损失的平均值时,学习率衰减一次,同时也设置了学习率的最小值,当学习率衰减了4次之后就结束训练过程。实验中使用的是梯度下降算法是随机梯度下降。
评估标准
本发明在对小样本学习结果进行评估的时候,使用了N-way K-shot这一概念,具体来说,使用的是目前主流的两种评估方案,即5-way 1-shot和5-way 5-shot。以上提到的两种方案都是从测试集数据中取5个类的数据作为支持集,之后分一个类取1个样本和一个类取5个样本两种情形。除了支持集,还需要选取查询集,其类别应与支持集一致且其中的样本与查询集不重复,本发明在每个类中选取10个查询样本。最后由支持集和查询集组成一个episode 进行模型性能评估。
在最后计算查询集预测结果的时候,本发明使用准确率这一判定标准,同时进行200次的重复实验取平均值以及95%置信度区间。
实验结果
实验时针对小样本学习中的“5-way 1-shot”和“5-way 5-shot”任务进行测试,表1和表2分别展示了现有的小样本视频行为识别方法以及本发明方法在HMDB51和UCF101数据集上的测试结果。从表中的统计结果不难发现,以往的模型均是基于3D方法的,这能让特征提取器获取更多时间维度上的信息,而基于2D方法的特征提取器对时间维度的信息没有那么敏感,但本发明基于2D方法的特征提取器构建小样本视频行为识别模型,同样拥有先进的性能。同时因为使用的方法是基于2D的,本发明提出的模型的参数量以及计算量都会有大幅度的减少,最终以较低的资源消耗代价获得了十分不错的性能表现,尤其是在1-shot的情况下,本发明方法对分类准确率的提升尤为明显,与现有的方法相比,在HMDB51数据集上提升了3.6%,在UCF101数据集上提升了4.6%,而在5-shot的情况下,本发明方法与以往的3D方法相比也毫不逊色,性能表现基本持平甚至略高。
I3D表示:双流膨胀3D卷积神经网络(Two-Stream Inflated 3D ConvNets)。
I3D+TSF表示:在I3D的基础上使用“Temporal Structure Filter”(时间结构滤波器)。
GenApp表示:Generative Approach,针对零样本与小样本行为识别提出一种“生成方法”,使用概率分布对每个动作类进行建模。
ProtoGAN表示:使用了“类原型迁移网络(prototype transfer network)”+“条件对抗生成网络(CGAN)”。
I3D+SLDG表示:I3D+“Short-Long Dynamic Gaussian”(长短动态高斯”),其亮点是可以接受所有的视频帧作为输入,然后用注意力机制进行融合。
ARN表示:few-shot Action Relation Network(小样本行为关系网络),其使用了C3D特征提取器,并使用了时空注意力机制以及关系网络,此外还使用了自监督学习机制,包括时序拼接、空间拼接和旋转。
表1本发明方法与现有方法在HMDB51上测试结果对比
表2本发明方法与现有方法在UCF101上测试结果对比
消融实验
为了更加深入的研究本发明提出的模型,本节将介绍一系列的消融实验的结果。评估标准是训练阶段结束后得到的模型的性能,因为微调阶段本身是为了让模型更适应小样本学习,提高模型的稳定性,而且通过实验发现,其对于模型在测试集上的最终性能的提升也比较有限。为了验证评估标准的合理性,本发明在HMDB51和UCF101数据集中进行了实验,如表3 所示,在训练阶段完成后以及针对5-shot进行微调后将模型性能进行测试,可以发现在验证集和测试集上的分类精度的提升都比较小,不难发现通过了解模型在完成训练阶段的训练流程之后的性能,基本可以预见模型的最终性能表现。所以在消融实验的时候,只比较模型完成训练阶段之后的性能即可,同时本发明在HMDB51数据集上进行消融实验。
表3训练阶段与微调阶段结束后模型分类准确率
本发明方法同时使用了深度特征与数据的流形分布特征,通过对二者对应的标签预测分数进行加权求和得到了全新的预测分数,在使用合理的权重分配方案后,该预测分数具有更强的判别性。为了证明模型中选取的权重分配方案是最合适的,在消融实验中进行了各种不同的权重组合的实验,同时保证两者的权重值相加始终为1,然后从0至1之间选取流形分布的对应权重进行实验,相反基于深度视觉特征对应的预测分数的权重的取值则是从1到0。实验结果如图6所示,从图中可以看出,本发明提出的模型在深度特征权重α=0.4和流形分布特征权重β=0.6的性能是最好的,而且当β=1.0的时候,表示只考虑了数据的流形分布特征,其表现不如分配了一定权重给深度视觉特征对应的结果,在β=0的时候,单独使用深度视觉特征的结果也是不如两者融合后的分类结果。可见,这两种形式的知识经过合理的权重分配可以达到相辅相成的效果,形成优势互补,两者在α=0.4、β=0.6处达到一种平衡状态,以此情况为分界线,流形分布和深度视觉特征的权重不管是增加还是减少,模型的性能都呈下降趋势。此外,还测试了α分别为0、0.6以及1的时模型在测试集中10个动作类的具体分类性能表现,结果如图7所示,从图中可以看出,当α为0.6的时候,模型在5个动作类上取得了最佳分类效果,在4个动作类上虽然效果不是最佳,但都在朝最佳结果靠拢,较最差结果有明显提升,仅在1个类上取得了最差结果,但此时与更好的结果相比落后非常小,三者基本持平。通过以上实验,可以发现将深度视觉特征与数据的流形分布特征进行合理的融合后,增加判别信息的同时,二者能互相影响,相互促进,进而实现良好的小样本视频行为分类性能。
分类器
在模型进行验证与预测的时候,需要根据深度视觉特征进行分类,此时就涉及到了分类器的选择,不同选择对于模型的性能自然会有影响,本发明选择使用KNN、SVM以及ProtoNet 这三种分类器进行对比,评估标准是模型在训练阶段中在测试集上的性能表现,实验结果如表4所示,首先是在验证集结果最佳的情况下,此时观察模型在测试集上的性能,从表中可以看到ProtoNet分类器取得了最佳的分类效果。此外,在整个训练阶段过程中,观察模型在测试集上的最好表现,也是ProtoNet分类器取得最佳性能。
表4不同分类器测试结果
平滑流形结构
为了验证模型中表征传播对流形结构的平滑操作能提升模型的性能,本发明进行了对比实验,即在深度特征权重为0.4和流形特征权重为0.6的时候,取消使用表征传播,对特征提取器获取的特征直接使用标签传播获取标签预测值。注意,取消使用表征传播时模型的训练阶段的损失只剩下了直接对深度视觉特征使用线性分类器得到的分类损失LD,与使用标签传播的结果对比如表5所示,从表中不难看出使用表征传播后提升了模型的性能,表征传播是有效的。
表5是否使用表征传播结果对比
本发明提出了一种有效的多知识融合方法。本发明方法使用深度视觉特征与数据的流形分布特征两种知识进行标签预测,通过增加判别信息来缓解小样本学习中信息量不足的问题,同时数据的流形分布还能缓解域偏移与枢纽点问题。通过在HMDB51和UCF101数据集上进行实验验证,证明本发明方法在小样本视频行为识别中的有效性。消融实验中,证明了多知识融合思想的有效性,同时经过多次融合实验寻求最佳权重分配方案,实验中也对分类器进行了筛选,选择最适合该模型的分类器,实验还证明了模型中的表征传播操作对于提升模型性能的有效性。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (8)
1.一种基于多知识融合的小样本视频行为识别方法,其特征在于,包括如下步骤:
S100:获取多段有标签的视频作为训练数据集Dtrain={(vi,ci),ci∈ctrain},vi表示第i个视频,ci表示第i个标签,ctrain表示训练类,紧接着对这些视频进行视频帧采样操作;
S200:构建识别模型,所述识别模型包括ResNet18-2D卷积神经网络,基于数据视觉特征的预测器和基于数据流形分布特征的预测器;
S300:识别模型的训练,针对训练类ctrain中的每个类选择同样数量的训练样本,设置训练阶段的耐心值阈值,训练阶段的耐心值初始值patience=0、初始化训练阶段的识别模型的参数和训练阶段的学习率阈值;
S310:特征提取器提取视频特征,使用ResNet18-2D卷积神经网络作为特征提取器,对训练集中的视频进行特征提取,得到每个训练样本对应的视觉特征;
S320:将每个训练样本对应的视觉特征输入基于数据视觉特征的预测器中进行分类,得到每个训练样本属于某一训练类的第一个预测得分,然后通过交叉熵损失函数得到每个训练样本的线性分类损失,所有训练样本的线性分类损失之和为LD;
将每个训练样本对应的视觉特征输入基于数据流形分布特征的预测器中进行分类,将每个训练样本对应的视觉特使用表征传播后再进行线性分类得到每个训练样本的属于某一训练类的第二个预测值得分,然后通过交叉熵损失函数得到每个训练样本的流形分类损失,所有训练样本的流形分类损失之和为LE;
S330:计算损失,训练阶段的总损失Ltrain=LD+LE,如果当前总损失大于以前训练阶段所有次迭代总损失的平均值,则patience=patience+1并执行下一步,否则令patience=0patience=0并执行下一步;
S340:如果patience达到训练阶段的耐心值阈值,则调整训练阶段的学习率;当训练阶段的学习率达到训练阶段的学习率阈值则得到训练好的识别模型并执行下一步,否则采用梯度下降法反向传播,更新识别模型的参数并返回S310继续训练;
S400:对训练好的识别模型进行微调,具体如下:
在训练数据集Dtrain中完成对支持集与查询集的采样,二者交集为空集,支持集中的样本称为支持样本,查询集中的样本称为查询样本;针对“N-way,K-shot”任务对训练好的识别模型进行微调,N表示训练类的个数,K表示每个类的样本个数;
预设查询集中每个类的样本个数;
以episode为单元进行训练,每个episode包括多个支持样本和多个查询样本,其中支持样本涵盖了N个类中的每个类,且每个类均选取K个训练样本,查询样本涵盖了N个类中的每个类,且每个类所选的查询样本数量相同;
使用ProtoNet分类器代替训练好的识别模型中的基于数据视觉特征的预测器,并给基于数据流形分布特征的预测流程增加标签传播操作,从而得到修订的识别模型;
设置微调阶段的耐心值阈值,微调阶段的耐心值初始值patience'=0,初始化训练阶段的学习率阈值;
S410:将每个episode中的所有支持样本和查询样本输入ResNet18-2D卷积神经网络进行特征提取,得到每个样本对应的视觉特征;
S420:将每个episode中的样本对应的视觉特征输入ProtoNet分类器中进行分类,得到每个查询样本属于N个类中某一类的第一个预测得分Pcls_proto;
将每个episode中的所有支持样本和查询样本对应的视觉特征输入基于数据的流形分布特征预测器中进行分类,每个episode中的所有支持样本和查询样本对应的视觉特征使用表征传播后得到表征传播特征,再对表征传播特征使用线性分类进行分类,得到每个查询样本属于N个类中某一类的第二个预测得分;然后通过交叉熵损失函数得到每个查询样本的流形分类损失,所有查询样本的流形分类损失之和为L'E;
将每个episode中的所有支持样本和查询样本对应的表征传播特征进行标签传播得到每个查询样本属于N个类中某一类的第三个预测得分Pcls_lab;
每个查询样本的总预测分数Ptotal是Pcls_proto和Pcls_lab的加权之和,再通过交叉熵损失函数计算每个查询样本的微调分类损失Lfusion;
S430:计算损失,微调阶段的总损失Lfinetune等于Lfusion和L'E加权之和,如果当前总损失大于以前微调阶段所有次迭代总损失的平均值,则patience'=patience'+1并执行下一步,否则令patience'=0并执行下一步;
S440:如果patience'达到微调阶段的耐心值阈值,则调整微调阶段的学习率;当微调阶段的学习率达到微调阶段的学习率阈值则得到最终识别模型并执行下一步,否则采用随机梯度下降法反向传播,更新修订的识别模型的参数并返回S310继续微调;
S500:预测,将一段待预测视频,输入最终识别模型中的ResNet18-2D卷积神经网络进行特征提取,得到待预测视频对应的视觉特征;
将待预测视频的视觉特征输入最终识别模型中ProtoNet分类器中行分类,得到该待预测视频属于每一类的第一个得分;
将待预测视频的视觉特征输入最终识别模型中流形数据分布分类器中,得到该待预测视频属于每一类的第二个得分;
将该待预测视频属于每一类的第一个得分和第二个得分进行加权求和得到该待预测视频属于每一类的最终得分,按照得分由大到小排序并输出。
2.如权利要求1所述的一种基于多知识融合的小样本视频行为识别方法,其特征在于,所述S320中基于数据的流形分布特征预测器中的对每个训练样本对应的视觉特使用表征传播的过程如下:
输入是每个训练样本经特征提取器所获得的视觉特征fi表示第i个训练样本的视觉特征,/>表示M维的视觉特征;在传播的第一步就是计算所有的视觉特征对之间的欧式距离,将一个特征对用(i,j)表示,两者之间的欧式距离为dij=||fi-fj||,然后计算Aij=exp(dij 2/σ),其中σ是一个缩放因子,定义为/>σ就是dij 2的标准差;
接下来需要计算的是所有训练样本的拉普拉斯矩阵L:
A表示所有训练样本的邻接矩阵,D表示所有训练样本的对角矩阵,Dii表示第i行第i列,Aij表示邻接矩阵的第i行第j列,E表示当前迭代中训练样本的总数;
最后通过经典的标签传播矩阵,标签传播矩阵可以表示为:
P=(I-αL-1) (5)
其中α是缩放因子,I是身份矩阵,身份矩阵就是对角线的值为1的矩阵,对应的就是节点自身对自身的影响力,所以,表征传播过程用公式(6)表示:
其中,表示的就是第i个训练样本的所有“邻居”的加权和,经过表征传播后,所有的训练样本的特征都实现为其“邻居”的特征加权表示,Pij表示传播矩阵P的第i行第j列。
3.如权利要求2所述的一种基于多知识融合的小样本视频行为识别方法,其特征在于,所述S320使用基于数据视觉特征的预测器后得到的预测分数为每次迭代损失计算方法参见公式(3):
当Lcls=LD时,pc取每个训练样本的属于某一训练类的第一个预测得分,yc为符号函数,如果样本的真实类等于c取1,否则取0,C表示训练类的个数;
当Lcls=LE时,pc取每个训练样本的属于某一训练类的第二个预测得分,yc为符号函数,如果样本的真实类等于c取1,否则取0,C表示训练类的个数。
4.如权利要求3所述的一种基于多知识融合的小样本视频行为识别方法,其特征在于,所述S420中将每个episode中的所有支持样本和查询样本对应的视觉特征输入基于数据的流形分布特征预测器中进行分类,每个episode中的所有支持样本和查询样本对应的视觉特征使用表征传播的方法与S320中对每个训练样本对应的视觉特使用表征传播的方法相同。
5.如权利要求4所述的一种基于多知识融合的小样本视频行为识别方法,其特征在于,所述S420中将每个episode中的所有支持样本和查询样本对应的视觉特征输入基于数据的流形分布特征预测器中进行分类,每个episode中的所有支持样本和查询样本对应的表征传播特征使用标签传播的方法如下:
每个episode中经过表征传播后获得的所有支持样本和查询样本对应的特征集合,表示为其中,k表示支持样本的个数,q表示查询样本的个数,m表示经过表征传播后单个特征的维度,然后计算/>对应的邻接矩阵A',计算方法同S320中训练样本邻接矩阵的计算方法,进而计算/>对应的拉普拉斯矩阵L',使用经典的标签传播公式得到传播矩阵P';
对支持集中的支持样本的标签进行独热编码,得到编码结果矩阵Ys,其中k=K,n=N,同时对查询集中的查询样本建立对应的零矩阵/>q表示查询集样本个数,然后将Ys和Yq二者并联得到矩阵/>最后对Y进行标签传播,如公式(7):
最终可以得到查询集中每个查询样本标签的传播结果集合
其中,表示第i个查询样本的标签经过标签传播后的传播结果,/>表示传播矩阵P'的第i行第j列,Yj表示第j个查询样本的标签。
6.如权利要求5所述的一种基于多知识融合的小样本视频行为识别方法,其特征在于,所述S420所有微调样本的标签传播分类损失之和为L'E的计算方法使用公式(3),此时Lcls=L'E,pc取每个微调样本属于某一训练类的第二个预测得分,C表示训练类的个数。
7.如权利要求6所述的一种基于多知识融合的小样本视频行为识别方法,其特征在于,所述S420中每个微调样本的总预测分数Ptotal采用公式(8)计算:
其中α与β分别表示权重。
8.如权利要求7所述的一种基于多知识融合的小样本视频行为识别方法,其特征在于,所述S430微调阶段的总损失Lfinetune的计算方法如公式(9):
其中C表示episode中训练类的个数,C=N,γ表示权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110930711.9A CN113807176B (zh) | 2021-08-13 | 2021-08-13 | 一种基于多知识融合的小样本视频行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110930711.9A CN113807176B (zh) | 2021-08-13 | 2021-08-13 | 一种基于多知识融合的小样本视频行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113807176A CN113807176A (zh) | 2021-12-17 |
CN113807176B true CN113807176B (zh) | 2024-02-20 |
Family
ID=78942935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110930711.9A Active CN113807176B (zh) | 2021-08-13 | 2021-08-13 | 一种基于多知识融合的小样本视频行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113807176B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114333064B (zh) * | 2021-12-31 | 2022-07-26 | 江南大学 | 基于多维原型重构增强学习的小样本行为识别方法及系统 |
CN115240106B (zh) * | 2022-07-12 | 2023-06-20 | 北京交通大学 | 任务自适应的小样本行为识别方法及系统 |
CN115099372B (zh) * | 2022-08-25 | 2022-12-06 | 深圳比特微电子科技有限公司 | 分类识别方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200087338A (ko) * | 2018-12-31 | 2020-07-21 | 한국과학기술연구원 | 행동 인식 학습용 동적 데이터베이스 구축 장치 및 방법 |
CN113052263A (zh) * | 2021-04-23 | 2021-06-29 | 东南大学 | 一种基于流形学习和高阶图神经网络的小样本图像分类方法 |
-
2021
- 2021-08-13 CN CN202110930711.9A patent/CN113807176B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200087338A (ko) * | 2018-12-31 | 2020-07-21 | 한국과학기술연구원 | 행동 인식 학습용 동적 데이터베이스 구축 장치 및 방법 |
CN113052263A (zh) * | 2021-04-23 | 2021-06-29 | 东南大学 | 一种基于流形学习和高阶图神经网络的小样本图像分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113807176A (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Nas-count: Counting-by-density with neural architecture search | |
CN113807176B (zh) | 一种基于多知识融合的小样本视频行为识别方法 | |
Meng et al. | Adavit: Adaptive vision transformers for efficient image recognition | |
Yang et al. | Feedback graph convolutional network for skeleton-based action recognition | |
CN110322446B (zh) | 一种基于相似性空间对齐的域自适应语义分割方法 | |
CN110458844B (zh) | 一种低光照场景的语义分割方法 | |
CN111709304B (zh) | 一种基于时空注意力增强特征融合网络的行为识别方法 | |
CN111783831B (zh) | 基于多源多标签共享子空间学习的复杂图像精确分类方法 | |
CN112733656B (zh) | 基于多流空间注意力图卷积sru网络的骨架动作识别方法 | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
CN104217214A (zh) | 基于可配置卷积神经网络的rgb-d人物行为识别方法 | |
CN110728179A (zh) | 一种采用多路卷积神经网络的猪脸识别方法 | |
CN112381179A (zh) | 一种基于双层注意力机制的异质图分类方法 | |
CN113128424A (zh) | 基于注意力机制的图卷积神经网络动作识别方法 | |
CN113239801B (zh) | 基于多尺度特征学习和多级域对齐的跨域动作识别方法 | |
CN117237559B (zh) | 面向数字孪生城市的三维模型数据智能分析方法及系统 | |
CN113255602A (zh) | 基于多模态数据的动态手势识别方法 | |
CN112819063A (zh) | 一种基于改进的Focal损失函数的图像识别方法 | |
CN114548256A (zh) | 一种基于对比学习的小样本珍稀鸟类识别方法 | |
CN112508181A (zh) | 一种基于多通道机制的图池化方法 | |
Zhou et al. | Attention transfer network for nature image matting | |
CN115116139A (zh) | 基于图卷积网络的多粒度人体动作分类方法 | |
Xu et al. | Graphical modeling for multi-source domain adaptation | |
CN108446605A (zh) | 复杂背景下双人交互行为识别方法 | |
CN112990340B (zh) | 一种基于特征共享的自学习迁移方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |