CN114359582A - 一种基于神经网络的小样本特征提取方法及相关设备 - Google Patents
一种基于神经网络的小样本特征提取方法及相关设备 Download PDFInfo
- Publication number
- CN114359582A CN114359582A CN202210027852.4A CN202210027852A CN114359582A CN 114359582 A CN114359582 A CN 114359582A CN 202210027852 A CN202210027852 A CN 202210027852A CN 114359582 A CN114359582 A CN 114359582A
- Authority
- CN
- China
- Prior art keywords
- support
- feature
- prediction
- samples
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 50
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 69
- 238000004364 calculation method Methods 0.000 claims abstract description 51
- 238000000034 method Methods 0.000 claims description 44
- 238000011176 pooling Methods 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 20
- 238000012935 Averaging Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 5
- 230000008451 emotion Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本申请实施例属于人工智能领域,涉及一种基于神经网络的小样本特征提取方法,包括获取预测集与支撑集;将预测集与支撑集输入嵌入模型训练得到预测特征图像与均值化后的多组支撑特征图像;将预测特征图像与多组支撑特征图像输入关联模型进行关联,预测两者之间的关联系数;并进行损失计算,根据计算得到的模型参数对特征识别模型进行迭代更新得到目标特征识别模型;将获取到的待识别数据输入目标特征识别模型计算目标相似度,根据目标相似度判断待识别数据的类别。本申请还提供基于神经网络的小样本特征提取装置、计算机设备及可读存储介质。此外,本申请还涉及区块链技术,判断出的类别数据可存储于区块链中。本申请能够降低引起过度拟合的问题。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种基于神经网络的小样本特征提取方法及相关设备。
背景技术
在现有技术中,一般情况下,针对模型分类或拟合任务都是以数据进行驱动,然后进行模型训练的。但是,现实世界中真实数据获取或数据标注往往需要大量的成本投入,从而限制了模型的建模能力和使用范围。如语音情感检测、故障诊断或其他难以获得有效数据的任务。目前,基于深度学习的模型训练,一般需要大量的训练与测试数据支持。在数据充足的情况下,模型训练充分且预测结果出色;然而面对数据样本容量不足的情况,模型由于欠训练,无法对现实数据样本进行充分建模,即泛化能力过弱导致其缺少实际应用能力。现有解决样本过少的方法一般是基于数据扩充(DataAugmentation)的方法,数据扩充是在真实数据基础上进行数据变换来模拟其他可能的真实数据,但其无法摆脱固有数据的本质属性,难以提取必要的样本的特征,并可能引起过度拟合的问题。
发明内容
本申请实施例的目的在于提出一种基于神经网络的小样本特征提取方法及相关设备,其主要目的是有效避免因样本不足而导致的过度拟合问题。
为了解决上述技术问题,本申请实施例提供一种基于神经网络的小样本特征提取方法,采用了如下所述的技术方案:
从包括有预设数量类别的训练集中获取预测集与支撑集,所述支撑集包括从每个类别中抽取K个有标注的支撑样本,其中,K为正整数;
将所述预测集中的预测样本与所述支撑集中的支撑样本输入特征识别模型中的嵌入模型进行训练,得到预测特征图以及包括K个有标注的支撑样本的多组所述待融合支撑特征图像,并对所述待融合支撑特征图像均值化,得到多组支撑特征图像;
将所述预测特征图像与多组所述支撑特征图像输入所述特征识别模型中的关联模型进行关联,预测所述预测特征图像与每组所述支撑特征图像之间的关联系数,其中,所述关联系数表征所述预测样本与所述预设数量类别的相似度;
基于所述关联系数进行损失计算,根据计算得到的模型参数对所述特征识别模型进行迭代更新,得到目标特征识别模型;
获取待识别数据输入所述目标特征识别模型,计算所述待识别数据与所述预设数量类别中样本的目标相似度,根据所述目标相似度判断所述待识别数据的类别。
进一步的,所述从包括有预设数量类别的训练集中获取预测集与支撑集的步骤包括:
将所述训练集中的预设数量类别进行随机排序;
从所述预设数量类别的每个类别中抽取K个有标注的样本作为所述特征识别模型的所述支撑集;
从所述预设数量类别的剩余样本中抽取J个样本作为所述特征识别模型的所述预测集,其中,J为正整数。
进一步的,所述嵌入模型包括第一卷积层、第二卷积层、第三卷积层、第四卷积层、第一最大池化层以及第二最大池化层,所述将所述预测集中的预测样本与所述支撑集中的支撑样本输入特征识别模型中的嵌入模型进行训练,得到预测特征图以及包括K个有标注的支撑样本的多组所述待融合支撑特征图像,并对所述待融合支撑特征图像均值化,得到多组支撑特征图像的步骤具体包括:
将所述预测集与所述支撑集输入所述嵌入模型,依次通过所述第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层以及第四卷积层对所述预测集与所述支撑集中的样本进行特征提取,输出所述预测特征图像与多组所述待融入支撑特征图像;
对每组包括K个有标注的样本的所述待融合支撑特征图像进行均值化处理,得到多组所述支撑特征图像,所述支撑特征图像的组数与所述预设数量类别一致。
进一步的,所述关联模型包括第五卷积层、第六卷积层、第三最大池化层、第四最大池化层、第一全连接层以及第二全连接层,所述将所述预测特征图像与多组所述支撑特征图像输入所述特征识别模型中的关联模型进行关联,预测所述预测特征图像与每组所述支撑特征图像之间的关联系数的步骤具体包括:
将所述预测特征图像与多组所述支撑特征图像进行图像特征拼接后输入所述关联模型,依次通过所述第五卷积层、第三最大池化层、第六卷积层、第四最大池化层以及全连接层对所述预测特征图像与多组所述支撑特征图像进行特征关联及回归处理,输出C个所述关联系数,所述关联系数计算公式为:
ri,j=G(H(F(xi),F(xj))),i=1,2...C
其中,H为所述预测特征图像与多组所述支撑特征图像的拼接操作,F(Xi)为所述待融合支撑特征图像,F(Xj)为预测特征图像,ri,j为所述预测特征图像F(Xj)与所述支撑特征图像F(Xi)中类别i的所述关联系数,i表示C个类别中的其中一个。
进一步的,所述基于所述关联系数进行损失计算,根据计算得到的模型参数对所述特征识别模型进行迭代更新,得到目标特征识别模型的步骤具体包括:
通过均方误差函数对多个所述关联系数进行损失计算,根据计算得到的模型参数对所述特征识别模型进行迭代更新,得到目标特征识别模型,其中,所述均方误差函数为:
其中,θ为模型参数,ri,j为所述预测特征图像F(Xj)与所述支撑特征图像F(Xi)中类别i的关联系数,也即是所述预测样本与所述预设数量类别的相似度,范围为(0,1),(yi==yj)表示预测样本真实标签,数值为0或1;n为预测样本总量;C为随机选出的预设数量类别。
进一步的,所述获取待识别数据输入所述目标特征识别模型,计算所述待识别数据与所述预设数量类别中样本的目标相似度,根据所述目标相似度判断所述待识别数据的类别的步骤包括:
获取所述待识别数据;
将所述待识别数据输入所述目标特征识别模型,计算所述待识别数据与所述预设数量类别中每种类别的样本之间的目标相似度;
基于计算出的多个所述目标相似度,根据所述目标相似度大小选择最大目标相似度对应的类别作为所述待识别数据的判断结果。
进一步的,在所述基于计算出的多个所述目标相似度,根据所述目标相似度大小选择最大目标相似度对应的类别作为所述待识别数据的判断结果的步骤之后还包括:
将所述待识别数据的判断结果存储至区块链中。
为了解决上述技术问题,本申请实施例还提供一种基于神经网络的小样本特征提取装置,采用了如下所述的技术方案:
获取模块,用于从包括有预设数量类别的训练集中获取预测集与支撑集,所述支撑集包括从每个类别中抽取K个有标注的支撑样本,其中,K为正整数;
训练模块,用于将所述预测集中的预测样本与所述支撑集中的支撑样本输入特征识别模型中的嵌入模型进行训练,得到预测特征图以及包括K个有标注的支撑样本的多组所述待融合支撑特征图像,并对所述待融合支撑特征图像均值化,得到多组支撑特征图像;
预测模块,用于将所述预测特征图像与多组所述支撑特征图像输入所述特征识别模型中的关联模型进行关联,预测所述预测特征图像与每组所述支撑特征图像之间的关联系数,其中,所述关联系数表征所述预测样本与所述预设数量类别的相似度;
更新模块,用于基于所述关联系数进行损失计算,根据计算得到的模型参数对所述特征识别模型进行迭代更新,得到目标特征识别模型;
识别模块,用于获取待识别数据输入所述目标特征识别模型,计算所述待识别数据与所述预设数量类别中样本的目标相似度,根据所述目标相似度判断所述待识别数据的类别。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如实施例中任一所述的一种基于神经网络的小样本特征提取方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如实施例中任一所述的一种基于神经网络的小样本特征提取方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:本申请通过从包括不同的预设数量类别的数据集中筛选预测集与支撑集的样本以输入到特征识别模型中的嵌入模型,通过一个深度卷积神经网络(嵌入模型)进行特征提取;然后通过另一个深度卷积神经网络(关联模型)进行特征关联计算,将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖;通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题;另外,由于学习的是样本间区分信息,当存在训练样本覆盖类别不足的情况时,亦可将新类别样本与当前样本进行有效的区分。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2a是根据本申请的一种基于神经网络的小样本特征提取方法的一个实施例的流程图;
图2b是本申请提供的一种基于神经网络的小样本特征提取方法的另一个实施例的流程图;
图2c是本申请提供的一种基于神经网络的小样本特征提取方法的另一个实施例的流程图;
图3是图2中步骤S201的一种具体实施方式的流程图;
图4是图2中步骤S202的一种具体实施方式的流程图;
图5是图2中步骤S205的一种具体实施方式的流程图;
图6是本申请的一种基于神经网络的小样本特征提取装置的一个实施例的结构示意图;
图7是图6所示获取模块一种具体实施方式的结构示意图;
图8是图6所示训练模块一种具体实施方式的结构示意图;
图9是图6所示识别模块一种具体实施方式的结构示意图;
图10是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroupAudio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的一种基于神经网络的小样本特征提取方法一般由服务器/终端设备执行,相应地,一种基于神经网络的小样本特征提取装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2a,示出了根据本申请的一种基于神经网络的小样本特征提取方法的一个实施例的流程图。所述的一种基于神经网络的小样本特征提取方法,包括以下步骤:
步骤S201,从包括有预设数量类别的训练集中获取预测集与支撑集,所述支撑集包括从每个类别中抽取K个有标注的支撑样本,其中,K为正整数。
在本实施例中,一种基于神经网络的小样本特征提取方法运行于其上的电子设备(例如图1所示的服务器/终端设备)可以通过有线连接方式或者无线连接方式获取待识别数据以及输出识别结果等。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
在本实施例中,训练模型时,首先每一次训练循环中从训练集随机选择多组类别,每组类别中可以包括有多个样本数据,样本数据中包括有标注的样本数据与没有标注的样本数据,标记的样本数据量较少。当运用在语音情绪识别时,上述的从组类别可以分别表示不同的类别,当然当运用在其他需要进行分类的场景时,上述的多组类别可以对应表示其他的种类,例如图像分类等。在本实施中,结合图2b所示,上述的预设数量类别以C组类别表示,C可以为2,3,...,表示有多个类别。在训练集中可以抽取出用于模型训练的预测集Query Set,Q)的多个预测样本(Xj)以及支撑集(Support Set,S)的多个支撑样本,支撑集包括从C组类别中分别抽取K个有标注的支撑样本((X1,K),(X2,K),(X3,K),......,(XC,K))。且上述支撑样本中包括有从C组类别中的每组类别中分别抽取出的有标注的样本数据。
步骤S202,将预测集中的预测样本与支撑集中的支撑样本输入特征识别模型中的嵌入模型进行训练,得到预测特征图以及包括K个有标注的支撑样本的多组待融合支撑特征图像,并对待融合支撑特征图像均值化,得到多组支撑特征图像。
在本实施例中,可以通过利用关系网络(Relation Network)训练两个模型,也即是上述特征识别模型主要包括的嵌入模型与关联模型。其中,特征识别模型可以用于识别语音情感类别识别。在关系网络中包括两个不同的深度神经网络来训练嵌入模型和关联模型,具体可以参考图2c所示,左侧为嵌入模型的深度神经网络训练过程,右侧为关联模型的深度神经网络训练过程。
具体的,结合图2b所示,预设数量类别为C组类别,当获取到预测集Q与支撑集S后,将预测集Q中的预测样本(Xj)与支撑集S中的支撑样本(Xi,K)输入到嵌入模型F中,通过训练输出上述预测特征图像F(Xj)以及C组待融合支撑特征图像F(X1,K),F(X2,K),F(X3,K),......,F(XC,K),然后通过对每组中的K个待融合支撑特征图像F(Xi,K)进行求均值得到C组支撑特征图像F(Xi)。
步骤S203,将预测特征图像与多组支撑特征图像输入特征识别模型中的关联模型进行关联,预测预测特征图像与每组支撑特征图像之间的关联系数,其中,关联系数表征预测样本与预设数量类别的相似度。
在本实施例中,通过将嵌入模型输出的多组支撑特征图像F(xi)和预测特征图像F(xj)作为关联模型G的输入,通过关联模型进行特征关联,可以得到预测特征图像F(xj)分别与每组支撑特征图像F(xi)之间的关联系数ri,j。这C个关联系数ri,j分别用于表示表征预测样本与预设数量类别中每个类别的相似度,也即是预测集Q属于这预设数量类别的概率系数。当关联系数越高,可以表示相似度越高,则预测集Q属于这预设数量类别的概率越大。
步骤S204,基于关联系数进行损失计算,根据计算得到的模型参数对特征识别模型进行迭代更新,得到目标特征识别模型。
在本实施例中,在计算出多个关联系数之后,可以基于多个关联系数进行具体的损失计算。具体的,本实施例提供的损失计算函数可以为均方误差函数,通过均方误差函数基于多个关联系数进行计算可以计算出模型参数,该模型参数可以用于对特征识别模型进行迭代更新,最终得到目标特征识别模型。
具体的,本通过将全空间分类任务进行分解,转换为以局部类别样本相似度计算(计算预测特征图像F(xj)分别与每组支撑特征图像F(xi)之间的关联系数ri,j),在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而提取出预测特征图像F(xj)表征上述预设数量类别的区分性特征,所以上述得到的目标特征识别模型可有效避免样本不足而导致的过度拟合问题,且可在面对全新类别时也有较好的表现。
步骤S205,获取待识别数据输入目标特征识别模型,计算待识别数据与预设数量类别中样本的目标相似度,根据目标相似度判断待识别数据的类别。
在本实施例中,上述待识别数据可以是需要进行情绪类别识别的数据。通过将待识别数据输入上述目标特征识别模型,便可以通过上述目标特征识别模型计算出待识别数据与预设数量类别中样本的目标相似度。当然,当待识别数据为一组时,则可以得到更多的目标相似度,例如:待识别数据为n个,则目标相似度对应有n组,每组中包括与预设数量类别一致的个数。然后可以根据待识别数据与每组类别中样本的目标相似度,选择目标相似度最大的类别为待识别数据对应的识别结果。
在本发明实施例中,通过从预设数量类别的不同类别中筛选预测集与支撑集的样本以输入到特征识别模型中的嵌入模型,通过一个深度卷积神经网络(嵌入模型)进行特征提取;然后通过另一个深度卷积神经网络(关联模型)进行特征关联计算,将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题。另外,由于学习的是样本间区分信息,当存在训练样本覆盖类别不足的情况时,亦可将新类别样本与当前样本进行有效的区分。
在本实施例的一些可选的实现方式中,参考图3所示,上述电子设备执行的步骤201具体包括以下步骤:
步骤2011,将训练集中的预设数量类别进行随机排序。
具体的,训练模型时,训练集中包括有预设数量类别,每组类别包括多个样本数据,可以对预设数据类别预先进行随机排序,有利于数据抽取的均衡,降低偏差。
步骤2012,从预设数量类别的每个类别中抽取K个有标注的样本作为特征识别模型的支撑集。
具体的,通过从训练集中随机选择预设数量类别,再从每个类别中随机抽取K个有标注的样本,例如:预设数量类别为C,则总共选取的数据量m=C×K,其中包括有标注的样本与没有标注的样本。然后可以将抽取出的K个有标注的样本构建一个元任务,作为特征识别模型的支撑集S的输入。
步骤2013,从预设数量类别的剩余样本中抽取J个样本作为特征识别模型的预测集。
具体的,抽取出支撑集S之后,再从这预设数量类别的剩余样本中随机抽取J个样本以作为特征识别模型的预测集Q,其中,J为正整数。然后通过嵌入模型的深度神经网络对预测集中的预测样本与支撑集中的支撑样本进行特征提取,得到预测特征图以及包括K个有标注的支撑样本的多组待融合支撑特征图像。
在本发明实施例中,在面对样本标注不足的情况下,通过从训练集中抽取出每个类别带有K个有标注的样本的多组支撑样本作为支撑集S,以及从剩余样本中随机抽取J个训练样本作为训练集Q,然后可以将支撑集S与训练集Q中的样本输入到嵌入模型这个深度神经网络中特征图像提取,然后继续将提取出的特征图像输入关联模型进行数据关联,实现将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题。
在一些可选的实现方式中,参考图4所示,嵌入模型包括第一卷积层、第二卷积层、第三卷积层、第四卷积层、第一最大池化层以及第二最大池化层,上述电子设备执行的步骤202具体包括以下步骤:
步骤2021,将预测集与支撑集输入嵌入模型,依次通过第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层以及第四卷积层对预测集与支撑集中的样本进行特征提取,输出预测特征图像与多组待融入支撑特征图像。
具体的,在本实施例中,结合图2c所示,上述第一卷积层、第二卷积层、第三卷积层以及第四卷积层的具体大小为ReLU batch norm 3×3conv,64filters;上述第一最大池化层与第二最大池化层大小为2×2。抽取得到预测集与支撑集后,可以将预测集中的预测样本(Xj)与支撑集中的支撑样本(Xi,K)输入第一卷积层进行卷积后,再依次通过第一最大池化层、第二卷积层、第二最大池化层、第三卷积层以及第四卷积层对进行图像特征提取,最终输出预测特征图像F(Xj)与多组待融入支撑特征图像F(Xi,K)。
步骤2022,对每组包括K个有标注的样本的待融合支撑特征图像进行均值化处理,得到多组支撑特征图像。
具体的,支撑特征图像的组数与所述预设数量类别一致。得到多组待融入支撑特征图像F(Xi,K),为了从每组中的K个待融合支撑特征图像中得到一个具有代表性的特征图像,可以对每组类别中的K个待融合支撑特征图像进行均值计算,然后输出多组支撑特征图像F(Xi)。
在本申请实施例中,通过提供一个嵌入模型的深度神经网络对预测样本(Xj)与支撑样本(Xi,K)进行图像特征提取,将全空间分类任务进行分解,通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本(Xj)中提取出表征类别信息的特征出来,降低引起过度拟合的问题。
在本实施例的一些可选的实现方式中,结合图2c所示,关联模型包括第五卷积层、第六卷积层、第三最大池化层、第四最大池化层、第一全连接层以及第二全连接层,上述电子设备执行的步骤203具体包括:
将预测特征图像与多组支撑特征图像进行图像特征拼接后输入关联模型,依次通过第五卷积层、第三最大池化层、第六卷积层、第四最大池化层以及全连接层对预测特征图像与多组支撑特征图像进行特征关联及回归处理,输出C个关联系数,关联系数计算公式如下式(1)所示:
ri,j=G(H(F(xi),F(xj))),i=1,2...C (1)
其中,ri,j为预测特征图像F(Xj)与支撑特征图像F(Xi)中类别i的关联系数,i表示C个类别中的其中一个,H为预测特征图像与每组支撑特征图像的拼接操作,F(xi)为待融合支撑特征图像,F(xj)为预测特征图像,。
具体的,上述第五卷积层与第六卷积层的大小可以与第一卷积层相,第三最大池化层与第四最大池化层的大小与第一最大池化层相,第一全连接层为RELU函数,第二全连接层为Sigmoid函数。首先,对预测特征图像F(Xj)以及支撑特征图像F(Xi)进行图像拼接之后,依次通过第五卷积层、第三最大池化层、第六卷积层、第四最大池化层、RELU函数以及Sigmoid函数对预测特征图像F(Xj)以及支撑特征图像F(Xi)进行特征关联,根据公式(1)可以计算得到关联系数ri,j,用以表征预测样本与预设数量类别的相似度。其中,若支撑集中和预测集相似,ri,j趋向于1,两者不相似则ri,j趋向于0。
在本申请实施例中,通过提供一个关联模型的深度神经网络对预测特征图像F(Xj)以及支撑特征图像F(Xi)以计算关联系数的方式进行特征关联,将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题。另外,由于学习的是样本间区分信息,当存在训练样本覆盖类别不足的情况时,亦可将新类别样本与当前样本进行有效的区分。
在本实施例的一些可选的实现方式中,通过均方误差函数对多个关联系数进行损失计算,根据计算得到的模型参数对特征识别模型进行迭代更新,得到目标特征识别模型,其中,均方误差函数为下述公式(2):
其中,θ为模型参数,ri,j为预测特征图像F(Xj)与支撑特征图像F(Xi)中类别i的关联系数,也即是预测样本与预设数量类别的相似度,范围为(0,1),(yi==yj)表示预测样本真实标签,数值为0或1;n为预测样本总量;C为随机选出的预设数量类别。
具体的,在计算出上述关联系数后,可以通过上述公式(2)均方误差函数(MSE)对多个关联系数进行损失计算,根据计算得到的模型参数对特征识别模型进行迭代更新,得到目标特征识别模型。以均方误差函数来训练关联分数,使MSE最小,同时通过随机梯度更新算法进行模型参数θ更新,最终得到目标特征识别模型。
在本实施例中,通过均方误差对关联系数进行训练,当均方误差达到最小时,便可以得到更好的模型参数用于对特征识别模型进行更新,使得最终得到的目标特征识别模型具有更好的识别表现。
在本实施例的一些可选的实现方式中,参考图5所示,上述电子设备执行的步骤205具体包括以下步骤:
步骤2051,获取待识别数据。
步骤2052,将待识别数据输入目标特征识别模型,计算待识别数据与预设数量类别中每种类别的样本之间的目标相似度。
具体的,获取到上述待识别数据后,将待识别数据输入目标特征识别模型,计算待识别数据与预设数量类别中每种类别的样本之间的目标相似度,得到多个目标相似度,多个目标相似度可以随机排序,也可以升序或降降序排列。
步骤2053,基于计算出的多个目标相似度,根据目标相似度大小选择最大目标相似度对应的类别作为待识别数据的判断结果。
具体的,可以根据目标相似度的大小,选取出最大的一个目标相似度最为待识别数据的最终判断结果,也即是类别识别结果。
在本发明实施例中,通过一个嵌入模型的深度卷积神经网络进行特征提取;然后通过关联模型的深度卷积神经网络进行特征关联计算,将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题。另外,由于学习的是样本间区分信息,最终得到的目标特征识别模型当存在训练样本覆盖类别不足的情况时,亦可将新类别样本与当前样本进行有效的区分,有更好的识别表现。
需要强调的是,为进一步保证上述待识别数据的判断结果的私密和安全性,上述待识别数据的判断结果还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图6,作为对上述图2所示方法的实现,本申请提供了一种基于神经网络的小样本特征提取装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的基于神经网络的小样本特征提取装置600包括:获取模块601、训练模块602、预测模块603、更新模块604以及识别模块605。
其中:
获取模块601,用于从包括有预设数量类别的训练集中获取预测集与支撑集,支撑集包括从每个类别中抽取K个有标注的支撑样本,其中,K为正整数。
训练模块602,用于将预测集中的预测样本与支撑集中的支撑样本输入特征识别模型中的嵌入模型进行训练,得到预测特征图以及包括K个有标注的支撑样本的多组待融合支撑特征图像,并对待融合支撑特征图像均值化,得到多组支撑特征图像。
预测模块603,用于将预测特征图像与多组支撑特征图像输入特征识别模型中的关联模型进行关联,预测预测特征图像与每组支撑特征图像之间的关联系数,其中,关联系数表征预测样本与预设数量类别的相似度。
更新模块604,用于基于关联系数进行损失计算,根据计算得到的模型参数对特征识别模型进行迭代更新,得到目标特征识别模型。
识别模块605,用于获取待识别数据输入目标特征识别模型,计算待识别数据与预设数量类别中样本的目标相似度,根据目标相似度判断待识别数据的类别。
在本实施例中,在训练集中可以通过获取模块601抽取出用于模型训练的预测集Query Set,Q)的多个预测样本(Xj)以及支撑集(Support Set,S)的多个支撑样本,支撑集包括从预设数量类别中分别抽取K个有标注的支撑样本((X1,K),(X2,K),(X3,K),......(XC,K)),其中,C表示预设数量类别,C可以为2,3,......,C。且上述支撑样本中包括有从预设数量类别的每组类别中分别抽取出的有标注的样本数据。
在本实施例中,可以通过利用关系网络,基于两个不同的深度神经网络训练嵌入模型与关联模型。获取到预测集Q与支撑集S后,将预测集Q中的预测样本(Xj)与支撑集S中的支撑样本(Xi,K)输入到嵌入模型F中,通过训练模块602训练输出上述预测特征图像F(Xj)以及多组待融合支撑特征图像F(Xi,K),然后通过对每组中的K个待融合支撑特征图像F(Xi,K)进行求均值得到多组支撑特征图像F(Xi)。
更具体的,将嵌入模型输出的多组支撑特征图像F(xi)和预测特征图像F(xj)作为关联模型G的输入并进行特征关联,通过预测模块603可以得到预测特征图像F(xj)分别与多组支撑特征图像F(xi)之间的关联系数ri,j。这C个关联系数ri,j分别用于表示表征预测样本与预设数量类别中每个类别的相似度,也即是预测集Q属于这预设数量类别的概率系数。当关联系数越高,可以表示相似度越高,则预测集Q属于这预设数量类别的概率越大。
在本实施例中,在计算出多个关联系数之后,可以基于多个关联系数进行具体的损失计算。具体的,本实施例提供的损失计算函数可以为均方误差函数,通过均方误差函数基于多个关联系数进行计算可以计算出模型参数,更新模块604可以根据模型参数对特征识别模型进行迭代更新,最终得到目标特征识别模型。
更具体稍微,上述待识别数据可以是需要进行情绪类别识别的数据。通过将待识别数据输入上述目标特征识别模型,识别模块605可以计算出待识别数据与每组不同类别中样本的目标相似度。当然,当待识别数据为一组时,则可以得到更多的目标相似度,例如:待识别数据为n个,则目标相似度对应有n组,每组中包括与预设数量类别一致的个数。然后可以根据待识别数据与每组类别中样本的目标相似度,选择目标相似度最大的类别为待识别数据对应的识别结果。
在本发明实施例中,通过获取模块601从预设数量的不同类别中筛选预测集Q与支撑集S的样本以输入到特征识别模型中的嵌入模型,基于训练模块602中嵌入模型的深度卷积神经网络进行特征提取;然后基于预测模块603中关联模型的深度卷积神经网络进行特征关联计算,将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题。另外,由于学习的是样本间区分信息,当存在训练样本覆盖类别不足的情况时,亦可将新类别样本与当前样本进行有效的区分。
参阅图7,为获取模块一种具体实施方式的结构示意图,获取模块601包括排序子模块6011、第一抽取子模块6012以及第二抽取子模块6013。其中,
排序子模块6011,用于将训练集中的预设数量类别进行随机排序。
第一抽取子模块6012,用于从预设数量类别的每个类别中抽取K个有标注的样本作为特征识别模型的支撑集。
第二抽取子模块6013,用于从预设数量类别的剩余样本中抽取J个样本作为特征识别模型的预测集,其中,J为正整数。
具体的,训练模型时,训练集中包括有多组类别,每组类别包括多个样本数据,可以对多组类别预先进行随机排序,有利于数据抽取的均衡,降低偏差。
具体的,通过排序子模块6011对训练集中的预设数量类别进行随机排序,通过第一抽取子模块6012从训练集中随机选择预设数量类别,再从每个类别中随机抽取K个有标注的样本,例如:预设数量类别为C,则总共选取的数据量m=C×K,其中包括有标注的样本与没有标注的样本。然后可以将抽取出的K个有标注的样本构建一个元任务,作为特征识别模型的支撑集S的输入。
具体的,抽取出支撑集S之后,通过第二抽取子模块6013再从这预设数量类别的剩余样本中随机抽取J个样本以作为特征识别模型的预测集Q,其中,J为正整数。然后通过嵌入模型的深度神经网络对预测集中的预测样本与支撑集中的支撑样本进行特征提取,得到预测特征图以及包括K个有标注的支撑样本的多组待融合支撑特征图像。
在本发明实施例中,在面对样本标注不足的情况下,通过从训练集中抽取出每个类别带有K个有标注的样本的多组支撑样本作为支撑集S,以及从剩余样本中随机抽取J个训练样本作为训练集Q,然后可以将支撑集S与训练集Q中的样本输入到嵌入模型这个深度神经网络中特征图像提取,然后继续将提取出的特征图像输入关联模型进行数据关联,实现将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题。
参阅图8,为训练模块一种具体实施方式的结构示意图,训练模块602包括:训练子模块6021以及均值化子模块6022。其中,
训练子模块6021,用于将预测集与支撑集输入嵌入模型,依次通过第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层以及第四卷积层对预测集与支撑集中的样本进行特征提取,输出预测特征图像与多组待融入支撑特征图像。
均值化子模块6022,用于对每组包括K个有标注的样本的待融合支撑特征图像进行均值化处理,得到多组支撑特征图像。
具体的,上述第一卷积层、第二卷积层、第三卷积层以及第四卷积层的具体大小为ReLU batch norm 3×3 conv,64 filters;上述第一最大池化层与第二最大池化层大小为2×2。抽取得到预测集与支撑集后,通过训练子模块6021可以将预测集中的预测样本(Xj)与支撑集中的支撑样本(Xi,K)输入第一卷积层进行卷积后,再依次通过第一最大池化层、第二卷积层、第二最大池化层、第三卷积层以及第四卷积层对进行图像特征提取,最终输出预测特征图像F(Xj)与多组待融入支撑特征图像F(Xi,K)。
具体的,支撑特征图像的组数与所述预设数量类别一致。得到多组待融入支撑特征图像F(Xi,K),为了从每组中的K个待融合支撑特征图像中得到一个具有代表性的特征图像,可以通过均值化子模块6022对每组类别中的K个待融合支撑特征图像进行均值计算,然后输出多组支撑特征图像F(Xi)。
在本申请实施例中,通过提供一个嵌入模型的深度神经网络对预测样本(Xj)与支撑样本(Xi,K)进行图像特征提取,将全空间分类任务进行分解,通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本(Xj)中提取出表征类别信息的特征出来,降低引起过度拟合的问题。
作为一种可能的实施例方式,上述预测模块603还用于将预测特征图像与多组支撑特征图像进行图像特征拼接后输入关联模型,依次通过第五卷积层、第三最大池化层、第六卷积层、第四最大池化层以及全连接层对预测特征图像与多组支撑特征图像进行特征关联及回归处理,输出C个关联系数,关联系数计算公式如下式(1)所示:
ri,j=G(C(F(xi),F(xj))),i=1,2...C (1)
其中,ri,j为预测特征图像F(Xj)与支撑特征图像F(Xi)中类别i的关联系数,C为预测特征图像与每组支撑特征图像的拼接操作,F(xi)为待融合支撑特征图像,F(xj)为预测特征图像,i表示C个类别中的其中一个。
在本申请实施例中,通过提供一个关联模型的深度神经网络对预测特征图像F(Xj)以及支撑特征图像F(Xi)以计算关联系数的方式进行特征关联,将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题。另外,由于学习的是样本间区分信息,当存在训练样本覆盖类别不足的情况时,亦可将新类别样本与当前样本进行有效的区分。
作为一种可能的实施例方式,更新模块604还用于通过预设的目标函数对C个关联系数进行损失计算,根据计算得到的模型参数对特征识别模型进行迭代更新,得到目标特征识别模型,其中,预设的目标函数如下式(2)所示:
其中,θ为模型参数,rj,j为预测样本j与类别i的关联系数,也即是预测样本与预设数量类别的相似度,范围为(0,1),(yi==yj)表示预测样本真实标签,数值为0或1;n为预测样本总量;C为随机选出的预设数量类别。
在本实施例中,通过均方误差对关联系数进行训练,当均方误差达到最小时,便可以得到更好的模型参数通过更新模块604对特征识别模型进行更新,使得最终得到的目标特征识别模型具有更好的识别表现。
参阅图9,为识别模块一种具体实施方式的结构示意图,识别模块605包括:获取子模块6051、计算子模块6052以及判断子模块6053。其中,
获取子模块6051,用于获取待识别数据。
计算子模块6052,用于将待识别数据输入目标特征识别模型,计算待识别数据与预设数量类别中每种类别的样本之间的目标相似度。
判断子模块6053,用于基于计算出的多个目标相似度,根据目标相似度大小选择最大目标相似度对应的类别作为待识别数据的判断结果。
具体的,通过获取子模块6051获取到上述待识别数据后,将待识别数据输入目标特征识别模型,通过计算子模块6052计算待识别数据与预设数量类别中每种类别的样本之间的目标相似度,得到多个目标相似度,多个目标相似度可以随机排序,也可以升序或降降序排列。
更具体的,通过判断子模块6053可以根据目标相似度的大小,选取出最大的一个目标相似度最为待识别数据的最终判断结果,也即是类别识别结果。
在本发明实施例中,通过嵌入模型的深度卷积神经网络进行特征提取;然后通过关联模型的深度卷积神经网络进行特征关联计算,将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题。另外,由于学习的是样本间区分信息,最终得到的目标特征识别模型当存在训练样本覆盖类别不足的情况时,亦可将新类别样本与当前样本进行有效的区分,有更好的识别表现。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图10,图10为本实施例计算机设备基本结构框图。
计算机设备10包括通过系统总线相互通信连接存储器101、处理器102、网络接口103。需要指出的是,图中仅示出了具有组件101-103的计算机设备10,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
存储器101至少包括一种类型的可读存储介质,可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器101可以是计算机设备10的内部存储单元,例如该计算机设备10的硬盘或内存。在另一些实施例中,存储器101也可以是计算机设备10的外部存储设备,例如该计算机设备10上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器101还可以既包括计算机设备10的内部存储单元也包括其外部存储设备。本实施例中,存储器101通常用于存储安装于计算机设备10的操作系统和各类应用软件,例如一种基于神经网络的小样本特征提取方法的计算机可读指令等。此外,存储器101还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器102在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器102通常用于控制计算机设备10的总体操作。本实施例中,处理器102用于运行存储器101中存储的计算机可读指令或者处理数据,例如运行一种基于神经网络的小样本特征提取方法的计算机可读指令。
网络接口103可包括无线网络接口或有线网络接口,该网络接口103通常用于在计算机设备10与其他电子设备之间建立通信连接。
在本发明实施例中,通过一个嵌入模型的深度卷积神经网络进行特征提取;然后通过关联模型的深度卷积神经网络进行特征关联计算,将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题。另外,由于学习的是样本间区分信息,最终得到的目标特征识别模型当存在训练样本覆盖类别不足的情况时,亦可将新类别样本与当前样本进行有效的区分,有更好的识别表现。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,计算机可读存储介质存储有计算机可读指令,计算机可读指令可被至少一个处理器执行,以使至少一个处理器执行如上述的一种基于神经网络的小样本特征提取方法的步骤。
在本发明实施例中,通过一个嵌入模型的深度卷积神经网络进行特征提取;然后通过关联模型的深度卷积神经网络进行特征关联计算,将全空间分类任务进行分解,转换为以局部类别样本相似度计算,在模型迭代过程中实现分类类别的全覆盖。且通过局部学习策略,可以避免全域类别分类对数据的多样性要求,同时可以实现样本特征精细化学习,进而可以从预测样本中提取出表征类别信息的特征出来,降低引起过度拟合的问题。另外,由于学习的是样本间区分信息,最终得到的目标特征识别模型当存在训练样本覆盖类别不足的情况时,亦可将新类别样本与当前样本进行有效的区分,有更好的识别表现。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种基于神经网络的小样本特征提取方法,其特征在于,包括下述步骤:
从包括有预设数量类别的训练集中获取预测集与支撑集,所述支撑集包括从每个类别中抽取K个有标注的支撑样本,其中,K为正整数;
将所述预测集中的预测样本与所述支撑集中的支撑样本输入特征识别模型中的嵌入模型进行训练,得到预测特征图以及包括K个有标注的支撑样本的多组所述待融合支撑特征图像,并对所述待融合支撑特征图像均值化,得到多组支撑特征图像;
将所述预测特征图像与多组所述支撑特征图像输入所述特征识别模型中的关联模型进行关联,预测所述预测特征图像与每组所述支撑特征图像之间的关联系数,其中,所述关联系数表征所述预测样本与所述预设数量类别的相似度;
基于所述关联系数进行损失计算,根据计算得到的模型参数对所述特征识别模型进行迭代更新,得到目标特征识别模型;
获取待识别数据输入所述目标特征识别模型,计算所述待识别数据与所述预设数量类别中样本的目标相似度,根据所述目标相似度判断所述待识别数据的类别。
2.根据权利要求1所述的一种基于神经网络的小样本特征提取方法,其特征在于,所述从包括有预设数量类别的训练集中获取预测集与支撑集的步骤包括:
将所述训练集中的预设数量类别进行随机排序;
从所述预设数量类别的每个类别中抽取K个有标注的样本作为所述特征识别模型的所述支撑集;
从所述预设数量类别的剩余样本中抽取J个样本作为所述特征识别模型的所述预测集,其中,J为正整数。
3.根据权利要求1所述的一种基于神经网络的小样本特征提取方法,其特征在于,所述嵌入模型包括第一卷积层、第二卷积层、第三卷积层、第四卷积层、第一最大池化层以及第二最大池化层,所述将所述预测集中的预测样本与所述支撑集中的支撑样本输入特征识别模型中的嵌入模型进行训练,得到预测特征图以及包括K个有标注的支撑样本的多组所述待融合支撑特征图像,并对所述待融合支撑特征图像均值化,得到多组支撑特征图像的步骤具体包括:
将所述预测集与所述支撑集输入所述嵌入模型,依次通过所述第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层以及第四卷积层对所述预测集与所述支撑集中的样本进行特征提取,输出所述预测特征图像与多组所述待融入支撑特征图像;
对每组包括K个有标注的样本的所述待融合支撑特征图像进行均值化处理,得到多组所述支撑特征图像,所述支撑特征图像的组数与所述预设数量类别一致。
4.根据权利要求1所述的一种基于神经网络的小样本特征提取方法,其特征在于,所述关联模型包括第五卷积层、第六卷积层、第三最大池化层、第四最大池化层、第一全连接层以及第二全连接层,所述将所述预测特征图像与多组所述支撑特征图像输入所述特征识别模型中的关联模型进行关联,预测所述预测特征图像与每组所述支撑特征图像之间的关联系数的步骤具体包括:
将所述预测特征图像与多组所述支撑特征图像进行图像特征拼接后输入所述关联模型,依次通过所述第五卷积层、第三最大池化层、第六卷积层、第四最大池化层以及全连接层对所述预测特征图像与多组所述支撑特征图像进行特征关联及回归处理,输出C个所述关联系数,所述关联系数计算公式为:
ri,j=G(H(F(xi),F(xj))),i=1,2...C
其中,H为所述预测特征图像与每组所述支撑特征图像的拼接操作,F(Xi)为所述待融合支撑特征图像,F(Xj)为预测特征图像,ri,j为所述预测特征图像F(Xj)与所述支撑特征图像F(Xi)中类别i的所述关联系数,i表示C个类别中的其中一个。
5.根据权利要求1所述的一种基于神经网络的小样本特征提取方法,其特征在于,所述基于所述关联系数进行损失计算,根据计算得到的模型参数对所述特征识别模型进行迭代更新,得到目标特征识别模型的步骤具体包括:
通过均方误差函数对多个所述关联系数进行损失计算,根据计算得到的模型参数对所述特征识别模型进行迭代更新,得到目标特征识别模型,其中,所述均方误差函数为:
其中,θ为模型参数,ri,j为所述预测特征图像F(Xj)与所述支撑特征图像F(Xi)中类别i的关联系数,也即是所述预测样本与所述预设数量类别的相似度,范围为(0,1),(yi==yj)表示预测样本真实标签,数值为0或1;n为预测样本总量;C为随机选出的预设数量类别。
6.根据权利要求1所述的一种基于神经网络的小样本特征提取方法,其特征在于,所述获取待识别数据输入所述目标特征识别模型,计算所述待识别数据与所述预设数量类别中样本的目标相似度,根据所述目标相似度判断所述待识别数据的类别的步骤包括:
获取所述待识别数据;
将所述待识别数据输入所述目标特征识别模型,计算所述待识别数据与所述预设数量类别中每种类别的样本之间的目标相似度;
基于计算出的多个所述目标相似度,根据所述目标相似度大小选择最大目标相似度对应的类别作为所述待识别数据的判断结果。
7.根据权利要求6所述的一种基于神经网络的小样本特征提取方法,其特征在于,在所述基于计算出的多个所述目标相似度,根据所述目标相似度大小选择最大目标相似度对应的类别作为所述待识别数据的判断结果的步骤之后还包括:
将所述待识别数据的判断结果存储至区块链中。
8.一种基于神经网络的小样本特征提取装置,其特征在于,包括:
获取模块,用于从包括有预设数量类别的训练集中获取预测集与支撑集,所述支撑集包括从每个类别中抽取K个有标注的支撑样本,其中,K为正整数;
训练模块,用于将所述预测集中的预测样本与所述支撑集中的支撑样本输入特征识别模型中的嵌入模型进行训练,得到预测特征图以及包括K个有标注的支撑样本的多组所述待融合支撑特征图像,并对所述待融合支撑特征图像均值化,得到多组支撑特征图像;
预测模块,用于将所述预测特征图像与多组所述支撑特征图像输入所述特征识别模型中的关联模型进行关联,预测所述预测特征图像与每组所述支撑特征图像之间的关联系数,其中,所述关联系数表征所述预测样本与所述预设数量类别的相似度;
更新模块,用于基于所述关联系数进行损失计算,根据计算得到的模型参数对所述特征识别模型进行迭代更新,得到目标特征识别模型;
识别模块,用于获取待识别数据输入所述目标特征识别模型,计算所述待识别数据与所述预设数量类别中样本的目标相似度,根据所述目标相似度判断所述待识别数据的类别。
9.一种计算机设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的一种基于神经网络的小样本特征提取方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的一种基于神经网络的小样本特征提取方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210027852.4A CN114359582A (zh) | 2022-01-11 | 2022-01-11 | 一种基于神经网络的小样本特征提取方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210027852.4A CN114359582A (zh) | 2022-01-11 | 2022-01-11 | 一种基于神经网络的小样本特征提取方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114359582A true CN114359582A (zh) | 2022-04-15 |
Family
ID=81108693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210027852.4A Pending CN114359582A (zh) | 2022-01-11 | 2022-01-11 | 一种基于神经网络的小样本特征提取方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114359582A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114743081A (zh) * | 2022-05-10 | 2022-07-12 | 北京瑞莱智慧科技有限公司 | 模型训练方法、相关装置及存储介质 |
CN116563770A (zh) * | 2023-07-10 | 2023-08-08 | 四川弘和数智集团有限公司 | 车辆颜色的检测方法、装置及设备和介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961089A (zh) * | 2019-02-26 | 2019-07-02 | 中山大学 | 基于度量学习和元学习的小样本和零样本图像分类方法 |
CN113780335A (zh) * | 2021-07-26 | 2021-12-10 | 华南师范大学 | 一种小样本商品图像分类方法、装置、设备及存储介质 |
-
2022
- 2022-01-11 CN CN202210027852.4A patent/CN114359582A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961089A (zh) * | 2019-02-26 | 2019-07-02 | 中山大学 | 基于度量学习和元学习的小样本和零样本图像分类方法 |
CN113780335A (zh) * | 2021-07-26 | 2021-12-10 | 华南师范大学 | 一种小样本商品图像分类方法、装置、设备及存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114743081A (zh) * | 2022-05-10 | 2022-07-12 | 北京瑞莱智慧科技有限公司 | 模型训练方法、相关装置及存储介质 |
CN116563770A (zh) * | 2023-07-10 | 2023-08-08 | 四川弘和数智集团有限公司 | 车辆颜色的检测方法、装置及设备和介质 |
CN116563770B (zh) * | 2023-07-10 | 2023-09-29 | 四川弘和数智集团有限公司 | 车辆颜色的检测方法、装置及设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112632385A (zh) | 课程推荐方法、装置、计算机设备及介质 | |
CN112101172A (zh) | 基于权重嫁接的模型融合的人脸识别方法及相关设备 | |
CN111831675A (zh) | 一种仓储模型训练方法、装置、计算机设备及存储介质 | |
CN112101437A (zh) | 基于图像检测的细粒度分类模型处理方法、及其相关设备 | |
WO2022001232A1 (zh) | 一种问答数据增强方法、装置、计算机设备及存储介质 | |
CN114359582A (zh) | 一种基于神经网络的小样本特征提取方法及相关设备 | |
CN112528029A (zh) | 文本分类模型处理方法、装置、计算机设备及存储介质 | |
CN112863683A (zh) | 基于人工智能的病历质控方法、装置、计算机设备及存储介质 | |
CN112365202A (zh) | 一种多目标对象的评价因子筛选方法及其相关设备 | |
CN112529477A (zh) | 信用评估变量筛选方法、装置、计算机设备及存储介质 | |
CN114550053A (zh) | 一种交通事故定责方法、装置、计算机设备及存储介质 | |
CN113283222B (zh) | 自动化报表生成方法、装置、计算机设备及存储介质 | |
CN115099326A (zh) | 基于人工智能的行为预测方法、装置、设备及存储介质 | |
CN112434746A (zh) | 基于层次化迁移学习的预标注方法及其相关设备 | |
CN110532448B (zh) | 基于神经网络的文档分类方法、装置、设备及存储介质 | |
CN116777646A (zh) | 基于人工智能的风险识别方法、装置、设备及存储介质 | |
CN111143568A (zh) | 一种论文分类时的缓冲方法、装置、设备及存储介质 | |
CN114580794B (zh) | 数据处理方法、装置、程序产品、计算机设备和介质 | |
CN115392361A (zh) | 一种智能排序方法、装置、计算机设备及存储介质 | |
CN112396111A (zh) | 文本意图分类方法、装置、计算机设备及存储介质 | |
CN112395450A (zh) | 图片文字检测方法、装置、计算机设备及存储介质 | |
CN112036501A (zh) | 基于卷积神经网络的图片的相似度检测方法及其相关设备 | |
CN112949317B (zh) | 文本语义识别方法、装置、计算机设备及存储介质 | |
CN113420628B (zh) | 一种群体行为识别方法、装置、计算机设备及存储介质 | |
CN113792342B (zh) | 一种脱敏数据还原的方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |