CN113128669A - 一种用于半监督学习的神经网络模型以及半监督学习方法 - Google Patents

一种用于半监督学习的神经网络模型以及半监督学习方法 Download PDF

Info

Publication number
CN113128669A
CN113128669A CN202110374736.5A CN202110374736A CN113128669A CN 113128669 A CN113128669 A CN 113128669A CN 202110374736 A CN202110374736 A CN 202110374736A CN 113128669 A CN113128669 A CN 113128669A
Authority
CN
China
Prior art keywords
data
calibrated
neural network
network model
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110374736.5A
Other languages
English (en)
Inventor
�谷洋
张胡喆晨
陈益强
王记伟
王永斌
张忠平
肖益珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Computing Technology of CAS
Original Assignee
Institute of Computing Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS filed Critical Institute of Computing Technology of CAS
Priority to CN202110374736.5A priority Critical patent/CN113128669A/zh
Publication of CN113128669A publication Critical patent/CN113128669A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了一种半监督学习方法,该方法包括:利用有标签数据对神经网络模型进行初始训练;获得待标定的无标签数据的增强数据;利用初始训练好的神经网络模型标定待标定的无标签数据及其增强数据的伪标签;利用有标签数据以及待标定的伪标签数据重新训练神经网络模型;其中,用于半监督学习的神经网络模型包括:输入层,用于接收输入数据;第一隐藏层,用于提取输入数据的低层语义信息;语义层,用于基于低层语义信息确定输入数据的低层语义标签;第二隐藏层,用于基于输入数据及其低层语义标签提取输入数据的高层语义信息;以及输出层,用于基于输入数据的高层语义信息确定其高层语义标签,并作为最终标签输出。

Description

一种用于半监督学习的神经网络模型以及半监督学习方法
技术领域
本发明涉及人工智能及深度学习领域,尤其涉及用于半监督学习的神经网络模型以及半监督学习方法。
背景技术
随着可穿戴智能设备的广泛应用,对用户健康状况的监测更加方便快捷。通过运动传感器、生理传感器、位置传感器等感知装置可以准确获得与人体有关的各种感知数据。这些感知数据能够有效反映人们的例如物理行为、生理状态、睡眠、情绪等外在特征,也与其健康状况紧密相关。然而,现有的用于识别用户感知数据的神经网络模型往往需要大量的标定数据来进行监督学习,且模型的精度和可解释性均欠佳。
因此,亟需一种更高精度的用于半监督学习的神经网络模型以及相应的半监督学习方法。
发明内容
因此,本发明实施例的目的在于克服上述现有技术的缺陷,提供一种用于半监督学习的神经网络模型,包括:输入层,用于接收输入数据;第一隐藏层,用于提取所述输入数据的低层语义信息;语义层,用于基于所述低层语义信息确定所述输入数据的低层语义标签;第二隐藏层,用于基于所述输入数据及其低层语义标签提取所述输入数据的高层语义信息;以及输出层,用于基于所述输入数据的高层语义信息确定其高层语义标签,并作为最终标签输出。
在一个实施例中,所述语义层和所述输出层采用softmax激活函数,所述第一隐藏层和所述第二隐藏层采用sigmoid激活函数。
本发明另一方面提供了一种半监督学习方法,包括:利用有标签数据对权利要求1所述的神经网络模型进行初始训练;获得所述待标定的无标签数据的增强数据;利用初始训练好的所述神经网络模型标定所述待标定的无标签数据及其增强数据的伪标签;利用有标签数据以及待标定的伪标签数据重新训练所述神经网络模型。
在一个实施例中,上述方法还包括:计算所述待标定的无标签数据及其增强数据的伪标签的置信度;以及筛选置信度高于指定阈值的待标定的伪标签数据重新训练所述神经网络模型。
在一个实施例中,通过在所述待标定的无标签数据中加入高斯随机噪声获得所述待标定的无标签数据的增强数据
本发明另一方面提供了一种基于半监督学习标定无标签数据的方法,包括:获取有标签数据和待标定的无标签数据;通过上述学习方法训练权神经网络模型;以及利用训练好的神经网络模型标定所述待标定的无标签数据。
本发明另一方面提供了一种基于半监督学习标定无标签数据的系统,包括:接口模块,用于获取有标签书和待标定的无标签数据;训练模块,用于利用上述学习方法训练神经网络模型;以及预测模块,用于利用训练好的所述神经网络模型标定所述待标定的无标签数据。
本发明另一方面提供了一种存储介质,其中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现上述任一项所述的方法。
本发明另一方面提供了一种电子设备,包括处理器和存储器,所述存储器中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现上述任一项所述的方法。
本发明实施例的技术方案包括以下有益效果:
利用双层标签数据网络模型进行半监督学习,可以有效地利用感知数据的多层次信息,降低训练过程中造成的信息损失,并能够增强模型的可解释性;结合数据增强方法和一致性选择方法筛选出高可用性的未标定数据,可以使得模型可以充分利用数据的标签信息,在利用较少的标定数据和大量的未标定数据的情况下仍能够获得较好的识别精度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
在附图中:
图1示出了本发明一个实施例的一种半监督学习方法的流程图。
图2示出了本发明一个实施例的双层标签神经网络模型结构的示意图。
图3示出了本发明一个实施例的基于半监督学习标定无标签数据的方法的流程图。
图4示出了本发明一个实施例的基于半监督学习标定无标签数据的系统的结构示意图。
具体实施方式
为了使本发明的目的,技术方案及优点更加清楚明白,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动下获得的所有其他实施例,都属于本发明保护的范围。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本发明的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本发明的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
在现实生活中,无标签的数据易于获取,而有标签的数据收集起来通常很困难。由于标注大量的无标签数据需要耗费巨大的人力物力,因此严重限制了有监督学习的应用和发展。半监督学习(Semi-Supervised Learning)是有监督学习与无监督学习相结合的一种学习方法,它能够同时使用未标定的无标签数据和有标签数据来进行模式识别工作。由于半监督学习更适用于现实世界中的应用,近来已成为深度学习领域热门的新方向。然而,现有的半监督学习大多是从单一维度分析数据,无法有效利用数据的多层语义信息,因此学习模型的精度和可解释性均欠佳。
为此,本发明一个实施例提供了一种半监督学习方法,该方法采用了双层标签神经网络模型以学习数据多层语义信息,通过该模型并结合数据增强方法和一致性确定待标定的无标签数据(又称待标定数据或未标定数据,在本文中三者可以互换)的伪标签,并将待标定的伪标签数据(以下简称伪标签数据)与有标签数据(又称标定数据,在本文中两者可以互换)作为输入数据,共同训练双层标签神经网络模型,使得模型可以充分利用数据的标签信息,在较少的标定数据和大量的未标定数据情况下依然能够获得较好的识别精度。
下文以通过可穿戴智能设备采集的用户的感知数据(例如卡路里、距离、步数、活动强度数据等)为示例标定数据和未标定数据来介绍本发明的一个实施例,但可以理解,本发明的方案同样适用于其他任何数据以及其他任何场景。
图1示出了本发明一个实施例的一种半监督学习方法的流程图。如图1所示,该方法包括以下步骤:
S110,利用标定数据对双层标签神经网络模型进行初始训练。
双层标签神经网络模型(以下简称模型)是指包含两个隐藏层,可以同时获取感知数据的低层语义信息(例如行为、情绪、睡眠等)和高层语义信息(例如健康状态、健康指数等)的神经网络模型。
图2示出了本发明一个实施例的双层标签神经网络模型结构的示意图。如图2所示,模型依次包括输入层、第一隐藏层、语义层、第二隐藏层和输出层,其中,输入层接收输入数据;第一隐藏层提取输入数据的低层语义信息;语义层基于该低层语义信息确定输入数据的低层语义标签;第二隐藏层基于输入数据及其低层语义标签提取输入数据的高层语义信息;最后,输出层基于该高层语义信息确定输入数据的高层语义标签,并作为最终标签输出。
在一个实施例中,模型的各个网络层之间可以通过全连接的方式连接。可以采用python中skikit-learn包中的grid search训练模型并测量性能,并根据损失函数的收敛情况设置每个隐藏层中的神经元的数量。在一个实施例中,语义层和输出层可以采用softmax激活函数,并应用经典的交叉熵损失进行分类,第一隐藏层和第二隐藏层可以采用sigmoid激活函数。
低层语义标签的计算可以通过下列公式表示:
S=fw,b(X) (1)
高层语义标签的计算可以通过下列公式表示:
O=fw,b(S∪X) (2)
其中,X表示输入数据,S表示语义层的输出,即输入数据的低层语义标签,O表示输入数据的高层语义标签,即最终标签,w,b表示网络的权重和偏置项参数。对于具有L层隐藏层的深度神经网络,fw,b(X)可以表示为:
Zl=σ(Wl*Zl-1+bl)l=1,2,...,L (3)
ZL+1=fsoftmax(WL*ZL+bL) (4)
其中,Wl和bl分别是第l个隐藏层的权值和偏置,σ(·)是sigmoid激活函数,Zl则是第l个隐藏层的输出,Z0是输入的特征,ZL+1则是网络最终的输出。在低层语义标签计算过程中Z0对应于原始数据X,而ZL+1就是语义层的输出S。
最终标签的计算与上述过程相同,这个时候新的输入Z0是语义层的输出S结合输入的原始数据X组成的新特征(S∪X),最终输出ZL+1就是对最终标签的预测O。
上述网络模型可以有效地利用感知数据的多层次信息,降低训练过程中造成的信息损失。此外,通过第一隐藏层标定数据的低层语义信息能够增强模型的可解释性。
将训练样本中的标定数据输入上述模型对模型进行初始训练。
S120,在待标定数据中加入随机噪声,获得待标定数据的增强数据。
对于待标定数据中的每一个数据,都通过注入随机噪声进行K次数据增强。在一个实施例中,注入的随机噪声为高斯随机噪声,K设置为2,公式表示如下:
ui,k=Augment(ui) k∈(1,...,K) (5)
其中,ui表示待标定数据,ui,k表示待标定数据ui的第k次增强数据,K表示增强次数。
通过对无标签数据进行增强能够使得不同类别的数据聚类边界更加平滑。
S130,利用初始训练好的模型标定待标定数据及其增强数据的伪标签。
将待标定数据及其增强数据输入上述初始训练好的模型,模型输出的最终标签即为待标定数据及其增强数据的伪标签。
在一个实施例中,可以把每一个待标定数据ui及其所有的K个增强数据ui,k设置为一组,语义层中N个节点中的每个节点会为每组待标定数据及其增强数据生成一个“猜测”,该“猜测”代表的语义层标签的预测类分布,其中概率最大的预测类则为语义层中第n个节点的伪低层语义标签。输出层基于待标定数据及其增强数据以及伪低层语义标签计算类预测分布平均值,其中概率最大的类为输出层确定的伪标签。
输出层每个节点的预测类分布公式如下:
Figure BDA0003010723870000061
其中,
Figure BDA0003010723870000062
表示模型输出层中第n个节点基于第i个待标定数据ui及其增强数据ui,k以及伪低层语义标签
Figure BDA0003010723870000063
的预测类分布,xi表示第i个待标定数据ui及其伪低层语义标签
Figure BDA0003010723870000064
表示第i个待标定数据ui的增强数据ui,k以及伪低层语义标签
Figure BDA0003010723870000065
y表示输出层结果,k表示第k次增强数据,K表示增强次数,N表示语义层和输出层节点数量。
S140,利用有标签数据以及待标定的伪标签数据重新训练模型。
最后将所有伪标签数据添加到已有训练集重新对模型进行训练,得到最终的模型。
为了增强模型的精确度,可以对伪标签数据进行筛选以重新训练模型。在一个实施例中,可以首先计算待标定数据及其增强数据的伪标签的置信度,然后筛选出置信度高于指定阈值的待标定数据重新训模型,例如,可以将指定阈值设置为0.6。
通过上述训练方法,使得模型可以充分利用数据的标签信息,在较少的标定数据和大量的未标定数据情况下依然能够获得较好的识别精度。
图3示出了本发明一个实施例的基于半监督学习标定无标签数据的方法的流程图。如图3所示,该方法包括以下步骤:
S310,获取标定数据和待标定数据;
S320,通过上述步骤S110-S140中的方法训练双层标签神经网络模型。
S330,利用训练好的双层标签神经网络模型标定待标定数据。
图4示出了本发明一个实施例的基于半监督学习标定无标签数据的系统的结构示意图。如图4所示,该系统400包括接口模块401、训练模块402和预测模块403。尽管该框图以功能上分开的方式来描述组件,但这样的描述仅为了说明的目的。图中所示的组件可以任意地进行组合或被分为独立的软件、固件和/或硬件组件。而且,无论这样的组件是如何被组合或划分的,它们都可以在同一计算装置或多个计算装置上执行,其中多个计算装置可以是由一个或多个网络连接。
其中接口模块401获取标定数据和未标定数据;训练模块402利用如上文介绍的半监督学习方法训练双层标签神经网络模型;预测模块403利用训练好的神经网络模型标定未标定数据。
在本发明的又一个实施例中,还提供了一种计算机可读存储介质,其上存储有计算机程序或可执行指令,当所述计算机程序或可执行指令被执行时实现如前述实施例中所述的技术方案,其实现原理类似,此处不再赘述。在本发明的实施例中,计算机可读存储介质可以是任何能够存储数据且可以被计算装置读取的有形介质。计算机可读存储介质的实例包括硬盘驱动器、网络附加存储器(NAS)、只读存储器、随机存取存储器、CD-ROM、CD-R、CD-RW、磁带以及其它光学或非光学数据存储装置。计算机可读存储介质也可以包括分布在网络耦合计算机系统上的计算机可读介质,以便可以分布式地存储和执行计算机程序或指令。
实验部分
发明人在在公开数据集上实验验证了该方法的性能。使用PMData数据集进行验证,该数据集通过智能腕表和智能手机采集了16个人五个月的数据。智能腕表通过每分钟一次的频率记录了用户的生理数据,涵盖了卡路里、距离、步数、心率等信息,基于智能手机应用程序的用户自我报告评估了用户的每天的主观健康和运动强度以及一周一次的受伤情况调查。
根据该数据提取27维度特征,如表1所示。实验中选择自我报告中的每天的压力、疲惫、疼痛、睡眠质量指数作为第一层标签,对心情指数进行预测,并和其他的半监督方法进行了对比。
表1特征提取
Figure BDA0003010723870000081
每个实验将数据集随机分为训练集和测试集,并随机选择带标签的数据。其中选择20%作为测试集,并假设带标签的数据分别为5%、10%和20%。为了保证实验的客观性,每个实验进行十次,并在每次实验的数据集划分中使用不同的随机数种子,十次实验的平均结果作为最终的实验结果。实验比较了UDA、MixMatch、监督学习(SDLN)以及本发明中的半监督学习(Semi-DLN)下的DLN在两个数据集上的实验结果,如表2所示。
表2实验结果
Figure BDA0003010723870000082
Figure BDA0003010723870000091
可以看出,使用本专利的发明方法,实验精度(accuracy)结果如表2所示。本发明的方法在每种情况下都达到了最优。
本说明书中针对“各个实施例”、“一些实施例”、“一个实施例”、或“实施例”等的参考指代的是结合所述实施例所描述的特定特征、结构、或性质包括在至少一个实施例中。因此,短语“在各个实施例中”、“在一些实施例中”、“在一个实施例中”、或“在实施例中”等在整个说明书中各地方的出现并非必须指代相同的实施例。此外,特定特征、结构、或性质可以在一个或多个实施例中以任何合适方式组合。因此,结合一个实施例中所示出或描述的特定特征、结构或性质可以整体地或部分地与一个或多个其他实施例的特征、结构、或性质无限制地组合,只要该组合不是非逻辑性的或不能工作。
本说明书中“包括”和“具有”以及类似含义的术语表达,意图在于覆盖不排他的包含,例如包含了一系列步骤或单元的过程、方法、系统、产品或设备并不限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。“一”或“一个”也不排除多个的情况。另外,本申请附图中的各个元素仅仅为了示意说明,并非按比例绘制。
虽然本发明已经通过上述实施例进行了描述,然而本发明并非局限于这里所描述的实施例,在不脱离本发明范围的情况下还包括所做出的各种改变以及变化。

Claims (9)

1.一种用于半监督学习的神经网络模型,包括:
输入层,用于接收输入数据;
第一隐藏层,用于提取所述输入数据的低层语义信息;
语义层,用于基于所述低层语义信息确定所述输入数据的低层语义标签;
第二隐藏层,用于基于所述输入数据及其低层语义标签提取所述输入数据的高层语义信息;以及
输出层,用于基于所述输入数据的高层语义信息确定其高层语义标签,并作为最终标签输出。
2.根据权利要求1所述的神经网络模型,其中,所述语义层和所述输出层采用softmax激活函数,所述第一隐藏层和所述第二隐藏层采用sigmoid激活函数。
3.一种半监督学习方法,包括:
利用有标签数据对权利要求1所述的神经网络模型进行初始训练;
获得所述待标定的无标签数据的增强数据;
利用初始训练好的所述神经网络模型标定所述待标定的无标签数据及其增强数据的伪标签;
利用有标签数据以及待标定的伪标签数据重新训练所述神经网络模型。
4.根据权利要求3所述的学习方法,还包括:
计算所述待标定的无标签数据及其增强数据的伪标签的置信度;以及
筛选置信度高于指定阈值的待标定的伪标签数据重新训练所述神经网络模型。
5.根据权利要求3所述的学习方法,其中,通过在所述待标定的无标签数据中加入高斯随机噪声获得所述待标定的无标签数据的增强数据。
6.一种基于半监督学习标定无标签数据的方法,包括:
获取有标签数据和待标定的无标签数据;
通过权利要求3所述的方法训练权利要求1所述的神经网络模型;以及
利用训练好的神经网络模型标定所述待标定的无标签数据。
7.一种基于半监督学习标定无标签数据的系统,包括:
接口模块,用于获取有标签书和待标定的无标签数据;
训练模块,用于利用权利要求3所述的方法训练神经网络模型;以及
预测模块,用于利用训练好的所述神经网络模型标定所述待标定的无标签数据。
8.一种存储介质,其中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现权利要求1-7中任一项所述的方法。
9.一种电子设备,包括处理器和存储器,所述存储器中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现权利要求1-7中任一项所述的方法。
CN202110374736.5A 2021-04-08 2021-04-08 一种用于半监督学习的神经网络模型以及半监督学习方法 Pending CN113128669A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110374736.5A CN113128669A (zh) 2021-04-08 2021-04-08 一种用于半监督学习的神经网络模型以及半监督学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110374736.5A CN113128669A (zh) 2021-04-08 2021-04-08 一种用于半监督学习的神经网络模型以及半监督学习方法

Publications (1)

Publication Number Publication Date
CN113128669A true CN113128669A (zh) 2021-07-16

Family

ID=76775340

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110374736.5A Pending CN113128669A (zh) 2021-04-08 2021-04-08 一种用于半监督学习的神经网络模型以及半监督学习方法

Country Status (1)

Country Link
CN (1) CN113128669A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815601A (zh) * 2017-01-10 2017-06-09 西安电子科技大学 基于递归神经网络的高光谱图像分类方法
CN108846384A (zh) * 2018-07-09 2018-11-20 北京邮电大学 融合视频感知的多任务协同识别方法及系统
US20190012581A1 (en) * 2017-07-06 2019-01-10 Nokia Technologies Oy Method and an apparatus for evaluating generative machine learning model
CN111062215A (zh) * 2019-12-10 2020-04-24 金蝶软件(中国)有限公司 基于半监督学习训练的命名实体识别方法和装置
CN112183577A (zh) * 2020-08-31 2021-01-05 华为技术有限公司 一种半监督学习模型的训练方法、图像处理方法及设备
CN112613517A (zh) * 2020-12-17 2021-04-06 深圳大学 内窥镜仪器分割方法、装置、计算机设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815601A (zh) * 2017-01-10 2017-06-09 西安电子科技大学 基于递归神经网络的高光谱图像分类方法
US20190012581A1 (en) * 2017-07-06 2019-01-10 Nokia Technologies Oy Method and an apparatus for evaluating generative machine learning model
CN108846384A (zh) * 2018-07-09 2018-11-20 北京邮电大学 融合视频感知的多任务协同识别方法及系统
CN111062215A (zh) * 2019-12-10 2020-04-24 金蝶软件(中国)有限公司 基于半监督学习训练的命名实体识别方法和装置
CN112183577A (zh) * 2020-08-31 2021-01-05 华为技术有限公司 一种半监督学习模型的训练方法、图像处理方法及设备
CN112613517A (zh) * 2020-12-17 2021-04-06 深圳大学 内窥镜仪器分割方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
CN110083700A (zh) 一种基于卷积神经网络的企业舆情情感分类方法及系统
CN110532884A (zh) 行人重识别方法、装置及计算机可读存储介质
CN104866810A (zh) 一种深度卷积神经网络的人脸识别方法
CN111753054B (zh) 一种基于图神经网络的机器阅读推断方法
CN109165743A (zh) 一种基于深度压缩自编码器的半监督网络表示学习算法
CN112507039A (zh) 基于外部知识嵌入的文本理解方法
CN111126576B (zh) 一种深度学习的训练方法
CN111881671B (zh) 一种属性词提取方法
Bu Human motion gesture recognition algorithm in video based on convolutional neural features of training images
CN107832718A (zh) 基于自编码器的手指静脉防伪鉴别方法及系统
Chen et al. Recognizing the style of visual arts via adaptive cross-layer correlation
Xu et al. Intelligent emotion detection method based on deep learning in medical and health data
WO2019180310A1 (en) A method, an apparatus and a computer program product for an interpretable neural network representation
CN113158815A (zh) 一种无监督行人重识别方法、系统及计算机可读介质
CN113392209A (zh) 一种基于人工智能的文本聚类方法、相关设备及存储介质
CN116994709A (zh) 一种个性化的饮食与运动推荐方法、系统及电子设备
CN109242089B (zh) 递进监督深度学习神经网络训练方法、系统、介质和设备
CN112905793B (zh) 一种基于Bilstm+Attention文本分类的案例推荐方法及系统
Mogan et al. Advances in vision-based gait recognition: From handcrafted to deep learning
CN113761188A (zh) 文本标签确定方法、装置、计算机设备和存储介质
CN113408721A (zh) 神经网络结构搜索方法、装置、计算机设备和存储介质
CN107085655B (zh) 基于属性的约束概念格的中医数据处理方法及系统
CN117349494A (zh) 空间图卷积神经网络的图分类方法、系统、介质及设备
CN116522282A (zh) 一种基于bold信号的注意缺陷与多动障碍检测方法
Shi et al. Boosting sparsity-induced autoencoder: A novel sparse feature ensemble learning for image classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination