CN111062495B - 机器学习方法及相关装置 - Google Patents
机器学习方法及相关装置 Download PDFInfo
- Publication number
- CN111062495B CN111062495B CN201911190136.2A CN201911190136A CN111062495B CN 111062495 B CN111062495 B CN 111062495B CN 201911190136 A CN201911190136 A CN 201911190136A CN 111062495 B CN111062495 B CN 111062495B
- Authority
- CN
- China
- Prior art keywords
- target
- training
- neural network
- network model
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 199
- 238000003062 neural network model Methods 0.000 claims abstract description 85
- 238000012360 testing method Methods 0.000 claims abstract description 75
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000002372 labelling Methods 0.000 claims abstract description 30
- 238000013507 mapping Methods 0.000 claims abstract description 21
- 230000007246 mechanism Effects 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims description 78
- 238000004590 computer program Methods 0.000 claims description 13
- 241001465754 Metazoa Species 0.000 claims description 3
- 238000005065 mining Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000003064 k means clustering Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007786 learning performance Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了一种机器学习方法及相关装置,其中,方法包括:获取训练集和测试集,训练集为无标注数据,测试集为标注数据;将训练集中的所有训练样本通过无监督学习算法映射到嵌入空间,并采用预设聚类算法对所有训练样本进行聚类,得到多个类别,每一类别对应一个伪标签;依据伪标签为训练样本配置多个目标任务;基于多个目标任务运行元学习算法,以对多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型;将测试集输入到目标神经网络模型进行训练,得到更新参数;依据更新参数优化目标神经网络模型的模型参数,得到优化后的目标神经网络模型。采用本申请实施例可以提升神经网络模型的性能。
Description
技术领域
本申请涉及机器学习技术领域,具体涉及一种机器学习方法及相关装置。
背景技术
传统的监督学习往往以海量的有标签样本作为训练集,利用深度神经网络进行迭代训练,得到最终模型。随着数据收集和存储技术的飞速发展,收集大量未标记的样本已相当容易,而获取大量有标记的样本则相对较为困难,因为标记这些海量的样本需要耗费大量的人力物力。因此,在有标记样本较少时,如何利用大量的未标记样本来改善学习性能已成为当前机器学习研究中最受关注的问题之一。在此背景下,半监督学习被提出。
半监督学习可以让学习器不依赖外界交互、自动地利用未标记样本来提升学习性能,但是目前传统的半监督学习无法学到先前特征对后续任务的影响,在机器学习各领域的表现并不理想,即目前机器学习效果不佳,因此,如何提升神经网络模型的性能的问题亟待解决。
发明内容
本申请实施例提供了一种机器学习方法及相关装置,可以提升神经网络模型的性能。
第一方面,本申请实施例提供一种机器学习方法,所述方法包括:
获取训练集和测试集,所述训练集为无标注数据,所述测试集为标注数据;
将所述训练集中的所有训练样本通过无监督学习算法映射到嵌入空间;
基于所述嵌入空间,采用预设聚类算法对所述所有训练样本进行聚类,得到多个类别,每一类别包括至少一个所述训练样本,每一类别对应一个伪标签;
依据所述伪标签为所述训练样本配置多个目标任务,每一类所述伪标签对应至少一个所述目标任务;
基于所述多个目标任务运行元学习算法,以对所述多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型;
将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数;
依据所述更新参数优化所述目标神经网络模型的模型参数,得到优化后的所述目标神经网络模型。
第二方面,本申请实施例提供了一种机器学习装置,所述装置包括:
第一获取单元,用于获取训练集和测试集,所述训练集为无标注数据,所述测试集为标注数据;
映射单元,用于将所述训练集中的所有训练样本通过无监督学习算法映射到嵌入空间;
聚类单元,用于基于所述嵌入空间,采用预设聚类算法对所述所有训练样本进行聚类,得到多个类别,每一类别包括至少一个所述训练样本,每一类别对应一个伪标签;
配置单元,用于依据所述伪标签为所述训练样本配置多个目标任务,每一类所述伪标签对应至少一个所述目标任务;
训练单元,用于基于所述多个目标任务运行元学习算法,以对所述多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型;以及将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数;
优化单元,用于依据所述更新参数优化所述目标神经网络模型的模型参数,得到优化后的所述目标神经网络模型。
第三方面,本申请实施例提供一种电子设备,包括处理器、存储器、通信接口以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行本申请实施例第一方面中的步骤的指令。
第四方面,本申请实施例提供了一种计算机可读存储介质,其中,上述计算机可读存储介质存储用于电子数据交换的计算机程序,其中,上述计算机程序使得计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。
第五方面,本申请实施例提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
实施本申请实施例,具备如下有益效果:
可以看出,本申请实施例中所描述的机器学习方法及相关装置,获取训练集和测试集,训练集为无标注数据,测试集为标注数据,将训练集中的所有训练样本通过无监督学习算法映射到嵌入空间,基于嵌入空间,采用预设聚类算法对所有训练样本进行聚类,得到多个类别,每一类别包括至少一个训练样本,每一类别对应一个伪标签,依据伪标签为训练样本配置多个目标任务,每一类伪标签对应至少一个目标任务,基于多个目标任务运行元学习算法,以对多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型,将测试集输入到目标神经网络模型进行训练,得到更新参数,依据更新参数优化目标神经网络模型的模型参数,得到优化后的目标神经网络模型,如此,基于上述元学习的半监督学习方法,通过监督学习的指导,利用元学习的思想,学习一种无监督学习的更新规则,如此,能够提升神经网络模型的性能。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A是本申请实施例提供的一种机器学习方法的流程示意图;
图1B是本申请实施例提供的一种模型参数更新演示示意图;
图1C是本申请实施例提供的另一种机器学习方法的流程示意图;
图1D是本申请实施例提供的另一种机器学习方法的流程示意图;
图1E是本申请实施例提供的另一种机器学习方法的流程示意图;
图2是本申请实施例提供的另一种机器学习方法的流程示意图;
图3是本申请实施例提供的另一种电子设备的结构示意图;
图4A是本申请实施例提供的一种机器学习装置的功能单元组成框图;
图4B是本申请实施例提供的另一种机器学习装置的功能单元组成框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本发明实施例所描述电子设备可以包括智能手机(如Android手机、iOS手机、Windows Phone手机等)、平板电脑、掌上电脑、行车记录仪、交通指挥平台、服务器、笔记本电脑、移动互联网设备(MID,Mobile Internet Devices)或穿戴式设备(如智能手表、蓝牙耳机)等,上述仅是举例,而非穷举,包含但不限于上述电子设备。
下面对本申请实施例进行详细介绍。
请参阅图1A,图1A是本申请实施例提供的一种机器学习方法的流程示意图,应用于电子设备,如图所示,本机器学习方法包括:
101、获取训练集和测试集,所述训练集为无标注数据,所述测试集为标注数据。
其中,本申请实施例中,训练集和测试集均包括多张图像,训练集与测试集可以对应同一个主题,该主题可以为以下至少一种:人脸、车辆、花、建筑、动物等等,在此不做限定。上述训练集中包括多个训练样本,每一训练样本均为无标注数据,即训练样本没有添加标签。上述测试集中包括多个测试样本,每一测试样本均为标注数据,即测试样本中已经添加了标签,标签的具体类别可以由用户预先设置,不同的主题对应不同的标签类别。
102、将所述训练集中的所有训练样本通过无监督学习算法映射到嵌入空间。
其中,本申请实施例中,无监督学习算法可以为以下至少一种:主成分分析方法(Principal Components Analysis,PCA)等,等距映射方法、局部线性嵌入方法、拉普拉斯特征映射方法、黑塞局部线性嵌入方法和局部切空间排列方法,在此不做限定。
具体实现中,无监督学习算法用于实现嵌入(Embeddings)操作,电子设备可以基于嵌入操作将训练集中的所有训练样本映射到嵌入空间,在神经网络中,嵌入后的数据维度较低,它能将离散的序列映射为连续的向量。神经网络嵌入的主要用途有三种:1、在嵌入空间中找到最近邻;2、作为有监督的机器学习模型的输入;3、挖掘变量间的关系。
103、基于所述嵌入空间,采用预设聚类算法对所述所有训练样本进行聚类,得到多个类别,每一类别包括至少一个所述训练样本,每一类别对应一个伪标签。
其中,预设聚类算法可以为以下至少一种:K-means聚类算法、Mean-Shift聚类算法、基于密度的带噪声的空间聚类的应用(Density-Based Spatial Clustering ofApplications with Noise,DBSCAN)、基于高斯混合模型(GMM)的期望最大化(EM)聚类、凝聚层次聚类,在此不做限定。
具体实现中,电子设备可以基于嵌入空间,并采用预设聚类算法对所有的训练样本进行聚类,从而,得到多个类别,每一类别包括至少一个训练样本,每一类别对应一个伪标签。
104、依据所述伪标签为所述训练样本配置多个目标任务,每一类所述伪标签对应至少一个所述目标任务。
其中,电子设备中可以预先存储伪标签与任务之间的映射关系,进而,可以依据该映射关系为多个类别中每一类别的伪标签分配一个目标任务,当然,每一类伪标签可以对应至少一个目标任务。
105、基于所述多个目标任务运行元学习算法,以对所述多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型。
其中,元学习算法可以参考现有技术,在此不再赘述。
106、将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数。
其中,本申请实施例中,目标神经网络模型可以为以下至少一种:卷积神经网络模型、语义分割网络模型、级联神经网络模型等等,在此不做限定。更新参数可以为以下至少一种:权重、偏置、卷积核、层数、激活函数类型、度量(metrics)、权值最佳算法(optimize)、batch_size等等,在此不做限定。具体实现中,电子设备可以将测试集输入到目标神经网络模型中进行训练,得到更新参数,更新参数有利于优化目标神经网络模型的性能。
在一个可能的示例中,上述步骤106,将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数,可以包括如下步骤:
61、将所述测试集输入到所述目标神经网络模型,得到预测结果;
62、将所述预测结果输入到预设损失函数,得到所述更新参数。
其中,上述预设损失函数可以为以下至少一种:交叉熵损失函数、铰链损失函数和指数损失函数等等,在此不作限定,其可以预先设置或者系统默认。具体实现中,电子设备可以将测试集输入到目标神经网络模型中,得到预测结果,将该预测结果输入到预设损失函数,得到更新参数,该更新参数在一定程度上反映了目标神经网络模型的性能,有助于调节目标神经网络模型的鲁棒性。
在一个可能的示例中,所述多个目标任务包括两类任务,具体为:无监督学习任务和监督学习任务,所述更新参数包括第一更新参数和第二更新参数,所述第一更新参数为针对所述无监督学习任务的参数,所述第二更新参数为针对所述监督学习任务的参数,所述预设损失函数包括第一损失函数和第二损失函数,其中,所述第一损失函数用于调节所述无监督学习任务的运算结果,所述第二损失函数用于调节所述监督学习任务的运算结果。
本申请实施例中,上述多个目标任务可以分为两类,一类为:无监督学习任务和监督学习任务,上述更新参数可以包括第一更新参数和第二更新参数,其中,第一更新参数为针对无监督学习任务的参数,第二更新参数为针对监督学习任务的参数,预设损失函数可以包括第一损失函数和第二损失函数,其中,第一损失函数用于调节无监督学习任务的运算结果,第二损失函数用于调节监督学习任务的运算结果。
预设损失函数可以用如下公式表示:
Loss=function1+function2
其中,Loss为预设损失函数,function1为第一损失函数,function2为第二损失函数,function1为调节无监督学习任务的运算结果的函数,function2为调节监督学习任务的运算结果的函数,通过function1和function2可以对机器学习效果实现调节。
在一个可能的示例中,所述第一损失函数对应第一权值,所述第一权值用于调节所述无监督学习任务的运算结果,所述第二损失函数对应第二权值,所述第二权值用于调节所述监督学习任务的运算结果。
预设损失函数可以用如下公式表示:
Loss=w1*function1+w2*function2
其中,Loss为预设损失函数,function1为第一损失函数,function2为第二损失函数,function1为调节无监督学习任务的运算结果的函数,w1为function1对应的第一权值,function2为调节监督学习任务的运算结果的函数,w2为function2对应的权值,通过调节w1或者w2的大小,可以对机器学习效果实现调节。
107、依据所述更新参数优化所述目标神经网络模型的模型参数,得到优化后的所述目标神经网络模型。
其中,本申请实施例中,模型参数可以为以下至少一种:权重、偏置、卷积核、层数、激活函数类型、度量、权值最佳算法、batch_size等等,在此不做限定。如图1B所示,电子设备可以基于原始模型参数的目标神经网络模型对输入数据进行运算,并将运算结果输入到损失函数,得到更新参数,利用该更新参数优化目标神经网络模型的模型参数。
在一个可能的示例中,上述步骤107之后,还可以包括如下步骤:
A1、从所述多个类别中获取带有所述伪标签的部分训练样本;
A2、将所述部分训练样本输入到优化后的所述目标神经网络模型中,得到标签更新后的部分训练样本。
其中,电子设备可以选取部分携带伪标签的部分训练样本,并将该部分训练样本输入到优化后的目标神经网络模型,得到标签更新后的部分训练样本,如此,能够纠正训练样本的标签,提升目标神经网络模型的鲁棒性。
举例说明下,如图1C所示,具体实现中,本申请实施例中的机器学习方法可以包括如下步骤:
1、准备数据,即准备训练集和测试集,其中训练集是无标注数据,测试集是有标注的数据,
将全部数据平均分为训练集xn和测试集xm,标注测试集样本,其中测试集样本标签为ym。
2、无监督训练,即将无标注的训练样本通过传统的无监督学习算法映射到嵌入空间,然后用K均值聚类算法对所有样本聚类,为每个样本分配一个伪标签,根据伪标签为训练集安排多个任务,在所有任务上运行元学习算法得到一个学习机制。其中,无监督训练在没有标签的样本上学到一种分类机制,具体为:
(1)、在没有标签的训练样本xn中先用传统的无监督学习算法学出一个基本的特征表述,将数据xn映射到嵌入空间Z中,生成{zn}。用K均值聚类算法将所有训练样本编码{zn}聚类,为每个样本分配一个伪标签。
(2)、根据伪标签为训练集生成多个学习任务。
(3)、所有任务均用元学习算法训练,通过不断减小损失Loss1得到一种分类机制F,当所有任务训练完成后即暂停。
3、监督训练,即将有标注的测试集输入无监督训练得到的模型继续训练,返回更新参数,指导无监督学习。
监督训练可以为一般的卷积神经网络训练,如图1D所示,将测试样本xm和标签ym输入F继续训练,随着迭代次数的增加模型参数不断更新,经过k次迭代后,将模型传回无监督训练模块,k为大于1的整数。
进一步地利用监督学习更新的模型,随机对带有伪标签的部分训练样本xi(i=1,...,n)进行分类,纠正开始时分配的伪标签,如附图1E,通过不断迭代为训练样本分配更准确的标签。
4、迭代分配标签,即用更新后的模型随机对部分带有伪标签的部分训练样本进行分类,更新其标签。
5、继续迭代直到模型收敛。
训练样本的标签更新后即在所有任务启动新一轮元学习算法训练。重复迭代直到总的Loss趋于稳定,网络收敛,得到最终模型,其中,
Loss=Loss1+Loss2
其中,Loss1为无监督学习任务对应的损失函数,Loss2为监督学习任务对应的损失函数,Loss则为损失函数的最终模型。
通过大量的无监督学习任务和有监督的返回更新参数,网络就可以学习一种无监督学习的分类机制并能正确分类样本。
在一个可能的示例中,上述步骤101之前,还可以包括如下步骤:
B1、获取目标人脸图像;
B2、将所述目标人脸图像与预设人脸模板进行匹配;
B3、在所述目标人脸图像与所述预设人脸模板匹配成功时,执行步骤101。
其中,预设人脸模板可以预先保存在电子设备中。电子设备可以获取目标人脸图像,并且将目标人脸图像与预设人脸模板进行匹配,在目标人脸图像与预设人脸模板匹配成功时,执行步骤101,否则,则可以不执行步骤101,如此,可以针对指定用户实现机器学习功能。
在一个可能的示例中,上述步骤B2,将所述目标人脸图像与预设人脸模板进行匹配,可以包括如下步骤:
B21、对所述目标人脸图像进行特征提取,得到第一特征点集;
B22、将所述第一特征点集与所述预设人脸模板的第二特征点集进行匹配,得到多个匹配值;
B23、从所述多个匹配值中选取最大的三个目标匹配值;
B24、获取所述三个目标匹配值对应的特征点对,得到三对特征点对,所述三对特征点对包括来自于所述目标人脸图像的三个目标第一特征点和来自于所述预设人脸模板的三个目标第二特征点,所述三个目标第一特征点不处于同一直线上且所述三个目标第二特征点不处于同一直线上;
B25、将所述三个目标第一特征点构成第一三角形;
B26、将所述三个目标第二特征点构成第二三角形;
B27、在所述第一三角形与所述第二三角形相似时,确定所述目标人脸图像与所述预设人脸图像匹配成功。
其中,本申请实施例中,电子设备可以对目标人脸图像进行特征提取,得到第一特征点集,具体特征提取方式可以为:尺度不变特征变换(scale invariant featuretransform,SIFT)、harris角点检测和SURF算法等等,在此不做限定,基于相同算法,也可以对预设人脸模板进行特征提取,得到第二特征点集,进而,可以将第一特征点集与预设人脸模板的第二特征点集进行匹配,得到多个匹配值。
进一步地,电子设备可以从多个匹配值中选取最大的三个目标匹配值,并获取该三个目标匹配值对应的特征点对,得到三对特征点对,该三对特征点对包括来自于目标人脸图像的三个目标第一特征点和来自于预设人脸模板的三个目标第二特征点,三个目标第一特征点不处于同一直线上且三个目标第二特征点不处于同一直线上。电子设备可以将三个目标第一特征点构成第一三角形,并且可以将三个目标第二特征点构成第二三角形,在第一三角形与第二三角形相似时,确定目标人脸图像与预设人脸图像匹配成功,否则,则确认目标人脸图像与预设人脸图像匹配失败。
可以看出,本申请实施例中所描述的机器学习方法,获取训练集和测试集,训练集为无标注数据,测试集为标注数据,将训练集中的所有训练样本通过无监督学习算法映射到嵌入空间,基于嵌入空间,采用预设聚类算法对所有训练样本进行聚类,得到多个类别,每一类别包括至少一个训练样本,每一类别对应一个伪标签,依据伪标签为训练样本配置多个目标任务,每一类伪标签对应至少一个目标任务,基于多个目标任务运行元学习算法,以对多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型,将测试集输入到目标神经网络模型进行训练,得到更新参数,依据更新参数优化目标神经网络模型的模型参数,得到优化后的目标神经网络模型,如此,基于上述元学习的半监督学习方法,通过监督学习的指导,利用元学习的思想,学习一种无监督学习的更新规则,如此,能够提升神经网络模型的性能。
与上述图1A所示的实施例一致地,请参阅图2,图2是本申请实施例提供的一种机器学习方法的流程示意图,应用于电子设备,如图所示,本机器学习方法包括:
201、获取训练集和测试集,所述训练集为无标注数据,所述测试集为标注数据。
202、将所述训练集中的所有训练样本通过无监督学习算法映射到嵌入空间。
203、基于所述嵌入空间,采用预设聚类算法对所述所有训练样本进行聚类,得到多个类别,每一类别包括至少一个所述训练样本,每一类别对应一个伪标签。
204、依据所述伪标签为所述训练样本配置多个目标任务,每一类所述伪标签对应至少一个所述目标任务。
205、基于所述多个目标任务运行元学习算法,以对所述多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型。
206、将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数。
207、依据所述更新参数优化所述目标神经网络模型的模型参数,得到优化后的所述目标神经网络模型。
208、从所述多个类别中获取带有所述伪标签的部分训练样本。
209、将所述部分训练样本输入到优化后的所述目标神经网络模型中,得到标签更新后的部分训练样本。
其中,上述步骤201-步骤209的具体描述可以参照上述图1A所描述的机器学习方法的相应步骤,在此不再赘述。
可以看出,本申请实施例中所描述的机器学习方法,获取训练集和测试集,训练集为无标注数据,测试集为标注数据,将训练集中的所有训练样本通过无监督学习算法映射到嵌入空间,基于嵌入空间,采用预设聚类算法对所有训练样本进行聚类,得到多个类别,每一类别包括至少一个训练样本,每一类别对应一个伪标签,依据伪标签为训练样本配置多个目标任务,每一类伪标签对应至少一个目标任务,基于多个目标任务运行元学习算法,以对多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型,将测试集输入到目标神经网络模型进行训练,得到更新参数,依据更新参数优化目标神经网络模型的模型参数,得到优化后的目标神经网络模型,从多个类别中获取带有伪标签的部分训练样本,将部分训练样本输入到优化后的目标神经网络模型中,得到标签更新后的部分训练样本,如此,一方面,基于上述元学习的半监督学习方法,通过监督学习的指导,利用元学习的思想,学习一种无监督学习的更新规则,如此,能够提升神经网络模型的性能,另一方面,还可以优化训练样本,有助于提升神经网络模型的鲁棒性。
与上述实施例一致地,请参阅图3,图3是本申请实施例提供的一种电子设备的结构示意图,如图所示,该电子设备包括处理器、存储器、通信接口以及一个或多个程序,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,本申请实施例中,上述程序包括用于执行以下步骤的指令:
获取训练集和测试集,所述训练集为无标注数据,所述测试集为标注数据;
将所述训练集中的所有训练样本通过无监督学习算法映射到嵌入空间;
基于所述嵌入空间,采用预设聚类算法对所述所有训练样本进行聚类,得到多个类别,每一类别包括至少一个所述训练样本,每一类别对应一个伪标签;
依据所述伪标签为所述训练样本配置多个目标任务,每一类所述伪标签对应至少一个所述目标任务;
基于所述多个目标任务运行元学习算法,以对所述多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型;
将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数;
依据所述更新参数优化所述目标神经网络模型的模型参数,得到优化后的所述目标神经网络模型。
可以看出,本申请实施例中所描述的电子设备,获取训练集和测试集,训练集为无标注数据,测试集为标注数据,将训练集中的所有训练样本通过无监督学习算法映射到嵌入空间,基于嵌入空间,采用预设聚类算法对所有训练样本进行聚类,得到多个类别,每一类别包括至少一个训练样本,每一类别对应一个伪标签,依据伪标签为训练样本配置多个目标任务,每一类伪标签对应至少一个目标任务,基于多个目标任务运行元学习算法,以对多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型,将测试集输入到目标神经网络模型进行训练,得到更新参数,依据更新参数优化目标神经网络模型的模型参数,得到优化后的目标神经网络模型,如此,基于上述元学习的半监督学习方法,通过监督学习的指导,利用元学习的思想,学习一种无监督学习的更新规则,如此,能够提升神经网络模型的性能。
在一个可能的示例中,在所述将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数方面,上述程序包括用于执行以下步骤的指令:
将所述测试集输入到所述目标神经网络模型,得到预测结果;
将所述预测结果输入到预设损失函数,得到所述更新参数。
在一个可能的示例中,所述多个目标任务包括两类任务,具体为:无监督学习任务和监督学习任务,所述更新参数包括第一更新参数和第二更新参数,所述第一更新参数为针对所述无监督学习任务的参数,所述第二更新参数为针对所述监督学习任务的参数,所述预设损失函数包括第一损失函数和第二损失函数,其中,所述第一损失函数用于调节所述无监督学习任务的运算结果,所述第二损失函数用于调节所述监督学习任务的运算结果。
在一个可能的示例中,所述第一损失函数对应第一权值,所述第一权值用于调节所述无监督学习任务的运算结果,所述第二损失函数对应第二权值,所述第二权值用于调节所述监督学习任务的运算结果。
在一个可能的示例中,上述程序还包括用于执行以下步骤的指令:
从所述多个类别中获取带有所述伪标签的部分训练样本;
将所述部分训练样本输入到优化后的所述目标神经网络模型中,得到标签更新后的部分训练样本。
上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所提供的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对电子设备进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
图4A是本申请实施例中所涉及的机器学习装置400的功能单元组成框图。该机器学习装置400,应用于电子设备,所述装置400包括:
第一获取单元401,用于获取训练集和测试集,所述训练集为无标注数据,所述测试集为标注数据;
映射单元402,用于将所述训练集中的所有训练样本通过无监督学习算法映射到嵌入空间;
聚类单元403,用于基于所述嵌入空间,采用预设聚类算法对所述所有训练样本进行聚类,得到多个类别,每一类别包括至少一个所述训练样本,每一类别对应一个伪标签;
配置单元404,用于依据所述伪标签为所述训练样本配置多个目标任务,每一类所述伪标签对应至少一个所述目标任务;
训练单元405,用于基于所述多个目标任务运行元学习算法,以对所述多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型;以及将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数;
优化单元406,用于依据所述更新参数优化所述目标神经网络模型的模型参数,得到优化后的所述目标神经网络模型。
可以看出,本申请实施例中所描述的机器学习装置,应用于电子设备,获取训练集和测试集,训练集为无标注数据,测试集为标注数据,将训练集中的所有训练样本通过无监督学习算法映射到嵌入空间,基于嵌入空间,采用预设聚类算法对所有训练样本进行聚类,得到多个类别,每一类别包括至少一个训练样本,每一类别对应一个伪标签,依据伪标签为训练样本配置多个目标任务,每一类伪标签对应至少一个目标任务,基于多个目标任务运行元学习算法,以对多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型,将测试集输入到目标神经网络模型进行训练,得到更新参数,依据更新参数优化目标神经网络模型的模型参数,得到优化后的目标神经网络模型,如此,基于上述元学习的半监督学习方法,通过监督学习的指导,利用元学习的思想,学习一种无监督学习的更新规则,如此,能够提升神经网络模型的性能。
在一个可能的示例中,在所述将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数方面,所述训练单元405具体用于:
将所述测试集输入到所述目标神经网络模型,得到预测结果;
将所述预测结果输入到预设损失函数,得到所述更新参数。
在一个可能的示例中,所述多个目标任务包括两类任务,具体为:无监督学习任务和监督学习任务,所述更新参数包括第一更新参数和第二更新参数,所述第一更新参数为针对所述无监督学习任务的参数,所述第二更新参数为针对所述监督学习任务的参数,所述预设损失函数包括第一损失函数和第二损失函数,其中,所述第一损失函数用于调节所述无监督学习任务的运算结果,所述第二损失函数用于调节所述监督学习任务的运算结果。
在一个可能的示例中,所述第一损失函数对应第一权值,所述第一权值用于调节所述无监督学习任务的运算结果,所述第二损失函数对应第二权值,所述第二权值用于调节所述监督学习任务的运算结果。
在一个可能的示例中,如图4B所示,图4B为图4A所描述的机器学习装置的又一变型结构,其与图4A相比较,还可以包括:第二获取单元407和运算单元408,具体如下:
第二获取单元407,用于从所述多个类别中获取带有所述伪标签的部分训练样本;
运算单元408,用于将所述部分训练样本输入到优化后的所述目标神经网络模型中,得到标签更新后的部分训练样本。
可以理解的是,本实施例的机器学习装置的各程序模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤,上述计算机包括电子设备。
本申请实施例还提供一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包,上述计算机包括电子设备。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (6)
1.一种机器学习方法,其特征在于,所述方法包括:
获取训练集和测试集,所述训练集为无标注数据,所述测试集为标注数据;所述训练集和所述测试集均包括多张图像,所述训练集与所述测试集对应同一个主题,该主题包括以下至少一种:人脸、车辆、花、建筑、动物;
将所述训练集中的所有训练样本通过无监督学习算法映射到嵌入空间;所述嵌入空间的功能包括以下至少一种:在嵌入空间中找到最近邻、作为有监督的机器学习模型的输入、挖掘变量间的关系;
基于所述嵌入空间,采用预设聚类算法对所述所有训练样本进行聚类,得到多个类别,每一类别包括至少一个所述训练样本,每一类别对应一个伪标签;预先存储伪标签与任务之间的映射关系;
依据所述伪标签为所述训练样本配置多个目标任务,每一类所述伪标签对应至少一个所述目标任务,具体为:依据所述映射关系为所述多个类别中每一类别的伪标签分配一个目标任务;
基于所述多个目标任务运行元学习算法,以对所述多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型;
将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数;
依据所述更新参数优化所述目标神经网络模型的模型参数,得到优化后的所述目标神经网络模型;
在所述获取训练集和测试集之前,所述方法还包括:
获取目标人脸图像;
将所述目标人脸图像与预设人脸模板进行匹配;
在所述目标人脸图像与所述预设人脸模板匹配成功时,执行所述获取训练集和测试集的步骤;
其中,所述将所述目标人脸图像与预设人脸模板进行匹配,包括:
对所述目标人脸图像进行特征提取,得到第一特征点集;
将所述第一特征点集与所述预设人脸模板的第二特征点集进行匹配,得到多个匹配值;
从所述多个匹配值中选取最大的三个目标匹配值;
获取所述三个目标匹配值对应的特征点对,得到三对特征点对,所述三对特征点对包括来自于所述目标人脸图像的三个目标第一特征点和来自于所述预设人脸模板的三个目标第二特征点,所述三个目标第一特征点不处于同一直线上且所述三个目标第二特征点不处于同一直线上;
将所述三个目标第一特征点构成第一三角形;
将所述三个目标第二特征点构成第二三角形;
在所述第一三角形与所述第二三角形相似时,确定所述目标人脸图像与所述预设人脸图像匹配成功;
其中,所述将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数,包括:
将所述测试集输入到所述目标神经网络模型,得到预测结果;
将所述预测结果输入到预设损失函数,得到所述更新参数;
其中,所述多个目标任务包括两类任务,具体为:无监督学习任务和监督学习任务,所述更新参数包括第一更新参数和第二更新参数,所述第一更新参数为针对所述无监督学习任务的参数,所述第二更新参数为针对所述监督学习任务的参数,所述预设损失函数包括第一损失函数和第二损失函数,其中,所述第一损失函数用于调节所述无监督学习任务的运算结果,所述第二损失函数用于调节所述监督学习任务的运算结果。
2.根据权利要求1所述的方法,其特征在于,所述第一损失函数对应第一权值,所述第一权值用于调节所述无监督学习任务的运算结果,所述第二损失函数对应第二权值,所述第二权值用于调节所述监督学习任务的运算结果。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
从所述多个类别中获取带有所述伪标签的部分训练样本;
将所述部分训练样本输入到优化后的所述目标神经网络模型中,得到标签更新后的部分训练样本。
4.一种机器学习装置,其特征在于,所述装置包括:
第一获取单元,用于获取训练集和测试集,所述训练集为无标注数据,所述测试集为标注数据;所述训练集和所述测试集均包括多张图像,所述训练集与所述测试集对应同一个主题,该主题包括以下至少一种:人脸、车辆、花、建筑、动物;
映射单元,用于将所述训练集中的所有训练样本通过无监督学习算法映射到嵌入空间;所述嵌入空间的功能包括以下至少一种:在嵌入空间中找到最近邻、作为有监督的机器学习模型的输入、挖掘变量间的关系;
聚类单元,用于基于所述嵌入空间,采用预设聚类算法对所述所有训练样本进行聚类,得到多个类别,每一类别包括至少一个所述训练样本,每一类别对应一个伪标签;预先存储伪标签与任务之间的映射关系;
配置单元,用于依据所述伪标签为所述训练样本配置多个目标任务,每一类所述伪标签对应至少一个所述目标任务,具体为:依据所述映射关系为所述多个类别中每一类别的伪标签分配一个目标任务;
训练单元,用于基于所述多个目标任务运行元学习算法,以对所述多个类别对应的训练样本进行训练,得到具备目标学习机制的目标神经网络模型;以及将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数;
优化单元,用于依据所述更新参数优化所述目标神经网络模型的模型参数,得到优化后的所述目标神经网络模型;
在所述获取训练集和测试集之前,所述装置还具体用于:
获取目标人脸图像;
将所述目标人脸图像与预设人脸模板进行匹配;
在所述目标人脸图像与所述预设人脸模板匹配成功时,执行所述获取训练集和测试集的步骤;
其中,所述将所述目标人脸图像与预设人脸模板进行匹配,包括:
对所述目标人脸图像进行特征提取,得到第一特征点集;
将所述第一特征点集与所述预设人脸模板的第二特征点集进行匹配,得到多个匹配值;
从所述多个匹配值中选取最大的三个目标匹配值;
获取所述三个目标匹配值对应的特征点对,得到三对特征点对,所述三对特征点对包括来自于所述目标人脸图像的三个目标第一特征点和来自于所述预设人脸模板的三个目标第二特征点,所述三个目标第一特征点不处于同一直线上且所述三个目标第二特征点不处于同一直线上;
将所述三个目标第一特征点构成第一三角形;
将所述三个目标第二特征点构成第二三角形;
在所述第一三角形与所述第二三角形相似时,确定所述目标人脸图像与所述预设人脸图像匹配成功;
其中,在所述将所述测试集输入到所述目标神经网络模型进行训练,得到更新参数方面,所述训练单元具体用于:
将所述测试集输入到所述目标神经网络模型,得到预测结果;
将所述预测结果输入到预设损失函数,得到所述更新参数;
其中,所述多个目标任务包括两类任务,具体为:无监督学习任务和监督学习任务,所述更新参数包括第一更新参数和第二更新参数,所述第一更新参数为针对所述无监督学习任务的参数,所述第二更新参数为针对所述监督学习任务的参数,所述预设损失函数包括第一损失函数和第二损失函数,其中,所述第一损失函数用于调节所述无监督学习任务的运算结果,所述第二损失函数用于调节所述监督学习任务的运算结果。
5.一种电子设备,其特征在于,包括处理器、存储器,所述存储器用于存储一个或多个程序,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-3任一项所述的方法中的步骤的指令。
6.一种计算机可读存储介质,其特征在于,存储用于电子数据交换的计算机程序,其中,所述计算机程序使得计算机执行如权利要求1-3任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911190136.2A CN111062495B (zh) | 2019-11-28 | 2019-11-28 | 机器学习方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911190136.2A CN111062495B (zh) | 2019-11-28 | 2019-11-28 | 机器学习方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111062495A CN111062495A (zh) | 2020-04-24 |
CN111062495B true CN111062495B (zh) | 2024-03-19 |
Family
ID=70299022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911190136.2A Active CN111062495B (zh) | 2019-11-28 | 2019-11-28 | 机器学习方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111062495B (zh) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111696636B (zh) * | 2020-05-15 | 2023-09-22 | 平安科技(深圳)有限公司 | 一种基于深度神经网络的数据处理方法及装置 |
CN111640425B (zh) * | 2020-05-22 | 2023-08-15 | 北京百度网讯科技有限公司 | 一种模型训练和意图识别方法、装置、设备及存储介质 |
CN113763305B (zh) * | 2020-05-29 | 2023-08-04 | 杭州海康威视数字技术股份有限公司 | 标定物品缺陷的方法、装置及电子设备 |
CN111709789B (zh) * | 2020-06-18 | 2023-12-19 | 腾讯科技(深圳)有限公司 | 一种用户转化率的确定方法及相关设备 |
CN111724867B (zh) * | 2020-06-24 | 2022-09-09 | 中国科学技术大学 | 分子属性测定方法、装置、电子设备及存储介质 |
CN111798419A (zh) * | 2020-06-27 | 2020-10-20 | 上海工程技术大学 | 一种金属喷漆表面缺陷检测方法 |
CN112748941B (zh) * | 2020-08-06 | 2023-12-12 | 腾讯科技(深圳)有限公司 | 基于反馈信息的目标应用程序的更新方法和装置 |
CN111898696B (zh) * | 2020-08-10 | 2023-10-27 | 腾讯云计算(长沙)有限责任公司 | 伪标签及标签预测模型的生成方法、装置、介质及设备 |
CN111915020B (zh) * | 2020-08-12 | 2024-02-23 | 杭州海康威视数字技术股份有限公司 | 检测模型的更新方法、装置及存储介质 |
CN112215262B (zh) * | 2020-09-21 | 2022-12-09 | 清华大学 | 基于自监督对比学习的图像深度聚类方法及系统 |
CN112434552A (zh) * | 2020-10-13 | 2021-03-02 | 广州视源电子科技股份有限公司 | 神经网络模型调整方法、装置、设备及存储介质 |
CN112465043B (zh) * | 2020-12-02 | 2024-05-14 | 平安科技(深圳)有限公司 | 模型训练方法、装置和设备 |
CN112766323A (zh) * | 2020-12-30 | 2021-05-07 | 清华大学 | 一种影像识别方法和装置 |
CN112949693B (zh) * | 2021-02-02 | 2024-04-26 | 北京嘀嘀无限科技发展有限公司 | 图像分类模型的训练方法、图像分类方法、装置和设备 |
CN112906561A (zh) * | 2021-02-18 | 2021-06-04 | 上海明略人工智能(集团)有限公司 | 用于获取动作识别模型的方法、装置及设备 |
CN112766501A (zh) * | 2021-02-26 | 2021-05-07 | 上海商汤智能科技有限公司 | 增量训练方法和相关产品 |
CN112819099B (zh) * | 2021-02-26 | 2023-12-22 | 杭州网易智企科技有限公司 | 网络模型的训练方法、数据处理方法、装置、介质及设备 |
CN112801221B (zh) * | 2021-03-24 | 2023-12-22 | 平安科技(深圳)有限公司 | 一种数据分类方法、装置、设备及存储介质 |
CN113158554B (zh) * | 2021-03-25 | 2023-02-14 | 腾讯科技(深圳)有限公司 | 模型优化方法、装置、计算机设备及存储介质 |
CN113420790A (zh) * | 2021-06-02 | 2021-09-21 | 深圳海翼智新科技有限公司 | 用于目标检测的自动标注方法和装置 |
CN113392118B (zh) * | 2021-06-04 | 2022-10-18 | 中电四川数据服务有限公司 | 一种基于机器学习的数据更新检测系统及其方法 |
CN113450142B (zh) * | 2021-06-09 | 2023-04-18 | 重庆锦禹云能源科技有限公司 | 一种电力客户用电行为聚类分析方法及装置 |
CN113610106B (zh) * | 2021-07-01 | 2023-10-24 | 北京大学 | 模型间的特征兼容学习方法、装置、电子设备及介质 |
CN113610162A (zh) * | 2021-08-09 | 2021-11-05 | 北京大学 | 向后兼容表示的邻域一致性对比学习方法、系统及介质 |
CN113592850A (zh) * | 2021-08-12 | 2021-11-02 | 苏州鼎纳自动化技术有限公司 | 一种基于元学习的缺陷检测方法及装置 |
CN113963186A (zh) * | 2021-10-29 | 2022-01-21 | 北京百度网讯科技有限公司 | 目标检测模型的训练方法、目标检测方法及相关装置 |
CN114255447B (zh) * | 2022-01-17 | 2022-09-23 | 中国人民解放军国防科技大学 | 一种无监督的端到端视频异常事件数据识别方法和装置 |
CN114637848A (zh) * | 2022-03-15 | 2022-06-17 | 美的集团(上海)有限公司 | 语义分类方法及装置 |
CN114760639A (zh) * | 2022-03-30 | 2022-07-15 | 深圳市联洲国际技术有限公司 | 资源单元分配方法、装置、设备及存储介质 |
CN114708540B (zh) * | 2022-04-24 | 2024-06-07 | 上海人工智能创新中心 | 一种数据处理方法,终端及存储介质 |
CN115100717A (zh) * | 2022-06-29 | 2022-09-23 | 腾讯科技(深圳)有限公司 | 特征提取模型的训练方法、卡通对象的识别方法及装置 |
CN117687745A (zh) * | 2022-08-30 | 2024-03-12 | 华为技术有限公司 | 任务调度方法、模型生成方法、以及电子设备 |
CN115913413B (zh) * | 2023-02-22 | 2023-07-14 | 西安电子科技大学 | 一种智能化空间毫米波传播特征分析方法 |
CN116108491B (zh) * | 2023-04-04 | 2024-03-22 | 杭州海康威视数字技术股份有限公司 | 基于半监督联邦学习的数据泄露预警方法、装置及系统 |
CN117347803A (zh) * | 2023-10-25 | 2024-01-05 | 爱科特科技(海南)有限公司 | 一种局部放电检测方法、系统、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916376A (zh) * | 2010-07-06 | 2010-12-15 | 浙江大学 | 基于局部样条嵌入的正交半监督子空间图像分类方法 |
CN110210341A (zh) * | 2019-05-20 | 2019-09-06 | 深圳供电局有限公司 | 基于人脸识别的身份证认证方法及其系统、可读存储介质 |
US10467526B1 (en) * | 2018-01-17 | 2019-11-05 | Amaon Technologies, Inc. | Artificial intelligence system for image similarity analysis using optimized image pair selection and multi-scale convolutional neural networks |
CN110427958A (zh) * | 2019-06-13 | 2019-11-08 | 浙江师范大学 | 一种融合无监督学习和监督学习的反馈式分类方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170147941A1 (en) * | 2015-11-23 | 2017-05-25 | Alexander Bauer | Subspace projection of multi-dimensional unsupervised machine learning models |
US20190244139A1 (en) * | 2018-02-02 | 2019-08-08 | Oracle International Corporation | Using meta-learning for automatic gradient-based hyperparameter optimization for machine learning and deep learning models |
-
2019
- 2019-11-28 CN CN201911190136.2A patent/CN111062495B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916376A (zh) * | 2010-07-06 | 2010-12-15 | 浙江大学 | 基于局部样条嵌入的正交半监督子空间图像分类方法 |
US10467526B1 (en) * | 2018-01-17 | 2019-11-05 | Amaon Technologies, Inc. | Artificial intelligence system for image similarity analysis using optimized image pair selection and multi-scale convolutional neural networks |
CN110210341A (zh) * | 2019-05-20 | 2019-09-06 | 深圳供电局有限公司 | 基于人脸识别的身份证认证方法及其系统、可读存储介质 |
CN110427958A (zh) * | 2019-06-13 | 2019-11-08 | 浙江师范大学 | 一种融合无监督学习和监督学习的反馈式分类方法 |
Non-Patent Citations (1)
Title |
---|
基于迁移学习的多标签图像标注;秦莹华 等;电子科技;20180727(08);第25-28页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111062495A (zh) | 2020-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111062495B (zh) | 机器学习方法及相关装置 | |
US11741361B2 (en) | Machine learning-based network model building method and apparatus | |
US10937141B2 (en) | Deep learning based image comparison device, method and computer program stored in computer readable medium | |
US9830526B1 (en) | Generating image features based on robust feature-learning | |
US20200226485A1 (en) | System and method for identification of multimedia content elements | |
US20190279075A1 (en) | Multi-modal image translation using neural networks | |
CN109145766B (zh) | 模型训练方法、装置、识别方法、电子设备及存储介质 | |
CN111079639A (zh) | 垃圾图像分类模型构建的方法、装置、设备及存储介质 | |
CN107516090A (zh) | 一体化人脸识别方法和系统 | |
WO2020159890A1 (en) | Method for few-shot unsupervised image-to-image translation | |
CN111950596A (zh) | 一种用于神经网络的训练方法以及相关设备 | |
WO2019082165A1 (en) | GENERATION OF NEURAL NETWORKS WITH COMPRESSED REPRESENTATION HAVING A HIGH DEGREE OF PRECISION | |
KR20200046188A (ko) | 인공 지능 모델을 재구성하기 위한 전자 장치 및 그의 제어 방법 | |
CN112384909A (zh) | 利用无监督学习来改进文本到内容建议的方法和系统 | |
US20170286979A1 (en) | Architecture for predicting network access probability of data files accessible over a computer network | |
CN111126626A (zh) | 一种训练方法、装置、服务器、平台及存储介质 | |
CN111914159A (zh) | 一种信息推荐方法及终端 | |
KR20230048614A (ko) | 도메인 불변 정규화를 사용한 이미지 분류를 위한 시스템, 방법 및 장치 | |
CN115131604A (zh) | 一种多标签图像分类方法、装置、电子设备及存储介质 | |
CN113434722B (zh) | 图像分类方法、装置、设备及计算机可读存储介质 | |
CN114781779A (zh) | 一种无监督能耗异常检测方法、装置及存储介质 | |
CN112529027A (zh) | 数据处理方法、客户端、装置及计算机可读存储介质 | |
CN116956117A (zh) | 一种标签识别的方法、装置、设备、存储介质及程序产品 | |
CN110765393A (zh) | 基于向量化和逻辑回归识别有害url的方法及装置 | |
CN112926368B (zh) | 一种识别障碍物的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |