CN114548297A - 基于领域自适应的数据分类方法、装置、设备及介质 - Google Patents

基于领域自适应的数据分类方法、装置、设备及介质 Download PDF

Info

Publication number
CN114548297A
CN114548297A CN202210177137.9A CN202210177137A CN114548297A CN 114548297 A CN114548297 A CN 114548297A CN 202210177137 A CN202210177137 A CN 202210177137A CN 114548297 A CN114548297 A CN 114548297A
Authority
CN
China
Prior art keywords
sample set
convolutional neural
neural network
network model
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210177137.9A
Other languages
English (en)
Inventor
陈彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202210177137.9A priority Critical patent/CN114548297A/zh
Publication of CN114548297A publication Critical patent/CN114548297A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及人工智能技术,提供了基于领域自适应的数据分类方法、装置、设备及介质,是先基于源域样本集训练得到卷积神经网络模型,然后将目标域样本集中所包括第一类型目标域样本集输入至卷积神经网络模型得到对应的第一类型分类值以更新第一类型目标域样本集,将第一类型目标域样本集和源域样本集组成的当前样本集对待训练对抗网络进行训练得到对抗网络,最后将目标域样本集中所包括第二类型目标域样本集输入至对抗网络得到各样本的第二类型分类值。实现了将目标域样本集的样本按照信息熵分类为至少两类,然后将信息熵低对应的第二类型目标域样本进行分类时提升模型的损失权重,使用半监督学习生成对抗网络,既确保模型稳定性也提升分类精度。

Description

基于领域自适应的数据分类方法、装置、设备及介质
技术领域
本发明涉及人工智能的智能决策技术领域,尤其涉及一种基于领域自适应的数据分类方法、装置、计算机设备及存储介质。
背景技术
因传统机器学习算法通常假设训练样本和测试样本服从同一分布,而实际应用中所能获取到的数据并非如此。领域自适应学习可以用来解决训练样本和测试样本不服从同一分布这一问题。
目前领域自适应方法主要有三种:基于样本的方法、基于特征的方法和基于模型的方法。实际应用时往往会根据不同的应用场景选择不同的方法,然而领域自适应方法的每种方法都有其局限性:基于特征的方法往往会忽略源域数据的标签信息,而基于样本的方法往往很难处理源域数据相差甚远的样本,也就无论采用领域自适应方法中的任意一种方法,均会导致其对待分类数据处理得到的分类结果准确度不高。
发明内容
本发明实施例提供了一种基于领域自适应的数据分类方法、装置、计算机设备及存储介质,旨在解决现有技术中领域自适应方法中基于特征的方法会忽略源域数据的标签信息,且基于样本的方法往往很难处理源域数据相差甚远的样本,导致领域自适应方法对待分类数据处理得到的分类结果准确度不高的问题。
第一方面,本发明实施例提供了一种基于领域自适应的数据分类方法,其包括:
响应于模型训练指令,获取与所述模型训练指令对应的源域样本集;
获取待训练卷积神经网络模型,根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,直至模型的损失函数为最小值以得到卷积神经网络模型;
获取目标域样本集,将所述目标域样本基于样本信息熵进行分类,得到目标域样本分类结果;其中,所述目标域样本分类结果至少包括第一类型目标域样本集和第二类型目标域样本集;
将所述第一类型目标域样本集中各样本输入至所述卷积神经网络模型进行运算得到各样本对应的第一类型分类值,以更新第一类型目标域样本集;
将所述第一类型目标域样本集和所述源域样本集组成的当前样本集对待训练对抗网络进行模型训练,得到训练后的对抗网络;以及
将所述第二类型目标域样本集中各样本输入至所述对抗网络进行运算,得到所述第二类型目标域样本集中各样本对应的第二类型分类值。
第二方面,本发明实施例提供了一种基于领域自适应的数据分类装置,其包括:
源域样本集获取单元,用于响应于模型训练指令,获取与所述模型训练指令对应的源域样本集;
第一模型训练单元,用于获取待训练卷积神经网络模型,根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,直至模型的损失函数为最小值以得到卷积神经网络模型;
目标域样本集分类单元,用于获取目标域样本集,将所述目标域样本基于样本信息熵进行分类,得到目标域样本分类结果;其中,所述目标域样本分类结果至少包括第一类型目标域样本集和第二类型目标域样本集;
第一分类单元,用于将所述第一类型目标域样本集中各样本输入至所述卷积神经网络模型进行运算得到各样本对应的第一类型分类值,以更新第一类型目标域样本集;
第二模型训练单元,用于将所述第一类型目标域样本集和所述源域样本集组成的当前样本集对待训练对抗网络进行模型训练,得到训练后的对抗网络;以及
第二分类单元,用于将所述第二类型目标域样本集中各样本输入至所述对抗网络进行运算,得到所述第二类型目标域样本集中各样本对应的第二类型分类值。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的基于领域自适应的数据分类方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于领域自适应的数据分类方法。
本发明实施例提供了一种基于领域自适应的数据分类方法、装置、计算机设备及存储介质,先基于源域样本集训练得到卷积神经网络模型,然后将目标域样本集中所包括第一类型目标域样本集中各样本输入至卷积神经网络模型进行运算得到对应的第一类型分类值以更新第一类型目标域样本集,将第一类型目标域样本集和源域样本集组成的当前样本集对待训练对抗网络进行模型,得到训练后的对抗网络,最后将目标域样本集中所包括第二类型目标域样本集中各样本输入至对抗网络进行运算,得到第二类型目标域样本集中各样本对应的第二类型分类值。实现了将目标域样本集的样本按照信息熵分类为至少两类,然后将信息熵低对应的第二类型目标域样本进行分类时提升模型的损失权重,使用半监督学习生成对抗网络,既确保模型稳定性也提升分类精度。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于领域自适应的数据分类方法的应用场景示意图;
图2为本发明实施例提供的基于领域自适应的数据分类方法的流程示意图;
图3为本发明实施例提供的基于领域自适应的数据分类装置的示意性框图;
图4为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的基于领域自适应的数据分类方法的应用场景示意图;图2为本发明实施例提供的基于领域自适应的数据分类方法的流程示意图,该基于领域自适应的数据分类方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S101~S106。
S101、响应于模型训练指令,获取与所述模型训练指令对应的源域样本集。
在本实施例中,是以服务器为执行主体来描述技术方案。服务器可以先获取源域样本集,例如以源域样本集是历史代理人的岗前数据为例,历史代理人的一条岗前数据包括历史代理人在3个月是否转正、历史代理人在13个月时是否仍然在职等字段,且源域样本集中每一条源域样本均对应一个代理人的一条岗前数据。在服务器中获取了源域样本集后即可进行后续的模型训练。
S102、获取待训练卷积神经网络模型,根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,直至模型的损失函数为最小值以得到卷积神经网络模型。
在本实施例中,当已知了源域样本集后,将每一条源域样本每一字段的字段取值均对应转换成向量值后(例如将数值类型字段值进行归一化转化成0-1哑向量,将类别类型字段值转换成具体类别取值,将文本类型字段值转换成语义向量等),可以获取每一条源域样本对应的输入向量,而且每一条源域样本对应的输出值也是已知的,这样即可将每一条源域样本作为一条样本数据对所述待训练卷积神经网络模型进行模型训练,直至模型的损失函数为最小值以得到卷积神经网络模型。
在一实施例中,步骤S102包括:
获取预训练卷积神经网络模型,将所述预训练卷积神经网络模型的模型参数作为待训练卷积神经网络模型的初始模型参数,以对所述待训练卷积神经网络模型进行模型初始化;
根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型;
获取所述初次训练卷积神经网络模型的损失函数;
若确定所述损失函数为最小值,将所述初次训练卷积神经网络模型作为卷积神经网络模型;
若确定所述损失函数不为最小值,将所述初次训练卷积神经网络模型进行微调以更新所述初次训练卷积神经网络模型,返回执行所述根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型的步骤。
在本实施例中,为了提高模型训练的效率,一般是先获取预训练卷积神经网络模型(也即预训练模型),然后将预训练卷积神经网络模型的模型参数传递至待训练卷积神经网络模型以作为其初始模型参数,从而实现对所述待训练卷积神经网络模型进行模型初始化。之后通过源域样本集中的各条源域样本对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型。
若确定所述损失函数为最小值,则表示所述初次训练卷积神经网络模型无需进行微调,此时将所述初次训练卷积神经网络模型作为卷积神经网络模型、若确定所述损失函数不为最小值,则表示所述初次训练卷积神经网络模型需进行微调,此时具体将所述初次训练卷积神经网络模型进行微调以更新所述初次训练卷积神经网络模型,之后返回执行所述根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型的步骤。
在一实施例中,所述获取所述初次训练卷积神经网络模型的损失函数中获取损失函数的公式为L=Lsup+λLada;其中,Lsup表示源域样本集中源域样本的损失函数,Lada表示迁移学习中的适应损失,λ表示预设的平衡系数。
在本实施例中,λ>0。由于在计算训练卷积神经网络模型的损失函数时,也充分考虑了领域自适应方法对应迁移学习中的适应损失,故能计算得到更为准确的损失函数。其中确定所述损失函数为最小值时,并不是指损失函数等于0,而是损失函数已经收敛,在进一步微调卷积神经网络模型时所得到的损失函数也不再减小,此时则可确定所述损失函数为最小值。
其中,
Figure BDA0003520731690000061
Figure BDA0003520731690000062
且ns表示源域样本集中的样本数量,L表示卷积神经网络中使用MMD损失函数正则化的神经网络层数(其中MMD的全称是Max mean discrepancy,表示最大均值差异),kl为二维高斯核函数,
Figure BDA0003520731690000063
表示源域样本集在第l层激活函数得到的结果(更具体是
Figure BDA0003520731690000064
中l表示第l层,
Figure BDA0003520731690000065
表示源域样本集的第(2i-1)个s类型样本在第l层激活函数得到的结果,s类型更具体实施时表示源域样本集中样本信息熵未超出预设的信息熵阈值对应的简单样本),及
Figure BDA0003520731690000066
表示源域样本集在第l层激活函数得到的结果(更具体是
Figure BDA0003520731690000067
中l表示第l层,
Figure BDA0003520731690000068
表示源域样本集的第(2i-1)个t类型样本在第l层激活函数得到的结果,t类型更具体实施时表示源域样本集中样本信息熵超出预设的信息熵阈值对应的难分类样本),
Figure BDA0003520731690000069
的具体含义参照
Figure BDA00035207316900000610
且在此不赘述,同样
Figure BDA00035207316900000611
的具体含义参照
Figure BDA00035207316900000612
且在此不赘述。
在一实施例中,所述根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型,包括:
将所述初次训练卷积神经网络模型中位于最后一层的全连接层删除,得到第一调整卷积神经网络模型;
获取所述源域样本集对应的待分类总数,将具有所述待分类总数的当前全连接层增加至所述第一调整卷积神经网络模型的最后一层,得到第二调整卷积神经网络模型;
根据所述源域样本集中的样本对所述第二调整卷积神经网络模型中所述当前全连接层进行训练,得到第三调整卷积神经网络模型以更新所述初次训练卷积神经网络模型。
在本实施例中,在将预训练卷积神经网络模型的模型参数迁移发送至待训练卷积神经网络模型以作为其初始模型参数后,无需再重新开始训练待训练卷积神经网络模型,而是借助预训练卷积神经网络模型进行微调,训练成满足当前使用需求的初次训练卷积神经网络模型。一般预训练卷积神经网络模型的最后一层全连接层是不适用于当前满足需求的(这是因为预训练卷积神经网络模型所对应的分类总数可能是N1,而初次训练卷积神经网络模型对应的分类总数是N2,且N2与N1不相等)。此时,可以直接先将所述初次训练卷积神经网络模型中位于最后一层的全连接层删除得到第一调整卷积神经网络模型,然后将具有所述待分类总数的当前全连接层增加至所述第一调整卷积神经网络模型的最后一层得到第二调整卷积神经网络模型,最后在根据所述源域样本集中的样本对所述第二调整卷积神经网络模型中最后一层全连接层进行训练,即可快速得到满足当前场景使用需求的第三调整卷积神经网络模型,此时以第三调整卷积神经网络模型作为所述初次训练卷积神经网络模型。可见,通过预训练加微调的方式,可以快速训练得到初次训练卷积神经网络模型。
S103、获取目标域样本集,将所述目标域样本基于样本信息熵进行分类,得到目标域样本分类结果;其中,所述目标域样本分类结果至少包括第一类型目标域样本集和第二类型目标域样本集。
在本实施例中,服务器还可以获取目标域样本集,例如以目标域样本集是待增员代理人的入职数据为例,例如待增员代理人的入职数据中包括待增员代理人在3个月是否转正、历史代理人在13个月时是否仍然在职等字段由于是空值,此时可以先对目标域样本集根据样本信息熵进行分类,得到目标域样本分类结果。然后将目标域样本分类结果中不同的样本集基于不同的预测模型进行预测,从而得到代理人在3个月是否转正、历史代理人在13个月时是否仍然在职等字段的分类值。
在一实施例中,步骤S103包括:
获取样本信息熵未超出预设的信息熵阈值对应的样本,组成第一类型目标域样本集;
获取样本信息熵超出所述信息熵阈值对应的样本,组成第二类型目标域样本集。
在本实施例中,计算获取所述目标域样本中各样本的样本信息熵时,参照如下的公式(1):
Figure BDA0003520731690000081
在公式(1)中I(V)表示样本的样本信息熵,vc表示样本的分类为c时的概率,且log的底数取2,c的取值范围是[1,C],C表示样本的分类总个数。样本的样本信息熵越高则表示样本的信息不确定性越低且越容易被分类,样本的样本信息熵越低则表示样本的信息不确定性越高且越不容易被分类。
当计算获取了所述目标域样本中各样本的样本信息熵后,将样本信息熵未超出预设的信息熵阈值的样本划分至第一类型目标域样本集中,将样本信息熵超出预设的信息熵阈值的样本划分至第二类型目标域样本集中。其中,第一类型目标域样本集中的样本均是容易被分类的样本,而第二类型目标域样本集中的样本均是不容易被分类的样本。可见,基于样本的信息熵,可以快速将目标域样本中样本进行二分类。
S104、将所述第一类型目标域样本集中各样本输入至所述卷积神经网络模型进行运算得到各样本对应的第一类型分类值,以更新第一类型目标域样本集。
在本实施例中,由于之前已获取了卷积神经网络模型,且第一类型目标域样本集中的样本均是容易被分类的样本,此时可以直接基于所述卷积神经网络模型对第一类型目标域样本集中的样本进行预测。此时将第一类型目标域样本集中各样本对应的输入向量输入至所述卷积神经网络模型进行运算得到各样本对应的第一类型分类值,由于第一类型目标域样本集中各样本对应的输入向量和第一类型分类值均是已知,此时将第一类型目标域样本集中各样本均更新为具有第一类型分类值且能用作训练样本的新的第一类型目标域样本集。
S105、将所述第一类型目标域样本集和所述源域样本集组成的当前样本集对待训练对抗网络进行模型训练,得到训练后的对抗网络。
在本实施例中,为了更加准确的计算所述第二类型目标域样本集中各样本的分类值,此时不再基于所述卷积神经网络模型进行运算。而是可以先由所述第一类型目标域样本集和所述源域样本集组成的当前样本集,通过这一样本扩充方式,可以将已得到分类值的第一类型目标域样本集融入源域样本集中提高数据的时效性(这是因为源域样本集中均是历史数据)。之后基于当前样本集对待训练对抗网络进行模型,得到训练后的对抗网络。
在一实施例中,待训练对抗网络为循环式对抗网络;所述将所述第一类型目标域样本集和所述源域样本集组成的当前样本集对待训练对抗网络进行模型训练,得到训练后的对抗网络,包括:
获取所述当前样本集中每一样本的输入向量;
获取所述当前样本集中各样本的输入向量之间的向量相似度,并根据预设的分组策略对所述当前样本集进行分组,得到当前样本集分组结果;其中,所述当前样本集分组结果中包括若干个当前样本集子分组,且分别记为第1当前样本集子分组至第k当前样本集子分组,k为当前样本集分组结果中包括的当前样本集子分组总个数;
统计获取每一当前样本集子分组中对应包括的样本总个数,并获取其中包括样本总个数最多的当前样本集子分组,作为目标当前样本集子分组;
不断从目标当前样本集子分组中任意获取两个样本的输入向量以对待训练循环式对抗网络模型进行训练,直至待训练循环式对抗网络模型收敛时停止从目标当前样本集子分组中任意获取两个样本的输入向量,得到循环式对抗网络模型作为训练后的循环式对抗网络模型。
在本实施例中,在训练循环式对抗网络模型的上述实施例中,为了提高模型训练的效率,可以从当前样本集中挑选部分相近且数量较多的样本组成目标当前样本集子分组以对待训练循环式对抗网络模型(循环式对抗网络模型即cycle-GAN模型)进行训练。
通过将所述当前样本集进行分组后,输入向量相近的样本会被分进同一当前样本集子分组。此时选取多个当前样本集子分组中包括的样本总个数为最大值的当前样本集子分组作为目标当前样本集子分组。此时目标当前样本集子分组可以作为筛选后训练样本对待训练循环式对抗网络模型进行训练。
例如,在目标当前样本集子分组中任意选择的两个样本的输入向量分别记为样本a和样本b,此时需要训练出两个生成器GAB、GBA及两个判别器DA、DB,对于样本a,通过生成器GAB生成假样本
Figure BDA0003520731690000091
用判别器DB判别假样本
Figure BDA0003520731690000092
是否与样本b近似,并且将假样本
Figure BDA0003520731690000093
通过生成器GBA生成样本
Figure BDA0003520731690000094
并且判断样本
Figure BDA0003520731690000095
是否与原真实样本a近似。同样地,对于样本b,通过生成器GBA生成假样本
Figure BDA0003520731690000096
用判别器DA判别假样本
Figure BDA0003520731690000097
是与样本a近似,并且将假样本
Figure BDA0003520731690000098
通过生成器GAB生成样本
Figure BDA0003520731690000099
并且判断样本
Figure BDA00035207316900000910
是否与原真实样本b近似。最终通过迭代,使得判别器无法判别生成器生成的样本是否为真实样本。
分别优化训练生成器和判别器,两个生成器共享权重,两个判别器共享权重,最终的目标就是求得使目标最小化的生成器GAB和GBA
在一实施例中,所述根据预设的分组策略对所述当前样本集进行分组,得到当前样本集分组结果,包括:
将所述当前样本集通过K-means聚类进行分组以得到当前样本集分组结果。
在本实施例中,预先设定好期望的分类组个数后,即可根据所述当前样本集中各样本的输入向量之间的欧式距离作为向量相似度进行K-means聚类,得到当前样本集分组结果。
S106、将所述第二类型目标域样本集中各样本输入至所述对抗网络进行运算,得到所述第二类型目标域样本集中各样本对应的第二类型分类值。
在本实施例中,当训练得到了对抗网络后,将所述第二类型目标域样本集中个样本对应的输入向量输入至所述对抗网络进行运算,即可得到各样本对应的第二类型分类值。
本申请实施例可以基于人工智能技术对服务器中相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
该方法实现了将目标域样本集的样本按照信息熵分类为至少两类,然后将信息熵低对应的第二类型目标域样本进行分类时提升模型的损失权重,使用半监督学习生成对抗网络,既确保模型稳定性也提升分类精度。
本发明实施例还提供一种基于领域自适应的数据分类装置,该基于领域自适应的数据分类装置用于执行前述基于领域自适应的数据分类方法的任一实施例。具体地,请参阅图3,图3是本发明实施例提供的基于领域自适应的数据分类装置100的示意性框图。
其中,如图3所示,基于领域自适应的数据分类装置100包括源域样本集获取单元101、第一模型训练单元102、目标域样本集分类单元103、第一分类单元104、第二模型训练单元105和第二分类单元106。
源域样本集获取单元101,用于响应于模型训练指令,获取与所述模型训练指令对应的源域样本集。
在本实施例中,是以服务器为执行主体来描述技术方案。服务器可以先获取源域样本集,例如以源域样本集是历史代理人的岗前数据为例,历史代理人的一条岗前数据包括历史代理人在3个月是否转正、历史代理人在13个月时是否仍然在职等字段,且源域样本集中每一条源域样本均对应一个代理人的一条岗前数据。在服务器中获取了源域样本集后即可进行后续的模型训练。
第一模型训练单元102,用于获取待训练卷积神经网络模型,根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,直至模型的损失函数为最小值以得到卷积神经网络模型。
在本实施例中,当已知了源域样本集后,将每一条源域样本每一字段的字段取值均对应转换成向量值后(例如将数值类型字段值进行归一化转化成0-1哑向量,将类别类型字段值转换成具体类别取值,将文本类型字段值转换成语义向量等),可以获取每一条源域样本对应的输入向量,而且每一条源域样本对应的输出值也是已知的,这样即可将每一条源域样本作为一条样本数据对所述待训练卷积神经网络模型进行模型训练,直至模型的损失函数为最小值以得到卷积神经网络模型。
在一实施例中,第一模型训练单元102具体用于:
获取预训练卷积神经网络模型,将所述预训练卷积神经网络模型的模型参数作为待训练卷积神经网络模型的初始模型参数,以对所述待训练卷积神经网络模型进行模型初始化;
根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型;
获取所述初次训练卷积神经网络模型的损失函数;
若确定所述损失函数为最小值,将所述初次训练卷积神经网络模型作为卷积神经网络模型;
若确定所述损失函数不为最小值,将所述初次训练卷积神经网络模型进行微调以更新所述初次训练卷积神经网络模型,返回执行所述根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型的步骤。
在本实施例中,为了提高模型训练的效率,一般是先获取预训练卷积神经网络模型(也即预训练模型),然后将预训练卷积神经网络模型的模型参数传递至待训练卷积神经网络模型以作为其初始模型参数,从而实现对所述待训练卷积神经网络模型进行模型初始化。之后通过源域样本集中的各条源域样本对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型。
若确定所述损失函数为最小值,则表示所述初次训练卷积神经网络模型无需进行微调,此时将所述初次训练卷积神经网络模型作为卷积神经网络模型、若确定所述损失函数不为最小值,则表示所述初次训练卷积神经网络模型需进行微调,此时具体将所述初次训练卷积神经网络模型进行微调以更新所述初次训练卷积神经网络模型,之后返回执行所述根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型的步骤。
在一实施例中,所述获取所述初次训练卷积神经网络模型的损失函数中获取损失函数的公式为L=Lsup+λLada;其中,Lsup表示源域样本集中源域样本的损失函数,Lada表示迁移学习中的适应损失,λ表示预设的平衡系数。
在本实施例中,λ>0。由于在计算训练卷积神经网络模型的损失函数时,也充分考虑了领域自适应方法对应迁移学习中的适应损失,故能计算得到更为准确的损失函数。其中确定所述损失函数为最小值时,并不是指损失函数等于0,而是损失函数已经收敛,在进一步微调卷积神经网络模型时所得到的损失函数也不再减小,此时则可确定所述损失函数为最小值。
其中,
Figure BDA0003520731690000121
Figure BDA0003520731690000122
且ns表示源域样本集中的样本数量,L表示卷积神经网络中使用MMD损失函数正则化的神经网络层数(其中MMD的全称是Max mean discrepancy,表示最大均值差异),kl为二维高斯核函数,
Figure BDA0003520731690000123
表示源域样本集在第l层激活函数得到的结果(更具体是
Figure BDA0003520731690000124
中l表示第l层,
Figure BDA0003520731690000125
表示源域样本集的第(2i-1)个s类型样本在第l层激活函数得到的结果,s类型更具体实施时表示源域样本集中样本信息熵未超出预设的信息熵阈值对应的简单样本),及
Figure BDA0003520731690000131
表示源域样本集在第l层激活函数得到的结果(更具体是
Figure BDA0003520731690000132
中l表示第l层,
Figure BDA0003520731690000133
表示源域样本集的第(2i-1)个t类型样本在第l层激活函数得到的结果,t类型更具体实施时表示源域样本集中样本信息熵超出预设的信息熵阈值对应的难分类样本),
Figure BDA0003520731690000134
的具体含义参照
Figure BDA0003520731690000135
且在此不赘述,同样
Figure BDA0003520731690000136
的具体含义参照
Figure BDA0003520731690000137
且在此不赘述。
在一实施例中,所述第一模型训练单元102还具体用于:
将所述初次训练卷积神经网络模型中位于最后一层的全连接层删除,得到第一调整卷积神经网络模型;
获取所述源域样本集对应的待分类总数,将具有所述待分类总数的当前全连接层增加至所述第一调整卷积神经网络模型的最后一层,得到第二调整卷积神经网络模型;
根据所述源域样本集中的样本对所述第二调整卷积神经网络模型中所述当前全连接层进行训练,得到第三调整卷积神经网络模型以更新所述初次训练卷积神经网络模型。
在本实施例中,在将预训练卷积神经网络模型的模型参数迁移发送至待训练卷积神经网络模型以作为其初始模型参数后,无需再重新开始训练待训练卷积神经网络模型,而是借助预训练卷积神经网络模型进行微调,训练成满足当前使用需求的初次训练卷积神经网络模型。一般预训练卷积神经网络模型的最后一层全连接层是不适用于当前满足需求的(这是因为预训练卷积神经网络模型所对应的分类总数可能是N1,而初次训练卷积神经网络模型对应的分类总数是N2,且N2与N1不相等)。此时,可以直接先将所述初次训练卷积神经网络模型中位于最后一层的全连接层删除得到第一调整卷积神经网络模型,然后将具有所述待分类总数的当前全连接层增加至所述第一调整卷积神经网络模型的最后一层得到第二调整卷积神经网络模型,最后在根据所述源域样本集中的样本对所述第二调整卷积神经网络模型中最后一层全连接层进行训练,即可快速得到满足当前场景使用需求的第三调整卷积神经网络模型,此时以第三调整卷积神经网络模型作为所述初次训练卷积神经网络模型。可见,通过预训练加微调的方式,可以快速训练得到初次训练卷积神经网络模型。
目标域样本集分类单元103,用于获取目标域样本集,将所述目标域样本基于样本信息熵进行分类,得到目标域样本分类结果;其中,所述目标域样本分类结果至少包括第一类型目标域样本集和第二类型目标域样本集。
在本实施例中,服务器还可以获取目标域样本集,例如以目标域样本集是待增员代理人的入职数据为例,例如待增员代理人的入职数据中包括待增员代理人在3个月是否转正、历史代理人在13个月时是否仍然在职等字段由于是空值,此时可以先对目标域样本集根据样本信息熵进行分类,得到目标域样本分类结果。然后将目标域样本分类结果中不同的样本集基于不同的预测模型进行预测,从而得到代理人在3个月是否转正、历史代理人在13个月时是否仍然在职等字段的分类值。
在一实施例中,目标域样本集分类单元103具体用于:
获取样本信息熵未超出预设的信息熵阈值对应的样本,组成第一类型目标域样本集;
获取样本信息熵超出所述信息熵阈值对应的样本,组成第二类型目标域样本集。
在本实施例中,计算获取所述目标域样本中各样本的样本信息熵时,参照如上的公式(1),在公式(1)中I(V)表示样本的样本信息熵,vc表示样本的分类为c时的概率,且log的底数取2,c的取值范围是[1,C],C表示样本的分类总个数。样本的样本信息熵越高则表示样本的信息不确定性越低且越容易被分类,样本的样本信息熵越低则表示样本的信息不确定性越高且越不容易被分类。
当计算获取了所述目标域样本中各样本的样本信息熵后,将样本信息熵未超出预设的信息熵阈值的样本划分至第一类型目标域样本集中,将样本信息熵超出预设的信息熵阈值的样本划分至第二类型目标域样本集中。其中,第一类型目标域样本集中的样本均是容易被分类的样本,而第二类型目标域样本集中的样本均是不容易被分类的样本。可见,基于样本的信息熵,可以快速将目标域样本中样本进行二分类。
第一分类单元104,用于将所述第一类型目标域样本集中各样本输入至所述卷积神经网络模型进行运算得到各样本对应的第一类型分类值,以更新第一类型目标域样本集。
在本实施例中,由于之前已获取了卷积神经网络模型,且第一类型目标域样本集中的样本均是容易被分类的样本,此时可以直接基于所述卷积神经网络模型对第一类型目标域样本集中的样本进行预测。此时将第一类型目标域样本集中各样本对应的输入向量输入至所述卷积神经网络模型进行运算得到各样本对应的第一类型分类值,由于第一类型目标域样本集中各样本对应的输入向量和第一类型分类值均是已知,此时将第一类型目标域样本集中各样本均更新为具有第一类型分类值且能用作训练样本的新的第一类型目标域样本集。
第二模型训练单元105,用于将所述第一类型目标域样本集和所述源域样本集组成的当前样本集对待训练对抗网络进行模型训练,得到训练后的对抗网络。
在本实施例中,为了更加准确的计算所述第二类型目标域样本集中各样本的分类值,此时不再基于所述卷积神经网络模型进行运算。而是可以先由所述第一类型目标域样本集和所述源域样本集组成的当前样本集,通过这一样本扩充方式,可以将已得到分类值的第一类型目标域样本集融入源域样本集中提高数据的时效性(这是因为源域样本集中均是历史数据)。之后基于当前样本集对待训练对抗网络进行模型,得到训练后的对抗网络。
在一实施例中,待训练对抗网络为循环式对抗网络;所述第二模型训练单元105具体用于:
获取所述当前样本集中每一样本的输入向量;
获取所述当前样本集中各样本的输入向量之间的向量相似度,并根据预设的分组策略对所述当前样本集进行分组,得到当前样本集分组结果;其中,所述当前样本集分组结果中包括若干个当前样本集子分组,且分别记为第1当前样本集子分组至第k当前样本集子分组,k为当前样本集分组结果中包括的当前样本集子分组总个数;
统计获取每一当前样本集子分组中对应包括的样本总个数,并获取其中包括样本总个数最多的当前样本集子分组,作为目标当前样本集子分组;
不断从目标当前样本集子分组中任意获取两个样本的输入向量以对待训练循环式对抗网络模型进行训练,直至待训练循环式对抗网络模型收敛时停止从目标当前样本集子分组中任意获取两个样本的输入向量,得到循环式对抗网络模型作为训练后的循环式对抗网络模型。
在本实施例中,在训练循环式对抗网络模型的上述实施例中,为了提高模型训练的效率,可以从当前样本集中挑选部分相近且数量较多的样本组成目标当前样本集子分组以对待训练循环式对抗网络模型(循环式对抗网络模型即cycle-GAN模型)进行训练。
通过将所述当前样本集进行分组后,输入向量相近的样本会被分进同一当前样本集子分组。此时选取多个当前样本集子分组中包括的样本总个数为最大值的当前样本集子分组作为目标当前样本集子分组。此时目标当前样本集子分组可以作为筛选后训练样本对待训练循环式对抗网络模型进行训练。
例如,在目标当前样本集子分组中任意选择的两个样本的输入向量分别记为样本a和样本b,此时需要训练出两个生成器GAB、GBA及两个判别器DA、DB,对于样本s,通过生成器GAB生成假样本
Figure BDA0003520731690000161
用判别器DB判别假样本
Figure BDA0003520731690000162
是否与样本b近似,并且将假样本
Figure BDA0003520731690000163
通过生成器GBA生成样本
Figure BDA0003520731690000164
并且判断样本
Figure BDA0003520731690000165
是否与原真实样本a近似。同样地,对于样本b,通过生成器GBA生成假样本
Figure BDA0003520731690000166
用判别器DA判别假样本
Figure BDA0003520731690000167
是与样本a近似,并且将假样本
Figure BDA0003520731690000168
通过生成器GAB生成样本
Figure BDA0003520731690000169
并且判断样本
Figure BDA00035207316900001610
是否与原真实样本b近似。最终通过迭代,使得判别器无法判别生成器生成的样本是否为真实样本。
分别优化训练生成器和判别器,两个生成器共享权重,两个判别器共享权重,最终的目标就是求得使目标最小化的生成器GAB和GBA
在一实施例中,所述第二模型训练单元105还具体用于:
将所述当前样本集通过K-means聚类进行分组以得到当前样本集分组结果。
在本实施例中,预先设定好期望的分类组个数后,即可根据所述当前样本集中各样本的输入向量之间的欧式距离作为向量相似度进行K-means聚类,得到当前样本集分组结果。
第二分类单元106,用于将所述第二类型目标域样本集中各样本输入至所述对抗网络进行运算,得到所述第二类型目标域样本集中各样本对应的第二类型分类值。
在本实施例中,当训练得到了对抗网络后,将所述第二类型目标域样本集中个样本对应的输入向量输入至所述对抗网络进行运算,即可得到各样本对应的第二类型分类值。
该装置实现了将目标域样本集的样本按照信息熵分类为至少两类,然后将信息熵低对应的第二类型目标域样本进行分类时提升模型的损失权重,使用半监督学习生成对抗网络,既确保模型稳定性也提升分类精度。
上述基于领域自适应的数据分类装置可以实现为计算机程序的形式,该计算机程序可以在如图4所示的计算机设备上运行。
请参阅图4,图4是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,也可以是服务器集群。服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参阅图4,该计算机设备500包括通过装置总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括存储介质503和内存储器504。
该存储介质503可存储操作装置5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行基于领域自适应的数据分类方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行基于领域自适应的数据分类方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图4中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现本发明实施例公开的基于领域自适应的数据分类方法。
本领域技术人员可以理解,图4中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图4所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质,也可以为易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现本发明实施例公开的基于领域自适应的数据分类方法。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,后台服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种基于领域自适应的数据分类方法,其特征在于,包括:
响应于模型训练指令,获取与所述模型训练指令对应的源域样本集;
获取待训练卷积神经网络模型,根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,直至模型的损失函数为最小值以得到卷积神经网络模型;
获取目标域样本集,将所述目标域样本基于样本信息熵进行分类,得到目标域样本分类结果;其中,所述目标域样本分类结果至少包括第一类型目标域样本集和第二类型目标域样本集;
将所述第一类型目标域样本集中各样本输入至所述卷积神经网络模型进行运算得到各样本对应的第一类型分类值,以更新第一类型目标域样本集;
将所述第一类型目标域样本集和所述源域样本集组成的当前样本集对待训练对抗网络进行模型训练,得到训练后的对抗网络;以及
将所述第二类型目标域样本集中各样本输入至所述对抗网络进行运算,得到所述第二类型目标域样本集中各样本对应的第二类型分类值。
2.根据权利要求1所述的基于领域自适应的数据分类方法,其特征在于,所述获取待训练卷积神经网络模型,根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,直至模型的损失函数为最小值以得到卷积神经网络模型,包括:
获取预训练卷积神经网络模型,将所述预训练卷积神经网络模型的模型参数作为待训练卷积神经网络模型的初始模型参数,以对所述待训练卷积神经网络模型进行模型初始化;
根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型;
获取所述初次训练卷积神经网络模型的损失函数;
若确定所述损失函数为最小值,将所述初次训练卷积神经网络模型作为卷积神经网络模型;
若确定所述损失函数不为最小值,将所述初次训练卷积神经网络模型进行微调以更新所述初次训练卷积神经网络模型,返回执行所述根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型的步骤。
3.根据权利要求2所述的基于领域自适应的数据分类方法,其特征在于,所述获取所述初次训练卷积神经网络模型的损失函数中获取损失函数的公式为L=Lsup+λLada;其中,Lsup表示源域样本集中源域样本的损失函数,Lada表示迁移学习中的适应损失,λ表示预设的平衡系数。
4.根据权利要求2所述的基于领域自适应的数据分类方法,其特征在于,所述根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,得到初次训练卷积神经网络模型,包括:
将所述初次训练卷积神经网络模型中位于最后一层的全连接层删除,得到第一调整卷积神经网络模型;
获取所述源域样本集对应的待分类总数,将具有所述待分类总数的当前全连接层增加至所述第一调整卷积神经网络模型的最后一层,得到第二调整卷积神经网络模型;
根据所述源域样本集中的样本对所述第二调整卷积神经网络模型中所述当前全连接层进行训练,得到第三调整卷积神经网络模型以更新所述初次训练卷积神经网络模型。
5.根据权利要求1所述的基于领域自适应的数据分类方法,其特征在于,所述待训练对抗网络为循环式对抗网络;所述将所述第一类型目标域样本集和所述源域样本集组成的当前样本集对待训练对抗网络进行模型训练,得到训练后的对抗网络,包括:
获取所述当前样本集中每一样本的输入向量;
获取所述当前样本集中各样本的输入向量之间的向量相似度,并根据预设的分组策略对所述当前样本集进行分组,得到当前样本集分组结果;其中,所述当前样本集分组结果中包括若干个当前样本集子分组,且分别记为第1当前样本集子分组至第k当前样本集子分组,k为当前样本集分组结果中包括的当前样本集子分组总个数;
统计获取每一当前样本集子分组中对应包括的样本总个数,并获取其中包括样本总个数最多的当前样本集子分组,作为目标当前样本集子分组;
不断从目标当前样本集子分组中任意获取两个样本的输入向量以对待训练循环式对抗网络模型进行训练,直至待训练循环式对抗网络模型收敛时停止从目标当前样本集子分组中任意获取两个样本的输入向量,得到循环式对抗网络模型作为训练后的循环式对抗网络模型。
6.根据权利要求1所述的基于领域自适应的数据分类方法,其特征在于,所述获取目标域样本集,将所述目标域样本基于样本信息熵进行分类,得到目标域样本分类结果,包括:
获取样本信息熵未超出预设的信息熵阈值对应的样本,组成第一类型目标域样本集;
获取样本信息熵超出所述信息熵阈值对应的样本,组成第二类型目标域样本集。
7.根据权利要求5所述的基于领域自适应的数据分类方法,其特征在于,所述根据预设的分组策略对所述当前样本集进行分组,得到当前样本集分组结果,包括:
将所述当前样本集通过K-means聚类进行分组以得到当前样本集分组结果。
8.一种基于领域自适应的数据分类装置,其特征在于,包括:
源域样本集获取单元,用于响应于模型训练指令,获取与所述模型训练指令对应的源域样本集;
第一模型训练单元,用于获取待训练卷积神经网络模型,根据所述源域样本集对所述待训练卷积神经网络模型进行模型训练,直至模型的损失函数为最小值以得到卷积神经网络模型;
目标域样本集分类单元,用于获取目标域样本集,将所述目标域样本基于样本信息熵进行分类,得到目标域样本分类结果;其中,所述目标域样本分类结果至少包括第一类型目标域样本集和第二类型目标域样本集;
第一分类单元,用于将所述第一类型目标域样本集中各样本输入至所述卷积神经网络模型进行运算得到各样本对应的第一类型分类值,以更新第一类型目标域样本集;
第二模型训练单元,用于将所述第一类型目标域样本集和所述源域样本集组成的当前样本集对待训练对抗网络进行模型训练,得到训练后的对抗网络;以及
第二分类单元,用于将所述第二类型目标域样本集中各样本输入至所述对抗网络进行运算,得到所述第二类型目标域样本集中各样本对应的第二类型分类值。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的基于领域自适应的数据分类方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至7任一项所述的基于领域自适应的数据分类方法。
CN202210177137.9A 2022-02-25 2022-02-25 基于领域自适应的数据分类方法、装置、设备及介质 Pending CN114548297A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210177137.9A CN114548297A (zh) 2022-02-25 2022-02-25 基于领域自适应的数据分类方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210177137.9A CN114548297A (zh) 2022-02-25 2022-02-25 基于领域自适应的数据分类方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN114548297A true CN114548297A (zh) 2022-05-27

Family

ID=81679057

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210177137.9A Pending CN114548297A (zh) 2022-02-25 2022-02-25 基于领域自适应的数据分类方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN114548297A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114997936A (zh) * 2022-08-03 2022-09-02 国能日新科技股份有限公司 基于迁移学习的电力交易价格预测方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114997936A (zh) * 2022-08-03 2022-09-02 国能日新科技股份有限公司 基于迁移学习的电力交易价格预测方法及系统

Similar Documents

Publication Publication Date Title
EP3711000B1 (en) Regularized neural network architecture search
WO2020228376A1 (zh) 文本处理方法、模型训练方法和装置
WO2022121289A1 (en) Methods and systems for mining minority-class data samples for training neural network
CN111310814A (zh) 利用不平衡正负样本对业务预测模型训练的方法及装置
US11551026B2 (en) Dynamic reconfiguration training computer architecture
CN112348079B (zh) 数据降维处理方法、装置、计算机设备及存储介质
US20190228297A1 (en) Artificial Intelligence Modelling Engine
CN112131578A (zh) 攻击信息预测模型的训练方法、装置、电子设备及存储介质
Ibragimovich et al. Effective recognition of pollen grains based on parametric adaptation of the image identification model
CN116594748A (zh) 针对任务的模型定制处理方法、装置、设备和介质
CN116781346A (zh) 基于数据增强的卷积双向长短期记忆网络入侵检测方法
Wang et al. Patient admission prediction using a pruned fuzzy min–max neural network with rule extraction
CN114548297A (zh) 基于领域自适应的数据分类方法、装置、设备及介质
Tambwekar et al. Estimation and applications of quantiles in deep binary classification
Tembine Mean field stochastic games: Convergence, Q/H-learning and optimality
US11763154B1 (en) Machine learning services with pre-trained models
CN112989007B (zh) 基于对抗网络的知识库扩展方法、装置及计算机设备
US20230018525A1 (en) Artificial Intelligence (AI) Framework to Identify Object-Relational Mapping Issues in Real-Time
EP4302244A1 (en) Explainable artificial intelligence in computing environment
EP3971782A2 (en) Neural network selection
US20220284261A1 (en) Training-support-based machine learning classification and regression augmentation
CN114582518A (zh) 医疗数据集优化方法及设备
CN109308565B (zh) 人群绩效等级识别方法、装置、存储介质及计算机设备
US11983240B2 (en) Meta few-shot class incremental learning
US11829735B2 (en) Artificial intelligence (AI) framework to identify object-relational mapping issues in real-time

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination