CN111444951B - 样本识别模型的生成方法、装置、计算机设备和存储介质 - Google Patents
样本识别模型的生成方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111444951B CN111444951B CN202010213547.5A CN202010213547A CN111444951B CN 111444951 B CN111444951 B CN 111444951B CN 202010213547 A CN202010213547 A CN 202010213547A CN 111444951 B CN111444951 B CN 111444951B
- Authority
- CN
- China
- Prior art keywords
- sample set
- classification network
- target domain
- trained
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000012549 training Methods 0.000 claims abstract description 819
- 230000006399 behavior Effects 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 36
- 238000004590 computer program Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 8
- 230000009191 jumping Effects 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 description 246
- 238000013508 migration Methods 0.000 description 36
- 230000005012 migration Effects 0.000 description 36
- 238000012360 testing method Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000012550 audit Methods 0.000 description 5
- 238000000586 desensitisation Methods 0.000 description 5
- 230000002349 favourable effect Effects 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000007500 overflow downdraw method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及一种样本识别模型的生成方法、装置、计算机设备和存储介质。所述方法包括:获取至少两个源域训练样本集和一个目标域训练样本集;根据样本集,对各个待训练的元分类网络模型进行一一预训练,得到各个预训练后的元分类网络模型;分别根据目标域训练样本集,对各个预训练后的元分类网络模型进行再次训练,得到各个训练完成的目标域分类网络模型;根据源域训练样本集和目标域训练样本集,确定各个训练完成的目标域分类网络模型对应的分类权重;根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型。采用本方法能够提高模型的样本识别准确率。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种样本识别模型的生成方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,各种样本层出不穷;为了对样本进行分类,需要训练相应的样本识别模型,以通过样本识别模型对样本进行识别。
然而,目前的样本识别模型的训练方法,一般是通过携带有标签的历史样本对模型进行训练,并通过训练得到的模型,对新的样本进行识别,以得到样本的类别;但是,若携带有标签的历史样本较少,会导致训练得到的模型存在过拟合,从而使得模型的样本识别准确率较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高模型的样本识别准确率的样本识别模型的生成方法、装置、计算机设备和存储介质。
一种样本识别模型的生成方法,所述方法包括:
获取至少两个源域训练样本集和一个目标域训练样本集,所述源域训练样本集和所述目标域训练样本集中均包含有多个样本以及与所述样本对应的实际分类概率;
分别根据各个所述源域训练样本集、所述目标域训练样本集和各个所述样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,得到各个预训练后的元分类网络模型;
分别根据所述目标域训练样本集,对所述各个预训练后的元分类网络模型进行再次训练,得到各个再次训练后的元分类网络模型,对应作为各个训练完成的目标域分类网络模型;
根据所述源域训练样本集和所述目标域训练样本集,确定所述各个训练完成的目标域分类网络模型对应的分类权重;
根据所述各个训练完成的目标域分类网络模型以及所述各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型。
一种样本识别方法,所述方法包括:
根据上述所述的方法获取训练完成的样本识别模型;所述训练完成的样本识别模型包括各个训练完成的目标域分类网络模型;
将目标域的待识别样本的特征编码输入所述样本识别模型,得到所述待识别样本在所述各个训练完成的目标域分类网络模型中的分类概率以及所述各个训练完成的目标域分类网络模型对应的分类权重;
根据所述各个训练完成的目标域分类网络模型对应的分类权重,对所述待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到所述待识别样本的目标分类概率;
根据所述待识别样本的目标分类概率,确定对所述待识别样本的识别结果。
一种样本识别模型的生成装置,所述装置包括:
样本集获取模块,用于获取至少两个源域训练样本集和一个目标域训练样本集,所述源域训练样本集和所述目标域训练样本集中均包含有多个样本以及与所述样本对应的实际分类概率;
模型预训练模块,用于分别根据各个所述源域训练样本集、所述目标域训练样本集和各个所述样本对应的实际分类概率,对各个待训练的分类网络模型进行一一预训练,得到各个预训练后的分类网络模型;
模型再训练模块,用于分别根据所述目标域训练样本集,对所述各个预训练后的分类网络模型进行再次训练,得到各个再次训练后的元分类网络模型,对应作为各个训练完成的目标域分类网络模型;
分类权重确定模块,用于根据所述源域训练样本集和所述目标域训练样本集,确定所述各个训练完成的目标域分类网络模型对应的分类权重;
识别模型确定模块,用于根据所述各个训练完成的目标域分类网络模型以及所述各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型。
一种样本识别装置,所述装置包括:
模型获取模块,用于根据上述所述的方法获取训练完成的样本识别模型;所述训练完成的样本识别模型包括各个训练完成的目标域分类网络模型;
样本输入模块,用于将目标域的待识别样本的特征编码输入所述样本识别模型,得到所述待识别样本在所述各个训练完成的目标域分类网络模型中的分类概率以及所述各个训练完成的目标域分类网络模型对应的分类权重;
加权处理模块,用于根据所述各个训练完成的目标域分类网络模型对应的分类权重,对所述待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到所述待识别样本的目标分类概率;
结果确定模块,用于根据所述待识别样本的目标分类概率,确定对所述待识别样本的识别结果。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取至少两个源域训练样本集和一个目标域训练样本集,所述源域训练样本集和所述目标域训练样本集中均包含有多个样本以及与所述样本对应的实际分类概率;
分别根据各个所述源域训练样本集、所述目标域训练样本集和各个所述样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,得到各个预训练后的元分类网络模型;
分别根据所述目标域样本集,对所述各个预训练后的元分类网络模型进行再次训练,得到各个再次训练后的元分类网络模型,对应作为各个训练完成的目标域分类网络模型;
根据所述源域训练样本集和所述目标域训练样本集,确定所述各个训练完成的目标域分类网络模型对应的分类权重;
根据所述各个训练完成的目标域分类网络模型以及所述各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
根据上述所述的方法获取训练完成的样本识别模型;所述训练完成的样本识别模型包括各个训练完成的目标域分类网络模型;
将目标域的待识别样本的特征编码输入所述样本识别模型,得到所述待识别样本在所述各个训练完成的目标域分类网络模型中的分类概率以及所述各个训练完成的目标域分类网络模型对应的分类权重;
根据所述各个训练完成的目标域分类网络模型对应的分类权重,对所述待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到所述待识别样本的目标分类概率;
根据所述待识别样本的目标分类概率,确定对所述待识别样本的识别结果。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取至少两个源域训练样本集和一个目标域训练样本集,所述源域训练样本集和所述目标域训练样本集中均包含有多个样本以及与所述样本对应的实际分类概率;
分别根据各个所述源域训练样本集、所述目标域训练样本集和各个所述样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,得到各个预训练后的元分类网络模型;
分别根据所述目标域训练样本集,对所述各个预训练后的元分类网络模型进行再次训练,得到各个再次训练后的元分类网络模型,对应作为各个训练完成的目标域分类网络模型;
根据所述源域训练样本集和所述目标域训练样本集,确定所述各个训练完成的目标域分类网络模型对应的分类权重;
根据所述各个训练完成的目标域分类网络模型以及所述各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
根据上述所述的方法获取训练完成的样本识别模型;所述训练完成的样本识别模型包括各个训练完成的目标域分类网络模型;
将目标域的待识别样本的特征编码输入所述样本识别模型,得到所述待识别样本在所述各个训练完成的目标域分类网络模型中的分类概率以及所述各个训练完成的目标域分类网络模型对应的分类权重;
根据所述各个训练完成的目标域分类网络模型对应的分类权重,对所述待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到所述待识别样本的目标分类概率;
根据所述待识别样本的目标分类概率,确定对所述待识别样本的识别结果。
上述样本识别模型的生成方法、装置、计算机设备和存储介质,通过获取的至少两个源域训练样本集、一个目标域训练样本集以及各个样本集中的样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,得到各个预训练后的元分类网络模型;然后分别根据目标域训练样本集,对各个预训练后的元分类网络模型进行再次训练,得到各个训练完成的目标域分类网络模型;并根据源域训练样本集和目标域训练样本集,确定各个训练完成的目标域分类网络模型对应的分类权重;最后根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型;实现了根据多个源域训练样本集和目标域训练样本集,对待训练的元分类网络模型进行训练,以生成训练完成的样本识别模型的目的;有利于迁移多个基于源域训练样本集训练得到的模型的样本识别知识,又能保证对目标域训练样本集进行有效地监督学习,避免了基于数量较少的样本训练得到的模型存在过拟合,导致模型的样本识别准确率较低的缺陷,从而提高了训练完成的样本识别模型的样本识别准确率;同时,根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型,有利于综合考虑各个训练完成的目标域分类网络模型输出的预测结果的重要程度,保证了相关源域的正向迁移,同时抑制了不相关源域的负向迁移,从而使得训练得到的样本识别模型的样本识别效果更好,进一步提高了训练得到的样本识别模型的样本识别准确率。
附图说明
图1为一个实施例中样本识别模型的生成方法的应用环境图;
图2为一个实施例中样本识别模型的生成方法的流程示意图;
图3为一个实施例中对各个待训练的分类网络模型进行一一预训练的步骤的流程示意图;
图4为一个实施例中根据源域训练样本集的第一样本集和目标域训练样本集的第一样本集,对待训练的元分类网络模型进行微调训练,得到微调训练后的元分类网络模型的步骤的流程示意图;
图5为一个实施例中根据预测损失值对待训练的元分类网络模型进行训练,得到训练后的元分类网络模的步骤的流程示意图;
图6为一个实施例中分别根据目标域训练样本集,对各个预训练后的元分类网络模型进行再次训练,得到各个再次训练后的元分类网络模型的步骤的流程示意图;
图7为一个实施例中确定各个训练完成的目标域分类网络模型对应的分类权重的步骤的流程示意图;
图8为一个实施例中预先训练的特征距离模型的训练步骤的流程示意图;
图9为一个实施例中生成样本识别模型的示意图;
图10为一个实施例中样本识别方法的流程示意图;
图11为一个实施例中样本审核的界面示意图;
图12为另一个实施例中样本识别方法的流程示意图;
图13为一个实施例中样本识别模型的生成装置的结构框图;
图14为一个实施例中样本识别装置的结构框图;
图15为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的样本识别模型的生成方法,可以应用于如图1所示的应用环境中。参照图1,该应用环境图包括服务器110。服务器110是指具有模型训练功能的服务器,具体可以用独立的服务器或者是多个服务器组成的服务器集群来实现。图1中以服务器110是独立的服务器为例进行说明,服务器110获取至少两个源域训练样本集和一个目标域训练样本集,源域训练样本集和目标域训练样本集中均包含有多个样本以及与样本对应的实际分类概率;分别根据各个源域训练样本集、目标域训练样本集和各个样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,得到各个预训练后的元分类网络模型;分别根据目标域训练样本集,对各个预训练后的元分类网络模型进行再次训练,得到各个再次训练后的元分类网络模型,对应作为各个训练完成的目标域分类网络模型;根据源域训练样本集和目标域训练样本集,确定各个训练完成的目标域分类网络模型对应的分类权重;根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型。
进一步地,在后续服务器110获取目标域的待识别样本的特征编码之后,服务器110可以将目标域的待识别样本的特征编码输入训练完成的样本识别模型,得到待识别样本在各个训练完成的目标域分类网络模型中的分类概率以及各个训练完成的目标域分类网络模型对应的分类权重;根据各个训练完成的目标域分类网络模型对应的分类权重,对待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到待识别样本的目标分类概率;根据待识别样本的目标分类概率,确定对待识别样本的识别结果,比如样本类别。此外,服务器110还可以将待识别样本的识别结果发送至对应的终端进行显示;比如在金融反欺诈场景中,服务器110将终端上传的贷款人的行为特征信息作为待识别样本,输入到训练完成的样本识别模型,得到贷款人的类别(比如欺诈用户或者非欺诈用户),并将贷款人的类别返回至对应的终端,通过终端展示贷款人的类别。
需要说明的是,本申请不仅可以用在金融反欺诈场景,还可以应用在各个小样本学习领域的各个场景,比如自然语言处理、计算机视觉、推荐系统等。
在一个实施例中,如图2所示,提供了一种样本识别模型的训练方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤S202,获取至少两个源域训练样本集和一个目标域训练样本集,源域训练样本集和目标域训练样本集中均包含有多个样本以及与样本对应的实际分类概率。
其中,样本是指标记有样本类型的样本,其来源于真实场景;在实际场景中,样本可以是指借贷人的行为特征信息;比如,与金融支付行为相关的画像信息(如消费能力信息、消费偏好信息等)、历史借贷记录信息、多头借贷行为信息等;在该实际场景下,样本类型是指欺诈用户(即黑样本)或者非欺诈用户(即白样本)。
其中,分类概率用于衡量样本属于某一种类型的概率;比如,在金融反欺诈场景中,分类概率是指样本属于欺诈用户的概率。举例说明,若样本属于欺诈用户,则对应的实际分类概率为1;若样本属于非欺诈用户,则对应的实际分类概率为0。
其中,源域训练样本集是指与待识别样本所属场景相似的场景所对应的训练样本集,目标域训练样本集是指待识别样本所属场景对应的训练样本集。例如,在金融反欺诈场景中,若目标域训练样本集是小额短期借贷对应的训练样本集,那么源域训练样本集可以是大额长期、消费分期等典型借贷场景对应的训练样本集。
需要说明的是,待识别样本是指训练完成的样本识别模型所要识别的样本;至少两个源域训练样本集可以是两个或者两个以上源域训练样本集,具体本申请不做限定。
具体地,服务器基于大数据技术,从网络上采集待识别样本所属场景对应的训练样本集,作为目标域训练样本集;同时采集与待识别样本所属场景相似的多个场景所对应的训练样本集,作为至少两个源域训练样本集。这样,有利于后续根据各个源域训练样本集、目标域训练样本集和样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练。
举例说明,在金融反欺诈场景中,服务器采集小额短期借贷对应的训练样本集,作为目标域训练样本集,采集9个不同借贷场景(比如大额长期、消费分期等)对应的训练样本集,作为源域训练样本集;所有的训练样本集都经过严格的脱敏处理,每个训练样本集中的欺诈用户和非欺诈用户的比例为1:1。为了模拟小样本实验环境,目标域训练样本集中的样本数被限定为1000或3000。
进一步地,服务器还可以查询本地数据库,获取待识别样本所属场景对应的训练样本集,作为目标域训练样本集;同时获取与待识别样本所属场景相似的多个场景所对应的训练样本集,作为至少两个源域训练样本集。
在一个实施例中,在获取样本集之后,服务器还可以对样本集中的样本进行预处理,比如脱敏处理、特征归一化处理等;具体地,服务器根据预设的脱敏处理指令,对样本集中的样本进行脱敏处理,得到脱敏处理后的样本。这样,有利于避免多余信息干扰,便于后续根据样本集中的样本对待训练的元分类网络模型进行训练。
步骤S204,分别根据各个源域训练样本集、目标域训练样本集和各个样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,得到各个预训练后的元分类网络模型。
其中,元分类网络模型是一种能够输出样本的分类概率,以对样本进行分类的神经网络模型,比如DNN(Deep Neural Networks,深度神经网络)模型;具体包括特征提取网络和类别预测网络;特征提取网络用于提取样本特征,类别预测网络用于预测样本类型。
具体地,服务器分别将各个源域训练样本集和目标域训练样本集进行组合,得到各个源域训练样本集对应的组合样本集;根据各个源域训练样本集对应的组合样本集,利用元学习方法,对各个待训练的元分类网络模型进行一一预训练,得到各个待训练的元分类网络模型的初始网络参数;根据各个待训练的元分类网络模型的初始网络参数,对各个待训练的元分类网络模型的网络参数进行更新,得到各个预训练后的元分类网络模型。其中,每个待训练的元分类网络模型的初始网络参数,代表一个源域到目标域的初始迁移。这样,通过各个源域训练样本集、目标域训练样本集和样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,有利于迁移多个基于源域训练样本集训练得到的模型的样本识别知识,又能保证对目标域训练样本集进行有效地监督学习。
举例说明,服务器根据各个源域训练样本集对应的组合样本集,利用MAML(ModelAgnostic Meta Learning,模型无关的元学习)所提出的内外循环方式,对各个待训练的元分类网络模型进行一对一的学习,得到各个待训练的元分类网络模型的初始网络参数;比如有9个源域训练样本集对应的组合样本集,就可以学习到9组待训练的元分类网络模型的初始网络参数;根据各个待训练的元分类网络模型的初始网络参数,对各个待训练的元分类网络模型的网络参数进行初始化,得到各个预训练后的元分类网络模型。
在一个实施例中,服务器采集多个源域样本集和一个目标域样本集,根据各个源域样本集和目标域样本集,构建源域样本集的训练样本集和测试样本集和OOT样本集(也称跨时间测试集)、目标域样本集的训练样本集和测试样本集和OOT样本集;将源域样本集的训练样本集识别为源域训练样本集,将目标域样本集的训练样本集识别为目标域训练样本集;其中,测试样本集和OOT样本集均用来验证模型效果,且测试样本集的样本日期与训练样本集的样本日期有重合,而OOT样本集的样本日期均在训练样本集的样本日期之后;OOT样本集的设置是为了更客观地验证元分类网络模型随时间的稳定性。具体地,服务器分别从源域训练样本集和目标域训练样本集中抽取少量样本,根据源域训练样本集的少量样本和目标域训练样本集的少量样本,分别对待训练的元分类网络模型进行微调训练,得到待训练的元分类网络模型在源域训练样本集的少量样本上的预测损失值和目标域训练样本集的少量样本上的预测损失值;分别根据待训练的元分类网络模型在源域训练样本集的少量样本上的预测损失值和目标域训练样本集的少量样本上的预测损失值,对待训练的元分类网络模型迭代更新少次(比如10次),得到源域对应的元分类网络模型和目标域对应的元分类网络模型;重新从源域训练样本集中抽取少量样本,计算其在刚刚训练得到的源域对应的元分类网络模型上的预测损失值,作为第一损失值;并且重新从目标域训练样本集中抽取少量样本,计算其在刚刚训练得到的目标域对应的元分类网络模型上的预测损失值,作为第二损失值;根据第一损失值与第二损失值之和对待训练的元分类网络模型的网络参数进行梯度更新,并重复执行上述步骤,以对梯度更新后的元分类网络模型进行再次训练,直到元分类网络模型的网络参数达到收敛,从而得到各个预训练后的元分类网络模型。通过本实施例,有利于学习到一组快速迁移到目标域上的共有网络参数,从而得到在目标域上具有强泛化能力的元分类网络模型。
步骤S206,分别根据目标域训练样本集,对各个预训练后的元分类网络模型进行再次训练,得到各个再次训练后的元分类网络模型,对应作为各个训练完成的目标域分类网络模型。
其中,再次训练后的元分类网络模型是基于目标域训练样本集的少量标记有样本类型的样本微调得到的独立网络模型,具体对应一个源域到目标域的最终迁移模型,能够独立地对目标域的样本进行预测;在本申请中,再次训练后的元分类网络模型称为训练完成的目标域分类网络模型;目标域分类网络模型是一种能够对目标域的样本进行预测的神经网络模型,比如DNN模型。
具体地,服务器根据目标域训练样本集,对预训练后的元分类网络模型进行再次训练,得到再次训练后的元分类网络模型;获取再次训练后的元分类网络模型输出的分类概率与对应的实际分类概率之间的损失值,根据损失值对再次训练后的元分类网络模型的网络参数进行更新;以此类推,可以对再次训练后的元分类网络模型的网络参数进行多次更新,直到再次训练后的元分类网络模型的网络参数达到收敛或者训练次数达到预设训练次数;将当前的元分类网络模型,作为训练完成的目标域分类网络模型;依照此方法,基于同一个目标域训练样本集,可以得到各个训练完成的目标域分类网络模型。这样,实现了对预训练后的元分类网络模型进行微调,以得到目标域分类网络模型的目的,提高了目标域分类网络模型对目标域的样本的识别能力,进一步提高了通过目标域分类网络模型构建而成的样本识别模型的样本识别准确率。
举例说明,服务器分别基于同一个目标域样本集的少量标记有样本类型的样本,对各个预训练后的元分类网络模型进行微调处理,得到多个独立的元分类网络模型,作为各个训练完成的目标域分类网络模型;其中,每个训练完成的目标域分类网络模型对应一个源域到目标域的最终迁移模型。这样,实现了源域到目标域的最终迁移,有利于提高目标域分类网络模型对目标域的样本的识别能力。
进一步地,服务器还可以根据目标域训练样本集的样本对预训练后的元分类网络模型进行再次训练,得到再次训练后的元分类网络模型;获取再次训练后的元分类网络模型输出的分类概率与对应的实际分类概率之间的损失值总和;根据损失值总和调整再次训练后的元分类网络模型的网络参数,并对网络参数调整后的元分类网络模型进行反复训练,直至达到训练结束条件(比如达到训练次数或者元分类网络模型的网络参数达到收敛);当达到训练结束条件时,将当前的元分类网络模型,作为训练完成的目标域分类网络模型;依照此方法,基于同一个目标域训练样本集,可以得到各个训练完成的目标域分类网络模型。
步骤S208,根据源域训练样本集和目标域训练样本集,确定各个训练完成的目标域分类网络模型对应的分类权重。
其中,训练完成的目标域分类网络模型对应的分类权重是指目标域分类网络模型输出的分类概率所对应的投票权重,用于衡量训练完成的目标域分类网络模型输出的分类概率的重要程度;一般地,训练完成的目标域分类网络模型对应的分类权重越大,表示该目标域分类网络模型输出的分类概率的重要程度越高,说明该目标域分类网络模型输出的分类概率的投票权重越大;训练完成的目标域分类网络模型对应的分类权重越小,表示该目标域分类网络模型输出的分类概率的重要程度越低,说明该目标域分类网络模型输出的分类概率的投票权重越小。
其中,各个训练完成的目标域分类网络模型对应的分类权重通过训练该目标域分类网络模型的源域训练样本集和目标域训练样本集之间的相关性决定;一般地,训练目标域分类网络模型的源域训练样本集和目标域训练样本集之间的相关性越大,说明在基于源域训练样本集训练目标域分类网络模型的过程中,从源域到目标域属于正向迁移,为了保证正向迁移,那么该目标域分类网络模对应的分类权重就应该越大;训练目标域分类网络模型的源域训练样本集和目标域训练样本集之间的相关性越小,说明在基于源域训练样本集训练目标域分类网络模型的过程中,从源域到目标域属于负向迁移,为了抑制负向迁移,那么该目标域分类网络模对应的分类权重就应该越小。
具体地,服务器从源域训练样本集和目标域训练样本集中,筛选出各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集;根据预设的相关性统计网络模型,得到各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集之间的相关性;根据各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集之间的相关性,查询预设的相关性与分类权重的对应关系,得到各个训练完成的目标域分类网络模型对应的分类权重。其中,预设的相关性统计网络模型是一种能够统计两个样本集之间的相关性的神经网络模型。这样,通过确定各个训练完成的目标域分类网络模型对应的分类权重,有利于综合考虑各个训练完成的目标域分类网络模型输出的分类概率的重要程度,保证了相关源域的正向迁移,同时抑制了不相关源域的负向迁移。
步骤S210,根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型。
其中,样本识别模型是由各个训练完成的目标域分类网络模型共同组成的最终模型,能够对目标域的样本进行识别,以预测出样本的类型;具体用于对各个训练完成的目标域分类网络模型输出的预测结果进行加权处理,得到最终预测结果。
具体地,服务器将各个训练完成的目标域分类网络模型对应的分类权重,标记为各个训练完成的目标域分类网络模型输出的分类概率对应的投票权重;并将各个训练完成的目标域分类网络模型进行组合,生成组合模型,作为训练完成的样本识别模型。
进一步地,通过样本识别模型可以输出目标域的待识别样本在各个训练完成的目标域分类网络模型中的分类概率;根据各个训练完成的目标域分类网络模型对应的分类权重,对待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到各个训练完成的目标域分类网络模型对应的分类权重与分类概率的乘积;将各个训练完成的目标域分类网络模型对应的分类权重与分类概率的乘积进行相加,得到待识别样本的最终分类概率;根据待识别样本的最终分类概率,确定对待识别样本的识别结果,比如确定待识别样本的类型。例如,在金融反欺诈场景中,待识别样本的最终分类概率大于预设分类概率,则确认待识别样本所对应的贷款人属于欺诈用户。
上述样本识别模型的生成方法中,通过获取的至少两个源域训练样本集、一个目标域训练样本集以及各个样本集中的样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,得到各个预训练后的元分类网络模型;然后分别根据目标域训练样本集,对各个预训练后的元分类网络模型进行再次训练,得到各个训练完成的目标域分类网络模型;并根据源域训练样本集和目标域训练样本集,确定各个训练完成的目标域分类网络模型对应的分类权重;最后根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型;实现了根据多个源域训练样本集和目标域训练样本集,对待训练的元分类网络模型进行训练,以生成训练完成的样本识别模型的目的;有利于迁移多个基于源域训练样本集训练得到的模型的样本识别知识,又能保证对目标域训练样本集进行有效地监督学习,避免了基于数量较少的样本训练得到的模型存在过拟合,导致模型的样本识别准确率较低的缺陷,从而提高了训练完成的样本识别模型的样本识别准确率;同时,根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型,有利于综合考虑各个训练完成的目标域分类网络模型输出的预测结果的重要程度,保证了相关源域的正向迁移,同时抑制了不相关源域的负向迁移,从而使得训练得到的样本识别模型的样本识别效果更好,进一步提高了训练得到的样本识别模型的样本识别准确率。
在一个实施例中,如图3所示,上述步骤S204,分别根据各个源域样本集、目标域样本集和各个样本对应的实际分类概率,对各个待训练的分类网络模型进行一一预训练,得到各个预训练后的分类网络模型,具体包括如下步骤:
步骤S302,根据各个源域训练样本集、目标域训练样本集和各个样本对应的实际分类概率,构建源域训练样本集的第一样本集和第二样本集以及目标域训练样本集的第一样本集和第二样本集。
其中,第一样本集是指从训练样本集(比如源域训练样本集或者目标域训练样本集)中抽取的一部分样本,具体是指support set,满足N-way-K-shot设置,用于训练源域对应的元分类网络模型和目标域对应的元分类网络模型;第二样本集是指从训练样本集(比如源域训练样本集或者目标域训练样本集)的剩余样本中重新抽取的一部分样本,具体是指query set,用于作为统计源域对应的元分类网络模型的预测损失值和目标域对应的元分类网络模型的预测损失值的样本集。
需要说明的是,源域训练样本集的第一样本集和第二样本集以及目标域训练样本集的第一样本集和第二样本集,共同构成元分类网络模型的一个训练任务,一个训练任务相当于元分类网络模型的一条训练数据,多个训练任务即可构成元分类网络模型的一批训练数据。
具体地,服务器分别从每个源域训练样本集中抽取一批样本,构成源域训练样本集的第一样本集;再从每个源域训练样本集剩余的样本中重新抽取一批样本,构成源域训练样本集的第二样本集,从而得到源域训练样本集的第一样本集和第二样本集;从目标域训练样本集中抽取一批样本,构成目标域训练样本集的第一样本集;再从目标域训练样本集剩余的样本中重新抽取一批样本,构成目标域训练样本集的第二样本集,从而得到目标域训练样本集的第一样本集和第二样本集;这样,有利于后续训练元分类网络模型从第一样本集中学习如何区分第二样本集中的样本。
举例说明,假设N-way-K-shot为5-way-5-shot,则针对每个源域训练样本集,随机选取5个类别,每个类别随机选取20个样本;针对每20个样本,5个样本作为该源域训练样本集的第一样本集,15个样本作为该源域训练样本集的第二样本集;这样,针对每个源域训练样本集,其第一样本集一共有5×5=25个样本,第二样本集一共有5×15=75个样本;按照同样的方式,可以得到目标域训练样本集的第一样本集和第二样本集。
步骤S304,根据源域训练样本集的第一样本集和目标域训练样本集的第一样本集,对待训练的元分类网络模型进行微调训练,得到微调训练后的元分类网络模型。
其中,微调训练后的元分类网络模型是指源域对应的元分类网络模型和目标域对应的元分类网络模型。
具体地,服务器分别将源域训练样本集的第一样本集中的每个样本输入待训练的元分类网络模型,得到待训练的元分类网络模型输出的分类概率与对应的实际分类概率之间的预测损失值总和;根据该预测损失值总和对待训练的元分类网络模型中的网络参数进行暂时更新,得到更新后的元分类网络模型,作为源域对应的元分类网络模型;分别将目标域训练样本集的第一样本集中的每个样本输入待训练的元分类网络模型,得到待训练的元分类网络模型输出的分类概率与对应的实际分类概率之间的预测损失值总和;根据该预测损失值总和对待训练的元分类网络模型中的网络参数进行暂时更新,得到更新后的元分类网络模型,作为目标域对应的元分类网络模型;将源域对应的元分类网络模型和目标域对应的元分类网络模型,均作为微调训练后的元分类网络模型。
步骤S306,获取微调训练后的元分类网络模型在源域训练样本集的第二样本集和目标域训练样本集的第二样本集上的预测损失值,根据预测损失值对待训练的元分类网络模型进行训练,得到训练后的元分类网络模型。
具体地,服务器分别将源域训练样本集的第二样本集中的每个样本输入源域对应的元分类网络模型,得到源域对应的元分类网络模型输出的分类概率与对应的实际分类概率之间的第一损失值总和;分别将目标域训练样本集的第二样本集中的每个样本输入目标域对应的元分类网络模型,得到目标域对应的元分类网络模型输出的分类概率与对应的实际分类概率之间的第二损失值总和;将第一损失值总和第二损失值总和进行相加,得到目标损失值总和;根据目标损失值总和对待训练的元分类网络模型的网络参数进行更新,得到更新后的元分类网络模型,作为训练后的元分类网络模型。
步骤S308,若训练后的元分类网络模型不满足第一收敛条件,则将训练后的元分类网络模型作为待训练的元分类网络模型,并跳转至根据源域训练样本集的第一样本集和目标域训练样本集的第一样本集,对待训练的元分类网络模型进行微调训练,得到微调训练后的元分类网络模型的步骤。
步骤S310,若训练后的元分类网络模型满足第一收敛条件,将当前的各个元分类网络模型,作为各个预训练后的元分类网络模型。
其中,训练后的元分类网络模型满足第一收敛条件是指训练后的元分类网络模型的训练次数达到预设训练次数或者训练后的元分类网络模型的网络参数达到收敛;那么训练后的元分类网络模型不满足第一收敛条件是指训练后的元分类网络模型的训练次数没有达到预设训练次数或者训练后的元分类网络模型的网络参数没有达到收敛。
具体地,当训练后的元分类网络模型的训练次数没有达到预设训练次数或者训练后的元分类网络模型的网络参数没有达到收敛,则确认训练后的元分类网络模型不满足第一收敛条件,并将当前的各个元分类网络模型,作为各个待训练的元分类网络模型,并跳转至步骤S304,不断重复执行步骤S304至S306,直至当前的各个元分类网络模型的训练次数均达到预设训练次数或者当前的各个元分类网络模型的网络参数均达到收敛。
在本实施例中,分别根据各个源域训练样本集、目标域训练样本集和样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,有利于迁移多个基于源域训练样本集训练得到的模型的样本识别知识,实现了多源域向单目标域迁移的目的。
在一个实施例中,如图4所示,上述步骤S304,根据源域训练样本集的第一样本集和目标域训练样本集的第一样本集,对待训练的元分类网络模型进行微调训练,得到微调训练后的元分类网络模型,具体包括如下步骤:
步骤S402,根据源域训练样本集的第一样本集对待训练的元分类网络模型进行训练,得到待训练的元分类网络模型在源域训练样本集的第一样本集上的第一预测损失值。
其中,第一预测损失值是指待训练的元分类网络模型对源域训练样本集的第一样本集中各个样本的预测损失值的总和。
具体地,服务器将源域训练样本集的第一样本集中的样本输入待训练的分类网络模型中,得到待训练的元分类网络模型输出的分类概率;根据待训练的元分类网络模型输出的分类概率以及该样本对应的实际分类概率,结合交叉熵损失函数,得到该样本的预测损失值;参照此方法,可以得到待训练的元分类网络模型对源域训练样本集的第一样本集中各个样本的预测损失值;将待训练的元分类网络模型对源域训练样本集的第一样本集中各个样本的预测损失值进行相加,得到待训练的元分类网络模型在源域训练样本集的第一样本集上的预测损失值总和,作为第一预测损失值。
举例说明,第一预测损失值可以通过下述公式计算得到:
其中,是第一预测损失值,f为元分类网络模型,θi为元分类网络模型f的网络参数;/>为源域训练样本集的第一样本集,/>为该源域训练样本集的第一样本集中的样本,/>为该源域训练样本集的第一样本集中的样本对应的实际分类概率,Y(j)为样本的实际分类概率,/>为通过元分类网络模型f输出的样本X(j)的分类概率。
步骤S404,根据目标域训练样本集的第一样本集对待训练的元分类网络模型进行训练,得到待训练的元分类网络模型在目标域训练样本集的第一样本集上的第二预测损失值。
其中,第二预测损失值是指待训练的元分类网络模型对目标域训练样本集的第一样本集中各个样本的预测损失值的总和。
具体地,服务器将目标域训练样本集的第一样本集中的样本输入待训练的元分类网络模型中,得到待训练的元分类网络模型输出的分类概率;根据待训练的元分类网络模型输出的分类概率以及该样本对应的实际分类概率,结合交叉熵损失函数,得到该样本的预测损失值;参照此方法,可以得到待训练的元分类网络模型对目标域训练样本集的第一样本集中各个样本的预测损失值;将待训练的元分类网络模型对目标域训练样本集的第一样本集中各个样本的预测损失值进行相加,得到待训练的元分类网络模型在目标域训练样本集的第一样本集上的预测损失值总和,作为第二预测损失值。
举例说明,第二预测损失值可以通过下述公式计算得到:
其中,是第二预测损失值,f为元分类网络模型,θi为元分类网络模型f的网络参数;/>为目标域训练样本集的第一样本集,/>为该目标域训练样本集的第一样本集中的样本,/>为该目标域训练样本集的第一样本集中的样本对应的实际分类概率,Y(j)为样本的实际分类概率,/>为通过元分类网络模型f输出的样本X(j)的分类概率。
步骤S406,根据第一预测损失值,对待训练的元分类网络模型的网络参数进行更新,得到源域对应的元分类网络模型。
具体地,服务器根据第一预测损失值,确定待训练的元分类网络模型的网络参数更新梯度;根据待训练的元分类网络模型的网络参数更新梯度,对待训练的元分类网络模型的网络参数进行更新,得到更新后的元分类网络模型,作为源域对应的元分类网络模型。
举例说明,通过下述公式计算源域对应的元分类网络模型更新后的网络参数:
其中,为源域对应的元分类网络模型更新后的网络参数,θi为源域对应的元分类网络模型更新前的网络参数,α为预设系数,/>为第一预测损失值,/>为网络参数更新梯度。
步骤S408,根据第二预测损失值,对待训练的元分类网络模型的网络参数进行更新,得到目标域对应的元分类网络模型。
具体地,服务器根据第二预测损失值,确定待训练的元分类网络模型的网络参数更新梯度;根据待训练的元分类网络模型的网络参数更新梯度,对待训练的元分类网络模型的网络参数进行更新,得到更新后的元分类网络模型,作为目标域对应的元分类网络模型。
举例说明,通过下述公式计算目标域对应的元分类网络模型更新后的网络参数:
其中,为目标域对应的元分类网络模型更新后的网络参数,θi为目标域对应的元分类网络模型更新前的网络参数,α为预设系数,/>为第二预测损失值,/>为网络参数更新梯度。
需要说明的是,源域对应的元分类网络模型和目标域对应的元分类网络模型,均为微调训练后的元分类网络模型。
在本实施例中,通过源域训练样本集的第一样本集和目标域训练样本集的第一样本集,对待训练的元分类网络模型进行训练,有利于分别学习源域训练样本集和目标域训练样本集的特征信息,便于后续实现源域到目标域的迁移。
在一个实施例中,如图5所示,上述步骤S306,获取微调训练后的元分类网络模型在源域训练样本集的第二样本集和目标域训练样本集的第二样本集上的预测损失值,根据预测损失值对待训练的元分类网络模型进行训练,得到训练后的元分类网络模型,具体包括如下步骤:
步骤S502,根据源域训练样本集的第二样本集,对源域对应的元分类网络模型进行训练,得到源域对应的元分类网络模型在源域训练样本集的第二样本集上的第三预测损失值。
其中,第三预测损失值是指源域对应的元分类网络模型对源域训练样本集的第二样本集中各个样本的预测损失值的总和。
具体地,服务器将源域训练样本集的第二样本集中的样本输入源域对应的元分类网络模型中,得到源域对应的元分类网络模型输出的分类概率;根据源域对应的元分类网络模型输出的分类概率以及该样本对应的实际分类概率,结合交叉熵损失函数,得到该样本的预测损失值;参照此方法,可以得到源域对应的元分类网络模型对源域训练样本集的第二样本集中各个样本的预测损失值;将源域对应的元分类网络模型对源域训练样本集的第二样本集中各个样本的预测损失值进行相加,得到源域对应的元分类网络模型在源域训练样本集的第二样本集上的预测损失值总和,作为第三预测损失值。
步骤S504,根据目标域训练样本集的第二样本集,对目标域对应的元分类网络模型进行训练,得到目标域对应的元分类网络模型在目标域训练样本集的第二样本集上的第四预测损失值。
其中,第四预测损失值是指目标域对应的元分类网络模型对目标域训练样本集的第二样本集中各个样本的预测损失值的总和。
具体地,服务器将目标域训练样本集的第二样本集中的样本输入目标域对应的元分类网络模型中,得到目标域对应的元分类网络模型输出的分类概率;根据目标域对应的元分类网络模型输出的分类概率以及该样本对应的实际分类概率,结合交叉熵损失函数,得到该样本的预测损失值;参照此方法,可以得到目标域对应的元分类网络模型对目标域训练样本集的第二样本集中各个样本的预测损失值;将目标域对应的元分类网络模型对目标域训练样本集的第二样本集中各个样本的预测损失值进行相加,得到目标域对应的元分类网络模型在目标域训练样本集的第二样本集上的预测损失值总和,作为第四预测损失值。
步骤S506,根据第三预测损失值和第四预测损失值,对待训练的元分类网络模型的网络参数进行更新,得到更新后的元分类网络模型,作为训练后的元分类网络模型。
具体地,服务器将第三预测损失值和第四预测损失值进行相加,得到目标预测损失值;根据目标预测损失值,确定待训练的元分类网络模型的网络参数更新梯度;根据待训练的元分类网络模型的网络参数更新梯度,对待训练的元分类网络模型的网络参数进行更新,得到更新后的元分类网络模型,作为训练后的元分类网络模型。
举例说明,待训练的元分类网络模型更新后的网络参数可以通过下述公式计算得到:
其中,θi′为待训练的元分类网络模型更新后的网络参数,θi为待训练的元分类网络模型更新前的网络参数,β为预设系数,为源域对应的元分类网络模型,/>为源域对应的元分类网络模型的网络参数;/>为源域训练样本集的第二样本集,为该源域训练样本集的第二样本集中的样本,/>为该源域训练样本集的第二样本集中的样本对应的实际分类概率,/>为第三预测损失值;/>为目标域对应的元分类网络模型,/>为目标域对应的元分类网络模型的网络参数;/>为目标域训练样本集的第二样本集,/>为该目标域训练样本集的第二样本集中的样本,为该目标域训练样本集的第二样本集中的样本对应的实际分类概率,/>为第四预测损失值;/>为网络参数更新梯度。
在本实施例中,根据源域训练样本集的第二样本集和目标域训练样本集的第二样本集,对训练后的元分类网络模型进行再次训练,有利于实现源域到目标域的迁移,进一步提高了训练得到的元分类网络模型对目标域的样本的识别能力。
在一个实施例中,如图6所示,上述步骤S206,分别根据目标域训练样本集,对各个预训练后的元分类网络模型进行再次训练,得到各个再次训练后的元分类网络模型,具体包括如下步骤:
步骤S602,获取目标域训练样本集中的样本的特征编码。
其中,样本的特征编码是指经过压缩编码后的用于表示样本的低层语义的低维度特征向量,可以通过预先训练的特征嵌入网络模型学习得到。
具体地,服务器将目标域训练样本集中的样本输入预先训练的特征嵌入网络模型,得到目标域训练样本集中的样本的特征编码。其中,预先训练的特征嵌入网络模型是一种能够对样本进行特征提取和特征编码,以得到样本对应的特征编码的神经网络模型。
进一步地,服务器还可以根据预设的特征编码指令对目标域训练样本集中的样本进行特征提取处理和特征编码处理,得到目标域训练样本集中的样本的特征编码;其中,预设的特征编码指令是一种能够自动对样本进行特征提取处理和特征编码处理的指令。
步骤S604,分别将目标域训练样本集中的样本的特征编码输入各个预训练后的元分类网络模型,得到样本在各个预训练后的元分类网络模型中的分类概率。
具体地,服务器将目标域训练样本集中的样本的特征编码输入各个预训练后的元分类网络模型,通过预训练后的元分类网络模型中的特征提取网络对样本的特征编码进行卷积处理,得到样本的目标特征编码;通过预训练后的元分类网络模型中的类别预测网络对样本的目标特征编码进行全连接处理,得到样本在该预训练后的元分类网络模型中的分类概率;参照此方法,可以得到样本在各个预训练后的元分类网络模型中的分类概率。
步骤S606,获取样本在各个预训练后的元分类网络模型中的分类概率与对应的实际分类概率的差值。
其中,样本在预训练后的元分类网络模型中的分类概率与对应的实际分类概率的差值,用于衡量样本在预训练后的元分类网络模型中的分类概率与对应的实际分类概率之间的偏差程度。
步骤S608,根据差值确定各个预训练后的元分类网络模型的损失值。
具体地,服务器将差值识别为预训练后的元分类网络模型的损失值,从而得到各个预训练后的元分类网络模型的损失值。
步骤S610,分别根据损失值反向训练各个预训练后的元分类网络模型,直至各个预训练后的元分类网络模型均满足第二收敛条件。
其中,第二收敛条件是指预训练后的元分类网络模型的训练次数达到预设训练次数,或者预训练后的元分类网络模型的网络参数达到收敛。
具体地,服务器根据损失值确定网络参数更新梯度,根据网络参数更新梯度对预训练后的元分类网络模型的网络参数进行更新,得到更新后的元分类网络模型;将更新后的元分类网络模型作为预训练后的元分类网络模型,重复执行步骤S604至S610,直到预训练后的元分类网络模型的网络参数达到收敛。
步骤S612,若各个预训练后的元分类网络模型均满足第二收敛条件,则将当前的各个预训练后的元分类网络模型,作为各个再次训练后的元分类网络模型。
在本实施例中,通过目标域训练样本集,对各个预训练后的元分类网络模型进行再次训练,实现了对预训练后的元分类网络模型进行微调的目的,提高了元分类网络模型对目标域的样本的识别能力,进一步提高了通过元分类网络模型构建而成的样本识别模型的样本识别准确率。
在一个实施例中,如图7所示,上述步骤S208,根据源域训练样本集和目标域训练样本集,确定各个训练完成的目标域分类网络模型对应的分类权重,具体包括如下步骤:
步骤S702,从源域训练样本集和目标域训练样本集中,确定出各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集。
其中,各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集是指对各个待训练的元分类网络模型进行训练的样本集;每个训练完成的目标域分类网络模型对应一个源域训练样本集和一个目标域训练样本集。
具体地,服务器获取各个训练完成的目标域分类网络模型的模型标识(如模型编号、模型名称等),根据各个训练完成的目标域分类网络模型的模型标识查询预设的模型标识与源域训练样本集和目标域训练样本集的对应关系,得到各个训练完成的目标域分类网络模型的模型标识对应的源域训练样本集和目标域训练样本集,对应作为各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集。
步骤S704,统计各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离。
其中,特征距离用于衡量源域训练样本集和目标域训练样本集之间的相关性,一般地,特征距离越大,表示源域训练样本集和目标域训练样本集之间越不相关;特征距离越小,表示源域训练样本集和目标域训练样本集之间越相关。在实际场景中,特征距离可以是W距离(Wasserstein Distance),它相比于KL距离的优越性在于,通过有监督的训练域判别器,使得各个特征对于样本之间距离的度量贡献度是基于学习目标域和源域样本分布差异而训练得到的;而KL距离中各个特征对于距离的贡献度相同。
具体地,服务器将各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集输入特征距离统计模型中,得到各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离;特征距离统计模型用于对各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集进行分析处理,得到各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离。
进一步地,服务器还可以根据预设的特征距离统计指令,对各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集进行处理,得到各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离。
步骤S706,根据各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离,查询预设的特征距离与权重的对应关系,确定各个训练完成的目标域分类网络模型对应的权重。
其中,训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离越大,表示源域训练样本集和目标域训练样本集之间越不相关,说明源域训练样本集对目标域训练样本集的迁移效果较差,那么通过源域训练样本集和目标域训练样本集训练得到的目标域分类网络模型的代表性较差,说明该目标域分类网络模型对应的权重越小;训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离越小,表示源域训练样本集和目标域训练样本集之间越相关,说明源域训练样本集对目标域训练样本集的迁移效果较优,那么通过源域训练样本集和目标域训练样本集训练得到的目标域分类网络模型的代表性较优,说明该目标域分类网络模型对应的权重越大。
具体地,服务器获取预设的特征距离与权重的对应关系,并根据各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离,查询该预设的特征距离与权重的对应关系,得到各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离对应的权重,对应作为各个训练完成的目标域分类网络模型对应的权重。
进一步地,服务器还可以统计各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离的倒数,对应作为各个训练完成的目标域分类网络模型对应的权重。
步骤S708,将各个训练完成的目标域分类网络模型对应的权重进行归一化处理,得到各个训练完成的目标域分类网络模型对应的分类权重。
举例说明,假设有4个训练完成的目标域分类网络模型,对应的权重分别为A1,A2,A3,A4,那么通过归一化处理后,这4个训练完成的目标域分类网络模型对应的分类权重分别为A1/(A1+A2+A3+A4),A2/(A1+A2+A3+A4),A3/(A1+A2+A3+A4),A4/(A1+A2+A3+A4)。
进一步地,服务器还可以针对不同的源域训练样本集对目标域分类网络模型训练的贡献大小,通过注意力机制,自适应学习得到各个目标域分类网络模型的分类权重;具体地,服务器获取各个训练完成的目标域分类网络模型的初始分类权重,并将目标域训练样本集中的样本输入各个训练完成的目标域分类网络模型,得到各个训练完成的目标域分类网络模型输出的分类概率;根据各个训练完成的目标域分类网络模型的初始分类权重,对各个训练完成的目标域分类网络模型输出的分类概率进行加权处理,得到样本的目标分类概率;获取样本的目标分类概率与对应的实际分类概率之间的差值,根据差值对各个训练完成的目标域分类网络模型的初始分类权重进行不断调整,直到得到的样本的目标分类概率与对应的实际分类概率之间的差值小于预设阈值,将当前的各个初始分类权重,对应作为各个训练完成的目标域分类网络模型的分类权重。这样,通过注意力机制,可以有效学习得到各个训练完成的目标域分类网络模型的分类权重。
例如,有3个目标域分类网络模型,分别是目标域分类网络模型A、目标域分类网络模型B、目标域分类网络模型C,对应的初始权重分别为a,b,c,对应输出的样本的分类概率分别是y1、y2、y3;根据这3个目标域分类网络模型,得到样本的目标分类概率y'=a×y1+b×y2+c×y3;根据样本的目标分类概率y'与对应的实际分类概率y之间的差值,对各个训练完成的目标域分类网络模型的初始分类权重进行调整,直到得到的差值小于预设阈值;将当前这3个目标域分类网络模型对应的初始分类权重,对应作为这3个目标域分类网络模型的分类权重。在本实施例中,通过确定各个训练完成的目标域分类网络模型对应的分类权重,有利于确定各个训练完成的目标域分类网络模型输出的分类概率所对应的投票权重,同时有利于综合考虑各个训练完成的目标域分类网络模型的重要程度,保证了相关源域的正向迁移,同时抑制了不相关源域的负向迁移。
在一个实施例中,上述步骤S704,统计各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离,具体包括:分别将各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集输入预先训练的特征距离模型,得到各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离;其中,预先训练的特征距离模型用于分别对各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集中的样本的特征编码进行全连接处理,输出各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离。
其中,预先训练的特征距离模型是一种能够统计不同域样本集之间的特征距离的全连接神经网络,比如W距离网络。在本实施例中,通过预先训练的特征距离模型,可以得到各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离,便于后续根据各个目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离,确定各个训练完成的目标域分类网络模型的权重,进而确定各个训练完成的目标域分类网络模型的分类权重。
在一个实施例中,如图8所示,预先训练的特征距离模型通过下述步骤训练得到:
步骤S802,多次从样本集中抽取出两个域的样本集,构成多对样本集;多对样本集均匹配有对应的实际特征距离。
其中,样本集可以是仅仅由源域样本集组成的样本集,也可以是由源域样本集和目标域样本集共同组合的样本集,具体本申请不做限定。
具体地,服务器每次从所有的源域样本集和目标域样本集中随机抽取出两个域的样本集,比如源域样本集1和源域样本集2、源域样本集1和源域样本集1、源域样本集3和目标域样本集1等,组成一对样本集;抽取过程重复多次,构成多对样本集;并通过人工标注的方式,确定每对样本集对应的实际特征距离。
步骤S804,分别将各对样本集输入待训练的特征距离模型,得到各对样本集的特征距离。
其中,待训练的特征距离模型可以是W距离网络。
需要说明的是,在分别将各对样本集输入待训练的特征距离模型,得到各对样本集的特征距离之前,服务器还分别从各对样本集中的两个域样本集中,各随机抽取一批样本,重新构成该对样本集中的两个域样本集;例如一对样本集中,包括域样本集A和域样本集B,从域样本集A中抽取一批样本所构成的样本集,来重新作为域样本集A;从域样本集B中抽取一批样本所构成的样本集,来重新作为域样本集B。
步骤S806,根据各对样本集的特征距离与对应的实际特征距离,确定特征距离模型的损失值。
具体地,服务器根据各对样本集的特征距离与对应的实际特征距离,结合交叉熵损失函数,得到各对样本集的预测损失值;将各对样本集的预测损失值进行相加,得到特征距离模型在各对样本集上的预测损失值总和,作为特征距离模型的损失值。
步骤S808,根据特征距离模型的损失值反向训练特征距离模型,直至特征距离模型满足第三收敛条件
步骤S810,若特征距离模型满足第三收敛条件,将特征距离模型作为预先训练的特征距离模型。
其中,特征距离模型满足第三收敛条件是指特征距离模型的训练次数达到预设训练次数或者特征距离模型的网络参数达到收敛;那么特征距离模型不满足第三收敛条件是指特征距离模型的训练次数没有达到预设训练次数或者特征距离模型的网络参数没有达到收敛。
具体地,服务器根据特征距离模型的损失值,确定特征距离模型(如W距离网络)的网络参数更新梯度;根据特征距离模型的网络参数更新梯度对特征距离模型的网络参数进行更新,得到更新后的特征距离模型;将更新后的特征距离模型作为待训练的特征距离模型,重复执行步骤S804至S808,以不断调整特征距离模型的网络参数,直至特征距离模型的网络参数达到收敛;将网络参数达到收敛的特征距离模型,作为预先训练的特征距离模型。
在一个实施例中,以特征距离模型为W距离网络为例进行说明,服务器先随机初始化W距离网络的网络参数θw,接着进入循环,循环次数为W距离网络的网络参数θw更新的次数;在循环过程中,从源域样本集所组成的集合S中随机采样两个源域样本集/>构成一对源域样本集/> 服从集合S的分布,k=1,2;每次从/>中各随机抽取两批数据/>和/>若/>和/>来自同一个源域样本集,则W距离yi=0;若/>和/>不来自同一个源域样本集,则W距离yi=1;接着,计算W距离网络在多对源域样本集/>上的预测损失值/>根据预测损失值/>对W距离网络/>的网络参数θw进行更新,W距离网络/>的网络参数θw收敛之后则跳出循环,整个训练过程结束。
其中,为计算W距离的函数,α1为预设系数,/>为预测损失值/>对网络参数θw求偏导。
在本实施例中,通过对特征距离模型进行多次训练,可以提高特征距离模型输出的特征距离的准确率,从而提高了得到的训练完成的目标域分类网络模型的权重的准确率,进一步提高了得到的训练完成的目标域分类网络模型的分类权重的准确率。
在一个实施例中,上述步骤S210,根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型,具体包括:将各个训练完成的目标域分类网络模型进行组合,生成组合模型,作为训练完成的样本识别模型;各个训练完成的目标域分类网络模型对应的分类权重用于标识各个训练完成的目标域分类网络模型输出的分类概率的权重。
其中,训练完成的样本识别模型输出的样本分类概率为各个训练完成的目标域分类网络模型输出的分类概率与对应的分类权重的乘积之和;例如,假设三个训练完成的目标域分类网络模型输出的分类概率分别是A1、A2、A3,对应的分类权重分别是b1、b2、b3,那么训练完成的样本识别模型输出的样本分类概率为A1×b1+A2×b2+A3×b3。
在本实施例中,根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型,有利于综合考虑各个训练完成的目标域分类网络模型的重要程度,保证了相关源域的正向迁移,同时抑制了不相关源域的负向迁移,从而使得训练得到的样本识别模型的样本识别效果更好,进一步提高了训练得到的样本识别模型的样本识别准确率。
在一个实施例中,如图9所示,本申请还提供了另一种样本识别模型的生成方法,具体包括如下内容:
参考图9,首先将所有K个源域训练样本集(如S1、S2、S3等)与目标域训练样本集(如T)进行一对一的MAML学习,共得到K组网络初始化参数(如θ1、θ2……θk),每组网络初始化参数对应一个源域到目标域的初始迁移。在第二阶段,这K组网络初始化参数被用于初始化K个独立的DNN网络,得到K个初始化后的DNN网络,并分别基于同一个目标域样本集中的少量带标签样本对这K个初始化后的DNN网络进行微调训练,得到K个独立的DNN网络;每个独立的DNN网络对应一个源域到目标域的最终迁移模型,且可独立地对目标域的样本进行预测。在最后阶段,将目标域的测试样本分别输入到这K个独立的DNN网络,通过这K个独立的DNN网络,得到测试样本的K个预测概率(如Prob1、Prob2……Probk);通过W距离网络对该测试样本的K个预测概率进行加权融合,得到测试样本的最终预测概率;例如,通过W距离网络统计各个独立的DNN网络的源域训练样本集和目标域训练样本集之间的W距离,将W距离的倒数作为各个独立的DNN网络的权重;通过对各个独立的DNN网络的权重进行归一化处理,得到各个独立的DNN网络的分类权重(如Weighted vote);根据各个独立的DNN网络的分类权重,对各个独立的DNN网络输出的测试样本的预测概率进行加权融合,得到测试样本的最终预测概率。
在本实施例中,有利于迁移多个基于源域样本集训练得到的模型的样本识别知识,又能保证对目标域样本集进行有效地监督学习,避免了基于数量较少的样本训练得到的模型存在过拟合,导致模型的样本识别准确率较低的缺陷,从而提高了训练完成的样本识别模型的样本识别准确率;通过综合考虑各个独立的DNN网络的分类权重,保证了相关源域的正向迁移,同时抑制了不相关源域的负向迁移。
在一个实施例中,如图10所示,提供了一种样本识别方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤S1002,根据上述所述的方法获取训练完成的样本识别模型;训练完成的样本识别模型包括各个训练完成的目标域分类网络模型。
需要说明的是,获取训练完成的样本识别模型的具体方式参考本申请关于样本识别模型的训练方法的实施例,具体在此不再赘述。
步骤S1004,将目标域的待识别样本的特征编码输入样本识别模型,得到待识别样本在各个训练完成的目标域分类网络模型中的分类概率以及各个训练完成的目标域分类网络模型对应的分类权重。
其中,目标域的待识别样本是指目标域中需要确定样本类型的样本,可以是本地数据库中缓存的样本,也可以是网络上的样本,还可以是终端上传的样本;具体本申请不做限定。
具体地,服务器获取待识别样本,对待识别样本进行特征归一化处理,得到待识别样本的标准化特征,对待识别样本的标准化特征进行编码处理,得到待识别样本的特征编码;将待识别样本的特征编码输入样本识别模型,通过样本识别模型得到待识别样本在各个训练完成的目标域分类网络模型中的分类概率以及各个训练完成的目标域分类网络模型对应的分类权重。
举例说明,终端通过响应审核人员在终端的样本审核界面上的样本输入操作,获取审核人员输入的待识别样本;根据审核人员输入的待识别样本,生成样本识别请求,并将样本识别请求发送至对应的服务器;服务器对样本识别请求进行解析,得到待识别样本;对待识别样本进行编码处理,得到待识别样本的特征编码;将待识别样本的特征编码输入样本识别模型,得到待识别样本在各个训练完成的目标域分类网络模型中的分类概率以及各个训练完成的目标域分类网络模型对应的分类权重。
在金融反欺诈场景中,审核人员在欺诈识别界面上输入用户的行为特征信息,并点击审核按钮,触发终端获取用户的行为特征信息,并将用户的行为表现信息当作待识别样本发送至对应的服务器,以请求服务器对用户的行为表现信息进行识别,以确定用户是欺诈用户还是非欺诈用户。
举例说明,参考图11(a),审核人员在终端的样本审核界面上选择需要审核的样本,比如样本A,并点击审核按钮,触发终端基于审核人员已选择的样本生成样本识别请求,并将该样本识别请求发送至对应的服务器,以请求服务器根据该待识别样本,获取对应的识别结果。
步骤S1006,根据各个训练完成的目标域分类网络模型对应的分类权重,对待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到待识别样本的目标分类概率。
具体地,服务器根据各个训练完成的目标域分类网络模型对应的分类权重,对待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到各个训练完成的目标域分类网络模型对应的分类权重与分类概率的乘积;将各个训练完成的目标域分类网络模型对应的分类权重与分类概率的乘积进行相加,得到待识别样本的最终分类概率,作为待识别样本的目标分类概率。
步骤S1008,根据待识别样本的目标分类概率,确定对待识别样本的识别结果。
其中,待识别样本的识别结果可以是指待识别样本的类型。
具体地,若待识别样本的目标分类概率大于或者等于预设分类概率,确定待识别样本的类型为第一预设类型;若待识别样本的目标分类概率小于预设分类概率,确定待识别样本的类型为第二预设类型。
在金融反欺诈场景中,假设待识别样本为贷款人的行为特征信息,若待识别样本的目标分类概率大于或者等于预设分类概率,确定贷款人为欺诈用户;若待识别样本的目标分类概率小于预设分类概率,确定贷款人为非欺诈用户。
此外,服务器还可以根据待识别样本的目标分类概率,确定待识别样本的信用评分,从而评估待识别样本的欺诈风险;比如待识别样本的目标分类概率为0.82,则待识别样本的信用评分为0.82×100=82分。需要说明的是,待识别样本的信用评分越高,待识别样本的欺诈风险越大。
进一步地,服务器还可以将待识别样本的识别结果推送至对应的终端,以通过终端的样本审核界面展示待识别样本的识别结果,方便审核人员查看样本的类型。举例说明,参考图11(b),通过终端的样本审核界面展示服务器发送的样本A的识别结果。
上述样本识别方法,根据各个训练完成的目标域分类网络模型对应的分类权重,对待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到待识别样本的目标分类概率,进而确定待识别样本的识别结果;综合考虑了待识别样本在多个训练完成的目标域分类网络模型中的分类概率,避免了基于数量较少的样本训练得到的模型存在过拟合,导致输出的样本类别的准确率较低,从而造成样本的识别准确率较低的缺陷,进一步提高了样本的识别准确率;同时,对待识别样本在多个训练完成的目标域分类网络模型中的分类概率进行加权处理,有利于综合考虑各个训练完成的目标域分类网络模型输出的分类概率的重要程度,从而使得确定出的待识别样本的识别结果更加准确,进一步提高了样本的识别准确率。
在一个实施例中,如图12所示,提供了另一种样本识别方法,具体包括以下步骤:
步骤S1202,获取至少两个源域训练样本集和一个目标域训练样本集,源域训练样本集和目标域训练样本集中均包含有多个样本以及与样本对应的实际分类概率。
步骤S1204,分别根据各个源域训练样本集、目标域训练样本集和各个样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,得到各个预训练后的元分类网络模型。
步骤S1206,分别根据目标域训练样本集,对各个预训练后的元分类网络模型进行再次训练,得到各个再次训练后的元分类网络模型,对应作为各个训练完成的目标域分类网络模型。
步骤S1208,根据源域训练样本集和目标域训练样本集,确定各个训练完成的目标域分类网络模型对应的分类权重。
步骤S1210,根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型。
步骤S1212,接收终端发送的样本识别请求;样本识别请求中携带有目标域的待识别样本。
步骤S1214,获取目标域的待识别样本的特征编码。
步骤S1216,将目标域的待识别样本的特征编码输入训练完成的样本识别模型,得到待识别样本在各个训练完成的目标域分类网络模型中的分类概率和各个训练完成的目标域分类网络模型对应的分类权重。
步骤S1218,根据各个训练完成的目标域分类网络模型对应的分类权重,对待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到待识别样本的目标分类概率。
步骤S1220,根据待识别样本的目标分类概率,确定对待识别样本的识别结果。
步骤S1222,将对待识别样本的识别结果推送至终端。
在本实施例中,通过训练完成的样本识别模型,确定待识别样本在各个训练完成的目标域分类网络模型中的分类概率,结合各个训练完成的目标域分类网络模型对应的分类权重,得到待识别样本的目标分类概率,进而确定待识别样本的识别结果;综合考虑了待识别样本在多个训练完成的目标域分类网络模型中的分类概率以及各个训练完成的目标域分类网络模型输出的分类概率的重要程度,有利于提高样本识别模型输出的样本识别结果的准确率,进一步提高了样本的识别准确率。
进一步地,为了客观验证本方法的有效性,将本方法与其它小样本学习算法(如DANN)进行对比实验验证。实验数据共包含来自10个不同金融风控场景下的样本集,其中9个被划分为源域样本集,1个被划分为目标域样本集;源域样本集拥有大量的标记样本,其样本数在2W至7W范围内;目标域样本集只有少量的标记样本,其样本数为3000。
表1列出了9个源域到目标域的迁移效果;迁移效果评价指标采用金融风控场景下的通用指标KS值,KS值用于验证金融风控模型对违约对象的区分能力,KS值越大,则金融风控模型的风险区分能力则越强;通过计算每个评分区间的累计坏账户占比与累计好账户占比差的绝对值即可得到KS值。
表1的横轴对应不同的单源域迁移方法:DANN是基于域对抗的迁移方法,WD_MDNN是本方案所采用的基于MAML的训练方法。表1的纵轴对应不同的多源域融合方法,分别为基于平均加权的融合方法以及基于W距离加权的融合方法。表1的最后一行对应于传统的迁移学习方法Muti-Source DNN,即将所有的源域样本集合并为一个样本集并训练一个基础模型,再在目标域样本集上对基础模型进行微调训练,得到最终的迁移模型。
如表1所示,基于W距离加权的多源域迁移算法(WD_MDNN)在目标域的表现最佳,KS值优于其他方法3%-6%。对比第一行与第二行的结果显示,可知基于W距离加权的融合方法显著优于基于平均的加权方法。这一实验结果进一步验证了该方法在多源域融合时,可有效抑制不相关源域的负迁移影响,同时保证相关源域的正迁移增益。
表1
应该理解的是,虽然图2-8、10、12的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-8、10、12中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图13所示,提供了一种样本识别模型的生成装置,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:样本集获取模块1310、模型预训练模块1320、模型再训练模块1330、分类权重确定模块1340和识别模型确定模块1350,其中:
样本集获取模块1310,用于获取至少两个源域训练样本集和一个目标域训练样本集,源域训练样本集和目标域训练样本集中均包含有多个样本以及与样本对应的实际分类概率。
模型预训练模块1320,用于分别根据各个源域训练样本集、目标域训练样本集和各个样本对应的实际分类概率,对各个待训练的元分类网络模型进行一一预训练,得到各个预训练后的元分类网络模型。
模型再训练模块1330,用于分别根据目标域训练样本集,对各个预训练后的元分类网络模型进行再次训练,得到各个再次训练后的元分类网络模型,对应作为各个训练完成的目标域分类网络模型。
分类权重确定模块1340,用于根据源域训练样本集和目标域训练样本集,确定各个训练完成的目标域分类网络模型对应的分类权重。
识别模型确定模块1350,用于根据各个训练完成的目标域分类网络模型以及各个训练完成的目标域分类网络模型对应的分类权重,生成训练完成的样本识别模型。
在一个实施例中,模型预训练模块1320还用于根据各个源域训练样本集、目标域训练样本集和样本对应的实际分类概率,构建源域训练样本集的第一样本集和第二样本集以及目标域训练样本集的第一样本集和第二样本集;根据源域训练样本集的第一样本集和目标域训练样本集的第一样本集,对待训练的元分类网络模型进微调行训练,得到微调训练后的元分类网络模型;获取微调训练后的元分类网络模型在源域训练样本集的第二样本集和目标域训练样本集的第二样本集上的预测损失值,根据预测损失值对待训练的元分类网络模型进行训练,得到训练后的元分类网络模型;若训练后的元分类网络模型不满足第一收敛条件,则将训练后的元分类网络模型作为待训练的元分类网络模型,并跳转至根据源域训练样本集的第一样本集和目标域训练样本集的第一样本集,对待训练的元分类网络模型进行微调训练,得到微调训练后的元分类网络模型的步骤;若训练后的元分类网络模型满足第一收敛条件,将当前的各个元分类网络模型,作为各个预训练后的元分类网络模型。
在一个实施例中,模型预训练模块1320还用于根据源域训练样本集的第一样本集对待训练的元分类网络模型进行训练,得到待训练的元分类网络模型在源域训练样本集的第一样本集上的第一预测损失值;根据目标域训练样本集的第一样本集对待训练的元分类网络模型进行训练,得到待训练的元分类网络模型在目标域训练样本集的第一样本集上的第二预测损失值;根据第一预测损失值,对待训练的元分类网络模型的网络参数进行更新,得到源域对应的元分类网络模型;根据第二预测损失值,对待训练的元分类网络模型的网络参数进行更新,得到目标域对应的元分类网络模型。
在一个实施例中,模型预训练模块1320还用于根据源域训练样本集的第二样本集,对源域对应的元分类网络模型进行训练,得到源域对应的元分类网络模型在源域训练样本集的第二样本集上的第三预测损失值;根据目标域训练样本集的第二样本集,对目标域对应的元分类网络模型进行训练,得到目标域对应的元分类网络模型在目标域训练样本集的第二样本集上的第四预测损失值;根据第三预测损失值和第四预测损失值,对待训练的元分类网络模型的网络参数进行更新,得到更新后的元分类网络模型,作为训练后的元分类网络模型。
在一个实施例中,模型再训练模块1330还用于获取目标域训练样本集中的样本的特征编码;分别将目标域训练样本集中的样本的特征编码输入各个预训练后的元分类网络模型,得到样本在各个预训练后的元分类网络模型中的分类概率;获取样本在各个预训练后的元分类网络模型中的分类概率与对应的实际分类概率的差值;根据差值确定各个预训练后的元分类网络模型的损失值;分别根据损失值反向训练各个预训练后的元分类网络模型,直至各个预训练后的元分类网络模型均满足第二收敛条件;若各个预训练后的元分类网络模型均满足第二收敛条件,则将当前的各个预训练后的元分类网络模型,作为各个再次训练后的元分类网络模型。
在一个实施例中,分类权重确定模块1340还用于从源域训练样本集和目标域训练样本集中,确定出各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集;统计各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离;根据各个训练完成的目标域分类网络模型的源域训练样本集和目标域训练样本集之间的特征距离,查询预设的特征距离与权重的对应关系,确定各个训练完成的目标域分类网络模型对应的权重;将各个训练完成的目标域分类网络模型对应的权重进行归一化处理,得到各个训练完成的目标域分类网络模型对应的分类权重。
在一个实施例中,分类权重确定模块1340还用于分别将各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集输入预先训练的特征距离模型,得到各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离;其中,预先训练的特征距离模型用于分别对各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集中的样本的特征编码进行全连接处理,输出各个训练完成的目标域分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离。
在一个实施例中,样本识别模型的生成装置还包括:特征距离模型训练模块,用于多次从样本集中抽取出两个域的样本集,构成多对样本集;多对样本集均匹配有对应的实际特征距离;分别将各对样本集输入待训练的特征距离模型,得到各对样本集的特征距离;根据各对样本集的特征距离与对应的实际特征距离,确定特征距离模型的损失值;根据特征距离模型的损失值反向训练特征距离模型,直至特征距离模型满足第三收敛条件;若特征距离模型满足第三收敛条件,将特征距离模型作为预先训练的特征距离模型。
在一个实施例中,识别模型确定模块1350还用于将各个训练完成的目标域分类网络模型进行组合,生成组合模型,作为训练完成的样本识别模型;各个训练完成的目标域分类网络模型对应的分类权重用于标识各个训练完成的目标域分类网络模型输出的分类概率的权重。
关于样本识别模型的生成装置的具体限定可以参见上文中对于样本识别模型的生成方法的限定,在此不再赘述。上述样本识别模型的生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,如图14所示,提供了一种样本识别装置,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:模型获取模块1410、样本输入模块1420、加权处理模块1430和结果确定模块1440,其中:
模型获取模块1410,用于根据上述样本识别模型的训练方法获取训练完成的样本识别模型;训练完成的样本识别模型包括各个训练完成的目标域分类网络模型。
样本输入模块1420,用于将目标域的待识别样本的特征编码输入样本识别模型,得到待识别样本在各个训练完成的目标域分类网络模型中的分类概率以及各个训练完成的目标域分类网络模型对应的分类权重。
加权处理模块1430,用于根据各个训练完成的目标域分类网络模型对应的分类权重,对待识别样本在各个训练完成的目标域分类网络模型中的分类概率进行加权处理,得到待识别样本的目标分类概率。
结果确定模块1440,用于根据待识别样本的目标分类概率,确定对待识别样本的识别结果。
关于样本识别装置的具体限定可以参见上文中对于样本识别方法的限定,在此不再赘述。上述样本识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图15所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储样本识别模型、待识别样本的识别结果等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种样本识别模型的训练方法或者一种样本识别方法。
本领域技术人员可以理解,图15中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (22)
1.一种样本识别模型的生成方法,应用于服务器,所述方法包括:
查询数据库,获取至少两个源域训练样本集和一个目标域训练样本集,所述源域训练样本集和所述目标域训练样本集中均包含有多个样本以及与所述样本对应的实际用户分类概率;所述样本为用户的金融行为特征信息,所述目标域训练样本集为待识别用户的金融行为特征信息所属场景对应的训练样本集,所述源域训练样本集为与所述待识别用户的金融行为特征信息所属场景相似的场景所对应的训练样本集;
分别根据各个所述源域训练样本集中的用户的金融行为特征信息、所述目标域训练样本集中的用户的金融行为特征信息和各个所述用户的金融行为特征信息对应的实际用户分类概率,对各个待训练的用户分类网络模型进行一一预训练,得到各个预训练后的用户分类网络模型;
对所述目标域训练样本集中的用户的金融行为特征信息进行特征提取处理和特征编码处理,得到所述目标域训练样本集中的用户的金融行为特征信息对应的特征编码;分别根据所述目标域训练样本集中的用户的金融行为特征信息对应的特征编码和实际用户分类概率,对所述各个预训练后的用户分类网络模型进行再次训练,得到各个再次训练后的用户分类网络模型,对应作为各个训练完成的目标域用户分类网络模型;
根据所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集中的用户的金融行为特征信息和对应的目标域训练样本集中的用户的金融行为特征信息之间的相关性,确定所述各个训练完成的目标域用户分类网络模型对应的分类权重;
根据所述各个训练完成的目标域用户分类网络模型以及所述各个训练完成的目标域用户分类网络模型对应的分类权重,生成训练完成的用户类型识别模型;所述训练完成的用户类型识别模型用于基于所述待识别用户的金融行为特征信息对应的特征编码,得到所述待识别用户的金融行为特征信息在所述各个训练完成的目标域用户分类网络模型中的用户分类概率,并结合所述各个训练完成的目标域用户分类网络模型对应的分类权重,识别出所述待识别用户的用户类型。
2.根据权利要求1所述的方法,其特征在于,所述分别根据各个所述源域样本集中的用户的金融行为特征信息、所述目标域样本集中的用户的金融行为特征信息和各个所述用户的金融行为特征信息对应的实际用户分类概率,对各个待训练的用户分类网络模型进行一一预训练,得到各个预训练后的用户分类网络模型,包括:
根据各个所述源域训练样本集、所述目标域训练样本集和各个所述样本对应的实际分类概率,构建所述源域训练样本集的第一样本集和第二样本集以及所述目标域训练样本集的第一样本集和第二样本集;
根据所述源域训练样本集的第一样本集和所述目标域训练样本集的第一样本集,对所述待训练的用户分类网络模型进行微调训练,得到微调训练后的用户分类网络模型;
获取所述微调训练后的用户分类网络模型在所述源域训练样本集的第二样本集和所述目标域训练样本集的第二样本集上的预测损失值,根据所述预测损失值对所述待训练的用户分类网络模型进行训练,得到训练后的用户分类网络模型;
若所述训练后的用户分类网络模型不满足第一收敛条件,则将所述训练后的用户分类网络模型作为待训练的用户分类网络模型,并跳转至根据所述源域训练样本集的第一样本集和所述目标域训练样本集的第一样本集,对所述待训练的用户分类网络模型进行微调训练,得到微调训练后的用户分类网络模型的步骤;
若所述训练后的用户分类网络模型满足所述第一收敛条件,将当前的各个用户分类网络模型,作为所述各个预训练后的用户分类网络模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述源域训练样本集的第一样本集和所述目标域训练样本集的第一样本集,对所述待训练的用户分类网络模型进行微调训练,得到微调训练后的用户分类网络模型,包括:
根据所述源域训练样本集的第一样本集对所述待训练的用户分类网络模型进行微调训练,得到所述待训练的用户分类网络模型在所述源域训练样本集的第一样本集上的第一预测损失值;
根据所述目标域训练样本集的第一样本集对所述待训练的用户分类网络模型进行微调训练,得到所述待训练的用户分类网络模型在所述目标域训练样本集的第一样本集上的第二预测损失值;
根据所述第一预测损失值,对所述待训练的用户分类网络模型的网络参数进行更新,得到所述源域对应的用户分类网络模型;
根据所述第二预测损失值,对所述待训练的用户分类网络模型的网络参数进行更新,得到所述目标域对应的用户分类网络模型。
4.根据权利要求3所述的方法,其特征在于,所述获取所述微调训练后的用户分类网络模型在所述源域训练样本集的第二样本集和所述目标域训练样本集的第二样本集上的预测损失值,根据所述预测损失值对所述待训练的用户分类网络模型进行训练,得到训练后的用户分类网络模,包括:
根据所述源域训练样本集的第二样本集对所述源域对应的用户分类网络模型进行训练,得到所述源域对应的用户分类网络模型在所述源域训练样本集的第二样本集上的第三预测损失值;
根据所述目标域训练样本集的第二样本集对所述目标域对应的用户分类网络模型进行训练,得到所述目标域对应的用户分类网络模型在所述目标域训练样本集的第二样本集上的第四预测损失值;
根据所述第三预测损失值和所述第四预测损失值,对所述待训练的用户分类网络模型的网络参数进行更新,得到更新后的用户分类网络模型,作为所述训练后的用户分类网络模型。
5.根据权利要求1所述的方法,其特征在于,所述分别根据所述目标域训练样本集中的用户的金融行为特征信息对应的特征编码和实际用户分类概率,对所述各个预训练后的用户分类网络模型进行再次训练,得到各个再次训练后的用户分类网络模型,包括:
获取所述目标域训练样本集中的样本的特征编码;
分别将所述目标域训练样本集中的样本的特征编码输入所述各个预训练后的用户分类网络模型,得到所述样本在各个预训练后的用户分类网络模型中的分类概率;
获取所述样本在各个预训练后的用户分类网络模型中的用户分类概率与对应的实际用户分类概率的差值;
根据所述差值确定所述各个预训练后的用户分类网络模型的损失值;
分别根据所述损失值反向训练所述各个预训练后的用户分类网络模型,直至所述各个预训练后的用户分类网络模型均满足第二收敛条件;
若所述各个预训练后的用户分类网络模型均满足第二收敛条件,则将当前的各个预训练后的用户分类网络模型,作为各个再次训练后的用户分类网络模型。
6.根据权利要求1所述的方法,其特征在于,所述根据所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集中的用户的金融行为特征信息和对应的目标域训练样本集中的用户的金融行为特征信息之间的相关性,确定所述各个训练完成的目标域用户分类网络模型对应的分类权重,包括:
从所述源域训练样本集和所述目标域训练样本集中,确定出所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集;
统计所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离;
根据所述各个训练完成的目标域用户分类网络模型的所述源域训练样本集和所述目标域训练样本集之间的特征距离,查询预设的特征距离与权重的对应关系,确定所述各个训练完成的目标域用户分类网络模型对应的权重;
将所述各个训练完成的目标域用户分类网络模型对应的权重进行归一化处理,得到所述各个训练完成的目标域用户分类网络模型对应的分类权重。
7.根据权利要求6所述的方法,其特征在于,所述统计所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离,包括:
分别将所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集输入预先训练的特征距离模型,得到所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离;
其中,所述预先训练的特征距离模型用于分别对所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集中的样本的特征编码进行全连接处理,输出所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离。
8.根据权利要求7所述的方法,其特征在于,所述预先训练的特征距离模型通过下述方式训练得到:
多次从所述样本集中抽取出两个域的样本集,构成多对样本集;所述多对样本集均匹配有对应的实际特征距离;
分别将所述各对样本集输入待训练的特征距离模型,得到所述各对样本集的特征距离;
根据所述各对样本集的特征距离与对应的实际特征距离,确定所述特征距离模型的损失值;
根据所述特征距离模型的损失值反向训练所述特征距离模型,直至所述特征距离模型满足第三收敛条件;
若所述特征距离模型满足所述第三收敛条件,将所述特征距离模型作为所述预先训练的特征距离模型。
9.根据权利要求1所述的方法,其特征在于,所述根据所述各个训练完成的目标域用户分类网络模型以及所述各个训练完成的目标域用户分类网络模型对应的分类权重,生成训练完成的用户类型识别模型,包括:
将所述各个训练完成的目标域用户分类网络模型进行组合,生成组合模型,作为训练完成的用户类型识别模型;所述各个训练完成的目标域用户分类网络模型对应的分类权重用于标识所述各个训练完成的目标域用户分类网络模型输出的分类概率的权重。
10.一种样本识别方法,其特征在于,应用于服务器,所述方法包括:
根据权利要求1至9任一项所述的方法获取训练完成的用户类型识别模型;所述训练完成的用户类型识别模型包括各个训练完成的目标域用户分类网络模型;
将目标域的待识别样本的特征编码输入所述用户类型识别模型,得到所述待识别样本在所述各个训练完成的目标域用户分类网络模型中的分类概率以及所述各个训练完成的目标域用户分类网络模型对应的分类权重;所述待识别样本为待识别用户的金融行为特征信息;所述训练完成的用户类型识别模型用于基于所述待识别用户的金融行为特征信息,识别出所述待识别用户的用户类型;
根据所述各个训练完成的目标域用户分类网络模型对应的分类权重,对所述待识别样本在各个训练完成的目标域用户分类网络模型中的分类概率进行加权处理,得到所述待识别样本的目标分类概率;
根据所述待识别样本的目标分类概率,确定对所述待识别样本的识别结果。
11.一种样本识别模型的生成装置,其特征在于,应用于服务器,所述装置包括:
样本集获取模块,用于查询数据库,获取至少两个源域训练样本集和一个目标域训练样本集,所述源域训练样本集和所述目标域训练样本集中均包含有多个样本以及与所述样本对应的实际用户分类概率;所述样本为用户的金融行为特征信息,所述目标域训练样本集为待识别用户的金融行为特征信息所属场景对应的训练样本集,所述源域训练样本集为与所述待识别用户的金融行为特征信息所属场景相似的场景所对应的训练样本集;
模型预训练模块,用于分别根据各个所述源域训练样本集中的用户的金融行为特征信息、所述目标域训练样本集中的用户的金融行为特征信息和各个所述用户的金融行为特征信息对应的实际用户分类概率,对各个待训练的用户分类网络模型进行一一预训练,得到各个预训练后的用户分类网络模型;
模型再训练模块,用于对所述目标域训练样本集中的用户的金融行为特征信息进行特征提取处理和特征编码处理,得到所述目标域训练样本集中的用户的金融行为特征信息对应的特征编码;分别根据所述目标域训练样本集中的用户的金融行为特征信息对应的特征编码和实际用户分类概率,对所述各个预训练后的用户分类网络模型进行再次训练,得到各个再次训练后的用户分类网络模型,对应作为各个训练完成的目标域用户分类网络模型;
分类权重确定模块,用于根据所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集中的用户的金融行为特征信息和对应的目标域训练样本集中的用户的金融行为特征信息之间的相关性,确定所述各个训练完成的目标域用户分类网络模型对应的分类权重;
识别模型确定模块,用于根据所述各个训练完成的目标域用户分类网络模型以及所述各个训练完成的目标域用户分类网络模型对应的分类权重,生成训练完成的用户类型识别模型;所述训练完成的用户类型识别模型用于基于所述待识别用户的金融行为特征信息对应的特征编码,得到所述待识别用户的金融行为特征信息在所述各个训练完成的目标域用户分类网络模型中的用户分类概率,并结合所述各个训练完成的目标域用户分类网络模型对应的分类权重,识别出所述待识别用户的用户类型。
12.根据权利要求11所述的装置,其特征在于,所述模型预训练模块,还用于根据各个所述源域训练样本集、所述目标域训练样本集和各个所述样本对应的实际用户分类概率,构建所述源域训练样本集的第一样本集和第二样本集以及所述目标域训练样本集的第一样本集和第二样本集;根据所述源域训练样本集的第一样本集和所述目标域训练样本集的第一样本集,对所述待训练的用户分类网络模型进行微调训练,得到微调训练后的用户分类网络模型;获取所述微调训练后的用户分类网络模型在所述源域训练样本集的第二样本集和所述目标域训练样本集的第二样本集上的预测损失值,根据所述预测损失值对所述待训练的用户分类网络模型进行训练,得到训练后的用户分类网络模型;若所述训练后的用户分类网络模型不满足第一收敛条件,则将所述训练后的用户分类网络模型作为待训练的用户分类网络模型,并跳转至根据所述源域训练样本集的第一样本集和所述目标域训练样本集的第一样本集,对所述待训练的用户分类网络模型进行微调训练,得到微调训练后的用户分类网络模型的步骤;若所述训练后的用户分类网络模型满足所述第一收敛条件,将当前的各个用户分类网络模型,作为所述各个预训练后的用户分类网络模型。
13.根据权利要求12所述的装置,其特征在于,所述模型预训练模块,还用于根据所述源域训练样本集的第一样本集对所述待训练的用户分类网络模型进行微调训练,得到所述待训练的用户分类网络模型在所述源域训练样本集的第一样本集上的第一预测损失值;根据所述目标域训练样本集的第一样本集对所述待训练的用户分类网络模型进行微调训练,得到所述待训练的用户分类网络模型在所述目标域训练样本集的第一样本集上的第二预测损失值;根据所述第一预测损失值,对所述待训练的用户分类网络模型的网络参数进行更新,得到所述源域对应的用户分类网络模型;根据所述第二预测损失值,对所述待训练的用户分类网络模型的网络参数进行更新,得到所述目标域对应的用户分类网络模型。
14.根据权利要求13所述的装置,其特征在于,所述模型预训练模块,还用于根据所述源域训练样本集的第二样本集对所述源域对应的用户分类网络模型进行训练,得到所述源域对应的用户分类网络模型在所述源域训练样本集的第二样本集上的第三预测损失值;根据所述目标域训练样本集的第二样本集对所述目标域对应的用户分类网络模型进行训练,得到所述目标域对应的用户分类网络模型在所述目标域训练样本集的第二样本集上的第四预测损失值;根据所述第三预测损失值和所述第四预测损失值,对所述待训练的用户分类网络模型的网络参数进行更新,得到更新后的用户分类网络模型,作为所述训练后的用户分类网络模型。
15.根据权利要求11所述的装置,其特征在于,所述模型再训练模块,还用于获取所述目标域训练样本集中的样本的特征编码;分别将所述目标域训练样本集中的样本的特征编码输入所述各个预训练后的用户分类网络模型,得到所述样本在各个预训练后的用户分类网络模型中的分类概率;获取所述样本在各个预训练后的用户分类网络模型中的用户分类概率与对应的实际用户分类概率的差值;根据所述差值确定所述各个预训练后的用户分类网络模型的损失值;分别根据所述损失值反向训练所述各个预训练后的用户分类网络模型,直至所述各个预训练后的用户分类网络模型均满足第二收敛条件;若所述各个预训练后的用户分类网络模型均满足第二收敛条件,则将当前的各个预训练后的用户分类网络模型,作为各个再次训练后的用户分类网络模型。
16.根据权利要求11所述的装置,其特征在于,所述分类权重确定模块,还用于从所述源域训练样本集和所述目标域训练样本集中,确定出所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集;统计所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离;根据所述各个训练完成的目标域用户分类网络模型的所述源域训练样本集和所述目标域训练样本集之间的特征距离,查询预设的特征距离与权重的对应关系,确定所述各个训练完成的目标域用户分类网络模型对应的权重;将所述各个训练完成的目标域用户分类网络模型对应的权重进行归一化处理,得到所述各个训练完成的目标域用户分类网络模型对应的分类权重。
17.根据权利要求16所述的装置,其特征在于,所述分类权重确定模块,还用于分别将所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集输入预先训练的特征距离模型,得到所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离;其中,所述预先训练的特征距离模型用于分别对所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集中的样本的特征编码进行全连接处理,输出所述各个训练完成的目标域用户分类网络模型对应的源域训练样本集和目标域训练样本集之间的特征距离。
18.根据权利要求17所述的装置,其特征在于,所述装置还包括特征距离模型训练模块,用于多次从所述样本集中抽取出两个域的样本集,构成多对样本集;所述多对样本集均匹配有对应的实际特征距离;分别将所述各对样本集输入待训练的特征距离模型,得到所述各对样本集的特征距离;根据所述各对样本集的特征距离与对应的实际特征距离,确定所述特征距离模型的损失值;根据所述特征距离模型的损失值反向训练所述特征距离模型,直至所述特征距离模型满足第三收敛条件;若所述特征距离模型满足所述第三收敛条件,将所述特征距离模型作为所述预先训练的特征距离模型。
19.根据权利要求11所述的装置,其特征在于,所述识别模型确定模块,还用于将所述各个训练完成的目标域用户分类网络模型进行组合,生成组合模型,作为训练完成的用户类型识别模型;所述各个训练完成的目标域用户分类网络模型对应的分类权重用于标识所述各个训练完成的目标域用户分类网络模型输出的分类概率的权重。
20.一种样本识别装置,其特征在于,应用于服务器,所述装置包括:
模型获取模块,用于根据权利要求1至9任一项所述的方法获取训练完成的用户类型识别模型;所述训练完成的用户类型识别模型包括各个训练完成的目标域用户分类网络模型;
样本输入模块,用于将目标域的待识别样本的特征编码输入所述用户类型识别模型,得到所述待识别样本在所述各个训练完成的目标域用户分类网络模型中的分类概率以及所述各个训练完成的目标域用户分类网络模型对应的分类权重;所述待识别样本为待识别用户的金融行为特征信息;所述训练完成的用户类型识别模型用于基于所述待识别用户的金融行为特征信息,识别出所述待识别用户的用户类型;
加权处理模块,用于根据所述各个训练完成的目标域用户分类网络模型对应的分类权重,对所述待识别样本在各个训练完成的目标域用户分类网络模型中的分类概率进行加权处理,得到所述待识别样本的目标分类概率;
结果确定模块,用于根据所述待识别样本的目标分类概率,确定对所述待识别样本的识别结果。
21.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至10中任一项所述方法的步骤。
22.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至10中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010213547.5A CN111444951B (zh) | 2020-03-24 | 2020-03-24 | 样本识别模型的生成方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010213547.5A CN111444951B (zh) | 2020-03-24 | 2020-03-24 | 样本识别模型的生成方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111444951A CN111444951A (zh) | 2020-07-24 |
CN111444951B true CN111444951B (zh) | 2024-02-20 |
Family
ID=71629494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010213547.5A Active CN111444951B (zh) | 2020-03-24 | 2020-03-24 | 样本识别模型的生成方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111444951B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111683108B (zh) * | 2020-08-17 | 2020-11-17 | 鹏城实验室 | 一种网络流异常检测模型的生成方法和计算机设备 |
CN112115872B (zh) * | 2020-09-21 | 2024-07-19 | 大连民族大学 | 利用类别激活映射的三维动作识别残差网络可视化方法 |
CN112270545A (zh) * | 2020-10-27 | 2021-01-26 | 上海淇馥信息技术有限公司 | 基于迁移样本筛选的金融风险预测方法、装置和电子设备 |
CN112465042B (zh) * | 2020-12-02 | 2023-10-24 | 中国联合网络通信集团有限公司 | 一种分类网络模型的生成方法及装置 |
CN112634048B (zh) * | 2020-12-30 | 2023-06-13 | 第四范式(北京)技术有限公司 | 一种反洗钱模型的训练方法及装置 |
CN113052324B (zh) * | 2021-03-24 | 2022-08-02 | 支付宝(杭州)信息技术有限公司 | 一种用户异常模式识别方法、装置以及设备 |
CN113627576B (zh) * | 2021-10-08 | 2022-01-18 | 平安科技(深圳)有限公司 | 扫码信息检测方法、装置、设备及存储介质 |
CN115099372B (zh) * | 2022-08-25 | 2022-12-06 | 深圳比特微电子科技有限公司 | 分类识别方法和装置 |
CN115497459A (zh) * | 2022-08-29 | 2022-12-20 | 深圳市北科瑞声科技股份有限公司 | 一种模型训练方法、装置、电子设备及存储介质 |
CN117852624B (zh) * | 2024-03-08 | 2024-07-09 | 腾讯科技(深圳)有限公司 | 时序信号预测模型的训练方法、预测方法、装置及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256561A (zh) * | 2017-12-29 | 2018-07-06 | 中山大学 | 一种基于对抗学习的多源域适应迁移方法及系统 |
CN109522967A (zh) * | 2018-11-28 | 2019-03-26 | 广州逗号智能零售有限公司 | 一种商品定位识别方法、装置、设备以及存储介质 |
CN110148142A (zh) * | 2019-05-27 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、装置、设备和存储介质 |
CN110728294A (zh) * | 2019-08-30 | 2020-01-24 | 北京影谱科技股份有限公司 | 一种基于迁移学习的跨领域图像分类模型构建方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11314993B2 (en) * | 2017-03-17 | 2022-04-26 | Nec Corporation | Action recognition system for action recognition in unlabeled videos with domain adversarial learning and knowledge distillation |
US10453444B2 (en) * | 2017-07-27 | 2019-10-22 | Microsoft Technology Licensing, Llc | Intent and slot detection for digital assistants |
-
2020
- 2020-03-24 CN CN202010213547.5A patent/CN111444951B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256561A (zh) * | 2017-12-29 | 2018-07-06 | 中山大学 | 一种基于对抗学习的多源域适应迁移方法及系统 |
CN109522967A (zh) * | 2018-11-28 | 2019-03-26 | 广州逗号智能零售有限公司 | 一种商品定位识别方法、装置、设备以及存储介质 |
CN110148142A (zh) * | 2019-05-27 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、装置、设备和存储介质 |
CN110728294A (zh) * | 2019-08-30 | 2020-01-24 | 北京影谱科技股份有限公司 | 一种基于迁移学习的跨领域图像分类模型构建方法和装置 |
Non-Patent Citations (2)
Title |
---|
SAR Target Recognition Based on Cross-Domain and Cross-Task Transfer Learning;KE WANG 等;《IEEE Access》;153391-153399 * |
一种基于伪标签的半监督少样本学习模型;余游 等;《电子学报》;第47卷(第11期);2284-2291 * |
Also Published As
Publication number | Publication date |
---|---|
CN111444951A (zh) | 2020-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444951B (zh) | 样本识别模型的生成方法、装置、计算机设备和存储介质 | |
CN111444952B (zh) | 样本识别模型的生成方法、装置、计算机设备和存储介质 | |
CN111523621B (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN112733995B (zh) | 训练神经网络的方法、行为检测方法及行为检测装置 | |
CN109767312A (zh) | 一种信用评估模型训练、评估方法与装置 | |
CN109903053B (zh) | 一种基于传感器数据进行行为识别的反欺诈方法 | |
CN116843400A (zh) | 基于图表示学习的区块链碳排放交易异常检测方法和装置 | |
CN118468061B (zh) | 一种算法自动匹配及参数优化方法及系统 | |
CN110991247B (zh) | 一种基于深度学习与nca融合的电子元器件识别方法 | |
CN109101984B (zh) | 一种基于卷积神经网络的图像识别方法及装置 | |
CN111144462A (zh) | 一种雷达信号的未知个体识别方法及装置 | |
CN118037423A (zh) | 农业贷款后农户还款意愿评价方法及系统 | |
CN111639688B (zh) | 一种基于线性核svm的物联网智能模型的局部解释方法 | |
CN111222026B (zh) | 用户类别识别模型的训练方法和用户类别识别方法 | |
CN112115994A (zh) | 图像识别模型的训练方法、装置、服务器及存储介质 | |
Lim et al. | More powerful selective kernel tests for feature selection | |
CN116910341A (zh) | 标签预测方法、装置及电子设备 | |
CN114511329A (zh) | 账户识别方法、装置、存储介质和电子设备 | |
CN116822569A (zh) | 模型训练方法、装置、相关设备及存储介质 | |
CN110570301B (zh) | 风险识别方法、装置、设备及介质 | |
CN112632219A (zh) | 一种垃圾短信的拦截方法和拦截装置 | |
CN117874487B (zh) | 一种未知辐射源识别方法、装置、设备及可读存储介质 | |
CN112633399B (zh) | 一种稀疏协同联合表示模式识别方法 | |
CN116434313B (zh) | 基于多人脸识别模块的人脸识别方法 | |
CN116258574B (zh) | 一种基于混合效应逻辑回归的违约率预测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40026373 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |