CN114511023A - 分类模型训练方法以及分类方法 - Google Patents

分类模型训练方法以及分类方法 Download PDF

Info

Publication number
CN114511023A
CN114511023A CN202210102315.1A CN202210102315A CN114511023A CN 114511023 A CN114511023 A CN 114511023A CN 202210102315 A CN202210102315 A CN 202210102315A CN 114511023 A CN114511023 A CN 114511023A
Authority
CN
China
Prior art keywords
classification model
data
training
prediction result
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210102315.1A
Other languages
English (en)
Other versions
CN114511023B (zh
Inventor
蒋乐怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202210102315.1A priority Critical patent/CN114511023B/zh
Publication of CN114511023A publication Critical patent/CN114511023A/zh
Application granted granted Critical
Publication of CN114511023B publication Critical patent/CN114511023B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24317Piecewise classification, i.e. whereby each classification requires several discriminant rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及一种分类模型训练方法以及分类方法。所述分类模型训练方法包括:获取第一分类模型、第二分类模型和样本数据;将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果;比对第一预测结果和第二预测结果,得到与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据;通过第一训练数据对第一分类模型进行训练,得到训练后第一分类模型,并通过第二训练数据对第二分类模型进行训练,得到训练后第二分类模型;根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型。采用本分类模型训练方法能够支持准确分类。

Description

分类模型训练方法以及分类方法
技术领域
本申请涉及人工智能技术领域,特别是涉及一种分类模型训练方法以及分类方法。
背景技术
随着计算机技术的发展,出现了数据分类技术,数据分类技术是指对待处理数据进行分类,确定待处理数据的类型。常见的待处理数据可能为同时具有不同类型数据的数据。比如,待处理数据具体可以为同时具有文本类型数据和数值类型数据的数据。
传统技术中,在对同时具有不同类型数据的待处理数据进行分类时,常采用的分类方式为,将不同类型数据分别编码为特征向量进行拼接,利用拼接后特征向量训练用于数据分类的分类模型,在分类模型训练好后利用分类模型对待处理数据进行分类。
然而,传统技术中,不同类型数据的特征不同,直接拼接在一起训练,模型不易同时捕捉两类特征,训练出的分类模型准确率低,会导致分类准确率低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够支持准确分类的分类模型训练方法、装置、计算机设备、存储介质和程序产品,以及一种能够提高分类准确率的分类方法、装置、计算机设备、存储介质和程序产品。
一种分类模型训练方法,所述分类模型训练方法包括:
获取第一分类模型、第二分类模型和样本数据,第一分类模型由第一类型的训练数据训练得到,第二分类模型由第二类型的训练数据训练得到,样本数据包括第一类型的数据和第二类型的数据;
将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果;
比对第一预测结果和第二预测结果,得到与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据,第一训练数据为第一分类模型未充分学习的样本数据,第二训练数据为第二分类模型未充分学习的样本数据,未充分学习是指未充分学习概率大于或者等于预设概率阈值;
通过第一训练数据对第一分类模型进行训练,得到训练后第一分类模型,并通过第二训练数据对第二分类模型进行训练,得到训练后第二分类模型;
根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型。
一种分类模型训练装置,所述分类模型训练装置包括:
获取模块,用于获取第一分类模型、第二分类模型和样本数据,第一分类模型由第一类型的训练数据训练得到,第二分类模型由第二类型的训练数据训练得到,样本数据包括第一类型的数据和第二类型的数据;
预测模块,用于将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果;
比对模块,用于比对第一预测结果和第二预测结果,得到与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据,第一训练数据为第一分类模型未充分学习的样本数据,第二训练数据为第二分类模型未充分学习的样本数据,未充分学习是指未充分学习概率大于或者等于预设概率阈值;
训练模块,用于通过第一训练数据对第一分类模型进行训练,得到训练后第一分类模型,并通过第二训练数据对第二分类模型进行训练,得到训练后第二分类模型;
处理模块,用于根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取第一分类模型、第二分类模型和样本数据,第一分类模型由第一类型的训练数据训练得到,第二分类模型由第二类型的训练数据训练得到,样本数据包括第一类型的数据和第二类型的数据;
将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果;
比对第一预测结果和第二预测结果,得到与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据,第一训练数据为第一分类模型未充分学习的样本数据,第二训练数据为第二分类模型未充分学习的样本数据,未充分学习是指未充分学习概率大于或者等于预设概率阈值;
通过第一训练数据对第一分类模型进行训练,得到训练后第一分类模型,并通过第二训练数据对第二分类模型进行训练,得到训练后第二分类模型;
根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取第一分类模型、第二分类模型和样本数据,第一分类模型由第一类型的训练数据训练得到,第二分类模型由第二类型的训练数据训练得到,样本数据包括第一类型的数据和第二类型的数据;
将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果;
比对第一预测结果和第二预测结果,得到与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据,第一训练数据为第一分类模型未充分学习的样本数据,第二训练数据为第二分类模型未充分学习的样本数据,未充分学习是指未充分学习概率大于或者等于预设概率阈值;
通过第一训练数据对第一分类模型进行训练,得到训练后第一分类模型,并通过第二训练数据对第二分类模型进行训练,得到训练后第二分类模型;
根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型。
一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取第一分类模型、第二分类模型和样本数据,第一分类模型由第一类型的训练数据训练得到,第二分类模型由第二类型的训练数据训练得到,样本数据包括第一类型的数据和第二类型的数据;
将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果;
比对第一预测结果和第二预测结果,得到与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据,第一训练数据为第一分类模型未充分学习的样本数据,第二训练数据为第二分类模型未充分学习的样本数据,未充分学习是指未充分学习概率大于或者等于预设概率阈值;
通过第一训练数据对第一分类模型进行训练,得到训练后第一分类模型,并通过第二训练数据对第二分类模型进行训练,得到训练后第二分类模型;
根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型。
一种分类方法,所述分类方法包括:
获取待分类数据,待分类数据包括第一类型的数据和第二类型的数据;
将待分类数据输入目标分类模型,得到分类结果,目标分类模型通过上述分类模型训练方法训练得到。
一种分类装置,所述分类装置包括:
数据获取模块,用于获取待分类数据,待分类数据包括第一类型的数据和第二类型的数据;
分类模块,用于将待分类数据输入目标分类模型,得到分类结果,目标分类模型通过上述分类模型训练方法训练得到。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待分类数据,待分类数据包括第一类型的数据和第二类型的数据;
将待分类数据输入目标分类模型,得到分类结果,目标分类模型通过上述分类模型训练方法训练得到。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待分类数据,待分类数据包括第一类型的数据和第二类型的数据;
将待分类数据输入目标分类模型,得到分类结果,目标分类模型通过上述分类模型训练方法训练得到。
一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待分类数据,待分类数据包括第一类型的数据和第二类型的数据;
将待分类数据输入目标分类模型,得到分类结果,目标分类模型通过上述分类模型训练方法训练得到。
上述分类模型训练方法、装置、计算机设备、存储介质和程序产品,通过获取由第一类型的训练数据训练得到的第一分类模型、由第二类型的训练数据训练得到的第二分类模型以及包括第一类型的数据和第二类型的数据的样本数据,将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果,能够通过比对第一预测结果和第二预测结果,确定出第一分类模型未充分学习的第一训练数据以及第二分类模型未充分学习的第二训练数据,进而可以利用第一训练数据对第一分类模型进行重新训练,并利用第二训练数据对第二分类模型进行重新训练,达到数据增强的效果,使得第一分类模型和第二分类模型可以互补所长,得到训练后第一分类模型和第二分类模型,进而可以根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型,整个过程,利用联合训练的方式得到能够支持准确分类的目标分类模型,提高分类准确率。
上述分类方法、装置、计算机设备、存储介质和程序产品,通过获取包括第一类型的数据和第二类型的数据的待分类数据,将待分类数据输入目标分类模型,能够利用能够支持准确分类的目标分类模型实现准确分类,得到准确的分类结果,提高分类准确率。
附图说明
图1为一个实施例中分类模型训练方法的流程示意图;
图2为一个实施例中分类方法的流程示意图;
图3为一个实施例中分类模型训练方法的应用场景图;
图4为一个实施例中BERT(Bidirectional Encoder Representation fromTransformers,基于转换器的双向编码表征)的输入示意图;
图5为一个实施例中BERT的多头自注意力机制的示意图;
图6为一个实施例中XGBoost(eXtreme Gradient Boosting,极端梯度提升)模型的数据处理过程示意图;
图7为一个实施例中分类模型训练装置的结构框图;
图8为一个实施例中分类装置的结构框图;
图9为一个实施例中计算机设备的内部结构图。
具体实施方式
本申请涉及人工智能技术领域,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种分类模型训练方法,本实施例以该分类模型训练方法应用于服务器进行举例说明,可以理解的是,该分类模型训练方法也可以应用于终端,还可以应用于包括终端和服务器的系统,并通过终端和服务器的交互实现。其中,终端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、便携式可穿戴设备和车载终端,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现,也可以为区块链上的节点。本实施例中,该分类模型训练方法包括以下步骤:
步骤102,获取第一分类模型、第二分类模型和样本数据,第一分类模型由第一类型的训练数据训练得到,第二分类模型由第二类型的训练数据训练得到,样本数据包括第一类型的数据和第二类型的数据。
其中,第一类型的训练数据和第二类型的训练数据是指不同类型的训练数据。比如,第一类型的训练数据可以为文本数据,第二类型的训练数据可以为数值数据,两者类型不同。再比如,第一类型的训练数据可以为数值数据,第二类型的训练数据可以为图数据。第一分类模型是指由第一类型的训练数据训练得到的分类模型,与第一类型的训练数据相对应。第二分类模型是指由第二类型的训练数据训练得到的分类模型,与第二类型的训练数据相对应。比如,当第一类型的训练数据为文本数据时,第一分类模型可以为文本分类模型,当第二类型的训练数据为数值数据时,第二分类模型可以为数值分类模型。举例说明,文本分类模型具体可以为基于预训练模型的分类模型,数值分类模型具体可以为基于梯度提升算法的分类模型。
其中,样本数据包括第一类型的数据和第二类型的数据。需要说明的是,这里的包括是指每一份样本数据同时包含第一类型的数据和第二类型的数据。比如,当第一类型的数据为文本数据且第二类型的数据为数值数据时,样本数据为同时包含文本数据和数值数据的数据。此外,样本数据为未标注数据,即不存在对应的类别标签。
具体的,服务器会获取第一类型的训练数据、第二类型的训练数据以及未训练的第一初始模型和第二初始模型,第一类型的训练数据和第二类型的训练数据均携带有类别标签,服务器会利用携带类别标签的第一类型的训练数据对第一初始模型进行训练,得到第一分类模型,并利用携带类别标签的第二类型的训练数据对第二初始模型进行训练,得到第二分类模型。在获取第一分类模型和第二分类模型的同时,服务器还会获取包括第一类型的数据和第二类型的数据的样本数据。
步骤104,将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果。
其中,第一预测结果是指第一分类模型对样本数据进行预测所得到的预测分类结果。第二预测结果是指第二分类模型对样本数据进行预测所得到的预测分类结果。
具体的,服务器会将样本数据输入第一分类模型中,通过第一分类模型对样本数据进行分类预测,得到第一预测结果,并将样本数据输入第二分类模型中,通过第二分类模型对样本数据进行分类预测,得到第二预测结果。
步骤106,比对第一预测结果和第二预测结果,得到与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据,第一训练数据为第一分类模型未充分学习的样本数据,第二训练数据为第二分类模型未充分学习的样本数据,未充分学习是指未充分学习概率大于或者等于预设概率阈值。
其中,第一训练数据是指第一分类模型未充分学习的样本数据,第二训练数据是指第二分类模型未充分学习的样本数据,未充分学习是指未充分学习概率大于或者等于预设概率阈值,预设概率阈值可按照需要自行设置。未充分学习概率用于对模型是否未充分学习样本数据进行评估,通过综合与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度得到。
举例说明,未充分学习具体可以是指模型学习错误或者模型学习不充分,其中模型学习错误是指在第一预测结果和第二预测结果不一致时,其中一个预测结果对应的置信度接近满分,则另一个预测结果对应的分类模型存在学习错误的情况,模型学习不充分是指在第一预测结果和第二预测结果一致时,其中一个预测结果对应的置信度大于另一个预测结果对应的置信度时,则另一个预测结果对应的分类模型存在学习不充分的情况。
具体的,在得到第一预测结果和第二预测结果后,服务器会比对第一预测结果和第二预测结果是否一致,根据比对结果,确定样本数据中与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据。
进一步的,当第一预测结果和第二预测结果不一致时,表示可能存在模型学习错误的情况,服务器会获取与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度,判断第一置信度和第二置信度是否大于或者等于对应的预设置信度阈值,以根据判断结果进一步判断是否存在模型学习错误的情况。当第一置信度大于或者等于预设第一置信度阈值时,表示第二分类模型可能存在学习错误的情况,服务器会根据第一置信度和第二置信度,去确定样本数据中与第二分类模型对应的第二训练数据。当第二置信度大于或者等于预设第二置信度阈值时,表示第一分类模型可能存在学习错误的情况,服务器会根据第一置信度和第二置信度,去确定样本数据中与第一分类模型对应的第一训练数据。其中,预设第一置信度阈值和预设第二置信度阈值可按照需要自行设置,用于评估第一置信度和第二置信度的可信任程度。需要说明的是,预设第一置信度阈值和预设第二置信度阈值可以相同,也可以不相同,为0到1之间的数值。
进一步的,当第一预测结果和第二预测结果一致时,表示可能存在模型学习不充分的情况,服务器会获取与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度,比对第一置信度和第二置信度,根据比对结果确定具体是哪个分类模型可能存在模型学习不充分的情况。当第一置信度大于第二置信度时,表示第一分类模型学习比较充分,需要去判断第二分类模型是否存在学习不充分的情况,服务器会根据第二置信度,去确定样本数据中与第二分类模型对应的第二训练数据。当第一置信度小于第二置信度时,表示第二分类模型学习比较充分,需要去判断第一分类模型是否存在学习不充分的情况,服务器会根据第一置信度,去确定样本数据中与第一分类模型对应的第一训练数据。
步骤108,通过第一训练数据对第一分类模型进行训练,得到训练后第一分类模型,并通过第二训练数据对第二分类模型进行训练,得到训练后第二分类模型。
具体的,服务器会通过第一训练数据对第一分类模型进行训练,更新第一分类模型,并通过第二训练数据对第二分类模型进行训练,更新第二分类模型,在完成一次更新后,服务器会判断更新后的第一分类模型和更新后的第二分类模型是否均满足预设停止迭代训练条件,若满足预设停止迭代训练条件,服务器会将更新后的第一分类模型作为训练后第一分类模型,并将更新后的第二分类模型作为训练后第二分类模型,若不满足预设停止迭代训练条件,服务器会继续获取与样本数据同源的迭代训练数据继续进行迭代训练,直到满足预设停止迭代训练条件为止,将最新的更新后的第一分类模型作为训练后第一分类模型,并将最新的更新后的第二分类模型作为训练后第二分类模型。需要说明的是,本实施例中,服务器是通过第一训练数据对第一分类模型进行有监督训练,并通过第二训练数据对第二分类模型进行有监督训练,第一训练数据对应的训练标签为在预测时第二分类模型所输出的对应的第二预测结果,第二训练数据对应的训练标签为在预测时第一分类模型所输出的对应的第一预测结果。
其中,预设停止迭代训练条件可以按照需要自行设置。比如,预设停止迭代训练条件具体可以为更新后的第一分类模型和更新后的第二分类模型在预设测试集上的测试准确率均达到预设准确率阈值,其中预设准确率阈值可按照需要自行设置。又比如,当迭代训练为不重复利用数据训练时,预设停止迭代训练条件具体可以是指与样本数据同源的迭代训练数据被使用完,其中,迭代训练数据预先存储在预设数据库中,随着迭代训练过程对数据的使用而逐渐被使用完,举例说明,服务器可以在迭代训练数据被使用后将迭代训练数据移除预设数据库,也可以在预设数据库中对已使用的迭代训练数据进行标记,以判断迭代训练数据是否被使用完。
步骤110,根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型。
具体的,在得到训练后第一分类模型和训练后第二分类模型后,由于训练后第一分类模型和训练后第二分类模型均已充分学习,服务器可以从中随机选择任一模型作为目标分类模型,以便利用目标分类模型实现准确分类。
上述分类模型训练方法,通过获取由第一类型的训练数据训练得到的第一分类模型、由第二类型的训练数据训练得到的第二分类模型以及包括第一类型的数据和第二类型的数据的样本数据,将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果,能够通过比对第一预测结果和第二预测结果,确定出第一分类模型未充分学习的第一训练数据以及第二分类模型未充分学习的第二训练数据,进而可以利用第一训练数据对第一分类模型进行重新训练,并利用第二训练数据对第二分类模型进行重新训练,达到数据增强的效果,使得第一分类模型和第二分类模型可以互补所长,得到训练后第一分类模型和第二分类模型,进而可以根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型,整个过程,利用联合训练的方式得到能够支持准确分类的目标分类模型,提高分类准确率。
在一个实施例中,比对第一预测结果和第二预测结果,得到与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据包括:
当第一预测结果和第二预测结果不一致时,获取与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度;
当第一置信度大于或者等于预设第一置信度阈值时,根据第一置信度和第二置信度,计算第二预测结果对应的第二未充分学习概率,根据第二未充分学习概率确定样本数据中与第二分类模型对应的第二训练数据;
当第二置信度大于或者等于预设第二置信度阈值时,根据第一置信度和第二置信度,计算第一预测结果对应的第一未充分学习概率,根据第一未充分学习概率确定样本数据中与第一分类模型对应的第一训练数据。
其中,第一置信度用于表征第一预测结果的可信任程度。比如,第一置信度具体可以是指第一分类模型通过预测得到第一预测结果的概率。第二置信度用于表征第二预测结果的可信任程度。比如,第二置信度具体可以是指第二分类模型通过预测得到第二预测结果的概率。
具体的,当第一预测结果和第二预测结果不一致时,表示可能存在模型学习错误的情况,服务器会获取与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度,判断第一置信度和第二置信度是否大于或者等于对应的预设置信度阈值,以根据判断结果进一步判断是否存在模型学习错误的情况。
具体的,当第一置信度大于或者等于预设第一置信度阈值时,表示与第一置信度对应的第一预测结果是可以信任的,而由于第一预测结果和第二预测结果不一致,第二分类模型可能存在学习错误的情况,此时,服务器会计算预设第二总置信度与第二置信度的第二差值,根据该第二差值和第一置信度,去计算第二预测结果对应的第二未充分学习概率,以根据第二未充分学习概率去判断第二分类模型是否存在学习错误的情况,若第二分类模型存在学习错误的情况,将第二分类模型学习错误的样本数据作为与第二分类模型对应的第二训练数据。
具体的,当第二置信度大于或者等于预设第二置信度阈值时,表示与第二置信度对应的第二预测结果是可以信任的,而由于第一预测结果和第二预测结果不一致,第一分类模型可能存在学习错误的情况,此时,服务器会计算预设第一总置信度与第一置信度的第一差值,根据该第一差值和第二置信度,去计算第一预测结果对应的第一未充分学习概率,以根据第一未充分学习概率去判断第一分类模型是否存在学习错误的情况,若第一分类模型存在学习错误的情况,将第一分类模型学习错误的样本数据作为与第一分类模型对应的第一训练数据。
其中,预设第一总置信度是指第一分类模型对样本数据进行预测时,输出的与第一预测结果对应的第一置信度以及与其他预测结果对应的置信度的总和,即所有分类结果对应的概率总和。预设第二总置信度是指第二分类模型对样本数据进行预测时,输出的与第二预测结果对应的第二置信度以及与其他预测结果对应的置信度的总和,即所有分类结果对应的概率总和。举例说明,预设第一总置信度和预设第二总置信度可以均为1。
本实施例中,通过比对第一预测结果和第二预测结果,能够在第一预测结果和第二预测结果不一致时,通过判断第一置信度和第二置信度是否大于或者等于对应的预设置信度阈值,去判断是否存在模型学习错误的情况,从而根据模型学习错误的情况,确定出与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据。
在一个实施例中,根据第一置信度和第二置信度,计算第二预测结果对应的第二未充分学习概率,根据第二未充分学习概率确定样本数据中与第二分类模型对应的第二训练数据包括:
计算第二置信度和预设第二总置信度的第二差值,根据第二差值和第一置信度,计算第二预测结果对应的第二未充分学习概率;
当第二未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与第二分类模型对应的第二训练数据。
具体的,当第一置信度大于或者等于预设第一置信度阈值时,表示与第一置信度对应的第一预测结果是可以信任的,而由于第一预测结果和第二预测结果不一致,说明第二预测结果是不可以信任的,第二分类模型可能存在学习错误的情况,此时,服务器会计算第二置信度和预设第二总置信度的第二差值,根据第二差值、第一置信度以及预先设置的学习错误评估公式,去计算第二预测结果对应的第二未充分学习概率,当第二未充分学习概率大于或者等于预设概率阈值时,表示第二分类模型确实存在学习错误的情况,将第二分类模型学习错误的样本数据作为与第二分类模型对应的第二训练数据。
其中,预先设置的学习错误评估公式用于对分类模型是否未充分学习进行评估,可按照需要进行设置,学习错误评估公式的设置思想是,以与可以信任的预测结果对应的置信度(具体到本实施例中为第一置信度)和与不可以信任的预测结果对应的其他分类结果置信度(具体到本实施例中为第二差值),去评估不可以信任的预测结果所对应的分类模型的未充分学习概率,其中,其他分类结果置信度是指不可以信任的预测结果所对应的分类模型预测出其他分类结果的概率。举例说明,在本实施例中,由于第一预测结果是可以信任的,第二预测结果是不可以信任的,可以用P(A)(X-P(B))来计算第二预测结果对应的第二未充分学习概率,其中,P(A)是指第一置信度,P(B)是指第二置信度,X是指预设第二总置信度,X-P(B)是指第二差值,即第二分类模型预测出其他分类结果的概率,未充分学习概率越大表示越未充分学习。进一步的,在本实施例中,预设第二总置信度可以为1。
本实施例中,通过计算第二差值,利用第一置信度和第二差值,计算第二预测结果对应的第二未充分学习概率,能够利用第二未充分学习概率去判断第二分类模型是否存在学习错误的情况,并在第二未充分学习概率大于或者等于预设概率阈值时,确定对应的样本数据为第二分类模型学习错误的数据,得到第二训练数据,以便可以利用第二训练数据对第二分类模型进行补充训练,达到数据增强的效果。
在一个实施例中,根据第一置信度和第二置信度,计算第一预测结果对应的第一未充分学习概率,根据第一未充分学习概率确定样本数据中与第一分类模型对应的第一训练数据包括:
计算第一置信度和预设第一总置信度的第一差值,根据第一差值和第二置信度,计算第一预测结果对应的第一未充分学习概率;
当第一未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与第一分类模型对应的第一训练数据。
具体的,当第二置信度大于或者等于预设第二置信度阈值时,表示与第二置信度对应的第二预测结果是可以信任的,而由于第一预测结果和第二预测结果不一致,说明第一预测结果是不可以信任的,第一分类模型可能存在学习错误的情况,此时,服务器会计算第一置信度和预设第一总置信度的第一差值,根据第一差值、第二置信度以及预先设置的学习错误评估公式,去计算第一预测结果对应的第一未充分学习概率,当第一未充分学习概率大于或者等于预设概率阈值时,表示第一分类模型确实存在学习错误的情况,将第一分类模型学习错误的样本数据作为与第一分类模型对应的第一训练数据。
其中,预先设置的学习错误评估公式用于对分类模型是否未充分学习进行评估,可按照需要进行设置,学习错误评估公式的设置思想是,以与可以信任的预测结果对应的置信度(本实施例中具体为第二置信度)和与不可以信任的预测结果对应的其他分类结果置信度(本实施例中具体为第一差值),去评估不可以信任的预测结果所对应的分类模型的未充分学习概率,其中,其他分类结果置信度是指不可以信任的预测结果所对应的分类模型预测出其他分类结果的概率。举例说明,在本实施例中,由于第二预测结果是可以信任的,第一预测结果是不可以信任的,可以用P(B)(Y-P(A))来计算第一预测结果对应的第一未充分学习概率,其中,P(A)是指第一置信度,P(B)是指第二置信度,Y是指预设第一总置信度,Y-P(A)是指第一差值,即第一分类模型预测出其他分类结果的概率,未充分学习概率越大表示越未充分学习。进一步的,在本实施例中,预设第一总置信度可以为1。
本实施例中,通过计算第一差值,利用第一差值和第二置信度,计算第一预测结果对应的第一未充分学习概率,能够利用第一未充分学习概率去判断第一分类模型是否存在学习错误的情况,并在第一未充分学习概率大于或者等于预设概率阈值时,确定对应的样本数据为第一分类模型学习错误的数据,得到第一训练数据,以便可以利用第一训练数据对第一分类模型进行补充训练,达到数据增强的效果。
在一个实施例中,比对第一预测结果和第二预测结果,得到与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据包括:
当第一预测结果和第二预测结果一致时,获取与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度;
当第一置信度大于第二置信度时,根据第二置信度计算第二预测结果对应的第二未充分学习概率,当第二未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与第二分类模型对应的第二训练数据;
当第一置信度小于第二置信度时,根据第一置信度计算第一预测结果对应的第一未充分学习概率,当第一未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与第一分类模型对应的第一训练数据。
具体的,当第一预测结果和第二预测结果一致时,表示可能存在模型学习不充分的情况,服务器会获取与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度,通过比对第一置信度和第二置信度,去判断具体是哪个分类模型可能存在模型学习不充分的情况。当第一置信度大于第二置信度时,表示第一分类模型学习比较充分,需要去判断第二分类模型是否存在学习不充分的情况,服务器会根据第二置信度和预先设置的学习不充分评估公式,去计算第二预测结果对应的第二未充分学习概率,当第二未充分学习概率大于或者等于预设概率阈值时,表示第二分类模型确实学习不充分,将样本数据确定为与第二分类模型对应的第二训练数据。
其中,预先设置的学习不充分评估公式用于对是否未充分学习进行评估,可按照需要自行设置,学习不充分评估公式的设置思想是,确定置信度较低的预测结果对应的其他分类结果置信度,利用其他分类结果置信度去评估该预测结果所对应的分类模型的未充分学习概率,其中,其他分类结果置信度是指该预测结果所对应的分类模型预测出其他分类结果的概率。举例说明,在本实施例中,第二预测结果对应的第二未充分学习概率可以为(X-P(B)),其中,P(B)是指第二置信度,X是指预设第二总置信度,X-P(B)即为对应的其他分类结果置信度。
具体的,当第二置信度大于第一置信度时,表示第二分类模型学习比较充分,需要去判断第一分类模型是否存在学习不充分的情况,服务器会根据第一置信度和预先设置的学习不充分评估公式,去计算第一预测结果对应的第一未充分学习概率,当第一未充分学习概率大于或者等于预设概率阈值时,表示第一分类模型确实学习不充分,将样本数据确定为与第一分类模型对应的第一训练数据。
本实施例中,通过比对第一预测结果和第二预测结果,能够在第一预测结果和第二预测结果一致时,获取与第一预测结果对应的第一置信度以及第二预测结果对应的第二置信度,通过比对第一置信度和第二置信度,去判断模型学习不充分的情况,从而根据模型学习不充分的情况,确定出与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据。
在一个实施例中,通过第一训练数据对第一分类模型进行训练,得到训练后第一分类模型,并通过第二训练数据对第二分类模型进行训练,得到训练后第二分类模型包括:
通过第一训练数据对第一分类模型进行训练,更新第一分类模型,并通过第二训练数据对第二分类模型进行训练,更新第二分类模型;
判断更新后的第一分类模型和更新后的第二分类模型是否均满足预设停止迭代训练条件;
当满足预设停止迭代训练条件时,根据更新后的第一分类模型得到训练后第一分类模型,并根据更新后的第二分类模型得到训练后第二分类模型;
当不满足预设停止迭代训练条件时,获取迭代训练数据,将迭代训练数据作为样本数据,返回将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果的步骤,直到满足预设停止迭代训练条件,得到训练后第一分类模型和训练后第二分类模型,迭代训练数据为样本数据的同源数据。
具体的,服务器会通过第一训练数据对第一分类模型进行训练,更新第一分类模型,并通过第二训练数据对第二分类模型进行训练,更新第二分类模型,在完成一次更新后,判断更新后的第一分类模型和第二分类模型是否均满足预设停止迭代训练条件,当均满足预设停止迭代训练条件时,服务器会将更新后的第一分类模型作为训练后第一分类模型,将更新后的第二分类模型作为训练后第二分类模型。
具体的,当不均满足预设停止迭代训练条件时,表示还需要继续进行迭代训练,服务器会继续获取与样本数据同源的迭代训练数据,将迭代训练数据作为新的样本数据继续进行迭代训练,返回将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果的步骤,将新的样本数据输入更新后的第一分类模型,得到新的第一预测结果,并将新的样本数据输入更新后的第二分类模型,得到新的第二预测结果,通过比对新的第一预测结果和新的第二预测结果,确定迭代训练数据中与更新后的第一分类模型对应的新的第一训练数据以及与更新后的第二分类模型对应的新的第二训练数据,通过新的第一训练数据对更新后的第一分类模型进行训练,再次更新第一分类模型,并通过新的第二训练数据对更新后的第二分类模型进行训练,再次更新第二分类模型,判断再次更新后的第一分类模型和第二分类模型是否均满足预设停止迭代训练条件,若均满足预设停止迭代训练条件,服务器会将最新的第一分类模型作为训练后第一分类模型,将最新的第二分类模型作为训练后第二分类模型。若不均满足预设停止迭代训练条件,继续进行迭代训练,直到满足预设停止迭代训练条件,将最新的第一分类模型作为训练后第一分类模型,将最新的第二分类模型作为训练后第二分类模型。
本实施例中,通过第一训练数据对第一分类模型进行训练,更新第一分类模型,并通过第二训练数据对第二分类模型进行训练,更新第二分类模型,判断更新后的第一分类模型和第二分类模型是否均满足预设停止迭代训练条件,当满足预设停止迭代训练条件时,根据更新后的第一分类模型得到训练后第一分类模型,并根据更新后的第二分类模型得到训练后第二分类模型,当不满足预设停止迭代训练条件时,获取样本数据的同源的迭代训练数据继续进行迭代训练,直到更新后的第一分类模型和第二分类模型均满足预设停止迭代训练条件为止,得到目标分类模型,能够通过迭代训练提高分类模型准确率,得到能够支持准确分类的目标分类模型。
在一个实施例中,如图2所示,提供了一种分类方法,本实施例以该分类方法应用于服务器进行举例说明,可以理解的是,该分类方法也可以应用于终端,还可以应用于包括终端和服务器的系统,并通过终端和服务器的交互实现。其中,终端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、便携式可穿戴设备和车载终端,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现,也可以为区块链上的节点。本实施例中,该分类方法包括以下步骤:
步骤202,获取待分类数据,待分类数据包括第一类型的数据和第二类型的数据;
步骤204,将待分类数据输入目标分类模型,得到分类结果,目标分类模型通过上述分类模型训练方法训练得到。
其中,待分类数据是指需要分类的数据,待分类数据包括第一类型的数据和第二类型的数据。需要说明的是,这里的包括是指待分类数据同时包含第一类型的数据和第二类型的数据。比如,当第一类型的数据为文本数据且第二类型的数据为数值数据时,待分类数据为同时包含文本数据和数值数据的数据。举例说明,待分类数据具体可以是商户相关数据,其包含的文本数据为商户名称、商户消费备注等中的至少一项,包含的数值数据为商户交易时间、商户交易金额以及商户单笔消费记录等中的至少一项。
具体的,在需要进行分类时,服务器会获取包括第一类型的数据和第二类型的数据的待分类数据,将待分类数据输入通过上述分类模型训练方法训练得到的目标分类模型,将目标分类模型输出的结果作为分类结果。
上述分类方法,通过获取包括第一类型的数据和第二类型的数据的待分类数据,将待分类数据输入目标分类模型,能够利用能够支持准确分类的目标分类模型实现准确分类,得到准确的分类结果,提高分类准确率。
本申请还提供一种应用场景,该应用场景应用上述的分类模型训练方法以及分类方法,在该应用场景中,第一类型的数据为文本数据,第二类型的数据为数值数据,第一分类模型为文本分类模型,第二分类模型为数值分类模型。具体地,首先,如图3所示,该分类模型训练方法在该应用场景的应用如下:
第一步:对两类数据分别训练模型(即图3中采用文本数据训练得到文本模型,采用数值数据训练得到数值模型,其中,文本数据和数值数据为同一样本的两类数据,这里的同一样本是指包含文本数值和数值数据的样本,此处可以将同一样本中的文本数据和数值数据拆分开,分别输入对应分类模型进行训练)。
具体的,服务器会获取文本分类模型以及数值分类模型,其中,文本分类模型由文本训练数据训练得到,数值分类模型由数值训练数据训练得到。
其中,文本分类模型具体可以为BERT+Softmax/Sigmoid模型。BERT是当前自然语言处理领域处理文本最常用的方式之一,其具有强大的文本语义编译能力。它是一种预训练模型,模型结构等价为Transformer的编码器。通过BERT学得的词的表示会随着语境的不同而不同。下面对BERT的原理进行简单说明:BERT在预训练时需要联合完成两项任务,一是完形填空,即预测文中缺失的词,二是判断前后两句是否为上下文。如图4所示,BERT的输入包含三个部分,输入为三个部分的总和,其中,Token embedding是指词的语义向量,Segment embedding用于标记属于前后哪一句话,Position embedding则将词的位置用数值标记为相对关系。如图5所示,BERT的主要结构由多个多头自注意力机制组成。所谓注意力机制,即对每个词,用语句中的其他词汇来表达这个词汇,其中其他词汇对这个词汇的表达权重互不相同。而“多头”即多个注意力机制,可以从不同角度捕捉不同的抽象层面上的关系。用公式可表示为:
MultiHead(Q,K,V)=Concat(Head1;Head2;…;Headn)W0
Headi=Attention(QWi Q,KWi K,VWi V)
其中,Q、K、V均为上一层输出的高维表达,在自注意力机制中,Q、K用于学得语句中其他词对这个词的重要性表示,再与V点乘,即可得到语句中其他词对该词的表示。
BERT的低层可习得词汇层次的表示,高层可习得语义层次的表示。经过预训练后的词向量可以克服多义词等复杂情况,即同一个词在不同语境中的词向量也是不同的。文本数据经过BERT处理后,获得了单词语义的特征和连续语境的特征,可直接使用Softmax或Sigmoid进行分类。其中,多分类使用Softmax,二分类使用Sigmoid。
其中,数值分类模型具体可以为XGBoost模型,XGBoost模型是一种极度的梯度提升算法,由多级分类器组成,每个分类器的分类目标都是上一个分类器的误差,由此不断地拟合误差,最终达到最好的分类效果。下面通过图6来简单说明XGBoost模型的数据处理过程,其中,树1和树2分别表示不同的分类器,分别基于年龄以及每日是否使用电脑对数据进行分类,通过不同的分类器可以从不同方面对数据进行分类,通过综合多个分类器的分类结果,可以得到最终的分类结果。
第二步:使用两类模型分别预测未标注数据,比较得分结果,分别补充数据。(即图3中的利用文本分类模型测试未标注文本数据和利用数值分类模型测试未标注数值数据,比较未标注文本得分结果,分别补充数据,其中测试未标注文本数据和测试未标注数值数据为同一样本的两类数据,即上述实施例中提及的包含文本数据和数值数据的样本数据)
具体的,在训练完文本分类模型和数值分类模型后,服务器会获取包括文本数据和数值数据的样本数据,将样本数据输入文本分类模型,得到第一预测结果,并将样本数据输入数值分类模型,得到第二预测结果。对于每个模型,我们都需要找到该模型学习错误和学习不充分的样本数据进行补充,使模型在下一次训练的时候取得更好的效果。下面先对模型学习错误和学习不充分进行说明:模型学习错误的样本数据可以定义为,两个模型预测结果不一致,而另一个模型的预测置信度接近满分的样本数据。比如,A模型学习不充分可以用P(B)(Y-P(A))来衡量,其中P(A)是A模型的置信度,P(B)是B模型的置信度。在两个模型预测结果一致时,置信度P(B)越高说明B模型学习越充分,而Y-P(A)越高,说明A模型学习越不充分,越需要补充这部分数据加强训练。其中,Y为A模型对应的预设总置信度。
因此,在得到第一预测结果和第二预测结果后,服务器可以通过比对第一预测结果和第二预测结果,得到与文本分类模型对应的第一训练数据以及与数值分类模型对应的第二训练数据,第一训练数据为文本分类模型未充分学习的样本数据,第二训练数据为数值分类模型未充分学习的样本数据,未充分学习是指未充分学习概率大于或者等于预设概率阈值。
具体的,当第一预测结果和第二预测结果不一致时,服务器会获取与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度,当第一置信度大于或者等于预设第一置信度阈值时,计算第二置信度和预设第二总置信度的第二差值,根据第二差值和第一置信度,计算第二预测结果对应的第二未充分学习概率,当第二未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与数值分类模型对应的第二训练数据,当第二置信度大于或者等于预设第二置信度阈值时,计算第一置信度和预设第一总置信度的第一差值,根据第一差值和第二置信度,计算第一预测结果对应的第一未充分学习概率,当第一未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与文本分类模型对应的第一训练数据。
具体的,当第一预测结果和第二预测结果一致时,服务器会获取与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度,当第一置信度大于第二置信度时,根据第二置信度计算第二预测结果对应的第二未充分学习概率,当第二未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与数值分类模型对应的第二训练数据,当第一置信度小于第二置信度时,根据第一置信度计算第一预测结果对应的第一未充分学习概率,当第一未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与文本分类模型对应的第一训练数据。
在得到第一训练数据和第二训练数据,即需要补充训练的数据后,服务器会通过第一训练数据对文本分类模型进行训练,更新文本分类模型,并通过第二训练数据对数值分类模型进行训练,更新数值分类模型,即图3中的分别补充数据。
第三步:使用新数据分别训练模型,循环往复。
在更新文本分类模型和数值分类模型后,服务器会判断更新后的文本分类模型和更新后的数值分类模型是否均满足预设停止迭代训练条件,当满足预设停止迭代训练条件时,根据更新后的文本分类模型得到训练后文本分类模型,并根据更新后的数值分类模型得到训练后数值分类模型,当不满足预设停止迭代训练条件时,获取迭代训练数据,将迭代训练数据作为样本数据,返回将样本数据输入文本分类模型,得到第一预测结果,并将样本数据输入数值分类模型,得到第二预测结果的步骤,直到满足预设停止迭代训练条件,得到训练后文本分类模型和训练后数值分类模型,迭代训练数据为样本数据的同源数据。
由于文本分类模型和数值分类模型都吸取了另一模型之所长,在预测新数据,即待分类数据时,可以任意选择其中一个模型进行预测。因此,完成训练后,服务器会从训练后文本分类模型和训练后数值分类模型中随机选择任一模型作为目标分类模型。
本实施例中,通过先对文本数据和数值数据分别建立模型,其中,文本数据可使用BERT强大的语义解析能力训练模型,数值数据可利用XGBoost建立模型,二者都是利用当前最先进的处理方式建立模型,能够最大限度地利用两类特征。之后,通过分别测试未标注数据,能够为两个模型提供前一轮训练学习错误的数据和学习不充分的数据,达到数据增强的效果,使两个模型可以互补所长,联合训练一个更好的模型,模型效果优于任意一个模型,所得到的模型能够支持准确分类。
进一步的,在得到目标分类模型后,服务器会获取包括文本数据和数值数据的待分类数据,将待分类数据输入目标分类模型,得到分类结果。
举例说明,上述的分类模型训练方法以及分类方法可以应用于商户分类场景下,具体的,上述的分类模型训练方法以及分类方法在商户分类场景下的应用如下:
在需要进行商户分类时,服务器会获取样本商户数据,样本商户数据包括样本商户文本数据以及样本商户数值数据,对样本商户文本数据以及样本商户数值数据分别训练模型,得到文本分类模型以及数值分类模型。其中,样本商户文本数据包括商户名称、商户对应的公众号/应用程序名称、交易备注、商户的舆情文本等数据,服务器可将这些文本通过分割符分割后,拼接成一个样本商户文本数据用于训练模型。其中,样本商户数值数据包括对商户的交易数据进行抽取所得到的特征,举例说明,样本商户数值数据具体可以包括一个月内笔均金额、金额标准差、金额数、金额分组、信用卡支付金额、零钱支付金额、夜间金额、夜间笔数等。
在完成模型训练后,服务器会获取同时包括商户文本数据和商户数值数据的未标注数据,将未标注数据输入文本分类模型,得到第一预测结果,并将未标注数据输入数值分类模型,得到第二预测结果。比对第一预测结果和第二预测结果,得到与文本分类模型对应的第一训练数据以及与数值分类模型对应的第二训练数据,第一训练数据为文本分类模型未充分学习的样本数据,第二训练数据为数值分类模型未充分学习的样本数据,未充分学习是指未充分学习概率大于或者等于预设概率阈值。
在得到第一训练数据和第二训练数据,即需要补充训练的数据后,服务器会通过第一训练数据对文本分类模型进行训练,更新文本分类模型,并通过第二训练数据对数值分类模型进行训练,更新数值分类模型。在更新文本分类模型和数值分类模型后,服务器会判断更新后的文本分类模型和更新后的数值分类模型是否均满足预设停止迭代训练条件,当满足预设停止迭代训练条件时,根据更新后的文本分类模型得到训练后文本分类模型,并根据更新后的数值分类模型得到训练后数值分类模型,当不满足预设停止迭代训练条件时,获取迭代训练数据,将迭代训练数据作为样本数据,返回将样本数据输入文本分类模型,得到第一预测结果,并将样本数据输入数值分类模型,得到第二预测结果的步骤,直到满足预设停止迭代训练条件,得到训练后文本分类模型和训练后数值分类模型。此时,由于文本分类模型和数值分类模型都吸取了另一模型之所长,在预测新数据,即待分类数据时,可以任意选择其中一个模型进行预测。因此,完成训练后,服务器会从训练后文本分类模型和训练后数值分类模型中随机选择任一模型作为目标分类模型。
在得到目标分类模型后,服务器会将需要分类商户的待分类商户数据输入目标分类模型,得到商户分类结果。其中,在待分类商户数据中同时包括商户文本数据和商户数值数据,商户文本数据与在进行模型训练时所使用的样本商户文本数据相同,商户数值数据与在进行模型训练时所使用的样本商户数值数据相同,本实施例在此处不再撰述。
举例说明,商户分类结果可以包括服装饰品、电器、家装、食品专卖、餐饮等类别。本实施例中,在将上述的分类模型训练方法以及分类方法可以应用于商户分类场景下时,由于不同商户之间的商户名称、交易备注、商户的舆情文本等商户文本数据不同,且不同种类商户之间的一个月内笔均金额、金额标准差、金额数、金额分组、信用卡支付金额、零钱支付金额、夜间金额、夜间笔数等商户数值数据有较大差异,例如,电器类商户的商户数值数据中通常金额的数额较大,而餐饮类商户的商户数值数据中通常金额的数额较小,能够通过同时利用商户文本数据和商户数值数据实现准确分类,提高商户分类准确率。
应该理解的是,虽然上述实施例涉及的各流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述实施例涉及的各流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种分类模型训练装置,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:获取模块702、预测模块704、比对模块706,训练模块708和处理模块710,其中:
获取模块702,用于获取第一分类模型、第二分类模型和样本数据,第一分类模型由第一类型的训练数据训练得到,第二分类模型由第二类型的训练数据训练得到,样本数据包括第一类型的数据和第二类型的数据;
预测模块704,用于将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果;
比对模块706,用于比对第一预测结果和第二预测结果,得到与第一分类模型对应的第一训练数据以及与第二分类模型对应的第二训练数据,第一训练数据为第一分类模型未充分学习的样本数据,第二训练数据为第二分类模型未充分学习的样本数据,未充分学习是指未充分学习概率大于或者等于预设概率阈值;
训练模块708,用于通过第一训练数据对第一分类模型进行训练,得到训练后第一分类模型,并通过第二训练数据对第二分类模型进行训练,得到训练后第二分类模型;
处理模块710,用于根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型。
上述分类模型训练装置,通过获取由第一类型的训练数据训练得到的第一分类模型、由第二类型的训练数据训练得到的第二分类模型以及包括第一类型的数据和第二类型的数据的样本数据,将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果,能够通过比对第一预测结果和第二预测结果,确定出第一分类模型未充分学习的第一训练数据以及第二分类模型未充分学习的第二训练数据,进而可以利用第一训练数据对第一分类模型进行重新训练,并利用第二训练数据对第二分类模型进行重新训练,达到数据增强的效果,使得第一分类模型和第二分类模型可以互补所长,得到训练后第一分类模型和第二分类模型,进而可以根据训练后第一分类模型和训练后第二分类模型,得到目标分类模型,整个过程,利用联合训练的方式得到能够支持准确分类的目标分类模型,提高分类准确率。
在一个实施例中,比对模块还用于当第一预测结果和第二预测结果不一致时,获取与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度,当第一置信度大于或者等于预设第一置信度阈值时,根据第一置信度和第二置信度,计算第二预测结果对应的第二未充分学习概率,根据第二未充分学习概率确定样本数据中与第二分类模型对应的第二训练数据,当第二置信度大于或者等于预设第二置信度阈值时,根据第一置信度和第二置信度,计算第一预测结果对应的第一未充分学习概率,根据第一未充分学习概率确定样本数据中与第一分类模型对应的第一训练数据。
在一个实施例中,比对模块还用于计算第二置信度和预设第二总置信度的第二差值,根据第二差值和第一置信度,计算第二预测结果对应的第二未充分学习概率,当第二未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与第二分类模型对应的第二训练数据。
在一个实施例中,比对模块还用于计算第一置信度和预设第一总置信度的第一差值,根据第一差值和第二置信度,计算第一预测结果对应的第一未充分学习概率,当第一未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与第一分类模型对应的第一训练数据。
在一个实施例中,比对模块还用于当第一预测结果和第二预测结果一致时,获取与第一预测结果对应的第一置信度以及与第二预测结果对应的第二置信度,当第一置信度大于第二置信度时,根据第二置信度计算第二预测结果对应的第二未充分学习概率,当第二未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与第二分类模型对应的第二训练数据,当第一置信度小于第二置信度时,根据第一置信度计算第一预测结果对应的第一未充分学习概率,当第一未充分学习概率大于或者等于预设概率阈值时,将样本数据确定为与第一分类模型对应的第一训练数据。
在一个实施例中,训练模块还用于通过第一训练数据对第一分类模型进行训练,更新第一分类模型,并通过第二训练数据对第二分类模型进行训练,更新第二分类模型,判断更新后的第一分类模型和更新后的第二分类模型是否均满足预设停止迭代训练条件,当满足预设停止迭代训练条件时,根据更新后的第一分类模型得到训练后第一分类模型,并根据更新后的第二分类模型得到训练后第二分类模型,当不满足预设停止迭代训练条件时,获取迭代训练数据,将迭代训练数据作为样本数据,返回将样本数据输入第一分类模型,得到第一预测结果,并将样本数据输入第二分类模型,得到第二预测结果的步骤,直到满足预设停止迭代训练条件,得到训练后第一分类模型和训练后第二分类模型,迭代训练数据为样本数据的同源数据。
在一个实施例中,如图8所示,提供了一种分类装置,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:数据获取模块802和分类模块804,其中:
数据获取模块802,用于获取待分类数据,待分类数据包括第一类型的数据和第二类型的数据;
分类模块804,用于将待分类数据输入目标分类模型,得到分类结果,目标分类模型通过上述分类模型训练方法训练得到。
上述分类装置,通过获取包括第一类型的数据和第二类型的数据的待分类数据,将待分类数据输入目标分类模型,能够利用能够支持准确分类的目标分类模型实现准确分类,得到准确的分类结果,提高分类准确率。
关于分类模型训练装置以及分类装置的具体限定可以参见上文中对于分类模型训练方法以及分类方法的限定,在此不再赘述。上述分类模型训练装置以及分类装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储迭代训练数据等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种分类模型训练方法以及分类方法。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法实施例中的步骤。
需要说明的是,本申请所涉及的数据(包括但不限于用于样本数据、待分类数据等),均为经用户授权或者经过各方充分授权的数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种分类模型训练方法,其特征在于,所述方法包括:
获取第一分类模型、第二分类模型和样本数据,所述第一分类模型由第一类型的训练数据训练得到,所述第二分类模型由第二类型的训练数据训练得到,所述样本数据包括所述第一类型的数据和所述第二类型的数据;
将所述样本数据输入所述第一分类模型,得到第一预测结果,并将所述样本数据输入所述第二分类模型,得到第二预测结果;
比对所述第一预测结果和所述第二预测结果,得到与所述第一分类模型对应的第一训练数据以及与所述第二分类模型对应的第二训练数据,所述第一训练数据为所述第一分类模型未充分学习的样本数据,所述第二训练数据为所述第二分类模型未充分学习的样本数据,所述未充分学习是指未充分学习概率大于或者等于预设概率阈值;
通过所述第一训练数据对所述第一分类模型进行训练,得到训练后第一分类模型,并通过所述第二训练数据对所述第二分类模型进行训练,得到训练后第二分类模型;
根据所述训练后第一分类模型和所述训练后第二分类模型,得到目标分类模型。
2.根据权利要求1所述的方法,其特征在于,所述比对所述第一预测结果和所述第二预测结果,得到与所述第一分类模型对应的第一训练数据以及与所述第二分类模型对应的第二训练数据包括:
当所述第一预测结果和所述第二预测结果不一致时,获取与所述第一预测结果对应的第一置信度以及与所述第二预测结果对应的第二置信度;
当所述第一置信度大于或者等于预设第一置信度阈值时,根据所述第一置信度和所述第二置信度,计算所述第二预测结果对应的第二未充分学习概率,根据所述第二未充分学习概率确定所述样本数据中与所述第二分类模型对应的第二训练数据;
当所述第二置信度大于或者等于预设第二置信度阈值时,根据所述第一置信度和所述第二置信度,计算所述第一预测结果对应的第一未充分学习概率,根据所述第一未充分学习概率确定所述样本数据中与所述第一分类模型对应的第一训练数据。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一置信度和所述第二置信度,计算所述第二预测结果对应的第二未充分学习概率,根据所述第二未充分学习概率确定所述样本数据中与所述第二分类模型对应的第二训练数据包括:
计算所述第二置信度和预设第二总置信度的第二差值,根据所述第二差值和所述第一置信度,计算所述第二预测结果对应的第二未充分学习概率;
当所述第二未充分学习概率大于或者等于预设概率阈值时,将所述样本数据确定为与所述第二分类模型对应的第二训练数据。
4.根据权利要求2所述的方法,其特征在于,所述根据所述第一置信度和所述第二置信度,计算所述第一预测结果对应的第一未充分学习概率,根据所述第一未充分学习概率确定所述样本数据中与所述第一分类模型对应的第一训练数据包括:
计算所述第一置信度和预设第一总置信度的第一差值,根据所述第一差值和所述第二置信度,计算所述第一预测结果对应的第一未充分学习概率;
当所述第一未充分学习概率大于或者等于预设概率阈值时,将所述样本数据确定为与所述第一分类模型对应的第一训练数据。
5.根据权利要求1所述的方法,其特征在于,所述比对所述第一预测结果和所述第二预测结果,得到与所述第一分类模型对应的第一训练数据以及与所述第二分类模型对应的第二训练数据包括:
当所述第一预测结果和所述第二预测结果一致时,获取与所述第一预测结果对应的第一置信度以及与所述第二预测结果对应的第二置信度;
当所述第一置信度大于所述第二置信度时,根据所述第二置信度计算所述第二预测结果对应的第二未充分学习概率,当所述第二未充分学习概率大于或者等于预设概率阈值时,将所述样本数据确定为与所述第二分类模型对应的第二训练数据;
当所述第一置信度小于所述第二置信度时,根据所述第一置信度计算所述第一预测结果对应的第一未充分学习概率,当所述第一未充分学习概率大于或者等于预设概率阈值时,将所述样本数据确定为与所述第一分类模型对应的第一训练数据。
6.根据权利要求1所述的方法,其特征在于,所述通过所述第一训练数据对所述第一分类模型进行训练,得到训练后第一分类模型,并通过所述第二训练数据对所述第二分类模型进行训练,得到训练后第二分类模型包括:
通过所述第一训练数据对所述第一分类模型进行训练,更新第一分类模型,并通过所述第二训练数据对所述第二分类模型进行训练,更新第二分类模型;
判断更新后的第一分类模型和更新后的第二分类模型是否均满足预设停止迭代训练条件;
当满足所述预设停止迭代训练条件时,根据更新后的第一分类模型得到训练后第一分类模型,并根据更新后的第二分类模型得到训练后第二分类模型;
当不满足所述预设停止迭代训练条件时,获取迭代训练数据,将所述迭代训练数据作为样本数据,返回所述将所述样本数据输入所述第一分类模型,得到第一预测结果,并将所述样本数据输入所述第二分类模型,得到第二预测结果的步骤,直到满足所述预设停止迭代训练条件,得到训练后第一分类模型和训练后第二分类模型,所述迭代训练数据为所述样本数据的同源数据。
7.一种分类方法,其特征在于,所述分类方法包括:
获取待分类数据,所述待分类数据包括第一类型的数据和第二类型的数据;
将所述待分类数据输入目标分类模型,得到分类结果,所述目标分类模型通过上述权利要求1-6中任一项所述的方法训练得到。
8.一种分类模型训练装置,其特征在于,所述装置包括:
获取模块,用于获取第一分类模型、第二分类模型和样本数据,所述第一分类模型由第一类型的训练数据训练得到,所述第二分类模型由第二类型的训练数据训练得到,所述样本数据包括所述第一类型的数据和所述第二类型的数据;
预测模块,用于将所述样本数据输入所述第一分类模型,得到第一预测结果,并将所述样本数据输入所述第二分类模型,得到第二预测结果;
比对模块,用于比对所述第一预测结果和所述第二预测结果,得到与所述第一分类模型对应的第一训练数据以及与所述第二分类模型对应的第二训练数据,所述第一训练数据为所述第一分类模型未充分学习的样本数据,所述第二训练数据为所述第二分类模型未充分学习的样本数据,所述未充分学习是指未充分学习概率大于或者等于预设概率阈值;
训练模块,用于通过所述第一训练数据对所述第一分类模型进行训练,得到训练后第一分类模型,并通过所述第二训练数据对所述第二分类模型进行训练,得到训练后第二分类模型;
处理模块,用于根据所述训练后第一分类模型和所述训练后第二分类模型,得到目标分类模型。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202210102315.1A 2022-01-27 2022-01-27 分类模型训练方法以及分类方法 Active CN114511023B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210102315.1A CN114511023B (zh) 2022-01-27 2022-01-27 分类模型训练方法以及分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210102315.1A CN114511023B (zh) 2022-01-27 2022-01-27 分类模型训练方法以及分类方法

Publications (2)

Publication Number Publication Date
CN114511023A true CN114511023A (zh) 2022-05-17
CN114511023B CN114511023B (zh) 2024-06-28

Family

ID=81548894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210102315.1A Active CN114511023B (zh) 2022-01-27 2022-01-27 分类模型训练方法以及分类方法

Country Status (1)

Country Link
CN (1) CN114511023B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117714193A (zh) * 2023-12-28 2024-03-15 中国电子技术标准化研究院 一种诊断方法、装置、电子设备和存储介质
WO2024109079A1 (zh) * 2022-11-22 2024-05-30 华为技术有限公司 一种车位开口检测方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100063948A1 (en) * 2008-09-10 2010-03-11 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data
US20190122096A1 (en) * 2017-10-25 2019-04-25 SparkCognition, Inc. Automated evaluation of neural networks using trained classifier
US20190318202A1 (en) * 2016-10-31 2019-10-17 Tencent Technology (Shenzhen) Company Limited Machine learning model training method and apparatus, server, and storage medium
CN111210024A (zh) * 2020-01-14 2020-05-29 深圳供电局有限公司 模型训练方法、装置、计算机设备和存储介质
CN111666416A (zh) * 2019-03-08 2020-09-15 百度在线网络技术(北京)有限公司 用于生成语义匹配模型的方法和装置
CN112418302A (zh) * 2020-11-20 2021-02-26 清华大学 一种任务预测方法及装置
CN113283551A (zh) * 2021-07-22 2021-08-20 智者四海(北京)技术有限公司 多模态预训练模型的训练方法、训练装置及电子设备
CN113366507A (zh) * 2018-12-21 2021-09-07 伟摩有限责任公司 训练分类器以检测打开的车门

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100063948A1 (en) * 2008-09-10 2010-03-11 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data
US20190318202A1 (en) * 2016-10-31 2019-10-17 Tencent Technology (Shenzhen) Company Limited Machine learning model training method and apparatus, server, and storage medium
US20190122096A1 (en) * 2017-10-25 2019-04-25 SparkCognition, Inc. Automated evaluation of neural networks using trained classifier
CN113366507A (zh) * 2018-12-21 2021-09-07 伟摩有限责任公司 训练分类器以检测打开的车门
CN111666416A (zh) * 2019-03-08 2020-09-15 百度在线网络技术(北京)有限公司 用于生成语义匹配模型的方法和装置
CN111210024A (zh) * 2020-01-14 2020-05-29 深圳供电局有限公司 模型训练方法、装置、计算机设备和存储介质
CN112418302A (zh) * 2020-11-20 2021-02-26 清华大学 一种任务预测方法及装置
CN113283551A (zh) * 2021-07-22 2021-08-20 智者四海(北京)技术有限公司 多模态预训练模型的训练方法、训练装置及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XIEPING GAO等: "Multi-Modal Weights Sharing and Hierarchical Feature Fusion for RGBD Salient Object Detection", 《IEEE ACCESS》, vol. 8, 4 February 2020 (2020-02-04), pages 26602, XP011771903, DOI: 10.1109/ACCESS.2020.2971509 *
周燕等: "深度学习的二维人体姿态估计综述", 《计算机科学与探索》, no. 4, 12 April 2021 (2021-04-12), pages 641 - 657 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024109079A1 (zh) * 2022-11-22 2024-05-30 华为技术有限公司 一种车位开口检测方法及装置
CN117714193A (zh) * 2023-12-28 2024-03-15 中国电子技术标准化研究院 一种诊断方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN114511023B (zh) 2024-06-28

Similar Documents

Publication Publication Date Title
CN112084331B (zh) 文本处理、模型训练方法、装置、计算机设备和存储介质
CN111368996B (zh) 可传递自然语言表示的重新训练投影网络
CN110334354B (zh) 一种中文关系抽取方法
US20240135183A1 (en) Hierarchical classification using neural networks
US11210470B2 (en) Automatic text segmentation based on relevant context
CN111914644A (zh) 一种基于双模态协同的弱监督时序动作定位方法及系统
KR20180125905A (ko) 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치
CN112163426A (zh) 一种基于注意力机制与图长短时记忆神经网络结合的关系抽取方法
CN112883714B (zh) 基于依赖图卷积和迁移学习的absc任务句法约束方法
CN112507039A (zh) 基于外部知识嵌入的文本理解方法
CN112749274B (zh) 基于注意力机制和干扰词删除的中文文本分类方法
CN112036167A (zh) 数据处理方法、装置、服务器及存储介质
CN113987187B (zh) 基于多标签嵌入的舆情文本分类方法、系统、终端及介质
CN112905795A (zh) 文本意图分类的方法、装置和可读介质
CN114511023A (zh) 分类模型训练方法以及分类方法
WO2017136081A1 (en) Augmenting neural networks with hierarchical external memory
CN110580287A (zh) 基于迁移学习和on-lstm的情感分类方法
CN110929524A (zh) 数据筛选方法、装置、设备及计算机可读存储介质
CN110968725B (zh) 图像内容描述信息生成方法、电子设备及存储介质
Wu et al. Optimized deep learning framework for water distribution data-driven modeling
CN109933792A (zh) 基于多层双向lstm和验证模型的观点型问题阅读理解方法
CN113139664A (zh) 一种跨模态的迁移学习方法
CN111400494A (zh) 一种基于GCN-Attention的情感分析方法
CN115687610A (zh) 文本意图分类模型训练方法、识别方法、装置、电子设备及存储介质
CN115392237A (zh) 情感分析模型训练方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant