CN114239732A - 有序分类标签确定方法、装置、电子设备及存储介质 - Google Patents
有序分类标签确定方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114239732A CN114239732A CN202111569162.3A CN202111569162A CN114239732A CN 114239732 A CN114239732 A CN 114239732A CN 202111569162 A CN202111569162 A CN 202111569162A CN 114239732 A CN114239732 A CN 114239732A
- Authority
- CN
- China
- Prior art keywords
- ordered
- neural network
- ordered classification
- level
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提供一种有序分类标签确定方法、装置、电子设备及存储介质,该方法包括:获取用户的特征信息;将特征信息输入有序分类神经网络模型,有序分类神经网络模型用于根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率;利用用户在有序分类标签的等级概率,确定用户的有序分类标签。充分利用了用户的特征信息中的等级关系,提高了用户有序分类标签的准确度。
Description
技术领域
本申请涉及科技金融领域,尤其涉及一种有序分类标签确定方法、装置、电子设备及存储介质。
背景技术
随着计算机技术的发展,越来越多的技术应用在金融领域,传统金融业正在逐步向金融科技(Fintech)转变,有序分类技术也不例外,但由于金融行业的安全性、实时性要求,也对技术提出的更高的要求。在金融领域,通常通过用户画像和机器学习等方式,对用户进行个性化的精准营销和智能风控等。在用户画像和机器学习的过程中,通常需要将用户进行分类,以确定用户标签。目前,对标签的分类通常分为二分类标签、无序分类标签以及有序分类标签三种。其中,二分类标签和无序分类标签的标签是无序的,二分类标签将用户分为两类,比如用户是否已婚、用户的性别等,无序分类标签将用户分为多类,比如用户所在省份、用户的血型等。相比之下,有序分类标签是存在大小、高低、强弱等某种等级关系的多分类标签,如学历分为大学、中学、小学等,职位分为高管、中层、基层员工等,收入划分为高收入、中高收入、中等收入、中低收入、低收入等。在实际应用过程中,有序分类标签占有较大比例,具有重要的业务价值。
现有技术中,对用户有序分类标签的推算,通常采用将有序分类标签作为无序分类标签的方式,利用多分类算法或者one-vs-rest二分类算法建模,确定用户的有序分类标签。例如,在推测用户的财富水平属于高水平、中水平或低水平时,忽略财富水平存在着“高水平>中水平>低水平”的等级关系,将财富水平作为无序分类标签对用户进行分类。
然而现有技术中,由于有序分类标签的各标签值存在等级关系,通过将有序分类标签当作无序分类标签建模的方式,不能充分利用有序分类标签的等级关系,导致确定用户有序分类标签的准确度较低。
发明内容
本申请提供一种有序分类标签确定方法、装置、电子设备及存储介质,用以解决现有技术中对确定用户有序分类标签的准确度较低的技术问题。
第一方面,本申请提供一种有序分类标签确定方法,包括:
获取用户的特征信息,特征信息用于确定用户的有序分类标签;将特征信息输入有序分类神经网络模型,有序分类神经网络模型用于根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率;利用用户在有序分类标签的等级概率,确定用户的有序分类标签。
本申请实施例中,通过根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率,进而确定用户的有序分类标签,充分利用了有序分类标签中的等级关系,提高了用户有序分类标签的准确度。
在一种可能的实施方式中,在将特征信息输入有序分类神经网络模型之前,还包括:
利用有序分类标签的等级关系,衍生有序分类标签的层次包含关系;解析等级关系与层次包含关系的概率运算逻辑,并利用概率运算逻辑搭建神经网络结构;对神经网络结构进行训练,生成有序分类神经网络模型。
本申请实施例中,通过解析等级关系与层次包含关系的概率运算逻辑,并利用该概率运算逻辑搭建神经网络结构,提高了有序分类神经网络模型的可靠度。
在一种可能的实施方式中,神经网络结构包括特征部和预测部,特征部用于确定各第一任务之间的个性特征,预测部用于利用个性特征和各第二任务之间的概率运算逻辑关系,确定有序分类标签的等级概率,第一任务用于确定有序分类标签的层次包含概率,第二任务用于确定有序分类标签的等级概率。
本申请实施例中,通过在神经网络结构中设置特征部,确定有序分类标签的各层次包含概率特有的个性化特征,以更好的学习到各层次包含概率计算方式之间的差异,进而通过神经网络结构中的预测部,利用个性特征对有序分类标签的等级概率进行预测,提升了神经网络结构的学习精度。
在一种可能的实施方式中,特征部包括共享特征层和个性特征层,利用概率运算逻辑搭建神经网络结构,包括:
利用各第一任务之间的共享特征,搭建神经网络结构的共享特征层;利用各第一任务之间的个性特征,搭建神经网络结构的个性特征层;利用第一任务和第二任务之间的概率运算逻辑关系,搭建神经网络结构的预测部,得到神经网络结构。
本申请实施例中,通过考虑到有序分类标签的层次包含概率之间的共享特征以及各层次包含概率之间的个性特征,不仅可以提高神经网络结构的学习精度,还可以提高神经网络结构的工作效率。
在一种可能的实施方式中,共享特征层包括嵌入向量层、特征筛选层和拼接层,嵌入向量层用于生成特征信息的嵌入向量;特征筛选层用于对嵌入向量进行线性变换,确定嵌入向量的线性变换值,并利用非线性函数对线性变换值进行映射,过滤线性变换值为负的嵌入向量;拼接层用于对过滤后的嵌入向量进行拼接,得到各第一任务的之间的共享特征。
本申请实施例中,通过将特征信息表示为嵌入向量,并对嵌入向量进行筛选,过滤冗余信息,进一步提高了有序分类标签推算的准确性。
在一种可能的实施方式中,对神经网络结构进行训练,生成有序分类神经网络模型,包括:
获取训练样本;基于训练样本,利用第一损失函数调整神经网络结构的网络参数,以得到有序分类神经网络模型。
在一种可能的实施方式中,第一损失函数为:
其中,loss1表示第一损失函数,M表示有序分类标签的最大等级,k表示有序分类标签的等级,Wk表示训练样本为k等级的权重,Yk表示训练样本的实际等级是否为k,Yk取值0或1;Pk表示为训练样本的等级为k的预测概率。
在一种可能的实施方式中,对神经网络结构进行训练,生成有序分类神经网络模型,包括:获取训练样本,训练样本包括用户的等级标签和层次包含标签;基于层次包含标签,利用第二损失函数训练神经网络结构,确定共享特征层的共享特征参数;基于层次包含标签,利用第三损失函数训练神经网络结构,确定个性特征层的个性特征参数;基于等级标签,利用第一损失函数训练神经网络结构,确定预测部的预测参数。
本申请实施例中,通过采用分步学习策略,分步骤对网络参数进行聚焦学习,利用不同任务之间的相似性和差异性,提升有序分类神经网络模型的精确度。
在一种可能的实施方式中,第二损失函数为:
第三损失函数为:
loss3=[-Yk+log(Pk+)-(1-Yk+)log(1-Pk+)];
其中,loss2表示第二损失函数,loss3表示第三损失函数,M表示有序分类标签的最大等级,k表示有序分类标签的等级,Yk+表示训练样本的实际等级是否大于或等于k,Yk+取值0或1;Pk+表示为训练样本的等级大于或等于k的预测概率。
下面介绍本申请实施例提供的装置、电子设备、计算机可读存储介质以及计算机程序产品,其内容和效果可参考本申请实施例提供的有序分类标签确定方法,不再赘述。
第二方面,本申请实施例提供一种有序分类标签确定装置,包括:
获取模块,用于获取用户的特征信息,特征信息用于确定用户的有序分类标签。
处理模块,用于将特征信息输入有序分类神经网络模型,有序分类神经网络模型用于根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率;
处理模块,还用于利用用户在有序分类标签的等级概率,确定用户的有序分类标签。
在一种可能的实施方式中,本申请实施例提供的有序分类标签确定装置,还包括:
衍生模块,用于利用有序分类标签的等级关系,衍生有序分类标签的层次包含关系;搭建模块,用于解析等级关系与层次包含关系的概率运算逻辑,并利用概率运算逻辑搭建神经网络结构;训练模块,用于对神经网络结构进行训练,生成有序分类神经网络模型。
在一种可能的实施方式中,神经网络结构包括特征部和预测部,特征部用于确定各第一任务之间的个性特征,预测部用于利用个性特征和各第二任务之间的概率运算逻辑关系,确定有序分类标签的等级概率,第一任务用于确定有序分类标签的层次包含概率,第二任务用于确定有序分类标签的等级概率。
在一种可能的实施方式中,特征部包括共享特征层和个性特征层,搭建模块,具体用于:
利用各第一任务之间的共享特征,搭建神经网络结构的共享特征层;利用各第一任务之间的个性特征,搭建神经网络结构的个性特征层;利用第一任务和第二任务之间的概率运算逻辑关系,搭建神经网络结构的预测部,得到神经网络结构。
在一种可能的实施方式中,共享特征层包括嵌入向量层、特征筛选层和拼接层,嵌入向量层用于生成特征信息的嵌入向量;特征筛选层用于对嵌入向量进行线性变换,确定嵌入向量的线性变换值,并利用非线性函数对线性变换值进行映射,过滤线性变换值为负的嵌入向量;拼接层用于对过滤后的嵌入向量进行拼接,得到各第一任务的之间的共享特征。
在一种可能的实施方式中,训练模块,具体用于:
获取训练样本;基于训练样本,利用第一损失函数调整神经网络结构的网络参数,以得到有序分类神经网络模型。
在一种可能的实施方式中,第一损失函数为:
其中,loss1表示第一损失函数,M表示有序分类标签的最大等级,k表示有序分类标签的等级,Wk表示训练样本为k等级的权重,Yk表示训练样本的实际等级是否为k,Yk取值0或1;Pk表示为训练样本的等级为k的预测概率。
在一种可能的实施方式中,训练模块,具体用于:
获取训练样本,训练样本包括用户的等级标签和层次包含标签;基于层次包含标签,利用第二损失函数训练神经网络结构,确定共享特征层的共享特征参数;基于层次包含标签,利用第三损失函数训练神经网络结构,确定个性特征层的个性特征参数;基于等级标签,利用第一损失函数训练神经网络结构,确定预测部的预测参数。
在一种可能的实施方式中,第二损失函数为:
第三损失函数为:
loss3=[-Yk+log(Pk+)-(1-Yk+)log(1-Pk+)];
其中,loss2表示第二损失函数,loss3表示第三损失函数,M表示有序分类标签的最大等级,k表示有序分类标签的等级,Yk+表示训练样本的实际等级是否大于或等于k,Yk+取值0或1;Pk+表示为训练样本的等级大于或等于k的预测概率。
第三方面,本申请实施例提供一种电子设备,包括:处理器,以及与处理器通信连接的存储器;
存储器存储计算机执行指令;
处理器执行存储器存储的计算机执行指令,以实现第一方面或第一方面可实现方式提供有序分类标签确定方法。
第四方面,本申请实施例提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,计算机执行指令被处理器执行时用于实现如第一方面或第一方面可实现方式提供的有序分类标签确定方法。
第五方面,本申请实施例提供一种计算机程序产品,包括计算机执行指令,该计算机执行指令被处理器执行时用于实现如第一方面或第一方面可实现方式提供的有序分类标签确定方法。
本申请提供的有序分类标签确定方法、装置、电子设备及存储介质,通过获取用户的特征信息;将特征信息输入有序分类神经网络模型,对用户进行有序分类,有序分类神经网络模型用于根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率;最后利用等级概率,确定用户的有序分类标签。由于根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率,进而确定用户的有序分类标签,充分利用了用户的特征信息中的等级关系,提高了用户有序分类标签的准确度。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是本申请实施例提供的一示例性应用场景架构图;
图2是本申请一实施例提供的有序分类标签确定方法的流程示意图;
图3是本申请一实施例提供的有序分类神经网络模型的工作流程示意图;
图4是本申请一实施例提供的层次包含关系示意图;
图5是本申请另一实施例提供的有序分类标签确定方法的流程示意图;
图6是本申请一实施例提供的神经网络结构的结构示意图;
图7是本申请一实施例提供的有序分类标签确定装置的结构示意图;
图8是本申请另一实施例提供的有序分类标签确定装置的结构示意图;
图9是本申请实施例提供的电子设备的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
随着计算机技术的发展,越来越多的技术应用在金融领域,传统金融业正在逐步向金融科技(Fintech)转变,有序分类技术也不例外,但由于金融行业的安全性、实时性要求,也对技术提出的更高的要求。现有技术中,对用户有序分类标签的推算,通常采用将有序分类标签作为无序分类标签的方式,利用多分类算法或者one-vs-rest二分类算法建模,确定用户的有序分类标签。由于有序分类标签的各类别值存在等级关系,通过将有序分类标签当作无序分类标签建模的方式,不能充分利用有序分类标签的等级关系,导致确定有序分类标签的准确度较低。
本申请实施例提供的有序分类标签确定方法、装置、电子设备及存储介质的发明构思在于,通过利用有序分类标签的等级关系以及有序分类标签的等级关系所衍生的层次包含关系,构建有序分类神经网络模型,进而通过有序分类神经网络模型实现对用户进行有序分类,实现了对用户的有序分类标签的确定。充分利用了用户的特征信息中的等级关系,提高了用户有序分类标签的准确度,并且,在充分利用有序分类标签的等级信息的同时,既不引入主观问题,也无需额外的假设条件,进一步保证了确定有序分类标签的准确度。
以下,对本申请实施例的示例性应用场景进行介绍。
本申请实施例提供的有序分类标签确定方法可以通过本申请实施例提供的有序分类标签确定装置执行,本申请实施例提供的有序分类标签确定装置可以集成在终端设备上,或者该有序分类标签确定装置可以为终端设备本身。本申请实施例对终端设备的具体类型不做限制。例如,终端设备可以是个人电脑、平板电脑、可穿戴设备、车载终端、监控设备等。
图1是本申请实施例提供的一示例性应用场景架构图,如图1所示,该架构主要包括:终端设备01(个人电脑)。在一种可能的实施方式中,本申请实施例提供的有序分类标签确定方法可以应用于终端设备01中,终端设备01可以通过获取用户的特征信息,然后通过终端设备01中的有序分类神经网络模型对用户进行有序分类,确定用户的有序分类标签。在又一种可能的实施方式中,如图1所示,本申请实施例提供的应用场景架构图还可以包括服务器02,终端设备01获取用户的特征信息,然后通过服务器02对特征信息进行处理,确定用户的有序分类标签,并将处理结果发送至终端设备01中,终端设备01接收服务器02发送的处理结果。本申请实施例仅以此为例,并不限于此。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图2是本申请一实施例提供的有序分类标签确定方法的流程示意图,该方法可以由有序分类标签确定装置执行,该装置可以通过软件和/或硬件的方式实现,下面以终端设备为执行主体对有序分类标签确定方法进行说明,如图2所示,本申请实施例提供的有序分类标签确定方法可以包括:
步骤S101:获取用户的特征信息。
用户的特征信息用于确定用户的有序分类标签。用户的特征信息可以包括用户的收入、用户的信用卡消费金额、用户的工作行业等特征信息。针对不同的有序分类标签,可能需要用户一个或多个不同的特征信息进行推算,本申请实施例对用户的具体特征信息不做限制,具体可以根据需求获取用户的特征信息。例如,若有序分类标签为用户的财富等级,则用户的特征信息可以包括用户的进账信息,再例如,若有序分类标签为用户的消费等级,则用户的特征信息可以包括用户的消费金额等,本申请实施例仅以此为例,并不限于此。
本申请实施例对获取用户的特征信息的具体实现方式不做限制,例如可以通过服务器的数据库中直接读取用户的特征信息,或者,通过在包括用户多种信息的数据库中,筛选出该用户的特征信息等。本申请实施例仅以此为例,并不限于此。
步骤S102:将特征信息输入有序分类神经网络模型,有序分类神经网络模型用于根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率。
图3是本申请一实施例提供的有序分类神经网络模型的工作流程示意图,如图3所示,用户的特征信息输入至有序分类神经网络模型中,有序分类神经网络模型对特征信息进行分析处理,输出用户在有序分类标签的等级概率。
示例性的,用户的特征信息为用户的收入信息,有序分类标签为财富等级,财富等级包括高收入、中收入和低收入,有序分类神经网络模型可以通过对用户的收入信息进行分析处理,生成用户属于高收入的等级概率、属于中收入的等级概率以及属于低收入的等级概率。
其中,有序分类神经网络模型用于根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率。为便于介绍,本申请实施例中以有序分类标签为财富等级为例进行介绍,但并不限于此,例如,有序分类标签还可以包括用户的学历、用户职位、用户消费能力等等,具体可以根据实际需求进行设置,不再赘述。
在一种可能的实施方式中,财富等级可以包括0、1、2、3、4五个等级,并且财富等级的等级关系为4>3>2>1>0,则利用财富等级的等级关系可以衍生出财富等级的层次包含关系:财富等级≥1→财富等级≥2→财富等级≥3→财富等级=4。为便于理解,图4是本申请一实施例提供的层次包含关系示意图。如图4所示,最外圈的椭圆表示财富等级≥0的概率,其概率值为1,次外圈的椭圆表示财富等级≥1的概率,第三个椭圆表示财富等级≥2的概率,次里圈的椭圆表示财富等级≥3的概率,最里圈的椭圆表示财富等级=4的概率。
在利用财富等级的等级关系衍生出财富等级的层次包含关系之后,可以根据财富等级的等级关系和财富等级的层次包含关系,确定用户在财富等级的等级概率。其工作原理介绍如下:
以Y表示财富等级,X代表输入的特征信息,则P(Y=k|X)表示给定X情况下,用户的财富等级为k的概率,k的可能取值为0、1、2、3或4;同理,P(Y≥k|X)表示给定X情况下,用户的财富等级大于或等于k的概率。
则,
P(Y=k-1|X)=P(Y≥k-1|X)-P(Y≥k|X); (1)
P(Y≥k|X)=P(Y≥k-1|X)×P(Y≥k|Y≥k-1,X); (2)
其中,k=1、2、3、4。
设Pk表示P(Y=k|X),Pk+表示P(Y≥k|X),Qk+表示P(Y≥k|Y≥k-1,X)。
根据公式(1),可得:
P1=P(Y=1|X)=P(Y≥1|X)-P(Y≥2|X)=P1+-P2+;
P2=P(Y=2|X)=P(Y≥2|X)-P(Y≥3|X)=P2+-P3+;
P3=P(Y=3|X)=P(Y≥3|X)-P(Y≥4|X)=P3+-P4+; (3)
根据公式(2),可得:
P2+=P(Y≥2|X)=P(Y≥1|X)×P(Y≥2|Y≥1,X)=P1+Q2+;
P3+=P(Y≥3|X)=P(Y≥2|X)×P(Y≥3|Y≥2,X)=P2+Q3+;
P4+=P(Y≥4|X)=P(Y≥3|X)×P(Y≥4|Y≥3,X)=P3+Q4+; (4)
综上可得,P0、P1、P2、P3和P4可表示为:
P0=1-P1+;
P1=P1+-P2+=P1+-P1+Q2+;
P2=P2+-P3+=P1+Q2+-P1+Q2+Q3+;
P3=P3+-P4+=P1+Q2+Q3+-P1+Q2+Q3+Q4+;
P4=P4+=P1+Q2+Q3+Q4+; (5)
最终输出的各财富等级的等级概率为P0、P1、P2、P3和P4,而各财富等级的层次包含概率为P1+、P2+、P3+,中间节点的条件概率为Q2+、Q3+和Q4+。
通过根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率,充分利用了用户的特征信息中的等级关系,相比于现有技术中,将有序分类标签作为无序分类标签,不考虑有序分类标签的等级关系,直接确定有序分类标签的等级概率,可以提高有序分类标签的等级概率的准确度。
步骤S103:利用用户在有序分类标签的等级概率,确定用户的有序分类标签。
在确定用户在有序分类标签的等级概率之后,利用用户在有序分类标签的等级概率,确定用户的有序分类标签,以上述有序分类标签为财富等级为例,可以通过设置等级概率最高的财富等级作为用户的财富等级,也可以通过设置每个等级概率的权重,确定用户的财富等级,本申请实施例对此不做限制。
本申请实施例中,通过根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率,进而确定用户的有序分类标签,充分利用了用户的特征信息中的等级关系,提高了用户有序分类标签的准确度。
并且,相比于现有技术中,通过对有序分类标签进行数值编码作为回归问题建模,比如将有序分类标签中的财富等级编码为3、2、1,并默认各财富等级的距离大小是1。这种方法需要先主观判断各财富等级的距离大小,以便进行数值编码,但如果编码不准确会引入噪声;之后采用回归算法输出连续值,还需要界定阈值以划分各财富等级,再次引入主观问题。本申请实施例提供的有序分类标签的确定方法,避免了对数值编码和阈值划分的主观判断,保证了用户有序分类标签的准确度。
另外,相比于现有技术中,采用统计学方法中的Ordinal Logistic算法,利用有序分类标签中各等级之间的距离相同的假设条件。然而,实际情况常常无法满足该假设条件,或难以判断是否满足假设条件。本申请实施例提供的有序分类标签的确定方法,不需要上述假设条件,避免了额外的假设条件所带来的限制,且保证了确定有序分类标签的准确度。
在图2所示的实施例的基础上,在一种可能的实施方式中,图5是本申请另一实施例提供的有序分类标签确定方法的流程示意图,该方法可以由有序分类标签确定装置执行,该装置可以通过软件和/或硬件的方式实现,下面以终端设备为执行主体对有序分类标签确定方法进行说明,如图5所示,本申请实施例提供的有序分类标签确定方法,在步骤S102将特征信息输入有序分类神经网络模型之前,还可以包括:
步骤S201:利用有序分类标签的等级关系,衍生有序分类标签的层次包含关系。
以上述有序分类标签为财富等级,财富等级包括0、1、2、3、4五个等级,并且财富等级的等级关系为4>3>2>1>0为例,在一种可能的实施方式中,衍生的财富等级的层次包含关系可以为:财富等级≥1→财富等级≥2→财富等级≥3→财富等级=4。在另一种可能的实施方式中,衍生的财富等级的层次包含关系还可以为:财富等级≤4→财富等级≤3→财富等级≤2→财富等级=1,本申请实施例仅以财富等级的层次包含关系为:财富等级≥1→财富等级≥2→财富等级≥3→财富等级=4为例进行介绍。
步骤S202:解析等级关系与层次包含关系的概率运算逻辑,并利用概率运算逻辑搭建神经网络结构。
层次包含关系的不同表示形式下,等级关系和层次包含关系的概率运算逻辑会有所不同,其原理类似,本申请实施例不再赘述。以上述为例,解析得到财富等级的等级关系和财富等级的层次包含关系之间的概率运算逻辑为公式(5),利用概率运算逻辑搭建神经网络结构。神经网络结构用于计算各层次包含概率和中间节点的条件概率,以及利用概率运算逻辑确定有序分类标签的各等级概率。
本申请实施例对神经网络结构的具体结构不做限制,只要能够实现利用有序分类标签的等级关系与层次包含关系,生成有序分类标签的等级概率即可。
在一种可能的实施方式中,神经网络结构包括特征部和预测部,特征部用于确定各第一任务之间的个性特征,预测部用于利用个性特征和各第二任务之间的概率运算逻辑关系,确定有序分类标签的等级概率,第一任务用于确定有序分类标签的层次包含概率,第二任务用于确定有序分类标签的等级概率。
以上述为例,第一任务为预测P1+、P2+、P3+等的任务,第二任务为预测P0、P1、P2、P3和P4等的任务。特征部用于利用每个Pk+之间的独特性,确定第一任务之间的个性特征。预测部用于利用个性特征与第二任务之间的概率运算逻辑关系,可参考公式(5),实现最有序分类标签的等级概率的预测。
本申请实施例对特征部和预测部的具体网络结构的搭建方式不做限制,在一种可能的实施方式中,图6是本申请一实施例提供的神经网络结构的结构示意图,如图6所示,神经网络结构包括特征部21和预测部22。特征部21可以包括共享特征层211和个性特征层212,利用概率运算逻辑搭建神经网络结构,包括:
利用各第一任务之间的共享特征,搭建神经网络结构的共享特征层211;利用各第一任务之间的个性特征,搭建神经网络结构的个性特征层212;利用第一任务和第二任务之间的概率运算逻辑关系,搭建神经网络结构的预测部22,得到神经网络结构。
本申请实施例中,通过考虑到有序分类标签的层次包含概率之间的共享特征以及各层次包含概率之间的个性特征,不仅可以提高神经网络结构的学习精度,还可以提高神经网络结构的工作效率。
在一种可能的实施方式中,共享特征层211可以包括归一化层、拼接层和全连接层,用户的特征信息经过归一化层进行归一化处理,然后将归一化处理后的特征信息进行拼接,再经过全连接层,得到共享特征。
在另一种可能的实施方式中,本申请实施例提供的有序分类标签确定方法,共享特征层211可以包括嵌入向量层、特征筛选层和拼接层,嵌入向量层用于生成特征信息的嵌入向量(Embedding));特征筛选层用于对嵌入向量进行线性变换,确定嵌入向量的线性变换值,并利用非线性函数对线性变换值进行映射,过滤线性变换值为负的嵌入向量;拼接层用于对过滤后的嵌入向量进行拼接,得到各第一任务的之间的共享特征。
嵌入向量层用于生成特征信息的嵌入向量,例如,嵌入向量的维度可以取10-20。若特征信息为类别特征,嵌入向量层对每个枚举值随机生成一个嵌入向量,例如,特征信息为工作行业,则可以将工作行业的各枚举值表示为10维向量:金融业表示为[0.56,0.61,…,0.93,0.33];制造业表示为[0.80,0.14,…,0.30,0.82];餐饮业表示为[0.15,0.98,…,0.46,0.01]。随机生成的嵌入向量通过神经网络结构的训练,学习得到最终的嵌入向量。
若特征信息为数值特征,则可以通过首先对数值进行分箱,转换为类别特征,再随机生成嵌入向量。例如,特征信息为当月信用卡消费金额,则可以通过首先将当月信用卡消费金额分为“≥10万”、“[1万,10万)”、“[5千,1万)”、“<5千”四个区间,然后再分别将该四个区间随机生成嵌入向量。比如,≥10万的区间表示为[0.46,0.55,…,0.15,0.32];[1万,10万)的区间表示为[0.52,0.25,…,0.96,0.88];[5千,1万)的区间表示为[0.23,0.26,…,0.12,0.31];<5千的区间表示为[0.63,0.28,…,0.75,0.74]。随机生成的嵌入向量经过神经网络结构的训练,学习得到最终的嵌入向量。
在生成嵌入向量之后,通过特征筛选层对嵌入向量进行线性变换,然后通过非线性函数进行映射,过滤线性变换值为负的嵌入向量。其中,非线性函数可以为relu函数,特征筛选层的计算表达式可以为output=ReLU(wT v+b),v为输入的嵌入向量,w和b为特征筛选层的参数,w和b可以通过训练神经网络结构进行确定。ReLU函数表达式为:ReLU(x)=max(0,x),其中,x表示嵌入向量的线性变换值。若线性变换值为负,则relu函数输出值为0,从而过滤部分特征,而且每个用户过滤结果可能不同,从而实现个体级特征筛选,解决了传统神经网络结构无法直接筛选特征的问题。
在过滤嵌入向量之后,通过拼接层(concat)对过滤后的嵌入向量进行拼接,组成新的特征向量,得到各第一任务的之间的共享特征。
本申请实施例中,通过将特征信息表示为嵌入向量,并对嵌入向量进行筛选,过滤冗余信息,进一步提高了有序分类标签推算的准确性。
本申请实施例对预测部的具体网络结构也不做限制。在一种可能的实施方式中,预测部可以包括三层运算节点,分别是sigmoid层221、乘积层222和相减层223。sigmoid层221将输入特征映射为0-1之间的概率值,得到P1+、Q2+、Q3+和Q4+等;乘积层222通过将上一层输出的概率累乘得到P2+、P3+和P4等;相减层223通过1-P1+得到P0,通过相邻Pk+相减得到P1、P2、P3。
本申请实施例中,通过在神经网络结构中设置特征部,确定有序分类标签的各层次包含概率特有的个性化特征,以更好的学习到各层次包含概率计算方式之间的差异,进而通过神经网络结构中的预测部,利用个性特征对有序分类标签的等级概率进行预测,提升了神经网络结构的学习精度。
步骤S203:对神经网络结构进行训练,生成有序分类神经网络模型。
在搭建神经网络结构完成之后,通过对神经网络结构进行训练生成有序分类神经网络模型,具体训练方式可以参考现有技术中对神经网络结构的训练方式,本申请实施例对此不做限制。
在一种可能的实施方式中,对神经网络结构进行训练,生成有序分类神经网络模型,包括:获取训练样本;基于训练样本,利用第一损失函数调整神经网络结构的网络参数,以生成有序分类神经网络模型。
在一种可能的实施方式中,第一损失函数为:
其中,loss1表示第一损失函数,M表示有序分类标签的最大等级,k表示有序分类标签的等级,Wk表示训练样本为k等级的权重,Yk表示训练样本的实际等级是否为k,Yk取值0或1;Pk表示为训练样本的等级为k的预测概率。
其中,若本轮迭代训练未达到收敛状态,则基于第一损失函数,对神经网络结构的网络参数进行调整,并继续进行下一轮迭代训练;若本轮迭代训练已达到收敛状态,则训练结束。对于根据损失函数调整神经网络结构的网络参数的具体实施过程可以参见现有技术的介绍,本实施例在此不再赘述。
本申请实施例中,通过解析等级关系与层次包含关系的概率运算逻辑,并利用该概率运算逻辑搭建神经网络结构,提高了有序分类神经网络模型的可靠度。
在上述任一实施例的基础上,在一种可能的实施方式中,对神经网络结构进行训练,生成有序分类神经网络模型,包括:获取训练样本,训练样本包括用户的等级标签和层次包含标签;基于层次包含标签,利用第二损失函数训练神经网络结构,确定共享特征层的共享特征参数;基于层次包含标签,利用第三损失函数训练神经网络结构,确定个性特征层的个性特征参数;基于等级标签,利用第一损失函数训练神经网络结构,确定预测部的预测参数。
训练样本中每个样本会被标记为两组预测标签,分别为等级标签Yk和层次包含标签Yk+。例如,用户财富等级为3,则其等级标签为:Y0=0、Y1=0、Y2=0、Y3=1、Y4=0,对应的层次包含标签为:Y1+=1、Y2+=1、Y3+=1、Y4+=0。
基于标签Yk+,采用第二损失函数训练神经网络结构。由于每个Pk+任务都是学习高等级相对低等级的可能性,存在内在相似性,通过第二损失函数来学习共享特征参数,可以对嵌入向量层和特征筛选层中的网络参数进行训练,同时可对其他网络参数进行预训练。
本申请实施例对第二损失函数的具体函数公式不做限制,在一种可能的实施方式中,第二损失函数为:
其中,loss2表示第二损失函数,M表示有序分类标签的最大等级,k表示有序分类标签的等级,Yk+表示训练样本的实际等级是否大于或等于k,Yk+取值0或1;Pk+表示为训练样本的等级大于或等于k的预测概率。
其中,若本轮迭代训练未达到收敛状态,则基于第二损失函数,对神经网络结构的网络参数进行调整,并继续进行下一轮迭代训练;若本轮迭代训练已达到收敛状态,则训练结束。对于根据损失函数调整神经网络结构的网络参数的具体实施过程可以参见现有技术的介绍,本实施例在此不再赘述。
在确定共享特征参数之后,固定共享特征参数,然后基于标签Yk+,采用第三损失函数训练神经网络结构。通过第三损失函数,关注各Pk+任务的独特性,对个性特征层的个性特征参数进行训练。采用聚焦学习的策略,由最低等级开始,每步只聚焦一个Pk+任务进行学习,并固定上步已学习的参数。例如,先聚焦P1+任务,学习其局部任务参数后固定住,再聚焦P2+任务,学习新的局部任务参数后固定住,以此类推,直至所有Pk+任务学习完,实现对个性特征参数的调整。
本申请实施例对第三损失函数的具体函数公式不做限制,在一种可能的实施方式中,第三损失函数为:
loss3=[-Yk+log(Pk+)-(1-Yk+)log(1-Pk+)];
其中,loss3表示第三损失函数,M表示有序分类标签的最大等级,k表示有序分类标签的等级,Yk+表示训练样本的实际等级是否大于或等于k,Yk+取值0或1;Pk+表示为训练样本的等级大于或等于k的预测概率。
其中,若本轮迭代训练未达到收敛状态,则基于第三损失函数,对神经网络结构的网络参数进行调整,并继续进行下一轮迭代训练;若本轮迭代训练已达到收敛状态,则训练结束。对于根据损失函数调整神经网络结构的网络参数的具体实施过程可以参见现有技术的介绍,本实施例在此不再赘述。
在确定共享特征参数和个性特征参数之后,固定共享特征参数和个性特征参数,基于标签Yk,采用第一损失函数训练神经网络,对预测部的网络参数进行调整优化。
本申请实施例中,通过采用分步学习策略,分步骤对网络参数进行聚焦学习,利用不同任务之间的相似性和差异性,提升有序分类神经网络模型的精确度。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图7是本申请一实施例提供的有序分类标签确定装置的结构示意图,该装置可以通过软件和/或硬件的方式实现,例如可以通过终端设备实现,如图7所示,本申请实施例提供的有序分类标签确定装置可以包括:获取模块31和处理模块32。
获取模块31,用于获取用户的特征信息,特征信息用于确定用户的有序分类标签。
处理模块32,用于将特征信息输入有序分类神经网络模型,有序分类神经网络模型用于根据有序分类标签的等级关系和有序分类标签的等级关系所衍生的层次包含关系,确定用户在有序分类标签的等级概率。
处理模块32,还用于利用用户在有序分类标签的等级概率,确定用户的有序分类标签。
本实施例的装置可以执行上述图2所示的方法实施例,其技术原理和技术效果与上述实施例相似,此处不再赘述。
在图7所示实施例的基础上,进一步地,图8是本申请另一实施例提供的有序分类标签确定装置的结构示意图,该装置可以通过软件和/或硬件的方式实现,例如可以通过终端设备实现,如图8所示,本申请实施例提供的有序分类标签确定装置,还可以包括衍生模块33、搭建模块34和训练模块35。
衍生模块33,用于利用有序分类标签的等级关系,衍生有序分类标签的层次包含关系;搭建模块34,用于解析等级关系与层次包含关系的概率运算逻辑,并利用概率运算逻辑搭建神经网络结构;训练模块35,用于对神经网络结构进行训练,生成有序分类神经网络模型。
在一种可能的实施方式中,神经网络结构包括特征部和预测部,特征部用于确定各第一任务之间的个性特征,预测部用于利用个性特征和各第二任务之间的概率运算逻辑关系,确定有序分类标签的等级概率,第一任务用于确定有序分类标签的层次包含概率,第二任务用于确定所有序分类标签的等级概率。
在一种可能的实施方式中,特征部包括共享特征层和个性特征层,搭建模块34,具体用于:
利用各第一任务之间的共享特征,搭建神经网络结构的共享特征层;利用各第一任务之间的个性特征,搭建神经网络结构的个性特征层;利用第一任务和第二任务之间的概率运算逻辑关系,搭建神经网络结构的预测部,得到神经网络结构。
在一种可能的实施方式中,共享特征层包括嵌入向量层、特征筛选层和拼接层,嵌入向量层用于生成特征信息的嵌入向量;特征筛选层用于对嵌入向量进行线性变换,确定嵌入向量的线性变换值,并利用非线性函数对线性变换值进行映射,过滤线性变换值为负的嵌入向量;拼接层用于对过滤后的嵌入向量进行拼接,得到各第一任务的之间的共享特征。
在一种可能的实施方式中,训练模块35,具体用于:
获取训练样本;基于训练样本,利用第一损失函数调整神经网络结构的网络参数,以得到有序分类神经网络模型。
在一种可能的实施方式中,第一损失函数为:
其中,loss1表示第一损失函数,M表示有序分类标签的最大等级,k表示有序分类标签的等级,Wk表示训练样本为k等级的权重,Yk表示训练样本的实际等级是否为k,Yk取值0或1;Pk表示为训练样本的等级为k的预测概率。
在一种可能的实施方式中,训练模块35,具体用于:
获取训练样本,训练样本包括用户的等级标签和层次包含标签;基于层次包含标签,利用第二损失函数训练神经网络结构,确定共享特征层的共享特征参数;基于层次包含标签,利用第三损失函数训练神经网络结构,确定个性特征层的个性特征参数;基于等级标签,利用第一损失函数训练神经网络结构,确定预测部的预测参数。
在一种可能的实施方式中,第二损失函数为:
第三损失函数为:
loss3=[-Yk+log(Pk+)-(1-Yk+)log(1-Pk+)];
其中,loss2表示第二损失函数,loss3表示第三损失函数,M表示有序分类标签的最大等级,k表示有序分类标签的等级,Yk+表示训练样本的实际等级是否大于或等于k,Yk+取值0或1;Pk+表示为训练样本的等级大于或等于k的预测概率。
本实施例的装置可以执行上述图5所示的方法实施例,其技术原理和技术效果与上述实施例相似,此处不再赘述。
本申请所提供的装置实施例仅仅是示意性的,图7和图8中的模块划分仅仅是一种逻辑功能划分,实际实现时可以有另外的划分方式。例如多个模块可以结合或者可以集成到另一个系统。各个模块相互之间的耦合可以是通过一些接口实现,这些接口通常是电性通信接口,但是也不排除可能是机械接口或其它的形式接口。因此,作为分离部件说明的模块可以是或者也可以不是物理上分开的,既可以位于一个地方,也可以分布到同一个或不同设备的不同位置上。
图9是本申请实施例提供的电子设备的结构示意图,如图9所示,该电子设备包括:
接收器40、发送器41、处理器42和存储器43以及计算机程序;其中,接收器40和发送器41,实现与其他设备之间的数据传输,计算机程序被存储在存储43中,并且被配置为由处理器42执行,计算机程序包括用于执行上述区块链中交易的处理方法的指令,其内容及效果请参考方法实施例。
此外,本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当用户设备的至少一个处理器执行该计算机执行指令时,用户设备执行上述各种可能的方法。
其中,计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。另外,该ASIC可以位于用户设备中。当然,处理器和存储介质也可以作为分立组件存在于通信设备中。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求书指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求书来限制。
Claims (13)
1.一种有序分类标签确定方法,其特征在于,
获取用户的特征信息,所述特征信息用于确定所述用户的有序分类标签;
将所述特征信息输入有序分类神经网络模型,所述有序分类神经网络模型用于根据所述有序分类标签的等级关系和所述有序分类标签的等级关系所衍生的层次包含关系,确定所述用户在所述有序分类标签的等级概率;
利用所述用户在所述有序分类标签的等级概率,确定所述用户的所述有序分类标签。
2.根据权利要求1所述的方法,其特征在于,在所述将所述特征信息输入有序分类神经网络模型之前,还包括:
利用所述有序分类标签的等级关系,衍生所述有序分类标签的层次包含关系;
解析所述等级关系与所述层次包含关系的概率运算逻辑,并利用所述概率运算逻辑搭建神经网络结构;
对所述神经网络结构进行训练,生成所述有序分类神经网络模型。
3.根据权利要求2所述的方法,其特征在于,所述神经网络结构包括特征部和预测部,
所述特征部用于确定各第一任务之间的个性特征,所述预测部用于利用所述个性特征和各第二任务之间的概率运算逻辑关系,确定所述有序分类标签的等级概率,所述第一任务用于确定所述有序分类标签的层次包含概率,所述第二任务用于确定所述有序分类标签的等级概率。
4.根据权利要求3所述的方法,其特征在于,所述特征部包括共享特征层和个性特征层,所述利用所述概率运算逻辑搭建神经网络结构,包括:
利用各第一任务之间的共享特征,搭建所述神经网络结构的共享特征层;利用各第一任务之间的个性特征,搭建所述神经网络结构的个性特征层;利用所述第一任务和第二任务之间的概率运算逻辑关系,搭建所述神经网络结构的预测部,得到所述神经网络结构。
5.根据权利要求4所述的方法,其特征在于,所述共享特征层包括嵌入向量层、特征筛选层和拼接层,
所述嵌入向量层用于生成所述特征信息的嵌入向量;所述特征筛选层用于对所述嵌入向量进行线性变换,确定所述嵌入向量的线性变换值,并利用非线性函数对所述线性变换值进行映射,过滤线性变换值为负的嵌入向量;所述拼接层用于对过滤后的所述嵌入向量进行拼接,得到各第一任务的之间的共享特征。
6.根据权利要求3-5任一项所述的方法,其特征在于,所述对所述神经网络结构进行训练,生成所述有序分类神经网络模型,包括:
获取训练样本;
基于所述训练样本,利用第一损失函数调整所述神经网络结构的网络参数,以得到所述有序分类神经网络模型。
8.根据权利要求4或5所述的方法,其特征在于,所述对所述神经网络结构进行训练,生成所述有序分类神经网络模型,包括:获取训练样本,所述训练样本包括用户的等级标签和层次包含标签;
基于所述层次包含标签,利用第二损失函数训练所述神经网络结构,确定所述共享特征层的共享特征参数;
基于所述层次包含标签,利用第三损失函数训练所述神经网络结构,确定所述个性特征层的个性特征参数;
基于所述等级标签,利用第一损失函数训练所述神经网络结构,确定所述预测部的预测参数。
10.一种有序分类标签确定装置,其特征在于,包括:
获取模块,用于获取用户的特征信息,所述特征信息用于确定所述用户的有序分类标签;
处理模块,用于将所述特征信息输入有序分类神经网络模型,所述有序分类神经网络模型用于根据所述有序分类标签的等级关系和所述有序分类标签的等级关系所衍生的层次包含关系,确定所述用户在所述有序分类标签的等级概率;
所述处理模块,还用于利用所述用户在所述有序分类标签的等级概率,确定所述用户的所述有序分类标签。
11.一种电子设备,其特征在于,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如权利要求1-9中任一项所述的有序分类标签确定方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至9中任一项所述的有序分类标签确定方法。
13.一种计算机程序产品,其特征在于,包括计算机执行指令,该计算机执行指令被处理器执行时实现权利要求1-9中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111569162.3A CN114239732A (zh) | 2021-12-21 | 2021-12-21 | 有序分类标签确定方法、装置、电子设备及存储介质 |
PCT/CN2022/102480 WO2023115884A1 (zh) | 2021-12-21 | 2022-06-29 | 有序分类标签确定方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111569162.3A CN114239732A (zh) | 2021-12-21 | 2021-12-21 | 有序分类标签确定方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114239732A true CN114239732A (zh) | 2022-03-25 |
Family
ID=80760092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111569162.3A Pending CN114239732A (zh) | 2021-12-21 | 2021-12-21 | 有序分类标签确定方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114239732A (zh) |
WO (1) | WO2023115884A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023115884A1 (zh) * | 2021-12-21 | 2023-06-29 | 深圳前海微众银行股份有限公司 | 有序分类标签确定方法、装置、电子设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117251605B (zh) * | 2023-09-28 | 2024-05-10 | 武汉贝塔世纪科技有限公司 | 基于深度学习的多源数据查询方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109308564A (zh) * | 2018-08-01 | 2019-02-05 | 平安科技(深圳)有限公司 | 人群绩效等级识别方法、装置、存储介质及计算机设备 |
CN110490388A (zh) * | 2019-08-27 | 2019-11-22 | 中国联合网络通信集团有限公司 | 预测用户收入的方法及系统 |
CN112837167A (zh) * | 2021-04-06 | 2021-05-25 | 河北雄安舜耕数据科技有限公司 | 用于预测高净值客户财富水平提升概率的系统及方法 |
CN114239732A (zh) * | 2021-12-21 | 2022-03-25 | 深圳前海微众银行股份有限公司 | 有序分类标签确定方法、装置、电子设备及存储介质 |
-
2021
- 2021-12-21 CN CN202111569162.3A patent/CN114239732A/zh active Pending
-
2022
- 2022-06-29 WO PCT/CN2022/102480 patent/WO2023115884A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023115884A1 (zh) * | 2021-12-21 | 2023-06-29 | 深圳前海微众银行股份有限公司 | 有序分类标签确定方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2023115884A1 (zh) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110751261B (zh) | 神经网络模型的训练方法和系统以及预测方法和系统 | |
Wang et al. | Predicting construction cost and schedule success using artificial neural networks ensemble and support vector machines classification models | |
Honegger | Shedding light on black box machine learning algorithms: Development of an axiomatic framework to assess the quality of methods that explain individual predictions | |
US9355067B1 (en) | Distribution of parameter calculation for iterative optimization methods | |
US7672915B2 (en) | Method and system for labelling unlabeled data records in nodes of a self-organizing map for use in training a classifier for data classification in customer relationship management systems | |
CN107480141B (zh) | 一种基于文本和开发者活跃度的软件缺陷辅助分派方法 | |
CA2598923C (en) | Method and system for data classification using a self-organizing map | |
CN112799747A (zh) | 智能助理评价、推荐方法、系统、终端及可读存储介质 | |
CN114239732A (zh) | 有序分类标签确定方法、装置、电子设备及存储介质 | |
US20230162215A1 (en) | Methods and apparatus to perform multi-level hierarchical demographic classification | |
CN116595328B (zh) | 一种基于知识图谱的数据评分卡模型智能构建装置及方法 | |
Eddy et al. | Credit scoring models: Techniques and issues | |
León | Operational risk management using a fuzzy logic inference system | |
Jebeile et al. | Usability of climate information: Toward a new scientific framework | |
US20210319269A1 (en) | Apparatus for determining a classifier for identifying objects in an image, an apparatus for identifying objects in an image and corresponding methods | |
CN115330142B (zh) | 联合能力模型的训练方法、能力需求匹配方法和装置 | |
Watson | Applying knowledge management: Techniques for building organisational memories | |
Panfilo | Generating Privacy-Compliant, Utility-Preserving Synthetic Tabular and Relational Datasets Through Deep Learning | |
JP2023099932A (ja) | 反事実的推論管理装置、反事実的推論管理方法、及び反事実的推論管理コンピュータプログラム製品 | |
US20060112048A1 (en) | System and method for the automated discovery of unknown unknowns | |
CN113822412A (zh) | 一种图节点标注方法、装置、设备及存储介质 | |
Chomiak et al. | Harnessing value from data science in business: ensuring explainability and fairness of solutions | |
CN116258574B (zh) | 一种基于混合效应逻辑回归的违约率预测方法及系统 | |
US11663668B1 (en) | Apparatus and method for generating a pecuniary program | |
Kasirzadeh | Mathematical decisions and non-causal elements of explainable AI |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |