CN108665277A - 一种信息处理方法及装置 - Google Patents
一种信息处理方法及装置 Download PDFInfo
- Publication number
- CN108665277A CN108665277A CN201710187754.6A CN201710187754A CN108665277A CN 108665277 A CN108665277 A CN 108665277A CN 201710187754 A CN201710187754 A CN 201710187754A CN 108665277 A CN108665277 A CN 108665277A
- Authority
- CN
- China
- Prior art keywords
- handling result
- variable
- node
- contribution degree
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4016—Transaction verification involving fraud or risk level assessment in transaction processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/03—Credit; Loans; Processing thereof
Abstract
本申请实施例公开了一种信息处理方法及装置。所述方法包括:确定机器学习模型对输入信息的处理结果,所述处理结果为分类预测值或回归预测值;确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量;计算所述处理结果涉及的变量对所述处理结果的贡献度;根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息。利用本申请实施例,可以对机器学习模型的处理结果进行白盒化的解释,因此,可以提高机器学习模型的可解释性,进而有利于正确指导模型优化方向,也有利于减少模型优化所需的处理资源的浪费。
Description
技术领域
本申请涉及计算机软件技术领域,尤其涉及一种信息处理方法及装置。
背景技术
随着计算机技术和互联网技术的迅速发展,很多交易都可以在网上进行,给用户带来了便利,但也给用户的账户带来了更多的风险。
目前,一般采用逻辑回归模型进行账户风险的刻画,该模型可解释性较强,但只适用于小规模特征的训练,并且其准确率与覆盖率难以满足很多业务的需要。
针对这个问题,在现有技术中针对大规模特征采用机器学习模型进行了尝试,并且准确率与覆盖率均得到了提升,但是由于机器学习模型的可解释性较差,导致难以解释模型处理结果,进而可能会使后续的模型优化方向走向误区,浪费模型优化所需的处理资源。
发明内容
本申请实施例提供一种信息处理方法及装置,用以解决现有技术中由于机器学习模型的可解释性较差,导致难以解释模型处理结果,进而可能会使后续的模型优化方向走向误区,浪费模型优化所需的处理资源。
为解决上述技术问题,本申请实施例是这样实现的:
本申请实施例提供的一种信息处理方法,包括:
确定机器学习模型对输入信息的处理结果,所述处理结果为分类预测值或回归预测值;
确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量;
计算所述处理结果涉及的变量对所述处理结果的贡献度;
根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息。
本申请实施例提供的一种信息处理装置,包括:
第一确定模块,确定机器学习模型对输入信息的处理结果,所述处理结果为分类预测值或回归预测值;
第二确定模块,确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量;
计算模块,计算所述处理结果涉及的变量对所述处理结果的贡献度;
输出模块,根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息。
本申请实施例采用的上述至少一个技术方案能够达到以下有益效果:可以提高机器学习模型的可解释性,进而有利于正确指导模型优化方向,也有利于减少模型优化所需的处理资源的浪费,可以部分或全部地解决现有技术中的问题。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请的方案的实施流程概述图;
图2为本申请的方案的重点内容细述图;
图3为本申请实施例提供的一种信息处理方法的流程示意图;
图4a、图4b分别为本申请实施例提供的一种实际应用场景下,基于一种决策树的决策路径及各节点对应的预测值的示意图;
图5为本申请实施例提供的对应于图1的一种信息处理装置的结构示意图。
具体实施方式
本申请实施例提供一种信息处理方法及装置。
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
随着互联网的发展,各种结构化、非结构化的数据变得随处可见。在风险控制领域中,本着业务数据化,数据业务化的观念,工程师从初始信息的获取,到有用信息的抽取,再到使用统计分析与数据挖掘的方法加工所得的信息,最后进行决策。这整个过程中的数据丰富多彩而又杂乱无章,因此,如何从海量数据中挖掘出对业务有帮助的信息,是大数据时代工程师面临的挑战,机器学习模型的应用必不可少。
针对背景技术中提到的问题,以风险控制领域为例,本申请的方案主要涉及以下两个方面:一方面是风险识别以及如何将机器学习模型转化为一个“白盒”:即希望对每个样本的风险刻画都能被分解为对应变量的贡献之和,以便这类机器学习模型具备传统模型(比如,逻辑回归模型等)所拥有的直观而又具体的可解释性;另一方面,为了避免敏感信息的泄露,保证信息的安全,可以对模型信息(比如,模型的构成信息、通过本申请的方案可得到的模型处理结果的解释信息等)进行收敛汇聚:即可以根据权限等级对模型信息进行映射及分层输出。
为了便于理解,先结合图1对本申请的方案进行概括性的说明。图1为本申请的方案的实施流程概述图。
在图1中,一共包括以下五部分的流程:
(1)根据业务场景,对实际问题进行抽象;比如,可以抽象为有监督学习问题、半监督学习问题、无监督学习问题等。
(2)基于业务理解对所抽象出的实际问题进行模型刻画,也即,建模。
(3)基于模型刻画,针对每个案例应用模型并给出动态解释。
(4)模型信息按权限分层输出结果,并且可根据反馈结果优化模型。
(5)实际业务问题的解决,同时基于模型的处理结果可反哺业务流程的优化。
其中,模型刻画、模型应用、模型输出这三部分是重点内容,结合图2展开说明,图2为本申请的方案的重点内容细述图。
对于图2,在模型刻画方面,基于业务理解,一般可以将实际问题抽象为有监督学习问题,进而用模型进行刻画。相比于传统的逻辑回归模型,机器学习算法(比如,决策树、随机森林等)更适合海量特征数据的建模,且拥有更高的准确率与覆盖率。然而,如“黑盒子”般的机器学习算法,在可解释性方面并不直观,因此容易造成模型虽定性准确却难以刻画解释信息、难以说服用户的被动形势,进而容易受到用户挑战,甚至产生舆论风险。鉴于此,在本申请的方案中,对“黑盒子”机器学习模型进行直观解读,得到白盒化的解释信息。如此,相比于逻辑回归模型等传统模型,提升了模型的准确率和覆盖率,也让机器学习模型具备了不逊于逻辑回归模型的可解释性,针对不同的案例给出自适应的解释信息,帮助业务人员有据可依。
下面再对模型应用、模型输出这两方面的内容展开说明。
图3为本申请实施例提供的一种信息处理方法的流程示意图,从程序角度而言,该流程的执行主体可以是服务端程序。从设备角度而言,该流程的执行主体可以包括但不限于可作为服务器以下设备:个人计算机、大中型计算机、计算机集群、手机、平板电脑、智能可穿戴设备、车机等。对于背景技术中的场景,所述服务器具体可以是风险控制服务器。
图3中的流程可以包括以下步骤:
S301:确定机器学习模型对输入信息的处理结果,所述处理结果为分类预测值或回归预测值。
在本申请实施例中,机器学习模型可以是基于决策树的模型(比如,单决策树模型、随机森林模型等),也可以是基于神经网络(比如,浅层神经网络模型、深度神经网络模型等)的模型等。
所述输入信息具体可以是一个待处理样本,比如,上述的案例等。机器学习模型可以用于对该待处理样本进行分类或者回归。当用于分类时,机器学习模型对输入信息的处理结果一般是分类预测值,以共有两类为例,则该分类预测值一般为0或1,其中,0、1分别表示一类。当用于回归时,机器学习模型对输入信息的处理结果一般是回归预测值。
S302:确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量。
在本申请实施例中,机器学习模型中的一个或多个变量会对处理结果产生影响,这些有影响的变量可以称为:处理结果涉及的变量。比如,对于基于决策树的模型,所述变量可以是决策树中的节点对应的决策变量等;对于基于神经网络的模型,所述变量可以是神经网络中的节点的权重对应的变量等。
从待处理样本的角度而言,所述变量一般是待处理样本的一个或多个指定属性。比如,风险控制领域的风险特征、价格预测领域的价格影响因素等。
S303:计算所述处理结果涉及的变量对所述处理结果的贡献度。
在本申请实施例中,如前所述,可以对黑盒子一般的机器学习模型进行解读,获得白盒化的解释信息。具体地,可以度量机器学习模型中的变量对处理结果的贡献,再基于所度量的贡献以及变量本身的业务含义或者引申义,为处理结果生成相应的解释信息。
在本申请实施例中,采用贡献度表示变量对处理结果的贡献。贡献度的计算方法可以有多种,比如,对于基于决策树的模型,可以根据决策树中的节点的预测值或纯度等属性计算贡献度;再比如,对于基于神经网络的模型,可以根据神经网络中节点的权重等属性计算贡献度。
S304:根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息。
通过图3的方法,可以对机器学习模型的处理结果进行白盒化的解释,因此,可以提高机器学习模型的可解释性,进而有利于正确指导模型优化方向,也有利于减少模型优化所需的处理资源的浪费,可以部分或全部地解决现有技术中的问题。
基于图3的方法,本申请实施例还提供了该方法的一些具体实施方案,以及扩展方案,下面进行说明。
在本申请实施例中,在机器学习模型对输入信息的处理过程中,通常会经过多层节点处理,从上一层到下一层的分支选择可能不同,从输入到输出由被选中的分支对应的节点可构成一条路径,该路径上的各节点中的变量即可以是处理结果设计的变量。一般地,对于决策树,其节点数量要远小于神经网络,简明起见,以下各实施例以所述机器学习模型是基于决策树的模型为例,进行说明,在这种情况下,处理结果是机器学习模型基于决策树对输入信息进行处理得到的。
在本申请实施例中,通过上一段的说明可知,对于步骤S302,所述确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量,具体可以包括:确定所述处理结果在所述决策树上对应的决策路径;确定所述决策路径上的节点对应的决策变量,作为所述处理结果涉及的变量。
在本申请实施例中,可以将处理结果用输入信息输入模型时的基准值,以及处理结果涉及的变量的贡献度来刻画。优选地,可以以如下线性关系公式来所示:
其中,predict(x)表示输入信息x对应的处理结果(具体为预测值),baselinefull表示上述的基准值,contrib(x,k)表示变量k对该处理结果的贡献度。
也即,公式(*)比如可以是:
预测值=基准值+变量1的贡献度+变量2的贡献度+…
+变量K的贡献度;(**)
在本申请实施例中,对于一条确定的决策路径,其最后一个节点(属于决策树的叶节点)对应的分类预测值或回归预测值即为:机器学习模型对输入信息的处理结果。简明起见,可以将“分类预测值或回归预测值”统称为“预测值”,公式(**)中的预测值具体是所述最后一个节点对应的预测值。在实际应用中,预测值一般可以为各训练样本的指定属性(回归分析中的因变量等)的均值。
类似地,对于该决策路径上的其他节点,每个其他节点也分别有自己对应的预测值。该决策路径上的首节点(属于决策树的根节点)对应的预测值可以作为上述公式中的基准值,在该决策路径上,首节点对应的决策变量在所述首节点处的贡献以及该基准值,可以共同决定首节点的下一个节点对应的预测值,而下一个节点对应的决策变量在所述下一个节点处的贡献以及下一个节点对应的预测值,可以共同决定再下个节点对应的预测值,以此类推,直到决策路径的最后一个节点,得到处理结果。
由此可见,对于步骤S303,所述计算所述处理结果涉及的变量对所述处理结果的贡献度,具体可以包括:根据所述处理结果,确定所述决策路径上的各节点分别对应的分类预测值或回归预测值;根据所述各节点分别对应的分类预测值或回归预测值,计算所述处理结果涉及的变量对所述处理结果的贡献度。
进一步地,所述根据所述各节点分别对应的分类预测值或回归预测值,计算所述处理结果涉及的变量对所述处理结果的贡献度,具体可以包括:
分别对于所述各节点中除叶节点之外的每个节点执行:
根据该节点对应的分类预测值或回归预测值,以及该节点在所述决策路径上的相邻子节点对应的分类预测值或回归预测值,确定该节点对应的决策变量在该节点处的贡献度;
根据确定出的各节点对应的决策变量在各节点处的贡献度,计算所述处理结果涉及的变量对所述处理结果的贡献度。
为了便于理解,结合图4a和图4b,以两个实例进行说明。
图4a、图4b分别为本申请实施例提供的一种实际应用场景下,基于一种决策树的决策路径及各节点对应的预测值的示意图。输入信息具体是一个样本,该样本的各变量值为:(X1,X2,X3,X4)=(6.5,16.1,2.2,0.12),图中的节点的“数值”即为节点对应的预测值,图中的决策树具体是回归树,则该预测值相应地为回归预测值。对于那么根据图中的决策树,可清晰获得决策树对该样本的决策路径,其中,决策条件成立时,决策路径路由上行,决策条件不成立时,决策路径路由下行。
在图4a中,决策路径依次包含以下节点:节点1(X1≤6.94,数值:22.60)、节点2(X2≤14.40,数值:19.96)、节点3(X4≤0.61,数值:14.91)、节点4(数值:18.11)。显然,X1、X2、X4为该决策路径上的决策变量。
为了便于理解,结合一个回归问题实例对图4a进行说明。该回归问题具体是一个预测商品价格的问题。在这种情况下,图4a的决策树可以是根据一个已知价格的样本商品集合训练得到的,该决策树中的各个非叶节点中包含的变量为:对商品价格变化有影响的变量。为了便于描述,以下省略价格的单位和各变量的单位。
该决策树上的节点对应的回归预测值(也即,节点旁边标记的“数值”)为:落在该节点的各样本商品的价格均值。
以该决策树的根节点,也即节点1(X1≤6.94,数值:22.60)为例,落在节点1的样本商品为:该样本商品集合中的全部样本商品;则节点1对应的回归预测值即为:该样本商品集合中的全部样本商品的价格均值,等于22.06。根节点对应的回归预测值可以称为“基准值”。
类似地,在该样本商品集合中的全部样本商品中,满足X1≤6.94的各样本商品落在节点2(X2≤14.40,数值:19.96);则节点2对应的回归预测值即为:所述满足X1≤6.94的各样本商品的价格均值,等于19.96。
类似地,在该样本商品集合中的全部样本商品中,满足X1≤6.94且X4≤0.61但不满足X2≤14.40的各样本商品落在图4a中顺序从上至下的第三个叶节点(也即,节点4);则节点4对应的回归预测值即为:所述满足X1≤6.94且X4≤0.61但不满足X2≤14.40的各样本商品的价格均值,等于18.11。
图4a中的决策路径为:该决策树训练完后,对某个未知价格的商品进行价格预测时的决策路径。从该决策路径可以看出,该未知价格的商品也是满足X1≤6.94且X4≤0.61但不满足X2≤14.40,则可以预测该未知价格的商品的价格为18.11。结合步骤S301看,在上例中,步骤S301中所述机器学习模型即为该决策树,所述输入信息即为该未知价格的商品的信息,所述处理结果即为该决策路径中的最后一个节点(也即,节点4)对应的回归预测值18.11。
在图4b中,决策路径依次包含以下节点:节点(X3≤0.11,数值:25.54)、节点(X2≤17.38,数值:27.60、节点(X1≤7.1,数值:22.56)、节点(数值:21.58)。显然,X3、X2、X1为该决策路径上的决策变量。
图4a、图4b根据本申请的方案,可将处理结果(也即,决策路径的最后一个节点对应的预测值)线性表示为相关变量的贡献之和(详见图中的方框部分)。
在图4a中,处理结果为:
18.11=22.60+(19.96-22.60)+(14.91-19.96)+(18.11-14.91);则X1的贡献度可以为节点2对应的回归预测值减去节点1对应的回归预测值,也即(19.96-22.60)=-2.64;X2的贡献度可以为节点3对应的回归预测值减去节点2对应的回归预测值,也即(14.91-19.96)=-5.04,X4的贡献度可以为节点4对应的回归预测值减去节点3对应的回归预测值,也即(18.11-14.91)=3.20。其中,贡献度为负时,可以称为“损失”,贡献度为正时,可以称为“增益”。
类似地,在图4b中,也可以得到,处理结果为21.58,X3的贡献度可以为2.06,X2的贡献度可以为-5.04、X1的贡献度可以为-0.98。
需要说明的是,若在决策路径上,多个节点包含同一个变量,则该变量的贡献度可以等于该变量在所述多个节点处的贡献度之和。
根据上例可以总结得到,对于所述决策路径上的首节点对应的分类预测值或回归预测值、所述处理结果涉及的变量对所述处理结果的贡献度,这两者之和等于所述处理结果。需要说明的是,上例中的贡献度仅是一种示例,还可以有其他计算方式,比如,对该示例的数值进行归一化,将归一化后的数值作为贡献,等等。
在本申请实施例中,还可以在计算贡献度时,也可以不依赖于预测值,而是依赖于节点的其他属性,比如,节点的纯度(impurity)等。一般地,对于决策树算法,是通过最优纯度找出最优分割,进而构建出合适的决策树,通过计算决策路径的叶子节点得到最终的预测值;其中,对于回归问题,可以采用方差度量纯度,对于分类问题,可以采用熵或基尼(Gini)值度量纯度。
对于步骤S303,所述计算所述处理结果涉及的变量对所述处理结果的贡献度,具体可以包括:计算所述决策路径上的各节点分别的纯度;根据所述各节点分别的纯度,计算所述处理结果涉及的变量对所述处理结果的贡献度;其中,所述纯度为熵或基尼值。
例如,可以将变量k在某节点处的贡献度定义为:该节点的相邻子节点的纯度减去该节点的纯度。
在图4a和图4b中,是以单棵决策树的模型为例进行说明的,上面的方案同样也可以推广到由多棵决策树构成的随机森林的模型上。比如:
其中,F(x)为随机森林最终的预测值,J表示随机森林中决策树的棵数,j表示第j棵决策树,baselinej full为第j棵决策树的基准值,contribj(x,k)为变量k在第j棵决策树的贡献度。
在本申请实施例中,确定各变量对处理结果的贡献度后,进而可以以此为依据,为该处理结果确定解释信息。贡献度的绝对值越大的变量相应地对解释信息的影响也可以越大。当处理结果涉及的变量的数量较大时,可以只选择贡献度的绝对值较大的部分变量,用于确定解释信息。
进一步地,出于信息安全的考虑,可以对模型信息(比如,预测值、变量的定义或引申义等)进行收敛汇聚,以便于根据权限有选择性地部分输出。
对于收敛汇聚,比如,多个变量的定义可以上位成一个范围更大的定义等。则变量对应的模型信息可以作为该变量的解释信息,且该变量的解释信息可以是多层次的,每个层次是该层次的下层信息的上位。
进而,对于步骤S304,所述根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息,具体可以包括:根据所述处理结果涉及的变量的贡献度,选择所述处理结果涉及的变量中的至少部分变量;确定所述至少部分变量分别对应的多层次解释信息,其中,所述多层次解释信息中的不同层次的内容的详细程度不同;根据指定权限,输出所述部分变量分别对应的多层次解释信息中的至少一个层次的内容,作为对所述处理结果的解释信息。
例如,对于账户风险控制领域,假定变量1对应的解释信息为“同设备多账户登录风险”、变量2对应的解释信息为“同IP多账户登录风险”,变量3对应的解释信息为“非可信环境修改密码”,变量4对应的解释信息为“非可信环境修改绑定手机”。
根据这4个变量的相似程度,可以将变量1和变量2对应的解释信息上位为“异常登录行为”,可以将变量3和变量4对应的解释信息上位为“异常信息修改行为”;进一步地,还可以将“异常登录行为”和“异常信息修改行为”上位为“异常行为路径”。经过收敛汇聚后,构成了三层次解释信息。
一般地,若权限越高,可以相应地输出越详细的解释信息。当权限最高时,可以输出最详细一层的解释信息,比如“同设备多账户登录风险”,当权限最低时,可以输出简略一层的解释信息,比如“异常行为路径”。
上面为本申请实施例提供的一种信息处理方法,基于同样的发明思路,本申请实施例还提供了对应的装置,如图5所示。
图5为本申请实施例提供的对应于图1的一种信息处理装置的结构示意图,该装置可以位于图1中流程的执行主体,包括:
第一确定模块501,确定机器学习模型对输入信息的处理结果,所述处理结果为分类预测值或回归预测值;
第二确定模块502,确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量;
计算模块503,计算所述处理结果涉及的变量对所述处理结果的贡献度;
输出模块504,根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息。
可选地,所述处理结果是所述机器学习模型基于决策树对所述输入信息进行处理得到的。
可选地,所述第二确定模块502确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量,具体包括:
所述第二确定模块502确定所述处理结果在所述决策树上对应的决策路径,确定所述决策路径上的节点对应的决策变量,作为所述处理结果涉及的变量。
可选地,所述计算模块503计算所述处理结果涉及的变量对所述处理结果的贡献度,具体包括:
所述计算模块503根据所述处理结果,确定所述决策路径上的各节点分别对应的分类预测值或回归预测值,根据所述各节点分别对应的分类预测值或回归预测值,计算所述处理结果涉及的变量对所述处理结果的贡献度。
可选地,所述计算模块503根据所述各节点分别对应的分类预测值或回归预测值,计算所述处理结果涉及的变量对所述处理结果的贡献度,具体包括:
所述计算模块503分别对于所述各节点中除叶节点之外的每个节点执行:
根据该节点对应的分类预测值或回归预测值,以及该节点在所述决策路径上的相邻子节点对应的分类预测值或回归预测值,确定该节点对应的决策变量在该节点处的贡献度;
根据确定出的各节点对应的决策变量在各节点处的贡献度,计算所述处理结果涉及的变量对所述处理结果的贡献度。
可选地,对于所述决策路径上的首节点对应的分类预测值或回归预测值、所述处理结果涉及的变量对所述处理结果的贡献度,这两者之和等于所述处理结果。
可选地,所述计算模块503计算所述处理结果涉及的变量对所述处理结果的贡献度,具体包括:
所述计算模块503计算所述决策路径上的各节点分别的纯度,根据所述各节点分别的纯度,计算所述处理结果涉及的变量对所述处理结果的贡献度;
其中,所述纯度为熵或基尼值。
可选地,所述输出模块504根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息,具体包括:
所述输出模块504根据所述处理结果涉及的变量的贡献度,选择所述处理结果涉及的变量中的部分变量,确定所述部分变量分别对应的多层次解释信息,其中,所属多层次解释信息中的不同层次的内容的详细程度不同,根据指定权限,输出所述部分变量分别对应的多层次解释信息中的至少一个层次的内容,作为对所述处理结果的解释信息。
本申请实施例提供的装置与方法是一一对应的,因此,装置也具有与其对应的方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述对应装置的有益技术效果。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (16)
1.一种信息处理方法,其特征在于,包括:
确定机器学习模型对输入信息的处理结果,所述处理结果为分类预测值或回归预测值;
确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量;
计算所述处理结果涉及的变量对所述处理结果的贡献度;
根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息。
2.如权利要求1所述的方法,其特征在于,所述处理结果是所述机器学习模型基于决策树对所述输入信息进行处理得到的。
3.如权利要求2所述的方法,其特征在于,所述确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量,具体包括:
确定所述处理结果在所述决策树上对应的决策路径;
确定所述决策路径上的节点对应的决策变量,作为所述处理结果涉及的变量。
4.如权利要求3所述的方法,其特征在于,所述计算所述处理结果涉及的变量对所述处理结果的贡献度,具体包括:
根据所述处理结果,确定所述决策路径上的各节点分别对应的分类预测值或回归预测值;
根据所述各节点分别对应的分类预测值或回归预测值,计算所述处理结果涉及的变量对所述处理结果的贡献度。
5.如权利要求4所述的方法,其特征在于,所述根据所述各节点分别对应的分类预测值或回归预测值,计算所述处理结果涉及的变量对所述处理结果的贡献度,具体包括:
分别对于所述各节点中除叶节点之外的每个节点执行:
根据该节点对应的分类预测值或回归预测值,以及该节点在所述决策路径上的相邻子节点对应的分类预测值或回归预测值,确定该节点对应的决策变量在该节点处的贡献度;
根据确定出的各节点对应的决策变量在各节点处的贡献度,计算所述处理结果涉及的变量对所述处理结果的贡献度。
6.如权利要求5所述的方法,其特征在于,对于所述决策路径上的首节点对应的分类预测值或回归预测值、所述处理结果涉及的变量对所述处理结果的贡献度,这两者之和等于所述处理结果。
7.如权利要求3所述的方法,其特征在于,所述计算所述处理结果涉及的变量对所述处理结果的贡献度,具体包括:
计算所述决策路径上的各节点分别的纯度;
根据所述各节点分别的纯度,计算所述处理结果涉及的变量对所述处理结果的贡献度;
其中,所述纯度为熵或基尼值。
8.如权利要求1所述的方法,其特征在于,所述根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息,具体包括:
根据所述处理结果涉及的变量的贡献度,选择所述处理结果涉及的变量中的至少部分变量;
确定所述至少部分变量分别对应的多层次解释信息,其中,所述多层次解释信息中的不同层次的内容的详细程度不同;
根据指定权限,输出所述部分变量分别对应的多层次解释信息中的至少一个层次的内容,作为对所述处理结果的解释信息。
9.一种信息处理装置,其特征在于,包括:
第一确定模块,确定机器学习模型对输入信息的处理结果,所述处理结果为分类预测值或回归预测值;
第二确定模块,确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量;
计算模块,计算所述处理结果涉及的变量对所述处理结果的贡献度;
输出模块,根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息。
10.如权利要求9所述的装置,其特征在于,所述处理结果是所述机器学习模型基于决策树对所述输入信息进行处理得到的。
11.如权利要求10所述的装置,其特征在于,所述第二确定模块确定在所述机器学习模型内的各变量中,所述处理结果涉及的变量,具体包括:
所述第二确定模块确定所述处理结果在所述决策树上对应的决策路径,确定所述决策路径上的节点对应的决策变量,作为所述处理结果涉及的变量。
12.如权利要求11所述的装置,其特征在于,所述计算模块计算所述处理结果涉及的变量对所述处理结果的贡献度,具体包括:
所述计算模块根据所述处理结果,确定所述决策路径上的各节点分别对应的分类预测值或回归预测值,根据所述各节点分别对应的分类预测值或回归预测值,计算所述处理结果涉及的变量对所述处理结果的贡献度。
13.如权利要求12所述的装置,其特征在于,所述计算模块根据所述各节点分别对应的分类预测值或回归预测值,计算所述处理结果涉及的变量对所述处理结果的贡献度,具体包括:
所述计算模块分别对于所述各节点中除叶节点之外的每个节点执行:
根据该节点对应的分类预测值或回归预测值,以及该节点在所述决策路径上的相邻子节点对应的分类预测值或回归预测值,确定该节点对应的决策变量在该节点处的贡献度;
根据确定出的各节点对应的决策变量在各节点处的贡献度,计算所述处理结果涉及的变量对所述处理结果的贡献度。
14.如权利要求13所述的装置,其特征在于,对于所述决策路径上的首节点对应的分类预测值或回归预测值、所述处理结果涉及的变量对所述处理结果的贡献度,这两者之和等于所述处理结果。
15.如权利要求11所述的装置,其特征在于,所述计算模块计算所述处理结果涉及的变量对所述处理结果的贡献度,具体包括:
所述计算模块计算所述决策路径上的各节点分别的纯度,根据所述各节点分别的纯度,计算所述处理结果涉及的变量对所述处理结果的贡献度;
其中,所述纯度为熵或基尼值。
16.如权利要求9所述的装置,其特征在于,所述输出模块根据所述处理结果涉及的变量及其贡献度,输出对所述处理结果的解释信息,具体包括:
所述输出模块根据所述处理结果涉及的变量的贡献度,选择所述处理结果涉及的变量中的部分变量,确定所述部分变量分别对应的多层次解释信息,其中,所属多层次解释信息中的不同层次的内容的详细程度不同,根据指定权限,输出所述部分变量分别对应的多层次解释信息中的至少一个层次的内容,作为对所述处理结果的解释信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710187754.6A CN108665277B (zh) | 2017-03-27 | 2017-03-27 | 一种信息处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710187754.6A CN108665277B (zh) | 2017-03-27 | 2017-03-27 | 一种信息处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108665277A true CN108665277A (zh) | 2018-10-16 |
CN108665277B CN108665277B (zh) | 2021-12-24 |
Family
ID=63785342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710187754.6A Active CN108665277B (zh) | 2017-03-27 | 2017-03-27 | 一种信息处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108665277B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109767269A (zh) * | 2019-01-15 | 2019-05-17 | 网易(杭州)网络有限公司 | 一种游戏数据的处理方法和装置 |
CN110046799A (zh) * | 2019-03-08 | 2019-07-23 | 阿里巴巴集团控股有限公司 | 决策优化方法及装置 |
CN110866609A (zh) * | 2019-11-08 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 解释信息获取方法、装置、服务器和存储介质 |
CN110990829A (zh) * | 2019-11-21 | 2020-04-10 | 支付宝(杭州)信息技术有限公司 | 在可信执行环境中训练gbdt模型的方法、装置及设备 |
CN111768040A (zh) * | 2020-07-01 | 2020-10-13 | 深圳前海微众银行股份有限公司 | 模型解释方法、装置、设备及可读存储介质 |
CN112116028A (zh) * | 2020-09-29 | 2020-12-22 | 联想(北京)有限公司 | 模型决策解释实现方法、装置及计算机设备 |
US11568183B2 (en) | 2019-05-26 | 2023-01-31 | International Business Machines Corporation | Generating saliency masks for inputs of models using saliency metric |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104484700A (zh) * | 2014-11-07 | 2015-04-01 | 西安文理学院 | 一种基于bp网络模型的负荷预测的模型输入变量优化方法 |
CN105629091A (zh) * | 2014-10-29 | 2016-06-01 | 国家电网公司 | 一种基于人工神经的供电线路保护方法 |
-
2017
- 2017-03-27 CN CN201710187754.6A patent/CN108665277B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105629091A (zh) * | 2014-10-29 | 2016-06-01 | 国家电网公司 | 一种基于人工神经的供电线路保护方法 |
CN104484700A (zh) * | 2014-11-07 | 2015-04-01 | 西安文理学院 | 一种基于bp网络模型的负荷预测的模型输入变量优化方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109767269A (zh) * | 2019-01-15 | 2019-05-17 | 网易(杭州)网络有限公司 | 一种游戏数据的处理方法和装置 |
CN109767269B (zh) * | 2019-01-15 | 2022-02-22 | 网易(杭州)网络有限公司 | 一种游戏数据的处理方法和装置 |
CN110046799A (zh) * | 2019-03-08 | 2019-07-23 | 阿里巴巴集团控股有限公司 | 决策优化方法及装置 |
WO2020181907A1 (zh) * | 2019-03-08 | 2020-09-17 | 阿里巴巴集团控股有限公司 | 决策优化方法及装置 |
CN110046799B (zh) * | 2019-03-08 | 2021-09-10 | 创新先进技术有限公司 | 决策优化方法及装置 |
US11568183B2 (en) | 2019-05-26 | 2023-01-31 | International Business Machines Corporation | Generating saliency masks for inputs of models using saliency metric |
CN110866609A (zh) * | 2019-11-08 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 解释信息获取方法、装置、服务器和存储介质 |
CN110866609B (zh) * | 2019-11-08 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 解释信息获取方法、装置、服务器和存储介质 |
CN110990829A (zh) * | 2019-11-21 | 2020-04-10 | 支付宝(杭州)信息技术有限公司 | 在可信执行环境中训练gbdt模型的方法、装置及设备 |
CN111768040A (zh) * | 2020-07-01 | 2020-10-13 | 深圳前海微众银行股份有限公司 | 模型解释方法、装置、设备及可读存储介质 |
CN112116028A (zh) * | 2020-09-29 | 2020-12-22 | 联想(北京)有限公司 | 模型决策解释实现方法、装置及计算机设备 |
CN112116028B (zh) * | 2020-09-29 | 2024-04-26 | 联想(北京)有限公司 | 模型决策解释实现方法、装置及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN108665277B (zh) | 2021-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108665277A (zh) | 一种信息处理方法及装置 | |
CN110348462A (zh) | 一种图像特征确定、视觉问答方法、装置、设备及介质 | |
CN109034183A (zh) | 一种目标检测方法、装置及设备 | |
CN110020427B (zh) | 策略确定方法和装置 | |
TW201833851A (zh) | 風控事件自動處理方法及裝置 | |
CN110119860A (zh) | 一种垃圾账号检测方法、装置以及设备 | |
CN107516105A (zh) | 图像处理方法及装置 | |
CN110428137A (zh) | 一种风险防控策略的更新方法及装置 | |
CN115828162B (zh) | 一种分类模型训练的方法、装置、存储介质及电子设备 | |
CN109598285A (zh) | 一种模型的处理方法、装置及设备 | |
TWI713019B (zh) | 資料標籤產生、模型訓練、事件識別方法和裝置 | |
CN116049761A (zh) | 数据处理方法、装置及设备 | |
CN108921190A (zh) | 一种图像分类方法、装置及电子设备 | |
CN108255471A (zh) | 一种基于配置套件的系统配置项配置装置、方法及设备 | |
CN110516915A (zh) | 业务节点训练、评估方法、装置及电子设备 | |
CN116757278B (zh) | 一种预测模型的训练方法、装置、存储介质及电子设备 | |
CN110134860A (zh) | 用户画像生成方法、装置和设备 | |
CN109656946A (zh) | 一种多表关联查询方法、装置及设备 | |
CN117409466A (zh) | 一种基于多标签控制的三维动态表情生成方法及装置 | |
CN117093862A (zh) | 一种模型训练的方法、装置、电子设备及存储介质 | |
CN110443007A (zh) | 一种多媒体数据的溯源检测方法、装置及设备 | |
CN109582300A (zh) | 基于路径的代码变更分析方法、装置及设备 | |
CN107679547A (zh) | 一种针对二分类模型的数据处理方法、装置以及电子设备 | |
CN107392408A (zh) | 一种信用分数的提示信息输出方法及装置 | |
CN110008237A (zh) | 一种相似查询识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20191210 Address after: P.O. Box 31119, grand exhibition hall, hibiscus street, 802 West Bay Road, Grand Cayman, ky1-1205, Cayman Islands Applicant after: Innovative advanced technology Co., Ltd Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands Applicant before: Alibaba Group Holding Co., Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |