CN111476372A - 一种机器学习模型结果的内在解释方法 - Google Patents
一种机器学习模型结果的内在解释方法 Download PDFInfo
- Publication number
- CN111476372A CN111476372A CN202010270477.7A CN202010270477A CN111476372A CN 111476372 A CN111476372 A CN 111476372A CN 202010270477 A CN202010270477 A CN 202010270477A CN 111476372 A CN111476372 A CN 111476372A
- Authority
- CN
- China
- Prior art keywords
- model
- interpretation
- machine learning
- neural network
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000010801 machine learning Methods 0.000 title claims abstract description 20
- 238000003062 neural network model Methods 0.000 claims abstract description 19
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000004140 cleaning Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000007405 data analysis Methods 0.000 abstract description 5
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
一种机器学习模型结果的内在解释方法,涉及数据分析领域,解决现有机器学习模型本身缺乏解释性的问题,包括以下步骤:S1,对输入的数据进行清洗和预处理;对输入的数据进行一致性检查,删除错误数据和无效数据,并进行缺失值填充;将分类变量转化为数值型变量;S2,对输入的数据进行内在可解释神经网络模型建模;S3,获取模型的全局解释和局部解释;S4,根据全局解释和局部解释,判断模型预测结果是否与实际业务相符,从而达到解释机器学习模型结果的目的;同时结合模型精准度指标,进一步提升模型的预测准确程度。解决了现有机器学习模型无法对预测结果解释的问题。
Description
技术领域
本发明涉及数据分析领域,具体涉及模型搭建以及对模型预测结果的解释和分析。
背景技术
数据分析过程中最重要的环节之一是建立高精度模型进行预测。随着人工智能领域的不断发展,业界和学界普遍开始采用机器学习模型来提升预测精度。然而,机器学习模型往往由于内部结构复杂,无法对输出结果给出明确计算路径和过程,不能反映出特征变量与结果之间的逻辑关系,从而导致预测结果不可解释,影响预测的可信度和准确性。同时,由于模型透明性被限制,人类无法依赖模型做出准确决策与判断。
发明内容
本发明的目的是针对现有机器学习模型本身缺乏解释性的问题,提出一种新的内在解释法来提升模型的可解释性。该方法通过构建广义线性模型和神经网络模型,实现了对模型预测结果的全局解释和局部解释,能够反映出特征变量对样本总体以及单个样本个体的影响,从而提升了模型的透明度和可信度。
为了解决本发明所提出的问题,采用的技术方案为:一种机器学习模型结果的内在解释方法,其特征在于:包括以下步骤:
S1,对输入的数据进行清洗和预处理;对输入的数据进行一致性检查,删除错误数据和无效数据,并进行缺失值填充;将分类变量转化为数值型变量;
S2,对输入的数据进行内在可解释神经网络模型建模;
S3,获取模型的全局解释和局部解释;
S4,根据全局解释和局部解释,判断模型预测结果是否与实际业务相符,从而达到解释机器学习模型结果的目的;同时结合模型精准度指标,进一步提升模型的预测准确程度。
作为本发明进一步限定的技术方案有:
所述步骤S2包括以下步骤:
1)搭建一个内在可解释神经网络模型:模型表达式为:f(x)=μ+β1h1(x1)+β2h2(x2)+…+βphp(xp)。其中{x1,x2,x3,…,xp}表示共有p个特征变量输入模型;hi(xi)表示岭回归函数,每个岭回归函数通过一个子神经网络训练而成;μ表示模型的常数项,{β1,β2,β3,…,βp}表示岭回归函数对应的系数大小。
2)将p维样本数据集X=[X1,X2,X3,....,Xp]输入内在可解释神经网络模型中进行训练,其中每一个特征变量zi分别进入一个子神经网络训练得出岭回归函数hi(xi),同时计算出模型中涉及到的参数,包括常数项μ,系数β。
所述步骤S3包括:
1)获取模型的全局解释:通过可解释神经网络模型,输出针对样本总体的特征变量与响应变量之间的函数关系图,该函数关系包括线性关系和非线性关系两种。同时输出特征变量的取值分布直方图。
2)获取模型的局部解释:选取一个目标样本,将该样本的取值输入已训练好的可解释神经网络模型中,计算出样本的预测值以及每个特征变量对结果的贡献程度,并输出每个特征变量的得分及条形图。
所述步骤S4包括:
1)通过分析全局解释,可获知基于样本总体,每个特征变量对结果影响的重要程度。特征变量重要性可用于筛选重要特征,进一步提高模型精度。同时,通过与实际业务场景相结合,可判断模型是否准确以及它的可信程度。
2)通过分析局部解释,可获知对于单个样本,每个特征变量对其预测结果的影响程度,从而达到对不同个体结果进行个性化解释的目的。
本发明采用上述技术方案,具有以下增益效果:该方法通过训练可解释神经网络模型来达到提升模型可解释性的目的。本发明解决了现有机器学习模型无法对预测结果解释的问题,显著增强了模型的透明度,提高了模型预测的准确性和可信度。其次,本发明简化了数据预处理流程,仅需进行缺失值填充,提升了数据分析的效率。最后,本发明实现了高精度、高解释性的双平衡,显著增强了模型的普适性。
附图说明
图1为本发明一种机器学习模型结果的内在解释方法。
具体实施方式
下面对本方案结合附图进行详细说明。
如图1所示,分发明一种机器学习模型结果的内在解释方法,具体包括以下步骤:
S1,对数据进行清洗和预处理。对数据进行一致性检查,删除错误数据和无效数据,并进行缺失值填充。将分类变量转化为数值型变量。
S2,对输入的数据进行内在可解释神经网络模型建模;
具体包括以下主要步骤:
1)搭建一个内在可解释神经网络模型:模型表达式为f(x)=μ+β1h1(x1)+β2h2(x2)+…+βphp(xp)。其中{x1,x2,x3,…,xp}表示共有p个特征变量输入模型;hi(xi)表示岭回归函数,每个岭回归函数通过一个子神经网络训练而成;μ表示模型的常数项,{β1,β2,β3,…,βp}表示岭回归函数对应的系数大小。
将p维样本数据集X=[X1,X2,X3,....,Xp]输入内在可解释神经网络模型中进行训练,其中每一个特征变量xi分别进入一个子神经网络训练得出岭回归函数hi(xi),同时计算出模型中涉及到的参数,包括常数项μ,系数β。
S3,获取模型的全局解释和局部解释;
通过构建广义线性模型和神经网络模型,实现了对模型预测结果的全局解释和局部解释,能够反映出特征变量对样本总体以及单个样本个体的影响,从而提升了模型的透明度和可信度。获取模型的全局解释和局部解释具体方法如下:
1)获取模型的全局解释:通过可解释神经网络模型,输出针对样本总体的特征变量与响应变量之间的函数关系图,该函数关系包括线性关系和非线性关系两种。同时输出特征变量的取值分布直方图。
2)获取模型的局部解释:选取一个目标样本,将该样本的取值输入已训练好的可解释神经网络模型中,计算出样本的预测值以及每个特征变量对结果的贡献程度,并输出每个特征变量的得分及条形图。
S4,对全局解释和局部解释进行分析,判断模型预测结果是否与实际业务相符,从而达到解释机器学习模型结果的目的。同时结合模型精准度指标,进一步提升模型的预测准确程度。具体方法包括:
1)通过分析全局解释,可获知基于样本总体,每个特征变量对结果影响的重要程度。特征变量重要性可用于筛选重要特征,进一步提高模型精度。同时,通过与实际业务场景相结合,可判断模型是否准确以及它的可信程度。
2)通过分析局部解释,可获知对于单个样本,每个特征变量对其预测结果的影响程度,从而达到对不同个体结果进行个性化解释的目的。
解决了现有机器学习模型无法对预测结果解释的问题,显著增强了模型的透明度,提高了模型预测的准确性和可信度。简化了数据预处理流程,仅需进行缺失值填充,提升了数据分析的效率。实现了高精度、高解释性的双平衡,显著增强了模型的普适性。
Claims (4)
1.一种机器学习模型结果的内在解释方法,其特征在于,包括以下步骤:
S1,对输入的数据进行清洗和预处理;对输入的数据进行一致性检查,删除错误数据和无效数据,并进行缺失值填充;将分类变量转化为数值型变量;
S2,对输入的数据进行内在可解释神经网络模型建模;
S3,获取模型的全局解释和局部解释;
S4,根据全局解释和局部解释,判断模型预测结果是否与实际业务相符,从而达到解释机器学习模型结果的目的;同时结合模型精准度指标,进一步提升模型的预测准确程度。
2.根据权利要求1所述的一种机器学习模型结果的内在解释方法,其特征在于,所述步骤S2包括以下步骤:
1)搭建一个内在可解释神经网络模型:模型表达式为f(x)=μ+β1h1(x1)+β2h2(x2)+…+βphp(xp);其中{x1,x2,x3,…,xp}表示共有p个特征变量输入模型;hi(xi)表示岭回归函数,每个岭回归函数通过一个子神经网络训练而成;μ表示模型的常数项,{β1,β2,β3,…,βp}表示岭回归函数对应的系数大小;
2)将p维样本数据集X=[X1,X2,X3,....,Xp]输入内在可解释神经网络模型中进行训练,其中每一个特征变量xi分别进入一个子神经网络训练得出岭回归函数hi(xi),同时计算出模型中涉及到的参数,包括常数项μ,系数β。
3.根据权利要求1所述的一种机器学习模型结果的内在解释方法,其特征在于,所述步骤S3包括:
1)获取模型的全局解释:通过可解释神经网络模型,输出针对样本总体的特征变量与响应变量之间的函数关系图,该函数关系包括线性关系和非线性关系两种;同时输出特征变量的取值分布直方图;
2)获取模型的局部解释:选取一个目标样本,将该样本的取值输入已训练好的可解释神经网络模型中,计算出样本的预测值以及每个特征变量对结果的贡献程度,并输出每个特征变量的得分及条形图。
4.根据权利要求1所述的一种机器学习模型结果的内在解释方法,其特征在于,所述步骤S4包括:
1)通过分析全局解释,获知基于样本总体,每个特征变量对结果影响的重要程度;特征变量重要性用于筛选重要特征,进一步提高模型精度;同时,通过与实际业务场景相结合,判断模型是否准确以及它的可信程度;
2)通过分析局部解释,获知对于单个样本,每个特征变量对其预测结果的影响程度,从而达到对不同个体结果进行个性化解释的目的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010270477.7A CN111476372A (zh) | 2020-04-08 | 2020-04-08 | 一种机器学习模型结果的内在解释方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010270477.7A CN111476372A (zh) | 2020-04-08 | 2020-04-08 | 一种机器学习模型结果的内在解释方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111476372A true CN111476372A (zh) | 2020-07-31 |
Family
ID=71750179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010270477.7A Pending CN111476372A (zh) | 2020-04-08 | 2020-04-08 | 一种机器学习模型结果的内在解释方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111476372A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861933A (zh) * | 2021-01-22 | 2021-05-28 | 中国科学院信息工程研究所 | 一种深度神经网络模型可视化解释方法及系统 |
CN112907145A (zh) * | 2021-03-31 | 2021-06-04 | 重庆度小满优扬科技有限公司 | 模型解释方法以及电子设备 |
WO2022077587A1 (zh) * | 2020-10-14 | 2022-04-21 | 深圳大学 | 一种数据预测方法、装置及终端设备 |
CN114511064A (zh) * | 2022-01-19 | 2022-05-17 | 北京百度网讯科技有限公司 | 神经网络模型的解释方法、装置、电子设备和存储介质 |
CN117934450A (zh) * | 2024-03-13 | 2024-04-26 | 中国人民解放军国防科技大学 | 一种多源图像数据深度学习模型的可解释性方法及系统 |
-
2020
- 2020-04-08 CN CN202010270477.7A patent/CN111476372A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022077587A1 (zh) * | 2020-10-14 | 2022-04-21 | 深圳大学 | 一种数据预测方法、装置及终端设备 |
CN112861933A (zh) * | 2021-01-22 | 2021-05-28 | 中国科学院信息工程研究所 | 一种深度神经网络模型可视化解释方法及系统 |
CN112861933B (zh) * | 2021-01-22 | 2022-08-12 | 中国科学院信息工程研究所 | 一种深度神经网络模型可视化解释方法及系统 |
CN112907145A (zh) * | 2021-03-31 | 2021-06-04 | 重庆度小满优扬科技有限公司 | 模型解释方法以及电子设备 |
CN112907145B (zh) * | 2021-03-31 | 2024-05-28 | 重庆度小满优扬科技有限公司 | 模型解释方法以及电子设备 |
CN114511064A (zh) * | 2022-01-19 | 2022-05-17 | 北京百度网讯科技有限公司 | 神经网络模型的解释方法、装置、电子设备和存储介质 |
CN117934450A (zh) * | 2024-03-13 | 2024-04-26 | 中国人民解放军国防科技大学 | 一种多源图像数据深度学习模型的可解释性方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111476372A (zh) | 一种机器学习模型结果的内在解释方法 | |
Rankovic et al. | A new approach to software effort estimation using different artificial neural network architectures and Taguchi orthogonal arrays | |
CN110287180B (zh) | 一种基于深度学习的风控建模方法 | |
CN111105332A (zh) | 一种基于人工神经网络的高速公路智能预养护方法及系统 | |
CN114492211B (zh) | 一种基于自回归网络模型的剩余油分布预测方法 | |
CN109933923B (zh) | 一种基于数字孪生的机电装备精益设计方法 | |
CN114444660B (zh) | 基于注意力机制和lstm的短期电力负荷预测方法 | |
CN110571792A (zh) | 一种电网调控系统运行状态的分析评估方法及系统 | |
CN112036075A (zh) | 一种基于环境监测数据关联关系的异常数据判定方法 | |
CN115422814B (zh) | 一种数字孪生驱动的复杂机电产品闭环优化设计方法 | |
CN114444561A (zh) | 基于CNNs-GRU融合深度学习模型的PM2.5预测方法 | |
CN111353603A (zh) | 一种深度学习模型个体预测解释方法 | |
CN110889560A (zh) | 一种具有深度可解释性的快递序列预测的方法 | |
CN114429122A (zh) | 一种基于循环注意力的方面级情感分析系统和方法 | |
CN111985845B (zh) | 一种异构Spark集群的节点优先级调优方法 | |
CN117453764A (zh) | 一种数据挖掘分析方法 | |
CN114357284B (zh) | 基于深度学习的众包任务个性化推荐方法和系统 | |
CN113722098A (zh) | 基于人工智能的服务器容量预测方法、装置、设备及介质 | |
CN114819395A (zh) | 一种基于长短期记忆神经网络和支持向量回归组合模型的行业中长期负荷预测方法 | |
CN114548494A (zh) | 一种可视化造价数据预测智能分析系统 | |
CN114648095A (zh) | 一种基于深度学习的空气质量浓度反演方法 | |
CN113177644A (zh) | 一种基于词嵌入和深度时序模型的自动建模系统 | |
Dineva et al. | Regression analysis on data received from modular IoT system | |
CN113151842A (zh) | 风光互补电解水制氢的转化效率的确定方法和确定装置 | |
CN117095810A (zh) | 基于pca-pso-bp算法的糖尿病预测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200731 |