CN113723618B - 一种shap的优化方法、设备及介质 - Google Patents

一种shap的优化方法、设备及介质 Download PDF

Info

Publication number
CN113723618B
CN113723618B CN202110994859.9A CN202110994859A CN113723618B CN 113723618 B CN113723618 B CN 113723618B CN 202110994859 A CN202110994859 A CN 202110994859A CN 113723618 B CN113723618 B CN 113723618B
Authority
CN
China
Prior art keywords
calculation mode
sample
shap
value
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110994859.9A
Other languages
English (en)
Other versions
CN113723618A (zh
Inventor
张燕
杨一帆
唐剑飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Xinghuan Intelligent Technology Co ltd
Original Assignee
Nanjing Xinghuan Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Xinghuan Intelligent Technology Co ltd filed Critical Nanjing Xinghuan Intelligent Technology Co ltd
Priority to CN202110994859.9A priority Critical patent/CN113723618B/zh
Publication of CN113723618A publication Critical patent/CN113723618A/zh
Application granted granted Critical
Publication of CN113723618B publication Critical patent/CN113723618B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

本发明实施例公开了一种SHAP的优化方法、设备及介质。其中,方法包括:基于第一目标计算方式计算SHAP基准值;根据采样样本数量生成掩码权重值;基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本;根据训练压缩样本和待解释样本生成采样样本;基于第三目标计算方式计算采样样本的模型预测结果;基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。本发明实施例的技术方案能够降低模型解释的计算量,提升模型解释的计算效率。

Description

一种SHAP的优化方法、设备及介质
技术领域
本发明实施例涉及人工智能技术领域,尤其涉及一种SHAP的优化方法、设备及介质。
背景技术
随着人工智能的发展,机器学习的应用也越来越广泛。一些简单模型(线性模型等)因易于解释以及性能高的特点受到青睐,但是简单模型的精度有限,使得在具有高精度要求的应用场景中复杂模型越来越受欢迎,而复杂模型大部分属于黑盒模型,具有不透明、非直观以及难以理解的特点。基于复杂模型的上述特点使得复杂模型存在精度和可解释性之间的紧张关系。正确解释复杂模型的输出结果可以便于技术人员理解,还可以建立模型使用者的信任,同时还能够反向指导模型优化,由此可见正确解释复杂模型的输出结果至关重要。
SHAP(SHapley Additiveex Planations,沙普利可加性模型解释方法)作为特征重要性的统一量度方法,成为当前通用的模型的解释方法,但是SHAP主要通过对大量训练样本进行单机计算实现对模型的解释,而SHAP的计算量与训练样本成线性增长关系,与训练样本的特征维度成指数增长,因此通过SHAP对模型进行解释时存在计算量大,计算效率低的问题。
发明内容
本发明实施例提供一种SHAP的优化方法、设备及介质,能够降低模型解释的计算量,提升模型解释的计算效率。
第一方面,本发明实施例提供了一种SHAP的优化方法,包括:
基于第一目标计算方式计算SHAP基准值;
根据采样样本数量生成掩码权重值;
基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本;
根据训练压缩样本和待解释样本生成采样样本;
基于第三目标计算方式计算采样样本的模型预测结果;
基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。
第二方面,本发明实施例还提供一种SHAP的优化方法的装置,包括:
SHAP基准值计算模块,用于基于第一目标计算方式计算SHAP基准值;
掩码权重值生成模块,用于根据采样样本数量生成掩码权重值;
训练压缩样本获取模块,用于基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本;
采样样本生成模块,用于根据训练压缩样本和待解释样本生成采样样本;
模型预测结果的计算模块,用于基于第三目标计算方式计算采样样本的模型预测结果;
SHAP结果值确定模块,用于基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。
第三方面,本发明实施例还提供了一种计算机设备,包括处理器和存储器,存储器用于存储指令,当指令执行时使得处理器执行以下操作:
基于第一目标计算方式计算SHAP基准值;
根据采样样本数量生成掩码权重值;
基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本;
根据训练压缩样本和待解释样本生成采样样本;
基于第三目标计算方式计算采样样本的模型预测结果;
基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。
第四方面,本发明实施例还提供了一种存储介质,存储介质用于存储指令,指令用于执行:
基于第一目标计算方式计算SHAP基准值;
根据采样样本数量生成掩码权重值;
基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本;
根据训练压缩样本和待解释样本生成采样样本;
基于第三目标计算方式计算采样样本的模型预测结果;
基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。
本实施例的技术方案,通过基于第一目标计算方式计算SHAP基准值,进而根据采样样本数量生成掩码权重值,进一步基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本。在得到训练压缩样本之后,根据训练压缩样本和待解释样本生成采样样本,并基于第三目标计算方式计算采样样本的模型预测结果,进而基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。在本方案中,对训练样本集进行压缩处理,可以降低训练样本集的数据量,因此通过训练压缩样本和待解释样本生成采样样本可以有效降低采样样本的数据量。由于SHAP结果值计算时需要确定采样样本的模型预测结果,当采样样本数据量变小时模型预测结果的计算量也会变小,使得SHAP结果值的计算量也越小,而SHAP结果值可以用于对模型解释,因此对训练样本进行压缩可以降低模型解释的计算量。此外,第一目标计算方式、第二目标计算方式、第三目标计算方式以及第四目标计算方式可以包括单机计算方式之外的计算方式,可以使SHAP结果值的计算方式更具多样性,利用单机计算方式之外的计算方式可以加快SHAP结果值的计算速率,从而提高模型解释的计算效率,解决了现有技术中通过SHAP对模型进行解释时存在的计算量大,计算效率低的问题,能够降低模型解释的计算量,提升模型解释的计算效率。
附图说明
图1是本发明实施例一提供的一种SHAP的优化方法的流程图;
图2是本发明实施例二提供的一种SHAP的优化方法的流程图;
图3是本发明实施例三提供的一种单机计算方式计算SHAP结果值的示意图;
图4是本发明实施例三提供的一种分布式计算方式计算SHAP结果值的示意图;
图5是本发明实施例四提供的一种SHAP的优化装置的示意图;
图6为本发明实施例五提供的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。
另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
本文使用的术语“第一目标计算方式”是SHAP基准值的计算方式。第一目标计算方式可以包括分布式计算方式和单机计算方式。SHAP基准值可以是多个训练样本的预测值的平均值。训练样本的预测值可以是已经训练好的能够对训练样本进行预测的模型对训练样本的预测值。
本文使用的术语“掩码权重值”是通过SHAP工具计算的掩码的权重值。例如,可以通过Kernel SHAP(一种SHAP工具)计算掩码权重值。
本文使用的术语“第二目标计算方式”是对训练样本进行压缩处理以及生成采样样本的计算方式。第二目标计算方式可以包括分布式计算方式和单机计算方式。
本文使用的术语“训练压缩样本”是训练样本进行压缩处理的结果。训练压缩样本的数据量小于训练样本的数据量。
本文使用的术语“待解释样本”是与训练样本关联的样本。其中,待解释样本和训练样本属于同类样本。例如,待解释样本和训练样本可以是包括花朵的图片。本文对待解释样本和训练样本的具体样本类型不作限定。
本文使用的术语“采样样本”是由训练压缩样本和待解释样本构成的样本。
本文使用的术语“第三目标计算方式”是采样样本的模型预测结果的计算方式。采样样本的模型预测结果可以是已经训练好的模型对采样样本的预测值。本文中计算SHAP基准值与计算采样样本的模型预测结果的模型相同。第三目标计算方式可以包括分布式计算方式和单机计算方式。
本文使用的术语“第四目标计算方式”是SHAP结果值的计算方式。第四目标计算方式可以包括分布式计算方式和单机计算方式。SHAP结果值可以是待解释样本的全部特征的SHAP值。SHAP值可以用于表征特征在预测结果中的贡献。
本文使用的术语“第一计算方式评估阈值”是根据计算速度需求确定的数值,用于确定第一目标计算方式。
本文使用的术语“训练样本的数据量”是训练样本占用的字节数。
本文使用的术语“训练样本的推理预测时间”是已训练好的模型对训练样本进行预测推理的时间。
本文使用的术语“节点数量”是集群中机器节点的总数。
本文使用的术语“第一计算方式评估值”是在不同计算方式下计算SHAP基准值耗时的比值,用于与第一计算方式评估阈值进行比较以确定第一目标计算方式。
本文使用的术语“训练样本子集”是由至少一个训练样本组成的集合,所有训练样本子集组成训练样本集。训练样本集可以包括全部训练样本。
本文使用的术语“训练样本子集的模型预测结果”是训练样本子集中训练样本的预测值的平均值。
本文使用的术语“预设置信度数据”是根据模型输出结果的精度要求预先设置的置信度。
本文使用的术语“特征维度数据”是待解释样本的特征维度的数量。
本文使用的术语“第二计算方式评估阈值”是根据计算速度需求确定的数值,用于确定第二目标计算方式。
本文使用的术语“预设压缩样本数量”是预先设置数值,用于表征训练样本进行压缩后剩余训练样本的数量。
本文使用的术语“训练样本的压缩时间”是对训练样本进行压缩处理的时间。
本文使用的术语“采样样本的生成时间”是生成采样样本所需的时间。
本文使用的术语“目标数量数据的洗牌耗时”是对目标数量数据进行洗牌的时间。例如,目标数量数据的洗牌耗时可以是对100条数据进行洗牌的时间。本文对洗牌数据的具体数量不作限定。
本文使用的术语“第二计算方式评估值”是在不同计算方式下对训练样本压缩以及生成采样样本耗时的比值,用于与第二计算方式评估阈值进行比较以确定第二目标计算方式。
本文使用的术语“训练样本聚类”是训练样本进行聚类处理的结果。一个训练样本聚类中可以包括至少一个训练样本。
本文使用的术语“第四计算方式评估阈值”是根据计算速度需求确定的数值,用于确定第四目标计算方式。
本文使用的术语“标签数量”是训练样本的预测值对应的标签总数。
本文使用的术语“第四计算方式评估值”是在不同计算方式下计算SHAP结果值耗时的比值,用于与第四计算方式评估阈值进行比较以确定第四目标计算方式。
为了便于理解,将本发明实施例的主要发明构思进行简述。
现有技术中会根据每个训练样本生成采样样本,并且以单机计算方式计算SHAP结果值。
由于训练样本的数量一般会比较大,大量的训练样本会生成数量庞大的采样样本。现有技术根据每个训练样本生成采样样本,不仅会增加采样样本的生成时间,还会增加计算采样样本的模型预测结果时间,最终影响SHAP结果值的计算效率。
发明人针对现有技术中通过SHAP对模型进行解释时存在的计算量大,计算效率低的问题,考虑是否通过一种方法在保证SHAP解释准确性的前提下,减少模型解释的计算量,提升模型解释的计算效率。
基于上述思考,发明人创造性的提出,基于第一目标计算方式计算SHAP基准值,进而根据采样样本数量生成掩码权重值,进一步基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本。在得到训练压缩样本之后,根据训练压缩样本和待解释样本生成采样样本,并基于第三目标计算方式计算采样样本的模型预测结果,进而基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。在本方案中,对训练样本集进行压缩处理,可以降低训练样本集的数据量,因此通过训练压缩样本和待解释样本生成采样样本可以有效降低采样样本的数据量。由于SHAP结果值计算时需要确定采样样本的模型预测结果,当采样样本数据量变小时模型预测结果的计算量也会变小,使得SHAP结果值的计算量也越小,而SHAP结果值可以用于对模型解释,因此对训练样本进行压缩可以降低模型解释的计算量。此外,第一目标计算方式、第二目标计算方式、第三目标计算方式以及第四目标计算方式可以包括单机计算方式之外的计算方式,可以使SHAP结果值的计算方式更具多样性,利用单机计算方式之外的计算方式可以加快SHAP结果值的计算速率,从而提高模型解释的计算效率,解决了现有技术中通过SHAP对模型进行解释时存在的计算量大,计算效率低的问题,能够降低模型解释的计算量,提升模型解释的计算效率。
实施例一
图1是本发明实施例一提供的一种SHAP的优化方法的流程图,本实施例可适用于为待解释样本快速计算SHAP结果值的情况,该方法可以由SHAP的优化装置来执行,该装置可以由软件和/或硬件的方式来实现,并一般可集成在计算机设备中。该计算机设备可以是终端设备,也可以是服务器设备等,本发明实施例并不对执行SHAP的优化方法的计算机设备的类型进行限定。相应的,如图1所示,该方法包括如下操作:
步骤110、基于第一目标计算方式计算SHAP基准值。
在本发明实施例中,可以首先确定计算SHAP基准值的第一目标计算方式,然后利用第一目标计算方式计算SHAP基准值。
步骤120、根据采样样本数量生成掩码权重值。
在本发明实施例中,可以先确定采样样本数量,进而生成与采样样本数量相同的掩码,并进一步计算与掩码对应的掩码权重值。
示例性的,如果采样样本数量为n,则可以根据Kernel SHAP从权重值高的情况开始构造n个由0和1构成的掩码,进而计算与掩码对应的掩码权重值。
步骤130、基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本。
在本发明实施例中,可以先确定对训练样本集进行压缩处理时采用的第二目标计算方式,进而利用第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本。需要说明的是,在对训练样本集进行压缩处理时,要保证训练压缩样本的多样性,因此在对训练样本集进行压缩时可以将重复的或者相似度较高的训练样本进行去重处理,或者根据预先设定的关键词对训练样本数据进行数据筛选处理,以使训练压缩样本在数据量较低的情况下具备数据多样性。
步骤140、根据训练压缩样本和待解释样本生成采样样本。
在本发明实施例中,可以根据生成掩码权重值的掩码、训练压缩样本以及待解释样本生成采样样本。
步骤150、基于第三目标计算方式计算采样样本的模型预测结果。
在本发明实施例中,在得到采样样本之后,可以进一步确定计算采样样本的模型预测结果的第三目标计算方式,进而通过第三目标计算方式计算采样样本的模型预测结果。
步骤160、基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。
在本发明实施例中,可以先确定计算SHAP结果值的第四目标计算方式,进而通过第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果构造损失函数,在损失函数收敛的情况下得到SHAP结果值。
本实施例的技术方案,通过基于第一目标计算方式计算SHAP基准值,进而根据采样样本数量生成掩码权重值,进一步基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本。在得到训练压缩样本之后,根据训练压缩样本和待解释样本生成采样样本,并基于第三目标计算方式计算采样样本的模型预测结果,进而基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。在本方案中,对训练样本集进行压缩处理,可以降低训练样本集的数据量,因此通过训练压缩样本和待解释样本生成采样样本可以有效降低采样样本的数据量。由于SHAP结果值计算时需要确定采样样本的模型预测结果,当采样样本数据量变小时模型预测结果的计算量也会变小,使得SHAP结果值的计算量也越小,而SHAP结果值可以用于对模型解释,因此对训练样本进行压缩可以降低模型解释的计算量。此外,第一目标计算方式、第二目标计算方式、第三目标计算方式以及第四目标计算方式可以包括单机计算方式之外的计算方式,可以使SHAP结果值的计算方式更具多样性,利用单机计算方式之外的计算方式可以加快SHAP结果值的计算速率,从而提高模型解释的计算效率,解决了现有技术中通过SHAP对模型进行解释时存在的计算量大,计算效率低的问题,能够降低模型解释的计算量,提升模型解释的计算效率。
实施例二
图2是本发明实施例二提供的一种SHAP的优化方法的流程图,本实施例以上述实施例为基础进行具体化,在本实施例中,给出了基于目标计算方式计算SHAP基准值,进而根据采样样本数量生成掩码权重值,从而基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本,以进一步根据训练压缩样本和待解释样本生成采样样本,从而根据第三目标计算方式计算采样样本的模型预测结果,进而基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值的具体的可选的实施方案。相应的,如图2所示,该方法包括如下操作:
步骤210、基于第一目标计算方式计算SHAP基准值。
示例性的,在对SHAP进行优化之前,可以先进行数据准备操作。例如,事先准备好训练样本、已经训练好的模型、待解释样本等数据,还需要准备好计算机设备的硬件基础属性数据。其中,硬件基础属性数据可以用于表征计算机设备的配置情况。硬件基础属性数据可以包括PCIE(Peripheral Component Interconnect Express,高速串行计算机扩展总线标准)总线传输效率、单机CPU(Central Processing Unit,中央处理器)核数、集群中机器节点的总数以及数据在节点间的传输速度等。
在本发明的一个可选实施例中,基于第一目标计算方式计算SHAP基准值,可以包括:获取第一计算方式评估阈值;根据单个训练样本的数据量、单个训练样本的推理预测时间、训练样本集中训练样本的数量、数据在节点间的传输速度以及节点数量计算第一计算方式评估值;在第一计算方式评估值大于第一计算方式评估阈值的情况下,将分布式计算方式确定为第一目标计算方式,并基于分布式计算方式计算SHAP基准值;在第一计算方式评估值小于等于第一计算方式评估阈值的情况下,将单机计算方式确定为第一目标计算方式,并基于单机计算方式计算SHAP基准值。
在本发明实施例中,可以根据计算速度需求确定第一计算方式评估阈值,进而获取单个训练样本的数据量、单个训练样本的推理预测时间、训练样本集中训练样本的数量、数据在节点间的传输速度以及节点数量,从而根据单个训练样本的数据量、单个训练样本的推理预测时间、训练样本集中训练样本的数量、数据在节点间的传输速度以及节点数量计算第一计算方式评估值。在得到第一计算方式评估值之后,将第一计算方式评估值与第一计算方式评估阈值进行比较,如果第一计算方式评估值大于第一计算方式评估阈值,则将分布式计算方式作为第一目标计算方式,并基于分布式计算方式通过训练好的模型计算SHAP基准值。如果第一计算方式评估值小于等于第一计算方式评估阈值,则将单机计算方式作为第一目标计算方式,并基于单机计算方式通过训练好的模型计算SHAP基准值。
在本发明的一个可选实施例中,基于分布式计算方式计算SHAP基准值,可以包括:将训练样本集划分为多个训练样本子集;计算各训练样本子集的模型预测结果;根据各训练样本子集的模型预测结果确定SHAP基准值。
在本发明实施例中,利用分布式计算方式计算SHAP基准值时,可以对训练样本集中的训练样本进行分组处理,从而可以将训练样本集划分为多个训练样本子集。在得到训练样本子集之后,可以利用已经训练好的模型计算训练样本子集中训练样本的模型预测结果,从而对与各训练样本子集对应的模型预测结果求均值,得到SHAP基准值。
步骤220、根据预设置信度数据或待解释样本的特征维度数据计算采样样本数量。
在本发明实施例中,可以首先根据模型输出结果的精度要求确定预设置信度数据,进而根据预设置信度数据计算采样样本数量,或者对待解释样本进行解析得到特征维度数据,进而根据特征维度数据计算采样样本数量。
示例性的,可以基于如下公式根据预设置信度数据计算采样样本数量:
Figure BDA0003233619610000091
其中,k表示采样样本数量,ua表示在预设置信度数据下的临界值,p表示样本比例,d表示误差率。当预设置信度数据为95%的情况下,ua为1.96,采用保守策略将p设置为0.5,并按照采样误差率不超过3%的要求计算采样样本数量,得到k为1067。
示例性的,可以基于如下公式根据特征维度数据计算采样样本数量:
k=210+2M
其中,M为待解释样本的特征维度的数量。例如,当待解释样本的特征维度的数量为3时,M等于3。
步骤230、生成采样样本数量的掩码,并根据掩码和待解释样本的特征维度数据生成掩码权重值。
示例性的,可以通过Kernel SHAP从权重最高的情况开始构造掩码(由全0和全1构成的掩码权重最高),直到构造的掩码数量达到采样样本数量。在得到掩码之后,可以进一步基于如下公式计算掩码权重值:
Figure BDA0003233619610000101
其中,M为待解释样本的特征维度的数量,|z'|为掩码z'中1的个数,πx(z')为掩码z'的掩码权重值。
步骤240、基于第二目标计算方式对训练样本集中的训练样本进行聚类处理,得到至少一个训练样本聚类。
在本发明实施例中,可以通过任意的聚类算法对训练样本集中的训练样本进行聚类处理,得到至少一个训练样本聚类。
在本发明的一个可选实施例中,基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本,可以包括:获取第二计算方式评估阈值;根据预设压缩样本数量、单个训练样本的压缩时间、单个采样样本的生成时间、在分布式计算方式下目标数量数据的洗牌耗时、训练样本集中训练样本的数量以及节点数量计算第二计算方式评估值;在第二计算方式评估值大于第二计算方式评估阈值的情况下,将分布式计算方式确定为第二目标计算方式,并基于分布式计算方式对训练样本集进行压缩处理;在第二计算方式评估值小于等于第二计算方式评估阈值的情况下,将单机计算方式确定为第二目标计算方式,并基于单机计算方式对训练样本集进行压缩处理。
在本发明实施例中,可以根据计算速度需求确定第二计算方式评估阈值,进而获取预设压缩样本数量、单机计算方式下单个训练样本的压缩时间、单个采样样本的生成时间、通用分布式计算方式下目标数量数据的洗牌耗时、训练样本集中训练样本的数量以及节点数量,进一步根据预设压缩样本数量、单个训练样本的压缩时间、单个采样样本的生成时间、在分布式计算方式下目标数量数据的洗牌耗时、训练样本集中训练样本的数量以及节点数量计算第二计算方式评估值。在得到第二计算方式评估值之后,将第二计算方式评估值与第二计算方式评估阈值进行比较,如果第二计算方式评估值大于第二计算方式评估阈值,则将分布式计算方式作为第二目标计算方式,并基于分布式计算方式对训练样本集进行压缩处理。如果第二计算方式评估值小于等于第二计算方式评估阈值,则将单机计算方式作为第二目标计算方式,并基于单机计算方式对训练样本集进行压缩处理。
步骤250、对各训练样本聚类进行抽样。
在本发明实施例中,可以基于第二目标计算方式对得到的各个训练样本聚类进行抽样处理。
步骤260、根据各训练样本聚类的抽样样本生成训练压缩样本。
在本发明实施例中,可以基于第二目标计算方式将从样本聚类中抽取的训练样本作为抽样样本,从而根据各训练样本聚类的抽样样本生成训练压缩样本。
步骤270、根据训练压缩样本和待解释样本生成采样样本。
步骤280、基于第三目标计算方式计算采样样本的模型预测结果。
在本发明的一个可选实施例中,基于第三目标计算方式计算采样样本的模型预测结果,可以包括:在第一计算方式评估值大于第一计算方式评估阈值的情况下,将分布式计算方式确定为第三目标计算方式,并基于分布式计算方式计算采样样本的模型预测结果;在第一计算方式评估值小于等于第一计算方式评估阈值的情况下,将单机计算方式确定为第三目标计算方式,并基于单机计算方式计算采样样本的模型预测结果。
在本发明实施例中,如果第一计算方式评估值大于第一计算方式评估阈值,则将分布式计算方式作为第三目标计算方式,并基于分布式计算方式通过训练好的模型计算采样样本的模型预测结果。如果第一计算方式评估值小于等于第一计算方式评估阈值,则将单机计算方式作为第三目标计算方式,并基于单机计算方式通过训练好的模型计算采样样本的模型预测结果。
步骤290、基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。
可选的,第一计算方式评估阈值、第二计算方式评估阈值、第三计算方式评估阈值以及第四计算方式评估阈值可以设置为同一数值,当然,第一计算方式评估阈值、第二计算方式评估阈值、第三计算方式评估阈值以及第四计算方式评估阈值也可以设置为不同数值。本发明实施例对第一计算方式评估阈值、第二计算方式评估阈值、第三计算方式评估阈值以及第四计算方式评估阈值的具体数值不作限定。
在本发明的一个可选实施例中,基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值,可以包括:获取第四计算方式评估阈值;获取在一个标签下待解释样本全部特征的SHAP值计算耗时数据、SHAP值数据量、标签数量、节点数量、数据在节点间的传输速度以及采样样本数量计算第四计算方式评估值;在第四计算方式评估值大于第四计算方式评估阈值的情况下,将分布式计算方式确定为第四目标计算方式,并基于分布式计算方式根据SHAP基准值、采样样本的模型预测结果以及掩码权重值确定SHAP结果值;在第四计算方式评估值小于等于第四计算方式评估阈值的情况下,将单机计算方式确定为第四目标计算方式,并基于单机计算方式根据SHAP基准值、采样样本的模型预测结果以及掩码权重值确定SHAP结果值。
在本发明实施例中,可以根据计算速度需求确定第四目标计算方式,进而获取在单机计算方式下计算一个标签下待解释样本全部特征的SHAP值耗时数据、SHAP值数据量、标签数量、节点数量、数据在节点间的传输速度以及采样样本数量计算第四计算方式评估值,并根据上述数据计算第四计算方式评估值。在得到第四计算方式评估值之后,可以将第四计算方式评估值与第四计算方式评估阈值进行比较,如果第四计算方式评估值大于第四计算方式评估阈值,将分布式计算方式作为第四目标计算方式,并基于分布式计算方式根据SHAP基准值、采样样本的模型预测结果以及掩码权重值确定SHAP结果值。如果第四计算方式评估值小于等于第四计算方式评估阈值,则将单机计算方式作为第四目标计算方式,并基于分布式计算方式根据SHAP基准值、采样样本的模型预测结果以及掩码权重值确定SHAP结果值。
本实施例的技术方案,基于第一目标计算方式计算SHAP基准值,进而根据预设置信度数据或待解释样本的特征维度数据计算采样样本数量,从而生成采样样本数量的掩码,并根据掩码和待解释样本的特征维度数据生成掩码权重值。在得到掩码权重值之后,基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本,进而根据训练压缩样本和待解释样本生成采样样本,并基于第三目标计算方式计算采样样本的模型预测结果,从而基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。在本方案中,对训练样本集进行压缩处理,可以降低训练样本集的数据量,因此通过训练压缩样本和待解释样本生成采样样本可以有效降低采样样本的数据量。由于SHAP结果值计算时需要确定采样样本的模型预测结果,当采样样本数据量变小时模型预测结果的计算量也会变小,使得SHAP结果值的计算量也越小,而SHAP结果值可以用于对模型解释,因此对训练样本进行压缩可以降低模型解释的计算量。此外,第一目标计算方式、第二目标计算方式、第三目标计算方式以及第四目标计算方式可以包括单机计算方式之外的计算方式,可以使SHAP结果值的计算方式更具多样性,利用单机计算方式之外的计算方式可以加快SHAP结果值的计算速率,从而提高模型解释的计算效率,解决了现有技术中通过SHAP对模型进行解释时存在的计算量大,计算效率低的问题,能够降低模型解释的计算量,提升模型解释的计算效率。
需要说明的是,以上各实施例中各技术特征之间的任意排列组合也属于本发明的保护范围。
实施例三
本发明实施例三提供一种SHAP的优化方法的可选实施例,其具体实施方式可以参见下述实施例。其中,与上述实施例相同或者相应的技术术语在此不再赘述。
本实施例的方法具体包括如下步骤:
1、获取第一计算方式评估阈值。
示例性的,为了表述方便可以用τ1表示第一计算方式评估阈值。
2、根据单个训练样本的数据量、单个训练样本的推理预测时间、训练样本集中训练样本的数量、数据在节点间的传输速度以及节点数量计算第一计算方式评估值。
可选的,可以基于如下公式计算第一计算方式评估值:
CMB_bv=(TP×n/c+Df×v×n/c)/(TP×n)
其中,CMB_bv表示第一计算方式评估值,TP表示单个训练样本的推理预测时间,c为节点数量,n为训练样本集中训练样本的数量,Df表示单个训练样本的数据量,v表示数据在节点间的传输速度。Df×v表示训练样本的预测值在节点间的传输时间,可以用Tt表示。
3、在第一计算方式评估值大于第一计算方式评估阈值的情况下,将分布式计算方式确定为第一目标计算方式,并基于分布式计算方式计算SHAP基准值。
以上述公式为例继续说明,在CMB_bv1的情况下,基于如下公式计算SHAP基准值:
Figure BDA0003233619610000131
其中,
Figure BDA0003233619610000132
表示SHAP基准值,
Figure BDA0003233619610000133
表示第i个训练样本的预测值。
4、在第一计算方式评估值小于等于第一计算方式评估阈值的情况下,将单机计算方式确定为第一目标计算方式,并基于单机计算方式计算SHAP基准值。
以上述公式为例继续说明,在CMB_bv≤τ1的情况下,基于如下公式计算SHAP基准值:
Figure BDA0003233619610000141
其中,
Figure BDA0003233619610000142
表示SHAP基准值,
Figure BDA0003233619610000145
表示第i个训练样本的预测值。在计算测试值的同时还可以得到标签数量L。
示例性的,假设
Figure BDA0003233619610000144
预测值中的0.2表示训练样本为A的概率为0.2,预测值中的0.1表示训练样本为B的概率为0.1,预测值中的0.7表示训练样本为C的概率为0.7。其中,A、B和C表示标签,在本例中标签数量L为3。
5、根据采样样本数量生成掩码权重值。
其中,掩码权重值用πx(z')表示。
6、获取第二计算方式评估阈值。
示例性的,为了表述方便可以用τ2表示第二计算方式评估阈值。
7、根据预设压缩样本数量、单个训练样本的压缩时间、单个采样样本的生成时间、在分布式计算方式下目标数量数据的洗牌耗时、训练样本集中训练样本的数量以及节点数量计算第二计算方式评估值。
可选的,可以基于如下公式计算第二计算方式评估值:
CMB_gs=(Tc×n/c+Tg×n'/c+Ts×n/100)/(Tc×n+Tg×n')
其中,CMB_gs表示第二计算方式评估值,Tc表示单机计算方式下LSH(LocalitySensitive Hashing,局部敏感哈希)算法对单个训练样本的压缩时间。Tg表示单个采样样本的生成时间,Ts表示在分布式计算方式下百条数据的洗牌耗时。n'表示预设压缩样本数量,n表示训练样本集中训练样本的数量,c表示节点数量。
8、在第二计算方式评估值大于第二计算方式评估阈值的情况下,将分布式计算方式确定为第二目标计算方式,并基于分布式计算方式对训练样本集进行压缩处理。
以上述公式为例继续说明,在CMB_gs2的情况下,采用分布式计算方式对训练样本集进行压缩处理。
9、在第二计算方式评估值小于等于第二计算方式评估阈值的情况下,将单机计算方式确定为第二目标计算方式,并基于单机计算方式对训练样本集进行压缩处理。
相应的,在CMB_gs≤τ2的情况下,采用单机计算方式对训练样本集进行压缩处理。
10、根据训练压缩样本和待解释样本生成采样样本。
可选的,可以根据第二目标计算方式生成采样样本数量的掩码,将掩码中1的位置用待解释样本相同位置的数据进行替换,并将掩码中0的位置用待解释样本相同位置的数据进行替换。示例性的,假设当前掩码为100,待解释样本为111,训练样本分别为234和123,掩码第一个位置的1用待解释样本第一位数据1替换,掩码中第二位数据0用训练样本的3和2替换。掩码中第三位数据0用训练样本的4和3替换,最终得到的采样样本为134和123。
11、在第一计算方式评估值大于第一计算方式评估阈值的情况下,将分布式计算方式确定为第三目标计算方式,并基于分布式计算方式计算采样样本的模型预测结果。
可选的,可以利用已经训练好的模型计算采样样本的模型预测结果,模型的预测结果可以用f(hx(z'))表示。
12、在第一计算方式评估值小于等于第一计算方式评估阈值的情况下,将单机计算方式确定为第三目标计算方式,并基于单机计算方式计算采样样本的模型预测结果。
13、获取第四计算方式评估阈值。
示例性的,为了表述方便可以用τ3表示第四计算方式评估阈值。
14、获取在一个标签下待解释样本全部特征的SHAP值计算耗时数据、SHAP值数据量、标签数量、节点数量、数据在节点间的传输速度以及采样样本数量计算第四计算方式评估值。
可选的,可以基于如下公式计算第四计算方式评估值:
CME_SHAP=(Tf×k×L/c+Dv×v×L/c)/(Tf×k×L)
其中,CME_SHAP表示第四计算方式评估值,Tf表示在一个标签下待解释样本全部特征的SHAP值计算耗时数据,Dv表示SHAP值数据量,L表示标签数量,c表示节点数量,v表示数据在节点间的传输速度,k表示采样样本数量。
15、在第四计算方式评估值大于第四计算方式评估阈值的情况下,将分布式计算方式确定为第四目标计算方式,并基于分布式计算方式根据SHAP基准值、采样样本的模型预测结果以及掩码权重值确定SHAP结果值。
相应的,在CME_SHAP3的情况下,基于分布式计算方式根据SHAP基准值、采样样本的模型预测结果以及掩码权重值确定SHAP结果值,包括:
基于如下公式计算SHAP结果值:
Figure BDA0003233619610000151
其中,
Figure BDA0003233619610000161
g(z′)为解释模型,πx(z')为掩码权重值f(hx(z'))为采样样本的模型预测结果,L()为损失函数,z′i表示掩码z'第i个特征对应的值(0或1),M为待解释样本的特征维度的数量。
16、在第四计算方式评估值小于等于第四计算方式评估阈值的情况下,将单机计算方式确定为第四目标计算方式,并基于单机计算方式根据SHAP基准值、采样样本的模型预测结果以及掩码权重值确定SHAP结果值。
相应的,在CME_SHAP≤τ3的情况下,基于步骤15的公式计算SHAP结果值。
图3是本发明实施例三提供的一种单机计算方式计算SHAP结果值的示意图,如图3所示,采用单机计算方式计算SHAP结果值时,需要将待解释样本、训练样本集以及已经训练好的模型输入至单机设备(计算机设备等),单机设备计算SHAP基准值,进而构造掩码并计算与掩码对应的掩码权重值。在得到SHAP基准值和掩码权重值之后,根据训练样本集和掩码生成采样样本,利用已经训练好的模型计算采样样本的模型预测结果,最终基于单机计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。
图4是本发明实施例三提供的一种分布式计算方式计算SHAP结果值的示意图,如图4所示,当采用分布式计算方式计算SHAP结果值时,可以先对训练样本集进行分组处理,从而可以将训练样本集中的训练样本划分为n个训练样本子集。在得到训练样本子集之后,可以将一个训练样本子集、待解释样本以及已经训练好的模型输入至一个计算机设备,一个计算机设备相当于一个节点。例如,训练样本子集1、待解释样本以及已经训练好的模型输入的计算机设备1,…训练样本子集n、待解释样本以及已经训练好的模型输入的计算机设备n。不同计算机设备根据输入至本机的训练样本子集、待解释样本以及已经训练好的模型计算相应训练样本子集的SHAP基准值。将不同节点的训练样本子集的SHAP基准值求均值得到SHAP基准值。在得到SHAP基准值之后,计算采样样本数量,并根据采样样本数量生成掩码权重值,进而在不同计算机设备上对训练样本子集进行压缩处理,根据训练样本子集的压缩结果生成采样样本,进而根据已经训练好的模型计算采样样本的模型预测结果,进一步计算全部训练样本子集的压缩结果的平均值,将全部训练样本子集的压缩结果的平均值作为采样样本的模型预测结果。在得到采样样本的模型预测结果之后,不同计算机设备计算不同标签下待解释样本的SHAP结果值。例如,计算机设备1计算标签1下待解释样本的SHAP结果值,…,计算机设备n计算标签n下待解释样本的SHAP结果值,从而获得全部标签下的SHAP结果值。
实施例四
图5是本发明实施例四提供的一种SHAP的优化装置的示意图,如图5所示,所述装置包括:SHAP基准值计算模块310、掩码权重值生成模块320、训练压缩样本获取模块330、采样样本生成模块340、模型预测结果的计算模块350以及SHAP结果值确定模块360,其中:
SHAP基准值计算模块310,用于基于第一目标计算方式计算SHAP基准值;
掩码权重值生成模块320,用于根据采样样本数量生成掩码权重值;
训练压缩样本获取模块330,用于基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本;
采样样本生成模块340,用于根据训练压缩样本和待解释样本生成采样样本;
模型预测结果的计算模块350,用于基于第三目标计算方式计算采样样本的模型预测结果;
SHAP结果值确定模块360,用于基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。
本实施例的技术方案,通过基于第一目标计算方式计算SHAP基准值,进而根据采样样本数量生成掩码权重值,进一步基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本。在得到训练压缩样本之后,根据训练压缩样本和待解释样本生成采样样本,并基于第三目标计算方式计算采样样本的模型预测结果,进而基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。在本方案中,对训练样本集进行压缩处理,可以降低训练样本集的数据量,因此通过训练压缩样本和待解释样本生成采样样本可以有效降低采样样本的数据量。由于SHAP结果值计算时需要确定采样样本的模型预测结果,当采样样本数据量变小时模型预测结果的计算量也会变小,使得SHAP结果值的计算量也越小,而SHAP结果值可以用于对模型解释,因此对训练样本进行压缩可以降低模型解释的计算量。此外,第一目标计算方式、第二目标计算方式、第三目标计算方式以及第四目标计算方式可以包括单机计算方式之外的计算方式,可以使SHAP结果值的计算方式更具多样性,利用单机计算方式之外的计算方式可以加快SHAP结果值的计算速率,从而提高模型解释的计算效率,解决了现有技术中通过SHAP对模型进行解释时存在的计算量大,计算效率低的问题,能够降低模型解释的计算量,提升模型解释的计算效率。
可选的,SHAP基准值计算模块310,具体用于:获取第一计算方式评估阈值;根据单个训练样本的数据量、单个所述训练样本的推理预测时间、所述训练样本集中所述训练样本的数量、数据在节点间的传输速度以及节点数量计算第一计算方式评估值;在所述第一计算方式评估值大于所述第一计算方式评估阈值的情况下,将分布式计算方式确定为所述第一目标计算方式,并基于所述分布式计算方式计算SHAP基准值;在所述第一计算方式评估值小于等于所述第一计算方式评估阈值的情况下,将单机计算方式确定为所述第一目标计算方式,并基于所述单机计算方式计算SHAP基准值。
可选的,SHAP基准值计算模块310,具体用于:将所述训练样本集划分为多个训练样本子集;计算各所述训练样本子集的模型预测结果;根据各所述训练样本子集的模型预测结果确定所述SHAP基准值。
可选的,掩码权重值生成模块320,具体用于:根据预设置信度数据或所述待解释样本的特征维度数据计算所述采样样本数量;生成所述采样样本数量的掩码,并根据所述掩码和所述待解释样本的特征维度数据生成所述掩码权重值。
可选的,训练压缩样本获取模块330,具体用于:获取第二计算方式评估阈值;根据预设压缩样本数量、单个训练样本的压缩时间、单个所述采样样本的生成时间、在分布式计算方式下目标数量数据的洗牌耗时、所述训练样本集中所述训练样本的数量以及节点数量计算第二计算方式评估值;在所述第二计算方式评估值大于所述第二计算方式评估阈值的情况下,将分布式计算方式确定为所述第二目标计算方式,并基于所述分布式计算方式对所述训练样本集进行压缩处理;在所述第二计算方式评估值小于等于所述第二计算方式评估阈值的情况下,将单机计算方式确定为所述第二目标计算方式,并基于所述单机计算方式对所述训练样本集进行压缩处理。
可选的,训练压缩样本获取模块330,具体用于:对所述训练样本集中的训练样本进行聚类处理,得到至少一个训练样本聚类;对各所述训练样本聚类进行抽样;根据各所述训练样本聚类的抽样样本生成所述训练压缩样本。
可选的,模型预测结果的计算模块350,具体用于:在所述第一计算方式评估值大于所述第一计算方式评估阈值的情况下,将分布式计算方式确定为所述第三目标计算方式,并基于所述分布式计算方式计算所述采样样本的模型预测结果;在所述第一计算方式评估值小于等于所述第一计算方式评估阈值的情况下,将单机计算方式确定为所述第三目标计算方式,并基于所述单机计算方式计算所述采样样本的模型预测结果。
可选的,SHAP结果值确定模块360,具体用于:获取第四计算方式评估阈值;获取在一个标签下所述待解释样本全部特征的SHAP值计算耗时数据、SHAP值数据量、标签数量、节点数量、数据在节点间的传输速度以及所述采样样本数量计算第四计算方式评估值;在所述第四计算方式评估值大于所述第四计算方式评估阈值的情况下,将分布式计算方式确定为所述第四目标计算方式,并基于所述分布式计算方式根据所述SHAP基准值、所述采样样本的模型预测结果以及所述掩码权重值确定SHAP结果值;在所述第四计算方式评估值小于等于所述第四计算方式评估阈值的情况下,将单机计算方式确定为所述第四目标计算方式,并基于所述单机计算方式根据所述SHAP基准值、所述采样样本的模型预测结果以及所述掩码权重值确定SHAP结果值。。
上述SHAP的优化装置可执行本发明任意实施例所提供的SHAP的优化方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意实施例提供的SHAP的优化方法。
由于上述所介绍的SHAP的优化装置为可以执行本发明实施例中的SHAP的优化方法的装置,故而基于本发明实施例中所介绍的SHAP的优化方法,本领域所属技术人员能够了解本实施例的SHAP的优化装置的具体实施方式以及其各种变化形式,所以在此对于该SHAP的优化装置如何实现本发明实施例中的SHAP的优化方法不再详细介绍。只要本领域所属技术人员实施本发明实施例中SHAP的优化方法所采用的装置,都属于本申请所欲保护的范围。
实施例五
图6为本发明实施例五提供的一种计算机设备的结构示意图。图6示出了适于用来实现本发明实施方式的计算机设备412的框图。图6显示的计算机设备412仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算机设备412以通用计算设备的形式表现。计算机设备412的组件可以包括但不限于:一个或者多个处理器416,存储装置428,连接不同系统组件(包括存储装置428和处理器416)的总线418。
总线418表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
计算机设备412典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备412访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置428可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)430和/或高速缓存存储器432。计算机设备412可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统434可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如只读光盘(Compact Disc-Read Only Memory,CD-ROM)、数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线418相连。存储装置428可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块426的程序436,可以存储在例如存储装置428中,这样的程序模块426包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块426通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备412也可以与一个或多个外部设备414(例如键盘、指向设备、摄像头、显示器424等)通信,还可与一个或者多个使得用户能与该计算机设备412交互的设备通信,和/或与使得该计算机设备412能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(Input/Output,I/O)接口422进行。并且,计算机设备412还可以通过网络适配器420与一个或者多个网络(例如局域网(Local Area Network,LAN),广域网Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器420通过总线418与计算机设备412的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备412使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arraysof Independent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器416通过运行存储在存储装置428中的指令,从而执行各种功能应用以及数据处理,例如执行以下操作:基于第一目标计算方式计算SHAP基准值;根据采样样本数量生成掩码权重值;基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本;根据训练压缩样本和待解释样本生成采样样本;基于第三目标计算方式计算采样样本的模型预测结果;基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。
在上述各实施例的基础上,处理器416是设置为通过以下方式计算SHAP基准值:获取第一计算方式评估阈值;根据单个训练样本的数据量、单个所述训练样本的推理预测时间、所述训练样本集中所述训练样本的数量、数据在节点间的传输速度以及节点数量计算第一计算方式评估值;在所述第一计算方式评估值大于所述第一计算方式评估阈值的情况下,将分布式计算方式确定为所述第一目标计算方式,并基于所述分布式计算方式计算SHAP基准值;在所述第一计算方式评估值小于等于所述第一计算方式评估阈值的情况下,将单机计算方式确定为所述第一目标计算方式,并基于所述单机计算方式计算SHAP基准值。
在上述各实施例的基础上,处理器416是设置为通过以下方式计算SHAP基准值:将所述训练样本集划分为多个训练样本子集;通过至少两个节点计算各所述训练样本子集的模型预测值;根据各所述训练样本子集的模型预测值确定所述SHAP基准值。
在上述各实施例的基础上,处理器416是设置为通过以下方式生成掩码权重值:根据预设置信度数据或所述待解释样本的特征维度数据计算所述采样样本数量;生成所述采样样本数量的掩码,并根据所述掩码和所述待解释样本的特征维度数据生成所述掩码权重值。
在上述各实施例的基础上,处理器416是设置为通过以下方式得到训练压缩样本:获取第二计算方式评估阈值;根据预设压缩样本数量、单个训练样本的压缩时间、单个所述采样样本的生成时间、在分布式计算方式下目标数量数据的洗牌耗时、所述训练样本集中所述训练样本的数量以及节点数量计算第二计算方式评估值;在所述第二计算方式评估值大于所述第二计算方式评估阈值的情况下,将分布式计算方式确定为所述第二目标计算方式,并基于所述分布式计算方式对所述训练样本集进行压缩处理;在所述第二计算方式评估值小于等于所述第二计算方式评估阈值的情况下,将单机计算方式确定为所述第二目标计算方式,并基于所述单机计算方式对所述训练样本集进行压缩处理。
在上述各实施例的基础上,处理器416是设置为通过以下方式对所述训练样本集进行压缩处理:对所述训练样本进行聚类处理,得到至少一个训练样本聚类;对各所述训练样本集中的训练样本聚类进行抽样;根据各所述训练样本聚类的抽样样本生成所述训练压缩样本。
在上述各实施例的基础上,处理器416是设置为通过以下方式计算所述采样样本的模型预测结果:在所述第一计算方式评估值大于所述第一计算方式评估阈值的情况下,将分布式计算方式确定为所述第三目标计算方式,并基于所述分布式计算方式计算所述采样样本的模型预测结果;在所述第一计算方式评估值小于等于所述第一计算方式评估阈值的情况下,将单机计算方式确定为所述第三目标计算方式,并基于所述单机计算方式计算所述采样样本的模型预测结果。
在上述各实施例的基础上,处理器416是设置为通过以下方式确定SHAP结果值:获取第四计算方式评估阈值;获取在一个标签下所述待解释样本全部特征的SHAP值计算耗时数据、SHAP值数据量、标签数量、节点数量、数据在节点间的传输速度以及所述采样样本数量计算第四计算方式评估值;在所述第四计算方式评估值大于所述第四计算方式评估阈值的情况下,将分布式计算方式确定为所述第四目标计算方式,并基于所述分布式计算方式根据所述SHAP基准值、所述采样样本的模型预测结果以及所述掩码权重值确定SHAP结果值;在所述第四计算方式评估值小于等于所述第四计算方式评估阈值的情况下,将单机计算方式确定为所述第四目标计算方式,并基于所述单机计算方式根据所述SHAP基准值、所述采样样本的模型预测结果以及所述掩码权重值确定SHAP结果值。
本实施例的技术方案,通过基于第一目标计算方式计算SHAP基准值,进而根据采样样本数量生成掩码权重值,进一步基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本。在得到训练压缩样本之后,根据训练压缩样本和待解释样本生成采样样本,并基于第三目标计算方式计算采样样本的模型预测结果,进而基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。在本方案中,对训练样本集进行压缩处理,可以降低训练样本集的数据量,因此通过训练压缩样本和待解释样本生成采样样本可以有效降低采样样本的数据量。由于SHAP结果值计算时需要确定采样样本的模型预测结果,当采样样本数据量变小时模型预测结果的计算量也会变小,使得SHAP结果值的计算量也越小,而SHAP结果值可以用于对模型解释,因此对训练样本进行压缩可以降低模型解释的计算量。此外,第一目标计算方式、第二目标计算方式、第三目标计算方式以及第四目标计算方式可以包括单机计算方式之外的计算方式,可以使SHAP结果值的计算方式更具多样性,利用单机计算方式之外的计算方式可以加快SHAP结果值的计算速率,从而提高模型解释的计算效率,解决了现有技术中通过SHAP对模型进行解释时存在的计算量大,计算效率低的问题,能够降低模型解释的计算量,提升模型解释的计算效率。
实施例六
本发明实施例六还提供一种存储计算机程序的计算机存储介质,所述计算机程序在由计算机处理器执行时用于执行本发明上述实施例任一所述的SHAP的优化方法:基于第一目标计算方式计算SHAP基准值;根据采样样本数量生成掩码权重值;基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本;根据训练压缩样本和待解释样本生成采样样本;基于第三目标计算方式计算采样样本的模型预测结果;基于第四目标计算方式根据SHAP基准值、掩码权重值以及采样样本的模型预测结果确定SHAP结果值。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ReadOnly Memory,ROM)、可擦式可编程只读存储器((Erasable Programmable Read OnlyMemory,EPROM)或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、射频(Radio Frequency,RF)等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (15)

1.一种沙普利可加性模型解释方法SHAP的优化方法,其特征在于,包括:
基于第一目标计算方式计算SHAP基准值;
根据采样样本数量生成掩码权重值;
基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本;
根据所述训练压缩样本和待解释样本生成采样样本;
基于第三目标计算方式计算所述采样样本的模型预测结果;
基于第四目标计算方式根据所述SHAP基准值、所述掩码权重值以及所述采样样本的模型预测结果确定SHAP结果值;
所述基于第一目标计算方式计算SHAP基准值,包括:
获取第一计算方式评估阈值;
根据单个训练样本的数据量、单个所述训练样本的推理预测时间、所述训练样本集中所述训练样本的数量、数据在节点间的传输速度以及节点数量计算第一计算方式评估值;
在所述第一计算方式评估值大于所述第一计算方式评估阈值的情况下,将分布式计算方式确定为所述第一目标计算方式,并基于所述分布式计算方式计算SHAP基准值;
在所述第一计算方式评估值小于等于所述第一计算方式评估阈值的情况下,将单机计算方式确定为所述第一目标计算方式,并基于所述单机计算方式计算SHAP基准值。
2.根据权利要求1所述的方法,其特征在于,所述基于所述分布式计算方式计算SHAP基准值,包括:
将所述训练样本集划分为多个训练样本子集;
计算各所述训练样本子集的模型预测结果;
根据各所述训练样本子集的模型预测结果确定所述SHAP基准值。
3.根据权利要求1所述的方法,其特征在于,所述根据采样样本数量生成掩码权重值,包括:
根据预设置信度数据或所述待解释样本的特征维度数据计算所述采样样本数量;
生成所述采样样本数量的掩码,并根据所述掩码和所述待解释样本的特征维度数据生成所述掩码权重值。
4.根据权利要求1所述的方法,其特征在于,所述基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本,包括:
获取第二计算方式评估阈值;
根据预设压缩样本数量、单个训练样本的压缩时间、单个所述采样样本的生成时间、在分布式计算方式下目标数量数据的洗牌耗时、所述训练样本集中所述训练样本的数量以及节点数量计算第二计算方式评估值;
在所述第二计算方式评估值大于所述第二计算方式评估阈值的情况下,将分布式计算方式确定为所述第二目标计算方式,并基于所述分布式计算方式对所述训练样本集进行压缩处理;
在所述第二计算方式评估值小于等于所述第二计算方式评估阈值的情况下,将单机计算方式确定为所述第二目标计算方式,并基于所述单机计算方式对所述训练样本集进行压缩处理。
5.根据权利要求1-4任一所述的方法,其特征在于,所述对训练样本集进行压缩处理,包括:
对所述训练样本集中的训练样本进行聚类处理,得到至少一个训练样本聚类;
对各所述训练样本聚类进行抽样;
根据各所述训练样本聚类的抽样样本生成所述训练压缩样本。
6.根据权利要求1所述的方法,其特征在于,所述基于第三目标计算方式计算所述采样样本的模型预测结果,包括:
在所述第一计算方式评估值大于所述第一计算方式评估阈值的情况下,将分布式计算方式确定为所述第三目标计算方式,并基于所述分布式计算方式计算所述采样样本的模型预测结果;
在所述第一计算方式评估值小于等于所述第一计算方式评估阈值的情况下,将单机计算方式确定为所述第三目标计算方式,并基于所述单机计算方式计算所述采样样本的模型预测结果。
7.根据权利要求1所述的方法,其特征在于,所述基于第四目标计算方式根据所述SHAP基准值、所述掩码权重值以及所述采样样本的模型预测结果确定SHAP结果值,包括:
获取第四计算方式评估阈值;
获取在一个标签下所述待解释样本全部特征的SHAP值计算耗时数据、SHAP值数据量、标签数量、节点数量、数据在节点间的传输速度以及所述采样样本数量计算第四计算方式评估值;
在所述第四计算方式评估值大于所述第四计算方式评估阈值的情况下,将分布式计算方式确定为所述第四目标计算方式,并基于所述分布式计算方式根据所述SHAP基准值、所述采样样本的模型预测结果以及所述掩码权重值确定SHAP结果值;
在所述第四计算方式评估值小于等于所述第四计算方式评估阈值的情况下,将单机计算方式确定为所述第四目标计算方式,并基于所述单机计算方式根据所述SHAP基准值、所述采样样本的模型预测结果以及所述掩码权重值确定SHAP结果值。
8.一种计算机设备,包括处理器和存储器,所述存储器用于存储指令,当所述指令执行时使得所述处理器执行以下操作:
基于第一目标计算方式计算SHAP基准值;
根据采样样本数量生成掩码权重值;
基于第二目标计算方式对训练样本集进行压缩处理,得到训练压缩样本;
根据所述训练压缩样本和待解释样本生成采样样本;
基于第三目标计算方式计算所述采样样本的模型预测结果;
基于第四目标计算方式根据所述SHAP基准值、所述掩码权重值以及所述采样样本的模型预测结果确定SHAP结果值;
计算SHAP基准值,包括:
获取第一计算方式评估阈值;
根据单个训练样本的数据量、单个所述训练样本的推理预测时间、所述训练样本集中所述训练样本的数量、数据在节点间的传输速度以及节点数量计算第一计算方式评估值;
在所述第一计算方式评估值大于所述第一计算方式评估阈值的情况下,将分布式计算方式确定为所述第一目标计算方式,并基于所述分布式计算方式计算SHAP基准值;
在所述第一计算方式评估值小于等于所述第一计算方式评估阈值的情况下,将单机计算方式确定为所述第一目标计算方式,并基于所述单机计算方式计算SHAP基准值。
9.根据权利要求8所述的计算机设备,其特征在于,所述处理器是设置为通过以下方式计算SHAP基准值:
将所述训练样本集划分为多个训练样本子集;
通过至少两个节点计算各所述训练样本子集的模型预测值;根据各所述训练样本子集的模型预测值确定所述SHAP基准值。
10.根据权利要求8所述的计算机设备,其特征在于,所述处理器是设置为通过以下方式生成掩码权重值:
根据预设置信度数据或所述待解释样本的特征维度数据计算所述采样样本数量;
生成所述采样样本数量的掩码,并根据所述掩码和所述待解释样本的特征维度数据生成所述掩码权重值。
11.根据权利要求8所述的计算机设备,其特征在于,所述处理器是设置为通过以下方式得到训练压缩样本:
获取第二计算方式评估阈值;
根据预设压缩样本数量、单个训练样本的压缩时间、单个所述采样样本的生成时间、在分布式计算方式下目标数量数据的洗牌耗时、所述训练样本集中所述训练样本的数量以及节点数量计算第二计算方式评估值;
在所述第二计算方式评估值大于所述第二计算方式评估阈值的情况下,将分布式计算方式确定为所述第二目标计算方式,并基于所述分布式计算方式对所述训练样本集进行压缩处理;
在所述第二计算方式评估值小于等于所述第二计算方式评估阈值的情况下,将单机计算方式确定为所述第二目标计算方式,并基于所述单机计算方式对所述训练样本集进行压缩处理。
12.根据权利要求8-11任一所述的计算机设备,其特征在于,所述处理器是设置为通过以下方式对训练样本集进行压缩处理:
对所述训练样本集中的训练样本进行聚类处理,得到至少一个训练样本聚类;
对各所述训练样本聚类进行抽样;
根据各所述训练样本聚类的抽样样本生成所述训练压缩样本。
13.根据权利要求8所述的计算机设备,其特征在于,所述处理器是设置为通过以下方式计算所述采样样本的模型预测结果:
在所述第一计算方式评估值大于所述第一计算方式评估阈值的情况下,将分布式计算方式确定为所述第三目标计算方式,并基于所述分布式计算方式计算所述采样样本的模型预测结果;
在所述第一计算方式评估值小于等于所述第一计算方式评估阈值的情况下,将单机计算方式确定为所述第三目标计算方式,并基于所述单机计算方式计算所述采样样本的模型预测结果。
14.根据权利要求8所述的计算机设备,其特征在于,所述处理器是设置为通过以下方式确定SHAP结果值:
获取第四计算方式评估阈值;
获取在一个标签下所述待解释样本全部特征的SHAP值计算耗时数据、SHAP值数据量、标签数量、节点数量、数据在节点间的传输速度以及所述采样样本数量计算第四计算方式评估值;
在所述第四计算方式评估值大于所述第四计算方式评估阈值的情况下,将分布式计算方式确定为所述第四目标计算方式,并基于所述分布式计算方式根据所述SHAP基准值、所述采样样本的模型预测结果以及所述掩码权重值确定SHAP结果值;
在所述第四计算方式评估值小于等于所述第四计算方式评估阈值的情况下,将单机计算方式确定为所述第四目标计算方式,并基于所述单机计算方式根据所述SHAP基准值、所述采样样本的模型预测结果以及所述掩码权重值确定SHAP结果值。
15.一种计算机存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的SHAP的优化方法。
CN202110994859.9A 2021-08-27 2021-08-27 一种shap的优化方法、设备及介质 Active CN113723618B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110994859.9A CN113723618B (zh) 2021-08-27 2021-08-27 一种shap的优化方法、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110994859.9A CN113723618B (zh) 2021-08-27 2021-08-27 一种shap的优化方法、设备及介质

Publications (2)

Publication Number Publication Date
CN113723618A CN113723618A (zh) 2021-11-30
CN113723618B true CN113723618B (zh) 2022-11-08

Family

ID=78678428

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110994859.9A Active CN113723618B (zh) 2021-08-27 2021-08-27 一种shap的优化方法、设备及介质

Country Status (1)

Country Link
CN (1) CN113723618B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115481694B (zh) * 2022-09-26 2023-09-05 南京星环智能科技有限公司 一种训练样本集的数据增强方法、装置、设备及存储介质
CN115953248B (zh) * 2023-03-01 2023-05-16 支付宝(杭州)信息技术有限公司 基于沙普利可加性解释的风控方法、装置、设备及介质
CN117235555B (zh) * 2023-10-17 2024-04-02 北京和兴创联健康科技有限公司 一种基于shap特征聚类技术的脓毒症分型方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335219A (zh) * 2014-07-08 2016-02-17 阿里巴巴集团控股有限公司 一种基于分布式的任务调度方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6481585B2 (ja) * 2015-10-20 2019-03-13 株式会社デンソー 並列化方法、並列化ツール、車載装置
CN108090032B (zh) * 2018-01-03 2021-03-23 第四范式(北京)技术有限公司 逻辑回归模型的可视化解释方法及装置
US11645581B2 (en) * 2019-08-13 2023-05-09 Fair Isaac Corporation Meaningfully explaining black-box machine learning models
CA3155102A1 (en) * 2019-10-19 2021-04-22 Behrouz Haji SOLEIMANI Systems and methods for machine learning interpretability
JP2023501523A (ja) * 2019-11-13 2023-01-18 アクタナ, インコーポレイテッド 説明可能人工知能ベースの販売最大限化決定モデル
US11727284B2 (en) * 2019-12-12 2023-08-15 Business Objects Software Ltd Interpretation of machine learning results using feature analysis
US20210192376A1 (en) * 2019-12-23 2021-06-24 Sap Se Automated, progressive explanations of machine learning results
CN111814117A (zh) * 2020-07-13 2020-10-23 深圳前海微众银行股份有限公司 模型解释方法、设备及可读存储介质
CN112784986A (zh) * 2021-02-08 2021-05-11 中国工商银行股份有限公司 深度学习计算结果的特征解释方法、装置、设备及介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335219A (zh) * 2014-07-08 2016-02-17 阿里巴巴集团控股有限公司 一种基于分布式的任务调度方法及系统

Also Published As

Publication number Publication date
CN113723618A (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN113723618B (zh) 一种shap的优化方法、设备及介质
CN112633419B (zh) 小样本学习方法、装置、电子设备和存储介质
CN110347873B (zh) 视频分类方法、装置、电子设备及存储介质
CN110852438B (zh) 模型生成方法和装置
CN110334209B (zh) 文本分类方法、装置、介质及电子设备
CN110728313B (zh) 一种用于意图分类识别的分类模型训练方法及装置
CN113361578B (zh) 图像处理模型的训练方法、装置、电子设备及存储介质
CN114298050A (zh) 模型的训练方法、实体关系抽取方法、装置、介质、设备
US20200082213A1 (en) Sample processing method and device
CN110781849A (zh) 一种图像处理方法、装置、设备及存储介质
CN112949433B (zh) 视频分类模型的生成方法、装置、设备和存储介质
CN113408070A (zh) 发动机参数的确定方法、装置、设备及存储介质
CN115186738B (zh) 模型训练方法、装置和存储介质
CN112906824B (zh) 车辆聚类方法、系统、设备及存储介质
CN115049003A (zh) 一种预训练模型微调方法、装置、设备和存储介质
CN113361621B (zh) 用于训练模型的方法和装置
CN114297022A (zh) 云环境异常检测方法、装置、电子设备和存储介质
CN109783745B (zh) 对页面进行个性化排版的方法、装置和计算机设备
CN113450764A (zh) 文本语音识别方法、装置、设备及存储介质
CN113033817A (zh) 基于隐空间的ood检测方法、装置、服务器及存储介质
CN111291862A (zh) 用于模型压缩的方法和装置
CN113743448B (zh) 模型训练数据获取方法、模型训练方法和装置
CN113869516B (zh) 知识图谱嵌入模型训练方法、装置、电子设备及介质
CN114372238B (zh) 一种分布式状态估计方法
CN113240565B (zh) 基于量化模型的目标识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant