CN111967581A - 分群模型的解释方法、装置、计算机设备和存储介质 - Google Patents
分群模型的解释方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111967581A CN111967581A CN202010785824.XA CN202010785824A CN111967581A CN 111967581 A CN111967581 A CN 111967581A CN 202010785824 A CN202010785824 A CN 202010785824A CN 111967581 A CN111967581 A CN 111967581A
- Authority
- CN
- China
- Prior art keywords
- clustering model
- target
- interpretation
- comparison
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000012549 training Methods 0.000 claims description 91
- 230000006870 function Effects 0.000 claims description 47
- 238000004590 computer program Methods 0.000 claims description 13
- 230000007774 longterm Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 7
- 230000002787 reinforcement Effects 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000010276 construction Methods 0.000 abstract description 3
- 230000036772 blood pressure Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 230000009471 action Effects 0.000 description 13
- 239000002220 antihypertensive agent Substances 0.000 description 13
- 239000003814 drug Substances 0.000 description 11
- 229940079593 drug Drugs 0.000 description 10
- 229940127088 antihypertensive drug Drugs 0.000 description 9
- 238000012795 verification Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000013136 deep learning model Methods 0.000 description 7
- 238000007689 inspection Methods 0.000 description 6
- 238000010200 validation analysis Methods 0.000 description 5
- 238000012163 sequencing technique Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 239000003638 chemical reducing agent Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008676 import Effects 0.000 description 3
- 238000004138 cluster model Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 206010020772 Hypertension Diseases 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 230000001631 hypertensive effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- BULVZWIRKLYCBC-UHFFFAOYSA-N phorate Chemical compound CCOP(=S)(OCC)SCSCC BULVZWIRKLYCBC-UHFFFAOYSA-N 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/10—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Public Health (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Chemical & Material Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medicinal Chemistry (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及人工智能领域,通过根据解释策略对目标分群模型和对照分群模型进行解释,提高了目标分群模型的准确性和可靠性。尤其涉及一种分群模型的解释方法、装置、计算机设备和存储介质,该方法包括:获取训练后的目标分群模型和训练后的对照分群模型;确定目标分群模型与对照分群模型对应的当前的解释策略;根据解释策略分别对目标分群模型和对照分群模型进行解释处理,得到目标分群模型对应的目标解释结果、对照分群模型对应的对照解释结果以及目标解释结果相对于对照解释结果的相对解释结果。此外,本申请还涉及区块链技术,目标分群模型和对照分群模型可存储于区块链中。本申请可适用于智慧医疗领域,从而进一步推动智慧城市的建设。
Description
技术领域
本申请涉及人工智能领域,尤其涉及一种分群模型的解释方法、装置、计算机设备和存储介质。
背景技术
随着人工智能技术的飞速发展,以深度学习为代表的人工智能技术在信息领域的应用,极大地提高了信息的利用效率和挖掘价值。在很多场景中,特别是在患者分群场景中,对深度学习模型的可解释性要求越来越高。
在现有技术中,使用深度学习模型对患者进行分群时,激进地采用专家决策都不曾采用的分群策略;出于安全性的考虑,得到的分群方案难以让使用者信服。而在对深度学习模型进行解释时,大多局限于解释模型本身,使得深度学习模型的解释不够准确和可靠,从而深度学习模型难以运用到实际场景中。
因此如何提高深度学习模型的准确性和可靠性成为亟需解决的问题。
发明内容
本申请提供了一种分群模型的解释方法、装置、计算机设备和存储介质,根据解释策略对目标分群模型和对照分群模型进行解释,得到目标解释结果相对于对照解释结果的相对解释结果,提高了目标分群模型的准确性和可靠性。
第一方面,本申请提供了一种分群模型的解释方法,所述方法包括:
获取训练后的目标分群模型和训练后的对照分群模型,其中,所述对照分群模型用于衡量所述目标分群模型的可解释性;
根据用户在预设的解释策略表中的选中操作,确定所述目标分群模型与所述对照分群模型对应的解释策略;
根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理,得到所述目标分群模型对应的目标解释结果、所述对照分群模型对应的对照解释结果以及所述目标解释结果相对于所述对照解释结果的相对解释结果。
第二方面,本申请还提供了一种分群模型的解释装置,所述装置包括:
模型获取模块,用于获取训练后的目标分群模型和训练后的对照分群模型,其中,所述对照分群模型用于衡量所述目标分群模型的可解释性;
解释策略确定模块,用于根据用户在预设的解释策略表中的选中操作,确定所述目标分群模型与所述对照分群模型对应的解释策略;
解释处理模块,用于根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理,得到所述目标分群模型对应的目标解释结果、所述对照分群模型对应的对照解释结果以及所述目标解释结果相对于所述对照解释结果的相对解释结果。
第三方面,本申请还提供了一种计算机设备,所述计算机设备包括存储器和处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现如上述的分群模型的解释方法。
第四方面,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上述的分群模型的解释方法。
本申请公开了一种分群模型的解释方法、装置、计算机设备和存储介质,通过获取训练后的目标分群模型和训练后的对照分群模型,可以提高后续对目标分群模型和对照分群模型进行解释的准确度;通过根据用户在预设的解释策略表中的选中操作,可以确定目标分群模型与对照分群模型对应的解释策略,后续可以根据解释策略对目标分群模型和对照分群模型进行解释;通过根据解释策略分别对目标分群模型和对照分群模型进行解释处理,可以得到目标分群模型对应的目标解释结果、对照分群模型对应的对照解释结果以及目标解释结果相对于对照解释结果的相对解释结果,提高了目标分群模型的准确性和可靠性。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的实施例提供的一种分群模型的解释方法的示意性流程图;
图2是本申请的实施例提供的训练分群模型的子步骤的示意性流程图;
图3是本申请的实施例提供的一种训练过程的示意图;
图4是本申请的实施例提供的对XGBoost模型进行训练的示意图;
图5是本申请实施例提供的一种解释策略表的示意性框图;
图6是本申请实施例提供的另一种解释策略表的示意性框图;
图7是图1中对目标分群模型和对照分群模型进行解释处理的子步骤的示意性框图;
图8是图7中对目标分群模型与对照分群模型分别进行全局解释的子步骤的示意性流程图;
图9是图7中对目标分群模型与对照分群模型分别进行局部解释的子步骤的示意性流程图;
图10为本申请实施例提供的一种分群模型的解释装置的示意性框图;
图11为本申请实施例提供的一种计算机设备的结构示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
本申请的实施例提供了一种分群模型的解释方法、装置、计算机设备和存储介质。其中,该分群模型的解释方法可以应用于服务器或终端中,实现根据解释策略对目标分群模型和对照分群模型进行解释,得到目标解释结果相对于对照解释结果的相对解释结果,提高了目标分群模型的准确性和可靠性。
其中,服务器可以为独立的服务器,也可以为服务器集群。终端可以是智能手机、平板电脑、笔记本电脑和台式电脑等电子设备。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
如图1所示,分群模型的解释方法包括步骤S10至步骤S30。
步骤S10、获取训练后的目标分群模型和训练后的对照分群模型,其中,所述对照分群模型用于衡量所述目标分群模型的可解释性。
需要说明的是,在本申请实施例中,通过对训练后的目标分群模型进行解释,得到目标分群模型对应的目标解释结果;同时对训练后的对照分群模型进行解释,得到训练后的对照分群模型对应的对照解释结果,并确定目标解释结果相对于对照解释结果的相对解释结果。通过相对解释结果,可以衡量目标分群模型相对于对照分群模型的可解释性,从而提高了目标分群模型的准确性和可靠性,使得目标分群模型更加令人信服,输出的分群方案更加准确和安全。
可以理解的是,可解释性包括模型可解释性和解释质量。其中,解释质量包括目标分群模型的说服力和有效性。通过模型可解释性,可以帮助用户更好地理解目标分群模型的行为;通过说服力,可以增加用户接受目标分群模型推荐的目标分群方案的概率;通过有效性,能够帮助用户根据概率选择是否使用目标分群方案。
示例性的,目标分群模型可以包括深度强化学习模型,对照分群模型可以包括但不限于卷积神经网络、深度神经网络以及循环神经网络等等。
示例性的,可以从服务器或终端的本地数据库中获取训练后的目标分群模型和训练后的对照分群模型,也可以从区块链节点中获取训练后的目标分群模型和训练后的对照分群模型。
具体地,在获取训练后的目标分群模型和训练后的对照分群模型之前,还可以对初始的目标分群模型和初始的对照分群模型进行训练,得到训练后的目标分群模型和训练后的对照分群模型。请参阅图2,分群模型的训练过程,具体可以包括以下步骤S101至步骤S105。
步骤S101、获取初始的第一分群模型和初始的第二分群模型,其中,所述初始的第一分群模型包括神经网络模型,所述初始的第二分群模型包括深度强化学习模型。
需要说明的是,初始的第一分群模型可以包括但不限于卷积神经网络、深度神经网络以及循环神经网络等等。在本申请实施例中,初始的第一分群模型可以是深度神经网络(Deep neural networks,DNN)模型,包括输入层、两个隐藏层和输出层。初始的第二分群模型可以包括深度强化学习(Deep Q Networks,DQN)模型。
需要说明的是,深度强化学习是一个反复迭代的过程,通过一定的策略(policy),针对状态(state)采取动作(action)后得到奖励(reward),再通过所获得的奖励(reward)来优化策略(policy)的学习过程。其中,policy是指在特定状态state下应该采取某个行为action,以使预期奖励reward最大。
步骤S102、获取预设数量的用户的长期随访信息,对所述长期随访信息进行分群标注得到训练样本。
示例性的,预设数量可以是N个,其中,N的值可以根据实际情况进行设定,具体数值在此不作限定。
示例性的,长期随访信息包括患者的基本信息、检验指标信息、用药史信息以及分群方案。患者可以包括但不限于高血压患者、糖尿病患者以及心脏病患者等等。
其中,基本信息可以包括但不限于患者的性别、年龄等信息。用药史信息是指用户曾经使用过的药物。需要说明的是,分群方案,可以理解为开药方案,每一种开药方案作为一个分群方案。
具体地,对长期随访信息进行分群标注得到训练样本。示例性的,若长期随访信息A中的分群方案为a,则对长期随访信息A标注分群方案a。可以理解的是,通过将长期随访信息作为训练样本输入模型中进行训练,模型输出预测分群方案;通过标注的分群方案,可以判断模型的损失函数值。
步骤S103、根据所述训练样本对所述初始的第一分群模型和所述初始的第二分群模型进行训练至收敛,得到训练后的第一分群模型和训练后的第二分群模型以及所述训练后的第一分群模型对应的第一分群方案和所述训练后的第二分群模型对应的第二分群方案。
请参阅图3,图3是本申请实施例提供的一种训练过程的示意图。具体地,根据训练样本对初始的第一分群模型进行训练至收敛,得到训练后的第一分群模型;具体的训练过程如下:将训练样本分成训练集和验证集,例如,训练集包括70%的训练样本,验证集包括30%的验证集;根据训练集对初始的第一分群模型进行n轮训练,得到每一轮训练集对应的损失值;根据验证集对每一轮训练的第一分群模型进行估计误差,得到验证集对应的损失值;将验证集对应的损失值与训练集对应的损失值进行对比,当训练集对应的误差降低而验证集对应的误差升高时,停止训练,得到训练后的第一分群模型以及训练后的第一分群模型对应的第一分群方案。
其中,第一分群方案为第一分群模型输出预测的分群方案。
需要说明的是,训练集用于计算梯度、更新连接权和阈值;验证集用于估计误差。连接权是指各神经元之间的权值,阈值是指每个神经元的阈值。
示例性的,将训练集输入初始的第一分群模型中训练,输出训练集对应的预测分群方案的预测概率和损失值。
示例性的,根据验证集对每一轮训练的第一分群模型进行估计误差,可以包括:将验证集输入初始的第一分群模型中,输出验证集对应的预测分群方案;通过交叉熵损失函数,根据验证集对应的预测分群方案和标注的分群方案,计算验证集对应的损失值。其中,计算验证集的损失值,在此不作赘述。
具体地,根据训练样本对初始的第二分群模型进行训练至收敛,得到训练后的第一分群模型和训练后的第二分群模型。
需要说明的是,DQN模型是一种融合了神经网络和Q learning的算法,通过利用神经网络来拟合策略policy。在训练过程中,将状态state输入DQN模型中进行训练,输出各个行为action对应的Q值(预期奖励),最大的Q值对应的行为action即为DQN模型认为应该选择的行为action。
在本申请实施例的训练过程中,状态state为基本信息、检验指标信息、用药史信息组成的多维向量,行为action为分群方案对应的独热编码,奖励reward定义为:
Rt=-(是否发生并发症)t+1+(血压是否达标)t+1,
其中,Rt表示在训练样本中的患者在第t次随访时,DQN模型针对当时的状态state采取行为action后获得的奖励reward。
具体地,根据训练样本对初始的第二分群模型进行训练,是一个最优化损失函数的过程,目的是使得损失函数的值最小化。在本申请实施例中,损失函数L可以定义为:
式中,at表示输入的训练样本中当前时刻t实际采取的行为action;st表示输入的训练样本中当前时刻t的实际状态state;st+1表示当前状态state采取当前行为action后的下一时刻的状态state;at+1为下一时刻的st+1下实际采取的行为action;Q(s,a)表示DQN模型在输入状态state的情况下对应于行为action的输出Q值,表示可以获得的预期奖励。Rt表示当前状态st下采取当前actionat后实际获得的奖励reward。表示下个状态st+1输入DQN模型中,可以获得最大Q值对应的行为action。
具体地,损失函数L用于使DQN模型输出的Q值逼近实际获得的预期奖励reward。在训练过程中,当损失函数L对应的损失值不再变小时,停止训练,得到训练后的DQN模型以及训练后的DQN模型对应的第二分群方案。
其中,第二分群方案为DQN模型输出训练样本对应的最优分群方案。
通过根据训练样本对初始的第一分群模型和初始的第二分群模型进行训练,可以提高第一分群方案与第二分群方案的准确度。
步骤S104、获取初始的目标分群模型和初始的对照分群模型。
示例性的,初始的目标分群模型和初始的对照分群模型可以包括XGBoost模型。
需要说明的是,XGBoost模型可以包括Boosting算法,其中,Boosting算法是一种集成学习算法,可以将弱学习器提升为强学习器。
需要说明的是,Boosting算法的工作原理:先根据初始的训练样本训练出一个基学习器,再根据基学习器的表现对训练样本的权重进行调整,使得先前基学习器做错的训练样本在后续受到更多关注,然后基于调整后的训练样本来训练下一个基学习器;依次重复进行,直至基学习器的数量大于预设的数量值,将训练得到的基学习器进行加权结合,得到训练后的模型。
步骤S105、根据所述训练样本和所述第一分群方案对所述初始的对照分群模型进行训练至收敛,得到训练后的对照分群模型,以及根据所述训练样本和所述第二分群方案对所述初始的目标分群模型进行训练至收敛,得到训练后的目标分群模型,其中,所述训练后的对照分群模型和所述训练后的目标分群模型存储在区块链中。
请参阅图4,图4是本申请实施例提供的对XGBoost模型进行训练的示意图。具体地,可以基于Boosting算法,根据训练样本和第一分群方案对XGBoost模型进行训练至收敛,得到训练后的对照分群模型。另外,基于Boosting算法,根据训练样本和第二分群方案对另一XGBoost模型进行训练至收敛,得到训练后的目标分群模型。
示例性的,根据训练样本输入XGBoost模型中训练出第一个基集学习器;根据第一分群方案确定第一个基学习器的表现结果,根据表现结果对训练样本进行权重调整,然后基于调整后的训练样本训练下一个基学习器,直至得到的基学习器的数量大于预设的数量值;将训练得到的基学习器进行加权结合,得到训练后的对照分群模型。
示例性的,训练后的对照分群模型可以表示为DNN_XGB模型。
具体地,根据训练样本输入另一XGBoost模型中训练出第一个基集学习器;根据第二分群方案确定第一个基学习器的表现结果,根据表现结果对训练样本进行权重调整,然后基于调整后的训练样本训练下一个基学习器,直至得到的基学习器的数量大于预设的数量值;将训练得到的基学习器进行加权结合,得到训练后的目标分群模型。
示例性的,训练后的目标分群模型可以表示为DQN_XGB模型。
具体地,训练后的目标分群模型和训练后的对照分群模型包括多个特征参数。需要说明的是,由于训练样本中包括用户的基本信息、检验指标信息、用药史信息,训练过程是根据训练样本输出预测分群方案,因此训练后的目标分群模型和训练后的对照分群模型存在基本信息、检验指标信息、用药史信息等信息对应的特征参数。例如,特征参数包括{上次是否用降压药、当前血压是否达标、性别、年龄}4个参数。
通过根据训练后的第一分群模型对应的第一分群方案和训练后的第二分群模型对应的第二分群方案分别结合训练样本对XGBoost模型进行训练,使得训练得到的目标分群模型和对照分群模型具有更强的性能和更高的可解释性。
需要强调的是,为进一步保证训练后的对照分群模型和训练后的目标分群模型的私密和安全性,上述训练后的对照分群模型和训练后的目标分群模型还可以存储于一区块链的节点中。
通过根据训练样本结合第一分群方案与第二分群方案,对XGBoost模型进行训练,得到对照分群模型和目标分群模型,使得对照分群模型和目标分群模型的可解释性更强,同时提高了目标分群模型的预测分群方案的准确度。
步骤S20、根据用户在预设的解释策略表中的选中操作,确定所述目标分群模型与所述对照分群模型对应的解释策略。
具体地,解释策略包括全局解释策略和局部解释策略。
需要说明的是,解释是指对模型中的特征参数对应的重要度进行度量,得到模型对应的解释结果。其中,全局解释是指从全局角度量化目标分群模型或对照分群模型中的特征参数对应的重要度,与具体的单个或多个待分群信息无关。局部解释是指从局部角度量化目标分群模型或分群对照模型对各个特征参数的重要度,与具体的单个或多个待分群信息有关。
示例性的,可以在服务器或终端的显示界面显示预设的解释策略表,并获取用户在接收策略表中输入的选中操作,根据选择操作确定目标分群模型与对照分群模型对应的解释策略。如图5所示,图5是本申请实施例提供的一种解释策略表的示意性框图。
其中,解释策略表包括全局解释策略和局部解释策略两个选项。用户可以在解释策略表中选择其中的一种策略。
示例性的,若用户在解释策略表中选择全局解释策略这一选项,则可以根据用户的选中操作确定目标分群模型与对照分群模型对应的解释策略为全局解释策略。若用户在解释策略表中选择局部解释策略这一选项,则可以根据用户的选中操作确定目标分群模型与对照分群模型对应的解释策略为局部解释策略。
在一些实施例中,还可以将解释策略表中的全局解释策略这一选项设为默认选中状态,用户只可以对解释策略表中的局部解释策略这一选项进行操作。示例性的,若用户在解释策略表中选择局部解释策略这一选项,则可以根据用户的选中操作确定目标分群模型与对照分群模型对应的解释策略为全局解释策略与局部解释策略。若用户在解释策略表中不选定局部解释策略这一选项,则可以根据用户的操作确定目标分群模型与对照分群模型对应的解释策略为全局解释策略。如图6所示,图6是本申请实施例提供的另一种解释策略表的示意性框图。
通过根据用户的选中操作确定解释策略,可以根据解释策略对目标分群模型与对照分群模型分别进行全局解释或局部解释。
步骤S30、根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理,得到所述目标分群模型对应的目标解释结果、所述对照分群模型对应的对照解释结果以及所述目标解释结果相对于所述对照解释结果的相对解释结果。
如图7所示,步骤S30中根据解释策略分别对目标分群模型和对照分群模型进行解释处理,具体可以包括以下步骤S301至S303中的其中一个。
步骤S301、当所述解释策略为全局解释策略时,对所述目标分群模型与所述对照分群模型分别进行全局解释。
示例性的,若根据用户的选中操作确定目标分群模型与对照分群模型对应的解释策略为全局解释策略,则可以对目标分群模型与对照分群模型进行全局解释,以得到目标分群模型对应的目标解释结果以及对照分群模型对应的对照解释结果。
其中,解释结果可以包括关注度。示例性的,目标解释结果包括目标关注度;对照解释结果包括对照关注度。相对解释结果包括相对关注度,其中,相对关注度表示目标解释结果与对照解释结果之间的差别。
如图8所示,图8是步骤S301中对目标分群模型与对照分群模型分别进行全局解释的示意性流程图,具体可以包括以下步骤S3011至S3014。
步骤S3011、获取所述目标分群模型对应的第一特征参数以及所述对照分群模型对应的第二特征参数,其中,所述第一特征参数为所述目标分群模型在训练后生成的特征参数,所述第二特征参数为所述对照分群模型在训练后生成的特征参数。
需要说明的是,由于训练样本中包括用户的基本信息、检验指标信息、用药史信息,训练过程是根据训练样本输出预测分群方案,因此训练后的目标分群模型和训练后的对照分群模型存在基本信息、检验指标信息、用药史信息等信息对应的特征参数。
示例性的,获取目标分群模型对应的第一特征参数以及对照分群模型对应的第二特征参数;例如,第一特征参数包括{上次是否用降压药、当前血压是否达标、性别、年龄}4个参数,第二特征参数包括{上次是否用降压药、当前血压是否达标、性别、年龄}4个参数。可以理解的是,由于在模型的训练过程中,使用的训练样本包含相同的信息,因此训练后的目标分群模型和训练后的对照分群模型存在相同的特征参数。从而第一特征参数与第二特征参数相同。
步骤S3012、根据预设的特征重要度函数,确定所述第一特征参数在所述目标分群模型中对应的第一特征重要度,以及确定所述第二特征参数在所述对照分群模型中对的第二特征重要度。
示例性的,在本申请实施例中,预设的特征重要度函数可以包括feature_importance()函数。
需要说明的是,feature_importance()函数用于输出模型中的特征参数对应的特征重要度。特征参数对应的特征重要度,表示特征参数在模型中的提升决策树构建中的价值。一个特征参数越多的被用来在模型中构建决策树,该特征参数对应的特征重要度就相对越高。
具体地,根据DQN_XGB.feature_importance()函数,确定第一特征参数在目标分群模型中对应的第一特征重要度。
示例性的,通过DQN_XGB.feature_importance()函数确定第一特征参数{上次是否用降压药,当前血压是否达标,性别,年龄}对应的第一特征重要度为{上次是否用降压药:6,当前血压是否达标:12,性别:1,年龄:3}。
具体地,根据DNN_XGB.feature_importance()函数,确定第二特征参数在对照分群模型中对应的第二特征重要度。
示例性的,通过DNN_XGB.feature_importance()函数确定第二特征参数{上次是否用降压药,当前血压是否达标,性别,年龄}对应的第二特征重要度为{上次是否用降压药:5,当前血压是否达标:10,性别:3,年龄:4}。
步骤S3013、根据预设的排序函数,对所述第一特征重要度进行排序,得到所述目标分群模型对应的目标关注度,以及对所述第二特征重要度进行排序,得到所述对照分群模型对应的对照关注度。
示例性的,预设的排序函数可以包括Rank函数。在本申请实施例中,可以通过Rank函数对第一特征重要度从大到小排序,以及对第二特征重要度从大到小排序。
示例性的,根据Rank{DQN_XGB.feature_importance()}函数对第一特征重要度{上次是否用降压药:6,当前血压是否达标:12,性别:1,年龄:3}从大到小排序,得到目标分群模型对应的目标关注度为:当前血压是否达标(12)>上次是否用降压药(6)>年龄(3)>性别(1)。
示例性的,根据Rank{DNN_XGB.feature_importance()}函数对第二特征重要度{上次是否用降压药:5,当前血压是否达标:10,性别:3,年龄:4}进行排序,得到对照分群模型对应的对照关注度为:当前血压是否达标(10)>上次是否用降压药(5)>年龄(4)>性别(3)。
步骤S3014、根据预设的第一相对函数,确定所述第一特征重要度与所述第二特征重要度之间的相对关注度。
需要说明的是,相对关注度用于衡量第一特征重要度与第二特征重要度之间的差别。通过相对关注度,可以确定目标分群模型相对于对照分群模型,对各特征参数的关注程度。
其中,预设的第一相对函数可以包括Rank{DQN_XGB.feature_importance()–DNN_XGB.feature_importance()}。
示例性的,可以根据第一相对函数确定第一特征重要度与第二特征重要度之间的相对关注度为:当前血压是否达标(2)>上次是否用降压药(1)>年龄(-1)>性别(-2)。通过相对关注度,可以确定目标分群模型相对于对照分群模型,对特征参数“当前血压是否达标”的关注程度相对较高,而对特征参数“性别”的关注程度相对较低。
通过根据全局解释策略对目标分群模型与对照分群模型分别进行全局解释,可以得到目标分群模型对应的目标关注度、对照分群模型对应的对照关注度以及两者之间的相对关注度,从而根据相对关注度得知目标分群模型对各特征参数的关注程度。实现从全局角度对目标分群模型进行解释,使得目标分群模型更加安全和可靠。
步骤S302、当所述解释策略为局部解释策略时,对所述目标分群模型与所述对照分群模型分别进行局部解释。
如图9所示,图9是步骤S302中对目标分群模型与对照分群模型分别进行局部解释的示意性流程图,具体可以包括以下步骤S3021至S3024。
步骤S3021、将所述待分群信息输入所述目标分群模型和所述对照分群模型中,获取所述目标分群模型根据所述待分群信息生成的第三特征参数以及获取所述对照分群模型根据所述待分群信息生成的第四特征参数。
示例性的,待分群信息可以包括用户的基本信息、检验指标信息、用药史信息。
具体地,将待分群信息输入目标分群模型和对照分群模型中,可以得到目标分群模型根据待分群信息提取出的第三特征参数以及得到对照分群模型根据待分群信息提取出的第四特征参数。
需要说明的是,通过待分群信息输入目标分群模型和对照分群模型中,使得第三特征参数与第四特征参数和待分群信息相关,而和目标分群模型与对照分群模型本身存在的特征参数无关。从而目标分群模型和对照分群模型得到的关注度是以输入的待分群信息为基础的。
示例性的,将待分群信息分别输入目标分群模型和对照分群模型中,得到目标分群模型对应的第三特征参数为{上次是否用降压药、当前血压是否达标、性别、年龄},对照分群模型对应的第四特征参数为{上次是否用降压药、当前血压是否达标、性别、年龄}。
步骤S3022、根据预设的解释函数,确定所述第三特征参数对应的第三特征重要度以及所述第四特征参数对应的第四特征重要度。
示例性的,预设的解释函数可以包括SHAP函数。需要说明的是,SHAP(SHapleyAdditive exPlanations)函数以一种统一的方法来解释任何机器学习模型的输出的函数。在本申请实施例中,SHAP函数对应的SHAP值可以作为特征重要度。
具体地,根据SHAP(DQN_XGB(x)函数,确定第三特征参数对应的第三特征重要度。
示例性的,通过SHAP(DQN_XGB(x)函数确定第三特征参数{上次是否用降压药、当前血压是否达标、性别、年龄}对应的第三特征重要度为{上次是否用降压药:2,当前血压是否达标:8,性别:6,年龄:2}。其中,x表示待分群信息。
具体地,根据SHAP(DNN_XGB(x))函数,确定第四特征参数对应的第四特征重要度。
示例性的,通过SHAP(DNN_XGB(x)函数确定第四特征参数{上次是否用降压药、当前血压是否达标、性别、年龄}对应的第四特征重要度为{上次是否用降压药:4,当前血压是否达标:11,性别:4,年龄:5}。其中,x表示待分群信息。
步骤S3023、根据预设的排序函数,对所述第三特征重要度进行排序,得到所述目标分群模型对应的目标关注度,以及对所述第四特征重要度进行排序,得到所述对照分群模型对应的对照关注度。
在本申请实施例中,可以通过Rank函数对第三特征重要度从大到小排序,以及对第四特征重要度从大到小排序。
示例性的,根据Rank{SHAP(DQN_XGB(x))}函数对第三特征重要度{上次是否用降压药:2,当前血压是否达标:8,性别:6,年龄:2}从大到小排序,得到目标分群模型对应的目标关注度为:当前血压是否达标(8)>性别(6)>年龄(2)=上次是否用降压药(2)。
示例性的,根据Rank{SHAP(DNN_XGB(x))}函数对第四特征重要度{上次是否用降压药:4,当前血压是否达标:11,性别:4,年龄:5}从大到小排序,得到目标分群模型对应的目标关注度为:当前血压是否达标(11)>年龄(5)>上次是否用降压药(4)=性别(4)。
步骤S3024、根据预设的第二相对函数,确定所述第三特征重要度与所述第四特征重要度之间的相对关注度。
具体地,预设的第二相对函数可以包括Rank{SHAP(DQN_XGB(x))–SHAP(DNN_XGB(x))}。
示例性的,可以根据第二相对函数确定第三特征重要度与第四特征重要度之间的相对关注度为:性别(2)>上次是否用降压药(-2)>当前血压是否达标(-3)=年龄(-3)。通过相对关注度,可以确定目标分群模型相对于对照分群模型,对特征参数“性别”的关注程度相对较高,而对特征参数“当前血压是否达标”与“年龄”的关注程度相对较低。
通过根据局部解释策略对目标分群模型与对照分群模型分别进行局部解释,可以得到目标分群模型对应的目标关注度、对照分群模型对应的对照关注度以及两者之间的相对关注度,从而根据相对关注度得知目标分群模型对待分群信息的各特征参数的关注程度,实现从局部角度对目标分群模型进行解释,使得目标分群模型更加安全和可靠。
步骤S303、当所述解释策略为全局解释策略与局部解释策略时,对所述目标分群模型进行全局解释与局部解释,以及对所述对照分群模型进行全局解释与局部解释。
具体地,对目标分群模型进行全局解释与局部解释,以及对对照分群模型进行全局解释与局部解释,可以参见上述实施例的详细说明,具体过程在此不作赘述。
在一些实施例中,根据解释策略分别对目标分群模型和对照分群模型进行解释之后,还包括:将目标关注度、对照关注度、相对关注度以及目标分群方案输出,以使用户根据目标关注度、对照关注度以及相对关注度确定是否使用目标分群方案。
通过根据全局解释策略或局部解释策略对目标分群模型与对照分群模型进行解释,得到目标分群模型对应的目标关注度、对照分群模型对应的对照关注度以及两者之间的相对关注度,从而提高了目标分群模型的准确性和可靠性,使得目标分群模型输出的目标分群方案更加准确,更能令用户信服和采用目标分群方案。
在分群应用场景中,用户可以在服务器或终端中输入待分群信息,并在显示界面显示的解释策略表中选择解释策略,例如,选择全局解释策略或局部解释策略,当然也可以同时选择全局解释策略与局部解释策略。在获取用户在显示界面中输入的选中操作之后,服务器或终端可以根据选中的解释策略对目标分群模型和对照分群模型进行解释处理,得到目标关注度、对照关注度、相对关注度;同时将待分群信息输入目标分群模型中进行分群方法的预测,得到目标分群方案。然后,将目标关注度、对照关注度、相对关注度以及目标分群方案在显示界面输出。用户可以对显示界面输出的内容进行判断,根据目标关注度、对照关注度、相对关注度决定是否使用目标分群模型输出的目标分群方案。
上述实施例提供的分群模型的解释方法,通过根据训练样本对初始的第一分群模型和初始的第二分群模型进行训练,可以提高第一分群方案与第二分群方案的准确度;通过根据训练样本结合第一分群方案与第二分群方案,对XGBoost模型进行训练,得到对照分群模型和目标分群模型,使得对照分群模型和目标分群模型的可解释性更强,同时提高了目标分群模型的预测分群方案的准确度;通过根据用户的选中操作确定解释策略,可以根据解释策略对目标分群模型与对照分群模型分别进行全局解释或局部解释;通过根据全局解释策略或局部解释策略对目标分群模型与对照分群模型进行解释,得到目标分群模型对应的目标关注度、对照分群模型对应的对照关注度以及两者之间的相对关注度,从而提高了目标分群模型的准确性和可靠性,使得目标分群模型输出的目标分群方案更加准确,更能令用户信服和采用。本申请实施例提供的分群模型的解释方法,可适用于智慧医疗领域,从而进一步推动智慧城市的建设。
请参阅图10,图10是本申请的实施例还提供一种分群模型的解释装置100的示意性框图,该分群模型的解释装置用于执行前述的分群模型的解释方法。其中,该分群模型的解释装置为本申请实施例的服务器或终端。
如图10所示,该分群模型的解释装置100,包括:模型获取模块101、解释策略确定模块102和解释处理模块103。
模型获取模块101,用于获取训练后的目标分群模型和训练后的对照分群模型,其中,所述对照分群模型用于衡量所述目标分群模型的可解释性。
解释策略确定模块102,用于根据用户在预设的解释策略表中的选中操作,确定所述目标分群模型与所述对照分群模型对应的解释策略。
解释处理模块103,用于根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理,得到所述目标分群模型对应的目标解释结果、所述对照分群模型对应的对照解释结果以及所述目标解释结果相对于所述对照解释结果的相对解释结果。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和各模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
上述的装置可以实现为一种计算机程序的形式,该计算机程序可以在如图11所示的计算机设备上运行。
请参阅图11,图11是本申请实施例提供的一种计算机设备的结构示意性框图。该计算机设备可以是服务器或终端。
请参阅图11,该计算机设备包括通过系统总线连接的处理器和存储器,其中,存储器可以包括非易失性存储介质和内存储器。
处理器用于提供计算和控制能力,支撑整个计算机设备的运行。
内存储器为非易失性存储介质中的计算机程序的运行提供环境,该计算机程序被处理器执行时,可使得处理器执行任意一种分群模型的解释方法。
应当理解的是,处理器可以是中央处理单元(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
其中,在一个实施例中,所述处理器用于运行存储在存储器中的计算机程序,以实现如下步骤:
获取训练后的目标分群模型和训练后的对照分群模型,其中,所述对照分群模型用于衡量所述目标分群模型的可解释性;根据用户在预设的解释策略表中的选中操作,确定所述目标分群模型与所述对照分群模型对应的解释策略;根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理,得到所述目标分群模型对应的目标解释结果、所述对照分群模型对应的对照解释结果以及所述目标解释结果相对于所述对照解释结果的相对解释结果。
在一个实施例中,所述处理器在实现根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理之前,还用于实现:
获取待分群信息;将所述待分群信息输入所述目标分群模型中进行分群预测,得到所述待分群信息对应的目标分群方案。
在一个实施例中,所述解释策略包括全局解释策略和局部解释策略;所述处理器在实现根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理时,用于实现:
当所述解释策略为全局解释策略时,对所述目标分群模型与所述对照分群模型分别进行全局解释;或当所述解释策略为局部解释策略时,对所述目标分群模型与所述对照分群模型分别进行局部解释;或当所述解释策略为全局解释策略与局部解释策略时,对所述目标分群模型进行全局解释与局部解释,以及对所述对照分群模型进行全局解释与局部解释。
在一个实施例中,所述解释结果包括关注度;所述处理器在实现对所述目标分群模型与所述对照分群模型分别进行全局解释时,用于实现:
获取所述目标分群模型对应的第一特征参数以及所述对照分群模型对应的第二特征参数,其中,所述第一特征参数为所述目标分群模型在训练后生成的特征参数,所述第二特征参数为所述对照分群模型在训练后生成的特征参数;根据预设的特征重要度函数,确定所述第一特征参数在所述目标分群模型中对应的第一特征重要度,以及确定所述第二特征参数在所述对照分群模型中对的第二特征重要度;根据预设的排序函数,对所述第一特征重要度进行排序,得到所述目标分群模型对应的目标关注度,以及对所述第二特征重要度进行排序,得到所述对照分群模型对应的对照关注度;根据预设的第一相对函数,确定所述第一特征重要度与所述第二特征重要度之间的相对关注度。
在一个实施例中,所述解释结果包括关注度;所述处理器在实现对所述目标分群模型与所述对照分群模型分别进行局部解释时,用于实现:
将所述待分群信息输入所述目标分群模型和所述对照分群模型中,获取所述目标分群模型根据所述待分群信息生成的第三特征参数以及获取所述对照分群模型根据所述待分群信息生成的第四特征参数;根据预设的解释函数,确定所述第三特征参数对应的第三特征重要度以及所述第四特征参数对应的第四特征重要度;根据预设的排序函数,对所述第三特征重要度进行排序,得到所述目标分群模型对应的目标关注度,以及对所述第四特征重要度进行排序,得到所述对照分群模型对应的对照关注度;根据预设的第二相对函数,确定所述第三特征重要度与所述第四特征重要度之间的相对关注度。
在一个实施例中,所述处理器在实现根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释之后,还用于实现:
将所述目标关注度、所述对照关注度、所述相对关注度以及所述目标分群方案输出,以使用户根据所述目标关注度、所述对照关注度以及所述相对关注度确定是否使用所述目标分群方案。
在一个实施例中,所述处理器在实现获取训练后的目标分群模型和训练后的对照分群模型之前,还用于实现:
获取初始的第一分群模型和初始的第二分群模型,其中,所述初始的第一分群模型包括神经网络模型,所述初始的第二分群模型包括深度强化学习模型;获取预设数量的用户的长期随访信息,对所述长期随访信息进行分群标注得到训练样本;根据所述训练样本对所述初始的第一分群模型和所述初始的第二分群模型进行训练至收敛,得到训练后的第一分群模型和训练后的第二分群模型以及所述训练后的第一分群模型对应的第一分群方案和所述训练后的第二分群模型对应的第二分群方案;获取初始的目标分群模型和初始的对照分群模型;根据所述训练样本和所述第一分群方案对所述初始的对照分群模型进行训练至收敛,得到训练后的对照分群模型,以及根据所述训练样本和所述第二分群方案对所述初始的目标分群模型进行训练至收敛,得到训练后的目标分群模型,其中,所述训练后的对照分群模型和所述训练后的目标分群模型存储在区块链中。
本申请的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现本申请实施例提供的任一项分群模型的解释方法。
其中,所述计算机可读存储介质可以是前述实施例所述的计算机设备的内部存储单元,例如所述计算机设备的硬盘或内存。所述计算机可读存储介质也可以是所述计算机设备的外部存储设备,例如所述计算机设备上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字卡(Secure Digital Card,SD Card),闪存卡(Flash Card)等。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种分群模型的解释方法,其特征在于,包括:
获取训练后的目标分群模型和训练后的对照分群模型,其中,所述对照分群模型用于衡量所述目标分群模型的可解释性;
根据用户在预设的解释策略表中的选中操作,确定所述目标分群模型与所述对照分群模型对应的解释策略;
根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理,得到所述目标分群模型对应的目标解释结果、所述对照分群模型对应的对照解释结果以及所述目标解释结果相对于所述对照解释结果的相对解释结果。
2.根据权利要求1所述的分群模型的解释方法,其特征在于,所述根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理之前,还包括:
获取待分群信息;
将所述待分群信息输入所述目标分群模型中进行分群预测,得到所述待分群信息对应的目标分群方案。
3.根据权利要求2所述的分群模型的解释方法,其特征在于,所述解释策略包括全局解释策略和局部解释策略;所述根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理,包括:
当所述解释策略为全局解释策略时,对所述目标分群模型与所述对照分群模型分别进行全局解释;或
当所述解释策略为局部解释策略时,对所述目标分群模型与所述对照分群模型分别进行局部解释;或
当所述解释策略为全局解释策略与局部解释策略时,对所述目标分群模型进行全局解释与局部解释,以及对所述对照分群模型进行全局解释与局部解释。
4.根据权利要求3所述的分群模型的解释方法,其特征在于,所述解释结果包括关注度;所述对所述目标分群模型与所述对照分群模型分别进行全局解释,包括:
获取所述目标分群模型对应的第一特征参数以及所述对照分群模型对应的第二特征参数,其中,所述第一特征参数为所述目标分群模型在训练后生成的特征参数,所述第二特征参数为所述对照分群模型在训练后生成的特征参数;
根据预设的特征重要度函数,确定所述第一特征参数在所述目标分群模型中对应的第一特征重要度,以及确定所述第二特征参数在所述对照分群模型中对的第二特征重要度;
根据预设的排序函数,对所述第一特征重要度进行排序,得到所述目标分群模型对应的目标关注度,以及对所述第二特征重要度进行排序,得到所述对照分群模型对应的对照关注度;
根据预设的第一相对函数,确定所述第一特征重要度与所述第二特征重要度之间的相对关注度。
5.根据权利要求3所述的分群模型的解释方法,其特征在于,所述解释结果包括关注度;所述对所述目标分群模型与所述对照分群模型分别进行局部解释,包括:
将所述待分群信息输入所述目标分群模型和所述对照分群模型中,获取所述目标分群模型根据所述待分群信息生成的第三特征参数以及获取所述对照分群模型根据所述待分群信息生成的第四特征参数;
根据预设的解释函数,确定所述第三特征参数对应的第三特征重要度以及所述第四特征参数对应的第四特征重要度;
根据预设的排序函数,对所述第三特征重要度进行排序,得到所述目标分群模型对应的目标关注度,以及对所述第四特征重要度进行排序,得到所述对照分群模型对应的对照关注度;
根据预设的第二相对函数,确定所述第三特征重要度与所述第四特征重要度之间的相对关注度。
6.根据权利要求4或5所述的分群模型的解释方法,其特征在于,所述根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释之后,还包括:
将所述目标关注度、所述对照关注度、所述相对关注度以及所述目标分群方案输出,以使用户根据所述目标关注度、所述对照关注度以及所述相对关注度确定是否使用所述目标分群方案。
7.根据权利要求1所述的分群模型的解释方法,其特征在于,所述获取训练后的目标分群模型和训练后的对照分群模型之前,还包括:
获取初始的第一分群模型和初始的第二分群模型,其中,所述初始的第一分群模型包括神经网络模型,所述初始的第二分群模型包括深度强化学习模型;
获取预设数量的用户的长期随访信息,对所述长期随访信息进行分群标注得到训练样本;
根据所述训练样本对所述初始的第一分群模型和所述初始的第二分群模型进行训练至收敛,得到训练后的第一分群模型和训练后的第二分群模型以及所述训练后的第一分群模型对应的第一分群方案和所述训练后的第二分群模型对应的第二分群方案;
获取初始的目标分群模型和初始的对照分群模型;
根据所述训练样本和所述第一分群方案对所述初始的对照分群模型进行训练至收敛,得到训练后的对照分群模型,以及根据所述训练样本和所述第二分群方案对所述初始的目标分群模型进行训练至收敛,得到训练后的目标分群模型,其中,所述训练后的对照分群模型和所述训练后的目标分群模型存储在区块链中。
8.一种分群模型的解释装置,其特征在于,包括:
模型获取模块,用于获取训练后的目标分群模型和训练后的对照分群模型,其中,所述对照分群模型用于衡量所述目标分群模型的可解释性;
解释策略确定模块,用于根据用户在预设的解释策略表中的选中操作,确定所述目标分群模型与所述对照分群模型对应的解释策略;
解释处理模块,用于根据所述解释策略分别对所述目标分群模型和所述对照分群模型进行解释处理,得到所述目标分群模型对应的目标解释结果、所述对照分群模型对应的对照解释结果以及所述目标解释结果相对于所述对照解释结果的相对解释结果。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现如权利要求1至7任一项所述的分群模型的解释方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1至7任一项所述的分群模型的解释方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010785824.XA CN111967581B (zh) | 2020-08-06 | 2020-08-06 | 分群模型的解释方法、装置、计算机设备和存储介质 |
PCT/CN2020/117658 WO2021139223A1 (zh) | 2020-08-06 | 2020-09-25 | 分群模型的解释方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010785824.XA CN111967581B (zh) | 2020-08-06 | 2020-08-06 | 分群模型的解释方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111967581A true CN111967581A (zh) | 2020-11-20 |
CN111967581B CN111967581B (zh) | 2023-10-31 |
Family
ID=73365066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010785824.XA Active CN111967581B (zh) | 2020-08-06 | 2020-08-06 | 分群模型的解释方法、装置、计算机设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111967581B (zh) |
WO (1) | WO2021139223A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113377640A (zh) * | 2021-06-23 | 2021-09-10 | 杭州网易云音乐科技有限公司 | 解释业务场景下模型的方法、介质、装置和计算设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113724824B (zh) * | 2021-08-31 | 2024-03-08 | 平安科技(深圳)有限公司 | 慢性病患者随访方法、装置、计算机设备及可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930934A (zh) * | 2016-04-27 | 2016-09-07 | 北京物思创想科技有限公司 | 展示预测模型的方法、装置及调整预测模型的方法、装置 |
US20190087408A1 (en) * | 2017-09-15 | 2019-03-21 | International Business Machines Corporation | Training data update |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1298582A1 (en) * | 2001-09-27 | 2003-04-02 | BRITISH TELECOMMUNICATIONS public limited company | Method and apparatus for data analysis |
CN110335160B (zh) * | 2019-07-04 | 2020-04-21 | 山东大学 | 一种基于分组和注意力改进Bi-GRU的就医迁移行为预测方法及系统 |
CN111160473A (zh) * | 2019-12-30 | 2020-05-15 | 深圳前海微众银行股份有限公司 | 一种分类标签的特征挖掘方法及装置 |
CN111145905B (zh) * | 2019-12-31 | 2024-04-05 | 北京懿医云科技有限公司 | 目标决策模型构建方法及装置、电子设备、存储介质 |
CN111340102B (zh) * | 2020-02-24 | 2022-03-01 | 支付宝(杭州)信息技术有限公司 | 评估模型解释工具的方法和装置 |
-
2020
- 2020-08-06 CN CN202010785824.XA patent/CN111967581B/zh active Active
- 2020-09-25 WO PCT/CN2020/117658 patent/WO2021139223A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930934A (zh) * | 2016-04-27 | 2016-09-07 | 北京物思创想科技有限公司 | 展示预测模型的方法、装置及调整预测模型的方法、装置 |
US20190087408A1 (en) * | 2017-09-15 | 2019-03-21 | International Business Machines Corporation | Training data update |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113377640A (zh) * | 2021-06-23 | 2021-09-10 | 杭州网易云音乐科技有限公司 | 解释业务场景下模型的方法、介质、装置和计算设备 |
CN113377640B (zh) * | 2021-06-23 | 2022-07-08 | 杭州网易云音乐科技有限公司 | 解释业务场景下模型的方法、介质、装置和计算设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111967581B (zh) | 2023-10-31 |
WO2021139223A1 (zh) | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11704500B2 (en) | Techniques to add smart device information to machine learning for increased context | |
US9443002B1 (en) | Dynamic data analysis and selection for determining outcomes associated with domain specific probabilistic data sets | |
CN111126574A (zh) | 基于内镜图像对机器学习模型进行训练的方法、装置和存储介质 | |
CN109326353B (zh) | 预测疾病终点事件的方法、装置及电子设备 | |
CN111696661B (zh) | 患者分群模型构建方法、患者分群方法及相关设备 | |
WO2022227198A1 (zh) | 患者用药方案的确定方法及确定装置 | |
WO2022083093A1 (zh) | 图谱中的概率计算方法、装置、计算机设备及存储介质 | |
CN109377388B (zh) | 医保投保方法、装置、计算机设备和存储介质 | |
CN111967581B (zh) | 分群模型的解释方法、装置、计算机设备和存储介质 | |
CN112862546B (zh) | 用户流失预测方法、装置、计算机设备及存储介质 | |
CN112086144A (zh) | 分子生成方法、装置、电子设备及存储介质 | |
WO2021202528A1 (en) | Multi-modal neural network architecture search | |
CN116777642A (zh) | 基于集成学习模型的车险风险参数预测方法及装置 | |
WO2023050668A1 (zh) | 基于因果推断的分群模型构建方法和医疗数据处理方法 | |
CN113609295A (zh) | 文本分类方法、装置及相关设备 | |
CN117785964B (zh) | 应用于网络服务的数据处理方法及系统 | |
CN118248350A (zh) | 改进随机森林预测结果的方法、装置、设备及介质 | |
CN114203306A (zh) | 医疗事件预测模型训练方法、医疗事件预测方法及装置 | |
US20230037183A1 (en) | Storage medium, adjustment method, and information processing apparatus | |
CN113724824B (zh) | 慢性病患者随访方法、装置、计算机设备及可读存储介质 | |
CN115222049A (zh) | 一种多模态数据模型的问题求解层选择方法、系统、装置 | |
CN114613512A (zh) | 一种抗乳腺癌候选药物筛选方法、装置、设备及存储介质 | |
CN113782187A (zh) | 指标数据处理方法、相关设备及介质 | |
CN112017790B (zh) | 基于对抗网络的电子病历筛查方法、装置、设备及介质 | |
CN116825360B (zh) | 基于图神经网络的慢病共病预测方法、装置及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40040159 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |