CN116611939A - 基于深度q学习优化理赔预测模型的方法及其相关设备 - Google Patents
基于深度q学习优化理赔预测模型的方法及其相关设备 Download PDFInfo
- Publication number
- CN116611939A CN116611939A CN202310511570.6A CN202310511570A CN116611939A CN 116611939 A CN116611939 A CN 116611939A CN 202310511570 A CN202310511570 A CN 202310511570A CN 116611939 A CN116611939 A CN 116611939A
- Authority
- CN
- China
- Prior art keywords
- prediction
- nodes
- prediction model
- target
- distinguishing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 74
- 238000005457 optimization Methods 0.000 claims abstract description 52
- 230000007246 mechanism Effects 0.000 claims abstract description 38
- 230000015654 memory Effects 0.000 claims abstract description 36
- 230000005055 memory storage Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 230000008901 benefit Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/08—Insurance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Technology Law (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请实施例属于人工智能技术领域,应用于模型优化领域中,涉及一种基于深度Q学习优化理赔预测模型的方法及其相关设备,包括获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;获取预先基于所述各个预测节点而设定的预测环境信息通过预设的期望回报值、记忆力机制和快照机制进行理赔预测模型优化训练,降低了某一个理赔业务步骤的随机性对模型参数影响过大,避免了理赔各个业务流程的局限性,同时,采用快照机制,实现了通过设置快照步长,能够在特定的理赔业务步骤中获取实际回报值,及早发现不合格优化训练步骤,避免在不合格的优化训练步骤上消耗过多的训练资源,保证了及时获得更加准确和高价值性的理赔预测模型。
Description
技术领域
本申请涉及模型优化技术领域,尤其涉及一种基于深度Q学习优化理赔预测模型的方法及其相关设备。
背景技术
企业的投保理赔往往是最难以评估的,因涉及金额教庞大,同时因企业投保更多是依赖双方的关系,因此理赔拒赔涉及到的后续利益牵扯也是非常庞大的。致使,在保险的各条业务线里,环境最复杂的也莫过于团体了。在保险公司中,当涉及到企业的拒保、拒赔时都需要格外谨慎。也是因为如此拒保和拒赔、黑名单的划定多数是针对清亏、等状况,由于数据过于分散,很难因为案件本身去判断,导致难以从历史案件中去归纳总结或复用到后续理赔中。
为了解决上述问题,现有技术采用变量增益算法与广度层内增益算法的保险数据决策树构建方法有效提高建模精准度,提升操作便利性。虽然,该种方式能够一定程度上提高建模的精准度,但是,往往又因为理赔各个业务流程的局限性导致模型的分类存在一定的局限性。因此,如何在克服理赔各个业务流程的局限性基础上,训练出更加准确的理赔预测模型成为了亟需解决的问题。
发明内容
本申请实施例的目的在于提出一种基于深度Q学习优化理赔预测模型的方法及其相关设备,以实现在克服理赔各个业务流程的局限性基础上,训练出更加准确的理赔预测模型。
为了解决上述技术问题,本申请实施例提供一种基于深度Q学习优化理赔预测模型的方法,采用了如下所述的技术方案:
一种基于深度Q学习优化理赔预测模型的方法,包括下述步骤:
获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;
根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码;
获取预先基于所述各个预测节点而设定的预测环境信息;
任选一组目标预测环境信息和状态码作为初始环境信息和初始状态;
将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型;
获取批量开放的理赔数据集;
将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。
进一步的,所述获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系的步骤,具体包括:
根据所述目标理赔预测模型的执行流程程序,输出理赔预测模型执行流程图;
基于所述理赔预测模型执行流程图,获取各个执行流程节点作为各个预测节点;
根据所述理赔预测模型执行流程图,识别相邻层级预测节点间的上下级关系。
进一步的,所述根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码的步骤,具体包括:
根据所述理赔预测模型执行流程图,从根预测节点开始依次对所述各个预测节点进行区别编号,其中,所述从根预测节点开始依次对所述各个预测节点进行区别编号的步骤,具体包括:基于相邻层级预测节点间的上下级关系,采用递增阿拉伯数字对不同层级间的预测节点进行层级编号;对相同层级间的不同预测节点,采用区别标识进行同层区别编号;
依次拼接当前预测节点对应的所述层级编号和所述同层区别编号,将拼接结果设置为所述当前预测节点的状态码。
进一步的,在执行所述对相同层级间的不同预测节点,采用区别标识进行同层区别编号的步骤之前,所述方法还包括:
统计当前层级中不同预测节点的数量;
若所述当前层级中不同预测节点的数量唯一,则为所述当前层级中唯一预测节点设置期望分值,其中,所述当前层级中唯一预测节点的期望分值为100;
若所述当前层级中不同预测节点的数量不唯一,则分别为所述当前层级中不同预测节点设置期望分值,其中,所述当前层级中不同预测节点的期望分值总和为100。
进一步的,在执行所述获取批量开放的理赔数据集的步骤之后,所述方法还包括:
预先根据是否拒赔将所述理赔数据集划分为正反数据集;
对所述正反数据集进行区别编号,其中,所述区别编号的步骤,具体包括:对正反数据集进行数据集区别编号;对正反数据集内不同理赔数据进行元素区别编号;
拼接所述数据集区别编号和所述元素区别编号,获得所述理赔数据集中每一条理赔数据的区别编号。
进一步的,所述将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练的步骤,具体包括:
将所述理赔数据集输入配置完成的目标理赔预测模型,获取所述理赔数据集中每一条理赔数据对应的输出回报值;
分别统计正反数据集中各个理赔数据对应的输出回报值;
通过整理计算,获取正反数据集分别对应的输出回报值区间;
识别所述预设的期望回报值是否为正反数据集对应的输出回报值区间的分界值;
若所述预设的期望回报值为所述分界值,则目标理赔预测模型训练完成;
若所述预设的期望回报值不是所述分界值,则采用记忆回放机制和快照机制对所述目标理赔预测模型进行优化训练。
进一步的,所述采用记忆回放机制和快照机制对所述目标理赔预测模型进行优化训练的步骤,具体包括:
步骤A,不断的根据当前环境信息,选择下一层的最佳预测节点,更新当前选择之后的输出回报值;
步骤B,每一次更新完当前选择之后的输出回报值后将上述选择过程放入记忆储存中;
步骤C,当所述记忆存储中存在预设条目的选择过程后,从所述记忆存储中进行随机采样,构建采样集合;
步骤D,根据所述采样集合进行快照机制下的模型参数更新;
步骤E,每更新完预设次数的模型参数,利用最新优化完成的目标理赔预测模型重新设置初始环境信息,并重复执行步骤A至步骤B产生新的记忆到所述记忆储存中;
循环执行步骤A至步骤E,直至所述预设的期望回报值为所述分界值,则所述目标理赔预测模型训练优化完毕。
为了解决上述技术问题,本申请实施例还提供一种基于深度Q学习优化理赔预测模型的装置,采用了如下所述的技术方案:
一种基于深度Q学习优化理赔预测模型的装置,包括:
模型预测节点获取模块,用于获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;
状态码设置模块,用于根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码;
环境信息获取模块,用于获取预先基于所述各个预测节点而设定的预测环境信息;
初始化筛选模块,用于任选一组目标预测环境信息和状态码作为初始环境信息和初始状态;
初始化配置模块,用于将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型;
训练集获取模块,用于获取批量开放的理赔数据集;
训练优化模块,用于将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现上述所述的基于深度Q学习优化理赔预测模型的方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上述所述的基于深度Q学习优化理赔预测模型的方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请实施例所述基于深度Q学习优化理赔预测模型的方法,通过获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码;获取预先基于所述各个预测节点而设定的预测环境信息;任选一组目标预测环境信息和状态码作为初始环境信息和初始状态;将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型;获取批量开放的理赔数据集;将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。通过预设的期望回报值、记忆力机制和快照机制进行理赔预测模型优化训练,降低了某一个理赔业务步骤的随机性对模型参数影响过大,避免了理赔各个业务流程的局限性,同时,采用快照机制,实现了通过设置快照步长,能够在特定的理赔业务步骤中获取实际回报值,及早发现不合格优化训练步骤,避免在不合格的优化训练步骤上消耗过多的训练资源,保证了及时获得更加准确和高价值性的理赔预测模型。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2根据本申请的基于深度Q学习优化理赔预测模型的方法的一个实施例的流程图;
图3是图2所示步骤201的一个具体实施例的流程图;
图4是图2所示步骤207的一个具体实施例的流程图;
图5是图4所示步骤406的一个具体实施例的流程图;
图6根据本申请的基于深度Q学习优化理赔预测模型的装置的一个实施例的结构示意图;
图7根据本申请的训练集处理模块的一个具体实施例的结构示意图;
图8是图7所示702的一个具体实施例的结构示意图;
图9根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的基于深度Q学习优化理赔预测模型的方法一般由服务器/终端设备执行,相应地,基于深度Q学习优化理赔预测模型的装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的基于深度Q学习优化理赔预测模型的方法的一个实施例的流程图。所述的基于深度Q学习优化理赔预测模型的方法,包括以下步骤:
步骤201,获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系。
继续参考图3,图3是图2所示步骤201的一个具体实施例的流程图,包括:
步骤301,根据所述目标理赔预测模型的执行流程程序,输出理赔预测模型执行流程图;
步骤302,基于所述理赔预测模型执行流程图,获取各个执行流程节点作为各个预测节点;
步骤303,根据所述理赔预测模型执行流程图,识别相邻层级预测节点间的上下级关系。
通过所述目标理赔预测模型的执行流程程序,输出理赔预测模型执行流程图,根据理赔预测模型执行流程图,可以参照图直观的设置预测环境信息和预测状态。本实施例中,将每个预测节点作为一个预测环境信息,程序执行到当前预测节点,即程序处于当前预测节点状态。
步骤202,根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码。
本实施例中,所述根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码的步骤,具体包括:根据所述理赔预测模型执行流程图,从根预测节点开始依次对所述各个预测节点进行区别编号,其中,所述从根预测节点开始依次对所述各个预测节点进行区别编号的步骤,具体包括:基于相邻层级预测节点间的上下级关系,采用递增阿拉伯数字对不同层级间的预测节点进行层级编号;对相同层级间的不同预测节点,采用区别标识进行同层区别编号;依次拼接当前预测节点对应的所述层级编号和所述同层区别编号,将拼接结果设置为所述当前预测节点的状态码。
采用对不同层级预测节点和同层级多个预测节点分别进行编号,通过拼接获取所有预测节点的状态码,更加便于进行优化训练时根据状态码进行预测环境选择。
本实施例中,在执行所述对相同层级间的不同预测节点,采用区别标识进行同层区别编号的步骤之前,所述方法还包括:统计当前层级中不同预测节点的数量;若所述当前层级中不同预测节点的数量唯一,则为所述当前层级中唯一预测节点设置期望分值,其中,所述当前层级中唯一预测节点的期望分值为100;若所述当前层级中不同预测节点的数量不唯一,则分别为所述当前层级中不同预测节点设置期望分值,其中,所述当前层级中不同预测节点的期望分值总和为100。
相应的,所示期望分值总和可以为预设分值,只需同层预测节点中各个预测节点的期望分值之总与所述预设分值相同即可。
步骤203,获取预先基于所述各个预测节点而设定的预测环境信息。
本实施例中,在执行所述获取预先基于所述各个预测节点而设定的预测环境信息的步骤之前,所述方法还包括:基于所述理赔预测模型执行流程图,分别为各个预测节点设定唯一的预测环境信息,并为当前预测节点设定下一层的可选择预测环境信息。
解释,若模型执行程序处于某个预测节点,那么,在当前预测节点,程序所处的预测环境唯一,即所述当前预测节点对应的预测环境信息;然而,当前预测节点的可选泽预测环境信息,与当前预测节点的下一个层级有关,若下一个层级中预测节点唯一,则当前预测节点的可选择预测环境信息唯一,若下一个层级中预测节点不唯一,则当前预测节点的可选择预测环境信息不唯一。
步骤204,任选一组目标预测环境信息和状态码作为初始环境信息和初始状态。
步骤205,将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型。
本实施例中,所述预设的期望回报值,可以理解为模型进行是否拒赔识别时的某一设定分值,若大于该分值,进行理赔,若小于该分值,拒绝理赔。
步骤206,获取批量开放的理赔数据集。
本实施例中,在执行所述获取批量开放的理赔数据集的步骤之后,所述方法还包括:预先根据是否拒赔将所述理赔数据集划分为正反数据集;对所述正反数据集进行区别编号,其中,所述区别编号的步骤,具体包括:对正反数据集进行数据集区别编号;对正反数据集内不同理赔数据进行元素区别编号;拼接所述数据集区别编号和所述元素区别编号,获得所述理赔数据集中每一条理赔数据的区别编号。
通过对正反数据集进行数据集区别编号和对正反数据集中不同理赔数据进行元素区别编号,能够准确识别出每一条训练数据所属的分类类别,从而更快速的确定每条理赔数据对应的输出回报值。
步骤207,将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。
继续参考图4,图4是图2所示步骤207的一个具体实施例的流程图,包括:
步骤401,将所述理赔数据集输入配置完成的目标理赔预测模型,获取所述理赔数据集中每一条理赔数据对应的输出回报值;
步骤402,分别统计正反数据集中各个理赔数据对应的输出回报值;
步骤403,通过整理计算,获取正反数据集分别对应的输出回报值区间;
步骤404,识别所述预设的期望回报值是否为正反数据集对应的输出回报值区间的分界值;
步骤405,若所述预设的期望回报值为所述分界值,则目标理赔预测模型训练完成;
步骤406,若所述预设的期望回报值不是所述分界值,则采用记忆回放机制和快照机制对所述目标理赔预测模型进行优化训练。
通过所述正反数据集,进行模型训练,获得训练结果,通过整理计算,识别所述预设的期望回报值是否为所述分界值,从而判定是否再次进行优化训练。
继续参考图5,图5是图4所示步骤406的一个具体实施例的流程图,包括:
步骤501,不断的根据当前环境信息,选择下一层的最佳预测节点,更新当前选择之后的输出回报值;
步骤502,每一次更新完当前选择之后的输出回报值后将上述选择过程放入记忆储存中;
步骤503,当所述记忆存储中存在预设条目的选择过程后,从所述记忆存储中进行随机采样,构建采样集合;
步骤504,根据所述采样集合进行快照机制下的模型参数更新;
步骤505,每更新完预设次数的模型参数,利用最新优化完成的目标理赔预测模型重新设置初始环境信息,并重复执行步骤501至步骤502产生新的记忆到所述记忆储存中;
步骤506,循环执行步骤501至步骤505,直至所述预设的期望回报值为所述分界值,则所述目标理赔预测模型训练优化完毕。
采用记忆力机制和快照机制进行模型优化训练,其中,记忆力机制使得模型不断的从已经走过的路径中选取子数据集合进行从头训练,从而降低某一个理赔业务步骤的随机性对模型参数影响过大;而快照机制的作用是每经历特定步长的预测次数,计算当前步时的预测总分值与预设的期望回报分值间的差值关系,能够尽早的发现不合格优化训练步骤,避免在不合格的优化训练步骤上消耗过多的训练资源。
本申请通过获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码;获取预先基于所述各个预测节点而设定的预测环境信息;任选一组目标预测环境信息和状态码作为初始环境信息和初始状态;将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型;获取批量开放的理赔数据集;将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。通过预设的期望回报值、记忆力机制和快照机制进行理赔预测模型优化训练,降低了某一个理赔业务步骤的随机性对模型参数影响过大,避免了理赔各个业务流程的局限性,同时,采用快照机制,实现了通过设置快照步长,能够在特定的理赔业务步骤中获取实际回报值,及早发现不合格优化训练步骤,避免在不合格的优化训练步骤上消耗过多的训练资源,保证了及时获得更加准确和高价值性的理赔预测模型。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例中,通过预设的期望回报值、记忆力机制和快照机制进行理赔预测模型优化训练,降低了某一个理赔业务步骤的随机性对模型参数影响过大,避免了理赔各个业务流程的局限性,同时,采用快照机制,实现了通过设置快照步长,能够在特定的理赔业务步骤中获取实际回报值,及早发现不合格优化训练步骤,避免在不合格的优化训练步骤上消耗过多的训练资源,保证了及时获得更加准确和高价值性的理赔预测模型。
进一步参考图6,作为对上述图2所示方法的实现,本申请提供了一种基于深度Q学习优化理赔预测模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例所述的基于深度Q学习优化理赔预测模型的装置600包括:模型预测节点获取模块601、状态码设置模块602、环境信息获取模块603、初始化筛选模块604、初始化配置模块605、训练集获取模块606和训练优化模块607。其中:
模型预测节点获取模块601,用于获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;
状态码设置模块602,用于根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码;
环境信息获取模块603,用于获取预先基于所述各个预测节点而设定的预测环境信息;
初始化筛选模块604,用于任选一组目标预测环境信息和状态码作为初始环境信息和初始状态;
初始化配置模块605,用于将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型;
训练集获取模块606,用于获取批量开放的理赔数据集;
训练优化模块607,用于将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。
在本申请的一些具体实施方式中,所述的基于深度Q学习优化理赔预测模型的装置600,还包括训练集处理模块,继续参考图7,图7根据本申请的训练集处理模块的一个具体实施例的结构示意图,所述训练集处理模块包括正反数据集划分子模块701和正反数据集编号子模块702,其中:
正反数据集划分子模块701,用于预先根据是否拒赔将所述理赔数据集划分为正反数据集;
正反数据集编号子模块702,用于对所述正反数据集进行区别编号。
继续参考图8,图8是图7所示702的一个具体实施例的结构示意图,所述正反数据集编号子模块702包括第一区别编号单元801、第二区别编号单元802、拼接处理单元803,其中:
第一区别编号单元801,用于对正反数据集进行数据集区别编号;
第二区别编号单元802,用于对正反数据集内不同理赔数据进行元素区别编号;
拼接处理单元803,用于拼接所述数据集区别编号和所述元素区别编号,获得所述理赔数据集中每一条理赔数据的区别编号。
本申请通过获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码;获取预先基于所述各个预测节点而设定的预测环境信息;任选一组目标预测环境信息和状态码作为初始环境信息和初始状态;将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型;获取批量开放的理赔数据集;将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。通过预设的期望回报值、记忆力机制和快照机制进行理赔预测模型优化训练,降低了某一个理赔业务步骤的随机性对模型参数影响过大,避免了理赔各个业务流程的局限性,同时,采用快照机制,实现了通过设置快照步长,能够在特定的理赔业务步骤中获取实际回报值,及早发现不合格优化训练步骤,避免在不合格的优化训练步骤上消耗过多的训练资源,保证了及时获得更加准确和高价值性的理赔预测模型。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图9,图9为本实施例计算机设备基本结构框图。
所述计算机设备9包括通过系统总线相互通信连接存储器9a、处理器9b、网络接口9c。需要指出的是,图中仅示出了具有组件9a-9c的计算机设备9,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器9a至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器9a可以是所述计算机设备9的内部存储单元,例如该计算机设备9的硬盘或内存。在另一些实施例中,所述存储器9a也可以是所述计算机设备9的外部存储设备,例如该计算机设备9上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器9a还可以既包括所述计算机设备9的内部存储单元也包括其外部存储设备。本实施例中,所述存储器9a通常用于存储安装于所述计算机设备9的操作系统和各类应用软件,例如基于深度Q学习优化理赔预测模型的方法的计算机可读指令等。此外,所述存储器9a还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器9b在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器9b通常用于控制所述计算机设备9的总体操作。本实施例中,所述处理器9b用于运行所述存储器9a中存储的计算机可读指令或者处理数据,例如运行所述基于深度Q学习优化理赔预测模型的方法的计算机可读指令。
所述网络接口9c可包括无线网络接口或有线网络接口,该网络接口9c通常用于在所述计算机设备9与其他电子设备之间建立通信连接。
本实施例提出的计算机设备,属于模型优化技术领域。本申请通过获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码;获取预先基于所述各个预测节点而设定的预测环境信息;任选一组目标预测环境信息和状态码作为初始环境信息和初始状态;将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型;获取批量开放的理赔数据集;将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。通过预设的期望回报值、记忆力机制和快照机制进行理赔预测模型优化训练,降低了某一个理赔业务步骤的随机性对模型参数影响过大,避免了理赔各个业务流程的局限性,同时,采用快照机制,实现了通过设置快照步长,能够在特定的理赔业务步骤中获取实际回报值,及早发现不合格优化训练步骤,避免在不合格的优化训练步骤上消耗过多的训练资源,保证了及时获得更加准确和高价值性的理赔预测模型。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被处理器执行,以使所述处理器执行如上述的基于深度Q学习优化理赔预测模型的方法的步骤。
本实施例提出的计算机可读存储介质,属于模型优化技术领域。本申请通过获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码;获取预先基于所述各个预测节点而设定的预测环境信息;任选一组目标预测环境信息和状态码作为初始环境信息和初始状态;将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型;获取批量开放的理赔数据集;将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。通过预设的期望回报值、记忆力机制和快照机制进行理赔预测模型优化训练,降低了某一个理赔业务步骤的随机性对模型参数影响过大,避免了理赔各个业务流程的局限性,同时,采用快照机制,实现了通过设置快照步长,能够在特定的理赔业务步骤中获取实际回报值,及早发现不合格优化训练步骤,避免在不合格的优化训练步骤上消耗过多的训练资源,保证了及时获得更加准确和高价值性的理赔预测模型。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种基于深度Q学习优化理赔预测模型的方法,其特征在于,包括下述步骤:
获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;
根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码;
获取预先基于所述各个预测节点而设定的预测环境信息;
任选一组目标预测环境信息和状态码作为初始环境信息和初始状态;
将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型;
获取批量开放的理赔数据集;
将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。
2.根据权利要求1所述的基于深度Q学习优化理赔预测模型的方法,其特征在于,所述获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系的步骤,具体包括:
根据所述目标理赔预测模型的执行流程程序,输出理赔预测模型执行流程图;
基于所述理赔预测模型执行流程图,获取各个执行流程节点作为各个预测节点;
根据所述理赔预测模型执行流程图,识别相邻层级预测节点间的上下级关系。
3.根据权利要求2所述的基于深度Q学习优化理赔预测模型的方法,其特征在于,所述根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码的步骤,具体包括:
根据所述理赔预测模型执行流程图,从根预测节点开始依次对所述各个预测节点进行区别编号,其中,所述从根预测节点开始依次对所述各个预测节点进行区别编号的步骤,具体包括:基于相邻层级预测节点间的上下级关系,采用递增阿拉伯数字对不同层级间的预测节点进行层级编号;对相同层级间的不同预测节点,采用区别标识进行同层区别编号;
依次拼接当前预测节点对应的所述层级编号和所述同层区别编号,将拼接结果设置为所述当前预测节点的状态码。
4.根据权利要求3所述的基于深度Q学习优化理赔预测模型的方法,其特征在于,在执行所述对相同层级间的不同预测节点,采用区别标识进行同层区别编号的步骤之前,所述方法还包括:
统计当前层级中不同预测节点的数量;
若所述当前层级中不同预测节点的数量唯一,则为所述当前层级中唯一预测节点设置期望分值,其中,所述当前层级中唯一预测节点的期望分值为100;
若所述当前层级中不同预测节点的数量不唯一,则分别为所述当前层级中不同预测节点设置期望分值,其中,所述当前层级中不同预测节点的期望分值总和为100。
5.根据权利要求1所述的基于深度Q学习优化理赔预测模型的方法,其特征在于,在执行所述获取批量开放的理赔数据集的步骤之后,所述方法还包括:
预先根据是否拒赔将所述理赔数据集划分为正反数据集;
对所述正反数据集进行区别编号,其中,所述区别编号的步骤,具体包括:对正反数据集进行数据集区别编号;对正反数据集内不同理赔数据进行元素区别编号;
拼接所述数据集区别编号和所述元素区别编号,获得所述理赔数据集中每一条理赔数据的区别编号。
6.根据权利要求5所述的基于深度Q学习优化理赔预测模型的方法,其特征在于,所述将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练的步骤,具体包括:
将所述理赔数据集输入配置完成的目标理赔预测模型,获取所述理赔数据集中每一条理赔数据对应的输出回报值;
分别统计正反数据集中各个理赔数据对应的输出回报值;
通过整理计算,获取正反数据集分别对应的输出回报值区间;
识别所述预设的期望回报值是否为正反数据集对应的输出回报值区间的分界值;
若所述预设的期望回报值为所述分界值,则目标理赔预测模型训练完成;
若所述预设的期望回报值不是所述分界值,则采用记忆回放机制和快照机制对所述目标理赔预测模型进行优化训练。
7.根据权利要求6所述的基于深度Q学习优化理赔预测模型的方法,其特征在于,所述采用记忆回放机制和快照机制对所述目标理赔预测模型进行优化训练的步骤,具体包括:
步骤A,不断的根据当前环境信息,选择下一层的最佳预测节点,更新当前选择之后的输出回报值;
步骤B,每一次更新完当前选择之后的输出回报值后将上述选择过程放入记忆储存中;
步骤C,当所述记忆存储中存在预设条目的选择过程后,从所述记忆存储中进行随机采样,构建采样集合;
步骤D,根据所述采样集合进行快照机制下的模型参数更新;
步骤E,每更新完预设次数的模型参数,利用最新优化完成的目标理赔预测模型重新设置初始环境信息,并重复执行步骤A至步骤B产生新的记忆到所述记忆储存中;
循环执行步骤A至步骤E,直至所述预设的期望回报值为所述分界值,则所述目标理赔预测模型训练优化完毕。
8.一种基于深度Q学习优化理赔预测模型的装置,其特征在于,包括:
模型预测节点获取模块,用于获取目标理赔预测模型中的各个预测节点及相邻层级预测节点间的上下级关系;
状态码设置模块,用于根据相邻层级预测节点间的上下级关系对所述各个预测节点进行区别编号,将所述区别编号设置为状态码;
环境信息获取模块,用于获取预先基于所述各个预测节点而设定的预测环境信息;
初始化筛选模块,用于任选一组目标预测环境信息和状态码作为初始环境信息和初始状态;
初始化配置模块,用于将所述初始环境信息、初始状态和预设的期望回报值作为配置参数配置给所述目标理赔预测模型;
训练集获取模块,用于获取批量开放的理赔数据集;
训练优化模块,用于将所述理赔数据集输入配置完成的目标理赔预测模型,进行模型优化训练。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的基于深度Q学习优化理赔预测模型的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的基于深度Q学习优化理赔预测模型的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310511570.6A CN116611939A (zh) | 2023-05-06 | 2023-05-06 | 基于深度q学习优化理赔预测模型的方法及其相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310511570.6A CN116611939A (zh) | 2023-05-06 | 2023-05-06 | 基于深度q学习优化理赔预测模型的方法及其相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116611939A true CN116611939A (zh) | 2023-08-18 |
Family
ID=87681036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310511570.6A Pending CN116611939A (zh) | 2023-05-06 | 2023-05-06 | 基于深度q学习优化理赔预测模型的方法及其相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116611939A (zh) |
-
2023
- 2023-05-06 CN CN202310511570.6A patent/CN116611939A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112256886B (zh) | 图谱中的概率计算方法、装置、计算机设备及存储介质 | |
CN112035549B (zh) | 数据挖掘方法、装置、计算机设备及存储介质 | |
CN111080304A (zh) | 一种可信关系识别方法、装置及设备 | |
CN110674188A (zh) | 一种特征提取方法、装置及设备 | |
CN112036483B (zh) | 基于AutoML的对象预测分类方法、装置、计算机设备及存储介质 | |
CN116684330A (zh) | 基于人工智能的流量预测方法、装置、设备及存储介质 | |
CN113051911B (zh) | 提取敏感词的方法、装置、设备、介质及程序产品 | |
CN112199374B (zh) | 针对数据缺失的数据特征挖掘方法及其相关设备 | |
CN116703466A (zh) | 基于改进灰狼算法的系统访问量预测方法及其相关设备 | |
CN115185625A (zh) | 基于可配置卡片的自推荐式界面更新方法及其相关设备 | |
CN116611939A (zh) | 基于深度q学习优化理赔预测模型的方法及其相关设备 | |
CN112084408A (zh) | 名单数据筛选方法、装置、计算机设备及存储介质 | |
CN116340864B (zh) | 一种模型漂移检测方法、装置、设备及其存储介质 | |
CN115640896B (zh) | 多用户场景下的家庭用户电力负荷预测方法及相关设备 | |
CN116796133A (zh) | 数据分析方法、装置、计算机设备及存储介质 | |
CN116842011A (zh) | 血缘关系分析方法、装置、计算机设备及存储介质 | |
CN118035124A (zh) | 用例生成方法、装置、计算机设备及存储介质 | |
CN117056782A (zh) | 一种数据异常识别方法、装置、设备及其存储介质 | |
CN116611432A (zh) | 一种酒驾风险识别方法、装置、计算机设备及存储介质 | |
CN116402644A (zh) | 基于大数据多源数据融合分析的法律监督方法和系统 | |
CN117234505A (zh) | 一种交互页面生成方法、装置、设备及其存储介质 | |
CN116910095A (zh) | 埋点处理方法、装置、计算机设备及存储介质 | |
CN117235633A (zh) | 机构分类方法、装置、计算机设备及存储介质 | |
CN116797380A (zh) | 金融数据处理方法及其相关设备 | |
CN117493563A (zh) | 一种会话意图分析方法、装置、设备及其存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |