CN111782905B - 一种数据组包方法和装置、终端设备和可读存储介质 - Google Patents
一种数据组包方法和装置、终端设备和可读存储介质 Download PDFInfo
- Publication number
- CN111782905B CN111782905B CN202010602837.9A CN202010602837A CN111782905B CN 111782905 B CN111782905 B CN 111782905B CN 202010602837 A CN202010602837 A CN 202010602837A CN 111782905 B CN111782905 B CN 111782905B
- Authority
- CN
- China
- Prior art keywords
- data
- data set
- target
- initial set
- pieces
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000013136 deep learning model Methods 0.000 claims abstract description 37
- 230000002787 reinforcement Effects 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims abstract description 34
- 238000012856 packing Methods 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 37
- 230000000694 effects Effects 0.000 abstract description 6
- 238000012216 screening Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 14
- 238000004590 computer program Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 239000000047 product Substances 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000007795 chemical reaction product Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
本申请提供了一种数据组包方法和装置、终端设备和可读存储介质,其中,该方法包括:获取待处理数据集,其中,所述待处理数据集中包括多条数据;通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;对所述目标数据集进行组包操作。通过上述方案解决了现有的数据分类处理所存在的处理效率低下,准确率低的问题,达到了有效提升处理效率和分类准确度的技术效果。
Description
技术领域
本申请属于数据处理技术领域,尤其涉及一种数据组包方法和装置、终端设备和可读存储介质。
背景技术
随着互联网技术的不断发展,需要处理和分类的数据也变得越来越多,这也就使得通过人工方式从庞大的数据集中筛选出符合条件的子集变得越来越复杂。例如,在银行场景中,数据池是千万级的,从中人工筛选出符合条件的子集复杂度逐渐越高,从千万级信贷业务中自动筛选特定数量借据进行组包操作的工作量将非常巨大。
针对如何简单高效筛选出所需的数据子集,目前尚未提出有效的解决方案。
发明内容
本申请目的在于提供一种数据组包方法和装置、终端设备和可读存储介质,可以实现准确高效进行数据分类打包的技术效果。
本申请提供一种数据组包方法和装置、终端设备和可读存储介质是这样实现的:
一种数据组包方法,所述方法包括:
获取待处理数据集,其中,所述待处理数据集中包括多条数据;
通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;
对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;
对所述目标数据集进行组包操作。
在一个实施方式中,对所述第一数据集进行强化学习,得到目标数据集包括:
计算所述第一数据集中每条数据的得分;
从所述第一数据集中随机选取所述预定数量条数据作为初始集合;
计算所述初始集合的损失函数,得到损失值;
构建决策模型,以损失函数最小作为目标;
剔除所述初始集合中得到最低的数据,并从所述第一数据集中选取使得目标最大的数据加入所述初始集合中;
确定调整后的初始集合的损失值是否达到预设阈值;
如果达到所述预设阈值,则将调整后的初始集合作为所述目标数据集。
在一个实施方式中,在确定调整后的初始集合的损失值是否达到预设阈值之后,还包括:
如果未达到所述预设阈值,则确定是否达到第一迭代次数;
如果达到所述第一迭代次数,则从所述初始结合中剔除第一数量条数据,并从所述第一数据集中随机选取第二数量条数据加入所述初始集合中,并迭代执行:剔除所述初始集合中得到最低的数据,并从所述第一数据集中选取使得目标最大的数据加入所述初始集合中,确定调整后的初始集合的损失值是否达到预设阈值。
在一个实施方式中,在确定是否达到第一迭代次数之后还包括:
如果达到所述第一迭代次数,则确定是否达到第二迭代次数,其中,所述第二迭代次数大于所述第一迭代次数;
如果达到所述第二迭代次数,则将当前的初始集合作为所述目标数据集合;
计算所述目标集合的损失值。
在一个实施方式中,计算所述初始集合的损失函数,得到损失值,包括:
通过如下公式计算损失值:
L=(A-a1)2+(B-b1)2
其中,L表示损失值,a1表示加权利率,b1表示加权期限,A表示加权利率目标值,B表示加权期限目标值;
a1=∑(执行利率×封包余额)/总余额,
b1=∑(剩余期限*封包余额)/总余额。
在一个实施方式中,计算所述初始集合的损失函数,得到损失值,包括:
通过如下公式计算每条数据的得分:
S=(A-执行利率)2+(B-剩余期限)2
其中,S表示得分,A表示加权利率目标值,B表示加权期限目标值。
在一个实施方式中,所述待处理数据集为借据数据集,所述目标借据集为证券化数据集,所述设定的分类特征为证券化特征。
另一方面,提供了一种数据组包装置,包括:
获取模块,用于获取待处理数据集,其中,所述待处理数据集中包括多条数据;
识别模块,用于通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;
学习模块,用于对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;
组包模块,用于对所述目标数据集进行组包操作。
又一方面,提供了一种终端设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现如下方法的步骤:
获取待处理数据集,其中,所述待处理数据集中包括多条数据;
通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;
对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;
对所述目标数据集进行组包操作。
又一方面,提供了一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现如下方法的步骤:
获取待处理数据集,其中,所述待处理数据集中包括多条数据;
通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;
对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;
对所述目标数据集进行组包操作。
本申请提供的一种数据组包方法和装置、终端设备和可读存储介质,先通过深度学习模型对待处理数据集进行分类识别,得到第一数据集,再对第一数据集进行强化学习,得到目标数据集,从而对目标数据集进行组包操作。因此在这个过程中先通过深度学习模型进行初始筛选,因此可以降低后续强化学习的数据量,从而解决了现有的数据分类处理所存在的处理效率低下,准确率低的问题,达到了有效提升处理效率和分类准确度的技术效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的数据组包方法一种实施例的方法流程图;
图2是本申请提供的借据组包操作的方法流程图;
图3是本申请提供的服务器的一种实施例的模型结构示意图;
图4是本申请提供的数据组包装置的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
针对现有的数据分类所存在的问题,在本例中提供了一种数据组包方法,如图1所示,该方法可以包括如下步骤:
步骤101:获取待处理数据集,其中,所述待处理数据集中包括多条数据;
其中,上述待处理数据集可以最原始的,未经过任何分类处理数据的数据集。在待处理数据集中可以包括多条数据或者多条记录,每个记录可以作为一个整体数据,例如,可以是多条借据信息,那么每条借据信息就作为一条数据。
步骤102:通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;
即,先通过深度学习模型对数据集进行初次筛选,以选择出符合要求的数据。例如,如果是筛选得到符合证券化条件的数据,那么可以设定:产品种类、利率、还款方式、变动周期等作为学习特征,以对深度学习模型进行训练,得到可以进行初步筛选的模型。
然后将待处理数据集输入到建立的深度学习模型中,从而进行分类,得到第一数据集,那么第一数据集中的数据都是符合预设的证券化条件的。
步骤103:对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;
步骤104:对所述目标数据集进行组包操作。
其中,组包操作可以是对数据进行打包,形成一个数据集合,该数据集合可以作为后续处理的依据或者对象。例如,如果是证券化操作中的组包操作,那么可以是在得到目标数据集之后,对该目标数据集进行证券化,然后打包出售等。
在上例中,先通过深度学习模型对待处理数据集进行分类识别,得到第一数据集,再对第一数据集进行强化学习,得到目标数据集,从而对目标数据集进行组包操作。因此在这个过程中先通过深度学习模型进行初始筛选,因此可以降低后续强化学习的数据量,从而解决了现有的数据分类处理所存在的处理效率低下,准确率低的问题,达到了有效提升处理效率和分类准确度的技术效果。
在上述步骤103中,对所述第一数据集进行强化学习,得到目标数据集可以包括:
S1:计算所述第一数据集中每条数据的得分;
具体的,可以按照如下公式计算每条数据的得分:
S=(A-执行利率)2+(B-剩余期限)2
其中,S表示得分,A表示加权利率目标值,B表示加权期限目标值。
S2:从所述第一数据集中随机选取所述预定数量条数据作为初始集合;
S3:计算所述初始集合的损失函数,得到损失值;
具体的,可以按照如下公式计算损失值:
L=(A-a1)2+(B-b1)2
其中,L表示损失值,a1表示加权利率,b1表示加权期限,A表示加权利率目标值,B表示加权期限目标值;
a1=∑(执行利率×封包余额)/总余额,
b1=∑(剩余期限×封包余额)/总余额。
S4:构建决策模型,以损失函数最小作为目标;
S5:剔除所述初始集合中得到最低的数据,并从所述第一数据集中选取使得目标最大的数据加入所述初始集合中;
S6:确定调整后的初始集合的损失值是否达到预设阈值;
S7:如果达到所述预设阈值,则将调整后的初始集合作为所述目标数据集。
为了避免在强化学习的过程中陷入局部极值无法跳出,可以设置第一迭代次数,如果未达到上述的预设阈值,则确定是否达到第一迭代次数;如果达到所述第一迭代次数,则从所述初始结合中剔除第一数量条数据,并从所述第一数据集中随机选取第二数量条数据加入所述初始集合中,并迭代执行:剔除所述初始集合中得到最低的数据,并从所述第一数据集中选取使得目标最大的数据加入所述初始集合中,确定调整后的初始集合的损失值是否达到预设阈值。通过对初始集合中一定比例的数据进行替换,可以避免陷入局部极值无法跳出的状态。
进一步的,确定是否达到第一迭代次数之后,如果达到所述第一迭代次数,则确定是否达到第二迭代次数,其中,所述第二迭代次数大于所述第一迭代次数;如果达到所述第二迭代次数,则将当前的初始集合作为所述目标数据集合;计算所述目标集合的损失值。
在具体实施方式中,上述的待处理数据集可以是借据数据集,上述目标借据集可以是证券化数据集,设定的分类特征可以是证券化特征。
下面结合一个具体实施例对上述方法进行说明,然而,值得注意的是,该具体实施例仅是为了更好地说明本申请,并不构成对本申请的不当限定。
在本例中,结合了深度学习的感知学习能力和强化学习的决策能力,先通过深度学习完成了数据的初级筛选,然后,再通过强化学习完成了二次筛选,以达到最终准确筛选的目的。通过这种方式可以优化整个数据筛选过程,例如,应用在筛选组包过程中,可以满足自动化筛选组包的需求过程,通过深度学习与强化学习进行结合以自适应进行筛选组包并满足目标要求,可以有效提高组包效率、达到快速响应业务需要的目的。
具体的,可以包括如下步骤:
步骤1:通过预先训练的深度学习模型对总数据进行初次筛选:
即,可以获取识别特征,通过识别特征对深度学习模型进行训练。例如,如果是筛选得到符合证券化条件的数据,那么可以设定:产品种类、利率、还款方式、变动周期等作为学习特征,以对深度学习模型进行训练,得到可以进行初步筛选的模型。
通过训练得到的深度学习模型对总数据集进行初次筛选,这样可以缩小后续强化学习所需资源。举例而言,如果是自动筛选出特定数量的借据进行组包操作,可以使用深度学习建模进行数据分类,根据特定的证券化特征(例如:借据数据中区分度较大的产品种类、还款方式等特性)先对总借据集合进行初次筛选,筛选出符合证券化条件的借据,以缩小后续强化学习所需资源。
步骤2:使用强化学习进行决策学习,筛选出符合条件及规模的数据进行组包。
其中,强化学习所需要解决的问题是:从一个固定的数据集S中,筛选出n条数据作为子集N,且这n条数据需要满足筛选条件,其中,损失函数可以定义为:
L=(A-a1)2+(B-b1)2
其中,L表示损失值,a1表示加权利率,b1表示加权期限,A表示加权利率目标值,B表示加权期限目标值;
a1=∑(借据执行利率×借据封包余额)/总余额,
b1=∑(借据剩余期限×借据封包余额)/总余额。
对于单笔数据,得分函数可以定义为:
S=(A-借据执行利率)2+(B-借据剩余期限)2
其中,S表示得分,A表示加权利率目标值,B表示加权期限目标值。
以一个具体场景为例进行说明,例如,在借据组包操作中,可以如图2所示,包括如下步骤:
S1:根据证券化借据特定的特征,搭建神经网络进行分类,初次筛选出符合条件的借据集合S,即,根据证券化特征进行建模,基于建模结果筛选出初次筛选集合S,并为每条记录标记序号,例如:记录1、记录2、记录3等等。
S2:计算每笔借据的得分函数;
S3:随机挑选n笔借据作为初始集合N,并计算当前集合的损失函数L;即,从集合S中随机选取n笔借据(即,n条记录)组成初始子集N,其中,n为预设的固定数值,确定当前集合N与目标值的损失函数L,计算目标损失;然后,通过加权利率、加权期限、总规模、损失值L等构建DQN决策学习的模型,使损失函数最小作为目标Q。
S4:使一笔借据加入集合N后的损失函数最小作为目标Q构建DQN(深度强化学习)决策网络;
S5:剔除得分S较低的借据,并通过DQN网络从集合S中选取使Q值最大的借据加入到集合N中,计算损失函数;
S6:确定损失函数是否满足阈值或达到迭代次数Z2;
S7:如果不满足阈值,且达到一定迭代次数Z1(Z1<Z2),则从集合N中随机剔除一定数量(例如:一半、预定条数、1/3等),并从集合S中随机挑选对应数目补充到集合N中,以避免陷入局部极小值,重复执行S4,直到满足阈值要求或达到规定迭代次数Z2;
S8:得到最终的借据集合以及损失值。
在上例中,通过从集合S中选取N个集合,求得满足结果的近似解,可以实现自动化筛选借据集合的目的,将深度学习与强化学习进行结合,解决了深度学习不能进行决策的问题。具体的,通过先使用证券化特征通过深度学习进行初次筛选,可以减少数据集,降低后续处理复杂度,明确了单笔借据的得分函数,使用得分作为剔除借据的指标,便于在强化学习过程中维持数据集合N的数目,同时对迭代次数做了限制,避免陷入局部极值无法跳出。
本申请上述实施例所提供的方法实施例可以在服务器端、计算机终端或者类似的运算装置中执行。以运行在服务器端为例,图3是本发明实施例的一种数据组包方法的服务器的硬件结构框图。如图3所示,服务器10可以包括一个或多个(图中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输模块106。本领域普通技术人员可以理解,图3所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,服务器10还可包括比图3中所示更多或者更少的组件,或者具有与图3所示不同的配置。
存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中的数据组包方法对应的程序指令/模块,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的数据组包方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输模块106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输模块106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输模块106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
在软件层面,上述数据组包装置可以如图4所示,包括:
获取模块401,用于获取待处理数据集,其中,所述待处理数据集中包括多条数据;
识别模块402,用于通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;
学习模块403,用于对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;
组包模块404,用于对所述目标数据集进行组包操作。
在一个实施方式中,上述学习模块403具体可以计算所述第一数据集中每条数据的得分;从所述第一数据集中随机选取所述预定数量条数据作为初始集合;计算所述初始集合的损失函数,得到损失值;构建决策模型,以损失函数最小作为目标;剔除所述初始集合中得到最低的数据,并从所述第一数据集中选取使得目标最大的数据加入所述初始集合中;确定调整后的初始集合的损失值是否达到预设阈值;如果达到所述预设阈值,则将调整后的初始集合作为所述目标数据集。
在一个实施方式中,在确定调整后的初始集合的损失值是否达到预设阈值之后,还可以包括:如果未达到所述预设阈值,则确定是否达到第一迭代次数;如果达到所述第一迭代次数,则从所述初始结合中剔除第一数量条数据,并从所述第一数据集中随机选取第二数量条数据加入所述初始集合中,并迭代执行:剔除所述初始集合中得到最低的数据,并从所述第一数据集中选取使得目标最大的数据加入所述初始集合中,确定调整后的初始集合的损失值是否达到预设阈值。
在一个实施方式中,在确定是否达到第一迭代次数之后还可以包括:如果达到所述第一迭代次数,则确定是否达到第二迭代次数,其中,所述第二迭代次数大于所述第一迭代次数;如果达到所述第二迭代次数,则将当前的初始集合作为所述目标数据集合;计算所述目标集合的损失值。
在一个实施方式中,计算所述初始集合的损失函数,得到损失值,可以包括:
通过如下公式计算损失值:
L=(A-a1)2+(B-b1)2
其中,L表示损失值,a1表示加权利率,b1表示加权期限,A表示加权利率目标值,B表示加权期限目标值;
a1=∑(执行利率×封包余额)/总余额,
b1=∑(剩余期限×封包余额)/总余额。
在一个实施方式中,计算所述初始集合的损失函数,得到损失值,可以包括:
通过如下公式计算每条数据的得分:
S=(A-执行利率)2+(B-剩余期限)2
其中,S表示得分,A表示加权利率目标值,B表示加权期限目标值。
在一个实施方式中,上述待处理数据集可以是借据数据集,目标借据集可以是证券化数据集,所述设定的分类特征可以是证券化特征。
本申请的实施例还提供能够实现上述实施例中的数据组包方法中全部步骤的一种电子设备的具体实施方式,所述电子设备具体包括如下内容:处理器(processor)、存储器(memory)、通信接口(Communications Interface)和总线;其中,所述处理器、存储器、通信接口通过所述总线完成相互间的通信;所述处理器用于调用所述存储器中的计算机程序,所述处理器执行所述计算机程序时实现上述实施例中的数据组包方法中的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
步骤1:获取待处理数据集,其中,所述待处理数据集中包括多条数据;
步骤2:通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;
步骤3:对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;
步骤4:对所述目标数据集进行组包操作。
从上述描述可知,本申请实施例先通过深度学习模型对待处理数据集进行分类识别,得到第一数据集,再对第一数据集进行强化学习,得到目标数据集,从而对目标数据集进行组包操作。因此在这个过程中先通过深度学习模型进行初始筛选,因此可以降低后续强化学习的数据量,从而解决了现有的数据分类处理所存在的处理效率低下,准确率低的问题,达到了有效提升处理效率和分类准确度的技术效果。
本申请的实施例还提供能够实现上述实施例中的数据组包方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的数据组包方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
步骤1:获取待处理数据集,其中,所述待处理数据集中包括多条数据;
步骤2:通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;
步骤3:对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;
步骤4:对所述目标数据集进行组包操作。
从上述描述可知,本申请实施例先通过深度学习模型对待处理数据集进行分类识别,得到第一数据集,再对第一数据集进行强化学习,得到目标数据集,从而对目标数据集进行组包操作。因此在这个过程中先通过深度学习模型进行初始筛选,因此可以降低后续强化学习的数据量,从而解决了现有的数据分类处理所存在的处理效率低下,准确率低的问题,达到了有效提升处理效率和分类准确度的技术效果。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于硬件+程序类实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
虽然本申请提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、车载人机交互设备、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
虽然本说明书实施例提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或终端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至为分布式数据处理环境)。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括所述要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书实施例时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书实施例的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
以上所述仅为本说明书实施例的实施例而已,并不用于限制本说明书实施例。对于本领域技术人员来说,本说明书实施例可以有各种更改和变化。凡在本说明书实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书实施例的权利要求范围之内。
Claims (9)
1.一种数据组包方法,其特征在于,所述方法包括:
获取待处理数据集,其中,所述待处理数据集中包括多条数据;
通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;
对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;
对所述目标数据集进行组包操作;
其中,对所述第一数据集进行强化学习,得到目标数据集包括:
计算所述第一数据集中每条数据的得分;
从所述第一数据集中随机选取所述预定数量条数据作为初始集合;
计算所述初始集合的损失函数,得到损失值;
构建决策模型,以损失函数最小作为目标;
剔除所述初始集合中得分最低的数据,并从所述第一数据集中选取使得目标最大的数据加入所述初始集合中;
确定调整后的初始集合的损失值是否达到预设阈值;
如果达到所述预设阈值,则将调整后的初始集合作为所述目标数据集。
2.根据权利要求1所述的方法,其特征在于,在确定调整后的初始集合的损失值是否达到预设阈值之后,还包括:
如果未达到所述预设阈值,则确定是否达到第一迭代次数;
如果达到所述第一迭代次数,则从所述初始集合中剔除第一数量条数据,并从所述第一数据集中随机选取第二数量条数据加入所述初始集合中,并迭代执行:剔除所述初始集合中得分最低的数据,并从所述第一数据集中选取使得目标最大的数据加入所述初始集合中,确定调整后的初始集合的损失值是否达到预设阈值。
3.根据权利要求2所述的方法,其特征在于,在确定是否达到第一迭代次数之后还包括:
如果达到所述第一迭代次数,则确定是否达到第二迭代次数,其中,所述第二迭代次数大于所述第一迭代次数;
如果达到所述第二迭代次数,则将当前的初始集合作为所述目标数据集合;
计算所述目标集合的损失值。
4.根据权利要求1所述的方法,其特征在于,计算所述初始集合的损失函数,得到损失值,包括:
通过如下公式计算损失值:
L=(A-a1)2+(B-b1)2
其中,L表示损失值,a1表示加权利率,b1表示加权期限,A表示加权利率目标值,B表示加权期限目标值;
a1=∑(执行利率×封包余额)/总余额,
b1=∑(剩余期限×封包余额)/总余额。
5.根据权利要求1所述的方法,其特征在于,计算所述初始集合的损失函数,得到损失值,包括:
通过如下公式计算每条数据的得分:
S=(A-执行利率)2+(B-剩余期限)2
其中,S表示得分,A表示加权利率目标值,B表示加权期限目标值。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述待处理数据集为借据数据集,所述目标数据集为证券化数据集,所述设定的分类特征为证券化特征。
7.一种数据组包装置,其特征在于,包括:
获取模块,用于获取待处理数据集,其中,所述待处理数据集中包括多条数据;
识别模块,用于通过深度学习模型对所述待处理数据集进行分类识别,得到第一数据集,其中,所述深度学习模型是通过设定的分类特征进行训练得到的;
学习模块,用于对所述第一数据集进行强化学习,得到目标数据集,其中,所述目标数据集中包括预定数量条数据;
组包模块,用于对所述目标数据集进行组包操作;
其中,所述学习模块具体用于对所述第一数据集进行强化学习,得到目标数据集包括:计算所述第一数据集中每条数据的得分;从所述第一数据集中随机选取所述预定数量条数据作为初始集合;计算所述初始集合的损失函数,得到损失值;构建决策模型,以损失函数最小作为目标;剔除所述初始集合中得分最低的数据,并从所述第一数据集中选取使得目标最大的数据加入所述初始集合中;确定调整后的初始集合的损失值是否达到预设阈值;如果达到所述预设阈值,则将调整后的初始集合作为所述目标数据集。
8.一种终端设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现权利要求1至6中任一项所述方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现权利要求1至6中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010602837.9A CN111782905B (zh) | 2020-06-29 | 2020-06-29 | 一种数据组包方法和装置、终端设备和可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010602837.9A CN111782905B (zh) | 2020-06-29 | 2020-06-29 | 一种数据组包方法和装置、终端设备和可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111782905A CN111782905A (zh) | 2020-10-16 |
CN111782905B true CN111782905B (zh) | 2024-02-09 |
Family
ID=72760134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010602837.9A Active CN111782905B (zh) | 2020-06-29 | 2020-06-29 | 一种数据组包方法和装置、终端设备和可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111782905B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583501A (zh) * | 2018-11-30 | 2019-04-05 | 广州市百果园信息技术有限公司 | 图片分类、分类识别模型的生成方法、装置、设备及介质 |
CN109784368A (zh) * | 2018-12-11 | 2019-05-21 | 同盾控股有限公司 | 一种应用程序分类的确定方法和装置 |
CN109949827A (zh) * | 2019-03-15 | 2019-06-28 | 上海师范大学 | 一种基于深度学习与强化学习的室内声学行为识别方法 |
CN111309912A (zh) * | 2020-02-24 | 2020-06-19 | 深圳市华云中盛科技股份有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180322386A1 (en) * | 2017-05-05 | 2018-11-08 | Intel Corporation | Fine-grain compute communication execution for deep learning frameworks |
-
2020
- 2020-06-29 CN CN202010602837.9A patent/CN111782905B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583501A (zh) * | 2018-11-30 | 2019-04-05 | 广州市百果园信息技术有限公司 | 图片分类、分类识别模型的生成方法、装置、设备及介质 |
CN109784368A (zh) * | 2018-12-11 | 2019-05-21 | 同盾控股有限公司 | 一种应用程序分类的确定方法和装置 |
CN109949827A (zh) * | 2019-03-15 | 2019-06-28 | 上海师范大学 | 一种基于深度学习与强化学习的室内声学行为识别方法 |
CN111309912A (zh) * | 2020-02-24 | 2020-06-19 | 深圳市华云中盛科技股份有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111782905A (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363449B (zh) | 一种风险识别方法、装置及系统 | |
CN110647921B (zh) | 一种用户行为预测方法、装置、设备及存储介质 | |
CN110674188A (zh) | 一种特征提取方法、装置及设备 | |
CN109614414B (zh) | 一种用户信息的确定方法及装置 | |
CN110097450A (zh) | 车贷风险评估方法、装置、设备和存储介质 | |
CN107451854A (zh) | 确定用户类型的方法及装置、电子设备 | |
CN111931053A (zh) | 一种基于聚类和矩阵分解的事项推送方法和装置 | |
CN109344969B (zh) | 神经网络系统及其训练方法以及计算机可读介质 | |
CN109948680A (zh) | 病历数据的分类方法及系统 | |
CN109635953A (zh) | 一种特征衍生方法、装置及电子设备 | |
CN109325530A (zh) | 基于少量无标签数据的深度卷积神经网络的压缩方法 | |
CN106649210A (zh) | 一种数据转换方法及装置 | |
CN114358216A (zh) | 基于机器学习框架的量子聚类方法及相关装置 | |
CN110516713A (zh) | 一种目标群体识别方法、装置及设备 | |
CN111177562B (zh) | 一种目标对象的推荐排序处理方法、装置及服务器 | |
CN111782905B (zh) | 一种数据组包方法和装置、终端设备和可读存储介质 | |
CN113837635A (zh) | 风险检测处理方法、装置及设备 | |
CN113144624A (zh) | 一种数据处理方法、装置、设备及存储介质 | |
CN108932525A (zh) | 一种行为预测方法及装置 | |
CN116560968A (zh) | 一种基于机器学习的仿真计算时间预测方法、系统及设备 | |
CN109409527A (zh) | 数据处理方法、装置、系统以及存储介质 | |
CN115660105A (zh) | 一种模型训练的方法、业务风控的方法及装置 | |
CN111461328B (zh) | 一种神经网络的训练方法 | |
CN112307371B (zh) | 小程序子服务识别方法、装置、设备及存储介质 | |
CN111078877B (zh) | 数据处理、文本分类模型的训练、文本分类方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |