CN117934155A - 资源分配模型的矫正方法及装置、存储介质、电子设备 - Google Patents
资源分配模型的矫正方法及装置、存储介质、电子设备 Download PDFInfo
- Publication number
- CN117934155A CN117934155A CN202410115695.1A CN202410115695A CN117934155A CN 117934155 A CN117934155 A CN 117934155A CN 202410115695 A CN202410115695 A CN 202410115695A CN 117934155 A CN117934155 A CN 117934155A
- Authority
- CN
- China
- Prior art keywords
- resource
- user
- model
- data
- financial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 238000013468 resource allocation Methods 0.000 title claims abstract description 89
- 238000003860 storage Methods 0.000 title claims abstract description 24
- 238000012937 correction Methods 0.000 title description 11
- 238000009826 distribution Methods 0.000 claims abstract description 125
- 238000003062 neural network model Methods 0.000 claims abstract description 101
- 238000012545 processing Methods 0.000 claims description 59
- 238000012549 training Methods 0.000 claims description 36
- 230000009471 action Effects 0.000 claims description 26
- 239000000872 buffer Substances 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 15
- 230000008901 benefit Effects 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 9
- 230000009467 reduction Effects 0.000 claims description 8
- 238000004140 cleaning Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 24
- 230000002787 reinforcement Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000013486 operation strategy Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开是关于一种资源分配模型的矫正方法及装置、存储介质、电子设备,涉及机器学习技术领域,该方法包括:获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征;将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略;基于所述流量分发策略为所述目标用户分配目标金融资源,并基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型。本公开提高了资源分配模型的准确率。
Description
技术领域
本公开实施例涉及机器学习技术领域,具体而言,涉及一种资源分配模型的矫正方法、资源分配模型的矫正装置、计算机可读存储介质、电子设备。
背景技术
现有的资源分配模型,是基于历史用户数据来构造的。但是,基于历史用户数据构造资源分配模型,存在如下缺陷:历史用户数据存在数据量不够问题,因此会导致所构建的资源分配模型的准确率较低。
需要说明的是,在上述背景技术部分发明的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种资源分配模型的矫正方法、资源分配模型的矫正装置、计算机可读存储介质、电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的资源分配模型的准确率较低的问题。
根据本公开的一个方面,提供一种资源分配模型的矫正方法,包括:
获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征;
将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略;
基于所述流量分发策略为所述目标用户分配目标金融资源,并基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型。
在本公开的一种示例性实施例中,根据当前用户数据以及当前资源数据构建模型输入特征,包括:
根据所述当前用户数据,构建所述目标用户在模型状态空间上的第一用户特征以及在模型动作空间上的第二用户特征;
根据所述当前资源数据,构建所述待分配资源在模型状态空间上的第一资源特征,并根据所述第一用户特征、第二用户特征以及第一资源特征,构建所述模型输入特征。
在本公开的一种示例性实施例中,根据所述当前用户数据,构建所述目标用户在模型状态空间上的第一用户特征以及在模型动作空间上的第二用户特征,包括:
对所述当前用户数据进行数据清洗,得到目标用户数据;其中,所述当前用户数据包括所述目标用户的用户基本信息、用户风险信息、分发至所述目标用户的历史已分发金融资源、所述目标用户对历史已分发金融资源的历史资源反馈信息、所述历史已分发资源的资源分发方式、所述历史已分发金融资源的资源分发时间以及资源分发频率中的至少一种;
根据所述目标用户数据中的用户基本信息、用户风险信息以及历史资源反馈信息,构建所述目标用户在模型状态空间上的第一用户特征;
根据所述目标用户数据中的历史已分发金融资源、资源分发方式、资源分发时间以及资源分发频率,构建所述目标用户在模型动作空间上的第二用户特征。
在本公开的一种示例性实施例中,根据所述当前资源数据,构建所述待分配资源在模型状态空间上的第一资源特征,包括:
提取所述当前资源数据中包括待分配金融资源的产品价格信息、产品额度信息以及产品风险信息;
根据所述产品价格信息、产品额度信息以及产品风险信息,构建所述待分配资源在模型状态空间上的第一资源特征。
在本公开的一种示例性实施例中,所述训练完成的深度神经网络模型包括第一卷积层、第二卷积层、第一池化层、第三卷积层、第一特征融合层、第一全连接层、第二全连接层;
其中,将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,包括:
基于所述第一卷积层对所述模型输入特征中的第一用户特征以及第二用户特征进行第一次卷积处理,得到第一卷积处理结果,并基于第二卷积层对第一卷积处理结果进行第二次卷积处理,得到第二卷积处理结果;
基于所述第一池化层对所述第二卷积处理结果进行特征降维处理,并基于第三卷积层对降维处理后的第二卷积处理结果进行第三次卷积处理,得到第三卷积处理结果;
基于第一特征融合层对第三卷积处理结果以及所述模型输入特征中的第一资源特征进行融合,得到第一特征融合结果,并基于第一全连接层对所述第一特征融合结果进行特征提取,得到第一特征提取结果;
基于第二全连接层对所述第一特征提取结果进行特征提取,得到所述第一用户预测结果。
在本公开的一种示例性实施例中,根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略,包括:
根据所述第一用户预测结果对所述待分配金融资源进行排序,得到金融资源排序结果,并对所述第一用户预测结果进行归一化处理,得到与所述待分配金融资源对应的当前资源收益概率;
基于所述当前资源收益概率,确定与所述目标用户对应的流量分发策略;其中,所述流量分发策略包括流量分发动作和/或流量操作策略。
在本公开的一种示例性实施例中,基于所述当前资源收益概率,确定与所述目标用户对应的流量分发策略,包括:
判断所述待分配金融资源中是否存在新增金融资源;
在确定所述待分配金融资源中存在新增金融资源时,为所述新增金融资源分配基础收益概率;
基于所述基础收益概率以及当前资源收益概率,计算所述待分配资源中除开所述新增金融资源以外的其他待分配资源的实际分发概率,并根据基础收益概率计算所述待分配资源中的新增金融资源的实际分发概率;
根据所述实际分发概率,确定与所述目标用户对应的流量分发策略。
在本公开的一种示例性实施例中,基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型,包括:
获取所述目标用户对所述目标金融资源的当前资源反馈信息,并将所述当前资源反馈信息存储至预设的数据缓冲区中;
随机的从所述数据缓冲区中的当前资源反馈信息中抽取第一信息样本,并根据所述第一信息样本以及与第一信息样本对应的第一用户预测结果,构建第一损失函数;
基于所述第一损失函数对所述训练完成的深度神经网络模型进行迭代,得到迭代后的深度神经网络模型,并根据迭代后的深度神经网络模型,确定金融资源分配模型。
在本公开的一种示例性实施例中,根据迭代后的深度神经网络模型,确定金融资源分配模型,包括:
获取所述数据缓冲区中的当前资源反馈信息中除开第一信息样本以外的第二信息样本,并基于迭代后的深度神经网络模型,对与第二信息样本对应的模型输入特征进行预测,得到第二用户预测结果;
计算第一信息样本以及第一用户预测结果之间的第一均方差,并计算第二用户预测结果以及第二信息样本之间的第二均方差;
若第一均方差大于第二均方差,则将迭代训练后的深度神经网络模型作为金融资源分配模型,若第一均方差小于第二均方差,则将训练完成的深度神经网络模型作为金融资源分配模型。
在本公开的一种示例性实施例中,所述金融资源分配模型的矫正方法还包括:
获取历史用户数据以及历史资源数据,并判断所述历史用户数据以及历史资源数据的数据量是否满足模型训练要求;
若所述历史用户数据以及历史资源数据的数据量满足模型训练要求,则基于所述历史用户数据以及历史资源数据对待训练的深度神经网络模型进行训练,得到训练完成的深度神经网络模型;
若所述历史用户数据以及历史资源数据的数据量不满足模型训练要求,则对待训练的深度神经网络模型中包括的模型参数进行初始化处理,得到训练完成的深度神经网络模型。
根据本公开的一个方面,提供一种资源分配模型的矫正装置,包括:
模型输入特征构建模块,用于获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征;
流量分发策略确定模块,用于将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略;
资源分配模型调整模块,用于基于所述流量分发策略为所述目标用户分配目标金融资源,并基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的资源分配模型的矫正方法。
根据本公开的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的资源分配模型的矫正方法。
本公开实施例提供的一种资源分配模型的矫正方法,一方面,通过获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征;然后将模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据第一用户预测结果确定与目标用户对应的流量分发策略;最后基于流量分发策略为目标用户分配目标金融资源,并基于目标用户对目标金融资源的当前资源反馈信息,对深度神经网络模型进行迭代,得到金融资源分配模型,实现了基于当前用户数据以及当前资源数据对深度神经网络模型进行迭代进而得到金融资源分配模型,也就是说,可以在历史用户数据的基础上,基于当前用户数据对深度神经网络模型进行进一步的迭代,进而解决了现有技术中由于历史用户数据存在数据量不够导致的资源分配模型的准确率较低的问题;另一方面,由于在进行金融资源分配时,充分考虑了当前用户数据以及当前资源数据,且可以基于深度神经网络模型来实现金融资源分配,进而可以在提高金融资源的分配效率的基础上,提高金融资源分配的准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出根据本公开示例实施例的一种资源分配模型的矫正方法的流程图。
图2示意性示出根据本公开示例实施例的一种资源分配模型的矫正系统的框图。
图3示意性示出根据本公开示例实施例的一种服务器的结构示例图。
图4示意性示出根据本公开示例实施例的一种深度神经网络模型的结构示例图。
图5示意性示出根据本公开示例实施例的一种深度神经网络模型的训练方法的流程图。
图6示意性示出根据本公开示例实施例的一种基于目标用户对目标金融资源的当前资源反馈信息,对深度神经网络模型进行迭代,得到金融资源分配模型的方法流程图。
图7示意性示出根据本公开示例实施例的一种资源分配模型的矫正装置的框图。
图8示意性示出根据本公开示例实施例的一种用于实现上述资源分配模型的矫正方法的电子设备。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
在金融资源领域,金融资源流量分发的目标是,合理匹配用户和资源提供方,进而使得用户和资源提供方均能达到最大化的收益。传统的金融资源分发策略通常是基于历史用户数据构造资源收益模型,或者基于专家经验制定资源分发策略,进而基于资源收益模型或资源分发策略,为用户匹配得分最高的资源提供方对应的金融资源。
进一步的,上述提供的方案还存在如下缺陷:一方面,在构造资源收益模型时,是基于金融资源分发的历史表现数据;因此,在接入新的资源提供方或资源提供方的准入策略发生调整时,该资源收益模型可能表现不佳;另一方面,上述所记载的资源收益模型或者资源分发策略,可能会因为历史数据的覆盖范围导致模型的偏差或者策略的偏差,进而使得资源分发结果的准确率较低。
基于此,本公开示例实施例提供了一种资源分配模型的矫正方法,该资源分配模型的矫正方法采用深度强化学习的方法,构建金融资源分配场景下的环境模型;同时,通过设置合适的奖励函数,经过深度强化学习的训练过程,可以逐步优化资源分配模型的资源分配效果和资源分配效率,并且自动适应变化的用户类别和资源提供方的准入策略,在过程中采用探索-开发的思想,可以覆盖历史数据中未出现的情形,提高金融资源分配过程中的个性化程度和精准度,最终达到使得资源提供方实现最大化收益的目标。
在一种示例实施例中,本公开示例实施例所提供的资源分配模型的矫正方法,可以运行于Spark计算引擎所在的服务器、服务器集群或云服务器等;当然,本领域技术人员也可以根据需求在其他平台运行本公开的方法,本示例性实施例中对此不做特殊限定。具体的,参考图1所示,该资源分配模型的矫正方法可以包括以下步骤:
步骤S110.获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征;
步骤S120.将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略;
步骤S130.基于所述流量分发策略为所述目标用户分配目标金融资源,并基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型。
上述资源分配模型的矫正方法中,一方面,通过获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征;然后将模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据第一用户预测结果确定与目标用户对应的流量分发策略;最后基于流量分发策略为目标用户分配目标金融资源,并基于目标用户对目标金融资源的当前资源反馈信息,对深度神经网络模型进行迭代,得到金融资源分配模型,实现了基于当前用户数据以及当前资源数据对深度神经网模型进行迭代进而得到金融资源分配模型,也就是说,可以在历史用户数据的基础上,基于当前用户数据对深度神经网络模型进行进一步的迭代,进而解决了现有技术中由于历史用户数据存在数据量不够导致的资源分配模型的准确率较低的问题;另一方面,由于在进行金融资源分配时,充分考虑了当前用户数据以及当前资源数据,且可以基于深度神经网络模型来实现金融资源分配,进而可以在提高金融资源的分配效率的基础上,提高金融资源分配的准确率。
以下,将结合附图对本公开示例实施例所记载的资源分配模型的矫正方法进行进一步的解释以及说明。
首先,对本公开示例实施例所涉及到的资源分配模型的矫正系统进行解释以及说明。具体的,参考图2所示,该资源分配模型的矫正系统可以包括终端设备210以及服务器220;其中,终端设备可以通过有线网络或者无线网络与服务器通信连接;在实际应用的过程中,终端设备可以用于接收服务器发送的目标金融资源,以使得用户基于所分配的目标金融资源执行相应的操作,并生成相应的资源反馈信息;服务器可以用于实现本公开示例实施例所记载的资源分配模型的矫正方法。
进一步的,参考图3所示,此处所记载的服务器,可以包括Hive集群310、SQL数据库320、数据缓冲区330、Spark计算引擎340;其中,Hive集群、SQL数据库以及数据缓冲区可以分别于Spark计算引擎通信连接,Hive集群可以用于存储当前资源数据或者历史资源数据,SQL数据库可以用于存储当前用户数据或者历史用户数据,数据缓冲区可以用于存储资源反馈信息,Spark计算引擎可以用于实现本公开示例实施例所记载的资源分配模型的矫正方法。在实际应用的过程中,通过该方式,可以降低Spark计算引擎的存储负担,进而提高模型调整效率。
其次,对本公开示例实施例所记载的深度神经网络模型进行解释以及说明。具体的,参考图4所示,该深度神经网络模型可以包括输入层401、第一卷积层402、第二卷积层403、第一池化层404、第三卷积层405、第一特征融合层406、第一全连接层407、第二全连接层408以及输出层409。其中,输入层401、第一卷积层402、第二卷积层403、第一池化层404、第三卷积层405、第一特征融合层406、第一全连接层407、第二全连接层408以及输出层409,依次连接;同时,各个不同层级的具体功能会在后文详细介绍,此处不再进一步的解释以及说明。
在一种示例实施例中,此处所记载的深度神经网络模型,也可以被称为是为深度强化学习模型;具体的,深度强化学习模型是一种结合深度学习和强化学习的模型,其可以用于解决具有高度复杂性和不确定性的决策问题;在实际应用的过程中,其可以通过将神经网络与强化学习算法相结合,能够从交互环境中获取大量的原始数据,并通过反馈机制进行学习和改进。进一步的,深度强化学习使用神经网络作为函数近似器,将状态映射到动作的概率分布;同时,深度神经网络模型还可以学习从原始感知数据中提取特征,对环境进行建模和预测;并且,通过大规模的数据和反向传播算法,神经网络能够逐渐调整权重,最终提高整体策略的性能。更进一步的,在金融资源分配的场景下,可以通过定义合适状态空间、动作空间和奖励函数,使用深度神经网络学习奖励函数,使用强化学习的思想自适应的更新深度模型,最终达到流量分发收益最大化的目标。
以下,将结合图5对深度神经网络模型的训练过程进行解释以及说明。具体的,深度神经网络模型的具体训练过程,可以包括以下步骤:
步骤S510,获取历史用户数据以及历史资源数据,并判断所述历史用户数据以及历史资源数据的数据量是否满足模型训练要求;
步骤S520,若所述历史用户数据以及历史资源数据的数据量满足模型训练要求,则基于所述历史用户数据以及历史资源数据对待训练的深度神经网络模型进行训练,得到训练完成的深度神经网络模型;
步骤S530,若所述历史用户数据以及历史资源数据的数据量不满足模型训练要求,则对待训练的深度神经网络模型中包括的模型参数进行初始化处理,得到训练完成的深度神经网络模型。
以下,将对步骤S510-步骤S530进行解释以及说明。具体的,在实际应用的过程中,对待训练的深度神经网络模型进行训练,需要充足的历史用户数据以及历史资源数据;因此,在进行模型训练之前,可以判断历史用户数据以及历史资源数据是否充足;若充足,则可以基于历史用户数据以及历史资源数据对待训练的深度神经网络模型进行训练;若不充足,则可以对待训练的深度神经网络模型中的深度模型参数进行随机初始化处理,并基于该过程取代具体的训练过程;基于该方式,可以避免由于数据过少导致的模型在训练时存在欠拟合的问题。
以下,将结合图2-图5,对图1中所示出的资源分配模型的矫正方法进行进一步的解释以及说明。具体的:
在步骤S110中,获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征。
具体的,在实际应用的过程中,对于待分配金融资源的分配,可以通过主动推送的方式,将匹配到的目标金融资源推送至目标用户所在的终端设备;也即,服务器可以直接从SQL数据库中获取当前用户数据;同时,再从Hive集群中获取待分配金融资源的当前资源数据;其中,此处所记载的Hive集群,也可以是Hadoop集群或者其他数据存储集群,本示例对此不做特殊限制。
进一步的,在获取到当前用户数据以及当前资源数据以后,即可根据当前用户数据以及当前资源数据构建模型输入特征。具体的,可以通过如下方式实现:首先,根据所述当前用户数据,构建所述目标用户在模型状态空间上的第一用户特征以及在模型动作空间上的第二用户特征;其次,根据所述当前资源数据,构建所述待分配资源在模型状态空间上的第一资源特征,并根据所述第一用户特征、第二用户特征以及第一资源特征,构建所述模型输入特征。也即,在构建模型输入特征的过程中,不仅需要考虑到模型状态空间上的特征,还需要考虑到模型动作空间上的特征;同时,在构建模型状态空间上的特征时,不仅要考虑到用户特征,还需要考虑到资源特征;在此前提下,可以确保所构建的模型输入特征的全面性,进而可以达到提高所得到的第一用户预测结果的准确性的目的。
在一种示例实施例中,根据所述当前用户数据,构建所述目标用户在模型状态空间上的第一用户特征以及在模型动作空间上的第二用户特征,可以通过如下方式实现:对所述当前用户数据进行数据清洗,得到目标用户数据;其中,所述当前用户数据包括所述目标用户的用户基本信息、用户风险信息、分发至所述目标用户的历史已分发金融资源、所述目标用户对历史已分发金融资源的历史资源反馈信息、所述历史已分发资源的资源分发方式、所述历史已分发金融资源的资源分发时间以及资源分发频率中的至少一种;根据所述目标用户数据中的用户基本信息、用户风险信息以及历史资源反馈信息,构建所述目标用户在模型状态空间上的第一用户特征;根据所述目标用户数据中的历史已分发金融资源、资源分发方式、资源分发时间以及资源分发频率,构建所述目标用户在模型动作空间上的第二用户特征。具体的,此处所记载的用户基本信息,可以包括目标用户的用户名称、用户地址、用户职业、用户学历以及用户个人婚姻状况等等;此处所记载的用户风险信息,可以包括目标用户的用户信用评估报告、用户消费信息、用户存款信息以及用户贷款信息等等;此处所记载的历史已分发金融资源,可以包括该目标用户当前正在使用或者历史使用过的金融资源;此处所记载的历史资源反馈信息,可以包括目标用户在接收到所分配的金融资源时产生的注册行为、申请行为、授信行为、信用状态信息以及综合收益信息等等;此处所记载的资源分发方式,可以包括书面信息方式或者电话信息方式;书面信息方式可以包括但不限于邮件、短信或者基于即时会话工具所发送的信息;电话信息方式可以包括但不限于基于人工智能的方式进行呼叫的方式或者人工呼叫的方式等等。
进一步的,在构建第一用户特征以及第二用户特征之前,首先需要进行数据清洗;其中,具体的数据清洗过程,可以包括但不限于清洗掉明显错误的数据、存在风险的数据或者用户信息不完整的数据等等,本示例对此不做特殊限制;同时,在构建第一用户特征时,可以根据目标用户的用户基本信息、用户风险信息以及历史资源反馈信息来实现;在构建第二用户特征时,可以根据历史已分发金融资源、资源分发方式、资源分发时间以及资源分发频率来实现。
在一种示例实施例中,根据所述当前资源数据,构建所述待分配资源在模型状态空间上的第一资源特征,可以通过如下方式实现:提取所述当前资源数据中包括待分配金融资源的产品价格信息、产品额度信息以及产品风险信息;根据所述产品价格信息、产品额度信息以及产品风险信息,构建所述待分配资源在模型状态空间上的第一资源特征。
在步骤S120中,将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略。
在本公开的一种示例性实施例中,首先,将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果;具体的,可以通过如下方式实现:基于所述第一卷积层对所述模型输入特征中的第一用户特征以及第二用户特征进行第一次卷积处理,得到第一卷积处理结果,并基于第二卷积层对第一卷积处理结果进行第二次卷积处理,得到第二卷积处理结果;基于所述第一池化层对所述第二卷积处理结果进行特征降维处理,并基于第三卷积层对降维处理后的第二卷积处理结果进行第三次卷积处理,得到第三卷积处理结果;基于第一特征融合层对第三卷积处理结果以及所述模型输入特征中的第一资源特征进行融合,得到第一特征融合结果,并基于第一全连接层对所述第一特征融合结果进行特征提取,得到第一特征提取结果;基于第二全连接层对所述第一特征提取结果进行特征提取,得到所述第一用户预测结果。其中,此处所记载的第一用户预测结果,也即与该目标用户对应的收益预测结果;也就是说,如果将该待分配金融资源分配至该用户,则可能得到的收益结果时多少。此处需要补充说明的是,此处之所以是通过深度神经网络模型来进行相应的预测,是由于该深度神经网络模型可以从模型输入特征中提取相应的特征,并基于该特征对金融资源分配场景对应的模型应用环境进行建模和预测,从而达到提高所得到的第一用户预测结果的准确率的目的。
其次,根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略;具体的,可以通过如下方式实现:根据所述第一用户预测结果对所述待分配金融资源进行排序,得到金融资源排序结果,并对所述第一用户预测结果进行归一化处理,得到与所述待分配金融资源对应的当前资源收益概率;基于所述当前资源收益概率,确定与所述目标用户对应的流量分发策略;其中,所述流量分发策略包括流量分发动作和/或流量操作策略。也即,在实际应用的过程中,可以根据第一预测结果对与待分配金融资源对应的资源提供方进行排序;然后,对第一用户预测结果进行归一化处理,进而得到相应的当前收益概率;其中,归一化的具体处理过程可以包括但不限于从第一用户预测结果中提取最大值,进而计算第一用户预测结果与该最大值之间的比值,从而达到当前资源收益概率;或者,计算平均值,进而基于该平均值计算当前资源收益概率,本示例对此不做特殊限制;进一步的,在得到当前资源收益概率以后,即可基于当前资源收益概率与流量分发策略之间的映射关系,确定对应的流量分发动作或者流量操作策略。其中,此处所记载的流量分发动作,可以包括但不限于资源推送方式、资源推送时间或者资源推送频率等等。
此处需要补充说明的是,如果待分配金融资源中不包括新增金融资源,则可以直接根据待分配金融资源对应的当前资源收益概率,确定与目标用户对应的流量分发策略;其中,由于此处所记载的流量分发策略可以包括流量分发动作以及流量操作策略,因此此处所记载的流量分发策略,可以包括但不限于需要为目标用户所分配的目标金融资源(资源提供方的具体信息以及资源额度等)、资源触达目标用户的方式(短信、AI智能外呼或者人工外呼等等)、资源触达时间以及资源分发的频率等等。
进一步的,如果待分配金融资源中包括新增金融资源,则基于所述当前资源收益概率,确定与所述目标用户对应的流量分发策略,可以通过如下方式实现:判断所述待分配金融资源中是否存在新增金融资源;在确定所述待分配金融资源中存在新增金融资源时,为所述新增金融资源分配基础收益概率;基于所述基础收益概率以及当前资源收益概率,计算所述待分配资源中除开所述新增金融资源以外的其他待分配资源的实际分发概率,并根据基础收益概率计算所述待分配资源中的新增金融资源的实际分发概率;根据所述实际分发概率,确定与所述目标用户对应的流量分发策略。也即,在实际应用的过程中,为了确保所有可能的动作选择被覆盖到并且考虑到新的资金方或新的触达策略引入时的冷启动情况,需要设置一个用于探索的基线概率(也即基础收益概率)对用户从所有可能的操作动作中抽样后选取操作动作。
以下,将结合具体的示例实施例对待分配金融资源中存在新增金融资源时,如何确定流量分发策略进行解释以及说明。假设存在第一金融资源提供方A、第二金融资源提供方B以及第三金融资源提供方C;其中,第一金融资源提供方A、第二金融资源提供方B为存在历史数据积累的资源提供方,第三金融资源提供方C为不存在历史数据积累的资源提供方。在此场景下,为了确保在为目标用户分配目标金融资源时,第三金融资源提供方也可以被覆盖到且需要考虑到第三金融资源提供方存在冷启动的情况,则需要额外的为第三金融资源提供方配置基础收益概率;其中,本公开示例实施例所设置的基础收益概率,是15%;同时,在设置基础收益概率的过程中,可以基于专家的经验值来实现,也可以基于神经网络模型来实现;比如,可以将第一金融资源提供方A、第二金融资源提供方B以及第三金融资源提供方C分别输入到基础收益概率预测模型中,进而基于模型的输出结果来确定;同时,此处所记载的基础收益概率预测模型,可以包括但不限于卷积神经网络模型、循环神经网络模型、深度神经网络模型以及决策树模型等等,本示例对此不做特殊限制。
进一步的,在基础收益概率配置完成后,即可基于基础收益概率以及当前资源收益概率确定第一金融资源提供方以及第二金融资源提供方的实际分发概率,并根据基础收益概率确定第三金融资源提供方的实际分发概率。比如,第一金融资源提供方A的实际分发概率的具体计算过程为:
85%*70%+15%÷3=64.5%;
其中,85%为在考虑基础收益概率以后的系数,70%为当前资源收益概率,15%为基础收益概率;同时,之所以需要除以3,是因为需要将基础收益概率平均的分配给所有的资源提供方;与此同时,第二金融资源提供方B的实际分发概率的具体计算过程为:
85%*30%+15%÷3=30.5%;
其中,85%为在考虑基础收益概率以后的系数,30%为当前资源收益概率,15%为基础收益概率;最后,第三金融资源提供方C的实际分发概率的具体计算过程为:
15%÷3=5%。
此处需要补充说明的是,如果不设置基础收益概率,那么新增的金融资源提供方C就无法被纳入考虑范围;因为第一金融资源提供方A以及第二金融资源提供方B的和为100%;那么,如果设置基础收益概率,那么第一金融资源提供方A、第二金融资源提供方B以及第三金融资源提供方C的和为100%;也就是说,增加了基础收益概率,那么就相当于将新增的金融资源提供方纳入了考虑范围,使得新增金融资源提供方存在被分配的可能性。基于此,可以解决现有技术中在构造资源收益模型时,是基于金融资源分发的历史表现数据;因此,在接入新的资源提供方或资源提供方的准入策略发生调整时,该资源收益模型可能表现不佳的问题。
进一步的,当得到实际分发概率以后,即可从实际分发概率最高的资源提供方中为目标用户匹配相应的目标金融资源。
在步骤S130中,基于所述流量分发策略为所述目标用户分配目标金融资源,并基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型。
具体的,在匹配到目标金融资源以后,即可将匹配到的目标金融资源推送至目标用户所在的终端设备;并在间隔特定时间段以后,基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型;具体的,参考图6所示,可以包括如下步骤:
步骤S610,获取所述目标用户对所述目标金融资源的当前资源反馈信息,并将所述当前资源反馈信息存储至预设的数据缓冲区中;
步骤S620,随机的从所述数据缓冲区中的当前资源反馈信息中抽取第一信息样本,并根据所述第一信息样本以及与第一信息样本对应的第一用户预测结果,构建第一损失函数;
步骤S630,基于所述第一损失函数对所述训练完成的深度神经网络模型进行迭代,得到迭代后的深度神经网络模型,并根据迭代后的深度神经网络模型,确定金融资源分配模型。
在一种示例实施例中,根据迭代后的深度神经网络模型,确定金融资源分配模型,可以通过如下方式实现:获取所述数据缓冲区中的当前资源反馈信息中除开第一信息样本以外的第二信息样本,并基于迭代后的深度神经网络模型,对与第二信息样本对应的模型输入特征进行预测,得到第二用户预测结果;计算第一信息样本以及第一用户预测结果之间的第一均方差,并计算第二用户预测结果以及第二信息样本之间的第二均方差;若第一均方差大于第二均方差,则将迭代训练后的深度神经网络模型作为金融资源分配模型,若第一均方差小于第二均方差,则将训练完成的深度神经网络模型作为金融资源分配模型。
以下,将对模型的具体调整过程进行解释以及说明。具体的,在实际应用的过程中,数据缓冲区积累到一定数量后,可以从数据缓冲区内随机抽样一批样本进行模型的训练迭代;同时,模型的损失函数可定义为预测收益和实际收益的均方误差,通过梯度下降优化算法来更新深度学习模型中的网络权重;进一步的,还需要对模型进行评估和替换;其中,模型评估有两种方式,一种是在数据缓冲区中未抽样参与训练的样本上分别用原始模型和迭代模型进行预测后评估模型的均方误差,如果更新后模型更优,就使用更新后的模型替代原始模型。第二种是通过A/B测试的方法并行使用原始模型和更新模型应用在新的用户上,积累一段时间后选取在实际用户上表现更好的模型作为迭代后的模型。并且,通过不断的迭代,并通过模型与环境的不断交互,已实现深度神经网络模型的不断迭代,进而使得模型可以自适应不断变化的客群和资金方,最终获得最大化的整体分发收益。
至此,本公开示例实施例所记载的资源匹配模型的调整方法已经全部实现。基于前述记载的内容可以得知,本公开示例实施例所记载的资源匹配模型的调整方法,一方面,可以通过深度强化学习模型,将用户的基本信息、信贷风险相关特征以及待分发资金方的特征综合考虑在状态空间中。通过将这些多维特征结合起来,可以更准确地描述客户的潜在需求和资金方的匹配度,从而提高贷款电销分发的效果;另一方面,本公开示例实施例通过设计基线概率探索策略,可以使得获取的数据覆盖的更加全面,可以解决新进入资金方的冷启动问题,并且减少在历史样本上迭代造成的模型偏差;再一方面,本公开示例实施例中的模型可以基于新增的数据进行自适应的迭代,通过对照实验的方法可以自动的进行模型的迭代优化,不需要人工干预。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
本公开示例实施例还提供了一种资源分配模型的矫正装置。具体的,参考图7所示,该资源分配模型的矫正装置可以包括模型输入特征构建模块710、流量分发策略确定模块720以及资源分配模型调整模块730。其中:
模型输入特征构建模块710,可以用于获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征;
流量分发策略确定模块720,可以用于将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略;
资源分配模型调整模块730,可以用于基于所述流量分发策略为所述目标用户分配目标金融资源,并基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型。
在本公开的一种示例性实施例中,根据当前用户数据以及当前资源数据构建模型输入特征,包括:根据所述当前用户数据,构建所述目标用户在模型状态空间上的第一用户特征以及在模型动作空间上的第二用户特征;根据所述当前资源数据,构建所述待分配资源在模型状态空间上的第一资源特征,并根据所述第一用户特征、第二用户特征以及第一资源特征,构建所述模型输入特征。
在本公开的一种示例性实施例中,根据所述当前用户数据,构建所述目标用户在模型状态空间上的第一用户特征以及在模型动作空间上的第二用户特征,包括:对所述当前用户数据进行数据清洗,得到目标用户数据;其中,所述当前用户数据包括所述目标用户的用户基本信息、用户风险信息、分发至所述目标用户的历史已分发金融资源、所述目标用户对历史已分发金融资源的历史资源反馈信息、所述历史已分发资源的资源分发方式、所述历史已分发金融资源的资源分发时间以及资源分发频率中的至少一种;根据所述目标用户数据中的用户基本信息、用户风险信息以及历史资源反馈信息,构建所述目标用户在模型状态空间上的第一用户特征;根据所述目标用户数据中的历史已分发金融资源、资源分发方式、资源分发时间以及资源分发频率,构建所述目标用户在模型动作空间上的第二用户特征。
在本公开的一种示例性实施例中,根据所述当前资源数据,构建所述待分配资源在模型状态空间上的第一资源特征,包括:提取所述当前资源数据中包括待分配金融资源的产品价格信息、产品额度信息以及产品风险信息;根据所述产品价格信息、产品额度信息以及产品风险信息,构建所述待分配资源在模型状态空间上的第一资源特征。
在本公开的一种示例性实施例中,所述训练完成的深度神经网络模型包括第一卷积层、第二卷积层、第一池化层、第三卷积层、第一特征融合层、第一全连接层、第二全连接层;
其中,将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,包括:基于所述第一卷积层对所述模型输入特征中的第一用户特征以及第二用户特征进行第一次卷积处理,得到第一卷积处理结果,并基于第二卷积层对第一卷积处理结果进行第二次卷积处理,得到第二卷积处理结果;基于所述第一池化层对所述第二卷积处理结果进行特征降维处理,并基于第三卷积层对降维处理后的第二卷积处理结果进行第三次卷积处理,得到第三卷积处理结果;基于第一特征融合层对第三卷积处理结果以及所述模型输入特征中的第一资源特征进行融合,得到第一特征融合结果,并基于第一全连接层对所述第一特征融合结果进行特征提取,得到第一特征提取结果;基于第二全连接层对所述第一特征提取结果进行特征提取,得到所述第一用户预测结果。
在本公开的一种示例性实施例中,根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略,包括:根据所述第一用户预测结果对所述待分配金融资源进行排序,得到金融资源排序结果,并对所述第一用户预测结果进行归一化处理,得到与所述待分配金融资源对应的当前资源收益概率;基于所述当前资源收益概率,确定与所述目标用户对应的流量分发策略;其中,所述流量分发策略包括流量分发动作和/或流量操作策略。
在本公开的一种示例性实施例中,基于所述当前资源收益概率,确定与所述目标用户对应的流量分发策略,包括:判断所述待分配金融资源中是否存在新增金融资源;在确定所述待分配金融资源中存在新增金融资源时,为所述新增金融资源分配基础收益概率;基于所述基础收益概率以及当前资源收益概率,计算所述待分配资源中除开所述新增金融资源以外的其他待分配资源的实际分发概率,并根据基础收益概率计算所述待分配资源中的新增金融资源的实际分发概率;根据所述实际分发概率,确定与所述目标用户对应的流量分发策略。
在本公开的一种示例性实施例中,基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型,包括:获取所述目标用户对所述目标金融资源的当前资源反馈信息,并将所述当前资源反馈信息存储至预设的数据缓冲区中;随机的从所述数据缓冲区中的当前资源反馈信息中抽取第一信息样本,并根据所述第一信息样本以及与第一信息样本对应的第一用户预测结果,构建第一损失函数;基于所述第一损失函数对所述训练完成的深度神经网络模型进行迭代,得到迭代后的深度神经网络模型,并根据迭代后的深度神经网络模型,确定金融资源分配模型。
在本公开的一种示例性实施例中,根据迭代后的深度神经网络模型,确定金融资源分配模型,包括:获取所述数据缓冲区中的当前资源反馈信息中除开第一信息样本以外的第二信息样本,并基于迭代后的深度神经网络模型,对与第二信息样本对应的模型输入特征进行预测,得到第二用户预测结果;计算第一信息样本以及第一用户预测结果之间的第一均方差,并计算第二用户预测结果以及第二信息样本之间的第二均方差;若第一均方差大于第二均方差,则将迭代训练后的深度神经网络模型作为金融资源分配模型,若第一均方差小于第二均方差,则将训练完成的深度神经网络模型作为金融资源分配模型。
在本公开的一种示例性实施例中,所述金融资源分配模型的矫正装置还可以包括:
历史数据获取模块,可以用于获取历史用户数据以及历史资源数据,并判断所述历史用户数据以及历史资源数据的数据量是否满足模型训练要求;
模型训练模块,可以用于若所述历史用户数据以及历史资源数据的数据量满足模型训练要求,则基于所述历史用户数据以及历史资源数据对待训练的深度神经网络模型进行训练,得到训练完成的深度神经网络模型;
参数初始化处理模块,可以用于若所述历史用户数据以及历史资源数据的数据量不满足模型训练要求,则对待训练的深度神经网络模型中包括的模型参数进行初始化处理,得到训练完成的深度神经网络模型。
上述资源分配模型的矫正装置中各模块的具体细节已经在对应的资源分配模型的矫正方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图8来描述根据本公开的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830以及显示单元840。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元810可以执行如图1中所示的步骤S110:获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征;步骤S120:将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略;步骤S130:基于所述流量分发策略为所述目标用户分配目标金融资源,并基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备900(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器860通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
根据本公开的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里发明的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未发明的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
Claims (13)
1.一种资源分配模型的矫正方法,其特征在于,包括:
获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征;
将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略;
基于所述流量分发策略为所述目标用户分配目标金融资源,并基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型。
2.根据权利要求1所述的资源分配模型的矫正方法,其特征在于,根据当前用户数据以及当前资源数据构建模型输入特征,包括:
根据所述当前用户数据,构建所述目标用户在模型状态空间上的第一用户特征以及在模型动作空间上的第二用户特征;
根据所述当前资源数据,构建所述待分配资源在模型状态空间上的第一资源特征,并根据所述第一用户特征、第二用户特征以及第一资源特征,构建所述模型输入特征。
3.根据权利要求2所述的资源分配模型的矫正方法,其特征在于,根据所述当前用户数据,构建所述目标用户在模型状态空间上的第一用户特征以及在模型动作空间上的第二用户特征,包括:
对所述当前用户数据进行数据清洗,得到目标用户数据;其中,所述当前用户数据包括所述目标用户的用户基本信息、用户风险信息、分发至所述目标用户的历史已分发金融资源、所述目标用户对历史已分发金融资源的历史资源反馈信息、所述历史已分发资源的资源分发方式、所述历史已分发金融资源的资源分发时间以及资源分发频率中的至少一种;
根据所述目标用户数据中的用户基本信息、用户风险信息以及历史资源反馈信息,构建所述目标用户在模型状态空间上的第一用户特征;
根据所述目标用户数据中的历史已分发金融资源、资源分发方式、资源分发时间以及资源分发频率,构建所述目标用户在模型动作空间上的第二用户特征。
4.根据权利要求2所述的资源分配模型的矫正方法,其特征在于,根据所述当前资源数据,构建所述待分配资源在模型状态空间上的第一资源特征,包括:
提取所述当前资源数据中包括待分配金融资源的产品价格信息、产品额度信息以及产品风险信息;
根据所述产品价格信息、产品额度信息以及产品风险信息,构建所述待分配资源在模型状态空间上的第一资源特征。
5.根据权利要求1所述的资源分配模型的矫正方法,其特征在于,所述训练完成的深度神经网络模型包括第一卷积层、第二卷积层、第一池化层、第三卷积层、第一特征融合层、第一全连接层、第二全连接层;
其中,将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,包括:
基于所述第一卷积层对所述模型输入特征中的第一用户特征以及第二用户特征进行第一次卷积处理,得到第一卷积处理结果,并基于第二卷积层对第一卷积处理结果进行第二次卷积处理,得到第二卷积处理结果;
基于所述第一池化层对所述第二卷积处理结果进行特征降维处理,并基于第三卷积层对降维处理后的第二卷积处理结果进行第三次卷积处理,得到第三卷积处理结果;
基于第一特征融合层对第三卷积处理结果以及所述模型输入特征中的第一资源特征进行融合,得到第一特征融合结果,并基于第一全连接层对所述第一特征融合结果进行特征提取,得到第一特征提取结果;
基于第二全连接层对所述第一特征提取结果进行特征提取,得到所述第一用户预测结果。
6.根据权利要求1所述的资源分配模型的矫正方法,其特征在于,根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略,包括:
根据所述第一用户预测结果对所述待分配金融资源进行排序,得到金融资源排序结果,并对所述第一用户预测结果进行归一化处理,得到与所述待分配金融资源对应的当前资源收益概率;
基于所述当前资源收益概率,确定与所述目标用户对应的流量分发策略;其中,所述流量分发策略包括流量分发动作和/或流量操作策略。
7.根据权利要求6所述的资源分配模型的矫正方法,其特征在于,基于所述当前资源收益概率,确定与目标用户对应的流量分发策略,包括:
判断所述待分配金融资源中是否存在新增金融资源;
在确定所述待分配金融资源中存在新增金融资源时,为所述新增金融资源分配基础收益概率;
基于所述基础收益概率以及当前资源收益概率,计算所述待分配资源中除开所述新增金融资源以外的其他待分配资源的实际分发概率,并根据基础收益概率计算所述待分配资源中的新增金融资源的实际分发概率;
根据所述实际分发概率,确定与所述目标用户对应的流量分发策略。
8.根据权利要求1所述的资源分配模型的矫正方法,其特征在于,基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型,包括:
获取所述目标用户对所述目标金融资源的当前资源反馈信息,并将所述当前资源反馈信息存储至预设的数据缓冲区中;
随机的从所述数据缓冲区中的当前资源反馈信息中抽取第一信息样本,并根据所述第一信息样本以及与第一信息样本对应的第一用户预测结果,构建第一损失函数;
基于所述第一损失函数对所述训练完成的深度神经网络模型进行迭代,得到迭代后的深度神经网络模型,并根据迭代后的深度神经网络模型,确定金融资源分配模型。
9.根据权利要求8所述的资源分配模型的矫正方法,其特征在于,根据迭代后的深度神经网络模型,确定金融资源分配模型,包括:
获取所述数据缓冲区中的当前资源反馈信息中除开第一信息样本以外的第二信息样本,并基于迭代后的深度神经网络模型,对与第二信息样本对应的模型输入特征进行预测,得到第二用户预测结果;
计算第一信息样本以及第一用户预测结果之间的第一均方差,并计算第二用户预测结果以及第二信息样本之间的第二均方差;
若第一均方差大于第二均方差,则将迭代训练后的深度神经网络模型作为金融资源分配模型,若第一均方差小于第二均方差,则将训练完成的深度神经网络模型作为金融资源分配模型。
10.根据权利要求1所述的资源分配模型的矫正方法,其特征在于,所述金融资源分配模型的矫正方法还包括:
获取历史用户数据以及历史资源数据,并判断所述历史用户数据以及历史资源数据的数据量是否满足模型训练要求;
若所述历史用户数据以及历史资源数据的数据量满足模型训练要求,则基于所述历史用户数据以及历史资源数据对待训练的深度神经网络模型进行训练,得到训练完成的深度神经网络模型;
若所述历史用户数据以及历史资源数据的数据量不满足模型训练要求,则对待训练的深度神经网络模型中包括的模型参数进行初始化处理,得到训练完成的深度神经网络模型。
11.一种资源分配模型的矫正装置,其特征在于,包括:
模型输入特征构建模块,用于获取目标用户的当前用户数据以及待分配金融资源的当前资源数据,并根据当前用户数据以及当前资源数据构建模型输入特征;
流量分发策略确定模块,用于将所述模型输入特征输入至训练完成的深度神经网络模型中,得到第一用户预测结果,并根据所述第一用户预测结果确定与所述目标用户对应的流量分发策略;
资源分配模型调整模块,用于基于所述流量分发策略为所述目标用户分配目标金融资源,并基于所述目标用户对所述目标金融资源的当前资源反馈信息,对所述深度神经网络模型进行迭代,得到金融资源分配模型。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-10任一项所述的资源分配模型的矫正方法。
13.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-10任一项所述的资源分配模型的矫正方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410115695.1A CN117934155A (zh) | 2024-01-26 | 2024-01-26 | 资源分配模型的矫正方法及装置、存储介质、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410115695.1A CN117934155A (zh) | 2024-01-26 | 2024-01-26 | 资源分配模型的矫正方法及装置、存储介质、电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117934155A true CN117934155A (zh) | 2024-04-26 |
Family
ID=90764395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410115695.1A Pending CN117934155A (zh) | 2024-01-26 | 2024-01-26 | 资源分配模型的矫正方法及装置、存储介质、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117934155A (zh) |
-
2024
- 2024-01-26 CN CN202410115695.1A patent/CN117934155A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110020862B (zh) | 一种业务风险评估方法、装置和计算机可读存储介质 | |
US11200592B2 (en) | Simulation-based evaluation of a marketing channel attribution model | |
WO2020168851A1 (zh) | 行为识别 | |
JP7224395B2 (ja) | 推薦システムの最適化方法、装置、デバイス及びコンピュータ記憶媒体 | |
EP4134878A2 (en) | Method and apparatus for training a model, and method and apparatus for predicting a trajectory | |
CN113869801B (zh) | 一种企业数字中台的成熟状态评估方法和装置 | |
WO2022110640A1 (zh) | 一种模型优化方法、装置、计算机设备及存储介质 | |
US20130124299A1 (en) | Optimizing Communication of Content Through Networked Media | |
CN109272348B (zh) | 活跃用户数量确定方法及装置、存储介质和电子设备 | |
AU2019257474A1 (en) | Strategy searching in strategic interaction between parties | |
CN113037877A (zh) | 云边端架构下时空数据及资源调度的优化方法 | |
AU2019422026B2 (en) | Sampling schemes for strategy searching in strategic interaction between parties | |
US11811708B2 (en) | Systems and methods for generating dynamic conversational responses using cluster-level collaborative filtering matrices | |
CN114358257A (zh) | 神经网络剪枝方法及装置、可读介质和电子设备 | |
WO2013167908A1 (en) | Method of operating a server apparatus for delivering website content, server apparatus and device in communication with server apparatus | |
CN111044062B (zh) | 路径规划、推荐方法和装置 | |
CN114020469A (zh) | 基于边缘节点的多任务学习方法、装置、介质与设备 | |
CN113191565A (zh) | 安全性预测方法及装置、介质、设备 | |
CN117934155A (zh) | 资源分配模型的矫正方法及装置、存储介质、电子设备 | |
CN117014389A (zh) | 算网资源配置方法及系统、电子设备、存储介质 | |
CN113570207B (zh) | 用户策略分配方法、装置及电子设备 | |
CN113112311B (zh) | 训练因果推断模型的方法、信息提示方法以装置 | |
CN115185606A (zh) | 业务配置参数的获得方法、装置、设备及存储介质 | |
CN115330556A (zh) | 充电站的信息调整模型的训练方法、装置及产品 | |
CN111967806B (zh) | 基于定期回扫的用户风险更新方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |