CN112948700A - 一种基金推荐方法 - Google Patents

一种基金推荐方法 Download PDF

Info

Publication number
CN112948700A
CN112948700A CN202110400043.9A CN202110400043A CN112948700A CN 112948700 A CN112948700 A CN 112948700A CN 202110400043 A CN202110400043 A CN 202110400043A CN 112948700 A CN112948700 A CN 112948700A
Authority
CN
China
Prior art keywords
fund
value
function
comment
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110400043.9A
Other languages
English (en)
Inventor
黄明刚
刘蒙
封晓荣
邢国政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202110400043.9A priority Critical patent/CN112948700A/zh
Publication of CN112948700A publication Critical patent/CN112948700A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/06Asset management; Financial planning or analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Technology Law (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

本发明公开了一种基金推荐方法,该方法包括建立基于主题板块的基金分类表,根据初筛函数从基金分类表中选取初筛基金,生成初筛基金表,基于第二参数计算初筛基金表中基金的优质度,将优质度高的基金对应的基金标识填充至基金推荐表;建立并训练基于基金操作策略的深度强化学习模型,将预测的操作策略作为投资建议添加到基金推荐表,将基金推荐表推荐给用户。本发明实施例的方法中提出了基金推荐方法,可以筛选高价值的基金推荐给客户,提高客户投资体验,附带基金的操作建议,预测的准确性高,可以为用户提供投资指导,尤其是新手用户,推荐方法智能合理公正,可解决现有的基金推荐系统对基金推荐不合理和功利性,因此,可以更好的保证投资者的切身利益。

Description

一种基金推荐方法
【技术领域】
本发明涉及金融风险管控技术领域,尤其涉及一种基金推荐方法。
【背景技术】
近十几年来理财产品在我国发展迅猛,其中以表转化程度最高的公募基金产品来说,目前为止,已超过100多家基金公司,6000多只基金产品,资产规模超过8万亿元,并形成了多种类型的基金产品,比如股票基金、债券基金、货币基金、FOF基金等。从基金市场历史业绩上看,大多数基金有较好年度收益,但大部分消费者没能在基金市场获利,原因在于对基金产品缺乏专业系统的分析,难以从众多基金产品中筛选出优质基金。
现有的基金推荐系统对基金推荐不合理,也不客观,且常受到利益相关方的影响,因此,无法保证投资者的切身利益。
【发明内容】
有鉴于此,本发明实施例提供了基金推荐方法。
本发明实施例提供了基金推荐方法,所述方法包括:
S1、建立基于主题板块的基金分类表,获取预设时间段内基金的第一参数,并根据初筛函数从基金分类表中选取初筛基金,并将初筛基金对应的基金标识填充至初筛基金表;
S2、根据预设的数据采集清单确定数据源平台,从数据源平台获取预设时间段内初筛基金表中基金的特征数据,对特征数据进行预处理并基于语义判断模型分类生成第二参数;
S3、基于第二参数计算初筛基金表中基金的优质度Q,将优质度Q>优质度阈值Q0的基金对应的基金标识填充至基金推荐表;
S4、建立并训练基于基金操作策略的深度强化学习模型,利用训练好的深度强化学习模型对基金推荐表的目标基金的操作策略进行预测;
S5、将预测的操作策略作为投资建议添加到基金推荐表,将基金推荐表推荐给用户。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述第一参数包括:访问量、持有人数和净值。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述初筛函数定义为:
Figure BDA0003019814170000021
其中,F(x)表示初筛函数,αi表示预设时间段内第x个主题板块中第i个基金的访问量平均值,α0表示根据实际情况设定的访问量阈值;βi表示预设时间段内第x个主题板块中第i个基金的持有人数平均值,β0表示根据实际情况设定的持有人数阈值;γi表示预设时间段内第x个主题板块中第i个基金的净值平均值,γ0表示根据实际情况设定的净值阈值;nx表示第x个主题板块的基金的数量;w1,w2,w3表示权重,满足w1,w2,w3∈[0,1]且w1+w2+w3=1;
从每个主题板块中选取初筛函数F(x)的值最大的M个基金作为初筛基金。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述初筛基金表中基金的特征数据包括:基金提及数据、基金评论数据、基金评论点赞数据,基金经理提及数据,基金经理评论数据、基金经理评论点赞数据。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对特征数据进行预处理,具体包括:
为获取的基金的特征数据设置预处理优先级,其中,文字评论为第一优先级,语音评论为第二优先级,图片评论为第三优先级;
第一优先级处理:判断文字评论与好评词库是否匹配,若匹配成功,则判断文字评论对应的评论IP重合度是否超出重合度阈值,若超出,则放弃评论IP所有潜在好评标记;若未超出,则进行潜在好评标记,则进入第二优先级处理;
第二优先级处理:将语音评论转化为文字评论,判断文字评论与好评词库是否匹配,若匹配成功,则判断文字评论对应的评论IP重合度是否超出重合度阈值,若超出,则放弃评论IP所有潜在好评标记;若未超出,则进行潜在好评标记,则进入第三优先级处理;
第三优先级处理:判断图片评论中相同图片的数量是否超出数量阈值,若未超出数量阈值,识别图片评论中文字评论,则进一步判断文字评论与好评词库是否匹配,若匹配成功,则进行潜在好评标记;若超出数量阈值,则进一步判断图片评论的IP重合度是否超出重合度阈值,若超出重合度阈值,则放弃超出重合度阈值的评论IP所有潜在好评标记,若未超出重合度阈值,识别图片评论中文字评论,则进一步判断文字评论与好评词库是否匹配,若匹配成功,则进行潜在好评标记。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述基于语义判断模型分类生成第二参数,具体包括:
对基金的特征数据进行预处理后生成好评倾向标识;
构建语义判断模型,其构建方法如下:
建立最优奖励模型:
Figure BDA0003019814170000031
其中,E表示期望值,λ表示折现因子,λ∈[0,1];s0表示初始状态,R表示奖励函数,π(st)表示将状态映射到操作的策略;
定义Q函数:
Figure BDA0003019814170000032
其中,πi表示根据等式确定Q值的当前策略,R表示函数,λ表示折现因子,p(s,a,s*)表示动作a从状态s转移到s*的转移概率,Tπi表示迭代步骤i得到的奖励;
新策略的迭代更新如下:
π(i+1)(s)=arg max Q(s,a),定义ε-贪婪行为策略,采用ε-贪婪行为策略来确定当前状态的行为,其中,每个动作都是以一些预定义的固定概率
Figure BDA0003019814170000042
随机选择的。
Q值通过学习迭代逼近最优策略的获取;
通过语义判断模型对携带好评倾向标识的特征数据进行强化学习以生成好评分类结果。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述优质度Q的计算公式如下:
Figure BDA0003019814170000041
其中,Q表示优质度,p1表示基金的好评数,m1表示基金的提及数,c1表示基金好评的点赞数,p2表示基金对应基金经理的好评数,m2表示基金对应基金经理的提及数,c2表示基金对应基金经理好评的点赞数,t表示以天为单位的时间;k1,k2表示调节系数,满足k1,k2∈[0,1]且k1+k2=1。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述建立并训练基于基金操作策略的深度强化学习模型,具体包括:
获取多支基金历史操作策略数据,求和并求平均值进行输入,对基金操作策略进行预测,建立其对应的马尔可夫决策过程模型,动作用a表示,其包括买入、卖出和保持,状态用s表示,其为由行为策略生成的基金价格信息,奖励用R表示,其为状态变化时,投资组合价值的变化;
训练数据,不断更新值函数Vπ(s,a),直到值函数Vπ(s,a)收敛,得到最优值函数V*(s,a);
最优值函数V*(s,a)用公式表示如下:
Figure BDA0003019814170000051
其中,V*(s,a)表示最优值函数,s′∈S表示状态实例,a∈A表示动作实例,γ表示折扣因子,R表示奖赏函数,指定了奖赏,P表示转移函数,指定了状态转移概率;
基于上述最优值函数V*(s,a),最优策略π*(s)可得:
Figure BDA0003019814170000052
其中,π*(s)表示最优策略,Psa(s′,a)表示状态s采取动作a到下一状态s′的转移概率,a∈A表示动作实例,γ表示折扣因子;
采用递归神经网络来作为Q值的网络,参数为θ;
Ht=f(u×xt+w×Ht-1+b1),
Qt=f(v×Ht-1+b2),
L=Qt-yt
其中,Ht表示t时刻的隐藏状态,Ht-1表示t-1时刻的隐藏状态,Qt表示当前层在时刻t的输出,L表示误差,xt表示t时刻输入的训练数据,yt表示训练数据的原始输出,训练数据的原始输出,f表示隐藏层的激活函数,u、w和v表示递归神经网络共享的权值,b1和b2表示递归神经网络共享的阈值;
在Q值中定义损失函数L(θ);
采用批量梯度下降的方法对递归神经网络参数进行训练,随着训练次数的不断增加,通过网络输出的Q值选择Q值最大的动作,并最终收敛到最优策略;
更新周期内,将预先分为测试集的历史操作策略数据,用来测试的训练好的模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述损失函数L(θ)用公式表示如下:
Figure BDA0003019814170000061
其中,L(θ)表示损失函数,r表示奖励值,θ和θ′表示神经网络权值,
Figure BDA0003019814170000062
表示目标Q函数值,Q(s,a,θ)表示预测Q函数值,γ表示折扣因子。
上述技术方案中的一个技术方案具有如下有益效果:
本发明实施例的方法中提出了基金推荐方法,通过初筛函数从基金分类表中选取初筛基金,可初步为投资者过滤出活跃度更高、增长潜力更大的基金,获取基于基金和基金经理双指标的二次评价标准,筛选出优质度Q符合要求的基金向用户推荐;以深度强化学习模型对基金推荐表的目标基金的操作策略进行预测,附带基金的操作建议,预测的准确性高,可以为用户提供投资指导,尤其是新手用户;推荐方法智能合理公正,可以筛选高价值的基金推荐给客户,提高客户投资体验,可解决现有的基金推荐系统对基金推荐不合理和功利性,因此,可以更好的保证投资者的切身利益。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例所提供的基金推荐方法的S1-S5的流程示意图;
图2是本发明实施例所提供的对特征数据进行预处理的流程示意图。
【具体实施方式】
为使本发明的目的、技术方案和优点更加清楚,下面将结合具体实施例及相应的附图对本发明的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,图1是基金推荐方法S1-S5的流程示意图。如图1所示,该方法包括以下步骤:
S1、建立基于主题板块的基金分类表,获取预设时间段内基金的第一参数,并根据初筛函数从基金分类表中选取初筛基金,并将初筛基金对应的基金标识填充至初筛基金表。其中,第一参数包括:访问量、持有人数和净值。
S2、根据预设的数据采集清单确定数据源平台,从数据源平台获取预设时间段内初筛基金表中基金的特征数据,对特征数据进行预处理并基于语义判断模型分类生成第二参数。其中,初筛基金表中基金的特征数据包括:基金提及数据、基金评论数据、基金评论点赞数据,基金经理提及数据,基金经理评论数据、基金经理评论点赞数据。
S3、基于第二参数计算初筛基金表中基金的优质度Q,将优质度Q>优质度阈值Q0的基金对应的基金标识填充至基金推荐表。
S4、建立并训练基于基金操作策略的深度强化学习模型,利用训练好的深度强化学习模型对基金推荐表的目标基金的操作策略进行预测。
S5、将预测的操作策略作为投资建议添加到基金推荐表,将基金推荐表推荐给用户。
本发明建立基于主题板块基金推荐,方便投资者快速查找基金,也有利于基金的初步接触者快速对基金了解;通过初筛函数从基金分类表中选取初筛基金,可初步为投资者过滤出活跃度更高、增长潜力更大的基金;然后在初筛的基础上,基于第二参数计算初筛基金表中基金的优质度Q,将优质度Q>优质度阈值Q0的基金对应的基金标识填充至基金推荐表,分析基金的特征数据,获取基于基金和基金经理双指标的二次评价标准,筛选出优质度Q符合要求的基金向用户推荐;另外,建立并训练基于基金操作策略的深度强化学习模型,利用训练好的深度强化学习模型对基金推荐表的目标基金的操作策略进行预测,实现在向用户推荐基金的同时,以强化学习模型对基金推荐表的目标基金的操作策略进行预测,附带基金的操作建议,可以为用户提供投资指导,尤其是新手用户。本发明的基金推荐方法智能合理公正,可以筛选高价值的基金推荐给客户,提高客户投资体验,可解决现有的基金推荐系统对基金推荐不合理和功利性,因此,可以更好的保证投资者的切身利益。
本发明实施例的初筛函数定义为:
Figure BDA0003019814170000081
其中,F(x)表示初筛函数,αi表示预设时间段内第x个主题板块中第i个基金的访问量平均值,α0表示根据实际情况设定的访问量阈值;βi表示预设时间段内第x个主题板块中第i个基金的持有人数平均值,β0表示根据实际情况设定的持有人数阈值;γi表示预设时间段内第x个主题板块中第i个基金的净值平均值,γ0表示根据实际情况设定的净值阈值;nx表示第x个主题板块的基金的数量;w1,w2,w3表示权重,满足w1,w2,w3∈[0,1]且w1+w2+w3=1;
从每个主题板块中选取初筛函数F(x)的值最大的M个基金作为初筛基金。
请参考图2,其为图2是本发明实施例对特征数据进行预处理的流程示意图。如图2所示,该方法包括以下步骤:
所述对特征数据进行预处理,具体包括:
为获取的基金的特征数据设置预处理优先级,其中,文字评论为第一优先级,语音评论为第二优先级,图片评论为第三优先级;
第一优先级处理:判断文字评论与好评词库是否匹配,若未匹配成功,则直接进入第二优先级处理;若匹配成功,则判断文字评论对应的评论IP重合度是否超出重合度阈值,若超出,则放弃评论IP所有潜在好评标记;若未超出,则进行潜在好评标记,则进入第二优先级处理;
第二优先级处理:将语音评论转化为文字评论,判断文字评论与好评词库是否匹配,若未匹配成功,则直接进入第三优先级处理;若匹配成功,则判断文字评论对应的评论IP重合度是否超出重合度阈值,若超出,则放弃评论IP所有潜在好评标记;若未超出,则进行潜在好评标记,则进入第三优先级处理;
第三优先级处理:判断图片评论中相同图片的数量是否超出数量阈值,若未超出数量阈值,识别图片评论中文字评论,则进一步判断文字评论与好评词库是否匹配,若未匹配成功,则直接终止;若匹配成功,则进行潜在好评标记;若超出数量阈值,则进一步判断图片评论的IP重合度是否超出重合度阈值,若超出重合度阈值,则放弃超出重合度阈值的评论IP所有潜在好评标记,若未超出重合度阈值,识别图片评论中文字评论,则进一步判断文字评论与好评词库是否匹配,若匹配成功,则进行潜在好评标记。
本发明实施例通对特征数据文字评论、语音评论、图片评论为第三优先级预处理,可以全面获取评论数据,使得系统对基金和基金经理判断更加准确。另外,通过判断评论IP重合度以及图片评论中相同图片的数量,可以高效剔除水军,使得数据更加真实准确。提前进行潜在好评标记,可减少语义判断模型的任务处理量,并进一步提高语义判断模型分类的准确性。
其中,基于语义判断模型分类生成第二参数,具体包括:
对基金的特征数据进行预处理后生成好评倾向标识;
构建语义判断模型,其构建方法如下:
建立最优奖励模型:
Figure BDA0003019814170000091
其中,E表示期望值,λ表示折现因子,λ∈[0,1];s0表示初始状态,R表示奖励函数,π(st)表示将状态映射到操作的策略;
定义Q函数:
Figure BDA0003019814170000092
其中,πi表示根据等式确定Q值的当前策略,R表示函数,λ表示折现因子,p(s,a,s*)表示动作a从状态s转移到s*的转移概率,Tπi表示迭代步骤i得到的奖励;
新策略的迭代更新如下:
π(i+1)(s)=arg max Q(s,a),定义ε-贪婪行为策略,采用ε-贪婪行为策略来确定当前状态的行为,其中,每个动作都是以一些预定义的固定概率
Figure BDA0003019814170000102
随机选择的。
Q值通过学习迭代逼近最优策略的获取;
通过语义判断模型对携带好评倾向标识的特征数据进行强化学习以生成好评分类结果。
本发明实施例语义判断模型可实现对好评的准确分类,在训练完基于RL的算法后,实现以较高的置信度对好评与其他评论进行了分类,模型鲁棒性好,可以高效准确的从基金的特征数据提取第二参数。
本发明实施例的优质度Q的计算公式如下:
Figure BDA0003019814170000101
其中,Q表示优质度,p1表示基金的好评数,m1表示基金的提及数,c1表示基金好评的点赞数,p2表示基金对应基金经理的好评数,m2表示基金对应基金经理的提及数,c2表示基金对应基金经理好评的点赞数,t表示以天为单位的时间;k1,k2表示调节系数,满足k1,k2∈[0,1]且k1+k2=1。
优质度Q的计算公式可以建立从基金和基金经理双指标的二次评价标准,并基于对数函数建立时间衰减模型,高效准确选取靠谱的基金和基金经理。
本发明实施例的建立并训练基于基金操作策略的深度强化学习模型,具体包括:
获取多支基金历史操作策略数据,求和并求平均值进行输入,对基金操作策略进行预测,建立其对应的马尔可夫决策过程模型,动作用a表示,其包括买入、卖出和保持,状态用s表示,其为由行为策略生成的基金价格信息,奖励用R表示,其为状态变化时,投资组合价值的变化;
训练数据,不断更新值函数Vπ(s,a),直到值函数Vπ(s,a)收敛,得到最优值函数V*(s,a);
最优值函数V*(s,a)用公式表示如下:
Figure BDA0003019814170000111
其中,V*(s,a)表示最优值函数,s′∈S表示状态实例,a∈A表示动作实例,γ表示折扣因子,R表示奖赏函数,指定了奖赏,P表示转移函数,指定了状态转移概率;
基于上述最优值函数V*(s,a),最优策略π*(s)可得:
Figure BDA0003019814170000112
其中,π*(s)表示最优策略,Psa(s′,a)表示状态s采取动作a到下一状态s′的转移概率,a∈A表示动作实例,γ表示折扣因子;
采用递归神经网络来作为Q值的网络,参数为θ;
Ht=f(u×xt+w×Ht-1+b1),
Qt=f(v×Ht-1+b2),
L=Qt-yt
其中,Ht表示t时刻的隐藏状态,Ht-1表示t-1时刻的隐藏状态,Qt表示当前层在时刻t的输出,L表示误差,xt表示t时刻输入的训练数据,yt表示训练数据的原始输出,训练数据的原始输出,f表示隐藏层的激活函数,u、w和v表示递归神经网络共享的权值,b1和b2表示递归神经网络共享的阈值。
本发明实施例的递归神经网络具有很好的感知能力和特征提取能力,其关键方面是实际特征的表示,一层又一层的自学习,以及限制参数空间的稀疏约束,防止过拟合。
在Q值中定义损失函数L(θ);
采用批量梯度下降的方法对递归神经网络参数进行训练,随着训练次数的不断增加,通过网络输出的Q值选择Q值最大的动作,并最终收敛到最优策略;
更新周期内,将预先分为测试集的历史操作策略数据,用来测试的训练好的模型。
本发明实施例的损失函数L(θ)用公式表示如下:
Figure BDA0003019814170000121
其中,L(θ)表示损失函数,r表示奖励值,θ和θ′表示神经网络权值,
Figure BDA0003019814170000122
表示目标Q函数值,Q(s,a,θ)表示预测Q函数值,γ表示折扣因子。
本发明实施例构建的深度强化学习模型用于递归Q网络,基于RNN的组合特征处理和基于DQN的自实验分析实现自我探索和经验回放进行预测,深度强化学习模型预测对基金预测准确,模型鲁棒性好。
本领域技术人员应明白,本发明的实施例可提供为方法、系统或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本发明中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的实施例而已,并不用于限制本发明。对于本领域技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。

Claims (9)

1.一种基金推荐方法,其特征在于,所述方法包括:
S1、建立基于主题板块的基金分类表,获取预设时间段内基金的第一参数,并根据初筛函数从基金分类表中选取初筛基金,并将初筛基金对应的基金标识填充至初筛基金表;
S2、根据预设的数据采集清单确定数据源平台,从数据源平台获取预设时间段内初筛基金表中基金的特征数据,对特征数据进行预处理并基于语义判断模型分类生成第二参数;
S3、基于第二参数计算初筛基金表中基金的优质度Q,将优质度Q>优质度阈值Q0的基金对应的基金标识填充至基金推荐表;
S4、建立并训练基于基金操作策略的深度强化学习模型,利用训练好的深度强化学习模型对基金推荐表的目标基金的操作策略进行预测;
S5、将预测的操作策略作为投资建议添加到基金推荐表,将基金推荐表推荐给用户。
2.根据权利要求1所述的方法,其特征在于,所述第一参数包括:访问量、持有人数和净值。
3.根据权利要求2所述的方法,其特征在于,所述初筛函数定义为:
Figure FDA0003019814160000011
其中,F(x)表示初筛函数,αi表示预设时间段内第x个主题板块中第i个基金的访问量平均值,α0表示根据实际情况设定的访问量阈值;βi表示预设时间段内第x个主题板块中第i个基金的持有人数平均值,β0表示根据实际情况设定的持有人数阈值;γi表示预设时间段内第x个主题板块中第i个基金的净值平均值,γ0表示根据实际情况设定的净值阈值;nx表示第x个主题板块的基金的数量;w1,w2,w3表示权重,满足w1,w2,w3∈[0,1]且w1+w2+w3=1;
从每个主题板块中选取初筛函数F(x)的值最大的M个基金作为初筛基金。
4.根据权利要求1所述的方法,其特征在于,所述初筛基金表中基金的特征数据包括:基金提及数据、基金评论数据、基金评论点赞数据,基金经理提及数据,基金经理评论数据、基金经理评论点赞数据。
5.根据权利要求4所述的方法,其特征在于,所述对特征数据进行预处理,具体包括:
为获取的基金的特征数据设置预处理优先级,其中,文字评论为第一优先级,语音评论为第二优先级,图片评论为第三优先级;
第一优先级处理:判断文字评论与好评词库是否匹配,若匹配成功,则判断文字评论对应的评论IP重合度是否超出重合度阈值,若超出,则放弃评论IP所有潜在好评标记;若未超出,则进行潜在好评标记,则进入第二优先级处理;
第二优先级处理:将语音评论转化为文字评论,判断文字评论与好评词库是否匹配,若匹配成功,则判断文字评论对应的评论IP重合度是否超出重合度阈值,若超出,则放弃评论IP所有潜在好评标记;若未超出,则进行潜在好评标记,则进入第三优先级处理;
第三优先级处理:判断图片评论中相同图片的数量是否超出数量阈值,若未超出数量阈值,识别图片评论中文字评论,则进一步判断文字评论与好评词库是否匹配,若匹配成功,则进行潜在好评标记;若超出数量阈值,则进一步判断图片评论的IP重合度是否超出重合度阈值,若超出重合度阈值,则放弃超出重合度阈值的评论IP所有潜在好评标记,若未超出重合度阈值,识别图片评论中文字评论,则进一步判断文字评论与好评词库是否匹配,若匹配成功,则进行潜在好评标记。
6.根据权利要求5所述的方法,其特征在于,所述基于语义判断模型分类生成第二参数,具体包括:
对基金的特征数据进行预处理后生成好评倾向标识;
构建语义判断模型,其构建方法如下:
建立最优奖励模型:
Figure FDA0003019814160000031
其中,E表示期望值,λ表示折现因子,λ∈[0,1];s0表示初始状态,R表示奖励函数,π(st)表示将状态映射到操作的策略;
定义Q函数:
Figure FDA0003019814160000034
其中,πi表示根据等式确定Q值的当前策略,R表示函数,λ表示折现因子,p(s,a,s*)表示动作a从状态s转移到s*的转移概率,Tπi表示迭代步骤i得到的奖励;
新策略的迭代更新如下:
π(i+1)(s)=arg max Q(s,a),定义ε-贪婪行为策略,采用ε-贪婪行为策略来确定当前状态的行为,其中,每个动作都是以一些预定义的固定概率
Figure FDA0003019814160000032
随机选择的。
Q值通过学习迭代逼近最优策略的获取;
通过语义判断模型对携带好评倾向标识的特征数据进行强化学习以生成好评分类结果。
7.根据权利要求6所述的方法,其特征在于,所述优质度Q的计算公式如下:
Figure FDA0003019814160000033
其中,Q表示优质度,p1表示基金的好评数,m1表示基金的提及数,c1表示基金好评的点赞数,p2表示基金对应基金经理的好评数,m2表示基金对应基金经理的提及数,c2表示基金对应基金经理好评的点赞数,t表示以天为单位的时间;k1,k2表示调节系数,满足k1,k2∈[0,1]且k1+k2=1。
8.根据权利要求1或者7所述的方法,其特征在于,所述建立并训练基于基金操作策略的深度强化学习模型,具体包括:
获取多支基金历史操作策略数据,求和并求平均值进行输入,对基金操作策略进行预测,建立其对应的马尔可夫决策过程模型,动作用a表示,其包括买入、卖出和保持,状态用s表示,其为由行为策略生成的基金价格信息,奖励用R表示,其为状态变化时,投资组合价值的变化;
训练数据,不断更新值函数Vπ(s,a),直到值函数Vπ(s,a)收敛,得到最优值函数V*(s,a);
最优值函数V*(s,a)用公式表示如下:
Figure FDA0003019814160000041
其中,V*(s,a)表示最优值函数,s′∈S表示状态实例,a∈A表示动作实例,γ表示折扣因子,R表示奖赏函数,指定了奖赏,P表示转移函数,指定了状态转移概率;
基于上述最优值函数V*(s,a),最优策略π*(s)可得:
Figure FDA0003019814160000042
其中,π*(s)表示最优策略,Psa(s′,a)表示状态s采取动作a到下一状态s′的转移概率,a∈A表示动作实例,γ表示折扣因子;
采用递归神经网络来作为Q值的网络,参数为θ;
Ht=f(u×xt+w×Ht-1+b1),
Qt=f(v×Ht-1+b2),
L=Qt-yt
其中,Ht表示t时刻的隐藏状态,Ht-1表示t-1时刻的隐藏状态,Qt表示当前层在时刻t的输出,L表示误差,xt表示t时刻输入的训练数据,yt表示训练数据的原始输出,训练数据的原始输出,f表示隐藏层的激活函数,u、w和v表示递归神经网络共享的权值,b1和b2表示递归神经网络共享的阈值;
在Q值中定义损失函数L(θ);
采用批量梯度下降的方法对递归神经网络参数进行训练,随着训练次数的不断增加,通过网络输出的Q值选择Q值最大的动作,并最终收敛到最优策略;
更新周期内,将预先分为测试集的历史操作策略数据,用来测试的训练好的模型。
9.根据权利要求8所述的方法,其特征在于,所述损失函数L(θ)用公式表示如下:
Figure FDA0003019814160000051
其中,L(θ)表示损失函数,r表示奖励值,θ和θ′表示神经网络权值,
Figure FDA0003019814160000052
表示目标Q函数值,Q(s,a,θ)表示预测Q函数值,γ表示折扣因子。
CN202110400043.9A 2021-04-14 2021-04-14 一种基金推荐方法 Pending CN112948700A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110400043.9A CN112948700A (zh) 2021-04-14 2021-04-14 一种基金推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110400043.9A CN112948700A (zh) 2021-04-14 2021-04-14 一种基金推荐方法

Publications (1)

Publication Number Publication Date
CN112948700A true CN112948700A (zh) 2021-06-11

Family

ID=76232552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110400043.9A Pending CN112948700A (zh) 2021-04-14 2021-04-14 一种基金推荐方法

Country Status (1)

Country Link
CN (1) CN112948700A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808254A (zh) * 2017-11-10 2018-03-16 北京云际投资咨询有限公司 一种公募基金评价及投资建议方法
EP3543918A1 (en) * 2018-03-20 2019-09-25 Flink AI GmbH Reinforcement learning method
CN110598120A (zh) * 2019-10-16 2019-12-20 信雅达系统工程股份有限公司 基于行为数据的理财推荐方法及装置、设备
CN111222993A (zh) * 2020-01-03 2020-06-02 中国工商银行股份有限公司 基金推荐方法及装置
KR102124979B1 (ko) * 2019-07-31 2020-06-22 (주)크래프트테크놀로지스 증권 거래를 위한 주문 집행을 수행하는 서버 및 방법
CN111815447A (zh) * 2020-07-06 2020-10-23 上海汇正财经顾问有限公司 基于回测数据的股票智能推荐系统、方法及电子终端

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808254A (zh) * 2017-11-10 2018-03-16 北京云际投资咨询有限公司 一种公募基金评价及投资建议方法
EP3543918A1 (en) * 2018-03-20 2019-09-25 Flink AI GmbH Reinforcement learning method
KR102124979B1 (ko) * 2019-07-31 2020-06-22 (주)크래프트테크놀로지스 증권 거래를 위한 주문 집행을 수행하는 서버 및 방법
CN110598120A (zh) * 2019-10-16 2019-12-20 信雅达系统工程股份有限公司 基于行为数据的理财推荐方法及装置、设备
CN111222993A (zh) * 2020-01-03 2020-06-02 中国工商银行股份有限公司 基金推荐方法及装置
CN111815447A (zh) * 2020-07-06 2020-10-23 上海汇正财经顾问有限公司 基于回测数据的股票智能推荐系统、方法及电子终端

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
朱青;: "开放式基金风险评级研究――层次聚类法和随机森林算法的应用", 金融管理研究, no. 02, 31 August 2018 (2018-08-31), pages 144 - 159 *
汪温泉, 王金玉, 潘德惠: "开放式证券投资基金管理的最优策略", 东北大学学报(自然科学版), no. 11, 30 November 2003 (2003-11-30), pages 1104 - 1107 *

Similar Documents

Publication Publication Date Title
Chen et al. A fuzzy credit-rating approach for commercial loans: a Taiwan case
Cheung et al. A multi-perspective knowledge-based system for customer service management
KR20010103784A (ko) 입력이 없는 상황에서의 가치 평가 예측 모델
WO2007055919A2 (en) Electronic enterprise capital marketplace and monitoring apparatus and method
EP1259917A1 (en) Methods and apparatus for simulating competitive bidding yield
CN109766454A (zh) 一种投资者分类方法、装置、设备及介质
CN112966189A (zh) 一种基金产品推荐系统
US7225174B2 (en) Investment analysis tool and service for making investment decisions
CN108509492B (zh) 基于房地产行业的大数据处理及系统
US7966212B2 (en) Quantitative alignment of business offerings with the expectations of a business prospect
Eddy et al. Credit scoring models: Techniques and issues
CN111582394B (zh) 一种群体评估方法、装置、设备及介质
de Araujo et al. Classification model for bid/no‐bid decision in construction projects
JP2019160089A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Kumar AHP-based formal system for R&D project evaluation
McCluskey et al. Computer assisted mass appraisal and the property tax
Sum Risk prioritisation using the analytic hierarchy process
CN112948700A (zh) 一种基金推荐方法
Siraj et al. Pre-selection of recruitment candidates using case based reasoning
CN114186646A (zh) 区块链异常交易识别方法及装置、存储介质及电子设备
Riedel et al. Evolving multilevel forecast combination models-an experimental study
Vaidya et al. Decision support system for the stock market using data analytics and artificial intelligence
Rubinson et al. Fuzzy logic and genetic algorithms for financial risk management
CN113570455A (zh) 股票推荐方法及装置、计算机设备、存储介质
Tyagi et al. Interpretive structural modelling using fuzzy linguistic information

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination