CN117974312A - 交易决策推荐方法、装置、设备、介质和程序产品 - Google Patents

交易决策推荐方法、装置、设备、介质和程序产品 Download PDF

Info

Publication number
CN117974312A
CN117974312A CN202410135810.1A CN202410135810A CN117974312A CN 117974312 A CN117974312 A CN 117974312A CN 202410135810 A CN202410135810 A CN 202410135810A CN 117974312 A CN117974312 A CN 117974312A
Authority
CN
China
Prior art keywords
transaction
state
sample
strategy
recommendation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410135810.1A
Other languages
English (en)
Inventor
张拓
白杰
楚辰生
张雅婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202410135810.1A priority Critical patent/CN117974312A/zh
Publication of CN117974312A publication Critical patent/CN117974312A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开提供了一种交易决策推荐方法,可以应用于人工智能技术领域或金融科技领域。该方法包括:对当前时间步的交易状态信息进行降维,获取状态特征信息;将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果,其中,所述交易策略推荐结果用于对用户在当前时间步的交易策略进行推荐;基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果,其中,所述交易策略推荐结果以及所述交易趋势预测结果用于向用户展示以辅助用户进行交易决策。本公开还提供了一种交易决策推荐装置、设备、存储介质和程序产品。

Description

交易决策推荐方法、装置、设备、介质和程序产品
技术领域
本公开涉及人工智能技术领域或金融科技领域,具体地,涉及一种交易决策推荐方法、装置、设备、介质和程序产品。
背景技术
在量化交易等投资交易市场中,由于交易市场的瞬息万变,用户难以准确解读市场动态和预测价格趋势,难以在复杂不确定的市场环境下做出最优交易决策,增加了交易的难度和风险,也很容易打击用户信息。目前,以往利用人工智能辅助交易的主要方法包括:使用机器学习算法对历史数据进行分析,预测价格走势变化趋势,但预测精度不高,难以应对异常情况;根据简单投资策略给出买卖指导,但忽略市场复杂变化导致的策略优化难题。基于经济模型模拟市场行为制定交易策略,但是难以考虑个别用户情况定制化交易方案。与此同时,作为一种深度学习方法,强化学习在利用强大表示能力和价值评估能力进行动态决策优化方面表现突出。但传统的强化学习在应对巨大数据量的场景时容易出现维度灾难的困扰,导致模型训练速度缓慢,精度下降。且仅利用强化学习进行交易策略学习尚不足以给用户提供可操作的交易建议。
发明内容
鉴于上述问题,本公开提供了一种交易决策推荐方法、装置、设备、介质和程序产品。
根据本公开的第一个方面,提供了一种交易决策推荐方法,包括:对当前时间步的交易状态信息进行降维,获取状态特征信息;将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果,其中,所述交易策略推荐结果用于对用户在当前时间步的交易策略进行推荐;基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果,其中,所述交易策略推荐结果以及所述交易趋势预测结果用于向用户展示以辅助用户进行交易决策。
根据本公开的实施例,其中,所述对当前时间步的状态信息进行降维,获取状态特征信息包括:利用主成分分析法对所述状态信息进行降维,以增加对所述状态信息的采样密度,获取所述状态特征信息。
根据本公开的实施例,所述将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果包括:将所述状态特征信息输入至所述基于强化学习的交易策略推荐模型,利用所述基于强化学习的交易策略推荐模型对所述状态特征信息进行处理,预测当前状态下使得交易累积奖励最大的交易动作,以所述交易动作为所述交易策略预测结果,其中,所述交易动作包括交易行为类型以及交易数量。
根据本公开的实施例,其中,所述交易策略推荐模型预训练得到,训练方法包括:初始化主网络参数,目标网络参数以及经验回访缓冲区;随机抽样提取经验回访缓冲区的样本数据集,所述样本数据集包含小批量的样本数据,所述样本数据包含样本状态,样本动作以及样本奖励,所述样本状态与时间步关联,其中,所述样本奖励基于预设的样本奖励函数计算得到,所述样本奖励函数是关于交易动作,交易收益,交易成本以及交易风险的函数;以及基于所述样本数据对所述主网络和目标网络进行训练,直至达到预设的训练截止条件时,以截止时的主网络作为所述交易策略推荐模型;其中,基于所述样本数据对所述主网络和目标网络进行训练包括:选取初始状态的样本数据,基于所述样本数据计算主网络预测值以及目标网络的目标值,并基于所述主网络预测值和目标值计算损失,以基于所述损失更新主网络参数;对样本状态进行更新,基于更新的样本状态对应的样本数据对所述主网络和目标网络进行下一轮次的训练,其中,在下一轮次的训练中,基于优化策略优化所述主网络参数;定期基于所述主网络参数更新目标网络参数,以使所述目标网络参数逐渐逼近所述主网络的参数。
根据本公开的实施例,在训练过程中,所述方法还包括:向所述经验回访缓冲区注入新的样本数据。
根据本公开的实施例,所述基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果包括:获取市场交易数据,其中,所述市场交易数据至少包括市场不同维度的交易价格以及交易量;将所述市场交易数据输入至趋势预测模型,以利用所述趋势预测模型对所述市场交易数据进行处理,获取所述交易趋势预测结果,其中,所述趋势预测模型为线性回归模型。
根据本公开的实施例,所述交易状态信息包括不同维度的历史交易价格,交易收益,以及交易技术指标。
本公开的第二方面提供了一种交易决策推荐装置,包括:预处理模块,配置为对当前时间步的交易状态信息进行降维,获取状态特征信息;第一预测模块,配置为将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果,其中,所述交易策略推荐结果用于对用户在当前时间步的交易策略进行推荐;以及第二预测模块,配置为基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果,其中,所述交易策略推荐结果以及所述交易趋势预测结果用于向用户展示以辅助用户进行交易决策。
本公开的第三方面提供了一种交易决策推荐模型训练装置,包括:初始化模块,配置为初始化主网络参数,目标网络参数以及经验回访缓冲区。数据抽取模块,配置为随机抽样提取经验回访缓冲区的样本数据集,所述样本数据集包含小批量的样本数据,所述样本数据包含样本状态,样本动作以及样本奖励,所述样本状态与时间步关联,其中,所述样本奖励基于预设的样本奖励函数计算得到,所述样本奖励函数是关于交易动作,交易收益,交易成本以及交易风险的函数。训练模块,配置为基于所述样本数据对所述主网络和目标网络进行训练,直至达到预设的训练截止条件时,以截止时的主网络作为所述交易策略推荐模型。其中,基于所述样本数据对所述主网络和目标网络进行训练包括:选取初始状态的样本数据,基于所述样本数据计算主网络预测值以及目标网络的目标值,并基于所述主网络预测值和目标值计算损失,以基于所述损失更新主网络参数;对样本状态进行更新,基于更新的样本状态对应的样本数据对所述主网络和目标网络进行下一轮次的训练,其中,在下一轮次的训练中,基于优化策略优化所述主网络参数;定期基于所述主网络参数更新目标网络参数,以使所述目标网络参数逐渐逼近所述主网络的参数。
本公开的第四方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述交易决策推荐方法。
本公开的第五方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述交易决策推荐方法。
本公开的第六方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述交易决策推荐方法。
本公开的实施例提供的交易决策推荐方法,将基于强化学习的交易策略推荐与市场趋势预测有机结合,并将模型预测结果直观呈现用户,以辅助用户交易决策,提高交易效率。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的交易决策推荐方法、装置、设备、介质和程序产品的应用场景图。
图2示意性示出了根据本公开实施例的交易决策推荐方法的流程图。
图3示意性示出了根据本公开实施例的将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果的方法的流程图。
图4示意性示出了根据本公开实施例的预训练得到交易策略推荐模型的方法的流程图。
图5示意性示出了根据本公开实施例的基于所述样本数据对所述主网络和目标网络进行训练的方法的流程图。
图6示意性示出了根据本公开实施例的交易策略推荐模型的训练方法的示意图。
图7示意性示出了根据本公开实施例的基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果的方法的流程图。
图8A示意性示出了根据本公开实施例的交易决策推荐装置的结构框图。
图8B示意性示出了根据本公开实施例的交易决策推荐模型训练装置的结构框图。
图9示意性示出了根据本公开实施例的适于实现交易决策推荐方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
为了便于理解本公开的技术方案,首先对一些实施例中涉及的技术术语释义如下:
量化交易:量化交易是一种投资方式,它以先进的数学模型替代人为的主观判断,并利用计算机从庞大的历史数据中筛选出能带来超额收益的多种“大概率”事件以制定策略。具体地,这种策略通过捕捉市场中的微小变化和趋势,以实现盈利,可极大地减少投资者情绪波动的影响,避免在市场极度狂热或悲观的情况下做出非理性的投资决策。
马尔科夫决策过程:马尔科夫决策过程是序贯决策的数学模型,用于模拟具有马尔科夫性质的系统中智能体的随机策略和回报,形式化的描述了强化学习中智能体与环境的交互过程。该决策过程用于机器学习中强化学习问题的建模,通过使用动态规划,随机采样等方式,可以求解使回报最大化的智能体策略。马尔科夫决策过程主要包含如下四要素:状态,动作,策略,奖励。具体地,状态指马尔科夫性质的变量序列的当前状态。给定当前状态,将来状态和过去状态是相互独立的。动作指智能体在每个状态下可以采取的动作。策略指状态到动作的映射。具体来说,给定状态时,策略定义了动作集上的一个分部,即每个状态指定一个动作概率。奖励指在特定状态下执行特定动作后获得的反馈,用以衡量执行该动作的好坏或优劣。
强化学习:机器学习的范式和方法论之一,用于描述和解决智能体在与环境的交互中通过学习策略以达成回报最大化或实现特定目标的问题。
在量化交易等投资交易市场中,由于交易市场的瞬息万变,用户往往面临多重困难。例如,情绪控制:许多投资者往往因为贪婪或恐惧而做出过度反应,这可能导致错误的决策和不必要的过度损失。时机选择:投资者需要正确预测市场波动和股票价格的变化时机,这需要投资者对市场趋势和市场参与者的行为,市场动态有深入的了解和分析。风险管理:投资者需要学会适当的资产配置,建立风险控制策略和制定止损计划。上述问题使得投资者难以准确解读市场动态和预测价格趋势,难以在复杂不确定的市场环境下做出最优交易决策,增加了交易的难度和风险,也很容易打击用户信心,很大程度上影响了金融发展活力。
针对现有的交易难题,学术界和工业界提出了许多解决方案,其中主流包括三大类:
1.基本面分析:旨在通过检查经济数据来衡量证券的内在价值,以便投资者可以将证券的当前价格与估计价格进行比较,从而判断当前证券是否被高估或低估。其中一种已建立的策略被称为CAN-SLIM,该策略是快速市场的看涨策略,目标是在机构资金充分投入前进入高增长股票。基本面分析法的一个常见的弊端是,它没有具体规定交易的时间。这意味着投资者必须自行决定何时买入卖出。如果市场走势与预期不符,可能会导致交易账户的严重亏损。这种情况下,投资者可能会遭受巨大的心理压力,甚至被迫退出市场。如果市场向预期方向移动,投资者也可能会因为过早或过晚的交易时机而无法实现预期收益。过早交易可能导致投资者在市场上涨之前过早卖出,而过晚交易则可能使投资者在市场已经达到高峰后才卖出,错过了大部分上涨收益。
2.技术分析:基于市场过去和现在的行为,预测未来价格的走势。技术分析假设市场参与者的行为会以可预见的方式反映在价格走势中,包括在图表上形成的特定模式和趋势。这些模式和趋势可以用来预测价格未来的趋势,从而帮助投资者做出买卖决策。技术分析法虽然被许多投资者广泛使用,但仍然存在一些缺点。1)指标滞后性,技术指标是根据价格计算的,但价格变化通常会走在指标变化的前面。2)交易信号过多,不同的技术指标和交易系统可能会发出大量的交易信号,导致投资者难以判断哪些信号是正确,增加了交易的难度和风险。3)难以判断长期走势,技术分析主要关注市场的短期走势,而对于长期走势的判断则相对困难。长期走势通常受到基本面因素影响更大。
3.量化分析:是一种更为系统的方法,涉及到数学建模和自动执行。这些传统的分析方法通常依赖于数学,统计和计算模型,以寻找市场中的机会。例如:趋势跟随,趋势跟随,统计套利等传统的量化分析方法。传统的量化分析方法有如下缺点,1)依赖模型,如CAPM,Black-Scholes期权定价模型。这些模型通常基于一些假设,如果这些假设在实际市场中不成立,就可能会导致交易策略失败。2)市场动态变化,传统的量化策略无法适应市场的动态变化。市场条件可能在不同时间段内变化,使得某些策略失效或需要不断调整。3)缺乏适应性,一些传统的量化策略固定不变,缺乏适应市场的能力。这可能导致策略在不同市场条件下表现不佳。
在人工智能迅猛发展的当下,研究者们开发了很多基于人工智能辅助交易的方法,包括:使用机器学习算法对历史数据进行分析,预测价格走势变化趋势,但预测精度不高,难以应对异常情况;根据简单投资策略给出买卖指导,但忽略市场复杂变化导致的策略优化难题。基于经济模型模拟市场行为制定交易策略,但是难以考虑个别用户情况定制化交易方案。与此同时,作为一种深度学习方法,强化学习在利用强大表示能力和价值评估能力进行动态决策优化方面表现突出。但传统的强化学习在应对巨大数据量的场景时容易出现维度灾难的困扰,导致模型训练速度缓慢,精度下降。且仅利用强化学习进行交易策略学习尚不足以给用户提供可操作的交易建议。
针对现有技术中存在的上述问题,本公开的实施例提供了一种交易决策推荐方法,包括:对当前时间步的交易状态信息进行降维,获取状态特征信息;将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果,其中,所述交易策略推荐结果用于对用户在当前时间步的交易策略进行推荐;基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果,其中,所述交易策略推荐结果以及所述交易趋势预测结果用于向用户展示以辅助用户进行交易决策。通过将基于强化学习的交易策略推荐与市场趋势预测有机结合,并将模型预测结果直观呈现用户,以辅助用户交易决策,提高交易效率。
图1示意性示出了根据本公开实施例的交易决策推荐方法、装置、设备、介质和程序产品的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的交易决策推荐方法一般可以由服务器105执行。相应地,本公开实施例所提供的交易决策推荐装置一般可以设置于服务器105中。本公开实施例所提供的交易决策推荐方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的交易决策推荐装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
以下将基于图1描述的场景,通过图2~图7对公开实施例的交易决策推荐方法进行详细描述。
图2示意性示出了根据本公开实施例的交易决策推荐方法的流程图。
如图2所示,该实施例的交易决策推荐方法包括操作S210~操作S230,该交易决策推荐方法可以由服务器105执行。
需要说明的是,虽然图2中的各步骤按照箭头的指示依次显示,但是,这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,图中的至少部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替的执行。
在操作S210,对当前时间步的交易状态信息进行降维,获取状态特征信息。
在操作S220,将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果,其中,所述交易策略推荐结果用于对用户在当前时间步的交易策略进行推荐。
在操作S230,基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果。
其中,所述交易策略推荐结果以及所述交易趋势预测结果用于向用户展示以辅助用户进行交易决策。
在本公开的实施例中,首先将交易问题视为一个马尔可夫决策过程(MDP),其中一个代理在离散的时间步长上与环境相互作用。其中,代理意为利用强化学习解决交易策略推荐问题的决策学习单元。在每个时间步t中,代理接收到由环境表示的状态st。基于这个状态,代理选择一个动作At,并在下一个时间步获得一个数字奖励Rt+1,同时代理进入新状态St+1。这个代理与环境互动的序列可以表示为一个轨迹τ=[S0,A0,R0,S1,A1,R1,S2,A2,R2,....]。在每个时间步t,强化学习(RL)的目标是最大化预期回报,通常表示为Gt。这个回报本质上是折扣累积奖励的期望,可以定义如下:Gt=Rt+1+γ·Gt+1。其中,Rt+1是在时间步t+1获得的奖励,γ是一个折扣因子,用于平衡即时奖励和未来奖励的重要性。通过最大化Gt,代理的目标是在长期内获得最大的累积奖励。
由此,交易问题可以建模为MDP,RL的目标是通过选择适当的动作来最大化未来的累积奖励Gt,以实现更好的交易策略。
然而,传统的强化学习方法中,常常存在维度爆炸,导致搜索空间巨大,而难以收敛至最优解,导致模型训练速度较为缓慢,且当特征维度较多时,训练后模型的预测准确度也较低。本公开的实施例中,将原始的交易状态信息进行降维,去除噪声和冗余信息,在减小数据量的同时依然保留了特征信息。以较小的数据量输入基于强化学习的交易策略推荐模型中后,减小了维度灾难的困扰,至少部分缓解了上述问题,提高了模型推荐的准确度。
进一步的,本公开的实施例还引入了趋势预测模型,以对历史状态的市场交易数据进行处理,从而实现对一定时间范围内交易趋势的预测,结合由强化学习算法得到的交易策略推荐结果,将其同步向用户展示,以从微观和宏观相结合的角度向用户提供更为全面的决策支持。
根据本公开的实施例,利用主成分分析法(PCA法)对所述状态信息进行降维。由此,可以对状态空间进行压缩,增加对状态信息的采样密度,实现特征降维,获取所述状态特征信息,从而易于求得动作策略最优解。
具体地,PCA降维方法如下:
1)对交易状态信息X进行归一化处理。
2)求出X的协方差矩阵
3)对A进行特征值分解。
4)取前d个特征值对应的特征向量构成转换矩阵P。
5)通过Y=PX对数据降维。其中,Y为降维后的状态特征。
在对PCA算法进行求解时,可以应用如下步骤:
1.将特征列表按列组成n行m列矩阵X。
2.将X的每一行进行零均值化。
3.求出协方差矩阵
4.求出协方差矩阵的特征值及对应的特征向量。
5.将特征值按对应特征值大小从上到下按行排列成矩阵,取前K行组成矩阵P,即得到降维到k维的数据。
图3示意性示出了根据本公开实施例的将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果的方法的流程图。
如图3所示,该实施例的将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果的方法包括操作S310。
在操作S310,将所述状态特征信息输入至所述基于强化学习的交易策略推荐模型,利用所述基于强化学习的交易策略推荐模型对所述状态特征信息进行处理,预测当前状态下使得交易累积奖励最大的交易动作,以所述交易动作为所述交易策略预测结果,其中,所述交易动作包括交易行为类型以及交易数量。在本公开的实施例中,交易策略推荐模型的输出为交易动作,该交易动作是使得当前状态下使得交易累积奖励最大的交易动作。在一些实施例中,交易状态信息包括不同维度的历史交易价格,交易收益,以及交易技术指标。则当前交易状态可以为当前时间步下基于当前时间步之前一定时间或次数的历史观察数据构建的状态特征集合。以量化交易为例。交易状态信息可以包括不同维度的历史价格、回报(Rt)以及技术指标,包括移动平均收敛发散(MACD)和相对强度指数(RSI)。
在一个示例中,对于每个离散时间步,使用过去60次观察的数据来构建单一状态,其覆盖了每个特征。状态特征集合作为展示动作的依据,包括:
1)标准化的收盘价序列。
2)当前价格相对于过去1个月、2个月、3个月和1年的收益。可以及将它们标准化为合理的时间尺度来处理。以年回报为例,将其标准化为其中σt是使用60天内rt的EMA进行计算的。
3)缩放处理后的MACD指标如下:
qt=(m(S)-m(L))/std(pt-63:t)
其中std(pt-63:t)是价格pt的63天价格的滚动标准差,m(S)是时间窗口S内的价格的EMA。
4)RSI是一种在0到100之间波动的指标。它通过衡量最近价格变动的幅度来表示资产的超卖(读数低于20)或超买(超过80)状态,时间窗口为30天。
根据本公开的实施例的交易策略推荐模型,可以预测在每一状态下采取何种交易动作能够得到最大的累积收益。
其中,交易动作可以包括动作本身以及动作的程度。在如上的示例中,每一个状态下的不同动作可以构成离散的动作空间。可以使用一个简单的动作集合{-1,0,1},表示为交易头寸。即-1对应于最大空头头寸,0表示无持有,1表示最大多头头寸。在量化交易的示例中,考虑交易风险从而进行长期盈利,因此实际交易时可以采用动态的下单数量x来取代手动设定的交易量,其中,x的计算方式为海归交易法则中的头寸管理,具体地,计算之前一段时间的波动率,波动率越大交易风险更大,缩小交易头寸,反之波动率较小时使用较大的交易头寸。因此,在该示例中,交易行为类型可以为买入,卖出或持有,交易数量可以为买入或卖出交易品的数量。
应理解,在买入或卖出交易品后,用户可以获得收益,即奖励。奖励可以为正值或者负值,以代表交易盈利或亏损。可以基于奖励函数来计算在状态下通过动作获得的奖励。在一些实施例中,奖励函数是关于交易动作,交易收益,交易成本以及交易风险的函数。具体的,可以设置奖励函数如下:
上式整体表示为收益减去手续费。具体地,At为agent的动作,即t时刻的仓位;σtgt为波动率目标(即交易风险),是在价格在时间窗口60上计算的EMA值;rt表示利润及交易收益。Bp是手续费单位,1bp=0.0001。以一个例子来说明,如果成本率为1bp,那么购买一个价格为1000美元的合约单位需要支付0.1美元(即交易成本)。
获得奖励后,来到下一个状态,由此形成了S(状态)-A(动作)-R(回报)-S(状态)的循环。
根据本公开的实施例,交易策略推荐模型预训练得到。
图4示意性示出了根据本公开实施例的预训练得到交易策略推荐模型的方法的流程图。
如图4所示,该实施例的预训练得到交易策略推荐模型的方法包括操作S410~S430。
在操作S410,初始化主网络参数,目标网络参数以及经验回访缓冲区。
在操作S420,随机抽样提取经验回访缓冲区的样本数据集,所述样本数据集包含小批量的样本数据,所述样本数据包含样本状态,样本动作以及样本奖励,所述样本状态与时间步关联,其中,所述样本奖励基于预设的样本奖励函数计算得到,所述样本奖励函数是关于交易动作,交易收益,交易成本以及交易风险的函数。
在操作S430,基于所述样本数据对所述主网络和目标网络进行训练,直至达到预设的训练截止条件时,以截止时的主网络作为所述交易策略推荐模型。
基于强化学习的交易策略推荐模型通过对DQN(深度Q网络)进行训练得到。
DQN(深度Q网络)近似于状态-动作值函数,即Q函数,它使用神经网络来估计在特定状态下执行特定动作的价值。本公开的实施例的Q函数是由一组参数θ所参数化的。为了获得最优的状态-动作值函数,通过最小化当前估计值和目标Q值之间的均方误差来进行训练。
在本公开的实施例中,主网络即Q网络(Q-function),通常采用深度神经网络来表示。网络参数可以随机初始化。目标网络即目标Q网络,该网络的参数与Q网络相同,但是不同步更新,用于稳定训练过程。应理解,初始时,目标网络的网络参数可以与主网络相同。经验回放缓冲区(Replay Buffer)用于存储过去的经验,包括状态、动作、奖励和下一个状态。这个缓冲区是为了实现经验重播(Experience Replay),以随机样本的方式训练网络,减少样本相关性,提高训练效率和稳定性。
在初始时,可以对主网络参数,目标网络参数以及经验回访缓冲区进行初始化。随着训练的进行,从经验回访缓冲区的样本数据集不断随机抽取小批量的训练数据进行训练。并定期基于主网络参数定期更新目标网络参数,直至停止训练。其中,经验回访缓冲区的样本数据集不断更新。例如,在一个时间步的状态下,依据选择策略选择动作,并相应产生奖励来到下一个状态。可以将选择结果进行记录,并作为样本数据集对经验回访缓冲区进行更新。在一些实施例中,还可以向所述经验回访缓冲区注入新的样本数据以丰富样本集合。具体的,在每一时间步,根据当前状态,DQN可以输出相应状态下各动作的Q值,而后可以通过选择策略基于Q值选择动作以进行实际交易,同更新DQN的参数来改善Q值估计。通过反复训练,DQN可以逐步学习出各状态下的最优动作,从而实现求解交易动作的最优策略,以指导代理在各种状态下应选择的最优动作以最大化累计收益。在一些示例中,选择策略可以为ε-贪心策略。ε-贪心策略含义是:大部分情况下(1-ε)%的概率选择价值最大的动作。小部分时间(ε)%的概率随机选择其他动作。利用ε控制着在贪心选择与随机选择之间的平衡。
图5示意性示出了根据本公开实施例的基于所述样本数据对所述主网络和目标网络进行训练的方法的流程图。
如图5所示,该实施例的基于所述样本数据对所述主网络和目标网络进行训练的方法包括操作S510~S530。
在操作S510,选取初始状态的样本数据,基于所述样本数据计算主网络预测值以及目标网络的目标值,并基于所述主网络预测值和目标值计算损失,以基于所述损失更新主网络参数。其中,在更新主网络参数时,可以使用梯度下降算法更新主网络参数。
在操作S520,对样本状态进行更新,基于更新的样本状态对应的样本数据对所述主网络和目标网络进行下一轮次的训练,其中,在下一轮次的训练中,基于优化策略优化所述主网络参数。
在操作S530,定期基于所述主网络参数更新目标网络参数,以使所述目标网络参数逐渐逼近所述主网络的参数。
下面结合具体图6所示例的方法对交易策略推荐模型的训练方法做进一步说明。
如图6所示,训练目标为最大化Q函数(Q(s,a;θ))的Q估值argmaxaQ(s,a;θ),模型包括当前值网络(主网络)和目标值网络(目标网络)。通过DQN误差函数更新当前值网络的参数,并且每隔N时间步将参数拷贝至目标值网络。其中,将环境经验(s,a,r,s’)存放至回访记忆单元中以供训练。具体的,该示例的交易策略推荐模型的训练方法还包括步骤S1~S12。
步骤S1:初始化环境状态:选择一个初始状态并进行PCA降维,将降维后的状态作为起点。
步骤S2:选择动作:根据降维后状态,使用ε-贪心策略来选择动作。
步骤S3:执行动作:将选择的动作应用于环境,得到奖励与下一个状态,同样使用PCA对下一状态进行降维,降维后的状态作为后续网络输入。
步骤S4:存储经验:将降维后状态、动作、奖励和下一个状态存储到经验回放缓冲区中。
步骤S5:经验回放:从经验回放缓冲区(回放记忆单元)中随机抽样一批数据(通常是小批量),用于训练Q网络。
步骤S6:计算目标值:计算目标Q值,通常使用Bellman方程:,其中Q_target是目标网络的输出,γ是折扣因子。
步骤S7:计算损失:计算Q网络的预测Q值与目标Q值之间的均方误差损失。
步骤S8:更新网络参数:使用梯度下降法来更新Q网络的参数,以最小化损失。
步骤S9:状态转移:将当前状态更新为下一个状态,继续下一轮次的训练。
步骤S10:目标网络更新:定期更新目标网络的参数,通常采用软更新方法,例如让目标网络的参数缓慢地逼近Q网络的参数。
步骤S11:探索策略衰减:随着训练的进行,逐渐减小ε-贪心策略中的ε值,以降低探索的概率,增加对当前最优策略的利用。
步骤S12:重复训练:重复以上步骤直到满足停止条件,如达到最大训练轮数或达到收敛条件。其中,收敛条件还可以为模型的损失函数值达到预设的阈值,或模型达到预设的准确度。
在本公开的实施例中,为了为用户提供更全面的决策支持信息。还可以生成交易趋势预测结果并向用户进行可视化展示。
图7示意性示出了根据本公开实施例的基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果的方法的流程图。
如图7所示,该实施例的基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果的方法包括操作S710~S720。
在操作S710,获取市场交易数据,其中,所述市场交易数据至少包括市场不同维度的交易价格以及交易量。
在操作S720,将所述市场交易数据输入至趋势预测模型,以利用所述趋势预测模型对所述市场交易数据进行处理,获取所述交易趋势预测结果,其中,所述趋势预测模型为线性回归模型。
通过机器学习算法预测市场未来的交易趋势,进一步以更为全面宏观的数据为用户提供决策参考依据。
在一个示例中,可以基于如下步骤训练趋势预测模型:
1)数据处理
收集第i个时间点的的开盘价,最高价,最低价,收盘价,交易量,评论数据等数据。
定义数据格式为(Xi,Yi),其中Xi=[closei,HPi,PCTi,volumei],具体地,HPi=(highi-lowi)/closei,PCTi=(closei-openi)/openi,Yi为未来时间点收盘价的预测值,highi为最高价,lowi为最低价,closei为收盘价,openi为开盘价,HPi为价格波动率,PCTi为日内收益率,vloumei为交易量。将Xi标准化得到Xi(ST)
2)建立线性回归模型,h=WTXST,其中W=(θ1,θ2,θ3,θ4),θi为待求参数,定义损失函数为其中m为总天数,Y为收盘价,采用梯度下降更新
基于上述交易决策推荐方法,本公开还提供了一种交易决策推荐装置。以下将结合图8A对该装置进行详细描述。
图8A示意性示出了根据本公开实施例的交易决策推荐装置的结构框图。
如图8A所示,该实施例的交易决策推荐装置800包括预处理模块810、第一预测模块820和第二预测模块830。
预处理模块810被配置为对当前时间步的交易状态信息进行降维,获取状态特征信息。
第一预测模块820被配置为将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果,其中,所述交易策略推荐结果用于对用户在当前时间步的交易策略进行推荐。
第二预测模块830被配置为基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果。其中,所述交易策略推荐结果以及所述交易趋势预测结果用于向用户展示以辅助用户进行交易决策。
根据本公开的实施例的交易决策推荐装置,其中,对当前时间步的状态信息进行降维,获取状态特征信息包括:利用主成分分析法对所述状态信息进行降维,以增加对所述状态信息的采样密度,获取所述状态特征信息。
根据本公开的实施例的交易决策推荐装置,其中,所述将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果包括:将所述状态特征信息输入至所述基于强化学习的交易策略推荐模型,利用所述基于强化学习的交易策略推荐模型对所述状态特征信息进行处理,预测当前状态下使得交易累积奖励最大的交易动作,以所述交易动作为所述交易策略预测结果,其中,所述交易动作包括交易行为类型以及交易数量。
根据本公开的实施例的交易决策推荐装置,所述基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果包括:获取市场交易数据,其中,所述市场交易数据至少包括市场不同维度的交易价格以及交易量;将所述市场交易数据输入至趋势预测模型,以利用所述趋势预测模型对所述市场交易数据进行处理,获取所述交易趋势预测结果,其中,所述趋势预测模型为线性回归模型。
根据本公开的实施例的交易决策推荐装置,其中,所述交易状态信息包括不同维度的历史交易价格,交易收益,以及交易技术指标。
本公开的实施例还提供了一种交易决策推荐模型训练装置。
图8B示意性示出了根据本公开实施例的交易决策推荐模型训练装置的结构框图。
如图8B所示,该实施例的交易决策推荐模型训练装置810包括初始化模块811、数据抽取模块812和训练模块813。
其中,初始化模块811配置为初始化主网络参数,目标网络参数以及经验回访缓冲区。
数据抽取模块812配置为随机抽样提取经验回访缓冲区的样本数据集,所述样本数据集包含小批量的样本数据,所述样本数据包含样本状态,样本动作以及样本奖励,所述样本状态与时间步关联,其中,所述样本奖励基于预设的样本奖励函数计算得到,所述样本奖励函数是关于交易动作,交易收益,交易成本以及交易风险的函数。
训练模块813配置为基于所述样本数据对所述主网络和目标网络进行训练,直至达到预设的训练截止条件时,以截止时的主网络作为所述交易策略推荐模型。其中,基于所述样本数据对所述主网络和目标网络进行训练包括:选取初始状态的样本数据,基于所述样本数据计算主网络预测值以及目标网络的目标值,并基于所述主网络预测值和目标值计算损失,以基于所述损失更新主网络参数;对样本状态进行更新,基于更新的样本状态对应的样本数据对所述主网络和目标网络进行下一轮次的训练,其中,在下一轮次的训练中,基于优化策略优化所述主网络参数;定期基于所述主网络参数更新目标网络参数,以使所述目标网络参数逐渐逼近所述主网络的参数。
根据本公开的实施例的交易决策推荐模型训练装置,其中,所述装置还包括注入模块,配置为向所述经验回访缓冲区注入新的样本数据。
根据本公开的实施例,预处理模块810、第一预测模块820和第二预测模块830中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。类似的,初始化模块811、数据抽取模块812和训练模块813中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,预处理模块810、第一预测模块820和第二预测模块830中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。类似的,初始化模块811、数据抽取模块812和训练模块813中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,预处理模块810、第一预测模块820和第二预测模块830中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。类似的,或者,初始化模块811、数据抽取模块812和训练模块813中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图9示意性示出了根据本公开实施例的适于实现交易决策推荐方法的电子设备的方框图。
如图9所示,根据本公开实施例的电子设备900包括处理器901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。处理器901例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器901还可以包括用于缓存用途的板载存储器。处理器901可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 903中,存储有电子设备900操作所需的各种程序和数据。处理器901、ROM902以及RAM 903通过总线904彼此相连。处理器901通过执行ROM 902和/或RAM 903中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 902和RAM 903以外的一个或多个存储器中。处理器901也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备900还可以包括输入/输出(I/O)接口905,输入/输出(I/O)接口905也连接至总线904。电子设备900还可以包括连接至I/O接口905的以下部件中的一项或多项:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 902和/或RAM 903和/或ROM 902和RAM 903以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的物品推荐方法。
在该计算机程序被处理器901执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分909被下载和安装,和/或从可拆卸介质911被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被处理器901执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (11)

1.一种交易决策推荐方法,其特征在于,包括:
对当前时间步的交易状态信息进行降维,获取状态特征信息;
将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果,其中,所述交易策略推荐结果用于对用户在当前时间步的交易策略进行推荐;
基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果,
其中,所述交易策略推荐结果以及所述交易趋势预测结果用于向用户展示以辅助用户进行交易决策。
2.根据权利要求1所述的方法,其中,所述对当前时间步的状态信息进行降维,获取状态特征信息包括:
利用主成分分析法对所述状态信息进行降维,以增加对所述状态信息的采样密度,获取所述状态特征信息。
3.根据权利要求1或2所述的方法,其中,所述将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果包括:
将所述状态特征信息输入至所述基于强化学习的交易策略推荐模型,利用所述基于强化学习的交易策略推荐模型对所述状态特征信息进行处理,预测当前状态下使得交易累积奖励最大的交易动作,以所述交易动作为所述交易策略预测结果,
其中,所述交易动作包括交易行为类型以及交易数量。
4.根据权利要求1所述的方法,其中,所述交易策略推荐模型预训练得到,训练方法包括:
初始化主网络参数,目标网络参数以及经验回访缓冲区;
随机抽样提取经验回访缓冲区的样本数据集,所述样本数据集包含小批量的样本数据,所述样本数据包含样本状态,样本动作以及样本奖励,所述样本状态与时间步关联,其中,所述样本奖励基于预设的样本奖励函数计算得到,所述样本奖励函数是关于交易动作,交易收益,交易成本以及交易风险的函数;以及
基于所述样本数据对所述主网络和目标网络进行训练,直至达到预设的训练截止条件时,以截止时的主网络作为所述交易策略推荐模型;
其中,基于所述样本数据对所述主网络和目标网络进行训练包括:
选取初始状态的样本数据,基于所述样本数据计算主网络预测值以及目标网络的目标值,并基于所述主网络预测值和目标值计算损失,以基于所述损失更新主网络参数;
对样本状态进行更新,基于更新的样本状态对应的样本数据对所述主网络和目标网络进行下一轮次的训练,其中,在下一轮次的训练中,基于优化策略优化所述主网络参数;
定期基于所述主网络参数更新目标网络参数,以使所述目标网络参数逐渐逼近所述主网络的参数。
5.根据权利要求4所述的方法,其中,在训练过程中,所述方法还包括:向所述经验回访缓冲区注入新的样本数据。
6.根据权利要求1所述的方法,其中,所述基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果包括:
获取市场交易数据,其中,所述市场交易数据至少包括市场不同维度的交易价格以及交易量;
将所述市场交易数据输入至趋势预测模型,以利用所述趋势预测模型对所述市场交易数据进行处理,获取所述交易趋势预测结果,其中,所述趋势预测模型为线性回归模型。
7.根据权利要求1所述的方法,其中,所述交易状态信息包括不同维度的历史交易价格,交易收益,以及交易技术指标。
8.一种交易决策推荐装置,其特征在于,包括:
预处理模块,配置为对当前时间步的交易状态信息进行降维,获取状态特征信息;
第一预测模块,配置为将所述状态特征信息输入至基于强化学习的交易策略推荐模型,获取交易策略推荐结果,其中,所述交易策略推荐结果用于对用户在当前时间步的交易策略进行推荐;以及
第二预测模块,配置为基于趋势预测模型对历史状态的市场交易数据进行处理,获取交易趋势预测结果,
其中,所述交易策略推荐结果以及所述交易趋势预测结果用于向用户展示以辅助用户进行交易决策。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~7中任一项所述的方法。
11.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1~7中任一项所述的方法。
CN202410135810.1A 2024-01-31 2024-01-31 交易决策推荐方法、装置、设备、介质和程序产品 Pending CN117974312A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410135810.1A CN117974312A (zh) 2024-01-31 2024-01-31 交易决策推荐方法、装置、设备、介质和程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410135810.1A CN117974312A (zh) 2024-01-31 2024-01-31 交易决策推荐方法、装置、设备、介质和程序产品

Publications (1)

Publication Number Publication Date
CN117974312A true CN117974312A (zh) 2024-05-03

Family

ID=90865664

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410135810.1A Pending CN117974312A (zh) 2024-01-31 2024-01-31 交易决策推荐方法、装置、设备、介质和程序产品

Country Status (1)

Country Link
CN (1) CN117974312A (zh)

Similar Documents

Publication Publication Date Title
US20200279198A1 (en) Cash forecast system, apparatus, and method
US20150088783A1 (en) System and method for modeling and quantifying regulatory capital, key risk indicators, probability of default, exposure at default, loss given default, liquidity ratios, and value at risk, within the areas of asset liability management, credit risk, market risk, operational risk, and liquidity risk for banks
US20120254092A1 (en) Managing operations of a system
US11816711B2 (en) System and method for predicting personalized payment screen architecture
CN111383091A (zh) 一种资产证券化定价方法和装置
JP2017530494A (ja) トレーディング・プラットフォーム・システムおよびその方法
CN112862182A (zh) 一种投资预测方法、装置、电子设备及存储介质
Bartoloni et al. Waiting for Godot? Success or failure of firms’ growth in a panel of Italian manufacturing firms
Figà-Talamanca et al. Regime switches and commonalities of the cryptocurrencies asset class
Marti From data to trade: A machine learning approach to quantitative trading
KR102311107B1 (ko) 딥러닝 모델을 자동으로 생성하는 딥러닝 솔루션 플랫폼과 연동 가능한 고객 이탈 방지 시스템에 의해서 수행되는, 고객의 이탈을 방지하기 위한 솔루션을 제공하는 고객 이탈 방지 방법
Sarmento et al. A machine learning based pairs trading investment strategy
US20150278957A1 (en) Method of Determining Sufficient Financial Resources for Retirement
CN116167646A (zh) 基于交易算法的评价方法、装置、设备及存储介质
US20220148093A1 (en) Dynamically-Generated Electronic Database for Portfolio Selection
CN116091242A (zh) 推荐产品组合生成方法及装置、电子设备和存储介质
Crawford et al. Automatic High‐Frequency Trading: An Application to Emerging Chilean Stock Market
CN117974312A (zh) 交易决策推荐方法、装置、设备、介质和程序产品
KR102284440B1 (ko) 딥러닝 모델 거래중개서버에 의해서 수행되는 딥러닝 모델 거래를 중개하는 방법
Xu et al. Research on Multistage Dynamic Trading Model Based on Gray Model and Auto‐Regressive Integrated Moving Average Model
CN114742657A (zh) 一种投资目标规划方法和系统
Wu et al. Marionettes behind co-movement of commodity prices: Roles of speculative and hedging activities
Benou et al. Wealth creation from high-tech divestitures
CN112685563A (zh) 生产经营视角下的现金流数据处理方法和装置
Corona-Bermudez et al. On the Computation of Optimized Trading Policies Using Deep Reinforcement Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination