CN117218482A - 模型训练方法、视频处理方法、装置及电子设备 - Google Patents
模型训练方法、视频处理方法、装置及电子设备 Download PDFInfo
- Publication number
- CN117218482A CN117218482A CN202310955076.9A CN202310955076A CN117218482A CN 117218482 A CN117218482 A CN 117218482A CN 202310955076 A CN202310955076 A CN 202310955076A CN 117218482 A CN117218482 A CN 117218482A
- Authority
- CN
- China
- Prior art keywords
- sample
- game
- event
- model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 248
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000012545 processing Methods 0.000 title claims description 13
- 238000011156 evaluation Methods 0.000 claims abstract description 104
- 238000003672 processing method Methods 0.000 claims abstract description 6
- 238000013210 evaluation model Methods 0.000 claims description 69
- 238000004590 computer program Methods 0.000 claims description 23
- 238000013473 artificial intelligence Methods 0.000 abstract description 26
- 230000000694 effects Effects 0.000 abstract description 9
- 230000008569 process Effects 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 19
- 238000003058 natural language processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000002787 reinforcement Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000033228 biological regulation Effects 0.000 description 2
- 238000001816 cooling Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000070023 Phoenicopterus roseus Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请实施例提供了一种模型训练方法、视频处理方法、装置及电子设备,涉及人工智能技术领域。模型训练方法包括:获取第一样本训练集;基于第一样本训练集对初始事件选择模型进行至少一次第一训练操作,得到事件选择模型;第一训练操作包括:通过初始事件选择模型选择目标样本事件;确定目标样本事件的第一奖励值;确定第二奖励值;基于第一评价值和第二评价值确定该时刻的总奖励值,确定初始事件选择模型对应于第一样本游戏视频的评价值;基于初始事件选择模型对应于每一第一样本游戏视频的评价值对初始事件选择模型的参数进行调整,使得得到的事件选择模型能够兼顾所选择的目标游戏事件以及历史游戏事件的关联性,有效提高游戏解说效果。
Description
技术领域
本申请涉及人工智能领域,具体而言,本申请涉及一种模型训练方法、视频处理方法、装置及电子设备。
背景技术
随着电竞市场的不断扩大,游戏解说成为了一个巨大的市场,但与此同时,由于相关从业人员的短缺,游戏解说的成本也越来越高,使得只有大型游戏比赛场景才能承受得起真人解说。基于人工智能的游戏解说可以大大降低成本,并适用于各种游戏比赛场景,从而使得游戏比赛更加有趣,成本更低。
在智能游戏解说中,事件选择是非常关键的环节。为了保证解说内容的质量,现有的事件选择策略采用了基于规则的方式,根据GameCore(游戏开发引擎)数据实时抽象生成事件池,并通过事件过滤筛选掉一些过期和超出范围的事件,最后根据GameCore数据和专家知识库为每个事件的关键性打分,这种方式难以兼顾游戏事件选择的连续性,导致游戏解说的效果较差。
发明内容
本申请实施例的目的旨在提供一种模型训练方法、装置及电子设备,本申请实施例提供的技术方案如下:
一方面,本申请实施例提供了一种模型训练的方法,该方法包括:
获取第一样本训练集;所述第一样本训练集包括多个第一样本游戏视频;每一所述第一样本游戏视频包括多个时刻分别对应的第一样本状态信息;针对每一时刻,所述第一样本状态信息包括该时刻所述第一样本游戏视频对应的多个第一候选游戏事件以及该时刻之前已选择的第一样本游戏视频的第一历史游戏事件;
基于所述第一样本训练集对初始事件选择模型进行至少一次第一训练操作,直至符合第一训练结束条件,将符合所述第一训练结束条件的初始事件选择模型作为训练好的事件选择模型;所述事件选择模型用于基于目标游戏视频的当前时刻的状态信息确定目标游戏事件,以生成针对目标游戏事件的游戏解说视频;
其中,所述第一训练操作包括:
针对每一第一样本游戏视频的每一时刻,通过初始事件选择模型从该时刻的多个所述第一候选游戏事件中选择目标样本事件;
基于该时刻的第一样本状态信息,通过训练好的奖励模型确定所述目标样本事件的第一奖励值;其中,所述第一奖励值代表多个第一候选游戏事件中所述目标样本事件的重要程度;
基于所述目标样本事件的样本解说文本、所述第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值;所述第二奖励值表示所述样本解说文本以及所述历史解说文本对于预设评价指标的符合程度;
基于所述第一评价值和所述第二评价值确定该时刻的总奖励值,并基于各个时刻分别对应的总奖励值,确定所述初始事件选择模型对应于所述第一样本游戏视频的评价值;基于所述初始事件选择模型对应于每一第一样本游戏视频的评价值对所述初始事件选择模型的参数进行调整,将调整参数后的初始事件选择模型作为下一次第一训练操作前的初始事件选择模型。
在一些可能的实施方式中,所述基于该时刻的第一样本状态信息,通过训练好的奖励模型确定所述目标样本事件的第一奖励值,包括:
确定所述样本状态信息对应的样本状态向量,并确定所述目标样本事件对应的样本事件向量;
基于所述样本状态向量和所述样本事件向量,生成第一样本向量;
将所述第一样本向量输入训练好的奖励模型,得到所述第一奖励值。
在一些可能的实施方式中,所述奖励模型是通过如下方式训练得到的:
获取第二样本训练集;所述第二样本训练集包括多个第二样本游戏视频;每一所述第二样本游戏视频包括多个时刻分别对应的第二样本状态信息;针对每一时刻,该时刻所述第二样本游戏视频对应的多个第二候选游戏事件基于重要程度标注有排序;
基于所述第二样本训练集对初始奖励模型进行至少一次第二训练操作,直至符合第二训练结束条件,将符合所述第二训练结束条件的初始奖励模型作为训练好的奖励模型;
其中,所述第二训练操作包括:
针对每一第二样本游戏视频的每一时刻的每一第二候选游戏事件,基于所述第二候选游戏事件和该时刻的第二样本状态信息,确定第二样本向量;
将所述第二样本向量输入所述初始奖励模型,得到针对所述第二候选游戏事件的第一预测奖励值;
基于每两个第二候选游戏事件分别对应的第一预测奖励值确定每两个第二候选游戏事件之间的预测排序;
基于每两个第二候选游戏事件之间的预测排序以及所述多个第二候选游戏事件标注的排序,确定该时刻的第一训练损失;
基于每一第二样本游戏视频的每一时刻的第一训练损失,对所述初始奖励模型的参数进行调整,将调整参数后的初始奖励模型作为下一次第二训练操作前的初始奖励模型。
在一些可能的实施方式中,所述基于所述目标样本事件的样本解说文本、所述第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值,包括:
获取与所述预设评价指标对应的提示模板;
基于所述提示模板将所述目标样本事件的样本解说文本以及所述历史解说文本进行拼接,生成待评价文本;
通过训练好的语言评价模型确定所述待评价文本对应于预设评价指标的第二奖励值。
在一些可能的实施方式中,所述基于所述提示模板将所述目标样本事件的样本解说文本以及所述历史解说文本进行拼接,生成待评价文本,包括:
从该时刻之前已经选择的第一历史游戏事件的历史解说文本中,确定出该时刻时间距离最近的连续的第一预设数量的历史解说文本;
将所述确定的历史解说文本与所述目标样本事件的样本解说文本基于对应的时刻进行拼接,生成所述待评价文本。
在一些可能的实施方式中,所述语言评价模型是基于如下方式训练得到的:
获取多个样本文本;每一所述样本文本是基于第二预设数量的样本游戏事件分别对应的样本解说文本进行拼接生成的;每一所述样本文本标注有样本奖励值;所述样本奖励值表示所述样本文本对于所述预设评价指标的符合程度;
基于多个样本文本对初始语言评价模型进行至少一次第三训练操作,直至符合第三训练结束条件,将符合所述第三训练结束条件的初始语言评价模型作为训练好的语言评价模型;
其中,所述第三训练操作包括:
将所述样本文本输入初始语言评价模型中,得到所述样本文本对应的第二预测奖励值;
基于所述第二预测奖励值和所述样本奖励值,确定所述样本文本的第二训练损失;
基于每一样本文本分别对应的第二训练损失,对所述初始语言评价模型的参数进行调整,将调整参数后的初始语言评价模型作为下一次第三训练操作前的初始语言评价模型。
在一些可能的实施方式中,所述基于所述第一评价值和所述第二评价值确定该时刻的总奖励值,包括:
基于所述第一评价值的第一系数,以及所述第二评价值的第二系数,确定所述第一评价值和所述第二评价值的加权和,得到所述总奖励值。
在一些可能的实施方式中,所述基于各个时刻分别对应的总奖励值,确定所述初始事件选择模型对应于所述第一样本游戏视频的评价值,包括:
统计所述第一样本游戏视频中已确定总奖励值的时刻的数量;
确定各个时刻分别对应的总奖励值与所述时刻的数量之间的比值,得到平均奖励值,将所述平均奖励值作为所述初始事件选择模型对应于所述第一样本游戏视频的评价值。
另一方面,本申请实施例提供了一种视频处理方法,包括:
获取目标游戏视频的当前时刻的状态信息;所述当前时刻的状态信息包括当前时刻的目标游戏视频对应的多个目标候选游戏事件、当前时刻之前已经选择的目标游戏视频的目标历史游戏事件以及当前时刻目标游戏视频对应的目标游戏状态信息;
基于训练好的事件选择模型从所述多个目标候选游戏事件中选择目标游戏事件;其中,所述事件选择模型是上述的模型训练方法训练得到的;
获取与所述目标游戏事件对应的解说文本,基于各个时刻分别对应的解说文本生成游戏解说视频。
另一方面,本申请实施例提供了一种模型训练装置,该装置包括:
第一获取模块,用于获取第一样本训练集;所述第一样本训练集包括多个第一样本游戏视频;每一所述第一样本游戏视频包括多个时刻分别对应的第一样本状态信息;针对每一时刻,所述第一样本状态信息包括该时刻所述第一样本游戏视频对应的多个第一候选游戏事件以及该时刻之前已选择的第一样本游戏视频的第一历史游戏事件;所述事件选择模型用于基于目标游戏视频的当前时刻的状态信息确定目标游戏事件,以生成针对目标游戏事件的游戏解说视频;
第一训练模块,用于基于所述第一样本训练集对初始事件选择模型进行至少一次第一训练操作,直至符合第一训练结束条件,将符合所述第一训练结束条件的初始事件选择模型作为训练好的事件选择模型;
其中,所述第一训练模块在执行一次第一训练操作时,具体用于:
针对每一第一样本游戏视频的每一时刻,通过初始事件选择模型从该时刻的多个所述第一候选游戏事件中选择目标样本事件;
基于该时刻的第一样本状态信息,通过训练好的奖励模型确定所述目标样本事件的第一奖励值;其中,所述第一奖励值代表多个第一候选游戏事件中所述目标样本事件的重要程度;
基于所述目标样本事件的样本解说文本、所述第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值;所述第二奖励值表示所述样本解说文本以及所述历史解说文本对于预设评价指标的符合程度;
基于所述第一评价值和所述第二评价值确定该时刻的总奖励值,并基于各个时刻分别对应的总奖励值,确定所述初始事件选择模型对应于所述第一样本游戏视频的评价值;基于所述初始事件选择模型对应于每一第一样本游戏视频的评价值对所述初始事件选择模型的参数进行调整,将调整参数后的初始事件选择模型作为下一次第一训练操作前的初始事件选择模型。
在一些可能的实施方式中,第一训练模块在基于该时刻的第一样本状态信息,通过训练好的奖励模型确定所述目标样本事件的第一奖励值时,具体用于:
确定所述样本状态信息对应的样本状态向量,并确定所述目标样本事件对应的样本事件向量;
基于所述样本状态向量和所述样本事件向量,生成第一样本向量;
将所述第一样本向量输入训练好的奖励模型,得到所述第一奖励值。
在一些可能的实施方式中,还包括第二训练模块,用于:
获取第二样本训练集;所述第二样本训练集包括多个第二样本游戏视频;每一所述第二样本游戏视频包括多个时刻分别对应的第二样本状态信息;针对每一时刻,该时刻所述第二样本游戏视频对应的多个第二候选游戏事件基于重要程度标注有排序;
基于所述第二样本训练集对初始奖励模型进行至少一次第二训练操作,直至符合第二训练结束条件,将符合所述第二训练结束条件的初始奖励模型作为训练好的奖励模型;
其中,所述第二训练操作包括:
针对每一第二样本游戏视频的每一时刻的每一第二候选游戏事件,基于所述第二候选游戏事件和该时刻的第二样本状态信息,确定第二样本向量;
将所述第二样本向量输入所述初始奖励模型,得到针对所述第二候选游戏事件的第一预测奖励值;
基于每两个第二候选游戏事件分别对应的第一预测奖励值确定每两个第二候选游戏事件之间的预测排序;
基于每两个第二候选游戏事件之间的预测排序以及所述多个第二候选游戏事件标注的排序,确定该时刻的第一训练损失;
基于每一第二样本游戏视频的每一时刻的第一训练损失,对所述初始奖励模型的参数进行调整,将调整参数后的初始奖励模型作为下一次第二训练操作前的初始奖励模型。
在一些可能的实施方式中,所述第一训练模块在基于所述目标样本事件的样本解说文本、所述第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值时,具体用于:
获取与所述预设评价指标对应的提示模板;
基于所述提示模板将所述目标样本事件的样本解说文本以及所述历史解说文本进行拼接,生成待评价文本;
通过训练好的语言评价模型确定所述待评价文本对应于预设评价指标的第二奖励值。
在一些可能的实施方式中,所述第一训练模块在基于所述提示模板将所述目标样本事件的样本解说文本以及所述历史解说文本进行拼接,生成待评价文本时,具体用于:
从该时刻之前已经选择的第一历史游戏事件的历史解说文本中,确定出该时刻时间距离最近的连续的第一预设数量的历史解说文本;
将所述确定的历史解说文本与所述目标样本事件的样本解说文本基于对应的时刻进行拼接,生成所述待评价文本。
在一些可能的实施方式中,还包括第三训练模块,用于:
获取多个样本文本;每一所述样本文本是基于第二预设数量的样本游戏事件分别对应的样本解说文本进行拼接生成的;每一所述样本文本标注有样本奖励值;所述样本奖励值表示所述样本文本对于所述预设评价指标的符合程度;
基于多个样本文本对初始语言评价模型进行至少一次第三训练操作,直至符合第三训练结束条件,将符合所述第三训练结束条件的初始语言评价模型作为训练好的语言评价模型;
其中,所述第三训练操作包括:
将所述样本文本输入初始语言评价模型中,得到所述样本文本对应的第二预测奖励值;
基于所述第二预测奖励值和所述样本奖励值,确定所述样本文本的第二训练损失;
基于每一样本文本分别对应的第二训练损失,对所述初始语言评价模型的参数进行调整,将调整参数后的初始语言评价模型作为下一次第三训练操作前的初始语言评价模型。
在一些可能的实施方式中,所述第一训练模块在基于所述第一评价值和所述第二评价值确定该时刻的总奖励值时,具体用于:
基于所述第一评价值的第一系数,以及所述第二评价值的第二系数,确定所述第一评价值和所述第二评价值的加权和,得到所述总奖励值。
在一些可能的实施方式中,所述第一训练模块在基于各个时刻分别对应的总奖励值,确定所述初始事件选择模型对应于所述第一样本游戏视频的评价值时,具体用于:
统计所述第一样本游戏视频中已确定总奖励值的时刻的数量;
确定各个时刻分别对应的总奖励值与所述时刻的数量之间的比值,得到平均奖励值,将所述平均奖励值作为所述初始事件选择模型对应于所述第一样本游戏视频的评价值。
另一方面,本申请实施例还提供了一种视频处理装置,包括:
第二获取模块,用于获取目标游戏视频的当前时刻的状态信息;所述当前时刻的状态信息包括当前时刻的目标游戏视频对应的多个目标候选游戏事件、当前时刻之前已经选择的目标游戏视频的目标历史游戏事件以及当前时刻目标游戏视频对应的目标游戏状态信息;
选择模块,用于基于训练好的事件选择模型从所述多个目标候选游戏事件中选择目标游戏事件;其中,所述事件选择模型是基于上述的模型训练方法训练得到的;
第三获取模块,用于获取与所述目标游戏事件对应的解说文本,基于各个时刻分别对应的解说文本生成游戏解说视频。
另一方面,本申请实施例还提供了一种电子设备,该电子设备包括存储器和处理器,存储器中存储有计算机程序,处理器执行该计算机程序以实现本申请任一可选实施例中提供的方法。
另一方面,本申请实施例还提供了一种计算机可读存储介质,该存储介质中存储有计算机程序,该计算机程序被处理器执行时实现本申请任一可选实施例中提供的方法。
另一方面,本申请实施例还提供了一种计算机程序产品,该计算机产品包括计算机程序,该计算机程序被处理器执行时实现本申请任一可选实施例中提供的方法。
本申请实施例提供的技术方案带来的有益效果如下:
在针对初始事件选择模型的训练过程中,基于该时刻的第一样本状态信息,通过训练好的奖励模型确定目标样本事件的第一奖励值,并基于目标样本事件的样本解说文本、第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值,再结合第一奖励值和第二奖励值确定初始事件选择模型对应于第一样本游戏视频的评价值,从而对初始事件选择模型进行调整,不仅考虑到不同时刻的第一样本状态信息,还结合了每一时刻的样本解说文本以及对应的历史解说文本之间的关联性,使得训练得到的事件选择模型能够兼顾所选择的目标游戏事件和历史游戏事件的关联性,有效提高游戏解说效果。
此外,可以个性化设置预设评价指标,使得训练得到的事件选择模型可以满足用户的个性化的解说需求,从而提高智能游戏解说的用户体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1为一个示例中提供的模型训练方法的应用环境示意图;
图2为本申请实施例提供的一种模型训练方法的流程示意图;
图3为本申请实施例提供的事件选择模型的训练方案的示意图;
图4为本申请实施例提供的奖励模型的训练方案的示意图;
图5为本申请一个示例中基于待评价文本生成第二奖励值的方案的示意图;
图6为本申请实施例提供的一种语言评价模型的训练方案的示意图;
图7为本申请实施例提供的一种视频处理方法的流程示意图;
图8为本申请实施例提供的一种模型训练装置的结构示意图;
图9为本申请实施例提供的一种视频处理装置的结构示意图;
图10为本申请实施例所适用的一种电子设备的结构示意图。
具体实施方式
下面结合本申请中的附图描述本申请的实施例。应理解,下面结合附图所阐述的实施方式,是用于解释本申请实施例的技术方案的示例性描述,对本申请实施例的技术方案不构成限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请实施例所使用的术语“包括”以及“包含”是指相应特征可以实现为所呈现的特征、信息、数据、步骤、操作、元件和/或组件,但不排除实现为本技术领域所支持其他特征、信息、数据、步骤、操作、元件、组件和/或它们的组合等。应该理解,当我们称一个元件被“连接”或“耦接”到另一元件时,该一个元件可以直接连接或耦接到另一元件,也可以指该一个元件和另一元件通过中间元件建立连接关系。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的术语“和/或”指示该术语所限定的项目中的至少一个,例如“A和/或B”可以实现为“A”,或者实现为“B”,或者实现为“A和B”。在描述多个(两个或两个以上)项目时,如果没有明确限定多个项目之间的关系,这多个项目之间可以是指多个项目中的一个、多个或者全部,例如,对于“参数A包括A1、A2、A3”的描述,可以实现为参数A包括A1或A2或A3,还可以实现为参数A包括参数A1、A2、A3这三项中的至少两项。
为了更好的说明和理解本申请实施例提供的方案,首先对本申请实施例中所涉及的一些相关的技术用语进行介绍:
游戏解说:在比较大的游戏赛事中,对当前发生的游戏事件进行解释、评论、预测等,比如对电子竞技比赛中进行现场解说,或AI解说。
大语言模型:大语言模型(Large Language Model)是一种基于深度学习技术的人工智能算法,其目标是让计算机能够理解和生成自然语言。它通过分析大量的语言数据,如文本、语音或图像,来学习语言的结构和规律,并使用这些知识来完成各种自然语言处理任务,如机器翻译、语音识别、文本分类、问答系统等。大语言模型通常使用深度学习中Transformer架构来建模文本序列,以便理解上下文和语义。其训练过程通常涉及大量的数据和计算资源,例如大规模语料库和高性能计算平台。在训练过程中,大语言模型逐渐学习到了语言的特征和规律,形成了对语言的理解和表达能力。
强化学习:强化学习是一种人工智能领域的学习方法,通过智能体与环境的交互,使得智能体可以通过试错学习来最大化某种累积奖励。在强化学习中,智能体根据当前状态选择一个动作,然后观察环境的反馈,包括奖励和下一个状态,从而不断地更新自己的策略,以便在未来获得更高的累积奖励。
目前,游戏已经崛起为一种新的竞技模式,电子竞技的蓬勃发展改变了游戏过去的发展趋势。随着电竞市场的不断扩大,游戏解说成为了一个巨大的市场,但与此同时,由于相关从业人员的短缺,游戏解说的成本也越来越高,使得只有大型游戏比赛场景才能承受得起真人解说。由于缺乏真人解说,中小型游戏比赛的趣味性和活跃度降低,观众数量也较少。然而,基于人工智能的游戏解说可以大大降低成本,并适用于各种游戏比赛场景,从而使得游戏比赛更加有趣,成本更低。
强化学习可以被广泛应用于人工智能游戏解说中的事件选择智能化。使用强化学习来进行事件选择,可以学习到一套更加准确的事件选择策略,这种策略可以很好地替代原有基于规则的事件选择方法,并且学习到一组事件之间的相对重要性。这种方法还可以避免在不同游戏中针对人工智能解说事件选择模块进行重复开发的问题。
在智能游戏解说中,事件选择是非常关键的环节。不恰当的选择可能会影响后续事件的连贯性,从而导致解说内容的质量下降。为了保证解说内容的质量,现有的事件选择策略采用了基于规则的方式,根据GameCore数据实时抽象生成事件池,并通过事件过滤筛选掉一些过期和超出范围的事件,最后根据GameCore数据和专家知识库为每个事件的关键性打分。然而,这种规则策略难以适应不断变化的个性化需求,并且在不同的应用场景都需要重新开发一套代码。
本申请引入强化学习(RL)方法进行事件选择。在这种方法中,事件选择器将根据当前的状态和历史经验动态地选择最优的事件,同时考虑到历史事件的连贯性和故事线。虽然这种方法需要更多的训练和计算资源,但可以更好地提高智能游戏解说的效果。
可选的,本申请实施例所涉及的模型训练可以基于人工智能(ArtificialIntelligence,AI)中的机器学习(Machine Learning,ML)来实现。
人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大模型训练技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理涉及自然语言,即人们日常使用的语言,与语言学研究密切;同时涉及计算机科学和数学。人工智能领域模型训练的重要技术,预训练模型,即是从NLP领域的大语言模型(Large Language Model)发展而来。经过微调,大语言模型可以广泛应用于下游任务。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
预训练模型(Pre-training model),也称基石模型、大模型,指具有大参量的深度神经网络(Deep neural network,DNN),在海量未标记的数据上对其进行训练,利用大参量DNN的函数近似能力使PTM在数据上提取共性特征,经微调(fine tune)、参数高效微调(PEFT)、prompt-tuning等技术,适用于下游任务。因此,预训练模型可以在小样本(Few-shot)或零样本(Zero-shot)场景下达到理想效果。PTM按照处理的数据模态可以分为语言模型(ELMO,BERT,GPT)、视觉模型(swin-transformer,ViT,V-MOE)、语音模型(VALL-E)、多模态模型(ViBERT,CLIP,Flamingo,Gato)等,其中多模态模型指建立两种或以上数据模态特征表示的模型。预训练模型是输出人工智能生成内容(AIGC)重要工具,也可以作为连接多个具体任务模型的通用接口。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
下面通过对几个可选的实施例的描述,对本申请提供的技术方案以及本申请的技术方案产生的技术效果进行说明。需要指出的是,下述实施方式之间可以相互参考、借鉴或结合,对于不同实施方式中相同的术语、相似的特征以及相似的实施步骤等,不再重复描述。
图1为本申请实施例提供的模型训练方法的应用环境示意图。其中,应用环境可以包括服务器101和终端102。服务器101获取第一样本训练集;基于第一样本训练集对初始事件选择模型进行至少一次第一训练操作,直至符合第一训练结束条件,将符合第一训练结束条件的初始事件选择模型作为训练好的事件选择模型。终端102发送目标游戏视频至服务器101,服务器101获取目标游戏视频的当前时刻的状态信息;服务器101基于训练好的事件选择模型从多个目标候选游戏事件中选择目标游戏事件;服务器101获取与目标游戏事件对应的解说文本,基于各个时刻分别对应的解说文本生成游戏解说视频。服务器101将生成的游戏解说视频返回至终端102。
本技术领域技术人员可以理解,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(ContentDelivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器或服务器集群。终端可以是智能手机(如Android手机、iOS手机等)、平板电脑、笔记本电脑、数字广播接收器、MID(Mobile Internet Devices,移动互联网设备)、PDA(个人数字助理)、台式计算机、智能家电、车载终端(例如车载导航终端、车载电脑等)、智能音箱、智能手表等,终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,但并不局限于此。本发明实施例可应用于各种场景,包括但不限于云技术、人工智能、智慧交通、音视频、辅助驾驶等。具体也可基于实际应用场景需求确定,在此不作限定。
需要说明的是,在本申请的可选实施例中,所涉及到的对象属性、视频内容数据、统计数据等相关的数据,当本申请实施例运用到具体产品或技术中时,需要获得对象许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。也就是说,本申请实施例中如果涉及到与对象属性、视频内容数据、统计数据等相关的数据,这些数据需要经由对象授权同意、且符合国家和地区的相关法律法规和标准的情况下获取的。
本申请实施例提供的模型训练方法,可以由任意的电子设备执行,该电子设备可以是图1所示的服务器或终端。
图2示出了本申请实施例提供的一种模型训练方法的流程示意图,以执行主体为服务器为例,本申请提供的模型训练方法,可以包括如下步骤:
步骤S201,获取第一样本训练集。
其中,第一样本训练集包括多个第一样本游戏视频,每一第一样本游戏视频包括多个时刻分别对应的第一样本状态信息。
具体的,针对每一时刻,第一样本状态信息包括该时刻第一样本游戏视频对应的多个第一候选游戏事件、该时刻之前已选择的第一样本游戏视频的第一历史游戏事件以及该时刻第一样本游戏视频对应的第一游戏状态信息。
具体的,第一候选游戏事件可以基于生成第一样本游戏视频的游戏应用程序的应用日志中获取的,生成第一样本游戏视频的过程中,游戏应用程序实施生成各个时刻分别对应的游戏事件,各个时刻分别对应的游戏事件随着游戏应用程序的运行,基于事件分别对应的生命周期、冷却周期在不断更新。
具体的,第一历史游戏事件为该时刻之前的各个时刻,已经选择的游戏事件。
具体的,第一游戏状态信息可以包括该时刻的全局状态属性和团内状态属性,全局状态属性可以包括游戏中所有虚拟角色均具有的固定属性信息,例如游戏开始时间、游戏进展等;团内状态属性可以是指定的多个虚拟角色当前的状态信息,例如该时刻的技能冷却状态等等。
步骤S202,基于第一样本训练集对初始事件选择模型进行至少一次第一训练操作,直至符合第一训练结束条件,将符合第一训练结束条件的初始事件选择模型作为训练好的事件选择模型。
其中,事件选择模型用于基于目标游戏视频的当前时刻的状态信息确定目标游戏事件,以生成针对目标游戏事件的游戏解说视频。
具体的,事件选择模型基于目标游戏视频的当前时刻的状态信息确定目标游戏事件后,确定与目标游戏事件对应的目标解说文本,生成针对目标游戏事件的游戏解说视频。
在具体实施过程中,可以采用训练好的自然语言处理模型来获取对应的目标解说文本,解说文本也可以称为NLG(自然语言处理)话术。
其中,第一训练操作可以包括:
(1)针对每一第一样本游戏视频的每一时刻,通过初始事件选择模型从该时刻的多个第一候选游戏事件中选择目标样本事件。
具体的,可以从基于生成第一样本游戏视频的游戏应用程序的应用日志中获取多个第一候选游戏事件。
(2)基于该时刻的第一样本状态信息,通过训练好的奖励模型确定目标样本事件的第一奖励值。
其中,第一奖励值代表多个第一候选游戏事件中目标样本事件的重要程度。
(3)基于目标样本事件的样本解说文本、第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值。
其中,第二奖励值表示样本解说文本以及历史解说文本对于预设评价指标的符合程度。
具体的,预设评价指标可以包括连贯性、趣味性等等。
在具体实施过程中,结合目标样本事件的样本解说文本、第一历史游戏事件的历史解说文本确定第二奖励值,可以考虑到样本解说文本和历史解说文本之间的关联性。
(4)基于第一评价值和第二评价值确定该时刻的总奖励值,并基于各个时刻分别对应的总奖励值,确定初始事件选择模型对应于第一样本游戏视频的评价值。
其中,初始事件选择模型对应于第一样本游戏视频的评价值,即表示初始事件选择模型针对第一样本游戏视频中多个不同时刻进行事件选择的过程中的整体评价。
具体的,初始事件选择模型对应于第一样本游戏视频的评价值越高,则说明总体而言初始事件选择模型在各个时刻选择的游戏事件相对而言更加准确。
(5)基于初始事件选择模型对应于每一第一样本游戏视频的评价值对初始事件选择模型的参数进行调整,将调整参数后的初始事件选择模型作为下一次第一训练操作前的初始事件选择模型。
具体的,调整初始事件选择模型的参数,使得初始事件选择模型对应于每一第一样本游戏视频的评价值尽可能的更大。
在具体实施过程中,针对初始事件选择模型的训练过程,还可以采用正则化技术,例如,训练过程中屏蔽一些神经元的输出,也可以称为dropout;另外,可以采用正则化,例如L2正则化(L2范数)对损失函数中的参数进行限制,可以将L2正则化作为损失函数的惩罚项,来减少过拟合的风险。
具体的,第一训练结束条件可以为评价值大于第一预设阈值,或评价值收敛,或第一训练操作对应的迭代次数达到第一指定数量,对此本申请不进行限制。
上述实施例中,在针对初始事件选择模型的训练过程中,基于该时刻的第一样本状态信息,通过训练好的奖励模型确定目标样本事件的第一奖励值,并基于目标样本事件的样本解说文本、第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值,再结合第一奖励值和第二奖励值确定初始事件选择模型对应于第一样本游戏视频的评价值,从而对初始事件选择模型进行调整,不仅考虑到不同时刻的第一样本状态信息,还结合了每一时刻的样本解说文本以及对应的历史解说文本之间的关联性,使得训练得到的事件选择模型能够兼顾不同游戏状态下的事件选择以及历史游戏事件的关联性,有效提高游戏解说效果。
此外,可以个性化设置预设评价指标,使得训练得到的事件选择模型可以满足用户的个性化的解说需求,从而提高智能游戏解说的用户体验。
以下将结合附图对上述过程进行进一步阐述。
如图3所示,本申请的模型训练方法,可以包括:
获取第一样本训练集;
针对每一第一样本游戏视频的每一时刻,通过初始事件选择模型从该时刻的多个第一候选游戏事件中选择目标样本事件;
基于该时刻的第一样本状态信息,通过训练好的奖励模型确定目标样本事件的第一奖励值;
基于目标样本事件的样本解说文本、第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值;
基于第一评价值和第二评价值确定该时刻的总奖励值,并基于各个时刻分别对应的总奖励值,确定初始事件选择模型对应于第一样本游戏视频的评价值;
若符合第一训练结束条件,则得到训练好的事件选择模型;
若不符合第一训练结束条件,则基于初始事件选择模型对应于每一第一样本游戏视频的评价值对初始事件选择模型的参数进行调整,并返回选择目标样本事件的步骤。
在一些可能的实施方式中,基于该时刻的第一样本状态信息,通过训练好的奖励模型确定目标样本事件的第一奖励值,可以包括:
确定第一样本状态信息对应的第一样本状态向量,并确定目标样本事件对应的样本事件向量;
基于第一样本状态向量和样本事件向量,生成第一样本向量;
将第一样本向量输入训练好的奖励模型,得到第一奖励值。
具体的,可以通过特征提取网络或者特征转化网络分别提取第一样本状态信息对应的第一样本状态向量以及目标样本事件对应的样本事件向量。
在具体实施过程中,可以将第一样本状态向量和样本事件向量进行组合,得到第一样本向量。
例如,第一样本状态向量S包括t时刻的第一样本游戏视频对应的多个第一候选游戏事件的向量A、t时刻之前已选择的第一样本游戏视频的第一历史游戏事件B、以及该时刻第一样本游戏视频对应的第一游戏状态信息C,即St=[A,Bt,C],样本事件向量以D表示,则t时刻的第一样本向量Xt=[A,Bt,C,D]。
在具体实施过程中,通过训练好的奖励模型,可以预测针对t时刻的第一样本向量Xt的第一奖励值。
在一些可能的实施方式中,如图4所示,奖励模型是通过如下方式训练得到的:
(1)获取第二样本训练集。
其中,第二样本训练集包括多个第二样本游戏视频;每一第二样本游戏视频包括多个时刻分别对应的第二样本状态信息。
同样的,第二样本状态信息包括该时刻第二样本游戏视频对应的多个第二候选游戏事件、该时刻之前已选择的第二样本游戏视频的第二历史游戏事件以及该时刻第二样本游戏视频对应的第二游戏状态信息。
具体的,针对每一时刻,该时刻第二样本游戏视频对应的多个第二候选游戏事件基于重要程度标注有排序。
(2)基于第二样本训练集对初始奖励模型进行至少一次第二训练操作,直至符合第二训练结束条件,将符合第二训练结束条件的初始奖励模型作为训练好的奖励模型。
其中,第二训练操作包括:
针对每一第二样本游戏视频的每一时刻的每一第二候选游戏事件,基于第二候选游戏事件和该时刻的第二样本状态信息,确定第二样本向量;
将第二样本向量输入初始奖励模型,得到针对第二候选游戏事件的第一预测奖励值;
基于每两个第二候选游戏事件分别对应的第一预测奖励值确定每两个第二候选游戏事件之间的预测排序;
基于每两个第二候选游戏事件之间的预测排序以及多个第二候选游戏事件标注的排序,确定该时刻的第一训练损失;
基于每一第二样本游戏视频的每一时刻的第一训练损失,对初始奖励模型的参数进行调整,将调整参数后的初始奖励模型作为下一次第二训练操作前的初始奖励模型。
具体的,初始奖励模型的输入为一个事件序列,即包括多个第二候选游戏事件分别对应的第二样本向量,输出为reward(奖励)值,即输出每一第二候选游戏事件的第一预测奖励值。
其中,第二训练结束条件可以为第一训练损失小于第二预设阈值,或第一训练损失收敛,或第二训练操作对应的迭代次数达到第二指定数量,对此本申请不进行限制。
具体的,对于每一个时刻,训练过程中预先标注好该时刻的多个第二候选游戏事件的排序,即rank list(排序表),所有第二候选游戏事件的排序即可对应得到每两个第二候选游戏事件之间的排序,即可以得到多个样本对[higher_event(重要程度更高的第二候选游戏事件),lower_event(重要程度更低的第二候选游戏事件)];然后基于每一第二候选游戏事件分别对应的第一预测奖励值,生成每两个第二候选游戏事件之间的预测排序;然后基于每两个第二候选游戏事件之间的预测排序和标注的排序之间的差异,生成该时刻的第一训练损失,这种训练方式可以使得模型训练识别第二候选游戏事件之间的相对重要性。
具体的,基于每一第二样本游戏视频的每一时刻的第一训练损失,对初始奖励模型的参数进行调整,将调整参数后的初始奖励模型作为下一次第二训练操作前的初始奖励模型,即尽可能使得各个时刻的第一训练损失对应的总损失更小;若符合第二训练结束条件,则可以得到奖励模型;若不符合第二训练结束条件,则基于每一第二样本游戏视频的每一时刻的第一训练损失,对初始奖励模型的参数进行调整,并返回将第二样本向量输入初始奖励模型,得到针对第二候选游戏事件的第一预测奖励值的步骤,直至符合第二训练结束条件。
在一些可能的实施方式中,基于目标样本事件的样本解说文本、第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值,可以包括:
(1)获取与预设评价指标对应的提示模板。
具体的,针对不同的评价指标可以设置不同的提示(prompt)模板,本申请中可以根据用户需求选择预设评价指标对应的提示模板。
(2)基于提示模板将目标样本事件的样本解说文本以及历史解说文本进行拼接,生成待评价文本。
具体的,基于提示模板将目标样本事件的样本解说文本以及历史解说文本进行拼接,生成待评价文本,可以包括:
从该时刻之前已经选择的第一历史游戏事件的历史解说文本中,确定出该时刻时间距离最近的连续的第一预设数量的历史解说文本;
将确定的历史解说文本与目标样本事件的样本解说文本基于对应的时刻进行拼接,生成待评价文本。
也就是说,可以不选择所有的历史解说文本,而是选择最近的连续的一部分历史解锁文本与样本解说文本进行拼接。
在具体实施过程中,按照对应的时刻进行拼接,可以是从所选择的历史解说文本中,从时刻最早的历史解说文本开始,按照时间先后顺序,依次与时刻在后的历史解说文本、样本解说文本进行拼接。
例如,针对t时刻所选择的目标样本事件,可以获取t时刻的目标样本时间对应的样本解说文本,并获取t-1时刻的历史解说文本、t-2时刻的历史解说文本以及t-3时刻的历史解说文本,按照时间顺序从t-3时刻、t-2时刻、t-1时刻以及t时刻,依次将历史解说文本和样本解说文本进行拼接,生成待评价文本。
(3)通过训练好的语言评价模型确定待评价文本对应于预设评价指标的第二奖励值。
其中,语言评价模型可以包括大语言模型(large language model)。
如图5所示,在一个示例中,预设评价指标可以为逻辑连贯性,基于提示模板将目标样本事件的样本解说文本以及历史解说文本进行拼接,生成待评价文本,然后通过大语言模型对待评价文本针对逻辑连贯性进行评价,得到第二奖励值。
在一些可能的实施方式中,如图6所述,语言评价模型是基于如下方式训练得到的:
(1)获取多个样本文本。
其中,每一样本文本是基于第二预设数量的样本游戏事件分别对应的样本解说文本进行拼接生成的;每一样本文本标注有样本奖励值;样本奖励值表示样本文本对于预设评价指标的符合程度。
(2)基于多个样本文本对初始语言评价模型进行至少一次第三训练操作,直至符合第三训练结束条件,将符合第三训练结束条件的初始语言评价模型作为训练好的语言评价模型。
其中,第三训练操作包括:
将样本文本输入初始语言评价模型中,得到样本文本对应的第二预测奖励值;
基于第二预测奖励值和样本奖励值,确定样本文本的第二训练损失;
基于每一样本文本分别对应的第二训练损失,对初始语言评价模型的参数进行调整,将调整参数后的初始语言评价模型作为下一次第三训练操作前的初始语言评价模型。
具体的,基于第二训练损失对初始语言评价模型的参数进行调整,然后重复下一次训练操作,直至符合第三训练结束条件。
具体的,第三训练结束条件可以为第二训练损失小于第三预设阈值,或第二训练损失收敛,或第三训练操作对应的迭代次数达到第三指定数量,对此本申请不进行限制。
在具体实施过程中,若符合第三训练结束条件,则得到训练好的语言评价模型;若不符合第三训练结束条件,则基于每一样本文本分别对应的第二训练损失,对初始语言评价模型的参数进行调整;并返回将样本文本输入初始语言评价模型中,得到样本文本对应的第二预测奖励值的步骤,重复对调整参数后的初始语言评价模型进行训练,直至符合第三训练结束条件。
在一些可能的实施方式中,基于第一评价值和第二评价值确定该时刻的总奖励值,可以包括:
基于第一评价值的第一系数,以及第二评价值的第二系数,确定第一评价值和第二评价值的加权和,得到总奖励值。
具体的,第一系数和第二系数之间可以反相关。
在具体实施过程中,第一系数和第二系数的和可以为固定值。
具体的,可以采用如下公式计算总奖励值:
r=βr1+(1-β)r2 (1)
其中,β表示第一系数;r1表示第一评价值;(1-β)表示第二系数;r2表示第二评价值。
在一些可能的实施方式中,基于各个时刻分别对应的总奖励值,确定初始事件选择模型对应于第一样本游戏视频的评价值,包括:
统计第一样本游戏视频中已确定总奖励值的时刻的数量;
确定各个时刻分别对应的总奖励值与时刻的数量之间的比值,得到平均奖励值,将平均奖励值作为初始事件选择模型对应于第一样本游戏视频的评价值。
具体的,可以按照预定时间间隔确定第一样本游戏视频中的多个时刻,然后每一个时刻计算对应的总奖励值。
在具体实施过程中,不同的第一样本游戏视频可能总时长不同,若直接计算各个第一样本游戏视频的各个时刻的总奖励值的总和,可能会导致时长更长的第一样本游戏视频的评价值更高,因此确定各个时刻分别对应的总奖励值与时刻的数量之间的比值,得到平均奖励值,作为初始事件选择模型对应于第一样本游戏视频的评价值。
上述的模型训练方法,在针对初始事件选择模型的训练过程中,基于该时刻的第一样本状态信息,通过训练好的奖励模型确定目标样本事件的第一奖励值,并基于目标样本事件的样本解说文本、第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值,再结合第一奖励值和第二奖励值确定初始事件选择模型对应于第一样本游戏视频的评价值,从而对初始事件选择模型进行调整,不仅考虑到不同时刻的第一样本状态信息,还结合了每一时刻的样本解说文本以及对应的历史解说文本之间的关联性,使得训练得到的事件选择模型能够兼顾不同游戏状态下的事件选择以及历史游戏事件的关联性,有效提高游戏解说效果。
此外,可以个性化设置预设评价指标,使得训练得到的事件选择模型可以满足用户的个性化的解说需求,从而提高智能游戏解说的用户体验。
如图7所示,在一些可能的实施方式中,提供了一种视频处理方法,包括:
步骤S701,获取目标游戏视频的当前时刻的状态信息。
其中,当前时刻的状态信息包括当前时刻的目标游戏视频对应的多个目标候选游戏事件、当前时刻之前已经选择的目标游戏视频的目标历史游戏事件以及当前时刻目标游戏视频对应的目标游戏状态信息;
步骤S702,基于训练好的事件选择模型从多个目标候选游戏事件中选择目标游戏事件。
其中,事件选择模型是基于上述实施例的模型训练方法训练得到的,即先分别训练好奖励模型和语言评价模型,再基于奖励模型和语言评价模型针对初始事件选择模型所选的目标样本事件进行评价,从而训练得到事件选择模型。
具体针对事件选择模型的训练过程,上文已经详细阐述,在此不再进行赘述。
步骤S703,获取与目标游戏事件对应的解说文本,基于各个时刻分别对应的解说文本生成游戏解说视频。
具体的,可以采用训练好的自然语言处理模型来获取对应的目标解说文本。
上述的视频处理方法,通过训练好的事件选择模型确定目标游戏事件,从而生成对应的游戏解说视频,训练好的事件选择模型不仅考虑到不同时刻的状态信息,还结合了不同时刻的解说文本之间的关联性,能够兼顾不同游戏状态下的事件选择以及历史游戏事件的关联性,有效提高游戏解说效果。
如图8所示,在一些可能的实施方式中,提供了一种模型训练装置,包括:
第一获取模块801,用于获取第一样本训练集;第一样本训练集包括多个第一样本游戏视频;每一第一样本游戏视频包括多个时刻分别对应的第一样本状态信息;针对每一时刻,第一样本状态信息包括该时刻第一样本游戏视频对应的多个第一候选游戏事件以及该时刻之前已选择的第一样本游戏视频的第一历史游戏事件;
第一训练模块802,用于基于第一样本训练集对初始事件选择模型进行至少一次第一训练操作,直至符合第一训练结束条件,将符合第一训练结束条件的初始事件选择模型作为训练好的事件选择模型;事件选择模型用于基于目标游戏视频的当前时刻的状态信息确定目标游戏事件,以生成针对目标游戏事件的游戏解说视频;
其中,第一训练模块在执行一次第一训练操作时,具体用于:
针对每一第一样本游戏视频的每一时刻,通过初始事件选择模型从该时刻的多个第一候选游戏事件中选择目标样本事件;
基于该时刻的第一样本状态信息,通过训练好的奖励模型确定目标样本事件的第一奖励值;其中,第一奖励值代表多个第一候选游戏事件中目标样本事件的重要程度;
基于目标样本事件的样本解说文本、第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值;第二奖励值表示样本解说文本以及历史解说文本对于预设评价指标的符合程度;
基于第一评价值和第二评价值确定该时刻的总奖励值,并基于各个时刻分别对应的总奖励值,确定初始事件选择模型对应于第一样本游戏视频的评价值;基于初始事件选择模型对应于每一第一样本游戏视频的评价值对初始事件选择模型的参数进行调整,将调整参数后的初始事件选择模型作为下一次第一训练操作前的初始事件选择模型。
在一些可能的实施方式中,第一训练模块802在基于该时刻的第一样本状态信息,通过训练好的奖励模型确定目标样本事件的第一奖励值时,具体用于:
确定第一样本状态信息对应的第一样本状态向量,并确定目标样本事件对应的样本事件向量;
基于第一样本状态向量和样本事件向量,生成第一样本向量;
将第一样本向量输入训练好的奖励模型,得到第一奖励值。
在一些可能的实施方式中,还包括第二训练模块,用于:
获取第二样本训练集;第二样本训练集包括多个第二样本游戏视频;每一第二样本游戏视频包括多个时刻分别对应的第二样本状态信息;针对每一时刻,该时刻第二样本游戏视频对应的多个第二候选游戏事件基于重要程度标注有排序;
基于第二样本训练集对初始奖励模型进行至少一次第二训练操作,直至符合第二训练结束条件,将符合第二训练结束条件的初始奖励模型作为训练好的奖励模型;
其中,第二训练操作包括:
针对每一第二样本游戏视频的每一时刻的每一第二候选游戏事件,基于第二候选游戏事件和该时刻的第二样本状态信息,确定第二样本向量;
将第二样本向量输入初始奖励模型,得到针对第二候选游戏事件的第一预测奖励值;
基于每两个第二候选游戏事件分别对应的第一预测奖励值确定每两个第二候选游戏事件之间的预测排序;
基于每两个第二候选游戏事件之间的预测排序以及多个第二候选游戏事件标注的排序,确定该时刻的第一训练损失;
基于每一第二样本游戏视频的每一时刻的第一训练损失,对初始奖励模型的参数进行调整,将调整参数后的初始奖励模型作为下一次第二训练操作前的初始奖励模型。
在一些可能的实施方式中,第一训练模块802在基于目标样本事件的样本解说文本、第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值时,具体用于:
获取与预设评价指标对应的提示模板;
基于提示模板将目标样本事件的样本解说文本以及历史解说文本进行拼接,生成待评价文本;
通过训练好的语言评价模型确定待评价文本对应于预设评价指标的第二奖励值。
在一些可能的实施方式中,第一训练模块802在基于提示模板将目标样本事件的样本解说文本以及历史解说文本进行拼接,生成待评价文本时,具体用于:
从该时刻之前已经选择的第一历史游戏事件的历史解说文本中,确定出该时刻时间距离最近的连续的第一预设数量的历史解说文本;
将确定的历史解说文本与目标样本事件的样本解说文本基于对应的时刻进行拼接,生成待评价文本。
在一些可能的实施方式中,还包括第三训练模块,用于:
获取多个样本文本;每一样本文本是基于第二预设数量的样本游戏事件分别对应的样本解说文本进行拼接生成的;每一样本文本标注有样本奖励值;样本奖励值表示样本文本对于预设评价指标的符合程度;
基于多个样本文本对初始语言评价模型进行至少一次第三训练操作,直至符合第三训练结束条件,将符合第三训练结束条件的初始语言评价模型作为训练好的语言评价模型;
其中,第三训练操作包括:
将样本文本输入初始语言评价模型中,得到样本文本对应的第二预测奖励值;
基于第二预测奖励值和样本奖励值,确定样本文本的第二训练损失;
基于每一样本文本分别对应的第二训练损失,对初始语言评价模型的参数进行调整,将调整参数后的初始语言评价模型作为下一次第三训练操作前的初始语言评价模型。
在一些可能的实施方式中,第一训练模块802在基于第一评价值和第二评价值确定该时刻的总奖励值时,具体用于:
基于第一评价值的第一系数,以及第二评价值的第二系数,确定第一评价值和第二评价值的加权和,得到总奖励值。
在一些可能的实施方式中,第一训练模块802在基于各个时刻分别对应的总奖励值,确定初始事件选择模型对应于第一样本游戏视频的评价值时,具体用于:
统计第一样本游戏视频中已确定总奖励值的时刻的数量;
确定各个时刻分别对应的总奖励值与时刻的数量之间的比值,得到平均奖励值,将平均奖励值作为初始事件选择模型对应于第一样本游戏视频的评价值。
上述的模型训练装置,在针对初始事件选择模型的训练过程中,基于该时刻的第一样本状态信息,通过训练好的奖励模型确定目标样本事件的第一奖励值,并基于目标样本事件的样本解说文本、第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值,再结合第一奖励值和第二奖励值确定初始事件选择模型对应于第一样本游戏视频的评价值,从而对初始事件选择模型进行调整,不仅考虑到不同时刻的第一样本状态信息,还结合了每一时刻的样本解说文本以及对应的历史解说文本之间的关联性,使得训练得到的事件选择模型能够兼顾不同游戏状态下的事件选择以及历史游戏事件的关联性,有效提高游戏解说效果。
此外,可以个性化设置预设评价指标,使得训练得到的事件选择模型可以满足用户的个性化的解说需求,从而提高智能游戏解说的用户体验。
如图9所示,在一些可能的实施方式中,提供了一种视频处理装置,包括:
第二获取模块901,用于获取目标游戏视频的当前时刻的状态信息;当前时刻的状态信息包括当前时刻的目标游戏视频对应的多个目标候选游戏事件、当前时刻之前已经选择的目标游戏视频的目标历史游戏事件以及当前时刻目标游戏视频对应的目标游戏状态信息;
选择模块902,用于基于训练好的事件选择模型从多个目标候选游戏事件中选择目标游戏事件;其中,事件选择模型是基于权利要求1至8任一项的方法训练得到的;
第三获取模块903,用于获取与目标游戏事件对应的解说文本,基于各个时刻分别对应的解说文本生成游戏解说视频。
上述的视频处理装置,通过训练好的事件选择模型确定目标游戏事件,从而生成对应的游戏解说视频,训练好的事件选择模型不仅考虑到不同时刻的状态信息,还结合了不同时刻的解说文本之间的关联性,能够兼顾不同游戏状态下的事件选择以及历史游戏事件的关联性,有效提高游戏解说效果。
本申请实施例的装置可执行本申请实施例所提供的方法,其实现原理相类似,本申请各实施例的装置中的各模块所执行的动作是与本申请各实施例的方法中的步骤相对应的,对于装置的各模块的详细功能描述具体可以参见前文中所示的对应方法中的描述,此处不再赘述。
本申请实施例中提供了一种电子设备,包括存储器、处理器及存储在存储器上的计算机程序,该处理器执行存储器中存储的计算机程序时可实现本申请任一可选实施例中的方法。
图10示出了本发明实施例所适用的一种电子设备的结构示意图,如图10所示,该电子设备可以为服务器或者终端,该电子设备可以用于实施本发明任一实施例中提供的方法。
如图10中所示,该电子设备1000主要可以包括至少一个处理器1001(图10中示出了一个)、存储器1002、通信模块1003和输入/输出接口1004等组件,可选的,各组件之间可以通过总线1005实现连接通信。需要说明的是,图10中示出的该电子设备1000的结构只是示意性的,并不构成对本申请实施例提供的方法所适用的电子设备的限定。
其中,存储器1002可以用于存储操作系统和应用程序等,应用程序可以包括在被处理器1001调用时实现本发明实施例所示方法的计算机程序,还可以包括用于实现其他功能或服务的程序。存储器1002可以是ROM(Read Only Memory,只读存储器)或可存储静态信息和指令的其他类型的静态存储设备,RAM(Random Access Memory,随机存取存储器)或者可存储信息和计算机程序的其他类型的动态存储设备,也可以是EEPROM(ElectricallyErasable Programmable Read Only Memory,电可擦可编程只读存储器)、CD-ROM(CompactDisc Read Only Memory,只读光盘)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
处理器1001通过总线1005与存储器1002连接,通过调用存储器1002中所存储的应用程序实现相应的功能。其中,处理器1001可以是CPU(Central Processing Unit,中央处理器),通用处理器,DSP(Digital Signal Processor,数据信号处理器),ASIC(Application Specific Integrated Circuit,专用集成电路),FPGA(FieldProgrammable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合,其可以实现或执行结合本发明公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器1001也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
电子设备1000可以通过通信模块1003(可以包括但不限于网络接口等组件)连接到网络,以通过网络与其它设备(如用户终端或服务器等)的通信,实现数据的交互,如向其他设备发送数据或从其他设备接收数据。其中,通信模块1003可以包括有线网络接口和/或无线网络接口等,即通信模块可以包括有线通信模块或无线通信模块中的至少一项。
在一些实施例中,电子设备1000可以通过输入/输出接口1004可以连接所需要的输入/输出设备,如键盘、显示设备等,电子设备100自身可以具有显示设备,还可以通过接口1004外接其他显示设备。可选的,通过该接口1004还可以连接存储装置,如硬盘等,以可以将电子设备1000中的数据存储到存储装置中,或者读取存储装置中的数据,还可以将存储装置中的数据存储到存储器1002中。可以理解的,输入/输出接口1004可以是有线接口,也可以是无线接口。根据实际应用场景的不同,与输入/输出接口1004连接的设备,可以是电子设备1000的组成部分,也可以是在需要时与电子设备1000连接的外接设备。
用于连接各组件的总线1005可以包括一通路,在上述组件之间传送信息。总线1005可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(Extended Industry Standard Architecture,扩展工业标准结构)总线等。根据功能的不同,总线1005可以分为地址总线、数据总线、控制总线等。
可选的,对于本发明实施例所提供的方案而言,存储器1002可以用于存储执行本发明方案的计算机程序,并由处理器1001来运行,处理器1001运行该计算机程序时实现本发明实施例提供的方法或装置的动作。
基于与本申请实施例提供的方法相同的原理,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现前述方法实施例的相应内容。
本申请实施例还提供了一种计算机程序产品,该产品包括计算机程序,该计算机程序被处理器执行时可实现前述方法实施例的相应内容。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”、“1”、“2”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除图示或文字描述以外的顺序实施。
应该理解的是,虽然本申请实施例的流程图中通过箭头指示各个操作步骤,但是这些步骤的实施顺序并不受限于箭头所指示的顺序。除非本文中有明确的说明,否则在本申请实施例的一些实施场景中,各流程图中的实施步骤可以按照需求以其他的顺序执行。此外,各流程图中的部分或全部步骤基于实际的实施场景,可以包括多个子步骤或者多个阶段。这些子步骤或者阶段中的部分或全部可以在同一时刻被执行,这些子步骤或者阶段中的每个子步骤或者阶段也可以分别在不同的时刻被执行。在执行时刻不同的场景下,这些子步骤或者阶段的执行顺序可以根据需求灵活配置,本申请实施例对此不限制。
以上所述仅是本申请部分实施场景的可选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请的方案技术构思的前提下,采用基于本申请技术思想的其他类似实施手段,同样属于本申请实施例的保护范畴。
Claims (14)
1.一种模型训练方法,其特征在于,所述方法包括:
获取第一样本训练集;所述第一样本训练集包括多个第一样本游戏视频;每一所述第一样本游戏视频包括多个时刻分别对应的第一样本状态信息;针对每一时刻,所述第一样本状态信息包括该时刻所述第一样本游戏视频对应的多个第一候选游戏事件以及该时刻之前已选择的第一样本游戏视频的第一历史游戏事件;
基于所述第一样本训练集对初始事件选择模型进行至少一次第一训练操作,直至符合第一训练结束条件,将符合所述第一训练结束条件的初始事件选择模型作为训练好的事件选择模型;所述事件选择模型用于基于目标游戏视频的当前时刻的状态信息确定目标游戏事件,以生成针对目标游戏事件的游戏解说视频;
其中,所述第一训练操作包括:
针对每一第一样本游戏视频的每一时刻,通过初始事件选择模型从该时刻的多个所述第一候选游戏事件中选择目标样本事件;
基于该时刻的第一样本状态信息,通过训练好的奖励模型确定所述目标样本事件的第一奖励值;其中,所述第一奖励值代表多个第一候选游戏事件中所述目标样本事件的重要程度;
基于所述目标样本事件的样本解说文本、所述第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值;所述第二奖励值表示所述样本解说文本以及所述历史解说文本对于预设评价指标的符合程度;
基于所述第一评价值和所述第二评价值确定该时刻的总奖励值,并基于各个时刻分别对应的总奖励值,确定所述初始事件选择模型对应于所述第一样本游戏视频的评价值;
基于所述初始事件选择模型对应于每一第一样本游戏视频的评价值对所述初始事件选择模型的参数进行调整,将调整参数后的初始事件选择模型作为下一次第一训练操作前的初始事件选择模型。
2.根据权利要求1所述的方法,其特征在于,所述基于该时刻的第一样本状态信息,通过训练好的奖励模型确定所述目标样本事件的第一奖励值,包括:
确定所述样本状态信息对应的样本状态向量,并确定所述目标样本事件对应的样本事件向量;
基于所述样本状态向量和所述样本事件向量,生成第一样本向量;
将所述第一样本向量输入训练好的奖励模型,得到所述第一奖励值。
3.根据权利要求1所述的方法,其特征在于,所述奖励模型是通过如下方式训练得到的:
获取第二样本训练集;所述第二样本训练集包括多个第二样本游戏视频;每一所述第二样本游戏视频包括多个时刻分别对应的第二样本状态信息;针对每一时刻,该时刻所述第二样本游戏视频对应的多个第二候选游戏事件基于重要程度标注有排序;
基于所述第二样本训练集对初始奖励模型进行至少一次第二训练操作,直至符合第二训练结束条件,将符合所述第二训练结束条件的初始奖励模型作为训练好的奖励模型;
其中,所述第二训练操作包括:
针对每一第二样本游戏视频的每一时刻的每一第二候选游戏事件,基于所述第二候选游戏事件和该时刻的第二样本状态信息,确定第二样本向量;
将所述第二样本向量输入所述初始奖励模型,得到针对所述第二候选游戏事件的第一预测奖励值;
基于每两个第二候选游戏事件分别对应的第一预测奖励值确定每两个第二候选游戏事件之间的预测排序;
基于每两个第二候选游戏事件之间的预测排序以及所述多个第二候选游戏事件标注的排序,确定该时刻的第一训练损失;
基于每一第二样本游戏视频的每一时刻的第一训练损失,对所述初始奖励模型的参数进行调整,将调整参数后的初始奖励模型作为下一次第二训练操作前的初始奖励模型。
4.根据权利要求1所述的方法,其特征在于,所述基于所述目标样本事件的样本解说文本、所述第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值,包括:
获取与所述预设评价指标对应的提示模板;
基于所述提示模板将所述目标样本事件的样本解说文本以及所述历史解说文本进行拼接,生成待评价文本;
通过训练好的语言评价模型确定所述待评价文本对应于预设评价指标的第二奖励值。
5.根据权利要求4所述的方法,其特征在于,所述基于所述提示模板将所述目标样本事件的样本解说文本以及所述历史解说文本进行拼接,生成待评价文本,包括:
从该时刻之前已经选择的第一历史游戏事件的历史解说文本中,确定出该时刻时间距离最近的连续的第一预设数量的历史解说文本;
将所述确定的历史解说文本与所述目标样本事件的样本解说文本基于对应的时刻进行拼接,生成所述待评价文本。
6.根据权利要求1所述的方法,其特征在于,所述语言评价模型是基于如下方式训练得到的:
获取多个样本文本;每一所述样本文本是基于第二预设数量的样本游戏事件分别对应的样本解说文本进行拼接生成的;每一所述样本文本标注有样本奖励值;所述样本奖励值表示所述样本文本对于所述预设评价指标的符合程度;
基于多个样本文本对初始语言评价模型进行至少一次第三训练操作,直至符合第三训练结束条件,将符合所述第三训练结束条件的初始语言评价模型作为训练好的语言评价模型;
其中,所述第三训练操作包括:
将所述样本文本输入初始语言评价模型中,得到所述样本文本对应的第二预测奖励值;
基于所述第二预测奖励值和所述样本奖励值,确定所述样本文本的第二训练损失;
基于每一样本文本分别对应的第二训练损失,对所述初始语言评价模型的参数进行调整,将调整参数后的初始语言评价模型作为下一次第三训练操作前的初始语言评价模型。
7.根据权利要求1所述的方法,其特征在于,所述基于所述第一评价值和所述第二评价值确定该时刻的总奖励值,包括:
基于所述第一评价值的第一系数,以及所述第二评价值的第二系数,确定所述第一评价值和所述第二评价值的加权和,得到所述总奖励值。
8.根据权利要求1所述的方法,其特征在于,所述基于各个时刻分别对应的总奖励值,确定所述初始事件选择模型对应于所述第一样本游戏视频的评价值,包括:
统计所述第一样本游戏视频中已确定总奖励值的时刻的数量;
确定各个时刻分别对应的总奖励值与所述时刻的数量之间的比值,得到平均奖励值,将所述平均奖励值作为所述初始事件选择模型对应于所述第一样本游戏视频的评价值。
9.一种视频处理方法,其特征在于,包括:
获取目标游戏视频的当前时刻的状态信息;所述当前时刻的状态信息包括当前时刻的目标游戏视频对应的多个目标候选游戏事件、当前时刻之前已经选择的目标游戏视频的目标历史游戏事件以及当前时刻目标游戏视频对应的目标游戏状态信息;
基于训练好的事件选择模型从所述多个目标候选游戏事件中选择目标游戏事件;其中,所述事件选择模型是基于权利要求1至8任一项所述的方法训练得到的;
获取与所述目标游戏事件对应的解说文本,基于各个时刻分别对应的解说文本生成游戏解说视频。
10.一种模型训练装置,其特征在于,所述装置包括:
第一获取模块,用于获取第一样本训练集;所述第一样本训练集包括多个第一样本游戏视频;每一所述第一样本游戏视频包括多个时刻分别对应的第一样本状态信息;针对每一时刻,所述第一样本状态信息包括该时刻所述第一样本游戏视频对应的多个第一候选游戏事件以及该时刻之前已选择的第一样本游戏视频的第一历史游戏事件;
第一训练模块,用于基于所述第一样本训练集对初始事件选择模型进行至少一次第一训练操作,直至符合第一训练结束条件,将符合所述第一训练结束条件的初始事件选择模型作为训练好的事件选择模型;
其中,所述第一训练模块在执行一次第一训练操作时,具体用于:
针对每一第一样本游戏视频的每一时刻,通过初始事件选择模型从该时刻的多个所述第一候选游戏事件中选择目标样本事件;
基于该时刻的第一样本状态信息,通过训练好的奖励模型确定所述目标样本事件的第一奖励值;其中,所述第一奖励值代表多个第一候选游戏事件中所述目标样本事件的重要程度;
基于所述目标样本事件的样本解说文本、所述第一历史游戏事件的历史解说文本,通过训练好的语言评价模型确定第二奖励值;所述第二奖励值表示所述样本解说文本以及所述历史解说文本对于预设评价指标的符合程度;
基于所述第一评价值和所述第二评价值确定该时刻的总奖励值,并基于各个时刻分别对应的总奖励值,确定所述初始事件选择模型对应于所述第一样本游戏视频的评价值;基于所述初始事件选择模型对应于每一第一样本游戏视频的评价值对所述初始事件选择模型的参数进行调整,将调整参数后的初始事件选择模型作为下一次第一训练操作前的初始事件选择模型。
11.一种视频处理装置,其特征在于,包括:
第二获取模块,用于获取目标游戏视频的当前时刻的状态信息;所述当前时刻的状态信息包括当前时刻的目标游戏视频对应的多个目标候选游戏事件、当前时刻之前已经选择的目标游戏视频的目标历史游戏事件以及当前时刻目标游戏视频对应的目标游戏状态信息;
选择模块,用于基于训练好的事件选择模型从所述多个目标候选游戏事件中选择目标游戏事件;其中,所述事件选择模型是基于权利要求1至8任一项所述的方法训练得到的;
第三获取模块,用于获取与所述目标游戏事件对应的解说文本,基于各个时刻分别对应的解说文本生成游戏解说视频。
12.一种电子设备,包括存储器、处理器及存储在存储器上的计算机程序,其特征在于,所述处理器执行所述计算机程序以实现权利要求1-9任一项所述方法的步骤。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-9任一项所述方法的步骤。
14.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-9任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310955076.9A CN117218482A (zh) | 2023-07-28 | 2023-07-28 | 模型训练方法、视频处理方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310955076.9A CN117218482A (zh) | 2023-07-28 | 2023-07-28 | 模型训练方法、视频处理方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117218482A true CN117218482A (zh) | 2023-12-12 |
Family
ID=89037744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310955076.9A Pending CN117218482A (zh) | 2023-07-28 | 2023-07-28 | 模型训练方法、视频处理方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117218482A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117807410A (zh) * | 2024-02-29 | 2024-04-02 | 东北大学 | 转钢辊道设定速度的确定方法及装置、存储介质、终端 |
CN118011840A (zh) * | 2024-04-10 | 2024-05-10 | 宝鸡同盈稀有金属有限公司 | 一种面向电子束熔炼的参数控制方法 |
-
2023
- 2023-07-28 CN CN202310955076.9A patent/CN117218482A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117807410A (zh) * | 2024-02-29 | 2024-04-02 | 东北大学 | 转钢辊道设定速度的确定方法及装置、存储介质、终端 |
CN117807410B (zh) * | 2024-02-29 | 2024-05-31 | 东北大学 | 转钢辊道设定速度的确定方法及装置、存储介质、终端 |
CN118011840A (zh) * | 2024-04-10 | 2024-05-10 | 宝鸡同盈稀有金属有限公司 | 一种面向电子束熔炼的参数控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111931062B (zh) | 一种信息推荐模型的训练方法和相关装置 | |
CN111708950B (zh) | 内容推荐方法、装置及电子设备 | |
CN112163165B (zh) | 信息推荐方法、装置、设备及计算机可读存储介质 | |
CN117218482A (zh) | 模型训练方法、视频处理方法、装置及电子设备 | |
CN112580352B (zh) | 关键词提取方法、装置和设备及计算机存储介质 | |
CN111753076B (zh) | 对话方法、装置、电子设备及可读存储介质 | |
CN113392331A (zh) | 文本处理方法及设备 | |
Hong et al. | Selective residual learning for visual question answering | |
CN113761156A (zh) | 人机交互对话的数据处理方法、装置、介质及电子设备 | |
CN117216234A (zh) | 基于人工智能的话术改写方法、装置、设备及存储介质 | |
Wang et al. | Simulating and modeling the risk of conversational search | |
CN116861258B (zh) | 模型处理方法、装置、设备及存储介质 | |
CN114282528A (zh) | 一种关键词提取方法、装置、设备及存储介质 | |
CN117437317A (zh) | 图像生成方法、装置、电子设备、存储介质和程序产品 | |
Wu et al. | Joint image captioning and question answering | |
CN117216185A (zh) | 分发内容的评论生成方法、装置、设备及存储介质 | |
Shau et al. | PSAbot: A Chatbot System for the Analysis of Posts on Stack Overflow | |
CN117556150B (zh) | 多目标预测方法、装置、设备及存储介质 | |
CN117786416B (zh) | 一种模型训练方法、装置、设备、存储介质及产品 | |
CN116603249B (zh) | 应用于角色扮演推理类游戏的大语言模型的训练方法 | |
Jiang et al. | Multi-view semantic understanding for visual dialog | |
CN118014086B (zh) | 数据处理方法、装置、设备、存储介质及产品 | |
CN118051782B (zh) | 一种模型训练的方法、业务处理的方法以及相关装置 | |
CN117972434B (zh) | 文本处理模型的训练方法、装置、设备、介质和程序产品 | |
CN116943241A (zh) | 对局解说的生成方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |