CN116943204A - 虚拟对象的控制方法、装置和存储介质及电子设备 - Google Patents
虚拟对象的控制方法、装置和存储介质及电子设备 Download PDFInfo
- Publication number
- CN116943204A CN116943204A CN202211466604.6A CN202211466604A CN116943204A CN 116943204 A CN116943204 A CN 116943204A CN 202211466604 A CN202211466604 A CN 202211466604A CN 116943204 A CN116943204 A CN 116943204A
- Authority
- CN
- China
- Prior art keywords
- virtual object
- operation information
- operation mode
- information
- cloud game
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 151
- 230000008569 process Effects 0.000 claims abstract description 83
- 238000013473 artificial intelligence Methods 0.000 claims description 38
- 230000006399 behavior Effects 0.000 claims description 32
- 238000012549 training Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 21
- 238000003062 neural network model Methods 0.000 claims description 11
- 230000003542 behavioural effect Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 22
- 230000006870 function Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 230000000694 effects Effects 0.000 description 15
- 230000009471 action Effects 0.000 description 10
- 238000004088 simulation Methods 0.000 description 10
- 239000008280 blood Substances 0.000 description 9
- 210000004369 blood Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 7
- 244000035744 Hura crepitans Species 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000005284 excitation Effects 0.000 description 5
- 208000027418 Wounds and injury Diseases 0.000 description 4
- 230000006378 damage Effects 0.000 description 4
- 208000014674 injury Diseases 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000036765 blood level Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种虚拟对象的控制方法、装置和存储介质及电子设备。其中,该方法包括:在一局云游戏的运行过程中,显示参与一局云游戏的第一虚拟对象、以及第二虚拟对象;获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息,并基于第一操作信息确定第二虚拟对象的第一操作模式,以及按照第一操作模式控制第二虚拟对象;在获取到第一虚拟对象在一局云游戏的运行过程中所产出的第二操作信息的情况下,基于第二操作信息将第二虚拟对象的操作模式由第一操作模式,调整为第二操作模式,并按照第二操作模式控制第二虚拟对象,可应用在云技术场景。本申请解决了虚拟对象的控制的灵活度较低的技术问题。
Description
技术领域
本申请涉及计算机领域,具体而言,涉及一种虚拟对象的控制方法、装置和存储介质及电子设备。
背景技术
在云游戏场景下,由用户控制的虚拟对象与人工智能控制的虚拟对象进行交互,以达到获得经验、材料或者通关奖励的目的,在面对不同游戏等级的玩家时,相关技术通常只是通过简单地调整人工智能控制的虚拟对象的数值来调节人工智能强度,以避免人工智能强度与玩家水平差距过大的问题出现。
但,当玩家在游戏过程中表现出不同的游戏水平时,上述调节方式无法灵活地调整人工智能控制的虚拟对象的数值。因此,相关技术中存在虚拟对象的控制灵活度较低的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种虚拟对象的控制方法、装置和存储介质及电子设备,以至少解决虚拟对象的控制的效率较低的技术问题。
根据本申请实施例的一个方面,提供了一种虚拟对象的控制方法,包括:一种虚拟对象的控制方法,其特征在于,包括:
在一局云游戏的运行过程中,显示参与上述一局云游戏的第一虚拟对象、以及第二虚拟对象,其中,上述第一虚拟对象为上述云游戏的用户所控制的虚拟对象,上述第二虚拟对象为人工智能模拟上述用户控制的虚拟对象;
获取上述第一虚拟对象在上述一局云游戏的运行过程中所产出的第一操作信息,并基于上述第一操作信息确定上述第二虚拟对象的第一操作模式,以及按照上述第一操作模式控制上述第二虚拟对象;
在获取到上述第一虚拟对象在上述一局云游戏的运行过程中所产出的第二操作信息的情况下,基于上述第二操作信息将上述第二虚拟对象的操作模式由上述第一操作模式,调整为第二操作模式,并按照上述第二操作模式控制上述第二虚拟对象,其中,上述第一操作信息不同于上述第二操作信息,上述第一操作模式不同于上述第二操作模式。
根据本申请实施例的另一方面,还提供了一种虚拟对象的控制装置,包括:
第一显示单元,用于在一局云游戏的运行过程中,显示参与上述一局云游戏的第一虚拟对象、以及第二虚拟对象,其中,上述第一虚拟对象为上述云游戏的用户所控制的虚拟对象,上述第二虚拟对象为人工智能模拟上述用户控制的虚拟对象;
第一确定单元,用于获取上述第一虚拟对象在上述一局云游戏的运行过程中所产出的第一操作信息,并基于上述第一操作信息确定上述第二虚拟对象的第一操作模式,以及按照上述第一操作模式控制上述第二虚拟对象;
第一调整单元,用于在获取到上述第一虚拟对象在上述一局云游戏的运行过程中所产出的第二操作信息的情况下,基于上述第二操作信息将上述第二虚拟对象的操作模式由上述第一操作模式,调整为第二操作模式,并按照上述第二操作模式控制上述第二虚拟对象,其中,上述第一操作信息不同于上述第二操作信息,上述第一操作模式不同于上述第二操作模式。
作为一种可选的方案,上述装置还包括:
第二确定单元,用于在上述获取上述第一虚拟对象在上述一局云游戏的运行过程中所产出的第一操作信息之后,确定上述第一操作模式的起始时间点;
第一获取单元,用于在上述获取上述第一虚拟对象在上述一局云游戏的运行过程中所产出的第一操作信息之后,获取上述第一虚拟对象在上述起始时间点之后、在上述一局云游戏的运行过程中的多个操作信息;
第二获取单元,用于在上述获取上述第一虚拟对象在上述一局云游戏的运行过程中所产出的第一操作信息之后,基于上述多个操作信息,获取上述第二操作信息。
作为一种可选的方案,上述第二获取单元,包括:
第一确定模块,用于从上述多个操作信息中确定出与关键操作信息之间信息相似度大于或等于第一预设阈值的第一目标操作信息;
第二确定模块,用于在上述第一目标操作信息的数量大于或等于第二预设阈值的情况下,将上述第一目标操作信息确定为上述第二操作信息。
作为一种可选的方案,上述第二获取单元,包括:
第一输入模块,用于将上述多个操作信息输入目标模型,其中,上述模型为利用多个样本操作信息进行训练得到的、用于识别操作信息的神经网络模型。
第二获取模块,用于获取上述目标模型输出的第二目标操作信息;
第三确定模块,用于在上述第二目标操作信息不同于上述第一操作信息的情况下,将上述第二目标操作信息确定为上述第二操作信息。
作为一种可选的方案,上述装置还包括:
第四确定模块。用于在上述将上述多个操作信息输入目标模型之前,执行以下步骤,直至得到上述目标模型:
第一获取子模块,用于从上述多个样本操作信息中获取当前样本,其中,上述样本操作信息携带有当前环境参数、当前行为参数、以及当前样本结果,上述当前环境参数为上述样本操作信息对应的操作被执行时所处于的环境对应的参数,上述当前行为参数为上述样本操作信息对应的操作对应的行为类型,上述当前样本结果为上述样本操作信息对应的操作匹配的、由上述第二虚拟对象执行的操作对应的信息;
第一输入子模块,用于将上述当前样本输入当前目标模型,得到上述当前目标模型输出的当前目标操作信息;
第一确定子模块,用于在上述当前目标操作信息与上述当前样本结果之间的信息相似度大于或等于第三预设阈值的情况下,确定上述当前目标模型达到收敛条件,并将上述当前目标模型确定为上述目标模型;
第二确定子模块,用于在上述当前目标操作信息与上述当前样本结果之间的信息相似度小于上述第三预设阈值的情况下,确定上述当前目标模型未达到上述收敛条件,从上述多个样本操作信息中获取下一样本,并将上述下一样本确定为当前样本。
作为一种可选的方案,上述装置,还包括:
第一识别模块,用于在上述将上述多个操作信息输入目标模型之后,在上述操作信息为在上述一局云游戏的运行过程中采集到的图像信息的情况下,利用上述目标模型中的图像信息识别结果,对上述图像信息进行图像识别,得到处理后的操作信息;
第二输入模块,用于在上述将上述多个操作信息输入目标模型之后,将上述处理后的操作信息输入上述目标模型中的操作信息识别结果,得到上述第二目标操作信息。
作为一种可选的方案,上述第一确定单元,包括:
第三获取模块,用于获取上述第一虚拟对象在上述一局云游戏的运行过程中的第一时间段内产出的上述第一操作信息,并基于上述第一操作信息确定上述第一操作模式,以及按照上述第一操作模式控制上述第二虚拟对象在上述第一时间段之后的行为操作。
作为一种可选的方案,上述装置,还包括:
第四获取模块,用于在上述获取上述第一虚拟对象在上述一局云游戏的运行过程中的第一时间段内产出的上述第一操作信息,并基于上述第一操作信息确定上述第一操作模式,以及按照上述第一操作模式控制上述第二虚拟对象在上述第一时间段之后的行为操作之后,获取上述第一虚拟对象在上述一局云游戏的运行过程中的、在上述第一时间段之后的第二时间段内产出的上述第二操作信息,并基于上述第二操作信息确定上述第二操作模式,以及按照上述第二操作模式控制上述第二虚拟对象在上述第二时间段之后的行为操作。
作为一种可选的方案,上述装置还包括:
第一控制模块,用于上述按照上述第一操作模式控制上述第二虚拟对象,包括:控制上述第二虚拟对象执行上述第一操作模式对应的至少一个第一操作指令;
第二控制模块,用于上述按照上述第二操作模式控制上述第二虚拟对象,包括:控制上述第二虚拟对象执行上述第二操作模式对应的至少一个第二操作指令。
根据本申请实施例的又一个方面,提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行如以上虚拟对象的控制方法。
根据本申请实施例的又一方面,还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,上述处理器通过计算机程序执行上述的虚拟对象的控制方法。
在本申请实施例中,在一局云游戏的运行过程中,显示参与上述一局云游戏的第一虚拟对象、以及第二虚拟对象,其中,上述第一虚拟对象为上述云游戏的用户所控制的虚拟对象,上述第二虚拟对象为人工智能模拟上述用户控制的虚拟对象;获取上述第一虚拟对象在上述一局云游戏的运行过程中所产出的第一操作信息,并基于上述第一操作信息确定上述第二虚拟对象的第一操作模式,以及按照上述第一操作模式控制上述第二虚拟对象;在获取到上述第一虚拟对象在上述一局云游戏的运行过程中所产出的第二操作信息的情况下,基于上述第二操作信息将上述第二虚拟对象的操作模式由上述第一操作模式,调整为第二操作模式,并按照上述第二操作模式控制上述第二虚拟对象,其中,上述第一操作信息不同于上述第二操作信息,上述第一操作模式不同于上述第二操作模式,利用云游戏实现对操作信息的实时采集,再基于采集到的操作信息确定人工智能模拟的虚拟对象的操作模式,再基于上述操作信息在游戏过程中的实时变更,灵活调整人工智能模拟的虚拟对象的操作模式,进而达到了根据用户的实时游戏操作水平更新人工智能的游戏操作模式的目的,从而实现了提高虚拟对象的控制灵活性的技术效果,进而解决了虚拟对象的控制灵活度较低的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种可选的虚拟对象的控制方法的应用环境的示意图;
图2是根据本申请实施例的一种可选的虚拟对象的控制方法的流程的示意图;
图3是根据本申请实施例的一种可选的虚拟对象的控制方法的示意图;
图4是根据本申请实施例的另一种可选的虚拟对象的控制方法的示意图;
图5是根据本申请实施例的另一种可选的虚拟对象的控制方法的示意图;
图6是根据本申请实施例的另一种可选的虚拟对象的控制方法的示意图;
图7是根据本申请实施例的另一种可选的虚拟对象的控制方法的示意图;
图8是根据本申请实施例的另一种可选的虚拟对象的控制方法的示意图;
图9是根据本申请实施例的另一种可选的虚拟对象的控制方法的示意图;
图10是根据本申请实施例的另一种可选的虚拟对象的控制方法的示意图;
图11是根据本申请实施例的一种可选的虚拟对象的控制装置的示意图;
图12是根据本申请实施例的一种可选的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为方便理解,对名词进行解释:
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
云游戏(Cloud gaming)又可称为游戏点播(gaming on demand),是一种以云计算技术为基础的在线游戏技术。云游戏技术使图形处理与数据运算能力相对有限的轻端设备(thin client)能运行高品质游戏。在云游戏场景下,游戏并不在玩家游戏终端,而是在云端服务器中运行,并由云端服务器将游戏场景渲染为视频音频流,通过网络传输给玩家游戏终端。玩家游戏终端无需拥有强大的图形运算与数据处理能力,仅需拥有基本的流媒体播放能力与获取玩家输入指令并发送给云端服务器的能力即可。
本申请实施例提供的方案涉及人工智能的图像识别、人工智能、云游戏等技术,具体通过如下实施例进行说明:
根据本申请实施例的一个方面,提供了一种虚拟对象的控制方法,可选地,作为一种可选的实施方式,上述信息提示方法可以但不限于应用于如图1所示的环境中。其中,可以但不限于包括用户设备102以及服务器112,该用户设备102上可以但不限于包括显示器104、处理器106及存储器108,该服务器112包括数据库114以及处理引擎116。
具体过程可如下步骤:
步骤S102,用户设备102获取来自于第一虚拟对象1002对应的客户端中的虚拟对象的操作信息;
步骤S104-S106,通过网络110将第一虚拟对象1002对应的客户端中的虚拟对象的操作信息发送至服务器112;
步骤S108,服务器112通过处理引擎基于第一操作信息确定第二虚拟对象的第一操作模式;
步骤S110-S112,通过网络110将第二虚拟对象1004对应的第一操作模式的操作信息发送至用户设备102,用户设备102通过处理器106处理第一操作模式的操作信息,并将基于第一操作模式的操作信息控制第二虚拟对象1004释放技能显示在客户端,以及将操作信息存储在存储器104。
除图1示出的示例之外,上述步骤可以由客户端或服务器独立完成,或由客户端和服务器共同协作完成,如由用户设备102执行上述S108等步骤,从而减轻服务器112的处理压力。该用户设备102包括但不限于手持设备(如手机)、笔记本电脑、台式电脑、车载设备等,本申请并不限制用户设备102的具体实现方式。
可选地,作为一种可选的实施方式,如图2所示,虚拟对象的控制方法包括:
S202,在一局云游戏的运行过程中,显示参与一局云游戏的第一虚拟对象、以及第二虚拟对象,其中,第一虚拟对象为云游戏的用户所控制的虚拟对象,第二虚拟对象为人工智能模拟用户控制的虚拟对象;
S204,获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息,并基于第一操作信息确定第二虚拟对象的第一操作模式,以及按照第一操作模式控制第二虚拟对象;
S206,在获取到第一虚拟对象在一局云游戏的运行过程中所产出的第二操作信息的情况下,基于第二操作信息将第二虚拟对象的操作模式由第一操作模式,调整为第二操作模式,并按照第二操作模式控制第二虚拟对象,其中,第一操作信息不同于第二操作信息,第一操作模式不同于第二操作模式。
可选地,在本实施例中,上述虚拟对象的控制方法可以但不限于应用在云游戏的场景中,云游戏包括可以但不限于理解为用户通过每次指令的输入,游戏动画效果实时渲染,计算由云服务器直接负责,大大降低了对游戏玩家终端设备的陪算要求,传统游戏而言,这部分工作通常由主机来负责,所需要的大量算力需要体积较大且费用配置较高的设备来执行,云游戏模式下,由于所有的运算渲染从本地硬件中剥离出来,玩家的硬件设备只需负责显示和编码功能即可,不需要考虑功耗和存储空间。现有的用户在操作虚拟对象实现与AI交互中,通常简单的通过调整游戏对象数值来调节AI强度,过于困难或者过于简单都会引起玩家的反感,大大降低游戏乐趣,故相关技术存在AI强度调整灵活性较低的技术问题。
可选地,在本实施例中,第一虚拟对象可以但不限于理解为由用户控制的对象,例如用户可以通过控制虚拟对象的移动、挑战、释放技能等,这里不做多余限定,第二虚拟对象可以但不限于理解为由人工智能模拟用户控制的虚拟对象,其中第一虚拟对象和第二虚拟对象之间的关系可以但不限于属于游戏的同一阵营或者敌对阵营,例如由用户控制的第一虚拟对象与人工智能模拟用户控制的虚拟对象为不同阵营的敌对关系,游戏后台可以基于用户的经验等级、历史胜率、操作评分等等因素综合考量用户的游戏水平,并基于玩家的游戏水平模拟玩家控制操作,从而实现了根据玩家综合水准确定人工智能模拟的操作模式的目的,达到了提高操作模式确定的准确性的技术效果。
可选地,在本实施例中,可以但不限于预先基于用户的历史信息和经验等级等预先确定出第二虚拟对象的游戏模式,在游戏过程中,实时获取由用户产出的第一操作信息,例如实时获取用户是否完成难度较高的操作指令,用户的操作速度,用户的挑战次数、用户的被击败次数等等,基于第一操作信息确定人工智能的操作模式,例如用户在游戏开始时就完成一次高难度操作,则根据操作信息将人工智能等级调整至高难度等级,从而实现了根据用户的操作信息,确定人工智能操作模式的目的,从而生成难度适中的AI,给玩家带来较好的游戏体验。
可选地,在本实施例中,操作模式可以但不限于由难易程度确定操作模式,例如游戏中的新手模式、普通模式和挑战模式等等,也可以由游戏版块的功能目的确定操作模式,例如游戏中的娱乐模式、正式模式等等,也可以根据游戏玩家的玩法确定不同的操作模式,比如在包含有收集、对抗等玩法的游戏中,玩家更倾向于收集玩法,那么可以根据玩家的玩法调整AI的操作模式为收集等级较高的AI。例如射击类游戏中,用户喜欢收集各种各样道具的皮肤,而对抗射击水平较差,人工智能可以获取用户的游戏玩法,将AI模拟的虚拟对象的操作模式调整为装扮特效较好但是对抗水平较差的操作模式。
需要说明的是,相关技术通常根据玩家的经验确定AI操作模式,并未考虑到玩家的游戏玩法,例如玩家A更喜欢对虚拟对象进行装扮,而不喜欢操作虚拟对象进行攻击,即便玩家A的整体经验数值较高,若匹配给玩家对抗模式较高的AI虚拟对象,则会导致玩家A操作困难较大,从而降低玩家的兴趣,或者根据玩家A的具体攻击属性确定对抗模式较低的AI虚拟对象,但是并未考虑玩家A更喜欢对虚拟对象进行装扮,则存在AI操作模式灵活性较低的问题。本实施例可以通过获取玩家A喜欢对虚拟对象进行装扮的操作信息,将AI的操作模式调整为拥有较美观装扮皮肤且对抗属性较低的操作模式,从而实现灵活调整操作模式的目的。
可选地,在本实施例中,第二操作信息可以理解为与第一操作信息相似度较低的操作信息,即不同于第一操作信息,第二操作模式可以理解为与第二操作模式对应的操作模式。操作信息可以但不限于包括云游戏的用户控制的虚拟对象在游戏进程中每一段时间的操作指令数量、是否完成高等级操作、一次完成的执行操作指令的操作速度,例如抽卡次数、挑战次数、购买次数等等信息。
进一步举例说明,玩家A和玩家B共同控制第一虚拟对象完成一局游戏,例如图3中的(a)所示,玩家A在游戏过程中的前3分钟控制第一虚拟对象302完成游戏,在玩家A完成游戏后,其余游戏进程由玩家B控制第一虚拟对象302,而由于玩家A游戏水平较差,获取到第一虚拟对象302在游戏进程的前3分钟内对应的第一操作信息,由于玩家A并未释放出一套连招,故将由人工智能控制的第二虚拟对象306的第一操作模式304确定为新手操作模式,例如图3中的(b)所示,三分钟后由玩家B控制第一虚拟对象302完成游戏,由于玩家B的游戏操作水平较高,那么根据玩家B短时间内连续释放多个高难度操作,故将第二虚拟对象306对应的第一操作模式304调整为第二操作模式308,即将新手操作模式调整为高手操作模式,从而达到了根据用户的实时操作水平控制人工智能的操作模式的目的,进而实现了提高虚拟对象控制灵活性的技术效果。
需要说明的是,相关技术中针对于游戏AI的匹配调整都发生在游戏开始前,但是忽略了游戏过程中同一虚拟对象的操作水平也可能出现较大的变化,存在控制较为古板的问题,本实施例通过游戏内的实时操作信息的获取,实时对第二虚拟对象的操作模式进行调整,且云游戏实际进程在服务端,可以直接从显存读取图片和操作指令流,中间过程无需落地,极大的降低了延时性,能够做到实时获取和实时调整,实现了提高虚拟对象控制的效率的技术效果。
进一步举例说明,在射击类游戏中,虽然射击的准确度作为游戏的主要主流玩法,但是由于游戏内虚拟对象的装扮和虚拟道具的装扮较多,也存在玩家通过收集装扮或者皮肤的玩法,例如图4中的(a)所示,预先基于玩家的等级匹配一个平均水平的第二虚拟对象406,此时的游戏模式为第一操作模式404的射击模式,由于玩家C是一个喜欢收集装扮,但是射击水平较低的玩家,可以通过获取玩家C控制的第一虚拟对象402身上的装扮属性调整操作模式,装扮属性可以但不限于包括皮肤拥有的数量、皮肤的稀有度等等,通过获取第一虚拟对象的装扮为稀有度较高的装扮,例如图4中(b)所示,故可以将当前第二虚拟对象406的普通装扮模式对应的第一操作模式404调整为美观度较高的第二操作模式408,从而吸引玩家完成射击游戏,达到提高玩家兴趣的目的,实现了提高虚拟对象控制的多样性的技术效果。
在本申请实施例中,在一局云游戏的运行过程中,显示参与一局云游戏的第一虚拟对象、以及第二虚拟对象,其中,第一虚拟对象为云游戏的用户所控制的虚拟对象,第二虚拟对象为人工智能模拟用户控制的虚拟对象;获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息,并基于第一操作信息确定第二虚拟对象的第一操作模式,以及按照第一操作模式控制第二虚拟对象;在获取到第一虚拟对象在一局云游戏的运行过程中所产出的第二操作信息的情况下,基于第二操作信息将第二虚拟对象的操作模式由第一操作模式,调整为第二操作模式,并按照第二操作模式控制第二虚拟对象,其中,第一操作信息不同于第二操作信息,第一操作模式不同于第二操作模式,通过利用云游戏场景可以实现对操作信息的实时采集,基于操作信息确定人工智能模拟的虚拟对象的操作模式,且基于游戏过程中操作信息的变更,能够实现人工智能模拟的虚拟对象的操作模式的实时调整,进而达到了根据用户的实时游戏操作水平更新人工智能的游戏操作模式的目的,从而实现了提高虚拟对象的控制灵活性的技术效果,进而解决了虚拟对象的控制灵活度较低的技术问题。
作为一种可选的方案,在获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息之后,方法还包括:
确定第一操作模式的起始时间点;
获取第一虚拟对象在起始时间点之后、在一局云游戏的运行过程中的多个操作信息;
基于多个操作信息,获取第二操作信息。
可选地,在本实施例中,起始时间点可以但不限于为一局云游戏运行过程中的某具体时刻,本实施例可以但不限于理解为获取第一虚拟对象在运行过程中产出第一操作信息之后,第一操作信息对应第一操作,进一步确定第一操作模式的起始时刻信息,从第一操作模式的运行的开始时刻开始再获取一局游戏运行过程中的多个操作信息,并基于这段时间内产出的操作信息再获取第二操作信息。
需要说明的是,本实施例中,基于一段时间内的操作信息确定第二操作模式,而不是通过一整局的综合操作信息确定第二操作模式,理由在于一整局游戏进程中不同时间段内的玩家水平可能会存在较大差距,可能存在开始时玩家水平较差,而在一段时间内玩家水平特别高,若单纯的取平均数值,则会导致无法准确的根据操作信息确定操作模式,存在操作模式的确定准确性较低的技术问题。
可选地,在本实施例中,通过在一段时间内确定第一操作模式之后,再重新获取后一段时间内的操作信息,从而确定操作模式的调整,相比于整局游戏的操作信息取平均数值,本实施例通过时间段划分,从而实现了提高了操作模式确定的准确性的技术效果。
通过本申请提供的实施例,确定第一操作模式的起始时间点;获取第一虚拟对象在起始时间点之后、在一局云游戏的运行过程中的多个操作信息;基于多个操作信息,获取第二操作信息,达到了通过时间为划分界限进行操作信息的采集的目的,从而实现了提高操作模式确定的准确度的技术效果。
作为一种可选的方案,基于多个操作信息,获取第二操作信息,包括:
从多个操作信息中确定出与关键操作信息之间信息相似度大于或等于第一预设阈值的第一目标操作信息;
在第一目标操作信息的数量大于或等于第二预设阈值的情况下,将第一目标操作信息确定为第二操作信息。
可选地,在本实施例中,操作信息可以理解为第一虚拟对象在一局云游戏的运行过程中产出的多个操作的集合,操作信息可以但不限于由关键操作信息和常规操作信息组成,关键操作信息为多个具有一定难度或者重要程度、稀有程度较高的操作信息,其中关键操作信息也可以是由多个常规操作信息通过一定方式组合形成的操作信息,这里不做多余限定。
可选地,在本实施例中,可以但不限于将识别到的多个操作信息于预设的关键操作信息进行信息相似度的比对,并将操作信息中于关键操作信息之间的相似度大于或者等于一定预设阈值的操作信息确定为第一目标操作信息,进一步考虑关键操作也可以是由用户偶然进行触发的,故还需要获取第一目标操作信息的数量,将第一目标操作信息的数量大于或者等于第二预设阈值的信息确定为第二操作信息。
需要说明的是,考虑到关键操作信息为较为困难或者较为稀有的特性,故完成关键操作信息也间接性证明了用户具有一定的游戏经验度或者较高的游戏水平,但是若仅仅考虑到将是否完成关键操作信息作为判断操作模式的依据,则会导致准确性不够的问题,例如用户偶然触发关键操作信息,但是实际上用户的综合水平较低,若调整第二虚拟对象的操作模式为高难度操作模式则不利于用户游戏的体验,进一步,本实施例考虑到结合关键操作信息的数量,从而采用将关键操作与操作数量相结合的技术手段实现了准确的确定第二操作信息的技术效果。
进一步举例说明,例如图5所示,识别到由玩家控制的第一虚拟对象502在3分钟内连续释放三次高难度技能,并对原有的人工智能控制的第二虚拟对象504造成300血量,达到伤害的百分之80,故采集到伤害数值、操作指令对应的信息输入到模型中,得到结果为此时玩家水平较高,故将第二虚拟对象504对应的低难度水平调整为高难度水平。
通过本申请提供的实施例,将多个操作信息输入目标模型,其中,模型为利用多个样本操作信息进行训练得到的、用于识别操作信息的神经网络模型。获取目标模型输出的第二目标操作信息;在第二目标操作信息不同于第一操作信息的情况下,将第二目标操作信息确定为第二操作信息,进而达到了结合关键操作和操作数量的目的,从而实现了提高第二操作信息确定的准确性的技术效果。
作为一种可选的方案,基于多个操作信息,获取第二操作信息,包括:
将多个操作信息输入目标模型,其中,模型为利用多个样本操作信息进行训练得到的、用于识别操作信息的神经网络模型。
获取目标模型输出的第二目标操作信息;
在第二目标操作信息不同于第一操作信息的情况下,将第二目标操作信息确定为第二操作信息。
可选地,在本实施例中,目标模型可以但不限于为利用多个样本操作信息进行训练得到的神经网络模型,其中,在获得多个操作信息之后,例如操作指令、击败次数等等,可以但不限于抓取玩家当前游戏画面,提取游戏画面内的玩家信息,例如时间信息、游戏任务完成度等等,结合游戏画面中提取的环境信息和操作指令,使用归一化、整合等数据处理手段为操作信息,输入到已经完成训练的,用于识别操作信息的神经网络模型中。
可选地,在本实施例中,第二目标操作信息为模型输出后的操作信息,在第二目标操作信息与第一操作信息进行相似度的比对,或者可以根据难度、玩法等等划分为多个级别,计算第二目标操作信息和第一操作信息的综合数据,若综合数据指示的级别为不同级别,那么将第二目标操作信息确定为第二操作信息。
需要说明的是,相关技术中在确定操作指令或者操作模式都使用简单的调整参数,本实施例使用训练完成的神经网络模型,提高了操作信息确定的准确性。
通过本申请提供的实施例,将多个操作信息输入目标模型,其中,模型为利用多个样本操作信息进行训练得到的、用于识别操作信息的神经网络模型。获取目标模型输出的第二目标操作信息;在第二目标操作信息不同于第一操作信息的情况下,将第二目标操作信息确定为第二操作信息,从而达到了利用神经网络模型确定操作信息的目的,进而实现了提高了操作信息确定的准确性。
作为一种可选的方案,在将多个操作信息输入目标模型之前,方法包括:
执行以下步骤,直至得到目标模型:
从多个样本操作信息中获取当前样本,其中,样本操作信息携带有当前环境参数、当前行为参数、以及当前样本结果,当前环境参数为样本操作信息对应的操作被执行时所处于的环境对应的参数,当前行为参数为样本操作信息对应的操作对应的行为类型,当前样本结果为样本操作信息对应的操作匹配的、由第二虚拟对象执行的操作对应的信息;
将当前样本输入当前目标模型,得到当前目标模型输出的当前目标操作信息;
在当前目标操作信息与当前样本结果之间的信息相似度大于或等于第三预设阈值的情况下,确定当前目标模型达到收敛条件,并将当前目标模型确定为目标模型;
在当前目标操作信息与当前样本结果之间的信息相似度小于第三预设阈值的情况下,确定当前目标模型未达到收敛条件,从多个样本操作信息中获取下一样本,并将下一样本确定为当前样本。
可选地,在本实施例中,模型训练部分可以但不限于理解为,在玩家与玩家之间对战的整句游戏信息,对玩家之间的环境参数,行动参数,结果参数进行采集,其中环境参数可以但不限于理解为游戏过程中对应的操作被执行时所处的环境对应的参数,可以但不限于包括玩家在收到攻击的位置信息、玩家在释放技能的移动信息,玩家释放技能时周围的环境信息等等,这里不做多余限定,其中行为参数可以但不限于理解为游戏过程中对应的操作对应的行为参数,可以但不限于包括释放一次高难度技能的具体操作指令、在接受到其他操作指令应对的操作指令,等等,样本结果是样本操作信息对应的操作匹配的,第二操作对象执行的操作对应的信息,其中本实施例中,样本结果也可以是指在玩家与玩家之间对战时的操作结果。
可选地,在本实施例中,在获取到环境参数、行为参数和结果参数的情况下,将样本输入到目标模型中,得到目标模型输出的目标操作信息,比对当前目标操作信息和样本结果之间的信息的相似度,在相似度达到第一预设阈值的情况下,确定目标模型达到收敛条件,在相似度小于第三预设阈值的情况下,确定目标模型还没有达到收敛条件,从多个样本操作信息中获取到其他样本信息,并再次将其他样本信息执行上述步骤进行模型训练,直至目标模型达到一定收敛条件。
可选地,在本实施例中,可以但不限于采用损失函数构建衡量目标模型的性能,将实际“激励值”与模型预测行动产生“激励值”的举例作为损失函数,例如公式
其中,L具体为LOSE损失的意思,损失函数构建的计算过程实际是计算一个均方差,包括:maxa′Q(s′,a′)函数表示目标值是多少,例如在对抗游戏中虚拟对象扣血1滴或者2滴,但是若想要使得模型更好则会选取一个最大扣血值即,表示实际由第一虚拟人物控制打出的最大伤害,后面减去的值为人工智能机器人模拟控制的第二虚拟人物打出的数值即,将上述两个数值做差,由于模型目标是为了使损失值LOSE为0或者趋近于0,若L为0,则说明模型达到完美状态,说明模型训练完成生成目标模型,核心在于将实际的激励值与模型预测行动产生的激励值的距离作为损失函数,反向传播参数,以生成最终模型。
模型训练主要分为反向传播更新参数,生成最终模型,使用非线性传播逼近Q值不稳定,很多情况下难以收敛,所以利用经验回放可以使得模型快速收敛,在传统客户端游戏中,在线对图像和操作指令进行采集会产生较大的带宽负担,会影响玩家的游戏体验,使得采集成为一个负担很重性价比很低的事物;而云游戏图像本身就产生于服务端,直接利用并不会产生额外的带宽开销,采集成本极低;云游戏服务集群本身拥有着充足的GPU算力,模型训练可以充分运用服务器的限时算力资源降低运算成本。
通过本申请提供的实施例,执行以下步骤,直至得到目标模型:从多个样本操作信息中获取当前样本,其中,样本操作信息携带有当前环境参数、当前行为参数、以及当前样本结果,当前环境参数为样本操作信息对应的操作被执行时所处于的环境对应的参数,当前行为参数为样本操作信息对应的操作对应的行为类型,当前样本结果为样本操作信息对应的操作匹配的、由第二虚拟对象执行的操作对应的信息;将当前样本输入当前目标模型,得到当前目标模型输出的当前目标操作信息;在当前目标操作信息与当前样本结果之间的信息相似度大于或等于第三预设阈值的情况下,确定当前目标模型达到收敛条件,并将当前目标模型确定为目标模型;在当前目标操作信息与当前样本结果之间的信息相似度小于第三预设阈值的情况下,确定当前目标模型未达到收敛条件,从多个样本操作信息中获取下一样本,并将下一样本确定为当前样本,通过结合环境参数、行为参数和样本结果实现模型的训练,达到了目标模型生成的目的,实现了提高游戏模型训练的准确性的技术效果。
作为一种可选的方案,在将多个操作信息输入目标模型之后,方法还包括:
在操作信息为在一局云游戏的运行过程中采集到的图像信息的情况下,利用目标模型中的图像信息识别结果,对图像信息进行图像识别,得到处理后的操作信息;
将处理后的操作信息输入目标模型中的操作信息识别结果,得到第二目标操作信息。
可选地,在本实施例中,在生成目标模型之后,利用云游戏产生服务端,图像采集成本低的优势,采集玩家实时的游戏画面,通过模型运算得到人工智能机器人的最接近玩家实际操作的操作指令或者操作模式。
需要说明的是,相比对于本地端机器人,模型训练和图像采集本身在云端完成,对于玩家而言,自己的对手反应更为及时,不会产生由于数据交互或者指令下达带来的额外延时,且生成后的模型可以在线上进行实时更新。
通过本申请提供的实施例,在操作信息为在一局云游戏的运行过程中采集到的图像信息的情况下,利用目标模型中的图像信息识别结果,对图像信息进行图像识别,得到处理后的操作信息;将处理后的操作信息输入目标模型中的操作信息识别结果,得到第二目标操作信息,达到利用图像识别和模型训练得到操作信息的目的,从而实现了提高操作信息获取的准确性的技术效果。
作为一种可选的方案,获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息,并基于第一操作信息确定第二虚拟对象的第一操作模式,以及按照第一操作模式控制第二虚拟对象,包括:
获取第一虚拟对象在一局云游戏的运行过程中的第一时间段内产出的第一操作信息,并基于第一操作信息确定第一操作模式,以及按照第一操作模式控制第二虚拟对象在第一时间段之后的行为操作。
可选地,在本实施例中,按照操作模式控制第二虚拟对象的行为操作可以但不限于理解为根据第一虚拟对象产生的操作信息确定第一虚拟对象的操作水平为低难度水平,那么按照低难度的操作模式控制第二虚拟对象在第一时间段后执行中低等难度的操作指令。
通过本申请提供的实施例,获取第一虚拟对象在一局云游戏的运行过程中的第一时间段内产出的第一操作信息,并基于第一操作信息确定第一操作模式,以及按照第一操作模式控制第二虚拟对象在第一时间段之后的行为操作,从而达到了基于时间段内的操作信息确定操作模式的目的,实现了提高操作模型控制的多样性的技术效果。
作为一种可选的方案,在获取第一虚拟对象在一局云游戏的运行过程中的第一时间段内产出的第一操作信息,并基于第一操作信息确定第一操作模式,以及按照第一操作模式控制第二虚拟对象在第一时间段之后的行为操作之后,方法还包括:
获取第一虚拟对象在一局云游戏的运行过程中的、在第一时间段之后的第二时间段内产出的第二操作信息,并基于第二操作信息确定第二操作模式,以及按照第二操作模式控制第二虚拟对象在第二时间段之后的行为操作。
通过本申请提供的实施例,获取第一虚拟对象在一局云游戏的运行过程中的、在第一时间段之后的第二时间段内产出的第二操作信息,并基于第二操作信息确定第二操作模式,以及按照第二操作模式控制第二虚拟对象在第二时间段之后的行为操作,从而达到灵活的控制第二虚拟对象的目的,实现了提高了对虚拟对象控制的灵活性的技术效果。
作为一种可选的方案,其特征在于,
按照第一操作模式控制第二虚拟对象,包括:控制第二虚拟对象执行第一操作模式对应的至少一个第一操作指令;
按照第二操作模式控制第二虚拟对象,包括:控制第二虚拟对象执行第二操作模式对应的至少一个第二操作指令。
可选地,在本实施例中,可以但不限于根据不同操作模式执行对应的操作指令,例如根据操作信息判断玩家为高水平难度的操作模式,故将第二虚拟对象的操作指令调整为较难释放的操作指令,从而实现了根据具体第一虚拟对象的操作信息,灵活调整第二虚拟对象的具体操作指令的目的,提高了虚拟对象控制的灵活性的技术效果。
通过本申请提供的实施例,按照第一操作模式控制第二虚拟对象,包括:控制第二虚拟对象执行第一操作模式对应的至少一个第一操作指令;按照第二操作模式控制第二虚拟对象,包括:控制第二虚拟对象执行第二操作模式对应的至少一个第二操作指令,从而实现了根据具体第一虚拟对象的操作信息,灵活调整第二虚拟对象的具体操作指令的目的,提高了虚拟对象控制的灵活性的技术效果。
为便于理解,将上述虚拟对象的控制方法应用在具体的虚拟对象的控制场景中:
步骤S602,检测玩家是否进入游戏连接;
步骤S604,根据玩家的等级、经验、胜率等等基础信息进行匹配;
步骤S606,若匹配成功后,则进入到真人对战,即使得玩家控制的第一虚拟对象匹配到其他玩家控制的第三虚拟对象,完成游戏;
步骤S608,在玩家控制的第一虚拟对象与其他玩家控制的第三虚拟对象进行游戏时,利用实时图片信息和行动结果对玩家的行为进行采集,大概32ms采集一次,从实时图片中抓取数值,例如血量、实时图片信息包括当前玩家的位置和玩家的行动,行动结果可以但不限于包括对战扣血等等;
步骤S610,采集结束信息之后,将信息加入深度学习网络进行训练;
具体深度学习网络模型的构建可以但不限于例如图7中所示,状态参数702(state)表示玩家当前身处于什么样的环境,比如两人对战的游戏场景,第一虚拟对象的目标在一个什么位置,行为参数704(action)表示第一虚拟对象目标采取的行为,可以理解为往前移动或者踢一掌等等,会把这两部分数据输入到Deep Q Network网络中,输出一个目标值(Q-value),如果是对战的情况,使用扣血作为目标的话,使用Q-value作为最大扣血值,如果是其他不同玩法,有不同含义。
具体的神经网络模型,例如图8所示,包括两个输入层和三个卷积层,卷积层目的为了把图像中的信息抽取处理,做图像识别,比如识别这个虚拟人物在具体图像的什么位置,或者从图片上抓取一些信息,比如说人物最大胜率多少等等,两个训练阶层目的在于做神经网络训练,两个训练阶层的目的在第一虚拟对象是一个什么样的状态的时候,由人工模拟的第二虚拟对象需要采取一个什么样的策略,然后构建一个网络层,需要有一个优化目标,神经网络本质是构建一个公式调参数,让输出尽量符合需求数值,损失函数例如公式所示,Q可以理解为一个函数输出。
其中,L具体为LOSE损失的意思,损失函数构建的计算过程实际是计算一个均方差,包括:maxa′Q(s′,a′)函数表示目标值是多少,例如在对抗游戏中虚拟对象扣血1滴或者2滴,但是若想要使得模型更好则会选取一个最大扣血值即,表示实际由第一虚拟人物控制打出的最大伤害,后面减去的值为人工智能机器人模拟控制的第二虚拟人物打出的数值即,将上述两个数值做差,由于模型目标是为了使损失值LOSE为0或者趋近于0,若L为0,则说明模型达到完美状态,说明模型训练完成生成目标模型,核心在于将实际的激励值与模型预测行动产生的激励值的距离作为损失函数,反向传播参数,以生成最终模型。
本实施例使用非线性传播逼近Q值不稳定,很多情况下难以收敛,所以利用经验回放使得模型快速收敛,在传统客户端游戏中,在线对图像和操作指令进行采集会产生较大的带宽负担,会影响玩家的游戏体验,使得采集成为一个负担很重性价比很低的事物;而云游戏图像本身就产生于服务端,直接利用并不会产生额外的带宽开销,采集成本极低;云游戏服务集群本身拥有着充足的GPU算力,模型训练可以充分运用服务器的限时算力资源降低运算成本。
步骤S612-S614,若未匹配成功,则进入人工智能对抗部分,采集由玩家控制的第一虚拟人物游戏的实时画面,这里可以为每一帧图像都进行采集,输入到已生成的模型进行运算,输出得到机器人模拟控制的第二虚拟对象的最佳反应,例如机器人的操作指令或者操作模式等等,相对于传统本地端机器人优势为模型训练和图像采集本身在云端完成,对于玩家而言,自己的对手反应更为及时;不会产生由于数据交互/指令下达带来的额外延时,其次模型可以在线上进行实时更新,无需下发。
可选地,在本实施例中,具体训练部分的流程可以例如图9的训练时序图所示,用户客户端902将玩家的输入的操作指令上传到服务器中的云游戏沙盒进程904,数据采集模块906从游戏沙盒进程904中抓取当前图像以及玩家操作,以及操作过后对应的扣血信息,完成图像、操作指令、激励的采集,然后把图像和操作指令作为输入数据输入到Deep QNetwork网络模型908中,Deep Q Network网络模型908进行模型训练,利用反向传播进行模型参数更新。
可选地,在本实施例中,具体的玩家与人工智能对战部分的流程可以例如图10的时序图,用户客户端1002将操作指令输入云游戏沙盒进程1004,数据采集模块1006从云游戏沙盒进程1004中进行图像采集,抓取玩家当前游戏画面,将提取的图像和指令数据输入到训练好的Deep QNetwork网络模型1008中,模型返回输出操作指令到云游戏沙盒进程1004中,云游戏沙盒进程1004接收到返回指令,并将指令输入到游戏进程中,将游戏对战画面返回到云游戏服务器中,返回给用户客户端1002进行显示。
可选地,在本实施例中,人类大脑里众多神经元错综复杂的交汇,至今科学家们也未完全解开大脑的秘密。通过这种方法可以生成更符合人类思维的专业级的AI,使AI优化不合理部分,让玩家觉得AI是鲜活有生命力的,更好吸引玩家,增强玩家粘性,另外,也可以优化AI匹配机制,可以更准确评估玩家水平,匹配水平相当的对手及队友,提供旗鼓相当的游戏体验,保证游戏难度平衡,让玩家享受竞技乐趣。同时也能传达游戏的态度,使玩家更好融入游戏,提升玩家体验水平,打造整个游戏的游戏性。
可以理解的是,在本申请的具体实施方式中,涉及到用户信息等相关的数据,当本申请以上实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
根据本申请实施例的另一个方面,还提供了一种用于实施上述虚拟对象的控制方法的虚拟对象的控制装置。如图11所示,该装置包括:
根据本申请实施例的另一方面,还提供了一种虚拟对象的控制装置,包括:
第一显示单元1102,用于在一局云游戏的运行过程中,显示参与一局云游戏的第一虚拟对象、以及第二虚拟对象,其中,第一虚拟对象为云游戏的用户所控制的虚拟对象,第二虚拟对象为人工智能模拟用户控制的虚拟对象;
第一确定单元1104,用于获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息,并基于第一操作信息确定第二虚拟对象的第一操作模式,以及按照第一操作模式控制第二虚拟对象;
第一调整单元1106,用于在获取到第一虚拟对象在一局云游戏的运行过程中所产出的第二操作信息的情况下,基于第二操作信息将第二虚拟对象的操作模式由第一操作模式,调整为第二操作模式,并按照第二操作模式控制第二虚拟对象,其中,第一操作信息不同于第二操作信息,第一操作模式不同于第二操作模式。
作为一种可选的方案,装置还包括:
第二确定单元,用于在获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息之后,确定第一操作模式的起始时间点;
第一获取单元,用于在获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息之后,获取第一虚拟对象在起始时间点之后、在一局云游戏的运行过程中的多个操作信息;
第二获取单元,用于在获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息之后,基于多个操作信息,获取第二操作信息。
具体实施例可以参考上述虚拟对象的控制装置中所示示例,本示例中在此不再赘述。
作为一种可选的方案,第二获取单元,包括:
第一确定模块,用于从多个操作信息中确定出与关键操作信息之间信息相似度大于或等于第一预设阈值的第一目标操作信息;
第二确定模块,用于在第一目标操作信息的数量大于或等于第二预设阈值的情况下,将第一目标操作信息确定为第二操作信息。
具体实施例可以参考上述虚拟对象的控制装置中所示示例,本示例中在此不再赘述。
作为一种可选的方案,第二获取单元,包括:
第一输入模块,用于将多个操作信息输入目标模型,其中,模型为利用多个样本操作信息进行训练得到的、用于识别操作信息的神经网络模型。
第二获取模块,用于获取目标模型输出的第二目标操作信息;
第三确定模块,用于在第二目标操作信息不同于第一操作信息的情况下,将第二目标操作信息确定为第二操作信息。
具体实施例可以参考上述虚拟对象的控制装置中所示示例,本示例中在此不再赘述。
作为一种可选的方案,装置还包括:
第四确定模块。用于在将多个操作信息输入目标模型之前,执行以下步骤,直至得到目标模型:
第一获取子模块,用于从多个样本操作信息中获取当前样本,其中,样本操作信息携带有当前环境参数、当前行为参数、以及当前样本结果,当前环境参数为样本操作信息对应的操作被执行时所处于的环境对应的参数,当前行为参数为样本操作信息对应的操作对应的行为类型,当前样本结果为样本操作信息对应的操作匹配的、由第二虚拟对象执行的操作对应的信息;
第一输入子模块,用于将当前样本输入当前目标模型,得到当前目标模型输出的当前目标操作信息;
第一确定子模块,用于在当前目标操作信息与当前样本结果之间的信息相似度大于或等于第三预设阈值的情况下,确定当前目标模型达到收敛条件,并将当前目标模型确定为目标模型;
第二确定子模块,用于在当前目标操作信息与当前样本结果之间的信息相似度小于第三预设阈值的情况下,确定当前目标模型未达到收敛条件,从多个样本操作信息中获取下一样本,并将下一样本确定为当前样本。
具体实施例可以参考上述虚拟对象的控制装置中所示示例,本示例中在此不再赘述。
作为一种可选的方案,装置,还包括:
第一识别模块,用于在将多个操作信息输入目标模型之后,在操作信息为在一局云游戏的运行过程中采集到的图像信息的情况下,利用目标模型中的图像信息识别结果,对图像信息进行图像识别,得到处理后的操作信息;
第二输入模块,用于在将多个操作信息输入目标模型之后,将处理后的操作信息输入目标模型中的操作信息识别结果,得到第二目标操作信息。
具体实施例可以参考上述虚拟对象的控制装置中所示示例,本示例中在此不再赘述。
作为一种可选的方案,第一确定单元1104,包括:
第三获取模块,用于获取第一虚拟对象在一局云游戏的运行过程中的第一时间段内产出的第一操作信息,并基于第一操作信息确定第一操作模式,以及按照第一操作模式控制第二虚拟对象在第一时间段之后的行为操作。
具体实施例可以参考上述虚拟对象的控制装置中所示示例,本示例中在此不再赘述。
作为一种可选的方案,装置,还包括:
第四获取模块,用于在获取第一虚拟对象在一局云游戏的运行过程中的第一时间段内产出的第一操作信息,并基于第一操作信息确定第一操作模式,以及按照第一操作模式控制第二虚拟对象在第一时间段之后的行为操作之后,获取第一虚拟对象在一局云游戏的运行过程中的、在第一时间段之后的第二时间段内产出的第二操作信息,并基于第二操作信息确定第二操作模式,以及按照第二操作模式控制第二虚拟对象在第二时间段之后的行为操作。
具体实施例可以参考上述虚拟对象的控制装置中所示示例,本示例中在此不再赘述。
作为一种可选的方案,装置还包括:
第一控制模块,用于按照第一操作模式控制第二虚拟对象,包括:控制第二虚拟对象执行第一操作模式对应的至少一个第一操作指令;
第二控制模块,用于按照第二操作模式控制第二虚拟对象,包括:控制第二虚拟对象执行第二操作模式对应的至少一个第二操作指令。
具体实施例可以参考上述虚拟对象的控制装置中所示示例,本示例中在此不再赘述。
根据本申请实施例的又一个方面,还提供了一种用于实施上述虚拟对象的控制方法的电子设备,如图12所示,该电子设备包括存储器1202和处理器1204,该存储器1202中存储有计算机程序,该处理器1204被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子设备可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,在一局云游戏的运行过程中,显示参与一局云游戏的第一虚拟对象、以及第二虚拟对象,其中,第一虚拟对象为云游戏的用户所控制的虚拟对象,第二虚拟对象为人工智能模拟用户控制的虚拟对象;
S2,获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息,并基于第一操作信息确定第二虚拟对象的第一操作模式,以及按照第一操作模式控制第二虚拟对象;
S3,在获取到第一虚拟对象在一局云游戏的运行过程中所产出的第二操作信息的情况下,基于第二操作信息将第二虚拟对象的操作模式由第一操作模式,调整为第二操作模式,并按照第二操作模式控制第二虚拟对象,其中,第一操作信息不同于第二操作信息,第一操作模式不同于第二操作模式。
可选地,本领域普通技术人员可以理解,图12所示的结构仅为示意,电子设备也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图12其并不对上述电子设备的结构造成限定。例如,电子设备还可包括比图12中所示更多或者更少的组件(如网络接口等),或者具有与图12所示不同的配置。
其中,存储器1202可用于存储软件程序以及模块,如本申请实施例中的虚拟对象的控制方法和装置对应的程序指令/模块,处理器1204通过运行存储在存储器1202内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的虚拟对象的控制方法。存储器1202可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1202可进一步包括相对于处理器1204远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器1202具体可以但不限于用于存储第一操作信息、第二操作信息等信息。作为一种示例,如图12所示,上述存储器1202中可以但不限于包括上述虚拟对象的控制装置中的第一显示单元1102,第一确定单元1104,第一调整单元1106。此外,还可以包括但不限于上述虚拟对象的控制装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置1206用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1206包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1206为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子设备还包括:显示器1208,用于显示上述第一操作信息、第二操作信息等信息;和连接总线1210,用于连接上述电子设备中的各个模块部件。
在其他实施例中,上述终端设备或者服务器可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(Peer To Peer,简称P2P)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
根据本申请的一个方面,提供了一种计算机程序产品,该计算机程序产品包括计算机程序/指令,该计算机程序/指令包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理器执行时,执行本申请实施例提供的各种功能。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,电子设备的计算机系统仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
计算机系统包括中央处理器(Central Processing Unit,CPU),其可以根据存储在只读存储器(Read-Only Memory,ROM)中的程序或者从存储部分加载到随机访问存储器(Random Access Memory,RAM)中的程序而执行各种适当的动作和处理。在随机访问存储器中,还存储有系统操作所需的各种程序和数据。中央处理器、在只读存储器以及随机访问存储器通过总线彼此相连。输入/输出接口(Input/Output接口,即I/O接口)也连接至总线。
以下部件连接至输入/输出接口:包括键盘、鼠标等的输入部分;包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分;包括硬盘等的存储部分;以及包括诸如局域网卡、调制解调器等的网络接口卡的通信部分。通信部分经由诸如因特网的网络执行通信处理。驱动器也根据需要连接至输入/输出接口。可拆卸介质,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器上,以便于从其上读出的计算机程序根据需要被安装入存储部分。
特别地,根据本申请的实施例,各个方法流程图中所描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理器执行时,执行本申请的系统中限定的各种功能。
根据本申请的一个方面,提供了一种计算机可读存储介质,计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各种可选实现方式中提供的方法。
可选地,在本实施例中,上述计算机可读的存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,在一局云游戏的运行过程中,显示参与一局云游戏的第一虚拟对象、以及第二虚拟对象,其中,第一虚拟对象为云游戏的用户所控制的虚拟对象,第二虚拟对象为人工智能模拟用户控制的虚拟对象;
S2,获取第一虚拟对象在一局云游戏的运行过程中所产出的第一操作信息,并基于第一操作信息确定第二虚拟对象的第一操作模式,以及按照第一操作模式控制第二虚拟对象;
S3,在获取到第一虚拟对象在一局云游戏的运行过程中所产出的第二操作信息的情况下,基于第二操作信息将第二虚拟对象的操作模式由第一操作模式,调整为第二操作模式,并按照第二操作模式控制第二虚拟对象,其中,第一操作信息不同于第二操作信息,第一操作模式不同于第二操作模式。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对相关技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (13)
1.一种虚拟对象的控制方法,其特征在于,包括:
在一局云游戏的运行过程中,显示参与所述一局云游戏的第一虚拟对象、以及第二虚拟对象,其中,所述第一虚拟对象为所述云游戏的用户所控制的虚拟对象,所述第二虚拟对象为人工智能模拟所述用户控制的虚拟对象;
获取所述第一虚拟对象在所述一局云游戏的运行过程中所产出的第一操作信息,并基于所述第一操作信息确定所述第二虚拟对象的第一操作模式,以及按照所述第一操作模式控制所述第二虚拟对象;
在获取到所述第一虚拟对象在所述一局云游戏的运行过程中所产出的第二操作信息的情况下,基于所述第二操作信息将所述第二虚拟对象的操作模式由所述第一操作模式,调整为第二操作模式,并按照所述第二操作模式控制所述第二虚拟对象,其中,所述第一操作信息不同于所述第二操作信息,所述第一操作模式不同于所述第二操作模式。
2.根据权利要求1所述的方法,其特征在于,在所述获取所述第一虚拟对象在所述一局云游戏的运行过程中所产出的第一操作信息之后,所述方法还包括:
确定所述第一操作模式的起始时间点;
获取所述第一虚拟对象在所述起始时间点之后、在所述一局云游戏的运行过程中的多个操作信息;
基于所述多个操作信息,获取所述第二操作信息。
3.根据权利要求2所述的方法,其特征在于,所述基于所述多个操作信息,获取所述第二操作信息,包括:
从所述多个操作信息中确定出与关键操作信息之间信息相似度大于或等于第一预设阈值的第一目标操作信息;
在所述第一目标操作信息的数量大于或等于第二预设阈值的情况下,将所述第一目标操作信息确定为所述第二操作信息。
4.根据权利要求2所述的方法,其特征在于,所述基于所述多个操作信息,获取所述第二操作信息,包括:
将所述多个操作信息输入目标模型,其中,所述模型为利用多个样本操作信息进行训练得到的、用于识别操作信息的神经网络模型。
获取所述目标模型输出的第二目标操作信息;
在所述第二目标操作信息不同于所述第一操作信息的情况下,将所述第二目标操作信息确定为所述第二操作信息。
5.根据权利要求4所述的方法,其特征在于,在所述将所述多个操作信息输入目标模型之前,所述方法包括:
执行以下步骤,直至得到所述目标模型:
从所述多个样本操作信息中获取当前样本,其中,所述样本操作信息携带有当前环境参数、当前行为参数、以及当前样本结果,所述当前环境参数为所述样本操作信息对应的操作被执行时所处于的环境对应的参数,所述当前行为参数为所述样本操作信息对应的操作对应的行为类型,所述当前样本结果为所述样本操作信息对应的操作匹配的、由所述第二虚拟对象执行的操作对应的信息;
将所述当前样本输入当前目标模型,得到所述当前目标模型输出的当前目标操作信息;
在所述当前目标操作信息与所述当前样本结果之间的信息相似度大于或等于第三预设阈值的情况下,确定所述当前目标模型达到收敛条件,并将所述当前目标模型确定为所述目标模型;
在在所述当前目标操作信息与所述当前样本结果之间的信息相似度小于所述第三预设阈值的情况下,确定所述当前目标模型未达到所述收敛条件,从所述多个样本操作信息中获取下一样本,并将所述下一样本确定为当前样本。
6.根据权利要求4所述的方法,其特征在于,在所述将所述多个操作信息输入目标模型之后,所述方法还包括:
在所述操作信息为在所述一局云游戏的运行过程中采集到的图像信息的情况下,利用所述目标模型中的图像信息识别结果,对所述图像信息进行图像识别,得到处理后的操作信息;
将所述处理后的操作信息输入所述目标模型中的操作信息识别结果,得到所述第二目标操作信息。
7.根据权利要求1所述的方法,其特征在于,所述获取所述第一虚拟对象在所述一局云游戏的运行过程中所产出的第一操作信息,并基于所述第一操作信息确定所述第二虚拟对象的第一操作模式,以及按照所述第一操作模式控制所述第二虚拟对象,包括:
获取所述第一虚拟对象在所述一局云游戏的运行过程中的第一时间段内产出的所述第一操作信息,并基于所述第一操作信息确定所述第一操作模式,以及按照所述第一操作模式控制所述第二虚拟对象在所述第一时间段之后的行为操作。
8.根据权利要求7所述的方法,其特征在于,在所述获取所述第一虚拟对象在所述一局云游戏的运行过程中的第一时间段内产出的所述第一操作信息,并基于所述第一操作信息确定所述第一操作模式,以及按照所述第一操作模式控制所述第二虚拟对象在所述第一时间段之后的行为操作之后,所述方法还包括:
获取所述第一虚拟对象在所述一局云游戏的运行过程中的、在所述第一时间段之后的第二时间段内产出的所述第二操作信息,并基于所述第二操作信息确定所述第二操作模式,以及按照所述第二操作模式控制所述第二虚拟对象在所述第二时间段之后的行为操作。
9.根据权利要求1至8中任一项所述的方法,其特征在于,
所述按照所述第一操作模式控制所述第二虚拟对象,包括:控制所述第二虚拟对象执行所述第一操作模式对应的至少一个第一操作指令;所述按照所述第二操作模式控制所述第二虚拟对象,包括:控制所述第二虚拟对象执行所述第二操作模式对应的至少一个第二操作指令。
10.一种虚拟对象的控制装置,其特征在于,包括:
第一显示单元,用于在一局云游戏的运行过程中,显示参与所述一局云游戏的第一虚拟对象、以及第二虚拟对象,其中,所述第一虚拟对象为所述云游戏的用户所控制的虚拟对象,所述第二虚拟对象为人工智能模拟所述用户控制的虚拟对象;
第一确定单元,用于获取所述第一虚拟对象在所述一局云游戏的运行过程中所产出的第一操作信息,并基于所述第一操作信息确定所述第二虚拟对象的第一操作模式,以及按照所述第一操作模式控制所述第二虚拟对象;
第一调整单元,用于在获取到所述第一虚拟对象在所述一局云游戏的运行过程中所产出的第二操作信息的情况下,基于所述第二操作信息将所述第二虚拟对象的操作模式由所述第一操作模式,调整为第二操作模式,并按照所述第二操作模式控制所述第二虚拟对象,其中,所述第一操作信息不同于所述第二操作信息,所述第一操作模式不同于所述第二操作模式。
11.一种计算机可读的存储介质,其特征在于,所述计算机可读的存储介质包括存储的程序,其中,所述程序可被终端设备或计算机运行时执行所述权利要求1至9任一项中所述的方法。
12.一种计算机程序产品,包括计算机程序/指令,其特征在于,该计算机程序/指令被处理器执行时实现权利要求1至9任一项中所述方法的步骤。
13.一种电子设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至9任一项中所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211466604.6A CN116943204A (zh) | 2022-11-22 | 2022-11-22 | 虚拟对象的控制方法、装置和存储介质及电子设备 |
PCT/CN2023/129848 WO2024109528A1 (zh) | 2022-11-22 | 2023-11-06 | 虚拟对象的控制方法、装置和存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211466604.6A CN116943204A (zh) | 2022-11-22 | 2022-11-22 | 虚拟对象的控制方法、装置和存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116943204A true CN116943204A (zh) | 2023-10-27 |
Family
ID=88457020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211466604.6A Pending CN116943204A (zh) | 2022-11-22 | 2022-11-22 | 虚拟对象的控制方法、装置和存储介质及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116943204A (zh) |
WO (1) | WO2024109528A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024109528A1 (zh) * | 2022-11-22 | 2024-05-30 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置和存储介质及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101231798B1 (ko) * | 2009-04-30 | 2013-02-08 | 한국전자통신연구원 | 게임 난이도 조절 장치 및 방법 |
KR101265051B1 (ko) * | 2012-05-30 | 2013-05-16 | 주식회사 쏘그웨어 | 게임 사용자 수준에 따른 npc ai제공방법 |
CN109091869B (zh) * | 2018-08-10 | 2022-07-26 | 腾讯科技(深圳)有限公司 | 虚拟对象的动作控制方法、装置、计算机设备及存储介质 |
CN111450533B (zh) * | 2020-03-31 | 2022-06-24 | 腾讯科技(深圳)有限公司 | 虚拟场景中的虚拟对象控制方法、装置、终端及存储介质 |
CN116943204A (zh) * | 2022-11-22 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置和存储介质及电子设备 |
-
2022
- 2022-11-22 CN CN202211466604.6A patent/CN116943204A/zh active Pending
-
2023
- 2023-11-06 WO PCT/CN2023/129848 patent/WO2024109528A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024109528A1 (zh) * | 2022-11-22 | 2024-05-30 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置和存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2024109528A1 (zh) | 2024-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108888958B (zh) | 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质 | |
KR102291044B1 (ko) | 멀티 플레이어 비디오 게임 매치 메이킹 최적화 | |
KR102360420B1 (ko) | 비디오 게임에서 플레이어 게임플레이를 모방하기 위한 커스텀 모델 | |
CN111744201B (zh) | 视频游戏中的自动玩家控制接管 | |
CN111766950B (zh) | 虚拟角色交互方法、装置、计算机设备和存储介质 | |
US8616970B2 (en) | System and method for managing a multiplicity of text messages in an online game | |
US11712630B2 (en) | Dynamic interfaces for launching direct gameplay | |
CN111744205B (zh) | 自动化玩家赞助系统 | |
US11571628B2 (en) | Modifying game content to reduce abuser actions toward other users | |
WO2012075477A2 (en) | Collaborative electronic game play employing player classification and aggregation | |
CN112402986B (zh) | 一种对战游戏中强化学习模型的训练方法及装置 | |
CN112791394A (zh) | 游戏模型训练方法、装置、电子设备及存储介质 | |
WO2023088024A1 (zh) | 虚拟场景的交互处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
CN111841018A (zh) | 模型训练方法、模型使用方法、计算机设备及存储介质 | |
WO2024109528A1 (zh) | 虚拟对象的控制方法、装置和存储介质及电子设备 | |
CN113209640B (zh) | 解说的生成方法、装置、设备及计算机可读存储介质 | |
JP7140996B2 (ja) | ゲーム関連サービス提供プログラムならびにサーバ装置 | |
JP2021074561A5 (zh) | ||
CN115944921A (zh) | 游戏数据处理方法、装置、设备及介质 | |
JP2023146391A (ja) | サーバシステム、プログラム及びゲーム実況プレイの実況配信方法 | |
CN118036694B (zh) | 一种训练智能体的方法、装置和设备及计算机存储介质 | |
US12128310B2 (en) | Virtual character interaction method and apparatus, computer device, and storage medium | |
Cai et al. | Cognitive gaming | |
CN118491098A (zh) | 虚拟对象的控制方法、装置、系统、设备及存储介质 | |
JP2020171575A (ja) | ゲーム関連サービス提供プログラムならびにサーバ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |