CN110152298B - 实现虚拟角色的装备推荐方法、装置及计算机设备 - Google Patents
实现虚拟角色的装备推荐方法、装置及计算机设备 Download PDFInfo
- Publication number
- CN110152298B CN110152298B CN201811398976.3A CN201811398976A CN110152298B CN 110152298 B CN110152298 B CN 110152298B CN 201811398976 A CN201811398976 A CN 201811398976A CN 110152298 B CN110152298 B CN 110152298B
- Authority
- CN
- China
- Prior art keywords
- equipment
- data
- virtual character
- fighting
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/67—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6027—Methods for processing data by generating or executing the game program using adaptive systems learning from user actions, e.g. for skill level adjustment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/807—Role playing or strategy games
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种实现虚拟角色的装备推荐方法、装置及计算机设备,所述实现虚拟角色的装备推荐方法包括:获取虚拟角色的对战数据,所述虚拟角色的对战数据指示了所述虚拟角色在对战中配置的装备集合;对所述虚拟角色的对战数据进行特征抽取,得到待学习的初始特征;通过神经网络中的隐层对所述初始特征进行由浅至深的特征学习,得到隐层特征;根据所述隐层特征进行装备标签预测,通过预测到的装备标签向所述虚拟角色推荐在所述对战中可添加至所述装备集合的装备。采用本发明所提供的实现虚拟角色的装备推荐方法、装置及计算机设备解决了现有技术中向虚拟角色推荐装备的灵活性不足的问题。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种实现虚拟角色的装备推荐方法、装置及计算机设备。
背景技术
对战,是游戏类客户端为多个虚拟角色在游戏中进行竞技提供的任务模式。对战时,虚拟角色往往需要借助不同的装备,以提升自身在对战中的竞技实力。
目前,虚拟角色的装备推荐方案主要包括设定规则和决策树两种,第一种设定规则,在游戏开始之前,针对所有虚拟角色配置装备推荐流程,由于装备推荐并不会随着对战环境的变化而变化,尚缺乏灵活性;第二种决策树,为特定对战环境中的虚拟角色配置装备推荐流程,使得装备推荐可跟随该特定对战环境的变化而变化,具有一定的灵活性,但是仍不能应对全部的对战环境。
由上可知,现有的虚拟角色装备推荐仍存在灵活性不足的局限性。
发明内容
为了解决相关技术中存在的向虚拟角色推荐装备的灵活性不足的问题,本发明各实施例提供一种实现虚拟角色的装备推荐方法、装置及计算机设备。
其中,本发明所采用的技术方案为:
第一方面,一种实现虚拟角色的装备推荐方法,包括:获取虚拟角色的对战数据,所述虚拟角色的对战数据指示了所述虚拟角色在对战中配置的装备集合;对所述虚拟角色的对战数据进行特征抽取,得到待学习的初始特征;通过神经网络中的隐层对所述初始特征进行由浅至深的特征学习,得到隐层特征;根据所述隐层特征进行装备标签预测,通过预测到的装备标签向所述虚拟角色推荐在所述对战中可添加至所述装备集合的装备。
第二方面,一种实现虚拟角色的装备推荐装置,包括:数据获取模块,用于获取虚拟角色的对战数据,所述虚拟角色的对战数据指示了所述虚拟角色在对战中配置的装备集合;特征抽取模块,用于对所述虚拟角色的对战数据进行特征抽取,得到待学习的初始特征;特征学习模块,用于通过神经网络中的隐层对所述初始特征进行由浅至深的特征学习,得到隐层特征;装备推荐模块,用于根据所述隐层特征进行装备标签预测,通过预测到的装备标签向所述虚拟角色推荐在所述对战中可添加至所述装备集合的装备。
第三方面,一种计算机设备,包括处理器及存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如上所述的实现虚拟角色的装备推荐方法。
第四方面,一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的实现虚拟角色的装备推荐方法。
在上述技术方案中,结合深度学习中的神经网络,以虚拟角色的对战数据作为学习基础,对虚拟角色在对战中可能使用的装备进行预测,有效地解决了现有技术中虚拟角色装备推荐灵活性不足的问题。
具体而言,获取虚拟角色的对战数据,以对虚拟角色的对战数据进行特征抽取,得到待学习的初始特征,进而通过神经网络中的隐层对初始特征进行由浅至深的特征学习,得到隐层特征,并最终根据隐层特征进行装备标签预测,以此向虚拟角色推荐在对战中可添加至装备集合的装备,由此,通过虚拟角色的对战数据反馈对战环境的变化,使得基于该对战数据预测得到的装备标签,能够跟随该对战环境的变化而及时变化,大大提高了虚拟角色装备推荐的灵活性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。
图1是根据本发明所涉及的实施环境的示意图。
图2是根据一示例性实施例示出的一种服务器的硬件结构框图。
图3是根据一示例性实施例示出的一种实现虚拟角色的装备推荐方法的流程图。
图4是图3对应实施例所涉及的神经网络的模型结构的示意图。
图5是图3对应实施例中步骤310在一个实施例的流程图。
图6是图3对应实施例中步骤330在一个实施例的流程图。
图7是图3对应实施例中步骤350在一个实施例的流程图。
图8是图3对应实施例中步骤370在一个实施例的流程图。
图9是根据一示例性实施例示出的另一种实现虚拟角色的装备推荐方法的流程图。
图10是图9对应实施例中步骤530在一个实施例的流程图。
图11是一应用场景中一种实现虚拟角色的装备推荐方法的具体实现示意图。
图12是根据一示例性实施例示出的一种实现虚拟角色的装备推荐装置的框图。
图13是根据一示例性实施例示出的一种计算机设备的框图。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述,这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。
具体实施方式
这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
如前所述,虚拟角色的装备推荐方法主要包括设定规则和决策树两种。
第一种设定规则,复杂度较低,由配置人员针对所有虚拟角色配置装备推荐流程。无论对战环境如何变化,都是按照所配置的装备推荐流程向虚拟角色推荐装备,例如,MOBA(Multiplayer Online Battle Arena)类游戏中,对于每一局对战而言,第一次固定推荐“抵抗之靴”装备,第二次固定推荐“无尽战刃”装备等等。该种方案不仅缺乏灵活性,而且配置繁琐,容易出错。
第二种决策树,具有一定的灵活性,能够解决某些特定对战环境中的虚拟角色装备推荐。仍以MOBA类游戏举例说明,会事先判断对战环境中法师类型的虚拟角色是否偏多,如果是,则推荐“抵抗之靴”装备,否则推荐“急速战靴”装备;又或者,事先判断对战环境中射手类型的虚拟角色是否偏多,如果是,则推荐“反伤刺甲”装备等等。随着特定对战环境数量的增加,该种方案中涉及的一般是深度几十层的决策树,较为复杂,不易维护,且对配置人员的要求较高,此外,大部分的对战环境是不明确的,该决策树仍存在无以应对的局限性。
由此可知,现有的虚拟角色装备推荐仍存在灵活性不足的缺陷,多局对战之后,很容易让用户觉察参与对战的虚拟角色是基于固定的机器行为,而影响用户的娱乐体验。
为此,本发明特提出了一种实现虚拟角色的装备推荐方法,具有较高的灵活性,且不需要大量人力资源进行配置和维护,相应地,实现虚拟角色的装备推荐装置可部署于具有冯诺依曼体系架构的计算机设备,例如,计算机设备为服务器、台式电脑、笔记本电脑等,以实现虚拟角色的装备推荐方法。
图1为一种实现虚拟角色的装备推荐方法所涉及的实施环境的示意图。该实施环境包括用户设备110和服务器端130。
具体地,用户设备110可供游戏类客户端运行,可以是智能手机、平板电脑、笔记本电脑、台式电脑等,在此不进行限定。其中,游戏类客户端可以是应用程序形式的,也可以是网页形式的,相应地,由游戏类客户端所构建的对战环境,可以通过应用程序窗口向用户展示,还可以通过网页页面向用户展示,在此也并未加以限定。
用户设备110与服务器端130之间通过有线或者无线等方式建立网络连接,以通过网络连接实现用户设备110与服务器端130之间的数据传输。例如,传输的数据包括虚拟角色的对战数据、预测到的装备标签等。
其中,服务器端130可以是一台服务器,也可以是由多台服务器构成的服务器集群,甚至是由多台服务器构成的云计算中心。此服务器是为用户提供后台服务的计算机设备,例如,后台服务包括但不限于装备推荐服务等。
随着游戏类客户端在用户设备110上运行,对战环境相应构建,用户便可借由运行于用户设备110的游戏类客户端操控虚拟角色对战,那么,通过用户设备110与服务器端130的交互,服务器端130将获取到虚拟角色的对战数据,并基于此实现虚拟角色的装备推荐。
图2是根据一示例性实施例示出的一种服务器的硬件结构框图。该种服务器适用于图1所示出实施环境中的服务器端130。
需要说明的是,该种服务器只是一个适配于本发明的示例,不能认为是提供了对本发明的使用范围的任何限制。该种服务器也不能解释为需要依赖于或者必须具有图2中示出的示例性的服务器200中的一个或者多个组件。
服务器200的硬件结构可因配置或者性能的不同而产生较大的差异,如图2所示,服务器200包括:电源210、接口230、至少一存储器250、以及至少一中央处理器(CPU,Central Processing Units)270。
具体地,电源210用于为服务器200上的各硬件设备提供工作电压。
接口230包括至少一有线或无线网络接口231、至少一串并转换接口233、至少一输入输出接口235以及至少一USB接口237等,用于与外部设备通信。
存储器250作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统251、应用程序253及数据255等,存储方式可以是短暂存储或者永久存储。
其中,操作系统251用于管理与控制服务器200上的各硬件设备以及应用程序253,以实现中央处理器270对海量数据255的计算与处理,其可以是Windows ServerTM、Mac OSXTM、UnixTM、LinuxTM、FreeBSDTM等。应用程序253是基于操作系统251之上完成至少一项特定工作的计算机程序,其可以包括至少一模块(图2中未示出),每个模块都可以分别包含有对服务器200的一系列计算机可读指令。数据255可以是存储于磁盘中的照片、图片等。
中央处理器270可以包括一个或多个以上的处理器,并设置为通过总线与存储器250通信,用于运算与处理存储器250中的海量数据255。
如上面所详细描述的,适用本发明的服务器200将通过中央处理器270读取存储器250中存储的一系列计算机可读指令的形式来完成实现虚拟角色的装备推荐方法。
此外,通过硬件电路或者硬件电路结合软件也能同样实现本发明,因此,实现本发明并不限于任何特定硬件电路、软件以及两者的组合。
请参阅图3,在一示例性实施例中,一种实现虚拟角色的装备推荐方法适用于图1所示实施环境的服务器端,该服务器端的结构可以如图2所示。
该种实现虚拟角色的装备推荐方法可以由服务器端执行,可以包括以下步骤:
步骤310,获取虚拟角色的对战数据,所述虚拟角色的对战数据指示了所述虚拟角色在对战中配置的装备集合。
其中,虚拟角色也称为游戏角色、游戏人物等,此虚拟角色包括玩家角色和游戏AI(Artificial Intelligence)。玩家角色是指用户借助游戏类客户端在游戏中操控的对象,而游戏AI则是指游戏中的人工智能角色,可模拟玩家角色的各种行为参与对战。
为此,本发明各实施例中推荐的装备既可以面向玩家角色,以此辅助用户为玩家角色更换装备,还可以面向游戏AI,实现游戏AI灵活多变的装备更换自动化。
如前所述,随着游戏类客户端在用户设备上运行,对战环境相应地构建,用户便可借由游戏类客户端操控一个或者多个玩家角色在构建的对战环境中对战。其中,对战环境可以是真实世界的仿真环境,也可以是虚构的虚拟环境,在此不进行限定。
可选地,对战,也即是“敌我双方”的对战,包括单人对战、多人小组对战,既可以在玩家角色与游戏AI之间进行,也可以在玩家角色之间进行。
可选地,一局“敌我双方”的对战,是以第一个“敌方”或者“我方”所在游戏类客户端所操控虚拟角色加入对战的时刻视为对战开始,以“敌方”或者“我方”失败的时刻视为对战结束。当然,失败可以是指“敌方”或者“我方”中指定数量的虚拟角色被击杀,也可以是指最后一个“敌方”或者“我方”所在游戏类客户端中途退出对战,本发明各实施例并未对此加以限定。
随着对战开始,虚拟角色在对战环境中进行竞技,游戏类客户端所配置的虚拟摄像机将会以虚拟角色的视角拍摄该对战环境,以形成对战画面向用户展示。
可以理解,对战画面,不仅包含了对战环境自身的情况,例如,存在于对战环境中的植被、山川、河流等,还包含了虚拟角色在对战环境中对战的相关情况,例如,对战的相关情况包括参与对战的虚拟角色及其角色类型、属性、所配置的装备集合、在对战环境中所处的位置等等。其中,角色类型与虚拟角色的技能有关,例如,射手类型的虚拟角色的技能侧重于攻击,法师类型的虚拟角色的技能侧重于法术等等;属性则包括虚拟角色所具有的等级、血量、伤害值、金币等等;装备集合是针对虚拟角色整体而言,包括头盔装备、盔甲装备、护腕装备、护肘装备、护膝装备、鞋子装备等等。
由此,本实施例中,虚拟角色的对战数据,是服务器端基于对战画面生成的,进而当虚拟角色在对战环境中对战时,服务器端便可实时获取该虚拟角色的对战数据,以便基于该虚拟角色的对战数据为对战中的该虚拟角色进行装备推荐。
应当说明的是,虚拟角色在对战环境中不仅以模型的形式向用户展示,还通过标识的形式唯一地表示,例如,标识A唯一地表示虚拟角色A,随着虚拟角色A以模型的形式在对战环境中展示于用户,标记A也将展示在此虚拟角色A的周边,比如虚拟角色A的顶部。当然,标识还可以是其他字符串形式,例如,数字、下划线和/或字母等的组合,在此并未加以限定。
在此补充说明的是,对战画面以帧为单位,因此,基于虚拟角色的对战数据的装备推荐也是按照帧为单位进行的。也可以理解为,服务器端获取到的虚拟角色的对战数据,对应于用户设备中的一帧对战画面。
步骤330,对所述虚拟角色的对战数据进行特征抽取,得到待学习的初始特征。
初始特征,是对虚拟角色所参与对战的描述,以此反馈对战环境的变化。例如,初始特征描述了参与对战的虚拟角色及其角色类型、属性、所配置的装备集合等。
可以理解,当对战环境变化,由虚拟角色的对战数据抽取得到的初始特征也将有所区别。例如,法师类型的虚拟角色偏多的对战环境,与射手类型的虚拟角色偏多的对战环境,所对应的初始特征并不相同。又或者,即使是同一对战环境,初始特征也将随着对战环境中虚拟角色属性的变化而变化,例如,虚拟角色的血量逐渐减少,而使得初始特征相应变化。
由此,便可以结合深度学习中的神经网络,对初始特征进行学习,进而学习到对战环境的变化,以便于后续能够及时响应对战环境的变化,而为对战中的虚拟角色进行装备推荐。
其中,初始特征可以通过向量表示,还可以通过图像灰度值表示。
步骤350,通过神经网络中的隐层对所述初始特征进行由浅至深的特征学习,得到隐层特征。
神经网络包括输入层、隐层和输出层,其中,输入层用于输入待学习的初始特征,隐层用于对初始特征进行学习以获得隐层特征,输出层用于根据隐层特征输出预测结果。
其中,神经网络可以是DNN深度神经网络,还可以是RNN循环神经网络。
进一步地,隐层包括由浅至深依次连接的若干浅层和若干深层,其中,浅层用于获取分辨率较低的特征,即局部特征,而深层用于获取分辨率较高的特征,即全局特征。也可以理解为,基于隐层的特征学习实质是由浅至深的特征学习过程。
在一实施例中,如图4所示,神经网络包括输入层401、隐层402、输出层403。其中,按照由浅至深的顺序,隐层402进一步包括4021、4022、4023、4024等若干浅层和若干深层。
步骤370,根据所述隐层特征进行装备标签预测,通过预测到的装备标签向所述虚拟角色推荐在所述对战中可添加至所述装备集合的装备。
如前所述,神经网络中的输出层,用于根据隐层特征输出预测结果。本实施例中,预测结果,也即是装备标签,是基于softmax分类激活函数预测得到的。
其中,装备标签,用于唯一地标识虚拟角色在对战中可配置的装备。装备标签可以通过数值唯一地表示,例如,0表示“抵抗之靴”装备,1表示“急速战靴”装备,2表示“无尽战刃”装备,3表示“反伤刺甲”装备等等。当然,在其他实施例中,装备标签还可以通过其他字符串形式进行唯一地标识,例如,数字、下划线和/或字母等的组合,本实施例并非对此构成具体限定。
具体地,利用softmax分类激活函数,计算隐层特征属于不同装备标签的概率,由此预测出可用于装备推荐的装备标签。
举例来说,假设隐层特征属于装备标签0的概率为P0,隐层特征属于装备标签1的概率为P1,隐层特征属于用于装备标签2的概率为P2,隐层特征属于装备标签3的概率为P3,如果P3最大,则表示预测到的装备标签为装备标签3,进而向虚拟角色推荐在对战中可添加至装备集合的装备是“反伤刺甲”装备。
对于运行在用户设备的游戏类客户端而言,便可获取到预测出的装备标签3,进而获知服务器端为虚拟角色推荐了“反伤刺甲”装备。那么,针对游戏AI,游戏类客户端将根据“反伤刺甲”装备自动为游戏AI替换装备集合中的装备,或者新增至装备集合;而就玩家角色来说,游戏类客户端将根据“反伤刺甲”装备生成提示消息,通过提示消息提示用户所推荐的装备,进而根据用户的指示为玩家角色替换装备集合中的装备,或者新增至装备集合,以此达到辅助用户的目的。
通过如上所述的过程,实现了针对不同对战环境的智能化装备推荐,不仅可以避免依赖于配置人员的配置,降低额外的维护成本,进而降低人力成本,而且具有灵活性和通用性,既支持不同对战环境中同一虚拟角色的装备推荐,还支持同一对战环境中不同虚拟角色的装备推荐,有效地提升了用户的娱乐体验。
请参阅图5,在一示例性实施例中,步骤310可以包括以下步骤:
步骤311,接收录像文件。
其中,所述录像文件是对所述虚拟角色所参与对战的对战画面进行录制生成的。可选地,录像文件以abs格式进行存储。
如果所述录像文件未损坏,则执行步骤313。
反之,如果录像文件已损坏,则丢弃已损坏的录像文件,并返回步骤311。
步骤313,进行所述录像文件的格式转换,获得所述虚拟角色的对战数据。
具体地,将所述录像文件存储为标准格式数据,并根据所述标准格式数据进行指定结构体创建,得到所述虚拟角色的对战数据。
首先,将所述录像文件存储为标准格式数据,实质是针对录像文件在abs格式与标准格式之间进行格式转换,以方便于录像文件的存储。
其次,根据所述标准格式数据进行指定结构体创建,也即是说,在创建一个空的指定结构体之后,将标准格式数据转换为符合该指定结构体的数据结构,并添加至该指定结构体中,由此得到虚拟角色的对战数据。
可选地,标准格式是指PB(Protocol Buffer)格式。
可选地,指定结构体为struct结构体。
在上述实施例的作用下,通过多次格式转换生成虚拟角色的对战数据,将有利于初始特征的特征抽取,进而提高效率。
请参阅图6,在一示例性实施例中,步骤330可以包括以下步骤:
步骤331,从所述虚拟角色的对战数据中,抽取得到用于描述所述虚拟角色所参与对战的特征数据。
如前所述,虚拟角色的对战数据,基于对战画面生成,实现了对战环境的描述,不仅描述了存在于对战环境中的植被、山川、河流等,还描述了虚拟角色在对战环境中参与的对战。
应当理解,虚拟角色在对战中更换装备与对战的整体局势息息相关,换而言之,为虚拟角色进行装备推荐,与虚拟角色在对战环境中参与的对战有关,而与对战环境中的植被、山川、河流等无关。
为此,特征数据,可以由虚拟角色的对战数据中抽取得到,是对虚拟角色在对战环境中所参与对战的描述,以此反映对战环境的变化,也即是对战的整体局势。
步骤333,对所述特征数据进行向量化表示,得到待学习的初始特征。
本实施例中,初始特征通过vector向量表示。
向量化表示,即是针对特征数据在struct结构体与vector向量之间进行格式转化,以便于神经网络中的特征学习过程,进而提高特征学习效率。
请参阅图7,在一示例性实施例中,步骤350可以包括以下步骤:
步骤351,按照由浅至深的顺序,通过若干所述浅层对所述初始特征进行局部特征提取,得到局部特征。
步骤353,在若干所述深层上由所述局部特征提取得到全局特征,以所述全局特征作为所述隐层特征。
如图4所示,按照由浅至深的顺序,隐层402包括:4021、4022、4023、4024等若干浅层和若干深层。
通过若干浅层,由初始特征提取得到局部特征,并通过若干深层,进一步由局部特征提取得到全局特征。
也就是说,在隐层中,随着层次的逐渐加深,在初始特征的特征学习过程中,相应地由局部特征描述抽象为全局特征描述,进而更加准确地描述虚拟角色所参与对战,以利于更加精准地反馈对战环境的变化。
请参阅图8,在一示例性实施例中,步骤370可以包括以下步骤:
步骤371,根据所述虚拟角色的对战数据,检测所述虚拟角色在所述对战中配置的装备集合是否处于满装状态。
装备集合的满装状态,是指虚拟角色在对战中已配置了允许配置数量的装备。
其中,允许配置数量可以根据应用场景灵活地设置,例如,允许配置数量为6,则当虚拟角色配置了头盔装备、盔甲装备、护腕装备、护肘装备、护膝装备、鞋子装备,则视为虚拟角色在对战中配置的装备集合处于满装状态。
如果所述装备集合处于满装状态,则执行步骤373。
如果所述装备集合未处于满装状态,则执行步骤375。
步骤373,推荐所述装备集合中的装备按照预测到的装备标签进行装备替换。
也就是说,当装备集合处于满装状态时,不允许虚拟角色新增装备,那么,预测到装备标签所标识的装备只能替换装备集合中装备属性相同的装备。
例如,假设预测到装备标签所标识的装备为“抵抗之靴”装备,装备属性为鞋子,此时,如果装备集合中鞋子属性的装备为“急速战靴”装备,则“急速战靴”装备被“抵抗之靴”装备替换。
步骤375,推荐预测到装备标签标识的装备新增至所述装备集合。
也就是说,当装备集合未处于满装状态时,允许虚拟角色新增装备。
举例来说,假设装备集合仅包含了“抵抗之靴”装备,那么,如果预测到装备标签标识的装备为“反伤刺甲”装备,则“反伤刺甲”装备将被添加至装备集合,此时,装备集合包含了“抵抗之靴”装备和“反伤刺甲”装备。
可以理解,当装备集合未处于满装状态时,如果本次装备推荐中,虚拟角色未新增装备,即预测到装备标签标识的装备未新增至装备集合,那么,基于神经网络所进行的下一次装备推荐中,可能得到的仍然是本次装备推荐中的预测结果。
为此,在一示例性实施例中,步骤375之后,如上所述的方法还可以包括以下步骤:
重新获取虚拟角色的对战数据,以根据重新获取到的对战数据,检测所述装备集合中是否已经新增了预测到装备标签标识的装备。
如果是,则根据重新获取到的对战数据再次向所述虚拟角色推荐装备,即返回执行步骤330。
反之,如果装备集合中未新增预测到装备标签标识的装备,则仍然向虚拟角色推荐本次预测到装备标签标识的装备。
也就是说,只有预测到装备标签标识的装备新增至装备集合,才会继续下一次装备推荐,以避免装备推荐重复进行,进而提高装备推荐效率。
请参阅图9,在一示例性实施例中,如上所述的方法还可以包括以下步骤:
步骤510,针对玩家角色参与的已结束对战,获取所述玩家角色的对战数据。
如前所述,玩家角色,指的是用户借助游戏类客户端在游戏中操控的对象。相应地,玩家角色的对战数据至少描述了玩家角色在对战环境中参与的对战。
那么,也可以理解为,针对玩家角色参与的已结束对战,玩家角色的对战数据,从用户角度出发,指示了整个对战中,用户是如何根据对战环境的变化来为玩家角色更换装备的。
步骤530,根据所述玩家角色的对战数据生成进行了装备标签标注的训练样本。
具体而言,在一实施例中,如图10所示,步骤530可以包括以下步骤:
步骤531,对所述玩家角色的对战数据进行特征抽取,得到用于训练的初始特征。
步骤533,根据所述玩家角色的对战数据,对所述玩家角色参与的已结束对战进行逆向解析,得到用于训练的装备标签。
逆向解析,是指从对战结束向对战开始回溯,整个对战中用户为玩家角色更换的装备。
如前所述,玩家角色的对战数据对应于用户设备中的一帧对战画面,为此,用于训练的装备标签包括:当前标签和下一个标签,也即是,当前标签针对当前一帧对战画面,下一个标签则针对后一帧对战画面。
下面以帧为单位对逆向解析加以说明。
举例来说,假设从对战开始到对战结束,整个对战包括5帧对战画面,那么,服务器端将相应地获取到对应于5帧对战画面的玩家角色的对战数据,以下简称第1~5帧对战数据。
第1帧对战数据,对战开始,用户为玩家角色新增至装备集合的装备为:“抵抗之靴”装备。
基于对战的整体局势,第2帧对战数据,用户为玩家角色新增至装备集合的装备为:“反伤刺甲”装备,此时,装备集合处于满装状态。
第3帧对战数据,装备集合未有变化,且装备集合仍处于满装状态。
第4帧对战数据,用户为玩家角色用“急速战靴”装备替换了装备集合中装备属性相同的“抵抗之靴”装备,且装备集合仍处于满装状态。
第5帧对战数据,对战结束。
那么,通过逆向解析,第1帧对战数据,当前标签为空,下一个标签为装备标签0。
第2帧对战数据,当前标签为装备标签0,下一个标签为装备标签3。
第3帧对战数据,当前标签为{装备标签0、3},下一个标签为空。
第4帧对战数据,当前标签为{装备标签0、3},下一个标签为装备标签1。
第5帧对战数据,当前标签为{装备标签0、1},下一个标签为空。
步骤535,根据用于训练的初始特征和用于训练的装备标签,生成所述训练样本。
也就是说,训练样本,不仅通过初始特征指示了玩家角色所参与的对战,而且指示了基于对战的整体局势,玩家角色在对战中所配置的装备集合的变化,也即是,当前标签指示了基于对战的整体局势下玩家角色所配置的装备,下一个标签指示了基于对战的整体局势推荐玩家角色更换的装备。
那么,在获取训练样本之后,便可进行神经网络的训练,以使完成训练的神经网络具有装备标签的预测能力。
步骤550,根据所述训练样本引导神经网络进行训练,以通过完成训练的神经网络向所述虚拟角色推荐装备。
训练,实质上是基于大量训练样本对神经网络的参数加以迭代优化,使得由此参数构建的指定算法函数满足收敛条件。
其中,指定算法函数,包括但不限于:最大期望函数、损失函数(例如softmax分类激活函数)等等。
举例来说,随机初始化神经网络的参数,根据当前一个训练样本计算随机初始化的参数所构建的损失函数的损失值。
如果损失函数的损失值未达到最小,则更新神经网络的参数,并根据后一个训练样本计算更新的参数所构建的损失函数的损失值。
如此迭代循环,直至损失函数的损失值达到最小,即视为损失函数收敛,此时,神经网络也收敛,并符合预设精度要求,则停止迭代。
否则,迭代更新神经网络的参数,并根据其余训练样本迭代计算所更新参数构建的损失函数的损失值,直至损失函数收敛。
值得一提的是,如果在损失函数收敛之前,迭代次数已经达到迭代阈值,也将停止迭代,以此保证训练的效率。
当神经网络收敛并符合预设精度要求时,表示神经网络完成训练,对于完成训练的神经网络而言,便具有了基于隐层特征进行装备标签预测的能力。
那么,将待学习的初始特征输入神经网络,便能够预测得到装备标签,进而向虚拟角色推荐在对战中可添加至装备集合的装备。
图11是一应用场景中一种实现虚拟角色的装备推荐方法的具体实现示意图。该应用场景中,用户设备为智能手机,运行于智能手机的游戏类客户端为MOBA类游戏程序。
在本应用场景中,包括两路分支:离线训练分支和在线预测分支。
离线训练分支:
基于玩家角色的对战数据,实现神经网络的离线训练。其中,玩家角色的对战数据是针对玩家角色所参与的已结束对战,也就是说,利用用户历史数据,从用户意图出发来训练神经网络。
具体地,如图11所示,由玩家角色的对战数据701生成训练样本702,即包含用于训练的初始特征和用于训练的装备标签,通过执行步骤703引导神经网络加以训练,从而存储得到预测模型704。
在线预测分支:
基于虚拟角色的对战数据,为虚拟角色在线预测对战中可添加至装备集合中的装备。其中,虚拟角色的对战数据是在虚拟角色所参与对战时生成的,以便于为实时对战过程中的虚拟角色提供装备推荐服务,进而提升虚拟角色在对战中的竞技能力,提升用户的娱乐体验。
具体地,如图11所示,获取虚拟角色的对战数据705,通过“特征抽取”步骤706,由虚拟角色的对战数据得到待学习的初始特征,基于离线训练分支中的预测模型704,通过“特征学习”步骤707,得到隐层特征,并通过执行步骤708,由隐层特征预测得到装备标签。
基于步骤709的执行,针对预测到装备标签所标识的装备,在装备集合处于满装状态时,实现智能换装710,即推荐虚拟角色更换装备集合中的装备。
在装备集合未处于满装状态时,实现智能出装711,即推荐虚拟角色新增装备至装备集合。
由此,完成了向虚拟角色推荐装备的全过程。
本应用场景中,实现了神经网络的自训练,即随着训练样本的增加,装备标签的预测能力将随之不断地增强,而且无需人工维护,不仅有利于降低人工成本,提高装备推荐的智能化,而且有效地提高了装备推荐效率,充分地保证了装备推荐的准确性。
下述为本发明装置实施例,可以用于执行本发明所涉及的实现虚拟角色的装备推荐方法。对于本发明装置实施例中未披露的细节,请参照本发明所涉及的实现虚拟角色的装备推荐方法的方法实施例。
请参阅图12,在一示例性实施例中,一种实现虚拟角色的装备推荐装置900包括但不限于:数据获取模块910、特征抽取模块930、特征学习模块950及装备推荐模块970。
其中,数据获取模块910,用于获取虚拟角色的对战数据,所述虚拟角色的对战数据指示了所述虚拟角色在对战中配置的装备集合。
特征抽取模块930,用于对所述虚拟角色的对战数据进行特征抽取,得到待学习的初始特征。
特征学习模块950,用于通过神经网络中的隐层对所述初始特征进行由浅至深的特征学习,得到隐层特征。
装备推荐模块970,用于根据所述隐层特征进行装备标签预测,通过预测到的装备标签向所述虚拟角色推荐在所述对战中可添加至所述装备集合的装备。
在一示例性实施例中,所述数据获取模块910包括但不限于:文件接收单元及格式转换单元。
其中,文件接收单元,用于接收录像文件,所述录像文件是对所述虚拟角色所参与对战的对战画面进行录制生成的。
格式转换单元,用于如果所述录像文件未损坏,则进行所述录像文件的格式转换,获得所述虚拟角色的对战数据。
在一示例性实施例中,所述格式转换单元包括但不限于:存储子单元及结构体创建子单元。
其中,存储子单元,用于如果所述录像文件未损坏,则将所述录像文件存储为标准格式数据。
结构体创建子单元,用于根据所述标准格式数据进行指定结构体创建,得到所述虚拟角色的对战数据。
在一示例性实施例中,特征抽取模块930包括但不限于:数据抽取单元及向量化表示单元。
其中,数据抽取单元,用于从所述虚拟角色的对战数据中,抽取得到用于描述所述虚拟角色所参与对战的特征数据。
向量化表示单元,用于对所述特征数据进行向量化表示,得到待学习的初始特征。
在一示例性实施例中,所述神经网络中的隐层包括由浅至深依次连接的若干浅层和若干深层。
相应地,所述特征学习模块950包括但不限于:局部特征提取单元及全局特征提取单元。
其中,局部特征提取单元,用于按照由浅至深的顺序,通过若干所述浅层对所述初始特征进行局部特征提取,得到局部特征。
全局特征提取单元,用于在若干所述深层上由所述局部特征提取得到全局特征,以所述全局特征作为所述隐层特征。
在一示例性实施例中,所述装置900还包括但不限于:状态检测模块。
其中,状态检测模块,用于根据所述虚拟角色的对战数据,检测所述虚拟角色在所述对战中配置的装备集合是否处于满装状态。
在一示例性实施例中,所述装备推荐模块970包括但不限于:装备新增推荐单元。
其中,装备新增推荐单元,用于如果所述装备集合未处于满装状态,则推荐预测到装备标签标识的装备新增至所述装备集合。
在一示例性实施例中,所述装置900还包括但不限于:重新推荐模块。
相应地,所述重新推荐模块包括但不限于:数据重获单元、装备检测单元及推荐重启单元。
其中,数据重获单元,用于重新获取所述虚拟角色的对战数据。
装备检测单元,用于根据重新获取到的对战数据,检测所述装备集合中是否已经新增了预测到装备标签标识的装备。
推荐重启单元,用于如果是,则根据重新获取到的对战数据再次向所述虚拟角色推荐装备。
在一示例性实施例中,所述装备推荐模块970还包括但不限于:装备替换推荐单元。
其中,装备替换推荐单元,用于如果所述装备集合处于满装状态,则推荐所述装备集合中的装备按照预测到的装备标签进行装备替换。
在一示例性实施例中,所述装置900还包括但不限于:网络训练模块。
相应地,所述网络训练模块包括但不限于:数据获取单元、样本生成单元及引导训练单元。
其中,数据获取单元,用于针对玩家角色参与的已结束对战,获取所述玩家角色的对战数据。
样本生成单元,用于根据所述玩家角色的对战数据生成进行了装备标签标注的训练样本。
引导训练单元,用于根据所述训练样本引导神经网络进行训练,以通过完成训练的神经网络向所述虚拟角色推荐装备。
在一示例性实施例中,所述样本生成单元包括但不限于:特征抽取子单元、逆向解析子单元和样本生成子单元。
其中,特征抽取子单元,用于对所述玩家角色的对战数据进行特征抽取,得到用于训练的初始特征。
逆向解析子单元,用于根据所述玩家角色的对战数据,对所述玩家角色参与的已结束对战进行逆向解析,得到用于训练的装备标签。
样本生成子单元,用于根据用于训练的初始特征和用于训练的装备标签,生成所述训练样本。
需要说明的是,上述实施例所提供的实现虚拟角色的装备推荐装置在进行实现虚拟角色的装备推荐处理时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即实现虚拟角色的装备推荐装置的内部结构将划分为不同的功能模块,以完成以上描述的全部或者部分功能。
另外,上述实施例所提供的实现虚拟角色的装备推荐装置与实现虚拟角色的装备推荐方法的实施例属于同一构思,其中各个模块执行操作的具体方式已经在方法实施例中进行了详细描述,此处不再赘述。
请参阅图13,在一示例性实施例中,一种计算机设备1000,包括至少一处理器1001、至少一存储器1002、以及至少一通信总线1003。
其中,存储器1002上存储有计算机可读指令,处理器1001通过通信总线1003读取存储器1002中存储的计算机可读指令。
该计算机可读指令被处理器1001执行时实现上述各实施例中的实现虚拟角色的装备推荐方法。
在一示例性实施例中,一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各实施例中的实现虚拟角色的装备推荐方法。
上述内容,仅为本发明的较佳示例性实施例,并非用于限制本发明的实施方案,本领域普通技术人员根据本发明的主要构思和精神,可以十分方便地进行相应的变通或修改,故本发明的保护范围应以权利要求书所要求的保护范围为准。
Claims (13)
1.一种实现虚拟角色的装备推荐方法,其特征在于,包括:
获取虚拟角色的对战数据,所述虚拟角色的对战数据指示了所述虚拟角色在对战中配置的装备集合,所述获取虚拟角色的对战数据是通过对所述虚拟角色所参与对战的对战画面进行录制的录像文件存储为标准格式数据,并根据所述标准格式数据进行指定结构体创建,得到所述虚拟角色的对战数据;
对所述虚拟角色的对战数据进行特征抽取,得到待学习的初始特征;
通过神经网络中的隐层对所述初始特征进行由浅至深的特征学习,得到隐层特征;
根据所述隐层特征进行装备标签预测,得到预测到的装备标签;
根据所述虚拟角色的对战数据,检测所述虚拟角色在所述对战中配置的装备集合是否处于满装状态,以基于所述装备集合的状态确定根据所述预测到的装备标签进行装备新增推荐或装备替换推荐;当确定为装备替换推荐时,所述预测到的装备标签所标识的装备用于替换 所述装备集合中装备属性相同的装备。
2.如权利要求1所述的方法,其特征在于,所述获取所述虚拟角色的对战数据,包括:
接收录像文件,所述录像文件是对所述虚拟角色所参与对战的对战画面进行录制生成的;
如果所述录像文件未损坏,则进行所述录像文件的格式转换,获得所述虚拟角色的对战数据。
3.如权利要求2所述的方法,其特征在于,所述如果所述录像文件未损坏,则进行所述录像文件的格式转换,获得所述虚拟角色的对战数据,包括:
如果所述录像文件未损坏,则将所述录像文件存储为标准格式数据;
根据所述标准格式数据进行指定结构体创建,得到所述虚拟角色的对战数据。
4.如权利要求1所述的方法,其特征在于,所述对所述虚拟角色的对战数据进行特征抽取,得到待学习的初始特征,包括:
从所述虚拟角色的对战数据中,抽取得到用于描述所述虚拟角色所参与对战的特征数据;
对所述特征数据进行向量化表示,得到待学习的初始特征。
5.如权利要求1所述的方法,其特征在于,所述神经网络中的隐层包括由浅至深依次连接的若干浅层和若干深层;
所述通过神经网络中的隐层对所述初始特征进行由浅至深的特征学习,得到隐层特征,包括:
按照由浅至深的顺序,通过若干所述浅层对所述初始特征进行局部特征提取,得到局部特征;
在若干所述深层上由所述局部特征提取得到全局特征,以所述全局特征作为所述隐层特征。
6.如权利要求1所述的方法,其特征在于,所述装备新增推荐包括:
如果所述装备集合未处于满装状态,则推荐预测到的装备标签所标识的装备新增至所述装备集合。
7.如权利要求6所述的方法,其特征在于,所述推荐预测到装备标签标识的装备新增至所述装备集合之后,所述方法还包括:
重新获取所述虚拟角色的对战数据;
根据重新获取到的对战数据,检测所述装备集合中是否已经新增了预测到装备标签标识的装备;
如果是,则根据重新获取到的对战数据再次向所述虚拟角色推荐装备。
8.如权利要求1所述的方法,其特征在于,所述装备替换推荐包括:
如果所述装备集合处于满装状态,则推荐所述装备集合中的装备按照预测到的装备标签进行装备替换。
9.如权利要求1至8任一项所述的方法,其特征在于,所述方法还包括:
针对玩家角色参与的已结束对战,获取所述玩家角色的对战数据;
根据所述玩家角色的对战数据生成进行了装备标签标注的训练样本;
根据所述训练样本引导神经网络进行训练,以通过完成训练的神经网络向所述虚拟角色推荐装备。
10.如权利要求9所述的方法,其特征在于,所述根据所述玩家角色的对战数据生成进行了装备标签标注的训练样本,包括:
对所述玩家角色的对战数据进行特征抽取,得到用于训练的初始特征;
根据所述玩家角色的对战数据,对所述玩家角色参与的已结束对战进行逆向解析,得到用于训练的装备标签;
根据用于训练的初始特征和用于训练的装备标签,生成所述训练样本。
11.一种实现虚拟角色的装备推荐装置,其特征在于,包括:
数据获取模块,用于获取虚拟角色的对战数据,所述虚拟角色的对战数据指示了所述虚拟角色在对战中配置的装备集合,所述获取虚拟角色的对战数据是通过对所述虚拟角色所参与对战的对战画面进行录制的录像文件存储为标准格式数据,并根据所述标准格式数据进行指定结构体创建,得到所述虚拟角色的对战数据;
特征抽取模块,用于对所述虚拟角色的对战数据进行特征抽取,得到待学习的初始特征;
特征学习模块,用于通过神经网络中的隐层对所述初始特征进行由浅至深的特征学习,得到隐层特征;
装备推荐模块,用于根据所述隐层特征进行装备标签预测,得到预测到的装备标签;根据所述虚拟角色的对战数据,检测所述虚拟角色在所述对战中配置的装备集合是否处于满装状态,以基于所述装备集合的状态确定根据所述预测到的装备标签进行装备新增推荐或装备替换推荐;当确定为装备替换推荐时,所述预测到的装备标签所标识的装备用于替换所述装备集合中装备属性相同的装备。
12.如权利要求11所述的装置,其特征在于,所述神经网络中的隐层包括由浅至深依次连接的若干浅层和若干深层;
所述特征学习模块包括:
局部特征提取单元,用于按照由浅至深的顺序,通过若干所述浅层对所述初始特征进行局部特征提取,得到局部特征;
全局特征提取单元,用于在若干所述深层上由所述局部特征提取得到全局特征,以所述全局特征作为所述隐层特征。
13.一种计算机设备,其特征在于,包括:
处理器;及
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如权利要求1至10中任一项所述的实现虚拟角色的装备推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811398976.3A CN110152298B (zh) | 2018-11-22 | 2018-11-22 | 实现虚拟角色的装备推荐方法、装置及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811398976.3A CN110152298B (zh) | 2018-11-22 | 2018-11-22 | 实现虚拟角色的装备推荐方法、装置及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110152298A CN110152298A (zh) | 2019-08-23 |
CN110152298B true CN110152298B (zh) | 2022-03-15 |
Family
ID=67645206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811398976.3A Active CN110152298B (zh) | 2018-11-22 | 2018-11-22 | 实现虚拟角色的装备推荐方法、装置及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110152298B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570287B (zh) * | 2019-09-27 | 2022-02-08 | 网易(杭州)网络有限公司 | 虚拟商品的推荐方法、装置、系统及服务器 |
CN110807150A (zh) * | 2019-10-14 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 信息处理方法及装置、电子设备和计算机可读存储介质 |
CN111359226B (zh) * | 2020-03-08 | 2023-08-15 | 北京智明星通科技股份有限公司 | 一种付费性虚拟装备的推荐方法、装置及移动终端 |
CN111803961B (zh) * | 2020-07-21 | 2021-11-23 | 腾讯科技(深圳)有限公司 | 一种虚拟物品的推荐方法以及相关装置 |
CN116910371B (zh) * | 2023-09-07 | 2024-01-23 | 南京大数据集团有限公司 | 一种基于深层关系的推荐方法及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102155261B1 (ko) * | 2016-04-13 | 2020-09-11 | 구글 엘엘씨 | 광역 및 심층 기계 학습 모델들 |
CN106512405B (zh) * | 2016-12-06 | 2019-02-19 | 腾讯科技(深圳)有限公司 | 一种虚拟对象的外挂资源获取的方法及装置 |
CN106779933A (zh) * | 2016-12-06 | 2017-05-31 | 腾讯科技(深圳)有限公司 | 一种虚拟道具推荐方法及客户端 |
CN108345419B (zh) * | 2017-01-25 | 2021-06-08 | 华为技术有限公司 | 一种信息推荐列表的生成方法及装置 |
CN107992531B (zh) * | 2017-11-21 | 2020-11-27 | 吉浦斯信息咨询(深圳)有限公司 | 基于深度学习的新闻个性化智能推荐方法与系统 |
CN108491930B (zh) * | 2018-03-23 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 一种样本数据的处理方法以及数据处理装置 |
CN108763478A (zh) * | 2018-05-29 | 2018-11-06 | 努比亚技术有限公司 | 用户隐性特征计算方法、服务器及计算机可读存储介质 |
-
2018
- 2018-11-22 CN CN201811398976.3A patent/CN110152298B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110152298A (zh) | 2019-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110152298B (zh) | 实现虚拟角色的装备推荐方法、装置及计算机设备 | |
CN109499068B (zh) | 对象的控制方法和装置、存储介质、电子装置 | |
US20230029460A1 (en) | Method, apparatus, and device for scheduling virtual objects in virtual environment | |
Justesen et al. | Learning macromanagement in starcraft from replays using deep learning | |
CN114949861A (zh) | 使用云游戏网络的人工智能(ai)模型训练 | |
US11712621B2 (en) | Video clip classification using feature vectors of a trained image classifier | |
CN110443284B (zh) | 人工智能ai模型的训练方法、调用方法、服务器及可读存储介质 | |
CN109529338B (zh) | 对象控制方法、装置、电子设计及计算机可读介质 | |
CN112791394B (zh) | 游戏模型训练方法、装置、电子设备及存储介质 | |
CN111450531B (zh) | 虚拟角色控制方法、装置、电子设备以及存储介质 | |
CN112742029B (zh) | 一种模拟操作的方法、游戏测试的方法以及相关装置 | |
CN113343089A (zh) | 用户召回方法及装置、设备 | |
CN111111203B (zh) | 一种机器人的训练方法及装置、技能释放方法及装置 | |
CN111450534A (zh) | 一种标签预测模型的训练方法、标签预测的方法及装置 | |
CN109529358A (zh) | 特征整合方法和装置及电子装置 | |
CN113318448A (zh) | 游戏资源展示方法及装置、设备、模型训练方法 | |
Buche et al. | Autonomous virtual player in a video game imitating human players: the ORION framework | |
CN114978765B (zh) | 服务于信息攻击防御的大数据处理方法及ai攻击防御系统 | |
CN110598182A (zh) | 一种信息预测的方法及相关设备 | |
CN112231220B (zh) | 一种游戏测试方法和装置 | |
Machado et al. | A method for generating emergent behaviors using machine learning to strategy games | |
CN116983639A (zh) | 虚拟对象的控制方法、装置、设备及存储介质 | |
CN115487508B (zh) | 游戏战队推荐模型的训练方法和相关装置 | |
CN112933605B (zh) | 虚拟对象控制、模型训练方法、装置和计算机设备 | |
US11443082B2 (en) | Utilizing deep learning and natural language processing to convert a technical architecture diagram into an interactive technical architecture diagram |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |