CN109529358A - 特征整合方法和装置及电子装置 - Google Patents
特征整合方法和装置及电子装置 Download PDFInfo
- Publication number
- CN109529358A CN109529358A CN201811354294.2A CN201811354294A CN109529358A CN 109529358 A CN109529358 A CN 109529358A CN 201811354294 A CN201811354294 A CN 201811354294A CN 109529358 A CN109529358 A CN 109529358A
- Authority
- CN
- China
- Prior art keywords
- feature
- virtual
- global
- destination virtual
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种特征整合方法和装置及电子装置。其中,该方法包括:从使用第一账号的客户端所显示的虚拟场景中确定出待处理的目标虚拟对象;从所述虚拟场景中提取出所述目标虚拟对象的局部对象特征,所述目标虚拟对象的全局对象特征及所述目标虚拟对象的对象属性特征;对所述局部对象特征,所述全局对象特征及所述对象属性特征分别按序进行整合,得到目标特征组合。本发明解决了相关技术中存在的难以保证特征整合准确性的技术问题。
Description
技术领域
本发明涉及计算机领域,具体而言,涉及一种特征整合方法和装置及电子装置。
背景技术
随着人工智能(Artificial Intelligence,简称AI)技术被广泛应用在不同领域,越来越多的研究也开始关注AI技术的优化发展。其中,AI技术中所涉及的神经网络模型常常是利用从样本对象中提取出的样本特征,来实现对样本对象的深度学习过程。
针对上述提取出的样本特征,目前在相关技术中往往只能通过较为单一的特征整合方式来进行特征表达。如将上述样本特征整合为一维特征向量或多维特征向量,以使得神经网络模型可以通过识别出特征向量中所携带的特征信息来进行深度学习。
然而,对于多人在线交互应用中所包含的较复杂的AI场景,由于涉及大量待处理的单元对象,若仍按照上述相关技术所提供的特征整合方式来进行特征表达,将使得在对从单元对象中提取出的对象特征进行特征整合时,整合复杂度随之增加,从而导致难以保证特征整合准确性的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种特征整合方法和装置及电子装置,以至少解决相关技术中存在的难以保证特征整合准确性的技术问题。
根据本发明实施例的一个方面,提供了一种特征整合方法,包括:从使用第一账号的客户端所显示的虚拟场景中确定出待处理的目标虚拟对象;从上述虚拟场景中提取出上述目标虚拟对象的局部对象特征,上述目标虚拟对象的全局对象特征及上述目标虚拟对象的对象属性特征,其中,上述局部对象特征用于指示在与上述第一账号对应的局部显示视角下,上述目标虚拟对象在上述虚拟场景中当前所显示的局部帧画面中的显示位置;上述全局对象特征用于指示在全局显示视角下,上述目标虚拟对象在上述虚拟场景中的显示位置;上述对象属性特征用于指示上述目标虚拟对象在上述虚拟场景中的属性状态;对上述局部对象特征,上述全局对象特征及上述对象属性特征分别按序进行整合,得到目标特征组合,其中,上述目标特征组合用于输入与上述虚拟场景对应的神经网络模型,以确定上述目标虚拟对象在上述虚拟场景中的执行动作。
根据本发明实施例的另一方面,还提供了一种特征整合装置,包括:确定单元,用于从使用第一账号的客户端所显示的虚拟场景中确定出待处理的目标虚拟对象;提取单元,用于从上述虚拟场景中提取出上述目标虚拟对象的局部对象特征,上述目标虚拟对象的全局对象特征及上述目标虚拟对象的对象属性特征,其中,上述局部对象特征用于指示在与上述第一账号对应的局部显示视角下,上述目标虚拟对象在上述虚拟场景中当前所显示的局部帧画面中的显示位置;上述全局对象特征用于指示在全局显示视角下,上述目标虚拟对象在上述虚拟场景中的显示位置;上述对象属性特征用于指示上述目标虚拟对象在上述虚拟场景中的属性状态;整合单元,用于对上述局部对象特征,上述全局对象特征及上述对象属性特征分别按序进行整合,得到目标特征组合,其中,上述目标特征组合用于输入与上述虚拟场景对应的神经网络模型,以确定上述目标虚拟对象在上述虚拟场景中的执行动作。
根据本发明实施例的又一方面,还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述特征整合方法。
根据本发明实施例的又一方面,还提供了一种电子装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,上述处理器通过计算机程序执行上述的特征整合方法。
在本发明实施例中,采用从使用第一账号的客户端所显示的虚拟场景中确定出待处理的目标虚拟对象;从上述虚拟场景中提取出上述目标虚拟对象的局部对象特征,上述目标虚拟对象的全局对象特征及上述目标虚拟对象的对象属性特征;对上述局部对象特征,上述全局对象特征及上述对象属性特征分别按序进行整合,得到目标特征组合的方法。在上述方法中,由于在确定出目标虚拟对象之后,从虚拟场景中提取出目标虚拟对象的局部对象特征、目标对象的全局对象特征与目标对象在虚拟场景中的属性状态,进而可以根据上述局部对象特征、全局对象特征与属性状态来确定目标特征组合,从而可以通过较为准确的方式整合特征,实现了提高特征整合的准确性的目的,进而解决了相关技术中存在的难以保证特征整合准确性的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的特征整合方法的应用环境的示意图;
图2是根据本发明实施例的一种可选的特征整合方法的流程示意图;
图3是根据本发明实施例的一种可选的特征整合方法的示意图;
图4是根据本发明实施例的另一种可选的特征整合方法的示意图;
图5是根据本发明实施例的又一种可选的特征整合方法的示意图;
图6是根据本发明实施例的又一种可选的特征整合方法的示意图;
图7是根据本发明实施例的一种可选的特征整合装置的结构示意图;
图8是根据本发明实施例的一种可选的电子装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的一个方面,提供了一种特征整合方法,可选地,上述特征整合方法可以但不限于应用于可以运行虚拟场景的终端上,或者应用于服务器上。作为一种可选的实施方式,以将上述特征整合方法应用于服务器中为例,上述特征整合方法可以但不限于应用于如图1所示的环境中。
用户102与用户设备104之间可以进行交互。用户设备104包含存储器106,用于存储目标虚拟对象的局部对象特征、全局对象特征与对象属性特征、处理器108,用于提取虚拟场景中的目标虚拟对象的局部对象特征、全局对象特征与对象属性特征,并将上述特征整合得到目标特征组合。用户设备104通过步骤S102通过网络110将上述目标特征组合发送给服务器112。服务器112包含数据库114,用于存储目标特征组合、神经网络模型116,用于识别目标特征组合,以确定目标虚拟对象在虚拟场景中执行的动作。
用户设备104在运行虚拟场景的过程中,确定出待处理的目标虚拟对象,并提取目标虚拟对象的局部对象特征、全局对象特征及对象属性特征,根据上述特征生成目标特征组合,并将目标特征组合发送给服务器112,由服务器112中的神经网络模型116对目标特征组合进行识别,确定目标虚拟对象在虚拟场景中的执行动作,并通过步骤S104将结果返回给用户设备104,用户设备104根据服务器112返回的结果控制虚拟场景中的目标虚拟对象执行动作。
可选地,上述用户设备102可以但不限于为可以计算数据的终端上,例如手机、平板电脑、笔记本电脑、PC机等终端上,上述网络110可以包括但不限于无线网络或有线网络。其中,该无线网络包括:WIFI及其他实现无线通信的网络。上述有线网络可以包括但不限于:广域网、城域网、局域网。上述服务器112可以包括但不限于任何可以进行计算的硬件设备。
需要说明的是,相关技术中,在从样本对象中提取样本特征时,往往只能通过较为单一的特征整合方式来进行特征表达,从而造成特征整合的结果不准确。而本实施例中,由于在确定出目标虚拟对象之后,从虚拟场景中提取出目标虚拟对象的局部对象特征、目标对象的全局对象特征与目标对象在虚拟场景中的属性状态,进而可以根据上述局部对象特征、全局对象特征与属性状态来确定目标特征组合,从而可以通过较为准确的方式整合特征,实现了提高特征整合的准确性的目的。
可选地,作为一种可选的实施方式,如图2所示,上述特征整合方法包括:
S202,从使用第一账号的客户端所显示的虚拟场景中确定出待处理的目标虚拟对象;
S204,从虚拟场景中提取出目标虚拟对象的局部对象特征,目标虚拟对象的全局对象特征及目标虚拟对象的对象属性特征,其中,局部对象特征用于指示在与第一账号对应的局部显示视角下,目标虚拟对象在虚拟场景中当前所显示的局部帧画面中的显示位置;全局对象特征用于指示在全局显示视角下,目标虚拟对象在虚拟场景中的显示位置;对象属性特征用于指示目标虚拟对象在虚拟场景中的属性状态;
S206,对局部对象特征,全局对象特征及对象属性特征分别按序进行整合,得到目标特征组合,其中,目标特征组合用于输入与虚拟场景对应的神经网络模型,以确定目标虚拟对象在虚拟场景中的执行动作。
可选地,上述特征整合方法可以但不限于应用于任何携带有全局地图与局部地图的游戏中,例如多人在线战术竞技游戏(Multiplayer OnlineBattle Arena,简称为MOBA)中,或者射击游戏(Shooter game,简称为STG),或者角色扮演游戏(Role-playering game,简称为RPG)游戏中等。上述游戏可以但不限于为三维游戏(使用空间立体计算技术实现操作的游戏)或者二维游戏(使用二维交互式动画实现的游戏)。
以将上述特征整合方法应用于三维MOBA中为例,三维MOBA中存在目标虚拟对象,提取目标虚拟对象的局部对象特征、全局对象特征与对象属性特征并整合得到目标特征组合,由神经网络模型对目标特征组合进行分析以提供目标虚拟对象接下来所要执行的动作。
可选地,上述目标虚拟对象可以但不限于为虚拟场景中的任意对象,例如,在MOBA中上述目标虚拟对象可以但不限于为英雄、野怪、防御塔、水晶、小兵或炮车等游戏元素,在STG中上述目标虚拟对象可以但不限于为游戏中的角色或人质或敌人等游戏元素,在RPG中上述目标虚拟对象可以但不限于为游戏中的角色或小怪或BOSS或中立势力等游戏元素。
例如,以上述目标虚拟对象为RPG游戏中的角色、小怪、BOSS为例,获取RPG游戏中的角色、小怪、BOSS的全局对象特征与局部对象特征与对象属性特征,整合得到目标特征组合并将目标特征组合输入到神经网络模型中,由神经网络模型决定游戏中的角色、小怪、BOSS的下一步动作。例如,控制小怪下一刻攻击角色,或者控制角色下一刻躲闪等。
或者,以上述目标虚拟对象为MOBA游戏中的英雄和野怪和防御塔和小兵和炮车为例,获取MOBA游戏中的英雄和野怪和防御塔和小兵和炮车在当前视角下的位置和在全局视角下的位置与MOBA游戏中的英雄和野怪和防御塔和小兵和炮车的对象属性特征,并根据上述当前视角下的位置和全局视角下的位置与对象属性特征整合得到目标特征组合,将目标特征组合输入到神经网络模型中,由神经网络模型输出MOBA游戏中的英雄、野怪、防御塔、小兵、炮车所要执行的动作。例如,控制英雄放技能,向某处移动,支援队友,控制小兵加快移动速度,控制防御塔加快攻击速度,增强属性等(在多数MOBA游戏中,小兵、炮车、防御塔、野怪等由一套固定逻辑控制,在此情况下,神经网络模型输出的控制指令优先级可以高于固定逻辑,也可以低于固定逻辑。在神经网络模型输出的控制指令优先级低于固定逻辑时,小兵、炮车、防御塔、野怪等继续由固定逻辑控制)。
需要说明的是,相关技术中,在从样本对象中提取样本特征时,往往只能通过较为单一的特征整合方式来进行特征表达,从而造成特征整合的结果不准确。而本实施例中,由于在确定出目标虚拟对象之后,从虚拟场景中提取出目标虚拟对象的局部对象特征、目标对象的全局对象特征与目标对象在虚拟场景中的属性状态,进而可以根据上述局部对象特征、全局对象特征与属性状态来确定目标特征组合,从而可以通过较为准确的方式整合特征,实现了提高特征整合的准确性的目的。
可选地,在确定第一账号的客户端所显示的虚拟场景中确定目标虚拟对象时,可以但不限于接收第一账号的客户端所显示的虚拟场景的视频画面或者帧画面。若获取到上述视频画面,则将视频画面分割成多个帧画面进行处理。在获取到帧画面之后,针对每一个帧画面,提取目标虚拟对象在帧画面中的显示位置,并提取目标虚拟对象在全局显示视角(大地图)中的显示位置,并获取目标虚拟对象的对象属性特征,从而整合得到目标特征组合。
可选地,在获取到目标特征组合之后,可以但不限于将获取到的目标特征组合作为样本数据对神经网络模型进行训练,从而得到成熟的神经网络模型,或者将目标特征组合输入到已经成熟的神经网络模型中,以由神经网络模型输出目标虚拟对象所要执行的动作。
作为一种可选的实施方案,从虚拟场景中提取出目标虚拟对象的局部对象特征,目标虚拟对象的全局对象特征及目标虚拟对象的对象属性特征包括:
S1,确定客户端当前所显示的虚拟场景中的目标画面帧,其中,目标画面帧中包括在与第一账号对应的局部显示视角下的虚拟场景中的局部帧画面,及全局显示视角下虚拟场景的全局地图;
S2,根据局部帧画面提取出目标虚拟对象的局部对象特征,并根据全局地图提取出目标虚拟对象的全局对象特征;
S3,根据目标画面帧中目标虚拟对象的当前属性状态提取出目标虚拟对象的对象属性特征。
可选地,上述目标帧画面可以但不限于为一帧或者几帧的帧画面,上述局部显示视角可以但不限于为游戏中的当前视角,当前视角所得到的画面为局部帧画面,上述全局显示视角为上帝视角。上帝视角所得到的画面为全局地图。
可选地,上述对象属性特征可以但不限于为目标虚拟对象在游戏中的各项属性,如攻击力、移动速度、防御力、生命、法力值、技能状态等等。
例如,以MOBA游戏为例,如图3所示,图3为一种可选的一帧当前显示的虚拟场景中的目标画面。目标画面中包含有两个目标虚拟对象,分别是目标虚拟对象306-1与目标虚拟对象306-2。获取目标虚拟对象306-1与目标虚拟对象306-2在当前视角302中的显示位置,并获取目标虚拟对象306-1与目标虚拟对象306-2在全局地图304中的显示位置,以及获取目标虚拟对象306-1与目标虚拟对象306-2的各项属性与技能状态,将获取到的上述全局地图中的显示位置与局部地图中的显示位置与各项属性与技能状态整合得到目标特征组合。将目标特征组合输入到神经网络模型中后,由神经网络模型输出结果,输出结果用于控制目标虚拟对象306-1执行相应的动作,或者控制目标虚拟对象306-2执行相应的动作。
通过本实施例,通过获取客户端当前显示的虚拟场景中的目标画面帧,从而根据目标画面帧获取到局部对象特征与全局对象特征与对象属性特征,从而可以准确获取局部对象特征与全局对象特征与对象属性特征,提高了真核得到的目标特征组合的准确性。
作为一种可选的实施方案,根据局部帧画面提取出目标虚拟对象的局部对象特征包括:
遍历目标虚拟对象中与局部帧画面关联的子虚拟对象,依次执行以下步骤:
S1,获取当前子虚拟对象所属的对象类型及子虚拟对象的对象标识;
S2,根据对象类型及对象标识,确定为当前子虚拟对象配置的第一特征通道;
S3,在第一特征通道中标识出用于指示当前子虚拟对象在局部帧画面中的显示位置的第一目标二维特征,并将第一目标二维特征作为在局部对象特征中与当前子虚拟对象对应的局部特征元素;
S4,获取下一个子虚拟对象作为当前子虚拟对象;
S5,利用与目标虚拟对象中所包含的子虚拟对象分别对应的二维特征,确定局部对象特征。
可选地,不同的目标虚拟对象可以具备不同的对象类型。例如,以MOBA游戏为例,英雄与小兵、防御塔、野怪、水晶、炮车等分别对应不同的对象类型。例如,以不同的颜色或者不同的标记标识不同的对象类型。根据游戏中的当前虚拟对象的类型,确定当前虚拟对象在局部视角中的位置。
例如如图4所示,图4中的402-1、402-2、402-3与402-4为局部视角得到的局部帧画面。将局部视角所得到的局部帧画面进行分割,分割成多个小正方形。对敌方英雄、小兵塔怪野怪(兵塔野)、我方英雄与技能设置不同的标识,在局部帧画面上进行标注。在标注后,则获取到当前视角下的目标虚拟对象的当前位置。将当前视角下的目标虚拟对象的当前位置作为局部对象特征。
通过本实施例,通过上述方法,根据不同的对象标识与对象类型确定目标虚拟对象的局部特征元素,从而提高了获取到的局部特征元素的准确性,进一步提高了获取目标特征组合的准确性。
作为一种可选的实施方案,根据全局地图提取出目标虚拟对象的全局对象特征包括:
遍历目标虚拟对象中与全局地图关联的子虚拟对象,依次执行以下步骤:
S1,获取当前子虚拟对象所属的对象类型及子虚拟对象的对象标识;
S2,根据对象类型及对象标识,确定为当前子虚拟对象配置的第二特征通道;
S3,在第二特征通道中标识出用于指示当前子虚拟对象在全局地图中的显示位置的第二目标二维特征,并将第二目标二维特征作为在全局对象特征中与当前子虚拟对象对应的全局特征元素;
S4,获取下一个子虚拟对象作为当前子虚拟对象;
S5,利用与目标虚拟对象中所包含的子虚拟对象分别对应的二维特征,确定全局对象特征。
可选地,不同的目标虚拟对象可以具备不同的对象类型。例如,以MOBA游戏为例,英雄与小兵、防御塔、野怪、水晶、炮车等分别对应不同的对象类型。例如,以不同的颜色或者不同的标记标识不同的对象类型。根据游戏中的当前虚拟对象的类型,确定当前虚拟对象在局部视角中的位置。
例如如图5所示,图5中的502-1、502-2、502-3为根据全局视角得到的全局地图。将全局视角所得到的全局地图进行分割,分割成多个小正方形。对敌方英雄、小兵塔怪野怪(兵塔野)、我方英雄设置不同的标识,在局部帧画面上进行标注。在标注后,则获取到全局视角下的所有目标虚拟对象的当前位置。将全局视角下的目标虚拟对象的当前位置作为全局对象特征。
通过本实施例,通过上述方法,根据不同的对象标识与对象类型确定目标虚拟对象的全局特征元素,从而提高了获取到的全局特征元素的准确性,进一步提高了获取目标特征组合的准确性。
作为一种可选的实施方案,根据目标画面帧中目标虚拟对象的当前属性状态提取出目标虚拟对象的对象属性特征包括:
S1,从目标虚拟对象中确定出受第一账号控制的关键虚拟角色对象,及受虚拟场景中第二账号控制的非关键虚拟角色对象,其中,非关键虚拟角色对象中包括与关键虚拟角色对象属于同一阵营的第一类角色对象,及与关键虚拟角色对象属于不同阵营的第二类角色对象;
S2,获取关键虚拟角色对象与非关键虚拟角色对象的基本属性状态,作为在对象属性特征中的第一属性特征元素;
S3,获取用于指示关键虚拟角色对象在预定时间段内在虚拟场景中将要产生的交互动作的交互属性状态,作为在对象属性特征中的第二属性特征元素;
S4,对第一属性特征元素及第二属性特征元素拼接,得到对象属性特征。
可选地,上述第一属性特征元素与第二属性特征元素可以但不限于为游戏中角色的血量、攻击力、防御力、技能属性等属性。
可选地,上述第一账号控制的关键虚拟角色对象与第二账号控制的非关键虚拟角色对象可以但不限于为游戏的虚拟场景中的游戏角色。例如,在一场MOBA游戏中,共有十名游戏角色,其中,五名游戏角色为一个团队,另外五名游戏角色为另一个团队,两个团队进行对抗。获取两个团队中的每一个游戏角色的血量、攻击力、防御力、技能属性等,并将所有的属性特征元素拼接,得到对象属性特征。
通过本实施例,通过上述方法,从而可以获取到所有的目标虚拟对象的对象属性特征,进一步提高了获取目标特征组合的准确性。
作为一种可选的实施方案,对局部对象特征,全局对象特征及对象属性特征按序进行整合,得到目标特征组合包括:
S1,按照目标顺序对局部对象特征中所包含的局部特征元素进行排序整合;
S2,按照目标顺序对全局对象特征中所包含的全局特征元素进行排序整合;
S3,按照目标顺序对对象属性特征中所包含的属性特征元素进行排序整合;
S4,将整合后的局部对象特征,整合后的全局对象特征及整合后的对象属性特征进行组合,得到目标特征组合。
可选地,可以但不限于为给每一个虚拟场景中的目标虚拟对象编号。例如,在一场MOBA游戏中,为游戏中的每一个游戏角色编号,则每一个游戏角色对应一个游戏编号。在根据局部视角的局部图像帧获取到游戏角色在局部图像帧上的位置后,将所有的游戏角色在局部图像帧上的位置根据游戏角色的编号进行排序整合,同时,将所有的游戏角色在全局图像帧上的位置根据游戏角色的编号进行排序整合,以及将所有的游戏角色的对象属性特征进行排序整合。则整合后的局部位置、全局位置与属性特征根据游戏角色的编号对应。
通过本实施例,通过按照目标顺序对局部特征元素、全局特征元素与属性特征元素进行排序整合,从而可以根据排序得到目标特征组合,在保证了获取目标特征组合的准确性的同时,提高了获取目标特征组合的效率。
作为一种可选的实施方案,在对局部对象特征,全局对象特征及对象属性特征按序进行整合,得到目标特征组合之前,还包括:
S1,对局部对象特征中所包含的局部特征元素,全局对象特征中所包含的全局特征元素及对象属性特征中所包含的属性特征元素进行归一化处理。
例如,如图6所示,在虚拟场景中,通过步骤S602获取对象属性特征,如生命值、攻击力、技能等,将获取到的对象属性特征输入到归一化模块中。同时,通过步骤S604,将虚拟场景中的目标虚拟对象的位置信息输入到全局视角与局部视角中,得到局部对象特征与全局对象特征,并将局部对象特征与全局对象特征输入到归一化模块中。由归一化模块对局部对象特征、全局对象特征与对象属性特征进行归一化处理。然后将处理后的局部对象特征、全局对象特征与对象属性特征发送给特征排序模块,由特征排序模块对局部对象特征、全局对象特征与对象属性特征进行排序,并由特征拼接模块对排序后的局部对象特征、全局对象特征与对象属性特征进行拼接,得到目标特征组合。
通过本实施例,通过对局部对象特征中所包含的局部特征元素,全局对象特征中所包含的全局特征元素及对象属性特征中所包含的属性特征元素进行归一化处理,从而提高了获取目标特征组合的准确性。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
根据本发明实施例的另一个方面,还提供了一种用于实施上述特征整合方法的特征整合装置。如图7所示,该装置包括:
(1)确定单元702,用于从使用第一账号的客户端所显示的虚拟场景中确定出待处理的目标虚拟对象;
(2)提取单元704,用于从虚拟场景中提取出目标虚拟对象的局部对象特征,目标虚拟对象的全局对象特征及目标虚拟对象的对象属性特征,其中,局部对象特征用于指示在与第一账号对应的局部显示视角下,目标虚拟对象在虚拟场景中当前所显示的局部帧画面中的显示位置;全局对象特征用于指示在全局显示视角下,目标虚拟对象在虚拟场景中的显示位置;对象属性特征用于指示目标虚拟对象在虚拟场景中的属性状态;
(3)整合单元706,用于对局部对象特征,全局对象特征及对象属性特征分别按序进行整合,得到目标特征组合,其中,目标特征组合用于输入与虚拟场景对应的神经网络模型,以确定目标虚拟对象在虚拟场景中的执行动作。
可选地,上述特征整合装置可以但不限于应用于任何携带有全局地图与局部地图的游戏中,例如多人在线战术竞技游戏(Multiplayer Online Battle Arena,简称为MOBA)中,或者射击游戏(Shooter game,简称为STG),或者角色扮演游戏(Role-playering game,简称为RPG)游戏中等。上述游戏可以但不限于为三维游戏(使用空间立体计算技术实现操作的游戏)或者二维游戏(使用二维交互式动画实现的游戏)。
以将上述特征整合方法应用于三维MOBA中为例,三维MOBA中存在目标虚拟对象,提取目标虚拟对象的局部对象特征、全局对象特征与对象属性特征并整合得到目标特征组合,由神经网络模型对目标特征组合进行分析以提供目标虚拟对象接下来所要执行的动作。
可选地,上述目标虚拟对象可以但不限于为虚拟场景中的任意对象,例如,在MOBA中上述目标虚拟对象可以但不限于为英雄、野怪、防御塔、水晶、小兵或炮车等游戏元素,在STG中上述目标虚拟对象可以但不限于为游戏中的角色或人质或敌人等游戏元素,在RPG中上述目标虚拟对象可以但不限于为游戏中的角色或小怪或BOSS或中立势力等游戏元素。
例如,以上述目标虚拟对象为RPG游戏中的角色、小怪、BOSS为例,获取RPG游戏中的角色、小怪、BOSS的全局对象特征与局部对象特征与对象属性特征,整合得到目标特征组合并将目标特征组合输入到神经网络模型中,由神经网络模型决定游戏中的角色、小怪、BOSS的下一步动作。例如,控制小怪下一刻攻击角色,或者控制角色下一刻躲闪等。
或者,以上述目标虚拟对象为MOBA游戏中的英雄和野怪和防御塔和小兵和炮车为例,获取MOBA游戏中的英雄和野怪和防御塔和小兵和炮车在当前视角下的位置和在全局视角下的位置与MOBA游戏中的英雄和野怪和防御塔和小兵和炮车的对象属性特征,并根据上述当前视角下的位置和全局视角下的位置与对象属性特征整合得到目标特征组合,将目标特征组合输入到神经网络模型中,由神经网络模型输出MOBA游戏中的英雄、野怪、防御塔、小兵、炮车所要执行的动作。例如,控制英雄放技能,向某处移动,支援队友,控制小兵加快移动速度,控制防御塔加快攻击速度,增强属性等(在多数MOBA游戏中,小兵、炮车、防御塔、野怪等由一套固定逻辑控制,在此情况下,神经网络模型输出的控制指令优先级可以高于固定逻辑,也可以低于固定逻辑。在神经网络模型输出的控制指令优先级低于固定逻辑时,小兵、炮车、防御塔、野怪等继续由固定逻辑控制)。
需要说明的是,相关技术中,在从样本对象中提取样本特征时,往往只能通过较为单一的特征整合方式来进行特征表达,从而造成特征整合的结果不准确。而本实施例中,由于在确定出目标虚拟对象之后,从虚拟场景中提取出目标虚拟对象的局部对象特征、目标对象的全局对象特征与目标对象在虚拟场景中的属性状态,进而可以根据上述局部对象特征、全局对象特征与属性状态来确定目标特征组合,从而可以通过较为准确的方式整合特征,实现了提高特征整合的准确性的目的。
可选地,在确定第一账号的客户端所显示的虚拟场景中确定目标虚拟对象时,可以但不限于接收第一账号的客户端所显示的虚拟场景的视频画面或者帧画面。若获取到上述视频画面,则将视频画面分割成多个帧画面进行处理。在获取到帧画面之后,针对每一个帧画面,提取目标虚拟对象在帧画面中的显示位置,并提取目标虚拟对象在全局显示视角(大地图)中的显示位置,并获取目标虚拟对象的对象属性特征,从而整合得到目标特征组合。
可选地,在获取到目标特征组合之后,可以但不限于将获取到的目标特征组合作为样本数据对神经网络模型进行训练,从而得到成熟的神经网络模型,或者将目标特征组合输入到已经成熟的神经网络模型中,以由神经网络模型输出目标虚拟对象所要执行的动作。
作为一种可选的实施方案,上述提取单元包括:
(1)确定模块,用于确定客户端当前所显示的虚拟场景中的目标画面帧,其中,目标画面帧中包括在与第一账号对应的局部显示视角下的虚拟场景中的局部帧画面,及全局显示视角下虚拟场景的全局地图;
(2)第一提取模块,用于根据局部帧画面提取出目标虚拟对象的局部对象特征,并根据全局地图提取出目标虚拟对象的全局对象特征;
(3)第二提取模块,用于根据目标画面帧中目标虚拟对象的当前属性状态提取出目标虚拟对象的对象属性特征。
可选地,上述目标帧画面可以但不限于为一帧或者几帧的帧画面,上述局部显示视角可以但不限于为游戏中的当前视角,当前视角所得到的画面为局部帧画面,上述全局显示视角为上帝视角。上帝视角所得到的画面为全局地图。
可选地,上述对象属性特征可以但不限于为目标虚拟对象在游戏中的各项属性,如攻击力、移动速度、防御力、生命、法力值、技能状态等等。
例如,以MOBA游戏为例,如图3所示,图3为一种可选的一帧当前显示的虚拟场景中的目标画面。目标画面中包含有两个目标虚拟对象,分别是目标虚拟对象306-1与目标虚拟对象306-2。获取目标虚拟对象306-1与目标虚拟对象306-2在当前视角302中的显示位置,并获取目标虚拟对象306-1与目标虚拟对象306-2在全局地图304中的显示位置,以及获取目标虚拟对象306-1与目标虚拟对象306-2的各项属性与技能状态,将获取到的上述全局地图中的显示位置与局部地图中的显示位置与各项属性与技能状态整合得到目标特征组合。将目标特征组合输入到神经网络模型中后,由神经网络模型输出结果,输出结果用于控制目标虚拟对象306-1执行相应的动作,或者控制目标虚拟对象306-2执行相应的动作。
通过本实施例,通过获取客户端当前显示的虚拟场景中的目标画面帧,从而根据目标画面帧获取到局部对象特征与全局对象特征与对象属性特征,从而可以准确获取局部对象特征与全局对象特征与对象属性特征,提高了真核得到的目标特征组合的准确性。
作为一种可选的实施方案,上述第一提取模块包括:
(1)第一处理子模块,用于遍历目标虚拟对象中与局部帧画面关联的子虚拟对象,依次执行以下步骤:
获取当前子虚拟对象所属的对象类型及子虚拟对象的对象标识;
根据对象类型及对象标识,确定为当前子虚拟对象配置的第一特征通道;
在第一特征通道中标识出用于指示当前子虚拟对象在局部帧画面中的显示位置的第一目标二维特征,并将第一目标二维特征作为在局部对象特征中与当前子虚拟对象对应的局部特征元素;
获取下一个子虚拟对象作为当前子虚拟对象;
利用与目标虚拟对象中所包含的子虚拟对象分别对应的二维特征,确定局部对象特征。
可选地,不同的目标虚拟对象可以具备不同的对象类型。例如,以MOBA游戏为例,英雄与小兵、防御塔、野怪、水晶、炮车等分别对应不同的对象类型。例如,以不同的颜色或者不同的标记标识不同的对象类型。根据游戏中的当前虚拟对象的类型,确定当前虚拟对象在局部视角中的位置。
例如如图4所示,图4中的402-1、402-2、402-3与402-4为局部视角得到的局部帧画面。将局部视角所得到的局部帧画面进行分割,分割成多个小正方形。对敌方英雄、小兵塔怪野怪(兵塔野)、我方英雄与技能设置不同的标识,在局部帧画面上进行标注。在标注后,则获取到当前视角下的目标虚拟对象的当前位置。将当前视角下的目标虚拟对象的当前位置作为局部对象特征。
通过本实施例,通过上述方法,根据不同的对象标识与对象类型确定目标虚拟对象的局部特征元素,从而提高了获取到的局部特征元素的准确性,进一步提高了获取目标特征组合的准确性。
作为一种可选的实施方案,上述第一提取模块包括:
(1)第二处理子模块,用于遍历目标虚拟对象中与全局地图关联的子虚拟对象,依次执行以下步骤:
获取当前子虚拟对象所属的对象类型及子虚拟对象的对象标识;
根据对象类型及对象标识,确定为当前子虚拟对象配置的第二特征通道;
在第二特征通道中标识出用于指示当前子虚拟对象在全局地图中的显示位置的第二目标二维特征,并将第二目标二维特征作为在全局对象特征中与当前子虚拟对象对应的全局特征元素;
获取下一个子虚拟对象作为当前子虚拟对象;
利用与目标虚拟对象中所包含的子虚拟对象分别对应的二维特征,确定全局对象特征。
可选地,不同的目标虚拟对象可以具备不同的对象类型。例如,以MOBA游戏为例,英雄与小兵、防御塔、野怪、水晶、炮车等分别对应不同的对象类型。例如,以不同的颜色或者不同的标记标识不同的对象类型。根据游戏中的当前虚拟对象的类型,确定当前虚拟对象在局部视角中的位置。
例如如图5所示,图5中的502-1、502-2、502-3为根据全局视角得到的全局地图。将全局视角所得到的全局地图进行分割,分割成多个小正方形。对敌方英雄、小兵塔怪野怪(兵塔野)、我方英雄设置不同的标识,在局部帧画面上进行标注。在标注后,则获取到全局视角下的所有目标虚拟对象的当前位置。将全局视角下的目标虚拟对象的当前位置作为全局对象特征。
通过本实施例,通过上述方法,根据不同的对象标识与对象类型确定目标虚拟对象的全局特征元素,从而提高了获取到的全局特征元素的准确性,进一步提高了获取目标特征组合的准确性。
作为一种可选的实施方案,上述第二提取模块包括:
(1)确定子模块,用于从目标虚拟对象中确定出受第一账号控制的关键虚拟角色对象,及受虚拟场景中第二账号控制的非关键虚拟角色对象,其中,非关键虚拟角色对象中包括与关键虚拟角色对象属于同一阵营的第一类角色对象,及与关键虚拟角色对象属于不同阵营的第二类角色对象;
(2)第一获取子模块,用于获取关键虚拟角色对象与非关键虚拟角色对象的基本属性状态,作为在对象属性特征中的第一属性特征元素;
(3)第二获取子模块,用于获取用于指示关键虚拟角色对象在预定时间段内在虚拟场景中将要产生的交互动作的交互属性状态,作为在对象属性特征中的第二属性特征元素;
(4)拼接子模块,用于对第一属性特征元素及第二属性特征元素拼接,得到对象属性特征。
可选地,上述第一属性特征元素与第二属性特征元素可以但不限于为游戏中角色的血量、攻击力、防御力、技能属性等属性。
可选地,上述第一账号控制的关键虚拟角色对象与第二账号控制的非关键虚拟角色对象可以但不限于为游戏的虚拟场景中的游戏角色。例如,在一场MOBA游戏中,共有十名游戏角色,其中,五名游戏角色为一个团队,另外五名游戏角色为另一个团队,两个团队进行对抗。获取两个团队中的每一个游戏角色的血量、攻击力、防御力、技能属性等,并将所有的属性特征元素拼接,得到对象属性特征。
通过本实施例,通过上述方法,从而可以获取到所有的目标虚拟对象的对象属性特征,进一步提高了获取目标特征组合的准确性。
作为一种可选的实施方案,上述整合单元包括:
(1)第一排序模块,用于按照目标顺序对局部对象特征中所包含的局部特征元素进行排序整合;
(2)第二排序模块,用于按照目标顺序对全局对象特征中所包含的全局特征元素进行排序整合;
(3)第三排序模块,用于按照目标顺序对对象属性特征中所包含的属性特征元素进行排序整合;
(4)组合模块,用于将整合后的局部对象特征,整合后的全局对象特征及整合后的对象属性特征进行组合,得到目标特征组合。
可选地,可以但不限于为给每一个虚拟场景中的目标虚拟对象编号。例如,在一场MOBA游戏中,为游戏中的每一个游戏角色编号,则每一个游戏角色对应一个游戏编号。在根据局部视角的局部图像帧获取到游戏角色在局部图像帧上的位置后,将所有的游戏角色在局部图像帧上的位置根据游戏角色的编号进行排序整合,同时,将所有的游戏角色在全局图像帧上的位置根据游戏角色的编号进行排序整合,以及将所有的游戏角色的对象属性特征进行排序整合。则整合后的局部位置、全局位置与属性特征根据游戏角色的编号对应。
通过本实施例,通过按照目标顺序对局部特征元素、全局特征元素与属性特征元素进行排序整合,从而可以根据排序得到目标特征组合,在保证了获取目标特征组合的准确性的同时,提高了获取目标特征组合的效率。
作为一种可选的实施方案,在对局部对象特征,整合单元还包括:
(1)处理模块,用于在对局部对象特征、全局对象特征及对象属性特征按序进行整合,得到目标特征组合之前,对局部对象特征中所包含的局部特征元素,全局对象特征中所包含的全局特征元素及对象属性特征中所包含的属性特征元素进行归一化处理。
例如,如图6所示,在虚拟场景中,通过步骤S602获取对象属性特征,如生命值、攻击力、技能等,将获取到的对象属性特征输入到归一化模块中。同时,通过步骤S604,将虚拟场景中的目标虚拟对象的位置信息输入到全局视角与局部视角中,得到局部对象特征与全局对象特征,并将局部对象特征与全局对象特征输入到归一化模块中。由归一化模块对局部对象特征、全局对象特征与对象属性特征进行归一化处理。然后将处理后的局部对象特征、全局对象特征与对象属性特征发送给特征排序模块,由特征排序模块对局部对象特征、全局对象特征与对象属性特征进行排序,并由特征拼接模块对排序后的局部对象特征、全局对象特征与对象属性特征进行拼接,得到目标特征组合。
通过本实施例,通过对局部对象特征中所包含的局部特征元素,全局对象特征中所包含的全局特征元素及对象属性特征中所包含的属性特征元素进行归一化处理,从而提高了获取目标特征组合的准确性。
根据本发明实施例的又一个方面,还提供了一种用于实施上述信息自助处理方法的电子装置,如图8所示,该电子装置包括存储器802和处理器804,该存储器802中存储有计算机程序,该处理器804被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子装置可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,从使用第一账号的客户端所显示的虚拟场景中确定出待处理的目标虚拟对象;
S2,从虚拟场景中提取出目标虚拟对象的局部对象特征,目标虚拟对象的全局对象特征及目标虚拟对象的对象属性特征,其中,局部对象特征用于指示在与第一账号对应的局部显示视角下,目标虚拟对象在虚拟场景中当前所显示的局部帧画面中的显示位置;全局对象特征用于指示在全局显示视角下,目标虚拟对象在虚拟场景中的显示位置;对象属性特征用于指示目标虚拟对象在虚拟场景中的属性状态;
S3,对局部对象特征,全局对象特征及对象属性特征分别按序进行整合,得到目标特征组合,其中,目标特征组合用于输入与虚拟场景对应的神经网络模型,以确定目标虚拟对象在虚拟场景中的执行动作。
可选地,本领域普通技术人员可以理解,图8所示的结构仅为示意,电子装置也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图8其并不对上述电子装置的结构造成限定。例如,电子装置还可包括比图8中所示更多或者更少的组件(如网络接口等),或者具有与图8所示不同的配置。
其中,存储器802可用于存储软件程序以及模块,如本发明实施例中的特征整合方法和装置对应的程序指令/模块,处理器804通过运行存储在存储器802内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的特征整合方法。存储器802可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器802可进一步包括相对于处理器804远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器802具体可以但不限于用于存储局部对象特征、全局对象特征、对象属性特征等信息。作为一种示例,如图8所示,上述存储器802中可以但不限于包括上述特征整合装置中的确定单元702、提取单元704、整合单元706。此外,还可以包括但不限于上述特征整合装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置806用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置806包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置806为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子装置还包括:显示器808,用于显示上述虚拟场景;和连接总线810,用于连接上述电子装置中的各个模块部件。
根据本发明的实施例的又一方面,还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,从使用第一账号的客户端所显示的虚拟场景中确定出待处理的目标虚拟对象;
S2,从虚拟场景中提取出目标虚拟对象的局部对象特征,目标虚拟对象的全局对象特征及目标虚拟对象的对象属性特征,其中,局部对象特征用于指示在与第一账号对应的局部显示视角下,目标虚拟对象在虚拟场景中当前所显示的局部帧画面中的显示位置;全局对象特征用于指示在全局显示视角下,目标虚拟对象在虚拟场景中的显示位置;对象属性特征用于指示目标虚拟对象在虚拟场景中的属性状态;
S3,对局部对象特征,全局对象特征及对象属性特征分别按序进行整合,得到目标特征组合,其中,目标特征组合用于输入与虚拟场景对应的神经网络模型,以确定目标虚拟对象在虚拟场景中的执行动作。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (15)
1.一种特征整合方法,其特征在于,包括:
从使用第一账号的客户端所显示的虚拟场景中确定出待处理的目标虚拟对象;
从所述虚拟场景中提取出所述目标虚拟对象的局部对象特征,所述目标虚拟对象的全局对象特征及所述目标虚拟对象的对象属性特征,其中,所述局部对象特征用于指示在与所述第一账号对应的局部显示视角下,所述目标虚拟对象在所述虚拟场景中当前所显示的局部帧画面中的显示位置;所述全局对象特征用于指示在全局显示视角下,所述目标虚拟对象在所述虚拟场景中的显示位置;所述对象属性特征用于指示所述目标虚拟对象在所述虚拟场景中的属性状态;
对所述局部对象特征,所述全局对象特征及所述对象属性特征分别按序进行整合,得到目标特征组合,其中,所述目标特征组合用于输入与所述虚拟场景对应的神经网络模型,以确定所述目标虚拟对象在所述虚拟场景中的执行动作。
2.根据权利要求1所述的方法,其特征在于,从所述虚拟场景中提取出所述目标虚拟对象的局部对象特征,所述目标虚拟对象的全局对象特征及所述目标虚拟对象的对象属性特征包括:
确定所述客户端当前所显示的所述虚拟场景中的目标画面帧,其中,所述目标画面帧中包括在与所述第一账号对应的所述局部显示视角下的所述虚拟场景中的所述局部帧画面,及所述全局显示视角下所述虚拟场景的全局地图;
根据所述局部帧画面提取出所述目标虚拟对象的所述局部对象特征,并根据所述全局地图提取出所述目标虚拟对象的所述全局对象特征;
根据所述目标画面帧中所述目标虚拟对象的当前属性状态提取出所述目标虚拟对象的所述对象属性特征。
3.根据权利要求2所述的方法,其特征在于,所述根据所述局部帧画面提取出所述目标虚拟对象的所述局部对象特征包括:
遍历所述目标虚拟对象中与所述局部帧画面关联的子虚拟对象,依次执行以下步骤:
获取当前子虚拟对象所属的对象类型及所述子虚拟对象的对象标识;
根据所述对象类型及所述对象标识,确定为所述当前子虚拟对象配置的第一特征通道;
在所述第一特征通道中标识出用于指示所述当前子虚拟对象在所述局部帧画面中的显示位置的第一目标二维特征,并将所述第一目标二维特征作为在所述局部对象特征中与所述当前子虚拟对象对应的局部特征元素;
获取下一个子虚拟对象作为所述当前子虚拟对象;
利用与所述目标虚拟对象中所包含的子虚拟对象分别对应的二维特征,确定所述局部对象特征。
4.根据权利要求2所述的方法,其特征在于,所述根据所述全局地图提取出所述目标虚拟对象的所述全局对象特征包括:
遍历所述目标虚拟对象中与所述全局地图关联的子虚拟对象,依次执行以下步骤:
获取当前子虚拟对象所属的对象类型及所述子虚拟对象的对象标识;
根据所述对象类型及所述对象标识,确定为所述当前子虚拟对象配置的第二特征通道;
在所述第二特征通道中标识出用于指示所述当前子虚拟对象在所述全局地图中的显示位置的第二目标二维特征,并将所述第二目标二维特征作为在所述全局对象特征中与所述当前子虚拟对象对应的全局特征元素;
获取下一个子虚拟对象作为所述当前子虚拟对象;
利用与所述目标虚拟对象中所包含的子虚拟对象分别对应的二维特征,确定所述全局对象特征。
5.根据权利要求2所述的方法,其特征在于,所述根据所述目标画面帧中所述目标虚拟对象的当前属性状态提取出所述目标虚拟对象的所述对象属性特征包括:
从所述目标虚拟对象中确定出受所述第一账号控制的关键虚拟角色对象,及受所述虚拟场景中第二账号控制的非关键虚拟角色对象,其中,所述非关键虚拟角色对象中包括与所述关键虚拟角色对象属于同一阵营的第一类角色对象,及与所述关键虚拟角色对象属于不同阵营的第二类角色对象;
获取所述关键虚拟角色对象与所述非关键虚拟角色对象的基本属性状态,作为在所述对象属性特征中的第一属性特征元素;
获取用于指示所述关键虚拟角色对象在预定时间段内在所述虚拟场景中将要产生的交互动作的交互属性状态,作为在所述对象属性特征中的第二属性特征元素;
对所述第一属性特征元素及所述第二属性特征元素拼接,得到所述对象属性特征。
6.根据权利要求1所述的方法,其特征在于,所述对所述局部对象特征,所述全局对象特征及所述对象属性特征按序进行整合,得到目标特征组合包括:
按照目标顺序对所述局部对象特征中所包含的局部特征元素进行排序整合;
按照所述目标顺序对所述全局对象特征中所包含的全局特征元素进行排序整合;
按照所述目标顺序对所述对象属性特征中所包含的属性特征元素进行排序整合;
将整合后的所述局部对象特征,整合后的所述全局对象特征及整合后的所述对象属性特征进行组合,得到所述目标特征组合。
7.根据权利要求6所述的方法,其特征在于,在所述对所述局部对象特征,所述全局对象特征及所述对象属性特征按序进行整合,得到目标特征组合之前,还包括:
对所述局部对象特征中所包含的所述局部特征元素,所述全局对象特征中所包含的全局特征元素及所述对象属性特征中所包含的属性特征元素进行归一化处理。
8.一种特征整合装置,其特征在于,包括:
确定单元,用于从使用第一账号的客户端所显示的虚拟场景中确定出待处理的目标虚拟对象;
提取单元,用于从所述虚拟场景中提取出所述目标虚拟对象的局部对象特征,所述目标虚拟对象的全局对象特征及所述目标虚拟对象的对象属性特征,其中,所述局部对象特征用于指示在与所述第一账号对应的局部显示视角下,所述目标虚拟对象在所述虚拟场景中当前所显示的局部帧画面中的显示位置;所述全局对象特征用于指示在全局显示视角下,所述目标虚拟对象在所述虚拟场景中的显示位置;所述对象属性特征用于指示所述目标虚拟对象在所述虚拟场景中的属性状态;
整合单元,用于对所述局部对象特征,所述全局对象特征及所述对象属性特征分别按序进行整合,得到目标特征组合,其中,所述目标特征组合用于输入与所述虚拟场景对应的神经网络模型,以确定所述目标虚拟对象在所述虚拟场景中的执行动作。
9.根据权利要求8所述的装置,其特征在于,所述提取单元包括:
确定模块,用于确定所述客户端当前所显示的所述虚拟场景中的目标画面帧,其中,所述目标画面帧中包括在与所述第一账号对应的所述局部显示视角下的所述虚拟场景中的所述局部帧画面,及所述全局显示视角下所述虚拟场景的全局地图;
第一提取模块,用于根据所述局部帧画面提取出所述目标虚拟对象的所述局部对象特征,并根据所述全局地图提取出所述目标虚拟对象的所述全局对象特征;
第二提取模块,用于根据所述目标画面帧中所述目标虚拟对象的当前属性状态提取出所述目标虚拟对象的所述对象属性特征。
10.根据权利要求9所述的装置,其特征在于,所述第一提取模块包括:
第一处理子模块,用于遍历所述目标虚拟对象中与所述局部帧画面关联的子虚拟对象,依次执行以下步骤:
获取当前子虚拟对象所属的对象类型及所述子虚拟对象的对象标识;
根据所述对象类型及所述对象标识,确定为所述当前子虚拟对象配置的第一特征通道;
在所述第一特征通道中标识出用于指示所述当前子虚拟对象在所述局部帧画面中的显示位置的第一目标二维特征,并将所述第一目标二维特征作为在所述局部对象特征中与所述当前子虚拟对象对应的局部特征元素;
获取下一个子虚拟对象作为所述当前子虚拟对象;
利用与所述目标虚拟对象中所包含的子虚拟对象分别对应的二维特征,确定所述局部对象特征。
11.根据权利要求9所述的装置,其特征在于,所述第一提取模块包括:
第二处理子模块,用于遍历所述目标虚拟对象中与所述全局地图关联的子虚拟对象,依次执行以下步骤:
获取当前子虚拟对象所属的对象类型及所述子虚拟对象的对象标识;
根据所述对象类型及所述对象标识,确定为所述当前子虚拟对象配置的第二特征通道;
在所述第二特征通道中标识出用于指示所述当前子虚拟对象在所述全局地图中的显示位置的第二目标二维特征,并将所述第二目标二维特征作为在所述全局对象特征中与所述当前子虚拟对象对应的全局特征元素;
获取下一个子虚拟对象作为所述当前子虚拟对象;
利用与所述目标虚拟对象中所包含的子虚拟对象分别对应的二维特征,确定所述全局对象特征。
12.根据权利要求9所述的装置,其特征在于,所述第二提取模块包括:
确定子模块,用于从所述目标虚拟对象中确定出受所述第一账号控制的关键虚拟角色对象,及受所述虚拟场景中第二账号控制的非关键虚拟角色对象,其中,所述非关键虚拟角色对象中包括与所述关键虚拟角色对象属于同一阵营的第一类角色对象,及与所述关键虚拟角色对象属于不同阵营的第二类角色对象;
第一获取子模块,用于获取所述关键虚拟角色对象与所述非关键虚拟角色对象的基本属性状态,作为在所述对象属性特征中的第一属性特征元素;
第二获取子模块,用于获取用于指示所述关键虚拟角色对象在预定时间段内在所述虚拟场景中将要产生的交互动作的交互属性状态,作为在所述对象属性特征中的第二属性特征元素;
拼接子模块,用于对所述第一属性特征元素及所述第二属性特征元素拼接,得到所述对象属性特征。
13.根据权利要求8所述的装置,其特征在于,所述整合单元包括:
第一排序模块,用于按照目标顺序对所述局部对象特征中所包含的局部特征元素进行排序整合;
第二排序模块,用于按照所述目标顺序对所述全局对象特征中所包含的全局特征元素进行排序整合;
第三排序模块,用于按照所述目标顺序对所述对象属性特征中所包含的属性特征元素进行排序整合;
组合模块,用于将整合后的所述局部对象特征,整合后的所述全局对象特征及整合后的所述对象属性特征进行组合,得到所述目标特征组合。
14.根据权利要求13所述的装置,其特征在于,所述整合单元还包括:
处理模块,用于在所述对所述局部对象特征,所述全局对象特征及所述对象属性特征按序进行整合,得到目标特征组合之前,对所述局部对象特征中所包含的所述局部特征元素,所述全局对象特征中所包含的全局特征元素及所述对象属性特征中所包含的属性特征元素进行归一化处理。
15.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至7任一项中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811354294.2A CN109529358B (zh) | 2018-11-14 | 2018-11-14 | 特征整合方法和装置及电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811354294.2A CN109529358B (zh) | 2018-11-14 | 2018-11-14 | 特征整合方法和装置及电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109529358A true CN109529358A (zh) | 2019-03-29 |
CN109529358B CN109529358B (zh) | 2021-12-07 |
Family
ID=65847460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811354294.2A Active CN109529358B (zh) | 2018-11-14 | 2018-11-14 | 特征整合方法和装置及电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109529358B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751218A (zh) * | 2019-10-22 | 2020-02-04 | Oppo广东移动通信有限公司 | 图像分类方法、图像分类装置及终端设备 |
CN111282279A (zh) * | 2020-02-05 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 模型训练的方法、基于交互式应用的对象控制方法及装置 |
CN112764649A (zh) * | 2021-01-29 | 2021-05-07 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050256895A1 (en) * | 2004-05-06 | 2005-11-17 | Valve Corporation | Method and system for serialization of hierarchically defined objects |
CN107833219A (zh) * | 2017-11-28 | 2018-03-23 | 腾讯科技(深圳)有限公司 | 图像识别方法及装置 |
CN108283809A (zh) * | 2018-02-11 | 2018-07-17 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN108434740A (zh) * | 2018-03-23 | 2018-08-24 | 腾讯科技(深圳)有限公司 | 一种策略信息确定的方法及装置 |
CN108491930A (zh) * | 2018-03-23 | 2018-09-04 | 腾讯科技(深圳)有限公司 | 一种样本数据的处理方法以及数据处理装置 |
-
2018
- 2018-11-14 CN CN201811354294.2A patent/CN109529358B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050256895A1 (en) * | 2004-05-06 | 2005-11-17 | Valve Corporation | Method and system for serialization of hierarchically defined objects |
CN107833219A (zh) * | 2017-11-28 | 2018-03-23 | 腾讯科技(深圳)有限公司 | 图像识别方法及装置 |
CN108283809A (zh) * | 2018-02-11 | 2018-07-17 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN108434740A (zh) * | 2018-03-23 | 2018-08-24 | 腾讯科技(深圳)有限公司 | 一种策略信息确定的方法及装置 |
CN108491930A (zh) * | 2018-03-23 | 2018-09-04 | 腾讯科技(深圳)有限公司 | 一种样本数据的处理方法以及数据处理装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751218A (zh) * | 2019-10-22 | 2020-02-04 | Oppo广东移动通信有限公司 | 图像分类方法、图像分类装置及终端设备 |
CN111282279A (zh) * | 2020-02-05 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 模型训练的方法、基于交互式应用的对象控制方法及装置 |
CN111282279B (zh) * | 2020-02-05 | 2021-05-07 | 腾讯科技(深圳)有限公司 | 模型训练的方法、基于交互式应用的对象控制方法及装置 |
CN112764649A (zh) * | 2021-01-29 | 2021-05-07 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109529358B (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109499068B (zh) | 对象的控制方法和装置、存储介质、电子装置 | |
CN108888958B (zh) | 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质 | |
CN109893857B (zh) | 一种操作信息预测的方法、模型训练的方法及相关装置 | |
JP5887458B1 (ja) | プレイヤの移動履歴に基づいてノンプレイヤキャラクタの経路探索を行うゲームシステム等 | |
CN108744512A (zh) | 信息提示方法和装置、存储介质及电子装置 | |
US11173401B1 (en) | Systems and methods for adjusting previously-made modifications of game assets based on changes in the ownership of tradeable items | |
CN112791394B (zh) | 游戏模型训练方法、装置、电子设备及存储介质 | |
CN109529358A (zh) | 特征整合方法和装置及电子装置 | |
CN111450534B (zh) | 一种标签预测模型的训练方法、标签预测的方法及装置 | |
CN110152304B (zh) | 获胜值的确定方法及装置、存储介质及电子装置 | |
CN112221152A (zh) | 人工智能ai模型的训练方法、装置、设备及介质 | |
CN105288998B (zh) | 智能硬件的交互方法及装置 | |
CN110170171A (zh) | 一种目标对象的控制方法及装置 | |
CN108310771A (zh) | 任务的执行方法和装置、存储介质、电子装置 | |
CN109993308A (zh) | 基于云平台共享学习系统及方法、共享平台及方法、介质 | |
US20230280873A1 (en) | Interface display method and apparatus, device, and storage medium | |
CN108211363B (zh) | 一种信息处理方法及装置 | |
CN111450531A (zh) | 虚拟角色控制方法、装置、电子设备以及存储介质 | |
CN111111203B (zh) | 一种机器人的训练方法及装置、技能释放方法及装置 | |
CN112138394A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN112742029A (zh) | 一种模拟操作的方法、游戏测试的方法以及相关装置 | |
CN113230650B (zh) | 一种数据处理方法、装置及计算机可读存储介质 | |
CN114404977A (zh) | 行为模型的训练方法、结构扩容模型的训练方法 | |
CN114272599A (zh) | 人工智能对象控制方法、装置、设备及存储介质 | |
CN110598853B (zh) | 一种模型训练的方法、信息处理的方法以及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |