CN109847357A - 一种行进路线的规划方法及装置 - Google Patents

一种行进路线的规划方法及装置 Download PDF

Info

Publication number
CN109847357A
CN109847357A CN201910241507.9A CN201910241507A CN109847357A CN 109847357 A CN109847357 A CN 109847357A CN 201910241507 A CN201910241507 A CN 201910241507A CN 109847357 A CN109847357 A CN 109847357A
Authority
CN
China
Prior art keywords
grid
income
travel zone
association
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201910241507.9A
Other languages
English (en)
Inventor
梁文韬
李涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Tianyan Technology Co Ltd
Original Assignee
Zhuhai Tianyan Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Tianyan Technology Co Ltd filed Critical Zhuhai Tianyan Technology Co Ltd
Priority to CN201910241507.9A priority Critical patent/CN109847357A/zh
Publication of CN109847357A publication Critical patent/CN109847357A/zh
Withdrawn legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请实施例涉及一种行进路线的规划方法及装置。方法包括:确定虚拟场景中目标对象的行进区域;对所述行进区域进行网格化处理,得到用于对所述目标对象进行路线规划的行进区域矩阵;根据所述行进区域矩阵,对所述目标对象进行动态的路线规划,得到至少一条候选行进路线;对每条候选行进路线的行进收益进行实时分析,确定所述目标对象针对所述行进区域的目标行进路线。本申请将目标对象的行进区域抽象成行进区域矩阵,并设定目标对象的实时速度对区域矩阵中的多条行进路线的行进收益实时分析,从而根据多条行进路线的行进收益,确定出目标对象针对行进区域的优选行进路线。

Description

一种行进路线的规划方法及装置
技术领域
本申请实施例涉及路线规划技术领域,尤其涉及一种行进路线的规划方法及装置。
背景技术
跑酷类游戏风靡全球,深受玩家的喜爱。跑酷类游戏顾名思义,需要玩家控制游戏对象在行进过程中躲避障碍和收集道具。目前尚不能智能规划跑酷类游戏的行进路线,从而无法基于程序对游戏进行自动化演示,使得游戏测试阶段,开发商需要投入大量的人力和时间参与试玩。此外,也无法在游戏中模拟虚拟玩家进行陪玩,使得玩家在单机环境下体验不到多人游戏的氛围。
有鉴于此,当前亟需一种能够智能规划跑酷类游戏的行进路线的方案。
发明内容
本申请实施例目的是提供一种针对跑酷类游戏的行进演示方法及装置,能够智能规划跑酷类游戏的行进路线。
为了实现上述目的,本申请实施例是这样实现的:
第一方面,提供一种行进演示方法,包括:
确定虚拟场景中目标对象的行进区域;
对所述行进区域进行网格化处理,得到用于对所述目标对象进行路线规划的行进区域矩阵;
根据所述行进区域矩阵,对所述目标对象进行动态的路线规划,得到至少一条候选行进路线;
对每条候选行进路线的行进收益进行实时分析,确定所述目标对象针对所述行进区域的目标行进路线。
第二方面,提供了一种行进路线规划装置,包括:
区域确定模块,用于确定虚拟场景中目标对象的行进区域;
矩阵处理模块,用于对所述行进区域进行网格化处理,得到用于对所述目标对象进行路线规划的行进区域矩阵;
路线规划模块,用于根据所述行进区域矩阵,对所述目标对象进行动态的路线规划,得到至少一条候选行进路线;
路线选择模块,用于对每条候选行进路线的行进收益进行实时分析,确定所述目标对象针对所述行进区域的目标行进路线。
本申请实施例的方案将目标对象的行进区域抽象成行进区域矩阵,并基于行进区域矩阵动态规划目标对象针对行进区域的候选行进路线,之后对各候选行进路线的行进收益进行分析,从中确定出符合预定策略的目标行进路线,以用于对游戏进行自动化演示。一方面,可以降低游戏测试阶段所需投入的人力和时间成本。另一方面,还可用于模拟虚拟玩家参与游戏,在单机环境中为玩家营造多人游戏的氛围。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的行进路线的规划方法的流程示意图。
图2为实际应用一中行进区域矩阵的示例图。
图3为实际应用一中关联网格集合在行进区域矩阵中的表征示意图。
图4为实际应用一中,网格的权重在行进区域矩阵中的表征示意图。
图5为实际应用一中行进路线在行进区域矩阵中的表征示意图。
图6为实际应用二中行进区域矩阵的示例图。
图7为实际应用二中关联网格集合在行进区域矩阵中的表征示意图。
图8为实际应用二中网格的权重在行进区域矩阵中的表征示意图。
图9为实际应用二中行进路线在行进区域矩阵中的表征示意图。
图10为本申请实施例提供的行进路线的规划装置的结构示意图。
图11为本申请实施例提供的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。应理解,在本发明的各种实施例中,下述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
如前所述,目前尚不能智能规划跑酷类游戏的行进路线,从而无法基于程序对游戏进行自动化演示。一方面,导致游戏测试阶段需要投入大量的人力资源参与试玩;另一方面,导致在游戏中无法模拟虚拟玩家进行陪玩,使得玩家在单机环境下体验不到多人游戏的氛围,针对这一问题,本申请实施例旨在提供一种能够智能规划跑酷类游戏的行进路线的技术方案。
一方面,本申请实施例提供一种行进路线的规划方法,如图1所示,包括:
步骤S102,确定虚拟场景中目标对象的行进区域。
其中,行进区域可以灵活设定,可以取决于目标对象的移动速度、周围环境等因素,本申请实施例对此不作具体限定。
步骤S104,对行进区域进行网格化处理,得到用于对目标对象进行路线规划的行进区域矩阵。
步骤S106,根据行进区域矩阵,对目标对象进行动态的路线规划,得到至少一条候选行进路线。
应理解,路线规划方式并不唯一,可以基于现有技术实现,本申请实施例对此不作具体限定。
步骤S108,对每条候选行进路线的行进收益进行实时分析,确定目标对象针对行进区域的目标行进路线。
应理解,每条候选行进路线的行进收益可以由虚拟场景对应的行进规则制定,本申请实施例不作具体限定。
在本步骤中,可以对各阶段的目标对象针对行进区域的候选行进路线的行进收益进行实时分析,确定各阶段的目标对象针对行进区域的目标行进路线。
通过图1所示的行进路线的规划方法可以知道,本申请实施例的方案将目标对象的行进区域抽象成行进区域矩阵,并基于行进区域矩阵动态规划目标对象针对行进区域的候选行进路线,之后对各候选行进路线的行进收益进行分析,从中确定出符合预定策略的目标行进路线,以用于对游戏进行自动化演示。一方面,可以降低游戏测试阶段所需投入的人力和时间成本。另一方面,还可用于模拟虚拟玩家参与游戏,在单机环境中为玩家营造多人游戏的氛围。
下面对行进路线的规划方法进行详细介绍。
本申请实施例的应用场景是控制虚拟场景中的目标对象进行行进演示。在行进演示过程中,本申请实施例的装置每次预读目标对象的当前行进区域,并规划目标对象针对当前行进区域的目标行进路线。在目标对象按照规划的目标行进路线完成当前行进区域的行进演示后,可以重新预读目标对象的当前行进区域,并按照上述方法继续规划的目标行进路线,直至完成行进演示。
其中,本申请实施例的方法规划一个行进区域的行进路线的流程主要包括:
步骤一,预读目标对象前方的行进区域。
应理解,预读得到的行进区域仅是行进演示的过程中的一部分区域。为了保证行进路线规划的准确性,预读的行进区域不宜过大,应与目标对象的行进速度、尺寸等信息相匹配。
步骤二,对所述行进区域进行网格化处理,得到用于对目标对象进行路线规划的行进区域矩阵。
具体地,可以将目标对象的行进方向作为行进区域矩阵的行方向和列方向。若目标对象的行进方向为行方向,则在行进区域矩阵中按照逐列方式行进。若目标对象的行进方向为列方向,则在行进区域矩阵中按照逐行方式行进。
步骤三,根据行进区域矩阵,对目标对象进行动态的路线规划,得到至少一条候选行进路线。
具体地,可以结合行进区域矩阵、目标对象针对行进区域矩阵的实时速度、实时位置,甚至是目标对象相对行进区域矩阵的尺寸大小等因素,对目标对象进行多阶段的路线规划,得到目标对象在各阶段的候选行进路线。比如,目标对象的实时速度越快,则规划得到的候选行进路线的所包含的网格数量越多,反之,目标对象的实时速度越小,则规划得到的候选行进路线的所包含的网格数量越少。
步骤四,确定每条候选行进路线的行进收益。
具体地,可以为行进区域矩阵中各网格配置基础收益。网格的基础收益可以由虚拟场景的规则确定。比如,在虚拟场景中,具有障碍物的网格的基础收益可以为负收益,具有道具的网格的基础收益可以为正收益。之后根据行进区域矩阵中各网格之间的位置关系,确定行进区域矩阵中各网格对应的关联网格集合。其中,每个网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,沿行进方向行进所能达到的其他网格。这里需要说明的是,目标对象所达到的其他网格取决于游戏的行进规则,本申请实施例不作具体限定。
之后计算目标对象针对行进区域矩阵中各网格的关联收益。其中,每个网格的行关联收益是基于该网格自身的基础收益和该网格对应的关联网格集合中的关联网格的基础收益确定得到的。
比如,行进区域矩阵的列方向为行进方向,行进区域矩阵的最后一行远离行进起始位置,网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,按照行进方向行进到下一行所能达到的其他网格。则在本步骤中,以行进区域矩阵的最后一行为起始,逐行计算每个网格的行进收益,其中,最后一行的网格的关联收益为该网格自身的基础收益,第N行的网格的关联收益为该网格自身的基础收益与该网格在第N+1行对应的所有关联网格中最大的关联收益之和,N为正整数,且N+1小于所述行进区域矩阵的行数。
再比如,行进区域矩阵的行方向为行进方向,行进区域矩阵的最后一列远离行进起始位置,网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,按照行进方向行进到下一列所能达到的其他网格。则在本步骤中,以所述行进区域矩阵的最后一列为起始,逐列计算每个网格的行进收益。其中,最后一列的网格的关联收益为该网格自身的基础收益,第M列的网格的关联收益为该网格自身的基础收益与该网格在第M+1列对应的所有关联网格中最大的关联收益之和,M为正整数,且M+1小于所述行进区域矩阵的行数。
最后,对每条候选行进路线经过的网格的关联收益进行累加处理,得到每条行进路线的行进收益。
步骤五,根据行进收益相关的选取策略,从候选行进路线中选取出目标选行进路线。
具体地,目标行进路线并不限于是行进收益最高的候选行进路线,可根据实际需求进行灵活选择。
比如,可以将候选行进路线划分出及格、良好、优秀三个区间。优秀区间对应的行进收益总和值最大,良好区间对应的行进收益总和值次之,及格区间对应的行进收益总和最小。假设,本申请实施例的方法用于普通水平的行进演示,则本步骤可以选取行进收益处于中游水平的候选行进路线作为目标对象针对行进区域的行进路线。
以上是本申请实施例的方法针对目标对象的一个行进区域的规划方法,在整个演示过程中,可以重复执行步骤一至步骤四,直至目标对象的演示结束。
为方便理解本申请实施例的方法,下面结合不同的实际应用进行详细介绍。
实际应用一
本申请实施例的方法用于规划跑酷游戏中目标对象的行进路线,从而基于目标对象对跑酷游戏进行自动化演示。
其中,主要流程包括:
步骤S201,设定目标对象在跑酷游戏中的行进规则、行进速度以及行进区域。
在进行规则中,目标对象沿列方向进行逐行移动,且移动过程中不能经过负收益的网格。
行进速度为目标对象在单位移动过程中(一次逐行移动作为一次单位移动),行方向的移动距离为1个网格,列方向的移动距离为5个网格。
行进区域矩阵在行方向的长度为5个网格,取决于目标对象在单位移动过程中行方向可以移动的距离,限定目标对象在单位移动过程具有到达同行所有网格的能力。行进区域在列方向的长度可以灵活设置,假设同样为5个网格长度。
步骤S202,以目标对象所在起始位置出发,把前方一定距离按照之前确定的行进区域,抽象成一个5×5规格的行进区域矩阵。
步骤S203,如图2所示,基于跑酷游戏的虚拟场景中的设定,为行进区域矩阵中的每个网格配置基础收益。
步骤S204,如图3所示,在行进区域矩阵中的每个网格中表征该网格对应的关联网格集合。
其中,每个网格对应的关联网格是以该网格为起点,在不经过负基础收益网格的前提下,行进到下一行所能达到的其他网格。
为方便理解,关联网格可以用“x,y”进行表示。x表示以网格为起点,在不经过负初始收益的其他网格在行方向上所能经过的左边界;y表示网格为起点,在不经过负初始收益的其他网格在行方向上所能经过的右边界。
比如,第5行第5列的网格,由于其横向上相邻初始收益为-38的其他网格,因此不能在行方向进行移动,则对应的关联网格集合为5,5,表示第5行第5列的网格无法横向移动,在行进到第4行时,按照上述行进规则,只能达到第4行第5列的网格。
再比如,第2行第4列的网格,在横向上可以移动到左边界为第3列,右边界为第5列,因此该第2行第4列的网格对应的关联网格集合可以为3,5。表示在以第2行第4列的网格为起点行进至第1行时,可以到达第1行第3列至第1行第5列的其他网格。
步骤S205,如图4所示,计算行进区域矩阵中的每个网格的关联收益。
具体地,假设行进区域矩阵的最后一行远离行进起始位置,则本步骤以行进区域矩阵的最后一行为起始,逐行计算每个网格的关联收益,其中,最后一行的网格的行进收益为该网格自身的基础收益,第N行的网格的行进收益为该网格自身的基础收益与该网格在第N+1行对应的最大的单个关联网格的进收益之和,N为正整数,且N+1小于行进区域矩阵的行数(在实际应用一中,N+1小于5)。
比如图2-图4所示,第5行第5列的网格的关联网格集合只包含第4行第5列的网格,因此该第5行第5列的网格的关联收益=自身初始收益+第4行第5列的网格的关联收益=0+4=4。
再比如,第4行第4列的网格的关联网格集合包含第3行第1列至第3行第5列的网格,因此该第4行第4列的网格的关联收益=自身初始收益+第3行第3列的网格的关联收益=0+4=4。
步骤S206,如图5所示,基于行进区域矩阵中每个网格的关联收益,按照经过的网格所累计的收益总和最大化策略,规划目标对象规针对行进区域的行进路线。
其中,图5中的箭头表示为进行路线,可以知道,最终确定的行进路线所累积的收益总和为35,是目标对象在行进区域中不重复经过网格所能累积到的最大收益。
应理解,实际应用一仅示例了确定收益总和最大的行进路线,当然在实际应用中,也可以确定出目标对象针对行进区域矩阵其余的行进路线,文本不再举例赘述。
实际应用二
本申请实施例的方法用于规划跑酷游戏中目标对象的行进路线,从而基于目标对象对跑酷游戏进行自动化演示。
步骤301,设定目标对象在跑酷游戏中的行进规则、行进速度以及行进区域。
在进行规则中,目标对象沿行方向进行逐列移动,且移动过程中不能经过负收益的网格。
行进速度为目标对象在单位移动过程中(一次逐列移动作为一次单位移动),列方向的移动距离为1个网格,行方向的移动距离为5个网格。
行进区域矩阵在列方向的长度为5个网格,取决于目标对象在单位移动过程中列方向可以移动的距离。行进区域在行方向的长度可以灵活设置,假设同样为5个网格长度。
步骤S302,以目标对象所在起始位置出发,把前方一定距离按照之前确定的行进区域,抽象成一个5×5规格的行进区域矩阵。
步骤S303,如图6所示,基于跑酷游戏的虚拟场景中的设定,为行进区域矩阵中的每个网格配置初始收益。
步骤S304,如图7所示,在行进区域矩阵中的每个网格中表征该网格对应的关联网格集合。
其中,每个网格对应的关联网格是以该网格为起点,在不经过负基础收益网格的前提下,行进到下一列所能达到的其他网格。
为方便理解,关联网格可以用“x,y”进行表示。x表示以网格为起点,在不经过负初始收益的其他网格在列方向上所能经过的上边界;y表示网格为起点,在不经过负初始收益的其他网格在列方向上所能经过的下边界。
比如,第4列第1行的网格,由于列方向上相邻初始收益为-26的其他网格,因此不能在列向上进行移动,则对应的关联网格集合为1,1,表示第4列第1行的网格在行进到第3列时,只能达到第3列第1行的网格。
再比如,第4列第3行的网格,在列方向上可以移动到上边界为第3行,下边界为第4行,因此该第4列第3行的网格对应的关联网格集合可以为3,4。表示在以第4列第3行的网格为起点行进至第3列时,可以到达第3列第3行的网格和第3列第4行的网格。
步骤S305,如图8所示,计算行进区域矩阵中的每个网格的关联收益。
具体地,假设行进区域矩阵的最后一列远离行进起始位置,则本步骤以行进区域矩阵的最后一行为起始,逐列计算每个网格的关联收益,其中,最后一列的网格的关联收益为该网格自身的基础收益,第M列的网格的行进收益为该网格自身的基础收益与该网格在第M+1行对应的最大的单个关联网格的关联收益之和,M为正整数,且M+1小于行进区域矩阵的行数(在实际应用二中,M+1小于5)。
比如图6-图8所示,第5列5行的网格的关联网格集合包含第4列第1行的网格至第4列第5行的网格,因此该第5列5行的网格的关联收益=自身初始收益+第4列第3行的网格的关联收益=0+5=5。
再比如,第4列第4行的网格的关联网格集合包含第3列第3行的网格和第3列第4行的网格,因此该第4列第4行的网格的最终收益=自身初始收益+第3列第3行的网格的关联收益=0+4=4。
步骤S306,如图9所示,基于行进区域矩阵中每个网格的关联收益,按照经过的网格所累计的收益总和最大化策略,规划目标对象规针对行进区域的行进路线。
其中,图9中的箭头表示为进行路线,可以知道,最终确定的行进路线所累积的收益总和为39,是目标对象在行进区域中不重复经过网格所能累积到的最大收益。
应理解,实际应用二仅示例了确定收益总和最大的行进路线,当然在实际应用中,也可以确定出目标对象针对行进区域矩阵其余的行进路线,文本不再举例赘述。
基于以上实际应用可以知道,本申请实施例的方法仅需要对行进区域进行矩阵化处理,并基于矩阵中各个网格的收益,规划行进路线。由于整个过程需要的计算量对较小,因此特别适用于在终端设备进行自动化的行进演示,从而基于终端设备的程序即可模拟虚拟玩家进行游戏,达到游戏测试或者陪玩的目的。
以上是对本申请实施例的行进演示方法的介绍。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
比如,本申请实施例的方法还可以根据行进区域矩阵中各网格对应的关联网格集合,对所述目标对象在进区域矩阵中的实时位置进行动态规划,确定多条候选行进路线。在该方式下
另一方面,本申请实施例还提供一种行进路线的规划装置,如图10所示,包括:
区域确定模块1001,用于确定虚拟场景中目标对象的行进区域;
矩阵处理模块1002,用于对所述行进区域进行网格化处理,得到用于对所述目标对象进行路线规划的行进区域矩阵;
路线规划模块1003,用于根据所述行进区域矩阵,对所述目标对象进行动态的路线规划,得到至少一条候选行进路线;
路线选择模块1004,用于对每条候选行进路线的行进收益进行实时分析,确定所述目标对象针对所述行进区域的目标行进路线。
通过图10所示的行进路线规划装置可以知道,本申请实施例的方案将目标对象的行进区域抽象成行进区域矩阵,并基于行进区域矩阵动态规划目标对象针对行进区域的候选行进路线,之后对各候选行进路线的行进收益进行分析,从中确定出符合预定策略的目标行进路线,以用于对游戏进行自动化演示。一方面,可以降低游戏测试阶段所需投入的人力和时间成本。另一方面,还可用于模拟虚拟玩家参与游戏,在单机环境中为玩家营造多人游戏的氛围。
下面对行进路线的规划装置进行详细介绍。
本申请实施例的应用场景是控制虚拟场景中的目标对象进行行进演示。在行进演示过程中,本申请实施例的装置每次预读目标对象的当前行进区域,并规划目标对象针对当前行进区域的目标行进路线。在目标对象按照规划的目标行进路线完成当前行进区域的行进演示后,可以重新预读目标对象的当前行进区域,并按照上述方法继续规划的目标行进路线,直至完成行进演示。
其中,本申请实施例的装置在规划一个行进区域的行进路线时,区域确定模块1001具体用于,预读目标对象前方的行进区域。应理解,预读得到的行进区域仅是行进演示的过程中的一部分区域。为了保证行进路线规划的准确性,预读的行进区域不宜过大,应与目标对象的行进速度相匹配。
在行进区域确定后,矩阵处理模块1002对行进区域进行网格化处理,得到行进区域矩阵。其中,行进区域矩阵的网格行列排布,且行方向或者列方向作为目标对象的行进方向。若目标对象的行进方向为行方向,则在行进区域矩阵中按照逐列方式行进。若目标对象的行进方向为列方向,则在行进区域矩阵中按照逐行方式行进。
之后,路线规划模块1003根据所述行进区域矩阵和所述目标对象针对所述行进区域矩阵的实时速度、实时位置,对所述目标对象进行多阶段的路线规划,得到各阶段的所述目标对象针对所述行进区域的候选行进路线。
最后,路线选择模块1004为所述行进区域矩阵中各网格配置基础收益,并根据所述行进区域矩阵中各网格之间的位置关系,确定所述行进区域矩阵中各网格对应的关联网格集合,其中,每个网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,沿行进方向行进所能达到的其他网格。之后,路线选择模块1004进一步计算目标对象针对所述行进区域矩阵中各网格的关联收益,每个网格的行关联收益是基于该网格自身的基础收益和该网格对应的关联网格集合中的关联网格的基础收益确定得到的。并最终对每条候选行进路线经过的网格的关联收益进行累加处理,得到每条行进路线的行进收益。
可选地,所述行进区域矩阵的列方向为行进方向,所述行进区域矩阵的最后一行远离行进起始位置,网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,按照行进方向行进到下一行所能达到的其他网格;所述关联网格计算单元具体用于:以所述行进区域矩阵的最后一行为起始,逐行计算每个网格的关联收益,其中,最后一行的网格的关联收益为该网格自身的基础收益,第N行的网格的关联收益为该网格自身的基础收益与该网格在第N+1行对应的所有关联网格中最大的关联收益之和,N为正整数,且N+1小于所述行进区域矩阵的行数。
或者,所述行进区域矩阵的行方向为行进方向,所述行进区域矩阵的最后一列远离行进起始位置,网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,按照行进方向行进到下一列所能达到的其他网格。所述关联网格计算单元具体用于:以所述行进区域矩阵的最后一列为起始,逐列计算每个网格的关联收益,其中,最后一列的网格的关联收益为该网格自身的基础收益,第M列的网格的关联收益为该网格自身的基础收益与该网格在第M+1列对应的所有关联网格中最大的关联收益之和,M为正整数,且M+1小于所述行进区域矩阵的行数。
在计算得到进区域矩阵中每个网格的行进收益后,路线选择模块1004进一步对每条候选行进路线的行进收益进行比较,选取行进收益最大的候选行进路线作为所述目标对象针对所述行进区域的目标行进路线。
显然,本申请实施例提供的行进路线的规划装置是本申请实施例上文提供的行进路线的规划方法的行主体,因此规划装置能够实现规划方法所能实现的技术效果,比如图1至图9中所描述的步骤和功能。
此外,如图11所示,本申请实施例还提供一种电子设备。在硬件层面,该电子设备包括处理器,可选地还包括内部总线、网络接口、存储器。其中,存储器可能包含内存,例如高速随机存取存储器(Random-Access Memory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少1个磁盘存储器等。当然,该电子设备还可能包括其他业务所需要的硬件。
处理器、网络接口和存储器可以通过内部总线相互连接,该内部总线可以是ISA(Industry Standard Architecture,工业标准体系结构)总线、PCI(PeripheralComponent Interconnect,外设部件互连标准)总线或EISA(Extended Industry StandardArchitecture,扩展工业标准结构)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图11中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
存储器,用于存放程序。具体地,程序可以包括程序代码,所述程序代码包括计算机操作指令。存储器可以包括内存和非易失性存储器,并向处理器提供指令和数据。
处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成问答对数据挖掘装置。处理器执行存储器所存放的程序,并具体用于执行以下操作:
确定虚拟场景中目标对象的行进区域;
对所述行进区域进行网格化处理,得到用于对所述目标对象进行路线规划的行进区域矩阵;
根据所述行进区域矩阵,对所述目标对象进行动态的路线规划,得到至少一条候选行进路线;
对每条候选行进路线的行进收益进行实时分析,确定所述目标对象针对所述行进区域的目标行进路线。
通过图11所示的电子设备可以知道,本申请实施例的方案将目标对象的行进区域抽象成行进区域矩阵,并基于行进区域矩阵动态规划目标对象针对行进区域的候选行进路线,之后对各候选行进路线的行进收益进行分析,从中确定出符合预定策略的目标行进路线,以用于对游戏进行自动化演示。一方面,可以降低游戏测试阶段所需投入的人力和时间成本。另一方面,还可用于模拟虚拟玩家参与游戏,在单机环境中为玩家营造多人游戏的氛围。
本申请图1所示实施例揭示的行进路线的规划方法可以应用于处理器中,或者由处理器实现。处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
当然,除了软件实现方式之外,本申请的电子设备并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑网格,也可以是硬件或逻辑器件。
应理解,本申请实施例的电子设备还可执行图1所示的行进路线的规划方法,并实现规划装置在图1所示实施例的功能,本文不再进行赘述。
本申请实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的便携式电子设备执行时,能够使该便携式电子设备执行图1所示实施例的方法,并具体用于执行以下方法:
确定虚拟场景中目标对象的行进区域;
对所述行进区域进行网格化处理,得到用于对所述目标对象进行路线规划的行进区域矩阵;
根据所述行进区域矩阵,对所述目标对象进行动态的路线规划,得到至少一条候选行进路线;
对每条候选行进路线的行进收益进行实时分析,确定所述目标对象针对所述行进区域的目标行进路线。
基于本申请实施例的计算机可读存储介质,处理器将目标对象的行进区域抽象成行进区域矩阵,并基于行进区域矩阵动态规划目标对象针对行进区域的候选行进路线,之后对各候选行进路线的行进收益进行分析,从中确定出符合预定策略的目标行进路线,以用于对游戏进行自动化演示。一方面,可以降低游戏测试阶段所需投入的人力和时间成本。另一方面,还可用于模拟虚拟玩家参与游戏,在单机环境中为玩家营造多人游戏的氛围。
应理解,本申请实施例的计算机可读存储介质在被电子设备执行时,可以使电子设备执行图1所示的行进路线的规划方法,并实现规划装置在图1所示实施例的功能,本文不再进行赘述。
在本发明所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置和方法实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
需要说明的是,在本文中,术语"包括"、"包含"或者其任何其它变体意在涵盖非排它性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句"包括一个……"限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (14)

1.一种行进路线的规划方法,其特征在于,包括:
确定虚拟场景中目标对象的行进区域;
对所述行进区域进行网格化处理,得到用于对所述目标对象进行路线规划的行进区域矩阵;
根据所述行进区域矩阵,对所述目标对象进行动态的路线规划,得到至少一条候选行进路线;
对每条候选行进路线的行进收益进行实时分析,确定所述目标对象针对所述行进区域的目标行进路线。
2.如权利要求1所述的行进路线的规划方法,其特征在于,
根据所述行进区域矩阵,对所述目标对象进行动态的路线规划,得到所述目标对象针对所述行进区域矩阵的至少一条候选行进路线,包括:
根据所述行进区域矩阵和所述目标对象针对所述行进区域矩阵的实时速度、实时位置,对所述目标对象进行多阶段的路线规划,得到各阶段的所述目标对象针对所述行进区域的候选行进路线。
3.如权利要求1所述的行进路线的规划方法,其特征在于,
对每条候选行进路线的行进收益进行实时分析,包括:
为所述行进区域矩阵中各网格配置基础收益;
根据所述行进区域矩阵中各网格之间的位置关系,确定所述行进区域矩阵中各网格对应的关联网格集合,其中,每个网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,沿行进方向行进所能达到的其他网格;
计算目标对象针对所述行进区域矩阵中各网格的关联收益,每个网格的行关联收益是基于该网格自身的基础收益和该网格对应的关联网格集合中的关联网格的基础收益确定得到的;
对每条候选行进路线经过的网格的关联收益进行累加处理,得到每条行进路线的行进收益。
4.如权利要求3所述的行进路线的规划方法,其特征在于,
所述行进区域矩阵的列方向为行进方向,所述行进区域矩阵的最后一行远离行进起始位置,网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,按照行进方向行进到下一行所能达到的其他网格;
计算目标对象针对所述行进区域矩阵中各网格的关联收益,包括:
以所述行进区域矩阵的最后一行为起始,逐行计算每个网格的关联收益,其中,最后一行的网格的关联收益为该网格自身的基础收益,第N行的网格的关联收益为该网格自身的基础收益与该网格在第N+1行对应的所有关联网格中最大的关联收益之和,N为正整数,且N+1小于所述行进区域矩阵的行数。
5.如权利要求3所述的行进路线的规划方法,其特征在于,
所述行进区域矩阵的行方向为行进方向,所述行进区域矩阵的最后一列远离行进起始位置,网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,按照行进方向行进到下一列所能达到的其他网格;
计算目标对象针对所述行进区域矩阵中各网格的关联收益,包括:
以所述行进区域矩阵的最后一列为起始,逐列计算每个网格的关联收益,其中,最后一列的网格的关联收益为该网格自身的基础收益,第M列的网格的关联收益为该网格自身的基础收益与该网格在第M+1列对应的所有关联网格中最大的关联收益之和,M为正整数,且M+1小于所述行进区域矩阵的行数。
6.如权利要求3-5任一项所述的行进路线的规划方法,其特征在于,
所述行进区域矩阵中一部分网格的基础收益为正收益,另一部分网格的基础收益为负收益,每个网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,在不经过负基础收益网格的前提下,沿行进方向所能行进达到的其他网格。
7.如权利要求3-5任一项所述的行进路线的规划方法,其特征在于,
确定所述目标对象针对所述行进区域的目标行进路线,包括:
通过对每条候选行进路线的行进收益进行比较,选取行进收益最大的候选行进路线作为所述目标对象针对所述行进区域的目标行进路线。
8.一种行进路线的规划装置,其特征在于,包括:
区域确定模块,用于确定虚拟场景中目标对象的行进区域;
矩阵处理模块,用于对所述行进区域进行网格化处理,得到用于对所述目标对象进行路线规划的行进区域矩阵;
路线规划模块,用于根据所述行进区域矩阵,对所述目标对象进行动态的路线规划,得到至少一条候选行进路线;
路线选择模块,用于对每条候选行进路线的行进收益进行实时分析,确定所述目标对象针对所述行进区域的目标行进路线。
9.根据权利要求8所述的规划装置,其特征在于,
所述路线规划模块具体用于:
根据所述行进区域矩阵和所述目标对象针对所述行进区域矩阵的实时速度、实时位置,对所述目标对象进行多阶段的路线规划,得到各阶段的所述目标对象针对所述行进区域的候选行进路线。
10.如权利要求8所述的行进路线的规划装置,其特征在于,
所述路线选择模块具体用于:
为所述行进区域矩阵中各网格配置基础收益;
根据所述行进区域矩阵中各网格之间的位置关系,确定所述行进区域矩阵中各网格对应的关联网格集合,其中,每个网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,沿行进方向行进所能达到的其他网格;
计算目标对象针对所述行进区域矩阵中各网格的关联收益,每个网格的行关联收益是基于该网格自身的基础收益和该网格对应的关联网格集合中的关联网格的基础收益确定得到的;
对每条候选行进路线经过的网格的关联收益进行累加处理,得到每条行进路线的行进收益。
11.如权利要求10所述的行进路线的规划装置,其特征在于,
所述行进区域矩阵的列方向为行进方向,所述行进区域矩阵的最后一行远离行进起始位置,网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,按照行进方向行进到下一行所能达到的其他网格;
所述关联网格计算单元具体用于:
以所述行进区域矩阵的最后一行为起始,逐行计算每个网格的关联收益,其中,最后一行的网格的关联收益为该网格自身的基础收益,第N行的网格的关联收益为该网格自身的基础收益与该网格在第N+1行对应的所有关联网格中最大的关联收益之和,N为正整数,且N+1小于所述行进区域矩阵的行数。
12.如权利要求10所述的行进路线的规划装置,其特征在于,
所述行进区域矩阵的行方向为行进方向,所述行进区域矩阵的最后一列远离行进起始位置,网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,按照行进方向行进到下一列所能达到的其他网格;
所述关联网格计算单元具体用于:
以所述行进区域矩阵的最后一列为起始,逐列计算每个网格的关联收益,其中,最后一列的网格的关联收益为该网格自身的基础收益,第M列的网格的关联收益为该网格自身的基础收益与该网格在第M+1列对应的所有关联网格中最大的关联收益之和,M为正整数,且M+1小于所述行进区域矩阵的行数。
13.如权利要求10-12任一项所述的行进路线的规划装置,其特征在于,
所述行进区域矩阵中一部分网格的基础收益为正收益,另一部分网格的基础收益为负收益,每个网格对应的关联网格集合中的关联网格为目标对象以该网格为起点,在不经过负基础收益网格的前提下,沿行进方向所能行进达到的其他网格。
14.如权利要求10-12任一项所述的行进路线的规划装置,其特征在于,
所述路线选择模块还用于,通过对每条候选行进路线的行进收益进行比较,选取行进收益最大的候选行进路线作为所述目标对象针对所述行进区域的目标行进路线。
CN201910241507.9A 2019-03-28 2019-03-28 一种行进路线的规划方法及装置 Withdrawn CN109847357A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910241507.9A CN109847357A (zh) 2019-03-28 2019-03-28 一种行进路线的规划方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910241507.9A CN109847357A (zh) 2019-03-28 2019-03-28 一种行进路线的规划方法及装置

Publications (1)

Publication Number Publication Date
CN109847357A true CN109847357A (zh) 2019-06-07

Family

ID=66902298

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910241507.9A Withdrawn CN109847357A (zh) 2019-03-28 2019-03-28 一种行进路线的规划方法及装置

Country Status (1)

Country Link
CN (1) CN109847357A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111481931A (zh) * 2020-04-13 2020-08-04 网易(杭州)网络有限公司 游戏中虚拟对象的寻路控制方法、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150080023A1 (en) * 2013-09-16 2015-03-19 Nhn Entertainment Corporation Service method and system for providing reward using moving path of user
CN104914865A (zh) * 2015-05-29 2015-09-16 国网山东省电力公司电力科学研究院 变电站巡检机器人定位导航系统及方法
CN108627163A (zh) * 2017-03-22 2018-10-09 高德信息技术有限公司 权值表维护方法、装置及导航路线规划方法、装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150080023A1 (en) * 2013-09-16 2015-03-19 Nhn Entertainment Corporation Service method and system for providing reward using moving path of user
CN104914865A (zh) * 2015-05-29 2015-09-16 国网山东省电力公司电力科学研究院 变电站巡检机器人定位导航系统及方法
CN108627163A (zh) * 2017-03-22 2018-10-09 高德信息技术有限公司 权值表维护方法、装置及导航路线规划方法、装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111481931A (zh) * 2020-04-13 2020-08-04 网易(杭州)网络有限公司 游戏中虚拟对象的寻路控制方法、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN109701273A (zh) 游戏数据的处理方法、装置、电子设备及可读存储介质
CN108304440A (zh) 游戏推送的方法、装置、计算机设备及存储介质
CN105528955B (zh) 生成道路网络的方法及其装置
Gordillo et al. Improving playtesting coverage via curiosity driven reinforcement learning agents
CN104731963B (zh) 一种基于车联网的网格化路径推荐方法及系统
CN106075906A (zh) 一种模拟对象的寻路方法、场景的搭建方法和对应的装置
CN106447119A (zh) 一种基于卷积神经网络的短期交通流量预测方法及系统
CN104199878A (zh) 游戏引擎最短路径搜索方法、游戏引擎系统
CN107341548A (zh) 一种数据处理方法、装置及电子设备
CN110426966A (zh) 一种虚拟车辆寻路的方法、装置、存储介质和电子设备
CN107992036A (zh) 一种智能停车库中存取车路径规划方法、装置及存储介质
CN108229717B (zh) 计算拣货路径的方法及系统
CN104732091A (zh) 基于自然选择蚁群算法的元胞自动机河床演变预测方法
CN107149768A (zh) 一种迷宫编程桌面游戏装置及方法
CN115965171A (zh) 一种基于优化蚁群算法的微公园选址方法
CN108985488A (zh) 个体出行目的地预测的方法
CN109847357A (zh) 一种行进路线的规划方法及装置
CN109325657A (zh) 一种信贷业务的审批方法、存储介质和服务器
US20020095393A1 (en) Computer program for and method of discrete event computer simulation incorporating biological paradigm for providing optimized decision support
CN105139750A (zh) 电子地图的展示方法和装置
Al Qeisi et al. Generative Urban Design Concepts and Methods: A Research Review
CN111820922B (zh) 一种面向幼儿计算思维的测评方法
CN104884141B (zh) 游戏机、用于该游戏机的控制方法
CN106327236A (zh) 一种确定用户行动轨迹的方法及装置
CN107704583A (zh) 数据可视化方法、装置、计算机设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20190607