CN106503787A - 一种获取游戏数据的方法及电子设备 - Google Patents

一种获取游戏数据的方法及电子设备 Download PDF

Info

Publication number
CN106503787A
CN106503787A CN201610950936.XA CN201610950936A CN106503787A CN 106503787 A CN106503787 A CN 106503787A CN 201610950936 A CN201610950936 A CN 201610950936A CN 106503787 A CN106503787 A CN 106503787A
Authority
CN
China
Prior art keywords
data
training pattern
preset
intended application
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610950936.XA
Other languages
English (en)
Other versions
CN106503787B (zh
Inventor
殷俊
邓大付
杜家春
程序
万乐
李英杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201610950936.XA priority Critical patent/CN106503787B/zh
Publication of CN106503787A publication Critical patent/CN106503787A/zh
Application granted granted Critical
Publication of CN106503787B publication Critical patent/CN106503787B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Abstract

本发明实施例公开了一种获取游戏数据的方法及电子设备。本发明实施例方法包括:确定与预置训练模型对应的目标应用,预置训练模型是通过对第一数据进行训练学习而得到的训练模型,第一数据为用于表示用户行为的数据,目标应用属于待测试的应用集合;在目标应用运行的过程中,运行预置训练模型,预置训练模型用于向目标应用输入第一控制指令;根据第一控制指令执行目标应用,生成用于对目标应用进行测试的第二数据。本发明实施例还提供了一种电子设备,本发明实施例中,通过预置训练模型模拟用户的行为而获取游戏数据,可以极大的缩短获取游戏数据的时间周期,提高效率,进而节省开发成本。

Description

一种获取游戏数据的方法及电子设备
技术领域
本发明涉及计算机领域,尤其涉及一种获取游戏数据的方法及电子设备。
背景技术
随着计算机和通信技术的高速发展,各类应用极大的方便了用户的工作和生活。但是应用的设计又是一项复杂的系统性工作,其中,应用的设计涉及很多的要素,这些要素涉及到应用的实用性,适用性,便捷性等。例如,若以游戏为例,游戏的研发人员需要通过设计不同类型的游戏要素来吸引玩家进行游戏,其中游戏要素包括用户成长、关卡设计、怪物设计等等。由于各种游戏要素设计的复杂度非常的高,因此,在开发过程中,需要反复调试上述的各种要素,调整它们之间的平衡性使其达到一个较优的状态。
在传统的开发应用的过程中,许多设计要素在应用正式上线前难以进行验证,只能通过在灰度测试中长时间的不断的收集、统计用户的数据来对原有设计进行修正,测试的时间周期长,成本较高。
发明内容
本发明实施例提供了一种获取游戏数据的方法及电子设备。
第一方面,本发明实施例提供了一种获取游戏数据的方法,包括:
确定与预置训练模型对应的目标应用,所述预置训练模型是通过对第一数据进行训练学习而得到的训练模型,所述第一数据为用于表示用户行为的数据,所述目标应用属于待测试的应用集合;
在所述目标应用运行的过程中,运行所述预置训练模型,所述预置训练模型用于向所述目标应用输入第一控制指令;
根据所述第一控制指令执行所述目标应用,生成用于对所述目标应用进行测试的第二数据。
第二方面,本发明实施例提供了一种电子设备,包括:
确定模块,用于确定与预置训练模型对应的目标应用,所述预置训练模型是通过对第一数据进行训练学习而得到的训练模型,所述第一数据为用于表示用户行为的数据,所述目标应用属于待测试的应用集合;
模型运行模块,用于在所述目标应用运行的过程中,运行所述预置训练模型,所述预置训练模型用于向所述目标应用输入第一控制指令;
应用执行模块,用于根据所述模型运行模块输入的所述第一控制指令执行所述目标应用,生成用于对所述目标应用进行测试的第二数据
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明实施例中,预置训练模型是通过对第一数据进行训练学习后而得到的训练模型,而第一数据为模拟用户行为执行目标应用所产生的数据,使得预置训练模型可以模拟用户的行为与决策。通过预置训练模型向目标应用输入控制指令,例如,可以通过预置训练模型对一款游戏输入控制指令,从而可以模拟用户的行为与决策,然后,根据所述控制指令执行所述目标应用,生成第二数据,第二数据为预置训练模型模拟用户的行为与决策向目标应用输入控制指令后,终端执行目标应用时产生的游戏数据,从而可以通过第二数据对该款目标应用进行测试与评估。改变了传统方法中,在应用设计开发的过程中,一款应用的游戏数据需要长时间收集真实的用户反馈的数据,通过真实用户反馈的数据才能对该目标应用进行评估,由于预置训练模型具有并行处理的特点,通过预置训练模型模拟用户的行为而获取游戏数据,可以极大的缩短获取游戏数据的时间周期,提高效率,进而节省开发成本。
附图说明
图1为本发明实施例中一种获取游戏数据的方法的流程示意图;
图2为本发明实施例中基于用户数据构建预置训练模型的流程示意图;
图3为发明实施例中一种获取游戏数据的方法的一个实施例的流程示意图;
图4为发明实施例中生成预置训练模型的流程示意图;
图5为发明实施例中基于预置策略构建预置训练模型的流程示意图;
图6为发明实施例中一种获取游戏数据的方法的另一个实施例的流程示意图;
图7为发明实施例中一种电子设备的一个实施例的结构示意图;
图8为发明实施例中一种电子设备的另一个实施例的结构示意图;
图9为发明实施例中一种电子设备的另一个实施例的结构示意图;
图10为发明实施例中一种电子设备的另一个实施例的结构示意图;
图11为发明实施例中一种通信系统的架构示意图;
图12为发明实施例中灰度策略测试流程示意图。
具体实施方式
本发明实施例提供了一种获取游戏数据的方法及电子设备,用于缩短获取游戏数据的时间周期,提高效率,进而节省开发成本。
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在应用的开发过程中,对该应用的测试是一项重要的环节,本发明实施例中以游戏的测试为例进行说明获取游戏数据的过程。
传统的方法中,对于游戏的游戏数据的获取方式是:通过长时间的收集玩家玩游戏而产生的游戏数据,周期长,研发成本高。而本发明实施例中提供的获取游戏数据的方法,是电子设备通过预置训练模型模拟玩家的行为玩游戏而产生的数据,预置训练模型具有并行处理的计算能力,获取游戏数据的周期短,可以极大的降低研发成本。
本发明实施例是而本发明实施例提供了一种获取游戏数据的方法,请结合图1进行理解,图1为一种获取游戏数据的方法的流程示意图。该方法应用于一种电子设备,该电子设备上安装有待测试的游戏。测试应用主要包括两个阶段,第一个阶段,建立训练模型阶段:由于游戏开发出来是要给用户玩的,每位用户具有不同的特点,人具有“多样性”,并不是冰冷的机器,因此对同一款游戏的玩法也不相同,这样就需要获取用于表示用户行为的第一数据,通过对第一数据进行训练学习,而生成用于模拟用户行为的训练模型,该训练模型可以理解为人工智能系统(Artificial Intelligence,缩写:AI),该人工智能系统的行为越接近于人,获取的游戏数据就越接近于用户玩游戏时的数据。这样,就可以通过人工智能系统来模拟真实玩家在实际游戏中的行为。在人工智能系统模拟真人玩家进行游戏的过程中,游戏模块生成游戏数据,进一步的,将该数据进行汇总后生成该款游戏的测试报告,根据该测试报告可以对该款游戏进行优化和改进。
在实际应用中,该电子设备的功能可以在终端上执行,或者该电子设备的功能可以由学习服务器和测试终端来执行。在实际应用中,电子设备的实际部署形态,本发明不限定。
若该电子设备的功能由学习服务器和测试终端来执行。则该终端上预先安装了目标应用。学习服务器用于建立训练模型,学习服务器对用于表示用户行为的数据进行学习,生成用于模拟用户行为的预置训练模型,然后,由学习服务器将该预置训练模型发送至测试终端,测试终端加载该预置训练模型后,预置训练模型运行于该测试终端,由预置训练模型模拟玩家的行为,向目标应用输入第一控制指令,测试终端生成用于测试该目标应用的数据。
本发明实施例中该电子设备的功能以在终端集成执行为例进行说明。
本发明提供的一个实施例中,目标应用以已经上线的游戏为例,对已经上线的游戏进行持续研发,测试。由于该目标应用为已经上线的游戏,因此,有大量用户数据,基于用户数据,可以通过监督学习,无监督学习或增强学习等学习方法来构建人工智能系统,请结合图2进行理解,图2为基于用户数据构建预置训练模型的流程示意图,通过历史游戏数据,生成用户行为数据,该游戏数据包括用户行为数据和游戏中各模块配置属性等数据。该用户行为数据作为用户行为的训练样本,对该训练样本进行模型训练,使得人工智能系统可以模拟用户状态,用户状态可以理解为用户的游戏策略及逻辑,从而人工智能系统可以自行模拟用户的行为对游戏进行控制,游戏模块接收人工智能系统模拟用户行为输入的控制指令,控制游戏模块中的角色。记录游戏过程中所产生的用于测试的第二数据,该第二数据为游戏数据。
请参阅图3所示,下面对本发明实施例提供的一种获取游戏数据的方法的一个实施例进行具体描述。
一、建立AI的过程:
步骤301、获取第一数据,所述第一数据为接收用户输入的第二控制指令而执行目标应用的过程中所产生的数据集;
第一数据为游戏模块产生的历史游戏数据,第一数据为用户玩游戏时,游戏模块所产生的游戏数据,第一数据为历史游戏数据的数据集。因此第一数据为接收用户输入的第二控制指令时,游戏模块产生的游戏数据,该游戏数据中包括了用户行为数据。
当玩家玩游戏时,游戏模块产生游戏数据,该游戏数据可以由客户端生成、也可以为服务器端产生,或者也可以是由服务器端和客户端组成的一个整体系统产生,例如,PC游戏的游戏数据可以从客户端获取游戏数据,网络游戏可以从服务器端获取游戏数据。大量的历史游戏数据组成第一数据。该数据集中包括了不同玩家的行为数据。例如,针对同一个游戏场景,玩家A选择尾随敌军,玩家B选择拦截敌军,玩家C首先关注自己的血量,选择自保。因此,第一数据包括了大量的不同的用户行为数据。
步骤302、根据所述数据集生成用户行为的训练样本。
例如,以一款游戏中的一个局势举例说明,例如,玩家控制的角色被怪兽围攻,玩家A思考方式,并不会电脑那样准确。玩家会想:如果我比较虚弱,我就要逃走,保存实力,而不是等我的血减少30%我就逃走。如果我的武器比较好,我就要战斗,斩杀更多的敌人,而不是我的攻击超过1200点,我就继续战斗。所以,第一数据中的用户行为并不会像机器行为那样准确,因此,就要对用户行为进行模拟和学习。
步骤303、通过学习算法对所述训练样本进行训练学习,得到所述预置训练模型。
预置训练模型为可以模拟人类玩家行为的人工智能系统。人工智能泛指由人工制造的,可以模仿人类智能行为的系统,通常可以通过制定规则、自主学习等不同方式实现。本发明实施例中所述的预置训练模型,是可从现有知识(以下假定为以数据的形式存在的知识)中自主进行学习并模拟玩家行为的系统。现有的学习方法中,包括了如下几种不同模式:
1)监督学习,通过对带有标注的数据进行学习,模仿标注行为。
2)无监督学习,通过对没有标注的数据进行学习,模仿数据中的结构。
3)监督学习,通过对混合数据集(带有标注及未带有标注)进行学习,模仿标注行为。
4)增强学习,在一个给定环境中进行探索,通过给定的目标和环境反馈,模仿在当前环境下最为有价值的行为。
请结合图4进行理解,请结合图4进行理解,图4为生成预置训练模型的流程示意图。通过学习算法对所述训练样本进行训练学习,得到所述预置训练模型的具体的方法可以为:
首先,通过所述学习算法对所述训练样本进行分类,得到不同的数据集。
根据训练样本中的一部分数据进行对应的标注,将训练样本中的数据分成标注数据集和未标注数据集。标注数据集和不标注数据集可以分别采用上述不同的学习模式中的模式进行学习。例如,在游戏中,角色的状态有很多种类:其中,可能是角色行为的状态,比如,移动,睡觉,购买等。角色行为的状态适合监督学习,因此可以将角色行为的状态的数据进行标注。也可能是情绪的状态,如,高兴,失望,振奋,担心,害怕等等。情绪的状态适合半监督学习。也可能是目标不同的状态,参与建设,保护同伴,攻击敌人等等,目标不同的状态适合无监督学习。
其次,根据不同的数据集生成至少一个学习模型。例如,学习模型可以包括:监督学习模型,半监督学习模型,无监督学习模型。
然后,将所述至少一个学习模型进行封装,得到第一训练模型。该第一训练模型可以理解为预置训练模型的初始模型。
为了使该第一训练模型的行为更接近于用户的行为,需要对第一训练模型进行评估。若该第一训练模型的行为已经接近于用户的行为,则该第一训练模型就为预置训练模型,若该第一训练模型的行为和用户的行为还存在这差距,则需要对该第一训练模型进行优化,将优化训练模型作为预置训练模型(人工智能系统)。
对该第一训练模型的评估过程如下:
1)通过所述第一训练模型向所述目标应用输入第一控制指令,生成第三数据。
例如,在第一个游戏的场景下,角色A为第一训练模型控制的角色,面对3个怪兽,角色A的血量为80%,第一训练模型得到的信息是角色A的血量充足,第一训练模型向游戏输入控制指令,该控制指令为攻击怪兽,生成第三数据。
而在同一个场景下,若是由用户来控制角色A,用户会觉得即使是血量充足,但是用户控制的角色仍然觉着担心,觉着怪兽虽不多,但是有两个怪兽的攻击力比较强,胜算不大,还是应该先逃跑,保存实力。
需要说明的是,在本发明中,训练模型向目标应用输入的控制指令为第一控制指令,由用户向目标应用输入的控制指令为第二控制指令,以下不重复解释,第一控制指令和第二控制指令。
2)将所述第三数据和所述第一数据进行比较,得到差异参数。
以上述的例子,很明显看出当第一训练模型控制角色A时,游戏模块产生的第三数据,和用户控制角色A时,游戏模型产生的第一数据是不同的,第一数据用于表示用户行为的数据。比较第一数据和第三数据,产生差异参数。
需要说明的是,差异参数随着不同的游戏和不同的场景可以不同,差异参数只要能表现出第一训练模型的行为数据与用户的行为数据之间的差异即可,具体的,在实际应用中,本发明不限定,以上对于场景的举例,并不造成对本发明的限定。
3)若所述差异参数小于第一门限,则根据所述第一训练模型生成所述预置训练模型。
在第二个场景的例子,若此时角色A同样是面对3个怪兽,这三个怪兽所间隔的距离较远,角色A的血量只有40%,第一训练模型通过判断三个怪兽的距离,可以通过小于40%的血量对其中一个怪兽A进行攻击,而不是逃跑,第一训练模型向游戏模块输入攻击怪兽A的控制指令。
同样的,在同一个场景下,用户控制角色A,用户会想,虽然血量才40%,但是三个怪兽的距离较远,面对一个怪兽,“分而击之”,还是觉着胜算较大,用户向游戏模块输入控制攻击怪兽B的指令。
由上述的例子可以看出,第一训练模型可以权衡多个条件做出判断,第一训练模块的行为数据与用户的行为数据很接近,因此,当差异参数小于第一门限,表明第一训练模型的行为已经很接近用户的行为了,则根据所述第一训练模型生成预置训练模型。
4)若所述差异参数大于或者等于所述第一门限,则根据所述差异参数对所述第一训练模型进行优化,得到第二训练模型,并将所述第二训练模型作为第一训练模型。
在第一个例子中,若差异参数大于或者等于第一门限,则表明该第一训练模型的行为与用户的行为还有差距,为了游戏数据更接近于用户的行为,则需要对第一训练模型进行数据优化,得到第二训练模型。
重复执行步骤1)至步骤4),直至所述差异参数小于所述第一门限。然后将最终的优化的训练模型,作为预置训练模型。
需要说明的是,学习算法包括但不限于逻辑回归、神经网络、贝叶斯分类、决策树、支持向量机、K均值、K近邻、层次聚类、集成学习、增强学习等方法。
上面对建立预置训练模型的过程进行了描述,需要说明的是,若对一个预置训练模型建立好之后,对于后续的获取游戏数据的过程可以直接执行步骤304,而步骤301至步骤303为可选步骤,可以不执行。
二、获取游戏数据的过程:
步骤304、确定与预置训练模型对应的目标应用。
所述预置训练模型是通过对第一数据进行训练学习而得到的训练模型,所述第一数据为用于表示用户行为的数据,所述目标应用属于待测试的应用集合;
例如,同时开发多款游戏,针对每一款游戏建立一个预置训练模型,需要确定与该预置训练模型对应的一款游戏。
步骤305、在所述目标应用运行的过程中,运行所述预置训练模型,所述预置训练模型用于向所述目标应用输入第一控制指令。
在该游戏运行的过程中,同时运行预置训练模型,预置训练模型在游戏环境中按照学习到的策略进行游戏,由预置训练模型模拟用户行为向该款游戏输入第一控制指令。
步骤306、根据所述第一控制指令执行所述目标应用,生成用于对所述目标应用进行测试的第二数据。
电子设备根据第一控制指令执行该款游戏,生成新的数据,该新的数据用户对该款应用进行测试的第二数据。
进一步的,根据该第二数据生成测试报告,通过对测试报告的分析,可以对该款游戏进行调整,例如,可以对游戏的关卡设计,怪物设计,角色成长等进行调整,以实现对该款游戏的继续开发。
本发明实施例中,对于已经上线的应用,对该应用继续开发的过程中,需要获取游戏数据,基于大量历史数据,根据历史数据生成用户行为数据,通过对用户行为数据的训练学习,建立用于模拟用户行为的预置训练模型,通过预置训练模型模拟用户的行为而获取游戏数据,可以极大的缩短获取游戏数据的时间周期,提高效率,进而节省开发成本。
本发明实施例提供一种获取游戏数据的方法的另一个实施例。另一个实施例中,目标应用以还没有上线的游戏为例,本实施例的整体流程可以参阅图5进行理解,图5为基于预置策略构建预置训练模型的流程示意图。由于游戏还没有上线,因此缺乏大量的数据积累。可以采取通过游戏研发和测试人过程中,由研发人员对游戏模块输入控制指令,游戏模块生成小量的样本,该小量的样本为模拟用户行为的模拟样本数据,基于小量的模拟样本数据进行训练学习,得到第三训练模型。进一步的,为了使预置训练模型的行为可以更接近于用户的行为,并在第三训练模型中加入随机因素,进行大量的随机模拟实验,生成第四数据。并通过评估函数对模拟结果进行评估,同时将评估结果用于改进模型训练,最后得到可以模拟玩家行为的预置训练模型。缩短获取游戏数据的时间周期,提高效率,进而节省开发成本。
请参阅图6所示,下面对本发明实施例提供的一种获取游戏数据的方法的另一个实施例进行具体描述。
一、建立预置训练模型的过程:
步骤601、获取第一数据,所述第一数据为模拟用户行为的模拟样本数据。
第一数据为测试人员或者开发人员玩该款游戏时,游戏模块产生的游戏数据。第一数据为小量的样本数据,或者第一数据也可以是测试人员模拟用户数据设计的一个函数。
步骤602、通过学习算法对所述模拟样本数据进行训练学习,生成第三训练模型。
学习的模式可以为无监督学习和增强学习。
通过学习算法对小量的样本数据进行训练学习,生成第三训练模型,由于该第三训练模型是由小量的模拟样本数据进行训练学习得到的,因此该第三训练模型的行为可能与用户的实际行为产生差异。因为,测试人员和研发人员要比普通的玩家更了解这款游戏,属于专家级别的,而普通的玩家对于玩这款游戏的熟练程度千差万别,真实的普通的玩家中可能有水平一般的玩家;也可能有资深玩家,相当于专家级别;也可能有喜欢玩游戏的学生,水平虽然比不上资深玩家,但是比水平一般的玩家要好。
步骤603、通过所述第三训练模型向所述目标应用输入第一控制指令,生成第四数据。
例如,在一个游戏场景中,面对怪兽,通过第三训练模型向该游戏输入第一控制指令,第一控制指令为先用一个攻击力强的武器攻击怪兽,然后吃药,为自己加血,最后换攻击力稍弱的武器连续攻击怪兽,游戏模块生成第四数据。
步骤604、通过预置评估函数对所述第四数据进行评估,得到评估结果,所述评估结果用于指示所述第三训练模型与用户行为的差异。
因为,测试人员和研发人员要比普通的玩家更了解这款游戏,属于专家级别的,针对步骤603中的例子,如果是普通的玩家,可能对于该游戏不熟悉,吃药,换武器的间隔时间都比较长,或者不会更换武器。那么实际玩家对该游戏输入的控制指令后,游戏模块产生的数据与第四数据可以存在差异。
因此需要设计一个评估函数,对第四数据进行评估,通过评估结果来确定该第三训练模型的行为是否与用户的行为接近。
步骤605、判断评估结果指示的差异是否大于或者等于预置门限,若否,则执行步骤606;若是,则执行步骤607。
步骤606、若所述评估结果指示所述差异小于预置门限,则根据所述第三训练模型生成所述预置训练模型。
若评估结果指示差异小于预置门限,则表明第三训练模型的行为与用户的行为比较接近,则将该第三训练模型作为预置训练模型。
步骤607、若所述评估结果指示所述差异大于或者等于预置门限,则根据所述评估结果向所述第三训练模型中加入随机因素,所述随机因素用于改变所述第三训练模型中的各因素的权值,得到第四训练模型;
若评估结果指示所述差异大于或者等于预置门限,则根据该评估结果在第三训练模型中加入随机因素,例如,为了使第三训练模型的行为不过于太僵化,更趋近于用户的行为。在行为强度的基础上,增加一些随机因素。对每一个行为的行为强度,我们可以设定在一定范围内进行上下浮动。这样就可以在整体满足规则的情况下,第三训练模型的行为又可以有一定的随机性。
例如,当追击敌人的时候,可能的规则是,角色A对敌人的仇恨越高,它越要追击,加入随机因素,随机因素可以是敌人离自己的距离,敌人离自己的地盘越近,越愿意继续追击。当对敌人的仇恨很高的归属度为8时,而离自己地盘近的归属度为7时,追击行为的倾向性为7.5。当敌人对敌人的仇恨很高的归属度为9,而离自己地盘近的归属度为1时,它继续追击的动力就降低到5。因此,加入随机因素可以改变第三模型中各因素的权值,使第三训练模型的行为有一定的随机性,需要说明的是,上述随机因素为举例说明,并不能造成对本发明的限定性说明。
步骤608、通过所述第四训练模型向所述目标应用输入第一控制指令,生成第五数据。
本步骤可以结合图3对应的实施例中,对第一训练模型的评估过程中的步骤1)进行理解。
步骤609、通过预置评估函数对第五数据进行评估,得到评估结果。
步骤610、判断评估结果指示所述差异是否大于或者等于预置门限,若否,则执行步骤611;若是,则继续执行步骤607。
步骤611、根据所述第四训练模型生成所述预置训练模型。
二、获取游戏数据的过程:
步骤612至步骤614与图3对应的实施例中的步骤304与步骤306相同,此处不赘述。
上面对一种获取游戏数据的方法进行了描述,下面对该方法应用的电子设备进行描述,请参阅图7所示,本发明实施例提供了一种电子设备700的一个实施例包括:
确定模块701,用于确定与预置训练模型对应的目标应用,所述预置训练模型是通过对第一数据进行训练学习而得到的训练模型,所述第一数据为用于表示用户行为的数据,所述目标应用属于待测试的应用集合;
模型运行模块702,用于在所述目标应用运行的过程中,运行所述预置训练模型,所述预置训练模型用于向所述目标应用输入第一控制指令;
应用执行模块703,用于根据所述模型运行模块702输入的所述第一控制指令执行所述目标应用,生成用于对所述目标应用进行测试的第二数据。
在图7对应的实施例的基础上,请参阅图8所示,本发明实施例还提供了一种电子设备的另一个实施例。所述电子设备800还包括:
第一获取模块704,生成模块705和第一模型建立模块706;
第一获取模块704,用于获取第一数据,所述第一数据为客户端接收用户输入的第二控制指令而执行目标应用的过程中所产生的数据集;
生成模块705,用于根据所述第一获取模块704产生的所述数据集生成用户行为的训练样本;
第一模型建立模块706,用于通过学习算法对所述生成模块705生成的所述训练样本进行训练学习,得到所述预置训练模型。
可选的,所述第一模型建立模块706还具体用于:
通过所述学习算法对所述训练样本进行分类,生成至少一个学习模型;
将所述至少一个学习模型进行封装,得到第一训练模型;
1)通过所述第一训练模型向所述目标应用输入第一控制指令,生成第三数据;
2)将所述第三数据和所述第一数据进行比较,得到差异参数;
3)若所述差异参数小于第一门限,则根据所述第一训练模型生成所述智能人工系统;
4)若所述差异参数大于或者等于所述第一门限,则根据所述差异参数对所述第一训练模型进行优化,得到第二训练模型,并将所述第二训练模型作为第一训练模型;
重复执行步骤1)至步骤4),直至所述差异参数小于所述第一门限。
在图7对应的实施例的基础上,请参阅图9所示,本发明实施例还提供了一种电子设备的另一个实施例。所述电子设备900还包括:
第二获取模块707和第二模型建立模块708;
第二获取模块707,用于获取第一数据,所述第一数据为模拟用户行为的模拟样本数据;
第二模型建立模块708,用于通过学习算法对所述第二获取模块707获取的所述模拟样本数据进行训练学习,生成所述预置训练模型。
可选的,所述第二模型建立模块708还具体用于:
通过学习算法对所述模拟样本数据进行训练学习,生成第三训练模型;
通过所述第三训练模型向所述目标应用输入控制指令,生成第四数据;
通过预置评估函数对所述第四数据进行评估,得到评估结果,所述评估结果用于指示所述第三训练模型与用户行为的差异;
若所述评估结果指示所述差异小于预置门限,则根据所述第三训练模型生成所述预置训练模型。
可选的,所述第二模型建立模块708还具体用于:
若所述评估结果指示所述差异大于或者等于预置门限,则根据所述评估结果向所述第三训练模型中加入随机因素,所述随机因素用于改变所述第三训练模型中的各因素的权值,得到第四训练模型;
通过所述第四训练模型向所述目标应用输入控制指令,生成第五数据;
通过所述预置评估函数对所述第五数据进行评估,得到评估结果;
若所述评估结果指示所述差异小于预置门限,则根据所述第四训练模型生成所述预置训练模型。
进一步的,图7至图9中的电子设备是以功能模块的形式来呈现。这里的“模块”可以指特定应用集成电路(application-specific integrated circuit,ASIC),电路,执行一个或多个软件或固件程序的处理器和存储器,集成逻辑电路,和/或其他可以提供上述功能的器件。在一个简单的实施例中,图7至图9中的装置可以采用图10所示的形式。
本发明实施例还提供了另一种电子设备,如图11所示,为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明实施例方法部分。
图10示出的是与本发明实施例提供的终端相关的电子设备的部分结构的框图。参考图10,电子设备包括:存储器1020、输入单元1030、显示单元1040、音频电路1060、处理器1080、以及电源1090等部件。本领域技术人员可以理解,图10中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图10对电子设备的各个构成部件进行具体的介绍:
存储器1020可用于存储软件程序以及模块,处理器1080通过运行存储在存储器1020的软件程序以及模块,从而执行电子设备的各种功能应用以及数据处理。存储器1020可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1020可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元1030可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,输入单元1030可包括触控面板1031以及其他输入设备1032。触控面板1031,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1031上或在触控面板1031附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1031可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1080,并能接收处理器1080发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1031。除了触控面板1031,输入单元1030还可以包括其他输入设备1032。具体地,其他输入设备1032可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1040可用于显示由用户输入的信息或提供给用户的信息以及电子设备的各种菜单。显示单元1040可包括显示面板1041,可选的,可以采用液晶显示器(LiquidCrystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1041。进一步的,触控面板1031可覆盖显示面板1041,当触控面板1031检测到在其上或附近的触摸操作后,传送给处理器1080以确定触摸事件的类型,随后处理器1080根据触摸事件的类型在显示面板1041上提供相应的视觉输出。虽然在图10中,触控面板1031与显示面板1041是作为两个独立的部件来实现电子设备的输入和输入功能,但是在某些实施例中,可以将触控面板1031与显示面板1041集成而实现电子设备的输入和输出功能。
音频电路1060、扬声器1061,传声器1062可提供用户与电子设备之间的音频接口。音频电路1060可将接收到的音频数据转换后的电信号,传输到扬声器1061,由扬声器1061转换为声音信号输出;另一方面,传声器1062将收集的声音信号转换为电信号,由音频电路1060接收后转换为音频数据,再将音频数据输出处理器1080处理后,经RF电路1010以发送给比如另一电子设备,或者将音频数据输出至存储器1020以便进一步处理。
处理器1080是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器1020内的软件程序和/或模块,以及调用存储在存储器1020内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。可选的,处理器1080可包括一个或多个处理单元;优选的,处理器1080可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1080中。
电子设备还包括给各个部件供电的电源1090(比如电池),优选的,电源可以通过电源管理系统与处理器1080逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
在本发明实施例中,该电子设备所包括的处理器1080还具有执行图3和图6对应的实施例中的各步骤。
本发明实施例还提供了另一种通信系统,请参阅图11,图11为通信系统的架构示意图。该通信系统包括学习服务器和测试终端,由学习服务器1110和测试终端1120共同执行上述实施例中电子设备的功能。学习服务器1110用于建立训练模型,学习服务器1110对用于表示用户行为的数据进行学习,生成用于模拟用户行为的预置训练模型,然后,由学习服务器1110将该预置训练模型发送至测试终端1120,测试终端1120加载该预置训练模型后,预置训练模型运行于该测试终端1120,由预置训练模型模拟玩家的行为,向目标应用输入第一控制指令,测试终端1120生成用于测试该目标应用的数据。
具体的,学习服务器1110用于执行上述图3对应的实施例中的步骤301至303,然后,学习服务器1110将建立好的预置训练模型发送至测试终端1120,该测试终端接收该预置训练模型并加载后,还用于执行步骤304至306。
学习服务器1110还用于执行上述图6对应的实施例中的步骤601至步骤611,学习服务器1110将建立好的预置训练模型发送至测试终端1120,该测试终端接收该预置训练模型并加载后,还用于执行步骤611至614。
本发明实施例中,如果公司同时开发多个应用,可以先通过服务器建立多个应用对应的预置训练模型,然后将不同影响发给不同的终端,或者将预置训练模型进行云存储,有测试终端进行下载后,测试终端根据该预置训练模型获取游戏数据。
进一步的,游戏数据主要用于关注游戏品质如用户注册量、留存情况等。游戏在进行外网测试时,模仿游戏的外网灰度策略,通过实际玩家玩游戏的反馈来获得对游戏中不同模块和游戏整体的评价。采取了从应用宝到精品平台,先从小量户量开始测试,收集被测试用户的活跃度,若活跃度满足要求后,再进入全量测试,根据测试结果再不断的对游戏进行优化。请参阅图12所示,图12为灰度策略测试流程示意图。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (12)

1.一种获取游戏数据的方法,其特征在于,包括:
确定与预置训练模型对应的目标应用,所述预置训练模型是通过对第一数据进行训练学习而得到的训练模型,所述第一数据为用于表示用户行为的数据,所述目标应用属于待测试的应用集合;
在所述目标应用运行的过程中,运行所述预置训练模型,所述预置训练模型用于向所述目标应用输入第一控制指令;
根据所述第一控制指令执行所述目标应用,生成用于对所述目标应用进行测试的第二数据。
2.根据权利要求1所述的方法,其特征在于,所述通过预置训练模型向目标应用输入第一控制指令之前,所述方法还包括:
获取第一数据,所述第一数据为客户端接收用户输入的第二控制指令而执行目标应用的过程中所产生的数据集;
根据所述数据集生成用户行为的训练样本;
通过学习算法对所述训练样本进行训练学习,得到所述预置训练模型,所述预置训练模型为人工智能系统。
3.根据权利要求1或2所述的方法,其特征在于,所述通过训练学习算法对所述训练样本进行训练学习,得到所述预置训练模型,包括:
通过所述学习算法对所述训练样本进行分类,生成至少一个学习模型;
将所述至少一个学习模型进行封装,得到第一训练模型;
通过所述第一训练模型向所述目标应用输入控制指令,生成第三数据;
将所述第三数据和所述第一数据进行比较,得到差异参数;
若所述差异参数小于第一门限,则根据所述第一训练模型生成所述智能人工系统;
若所述差异参数大于或者等于所述第一门限,则根据所述差异参数对所述第一训练模型进行优化,得到第二训练模型,并将所述第二训练模型作为第一训练模型;
直至所述差异参数小于所述第一门限。
4.根据权利要求1所述的方法,其特征在于,所述运行所述预置训练模型之前,所述方法还包括:
获取第一数据,所述第一数据为模拟用户行为的模拟样本数据;
通过学习算法对所述模拟样本数据进行训练学习,生成所述预置训练模型。
5.根据权利要求4所述的方法,其特征在于,所述通过训练学习算法对所述模拟样本数据进行训练学习,生成所述预置训练模型,包括:
通过学习算法对所述模拟样本数据进行训练学习,生成第三训练模型;
通过所述第三训练模型向所述目标应用输入第一控制指令,生成第四数据;
通过预置评估函数对所述第四数据进行评估,得到评估结果,所述评估结果用于指示所述第三训练模型与用户行为的差异;
若所述评估结果指示所述差异小于预置门限,则根据所述第三训练模型生成所述预置训练模型。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
若所述评估结果指示所述差异大于或者等于预置门限,则根据所述评估结果向所述第三训练模型中加入随机因素,所述随机因素用于改变所述第三训练模型中的各因素的权值,得到第四训练模型;
通过所述第四训练模型向所述目标应用输入第一控制指令,生成第五数据;
通过所述预置评估函数对所述第五数据进行评估,得到评估结果;
若所述评估结果指示所述差异小于预置门限,则根据所述第四训练模型生成所述预置训练模型。
7.一种电子设备,其特征在于,包括:
确定模块,用于确定与预置训练模型对应的目标应用,所述预置训练模型是通过对第一数据进行训练学习而得到的训练模型,所述第一数据为用于表示用户行为的数据,所述目标应用属于待测试的应用集合;
模型运行模块,用于在所述目标应用运行的过程中,运行所述预置训练模型,所述预置训练模型用于向所述目标应用输入第一控制指令;
应用执行模块,用于根据所述模型运行模块输入的所述第一控制指令执行所述目标应用,生成用于对所述目标应用进行测试的第二数据。
8.根据权利要求7所述的电子设备,其特征在于,还包括:第一获取模块,生成模块和第一模型建立模块;所述第一获取模块,用于获取第一数据,所述第一数据为客户端接收用户输入的第二控制指令而执行目标应用的过程中所产生的数据集;
所述生成模块,用于根据所述第一获取模块产生的所述数据集生成用户行为的训练样本;
所述第一模型建立模块,用于通过学习算法对所述生成模块生成的所述训练样本进行训练学习,得到所述预置训练模型,所述预置训练模型为人工智能系统。
9.根据权利要求8所述的电子设备,其特征在于,所述第一模型建立模块还具体用于:
通过所述学习算法对所述训练样本进行分类,生成至少一个学习模型;
将所述至少一个学习模型进行封装,得到第一训练模型;
通过所述第一训练模型向所述目标应用输入第一控制指令,生成第三数据;
将所述第三数据和所述第一数据进行比较,得到差异参数;
若所述差异参数小于第一门限,则根据所述第一训练模型生成所述智能人工系统;
若所述差异参数大于或者等于所述第一门限,则根据所述差异参数对所述第一训练模型进行优化,得到第二训练模型,并将所述第二训练模型作为第一训练模型;
直至所述差异参数小于所述第一门限。
10.根据权利要求7所述的电子设备,其特征在于,还包括第二获取模块和第二模型建立模块;
第二获取模块,用于获取第一数据,所述第一数据为模拟用户行为的模拟样本数据;
第二模型建立模块,用于通过学习算法对所述第二获取模块获取的所述模拟样本数据进行训练学习,生成所述预置训练模型。
11.根据权利要求10所述的电子设备,其特征在于,所述第二模型建立模块还具体用于:
通过学习算法对所述模拟样本数据进行训练学习,生成第三训练模型;
通过所述第三训练模型向所述目标应用输入第一控制指令,生成第四数据;
通过预置评估函数对所述第四数据进行评估,得到评估结果,所述评估结果用于指示所述第三训练模型与用户行为的差异;
若所述评估结果指示所述差异小于预置门限,则根据所述第三训练模型生成所述预置训练模型。
12.根据权利要求11所述的电子设备,其特征在于,所述第二模型建立模块还具体用于:
若所述评估结果指示所述差异大于或者等于预置门限,则根据所述评估结果向所述第三训练模型中加入随机因素,所述随机因素用于改变所述第三训练模型中的各因素的权值,得到第四训练模型;
通过所述第四训练模型向所述目标应用输入第一控制指令,生成第五数据;
通过所述预置评估函数对所述第五数据进行评估,得到评估结果;
若所述评估结果指示所述差异小于预置门限,则根据所述第四训练模型生成所述预置训练模型。
CN201610950936.XA 2016-10-26 2016-10-26 一种获取游戏数据的方法及电子设备 Active CN106503787B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610950936.XA CN106503787B (zh) 2016-10-26 2016-10-26 一种获取游戏数据的方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610950936.XA CN106503787B (zh) 2016-10-26 2016-10-26 一种获取游戏数据的方法及电子设备

Publications (2)

Publication Number Publication Date
CN106503787A true CN106503787A (zh) 2017-03-15
CN106503787B CN106503787B (zh) 2019-02-05

Family

ID=58323041

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610950936.XA Active CN106503787B (zh) 2016-10-26 2016-10-26 一种获取游戏数据的方法及电子设备

Country Status (1)

Country Link
CN (1) CN106503787B (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107273979A (zh) * 2017-06-08 2017-10-20 第四范式(北京)技术有限公司 基于服务级别来执行机器学习预测的方法及系统
CN107609065A (zh) * 2017-08-30 2018-01-19 武汉斗鱼网络科技有限公司 一种游戏分类方法、装置及电子设备
CN108304853A (zh) * 2017-10-10 2018-07-20 腾讯科技(深圳)有限公司 游戏相关度的获取方法、装置、存储介质和电子装置
CN108434740A (zh) * 2018-03-23 2018-08-24 腾讯科技(深圳)有限公司 一种策略信息确定的方法及装置
CN108491930A (zh) * 2018-03-23 2018-09-04 腾讯科技(深圳)有限公司 一种样本数据的处理方法以及数据处理装置
CN109078323A (zh) * 2018-08-27 2018-12-25 深圳前海益链网络科技有限公司 一种游戏过程数据生产系统
CN109091869A (zh) * 2018-08-10 2018-12-28 腾讯科技(深圳)有限公司 虚拟对象的动作控制方法、装置、计算机设备及存储介质
CN109189689A (zh) * 2018-09-13 2019-01-11 上海连尚网络科技有限公司 用于测试的方法和装置
CN109794060A (zh) * 2019-01-08 2019-05-24 网易(杭州)网络有限公司 一种游戏数据处理的系统及方法、电子设备、存储介质
CN109815155A (zh) * 2019-02-26 2019-05-28 网易(杭州)网络有限公司 一种游戏测试的方法及装置、电子设备、存储介质
CN110032359A (zh) * 2019-02-03 2019-07-19 清华大学 用于3d应用的模型获取方法及装置、介质及计算设备
CN110083334A (zh) * 2018-01-25 2019-08-02 北京顺智信科技有限公司 模型上线的方法及装置
CN110163460A (zh) * 2018-03-30 2019-08-23 腾讯科技(深圳)有限公司 一种确定应用分值的方法及设备
CN110325965A (zh) * 2018-01-25 2019-10-11 腾讯科技(深圳)有限公司 虚拟场景中的对象处理方法、设备及存储介质
CN110489340A (zh) * 2019-07-29 2019-11-22 腾讯科技(深圳)有限公司 一种游戏地图平衡性测试方法、装置、设备及存储介质
CN110935176A (zh) * 2019-11-27 2020-03-31 苏州思酷数字科技有限公司 一种基于大数据的游戏指令预判系统及其工作方法
CN111699500A (zh) * 2018-02-08 2020-09-22 罗布乐思公司 使用机器学习来估计或预估游戏平台中具有时变需求的资源使用
CN111803959A (zh) * 2020-07-21 2020-10-23 腾讯科技(深圳)有限公司 对象控制方法、装置、游戏服务器及介质
CN113052383A (zh) * 2021-03-29 2021-06-29 上海酷量信息技术有限公司 一种基于机器学习的收入预测方法及装置
CN113365706A (zh) * 2018-11-05 2021-09-07 索尼互动娱乐有限责任公司 使用云游戏网络的人工智能(ai)模型训练
CN113811372A (zh) * 2019-03-15 2021-12-17 索尼互动娱乐股份有限公司 用于视频游戏指导和匹配的ai建模

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102026692A (zh) * 2008-06-03 2011-04-20 科乐美数码娱乐株式会社 游戏系统和构成其的认证装置以及商用游戏装置
CN103106340A (zh) * 2013-01-21 2013-05-15 天津大学 基于数据挖掘和数据融合的游戏关卡自动生成系统及方法
CN105119733A (zh) * 2015-07-06 2015-12-02 百度在线网络技术(北京)有限公司 人工智能系统及其状态跳转方法、服务器、通信系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102026692A (zh) * 2008-06-03 2011-04-20 科乐美数码娱乐株式会社 游戏系统和构成其的认证装置以及商用游戏装置
CN103106340A (zh) * 2013-01-21 2013-05-15 天津大学 基于数据挖掘和数据融合的游戏关卡自动生成系统及方法
CN105119733A (zh) * 2015-07-06 2015-12-02 百度在线网络技术(北京)有限公司 人工智能系统及其状态跳转方法、服务器、通信系统

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107273979A (zh) * 2017-06-08 2017-10-20 第四范式(北京)技术有限公司 基于服务级别来执行机器学习预测的方法及系统
CN107609065A (zh) * 2017-08-30 2018-01-19 武汉斗鱼网络科技有限公司 一种游戏分类方法、装置及电子设备
CN108304853A (zh) * 2017-10-10 2018-07-20 腾讯科技(深圳)有限公司 游戏相关度的获取方法、装置、存储介质和电子装置
CN108304853B (zh) * 2017-10-10 2022-11-08 腾讯科技(深圳)有限公司 游戏相关度的获取方法、装置、存储介质和电子装置
CN110083334B (zh) * 2018-01-25 2023-06-20 百融至信(北京)科技有限公司 模型上线的方法及装置
CN110325965A (zh) * 2018-01-25 2019-10-11 腾讯科技(深圳)有限公司 虚拟场景中的对象处理方法、设备及存储介质
CN110083334A (zh) * 2018-01-25 2019-08-02 北京顺智信科技有限公司 模型上线的方法及装置
CN111699500A (zh) * 2018-02-08 2020-09-22 罗布乐思公司 使用机器学习来估计或预估游戏平台中具有时变需求的资源使用
CN111699500B (zh) * 2018-02-08 2024-02-09 罗布乐思公司 使用机器学习来估计或预估游戏平台中具有时变需求的资源使用
CN108491930B (zh) * 2018-03-23 2022-04-15 腾讯科技(深圳)有限公司 一种样本数据的处理方法以及数据处理装置
CN108491930A (zh) * 2018-03-23 2018-09-04 腾讯科技(深圳)有限公司 一种样本数据的处理方法以及数据处理装置
CN108434740A (zh) * 2018-03-23 2018-08-24 腾讯科技(深圳)有限公司 一种策略信息确定的方法及装置
CN108434740B (zh) * 2018-03-23 2021-01-29 腾讯科技(深圳)有限公司 一种策略信息确定的方法及装置、存储介质
CN110163460B (zh) * 2018-03-30 2023-09-19 腾讯科技(深圳)有限公司 一种确定应用分值的方法及设备
CN110163460A (zh) * 2018-03-30 2019-08-23 腾讯科技(深圳)有限公司 一种确定应用分值的方法及设备
CN109091869A (zh) * 2018-08-10 2018-12-28 腾讯科技(深圳)有限公司 虚拟对象的动作控制方法、装置、计算机设备及存储介质
CN109078323A (zh) * 2018-08-27 2018-12-25 深圳前海益链网络科技有限公司 一种游戏过程数据生产系统
CN109078323B (zh) * 2018-08-27 2021-09-03 深圳前海益链网络科技有限公司 一种游戏过程数据生产系统
CN109189689A (zh) * 2018-09-13 2019-01-11 上海连尚网络科技有限公司 用于测试的方法和装置
CN109189689B (zh) * 2018-09-13 2021-08-17 上海连尚网络科技有限公司 用于测试的方法和装置
CN113365706A (zh) * 2018-11-05 2021-09-07 索尼互动娱乐有限责任公司 使用云游戏网络的人工智能(ai)模型训练
CN113365706B (zh) * 2018-11-05 2022-05-17 索尼互动娱乐有限责任公司 使用云游戏网络的人工智能(ai)模型训练
CN109794060A (zh) * 2019-01-08 2019-05-24 网易(杭州)网络有限公司 一种游戏数据处理的系统及方法、电子设备、存储介质
CN109794060B (zh) * 2019-01-08 2022-08-09 网易(杭州)网络有限公司 一种游戏数据处理的系统及方法、电子设备、存储介质
CN110032359A (zh) * 2019-02-03 2019-07-19 清华大学 用于3d应用的模型获取方法及装置、介质及计算设备
CN110032359B (zh) * 2019-02-03 2021-06-11 清华大学 用于3d应用的模型获取方法及装置、介质及计算设备
CN109815155A (zh) * 2019-02-26 2019-05-28 网易(杭州)网络有限公司 一种游戏测试的方法及装置、电子设备、存储介质
CN113811372A (zh) * 2019-03-15 2021-12-17 索尼互动娱乐股份有限公司 用于视频游戏指导和匹配的ai建模
CN110489340A (zh) * 2019-07-29 2019-11-22 腾讯科技(深圳)有限公司 一种游戏地图平衡性测试方法、装置、设备及存储介质
CN110489340B (zh) * 2019-07-29 2021-06-15 腾讯科技(深圳)有限公司 一种游戏地图平衡性测试方法、装置、设备及存储介质
CN110935176A (zh) * 2019-11-27 2020-03-31 苏州思酷数字科技有限公司 一种基于大数据的游戏指令预判系统及其工作方法
CN110935176B (zh) * 2019-11-27 2023-09-12 上海畅造网络科技有限公司 一种基于大数据的游戏指令预判系统及其工作方法
CN111803959A (zh) * 2020-07-21 2020-10-23 腾讯科技(深圳)有限公司 对象控制方法、装置、游戏服务器及介质
CN113052383A (zh) * 2021-03-29 2021-06-29 上海酷量信息技术有限公司 一种基于机器学习的收入预测方法及装置

Also Published As

Publication number Publication date
CN106503787B (zh) 2019-02-05

Similar Documents

Publication Publication Date Title
CN106503787A (zh) 一种获取游戏数据的方法及电子设备
CN106390456B (zh) 游戏中角色行为的生成方法和装置
CN110489340B (zh) 一种游戏地图平衡性测试方法、装置、设备及存储介质
CN107970608A (zh) 关卡游戏的设置方法和装置、存储介质、电子装置
CN108434740A (zh) 一种策略信息确定的方法及装置
CN109107161A (zh) 一种游戏对象的控制方法、装置、介质以及设备
CN110841295B (zh) 一种基于人工智能的数据处理方法和相关装置
CN109718558B (zh) 游戏信息的确定方法和装置、存储介质、电子装置
CN109847366A (zh) 用于游戏的数据处理方法和装置
CN107684720A (zh) 游戏技能生成方法及装置
Lee et al. Learning a Super Mario controller from examples of human play
CN108319974A (zh) 数据处理方法、装置、存储介质和电子装置
CN108304853A (zh) 游戏相关度的获取方法、装置、存储介质和电子装置
CN111957047A (zh) 关卡配置数据调整方法、计算机设备及存储介质
CN106445710A (zh) 一种交互式对象确定的方法及相关设备
CN112685921B (zh) 一种高效精确搜索的麻将智能决策方法、系统及设备
CN109447462A (zh) 一种用于确定研究对象的影响因子的方法与设备
CN117217327A (zh) 一种模型训练方法和相关装置
CN114307124A (zh) 基于摸牌模式下的智能决策方法、系统及计算机设备
CN113935618A (zh) 下棋能力的测评方法、装置、电子设备及存储介质
Teófilo et al. Computer poker research at liacc
Iwasaki et al. A Framework for Generating Playstyles of Game AI with Clustering of Play Logs.
CN112138409A (zh) 游戏结果的预测方法、装置及存储介质
Adra et al. A multiobjective optimisation approach for the dynamic inference and refinement of agent-based model specifications
Kanervisto Advances in deep learning for playing video games

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant