CN110569900A - 游戏ai决策方法及装置 - Google Patents

游戏ai决策方法及装置 Download PDF

Info

Publication number
CN110569900A
CN110569900A CN201910836978.4A CN201910836978A CN110569900A CN 110569900 A CN110569900 A CN 110569900A CN 201910836978 A CN201910836978 A CN 201910836978A CN 110569900 A CN110569900 A CN 110569900A
Authority
CN
China
Prior art keywords
decision
game
player
model
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910836978.4A
Other languages
English (en)
Inventor
李幸涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Dayu Network Technology Co Ltd
Original Assignee
Suzhou Dayu Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Dayu Network Technology Co Ltd filed Critical Suzhou Dayu Network Technology Co Ltd
Priority to CN201910836978.4A priority Critical patent/CN110569900A/zh
Publication of CN110569900A publication Critical patent/CN110569900A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了游戏AI决策方法及装置,该方法包括获取当前对战的玩家信息并根据玩家信息在预设的若干决策模型中选择相应的决策模型;获取当前游戏场景信息并输入至所选的决策模型;接收所选的决策模型输出的决策;执行所述决策模型输出的决策。本发明提供的方法,通过预设不同的决策模型,在与玩家对战时,使得游戏AI可以根据对战的玩家的信息选择与玩家水平相当的决策模型,极大地增加了游戏的趣味性;获取当前游戏场景信息并输入至所选模型,使游戏AI可以根据当前游戏场景作出适应当前游戏场景的决策,提高了游戏AI的智能程度,提高玩家在游戏过程中的博弈体验。

Description

游戏AI决策方法及装置
技术领域
本发明涉及游戏开发技术领域,特别涉及游戏AI决策方法及装置。
背景技术
人工智能(Artificial Intelligence,缩写为AI)是计算机领域的重要研究方向,通过对人类行为的分析与模拟,可以驱动计算机自主完成工作,形成类似于人类的智能。如今,人工智能技术广泛应用于电子游戏,为了满足电子游戏的竞技性与趣味性,通常为非玩家角色(Non-Player Character,缩写为NPC),设置对应的人工智能,使其具备相应的决策能力,提高用户的游戏体验。
目前,游戏AI决策主要采用动态调整预设策略的方法,即预设几种不同类型的人工策略,根据玩家能力或经验值,来动态的或随机的选择预设策略。这种决策方法,游戏AI决策过于刻板,并不会根据游戏场景变化进行调整,很容易被玩家发现规律,失去游戏乐趣。而基于遗传算法的AI游戏技术,会根据以往的经验去优化策略,在模拟过程中寻求最优解,则越强大的玩家会面临更强大的敌人,并且没有尽头,使玩家没有好的游戏体验。因此,游戏AI需要具备匹配玩家水平的决策方法,提高游戏AI的智能程度,提高用户在游戏过程中的博弈体验。
发明内容
本发明的目的是要提供游戏AI决策方法及装置,可以解决上述现有问题中的一个或多个。
本发明实施例公开了游戏AI决策方法,包括以下步骤,
获取当前对战的玩家信息并根据玩家信息在预设的若干决策模型中选择相应的决策模型;
获取当前游戏场景信息并输入至所选的决策模型;
接收所选的决策模型输出的决策;
执行决策模型输出的决策。
在一些实施方式中,当前对战的玩家信息包括当前对战的玩家的段位信息。
在一些实施方式中,决策模型的生成方法包括以下步骤:
获取历史游戏数据并按照玩家段位整合成对应不同段位的数据集;
获得初始模型并获取特征与特征标签;
使用特征与特征标签对初始模型进行训练;
根据已训练的初始模型生成决策模型。
在一些实施方式中,获取历史游戏数据并按照玩家段位整合成对应不同段位的数据集包括:
获取历史游戏数据,历史游戏数据包括玩家操作数据、玩家账号信息和历史游戏场景等数据;
将历史游戏数据进行维度划分,形成多维向量;
将多维向量与历史游戏数据相关的段位信息进行关联;
形成某一段位的数据集。
在一些实施方式中,接收所选的决策模型输出的决策包括:
决策模型生成全部可行决策的生成概率并输出生成概率最大的可行决策;
游戏AI接收所选的决策模型输出的决策。
本发明实施例还公开了游戏AI决策装置,该装置包括以下模块:
决策模型选择模块,用于获取当前对战的玩家信息并根据玩家信息在预设的若干决策模型中选择相应的决策模型;
场景信息输入模块,用于获取当前游戏场景信息并输入至所选的决策模型;
决策接收模块,用于接收所选的决策模型输出的决策;
决策执行模块,用于执行决策模型输出的决策。
在一些实施方式中,决策模型选择模块获取的当前对战的玩家信息包括当前对战的玩家的段位信息。
在一些实施方式中,还包括决策模型生成模块,决策模型生成模块包括,
数据集整合单元,用于获取历史游戏数据并按照玩家段位整合成对应不同段位的数据集;
初始模型生成单元,用于获得初始模型并获取特征与特征标签;
初始模型训练单元,用于使用特征与特征标签对初始模型进行训练;
决策模型生成单元,用于根据已训练的初始模型生成决策模型。
在一些实施方式中,数据集整合单元包括:
历史游戏数据获取单元,用于获取历史游戏数据,历史游戏数据包括玩家操作数据、玩家账号信息和历史游戏场景等数据;
多维向量生成单元,用于将历史游戏数据进行维度划分,形成多维向量;
段位关联单元,用于将多维向量与历史游戏数据相关的段位信息进行关联;
数据集生成单元,用于形成某一段位的数据集。
在一些实施方式中,决策接收模块中接收的决策是由决策模型生成全部可行决策的生成概率后输出的生成概率最大的可行决策。
本发明通过预设不同的决策模型,在与玩家对战时,使得游戏AI可以根据对战的玩家的信息选择与玩家水平相当的决策模型,极大地增加了游戏的趣味性;获取当前游戏场景信息并输入至所选模型,使游戏AI可以根据当前游戏场景作出适应当前游戏场景的决策,提高了游戏AI的智能程度,提高玩家在游戏过程中的博弈体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种游戏AI决策方法实施例的步骤流程图;
图2是本发明的一种游戏AI决策方法中决策模型生成方法实施例的步骤流程图;
图3是本发明的一种游戏AI决策装置实施例的结构框图;
图4是本发明的一种游戏AI决策装置中决策模型生成模块实施例的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
图1至图2示出了一种游戏AI决策方法,具体包括以下步骤:
S11:获取当前对战的玩家信息并根据玩家信息在预设的若干决策模型中选择相应的决策模型;
当游戏AI与玩家对战时,可以获取当前对战的玩家信息,在可选的实施例中,当前对战的玩家信息包括当前对战的玩家的段位信息。
具体地,预设若干决策模型,每一个决策模型对应一个玩家的段位,例如,在游戏中,根据玩家每一次的对战的胜负结果,为玩家进行相应的积分增减,根据玩家累计的积分情况,可将玩家分为三个段位:低级段位、中级段位和高级段位,获取了玩家的段位信息后,根据玩家的段位信息,选择相应段位的决策模型,由此,实现与玩家水平相当的决策,能够极大地增加了游戏的趣味性。
S12:获取当前游戏场景信息并输入至所选的决策模型;
可以获取当前游戏场景下的各种数据,将数据输入至所选的决策模型。在可选的实施例中,获取当前游戏经信息并转化成相应的多维向量。例如,在游戏中,游戏AI在与玩家对战时需要进行出兵的决策,此时多维向量中包含的信息可以包括:玩家金币值、玩家魔法、玩家已购兵种、玩家已购阵法、游戏AI金币值、游戏AI魔法、游戏AI已购兵种、游戏AI已购阵法等。
将以上获得的多维向量输入至所选的决策模型,决策模型采用以上多维向量,生成出兵决策。其中,决策模型由相应段位玩家的历史游戏数据训练生成,能够预测在当前游戏场景下玩家的出兵策略,从而使游戏AI模拟玩家操作。
S13:接收所选的决策模型输出的决策;
在可选的实施例中,决策模型会生成在此游戏场景系全部可行决策的生成概率,并输出生成概率最大的可行决策。由此,在不同的可行决策中选择生成概率最高的决策输出,避免生成单一决策而导致决策生成有偏差的问题,提高了游戏AI的智能程度。
S14:执行决策模型输出的决策。
具体地,执行决策模型输出的决策,实现了根据玩家实际水平模拟玩家决策的目的,提高了游戏AI的智能程度,提高玩家游戏过程中的博弈体验。
在可选的实施例中,决策模型的生成方法包括以下步骤:
S21:获取历史游戏数据并按照玩家段位整合成对应不同段位的数据集;
具体地,历史游戏数据包括玩家操作数据、玩家账号信息和历史游戏场景等数据。例如,历史游戏数据包括但不限于作、操作时间、玩家的段位、玩家的金币值、玩家的魔法、玩家已购兵种、玩家已购阵法、与玩家对战的对手的相应信息以及对战的结果。
具体地,在获取历史游戏数据后,可以将历史游戏数据进行维度划分,形成相应的多维向量,并且将多维向量根据向量中包含的玩家对战当时的段位信息进行划分,根据玩家对战当时的段位不同,从而不同段位的数据集。
S22:获得初始模型并获取特征与特征标签;
数据集由大量的数据单元组成,数据单元中包括特征与特征标签,具体地,在出兵决策的决策模型对应的数据集中,数据单元的特征为与兵种相关的多维向量,特征标签则用来描述出兵决策。
S23:使用特征与特征标签对初始模型进行训练;
初始模型中设置有函数,初始模型使用特征生成决策结果,将决策结果与特征标签进行对比,从而判断决策的准确性。若决策结果与特征标签相差较多,则进行函数调整。在可选的实施例中,可以通过对决策结果进行标注的方式获得初始模型的有效率,即训练过程中,根据对战结果,将决策结果进行有效或无效的标注,获取有效率。
S24:根据已训练的初始模型生成决策模型。
当初始模型的有效率达到预设的数值,则停止训练初始模型,停止训练后的初始模型即为决策模型。例如,当初始模型的有效率达到90%,即可以停止训练。
本发明通过预设不同的决策模型,在与玩家对战时,使得游戏AI可以根据对战的玩家的信息选择与玩家水平相当的决策模型,极大地增加了游戏的趣味性;获取当前游戏场景信息并输入至所选模型,使游戏AI可以根据当前游戏场景作出适应当前游戏场景的决策,提高了游戏AI的智能程度,提高玩家在游戏过程中的博弈体验。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,,某些步骤可以采用其他顺序或者同时进行。
实施例2:
图3和图4示出了一种游戏AI的决策装置,具体包括以下模块:
决策模型选择模块301,用于获取当前对战的玩家信息并根据玩家信息在预设的若干决策模型中选择相应的决策模型;
场景信息输入模块302,用于获取当前游戏场景信息并输入至所选的决策模型;
决策接收模块303,用于接收所选的决策模型输出的决策;
决策执行模块304,用于执行决策模型输出的决策。
在可选的实施例中,决策模型选择模块301获取的当前对战的玩家信息包括当前对战的玩家的段位信息。
在可选的实施例中,该装置还包括决策模型生成模块,决策模型生成模块包括,
数据集整合单元401,用于获取历史游戏数据并按照玩家段位整合成对应不同段位的数据集;
初始模型生成单元402,用于获得初始模型并获取特征与特征标签;
初始模型训练单元403,用于使用特征与特征标签对初始模型进行训练;
决策模型生成单元404,用于根据已训练的初始模型生成决策模型。
在可选的实施例中,数据集整合单元401包括:
历史游戏数据获取单元,用于获取历史游戏数据,历史游戏数据包括玩家操作数据、玩家账号信息和历史游戏场景等数据;
多维向量生成单元,用于将历史游戏数据进行维度划分,形成多维向量;
段位关联单元,用于将多维向量与历史游戏数据相关的段位信息进行关联;
数据集生成单元,用于形成某一段位的数据集。
在可选的实施例中,决策接收模块303中接收的决策是由决策模型生成全部可行决策的生成概率后输出的生成概率最大的可行决策。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其他的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或单元可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。所述作为分离部件说明的模块或单元可以是或者也可以不是物理上分开的。作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际需要选择其中的部分或者全部单元来实现本实施例方案的目的。
所以集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术作出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器、随机存储器、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
尽管已描述了本发明实施例的可选实施方式,但本领域内的技术人员在不脱离本发明原理的前提下,还可以对这些实施例做出另外的变更和修改。所以,附权利要求意欲解释为包括可选实施例以及落入本发明实施例范围的所有变更和修改。
术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法或者装置所固有的要素,在没有更多限制的情况下,由语句“包括一个.......”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
本申请中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.游戏AI决策方法,其特征在于,该方法包括以下步骤:
获取当前对战的玩家信息并根据玩家信息在预设的若干决策模型中选择相应的决策模型;
获取当前游戏场景信息并输入至所选的决策模型;
接收所选的决策模型输出的决策;
执行所述决策模型输出的决策。
2.根据权利要求1所述的方法,其特征在于,所述当前对战的玩家信息包括当前对战的玩家的段位信息。
3.根据权利要求2所述的方法,其特征在于,所述决策模型的生成方法包括以下步骤:
获取历史游戏数据并按照玩家段位整合成对应不同段位的数据集;
获得初始模型并获取特征与特征标签;
使用特征与特征标签对初始模型进行训练;
根据已训练的初始模型生成决策模型。
4.根据权利要求3所述的方法,其特征在于,所述获取历史游戏数据并按照玩家段位整合成对应不同段位的数据集包括:
获取历史游戏数据,所述历史游戏数据包括玩家操作数据、玩家账号信息和历史游戏场景等数据;
将所述历史游戏数据进行维度划分,形成多维向量;
将所述多维向量与历史游戏数据相关的段位信息进行关联;
形成某一段位的数据集。
5.根据权利要求1所述的方法,其特征在于,接收所选的决策模型输出的决策包括:
决策模型生成全部可行决策的生成概率并输出生成概率最大的可行决策;
游戏AI接收所选的决策模型输出的决策。
6.游戏AI决策装置,其特征在于,该装置包括以下模块:
决策模型选择模块,用于获取当前对战的玩家信息并根据玩家信息在预设的若干决策模型中选择相应的决策模型;
场景信息输入模块,用于获取当前游戏场景信息并输入至所选的决策模型;
决策接收模块,用于接收所选的决策模型输出的决策;
决策执行模块,用于执行所述决策模型输出的决策。
7.根据权利要求6所述的装置,其特征在于,所述决策模型选择模块获取的当前对战的玩家信息包括当前对战的玩家的段位信息。
8.根据权利要求7所述的装置,其特征在于,还包括决策模型生成模块,所述决策模型生成模块包括,
数据集整合单元,用于获取历史游戏数据并按照玩家段位整合成对应不同段位的数据集;
初始模型生成单元,用于获得初始模型并获取特征与特征标签;
初始模型训练单元,用于使用特征与特征标签对初始模型进行训练;
决策模型生成单元,用于根据已训练的初始模型生成决策模型。
9.根据权利要求8所述的装置,其特征在于,所述数据集整合单元包括:
历史游戏数据获取单元,用于获取历史游戏数据,所述历史游戏数据包括玩家操作数据、玩家账号信息和历史游戏场景等数据;
多维向量生成单元,用于将所述历史游戏数据进行维度划分,形成多维向量;
段位关联单元,用于将所述多维向量与历史游戏数据相关的段位信息进行关联;
数据集生成单元,用于形成某一段位的数据集。
10.根据权利要求6所述的装置,其特征在于,决策接收模块中接收的决策是由决策模型生成全部可行决策的生成概率后输出的生成概率最大的可行决策。
CN201910836978.4A 2019-09-05 2019-09-05 游戏ai决策方法及装置 Pending CN110569900A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910836978.4A CN110569900A (zh) 2019-09-05 2019-09-05 游戏ai决策方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910836978.4A CN110569900A (zh) 2019-09-05 2019-09-05 游戏ai决策方法及装置

Publications (1)

Publication Number Publication Date
CN110569900A true CN110569900A (zh) 2019-12-13

Family

ID=68777903

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910836978.4A Pending CN110569900A (zh) 2019-09-05 2019-09-05 游戏ai决策方法及装置

Country Status (1)

Country Link
CN (1) CN110569900A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111330279A (zh) * 2020-02-24 2020-06-26 网易(杭州)网络有限公司 一种游戏ai的策略决策模型训练方法和装置
CN111841017A (zh) * 2020-05-29 2020-10-30 北京编程猫科技有限公司 一种游戏ai的编程实现方法及装置
CN113240119A (zh) * 2021-04-08 2021-08-10 南京大学 一种用于游戏ai策略解释的跨模型蒸馏装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106182006A (zh) * 2016-08-09 2016-12-07 北京光年无限科技有限公司 面向智能机器人的棋牌交互数据处理方法及装置
CN107998661A (zh) * 2017-12-26 2018-05-08 苏州大学 一种在线对战游戏的辅助决策方法、装置及存储介质
CN108724182A (zh) * 2018-05-23 2018-11-02 苏州大学 基于多类别模仿学习的端到端游戏机器人生成方法及系统
CN108888958A (zh) * 2018-06-22 2018-11-27 深圳市腾讯网络信息技术有限公司 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
CN108920221A (zh) * 2018-06-29 2018-11-30 网易(杭州)网络有限公司 游戏难度调整的方法及装置、电子设备、存储介质
CN109621422A (zh) * 2018-11-26 2019-04-16 腾讯科技(深圳)有限公司 电子棋牌决策模型训练方法及装置、策略生成方法及装置
CN109908591A (zh) * 2019-03-19 2019-06-21 网易(杭州)网络有限公司 一种虚拟对象的决策方法、模型构建方法和装置
CN109925717A (zh) * 2019-03-06 2019-06-25 网易(杭州)网络有限公司 一种游戏胜率的预测方法、模型生成方法和装置
CN110052031A (zh) * 2019-04-11 2019-07-26 网易(杭州)网络有限公司 玩家的模仿方法、装置及可读存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106182006A (zh) * 2016-08-09 2016-12-07 北京光年无限科技有限公司 面向智能机器人的棋牌交互数据处理方法及装置
CN107998661A (zh) * 2017-12-26 2018-05-08 苏州大学 一种在线对战游戏的辅助决策方法、装置及存储介质
CN108724182A (zh) * 2018-05-23 2018-11-02 苏州大学 基于多类别模仿学习的端到端游戏机器人生成方法及系统
CN108888958A (zh) * 2018-06-22 2018-11-27 深圳市腾讯网络信息技术有限公司 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
CN108920221A (zh) * 2018-06-29 2018-11-30 网易(杭州)网络有限公司 游戏难度调整的方法及装置、电子设备、存储介质
CN109621422A (zh) * 2018-11-26 2019-04-16 腾讯科技(深圳)有限公司 电子棋牌决策模型训练方法及装置、策略生成方法及装置
CN109925717A (zh) * 2019-03-06 2019-06-25 网易(杭州)网络有限公司 一种游戏胜率的预测方法、模型生成方法和装置
CN109908591A (zh) * 2019-03-19 2019-06-21 网易(杭州)网络有限公司 一种虚拟对象的决策方法、模型构建方法和装置
CN110052031A (zh) * 2019-04-11 2019-07-26 网易(杭州)网络有限公司 玩家的模仿方法、装置及可读存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111330279A (zh) * 2020-02-24 2020-06-26 网易(杭州)网络有限公司 一种游戏ai的策略决策模型训练方法和装置
CN111330279B (zh) * 2020-02-24 2023-04-07 网易(杭州)网络有限公司 一种游戏ai的策略决策模型训练方法和装置
CN111841017A (zh) * 2020-05-29 2020-10-30 北京编程猫科技有限公司 一种游戏ai的编程实现方法及装置
CN113240119A (zh) * 2021-04-08 2021-08-10 南京大学 一种用于游戏ai策略解释的跨模型蒸馏装置
CN113240119B (zh) * 2021-04-08 2024-03-19 南京大学 一种用于游戏ai策略解释的跨模型蒸馏装置

Similar Documents

Publication Publication Date Title
CN107970608B (zh) 关卡游戏的设置方法和装置、存储介质、电子装置
CN109814955B (zh) 阵容确定的方法、装置及电子设备
Shaker et al. The 2010 Mario AI championship: Level generation track
Karakovskiy et al. The mario ai benchmark and competitions
Olesen et al. Real-time challenge balance in an RTS game using rtNEAT
CN110569900A (zh) 游戏ai决策方法及装置
Loiacono et al. Automatic track generation for high-end racing games using evolutionary computation
CN108920221B (zh) 游戏难度调整的方法及装置、电子设备、存储介质
Mahlmann et al. Evolving card sets towards balancing dominion
CN109847367A (zh) 一种游戏胜率的预测方法、模型生成方法和装置
Green et al. Mario level generation from mechanics using scene stitching
CN112107866A (zh) 用户行为数据处理方法、装置、设备及存储介质
Shaker et al. Feature analysis for modeling game content quality
CN111701240B (zh) 虚拟物品的提示方法、装置、存储介质和电子装置
US20220193554A1 (en) Device and method for generating npc capable of adjusting skill level
CN113343089B (zh) 用户召回方法及装置、设备
CN113426094A (zh) 一种棋力调整方法、装置、设备及存储介质
Shaker et al. Alone we can do so little, together we can do so much: A combinatorial approach for generating game content
Pereira et al. Learning to speed up evolutionary content generation in physics-based puzzle games
CN110659023B (zh) 一种程序化内容生成的方法以及相关装置
CN113230650B (zh) 一种数据处理方法、装置及计算机可读存储介质
Shakhova et al. Dynamic Difficulty Adjustment with a simplification ability using neuroevolution
Ghazali et al. Esports Analytics on PlayerUnknown's Battlegrounds Player Placement Prediction using Machine Learning
Lora Ariza et al. Towards finding flow in Tetris
KR20180083703A (ko) 인공 신경망을 기반으로 한 대전형 게임 캐릭터의 의사 결정 방법 및 이를 위한 컴퓨터 프로그램

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191213