CN109999503B - 一种游戏互动方法和装置 - Google Patents
一种游戏互动方法和装置 Download PDFInfo
- Publication number
- CN109999503B CN109999503B CN201910309924.2A CN201910309924A CN109999503B CN 109999503 B CN109999503 B CN 109999503B CN 201910309924 A CN201910309924 A CN 201910309924A CN 109999503 B CN109999503 B CN 109999503B
- Authority
- CN
- China
- Prior art keywords
- player
- game
- time interval
- historical
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
- A63F13/795—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请实施例公开了一种游戏互动方法和装置,用于为玩家构建一个相对公平,体验感较好的游戏环境,从而提高游戏的竞争性。本申请实施例方法包括:确定第一玩家的游戏时间区间和第二玩家的游戏时间区间;在所述第一玩家的游戏时间区间对应的游戏互动场景,判断所述第二玩家的游戏时间区间与所述第一玩家的游戏时间区间是否相同,若不同,则根据所述第二玩家的历史游戏数据建立所述第二玩家对应的人工智能AI玩家模型,所述第二玩家对应的AI玩家模型的游戏数据与所述第一玩家的游戏数据的差距位于预设范围内;利用所述第二玩家对应的AI玩家模型与所述第一玩家互动。
Description
技术领域
本申请涉及游戏领域,尤其涉及一种游戏互动方法和装置。
背景技术
互联网技术的快速发展带动了游戏行业的发展,从而出现了非常多的游戏。游戏之间的竞争情况也是十分激烈。
游戏中的竞争通常是考虑用户的粘性。在竞技类游戏(比如英雄联盟、王者荣耀和吃鸡等)是一个多个同时在同一起跑线,同等时间内互动的游戏,大家都是平等的竞技,这样用户之间通常不会因为游戏的公平性而脱离游戏。在大型的网络游戏中每个人的游戏时间不同导致了玩家之间存在差异性。比如,有的人时间充足,从而在线时间长,等级装备等都领先其他人;而有的人缺少游戏时间,从而在线时间少,等级装备等相对落后。
在玩家之间的差距较大时,玩家的体验并不好,因此容易导致玩家流失。
发明内容
本申请实施例提供了一种游戏互动方法和装置,用于为玩家构建一个相对公平,体验感较好的游戏环境,从而提高游戏的竞争性。
第一方面,本申请实施例提供一种游戏互动方法,包括:游戏互动装置确定第一玩家的游戏时间区间和第二玩家的游戏时间区间;在所述第一玩家的游戏时间区间对应的游戏互动场景,该游戏互动装置判断所述第二玩家的游戏时间区间与所述第一玩家的游戏时间区间是否相同,若不同,则该游戏互动装置根据所述第二玩家的历史游戏数据建立所述第二玩家对应的人工智能(Artificial Intelligence,AI)玩家模型,所述第二玩家对应的AI玩家模型的游戏数据与所述第一玩家的游戏数据的差距位于预设范围内;该游戏互动装置利用所述第二玩家对应的AI玩家模型与所述第一玩家互动。
若该游戏互动装置确定该第一玩家的游戏时间区间与该第二玩家的游戏时间区间相同时,该游戏互动装置将该第一玩家与该第二玩家划分于同一游戏互动场景,即该第一玩家与该第二玩家均是真人操作,实现游戏互动。
本实施例中的该游戏数据包括该玩家游戏等级数据,玩家游戏装备数据、游戏技能等级数据等信息。而该预设范围可以是指游戏等级相差不超过第一预设值,游戏装备数据不超过第二预设值,游戏技能等级不超过第三预设值。一种示例中,该第一预设值可以设置为3,该第二预设值可以设置为500,该第三预设值设置为1。比如,该第一玩家的游戏数据为玩家游戏等级为30级,玩家游戏装备综合战力为4500、游戏技能等级为高级,而该第二玩家对应的AI玩家模型的游戏等级为29、玩家游戏装备综合战力为4400、游戏技能等级为高级。
本申请实施例提供的技术方案中,根据不同的游戏时间区间为游戏玩家构建不同的游戏互动场景。在相应的游戏互动场景内,为不属于该游戏时间区间的玩家构建AI玩家模型,使得该AI玩家模型的游戏数据与该游戏互动场景中真实玩家角色的游戏数据差不多,从而降低玩家之间产生极端差距的概率,增加玩家对于游戏的体验感以及玩家对于游戏的粘性。
可选的,该游戏互动装置在确定该第一玩家的游戏时间区间和该第二玩家的游戏时间区间时,具体可以采用如下技术方案:
该游戏互动装置获取游戏时长与游戏时间区间的对应关系表;然后该游戏互动装置统计该第一玩家的游戏时长和该第二玩家的游戏时长;最后该游戏互动装置根据该对应关系表和该第一玩家的游戏时长确定该第一玩家的游戏时间区间,根据该对应关系表和该第二玩家的游戏时长确定该第二玩家的游戏时间区间。
本实施例中,一种示例中,该对应关系表可以如下:比如第一游戏时间区间所归属的游戏时长为1个月到3个月;第二游戏时间区间所归属的游戏时长为3个月到6个月;第三游戏时间区间所归属的游戏时长为6个月到12个月等等,该对应关系表可以依次类推。比如,该游戏互动装置统计到该第一玩家的游戏时长为4个月,则该第一玩家的游戏时间区间为该第二游戏时间区间;该游戏互动装置统计到该第二玩家的游戏时长为6.5个月,则该第二玩家的游戏时间区间为该第三游戏时间区间。这样可以将所有的玩家按照时间段划分,从而确定各个游戏时间区间内的玩家的游戏数据相差不大,有利于构建相对公平的游戏互动场景。
可选的,该历史游戏数据包括历史行为特征数据、历史行为时间序列、历史游戏等级和历史游戏装置装备数据。基于上述历史游戏数据,该游戏互动装置在建立该第二玩家对应的AI玩家模型时,具体可以采用如下技术方案:
该游戏互动装置根据该第二玩家的历史行为特征数据以及历史行为时间序列建立上下线模型;并根据该第二玩家的历史行为特征数据利用深度学习算法建立对话模型;并根据该第二玩家的历史游戏等级和历史游戏装备数据建立游戏人物;并根据该第二玩家的历史行为特征数据和该游戏的游戏技能数据建立技能释放模型;最后根据该上下线模型、对话模型、游戏人物以及技能释放模型生成该第二玩家对应的AI玩家模型。
本实施例中,该历史行为特征数据用于指示该玩家在游戏过程中的操作行为(比如组队、打怪、做任务以及与其他玩家挑战)、该玩家与其他玩家互动时的语言行为等等;该历史行为时间序列用于指示该玩家在游戏内的时间序列(比如在玩家在哪个时间点上线,在哪个时间点下线,在哪个时间点升级,在哪个时间点打怪,在哪个时间点做任务等);该历史游戏等级用于指示该玩家在游戏进程中各个不同时间段内的等级信息(比如在哪个时间点为什么等级等);该历史游戏装备数据用于指示该玩家在游戏进程中各个不同时间段内的游戏装备信息(比如在某一个等级该玩家所操纵的游戏人物的游戏装备);该游戏技能数据用于指示该玩家在游戏过程中使用游戏技能的操作习惯以及游戏技能的释放效果等信息。具体来说,该游戏互动装置可以根据历史行为特征数据和历史行为时间序列利用梯度推进机(Gradient Boosting Machine,GBM)等算法训练对应的上下线模型;该游戏互动装置可以根据历史行为特征数据利用深度学习算法或者利用长短期记忆网络(Long Short-Term Memory,LSTM)等循环神经网络结构训练一个对话模型;该游戏互动装置可以根据该历史行为特征数据和该游戏技能数据使用监督学习方法,利用深度模型以及通过Softmax多分类输出技能的输出概率,从而生成技能释放模型。
可选的,该游戏互动装置在根据该历史游戏等级和历史游戏装备建立游戏人物时,具体可以采用如下技术方案:在该第一玩家的游戏互动场景下,若该第二玩家的游戏时间区间超过该第一玩家的游戏时间区间,则该游戏互动装置直接采用该第二玩家的游戏时长处于该第一玩家的游戏时间区间时的历史游戏等级和历史游戏装备生成该游戏人物;在该第一玩家的游戏互动场景下,若该第二玩家的游戏时间区间低于该第一玩家的游戏时间区间时,则该游戏互动装置根据该第二玩家的历史游戏等级和历史游戏装备数据利用游戏人物生成模型生成该游戏人物。其中,该游戏人物生成模型是采用机器学习根据各个玩家的历史游戏等级和历史游戏装备训练生成的装备等级自动生成模型。比如若该第二玩家的游戏时长为6.5个月,该第一玩家的游戏时长为4个月,即该第二玩家的游戏时间区间超过该第一玩家的游戏时间区间,这时该游戏互动装置可以直接根据该第二玩家的游戏时长为4个月时的游戏等级和游戏装备生成该第二玩家在该第一玩家的游戏互动场景下的游戏人物。若该第二玩家的游戏时长为2个月,该第一玩家的游戏时长为4个月,即该第二玩家的游戏时间区间低于该第一玩家的游戏时间区间,这时该游戏互动装置可以根据该第二玩家在2个月内的历史游戏等级和历史游戏装备数据利用游戏人物生成模型生成该第二玩家在该第一玩家的游戏互动场景内的游戏人物。
上述方案是针对在该第一玩家的游戏互动场景,同理在该第二玩家的游戏互动场景,该游戏互动装置也需要判断该第二玩家的游戏时间区间与该第一玩家的游戏时间区间是否相同,若不相同,则该游戏互动装置根据该第一玩家的历史游戏数据建立该第一玩家对应的AI玩家模型;然后该游戏互动装置利用该第一玩家对应的AI玩家模型与该第二玩家互动。
可以理解的是,该游戏互动装置在该第二玩家的游戏互动场景里建立该第一玩家对应的AI玩家模型采用的方式与上述方式相同,具体此处不再赘述。
第二方面,本申请实施例提供一种游戏互动装置,具体包括:
一种可能实现方式中,该游戏互动装置包括:
确定模块,用于确定第一玩家的游戏时间区间和第二玩家的游戏时间区间;
处理模块,用于在所述第一玩家的游戏时间区间对应的游戏互动场景,判断所述第二玩家的游戏时间区间与所述第一玩家的游戏时间区间是否相同,若不同,则根据所述第二玩家的历史游戏数据建立所述第二玩家对应的人工智能AI玩家模型,所述第二玩家对应的AI玩家模型的游戏数据与所述第一玩家的游戏数据的差距位于预设范围内;
交互模块,用于利用所述第二玩家对应的AI玩家模型与所述第一玩家互动。
可选的,所述确定模块,具体用于获取游戏时长与游戏时间区间的对应关系表;
获取所述第一玩家的游戏时长和所述第二玩家的游戏时长;
根据所述对应关系表确定所述第一玩家的游戏时长所属的游戏时间区间,并确定所述第二玩家的游戏时长所属的游戏时间区间。
可选的,所述历史游戏数据包括历史行为特征数据、历史行为时间序列、历史游戏等级和历史游戏装备数据,所述处理模块,具体用于根据所述第二玩家的历史行为特征数据以及历史行为时间序列建立上下线模型;
根据所述第二玩家的历史行为特征数据利用深度学习算法建立对话模型;
根据所述第二玩家的历史游戏等级和历史游戏装备数据建立游戏人物;
根据所述第二玩家的历史行为特征数据和所述游戏技能数据建立技能释放模型;
根据所述上下线模型、所述对话模型、所述游戏人物和所述技能释放模型生成所述AI玩家模型。
可选的,所述处理模块,具体用于若所述第二玩家的游戏时间区间对应的游戏时长超过所述第一玩家的游戏时间区间对应的游戏时长,则根据所述第二玩家处于所述第一玩家的游戏时间区间里的历史游戏等级和历史游戏装备数据生成所述游戏人物;
若所述第二玩家的游戏时间区间对应的游戏时长低于所述第一玩家的游戏时间区间对应的游戏时长,则根据所述第二玩家的历史游戏等级和历史游戏装备数据利用游戏人物生成模型生成所述游戏人物。
可选的,所述处理模块,还用于在所述第二玩家的游戏时间区间对应的游戏互动场景,判断所述第二玩家的游戏时间区间与所述第一玩家的游戏时间区间是否相同,若不同,则根据所述第一玩家的历史游戏数据建立所述第一玩家对应的人工智能AI玩家模型;
所述交互模块,还用于利用所述第一玩家对应的AI玩家模型与所述第二玩家互动。
另一种可能实现方式中,该游戏互动装置包括:
处理器和存储器,其中,所述存储器中存有计算机可读程序,所述处理器通过运行所述存储器中的程序,以用于上述第一方面所述的方法。
第三方面,本申请实施例提供一种计算机可读存储介质,包括指令,当所述指令在计算机上运行时,所述计算机执行上述第一方面所述的方法。
第四方面,本申请实施例提供一种包含指令的计算机程序产品,当所述计算机程序产品在计算机上运行时,所述计算机执行上述第一方面所述的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:根据不同的游戏时间区间为游戏玩家构建不同的游戏互动场景。在相应的游戏互动场景内,为不属于该游戏时间区间的玩家构建AI玩家模型,使得该AI玩家模型的游戏数据与该游戏互动场景中真实玩家角色的游戏数据差不多,从而降低玩家之间产生极端差距的概率,增加玩家对于游戏的体验感以及玩家对于游戏的粘性。
附图说明
图1为本申请实施例中游戏互动方法的一个实施例示意图;
图2为本申请实施例中游戏互动方法的另一个实施例示意图;
图3为本申请实施例中游戏互动装置的一个实施例示意图;
图4为本申请实施例中游戏互动装置的另一个实施例示意图。
具体实施方式
本申请实施例提供了一种游戏互动方法和装置,用于为玩家构建一个相对公平,体验感较好的游戏环境,从而提高游戏的竞争性。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
互联网技术的快速发展带动了游戏行业的发展,从而出现了非常多的游戏。游戏之间的竞争情况也是十分激烈。游戏中的竞争通常是考虑用户的粘性。在竞技类游戏(比如英雄联盟、王者荣耀和吃鸡等)是一个多个同时在同一起跑线,同等时间内互动的游戏,大家都是平等的竞技,这样用户之间通常不会因为游戏的公平性而脱离游戏。在大型的网络游戏中每个人的游戏时间不同导致了玩家之间存在差异性。比如,有的人时间充足,从而在线时间长,等级装备等都领先其他人;而有的人缺少游戏时间,从而在线时间少,等级装备等相对落后。在玩家之间的差距较大时,玩家的体验并不好,因此容易导致玩家流失。
为了解决这一问题,本申请实施例提供如下技术方案:游戏互动装置确定第一玩家的游戏时间区间和第二玩家的游戏时间区间;在所述第一玩家的游戏时间区间对应的游戏互动场景,该游戏互动装置判断所述第二玩家的游戏时间区间与所述第一玩家的游戏时间区间是否相同,若不同,则该游戏互动装置根据所述第二玩家的历史游戏数据建立所述第二玩家对应的人工智能AI玩家模型,所述第二玩家对应的AI玩家模型的游戏数据与所述第一玩家的游戏数据相近;该游戏互动装置利用所述第二玩家对应的AI玩家模型与所述第一玩家互动。
可以理解的是,本申请实施例中的游戏互动装置可以是芯片,可以是计算机程序,也可以是终端,具体实现方式此处不做限定。
具体请参阅图1所示,本申请实施例中游戏互动方法的一个实施例,包括:
101、游戏互动装置确定第一玩家的游戏时间区间和第二玩家的游戏时间区间。
该游戏互动装置统计该第一玩家的游戏时长和该第二玩家的游戏时长;同时该游戏互动装置还获取该游戏时长与游戏时间区间的对应关系表;然后该游戏互动装置根据该对应关系表与该第一玩家的游戏时长确定该第一玩家的游戏时间区间,根据该对应关系表与该第二玩家的游戏时长确定该第二玩家的游戏时间区间。
一种示例中,该对应关系表可以如表1所示:
表1
假设该第一玩家的游戏时长为4个月,则该第一玩家对应的游戏时间区间为第二游戏时间区间;该第二玩家的游戏时长为6.5个月,则该第二玩家对应的游戏时间区间为第三游戏时间区间。
102、在该第一玩家的游戏时间区间对应的游戏互动场景,该游戏互动装置判断该第二玩家的游戏时间区间与该第一玩家的游戏时间区间是否相同,若不同,则执行步骤103至步骤104;若相同,则执行步骤105。
在该第一玩家的游戏时间区间对应的游戏互动场景(即该第一玩家为真人操作),该游戏互动装置判断该第二玩家的游戏时间区间与该第一玩家的游戏时间区间是否相同,若不相同,则该游戏互动装置执行步骤103至步骤104;若相同,则该游戏互动装置执行步骤105。
103、该游戏互动装置根据该第二玩家的历史游戏数据建立该第二玩家对应的AI玩家模型,该第二玩家对应的AI玩家模型的游戏数据与所述第一玩家的游戏数据的差距位于预设范围内。
该游戏互动装置根据该第二玩家的历史游戏数据建立该第二玩家在该第一玩家的游戏互动场景下对应的AI玩家模型,其中,该第二玩家对应的AI玩家模型的游戏数据与该第一玩家的游戏数据的差距在预设范围内。
本实施例中的该游戏数据包括该玩家游戏等级数据,玩家游戏装备数据、游戏技能等级数据等信息。而该预设范围由用户预先设定,其中,该预设范围可以是指游戏等级相差不超过第一预设值,游戏装备数据不超过第二预设值,游戏技能等级不超过第三预设值。一种示例中,该第一预设值可以设置为3,该第二预设值可以设置为500,该第三预设值设置为1。比如,该第一玩家的状态数据为玩家游戏等级为30级,玩家游戏装备综合战力为4500、游戏技能等级为高级,而该第二玩家对应的AI玩家模型的游戏等级为29、玩家游戏装备综合战力为4400、游戏技能等级为高级。
本实施例中,该历史游戏数据包括历史行为特征数据、历史行为时间序列、历史游戏等级和历史游戏装置装备数据。基于上述历史游戏数据,该游戏互动装置在建立该第二玩家对应的AI玩家模型时,具体可以采用如下技术方案:
该游戏互动装置根据该第二玩家的历史行为特征数据以及历史行为时间序列建立上下线模型;并根据该第二玩家的历史行为特征数据利用深度学习算法建立对话模型;并根据该第二玩家的历史游戏等级和历史游戏装备数据建立游戏人物;并根据该第二玩家的历史行为特征数据和该游戏的游戏技能数据建立技能释放模型;最后根据该上下线模型、对话模型、游戏人物以及技能释放模型生成该第二玩家对应的AI玩家模型。
本实施例中,该历史行为特征数据用于指示该玩家在游戏过程中的操作行为(比如组队、打怪、做任务以及与其他玩家挑战)、该玩家与其他玩家互动时的语言行为等等;该历史行为时间序列用于指示该玩家在游戏内的时间序列(比如在玩家在哪个时间点上线,在哪个时间点下线,在哪个时间点升级,在哪个时间点打怪,在哪个时间点做任务等);该历史游戏等级用于指示该玩家在游戏进程中各个不同时间段内的等级信息(比如在哪个时间点为什么等级等);该历史游戏装备数据用于指示该玩家在游戏进程中各个不同时间段内的游戏装备信息(比如在某一个等级该玩家所操纵的游戏人物的游戏装备);该游戏技能数据用于指示该玩家在游戏过程中使用游戏技能的操作习惯以及游戏技能的释放效果等信息。具体来说,该游戏互动装置可以根据历史行为特征数据和历史行为时间序列利用梯度推进机(Gradient Boosting Machine,GBM)等算法训练对应的上下线模型;该游戏互动装置可以根据历史行为特征数据利用深度学习算法或者利用长短期记忆网络(Long Short-Term Memory,LSTM)等循环神经网络结构训练一个对话模型;该游戏互动装置可以根据该历史行为特征数据和该游戏技能数据使用监督学习方法,利用深度模型以及通过Softmax多分类输出技能的输出概率,从而生成技能释放模型。
可选的,该游戏互动装置在根据该历史游戏等级和历史游戏装备建立游戏人物时,具体可以采用如下技术方案:在该第一玩家的游戏互动场景下,若该第二玩家的游戏时间区间超过该第一玩家的游戏时间区间,则该游戏互动装置直接采用该第二玩家的游戏时长处于该第一玩家的游戏时间区间时的历史游戏等级和历史游戏装备生成该游戏人物;在该第一玩家的游戏互动场景下,若该第二玩家的游戏时间区间低于该第一玩家的游戏时间区间时,则该游戏互动装置根据该第二玩家的历史游戏等级和历史游戏装备数据利用游戏人物生成模型生成该游戏人物。其中,该游戏人物生成模型是采用机器学习根据各个玩家的历史游戏等级和历史游戏装备训练生成的装备等级自动生成模型。比如若该第二玩家的游戏时长为6.5个月,该第一玩家的游戏时长为4个月,即该第二玩家的游戏时间区间超过该第一玩家的游戏时间区间,这时该游戏互动装置可以直接根据该第二玩家的游戏时长为4个月时的游戏等级和游戏装备生成该第二玩家在该第一玩家的游戏互动场景下的游戏人物。若该第二玩家的游戏时长为2个月,该第一玩家的游戏时长为4个月,即该第二玩家的游戏时间区间低于该第一玩家的游戏时间区间,这时该游戏互动装置可以根据该第二玩家在2个月内的历史游戏等级和历史游戏装备数据利用游戏人物生成模型生成该第二玩家在该第一玩家的游戏互动场景内的游戏人物。
104、该游戏互动装置利用该第二玩家对应的AI玩家模型与该第一玩家互动。
该游戏互动装置利用该第二玩家对应的AI玩家模型与该第一玩家互动。即该第一玩家为真人操作,而该第二玩家为AI玩家模型。比如,该第一玩家可以真人操作向该第二玩家发出组队邀请,而该第二玩家对应的AI玩家模型会自动回复是接受或者拒绝。
105、该游戏互动装置利用该第二玩家与该第一玩家互动。
由于该第一玩家与该第二玩家所处的游戏时间区间相同,因此该游戏互动装置将该第一玩家与该第二玩家划分为同一游戏互动场景,这里该第一玩家和该第二玩家均是真人操作,实现游戏互动。
上面讲述的在该第一玩家的游戏互动场景内的互动操作,具体来说,在该第二玩家的游戏互动场景内也采用如上互动操作,具体可以参数图2所示,本申请实施例中游戏互动方法的一个实施例,包括:
步骤201与步骤101相同,此处不再赘述。
202、在该第二玩家的游戏时间区间对应的游戏互动场景,该游戏互动装置判断该第一玩家的游戏时间区间与该第二玩家的游戏时间区间是否相同,若不同,则执行步骤203至204;若相同,则执行步骤205。
在该第二玩家的游戏时间区间对应的游戏互动场景(即该第二玩家为真人操作),该游戏互动装置判断该第一玩家的游戏时间区间与该第二玩家的游戏时间区间是否相同,若不相同,则该游戏互动装置执行步骤203至步骤204;若相同,则该游戏互动装置执行步骤205。
203、该游戏互动装置根据该第一玩家的历史游戏数据建立该第一玩家对应的人工智能AI玩家模型,该第一玩家对应的AI玩家模型的游戏数据与所述第二玩家的游戏数据差距位于预设范围内。
该游戏互动装置根据该第一玩家的历史游戏数据建立该第一玩家在该第二玩家的游戏互动场景下对应的AI玩家模型,其中,该第一玩家对应的AI玩家模型的游戏数据与该第二玩家的游戏数据的差距在预设范围内。
本实施例中的该游戏数据包括该玩家游戏等级数据,玩家游戏装备数据、游戏技能等级数据等信息。而该预设范围可以是指游戏等级相差不超过第一预设值,游戏装备数据不超过第二预设值,游戏技能等级不超过第三预设值。一种示例中,该第一预设值可以设置为3,该第二预设值可以设置为500,该第三预设值设置为1。比如,该第二玩家的游戏数据为玩家游戏等级为30级,玩家游戏装备综合战力为4500、游戏技能等级为高级,而该第一玩家对应的AI玩家模型的游戏等级为29、玩家游戏装备综合战力为4400、游戏技能等级为高级。
本实施例中,该历史游戏数据包括历史行为特征数据、历史行为时间序列、历史游戏等级和历史游戏装置装备数据。基于上述历史游戏数据,该游戏互动装置在建立该第一玩家对应的AI玩家模型时,具体可以采用如下技术方案:
该游戏互动装置根据该第一玩家的历史行为特征数据以及历史行为时间序列建立上下线模型;并根据该第一玩家的历史行为特征数据利用深度学习算法建立对话模型;并根据该第一玩家的历史游戏等级和历史游戏装备数据建立游戏人物;并根据该第一玩家的历史行为特征数据和该游戏的游戏技能数据建立技能释放模型;最后根据该上下线模型、对话模型、游戏人物以及技能释放模型生成该第一玩家对应的AI玩家模型。
本实施例中,该历史行为特征数据用于指示该玩家在游戏过程中的操作行为(比如组队、打怪、做任务以及与其他玩家挑战)、该玩家与其他玩家互动时的语言行为等等;该历史行为时间序列用于指示该玩家在游戏内的时间序列(比如在玩家在哪个时间点上线,在哪个时间点下线,在哪个时间点升级,在哪个时间点打怪,在哪个时间点做任务等);该历史游戏等级用于指示该玩家在游戏进程中各个不同时间段内的等级信息(比如在哪个时间点为什么等级等);该历史游戏装备数据用于指示该玩家在游戏进程中各个不同时间段内的游戏装备信息(比如在某一个等级该玩家所操纵的游戏人物的游戏装备);该游戏技能数据用于指示该玩家在游戏过程中使用游戏技能的操作习惯以及游戏技能的释放效果等信息。具体来说,该游戏互动装置可以根据历史行为特征数据和历史行为时间序列利用梯度推进机(Gradient Boosting Machine,GBM)等算法训练对应的上下线模型;该游戏互动装置可以根据历史行为特征数据利用深度学习算法或者利用长短期记忆网络(Long Short-Term Memory,LSTM)等循环神经网络结构训练一个对话模型;该游戏互动装置可以根据该历史行为特征数据和该游戏技能数据使用监督学习方法,利用深度模型以及通过Softmax多分类输出技能的输出概率,从而生成技能释放模型。
可选的,该游戏互动装置在根据该历史游戏等级和历史游戏装备建立游戏人物时,具体可以采用如下技术方案:在该第二玩家的游戏互动场景下,若该第一玩家的游戏时间区间超过该第二玩家的游戏时间区间,则该游戏互动装置直接采用该第一玩家的游戏时长处于该第二玩家的游戏时间区间时的历史游戏等级和历史游戏装备生成该游戏人物;在该第二玩家的游戏互动场景下,若该第一玩家的游戏时间区间低于该第二玩家的游戏时间区间时,则该游戏互动装置根据该第一玩家的历史游戏等级和历史游戏装备数据利用游戏人物生成模型生成该游戏人物。其中,该游戏人物生成模型是采用机器学习根据各个玩家的历史游戏等级和历史游戏装备训练生成的装备等级自动生成模型。比如若该第一玩家的游戏时长为6.5个月,该第二玩家的游戏时长为4个月,即该第一玩家的游戏时间区间超过该第二玩家的游戏时间区间,这时该游戏互动装置可以直接根据该第一玩家的游戏时长为4个月时的游戏等级和游戏装备生成该第一玩家在该第二玩家的游戏互动场景下的游戏人物。若该第一玩家的游戏时长为2个月,该第二玩家的游戏时长为4个月,即该第一玩家的游戏时间区间低于该第二玩家的游戏时间区间,这时该游戏互动装置可以根据该第一玩家在2个月内的历史游戏等级和历史游戏装备数据利用游戏人物生成模型生成该第一玩家在该第二玩家的游戏互动场景内的游戏人物。
204、该游戏互动装置利用该第一玩家对应的AI玩家模型与该第二玩家互动。
该游戏互动装置利用该第一玩家对应的AI玩家模型与该第二玩家互动。即该第二玩家为真人操作,而该第一玩家为AI玩家模型。比如,该第二玩家可以真人操作向该第一玩家发出文字消息,而该第一玩家对应的AI玩家模型会自动回复相应的文字消息。
205、该游戏互动装置利用该第一玩家与该第二玩家互动。
由于该第一玩家与该第二玩家所处的游戏时间区间相同,因此该游戏互动装置将该第一玩家与该第二玩家划分为同一游戏互动场景,这里该第一玩家和该第二玩家均是真人操作,实现游戏互动。
上述图1与图2所示的实施例中,在两个玩家的游戏时长不同,从而导致等级装备不同的情况下,对于不同的游戏玩家构建不同的游戏互动场景。在该游戏互动场景内,所有的玩家角色的游戏数据都差不多,不会相差太远,从而构建一个相对公平的游戏环境,增加玩家对于游戏的体验感以及玩家对于游戏的粘性。
上面描述了本申请实施例中的游戏互动方法,下面开始描述游戏互动装置,具体请参阅图3所示,本申请实施例中的游戏互动装置的一个实施例,具体包括:
确定模块301,用于确定第一玩家的游戏时间区间和第二玩家的游戏时间区间;
处理模块302,用于在该第一玩家的游戏时间区间对应的游戏互动场景,判断该第二玩家的游戏时间区间与该第一玩家的游戏时间区间是否相同,若不同,则根据该第二玩家的历史游戏数据建立该第二玩家对应的人工智能AI玩家模型,所述第二玩家对应的AI玩家模型的游戏数据与所述第一玩家的游戏数据的差距位于预设范围内;
交互模块303,用于利用该第二玩家对应的AI玩家模型与该第一玩家互动。
可选的,该确定模块301,具体用于获取游戏时长与游戏时间区间的对应关系表;
获取该第一玩家的游戏时长和该第二玩家的游戏时长;
根据该对应关系表确定该第一玩家的游戏时长所属的游戏时间区间,并确定该第二玩家的游戏时长所属的游戏时间区间。
可选的,该历史游戏数据包括历史行为特征数据、历史行为时间序列、历史游戏等级和历史游戏装备数据,该处理模块302,具体用于根据该第二玩家的历史行为特征数据以及历史行为时间序列建立上下线模型;
根据该第二玩家的历史行为特征数据利用深度学习算法建立对话模型;
根据该第二玩家的历史游戏等级和历史游戏装备数据建立游戏人物;
根据该第二玩家的历史行为特征数据和该游戏技能数据建立技能释放模型;
根据该上下线模型、该对话模型、该游戏人物和该技能释放模型生成该AI玩家模型。
可选的,该处理模块302,具体用于若该第二玩家的游戏时间区间对应的游戏时长超过该第一玩家的游戏时间区间对应的游戏时长,则根据该第二玩家处于该第一玩家的游戏时间区间里的历史游戏等级和历史游戏装备数据生成该游戏人物;
若该第二玩家的游戏时间区间对应的游戏时长低于该第一玩家的游戏时间区间对应的游戏时长,则根据该第二玩家的历史游戏等级和历史游戏装备数据利用游戏人物生成模型生成该游戏人物。
可选的,该处理模块302,还用于在该第二玩家的游戏时间区间对应的游戏互动场景,判断该第二玩家的游戏时间区间与该第一玩家的游戏时间区间是否相同,若不同,则根据该第一玩家的历史游戏数据建立该第一玩家对应的人工智能AI玩家模型;
该交互模块303,还用于利用该第一玩家对应的AI玩家模型与该第二玩家互动。
本实施例中,在两个玩家的游戏时长不同,从而导致等级装备不同的情况下,该游戏互动装置对于不同的游戏玩家构建不同的游戏互动场景。在该游戏互动场景内,所有的玩家角色的游戏数据都差不多,不会相差太远,从而构建一个相对公平的游戏环境,增加玩家对于游戏的体验感以及玩家对于游戏的粘性。
具体请参阅图4所示,本申请实施例中的游戏互动装置的另一个实施例,具体包括:
收发器401,处理器402及总线403;
该收发器401与该处理器402通过该总线403相连;
该总线403可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图4中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
处理器402可以是中央处理器(central processing unit,简称CPU),网络处理器(network processor,简称NP)或者CPU和NP的组合。
处理器402还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integrated circuit,简称ASIC),可编程逻辑器件(programmable logic device,简称PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complex programmable logic device,简称CPLD),现场可编程逻辑门阵列(field-programmable gate array,简称FPGA),通用阵列逻辑(generic array logic,简称GAL)或其任意组合。
参见图4所示,该游戏互动装置还可以包括存储器404。该存储器404可以包括易失性存储器(volatile memory),例如随机存取存储器(random-access memory,简称RAM);存储器也可以包括非易失性存储器(non-volatile memory),例如快闪存储器(flashmemory),硬盘(hard disk drive,简称HDD)或固态硬盘(solid-state drive,简称SSD);存储器404还可以包括上述种类的存储器的组合。
可选地,存储器404还可以用于存储程序指令,处理器402调用该存储器404中存储的程序指令,可以执行图1与图2中所示实施例中的一个或多个步骤,或其中可选的实施方式,实现上述方法中游戏互动装置行为的功能。
其中,该收发器401,执行如下步骤:
确定第一玩家的游戏时间区间和第二玩家的游戏时间区间;
该处理器402,执行如下步骤:
在该第一玩家的游戏时间区间对应的游戏互动场景,判断该第二玩家的游戏时间区间与该第一玩家的游戏时间区间是否相同,若不同,则根据该第二玩家的历史游戏数据建立该第二玩家对应的人工智能AI玩家模型,该第二玩家对应的AI玩家模型的游戏数据与该第一玩家的游戏数据相近;利用该第二玩家对应的AI玩家模型与该第一玩家互动。
该处理器402与该存储器404以及该收发器401执行该图1与图2中的步骤。
本实施例中,在两个玩家的游戏时长不同,从而导致等级装备不同的情况下,该处理器402对于不同的游戏玩家构建不同的游戏互动场景。在该游戏互动场景内,所有的玩家角色的游戏数据都差不多,不会相差太远,从而构建一个相对公平的游戏环境,增加玩家对于游戏的体验感以及玩家对于游戏的粘性。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (13)
1.一种游戏互动方法,其特征在于,包括:
确定第一玩家的游戏时间区间和第二玩家的游戏时间区间;
在所述第一玩家的游戏时间区间对应的游戏互动场景,判断所述第二玩家的游戏时间区间与所述第一玩家的游戏时间区间是否相同,若不同,则根据所述第二玩家的历史游戏数据建立所述第二玩家对应的人工智能AI玩家模型,所述第二玩家对应的AI玩家模型的游戏数据与所述第一玩家的游戏数据的差距位于预设范围内;
利用所述第二玩家对应的AI玩家模型与所述第一玩家互动。
2.根据权利要求1所述的方法,其特征在于,所述确定第一玩家的游戏时间区间和第二玩家的游戏时间区间包括:
获取游戏时长与游戏时间区间的对应关系表;
获取所述第一玩家的游戏时长和所述第二玩家的游戏时长;
根据所述对应关系表确定所述第一玩家的游戏时长所属的游戏时间区间,并确定所述第二玩家的游戏时长所属的游戏时间区间。
3.根据权利要求1所述的方法,其特征在于,所述历史游戏数据包括历史行为特征数据、历史行为时间序列、历史游戏等级和历史游戏装备数据,所述根据所述第二玩家的历史游戏数据建立所述第二玩家对应的人工智能AI玩家模型包括:
根据所述第二玩家的历史行为特征数据以及历史行为时间序列建立上下线模型;
根据所述第二玩家的历史行为特征数据利用深度学习算法建立对话模型;
根据所述第二玩家的历史游戏等级和历史游戏装备数据建立游戏人物;
根据所述第二玩家的历史行为特征数据和所述游戏技能数据建立技能释放模型;
根据所述上下线模型、所述对话模型、所述游戏人物和所述技能释放模型生成所述AI玩家模型。
4.根据权利要求3所述的方法,其特征在于,根据所述第二玩家的历史游戏等级和历史游戏装备数据生成游戏人物包括:
若所述第二玩家的游戏时间区间对应的游戏时长超过所述第一玩家的游戏时间区间对应的游戏时长,则根据所述第二玩家处于所述第一玩家的游戏时间区间里的历史游戏等级和历史游戏装备数据生成所述游戏人物;
若所述第二玩家的游戏时间区间对应的游戏时长低于所述第一玩家的游戏时间区间对应的游戏时长,则根据所述第二玩家的历史游戏等级和历史游戏装备数据利用游戏人物生成模型生成所述游戏人物。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述方法还包括:
在所述第二玩家的游戏时间区间对应的游戏互动场景,判断所述第二玩家的游戏时间区间与所述第一玩家的游戏时间区间是否相同,若不同,则根据所述第一玩家的历史游戏数据建立所述第一玩家对应的人工智能AI玩家模型,所述第一玩家对应的AI玩家模型的状态数据与所述第二玩家的状态数据的差距位于预设范围内;
利用所述第一玩家对应的AI玩家模型与所述第二玩家互动。
6.一种游戏互动装置,其特征在于,包括:
确定模块,用于确定第一玩家的游戏时间区间和第二玩家的游戏时间区间;
处理模块,用于在所述第一玩家的游戏时间区间对应的游戏互动场景,判断所述第二玩家的游戏时间区间与所述第一玩家的游戏时间区间是否相同,若不同,则根据所述第二玩家的历史游戏数据建立所述第二玩家对应的人工智能AI玩家模型,所述第二玩家对应的AI玩家模型的游戏数据与所述第一玩家的游戏数据的差距位于预设范围内;
交互模块,用于利用所述第二玩家对应的AI玩家模型与所述第一玩家互动。
7.根据权利要求6所述的装置,其特征在于,所述确定模块,具体用于获取游戏时长与游戏时间区间的对应关系表;
获取所述第一玩家的游戏时长和所述第二玩家的游戏时长;
根据所述对应关系表确定所述第一玩家的游戏时长所属的游戏时间区间,并确定所述第二玩家的游戏时长所属的游戏时间区间。
8.根据权利要求6所述的装置,其特征在于,所述历史游戏数据包括历史行为特征数据、历史行为时间序列、历史游戏等级和历史游戏装备数据,所述处理模块,具体用于根据所述第二玩家的历史行为特征数据以及历史行为时间序列建立上下线模型;
根据所述第二玩家的历史行为特征数据利用深度学习算法建立对话模型;
根据所述第二玩家的历史游戏等级和历史游戏装备数据建立游戏人物;
根据所述第二玩家的历史行为特征数据和所述游戏技能数据建立技能释放模型;
根据所述上下线模型、所述对话模型、所述游戏人物和所述技能释放模型生成所述AI玩家模型。
9.根据权利要求8所述的装置,其特征在于,所述处理模块,具体用于若所述第二玩家的游戏时间区间对应的游戏时长超过所述第一玩家的游戏时间区间对应的游戏时长,则根据所述第二玩家处于所述第一玩家的游戏时间区间里的历史游戏等级和历史游戏装备数据生成所述游戏人物;
若所述第二玩家的游戏时间区间对应的游戏时长低于所述第一玩家的游戏时间区间对应的游戏时长,则根据所述第二玩家的历史游戏等级和历史游戏装备数据利用游戏人物生成模型生成所述游戏人物。
10.根据权利要求6至9中任一项所述的装置,其特征在于,所述处理模块,还用于在所述第二玩家的游戏时间区间对应的游戏互动场景,判断所述第二玩家的游戏时间区间与所述第一玩家的游戏时间区间是否相同,若不同,则根据所述第一玩家的历史游戏数据建立所述第一玩家对应的人工智能AI玩家模型;
所述交互模块,还用于利用所述第一玩家对应的AI玩家模型与所述第二玩家互动。
11.一种游戏互动装置,其特征在于,包括:处理器和存储器,其中,所述存储器中存有计算机可读程序,所述处理器通过运行所述存储器中的程序,以用于完成权利要求1至5中任一项所述的方法。
12.一种计算机可读存储介质,包括指令,当所述指令在计算机上运行时,所述计算机执行上述权利要求1至权利要求5中任一项所述的方法。
13.一种包含指令的计算机程序产品,当所述计算机程序产品在计算机上运行时,所述计算机执行上述权利要求1至权利要求5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910309924.2A CN109999503B (zh) | 2019-04-17 | 2019-04-17 | 一种游戏互动方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910309924.2A CN109999503B (zh) | 2019-04-17 | 2019-04-17 | 一种游戏互动方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109999503A CN109999503A (zh) | 2019-07-12 |
CN109999503B true CN109999503B (zh) | 2022-08-12 |
Family
ID=67172551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910309924.2A Active CN109999503B (zh) | 2019-04-17 | 2019-04-17 | 一种游戏互动方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109999503B (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4880324B2 (ja) * | 2006-02-28 | 2012-02-22 | 株式会社バンダイナムコゲームス | サーバシステム、プログラム及び情報記憶媒体 |
CN102940968B (zh) * | 2011-10-02 | 2016-08-03 | 微软技术许可有限责任公司 | 与对手显示异步地玩游戏 |
CN104965695B (zh) * | 2014-11-25 | 2018-01-23 | 深圳市腾讯计算机系统有限公司 | 模拟用户实时操作的方法和装置 |
JP6212238B1 (ja) * | 2017-04-25 | 2017-10-11 | 株式会社gloops | ゲームサーバ、方法、プログラム、及びプログラム記録媒体 |
CN108744525B (zh) * | 2018-05-29 | 2021-06-01 | 深圳市紫石文化传播有限公司 | 一种匹配方法和装置 |
CN109078333B (zh) * | 2018-08-09 | 2021-11-30 | 深圳市东方博雅科技有限公司 | 一种匹配游戏好友的方法及装置 |
-
2019
- 2019-04-17 CN CN201910309924.2A patent/CN109999503B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109999503A (zh) | 2019-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Togelius et al. | What is procedural content generation? Mario on the borderline | |
WO2019109820A1 (zh) | 对象的匹配方法、装置、存储介质和电子装置 | |
CN111330279B (zh) | 一种游戏ai的策略决策模型训练方法和装置 | |
CN109814955A (zh) | 阵容确定的方法、装置及电子设备 | |
CN107135146B (zh) | 信息的显示方法和装置 | |
CN112619157B (zh) | 游戏对战交互方法及装置、电子设备、可读介质、产品 | |
US20130244539A1 (en) | Interacting toys | |
WO2019134462A1 (zh) | 多人体感舞蹈的实现方法、装置、电子设备及存储介质 | |
CN111841018A (zh) | 模型训练方法、模型使用方法、计算机设备及存储介质 | |
CN106390450A (zh) | 一种游戏状态更新方法、装置及系统 | |
CN112891942A (zh) | 获取虚拟道具的方法、装置、设备及介质 | |
CN109999503B (zh) | 一种游戏互动方法和装置 | |
CN108837511A (zh) | 网络游戏中与npc人工智能交互的方法及系统 | |
CN111330282A (zh) | 一种确定出牌候选项的方法及装置 | |
CN112712179A (zh) | 模型训练方法、服务器及终端设备 | |
CN116943204A (zh) | 虚拟对象的控制方法、装置和存储介质及电子设备 | |
CN112717425B (zh) | 信息发送方法、信息显示方法、装置、设备及介质 | |
CN105653849B (zh) | 一种虚拟用户的方法和系统 | |
KR102013327B1 (ko) | 인공지능 게임 길드 서비스 제공 방법 및 장치 | |
CN114681920A (zh) | 基于玩家行为影响的npc行为表现方法、装置、电子设备及计算机程序产品 | |
KR20140079754A (ko) | 온라인 아이템 추첨 시스템 및 그 방법 | |
CN107146162A (zh) | 基于游戏用户在线时间的社交推送系统及方法 | |
CN114995927A (zh) | 信息显示处理方法、装置、终端及存储介质 | |
JP2020022892A (ja) | サーバシステム及びプログラム | |
CN111729292B (zh) | 文字游戏中数据处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |