CN113144601B - 虚拟场景中的表情显示方法、装置、设备以及介质 - Google Patents
虚拟场景中的表情显示方法、装置、设备以及介质 Download PDFInfo
- Publication number
- CN113144601B CN113144601B CN202110580625.XA CN202110580625A CN113144601B CN 113144601 B CN113144601 B CN 113144601B CN 202110580625 A CN202110580625 A CN 202110580625A CN 113144601 B CN113144601 B CN 113144601B
- Authority
- CN
- China
- Prior art keywords
- expression
- target
- virtual
- expressions
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
- A63F13/87—Communicating with other players during game play, e.g. by e-mail or chat
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/55—Details of game data or player data management
- A63F2300/5546—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
- A63F2300/5553—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种虚拟场景中的表情显示方法、装置、设备以及介质,属于计算机技术领域。通过本申请实施例提供的技术方案,用户能够通过拖拽表情添加图标来触发表情选择区域的显示,用户在表情选择区域中能够进行表情选择,被选中的第一目标表情会显示在虚拟场景中的第一目标位置上,由于第一目标位置是与拖拽操作对应的位置,那么如果用户想要改变第一目标表情的显示位置,相应的调整拖拽操作即可。也就是说,当用户想要在虚拟场景中发送表情时,只需对表情添加图标进行拖拽操作,在显示的表情选择区域中选择想要进行显示的第一目标表情,无需执行复杂的表情发送操作,提高了人机交互的效率。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种虚拟场景中的表情显示方法、装置、设备以及介质。
背景技术
随着多媒体技术的发展,能够进行的游戏种类越来越多。自走棋游戏是一种比较盛行的游戏,在游戏过程中,不同虚拟对象可以在虚拟场景中进行对战。
相关技术中,用户在进行自走棋游戏时,如果想要发送表情,那么需要在自走棋游戏中调出聊天窗口,在聊天窗口中调用表情选择面板,在表情选择面板中选择表情,再点击聊天窗口的发送控件,才能够实现表情的发送。
在这种情况下,用户发送表情的步骤较为繁琐,导致人机交互的效率较低。
发明内容
本申请实施例提供了一种虚拟场景中的表情显示方法、装置、设备以及介质,能够提升人机交互效率。所述技术方案如下:
一方面,提供了一种虚拟场景中的表情显示方法,所述方法包括:
显示虚拟场景,所述虚拟场景中显示有表情添加图标,所述表情添加图标用于在所述虚拟场景中添加表情;
响应于对所述表情添加图标的拖拽操作,在所述虚拟场景中的第一目标位置上显示表情选择区域,所述第一目标位置为所述拖拽操作对应的位置,所述表情选择区域中显示有多个第一待选表情;
响应于所述多个第一待选表情中的第一目标表情被选中,在所述虚拟场景中显示所述第一目标表情。
一方面,提供了一种虚拟场景中的表情显示方法,所述方法包括:
显示虚拟场景,所述虚拟场景中显示有表情添加图标,所述表情添加图标用于在所述虚拟场景中添加表情;
响应于对所述表情添加图标的点击操作,在所述虚拟场景中显示所述表情选择区域,所述表情选择区域中显示有多个第一待选表情;
响应于对所述多个第一待选表情中的第二目标表情的拖拽操作,在第二目标位置上显示所述第二目标表情,所述第二目标位置为所述拖拽操作对应的位置。
一方面,提供了一种虚拟场景中的表情显示装置,所述装置包括:
场景显示模块,用于显示虚拟场景,所述虚拟场景中显示有表情添加图标,所述表情添加图标用于在所述虚拟场景中添加表情;
表情选择区域显示模块,用于响应于对所述表情添加图标的拖拽操作,在所述虚拟场景中的第一目标位置上显示表情选择区域,所述第一目标位置为所述拖拽操作对应的位置,所述表情选择区域中显示有多个第一待选表情;
目标表情显示模块,用于响应于所述多个第一待选表情中的第一目标表情被选中,在所述虚拟场景中显示所述第一目标表情。
在一种可能的实施方式中,所述目标表情显示模块,用于响应于所述多个第一待选表情中的第一目标表情被选中,在所述虚拟场景中的所述第一目标位置上显示所述第一目标表情。
在一种可能的实施方式中,所述虚拟场景中显示有被控虚拟对象,所述目标表情显示模块,用于响应于所述多个第一待选表情中的第一目标表情被选中,控制所述被控虚拟对象移动至所述第一目标位置。
在一种可能的实施方式中,所述目标表情显示模块,用于响应于所述第一目标表情被选中,在所述虚拟场景中播放所述第一目标表情对应的动画。
在一种可能的实施方式中,所述表情选择区域包括第一子区域和第二子区域,所述第一子区域用于显示表情的类型图标,一个所述类型图标对应于多个表情,所述目标表情显示模块,用于在所述第一目标位置上显示所述第一子区域和第二子区域;响应于所述第一子区域中的第一类型图标被选中,在所述第二子区域中显示与所述第一类型图标对应的所述多个第一待选表情。
在一种可能的实施方式中,所述装置还包括:
表情切换模块,用于响应于所述第一子区域中的第二类型图标被选中,将在所述第二子区域中的所述多个第一待选表情,切换为多个第二待选表情,所述第二待选表情为与所述第二类型图标对应的表情。
在一种可能的实施方式中,所述表情选择区域包括多个子区域,所述多个第一待选表情分别显示在所述多个子区域中。
在一种可能的实施方式中,所述表情选择区域为圆形区域,一个所述子区域为所述圆形区域的一个部分,所述圆形区域的中心显示有所述多个第一待选表情对应的类型图标。
在一种可能的实施方式中,所述虚拟场景中显示有至少一个第一虚拟对象,所述第一待选表情为所述第一虚拟对象对应的表情。
在一种可能的实施方式中,所述装置还包括:
控制模块,用于控制目标虚拟对象执行与所述第一目标表情对应的动作,所述目标虚拟对象为所述至少一个第一虚拟对象中,与所述第一目标表情对应的第一虚拟对象。
一方面,提供了一种虚拟场景中的表情显示装置,所述装置包括:
场景显示模块,用于显示虚拟场景,所述虚拟场景中显示有表情添加图标,所述表情添加图标用于在所述虚拟场景中添加表情;
表情选择区域显示模块,用于响应于对所述表情添加图标的点击操作,在所述虚拟场景中显示所述表情选择区域,所述表情选择区域中显示有多个第一待选表情;
目标表情显示模块,用于响应于对所述多个第一待选表情中的第二目标表情的拖拽操作,在第二目标位置上显示所述第二目标表情,所述第二目标位置为所述拖拽操作对应的位置。
在一种可能的实施方式中,所述第二目标位置为所述拖拽操作结束的位置。
在一种可能的实施方式中,所述虚拟场景中显示有多个第一虚拟对象,所述目标表情显示模块,用于执行下述任一项:
响应于所述第二目标表情被拖拽至第三目标位置,且任一所述第一虚拟对象与所述第三目标位置之间的距离符合目标条件,在所述任一所述第一虚拟对象所在的所述第二目标位置上显示所述第二目标表情;
响应于所述第二目标表情被拖拽至所述第三目标位置,且至少两个所述第一虚拟对象与所述第三目标位置之间的距离符合目标条件,在第二虚拟对象所在的第二目标位置上显示所述第二目标表情,所述第二虚拟对象为所述至少两个所述第一虚拟对象中终端控制的第一虚拟对象。
在一种可能的实施方式中,所述虚拟场景中显示有多个用户头像,所述装置还包括:
表情发送模块,用于响应于所述多个第一待选表情中的第三目标表情被拖拽至目标用户头像所在的位置,向所述目标用户头像对应的终端发送所述第三目标表情,所述目标用户头像为所述多个用户头像中的任一个。
一方面,提供了一种计算机设备,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条计算机程序,所述计算机程序由所述一个或多个处理器加载并执行以实现所述虚拟场景中的表情显示方法。
一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条计算机程序,所述计算机程序由处理器加载并执行以实现所述虚拟场景中的表情显示方法。
一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括程序代码,该程序代码存储在计算机可读存储介质中,计算机设备的处理器从计算机可读存储介质读取该程序代码,处理器执行该程序代码,使得该计算机设备执行上述虚拟场景中的表情显示方法。
通过本申请实施例提供的技术方案,用户能够通过拖拽表情添加图标来触发表情选择区域的显示,用户在表情选择区域中能够进行表情选择,被选中的第一目标表情会显示在虚拟场景中的第一目标位置上,由于第一目标位置是与拖拽操作对应的位置,那么如果用户想要改变第一目标表情的显示位置,相应的调整拖拽操作即可。也就是说,当用户想要在虚拟场景中发送表情时,只需对表情添加图标进行拖拽操作,在显示的表情选择区域中选择想要进行显示的第一目标表情,无需先调出聊天窗口,在聊天窗口中调用表情选择面板,在表情选择面板中选择表情,再点击聊天窗口的发送控件来实现表情的发送,提高了人机交互的效率。
附图说明
为例更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种虚拟场景中的表情显示方法的实施环境的示意图;
图2是本申请实施例提供的一种界面示意图;
图3是本申请实施例提供的一种虚拟场景中的表情显示方法的流程图;
图4是本申请实施例提供的一种虚拟场景中的表情显示方法的流程图;
图5是本申请实施例提供的一种界面示意图;
图6是本申请实施例提供的一种界面示意图;
图7是本申请实施例提供的一种界面示意图;
图8是本申请实施例提供的一种虚拟场景中的表情显示方法的逻辑框图;
图9是本申请实施例提供的一种虚拟场景中的表情显示方法的流程图;
图10是本申请实施例提供的一种界面示意图;
图11是本申请实施例提供的一种界面示意图;
图12是本申请实施例提供的一种功能模块划分示意图;
图13是本申请实施例提供的一种虚拟场景中的表情显示装置的结构示意图;
图14是本申请实施例提供的一种虚拟场景中的表情显示装置的结构示意图;
图15是本申请实施例提供的一种终端的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请中术语“第一”“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二”、“第n”之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。
本申请中术语“至少一个”是指一个或多个,“多个”的含义是指两个或两个以上。
首先对本申请实施例涉及的名词进行介绍:
自走棋:一种新型多人对战策略游戏,用户自行搭配培养棋子阵容迎战对手阵容,败方扣除血量,并按淘汰顺序决定名次。
棋子:各异的战斗单位,用户可对棋子进行装备、升级、购入卖出等操作。获取来源大多为刷新棋子池,小部分来自‘选秀’与战斗活动。
特质:棋子的不同分类(一般有两种特质:职业、种族),同特质的一定数量棋子处于战斗区可激活特质的特殊能力、让棋子有更强战斗力。
购买和出售:用户消耗货币可获得棋子,用户出售棋子可获得货币(会有一定折价)。
图1是本申请实施例提供的一种虚拟对象的锁定方法的实施环境示意图。参见图1,该实施环境中可以包括终端110和服务器140。
终端110通过无线网络或有线网络与服务器140相连。可选地,终端110是智能手机、平板电脑、笔记本电脑、台式计算机等,但并不局限于此。终端110安装和运行有支持虚拟场景显示的应用程序。
可选地,服务器140是独立的物理服务器,或者是多个物理服务器构成的服务器集群或者分布式系统,或者是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
可选地,终端110泛指多个终端中的一个,本申请实施例仅以终端110来举例说明。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端仅为一个,或者上述终端为几十个或几百个,或者更多数量,此时上述实施环境中还包括其他终端。本申请实施例对终端的数量和设备类型不加以限定。
对本申请实施例的实施环境进行介绍之后,下面对本申请实施例的应用场景进行介绍。
本申请实施例提供的技术方案能够应用在自走棋类游戏的场景下。可选地,在自走棋类游戏中,虚拟对象也即是棋子,分类图标也即是特质图标。为了对本申请实施例提供的技术方案进行更加清楚的说明,下面对自走棋类游戏的一些相关内容进行介绍:
自走棋类游戏为回合制类游戏,用户在游戏中的对战过程分为多个回合,用户能够在回合的间隙来对棋子进行升级以及对棋子的位置进行调整。对战分为不同用户之间的对战,以及用户与非用户控制角色(Non-Player-ControlledCharacter,NPC)之间的对战。在每个回合中,获得胜利的用户能够获得数量较多的虚拟资源,失败的用户只能获得数量较少的金币。可选地,虚拟资源为游戏中的金币。同时,失败的用户会被扣掉一定数量的分数,当任一用户的生命值降为0时,该用户也就会被淘汰。可选地,分数通常为生命值。
在一些实施例中,连续获得胜利的用户能够获得连胜奖励,也即是连续获胜的用户能够获得额外的金币奖励,当然,为了平衡游戏,连续失败的用户也能够得到连败奖励。在用户与NPC的对战回合中,用户击败NPC能够获得虚拟装备,虚拟装备能够提高棋子的属性,从而提高棋子的战斗能力。
自走棋类游戏中的棋子存在质量差异,这种质量差异通常采用星级来描述。在一些实施例中,棋子通常包括三个星级,对于同一个棋子来说,3星棋子的战斗能力要强于2星棋子的战斗能力,2星棋子的战斗能力要强于1星棋子的战斗能力,提升棋子星级的过程也是用户提升自己战斗能力的过程。可选地,用户初始获得的棋子均为1星的棋子,随着游戏的进展,用户能够对棋子的星级进行提升。在一些实施例中,三个相同的1星棋子能够合成一个2星棋子,三个相同的2星棋子能够合成一个3星棋子。用户能够通过商店来购买棋子,也即是用户在商店中消耗一定数量的虚拟资源,来换取一个棋子。在一些实施例中,商店中仅提供1星棋子。
自走棋类游戏中的棋子存在不同的特质(类型),比如,一个棋子的特质可能为护卫,另一个棋子的特质可能为法师。多个相同特质的棋子同时上场时,能够得到额外的属性加成,比如,当三个特质均为护卫的棋子同时上场时,这三个棋子均能够得到防御能力的提升;当三个特质均为法师的棋子同时上场时,这三个棋子均能够得到法术攻击能力的提升,当然,上述三个棋子为不同的棋子。用户收集相同特质的棋子越多,棋子的作战能力也就越强。比如,三个特质均为法师的棋子同时上场时,这三个棋子均能够得到法术攻击能力的提升100的加成,当五个特质均为法师的棋子同时上场时,这五个棋子均能够得到法术攻击能力的提升300的加成。也即是,用户除了能够通过上述收集虚拟装备和提升棋子星级的方法来提升战斗能力之外,也能够通过收集相同特质的棋子来提升战斗能力。在一些实施例中,一个棋子可能对应于两个或更多的特质,比如,一个棋子可能既具有法师这一职业特质,同时还具有蜀国这一阵营特质,用户能够基于棋子对应的特质来自行进行棋子的搭配。
图2为自走棋类游戏的一个游戏界面示意图,图2包括用户信息提示区域201、商店触发控件202、战场区域203、备战区域204、特质追踪区域205、装备库206以及计分区域207。
下面将分别对上述各个区域的功能进行介绍。
用户信息提示区域201用于显示用户的游戏等级以及升级所需的虚拟资源。用户的等级决定用户能够在战场区域203中同时放置棋子的数量。比如,在游戏开始时,用户的等级为1级,那么用户能够在战场区域203中同时放置3个棋子与其他用户进行对抗。若用户想要增加同时在战场区域203中放置棋子的数量,那么用户需要消耗虚拟资源来进行升级。在一些实施例中,用户每提高一个等级,能够增加一个在战场区域203中放置的棋子,也即是,若用户在1级时能够同时在战场区域203中放置3个棋子,那么用户升到2级时,也就能够同时在战场区域203中放置4个棋子,以此类推。在一些实施例中,用户升级所需的金币随着回合数量的增加而减少,比如,用户在游戏开始时的等级为1级,用户在第一个回合想要将等级提升至2级,需要消耗4个金币,当游戏进入第二个回合时,用户想要从1级提升至2级时,就只需要2个金币。
商店触发控件202用于触发显示虚拟对象交易区域,也即是商店区域;商店区域中提供了多种棋子,用户能够在商店区域中选择想要购买的棋子。购买棋子需要消耗一定数量的虚拟资源。在一些实施例中,不同棋子的价格是不同的,战斗能力越强的棋子需要消耗金币的数量越多。商店区域既能够在用户点击商店触发控件202时进行显示,也能够在每个游戏回合结束时自动进行显示。商店区域中提供的棋子类型是由终端随机确定的,商店区域中存在一个刷新控件,当商店区域中提供的棋子没有用户想要的棋子时,用户能够通过点击刷新控件,消耗一定数量的虚拟资源来更新商店区域中提供的棋子。
战场区域203为棋子进行战斗的区域,用户能够将棋子拖拽至战场区域203来与其他用户的棋子进行战斗。除此之外,用户也能够在战场区域203中调整棋子的位置,从而形成“排兵布阵”的效果。在每个游戏回合开始时,其他用户的棋子也会出现在战场区域203中,用户的棋子就能够在战场区域203中与其他用户的棋子进行战斗。
备战区域204用于存放用户拥有但暂时没有上场的棋子,上场也即是将棋子放置在战场区域203中。如之前的描述,用户提升棋子星级时需要相同的三个棋子,备战区域204也即是用于存放这些棋子的区域,当用户收集到能够提升棋子星级所需数量的棋子时,那么战场区域204中的棋子会自动进行合成升级。比如战场区域203中存在一个1星棋子,备战区域204中也存在一个相同的1星棋子,当用户从商店区域再购买一个相同的1星棋子时,备战区域204中的1星棋子也就会合成到战场区域203中的棋子上,战场区域204中的1星棋子会消失,战场区域203中的棋子由1星升级为2星,备战区域204中留出一个空位。
在一些实施例中,备战区域204中用于存放棋子的位置是有限的,当备战区域204中用于存放棋子的位置全部被占据时,用户也就不能在备战区域204中放置棋子。
特质追踪区域205用于显示分类图标,也即是特质图标,特质图标用于提示用户拥有棋子具有的特质,图2中的“约德尔人”以及“换形师”也即是两种特质。比如,当用户拥有一个特质为法师的棋子时,特质追踪区域能够显示用于表示法师特质的图标。在一些实施例中,该图标的颜色为灰色,表示法师特质对应的属性加成未激活,该图标旁边显示有数字1/3,其中,1表示战场区域203中存在的法师特质的棋子数量,3表示激活法师特质对应的属性需要的棋子数量。当战场区域203中存在3个法师特质的棋子时,该用于表示法师特质的图标就会有灰色变为彩色,表示法师特质对应的属性加成被激活。
装备库206用于供用户查看拥有的虚拟装备的类型和数量。
计分区域207用于显示各个用户的昵称和分数,在一些实施例中,计分区域207中按照用户的生命值对各个用户的头像进行排序,用户能够通过计分区域207中自己头像的位置来确定自己在当前游戏中的排名。
在本申请实施例中,可以由终端作为执行主体来实施本申请实施例提供的技术方案,也可以通过终端和服务器之间的交互来实施本申请提供的技术方案,本申请实施例对此不作限定。下面将以执行主体为终端为例进行说明:
图3是本申请实施例提供的一种虚拟场景中的表情显示方法的流程图,参见图3,方法包括:
301、终端显示虚拟场景,虚拟场景中显示有表情添加图标,表情添加图标用于在虚拟场景中添加表情。
其中,表情添加图标对应于一个表情添加控件,用户点击表情添加图标,也即是点击表情添加控件;用户拖拽表情添加图标,也即是拖拽表情添加控件。
302、响应于对表情添加图标的拖拽操作,终端在虚拟场景中的第一目标位置上显示表情选择区域,第一目标位置为拖拽操作对应的位置,表情选择区域中显示有多个第一待选表情。
在一些实施例中,第一待选表情为技术人员提前配置好的表情,比如为美术人员提前绘制好的表情,或者为从数据库中下载的表情,或者为用户配置的表情本申请实施例对此不做限定。第一待选表情显示在表情选择区域中,用户能够在表情选择区域中自行选择第一待选表情。
303、响应于多个第一待选表情中的第一目标表情被选中,终端在虚拟场景中显示第一目标表情。
在一些实施例中,若表情选择区域中的任一第一待选表情被点击,那么该第一待选表情也即是被选中的第一目标表情。
通过本申请实施例提供的技术方案,用户能够通过拖拽表情添加图标来触发表情选择区域的显示,用户在表情选择区域中能够进行表情选择,被选中的第一目标表情会显示在虚拟场景中的第一目标位置上,由于第一目标位置是与拖拽操作对应的位置,那么如果用户想要改变第一目标表情的显示位置,相应的调整拖拽操作即可。也就是说,当用户想要在虚拟场景中发送表情时,只需对表情添加图标进行拖拽操作,在显示的表情选择区域中选择想要进行显示的第一目标表情,无需先调出聊天窗口,在聊天窗口中调用表情选择面板,在表情选择面板中选择表情,再点击聊天窗口的发送控件来实现表情的发送,提高了人机交互的效率。
上述步骤301-303是本申请提供的技术方案的简单介绍,下面将结合一些例子,对本申请提供的技术方案进行详细说明。
图4是本申请实施例提供的一种虚拟场景中的表情显示方法的流程图,参见图4,方法包括:
401、终端显示虚拟场景,虚拟场景中显示有表情添加图标,表情添加图标用于在虚拟场景中添加表情。
在一些实施例中,虚拟场景为自走棋游戏的游戏场景,虚拟场景中显示有被控虚拟对象,多个第一类虚拟对象以及多个第二类虚拟对象,其中,被控虚拟对象为终端控制的虚拟对象,用户能够通过终端控制该虚拟对象在虚拟场景中进行移动,在一些实施例中,被控虚拟对象为用户在虚拟场景中的“形象”。第一类虚拟对象为用户在自走棋游戏中的“棋子”,第二类虚拟对象为与用户对战的其他用户在自走棋中的“棋子”,或者为NPC(Non-player Character,非玩家角色),本申请实施例对此不做限定。在一些实施例中,在每个回合开始之前,用户能够对虚拟场景中的第一类虚拟对象进行调整,也即是对“上场”的棋子进行调整。
在一种可能的实施方式中,响应于用户开启一局竞技对战,终端显示本局竞技对战对应的虚拟场景,其中,一局竞技对战也即是一局自走棋游戏。终端在虚拟场景的第一图标显示位置上显示表情添加图标,其中,第一图标显示位置由技术人员根据实际情况进行设置,或者由用户在虚拟场景的设置界面中进行设置,本申请实施例对此不做限定。在一些实施例中,终端将表情添加图标显示在虚拟场景的左下角。
举例来说,参见图5,终端显示虚拟场景501,虚拟场景501中显示有表情添加图标502。
在一些实施中,终端在显示虚拟场景之前,还能够显示虚拟场景的表情设置界面,表情设置界面中显示有多个表情,用户能够在表情设置界面中进行选择,被选中的表情也即是能够在虚拟场景中显示的表情。在一些实施例中,表情设置界面中还显示有表情绘制控件,响应于对表情绘制空间的点击操作,终端显示表情绘制界面,表情绘制界面中显示有多种绘制工具,用户能够采用这些绘制工具在表情绘制界面中进行绘制。响应于对表情绘制界面中的存储控件的点击操作,终端将表情绘制界面中的图像存储为一个表情,将该表情显示在表情设置界面中供用户选择。
402、响应于对表情添加图标的拖拽操作,终端在虚拟场景中的第一目标位置上显示表情选择区域,第一目标位置为拖拽操作对应的位置,表情选择区域中显示有多个第一待选表情。
在一种可能的实施方式中,响应于对表情添加图标的拖拽操作,终端在该拖拽操作结束的位置上显示表情选择区域,该拖拽操作结束的位置也即是第一目标位置。
在这种实施方式下,终端能够将表情选择区域显示在用户的拖拽操作结束的位置,从而便于用户可以通过拖拽操作来控制表情选择区域的选择位置,从表情选择区域中选择表情,人机交互的效率较低。
举例来说,参见图6,虚拟场景601中显示有表情添加图标602,响应于对表情添加图标602的拖拽操作,终端在该拖拽操作结束的位置上显示表情选择区域603,表情选择区域603中显示有多个第一待选表情604。在一些实施例中,响应于表情选择区域的显示时间符合目标时间条件,不再显示表情选择区域。
在一种可能的实施方式中,表情选择区域包括第一子区域和第二子区域,第一子区域用于显示表情的类型图标,响应于对表情添加图标的拖拽操作,终端在第一目标位置上显示第一子区域和第二子区域。响应于第一子区域中的第一类型图标被选中,终端在第二子区域中显示与第一类型图标对应的多个第一待选表情。
在上述实施方式的基础上,在一些实施例中,响应于第一子区域中的第二类型图标被选中,终端将在第二子区域中的多个第一待选表情,切换为多个第二待选表情,第二待选表情为与第二类型图标对应的表情。在一些实施例中,第一子区域为圆形区域,第二子区域为与第一子区域内接的环形区域,第一子区域和第二子区域具有相同的圆心。
在这种实施方式下,用户能够在第一子区域中通过选择不同的类型图标来控制终端在第二子区域中显示不同的待选表情,第一子区域中显示的类型图标也可以被称为待选表情的分类图标,技术人员能够为不同的类型图标设置对应的多个表情,以便于用户进行选择。
在一种可能的实施方式中,表情选择区域包括多个子区域,多个第一待选表情分别显示在多个子区域中。在这种实施方式下,终端能够将第一待选表情分别显示在多个子区域中,不同子区域能够对多个第一待选表情进行分隔,用户能够在不同子区域中进行选择想要的第一待选表情。
举例来说,表情选择区域为圆形区域,一个子区域为圆形区域的一个部分,圆形区域的中心显示有多个第一待选表情对应的类型图标。在一些实施例中,该表情选择区域为能够进行转动的区域,响应于对表情选择区域的滑动操作,终端控制表情选择区域按照滑动操作的方向进行转动,也即是,用户能够通过滑动表情选择区域。表情选择区域转动过程中,第一待选表情也会随之转动,用户能够将第一待选表情转动至想要的方向之后,再进行表情选择,在这种情况下,表情选择区域也被称为表情轮盘。圆形区域中心显示的类型图标用于表示子区域中显示的多个第一待选表情的类型,用户能够通过查看该类型图标来确定多个第一待选表情的类型。
在一种可能的实施方式中,虚拟场景中显示有至少一个第一虚拟对象,第一待选表情为第一虚拟对象对应的表情。在一些实施例中,第一虚拟对象为终端登录用户控制的虚拟对象,响应于用户控制任一个第一虚拟对象上场,终端在表情选择区域中添加与该第一虚拟对象对应的第一待选表情。其中,上场是指控制该第一虚拟对象在虚拟场景中进行显示,或者,参见图2,是指将该第一虚拟对象从备战区域204拖拽至战场区域203,本申请实施例对此不做限定。另外,第一虚拟对象与第一待选表情之间的对应关系,由技术人员根据实际情况进行设置,或者由终端基于图像识别算法来进行匹配,也即是响应于该第一虚拟对象上场,终端对该第一虚拟对象进行图像识别,得到该第一虚拟对象的标签。终端基于该第一虚拟对象的标签,在表情数据库中进行匹配,得到与该第一虚拟对象对应的第一待选表情,本申请实施例对于终端确定与该第一虚拟对象对应的第一待选表情的方法不做限定。终端在表情选择区域中添加与该第一虚拟对象对应的第一待选表情是指,终端将与该第一虚拟对象对应的第一待选表情添加至表情选择区域对应的文件夹中,在显示表情选择区域时,终端能够将该第一待选表情显示在表情选择区域中。
在一些实施例中,第一虚拟对象既包括终端登录用户控制的虚拟对象,也包括与该用户进行对战的其他用户控制的虚拟对象,响应于任一个第一虚拟对象上场之后,终端在表情选择区域中添加与该第一虚拟对象对应的第一待选表情,用户能够在表情选择区域中进行表情选择。其中,终端在表情选择区域中添加与该第一虚拟对象对应的第一待选表情的方法,与上述实施例中属于同一发明构思,本申请实施例对此不做限定。
在一种可能的实施方式中,虚拟场景中显示有至少一个第一虚拟对象,响应于表情添加图标被拖拽至任一第一虚拟对象所在的位置,在第一虚拟对象所在的位置上显示表情选择区域,该第一虚拟对象所在的位置也即是第一目标位置,后续通过该表情选择区域选择的表情,可以被视作是向该第一虚拟对象发送的表情。通过这种实施方式,用户能够在游戏过程中自行决定表情的发送给哪个虚拟对象,给用户提供了更加丰富的表情发送方式,提高了用户的游戏体验。
在一种可能的实施方式中,虚拟场景中显示有多个用户头像,一个用户头像对应于一个参加竞技对战的用户。响应于表情添加图标被拖拽至任一用户头像所在的位置,在该用户头像所在的位置上显示表情选择区域,该用户头像所在的位置也即是第一目标位置,后续通过该表情选择区域选择的表情,可以被视作是向该用户头像对应的用户发送的表情。通过这种实施方式,用户能够在游戏过程中自行决定表情的发送给哪个用户,给用户提供了更加丰富的表情发送方式,提高了用户的游戏体验。
403、响应于多个第一待选表情中的第一目标表情被选中,终端在虚拟场景中显示第一目标表情。
在一种可能的实施方式中,响应于第一目标表情被选中,终端在虚拟场景中对第一目标表情进行放大显示。在一些实施例中,第一目标表情为一个矢量图形,终端在显示第一目标表情时,能够对第一目标表情进行放大显示,便于用户进行查看。在一些实施例中,终端在虚拟场景中显示第一目标表情的位置为第一目标位置,也即是,终端在虚拟场景中显示第一目标表情的位置,与终端显示表情选择区域的位置相同。响应于多个第一待选表情中的第一目标表情被选中,终端在虚拟场景中的第一目标位置上显示第一目标表情。
举例来说,响应于多个第一待选表情中的第一目标表情被点击,终端在虚拟场景中的第一目标位置上对第一目标表情进行放大显示。若第一目标位置为对表情添加图标的拖拽操作的结束位置,那么终端也就能够将第一目标表情显示在该结束位置上。对于用户来说,若用户想要在虚拟场景中的指定位置上显示表情,那么可以将表情添加控件拖拽至该指定位置上,后续在表情选择区域中选择的第一目标表情就能够显示在该指定位置上。比如,参见图6和图7,响应于对第一目标表情605的点击操作,终端在虚拟场景701中的第一目标位置上对第一目标表情605进行放大显示,也即是在虚拟场景701中显示放大后的第一目标表情702。
在一种可能的实施方式中,响应于第一目标表情被选中,终端在虚拟场景中播放第一目标表情对应的动画。
其中,第一目标表情对应的动画由技术人员进行配置,比如,技术人员制作好表情和表情对应动画之后,将表情好表情对应的动画进行绑定存储。当第一目标表情被选中之后,终端就能够直接加载第一目标表情对应的动画,在虚拟场景中对该动画进行播放。
举例来说,响应于多个第一待选表情中的第一目标表情被点击,终端加载与第一目标表情对应的动画,在虚拟场景中的第一目标位置上播放该动画。若第一目标位置为对表情添加图标的拖拽操作的结束位置,那么终端也就能够在该结束位置上播放该动画。
在一种可能的实施方式中,虚拟场景中显示有至少一个虚拟对象,第一待选表情为第一虚拟对象对应的表情。终端控制目标虚拟对象执行与第一目标表情对应的动作,目标虚拟对象为至少一个第一虚拟对象中,与第一目标表情对应的第一虚拟对象。其中,控制在这里是指显示的意思,也即是控制过程是由服务器来执行,终端显示目标虚拟对象执行动作的过程,或者目标虚拟对象执行动作直接是由终端控制的,本申请实施例对此不做限定。第一目标表情与动作之间的对应关系,由技术人员根据实际情况进行设置,比如,技术人员将第一目标表情和对应动作制作完毕之后,能够将第一目标表情和对应动作进行绑定存储,响应于第一目标表情被选中,终端控制目标虚拟对象执行与第一目标表情对应的动作。在这种实施方式下,终端除了能够在虚拟场景中显示第一目标表情之外,还能够控制目标虚拟对象执行对应的动作,丰富了第一目标表情的显示效果,提高了用户的游戏体验。
在一种可能的实施方式中,响应于多个第一待选表情中的第一目标表情被选中,终端控制被控虚拟对象移动至第一目标位置,在第一目标位置上显示第一目标表情。其中,被控虚拟对象也即是用户登录终端控制的虚拟对象。终端控制被控虚拟对象中的控制是指显示的意思,也即是控制过程是由服务器来执行,终端显示被控虚拟对象执行动作的过程,或者被控虚拟对象执行动作直接是由终端控制的,本申请实施例对此不做限定。
在这种实施方式下,在显示第一目标表情时,终端还能够控制被控虚拟对象移动至第一目标表情的显示位置上,以丰富第一目标表情进行显示时的效果。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
图8示出了上述步骤401-403的一个逻辑框图,参见图8,进入游戏之后,若检测到用户对表情添加图标的拖拽操作,显示表情轮盘,表情轮盘也即是表情选择区域。若检测到对表情轮盘中的任一个表情的点击操作,在拖拽操作的对应位置上显示被点击的表情。若未检测到用户对表情添加图标的拖拽操作,那么也就不发送表情;若未检测到用户在表情轮盘中的点击操作,也不发送表情。
通过本申请实施例提供的技术方案,用户能够通过拖拽表情添加图标来触发表情选择区域的显示,用户在表情选择区域中能够进行表情选择,被选中的第一目标表情会显示在虚拟场景中的第一目标位置上,由于第一目标位置是与拖拽操作对应的位置,那么如果用户想要改变第一目标表情的显示位置,相应的调整拖拽操作即可。也就是说,当用户想要在虚拟场景中发送表情时,只需对表情添加图标进行拖拽操作,在显示的表情选择区域中选择想要进行显示的表情,无需先调出聊天窗口,在聊天窗口中调用表情选择面板,在表情选择面板中选择表情,再点击聊天窗口的发送控件来实现表情的发送,提高了人机交互的效率。
除了上述步骤401-403,本申请还提供了另一种虚拟场景中的表情显示方法,参见图9,方法包括:
901、终端显示虚拟场景,虚拟场景中显示有表情添加图标,表情添加图标用于在虚拟场景中添加表情。
终端显示虚拟场景的过程与上述步骤401属于同一发明构思,实现过程参见上述步骤401的相关描述,在此不再赘述。
902、响应于对表情添加图标的点击操作,终端在虚拟场景中显示表情选择区域,表情选择区域中显示有多个第一待选表情。
在一种可能的实施方式中,响应于对表情添加图标的点击操作,终端在虚拟场景中的第四目标位置上显示表情选择区域,第四目标位置为与表情添加图标相邻的位置。
举例来说,参见图10和图11,响应于对虚拟场景1001中的表情添加图标1002的点击操作,终端在虚拟场景1101的第四目标位置上显示表情选择区域1102,表情选择区域中显示有多个第一待选表情。
在一种可能的实施方式中,表情选择区域包括第一子区域和第二子区域,第一子区域用于显示表情的类型图标,响应于对表情添加图标的拖拽操作,终端在第一目标位置上显示第一子区域和第二子区域。响应于第一子区域中的第一类型图标被选中,终端在第二子区域中显示与第一类型图标对应的多个第一待选表情。
举例来说,参见图11,表情选择区域1102包括第一子区域1103和第二子区域1104,第一子区域1103中显示有多个类型图标。响应于对第一子区域1103中的第一类型图标1105的点击操作,终端在第二子区域1104中显示与第一类型图标1105对应的多个第一待选表情。
在上述实施方式的基础上,在一些实施例中,响应于第一子区域中的第二类型图标被选中,终端将在第二子区域中的多个第一待选表情,切换为多个第二待选表情,第二待选表情为与第二类型图标对应的表情。在一些实施例中,第一子区域为圆形区域,第二子区域为与第一子区域内接的环形区域,第一子区域和第二子区域具有相同的圆心。
举例来说,响应于对第一子区域1103中的第二类型图标1106的点击操作,终端在第二子区域1104中显示与第二类型图标1106对应的多个第二待选表情。
在一种可能的实施方式中,表情选择区域包括多个子区域,多个第一待选表情分别显示在多个子区域中。在这种实施方式下,终端能够将第一待选表情分别显示在多个子区域中,不同子区域能够对多个第一待选表情进行分隔,用户能够在不同子区域中进行选择想要的第一待选表情。
举例来说,表情选择区域为圆形区域,一个子区域为圆形区域的一个部分,圆形区域的中心显示有多个第一待选表情对应的类型图标。在一些实施例中,该表情选择区域为能够进行转动的区域,响应于对表情选择区域的滑动操作,终端控制表情选择区域按照滑动操作的方向进行转动,也即是,用户能够通过滑动表情选择区域。表情选择区域转动过程中,第一待选表情也会随之转动,用户能够将第一待选表情转动至想要的方向之后,再进行表情选择,在这种情况下,表情选择区域也被称为表情轮盘。圆形区域中心显示的类型图标用于表示子区域中显示的多个第一待选表情的类型,用户能够通过查看该类型图标来确定多个第一待选表情的类型。
在一种可能的实施方式中,虚拟场景中显示有至少一个第一虚拟对象,第一待选表情为第一虚拟对象对应的表情。在一些实施例中,第一虚拟对象为终端登录用户控制的虚拟对象,响应于用户控制任一个第一虚拟对象上场,终端在表情选择区域中添加与该第一虚拟对象对应的第一待选表情。
903、响应于对多个第一待选表情中的第二目标表情的拖拽操作,终端在第二目标位置上显示第二目标表情,第二目标位置为拖拽操作对应的位置。
在一种可能的实施方式中,第二目标位置为该拖拽操作结束的位置。也即是,用户能够对表情选择区域中的第一待选表情执行拖拽操作,被拖拽的第一待选表情可以视作被选中的第二目标表情。用户能够通过拖拽操作的结束位置来控制终端显示第二目标表情的位置。
在一些实施例中,若终端为手机、平板等具有触控功能的设备时,那么对第二目标表情的拖拽操作,也即是用户将手指放在第二目标表情对应的位置上,按下手指后控制手指在屏幕上进行拖拽,但用户想要结束拖拽操作时,只需抬起手指即可。对于终端来说,响应于检测到对第二目标表情的点击操作符合目标条件,终端将第二目标表情设置为可拖拽状态,可拖拽状态是指该第二目标表情能够随着拖拽操作的移动而移动。终端实时获取拖拽操作在屏幕上的位置,将第二目标表情显示在拖拽操作对应的位置上,从用户的角度来看,处于可拖拽状态的第二目标表情,始终位于屏幕上手指的下方。响应于在第二目标位置检测到拖拽操作结束,终端将第二目标表情显示在拖拽操作结束的位置上。其中,对第二目标表情的点击操作符合目标条件是指,对第二目标表情的点击操作的持续时间大于或等于时间阈值,或者对第二目标表情的点击操作的力度大于或等于力度阈值,其中,时间阈值和力度阈值由技术人员根据实际情况进行设置,本申请实施例对此不做限定。
举例来说,参见图12,响应于虚拟场景1201中的第二目标表情1202被拖拽至第二目标位置1203,终端将第二目标表情1202显示在第二目标位置1203上。
在一种可能的实施方式中,虚拟场景中显示有多个第一虚拟对象,响应于第二目标表情被拖拽至第三目标位置,且任一第一虚拟对象与第三目标位置之间的距离符合目标条件,终端在该第一虚拟对象所在的第二目标位置上显示第二目标表情。
在这种实施方式下,终端能够将第二目标表情显示在符合目标条件的第一虚拟对象的上方,可以用来表示第二目标表情是该第一虚拟对象做出的表情,丰富了第二目标表情显示的丰富程度,便于用户通过第二目标表情来传达信息,提高了人机交互的效率。
举例来说,虚拟场景中显示有一个第一虚拟对象,响应于第二目标表情被拖拽至第三目标位置,终端确定该第一虚拟对象与第三目标位置之间的距离。响应于该第一虚拟对象与第三目标位置之间的距离小于或等于距离阈值,终端将该第一虚拟对象与第三目标位置之间的距离符合目标条件,在该第一虚拟对象所在的第二目标位置上显示第二目标表情。从用户的角度来看,当将第二目标表情拖拽至第一虚拟对象附近时,第二目标表情能够显示在该第一虚拟对象的上方。当然,上述是以虚拟场景中显示有一个虚拟对象为例进行说明,在其他可能的实施方式中,虚拟场景中能够显示有多个第一虚拟对象,在这种情况下,响应于第二目标表情被拖拽至第三目标位置,终端确定多个第一虚拟对象与第三目标位置之间的距离,将多个第一虚拟对象中,与第三目标距离之间的距离最小的第一虚拟对象确定为与第三目标位置之间的距离符合目标条件的第一虚拟对象,终端将第二目标表情显示在该第一虚拟对象的上方。用户可以利用这种显示方式,控制终端将第二目标表情显示在不同的第一虚拟对象的上方,以传达不同的信息。
在上述实施方式的基础上,可选地,响应于该第一虚拟对象在虚拟场景中发生移动,终端调整第二目标表情的显示位置,以使得第二目标表情始终显示在该第一虚拟对象的上方。从用户的角度来看,当将第二目标表情拖拽至该第一虚拟对象附近时,终端将第二目标表情显示在第一虚拟对象的上方,当第一虚拟对象在虚拟场景中进行移动时,第二目标表情会跟着第一虚拟对象一起移动,也即是第二目标表情始终保持在第一虚拟对象的上方。
在一种可能的实施方式中,虚拟场景中显示有多个第一虚拟对象,响应于第二目标表情被拖拽至第三目标位置,且至少两个第一虚拟对象与第三目标位置之间的距离符合目标条件,在第二虚拟对象所在的第二目标位置上显示第二目标表情,第二虚拟对象为至少两个第一虚拟对象中终端控制的第一虚拟对象。
举例来说,响应于第二目标表情被拖拽至第三目标位置,终端确定虚拟场景中的多个第一虚拟对象与第三目标位置之间的距离。响应于至少两个第一虚拟对象与第三目标位置之间的距离小于或等于距离阈值,终端确定该至少两个第一虚拟对象与第三目标位置之间的距离符合目标条件,终端在至少两个第一虚拟对象中确定出第二虚拟对象,第二虚拟对象也即是终端控制的第一虚拟对象,或者说是玩家控制的第一虚拟对象。终端将第二目标表情显示在第二虚拟对象所在的第二目标位置的上,从用户的角度来看,也即是第二目标表情被显示在了自己控制的虚拟对象的上方。
在上述实施方式的基础上,可选地,响应于该第二虚拟对象在虚拟场景中发生移动,终端调整第二目标表情的显示位置,以使得第二目标表情始终显示在该第二虚拟对象的上方。从用户的角度来看,当将第二目标表情拖拽至该第二虚拟对象附近时,终端将第二目标表情显示在第二虚拟对象的上方,当第二虚拟对象在虚拟场景中进行移动时,第二目标表情会跟着第二虚拟对象一起移动,也即是第二目标表情始终保持在第二虚拟对象的上方。
在一种可能的实施方式中,响应于多个第一待选表情中的第二目标表情被选中,终端控制被控虚拟对象移动至第二目标位置,在第二目标位置上显示第二目标表情。其中,被控虚拟对象也即是用户登录终端控制的虚拟对象。终端控制被控虚拟对象中的控制是指显示的意思,也即是控制过程是由服务器来执行,终端显示被控虚拟对象执行动作的过程,或者被控虚拟对象执行动作直接是由终端控制的,本申请实施例对此不做限定。
在这种实施方式下,在显示第一目标表情时,终端还能够控制被控虚拟对象移动至第一目标表情的显示位置上,以丰富第一目标表情进行显示时的效果。
在一种可能的实施方式中,虚拟场景中显示有多个用户头像,响应于多个第一待选表情中的第三目标表情被拖拽至目标用户头像所在的位置,终端向目标用户头像对应的终端发送第三目标表情,目标用户头像为多个用户头像中的任一个。
在这种实施方式下,当用户想要向目标用户(目标用户头像对应的用户)发送表情时,只需将第一待选表情中的第三目标表情拖拽至目标用户的用户头像即可,无需再通过聊天窗口来选择表情后进行发送,提高了人机交互的效率。
举例来说,响应于第三目标表情被拖拽至目标用户头像所在的位置,终端向目标用户头像对应的终端发送第三目标表情,也即是将第三目标表情显示在虚拟场景中的聊天框中发送该第三目标表情,该第三目标表情的接收方为目标用户的终端。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
通过本申请实施例提供的技术方案,用户能够通过点击表情添加图标来触发表情选择区域的显示,用户在表情选择区域中能够进行拖拽操作,被拖拽的第二目标表情会显示在拖拽操作对应的位置上,也即是用户能够自行选择第二目标表情在虚拟场景中的显示位置。也就是说,当用户想要在虚拟场景中发送表情时,只需对表情添加图标进行点击,在显示的表情选择区域中拖拽想要进行显示的第二目标表情,无需先调出聊天窗口,在聊天窗口中调用表情选择面板,在表情选择面板中选择表情,再点击聊天窗口的发送控件来实现表情的发送,提高了人机交互的效率。
图13是本申请实施例提供的一种虚拟场景中的表情显示装置的结构示意图,参见图13,装置包括:场景显示模块1301、表情选择区域显示模块1302以及目标表情显示模块1303。
场景显示模块1301,用于显示虚拟场景,虚拟场景中显示有表情添加图标,表情添加图标用于在虚拟场景中添加表情。
表情选择区域显示模块1302,用于响应于对表情添加图标的拖拽操作,在虚拟场景中的第一目标位置上显示表情选择区域,第一目标位置为拖拽操作对应的位置,表情选择区域中显示有多个第一待选表情。
目标表情显示模块1303,用于响应于多个第一待选表情中的第一目标表情被选中,在虚拟场景中显示第一目标表情。
在一种可能的实施方式中,目标表情显示模块1303,用于响应于多个第一待选表情中的第一目标表情被选中,在虚拟场景中的第一目标位置上显示第一目标表情。
在一种可能的实施方式中,虚拟场景中显示有被控虚拟对象,目标表情显示模块1303,用于响应于多个第一待选表情中的第一目标表情被选中,控制被控虚拟对象移动至第一目标位置。
在一种可能的实施方式中,目标表情显示模块1303,用于响应于第一目标表情被选中,在虚拟场景中播放第一目标表情对应的动画。
在一种可能的实施方式中,表情选择区域包括第一子区域和第二子区域,第一子区域用于显示表情的类型图标,一个类型图标对应于多个表情,目标表情显示模块1303,用于在第一目标位置上显示第一子区域和第二子区域。响应于第一子区域中的第一类型图标被选中,在第二子区域中显示与第一类型图标对应的多个第一待选表情。
在一种可能的实施方式中,装置还包括:
表情切换模块,用于响应于第一子区域中的第二类型图标被选中,将在第二子区域中的多个第一待选表情,切换为多个第二待选表情,第二待选表情为与第二类型图标对应的表情。
在一种可能的实施方式中,表情选择区域包括多个子区域,多个第一待选表情分别显示在多个子区域中。
在一种可能的实施方式中,表情选择区域为圆形区域,一个子区域为圆形区域的一个部分,圆形区域的中心显示有多个第一待选表情对应的类型图标。
在一种可能的实施方式中,虚拟场景中显示有至少一个第一虚拟对象,第一待选表情为第一虚拟对象对应的表情。
在一种可能的实施方式中,装置还包括:
控制模块,用于控制目标虚拟对象执行与第一目标表情对应的动作,目标虚拟对象为至少一个第一虚拟对象中,与第一目标表情对应的第一虚拟对象。
需要说明的是:上述实施例提供的虚拟场景中的表情显示装置在虚拟场景中显示表情时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将计算机设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的虚拟场景中的表情显示装置与虚拟场景中的表情显示方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
通过本申请实施例提供的技术方案,用户能够通过拖拽表情添加图标来触发表情选择区域的显示,用户在表情选择区域中能够进行表情选择,被选中的第一目标表情会显示在虚拟场景中的第一目标位置上,由于第一目标位置是与拖拽操作对应的位置,那么如果用户想要改变第一目标表情的显示位置,相应的调整拖拽操作即可。也就是说,当用户想要在虚拟场景中发送表情时,只需对表情添加图标进行拖拽操作,在显示的表情选择区域中选择想要进行显示的第一目标表情,无需先调出聊天窗口,在聊天窗口中调用表情选择面板,在表情选择面板中选择表情,再点击聊天窗口的发送控件来实现表情的发送,提高了人机交互的效率。
图14是本申请实施例提供的一种虚拟场景中的表情显示装置的结构示意图,参见图14,装置包括:场景显示模块1401、表情选择区域显示模块1402以及目标表情显示模块1403。
场景显示模块1401,用于显示虚拟场景,所述虚拟场景中显示有表情添加图标,所述表情添加图标用于在所述虚拟场景中添加表情;
表情选择区域显示模块1402,用于响应于对所述表情添加图标的点击操作,在所述虚拟场景中显示所述表情选择区域,所述表情选择区域中显示有多个第一待选表情;
目标表情显示模块1403,用于响应于对所述多个第一待选表情中的第二目标表情的拖拽操作,在第二目标位置上显示所述第二目标表情,所述第二目标位置为所述拖拽操作对应的位置。
在一种可能的实施方式中,所述第二目标位置为所述拖拽操作结束的位置。
在一种可能的实施方式中,所述虚拟场景中显示有多个第一虚拟对象,所述目标表情显示模块1403,用于执行下述任一项:
响应于所述第二目标表情被拖拽至第三目标位置,且任一所述第一虚拟对象与所述第三目标位置之间的距离符合目标条件,在所述任一所述第一虚拟对象所在的所述第二目标位置上显示所述第二目标表情;
响应于所述第二目标表情被拖拽至所述第三目标位置,且至少两个所述第一虚拟对象与所述第三目标位置之间的距离符合目标条件,在第二虚拟对象所在的第二目标位置上显示所述第二目标表情,所述第二虚拟对象为所述至少两个所述第一虚拟对象中终端控制的第一虚拟对象。
在一种可能的实施方式中,所述虚拟场景中显示有多个用户头像,所述装置还包括:
表情发送模块,用于响应于所述多个第一待选表情中的第三目标表情被拖拽至目标用户头像所在的位置,向所述目标用户头像对应的终端发送所述第三目标表情,所述目标用户头像为所述多个用户头像中的任一个。
需要说明的是:上述实施例提供的虚拟场景中的表情显示装置在虚拟场景中显示表情时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将计算机设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的虚拟场景中的表情显示装置与虚拟场景中的表情显示方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
通过本申请实施例提供的技术方案,用户能够通过点击表情添加图标来触发表情选择区域的显示,用户在表情选择区域中能够进行拖拽操作,被拖拽的第二目标表情会显示在拖拽操作对应的位置上,也即是用户能够自行选择第二目标表情在虚拟场景中的显示位置。也就是说,当用户想要在虚拟场景中发送表情时,只需对表情添加图标进行点击,在显示的表情选择区域中拖拽想要进行显示的第二目标表情,无需先调出聊天窗口,在聊天窗口中调用表情选择面板,在表情选择面板中选择表情,再点击聊天窗口的发送控件来实现表情的发送,提高了人机交互的效率。
本申请实施例提供了一种计算机设备,用于执行上述方法,该计算机设备可以实现为终端,下面对终端的结构进行介绍:
图15是本申请实施例提供的一种终端的结构示意图。该终端1500可以是:智能手机、平板电脑、笔记本电脑或台式电脑。终端1500还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1500包括有:一个或多个处理器1501和一个或多个存储器1502。
处理器1501可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1501可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1501也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1501可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1501还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1502可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1502还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1502中的非暂态的计算机可读存储介质用于存储至少一个计算机程序,该至少一个计算机程序用于被处理器1501所执行以实现本申请中方法实施例提供的虚拟场景中的表情显示方法。
在一些实施例中,终端1500还可选包括有:外围设备接口1503和至少一个外围设备。处理器1501、存储器1502和外围设备接口1503之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1503相连。具体地,外围设备包括:射频电路1504、显示屏1505、摄像头组件1506、音频电路1507和电源1509中的至少一种。
外围设备接口1503可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1501和存储器1502。在一些实施例中,处理器1501、存储器1502和外围设备接口1503被集成在同一芯片或电路板上;在一些其他实施例中,处理器1501、存储器1502和外围设备接口1503中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1504用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1504通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1504将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1504包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。
显示屏1505用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1505是触摸显示屏时,显示屏1505还具有采集在显示屏1505的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1501进行处理。此时,显示屏1505还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。
摄像头组件1506用于采集图像或视频。可选地,摄像头组件1506包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。
音频电路1507可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1501进行处理,或者输入至射频电路1504以实现语音通信。
电源1509用于为终端1500中的各个组件进行供电。电源1509可以是交流电、直流电、一次性电池或可充电电池。
在一些实施例中,终端1500还包括有一个或多个传感器1510。该一个或多个传感器1510包括但不限于:加速度传感器1511、陀螺仪传感器1512、压力传感器1513、光学传感器1515以及接近传感器1516。
加速度传感器1511可以检测以终端1500建立的坐标系的三个坐标轴上的加速度大小。
陀螺仪传感器1512可以终端1500的机体方向及转动角度,陀螺仪传感器1512可以与加速度传感器1511协同采集用户对终端1500的3D动作。
压力传感器1513可以设置在终端1500的侧边框和/或显示屏1505的下层。当压力传感器1513设置在终端1500的侧边框时,可以检测用户对终端1500的握持信号,由处理器1501根据压力传感器1513采集的握持信号进行左右手识别或快捷操作。当压力传感器1513设置在显示屏1505的下层时,由处理器1501根据用户对显示屏1505的压力操作,实现对UI界面上的可操作性控件进行控制。
光学传感器1515用于采集环境光强度。在一个实施例中,处理器1501可以根据光学传感器1515采集的环境光强度,控制显示屏1505的显示亮度。
接近传感器1516用于采集用户与终端1500的正面之间的距离。
本领域技术人员可以理解,图15中示出的结构并不构成对终端1500的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在本申请实施例中,还提供了一种计算机可读存储介质,例如包括计算机程序的存储器,上述计算机程序可由处理器执行以完成上述实施例中的虚拟场景中的表情显示方法。例如,该计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
在本申请实施例中,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括程序代码,该程序代码存储在计算机可读存储介质中,计算机设备的处理器从计算机可读存储介质读取该程序代码,处理器执行该程序代码,使得该计算机设备执行上述虚拟场景中的表情显示方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
上述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (26)
1.一种虚拟场景中的表情显示方法,其特征在于,所述方法包括:
显示虚拟场景,所述虚拟场景中显示有被控虚拟对象、多个第一类虚拟对象以及多个第二类虚拟对象,所述虚拟场景中显示有表情添加图标,所述第一类虚拟对象为用户在自走棋游戏中的“棋子”,所述第二类虚拟对象为与所述用户对战的其他用户在自走棋中的“棋子”或NPC,所述表情添加图标用于在所述虚拟场景中添加表情;
响应于所述用户控制所述多个第一类虚拟对象中的任一第一虚拟对象上场,在表情选择区域中添加与所述第一虚拟对象对应的第一待选表情,所述上场是指将所述第一虚拟对象从备战区域拖拽至战场区域;
响应于对所述表情添加图标的拖拽操作,在所述虚拟场景中的第一目标位置上显示所述表情选择区域,所述第一目标位置为所述拖拽操作对应的位置,所述表情选择区域中显示有已添加的多个第一待选表情;
响应于所述多个第一待选表情中的第一目标表情被选中,在所述虚拟场景中显示所述第一目标表情,控制与所述第一目标表情对应的第一虚拟对象执行与所述第一目标表情对应的动作。
2.根据权利要求1所述的方法,其特征在于,所述响应于所述多个第一待选表情中的第一目标表情被选中,在所述虚拟场景中显示所述第一目标表情包括:
响应于所述多个第一待选表情中的第一目标表情被选中,在所述虚拟场景中的所述第一目标位置上显示所述第一目标表情。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:响应于所述多个第一待选表情中的第一目标表情被选中,控制所述被控虚拟对象移动至所述第一目标位置。
4.根据权利要求1所述的方法,其特征在于,所述响应于所述多个第一待选表情中的第一目标表情被选中,在所述虚拟场景中显示所述第一目标表情包括:
响应于所述第一目标表情被选中,在所述虚拟场景中播放所述第一目标表情对应的动画。
5.根据权利要求1所述的方法,其特征在于,所述表情选择区域包括第一子区域和第二子区域,所述第一子区域用于显示表情的类型图标,一个所述类型图标对应于多个表情,所述在所述虚拟场景中的第一目标位置上显示所述表情选择区域包括:
在所述第一目标位置上显示所述第一子区域和第二子区域;
响应于所述第一子区域中的第一类型图标被选中,在所述第二子区域中显示与所述第一类型图标对应的所述多个第一待选表情。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
响应于所述第一子区域中的第二类型图标被选中,将在所述第二子区域中的所述多个第一待选表情,切换为多个第二待选表情,所述第二待选表情为与所述第二类型图标对应的表情。
7.根据权利要求1所述的方法,其特征在于,所述表情选择区域包括多个子区域,所述多个第一待选表情分别显示在所述多个子区域中。
8.根据权利要求7所述的方法,其特征在于,所述表情选择区域为圆形区域,一个所述子区域为所述圆形区域的一个部分,所述圆形区域的中心显示有所述多个第一待选表情对应的类型图标。
9.一种虚拟场景中的表情显示方法,其特征在于,所述方法包括:
显示虚拟场景,所述虚拟场景中显示有被控虚拟对象、多个第一类虚拟对象以及多个第二类虚拟对象,所述虚拟场景中显示有表情添加图标,所述第一类虚拟对象为用户在自走棋游戏中的“棋子”,所述第二类虚拟对象为与所述用户对战的其他用户在自走棋中的“棋子”或NPC,所述表情添加图标用于在所述虚拟场景中添加表情;
响应于所述用户控制所述多个第一类虚拟对象中的任一第一虚拟对象上场,在表情选择区域中添加与所述第一虚拟对象对应的第一待选表情,所述上场是指将所述第一虚拟对象从备战区域拖拽至战场区域;
响应于对所述表情添加图标的点击操作,在所述虚拟场景中显示所述表情选择区域,所述表情选择区域中显示有已添加的多个第一待选表情;
响应于对所述多个第一待选表情中的第二目标表情的拖拽操作,在第二目标位置上显示所述第二目标表情,控制与所述第二目标表情对应的第一虚拟对象执行与所述第二目标表情对应的动作,所述第二目标位置为所述拖拽操作对应的位置。
10.根据权利要求9所述的方法,其特征在于,所述第二目标位置为所述拖拽操作结束的位置。
11.根据权利要求9所述的方法,其特征在于,所述虚拟场景中显示有多个第一虚拟对象,所述响应于对所述多个第一待选表情中的第二目标表情的拖拽操作,在第二目标位置上显示所述第二目标表情包括下述任一项:
响应于所述第二目标表情被拖拽至第三目标位置,且任一所述第一虚拟对象与所述第三目标位置之间的距离符合目标条件,在所述任一所述第一虚拟对象所在的所述第二目标位置上显示所述第二目标表情;
响应于所述第二目标表情被拖拽至所述第三目标位置,且至少两个所述第一虚拟对象与所述第三目标位置之间的距离符合目标条件,在第二虚拟对象所在的第二目标位置上显示所述第二目标表情,所述第二虚拟对象为所述至少两个所述第一虚拟对象中终端控制的第一虚拟对象。
12.根据权利要求9所述的方法,其特征在于,所述虚拟场景中显示有多个用户头像,所述方法还包括:
响应于所述多个第一待选表情中的第三目标表情被拖拽至目标用户头像所在的位置,向所述目标用户头像对应的终端发送所述第三目标表情,所述目标用户头像为所述多个用户头像中的任一个。
13.一种虚拟场景中的表情显示装置,其特征在于,所述装置包括:
场景显示模块,用于显示虚拟场景,所述虚拟场景中显示有被控虚拟对象、多个第一类虚拟对象以及多个第二类虚拟对象,所述虚拟场景中显示有表情添加图标,所述表情添加图标用于在所述虚拟场景中添加表情,所述第一类虚拟对象为用户在自走棋游戏中的“棋子”,所述第二类虚拟对象为与所述用户对战的其他用户在自走棋中的“棋子”或NPC;响应于所述用户控制所述多个第一类虚拟对象中的任一第一虚拟对象上场,在表情选择区域中添加与所述第一虚拟对象对应的第一待选表情,所述上场是指将所述第一虚拟对象从备战区域拖拽至战场区域;
表情选择区域显示模块,用于响应于对所述表情添加图标的拖拽操作,在所述虚拟场景中的第一目标位置上显示所述表情选择区域,所述第一目标位置为所述拖拽操作对应的位置,所述表情选择区域中显示有已添加的多个第一待选表情;
目标表情显示模块,用于响应于所述多个第一待选表情中的第一目标表情被选中,在所述虚拟场景中显示所述第一目标表情,控制与所述第一目标表情对应的第一虚拟对象执行与所述第一目标表情对应的动作。
14.根据权利要求13所述的装置,其特征在于,所述目标表情显示模块,用于响应于所述多个第一待选表情中的第一目标表情被选中,在所述虚拟场景中的所述第一目标位置上显示所述第一目标表情。
15.根据权利要求13或14所述的装置,其特征在于,所述目标表情显示模块,用于响应于所述多个第一待选表情中的第一目标表情被选中,控制所述被控虚拟对象移动至所述第一目标位置。
16.根据权利要求13所述的装置,其特征在于,所述目标表情显示模块,用于响应于所述第一目标表情被选中,在所述虚拟场景中播放所述第一目标表情对应的动画。
17.根据权利要求13所述的装置,其特征在于,所述表情选择区域包括第一子区域和第二子区域,所述第一子区域用于显示表情的类型图标,一个所述类型图标对应于多个表情,所述目标表情显示模块,用于在所述第一目标位置上显示所述第一子区域和第二子区域;响应于所述第一子区域中的第一类型图标被选中,在所述第二子区域中显示与所述第一类型图标对应的所述多个第一待选表情。
18.根据权利要求17所述的装置,其特征在于,所述装置还包括:
表情切换模块,用于响应于所述第一子区域中的第二类型图标被选中,将在所述第二子区域中的所述多个第一待选表情,切换为多个第二待选表情,所述第二待选表情为与所述第二类型图标对应的表情。
19.根据权利要求13所述的装置,其特征在于,所述表情选择区域包括多个子区域,所述多个第一待选表情分别显示在所述多个子区域中。
20.根据权利要求19所述的装置,其特征在于,所述表情选择区域为圆形区域,一个所述子区域为所述圆形区域的一个部分,所述圆形区域的中心显示有所述多个第一待选表情对应的类型图标。
21.一种虚拟场景中的表情显示装置,其特征在于,所述装置包括:
场景显示模块,用于显示虚拟场景,所述虚拟场景中显示有被控虚拟对象、多个第一类虚拟对象以及多个第二类虚拟对象,所述虚拟场景中显示有表情添加图标,所述第一类虚拟对象为用户在自走棋游戏中的“棋子”,所述第二类虚拟对象为与所述用户对战的其他用户在自走棋中的“棋子”或NPC,所述表情添加图标用于在所述虚拟场景中添加表情;响应于所述用户控制所述多个第一类虚拟对象中的任一第一虚拟对象上场,在表情选择区域中添加与所述第一虚拟对象对应的第一待选表情,所述上场是指将所述第一虚拟对象从备战区域拖拽至战场区域;
表情选择区域显示模块,用于响应于对所述表情添加图标的点击操作,在所述虚拟场景中显示所述表情选择区域,所述表情选择区域中显示有已添加的多个第一待选表情;
目标表情显示模块,用于响应于对所述多个第一待选表情中的第二目标表情的拖拽操作,在第二目标位置上显示所述第二目标表情,控制与所述第二目标表情对应的第一虚拟对象执行与所述第二目标表情对应的动作,所述第二目标位置为所述拖拽操作对应的位置。
22.根据权利要求21所述的装置,其特征在于,所述第二目标位置为所述拖拽操作结束的位置。
23.根据权利要求21所述的装置,其特征在于,所述虚拟场景中显示有多个第一虚拟对象,所述目标表情显示模块,用于执行下述任一项:
响应于所述第二目标表情被拖拽至第三目标位置,且任一所述第一虚拟对象与所述第三目标位置之间的距离符合目标条件,在所述任一所述第一虚拟对象所在的所述第二目标位置上显示所述第二目标表情;
响应于所述第二目标表情被拖拽至所述第三目标位置,且至少两个所述第一虚拟对象与所述第三目标位置之间的距离符合目标条件,在第二虚拟对象所在的第二目标位置上显示所述第二目标表情,所述第二虚拟对象为所述至少两个所述第一虚拟对象中终端控制的第一虚拟对象。
24.根据权利要求21所述的装置,其特征在于,所述虚拟场景中显示有多个用户头像,所述装置还包括:
表情发送模块,用于响应于所述多个第一待选表情中的第三目标表情被拖拽至目标用户头像所在的位置,向所述目标用户头像对应的终端发送所述第三目标表情,所述目标用户头像为所述多个用户头像中的任一个。
25.一种计算机设备,其特征在于,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条计算机程序,所述计算机程序由所述一个或多个处理器加载并执行以实现如权利要求1至权利要求8任一项所述的虚拟场景中的表情显示方法,或实现如权利要求9至权利要求12任一项所述的虚拟场景中的表情显示方法。
26.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,所述计算机程序由处理器加载并执行以实现如权利要求1至权利要求8任一项所述的虚拟场景中的表情显示方法,或实现如权利要求9至权利要求12任一项所述的虚拟场景中的表情显示方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110580625.XA CN113144601B (zh) | 2021-05-26 | 2021-05-26 | 虚拟场景中的表情显示方法、装置、设备以及介质 |
PCT/CN2022/088267 WO2022247536A1 (zh) | 2021-05-26 | 2022-04-21 | 在虚拟场景中显示表情的方法、装置、设备以及介质 |
JP2023538694A JP2024500929A (ja) | 2021-05-26 | 2022-04-21 | 仮想シーンに表情を表示する方法と装置及びコンピュータ機器とプログラム |
US17/971,882 US20230048502A1 (en) | 2021-05-26 | 2022-10-24 | Method and apparatus for displaying expression in virtual scene |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110580625.XA CN113144601B (zh) | 2021-05-26 | 2021-05-26 | 虚拟场景中的表情显示方法、装置、设备以及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113144601A CN113144601A (zh) | 2021-07-23 |
CN113144601B true CN113144601B (zh) | 2023-04-07 |
Family
ID=76877779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110580625.XA Active CN113144601B (zh) | 2021-05-26 | 2021-05-26 | 虚拟场景中的表情显示方法、装置、设备以及介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230048502A1 (zh) |
JP (1) | JP2024500929A (zh) |
CN (1) | CN113144601B (zh) |
WO (1) | WO2022247536A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113144601B (zh) * | 2021-05-26 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 虚拟场景中的表情显示方法、装置、设备以及介质 |
CN113996060A (zh) * | 2021-10-29 | 2022-02-01 | 腾讯科技(成都)有限公司 | 显示画面的调整方法和装置、存储介质及电子设备 |
CN116204250A (zh) * | 2021-11-30 | 2023-06-02 | 腾讯科技(深圳)有限公司 | 基于会话的信息展示方法、装置、设备、介质及程序产品 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101620050B1 (ko) * | 2015-03-03 | 2016-05-12 | 주식회사 카카오 | 인스턴트 메시지 서비스를 통한 시나리오 이모티콘 표시 방법 및 이를 위한 사용자 단말 |
CN107479784B (zh) * | 2017-07-31 | 2022-01-25 | 腾讯科技(深圳)有限公司 | 表情展示方法、装置及计算机可读存储介质 |
CN111010585B (zh) * | 2019-12-06 | 2021-10-22 | 广州方硅信息技术有限公司 | 虚拟礼物的发送方法、装置、设备及存储介质 |
CN111589128B (zh) * | 2020-04-23 | 2022-02-18 | 腾讯科技(深圳)有限公司 | 基于虚拟场景的操作控件显示方法及装置 |
CN112569611B (zh) * | 2020-12-11 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 互动信息显示方法、装置、终端及存储介质 |
CN113144601B (zh) * | 2021-05-26 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 虚拟场景中的表情显示方法、装置、设备以及介质 |
-
2021
- 2021-05-26 CN CN202110580625.XA patent/CN113144601B/zh active Active
-
2022
- 2022-04-21 WO PCT/CN2022/088267 patent/WO2022247536A1/zh active Application Filing
- 2022-04-21 JP JP2023538694A patent/JP2024500929A/ja active Pending
- 2022-10-24 US US17/971,882 patent/US20230048502A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230048502A1 (en) | 2023-02-16 |
WO2022247536A1 (zh) | 2022-12-01 |
CN113144601A (zh) | 2021-07-23 |
JP2024500929A (ja) | 2024-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113144601B (zh) | 虚拟场景中的表情显示方法、装置、设备以及介质 | |
CN111450538B (zh) | 虚拟道具的转移系统、方法、装置、设备及介质 | |
CN111760274A (zh) | 技能的控制方法、装置、存储介质及计算机设备 | |
CN112774184B (zh) | 虚拟场景中的虚拟对象锁定方法、装置、设备以及介质 | |
US11810234B2 (en) | Method and apparatus for processing avatar usage data, device, and storage medium | |
WO2022257653A1 (zh) | 虚拟道具的显示方法、装置、电子设备及存储介质 | |
CN112569607B (zh) | 预购道具的显示方法、装置、设备及介质 | |
CN114130012A (zh) | 用户界面的显示方法、装置、设备、介质及程序产品 | |
CN113786620A (zh) | 游戏信息推荐方法、装置、计算机设备及存储介质 | |
CN114911558A (zh) | 云游戏启动方法、装置、系统、计算机设备和存储介质 | |
CN114130018A (zh) | 虚拟物品的获取方法、装置、设备、介质及程序产品 | |
CN113332716A (zh) | 虚拟物品的处理方法、装置、计算机设备及存储介质 | |
US20230390650A1 (en) | Expression display method and apparatus in virtual scene, device and medium | |
CN112995687A (zh) | 基于互联网的互动方法、装置、设备及介质 | |
KR102650890B1 (ko) | 게임 내 아이템 강화 서비스 제공 방법 | |
JP7146052B1 (ja) | ゲームシステム、ゲームプログラム及び情報処理方法 | |
CN112138373B (zh) | 互动结果确定方法、装置、计算机设备及存储介质 | |
WO2024103990A1 (zh) | 回合制棋类游戏的商店升级方法、装置、设备及介质 | |
CN113332731B (zh) | 游戏的奖励发放方法、装置、存储介质及计算机设备 | |
KR102637710B1 (ko) | 가챠 서비스 제공 장치 및 방법 | |
WO2024103992A1 (zh) | 虚拟棋子的售卖方法、装置、设备、介质和程序产品 | |
US11964203B2 (en) | Information processing system for displaying a screen and automatically adjusting the screen | |
KR102210552B1 (ko) | 게임 플레이 데이터 제공 단말 및 게임 플레이 데이터 제공 방법 | |
US20230381650A1 (en) | Method for providing item enhancement service in game | |
CN115040867A (zh) | 一种游戏卡牌控制方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40048743 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |