CN113289331A - 虚拟道具的显示方法、装置、电子设备及存储介质 - Google Patents

虚拟道具的显示方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113289331A
CN113289331A CN202110642665.2A CN202110642665A CN113289331A CN 113289331 A CN113289331 A CN 113289331A CN 202110642665 A CN202110642665 A CN 202110642665A CN 113289331 A CN113289331 A CN 113289331A
Authority
CN
China
Prior art keywords
virtual
target
sliding operation
prop
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110642665.2A
Other languages
English (en)
Other versions
CN113289331B (zh
Inventor
吴湉
柴若冰
钟俊雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202110642665.2A priority Critical patent/CN113289331B/zh
Publication of CN113289331A publication Critical patent/CN113289331A/zh
Priority to PCT/CN2022/090964 priority patent/WO2022257653A1/zh
Priority to JP2023558624A priority patent/JP2024512582A/ja
Application granted granted Critical
Publication of CN113289331B publication Critical patent/CN113289331B/zh
Priority to US18/296,684 priority patent/US20230241501A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种虚拟道具的显示方法、装置、电子设备及存储介质,属于计算机技术领域。本申请通过提供一种新型的标记目标虚拟道具的人机交互方式,也即在检测到用户对虚拟道具列表中目标虚拟道具的互动选项进行滑动操作时,显示第一目标区域,并在用户将互动选项拖拽至第一目标区域内时,视为对目标虚拟道具标记完毕,对目标虚拟道具进行区别显示,这种人机交互方式无需在虚拟道具列表中各个虚拟道具的互动选项右侧添加标记按钮,且由于需要将互动选项拖拽至第一目标区域内才能完成标记,极大地降低了用户操作的误触率,且操作方式简单、便捷性高,因此能够提高人机交互效率。

Description

虚拟道具的显示方法、装置、电子设备及存储介质
技术领域
本申请涉及计算机技术领域,特别涉及一种虚拟道具的显示方法、装置、电子设备及存储介质。
背景技术
随着计算机技术的发展和终端功能的多样化,在终端上能够进行的游戏种类越来越多。终端可以在游戏应用中显示虚拟场景,并在虚拟场景中显示虚拟对象,用户可以通过终端控制虚拟对象与其他虚拟对象进行对战。
通常,在虚拟场景中还显示有可供拾取的虚拟道具,由于这些虚拟道具的种类繁多,可以以虚拟道具列表的方式显示各个虚拟道具。对于某些特定的虚拟道具,如果在游戏对局中具有比较重要的功能,会引发对虚拟道具进行标记的用户需求,用户可以在虚拟道具列表中找到需要标记的虚拟道具,并点击虚拟道具右侧的标记按钮,以完成对虚拟道具的标记操作。
在上述过程中,用户只要点击了虚拟道具右侧的标记按钮,就会触发对虚拟道具的标记功能,很容易发生误触操作,如果误触发生后用户还需要对虚拟道具进行取消标记,整体的人机交互方式误触率高、繁琐度高、便捷性差,因此人机交互效率低。
发明内容
本申请实施例提供了一种虚拟道具的显示方法、装置、电子设备及存储介质,能够提高标记虚拟道具过程中的人机交互效率。该技术方案如下:
一方面,提供了一种虚拟道具的显示方法,该方法包括:
在虚拟场景中显示虚拟道具列表,所述虚拟道具列表包括至少一个可拾取的虚拟道具的互动选项;
响应于对所述虚拟道具列表中目标虚拟道具的互动选项的滑动操作,若所述滑动操作符合第一目标条件,在所述虚拟场景中显示第一目标区域;
响应于所述滑动操作的操作结束点位于所述第一目标区域内,在所述虚拟场景中对所述目标虚拟道具进行区别显示。
一方面,提供了一种虚拟道具的显示装置,该装置包括:
第一显示模块,用于在虚拟场景中显示虚拟道具列表,所述虚拟道具列表包括至少一个可拾取的虚拟道具的互动选项;
第二显示模块,用于响应于对所述虚拟道具列表中目标虚拟道具的互动选项的滑动操作,若所述滑动操作符合第一目标条件,在所述虚拟场景中显示第一目标区域;
第三显示模块,用于响应于所述滑动操作的操作结束点位于所述第一目标区域内,在所述虚拟场景中对所述目标虚拟道具进行区别显示。
在一种可能实施方式中,所述第二显示模块用于:
若所述滑动操作为横向滑动操作,执行所述在所述虚拟场景中显示第一目标区域的操作。
在一种可能实施方式中,所述装置还包括:
确定模块,用于若所述滑动操作的滑动方向与水平方向之间的夹角位于目标角度范围内,确定所述滑动操作为横向滑动操作。
在一种可能实施方式中,所述第二显示模块用于:
在所述虚拟场景中所述虚拟道具列表的右侧显示所述第一目标区域。
在一种可能实施方式中,所述第三显示模块用于:
在所述虚拟场景中所述虚拟道具列表中,对所述目标虚拟道具的互动选项进行区别显示。
在一种可能实施方式中,所述第三显示模块用于:
在所述虚拟场景中,在所述目标虚拟道具的道具模型上显示标记图形。
在一种可能实施方式中,所述标记图形在被控虚拟对象以及友方虚拟对象的视野内均可见,所述友方虚拟对象与所述被控虚拟对象处于同一队伍或同一阵营。
在一种可能实施方式中,所述装置还包括:
第四显示模块,用于在所述虚拟场景中显示标记提示信息,所述标记提示信息用于提示被控虚拟对象对所述目标虚拟道具进行标记。
在一种可能实施方式中,所述标记提示信息在所述被控虚拟对象以及友方虚拟对象的视野内均可见,所述友方虚拟对象与所述被控虚拟对象处于同一队伍或同一阵营。
在一种可能实施方式中,所述第二显示模块还用于:响应于对区别显示的所述目标虚拟道具的互动选项的滑动操作,若所述滑动操作符合第二目标条件,在所述虚拟场景中显示第二目标区域;
所述第三显示模块还用于:响应于所述滑动操作的操作结束点位于所述第二目标区域内,在所述虚拟场景中取消对所述目标虚拟道具进行区别显示。
在一种可能实施方式中,所述装置还包括:
第五显示模块,用于响应于对所述目标虚拟道具的互动选项的滑动操作,在所述虚拟场景中,显示所述目标虚拟道具的互动选项随着所述滑动操作的滑动轨迹进行移动;
所述第五显示模块,还用于若所述目标虚拟道具的互动选项到达所述滑动操作的操作结束点,显示所述目标虚拟道具的互动选项回到所述滑动操作的操作起始点。
一方面,提供了一种电子设备,该电子设备包括一个或多个处理器和一个或多个存储器,该一个或多个存储器中存储有至少一条计算机程序,该至少一条计算机程序由该一个或多个处理器加载并执行以实现如上述任一种可能实现方式的虚拟道具的显示方法。
一方面,提供了一种存储介质,该存储介质中存储有至少一条计算机程序,该至少一条计算机程序由处理器加载并执行以实现如上述任一种可能实现方式的虚拟道具的显示方法。
一方面,提供一种计算机程序产品或计算机程序,所述计算机程序产品或所述计算机程序包括一条或多条程序代码,所述一条或多条程序代码存储在计算机可读存储介质中。电子设备的一个或多个处理器能够从计算机可读存储介质中读取所述一条或多条程序代码,所述一个或多个处理器执行所述一条或多条程序代码,使得电子设备能够执行上述任一种可能实施方式的虚拟道具的显示方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过提供一种新型的标记目标虚拟道具的人机交互方式,也即在检测到用户对虚拟道具列表中目标虚拟道具的互动选项进行滑动操作时,显示第一目标区域,并在用户将互动选项拖拽至第一目标区域内时,视为对目标虚拟道具标记完毕,对目标虚拟道具进行区别显示,这种人机交互方式无需在虚拟道具列表中各个虚拟道具的互动选项右侧添加标记按钮,且由于需要将互动选项拖拽至第一目标区域内才能完成标记,极大地降低了用户操作的误触率,且操作方式简单、便捷性高,因此能够提高人机交互效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还能够根据这些附图获得其他的附图。
图1是本申请实施例提供的一种虚拟道具的显示方法的实施环境示意图;
图2是本申请实施例提供的一种虚拟道具的显示方法的流程图;
图3是本申请实施例提供的一种滑动操作的原理性示意图;
图4是本申请实施例提供的一种拖拽互动选项的原理性示意图;
图5是本申请实施例提供的一种虚拟道具的显示方法的流程图;
图6是本申请实施例提供的一种第一目标区域的界面示意图;
图7是本申请实施例提供的一种区别显示目标虚拟道具的界面示意图;
图8是本申请实施例提供的一种友方虚拟对象视野下的界面示意图;
图9是本申请实施例提供的一种第二目标区域的界面示意图;
图10是本申请实施例提供的一种虚拟道具的显示方法的原理性流程图;
图11是本申请实施例提供的一种横向滑动操作的原理性示意图;
图12是本申请实施例提供的一种显示多个目标区域的示意图;
图13是本申请实施例提供的一种虚拟道具的显示装置的结构示意图;
图14是本申请实施例提供的一种电子设备的结构示意图;
图15是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请中术语“第一”“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二”、“第n”之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。
本申请中术语“至少一个”是指一个或多个,“多个”的含义是指两个或两个以上,例如,多个第一位置是指两个或两个以上的第一位置。
以下,对本申请涉及的术语进行解释。
虚拟场景:是应用程序在终端上运行时显示(或提供)的虚拟场景。该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟环境,还可以是纯虚构的虚拟环境。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。可选地,该虚拟场景还可以用于至少两个虚拟对象之间的虚拟场景对战,在该虚拟场景中具有可供至少两个虚拟对象使用的虚拟资源。可选地,该虚拟场景中可以包括对称的两个区域,属于两个敌对阵营的虚拟对象分别占据其中一个区域,并以摧毁对方区域深处的目标建筑/据点/基地/水晶来作为胜利目标,其中,对称的区域比如左下角区域和右上角区域,又比如左侧中部区域和右侧中部区域等。
虚拟对象:是指在虚拟场景中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、虚拟精灵、动漫人物等,比如:在虚拟场景中显示的人物、动物、植物、油桶、墙壁、石块等。该虚拟对象可以是该虚拟场景中的一个虚拟的用于代表用户的虚拟形象。在虚拟场景中可以包括多个虚拟对象,每个虚拟对象在虚拟场景中具有自身的形状和体积,占据虚拟场景中的一部分空间。可选地,当虚拟场景为三维虚拟场景时,可选地,虚拟对象可以是一个三维立体模型,该三维立体模型可以是基于三维人体骨骼技术构建的三维角色,同一个虚拟对象可以通过穿戴不同的皮肤来展示出不同的外在形象。在一些实施例中,虚拟对象也可以采用2.5维或2维模型来实现,本申请实施例对此不加以限定。
可选地,该虚拟对象可以是通过客户端上的操作进行控制的玩家角色,还可以是设置在虚拟场景互动中的非玩家角色(Non-Player Character,NPC)。可选地,该虚拟对象可以是在虚拟场景中进行竞技的虚拟人物。可选地,该虚拟场景中参与互动的虚拟对象的数量可以是预先设置的,也可以是根据加入互动的客户端的数量动态确定的。
MOBA(Multiplayer Online Battle Arena,多人在线战术竞技)游戏:是一种在虚拟场景中提供若干个据点,处于不同阵营的用户控制虚拟对象在虚拟场景中对战,占领据点或摧毁敌对阵营据点的游戏。例如,MOBA游戏可将用户分成至少两个敌对阵营,分属至少两个敌对阵营的不同虚拟队伍分别占据各自的地图区域,以某一种胜利条件作为目标进行竞技。该胜利条件包括但不限于:占领据点或摧毁敌对阵营据点、击杀敌对阵营的虚拟对象、在指定场景和时间内保证自身的存活、抢夺到某种资源、在指定时间内互动比分超过对方中的至少一种。例如,MOBA游戏可将用户分成两个敌对阵营,将用户控制的虚拟对象分散在虚拟场景中互相竞争,以摧毁或占领敌方的全部据点作为胜利条件。
可选地,每个虚拟队伍包括一个或多个虚拟对象,比如1个、2个、3个或5个,根据参与战术竞技中各队伍内虚拟对象的数量,可以将战术竞技划分为1V1竞技比拼、2V2竞技比拼、3V3竞技比拼、5V5竞技比拼等,其中,1V1是指“1对1”的意思,这里不做赘述。
可选地,MOBA游戏可以以局(或称为回合)为单位来进行,每局战术竞技的地图可以相同,也可以不同。一局MOBA游戏的持续时间是从游戏开始的时刻至达成胜利条件的时刻。
在MOBA游戏中,用户可以控制虚拟对象在该虚拟场景的天空中自由下落、滑翔或者打开降落伞进行下落等,在陆地上中跑动、跳动、爬行、弯腰前行等,也可以控制虚拟对象在海洋中游泳、漂浮或者下潜等,在此仅以上述场景进行举例说明,本申请实施例对此不作具体限定。
在MOBA游戏中,用户还可以控制虚拟对象释放虚拟技能从而与目标虚拟对象进行战斗,例如,该虚拟技能的技能类型可以包括攻击技能、防御技能、治疗技能、辅助技能、斩杀技能等。在一些实施例中,每个虚拟对象与一个或多个预设的虚拟技能之间具有对应关系,可选地,与每个虚拟对象具有对应关系的虚拟技能数量大于或等于每个虚拟对象在对局中可装配的虚拟技能数量。
射击类游戏(Shooter Game,STG):是指虚拟对象使用热兵器类虚拟道具进行远程攻击的一类游戏,射击类游戏是动作类游戏的一种,带有很明显的动作类游戏特点。可选地,射击类游戏包括但不限于第一人称射击游戏、第三人称射击游戏、俯视射击游戏、平视射击游戏、平台射击游戏、卷轴射击游戏、光枪射击游戏、键鼠射击游戏、射击场游戏、战术射击游戏等,本申请实施例不对射击类游戏的类型进行具体限定。
第一人称射击游戏(First-Person Shooting game,FPS):第一人称射击游戏是指用户能够以第一人称视角进行的射击游戏,游戏中的虚拟场景的画面是以终端操控的虚拟对象的视角对虚拟场景进行观察的画面。在游戏中,至少两个虚拟对象在虚拟场景中进行单局对战模式,虚拟对象通过躲避其他虚拟对象发起的伤害和虚拟场景中存在的危险(比如,毒气圈、沼泽地等)来达到在虚拟场景中存活的目的,当虚拟对象在虚拟场景中的生命值为零时,虚拟对象在虚拟场景中的生命结束,最后存活在虚拟场景中的虚拟对象是获胜方。可选地,上述对战以第一个终端加入对战的时刻作为开始时刻,以最后一个终端退出对战的时刻作为结束时刻,每个终端可以控制虚拟场景中的一个或多个虚拟对象。可选地,对战的竞技模式可以包括单人对战模式、双人小组对战模式或者多人大组对战模式等,本申请实施例对竞技模式不进行具体限定。
以射击类游戏为例,用户可以控制虚拟对象在该虚拟场景的天空中自由下落、滑翔或者打开降落伞进行下落等,在陆地上中跑动、跳动、爬行、弯腰前行等,也可以控制虚拟对象在海洋中游泳、漂浮或者下潜等,当然,用户也可以控制虚拟对象乘坐虚拟载具在该虚拟场景中进行移动,例如,该虚拟载具可以是虚拟汽车、虚拟飞行器、虚拟游艇等,在此仅以上述场景进行举例说明,本申请实施例对此不作具体限定。用户也可以控制虚拟对象通过虚拟道具与其他虚拟对象进行战斗等方式的互动,例如,该虚拟道具可以是手雷、集束雷、粘性手雷、激光绊雷等投掷类道具,也可以是机枪、手枪、步枪、哨戒机枪等射击类道具,还可以是匕首、刺刀等用于近战攻击的冷兵器道具。
本申请实施例所涉及的虚拟道具的显示方法,可应用于MOBA游戏的虚拟道具拾取标记中,也可应用于FPS游戏的虚拟道具拾取标记中,或者,还可应用于MOBA与FPS结合的游戏的虚拟道具拾取标记中,或者,还可以应用于其他各类提供了可拾取的虚拟道具的游戏应用中,本申请实施例对此不进行具体限定。
以下,对本申请涉及的系统架构进行介绍。
图1是本申请实施例提供的一种虚拟道具的显示方法的实施环境示意图。参见图1,该实施环境包括:第一终端120、服务器140和第二终端160。
第一终端120安装和运行有支持虚拟场景的应用程序。可选地,该应用程序包括MOBA游戏、FPS游戏、第三人称射击游戏、虚拟现实应用程序、三维地图程序、军事仿真程序或者多人枪战类生存游戏中的任意一种。在一些实施例中,第一终端120是第一用户使用的终端,当第一终端120运行该应用程序时,第一终端120的屏幕上显示应用程序的用户界面,并基于第一用户在用户界面中的开局操作,在应用程序中加载并显示虚拟场景,第一用户使用第一终端120操作位于虚拟场景中的第一虚拟对象进行活动,该活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、拾取、射击、攻击、投掷、对抗中的至少一种。示意性的,第一虚拟对象是第一虚拟人物,比如仿真人物角色或动漫人物角色。
第一终端120以及第二终端160通过有线或无线通信方式与服务器140进行直接或间接地通信连接。
服务器140包括一台服务器、多台服务器、云计算平台或者虚拟化中心中的至少一种。服务器140用于为支持虚拟场景的应用程序提供后台服务。可选地,服务器140承担主要计算工作,第一终端120和第二终端160承担次要计算工作;或者,服务器140承担次要计算工作,第一终端120和第二终端160承担主要计算工作;或者,服务器140、第一终端120和第二终端160三者之间采用分布式计算架构进行协同计算。
可选地,服务器140是独立的物理服务器,或者是多个物理服务器构成的服务器集群或者分布式系统,或者是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)以及大数据和人工智能平台等基础云计算服务的云服务器。
第二终端160安装和运行有支持虚拟场景的应用程序。可选地,该应用程序包括FPS游戏、第三人称射击游戏、MOBA游戏、虚拟现实应用程序、三维地图程序、军事仿真程序或者多人枪战类生存游戏中的任意一种。在一些实施例中,第二终端160是第二用户使用的终端,当第二终端160运行该应用程序时,第二终端160的屏幕上显示应用程序的用户界面,并基于第二用户在用户界面中的开局操作,在应用程序中加载并显示虚拟场景,第二用户使用第二终端160操作位于虚拟场景中的第二虚拟对象进行活动,该活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、拾取、射击、攻击、投掷、对抗中的至少一种。示意性的,第二虚拟对象是第二虚拟人物,比如仿真人物角色或动漫人物角色。
可选地,第一终端120控制的第一虚拟对象和第二终端160控制的第二虚拟对象处于同一虚拟场景中,此时第一虚拟对象可以在虚拟场景中与第二虚拟对象进行互动。
上述第一虚拟对象以及第二虚拟对象可以为敌对关系,例如,第一虚拟对象与第二虚拟对象可以属于不同的阵营,敌对关系的虚拟对象之间,可以在陆地上以互相射击的方式进行对战方式的互动,比如互相发射射击类道具。在另一些实施例中,第一虚拟对象以及第二虚拟对象还可以为队友关系,例如,第一虚拟人物和第二虚拟人物可以属于同一个阵营、同一个队伍、具有好友关系或具有临时性的通讯权限。
可选地,第一终端120和第二终端160上安装的应用程序是相同的,或两个终端上安装的应用程序是不同操作系统平台的同一类型应用程序。第一终端120可以泛指多个终端中的一个,第二终端160可以泛指多个终端中的一个,本实施例仅以第一终端120和第二终端160来举例说明。第一终端120和第二终端160的设备类型相同或不同,该设备类型包括:智能手机、平板电脑、智能音箱、智能手表、膝上型便携计算机和台式计算机中的至少一种,但并不局限于此。例如,第一终端120和第二终端160可以是智能手机,或者其他手持便携式游戏设备。以下实施例,以终端包括智能手机来举例说明。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
图2是本申请实施例提供的一种虚拟道具的显示方法的流程图。参见图2,该实施例应用于电子设备,以下以电子设备为终端为例进行说明,终端可以是图1所示的第一终端120或第二终端160,该实施例包括下述步骤:
201、终端在虚拟场景中显示虚拟道具列表,该虚拟道具列表包括至少一个可拾取的虚拟道具的互动选项。
该终端可以为任一用户所使用的电子设备,例如该终端为智能手机、智能掌机、便携式游戏设备、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。
该虚拟道具是指在虚拟场景中被控虚拟对象所能够拾取的虚拟资源,例如,该虚拟道具可以是虚拟武器、虚拟物品、虚拟防具、虚拟弹药、虚拟配件等,本申请实施例对虚拟道具的类型不进行具体限定。其中,被控虚拟对象是指虚拟场景中用户利用该终端所操控的虚拟对象,也即是指与该终端具有对应关系的虚拟对象。
该互动选项是指在虚拟道具列表中用于唯一标识虚拟道具的列表项目,比如,虚拟道具列表中的每一栏都呈现为一个可与用户交互的互动选项,每个互动选项都与虚拟道具是一一对应的。
根据用户对互动选项的交互操作的类型不同,互动选项可呈现出不同的互动功能,本申请实施例对互动选项所能提供的互动功能的种类不进行具体限定。比如,用户点击互动选项时,可触发悬浮窗展示对应虚拟道具的详情介绍;用户双击互动选项时,可触发被控虚拟对象拾取对应虚拟道具;用户纵向滑动互动选项时,可触发对虚拟道具列表中被折叠的虚拟道具进行显示,例如上滑时展示向上折叠的虚拟道具,下滑时展示向下折叠的虚拟道具,也即纵向滑动能够浏览整个虚拟道具列表中的所有虚拟道具;用户横向滑动互动选项时,能够将互动选项拖拽出虚拟道具列表中,并在拖拽至不同的区域时实现不同的功能,例如,拖拽至第一目标区域时触发对其对应虚拟道具的标记功能,在标记状态下,拖拽至第二目标区域时触发取消对其对应虚拟道具的标记功能等,又例如,拖拽至第三目标区域时触发传送对应虚拟道具给特定区域的友方虚拟对象(即队友),拖拽至第四目标区域时触发安装对应虚拟道具(如枪械配件)到虚拟枪械1,拖拽至第五目标区域时触发安装对应虚拟道具(如枪械配件)到虚拟枪械2。
在一些实施例中,终端可以响应于用户对应用程序的启动操作,启动该应用程序,该应用程序可以是任一支持虚拟场景的应用程序。可选地,该启动操作可以是用户在终端桌面上对该应用程序的图标进行了触摸操作,或者用户向智能语音助手输入对该应用程序的启动指令,该启动指令可以包括语音指令或者文本指令,本申请实施例不对启动指令的类型进行具体限定。可选地,该应用程序可以是游戏应用,例如,该游戏应用可以是MOBA游戏、MMORPG游戏、FPS游戏、第三人称射击游戏、虚拟现实应用程序、三维地图程序、军事仿真程序或者多人枪战类生存游戏中的任意一种,可选地,该应用程序也可以是其他应用中游戏类嵌入式程序(俗称为“游戏小程序”),本申请实施例对该应用程序的类型不进行具体限定。
在一些实施例中,在用户为应用程序设置了自动启动条件时,终端可以在检测到符合应用程序的自动启动条件时,由终端操作系统自动启动该应用程序,可选地,该自动启动条件可以是周期性的启动该应用程序,比如每天晚上8点钟启动应用程序,或者,该自动启动条件还可以是开机自动启动,本申请实施例不对应用程序的自动启动条件进行具体限定。
在上述过程中,终端启动应用程序,在应用程序中显示开局配置界面,在该开局配置界面中包括账号设置控件、竞技模式的选择控件、虚拟对象的选择控件、虚拟场景(俗称为“场景地图”)的选择控件以及开局选项等。
可选地,用户基于账号设置控件,选择在应用程序中所要登录的游戏账号,可通过账号密码登录,也可通过绑定的其他应用进行授权登录,在登录完毕后还可以通过注销操作退出登录状态。
可选地,用户基于竞技模式的选择控件,选择本局所要参与的竞技模式,例如,该竞技模式包括2V2、3V3、5V5等,本申请实施例不对竞技模式进行具体限定。
可选地,用户基于虚拟对象的选择控件,选择本局中所要出战的被控虚拟对象。需要说明的是,在选择被控虚拟对象时,需要从用户已开通(即拥有使用权限)的虚拟对象中进行选择,也即对于一些用户尚未开通(即不拥有使用权限)的虚拟对象,无法被选择为本局出战的被控虚拟对象。在一种可能实施方式中,可以基于一些虚拟道具(例如限时免费卡等),为用户临时开放部分虚拟对象的使用权限,以便于用户能够体验到部分虚拟对象的玩法和手感,此时即使用户并未开通某个虚拟对象,但如果具备对该虚拟对象的临时的使用权限,那么仍然可以选择该虚拟对象作为本局出战的被控虚拟对象。
可选地,用户基于虚拟场景的选择控件,选择本局所欲加载的虚拟场景(也即选择一张本局对战的场景地图)。需要说明的是,在一些竞技模式下支持用户自定义选择虚拟场景,在一些竞技模式下也可能不支持用户自定义选择虚拟场景,此时只能加载与选取的竞技模式所绑定的虚拟场景,或者由服务器从与竞技模式绑定的多个虚拟场景中随机选择一个虚拟场景作为本局加载的虚拟场景,本申请实施例对虚拟场景是否能够自主选择不进行具体限定。
可选地,用户在选择登录的账号、选择竞技模式、选择被控虚拟对象、选择虚拟场景时,所采取的选择操作包括但不限于:点击操作、长按操作、双击操作、语音指令、基于快捷键的触发操作等,本申请实施例对选择操作的类型不作限定。
在一些实施例中,用户在完成登录的账号、竞技模式、被控虚拟对象及虚拟场景的配置后,可以通过对开局选项的触发操作,触发终端开启本局游戏,终端加载本局游戏的虚拟场景,在加载完毕后显示该虚拟场景,并将参与本局游戏的各用户的终端所对应的虚拟对象均显示在该虚拟场景中。在本申请实施例中,虚拟场景中本终端所控制的虚拟对象称为被控虚拟对象,与该被控虚拟对象属于同一阵营或同一队伍的虚拟对象称为友方虚拟对象,与该被控虚拟对象属于不同阵营或不同队伍的虚拟对象称为敌方虚拟对象。
在一些实施例中,用户可以控制该被控虚拟对象在虚拟场景中进行如下活动:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、拾取、射击、攻击、投掷、对抗等。可选地,在虚拟场景中还显示有至少一个可供拾取的虚拟道具的道具模型(如果是2D虚拟场景则是2D模型,如果是3D虚拟场景则是3D模型),终端控制该被控虚拟对象靠近任一虚拟道具,直到该被控虚拟对象与该虚拟道具之间的距离小于距离阈值时,在虚拟场景中会弹出虚拟道具列表,该虚拟道具列表中显示有至少一个可供拾取的虚拟道具的互动选项。其中,该距离阈值为任一大于或等于0的数值。
在一些实施例中,在显示该虚拟道具列表时,可以统计与被控虚拟对象之间的距离小于该距离阈值且可被拾取的各个虚拟道具,并对各个虚拟道具生成对应的互动选项,以弹窗或浮层的方式显示该虚拟道具列表,并在虚拟道具列表中绘制各个虚拟道具的互动选项。每个互动选项中可以包括对应虚拟道具的道具名称、道具图片、道具等级、道具描述信息、道具数量中的至少一项。
202、终端响应于对该虚拟道具列表中目标虚拟道具的互动选项的滑动操作,若该滑动操作符合第一目标条件,在该虚拟场景中显示第一目标区域。
其中,该目标虚拟道具是指该虚拟道具列表中显示的任一虚拟道具,本申请实施例不对目标虚拟道具具体是哪个虚拟道具进行限定。
在一些实施例中,终端检测到用户对目标虚拟道具的互动选项的滑动操作时,响应于该滑动操作符合第一目标条件,在该虚拟场景中显示第一目标区域。在检测滑动操作时,终端可通过终端屏幕的接触传感器检测用户手指是否触摸了终端屏幕,如果用户手指触摸了终端屏幕,调用该接触传感器确定触摸点的屏幕坐标,如果触摸点的屏幕坐标位于目标虚拟道具的互动选项所覆盖的区域内,确定检测到对目标虚拟道具的互动选项的触摸操作,接着,如果用户手指对终端屏幕的触摸时长超过时长阈值,且用户手指的触摸点随着时间的推移产生了位移,则确定检测到对目标虚拟道具的互动选项的滑动操作。其中,该时长阈值为任一大于0的数值。
在一些实施例中,可根据滑动操作的类型来设定第一目标条件,例如,该第一目标条件可以是该滑动操作为横向滑动操作。在这种情况下,若该滑动操作为横向滑动操作,代表该滑动操作符合该第一目标条件,执行该在该虚拟场景中显示第一目标区域的操作。
在上述过程中,通过将第一目标条件设定为滑动操作为横向滑动操作,能够通过滑动操作的类型不同,向用户提供不同的交互功能,例如,横向滑动操作触发显示第一目标区域,在用户将互动选项拖拽至第一目标区域后,能够触发标记对应的虚拟道具,此外,纵向滑动操作则触发浏览整个虚拟道具列表中被折叠的虚拟道具的功能,向上滑动可翻看目前虚拟道具列表中首个虚拟道具之前的虚拟道具,向下滑动可翻看目前虚拟道具列表中最后一个虚拟道具之后的虚拟道具。
在一些实施例中,终端在判定滑动操作是否为横向滑动操作时,可以确定该滑动操作的滑动方向,若该滑动操作的滑动方向与水平方向之间的夹角位于目标角度范围内,确定该滑动操作为横向滑动操作。可选地,该目标角度范围可以是[-α,α],其中,α为技术人员根据经验设定的经验值,或者,由于不同用户的手指宽度不尽相同,终端可采集用户的多次滑动操作以及最终所欲的操作结果,最终为不同用户生成不同的α取值,或者,α还可以由服务器在云端进行修改或更新,本申请实施例不对α的取值进行具体限定。
在一些实施例中,终端在确定滑动方向时,可以确定滑动操作的操作起始点(也即最初的触摸点),再确定当前时刻用户手指的触摸点(也即最新的触摸点),由两个触摸点可以确定一条射线(射线以最初的触摸点为端点,向最新的触摸点所指示的方向延伸),这条射线所指示的方向也即滑动操作的滑动方向,能够简化滑动方向的确定流程。
在一些实施例中,终端在确定滑动方向时,还可以确定滑动操作的滑动轨迹,并将当前时刻用户手指的触摸点(也即最新的触摸点)在该滑动轨迹上的切线方向确定为滑动操作的滑动方向,能够在用户沿着曲线滑动时确定出更加精确的滑动方向,本申请实施例不对滑动方向的获取方式进行具体限定。
在一些实施例中,在确定了滑动操作的滑动方向之后,确定滑动方向与水平方向之间的夹角,需要说明的是,在本申请实施例所取的夹角是指滑动方向与水平方向之间小于或等于90度的夹角,而非大于90的另外一个补角。
在一些实施例中,确定了夹角的角度值之后,可判断该夹角是否大于或等于该目标角度范围的最小值(即下界)且小于或等于该目标角度范围的最大值(即上界),如果该夹角大于或等于该目标角度范围的最小值且小于或等于该目标角度范围的最大值,则确定该夹角位于该目标角度范围内,也即该滑动操作为横向滑动操作,否则,如果该夹角小于该目标角度范围的最小值,或者该夹角大于该目标角度范围的最大值,那么确定该夹角不位于该目标角度范围内,该滑动操作不是横向滑动操作。
在一些实施例中,由于横向滑动操作仅仅限定了用户是对互动选项进行横向地滑动,但还可具体划分为左滑操作和右滑操作。可选地,该第一目标条件还可以是该滑动操作为右滑操作,也即仅当用户向右滑动目标虚拟道具的互动选项时,才会触发显示第一目标区域;或者,该第一目标条件还可以是该滑动操作为左滑操作,也即仅当用户向左滑动目标虚拟道具的互动选项时,才会触发显示第一目标区域;或者,该第一目标条件还可以是滑动操作为左滑操作或右滑操作,也即无论用户向左滑动还是向右滑动目标虚拟道具的互动选项,均会触发显示第一目标区域,本申请实施例不对第一目标条件的内容进行具体限定。
在一些实施例中,在判定横向滑动操作是左滑操作还是右滑操作时,可根据最新的触摸点与最初的触摸点之间的位置关系来判定,在确定滑动操作为横向滑动操作的前提下,如果最初的触摸点位于最新的触摸点的左侧,那么确定为右滑操作,如果最初的触摸点位于最新的触摸点的右侧,那么确定为左滑操作。可选地,在判断最初的触摸点是位于最新的触摸点的左侧还是右侧时,可以分别获取两个触摸点的屏幕坐标,根据两个触摸点的屏幕坐标的横坐标的大小关系来进行判定,而大小关系需要根据屏幕坐标系的原点位置以及横轴的正方向来确定,这里不做赘述。
图3是本申请实施例提供的一种滑动操作的原理性示意图,如图3所示,假设第一目标条件为滑动操作为右滑操作为例说明,左侧的阴影部分301示出了右滑操作的区域划分,右侧的阴影部分302示出了纵向滑动操作(以及左滑操作)的区域划分,可以看出,当用户手指触发的滑动操作的滑动方向位于阴影部分301所示的目标角度范围[-α,α]内,且滑动操作的操作起始点位于操作结束点的左侧时,换言之当用户手指从触点300向阴影部分301拖动时,确定滑动操作符合第一目标条件即该滑动操作为右滑操作,触发显示第一目标区域,此时的互动选项310可以呈现出被用户手指拖拽的效果。否则,当用户手指触发的滑动操作的滑动方向位于阴影部分302所示的角度范围时,换言之当用户手指从触点300向阴影部分302拖动时,则确定触发滑动浏览虚拟道具列表的功能,此时的互动选项310不会呈现出被用户手指拖拽的效果。
在一些实施例中,在滑动操作符合第一目标条件的情况下,终端在显示第一目标区域时,可以在该虚拟场景中该虚拟道具列表的右侧显示该第一目标区域。也即是说,该第一目标区域位于该虚拟道具列表的右侧,可选地,第一目标区域是一个矩形区域,且矩形区域的高度与虚拟道具列表的高度相同,这样能够达到比较整齐美观的视觉效果。可选地,该第一目标区域也可以是圆形区域、菱形区域、不规则区域等,本申请实施例不对第一目标区域的形状进行具体限定。可选地,第一目标区域也可以位于虚拟道具列表的左侧,或者,位于虚拟道具列表的上方,或者,位于虚拟道具列表的下方,或者,还可以位于虚拟场景中的任一位置(例如,上边缘、侧边缘、中心等),本申请实施例不对第一目标区域的位置进行具体限定。
在一些实施例中,第一目标区域的显示位置可以与第一目标条件所指示的滑动操作的操作类型具有对应关系,例如,当第一目标条件为滑动操作为左滑操作时,第一目标区域可以是位于虚拟道具列表的左侧,或者,当第一目标条件为滑动操作为右滑操作时,第一目标区域可以是位于虚拟道具列表的右侧,这样能够降低用户操作的复杂度,方便用户快速对互动选项拖拽到第一目标区域。
在另一些实施例中,第一目标区域的显示位置也可以与第一目标条件所指示的滑动操作的操作类型没有对应关系,例如,当第一目标条件为滑动操作为左滑操作时,第一目标区域可以是位于虚拟道具列表的右侧,这样即使用户由于误触操作不小心对互动选项进行左滑操作,那么由于完成标记需要绕过虚拟道具列表一圈拖拽到右侧的第一目标区域中,因此只要尽快松手即可放弃对目标虚拟道具进行标记,进一步降低了误触概率。
在一些实施例中,由于用户在对互动选项执行滑动操作的时候,滑动操作是一个持续进行的移动过程,因此终端可以呈现出互动选项被用户手指“拖拽”出虚拟道具列表,并跟随着用户手指的滑动轨迹进行移动的过程,以达到更加直观有趣的视觉效果,提高人机交互效率。
可选地,终端响应于对该目标虚拟道具的互动选项的滑动操作,在该虚拟场景中,显示该目标虚拟道具的互动选项随着该滑动操作的滑动轨迹进行移动;若该目标虚拟道具的互动选项到达该滑动操作的操作结束点,显示该目标虚拟道具的互动选项回到该滑动操作的操作起始点。
在上述过程中,终端可以确定该滑动操作的操作起始点在整个互动选项中的相对位置,在显示互动选项的移动过程中,以该操作起始点作为起点对整个互动选项沿着滑动轨迹进行平移,在平移过程中可保证每个时刻下滑动操作的触摸点与整个互动选项的相对位置不变。
在一些实施例中,当互动选项到达操作结束点时,可以直接显示互动选项瞬移回到了操作起始点,能够节约终端的处理资源,或者,还可以显示互动选项逐渐从操作起始点向操作结束点移动的过程,能够避免互动选项突兀地回到操作起始点,或者,还可以播放互动选项飞回操作起始点的动画(或特效、动效等),能够优化终端的显示效果,提高人机交互效率。例如,在互动选项到达操作结束点时,播放的动画可以是互动选项在小幅度抖动之后飞回了操作起始点,使得整个滑动过程具有更高的趣味性。
图4是本申请实施例提供的一种拖拽互动选项的原理性示意图,假设第一目标条件为滑动操作为右滑操作为例说明,如图4左侧所示,当用户手指触发的滑动操作为右滑操作时,也即用户手指从触点300开始向阴影部分301拖拽互动选项310时,说明滑动操作符合第一目标条件,并在虚拟道具列表的右侧显示第一目标区域320,第一目标区域320的高度与虚拟道具列表的高度相等,接着,随着用户手指从触点300开始向第一目标区域320内滑动,此时在终端屏幕中会呈现出如图4右侧所示的,互动选项310也随着用户手指被拖拽至第一目标区域320中的视觉效果,也即是说,显示互动选项310随着滑动操作的滑动轨迹进行移动的过程。
203、终端响应于该滑动操作的操作结束点位于该第一目标区域内,在该虚拟场景中对该目标虚拟道具进行区别显示。
在一些实施例中,终端可以通过触摸传感器持续检测用户手指对终端屏幕的触摸操作,直到用户松手也即触摸传感器不再检测到触摸操作时,将用户松手时的触摸点作为操作结束点,该操作结束点也即代表了滑动操作的滑动轨迹的终点,接着,终端可以确定该操作结束点的屏幕坐标,并检测该操作结束点的屏幕坐标是否位于第一目标区域内,如果该操作结束点的屏幕坐标位于第一目标区域内,执行对目标虚拟道具进行区别显示的步骤,如果该操作结束点的屏幕坐标不位于第一目标区域内,则退出流程。
在一些实施例中,终端在对目标虚拟道具进行区别显示时,可以在虚拟道具列表中对目标虚拟道具的互动选项进行区别显示,也可以在虚拟场景中对目标虚拟道具自身的道具模型进行区别显示,或者既对互动选项进行区别显示又对道具模型进行区别显示,本申请实施例不对区别显示的方式进行具体限定。
在一些实施例中,终端在该虚拟场景中该虚拟道具列表中,对该目标虚拟道具的互动选项进行区别显示。在上述过程中,通过在虚拟道具列表中对互动选项进行区别显示,能够使得被控虚拟对象或者其友方虚拟对象在进行道具拾取的时候,通过虚拟道具列表一目了然的查看出哪些道具是被自身或团队成员标记过的,方便了自身对抗和团队协作,提高了人机交互效率。
可选地,终端对该互动选项进行颜色更改,使得该互动选项的颜色不同于其他互动选项的颜色,例如,原本虚拟道具列表中各个互动选项均为黑色背景,在进行区别显示时将该互动选项修改为白色背景或彩色背景(如红色背景、绿色背景等),本申请实施例不对互动选项的颜色进行具体限定。
可选地,终端对该互动选项进行透明度修改,使得该互动选项的透明度大于其他互动选项的透明度,从而能够在虚拟道具列表中凸显出该互动选项,例如,原本虚拟道具列表中各个互动选项的透明度均为50%,在进行区别显示时将该互动选项的透明度修改为100%(或者也可以修改完80%、90%等),本申请实施例不对互动选项的透明度进行具体限定。
可选地,终端在该互动选项上显示目标图标,该目标图标用于指示该目标虚拟道具被进行了特殊标记,该目标图标可以是任一形式,例如,目标图标是一个绿色的圆形图标,当然目标图标也可以设置成其他颜色或形状,本申请实施例不对目标图标的显示方式进行具体限定。终端可以在互动选项的任一位置上显示该目标图标,例如,在互动选项的右上角显示该目标图标,或者,还可以在互动选项的左上角显示该目标图标,本申请实施例不对目标图标的显示位置进行具体限定。
可选地,终端对该互动选项的边缘进行高亮显示,使得该互动选项的边缘具有发光特效,从而能够在虚拟道具列表中凸显出来,呈现出一种“勾边特效”的视觉效果,例如,对互动选项的边缘进行蓝色高亮,使得该互动选项的边缘具有蓝光特效,当然,也可以是其他颜色的发光特效,本申请实施例不对发光特效的颜色进行具体限定。
可选地,除了上述更改颜色、更改透明度、显示目标图标、边缘高亮显示之外,终端还可以在该互动选项上播放标记动画,或者,还可以在该互动选项上显示文字提示信息“已被XXX标记”等,本申请实施例不对互动选项的区别显示方式进行具体限定。
在一些实施例中,终端还可以在该虚拟场景中,在该目标虚拟道具的道具模型上显示标记图形。由于虚拟道具列表仅仅是方便总览各个虚拟道具的一个菜单栏,但在虚拟场景中还会显示实际的虚拟道具的道具模型,可选地,如果是2D虚拟场景那么对应于2D道具模型,如果是3D虚拟场景那么对应于3D道具模型,本申请实施例不对虚拟场景或道具模型的维度进行具体限定。因此,当通过滑动操作对目标虚拟道具进行标记之后,不光在虚拟道具列表中可以对目标虚拟道具的互动选项进行区别显示,在整个虚拟场景中还可以对目标虚拟道具的道具模型也进行区别显示,使得经过标记的目标虚拟道具的显示效果更加直观,提高了人机交互效率。
可选地,该标记图形用于指示该目标虚拟道具被进行了特殊标记,该标记图形可以是任一形式,例如,标记图形是一个圆形浮标,在圆形浮标的中心显示有目标虚拟道具的道具图片,当然标记图形也可以成其他的显示形式,例如设置成感叹号形状的红色浮标等,本申请实施例不对标记图形的显示方式进行具体限定。终端可以在目标虚拟道具的道具模型的周围显示该标记图形,例如,在该目标虚拟道具的道具模型的上方预设高度处显示该标记图形,该预设高度可以是任一大于或等于0的数值,或者,终端可以在该道具模型的周围的任一位置显示该标记图形,例如,显示在该道具模型的中心、左侧、右侧、底部等,本申请实施例不对标记图形的显示位置进行具体限定。
在一些实施例中,在该标记图形的周围还可以显示一些提示信息,该提示信息包括但不限于:目标虚拟道具的道具名称、对目标虚拟道具添加标记的该被控虚拟对象的昵称、目标虚拟道具与被控虚拟对象当前的距离等,本申请实施例不对标记图案周围显示的提示信息进行具体限定。
在一些实施例中,该标记图形虽然由被控虚拟对象进行标记并显示,但还可以通过服务器同步至同一阵营或队伍内的友方虚拟对象所对应的各个终端,以使得各个终端均在目标虚拟道具的道具模型上显示该标记图形。换言之,该标记图形在被控虚拟对象以及友方虚拟对象的视野内均可见,该友方虚拟对象与该被控虚拟对象处于同一队伍或同一阵营。
可选地,在进行信息同步时,终端响应于该滑动操作的操作结束点位于该第一目标区域内,可以向服务器发送道具标记指令,该道具标记指令至少携带目标虚拟道具的道具标识(Identification,ID)、被控虚拟对象的身份ID,当然该道具标记指令还可以携带滑动操作的结束时刻等,服务器在接收到该道具标记指令之后,将该道具标记指令发送至被控虚拟对象的各个友方虚拟对象所对应的各个终端,友方虚拟对象对应的终端接收到该道具标识指令之后,也在该虚拟场景中对该目标虚拟道具进行区别显示,区别显示的方式与本终端类似,这里不做赘述。
在一些实施例中,终端还可以在该虚拟场景中显示标记提示信息,该标记提示信息用于提示被控虚拟对象对该目标虚拟道具进行标记,这样能够给操控该被控虚拟对象的用户带来更加直观的交互反馈,提高了人机交互效率。可选地,该标记提示信息可以是“被控虚拟对象标记了目标虚拟道具”,也可以具有其他的提示内容,本申请实施例不对标记提示信息的文本内容进行具体限定。
在一些实施例中,与标记图形可通过服务器同步至友方虚拟对象所对应的各个终端类似地,该标记提示信息也可以通过服务器同步至友方虚拟对象所对应的各个终端,也即是说,该标记提示信息在该被控虚拟对象以及友方虚拟对象的视野内均可见,该友方虚拟对象与该被控虚拟对象处于同一队伍或同一阵营。其中,标记提示信息的同步方式与标记图形的同步方式类似,这里不做赘述。
上述所有可选技术方案,能够采用任意结合形成本公开的可选实施例,在此不再一一赘述。
本申请实施例提供的方法,通过提供一种新型的标记目标虚拟道具的人机交互方式,也即在检测到用户对虚拟道具列表中目标虚拟道具的互动选项进行滑动操作时,显示第一目标区域,并在用户将互动选项拖拽至第一目标区域内时,视为对目标虚拟道具标记完毕,对目标虚拟道具进行区别显示,这种人机交互方式无需在虚拟道具列表中各个虚拟道具的互动选项右侧添加标记按钮,且由于需要将互动选项拖拽至第一目标区域内才能完成标记,极大地降低了用户操作的误触率,且操作方式简单、便捷性高,因此能够提高人机交互效率。
图5是本申请实施例提供的一种虚拟道具的显示方法的流程图。参见图5,该实施例应用于电子设备,以下以电子设备为终端为例进行说明,终端可以是图1所示的第一终端120或第二终端160,该实施例包括下述步骤:
501、终端在虚拟场景中显示虚拟道具列表,该虚拟道具列表包括至少一个可拾取的虚拟道具的互动选项。
上述步骤501与上述步骤201类似,这里不做赘述。
502、终端响应于用户对该虚拟道具列表中目标虚拟道具的互动选项的滑动操作,若该滑动操作符合第一目标条件,在该虚拟场景中显示第一目标区域。
上述步骤502与上述步骤202类似,这里不做赘述。
503、终端在该虚拟场景中,显示该目标虚拟道具的互动选项随着该滑动操作的滑动轨迹进行移动。
在一些实施例中,终端可以确定该滑动操作的操作起始点在整个互动选项中的相对位置,在显示互动选项的移动过程中,以该操作起始点作为起点对整个互动选项沿着滑动轨迹进行平移,在平移过程中可保证每个时刻下滑动操作的触摸点与整个互动选项的相对位置不变。
504、若该目标虚拟道具的互动选项到达该滑动操作的操作结束点,终端显示该目标虚拟道具的互动选项回到该滑动操作的操作起始点。
在一些实施例中,终端可以通过触摸传感器持续检测用户手指对终端屏幕的触摸操作,直到用户松手也即触摸传感器不再检测到触摸操作时,将用户松手时的触摸点作为操作结束点,该操作结束点也即代表了滑动操作的滑动轨迹的终点。
在一些实施例中,当互动选项到达操作结束点时,可以直接显示互动选项瞬移回到了操作起始点,能够节约终端的处理资源,或者,还可以播放互动选项飞回操作起始点的动画(或特效、动效等),能够优化终端的显示效果,提高人机交互效率。例如,在互动选项到达操作结束点时,播放的动画可以是互动选项在小幅度抖动之后飞回了操作起始点,使得整个滑动过程具有更高的趣味性。
在上述步骤503-504中,由于用户在对互动选项执行滑动操作的时候,滑动操作是一个持续进行的移动过程,因此终端可以通过上述步骤503-504,呈现出互动选项被用户手指“拖拽”出虚拟道具列表,并跟随着用户手指的滑动轨迹进行移动的过程,以达到更加直观有趣的视觉效果,提高人机交互效率。
505、终端响应于该滑动操作的操作结束点位于该第一目标区域内,在该虚拟场景中对该目标虚拟道具进行区别显示。
上述步骤505与上述步骤203类似,这里不做赘述。
图6是本申请实施例提供的一种第一目标区域的界面示意图,如图6所示,在虚拟场景600中显示有虚拟道具列表601,当用户对目标虚拟道具的互动选项602进行了滑动操作时,终端在虚拟场景600中显示第一目标区域603,当用户拖拽互动选项602至第一目标区域603内,也即操作结束点位于第一目标区域603内时,触发终端对该目标虚拟道具进行区别显示。
506、终端在该虚拟场景中显示标记提示信息,该标记提示信息用于提示被控虚拟对象对该目标虚拟道具进行标记。
可选地,该标记提示信息可以是“被控虚拟对象标记了目标虚拟道具”,也可以具有其他的提示内容,本申请实施例不对标记提示信息的文本内容进行具体限定。
可选地,终端可以是虚拟场景中任一位置显示该标记提示信息,例如,在虚拟场景中小地图控件的左侧显示该标记提示信息,或者,在虚拟场景的中心位置显示该标记提示信息。
在上述过程中,通过在虚拟场景中显示标记提示信息,能够给操控该被控虚拟对象的用户带来更加直观的交互反馈,提高了人机交互效率。可选地,由于一直显示标记提示信息可能会遮挡被控虚拟对象的视野,对用户的游戏体验造成损害,因此可以在显示标记提示信息到达显示时间阈值之后,不再显示该标记提示信息,可选地,该显示时间阈值可以是任一大于0的数值,例如为3秒钟,从而能够避免遮挡被控虚拟对象的视野,在提供操作反馈的基础上优化用户体验。
在一些实施例中,还可以以类似于字幕滚动的方式,对该标记提示信息进行滚动显示,比如,在小地图控件的左侧显示标记提示信息之后,播放该标记提示信息向上滚动的动效,直到标记提示信息退出终端屏幕,使得标记提示信息淡出的效果更加具有趣味性。
在一些实施例中,该标记提示信息虽然由被控虚拟对象进行标记并显示,但还可以通过服务器同步至同一阵营或队伍内的友方虚拟对象所对应的各个终端,以使得各个终端均在虚拟场景中显示该标记提示信息。换言之,该标记提示信息在该被控虚拟对象以及友方虚拟对象的视野内均可见,该友方虚拟对象与该被控虚拟对象处于同一队伍或同一阵营。
可选地,在进行信息同步时,终端响应于该滑动操作的操作结束点位于该第一目标区域内,可以向服务器发送道具标记指令,该道具标记指令至少携带目标虚拟道具的道具标识(Identification,ID)、被控虚拟对象的身份ID,当然该道具标记指令还可以携带滑动操作的结束时刻等,服务器在接收到该道具标记指令之后,将该道具标记指令发送至被控虚拟对象的各个友方虚拟对象所对应的各个终端,友方虚拟对象对应的终端接收到该道具标识指令之后,也在该虚拟场景中对该目标虚拟道具进行区别显示,并且生成对应的标记提示信息,在虚拟场景中显示该标记提示信息。
图7是本申请实施例提供的一种区别显示目标虚拟道具的界面示意图,如图7所示,在虚拟场景700中显示有虚拟道具列表701,当用户将目标虚拟道具的互动选项702拖拽至第一目标区域内之后,终端会对目标虚拟道具进行区别显示,首先,在互动选项702上显示有目标图标711,该目标图标711用于指示该目标虚拟道具被进行了特殊标记,其次,在目标虚拟道具的道具模型710上显示标记图形712,并在标记图形712的右侧显示目标虚拟道具与被控虚拟对象之间的当前距离为“1m(1米)”。此外,还在小地图控件的左侧显示有标记提示信息713,标记提示信息713能够以文本方式提示被控虚拟对象对目标虚拟道具进行了特殊标记。可选地,目标图标711、标记图形712和标记提示信息713均可以是自身及队友可见的。
在一个示例性场景中,若标记图形和标记提示信息均为队友可见的,图8是本申请实施例提供的一种友方虚拟对象视野下的界面示意图,如图8所示,示出了在友方虚拟对象的视野下的虚拟场景。可以看出,在友方虚拟对象的视野下,虚拟场景800中显示有标记提示信息810,提示被控虚拟对象对目标虚拟对象进行了特殊标记,并且在目标虚拟道具的道具模型上还显示有标记图形820,如图8所示,即使目标虚拟道具的道具模型被墙壁遮挡,那么仍然可以通过标记图形820能够一目了然地定位到目标虚拟道具所处的位置,达到更加直观的显示效果。
507、终端响应于对区别显示的该目标虚拟道具的互动选项的滑动操作,若该滑动操作符合第二目标条件,在该虚拟场景中显示第二目标区域。
可选地,该第二目标条件可以与第一目标条件相同,使得对虚拟道具的标记操作以及取消标记操作采取相同的操作方式,或者,该第二目标条件也可以与第一目标条件不同,使得对虚拟道具的标记操作以及取消标记操作采取不同的操作方式,本申请实施例不对该第二目标条件是否与第一目标条件相同进行具体限定。
以第二目标条件与第一目标条件相同为例进行说明,例如,该第一目标条件可以是该滑动操作为横向滑动操作,那么第二目标条件也是该滑动操作为横向滑动操作。在这种情况下,若该滑动操作为横向滑动操作,代表该滑动操作符合该第二目标条件,执行该在该虚拟场景中显示第二目标区域的操作。判断滑动操作是否为横向滑动操作的方式与上述步骤202类似,这里不做赘述。
在一些实施例中,由于横向滑动操作仅仅限定了用户是对互动选项进行横向地滑动,但还可具体划分为左滑操作和右滑操作。可选地,当第一目标条件为该滑动操作为右滑操作时,该第二目标条件可以为该滑动操作为左滑操作,提供“右滑标记、左滑取消”的人机交互方式。可选地,第一目标条件和第二目标条件还可以均为该滑动操作为右滑操作,提供“右滑标记、再次右滑取消”的人机交互方式。当然,当第一目标条件为该滑动操作为左滑操作时,该第二目标条件可以为该滑动操作为右滑操作,提供“左滑标记、右滑取消”的人机交互方式。可选地,第一目标条件和第二目标条件还可以均为该滑动操作为左滑操作,提供“左滑标记、再次左滑取消”的人机交互方式,本申请实施例不对此进行具体限定。判断横向滑动操作是左滑操作还是右滑操作的方式与上述步骤202类似,这里不做赘述。
在一些实施例中,在滑动操作符合第二目标条件的情况下,终端在显示第二目标区域时,可以在该虚拟场景中该虚拟道具列表的右侧显示该第二目标区域。也即是说,该第二目标区域位于该虚拟道具列表的右侧,可选地,该第二目标区域可以与第一目标区域具有相同的大小和位置,但具有不同的颜色,或者,也可以具有不同的大小、位置和颜色,本申请实施例不对此进行具体限定。在一个示例中,第二目标区域是一个矩形区域,且矩形区域的高度与虚拟道具列表的高度相同,这样能够达到比较整齐美观的视觉效果。可选地,该第二目标区域也可以是圆形区域、菱形区域、不规则区域等,本申请实施例不对第二目标区域的形状进行具体限定。可选地,第二目标区域也可以位于虚拟道具列表的左侧,或者,位于虚拟道具列表的上方,或者,位于虚拟道具列表的下方,或者,还可以位于虚拟场景中的任一位置(例如,上边缘、侧边缘、中心等),本申请实施例不对第二目标区域的位置进行具体限定。
在一些实施例中,第二目标区域的显示位置可以与第二目标条件所指示的滑动操作的操作类型具有对应关系,例如,当第二目标条件为滑动操作为左滑操作时,第二目标区域可以是位于虚拟道具列表的左侧,或者,当第二目标条件为滑动操作为右滑操作时,第二目标区域可以是位于虚拟道具列表的右侧,这样能够降低用户操作的复杂度,方便用户快速对互动选项拖拽到第二目标区域。
在另一些实施例中,第二目标区域的显示位置也可以与第二目标条件所指示的滑动操作的操作类型没有对应关系,例如,当第二目标条件为滑动操作为左滑操作时,第二目标区域可以是位于虚拟道具列表的右侧,这样即使用户由于误触操作不小心对互动选项进行左滑操作,那么由于取消标记需要绕过虚拟道具列表一圈拖拽到右侧的第二目标区域中,因此只要尽快松手即可放弃对目标虚拟道具的标记进行取消,进一步降低了误触概率。
图9是本申请实施例提供的一种第二目标区域的界面示意图,如图9所示,在虚拟场景900中显示有虚拟道具列表901,此时用户已经完成了对目标虚拟道具的标记操作,因此在目标虚拟道具的互动选项902上显示有目标图标911,在目标虚拟道具的道具模型910上显示有标记图形912,且在小地图控件的左侧还显示有标记提示信息913。在这种情况下,用户再次对互动选项902执行滑动操作,且该滑动操作符合第二目标条件(例如该滑动操作为横向滑动操作),终端会显示第二目标区域920,用户拖拽互动选项902至第二目标区域920时,也即滑动操作的操作结束点位于第二目标区域920内时,则会在虚拟场景中取消对目标虚拟道具进行区别显示,也即取消显示目标图标911、标记图形912和标记提示信息913。
508、终端响应于该滑动操作的操作结束点位于该第二目标区域内,在该虚拟场景中取消对该目标虚拟道具进行区别显示。
终端检测滑动操作的操作结束点是否位于第二目标区域的方式与上述步骤203类似,这里不做赘述。
在一些实施例中,终端在取消对目标虚拟道具进行区别显示时,可以首先,取消在虚拟道具列表中对目标虚拟道具的互动选项进行区别显示,其次,在目标虚拟道具的道具模型上取消显示标记图形,最后,在虚拟场景中取消显示标记提示信息,从而能够将虚拟场景恢复至未对目标虚拟道具进行标记之前的显示方式。
需要说明的是,如果对目标虚拟道具进行区别显示的操作会同步至友方虚拟对象的终端,那么上述取消对目标虚拟道具进行区别显示的操作,也需要对应同步至友方虚拟对象的终端,以保证同一阵营或队伍内的各个虚拟对象的信息及时互通。
上述所有可选技术方案,能够采用任意结合形成本公开的可选实施例,在此不再一一赘述。
本申请实施例提供的方法,通过提供一种新型的标记目标虚拟道具的人机交互方式,也即在检测到用户对虚拟道具列表中目标虚拟道具的互动选项进行滑动操作时,显示第一目标区域,并在用户将互动选项拖拽至第一目标区域内时,视为对目标虚拟道具标记完毕,对目标虚拟道具进行区别显示,这种人机交互方式无需在虚拟道具列表中各个虚拟道具的互动选项右侧添加标记按钮,且由于需要将互动选项拖拽至第一目标区域内才能完成标记,极大地降低了用户操作的误触率,且操作方式简单、便捷性高,因此能够提高人机交互效率。
图10是本申请实施例提供的一种虚拟道具的显示方法的原理性流程图,如1000所示,以虚拟道具为虚拟物品为例说明,此时的虚拟道具列表也即是虚拟物品列表,该实施例包括如下步骤:
步骤一、用户手指按住虚拟物品列表中的虚拟物品并进行滑动。
步骤二、终端根据预设的α值划分滑动区域。
步骤三、终端判断用户手指是向横向滑动区域滑动,还是向纵向滑动区域滑动,如果向横向滑动区域滑动,执行步骤四至步骤六,如果向纵向滑动区域滑动,执行步骤七至步骤八。
步骤四、终端判断为横向滑动操作,触发虚拟物品的图标(即互动选项)拖拽。
步骤五、用户拖拽图标到标记区(即第一目标区域)松手。
步骤六、完成虚拟物品的标记。
步骤七、终端判断为纵向滑动操作。
步骤八、终端触发滑动虚拟物品列表中浏览虚拟物品的功能。
在本申请实施例中,通过指定角度α值,能够智能区分出用户手指的滑动操作是属于横向滑动操作还是纵向滑动操作,从而针对提供虚拟物品列表的手机游戏,增加了拖拽虚拟物品的图标的操作维度,同时由于用户需要拖动图标至指定区域(即第一目标区域)才能触发对应的物品标记功能,这样相当于增加了物品标记过程的二次确认环节,大幅降低了误触情况的发生。
在一些实施例中,第一目标条件可以是滑动操作为右滑操作,或者,在另一些实施例中,除了将第一目标条件设定为滑动操作为右滑操作之外,还可以将第一目标条件设定为滑动操作为横向滑动操作,也即不管是左滑操作还是右滑操作,均能够触发显示第一目标区域,以提示用户继续拖拽互动选项至第一目标区域,完成对目标虚拟道具的标记。
图11是本申请实施例提供的一种横向滑动操作的原理性示意图,如1100所示,示出了通过双侧的横向滑动操作的区域划分,由于横向滑动操作包括左滑操作和右滑操作两种,左侧阴影部分1101是左滑操作的区域划分,右侧阴影部分1102是右滑操作的区域划分。在一个示例性场景中,第一目标条件设定为滑动操作为横向滑动操作,那么通过双侧的横向滑动操作均能触发物品标记功能,也即只要用户手指触发了横向滑动操作,不管是横向滑动至左侧阴影部分1101的左滑操作,还是横向滑动至右侧阴影部分1102的右滑操作,均能够触发显示第一目标区域,以提示用户继续拖拽互动选项至第一目标区域,完成对目标虚拟道具的标记。
在一些实施例中,还可以在检测到滑动操作符合第一目标条件时,显示多个不同的目标区域,不同的目标区域可提供不同的交互功能,这时用户通过将互动选项拖拽至不同的目标区域,即可实现这一目标区域所对应的交互功能,使得这一操作方式的拓展性大大提高,且具有更高的可用性以及广泛的应用场景。
图12是本申请实施例提供的一种显示多个目标区域的示意图,如图12所示,在用户手指触发的滑动操作符合第一目标条件时,可以显示5个不同的目标区域,包括标记区域1201(即第一目标区域)、立即使用区域1202、枪械A安装区域1203、枪械B安装区域1204、传送区域1205,这5个不同的目标区域分别可以实现5个不同的交互功能。其中,标记区域1201用于标记目标虚拟物品,用户拖拽目标虚拟物品的图标1210至标记区域1201,能够触发完成对目标虚拟物品的标记;立即使用区域1202用于立即使用目标虚拟物品,用户拖拽目标虚拟物品的图标1210至立即使用区域1202,能够触发立即使用目标虚拟物品;枪械A安装区域1203用于将配件类的目标虚拟物品安装到枪械A,用户拖拽目标虚拟物品的图标1210至枪械A安装区域1203,能够触发将配件类的目标虚拟物品安装到枪械A;枪械B安装区域1204用于将配件类的目标虚拟物品安装到枪械B,用户拖拽目标虚拟物品的图标1210至枪械B安装区域1204,能够触发将配件类的目标虚拟物品安装到枪械B;传送区域1205用于将目标虚拟物品传送给特定队友所在的位置,用户拖拽目标虚拟物品的图标1210至传送区域1205,能够触发将目标虚拟物品立即传送到一名指定的特定队友所在的位置。
如上图12所示,通过显示多个不同的目标区域,并为不同的目标区域设定不同的交互功能,使得这一拖拽虚拟物品的图标进行人机交互的操作方式的拓展性大大提高,且具有更高的可用性以及广泛的应用场景。
图13是本申请实施例提供的一种虚拟道具的显示装置的结构示意图,如图13所示,该装置包括:
第一显示模块1301,用于在虚拟场景中显示虚拟道具列表,该虚拟道具列表包括至少一个可拾取的虚拟道具的互动选项;
第二显示模块1302,用于响应于对该虚拟道具列表中目标虚拟道具的互动选项的滑动操作,若该滑动操作符合第一目标条件,在该虚拟场景中显示第一目标区域;
第三显示模块1303,用于响应于该滑动操作的操作结束点位于该第一目标区域内,在该虚拟场景中对该目标虚拟道具进行区别显示。
本申请实施例提供的装置,通过提供一种新型的标记目标虚拟道具的人机交互方式,也即在检测到用户对虚拟道具列表中目标虚拟道具的互动选项进行滑动操作时,显示第一目标区域,并在用户将互动选项拖拽至第一目标区域内时,视为对目标虚拟道具标记完毕,对目标虚拟道具进行区别显示,这种人机交互方式无需在虚拟道具列表中各个虚拟道具的互动选项右侧添加标记按钮,且由于需要将互动选项拖拽至第一目标区域内才能完成标记,极大地降低了用户操作的误触率,且操作方式简单、便捷性高,因此能够提高人机交互效率。
在一种可能实施方式中,该第二显示模块1302用于:
若该滑动操作为横向滑动操作,执行该在该虚拟场景中显示第一目标区域的操作。
在一种可能实施方式中,基于图13的装置组成,该装置还包括:
确定模块,用于若该滑动操作的滑动方向与水平方向之间的夹角位于目标角度范围内,确定该滑动操作为横向滑动操作。
在一种可能实施方式中,该第二显示模块1302用于:
在该虚拟场景中该虚拟道具列表的右侧显示该第一目标区域。
在一种可能实施方式中,该第三显示模块1303用于:
在该虚拟场景中该虚拟道具列表中,对该目标虚拟道具的互动选项进行区别显示。
在一种可能实施方式中,该第三显示模块1303用于:
在该虚拟场景中,在该目标虚拟道具的道具模型上显示标记图形。
在一种可能实施方式中,该标记图形在被控虚拟对象以及友方虚拟对象的视野内均可见,该友方虚拟对象与该被控虚拟对象处于同一队伍或同一阵营。
在一种可能实施方式中,基于图13的装置组成,该装置还包括:
第四显示模块,用于在该虚拟场景中显示标记提示信息,该标记提示信息用于提示被控虚拟对象对该目标虚拟道具进行标记。
在一种可能实施方式中,该标记提示信息在该被控虚拟对象以及友方虚拟对象的视野内均可见,该友方虚拟对象与该被控虚拟对象处于同一队伍或同一阵营。
在一种可能实施方式中,该第二显示模块1302还用于:响应于对区别显示的该目标虚拟道具的互动选项的滑动操作,若该滑动操作符合第二目标条件,在该虚拟场景中显示第二目标区域;
该第三显示模块1303还用于:响应于该滑动操作的操作结束点位于该第二目标区域内,在该虚拟场景中取消对该目标虚拟道具进行区别显示。
在一种可能实施方式中,基于图13的装置组成,该装置还包括:
第五显示模块,用于响应于对该目标虚拟道具的互动选项的滑动操作,在该虚拟场景中,显示该目标虚拟道具的互动选项随着该滑动操作的滑动轨迹进行移动;
该第五显示模块,还用于若该目标虚拟道具的互动选项到达该滑动操作的操作结束点,显示该目标虚拟道具的互动选项回到该滑动操作的操作起始点。
上述所有可选技术方案,能够采用任意结合形成本公开的可选实施例,在此不再一一赘述。
需要说明的是:上述实施例提供的虚拟道具的显示装置在显示虚拟道具时,仅以上述各功能模块的划分进行举例说明,实际应用中,能够根据需要而将上述功能分配由不同的功能模块完成,即将电子设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的虚拟道具的显示装置与虚拟道具的显示方法实施例属于同一构思,其具体实现过程详见虚拟道具的显示方法实施例,这里不再赘述。
图14是本申请实施例提供的一种电子设备的结构示意图,如图14所示,以电子设备为终端1400为例进行说明。可选地,该终端1400的设备类型包括:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1400还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1400包括有:处理器1401和存储器1402。
可选地,处理器1401包括一个或多个处理核心,比如4核心处理器、8核心处理器等。可选地,处理器1401采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable LogicArray,可编程逻辑阵列)中的至少一种硬件形式来实现。在一些实施例中,处理器1401包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central Processing Unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1401集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1401还包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
在一些实施例中,存储器1402包括一个或多个计算机可读存储介质,可选地,该计算机可读存储介质是非暂态的。可选地,存储器1402还包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1402中的非暂态的计算机可读存储介质用于存储至少一个程序代码,该至少一个程序代码用于被处理器1401所执行以实现本申请中各个实施例提供的虚拟道具的显示方法。
在一些实施例中,终端1400还可选包括有:外围设备接口1403和至少一个外围设备。处理器1401、存储器1402和外围设备接口1403之间能够通过总线或信号线相连。各个外围设备能够通过总线、信号线或电路板与外围设备接口1403相连。具体地,外围设备包括:射频电路1404、显示屏1405、摄像头组件1406、音频电路1407、定位组件1408和电源1409中的至少一种。
外围设备接口1403可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1401和存储器1402。在一些实施例中,处理器1401、存储器1402和外围设备接口1403被集成在同一芯片或电路板上;在一些其他实施例中,处理器1401、存储器1402和外围设备接口1403中的任意一个或两个在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1404包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。可选地,射频电路1404通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1404还包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1405用于显示UI(User Interface,用户界面)。可选地,该UI包括图形、文本、图标、视频及其它们的任意组合。当显示屏1405是触摸显示屏时,显示屏1405还具有采集在显示屏1405的表面或表面上方的触摸信号的能力。该触摸信号能够作为控制信号输入至处理器1401进行处理。可选地,显示屏1405还用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1405为一个,设置终端1400的前面板;在另一些实施例中,显示屏1405为至少两个,分别设置在终端1400的不同表面或呈折叠设计;在再一些实施例中,显示屏1405是柔性显示屏,设置在终端1400的弯曲表面上或折叠面上。甚至,可选地,显示屏1405设置成非矩形的不规则图形,也即异形屏。可选地,显示屏1405采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1406用于采集图像或视频。可选地,摄像头组件1406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1406还包括闪光灯。可选地,闪光灯是单色温闪光灯,或者是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,用于不同色温下的光线补偿。
在一些实施例中,音频电路1407包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1401进行处理,或者输入至射频电路1404以实现语音通信。出于立体声采集或降噪的目的,麦克风为多个,分别设置在终端1400的不同部位。可选地,麦克风是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1401或射频电路1404的电信号转换为声波。可选地,扬声器是传统的薄膜扬声器,或者是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅能够将电信号转换为人类可听见的声波,也能够将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1407还包括耳机插孔。
定位组件1408用于定位终端1400的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。可选地,定位组件1408是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源1409用于为终端1400中的各个组件进行供电。可选地,电源1409是交流电、直流电、一次性电池或可充电电池。当电源1409包括可充电电池时,该可充电电池支持有线充电或无线充电。该可充电电池还用于支持快充技术。
在一些实施例中,终端1400还包括有一个或多个传感器1410。该一个或多个传感器1410包括但不限于:加速度传感器1411、陀螺仪传感器1412、压力传感器1413、指纹传感器1414、光学传感器1415以及接近传感器1416。
在一些实施例中,加速度传感器1411检测以终端1400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1411用于检测重力加速度在三个坐标轴上的分量。可选地,处理器1401根据加速度传感器1411采集的重力加速度信号,控制显示屏1405以横向视图或纵向视图进行用户界面的显示。加速度传感器1411还用于游戏或者用户的运动数据的采集。
在一些实施例中,陀螺仪传感器1412检测终端1400的机体方向及转动角度,陀螺仪传感器1412与加速度传感器1411协同采集用户对终端1400的3D动作。处理器1401根据陀螺仪传感器1412采集的数据,实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
可选地,压力传感器1413设置在终端1400的侧边框和/或显示屏1405的下层。当压力传感器1413设置在终端1400的侧边框时,能够检测用户对终端1400的握持信号,由处理器1401根据压力传感器1413采集的握持信号进行左右手识别或快捷操作。当压力传感器1413设置在显示屏1405的下层时,由处理器1401根据用户对显示屏1405的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1414用于采集用户的指纹,由处理器1401根据指纹传感器1414采集到的指纹识别用户的身份,或者,由指纹传感器1414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1401授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。可选地,指纹传感器1414被设置终端1400的正面、背面或侧面。当终端1400上设置有物理按键或厂商Logo时,指纹传感器1414能够与物理按键或厂商Logo集成在一起。
光学传感器1415用于采集环境光强度。在一个实施例中,处理器1401根据光学传感器1415采集的环境光强度,控制显示屏1405的显示亮度。具体地,当环境光强度较高时,调高显示屏1405的显示亮度;当环境光强度较低时,调低显示屏1405的显示亮度。在另一个实施例中,处理器1401还根据光学传感器1415采集的环境光强度,动态调整摄像头组件1406的拍摄参数。
接近传感器1416,也称距离传感器,通常设置在终端1400的前面板。接近传感器1416用于采集用户与终端1400的正面之间的距离。在一个实施例中,当接近传感器1416检测到用户与终端1400的正面之间的距离逐渐变小时,由处理器1401控制显示屏1405从亮屏状态切换为息屏状态;当接近传感器1416检测到用户与终端1400的正面之间的距离逐渐变大时,由处理器1401控制显示屏1405从息屏状态切换为亮屏状态。
本领域技术人员能够理解,图14中示出的结构并不构成对终端1400的限定,能够包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图15是本申请实施例提供的一种电子设备的结构示意图,该电子设备1500可因配置或性能不同而产生比较大的差异,该电子设备1500包括一个或一个以上处理器(CentralProcessing Units,CPU)1501和一个或一个以上的存储器1502,其中,该存储器1502中存储有至少一条计算机程序,该至少一条计算机程序由该一个或一个以上处理器1501加载并执行以实现上述各个实施例提供的虚拟道具的显示方法。可选地,该电子设备1500还具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该电子设备1500还包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括至少一条计算机程序的存储器,上述至少一条计算机程序可由终端中的处理器执行以完成上述各个实施例中的虚拟道具的显示方法。例如,该计算机可读存储介质包括ROM(Read-Only Memory,只读存储器)、RAM(Random-Access Memory,随机存取存储器)、CD-ROM(Compact Disc Read-Only Memory,只读光盘)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品或计算机程序,包括一条或多条程序代码,该一条或多条程序代码存储在计算机可读存储介质中。电子设备的一个或多个处理器能够从计算机可读存储介质中读取该一条或多条程序代码,该一个或多个处理器执行该一条或多条程序代码,使得电子设备能够执行以完成上述实施例中的虚拟道具的显示方法。
本领域普通技术人员能够理解实现上述实施例的全部或部分步骤能够通过硬件来完成,也能够通过程序来指令相关的硬件完成,可选地,该程序存储于一种计算机可读存储介质中,可选地,上述提到的存储介质是只读存储器、磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (15)

1.一种虚拟道具的显示方法,其特征在于,所述方法包括:
在虚拟场景中显示虚拟道具列表,所述虚拟道具列表包括至少一个可拾取的虚拟道具的互动选项;
响应于对所述虚拟道具列表中目标虚拟道具的互动选项的滑动操作,若所述滑动操作符合第一目标条件,在所述虚拟场景中显示第一目标区域;
响应于所述滑动操作的操作结束点位于所述第一目标区域内,在所述虚拟场景中对所述目标虚拟道具进行区别显示。
2.根据权利要求1所述的方法,其特征在于,所述若所述滑动操作符合第一目标条件,在所述虚拟场景中显示第一目标区域包括:
若所述滑动操作为横向滑动操作,执行所述在所述虚拟场景中显示第一目标区域的操作。
3.根据权利要求2所述的方法,其特征在于,所述若所述滑动操作为横向滑动操作,确定所述滑动操作符合所述第一目标条件之前,所述方法还包括:
若所述滑动操作的滑动方向与水平方向之间的夹角位于目标角度范围内,确定所述滑动操作为横向滑动操作。
4.根据权利要求1所述的方法,其特征在于,所述在所述虚拟场景中显示第一目标区域包括:
在所述虚拟场景中所述虚拟道具列表的右侧显示所述第一目标区域。
5.根据权利要求1所述的方法,其特征在于,所述在所述虚拟场景中对所述目标虚拟道具进行区别显示包括:
在所述虚拟场景中所述虚拟道具列表中,对所述目标虚拟道具的互动选项进行区别显示。
6.根据权利要求1所述的方法,其特征在于,所述在所述虚拟场景中对所述目标虚拟道具进行区别显示包括:
在所述虚拟场景中,在所述目标虚拟道具的道具模型上显示标记图形。
7.根据权利要求6所述的方法,其特征在于,所述标记图形在被控虚拟对象以及友方虚拟对象的视野内均可见,所述友方虚拟对象与所述被控虚拟对象处于同一队伍或同一阵营。
8.根据权利要求1所述的方法,其特征在于,所述在所述虚拟场景中对所述目标虚拟道具进行区别显示之后,所述方法还包括:
在所述虚拟场景中显示标记提示信息,所述标记提示信息用于提示被控虚拟对象对所述目标虚拟道具进行标记。
9.根据权利要求8所述的方法,其特征在于,所述标记提示信息在所述被控虚拟对象以及友方虚拟对象的视野内均可见,所述友方虚拟对象与所述被控虚拟对象处于同一队伍或同一阵营。
10.根据权利要求1所述的方法,其特征在于,所述在所述虚拟场景中对所述目标虚拟道具进行区别显示之后,所述方法还包括:
响应于对区别显示的所述目标虚拟道具的互动选项的滑动操作,若所述滑动操作符合第二目标条件,在所述虚拟场景中显示第二目标区域;
响应于所述滑动操作的操作结束点位于所述第二目标区域内,在所述虚拟场景中取消对所述目标虚拟道具进行区别显示。
11.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于对所述目标虚拟道具的互动选项的滑动操作,在所述虚拟场景中,显示所述目标虚拟道具的互动选项随着所述滑动操作的滑动轨迹进行移动;
若所述目标虚拟道具的互动选项到达所述滑动操作的操作结束点,显示所述目标虚拟道具的互动选项回到所述滑动操作的操作起始点。
12.一种虚拟道具的显示装置,其特征在于,所述装置包括:
第一显示模块,用于在虚拟场景中显示虚拟道具列表,所述虚拟道具列表包括至少一个可拾取的虚拟道具的互动选项;
第二显示模块,用于响应于对所述虚拟道具列表中目标虚拟道具的互动选项的滑动操作,若所述滑动操作符合第一目标条件,在所述虚拟场景中显示第一目标区域;
第三显示模块,用于响应于所述滑动操作的操作结束点位于所述第一目标区域内,在所述虚拟场景中对所述目标虚拟道具进行区别显示。
13.根据权利要求12所述的装置,其特征在于,所述第二显示模块用于:
若所述滑动操作为横向滑动操作,执行所述在所述虚拟场景中显示第一目标区域的操作。
14.一种电子设备,其特征在于,所述电子设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述一个或多个处理器加载并执行以实现如权利要求1至权利要求11任一项所述的虚拟道具的显示方法。
15.一种存储介质,其特征在于,所述存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行以实现如权利要求1至权利要求11任一项所述的虚拟道具的显示方法。
CN202110642665.2A 2021-06-09 2021-06-09 虚拟道具的显示方法、装置、电子设备及存储介质 Active CN113289331B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202110642665.2A CN113289331B (zh) 2021-06-09 2021-06-09 虚拟道具的显示方法、装置、电子设备及存储介质
PCT/CN2022/090964 WO2022257653A1 (zh) 2021-06-09 2022-05-05 虚拟道具的显示方法、装置、电子设备及存储介质
JP2023558624A JP2024512582A (ja) 2021-06-09 2022-05-05 仮想アイテムの表示方法、装置、電子機器及びコンピュータプログラム
US18/296,684 US20230241501A1 (en) 2021-06-09 2023-04-06 Display method and apparatus for virtual prop, electronic device and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110642665.2A CN113289331B (zh) 2021-06-09 2021-06-09 虚拟道具的显示方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113289331A true CN113289331A (zh) 2021-08-24
CN113289331B CN113289331B (zh) 2022-12-06

Family

ID=77327695

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110642665.2A Active CN113289331B (zh) 2021-06-09 2021-06-09 虚拟道具的显示方法、装置、电子设备及存储介质

Country Status (4)

Country Link
US (1) US20230241501A1 (zh)
JP (1) JP2024512582A (zh)
CN (1) CN113289331B (zh)
WO (1) WO2022257653A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114063780A (zh) * 2021-11-18 2022-02-18 兰州乐智教育科技有限责任公司 用户专注度的确定方法、装置、vr设备及存储介质
WO2022257653A1 (zh) * 2021-06-09 2022-12-15 腾讯科技(深圳)有限公司 虚拟道具的显示方法、装置、电子设备及存储介质
WO2023193605A1 (zh) * 2022-04-08 2023-10-12 腾讯科技(深圳)有限公司 虚拟道具的处理方法、装置、终端、介质及程序产品
WO2023221716A1 (zh) * 2022-05-20 2023-11-23 腾讯科技(深圳)有限公司 虚拟场景中的标记处理方法、装置、设备、介质及产品
WO2024037156A1 (zh) * 2022-08-18 2024-02-22 腾讯科技(深圳)有限公司 虚拟消耗品的索要丢弃方法、装置、终端及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110115838A (zh) * 2019-05-30 2019-08-13 腾讯科技(深圳)有限公司 虚拟环境中生成标记信息的方法、装置、设备及存储介质
CN110124310A (zh) * 2019-05-20 2019-08-16 网易(杭州)网络有限公司 游戏中的虚拟道具信息分享方法、装置、设备
CN110270098A (zh) * 2019-06-21 2019-09-24 腾讯科技(深圳)有限公司 控制虚拟对象对虚拟物品进行标记的方法、装置及介质
CN112044067A (zh) * 2020-10-14 2020-12-08 腾讯科技(深圳)有限公司 界面显示方法、装置、设备以及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108837506A (zh) * 2018-05-25 2018-11-20 网易(杭州)网络有限公司 一种竞速游戏中虚拟道具的控制方法、装置及存储介质
JP6843100B2 (ja) * 2018-09-19 2021-03-17 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理装置
CN111475087A (zh) * 2020-04-16 2020-07-31 腾讯科技(深圳)有限公司 对象出售方法和装置、存储介质及电子装置
CN111589103A (zh) * 2020-05-19 2020-08-28 网易(杭州)网络有限公司 游戏中虚拟商品的处理方法、装置及电子设备
CN113289331B (zh) * 2021-06-09 2022-12-06 腾讯科技(深圳)有限公司 虚拟道具的显示方法、装置、电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110124310A (zh) * 2019-05-20 2019-08-16 网易(杭州)网络有限公司 游戏中的虚拟道具信息分享方法、装置、设备
CN110115838A (zh) * 2019-05-30 2019-08-13 腾讯科技(深圳)有限公司 虚拟环境中生成标记信息的方法、装置、设备及存储介质
CN110270098A (zh) * 2019-06-21 2019-09-24 腾讯科技(深圳)有限公司 控制虚拟对象对虚拟物品进行标记的方法、装置及介质
CN112044067A (zh) * 2020-10-14 2020-12-08 腾讯科技(深圳)有限公司 界面显示方法、装置、设备以及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022257653A1 (zh) * 2021-06-09 2022-12-15 腾讯科技(深圳)有限公司 虚拟道具的显示方法、装置、电子设备及存储介质
CN114063780A (zh) * 2021-11-18 2022-02-18 兰州乐智教育科技有限责任公司 用户专注度的确定方法、装置、vr设备及存储介质
CN114063780B (zh) * 2021-11-18 2024-07-09 兰州乐智教育科技有限责任公司 用户专注度的确定方法、装置、vr设备及存储介质
WO2023193605A1 (zh) * 2022-04-08 2023-10-12 腾讯科技(深圳)有限公司 虚拟道具的处理方法、装置、终端、介质及程序产品
WO2023221716A1 (zh) * 2022-05-20 2023-11-23 腾讯科技(深圳)有限公司 虚拟场景中的标记处理方法、装置、设备、介质及产品
WO2024037156A1 (zh) * 2022-08-18 2024-02-22 腾讯科技(深圳)有限公司 虚拟消耗品的索要丢弃方法、装置、终端及存储介质

Also Published As

Publication number Publication date
WO2022257653A1 (zh) 2022-12-15
JP2024512582A (ja) 2024-03-19
CN113289331B (zh) 2022-12-06
US20230241501A1 (en) 2023-08-03

Similar Documents

Publication Publication Date Title
CN111589131B (zh) 虚拟角色的控制方法、装置、设备及介质
CN110694261B (zh) 控制虚拟对象进行攻击的方法、终端及存储介质
CN111265869B (zh) 虚拟对象的检测方法、装置、终端及存储介质
CN111249730B (zh) 虚拟对象的控制方法、装置、设备及可读存储介质
CN111589133B (zh) 虚拟对象控制方法、装置、设备及存储介质
CN111408133B (zh) 互动道具显示方法、装置、终端及存储介质
CN110585710B (zh) 互动道具控制方法、装置、终端及存储介质
CN111589124B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN110917619B (zh) 互动道具控制方法、装置、终端及存储介质
CN113289331B (zh) 虚拟道具的显示方法、装置、电子设备及存储介质
CN111589140B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN110917623B (zh) 互动信息显示方法、装置、终端及存储介质
CN112076469A (zh) 虚拟对象的控制方法、装置、存储介质及计算机设备
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN111921194A (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
CN111672104A (zh) 虚拟场景的显示方法、装置、终端及存储介质
CN112044084A (zh) 虚拟环境中的虚拟道具控制方法、装置、存储介质及设备
CN111589102B (zh) 辅助工具检测方法、装置、设备及存储介质
CN111530075B (zh) 虚拟环境的画面显示方法、装置、设备及介质
CN112569607A (zh) 预购道具的显示方法、装置、设备及介质
CN113713383A (zh) 投掷道具控制方法、装置、计算机设备及存储介质
CN112870699A (zh) 虚拟环境中的信息显示方法、装置、设备及介质
CN112076476A (zh) 虚拟对象的控制方法、装置、电子设备及存储介质
CN114404972A (zh) 视野画面的显示方法、装置及设备
CN113813606A (zh) 虚拟场景显示方法、装置、终端及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40052736

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant