WO2020156252A1 - 在虚拟环境中建造建筑物的方法、装置、设备及存储介质 - Google Patents

在虚拟环境中建造建筑物的方法、装置、设备及存储介质 Download PDF

Info

Publication number
WO2020156252A1
WO2020156252A1 PCT/CN2020/072821 CN2020072821W WO2020156252A1 WO 2020156252 A1 WO2020156252 A1 WO 2020156252A1 CN 2020072821 W CN2020072821 W CN 2020072821W WO 2020156252 A1 WO2020156252 A1 WO 2020156252A1
Authority
WO
WIPO (PCT)
Prior art keywords
building
target
construction
touch
virtual environment
Prior art date
Application number
PCT/CN2020/072821
Other languages
English (en)
French (fr)
Inventor
仇蒙
潘佳绮
Original Assignee
腾讯科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 腾讯科技(深圳)有限公司 filed Critical 腾讯科技(深圳)有限公司
Priority to JP2021521495A priority Critical patent/JP7224459B2/ja
Publication of WO2020156252A1 publication Critical patent/WO2020156252A1/zh
Priority to US17/230,720 priority patent/US11675488B2/en
Priority to US18/135,691 priority patent/US20230251771A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

本申请公开了一种在虚拟环境中建造建筑物的方法、装置、设备及存储介质,涉及人机交互领域。该方法包括:显示应用程序的第一视角画面,第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;根据接收到的建筑物摇杆控件上触发的触摸操作确定目标建筑物的目标建造位置;根据接收到的触摸操作对应的触摸释放操作在目标建造位置建造目标建筑物。上述目标建筑物的建造过程,通过目标建筑物对应的建筑物摇杆控件,用户完成一次触摸且释放的操作,就能够完成目标建造物在第一视角的准心位置的建造,实现了在应用程序的虚拟环境中目标建筑物的快速高效的建造;与常规建造目标建筑物需要执行三个步骤比较,减少了两个步骤,提高了人机交互效率。

Description

在虚拟环境中建造建筑物的方法、装置、设备及存储介质
本申请要求于2019年01月30日提交的申请号为201910093429.2、发明名称为“在虚拟环境中建造建筑物的方法、装置、设备及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请实施例涉及人机交互领域,特别涉及一种在虚拟环境中建造建筑物的方法、装置、设备及存储介质。
背景技术
在诸如智能手机、平板电脑之类的终端上,存在很多基于虚拟环境的应用程序。
在上述基于虚拟环境的应用程序中,用户可以利用虚拟材料建造围墙、楼梯、房屋等,但是常规的建造步骤至少需要以下三个步骤:
第一,点击建筑按钮,打开建筑材料的菜单;
第二,转动视角,调整建筑(使用默认使用的建筑材料建造)摆放的位置;
第三,点击放置按钮,完成建造。
如果使用非默认使用的建筑材料,则还需要增加步骤“选择所需的建筑材料”。
上述建造的步骤较多,在虚拟环境中建造建筑物时,无法快速高效的完成建筑的建造,人机交互效率低。
发明内容
本申请实施例提供了一种在虚拟环境中建造建筑物的方法、装置、设备及存储介质,可以减少建筑物的建造步骤多,从而高效的完成建筑物的建造,提高人机效率。所述技术方案如下:
根据本申请的一个方面,提供了一种在虚拟环境中建造建筑物的方法,该方法包括:
显示应用程序的第一视角画面,上述第一视角画面是在虚拟环境中以虚拟对象的第一视角观察虚拟环境的画面,该第一视角画面上叠加显示有目标建筑 物对应的建筑物摇杆控件;
接收建筑物摇杆控件上触发的触摸操作;
基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置;
接收触摸操作对应的触摸释放操作;
根据触摸释放操作在目标建造位置建造目标建筑物。
根据本申请的另一个方面,提供了一种在虚拟环境中建造建筑物的装置,该装置包括:
显示模块,用于显示应用程序的第一视角画面,上述第一视角画面是在虚拟环境中以虚拟对象的第一视角观察虚拟环境的画面,该第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;
接收模块,用于接收建筑物摇杆控件上触发的触摸操作;
确定模块,用于基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置;
接收模块,用于接收触摸操作对应的触摸释放操作;
建造模块,用于根据触摸释放操作在目标建造位置建造目标建筑物。
根据本申请的另一个方面,提供了一种终端,上述终端包括处理器和存储器,该存储器中存储有至少一条指令、至少一段程序、代码集或指令集,上述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如上述本申请上述方面及其可选的实施例中任一所述的在虚拟环境中建造建筑物的方法。
根据本申请的另一个方面,提供了一种计算机可读存储介质,上述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,上述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如上述本申请上述方面及其可选的实施例中任一所述的在虚拟环境中建造建筑物的方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过显示应用程序的第一视角画面,上述第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;接收建筑物摇杆控件上触发的触摸操作;基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置;接收触摸操作对应的触摸释放操作;根据触摸释放操作在目标 建造位置建造目标建筑物。上述目标建筑物的建造过程,通过目标建筑物对应的建筑物摇杆控件,用户完成一次触摸且释放的操作,就能够完成目标建造物在第一视角的准心位置的建造,实现了在应用程序的虚拟环境中目标建筑物的快速高效的建造;与常规建造目标建筑物需要执行三个步骤比较,减少了两个步骤,提高了人机交互效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的摄像机模型的示意图;
图2是本申请一个示例性实施例提供的终端的结构框图;
图3是本申请一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图;
图4是本申请一个示例性实施例提供的虚拟环境画面中显示的建筑物摇杆控件的界面示意图;
图5是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图;
图6是本申请一个示例性实施例提供的在虚拟环境中建造建筑物的界面示意图;
图7是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图;
图8是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的界面示意图;
图9是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图;
图10是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的界面示意图;
图11是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图;
图12是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的界面示意图;
图13是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图;
图14是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的界面示意图;
图15是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图;
图16是本申请一个示例性实施例提供的在虚拟环境中建造建筑物的装置的框图;
图17是本申请一个示例性的实施例提供的终端的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例涉及的若干个名词进行解释:
虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟环境。该虚拟环境可以是对真实世界的仿真环境,也可以是半仿真半虚构的三维环境,还可以是纯虚构的三维环境。虚拟环境可以是二维虚拟环境、2.5维虚拟环境和三维虚拟环境中的任意一种,下述实施例以虚拟环境是三维虚拟环境来举例说明,但对此不加以限定。
虚拟对象:是指在虚拟环境中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物中的至少一种。可选地,当虚拟环境为三维虚拟环境时,虚拟对象是基于动画骨骼技术创建的三维立体模型。每个虚拟对象在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
建筑物:是指在虚拟环境中建造的虚拟建筑物。该虚拟建筑物可以是虚拟楼梯、虚拟墙壁、虚拟地板、虚拟屋顶等。可选地,当虚拟环境为三维虚拟环境时,虚拟建筑物是三维立体模型,每个虚拟建筑物在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
本申请中,用户可以在虚拟环境中建造候选建筑物,其中,候选建筑物是 应用程序中预先设置的允许用户建造的建筑物,目标建筑物则是指用户从候选建筑物中选择建造的建筑物。可选地,当三维虚拟环境为至少两个虚拟对象之间进行对战的环境时,虚拟建筑物可以用于阻拦敌方的攻击,比如,当至少两个虚拟对象进行对战时,用户可以通过在朝向对方攻击的方向建造一堵虚拟墙壁,用于阻挡对方的攻击。可选地,虚拟对象可以通过建造的虚拟建筑物越过前进方向上的障碍,比如,当虚拟对象的前进方向上出现一条小河,用户通过在上述小河上建造虚拟楼梯,辅助虚拟对象越过小河。
视角:以虚拟对象的第一人称视角或者第三人称视角在虚拟环境中进行观察时的观察角度。可选地,本申请的实施例中,视角是在虚拟环境中通过摄像机模型对虚拟对象进行观察时的角度,观察方向则是指虚拟环境中摄像机模型的镜头朝向所指的方向。
可选地,摄像机模型在虚拟环境中对虚拟对象进行自动跟随,即,当虚拟对象在虚拟环境中的位置发生改变时,摄像机模型跟随虚拟对象在虚拟环境中的位置同时发生改变,且该摄像机模型在虚拟环境中始终处于虚拟对象的预设距离范围内。可选地,在自动跟随过程中,摄像头模型和虚拟对象的相对位置不发生变化。
摄像机模型:摄像机模型是在三维虚拟环境中位于虚拟对象周围的三维模型,当采用第一人称视角时,该摄像机模型位于虚拟对象的头部附近或者位于虚拟对象的头部;当采用第三人称视角时,该摄像机模型可以位于虚拟对象的后方并与虚拟对象进行绑定,也可以位于与虚拟对象相距预设距离的任意位置,通过该摄像机模型可以从不同角度对位于三维虚拟环境中的虚拟对象进行观察,可选地,该第三人称视角为第一人称的过肩视角时,摄像机模型位于虚拟对象(比如虚拟人物的头肩部)的后方。可选地,除第一人称视角和第三人称视角外,视角还包括其他视角,比如俯视视角;当采用俯视视角时,该摄像机模型可以位于虚拟对象头部的上空,俯视视角是以从空中俯视的角度进行观察虚拟环境的视角。可选地,该摄像机模型在三维虚拟环境中不会进行实际显示,即,在用户界面显示的三维虚拟环境中不显示该摄像机模型。
对该摄像机模型位于与虚拟对象相距预设距离的任意位置为例进行说明,可选地,一个虚拟对象对应一个摄像机模型,该摄像机模型可以以虚拟对象为旋转中心进行旋转,如:以虚拟对象的任意一点为旋转中心对摄像机模型进行旋转,摄像机模型在旋转过程中的不仅在角度上有转动,还在位移上有偏移, 旋转时摄像机模型与该旋转中心之间的距离保持不变,即,将摄像机模型在以该旋转中心作为球心的球体表面进行旋转,其中,虚拟角色的任意一点可以是虚拟对象的头部、躯干、或者虚拟对象周围的任意一点,本申请实施例对此不加以限定。可选地,摄像机模型在对虚拟对象进行观察时,该摄像机模型的视角的中心指向为该摄像机模型所在球面的点指向球心的方向。
可选地,该摄像机模型还可以在虚拟对象的不同方向以预设的角度对虚拟对象进行观察。
示意性的,请参考图1,在虚拟对象11中确定一点作为旋转中心12,摄像机模型围绕该旋转中心12进行旋转,可选地,该摄像机模型配置有一个初始位置,该初始位置为虚拟对象后上方的位置(比如脑部的后方位置)。示意性的,如图1所示,该初始位置为位置13,当摄像机模型旋转至位置14或者位置15时,摄像机模型的视角方向随摄像机模型的转动而进行改变。
本申请中的终端可以是膝上型便携计算机、手机、平板电脑、电子书阅读器、电子游戏机、动态影像专家压缩标准音频层面4(Moving Picture Experts Group Audio Layer IV,MP4)播放器等等。
关于硬件结构,上述终端包括了压力触控屏120、存储器140和处理器160,请参考图2所示的终端的结构框图。
压力触控屏120可以是电容屏或者电阻屏。压力触控屏120用于实现终端与用户之间的交互。在本申请的实施例中,终端通过压力触控屏120获得用户触发的建造建筑物的相关操作,比如,触摸操作、触摸操作对应的释放操作、拖动操作、展开操作、选择操作等。
存储器140可以包括一个或者多个计算机可读存储介质。上述计算机存储介质包括随机存取存储器(Random Access Memory,RAM)、只读存储器(Read Only Memory,ROM)、闪存(Flash)中的至少一种。存储器140中安装有操作系统12和应用程序14。
操作系统12是为应用程序14提供对计算机硬件的安全访问的基础软件。操作系统可以是安卓系统(Android)或者苹果系统(IOS)。
应用程序14是支持虚拟环境的应用程序,虚拟环境中包括虚拟对象。可选的,应用程序14支持三维虚拟环境的应用程序。该应用程序14可以是虚拟现实应用程序、三维地图程序、军事仿真程序、TPS游戏、第一人称射击(First Person  Shooting,FPS)游戏、多人在线战术竞技(Multiplayer Online Battle Arena,MOBA)游戏、多人枪战类生存游戏中的任意一种。可选的,该应用程序14可以是单机版的应用程序,比如单机版的三维(3Dimensions,3D)游戏程序;也可以是网络联机版的应用程序。
处理器160可以包括一个或者多个处理核心,比如4核心处理器、8核心处理器。处理器160用于根据压力触控屏120上接收到的建造建筑物的相关操作,执行不同操作对应的不同命令。
图3本申请的一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图,以该方法应用于图2所示的终端中为例来说明,该方法包括:
步骤201,显示应用程序的第一视角画面。
终端上显示应用程序的第一视角画面,可选地,应用程序可以是虚拟现实应用程序、三维地图应用程序、军事仿真程序、TPS游戏、FPS游戏、MOBA游戏中的至少一种。
第一视角画面是在虚拟环境中以虚拟对象的第一视角观察虚拟环境的画面。可选地,上述第一视角是采用虚拟人物的第一人称视角观察虚拟环境的视角;或者,上述第一视角是采用虚拟人物的第三人称视角观察虚拟环境的视角。
第一视角画面上还叠加显示有目标建筑物对应的建筑物摇杆控件,该建筑物摇杆控件是一种用于建造目标建筑物的摇杆控件,该建筑物摇杆控件还用于控制虚拟对象在虚拟环境中的视角转动,从而确定目标建筑物的目标建造位置。
示意性的,图4中示出了一种建筑物摇杆控件31,如左图所示,上述建筑物摇杆控件31包括外圆32和按钮33,在按钮33上显示有目标建筑物34的图形。终端的应用程序的虚拟画面中显示上述建筑摇杆控件31,当用户在建筑物摇杆控件31的按钮33上触发触摸操作时,终端在虚拟环境中建造目标建筑物34;用户还可以拖动上述触摸操作,从而调整目标建筑物的目标建造位置,用户可以在外圆32中将按钮33向任意方向拖动,实现上述目标建造位置的调整,如中间的图所示,用户在外圆32中将按钮33向下方拖动,如右图所示,用户在外圆32中将按钮33向左下方拖动。
可选地,目标建筑物包括虚拟墙壁、虚拟屋顶、虚拟楼梯、虚拟地板中的至少一种。
步骤202,接收建筑物摇杆控件上触发的触摸操作。
终端上包括触摸屏,在建筑物摇杆控件对应的屏幕区域,接收用户触发的触摸操作。该触摸操作用于确定目标建筑物的目标建筑位置。上述触摸操作是指用户触摸屏幕且不离开的操作。
步骤203,基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置。
可选地,上述应用程序中设置有目标距离,该目标距离指示在虚拟环境中建造目标建筑物时目标建造位置与虚拟对象之间的距离。
第一视角所在的第一观察方向与第一视角的准心位置所在的方向重合,终端基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置,即是目标建造位置在第一视角的准心位置所在的方向上。
可选地,上述目标距离是由终端确定出的虚拟人物所在位置与目标建造位置之间的距离,且上述目标建造位置是在第一观察方向上延伸出的直线与虚拟环境中物体的交点处。
步骤204,接收触摸操作对应的触摸释放操作。
上述触摸释放操作是指用户在触摸屏上触发触摸操作之后离开屏幕的释放操作。上述触摸操作对应的触摸释放操作用于指示在目标建造位置上建造目标建筑物。
步骤205,根据触摸释放操作在目标建造位置建造目标建筑物。
终端根据上述触摸操作对应的触摸释放操作,在目标建造位置上建造目标建筑物;也就是说,在用户调整好目标建造位置之后松手,在目标建造位置上会自动建造一个目标建造物。
可选地,终端响应于目标建造位置不存在影响建造的物体,根据触摸释放操作在目标建造位置建造目标建筑物。
综上所述,本实施例提供的在虚拟环境中建造建筑物的方法,通过显示应用程序的第一视角画面,上述第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;接收建筑物摇杆控件上触发的触摸操作;基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置;接收触摸操作对应的触摸释放操作;根据触摸释放操作在目标建造位置建造目标建筑物。上述目标建筑物的建造过程,通过目标建筑物对应的建筑物摇杆控件,用户完成一次触摸且释放的操作,就能够完成目标建造物在第一视角的准心位置的建造,实现了在应用程序的虚拟环境中目标建筑物的快速高效的建造; 与常规建造目标建筑物需要执行三个步骤比较,减少了两个步骤,提高了人机交互效率。
在建造建筑物的过程中,终端在虚拟环境中显示目标建筑物,其中,目标建筑物的显示方式包括第一显示方法和第二显示方式,在一些实施例中,终端确定目标建筑物的目标建造位置之后,以第一显示方法显示目标建筑物,在目标建造位置建造目标建筑物之后,以第二显示方式显示目标建筑物。示意性的,终端在虚拟环境中建造建筑物的方法中应用上述两种显示方式的方法流程图如图5所示,应用于终端中,该方法包括:
步骤301,显示应用程序的第一视角画面。
第一视角画面是在虚拟环境中以虚拟对象的第一视角观察虚拟环境的视角。可选地,第一视角是在虚拟环境中以虚拟人物的第一人称视角观察虚拟环境的视角;或者,第一视角是在虚拟环境中以虚拟人物的第三人称视角观察虚拟环境的视角。
第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件。
步骤302,接收建筑物摇杆控件上触发的触摸操作。
终端上安装有触摸屏,终端接收上述建筑物摇杆控件对应的屏幕区上触发的触摸操作,该触摸操作为触摸且不离开屏幕的触摸操作。
步骤303,基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置。
上述触摸操作指示目标建筑物的建造开始事件,终端根据触摸操作开始建造目标建筑物。首先,终端将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置。
第一视角所在的第一观察方向是指第一视角的准心位置指向的方向,则目标距离指示在虚拟环境中虚拟对象沿上述准心位置指向的方向与目标建造位置之间的空间距离。
步骤304,在目标建造位置以第一显示方式显示目标建筑物的虚拟模型。
终端在确定目标建造位置之后,在目标建筑位置上以第一显示方式显示目标建筑物的虚拟模型。
可选地,第一显示方式是指显示目标建筑物的简图的方式,其中,上述简图是目标建筑物的轮廓图;或者,第一显示方式是指显示半透明状的目标建筑 物的方式。可选地,在虚拟环境中示出的目标建筑物的简图或者半透明状的目标建筑物的空间体积,与建造完成的目标建筑物在虚拟环境中占据的空间体积相同。上述在目标建造位置显示的目标建筑物的简图或者半透明状的目标建筑物相当于对目标建筑物的建造规划,而不是在虚拟环境中的目标建造位置已经建造完成的。
可选地,终端响应于目标建造位置不存在影响建造的物体,在目标建造位置以第一显示方式显示目标建筑物的虚拟模型;也就是说,当终端确定目标建造位置不存在影响建造的物体时,在目标建造位置以第一显示方式显示目标建筑物的虚拟模型。比如,目标建筑物为虚拟地板,终端确定在虚拟环境中的目标建造位置上设置有一块儿石头时,终端拒绝在目标建造位置上建造虚拟地板,且拒绝显示目标建造物的虚拟模型;当虚拟环境中的目标建造位置是平滑的地面,则终端在目标建造位置以第一显示方式显示目标建筑物的虚拟模型。
步骤305,接收触摸操作对应的触摸释放操作。
上述触摸释放操作是用户触摸并离开屏幕的操作,与上述触摸操作对应。
步骤306,根据触摸释放操作在目标建造位置建造目标建筑物。
终端根据上述触摸释放操作在目标建造位置上建造目标建筑物。
步骤307,在目标建造位置以第二显示方式显示目标建筑物的虚拟模型。
终端在目标建造位置上以第二显示方式显示建造完成的目标建筑物的虚拟模型。
第二显示方式是指目标建筑物在虚拟环境中完整显示的方式,以第二显示方式显示的目标建筑物相当于在虚拟环境中真实存在的建筑物,比如,目标建筑物是虚拟楼梯,在目标建造位置以第二显示方式显示虚拟楼梯,虚拟对象可以借助楼梯向上攀爬。
示意性的,请参考图6,终端上显示应用程序的第一视角画面50,第一视角画面50上叠加显示有建筑物摇杆控件51,建筑物摇杆控件51上显示有目标建筑物;终端接收在建筑物摇杆控件51上触发的触摸操作,在第一显示界面上以第一显示方式显示目标建筑物,如图中目标建筑物的简图52所示,目标建筑物的简图52的目标建筑位置在第一视角的准心位置53上;终端接收触摸操作对应的触摸释放操作,在第一显示界面上以第二显示方式显示建造完成的目标建筑物54;其中,目标建造位置位于第一视角所在的第一观察方向上目标距离L处。
综上所述,本实施例提供的在虚拟环境中建造建筑物的方法,通过显示应用程序的第一视角画面,上述第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;接收建筑物摇杆控件上触发的触摸操作;基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置;接收触摸操作对应的触摸释放操作;根据触摸释放操作在目标建造位置建造目标建筑物。上述目标建筑物的建造过程,通过目标建筑物对应的建筑物摇杆控件,用户完成一次触摸且释放的操作,就能够完成目标建造物在第一视角的准心位置的建造,实现了在应用程序的虚拟环境中目标建筑物的快速高效的建造;与常规建造目标建筑物需要执行三个步骤比较,减少了两个步骤,提高了人机交互效率。
在虚拟环境中建造建筑物的过程中,用户还可以通过建筑物摇杆控件调整目标建造位置,如图7所示,示出了一种示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图,以对上述目标建造位置的调整方法进行说明,该方法应用于终端中,该方法包括:
步骤401,显示应用程序的第一视角画面。
请参考步骤301,在此不再加以赘述。
步骤402,接收建筑物摇杆控件上触发的触摸操作。
请参考步骤302,在此不再加以赘述。
步骤403,响应于触摸操作发生拖动,以虚拟对象为旋转中心,根据拖动距离从第一观察方向转动至第二观察方向。
在显示的建筑物摇杆控件上触发触摸操作,并在建筑物摇杆控件上进行拖动;根据上述触发操作的拖动调整虚拟对象的视角所在的观察方向。
用户在建筑物摇杆控件上进行360度的方向上的拖动,以转动虚拟对象在水平方向和垂直方向上的视角所在的观察方向;终端根据拖动的距离得到视角所在的观察方向转动的角度,以第一观察方向为基准,以虚拟对象为旋转中心,在向上述拖动的拖动方向上转动上述得到的观察方向转动的角度,得到第二视角。
示意性的,观察方向转动的角度与拖动的距离成正相关的关系,也就是说,拖动的距离越大,则观察方向转动的角度越大。示意性的,上述观察方向转动的角度与拖动的距离的正相关的关系还可以通过线性公式表示。
步骤404,显示应用程序的第二视角画面。
第二视角画面是在虚拟环境中以虚拟对象的第二视角观察虚拟环境的视角。可选地,第二视角是在虚拟环境中以虚拟人物的第一人称视角观察虚拟环境的视角;或者,第二视角是在虚拟环境中以虚拟人物的第三人称视角观察虚拟环境的视角。
步骤405,将第二观察方向上目标距离处确定为目标建筑物的目标建造位置。
请参考步骤303,第二视角画面中确定目标建造位置的方法与第一视角画面中确定目标建造位置的方法相同,在此不再加以赘述。
步骤406,在目标建造位置以第一显示方式显示目标建筑物的虚拟模型。
请参考步骤304,在此不再加以赘述。
步骤407,接收触摸操作对应的触摸释放操作。
请参考步骤305,在此不再加以赘述。
步骤408,根据触摸释放操作在目标建造位置建造目标建筑物。
请参考步骤306,在此不再加以赘述。
步骤409,在目标建造位置以第二显示方式显示目标建筑物的虚拟模型。
请参考步骤307,在此不再加以赘述。
示意性的,参考图8,终端显示第一视角画面63,并接收建筑物摇杆控件61上的触摸操作,在第一视角画面63中显示目标建筑物62;当触摸操作发生向下的拖动时,第一观察方向转动至第二观察方向,终端显示第二视角画面64,在第二视角画面64中显示目标建筑物62;当触摸操作再次发生向左下方的拖动时,第二观察方向转动至第三观察方向,终端显示第三视角画面65,在第三视角画面65中显示目标建筑物62。需要说明的是,由于图8所示的画面中未触发触摸释放操作,因此,目标建筑物62均是以第一显示方式进行显示的。
综上所述,本实施例提供的在虚拟环境中建造建筑物的方法,通过显示应用程序的第一视角画面,上述第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;接收建筑物摇杆控件上触发的触摸操作;基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置;接收触摸操作对应的触摸释放操作;根据触摸释放操作在目标建造位置建造目标建筑物。上述目标建筑物的建造过程,通过目标建筑物对应的建筑物摇杆控件,用户完成一次触摸且释放的操作,就能够完成目标建造物在第一视角的准 心位置的建造,实现了在应用程序的虚拟环境中目标建筑物的快速高效的建造;与常规建造目标建筑物需要执行三个步骤比较,减少了两个步骤,提高了人机交互效率。
本实施例提供的在虚拟环境中建造建筑物的方法,还可以通过调整视角的同时对目标建造位置进行调整,将视角调整与目标建造位置的调整结合为一步完成,提高了用户的操作效率,使建筑物的建造更灵活,提升了用户体验。
需要说明的是,第二视角画面上还叠加显示有操作取消按钮控件,在建造建筑物的中间过程,终端可以中断建筑物的建造,如图9所示,将步骤405至步骤409替换为步骤410至步骤411,对在建造建筑物的中间过程中终端取消建造建筑物的方法进行说明,步骤如下:
步骤410,接收操作取消按钮控件上触发的取消操作。
终端接收操作取消按钮控件对应的屏幕区域上触发的取消操作;比如,在操作取消按钮控件上触发的点击操作。
步骤411,根据取消操作重新显示第一视角画面。
终端根据取消操作取消建造目标建筑物,并重新显示第一视角画面。
示意性的,如图10所示,终端显示第一视角画面63,并接收建筑物摇杆控件61上的触摸操作,在第一视角画面63中显示目标建筑物62;当触摸操作发生向下的拖动时,第一视角转动至第二视角,终端显示第二视角画面64,在第二视角画面64中显示目标建筑物62,且第二显示画面上叠加显示有操作取消按钮控件“取消操作”66;终端接收操作取消按钮控件“取消操作”66上触发的取消操作,取消建造目标建筑物,并重新显示第一视角画面63。
综上所述,本实施提供的在虚拟环境中建造建筑物的方法,在建造建筑物的中间过程中也可以中断建筑物的建造,用户错误操作时,可以及时终中断操作,提升用户体验。
图11是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图,该方法还可以使终端连续建造建筑物,应用于终端中,该方法包括:
步骤501,显示应用程序的第一视角画面。
请参考步骤301,在此不再加以赘述。
步骤502,接收建筑物摇杆控件上触发的触摸操作。
请参考步骤302,在此不再加以赘述。
步骤503,在第一视角画面上叠加显示连续建造按钮控件。
终端根据上述触摸操作在第一视角画面上叠加显示连续建造按钮控件,该连续建造按钮控件用于连续的且自动的建造目标建筑物。
步骤504,接收连续建造按钮控件上触发的连续建造操作。
终端接收连续建造按钮控件上触发的连续建造操作。
步骤505,根据连续建造操作从当前时刻开始,每间隔n秒在目标建造位置自动建造一次目标建筑物。
从连续建造操作触发开始,终端将间隔n秒的时刻确定为第一时刻;将与第一时刻间隔n秒的时刻确定为第二时刻;将与第二时刻间隔n秒的时刻确定为第三时刻;依此类推,终端每间隔n秒确定出第i时刻,i为正整数。在第i时刻,终端在目标建造位置上自动建造一次目标建筑物。
可选地,终端在间隔n秒的时间内,响应于触摸操作发生拖动,根据上述拖动操作重新确定目标建造位置;每间隔n秒在重新确定的目标建造位置自动建造一次目标建筑物。
终端连续建造目标建筑物的两个时刻之间间隔n秒,在上述间隔的n秒内,用户可以对触摸操作进行拖动,通过对触摸操作的拖动改变虚拟环境中虚拟对象的视角所在的观察方向,从而确定新的视角画面,并在新的视角画面中确定目标建造位置;在间隔n秒的上述两个时刻中的后一个时刻,终端在重新确定的目标建造位置上自动建造一次目标建筑物。
步骤506,接收触摸操作对应的触摸释放操作。
终端接收触摸操作对应的触摸释放操作。
步骤507,根据触摸释放操作结束建造目标建筑物。
用户保持触摸操作则终端连续建造目标建筑物,当终端接收到触摸操作对应的触摸释放操作时,终端结束建造目标建筑物。
示意性的,如图12所示,终端上显示第一视角画面50,当建筑物摇杆控件51上接收到触摸操作时,第一视角画面50上叠加显示连续建造按钮控件55,且显示以第一显示方式显示的目标建筑物52;在第一时刻,终端显示目标建筑物52对应的以第二显示方式显示的目标建筑物54;终端接收连续建造按钮控件55的连续建造操作,在第一时刻与第二时刻的间隔时间内,用户通过建筑物摇杆控件51将视角所在的第一观察方向转动至第二观察方向,终端显示第二视角 画面57,且第二视角画面57上显示以第一显示方式显示的目标建筑物56;在第二时刻,终端在第二视角画面57中显示目标建筑物56对应的以第二显示方式显示的目标建筑物58;终端接收触摸操作对应的触摸释放操作,结束继续自动建造目标建筑物。
综上所述,本实施例提供的在虚拟环境中建造建筑物的方法,通过调整视角的同时对目标建造位置进行调整,将视角调整与目标建造位置的调整结合为一步完成,提高了用户的操作效率,使建筑物的建造更灵活,提升了用户体验。
还通过自动且连续的建造建筑物,节省了重复建造相同建筑物时的重复步骤,提高了人机交互效率。
在一些实施例中,用户可以对建筑物摇杆控件对应的目标建筑物进行自定义设置,请参考图13,示出了本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图,应用于终端中,该方法包括:
步骤601,显示应用程序的第一视角画面。
请参考步骤301,在此不再加以赘述。
步骤602,接收建筑物菜单展开控件上的展开操作。
终端接收建筑物菜单展开控件上的展开操作,上述展开操作用于在第一视角画面上叠加显示建筑物菜单。
步骤603,根据展开操作显示建筑物菜单。
终端根据展开操作在第一视角画面上叠加显示建筑物菜单,上述建筑物菜单中包括至少一种候选建筑物。可选地,候选建筑物包括虚拟楼梯、虚拟墙壁、虚拟屋顶、虚拟地板中的至少一种。
步骤604,接收对至少一种候选建筑物中的一个候选建筑物进行选择的选择操作。
步骤605,将被选择的候选建筑物确定为目标建筑物。
终端根据上述选择操作将被选择的候选建筑物确定为目标建筑物。
示意性的,如图14所示,第一视角画面60上叠加显示有目标建筑物对应的建筑物摇杆按钮控件61以及建筑物菜单展开控件62,其中,建筑物摇杆按钮控件61上对应显示有候选建筑物64的图标,即此时候选建筑物64为目标建筑物;接收建筑物菜单展开控件62上的展开操作,显示候选建筑物的显示框,显示框中显示有候选建筑物63、候选建筑物64和候选建筑物65;接收候选建筑 物63对应的控件上的选择操作,将候选建筑物63确定为目标建筑物,则此时建筑物摇杆按钮控件61上对应显示有候选建筑物63的图标。
综上所述,本实施例提供的在虚拟环境中建造建筑物的方法,通过自定义设置目标建筑物,选择快速建造的建筑物类型,适应于不同的应用场景,提高了用户的操作体验。
图15是本申请另一个示例性实施例提供的在虚拟环境中建造建筑物的方法的流程图,该方法应用于终端中,该方法包括:
步骤701,接收建筑物摇杆按钮控件上的触摸操作。
终端显示应用程序的第一视角画面,该第一视角画面上叠加显示目标建筑物对应的建筑物摇杆按钮控件。终端接收建筑物摇杆按钮控件上的触摸操作。
步骤702,在第一视角的准心位置显示建筑物的虚影。
终端根据触摸操作在第一视角的准心位置显示目标建筑物的虚影。
步骤703,确定是否建造建筑物。
终端判断是否建造目标建筑物,可选地,当终端接收到触摸操作对应的触摸释放操作时,确定建造目标建筑物,执行步骤704;否则,执行步骤707。
步骤704,判断建筑物在当前位置上是否可以建造。
终端判断目标建筑物在当前第一视角的准心位置是否可以建造。当虚拟环境中的第一视角的准心位置无法建造目标建筑物时,执行步骤706;否则,执行步骤705。其中,上述第一视角的准心位置是指准心所在方向与虚拟环境中物体的交点处。
步骤705,建筑物虚影变为实物。
当上述判断结果为肯定时,目标建筑物由虚影转变为虚拟环境中的实物,完成目标建筑物的建造。
步骤706,反馈“无法在当前位置建造建筑物”。
当虚拟环境中的第一视角的准心位置无法建造目标建筑物时,终端提示“无法在当前位置建造建筑物”。可选地,终端在第一视角画面上叠加显示“无法在当前位置建造建筑物”。
步骤707,继续转动建筑物摇杆按钮控件。
用户继续转动建筑物摇杆按钮控件以调整虚拟对象的视角。
步骤708,场景视角转动,建筑物的虚影跟随准心变化。
当虚拟对象的视角改变,虚拟环境中的场景发生改变,相应的视角画面发生改变,目标建筑物跟随视角画面的准心位置的变化。可选地,终端显示的第一视角画面转动至第二视角画面。
步骤709,确定是否建造建筑物。
请参考步骤703,在此不再加以赘述。需要说明的是,当终端确定不建造建筑物时,返回步骤708。
步骤710,判断建筑物在当前位置上是否可以建造。
请参考步骤704,在此不再加以赘述。
步骤711,建筑物虚影变为实物。
请参考步骤705,在此不再加以赘述。
步骤712,反馈“无法在当前位置建造建筑物”。
请参考步骤706,在此不再加以赘述。
综上所述,本实施例提供的在虚拟环境中建造建筑物的方法,通过显示应用程序的第一视角画面,上述第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;接收建筑物摇杆控件上触发的触摸操作;根据触摸操作确定目标建筑物的目标建造位置;接收触摸操作对应的触摸释放操作;根据触摸释放操作在目标建造位置建造目标建筑物。上述目标建筑物的建造过程,通过目标建筑物对应的建筑物摇杆控件,用户完成一次触摸且释放的操作,就能够完成目标建造物在第一视角的准心位置的建造,实现了在应用程序的虚拟环境中目标建筑物的快速高效的建造;与常规建造目标建筑物需要执行三个步骤比较,减少了两个步骤,提高了人机交互效率。
图16是本申请一个示例性实施例提供的在虚拟环境中建造建筑物的装置的框图,该装置可以通过软件、硬件、或者二者的结合实现终端的部分或者全部,该装置包括:
显示模块801,用于显示应用程序的第一视角画面,第一视角画面是在虚拟环境中以虚拟对象的第一视角观察虚拟环境的画面,第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;
接收模块802,用于接收建筑物摇杆控件上触发的触摸操作;
确定模块803,用于基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置;
接收模块802,用于接收触摸操作对应的触摸释放操作;
建造模块804,用于根据触摸释放操作在目标建造位置建造目标建筑物。
在一些实施例中,显示模块801,用于基于触摸操作,将第一视角所在的第一观察方向上目标距离处确定为目标建筑物的目标建造位置之后,在目标建造位置以第一显示方式显示目标建筑物的虚拟模型;根据触摸释放操作在目标建造位置建造目标建筑物之后,在目标建造位置以第二显示方式显示目标建筑物的虚拟模型。
在一些实施例中,显示模块801,用于响应于目标建造位置不存在影响建造的物体,在目标建造位置以第一显示方式显示目标建筑物的虚拟模型。
在一些实施例中,转动模块805,用于响应于触摸操作发生拖动,以虚拟对象为旋转中心,根据拖动距离将第一观察方向转动至第二观察方向;
显示模块801,用于显示应用程序的第二视角画面,第二视角画面是在虚拟环境中以第二观察方向上的第二视角观察虚拟环境的画面;
确定模块803,用于将第二观察方向上目标距离处确定为目标建筑物的目标建造位置。
在一些实施例中,第二视角画面上还叠加显示有操作取消按钮控件;
接收模块802,用于接收操作取消按钮控件上触发的取消操作;
显示模块801,用于根据取消操作重新显示第一视角画面。
在一些实施例中,显示模块801,用于在第一视角画面上叠加显示连续建造按钮控件;
接收模块802,用于接收连续建造按钮控件上触发的连续建造操作;
建造模块804,用于根据连续建造操作从当前时刻开始,每间隔n秒在目标建造位置自动建造一次目标建筑物。
在一些实施例中,确定模块803,用于在间隔n秒的时间内,响应于触摸操作发生拖动,根据拖动操作重新确定目标建造位置;
建造模块804,用于每间隔n秒在重新确定的目标建造位置自动建造一次目标建造物。
在一些实施例中,接收模块802,用于接收触摸操作对应的触摸释放操作;
建造模块804,用于根据触摸释放操作结束建造目标建筑物。
在一些实施例中,第一视角画面上还叠加显示有建筑物菜单展开控件;
接收模块802,用于接收建筑物菜单展开控件上的展开操作;
显示模块801,用于根据展开操作显示建筑物菜单,建筑物菜单中包括至少一种候选建筑物;
接收模块802,用于接收对至少一种候选建筑物中的一个候选建筑物进行选择的选择操作;
确定模块803,用于将被选择的候选建筑物确定为目标建筑物。
综上所述,本实施例提供的在虚拟环境中建造建筑物的装置,通过显示应用程序的第一视角画面,上述第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;接收建筑物摇杆控件上触发的触摸操作;根据触摸操作确定目标建筑物的目标建造位置;接收触摸操作对应的触摸释放操作;根据触摸释放操作在目标建造位置建造目标建筑物。上述目标建筑物的建造过程,通过目标建筑物对应的建筑物摇杆控件,用户完成一次触摸且释放的操作,就能够完成目标建造物在第一视角的准心位置的建造,实现了在应用程序的虚拟环境中目标建筑物的快速高效的建造;与常规建造目标建筑物需要执行三个步骤比较,减少了两个步骤,提高了人机交互效率。
图17示出了本发明一个示例性实施例提供的终端900的结构框图。该终端900可以是:智能手机、平板电脑、动态影像专家压缩标准音频层面3(Moving Picture Experts Group Audio Layer III,MP3)播放器、动态影像专家压缩标准音频层面4(Moving Picture Experts Group Audio Layer IV,MP4)播放器、笔记本电脑或台式电脑。终端900还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端900包括有:处理器901和存储器902。
处理器901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器901可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable Logic Array,PLA)中的至少一种硬件形式来实现。处理器901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称中央处理器(Central Processing Unit,CPU);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器901可以在集成有图像处理器(Graphics Processing Unit,GPU),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器901还可 以包括人工智能(Artificial Intelligence,AI)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器902中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器901所执行以实现本申请中方法实施例提供的在虚拟环境中建造建筑物的方法。
在一些实施例中,终端900还可选包括有:外围设备接口903和至少一个外围设备。处理器901、存储器902和外围设备接口903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口903相连。具体地,外围设备包括:射频电路904、触摸显示屏905、摄像头906、音频电路907、定位组件908和电源909中的至少一种。
外围设备接口903可被用于将输入/输出(Input/Output,I/O)相关的至少一个外围设备连接到处理器901和存储器902。在一些实施例中,处理器901、存储器902和外围设备接口903被集成在同一芯片或电路板上;在一些其他实施例中,处理器901、存储器902和外围设备接口903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路904用于接收和发射射频(Radio Frequency,RF)信号,也称电磁信号。射频电路904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路904可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或无线保真(Wireless Fidelity,WiFi)网络。在一些实施例中,射频电路904还可以包括近距离无线通信(Near Field Communication,NFC)有关的电路,本申请对此不加以限定。
显示屏905用于显示用户界面(User Interface,UI)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏905是触摸显示屏时,显示屏905还具有采集在显示屏905的表面或表面上方的触摸信号的能力。该触摸 信号可以作为控制信号输入至处理器901进行处理。此时,显示屏905还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏905可以为一个,设置终端900的前面板;在另一些实施例中,显示屏905可以为至少两个,分别设置在终端900的不同表面或呈折叠设计;在再一些实施例中,显示屏905可以是柔性显示屏,设置在终端900的弯曲表面上或折叠面上。甚至,显示屏905还可以设置成非矩形的不规则图形,也即异形屏。显示屏905可以采用液晶显示屏(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等材质制备。
摄像头组件906用于采集图像或视频。可选地,摄像头组件906包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及虚拟现实(Virtual Reality,VR)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件906还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器901进行处理,或者输入至射频电路904以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端900的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器901或射频电路904的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路907还可以包括耳机插孔。
定位组件908用于定位终端900的当前地理位置,以实现导航或基于位置的服务(Location Based Service,LBS)。定位组件908可以是基于美国的全球定位系统(Global Positioning System,GPS)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源909用于为终端900中的各个组件进行供电。电源909可以是交流电、 直流电、一次性电池或可充电电池。当电源909包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端900还包括有一个或多个传感器910。该一个或多个传感器910包括但不限于:加速度传感器911、陀螺仪传感器912、压力传感器913、指纹传感器914、光学传感器915以及接近传感器916。
加速度传感器911可以检测以终端900建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器911可以用于检测重力加速度在三个坐标轴上的分量。处理器901可以根据加速度传感器911采集的重力加速度信号,控制触摸显示屏905以横向视图或纵向视图进行用户界面的显示。加速度传感器911还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器912可以检测终端900的机体方向及转动角度,陀螺仪传感器912可以与加速度传感器911协同采集用户对终端900的3D动作。处理器901根据陀螺仪传感器912采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器913可以设置在终端900的侧边框和/或触摸显示屏905的下层。当压力传感器913设置在终端900的侧边框时,可以检测用户对终端900的握持信号,由处理器901根据压力传感器913采集的握持信号进行左右手识别或快捷操作。当压力传感器913设置在触摸显示屏905的下层时,由处理器901根据用户对触摸显示屏905的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器914用于采集用户的指纹,由处理器901根据指纹传感器914采集到的指纹识别用户的身份,或者,由指纹传感器914根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器901授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器914可以被设置终端900的正面、背面或侧面。当终端900上设置有物理按键或厂商Logo时,指纹传感器914可以与物理按键或厂商Logo集成在一起。
光学传感器915用于采集环境光强度。在一个实施例中,处理器901可以 根据光学传感器915采集的环境光强度,控制触摸显示屏905的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏905的显示亮度;当环境光强度较低时,调低触摸显示屏905的显示亮度。在另一个实施例中,处理器901还可以根据光学传感器915采集的环境光强度,动态调整摄像头组件906的拍摄参数。
接近传感器916,也称距离传感器,通常设置在终端900的前面板。接近传感器916用于采集用户与终端900的正面之间的距离。在一个实施例中,当接近传感器916检测到用户与终端900的正面之间的距离逐渐变小时,由处理器901控制触摸显示屏905从亮屏状态切换为息屏状态;当接近传感器916检测到用户与终端900的正面之间的距离逐渐变大时,由处理器901控制触摸显示屏905从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图17中示出的结构并不构成对终端900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,该计算机可读存储介质可以是上述实施例中的存储器中所包含的计算机可读存储介质;也可以是单独存在,未装配入终端中的计算机可读存储介质。该计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如图3至图15任一所述的在虚拟环境中建造建筑物的方法。
可选地,该计算机可读存储介质可以包括:只读存储器(Read Only Memory,ROM)、随机存取记忆体(Random Access Memory,RAM)、固态硬盘(Solid State Drives,SSD)或光盘等。其中,随机存取记忆体可以包括电阻式随机存取记忆体(Resistance Random Access Memory,ReRAM)和动态随机存取存储器(Dynamic Random Access Memory,DRAM)。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于 一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (20)

  1. 一种在虚拟环境中建造建筑物的方法,其特征在于,所述方法包括:
    显示所述应用程序的第一视角画面,所述第一视角画面是在虚拟环境中以虚拟对象的第一视角观察所述虚拟环境的画面,所述第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;
    接收所述建筑物摇杆控件上触发的触摸操作;
    基于所述触摸操作,将所述第一视角所在的第一观察方向上目标距离处确定为所述目标建筑物的目标建造位置;
    接收所述触摸操作对应的触摸释放操作;
    根据所述触摸释放操作在所述目标建造位置建造所述目标建筑物。
  2. 根据权利要求1所述的方法,其特征在于,所述基于所述触摸操作,将所述第一视角所在的第一观察方向上目标距离处确定为所述目标建筑物的目标建造位置之后,还包括:
    在所述目标建造位置以第一显示方式显示所述目标建筑物的虚拟模型;
    所述根据所述触摸释放操作在所述目标建造位置建造所述目标建筑物之后,还包括:
    在所述目标建造位置以第二显示方式显示所述目标建筑物的虚拟模型。
  3. 根据权利要求2所述的方法,其特征在于,所述在所述目标建造位置以第一显示方式显示所述目标建筑物的虚拟模型,包括:
    响应于所述目标建造位置不存在影响建造的物体,在所述目标建造位置以第一显示方式显示所述目标建筑物的虚拟模型。
  4. 根据权利要求1所述的方法,其特征在于,所述接收所述建筑物摇杆控件上触发的触摸操作之后,还包括:
    响应于所述触摸操作发生拖动,以所述虚拟对象为旋转中心,根据拖动距离从所述第一观察方向转动至第二观察方向;
    显示所述应用程序的第二视角画面,所述第二视角画面是在所述虚拟环境中以所述第二观察方向上的第二视角观察所述虚拟环境的画面;
    将所述第二观察方向上所述目标距离处确定为所述目标建筑物的目标建造位置。
  5. 根据权利要求4所述的方法,其特征在于,所述第二视角画面上还叠加显示有操作取消按钮控件;
    所述接收所述触摸操作对应的触摸释放操作之前,包括:
    接收所述操作取消按钮控件上触发的取消操作;
    根据所述取消操作重新显示所述第一视角画面。
  6. 根据权利要求1所述的方法,其特征在于,所述接收所述建筑物摇杆控件上触发的触摸操作之后,包括:
    在所述第一视角画面上叠加显示连续建造按钮控件;
    接收所述连续建造按钮控件上触发的连续建造操作;
    根据所述连续建造操作从当前时刻开始,每间隔n秒在所述目标建造位置自动建造一次所述目标建筑物。
  7. 根据权利要求6所述的方法,其特征在于,所述根据所述连续建造操作从当前时刻开始,每间隔n秒在所述目标建造位置自动建造一次所述目标建筑物,包括:
    在间隔n秒的时间内,响应于所述触摸操作发生拖动,根据所述拖动操作重新确定所述目标建造位置;
    每间隔n秒在重新确定的目标建造位置自动建造一次所述目标建造物。
  8. 根据权利要7所述的方法,其特征在于,所述每间隔n秒在重新确定的目标建造位置自动建造一次所述目标建造物之后,包括:
    接收所述触摸操作对应的所述触摸释放操作;
    根据所述触摸释放操作结束建造所述目标建筑物。
  9. 根据权利要求1至8任一所述的方法,其特征在于,所述第一视角画面上还叠加显示有建筑物菜单展开控件;
    所述显示所述应用程序的第一视角画面之后,包括:
    接收所述建筑物菜单展开控件上的展开操作;
    根据所述展开操作显示建筑物菜单,所述建筑物菜单中包括至少一种候选建筑物;
    接收对所述至少一种候选建筑物中的一个候选建筑物进行选择的选择操作;
    将被选择的候选建筑物确定为所述目标建筑物。
  10. 一种在虚拟环境中建造建筑物的装置,其特征在于,所述装置包括:
    显示模块,用于显示所述应用程序的第一视角画面,所述第一视角画面是在虚拟环境中以虚拟对象的第一视角观察所述虚拟环境的画面,所述第一视角画面上叠加显示有目标建筑物对应的建筑物摇杆控件;
    接收模块,用于接收所述建筑物摇杆控件上触发的触摸操作;
    确定模块,用于基于所述触摸操作,将所述第一视角所在的第一观察方向上目标距离处确定为所述目标建筑物的目标建造位置;
    所述接收模块,用于接收所述触摸操作对应的触摸释放操作;
    建造模块,用于根据所述触摸释放操作在所述目标建造位置建造所述目标建筑物。
  11. 根据权利要求10所述的装置,其特征在于,
    所述显示模块,用于基于所述触摸操作,将所述第一视角所在的第一观察方向上目标距离处确定为所述目标建筑物的目标建造位置之后,在所述目标建造位置以第一显示方式显示所述目标建筑物的虚拟模型;根据所述触摸释放操作在所述目标建造位置建造所述目标建筑物之后,在所述目标建造位置以第二显示方式显示所述目标建筑物的虚拟模型。
  12. 根据权利要求11所述的装置,其特征在于,
    所述显示模块,用于响应于所述目标建造位置不存在影响建造的物体,在所述目标建造位置以第一显示方式显示所述目标建筑物的虚拟模型。
  13. 根据权利要求10所述的装置,其特征在于,所述装置还包括:
    转动模块,用于响应于所述触摸操作发生拖动,以所述虚拟对象为旋转中心,根据拖动距离从所述第一观察方向转动至第二观察方向;
    所述显示模块,用于显示所述应用程序的第二视角画面,所述第二视角画面是在所述虚拟环境中以所述第二观察方向上的第二视角观察所述虚拟环境的画面;
    所述确定模块,用于将所述第二观察方向上所述目标距离处确定为所述目标建筑物的目标建造位置。
  14. 根据权利要求13所述的装置,其特征在于,所述第二视角画面上还叠加显示有操作取消按钮控件;
    所述接收模块,用于接收所述操作取消按钮控件上触发的取消操作;
    所述显示模块,用于根据所述取消操作重新显示所述第一视角画面。
  15. 根据权利要求10所述的装置,其特征在于,
    所述显示模块,用于在所述第一视角画面上叠加显示连续建造按钮控件;
    所述接收模块,用于接收所述连续建造按钮控件上触发的连续建造操作;
    所述建造模块,用于根据所述连续建造操作从当前时刻开始,每间隔n秒在所述目标建造位置自动建造一次所述目标建筑物。
  16. 根据权利要求15所述的装置,其特征在于,
    所述确定模块,用于在间隔n秒的时间内,响应于所述触摸操作发生拖动,根据所述拖动操作重新确定所述目标建造位置;
    所述建造模块,用于每间隔n秒在重新确定的目标建造位置自动建造一次所述目标建造物。
  17. 根据权利要16所述的装置,其特征在于,
    所述接收模块,用于接收所述触摸操作对应的所述触摸释放操作;
    所述建造模块,用于根据所述触摸释放操作结束建造所述目标建筑物。
  18. 根据权利要求10至17任一所述的装置,其特征在于,所述第一视角画面上还叠加显示有建筑物菜单展开控件;
    所述接收模块,用于接收所述建筑物菜单展开控件上的展开操作;
    所述显示模块,用于根据所述展开操作显示建筑物菜单,所述建筑物菜单中包括至少一种候选建筑物;
    所述接收模块,用于接收对所述至少一种候选建筑物中的一个候选建筑物进行选择的选择操作;
    所述确定模块,用于将被选择的候选建筑物确定为所述目标建筑物。
  19. 一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至9任一所述的在虚拟环境中建造建筑物的方法。
  20. 一种计算机可读存储介质,其特征在于,所述可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至9任一所述的在虚拟环境中建造建筑物的方法。
PCT/CN2020/072821 2019-01-30 2020-01-17 在虚拟环境中建造建筑物的方法、装置、设备及存储介质 WO2020156252A1 (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021521495A JP7224459B2 (ja) 2019-01-30 2020-01-17 仮想環境において建築物を建設する方法、装置、機器及びプログラム
US17/230,720 US11675488B2 (en) 2019-01-30 2021-04-14 Method and apparatus for constructing building in virtual environment, device, and storage medium
US18/135,691 US20230251771A1 (en) 2019-01-30 2023-04-17 Adding virtual object in virtual environment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910093429.2 2019-01-30
CN201910093429.2A CN109840043B (zh) 2019-01-30 2019-01-30 在虚拟环境中建造建筑物的方法、装置、设备及存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/230,720 Continuation US11675488B2 (en) 2019-01-30 2021-04-14 Method and apparatus for constructing building in virtual environment, device, and storage medium

Publications (1)

Publication Number Publication Date
WO2020156252A1 true WO2020156252A1 (zh) 2020-08-06

Family

ID=66884508

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/072821 WO2020156252A1 (zh) 2019-01-30 2020-01-17 在虚拟环境中建造建筑物的方法、装置、设备及存储介质

Country Status (4)

Country Link
US (2) US11675488B2 (zh)
JP (1) JP7224459B2 (zh)
CN (1) CN109840043B (zh)
WO (1) WO2020156252A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109840043B (zh) 2019-01-30 2021-08-10 腾讯科技(深圳)有限公司 在虚拟环境中建造建筑物的方法、装置、设备及存储介质
CN111481934B (zh) * 2020-04-09 2023-02-10 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质
CN113633991B (zh) * 2021-08-13 2023-11-03 腾讯科技(深圳)有限公司 虚拟技能的控制方法、装置、设备及计算机可读存储介质
CN113867407B (zh) * 2021-11-10 2024-04-09 广东电网能源发展有限公司 基于无人机的施工辅助方法、系统、智能设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150317030A1 (en) * 2009-08-18 2015-11-05 Canon Kabushiki Kaisha Display control apparatus and control method thereof
CN105760076A (zh) * 2016-02-03 2016-07-13 网易(杭州)网络有限公司 游戏控制方法及装置
CN106598465A (zh) * 2016-12-20 2017-04-26 上海逗屋网络科技有限公司 基于虚拟摇杆的控制方法、装置和设备
CN108499105A (zh) * 2018-04-16 2018-09-07 腾讯科技(深圳)有限公司 在虚拟环境中进行视角调整的方法、装置及存储介质
CN109840043A (zh) * 2019-01-30 2019-06-04 腾讯科技(深圳)有限公司 在虚拟环境中建造建筑物的方法、装置、设备及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248843A (ja) * 2002-12-24 2003-09-05 Fujitsu Ltd 仮想3次元空間内における物体編集制御方式
JP2005293474A (ja) * 2004-04-05 2005-10-20 Canon Inc 情報処理装置及びその制御方法及びプログラム及び記憶媒体
US7625287B2 (en) * 2005-10-05 2009-12-01 Nintendo Co., Ltd. Driving game steering wheel simulation method and apparatus
EP2327010A2 (en) * 2008-08-22 2011-06-01 Google, Inc. Navigation in a three dimensional environment on a mobile device
US9411509B2 (en) * 2010-12-29 2016-08-09 Microsoft Technology Licensing, Llc Virtual controller for touch display
JP2012168932A (ja) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
US9004997B1 (en) * 2014-03-12 2015-04-14 Wargaming.Net Llp Providing enhanced game mechanics
US20150324940A1 (en) * 2014-05-07 2015-11-12 Modular North America, LLC 3D Interactive Construction Estimating System
KR101650269B1 (ko) * 2015-03-12 2016-08-22 라인 가부시키가이샤 화면 제어를 위한 효율적인 인터페이스를 제공하는 시스템 및 방법
JP5838278B1 (ja) * 2015-06-12 2016-01-06 株式会社コロプラ コンピュータプログラム
US20170354887A1 (en) * 2016-06-08 2017-12-14 Bruce Bollermann Systems & methods for parachute flight simulation
JP6228267B2 (ja) * 2016-06-20 2017-11-08 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
US10515479B2 (en) * 2016-11-01 2019-12-24 Purdue Research Foundation Collaborative 3D modeling system
CN108905212B (zh) * 2017-03-27 2019-12-31 网易(杭州)网络有限公司 游戏画面的显示控制方法及装置、存储介质、电子设备
CN108355353B (zh) * 2017-12-29 2019-10-29 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN108245885B (zh) * 2017-12-29 2019-03-08 网易(杭州)网络有限公司 信息处理方法、装置、移动终端和存储介质
CN108379837A (zh) * 2018-02-01 2018-08-10 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
US11532141B1 (en) * 2018-05-25 2022-12-20 Strukshur Inc. AR/VR interface for client/contractor communication platform

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150317030A1 (en) * 2009-08-18 2015-11-05 Canon Kabushiki Kaisha Display control apparatus and control method thereof
CN105760076A (zh) * 2016-02-03 2016-07-13 网易(杭州)网络有限公司 游戏控制方法及装置
CN106598465A (zh) * 2016-12-20 2017-04-26 上海逗屋网络科技有限公司 基于虚拟摇杆的控制方法、装置和设备
CN108499105A (zh) * 2018-04-16 2018-09-07 腾讯科技(深圳)有限公司 在虚拟环境中进行视角调整的方法、装置及存储介质
CN109840043A (zh) * 2019-01-30 2019-06-04 腾讯科技(深圳)有限公司 在虚拟环境中建造建筑物的方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN109840043A (zh) 2019-06-04
JP7224459B2 (ja) 2023-02-17
US11675488B2 (en) 2023-06-13
US20210232299A1 (en) 2021-07-29
CN109840043B (zh) 2021-08-10
US20230251771A1 (en) 2023-08-10
JP2022505457A (ja) 2022-01-14

Similar Documents

Publication Publication Date Title
US11224810B2 (en) Method and terminal for displaying distance information in virtual scene
US11151773B2 (en) Method and apparatus for adjusting viewing angle in virtual environment, and readable storage medium
US11703993B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
WO2019153824A1 (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN108710525B (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
WO2020156252A1 (zh) 在虚拟环境中建造建筑物的方法、装置、设备及存储介质
US11878240B2 (en) Method, apparatus, device, and storage medium for perspective rotation
CN109917910B (zh) 线型技能的显示方法、装置、设备及存储介质
WO2020151594A1 (zh) 视角转动的方法、装置、设备及存储介质
TWI802978B (zh) 應用程式內的控制項位置調整方法及裝置、設備及存儲介質
WO2022227915A1 (zh) 显示位置标记的方法、装置、设备及存储介质
CN110743168A (zh) 虚拟场景中的虚拟对象控制方法、计算机设备及存储介质
WO2022237076A1 (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
TWI817208B (zh) 確定選中目標的方法及裝置、電腦設備、非臨時性電腦可讀存儲介質及電腦程式產品
JP7413563B2 (ja) 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20749499

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021521495

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20749499

Country of ref document: EP

Kind code of ref document: A1