CN108536295A - 虚拟场景中的对象控制方法、装置及计算机设备 - Google Patents

虚拟场景中的对象控制方法、装置及计算机设备 Download PDF

Info

Publication number
CN108536295A
CN108536295A CN201810276798.0A CN201810276798A CN108536295A CN 108536295 A CN108536295 A CN 108536295A CN 201810276798 A CN201810276798 A CN 201810276798A CN 108536295 A CN108536295 A CN 108536295A
Authority
CN
China
Prior art keywords
virtual objects
point
virtual
location
position point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810276798.0A
Other languages
English (en)
Other versions
CN108536295B (zh
Inventor
廖磊
王林
梁尚立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201810276798.0A priority Critical patent/CN108536295B/zh
Publication of CN108536295A publication Critical patent/CN108536295A/zh
Priority to PCT/CN2019/078862 priority patent/WO2019184782A1/zh
Priority to US16/906,575 priority patent/US11334214B2/en
Application granted granted Critical
Publication of CN108536295B publication Critical patent/CN108536295B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

本发明是关于一种虚拟场景中的对象控制方法、装置及计算机设备,涉及计算机应用技术领域。该方法包括:在虚拟场景中的导航面外的第一位置点生成第一虚拟对象;确定该第一虚拟对象在导航面内的第二位置点处的出场动作;控制该第一虚拟对象从该第一位置点移动至该第二位置点;控制该第一虚拟对象在该第二位置点处执行该出场动作。通过上述方案,在虚拟场景中,当需要刷新虚拟对象时,可以在导航面内的第一位置点处生成第一虚拟对象,并控制第一虚拟对象移动至导航面内的第二位置点,并在第二位置点处执行出场动作,从而提高虚拟对象的刷新效果。

Description

虚拟场景中的对象控制方法、装置及计算机设备
技术领域
本发明涉及计算机应用技术领域,特别涉及一种虚拟场景中的对象控制方法、装置及计算机设备。
背景技术
在很多构建虚拟场景的应用程序(比如虚拟现实应用程序、三维地图程序、军事仿真程序、第一人称射击游戏、多人在线战术竞技游戏等)中,刷新显示虚拟对象是常见的功能之一。
在相关技术中,构建虚拟场景的应用程序中预先配置好虚拟场景中的每个位置点以及在每个位置点生成的虚拟对象之间的对应关系,当虚拟场景中某个位置点需要刷新虚拟对象时,运行应用程序的终端可以在虚拟场景中该位置点处生成并显示对应的虚拟对象。
然而,相关技术中虚拟对象在对应的位置点生成后即刷新完成,虚拟对象的刷新过程较为突兀和生硬,影响虚拟对象控制时的显示效果较差。
发明内容
本发明实施例提供了一种虚拟场景中的对象控制方法、装置及计算机设备,可以用于解决相关技术中虚拟对象控制时的显示效果较差的问题,技术方案如下:
一方面,提供了一种虚拟场景中的对象控制方法,所述方法包括:
在虚拟场景中的第一位置点生成第一虚拟对象,所述第一位置点处于所述第一虚拟对象在所述虚拟场景中的导航面之外,所述导航面是所述第一虚拟对象在所述虚拟场景中向用户控制对象所在位置移动的寻路面;
确定所述第一虚拟对象在第二位置点处的出场动作,所述第二位置点处于所述导航面内;
控制所述第一虚拟对象从所述第一位置点移动至所述第二位置点;
控制所述第一虚拟对象在所述第二位置点处执行所述出场动作。
一方面,提供了一种虚拟场景中的对象控制装置,所述装置包括:
生成模块,用于在虚拟场景中的第一位置点生成第一虚拟对象,所述第一位置点处于所述第一虚拟对象在所述虚拟场景中的导航面之外,所述导航面是所述第一虚拟对象在所述虚拟场景中向用户控制对象所在位置移动的寻路面;
动作确定模块,用于确定所述第一虚拟对象在第二位置点处的出场动作,所述第二位置点处于所述导航面内;
第一控制模块,用于控制所述第一虚拟对象从所述第一位置点移动至所述第二位置点;
第二控制模块,用于控制所述第一虚拟对象在所述第二位置点处执行所述出场动作。
一方面,提供了一种计算机设备,所述计算机设备包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述虚拟场景中的对象控制方法。
一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述虚拟场景中的对象控制方法。
本发明提供的技术方案可以包括以下有益效果:
在虚拟场景中,当需要刷新虚拟对象时,可以在导航面之外的第一位置点处生成第一虚拟对象,并控制第一虚拟对象移动至导航面内的第二位置点,并在第二位置点处执行出场动作,使得第一虚拟对象的刷新方式更为自然,更具感染力,从而提高虚拟对象的刷新效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是本申请一个示例性的实施例提供的终端的结构示意图;
图2是本申请一个示例性实施例提供的虚拟场景的显示界面示意图;
图3是本申请一个示例性实施例提供的虚拟场景中的对象控制流程示意图;
图4是图3所示实施例涉及的一种虚拟对象生成过程中的显示示意图;
图5是本申请一个示例性实施例提供的一种虚拟场景中的对象控制方法的流程图;
图6是图5所示实施例涉及的一种虚拟对象生成位置点的示意图;
图7是图5所示实施例涉及的一种位置点之间的对应关系示意图;
图8是图5所示实施例涉及的一种虚拟对象的出场动作的配置文件示意图;
图9是图5所示实施例涉及的一种位置类型对应的出场动作设置示意图;
图10是图5所示实施例涉及的一种出场动作执行示意图;
图11是图5所示实施例涉及的另一种出场动作执行示意图;
图12是图5所示实施例涉及的又一种出场动作执行示意图;
图13是本申请一个示例性实施例提供的一种虚拟场景中的对象控制方法的流程图;
图14是本申请一个示例性的实施例提供的一种刷新流程示意图;
图15是本申请一示例性实施例提供的虚拟场景中的对象控制装置的结构方框图;
图16是本申请一示例性实施例提供的计算机设备的结构框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
虚拟场景是指用计算机生成的一种虚拟的场景环境,它能够提供一个多媒体的虚拟世界,用户可通过操作设备或操作界面对虚拟场景中可操作的虚拟对象进行控制,以虚拟对象的视角观察虚拟场景中的物体、人物、风景等,或通过虚拟对象和虚拟场景中的物体、人物、风景或者其它虚拟对象等进行互动,例如,通过操作一个虚拟士兵对目标敌军进行攻击等。
虚拟场景通常由终端等计算机设备中的应用程序生成基于终端中的硬件(比如屏幕)进行展示。该终端可以是智能手机、平板电脑或者电子书阅读器等移动终端;或者,该终端也可以是笔记本电脑或者固定式计算机的个人计算机设备。
请参考图1,其示出了本申请一个示例性的实施例提供的终端的结构示意图。如图1所示,该终端包括主板110、外部输出/输入设备120、存储器130、外部接口140、电容触控系统150以及电源160。
其中,主板110中集成有处理器和控制器等处理元件。
外部输出/输入设备120可以包括显示组件(比如显示屏)、声音播放组件(比如扬声器)、声音采集组件(比如麦克风)以及各类按键等。
存储器130中存储有程序代码和数据。
外部接口140可以包括耳机接口、充电接口以及数据接口等。
电容触控系统150可以集成在外部输出/输入设备120的显示组件或者按键中,电容触控系统150用于检测用户在显示组件或者按键上执行的触控操作。
电源160用于对终端中的其它各个部件进行供电。
在本申请实施例中,主板110中的处理器可以通过执行或者调用存储器中存储的程序代码和数据生成虚拟场景,并将生成的虚拟场景通过外部输出/输入设备120进行展示。在展示虚拟场景的过程中,可以通过电容触控系统150检测用户与虚拟场景进行交互时执行的触控操作。
其中,虚拟场景可以是三维的虚拟场景,或者,虚拟场景也可以是二维的虚拟场景。以虚拟场景是三维的虚拟场景为例,请参考图2,其示出了本申请一个示例性的实施例提供的虚拟场景的显示界面示意图。如图1所示,虚拟场景的显示界面200包括虚拟对象210、三维的虚拟场景的环境画面220、至少一组虚拟控制按钮230以及虚拟对象240。其中,虚拟对象210可以是用户控制对象,虚拟控制按钮230为可选的控制元素,即用户可通过虚拟控制按钮230操控虚拟对象210;而虚拟对象240可以是非用户控制对象,即虚拟对象240由应用程序自行控制,用户可以通过控制虚拟对象210与虚拟对象240进行交互,以间接触发虚拟对象240的动作。
在图2中,虚拟对象210与虚拟对象240是在三维的虚拟场景中的三维模型,在显示界面200中显示的三维的虚拟场景的环境画面为虚拟对象210的视角所观察到的物体,示例性的,如图2所示,在虚拟对象210的视角观察下,显示的三维虚拟场景的环境画面220为大地224、天空225、地平线223、小山221以及厂房222。
虚拟对象210可以在用户的控制下即时移动,比如,图2示出的虚拟控制按钮230是用于控制虚拟对象210移动的虚拟按钮,用户触控该虚拟控制按钮230时,虚拟对象210可以在虚拟场景中,向触控点相对于虚拟控制按钮230的中心的方向移动。
此外,在本申请中,虚拟对象240可以在虚拟场景中通过刷新进行显示。
请参考图3,其示出了本申请一个示例性的实施例提供的虚拟场景中的对象控制流程的示意图。如图3所示,运行上述虚拟场景对应的应用程序的终端(比如上述图1所示的终端),可以通过执行以下步骤来刷新显示第一虚拟对象。
步骤31,在虚拟场景中的第一位置点生成第一虚拟对象,该第一位置点处于该第一虚拟对象在该虚拟场景中的导航面之外,该导航面是该第一虚拟对象在该虚拟场景中向用户控制对象所在位置移动的寻路面。
比如,以游戏场景为例,假设刷新的第一虚拟对象是玩家需要击败的敌对目标,则导航面可以是怪物在场景区域中移动,追击玩家进行路线寻找和计算的平面或者曲面。
步骤32,确定该第一虚拟对象在第二位置点处的出场动作,该第二位置点处于导航面内。
其中,第一虚拟对象的出场动作,可以是预先配置的,与第一虚拟对象的生物特征以及第二位置点的地形特征相匹配的动作。
步骤33,控制该第一虚拟对象从该第一位置点移动至该第二位置点。
步骤34,控制该第一虚拟对象在该第二位置点处执行该出场动作。
在本申请实施例中,通过图3所示的方案,在虚拟场景中,需要刷新非用户控制的虚拟对象时,可以在第一虚拟对象的导航面之外的第一位置点处生成虚拟对象,并控制虚拟对象移动至导航面内的第二位置点,并在第二位置点处执行出场动作,使得虚拟对象的刷新方式更为自然,更具感染力。
比如,请参考图4,其示出了本申请实施例涉及的一种虚拟对象生成过程中的显示示意图。如图4所示,虚拟场景400中包含导航面之外的第一位置点410以及导航面内与第一位置点410相对应的第二位置点420,在刷新虚拟对象时,终端首先在第一位置点410处生成第一虚拟对象430,并控制第一虚拟对象430移动至第二位置点420,然后控制第一虚拟对象430在第二位置点处执行第一虚拟对象的出场动作。
其中,本申请提供的虚拟场景中的对象控制方法可以由终端独立实现,比如,当虚拟场景是由终端独立构建,且虚拟场景中的各个对象由终端独立控制时,该虚拟场景中的对象控制过程可以由终端独立控制。
比如,请参考图5,其示出了本申请一个示例性的实施例提供的一种虚拟场景中的对象控制方法的流程图,以该方法由终端独立实现为例,该虚拟场景中的对象控制方法可以包括如下几个步骤:
步骤501,获取虚拟场景中的第一位置点的位置信息以及第一虚拟对象的对象信息,该第一位置点处于第一虚拟对象在该虚拟场景中的导航面之外。
可选的,在虚拟场景中的第一位置点生成第一虚拟对象之前,终端可以确定与该虚拟场景相对应的第一虚拟对象;并确定与该第一虚拟对象的对象类型相对应的该第一位置点。
在本申请实施例中,可以预先在虚拟场景中配置若干个可以生成虚拟对象的位置点,并针对每个可以生成虚拟对象的位置点的地形特征,配置该位置点可以生成的虚拟对象的对象类型。其中,该对象类型可以指示虚拟对象的生物特征,比如,该对象类型可以包括爬行类、跳跃类、行走类以及飞行类等等。比如,请参考表1,其示例性的示出了一种用于生成虚拟对象的位置点与可生成的虚拟对象的对象类型之间的对应关系。
表1
如表1所示,虚拟场景对应的应用程序的开发人员预先配置虚拟场景中的位置点A处可以生成爬行类和行走类的虚拟对象,位置点B处可以生成跳跃类的虚拟对象,位置点C处可以生成飞行类的虚拟对象,位置点D处可以生成跳跃类和飞行类的虚拟对象等等。
在刷新虚拟对象时,终端可以首先确定当前虚拟场景中需要生成的第一虚拟对象的对象信息,比如第一虚拟对象的标识,以及第一虚拟对象的对象类型,然后,终端再根据需要生成的第一虚拟对象的对象类型以及预先配置的信息(比如表1所示的对应关系),确定虚拟场景中哪些位置点可以生成该对象类型对应的虚拟对象。
可选的,在确定与该虚拟对象的对象类型相对应的该第一位置点时,终端或者服务器可以获取第二虚拟对象在该虚拟场景中的位置,该第二虚拟对象是用户控制对象;根据该第二虚拟对象在该虚拟场景中的位置确定备选位置集,该备选位置集中包含至少一个位置点;在该备选位置集中确定与该虚拟对象的对象类型相对应的该第一位置点。
在实际应用中,一个虚拟场景中用于生成某种对象类型的虚拟对象的位置点可以有很多,为了能够达到较好的刷新效果,可以基于当前虚拟场景中的用户控制对象的位置来选择刷新虚拟对象的备选位置集,再从备选位置集中确定与第一虚拟对象的对象类型相对应的第一位置点。
可选的,在根据该第二虚拟对象在该虚拟场景中的位置确定备选位置集时,终端可以将该第二虚拟对象在该虚拟场景中的位置周围预设范围内,且用于生成虚拟对象的各个位置点添加入该备选位置集。
在本申请实施例中,终端可以将用户控制对象周围预设范围内的各个用于生成虚拟对象的位置点添加入备选位置集,比如,请参考图6,其示出了本申请实施例涉及的一种虚拟对象生成位置点的示意图。在图6所示的虚拟场景600中,虚拟对象610是用户控制对象(即上述第二虚拟对象),终端获取虚拟对象610在虚拟场景中位置后,确定虚拟对象610在虚拟场景中的位置周围预设范围内存在3个可以用于生成虚拟对象的位置点(即图6中的位置点622、位置点624以及位置点626),则终端将上述位置点622、位置点624以及位置点626添加入备选位置集,并从位置点622、位置点624以及位置点626中选择与待生成的第一虚拟对象的对象类型相匹配的位置点作为第一位置点,比如,假设上述位置点622对应的对象类型与第一虚拟对象的对象类型匹配,则终端将位置点622确定为第一位置点。
可选的,若备选位置集中与该第一虚拟对象的对象类型相对应的位置点包括两个或两个以上位置点,则在该备选位置集中确定与该第一虚拟对象的对象类型相对应的该第一位置点时,终端可以将所两个或两个以上位置点中,与该第二虚拟对象距离最近的位置点确定为该第一位置点;或者,终端也可以将所两个或两个以上位置点中,与该第二虚拟对象距离最远的位置点确定为该第一位置点;或者,终端也可以将所两个或两个以上位置点中随机一个位置点确定为该第一位置点。
比如,还是以图6为例,假设其中位置点622和位置点624对应的对象类型与第一虚拟对象的对象类型都匹配,则终端可以将其中距离虚拟对象610较近的位置点622确定为第一位置点,或者,终端也可以将其中距离虚拟对象610较远的位置点624确定为第一位置点,或者,终端也可以从位置点622和位置点624中随机选择一个位置点作为第一位置点。
可选的,在另一种可能的实现方式中,在虚拟场景中的第一位置点生成第一虚拟对象之前,终端还可以首先在该虚拟场景中确定该第一位置点;然后再确定与该第一位置点的位置类型相对应的第一虚拟对象。
与上述先确定第一虚拟对象,再确定该第一虚拟对象对应的第一位置点不同的是,在另一种可能的实现方式中,在刷新第一虚拟对象时,终端也可以先在虚拟场景中确定第一位置点,再确定与该第一位置点匹配的对象类型所对应的第一虚拟对象。
可选的,在该虚拟场景中确定该第一位置点时,终端或者服务器可以获取第二虚拟对象在该虚拟场景中的位置,该第二虚拟对象是用户控制对象;并根据该第二虚拟对象在该虚拟场景中的位置确定该第一位置点。
比如,终端可以选择用户控制对象周围预设范围内的各个可以生成虚拟对象的位置点中,距离该用户控制对象最近或最远的位置点作为第一位置点,或者,也可以随机选择该各个可以生成虚拟对象的位置点中的一个位置点作为该第一位置点。
比如,还是以图6为例,终端可以将位置点622、位置点624以及位置点626中距离虚拟对象610较近的位置点622确定为第一位置点,或者,终端也可以将距离虚拟对象610较远的位置点624确定为第一位置点,或者,终端也可以从位置点622、位置点624以及位置点626中随机选择一个位置点作为第一位置点。
在确定第一位置点之后,终端可以根据第一位置点查询预先配置的信息(比如表1),以确定该第一位置点可以生成的虚拟对象的对象类型,并根据该对象类型确定需要刷新的第一虚拟对象。
其中,当第一位置点可以生成的虚拟对象的对象类型包含两种或者两种以上的对象类型时,终端可以按照预设的优先级或者每种对象类型的刷新概率确定第一虚拟对象对应的对象类型,或者,终端也可以随机选择其中一种对象类型作为第一虚拟对象对应的对象类型。
类似的,确定的对象类型也可能对应两种或者两种以上虚拟对象,比如,爬行类的虚拟对象可以有蚂蚁形态的对象A和蜘蛛形态的对象B。在本申请实施例中,当确定的对象类型对应两种或者两种以上虚拟对象时,终端可以按照预设的优先级或者每种虚拟对象的刷新概率确定上述对象类型对应的两种或者两种以上虚拟对象中的一种虚拟对象作为该第一虚拟对象,或者,终端也可以随机选择其中一种虚拟对象作为第一虚拟对象。
终端在确定第一位置点和第一虚拟对象后,即可以获取第一位置点的位置信息(比如在虚拟场景中的相对坐标)以及第一虚拟对象的对象信息(比如第一虚拟对象的图形数据)。
步骤502,在虚拟场景中的第一位置点生成该第一虚拟对象。
在获取到虚拟场景中的第一位置点的位置信息以及第一虚拟对象的对象信息后,终端即可以在虚拟场景中的第一位置点生成该第一虚拟对象,并将该第一虚拟对象显示在虚拟场景中的第一位置点处。
步骤503,确定该第一虚拟对象在第二位置点处的出场动作,该第二位置点是第一虚拟对象在该虚拟场景中的导航面内的位置点。
在本申请实施例中,每一个用于生成虚拟对象的位置点还对应有各自的用于生成的虚拟对象执行出场动作的位置点,其中,用于生成虚拟对象的位置点以及用于虚拟对象执行出场动作的位置点可以是一一对应关系,或者,也可以是一对多或者多对多的关系。也就是说,一个用于生成虚拟对象的位置点可以对应一组用于生成的虚拟对象执行出场动作的位置点,或者,一个用于生成虚拟对象的位置点可以对应多组用于生成的虚拟对象执行出场动作的位置点,或者,多个用于生成虚拟对象的位置点可以对应同一组用于生成的虚拟对象执行出场动作的位置点。可选的,在某些情况下,用于生成虚拟对象的位置点与其对应的用于生成的虚拟对象执行出场动作的位置点也可以是同一个位置点。
其中,一组用于生成的虚拟对象执行出场动作的位置点可以只包含一个位置点,或者,一组用于生成的虚拟对象执行出场动作的位置点也可以包含两个或者两个以上的位置点。
比如,以一个用于生成虚拟对象的位置点对应一组用于生成的虚拟对象执行出场动作的位置点为例,请参考图7,其示出了本申请实施例涉及的一种位置点之间的对应关系示意图。如图7所示,在虚拟场景700中,预先设置有用于生成虚拟对象的位置点(即图7中的位置点710、位置点720以及位置点730),其中,位置点710对应的用于虚拟对象执行出场动作的一组位置点包含两个位置点(即图7中的位置点742和位置点744),位置点720对应的用于虚拟对象执行出场动作的一组位置点包含单个位置点750,而位置点730对应的用于虚拟对象执行出场动作的一组位置点与位置点730是同一个位置点。
可选的,在本申请实施例中,不同的用于生成的虚拟对象执行出场动作的位置点,也可以对应不同的对象类型的虚拟对象。当上述第一位置点对应有关多组用于生成的虚拟对象执行出场动作的位置点时,终端可以根据第一虚拟对象的对象类型,从第一位置点对应的多组用于生成的虚拟对象执行出场动作的位置点中,确定出与该第一虚拟对象的对象类型相匹配的一组位置点作为第二位置点。当第一位置点对应的多组用于生成的虚拟对象执行出场动作的位置点中,与该第一虚拟对象的对象类型相匹配的位置点有两组或者两组以上时,终端可以根据该两组或者两组以上位置点各自的优先级或者刷新概率,从该两组或者两组以上位置点中确定一组位置点作为第二位置点;或者,当第一位置点对应的多组用于生成的虚拟对象执行出场动作的位置点中,与该第一虚拟对象的对象类型相匹配的位置点有两组或者两组以上时,终端可以随机选择该两组或者两组以上位置点中的一组位置点作为第二位置点。
可选的,在确定该第一虚拟对象在第二位置点处的出场动作时,终端可以根据该第一虚拟对象的对象类型,以及该第二位置点的位置类型,确定该第一虚拟对象在第二位置点处的出场动作。
在本申请实施例中,可以预先为每一种虚拟对象设计符合其生物特征的出场动作,每种出场动作可以匹配各自的位置类型,比如,当虚拟对象是爬行类生物形态的对象时,为该虚拟对象预先设计的出场动作可以包括爬上、爬下、从地底爬出等等。其中,爬上或者爬下的出场动作可以对应陡坡或者墙面的位置类型,从地底爬出的出场动作可以对应水平地面的位置类型等。
比如,请参考图8,其示出了本申请实施例涉及的一种虚拟对象的出场动作的配置文件示意图。如图8所示,虚拟对象800为蜘蛛形态的虚拟对象,结合该虚拟对象800的生物特征,开发人员可以预先设置与蜘蛛形态相匹配的7套出场动作,分别为:
1)高处爬下(普通高度),对应动作资源文件xxxxx_Climb;
2)高处爬下(较高高度),对应动作资源文件xxxxx_HighClimb;
3)高处爬下(较低高度),对应动作资源文件xxxxx_LowClimb;
4)高处爬下(中等高度1),对应动作资源文件xxxxx_MidClimb01;
5)高处爬下(中等高度2),对应动作资源文件xxxxx_MidClimb02;
6)地底爬出_1,对应动作资源文件xxxxx_DownS;
7)地底爬出_2,对应动作资源文件xxxxx_DownT。
在本申请实施例中,对于一种虚拟对象来说,该虚拟对象的多套出场动作可以分别对应不同的位置点的位置类型,其中,出场动作与位置类型之间的对应关系可以由开发人员预先设置。
比如,请参考图9,其示出了本申请实施例涉及的一种位置类型对应的出场动作设置示意图。如图9所示,开发人员可以预先设置6种出场动作类型,包括如下:
1)正常跑出(Nomal);
2)跳下(JumpDown);
3)翻越(ClimbOver);
4)爬下(ClimbDown);
5)跑出(WalkThrough);
6)飞行(FlyAlong)。
对于虚拟场景900中某一组用于虚拟对象执行出场动作的位置点910,该组位置点910包含分别位于窗口和地面的两个位置点(图9中示出为位置点920和位置点930),开发人员可以设置该位置点910对应的出场动作类型为爬下,该出场动作类型可以对应图8中各种从高处爬下的出场动作。
在确定第一虚拟对象在第二位置点处的出场动作时,终端可以结合虚拟对象的对象类型,以及第二位置点的位置类型,选择匹配的出场动作。比如,以虚拟对象是爬行类生物形态的对象,第二位置点是水平地面时,终端或者服务器可以确定该虚拟对象的出场动作是从地底爬出。
步骤504,控制该第一虚拟对象从该第一位置点移动至该第二位置点。
在确定出场动作后,终端即可以控制该第一虚拟对象从第一位置点移动至第二位置点。
可选的,在控制该第一虚拟对象从该第一位置点移动至该第二位置点时,终端可以根据该虚拟对象的对象类型,以及该第一位置点到该第二位置点之间的地形类型,确定该第一虚拟对象从该第一位置点移动至该第二位置点的第一移动路径以及移动方式;并根据该第一移动路径和该移动方式,控制该第一虚拟对象从该第一位置点移动至该第二位置点。
步骤505,控制该第一虚拟对象在该第二位置点处执行该出场动作。
在控制该第一虚拟对象从该第一位置点移动至该第二位置点后,终端即可以控制该第一虚拟对象在该第二位置点处执行确定的出场动作。
比如,请参考图10,其示出了本申请实施例涉及的一种出场动作执行示意图。如图10所示,在虚拟场景1000中,终端在第一位置点1010处生成虚拟对象1020,且第二位置点与第一位置点1010为同一位置点,终端确定该虚拟对象1020的出场动作为地底爬出。在生成虚拟对象1020后,该虚拟对象1020处于第一位置点1010处的地下,此时,终端控制虚拟对象1020从地底爬出,且虚拟对象1020从地底爬出过程的画面变化如图10所示。
可选的,若该第二位置点包括至少两个位置点,且该至少两个位置点中包括起始点和结束点;则在控制该第一虚拟对象在该第二位置点处执行该出场动作时,终端可以根据该出场动作的动作类型确定从该起始点到该结束点的第二移动路径,该第二移动路径包含该至少两个位置点;并控制该第一虚拟对象沿着该第二移动路径执行该出场动作。
比如,请参考图11,其示出了本申请实施例涉及的另一种出场动作执行示意图。如图11所示,在虚拟场景1100中,终端在第一位置点1110(图11中的窗台位置)处生成虚拟对象1120,且第二位置点包含位置点1130a和1130b,位置点1130a高于位置点1130b,终端确定该虚拟对象1120的出场动作为从高处爬下。在生成虚拟对象1120后,该虚拟对象1120处于第一位置点1110处,此时,终端控制虚拟对象1120从第一位置点1110处爬行至位置点1130a,并从位置点1130a按照生成的路径爬行至位置点1130b。
或者,请参考图12,其示出了本申请实施例涉及的又一种出场动作执行示意图。如图12所示,在虚拟场景1200中,终端在第一位置点1210(图12中的屋顶位置)处生成虚拟对象1220,且第二位置点包含位置点1230a和1230b,位置点1230a高于位置点1230b,终端确定该虚拟对象1220的出场动作为从高处跳下。在生成虚拟对象1220后,该虚拟对象1220处于第一位置点1210处,此时,终端控制虚拟对象1220从第一位置点1210处行走至位置点1230a,并从位置点1230a跳下至位置点1230b。
可选的,该第一虚拟对象是非用户控制对象。
综上所述,本申请实施例所示的方案,在虚拟场景中,当需要刷新虚拟对象时,可以在第一位置点处生成第一虚拟对象,并控制第一虚拟对象移动至与该第一位置点相对应的第二位置点,并在第二位置点处执行出场动作,使得第一虚拟对象的刷新方式更为自然,更具感染力,从而提高虚拟对象的刷新效果。
此外,本申请实施例所示的方案,可以结合第二位置点的位置类型以及第一虚拟对象的对象类型确定出场动作,使得第一虚拟对象的出场动作能够与出场的位置和虚拟对象的生物特征相匹配,从而进一步提高虚拟对象的刷新效果。
其中,本申请提供的虚拟场景中的对象控制方法也可以由终端和服务器配合交互实现,比如,当虚拟场景是由终端构建,且虚拟场景中的各个对象由终端和服务器进行交互以实现控制时,该虚拟场景中的对象控制过程可以由终端和服务器交互配合进行控制。
比如,请参考图13,其示出了本申请一个示例性的实施例提供的一种虚拟场景中的对象控制方法的流程图,以该方法由终端和服务器实现为例,该虚拟场景中的对象控制方法可以包括如下几个步骤:
步骤1301,服务器确定虚拟场景中的第一虚拟对象,以及处于该第一虚拟对象在该虚拟场景中的导航面之外的第一位置点。
其中,服务器确定第一位置点以及第一虚拟对象的步骤与上述图5所示实施例中终端确定第一位置点以及第一虚拟对象的步骤(即步骤501下的描述)类似,此处不再赘述。
步骤1302,服务器向终端发送刷新指示信息,该刷新指示信息用于指示该第一位置点和该第一虚拟对象,终端接收该刷新指示信息。
在本申请实施例中,服务器确定第一位置点以及第一虚拟对象后,向终端发送用于指示该第一位置点和第一虚拟对象的刷新指示信息。
步骤1303,终端根据该刷新指示信息获取虚拟场景中的第一位置点的位置信息以及第一虚拟对象的对象信息。
终端接收到刷新指示信息后,可以从本地数据库中查询该第一位置点的位置信息和第一虚拟对象的对象信息。
步骤1304,终端在虚拟场景中的第一位置点生成该第一虚拟对象。
在获取到虚拟场景中的第一位置点的位置信息以及第一虚拟对象的对象信息后,终端即可以在虚拟场景中的第一位置点生成该第一虚拟对象,并将该第一虚拟对象显示在虚拟场景中的第一位置点处。
步骤1305,服务器确定该第一虚拟对象在第二位置点处的出场动作,该第二位置点是该导航面内的位置点。
其中,服务器确定第一虚拟对象在第二位置点处的出场动作的步骤与上述图5所示实施例中终端确定第一虚拟对象在第二位置点处的出场动作的步骤(即步骤503下的描述)类似,此处不再赘述。
步骤1306,服务器向终端发送动作指示信息,该动作指示信息用于指示第一虚拟对象在第二位置点处的出场动作,终端接收该动作指示信息。
在本申请实施例中,服务器确定第一虚拟对象在第二位置点处的出场动作后,通过动作指示信息将该出场动作指示给终端。
需要说明的是,上述步骤1305至步骤1306与上述步骤1303至步骤1304之间可以并行执行,也可以串行执行。
步骤1307,终端控制该第一虚拟对象从该第一位置点移动至该第二位置点。
步骤1308,终端控制该第一虚拟对象在该第二位置点处执行该出场动作。
其中,上述步骤1307和步骤1308的具体实现过程可以参考图5所示实施例中的步骤504和步骤505下的描述,此处不再赘述。
综上所述,本申请实施例所示的方案,在虚拟场景中,当需要刷新虚拟对象时,可以在导航面之外的第一位置点处生成第一虚拟对象,并控制第一虚拟对象移动至导航面内与该第一位置点相对应的第二位置点,并在第二位置点处执行出场动作,使得第一虚拟对象的刷新方式更为自然,更具感染力,从而提高虚拟对象的刷新效果。
此外,本申请实施例所示的方案,可以结合第二位置点的位置类型以及第一虚拟对象的对象类型确定出场动作,使得第一虚拟对象的出场动作能够与出场的位置和虚拟对象的生物特征相匹配,从而进一步提高虚拟对象的刷新效果。
以上述方案应用于在游戏场景中刷新NPC(Non-Player Character,非玩家角色)为例,通过上述方案,可以根据各类NPC的生物特征制作他们特别的出场方式(即出场动作),然后参考现实中生物的习性和行为特征对场景进行改造,将设计完成的动物行为合入场景中进行匹配刷新,带来更有感染力的NPC出场表现。
具体的,请参考图14,其示出了本申请一个示例性的实施例提供的一种刷新流程示意图。如图14所示,游戏开发者可以根据NPC的生物特征对其制作N套出场动作,包括“高处出场”“翻墙出场”“地下爬出”等等,出场时根据出场点(即上述第一位置点)的情况选择出场动作。在游戏场景内,可以根据场景情况配置“NPC出场点”,“关联目标点”(即上述第二位置点,对应有“关联目标点类型,比如高处、地下、墙后等”),当某一NPC出场点激活后,终端可以读取需要出场的NPC类型,并在该NPC出场点生成对应的NPC,该NPC在该出场点出场后,会移动至对应的目标点位置,终端可以读取目标点位置的类型,并结合NPC类型和目标点位置类型确定该NPC对应的出场动作,并控制该NPC在目标点位置执行该出场动作。
图15是根据一示例性实施例示出的一种虚拟场景中的对象控制装置的结构方框图。该虚拟场景中的对象控制装置可以用于终端中,以执行图3、图5或图13任一实施例所示的方法中,由终端执行的全部或者部分步骤。该虚拟场景中的对象控制装置可以包括:
生成模块1501,用于在虚拟场景中的第一位置点生成第一虚拟对象,所述第一位置点处于所述第一虚拟对象在所述虚拟场景中的导航面之外,所述导航面是所述第一虚拟对象在所述虚拟场景中向用户控制对象所在位置移动的寻路面;
动作确定模块1502,用于确定所述第一虚拟对象在第二位置点处的出场动作,所述第二位置点处于所述导航面内;
第一控制模块1503,用于控制所述第一虚拟对象从所述第一位置点移动至所述第二位置点;
第二控制模块1504,用于控制所述第一虚拟对象在所述第二位置点处执行所述出场动作。
可选的,该装置还包括:
第一对象确定模块,用于在生成模块1501在虚拟场景中的第一位置点生成第一虚拟对象之前,确定与所述虚拟场景相对应的所述第一虚拟对象;
第一位置点确定模块,用于确定与所述第一虚拟对象的对象类型相对应的所述第一位置点。
可选的,所述位置点确定模块,具体用于,
获取第二虚拟对象在所述虚拟场景中的位置,所述第二虚拟对象是用户控制对象;
根据所述第二虚拟对象在所述虚拟场景中的位置确定备选位置集,所述备选位置集中包含至少一个位置点;
在所述备选位置集中确定与所述第一虚拟对象的对象类型相对应的所述第一位置点。
可选的,在根据所述第二虚拟对象在所述虚拟场景中的位置确定备选位置集时,所述位置点确定模块,具体用于,将所述第二虚拟对象在所述虚拟场景中的位置周围预设范围内,且用于生成虚拟对象的各个位置点添加入所述备选位置集。
可选的,若所述备选位置集中与所述第一虚拟对象的对象类型相对应的位置点包括两个或两个以上位置点,则在所述备选位置集中确定与所述第一虚拟对象的对象类型相对应的所述第一位置点时,所述位置点确定模块,具体用于,
将所两个或两个以上位置点中,与所述第二虚拟对象距离最近的位置点确定为所述第一位置点;
将所两个或两个以上位置点中,与所述第二虚拟对象距离最远的位置点确定为所述第一位置点;
或者,将所两个或两个以上位置点中随机一个位置点确定为所述第一位置点。
可选的,该装置还包括:
第二位置点确定模块,用于在生成模块1501在虚拟场景中的第一位置点生成第一虚拟对象之前,在所述虚拟场景中确定所述第一位置点;
第二对象确定模块,用于确定与所述第一位置点的位置类型相对应的所述第一虚拟对象。
可选的,第二位置点确定模块,具体用于,
获取第二虚拟对象在所述虚拟场景中的位置,所述第二虚拟对象是用户控制对象;
根据所述第二虚拟对象在所述虚拟场景中的位置确定所述第一位置点。
可选的,该装置还包括:
第一接收模块,用于在生成模块1501在虚拟场景中的第一位置点生成第一虚拟对象之前,接收服务器发送的刷新指示信息,所述刷新指示信息用于指示所述第一位置点和所述第一虚拟对象。
可选的,所述动作确定模块1502,具体用于根据所述第一虚拟对象的对象类型,以及所述第二位置点的位置类型,确定所述第一虚拟对象在第二位置点处的出场动作。
可选的,所述动作确定模块1502,具体用于接收服务器发送的动作指示信息,所述动作指示信息用于指示所述第一虚拟对象在第二位置点处的出场动作。
可选的,所述第一控制模块1503,具体用于,
根据所述第一虚拟对象的对象类型,以及所述第一位置点到所述第二位置点之间的地形类型,确定所述第一虚拟对象从所述第一位置点移动至所述第二位置点的第一移动路径以及移动方式;
根据所述第一移动路径和所述移动方式,控制所述第一虚拟对象从所述第一位置点移动至所述第二位置点。
可选的,所述第二位置点包括至少两个位置点,且所述至少两个位置点中包括起始点和结束点;所述第二控制模块1504,具体用于,
根据所述出场动作的动作类型确定从所述起始点到所述结束点的第二移动路径,所述第二移动路径包含所述至少两个位置点;
控制所述第一虚拟对象沿着所述第二移动路径执行所述出场动作。
需要说明的是,本申请上述各个实施例均以第一位置点处于第一虚拟对象在虚拟场景中的导航面之外为例进行说明,在实际应用中,第一位置点也可以处于第一虚拟对象在虚拟场景中的导航面之内。当第一位置点处于第一虚拟对象在虚拟场景中的导航面之内时,控制第一虚拟对象在虚拟场景中出场的方式与上述各个实施例公开的方案类似,此处不再赘述。
图16是根据一示例性实施例示出的计算机设备1600的结构框图。该计算机设备1600可以是用户终端,比如智能手机、平板电脑、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。计算机设备1600还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,计算机设备1600包括有:处理器1601和存储器1602。
处理器1601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1601可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1601所执行以实现本申请中方法实施例提供的虚拟场景中的对象控制方法。
在一些实施例中,计算机设备1600还可选包括有:外围设备接口1603和至少一个外围设备。处理器1601、存储器1602和外围设备接口1603之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1603相连。具体地,外围设备包括:射频电路1604、触摸显示屏1605、摄像头1606、音频电路1607、定位组件1608和电源1609中的至少一种。
外围设备接口1603可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1601和存储器1602。在一些实施例中,处理器1601、存储器1602和外围设备接口1603被集成在同一芯片或电路板上;在一些其他实施例中,处理器1601、存储器1602和外围设备接口1603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1604包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1605是触摸显示屏时,显示屏1605还具有采集在显示屏1605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1601进行处理。此时,显示屏1605还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1605可以为一个,设置计算机设备1600的前面板;在另一些实施例中,显示屏1605可以为至少两个,分别设置在计算机设备1600的不同表面或呈折叠设计;在再一些实施例中,显示屏1605可以是柔性显示屏,设置在计算机设备1600的弯曲表面上或折叠面上。甚至,显示屏1605还可以设置成非矩形的不规则图形,也即异形屏。显示屏1605可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(OrganicLight-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1606用于采集图像或视频。可选地,摄像头组件1606包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1601进行处理,或者输入至射频电路1604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在计算机设备1600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1601或射频电路1604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1607还可以包括耳机插孔。
定位组件1608用于定位计算机设备1600的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件1608可以是基于美国的GPS(Global Positioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1609用于为计算机设备1600中的各个组件进行供电。电源1609可以是交流电、直流电、一次性电池或可充电电池。当电源1609包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,计算机设备1600还包括有一个或多个传感器1610。该一个或多个传感器1610包括但不限于:加速度传感器1611、陀螺仪传感器1612、压力传感器1613、指纹传感器1614、光学传感器1615以及接近传感器1616。
加速度传感器1611可以检测以计算机设备1600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1611可以用于检测重力加速度在三个坐标轴上的分量。处理器1601可以根据加速度传感器1611采集的重力加速度信号,控制触摸显示屏1605以横向视图或纵向视图进行用户界面的显示。加速度传感器1611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1612可以检测计算机设备1600的机体方向及转动角度,陀螺仪传感器1612可以与加速度传感器1611协同采集用户对计算机设备1600的3D动作。处理器1601根据陀螺仪传感器1612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1613可以设置在计算机设备1600的侧边框和/或触摸显示屏1605的下层。当压力传感器1613设置在计算机设备1600的侧边框时,可以检测用户对计算机设备1600的握持信号,由处理器1601根据压力传感器1613采集的握持信号进行左右手识别或快捷操作。当压力传感器1613设置在触摸显示屏1605的下层时,由处理器1601根据用户对触摸显示屏1605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1614用于采集用户的指纹,由处理器1601根据指纹传感器1614采集到的指纹识别用户的身份,或者,由指纹传感器1614根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1614可以被设置计算机设备1600的正面、背面或侧面。当计算机设备1600上设置有物理按键或厂商Logo时,指纹传感器1614可以与物理按键或厂商Logo集成在一起。
光学传感器1615用于采集环境光强度。在一个实施例中,处理器1601可以根据光学传感器1615采集的环境光强度,控制触摸显示屏1605的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1605的显示亮度;当环境光强度较低时,调低触摸显示屏1605的显示亮度。在另一个实施例中,处理器1601还可以根据光学传感器1615采集的环境光强度,动态调整摄像头组件1606的拍摄参数。
接近传感器1616,也称距离传感器,通常设置在计算机设备1600的前面板。接近传感器1616用于采集用户与计算机设备1600的正面之间的距离。在一个实施例中,当接近传感器1616检测到用户与计算机设备1600的正面之间的距离逐渐变小时,由处理器1601控制触摸显示屏1605从亮屏状态切换为息屏状态;当接近传感器1616检测到用户与计算机设备1600的正面之间的距离逐渐变大时,由处理器1601控制触摸显示屏1605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图16中示出的结构并不构成对计算机设备1600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在一示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括至少一条指令、至少一段程序、代码集或指令集的存储器,上述至少一条指令、至少一段程序、代码集或指令集可由处理器执行以完成上述图3、图5或图13任一实施例所示的方法的全部或者部分步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (15)

1.一种虚拟场景中的对象控制方法,其特征在于,所述方法包括:
在虚拟场景中的第一位置点生成第一虚拟对象,所述第一位置点处于所述第一虚拟对象在所述虚拟场景中的导航面之外,所述导航面是所述第一虚拟对象在所述虚拟场景中向用户控制对象所在位置移动的寻路面;
确定所述第一虚拟对象在第二位置点处的出场动作,所述第二位置点处于所述导航面内;
控制所述第一虚拟对象从所述第一位置点移动至所述第二位置点;
控制所述第一虚拟对象在所述第二位置点处执行所述出场动作。
2.根据权利要求1所述的方法,其特征在于,所述在虚拟场景中的第一位置点生成第一虚拟对象之前,还包括:
确定与所述虚拟场景相对应的所述第一虚拟对象;
确定与所述第一虚拟对象的对象类型相对应的所述第一位置点。
3.根据权利要求2所述的方法,其特征在于,所述确定与所述第一虚拟对象的对象类型相对应的所述第一位置点,包括:
获取第二虚拟对象在所述虚拟场景中的位置,所述第二虚拟对象是用户控制对象;
根据所述第二虚拟对象在所述虚拟场景中的位置确定备选位置集,所述备选位置集中包含至少一个位置点;
在所述备选位置集中确定与所述第一虚拟对象的对象类型相对应的所述第一位置点。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第二虚拟对象在所述虚拟场景中的位置确定备选位置集,包括:
将所述第二虚拟对象在所述虚拟场景中的位置周围预设范围内,且用于生成虚拟对象的各个位置点添加入所述备选位置集。
5.根据权利要求3所述的方法,其特征在于,当所述备选位置集中与所述第一虚拟对象的对象类型相对应的位置点包括两个或两个以上位置点时,所述在所述备选位置集中确定与所述第一虚拟对象的对象类型相对应的所述第一位置点,包括:
将所两个或两个以上位置点中,与所述第二虚拟对象距离最近的位置点确定为所述第一位置点;
将所两个或两个以上位置点中,与所述第二虚拟对象距离最远的位置点确定为所述第一位置点;
或者,将所两个或两个以上位置点中随机一个位置点确定为所述第一位置点。
6.根据权利要求1所述的方法,其特征在于,所述在虚拟场景中的第一位置点生成第一虚拟对象之前,还包括:
在所述虚拟场景中确定所述第一位置点;
确定与所述第一位置点的位置类型相对应的所述第一虚拟对象。
7.根据权利要求6所述的方法,其特征在于,所述在所述虚拟场景中确定所述第一位置点,包括:
获取第二虚拟对象在所述虚拟场景中的位置,所述第二虚拟对象是用户控制对象;
根据所述第二虚拟对象在所述虚拟场景中的位置确定所述第一位置点。
8.根据权利要求1所述的方法,其特征在于,所述在虚拟场景中的第一位置点生成第一虚拟对象之前,还包括:
接收服务器发送的刷新指示信息,所述刷新指示信息用于指示所述第一位置点和所述第一虚拟对象。
9.根据权利要求1所述的方法,其特征在于,所述确定所述第一虚拟对象在第二位置点处的出场动作,包括:
根据所述第一虚拟对象的对象类型,以及所述第二位置点的位置类型,确定所述第一虚拟对象在第二位置点处的出场动作。
10.根据权利要求1所述的方法,其特征在于,所述确定所述第一虚拟对象在第二位置点处的出场动作,包括:
接收服务器发送的动作指示信息,所述动作指示信息用于指示所述第一虚拟对象在第二位置点处的出场动作。
11.根据权利要求1所述的方法,其特征在于,所述控制所述第一虚拟对象从所述第一位置点移动至所述第二位置点,包括:
根据所述第一虚拟对象的对象类型,以及所述第一位置点到所述第二位置点之间的地形类型,确定所述第一虚拟对象从所述第一位置点移动至所述第二位置点的第一移动路径以及移动方式;
根据所述第一移动路径和所述移动方式,控制所述第一虚拟对象从所述第一位置点移动至所述第二位置点。
12.根据权利要求1所述的方法,其特征在于,所述第二位置点包括至少两个位置点,且所述至少两个位置点中包括起始点和结束点;所述控制所述第一虚拟对象在所述第二位置点处执行所述出场动作,包括:
根据所述出场动作的动作类型确定从所述起始点到所述结束点的第二移动路径,所述第二移动路径包含所述至少两个位置点;
控制所述第一虚拟对象沿着所述第二移动路径执行所述出场动作。
13.一种虚拟场景中的对象控制装置,其特征在于,所述装置包括:
生成模块,用于在虚拟场景中的第一位置点生成第一虚拟对象,所述第一位置点处于所述第一虚拟对象在所述虚拟场景中的导航面之外,所述导航面是所述第一虚拟对象在所述虚拟场景中向用户控制对象所在位置移动的寻路面;
动作确定模块,用于确定所述第一虚拟对象在第二位置点处的出场动作,所述第二位置点处于所述导航面内;
第一控制模块,用于控制所述第一虚拟对象从所述第一位置点移动至所述第二位置点;
第二控制模块,用于控制所述第一虚拟对象在所述第二位置点处执行所述出场动作。
14.一种计算机设备,其特征在于,所述计算机设备包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至12任一所述的虚拟场景中的对象控制方法。
15.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至12任一所述的虚拟场景中的对象控制方法。
CN201810276798.0A 2018-03-30 2018-03-30 虚拟场景中的对象控制方法、装置及计算机设备 Active CN108536295B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201810276798.0A CN108536295B (zh) 2018-03-30 2018-03-30 虚拟场景中的对象控制方法、装置及计算机设备
PCT/CN2019/078862 WO2019184782A1 (zh) 2018-03-30 2019-03-20 虚拟场景中的对象控制方法、装置及计算机设备
US16/906,575 US11334214B2 (en) 2018-03-30 2020-06-19 Method and apparatus for controlling object in virtual scene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810276798.0A CN108536295B (zh) 2018-03-30 2018-03-30 虚拟场景中的对象控制方法、装置及计算机设备

Publications (2)

Publication Number Publication Date
CN108536295A true CN108536295A (zh) 2018-09-14
CN108536295B CN108536295B (zh) 2021-08-10

Family

ID=63481891

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810276798.0A Active CN108536295B (zh) 2018-03-30 2018-03-30 虚拟场景中的对象控制方法、装置及计算机设备

Country Status (3)

Country Link
US (1) US11334214B2 (zh)
CN (1) CN108536295B (zh)
WO (1) WO2019184782A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019184782A1 (zh) * 2018-03-30 2019-10-03 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置及计算机设备
CN114509720A (zh) * 2022-01-18 2022-05-17 国网河北省电力有限公司信息通信分公司 一种电网设备室内定位方法、装置及终端设备

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11107184B2 (en) * 2019-09-17 2021-08-31 Adobe Inc. Virtual object translation
CN111659122B (zh) * 2020-07-09 2023-09-22 腾讯科技(深圳)有限公司 虚拟资源显示方法、装置、电子设备及存储介质
CN113101669A (zh) * 2021-04-20 2021-07-13 网易(杭州)网络有限公司 游戏中虚拟对象的刷新方法、刷新装置、设备和介质
CN116764215A (zh) * 2022-03-09 2023-09-19 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备、存储介质及程序产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1279798A (zh) * 1997-11-25 2001-01-10 世雅企业股份有限公司 图象生成装置
CN1823352A (zh) * 2003-07-22 2006-08-23 安迪克斯技术有限公司 用于控制虚拟环境的装置
CN101668571A (zh) * 2007-12-21 2010-03-10 科乐美数码娱乐株式会社 游戏装置、游戏处理方法、信息记录介质及程序
JP2010068872A (ja) * 2008-09-16 2010-04-02 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
CN107168530A (zh) * 2017-04-26 2017-09-15 腾讯科技(深圳)有限公司 虚拟场景中的对象处理方法和装置
CN107583271A (zh) * 2017-08-22 2018-01-16 网易(杭州)网络有限公司 在游戏中选择目标的交互方法和装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3919790B2 (ja) * 2005-03-14 2007-05-30 株式会社コナミデジタルエンタテインメント メッセージ画像表示装置、メッセージ画像表示装置の制御方法及びプログラム
JP3869452B1 (ja) * 2005-07-28 2007-01-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP4124475B2 (ja) * 2005-12-21 2008-07-23 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP4171039B2 (ja) * 2006-12-22 2008-10-22 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
US8458602B2 (en) * 2009-08-31 2013-06-04 Ganz System and method for limiting the number of characters displayed in a common area
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
JP5009405B2 (ja) * 2010-09-02 2012-08-22 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP5103544B1 (ja) * 2011-06-14 2012-12-19 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
EP2754471A4 (en) * 2011-09-06 2015-10-07 Capcom Co GAME SYSTEM, GAME CONTROL PROCEDURE AND RECORDING MEDIUM
JP6271878B2 (ja) * 2013-06-25 2018-01-31 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、指示位置の算出方法
CN104932872A (zh) * 2014-03-18 2015-09-23 腾讯科技(深圳)有限公司 消息处理方法和服务器
US9778814B2 (en) * 2014-12-19 2017-10-03 Microsoft Technology Licensing, Llc Assisted object placement in a three-dimensional visualization system
US9911232B2 (en) * 2015-02-27 2018-03-06 Microsoft Technology Licensing, Llc Molding and anchoring physically constrained virtual environments to real-world environments
CN107042018B (zh) * 2016-02-05 2018-09-18 腾讯科技(深圳)有限公司 控制对象的空间位置确定方法和装置
US10338392B2 (en) * 2016-06-13 2019-07-02 Microsoft Technology Licensing, Llc Identification of augmented reality image display position
PL3500908T3 (pl) * 2016-11-11 2020-11-02 Telefonaktiebolaget Lm Ericsson (Publ) Obsługa aplikacji oprogramowania rzeczywistości rozszerzonej
US11079848B2 (en) * 2016-12-06 2021-08-03 Telefonaktiebolaget Lm Ericsson (Publ) Generating a haptic model
CN107132917B (zh) 2017-04-25 2018-05-29 腾讯科技(深圳)有限公司 用于虚拟现实场景中的手型显示方法及装置
JP6509938B2 (ja) * 2017-05-02 2019-05-08 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
US10602046B2 (en) * 2017-07-11 2020-03-24 Htc Corporation Mobile device and control method
US10916059B2 (en) * 2017-12-06 2021-02-09 Universal City Studios Llc Interactive video game system having an augmented virtual representation
CN108536295B (zh) * 2018-03-30 2021-08-10 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置及计算机设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1279798A (zh) * 1997-11-25 2001-01-10 世雅企业股份有限公司 图象生成装置
CN1823352A (zh) * 2003-07-22 2006-08-23 安迪克斯技术有限公司 用于控制虚拟环境的装置
CN101668571A (zh) * 2007-12-21 2010-03-10 科乐美数码娱乐株式会社 游戏装置、游戏处理方法、信息记录介质及程序
JP2010068872A (ja) * 2008-09-16 2010-04-02 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
CN107168530A (zh) * 2017-04-26 2017-09-15 腾讯科技(深圳)有限公司 虚拟场景中的对象处理方法和装置
CN107583271A (zh) * 2017-08-22 2018-01-16 网易(杭州)网络有限公司 在游戏中选择目标的交互方法和装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANDRÉ SIQUEIRA RUELA、 FREDERICO GADELHA GUIMARÃES;: "Procedural generation of non-player characters in massively multiplayer online strategy games", 《SOFT COMPUTING - A FUSION OF FOUNDATIONS, METHODOLOGIES & APPLICATIONS》 *
明昀: "基于virtools的角色扮演游戏敌人AI的实现", 《中国科技信息》 *
毕静: "一种适合网络游戏的多NPC协同运动策略", 《计算机工程》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019184782A1 (zh) * 2018-03-30 2019-10-03 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置及计算机设备
US11334214B2 (en) 2018-03-30 2022-05-17 Tencent Technology (Shenzhen) Company Limited Method and apparatus for controlling object in virtual scene
CN114509720A (zh) * 2022-01-18 2022-05-17 国网河北省电力有限公司信息通信分公司 一种电网设备室内定位方法、装置及终端设备

Also Published As

Publication number Publication date
US11334214B2 (en) 2022-05-17
WO2019184782A1 (zh) 2019-10-03
US20200319771A1 (en) 2020-10-08
CN108536295B (zh) 2021-08-10

Similar Documents

Publication Publication Date Title
US11703993B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
JP7264993B2 (ja) 仮想対象と投擲物とのインタラクションを制御する方法及びその装置、並びにコンピュータプログラム
US11565181B2 (en) Virtual object control method and apparatus, computer device, and storage medium
US11224810B2 (en) Method and terminal for displaying distance information in virtual scene
CN111589142B (zh) 虚拟对象的控制方法、装置、设备及介质
KR102500722B1 (ko) 가상 프롭 이전 방법 및 장치와, 전자 기기 및 컴퓨터 저장 매체
CN108671543A (zh) 虚拟场景中的标记元素显示方法、计算机设备及存储介质
CN108536295A (zh) 虚拟场景中的对象控制方法、装置及计算机设备
US10814220B2 (en) Method for controlling display of electronic device using multiple controllers and device for the same
CN110052027B (zh) 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
CN112044069B (zh) 虚拟场景中的对象提示方法、装置、设备及存储介质
CN108710525A (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
CN108786110B (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
CN111589125A (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN112245912B (zh) 虚拟场景中的声音提示方法、装置、设备及存储介质
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium
CN108744511A (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
CN109806583B (zh) 用户界面显示方法、装置、设备及系统
CN110833695A (zh) 基于虚拟场景的业务处理方法、装置、设备及存储介质
CN112755517A (zh) 虚拟对象控制方法、装置、终端及存储介质
CN110597389B (zh) 虚拟场景中的虚拟对象控制方法、计算机设备及存储介质
CN111035929B (zh) 基于虚拟环境的淘汰信息反馈方法、装置、设备及介质
CN113144595B (zh) 虚拟道路的生成方法、装置、终端及存储介质
CN112717391A (zh) 虚拟角色的角色名称显示方法、装置、设备及介质
CN111754631B (zh) 三维模型的生成方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant