CN113926187A - 虚拟场景中的对象控制方法、装置及终端设备 - Google Patents

虚拟场景中的对象控制方法、装置及终端设备 Download PDF

Info

Publication number
CN113926187A
CN113926187A CN202111220651.8A CN202111220651A CN113926187A CN 113926187 A CN113926187 A CN 113926187A CN 202111220651 A CN202111220651 A CN 202111220651A CN 113926187 A CN113926187 A CN 113926187A
Authority
CN
China
Prior art keywords
virtual object
rotation
virtual
rotation operation
reference axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202111220651.8A
Other languages
English (en)
Inventor
杜丹丹
王光欣
陈德魁
李建全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202111220651.8A priority Critical patent/CN113926187A/zh
Priority to CN202111672726.6A priority patent/CN114053693B/zh
Publication of CN113926187A publication Critical patent/CN113926187A/zh
Priority to PCT/CN2022/120460 priority patent/WO2023065949A1/zh
Priority to US18/206,562 priority patent/US20230310989A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1006Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals having additional degrees of freedom
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供了一种虚拟场景中的对象控制方法、装置、设备及计算机可读存储介质;方法包括:在人机交互界面中显示虚拟场景;虚拟场景包括虚拟对象;响应于第一旋转操作,控制虚拟对象的姿态向虚拟对象的左向或右向倾斜;第一旋转操作对应的第一基准轴垂直于人机交互界面;响应于第二旋转操作,控制虚拟场景的镜头绕第二旋转基准轴转动;第二旋转基准轴平行于人机交互界面的宽度方向;响应于第三旋转操作,控制虚拟场景的镜头绕第三旋转基准轴转动;第三旋转基准轴平行于人机交互界面的高度方向。通过本申请,能够利用旋转操作控制虚拟对象的姿态或者虚拟场景的镜头转动,提升在虚拟场景中操控效率。

Description

虚拟场景中的对象控制方法、装置及终端设备
技术领域
本申请涉及计算机技术,尤其涉及一种虚拟场景中的对象控制方法、装置、终端设备、计算机程序产品及计算机可读存储介质。
背景技术
目前,用户控制虚拟对象进行游戏时,通常是通过点击人机交互界面上显示的虚拟按键来控制虚拟对象进行姿态的转换。
人机交互界面上一般设置有多个虚拟交互按钮,用于关联虚拟对象的多种虚拟姿态或虚拟场景的镜头的方向调整,这种设置对游戏画面造成了遮挡;在同时进行对虚拟对象动作控制与虚拟镜头方向控制的情况下,用户需要使用多个手指执行按压操作,从多个虚拟交互按钮中选择对应的按钮也需要一定的时间,用户的操作难度大,影响了虚拟场景的操控效率。
发明内容
本申请实施例提供一种虚拟场景中的对象控制方法、装置、设备、计算机程序产品及计算机可读存储介质,能够提升虚拟场景的操控效率。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种虚拟场景中的对象控制方法,所述方法包括:
在人机交互界面中显示虚拟场景;其中,所述虚拟场景包括虚拟对象;
响应于第一旋转操作,控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜;其中,所述第一旋转操作对应的第一基准轴垂直于所述人机交互界面;
响应于第二旋转操作,控制所述虚拟场景的镜头绕第二旋转基准轴转动;其中,所述第二旋转基准轴平行于所述人机交互界面的宽度方向;
响应于第三旋转操作,控制所述虚拟场景的镜头绕第三旋转基准轴转动;其中,所述第三旋转基准轴平行于所述人机交互界面的高度方向。
本申请实施例提供一种虚拟场景中的对象控制方法,所述方法包括:
在人机交互界面中显示虚拟场景;其中,所述虚拟场景包括虚拟对象;
响应于第一旋转操作,控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜;其中,所述第一旋转操作对应的第一基准轴垂直于所述人机交互界面。
本申请实施例提供一种虚拟场景中的对象控制装置,所述装置包括:
显示模块,配置为在人机交互界面中显示虚拟场景;其中,所述虚拟场景包括虚拟对象;
第一控制模块,配置为响应于第一旋转操作,控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜;其中,所述第一旋转操作对应的第一基准轴垂直于所述人机交互界面;
第二控制模块,配置为响应于第二旋转操作,控制所述虚拟场景的镜头绕第二旋转基准轴转动;其中,所述第二旋转基准轴平行于所述人机交互界面的宽度方向;
第三控制模块,配置为响应于第三旋转操作,控制所述虚拟场景的镜头绕第三旋转基准轴转动;其中,所述第三旋转基准轴平行于所述人机交互界面的高度方向。
本申请实施例提供一种用于虚拟场景中的对象控制的电子设备,所述电子设备包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现本申请实施例提供的任意一种虚拟场景中的对象控制方法。
本申请实施例提供一种计算可读存储介质,存储有可执行指令,用于被处理器执行时实现本申请实施例提供的任意一种虚拟场景中的对象控制方法。
本申请实施例提供一种计算机程序产品,包括计算机程序或指令,所述计算机程序或指令被处理器执行时实现本申请实施例提供的任意一种虚拟场景中的对象控制方法。
本申请实施例具有以下有益效果:
通过绕终端设备所对应的不同旋转基准轴进行旋转操作,对人机交互界面中显示的虚拟场景内的虚拟对象进行姿态控制或者对虚拟场景的镜头进行控制;通过旋转操作替代传统的按键操作控制虚拟对象姿态或者虚拟场景的镜头,用户无需同时使用多个手指进行按压操作来实现对虚拟对象姿态控制和镜头转动控制,节约了在人机交互界面设置的按键,使得人机交互界面减少虚拟按键对人机交互界面的遮挡程度,提升了对虚拟场景的操控效率。
附图说明
图1A是本申请实施例提供的虚拟场景中的对象控制方法的应用模式示意图;
图1B是本申请实施例提供的虚拟场景中的对象控制方法的应用模式示意图;
图2是本申请实施例提供的终端设备400的结构示意图;
图3A是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图;
图3B是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图;
图3C是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图;
图4A是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图;
图4B是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图;
图4C是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图;
图5是本申请实施例提供的电子设备的轴向示意图;
图6A是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;
图6B是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;
图7A是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;
图7B是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;
图8A是本申请实施例提供的虚拟场景中的对象控制方法的一个可选的流程示意图;
图8B是本申请实施例提供的虚拟场景中的对象控制方法的一个可选的流程示意图;
图8C是本申请实施例提供的虚拟场景中的对象控制方法的一个可选的流程示意图;
图9A是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;
图9B是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;
图9C是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;
图10A是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;
图10B是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;
图11A是本申请实施例提供的第三人称视角下虚拟对象方向的示意图;
图11B是本申请实施例提供的第三人称视角下虚拟对象方向的示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)响应于,用于表示所执行的操作所依赖的条件或者状态,当满足所依赖的条件或状态时,所执行的一个或多个操作可以是实时的,也可以具有设定的延迟;在没有特别说明的情况下,所执行的多个操作不存在执行先后顺序的限制。
2)虚拟场景,是应用程序在电子设备上运行时显示(或提供)的虚拟场景。该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。
3)虚拟对象,虚拟场景中进行交互的对象,受到用户或机器人程序(例如,基于人工智能的机器人程序)的控制,能够在虚拟场景中静止、移动以及进行各种行为的对象,例如游戏中的各种角色,军事演习仿真中的士兵等。
4)第三人称射击类游戏,简称TPS(Third Personal Shooting Game),指游戏者可以通过游戏画面观察到自己操作的人物。与第一人称射击游戏的区别在于第一人称射击游戏里屏幕上显示的只有主角的视野,而第三人称射击游戏中主角在游戏屏幕上是可见的。
5)旋转基准轴,是终端设备对应的空间直角坐标系的各轴,各旋转基准轴之间互相垂直,其中,空间直角坐标系的一个轴垂直于电子设备用于进行人机交互的平面,另外两轴构成的平面与电子设备用于进行人机交互的平面平行。
6)陀螺仪,角运动检测装置,用于检测绕各旋转基准轴进行旋转的角度、角速度等信息。
7)镜头,观看虚拟场景的工具,通过拍摄虚拟场景的部分区域而在显示屏上显示虚拟场景的画面。以游戏为例,游戏画面是通过镜头拍摄虚拟场景的部分区域而获得的,玩家通过控制镜头的移动,可以观看到虚拟场景中不同区域的画面。
以虚拟场景为游戏场景为例,在游戏中用户若需要进行对虚拟对象的姿态进行调整,通常是手指按压对应的按键来控制虚拟对象的姿态进行转换;若用户想要对对虚拟场景的镜头方向进行调整,则需要使用手指在人机交互界面上滑动来控制镜头方向。也就是说,人机交互界面上需要设置大量的虚拟按键来关联虚拟对象的各种姿态,对人机交互界面造成了过多的遮挡,导致用户的视觉体验较差,按键数量过多也不便于用户快速选择对应的按键,若用户进行较为复杂操作则需要同时使用多个手指点击按键或者滑动屏幕,提升了操作难度。
针对上述技术问题,本申请实施例提供一种虚拟场景中的对象控制方法、虚拟场景中的对象控制装置、用于虚拟场景中的对象控制的终端设备、计算可读存储介质及计算机程序产品,为便于更容易理解本申请实施例提供的虚拟场景中的对象控制方法,首先说明本申请实施例提供的虚拟场景中对象控制方法的示例性实施场景,虚拟场景可以完全基于终端设备输出,或者基于终端设备和服务器的协同来输出。
本申请实施例中提供的方法可以应用于虚拟现实应用程序、三维地图程序、军事仿真程序、第一人称射击游戏(First-Person Shooting game,FPS)、第三人称射击游戏、多人在线战术竞技游戏(Multiplayer Online Battle Arena Games,MOBA)等,下文实施例是以在游戏中的应用来举例说明。
下面结合终端设备对应用场景进行介绍。
在一个实施场景中,参考图1A,图1A是本申请实施例提供的虚拟场景中的对象控制方法的应用模式示意图。适用于一些完全依赖于终端设备400的图形处理硬件计算能力即可完成虚拟场景100的相关数据计算的应用模式,例如单机版/离线模式的游戏,通过智能手机、平板电脑和虚拟现实/增强现实设备等各种不同类型的终端设备400完成虚拟场景的输出。
当形成虚拟场景100的视觉感知时,终端设备400通过图形计算硬件计算显示所需要的数据,并完成显示数据的加载、解析和渲染,在图形输出硬件输出能够对虚拟场景形成视觉感知的视频帧,例如,在智能手机的屏幕呈现二维的视频帧,或者,在增强现实/虚拟现实眼镜的镜片上投射实现三维显示效果的视频帧;此外,为了丰富感知效果,终端设备400还可以借助不同的硬件来形成听觉感知、触觉感知、运动感知和味觉感知的一种或多种。
作为一个示例,终端设备400运行单机版的游戏应用,在游戏应用的运行过程中输出包括有动作角色扮演的虚拟场景,虚拟场景可以是供游戏角色交互的环境,例如可以是用于供游戏角色进行对战的平原、街道、山谷等等;以第三人称视角显示虚拟场景为例,在虚拟场景中显示有虚拟对象,虚拟对象为受控于真实用户的游戏角色,响应于真实用户针对控制器 (例如:陀螺仪、触控屏、声控开关、键盘、鼠标和摇杆等)的操作而在虚拟场景中运动。例如:当真实用户点击触控屏上的虚拟按键,虚拟对象将执行虚拟按键关联的动作。
终端设备400可以为各种类型的移动终端,例如智能手机、平板电脑、掌上游戏终端、增强现实设备、虚拟现实设备等。以移动终端为例,参考图1A,通过移动终端的显示屏显示虚拟场景,虚拟场景包括虚拟对象,移动终端内设置有陀螺仪(本申请实施例并不限制角运动检测装置为陀螺仪,当其他角运动检测装置可以实现本申请实施例的方案时,也可以采用其他的角运动检测装置),陀螺仪用于检测针对移动终端的旋转操作。移动终端所对应的旋转基准轴中的三轴,分别对应于不同的控制方式,在通过陀螺仪接收到旋转操作时,移动终端根据该旋转操作对应的旋转基准轴控制虚拟对象或者虚拟场景的镜头。通过绕不同旋转基准轴进行的旋转操作,使得用户无需进行按键点击,就能够控制虚拟对象进行姿态调整或者控制虚拟场景的镜头进行调整,提升对虚拟场景的操控效率。
在另一个实施场景中,参见图1B,图1B是本申请实施例提供的虚拟场景中的对象控制方法的应用模式示意图,应用于终端设备400和服务器200,适用于依赖于服务器200的计算能力完成虚拟场景计算、并在终端设备400输出虚拟场景的应用模式。
以形成虚拟场景100的视觉感知为例,服务器200进行虚拟场景相关显示数据(例如场景数据)的计算并通过网络300发送到终端设备400,终端设备400依赖于图形计算硬件完成计算显示数据的加载、解析和渲染,依赖于图形输出硬件输出虚拟场景以形成视觉感知,例如可以在智能手机的显示屏幕呈现二维的视频帧,或者,在增强现实/虚拟现实眼镜的镜片上投射实现三维显示效果的视频帧;对于虚拟场景的形式的感知而言,可以理解,可以借助于终端设备400的相应硬件输出,例如使用麦克风形成听觉感知,使用振动器形成触觉感知等等。
作为示例,终端设备400运行客户端(例如网络版的游戏应用),通过连接游戏服务器 (即服务器200)与其他用户进行游戏互动,终端设备400输出游戏应用的虚拟场景,虚拟场景可以是供游戏角色交互的环境,例如可以是用于供游戏角色进行对战的平原、街道、山谷等等;以第三人称视角显示虚拟场景为例,在虚拟场景中显示有虚拟对象,虚拟对象为受控于真实用户的游戏角色,响应于真实用户针对控制器(例如:陀螺仪、触控屏、声控开关、键盘、鼠标和摇杆等)的操作而在虚拟场景中运动。例如:当真实用户点击触控屏上的虚拟按键,虚拟对象将执行虚拟按键关联的动作。
作为示例,终端设备400接收到第一旋转操作并将信号发送至服务器200,服务器200 根据信号对虚拟对象的姿态进行倾斜,并将显示数据下发至终端设备400,使终端设备400 向用户显示虚拟对象的姿态向左向或者右向倾斜。
在本申请一些实施例中,终端设备接收其他电子设备发送的控制信号,并根据控制信号对虚拟场景中的虚拟对象进行控制。其他电子设备可以为手柄设备(例如:有线手柄设备、无线手柄设备、无线遥控器等)且内部设置有陀螺仪,手柄设备在接收到旋转操作时,根据旋转操作生成相应的控制信号,并将控制信号发送到终端设备,终端设备根据控制信号控制虚拟场景中的虚拟对象的姿态向虚拟对象的左向或者右向倾斜。
在本申请一些实施例中,终端设备接收其他电子设备发送的控制信号,并根据控制信号对虚拟场景中的虚拟对象进行控制。其他电子设备可以为可穿戴式设备(例如:耳机、头盔、智能手环等)且内部设置有陀螺仪,可穿戴式设备在接收到旋转操作时,根据旋转操作生成相应的控制信号,并将控制信号发送到终端设备,终端设备根据控制信号控制虚拟场景中的虚拟对象的姿态向虚拟对象的左向或者右向倾斜。若其他电子设备为成对的可穿戴式设备,比如蓝牙耳机,可穿戴式设备的左耳部分与右耳部分均设置有陀螺仪。
在一些实施例中,终端设备400可以通过运行计算机程序来实现本申请实施例提供的虚拟场景中的对象控制方法,例如,计算机程序可以是操作系统中的原生程序或软件模块;可以是本地(Native)应用程序(APP,Application),即需要在操作系统中安装才能运行的程序,例如游戏APP(即上述的客户端);也可以是小程序,即只需要下载到浏览器环境中就可以运行的程序;还可以是能够嵌入至任意APP中的游戏小程序。总而言之,上述计算机程序可以是任意形式的应用程序、模块或插件。
本申请实施例可以借助于云技术(Cloud Technology)实现,云技术是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。
云技术是基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、以及应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源。
作为示例,服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。终端设备400可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、以及智能手表等,但并不局限于此。终端设备400以及服务器200可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
参见图2,图2是本申请实施例提供的终端设备400的结构示意图;图2所示的终端设备400包括:至少一个处理器410、存储器450、至少一个网络接口420和用户接口430。终端设备400中的各个组件通过总线系统440耦合在一起。可理解,总线系统440用于实现这些组件之间的连接通信。总线系统440除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统440。
处理器410可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
用户接口430包括使得能够呈现媒体内容的一个或多个输出装置431,包括一个或多个扬声器和/或一个或多个视觉显示屏。用户接口430还包括一个或多个输入装置432,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
存储器450可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器450可选地包括在物理位置上远离处理器410的一个或多个存储设备。
存储器450包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器450旨在包括任意适合类型的存储器。
在一些实施例中,存储器450能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统451,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。
网络通信模块452,用于经由一个或多个(有线或无线)网络接口420到达其他计算设备,示例性的网络接口420包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(USB,Universal Serial Bus)等。
呈现模块453,用于经由一个或多个与用户接口430相关联的输出装置431(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作外围设备和显示内容和信息的用户接口)。
输入处理模块454,用于对一个或多个来自一个或多个输入装置432之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,本申请实施例提供的虚拟场景中的对象控制装置可以采用软件方式实现,图2示出了存储在存储器450中的虚拟场景中的对象控制装置455,其可以是程序和插件等形式的软件,包括以下软件模块:显示模块4551、倾斜控制模块4552,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分,将在下文中说明各个模块的功能。
参见图3A,图3A是本申请实施例提供的虚拟场景中对象控制方法的可选的流程示意图,下面将结合图3A对通过绕不同旋转基准轴进行旋转操作对人机交互界面中显示的虚拟场景内的虚拟对象进行姿态控制的过程进行说明,同时,以执行主体为终端设备为例进行说明。
本申请实施例提供的虚拟场景中的对象控制方法可以由图1A中的终端设备400单独执行,也可以由图1B中的终端设备400和服务器200协同执行,例如步骤102中控制虚拟对象的姿态向虚拟对象的左向或右向倾斜可以由终端设备400和服务器200协同执行,服务器200计算出虚拟对象姿态的显示数据后,将显示数据返回至终端设备400进行显示,例如,步骤103中虚拟场景的镜头绕第二旋转基准轴转动可以由终端设备400和服务器200协同执行,服务器200计算出虚拟场景的镜头转动的显示数据后,将显示数据返回至终端设备400进行显示。
下面,以由图1A中的终端设备400单独执行本申请实施例提供的虚拟场景中的对象控制方法为例说明。参见图3A,图3A是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图,将结合图3A示出的步骤进行说明。
需要说明的是,图3A示出的方法可以由终端设备400运行的各种形式计算机程序执行,并不局限于上述的客户端,例如上文的操作系统451、软件模块和脚本,因此客户端不应视为对本申请实施例的限定。
在步骤101中,在人机交互界面中显示虚拟场景。
作为示例,终端设备具有图形计算能力以及图形输出能力,可以是智能手机、平板电脑和虚拟现实/增强现实眼镜等,在操作101以及后续操作中,终端设备的人机交互界面显示虚拟场景,虚拟场景是供游戏角色交互的环境,例如可以是用于供游戏角色进行对战的平原、街道、山谷等等;虚拟对象可以是受用户(或称玩家)控制的游戏角色,即虚拟对象受控于真实用户,将响应于真实用户针对输入处理模块454(包括触控屏、声控开关、键盘、鼠标和摇杆、陀螺仪等)的操作而在虚拟场景中运动。
在步骤102中,响应于第一旋转操作,控制虚拟对象的姿态向虚拟对象的左向或右向倾斜。
这里,第一旋转操作对应的第一基准轴垂直于人机交互界面。
参考图5,图5是本申请实施例提供的电子设备的轴向示意图;图5中电子设备为移动终端,移动终端的显示屏显示人机交互界面,在移动终端处于横屏模式下,第一旋转基准轴 (YAW轴)垂直于人机交互界面向上(图5中参考轴Z0所对应的方向),第二旋转基准轴(ROLL轴)平行于人机交互界面的宽度方向(图5中Y0轴所对应的方向),第三旋转基准轴(PITCH轴)平行于人机交互界面高度方向(图5中X0轴所对应的方向)。同理,若电子设备处于竖屏模式下,第一旋转基准轴(YAW轴)垂直于人机交互界面,则正方向为观看显示屏的方向的反向,即图5中参考轴Z0所对应的方向,第二旋转基准轴(ROLL轴) 平行于人机交互界面的长度方向,即图5中Y0轴所对应的方向,第三旋转基准轴(PITCH 轴)平行于人机交互界面的宽度方向,即图5中X0轴所对应的方向。
这里,虚拟对象的左向或者右向,是以虚拟对象自身为参考而确定的,与用户感知的左向、右向可能一致,也可能相反,下面示例性说明。
作为示例,参考图11A,图11A是本申请实施例提供的第三人称视角下虚拟对象方向的示意图;图11A中用户正面朝向人机交互界面,用户感知的左向、右向如用户指向的参考轴所示。图11A中,虚拟场景的镜头面向虚拟对象110的背后,虚拟对象所对应的方向如虚拟对象110上方的参考轴所示,在该种情况下,虚拟对象的左向与用户感知的左向是同向,虚拟对象的右向与用户感知的右向是同向。
作为示例,参考图11B,图11B是本申请实施例提供的第三人称视角下虚拟对象方向的示意图。图11B中用户正面朝向人机交互界面,用户感知的左向、右向如用户指向的参考轴所示。图11B中,虚拟场景的镜头面向虚拟对象110的正面,虚拟对象所对应的方向如虚拟对象110上方的参考轴所示,在该种情况下,虚拟对象的左向与用户感知的左向是相反的,虚拟对象的右向也与用户感知的右向是相反的。
第一旋转操作是针对于电子设备的绕第一旋转基准轴进行的旋转操作,这里,电子设备与终端设备可以是同一设备,终端设备可以是内部设置有陀螺仪的移动终端(例如:智能手机、平板电脑、掌上游戏终端、增强现实设备等);电子设备与终端设备也可以是不同的设备,下面结合不同的场景进行说明。
在一些实施例中,电子设备与终端设备是同一设备,即终端设备针对控制终端设备旋转的第一旋转操作来控制虚拟对象的姿态。在终端设备接收到第一旋转操作之前,参考图9C,图9C是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;图9C中L1为平行于人机交互界面宽度方向的直线,虚拟场景的镜头面向虚拟对象的背后,虚拟对象110的当前姿态为直立的站姿。
当终端设备接收到第一旋转操作时,若第一旋转操作为绕YAW轴顺时针进行旋转,参考图9A,图9A是本申请实施例提供的人机交互界面中显示虚拟场景的示意图。在图9A中,终端设备绕YAW轴顺时针进行旋转,直线L2是第一旋转操作执行前直线L1所在的位置,直线L1与直线L2形成的夹角Y1为第一旋转操作绕YAW轴旋转的角度。根据第一旋转操作控制虚拟对象110向虚拟对象的姿势的右向进行倾斜,与图9C中的直立站姿相比,图9A 中虚拟对象110的姿态为向右倾斜的姿态。
当终端设备接收到第一旋转操作时,若第一旋转操作为绕YAW轴逆时针进行旋转,参考图9B,图9B是本申请实施例提供的人机交互界面中显示虚拟场景的示意图。在图9B中终端设备绕YAW轴逆时针进行旋转,直线L2是第一旋转操作执行前直线L1所在的位置,直线L1与直线L2形成的夹角Y2为第一旋转操作绕YAW轴旋转的角度。根据第一旋转操作控制虚拟对象110向虚拟对象的姿势的左向进行倾斜,与图9C中的直立站姿相比,图9A 中虚拟对象110的姿态为向左倾斜的姿态。
在另一些实施例中,电子设备与终端设备是不同设备,电子设备可以是内部设置有陀螺仪的手柄设备(例如:有线手柄设备、无线手柄设备、无线遥控器等),即手柄设备针对控制手柄设备旋转的第一旋转操作生成对应的角运动信号发送至终端设备,终端设备根据角运动信号来控制虚拟对象的姿态进行倾斜。电子设备还可以是内部设置有陀螺仪的可穿戴式设备(例如:耳机、头盔、智能手环等),即可穿戴式设备针对控制可穿戴式设备旋转的第一旋转操作生成对应的角运动信号发送至终端设备,终端设备根据角运动信号来控制虚拟对象的姿态进行倾斜。
在步骤103中,响应于第二旋转操作,控制虚拟场景的镜头绕第二旋转基准轴转动。
这里,第二旋转基准轴平行于人机交互界面的宽度方向。
示例的,虚拟场景的镜头位于虚拟场景的空间内,人机交互界面显示的虚拟场景的画面是虚拟场景的镜头对虚拟场景的内容拍摄得到的。
这里,第二旋转操作是电子设备绕第二旋转基准轴(ROLL轴)进行的旋转操作,虚拟场景的镜头根据第二旋转操作绕第二旋转基准轴旋转一致的方向进行转动,虚拟场景的镜头的转动角度与第二旋转操作绕第二旋转基准轴旋转的角度正相关。
作为示例,虚拟场景的镜头的转动角度与第二旋转操作绕第二旋转基准轴旋转的角度之间通过正比例函数约束,或者通过上升趋势的曲线函数进行约束。
第二旋转操作是针对电子设备的绕第二旋转基准轴进行的旋转操作。上述的第二旋转操作的实施对象是电子设备,电子设备与执行图1A或1B各步骤的终端设备可以是同一设备,此时终端设备可以是内部设置有陀螺仪的移动终端(例如:智能手机、平板电脑、掌上游戏终端、增强现实设备等);电子设备与终端设备也可以是不同的设备,下面结合不同的场景进行说明。
在一些实施例中,即终端设备针对控制终端设备旋转的第二旋转操作来控制虚拟场景的镜头。参考图9C,将图9C作为在终端设备接收到第二旋转操作之前的人机交互界面中显示虚拟场景的示意图。
例如:第二旋转操作是终端设备绕第二旋转基准轴逆时针转动,则虚拟场景的镜头绕第二旋转基准轴逆时针转动,转动方向一致且转动角度正相关,虚拟场景的镜头向虚拟场景的空间所对应的下方转动,人机交互界面中应显示为虚拟场景的画面从人机交互界面的下边界向上边界为方向移动显示新画面,并在第二旋转操作结束时画面停止移动。
参考图6A,图6A是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;图 6A中120是虚拟建筑,本申请实施例中以参照物为虚拟建筑120为例进行说明,下文虚拟建筑120为同一虚拟建筑,虚拟建筑120为一栋两层楼房,在图6A中虚拟建筑120仅显示了一部分,但根据虚拟场景的镜头方向变化,人机交互界面显示的画面能够展示虚拟建筑120不同的部分。在虚拟场景的镜头在虚拟场景中位于虚拟对象的头部高度,且虚拟场景的镜头所对应的平面与虚拟场景空间内的竖直方向为垂直关系时,参考图9C,人机交互界面中显示的虚拟场景包括:虚拟对象110与虚拟建筑120的一楼,虚拟建筑120的一楼包括完整的虚拟建筑的门121。
参考图6A,终端设备绕第二旋转基准轴(图6A中ROLL轴)逆时针转动,直线L3 为执行第二旋转操作之前人机交互界面的一侧的边界线L5所在的位置,Y3是执行第二旋转操作而形成的人机交互界面的一侧边界线L5与边界线原位置L3之间的夹角,也即第二旋转操作对应的转动角度为Y3,虚拟场景的镜头跟随第二旋转操作向虚拟场景的空间所对应的下方转动的角度与Y3正相关。则人机交互界面中显示虚拟对象110、虚拟建筑120的一部分、虚拟建筑的门121的一部分及虚拟场景地面130,与图9C相互对比,人机交互界面显示的画面中虚拟建筑的门121的上边界不再可见,新出现了虚拟场景地面130。
继续参考图9C,将图9C作为接收到第二旋转操作之前的人机交互界面中显示虚拟场景的示意图。再例如,第二旋转操作是终端设备绕第二旋转基准轴顺时针转动,则虚拟场景的镜头绕第二旋转基准轴顺时针转动,转动方向一致且转动角度正相关,虚拟场景的镜头向虚拟场景的空间所对应的上方转动,人机交互界面中应显示为虚拟场景的画面从人机交互界面的上边界向下边界为方向移动显示新画面,并在第二旋转操作结束时画面停止移动。
参考图6B,图6B是本申请实施例提供的虚拟场景中的人机交互界面的显示示意图;终端设备绕第二旋转基准轴(图6B中ROLL轴)顺时针转动,直线L3为执行第二旋转操作之前人机交互界面的一侧的边界线L5所在的位置,Y4是执行第二旋转操作而形成的人机交互界面的一侧边界线L5与边界线原位置L3之间的夹角,也即,参考图6B可知,第二旋转操作对应的转动角度为Y4,虚拟场景的镜头跟随第二旋转操作向虚拟场景的空间所对应的上方转动的角度与Y4正相关。则人机交互界面中显示虚拟对象110、虚拟建筑120的一楼及二楼、虚拟建筑的门121的一部分,与图9C相互对比,人机交互界面显示的画面中虚拟建筑的门121的下边界不再可见,新出现了虚拟建筑二楼的窗户122。
在另一些实施例中,电子设备与终端设备是不同设备,电子设备可以是内部设置有陀螺仪的手柄设备(例如:有线手柄设备、无线手柄设备、无线遥控器等),即手柄设备针对控制手柄设备旋转的第二旋转操作生成对应的角运动信号发送至终端设备,终端设备根据角运动信号来控制虚拟场景的镜头进行转动。电子设备还可以是内部设置有陀螺仪的可穿戴式设备(例如:耳机、头盔、智能手环等),即可穿戴式设备针对控制可穿戴式设备旋转的第二旋转操作生成对应的角运动信号发送至终端设备,终端设备根据角运动信号来控制虚拟场景的镜头进行转动。
在步骤104中,响应于针对电子设备的第三旋转操作,控制虚拟场景的镜头绕第三旋转基准轴转动。
这里,第三旋转基准轴平行于人机交互界面的高度方向。
这里,第三旋转操作是终端设备绕第三旋转基准轴(PITCH轴)进行的旋转操作,虚拟场景的镜头根据第三旋转操作绕第三旋转基准轴旋转一致的方向进行转动,虚拟场景的镜头的转动角度与第三旋转操作绕第三旋转基准轴旋转的角度正相关。
作为示例,虚拟场景的镜头的转动角度与第三旋转操作绕第三旋转基准轴旋转的角度之间通过正比例函数约束,或者通过上升趋势的曲线函数进行约束。
这里,第三选旋转操作是针对电子设备的绕第三旋转基准轴进行的旋转操作。上述的第三旋转操作的实施对象是电子设备,电子设备与执行图1A或1B各步骤的终端设备可以是同一设备,此时终端设备可以是内部设置有陀螺仪的移动终端(例如:智能手机、平板电脑、掌上游戏终端、增强现实设备等);电子设备与终端设备也可以是不同的设备,下面结合不同的场景进行说明。
在一些实施例中,即终端设备针对控制终端设备旋转的第三旋转操作来控制虚拟场景的镜头。参考图9C,将图9C作为在终端设备接收到第三旋转操作之前的人机交互界面中显示虚拟场景的示意图。例如:第三旋转操作是终端设备绕第三旋转基准轴逆时针转动,则虚拟场景的镜头绕第三旋转基准轴逆时针转动,转动方向一致且转动角度正相关,虚拟场景的镜头在虚拟场景中向面对人机交互界面的用户感知的左向转动,人机交互界面中应显示为虚拟场景的画面从人机交互界面的左边界向右边界为方向移动显示新画面,并在第三旋转操作结束时画面停止移动。
这里,人机交互界面的右边界与左边界的方向是由面向人机交互界面的用户感知的左右方向确定的。
参考图7A,图7A是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;电子设备绕第二旋转基准轴(图7A中PITCH轴)逆时针转动,直线L4为执行第三旋转操作之前人机交互界面的一侧的边界线L6所在的位置,Y5是执行第三旋转操作形成的人机交互界面的下边界线L6与下边界原位置L4之间的夹角,也即,参考图7A可知,第三旋转操作对应的转动角度为Y5,虚拟场景的镜头跟随第三旋转操作在虚拟场景中向面对人机交互界面的用户感知的左向转动的角度与Y5正相关。则人机交互界面中显示虚拟对象110、虚拟建筑120的一部分。与图9C相比,人机交互界面显示的画面中新出现了虚拟建筑120的左侧边界,该左侧是面对人机交互界面的用户感知的左侧。
继续参考图9C作为旋转操作之前的人机交互界面的画面。再例如:第三旋转操作是终端设备绕第三旋转基准轴顺时针转动,则虚拟场景的镜头绕第三旋转基准轴顺时针转动,转动方向一致且转动角度正相关,虚拟场景的镜头在虚拟场景中向面对人机交互界面的用户感知的右向转动,人机交互界面中应显示为虚拟场景的画面从人机交互界面的右边界向左边界为方向移动显示新画面,并在第三旋转操作结束时画面停止移动。
参考图7B,图7B是本申请实施例提供的人机交互界面中显示虚拟场景的示意图;电子设备绕第三旋转基准轴(图7B中PITCH轴)顺时针转动,直线L4为执行第三旋转操作之前人机交互界面的一侧的边界线L6所在的位置,Y6是执行第三旋转操作形成的人机交互界面的下边界线L6与下边界原位置L4之间的夹角,也即,参考图7B可知,第三旋转操作对应的转动角度为Y6,虚拟场景的镜头跟随第三旋转操作在虚拟场景中向面对人机交互界面的用户感知的右向转动的角度与Y6正相关。则人机交互界面中显示虚拟对象110、虚拟建筑120的一部分。与图9C相比,人机交互界面显示的画面中新出现了虚拟建筑120的右侧边界,该右侧是面对人机交互界面的用户感知的右侧。
在另一些实施例中,电子设备与终端设备是不同设备,电子设备可以是内部设置有陀螺仪的手柄设备(例如:有线手柄设备、无线手柄设备、无线遥控器等),即手柄设备针对控制手柄设备旋转的第三旋转操作生成对应的角运动信号发送至终端设备,终端设备根据角运动信号来控制虚拟场景的镜头进行转动。电子设备还可以是内部设置有陀螺仪的可穿戴式设备(例如:耳机、头盔、智能手环等),即可穿戴式设备针对控制可穿戴式设备旋转的第三旋转操作生成对应的角运动信号发送至终端设备,终端设备根据角运动信号来控制虚拟场景的镜头进行转动。
参考图3A,在步骤101之后还包括步骤102、步骤103或者步骤104。步骤101、步骤103与步骤104之间不存在执行次序限制,在接收到步骤对应的旋转操作时,能够执行对应的步骤。
这里,第一旋转操作、第二旋转操作及第三旋转操作所绕的旋转基准轴并不相同,三种操作之间互不干扰,三种操作可以同时进行或者仅进行一种或者两种。第一旋转操作对应于虚拟对象的姿态的控制,第二旋转操作对应于绕第二旋转基准轴进行镜头转动,第三旋转操作对应于绕第三旋转基准轴进行镜头转动,由于各操作对应的旋转基准轴不同,镜头转动方向上不存在异向,姿态调整与镜头调整也不存在冲突,因此三种操作对应的控制能够同时进行。
在一些实施例中,参考图3B,图3B是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图;图3B中各步骤与图3A中各步骤内容相同,示例的,图3B中,在步骤 101之后,顺次执行步骤102、步骤103、步骤104。
在一些实施例中,参考图3C,图3C是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图;步骤S101之后还包括:步骤105,确认针对电子设备的旋转操作的类型。旋转操作的类型包括:第一旋转操作、第二旋转操作及第三旋转操作。步骤105确认旋转操作类型,确认的结果可以为:三种旋转操作中任意两种正在执行;三种旋转操作中任意一种正在执行;三种旋转操作同时执行。在确认当前有哪些旋转操作后,再分别执行各旋转操作对应的步骤。通过执行步骤105,能够有效确认当前执行的旋转操作的类型,为电子设备预留处理时间。例如:步骤105确认当前针对电子设备执行的旋转操作为第一旋转操作与第三旋转操作,参考图3C,步骤105之后执行步骤102与步骤104,由于未进行第二旋转操作,步骤103不响应不执行。通过第一旋转操作与第三旋转操作组合,可以控制虚拟对象的姿态左向或者右向倾斜并同时进行镜头绕第三旋转基准轴转动,若第一旋转操作对应于向虚拟对象的左向倾斜,第三旋转操作对应于绕第三旋转基准轴逆时针旋转,则在人机交互界面上显示为虚拟场景的画面向虚拟对象的左侧移动,虚拟对象的姿态向左倾斜。
在一些实施例中,步骤102具体包括,根据与第一旋转操作绕第一旋转基准轴旋转一致的方向,控制虚拟对象中包括头部在内的至少部分向虚拟对象的左向或者右向进行倾斜;作为示例,其中,虚拟对象的头部向下的各部分的倾斜角度依次减小,且均与第一旋转操作基于第一旋转基准轴旋转的角度正相关。
作为示例,虚拟对象的运动模型包括头部、颈部、四肢及躯干;包括头部在内的至少部分可以是虚拟对象的头部、颈部、上肢、腰部及腰部以上的躯干部分。或者,包括头部在内的至少部分可以是虚拟对象的头部、颈部、上肢、肩部及胸部。为便于解释,以下将虚拟对象进行倾斜前的姿态作为第一姿态,进行倾斜后的姿态作为第二姿态。第一姿态可以是头部重心与躯干重心处于同一直线的姿态,例如:站姿或者蹲姿;第二姿态是头部重心与躯干重心不处于同一直线的姿态。例如:左探头姿态或者右探头姿态。控制虚拟对象的姿态进行倾斜,也即将虚拟对象的姿态由第一姿态切换至第二姿态,在虚拟对象的姿态进行倾斜后,将第二姿态作为新的第一姿态。
在一些实施例中,参见图4A,图4A是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图,步骤102中响应于针对电子设备的第一旋转操作,控制虚拟对象的姿态向虚拟对象的左向或右向倾斜,可以通过图4A中的步骤1021及步骤1022实现。
在步骤1021中,当第一旋转操作基于操作绕第一旋转基准轴向虚拟对象的左向进行旋转的角度大于角度阈值时,控制虚拟对象中包括头部在内的至少部分向虚拟对象的左向进行倾斜。
在步骤1022中,当第一旋转操作基于操作绕第一旋转基准轴向虚拟对象的右向进行旋转的角度大于角度阈值时,控制虚拟对象中包括头部在内的至少部分向虚拟对象的右向进行倾斜。
作为示例,在图4A中,控制虚拟对象中包括头部在内的至少部分向虚拟对象的左向或者右向进行倾斜被执行的前提是,第一旋转操作向虚拟对象的左向或者右向进行旋转的角度大于角度阈值。角度阈值可以是根据用户旋转操作记录训练学习得到的值,以便更好地判断用户的旋转操作是否满足执行姿态左向或者右向旋转的前提。
在一些实施例中,参见图4B,图4B是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图,步骤102中响应于针对电子设备的第一旋转操作,控制虚拟对象的姿态向虚拟对象的左向或右向倾斜,可以通过图4B中的步骤1023及步骤1024实现。
在步骤1023中,当第一旋转操作基于操作绕第一旋转基准轴向虚拟对象的左向进行旋转的角度大于角度阈值,且角速度大于角速度阈值时,控制虚拟对象中包括头部在内的至少部分向虚拟对象的左向进行倾斜。
在步骤1024中,当第一旋转操作基于操作绕第一旋转基准轴向虚拟对象的右向进行旋转的角度大于角度阈值,且角速度大于角速度阈值时,控制虚拟对象中包括头部在内的至少部分向虚拟对象的右向进行倾斜。
作为示例,控制虚拟对象中包括头部在内的至少部分向虚拟对象的左向或者右向进行倾斜被执行的前提是,第一旋转操作向虚拟对象的左向或者右向进行旋转的角度大于角度阈值且角速度大于角速度阈值。
在一些实施例中,角度阈值或者角速度阈值可以是预先设置的固定值,也可以是根据用户的历史操作数据进行确定的值。举例来说,获取针对虚拟对象的历史操作数据,由于用户的行为习惯偶尔会发生改变,可以获取最接近当前时刻的设定时间内的或者最接近的设定数量的旋转操作的操作记录作为历史操作数据。历史操作数据可以包括:旋转操作对应的旋转方向、旋转角速度、操作起始时的角度;基于历史操作数据调用阈值识别模型,得到能够用于识别针对虚拟对象的异常操作的角度阈值和角速度阈值;其中,阈值识别模型是通过旋转操作数据样本、以及旋转操作数据样本标记的响应或不响应的标签进行训练得到。异常操作包括但不限于:旋转操作的角速度超出用户所能达到的角速度、旋转操作的起始角度差大于用户常规操作对应的角度差等。旋转操作数据样本可以是虚拟对象所对应的真实用户的常规操作时的旋转操作数据的集合。旋转操作所对应的旋转角度大于角度阈值,或者旋转角度大于角度阈值且旋转角速度大于角速度阈值,旋转操作满足执行控制虚拟对象的姿态进行倾斜的条件,则该旋转操作的标签为响应,反之则被标记为不响应。通过上述方式,能够建立贴近于用户习惯的模型,通过该模型确定符合用户习惯的角度阈值与角速度阈值,提升操作的响应率,同时防止异常操作对虚拟对象进行控制的情况发生。
在一些实施例中,在执行步骤102之前,还可以确认虚拟对象的当前姿态是否能够进行对应方向倾斜。在虚拟对象的当前姿态满足第一条件时,执行步骤102。其中,第一条件包括:虚拟对象基于当前姿态进行倾斜所需活动的身体部分未处于工作状态。进行倾斜所需的身体部分包括:虚拟对象的腰部以上的躯干部分及头部、颈部、上肢,或者包括:虚拟对象的头部、颈部、胸部、肩部及上肢。
以下进行举例说明,例如:第一旋转操作是电子设备绕第一旋转基准轴向虚拟对象的左向旋转。在当前姿态为左探头姿态时,进行左探头所需的全部身体部分均处于工作状态,不满足第一条件,当前姿态不能再次执行左探头,维持左探头姿态;在虚拟对象的当前姿态为右探头姿态时,姿态向左倾斜所需的身体部分不处于工作状态,满足第一条件,则执行姿态向虚拟对象的左边进行倾斜;在当前姿态为驾驶姿态时,驾驶姿态下虚拟对象的上肢需要进行驾驶,为工作状态,则当前姿态不满足第一条件,维持当前姿态;在虚拟对象处于奔跑姿态或者趴下姿态时,倾斜所需的身体部分用于维持当前位姿而处于工作状态,则当前姿态不满足第一条件,维持当前姿态;虚拟对象处于蹲姿、站姿、坐姿(例如:虚拟对象坐在虚拟载具的非驾驶位上)时,维持当前位姿不需要用到倾斜所需的身体部分,则当前姿态满足第一条件,执行左探头。
在一些实施例中,在执行步骤102之前,还可以确认虚拟对象姿态倾斜时会不会造成状态衰减。当虚拟对象周围的区域满足第二条件时,执行步骤102。其中,第二条件包括:在区域内不存在能够对虚拟对象造成状态衰减的因素。周围的区域可以是以虚拟对象为圆心指定半径范围内的空间,具体实施中,周围的区域可以根据实际需求进行划分,本申请实施例不对此构成限制。状态衰减可以是生命值、战斗力衰减;造成状态衰减的因素可以是敌方虚拟对象、虚拟道具(例如:陷阱或者范围性伤害道具)。
在一些实施例中,为提升用户的游戏体验,当虚拟对象周围的区域不满足第二条件时,显示提示信息;其中,提示信息用于表征虚拟对象倾斜姿态时将存在风险。提示信息可以通过声音、文字或者图形等任意形式向用户显示,如果用户在接收到提示后仍然想执行倾斜姿态,可能会再次进行第一旋转操作,则在再次接收到第一旋转操作时,执行步骤102。
以下进行举例说明,例如:虚拟对象周围的区域内存在敌方虚拟对象,在接收到第一旋转操作时,向在人机交互界面显示提示信息并发出提示语音对用户进行提醒,用户在接收提醒后仍然决定倾斜虚拟对象的姿态,再次进行了第一旋转操作,再次接收到第一旋转操作时,根据该第一旋转操作对虚拟对象的姿态进行对应方向的倾斜。
在一些实施例中,在执行步骤102之前,需要判断虚拟对象所处的空间是否足够执行倾斜姿态,以防止虚拟对象在虚拟场景中出现穿模等问题。当虚拟对象周围的区域满足第三条件时,转入步骤102;其中,第三条件包括:在区域内与第一旋转操作绕第一旋转基准轴旋转一致的方向上,不存在阻挡虚拟对象左向或右向倾斜的障碍物。具体实施中,周围的区域可以根据实际需求进行划分,本申请实施例不对此构成限制。障碍物可以为虚拟场景中的墙壁、树木、石块等。
以下进行举例说明,例如:虚拟对象站立在虚拟场景中房屋的墙角处,在接收到绕第一旋转基准轴向虚拟对象左向倾斜的第一旋转操作时,虚拟对象的左向存在障碍物墙壁,不满足第三条件,则不执行控制虚拟对象的姿态左向倾斜的处理,维持当前姿态;虚拟对象蹲在虚拟场景中的树木背后,在接收到绕第一旋转基准轴向虚拟对象左向倾斜的第一旋转操作时,虚拟对象的左向没有障碍物,满足第三条件,则执行控制虚拟对象的姿态左向倾斜的处理。
在一些实施例中,在执行步骤102之前,对第一旋转操作对应的取值空间进行判断,以确认第一旋转操作对应的控制模式。控制模式包括:姿态倾斜模式、镜头转动模式。
作为示例,其中,姿态倾斜模式是通过第一旋转操作控制虚拟对象进行倾斜的模式。镜头转动模式是通过第一旋转操作控制虚拟场景的镜头绕第一旋转基准轴进行镜头转动的模式。
在一些实施例中,当第一旋转操作的角速度的取值处于与姿态倾斜模式关联的取值空间时,确定处于姿态倾斜模式,并转入执行步骤102。与姿态倾斜模式关联的取值空间可以根据实际需求进行设置,也可以根据用户的历史操作数据进行获取,本申请实施例不对此构成限制。
在一些实施例中,当第一旋转操作的角速度的取值处于与镜头转动模式关联的取值空间时,确定处于镜头转动模式,控制虚拟场景的镜头绕第一旋转基准轴旋转。与镜头转动模式关联的取值空间可以根据实际需求进行设置,也可以根据用户的历史操作数据进行获取,本申请实施例不对此构成限制。第一旋转基准轴垂直于人机交互界面,本申请实施例并不限制第一旋转基准轴穿过人机交互界面的实际位置,第一旋转基准轴穿过人机交互界面的位置可以在人机交互界面的中心位置,或者虚拟对象头部的中心位置。
以下进行举例说明,例如:虚拟对象维持站立姿态,第一旋转操作的角速度的取值处于镜头转动模式关联的取值空间,第一旋转操作为绕第一旋转基准轴顺时针进行转动,第一旋转基准轴从虚拟对象的头部穿过人机交互界面,虚拟场景的镜头绕第一旋转基准轴顺时针进行转动,显示为虚拟对象的姿态保持不变,虚拟场景与虚拟对象均绕第一旋转基准轴顺时针进行转动,转动角度与第一旋转操作对应的角度正相关。
参考图4C,图4C是本申请实施例提供的虚拟场景中的对象控制方法的流程示意图;
图4C中步骤101之后还包括步骤106。在步骤106中,检测姿态倾斜模式的状态。在步骤 106的检测结果为姿态倾斜模式是开启状态时,则可以转入步骤107。在步骤107中,当姿态倾斜模式的状态是开启状态时,转入执行控制虚拟对象的姿态向虚拟对象的左向或右向倾斜的处理。也即,在步骤107之后确认可以执行步骤102。在步骤106的检测结果为当姿态倾斜模式被屏蔽时,则可以转入步骤108。在步骤108中,确定处于镜头转动模式,控制虚拟场景的镜头绕第一旋转基准轴进行转动。
在一些实施例中,姿态倾斜模式具有对应的设置开关,在设置开关的选项被设置为开启时,姿态倾斜模式被开启。作为示例,姿态倾斜模式对应的设置开关可以在接收到第一旋转操作时进行显示,也可以在虚拟场景的设置列表中进行显示。姿态倾斜模式的开启状态可以在接收到第一旋转操作之前被设置,也可以在接收到第一旋转操作时显示的开关上进行设置。
在一些实施例中,当姿态倾斜模式被确认为开启状态时,在接收到第一旋转操作时,控制虚拟对象的姿态向虚拟对象的左向或右向倾斜;当姿态倾斜模式被确认为屏蔽状态时,确认处于镜头转动模式,在接收到第一旋转操作时,控制虚拟场景的镜头根据第一旋转操作绕第一旋转基准轴转动的方向进行转动且转动角度正相关。
本申请实施例提供的虚拟场景中的对象控制方法,通过针对电子设备进行的旋转操作,控制虚拟场景中的虚拟对象的姿态进行倾斜或者控制虚拟场景的镜头进行转动,利用旋转操作替代了传统的按键操作,用户无需同时使用多个手指进行按压操作来实现对虚拟对象姿态控制和镜头转动控制,提升用户操作的便利性,提升对虚拟场景的操控效率。同时,旋转操作与虚拟对象的姿态倾斜或虚拟场景的镜头转动的方向相同且角度正相关,提升了用户对虚拟场景的代入感,为用户带来更真实的视觉体验。
下面,将说明本申请实施例在一个实际的应用场景中的示例性应用。
传统的按键操作控制虚拟对象的方案中,通常在人机交互界面上设置多种虚拟交互按钮,各虚拟交互按钮关联虚拟对象的不同动作或者关联虚拟场景的镜头的不同转动方向。用户同时进行虚拟镜头转动与虚拟对象姿态控制的情况下,需要调动多个手指进行按键操作 (按键操作包括但不限于:点击按键、长按按键、拖动按键、滑动屏幕等),操作难度上升,且虚拟按键过多提升了对人机交互界面的遮挡率(一方面,虚拟按键对人机交互界面进行了遮挡,另一方面,用户使用手指按压虚拟按键时也会对按键周边区域进行遮挡),使用户的视觉体验下降。
针对上述技术问题,本申请实施例提供了一种虚拟场景中的对象控制方法,通过针对电子设备的旋转操作对虚拟对象的姿态或者虚拟场景的镜头进行控制,针对不同的旋转基准轴,可以进行不同方向上的虚拟场景的镜头转动,提升操作的便利性。
示例的,参考图5,图5是本申请实施例提供的电子设备的轴向示意图;图5中电子设备为移动终端,移动终端的显示屏显示人机交互界面,在移动终端处于横屏模式下,第一旋转基准轴(YAW轴)垂直于人机交互界面向上(图5中参考轴Z0所对应的上方),第二旋转基准轴(ROLL轴)平行于人机交互界面的宽度方向(图5中Y0轴所对应的方向),第三旋转基准轴(PITCH轴)平行于人机交互界面高度方向(图5中X0轴所对应的方向)。同理,若电子设备处于竖屏模式下,第一旋转基准轴(YAW轴)垂直于人机交互界面,则正方向为观看显示屏的方向的反向,即图5中参考轴Z0所对应的方向,第二旋转基准轴(ROLL 轴)平行于人机交互界面的长度方向,即图5中Y0轴所对应的方向,第三旋转基准轴(PITCH 轴)平行于人机交互界面的宽度方向,即图5中X0轴所对应的方向。
第一、第二及第三旋转基准轴之间互相垂直,但各基准轴的方向可以根据实际需求进行设置,本申请实施例并不对此构成限制。
在另一些实施例中,例如:电子设备为可穿戴的虚拟现实设备的情况下,ROLL轴垂直于人机交互界面且穿过人机交互界面向观看人机交互界面的反方向延伸,PITCH轴平行于人机交互界面的宽度方向且向人机交互界面的右侧延伸,YAW轴平行于人机交互界面的高度方向且向人机交互界面的上方延伸。
本申请实施例基于图5中的各旋转基准轴的方向为例进行说明。
以下结合流程图与示意图进行说明,参考图8A图与图8B,图8A及图8B是本申请实施例提供的虚拟场景中的对象控制方法的一个可选的流程示意图;参考图9A、图9B、图9C,图9A、图9B、图9C是本申请实施例提供的人机交互界面中显示虚拟场景的示意图。
参考图8A,图8A中包括步骤801:在显示每帧虚拟场景的图像时,检测电子设备绕各个旋转基准轴进行旋转的旋转角度。步骤802A:在确认电子设备绕第一旋转基准轴向虚拟角色的右向进行旋转时,判断旋转角度是否大于角度阈值。若步骤802A的判断结果为否,则执行步骤804:控制虚拟对象维持当前姿态;若步骤802A的判断结果为是,则执行步骤805A:判断虚拟对象是否处于右探头;若步骤805A的判断结果为是,则执行步骤806A,控制虚拟对象维持右探头。若步骤805A的判断结果为否,则执行步骤807A:判断虚拟对象是否可以执行右探头,若步骤807A的判断结果为是,则执行步骤808A:控制虚拟对象的当前姿态切换为右探头姿态。若步骤807A的判断结果为否,则执行步骤804A:控制虚拟对象维持当前姿态。
图8A中控制虚拟对象执行右探头,视觉表现上可以参考图9A及图9C。
示例的,电子设备中设置有陀螺仪以检测针对电子设备的旋转操作,陀螺仪每帧检测电子设备的旋转角度或角速度,本申请实施例以角度为例进行说明,如图9A、图9B所示,本申请实施例中电子设备为手机,电子设备的人机交互界面中显示有虚拟场景,虚拟场景中包含虚拟对象110,本申请实施例以第三人称视角下虚拟场景的镜头面对虚拟对象110的背后为例进行说明。
示例的,参考图9C,图9C为没有执行任何旋转操作时,电子设备及电子设备中显示的虚拟场景的画面,虚拟场景中包括虚拟对象110,虚拟对象为直立的站姿。
示例的,参考图9A,陀螺仪当前获取的电子设备在YAW轴的旋转角度为Y1,在旋转角度大于角度阈值Y0时,根据第一旋转操作的方向与旋转角度控制虚拟对象110执行对应的姿态倾斜。参考图9A,电子设备受到了绕第一旋转基准轴(YAW轴)顺时针转动的第一旋转操作,图9A中直线L1为平行于人机交互界面宽度方向的直线,直线L2为第一旋转操作前直线L1所处的位置,两直线形成的夹角为第一旋转操作绕YAW轴的旋转角度Y1,在当前镜头方向下,顺时针旋转对应于虚拟对象110的右侧,旋转角度Y1大于角度阈值Y0,则虚拟对象110的姿态向虚拟对象110的右向进行倾斜,进行姿态倾斜后虚拟对象110的头部的重心与躯干的重心不再处于同一垂直线,参考图9A,倾斜姿态可以为右探头。若第一旋转操作结束后,电子设备受到了其他旋转操作,且其他旋转操作对应的旋转角度Y1小于角度阈值Y0,则虚拟对象110不再保持右探头姿态,恢复为原姿态。在虚拟对象110的初始姿态不满足执行右探头姿态的条件时,即使第一旋转操作的旋转角度Y1大于角度阈值Y0,虚拟对象110的初始姿态也不切换为右探头姿态。例如:虚拟对象110的初始姿态为跑步、游泳、趴下或者驾驶姿态,则不满足执行右探头姿态的条件,若此时的第一旋转操作的旋转角度Y1大于角度阈值Y0,无法执行探头姿势。
参考图8B,图8B中包括步骤801:每帧检测电子设备绕各个旋转基准轴进行旋转的旋转角度。步骤802B:在确认电子设备绕第一旋转基准轴向虚拟角色的左向进行旋转时,判断旋转角度是否大于角度阈值。若步骤802B的判断结果为否,则执行步骤804:控制虚拟对象维持当前姿态;若步骤802B的判断结果为是,则执行步骤805B:判断虚拟对象是否处于左探头;若步骤805B的判断结果为是,则执行步骤806B,控制虚拟对象维持左探头。若步骤805B的判断结果为否,则执行步骤807B:判断虚拟对象是否可以执行左探头,若步骤 807B的判断结果为是,则执行步骤808B:控制虚拟对象的当前姿态切换为左探头姿态。若步骤807B的判断结果为否,则执行步骤804:控制虚拟对象维持当前姿态。
图8B中控制虚拟对象执行左探头,视觉表现上可以参考图9B。
示例的,参考图9B,电子设备受到了绕第一旋转基准轴(YAW轴)逆时针转动的第一旋转操作,在当前镜头方向下,逆时针旋转对应于虚拟对象110的左侧,旋转角度Y2的绝对值大于角度阈值Y0的绝对值,则虚拟对象110的姿态向虚拟对象110的左向进行倾斜,进行姿态倾斜后虚拟对象110的头部的重心与躯干的重心不再处于同一垂直线,参考图9B,倾斜姿态可以为左探头。
在一些实施例中,第一旋转操作对应于不同的控制模式,在第一旋转操作的角速度或者角度的取值处于姿态倾斜模式关联的取值空间时,进行虚拟对象姿态倾斜的控制。姿态倾斜模式是通过第一旋转操作控制虚拟对象进行倾斜的模式。在第一旋转操作的角速度或者角度的取值处于镜头转动模式关联的取值空间时,进行镜头转动的控制。镜头转动模式是通过第一旋转操作控制虚拟场景的镜头绕第一旋转基准轴进行镜头转动的模式。姿态倾斜模式与镜头转动模式也可以通过开关设置开启或者关闭,在姿态倾斜模式被屏蔽时镜头转动模式被开启,在镜头转动模式被屏蔽时姿态倾斜模式被开启,或者两种模式能同时被屏蔽。
图8C是本申请实施例提供的虚拟场景中的对象控制方法的一个可选的流程示意图。
参考图8C,图8C中包括步骤801:每帧检测电子设备绕各个旋转基准轴进行旋转的旋转角度。步骤802C:在电子设备绕第一旋转基准轴向虚拟角色的左向进行旋转时,判断旋转角度的取值空间是否处于姿态倾斜模式的取值空间。若步骤802C的判断结果为是,则执行步骤805C:执行姿态倾斜模式下的处理;姿态倾斜模式下的处理也即图8A或者图8B中所示的流程。
若步骤802C的判断结果为否,则执行步骤806C:判断旋转方向是否为顺时针方向;若步骤806C的判断结果为否,则执行步骤808C:控制虚拟场景的镜头绕第一旋转基准轴向逆时针方向转动;若步骤806C的判断结果为是,则执行步骤807C,控制虚拟场景的镜头绕第一旋转基准轴向顺时针方向转动。
示例的,对镜头转动模式进行解释说明,参考图10A,图10A是本申请实施例提供的人机交互界面中显示虚拟场景的示意图,图10A中的镜头转动方式对应于图8C中步骤807C,图10A中以虚拟建筑124为参照物为例进行说明,虚拟建筑124为一栋一层平房,下文虚拟建筑124为同一虚拟建筑。在镜头转动模式下,电子设备受到了绕第一旋转基准轴(YAW 轴)顺时针转动的第一旋转操作,转动角度为Y7,虚拟对象110的姿态维持原姿态,人机交互界面中的虚拟场景跟随第一旋转操作绕第一旋转基准轴进行顺时针的旋转,且旋转角度与第一旋转操作对应的旋转角度Y7正相关。则人机交互界面中的画面显示为:虚拟建筑124 与虚拟对象110一起向人机交互界面的右侧倾斜。虚拟建筑124、虚拟对象110与虚拟场景中地面或天空之间的位置关系保持不变,仅显示为虚拟场景对应的画面倾斜。
参考图10B,图10B是本申请实施例提供的人机交互界面中显示虚拟场景的示意图,图10B中的镜头转动方式对应于图8C中步骤808C,在镜头转动模式下,电子设备受到了绕第一旋转基准轴(YAW轴)逆时针转动的第一旋转操作,旋转角度为Y8,虚拟对象的姿态(图10B中虚拟对象为站立姿态)保持不受镜头转动的影响(镜头转动时,虚拟对象的头部的重心与躯干的重心处于同一垂直线上),人机交互界面中的虚拟场景跟随第一旋转操作绕第一旋转基准轴进行逆时针的旋转,且旋转角度与第一旋转操作对应的旋转角度Y8正相关。则人机交互界面中的画面显示为:虚拟建筑124与虚拟对象110一起向人机交互界面的左侧倾斜。虚拟建筑124、虚拟对象110与虚拟场景中地面或天空之间的位置关系保持不变,仅显示为虚拟场景对应的画面倾斜。
示例的,本申请实施例中以虚拟场景的镜头在虚拟对象的正背后的第三人称视角为例进行说明,但实际运用中,第三人称视角下,虚拟场景的镜头可以位于不同的方向。在虚拟场景的镜头位于虚拟对象的其他方向的情况下,第一旋转基准轴穿过人机交互界面的位置可以为人机交互界面的中心,则进行第一旋转操作时,虚拟场景的镜头绕穿过人机交互界面中心位置的第一旋转基准轴进行转动,转动方向与第一旋转操作相同,转动角度与第一旋转操作对应的角度正相关。
下面继续说明本申请实施例提供的虚拟场景中的对象控制装置455的实施为软件模块的示例性结构,在一些实施例中,如图2所示,存储在存储器440的虚拟场景中的对象控制装置455中的软件模块可以包括:显示模块4551,配置为在人机交互界面中显示虚拟场景;其中,虚拟场景包括虚拟对象;倾斜控制模块4552,配置为响应于第一旋转操作,控制虚拟对象的姿态向虚拟对象的左向或右向倾斜;其中,第一旋转操作对应的第一基准轴垂直于人机交互界面。
在一些实施例中,倾斜控制模块4552,还用于:根据与第一旋转操作绕第一旋转基准轴旋转一致的方向,控制虚拟对象中包括头部在内的至少部分向虚拟对象的左向或者右向进行倾斜;其中,虚拟对象的头部向下的各部分的倾斜角度依次减小,且均与第一旋转操作基于操作绕第一旋转基准轴旋转的角度正相关。
在一些实施例中,倾斜控制模块4552,还用于:当第一旋转操作基于操作绕第一旋转基准轴向虚拟对象的左向进行旋转的角度大于角度阈值时,控制虚拟对象中包括头部在内的至少部分向虚拟对象的左向进行倾斜;当第一旋转操作基于操作绕第一旋转基准轴向虚拟对象的右向进行旋转的角度大于角度阈值时,控制虚拟对象中包括头部在内的至少部分向虚拟对象的右向进行倾斜。
在一些实施例中,倾斜控制模块4552,还用于:当第一旋转操作基于操作绕第一旋转基准轴向虚拟对象的左向进行旋转的角度大于角度阈值,且角速度大于角速度阈值时,控制虚拟对象中包括头部在内的至少部分向虚拟对象的左向进行倾斜;当第一旋转操作基于操作绕第一旋转基准轴向虚拟对象的右向进行旋转的角度大于角度阈值,且角速度大于角速度阈值时,控制虚拟对象中包括头部在内的至少部分向虚拟对象的右向进行倾斜。
在一些实施例中,倾斜控制模块4552,还用于:获取针对虚拟对象的历史操作数据;基于历史操作数据调用阈值识别模型,得到能够用于识别针对虚拟对象的异常操作的角度阈值和角速度阈值。
其中,阈值识别模型是通过旋转操作数据样本、以及旋转操作数据样本标记的响应或不响应的标签进行训练得到。
在一些实施例中,在控制虚拟对象的姿态向虚拟对象自身的左向或右向倾斜之前,倾斜控制模块4552,还用于:响应于虚拟对象的当前姿态满足第一条件,转入执行控制虚拟对象的姿态向虚拟对象的左向或右向倾斜的处理;其中,第一条件包括:虚拟对象基于当前姿态进行倾斜所需活动的身体部分未处于工作状态。
在一些实施例中,在控制虚拟对象的姿态向虚拟对象自身的左向或右向倾斜之前,倾斜控制模块4552,还用于:当虚拟对象周围的区域满足第二条件,转入执行控制虚拟对象的姿态向虚拟对象的左向或右向倾斜的处理。其中,第二条件包括:在区域内不存在能够对虚拟对象造成状态衰减的因素。
在一些实施例中,在控制虚拟对象的姿态向虚拟对象自身的左向或右向倾斜之前,倾斜控制模块4552,还用于:当区域不满足第二条件时,显示提示信息;其中,提示信息用于表征虚拟对象倾斜姿态时将存在风险;响应于再次接收的第一旋转操作,转入执行控制虚拟对象的姿态向虚拟对象的左向或右向倾斜的处理。
在一些实施例中,在控制虚拟对象的姿态向虚拟对象自身的左向或右向倾斜之前,倾斜控制模块4552,还用于:当虚拟对象周围的区域满足第三条件时,转入执行控制虚拟对象的姿态向虚拟对象的左向或右向倾斜的处理;其中,第三条件包括:在区域内与第一旋转操作绕第一旋转基准轴旋转一致的方向上,不存在阻挡虚拟对象左向或右向倾斜的障碍物。
在一些实施例中,倾斜控制模块4552,还用于:根据与第二旋转操作绕第二旋转基准轴旋转一致的方向,控制虚拟场景的镜头进行转动,其中,虚拟场景的镜头的转动角度与第二旋转操作绕第二旋转基准轴旋转的角度正相关。
在一些实施例中,根据与第三旋转操作绕第三旋转基准轴旋转的一致方向,控制虚拟场景的镜头进行转动,其中,虚拟场景的镜头的转动角度与第三旋转操作绕第三旋转基准轴旋转的角度正相关。
在一些实施例中,在控制虚拟对象的姿态向虚拟对象的左向或右向倾斜之前,倾斜控制模块4552,还用于:当第一旋转操作的角速度的取值处于与姿态倾斜模式关联的取值空间时,确定处于姿态倾斜模式,并转入执行控制虚拟对象的姿态向虚拟对象的左向或右向倾斜的处理;其中,姿态倾斜模式是通过第一旋转操作控制虚拟对象进行倾斜的模式。
在一些实施例中,倾斜控制模块4552,还用于:当第一旋转操作的角速度的取值处于与镜头转动模式关联的取值空间时,确定处于镜头转动模式,控制虚拟场景的镜头绕第一旋转基准轴旋转;其中,虚拟场景的镜头的转动角度与第一旋转操作绕第一旋转基准轴旋转的角度正相关。
在一些实施例中,在控制虚拟对象的姿态向虚拟对象的左向或右向倾斜之前,倾斜控制模块4552,还用于:检测姿态倾斜模式的状态;其中,姿态倾斜模式的状态是在响应于第一旋转操作而显示的开关上进行设置的,或者是在接收到第一旋转操作之前被设置的。当姿态倾斜模式的状态是开启状态时,转入执行控制虚拟对象的姿态向虚拟对象的左向或右向倾斜的处理。
当姿态倾斜模式的状态是屏蔽状态时,倾斜控制模块4552,还用于:还用于:
确定处于镜头转动模式,控制虚拟场景的镜头绕第一旋转基准轴进行转动;其中,虚拟场景的镜头的转动角度与第一旋转操作绕第一旋转基准轴旋转的角度正相关。
本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例上述的虚拟场景中的对象控制方法。
本申请实施例提供一种存储有可执行指令的计算机可读存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的虚拟场景中的对象控制方法,例如,如图3A示出的虚拟场景中的对象控制方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
综上,本申请实施例通过绕终端设备所对应的不同旋转基准轴进行旋转操作,对人机交互界面中显示的虚拟场景内的虚拟对象进行姿态控制或者对虚拟场景的镜头进行控制;通过旋转操作替代传统的按键操作控制虚拟对象姿态或者虚拟场景的镜头,用户无需同时使用多个手指进行按压操作来实现对虚拟对象姿态控制和镜头转动控制,提升操作的便利性,提升了对虚拟场景的操控效率,另一方面,节约了在人机交互界面设置的按键,使得人机交互界面减少虚拟按键对人机交互界面的遮挡程度。设置姿态倾斜模式与镜头转动模式,丰富了旋转操作能够控制的类型,提升操作的自由度,提升用户的视觉体验。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。

Claims (20)

1.一种虚拟场景中的对象控制方法,其特征在于,所述方法包括:
在人机交互界面中显示虚拟场景;其中,所述虚拟场景包括虚拟对象;
响应于第一旋转操作,控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜;其中,所述第一旋转操作对应的第一基准轴垂直于所述人机交互界面;
响应于第二旋转操作,控制所述虚拟场景的镜头绕第二旋转基准轴转动;其中,所述第二旋转基准轴平行于所述人机交互界面的宽度方向;
响应于第三旋转操作,控制所述虚拟场景的镜头绕第三旋转基准轴转动;其中,所述第三旋转基准轴平行于所述人机交互界面的高度方向。
2.如权利要求1所述的方法,其特征在于,所述控制所述虚拟对象的姿态向所述虚拟对象自身的左向或右向倾斜,包括:
根据与所述第一旋转操作绕所述第一旋转基准轴旋转一致的方向,控制所述虚拟对象中包括头部在内的至少部分向所述虚拟对象的左向或者右向进行倾斜;
其中,所述虚拟对象的头部向下的各部分的倾斜角度依次减小,且均与所述第一旋转操作绕所述第一旋转基准轴旋转的角度正相关。
3.如权利要求2所述的方法,其特征在于,所述控制所述虚拟对象中包括头部在内的至少部分向所述虚拟对象的左向或者右向进行倾斜,包括:
当所述第一旋转操作绕所述第一旋转基准轴向所述虚拟对象的左向进行旋转的角度大于角度阈值时,控制所述虚拟对象中包括头部在内的至少部分向所述虚拟对象的左向进行倾斜;
当所述第一旋转操作绕所述第一旋转基准轴向所述虚拟对象的右向进行旋转的角度大于角度阈值时,控制所述虚拟对象中包括头部在内的至少部分向所述虚拟对象的右向进行倾斜。
4.如权利要求2所述的方法,其特征在于,所述控制所述虚拟对象中包括头部在内的至少部分向虚拟对象的左向或者右向进行倾斜,包括:
当所述第一旋转操作绕所述第一旋转基准轴向所述虚拟对象的左向进行旋转的角度大于角度阈值,且角速度大于角速度阈值时,控制所述虚拟对象中包括头部在内的至少部分向虚拟对象的左向进行倾斜;
当所述第一旋转操作绕所述第一旋转基准轴向所述虚拟对象的右向进行旋转的角度大于角度阈值,且角速度大于角速度阈值时,控制所述虚拟对象中包括头部在内的至少部分向虚拟对象的右向进行倾斜。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
获取针对所述虚拟对象的历史操作数据;
基于所述历史操作数据调用阈值识别模型,得到能够用于识别针对所述虚拟对象的异常操作的所述角度阈值和所述角速度阈值;
其中,所述阈值识别模型是通过旋转操作数据样本、以及所述旋转操作数据样本标记的响应或不响应的标签进行训练得到。
6.如权利要求1所述的方法,其特征在于,在所述控制所述虚拟对象的姿态向所述虚拟对象自身的左向或右向倾斜之前,所述方法还包括:
响应于所述虚拟对象的当前姿态满足第一条件,转入执行所述控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜的处理;
其中,所述第一条件包括:所述虚拟对象基于所述当前姿态进行倾斜所需活动的身体部分未处于工作状态。
7.如权利要求1所述的方法,其特征在于,在所述控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜之前,所述方法还包括:
当所述虚拟对象周围的区域满足第二条件,转入执行所述控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜的处理;
其中,所述第二条件包括:在所述区域内不存在能够对所述虚拟对象造成状态衰减的因素。
8.如权利要求7所述的方法,其特征在于,在所述控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜之前,所述方法还包括:
当所述区域不满足所述第二条件时,显示提示信息;其中,所述提示信息用于表征所述虚拟对象倾斜姿态时将存在风险;
响应于再次接收的所述第一旋转操作,转入执行所述控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜的处理。
9.如权利要求1所述的方法,其特征在于,在控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜之前,所述方法还包括:
当所述虚拟对象周围的区域满足第三条件时,转入执行所述控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜的处理;
其中,所述第三条件包括:在所述区域内与所述第一旋转操作绕所述第一旋转基准轴旋转一致的方向上,不存在阻挡所述虚拟对象左向或右向倾斜的障碍物。
10.如权利要求1所述的方法,其特征在于,所述控制所述虚拟场景的镜头绕第二旋转基准轴转动,包括:
根据与所述第二旋转操作绕所述第二旋转基准轴旋转一致的方向,控制所述虚拟场景的镜头进行转动,其中,所述虚拟场景的镜头的转动角度与所述第二旋转操作绕所述第二旋转基准轴旋转的角度正相关。
11.如权利要求1所述的方法,其特征在于,所述控制所述虚拟场景的镜头绕所述第三旋转基准轴转动,包括:
根据与所述第三旋转操作绕所述第三旋转基准轴旋转的一致方向,控制所述虚拟场景的镜头进行转动,其中,所述虚拟场景的镜头的转动角度与所述第三旋转操作绕所述第三旋转基准轴旋转的角度正相关。
12.如权利要求1所述的方法,其特征在于,在控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜之前,所述方法还包括:
当所述第一旋转操作的角速度的取值处于与姿态倾斜模式关联的取值空间时,确定处于所述姿态倾斜模式,并转入执行所述控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜的处理;其中,所述姿态倾斜模式是通过所述第一旋转操作控制所述虚拟对象进行倾斜的模式。
13.如权利要求12所述的方法,其特征在于,所述方法还包括:
当所述第一旋转操作的角速度的取值处于与镜头转动模式关联的取值空间时,确定处于镜头转动模式,控制所述虚拟场景的镜头绕所述第一旋转基准轴旋转;其中,所述虚拟场景的镜头的转动角度与所述第一旋转操作绕所述第一旋转基准轴旋转的角度正相关。
14.如权利要求1所述的方法,其特征在于,在控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜之前,所述方法还包括:
检测姿态倾斜模式的状态;其中,所述姿态倾斜模式的状态是在响应于所述第一旋转操作而显示的开关上进行设置的,或者是在接收到所述第一旋转操作之前被设置的;
当所述姿态倾斜模式的状态是开启状态时,转入执行所述控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜的处理;
当所述姿态倾斜模式的状态是屏蔽状态时,所述方法还包括:
确定处于镜头转动模式,控制所述虚拟场景的镜头绕所述第一旋转基准轴进行转动;其中,所述虚拟场景的镜头的转动角度与所述第一旋转操作绕所述第一旋转基准轴旋转的角度正相关。
15.如权利要求1所述的方法,其特征在于,
所述第一旋转操作、所述第二旋转操作和所述第三旋转操作是针对终端设备实施的,所述终端设备用于显示所述人机交互界面;或者,
所述第一旋转操作、所述第二旋转操作和所述第三旋转操作是针对穿戴式设备或手柄设备实施的,所述穿戴式设备或所述手柄设备用于向终端设备发送相应的控制信号,所述终端设备用于显示所述人机交互界面。
16.一种虚拟场景中的对象控制方法,其特征在于,所述方法包括:
在人机交互界面中显示虚拟场景;其中,所述虚拟场景包括虚拟对象;
响应于第一旋转操作,控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜;其中,所述第一旋转操作对应的第一基准轴垂直于所述人机交互界面。
17.一种虚拟场景中的对象控制装置,其特征在于,所述装置包括:
显示模块,配置为在人机交互界面中显示虚拟场景;其中,所述虚拟场景包括虚拟对象;
第一控制模块,配置为响应于第一旋转操作,控制所述虚拟对象的姿态向所述虚拟对象的左向或右向倾斜;其中,所述第一旋转操作对应的第一基准轴垂直于所述人机交互界面;
第二控制模块,配置为响应于第二旋转操作,控制所述虚拟场景的镜头绕第二旋转基准轴转动;其中,所述第二旋转基准轴平行于所述人机交互界面的宽度方向;
第三控制模块,配置为响应于第三旋转操作,控制所述虚拟场景的镜头绕第三旋转基准轴转动;其中,所述第三旋转基准轴平行于所述人机交互界面的高度方向。
18.一种用于虚拟场景中的对象控制的终端设备,其特征在于,所述终端设备包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至14任一项或权利要求15所述的虚拟场景中的对象控制方法。
19.一种计算可读存储介质,存储有可执行指令,其特征在于,用于被处理器执行时实现权利要求1至14任一项或权利要求15所述的虚拟场景中的对象控制方法。
20.一种计算机程序产品,包括计算机程序或指令,其特征在于,所述计算机程序或指令被处理器执行时实现权利要求1至14任一项或权利要求15所述的虚拟场景中的对象控制方法。
CN202111220651.8A 2021-10-20 2021-10-20 虚拟场景中的对象控制方法、装置及终端设备 Withdrawn CN113926187A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202111220651.8A CN113926187A (zh) 2021-10-20 2021-10-20 虚拟场景中的对象控制方法、装置及终端设备
CN202111672726.6A CN114053693B (zh) 2021-10-20 2021-12-31 虚拟场景中的对象控制方法、装置及终端设备
PCT/CN2022/120460 WO2023065949A1 (zh) 2021-10-20 2022-09-22 虚拟场景中的对象控制方法、装置、终端设备、计算机可读存储介质、计算机程序产品
US18/206,562 US20230310989A1 (en) 2021-10-20 2023-06-06 Object control method and apparatus in virtual scene, terminal device, computer-readable storage medium, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111220651.8A CN113926187A (zh) 2021-10-20 2021-10-20 虚拟场景中的对象控制方法、装置及终端设备

Publications (1)

Publication Number Publication Date
CN113926187A true CN113926187A (zh) 2022-01-14

Family

ID=79280725

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202111220651.8A Withdrawn CN113926187A (zh) 2021-10-20 2021-10-20 虚拟场景中的对象控制方法、装置及终端设备
CN202111672726.6A Active CN114053693B (zh) 2021-10-20 2021-12-31 虚拟场景中的对象控制方法、装置及终端设备

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202111672726.6A Active CN114053693B (zh) 2021-10-20 2021-12-31 虚拟场景中的对象控制方法、装置及终端设备

Country Status (3)

Country Link
US (1) US20230310989A1 (zh)
CN (2) CN113926187A (zh)
WO (1) WO2023065949A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114053693A (zh) * 2021-10-20 2022-02-18 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置及终端设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5912289B2 (ja) * 2011-05-24 2016-04-27 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
CN103578127B (zh) * 2013-11-13 2016-08-31 北京像素软件科技股份有限公司 一种对象转身操作实现方法及装置
US9852351B2 (en) * 2014-12-16 2017-12-26 3Ditize Sl 3D rotational presentation generated from 2D static images
CN106178504B (zh) * 2016-06-27 2019-07-05 网易(杭州)网络有限公司 虚拟对象运动控制方法及装置
JP6689694B2 (ja) * 2016-07-13 2020-04-28 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
CN108245887A (zh) * 2018-02-09 2018-07-06 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、电子装置及存储介质
CN108245893B (zh) * 2018-02-09 2021-06-29 腾讯科技(深圳)有限公司 三维虚拟环境中虚拟对象的姿态确定方法、装置及介质
CN110827412A (zh) * 2018-08-09 2020-02-21 北京微播视界科技有限公司 自适应平面的方法、装置和计算机可读存储介质
CN110045827B (zh) * 2019-04-11 2021-08-17 腾讯科技(深圳)有限公司 虚拟环境中虚拟物品的观察方法、装置及可读存储介质
CN110251936B (zh) * 2019-06-24 2022-12-20 网易(杭州)网络有限公司 游戏中虚拟摄像机的控制方法、设备及存储介质
JP6924799B2 (ja) * 2019-07-05 2021-08-25 株式会社スクウェア・エニックス プログラム、画像処理方法及び画像処理システム
CN111026277A (zh) * 2019-12-26 2020-04-17 深圳市商汤科技有限公司 一种交互控制方法及装置、电子设备和存储介质
CN112076473B (zh) * 2020-09-11 2022-07-01 腾讯科技(深圳)有限公司 虚拟道具的控制方法、装置、电子设备及存储介质
CN113926187A (zh) * 2021-10-20 2022-01-14 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置及终端设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114053693A (zh) * 2021-10-20 2022-02-18 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置及终端设备
WO2023065949A1 (zh) * 2021-10-20 2023-04-27 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置、终端设备、计算机可读存储介质、计算机程序产品
CN114053693B (zh) * 2021-10-20 2023-07-25 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置及终端设备

Also Published As

Publication number Publication date
CN114053693B (zh) 2023-07-25
CN114053693A (zh) 2022-02-18
US20230310989A1 (en) 2023-10-05
WO2023065949A1 (zh) 2023-04-27

Similar Documents

Publication Publication Date Title
JP7331124B2 (ja) 仮想オブジェクトの制御方法、装置、端末及び記憶媒体
JP6281495B2 (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
CN106873767B (zh) 一种虚拟现实应用的运行控制方法和装置
WO2014119098A1 (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
JP2014149712A (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
CN112156464B (zh) 虚拟对象的二维形象展示方法、装置、设备及存储介质
CN112416196B (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
TWI818343B (zh) 虛擬場景的適配顯示方法、裝置、電子設備、儲存媒體及電腦程式產品
WO2022105362A1 (zh) 虚拟对象的控制方法、装置、设备、存储介质及计算机程序产品
CN112843679B (zh) 虚拟对象的技能释放方法、装置、设备及介质
US11803301B2 (en) Virtual object control method and apparatus, device, storage medium, and computer program product
CN113426124B (zh) 游戏中的显示控制方法、装置、存储介质及计算机设备
CN112933606A (zh) 游戏场景转换方法及装置、存储介质、计算机设备
US20230310989A1 (en) Object control method and apparatus in virtual scene, terminal device, computer-readable storage medium, and computer program product
CN112494958B (zh) 语音转换文字的方法、系统、设备及介质
CN112755517B (zh) 虚拟对象控制方法、装置、终端及存储介质
US20230271087A1 (en) Method and apparatus for controlling virtual character, device, and storage medium
WO2023246307A1 (zh) 虚拟环境中的信息处理方法、装置、设备及程序产品
WO2024037142A1 (zh) 虚拟对象的移动引导方法、装置、电子设备、存储介质及程序产品
TWI839830B (zh) 混合現實交互方法、裝置、電子設備及介質
US20220199087A1 (en) Speech to text conversion method, system, and apparatus, and medium
CN115430151A (zh) 游戏角色的控制方法、装置、电子设备和可读存储介质
CN116339598A (zh) 赛程显示方法、装置、设备及存储介质
CN117942563A (zh) 游戏界面显示方法、装置、电子设备和可读存储介质
CN118012265A (zh) 人机交互方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20220114