CN117369622A - 虚拟对象的控制方法、装置、设备及介质 - Google Patents

虚拟对象的控制方法、装置、设备及介质 Download PDF

Info

Publication number
CN117369622A
CN117369622A CN202210762040.4A CN202210762040A CN117369622A CN 117369622 A CN117369622 A CN 117369622A CN 202210762040 A CN202210762040 A CN 202210762040A CN 117369622 A CN117369622 A CN 117369622A
Authority
CN
China
Prior art keywords
key
peripheral device
virtual
determining
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210762040.4A
Other languages
English (en)
Inventor
饶小林
程林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Priority to CN202210762040.4A priority Critical patent/CN117369622A/zh
Publication of CN117369622A publication Critical patent/CN117369622A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供了一种虚拟对象的控制方法、装置、设备及介质,其中方法包括:接收外设装置发送的控制信号,控制信号是在外设装置上任意按键触发时生成的,且控制信号携带有按键标识和按键的键程值;确定与按键标识对应的目标动作;根据按键的键程值,控制虚拟场景中的虚拟对象执行目标动作。本申请使得虚拟对象能够做出更为多样化和细致化的动作,从而满足用户操作需求,为提升用户在虚拟场景中的交互体验提供条件。

Description

虚拟对象的控制方法、装置、设备及介质
技术领域
本申请实施例涉及虚拟场景技术领域,尤其涉及一种虚拟对象的控制方法、装置、设备及介质。
背景技术
随着虚拟技术的发展,虚拟现实(Virtual Reality,VR)、增强现实(AugmentedReality,AR)、混合现实(Mix reality,MR)以及扩展现实(Extended Reality,XR)等逐渐被大众所熟知。比如,用户通过佩戴VR眼镜、AR眼镜或者MR眼镜可以看到虚拟的画面,从而营造出一种虚拟的场景。
用户在使用XR设备过程中,不仅需要观看虚拟画面,还需要操控虚拟环境中的虚拟对象。目前,操控虚拟环境中的虚拟对象时,基本上是通过手柄实现。但是通过手柄操控虚拟环境中虚拟对象时,仅能控制虚拟对象做出一些简单且笼统的动作,比如抬起、放下以及滑动等,无法满足用户其他操作需求,具有一定的局限性。
发明内容
本申请实施例提供一种虚拟对象的控制方法、装置、设备及介质,使得虚拟对象能够做出更为多样化和细致化的动作,从而满足用户操作需求,为提升用户在虚拟场景中的交互体验提供条件。
第一方面,本申请实施例提供了一种虚拟对象的控制方法,包括:
接收外设装置发送的控制信号,所述控制信号是在所述外设装置上任意按键触发时生成的,且所述控制信号携带有所述按键标识和所述按键的键程值;
确定与所述按键标识对应的目标动作;
根据所述按键的键程值,控制虚拟场景中的虚拟对象执行所述目标动作。
第二方面,本申请实施例提供了一种虚拟对象的控制装置,包括:
信号接收模块,用于接收外设装置发送的控制信号,所述控制信号是在所述外设装置上任意按键触发时生成的,且所述控制信号携带有所述按键标识和所述按键的键程值;
动作确定模块,用于确定与所述按键标识对应的目标动作;
控制模块,用于根据所述按键的键程值,控制虚拟场景中的虚拟对象执行所述目标动作。
第三方面,本申请实施例提供了一种电子设备,包括:
处理器和存储器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,以执行第一方面实施例所述的虚拟对象的控制方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,用于存储计算机程序,所述计算机程序使得计算机执行如第一方面实施例所述的虚拟对象的控制方法。
第五方面,本申请实施例提供了一种包含指令的计算机程序产品,当所述计算机程序产品在电子设备上运行时,使得所述电子设备执行如第一方面实施例所述的虚拟对象的控制方法。
本申请实施例公开的技术方案,至少具有如下有益效果:
通过接收外设装置发送的控制信号,以根据控制信号中携带的按键标识,确定与按键标识对应的目标动作,然后根据控制信号中携带的按键的键程值,控制虚拟对象执行目标动作。由此,实现根据按键和按键的键程值,控制不同虚拟场景中的虚拟对象做出不同且具体的动作,使得虚拟对象能够做出更为多样化和细致化的动作,从而满足用户操作需求,为提升用户在虚拟场景中的交互体验提供条件。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种应用场景示意图;
图2是本申请实施例提供的一种虚拟对象的控制方法的流程示意图;
图3是本申请实施例提供的一种用户真实手的示意图;
图4是本申请实施例提供的一种虚拟手模型的示意图;
图5是本申请实施例提供的一种当虚拟对象为虚拟手时,建立的按键与动作的映射关系示意图;
图6是本申请实施例提供的另一种当虚拟对象为虚拟手时,建立的按键与动作的映射关系示意图;
图7是本申请实施例提供的一种通过外设装置操控虚拟道具的示意图;
图8是本申请实施例提供的另一种虚拟对象的控制方法的流程示意图;
图9是本申请实施例提供的一种虚拟对象的控制装置的示意性框图;
图10是本申请实施例提供的一种电子设备的示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。根据本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请适用于使用XR设备过程中,用户通过手柄操控虚拟环境中的虚拟对象的场景。考虑到目前通过手柄操控虚拟环境中虚拟对象时,仅能控制虚拟对象做出一些简单且笼统的动作,比如抬起、放下以及滑动等,而无法满足用户其他操作需求,具有一定的局限性。因此,本申请设计了一种对虚拟对象控制的方法,以通过该方法可使得虚拟对象能够做出更为多样且细致化的动作,从而满足用户操作需求,为提升用户在虚拟场景中的交互体验提供条件。
为了便于理解本申请实施例,在描述本申请各个实施例之前,首先对本申请所有实施例中所涉及到的一些概念进行适当的解释说明,具体如下:
1)虚拟现实(Virtual Reality,简称为VR),创建和体验虚拟世界的技术,计算生成一种虚拟环境,是一种多源信息(本文中提到的虚拟现实至少包括视觉感知,此外还可以包括听觉感知、触觉感知、运动感知,甚至还包括味觉感知、嗅觉感知等),实现虚拟环境的融合的、交互式的三维动态视景和实体行为的仿真,使用户沉浸到模拟的虚拟现实环境中,实现在诸如地图、游戏、视频、教育、医疗、模拟、协同训练、销售、协助制造、维护和修复等多种虚拟环境的应用。
2)虚拟现实设备(VR设备),实现虚拟现实效果的终端,通常可以提供为眼镜、头盔式显示器(Head Mount Display,简称为HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然虚拟现实设备实现的形态不限于此,根据实际需要可以进一步小型化或大型化。
可选的,本申请实施例中记载的虚拟现实设备可以包括但不限于如下几个类型:
2.1)电脑端虚拟现实(PCVR)设备,利用PC端进行虚拟现实功能的相关计算以及数据输出,外接的电脑端虚拟现实设备利用PC端输出的数据实现虚拟现实的效果。
2.2)移动虚拟现实设备,支持以各种方式(如设置有专门的卡槽的头戴式显示器)设置移动终端(如智能手机),通过与移动终端有线或无线方式的连接,由移动终端进行虚拟现实功能的相关计算,并输出数据至移动虚拟现实设备,例如通过移动终端的APP观看虚拟现实视频。
2.3)一体机虚拟现实设备,具备用于进行虚拟功能的相关计算的处理器,因而具备独立的虚拟现实输入和输出的功能,不需要与PC端或移动终端连接,使用自由度高。
3)增强现实(Augmented Reality,AR):一种在相机采集图像的过程中,实时地计算相机在现实世界(或称三维世界、真实世界)中的相机姿态参数,根据该相机姿态参数在相机采集的图像上添加虚拟元素的技术。虚拟元素包括但不限于:图像、视频和三维模型。AR技术的目标是在屏幕上把虚拟世界套接在现实世界上进行互动。
4)混合现实(Mixed Reality,简称为:MR):将计算机创建的感官输入(例如,虚拟对象)与来自物理布景的感官输入或其表示集成的模拟布景,一些MR布景中,计算机创建的感官输入可以适应于来自物理布景的感官输入的变化。另外,用于呈现MR布景的一些电子系统可以监测相对于物理布景的取向和/或位置,以使虚拟对象能够与真实对象(即来自物理布景的物理元素或其表示)交互。例如,系统可监测运动,使得虚拟植物相对于物理建筑物看起来是静止的。
5)扩展现实(Extended Reality,简称XR)是指由计算机技术和可穿戴设备生成的所有真实和虚拟组合环境以及人机交互,其包含了虚拟现实(VR)、增强现实(AR)以及混合现实(MR)等多种形式。
6)虚拟场景,是应用程序在电子设备上运行时显示(或提供)的虚拟场景。该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。
7)虚拟对象,是虚拟场景中进行交互的对象,受到用户或机器人程序(例如,基于人工智能的机器人程序)的控制,能够在虚拟场景中静止、移动以及进行各种行为的对象,例如游戏中的各种角色等。
为了清楚说明本申请技术方案,下面对本申请技术方案的应用场景进行说明。应理解的是,本申请技术方案可应用于如下场景,但不限于此:
示例性的,图1是本申请实施例提供的一种应用场景示意图。如图1所示,该应用场景1000中可包括:电子设备100和外设装置200。其中,电子设备100和外设装置200之间可以进行通信。
在本申请实施例中,电子设备100优选为XR设备,其中XR设备可以为VR设备、AR设备或MR设备等,本申请对其不做具体限制。
也就是说,通过XR设备可向用户提供各种虚拟画面,使得用户可以感受不同的虚拟场景。其中,虚拟场景可根据电子设备100中运行的应用程序类型来确定,当然还可以是根据真实环境而虚构的虚拟场景,本申请对此不做具体限制。
在一些可选实现方式中,如图1所示,外设装置200可以是任意具有不同按键的设备,比如手柄等,本申请对此不做限制。
应理解的是,图1所示的电子设备100和外设装置200仅为示意性的,具体可根据实际情况进行设置,本申请实施例对其不做限制。
在介绍了本申请实施例的应用场景之后,下面结合附图对本申请实施例提供的一种虚拟对象的控制方法进行详细说明。
图2是本申请实施例提供的一种虚拟对象的控制方法的流程示意图。本申请实施例可适用于控制虚拟场景中的虚拟对象的场景,该虚拟对象的控制方法可由虚拟对象的控制装置来执行,以实现对虚拟对象控制过程进行控制。该虚拟对象的控制装置可由硬件和/或软件组成,并可集成于电子设备中。本申请实施例中,电子设备优选为XR设备。
如图2所示,该方法可以包括以下步骤:
S101,接收外设装置发送的控制信号,控制信号是在外设装置上任意按键触发时生成的,且控制信号携带有按键标识和按键的键程值。
其中,外设装置可以是任意具有不同按键的设备,比如手柄等,本申请对此不做具体限制。
例如,当外设装置为手柄,且手柄为左右手柄时,左右手柄可分别包括以下按键:按键1、按键2、按键3、按键4、按键5、按键6、按键7、按键8、按键9以及按键10。并且,左右手柄中各按键可通过用户真实手中的不同手指来触发,具体如下表1所示。其中,用户真实手,如图3所示。
表1
按键 触摸 按压 抬起
按键1 大拇指 大拇指 大拇指
按键2 大拇指 大拇指 大拇指
按键3 N 大拇指 大拇指
按键4 N 大拇指(左) 大拇指(左)
按键5 N 大拇指(右) 大拇指(右)
按键6 食指 食指 食指
按键7 N 中指 中指
按键8 大拇指 大拇指 大拇指
按键9 大拇指 大拇指 大拇指
按键10 大拇指 大拇指 大拇指
需要说明的是,上述左右手柄包括的按键,以及各按键通过用户真实手中的不同手指来触发的方式仅作为本申请的示例性说明,具体可根据实际需要进行适应性调整,本申请对此不做具体限制。
在本申请实施例中,键程,是指按键被按下的过程,狭义上来说键程可以是指按下任意按键的距离。
其中,按键标识,是指能够唯一确定按键身份的信息,比如按键编号或者按键名称等,本申请对此不做具体限制。
可选的,使用XR设备过程中,XR设备会向用户显示包括虚拟对象的虚拟场景。当用户观看虚拟场景过程中,可以根据需要通过外设装置控制虚拟对象执行不同的动作。例如,控制虚拟手打开窗户,或者控制虚拟道具射击等等。
当用户通过外设装置控制虚拟对象执行不同动作时,用户可通过按压外设装置上任意按键以向XR设备发送用于控制虚拟对象的控制信号。然后,当XR设备接收到外设装置发送的控制信号之后,通过对该控制信号进行解析,以获取控制信号携带的按键标识和按键的键程值,以使XR设备基于该按键标识和按键的键程值为后续控制虚拟对象执行相应动作奠定基础。
应该理解的是,用户按压外设装置上任意按键,可以是按压一个按键,也可以是同时按压至少两个按键,比如组合键等,本申请对此不做具体限制。
在本申请实施例中,虚拟对象为虚拟手或虚拟道具。
其中,虚拟手可选为3D手模型,比如图4所示的虚拟手模型。虚拟道具可根据XR设备展示的虚拟场景类型来确定,比如当前虚拟场景为对战类游戏时,虚拟道具可为虚拟剑或者虚拟枪等等。
S102,确定与按键标识对应的目标动作。
考虑到不同虚拟场景中可包括的虚拟对象类型存在差别,并且不同类型的虚拟对象所做出的动作也存在差异。因此基于该因素,本申请可预先确定不同虚拟场景中不同类型虚拟对象可执行的所有动作,并确定外设装置上按键与每个动作的对应关系。然后,根据外设装置上按键与每个动作的对应关系,构建一按键与动作的映射关系。随后将该映射关系存储至XR设备中,使得XR设备后续基于该映射关系可快速确定出与外设装置上任意按键被触发时所对应的目标动作。
举例说明,确定不同虚拟场景中不同类型的虚拟对象可执行的所有动作:
示例一
如果虚拟场景为烹饪场景,则虚拟对象为虚拟手,相应虚拟手可执行的动作可包括但不限于:抓物体、放物体、拧物体以及握物体等。
示例二
如果虚拟场景为看书场景,则虚拟对象为虚拟手,相应虚拟手可执行的动作可包括但不限于:用哪个手指翻页、翻页方式、打开方式以及合书方式等。
示例三
如果虚拟场景为游戏场景,则虚拟对象可为虚拟剑,那么虚拟剑可执行的动作可包括但不限于:刺、砍、劈以及挑等。
需要说明的是,上述几种示例仅作为对本申请的示意性说明,不作为对本申请的具体限制,具体可根据实际应用需求进行个性化设置。
确定出虚拟对象可执行的所有动作之后,可将虚拟对象可执行的所有动作中每个动作与外设装置上任意按键建立关联关系。即建立按键与每个动作的对应关系。比如,虚拟对象为虚拟手,且虚拟手执行的动作为点、戳或按等类似动作时,可将该动作与外设装置上的按键5建立关联关系。又比如,虚拟对象为虚拟手,且虚拟手执行的动作为握、捏或抓等类似动作时,可将该动作与外设装置上的按键6建立关联关系。
进而,根据建立的对应关系,构建出按键与动作的映射关系,比如图5所示。图5是建立的虚拟手可执行的一些动作与外设装置上按键的映射关系示意图。在图5中,当外设装置上的按键至少包括:按键5和按键6,且虚拟对象为虚拟手时,构建的按键与动作的映射关系中包括:按键名称和目标动作。
考虑到当外设装置为手柄时,手柄上会设置有红外传感器,通过该红外传感器可检测用户是否触摸了按键。因此,本申请构建的按键与动作的映射关系,还可根据按键是否被触摸进行适应性调整,例如图6所示。图6中包括按键是否被触摸项,虚拟手默认动作项以及按键被触摸时虚拟手动作项。
需要说明的是,因为XR设备中可安装的应用种类众多且会不断更新,因此本申请中构建的按键与动作的映射关系可按照预设周期进行自动更新,并同步对配置于XR设备中的映射关系进行更新,使得用户在任何时候通过外设装置操控虚拟场景中的虚拟对象时均能有良好的操控体验。
其中,预设周期可根据实际需要进行适应性设置,比如一个月或两个月等等。
进一步的,当获取外部装置发送的控制信号中的按键标识之后,本申请即可根据该按键标识,在预设的按键和动作的映射关系中,确定出与按键标识对应的目标动作。
S103,根据按键的键程值,控制虚拟场景中的虚拟对象执行目标动作。
考虑到按键的键程值可以体现出控制虚拟场景中虚拟对象执行相应动作的力度。因此本申请确定出虚拟对象的目标动作之后,可根据解析获得的按键的键程值控制虚拟场景中的虚拟对象执行相应力度值的动作。
因为用户通过外设装置操控虚拟场景中的虚拟对象时,除了控制虚拟对象做出一些具体动作之外,还可能需要控制虚拟对象移动,比如控制虚拟对象边移动边做具体动作。因此,本申请控制虚拟场景中的虚拟对象执行目标动作的同时,还可根据外设装置的移动路径,控制虚拟对象移动,以达到虚拟对象与外设装置之间的数据同步交互目的,从而进一步提升用户通过外设装置操控虚拟场景中虚拟对象的体验。
作为一种可选的实现方式,本申请控制虚拟对象执行目标动作时,可选的还可向外设装置发送反馈指令,控制外设装置根据反馈指令向用户输出反馈信息,以使用户根据该反馈信息确定是否成功操控虚拟场景中的虚拟对象,从而提高用户操控体验。
考虑到外设装置中可安装有马达以及扬声器等器件,因此通过外设装置向用户输出反馈信息可以为震动反馈和/或声音反馈。
作为本申请的另一种可选的实现方式,本申请控制虚拟对象执行完目标动作之后,本申请还可控制虚拟对象恢复到默认动作,如图6所示。从而为下次用户通过外设装置操控虚拟对象奠定基础。
本申请提供的虚拟对象的控制方法,通过接收外设装置发送的控制信号,以根据控制信号中携带的按键标识,确定与按键标识对应的目标动作,然后根据控制信号中携带的按键的键程值,控制虚拟对象执行目标动作。由此,实现根据按键和按键的键程值,控制不同虚拟场景中的虚拟对象做出不同且具体的动作,使得虚拟对象能够做出更为多样化和细致化的动作,从而满足用户操作需求,为提升用户在虚拟场景中的交互体验提供条件。
以下结合一个具体场景实现来描述本申请进行说明:
如图7所示,随着虚拟现实技术的发展,用户可以玩对战类游戏,当对战类游戏中虚拟对象为虚拟道具,比如虚拟剑时,用户可通过按压手柄中的按键6且上下挥动,相应的用户可看到虚拟场景中的虚拟剑也相应执行挥动动作,从而满足用户对虚拟对象的操控需求。
通过上述描述可知,本申请实施例通过根据按键标识对应的目标动作,以及按键的键程值,控制虚拟场景中的虚拟对象执行目标动作,以增加虚拟对象的动作多样性,使得用户能够观察到虚拟对象的具体动作。
作为本申请的一种可选实现方案,考虑到用户通过外设装置操控虚拟对象时,还可根据场景需求控制虚拟对象按照不同的力度执行目标动作。而不同的力度可根据外设装置的移动速度和/或移动幅度等参数确定。因此,本申请还可确定外设装置的移动速度和/或移动幅度,并根据外设装置的移动速度和/或移动幅度对虚拟对象执行目标动作的力度进行更新,然后根据更新后的力度控制虚拟对象执行目标动作。下面结合图8,对本申请上述提供的对虚拟对象执行目标动作的力度进行更新过程进行说明。
如图8所示,该方法可包括如下步骤:
S201,接收外设装置发送的控制信号,控制信号是在外设装置上任意按键触发时生成的,且控制信号携带有按键标识和按键的键程值。
S202,确定与按键标识对应的目标动作。
S203,确定外设装置的移动速度和/或移动幅度。
需要说明的是,确定外设装置的移动速度和/或移动幅度,可以是确定外设装置的移动速度;或者,也可以是确定外设装置的移动幅度;又或者,还可以是确定外设装置的移动速度和移动幅度。
可选的,确定外设装置的移动速度时,可通过如下几种实现方式实现:
作为一种可选的实现方式,考虑到外设装置中可安装有各种类型的传感器,比如惯性测量单元等。并且,外设装置可实时将自身惯性测量单元获取到的惯性测量单元数据发送给XR设备。因此,本申请根据外设装置发送的惯性测量单元数据,确定出外设装置的移动速度。具体确定过程为常规技术,此处对其不做过多赘述。
作为另一种可选的实现方式,因为XR设备上安装有摄像头(比如追踪摄像头),而追踪摄像头可实时采集到包括外设装置的追踪图像。因此,本申请还可根据追踪摄像头采集的多帧追踪图像,确定外设装置的移动速度。
其中,根据追踪摄像头采集的多帧追踪图像,确定外设装置的移动速度,具体为:从多帧追踪图像中,确定所述外设装置位置发生突变的至少两帧目标图像;根据所述目标图像,确定所述外设装置的移动距离和移动所用时间;根据所述移动距离和所述移动所用时间,确定所述外设装置的移动速度。
其中,外设装置位置发生突变,可表征为用户通过外设装置控制虚拟场景中的虚拟对象移动场景。也就是说,一旦确定外设装置位置发生突变了,则说明外设装置在操控虚拟场景中的对象。因此,本申请可根据外设装置位置发生突变的至少两帧目标图像,确定外设装置移动距离和移动所用时间,计算出外设装置的移动速度。
在一些可选的实现方式中,外设装置的移动幅度也可以体现控制虚拟对象的力度,因此本申请还确定外设装置的移动幅度。
可选的,确定外设装置的移动幅度,本申请可根据外设装置位置突变的至少两帧目标图像来确定。具体实现时,可根据至少两帧目标图像,确定外设装置的突变开始位置,和外设装置的突变结束位置,然后根据突变开始位置和突变结束位置,即可确定出外设装置的移动幅度。
S204,根据按键的键程值,以及外设装置的移动速度和/或移动幅度,更新执行目标动作的力度值。
S205,根据更新后的力度值,控制虚拟场景中的虚拟对象执行目标动作。
确定出外设装置的移动速度之后,本申请即可在按键的键程值的基础上叠加移动速度计算出新力度值。然后,根据该新力度值,控制虚拟场景中的虚拟对象执行目标动作。
其中,计算新力度值时,可采用任意能够根据键程值和速度值计算出力度的算法或规则,本申请对此不做具体限制。
考虑到本申请还确定外设装置的移动幅度,那么本申请还可在按键的键程值的基础上叠加移动幅度计算出新力度值。然后,根据该新力度值,控制虚拟场景中的虚拟对象执行目标动作。
进一步的,可选的一种实现方式,本申请还可在按键的键程值的基础上叠加移动速度和移动幅度计算出新力度值。然后,根据该新力度值,控制虚拟场景中的虚拟对象执行目标动作。
本申请提供的虚拟对象的控制方法,通过接收外设装置发送的控制信号,以根据控制信号中携带的按键标识,确定与按键标识对应的目标动作,然后根据控制信号中携带的按键的键程值,控制虚拟对象执行目标动作。由此,实现根据按键和按键的键程值,控制不同虚拟场景中的虚拟对象做出不同且具体的动作,使得虚拟对象能够做出更为多样化和细致化的动作,从而满足用户操作需求,为提升用户在虚拟场景中的交互体验提供条件。此外,通过对控制虚拟对象执行动作的力度进行更新,并利用更新后的力度控制虚拟对象执行相应动作,能够给用户展现更为真实的交互体验,使得用户可以更为直观的感受到虚拟对象执行相应动作时的力度和速度,以使用户在虚拟场景下的交互更符合自然状态下的交互方式,从而进一步满足用户操作需求。
下面参照附图9,对本申请实施例提出的一种虚拟对象的控制装置进行描述。图9是本申请实施例提供的一种虚拟对象的控制装置的示意性框图。
其中,该虚拟对象的控制装置300包括:信号接收模块310、动作确定模块320和控制模块330。
其中,信号接收模块310,用于接收外设装置发送的控制信号,所述控制信号是在所述外设装置上任意按键触发时生成的,且所述控制信号携带有所述按键标识和所述按键的键程值;
动作确定模块320,用于确定与所述按键标识对应的目标动作;
控制模块330,用于根据所述按键的键程值,控制虚拟场景中的虚拟对象执行所述目标动作。
本申请实施例的一种可选实现方式,动作确定模块320,具体用于:
在按键和动作的映射关系中,确定与所述按键标识对应的目标动作。
本申请实施例的一种可选实现方式,装置300,还包括:构建模块;
其中,构建模块,用于确定虚拟对象可执行的所有动作;
确定外设装置上按键与每个动作的对应关系;
根据所述对应关系,构建按键与动作的映射关系。
本申请实施例的一种可选实现方式,虚拟对象为虚拟手或虚拟道具。
本申请实施例的一种可选实现方式,装置300,还包括:数据确定模块;
其中,数据确定模块,用于确定所述外设装置的移动速度和/或移动幅度。
本申请实施例的一种可选实现方式,装置300,还包括:更新模块;
其中,更新模块,用于根据所述按键的键程值,以及所述外设装置的移动速度和/或移动幅度,更新执行所述目标动作的力度值。
本申请实施例的一种可选实现方式,数据确定模块,具体用于:
根据所述外设装置发送的惯性测量单元数据,确定所述外设装置的移动速度;
或者,
根据摄像头采集的多帧追踪图像,确定所述外设装置的移动速度。
本申请实施例的一种可选实现方式,数据确定模块,还用于:
从多帧追踪图像中,确定所述外设装置位置发生突变的至少两帧目标图像;
根据所述目标图像,确定所述外设装置的移动距离和移动所用时间;
根据所述移动距离和所述移动所用时间,确定所述外设装置的移动速度。
本申请实施例的一种可选实现方式,数据确定模块,具体用于:
根据摄像头采集的多帧追踪图像,确定所述外设装置位置发生突变的至少两帧目标图像;
根据所述目标图像,确定所述外设装置的突变开始位置和突变结束位置;
根据所述突变开始位置和突变结束位置,确定所述外设装置的移动幅度。
本申请实施例的一种可选实现方式,装置300,还包括:信息输出模块;
其中,信息输出模块,用于通过外设装置向用户输出反馈信息。
本申请实施例提供的虚拟对象的控制装置,通过接收外设装置发送的控制信号,以根据控制信号中携带的按键标识,确定与按键标识对应的目标动作,然后根据控制信号中携带的按键的键程值,控制虚拟对象执行目标动作。由此,实现根据按键和按键的键程值,控制不同虚拟场景中的虚拟对象做出不同且具体的动作,使得虚拟对象能够做出更为多样化和细致化的动作,从而满足用户操作需求,为提升用户在虚拟场景中的交互体验提供条件。
应理解的是,装置实施例与前述方法实施例可以相互对应,类似的描述可以参照方法实施例。为避免重复,此处不再赘述。具体地,图9所示的装置300可以执行图2对应的方法实施例,并且装置300中的各个模块的前述和其它操作和/或功能分别为了实现图2中的各个方法中的相应流程,为了简洁,在此不再赘述。
上文中结合附图从功能模块的角度描述了本申请实施例的装置300。应理解,该功能模块可以通过硬件形式实现,也可以通过软件形式的指令实现,还可以通过硬件和软件模块组合实现。具体地,本申请实施例中的第一方面方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路和/或软件形式的指令完成,结合本申请实施例公开的第一方面方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。可选地,软件模块可以位于随机存储器,闪存、只读存储器、可编程只读存储器、电可擦写可编程存储器、寄存器等本领域的成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述第一方面方法实施例中的步骤。
图10是本申请实施例提供的一种电子设备的示意性框图。其中,该电子设备优选为XR设备。
如图10所示,该电子设备400可包括:
存储器410和处理器420,该存储器410用于存储计算机程序,并将该程序代码传输给该处理器420。换言之,该处理器420可以从存储器410中调用并运行计算机程序,以实现本申请实施例中的虚拟对象的控制方法。
例如,该处理器420可用于根据该计算机程序中的指令执行上述虚拟对象的控制方法实施例。
在本申请的一些实施例中,该处理器420可以包括但不限于:
通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等等。
在本申请的一些实施例中,该存储器410包括但不限于:
易失性存储器和/或非易失性存储器。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DR RAM)。
在本申请的一些实施例中,该计算机程序可以被分割成一个或多个模块,该一个或者多个模块被存储在该存储器410中,并由该处理器420执行,以完成本申请提供的视频录制方法。该一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述该计算机程序在该电子设备中的执行过程。
如图10所示,该电子设备还可包括:
收发器430,该收发器430可连接至该处理器420或存储器410。
其中,处理器420可以控制该收发器430与其他设备进行通信,具体地,可以向其他设备发送信息或数据,或接收其他设备发送的信息或数据。收发器430可以包括发射机和接收机。收发器430还可以进一步包括天线,天线的数量可以为一个或多个。
应当理解,该外设装置中的各个组件通过总线系统相连,其中,总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。
本申请还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被计算机执行时使得该计算机能够执行上述方法实施例的方法。
本申请实施例还提供一种包含程序指令的计算机程序产品,当所述程序指令在电子设备上运行时,使得所述电子设备执行上述方法实施例的方法。
当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例该的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如数字视频光盘(digital video disc,DVD))、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的模块及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。例如,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以该权利要求的保护范围为准。

Claims (14)

1.一种虚拟对象的控制方法,其特征在于,包括:
接收外设装置发送的控制信号,所述控制信号是在所述外设装置上任意按键触发时生成的,且所述控制信号携带有所述按键标识和所述按键的键程值;
确定与所述按键标识对应的目标动作;
根据所述按键的键程值,控制虚拟场景中的虚拟对象执行所述目标动作。
2.根据权利要求1所述的方法,其特征在于,所述确定与所述按键标识对应的目标动作,包括:
在按键和动作的映射关系中,确定与所述按键标识对应的目标动作。
3.根据权利要求2所述的方法,其特征在于,所述按键和动作的映射关系通过如下方式构建:
确定虚拟对象可执行的所有动作;
确定外设装置上按键与每个动作的对应关系;
根据所述对应关系,构建按键与动作的映射关系。
4.根据权利要求1所述的方法,其特征在于,所述虚拟对象为虚拟手或虚拟道具。
5.根据权利要求1-4任一项所述的方法,其特征在于,还包括:
确定所述外设装置的移动速度和/或移动幅度。
6.根据权利要求5所述的方法,其特征在于,根据所述按键的键程值,控制虚拟场景中的虚拟对象执行所述目标动作之前,还包括:
根据所述按键的键程值,以及所述外设装置的移动速度和/或移动幅度,更新执行所述目标动作的力度值。
7.根据权利要求5所述的方法,其特征在于,确定所述外设装置的移动速度,包括:
根据所述外设装置发送的惯性测量单元数据,确定所述外设装置的移动速度;
或者,
根据摄像头采集的多帧追踪图像,确定所述外设装置的移动速度。
8.根据权利要求7所述的方法,其特征在于,根据摄像头采集的多帧追踪图像,确定所述外设装置的移动速度,包括:
从多帧追踪图像中,确定所述外设装置位置发生突变的至少两帧目标图像;
根据所述目标图像,确定所述外设装置的移动距离和移动所用时间;
根据所述移动距离和所述移动所用时间,确定所述外设装置的移动速度。
9.根据权利要求5所述的方法,其特征在于,确定所述外设装置的移动幅度,包括:
根据摄像头采集的多帧追踪图像,确定所述外设装置位置发生突变的至少两帧目标图像;
根据所述目标图像,确定所述外设装置的突变开始位置和突变结束位置;
根据所述突变开始位置和突变结束位置,确定所述外设装置的移动幅度。
10.根据权利要求1-4任一项所述的方法,其特征在于,还包括:
通过外设装置向用户输出反馈信息。
11.一种虚拟对象的控制装置,其特征在于,包括:
信号接收模块,用于接收外设装置发送的控制信号,所述控制信号是在所述外设装置上任意按键触发时生成的,且所述控制信号携带有所述按键标识和所述按键的键程值;
动作确定模块,用于确定与所述按键标识对应的目标动作;
控制模块,用于根据所述按键的键程值,控制虚拟场景中的虚拟对象执行所述目标动作。
12.一种电子设备,其特征在于,包括:
处理器和存储器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,以执行如权利要求1至10中任一项所述的虚拟对象的控制方法。
13.一种计算机可读存储介质,其特征在于,用于存储计算机程序,所述计算机程序使得计算机执行如权利要求1至10中任一项所述的虚拟对象的控制方法。
14.一种包含程序指令的计算机程序产品,其特征在于,当所述程序指令在电子设备上运行时,使得所述电子设备执行如权利要求1至10中任一项所述的虚拟对象的控制方法。
CN202210762040.4A 2022-06-29 2022-06-29 虚拟对象的控制方法、装置、设备及介质 Pending CN117369622A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210762040.4A CN117369622A (zh) 2022-06-29 2022-06-29 虚拟对象的控制方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210762040.4A CN117369622A (zh) 2022-06-29 2022-06-29 虚拟对象的控制方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN117369622A true CN117369622A (zh) 2024-01-09

Family

ID=89387880

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210762040.4A Pending CN117369622A (zh) 2022-06-29 2022-06-29 虚拟对象的控制方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN117369622A (zh)

Similar Documents

Publication Publication Date Title
CN105320262A (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
CN106445157B (zh) 一种画面显示方向调整的方法以及装置
CN109426343B (zh) 基于虚拟现实的协作训练方法及系统
KR20180013892A (ko) 가상 현실을 위한 반응성 애니메이션
CN110766788B (zh) 将虚拟物体映射到现实世界的方法及装置
JP2020523672A (ja) 媒介現実コンテンツのレンダリング
Kang Effect of interaction based on augmented context in immersive virtual reality environment
CN112987924A (zh) 用于设备交互的方法、装置、设备和存储介质
CN115150555B (zh) 视频录制方法、装置、设备及介质
CN111599292A (zh) 一种历史场景的呈现方法、装置、电子设备及存储介质
CN117369622A (zh) 虚拟对象的控制方法、装置、设备及介质
CN116339501A (zh) 数据处理方法、装置、设备及计算机可读存储介质
CN109697001B (zh) 交互界面的显示方法和装置、存储介质、电子装置
CN117742555A (zh) 控件交互方法、装置、设备和介质
He Virtual reality for budget smartphones
CN117742478A (zh) 信息显示方法、装置、设备和介质
US20240193894A1 (en) Data processing method and apparatus, electronic device and storage medium
CN117742554A (zh) 人机交互方法、装置、设备和介质
CN118131892A (zh) 虚拟互动方法、装置、设备和介质
CN117555416A (zh) 手势控制方法、装置、设备和介质
CN117369677A (zh) 光标位置的确定方法、装置、设备及介质
CN117785344A (zh) 提示信息的显示方法、装置、设备和介质
CN118012265A (zh) 人机交互方法、装置、设备和介质
CN116311407A (zh) 表情模型确定方法、装置、设备及计算机可读存储介质
CN117742479A (zh) 人机交互方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination