CN118142168A - 虚拟对象的控制方法、装置、存储介质及设备 - Google Patents
虚拟对象的控制方法、装置、存储介质及设备 Download PDFInfo
- Publication number
- CN118142168A CN118142168A CN202211551854.XA CN202211551854A CN118142168A CN 118142168 A CN118142168 A CN 118142168A CN 202211551854 A CN202211551854 A CN 202211551854A CN 118142168 A CN118142168 A CN 118142168A
- Authority
- CN
- China
- Prior art keywords
- virtual
- virtual object
- character
- controlling
- virtual character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 230000003993 interaction Effects 0.000 claims abstract description 42
- 230000003190 augmentative effect Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 19
- 238000001179 sorption measurement Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 7
- 238000000926 separation method Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 230000002452 interceptive effect Effects 0.000 description 8
- 230000008447 perception Effects 0.000 description 7
- 230000001953 sensory effect Effects 0.000 description 7
- 230000000903 blocking effect Effects 0.000 description 6
- 238000004088 simulation Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000016776 visual perception Effects 0.000 description 3
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000009133 cooperative interaction Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000001339 gustatory effect Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1012—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开一种虚拟对象的控制方法、装置、存储介质及设备,该方法包括:通过终端设备提供虚拟场景画面,虚拟场景画面中包括虚拟对象与至少一个虚拟角色,通过控制虚拟对象向第一虚拟角色的目标部位移动,第一虚拟角色为第一用户对应的虚拟角色,且当虚拟对象与第一虚拟角色的目标部位满足预设交互条件时,控制虚拟对象附着于第一虚拟角色的目标部位。本申请通过控制虚拟对象向第一虚拟角色的目标部位移动,且当虚拟对象与第一虚拟角色的目标部位满足预设交互条件时,控制虚拟对象附着于第一虚拟角色的目标部位,提供了虚拟对象与虚拟角色之间更丰富的交互方式,提升了用户体验。
Description
技术领域
本申请涉及计算机技术领域,具体涉及一种虚拟对象的控制方法、装置、存储介质及设备。
背景技术
相关技术中的虚拟场景中会存在虚拟对象与用户控制的虚拟角色的交互,如何丰富虚拟对象与虚拟角色的交互方式,已成为主要研究课题之一。
发明内容
本申请实施例提供一种虚拟对象的控制方法、装置、存储介质及设备,提供了虚拟对象与虚拟角色之间更丰富的交互方式,提升了用户体验。
一方面,本申请实施例提供一种虚拟对象的控制方法,通过终端设备提供虚拟场景画面,所述虚拟场景画面中包括虚拟对象与至少一个虚拟角色,所述方法包括:
控制所述虚拟对象向第一虚拟角色的目标部位移动,所述第一虚拟角色为第一用户对应的虚拟角色;
当所述虚拟对象与所述第一虚拟角色的目标部位满足预设交互条件时,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。
在一些实施例中,在所述控制所述虚拟对象向第一虚拟角色的目标部位移动之前,还包括:
控制所述虚拟对象向所述第一虚拟角色移动。
在一些实施例中,所述当所述虚拟对象与所述第一虚拟角色的目标部位满足预设交互条件时,控制所述虚拟对象附着于所述第一虚拟角色的目标部位,包括:
当所述虚拟对象与所述第一虚拟角色之间的第一距离小于或等于第一距离阈值,和/或者所述虚拟对象与所述第一虚拟角色的目标部位之间的第二距离小于或等于第二距离阈值时,确定满足预设交互条件,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。
在一些实施例中,所述方法还包括:
当所述虚拟对象与第二虚拟角色满足碰撞条件时,控制所述虚拟对象与所述第一虚拟角色的目标部位分离,所述第二虚拟角色为第二用户对应的虚拟角色。
在一些实施例中,所述当所述虚拟对象与第二虚拟角色满足碰撞条件时,控制所述虚拟对象与所述第一虚拟角色的目标部位分离,包括:
响应于所述第二虚拟角色针对所述虚拟对象的抓取指令,控制所述第二虚拟角色抓取所述虚拟对象,且在所述抓取过程中所述虚拟对象针对所述第一虚拟角色的吸附属性值逐渐减小;
当检测到所述吸附属性值小于第一属性阈值时,确定所述虚拟对象与第二虚拟角色满足碰撞条件,则控制所述虚拟对象与所述第一虚拟角色的目标部位分离。
在一些实施例中,在所述控制所述虚拟对象附着于所述第一虚拟角色的目标部位之后,还包括:
将所述虚拟对象的属性信息从第一属性信息修改为第二属性信息。
在一些实施例中,在所述控制所述虚拟对象与所述第一虚拟角色的目标部位分离之后,还包括:
响应于所述第二虚拟角色针对所述虚拟对象的丢弃指令,控制所述第二虚拟角色丢弃所述虚拟对象。
在一些实施例中,在所述控制所述第二虚拟角色丢弃所述虚拟对象之后,还包括:
将所述虚拟对象的属性信息从所述第二属性信息修改为所述第一属性信息。
在一些实施例中,所述目标部位根据所述第一虚拟角色对应的虚拟摄像头确定。
在一些实施例中,在所述控制所述虚拟对象附着于所述第一虚拟角色的目标部位之后,还包括:
为所述虚拟摄像头设置视野遮挡层,并显示通过已设置所述视野遮挡层的虚拟摄像头所采集的虚拟场景画面。
在一些实施例中,所述终端设备包括扩展现实设备、虚拟现实设备、增强现实设备与混合现实设备中的任一种。
另一方面,本申请实施例提供一种虚拟对象的控制装置,通过终端设备提供虚拟场景画面,所述虚拟场景画面中包括虚拟对象与至少一个虚拟角色,所述装置包括:
第一控制单元,用于控制所述虚拟对象向第一虚拟角色的目标部位移动,所述第一虚拟角色为第一用户对应的虚拟角色;
第二控制单元,用于当所述虚拟对象与所述第一虚拟角色的目标部位满足预设交互条件时,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。
另一方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行如上任一实施例所述的虚拟对象的控制方法。
另一方面,本申请实施例提供一种终端设备,所述终端设备包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行如上任一实施例所述的虚拟对象的控制方法。
本申请实施例通过终端设备提供虚拟场景画面,虚拟场景画面中包括虚拟对象与至少一个虚拟角色,通过控制虚拟对象向第一虚拟角色的目标部位移动,第一虚拟角色为第一用户对应的虚拟角色,且当虚拟对象与第一虚拟角色的目标部位满足预设交互条件时,控制虚拟对象附着于第一虚拟角色的目标部位。本申请实施例通过控制虚拟对象向第一虚拟角色的目标部位移动,且当虚拟对象与第一虚拟角色的目标部位满足预设交互条件时,控制虚拟对象附着于第一虚拟角色的目标部位,提供了虚拟对象与虚拟角色之间更丰富的交互方式,提升了用户体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的虚拟对象的控制方法的第一流程示意图。
图2为本申请实施例提供的虚拟对象的控制方法的第一应用场景示意图。
图3为本申请实施例提供的虚拟对象的控制方法的第二应用场景示意图。
图4为本申请实施例提供的虚拟对象的控制方法的第二流程示意图。
图5为本申请实施例提供的虚拟对象的控制方法的第三应用场景示意图。
图6为本申请实施例提供的虚拟对象的控制方法的第四应用场景示意图。
图7为本申请实施例提供的虚拟对象的控制装置的第一结构示意图。
图8为本申请实施例提供的虚拟对象的控制装置的第二结构示意图。
图9为本申请实施例提供的终端设备的第一结构示意图。
图10为本申请实施例提供的终端设备的第二结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种虚拟对象的控制方法、装置、存储介质及设备。具体地,本申请实施例的虚拟对象的控制方法可以由终端设备或者由服务器执行。
本申请实施例可以应用于扩展现实(eXtend ed Rea lity,XR)、虚拟现实(Virtual Reality,VR)、增强现实(Augmented Reality,AR)、混合现实(Mixed Reality,MR)等各种应用场景。
首先,在对本申请实施例进行描述的过程中出现的部分名词或者术语作如下解释:
虚拟场景,是应用程序在终端或服务器上运行时显示(或提供)的虚拟场景。可选地,该虚拟场景是对真实世界的仿真环境,或者是半仿真半虚构的虚拟环境,或者是纯虚构的虚拟环境。虚拟场景是二维虚拟场景和三维虚拟场景中的任意一种,虚拟环境可以为天空、陆地、海洋等,其中,该陆地包括沙漠、城市等环境元素。其中,虚拟场景为用户控制等虚拟对象完整游戏逻辑的场景。
虚拟对象,是指在虚拟场景中可被控制的动态对象。可选地,该动态对象可以是虚拟人物、虚拟动物、动漫人物等。该虚拟对象是用户通过输入设备进行控制的角色,或者是通过训练设置在虚拟环境对战中的人工智能
(Artificial Intelligence,AI),或者是设置在虚拟场景对战中的非玩家角色(Non Player Character,NPC)。可选地,该虚拟对象是在虚拟场景中进行竞技的虚拟人物。可选地,该虚拟场景对战中的虚拟对象的数量是预设设置的,或者是根据加入对战的客户端的数量动态确定的,本申请实施例对此不作限定。在一种可能实现方式中,用户能够控制虚拟对象在该虚拟场景中进行移动,例如,控制虚拟对象跑动、跳动、爬行等,也能够控制虚拟对象使用应用程序所提供的技能、虚拟道具等与其他虚拟对象进行战斗。
扩展现实(eXtended Reality,XR),是包括虚拟现实(Virtual Reality,VR)、增强现实(Augumented Reality,AR)及混合现实(Mixed Reality,MR)的概念,表示制成虚拟世界与现实世界相连接的环境,用户能够与该环境实时交互的技术。
虚拟现实(Virtual Reality,VR),创建和体验虚拟世界的技术,计算生成一种虚拟环境,是一种多源信息(本文中提到的虚拟现实至少包括视觉感知,此外还可以包括听觉感知、触觉感知、运动感知,甚至还包括味觉感知、嗅觉感知等),实现虚拟环境的融合的、交互式的三维动态视景和实体行为的仿真,使用户沉浸到模拟的虚拟现实环境中,实现在诸如地图、游戏、视频、教育、医疗、模拟、协同训练、销售、协助制造、维护和修复等多种虚拟环境的应用。
增强现实(Augmented Reality,AR),一种在相机采集图像的过程中,实时地计算相机在现实世界(或称三维世界、真实世界)中的相机姿态参数,根据该相机姿态参数在相机采集的图像上添加虚拟元素的技术。虚拟元素包括但不限于:图像、视频和三维模型。AR技术的目标是在屏幕上把虚拟世界套接在现实世界上进行互动。
混合现实(Mixed Reality,MR),将计算机创建的感官输入(例如,虚拟对象)与来自物理布景的感官输入或其表示集成的模拟布景,一些MR布景中,计算机创建的感官输入可以适应于来自物理布景的感官输入的变化。另外,用于呈现MR布景的一些电子系统可以监测相对于物理布景的取向和/或位置,以使虚拟对象能够与真实对象(即来自物理布景的物理元素或其表示)交互。例如,系统可监测运动,使得虚拟植物相对于物理建筑物看起来是静止的。
增强虚拟(Augmented Virtuality,AV):AV布景是指计算机创建布景或虚拟布景并入来自物理布景的至少一个感官输入的模拟布景。来自物理布景的一个或多个感官输入可为物理布景的至少一个特征的表示。例如,虚拟对象可呈现由一个或多个成像传感器捕获的物理元素的颜色。又如,虚拟对象可呈现出与物理布景中的实际天气条件相一致的特征,如经由天气相关的成像传感器和/或在线天气数据所识别的。在另一个示例中,增强现实森林可具有虚拟树木和结构,但动物可具有从对物理动物拍摄的图像精确再现的特征。
虚拟视场,用户在虚拟现实设备中通过透镜所能够感知到的虚拟环境中的区域,使用虚拟视场的视场角(Field Of View,FOV)来表示所感知到区域。
虚拟现实设备,实现虚拟现实效果的终端,通常可以提供为眼镜、头盔式显示器(Head Mount Display,HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然虚拟现实设备实现的形态不限于此,根据需要可以进一步小型化或大型化。
本申请实施例记载的虚拟现实设备可以包括但不限于如下几个类型:
电脑端虚拟现实(PCVR)设备,利用PC端进行虚拟现实功能的相关计算以及数据输出,外接的电脑端虚拟现实设备利用PC端输出的数据实现虚拟现实的效果。
移动虚拟现实设备,支持以各种方式(如设置有专门的卡槽的头戴式显示器)设置移动终端(如智能手机),通过与移动终端有线或无线方式的连接,由移动终端进行虚拟现实功能的相关计算,并输出数据至移动虚拟现实设备,例如通过移动终端的APP观看虚拟现实视频。
一体机虚拟现实设备,具备用于进行虚拟功能的相关计算的处理器,因而具备独立的虚拟现实输入和输出的功能,不需要与PC端或移动终端连接,使用自由度高。
以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优先顺序的限定。
本申请各实施例提供了一种虚拟对象的控制方法,该方法可以由终端或服务器执行,也可以由终端和服务器共同执行;本申请实施例以虚拟对象的控制方法由终端(终端设备)执行为例来进行说明。
请参阅图1至图6,图1和图3均为本申请实施例提供的虚拟对象的控制方法的流程示意图,图2、图3、图5和图6均为本申请实施例提供的虚拟对象的控制方法的应用场景示意图。该方法可以应用于终端设备,该终端设备可以包括扩展现实设备、虚拟现实设备、增强现实设备与混合现实设备中的任一种。本申请实施例通过终端设备提供虚拟场景画面,该虚拟场景画面中包括虚拟对象与至少一个虚拟角色,该方法包括:
步骤110,控制所述虚拟对象向第一虚拟角色的目标部位移动,所述第一虚拟角色为第一用户对应的虚拟角色。
其中,通过终端设备提供虚拟场景画面,该虚拟场景画面所展示的画面可以为游戏场景中的三维虚拟场景画面,三维虚拟场景为应用程序在终端设备上运行时提供的虚拟环境,其可以是对真实世界的仿真场景,也可以是半仿真半虚构的场景,或者纯虚构场景。虚拟场景画面上所展示的场景画面为虚拟角色观察三维虚拟场景时呈现的场景画面,该虚拟场景画面中可以包括虚拟对象与至少一个虚拟角色。在本申请实施例中,虚拟对象可以为在虚拟场景中可被控制的虚拟动物,该虚拟对象可以为设置在虚拟场景对战中的非玩家角色(Non Player Character,NPC),该虚拟对象会对虚拟角色造成伤害。虚拟角色是指在虚拟场景中可被控制的虚拟人物、虚拟动物、动漫人物等,该虚拟角色可以为用户通过终端设备进行控制的角色,该终端设备可以为扩展现实设备、虚拟现实设备、增强现实设备与混合现实设备中的任一种。
例如,第一用户通过终端设备在虚拟场景中操控第一虚拟角色,第一虚拟角色观察三维虚拟场景可通过摄像机模型实现,当处于第一人称视角时,摄像机模型位于第一虚拟角色的头部或者颈部,虚拟场景画面中仅可显示出第一虚拟角色的手臂部分;当处于第三人称视角时,摄像机模型位于第一虚拟角色的后方,虚拟场景画面中可显示出第一虚拟角色的上半身部分或全身。虚拟场景画面即为通过摄像机模型以一定视角观察三维虚拟环境所呈现的环境画面。
例如,请参阅图2至图3,图中提供了一种虚拟场景画面的示意图。该虚拟场景画面10为可以由终端设备的显示屏幕所呈现,在虚拟场景画面10中包括虚拟对象12和由第一用户操控的第一虚拟角色11。可以理解的,虚拟场景画面内不仅包括上述虚拟对象和虚拟角色,还可以包括有虚拟场景中的其他内容,可以根据具体的场景内容决定,此处不做限定。
如图2所示,控制虚拟对象12向第一虚拟角色11的目标部位111移动。
例如,在控制虚拟对象12向第一虚拟角色11的目标部位111移动时,可以生成第一提示信息,该第一提示信息用于向第一用户提示该虚拟对象12正在靠近第一虚拟角色11的目标部位111,以使第一用户根据第一提示信息及时通过终端设备输入控制信号以对第一虚拟角色11的目标部位111做出防护操作。
在一些实施例中,在所述控制所述虚拟对象向第一虚拟角色的目标部位移动之前,还包括:控制所述虚拟对象向所述第一虚拟角色移动。
例如,第一虚拟角色11是距离虚拟对象12最近的虚拟角色。可以基于AI寻路逻辑在虚拟场景中寻找距离虚拟对象12最近的虚拟角色。例如,将虚拟对象12与虚拟场景中的所有元素(该元素包括虚拟角色、虚拟障碍物、虚拟道具等)做距离判定,将距离虚拟对象12最近的第一虚拟角色11作为目标点,并控制虚拟对象12向目标点移动,以接近第一虚拟角色11。
例如,如图2所示,终端设备控制虚拟对象12向第一虚拟角色11移动,然后控制虚拟对象12向第一虚拟角色11的目标部位111移动,第一虚拟角色11为第一用户对应的虚拟角色。具体的,可以沿着图2所示的虚线,控制虚拟对象12从位置A移动到位置B以向第一虚拟角色11移动,并经过位置C,最终控制虚拟对象12向第一虚拟角色11的目标部位111所在的位置D移动。
在一些实施例中,所述目标部位根据所述第一虚拟角色对应的虚拟摄像头确定。
例如,目标部位是根据第一虚拟角色对应的虚拟摄像头的位置和姿态确定的,第一虚拟角色对应的虚拟摄像头的位置和姿态是根据第一用户的控制信号确定的。响应于第一用户通过终端设备输入的控制信号,确定第一虚拟角色对应的虚拟摄像头的位置和姿态,然后根据第一虚拟角色对应的虚拟摄像头的位置和姿态确定目标部位。例如,目标部位可以为第一虚拟角色的头部。
例如,目标部位还可以为第一虚拟角色的手部、腰部或下肢等部位,可以根据手柄的控制信号确定目标部位,或者根据用户穿戴的其他可穿戴设备对应的穿戴部位(比如对应的腰部或下肢)来确定。
其中,虚拟场景中的虚拟对象能够与虚拟对象的目标部位交互,在XR场景下,尤其是用户第一人称视角下,能够明显感知虚拟对象交互的目标部位的不同,扩展了交互方式。
其中,根据虚拟摄像头、头戴设备、手柄、其他可穿戴设备中的至少一种来确定目标部位,即虚拟对象的移动和/或附着都可以依据用户控制的特定的外部硬件的控制信号确定,能够控制虚拟对象更有针对性的响应用户的特定控制操作与用户进行交互。
步骤120,当所述虚拟对象与所述第一虚拟角色的目标部位满足预设交互条件时,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。
例如,第一虚拟角色的目标部位可以对应至少一个关键点当虚拟对象附着于第一虚拟角色的目标部位时,控制虚拟对象与第一虚拟角色的目标部位对应的关键点保持预设的相对位置姿态关系。比如,根据关键点的位置对应的数据和预设的相对位置姿态关系来确定虚拟对象的位置和姿态;或者根据关键点的位置与姿态对应的数据和预设的相对位置姿态关系来确定虚拟对象的位置和姿态。
在一些实施例中,所述当所述虚拟对象与所述第一虚拟角色的目标部位满足预设交互条件时,控制所述虚拟对象附着于所述第一虚拟角色的目标部位,包括:
当所述虚拟对象与所述第一虚拟角色之间的第一距离小于或等于第一距离阈值,和/或者所述虚拟对象与所述第一虚拟角色的目标部位之间的第二距离小于或等于第二距离阈值时,确定满足预设交互条件,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。
其中,第一距离阈值大于第二距离阈值。比如,第一距离阈值为1米,第二距离阈值为0.3米。
例如,当所述虚拟对象与所述第一虚拟角色之间的第一距离小于或等于第一距离阈值,且所述第一虚拟角色的目标部位为静止状态时,确定满足预设交互条件,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。例如,请参阅图2,当虚拟对象12与第一虚拟角色11之间的第一距离小于或等于第一距离阈值(比如1米)时,确定虚拟对象12到达起跳范围,比如此时虚拟对象12到达位置B,此时控制虚拟对象12从位置B向第一虚拟角色11的目标部位111跳跃;比如虚拟对象12的最远跳跃距离为0.7米,若第一虚拟角色11的目标部位111为静止状态(比如第一虚拟角色11站立不动、或者趴着不动、或者蹲着不动等),当控制虚拟对象12向第一虚拟角色11的目标部位111跳跃后,根据虚拟对象12的最远跳跃距离,确定跳跃后的虚拟对象12位于最远跳跃距离所在的位置C与第一虚拟角色11的目标部位111所在位置D之间的距离(即第二距离)达到第二距离阈值(比如0.3米),则确定满足预设交互条件,控制虚拟对象12附着于第一虚拟角色11的目标部位111。
当所述虚拟对象与所述第一虚拟角色之间的第一距离小于或等于第一距离阈值,且所述第一虚拟角色的目标部位为向远离所述虚拟对象的方向运行的运动状态时,在检测到所述虚拟对象与所述第一虚拟角色的目标部位之间的第二距离小于或等于第二距离阈值的情况下,确定满足预设交互条件,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。例如,请参阅图2,当虚拟对象12与第一虚拟角色11之间的第一距离小于或等于第一距离阈值(比如1米)时,确定虚拟对象12到达起跳范围,比如此时虚拟对象12到达位置B,此时控制虚拟对象12从位置B向第一虚拟角色11的目标部位111跳跃;比如虚拟对象12的最远跳跃距离为0.7米,若第一虚拟角色11的目标部位为向远离虚拟对象12的方向运行的运动状态(比如第一虚拟角色11向后移动、或者向侧边躲避、或者向上跳跃等,以带动目标部位进行运动),当控制虚拟对象12向第一虚拟角色11的目标部位111跳跃后,根据虚拟对象12的最远跳跃距离,确定跳跃后的虚拟对象12位于最远跳跃距离所在的位置与第一虚拟角色11的目标部位111之间的距离(即第二距离)未达到第二距离阈值(比如0.3米),则确定不满足预设交互条件;在不满足预设交互条件的情况下,可以继续控制虚拟对象12向第一虚拟角色11的目标部位111移动,直到在检测到虚拟对象12与第一虚拟角色11的目标部位111之间的第二距离小于或等于第二距离阈值的情况下,确定满足预设交互条件,并控制虚拟对象12附着于第一虚拟角色11的目标部位111。
例如,如图2所示,终端设备控制虚拟对象12向第一虚拟角色11移动,然后控制虚拟对象12向第一虚拟角色11的目标部位111移动,第一虚拟角色11为第一用户对应的虚拟角色。具体的,可以沿着图2所示的虚线,控制虚拟对象12从位置A移动到位置B以向第一虚拟角色11移动,若虚拟对象12在到达位置B时,虚拟对象12与第一虚拟角色11之间的第一距离小于或等于第一距离阈值,则确定虚拟对象12到达起跳范围,则控制虚拟对象12从位置B向第一虚拟角色11的目标部位111所在的位置D跳跃;若虚拟对象12跳跃至位置C时,虚拟对象12与第一虚拟角色11的目标部位111之间的第二距离小于或等于第二距离阈值,则确定虚拟对象12到达吸附范围,即满足预设交互条件,最终控制虚拟对象12向第一虚拟角色11的目标部位111所在的位置D移动,并控制虚拟对象12附着于第一虚拟角色11的目标部位111。例如,如图3所示的画面为虚拟对象12附着于第一虚拟角色11的目标部位111的画面。
例如,在控制虚拟对象12附着于第一虚拟角色11的目标部位111之后,还可以在预设时段内向虚拟场景中的其他虚拟角色发送救援信息,以使其他虚拟角色根据该救援信息在该预设时段内第一虚拟角色11移动,并对第一虚拟角色实施救援操作。该其他虚拟角色可以为距离第一虚拟角色11最近的第二虚拟角色13,或者该其他虚拟角色可以为虚拟场景中的与第一虚拟角色11同属于一个阵营的虚拟角色。
例如,控制虚拟对象12附着于第一虚拟角色11的目标部位111之后,逐渐减少第一虚拟角色11的属性值,例如,该属性值可以为生命值或血量值。当该虚拟对象12附着于第一虚拟角色11的目标部位111的附着时间超过预设时段时,第一虚拟角色11的当前属性值低于第二属性阈值,控制该第一虚拟角色11的姿态为倒地姿态。
在一些实施例中,在所述控制所述虚拟对象附着于所述第一虚拟角色的目标部位之后,还包括:
将所述虚拟对象的属性信息从第一属性信息修改为第二属性信息。
例如,虚拟对象12的属性信息可以包括交互属性和AI逻辑属性等。比如,第一属性信息包括:交互属性为不可交互状态,AI逻辑属性为开启寻路逻辑。比如,第二属性信息包括:交互属性为可交互状态,AI逻辑属性为关闭寻路逻辑。在控制虚拟对象12附着于第一虚拟角色11的目标部位111之后,将虚拟对象12的交互属性从不可交互状态修改为可交互状态,将虚拟对象12的AI逻辑属性从开启寻路逻辑修改为关闭寻路逻辑。
在一些实施例中,在所述控制所述虚拟对象附着于所述第一虚拟角色的目标部位之后,还包括:
为所述虚拟摄像头设置视野遮挡层,并显示通过已设置所述视野遮挡层的虚拟摄像头所采集的虚拟场景画面。
例如,在控制虚拟对象12附着于第一虚拟角色11的目标部位111之后,修改第一虚拟角色11的抬头显示(Head-up-Display,HUD)画面,以遮挡用户视野。例如,为第一虚拟角色11对应的虚拟摄像头设置视野遮挡层,并显示通过已设置该视野遮挡层的虚拟摄像头所采集的虚拟场景画面。例如,该视野遮挡层可以为蒙版层(比如黑色蒙版层)。例如,该视野遮挡层可以为预设动画(比如呈现流质物体流过虚拟摄像头的动画)。
例如,该遮挡层可以是全部或者部分透明或者半透明的遮挡层,在遮挡层上还可以显示文字、用户界面(User Interface,UI)图像等信息,以通过更为丰富的显示内容。
其中,根据虚拟摄像头采集虚拟场景画面,可以直接影响终端设备的显示效果,使得交互反馈更强烈。通过在终端设备的显示界面上显示通过已设置视野遮挡层的虚拟摄像头所采集的虚拟场景画面,可以有效模拟用户视野被遮挡时的视野感受,增加了用户的沉浸式体验。
例如,如图4所示,在步骤120之后,还可以包括步骤130:
步骤130,当所述虚拟对象与第二虚拟角色满足碰撞条件时,控制所述虚拟对象与所述第一虚拟角色的目标部位分离,所述第二虚拟角色为第二用户对应的虚拟角色。
例如,该第二虚拟角色可以为一个或多个第二虚拟角色。以针对虚拟对象附着于第一虚拟角色对第一虚拟角色造成伤害时,通过一个或多个第二虚拟角色与虚拟对象的碰撞交互,来实现多人协作交互。
例如,如图5和图6所示,当虚拟对象12与第二虚拟角色13满足碰撞条件时,控制虚拟对象12与第一虚拟角色11的目标部位111分离,第二虚拟角色12为第二用户对应的虚拟角色。
在一些实施例中,所述当所述虚拟对象与第二虚拟角色满足碰撞条件时,控制所述虚拟对象与所述第一虚拟角色的目标部位分离,包括:
响应于所述第二虚拟角色针对所述虚拟对象的抓取指令,控制所述第二虚拟角色抓取所述虚拟对象,且在所述抓取过程中所述虚拟对象针对所述第一虚拟角色的吸附属性值逐渐减小;
当检测到所述吸附属性值小于第一属性阈值时,确定所述虚拟对象与第二虚拟角色满足碰撞条件,则控制所述虚拟对象与所述第一虚拟角色的目标部位分离。
例如,如图5和图6所示,响应于第二虚拟角色13针对虚拟对象12的抓取指令,控制第二虚拟角色13抓取虚拟对象12,且在抓取过程中虚拟对象12针对第一虚拟角色11的吸附属性值逐渐减小。当检测到吸附属性值小于第一属性阈值时,确定虚拟对象12与第二虚拟角色13满足碰撞条件,则控制虚拟对象12与第一虚拟角色11的目标部位111分离。
在一些实施例中,在所述控制所述虚拟对象与所述第一虚拟角色的目标部位分离之后,还包括:
响应于所述第二虚拟角色针对所述虚拟对象的丢弃指令,控制所述第二虚拟角色丢弃所述虚拟对象。
例如,如图6所示,响应于第二虚拟角色13针对虚拟对象12的丢弃指令,控制第二虚拟角色13丢弃虚拟对象12。
在一些实施例中,在所述控制所述第二虚拟角色丢弃所述虚拟对象之后,还包括:将所述虚拟对象的属性信息从所述第二属性信息修改为所述第一属性信息。
例如,在控制第二虚拟角色13丢弃虚拟对象12之后,将虚拟对象12的交互属性从可交互状态修改为不可交互状态,将虚拟对象12的AI逻辑属性从关闭寻路逻辑修改为开启寻路逻辑。
在一些实施例中,在所述控制所述虚拟对象与所述第一虚拟角色的目标部位分离之后,还包括:
将所述视野遮挡层从所述虚拟摄像头去除,并显示通过已去除所述视野遮挡层的虚拟摄像头所采集的虚拟场景画面。
例如,在控制虚拟对象12附着于第一虚拟角色11的目标部位111之后,修改第一虚拟角色11的HUD画面,以恢复正常的用户视野。例如,将视野遮挡层从第一虚拟角色11对应的虚拟摄像头去除,并显示通过已去除视野遮挡层的虚拟摄像头所采集的虚拟场景画面。
其中,根据虚拟摄像头采集虚拟场景画面,可以直接影响终端设备的显示效果,使得交互反馈更强烈。通过在终端设备的显示界面上显示通过已去除视野遮挡层的虚拟摄像头所采集的虚拟场景画面,可以有效模拟用户视野恢复正常时的视野感受,增加了用户的沉浸式体验。
在一些实施例中,当所述虚拟对象与第二虚拟对象满足碰撞条件时,控制所述虚拟对象与所述第一虚拟角色的目标部位分离,所述第二虚拟对象为第一用户控制的虚拟道具或者第二用户控制的虚拟道具,比如该虚拟道具为虚拟药水、虚拟锤体、虚拟子弹等。例如,所述第二虚拟对象用于在所述虚拟对象与第二虚拟对象发生碰撞时减弱所述虚拟对象的属性值,当检测到所述虚拟对象的属性值小于第三属性阈值时,确定所述虚拟对象与所述第二虚拟对象满足碰撞条件,则控制所述虚拟对象与所述第一虚拟角色的目标部位分离。
上述所有的技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
本申请实施例通过终端设备提供虚拟场景画面,虚拟场景画面中包括虚拟对象与至少一个虚拟角色,通过控制虚拟对象向第一虚拟角色的目标部位移动,第一虚拟角色为第一用户对应的虚拟角色,且当虚拟对象与第一虚拟角色的目标部位满足预设交互条件时,控制虚拟对象附着于第一虚拟角色的目标部位。本申请实施例通过控制虚拟对象向第一虚拟角色的目标部位移动,且当虚拟对象与第一虚拟角色的目标部位满足预设交互条件时,控制虚拟对象附着于第一虚拟角色的目标部位,提供了虚拟对象与虚拟角色之间更丰富的交互方式,提升了用户体验。
为便于更好的实施本申请实施例的虚拟对象的控制方法,本申请实施例5还提供一种虚拟对象的控制装置。请参阅图7和图8,图7和图8为本申请实施
例提供的虚拟对象的控制装置的结构示意图。其中,通过终端设备提供虚拟场景画面,该虚拟场景画面中包括虚拟对象与至少一个虚拟角色,该虚拟对象的控制装置200可以包括:
第一控制单元210,用于控制所述虚拟对象向第一虚拟角色的目标部位移0动,所述第一虚拟角色为第一用户对应的虚拟角色;
第二控制单元220,用于当所述虚拟对象与所述第一虚拟角色的目标部位满足预设交互条件时,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。
在一些实施例中,所述第一控制单元210在控制所述虚拟对象向第一虚拟5角色的目标部位移动之前,还用于:
控制所述虚拟对象向所述第一虚拟角色移动。
在一些实施例中,所述第二控制单元220,具体用于:
当所述虚拟对象与所述第一虚拟角色之间的第一距离小于或等于第一距
离阈值,和/或者所述虚拟对象与所述第一虚拟角色的目标部位之间的第二距0离小于或等于第二距离阈值时,确定满足预设交互条件,控制所述虚拟对象
附着于所述第一虚拟角色的目标部位。
在一些实施例中,如图8所示,该虚拟对象的控制装置200还可以包括:
第三控制单元230,用于当所述虚拟对象与第二虚拟角色满足碰撞条件
时,控制所述虚拟对象与所述第一虚拟角色的目标部位分离,所述第二虚拟5角色为第二用户对应的虚拟角色。
在一些实施例中,所述第三控制单元230,具体用于:
响应于所述第二虚拟角色针对所述虚拟对象的抓取指令,控制所述第二虚拟角色抓取所述虚拟对象,且在所述抓取过程中所述虚拟对象针对所述第
一虚拟角色的吸附属性值逐渐减小;
0当检测到所述吸附属性值小于第一属性阈值时,确定所述虚拟对象与第
二虚拟角色满足碰撞条件,则控制所述虚拟对象与所述第一虚拟角色的目标部位分离。
在一些实施例中,所述第二控制单元220在控制所述虚拟对象附着于所述第一虚拟角色的目标部位之后,还用于:
将所述虚拟对象的属性信息从第一属性信息修改为第二属性信息。
在一些实施例中,所述第三控制单元230在控制所述虚拟对象与所述第一虚拟角色的目标部位分离之后,还用于:
响应于所述第二虚拟角色针对所述虚拟对象的丢弃指令,控制所述第二虚拟角色丢弃所述虚拟对象。
在一些实施例中,所述第三控制单元230在控制所述第二虚拟角色丢弃所述虚拟对象之后,还用于:
将所述虚拟对象的属性信息从所述第二属性信息修改为所述第一属性信息。
在一些实施例中,所述目标部位根据所述第一虚拟角色对应的虚拟摄像头确定。
在一些实施例中,所述第二控制单元220在控制所述虚拟对象附着于所述第一虚拟角色的目标部位之后,还用于:
为所述虚拟摄像头设置视野遮挡层,并显示通过已设置所述视野遮挡层的虚拟摄像头所采集的虚拟场景画面。
在一些实施例中,所述第三控制单元230在控制所述虚拟对象与所述第一虚拟角色的目标部位分离之后,还用于:
将所述视野遮挡层从所述虚拟摄像头去除,并显示通过已去除所述视野遮挡层的虚拟摄像头所采集的虚拟场景画面。
在一些实施例中,所述终端设备包括扩展现实设备、虚拟现实设备、增强现实设备与混合现实设备中的任一种。
上述虚拟对象的控制装置200中的各个单元可全部或部分通过软件、硬件及其组合来实现。上述各个单元可以以硬件形式内嵌于或独立于终端设备中的处理器中,也可以以软件形式存储于终端设备中的存储器中,以便于处理器调用执行上述各个单元对应的操作。
虚拟对象的控制装置200,可以集成在具备储存器并安装有处理器而具有运算能力的终端或服务器中,或者该虚拟对象的控制装置200为该终端或服务器。
在一些实施例中,本申请还提供了一种终端设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
如图9所示,图9为本申请实施例提供的终端设备的结构示意图,该终端设备300通常可以提供为眼镜、头盔式显示器(Head Mount Display,HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然终端设备实现的形态不限于此,根据需要可以进一步小型化或大型化。该终端设备300可以包括但不限于以下的构成:
检测模块301:使用各种传感器检测用户的操作命令,并作用于虚拟环境,如跟随用户的视线而不断更新在显示屏上显示的影像,实现用户与虚拟和场景的交互,例如基于检测到的用户头部的转动方向来不断更新现实内容。
反馈模块302:接收来自传感器的数据,为用户提供实时反馈;其中,该反馈模块302可以为用于显示图形用户界面,比如在该图形用户界面上显示虚拟环境。例如,该反馈模块302可以包括显示屏幕等。
传感器303:一方面接受来自用户的操作命令,并将其作用于虚拟环境;另一方面将操作后产生的结果以各种反馈的形式提供给用户。
控制模块304:对传感器和各种输入/输出装置进行控制,包括获得用户的数据(如动作、语音)和输出感知数据,如图像、振动、温度和声音等,对用户、虚拟环境和现实世界产生作用。
建模模块305:构造虚拟环境的三维模型,还可以包括三维模型中的声音、触感等各种反馈机制。
在本申请实施例中,可以通过建模模块305构建虚拟场景画面;通过反馈模块302显示虚拟场景画面,以及位于虚拟场景画面中的虚拟对象与至少一个虚拟角色;通过控制模块304控制虚拟对象向第一虚拟角色的目标部位移动,第一虚拟角色为第一用户对应的虚拟角色,且当虚拟对象与第一虚拟角色的目标部位满足预设交互条件时,控制虚拟对象附着于第一虚拟角色的目标部位。
在一些实施例中,如图10所示,图10为本申请实施例提供的终端设备的另一结构示意图,终端设备300还包括有一个或者一个以上处理核心的处理器310、有一个或一个以上计算机可读存储介质的存储器320及存储在存储器320上并可在处理器上运行的计算机程序。其中,处理器310与存储器320电性连接。本领域技术人员可以理解,图中示出的终端设备结构并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
处理器310是终端设备300的控制中心,利用各种接口和线路连接整个终端设备300的各个部分,通过运行或加载存储在存储器320内的软件程序和/或模块,以及调用存储在存储器320内的数据,执行终端设备300的各种功能和处理数据,从而对终端设备300进行整体监控。
在本申请实施例中,终端设备300中的处理器310会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器320中,并由处理器310来运行存储在存储器320中的应用程序,从而实现各种功能:
提供虚拟场景画面,所述虚拟场景画面中包括虚拟对象与至少一个虚拟角色;控制所述虚拟对象向第一虚拟角色的目标部位移动,所述第一虚拟角色为第一用户对应的虚拟角色;当所述虚拟对象与所述第一虚拟角色的目标部位满足预设交互条件时,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
在一些实施例中,处理器310可以包括检测模块301、控制模块304和建模模块305。
在一些实施例中,如图10所示,终端设备300还包括:射频电路306、音频电路307以及电源308。其中,处理器310分别与存储器320、反馈模块302、传感器303、射频电路306、音频电路307以及电源308电性连接。本领域技术人员可以理解,图9或图10中示出的终端设备结构并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
射频电路306可用于收发射频信号,以通过无线通信与网络设备或其他终端设备建立无线通讯,与网络设备或其他终端设备之间收发信号。
音频电路307可以用于通过扬声器、传声器提供用户与终端设备之间的音频接口。音频电路307可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路307接收后转换为音频数据,再将音频数据输出处理器301处理后,经射频电路306以发送给比如另一终端设备,或者将音频数据输出至存储器以便进一步处理。音频电路307还可能包括耳塞插孔,以提供外设耳机与终端设备的通信。
电源308用于给终端设备300的各个部件供电。
尽管图9或图10中未示出,终端设备300还可以包括摄像头、无线保真模块、蓝牙模块、输入模块等,在此不再赘述。
在一些实施例中,本申请还提供了一种计算机可读存储介质,用于存储计算机程序。该计算机可读存储介质可应用于终端设备或服务器,并且该计算机程序使得终端设备或服务器执行本申请实施例中的虚拟对象的控制方法中的相应流程,为了简洁,在此不再赘述。
在一些实施例中,本申请还提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中。终端设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得终端设备执行本申请实施例中的虚拟对象的控制方法中的相应流程,为了简洁,在此不再赘述。
本申请还提供了一种计算机程序,该计算机程序包括计算机程序,计算机程序存储在计算机可读存储介质中。终端设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得终端设备执行本申请实施例中的虚拟对象的控制方法中的相应流程,为了简洁,在此不再赘述。
应理解,本申请实施例的处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
可以理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data RateSDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambus RAM,DR RAM)。应注意,本文描述的系统和方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能若以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台终端设备(可以是个人计算机,服务器)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (14)
1.一种虚拟对象的控制方法,其特征在于,通过终端设备提供虚拟场景画面,所述虚拟场景画面中包括虚拟对象与至少一个虚拟角色,所述方法包括:
控制所述虚拟对象向第一虚拟角色的目标部位移动,所述第一虚拟角色为第一用户对应的虚拟角色;
当所述虚拟对象与所述第一虚拟角色的目标部位满足预设交互条件时,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。
2.如权利要求1所述的虚拟对象的控制方法,其特征在于,在所述控制所述虚拟对象向第一虚拟角色的目标部位移动之前,还包括:
控制所述虚拟对象向所述第一虚拟角色移动。
3.如权利要求2所述的虚拟对象的控制方法,其特征在于,所述当所述虚拟对象与所述第一虚拟角色的目标部位满足预设交互条件时,控制所述虚拟对象附着于所述第一虚拟角色的目标部位,包括:
当所述虚拟对象与所述第一虚拟角色之间的第一距离小于或等于第一距离阈值,和/或者所述虚拟对象与所述第一虚拟角色的目标部位之间的第二距离小于或等于第二距离阈值时,确定满足预设交互条件,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。
4.如权利要求1所述的虚拟对象的控制方法,其特征在于,所述方法还包括:
当所述虚拟对象与第二虚拟角色满足碰撞条件时,控制所述虚拟对象与所述第一虚拟角色的目标部位分离,所述第二虚拟角色为第二用户对应的虚拟角色。
5.如权利要求4所述的虚拟对象的控制方法,其特征在于,所述当所述虚拟对象与第二虚拟角色满足碰撞条件时,控制所述虚拟对象与所述第一虚拟角色的目标部位分离,包括:
响应于所述第二虚拟角色针对所述虚拟对象的抓取指令,控制所述第二虚拟角色抓取所述虚拟对象,且在所述抓取过程中所述虚拟对象针对所述第一虚拟角色的吸附属性值逐渐减小;
当检测到所述吸附属性值小于第一属性阈值时,确定所述虚拟对象与第二虚拟角色满足碰撞条件,则控制所述虚拟对象与所述第一虚拟角色的目标部位分离。
6.如权利要求4所述的虚拟对象的控制方法,其特征在于,在所述控制所述虚拟对象附着于所述第一虚拟角色的目标部位之后,还包括:
将所述虚拟对象的属性信息从第一属性信息修改为第二属性信息。
7.如权利要求6所述的虚拟对象的控制方法,其特征在于,在所述控制所述虚拟对象与所述第一虚拟角色的目标部位分离之后,还包括:
响应于所述第二虚拟角色针对所述虚拟对象的丢弃指令,控制所述第二虚拟角色丢弃所述虚拟对象。
8.如权利要求7所述的虚拟对象的控制方法,其特征在于,在所述控制所述第二虚拟角色丢弃所述虚拟对象之后,还包括:
将所述虚拟对象的属性信息从所述第二属性信息修改为所述第一属性信息。
9.如权利要求1所述的虚拟对象的控制方法,其特征在于,所述目标部位根据所述第一虚拟角色对应的虚拟摄像头确定。
10.如权利要求9所述的虚拟对象的控制方法,其特征在于,在所述控制所述虚拟对象附着于所述第一虚拟角色的目标部位之后,还包括:
为所述虚拟摄像头设置视野遮挡层,并显示通过已设置所述视野遮挡层的虚拟摄像头所采集的虚拟场景画面。
11.如权利要求1-10任一项所述的虚拟对象的控制方法,其特征在于,所述终端设备包括扩展现实设备、虚拟现实设备、增强现实设备与混合现实设备中的任一种。
12.一种虚拟对象的控制装置,其特征在于,通过终端设备提供虚拟场景画面,所述虚拟场景画面中包括虚拟对象与至少一个虚拟角色,所述装置包括:
第一控制单元,用于控制所述虚拟对象向第一虚拟角色的目标部位移动,所述第一虚拟角色为第一用户对应的虚拟角色;
第二控制单元,用于当所述虚拟对象与所述第一虚拟角色的目标部位满足预设交互条件时,控制所述虚拟对象附着于所述第一虚拟角色的目标部位。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行如权利要求1-11任一项所述的虚拟对象的控制方法。
14.一种终端设备,其特征在于,所述终端设备包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行权利要求1-11任一项所述的虚拟对象的控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211551854.XA CN118142168A (zh) | 2022-12-05 | 2022-12-05 | 虚拟对象的控制方法、装置、存储介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211551854.XA CN118142168A (zh) | 2022-12-05 | 2022-12-05 | 虚拟对象的控制方法、装置、存储介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118142168A true CN118142168A (zh) | 2024-06-07 |
Family
ID=91287333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211551854.XA Pending CN118142168A (zh) | 2022-12-05 | 2022-12-05 | 虚拟对象的控制方法、装置、存储介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118142168A (zh) |
-
2022
- 2022-12-05 CN CN202211551854.XA patent/CN118142168A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6373920B2 (ja) | シミュレーションシステム及びプログラム | |
US20210350762A1 (en) | Image processing device and image processing method | |
CN110665230B (zh) | 虚拟世界中的虚拟角色控制方法、装置、设备及介质 | |
EP3117290B1 (en) | Interactive information display | |
US10969861B2 (en) | Image processing device, image processing method, and image system | |
US20180169517A1 (en) | Reactive animation for virtual reality | |
US10984571B2 (en) | Preventing transition shocks during transitions between realities | |
CN103785169A (zh) | 混合现实的竞技场 | |
CN112262373B (zh) | 基于视图的断点 | |
GB2525304B (en) | Interactive information display | |
CN118142168A (zh) | 虚拟对象的控制方法、装置、存储介质及设备 | |
CN114053693A (zh) | 虚拟场景中的对象控制方法、装置及终端设备 | |
JP6856572B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
CN118161858A (zh) | 任务调节方法、装置、存储介质及设备 | |
CN118229934A (zh) | 虚拟对象的显示方法、装置、存储介质、设备及程序产品 | |
CN118170246A (zh) | 虚拟场景图像的显示方法、装置、存储介质及设备 | |
CN118161857A (zh) | 任务显示方法、装置、存储介质及设备 | |
US20240307776A1 (en) | Method and apparatus for displaying information in virtual scene, electronic device, storage medium, and computer program product | |
JP2019032715A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
WO2024060959A1 (zh) | 虚拟环境中的观影画面调整方法、装置、存储介质及设备 | |
US11980807B2 (en) | Adaptive rendering of game to capabilities of device | |
CN117671201A (zh) | 信息刷新方法、装置、存储介质及设备 | |
CN117876633A (zh) | 安全提示方法、装置、存储介质、设备及程序产品 | |
JP6948220B2 (ja) | 仮想体験をユーザに提供するための方法、プログラム及びコンピュータ | |
CN117908666A (zh) | 交互方法、装置、存储介质、设备及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |