CN108671539A - 目标对象交互方法及装置、电子设备、存储介质 - Google Patents

目标对象交互方法及装置、电子设备、存储介质 Download PDF

Info

Publication number
CN108671539A
CN108671539A CN201810421364.5A CN201810421364A CN108671539A CN 108671539 A CN108671539 A CN 108671539A CN 201810421364 A CN201810421364 A CN 201810421364A CN 108671539 A CN108671539 A CN 108671539A
Authority
CN
China
Prior art keywords
target object
interaction mode
virtual
state data
virtual role
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810421364.5A
Other languages
English (en)
Inventor
吴楚洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN201810421364.5A priority Critical patent/CN108671539A/zh
Publication of CN108671539A publication Critical patent/CN108671539A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开是关于一种目标对象交互方法及装置、电子设备、存储介质,涉及人机交互技术领域,该方法包括:将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象;获取人体状态数据;判断所述人体状态数据与所述目标对象的交互状态控制信息是否匹配;如果所述人体状态数据与所述目标对象的所述交互状态控制信息匹配,则触发所述目标对象与所述虚拟角色交互。本公开可以快捷方便地触发目标对象的交互行为。

Description

目标对象交互方法及装置、电子设备、存储介质
技术领域
本公开涉及人机交互技术领域,具体而言,涉及一种目标对象交互方法、目标对象交互装置、电子设备以及计算机可读存储介质。
背景技术
随着移动通信的技术的快速发展,出现了大量的VR(Virtual Reality,虚拟现实)游戏应用。在各类游戏应用场景中,虚拟角色经常需要和多个NPC(Non Player Character,非玩家控制角色)进行交互,以增加游戏应用的趣味性。
非玩家控制角色一般上处于未激活状态,可以在需要与其交互的时候通过对应方法将其激活。相关技术中,如果虚拟角色要与非玩家控制角色进行交互,则需要用户通过外部设备上的预设按钮来点击交互界面上的对应控件,以激活非玩家控制角色与虚拟角色进行交互;在完成交互之后,同样需要点击预设按钮使非玩家控制角色停止与虚拟角色进行交互。
但是,通过外部设备上激活非玩家控制角色进行交互或者停止交互时,首先需要点击外部设备上的预设按钮,然后通过手势激活非玩家控制角色。上述方式中,操作步骤较多,不能快速触发非玩家控制角色与虚拟角色进行交互;除此之外,如果有多个目标对象,则可能会造成误操作,不能准确地触发某一个目标对象的交互行为。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种目标对象交互方法及装置、电子设备、存储介质,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的触发非玩家控制角色不方便的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种目标对象交互方法,应用于可呈现虚拟现实场景,并且至少包括虚拟角色和虚拟对象的交互界面的终端,包括:将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象;获取人体状态数据;判断所述人体状态数据与所述目标对象的交互状态控制信息是否匹配;如果所述人体状态数据与所述目标对象的所述交互状态控制信息匹配,则触发所述目标对象与所述虚拟角色交互。
在本公开的一种示例性实施例中,将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象包括:确定所述虚拟对象的位置与所述虚拟角色之间满足预设条件;将所述虚拟对象确定为所述目标对象。
在本公开的一种示例性实施例中,处于所述虚拟角色当前视野范围内的多个所述目标对象分别配置有对应的所述交互状态控制信息。
在本公开的一种示例性实施例中,所述交互状态控制信息包括交互状态激活信息、交互状态退出信息或交互状态变更信息。
在本公开的一种示例性实施例中,所述交互状态控制信息为所述交互状态退出信息,所述方法还包括:在所述目标对象与所述虚拟角色交互时,如果所述用户的所述人体状态数据与所述目标对象的所述交互状态退出信息匹配,则控制所述目标对象退出所述交互状态。
在本公开的一种示例性实施例中,所述方法还包括:在所述目标对象的预设位置处,提供与所述交互状态控制信息对应的提示标识,以标识性显示所述交互状态控制信息。
在本公开的一种示例性实施例中,所述人体状态数据包括用户的面部表情和/或身体动作。
根据本公开的一个方面,提供一种目标对象交互装置,应用于可呈现虚拟现实场景,并且至少包括虚拟角色和虚拟对象的交互界面的终端,包括:目标对象确定模块,用于将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象;数据获取模块,用于获取人体状态数据;匹配控制模块,用于判断所述人体状态数据与所述目标对象的交互状态控制信息是否匹配;交互触发模块,用于如果所述人体状态数据与所述目标对象的所述交互状态控制信息匹配,则触发所述目标对象与所述虚拟角色交互。
根据本公开的一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的目标对象交互方法。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的目标对象交互方法。
本公开示例性实施例中提供的一种目标对象交互方法、目标对象交互装置、电子设备以及计算机可读存储介质中,通过将人体状态数据与所述目标对象的交互状态控制信息进行对比,在人体状态数据与交互状态控制信息匹配时,触发所述目标对象与所述虚拟角色交互。一方面,通过人体状态数据与目标对象的交互状态信息匹配,即可触发目标对象与虚拟角色进行交互,减少了操作步骤,提高了操作便捷性;另一方面,通过将当前能够与虚拟角色交互的虚拟对象确定为目标对象,并在人体状态数据与目标对象的交互状态控制信息匹配时,触发目标对象与虚拟角色进行交互,避免了对其他虚拟对象的误操作,提高了触发精准度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本公开示例性实施例中一种目标对象交互方法示意图;
图2示意性示出本公开示例性实施例中一种触发目标对象的交互界面示意图;
图3示意性示出本公开示例性实施例中一种目标对象交互装置的框图;
图4示意性示出本公开示例性实施例中一种电子设备的框图;
图5示意性示出本公开示例性实施例中一种程序产品。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例实施方式中首先提供了一种目标对象交互方法,可以应用于可呈现虚拟现实类的应用场景,例如虚拟现实游戏应用场景,且至少包括虚拟角色以及一个或多个虚拟对象的交互界面的终端,可以通过在终端的处理器上执行软件应用并在所述终端的显示器上渲染得到交互界面。此处的虚拟现实游戏可以为角色扮演以及其他各类游戏应用。所述终端可以为智能手机、平板电脑、笔记本电脑、台式电脑、智能电视等各种具有触控屏幕的电子设备。参考图1所示,所述目标对象交互方法可以包括以下步骤:
在步骤S110中,将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象;
在步骤S120中,获取人体状态数据;
在步骤S130中,判断所述人体状态数据与所述目标对象的交互状态控制信息是否匹配;
在步骤S140中,如果所述人体状态数据与所述目标对象的所述交互状态控制信息匹配,则触发所述目标对象与所述虚拟角色交互。
本示例性实施例中提供的目标对象交互方法,一方面,通过人体状态数据与目标对象的交互状态信息匹配,即可触发目标对象与虚拟角色进行交互,减少了操作步骤,提高了操作便捷性;另一方面,通过将当前能够与虚拟角色交互的虚拟对象确定为目标对象,并在人体状态数据与目标对象的交互状态控制信息匹配时,触发目标对象与虚拟角色进行交互,避免了对其他虚拟对象的误操作,提高了触发精准度。
接下来,结合图1至图3对本示例性实施例中的所有步骤进行具体说明。
在步骤S110中,将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象。
本示例中,用户可以借助例如头戴式显示器、VR眼镜,或者安装在距用户一定距离的一个或多个显示器等辅助设备沉浸在虚拟现实游戏应用场景中。虚拟现实游戏场景可以为用户的第一人称视角或者是第三人称视角等,且虚拟现实游戏场景中至少可以包括虚拟角色以及至少一个虚拟对象。其中,虚拟角色可以由用户控制,可以响应用户的操作与其他虚拟对象进行交互操作。虚拟对象指的是非玩家控制角色NPC,一般由开发人员通过程序控制,以为开发人员与用户之间交互提供辅助作用。
在某一游戏应用中,虚拟对象例如可以包括剧情NPC、服务型NPC以及可战斗NPC中的一种或多种,其中剧情NPC用于推动整个剧情情节的发展,服务型NPC用于为游戏应用中的虚拟角色提供各种服务,可战斗NPC用于与用户控制的虚拟角色进行战斗。
为了避免对其他虚拟对象的误操作,可以只将当前能够与虚拟角色进行交互的虚拟对象作为目标对象,以对确定的目标对象进行交互触发。具体而言,将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象包括:确定所述虚拟角色与所述虚拟对象之间的位置满足预设条件,将所述虚拟对象确定为所述目标对象。预设条件可以为距离阈值,在将距离阈值作为预设条件时,虚拟对象可以处于虚拟角色的任意方位,因此满足该距离阈值的虚拟对象可能有多个,从而可能存在多个目标对象。预设条件可以根据实际需求由开发人员通过程序而设置,例如可以设置为5米或者10米等等,此处以预设条件为5米为例进行说明。也就是说,如果虚拟角色A与虚拟对象B之间的距离为4米,则可以将虚拟对象B确定为目标对象;如果虚拟角色A与虚拟对象C之间的距离为4米,则也可以将虚拟对象C确定为目标对象。
除此之外,预设条件也可以同时包括距离阈值和方位阈值,例如可以将预设条件设置为虚拟角色位于虚拟对象的12点钟方位,距离为4米。也就是说,如果虚拟角色A与虚拟对象B之间的距离为4米,且虚拟角色A位于虚拟对象B的12点钟方位,则可以将虚拟对象B确定为目标对象;如果虚拟角色A与虚拟对象C之间的距离为4米,虚拟角色A位于虚拟对象C的9点钟方位,则不能将虚拟对象C确定为目标对象。通过这种方式,可以唯一确定一个目标对象,减少对其他虚拟对象的误操作。
在虚拟角色需要与虚拟对象D交互时,可以逐渐向虚拟对象D的位置靠近,在此过程中,可以实时检测二者之间的位置关系,如果位置关系满足上述描述的预设条件,则可以将虚拟对象D作为目标对象。
需要说明的是,可以为不同的虚拟对象分别设置不同的预设条件,例如可以将虚拟对象B的预设条件设为5米,将虚拟对象D的预设条件设为10米。但是为了降低游戏应用以及用户操作的复杂性,可以将所有的预设条件设置为相同的。
在步骤S120中,获取人体状态数据。
在确定能够与虚拟角色进行交互的目标对象后,可以获取或采集正在交互的用户的人体状态数据,以通过人体状态数据触发目标对象与虚拟角色进行交互。人体状态数据可以只包括面部表情或者只包括身体动作,或者是同时包括面部表情和身体动作,此处不做特殊限定。除此之外,人体状态数据例如还可以包括声音特征等。
面部表情可以通过带有图像采集功能的设备完成,例如可以通过用户佩戴的VR头盔里的摄像头采集。具体而言,可以在常规VR头盔里增加两个或者多个摄像头,以通过摄像头分别采集眼睛、眉毛、瞳孔、下巴、嘴巴等部位的运动。也可以通过设置在VR头盔外部的摄像头采集用户的身体动作,例如手部动作等等。
接下来可以对采集的各个部位的运动进行分析,以确定面部表情。具体可以通过多特征融合方法或者是卷积神经网络识别方法等确定该面部表情。类似地,也可以通过合适的识别方法确定身体动作。其中,面部表情包括但不限于微笑、大笑、生气、嘟嘴等等;身体动作可以包括手部姿势和/或身体动作,例如可以为双手交叉单脚着地、挥手、踢腿、叉腰、环抱双手等等。
进一步地,在步骤S130中,判断所述人体状态数据与所述目标对象的交互状态控制信息是否匹配。
本示例中,交互状态控制信息例如可以包括交互状态激活信息、交互状态退出信息或交互状态变更信息。这三种交互状态控制信息的作用不同,且分别对应不同的交互状态。交互状态激活信息可以用于激活目标对象与虚拟角色进行交互,交互状态退出信息可以用于使虚拟角色与目标对象停止交互,交互状态变更信息可以用于使虚拟角色与目标对象暂停交互或者是其他操作。
需要说明的是,如果同时确定了多个目标对象,为了避免对其他目标对象的影响和误操作,可以对处于虚拟角色当前视野范围内的多个目标对象分别配置对应的交互状态控制信息。也就是说,可以将虚拟角色当前视野范围内的不同目标对象对应的交互状态控制信息配置为不同的信息。除此之外,对于同一个目标对象而言,其交互状态激活信息、交互状态退出信息与交互状态变更信息也互不相同。虚拟角色当前视野范围内的目标对象指的是与虚拟角色处于相同屏幕内的目标对象。例如,目标对象B的交互状态激活信息为微笑、交互状态退出信息为伤心、交互状态变更信息为生气;目标对象C的交互状态激活信息为大笑、交互状态退出信息为嘟嘴、交互状态变更信息为微笑。通过这种方式,避免了多个目标对象之间的相互影响,提高了触发目标对象的精准度。
可以通过将获取的人体状态数据与数据库中存储的目标对象的交互状态控制信息进行对比,以判断二者是否匹配。举例而言,目标对象B的交互状态激活信息为微笑,步骤S120中采集的人体状态数据也为微笑,则可以说人体状态数据与目标对象B的交互状态激活信息匹配。再例如,人体状态数据为身体动作时,也可以通过将采集的身体动作与数据库中存储的目标对象的交互状态控制信息进行对比,以判断二者是否匹配。举例而言,目标对象C的交互状态激活信息为举起双手,步骤S120中采集的人体状态数据也为举起双手,则可以说用户与目标对象C的交互状态激活信息匹配。
需要补充的是,为了快速触发虚拟角色与目标对象的交互,可以在目标对象的预设位置处提供一个与交互状态控制信息对应的提示标识,以标识性显示交互状态控制信息。预设位置可以与目标对象相关联,例如可以为目标对象的正上方、前方或者是其他任意位置。举例而言,参考图2所示,目标对象201的交互状态激活信息为微笑,则在激活目标对象201时,可以在目标对象201的头顶显示一个笑脸2011,以使目标对象201与虚拟角色200进行交互。交互状态退出信息为伤心,则在停止目标对象201与虚拟角色交互时,可以在目标对象201的头顶显示一个伤心的表情,交互状态变更信息为生气,则在需要变更交互状态时,可以在目标对象201的头顶显示一个生气的表情。目标对象202的交互状态激活信息为伤心,则在激活目标对象202时,可以在目标对象202的头顶显示一个伤心的表情2021。如果交互状态控制信息为动作,则可以在目标对象头顶处显示与动作相对应的提示标识。通过在预设位置处提供提示标识的方式,可以使用户根据该提示标识做出对应的表情和动作,从而可以快速进行交互控制。除此之外,为了节省空间,也可以不显示该提示标识。
在步骤S140中,如果所述人体状态数据与所述目标对象的所述交互状态控制信息匹配,则触发所述目标对象与所述虚拟角色交互。
本示例中,在通过步骤S130判断人体状态数据与目标对象的交互状态控制信息匹配时,可以触发目标对象与虚拟角色进行交互。举例而言,如果目标对象B的头顶处呈现代表微笑的提示标识,而获取的人体状态数据为微笑,则可以触发目标对象B处于激活状态,并且可以与虚拟角色进行交互。此处通过面部表情触发交互行为,无需用户进行其他操作,只需要做对应的表情即可,减少了硬件成本,且减少了操作步骤,提高了趣味性和游戏应用的代入感。
进一步地,在交互过程中,可以通过用户关掉选项卡或者是点击关闭控件等操作停止交互,还可以通过用户未保持交互状态激活信息的时间长短停止交互,例如用户未保持交互状态激活信息的时间超过1分钟,即可停止交互状态。但是为了保证交互状态控制的准确性,本示例中以提供交互状态退出信息为例进行说明。在所述目标对象与所述虚拟角色交互时,交互状态控制信息可以为交互状态退出信息,此处如果人体状态数据与目标对象的所述交互状态退出信息匹配,则控制目标对象退出所述交互状态。在目标对象与虚拟角色进行交互时,该目标对象的头顶处即可呈现与交互状态退出信息对应的提示标识,如果获取的人体状态数据与该提示标识匹配,则可以控制目标对象停止与虚拟角色交互。
除此之外,如果在交互过程中,用户的人体状态数据与交互状态变更信息匹配,则可以变更当前的交互状态,例如从交互变更为停止交互,或者从停止交互变更为交互等等。
本公开还提供了一种目标对象交互装置。参考图3所示,应用于可呈现虚拟现实场景,并且至少包括虚拟角色以及虚拟对象的交互界面的终端,所述装置300可以包括:目标对象确定模块301、数据获取模块302、匹配控制模块303以及交互触发模块304,其中:
目标对象确定模块301,用于将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象;
数据获取模块302,用于获取人体状态数据;
匹配控制模块303,用于判断所述人体状态数据与所述目标对象的交互状态控制信息是否匹配;
交互触发模块304,用于如果所述人体状态数据与所述目标对象的所述交互状态控制信息匹配,则触发所述目标对象与所述虚拟角色交互。
需要说明的是,上述目标对象交互装置中各模块的具体细节已经在对应的目标对象交互方法中进行了详细描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图4来描述根据本发明的这种实施方式的电子设备400。图4显示的电子设备400仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备400以通用计算设备的形式表现。电子设备400的组件可以包括但不限于:上述至少一个处理单元410、上述至少一个存储单元420、连接不同系统组件(包括存储单元420和处理单元410)的总线430。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元410执行,使得所述处理单元410执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元410可以执行如图1中所示的步骤:在步骤S110中,将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象;在步骤S120中,获取人体状态数据;在步骤S130中,判断所述人体状态数据与所述目标对象的交互状态控制信息是否匹配;在步骤S140中,如果所述人体状态数据与所述目标对象的所述交互状态控制信息匹配,则触发所述目标对象与所述虚拟角色交互。
存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。
存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备400也可以与一个或多个外部设备600(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备400交互的设备通信,和/或与使得该电子设备400能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口450进行。并且,电子设备400还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器460通过总线430与电子设备400的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图5所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品500,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。

Claims (10)

1.一种目标对象交互方法,应用于可呈现虚拟现实场景,并且至少包括虚拟角色和虚拟对象的交互界面的终端,其特征在于,包括:
将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象;
获取人体状态数据;
判断所述人体状态数据与所述目标对象的交互状态控制信息是否匹配;
如果所述人体状态数据与所述目标对象的所述交互状态控制信息匹配,则触发所述目标对象与所述虚拟角色交互。
2.根据权利要求1所述的目标对象交互方法,其特征在于,将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象包括:
确定所述虚拟对象的位置与所述虚拟角色之间满足预设条件;
将所述虚拟对象确定为所述目标对象。
3.根据权利要求1所述的目标对象交互方法,其特征在于,处于所述虚拟角色当前视野范围内的多个所述目标对象分别配置有对应的所述交互状态控制信息。
4.根据权利要求1所述的目标对象交互方法,其特征在于,所述交互状态控制信息包括交互状态激活信息、交互状态退出信息或交互状态变更信息。
5.根据权利要求4所述的目标对象交互方法,其特征在于,所述交互状态控制信息为所述交互状态退出信息,所述方法还包括:
在所述目标对象与所述虚拟角色交互时,如果所述人体状态数据与所述目标对象的所述交互状态退出信息匹配,则控制所述目标对象退出所述交互状态。
6.根据权利要求1所述的目标对象交互方法,其特征在于,所述方法还包括:
在虚拟现实场景的预设位置处,提供与所述交互状态控制信息对应的提示标识,以标识性显示所述交互状态控制信息。
7.根据权利要求1所述的目标对象交互方法,其特征在于,所述人体状态数据包括用户的面部表情和/或身体动作。
8.一种目标对象交互装置,应用于可呈现虚拟现实场景,并且至少包括虚拟角色和虚拟对象的交互界面的终端,其特征在于,包括:
目标对象确定模块,用于将当前能够与所述虚拟角色交互的所述虚拟对象确定为目标对象;
数据获取模块,用于获取人体状态数据;
匹配控制模块,用于判断所述人体状态数据与所述目标对象的交互状态控制信息是否匹配;
交互触发模块,用于如果所述人体状态数据与所述目标对象的所述交互状态控制信息匹配,则触发所述目标对象与所述虚拟角色交互。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-7任一项所述的目标对象交互方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述的目标对象交互方法。
CN201810421364.5A 2018-05-04 2018-05-04 目标对象交互方法及装置、电子设备、存储介质 Pending CN108671539A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810421364.5A CN108671539A (zh) 2018-05-04 2018-05-04 目标对象交互方法及装置、电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810421364.5A CN108671539A (zh) 2018-05-04 2018-05-04 目标对象交互方法及装置、电子设备、存储介质

Publications (1)

Publication Number Publication Date
CN108671539A true CN108671539A (zh) 2018-10-19

Family

ID=63802372

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810421364.5A Pending CN108671539A (zh) 2018-05-04 2018-05-04 目标对象交互方法及装置、电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN108671539A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109529340A (zh) * 2018-11-21 2019-03-29 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、电子设备及存储介质
CN109960545A (zh) * 2019-03-29 2019-07-02 网易(杭州)网络有限公司 虚拟对象控制方法、系统、装置、介质及电子设备
CN110009714A (zh) * 2019-03-05 2019-07-12 重庆爱奇艺智能科技有限公司 在智能设备中调整虚拟角色眼神的方法及装置
CN110141858A (zh) * 2019-05-22 2019-08-20 网易(杭州)网络有限公司 游戏中跳字的显示控制方法及装置、存储介质及电子设备
CN111068308A (zh) * 2019-11-12 2020-04-28 北京字节跳动网络技术有限公司 基于嘴部动作的数据处理方法、装置、介质和电子设备
CN111389015A (zh) * 2020-02-27 2020-07-10 腾讯科技(深圳)有限公司 游戏道具的确定方法、装置及存储介质
CN111722712A (zh) * 2020-06-09 2020-09-29 三星电子(中国)研发中心 用于在增强现实中控制互动的方法及装置
CN111773736A (zh) * 2020-07-03 2020-10-16 珠海金山网络游戏科技有限公司 一种虚拟角色的行为生成方法及装置
CN111984123A (zh) * 2020-08-19 2020-11-24 北京鲸世科技有限公司 脑电数据交互方法及装置
CN113010594A (zh) * 2021-04-06 2021-06-22 深圳市思麦云科技有限公司 一种基于xr智慧学习平台
CN115018960A (zh) * 2022-06-02 2022-09-06 北京新唐思创教育科技有限公司 角色互动方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101393599A (zh) * 2007-09-19 2009-03-25 中国科学院自动化研究所 一种基于人脸表情的游戏角色控制方法
CN104866101A (zh) * 2015-05-27 2015-08-26 世优(北京)科技有限公司 虚拟对象的实时互动控制方法及装置
CN106445118A (zh) * 2016-09-06 2017-02-22 网易(杭州)网络有限公司 虚拟现实交互方法及装置
CN106774824A (zh) * 2016-10-26 2017-05-31 网易(杭州)网络有限公司 虚拟现实交互方法及装置
CN106951080A (zh) * 2017-03-16 2017-07-14 联想(北京)有限公司 用于控制虚拟物体的交互方法和装置
CN107185229A (zh) * 2017-04-26 2017-09-22 歌尔科技有限公司 虚拟现实设备的游戏输入方法及装置、虚拟现实系统
CN107562201A (zh) * 2017-09-08 2018-01-09 网易(杭州)网络有限公司 定向交互方法、装置、电子设备及存储介质
US20180043247A1 (en) * 2016-08-12 2018-02-15 Zero Latency PTY LTD Mapping arena movements into a 3-d virtual world

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101393599A (zh) * 2007-09-19 2009-03-25 中国科学院自动化研究所 一种基于人脸表情的游戏角色控制方法
CN104866101A (zh) * 2015-05-27 2015-08-26 世优(北京)科技有限公司 虚拟对象的实时互动控制方法及装置
US20180043247A1 (en) * 2016-08-12 2018-02-15 Zero Latency PTY LTD Mapping arena movements into a 3-d virtual world
CN106445118A (zh) * 2016-09-06 2017-02-22 网易(杭州)网络有限公司 虚拟现实交互方法及装置
CN106774824A (zh) * 2016-10-26 2017-05-31 网易(杭州)网络有限公司 虚拟现实交互方法及装置
CN106951080A (zh) * 2017-03-16 2017-07-14 联想(北京)有限公司 用于控制虚拟物体的交互方法和装置
CN107185229A (zh) * 2017-04-26 2017-09-22 歌尔科技有限公司 虚拟现实设备的游戏输入方法及装置、虚拟现实系统
CN107562201A (zh) * 2017-09-08 2018-01-09 网易(杭州)网络有限公司 定向交互方法、装置、电子设备及存储介质

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109529340B (zh) * 2018-11-21 2020-08-11 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、电子设备及存储介质
CN109529340A (zh) * 2018-11-21 2019-03-29 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、电子设备及存储介质
CN110009714A (zh) * 2019-03-05 2019-07-12 重庆爱奇艺智能科技有限公司 在智能设备中调整虚拟角色眼神的方法及装置
CN109960545A (zh) * 2019-03-29 2019-07-02 网易(杭州)网络有限公司 虚拟对象控制方法、系统、装置、介质及电子设备
CN110141858A (zh) * 2019-05-22 2019-08-20 网易(杭州)网络有限公司 游戏中跳字的显示控制方法及装置、存储介质及电子设备
CN110141858B (zh) * 2019-05-22 2023-03-28 网易(杭州)网络有限公司 游戏中跳字的显示控制方法及装置、存储介质及电子设备
CN111068308A (zh) * 2019-11-12 2020-04-28 北京字节跳动网络技术有限公司 基于嘴部动作的数据处理方法、装置、介质和电子设备
CN111389015A (zh) * 2020-02-27 2020-07-10 腾讯科技(深圳)有限公司 游戏道具的确定方法、装置及存储介质
CN111722712A (zh) * 2020-06-09 2020-09-29 三星电子(中国)研发中心 用于在增强现实中控制互动的方法及装置
CN111773736A (zh) * 2020-07-03 2020-10-16 珠海金山网络游戏科技有限公司 一种虚拟角色的行为生成方法及装置
CN111773736B (zh) * 2020-07-03 2024-02-23 珠海金山数字网络科技有限公司 一种虚拟角色的行为生成方法及装置
CN111984123A (zh) * 2020-08-19 2020-11-24 北京鲸世科技有限公司 脑电数据交互方法及装置
CN113010594A (zh) * 2021-04-06 2021-06-22 深圳市思麦云科技有限公司 一种基于xr智慧学习平台
CN115018960A (zh) * 2022-06-02 2022-09-06 北京新唐思创教育科技有限公司 角色互动方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN108671539A (zh) 目标对象交互方法及装置、电子设备、存储介质
US11983823B2 (en) Transmodal input fusion for a wearable system
CN110249368B (zh) 混合现实环境中提供虚拟远程控制的可穿戴系统及方法
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
KR102565755B1 (ko) 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법
JP6244593B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US11256336B2 (en) Integration of artificial reality interaction modes
CN108681399B (zh) 一种设备控制方法、装置、控制设备及存储介质
WO2020197626A1 (en) Methods for two-stage hand gesture input
US11294475B1 (en) Artificial reality multi-modal input switching model
CN107918482B (zh) 沉浸式vr系统中避免过度刺激的方法与系统
US20180204369A1 (en) Method for communicating via virtual space, program for executing the method on computer, and information processing apparatus for executing the program
KR20190095620A (ko) 전자 장치 및 그의 제어방법
CN104182050B (zh) 头戴式智能设备和具有该头戴式智能设备的投影系统
CN113892075A (zh) 用于人工现实系统的拐角识别手势驱动的用户界面元素选通
CN108549487A (zh) 虚拟现实交互方法与装置
Mohd et al. Multi-modal data fusion in enhancing human-machine interaction for robotic applications: a survey
JP2020052775A (ja) プログラム、仮想空間の提供方法および情報処理装置
US20230384928A1 (en) Ar-based virtual keyboard
WO2023174097A1 (zh) 交互方法、装置、设备及计算机可读存储介质
US20240070994A1 (en) One-handed zoom operation for ar/vr devices
US20230377223A1 (en) Hand-tracked text selection and modification
US20240126373A1 (en) Tractable body-based ar system input
KR102612430B1 (ko) 전이학습을 이용한 딥러닝 기반 사용자 손 동작 인식 및 가상 현실 콘텐츠 제공 시스템
US20230325002A1 (en) Techniques for neuromuscular-signal-based detection of in-air hand gestures for text production and modification, and systems, wearable devices, and methods for using these techniques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181019

RJ01 Rejection of invention patent application after publication