CN108958475A - 虚拟对象控制方法、装置及设备 - Google Patents

虚拟对象控制方法、装置及设备 Download PDF

Info

Publication number
CN108958475A
CN108958475A CN201810575938.4A CN201810575938A CN108958475A CN 108958475 A CN108958475 A CN 108958475A CN 201810575938 A CN201810575938 A CN 201810575938A CN 108958475 A CN108958475 A CN 108958475A
Authority
CN
China
Prior art keywords
virtual objects
relative movement
gestures
images
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810575938.4A
Other languages
English (en)
Other versions
CN108958475B (zh
Inventor
吴承军
季婧
程佳慧
王亚迪
段青龙
吴瑾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201810575938.4A priority Critical patent/CN108958475B/zh
Publication of CN108958475A publication Critical patent/CN108958475A/zh
Application granted granted Critical
Publication of CN108958475B publication Critical patent/CN108958475B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本说明书实施例提供一种虚拟对象控制方法、装置及设备,本说明书实施例在预设的增强显示互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系,进而基于相对移动关系控制可控虚拟对象执行预设操作,从而实现不接触屏幕的情况下也能操控虚拟对象。

Description

虚拟对象控制方法、装置及设备
技术领域
本说明书涉及增强现实技术领域,尤其涉及虚拟对象控制方法、装置及设备。
背景技术
增强现实(Augmented Reality,简称AR),也有对应VR虚拟实境一词的翻译称为实拟虚境,可以是指通过摄影机影像的位置及角度精算并加上图像分析技术,让屏幕上的虚拟世界能够与现实世界场景进行结合与互动的技术。目前,在智能终端上已经出现不少的增强现实的应用。例如,基于增强现实技术,可以在拍摄的真实场景画面中叠加虚拟对象,以达到将虚拟对象与现实结合的目的。然而,目前用户大多通过点击、滑动、长按屏幕等方式对虚拟对象进行控制,存在操作不便。
发明内容
为克服相关技术中存在的问题,本说明书提供了虚拟对象控制方法、装置及设备。
根据本说明书实施例的第一方面,提供一种虚拟对象控制方法,所述方法应用于智能终端,智能终端上展示有AR场景,AR场景至少包括可控虚拟对象,所述方法包括:
在预设的增强现实互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系;
基于所述相对移动关系控制所述可控虚拟对象执行预设操作。
可选的,所述相对移动关系包括相对移动距离和相对移动角度,所述基于所述相对移动关系控制所述可控虚拟对象执行预设操作,包括:
在所述相对移动距离大于预设距离阈值时,控制所述可控虚拟对象沿着预设移动轨迹进行移动,所述预设移动轨迹至少基于所述相对移动角度确定。
可选的,所述相对移动距离和相对移动角度:基于利用手势图像对用户手势进行手势跟踪的结果获得,或,
所述相对移动距离和相对移动角度:基于利用手势图像对用户手势进行手势跟踪的结果、以及智能终端中陀螺仪采集的参数获得,或,
所述相对移动距离和相对移动角度:基于捕获的手势图像和智能终端的运动信息获得,所述用户手势与智能终端的相对移动关系由智能终端的运动产生。
可选的,所述在所述相对移动距离大于预设距离阈值时,控制所述可控虚拟对象沿着预设移动轨迹进行移动,包括:
在所述相对移动距离大于预设距离阈值时,执行倒计时操作;
在倒计时期间,若相对移动角度更新,则至少基于更新的相对移动角度调整所述可控虚拟对象的预设移动轨迹;
倒计时结束时,控制所述可控虚拟对象沿着调整后的预设移动轨迹进行移动。
可选的,所述方法还包括:
在预设的增强现实互动模式下展示有与所述用户手势对应的模拟手势图像,所述模拟手势图像是跟踪所述用户手势而产生的手势图像;
在所述模拟手势图像的关联位置处展示发射虚拟对象,以模拟用户手握或手碰发射虚拟对象的场景,所述可控虚拟对象为所述发射虚拟对象的发射对象。
可选的,所述方法还包括:
捕获用户的手势图像,所述手势图像包括由所述用户产生的手势;
将所捕获的手势图像输入预设的手势识别模型;并且,
若手势识别成功,进入预设的增强现实互动模式。
可选的,所述方法还包括:
调用SLAM算法,扫描现实环境,并构建实时地图模型,对加载的被击虚拟对象在实时地图模型上进行定位,并根据定位结果在捕获的现实环境图像上对所述被击虚拟对象进行实景动画渲染。
可选的,所述AR场景包括AR弹弓射击场景,所述可控虚拟对象为用于表示子弹的虚拟对象,所述发射虚拟对象为用于表示弹弓的虚拟对象;或,
所述AR场景包括AR枪击场景,所述可控虚拟对象为用于表示子弹的虚拟对象,所述发射虚拟对象为用于表示枪的虚拟对象;或,
所述AR场景包括AR射箭场景,所述可控虚拟对象为用于表示箭的虚拟对象,所述发射虚拟对象为用于表示弓或弩的虚拟对象。
根据本说明书实施例的第二方面,提供一种虚拟对象控制装置,所述装置设于智能终端,智能终端上展示有AR场景,AR场景至少包括可控虚拟对象,所述装置包括:
关系确定模块,用于:在预设的增强现实互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系;
操作执行模块,用于:基于所述相对移动关系控制所述可控虚拟对象执行预设操作。
可选的,所述相对移动关系包括相对移动距离和相对移动角度,所述操作执行模块具体用于:
在所述相对移动距离大于预设距离阈值时,控制所述可控虚拟对象沿着预设移动轨迹进行移动,所述预设移动轨迹至少基于所述相对移动角度确定。
可选的,所述相对移动距离和相对移动角度:基于利用手势图像对用户手势进行手势跟踪的结果获得,或,
所述相对移动距离和相对移动角度:基于利用手势图像对用户手势进行手势跟踪的结果、以及智能终端中陀螺仪采集的参数获得,或,
所述相对移动距离和相对移动角度:基于捕获的手势图像和智能终端的运动信息获得,所述用户手势与智能终端的相对移动关系由智能终端的运动产生。
可选的,所述操作执行模块具体用于:
在所述相对移动距离大于预设距离阈值时,执行倒计时操作;
在倒计时期间,若相对移动角度更新,则至少基于更新的相对移动角度调整所述可控虚拟对象的预设移动轨迹;
倒计时结束时,控制所述可控虚拟对象沿着调整后的预设移动轨迹进行移动。
可选的,所述装置还包括信息展示模块,用于:
在预设的增强现实互动模式下展示有与所述用户手势对应的模拟手势图像,所述模拟手势图像是跟踪所述用户手势而产生的手势图像;
在所述模拟手势图像的关联位置处展示发射虚拟对象,以模拟用户手握或手碰发射虚拟对象的场景,所述可控虚拟对象为所述发射虚拟对象的发射对象。
可选的,所述装置还包括:
图像捕获模块,用于:捕获用户的手势图像,所述手势图像包括由所述用户产生的手势;
手势识别模块,用于:将所捕获的手势图像输入预设的手势识别模型;并且,
模式启动模块,用于:若手势识别成功,进入预设的增强现实互动模式。
可选的,所述装置还包括:
对象渲染模块,用于:调用SLAM算法,扫描现实环境,并构建实时地图模型,对加载的被击虚拟对象在实时地图模型上进行定位,并根据定位结果在捕获的现实环境图像上对所述被击虚拟对象进行实景动画渲染。
根据本说明书实施例的第三方面,提供一种计算机设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
在预设的增强现实互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系;
基于所述相对移动关系控制AR场景中可控虚拟对象执行预设操作。
本说明书的实施例提供的技术方案可以包括以下有益效果:
本说明书实施例在预设的增强显示互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系,进而基于相对移动关系控制可控虚拟对象执行预设操作,从而实现不接触屏幕的情况下也能操控虚拟对象,增强对虚拟对象的操控方式,提升用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本说明书。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本说明书的实施例,并与说明书一起用于解释本说明书的原理。
图1是本说明书根据一示例性实施例示出的一种虚拟对象控制方法的流程图。
图2是本说明书根据一示例性实施例示出的另一种虚拟对象控制方法的流程图。
图3A和3B是本说明书根据一示例性实施例示出的一种虚拟对象控制方法的应用场景图。
图4是本说明书根据一示例性实施例示出的一种虚拟对象控制装置所在计算机设备的一种硬件结构图。
图5是本说明书根据一示例性实施例示出的一种虚拟对象控制装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本说明书相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本说明书的一些方面相一致的装置和方法的例子。
在本说明书使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书。在本说明书和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
随着AR技术发展,在智能终端上已经出现不少的增强现实的应用。例如,基于增强现实技术,可以在拍摄的真实场景画面中叠加虚拟对象,以达到将虚拟对象与现实结合的目的。目前,用户大多通过点击、滑动、长按屏幕等方式对虚拟对象进行控制,实现互动。然而,由于用户需要触控屏幕才能控制虚拟对象,当用户存在手湿、戴有手套等不方便操作屏幕的情况时,无法实现对虚拟对象的控制。
鉴于此,本说明书实施例提供一种能远程操控虚拟对象的方案,在预设的增强显示互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系,进而基于相对移动关系控制可控虚拟对象执行预设操作,从而实现不接触屏幕的情况下也能操控虚拟对象,增强对虚拟对象的操控方式,提升用户体验。
以下结合附图对本说明书实施例进行示例说明。
如图1所示,是本说明书根据一示例性实施例示出的一种虚拟对象控制方法的流程图,所述方法应用于智能终端,智能终端上展示有AR场景,AR场景至少包括可控虚拟对象,所述方法包括:
在步骤102中,在预设的增强现实互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系;
在步骤104中,基于所述相对移动关系控制所述可控虚拟对象执行预设操作。
在本说明书实施例中,智能终端可以是各种安装有AR应用程序的电子设备,电子设备可以是蜂窝电话、媒体播放器或其它手持便携式设备,也可以是诸如腕表设备、吊坠设备等稍微更小的便携式设备,或者小型化设备、游戏装备、平板计算机、笔记本计算机、台式计算机、集成于计算机显示器中的计算机或其它的电子装备。AR应用的关键在于如何将扩增的虚拟对象与实际环境结合,AR应用可以从捕获的影像取得真实世界的坐标,再将虚拟对象叠合到坐标上。
虚拟对象可以是AR技术中待与实际环境结合的扩增对象,为了区别于实际环境中的现实对象,可以将其称为虚拟对象。例如,虚拟对象可以包括但不限于虚拟的建筑物、植物、交通工具、人、动物、生物、机器、数据、视频、文本、图片等对象。为了区分不同作用的虚拟对象,本实施例将待控制的虚拟对象称为可控虚拟对象。手势图像可以是由摄像模块采集的包括用户手势的图像。摄像模块可以是智能终端上的摄像模块,例如前置摄像头或后置摄像头。摄像模块也可以是绑定在智能终端上的摄像设备,摄像模块可以将采集的手势图像发送至智能终端。
在AR场景中至少包括可控虚拟对象,还可以包括从实际环境中捕获的现实图像,以达到虚实结合。在一个例子中,AR场景可以是AR宠物运动场景、AR投射场景等。例如,可以是投篮场景、AR弹弓射击场景(例如,利用爱心射击作为靶子的萌宝)、AR枪击场景、AR射箭场景等。
关于增强现实互动模式,可以是预先设置的允许采用非触摸方式操控虚拟对象的模式。在该预设的增强显示互动模式下,可以采用非触摸的交互方式操控可控虚拟对象,以使可控虚拟对象执行与相对移动关系关联的预设操作。预设操作可以是移动操作、跳舞操作、弹跳操作等。触发进入增强现实互动模式的条件可以有很多种,以下列举几种进行示例说明。
在一个例子中,可以增设用于表示增强现实互动模式的模式控件,在模式控件被触发后,可以进入增强现实互动模式。
在另一个例子中,可以捕获用户的手势图像,所述手势图像包括由所述用户产生的手势;将所捕获的手势图像输入预设的手势识别模型;并且,若手势识别成功,进入预设的增强现实互动模式。
进一步的,还可以对手势识别结果进行提醒,以便用户获得识别结果。
在该实施例中,可以利用对预设的手势样本库进行训练,获得用于进行手势识别的手势识别模型。将所捕获的手势图像输入预设的手势识别模型,可以比较所捕获的手势图像与预设手势集合中预设手势图像,从而实现对所捕获的手势图像的识别。若识别用户手势为预设手势,则判定手势识别成功,进入预设的增强现实互动模式。其中,预设手势可以是用于表示进入模式的手势,也可以是后续游戏所需手势。
可见,该实施例通过手势识别的方式判断是否进入增强现实交互模式,可以提高互动性。为了提醒用户比出正确的手势,在一个例子中,进入预设的增强现实互动模式之前,还可以展示手势轮廓图,以提醒用户做出与手势轮廓图相同的用户手势。进一步的,还可以通过文字或语音等提醒方式提醒用户做出与手势轮廓图相应的手势。如,“按提示识别手势,准备射击”。
可见,通过手势轮廓图,可以提醒用户所需做出的手势,便于用户进行相应的游戏。
进一步的,不同的手势轮廓图可以代表不同的VR游戏,例如,若手势轮廓图为:数字“八”的手势、且“八”与终端屏幕平行时,可以对应AR弹弓射击游戏;又如,若手势轮廓图为:用于表示枪击的手势,则可以对应AR枪击游戏;又如,若手势轮廓图为:用于表示拉弓的手势,则可以对应AR射箭游戏等。可见,通过不同的手势轮廓图可以提醒用户进入不同的VR游戏。
关于相对移动关系,可以是用于体现用户手势与智能终端相互移动而产生的关系。相互移动关系可以是由用户手势的运动产生,也可以是由智能终端的运动产生。
在一个实施例中,相对移动关系包括相对移动轨迹,则可以根据捕获的手势图像对用户手势进行跟踪,获得用户手势相对于智能终端的相对移动轨迹,并控制可控虚拟对象跟随用户手势的相对移动轨迹而移动。
其中,手势跟踪可以是一种图像跟踪方法,可以对手势进行在实景中的跟踪。对于手势的跟踪可以采取预测和重定位的形式,可以理解的是,还可以采用相关技术中其他手势跟踪方法,在此不做限制。
本实施例可以实现控制可控虚拟对象跟随用户手势在三维空间中的移动轨迹而移动,增强用户代入感,让用户能够借助智能终端实现沉浸式的交互体验。
在另一个实施例中,相对移动关系与预设移动轨迹存在预设映射关系,而预设移动轨迹可以不同于用户手势的移动轨迹。因此,基于预设映射关系可以获得相对移动关系对应的移动轨迹,进而控制可控虚拟对象沿着所确定的预设移动轨迹进行移动。预设移动轨迹可以是发射轨迹、弹跳轨迹、跳舞轨迹等等。
在一个例子中,相对移动关系可以包括相对移动距离和相对移动角度。相对移动距离可以作为是否触发可控虚拟对象进行移动的条件,相对移动角度可以作为确定可控虚拟对象的预设移动轨迹的因素。例如,在射击场景中,可以根据相对移动角度确定可控虚拟对象的发射方向,进而获得预设移动轨迹。因此,所述基于所述相对移动关系控制所述可控虚拟对象执行预设操作,可以包括:在所述相对移动距离大于预设距离阈值时,控制所述可控虚拟对象沿着预设移动轨迹进行移动,所述预设移动轨迹至少基于相对移动角度确定。
其中,预设距离阈值可以是预先设置的用于判断是否触发可控虚拟对象移动的距离。可见,在该实施例中无需触碰屏幕,通过智能终端与用户手势的距离,即可实现对可控虚拟对象是否移动进行控制,丰富交互方案。
在本实施例中,可控虚拟对象的移动轨迹可以是不同于用户手势移动轨迹的预设移动轨迹。
一方面,预设移动轨迹的决定因素可以为相对移动角度。例如,预先建立相对移动角度范围与预设移动轨迹的映射关系,在确定相对移动角度后,可以根据映射关系和相对移动角度,确定预设移动轨迹。可见,在该实施例中,用户可以通过用户手势与智能终端之间的相对移动角度控制可控对象的移动轨迹,实现移动轨迹的可控性。
另一方面,预设移动轨迹的决定因素除了相对移动角度,还可以包括其他因素,例如,相对移动距离。特别是应用在射击的游戏场景中,预设移动轨迹为射击轨迹,可以将智能终端与用户手势的移动距离和相对移动角度作为确定射击轨迹的参考因素,多维度控制可控虚拟对象的预设移动轨迹,以实现模拟真实的射击场景,提高游戏代入感。
关于相对移动距离,可以是三维空间中用户手势相对于智能终端的移动距离,也可以是三维空间中用户手势相对于智能终端在预设方向的移动距离。其中,预设方向可以是摄像模块镜头所在平面的垂线方向。
在一个例子中,相互移动关系可以是由用户手势的运动产生,也可以是由智能终端的运动产生。因此,可以利用手势图像对用户手势进行手势跟踪,获得相对移动距离以及相对移动角度。
其中,由于当用户手势与智能终端位置未发生变化时,手势图像不会发生变化,而当用户手势与智能终端的距离发生变化时,手势图像中用户手势面积会发生变化,因此,至少可以根据手势图像中用户手势面积获得相对移动距离。相应的,至少还可以根据手势图像中用户手势的移动位置获得相对移动角度。
因此,在利用手势图像对用户手势进行手势跟踪过程中,可以获得用户手势相对于智能终端的相对移动距离和相对移动角度,提高相对移动关系的获得效率。
为了提高相对移动关系的准确性,在另一个例子中,还可以通过智能终端的移动信息进行综合判断。该实施例的应用场景为:智能终端为移动终端,且用户手势与智能终端的相对移动关系可以由智能终端的运动产生。例如,通过预设提醒方式提示用户通过移动智能终端以确定移动轨迹、以及触发可控虚拟对象的移动操作。如具体示例,“移动智能终端以调整瞄准角度”,“瞄准完成后,向后移动智能终端以发射可控虚拟对象”。
在该场景下,所述相对移动距离和相对移动角度可以基于捕获的手势图像和智能终端的运动信息获得。例如,根据捕获的手势图像中手势的面积以及智能终端的移动距离和转动角度,确定相对移动距离和相对移动角度。智能终端的运动信息可以基于智能终端中陀螺仪采集的参数获得。
该实施例通过移动智能终端产生相对移动关系,可以提高确定相对移动距离和相对移动角度的准确性。
在另一个例子中,可以利用手势图像对用户手势进行手势跟踪的结果、以及智能终端中陀螺仪采集的参数获得用户手势与智能终端的相对移动距离和相对移动角度。
其中,陀螺仪可以是用高速回转体的动量钜敏感壳体相对于惯性空间绕正交于自转轴的一个或二个轴的角运动检测装置。通过陀螺仪,可以对移动终端的偏转角度、速度等进行测量,并将测量结果与手势跟踪结果进行结合,预测出移动终端与用户手势的相对移动距离和相对移动角度,从而提高相对移动关系的准确性。
在实际应用中,由于用户往往不清楚何种距离能触发可控虚拟对象执行移动操作,因此,在由相对移动距离触发可控虚拟对象执行移动操作时,用户可能对可控虚拟对象的移动轨迹还未调整好,因此,可以通过倒计时的方式,提供用户进行移动轨迹调整的机会,增强用户体验,鉴于此,所述方法还包括:在所述相对移动距离大于预设距离阈值时、且在控制所述可控虚拟对象沿着所确定的移动轨迹进行移动之前,执行倒计时操作;在倒计时期间,若相对移动角度更新,则至少基于更新的相对移动角度调整所述可控虚拟对象的预设移动轨迹。
在控制所述可控虚拟对象沿着所确定的移动轨迹进行移动之前,可以执行倒计时操作。倒计时的时间可以预先设定,例如,可以设置为3s。在倒计时时间内,用户可以对可控虚拟对象的预设移动轨迹进行调整。例如,可以通过调整用户手势与智能终端的相对移动角度,实现调整可控虚拟对象的预设移动轨迹。又如,可以通过调整用户手势与智能终端的相对移动角度和相对移动距离,实现调整可控虚拟对象的预设移动轨迹。
进一步的,还可以对倒计时进行动态提醒,以提醒用户倒计时时间。
可见,在该实施例中,通过提供用户调整可控虚拟对象的预设移动轨迹的机会,便于用户能寻找更准确的移动轨迹,进而提升用户体验。
进一步的,还可以将可控虚拟对象的预设移动轨迹进行全部或部分展示,以达到提醒用户的目的。
控制可控虚拟对象进行移动的AR场景,可以是AR投射场景。例如,可以包括投篮场景、AR弹弓射击场景、AR枪击场景、AR射箭场景等。在AR投篮场景中,可控对象可以是虚拟篮球;在AR弹弓射击场景中,可控虚拟对象可以为用于表示子弹的虚拟对象(如子弹图像、爱心图像等);在AR枪击场景,可控虚拟对象可以为用于表示子弹的虚拟对象;在AR射箭场景中,可控虚拟对象可以是用于表示箭的虚拟对象。而针对投射场景,除了可移动的可控虚拟对象,还可能包括用于发射可控虚拟对象的设备,因此,为了提高真实感,还可以展示用于发射可控虚拟对象的发射虚拟对象。例如,在AR弹弓射击场景中,发射虚拟对象可以为用于表示弹弓的虚拟对象;在AR枪击场景,发射虚拟对象可以为用于表示枪的虚拟对象;在AR射箭场景中,发射虚拟对象可以为用于表示弓或弩的虚拟对象。
鉴于此,所述方法还包括:在预设的增强现实互动模式下展示有与所述用户手势对应的模拟手势图像,所述模拟手势图像是跟踪所述用户手势而产生的手势图像,可以跟随用户手势的移动而移动;在所述模拟手势图像的关联位置处展示发射虚拟对象,以模拟用户手握或手碰发射虚拟对象的场景,所述可控虚拟对象为所述发射虚拟对象的发射对象。
关于模拟手势图像,可以是用于模拟用于手势的图像,以提高AR场景的真实感。
关于发射虚拟对象,发射虚拟对象是用于模拟发射可控虚拟对象的对象。通过在模拟手势图像的关联位置处展示发射虚拟对象,可以模拟用户手握或手碰发射虚拟对象的场景,从而提高VR场景的真实感。
其中,模拟手势图像的关联位置是可以用于放置发射虚拟对象的位置,可以基于手势图像中手势的关键点确定关联位置。基于不同的游戏场景,用于确定关联位置的关键点不同。以AR弹弓射击场景为例,模拟手势图像的关联位置可以基于模拟手势图像中指定指尖的位置确定,可以贴合指定指尖加载弹弓模型,以模拟两指定指尖拉弓的场景。弹弓模型对应的弹弓虚拟对象可以跟踪指尖,并随着指尖的移动而移动。
在实际应用中,部分AR游戏场景,除了可控虚拟对象外,还可以包括被可控虚拟对象击中的被击虚拟对象,例如,球框、靶子、被射的气球、宠物等。鉴于此,所述方法还包括:调用SLAM(Simultaneous localization and mapping,同步定位与地图构建)算法,扫描现实环境,并构建实时地图模型,对加载的被击虚拟对象在实时地图模型上进行定位,并根据定位结果在捕获的现实环境图像上对所述被击虚拟对象进行实景动画渲染。
可见,该实施例利用SLAM算法,可以实时地获取周围的环境信息,精确的将被击虚拟对象放在正确的位置,无论智能终端如何移动,被击虚拟对象的位置都可以固定在环境中某固定位置。该固定位置可以用户指定,也可以基于环境分析而自动指定。当基于环境分析而自动指定被击虚拟对象的位置时,可以提醒用户寻找被击虚拟对象,例如,展示“移动智能终端寻找被击虚拟对象”的提醒信息。
进一步的,基于所确定的被击虚拟对象,在确定可控虚拟对象的预设移动轨迹后,可以根据预设移动轨迹判断可控虚拟对象是否能击中被击虚拟对象,并显示是否击中的结果。此外,还可以设置可控虚拟对象的可使用数量,每次操作都可以使可控虚拟对象的可使用数量减1,在可控虚拟对象的可使用数量为0或小于预设数量阈值时,可以对可控虚拟对象的数量进行提醒。
可以理解的是,对用户每步操作都可以进行指引提醒,便于用户快速确定操作流程。
以上实施方式中的各种技术特征可以任意进行组合,只要特征之间的组合不存在冲突或矛盾,但是限于篇幅,未进行一一描述,因此上述实施方式中的各种技术特征的任意进行组合也属于本说明书公开的范围。以下以其中一种组合进行示例说明。
如图2所示,是本说明书根据一示例性实施例示出的另一种虚拟对象控制方法的流程图,所述方法应用于智能终端,智能终端上展示有AR场景,AR场景至少包括可控虚拟对象,所述方法包括:
在步骤202中,调用SLAM算法,扫描现实环境,并构建实时地图模型,对加载的被击虚拟对象在实时地图模型上进行定位,并根据定位结果在捕获的现实环境图像上对所述被击虚拟对象进行实景动画渲染。
在步骤204中,捕获用户的手势图像,所述手势图像包括由所述用户产生的手势;将所捕获的手势图像输入预设的手势识别模型;并且,若手势识别成功,进入预设的增强现实互动模式。
在步骤206中,在预设的增强现实互动模式下,通过捕获的手势图像以及智能终端的移动距离和角度,确定用户手势与智能终端的相对移动关系;其中,相对移动关系包括相对移动距离和相对移动角度。
在步骤208中,在所述相对移动距离大于预设距离阈值时,执行倒计时操作。
在步骤210中,在倒计时期间,若相对移动角度更新,则至少基于更新的相对移动角度调整所述可控虚拟对象的预设移动轨迹。
在倒计时期间,用户可以通过调整相对移动角度,实现调整可控虚拟对象的预设移动轨迹。
在步骤212中,倒计时结束时,控制所述可控虚拟对象沿着所确定的预设移动轨迹进行移动。
在步骤214中,根据预设移动轨迹判断可控虚拟对象是否能击中被击虚拟对象,并显示是否击中的结果。
可以理解的是,图2与图1中相关技术相同,在此不一一赘述。
相应的,本说明书还以一个具体应用实例进行示例说明。如图3A和3B所示,是本说明书根据一示例性实施例示出的一种虚拟对象控制方法的应用场景图。图3A和3B可以构成一幅完整总体图,受限于页面大小,将总体图划分在两个页面进行展示。图3A和3B中子图按字母a至j的顺序进行排序。该实施例以AR弹弓射击场景为例,在检测到AR捉萌宝控件(预设弹弓游戏控件)被触发时,可以进入实景的加载过程,加载AR场景及素材,加载成功后页面放大,采用渐隐的方式进入实景。移动智能手机在四周寻找萌宝(被击虚拟对象),平面扫描完成后,提示消息,萌宝模型渐现。萌宝可以出现动画,紧接着打招呼或扭腰动作交替播放。萌宝出场动态效果结束后,可以展示“按提示识别手势,准备捉萌宝”的提示信息以及手势轮廓图。智能手机通过前置或后置摄像头捕获用户的手势图像,并对所捕获的手势图像进行识别,在识别成功后,在两手之间出现用于表示弹弓的连线(发射虚拟对象),并在爱心栏中减去一颗爱心(可控虚拟对象),并展示爱心向连线移动的动态画面,然后在连线上出现爱心。通过展示提示信息“移动手机调整瞄准角度”以提醒用户移动手机。在用户移动手机时提示信息消失,并在再次捕捉萌宝时不再显示。用户调整发射角度时,萌宝在现实坐标系中位置固定,而屏幕内的萌宝位置可以发生改变,爱心的位置固定在屏幕的中轴线位置。弹出“瞄准好了?向后移动手机发射爱心”的发射提示,直到用户向后移动手机后不再显示发射提示。检测到用户向后拉动手机后,出现倒计时动效,还在倒计时期间可以进行发射角度调整,并在倒计时结束时发射爱心。若击中萌宝,原动画变为被击中的状态动画,若未击中或爱心不足,则进行相应提醒。
与前述虚拟对象控制方法的实施例相对应,本说明书还提供了虚拟对象控制装置及其所应用的电子设备的实施例。
本说明书虚拟对象控制装置的实施例可以应用在计算机设备。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在计算机设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图4所示,为本说明书根据一示例性实施例示出的一种虚拟对象控制装置所在计算机设备的一种硬件结构图,除了图4所示的处理器410、内存430、网络接口420、以及非易失性存储器440之外,实施例中装置431所在的计算机设备通常根据该设备的实际功能,还可以包括其他硬件,对此不再赘述。
如图5所示,是本说明书根据一示例性实施例示出的一种虚拟对象控制装置的框图,所述装置设于智能终端,智能终端上展示有AR场景,AR场景至少包括可控虚拟对象,所述装置包括:
关系确定模块52,用于:在预设的增强现实互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系;
操作执行模块54,用于:基于所述相对移动关系控制所述可控虚拟对象执行预设操作。
可选的,所述相对移动关系包括相对移动距离和相对移动角度,所述操作执行模块54具体用于:
在所述相对移动距离大于预设距离阈值时,控制所述可控虚拟对象沿着预设移动轨迹进行移动,所述预设移动轨迹至少基于所述相对移动角度确定。
可选的,所述相对移动距离和相对移动角度:基于利用手势图像对用户手势进行手势跟踪的结果获得,或,
所述相对移动距离和相对移动角度:基于利用手势图像对用户手势进行手势跟踪的结果、以及智能终端中陀螺仪采集的参数获得,或,
所述相对移动距离和相对移动角度:基于捕获的手势图像和智能终端的运动信息获得,所述用户手势与智能终端的相对移动关系由智能终端的运动产生。
可选的,所述操作执行模块54具体用于:
在所述相对移动距离大于预设距离阈值时,执行倒计时操作;
在倒计时期间,若相对移动角度更新,则至少基于更新的相对移动角度调整所述可控虚拟对象的预设移动轨迹;
倒计时结束时,控制所述可控虚拟对象沿着调整后的预设移动轨迹进行移动。
可选的,所述装置还包括信息展示模块(图5未示出),用于:
在预设的增强现实互动模式下展示有与所述用户手势对应的模拟手势图像,所述模拟手势图像是跟踪所述用户手势而产生的手势图像;
在所述模拟手势图像的关联位置处展示发射虚拟对象,以模拟用户手握或手碰发射虚拟对象的场景,所述可控虚拟对象为所述发射虚拟对象的发射对象。
可选的,所述装置还包括(图5未示出):
图像捕获模块,用于:捕获用户的手势图像,所述手势图像包括由所述用户产生的手势;
手势识别模块,用于:将所捕获的手势图像输入预设的手势识别模型;并且,
模式启动模块,用于:若手势识别成功,进入预设的增强现实互动模式。
可选的,所述装置还包括(图5未示出):
对象渲染模块,用于:调用SLAM算法,扫描现实环境,并构建实时地图模型,对加载的被击虚拟对象在实时地图模型上进行定位,并根据定位结果在捕获的现实环境图像上对所述被击虚拟对象进行实景动画渲染。
可选的,所述AR场景包括AR弹弓射击场景,所述可控虚拟对象为用于表示子弹的虚拟对象,所述发射虚拟对象为用于表示弹弓的虚拟对象;或,
所述AR场景包括AR枪击场景,所述可控虚拟对象为用于表示子弹的虚拟对象,所述发射虚拟对象为用于表示枪的虚拟对象;或,
所述AR场景包括AR射箭场景,所述可控虚拟对象为用于表示箭的虚拟对象,所述发射虚拟对象为用于表示弓或弩的虚拟对象。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本说明书方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
相应的,本说明书实施例还提供一种计算机设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:
在预设的增强现实互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系;
基于所述相对移动关系控制AR场景中可控虚拟对象执行预设操作。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
一种计算机存储介质,所述存储介质中存储有程序指令,所述程序指令包括:
在预设的增强现实互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系;
基于所述相对移动关系控制AR场景中可控虚拟对象执行预设操作。
本说明书实施例可采用在一个或多个其中包含有程序代码的存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。计算机可用存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
本领域技术人员在考虑说明书及实践这里申请的发明后,将容易想到本说明书的其它实施方案。本说明书旨在涵盖本说明书的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本说明书的一般性原理并包括本说明书未申请的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本说明书的真正范围和精神由下面的权利要求指出。
应当理解的是,本说明书并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本说明书的范围仅由所附的权利要求来限制。
以上所述仅为本说明书的较佳实施例而已,并不用以限制本说明书,凡在本说明书的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本说明书保护的范围之内。

Claims (16)

1.一种虚拟对象控制方法,所述方法应用于智能终端,智能终端上展示有AR场景,AR场景至少包括可控虚拟对象,所述方法包括:
在预设的增强现实互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系;
基于所述相对移动关系控制所述可控虚拟对象执行预设操作。
2.根据权利要求1所述的方法,所述相对移动关系包括相对移动距离和相对移动角度,所述基于所述相对移动关系控制所述可控虚拟对象执行预设操作,包括:
在所述相对移动距离大于预设距离阈值时,控制所述可控虚拟对象沿着预设移动轨迹进行移动,所述预设移动轨迹至少基于所述相对移动角度确定。
3.根据权利要求2所述的方法,所述相对移动距离和相对移动角度:基于利用手势图像对用户手势进行手势跟踪的结果获得,或,
所述相对移动距离和相对移动角度:基于利用手势图像对用户手势进行手势跟踪的结果、以及智能终端中陀螺仪采集的参数获得。
4.根据权利要求2所述的方法,所述在所述相对移动距离大于预设距离阈值时,控制所述可控虚拟对象沿着预设移动轨迹进行移动,包括:
在所述相对移动距离大于预设距离阈值时,执行倒计时操作;
在倒计时期间,若相对移动角度更新,则至少基于更新的相对移动角度调整所述可控虚拟对象的预设移动轨迹;
倒计时结束时,控制所述可控虚拟对象沿着调整后的预设移动轨迹进行移动。
5.根据权利要求1所述的方法,所述方法还包括:
在预设的增强现实互动模式下展示有与所述用户手势对应的模拟手势图像,所述模拟手势图像是跟踪所述用户手势而产生的手势图像;
在所述模拟手势图像的关联位置处展示发射虚拟对象,以模拟用户手握或手碰发射虚拟对象的场景,所述可控虚拟对象为所述发射虚拟对象的发射对象。
6.根据权利要求1所述的方法,所述方法还包括:
捕获用户的手势图像,所述手势图像包括由所述用户产生的手势;
将所捕获的手势图像输入预设的手势识别模型;并且,
若手势识别成功,进入预设的增强现实互动模式。
7.根据权利要求1所述的方法,所述方法还包括:
调用SLAM算法,扫描现实环境,并构建实时地图模型,对加载的被击虚拟对象在实时地图模型上进行定位,并根据定位结果在捕获的现实环境图像上对所述被击虚拟对象进行实景动画渲染。
8.根据权利要求5所述的方法,
所述AR场景包括AR弹弓射击场景,所述可控虚拟对象为用于表示子弹的虚拟对象,所述发射虚拟对象为用于表示弹弓的虚拟对象;或,
所述AR场景包括AR枪击场景,所述可控虚拟对象为用于表示子弹的虚拟对象,所述发射虚拟对象为用于表示枪的虚拟对象;或,
所述AR场景包括AR射箭场景,所述可控虚拟对象为用于表示箭的虚拟对象,所述发射虚拟对象为用于表示弓或弩的虚拟对象。
9.一种虚拟对象控制装置,所述装置设于智能终端,智能终端上展示有AR场景,AR场景至少包括可控虚拟对象,所述装置包括:
关系确定模块,用于:在预设的增强现实互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系;
操作执行模块,用于:基于所述相对移动关系控制所述可控虚拟对象执行预设操作。
10.根据权利要求9所述的装置,所述相对移动关系包括相对移动距离和相对移动角度,所述操作执行模块具体用于:
在所述相对移动距离大于预设距离阈值时,控制所述可控虚拟对象沿着预设移动轨迹进行移动,所述预设移动轨迹至少基于所述相对移动角度确定。
11.根据权利要求10所述的装置,所述相对移动距离和相对移动角度:基于利用手势图像对用户手势进行手势跟踪的结果获得,或,
所述相对移动距离和相对移动角度:基于利用手势图像对用户手势进行手势跟踪的结果、以及智能终端中陀螺仪采集的参数获得。
12.根据权利要求10所述的装置,所述操作执行模块具体用于:
在所述相对移动距离大于预设距离阈值时,执行倒计时操作;
在倒计时期间,若相对移动角度更新,则至少基于更新的相对移动角度调整所述可控虚拟对象的预设移动轨迹;
倒计时结束时,控制所述可控虚拟对象沿着调整后的预设移动轨迹进行移动。
13.根据权利要求9所述的装置,所述装置还包括信息展示模块,用于:
在预设的增强现实互动模式下展示有与所述用户手势对应的模拟手势图像,所述模拟手势图像是跟踪所述用户手势而产生的手势图像;
在所述模拟手势图像的关联位置处展示发射虚拟对象,以模拟用户手握或手碰发射虚拟对象的场景,所述可控虚拟对象为所述发射虚拟对象的发射对象。
14.根据权利要求9所述的装置,所述装置还包括:
图像捕获模块,用于:捕获用户的手势图像,所述手势图像包括由所述用户产生的手势;
手势识别模块,用于:将所捕获的手势图像输入预设的手势识别模型;并且,
模式启动模块,用于:若手势识别成功,进入预设的增强现实互动模式。
15.根据权利要求9所述的装置,所述装置还包括:
对象渲染模块,用于:调用SLAM算法,扫描现实环境,并构建实时地图模型,对加载的被击虚拟对象在实时地图模型上进行定位,并根据定位结果在捕获的现实环境图像上对所述被击虚拟对象进行实景动画渲染。
16.一种计算机设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
在预设的增强现实互动模式下,至少通过捕获的手势图像确定用户手势与智能终端的相对移动关系;
基于所述相对移动关系控制AR场景中可控虚拟对象执行预设操作。
CN201810575938.4A 2018-06-06 2018-06-06 虚拟对象控制方法、装置及设备 Active CN108958475B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810575938.4A CN108958475B (zh) 2018-06-06 2018-06-06 虚拟对象控制方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810575938.4A CN108958475B (zh) 2018-06-06 2018-06-06 虚拟对象控制方法、装置及设备

Publications (2)

Publication Number Publication Date
CN108958475A true CN108958475A (zh) 2018-12-07
CN108958475B CN108958475B (zh) 2023-05-02

Family

ID=64493613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810575938.4A Active CN108958475B (zh) 2018-06-06 2018-06-06 虚拟对象控制方法、装置及设备

Country Status (1)

Country Link
CN (1) CN108958475B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110420453A (zh) * 2019-01-14 2019-11-08 网易(杭州)网络有限公司 虚拟对象运动控制方法及装置、存储介质、电子设备
CN110442238A (zh) * 2019-07-31 2019-11-12 腾讯科技(深圳)有限公司 一种确定动态效果的方法及装置
CN111240476A (zh) * 2020-01-06 2020-06-05 腾讯科技(深圳)有限公司 基于增强现实的交互方法、装置、存储介质和计算机设备
CN111324253A (zh) * 2020-02-12 2020-06-23 腾讯科技(深圳)有限公司 虚拟物品交互方法、装置、计算机设备及存储介质
CN112333498A (zh) * 2020-10-30 2021-02-05 深圳市慧鲤科技有限公司 一种展示控制方法、装置、计算机设备及存储介质
CN112396679A (zh) * 2020-11-20 2021-02-23 北京字节跳动网络技术有限公司 虚拟对象显示方法及装置、电子设备、介质
CN112422945A (zh) * 2020-09-01 2021-02-26 华为技术有限公司 图像处理方法、移动终端及存储介质
US10948978B2 (en) 2019-04-23 2021-03-16 XRSpace CO., LTD. Virtual object operating system and virtual object operating method
WO2021073269A1 (zh) * 2019-10-15 2021-04-22 北京市商汤科技开发有限公司 增强现实数据呈现方法、装置、设备、存储介质和程序
CN112950677A (zh) * 2021-01-12 2021-06-11 湖北航天技术研究院总体设计所 图像跟踪仿真方法、装置、设备及存储介质
CN113821106A (zh) * 2021-10-08 2021-12-21 江苏铁锚玻璃股份有限公司 基于智能透明oled车窗的智能功能导航方法及结构
WO2022048372A1 (zh) * 2020-09-01 2022-03-10 华为技术有限公司 图像处理方法、移动终端及存储介质
CN114208143A (zh) * 2019-07-02 2022-03-18 索尼集团公司 信息处理系统、信息处理方法和程序
US12121813B2 (en) 2020-02-12 2024-10-22 Tencent Technology (Shenzhen) Company Limited Virtual item interaction method and apparatus, computer device, and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103079661A (zh) * 2010-03-30 2013-05-01 索尼电脑娱乐美国公司 用于增强现实角色维持并体现观察者的认知的方法
CN103713735A (zh) * 2012-09-29 2014-04-09 华为技术有限公司 一种使用非接触式手势控制终端设备的方法和装置
WO2014111947A1 (en) * 2013-01-21 2014-07-24 Pointgrab Ltd. Gesture control in augmented reality
US20140256389A1 (en) * 2013-03-06 2014-09-11 Ian Wentling Mobile game application
CN104205034A (zh) * 2012-03-29 2014-12-10 英特尔公司 使用手势创建三维图形
CN105324736A (zh) * 2013-07-23 2016-02-10 英特尔公司 触摸式和非触摸式用户交互输入的技术
CN107526443A (zh) * 2017-09-29 2017-12-29 北京金山安全软件有限公司 一种增强现实方法、装置、系统、电子设备及存储介质
CN107885316A (zh) * 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 一种基于手势的交互方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103079661A (zh) * 2010-03-30 2013-05-01 索尼电脑娱乐美国公司 用于增强现实角色维持并体现观察者的认知的方法
CN104205034A (zh) * 2012-03-29 2014-12-10 英特尔公司 使用手势创建三维图形
CN103713735A (zh) * 2012-09-29 2014-04-09 华为技术有限公司 一种使用非接触式手势控制终端设备的方法和装置
WO2014111947A1 (en) * 2013-01-21 2014-07-24 Pointgrab Ltd. Gesture control in augmented reality
US20140256389A1 (en) * 2013-03-06 2014-09-11 Ian Wentling Mobile game application
CN105324736A (zh) * 2013-07-23 2016-02-10 英特尔公司 触摸式和非触摸式用户交互输入的技术
CN107885316A (zh) * 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 一种基于手势的交互方法及装置
CN107526443A (zh) * 2017-09-29 2017-12-29 北京金山安全软件有限公司 一种增强现实方法、装置、系统、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
朱长军等主编: "《大学物理学》", 30 December 2017 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110420453A (zh) * 2019-01-14 2019-11-08 网易(杭州)网络有限公司 虚拟对象运动控制方法及装置、存储介质、电子设备
CN110420453B (zh) * 2019-01-14 2023-07-14 网易(杭州)网络有限公司 虚拟对象运动控制方法及装置、存储介质、电子设备
US10948978B2 (en) 2019-04-23 2021-03-16 XRSpace CO., LTD. Virtual object operating system and virtual object operating method
CN114208143A (zh) * 2019-07-02 2022-03-18 索尼集团公司 信息处理系统、信息处理方法和程序
CN110442238A (zh) * 2019-07-31 2019-11-12 腾讯科技(深圳)有限公司 一种确定动态效果的方法及装置
WO2021073269A1 (zh) * 2019-10-15 2021-04-22 北京市商汤科技开发有限公司 增强现实数据呈现方法、装置、设备、存储介质和程序
CN111240476A (zh) * 2020-01-06 2020-06-05 腾讯科技(深圳)有限公司 基于增强现实的交互方法、装置、存储介质和计算机设备
CN111240476B (zh) * 2020-01-06 2021-06-08 腾讯科技(深圳)有限公司 基于增强现实的交互方法、装置、存储介质和计算机设备
CN111324253A (zh) * 2020-02-12 2020-06-23 腾讯科技(深圳)有限公司 虚拟物品交互方法、装置、计算机设备及存储介质
US12121813B2 (en) 2020-02-12 2024-10-22 Tencent Technology (Shenzhen) Company Limited Virtual item interaction method and apparatus, computer device, and storage medium
WO2021159792A1 (zh) * 2020-02-12 2021-08-19 腾讯科技(深圳)有限公司 虚拟物品交互方法、装置、计算机设备及存储介质
CN112422945A (zh) * 2020-09-01 2021-02-26 华为技术有限公司 图像处理方法、移动终端及存储介质
WO2022048372A1 (zh) * 2020-09-01 2022-03-10 华为技术有限公司 图像处理方法、移动终端及存储介质
CN112333498A (zh) * 2020-10-30 2021-02-05 深圳市慧鲤科技有限公司 一种展示控制方法、装置、计算机设备及存储介质
WO2022105846A1 (zh) * 2020-11-20 2022-05-27 北京字节跳动网络技术有限公司 虚拟对象显示方法及装置、电子设备、介质
CN112396679A (zh) * 2020-11-20 2021-02-23 北京字节跳动网络技术有限公司 虚拟对象显示方法及装置、电子设备、介质
CN112950677A (zh) * 2021-01-12 2021-06-11 湖北航天技术研究院总体设计所 图像跟踪仿真方法、装置、设备及存储介质
CN113821106A (zh) * 2021-10-08 2021-12-21 江苏铁锚玻璃股份有限公司 基于智能透明oled车窗的智能功能导航方法及结构

Also Published As

Publication number Publication date
CN108958475B (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
CN108958475A (zh) 虚拟对象控制方法、装置及设备
US10821347B2 (en) Virtual reality sports training systems and methods
US11278787B2 (en) Virtual reality sports training systems and methods
US9152306B2 (en) Techniques for touch and non-touch user interaction input
US9360933B2 (en) Virtual links between different displays to present a single virtual object
CN107526443A (zh) 一种增强现实方法、装置、系统、电子设备及存储介质
US9330478B2 (en) Augmented reality creation using a real scene
CN105324736B (zh) 触摸式和非触摸式用户交互输入的技术
CN109529327B (zh) 虚拟交互场景中目标定位方法、装置及电子设备
CN110523080A (zh) 基于虚拟环境的射击显示方法、装置、设备及存储介质
JP6534011B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
CN114155605B (zh) 一种控制方法、装置以及计算机存储介质
US9864905B2 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
CN111330278B (zh) 基于虚拟环境的动画播放方法、装置、设备及介质
CN105850109A (zh) 信息处理装置、记录介质和信息处理方法
US10512840B2 (en) Program, system, and method for providing game
JP6519074B2 (ja) 電子機器
US20160232404A1 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
KR101539666B1 (ko) 모바일 단말기를 통한 골프 시뮬레이션 방법, 이에 관한 프로그램 또는 어플리케이션이 기록된 기록매체 및 이를 이용한 골프 시뮬레이션 구동을 위한 모바일 단말기
US9824293B2 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
CN112755524B (zh) 虚拟目标展示方法、装置、电子设备及存储介质
JP2014238741A (ja) 移動制御装置、移動制御方法、及びプログラム
JP2019098163A (ja) ゲームプログラム、方法、および情報処理装置
CN110036359A (zh) 第一人称角色扮演互动式增强现实
Sung et al. X-portal: Mixed reality for body engagement in new first person game experience

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20200923

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20200923

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant