CN114385004A - 基于增强现实的交互方法、装置、电子设备及可读介质 - Google Patents
基于增强现实的交互方法、装置、电子设备及可读介质 Download PDFInfo
- Publication number
- CN114385004A CN114385004A CN202111539040.XA CN202111539040A CN114385004A CN 114385004 A CN114385004 A CN 114385004A CN 202111539040 A CN202111539040 A CN 202111539040A CN 114385004 A CN114385004 A CN 114385004A
- Authority
- CN
- China
- Prior art keywords
- target
- throwing
- augmented reality
- projection
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例提供了一种基于增强现实的交互方法、装置、电子设备及可读介质,所述方法包括:通过终端设备提供包括目标物体和目标投射物体的增强现实画面;当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势,且所述投掷手势的投掷参数满足预设触发条件时,基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作;若所述目标投射物体与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体与所述目标物体的预设动作内容。本发明实施例可以基于用户的投掷手势的投掷参数来显示目标投射物体投射至目标物体的投射动作,使得在投射目标物体的过程中实现用户与目标投射物体之间的交互,获得真实的投射体验。
Description
技术领域
本发明实施例涉及及增强现实技术领域,特别是涉及一种基于增强现实的交互方法、一种基于增强现实的交互装置、一种电子设备以及一种计算机可读介质。
背景技术
AR(Augmented Reality,增强现实技术),是一种通过实时拍摄现实世界获取现实世界画面,并在现实世界画面上叠加相应的虚拟信息(比如图像、视频、3D模型等),进而对虚拟世界与现实世界进行融合的技术。
随着智能手机等终端设备的普及,基于终端设备实现的App(Application,应用程序)渗透到各行各业,人们通过应用程序可以做各种各样的事情,例如游戏、购物、社交、求职招聘等等。为了增加网络流量,目前在各种应用程序中植入的小游戏越来越多,类似投射类的小游戏比比皆是,其中,投射类的小游戏中一个很重要的动作就是模拟投射。
在终端设备中打开游戏后,用户观察到的对投射物体的投射效果都是平面或者有一定立体角度,具体地,在用户点击投射按钮后,仅需要展示一个预先制作相关的动画,在一定时间后定格在一个预先设计好的画面即可。可见,用户无法实际参与投射过程,导致缺少用户与投射物体的交互,并且投射时的画面固定,导致用户体验不够真实,游戏趣味性大大降低。
发明内容
本发明实施例是提供一种基于增强现实的交互方法、装置、电子设备以及计算机可读存储介质,以解决解决在投射目标投射物体的过程中,缺少用户与目标投射物体的交互以及体验不够真实的问题。
本发明实施例公开了一种基于增强现实的交互方法,所述方法包括:
通过终端设备提供包括目标物体和目标投射物体的增强现实画面;
当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势,且所述投掷手势的投掷参数满足预设触发条件时,基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作;
若所述目标投射物体与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体与所述目标物体的预设动作内容。
可选地,在所述基于所述投掷参数在所述增强现实画面中显示所述目标投射物体投射至所述目标物体的投射动作之后,所述方法还包括:
若所述目标投射物体未与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体投射失败的提示信息。
可选地,所述通过终端设备提供通过终端设备提供包括目标物体和目标投射物体的增强现实画面,包括:
在终端设备中提供增强现实入口控件;
响应针对所述增强现实入口控件的触控操作,获取所述终端设备拍摄现实世界得到现实世界画面;
渲染所述现实世界画面生成增强现实画面;所述增强现实画面中包括目标表面;
在所述目标表面上生成目标物体,并在所述增强现实画面中的指定位置处生成目标投射物体。
可选地,在所述获取所述终端设备拍摄现实世界得到现实世界画面之后,所述方法还包括:
显示提示信息;所述提示信息包括拍摄包含目标表面的提示信息,所述目标表面包括水平平面。
可选地,所述当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势,且所述投掷手势的投掷参数满足预设触发条件时,基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作,包括:
当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述投掷手势对应的投掷参数;所述投掷参数包括投掷方向和投掷速度;
当所述投掷方向为指定投掷方向时,确定为所述投掷手势的投掷参数满足预设触发条件;
基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作。
可选地,所述当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述投掷手势对应的投掷参数,包括:
按照预设规则从所述增强现实画面中提取目标增强现实画面;
将所述目标增强现实画面输入至预先训练的手部识别模型中,以根据所述手部识别模型的输出结果确定所述目标增强现实画面中是否包含用户手部;
当所述目标增强现实画面中包含用户手部时,则在所述目标增强现实画面中识别所述用户手部针对所述目标投射物体的投掷手势对应的投掷参数。
可选地,所述用户手部包括多个手部关键节点,所述在所述目标增强现实画面中识别所述用户手部针对所述目标投射物体的投掷手势对应的投掷参数,包括:
在所述目标增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述用户手部的各个所述手部关键节点对应的节点投掷方向和节点投掷速度;
根据各个所述手部关键节点对应的节点投掷速度确定所述投掷手势的投掷速度,以及根据各个所述手部关键节点对应的节点投掷方向确定所述投掷手势的投掷方向。
可选地,所述基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作,包括:
根据所述投掷方向确定所述目标投射物体的投掷方向,以及根据所述投掷速度确定所述目标投射物体的投掷力度;
按照所述投掷方向、所述投掷力度和预设重力加速度,显示所述目标投射物体投射至所述目标物体的投射动作。
可选地,所述指定投掷方向包括用户手部从后向前的投掷方向。
可选地,在所述基于所述投掷参数在所述增强现实画面中显示所述目标投射物体投射至所述目标物体的投射动作之后,所述方法还包括:
响应针对所述目标投射物体的拿起手势,调整所述目标投射物体在所述增强现实画面中的位置。
本发明实施例还公开了一种基于增强现实的交互装置,所述装置包括:
画面显示模块,用于通过终端设备提供包括目标物体和目标投射物体的增强现实画面;
动作显示模块,用于当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势,且所述投掷手势的投掷参数满足预设触发条件时,基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作;
碰撞检测模块,用于若所述目标投射物体与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体与所述目标物体的预设动作内容。
可选地,所述装置还包括:未碰撞处理模块,用于若所述目标投射物体未与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体投射失败的提示信息。
可选地,所述画面显示模块,用于在终端设备中提供增强现实入口控件;响应针对所述增强现实入口控件的触控操作,获取所述终端设备拍摄现实世界得到现实世界画面;渲染所述现实世界画面生成增强现实画面;所述增强现实画面中包括目标表面;在所述目标表面上生成目标物体,并在所述增强现实画面中的指定位置处生成目标投射物体。
可选地,所述装置还包括:提示信息显示模块,用于显示提示信息;所述提示信息包括拍摄包含目标表面的提示信息,所述目标表面包括水平平面。
可选地,所述动作显示模块,用于当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述投掷手势对应的投掷参数;所述投掷参数包括投掷方向和投掷速度;当所述投掷方向为指定投掷方向时,确定为所述投掷手势的投掷参数满足预设触发条件;基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作。
可选地,所述动作显示模块,用于按照预设规则从所述增强现实画面中提取目标增强现实画面;将所述目标增强现实画面输入至预先训练的手部识别模型中,以根据所述手部识别模型的输出结果确定所述目标增强现实画面中是否包含用户手部;当所述目标增强现实画面中包含用户手部时,则在所述目标增强现实画面中识别所述用户手部针对所述目标投射物体的投掷手势对应的投掷参数。
可选地,所述用户手部包括多个手部关键节点,所述动作显示模块,用于在所述目标增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述用户手部的各个所述手部关键节点对应的节点投掷方向和节点投掷速度;根据各个所述手部关键节点对应的节点投掷速度确定所述投掷手势的投掷速度,以及根据各个所述手部关键节点对应的节点投掷方向确定所述投掷手势的投掷方向。
可选地,所述动作显示模块,用于根据所述投掷方向确定所述目标投射物体的投掷方向,以及根据所述投掷速度确定所述目标投射物体的投掷力度;按照所述投掷方向、所述投掷力度和预设重力加速度,显示所述目标投射物体投射至所述目标物体的投射动作。
可选地,所述指定投掷方向包括用户手部从后向前的投掷方向。
可选地,所述装置还包括:调整模块,用于响应针对所述目标投射物体的拿起手势,调整所述目标投射物体在所述增强现实画面中的位置。
本发明实施例还公开了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,所述处理器、所述通信接口以及所述存储器通过所述通信总线完成相互间的通信;
所述存储器,用于存放计算机程序;
所述处理器,用于执行存储器上所存放的程序时,实现如本发明实施例所述的方法。
本发明实施例还公开了一个或多个计算机可读介质,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行如本发明实施例所述的方法。
本发明实施例还公开了一种计算机程序产品,该程序产品被存储在存储介质中,该计算机程序产品被至少一个处理器执行以实现如本发明实施例所述的方法。
本发明实施例包括以下优点:
在本发明实施例中,通过终端设备提供包括目标物体和目标投射物体的增强现实画面,当在增强现实画面中识别到用户手部针对目标投射物体的投掷手势,并且,投掷手势的投掷参数满足预设触发条件时,基于投掷参数显示目标投射物体投射至目标物体的投射动作,若目标投射物体与目标物体碰撞,则在增强现实画面中显示目标投射物体与目标物体的预设动作内容,完成一次用户对目标投射物体的投射操作。本发明实施例可以基于用户的投掷手势的投掷参数来显示目标投射物体投射至目标物体的投射动作,使得在投射目标物体的过程中实现用户与目标投射物体之间的交互,获得真实的投射体验,此外,若目标投射物体与目标物体碰撞,则可以在增强现实画面中显示目标投射物体与目标物体的预设动作内容,增加了游戏趣味性。
附图说明
图1是本发明实施例中提供的一种基于增强现实的交互方法的步骤流程图;
图2是本发明实施例中提供的一种增强现实入口控件的示意图;
图3是本发明实施例中提供的一种基于投掷手势显示目标投射物体投射至目标物体的投射动作的步骤流程图;
图4是本发明实施例中提供的一种基于增强现实的交互的流程图;
图5是本发明实施例中提供的一种基于增强现实的交互装置的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1,示出了本发明实施例中提供的一种基于增强现实的交互方法的步骤流程图,具体可以包括如下步骤:
步骤102、通过终端设备提供包括目标物体和目标投射物体的增强现实画面。
其中,终端设备可以包括智能手机、平板电脑、游戏机、可穿戴设备等等,在这些终端设备中可以安装能够实现投射目标投射物体的应用程序,或者植入在其他应用程序中能够实现投射目标投射物体的小程序,本发明实施例对此不做限制。示例性地,在终端设备中安装投射目标投射物体的游戏,或者在微信、百度、360、支付宝、头条等应用程序中安装投射目标投射物体的小游戏。作为一个具体示例,投射目标投射物体的游戏可以是熊猫吃竹子的游戏,则目标投射物体是竹子,目标物体则是熊猫,用户可以将竹子向熊猫进行投射,熊猫在得到用户投射的竹子后可以吃掉竹子。
其中,增强现实画面是基于增强现实技术,将虚拟信息(例如立体(3D)的目标投射物体)与终端设备通过摄像头拍摄的现实世界的现实世界画面巧妙融合后生成的增强现实场景。目标投射物体是预先设计的模型,是一个虚拟的三维立体模型,可以配合游戏需求对应设置实现。
在具体实现中,用户在终端设备中打开游戏后,通过终端设备的触控显示屏幕显示增强现实画面,在增强现实画面中初始化一个AR节点用于添加目标投射物体,然后就可以将预先设计好的目标投射物体添加到该AR节点,同时,在增强现实画面的某个位置处显示目标物体,例如可以在增强现实画面中的地面上显示目标物体。作为一个可选示例,在用户打开熊猫吃竹子的游戏后,通过终端设备的触控显示屏显示增强现实画面,其中,增强现实画面中可以显示一个竹子在距离熊猫一定距离的位置处。
步骤104、当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势,且所述投掷手势的投掷参数满足预设触发条件时,基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作。
其中,投掷手势可以在增强现实画面中识别到的,用户针对目标投射物体的手势操作。具体地,投掷手势具有其对应的投掷参数,例如投掷方向和投掷速度等等。
在本发明实施例中,游戏中预先设置了针对目标投射物体的预设触发条件,当从增强现实场景中识别到用户手部的投掷手势,且投掷手势的投掷参数满足该预设触发条件时,触发在增强现实画面中目标投射物体的投射动作,且该投射动作是根据用户手部的投掷参数进行投射的,因此,用户手部的不同的投掷手势可以控制目标投射物体呈现不同的投射动作,从而可以增强用户在投射目标投射物体中的真实参与感。
作为一个具体示例,若目标投射物体是竹子,目标物体是熊猫,则根据用户手部的投掷手势,可以在增强现实画面中该投掷手势对应的竹子被“抛向”熊猫的投射动作。
步骤106、若所述目标投射物体与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体与所述目标物体的预设动作内容。
其中,预设动作内容可以根据游戏需求对应配置,例如,在熊猫吃竹子的游戏中,预设动作内容可以是熊猫吃竹子。
在本发明实施例中,目标投射物体是根据用户手部的投掷手势进行投射动作,如果用户针对目标物体的投掷手势掌握的比较合适,则目标投射物体将会碰撞到目标物体,则可以视为成功完成一次投射,那么可以在增强现实画面中显示目标投射物体与目标物体的预设动作内容,例如,熊猫吃竹子。
在上述基于增强现实的交互方法中,通过终端设备提供包括目标物体和目标投射物体的增强现实画面,当在增强现实画面中识别到用户手部针对目标投射物体的投掷手势,并且,投掷手势的投掷参数满足预设触发条件时,基于投掷参数显示目标投射物体投射至目标物体的投射动作,若目标投射物体与目标物体碰撞,则在增强现实画面中显示目标投射物体与目标物体的预设动作内容,完成一次用户对目标投射物体的投射操作。本发明实施例可以基于用户的投掷手势的投掷参数来显示目标投射物体投射至目标物体的投射动作,使得在投射目标物体的过程中实现用户与目标投射物体之间的交互,获得真实的投射体验,此外,若目标投射物体与目标物体碰撞,则可以在增强现实画面中显示目标投射物体与目标物体的预设动作内容,增加了游戏趣味性。
在上述实施例的基础上,提出了上述实施例的变型实施例,在此需要说明的是,为了使描述简要,在变型实施例中仅描述与上述实施例的不同之处。
在一示例性实施例中,在所述步骤104、基于所述投掷参数在所述增强现实画面中显示所述目标投射物体投射至所述目标物体的投射动作之后,所述方法还可以包括如下步骤:
若所述目标投射物体未与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体投射失败的提示信息。
在本发明实施例中,目标投射物体是根据用户手部的投掷手势,在增强现实画面中显示投射动作,因此,如果用户针对目标物体的投掷手势掌握的不够合适,目标投射物体将不会碰撞到目标物体,则可以视为本次投射识别,那么在增强现实画面中显示目标投射物体投射失败的提示信息,例如【游戏失败】,从而用户可以根据提示信息退出游戏,或者重新开始游戏。
在上述示例性实施例中,若目标投射物体未与目标物体碰撞,则在增强现实画面中显示目标投射物体投射失败的提示信息,从而用户可以根据提示信息确定当前游戏的状态,进而快速进行下一步操作,例如可以是退出游戏,或者重新开始游戏。
在一示例性实施例中,所述步骤102、通过终端设备提供通过终端设备提供包括目标物体和目标投射物体的增强现实画面,可以包括如下步骤:
在终端设备中提供增强现实入口控件;
响应针对所述增强现实入口控件的触控操作,获取所述终端设备拍摄现实世界得到现实世界画面;
渲染所述现实世界画面生成增强现实画面;所述增强现实画面中包括目标表面;
在所述目标表面上生成目标物体,并在所述增强现实画面中的指定位置处生成目标投射物体。
其中,触控操作可以包括点击操作、按压操作、拖动操作等等;目标表面是现实世界画面中的表面,例如可以是地板、墙壁、桌面等等。
在终端设备上运行应用程序时,在终端设备的触控显示器上显示应用程序的图形用户界面,其中,图形用户界面中可以提供一个增强现实入口控件(按钮),以在终端设备的触控显示屏中显示增强现实画面,从而用户可以进入增强现实场景。
作为一个具体示例,参照图2,是本发明实施例中提供的一种增强现实入口控件的示意图,在应用程序的图形用户界面中显示增强现实入口控件【AR投射】202,若检测到用户对增强现实入口控件【AR投射】202进行点击操作,则可以触发进入增强现实场景,此时在终端设备将开启摄像头并且获取摄像头拍摄的现实世界的现实世界画面,然后将现实世界画面渲染生成增强现实画面,其中,在渲染生成增强现实画面时,还会在增强现实画面中渲染生成一个目标投射物体和目标物体,目标物体可以显示在目标表面上,目标投射物体可以显示在增强现实画面中距离目标表面一定距离的位置。可选地,为了增加游戏乐趣或者难度,目标物体可以在一定范围内进行移动。。
在上述示例性实施例中,在终端设备中提供增强现实入口控件,从而用户可以通过对增强现实入口控件的触控操作,从而触发获取终端设备拍摄现实世界得到现实世界画面,以渲染生成包括目标表面、目标物体和目标投射物体的增强现实画面,进而用户就可以基于增强现实画面进行对目标物体进行投射,通过提供增强现实入口控件,便于引导用户进入增强现实场景,以获得更好的游戏体验。
在一示例性实施例中,在所述获取所述终端设备拍摄现实世界得到现实世界画面之后,所述方法还可以包括如下步骤:
显示提示信息;所述提示信息包括拍摄包含目标表面的提示信息,所述目标表面包括水平平面。
为了方便用户更好地操作,还可以在增强现实画面中显示提示信息,提示信息用于辅助用户完成目标投射物体向目标物体的投射,例如,若目标物体在为水平平面的目标表面上显示时,增强现实的表现效果更好,则可以显示拍摄包含水平平面的提示信息。具体地,提示信息可以是文字、图例等等,当然实际中不仅限于此。
作为一个可选示例,为了更好的实现游戏中的AR投射的功能,即将目标投射物体投射到目标物体,可以设定为仅识别水平平面作为目标表面,则增强现实画面中显示提示用户寻找一个水平平面的提示信息,例如为文字的提示信息【请寻找一个水平平面】,或者,为图例的提示信息【在增强现实画面中显示一条水平直线,并配合文字提示请寻找水平平面】,用户则可以在提示信息的指导下尝试在增强现实画面中寻找并拍摄得到一张包含水平平面的现实世界画面,从而在渲染生成增强现实画面中能够包含水平平面,使得用户可以在水平平面放置目标物体作为标靶,便于用户将目标投射物体投射至目标物体。
在上述示例性实施例中,通过在增强现实画面中提供提示信息来帮助用户拍摄得到包含目标表面的现实世界画面,进而使得增强现实画面中能够包含目标表面,使得用户可以基于目标表面放置目标物体,进而实现将目标投射物体投射在目标表面上的目标物体的投射操作,保证了用户的游戏体验。
在一示例性实施例中,参照图3,所述步骤104、当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势,且所述投掷手势的投掷参数满足预设触发条件时,基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作,可以包括如下步骤:
步骤302、当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述投掷手势对应的投掷参数;所述投掷参数包括投掷方向和投掷速度;
步骤304、当所述投掷方向为指定投掷方向时,确定为所述投掷手势的投掷参数满足预设触发条件;
步骤306、基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作。
其中,所述指定投掷方向可以包括用户手部从后向前的投掷方向。
在本发明实施例中,通过识别用户在增强现实画面中对目标投射物体的投掷手势,从而在增强现实画面中实现对目标投射物体的投射,因此为了更好地模拟现实世界中对投射物体的投射,在识别到投掷手势的投掷方向为指定投掷方向时,例如,识别到用户手部对目标投射物体的投掷手势的投掷方向为从后向前时,视为符合现实世界中投射物体的操作手势,将确定为投掷手势的投掷参数满足预设触发条件,进而将基于投掷手势的投掷参数显示目标投射物体投射至目标物体的投射动作。
在上述示例性实施例中,当识别到投掷手势的投掷方向为指定投掷方向时,才会根据投掷手势的投掷参数显示目标投射物体投射至目标物体的投射动作,以更加真实地在增强现实画面中实现目标投射物体的投射,提高用户的真实体验。
在一示例性实施例中,所述步骤302、当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述投掷手势对应的投掷参数,可以包括如下步骤:
按照预设规则从所述增强现实画面中提取目标增强现实画面;
将所述目标增强现实画面输入至预先训练的手部识别模型中,以根据所述手部识别模型的输出结果确定所述目标增强现实画面中是否包含用户手部;
当所述目标增强现实画面中包含用户手部时,则在所述目标增强现实画面中识别所述用户手部针对所述目标投射物体的投掷手势对应的投掷参数。
在具体实现中,增强现实画面可以由多帧的图像帧组成,若对所有的图像帧均进行识别处理,计算量较大也不必要,因此可以设置为按照预设规则,从增强现实画面中提取一些图像帧作为目标增强现实画面。示例性地,预设规则可以为取一定数量的图像帧,例如,不需要将每秒返回的增强现实画面的60帧的图像帧进行识别,而仅需要识别其中的10-20帧即可。
在本发明的一个可选示例中,预先采用大量包含手部(手臂)图像数据作为样本数据,通过机器学习进行模型训练得到的手部识别模型,基于手部识别模型可以识别图像中是否包含用户手部。
在本发明实施例中,在确定目标增强现实画面,可以采用训练得到的手部识别模型通过机器学习引擎(iOS系统中为coreML)对AR引擎(iOS系统中为ARKit)的目标增强现实画面进行识别,以确定该目标增强现实画面中是否包含用户手部。
具体地,当识别到包含用户手部(手臂)的目标增强现实画面时,可以开始捕捉相应的投掷手势,并判断该投掷手势对应的投掷方向是否为指定投掷方向,并在确定投掷方向为指定投掷方向时,获取该投掷手势对应的投掷参数,以根据投掷参数显示将目标投射物体投射至目标物体的投射动作。
在上述示例性实施例中,按照预设规则提取目标增强现实画面,并将目标增强现实画面通过手部识别模型确定是否包含用户手部,并在识别到包含用户手部(手臂)的目标增强现实画面时,才进一步获取用户手部针对目标投射物体的投掷手势对应的投掷参数,从而可以减少不必要的系统资源的消耗。
在一示例性实施例中,所述用户手部可以包括多个手部关键节点,所述在所述目标增强现实画面中识别所述用户手部针对所述目标投射物体的投掷手势对应的投掷参数,可以包括如下步骤:
在所述目标增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述用户手部的各个所述手部关键节点对应的节点投掷方向和节点投掷速度;
根据各个所述手部关键节点对应的节点投掷速度确定所述投掷手势的投掷速度,以及根据各个所述手部关键节点对应的节点投掷方向确定所述投掷手势的投掷方向。
在本发明实施例中,可以将用户手部(用户手臂)分为手指、手掌、手腕、小前臂、臂肘和后臂几个手部关键节点,并基于目标增强现实画面获取到各个手部关键节点对应的节点投掷方向和节点投掷速度,然后,基于各个手部关键节点的投掷方向从而确定整体用户手部的投掷方向,以及,基于各个手部关键节点的投掷速度确定用户手部的投掷速度。
在上述示例性实施例中,从增强现实画面中识别用户手部的多个手部关键点对应的节点投掷方向和节点投掷速度,以根据多个节点投掷方向和多个节点投掷速度,来确定用户手部的整体的投掷方向和投掷速度,使得得到的投掷方向和投掷速度更加准确。
在一示例性实施例中,所述步骤306、基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作,可以包括如下步骤:
根据所述投掷方向确定所述目标投射物体的投掷方向,以及根据所述投掷速度确定所述目标投射物体的投掷力度;
按照所述投掷方向、所述投掷力度和预设重力加速度,显示所述目标投射物体投射至所述目标物体的投射动作。
其中,预设重力加速度为真实世界的重力加速度。
在本发明实施例中,根据投掷速度让目标投射物体具有一定的投掷力度(投掷速度越大,投掷力度越大),并且,还会根据投掷方向让目标投射物体向该方向进行投射,由于增强现实场景设置了真实世界的重力加速度,因此目标投掷物体具有重力加速度,目标投射物体会投射过程中一直掉落,符合在真实世界中的物体投射的投射动作。
在上述示例性实施例中,根据投掷手势的投掷向确定目标投射物体的投掷方向,以及根据投掷手势的投掷速度确定目标投射物体的投掷力度,从而使得目标投射物体可以基于投掷方向、投掷力度和预设重力加速度,显示目标投射物体投射至目标物体的投射动作,更加真实地在增强现实画面中实现对目标投射物体的投射,提高用户的操作体验。
在一示例性实施例中,在所述基于所述投掷参数在所述增强现实画面中显示所述目标投射物体投射至所述目标物体的投射动作之后,所述方法还可以包括如下步骤:
响应针对所述目标投射物体的拿起手势,调整所述目标投射物体在所述增强现实画面中的位置。
在本发明实施例中,为了使得对目标投射物体可以多次重复进行投射,在完成一次目标投射物体的投射时,可以在增强现实画面中的某个位置处显示目标投射物体,例如,可以在增强现实画面中的目标表面的某个位置处显示目标投射物体,此时若对目标投射物体进行拿起操作时,可以调整在增强现实画面中目标投射物体的位置,例如,可以将目标投射物体调整到距离目标物体一定距离的位置处,接下来用户又可以对目标投射物体进行投射。可选地,也可以在对目标投射物体进行拿起操作,将在增强现实画面中的某个位置处显示目标投射物体移除,然后再在距离目标物体一定距离的位置处显示目标投射物体,本发明实施例对此无需加以限制。
作为一个可选示例,在未失败投射之前,用户可以对目标投射物体多次重复进行投射,并记录对应的投射结果以鼓励用户继续投射。例如,在熊猫吃竹子的游戏中,可以每成功完成一次投射,就对应降低熊猫的饥饿度。
在上述示例性实施例中,在完成一次目标投射物体的投射后,响应用户针对目标投射物体的拿起操作,调整在增强现实画面目标投射物体的位置,使得用户可以多次重复进行投射。
为了使本领域技术人员能够更好地理解本发明实施例实现对目标投射物体的投射过程,以下采用一个完整的示例加以说明。参照图4,是本发明实施例提供的一种基于增强现实的交互的流程图,具体可以包括如下步骤:
步骤1、开启AR场景。对应用程序中的【AR投射】的增强现实入口控件进行触控操作,触发进入AR场景,在AR场景的增强现实画面显示时初始化AR场景并开启摄像头获得现实世界的现实世界画面。
步骤2、识别目标表面。用户在提示信息的帮助下尝试寻找一个包含目标表面的现实世界画面,使用AR引擎进行目标表面的识别,可选地,可以设置为仅识别水平平面作为目标表面。
步骤3、在目标表面上设置目标物体。
步骤4、生成目标投射物体。使用预先设计好的目标投射物体的物体模型初始化一个AR节点,并将其添加到距离目标物体一定距离的位置处。
步骤5、识别对目标投射物体的投掷手势。当识别到用户从后向前的投掷手势时,根据投掷手势的投掷速度让目标投射物体具有一定(合适范围内)的投掷力度(模拟真实世界中投射物体的力度),且根据投掷手势的投掷方向让目标投射物体向着这个方向进行投射。
步骤6、按照投掷手势的投掷方向、投掷力度和重力加速度,将目标投射物体投射到目标物体。在AR场景中由于重力的原因,目标投射物体投射并碰到目标物体,以基于重力加速度使得投射动作更加真实。
步骤7、碰撞检测完成投射。若用户的投掷操作投掷合适(投掷速度和投掷方向合适),目标投射物体会碰撞到目标物体,则可以视为本次成功完成投射,若用户的投掷操作投掷不合适(投掷速度或投掷方向不合适),目标投射物体不会会碰撞到目标物体,则可以视为本次投射失败。
本发明实施例在AR场景中,识别目标表面并添加目标物体,同时还生成目标投射物体,然后根据用户对目标投射物体的投掷手势的投掷速度和投掷方向,结合预设重力加速度,将目标投射物体投射至目标物体,从而实现了一种基于AR的通过投掷手势触发的目标投射物体的投射的方案,增加了更多的用户交互、真实体验和趣味性。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图5,示出了本发明实施例中提供的一种基于增强现实的交互装置的结构框图,具体可以包括如下模块:
画面显示模块502,用于通过终端设备提供包括目标物体和目标投射物体的增强现实画面;
动作显示模块504,用于当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势,且所述投掷手势的投掷参数满足预设触发条件时,基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作;
碰撞处理模块506,用于若所述目标投射物体与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体与所述目标物体的预设动作内容。
在一示例性实施例中,所述装置还包括:未碰撞处理模块,用于若所述目标投射物体未与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体投射失败的提示信息。
在一示例性实施例中,所述画面显示模块502,用于在终端设备中提供增强现实入口控件;响应针对所述增强现实入口控件的触控操作,获取所述终端设备拍摄现实世界得到现实世界画面;渲染所述现实世界画面生成增强现实画面;所述增强现实画面中包括目标表面;在所述目标表面上生成目标物体,并在所述增强现实画面中的指定位置处生成目标投射物体。
在一示例性实施例中,所述装置还包括:提示信息显示模块,用于显示提示信息;所述提示信息包括拍摄包含目标表面的提示信息,所述目标表面包括水平平面。
在一示例性实施例中,所述动作显示模块504,用于当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述投掷手势对应的投掷参数;所述投掷参数包括投掷方向和投掷速度;当所述投掷方向为指定投掷方向时,确定为所述投掷手势的投掷参数满足预设触发条件;基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作。
在一示例性实施例中,所述动作显示模块504,用于按照预设规则从所述增强现实画面中提取目标增强现实画面;将所述目标增强现实画面输入至预先训练的手部识别模型中,以根据所述手部识别模型的输出结果确定所述目标增强现实画面中是否包含用户手部;当所述目标增强现实画面中包含用户手部时,则在所述目标增强现实画面中识别所述用户手部针对所述目标投射物体的投掷手势对应的投掷参数。
在一示例性实施例中,所述用户手部包括多个手部关键节点,所述动作显示模块504,用于在所述目标增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述用户手部的各个所述手部关键节点对应的节点投掷方向和节点投掷速度;根据各个所述手部关键节点对应的节点投掷速度确定所述投掷手势的投掷速度,以及根据各个所述手部关键节点对应的节点投掷方向确定所述投掷手势的投掷方向。
在一示例性实施例中,所述动作显示模块504,用于根据所述投掷方向确定所述目标投射物体的投掷方向,以及根据所述投掷速度确定所述目标投射物体的投掷力度;按照所述投掷方向、所述投掷力度和预设重力加速度,显示所述目标投射物体投射至所述目标物体的投射动作。
在一示例性实施例中,所述指定投掷方向包括用户手部从后向前的投掷方向。
在一示例性实施例中,所述装置还包括:调整模块,用于响应针对所述目标投射物体的拿起手势,调整所述目标投射物体在所述增强现实画面中的位置。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
优选的,本发明实施例还提供了一种电子设备,包括:处理器,存储器,存储在存储器上并可在处理器上运行的计算机程序,该计算机程序被处理器执行时实现上述基于增强现实的交互方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述基于增强现实的交互方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random AccessMemory,简称RAM)、磁碟或者光盘等。
本发明实施例提供一种计算机程序产品,该程序产品被存储在存储介质中,该程序产品被至少一个处理器执行以实现如上述方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
本领域普通技术人员可以意识到,结合本发明实施例中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (13)
1.一种基于增强现实的交互方法,其特征在于,所述方法包括:
通过终端设备提供包括目标物体和目标投射物体的增强现实画面;
当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势,且所述投掷手势的投掷参数满足预设触发条件时,基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作;
若所述目标投射物体与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体与所述目标物体的预设动作内容。
2.根据权利要求1所述的方法,其特征在于,在所述基于所述投掷参数在所述增强现实画面中显示所述目标投射物体投射至所述目标物体的投射动作之后,所述方法还包括:
若所述目标投射物体未与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体投射失败的提示信息。
3.根据权利要求1所述的方法,其特征在于,所述通过终端设备提供通过终端设备提供包括目标物体和目标投射物体的增强现实画面,包括:
在终端设备中提供增强现实入口控件;
响应针对所述增强现实入口控件的触控操作,获取所述终端设备拍摄现实世界得到现实世界画面;
渲染所述现实世界画面生成增强现实画面;所述增强现实画面中包括目标表面;
在所述目标表面上生成目标物体,并在所述增强现实画面中的指定位置处生成目标投射物体。
4.根据权利要求3所述的方法,其特征在于,在所述获取所述终端设备拍摄现实世界得到现实世界画面之后,所述方法还包括:
显示提示信息;所述提示信息包括拍摄包含目标表面的提示信息,所述目标表面包括水平平面。
5.根据权利要求1所述的方法,其特征在于,所述当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势,且所述投掷手势的投掷参数满足预设触发条件时,基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作,包括:
当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述投掷手势对应的投掷参数;所述投掷参数包括投掷方向和投掷速度;
当所述投掷方向为指定投掷方向时,确定为所述投掷手势的投掷参数满足预设触发条件;
基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作。
6.根据权利要求5所述的方法,其特征在于,所述当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述投掷手势对应的投掷参数,包括:
按照预设规则从所述增强现实画面中提取目标增强现实画面;
将所述目标增强现实画面输入至预先训练的手部识别模型中,以根据所述手部识别模型的输出结果确定所述目标增强现实画面中是否包含用户手部;
当所述目标增强现实画面中包含用户手部时,则在所述目标增强现实画面中识别所述用户手部针对所述目标投射物体的投掷手势对应的投掷参数。
7.根据权利要求5所述的方法,其特征在于,所述用户手部包括多个手部关键节点,所述在所述目标增强现实画面中识别所述用户手部针对所述目标投射物体的投掷手势对应的投掷参数,包括:
在所述目标增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势时,获取所述用户手部的各个所述手部关键节点对应的节点投掷方向和节点投掷速度;
根据各个所述手部关键节点对应的节点投掷速度确定所述投掷手势的投掷速度,以及根据各个所述手部关键节点对应的节点投掷方向确定所述投掷手势的投掷方向。
8.根据权利要求5所述的方法,其特征在于,所述基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作,包括:
根据所述投掷方向确定所述目标投射物体的投掷方向,以及根据所述投掷速度确定所述目标投射物体的投掷力度;
按照所述投掷方向、所述投掷力度和预设重力加速度,显示所述目标投射物体投射至所述目标物体的投射动作。
9.根据权利要求5所述的方法,其特征在于,所述指定投掷方向包括用户手部从后向前的投掷方向。
10.根据权利要求3所述的方法,其特征在于,在所述基于所述投掷参数在所述增强现实画面中显示所述目标投射物体投射至所述目标物体的投射动作之后,所述方法还包括:
响应针对所述目标投射物体的拿起手势,调整所述目标投射物体在所述增强现实画面中的位置。
11.一种基于增强现实的交互装置,其特征在于,所述装置包括:
画面显示模块,用于通过终端设备提供包括目标物体和目标投射物体的增强现实画面;
动作显示模块,用于当在所述增强现实画面中识别到用户手部针对所述目标投射物体的投掷手势,且所述投掷手势的投掷参数满足预设触发条件时,基于所述投掷参数显示所述目标投射物体投射至所述目标物体的投射动作;
碰撞检测模块,用于若所述目标投射物体与所述目标物体碰撞,则在所述增强现实画面中显示所述目标投射物体与所述目标物体的预设动作内容。
12.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,所述处理器、所述通信接口以及所述存储器通过所述通信总线完成相互间的通信;
所述存储器,用于存放计算机程序;
所述处理器,用于执行存储器上所存放的程序时,实现如权利要求1-10任一项所述的方法。
13.一个或多个计算机可读介质,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行如权利要求1-10任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111539040.XA CN114385004A (zh) | 2021-12-15 | 2021-12-15 | 基于增强现实的交互方法、装置、电子设备及可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111539040.XA CN114385004A (zh) | 2021-12-15 | 2021-12-15 | 基于增强现实的交互方法、装置、电子设备及可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114385004A true CN114385004A (zh) | 2022-04-22 |
Family
ID=81197451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111539040.XA Pending CN114385004A (zh) | 2021-12-15 | 2021-12-15 | 基于增强现实的交互方法、装置、电子设备及可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114385004A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120280901A1 (en) * | 2010-12-29 | 2012-11-08 | Empire Technology Development Llc | Environment-dependent dynamic range control for gesture recognition |
US20140306891A1 (en) * | 2013-04-12 | 2014-10-16 | Stephen G. Latta | Holographic object feedback |
US20200005026A1 (en) * | 2018-06-27 | 2020-01-02 | Facebook Technologies, Llc | Gesture-based casting and manipulation of virtual content in artificial-reality environments |
CN110908517A (zh) * | 2019-11-29 | 2020-03-24 | 维沃移动通信有限公司 | 图像编辑方法、装置、电子设备及介质 |
CN111401318A (zh) * | 2020-04-14 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 动作识别方法及装置 |
CN111580661A (zh) * | 2020-05-09 | 2020-08-25 | 维沃移动通信有限公司 | 交互方法和增强现实设备 |
CN112435069A (zh) * | 2020-12-02 | 2021-03-02 | 北京五八信息技术有限公司 | 一种广告投放方法、装置、电子设备及存储介质 |
CN113041622A (zh) * | 2021-04-23 | 2021-06-29 | 腾讯科技(深圳)有限公司 | 虚拟环境中虚拟投掷物的投放方法、终端及存储介质 |
-
2021
- 2021-12-15 CN CN202111539040.XA patent/CN114385004A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120280901A1 (en) * | 2010-12-29 | 2012-11-08 | Empire Technology Development Llc | Environment-dependent dynamic range control for gesture recognition |
US20140306891A1 (en) * | 2013-04-12 | 2014-10-16 | Stephen G. Latta | Holographic object feedback |
US20200005026A1 (en) * | 2018-06-27 | 2020-01-02 | Facebook Technologies, Llc | Gesture-based casting and manipulation of virtual content in artificial-reality environments |
CN110647239A (zh) * | 2018-06-27 | 2020-01-03 | 脸谱科技有限责任公司 | 人工现实环境中的虚拟内容的基于手势的投射和操纵 |
CN110908517A (zh) * | 2019-11-29 | 2020-03-24 | 维沃移动通信有限公司 | 图像编辑方法、装置、电子设备及介质 |
CN111401318A (zh) * | 2020-04-14 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 动作识别方法及装置 |
CN111580661A (zh) * | 2020-05-09 | 2020-08-25 | 维沃移动通信有限公司 | 交互方法和增强现实设备 |
WO2021227918A1 (zh) * | 2020-05-09 | 2021-11-18 | 维沃移动通信有限公司 | 交互方法和增强现实设备 |
CN112435069A (zh) * | 2020-12-02 | 2021-03-02 | 北京五八信息技术有限公司 | 一种广告投放方法、装置、电子设备及存储介质 |
CN113041622A (zh) * | 2021-04-23 | 2021-06-29 | 腾讯科技(深圳)有限公司 | 虚拟环境中虚拟投掷物的投放方法、终端及存储介质 |
Non-Patent Citations (1)
Title |
---|
@WESEE: "小鸡和我比赛打球,我也搞了1.3的变速。##蚂蚁庄园的小鸡", Retrieved from the Internet <URL:https://ml.mbd.baidu.com/r/11kdaoBlDIk?f=cp&u=f78d6af3beb64d32> * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2711059B1 (en) | System and method for facilitating interaction with a virtual space | |
CN105279795B (zh) | 基于3d标记的增强现实系统 | |
CN107589829A (zh) | 对互动商品的基于位置的体验 | |
CN106125903B (zh) | 多人交互系统及方法 | |
CN112148197A (zh) | 增强现实ar交互方法、装置、电子设备及存储介质 | |
CN103530495A (zh) | 增强现实仿真连续体 | |
CN108197589A (zh) | 动态人体姿态的语义理解方法、装置、设备和存储介质 | |
CN110545442B (zh) | 一种直播互动方法、装置、电子设备及可读存储介质 | |
CN111698646B (zh) | 一种定位方法及装置 | |
CN108096833B (zh) | 基于级联神经网络的体感游戏控制方法及装置、计算设备 | |
CN110585731A (zh) | 在虚拟环境中投掷虚拟物品的方法、装置、终端及介质 | |
CN106536004B (zh) | 增强的游戏平台 | |
EP4137916A1 (en) | Gesture-based skill search | |
CN111273777A (zh) | 虚拟内容的控制方法、装置、电子设备及存储介质 | |
CN112150349A (zh) | 一种图像处理方法、装置、计算机设备及存储介质 | |
Ionescu et al. | A multimodal interaction method that combines gestures and physical game controllers | |
CN114840092A (zh) | 一种与车载显示设备交互的方法、装置、设备及存储介质 | |
CN108803862B (zh) | 用于虚拟现实场景中的账号关系建立方法及装置 | |
CN105468249B (zh) | 智能互动系统及其控制方法 | |
CN114377384A (zh) | 基于增强现实的骰子交互方法、装置以及电子设备 | |
CN112333498A (zh) | 一种展示控制方法、装置、计算机设备及存储介质 | |
CN111665942A (zh) | 一种ar特效触发展示方法、装置、电子设备和存储介质 | |
CN114385004A (zh) | 基于增强现实的交互方法、装置、电子设备及可读介质 | |
CN106730834A (zh) | 游戏数据处理方法以及装置 | |
KR20140088286A (ko) | Nui 장치를 이용한 온라인 게이트볼 게임 서비스 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |