CN113867531A - 交互方法、装置、设备及计算机可读存储介质 - Google Patents
交互方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113867531A CN113867531A CN202111162420.6A CN202111162420A CN113867531A CN 113867531 A CN113867531 A CN 113867531A CN 202111162420 A CN202111162420 A CN 202111162420A CN 113867531 A CN113867531 A CN 113867531A
- Authority
- CN
- China
- Prior art keywords
- virtual object
- object model
- control operation
- augmented reality
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 230000003993 interaction Effects 0.000 title claims abstract description 45
- 230000033001 locomotion Effects 0.000 claims abstract description 232
- 230000003190 augmentative effect Effects 0.000 claims abstract description 167
- 239000003550 marker Substances 0.000 claims abstract description 73
- 230000000694 effects Effects 0.000 claims abstract description 60
- 230000004044 response Effects 0.000 claims abstract description 45
- 230000004397 blinking Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 12
- 230000002452 interceptive effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开实施例公开了一种交互方法、装置、设备及计算机可读存储介质。该方法包括:响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型;响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数;在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。通过本公开,用户可以通过控制操作来控制目标标记对象的虚拟对象模型在增强现实环境中的运动,从而可以提高目标标记对象与用户之间的互动性,并能增加增强现实效果展示的趣味性,提升用户体验。
Description
技术领域
本公开涉及但不限于增强现实(Augmented Reality,AR)技术领域,尤其涉及一种交互方法、装置、设备及计算机可读存储介质。
背景技术
增强现实技术也被称为扩增现实,增强现实技术不仅能够有效体现出真实世界的内容,也能够促使虚拟的信息内容显示出来,这些细腻内容相互补充和叠加,且在这一过程中能够被人类感官所感知,从而实现超越现实的感官体验。但是,相关技术的增强现实效果显示方案中,显示的内容与用户之间缺乏互动,且趣味性不足。
发明内容
本公开实施例提供一种交互方法、装置、设备及计算机可读存储介质。
本公开实施例的技术方案是这样实现的:
本公开实施例提供一种交互方法,包括:
响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型;
响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数;
在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。
在一些实施例中,所述至少一个虚拟对象模型包括第一虚拟对象模型;所述响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数,包括:响应于对所述第一虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述第一虚拟对象模型的第一运动参数。
在一些实施例中,所述至少一个虚拟对象模型还包括所述第二虚拟对象模型;所述方法还包括:获取所述第二虚拟对象模型的预设的第二运动参数;所述在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果,包括:在所述增强现实环境中展示所述第一虚拟对象模型按照所述第一运动参数进行运动,且所述第二虚拟对象模型按照预设的第二运动参数进行运动的增强现实效果。
这样,可以进一步提高目标标记对象与用户之间的互动性,并进一步能增加增强现实效果展示的趣味性,提升用户体验。
在一些实施例中,所述方法还包括:响应于对所述增强现实环境的启动操作,进入所述增强现实环境;所述响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型,包括:响应于在所述增强现实环境中识别到目标标记对象,在所述增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型。
这样,可以简单快速的进入增强现实环境,进一步提升用户体验。
在一些实施例中,所述控制操作包括以下至少之一:手势操作、人脸控制操作、语音控制操作、按键控制操作、屏幕触摸控制操作。
这样,用户可以通过多种方式控制增强现实环境中展示的虚拟对象模型的运动参数,从而可以进一步提高目标标记对象与用户之间的互动性,并能进一步增加增强现实效果展示的趣味性,提升用户体验。
在一些实施例中,所述运动参数包括运动方向和/或运动速度;所述控制操作包括用于控制所述虚拟对象模型的运动方向的第一控制操作和/或用于控制所述虚拟对象模型的运动速度的第二控制操作。
这样,用户可以控制至少一个虚拟对象模型在增强现实环境中的运动方向和运动速度,从而可以进一步提高目标标记对象与用户之间的互动性,并能进一步增加增强现实效果展示的趣味性,提升用户体验。
在一些实施例中,所述基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数,包括:根据所述第一控制操作的类型,确定与所述第一控制操作对应的方向控制指令,所述方向控制指令用于控制所述至少一个虚拟对象模型的运动方向;根据所述方向控制指令中包括的运动方向参数,确定所述至少一个虚拟对象模型的运动方向。
在上述实施例中,根据第一控制操作的类型,确定与第一控制操作对应的方向控制指令,根据方向控制指令中包括的运动方向参数,确定至少一个虚拟对象模型的运动方向。这样,可以通过第一控制操作简单快速地控制虚拟对象模型的运动方向。
在一些实施例中,所述根据所述第一控制操作的类型,确定与所述第一控制操作对应的方向控制指令,包括;在检测到所述第一控制操作为在显示屏上对所述虚拟对象模型所在区域进行的点击操作或长按操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型沿设定方向前进;在检测到所述第一控制操作为在所述显示屏上对所述虚拟对象模型进行的拖动操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型按照所述拖动操作的拖动方向运动;在检测到所述第一控制操作为人脸移动操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型按照所述人脸移动操作的移动方向运动。
在上述实施例中,可以支持通过多种类型的第一控制操作,控制虚拟对象模型的运动方向,从而可以进一步提高目标标记对象与用户之间的互动性,并能进一步增加增强现实效果展示的趣味性,提升用户体验。
在一些实施例中,所述基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数,包括:根据所述第二控制操作的类型,确定与所述第二控制操作对应的速度控制指令,所述速度控制指令用于控制所述至少一个虚拟对象模型的运动速度;根据所述速度控制指令中包括的运动速度参数,确定所述至少一个虚拟对象模型的运动速度。
在上述实施例中,根据第二控制操作的类型,确定与第二控制操作对应的速度控制指令,根据速度控制指令中包括的运动速度参数,确定至少一个虚拟对象模型的运动速度。这样,可以通过第二控制操作简单快速地控制虚拟对象模型的运动方向。
在一些实施例中,所述根据所述第二控制操作的类型,确定与所述第二控制操作对应的速度控制指令,包括:在检测到所述第二控制操作为在显示屏上对所述虚拟对象模型所在区域进行的点击操作的情况下,基于所述点击操作的点击频率,确定所述速度控制指令中的运动速度参数;在检测到所述第二控制操作为眨眼操作的情况下,基于所述眨眼操作的眨眼频率,确定所述速度控制指令中的运动速度参数。
在上述实施例中,可以支持通过多种类型的第二控制操作,控制虚拟对象模型的运动速度,从而可以进一步提高目标标记对象与用户之间的互动性,并能进一步增加增强现实效果展示的趣味性,提升用户体验。
本公开实施例提供一种交互装置,包括:
第一显示模块,用于响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型;
确定模块,用于响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数;
第二显示模块,用于在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。
本公开实施例提供一种电子设备,包括:显示屏;存储器,用于存储可执行计算机程序;处理器,用于执行所述存储器中存储的可执行计算机程序时,结合所述显示屏实现上述的交互方法。
本公开实施例提供一种计算机可读存储介质,其上存储有计算机程序,用于引起处理器执行时,实现上述的交互方法。
本公开实施例中,通过响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型;响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数;在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。这样,用户可以通过控制操作来控制目标标记对象的虚拟对象模型在增强现实环境中的运动,从而可以提高目标标记对象与用户之间的互动性,并能增加增强现实效果展示的趣味性,提升用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1A为本公开实施例提供的一种交互场景的实现示意图;
图1B为本公开实施例提供的一种交互方法的实现流程示意图;
图2为本公开实施例提供的一种交互方法的实现流程示意图;
图3为本公开实施例提供的一种交互方法的实现流程示意图;
图4为本公开实施例提供的一种交互方法的实现流程示意图;
图5为本公开实施例提供的一种交互方法的实现流程示意图;
图6为本公开实施例提供的一种交互方法的实现流程示意图;
图7为本公开实施例提供的一种交互装置的组成结构示意图;
图8为本公开实施例提供的一种电子设备的硬件实体示意图。
具体实施方式
为了使本公开的目的、技术方案和优点更加清楚,下面将结合附图对本公开作进一步地详细描述,所描述的实施例不应视为对本公开的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本公开的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本公开实施例的目的,不是旨在限制本公开。
对本公开实施例进行进一步详细说明之前,对本公开实施例中涉及的名词和术语进行说明,本公开实施例中涉及的名词和术语适用于如下的解释。
1)小程序(Mini Program),也称为网络程序(Web Program),是一种基于面向前端的语言(例如JavaScript)开发的、在超文本标记语言(HTML,Hyper Text MarkupLanguage)页面中实现服务的程序,由客户端(例如浏览器或内嵌浏览器核心的任意客户端)经由网络(如互联网)下载、并在客户端的浏览器环境中解释和执行的软件,节省在客户端中安装的步骤。例如,在社交网络客户端中可以下载、运行用于实现唱歌服务的小程序。
2)增强现实(Augmented Reality,AR),增强现实技术也被称为扩增现实,AR增强现实技术是促使真实世界信息和虚拟世界信息内容之间综合在一起的较新的技术内容,其将原本在现实世界的空间范围中比较难以进行体验的实体信息在电脑等科学技术的基础上,实施模拟仿真处理,叠加将虚拟信息内容在真实世界中加以有效应用,并且在这一过程中能够被人类感官所感知,从而实现超越现实的感官体验。真实环境和虚拟物体之间重叠之后,能够在同一个画面以及空间中同时存在。增强现实技术不仅能够有效体现出真实世界的内容,也能够促使虚拟的信息内容显示出来,这些细腻内容相互补充和叠加。增强现实技术中可以包括多媒体和三维建模以及场景融合等新的技术和手段。在视觉化的增强现实中,用户可以通过智能电视、手机、平板、智能显示屏、AR头盔、AR眼镜等显示设备,感知真实世界和虚拟的电脑图形重叠的效果。
3)基于标记的增强现实效果(Marker-based AR):这种实现方法需要一个事先制作好的标记(Marker),例如绘制着一定规格形状的模板卡片或者二维码等,然后把Marker放到真实场景中的一个位置上,以确定一个真实场景中的平面,通过摄像头对该Marker进行识别和/或姿态评估(Pose Estimation),并确定该Marker的位置,然后以该Marker中心为原点确定一个模板坐标系(Marker Coordinates),并使模板坐标系和显示设备的屏幕坐标系建立映射关系,这样,根据该映射关系可以在显示设备上绘制的虚拟图形以达到该虚拟图形依附在Marker上的效果。在将图形的坐标从模板坐标系变换到真实的屏幕坐标系的过程中,可以先将模板坐标系中的坐标旋转平移到摄像机坐标系(Camera Coordinates),然后再将摄像机坐标系中的坐标映射到屏幕坐标系中。
本公开实施例提供一种交互方法,能够提高目标标记对象与用户之间的互动性,并能增加增强现实效果展示的趣味性,提升用户体验。本公开实施例提供的交互方法可以应用于电子设备。本公开实施例提供的电子设备可以实施为AR眼镜、AR头盔、笔记本电脑,平板电脑,台式计算机,机顶盒、移动设备(例如,移动电话,便携式音乐播放器,个人数字助理,专用消息设备,便携式游戏设备)等各种类型的终端。在一些实施方式中,本公开实施例提供的交互方法可以应用于电子设备的客户端应用平台中。其中,客户端应用平台可以为网络(Web)端应用平台或小程序。在一些实施方式中,本公开实施例提供的交互方法,还可以应用于电子设备的应用程序中。
参见图1A,图1A是本公开实施例提供的一种交互场景的实现示意图,电子设备100可以运行用于呈现增强现实环境的小程序,电子设备100响应于用户通过在图形界面101上进行的小程序启动操作,进入增强现实环境,并在增强现实环境中通过自身的采集装置102识别目标标记对象,例如图1A中的纸质日历200上的目标标记对象201,电子设备100响应于识别到目标标记对象,通过图形界面101在增强现实环境中展示目标标记对象的至少一个虚拟对象模型,用户通过图形界面101对至少一个虚拟对象模型进行控制操作,电子设备101响应于对至少一个虚拟对象模型进行的控制操作,基于控制操作对应的控制指令,确定至少一个虚拟对象模型的运动参数,并通过图形界面101在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。
在一些实施例中,电子设备100也可以在采集到待识别的标记对象的图像信息或特征信息后,将该图像信息或特征信息发送至服务器,服务器基于该图像信息或特征信息确定是否识别到目标标记对象,并将识别结果返回给电子设备。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本公开实施例中不做限制。
图1B为本公开实施例提供的一种交互方法的实现流程示意图,如图1B所示,该方法包括如下步骤S101至步骤S103:
步骤S101,响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型。
这里,目标标记对象可以是任意合适的可识别的对象。在实施时,目标标记对象可以是二维或三维图像中的对象,例如,画卷或照片中的船只、动物、人脸、车辆等,也可以是真实场景中的对象,如真实场景中的船只、船只模型、展品、动物、人、建筑物、汽车等,这里并不限定。
增强现实环境可以是任意合适的用于呈现增强现实效果的交互环境,可以是基于原生增强现实技术实现的,也可以是基于网页增强现实(Web Augmented Reality,WebAR)技术实现的,这里并不限定。例如,增强现实环境可以是运行在电子设备上用于呈现增强现实效果的应用平台、应用程序或小程序等的交互界面。电子设备可以在增强现实环境下对真实场景中的任意对象进行扫描或识别,也可以对预先获取的图像中的对象进行扫描或识别。
虚拟对象模型可以是基于目标标记对象生成的虚拟模型,例如,在目标标记对象为画卷中的船只或真实场景中的船只的情况下,虚拟对象模型可以是基于该船只生成的虚拟船只模型,在目标标记对象为画卷中的动物或真实场景中的动物的情况下,虚拟对象模型可以是基于该动物生成的虚拟动物模型。在实施时,虚拟对象模型可以是在识别到目标标记对象后在增强现实环境中实时生成的,也可以是预先基于目标标记对象生成后进行存储,在识别到目标标记对象后再加载至增强现实环境中的,这里并不限定。
基于目标标记对象生成虚拟对象模型的方式也可以是本领域技术人员根据实际情况确定的。例如,可以以目标标记对象的中心为原点确定一个模板坐标系,基于该模板坐标系与电子设备的摄像机坐标系以及屏幕坐标系之间的映射关系,确定目标标记对象中各点在屏幕坐标系中的坐标,进而可以基于每一个点的坐标在增强现实环境中绘制出目标标记对象的至少一个虚拟对象模型,绘制的虚拟对象模型可以依附在增强现实环境中呈现的目标标记对象上,也可以独立呈现。又如,可以通过对目标标记对象进行特征提取,并基于提取的目标标记对象的特征构建目标标记对象的至少一个虚拟对象模型。
步骤S102,响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数。
这里,用户可以在增强现实环境中对至少一个虚拟对象模型进行控制操作,以控制虚拟对象模型在增强现实环境中的运动状态。在实施时,控制操作可以包括但不限于手势操作、语音控制操作、人脸控制操作、按键控制操作、屏幕触摸控制操作等中的一种或多种。例如,用户可以通过进行多种类型的手势触发手势控制操作,电子设备可以通过图像采集装置采集包含用户手部的图像,并基于该图像识别到手势类型进而得到手势类型对应的手势操作;用户也可以在电子设备的显示屏上进行点击、拖动、滑动、长按等屏幕触摸控制操作,也可以向电子设备输入预设的语音指令,触发语音控制操作,还可以通过人脸的移动、面部表情的改变触发人脸控制操作,还可以通过按压电子设备上的按键进行按键控制操作。此外,还可以通过改变电子设备的位姿状态对虚拟对象模型在增强现实环境中的运动状态进行控制,例如可以通过向左或向右倾斜电子设备控制虚拟对象模型在增强现实环境中的运动方向,通过向前或向后倾斜电子设备控制虚拟对象模型在增强现实环境中的运动速度。
每一个控制操作可以对应一个控制指令,不同的控制操作可以对应不同的控制指令,也可以对应相同的控制指令。控制指令可以是对虚拟对象模型的任意合适的运动参数进行控制的指令,例如,对虚拟对象模型的运动方向、运动速度、运动加速度、运动路线等中的一种或多种进行控制的指令。在实施时,本领域技术人员可以根据实际情况为每一控制操作确定合适的控制指令,这里并不限定。例如,在控制操作为在电子设备的显示屏上进行的点击操作的情况下,控制指令可以是控制虚拟对象模型按照点击频率对应的速度运行,点击频率对应的速度可以是预先设定的;在控制操作为在电子设备的显示屏上对虚拟对象模型进行的拖动操作的情况下,控制指令可以是控制虚拟对象模型按照拖动操作的拖动方向运行;在控制操作为眨眼操作的情况下,控制指令可以是控制虚拟对象模型按照检测到的眨眼频率对应的速度运行,眨眼频率对应的速度可以是预先设定的。在所述控制操作为人脸移动操作的情况下,确定控制指令可以为控制虚拟对象模型按照所述人脸移动操作的移动方向运动。
虚拟对象模型的运动参数可以包括但不限于虚拟对象的运动速度、运动方向、运动加速度、运动路线等中的一种或多种。在一些实施方式中,控制指令中可以包括虚拟对象模型的运动参数,可以通过解析控制指令确定虚拟对象模型的运动参数。在一些实施方式中,可以预先设定控制指令与运动参数之间的对应关系,通过查询该对应关系,可以确定不同的控制指令对应的运动参数。
在一些实施方式中,控制操作可以是对至少一个虚拟对象模型中的每一个虚拟对象模型进行的,基于控制操作对应的控制指令,可以确定每一个虚拟对象模型的运动参数。
在一些实施方式中,控制操作可以是对多个虚拟对象模型中特定的虚拟对象模型进行的,基于控制操作对应的控制指令,可以确定该特定的虚拟对象模型的运动参数。
步骤S103,在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。
这里,可以基于获取的至少一个虚拟参数模型的运动参数,在增强现实环境中对虚拟对象模型的展示效果进行渲染,实现在增强现实环境中展示至少一个虚拟对象模型按照相应的运动参数进行运动的增强现实效果。在实施时,本领域技术人员可以根据实际情况采用合适的方式对虚拟对象模型的展示效果进行渲染,这里并不限定。
本公开实施例中,通过响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型;响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数;在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。这样,用户可以通过控制操作来控制目标标记对象的虚拟对象模型在增强现实环境中的运动,从而可以提高目标标记对象与用户之间的互动性,并能增加增强现实效果展示的趣味性,提升用户体验。
在一些实施例中,所述控制操作可以包括以下至少之一:手势操作、人脸控制操作、语音控制操作、按键控制操作、屏幕触摸控制操作。这样,用户可以通过多种方式控制增强现实环境中展示的虚拟对象模型的运动参数,从而可以进一步提高目标标记对象与用户之间的互动性,并能进一步增加增强现实效果展示的趣味性,提升用户体验。
图2为本公开实施例提供的一种交互方法的实现流程示意图,如图2所示,该方法包括如下步骤S201至步骤S204:
步骤S201,响应于对所述增强现实环境的启动操作,进入所述增强现实环境。
这里,对所述增强现实环境的启动操作可以是任意合适的触发电子设备显示用于呈现增强现实效果的交互环境的操作,包括但不限于启动呈现增强现实效果的小程序、在浏览器中打开增强现实环境的入口链接、扫描增强现实环境的二维码或条形码等。在实施时,用户可以根据实际情况,采用合适的启动操作在电子设备上启动并进入增强现实环境,这里并不限定。例如,可以通过扫描纸质日历或电子日历上的增强现实环境的二维码,进入该增强现实环境。
步骤S202,响应于在所述增强现实环境中识别到目标标记对象,在所述增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型。
这里,可以在增强现实环境下利用电子设备的摄像头对真实场景中的目标标记对象进行识别,也可以在增强现实环境下对预先获取的图像中的目标标记对象进行识别。
步骤S203,响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数。
步骤S204,在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。
这里,上述步骤S203至步骤S204对应于前述步骤S102至步骤S103,在实施时,可以参照前述步骤S102至步骤S103的具体实施方式。
本公开实施例中,响应于对所述增强现实环境的启动操作,进入所述增强现实环境,并响应于在所述增强现实环境中识别到目标标记对象,在所述增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型。这样,可以简单快速的进入增强现实环境,进一步提升用户体验。
在一些实施方式中,所述响应于对所述增强现实环境的启动操作,进入所述增强现实环境,包括以下之一:响应于对所述增强现实环境的目标识别码的扫描操作,进入所述增强现实环境;响应于对所述增强现实环境的入口地址的访问操作,进入所述增强现实环境。这里,增强现实环境的目标识别码可以是二维码、条码,还可以是其他可以扫描的码。增强现实环境的入口地址可以包括但不限于在应用程序中的入口按钮、入口小程序、入口链接等中的一种或多种,这里并不限定。
在上述实施例中,可以通过对增强现实环境的目标识别码的扫描操作或者对增强现实环境的入口地址的访问操作进入增强现实环境。这样,用户可以采用多种方式进入增强现实环境,从而可以提高交互的灵活性以及交互方法应用的广泛性。
图3为本公开实施例提供的一种交互方法的实现流程示意图,如图3所示,该方法包括如下步骤S301至步骤S305:
步骤S301,响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型。
步骤S302,响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数;所述运动参数包括运动方向和/或运动速度;所述控制操作包括用于控制所述虚拟对象模型的运动方向的第一控制操作和/或用于控制所述虚拟对象模型的运动速度的第二控制操作。
这里,第一控制操作可以是用于控制虚拟对象模型的运动方向的任意合适的控制操作。例如,第一控制操作可以是在电子设备的显示屏上向左或右等方向滑动的操作,也可以是电子设备识别到的人脸向左或右等方向的移动动作,还可以是在电子设备的显示屏上对虚拟对象模型进行向左或右等方向拖动的操作。
第二控制操作可以是用于控制虚拟对象模型的运动速度的任意合适的控制操作。例如,第二控制操作可以是在电子设备的显示屏上进行的点击操作,可以根据点击操作的点击频率确定速度控制指令,也可以是电子设备识别到的眨眼操作,可以根据检测到的眨眼频率确定速度控制指令,还可以是电子设备向前或向后倾斜操作,可以根据向前或向后倾斜的角度确定速度控制指令。
步骤S303,在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。
需要说明的是,上述步骤S301至步骤S303分别对应于前述步骤S101至步骤S103,在实施时,可以参照前述步骤S101至步骤S103的具体实施方式。
本公开实施例中,虚拟对象模型的运动参数包括运动方向和/或运动速度,对虚拟对象模型进行的控制操作包括用于控制虚拟对象模型的运动方向的第一控制操作和/或用于控制虚拟对象模型的运动速度的第二控制操作。这样,用户可以控制至少一个虚拟对象模型在增强现实环境中的运动方向和/或运动速度,从而可以进一步提高目标标记对象与用户之间的互动性,并能进一步增加增强现实效果展示的趣味性,提升用户体验。
在一些实施例中,上述步骤S302中所述的基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数,可以包括:
步骤S311,根据所述第一控制操作的类型,确定与所述第一控制操作对应的方向控制指令,所述方向控制指令用于控制所述至少一个虚拟对象模型的运动方向;
这里,第一控制操作的类型可以包括但不限于在显示屏上对虚拟对象模型所在区域进行的点击操作或长按操作、在显示屏上对虚拟对象模型进行的拖动操作、对电子设备上的方向键进行的按压操作、电子设备识别到的人脸移动操作、人脸偏转操作、指示方向的手势操作、指示方向的语音控制操作等中的一种或多种。
不同类型的第一控制操作可以对应不同的方向控制指令。在一些实施方式中,可以预先设定多种第一控制操作的类型与方向控制指令之间的对应关系,通过查询该对应关系,可以确定不同的第一控制操作对应的方向控制指令。
步骤S312,根据所述方向控制指令中包括的运动方向参数,确定所述至少一个虚拟对象模型的运动方向。
这里,运动方向可以是相对虚拟对象模型当前运动的方向的相对方向,还可以是相对预设方向的相对方向,也可以是显示屏的屏幕坐标系中的绝对方向(如屏幕坐标系中的横轴方向、纵轴方向等),这里并不限定。
方向控制指令中可以包括虚拟对象模型的运动方向参数,可以通过解析方向控制指令中的运动方向参数确定虚拟对象模型的运动方向。在一些实施方式中,方向控制指令中的运动方向参数可以包括但不限于虚拟对象模型需要相对当前运动方向偏转的角度、虚拟对象模型需要相对预设方向偏转的角度、虚拟对象模型需要在显示屏的屏幕坐标系中转至的绝对方向。
在上述实施例中,根据第一控制操作的类型,确定与第一控制操作对应的方向控制指令,根据方向控制指令中包括的运动方向参数,确定至少一个虚拟对象模型的运动方向。这样,可以通过第一控制操作简单快速地控制虚拟对象模型的运动方向。
在一些实施例中,上述步骤S311中所述的根据所述第一控制操作的类型,确定与所述第一控制操作对应的方向控制指令,可以包括:
步骤S321,在检测到所述第一控制操作为在显示屏上对所述虚拟对象模型所在区域进行的点击操作或长按操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型沿设定方向前进;
这里,点击操作可以包括对显示屏上虚拟对象模型所在区域进行至少一次点击的操作,如单击操作、双击操作等。
长按操作可以包括对显示屏上虚拟对象模型所在区域进行的触摸操作或按压操作等。在实施时,可以在检测到对显示屏上虚拟对象模型所在区域进行的触摸操作或按压操作的持续时长超过设定的时长阈值的情况下,确定检测到长按操作。
步骤S322,在检测到所述第一控制操作为在所述显示屏上对所述虚拟对象模型进行的拖动操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型按照所述拖动操作的拖动方向运动;
这里,在显示屏上对虚拟对象模型进行的拖动操作可以包括在显示屏上向任意合适的方向拖动虚拟对象模型的操作。
步骤S323,在检测到所述第一控制操作为人脸移动操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型按照所述人脸移动操作的移动方向运动。
这里,人脸移动操作可以是用户面向电子设备的摄像头进行脸部移动的操作,可以包括但不限于人脸向左移动、向右移动、向前移动、向后移动等中的一种或多种。在实施时,可以利用电子设备的摄像头采集当前真实场景的多个图像帧,基于任意合适的人脸识别算法对每一图像帧中人脸的位置进行识别,以识别人脸移动操作,并确定人脸的移动方向。
在上述实施例中,可以支持通过多种类型的第一控制操作,控制虚拟对象模型的运动方向,从而可以进一步提高目标标记对象与用户之间的互动性,并能进一步增加增强现实效果展示的趣味性,提升用户体验。
在一些实施例中,上述步骤S302中所述的基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数,可以包括:
步骤S331,根据所述第二控制操作的类型,确定与所述第二控制操作对应的速度控制指令,所述速度控制指令用于控制所述至少一个虚拟对象模型的运动速度;
这里,第二控制操作的类型可以包括但不限于在显示屏上对虚拟对象模型所在区域进行的点击操作、对电子设备上的加速或减速按键进行的按压操作、电子设备识别到的眨眼操作、指示加速或减速的手势操作、指示加速或减速的语音控制操作等中的一种或多种。
不同类型的第二控制操作可以对应不同的速度控制指令。在一些实施方式中,可以预先设定多种第二控制操作的类型与速度控制指令之间的对应关系,通过查询该对应关系,可以确定不同的第二控制操作对应的速度控制指令。
步骤S332,根据所述速度控制指令中包括的运动速度参数,确定所述至少一个虚拟对象模型的运动速度。
这里,运动速度可以是相对虚拟对象模型当前运动的速度的相对速度,也可以是相对增强现实环境中预设的虚拟对象的运动速度,这里并不限定。
在一些实施方式中,速度控制指令中可以包括虚拟对象模型的运动速度参数,可以通过解析方向控制指令中的运动速度参数确定虚拟对象模型的运动速度。在一些实施方式中,速度控制指令中的运动速度参数可以包括但不限于虚拟对象模型需要相对当前运动的速度变化量、虚拟对象模型的加速度、虚拟对象模型需要相对增强现实环境中预设的虚拟对象达到的速度等中的一种或多种。
在上述实施例中,根据第二控制操作的类型,确定与第二控制操作对应的速度控制指令,根据速度控制指令中包括的运动速度参数,确定至少一个虚拟对象模型的运动速度。这样,可以通过第二控制操作简单快速地控制虚拟对象模型的运动方向。
在一些实施例中,上述步骤S331中所述的根据所述第二控制操作的类型,确定与所述第二控制操作对应的速度控制指令,可以包括:
步骤S341,在检测到所述第二控制操作为在显示屏上对所述虚拟对象模型所在区域进行的点击操作的情况下,基于所述点击操作的点击频率,确定所述速度控制指令中的运动速度参数;
这里,在检测到第二控制操作为在显示屏上对虚拟对象模型所在区域进行的点击操作的情况下,可以获取点击操作的点击频率,基于该点击频率,可以确定速度控制指令中包括的至少一个运动速度参数。在实施时,本领域技术人员可以根据速度控制指令中包括的运动速度参数的类型,采用合适的方式基于点击频率确定至少一个运动速度参数,本公开实施例对此并不限定。
在一些实施方式中,在速度控制指令中包括虚拟对象模型需要达到的目标运动速度的情况下,可以预先根据实际应用场景确定点击频率与运动速度之间的对应关系,通过查询该对应关系,可以确定与当前点击频率对应的目标运动速度;也可以基于点击频率,按照设定的速度计算算法,计算出虚拟对象模型需要达到的目标运动速度。
步骤S342,在检测到所述第二控制操作为眨眼操作的情况下,基于所述眨眼操作的眨眼频率,确定所述速度控制指令中的运动速度参数。
这里,可以利用电子设备的摄像头采集当前真实场景的多个图像帧,基于任意合适的动作识别算法对每一图像帧中眨眼动作进行识别,并检测多个图像帧中眨眼的频率。
在检测到第二控制操作为眨眼操作的情况下,可以获取眨眼操作的眨眼频率,基于该眨眼频率,可以确定速度控制指令中包括的至少一个运动速度参数。在实施时,本领域技术人员可以根据速度控制指令中包括的运动速度参数的类型,采用合适的方式基于眨眼频率确定至少一个运动速度参数,进而确定速度控制指令,本公开实施例对此并不限定。
在一些实施方式中,在速度控制指令中包括虚拟对象模型需要达到的目标运动速度的情况下,可以预先根据实际应用场景确定眨眼频率与运动速度之间的对应关系,通过查询该对应关系,可以确定与当前眨眼频率对应的目标运动速度;也可以基于眨眼频率,按照设定的速度计算算法,计算出虚拟对象模型需要达到的目标运动速度。
在上述实施例中,可以支持通过多种类型的第二控制操作,控制虚拟对象模型的运动速度,从而可以进一步提高目标标记对象与用户之间的互动性,并能进一步增加增强现实效果展示的趣味性,提升用户体验。
图4为本公开实施例提供的一种交互方法的实现流程示意图,如图4所示,该方法包括如下步骤S401至步骤S404:
步骤S401,响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型。
这里,上述步骤S401对应于前述步骤S101,在实施时,可以参照前述步骤S101的具体实施方式。
步骤S402,响应于识别到所述目标标记对象,在所述增强现实环境中显示用于提示用户进行控制操作的提示信息。
这里,可以采用任意合适的提示信息提示用户进行控制操作。例如,提示信息可以包括但不限于提示用户可进行控制操作的信息、用户可进行的控制操作的类型、控制操作与控制指令之间的对应关系等中的一种或多种。
步骤S403,响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数。
步骤S404,在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。
这里,上述步骤S403至步骤S404对应于前述步骤S102至步骤S103,在实施时,可以参照前述步骤S102至步骤S103的具体实施方式。
本公开实施例中,响应于识别到目标标记对象,在增强现实环境中显示用于提示用户进行控制操作的提示信息。这样,用户可以根据提示信息进行相应的控制操作,从而进一步提升用户体验。
图5为本公开实施例提供的一种交互方法的实现流程示意图,如图5所示,该方法包括如下步骤S501至步骤S503:
步骤S501,响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型;所述至少一个虚拟对象模型包括第一虚拟对象模型。
这里,上述步骤S501对应于前述步骤S101,在实施时,可以参照前述步骤S101的具体实施方式。
步骤S502,响应于对所述第一虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述第一虚拟对象模型的第一运动参数。
这里,用户可以在增强现实环境中对第一虚拟对象模型进行控制操作,以控制第一虚拟对象模型在增强现实环境中的运动状态。第一运动参数可以包括但不限于第一虚拟对象模型的运动速度、运动方向等中的一种或多种。
上述步骤S502对应于前述步骤S102,在实施时,可以参照前述步骤S102的具体实施方式。
步骤S503,在所述增强现实环境中展示所述第一虚拟对象模型按照所述第一运动参数进行运动的增强现实效果。
上述步骤S503对应于前述步骤S103,在实施时,可以参照前述步骤S102的具体实施方式。
在一些实施例中,所述至少一个虚拟对象模型还包括所述第二虚拟对象模型;上述方法还包括:步骤S511,获取所述第二虚拟对象模型的预设的第二运动参数。
上述步骤S502可以包括:步骤S512,在所述增强现实环境中展示所述第一虚拟对象模型按照所述第一运动参数进行运动,且所述第二虚拟对象模型按照预设的第二运动参数进行运动的增强现实效果。
这里,第二运动参数可以是预先设定的第二虚拟对象模型的运动参数,在实施时,可以预先根据实际情况为第二虚拟对象模型设定合适的运动参数,这里并不限定。在一些实施方式中,第二运动参数可以包括预设的运动路线和运动速度。
第一虚拟对象模型与第二虚拟对象模型在外观上可以是相同的也可以是不同的。在增强现实环境展示的增强现实效果中,第一虚拟对象模型可以按照第一运动参数进行运动,第二虚拟对象模型可以按照预设的第二运动参数进行运动。例如,在目标标记对象为古画中的船只的情况下,第一虚拟对象模型可以为该船只的第一虚拟船只模型,第二虚拟对象模型均可以为该船只的第一虚拟船只模型,第一虚拟船只模型与第二虚拟船只模型的外观可以相同也可以不同,用户可以通过手势操作、人脸控制操作、语音控制操作、按键控制操作、屏幕触摸控制等中的一种或多种控制操作控制第一虚拟船只模型的运动状态,第二虚拟对象模型可以按照预设的运动路线和速度进行运动,从而可以实现第一虚拟船只模型与第二虚拟船只模型的竞赛的效果。
本公开实施例中,在增强现实环境展示的增强现实效果中,可以展示目标标记对象的第一虚拟对象模型和第二虚拟对象模型,并且第一虚拟对象模型可以根据用户的控制操作进行运动,第二虚拟对象模型可以根据预设的运动参数进行运动。这样,可以进一步提高目标标记对象与用户之间的互动性,并进一步能增加增强现实效果展示的趣味性,提升用户体验。在一些实施方式中,还可以对第一虚拟对象模型和第二虚拟对象模型的运动状态进行比较,实现第一虚拟对象模型和第二虚拟对象模型进行竞赛的效果。
下面将说明本公开实施例在实际应用场景中的示例性应用。以与画卷中的船只进行互动的场景为例进行说明。
本公开实施例提供一种交互方法,用户可以使用电子设备在AR环境下扫描纸质日历或电子日历上的画卷中的船只,电子设备在识别到画卷中的船只后,生成两个虚拟船只模型(即第一虚拟船只模型和第二虚拟船只模型),并在基于该画卷呈现的增强现实效果中展示第一虚拟船只模型和第二虚拟船只模型,其中,第一虚拟船只模型可以基于用户的控制操作进行运动,第二虚拟船只模型按照预设的速度和轨迹运动,从而可以实现两个虚拟船只模型比赛的效果。
图6为本公开实施例提供的一种交互方法的实现流程示意图,如图6所示,该方法包括:
步骤S601,电子设备进入AR环境,在AR环境下扫描纸质日历或电子日历的日历页上的画卷中的船只,在AR环境中展示与该船只对应的第一虚拟船只模型和第二虚拟船只模型,并将第一虚拟船只模型和第二虚拟船只模型叠加在真实场景中。
这里,用户可以在电子设备上点击画卷AR体验小程序(对应前述的呈现增强现实效果的小程序)进入画卷AR体验活动。用户也可以在购买纸质日历或电子日历后,扫描日历页上的二维码进入AR环境。
步骤S602,电子设备预先设定第二虚拟船只模型运动的速度与轨迹,并在识别到画卷中的船只之后,在AR环境中展示第二虚拟船只模型按照设定的速度与轨迹运动的增强现实效果。
步骤S603,电子设备识别到画卷中的船只之后,AR环境中现实提示用户进行控制操作以控制第一虚拟船只模型运动的提示信息。
步骤S604,用户对第一虚拟船只模型进行控制操作,以控制第一虚拟船只模型的运动状态。
步骤S605,电子设备响应于对第一虚拟对象模型进行的控制操作,基于控制操作对应的控制指令,确定第一虚拟对象模型的运动参数,并在AR环境中展示第一虚拟对象模型按照该运动参数进行运动的增强现实效果。
在一些实施方式中,用户可以通过屏幕触摸操作控制第一虚拟船只模型的运动状态,例如,用户点击或长按电子设备的显示屏上显示的第一虚拟船只模型,可以使得第一虚拟船只模型前进;用户可以点击第一虚拟船只模型,通过点击的频率来改变第一虚拟船只模型的前进速度;用户可以向左或向右拖动第一虚拟船只模型,以改变第一虚拟船只模型的运动方向等。
在一些实施方式中,用户可以通过人脸位置或表情的变化控制第一虚拟船只模型的运动状态。例如,用户可以通过移动人脸来控制第一虚拟船只模型前进,可以通过改变眨眼频率来改变第一虚拟船只模型的运动速度。
本公开实施例提供的交互方法至少可以应用至文娱产业领域中,基于该交互方法可以更好地展示文物模型、艺术展品等,并能更好的提升用户观赏文物模型、艺术展品等的体验,此外,互动过程中引入比赛效果还可以进一步增加趣味性。
基于前述的实施例,本公开实施例提供一种交互装置,该装置包括所包括的各单元、以及各单元所包括的各模块,可以通过电子设备中的处理器来实现;当然也可通过具体的逻辑电路实现;在实施的过程中,处理器可以为中央处理器(CPU)、微处理器(MPU)、数字信号处理器(DSP)或现场可编程门阵列(FPGA)等。
图7为本公开实施例提供的一种交互装置的组成结构示意图,如图7所示,该交互装置700包括:第一显示模块710、确定模块720和第二显示模块730,其中:
第一显示模块710,用于响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型;
确定模块720,用于响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数;
第二显示模块730,用于在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。
在一些实施例中,所述至少一个虚拟对象模型包括第一虚拟对象模型;所述确定模块还用于:响应于对所述第一虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述第一虚拟对象模型的第一运动参数。
在一些实施例中,所述至少一个虚拟对象模型还包括所述第二虚拟对象模型;所述装置还包括:第一获取模块,用于获取所述第二虚拟对象模型的预设的第二运动参数;所述第二显示模块还用于:在所述增强现实环境中展示所述第一虚拟对象模型按照所述第一运动参数进行运动,且所述第二虚拟对象模型按照预设的第二运动参数进行运动的增强现实效果。
在一些实施例中,所述控制操作包括以下至少之一:手势操作、人脸控制操作、语音控制操作、按键控制操作、屏幕触摸控制操作。
在一些实施例中,所述运动参数包括运动方向和/或运动速度;所述控制操作包括用于控制所述虚拟对象模型的运动方向的第一控制操作和/或用于控制所述虚拟对象模型的运动速度的第二控制操作。
在一些实施例中,所述确定模块还用于:根据所述第一控制操作的类型,确定与所述第一控制操作对应的方向控制指令,所述方向控制指令用于控制所述至少一个虚拟对象模型的运动方向;根据所述方向控制指令中包括的运动方向参数,确定所述至少一个虚拟对象模型的运动方向。
在一些实施例中,所述确定模块还用于:在检测到所述第一控制操作为在显示屏上对所述虚拟对象模型所在区域进行的点击操作或长按操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型沿设定方向前进;在检测到所述第一控制操作为在所述显示屏上对所述虚拟对象模型进行的拖动操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型按照所述拖动操作的拖动方向运动;在检测到所述第一控制操作为人脸移动操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型按照所述人脸移动操作的移动方向运动。
在一些实施例中,所述确定模块还用于:根据所述第二控制操作的类型,确定与所述第二控制操作对应的速度控制指令,所述速度控制指令用于控制所述至少一个虚拟对象模型的运动速度;根据所述速度控制指令中包括的运动速度参数,确定所述至少一个虚拟对象模型的运动速度。
在一些实施例中,所述确定模块还用于:在检测到所述第二控制操作为在显示屏上对所述虚拟对象模型所在区域进行的点击操作的情况下,基于所述点击操作的点击频率,确定所述速度控制指令中的运动速度参数;在检测到所述第二控制操作为眨眼操作的情况下,基于所述眨眼操作的眨眼频率,确定所述速度控制指令中的运动速度参数。
在一些实施例中,所述装置还包括:启动模块,用于响应于对所述增强现实环境的启动操作,进入所述增强现实环境;所述第一显示模块还用于响应于在所述增强现实环境中识别到目标标记对象,在所述增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型。
以上装置实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本公开装置实施例中未披露的技术细节,请参照本公开方法实施例的描述而理解。
本公开涉及增强现实领域,通过获取现实环境中的目标对象的图像信息,进而借助各类视觉相关算法实现对目标对象的相关特征、状态及属性进行检测或识别处理,从而得到与具体应用匹配的虚拟与现实相结合的AR效果。示例性的,目标对象可涉及与人体相关的脸部、肢体、手势、动作等,或者与物体相关的标识物、标志物,或者与场馆或场所相关的沙盘、展示区域或展示物品等。视觉相关算法可涉及视觉定位、SLAM、三维重建、图像注册、背景分割、对象的关键点提取及跟踪、对象的位姿或深度检测等。具体应用不仅可以涉及跟真实场景或物品相关的导览、导航、讲解、重建、虚拟效果叠加展示等交互场景,还可以涉及与人相关的特效处理,比如妆容美化、肢体美化、特效展示、虚拟模型展示等交互场景。可通过卷积神经网络,实现对目标对象的相关特征、状态及属性进行检测或识别处理。上述卷积神经网络是基于深度学习框架进行模型训练而得到的网络模型。
需要说明的是,本公开实施例中,如果以软件功能模块的形式实现上述的交互方法,并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开实施例的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机、服务器、或者网络设备等)执行本公开各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本公开实施例不限制于任何特定的硬件和软件结合。
对应地,本公开实施例提供一种电子设备,包括显示屏;存储器,用于存储可执行计算机程序;处理器,用于执行所述存储器中存储的可执行计算机程序时,结合所述显示屏实现上述的显示方法中的步骤。
对应地,本公开实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述方法中的步骤。
这里需要指出的是:以上存储介质和设备实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本公开存储介质和设备实施例中未披露的技术细节,请参照本公开方法实施例的描述而理解。
需要说明的是,图8为本公开实施例中电子设备的一种硬件实体示意图,如图8所示,该电子设备800的硬件实体包括:显示屏801、存储器802和处理器803,其中,显示屏801、存储器802和处理器803通过通信总线804连接;存储器802,用于存储可执行计算机程序;处理器803,用于执行存储器802中存储的可执行计算机程序时,结合显示屏801,实现本公开实施例提供的方法,例如,本公开实施例提供的显示方法。
存储器802可以配置为存储由处理器803可执行的指令和应用,还可以缓存待处理器803以及电子设备800中各模块待处理或已经处理的数据(例如,图像数据、音频数据、语音通信数据和视频通信数据),可以通过闪存(FLASH)或随机访问存储器(Random AccessMemory,RAM)实现。
本公开实施例提供一种计算机可读存储介质,其上存储有计算机程序,用于引起处理器803执行时,实现本公开实施例提供的方法,例如,本公开实施例提供的显示方法。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本公开的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。应理解,在本公开的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。上述本公开实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
在本公开所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本公开实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(Read Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本公开上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机、服务器、或者网络设备等)执行本公开各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本公开的实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本公开的保护范围之内。
Claims (13)
1.一种交互方法,其特征在于,包括:
响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型;
响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数;
在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。
2.根据权利要求1所述的方法,其特征在于,所述至少一个虚拟对象模型包括第一虚拟对象模型;
所述响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数,包括:
响应于对所述第一虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述第一虚拟对象模型的第一运动参数。
3.根据权利要求2所述的方法,其特征在于,所述至少一个虚拟对象模型还包括所述第二虚拟对象模型;所述方法还包括:
获取所述第二虚拟对象模型的预设的第二运动参数;
所述在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果,包括:
在所述增强现实环境中展示所述第一虚拟对象模型按照所述第一运动参数进行运动,且所述第二虚拟对象模型按照预设的第二运动参数进行运动的增强现实效果。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述控制操作包括以下至少之一:手势操作、人脸控制操作、语音控制操作、按键控制操作、屏幕触摸控制操作。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述运动参数包括运动方向和/或运动速度;
所述控制操作包括用于控制所述虚拟对象模型的运动方向的第一控制操作和/或用于控制所述虚拟对象模型的运动速度的第二控制操作。
6.根据权利要求5所述的方法,其特征在于,所述基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数,包括:
根据所述第一控制操作的类型,确定与所述第一控制操作对应的方向控制指令,所述方向控制指令用于控制所述至少一个虚拟对象模型的运动方向;
根据所述方向控制指令中包括的运动方向参数,确定所述至少一个虚拟对象模型的运动方向。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第一控制操作的类型,确定与所述第一控制操作对应的方向控制指令,包括;
在检测到所述第一控制操作为在显示屏上对所述虚拟对象模型所在区域进行的点击操作或长按操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型沿设定方向前进;
在检测到所述第一控制操作为在所述显示屏上对所述虚拟对象模型进行的拖动操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型按照所述拖动操作的拖动方向运动;
在检测到所述第一控制操作为人脸移动操作的情况下,确定所述方向控制指令用于控制所述虚拟对象模型按照所述人脸移动操作的移动方向运动。
8.根据权利要求6或7所述的方法,其特征在于,所述基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数,包括:
根据所述第二控制操作的类型,确定与所述第二控制操作对应的速度控制指令,所述速度控制指令用于控制所述至少一个虚拟对象模型的运动速度;
根据所述速度控制指令中包括的运动速度参数,确定所述至少一个虚拟对象模型的运动速度。
9.根据权利要求8所述的方法,其特征在于,所述根据所述第二控制操作的类型,确定与所述第二控制操作对应的速度控制指令,包括:
在检测到所述第二控制操作为在显示屏上对所述虚拟对象模型所在区域进行的点击操作的情况下,基于所述点击操作的点击频率,确定所述速度控制指令中的运动速度参数;
在检测到所述第二控制操作为眨眼操作的情况下,基于所述眨眼操作的眨眼频率,确定所述速度控制指令中的运动速度参数。
10.根据权利要求1至9任一所述的方法,其特征在于,所述方法还包括:
响应于对所述增强现实环境的启动操作,进入所述增强现实环境;
所述响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型,包括:
响应于在所述增强现实环境中识别到目标标记对象,在所述增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型。
11.一种交互装置,其特征在于,包括:
第一显示模块,用于响应于识别到目标标记对象,在增强现实环境中展示所述目标标记对象的至少一个虚拟对象模型;
确定模块,用于响应于对所述至少一个虚拟对象模型进行的控制操作,基于所述控制操作对应的控制指令,确定所述至少一个虚拟对象模型的运动参数;
第二显示模块,用于在所述增强现实环境中展示所述至少一个虚拟对象模型按照所述运动参数进行运动的增强现实效果。
12.一种电子设备,其特征在于,包括:
显示屏;存储器,用于存储可执行计算机程序;
处理器,用于执行所述存储器中存储的可执行计算机程序时,结合所述显示屏实现权利要求1至10中任一项所述的方法。
13.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,用于引起处理器执行时,实现权利要求1至10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111162420.6A CN113867531A (zh) | 2021-09-30 | 2021-09-30 | 交互方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111162420.6A CN113867531A (zh) | 2021-09-30 | 2021-09-30 | 交互方法、装置、设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113867531A true CN113867531A (zh) | 2021-12-31 |
Family
ID=79001165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111162420.6A Pending CN113867531A (zh) | 2021-09-30 | 2021-09-30 | 交互方法、装置、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113867531A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114416263A (zh) * | 2022-01-21 | 2022-04-29 | 北京字跳网络技术有限公司 | 一种处理方法、装置、电子设备及介质 |
CN114527870A (zh) * | 2022-01-14 | 2022-05-24 | 深圳市大富网络技术有限公司 | 一种基于vr/ar的用户操作方法、装置、系统及存储介质 |
CN114546108A (zh) * | 2022-01-14 | 2022-05-27 | 深圳市大富网络技术有限公司 | 一种基于vr/ar的用户操作方法、装置、系统及存储介质 |
CN115268655A (zh) * | 2022-08-22 | 2022-11-01 | 江苏泽景汽车电子股份有限公司 | 基于增强现实的交互方法、系统,车辆及存储介质 |
WO2023202357A1 (zh) * | 2022-04-20 | 2023-10-26 | 北京字跳网络技术有限公司 | 显示对象的运动控制方法及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110302537A (zh) * | 2019-07-10 | 2019-10-08 | 深圳市腾讯网域计算机网络有限公司 | 虚拟对象控制方法、装置、存储介质和计算机设备 |
CN112148188A (zh) * | 2020-09-23 | 2020-12-29 | 北京市商汤科技开发有限公司 | 增强现实场景下的交互方法、装置、电子设备及存储介质 |
CN112402971A (zh) * | 2020-12-01 | 2021-02-26 | 腾讯科技(深圳)有限公司 | 虚拟对象控制方法、装置、计算机设备及存储介质 |
-
2021
- 2021-09-30 CN CN202111162420.6A patent/CN113867531A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110302537A (zh) * | 2019-07-10 | 2019-10-08 | 深圳市腾讯网域计算机网络有限公司 | 虚拟对象控制方法、装置、存储介质和计算机设备 |
CN112148188A (zh) * | 2020-09-23 | 2020-12-29 | 北京市商汤科技开发有限公司 | 增强现实场景下的交互方法、装置、电子设备及存储介质 |
CN112402971A (zh) * | 2020-12-01 | 2021-02-26 | 腾讯科技(深圳)有限公司 | 虚拟对象控制方法、装置、计算机设备及存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114527870A (zh) * | 2022-01-14 | 2022-05-24 | 深圳市大富网络技术有限公司 | 一种基于vr/ar的用户操作方法、装置、系统及存储介质 |
CN114546108A (zh) * | 2022-01-14 | 2022-05-27 | 深圳市大富网络技术有限公司 | 一种基于vr/ar的用户操作方法、装置、系统及存储介质 |
CN114416263A (zh) * | 2022-01-21 | 2022-04-29 | 北京字跳网络技术有限公司 | 一种处理方法、装置、电子设备及介质 |
CN114416263B (zh) * | 2022-01-21 | 2023-09-15 | 北京字跳网络技术有限公司 | 一种处理方法、装置、电子设备及介质 |
WO2023202357A1 (zh) * | 2022-04-20 | 2023-10-26 | 北京字跳网络技术有限公司 | 显示对象的运动控制方法及设备 |
CN115268655A (zh) * | 2022-08-22 | 2022-11-01 | 江苏泽景汽车电子股份有限公司 | 基于增强现实的交互方法、系统,车辆及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113867531A (zh) | 交互方法、装置、设备及计算机可读存储介质 | |
CN106462242B (zh) | 使用视线跟踪的用户界面控制 | |
CN112379812B (zh) | 仿真3d数字人交互方法、装置、电子设备及存储介质 | |
US9591295B2 (en) | Approaches for simulating three-dimensional views | |
CN110716645A (zh) | 一种增强现实数据呈现方法、装置、电子设备及存储介质 | |
CN111897431B (zh) | 展示方法及装置、显示设备、计算机可读存储介质 | |
WO2016122973A1 (en) | Real time texture mapping | |
CN113721804A (zh) | 一种显示方法、装置、电子设备及计算机可读存储介质 | |
CN110908504B (zh) | 一种增强现实博物馆协作交互方法与系统 | |
CN107562186B (zh) | 基于注意力辨识进行情感运算的3d校园导览方法 | |
WO2022093939A1 (en) | Side-by-side character animation from realtime 3d body motion capture | |
CN105283824A (zh) | 用图像投影的虚拟交互 | |
JP7381581B2 (ja) | マシン相互作用 | |
CN114332374A (zh) | 一种虚拟显示方法、设备以及存储介质 | |
CN113359986A (zh) | 增强现实数据展示方法、装置、电子设备及存储介质 | |
US20170043256A1 (en) | An augmented gaming platform | |
CN113867528A (zh) | 显示方法、装置、设备及计算机可读存储介质 | |
CN111488090A (zh) | 交互方法、装置、交互系统、电子设备及存储介质 | |
CN116841391A (zh) | 数字人的交互控制方法、装置、电子设备和存储介质 | |
CN113963355B (zh) | Ocr文字识别方法、装置、电子设备及存储介质 | |
KR20140078083A (ko) | 증강 현실이 구현된 만화책 | |
CN114489337A (zh) | 一种ar互动方法、装置、设备及存储介质 | |
Fuyun et al. | A Natural Human-Computer Interaction Method In Virtual Roaming | |
Zakynthinou et al. | Computer vision meets metaverse | |
TWI839830B (zh) | 混合現實交互方法、裝置、電子設備及介質 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20211231 |