CN106648118A - 一种基于增强现实的虚拟教学方法与终端设备 - Google Patents
一种基于增强现实的虚拟教学方法与终端设备 Download PDFInfo
- Publication number
- CN106648118A CN106648118A CN201710062841.9A CN201710062841A CN106648118A CN 106648118 A CN106648118 A CN 106648118A CN 201710062841 A CN201710062841 A CN 201710062841A CN 106648118 A CN106648118 A CN 106648118A
- Authority
- CN
- China
- Prior art keywords
- user
- action
- model
- mentioned
- action model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例涉及增强现实技术领域,公开了一种基于增强现实的虚拟教学方法与终端设备。其中,该方法包括:对用户进行动作捕捉以获得所述用户的身体动作;根据所述用户的身体动作获取虚拟教学内容中与所述用户的身体动作匹配的标准动作模型;将所述匹配的标准动作模型根据所述用户的体型参数信息进行变换,以获得与所述用户的体型一致的用户动作模型;输出所述用户动作模型以使所述用户参考所述用户动作模型对身体动作进行调整。实施本发明实施例,可以将舞蹈、瑜伽、体操等动作学习内容通过与用户体型一致的用户动作模型展现,用户根据用户动作模型来调整自己的动作,以达到动作学习的目的。
Description
技术领域
本发明涉及增强现实技术领域,尤其涉及一种基于增强现实的虚拟教学方法与终端设备。
背景技术
随着社会的进步,城市化的程度不断推进,城市化不但为人们带来了更为舒适便捷的生活方式,也改变了人们的生活习惯。繁忙、时间碎片化与快节奏渐渐成为人们生活的主题。
在日常生活中,为了保持身体健康,人们有时想要通过学习舞蹈、健身操和瑜伽等运动来进行身体锻炼。然而,由于时间碎片化、生活节奏快,每周定时地抽出一段时间去参加健身房的教学课程变得愈发困难。
而在另一方面,随着图像处理技术和终端设备计算能力的提高,使得AR(Augmented Reality,增强现实)技术的广泛应用成为了可能。AR技术是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的可以在屏幕上把虚拟场景叠加在现实场景上进行显示,并允许用户与虚拟场景进行互动。
针对人们无暇抽出时间参加舞蹈、健身操和瑜伽等教学课程的问题,急需通过AR技术来予以解决。
发明内容
本发明实施例提供了一种基于增强现实的虚拟教学方法与终端设备,可以将舞蹈、瑜伽、体操等动作学习内容通过与用户体型一致的用户动作模型展现,用户根据用户动作模型来调整自己的动作,以达到动作学习的目的。
本发明实施例第一方面公开了一种基于增强现实的虚拟教学方法,包括:
对用户进行动作捕捉以获得所述用户的身体动作;
根据所述用户的身体动作获取虚拟教学内容中与所述用户的身体动作匹配的标准动作模型;
将所述匹配的标准动作模型根据所述用户的体型参数信息进行变换,以获得与所述用户的体型一致的用户动作模型;
输出所述用户动作模型以使所述用户参考所述用户动作模型对身体动作进行调整。
作为一种可选的实施方式,所述输出所述用户动作模型以使所述用户参考所述用户动作模型对身体动作进行调整,包括:
通过透视式头戴显示器配置的摄像头获取用户视角的图像;
分析所述用户视角的图像以确定所述用户动作模型在所述透视式头戴显示器上进行显示的位置信息;
将所述位置信息和所述用户动作模型输出至所述透视式头戴显示器以进行显示。
作为一种可选的实施方式,所述输出所述用户动作模型以使所述用户参考所述用户动作模型对身体动作进行调整,包括:
通过摄像机对所述用户进行拍摄以获取所述用户的全身图像;
将所述用户动作模型与所述用户的全身图像叠加以获得目标图像;
将所述目标图像输出至所述用户佩戴的沉浸式头戴显示器以进行显示。
作为一种可选的实施方式,所述将所述匹配的标准动作模型根据所述用户的体型参数信息进行变换,以获得与所述用户的体型一致的用户动作模型之前,所述方法还包括:
从多于一个角度获取所述用户的静态全身图像;
分析所述用户的静态全身图像以获取所述用户的所述体型参数信息;其中,所述体型参数信息包括:身高、臂长、腿长、臂围和腰围。
作为一种可选的实施方式,所述根据所述用户的身体动作获取虚拟教学内容中与所述用户的身体动作匹配的标准动作模型之前,所述方法还包括:
对教学者进行动作捕捉以获得所述教学者的身体动作;
根据所述教学者的身体动作生成所述虚拟教学内容中的所述标准动作模型。
本发明实施例第二方面公开了一种终端设备,包括:
第一捕捉单元,用于对用户进行动作捕捉以获得所述用户的身体动作;
第一获取单元,用于根据所述用户的身体动作获取虚拟教学内容中与所述用户的身体动作匹配的标准动作模型;
变换单元,用于将所述匹配的标准动作模型根据所述用户的体型参数信息进行变换,以获得与所述用户的体型一致的用户动作模型;
输出单元,用于输出所述用户动作模型以使所述用户参考所述用户动作模型对身体动作进行调整。
作为一种可选的实施方式,所述输出单元,包括:
第一获取子单元,用于通过透视式头戴显示器配置的摄像头获取用户视角的图像;
分析子单元,用于分析所述用户视角的图像以确定所述用户动作模型在所述透视式头戴显示器上进行显示的位置信息;
第一输出子单元,用于将所述位置信息和所述用户动作模型输出至所述透视式头戴显示器以进行显示。
作为一种可选的实施方式,所述输出单元,包括:
第二获取子单元,用于通过摄像机对所述用户进行拍摄以获取所述用户的全身图像;
图像处理子单元,用于将所述用户动作模型与所述用户的全身图像叠加以获得目标图像;
第二输出子单元,用于将所述目标图像输出至所述用户佩戴的沉浸式头戴显示器以进行显示。
作为一种可选的实施方式,所述终端设备还包括:
第二获取单元,用于从多于一个角度获取所述用户的静态全身图像;
分析单元,用于分析所述用户的静态全身图像以获取所述用户的所述体型参数信息;其中,所述体型参数信息包括:身高、臂长、腿长、臂围和腰围。
作为一种可选的实施方式,所述终端设备还包括:
第二捕捉单元,用于对教学者进行动作捕捉以获得所述教学者的身体动作;
生成单元,用于根据所述教学者的身体动作生成所述虚拟教学内容中的所述标准动作模型。
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明实施例中,对用户进行动作捕捉以获得所述用户的身体动作;根据所述用户的身体动作获取虚拟教学内容中与所述用户的身体动作匹配的标准动作模型;将所述匹配的标准动作模型根据所述用户的体型参数信息进行变换,以获得与所述用户的体型一致的用户动作模型;输出所述用户动作模型以使所述用户参考所述用户动作模型对身体动作进行调整。实施本发明实施例,可以将舞蹈、瑜伽、体操等动作学习内容通过与用户体型一致的用户动作模型展现,用户根据用户动作模型来调整自己的动作,以达到动作学习的目的。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例公开的一种基于增强现实的虚拟教学方法的流程示意图;
图2为本发明实施例公开的另一种基于增强现实的虚拟教学方法的流程示意图;
图3为本发明实施例公开的一种终端设备300的结构示意图;
图3A为本发明实施例公开的一种输出单元304的结构示意图;
图3B为本发明实施例公开的另一种输出单元304的结构示意图;
图4为本发明实施例公开的另一种终端设备400的结构示意图;
图5为本发明实施例公开的一种终端设备500实体装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部份实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同的对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法或设备固有的其他步骤或单元。
本发明实施例提供了一种基于增强现实的虚拟教学方法与终端设备,可以将舞蹈、瑜伽、体操等动作学习内容通过与用户体型一致的用户动作模型展现,用户根据用户动作模型来调整自己的动作,以达到动作学习的目的。以下分别进行详细说明。
请参阅图1,图1是本发明实施例公开的一种基于增强现实的虚拟教学方法的流程示意图。其中,图1所示的基于增强现实的虚拟教学方法可以包括以下步骤:
101、对用户进行动作捕捉以获得上述用户的身体动作。
本发明实施例中所公开的基于增强现实的虚拟教学方法可应用于终端设备,该终端设备可以是智能手机、平板电脑、个人数字助理(Personal Digital Assistant,PDA)、销售终端(Point of Sales,POS)、个人电脑和小型服务器等终端设备,本发明实施例后续不作复述。
本发明实施例中,终端设备可以配置有摄像头,来对用户进行实时拍摄,以进行实时的动作捕捉,获取用户的身体动作。并且,除了终端设备自身配置的摄像头以外,还可以通过单独的摄像头来获取视频图像;终端设备与该摄像头之间建立通信连接,以接收摄像头传输的视频图像,对视频图像进行轮廓提取、特征识别等模式识别处理,以获取用户的身体动作。
在进行动作捕捉时,可以采用光学动作捕捉的方式。光学式运动捕捉通过对目标上特定光点的监视和跟踪来完成运动捕捉的任务。因此,用户需要穿上单色的服装,在身体的关键部位,如关节、髋部、肘、腕等位置贴上一些特制的标志或发光点,视觉系统将识别和处理这些标志。系统定标后,相机连续拍摄用户的动作,并将图像序列保存下来,然后再进行分析和处理,识别其中的标志点,并计算其在每一瞬间的空间位置,进而得到其运动轨迹。为了得到准确的运动轨迹,相机应有较高的拍摄速率,一般要达到每秒60帧以上。
除了光学动作捕捉以外,本发明实施例中还可以采用电磁式运动捕捉、声学式运动捕捉、机械式运动捕捉和惯性导航式动作捕捉等方式来进行动作捕捉,具体采用何种方式,本发明实施例不作限定。
102、根据上述用户的身体动作获取虚拟教学内容中与上述用户的身体动作匹配的标准动作模型。
本发明实施例中,将舞蹈、体操和体育运动等的动作制作成虚拟教学内容,以通过增强现实技术来向用户展示上述虚拟教学内容。其具体的实现方式是,对舞蹈、体操和体育运动等的教学者进行动作捕捉以获得教学者的身体动作;然后获取教学者的身高、臂长、腿长等体型信息,用以将获取的动作模型进行标准化处理,再进行存储以获得上述虚拟教学内容。虚拟教学内容可类比于现在常用的教学视频,但并不是简单的视频拍摄,而是以三维身体模型展示的肢体动作。
在应用本发明实施例描述的虚拟教学方法时,用户首先完成一个动作,终端设备在对用户进行动作捕捉获取了用户动作之后,与虚拟教学内容中的标准动作模型进行对比,以确定用户想要学习的是哪个动作。
由于终端设备实时将标准动作模型与用户动作进行匹配,因此,用户完成动作的速度可以直接控制终端设备输出虚拟教学内容的速度,针对比较难的动作,用户可以放慢模型运动速度,让自己慢慢跟随模型的运动,保证运动动作的标准程度。
103、将上述匹配的标准动作模型根据上述用户的体型参数信息进行变换,以获得与上述用户的体型一致的用户动作模型。
在确定了与用户动作匹配的标准动作模型之后,终端设备根据用户的体型对标准动作模型进行变换,以获得与用户体型一致的用户动作模型。
除此之外,终端设备还可以获取用户的面部图像,将用户的面部特征也反映在上述用户动作模型上,即将用户动作模型表现为与用户的体貌特征一致。
104、输出上述用户动作模型以使上述用户参考上述用户动作模型对身体动作进行调整。
作为一种可选的实施方式,上述用户动作模型可以输出至用户佩戴的透视式头戴显示器来向用户进行展示。在通过透视式的头衔显示器来进行显示时,输出的用户动作模型需与用户视角的真实场景的尺寸匹配,从而为用户带来较强的代入感。举例来说,用户视角的场景可为表演舞台、运动场地或者体操练习房的镜子;以体操练习房的镜子为例,用户原本的视角可以看到镜子里反射的自己完成动作的图像,将上述用户动作模型在透视式头戴显示器上显示时,应当与用户镜子里反射的动作图像相重合,用户可以通过对比自己的动作与标准动作模型的差异之处,来纠正自己的动作。
因此,可以通过如下的方式来在透视式头戴显示器上输出用户动作模型:通过透视式头戴显示器配置的摄像头获取用户视角的图像;分析上述用户视角的图像以确定上述用户动作模型在上述透视式头戴显示器上进行显示的位置信息;将上述位置信息和上述用户动作模型输出至上述透视式头戴显示器以进行显示。
作为另一种可选的实施方式,上述用户动作模型可以输出至用户佩戴的沉浸式头戴显示器来向用户进行展示。可以通过如下的方式来在沉浸式头戴显示器上输出用户动作模型:通过摄像机对上述用户进行拍摄以获取上述用户的全身图像;将上述用户动作模型与上述用户的全身图像叠加以获得目标图像;将上述目标图像输出至上述用户佩戴的沉浸式头戴显示器以进行显示。
通过看视频、看镜子等方式来进行动作学习时,无法每时每刻都观察到自己的动作,并且也无法实时与标准动作进行比对;而通过沉浸式头戴显示器来向用户输出虚拟教学内容的方式,便可以解决这一问题。
由此可见,利用图1所描述的方法,可以将舞蹈、瑜伽、体操等动作学习内容通过与用户体型一致的用户动作模型展现,用户根据用户动作模型来调整自己的动作,以达到动作学习的目的。
请参阅图2,图2是本发明实施例公开的另一种基于增强现实的虚拟教学方法的流程示意图。如图2所示,该方法可以包括以下步骤:
201、对用户进行动作捕捉以获得上述用户的身体动作。
本发明实施例中,终端设备可以配置有摄像头,来对用户进行实时拍摄,以进行实时的动作捕捉,获取用户的身体动作。并且,除了终端设备自身配置的摄像头以外,还可以通过单独的摄像头来获取视频图像;终端设备与该摄像头之间建立通信连接,以接收摄像头传输的视频图像,对视频图像进行轮廓提取、特征识别等模式识别处理,以获取用户的身体动作。
在进行动作捕捉时,可以采用光学动作捕捉的方式。光学式运动捕捉通过对目标上特定光点的监视和跟踪来完成运动捕捉的任务。因此,用户需要穿上单色的服装,在身体的关键部位,如关节、髋部、肘、腕等位置贴上一些特制的标志或发光点,视觉系统将识别和处理这些标志。系统定标后,相机连续拍摄用户的动作,并将图像序列保存下来,然后再进行分析和处理,识别其中的标志点,并计算其在每一瞬间的空间位置,进而得到其运动轨迹。为了得到准确的运动轨迹,相机应有较高的拍摄速率,一般要达到每秒60帧以上。
202、根据上述用户的身体动作获取虚拟教学内容中与上述用户的身体动作匹配的标准动作模型。
在应用本发明实施例描述的虚拟教学方法时,用户首先完成一个动作,终端设备在对用户进行动作捕捉获取了用户动作之后,与虚拟教学内容中的标准动作模型进行对比,以确定用户想要学习的是哪个动作。
203、从多于一个角度获取上述用户的静态全身图像。
本发明实施例中,终端设备从多个角度拍摄用户的全身图像,通过角度和距离的测量方法,来获取用户的体型参数信息,其中,上述体型参数信息包括身高、臂长、腿长、臂围和腰围等。
204、分析上述用户的静态全身图像以获取上述用户的上述体型参数信息;其中,上述体型参数信息包括:身高、臂长、腿长、臂围和腰围。
205、将上述匹配的标准动作模型根据上述用户的体型参数信息进行变换,以获得与上述用户的体型一致的用户动作模型;
206、输出上述用户动作模型以使上述用户参考上述用户动作模型对身体动作进行调整。
作为一种可选的实施方式,上述用户动作模型可以输出至用户佩戴的透视式头戴显示器来向用户进行展示。在通过透视式的头衔显示器来进行显示时,输出的用户动作模型需与用户视角的真实场景的尺寸匹配,从而为用户带来较强的代入感。举例来说,用户视角的场景可为表演舞台、运动场地或者体操练习房的镜子;以体操练习房的镜子为例,用户原本的视角可以看到镜子里反射的自己完成动作的图像,将上述用户动作模型在透视式头戴显示器上显示时,应当与用户镜子里反射的动作图像相重合,用户可以通过对比自己的动作与标准动作模型的差异之处,来纠正自己的动作。
因此,可以通过如下的方式来在透视式头戴显示器上输出用户动作模型:通过透视式头戴显示器配置的摄像头获取用户视角的图像;分析上述用户视角的图像以确定上述用户动作模型在上述透视式头戴显示器上进行显示的位置信息;将上述位置信息和上述用户动作模型输出至上述透视式头戴显示器以进行显示。
作为另一种可选的实施方式,上述用户动作模型可以输出至用户佩戴的沉浸式头戴显示器来向用户进行展示。可以通过如下的方式来在沉浸式头戴显示器上输出用户动作模型:通过摄像机对上述用户进行拍摄以获取上述用户的全身图像;将上述用户动作模型与上述用户的全身图像叠加以获得目标图像;将上述目标图像输出至上述用户佩戴的沉浸式头戴显示器以进行显示。
由此可见,利用图2所描述的方法,可以将舞蹈、瑜伽、体操等动作学习内容通过与用户体型一致的用户动作模型展现,用户根据用户动作模型来调整自己的动作,以达到动作学习的目的。
请参阅图3,图3是本发明实施例公开的一种终端设备300的结构示意图。如图3所示,该终端设备可以包括:
第一捕捉单元301,用于对用户进行动作捕捉以获得上述用户的身体动作。
第一获取单元302,用于根据上述用户的身体动作获取虚拟教学内容中与上述用户的身体动作匹配的标准动作模型。
变换单元303,用于将上述匹配的标准动作模型根据上述用户的体型参数信息进行变换,以获得与上述用户的体型一致的用户动作模型。
输出单元304,用于输出上述用户动作模型以使上述用户参考上述用户动作模型对身体动作进行调整。
请参阅图3A,图3A为本发明实施例公开的一种输出单元304的结构示意图;如图3A所示,输出单元304包括:第一获取子单元3041、分析子单元3042和第一输出子单元3043。
其中,第一获取子单元3041,用于通过透视式头戴显示器配置的摄像头获取用户视角的图像;
分析子单元3042,用于分析上述用户视角的图像以确定上述用户动作模型在上述透视式头戴显示器上进行显示的位置信息;
第一输出子单元3043,用于将上述位置信息和上述用户动作模型输出至上述透视式头戴显示器以进行显示。
请参阅图3B,图3B为本发明实施例公开的另一种输出单元304的结构示意图;如图3B所示,输出单元304包括:第二获取子单元3044、图像处理子单元3045和第二输出子单元3046。
其中,第二获取子单元3044,用于通过摄像机对上述用户进行拍摄以获取上述用户的全身图像;
图像处理子单元3045,用于将上述用户动作模型与上述用户的全身图像叠加以获得目标图像;
第二输出子单元3046,用于将上述目标图像输出至上述用户佩戴的沉浸式头戴显示器以进行显示。
由此可见,图3所描述的终端设备,可以将舞蹈、瑜伽、体操等动作学习内容通过与用户体型一致的用户动作模型展现,用户根据用户动作模型来调整自己的动作,以达到动作学习的目的。
请一并参阅图4,图4是本发明实施例公开的另一种终端设备400的结构示意图。其中,图4所示的终端设备是由图3所示的终端设备进行优化得到的,与图3所示的终端设备相比,图4所示的终端设备还包括:
第二获取单元305,用于从多于一个角度获取上述用户的静态全身图像。
分析单元306,用于分析上述用户的静态全身图像以获取上述用户的上述体型参数信息;其中,上述体型参数信息包括:身高、臂长、腿长、臂围和腰围。
第二捕捉单元307,用于对教学者进行动作捕捉以获得上述教学者的身体动作。
生成单元308,用于根据上述教学者的身体动作生成上述虚拟教学内容中的上述标准动作模型。
由此可见,图4所描述的终端设备,可以将舞蹈、瑜伽、体操等动作学习内容通过与用户体型一致的用户动作模型展现,用户根据用户动作模型来调整自己的动作,以达到动作学习的目的。
请参阅图5,图5为本发明实施例公开的一种终端设备500的结构示意图。如图5所示,为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明实施例方法部分。该终端可以为包括手机、平板电脑、PDA(Personal DigitalAssistant,个人数字助理)、POS(Point of Sales,销售终端)、车载电脑等任意终端设备,以终端为手机为例:
图5示出的是与本发明实施例提供的终端相关的手机的部分结构的框图。参考图5,手机包括:射频(Radio Frequency,RF)电路501、存储器502、输入单元503、显示单元504、传感器505、音频电路506、无线保真(wireless fidelity,WiFi)模块507、处理器508、以及电源509等部件。本领域技术人员可以理解,图5中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图5对手机的各个构成部件进行具体的介绍:
RF电路501可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器508处理;另外,将设计上行的数据发送给基站。通常,RF电路501包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low NoiseAmplifier,LNA)、双工器等。此外,RF电路501还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GlobalSystem of Mobile communication,GSM)、通用分组无线服务(General Packet RadioService,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器502可用于存储软件程序以及模块,处理器508通过运行存储在存储器502的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器502可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器502可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元503可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元503可包括触控面板5031以及其他输入设备5032。触控面板5031,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板5031上或在触控面板5031附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板5031可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器508,并能接收处理器508发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板5031。除了触控面板5031,输入单元503还可以包括其他输入设备5032。具体地,其他输入设备5032可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元504可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元504可包括显示面板5041,可选的,可以采用液晶显示器(Liquid CrystalDisplay,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板5041。进一步的,触控面板5031可覆盖显示面板5041,当触控面板5031检测到在其上或附近的触摸操作后,传送给处理器508以确定触摸事件的类型,随后处理器508根据触摸事件的类型在显示面板5041上提供相应的视觉输出。虽然在图5中,触控面板5031与显示面板5041是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板5031与显示面板5041集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器505,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板5041的亮度,接近传感器可在手机移动到耳边时,关闭显示面板5041和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路506、扬声器5061,传声器5062可提供用户与手机之间的音频接口。音频电路506可将接收到的音频数据转换后的电信号,传输到扬声器5061,由扬声器5061转换为声音信号输出;另一方面,传声器5062将收集的声音信号转换为电信号,由音频电路506接收后转换为音频数据,再将音频数据输出处理器508处理后,经RF电路501以发送给比如另一手机,或者将音频数据输出至存储器502以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块507可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图5示出了WiFi模块507,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器508是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器502内的软件程序和/或模块,以及调用存储在存储器502内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器508可包括一个或多个处理单元;优选的,处理器508可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器508中。
手机还包括给各个部件供电的电源509(比如电池),优选的,电源可以通过电源管理系统与处理器508逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
前述实施例中,各步骤方法流程可以基于该终端设备的结构实现。其中应用层和操作系统内核均可视为处理器508的抽象化结构的组成部分。
在本发明实施例中,处理器508通过调用存储于存储器502中的程序代码,用于执行以下操作:
对用户进行动作捕捉以获得上述用户的身体动作;
根据上述用户的身体动作获取虚拟教学内容中与上述用户的身体动作匹配的标准动作模型;
将上述匹配的标准动作模型根据上述用户的体型参数信息进行变换,以获得与上述用户的体型一致的用户动作模型;
输出上述用户动作模型以使上述用户参考上述用户动作模型对身体动作进行调整。
作为一种可选的实施方式,处理器508通过调用存储于存储器502中的程序代码,通过如下方式输出上述用户动作模型以使上述用户参考上述用户动作模型对身体动作进行调整:
通过透视式头戴显示器配置的摄像头获取用户视角的图像;
分析上述用户视角的图像以确定上述用户动作模型在上述透视式头戴显示器上进行显示的位置信息;
将上述位置信息和上述用户动作模型输出至上述透视式头戴显示器以进行显示。
作为一种可选的实施方式,处理器508通过调用存储于存储器502中的程序代码,通过如下方式输出上述用户动作模型以使上述用户参考上述用户动作模型对身体动作进行调整:
通过摄像机对上述用户进行拍摄以获取上述用户的全身图像;
将上述用户动作模型与上述用户的全身图像叠加以获得目标图像;
将上述目标图像输出至上述用户佩戴的沉浸式头戴显示器以进行显示。
作为一种可选的实施方式,处理器508通过调用存储于存储器502中的程序代码,用于执行以下操作:
从多于一个角度获取上述用户的静态全身图像;
分析上述用户的静态全身图像以获取上述用户的上述体型参数信息;其中,上述体型参数信息包括:身高、臂长、腿长、臂围和腰围。
作为一种可选的实施方式,处理器508通过调用存储于存储器502中的程序代码,用于执行以下操作:
对教学者进行动作捕捉以获得上述教学者的身体动作;
根据上述教学者的身体动作生成上述虚拟教学内容中的上述标准动作模型。
由此可见,图5所描述的终端设备,可以将舞蹈、瑜伽、体操等动作学习内容通过与用户体型一致的用户动作模型展现,用户根据用户动作模型来调整自己的动作,以达到动作学习的目的。
值得注意的是,上述终端设备实施例中,所包括的各个单元只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
另外,本领域普通技术人员可以理解实现上述各方法实施例中的全部或部分步骤是可以通过程序来指令相关的硬件完成,相应的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明实施例揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (10)
1.一种基于增强现实的虚拟教学方法,其特征在于,包括:
对用户进行动作捕捉以获得所述用户的身体动作;
根据所述用户的身体动作获取虚拟教学内容中与所述用户的身体动作匹配的标准动作模型;
将所述匹配的标准动作模型根据所述用户的体型参数信息进行变换,以获得与所述用户的体型一致的用户动作模型;
输出所述用户动作模型以使所述用户参考所述用户动作模型对身体动作进行调整。
2.根据权利要求1所述方法,其特征在于,所述输出所述用户动作模型以使所述用户参考所述用户动作模型对身体动作进行调整,包括:
通过透视式头戴显示器配置的摄像头获取用户视角的图像;
分析所述用户视角的图像以确定所述用户动作模型在所述透视式头戴显示器上进行显示的位置信息;
将所述位置信息和所述用户动作模型输出至所述透视式头戴显示器以进行显示。
3.根据权利要求1所述方法,其特征在于,所述输出所述用户动作模型以使所述用户参考所述用户动作模型对身体动作进行调整,包括:
通过摄像机对所述用户进行拍摄以获取所述用户的全身图像;
将所述用户动作模型与所述用户的全身图像叠加以获得目标图像;
将所述目标图像输出至所述用户佩戴的沉浸式头戴显示器以进行显示。
4.根据权利要求1~3中任意一项所述方法,其特征在于,所述将所述匹配的标准动作模型根据所述用户的体型参数信息进行变换,以获得与所述用户的体型一致的用户动作模型之前,所述方法还包括:
从多于一个角度获取所述用户的静态全身图像;
分析所述用户的静态全身图像以获取所述用户的所述体型参数信息;其中,所述体型参数信息包括:身高、臂长、腿长、臂围和腰围。
5.根据权利要求1~3中任意一项所述方法,其特征在于,所述根据所述用户的身体动作获取虚拟教学内容中与所述用户的身体动作匹配的标准动作模型之前,所述方法还包括:
对教学者进行动作捕捉以获得所述教学者的身体动作;
根据所述教学者的身体动作生成所述虚拟教学内容中的所述标准动作模型。
6.一种终端设备,其特征在于,包括:
第一捕捉单元,用于对用户进行动作捕捉以获得所述用户的身体动作;
第一获取单元,用于根据所述用户的身体动作获取虚拟教学内容中与所述用户的身体动作匹配的标准动作模型;
变换单元,用于将所述匹配的标准动作模型根据所述用户的体型参数信息进行变换,以获得与所述用户的体型一致的用户动作模型;
输出单元,用于输出所述用户动作模型以使所述用户参考所述用户动作模型对身体动作进行调整。
7.根据权利要求6所述的终端设备,其特征在于,所述输出单元,包括:
第一获取子单元,用于通过透视式头戴显示器配置的摄像头获取用户视角的图像;
分析子单元,用于分析所述用户视角的图像以确定所述用户动作模型在所述透视式头戴显示器上进行显示的位置信息;
第一输出子单元,用于将所述位置信息和所述用户动作模型输出至所述透视式头戴显示器以进行显示。
8.根据权利要求6所述的终端设备,其特征在于,所述输出单元,包括:
第二获取子单元,用于通过摄像机对所述用户进行拍摄以获取所述用户的全身图像;
图像处理子单元,用于将所述用户动作模型与所述用户的全身图像叠加以获得目标图像;
第二输出子单元,用于将所述目标图像输出至所述用户佩戴的沉浸式头戴显示器以进行显示。
9.根据权利要求6~8中任意一项所述的终端设备,其特征在于,所述终端设备还包括:
第二获取单元,用于从多于一个角度获取所述用户的静态全身图像;
分析单元,用于分析所述用户的静态全身图像以获取所述用户的所述体型参数信息;其中,所述体型参数信息包括:身高、臂长、腿长、臂围和腰围。
10.根据权利要求6~8中任意一项所述的终端设备,其特征在于,所述终端设备还包括:
第二捕捉单元,用于对教学者进行动作捕捉以获得所述教学者的身体动作;
生成单元,用于根据所述教学者的身体动作生成所述虚拟教学内容中的所述标准动作模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710062841.9A CN106648118A (zh) | 2017-01-25 | 2017-01-25 | 一种基于增强现实的虚拟教学方法与终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710062841.9A CN106648118A (zh) | 2017-01-25 | 2017-01-25 | 一种基于增强现实的虚拟教学方法与终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106648118A true CN106648118A (zh) | 2017-05-10 |
Family
ID=58840770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710062841.9A Pending CN106648118A (zh) | 2017-01-25 | 2017-01-25 | 一种基于增强现实的虚拟教学方法与终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106648118A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107249030A (zh) * | 2017-06-13 | 2017-10-13 | 宁波美象信息科技有限公司 | 一种用电子装置作为vr的控制器体验方法 |
CN107293162A (zh) * | 2017-07-31 | 2017-10-24 | 广东欧珀移动通信有限公司 | 运动教学辅助方法及装置、终端设备 |
CN108961867A (zh) * | 2018-08-06 | 2018-12-07 | 南京南奕亭文化传媒有限公司 | 一种基于幼儿教育的多媒体交互系统 |
CN109005380A (zh) * | 2017-06-06 | 2018-12-14 | 松下电器(美国)知识产权公司 | 动态图像列表生成方法、程序以及服务器装置 |
CN109241909A (zh) * | 2018-09-06 | 2019-01-18 | 闫维新 | 一种基于智能终端的远程舞蹈动作捕捉评测系统 |
CN109327760A (zh) * | 2018-08-13 | 2019-02-12 | 北京中科睿芯科技有限公司 | 一种智能音响及其播放控制方法 |
CN109407826A (zh) * | 2018-08-31 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 球类运动模拟方法、装置、存储介质及电子设备 |
CN110414434A (zh) * | 2019-07-29 | 2019-11-05 | 努比亚技术有限公司 | 舞蹈练习方法、移动终端及计算机可读存储介质 |
CN110674794A (zh) * | 2018-11-08 | 2020-01-10 | 郭娜 | 一种全景舞蹈动作建模方法及舞蹈教学辅助系统 |
CN110719455A (zh) * | 2019-09-29 | 2020-01-21 | 深圳市火乐科技发展有限公司 | 视频投影方法及相关装置 |
CN111111143A (zh) * | 2018-10-31 | 2020-05-08 | 南京智能仿真技术研究院有限公司 | 基于增强现实技术的运动辅助系统 |
CN113012504A (zh) * | 2021-02-24 | 2021-06-22 | 宜春职业技术学院(宜春市技术工人学校) | 一种多人舞蹈教学互动投影方法、装置及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103794106A (zh) * | 2014-03-11 | 2014-05-14 | 哈尔滨工业大学 | 乐器演奏辅助教学系统 |
CN105404395A (zh) * | 2015-11-25 | 2016-03-16 | 北京理工大学 | 基于增强现实技术的舞台表演辅助训练方法及系统 |
CN106110627A (zh) * | 2016-06-20 | 2016-11-16 | 曲大方 | 体育和武术运动动作校正设备和方法 |
CN106297471A (zh) * | 2016-10-25 | 2017-01-04 | 深圳市科创数字显示技术有限公司 | Ar和vr相结合的可移动眼角膜智能手术培训系统 |
-
2017
- 2017-01-25 CN CN201710062841.9A patent/CN106648118A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103794106A (zh) * | 2014-03-11 | 2014-05-14 | 哈尔滨工业大学 | 乐器演奏辅助教学系统 |
CN105404395A (zh) * | 2015-11-25 | 2016-03-16 | 北京理工大学 | 基于增强现实技术的舞台表演辅助训练方法及系统 |
CN106110627A (zh) * | 2016-06-20 | 2016-11-16 | 曲大方 | 体育和武术运动动作校正设备和方法 |
CN106297471A (zh) * | 2016-10-25 | 2017-01-04 | 深圳市科创数字显示技术有限公司 | Ar和vr相结合的可移动眼角膜智能手术培训系统 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109005380A (zh) * | 2017-06-06 | 2018-12-14 | 松下电器(美国)知识产权公司 | 动态图像列表生成方法、程序以及服务器装置 |
CN107249030A (zh) * | 2017-06-13 | 2017-10-13 | 宁波美象信息科技有限公司 | 一种用电子装置作为vr的控制器体验方法 |
CN107293162A (zh) * | 2017-07-31 | 2017-10-24 | 广东欧珀移动通信有限公司 | 运动教学辅助方法及装置、终端设备 |
CN108961867A (zh) * | 2018-08-06 | 2018-12-07 | 南京南奕亭文化传媒有限公司 | 一种基于幼儿教育的多媒体交互系统 |
CN109327760A (zh) * | 2018-08-13 | 2019-02-12 | 北京中科睿芯科技有限公司 | 一种智能音响及其播放控制方法 |
CN109407826A (zh) * | 2018-08-31 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 球类运动模拟方法、装置、存储介质及电子设备 |
CN109407826B (zh) * | 2018-08-31 | 2020-04-07 | 百度在线网络技术(北京)有限公司 | 球类运动模拟方法、装置、存储介质及电子设备 |
CN109241909A (zh) * | 2018-09-06 | 2019-01-18 | 闫维新 | 一种基于智能终端的远程舞蹈动作捕捉评测系统 |
CN111111143A (zh) * | 2018-10-31 | 2020-05-08 | 南京智能仿真技术研究院有限公司 | 基于增强现实技术的运动辅助系统 |
CN110674794A (zh) * | 2018-11-08 | 2020-01-10 | 郭娜 | 一种全景舞蹈动作建模方法及舞蹈教学辅助系统 |
CN110414434A (zh) * | 2019-07-29 | 2019-11-05 | 努比亚技术有限公司 | 舞蹈练习方法、移动终端及计算机可读存储介质 |
CN110719455A (zh) * | 2019-09-29 | 2020-01-21 | 深圳市火乐科技发展有限公司 | 视频投影方法及相关装置 |
CN113012504A (zh) * | 2021-02-24 | 2021-06-22 | 宜春职业技术学院(宜春市技术工人学校) | 一种多人舞蹈教学互动投影方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106648118A (zh) | 一种基于增强现实的虚拟教学方法与终端设备 | |
CN107786732A (zh) | 终端应用推送方法、移动终端及计算机可读存储介质 | |
CN108196778A (zh) | 屏幕状态的控制方法、移动终端及计算机可读存储介质 | |
CN107835367A (zh) | 一种图像处理方法、装置及移动终端 | |
CN108093171A (zh) | 一种拍照方法、终端及计算机可读存储介质 | |
CN108108704A (zh) | 人脸识别方法及移动终端 | |
CN110505403A (zh) | 一种录像处理方法及装置 | |
CN110365907A (zh) | 一种拍照方法、装置及电子设备 | |
CN110072061A (zh) | 一种交互式拍摄方法、移动终端及存储介质 | |
CN113365085B (zh) | 一种直播视频生成方法及装置 | |
CN108683850A (zh) | 一种拍摄提示方法及移动终端 | |
CN109194874A (zh) | 拍照方法、装置、终端及计算机可读存储介质 | |
CN106713840A (zh) | 虚拟信息显示方法及装置 | |
CN107767430A (zh) | 一种拍摄处理方法、终端及计算机可读存储介质 | |
CN107948430A (zh) | 一种显示控制方法、移动终端及计算机可读存储介质 | |
CN110097872A (zh) | 一种音频处理方法及电子设备 | |
CN108462826A (zh) | 一种辅助拍照的方法及移动终端 | |
CN108881544A (zh) | 一种拍照的方法及移动终端 | |
CN106598237A (zh) | 一种基于虚拟现实的游戏交互方法及装置 | |
CN110519699A (zh) | 一种导航方法及电子设备 | |
CN108037885A (zh) | 一种操作提示方法及移动终端 | |
CN110113532A (zh) | 一种拍摄控制方法、终端及计算机可读存储介质 | |
CN107770450A (zh) | 图像处理方法、装置及终端设备 | |
CN110086993A (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
CN110099218A (zh) | 一种拍摄过程中的交互操控方法、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170510 |
|
RJ01 | Rejection of invention patent application after publication |