CN101840587A - 利用运动数据和图像数据生成骨架模型的设备和方法 - Google Patents
利用运动数据和图像数据生成骨架模型的设备和方法 Download PDFInfo
- Publication number
- CN101840587A CN101840587A CN201010003173A CN201010003173A CN101840587A CN 101840587 A CN101840587 A CN 101840587A CN 201010003173 A CN201010003173 A CN 201010003173A CN 201010003173 A CN201010003173 A CN 201010003173A CN 101840587 A CN101840587 A CN 101840587A
- Authority
- CN
- China
- Prior art keywords
- user
- joint
- data
- outline
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20044—Skeletonization; Medial axis transform
Abstract
本发明提供一种利用运动数据和图像数据生成骨架模型的设备和方法。生成骨架模型的设备可对图像数据和运动数据进行同步,利用从图像数据提取的剪影并且利用从运动数据提取的用户的关节的位置或取向来生成用户的全身的三维(3D)骨架模型。可利用图像数据和运动数据来生成所述骨架模型,从而提高用户的全身的骨架模型的精确度。
Description
本申请要求于2009年3月17日提交到韩国知识产权局的第10-2009-0022506号韩国专利申请的优先权,该申请的公开通过引用合并于此。
技术领域
示例实施例涉及一种在虚拟现实(virtual reality)中对用户进行建模的技术,更具体地讲,涉及一种利用从图像传感器和运动传感器采集的数据来关于用户的全身生成三维(3D)骨架模型(skeleton model)的设备和方法。
背景技术
当前,已经提出各种利用虚拟现实的技术。具体地讲,通过检测用户的运动来在虚拟现实中反映用户的实际运动的技术已经引起关注。对于与虚拟环境(如游戏等)交互而言,用户的全身的轨迹会是重要的工具。
在传统技术中,有许多检测用户运动的方法。例如,有通过在用户的全身附着众多标记,或者通过简单地捕捉用户的图像,来对用户的运动建模的方法。
在利用标记的方法中,可能由于用户活动的减少而难以精确地测量用户的运动,或者当标记由于掩蔽而不可见时,可能无法测量用户的运动。此外,不管传感器数量如何,可能需要利用特定姿态的校准。在捕捉用户的方法中,当拍摄装置的数量相对少时,3维(3D)位置的准确度会变差,当用户的全身的部位重叠时,可能难以对用户的运动建模。此外,可能无法针对用户的关节检测位置或取向。
因此,需要一种更有效地对用户的全身建模的方法。
发明内容
根据示例实施例,可提供一种生成骨架模型的设备,该设备包括:数据同步单元,分别对由图像传感器采集的用户的图像数据和由运动传感器采集的用户的运动数据执行同步;剪影提取单元,从同步的图像数据提取用户的剪影;关节信息计算单元,从同步的运动数据计算用户的关节的位置或取向;骨架模型生成单元,利用所述剪影和用户的关节的位置或取向,生成用户的全身的三维(3D)骨架模型。
在这种情况下,骨架模型生成单元可基于所述剪影,从用户的关节的位置或取向来生成用户的全身的3D骨架模型。
此外,骨架模型生成单元可基于用户的关节的位置或取向,从所述剪影来生成用户的全身的3D骨架模型。
此外,骨架模型生成单元可利用从剪影提取的3D骨架模型和从用户的关节的位置或取向提取的3D骨架模型中的每一个的误差范围,来生成用户全身的3D骨架模型。
根据示例实施例,提供一种生成骨架模型的方法,该方法包括:分别对由图像传感器采集的用户的图像数据和由运动传感器采集的用户的运动数据执行同步;从同步的图像数据提取用户的剪影;从同步的运动数据计算用户的关节的位置或取向;利用所述剪影和用户的关节的位置或取向,生成用户的全身的3D骨架模型。
示例实施例的另外的方面、特征和/或优点将通过下面的描述被部分地阐述,并且部分地将从描述变得明显,或者可通过本公开的实践而了解。
附图说明
通过下面结合附图对实施例的描述,本发明的这些和/或其他方面和优点将变得明显并更易于理解,其中:
图1示出根据示例实施例的用于生成骨架模型的设备的整体构造的框图;
图2示出根据示例实施例的利用图像传感器和运动传感器关于用户的全身生成三维(3D)骨架模型的过程;
图3示出根据示例实施例的采集用户的图像数据和用户的运动数据的示例;
图4示出根据示例实施例在图像数据和运动数据之间执行空间同步的处理的示图;
图5示出根据示例实施例的在图像数据和运动数据之间执行时间同步的处理的示图;
图6示出根据示例实施例的基于运动数据利用图像数据生成3D骨架模型的处理的示图;
图7示出根据示例实施例的基于图像数据利用运动数据生成3D骨架模型的处理的示图;
图8示出根据示例实施例的利用从2个3D骨架模型生成的误差范围来提炼3D骨架模型的处理的示图;
图9示出根据示例实施例的生成骨架模型的方法的整个过程的流程图。
具体实施方式
现在将详细说明一个或多个实施例,其示出于附图中,在附图中,相同的标号始终表示相同的部件。以下参照附图描述示例实施例以解释本公开。
图1示出根据示例实施例的用于生成骨架模型的设备100的整体构造的框图。
参照图1,设备100可包括数据同步单元101、剪影(silhouette)提取单元102、关节信息计算单元103和骨架模型生成单元104。
设备100可利用用户的图像数据和用户的运动数据来生成用户的全身的三维(3D)骨架模型,然后通过生成的3D骨架模型来检测用户的全身,从而获得用户的运动的轨迹。
数据同步单元101可在由图像传感器107采集的用户的图像数据和由运动传感器108采集的用户的运动数据之间执行同步。设备100在生成3D骨架模型时可通过数据的同步来交叉参照(cross-reference)图像数据和运动数据。
例如,图像传感器107可表示拍摄用户以采集用户数据的装置(例如,照相机、摄像机等)。在这种情况下,图像传感器107可包括深度图像传感器和颜色图像传感器,其中深度图像传感器关于用户采集深度图像数据(3D),颜色图像传感器关于用户采集颜色图像数据(2D)。根据示例实施例,运动传感器108可被安装在构成用户的多个关节的部位中。
参照图1,数据同步单元101可包括空间同步单元105和时间同步单元106。
空间同步单元105可对数据的位置信息进行同步,以在相同的位置交叉参照在不同位置采集的图像数据和运动数据。例如,空间同步单元105可通过基于预定的参考位置转换图像数据中的运动传感器108的位置以及运动数据中的运动传感器108的位置,来对数据的位置信息进行同步。在这种情况下,参考位置可以指定世界坐标上的原点。具体地讲,空间同步单元105可将运动传感器108的本地坐标转换为世界坐标,还将图像传感器107的本地坐标转换为世界坐标,从而交叉参照由运动传感器108采集的运动数据和由图像传感器107采集的图像数据。
时间同步单元106可对图像数据的时间信息和运动数据的时间信息进行同步,以在相同的时间交叉参照在不同时间采集的图像数据和运动数据。例如,时间同步单元106可利用数据插值来对图像数据的时间信息和运动数据的时间信息进行同步。具体地讲,时间同步单元106可调节运动传感器108和图像传感器107之间在数据获取时间上的差异。
剪影提取单元102可从同步的图像数据提取用户的剪影。
关节信息计算单元103可从同步的运动数据计算用户关节的位置或取向(orientation)。
骨架模型生成单元104可利用用户关节的位置或取向,并且还利用所述剪影,来生成用户的全身的3D骨架模型。
根据示例实施例,骨架模型生成单元104可参照剪影信息从用户的关节的位置或取向来生成用户全身的3D骨架模型。在这种情况下,骨架模型生成单元104可利用逆运动学(Inverse-Kinematics),从运动数据中所包括的用户关节的位置或取向计算用户剩余关节的解(solution),并且当所述解是多个时,选择包括在剪影的范围内的最佳解。
根据示例实施例,骨架模型生成单元104可基于用户关节的位置或取向从剪影生成用户全身的3D骨架模型。在这种情况下,骨架模型生成单元104可利用从剪影提取的参考点,并且还利用运动数据中所包括的用户关节的位置或取向,来确定包括在剪影的范围内的用户的剩余关节。
根据其它示例实施例,骨架模型生成单元104可利用从剪影提取的3D骨架模型和从用户关节的位置或取向提取的3D骨架模型中的每一个3D骨架模型的误差范围,来生成用户全身的3D骨架模型。在这种情况下,骨架模型生成单元104可将从剪影提取的3D骨架模型和从用户关节的位置或取向提取的3D骨架模型中的每一个3D骨架模型的误差范围结合,并选择具有最小误差的位置。
图2示出根据示例实施例的利用图像传感器和运动传感器关于用户的全身生成三维(3D)骨架模型的过程。
参照图2的操作(I),至少一个图像传感器可采集用户的图像数据。具体地讲,图像传感器可对用户进行拍摄以获得用户的图像。例如,图像传感器可以是深度图像传感器或颜色图像传感器。在这种情况下,图像传感器可被设置在预定距离处,并获得多视点图像数据。
参照图2的操作(II),至少一个运动传感器可采集用户的运动数据。根据示例实施例,运动传感器可被附着在用户上。在这种情况下,运动传感器可被附着在用户的关节上。然而,由于当运动传感器被附着在用户的所有关节上时,检测用户的全身所需的处理时间可能相对较长,所以运动传感器可仅被附着在一些关节上。
参照图2的操作(III)和图1,设备100可对图像数据和运动数据执行空间同步和时间同步,使得由图像传感器107采集的图像数据和由运动传感器108采集的运动数据被交叉参照。将参照图4进一步描述空间同步,将参照图5进一步描述时间同步。
参照图2的操作(IV)和图1,设备100可从图像数据提取用户的剪影。当图像传感器107再次获得多视点图像数据时,可以每一视点地提取剪影。
参照图2的操作(V)和图1,设备100可从运动数据计算用户的关节的位置或取向。在这种情况下,设备100可计算附着有运动传感器108的用户关节的位置或取向。
参照图2的操作(VI)和图1,设备100可利用用户关节的位置或取向,并且还利用提取的剪影,来生成用户的全身的3D骨架模型。在这种情况下,设备100可确定关于图2的操作(V)中没有计算的剩余关节的信息,从而生成包括用户全身的关节的3D骨架模型。
参照图2的操作(VII)和图1,设备100可利用生成的3D骨架模型输出每一时间情形下的3D骨架模型的全身的运动轨迹。具体地讲,设备100可将用户全身的实时运动应用到虚拟的3D骨架模型。
图3示出根据示例实施例的采集用户的图像数据和用户的运动数据的示例。
参照图3,可设置采集图像数据的图像传感器301-1、301-2和301-3,以拍摄用户300的全身。可将采集运动数据的运动传感器302附着在用户300的特定部位303-1、303-2、303-3、303-4和303-5上。在这种情况下,图像传感器301-1至301-3可以是关于用户300采集颜色图像数据的颜色图像传感器或者关于用户300采集深度图像数据的深度图像传感器。可存在至少一个图像传感器。
例如,运动传感器302可被附着在用户300的边缘部位,如头部303-1、手部303-2和303-3、脚部303-4和303-5等上。上面提及的附着有运动传感器302的用户300的部位仅是示例,运动传感器302可被附着在用户300的不同身体部位上。
图4示出根据示例实施例在图像数据和运动数据之间执行空间同步的处理的示图。
骨架模型生成单元100(图1)可在由图像传感器107(图1)采集的用户的图像数据和由运动传感器108(图1)采集的用户的运动数据之间执行同步。例如,设备100(图1)可对数据的位置信息进行同步,使得在不同位置采集的图像数据和运动数据在相同的位置被交叉参照。在这种情况下,设备100(图1)可基于预定的参考位置转换图像数据中的运动传感器108(图1)的位置和运动数据中的运动传感器108(图1)的位置,从而对数据的位置信息进行同步。
参照图4,图像传感器401可拍摄用户404的全身。在这种情况下,由图像传感器401采集的图像数据可包含运动传感器402的位置信息。如图4所示,在图像数据中运动传感器402的位置可对应于点(5,-12,3)。此外,由运动传感器402采集的运动数据可包含运动传感器402的位置信息。如图4所示,在运动数据中的运动传感器402的位置可对应于点(6,0,-10)。具体地讲,由于被定位在不同的点,所以关于相同的位置,图像数据和运动数据可具有不同的位置值。
根据示例实施例,为了生成用户的全身的3D骨架模型,设备100(图1)可关于相同的参考点执行坐标转换,以交叉参照图像数据和运动数据。图像数据可由图像传感器401的本地坐标配置,运动数据可由运动传感器402的本地坐标配置。相反,设备100(图1)可将由图像传感器401的本地坐标和运动传感器402的本地坐标配置的数据匹配到相同的世界坐标。在这种情况下,世界坐标可以指关于参考点403(0,0,0)实现的坐标。
参照图4,图像数据中关于运动传感器的位置的点(5,-12,3)可被转换为关于参考点403的点(3,4,5),运动数据中关于运动传感器的位置的点(6,0,-10)可被转换为关于参考点403的点(3,4,5)。以这样的方式,可在连续输入的图像数据和运动数据中同样地应用坐标转换。
图5示出根据示例实施例的在图像数据和运动数据之间执行时间同步的处理的示图。
参照图5,随时间示出了运动数据的采集时间点和图像数据的采集时间点。由于运动传感器108(图1)和图像传感器107(图1)之间的数据采集比率可不同,所以采集时间点可不同。设备100(图1)可交叉参照图像数据和运动数据,以生成3D骨架模型。
在从运动数据501生成3D骨架模型时参照图像数据的情况下,设备100(图1)可利用分别在0.1秒和0.2秒采集的图像数据生成与运动数据501的采集时间点对应的图像数据502。随后,设备100(图1)可在参照生成的图像数据502的同时,生成用户的全身的骨架模型。
相反,在从图像数据503生成3D骨架模型时参照运动数据的情况下,设备100(图1)可利用分别在0.18秒和0.21秒采集的运动数据生成与图像数据503的采集时间点对应的运动数据504。随后,设备100(图1)可在参照生成的运动数据504的同时,生成用户的全身的骨架模型。
例如,设备100(图1)可利用数据插值对图像数据和运动数据的时间信息进行同步。参照图1和图5,设备100可对分别在0.1秒和0.2秒采集的图像数据进行插值,以生成与运动数据501的采集时间点对应的图像数据502。另外,设备100可对分别在0.18秒和0.21秒采集的运动数据进行插值,以生成与图像数据503的采集时间点对应的运动数据504。
图6至图8示出利用运动数据和图像数据生成3D骨架模型的处理。
图6示出根据示例实施例的基于运动数据利用图像数据生成3D骨架模型的处理的示图。具体地讲,在图6中,详细描述在关于运动数据生成3D骨架模型时参照图像数据的处理。
例如,设备100(图1)可在参照剪影的同时,从用户的关节的位置或取向生成用户的全身的3D骨架模型。在这种情况下,设备100(图1)可利用逆运动学,从运动数据中所包括的用户关节的位置或取向计算剩余关节的解。在这种情况下,当所述解是多个时,设备100(图1)可选择包括在剪影的范围内的最佳解。
参照图6的操作(I)和图1,示出了与运动传感器108的位置对应的关节602。这里,运动数据可包括关于关节602的六轴信息(位置和取向)或者三轴信息(取向或位置)。在这种情况下,当设备100可将特定位置设置为参考点601,以应用逆运动学时,可创建关于剩余关节的多个解603-1、603-2和603-3。
参照图6的操作(II)和图1,示出了与运动传感器108的位置对应的关节602。在这种情况下,设备100可利用从图像数据提取的剪影来提取参考点604。当从用户的关节602的位置或取向关于参考点604应用逆运动学时,可创建关于剩余关节的多个解。例如,设备100可计算与所述多个解(包括603-1和603-2)中,被包括在剪影范围内的解603-3对应的用户关节的位置或取向。
当使用从单个图像传感器采集的剪影时,设备100可计算运动传感器108的位置(关节602的位置)与解603-3之间的二维(2D)距离。另外,当使用从多个图像传感器采集的剪影时,设备100可计算运动传感器108的位置(关节602的位置)与剪影603-3之间的3D距离。
根据示例实施例,设备100可通过多个解中被包括在剪影范围内的解来生成3D骨架模型,从而利用具有最小误差的最佳解来提高3D骨架模型的准确度。
图7示出根据示例实施例的基于图像数据利用运动数据生成3D骨架模型的处理的示图。具体地讲,在图7中,将详细描述在关于运动数据生成3D骨架模型时参照图像数据的处理。
例如,设备100(图1)可在参照用户关节的位置或取向的同时,从剪影生成用户的全身的3D骨架模型。在这种情况下,设备100(图1)可利用从剪影提取的参考点,并且还利用运动数据中所包括的关节的位置或取向,来确定包括在剪影范围内的剩余关节。
参照图7的操作(I)和图1,设备100可从自图像数据提取的剪影中提取参考点701。另外,设备100可利用运动数据中所包括的关节702的位置和取向来对3D骨架模型进行初始化。具体地讲,通过关节703将参考点701与关节702彼此连接,从而对3D骨架模型进行初始化。
参照图7的操作(II)和图1,设备100可设置参考点701以及关节702的位置,然后生成使剩余关节703中的匹配误差最小的3D骨架模型。在图7的操作(I)的剩余关节703中,在图7的操作(II)的剪影的范围内所包括的剩余关节703的位置,匹配误差可最小。
根据示例实施例,通过利用运动数据中所包括的关节702的位置或取向,设备100可以对这样的复杂处理进行简化,从而提高处理速度,所处复杂处理指:从能够在参考点701中生成的所有位置和取向确定剩余关节703,然后从能够再次从剩余关节703生成的所有位置和取向确定关节702。另外,通过交叉利用图像数据和运动数据,设备100可防止关节的漂移,从而提高3D骨架模型的准确度。
图8示出根据示例实施例的利用误差范围生成3D骨架模型的处理的示图。
例如,设备100(图1)可利用从用户关节的位置或取向提取的3D骨架模型和从剪影提取的3D骨架模型中的每一个的误差范围,生成用户的全身的3D骨架模型。在这种情况下,设备100(图1)可将从剪影提取的3D骨架模型和从用户关节的位置或取向提取的3D骨架模型中的每一个的误差范围结合,选择具有最小误差的位置。
参照图8的操作(I),示出了从关节的位置或取向提取的每一3D骨架模型的误差范围。参照图8的操作(II),示出了从剪影提取的每一3D骨架模型的误差范围。在这种情况下,误差范围可表示用户的关节实际存在的概率。例如,误差范围可指定关于用户的关节实际存在的概率的高斯函数分布。
参照图8的操作(I),在从运动数据中所包括的关节的位置或取向提取的3D骨架模型中,示出了关节801的误差范围809和关节802的误差范围808。在这种情况下,误差范围808和误差范围809可根据运动传感器108(图1)的跟踪质量而不同。如图8的操作(I)所示,关节801的位置可指示用户的关节实际存在的概率相对高,关节802的位置可指示用户的关节实际存在的概率相对高。
参照图8的操作(II),在利用从图像数据提取的剪影812生成的3D骨架模型中,示出了关节803的误差范围810和关节804的误差范围811。在这种情况下,误差范围810和误差范围811可包括关节的误差范围和掩蔽时的估计的误差范围。关节803和关节802可存在于用户全身的相似位置中。另外,关节801和关节804可存在于用户全身的相似位置中。
参照图8的操作(III),示出了将误差范围810和误差范围808结合的结果以及将误差范围809和误差范围811结合的结果。当如图8的操作(III)所示将误差范围810和误差范围808结合时,可选择具有最小误差的关节807,当将误差范围809和误差范围811结合时,可选择具有最小误差的关节806。具体地讲,最终3D骨架模型的关节可被确定在具有高可靠性的关节807和关节806的位置。
根据示例实施例,通过将从图像数据和运动数据中的每一个生成的3D骨架模型的误差范围结合,可选择具有高可靠性的信息,从而提高用户全身的3D骨架模型的准确度。
如图2的操作(VII)所示,如图6和图8中所描述的用户的全身的3D骨架模型可用于在每一时间情形下输出用户的全身的轨迹。
图9是示出根据示例实施例的生成骨架模型的方法的整个过程的流程图。
参照图1和图9,在操作S901,图像传感器107可采集图像数据,运动传感器108可采集运动数据。然后,采集的图像数据和运动数据可被输入到设备100中。
在操作S902,设备100可在由图像传感器107采集的图像数据和由运动传感器108采集的运动数据之间执行同步。在这种情况下,设备100可对数据的位置信息进行同步(空间同步),以在相同位置交叉参照在不同位置采集的图像数据和运动数据。另外,设备100可对图像数据和运动数据的时间信息进行同步(时间同步),以在相同的时间交叉参照在不同时间采集的图像数据和运动数据。
例如,设备100可通过基于预定的参考位置转换图像数据中的运动传感器108的位置以及运动数据中的运动传感器108的位置,来对数据的位置信息进行同步。另外,设备100可利用数据插值来对图像数据的时间信息和运动数据的时间信息进行同步。
在操作S903,设备100可从同步的图像数据中提取用户的剪影。提取的剪影的数量可依据图像数据的数量而不同。
在操作S904,设备100可从同步的运动数据计算用户的关节的位置或取向。在这种情况下,由于运动传感器108被附着在用户的全身的关节部位,所以可关于关节部位计算用户的关节的位置或取向。在生成3D骨架模型时可计算剩余关节。
在操作S905,设备100可利用剪影,并且还利用关节的位置或取向来生成用户的全身的3D骨架模型。
根据示例实施例,设备100可在参照剪影的同时,从关节的位置或取向来生成用户的全身的3D骨架模型。在这种情况下,设备100可利用逆运动学,从运动数据中所包括的用户的关节的位置或取向计算剩余关节的解。在这种情况下,当所述解是多个时,设备100可选择包括在剪影的范围内的最佳解。
根据其它示例实施例,设备100可在参照关节的位置或取向的同时,从剪影生成用户的全身的3D骨架模型。在这种情况下,设备100可利用运动数据中所包括的用户的关节的位置或取向,并且还利用从剪影提取的参考点,来确定包括在剪影的范围内的剩余关节。
根据其它示例实施例,设备100可利用从剪影提取的3D骨架模型和从用户的关节的位置或取向提取的3D骨架模型中的每一个的误差范围,来生成用户的全身的3D骨架模型。在这种情况下,设备100可将从剪影提取的3D骨架模型和从用户的关节的位置或取向提取的3D骨架模型中的每一个的误差范围结合,并选择具有最小误差的位置。
当在操作S901至S905中生成用户的全身的3D骨架模型时,在操作S906,设备100可获得每一时间情形下的3D骨架模型的轨迹。
参照图1至图8的描述可应用于图9。
如上所述,根据示例实施例,可利用由运动传感器采集的运动数据和由图像传感器采集的图像数据来生成用户的全身的3D骨架模型,从而提高3D骨架模型的准确度。
根据示例实施例,可在图像传感器中设置参考点,从而使运动传感器的数量最小化。
根据示例实施例,可基于关节的位置或取向以及剪影的参考点来应用逆运动学,从而获得多个3D骨架模型方案,可从所述多个方案中选择最佳方案,从而提高处理速度以及生成骨架模型的准确度。
根据示例实施例,可使用剪影的参考点和关节的位置或取向,从而生成精确的3D骨架模型。
根据示例实施例,可使用从剪影提取的3D骨架模型和从用户的关节的位置或取向提取的3D骨架模型中的每一3D骨架模型的误差范围,从而生成具有高可靠性和高准确度的3D骨架模型。
除了上述实施例之外,还可通过介质(例如,计算机可读介质)中/上的计算机可读代码/指令来实现实施例,以控制至少一个处理装置执行上述任何实施例。所述介质可对应于允许计算机可读代码的存储和/或传输的任何介质。代码/指令的示例可包括由编译器生成的机器代码以及包含能够被计算机利用解释器执行的高级代码的文件。
计算机可读代码可以以各种方式被记录在介质上,记录介质的示例包括磁存储介质(例如,ROM、软盘、硬盘等)和光学记录介质(例如,CD-ROM或DVD)。计算机可读代码还可通过例如传输介质以及互联网元件被传送。因此,根据一个或多个实施例,例如,所述介质可以是这样定义和可测量的结构,该结构携带或控制信号或信息,如携带比特流的装置。所述介质还可以是分布式网络,从而计算机可读代码以分布式方式被存储/传送并执行。另外,仅作为示例,所述处理装置可包括处理器或计算机处理器,处理元件可分布于或包括在单个装置中。
尽管已经显示和描述了若干示例实施例,但是本公开不限于所描述的示例实施例。相反,本领域技术人员应该理解的是,在不脱离本公开的原理和精神的情况下,可对这些示例实施例进行改变,本公开的范围由权利要求及其等同物限定。
Claims (19)
1.一种生成骨架模型的设备,该设备包括:
数据同步单元,分别对由图像传感器采集的用户的图像数据和由运动传感器采集的用户的运动数据执行同步;
剪影提取单元,从同步的图像数据提取用户的剪影;
关节信息计算单元,从同步的运动数据计算用户的关节的位置或取向;
骨架模型生成单元,利用所述剪影和用户的关节的位置或取向,生成用户的全身的三维骨架模型。
2.根据权利要求1所述的设备,其中,所述数据同步单元包括:
空间同步单元,对图像数据和运动数据的位置信息进行同步,以在相同的位置交叉参照在不同位置采集的图像数据和运动数据;
时间同步单元,对图像数据和运动数据的时间信息进行同步,以在相同的时间交叉参照在不同时间采集的图像数据和运动数据。
3.根据权利要求2所述的设备,其中,
空间同步单元通过基于预定的参考位置转换图像数据中的运动传感器的位置以及运动数据中的运动传感器的位置,来对图像数据和运动数据的位置信息进行同步;
时间同步单元利用数据插值来对运动数据和图像数据的时间信息进行同步。
4.根据权利要求1所述的设备,其中,
图像传感器包括关于用户采集深度图像数据的深度图像传感器或者关于用户采集颜色图像数据的颜色图像传感器;
当图像传感器是深度图像传感器时,剪影提取单元从深度图像数据提取用户的剪影,当图像传感器是颜色图像传感器时,剪影提取单元从颜色图像数据提取用户的剪影。
5.根据权利要求1所述的设备,其中,骨架模型生成单元基于所述剪影,从用户的关节的位置或取向来生成用户的全身的三维骨架模型。
6.根据权利要求5所述的设备,其中,骨架模型生成单元利用逆运动学,从运动数据中所包括的用户的关节的位置或取向来计算用户的剩余关节的至少一个解,并且当所述至少一个解是多个时,选择包括在剪影的范围内的最佳解。
7.根据权利要求1所述的设备,其中,骨架模型生成单元基于用户的关节的位置或取向,从所述剪影来生成用户的全身的三维骨架模型。
8.根据权利要求7所述的设备,其中,骨架模型生成单元利用从剪影提取的参考点,并且还利用运动数据中所包括的用户的关节的位置或取向,来确定包括在剪影的范围内的用户的剩余关节。
9.根据权利要求1所述的设备,其中,骨架模型生成单元利用从剪影提取的三维骨架模型和从用户的关节的位置或取向提取的三维骨架模型中的每一个的误差范围,来生成用户全身的三维骨架模型。
10.根据权利要求9所述的设备,其中,骨架模型生成单元将从剪影提取的三维骨架模型和从用户的关节的位置或取向提取的三维骨架模型中的每一个的误差范围结合,并选择具有最小误差的位置。
11.一种生成骨架模型的方法,该方法包括:
分别对由图像传感器采集的用户的图像数据和由运动传感器采集的用户的运动数据执行同步;
从同步的图像数据提取用户的剪影;
从同步的运动数据计算用户的关节的位置或取向;
利用所述剪影和用户的关节的位置或取向,生成用户的全身的三维骨架模型。
12.根据权利要求11所述的方法,其中,执行步骤包括:
对图像数据和运动数据的位置信息进行同步,以在相同的位置交叉参照在不同位置采集的图像数据和运动数据;
对图像数据和运动数据的时间信息进行同步,以在相同的时间交叉参照在不同时间采集的图像数据和运动数据。
13.根据权利要求12所述的方法,其中,对位置信息进行同步的步骤通过基于预定的参考位置转换图像数据中的运动传感器的位置以及运动数据中的运动传感器的位置,来对图像数据和运动数据的位置信息进行同步,对时间信息进行同步的步骤利用数据插值来对运动数据和图像数据的时间信息进行同步。
14.根据权利要求11所述的方法,其中,生成三维骨架模型的步骤基于所述剪影,从用户的关节的位置或取向来生成用户的全身的三维骨架模型。
15.根据权利要求14所述的方法,其中,生成三维骨架模型的步骤利用逆运动学,从运动数据中所包括的用户的关节的位置或取向来计算用户的剩余关节的至少一个解,并且当所述至少一个解是多个时,选择包括在剪影的范围内的最佳解。
16.根据权利要求11所述的方法,其中,生成三维骨架模型的步骤基于用户的关节的位置或取向,从所述剪影来生成用户的全身的三维骨架模型。
17.根据权利要求16所述的方法,其中,生成三维骨架模型的步骤利用从剪影提取的参考点,并且还利用运动数据中所包括的用户的关节的位置或取向,来确定包括在剪影的范围内的用户的剩余关节。
18.根据权利要求11所述的方法,其中,生成三维骨架模型的步骤利用从剪影提取的三维骨架模型和从用户的关节的位置或取向提取的三维骨架模型中的每一个的误差范围,来生成用户全身的三维骨架模型。
19.根据权利要求18所述的方法,其中,生成三维骨架模型的步骤将从剪影提取的三维骨架模型和从用户的关节的位置或取向提取的三维骨架模型中的每一个的误差范围结合,并选择具有最小误差的位置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090022506A KR101591779B1 (ko) | 2009-03-17 | 2009-03-17 | 모션 데이터 및 영상 데이터를 이용한 골격 모델 생성 장치및 방법 |
KR10-2009-0022506 | 2009-03-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101840587A true CN101840587A (zh) | 2010-09-22 |
CN101840587B CN101840587B (zh) | 2016-01-20 |
Family
ID=42271374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201010003173.0A Expired - Fee Related CN101840587B (zh) | 2009-03-17 | 2010-01-14 | 利用运动数据和图像数据生成骨架模型的设备和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8766977B2 (zh) |
EP (1) | EP2239708B1 (zh) |
JP (1) | JP5523882B2 (zh) |
KR (1) | KR101591779B1 (zh) |
CN (1) | CN101840587B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103279186A (zh) * | 2013-05-07 | 2013-09-04 | 兰州交通大学 | 融合光学定位与惯性传感的多目标运动捕捉系统 |
CN104050702A (zh) * | 2013-03-15 | 2014-09-17 | 梦工厂动画公司 | 直接操纵计算机生成角色的受限模型的方法和系统 |
CN104142939A (zh) * | 2013-05-07 | 2014-11-12 | 李东舸 | 一种基于运动特征信息匹配特征码的方法与设备 |
CN105518748A (zh) * | 2013-10-11 | 2016-04-20 | 英特尔公司 | 3d对象跟踪 |
CN107050774A (zh) * | 2017-05-17 | 2017-08-18 | 上海电机学院 | 一种基于动作采集的健身动作纠错系统及方法 |
CN111316283A (zh) * | 2017-10-31 | 2020-06-19 | Sk电信有限公司 | 姿势识别方法及装置 |
CN112288766A (zh) * | 2020-10-28 | 2021-01-29 | 中国科学院深圳先进技术研究院 | 运动评估方法、装置、系统及存储介质 |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US20110223995A1 (en) * | 2010-03-12 | 2011-09-15 | Kevin Geisner | Interacting with a computer based application |
KR101685922B1 (ko) * | 2010-04-05 | 2016-12-13 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
US20110304629A1 (en) * | 2010-06-09 | 2011-12-15 | Microsoft Corporation | Real-time animation of facial expressions |
EP2394710B1 (en) * | 2010-06-11 | 2020-06-10 | BANDAI NAMCO Entertainment Inc. | Image generation system, image generation method, and information storage medium |
AU2011203028B1 (en) * | 2011-06-22 | 2012-03-08 | Microsoft Technology Licensing, Llc | Fully automatic dynamic articulated model calibration |
KR101243771B1 (ko) * | 2011-06-23 | 2013-03-14 | 세종대학교산학협력단 | 동작 데이터의 동기화 방법 및 장치 |
KR101815975B1 (ko) | 2011-07-27 | 2018-01-09 | 삼성전자주식회사 | 객체 자세 검색 장치 및 방법 |
US9477303B2 (en) * | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US9349207B2 (en) * | 2012-05-31 | 2016-05-24 | Samsung Electronics Co., Ltd. | Apparatus and method for parsing human body image |
US9384585B2 (en) | 2012-10-23 | 2016-07-05 | Electronics And Telecommunications Research Institute | 3-dimensional shape reconstruction device using depth image and color image and the method |
US20140160122A1 (en) * | 2012-12-10 | 2014-06-12 | Microsoft Corporation | Creating a virtual representation based on camera data |
KR101519775B1 (ko) * | 2014-01-13 | 2015-05-12 | 인천대학교 산학협력단 | 오브젝트의 모션 인식 기반 애니메이션 생성 방법 및 장치 |
KR101434514B1 (ko) | 2014-03-21 | 2014-08-26 | (주) 골프존 | 이종 장치간 데이터 시간 동기화 방법 및 시간 동기화된 데이터를 생성하기 위한 데이터 처리 장치 |
KR102026382B1 (ko) * | 2014-03-31 | 2019-09-30 | 한국전자통신연구원 | 모션 추정 시스템 및 방법 |
KR101606768B1 (ko) * | 2014-06-24 | 2016-03-28 | (주)이튜 | 모션 추출기반의 보행 자세 교정장치 |
US10973440B1 (en) * | 2014-10-26 | 2021-04-13 | David Martin | Mobile control using gait velocity |
US10398359B2 (en) * | 2015-07-13 | 2019-09-03 | BioMetrix LLC | Movement analysis system, wearable movement tracking sensors, and associated methods |
JP6723061B2 (ja) * | 2016-04-15 | 2020-07-15 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
US10814202B2 (en) * | 2016-07-05 | 2020-10-27 | Sony Corporation | Information processing device, sensor device, and information processing system |
KR102201649B1 (ko) * | 2016-07-28 | 2021-01-12 | 한국전자통신연구원 | 분산 융합 필터 기반 자세 인식 장치 및 방법 |
JP7013144B2 (ja) * | 2016-10-12 | 2022-01-31 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
KR102471667B1 (ko) * | 2017-01-26 | 2022-11-25 | 디-박스 테크놀러지스 인코포레이트 | 레코딩된 오디오/비디오와 모션의 동기화 및 캡쳐 |
US20180225858A1 (en) * | 2017-02-03 | 2018-08-09 | Sony Corporation | Apparatus and method to generate realistic rigged three dimensional (3d) model animation for view-point transform |
GB2559809B (en) * | 2017-02-21 | 2020-07-08 | Sony Interactive Entertainment Europe Ltd | Motion tracking apparatus and system |
CN111867687B (zh) * | 2018-01-24 | 2021-10-22 | 富士通株式会社 | 存储介质、画面生成方法以及信息处理装置 |
TWI715903B (zh) * | 2018-12-24 | 2021-01-11 | 財團法人工業技術研究院 | 動作追蹤系統及方法 |
US11455775B2 (en) | 2019-03-22 | 2022-09-27 | Hewlett-Packard Development Company, L.P. | 3D imaging |
CN110046600B (zh) * | 2019-04-24 | 2021-02-26 | 北京京东尚科信息技术有限公司 | 用于人体检测的方法和装置 |
US11263443B2 (en) * | 2019-07-19 | 2022-03-01 | Sri International | Centimeter human skeleton pose estimation |
GB2586604B (en) | 2019-08-28 | 2022-10-05 | Canon Kk | 3d representation reconstruction from images using volumic probability data |
JP2022049521A (ja) * | 2020-09-16 | 2022-03-29 | 富士通株式会社 | フィルタリング方法、フィルタリングプログラム及びフィルタリング装置 |
KR102542878B1 (ko) * | 2020-11-16 | 2023-06-14 | 주식회사 플라스크 | 영상 내의 모션 인식 방법, 서버 및 시스템 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003106812A (ja) | 2001-06-21 | 2003-04-09 | Sega Corp | 画像情報処理方法、その方法を利用したシステム及びプログラム |
WO2006099597A2 (en) * | 2005-03-17 | 2006-09-21 | Honda Motor Co., Ltd. | Pose estimation based on critical point analysis |
CN100369064C (zh) * | 2005-07-14 | 2008-02-13 | 中国科学院计算技术研究所 | 一种基于视频内容的人体姿态变形方法 |
US8351646B2 (en) * | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
JP4878330B2 (ja) | 2007-05-09 | 2012-02-15 | 国立大学法人 東京大学 | 対象物の関節構造の取得方法及び装置 |
US8175326B2 (en) * | 2008-02-29 | 2012-05-08 | Fred Siegel | Automated scoring system for athletics |
US9142024B2 (en) * | 2008-12-31 | 2015-09-22 | Lucasfilm Entertainment Company Ltd. | Visual and physical motion sensing for three-dimensional motion capture |
-
2009
- 2009-03-17 KR KR1020090022506A patent/KR101591779B1/ko active IP Right Grant
- 2009-08-11 US US12/539,170 patent/US8766977B2/en not_active Expired - Fee Related
- 2009-12-23 EP EP09180541.6A patent/EP2239708B1/en not_active Not-in-force
-
2010
- 2010-01-14 CN CN201010003173.0A patent/CN101840587B/zh not_active Expired - Fee Related
- 2010-03-17 JP JP2010060417A patent/JP5523882B2/ja active Active
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104050702A (zh) * | 2013-03-15 | 2014-09-17 | 梦工厂动画公司 | 直接操纵计算机生成角色的受限模型的方法和系统 |
US10984578B2 (en) | 2013-03-15 | 2021-04-20 | Dreamworks Animation L.L.C. | Method and system for directly manipulating the constrained model of a computer-generated character |
CN103279186A (zh) * | 2013-05-07 | 2013-09-04 | 兰州交通大学 | 融合光学定位与惯性传感的多目标运动捕捉系统 |
CN104142939A (zh) * | 2013-05-07 | 2014-11-12 | 李东舸 | 一种基于运动特征信息匹配特征码的方法与设备 |
CN103279186B (zh) * | 2013-05-07 | 2015-11-18 | 兰州交通大学 | 融合光学定位与惯性传感的多目标运动捕捉系统 |
CN105518748A (zh) * | 2013-10-11 | 2016-04-20 | 英特尔公司 | 3d对象跟踪 |
CN105518748B (zh) * | 2013-10-11 | 2019-08-20 | 英特尔公司 | 3d对象跟踪 |
CN107050774A (zh) * | 2017-05-17 | 2017-08-18 | 上海电机学院 | 一种基于动作采集的健身动作纠错系统及方法 |
CN107050774B (zh) * | 2017-05-17 | 2019-04-16 | 上海电机学院 | 一种基于动作采集的健身动作纠错系统及方法 |
CN111316283A (zh) * | 2017-10-31 | 2020-06-19 | Sk电信有限公司 | 姿势识别方法及装置 |
CN111316283B (zh) * | 2017-10-31 | 2023-10-17 | Sk电信有限公司 | 姿势识别方法及装置 |
CN112288766A (zh) * | 2020-10-28 | 2021-01-29 | 中国科学院深圳先进技术研究院 | 运动评估方法、装置、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP5523882B2 (ja) | 2014-06-18 |
EP2239708A2 (en) | 2010-10-13 |
US20100238168A1 (en) | 2010-09-23 |
EP2239708A3 (en) | 2016-06-01 |
EP2239708B1 (en) | 2019-05-15 |
KR101591779B1 (ko) | 2016-02-05 |
CN101840587B (zh) | 2016-01-20 |
JP2010218556A (ja) | 2010-09-30 |
US8766977B2 (en) | 2014-07-01 |
KR20100104228A (ko) | 2010-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101840587B (zh) | 利用运动数据和图像数据生成骨架模型的设备和方法 | |
KR101616926B1 (ko) | 영상 처리 장치 및 방법 | |
US9836645B2 (en) | Depth mapping with enhanced resolution | |
US8565479B2 (en) | Extraction of skeletons from 3D maps | |
US9058514B2 (en) | Apparatus and method for estimating joint structure of human body | |
CN104063677B (zh) | 用于估计人体姿态的设备和方法 | |
CN106548519A (zh) | 基于orb‑slam和深度相机的真实感的增强现实方法 | |
Bostanci et al. | User tracking methods for augmented reality | |
KR20020054245A (ko) | 광학식과 자기식 모션 캡쳐 시스템을 위한 센서 퓨전 장치및 그 방법 | |
CN109934847A (zh) | 弱纹理三维物体姿态估计的方法和装置 | |
WO2021002025A1 (ja) | 骨格認識方法、骨格認識プログラム、骨格認識システム、学習方法、学習プログラムおよび学習装置 | |
JP2021060868A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Ning | Design and research of motion video image analysis system in sports training | |
JP7318814B2 (ja) | データ生成方法、データ生成プログラムおよび情報処理装置 | |
Fua et al. | Markerless full body shape and motion capture from video sequences | |
CN109711421A (zh) | 一种数据处理方法和装置 | |
CN203630717U (zh) | 基于轻型惯导传感输入设备的交互系统 | |
Yang et al. | Digitalization of Three-Dimensional Human Bodies: A Survey | |
US11911213B2 (en) | Techniques for determining ultrasound probe motion | |
Bisht et al. | MultiView Markerless MoCap-MultiView Performance Capture, 3D Pose Motion Reconstruction and Comparison | |
Wang et al. | Research and implementation of the sports analysis system based on 3D image technology | |
Bostanci et al. | Tracking methods for augmented reality | |
JP2019197278A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
CN113487726B (zh) | 动作捕捉系统和方法 | |
Li et al. | Computer-aided teaching software of three-dimensional model of sports movement based on kinect depth data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160120 Termination date: 20200114 |
|
CF01 | Termination of patent right due to non-payment of annual fee |