CN110298218A - 交互式健身装置和交互式健身系统 - Google Patents
交互式健身装置和交互式健身系统 Download PDFInfo
- Publication number
- CN110298218A CN110298218A CN201810246768.5A CN201810246768A CN110298218A CN 110298218 A CN110298218 A CN 110298218A CN 201810246768 A CN201810246768 A CN 201810246768A CN 110298218 A CN110298218 A CN 110298218A
- Authority
- CN
- China
- Prior art keywords
- identification
- vector
- building
- movement
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
Abstract
本发明提供交互式健身装置和交互式健身系统,其中,交互式健身装置向一显示装置输出一健身视频,所述交互式健身装置包括:骨骼动作生成模块,根据所述健身视频实时生成目标三维骨骼动作模型;至少一个三维视频采集器,自所述健身视频播放时同步采集用户的三维视频数据,并实时生成用户三维骨骼动作模型;以及动作匹配模块,比对目标三维骨骼动作模型与用户三维骨骼动作模型,当目标三维骨骼动作模型与用户三维骨骼动作模型不一致时,反馈错误提示。本发明避免了实体健身器材对空间的占用,能够将普通的显示设备改建为互动式健身设备,创造了一种新的用户体验,减少了对于健身空间的需求,也大大降低了健身的门槛。
Description
技术领域
本发明涉及计算机应用技术领域,尤其涉及一种交互式健身装置和交互式健身系统。
背景技术
目前,健身是当代人的重要需求之一,越来越多地人们喜欢去健身房或是自行购买健身器械进行健身,但是由于在健身房请教练指导价格昂贵,而且健身器材不易于收纳,这些问题抬高了健身的门槛。例如,酒店、办公室等场所,受制于场地有限,用户几乎难以进行有效的锻炼。
人类的动作捕捉及识别方法,在当今社会具有非常广泛的应用,例如:智能监控、人机交互的体感游戏、视频检索等等。
人类的动作检测识别,从基于传统的RGB视频序列过渡到当今流行的RGB-D视频序列,运动轨迹一直作为重要的特征发展着。传统的运动轨迹的捕捉往往基于特征点的检测算法,不同的特征点检测方法会得出完全不同的运动轨迹。同时,由于特征点在不同帧的检索非常不稳定,在整个视频序列中,特征点往往不连续,因此对于特征点轨迹法多采用基于直方图的统计方法,对整个视频序列进行计算并统计后,采用支持向量机等分类器进行分类。
这些视频序列的匹配计算方法计算量大,无法即时响应,也无法适用于民用级别的人机交互,尤其对于直播场景中的动作识别比对和纠错。因此,现有技术对于直播场景中健身识别纠错的人机交互而言,难以实现系统实时反馈动作是否出错的需求。
发明内容
本发明为了克服上述现有技术存在的缺陷,提供一种交互式健身装置和交互式健身系统,克服了现有技术的困难,避免了实体健身器材对空间的占用,能够将普通的显示设备改建为互动式健身设备,创造了一种新的用户体验,减少了对于健身空间的需求,也大大降低了健身的门槛。
根据本发明的一个方面,提供一种交互式健身装置,向一显示装置输出一健身视频,所述交互式健身装置包括:
骨骼动作生成模块,根据所述健身视频实时生成目标三维骨骼动作模型;
至少一个三维视频采集器,自所述健身视频播放时同步采集用户的三维视频数据,并实时生成用户三维骨骼动作模型;以及
动作匹配模块,比对目标三维骨骼动作模型与用户三维骨骼动作模型,当目标三维骨骼动作模型与用户三维骨骼动作模型不一致时,反馈错误提示。
优选地,还包括一用户识别模块;
所述三维视频采集器在同一画面帧中分别采集用户的三维视频数据和用户的面部三维数据;
所述用户识别模块,预存有至少一位被授权使用所述交互式健身装置的用户的面部三维数据,所述用户识别模块实时比对所述三维视频采集器采集的面部三维数据是否命中预存的被授权用户的面部三维数据,若是,则维持所述交互式健身装置运行,若否,则停止所述交互式健身装置运行。
优选地,还包括区域定位模块,所述区域定位模块在所述三维视频采集器在同一画面帧中定位画面中用户人脸的第一区域和用户全身的第二区域,所述用户识别模块针对所述第一区域采集用户的面部三维数据,所述动作匹配模块针对所述第二区域采集用户的三维视频数据,并实时生成用户三维骨骼动作模型。
优选地,还包括一面部特征采集器和一用户识别模块;
所述面部特征采集器实时采集用户的面部三维数据;
所述用户识别模块,预存有至少一为被授权使用所述交互式健身装置的用户的面部三维数据,所述用户识别模块实时比对所述面部特征采集器采集的面部三维数据是否命中预存的被授权用户的面部三维数据,若是,则维持所述交互式健身装置运行,若否,则停止所述交互式健身装置运行。
优选地,所述交互式健身装置被集成在电视机内,所述三维视频采集器设置在电视机上边框中。
优选地,所述健身视频包括多个目标动作,每个所述目标动作与所述健身视频的播放时间关联,每个目标动作按身体部位划分5个目标部位动作,身体部位包括:左臂、右臂、左腿、右腿以及躯干;每个所述身体部位均包括:三个骨骼点、三个骨骼点形成的三个向量及所述三个向量中两个向量之间的夹角,每个目标部位动作对应一个或多个面向过程或者面向位移的识别项,每个识别项包括识别对象、识别参数及识别规则,所述识别对象包括所述三个骨骼点中的至少一个骨骼点;三个向量中的至少一个向量;以及所述三个向量中两个向量之间的一个夹角中的一项或多项,所述面向过程的识别项还包括一标准过程向量库,所述标准过程向量库按时间顺序储存有所述部位动作的至少一个向量;
所述动作匹配模块获取当前时刻的用户三维骨骼动作模型作为一待测动作,并且获取当前时刻之前一预设时间间隔的目标三维骨骼动作模型作为一目标动作,并将该待测动作与该目标动作形成一匹配组;在每一匹配组中,根据目标动作的目标部位动作将待测动作划分为相应的待测部位动作,将待测动作的待测部位动作与相应的目标动作的目标部位动作形成一身体部位匹配组;对每一身体部位匹配组,获取目标部位动作的识别项,根据所述三维骨骼动作模型获取所述待测部位动作对应所述识别对象的骨骼点的坐标、骨骼点形成的向量和/或向量之间的夹角,若所述识别项为面向过程的识别项,则将所述目标部位动作的向量与标准过程向量库中的对应向量进行匹配计算以与所述识别参数设定的向量阈值进行比较,若不符合所述识别规则,则反馈待测动作错误。
优选地,将所述目标部位动作的向量与标准过程向量库中的对应向量进行匹配计算以与所述识别参数设定的向量阈值进行比较包括:
计算标准过程向量库中的向量与目标部位动作的向量 之间夹角θ的余弦值:
向量与向量之间的夹角θ的余弦值用于与所述识别参数设定的向量阈值进行比较。
优选地,每个所述健身视频具有一视频文件,所述视频文件包括该健身视频中的目标动作的编号及该目标动作的播放时间,当播放到所述目标动作时,于一标准动作数据库查找该目标动作的编号的目标动作文件,所述目标动作文件与所述目标动作的编号关联地储存在所述标准动作数据库中,每个所述目标动作文件包括该目标动作的目标部位动作及对应该目标部位动作的识别项。
优选地,面向过程的识别项包括轨迹识别、否定轨迹识别及保持识别;
面向位移的识别项包括位移识别以及否定位移识别。
优选地,对于所述轨迹识别:
所述识别对象包括所述三个向量中的至少一个向量和/或所述三个向量中两个向量之间的一个夹角;
所述识别参数设定一个或多个阈值,所述阈值包括所述三个向量中的向量阈值及所述夹角的夹角阈值,所述识别参数根据所述识别对象确定采用向量阈值和/或夹角阈值;以及
所述识别规则包括待测部位动作的所述识别对象在该身体部位的运动过程中始终位于所述识别参数设定的阈值范围内。
优选地,对于所述否定轨迹识别:
所述识别对象包括所述三个向量中的至少一个向量和/或所述三个向量中两个向量之间的一个夹角;
所述识别参数设定一个或多个阈值,所述阈值包括所述三个向量中的向量阈值及所述夹角的夹角阈值,所述识别参数根据所述识别对象确定采用向量阈值和/或夹角阈值;以及
所述识别规则包括待测部位动作的所述识别对象在该身体部位的运动过程中始终不在所述识别参数设定的阈值范围内,并且所述识别对象所表示的待测部位动作在运动过程中产生轨迹和/或位移。
优选地,对于所述保持识别:
所述识别对象包括所述三个向量中的至少一个向量和/或所述三个向量中两个向量之间的一个夹角;
所述识别参数设定一个或多个阈值,所述阈值包括所述三个向量中的向量阈值及所述夹角的夹角阈值,所述识别参数根据所述识别对象确定采用向量阈值和/或夹角阈值;以及
所述识别规则包括待测部位动作的所述识别对象在该动作的运动过程中始终位于所述识别参数设定的阈值范围内。
优选地,所述标准过程向量库按时间顺序储存有所述目标部位动作的至少两个向量,根据两个向量计算向量之间的夹角,
将待测部位动作的两个向量之间的夹角α与标准过程向量库中对应的两个向量之间的夹角β的比值α/β与所述夹角阈值进行比较以确定实时采集的部位动作的夹角是否位于所述夹角阈值的范围内。
优选地,所述轨迹识别、所述否定轨迹识别及所述保持识别的识别参数还分别包括一起始幅度阈值及达成幅度阈值,
所述起始幅度阈值用于判断待测部位动作是否开始;
所述达成幅度阈值用于判断待测部位动作结束是否完成达成幅度。
优选地,对于所述位移识别:
所述识别对象包括所述三个骨骼点中的一个或多个;
所述识别参数设定位移距离、位移方向及起始幅度阈值;以及
所述识别规则包括所述识别对象在该身体部位的运动过程中按所述识别参数设定的位移方向移动并且移动距离大于所述识别参数设定的位移距离。
优选地,对于所述否定位移识别:
所述识别对象包括所述三个骨骼点中的一个或多个;
所述识别参数设定位移距离、位移方向及起始幅度阈值;以及
所述识别规则包括所述识别对象在该身体部位的运动过程中不按所述识别参数设定的位移方向移动或者移动距离大于所述识别参数设定的位移距离。
优选地,在所述动作的运动过程中,所述待测部位动作的采样频率等于所述标准过程向量库的采样频率。
优选地,左臂包括:左手腕关节点、左手肘关节点、左肩关节点、左肩关节点至左手肘关节点形成的第一向量、左手肘关节点至左手腕关节点形成的第二向量、左肩关节点至左手腕关节点形成的第三向量以及该第一向量和该第二向量之间的夹角;
右臂包括:右手腕关节点、右手肘关节点、右肩关节点、右肩关节点至右手肘关节点形成的第一向量、右手肘关节点至右手腕关节点形成的第二向量、右肩关节点至右手腕关节点形成的第三向量以及该第一向量和该第二向量之间的夹角;
躯干包括:头部中心、脖子的脊柱中心、躯干的脊柱中心、头部中心至脖子的脊柱中心形成的第一向量、脖子的脊柱中心至躯干的脊柱中心形成的第二向量、头部中心至躯干的脊柱中心形成的第三向量以及该第一向量和该第二向量形成的夹角;
左腿包括:左脚踝关节点、左膝盖关节点、左髋关节点、左髋关节点至左膝盖关节点形成的第一向量、左膝盖关节点至左脚踝关节点形成的第二向量、左髋关节点至左脚踝关节点形成的第三向量以及该第一向量和该第二向量之间的夹角;
右腿包括:右脚踝关节点、右膝盖关节点、右髋关节点、右髋关节点至右膝盖关节点形成的第一向量、右膝盖关节点至右脚踝关节点形成的第二向量、右髋关节点至右脚踝关节点形成的第三向量以及该第一向量和该第二向量之间的夹角。
优选地,将实时采集的三维视频数据映射到所述健身视频中,使所述三维视频数据与所述健身视频同屏播放。
本发明可以通过对直播场景下实时采集直播视频形成三维骨骼模型来确定目标动作,并将实时采集的待测动作与目标动作进行对比,对于实时采集的每个待测动作,且按身体构造,简化骨骼点,以三个骨骼点为单位将动作划分为待测部位动作,并以面向过程和面向位移的识别项对待测部位动作进行识别,且在面向过程的识别项中通过实时采集的骨骼点构成的向量和一标准过程向量库中的向量进行简单的计算以与设定的向量阈值进行比较,骨骼点和向量的设定及匹配识别的过程计算量较小,能够实现直播场景下的实时的反馈,不会产生待测动作错误识别反馈延迟的现象。
根据本发明的又一方面,还提供一种交互式健身系统,包括一上述的交互式健身装置和一显示装置,所述交互式健身装置设置在所述显示装置的周围,所述交互式健身装置通过视频传输线连接所述显示装置。
优选地,所述显示装置是一电视机,所述交互式健身装置固定在一电视机的上沿并通过数据线连接所述电视机,向所述电视机发送健身视频,所述电视机播放所述健身视频。
优选地,所述健身视频被储存于所述交互式健身装置,或者所述交互式健身装置通过网络连接向所述显示装置输出网络上的在线健身视频。
相比现有技术,本发明避免了实体健身器材对空间的占用,能够将普通的显示设备改建为互动式健身设备,创造了一种新的用户体验,减少了对于健身空间的需求,也大大降低了健身的门槛。
附图说明
通过参照附图详细描述其示例实施方式,本发明的上述和其它特征及优点将变得更加明显。
图1示出了根据本发明实施例的交互式健身装置的示意图;
图2示出了根据本发明实施例的交互式健身装置的第一种结构的示意图;
图3示出了根据本发明实施例的交互式健身装置的第二种结构的示意图;
图4示出了根据本发明实施例的交互式健身系统的使用状态的示意图;
图5示出了根据本发明实施例的骨骼模型的示意图;
图6至图10示出了根据本发明实施例的5个身体部位的示意图;
图11示出了根据本发明实施例的标准过程向量库中向量与实时采集向量的对比;以及
图12和图13分别示出了根据本发明实施例的标准过程向量库中向量间的夹角与实时采集向量间的夹角。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了根据本发明实施例的交互式健身装置的示意图。图2示出了根据本发明实施例的交互式健身装置的第一种结构的示意图。
如图1和2所示,本发明提供一种交互式健身装置2,向一显示装置1输出一健身视频,交互式健身装置2包括:骨骼动作生成模块、至少一个三维视频采集器21、动作匹配模块以及用户识别模块。骨骼动作生成模块根据健身视频实时生成目标三维骨骼动作模型。三维视频采集器21自健身视频播放时同步采集用户的三维视频数据,并实时生成用户三维骨骼动作模型。动作匹配模块比对目标三维骨骼动作模型与用户三维骨骼动作模型,当目标三维骨骼动作模型与用户三维骨骼动作模型不一致时,反馈错误提示。三维视频采集器21在同一画面帧中分别采集用户的三维视频数据和用户的面部三维数据。用户识别模块,预存有至少一位被授权使用交互式健身装置2的用户的面部三维数据,用户识别模块实时比对三维视频采集器21采集的面部三维数据是否命中预存的被授权用户的面部三维数据,若是,则维持交互式健身装置2运行,若否,则停止交互式健身装置2运行。用户可以跟着健身视频显示内容进行动作,本发明会对动作的匹配程度进行判断,在错误动作时,并且做出反馈。
本发明的能够将普通的显示设备改建为互动式健身设备,创造了一种新的用户体验,减少了对于健身空间的需求,也大大降低了健身的门槛。,并且,配合了人面识别的模式,能够方便地在公共场所进行附带收费条件的使用。本发明方便配合现有设备进行改建,而且使用先后都为无须布置,例如,在酒店的带有电视机的大堂,或是带有电视机的办公室会议室内等等,充分拓展了产品的应用范围。
在一个优选方案中,交互式健身装置被集成在电视机内,三维视频采集器设置在电视机上边框中。
在一个优选方案中,还包括区域定位模块,区域定位模块在三维视频采集器21在同一画面帧中定位画面中用户人脸的第一区域71和用户全身的第二区域72,用户识别模块针对第一区域71采集用户的面部三维数据,动作匹配模块针对第二区域72采集用户的三维视频数据,并实时生成用户三维骨骼动作模型。通过区域定位模块,将三维视频采集器21采集到的画面明确地区块化分为表现人脸的第一区域71和表现身体运动的第二区域72,使得用户识别模块和动作匹配模块都可以明确地工作在最合理的区域,减少无谓的数据量。从画面中定义人脸区域或是身体区域采用现有技术,此处不再赘述。
在一个优选方案中,还包括一面部特征采集器22和一用户识别模块。面部特征采集器22实时采集用户的面部三维数据。用户识别模块,预存有至少一为被授权使用交互式健身装置2的用户的面部三维数据,用户识别模块实时比对面部特征采集器22采集的面部三维数据是否命中预存的被授权用户的面部三维数据,若是,则维持交互式健身装置2运行,若否,则停止交互式健身装置2运行。本发明也可以通过现有的人脸识别设备进行实现,不以此为限。
图4示出了根据本发明实施例的交互式健身系统的使用状态的示意图。本发明的一种交互式健身系统,包括一上述的交互式健身装置2和一显示装置1,交互式健身装置2和显示装置1都被固定在墙面6上。交互式健身装置2设置在显示装置1的周围,交互式健身装置2通过视频传输线连接显示装置1。本实施例中,显示装置1是一电视机,交互式健身装置2固定在一电视机的上沿并通过数据线连接电视机,向电视机发送健身视频,电视机播放健身视频。在一个优选方案中,健身视频被储存于交互式健身装置2,或者交互式健身装置2通过网络连接外部服务器3向显示装置1输出网络上的在线健身视频。
图5示出了根据本发明实施例的骨骼模型的示意图。图6至图10示出了根据本发明实施例的5个身体部位的示意图。图11示出了根据本发明实施例的标准过程向量库中向量与实时采集向量的对比。图12和图13分别示出了根据本发明实施例的标准过程向量库中向量间的夹角与实时采集向量间的夹角。如图5至13所示,在一个实施例中,通过本发明进行动作识别纠错的流程如下
首先是步骤S110:显示健身视频,健身视频包括多个目标动作,每个目标动作与健身视频的播放时间关联。
具体而言,在本案中,对每个人体设定有15个骨骼点(可参见图5),该15个骨骼点为:头部中心211、颈部中心(例如脖子的脊柱中心)212、躯干中心213(例如躯干的脊柱中心)、左肩关节点221、左手肘关节点222、左手腕关节点223、右肩关节点231、右手肘关节点232、右手腕关节点233、左髋关节点241、左膝盖关节点242、左脚踝关节点243、右髋关节点251、右膝盖关节点252、右脚踝关节点253。
本案中对这15个骨骼点以3个骨骼点为单位,划分成五个身体部分:躯干(见图6)、左臂(见图7)、右臂(见图8)、左腿(见图9)及右腿(见图10)。其中,各身体部位内的骨骼点之间还形成向量,向量之间还形成夹角。
具体而言,躯干(见图6)包括头部中心211、脖子的脊柱中心212、躯干的脊柱中心213、头部中心211至脖子的脊柱中心212形成的第一向量214、脖子的脊柱中心212至躯干的脊柱中心213形成的第二向量215、头部中心211至躯干的脊柱中心213形成的第三向量216以及该第一向量214和该第二向量215形成的夹角217。
左臂(见图7)包括左手腕关节点223、左手肘关节点222、左肩关节点221、左肩关节点221至左手肘关节点222形成的第一向量224、左手肘关节点222至左手腕关节点223形成的第二向量225、左肩关节点221至左手腕关节点223形成的第三向量226以及该第一向量224和该第二向量225之间的夹角227。
右臂(见图8)包括右手腕关节点233、右手肘关节点232、右肩关节点231、右肩关节点231至右手肘关节点232形成的第一向量234、右手肘关节点232至右手腕关节点233形成的第二向量235、右肩关节点231至右手腕关节点233形成的第三向量236以及该第一向量234和该第二向量235之间的夹角237。
左腿包括(见图9)包括左脚踝关节点243、左膝盖关节点242、左髋关节点241、左髋关节点241至左膝盖关节点242形成的第一向量244、左膝盖关节点242至左脚踝关节点243形成的第二向量245、左髋关节点241至左脚踝关节点243形成的第三向量246以及该第一向量244和该第二向量245之间的夹角247。
右腿包括(见图10)包括右脚踝关节点253、右膝盖关节点252、右髋关节点251、右髋关节点251至右膝盖关节点252形成的第一向量254、右膝盖关节点252至右脚踝关节点253形成的第二向量255、右髋关节点251至右脚踝关节点253形成的第三向量256以及该第一向量254和该第二向量255之间的夹角。
设定较少的具有代表性的关节点作为骨骼点,以在动作识别和纠错时减少计算量。
将该目标动作按拆解成五个身体部位:左臂、右臂、左腿、右腿以及躯干。每个身体部位均包括如图6至图10所示的三个骨骼点、三个骨骼点形成的三个向量及三个向量中两个向量之间的夹角。至少一个身体部位的目标部位动作对应一个或多个面向过程或者面向位移的识别项。每个识别项包括识别对象、识别参数及识别规则,识别对象包括部位动作三个骨骼点中的至少一个骨骼点;三个向量中的至少一个向量;以及三个向量中两个向量之间的一个夹角中的一项或多项。
面向过程的识别项需通过一标准过程向量库与实时采集的向量进行匹配进而判断是否符合识别项。标准过程向量库以一采样频率按时间顺序储存有部位动作的至少一个向量。例如,对于俯卧撑的左腿动作,以5次/秒的采样频率按时间顺序至少储存左臂的第一向量224、第二向量225(和夹角227),作为一标准过程向量库。
具体而言,面向过程的识别项包括轨迹识别、否定轨迹识别及保持识别;面向位移的识别项包括位移识别以及否定位移识别。
轨迹识别用于识别该部位动作是否按照预定轨迹运动,若未按照预定轨迹运动,则提示出错。其识别对象包括三个向量中的至少一个向量和/或三个向量中两个向量之间的一个夹角。对应于识别对象,识别参数设定一个或多个阈值。阈值包括三个向量的向量阈值及夹角的夹角阈值,识别参数依据识别对象确定采用向量阈值和/或夹角阈值。
具体而言,上述向量阈值及夹角阈值用于判断实时采集的向量(及夹角)是否与该标准过程向量库中的向量(及夹角)相匹配。例如,可参考图11,对于向量阈值,当实时采集一部位动作的骨骼点222至骨骼点293的向量按时间在标准过程向量库中查找到对应时间的对应骨骼点222至骨骼点223的向量计算标准过程向量库中的向量与实时采集的部位动作的向量 之间夹角θ的余弦值:
向量与向量之间的夹角θ的余弦值(余弦值为-1到1)用于与识别参数设定的向量阈值进行比较。向量阈值可以设置为0.1,对应的向量阈值为-1至0.1。向量阈值的范围也可以直接设置为-0.1至0.1。可依据该向量阈值与所计算的余弦值进行比较以确定向量是否在该向量阈值范围内。
例如,在设置夹角阈值的实施例中,标准过程向量库按时间顺序至少储存有部位动作的第一向量及第二向量,可以依据两个向量计算向量之间的夹角或者直接将该夹角储存在标准过程向量库中。参考图12及图13,夹角阈值用于与实时采集的部位动作的(骨骼点292至骨骼点291)的第一向量294和(骨骼点292至骨骼点293)的第二向量295之间的夹角297α与标准过程向量库中对应时间的(骨骼点222至骨骼点221)的第一向量224和(骨骼点222至骨骼点223)的第二向量225之间的夹角227β的比值α/β比较以确定实时采集的部位动作的夹角是否位于夹角阈值的范围内。向量阈值可以设置为0.8,对应的向量阈值为0.8至1。向量阈值的范围也可以直接设置为0.8至1。可依据该夹角阈值与所计算的夹角比值进行比较以确定第一向量和第二向量之间的夹角是否在该向量阈值范围内。
进一步地,轨迹识别的识别参数还包括一起始幅度阈值及达成幅度阈值,起始幅度阈值用于判断部位动作是否开始,达成幅度阈值用于判断部位动作结束是否完成达成幅度。具体而言,可以设置一部位动作的夹角的起始最大值,并设置起始幅度阈值为0.8(或其他0至1中间的值)。当部位动作的夹角到达该起始最大值的80%时,可以判断部位动作开始。对于达成幅度阈值,可以设置一部位动作的夹角的达成最大值,并设置达成幅度阈值为0.2(或其他0至1中间的值)。当部位动作的夹角到达该达成最大值的(1-20%)时,可以判断部位动作完成达成幅度。在一些变化例中,也可采用向量和/或骨骼点的坐标来计算上述起始幅度阈值和达成幅度阈值。上述起始最大值和达成最大值可作为标准过程向量库中的第一个数据和最后一个数据。或者,在另一些实施例中,起始幅度阈值和达成幅度阈值都采用标准过程向量库中的最后一个数据来进行计算,此时,起始幅度阈值例如可以设置为0.2,达成幅度阈值例如也可以设置为0.2。
对应于上述设定的识别对象和识别参数,轨迹识别的识别规则包括达成规则及可选不同的错误规则。轨迹识别的达成规则为该部位动作的识别对象起始于起始幅度阈值所表示的位置且识别对象均在所设定的向量阈值和/或夹角阈值内;该部位动作的识别对象从起始幅度阈值所表示的位置到达成幅度阈值所表示的位置的过程中,识别对象均在所设定的向量阈值和/或夹角阈值内;并且该部位动作的识别对象到达达成幅度阈值所表示的位置且识别对象均在所设定的向量阈值和/或夹角阈值内。轨迹识别的不同的错误规则包括:超出对应向量阈值错误(例如,向量一所表示的大臂或大腿超出阈值);超出对应夹角阈值错误(例如,夹角所表示的手肘处的夹角或膝盖处的夹角超出阈值);及幅度不够错误。幅度不够错误的识别规则为该部位动作的识别对象起始于起始幅度阈值所表示的位置且识别对象均在所设定的向量阈值和/或夹角阈值内;该部位动作的识别对象从起始幅度阈值所表示的位置到达成幅度阈值所表示的位置的过程中,识别对象均在所设定的向量阈值和/或夹角阈值内;并且该部位动作的识别对象未到达达成幅度阈值所表示的位置且识别对象均在所设定的向量阈值和/或夹角阈值内。
否定轨迹识别用于识别该部位动作是否按照预定轨迹运动,若按照预定轨迹运动,则提示出错。对于否定轨迹识别,其与轨迹识别类似,识别对象包括三个向量中的至少一个向量和/或三个向量中两个向量之间的一个夹角(优选地,为第一向量和第二向量之间的夹角)。否定轨迹识别的识别参数设定一个或多个阈值,阈值包括三个向量的向量阈值及夹角的夹角阈值,识别参数依据识别对象确定采用向量阈值和/或夹角阈值。否定轨迹识别与轨迹识别不同的是,否定轨迹识别达成规则为:该部位动作的识别对象起始于起始幅度阈值所表示的位置且识别对象均在所设定的向量阈值和/或夹角阈值内;该部位动作的识别对象从起始幅度阈值所表示的位置到达成幅度阈值所表示的位置的过程中,识别对象均在所设定的向量阈值和/或夹角阈值内;该部位动作的识别对象到达达成幅度阈值所表示的位置且识别对象均在所设定的向量阈值和/或夹角阈值内;并且当前有除了否定识别和保持识别以外的识别正处于动作进行中的状态(换言之,轨迹或位移幅度正在增长)。当达成上述规则,则提示轨迹出错。换言之,若识别对象在该身体部位的运动过程中始终不在识别参数设定的阈值范围内,并且识别对象所表示的部位动作在运动过程中产生轨迹和/或位移,则将不提示出错。
保持识别用于识别部位动作在运动过程中是否保持在某一状态下(例如,保持直立或保持一弯曲角度),若未保持在该状态下则提示出错。保持识别的识别对象包括三个向量中的至少一个向量和/或三个向量中两个向量之间的一个夹角。识别参数设定一个或多个阈值,阈值包括三个向量的向量阈值及夹角的夹角阈值,识别参数依据识别对象确定采用向量阈值和/或夹角阈值。保持识别的达成规则为:该部位动作的识别对象始终在所设定的向量阈值和/或夹角阈值内。若未达成保持识别的达成规则,则提示对应保持识别的错误。
对于位移识别和否定位移识别,尽管此处描述为面向位移而非面向对象的识别项,但位移识别和否定位移识别实际还需识别部位动作是否处于持续的运动状态,若部位动作并未处于持续的运动状态则中断识别,直接提示错误;或者从当前位置开始重新进行识别。
位移识别用于判断识别对象是否达到预定的位移方向和位移距离,若未达到则提示出错。位移识别的识别对象包括三个骨骼点中的一个或多个。优选地,指定该部位动作的一个骨骼点。识别参数设定位移距离、位移方向(位移方向可映射至三维坐标中的X轴正方向、X轴负方向、Y轴正方向、Y轴负方向、Z轴正方向、Z轴负方向,无需计算具体的位移方向)及起始幅度阈值。位移的起始幅度阈值为0至1中的值。例如,起始幅度阈值可以设置为0.2,并表示当指定骨骼点的位移超过设定位移距离的20%时,该部位动作开始或位移识别开始。位移识别的识别规则包括达成规则及可选不同的错误规则。位移识别的达成规则为指定骨骼点的移动方向与识别参数中设置的位移方向一致,且一次持续运动的位移距离大于等于识别参数中设置的位移距离。不同的错误规则包括指定骨骼点的位移未超过起始幅度阈值时,提示起始动作幅度不够;指定骨骼点位移幅度超过起始幅度阈值、指定骨骼点的移动方向与识别参数中设置的位移方向一致并且一次持续运动的位移距离小于识别参数中设置的位移距离,则提示达成幅度不够。
否定位移识别用于判断识别对象是否达到预定的位移方向和位移距离,若达到则提示出错。与位移识别类似,识别对象包括三个骨骼点中的一个或多个。优选地,指定该部位动作的一个骨骼点。识别参数设定位移距离、位移方向(位移方向可映射至三维坐标中的X轴正方向、X轴负方向、Y轴正方向、Y轴负方向、Z轴正方向、Z轴负方向)及起始幅度阈值。否定位移识别的达成规则为指定骨骼点的移动方向与识别参数中设置的位移方向一致、一次持续运动的位移距离大于等于识别参数中设置的位移距离并且当前有除了否定识别和保持识别以外的识别正处于动作进行中的状态(换言之,轨迹或位移幅度正在增长)。当达成上述规则,则提示轨迹出错。换言之,若识别对象在该身体部位的运动过程中不按识别参数设定的位移方向移动或者移动距离大于识别参数设定的位移距离,则不提示出错。
对一个动作的至少一个部位动作设置上述识别项,将至少一个部位动作及至少一个部位动作的识别项作为该动作的动作文件,将该动作文件与该动作编号关联地储存在标准动作数据库中。
在一个具体实施例中,对于深蹲动作,其对躯干、左腿和右腿设置了识别项。躯干的识别项包括保持识别和位移识别。躯干的保持识别中,识别对象仅为头部中心到颈部的脊椎中心的第一向量,相应地设置该第一向量的参数,并保存由躯干的第一向量在深蹲过程中的标准过程向量库以供后续匹配。当实时采集的躯干的第一向量超过第一向量的阈值,则表示身体未保持直立,提示出错。此处,由于躯干的特性,当头部中心到颈部的脊椎中心的第一向量保持直立时,一般可直接认定颈部的脊椎中心到躯干的脊柱中心的第二向量也保持直立,仅设定一个向量的阈值,以减少后续计算量,提高后续实时纠错的效率。
躯干的位移识别中,识别对象为躯干的脊柱中心的骨骼点,对应的识别参数为该骨骼点的预定位移距离及预定的位移方向(方向为Y轴负方向)。当躯干的脊柱中心沿Y轴负方向移动超过预定距离时,则表示部位动作的该识别达成。若躯干的脊柱中心沿Y轴负方向移动未超过预定位移距离时,则表示部位动作的幅度不够。
左腿设置有否定位移识别,用于提醒深蹲中膝盖不能超过脚尖。左腿的否定位移识别中,识别对象为左膝盖的关节点,识别参数为预定位移距离、预定的位移方向(方向为Z轴正方向)及起始幅度阈值。当左膝盖沿Z轴正方向移动超过预定位移距离时,则提示表示部位动作错误。当左膝盖沿Z轴正方向移动未超过预定位移距离时,则表示部位动作的该识别达成。右腿的识别项与左腿相同,在此不予赘述。
在有一些具体实施例中,对于深蹲、俯卧撑等具有来回的动作,可仅对来和回中间的一个过程来进行设定和识别。例如,仅对深蹲下蹲时的动作进行识别项的设定和识别纠错;仅对俯卧撑俯卧时的动作进行识别项的设定和识别纠错,由此可进一步减少动作识别的计算量以增加纠错的实时性。
步骤S120:利用三维视频采集器自健身视频开始时开始采集三维视频数据,并实时生成三维骨骼动作模型。
三维视频采集器可以是三维景深红外摄像头或其他可以直接获取三维视频数据的摄像头,可利用3D建模工具制作动作模型动画,人物模型存在识别人体需要的上述15个骨骼点。模型动作动画必须符合标准的视频规范动作要求。做好的人物模型导出,导入Unity3D(三维游戏开发工具)的工程中,将模型中的15个骨骼点绑定到指定的记录3D位置的变量,运行程序,以合适的帧率记录每一帧的由骨骼点构成的上述15个向量,帧率的大小手动调节,使帧数在15到30左右适中即可。
在一个实施例中,实时采集的采样频率可与标准过程向量库中的采样频率相等,或者实时采集的采样频率可以大于标准过程向量库中的采样频率。当实时采集的采样频率可以大于标准过程向量库中的采样频率时,同一时间范围内的向量的多个数据与标准过程向量库中的向量的一个数据进行匹配计算。
步骤S130:根据采集时间和播放时间的映射,将当前三维骨骼动作模型作为一待测动作,并确定待测动作所要匹配的目标动作,将该待测动作与该目标动作形成一匹配组。
具体而言,健身视频中播放多个动作,例如,在一健身视频中播放了2次深蹲、2次俯卧撑及2次卷腹。其中,时间0:0:05-0:0:10为深蹲动作,时间0:0:15-0:0:20为深蹲动作,时间0:0:25-0:0:30为俯卧撑动作,时间0:0:35-0:0:40为俯卧撑动作,时间0:0:45-0:0:50为卷腹动作,时间0:0:55-0:0:55为卷腹动作。当实时采集的时间为0:0:25时,则可判断当前的待测动作所要匹配的目标动作为俯卧撑。
步骤S140:在每一匹配组中,依据目标动作的目标部位动作将待测动作划分为相应的待测部位动作,将待测动作的待测部位动作与相应的目标动作的目标部位动作形成一身体部位匹配组。
例如,将待测动作划分为左臂、右臂、左腿、右腿以及躯干五个待测部位动作。若目标动作的左臂、右臂以及躯干设置有识别项,则将左臂的待测部位动作与目标部位动作作为一身体部位匹配组;将右臂的待测部位动作与目标部位动作作为一身体部位匹配组;将躯干的待测部位动作与目标部位动作作为一身体部位匹配组。
步骤S150:对每一身体部位匹配组,获取目标部位动作的识别项,依据三维骨骼动作模型获取待测部位动作对应识别对象的骨骼点的坐标、骨骼点形成的向量和/或向量之间的夹角,按照上述步骤S110中的不同的识别项的内容进行识别和纠错。
在一个实施例中,每个健身视频具有一视频文件,视频文件包括该健身视频中的目标动作的编号及该目标动作的播放时间,步骤S110还包括:当播放到目标动作时,于一标准动作数据库查找该目标动作的编号的目标动作文件,目标动作文件与目标动作的编号关联地储存在标准动作数据库中,每个目标动作文件包括该目标动作的目标部位动作及对应该目标部位动作的识别项。
此外,本发明并非限定各步骤的执行顺序,例如,上述步骤S110和步骤S120同时进行,上述步骤S130和步骤S140同时执行,本领域技术人员可以实现更多的变化例,在此不予赘述。
在本发明的一个变化例中,除了实现实时纠错,还可以将实时采集的三维视频数据映射到健身视频中,使三维视频数据与健身视频同屏播放,由此用户可以直观得了解其健身动作与目标动作的差别以供后续改进。
本发明通过对实时采集的每个待测动作,且按身体构造,简化骨骼点,以三个骨骼点为单位将动作划分为待测部位动作,并以面向过程和面向位移的识别项对待测部位动作进行识别,且在面向过程的识别项中通过实时采集的骨骼点构成的向量和一标准过程向量库中的向量进行简单的计算以与设定的向量阈值进行比较,骨骼点和向量的设定及匹配识别的过程计算量较小,能够实现实时的反馈,不会产生反馈延迟的现象。
相比现有技术,本发明的交互式健身装置和交互式健身系统避免了实体健身器材对空间的占用,能够将普通的显示设备改建为互动式健身设备,创造了一种新的用户体验,减少了对于健身空间的需求,也大大降低了健身的门槛。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (18)
1.一种交互式健身装置,其特征在于,向一显示装置输出一健身视频,所述交互式健身装置包括:
骨骼动作生成模块,根据所述健身视频实时生成目标三维骨骼动作模型;
至少一个三维视频采集器,自所述健身视频播放时同步采集用户的三维视频数据,并实时生成用户三维骨骼动作模型;以及
动作匹配模块,比对目标三维骨骼动作模型与用户三维骨骼动作模型,当目标三维骨骼动作模型与用户三维骨骼动作模型不一致时,反馈错误提示。
2.如权利要求1所述的交互式健身装置,其特征在于,还包括一用户识别模块;
所述三维视频采集器在同一画面帧中分别采集用户的三维视频数据和用户的面部三维数据;
所述用户识别模块,预存有至少一位被授权使用所述交互式健身装置的用户的面部三维数据,所述用户识别模块实时比对所述三维视频采集器采集的面部三维数据是否命中预存的被授权用户的面部三维数据,若是,则维持所述交互式健身装置运行,若否,则停止所述交互式健身装置运行。
3.如权利要求2所述的交互式健身装置,其特征在于,还包括区域定位模块,所述区域定位模块在所述三维视频采集器在同一画面帧中定位画面中用户人脸的第一区域和用户全身的第二区域,所述用户识别模块针对所述第一区域采集用户的面部三维数据,所述动作匹配模块针对所述第二区域采集用户的三维视频数据,并实时生成用户三维骨骼动作模型。
4.如权利要求1所述的交互式健身装置,其特征在于,还包括一面部特征采集器和一用户识别模块;
所述面部特征采集器实时采集用户的面部三维数据;
所述用户识别模块,预存有至少一为被授权使用所述交互式健身装置的用户的面部三维数据,所述用户识别模块实时比对所述面部特征采集器采集的面部三维数据是否命中预存的被授权用户的面部三维数据,若是,则维持所述交互式健身装置运行,若否,则停止所述交互式健身装置运行。
5.如权利要求1所述的交互式健身装置,其特征在于,所述健身视频包括多个目标动作,每个所述目标动作与所述健身视频的播放时间关联,每个目标动作按身体部位划分5个目标部位动作,身体部位包括:左臂、右臂、左腿、右腿以及躯干;每个所述身体部位均包括:三个骨骼点、三个骨骼点形成的三个向量及所述三个向量中两个向量之间的夹角,每个目标部位动作对应一个或多个面向过程或者面向位移的识别项,每个识别项包括识别对象、识别参数及识别规则,所述识别对象包括所述三个骨骼点中的至少一个骨骼点;三个向量中的至少一个向量;以及所述三个向量中两个向量之间的一个夹角中的一项或多项,所述面向过程的识别项还包括一标准过程向量库,所述标准过程向量库按时间顺序储存有所述部位动作的至少一个向量;
所述动作匹配模块获取当前时刻的用户三维骨骼动作模型作为一待测动作,并且获取当前时刻之前一预设时间间隔的目标三维骨骼动作模型作为一目标动作,并将该待测动作与该目标动作形成一匹配组;在每一匹配组中,根据目标动作的目标部位动作将待测动作划分为相应的待测部位动作,将待测动作的待测部位动作与相应的目标动作的目标部位动作形成一身体部位匹配组;对每一身体部位匹配组,获取目标部位动作的识别项,根据所述三维骨骼动作模型获取所述待测部位动作对应所述识别对象的骨骼点的坐标、骨骼点形成的向量和/或向量之间的夹角,若所述识别项为面向过程的识别项,则将所述目标部位动作的向量与标准过程向量库中的对应向量进行匹配计算以与所述识别参数设定的向量阈值进行比较,若不符合所述识别规则,则反馈待测动作错误。
6.如权利要求5所述的交互式健身装置,其特征在于,将所述目标部位动作的向量与标准过程向量库中的对应向量进行匹配计算以与所述识别参数设定的向量阈值进行比较包括:
计算标准过程向量库中的向量与目标部位动作的向量 之间夹角θ的余弦值:
向量与向量之间的夹角θ的余弦值用于与所述识别参数设定的向量阈值进行比较。
7.如权利要求5所述的交互式健身装置,其特征在于,每个所述健身视频具有一视频文件,所述视频文件包括该健身视频中的目标动作的编号及该目标动作的播放时间,当播放到所述目标动作时,于一标准动作数据库查找该目标动作的编号的目标动作文件,所述目标动作文件与所述目标动作的编号关联地储存在所述标准动作数据库中,每个所述目标动作文件包括该目标动作的目标部位动作及对应该目标部位动作的识别项。
8.如权利要求5所述的交互式健身装置,其特征在于,面向过程的识别项包括轨迹识别、否定轨迹识别及保持识别;
面向位移的识别项包括位移识别以及否定位移识别。
9.如权利要求8所述的交互式健身装置,其特征在于,对于所述轨迹识别:
所述识别对象包括所述三个向量中的至少一个向量和/或所述三个向量中两个向量之间的一个夹角;
所述识别参数设定一个或多个阈值,所述阈值包括所述三个向量中的向量阈值及所述夹角的夹角阈值,所述识别参数根据所述识别对象确定采用向量阈值和/或夹角阈值;以及
所述识别规则包括待测部位动作的所述识别对象在该身体部位的运动过程中始终位于所述识别参数设定的阈值范围内。
10.如权利要求8所述的交互式健身装置,其特征在于,对于所述否定轨迹识别:
所述识别对象包括所述三个向量中的至少一个向量和/或所述三个向量中两个向量之间的一个夹角;
所述识别参数设定一个或多个阈值,所述阈值包括所述三个向量中的向量阈值及所述夹角的夹角阈值,所述识别参数根据所述识别对象确定采用向量阈值和/或夹角阈值;以及
所述识别规则包括待测部位动作的所述识别对象在该身体部位的运动过程中始终不在所述识别参数设定的阈值范围内,并且所述识别对象所表示的待测部位动作在运动过程中产生轨迹和/或位移。
11.如权利要求8所述的交互式健身装置,其特征在于,对于所述保持识别:
所述识别对象包括所述三个向量中的至少一个向量和/或所述三个向量中两个向量之间的一个夹角;
所述识别参数设定一个或多个阈值,所述阈值包括所述三个向量中的向量阈值及所述夹角的夹角阈值,所述识别参数根据所述识别对象确定采用向量阈值和/或夹角阈值;以及
所述识别规则包括待测部位动作的所述识别对象在该动作的运动过程中始终位于所述识别参数设定的阈值范围内。
12.如权利要求9至11中任意一项所述的交互式健身装置,其特征在于,所述标准过程向量库按时间顺序储存有所述目标部位动作的至少两个向量,根据两个向量计算向量之间的夹角,
将待测部位动作的两个向量之间的夹角α与标准过程向量库中对应的两个向量之间的夹角β的比值α/β与所述夹角阈值进行比较以确定实时采集的部位动作的夹角是否位于所述夹角阈值的范围内。
13.如权利要求9至11中任意一项所述的交互式健身装置,其特征在于,所述轨迹识别、所述否定轨迹识别及所述保持识别的识别参数还分别包括一起始幅度阈值及达成幅度阈值,
所述起始幅度阈值用于判断待测部位动作是否开始;
所述达成幅度阈值用于判断待测部位动作结束是否完成达成幅度。
14.如权利要求8所述的交互式健身装置,其特征在于,对于所述位移识别:
所述识别对象包括所述三个骨骼点中的一个或多个;
所述识别参数设定位移距离、位移方向及起始幅度阈值;以及
所述识别规则包括所述识别对象在该身体部位的运动过程中按所述识别参数设定的位移方向移动并且移动距离大于所述识别参数设定的位移距离。
15.如权利要求8所述的交互式健身装置,其特征在于,对于所述否定位移识别:
所述识别对象包括所述三个骨骼点中的一个或多个;
所述识别参数设定位移距离、位移方向及起始幅度阈值;以及
所述识别规则包括所述识别对象在该身体部位的运动过程中不按所述识别参数设定的位移方向移动或者移动距离大于所述识别参数设定的位移距离。
16.一种交互式健身系统,其特征在于:包括一如权利要求1至15中任意一项所述的交互式健身装置和一显示装置,所述交互式健身装置设置在所述显示装置的周围,所述交互式健身装置通过视频传输线连接所述显示装置。
17.如权利要求16所述的交互式健身系统,其特征在于,所述显示装置是一电视机,所述交互式健身装置固定在一电视机的上沿并通过数据线连接所述电视机,向所述电视机发送健身视频,所述电视机播放所述健身视频。
18.如权利要求16所述的交互式健身系统,其特征在于,所述健身视频被储存于所述交互式健身装置,或者所述交互式健身装置通过网络连接向所述显示装置输出网络上的在线健身视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810246768.5A CN110298218B (zh) | 2018-03-23 | 2018-03-23 | 交互式健身装置和交互式健身系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810246768.5A CN110298218B (zh) | 2018-03-23 | 2018-03-23 | 交互式健身装置和交互式健身系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110298218A true CN110298218A (zh) | 2019-10-01 |
CN110298218B CN110298218B (zh) | 2022-03-04 |
Family
ID=68026074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810246768.5A Active CN110298218B (zh) | 2018-03-23 | 2018-03-23 | 交互式健身装置和交互式健身系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110298218B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111097142A (zh) * | 2019-12-19 | 2020-05-05 | 武汉西山艺创文化有限公司 | 基于5g通信的动作捕捉运动训练方法及系统 |
CN111709365A (zh) * | 2020-06-17 | 2020-09-25 | 成都工业学院 | 一种基于卷积神经网络的人体运动姿态自动检测方法 |
CN112418046A (zh) * | 2020-11-17 | 2021-02-26 | 武汉云极智能科技有限公司 | 一种基于云机器人的健身指导方法、存储介质及系统 |
CN112932470A (zh) * | 2021-01-27 | 2021-06-11 | 上海萱闱医疗科技有限公司 | 俯卧撑训练的评估方法及装置、设备、存储介质 |
CN113505662A (zh) * | 2021-06-23 | 2021-10-15 | 广州大学 | 一种健身指导方法、装置及存储介质 |
CN114745576A (zh) * | 2022-03-25 | 2022-07-12 | 上海合志信息技术有限公司 | 一种家庭健身互动方法、装置、电子设备以及存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101059838A (zh) * | 2007-06-11 | 2007-10-24 | 湖北东润科技有限公司 | 一种人脸识别系统与识别方法 |
CN101630410A (zh) * | 2009-08-18 | 2010-01-20 | 北京航空航天大学 | 一种基于单摄像机的人体坐姿判定方法 |
CN103390174A (zh) * | 2012-05-07 | 2013-11-13 | 深圳泰山在线科技有限公司 | 基于人体姿态识别的体育教学辅助系统和方法 |
KR20150101629A (ko) * | 2014-02-27 | 2015-09-04 | 계명대학교 산학협력단 | 태권도 품새 판독 및 교육 장치 및 그 방법 |
CN105847987A (zh) * | 2016-03-24 | 2016-08-10 | 乐视控股(北京)有限公司 | 通过电视和体感配件矫正人体动作及系统 |
US20160232676A1 (en) * | 2015-02-05 | 2016-08-11 | Electronics And Telecommunications Research Institute | System and method for motion evaluation |
CN105872685A (zh) * | 2016-03-24 | 2016-08-17 | 深圳市国华识别科技开发有限公司 | 智能终端控制方法和系统、智能终端 |
CN105903157A (zh) * | 2016-04-19 | 2016-08-31 | 深圳泰山体育科技股份有限公司 | 电子教练实现方法及系统 |
CN106485055A (zh) * | 2016-09-22 | 2017-03-08 | 吉林大学 | 一种基于Kinect传感器的老年II型糖尿病患者运动训练系统 |
KR20170104322A (ko) * | 2016-03-07 | 2017-09-15 | 한국전자통신연구원 | 3차원 기반의 유사 안무 검색 방법 및 이를 이용한 장치 |
CN107423712A (zh) * | 2017-07-28 | 2017-12-01 | 南京华捷艾米软件科技有限公司 | 一种3d人脸识别方法 |
CN107483428A (zh) * | 2017-08-09 | 2017-12-15 | 广东欧珀移动通信有限公司 | 身份验证方法、装置和终端设备 |
-
2018
- 2018-03-23 CN CN201810246768.5A patent/CN110298218B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101059838A (zh) * | 2007-06-11 | 2007-10-24 | 湖北东润科技有限公司 | 一种人脸识别系统与识别方法 |
CN101630410A (zh) * | 2009-08-18 | 2010-01-20 | 北京航空航天大学 | 一种基于单摄像机的人体坐姿判定方法 |
CN103390174A (zh) * | 2012-05-07 | 2013-11-13 | 深圳泰山在线科技有限公司 | 基于人体姿态识别的体育教学辅助系统和方法 |
KR20150101629A (ko) * | 2014-02-27 | 2015-09-04 | 계명대학교 산학협력단 | 태권도 품새 판독 및 교육 장치 및 그 방법 |
US20160232676A1 (en) * | 2015-02-05 | 2016-08-11 | Electronics And Telecommunications Research Institute | System and method for motion evaluation |
KR20170104322A (ko) * | 2016-03-07 | 2017-09-15 | 한국전자통신연구원 | 3차원 기반의 유사 안무 검색 방법 및 이를 이용한 장치 |
CN105847987A (zh) * | 2016-03-24 | 2016-08-10 | 乐视控股(北京)有限公司 | 通过电视和体感配件矫正人体动作及系统 |
CN105872685A (zh) * | 2016-03-24 | 2016-08-17 | 深圳市国华识别科技开发有限公司 | 智能终端控制方法和系统、智能终端 |
CN105903157A (zh) * | 2016-04-19 | 2016-08-31 | 深圳泰山体育科技股份有限公司 | 电子教练实现方法及系统 |
CN106485055A (zh) * | 2016-09-22 | 2017-03-08 | 吉林大学 | 一种基于Kinect传感器的老年II型糖尿病患者运动训练系统 |
CN107423712A (zh) * | 2017-07-28 | 2017-12-01 | 南京华捷艾米软件科技有限公司 | 一种3d人脸识别方法 |
CN107483428A (zh) * | 2017-08-09 | 2017-12-15 | 广东欧珀移动通信有限公司 | 身份验证方法、装置和终端设备 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111097142A (zh) * | 2019-12-19 | 2020-05-05 | 武汉西山艺创文化有限公司 | 基于5g通信的动作捕捉运动训练方法及系统 |
CN111709365A (zh) * | 2020-06-17 | 2020-09-25 | 成都工业学院 | 一种基于卷积神经网络的人体运动姿态自动检测方法 |
CN112418046A (zh) * | 2020-11-17 | 2021-02-26 | 武汉云极智能科技有限公司 | 一种基于云机器人的健身指导方法、存储介质及系统 |
CN112932470A (zh) * | 2021-01-27 | 2021-06-11 | 上海萱闱医疗科技有限公司 | 俯卧撑训练的评估方法及装置、设备、存储介质 |
CN112932470B (zh) * | 2021-01-27 | 2023-12-29 | 上海萱闱医疗科技有限公司 | 俯卧撑训练的评估方法及装置、设备、存储介质 |
CN113505662A (zh) * | 2021-06-23 | 2021-10-15 | 广州大学 | 一种健身指导方法、装置及存储介质 |
CN113505662B (zh) * | 2021-06-23 | 2024-03-01 | 广州大学 | 一种健身指导方法、装置及存储介质 |
CN114745576A (zh) * | 2022-03-25 | 2022-07-12 | 上海合志信息技术有限公司 | 一种家庭健身互动方法、装置、电子设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110298218B (zh) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298218A (zh) | 交互式健身装置和交互式健身系统 | |
KR100483806B1 (ko) | 예제동작을 이용한 영상기반 동작복원방법 | |
CN110428486A (zh) | 虚拟互动的健身方法、电子设备及存储介质 | |
CN103678859B (zh) | 动作比对方法与动作比对系统 | |
CN109308438A (zh) | 动作识别库的建立方法、电子设备、存储介质 | |
CN107930048B (zh) | 一种太空体感识别运动分析系统及运动分析方法 | |
WO2017092196A1 (zh) | 三维动画生成的方法和装置 | |
CN110298221A (zh) | 自助健身方法、系统、电子设备、存储介质 | |
CN110298220A (zh) | 动作视频直播方法、系统、电子设备、存储介质 | |
CN109308437A (zh) | 动作识别纠错方法、电子设备、存储介质 | |
AU2020387669A1 (en) | Real-time system for generating 4D spatio-temporal model of a real world environment | |
Obdržálek et al. | Real-time human pose detection and tracking for tele-rehabilitation in virtual reality | |
CN108564642A (zh) | 基于ue引擎的无标记表演捕捉系统 | |
CN110188700B (zh) | 基于分组回归模型的人体三维关节点预测方法 | |
KR20120051659A (ko) | 비주얼 형상의 자동 생성 방법 | |
CN105209136A (zh) | 用于分析3d图像中的用户动作的质心状态矢量 | |
CN105228709A (zh) | 用于重复检测和分析的信号分析 | |
CN108279573A (zh) | 基于人体属性检测的控制方法、装置、智能家电和介质 | |
CN110119700A (zh) | 虚拟形象控制方法、虚拟形象控制装置和电子设备 | |
CN113065505B (zh) | 身体动作快速识别方法及系统 | |
CN104353240A (zh) | 基于Kinect的跑步机系统 | |
CN109200576A (zh) | 机器人投影的体感游戏方法、装置、设备和存储介质 | |
JP2015186531A (ja) | 動作情報処理装置、及びプログラム | |
CN109255687A (zh) | 商品虚拟试装系统及试装方法 | |
CN112973110A (zh) | 云游戏控制方法、装置、网络电视及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210819 Address after: 200125 room 328, floor 3, unit 2, No. 231, Expo Village Road, pilot Free Trade Zone, Pudong New Area, Shanghai Applicant after: Shanghai shibeisi Fitness Management Co.,Ltd. Address before: 200233 room 136, building 20, tianlinfang, 130 Tianlin Road, Xuhui District, Shanghai Applicant before: SHANGHAI MYSHAPE INFORMATION TECHNOLOGY Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |