CN115299931B - 人体姿态数据处理方法及系统 - Google Patents

人体姿态数据处理方法及系统 Download PDF

Info

Publication number
CN115299931B
CN115299931B CN202210939188.0A CN202210939188A CN115299931B CN 115299931 B CN115299931 B CN 115299931B CN 202210939188 A CN202210939188 A CN 202210939188A CN 115299931 B CN115299931 B CN 115299931B
Authority
CN
China
Prior art keywords
human body
gesture
state
posture
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210939188.0A
Other languages
English (en)
Other versions
CN115299931A (zh
Inventor
伍光伟
仲元红
徐乾锋
钟代笛
周庆
黄智勇
葛亮
庄洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202210939188.0A priority Critical patent/CN115299931B/zh
Publication of CN115299931A publication Critical patent/CN115299931A/zh
Application granted granted Critical
Publication of CN115299931B publication Critical patent/CN115299931B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人体姿态数据处理方法及系统。本发明的人体姿态数据处理方法通过将人体姿态进行分解为若干的姿态基本单元,每个单元使用相对于三个旋转轴的状态或总结状态进行较精确的语义描述和模糊语义描述,使得整个姿态也可由各个姿态基组合进行较精确的语义描述和模糊语义描述,充分利用了姿态数据的语义特性来完成数据的交互,进而节省了数据处理时间和计算资源,增强了数据的直接可计算性、可操作性、可探索性和可组合性,提供了用户体验,降低了应用成本,较于现有其他姿态数据处理方法有巨大优势。

Description

人体姿态数据处理方法及系统
技术领域
本发明涉及一种人体姿态数据处理方法及系统,属于数据处理技术领域。
背景技术
随着技术的发展,目前医疗健康,运动康复等领域可以使用人体运动数据帮助相关工作进行复制分析。通过对人体运动数据的处理、分析,可以更方便、快速地了解到原来需要人眼进行观察、分析的身体状况,从而迅速地采取医疗措施和修正建议。
随着微传感器的发展,基于MEMS捕捉的人体运动分析也得到了广泛的关注研究,但无论是基于视频的还是基于MEMS的,其捕获的人体运动数据都着重于对人体运动的精确描述,通过身体各个关键点(骨骼)相对于某个根关键点(骨骼)或其连接的父级关键点(骨骼)的旋转、平移信息来表示人体的运动。
从医疗健康,运动康复等领域应用来看,使用上述的格式的动作数据却不是最佳,因为其中所描述的旋转、平移量都是采用较高精度的角度值,适合对人体骨架的空间位置进行精确描述,不适合直接进行语义分析和基于结构化数据计算。
有鉴于此,确有必要对现有的人体姿态数据处理方法提出改进,以解决上述问题。
发明内容
本发明的目的在于提供一种人体姿态数据处理方法及系统,该方法通过若干人体姿态单元对人体姿态进行描述,并进一步对每个人体姿态单元进行空间状态的描述,使得构成人体姿态的人体姿态单元具备一定的语义信息,方便对人体姿态进行判断、识别以及查询。
为实现上述目的,本发明提供了一种人体姿态数据处理方法。请参阅图1所示,为本发明人体姿态数据处理方法,具体包括以下步骤:
S1、定义人体姿态单元,通过多个所述人体姿态单元对所述人体姿态进行表示;所述S1包括按照人体部位对所述人体姿态进行所述人体姿态单元的划分,所述人体姿态单元包括头部单元、躯干单元、左右上臂单元、左右前臂单元、左右手掌单元、左右大腿单元、左右小腿单元以及左右脚踝单元,并赋予所述人体姿态单元相应的姿态部位语义名称,且所述人体姿态由所述人体姿态单元按照预设的顺序排布组成;
S2、基于旋转轴状态语义和局部姿态空间位置状态语义,获取每个所述人体姿态单元相对于中立位的空间位置状态数据及对应的姿态语义,多个所述人体姿态单元对应的空间位置状态数据构成所述人体姿态数据;具体包括:
S21、基于所述旋转轴状态语义,对每个所述人体姿态单元进行旋转状态的赋予;所述旋转状态的赋予包括对每个所述人体姿态单元进行冠状轴旋转状态、垂直轴旋转状态以及矢转轴旋转状态的赋予;
S22、基于所述局部姿态空间位置状态语义,对每个赋予所述旋转状态描述的所述人体姿态单元进行状态值的赋予;
所述S22具体为基于所述局部姿态空间位置状态语义,定义所述状态值的姿态含义,并根据每个所述人体姿态单元的位置状态赋予相应的状态值,以对每个所述人体姿态单元进行语义描述;
S3、使用动作捕捉设备捕捉人体瞬时姿态,并按照所述人体姿态单元进行所述人体瞬时姿态的分割,获取对应所述人体瞬时姿态的瞬时姿态数据;
S4、将所述S3中的所述瞬时姿态数据与所述S2中的所述人体姿态数据进行对比处理,对所述人体瞬时姿态进行识别;
S5、重复S1~S4,直至识别出所述人体瞬时姿态为目标姿态,输出所述人体瞬时姿态对应的所述姿态语义,并对所述人体瞬时姿态中的关键姿态进行标定输出。
作为本发明的进一步改进,所述S3具体为:
S31、使用动作捕捉设备捕捉所述人体瞬时姿态,并按照所述人体姿态单元进行所述人体瞬时姿态的分割,获取人体瞬时姿态单元;
S32、基于所述旋转轴状态语义和所述局部姿态空间位置状态语义,获取对应所述人体瞬时姿态的瞬时姿态数据。
作为本发明的进一步改进,所述S4具体为:
S41、提取所述人体瞬时姿态单元对应的姿态部位语义名称,并将具有相同的所述姿态部位语义名称的所述人体瞬时姿态单元和所述人体瞬时姿态进行姿态数据的匹配;
S42、遍历具有相同的所述姿态部位语义名称的所述人体姿态数据,查看所述人体瞬时姿态单元与所述人体姿态数据是否相符/匹配,将与所述人体瞬时姿态单元匹配的所述人体姿态数据进行提取;
S43、重复S42,直至所述人体瞬时姿态中的所有的所述人体瞬时姿态单元均匹配对应的所述人体姿态数据;
S44、保存并输出与所述人体瞬时姿态对应的所述人体瞬时姿态数据。
作为本发明的进一步改进,所述S42中,所述遍历的方法可以是顺序遍历、倒序遍历或循环遍历方法中的一种或几种。
作为本发明的进一步改进,所述S5具体为:
S51、确定需要查找的所述人体瞬时姿态单元和对应的变化方式;
S52、重复S1~S4,在所述人体姿态数据进行所述人体瞬时姿态的姿态数据的匹配;
S53、所述人体瞬时姿态的姿态数据与所述人体姿态数据匹配,则输出对应的变化方式,并将匹配的所述人体瞬时姿态作为关键帧输出。
为实现上述发明目的,本发明还提供了一种人体姿态数据处理系统,包括采集单元、处理单元和输出单元,所述采集单元用于采集人体运动时的人体瞬时姿态;所述处理单元用于执行前述的人体姿态数据处理方法。
本发明的有益效果是:本发明的人体姿态数据处理方法通过将人体姿态进行分解为若干的姿态基本单元,每个单元使用相对于三个旋转轴的状态或总结状态进行较精确的语义描述和模糊语义描述,使得整个姿态也可由各个姿态基组合进行较精确的语义描述和模糊语义描述。可使得姿态数据在使用时不再依赖于处理繁杂的人体关键点或骨架的欧拉角,仅仅使用各个姿态基的语义就可以对姿态进行描述,且可以使用欧拉角描述方式无法完成的姿态语义判断、识别和查询操作,并只需要较低的计算量。本发明提供的方法充分利用了姿态数据的语义特性来完成数据的交互,进而节省了数据处理时间和计算资源,增强了数据的直接可计算性、可操作性、可探索性和可组合性,提供了用户体验,降低了应用成本,较于现有其他姿态数据处理方法有巨大优势。
附图说明
图1是本发明人体姿态数据处理方法的流程图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
在此,需要说明的是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与本发明的方案密切相关的结构和/或处理步骤,而省略了与本发明关系不大的其他细节。
另外,还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
如图1所示,为本发明的人体姿态数据处理方法,具体包括以下步骤:
S1、定义人体姿态单元,通过多个人体姿态单元对人体姿态进行表示;
S2、基于旋转轴状态语义和局部姿态空间位置状态语义,获取每个人体姿态单元相对于中立位的空间位置状态数据及对应的姿态语义,多个人体姿态单元对应的空间位置状态数据构成人体姿态数据;
S3、使用动作捕捉设备捕捉人体瞬时姿态,并按照人体姿态单元进行人体瞬时姿态的分割,获取对应人体瞬时姿态的瞬时姿态数据;
S4、将S3中的瞬时姿态数据与S2中的人体姿态数据进行对比处理,对人体瞬时姿态进行识别;
S5、重复S1~S4,直至识别出人体瞬时姿态为目标姿态,输出人体瞬时姿态对应的姿态语义,并对人体瞬时姿态中的关键姿态进行标定输出。
以下说明书部分将针对S1~S5进行详细描述。
S1包括按照人体部位对人体姿态进行人体姿态单元的划分,人体姿态单元包括头部单元、躯干单元、左右上臂单元、左右前臂单元、左右手掌单元、左右大腿单元、左右小腿单元以及左右脚踝单元,并赋予人体姿态单元相应的姿态部位语义名称,且人体姿态由人体姿态单元按照预设的顺序排布组成。
在本发明中,人体姿态单元的划分包括
S2具体包括:
S21、基于旋转轴状态语义,对每个人体姿态单元进行旋转状态的赋予;
S22、基于局部姿态空间位置状态语义,对每个赋予旋转状态描述的人体姿态单元进行状态值的赋予。
具体的,定义PU0_TRUNK为描述人体躯干单元姿态数据的姿态属性值。基于旋转轴状态语义对躯干单元相对于中立位的空间位置状态进行描述,其状态值通过三个字符位表示,以描述躯干单元相对于中立位的空间位置旋转状态;其中一个字符为表示绕冠状轴旋转的状态(其状态可描述为:中立位/前屈/后伸),一位表示绕垂直轴旋转的状态(其状态可描述为:中立位/左旋/右旋);一位字符为表示绕矢状轴旋转的状态(其状态可描述为:中立位/左侧屈/右侧屈)。基于局部姿态空间位置状态语义对躯干姿态相对于中立位的空间位置状态的每个状态值进行赋值,每个字符的取值均为[0,5],其中0表示躯干处于直立姿态;1表示躯干处于倒立状态;2表示躯干处于前倾状态;3表示躯干处于后仰状态;4表示躯干处于单倾状态;5表示躯干处于双倾状态。
定义PU1_LEFT_UPPERARM为描述左上臂单元姿态数据的姿态属性值。基于旋转轴状态语义对左上臂单元相对于中立位的空间位置状态进行描述,其状态值通过三个字符位表示,一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/前屈/后伸);一位表示绕垂直轴旋转的状态(其状态可描述为:中立位/内旋/外旋);一位表示绕矢状轴旋转的状态(其状态可描述为:中立位/外展/内收)。基于局部姿态空间位置状态语义对左上臂单元相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,6],0表示上臂处于中立位;1表示上臂处于前屈状态;2表示上臂处于后伸状态;3表示上臂处于内旋状态;4表示上臂处于外旋状态;5表示上臂处于外展状态;6表示上臂处于内收状态。
定义PU1_RIGHT_UPPERARM为描述右上臂单元姿态数据的姿态属性值。基于旋转轴状态语义对右上臂姿态相对于中立位的空间位置状态进行描述,其值为三个字符位表示,一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/前屈/后伸);一位表示绕垂直轴旋转的状态(其状态可描述为:中立位/内旋/外旋);一位表示绕矢状轴旋转的状态(其状态可描述为:中立位/外展/内收)。基于局部姿态空间位置状态语义对右上臂单元相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,6],0表示上臂处于中立位;1表示上臂处于前屈状态;2表示上臂处于后伸状态;3表示上臂处于内旋状态;4表示上臂处于外旋状态;5表示上臂处于外展状态;6表示上臂处于内收状态。
定义PU1_LEFT_THIGH为描述左大腿单元姿态数据的姿态属性值。基于旋转轴状态语义对左大腿姿态相对于中立位的空间位置状态进行描述,其值为三个字符位表示,一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/前屈/后伸);一位表示绕垂直轴旋转的状态(其状态可描述为:中立位/内旋/外旋);一位表示绕矢状轴旋转的状态(其状态可描述为:中立位/外展/内收)。基于局部姿态空间位置状态语义对左大腿姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,6],0表示大腿处于中立位;1表示大腿处于前屈状态;2表示大腿处于后伸状态;3表示大腿处于内旋状态;4表示大腿处于外旋状态;5表示大腿处于外展状态;6表示大腿处于内收状态。
定义PU1_RIGHT_THIGH为描述右大腿单元姿态数据的姿态属性值。基于旋转轴状态语义对右大腿姿态相对于中立位的空间位置状态进行描述,其值为三个字符位表示,一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/前屈/后伸);一位表示绕垂直轴旋转的状态(其状态可描述为:中立位/内旋/外旋);一位表示绕矢状轴旋转的状态(其状态可描述为:中立位/外展/内收)。基于局部姿态空间位置状态语义对右大腿姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,6],0表示大腿处于中立位;1表示大腿处于前屈状态;2表示大腿处于后伸状态;3表示大腿处于内旋状态;4表示大腿处于外旋状态;5表示大腿处于外展状态;6表示大腿处于内收状态。
定义PU2_LEFT_FOREARM为描述左前臂单元姿态数据的姿态属性值。基于旋转轴状态语义描述左前臂姿态相对于中立位的空间位置状态进行描述,其值为两个字符位表示,一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/屈曲/过伸);一位表示绕垂直轴旋转的状态(其状态可描述为:中立位/内旋/外旋)。基于局部姿态空间位置状态语义对左前臂姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,4],0表示前臂处于中立位;1表示前臂处于前屈状态;2表示前臂处于后伸状态;3表示前臂处于内旋状态;4表示前臂处于外旋状态。
定义PU2_RIGHT_FOREARM为描述右前臂单元姿态数据的姿态属性值。基于旋转轴状态语义描述右前臂姿态相对于中立位的空间位置状态进行描述,其值为两个字符位表示,一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/屈曲/过伸);一位表示绕垂直轴旋转的状态(其状态可描述为:中立位/内旋/外旋)。基于局部姿态空间位置状态语义对右前臂姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,4],0表示前臂处于中立位;1表示前臂处于前屈状态;2表示前臂处于后伸状态;3表示前臂处于内旋状态;4表示前臂处于外旋状态。
定义PU2_LEFT_SHANK为描述左小腿单元姿态数据的姿态属性值。基于旋转轴状态语义描述左小腿姿态相对于中立位的空间位置状态进行描述,其值为两个字符位表示,一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/屈曲/过伸);一位表示绕垂直轴旋转的状态(其状态可描述为:中立位/内旋/外旋)。基于局部姿态空间位置状态语义对左小腿姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,4],0表示小腿处于中立位;1表示小腿处于前屈状态;2表示小腿处于后伸状态;3表示小腿处于内旋状态;4表示小腿处于外旋状态。
定义PU2_RIGHT_SHANK为描述右小腿单元姿态数据的姿态属性值。基于旋转轴状态语义描述右小腿姿态相对于中立位的空间位置状态进行描述,其值为两个字符位表示,一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/屈曲/过伸);一位表示绕垂直轴旋转的状态(其状态可描述为:中立位/内旋/外旋)。基于局部姿态空间位置状态语义对右小腿姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,4],0表示小腿处于中立位;1表示小腿处于前屈状态;2表示小腿处于后伸状态;3表示小腿处于内旋状态;4表示小腿处于外旋状态。
定义PU3_HEAD为描述头部单元姿态数据的姿态属性值。基于旋转轴状态语义描述头部姿态相对于中立位的空间位置状态进行描述,其值为三个字符位表示,一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/低头/抬头);一位表示绕垂直轴旋转的状态(其状态可描述为:中立位/左转/右转);一位表示绕矢状轴旋转的状态(中立位/左侧倾/右侧倾)。基于局部姿态空间位置状态语义对头部姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,6],0表示头部处于中立位;1表示头部处于低头状态;2表示头部处于抬头状态;3表示头部处于左旋状态;4表示头部处于右旋状态;5表示头部处于左倾状态;6表示头部处于右倾状态。
定义PU3_LEFT_HAND为描述左手单元姿态数据的姿态属性值。基于旋转轴状态语义描述左手姿态相对于中立位的空间位置状态进行描述,其值为一个字符位表示,第一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/前屈/后伸)。基于局部姿态空间位置状态语义对左手姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,2],0表示左手处于中立位;1表示左手处于前屈状态;2表示左手处于后伸状态。
定义PU3_RIGHT_HAND为描述右手单元姿态数据的姿态属性值。基于旋转轴状态语义描述右手姿态相对于中立位的空间位置状态进行描述,其值为一个字符位表示,第一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/前屈/后伸)。基于局部姿态空间位置状态语义对右手姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,2],0表示右手处于中立位;1表示右手处于前屈状态;2表示右手处于后伸状态。
定义PU3_LEFT_FOOT为描述左脚单元姿态数据的姿态属性值。基于旋转轴状态语义描述左脚姿态相对于中立位的空间位置状态进行描述,其值为两个字符位表示,第一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/前屈/后伸);第二位表示绕垂直轴旋转的状态(其状态可描述为:中立位/左旋/右旋)。基于局部姿态空间位置状态语义对左脚姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,4],0表示左脚处于中立位;1表示左脚处于前屈状态;2表示左脚处于后伸状态;3表示左脚处于左旋状态;4表示左脚处于右旋状态。
定义PU3_LEFT_FOOT为描述右脚单元姿态数据的姿态属性值。基于旋转轴状态语义描述右脚姿态相对于中立位的空间位置状态进行描述,其值为两个字符位表示,第一位表示其是绕冠状轴旋转的状态(其状态可描述为:中立位/前屈/后伸);第二位表示绕垂直轴旋转的状态(其状态可描述为:中立位/右旋/右旋)。基于局部姿态空间位置状态语义对右脚姿态相对于中立位的空间位置状态的每个状态值进行赋值,其值为一个字符位表示,该字符取值为[0,4],0表示右脚处于中立位;1表示右脚处于前屈状态;2表示右脚处于后伸状态;3表示右脚处于右旋状态;4表示右脚处于右旋状态。
S3具体为:
S31、使用动作捕捉设备捕捉人体瞬时姿态,并按照人体姿态单元进行人体瞬时姿态的分割,获取人体瞬时姿态单元;
S32、基于旋转轴状态语义和局部姿态空间位置状态语义,获取对应人体瞬时姿态的瞬时姿态数据。
在本发明中,人体瞬时姿态的捕捉为通过动作捕捉设备以红外光学为原理完成动作的捕捉。具体的,在人体瞬时姿态捕捉过程中需要在进行标记点mark的标记,使用动作捕捉设备,如动捕相机,获取人体的运动图像,同时,定位标记点的图像坐标位置(u,v)。
进一步的,确定动作捕捉设备的内部参数,以及动作捕捉设备坐标系与大地坐标系之间的位置关系,如下:
其中,K为动作捕捉设备的内部参数矩阵,P=[X,Y,Z]T为某关键点在三维空间中的坐标;通过上式建立图像坐标系与相机坐标系直接的联系:
其中,T是动作捕捉设备坐标系转换到大地坐标系的转换矩阵,为动作捕捉设备外部参数矩阵;通过上式可以建立图像坐标系与大地坐标系之间的联系,从而利用人体关键点的图像坐标求得实际坐标。
具体的,在实际实现过程中,由于多动作捕捉设备同时架设、动作捕捉设备镜头畸变、动作捕捉设备内外参数难以准确获得等因素,无法简单计算各个关键点在空间中的坐标;需要先利用标定设备进行动作捕捉设备标定确定动作捕捉设备参数;优选的,本发明是通过多动作捕捉设备的镜头数据进行参数迭代,以找到最优值。
S4具体为:
S41、提取人体瞬时姿态单元对应的姿态部位语义名称,并将具有相同的姿态部位语义名称的人体瞬时姿态单元和人体瞬时姿态进行姿态数据的匹配;
S42、遍历具有相同的姿态部位语义名称的人体姿态数据,查看人体瞬时姿态单元与人体姿态数据是否相符/匹配,将与人体瞬时姿态单元匹配的人体姿态数据进行提取;其中,遍历的方法可以是顺序遍历、倒序遍历或循环遍历方法中的一种或几种。
S43、重复S42,直至人体瞬时姿态中的所有的人体瞬时姿态单元均匹配对应的人体姿态数据;
S44、保存并输出与人体瞬时姿态对应的人体瞬时姿态数据。
S5具体为:
S51、确定需要查找的人体瞬时姿态单元和对应的变化方式;
S52、重复S1~S4,在人体姿态数据进行人体瞬时姿态的姿态数据的匹配;
S53、人体瞬时姿态的姿态数据与人体姿态数据匹配,则输出对应的变化方式,并将匹配的人体瞬时姿态作为关键帧输出。
本发明还提供的一种人体姿态数据处理系统,包括采集单元、处理单元和输出单元,采集单元用于采集人体运动时的人体瞬时姿态;处理单元用于执行本发明的人体姿态数据处理方法。优选的,采集单元为以红外光学为原理完成动作捕捉的动作捕捉设备。
综上所述,本发明通过对瞬时姿态数据的处理,将姿态数据变为统一格式的姿态基数据,便于对大量数据进行进一步处理;本发明的姿态基数据的量化精度对姿态的影响较小且能极大的压缩数据量,不容易失真;本发明通过姿态基数据表不经过软件还原就能够直观的反应一个姿态,简单明了。本发明提供的方法充分利用了姿态数据的语义特性来完成数据的交互,进而节省了数据处理时间和计算资源,增强了数据的直接可计算性、可操作性、可探索性和可组合性,提供了用户体验,降低了应用成本,较于现有其他姿态数据处理方法有巨大优势。
以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围。

Claims (6)

1.一种人体姿态数据处理方法,其特征在于:具体包括以下步骤:
S1、定义人体姿态单元,通过多个所述人体姿态单元对人体姿态进行表示;包括按照人体部位对所述人体姿态进行所述人体姿态单元的划分,所述人体姿态单元包括头部单元、躯干单元、左右上臂单元、左右前臂单元、左右手掌单元、左右大腿单元、左右小腿单元以及左右脚踝单元,并赋予所述人体姿态单元相应的姿态部位语义名称,且所述人体姿态由所述人体姿态单元按照预设的顺序排布组成;
S2、基于旋转轴状态语义和局部姿态空间位置状态语义,获取每个所述人体姿态单元相对于中立位的空间位置状态数据及对应的姿态语义,多个所述人体姿态单元对应的空间位置状态数据构成所述人体姿态数据;具体包括:
S21、基于所述旋转轴状态语义,对每个所述人体姿态单元进行旋转状态的赋予;所述旋转状态的赋予包括对每个所述人体姿态单元进行冠状轴旋转状态、垂直轴旋转状态以及矢状轴旋转状态的赋予;
S22、基于所述局部姿态空间位置状态语义,对每个赋予所述旋转状态描述的所述人体姿态单元进行状态值的赋予;
所述S22具体为基于所述局部姿态空间位置状态语义,定义所述状态值的姿态含义,并根据每个所述人体姿态单元的位置状态赋予相应的状态值,以对每个所述人体姿态单元进行语义描述;
S3、使用动作捕捉设备捕捉人体瞬时姿态,并按照所述人体姿态单元进行所述人体瞬时姿态的分割,获取对应所述人体瞬时姿态的瞬时姿态数据;
S4、将所述S3中的所述瞬时姿态数据与所述S2中的所述人体姿态数据进行对比处理,对所述人体瞬时姿态进行识别;
S5、重复S1~S4,直至识别出所述人体瞬时姿态为目标姿态,输出所述人体瞬时姿态对应的所述姿态语义,并对所述人体瞬时姿态中的关键姿态进行标定输出。
2.根据权利要求1所述的人体姿态数据处理方法,其特征在于:所述S3具体为:
S31、使用动作捕捉设备捕捉所述人体瞬时姿态,并按照所述人体姿态单元进行所述人体瞬时姿态的分割,获取人体瞬时姿态单元;
S32、基于所述旋转轴状态语义和所述局部姿态空间位置状态语义,获取对应所述人体瞬时姿态的瞬时姿态数据。
3.根据权利要求2所述的人体姿态数据处理方法,其特征在于,所述S4具体为:
S41、提取所述人体瞬时姿态单元对应的姿态部位语义名称,并将具有相同的所述姿态部位语义名称的所述人体瞬时姿态单元和所述人体瞬时姿态进行姿态数据的匹配;
S42、遍历具有相同的所述姿态部位语义名称的所述人体姿态数据,查看所述人体瞬时姿态单元与所述人体姿态数据是否相符/匹配,将与所述人体瞬时姿态单元匹配的所述人体姿态数据进行提取;
S43、重复S42,直至所述人体瞬时姿态中的所有的所述人体瞬时姿态单元均匹配对应的所述人体姿态数据;
S44、保存并输出与所述人体瞬时姿态对应的所述人体姿态数据。
4.根据权利要求3所述的人体姿态数据处理方法,其特征在于,所述S42中,所述遍历的方法可以是顺序遍历、倒序遍历或循环遍历方法中的一种或几种。
5.根据权利要求2所述的人体姿态数据处理方法,其特征在于:所述S5具体为:
S51、确定需要查找的所述人体瞬时姿态单元和对应的变化方式;
S52、重复S1~S4,在所述人体姿态数据进行所述人体瞬时姿态的姿态数据的匹配;
S53、所述人体瞬时姿态的姿态数据与所述人体姿态数据匹配,则输出对应的变化方式,并将匹配的所述人体瞬时姿态作为关键帧输出。
6.一种人体姿态数据处理系统,其特征在于:包括采集单元、处理单元和输出单元,所述采集单元用于采集人体运动时的人体瞬时姿态;所述处理单元用于执行权利要求1~5中任一项所述的人体姿态数据处理方法。
CN202210939188.0A 2022-08-05 2022-08-05 人体姿态数据处理方法及系统 Active CN115299931B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210939188.0A CN115299931B (zh) 2022-08-05 2022-08-05 人体姿态数据处理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210939188.0A CN115299931B (zh) 2022-08-05 2022-08-05 人体姿态数据处理方法及系统

Publications (2)

Publication Number Publication Date
CN115299931A CN115299931A (zh) 2022-11-08
CN115299931B true CN115299931B (zh) 2024-05-24

Family

ID=83861639

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210939188.0A Active CN115299931B (zh) 2022-08-05 2022-08-05 人体姿态数据处理方法及系统

Country Status (1)

Country Link
CN (1) CN115299931B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140107062A (ko) * 2013-02-27 2014-09-04 한국전자통신연구원 자세 훈련 시스템 및 자세 훈련 시스템의 동작방법
CN109741371A (zh) * 2019-01-07 2019-05-10 西安理工大学 一种基于惯性传感器的人体动作描述方法
US10600210B1 (en) * 2019-07-25 2020-03-24 Second Spectrum, Inc. Data processing systems for real-time camera parameter estimation
CN112711332A (zh) * 2020-12-29 2021-04-27 上海交通大学宁波人工智能研究院 一种基于姿态坐标的人体动作捕捉方法
CN113143257A (zh) * 2021-02-09 2021-07-23 国体智慧体育技术创新中心(北京)有限公司 基于个体运动行为层次模型的泛化应用系统及方法
US11182924B1 (en) * 2019-03-22 2021-11-23 Bertec Corporation System for estimating a three dimensional pose of one or more persons in a scene
CN113887500A (zh) * 2021-10-21 2022-01-04 广州小鹏自动驾驶科技有限公司 一种人体语义识别方法和装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9495013B2 (en) * 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9524426B2 (en) * 2014-03-19 2016-12-20 GM Global Technology Operations LLC Multi-view human detection using semi-exhaustive search
US10546387B2 (en) * 2017-09-08 2020-01-28 Qualcomm Incorporated Pose determination with semantic segmentation
CN112602087A (zh) * 2018-05-25 2021-04-02 皇家飞利浦有限公司 人识别系统和方法
US11694382B2 (en) * 2020-09-04 2023-07-04 Unity IPR ApS System and method for generating character poses using deep learning
US20220163346A1 (en) * 2020-11-23 2022-05-26 Electronics And Telecommunications Research Institute Method and apparatus for generating a map for autonomous driving and recognizing location

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140107062A (ko) * 2013-02-27 2014-09-04 한국전자통신연구원 자세 훈련 시스템 및 자세 훈련 시스템의 동작방법
CN109741371A (zh) * 2019-01-07 2019-05-10 西安理工大学 一种基于惯性传感器的人体动作描述方法
US11182924B1 (en) * 2019-03-22 2021-11-23 Bertec Corporation System for estimating a three dimensional pose of one or more persons in a scene
US10600210B1 (en) * 2019-07-25 2020-03-24 Second Spectrum, Inc. Data processing systems for real-time camera parameter estimation
CN112711332A (zh) * 2020-12-29 2021-04-27 上海交通大学宁波人工智能研究院 一种基于姿态坐标的人体动作捕捉方法
CN113143257A (zh) * 2021-02-09 2021-07-23 国体智慧体育技术创新中心(北京)有限公司 基于个体运动行为层次模型的泛化应用系统及方法
CN113887500A (zh) * 2021-10-21 2022-01-04 广州小鹏自动驾驶科技有限公司 一种人体语义识别方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Symbolically structured database for human whole body motions based on association between motion symbols and motion words;Takano W ,等;《Robotics and Autonomous Systems》;全文 *
基于MEMS惯性传感器的人体动作识别技术研究;黄涛;《中国优秀硕士学位论文全文数据库 信息科技辑》;全文 *

Also Published As

Publication number Publication date
CN115299931A (zh) 2022-11-08

Similar Documents

Publication Publication Date Title
CN109953761B (zh) 一种下肢康复机器人运动意图推理方法
Robertson et al. Research methods in biomechanics
CN112069933A (zh) 基于体态识别和人体生物力学的骨骼肌肉受力估计方法
CN107616898B (zh) 基于日常动作的上肢穿戴式康复机器人及康复评价方法
Bonnet et al. Fast determination of the planar body segment inertial parameters using affordable sensors
KR20100062320A (ko) 영상 데이터를 이용한 로봇 움직임 데이터 생성 방법 및 생성 장치
CN115299931B (zh) 人体姿态数据处理方法及系统
CN115919250A (zh) 一种人体动态关节角测量系统
CN109453505A (zh) 一种基于可穿戴设备的多关节追踪方法
CN108621164A (zh) 基于深度相机的太极推手机器人
CN114974506B (zh) 人体姿态数据处理方法及系统
CN111369626A (zh) 基于深度学习的无标志点上肢运动分析方法及系统
CN114469078B (zh) 一种基于光惯融合的人体运动检测方法
CN115310484B (zh) 姿态拓展状态语义处理方法及系统
Ang et al. Ambulatory measurement of elbow kinematics using inertial measurement units
CN110175629B (zh) 一种人体动作相似度计算方法及装置
Liu et al. New anti-blur and illumination-robust combined invariant for stereo vision in human belly reconstruction
CN112790760A (zh) 一种三维运动姿态捕捉方法、装置、处理设备及系统
Borghetti et al. Validation of a modular and wearable system for tracking fingers movements
Caporaso et al. Biomechanical–based torque reconstruction of the human shoulder joint in industrial tasks
Kasani et al. Predict joint angle of body parts based on sequence pattern recognition
CN113643788B (zh) 基于多个图像获取设备确定特征点的方法及系统
Li et al. Computer-assisted hand rehabilitation assessment using an optical motion capture system
CN115309962B (zh) 人体姿态动作数据处理方法及系统
Cao et al. A portable system for tof camera based human body detection and pose estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant