CN109117799A - 一种niosh提举方程评估方法 - Google Patents
一种niosh提举方程评估方法 Download PDFInfo
- Publication number
- CN109117799A CN109117799A CN201810945758.0A CN201810945758A CN109117799A CN 109117799 A CN109117799 A CN 109117799A CN 201810945758 A CN201810945758 A CN 201810945758A CN 109117799 A CN109117799 A CN 109117799A
- Authority
- CN
- China
- Prior art keywords
- frame
- ankle
- shoulder
- coefficient
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Operations Research (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明属于人因工效学领域,具体的说是一种NIOSH提举方程评估方法。本发明从一种NIOSH提举方程评估方法出发,旨在利用Kinect V2设备采集的人体骨骼数据对提举方程的各项系数自动计算。通过对提举动作的开始及终止动作进行识别,通过双手和双脚踝的坐标中点、双手距离和偏移角度、脚踝的偏移角度等指标对水平系数、高度系数、距离系数、角度系数、频率系数和物体系数进行自动测算,从而减少专业人员的工作量,减少人力成本。
Description
技术领域
本发明属于人因工效学领域,具体的说是一种NIOSH提举方程评估方法。
背景技术
在生产制造中存在许多要求进行手工物料搬运的场合,如拆卸箱子、搬运零件等,由于制造单元设计的不合理,容易造成大量的工人职业性肌肉骨骼损伤,尤其是与手工提举作业不合理导致的下背痛。因此在进行工效学分析时,提举作业分析是必不可少的一项。
NIOSH提举方程分析法是美国国家职业安全与卫生研究院提出的用来预测提举重物劳动的符合所在数值范围,评价提举负荷是否安全,是否应采取改进措施,旨在避免或减轻工人背部损伤的工效学分析方法,该方法重点是进行提举限值和提取指数计算。提举重量推荐值RWL包括重量常数、水平系数、高度系数、距离系数、角度系数、频率系数和物体系数。其中重量常数为23KG。
发明内容
本发明提供了一种体感技术,通过对提举开始及终止动作进行识别,以人体骨骼坐标点和角度自动判断出NIOSH提举方程的各项系数,从而完成计算机自动评估的NIOSH提举方程评估方法。
本发明技术方案结合附图说明如下:
一种NIOSH提举方程评估方法,该评估方法包括以下步骤:
步骤一、将Kinect V2设备放置于提举物体的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;
其中25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧右手的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左肘的坐标点,每秒25帧,1帧0.04秒;
A4(x4,i,y4,i,z4,i)表示第i帧右肘的坐标点,每秒25帧,1帧0.04秒;A5(x5,i,y5,i,z5,i)表示第i帧左肩膀的坐标点,每秒25帧,1帧0.04秒;A6(x6,i,y6,i,z6,i)表示第i帧右肩膀的坐标点,每秒25帧,1帧0.04秒;A7(x7,i,y7,i,z7,i)表示第i帧左脚踝的坐标点,每秒25帧,1帧0.04秒;A8(x8,i,y8,i,z8,i)表示第i帧右脚踝的坐标点,每秒25帧,1帧0.04秒;
得到左手到右手的向量左肩膀到左肘的向量右肩膀到右肘的向量左肩膀到右肩膀的向量左脚踝到右脚踝的向量左手到右手的中心点左脚踝到右脚踝的中心点左手到右手的距离左肩膀到左肘的向量与左肩膀到右肩膀的向量夹角右肩膀到右肘的向量与左肩膀到右肩膀的向量夹角
步骤二、提举动作开始识别;
记录操作动作的每一帧数据,持续计算l1,i,当出现15个连续数据时,计算15项数据的平均值标准差当σ1<5,θ1∈(75°,105°)且θ2∈(75°,105°),认为开始提举动作,此时的h1=Z2-Z1,v1=Y1-Y2,i=i+1转步骤三;否则i=i+1,转步骤二,其中,T1为初次提举动作开始记录时间,h1为提举开始的高度;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;v1为提举开始的速度;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;i为连续数据序号,通过i=i+1,识别连续数据的状况;
步骤三、提举动作终止识别;
持续计算l1,i,计算15项数据的平均值标准差当σ1≥5,y3,i-y5,i>0且y4,i-y6,i>0,认为开始提举动作终止,此时的h2=Z2-Z1,v2=Y1-Y2,D=v2-v1,j=j+1,初始j=0, Q=l1,i,i=i+1,记录提举结束时刻T2,转步骤二;否则i=i+1,转步骤三;其中,h2为提举终止的高度;v2为提举终止的速度;v1为提举开始的速度;D为提举起始与终止的垂直间距;j为记录的提举的次数;A为偏离矢状面的角度;P1为记录的双手在XOZ平面偏离X轴的角度;P2为记录的双手在XOY平面偏离X轴的角度;Q为记录的双手的间距;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;
步骤四、确定频率系数FM;
频率系数FM通过提举的次数j和提举时间T=T2-T1来决定,可得频率再根据频率k、提举起始与终止的垂直间距D和提举持续时间T查阅频率系数FM表即可得到频率系数FM;其中,T2为提举结束时刻,T1为初次提举动作开始记录时间;j为记录的提举的次数;
步骤五、确定物体抓取的难易程度;
物体抓取的难易程度通过双手在XOZ平面偏离X轴的角度P1,双手在XOY平面偏离X轴的角度P2和双手的间距Q来判定;具体判定标准如表难易程度划分表所示;
步骤六、确定物体系数CM;
物体系数CM通过提举起始与终止的垂直间距D和物体抓取的难易程度进行划分;具体判定如物体系数表所示;
步骤七、求得提举重量推荐值RWL;
根据NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM最终求得提举重量推荐值RWL。
本发明的有益效果为:
本发明通过对提举动作的开始及终止动作进行识别,通过双手和双脚踝的坐标中点、双手距离和偏移角度、脚踝的偏移角度等指标对水平系数、高度系数、距离系数、角度系数、频率系数和物体系数进行自动测算,从而减少专业人员的工作量,减少人力成本。
附图说明
图1为本发明的提举示意图。
具体实施方式
一种NIOSH提举方程评估方法,该方法利用Kinect V2设备,通过人体骨骼点的数据采集,可以自动得到水平系数HM、高度系数VM、距离系数DM、角度系数AM、频率系数FM和物体系数CM,从而求出提举限值RWL。
已知NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM。其中,23KG为重量常数;水平系数H表示提举起始高度h1或终止高度h2双手中心距离两踝关节中间的水平距离,单位为cm。高度系数VM=1-0.003|V-75|,V表示提举起始速度v1或终止速度v2双手中心距地面的垂直距离,单位为cm。距离系数D表示提举起始与终止的垂直间距,单位为cm。频率系数FM表示提举的频率参数,角度系数AM=1-0.0032×A,A表示偏离矢状面的角度(本申请识别为双手在XOZ平面偏离X轴的角度)。物体系数CM表示提举物体的抓取难度。
参阅图1,该评估方法包括以下步骤:
步骤一、将Kinect V2设备放置于提举物体的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;
其中25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧右手的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左肘的坐标点,每秒25帧,1帧0.04秒;
A4(x4,i,y4,i,z4,i)表示第i帧右肘的坐标点,每秒25帧,1帧0.04秒;A5(x5,i,y5,i,z5,i)表示第i帧左肩膀的坐标点,每秒25帧,1帧0.04秒;A6(x6,i,y6,i,z6,i)表示第i帧右肩膀的坐标点,每秒25帧,1帧0.04秒;A7(x7,i,y7,i,z7,i)表示第i帧左脚踝的坐标点,每秒25帧,1帧0.04秒;A8(x8,i,y8,i,z8,i)表示第i帧右脚踝的坐标点,每秒25帧,1帧0.04秒;
得到左手到右手的向量左肩膀到左肘的向量右肩膀到右肘的向量左肩膀到右肩膀的向量左脚踝到右脚踝的向量左手到右手的中心点左脚踝到右脚踝的中心点左手到右手的距离左肩膀到左肘的向量与左肩膀到右肩膀的向量夹角右肩膀到右肘的向量与左肩膀到右肩膀的向量夹角
步骤二、提举动作开始识别;
记录操作动作的每一帧数据,持续计算l1,i,当出现15个连续数据时,计算15项数据的平均值标准差当σ1<5,θ1∈(75°,105°)且θ2∈(75°,105°),认为开始提举动作,此时的h1=Z2-Z1,v1=Y1-Y2,i=i+1转步骤三;否则i=i+1,转步骤二,其中,T1为初次提举动作开始记录时间,h1为提举开始的高度;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;v1为提举开始的速度;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;i为连续数据序号,通过i=i+1,识别连续数据的状况;
步骤三、提举动作终止识别;
持续计算l1,i,计算15项数据的平均值标准差当σ1≥5,y3,i-y5,i>0且y4,i-y6,i>0,认为开始提举动作终止,此时的h2=Z2-Z1,v2=Y1-Y2,D=v2-v1,j=j+1,初始j=0, Q=l1,i,i=i+1,记录提举结束时刻T2,转步骤二;否则i=i+1,转步骤三;其中,h2为提举终止的高度;v2为提举终止的速度;D为提举起始与终止的垂直间距;j为记录的提举的次数;A为偏离矢状面的角度;P1为记录的双手在XOZ平面偏离X轴的角度;P2为记录的双手在XOY平面偏离X轴的角度;Q为记录的双手的间距;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;
步骤四、确定频率系数FM;
频率系数FM通过提举的次数j和提举时间T=T2-T1来决定,可得频率再根据频率k、提举起始与终止的垂直间距D和提举持续时间T查阅NOISH提举方程表1即可得到FM;其中,T2为提举结束时刻,T1为初次提举动作开始记录时间;j为记录的提举的次数;
表1频率系数FM
步骤五、确定物体抓取的难易程度;
物体抓取的难易程度通过双手在XOZ平面偏离X轴的角度P1,双手在XOY平面偏离X轴的角度P2和双手的间距Q来判定;具体判定标准如表难易程度划分表所示;具体见下表2,
表2难易程度划分
步骤六、确定物体系数CM;
物体系数CM通过提举起始与终止的垂直间距D和物体抓取的难易程度进行划分;具体判定如物体系数表所示;具体见下表3,
表3物体系数
步骤七、求得提举重量推荐值RWL;
根据NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM最终求得提举重量推荐值RWL。
计算机最后将各类系数带入NIOSH提举方程即可自动求出提举重量推荐值RWL。
Claims (1)
1.一种NIOSH提举方程评估方法,其特征在于,该评估方法包括以下步骤:
步骤一、将Kinect V2设备放置于提举物体的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;
其中25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧右手的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左肘的坐标点,每秒25帧,1帧0.04秒;A4(x4,i,y4,i,z4,i)表示第i帧右肘的坐标点,每秒25帧,1帧0.04秒;A5(x5,i,y5,i,z5,i)表示第i帧左肩膀的坐标点,每秒25帧,1帧0.04秒;A6(x6,i,y6,i,z6,i)表示第i帧右肩膀的坐标点,每秒25帧,1帧0.04秒;A7(x7,i,y7,i,z7,i)表示第i帧左脚踝的坐标点,每秒25帧,1帧0.04秒;A8(x8,i,y8,i,z8,i)表示第i帧右脚踝的坐标点,每秒25帧,1帧0.04秒;
得到左手到右手的向量左肩膀到左肘的向量右肩膀到右肘的向量左肩膀到右肩膀的向量左脚踝到右脚踝的向量左手到右手的中心点左脚踝到右脚踝的中心点左手到右手的距离左肩膀到左肘的向量与左肩膀到右肩膀的向量夹角右肩膀到右肘的向量与左肩膀到右肩膀的向量夹角
步骤二、提举动作开始识别;
记录操作动作的每一帧数据,持续计算l1,i,当每i帧出现15个连续数据时,计算15项数据的平均值标准差当σ1<5,θ1∈(75°,105°)且θ2∈(75°,105°),认为开始提举动作,此时的h1=Z2-Z1,v1=Y1-Y2,i=i+1转步骤三;否则i=i+1,转步骤二,其中,T1为初次提举动作开始记录时间,h1为提举开始的高度;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;v1为提举开始的速度;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;i为连续数据序号,通过i=i+1,识别连续数据的状况;
步骤三、提举动作终止识别;
持续计算l1,i,计算15项数据的平均值标准差当σ1≥5,y3,i-y5,i>0且y4,i-y6,i>0,认为开始提举动作终止,此时的h2=Z2-Z1,v2=Y1-Y2,D=v2-v1,j=j+1,初始j=0, Q=l1,i,i=i+1,记录此时时刻T2,转步骤二;否则i=i+1,转步骤三;其中,h2为提举终止的高度;v2为提举终止的速度;v1为提举开始的速度;D为提举起始与终止的垂直间距;j为记录的提举的次数;A为偏离矢状面的角度;P1为记录的双手在XOZ平面偏离X轴的角度;P2为记录的双手在XOY平面偏离X轴的角度;Q为记录的双手的间距;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;
步骤四、确定频率系数FM;
频率系数FM通过提举的次数j和提举时间T=T2-T1来决定,可得频率再根据频率k、提举起始与终止的垂直间距D和提举持续时间T查阅频率系数FM表即可得到频率系数FM;其中,T2为提举结束时刻,T1为初次提举动作开始记录时间;j为记录的提举的次数;
步骤五、确定物体抓取的难易程度;
物体抓取的难易程度通过双手在XOZ平面偏离X轴的角度P1,双手在XOY平面偏离X轴的角度P2和双手的间距Q来判定;具体判定标准如表难易程度划分表所示;
步骤六、确定物体系数CM;
物体系数CM通过提举起始与终止的垂直间距D和物体抓取的难易程度进行划分;具体判定如物体系数表所示;
步骤七、求得提举重量推荐值RWL;
根据NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM最终求得提举重量推荐值RWL。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810945758.0A CN109117799B (zh) | 2018-08-20 | 2018-08-20 | 一种基于niosh提举方程的评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810945758.0A CN109117799B (zh) | 2018-08-20 | 2018-08-20 | 一种基于niosh提举方程的评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109117799A true CN109117799A (zh) | 2019-01-01 |
CN109117799B CN109117799B (zh) | 2019-07-12 |
Family
ID=64853430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810945758.0A Expired - Fee Related CN109117799B (zh) | 2018-08-20 | 2018-08-20 | 一种基于niosh提举方程的评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109117799B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110047591A (zh) * | 2019-04-23 | 2019-07-23 | 吉林大学 | 一种针对外科手术过程中医生姿态评估方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080189142A1 (en) * | 2007-02-02 | 2008-08-07 | Hartford Fire Insurance Company | Safety evaluation and feedback system and method |
CN106960473A (zh) * | 2017-03-27 | 2017-07-18 | 北京交通大学 | 一种行为感知系统及方法 |
CN107831897A (zh) * | 2017-11-17 | 2018-03-23 | 吉林大学 | 一种虚拟装配操作中rula评测方法 |
-
2018
- 2018-08-20 CN CN201810945758.0A patent/CN109117799B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080189142A1 (en) * | 2007-02-02 | 2008-08-07 | Hartford Fire Insurance Company | Safety evaluation and feedback system and method |
CN106960473A (zh) * | 2017-03-27 | 2017-07-18 | 北京交通大学 | 一种行为感知系统及方法 |
CN107831897A (zh) * | 2017-11-17 | 2018-03-23 | 吉林大学 | 一种虚拟装配操作中rula评测方法 |
Non-Patent Citations (2)
Title |
---|
VITO MODESTO MANGHISI等: "Real time RULA assessment using Kinect v2 sensor", 《APPLIED ERGONOMICS》 * |
孙林辉 等: "基于NIOSH手工提举方程的汽车配件搬运作业的工效学改善研究", 《人类工效学》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110047591A (zh) * | 2019-04-23 | 2019-07-23 | 吉林大学 | 一种针对外科手术过程中医生姿态评估方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109117799B (zh) | 2019-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107831897B (zh) | 一种虚拟装配操作中rula评测方法 | |
Wang et al. | Development of anthropometric work environment for Taiwanese workers | |
KR102107379B1 (ko) | 3축 동작측정기를 이용한 노쇠 예측 방법, 3축 동작측정기를 이용한 노쇠 예측 시스템 및 웨어러블 노쇠 예측 장치 | |
CN106780530B (zh) | 一种体型预测方法及设备 | |
JP2014530047A (ja) | ゴルフ・スイングを分析するための装置および方法 | |
Yu et al. | ESTIMATING CONSTRUCTION WORKERS'PHYSICAL WORKLOAD BY FUSING COMPUTER VISION AND SMART INSOLE TECHNOLOGIES | |
CN109299522B (zh) | 一种舰船受限空间操作仿真评价方法 | |
US11450148B2 (en) | Movement monitoring system | |
CN111539245B (zh) | 一种基于虚拟环境的cpr技术训练评价方法 | |
CN111105881B (zh) | 一种3d测量人类表型的数据库系统 | |
Oyekan et al. | Applying a fusion of wearable sensors and a cognitive inspired architecture to real-time ergonomics analysis of manual assembly tasks | |
Ellegast et al. | Workload assessment in field using the ambulatory CUELA system | |
CN109117799B (zh) | 一种基于niosh提举方程的评估方法 | |
Lorenzini et al. | An online multi-index approach to human ergonomics assessment in the workplace | |
Sanders et al. | Reliability of three-dimensional linear kinematics and kinetics of swimming derived from digitized video at 25 and 50 Hz with 10 and 5 frame extensions to the 4th order Butterworth smoothing window | |
Haratian et al. | Toward flexibility in sensor placement for motion capture systems: a signal processing approach | |
Ryu et al. | Motion data based construction worker training support tool: Case study of masonry work | |
US9639151B2 (en) | Method and apparatus for presenting an option | |
CN108958478A (zh) | 一种虚拟装配操作中脚踏动作识别和评估方法 | |
Deffeyes et al. | Elliptical zone body segment modellng software: digitising, modellng and body segment parameter calculation | |
Samejima et al. | A body dimensions estimation method of subject from a few measurement items using KINECT | |
CN115607899A (zh) | 一种基于虚拟现实的脑卒中肢体康复训练系统及方法 | |
Grassi et al. | Spatiotemporal consistency of trajectories in gymnastics: a three-dimensional analysis of flic-flac | |
Hulleck et al. | Accuracy of computer vision-based pose estimation algorithms in predicting joint kinematics during gait | |
Sanders et al. | Accuracy of derived ground reaction force curves for a rigid link human body model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190712 Termination date: 20200820 |