CN109117799A - 一种niosh提举方程评估方法 - Google Patents

一种niosh提举方程评估方法 Download PDF

Info

Publication number
CN109117799A
CN109117799A CN201810945758.0A CN201810945758A CN109117799A CN 109117799 A CN109117799 A CN 109117799A CN 201810945758 A CN201810945758 A CN 201810945758A CN 109117799 A CN109117799 A CN 109117799A
Authority
CN
China
Prior art keywords
frame
ankle
shoulder
coefficient
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810945758.0A
Other languages
English (en)
Other versions
CN109117799B (zh
Inventor
刘鹏
王磊
姜盛乾
张起勋
李晓雯
魏超虎
吴可歆
刘思阅
任宇欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201810945758.0A priority Critical patent/CN109117799B/zh
Publication of CN109117799A publication Critical patent/CN109117799A/zh
Application granted granted Critical
Publication of CN109117799B publication Critical patent/CN109117799B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Operations Research (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明属于人因工效学领域,具体的说是一种NIOSH提举方程评估方法。本发明从一种NIOSH提举方程评估方法出发,旨在利用Kinect V2设备采集的人体骨骼数据对提举方程的各项系数自动计算。通过对提举动作的开始及终止动作进行识别,通过双手和双脚踝的坐标中点、双手距离和偏移角度、脚踝的偏移角度等指标对水平系数、高度系数、距离系数、角度系数、频率系数和物体系数进行自动测算,从而减少专业人员的工作量,减少人力成本。

Description

一种NIOSH提举方程评估方法
技术领域
本发明属于人因工效学领域,具体的说是一种NIOSH提举方程评估方法。
背景技术
在生产制造中存在许多要求进行手工物料搬运的场合,如拆卸箱子、搬运零件等,由于制造单元设计的不合理,容易造成大量的工人职业性肌肉骨骼损伤,尤其是与手工提举作业不合理导致的下背痛。因此在进行工效学分析时,提举作业分析是必不可少的一项。
NIOSH提举方程分析法是美国国家职业安全与卫生研究院提出的用来预测提举重物劳动的符合所在数值范围,评价提举负荷是否安全,是否应采取改进措施,旨在避免或减轻工人背部损伤的工效学分析方法,该方法重点是进行提举限值和提取指数计算。提举重量推荐值RWL包括重量常数、水平系数、高度系数、距离系数、角度系数、频率系数和物体系数。其中重量常数为23KG。
发明内容
本发明提供了一种体感技术,通过对提举开始及终止动作进行识别,以人体骨骼坐标点和角度自动判断出NIOSH提举方程的各项系数,从而完成计算机自动评估的NIOSH提举方程评估方法。
本发明技术方案结合附图说明如下:
一种NIOSH提举方程评估方法,该评估方法包括以下步骤:
步骤一、将Kinect V2设备放置于提举物体的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;
其中25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧右手的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左肘的坐标点,每秒25帧,1帧0.04秒;
A4(x4,i,y4,i,z4,i)表示第i帧右肘的坐标点,每秒25帧,1帧0.04秒;A5(x5,i,y5,i,z5,i)表示第i帧左肩膀的坐标点,每秒25帧,1帧0.04秒;A6(x6,i,y6,i,z6,i)表示第i帧右肩膀的坐标点,每秒25帧,1帧0.04秒;A7(x7,i,y7,i,z7,i)表示第i帧左脚踝的坐标点,每秒25帧,1帧0.04秒;A8(x8,i,y8,i,z8,i)表示第i帧右脚踝的坐标点,每秒25帧,1帧0.04秒;
得到左手到右手的向量左肩膀到左肘的向量右肩膀到右肘的向量左肩膀到右肩膀的向量左脚踝到右脚踝的向量左手到右手的中心点左脚踝到右脚踝的中心点左手到右手的距离左肩膀到左肘的向量与左肩膀到右肩膀的向量夹角右肩膀到右肘的向量与左肩膀到右肩膀的向量夹角
步骤二、提举动作开始识别;
记录操作动作的每一帧数据,持续计算l1,i,当出现15个连续数据时,计算15项数据的平均值标准差当σ1<5,θ1∈(75°,105°)且θ2∈(75°,105°),认为开始提举动作,此时的h1=Z2-Z1,v1=Y1-Y2,i=i+1转步骤三;否则i=i+1,转步骤二,其中,T1为初次提举动作开始记录时间,h1为提举开始的高度;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;v1为提举开始的速度;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;i为连续数据序号,通过i=i+1,识别连续数据的状况;
步骤三、提举动作终止识别;
持续计算l1,i,计算15项数据的平均值标准差当σ1≥5,y3,i-y5,i>0且y4,i-y6,i>0,认为开始提举动作终止,此时的h2=Z2-Z1,v2=Y1-Y2,D=v2-v1,j=j+1,初始j=0, Q=l1,i,i=i+1,记录提举结束时刻T2,转步骤二;否则i=i+1,转步骤三;其中,h2为提举终止的高度;v2为提举终止的速度;v1为提举开始的速度;D为提举起始与终止的垂直间距;j为记录的提举的次数;A为偏离矢状面的角度;P1为记录的双手在XOZ平面偏离X轴的角度;P2为记录的双手在XOY平面偏离X轴的角度;Q为记录的双手的间距;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;
步骤四、确定频率系数FM;
频率系数FM通过提举的次数j和提举时间T=T2-T1来决定,可得频率再根据频率k、提举起始与终止的垂直间距D和提举持续时间T查阅频率系数FM表即可得到频率系数FM;其中,T2为提举结束时刻,T1为初次提举动作开始记录时间;j为记录的提举的次数;
步骤五、确定物体抓取的难易程度;
物体抓取的难易程度通过双手在XOZ平面偏离X轴的角度P1,双手在XOY平面偏离X轴的角度P2和双手的间距Q来判定;具体判定标准如表难易程度划分表所示;
步骤六、确定物体系数CM;
物体系数CM通过提举起始与终止的垂直间距D和物体抓取的难易程度进行划分;具体判定如物体系数表所示;
步骤七、求得提举重量推荐值RWL;
根据NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM最终求得提举重量推荐值RWL。
本发明的有益效果为:
本发明通过对提举动作的开始及终止动作进行识别,通过双手和双脚踝的坐标中点、双手距离和偏移角度、脚踝的偏移角度等指标对水平系数、高度系数、距离系数、角度系数、频率系数和物体系数进行自动测算,从而减少专业人员的工作量,减少人力成本。
附图说明
图1为本发明的提举示意图。
具体实施方式
一种NIOSH提举方程评估方法,该方法利用Kinect V2设备,通过人体骨骼点的数据采集,可以自动得到水平系数HM、高度系数VM、距离系数DM、角度系数AM、频率系数FM和物体系数CM,从而求出提举限值RWL。
已知NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM。其中,23KG为重量常数;水平系数H表示提举起始高度h1或终止高度h2双手中心距离两踝关节中间的水平距离,单位为cm。高度系数VM=1-0.003|V-75|,V表示提举起始速度v1或终止速度v2双手中心距地面的垂直距离,单位为cm。距离系数D表示提举起始与终止的垂直间距,单位为cm。频率系数FM表示提举的频率参数,角度系数AM=1-0.0032×A,A表示偏离矢状面的角度(本申请识别为双手在XOZ平面偏离X轴的角度)。物体系数CM表示提举物体的抓取难度。
参阅图1,该评估方法包括以下步骤:
步骤一、将Kinect V2设备放置于提举物体的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;
其中25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧右手的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左肘的坐标点,每秒25帧,1帧0.04秒;
A4(x4,i,y4,i,z4,i)表示第i帧右肘的坐标点,每秒25帧,1帧0.04秒;A5(x5,i,y5,i,z5,i)表示第i帧左肩膀的坐标点,每秒25帧,1帧0.04秒;A6(x6,i,y6,i,z6,i)表示第i帧右肩膀的坐标点,每秒25帧,1帧0.04秒;A7(x7,i,y7,i,z7,i)表示第i帧左脚踝的坐标点,每秒25帧,1帧0.04秒;A8(x8,i,y8,i,z8,i)表示第i帧右脚踝的坐标点,每秒25帧,1帧0.04秒;
得到左手到右手的向量左肩膀到左肘的向量右肩膀到右肘的向量左肩膀到右肩膀的向量左脚踝到右脚踝的向量左手到右手的中心点左脚踝到右脚踝的中心点左手到右手的距离左肩膀到左肘的向量与左肩膀到右肩膀的向量夹角右肩膀到右肘的向量与左肩膀到右肩膀的向量夹角
步骤二、提举动作开始识别;
记录操作动作的每一帧数据,持续计算l1,i,当出现15个连续数据时,计算15项数据的平均值标准差当σ1<5,θ1∈(75°,105°)且θ2∈(75°,105°),认为开始提举动作,此时的h1=Z2-Z1,v1=Y1-Y2,i=i+1转步骤三;否则i=i+1,转步骤二,其中,T1为初次提举动作开始记录时间,h1为提举开始的高度;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;v1为提举开始的速度;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;i为连续数据序号,通过i=i+1,识别连续数据的状况;
步骤三、提举动作终止识别;
持续计算l1,i,计算15项数据的平均值标准差当σ1≥5,y3,i-y5,i>0且y4,i-y6,i>0,认为开始提举动作终止,此时的h2=Z2-Z1,v2=Y1-Y2,D=v2-v1,j=j+1,初始j=0, Q=l1,i,i=i+1,记录提举结束时刻T2,转步骤二;否则i=i+1,转步骤三;其中,h2为提举终止的高度;v2为提举终止的速度;D为提举起始与终止的垂直间距;j为记录的提举的次数;A为偏离矢状面的角度;P1为记录的双手在XOZ平面偏离X轴的角度;P2为记录的双手在XOY平面偏离X轴的角度;Q为记录的双手的间距;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;
步骤四、确定频率系数FM;
频率系数FM通过提举的次数j和提举时间T=T2-T1来决定,可得频率再根据频率k、提举起始与终止的垂直间距D和提举持续时间T查阅NOISH提举方程表1即可得到FM;其中,T2为提举结束时刻,T1为初次提举动作开始记录时间;j为记录的提举的次数;
表1频率系数FM
步骤五、确定物体抓取的难易程度;
物体抓取的难易程度通过双手在XOZ平面偏离X轴的角度P1,双手在XOY平面偏离X轴的角度P2和双手的间距Q来判定;具体判定标准如表难易程度划分表所示;具体见下表2,
表2难易程度划分
步骤六、确定物体系数CM;
物体系数CM通过提举起始与终止的垂直间距D和物体抓取的难易程度进行划分;具体判定如物体系数表所示;具体见下表3,
表3物体系数
步骤七、求得提举重量推荐值RWL;
根据NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM最终求得提举重量推荐值RWL。
计算机最后将各类系数带入NIOSH提举方程即可自动求出提举重量推荐值RWL。

Claims (1)

1.一种NIOSH提举方程评估方法,其特征在于,该评估方法包括以下步骤:
步骤一、将Kinect V2设备放置于提举物体的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;
其中25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧右手的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左肘的坐标点,每秒25帧,1帧0.04秒;A4(x4,i,y4,i,z4,i)表示第i帧右肘的坐标点,每秒25帧,1帧0.04秒;A5(x5,i,y5,i,z5,i)表示第i帧左肩膀的坐标点,每秒25帧,1帧0.04秒;A6(x6,i,y6,i,z6,i)表示第i帧右肩膀的坐标点,每秒25帧,1帧0.04秒;A7(x7,i,y7,i,z7,i)表示第i帧左脚踝的坐标点,每秒25帧,1帧0.04秒;A8(x8,i,y8,i,z8,i)表示第i帧右脚踝的坐标点,每秒25帧,1帧0.04秒;
得到左手到右手的向量左肩膀到左肘的向量右肩膀到右肘的向量左肩膀到右肩膀的向量左脚踝到右脚踝的向量左手到右手的中心点左脚踝到右脚踝的中心点左手到右手的距离左肩膀到左肘的向量与左肩膀到右肩膀的向量夹角右肩膀到右肘的向量与左肩膀到右肩膀的向量夹角
步骤二、提举动作开始识别;
记录操作动作的每一帧数据,持续计算l1,i,当每i帧出现15个连续数据时,计算15项数据的平均值标准差当σ1<5,θ1∈(75°,105°)且θ2∈(75°,105°),认为开始提举动作,此时的h1=Z2-Z1,v1=Y1-Y2,i=i+1转步骤三;否则i=i+1,转步骤二,其中,T1为初次提举动作开始记录时间,h1为提举开始的高度;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;v1为提举开始的速度;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;i为连续数据序号,通过i=i+1,识别连续数据的状况;
步骤三、提举动作终止识别;
持续计算l1,i,计算15项数据的平均值标准差当σ1≥5,y3,i-y5,i>0且y4,i-y6,i>0,认为开始提举动作终止,此时的h2=Z2-Z1,v2=Y1-Y2,D=v2-v1,j=j+1,初始j=0, Q=l1,i,i=i+1,记录此时时刻T2,转步骤二;否则i=i+1,转步骤三;其中,h2为提举终止的高度;v2为提举终止的速度;v1为提举开始的速度;D为提举起始与终止的垂直间距;j为记录的提举的次数;A为偏离矢状面的角度;P1为记录的双手在XOZ平面偏离X轴的角度;P2为记录的双手在XOY平面偏离X轴的角度;Q为记录的双手的间距;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;
步骤四、确定频率系数FM;
频率系数FM通过提举的次数j和提举时间T=T2-T1来决定,可得频率再根据频率k、提举起始与终止的垂直间距D和提举持续时间T查阅频率系数FM表即可得到频率系数FM;其中,T2为提举结束时刻,T1为初次提举动作开始记录时间;j为记录的提举的次数;
步骤五、确定物体抓取的难易程度;
物体抓取的难易程度通过双手在XOZ平面偏离X轴的角度P1,双手在XOY平面偏离X轴的角度P2和双手的间距Q来判定;具体判定标准如表难易程度划分表所示;
步骤六、确定物体系数CM;
物体系数CM通过提举起始与终止的垂直间距D和物体抓取的难易程度进行划分;具体判定如物体系数表所示;
步骤七、求得提举重量推荐值RWL;
根据NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM最终求得提举重量推荐值RWL。
CN201810945758.0A 2018-08-20 2018-08-20 一种基于niosh提举方程的评估方法 Expired - Fee Related CN109117799B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810945758.0A CN109117799B (zh) 2018-08-20 2018-08-20 一种基于niosh提举方程的评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810945758.0A CN109117799B (zh) 2018-08-20 2018-08-20 一种基于niosh提举方程的评估方法

Publications (2)

Publication Number Publication Date
CN109117799A true CN109117799A (zh) 2019-01-01
CN109117799B CN109117799B (zh) 2019-07-12

Family

ID=64853430

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810945758.0A Expired - Fee Related CN109117799B (zh) 2018-08-20 2018-08-20 一种基于niosh提举方程的评估方法

Country Status (1)

Country Link
CN (1) CN109117799B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047591A (zh) * 2019-04-23 2019-07-23 吉林大学 一种针对外科手术过程中医生姿态评估方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080189142A1 (en) * 2007-02-02 2008-08-07 Hartford Fire Insurance Company Safety evaluation and feedback system and method
CN106960473A (zh) * 2017-03-27 2017-07-18 北京交通大学 一种行为感知系统及方法
CN107831897A (zh) * 2017-11-17 2018-03-23 吉林大学 一种虚拟装配操作中rula评测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080189142A1 (en) * 2007-02-02 2008-08-07 Hartford Fire Insurance Company Safety evaluation and feedback system and method
CN106960473A (zh) * 2017-03-27 2017-07-18 北京交通大学 一种行为感知系统及方法
CN107831897A (zh) * 2017-11-17 2018-03-23 吉林大学 一种虚拟装配操作中rula评测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
VITO MODESTO MANGHISI等: "Real time RULA assessment using Kinect v2 sensor", 《APPLIED ERGONOMICS》 *
孙林辉 等: "基于NIOSH手工提举方程的汽车配件搬运作业的工效学改善研究", 《人类工效学》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047591A (zh) * 2019-04-23 2019-07-23 吉林大学 一种针对外科手术过程中医生姿态评估方法

Also Published As

Publication number Publication date
CN109117799B (zh) 2019-07-12

Similar Documents

Publication Publication Date Title
CN107831897B (zh) 一种虚拟装配操作中rula评测方法
Wang et al. Development of anthropometric work environment for Taiwanese workers
KR102107379B1 (ko) 3축 동작측정기를 이용한 노쇠 예측 방법, 3축 동작측정기를 이용한 노쇠 예측 시스템 및 웨어러블 노쇠 예측 장치
CN106780530B (zh) 一种体型预测方法及设备
JP2014530047A (ja) ゴルフ・スイングを分析するための装置および方法
Yu et al. ESTIMATING CONSTRUCTION WORKERS'PHYSICAL WORKLOAD BY FUSING COMPUTER VISION AND SMART INSOLE TECHNOLOGIES
CN109299522B (zh) 一种舰船受限空间操作仿真评价方法
US11450148B2 (en) Movement monitoring system
CN111539245B (zh) 一种基于虚拟环境的cpr技术训练评价方法
CN111105881B (zh) 一种3d测量人类表型的数据库系统
Oyekan et al. Applying a fusion of wearable sensors and a cognitive inspired architecture to real-time ergonomics analysis of manual assembly tasks
Ellegast et al. Workload assessment in field using the ambulatory CUELA system
CN109117799B (zh) 一种基于niosh提举方程的评估方法
Lorenzini et al. An online multi-index approach to human ergonomics assessment in the workplace
Sanders et al. Reliability of three-dimensional linear kinematics and kinetics of swimming derived from digitized video at 25 and 50 Hz with 10 and 5 frame extensions to the 4th order Butterworth smoothing window
Haratian et al. Toward flexibility in sensor placement for motion capture systems: a signal processing approach
Ryu et al. Motion data based construction worker training support tool: Case study of masonry work
US9639151B2 (en) Method and apparatus for presenting an option
CN108958478A (zh) 一种虚拟装配操作中脚踏动作识别和评估方法
Deffeyes et al. Elliptical zone body segment modellng software: digitising, modellng and body segment parameter calculation
Samejima et al. A body dimensions estimation method of subject from a few measurement items using KINECT
CN115607899A (zh) 一种基于虚拟现实的脑卒中肢体康复训练系统及方法
Grassi et al. Spatiotemporal consistency of trajectories in gymnastics: a three-dimensional analysis of flic-flac
Hulleck et al. Accuracy of computer vision-based pose estimation algorithms in predicting joint kinematics during gait
Sanders et al. Accuracy of derived ground reaction force curves for a rigid link human body model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190712

Termination date: 20200820