CN110852137B - 一种个体紧张评估方法 - Google Patents

一种个体紧张评估方法 Download PDF

Info

Publication number
CN110852137B
CN110852137B CN201810949343.0A CN201810949343A CN110852137B CN 110852137 B CN110852137 B CN 110852137B CN 201810949343 A CN201810949343 A CN 201810949343A CN 110852137 B CN110852137 B CN 110852137B
Authority
CN
China
Prior art keywords
head
frame
axis
grade
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810949343.0A
Other languages
English (en)
Other versions
CN110852137A (zh
Inventor
刘鹏
王磊
姜盛乾
张起勋
李晓雯
魏超虎
吴可歆
刘思阅
任宇欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201810949343.0A priority Critical patent/CN110852137B/zh
Publication of CN110852137A publication Critical patent/CN110852137A/zh
Application granted granted Critical
Publication of CN110852137B publication Critical patent/CN110852137B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明属于人因工效学领域,具体的说是一种个体暴露社会心理中个体紧张的识别和评估的个体紧张评估方法。本发明通过引入体感技术,通过Kinect V2设备采集人体骨骼点,通过对操作人员的操作时间与标准时间的比例、操作动作偏差、摇头频率、注意力集中情况进行分级,通过最终的综合评级表完成个体紧张程度的评级。本发明通过对操作人员的动作进行识别,根据操作时间与标准时间的比例、操作动作偏差、摇头频率、注意力集中情况得到个体紧张程度的评级,提供一种非生理指标的个体紧张程度评估方法,减少专业人员的工作量,减少人力成本。

Description

一种个体紧张评估方法
技术领域
本发明属于人因工效学领域,具体的说是一种个体暴露社会心理中个体紧张的个体紧张评估方法。
背景技术
正确评估工作场所工效学因素的暴露水平是职业损害研究难点。美国2001-2010年职业性肌肉骨骼疾病的研究方向之一是描述和评估危险因素对疾病和失能的作用,优先完善危险因素的暴露评估工作。国内外学者研制了评估方法,英国Surrey大学Rohen工效学中心于1999年首次建立的一种简单、实用的工效学负荷快速暴露评估方法(QEC),期间经过实验室模拟和临床实践的验证,证实了QEC作为一种可靠有效的评估方法,适合不同层次评估者和不同的评估对象。该方法考虑了工作场所中存在的各种工效学不良因素,包括姿势负荷、力量负荷、移动频率、持续时间、振动、心理以及各因素之间的模糊逻辑作用等。
其中心理中考虑在完成工作任务重,个体紧张反应状态在一定程度上能大体反应个体暴露社会心理因素情况,许多研究结果也表明,心理紧张反应是引起肌肉骨骼疾患的一种危险因素,QEC方法对紧张的评估方法将个体紧张程度划分为四个等级,并作为工效学负荷得分的一个附加因素考虑。
发明内容
本文提供了一种引入体感技术,通过Kinect V2设备采集人体骨骼点,通过对操作人员的操作时间与标准时间的比例、操作动作偏差、摇头频率、注意力集中情况进行分级,通过最终的综合评级表完成个体紧张程度的评级的个体紧张评估方法,填补了该领域的空白。
本发明技术方案结合附图说明如下:
一种个体紧张评估方法,该方法包括以下步骤:
步骤一、将Kinect V2设备放置于操作人员的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左拇指的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧左指尖的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A4(x4,i,y4,i,z4,i)表示第i帧头部的坐标点,每秒25帧,1帧0.04秒;头部四元数q1=[Wq1 Xq1 Yq1 Zq1]T,四元数直接由Kinect V2输出,其中W是旋转的角度,X,Y,Z用来确定旋转轴,可表示为Q=W+XI+YJ+ZK,其中I旋转代表X轴与Y轴相交平面中X轴正向向Y轴正向的旋转,J旋转代表Z轴与X轴相交平面中Z轴正向向X轴正向的旋转,K旋转代表Y轴与Z轴相交平面中Y轴正向向Z轴正向的旋转;头部欧拉角为
Figure BDA0001771094080000021
步骤二、操作人员在进行个体紧张评估前,Kinect V2设备将跟踪采集操作人员实际工作中的骨骼点数据,并通过人工甄别的形式,得到左手/右手在抓取和放置点的连续坐标点B1,j/B2,j和左手/右手的标准操作时间T1/T2,单位为s;B1,j(X1,j,Y1,j,Z1,j)表示左手抓取与放置点的第j个连续坐标点,B2,j(X2,j,Y2,j,Z2,j)表示右手抓取与放置点的第j个连续坐标点;
步骤三、j=1,当左拇指、左指尖和左手均到达B1,j距离为5cm范围之内,即
Figure BDA0001771094080000022
Figure BDA0001771094080000023
认为左手开始进行操作动作,记录这一帧ω时刻的数据左手,接下来每一帧的骨骼点数据都将储存;判定右手是否开始进行操作动作的方法同左手;
步骤四:j=j+1,反复计算左拇指、左指尖和左手是否到达B1,2距离为5cm范围之内,当第ξ帧
Figure BDA0001771094080000024
Figure BDA0001771094080000025
Figure BDA0001771094080000026
开始操作动作偏差D、摇头频率E、注意力集中情况F测算;
41)操作动作偏差D分为超过操作幅度比例D1,j和操作动作中心偏离角度D2,j,计算过程如下:
超过操作幅度比例D1,j需要计算在第ω帧到第ξ帧左手骨骼点和B1,j-1(X1,j-1,Y1,j-1,Z1,j-1)与B1,j(X1,j,Y1,j,Z1,j)连线的直线距离l超过距离5cm的时间比例,
Figure BDA0001771094080000031
记录脱离总帧数为ψ,超过操作幅度比例
Figure BDA0001771094080000032
操作动作中心偏离角度D2,j需要计算在第ω帧到第ξ帧左手骨骼点的平均坐标点
Figure BDA0001771094080000033
平均坐标点G到B1,j-1的向量为
Figure BDA0001771094080000034
平均坐标点G到B1,j的向量为
Figure BDA0001771094080000035
操作动作中心偏离角度
Figure BDA0001771094080000036
42)摇头频率E需要根据各时段摇头频数Ej决定,Ej需要计算在第ω帧到第ξ帧头部绕X轴摆动的频次;摆动频次需要根据头部欧拉角
Figure BDA0001771094080000037
的变化得到;
(1)当
Figure BDA0001771094080000038
认为出现摇头现象,t=0,转(2);
(2)当
Figure BDA0001771094080000039
认为摇头一次,t=t+1,转(3);
(3)当
Figure BDA00017710940800000310
认为继续摇头,转(2);
最终摇头频数Ej=t;
43)注意力集中情况F需要第ξ帧时,判定头部欧拉角与头部骨骼点A4(x4,ξ,y4,ξ,z4,ξ)到B2,j(X2,j,Y2,j,Z2,j)向量
Figure BDA00017710940800000311
在XOZ平面与ZOY平面是否在限定范围之内;
Figure BDA00017710940800000312
如果x4,ξ-X2,j>0,头部在XOZ平面正向旋转θ1,θXOZ=θ1;如果x4,ξ-X2,j<0,头部在XOZ平面反向旋转θ1,θXOZ=-θ1;θ1表示头部骨骼点到右手抓取与放置点向量
Figure BDA00017710940800000313
在XOZ平面投影直线与Z轴的夹角,θXOZ表示头部在XOZ平面旋转方位;
Figure BDA0001771094080000041
如果y4,ξ-Y2,j>0,头部在ZOY平面正向旋转θ2,θZOY=θ2。如果y4,ξ-Y2,j<0,头部在ZOY平面反向旋转θ2,θZOY=-θ2;θ2表示头部骨骼点到右手抓取与放置点向量
Figure BDA0001771094080000042
在ZOY平面投影直线与Z轴的夹角,θZOY表示头部在ZOY平面旋转方位;
Figure BDA0001771094080000043
且|φ1ZOY|<15°,记注意力集中情况Fj=0,认为注意力集中,视野与操作动作保持一致;反之注意力集中情况Fj=1,认为注意力不集中,视野与操作动作异常;
反复重复步骤四,直到左拇指、左指尖和左手到达B1,j即左手最后一个放置点距离为5cm范围之内,并进行步骤四全过程,记录时间为第ψ帧;
步骤五:左手操作时间与标准时间的比例
Figure BDA0001771094080000044
同理可得右手操作时间与标准时间的比例C右手,操作时间与标准时间的比例
Figure BDA0001771094080000045
当C∈(0.97,∞),为正常操作比例,定为等级1;当C∈(0.85,0.97],为不稳定操作比例,定为等级2;当C∈(0,0.85],为异常操作比例,定为等级3;
操作动作偏差D需要根据平均操作幅度比例D1和平均操作动作中心偏离角度D2决定,
Figure BDA0001771094080000046
根据操作动作偏差等级表得到相应等级;
摇头频率
Figure BDA0001771094080000047
当E∈(0,1],为正常情况,定为等级1;当E∈(1,2],为出现摇头情况,定为等级2;当E∈(2,3],为频繁摇头情况,定为等级3;
注意力集中情况
Figure BDA0001771094080000048
当F∈(0,0.05],为注意力集中,定为等级1;当F∈(0.05,0.1],为注意力下降,定为等级2;当F∈(0.1,1],为注意力不集中,定为等级3;
步骤六、个体紧张程度分为4级,等级1表示不紧张,等级2表示略微紧张、等级3表示较为紧张、等级4表示非常紧张;具体的评级需要根据操作时间与标准时间的比例等级、操作动作偏差等级、摇头频率等级和注意力集中情况等级来分类,分级情况见个体紧张程度等级表。
本发明的有益效果为:
本发明通过对操作人员的动作进行识别,根据操作时间与标准时间的比例、操作动作偏差、摇头频率、注意力集中情况得到个体紧张程度的评级,提供一种非生理指标的个体紧张程度评估方法,减少专业人员的工作量,减少人力成本。
附图说明
图1为本发明的全身骨骼点图;
图2操作动作偏差示意图;
图3视野向量示意图。
具体实施方式
一种个体紧张评估方法,该方法利用Kinect V2设备,通过人体骨骼点的数据采集,对操作人员的操作动作进行分析评估,同时对操作人员的头部摇摆和视野进行识别和评估,得到操作时间与标准时间的比例和操作动作偏差的分级评分,再完成摇头频率和注意力集中情况的分级评分,最终根据综合评分表对个体紧张程度进行评级。该方法如下:
参阅图1,步骤一、将Kinect V2设备放置于操作人员的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左拇指的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧左指尖的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A4(x4,i,y4,i,z4,i)表示第i帧头部的坐标点,每秒25帧,1帧0.04秒;头部四元数q1=[Wq1 Xq1 Yq1 Zq1]T,四元数直接由Kinect V2输出,其中W是旋转的角度,X,Y,Z用来确定旋转轴,可表示为Q=W+XI+YJ+ZK,对于I,J,K本身的几何意义可以理解为一种旋转,其中I旋转代表X轴与Y轴相交平面中X轴正向向Y轴正向的旋转,J旋转代表Z轴与X轴相交平面中Z轴正向向X轴正向的旋转,K旋转代表Y轴与Z轴相交平面中Y轴正向向Z轴正向的旋转;头部欧拉角为
Figure BDA0001771094080000061
步骤二、操作人员在进行个体紧张评估前,Kinect V2设备将跟踪采集操作人员实际工作中的骨骼点数据,并通过人工甄别的形式,得到左手/右手在抓取和放置点的连续坐标点B1,j/B2,j和左手/右手的标准操作时间T1/T2,单位为s;B1,j(X1,j,Y1,j,Z1,j)表示左手抓取与放置点的第j个连续坐标点,B2,j(X2,j,Y2,j,Z2,j)表示右手抓取与放置点的第j个连续坐标点;
操作时间与标准时间的比例C、操作动作偏差D、摇头频率E、注意力集中情况F的识别和评分过程如下。下文将以左手为例。
步骤三、j=1,当左拇指、左指尖和左手均到达B1,j距离为5cm范围之内,即
Figure BDA0001771094080000062
Figure BDA0001771094080000063
认为左手开始进行操作动作,记录这一帧ω时刻的数据左手,接下来每一帧的骨骼点数据都将储存;判定右手是否开始进行操作动作的方法同左手;
步骤四:j=j+1,反复计算左拇指、左指尖和左手是否到达B1,j距离为5cm范围之内,当第ξ帧
Figure BDA0001771094080000064
Figure BDA0001771094080000065
Figure BDA0001771094080000066
开始操作动作偏差D、摇头频率E、注意力集中情况F测算;
41)操作动作偏差D分为超过操作幅度比例D1,j和操作动作中心偏离角度D2,j,计算过程如下:
参阅图2,超过操作幅度比例D1,j需要计算在第ω帧到第ξ帧左手骨骼点和B1,j-1(X1,j-1,Y1,j-1,Z1,j-1)与B1,j(X1,j,Y1,j,Z1,j)连线的直线距离l超过距离5cm的时间比例,
Figure BDA0001771094080000067
记录脱离总帧数为ψ,超过操作幅度比例
Figure BDA0001771094080000071
操作动作中心偏离角度D2,j需要计算在第ω帧到第ξ帧左手骨骼点的平均坐标点
Figure BDA0001771094080000072
平均坐标点G到B1,j-1的向量为
Figure BDA0001771094080000073
平均坐标点G到B1,j的向量为
Figure BDA0001771094080000074
操作动作中心偏离角度
Figure BDA0001771094080000075
42)摇头频率E需要根据各时段摇头频数Ej决定,Ej需要计算在第ω帧到第ξ帧头部绕X轴摆动的频次;摆动频次需要根据头部欧拉角
Figure BDA0001771094080000076
的变化得到;
(1)当
Figure BDA0001771094080000077
认为出现摇头现象,t=0,转(2);
(2)当
Figure BDA0001771094080000078
认为摇头一次,t=t+1,转(3);
(3)当
Figure BDA0001771094080000079
认为继续摇头,转(2);
最终摇头频数Ej=t;
43)参阅图3,注意力集中情况F需要第ξ帧时,判定头部欧拉角与头部骨骼点A4(x4,ξ,y4,ξ,z4,ξ)到右手抓取与放置点B2,j(X2,j,Y2,j,Z2,j)向量
Figure BDA00017710940800000710
在XOZ平面与ZOY平面是否在限定范围之内;
Figure BDA00017710940800000711
如果x4,ξ-X2,j>0,头部在XOZ平面正向旋转θ1,θXOZ=θ1;如果x4,ξ-X2,j<0,头部在XOZ平面反向旋转θ1,θXOZ=-θ1;θ1表示头部骨骼点到右手抓取与放置点向量
Figure BDA00017710940800000712
在XOZ平面投影直线与Z轴的夹角,θXOZ表示头部在XOZ平面旋转方位;
Figure BDA00017710940800000713
如果y4,ξ-Y2,j>0,头部在ZOY平面正向旋转θ2,θZOY=θ2。如果y4,ξ-Y2,j<0,头部在ZOY平面反向旋转θ2,θZOY=-θ2;θ2表示头部骨骼点到右手抓取与放置点向量
Figure BDA0001771094080000081
在ZOY平面投影直线与Z轴的夹角,θZOY表示头部在ZOY平面旋转方位;
Figure BDA0001771094080000082
且|φ1ZOY|<15°,记注意力集中情况Fj=0,认为注意力集中,视野与操作动作保持一致;反之注意力集中情况Fj=1,认为注意力不集中,视野与操作动作异常;
反复重复步骤四,直到左拇指、左指尖和左手到达B1,j即左手最后一个放置点距离为5cm范围之内,并进行步骤四全过程,记录时间为第ψ帧;
步骤五:左手操作时间与标准时间的比例
Figure BDA0001771094080000083
同理可得右手操作时间与标准时间的比例C右手,操作时间与标准时间的比例
Figure BDA0001771094080000084
当C∈(0.97,∞),为正常操作比例,定为等级1;当C∈(0.85,0.97],为不稳定操作比例,定为等级2;当C∈(0,0.85],为异常操作比例,定为等级3;
操作动作偏差D需要根据平均操作幅度比例D1和平均操作动作中心偏离角度D2决定,
Figure BDA0001771094080000085
根据操作动作偏差等级表得到相应等级;操作动作偏差等级表具体如下表1所示:
表1操作动作偏差等级
Figure BDA0001771094080000086
摇头频率
Figure BDA0001771094080000087
当E∈(0,1],为正常情况,定为等级1;当E∈(1,2],为出现摇头情况,定为等级2;当E∈(2,3],为频繁摇头情况,定为等级3;
注意力集中情况
Figure BDA0001771094080000088
当F∈(0,0.05],为注意力集中,定为等级1;当F∈(0.05,0.1],为注意力下降,定为等级2;当F∈(0.1,1],为注意力不集中,定为等级3;
步骤六、个体紧张程度分为4级,等级1表示不紧张,等级2表示略微紧张、等级3表示较为紧张、等级4表示非常紧张;具体的评级需要根据操作时间与标准时间的比例等级、操作动作偏差等级、摇头频率等级和注意力集中情况等级来分类,分级情况见个体紧张程度等级表,个体紧张程度等级表如下表2所示:
表2个体紧张程度等级
Figure BDA0001771094080000091

Claims (1)

1.一种个体紧张评估方法,其特征在于,该方法包括以下步骤:
步骤一、将Kinect V2设备放置于操作人员的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左拇指的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧左指尖的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A4(x4,i,y4,i,z4,i)表示第i帧头部的坐标点,每秒25帧,1帧0.04秒;头部四元数q1=[Wq1 Xq1 Yq1 Zq1]T,四元数直接由Kinect V2输出,其中W是旋转的角度,X,Y,Z用来确定旋转轴,可表示为Q=W+XI+YJ+ZK,其中I旋转代表X轴与Y轴相交平面中X轴正向向Y轴正向的旋转,J旋转代表Z轴与X轴相交平面中Z轴正向向X轴正向的旋转,K旋转代表Y轴与Z轴相交平面中Y轴正向向Z轴正向的旋转;头部欧拉角为
Figure FDA0003741536840000011
步骤二、操作人员在进行个体紧张评估前,Kinect V2设备将跟踪采集操作人员实际工作中的骨骼点数据,并通过人工甄别的形式,得到左手/右手在抓取和放置点的连续坐标点B1,j/B2,j和左手/右手的标准操作时间T1/T2,单位为s;B1,j(X1,j,Y1,j,Z1,j)表示左手抓取与放置点的第j个连续坐标点,B2,j(X2,j,Y2,j,Z2,j)表示右手抓取与放置点的第j个连续坐标点;
步骤三、j=1,当左拇指、左指尖和左手均到达B1,j距离为5cm范围之内,即
Figure FDA0003741536840000012
Figure FDA0003741536840000013
认为左手开始进行操作动作,记录这一帧ω时刻的数据左手,接下来每一帧的骨骼点数据都将储存;判定右手是否开始进行操作动作的方法同左手;
步骤四:j=j+1,反复计算左拇指、左指尖和左手是否到达B1,2距离为5cm范围之内,当第ξ帧
Figure FDA0003741536840000021
Figure FDA0003741536840000022
Figure FDA0003741536840000023
开始操作动作偏差D、摇头频率E、注意力集中情况F测算;
41)操作动作偏差D分为超过操作幅度比例D1,j和操作动作中心偏离角度D2,j,计算过程如下:
超过操作幅度比例D1,j需要计算在第ω帧到第ξ帧左手骨骼点和B1,j-1(X1,j-1,Y1,j-1,Z1,j-1)与B1,j(X1,j,Y1,j,Z1,j)连线的直线距离l超过距离5cm的时间比例,
Figure FDA0003741536840000024
记录脱离总帧数为ψ,超过操作幅度比例
Figure FDA0003741536840000025
操作动作中心偏离角度D2,j需要计算在第ω帧到第ξ帧左手骨骼点的平均坐标点
Figure FDA0003741536840000026
平均坐标点G到B1,j-1的向量为
Figure FDA0003741536840000027
平均坐标点G到B1,j的向量为
Figure FDA0003741536840000028
操作动作中心偏离角度
Figure FDA0003741536840000029
42)摇头频率E需要根据各时段摇头频数Ej决定,Ej需要计算在第ω帧到第ξ帧头部绕X轴摆动的频次;摆动频次需要根据头部欧拉角
Figure FDA00037415368400000210
的变化得到;
(1)当
Figure FDA00037415368400000211
认为出现摇头现象,t=0,转(2);
(2)当
Figure FDA00037415368400000212
认为摇头一次,t=t+1,转(3);
(3)当
Figure FDA00037415368400000213
认为继续摇头,转(2);
最终摇头频数Ej=t;
43)注意力集中情况F需要第ξ帧时,判定头部欧拉角与头部骨骼点A4(x4,ξ,y4,ξ,z4,ξ)到B2,j(X2,j,Y2,j,Z2,j)向量
Figure FDA00037415368400000214
在XOZ平面与ZOY平面是否在限定范围之内;
Figure FDA0003741536840000031
如果x4,ξ-X2,j>0,头部在XOZ平面正向旋转θ1,θXOZ=θ1;如果x4,ξ-X2,j<0,头部在XOZ平面反向旋转θ1,θXOZ=-θ1;θ1表示头部骨骼点到右手抓取与放置点向量
Figure FDA0003741536840000032
在XOZ平面投影直线与Z轴的夹角,θXOZ表示头部在XOZ平面旋转方位;
Figure FDA0003741536840000033
如果y4,ξ-Y2,j>0,头部在ZOY平面正向旋转θ2,θZOY=θ2, 如果y4,ξ-Y2,j<0,头部在ZOY平面反向旋转θ2,θZOY=-θ2;θ2表示头部骨骼点到右手抓取与放置点向量
Figure FDA0003741536840000034
在ZOY平面投影直线与Z轴的夹角,θZOY表示头部在ZOY平面旋转方位;
Figure FDA0003741536840000035
且|φ1ZOY|<15°,记注意力集中情况Fj=0,认为注意力集中,视野与操作动作保持一致;反之注意力集中情况Fj=1,认为注意力不集中,视野与操作动作异常;
反复重复步骤四,直到左拇指、左指尖和左手到达B1,j即左手最后一个放置点距离为5cm范围之内,并进行步骤四全过程,记录时间为第ψ帧;
步骤五:左手操作时间与标准时间的比例
Figure FDA0003741536840000036
同理可得右手操作时间与标准时间的比例C右手,操作时间与标准时间的比例
Figure FDA0003741536840000037
当C∈(0.97,∞),为正常操作比例,定为等级1;当C∈(0.85,0.97],为不稳定操作比例,定为等级2;当C∈(0,0.85],为异常操作比例,定为等级3;
操作动作偏差D需要根据平均操作幅度比例D1和平均操作动作中心偏离角度D2决定,
Figure FDA0003741536840000038
根据操作动作偏差等级表得到相应等级;
摇头频率
Figure FDA0003741536840000039
当E∈(0,1],为正常情况,定为等级1;当E∈(1,2],为出现摇头情况,定为等级2;当E∈(2,3],为频繁摇头情况,定为等级3;
注意力集中情况
Figure FDA0003741536840000041
当F∈(0,0.05],为注意力集中,定为等级1;当F∈(0.05,0.1],为注意力下降,定为等级2;当F∈(0.1,1],为注意力不集中,定为等级3;
步骤六、个体紧张程度分为4级,等级1表示不紧张,等级2表示略微紧张、等级3表示较为紧张、等级4表示非常紧张。
CN201810949343.0A 2018-08-20 2018-08-20 一种个体紧张评估方法 Active CN110852137B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810949343.0A CN110852137B (zh) 2018-08-20 2018-08-20 一种个体紧张评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810949343.0A CN110852137B (zh) 2018-08-20 2018-08-20 一种个体紧张评估方法

Publications (2)

Publication Number Publication Date
CN110852137A CN110852137A (zh) 2020-02-28
CN110852137B true CN110852137B (zh) 2022-08-30

Family

ID=69595046

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810949343.0A Active CN110852137B (zh) 2018-08-20 2018-08-20 一种个体紧张评估方法

Country Status (1)

Country Link
CN (1) CN110852137B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2438220A1 (en) * 2003-08-06 2005-02-06 Click-Into Inc. Identification of a person based on ultra-sound scan analyses of hand bone geometry
US7074168B1 (en) * 2001-08-10 2006-07-11 Farnes Larry D System for human physical evaluation and accomplish improved physical performance
WO2014162787A1 (ja) * 2013-04-02 2014-10-09 Necソリューションイノベータ株式会社 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置
WO2015057471A2 (en) * 2013-10-16 2015-04-23 Indiana University Research And Technology Corporation System for diagnostic and treatment of physical and cognitive capabilities
US9149222B1 (en) * 2008-08-29 2015-10-06 Engineering Acoustics, Inc Enhanced system and method for assessment of disequilibrium, balance and motion disorders
WO2015177459A1 (fr) * 2014-05-20 2015-11-26 Essilor International (Compagnie Generale D'optique) Procede de determination d'au moins un parametre de comportement visuel d'un individu
WO2016135560A2 (en) * 2015-02-27 2016-09-01 Kitman Labs Limited Range of motion capture
CN106297442A (zh) * 2016-10-27 2017-01-04 深圳市成真教育科技有限公司 一种体感互动教育实现方法及系统
CN106462725A (zh) * 2014-01-07 2017-02-22 Arb实验室公司 监测游戏场所的活动的系统和方法
CN106625658A (zh) * 2016-11-09 2017-05-10 华南理工大学 一种实时模仿人体上半身动作的人形机器人控制方法
CN107831897A (zh) * 2017-11-17 2018-03-23 吉林大学 一种虚拟装配操作中rula评测方法
CN108090448A (zh) * 2017-12-20 2018-05-29 吉林大学 一种虚拟装配中模特值评价方法
JP2018121930A (ja) * 2017-02-01 2018-08-09 花王株式会社 歩容の評価方法
CN108416322A (zh) * 2018-03-27 2018-08-17 吉林大学 一种虚拟装配坐式操作中目视动作识别方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9161708B2 (en) * 2013-02-14 2015-10-20 P3 Analytics, Inc. Generation of personalized training regimens from motion capture data
US9852512B2 (en) * 2013-03-13 2017-12-26 Electronic Scripting Products, Inc. Reduced homography based on structural redundancy of conditioned motion
US20150276400A1 (en) * 2013-03-13 2015-10-01 Electronic Scripting Products, Inc. Reduced homography for ascertaining conditioned motion of an optical apparatus
AU2015203771B2 (en) * 2014-07-08 2020-11-05 Iomniscient Pty Ltd A method and apparatus for surveillance

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7074168B1 (en) * 2001-08-10 2006-07-11 Farnes Larry D System for human physical evaluation and accomplish improved physical performance
CA2438220A1 (en) * 2003-08-06 2005-02-06 Click-Into Inc. Identification of a person based on ultra-sound scan analyses of hand bone geometry
US9149222B1 (en) * 2008-08-29 2015-10-06 Engineering Acoustics, Inc Enhanced system and method for assessment of disequilibrium, balance and motion disorders
WO2014162787A1 (ja) * 2013-04-02 2014-10-09 Necソリューションイノベータ株式会社 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置
WO2015057471A2 (en) * 2013-10-16 2015-04-23 Indiana University Research And Technology Corporation System for diagnostic and treatment of physical and cognitive capabilities
CN106462725A (zh) * 2014-01-07 2017-02-22 Arb实验室公司 监测游戏场所的活动的系统和方法
WO2015177459A1 (fr) * 2014-05-20 2015-11-26 Essilor International (Compagnie Generale D'optique) Procede de determination d'au moins un parametre de comportement visuel d'un individu
WO2016135560A2 (en) * 2015-02-27 2016-09-01 Kitman Labs Limited Range of motion capture
CN106297442A (zh) * 2016-10-27 2017-01-04 深圳市成真教育科技有限公司 一种体感互动教育实现方法及系统
CN106625658A (zh) * 2016-11-09 2017-05-10 华南理工大学 一种实时模仿人体上半身动作的人形机器人控制方法
JP2018121930A (ja) * 2017-02-01 2018-08-09 花王株式会社 歩容の評価方法
CN107831897A (zh) * 2017-11-17 2018-03-23 吉林大学 一种虚拟装配操作中rula评测方法
CN108090448A (zh) * 2017-12-20 2018-05-29 吉林大学 一种虚拟装配中模特值评价方法
CN108416322A (zh) * 2018-03-27 2018-08-17 吉林大学 一种虚拟装配坐式操作中目视动作识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
An analysis on human fall detection using skeleton from Microsoft kinect;Tran, Tth等;《 International Conference on Communications and Electronics》;20141007;第1-5页 *
基于Kinect体感交互的儿童运动协调能力情境化测评方法研究;康淑琛;《中国优秀硕士学位论文全文数据库 社会科学II辑》;20160315(第3期);第H127-29页 *

Also Published As

Publication number Publication date
CN110852137A (zh) 2020-02-28

Similar Documents

Publication Publication Date Title
Vignais et al. Physical risk factors identification based on body sensor network combined to videotaping
Yu et al. ESTIMATING CONSTRUCTION WORKERS'PHYSICAL WORKLOAD BY FUSING COMPUTER VISION AND SMART INSOLE TECHNOLOGIES
JP6518932B2 (ja) 運動解析装置及び運動解析プログラム
Subedi et al. Sensor-based computational approach to preventing back injuries in construction workers
Ryu et al. Analysis of the limits of automated rule-based ergonomic assessment in bricklaying
Oyekan et al. Applying a fusion of wearable sensors and a cognitive inspired architecture to real-time ergonomics analysis of manual assembly tasks
CN110047591A (zh) 一种针对外科手术过程中医生姿态评估方法
Ryu et al. Motion data based construction worker training support tool: Case study of masonry work
KR20160076488A (ko) 근골격계 질환의 발생가능성의 판단 장치 및 방법
CN110852137B (zh) 一种个体紧张评估方法
CN113974612A (zh) 一种卒中患者上肢运动功能自动化评估方法与系统
Chang The risk assessment of work-related musculoskeletal disorders based on opensim
CN109117799B (zh) 一种基于niosh提举方程的评估方法
Wang et al. Digital human modeling for physiological factors evaluation in work system design
Linkel et al. Applications of inertial sensors in medicine: towards model-based rehabilitation of stroke
Wang Ergonomic-centric methods for workplace design in industrialized construction
Rahmatalla et al. A validation framework for predictive human models
Bonin et al. Digital Assessment of Anthropometric and Kinematic Parameters for the Individualization of Direct Human-Robot Collaborations
Zhang et al. A Quick Capture Evaluation System for the Automatic Assessment of Work-Related Musculoskeletal Disorders for Sanitation Workers
Aliasgari A framework to automate physical demand analysis based on artificial intelligence and motion capture for workplace safety improvement
Spasojević et al. Kinect-based application for progress monitoring of the stroke patients
Ai et al. Rehabilitation assessment for lower limb disability based on multi-disciplinary approaches
Kudo et al. Whole-body reaching movements formulated by minimum muscle-tension change criterion
Martins et al. Towards a user-specific ergonomics-based approach for an activity assessment tool
Santopaolo et al. Biomechanical Risk Assessment of Human Lifting Tasks via Supervised Classification of Multiple Sensor Data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant