CN111027470B - 一种基于认知分解的行为度量与评价方法 - Google Patents

一种基于认知分解的行为度量与评价方法 Download PDF

Info

Publication number
CN111027470B
CN111027470B CN201911250659.1A CN201911250659A CN111027470B CN 111027470 B CN111027470 B CN 111027470B CN 201911250659 A CN201911250659 A CN 201911250659A CN 111027470 B CN111027470 B CN 111027470B
Authority
CN
China
Prior art keywords
cognitive
task
behavior
unit
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911250659.1A
Other languages
English (en)
Other versions
CN111027470A (zh
Inventor
陈嘉宇
葛红娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201911250659.1A priority Critical patent/CN111027470B/zh
Publication of CN111027470A publication Critical patent/CN111027470A/zh
Application granted granted Critical
Publication of CN111027470B publication Critical patent/CN111027470B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于认知分解的行为度量与评价方法,本发明从人的认知出发,分析认知与行为的关联,定义了4类单元认知行为与4类认知行为绩效水平,构建了基于改进MODAPTS的认知行为度量方法,实现理想情境下的认知行为标准时间度量。然后,充分考虑了人机环境中影响因素,提出了考虑行为影响因素的认知行为度量方法,完成了复杂情境中认知行为标准时间的度量。最后,结合实际任务时间,开发了认知行为评价方法,实现了任务中对人的状态检测,为预防和减少人为失误,控制事故风险提供了有效的技术手段。最终,通过卡耐基梅隆大学的数据库进行了案例分析,验证了本发明的可行性与有效性。

Description

一种基于认知分解的行为度量与评价方法
技术领域
本发明涉及工业工程与人因工程领域,具体涉及一种基于认知分解的行为度量与评价方法。
背景技术
复杂大系统对可靠性与安全性设计要求严苛,人为差错容忍率低,人的可靠性的重要性就尤为显著。因此,以分析、预测、减少与预防人为差错为目标的人的可靠性分析应运而生。国际原子能机构将人的可靠性分析列为复杂人机系统中减少人为失误发生和失误后果影响的不可或缺的系统化方法。经过半个多世纪的不断研究与发展,形成了分别以专家判断、情景环境分析和计算机仿真为重点的三代人的可靠性分析方法。随着研究的深入,研究人员逐渐揭开了决定人的可靠性的关键——人的认知。虽然当前已经开发了不少于50种的人的可靠性分析方法,但是如何统一、客观与实时地表达认知水平和度量认知可靠性仍然是当前面临的重要挑战与急需解决的关键问题。
当前认知行为理论认为行为是人的认知的重要表现形式,同时认知的好坏也决定行为的绩效水平。因此,作为反映人的认知状态的客观可测量,行为的准确度量与评价对判断认知可靠性举足轻重。通常而言,行为动作一般是通过人体关节点或肢体末端的空间位移来度量。然而,这种基于空间位移的度量方式往往适用于行为动作的识别,而不能反映认知与行为的关联。相反,作为度量行为的重要特征,时间能够很好地反映认知与行为的内在联系。
在1922年Segur的研究工作《Motion Time Analysis》中定义动作时间机理,即在实际条件范围内,所有熟练人员完成真正基本动作所需要的时间是常量。由此,以动作时间机理为理论基础的预定时间系统方法随之诞生。作为最经典的方法之一,模特法(ModularArrangement of Predetermined Time Standard,MODAPTS)将人的手指动作25mm的平均时间作为最基本单元1MOD,人体其他行为动作所需的时间都可以规范到该基本单元时间的整数倍。
然而,MODAPTS的开发与应用实际上都是针对产品与流水线的装配工作。这类工作存在较多重复性的任务,且其中的任务复杂度较低,所需的认知过程简单。Heungjae等人在对空调、洗衣机与冰箱的零部件装备流水线工人进行了一年半的调研工作后,发现装配这些零部件的工作主要分为插入、装载、包装与检查这4大部分。其中,插入工作,包括插入、紧固、连线与粘贴,占所有工作的79.7%;装载工作,包括卸货与装载,占所有工作的7.0%;包装工作,包括包装和拆装,占所有工作的5.6%;检查工作,包括电动检查和目视检查,占所有工作的7.7%。其中,98.3%的插入工作可以通过MODAPTS的同一编码来完成。由此,很明显原始MODAPTS适用于任务简单的装配工作。对于情景较为复杂,涉及较多认知过程的认知行为,诸如复杂装备的维修与使用过程,原始的MODAPTS显然没有很好地解决方式。
发明内容
本发明要解决的技术问题为:工业系统中人机交互密切,装备系统日趋复杂,使得人为因素造成的事故频频发生。同时,当前的人因可靠性分析方法缺乏能够客观与准确表达人的认知状态的技术手段。针对上述技术问题,本发明旨在提出一种基于认知分解的行为度量与评价方法,能够有效控制、预防与减少人为失误,提高复杂系统的状态监测与失效诊断能力,保障人机系统安全稳定的运行。
本发明采用的技术方案为:一种基于认知分解的行为度量与评价方法,该方法包括如下步骤:
步骤(1)、基于改进MODAPTS的认知行为度量;
步骤(2)、考虑行为影响因素的认知行为度量;
步骤(3)、认知行为绩效水平评价。
其中,步骤(1)具体包括以下步骤:
1)任务分解
首先对任务过程进行分析,将复杂任务按执行操作动作分解成一系列单元任务。图2所示为本发明提出的基于认知行为的任务分解。区别于原始MODAPTS法对任务分解到单元任务,本发明关注单元任务中的认知过程,将对任务的分解深入到对单元任务的分析,明确单元任务中所涉及的4类单元认知行为,并通过度量这4类单元认知行为的方式,确定单元任务的标准时间,从而预计整个任务过程的标准时间。
2)认知行为分解
认知心理学主要以信息加工的观点研究和理解人的认知行为,是研究人如何获取并运用知识的一门学科。因此,认知心理学又称为信息加工心理学。广义而言,凡以人或动物的认知行为为研究目标者,均可称为认知心理学。同时,现代认知心理学认为,认知过程就是信息的接受、编码、储存和使用的过程。当前的研究表明,人的行为与认知关系密切,人的认知决定行为的执行,而行为的表现也反映认知的水平。因此,本发明定义认知行为是认知过程中的人的内在与外在行为活动。
认知过程是一个复杂的心理活动过程,包括知觉、感知、想象、辨认、推理、判断、决策等。事实上已经有许多学者针对认知过程的建模开展了研究工作,并取得了很多有价值的成果。无一例外的,这些模型都明确了认知行为的重要性,并对认知过程进行了分析和分解,具体的分析结果如表1所示。
表1.各类认知过程模型中的认知行为分解
Figure SMS_1
从表1中,可以发现当前的各类认知过程模型对于认知行为的分类都基本涵盖了感知、处理、决策与执行这四个过程。因此,本发明结合各类认知行为分解方法,将认知行为分为4类,分别为:感知、处理、决策与执行。这4种认知行为过程的具体描述与行为如表2所示。
表2.4类单元认知行为的定义及举例
Figure SMS_2
基于以上所提的认知行为分解方法,这4种认知行为也被定义为单元认知行为。因此,任何复杂的人机交互过程中的单元任务都可以由这4种单元认知行为排列组合而成。
3)基于改进MODAPTS的认知行为度量
MODAPTS是澳大利亚学者Heyde于2001年提出的,利用基本动作衡量作业时间的方法。这种方法是一种提高生产率和建立时间标准的程序,它能够描述和分析给定的一系列操作或运动并为这些运动分配预定的时间标准。MODAPTS经常用于生产活动和非循环工作环境。通过分析工作的执行方式,MODAPTS能够量化执行装配、维修等操作所需的时间。作为一种分析方法,MODAPTS可以促进准确的时间测量和主动设计过程。MODAPTS最明显的特点是其基本的简单性。MODAPTS能够在不使用秒表的情况下开展时间测量工作,拓展开来也足以准确地设定工业中的人工费率,分析安全性,估算直接人工成本,控制质量和建立生产率标准。
MODAPTS主要基于2个假设:1)相同条件下,熟练人员的同一动作所需的时间值基本相等;2)不论是最快速度还是正常速度,人体各部位动作所消耗的时间有一定的比例关系,即所有操作的时间都是基本动作时间的整数倍。在MODAPTS中,定义手指移动25mm所需的时间为单位动作时间,即1MOD。其中,MOD为单位时间量,1MOD值为0.129秒。因此,其他所有的身体动作都可以用简单的手指动作,即MOD来表达。
MODAPTS定义了5种移动动作,6种终结动作以及其他身体动作10种,共21种。这些动作都以单位动作时间的整数倍呈现,其具体计算方式如表3所示。在该表中,表示方法由动作类型以及与单位时间的倍数组成,例如,腕部移动M2即为2×MOD=2×0.129=0.258秒,眼睛使用E2即为2×MOD=2×0.129=0.258秒。
表3.MODAPTS法中21种基本动作的定义与表示方法
Figure SMS_3
然而,MODAPTS方法的开发与应用实际上都是针对产品与流水线的装配工作。这类工作存在较多重复性的任务,且其中的任务复杂度较低,所需的认知过程简单,几乎都是本发明定义的反应行为。对于情景较为复杂,涉及较多认知过程的认知行为,诸如产品维修与使用过程,原始的MODAPTS方法显然没有很好地解决方式。因此,结合认知行为分解,改进MODAPTS方法,使其具备能够处理更复杂的认知行为过程的任务。
针对这4类认知行为的特点,本发明采用MODAPTS方法的时间度量框架,研究多种认知行为活动与过程的图像与视频数据,设计改进MODAPTS的认知行为度量方法,其对4类单元认知行为的标准时间度量如表4所示。
表4.4类单元认知行为的标准时间度量
Figure SMS_4
该方法将4类单元认知行为分为24种单元认知动作,每类单元认知行为及其相应的单元认知动作在模型中的度量方式如下所述:
A)感知单元认知行为
各类感知单元认知行为的具体描述与度量准则如表5所示。
表5.感知单元认知行为的度量准则
Figure SMS_5
B)处理单元认知行为
各类处理单元认知行为的具体描述与度量准则如表6所示。
表6.处理单元认知行为的度量准则
Figure SMS_6
C)决策单元认知行为
各类决策单元认知行为的具体描述与度量准则如表7所示。
表7.决策单元认知行为的度量准则
Figure SMS_7
D)执行单元认知行为
执行单元认知行为的度量准则大多数依然采用原MODAPTS方法的度量准则,其各种单元认知行为的具体描述与度量准则如表8所示。
表8.执行单元认知行为的度量准则
Figure SMS_8
由此,基于改进MODAPTS的单元任务认知行为度量方法开发完成。利用该方法,本发明可以度量出单元任务的标准时间,即:
Figure SMS_9
式中,T0代表操作人员完成单元任务所需的标准时间。ti(i=1,2,3,4)代表该单元任务为中感知、处理、决策与执行4类单元认知行为所需的标准时间。
其中,步骤(2)具体包括以下步骤:
1)行为影响因素分析与评价
在实际工作环境中,任务过程,尤其是装配与维修过程,充满了不友好的人际环境。这大大影响了操作者的任务进程,从而导致任务时间的增加,即使操作者的认知水平较高。因此,本发明主要分析影响任务中人的操作过程的因素,并评价其对认知行为的量化影响,从而开发出能够考虑行为影响因素的认知行为度量与评价方法,提高方法的实用性与准确性。
影响任务进程的因素是多方面的,通过对装配、维修与使用过程的分析,本发明发现这些影响因素都有共同点,即许多重要的影响因素都是在交互对象设计初期就已经确定了的,包括设计的使用环境与维修性等。因此,本发明将维修性中4个定性设计指标纳入主要影响人的行为的4个因素,他们分别是可视性、可达性、操作空间与工作姿态。为了更好地评价这4个因素,本发明定义了这4类因素,并设计了相应的评价准则。
A)可视性
可视性是指任务过程中待操作部位在操作人员视线可以达到的范围之内,操作人员能够方便、舒适地进行操作。在可视性不好的情况下进行操作,操作人员需要花费更多的时间来寻找定位、调整操作等,造成标准工作时间的加长。
在GJB2873-1997《军事装备和设施的人机工程设计准则》中对人的垂直和水平事业分别做出了规定。在“准则”中定义人眼最舒适的视线角度是水平线下15度,最佳视野区是一个在其上下左右各15度的圆形区域。最大视野区是一个在最佳视线外围,左右各35度,上至40度,下至20度的椭圆形区域。在最大视野区以外,人眼便不能看到待操作物体了,为不可视区域。根据以上描述,人体的视野范围都是一个圆或椭圆,因此,这类评价可视性的方法称为视锥法,具体人体视野范围如图3所示,详细的可视性评价准则如表9所示。
表9.可视性评价准则
Figure SMS_10
B)可达性
可达性是指在任务过程中操作人员的上肢或工具能够沿着一定路径和方式,接近待操作对象或部位。在可达性不好的情况下,操作人员需要花费更多的时间去调整姿态和手部动作以接近待操作部位,从而造成任务时间的加长。
表10.可达性评价准则
Figure SMS_11
根据电力工业标准DL/T 575.3-1999《控制中心人机工程设计导则.第3部分:手可及范围与操作区划分》,人体的可达性被分为坐姿和立姿可达,并给出了两个姿态人体手部的可达范围及其划分,具体数据与评价准则如图4与表10所示。
C)操作空间
操作空间是指操作人员在任务过程中,人员手部或工具所能够运动的空间。良好的操作空间是指手部或工具有足够的空间进行操作,与周围的设备无碰撞发生。因此,在本发明中,评价操作空间的指标以操作人员手部或工具与除了待操作对象以外的物体发生碰撞的次数,具体的评价准则如表11所示。
表11.操作空间评价准则
Figure SMS_12
D)工作姿态
工作姿态主要考虑操作人员在任务过程中操作姿态的舒适程度。分析与评价人体操作舒适度的方法有许多,本发明采用快速上肢分析(Rapid Upper Limb Assessment,RULA)来评价工作姿态的影响。RULA的评价方法与过程可以参考Lynn McAtamney与NigelCorlett在1993年发表的RULA方法。对身体姿态的最后评价结果为数值1-6分的舒适度评分,评分越高代表姿态越不舒适。因此,对于工作姿态的评价准则如表3-14所示。
表12.工作姿态评价准则
Figure SMS_13
Figure SMS_14
2)关联权重分析与评价
由于实际工程应用中,各个任务面临的环境与任务的难易程度不一,因此设定影响因素与单元认知行为关联矩阵需要参考任务的历史数据,并进行统计分析。本发明统计了某型号直升机与运输机的维修时间数据,确定出影响因素与单元任务关联矩阵,如表13所示。
表13.影响因素与单元任务关联矩阵
Figure SMS_15
3)复杂环境中的认知行为度量
通过分析行为影响因素,并评价任务环境中影响因素,在获得行为影响因素等级ai(i=1,2,3,4,ai∈[1,2,3])之后,确定由行为影响因素导致的增加时间:
Figure SMS_16
式中,ci代表当前单元任务在第i类影响因素评价为ai等级时的关联权重;C为当前单元任务各类行为影响因素关联权重之和。式中ci的取值具体数值可参考表13。
再结合改进MODAPTS对理想环境中认知行为标准时间的度量,最终获得考虑了行为影响因素的单元任务认知行为度量,公式如下所示:
Figure SMS_17
式中,T0与Ta分别为改进MODAPTS获得的单元任务标准时间与考虑行为影响因素增加的时间。因此,单元任务的标准时间度量完成,并以Te表示。
其中,步骤(3)具体包括以下步骤:
1)真实任务时间数据采集
通过分析任务视频或者自动视频分割与识别、该任务的历史时间数据收集统计以及根据相似任务时间数据采集的方式获取操作人员完成任务所需时间Tt
2)认知行为绩效水平评价
为评价行为反映出的认知状态,本发明提出了一套认知行为的绩效水平定义与评价系统,该系统将认知行为的绩效水平分为4类,分别为:反应行为、规则行为、方法行为与思索行为,详细解释如表14所示。
表14.认知行为绩效水平分类及其定义
Figure SMS_18
随着面临任务的复杂程度的增加,组成认知行为的单元认知行为数量也越多,导致需要的认知行为绩效水平越高。本发明采用时间这一反映认知行为的客观量作为度量指标,描述与衡量认知行为的发生过程。因此,以单元任务的标准时间作为认知行为绩效水平的度量与评价的参考原点,本发明将各类认知行为绩效水平的度量映射到对于单元任务标准时间的偏移量,定义4类认知行为绩效水平的评价为单元任务实际时间与标准时间的偏差值。
因此,假设当前单元任务实际用时为Tt,则认知行为的绩效水平R可以通过下式获得:
Figure SMS_19
式中,R为认知行为绩效水平的评价指标。根据对认知行为绩效水平的分类与定义,本发明分析了装甲车辆关键产品、航空产品以及航天产品的维修与装配过程,确定了认知行为绩效水平评价准则与指标R的取值范围,其评价准则如表15所示。
表15.认知行为绩效水平评价准则与指标R的取值范围
Figure SMS_20
由此,本发明完成了对单元任务在理想情境下和复杂情境下的认知行为度量,并实现了认知行为绩效水平的评价,能够通过行为来反映当前操作人员的认知水平和状态,为控制风险提供有效的技术手段。
本发明与现有技术相比的优点在于:
1)本发明通过关联认知与行为的内在规律,提出了4种单元认知行为,对MODAPTS进行改进,构建了认知行为标准时间度量编码系统,实现了4种单元认知行为共24种认知行为动作的时间度量,提出了基于改进MODAPTS的认知行为度量方法,完成了理想情境下的认知行为标准时间度量。现有的MODAPTS没有考虑认知过程,只能处理简单重复的流水线装配工作,无法实现复杂人机交互中认知行为的度量。
2)为充分考虑装备与环境对操作人员的影响,本发明设计了4类行为影响因素评价体系,实现了复杂环境下认知行为的标准时间度量。传统的标准时间度量方法缺乏对环境因素的考虑,使得评估的标准时间不准确。
3)在认知行为标准时间度量的基础上,本发明提出了4类认知行为绩效水平,构建了相应的指标评价体系,实现了复杂任务中对人的认知行为状态与水平的评价,能够通过行为来反映人的认知绩效,客观准确地减少与预防人为失误风险。当前的任务分析中对人的评价处于主观问卷分析的方式,缺乏客观有效的技术手段完成对人的认知评价,使得任务过程中的人为失效风险得不到有效的控制。
附图说明
图1为本发明一种基于认知分解的行为度量与评价方案图;
图2为基于认知行为的任务分解架构图;
图3为人体视野范围示意图;
图4为人体坐姿与立姿手部可达操作区划分示意图;
图5为CMU图像实验室人体动作采集状态示意图;
图6为CMU第62_20实验任务示例图;
图7为CMU第62_20实验任务分解图。
具体实施方式
下面结合附图以及具体实施方式进一步说明本发明。
本发明针对工业工程中控制与减少人为失误的需求,以解决缺乏客观与准确的技术手段衡量人的认知与行为的问题为目标,提出了一种基于认知分解的行为度量与评价方法。该方法关联认知与行为的内在规律,定义了4种单元认知行为与4种认知行为绩效水平,设计了基于改进MODAPTS的认知行为度量方法,构建了人机作业中的行为影响因素评价体系,提出了复杂环境中人的认知行为度量方法,结合历史与采集数据,提出了认知行为评价方法,实现了准确的认知行为度量及客观的认知行为评价,为预防人为因素造成的事故提供了有效的技术手段。
为了具体说明本发明的方法,本发明对卡耐基梅隆大学(Carnegie MellonUniversity,CMU)图像实验室的动作捕捉数据库进行分析。
本案例采用CMU图像实验室动作捕捉数据库,该数据库旨在利用动作捕捉设备捕捉人体任务数据,以便研究人员对人体动作、行为、时间等开展人机工效领域的分析与研究工作。该实验室利用12个Vicon红外MX-40摄像机对人体穿戴式传感器进行动作捕捉,每个相机能够以400万像素分辨率的图像,采集帧率为120Hz或60Hz。摄像机放置在实验室中央的大约3×8m2的矩形区域周围进行采集工作。被采集人则穿着黑色连身衣,并贴上41个数据采集传感器。然后,Vicon摄像机即可通过红外线记录这些传感器标记点的数据,被拍摄的图像与视频数据经过三角化后得到3D数据。图5所示为该实验室实验人员穿戴上动作捕捉传感器之后的图片以及为计算机处理后的采集数据。
本发明选择对该数据库的第62号实验者的第20项建筑工作开展分析。该任务是盖上箱子的盖子,然后将箱子从一张桌子上移动到另外一张桌子上,并打开箱子盖,最后将箱子盖放到桌角,该实验任务如图6所示。
步骤(1)、基于改进MODAPTS的认知行为度量
首先,对该任务进行分析与分解,任务分析与分解过程及其每个单元任务的视频关键帧如图7所示,通过任务分解共获得12个单元任务,这12个单元任务及其描述如表16所示。其次,对该表中每个单元任务进行认知行为分解研究,分解成本发明所提的4种单元认知行为。最后,利用改进的MODAPTS方法完成对每个单元认知行为进行分析,明确每个单元认知行为的具体动作及其MOD数。从该表中,可以发现每个单元任务的MOD数小于15且标准时间都小于2秒,最终整个任务的总MOD数为103,且度量理想情境下的任务总时间为13.287秒。
表16.CMU第62_20实验任务分解与认知行为标准时间度量
Figure SMS_21
步骤(2)、考虑行为影响因素的认知行为度量;
该步骤分析与评价结果如表17所示。首先分析当前任务情景,确定12个单元任务的行为影响因素的评价等级,即对每个单元任务为可视性(a1)、可达性(a2)、操作空间(a3)与工作姿态(a4)进行评价。从该表中可以发现,行为影响因素评价等级较高的单元任务,即这些因素影响较大的单元任务为第1项与第11项任务,这两项单元任务都需要操作人员弯腰完成盒盖的拾取与放置,对操作人员的可达性与人体工作姿态影响较大。其次,参考行为影响因素与单元任务关联矩阵,确定单元任务的关联权重C。最后,结合单元任务标准时间,计算由行为影响因素导致的增加时间,最终计算得到的增加时间为1.5222秒。
表17.行为影响因素分析与增加时间计算
Figure SMS_22
结合单元任务标准时间与增加时间,计算获得考虑行为影响因素下每个单元任务的标准时间,最终度量出整个任务的时间。为验证本发明提出的认知行为度量方法的有效性与准确性,真实时间与传统MODAPTS方法被用作比较。由于该任务的认知行为绩效水平为反应行为,因此由该任务记录的真实时间即被作为标准时间的参考值,以此比较两类方法的准确性。最终结果如表18和表19所示。
表18.原始MODAPTS方法标准时间度量
Figure SMS_23
Figure SMS_24
比较表19中度量时间准确率的结果,不难发现本发明所提认知行为标准时间的度量方法比起传统的MODAPTS方法要准,对总任务的时间度量精度达到了98.51%,且对单元任务时间的度量准确率范围为85.14%到99.98%。相反,传统MODAPTS方法对总任务的精度仅有90.96%,且对单元任务的时间度量精度最低降到了70.95%,而最高才到达96.8%。
表19.原始MODAPTS法与所提方法认知行为度量结果比较
Figure SMS_25
结合对每个单元任务的时间度量结果与准确率结果的比较,主要的差异体现在对单元任务5、8、10和11的度量结果上,时间差异分别为0.2838s、0.2322s、0.2193s和0.2322s,精度差分别为14.19%、19.90%、10.32%、21.93%和10.67%。对这四个单元任务的度量表现上,所提方法无疑都体现出优越的性能,并给出了更为准确的时间估计。通过比较表17和表18,可以很明显的发现本发明所提方法的优越性主要体现在两个方面。一方面,所提方法能够考虑任务过程中复杂的认知过程。比如单元任务5,双手锁紧盒盖,在执行该动作时需要比较盒盖是否锁紧,并作出判断的认知行为,这是传统MODAPTS方法无法度量的认知过程,而所提方法更贴合实际操作人员完成任务过程中的认知发生过程,因此给出了更为合理与准确的时间估计。另一方面,本发明所提的方法能够考虑任务过程中的影响因素对人的操作行为的作用,导致时间估计的准确。以单元任务11为例,在完成该任务时,由于被盒子和椅子所遮蔽,导致需要调整姿态观察合适的位置,可视性一般。同时,操作任务需要弯腰才能到达放置盒盖的位置,可达性一般。由于弯腰观察与伸直手臂,以及抓着盒盖,导致操作人员的工作姿态评价等级较高,影响该单元任务的执行。正是由于考虑了任务过程中的各种影响因素,导致所提方法能够更贴合实际任务的过程,完成准确的时间估计。
因此,本发明所提的基于认知分解的行为度量方法比起传统的MODAPTS方法,更能体现操作人员完成实际任务的认知过程,完整考虑任务过程影响因素的作用,从而实现准确与有效的任务标准时间度量,理论分析与实验结果双重验证了所提方法的准确性与优越性。
步骤(3)、认知行为绩效水平评价。
在此部分中,为验证评价方法的有效性,本发明先对实验任务的真实采集视频数据进行分析。由于该任务过程较为简单,几乎不涉及高层次的认知过程,且实验人员多次完成该任务,具有相当丰富的经验。根据本发明对认知行为绩效水平的分类,该任务过程中操作人员的认知行为绩效水平为反应行为。
利用认知行为度量方法获得该任务的标准时间,结合本发明所提的认知行为评价方法,对该任务及其单元任务的认知行为绩效水平进行量化评价,其评价结果如表20所示。
表3-21单元及整个任务认知行为评价结果
Figure SMS_26
由评价结果可知,对该任务操作人员真实任务过程的认知行为绩效水平评价为反应行为,这与本发明对该任务的初始分析与定义一致,从而验证了本发明所提认知行为评价方法的有效性。
上述仅是本实用新型的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本实用新型原理的前提下,还可以做出若干改进和调整,这些改进和调整也应视为本实用新型的保护范围。

Claims (3)

1.一种基于认知分解的行为度量与评价方法,其特征在于:该方法包括如下步骤:
步骤(1)、基于改进MODAPTS法对认知行为进行度量;步骤(1)中基于改进MODAPTS的认知行为度量的具体步骤为:
步骤1.1,对任务过程进行分析,将复杂任务按执行操作动作分解成一系列单元任务;
步骤1.2,根据单元任务特点,进行认知行为分解,获得包括感知、处理、决策与执行4类认知行为的单元任务;所述步骤1.2中,4种认知行为过程的具体描述为:
Figure QLYQS_1
步骤1.3,利用改进MODAPTS法对单元认知行为进行标准时间度量ti,同时完成自然情境下单元任务的标准时间度量T0;所述步骤1.3中改进MODAPTS的认知行为度量方法,其对4类单元认知行为的标准时间度量如下表所示:
表4类单元认知行为的标准时间度量
Figure QLYQS_2
自然情境下单元任务的标准时间度量T0为:
Figure QLYQS_3
式中,T0代表操作人员完成单元任务所需的标准时间,ti(i=1,2,3,4)代表该单元任务为中感知、处理、决策与执行4类单元认知行为所需的标准时间;
步骤(2)、考虑行为影响因素的情况下,对认知行为进行度量;步骤(2)中考虑行为影响因素的认知行为度量的具体步骤为:
步骤2.1,分析当前任务的情景,主要为对行为影响因素的分析与评价,确定每个行为影响因素的等级ai
步骤2.2,利用行为影响因素与单元任务关联矩阵,确定每个单元任务的行为影响因素关联权重ci;所述步骤2.2中提到的行为影响因素与单元任务关联矩阵为:
影响因素与单元任务关联矩阵
Figure QLYQS_4
Figure QLYQS_5
步骤2.3,结合单元任务标准时间,明确由行为影响因素导致的增加时间Ta,结合理想情境下获得的标准时间T0,完成考虑行为影响因素的认知行为度量,并确定最终单元任务的标准时间Te;所述步骤2.3中确定的最终单元任务的标准时间Te为:
Figure QLYQS_6
式中,T0与Ta分别为改进MODAPTS获得的单元任务标准时间与考虑行为影响因素增加的时间,单元任务的标准时间度量完成,并以Te表示;
Figure QLYQS_7
式中,ci代表当前单元任务在第i类影响因素评价为ai等级时的关联权重;C为当前单元任务各类行为影响因素关联权重之和;
步骤(3)、对认知行为绩效水平实施评价。
2.根据权利要求1所述的基于认知分解的行为度量与评价方法,其特征在于:步骤(3)中认知行为绩效水平评价的具体步骤为:
步骤3.1,通过分析任务视频以及历史数据收集的方式获取操作人员完成任务所需时间Tt
步骤3.2,提出评价准则,结合对认知行为度量的结果Te,完成对当前单元任务和整个任务的认知行为绩效水平的评价。
3.根据权利要求2所述的基于认知分解的行为度量与评价方法,其特征在于:所述步骤3.2,令当前单元任务实际用时为Tt,则认知行为的绩效水平R通过下式获得:
Figure QLYQS_8
式中,R为认知行为绩效水平的评价指标,其评价准则如下表所示:
Figure QLYQS_9
CN201911250659.1A 2019-12-09 2019-12-09 一种基于认知分解的行为度量与评价方法 Active CN111027470B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911250659.1A CN111027470B (zh) 2019-12-09 2019-12-09 一种基于认知分解的行为度量与评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911250659.1A CN111027470B (zh) 2019-12-09 2019-12-09 一种基于认知分解的行为度量与评价方法

Publications (2)

Publication Number Publication Date
CN111027470A CN111027470A (zh) 2020-04-17
CN111027470B true CN111027470B (zh) 2023-06-27

Family

ID=70208224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911250659.1A Active CN111027470B (zh) 2019-12-09 2019-12-09 一种基于认知分解的行为度量与评价方法

Country Status (1)

Country Link
CN (1) CN111027470B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107609753A (zh) * 2017-08-24 2018-01-19 北京航空航天大学 一种面向航天在轨任务的人因可靠性分析及量化方法
CN109377099A (zh) * 2018-11-29 2019-02-22 中广核工程有限公司 一种核电厂运行人员绩效数据采集方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6377050B2 (ja) * 2015-12-18 2018-08-22 ヤフー株式会社 学習装置、学習方法および学習プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107609753A (zh) * 2017-08-24 2018-01-19 北京航空航天大学 一种面向航天在轨任务的人因可靠性分析及量化方法
CN109377099A (zh) * 2018-11-29 2019-02-22 中广核工程有限公司 一种核电厂运行人员绩效数据采集方法及系统

Also Published As

Publication number Publication date
CN111027470A (zh) 2020-04-17

Similar Documents

Publication Publication Date Title
US11324439B2 (en) Methods and apparatus for machine learning to analyze musculo-skeletal rehabilitation from images
Vignais et al. Physical risk factors identification based on body sensor network combined to videotaping
Manghisi et al. Automatic ergonomic postural risk monitoring on the factory shopfloor‒the ergosentinel tool
CN105832343B (zh) 多维视觉手功能康复定量评估系统和评估方法
US11957478B2 (en) Methods and apparatus for machine learning to analyze musculo-skeletal rehabilitation from images
CN103218689B (zh) 操作员状态评估的可靠性分析方法及装置
CN110755085B (zh) 基于关节活动度与运动协调性的运动功能评估方法及设备
CN113974612B (zh) 一种卒中患者上肢运动功能自动化评估方法与系统
Wierschem et al. A motion capture system for the study of human manufacturing repetitive motions
Yin et al. A systematic review on digital human models in assembly process planning
Chen et al. Assembly torque data regression using sEMG and inertial signals
Olivas-Padilla et al. Motion capture benchmark of real industrial tasks and traditional crafts for human movement analysis
CN111027470B (zh) 一种基于认知分解的行为度量与评价方法
Huang et al. Spatial relationship-aware rapid entire body fuzzy assessment method for prevention of work-related musculoskeletal disorders
Kunz et al. Vision-based ergonomic and fatigue analyses for advanced manufacturing
Zhang et al. A Quick Capture Evaluation System for the Automatic Assessment of Work-Related Musculoskeletal Disorders for Sanitation Workers
CN115067934A (zh) 一种基于机器智能的手部运动功能分析系统
Ma et al. A framework for interactive work design based on digital work analysis and simulation
Piercy et al. Using skeletal position to estimate human error rates in telemanipulator operators
Wang Ergonomic-centric methods for workplace design in industrialized construction
Xiahou et al. A Feature-Level Fusion-Based Multimodal Analysis of Recognition and Classification of Awkward Working Postures in Construction
Bachynskyi et al. Biomechanical simulation in the analysis of aimed movements
Wang et al. Real-time anthropometric data-driven evaluation method for complex console layout design
Li et al. Automated ergonomic risk assessment based on 3D visualization
Zhang et al. Workload evaluation model of nuclear power plant operator in integrated system validation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant