CN106447184A - 基于多传感器测量与神经网络学习的无人机操作员状态评估方法 - Google Patents

基于多传感器测量与神经网络学习的无人机操作员状态评估方法 Download PDF

Info

Publication number
CN106447184A
CN106447184A CN201610838299.7A CN201610838299A CN106447184A CN 106447184 A CN106447184 A CN 106447184A CN 201610838299 A CN201610838299 A CN 201610838299A CN 106447184 A CN106447184 A CN 106447184A
Authority
CN
China
Prior art keywords
operator
state
task
vector
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610838299.7A
Other languages
English (en)
Other versions
CN106447184B (zh
Inventor
牛轶峰
钟志伟
尹栋
王祥科
李�杰
相晓嘉
贾圣德
王菖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN201610838299.7A priority Critical patent/CN106447184B/zh
Publication of CN106447184A publication Critical patent/CN106447184A/zh
Application granted granted Critical
Publication of CN106447184B publication Critical patent/CN106447184B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Strategic Management (AREA)
  • Cardiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Economics (AREA)
  • Pathology (AREA)
  • Educational Administration (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Development Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Physiology (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)

Abstract

本发明提出了一种基于多传感器测量与神经网络学习的无人机操作员状态评估方法,建立与上述传感器特征与语义之间的映射关系,从而估计出操作员的决策等级。该方法便于更加直观地掌握操作员的实时状态,估计操作员当前是否适合该任务,以及对任务可做出相应的调整。由于采用了神经网络的学习方法,可建立不同操作员的特征空间,因此,适用于具有不同熟练程度的各种层次的无人机操作员。

Description

基于多传感器测量与神经网络学习的无人机操作员状态评估 方法
技术领域
本发明涉及无人机系统技术领域,具体涉及一种基于多传感器测量与神经网络学习的无人机操作员状态评估方法。
背景技术
随着无人机自动化程度的提高,操作员对无人机的控制由低级的基于行为的控制转变为高级的基于知识的控制,这种基于知识的控制就是监督控制。在监督控制中,飞行控制是由系统自动完成的,操作员主要是负责高层的任务管理和载荷管理。传统指挥控制一架无人机经常需要多个操作员,监督控制则使得单个操作员控制多架无人机成为可能,一方面平台自动化程度的提高为这种转变提供了技术支持,另一方面网络中心战要求平台间的交互为这种转变提供了动力。在执行任务过程中地面站操作员仍然拥有操纵飞机的最终决定权,无人机系统仍属于人在回路的系统,其作战使用离不开人的指挥控制,大量的显示信息及控制需求使地面站操作员的工作负荷和操作难度增大容易导致误判和误操作。
公开号为101868284A的专利文献提出一种用于基于传感器测量来提供交互性的方法及系统,是一种用于客人的传感器测量来向体验场所的客人提供交互性的系统。公开号为105082150A的专利文献,公开了一种基于用户情绪及意图识别的机器人人机交互方法,利用生物信号、面部表情以及利用语音交互实现人机交互,主要用于老人和小孩等使用者。公开号为105292476A的专利文献公开了一种无人机的控制方法及系统,利用脑电波判断无人机操作员大脑是否清醒。
因此,从多传感器测量角度,研究无人机操作人员工作状态,为更好的监督控制多无人机系统提供依据。
发明内容
本发明提出了一种基于多传感器测量与神经网络学习的无人机操作员状态评估方法。多传感器主要包括测量操作员姿态、面部表情、眼动跟踪、体温,心率的传感器,以及人脑意念的传感器。利用这些传感器获取操作员状态信息,构建多维特征空间样本库。根据不同操作员的样本,用神经网络进行训练和学习,建立与上述传感器特征与语义之间的映射关系,从而估计出操作员的决策等级。该方法适用于具有不同熟练程度的各种层次的无人机操作员,可以更加直观的掌握操作员的实时状态,估计操作员当前是否适合该任务,以及对任务可做出相应的调整。
一种基于多传感器测量与神经网络学习的无人机操作员状态评估方法,包括以下步骤:
步骤一:传感器测量
利用温度传感器检测操作员的体温,用于监测操作员不同情绪变化下的体温分布情况。利用心率传感器检测操作员的心率,用于监测操作员不同状态如兴奋、疲劳状态下的心率变化。利用人体动作、姿态检测的深度图像传感器检测操作员的姿态行为,用于监测操作员不同行为状态下的姿态变化。利用面部表情的可见光图像传感器检测操作员的面部表情,根据面部表情的变化检测操作员的心情状态。利用眼动仪传感器检测人的眼睛关注度,以及根据眼睛的闭合情况检测眼睛疲劳状态。利用人脑意念传感器检测操作员是否注意力集中。
步骤二、利用上述传感器获取的操作员状态信息,构建多维特征空间样本库;根据不同操作员的样本,设计相应的神经网络训练学习感知器,建立与上述传感器特征与语义之间的映射关系。
1)首先构建多维的特征空间样本库
人脑意念和眼动跟踪可以输出操作员的关注度,体温和面部表情可以输出操作员的心情,姿态可以判断操作员的肢体行为,心率、眼动跟踪以及姿态可以输出操作员的疲劳度。
基于上述状态信息确定操作员状态特征输入矢量X(人脑意念x1,眼动跟踪x2,体温x3,面部表情x4,姿态x5,心率x6)。
同时,确定操作员状态特征目标矢量T(关注度T1,心情T2,肢体行为T3,疲劳度T4)。
2)设计相应的神经网络训练学习感知器
①确定输入矢量X,目标矢量T,并由此确定各矢量的维数,r为输入矢量P的维数,r=6;s为目标矢量T的维数,s=4;确定网络结构大小的神经元节点数目q=44
其数学模型可表示为
Y为神经元输出,f为神经元非线性激励函数,X=(x1,x2,...,x6)为神经元输入,W=(ω12,...,ω6)为权矢量,其中包含多个权值,θ为神经元激活阈值。
②参数初始化,赋给权矢量W在(-1,1)的随机非零初始值,给出最大训练循环次数。
③网络表达式:根据输入矢量X以及跟新权矢量W,计算网络输出矢量Y。
④检查:检查输出矢量Y与目标矢量T是否相同,如果是,或已达最大循环次数,训练结束,否则转入⑤。
⑤学习,根据下式所示,感知器的学习规则调整权矢量W,并返回③。
W=W+EPT
θ=θ+E
此处E为误差矢量,E=T-Y。
3)最后建立与上述传感器特征与语义之间的映射关系:
首先对状态模型进行语义量化;
选择很多对形容词用于建立操作员状态模型形容词集,形容词集如表1所示:
表1
1、悲伤的–快乐的 5、轻松的–压抑的
2、疲劳的–平静的 6、注意力集中的–分散的
3、焦虑的–中性的 7、低头的–抬头的
4、紧张的–放松的 8、清晰的–模糊的
针对表1中的各个形容词队,如“疲劳的–平静的”,将其分为四个等级进行评价,其评价可以是重度疲劳,轻微疲劳,良好,非常良好,分别对应的边界条件为t43,t42,t41,当疲劳度T4大于操作员设定的阈值时T4>t43,操作员重度疲劳,当T4小于操作员设定的阈值时T4<t41,操作员状态非常良好;同样的,将其他各形容词队分别将其分为四个等级进行评价。
然后建立状态空间;
首先获得各测试用户对某一状态m的第n对形容词的评价量化值,再对某一状态m的第n对形容词量化值求平均,获得一维矩阵Ym=[ym1,ym2,...,ymn],并按照公式进行标准化,得到矩阵Xm
式中
设E为公共因子矩阵,Z为载荷矩阵,其中
式中,公共因子矩阵E的第m行em=(em1,em2,...,emn)对每一操作用状态m在状态空间的坐标,载荷矩阵Z的第n行Zn=(Zn1,Zn2,...,Znk)对应形容词n在K维空间的坐标。
再设U为独特因子,D作为独特因子的权值,为对获得的矩阵X按公式做因子分析:
X=EZ'+UD
通过以上步骤,将原先的N维操作员的状态空间降至K维,形成K维的正交状态空间,建立形容词与操作员向量的映射。
步骤三:构建语义组合构建的树形结构,给出操作员的状态评估,估计操作员当前是否适合该任务,以及对无人机任务控制站任务可做出相应的调整。
构建语义组合构建的树形结构,从叶子节点开始,按照树所表示的节点层次关系,从底层叶子节点开始逐层向上进行有序的组合,最终得到整个句子的语义表示。然后根据上述的语义量化,操作员关注度T1,心情T2,肢体行为T3,疲劳度T4,采用D-S证据决策,操作员的状态评估为Q:
λi为各种状态的权值系数,其中λ1*T12*T23*T34*T<1;
最后给出操作员的状态评估,估计操作员当前是否适合该任务,以及对控制站任务可做出相应的调整。当Q大于操作员设定的阈值时Q>Q1时,操作员不适合该任务,控制站自动处理该任务,并且提醒操作员该休息下;当Q0<Q<Q1时,操作员只适合部分该任务,控制站自动处理该任务,然后提示操作员确认该任务;当Q<Q0时,操作员适合该任务,控制站把该任务全权交给操作员。
本发明提出了一种基于多传感器测量与神经网络学习的无人机操作员状态评估方法,建立与上述传感器特征与语义之间的映射关系,从而估计出操作员的决策等级。该方法便于更加直观地掌握操作员的实时状态,估计操作员当前是否适合该任务,以及对任务可做出相应的调整。由于采用了神经网络的学习方法,可建立不同操作员的特征空间,因此,适用于具有不同熟练程度的各种层次的无人机操作员。
附图说明
图1为本发明的流程图,
图2为各个传感器输出操作员的各种状态,
图3为神经网络结构图,
图4句子组合关系树状层次图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步说明。
本发明旨在提供一种基于多传感器测量与神经网络学习的无人机操作员状态评估方法,建立与上述传感器特征与语义之间的映射关系,从而估计出操作员的决策等级。该方法便于更加直观地掌握操作员的实时状态,估计操作员当前是否适合该任务,以及对任务可做出相应的调整。由于采用了神经网络的学习方法,可建立不同操作员的特征空间,因此,适用于具有不同熟练程度的各种层次的无人机操作员。下面结合附图,说明本方法的具体实施方式。
如图1所示为本发明的流程图。无人机操作员状态特征提取主要通过多种传感器检测无人机操作员的各种状态信号。传感器包括用于操作员体温检测的温度传感器,用于监测操作员心率的心率传感器,用于操作员人体动作、姿态检测的深度图像传感器,用于检测操作员面部表情的可见光图像传感器,用于操作员眼睛关注度和眼睛疲劳检测的眼动仪传感器,以及用于操作员人脑意念检测的人脑意念传感器。
操作员的体温检测可以检测不同情绪变化下的体温;心率传感器检测人的心率变换,如在兴奋、疲劳状态下人的心率不同;人体动作、姿态检测传感器检测姿态行为,处于不同状态的人,表现的姿态上也有可能不一样;面部表情的传感器可以检测操作员心情状态,比如开心,愤怒等;眼睛关注度传感器检测人的关注度,也可以检测疲劳状态;人脑意念传感器主要检测操作员是否注意力集中。
通过上述多种传感器获得这些特征量化后,根据不同操作员的样本,在基于神经网络的学习方法上进行训练,建立与上述传感器特征与语义之间的映射关系,该映射关系主要是利用训练中的数据库、知识库、规则库转化的数值符号和语义概念合成,利用这些特征量化值作为特征输入,通过语义输出操作员各种状态,估计该状态下的操作员适合该任务的等级。最后无人机任务控制站系统以语义的方式反馈回操作员,使得操作员更加直观的掌握实时的状态信息。
1)首先构建多维的特征空间样本库
图2为各个传感器输出操作员的各种状态,其中根据人脑意念和眼动跟踪可以输出操作员的关注度,体温和面部表情可以输出操作员的心情,姿态可以判断操作员的肢体行为,心率、眼动跟踪以及姿态可以输出操作员的疲劳度。然后根据这些状态输出操作员的状态负载等级,最后根据负载等级无人机任务控制站提示因该给予操作员的任务等级。
因此,基于上述状态信息确定操作员状态特征输入矢量X(人脑意念x1,眼动跟踪x2,体温x3,面部表情x4,姿态x5,心率x6),操作员状态特征目标矢量T(关注度T1,心情T2,肢体行为T3,疲劳度T4)。
语义网是如何把特征向量构建神经网络的语义基础,如图3所示为神经网络结构图,语义网是基于有向图描述事物、概念、属性、动作、状态及其之间的关联关系的知识表示模式。在上文中获得的目标图像特征,用语义网理论加以描述,分析目标图像特征信息与其内容之间的内在关联关系。建立目标图像知识表示模式,为神经网络学习图像语义提供支持。神经网络信息存储分布在连接权值上,使网络局部输入信息的不准确并不会影响网络输出的正确性,具有较高的容错性和鲁棒性。每个神经元根据接收输入信息独立运算,输入下层处理,具有并行处理信息能力。神经网络将信息处理和信息存储分离,反映了网络对信息的记忆联想能力。
2)设计相应的神经网络训练学习感知器
①确定输入矢量X,目标矢量T,并由此确定各矢量的维数,r为输入矢量P的维数,r=6;s为目标矢量T的维数,s=4;确定网络结构大小的神经元节点数目q=44
其数学模型可表示为
Y为神经元输出,f为神经元非线性激励函数,X=(x1,x2,...,x6)为神经元输入,W=(ω12,...,ω6)为权矢量,其中包含多个权值,θ为神经元激活阈值。
②参数初始化,赋给权矢量W在(-1,1)的随机非零初始值,给出最大训练循环次数。
③网络表达式:根据输入矢量X以及跟新权矢量W,计算网络输出矢量Y。
④检查:检查输出矢量Y与目标矢量T是否相同,如果是,或已达最大循环次数,训练结束,否则转入⑤。
⑤学习,根据下式所示,感知器的学习规则调整权矢量W,并返回③。
W=W+EPT
θ=θ+E
此处E为误差矢量,E=T-Y。
3)最后建立与上述传感器特征与语义之间的映射关系.
操作员各种状态模型建立。操作员各种状态模型的建立主要包括两步,一是对状态模型进行语义量化,二是建立状态空间。选择很多对形容词用于建立操作员状态模型形容词集,形容词对如表1所示:
表1形容词集
1、悲伤的–快乐的 5、轻松的–压抑的
2、疲劳的–平静的 6、注意力集中的–分散的
3、焦虑的–中性的 7、低头的–抬头的
4、紧张的–放松的 8、清晰的–模糊的
针对表1中的各个形容词队,如“疲劳的–平静的”,将其分为四个等级进行评价,其评价可以是重度疲劳,轻微疲劳,良好,非常良好,分别对应的边界条件为t43,t42,t41,当疲劳度T4大于操作员设定的阈值时T4>t43,操作员重度疲劳,当T4小于操作员设定的阈值时T4<t41,操作员状态非常良好。同样的,将其他各形容词队分别将其分为多个等级进行评价。如将关注度T1分为高度集中、集中、关注度低、没关注四个等级,分别对应的边界条件为t13,t12,t11,当关注度T1大于操作员设定的阈值时T1>t13,操作员没关注,当T1小于操作员设定的阈值时T1<t11,操作员高度集中。同理可将心情T2分为中性、厌恶、愤怒三个等级,将肢体行为T3分为直视、低头、换动三个等级。
然后建立状态空间:首先获得各测试用户对某一状态m的第n对形容词的评价量化值,再对某一状态m的第n对形容词量化值求平均,获得一维矩阵Ym=[ym1,ym2,...,ymn],并按照公式进行标准化,得到矩阵Xm
式中
设E为公共因子矩阵,Z为载荷矩阵,其中
式中,公共因子矩阵E的第m行em=(em1,em2,...,emn)对每一操作用状态m在状态空间的坐标,载荷矩阵Z的第n行Zn=(Zn1,Zn2,...,Znk)对应形容词n在K维空间的坐标;
再设U为独特因子,D作为独特因子的权值,为对获得的矩阵X按公式做因子分析:
X=EZ'+UD
通过以上步骤,将原先的N维操作员的状态空间降至K维,形成K维的正交状态空间,建立形容词与操作员向量的映射。
语义组合构建,由于语义组合构建需要使用到文本不同成分之间的语义表达的组合关系,故需要把上述工具分析得到的结果按照分析器定义的依存关系次序进行变换,就可以得到整个句子的组合关系树状层级图,如图4所示。按照图4所示的树状结构,从叶子节点开始,按照树所表示的节点层次关系,从底层叶子节点开始逐层向上进行有序的组合,最终得到整个句子的语义表示。文中对上图树中两个子节点进行组合。然后根据语义组合构建的树形结构,利用神经网络学习的结果填充不同类型的语义词,最后给出操作员的状态评估,估计操作员当前是否适合该任务,以及对任务可做出相应的调整。采用D-S证据决策,操作员的状态评估为Q。
λi为各种状态的权值系数,其中λ1*T12*T23*T34*T<1。
最后给出操作员的状态评估,估计操作员当前是否适合该任务,以及对控制站任务可做出相应的调整。当Q大于操作员设定的阈值时Q>Q1时,操作员不适合该任务,控制站自动处理该任务,并且提醒操作员该休息下。当Q0<Q<Q1时,操作员只适合部分该任务,控制站自动处理该任务,然后提示操作员确认该任务。当Q<Q0时,操作员适合该任务,控制站把该任务全权交给操作员。
对不同时刻下无人机操作员的状态进行检测,检测疲劳、心情、表情、关注度以及行为,建立特征矩阵X,然后根据语义组合已经构建的语义网络采用神经网络学习方法,构建语义学习的结果。当操作员操作时间越长时,操作员的状态会变的不好,最后根据所有操作员的状态利用D-S证据决策对数据的融合估计操作员是否适合该任务或者操作。该语义学习的结果如表2所示。可以看出,操作员连续工作的时间越长,精神状态越差,当操作员连续工作1小时左右,操作员就不太适合该任务的操作,或者需要更换其他的任务,或者休息。
表2神经网络语义学习不同时刻的无人机操作员状态

Claims (3)

1.一种基于多传感器测量与神经网络学习的无人机操作员状态评估方法,其特征在于,包括以下步骤:
步骤一:传感器测量
利用温度传感器检测操作员的体温,用于监测操作员不同情绪变化下的体温分布情况;利用心率传感器检测操作员的心率,用于监测操作员不同状态如兴奋、疲劳状态下的心率变化;利用人体动作、姿态检测的深度图像传感器检测操作员的姿态行为,用于监测操作员不同行为状态下的姿态变化;利用面部表情的可见光图像传感器检测操作员的面部表情,根据面部表情的变化检测操作员的心情状态;利用眼动仪传感器检测人的眼睛关注度,以及根据眼睛的闭合情况检测眼睛疲劳状态;利用人脑意念传感器检测操作员是否注意力集中;
步骤二、利用上述传感器获取的操作员状态信息,构建多维特征空间样本库;根据不同操作员的样本,设计相应的神经网络训练学习感知器,建立与上述传感器特征与语义之间的映射关系;
步骤三:构建语义组合构建的树形结构,给出操作员的状态评估,估计操作员当前是否适合该任务,以及对无人机任务控制站任务可做出相应的调整。
2.根据权利要求1所述的基于多传感器测量与神经网络学习的无人机操作员状态评估方法,其特征在于,步骤二包括以下步骤:
1)首先构建多维的特征空间样本库
人脑意念和眼动跟踪可以输出操作员的关注度,体温和面部表情可以输出操作员的心情,姿态可以判断操作员的肢体行为,心率、眼动跟踪以及姿态可以输出操作员的疲劳度;
基于上述状态信息确定操作员状态特征输入矢量X(人脑意念x1,眼动跟踪x2,体温x3,面部表情x4,姿态x5,心率x6),
同时,确定操作员状态特征目标矢量T(关注度T1,心情T2,肢体行为T3,疲劳度T4);
2)设计相应的神经网络训练学习感知器
①确定输入矢量X,目标矢量T,并由此确定各矢量的维数,r为输入矢量P的维数,r=6;s为目标矢量T的维数,s=4;确定网络结构大小的神经元节点数目q=44
其数学模型可表示为
Y = f ( Σ i = 1 n ( ω i , ... x i ) - θ )
Y为神经元输出,f为神经元非线性激励函数,X=(x1,x2,...,x6)为神经元输入,W=(ω12,...,ω6)为权矢量,其中包含多个权值,θ为神经元激活阈值;
②参数初始化,赋给权矢量W在(-1,1)的随机非零初始值,给出最大训练循环次数;
③网络表达式:根据输入矢量X以及跟新权矢量W,计算网络输出矢量Y;
④检查:检查输出矢量Y与目标矢量T是否相同,如果是,或已达最大循环次数,训练结束,否则转入⑤;
⑤学习,根据下式所示,感知器的学习规则调整权矢量W,并返回③;
W=W+EPT
θ=θ+E
此处E为误差矢量,E=T-Y;
3)最后建立与上述传感器特征与语义之间的映射关系:
首先对状态模型进行语义量化;
选择很多对形容词用于建立操作员状态模型形容词集,形容词集如表1所示:
表1
1、悲伤的–快乐的 5、轻松的–压抑的 2、疲劳的–平静的 6、注意力集中的–分散的 3、焦虑的–中性的 7、低头的–抬头的 4、紧张的–放松的 8、清晰的–模糊的
针对表1中的各个形容词队,如“疲劳的–平静的”,将其分为四个等级进行评价,其评价可以是重度疲劳,轻微疲劳,良好,非常良好,分别对应的边界条件为t43,t42,t41,当疲劳度T4大于操作员设定的阈值时T4>t43,操作员重度疲劳,当T4小于操作员设定的阈值时T4<t41,操作员状态非常良好;同样的,将其他各形容词队分别将其分为四个等级进行评价;
然后建立状态空间;
首先获得各测试用户对某一状态m的第n对形容词的评价量化值,再对某一状态m的第n对形容词量化值求平均,获得一维矩阵Ym=[ym1,ym2,...,ymn],并按照公式进行标准化,得到矩阵Xm
x m n = y m n - y ‾ n s n
式中
设E为公共因子矩阵,Z为载荷矩阵,其中
Z = z 11 ... z 1 k ... z N 1 ... z N k E = e 11 ... e 1 k ... e M 1 ... e M k
式中,公共因子矩阵E的第m行em=(em1,em2,...,emn)对每一操作用状态m在状态空间的坐标,载荷矩阵Z的第n行Zn=(Zn1,Zn2,...,Znk)对应形容词n在K维空间的坐标;
再设U为独特因子,D作为独特因子的权值,为对获得的矩阵X按公式做因子分析:
X=EZ'+UD
通过以上步骤,将原先的N维操作员的状态空间降至K维,形成K维的正交状态空间,建立形容词与操作员向量的映射。
3.根据权利要求2所述的基于多传感器测量与神经网络学习的无人机操作员状态评估方法,其特征在于,步骤三包括以下步骤:
构建语义组合构建的树形结构,从叶子节点开始,按照树所表示的节点层次关系,从底层叶子节点开始逐层向上进行有序的组合,最终得到整个句子的语义表示;然后根据上述的语义量化,操作员关注度T1,心情T2,肢体行为T3,疲劳度T4,采用D-S证据决策,操作员的状态评估为Q:
Q = λ 1 * T 1 + λ 2 * T 2 + λ 3 * T 3 + λ 4 * T 4 1 - λ 1 * T 1 + λ 2 * T 2 + λ 3 * T 3 + λ 4 * T 4
λi为各种状态的权值系数,其中λ1*T12*T23*T34*T<1;
最后给出操作员的状态评估,估计操作员当前是否适合该任务,以及对控制站任务可做出相应的调整:当Q大于操作员设定的阈值时Q>Q1时,操作员不适合该任务,控制站自动处理该任务,并且提醒操作员该休息下;当Q0<Q<Q1时,操作员只适合部分该任务,控制站自动处理该任务,然后提示操作员确认该任务;当Q<Q0时,操作员适合该任务,控制站把该任务全权交给操作员。
CN201610838299.7A 2016-09-21 2016-09-21 基于多传感器测量与神经网络学习的无人机操作员状态评估方法 Active CN106447184B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610838299.7A CN106447184B (zh) 2016-09-21 2016-09-21 基于多传感器测量与神经网络学习的无人机操作员状态评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610838299.7A CN106447184B (zh) 2016-09-21 2016-09-21 基于多传感器测量与神经网络学习的无人机操作员状态评估方法

Publications (2)

Publication Number Publication Date
CN106447184A true CN106447184A (zh) 2017-02-22
CN106447184B CN106447184B (zh) 2019-04-05

Family

ID=58167083

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610838299.7A Active CN106447184B (zh) 2016-09-21 2016-09-21 基于多传感器测量与神经网络学习的无人机操作员状态评估方法

Country Status (1)

Country Link
CN (1) CN106447184B (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107944415A (zh) * 2017-12-06 2018-04-20 董伟 一种基于深度学习算法的人眼注意力检测方法
CN108269309A (zh) * 2018-02-11 2018-07-10 长沙市凯旭达测控技术有限公司 一种跳伞操纵动作量化评估方法及系统
CN108805088A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态情绪识别系统的生理信号分析子系统
CN109086287A (zh) * 2017-06-14 2018-12-25 通用汽车环球科技运作有限责任公司 用于选择自主车辆中的音景选择的系统和方法
CN109191790A (zh) * 2018-10-19 2019-01-11 郑州铁路职业技术学院 一种铁道司机驾驶状态实时检测及预警系统
CN109240510A (zh) * 2018-10-30 2019-01-18 东北大学 基于视线追踪的增强现实人机交互设备及控制方法
CN109583781A (zh) * 2018-12-06 2019-04-05 广东电网有限责任公司肇庆供电局 评估方法、无人机管理方法及电子设备
CN109711343A (zh) * 2018-12-27 2019-05-03 北京思图场景数据科技服务有限公司 基于表情、姿态识别和眼神追踪的行为结构化方法
CN109840672A (zh) * 2017-11-29 2019-06-04 发那科株式会社 作业者管理装置
CN109857175A (zh) * 2019-01-23 2019-06-07 南京邮电大学 一种非侵入式人体热舒适的ai感知方法
CN110348335A (zh) * 2019-06-25 2019-10-18 平安科技(深圳)有限公司 行为识别的方法、装置、终端设备及存储介质
CN110363084A (zh) * 2019-06-10 2019-10-22 北京大米科技有限公司 一种上课状态检测方法、装置、存储介质及电子
CN110832408A (zh) * 2017-07-03 2020-02-21 深圳市大疆创新科技有限公司 通过飞行器的基于神经网络的图像目标跟踪
CN111240350A (zh) * 2020-02-13 2020-06-05 西安爱生无人机技术有限公司 一种无人机飞行员动态行为评估系统
CN111407245A (zh) * 2020-03-19 2020-07-14 南京昊眼晶睛智能科技有限公司 一种基于摄像头的非接触式心率、体温测量方法
CN111487947A (zh) * 2020-03-31 2020-08-04 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 安全性分析方法、装置、计算机设备和存储介质
CN111507555A (zh) * 2019-11-05 2020-08-07 浙江大华技术股份有限公司 人体状态检测方法、课堂教学质量的评价方法及相关装置
CN111544015A (zh) * 2020-05-15 2020-08-18 北京师范大学 基于认知力的操控工效分析方法、设备及系统
CN112101285A (zh) * 2020-09-25 2020-12-18 西安交通大学 排爆机器人遥操作者典型精神状态的诱发范式设计及脑电辨识方法
CN112137627A (zh) * 2020-09-10 2020-12-29 北京津发科技股份有限公司 人因测评和训练的自适应方法及系统
CN114154592A (zh) * 2021-12-17 2022-03-08 江西洪都航空工业集团有限责任公司 一种融合生理数据与飞参数据的飞行训练质效评估方法
CN114469089A (zh) * 2021-12-30 2022-05-13 北京津发科技股份有限公司 基于虚拟现实技术的多模态数据抗压能力测评方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834828A (zh) * 2015-05-26 2015-08-12 重庆大学 基于ds证据理论-神经网络算法老人生理异常诊断方法
CN205353672U (zh) * 2016-01-07 2016-06-29 谭圆圆 一种飞行监控装置、无人机和地面控制站

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834828A (zh) * 2015-05-26 2015-08-12 重庆大学 基于ds证据理论-神经网络算法老人生理异常诊断方法
CN205353672U (zh) * 2016-01-07 2016-06-29 谭圆圆 一种飞行监控装置、无人机和地面控制站

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109086287A (zh) * 2017-06-14 2018-12-25 通用汽车环球科技运作有限责任公司 用于选择自主车辆中的音景选择的系统和方法
CN110832408A (zh) * 2017-07-03 2020-02-21 深圳市大疆创新科技有限公司 通过飞行器的基于神经网络的图像目标跟踪
CN110832408B (zh) * 2017-07-03 2022-03-25 深圳市大疆创新科技有限公司 通过飞行器的基于神经网络的图像目标跟踪
US11216757B2 (en) 2017-11-29 2022-01-04 Fanuc Corporation Worker management device
CN109840672A (zh) * 2017-11-29 2019-06-04 发那科株式会社 作业者管理装置
CN107944415A (zh) * 2017-12-06 2018-04-20 董伟 一种基于深度学习算法的人眼注意力检测方法
CN108269309A (zh) * 2018-02-11 2018-07-10 长沙市凯旭达测控技术有限公司 一种跳伞操纵动作量化评估方法及系统
CN108269309B (zh) * 2018-02-11 2021-04-06 长沙市凯旭达测控技术有限公司 一种跳伞操纵动作量化评估方法及系统
CN108805088A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态情绪识别系统的生理信号分析子系统
CN108805088B (zh) * 2018-06-14 2021-05-28 南京云思创智信息科技有限公司 基于多模态情绪识别系统的生理信号分析子系统
CN109191790A (zh) * 2018-10-19 2019-01-11 郑州铁路职业技术学院 一种铁道司机驾驶状态实时检测及预警系统
CN109240510B (zh) * 2018-10-30 2023-12-26 东北大学 基于视线追踪的增强现实人机交互设备及控制方法
CN109240510A (zh) * 2018-10-30 2019-01-18 东北大学 基于视线追踪的增强现实人机交互设备及控制方法
CN109583781A (zh) * 2018-12-06 2019-04-05 广东电网有限责任公司肇庆供电局 评估方法、无人机管理方法及电子设备
CN109711343A (zh) * 2018-12-27 2019-05-03 北京思图场景数据科技服务有限公司 基于表情、姿态识别和眼神追踪的行为结构化方法
CN109857175B (zh) * 2019-01-23 2020-11-03 南京邮电大学 一种非侵入式人体热舒适的ai感知方法
CN109857175A (zh) * 2019-01-23 2019-06-07 南京邮电大学 一种非侵入式人体热舒适的ai感知方法
CN110363084A (zh) * 2019-06-10 2019-10-22 北京大米科技有限公司 一种上课状态检测方法、装置、存储介质及电子
CN110348335A (zh) * 2019-06-25 2019-10-18 平安科技(深圳)有限公司 行为识别的方法、装置、终端设备及存储介质
CN111507555A (zh) * 2019-11-05 2020-08-07 浙江大华技术股份有限公司 人体状态检测方法、课堂教学质量的评价方法及相关装置
CN111507555B (zh) * 2019-11-05 2023-11-14 浙江大华技术股份有限公司 人体状态检测方法、课堂教学质量的评价方法及相关装置
CN111240350A (zh) * 2020-02-13 2020-06-05 西安爱生无人机技术有限公司 一种无人机飞行员动态行为评估系统
CN111407245A (zh) * 2020-03-19 2020-07-14 南京昊眼晶睛智能科技有限公司 一种基于摄像头的非接触式心率、体温测量方法
CN111407245B (zh) * 2020-03-19 2021-11-02 南京昊眼晶睛智能科技有限公司 一种基于摄像头的非接触式心率、体温测量方法
CN111487947A (zh) * 2020-03-31 2020-08-04 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 安全性分析方法、装置、计算机设备和存储介质
CN111544015A (zh) * 2020-05-15 2020-08-18 北京师范大学 基于认知力的操控工效分析方法、设备及系统
CN112137627B (zh) * 2020-09-10 2021-08-03 北京津发科技股份有限公司 智能人因测评和训练方法及系统
CN112137627A (zh) * 2020-09-10 2020-12-29 北京津发科技股份有限公司 人因测评和训练的自适应方法及系统
CN112101285A (zh) * 2020-09-25 2020-12-18 西安交通大学 排爆机器人遥操作者典型精神状态的诱发范式设计及脑电辨识方法
CN114154592A (zh) * 2021-12-17 2022-03-08 江西洪都航空工业集团有限责任公司 一种融合生理数据与飞参数据的飞行训练质效评估方法
CN114469089A (zh) * 2021-12-30 2022-05-13 北京津发科技股份有限公司 基于虚拟现实技术的多模态数据抗压能力测评方法及系统

Also Published As

Publication number Publication date
CN106447184B (zh) 2019-04-05

Similar Documents

Publication Publication Date Title
CN106447184A (zh) 基于多传感器测量与神经网络学习的无人机操作员状态评估方法
Hou et al. Intelligent adaptive systems: An interaction-centered design perspective
Sternberg et al. A capsule history of theory and research on styles
Chang et al. Cognitive modeling and dynamic probabilistic simulation of operating crew response to complex system accidents. Part 2: IDAC performance influencing factors model
CN111240350A (zh) 一种无人机飞行员动态行为评估系统
CN102715889B (zh) 一种脑力负荷检测方法
CN106611169A (zh) 一种基于深度学习的危险驾驶行为实时检测方法
CN108801387B (zh) 一种基于学习模型的飞机油箱剩余油量测量系统和方法
CN106343977B (zh) 基于多传感器融合的无人机操作员状态监视系统
Yang et al. An optimized BP neural network model for teaching management evaluation
CN110516791A (zh) 一种基于多重注意力的视觉问答方法及系统
CN105956798A (zh) 一种基于稀疏随机森林的配网设备运行状态评估方法
CN114675742A (zh) 一种面向高度自动驾驶的人机决策逻辑在线校验方法
Doane et al. ADAPT: A predictive cognitive model of user visual attention and action planning
Wang Exploration of data mining algorithms of an online learning behaviour log based on cloud computing
Walsh et al. A quantification of robustness
Chen et al. Human reliability assessment and risk prediction for deep submergence operating system of manned submersible under the influence of cognitive performance
Yan et al. Using artificial neural network for predicting and evaluating situation awareness of operator
Chen et al. Evaluating aircraft cockpit emotion through a neural network approach
Petukhov et al. Assessment of vocational aptitude of man-machine systems operators
Chen et al. A situation awareness assessment method based on fuzzy cognitive maps
Azımjonov et al. Evaluation of distance learning students performance using fuzzy logic
Ritter et al. Validating changes to a cognitive architecture to more accurately model the effects of two example behavior moderators
CN110908919A (zh) 一种基于人工智能的应答测试系统及其应用
Amalia Expert System to Diagnose the Level of Learning Stress in High School Students Using the Forward Chaining Method

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant