CN110705500B - 基于深度学习的人员工作图像的注意力检测方法及系统 - Google Patents

基于深度学习的人员工作图像的注意力检测方法及系统 Download PDF

Info

Publication number
CN110705500B
CN110705500B CN201910967046.3A CN201910967046A CN110705500B CN 110705500 B CN110705500 B CN 110705500B CN 201910967046 A CN201910967046 A CN 201910967046A CN 110705500 B CN110705500 B CN 110705500B
Authority
CN
China
Prior art keywords
eye
eyes
rectangular frame
face
head posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910967046.3A
Other languages
English (en)
Other versions
CN110705500A (zh
Inventor
张发恩
林国森
宋剑飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Chuangxin Qizhi Technology Group Co ltd
Original Assignee
Qingdao Chuangxin Qizhi Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Chuangxin Qizhi Technology Group Co ltd filed Critical Qingdao Chuangxin Qizhi Technology Group Co ltd
Priority to CN201910967046.3A priority Critical patent/CN110705500B/zh
Publication of CN110705500A publication Critical patent/CN110705500A/zh
Application granted granted Critical
Publication of CN110705500B publication Critical patent/CN110705500B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明基于深度学习的人员工作图像的注意力检测方法,包括下列步骤:获取工作人员的工作图像;1)利用基于深度学习的人脸检测模型,获取到头部姿态角度即人脸头部朝向欧拉角;2)利用获取到的人脸关键点中的人眼关键点,获取双眼所在矩形框,获取到眼睛睁闭状态;3)利用所述人脸所在矩形框和所述双眼所在矩形框,获取到双眼注视方向;基于以上获取到的所述头部姿态角度、所述双眼注视方向,所述眼睛睁闭状态,对工作人员的注意力进行监督记录与被触发提醒。本发明还披露了其系统。本发明具有能够实时对人员的工作状态进行监控,可靠性高的优点,特别适用于X光机安检员工作状态监控、监控室保安工作状态监控。

Description

基于深度学习的人员工作图像的注意力检测方法及系统
技术领域
本发明涉及工作人员的注意力监控的技术领域,具体涉及到一种基于深度学习的工作人员工作图像的注意力检测方法及系统的技术。
背景技术
工作人员如X光机安检员以及监控室保安,他们的工作状态直接影响到工作结果,特别是在工作时的注意力。现在由于手机的普及,常常在工作时玩手机,虽然有的办公室安装有监控摄像头,但监控摄像头获取到的图像不能传达工作人员注意力,因此对工作人员的工作状态监控也成为了一种管理工具。现有的监控摄像头,其获取到的图像并没有进行分析,往往是通过人为分析,再进行提醒,常常难以满足需要,而且让管理人员疲惫,也会造成人际关系的不协调,难以达到管理效果。
发明内容
为了克服现有技术的不足,本发明的目的在于提供一种基于深度学习的人员工作图像的注意力检测方法,能够实时对人员的工作状态进行监控,可靠性高。
为达上述目的,本发明采用以下技术方案:
提供一种基于深度学习的人员工作图像的注意力检测方法,人员工作图像是指工作人员的工作图像,包括下列步骤:获取工作人员的工作图像;
1)利用基于深度学习的人脸检测模型,获取人脸所在矩形框和人脸关键点,通过人脸所在矩形框进行头部姿态检测,进而获取到头部姿态角度即人脸头部朝向欧拉角;
2)利用获取到的人脸关键点中的人眼关键点,进行眼睛检测,进而获取双眼所在矩形框,通过双眼所在矩形框,进行眼睛状态识别,获取到眼睛睁闭状态;
3)利用所述人脸所在矩形框和所述双眼所在矩形框,进行眼动追踪,进而获取到双眼注视方向;
基于以上获取到的所述头部姿态角度、所述双眼注视方向,所述眼睛睁闭状态,对工作人员的注意力进行监督记录;人眼处于闭眼状态、所述头部姿态角度超过规定阈值,以及所述双眼注视方向超过规定范围,上述三种情形的任意一种或任意组合都将被触发提醒。
所述人脸检测模型主要由三大子网络组成,即人脸检测网络由P-Net、R-Net、O-Net组成。
双眼注视方向以及眼睛睁闭状态通过眼动模型获取;所述人脸检测模型与所述眼动模型中的卷积操作使用深度可分离卷积进行。
对于人眼图片的获取是基于人脸关键点中的双眼关键点计算所得,设监测出的左眼中心点坐标为(X0,Y0),其中X0表示左眼在整张图片中x轴方向的坐标值,Y0表示左眼关键点在图片中y轴方向的坐标值,相应的右眼坐标为(X1,Y1),则:
表示左眼所在矩形框的左上角坐标位置为(XL,YL),
Figure BDA0002230831620000021
Figure BDA0002230831620000022
矩形框宽度为
Figure BDA0002230831620000023
其中,WL,HL分别表示左眼矩形框的宽和高的大小;
表示右眼所在矩形框的左上角坐标位置为(XR,YR),
Figure BDA0002230831620000024
Figure BDA0002230831620000025
矩形框宽度为
Figure BDA0002230831620000026
其中,WR,HR分别表示右眼矩形框的宽和高的大小。
所述提醒包括有报警蜂鸣、语音提示与文字提示。
本发明还提供一种基于深度学习的人员工作图像的注意力检测方法的系统,包括:
基于深度学习的人脸检测模型,用于获取目标人物的人脸所在矩形框和人脸关键点;
基于深度学习的眼动模型,用于获取双眼注视方向以及眼睛睁闭状态;
基于深度学习的头部姿态估计模型,用于得到头部姿态角度即人脸头部朝向欧拉角;
综合处理单元,对以上模型获取到的所述头部姿态角度,双眼注视方向,眼睛睁闭状态,进行综合处理后,对所述目标人物的注意力进行监督记录。
本发明具有以下有益效果:
本发明基于深度学习,通过对目标人员头部姿态、眼睛睁闭状态、眼睛注视方向的综合分析,自动对工作人员的工作完成质量进行监督记录,从而实时对人员的工作状态进行监控,可靠性高。
本发明基于实时对人员的工作状态进行监控,可靠性高,可用于小型设备,成本更低,部署更便捷,故特别适用于X光机安检员工作状态监控、监控室保安工作状态监控。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍。显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明原理框架图;
图2是本发明人眼分类模型的原理方框图;
图3代表标准卷积;
图4代表深度卷积;
图5代表逐点卷积;
图6双眼关键点坐标示意图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本专利的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若出现术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
本发明基于深度学习的人员工作图像的注意力检测方法,包括下列步骤:获取工作人员的工作图像;
1)利用基于深度学习的人脸检测模型,获取人脸所在矩形框和人脸关键点,通过人脸所在矩形框进行头部姿态检测,进而获取到头部姿态角度即人脸头部朝向欧拉角;
2)利用获取到的人脸关键点中的人眼关键点,进行眼睛检测,进而获取双眼所在矩形框,通过双眼所在矩形框,进行眼睛状态识别,获取到眼睛睁闭状态;基于人脸检测得到的两个眼睛的点位,计算出双眼的倾斜角度,然后基于该角度将人脸照片旋转矫正。分别以两个眼睛的关键点的位置为中心,两点间的距离的一半为边长,取出方形的双眼图片;训练一个cnn的人眼图片分类网络。对上一步获取到的方形人眼,首先转为灰度图,然后经过cnn人眼图片分类网络,判断出人眼的睁闭状态。
3)利用所述人脸所在矩形框和所述双眼所在矩形框,进行眼动追踪,进而获取到双眼注视方向;
基于以上获取到的所述头部姿态角度、所述双眼注视方向,所述眼睛睁闭状态,对工作人员的注意力进行监督记录;人眼处于闭眼状态、所述头部姿态角度超过规定阈值,以及所述双眼注视方向超过规定范围,上述三种情形的任意一种或任意组合都将被触发提醒。该提醒包括有报警蜂鸣、语音提示与文字提示。
在本发明中,人脸检测模型MTCNN,MTCNN是Multi-task Cascaded ConvolutionalNetworks的缩写,主要由三大子网络组成,即人脸检测网络由P-Net、R-Net、O-Net组成。P-Net是Proposal Network的缩写,R-Net是Refine Network的缩写,O-Net是Output Network的缩写。
第一阶段:
11)首先图像金字塔将原始图像放缩到不同尺度,然后将不同尺度的图像输入给P-Net网络,目的是为了可以检测到不同大小的人脸,从而实现多尺度目标检测。图像金字塔是图像多尺度表达的一种,是一种以多分辨率来解释图像的有效但概念简单的结构。一幅图像的金字塔是一系列以金字塔形状排列的分辨率逐步降低,且来源于同一张原始图的图像集合。其通过梯次向下采样获得,直到达到某个终止条件才停止采样。将一层一层的图像比喻成金字塔,层级越高,则图像越小,分辨率越低。
12)P-Net输出最后一层的卷积层的每个小方格预测到的人脸概率以及预测到的边框坐标偏移量。注意:此时是所有小方格的人脸概率,可能存在为0,也可能存在为1。
13)将12)得到数据作为输入,首先提取出人脸概率大于设定阈值的小方格,作一个初步过滤。因为有不同尺度下的小方格,而每个小方格在原始图像都代表一个区域,所以找到不同尺度下的小方格在原始图像中的区域;这样会得到很多的人脸区域。
14)把初步得到可能是人脸的图片进行NMS非极大值抑制,即NMS(Non-maximumsuppression的缩写)。NMS就是待测图片中人脸的区域与实际上人脸框的面积重合比例。所述NMS(non maximum suppression),中文名非极大值抑制抑制,就是不是极大值的元素,搜索局部的极大值。例如在对象检测中,滑动窗口经提取特征,经分类器分类识别后,每个窗口都会得到一个分类及分数。但是滑动窗口会导致很多窗口与其他窗口存在包含或者大部分交叉的情况。这时就需要用到NMS来选取那些邻域里分数最高(是某类对象的概率最大),并且抑制那些分数低的窗口。
15)NMS得到的图片再经行边框回归,边框回归是待测图片的人脸框与实际人脸框的位置相比较,对待测图片人脸框位置作调整,使它跟接近真人脸框的位置。
以上为P-Net网络检测的基本流程,P-Net最后层网络是卷积层,P-Net输出结果是经过筛选和位置调整的人脸图片,P-Net网络输出还是图片,注意其文档保存图片路径,人脸得分,边框坐标。
第二阶段:
21)把P-Net网络输出的图片作为R-Net网络的输入,R-Net网络输出每张图片的人脸得分和边框坐标偏移量,P-Net输出的是图片某个区域的得分,R-Net输出的是整张图片的得分;
22)排除得分小于阈值的图片;
23)NMS非极大值抑制,其目的是为了消除多余的框,找到最佳的物体检测的位置;
24)边框回归;
以上为R-Net网络的流程。R-Net是对人脸框的进一步过滤和调整边框位置。
第三阶段:
O-Net与R-Net基本流程大致一样,只是增加了5个人脸关键点的预测及位置调整。人脸关键点包括左眼,右眼,鼻尖,左嘴角,右嘴角。
由上述可见,本发明首先利用基于深度学习的多任务人脸检测模型,获取人脸所在矩形框和人脸的关键点。利用获取到的人脸关键点中的人眼关键点,获取双眼所在矩形框。利用深度学习的人眼识别模型,对双眼睁闭状态进行识别。利用双眼所在矩形框和人脸所在矩形框,经过基于深度学习的眼动模型,获取双眼注视方向。基于获取到的人脸矩形框,经过基于深度学习的头部姿态估计模型,得到人脸头部朝向欧拉角。
基于以上模型获取到的头部姿态角度,眼睛注视方向,眼睛睁闭状态,综合处理后,对目标人物的注意力进行监督记录。
本发明基于所述基于深度学习的人员工作图像的注意力检测方法的系统,本发明所述系统,是指基于深度学习的工作人员工作图像的注意力检测方法的处理单元组成,系统可以是各处理单元做成的程序或者是各处理单元结合硬件如微处理器、摄像头、存储器等,系统包括:
基于深度学习的人脸检测模型,用于获取目标人物的人脸所在矩形框和人脸关键点;
基于深度学习的眼动模型,用于获取双眼注视方向以及眼睛睁闭状态;眼动模型是指在人眼向前凝视的情况下,双眼的关键点位即眼球与鼻子嘴角的关键点的相对位置是匀称的。当双眼朝向其他方向注视时,双眼的关键点位将会发生偏移;通过双眼的关键点相对鼻子嘴角关键点的偏移程度,可估算出眼睛的方向即双眼注视方向;获取眼睛睁闭状态的过程是通过人眼分类模型对人眼照片进行分类后,可获得当前帧的人眼睁闭状态。考虑到人会存在眨眼的情况,因此只有到持续一段时间(设定为500ms)检测到人眼持续处于闭眼状态时,则判定当前人处于闭眼状态;
对于人眼图片的获取是基于人脸关键点中的双眼关键点计算所得。设监测出的左眼中心点坐标为(X0,Y0),其中X0表示左眼在整张图片中x轴方向的坐标值,Y0表示左眼关键点在图片中y轴方向的坐标值。相应的右眼坐标为(X1,Y1),如图6所示,图6中,人脸所在矩形框为大矩形框,大矩形框内有两个小矩形框,即左眼所在矩形框与右眼所在矩形框,则:
表示左眼所在矩形框的左上角坐标位置为(XL,YL),
Figure BDA0002230831620000061
Figure BDA0002230831620000062
矩形框宽度为
Figure BDA0002230831620000063
其中,WL,HL分别表示左眼矩形框的宽和高的大小。
表示右眼所在矩形框的左上角坐标位置为(XR,YR),
Figure BDA0002230831620000064
Figure BDA0002230831620000065
矩形框宽度为
Figure BDA0002230831620000066
其中,WR,HR分别表示右眼矩形框的宽和高的大小。
其中判断人眼睁闭状态的人眼分类模型为自定义卷积神经网络,输入尺寸为24×24,经过卷积层,池化层,卷积层,池化层,然后经过两个全连接层,最后输出为0和1两种状态,如图2所示。
本发明基于深度学习的头部姿态估计模型(Hopenet),用于得到头部姿态角度即人脸头部朝向欧拉角,头部姿态指的是人物头部的朝向,通俗的理解是低抬头、转头等动作。头部姿态检测通常使用欧拉角度(yaw、pitch、roll)来表示各方向的偏转程度。通过卷积神经网络对人脸区域进行提取特征并对角度进行回归,以end-to-end的方式完成头部姿态的预测。该模块任务需要同时预测人脸在三个轴上的角度,故将网络设计为多输出的结构。网络的输出层将角度每三个一组进行分箱,从而将回归问题转化为分类问题。例如步骤1)中欧拉角(Yaw,Pitch,Roll)按角度区间进行分类,比如3度,那么Yaw:-90-+90,可以分成180/3=60个类别,Pitch和Roll同Yaw角类似。将激活函数的输出看成角度的分布函数,计算角度的期望。模型的损失函数由两个部分构成:softmax期望与真实值的均方误差、softmax分组与真实分组的交叉熵。该损失函数兼顾回归和分类问题的设计有效的加快了模型的收敛;得到头部姿态角度即人脸头部朝向欧拉角的方法是通过人脸检测模型获取到人脸的矩形框后,将人脸图像截取出来,送入到头部姿态估计模型中。模型输出结果直接为欧拉角三个数字;softmax函数它能将一个含任意实数的K维向量z“压缩”到另一个K维实向量σ(z)中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1。假设我们有一个数组,V,Vi表示V中的第i个元素,那么这个元素的softmax值就是Si=eVijeVj,也就是说,是该元素的指数,与所有元素指数和的比值。
综合处理单元,对以上模型获取到的所述头部姿态角度,双眼注视方向,眼睛睁闭状态,进行综合处理后,对所述目标人物的注意力进行监督记录。前述综合处理是指除对人眼睁闭状态的识别外,当头部的角度超过一定阈值,以及人眼凝视方向超过一定范围时,都将触发提醒。具体提醒方式有报警蜂鸣,语音提示,文字提示等。
在上述各网络结构中存在大量卷积操作。为进一步降低计算量,提高速度,现将各卷积操作使用深度可分离卷积(Depthwise separable convolution)进行替换。
图3代表标准卷积。假设输入特征图尺寸为DF×DF×M(假定输入特征图的宽和高大小一致,为DF,输入通道数为M),标准卷积核尺寸为DK×DK×M(假定标准卷积核的宽和高大小一致,为DK,通道数为M),共N个卷积核。输出特征图尺寸为DF×DF×N(假定输出特征图的宽和高大小一致,为DF,输出通道数为N),则标准卷积层的参数量为:
Figure BDA0002230831620000081
图4代表深度卷积,图5代表逐点卷积,深度卷积和逐点卷积两者合起来便是深度可分离卷积。深度卷积负责滤波,尺寸为DK×DK×1,共M个,作用在输入特征图的每个通道上,从而深度卷积参数量为
Figure BDA0002230831620000082
逐点卷积负责转换通道,尺寸为1×1×M,共N个,作用在深度卷积的输出特征映射上,从而逐点卷积参数量为
Figure BDA0002230831620000083
这样深度可分离卷积参数量总量为
Figure BDA0002230831620000084
是标准卷积的
Figure BDA0002230831620000085
倍。
从以上推导可见,将传统卷积替换为深度可分离卷积后,参数量会进一步下降,相应的模型速度也会提高。同时,通过调整卷积核数量N以及卷积核尺寸Dk的大小,可根据业务需求在模型精度和速度中取得一个平衡。
需要声明的是,上述具体实施方式仅为本发明的较佳实施例及所运用技术原理,在本发明所公开的技术范围内,任何熟悉本技术领域的技术人员所容易想到的变化或替换,都应涵盖在本发明的保护范围内。

Claims (3)

1.基于深度学习的工作人员工作图像的注意力检测方法,其特征在于包括下列步骤:获取工作人员的工作图像;
1)利用基于深度学习的人脸检测模型,获取人脸所在矩形框和人脸关键点,通过人脸所在矩形框进行头部姿态检测,进而获取到头部姿态角度即人脸头部朝向欧拉角,所述头部姿态指的是人物头部的朝向,所述头部姿态角度通过基于深度学习的头部姿态估计模型得到,所述头部姿态角度得到的方法是通过人脸检测模型获取到人脸的矩形框后,将人脸图像截取出来,送入到头部姿态估计模型中,头部姿态估计模型输出结果直接为欧拉角度;
2)利用获取到的人脸关键点中的人眼关键点,进行眼睛检测,进而获取双眼所在矩形框,通过双眼所在矩形框,进行眼睛状态识别,获取到眼睛睁闭状态;
3)利用所述人脸所在矩形框和所述双眼所在矩形框,进行眼动追踪,进而获取到双眼注视方向;
步骤2)与步骤3)中目标人物的人脸所在矩形框和人脸关键点通过基于深度学习的人脸检测模型获取,双眼注视方向以及眼睛睁闭状态通过基于深度学习的眼动模型获取;
基于以上获取到的所述头部姿态角度、所述双眼注视方向,所述眼睛睁闭状态,对工作人员的注意力进行监督记录;人眼处于闭眼状态、所述头部姿态角度超过规定阈值,以及所述双眼注视方向超过规定范围,上述三种情形的任意一种或任意组合都将被触发提醒;
步骤1)中头部姿态检测中使用欧拉角度来表示各方向的偏转程度,通过卷积神经网络对人脸区域进行提取特征并对角度进行回归,以end-to-end的方式完成头部姿态的预测,所述头部姿态估计模型同时预测人脸在三个轴上的角度,所述卷积神经网络的输出层将角度每三个一组进行分箱,从而将回归问题转化为分类问题,头部姿态估计模型中将激活函数的输出看成角度的分布函数,计算角度的期望,头部姿态估计模型的损失函数由两个部分构成:softmax期望与真实值的均方误差、softmax分组与真实分组的交叉熵,该损失函数兼顾回归和分类问题的设计便于模型的收敛;其中softmax函数将一个含任意实数的K维向量z“压缩”到另一个K维实向量σ(z)中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1;
所述人脸检测模型主要由三大子网络组成,即人脸检测网络由P-Net、R-Net、O-Net组成,P-Net是Proposal Network的缩写,R-Net是Refine Network的缩写,O-Net是OutputNetwork的缩写,其中P-Net最后层网络是卷积层,P-Net输出结果是经过筛选和位置调整的人脸图片;R-Net是对人脸框的进一步过滤和调整边框位置;O-Net与R-Net相比较,增加人脸关键点的预测及位置调整;
所述人脸检测模型与所述眼动模型中设计卷积操作,卷积操作是将传统卷积即标准卷积替换为深度可分离卷积,深度可分离卷积是指深度卷积和逐点卷积两者合起来,所述深度卷积负责滤波,作用在输入特征图的每个通道上,所述逐点卷积负责转换通道,作用在深度卷积的输出特征映射上,
对于人眼图片的获取是基于人脸关键点中的双眼关键点计算所得,设监测出的左眼中心点坐标为(X0,Y0),其中X0表示左眼在整张图片中x轴方向的坐标值,Y0表示左眼关键点在图片中y轴方向的坐标值,相应的右眼坐标为(X1,Y1),则:
表示左眼所在矩形框的左上角坐标位置为(XL,YL),
Figure FDA0003232668200000021
Figure FDA0003232668200000022
矩形框宽度为
Figure FDA0003232668200000023
其中,WL,HL分别表示左眼矩形框的宽和高的大小,
表示右眼所在矩形框的左上角坐标位置为(XR,YR),
Figure FDA0003232668200000024
Figure FDA0003232668200000025
矩形框宽度为
Figure FDA0003232668200000026
其中,WR,HR分别表示右眼矩形框的宽和高的大小。
2.根据权利要求1所述基于深度学习的工作人员工作图像的注意力检测方法,其特征在于:所述提醒包括有报警蜂鸣、语音提示与文字提示。
3.一种基于权利要求1所述基于深度学习的工作人员工作图像的注意力检测方法的系统,其特征在于所述系统包括:
基于深度学习的人脸检测模型,用于获取目标人物的人脸所在矩形框和人脸关键点;
基于深度学习的眼动模型,用于获取双眼注视方向以及眼睛睁闭状态;
基于深度学习的头部姿态估计模型,用于得到头部姿态角度即人脸头部朝向欧拉角;
综合处理单元,对以上模型获取到的所述头部姿态角度,双眼注视方向,眼睛睁闭状态,进行综合处理后,对所述目标人物的注意力进行监督记录。
CN201910967046.3A 2019-10-12 2019-10-12 基于深度学习的人员工作图像的注意力检测方法及系统 Active CN110705500B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910967046.3A CN110705500B (zh) 2019-10-12 2019-10-12 基于深度学习的人员工作图像的注意力检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910967046.3A CN110705500B (zh) 2019-10-12 2019-10-12 基于深度学习的人员工作图像的注意力检测方法及系统

Publications (2)

Publication Number Publication Date
CN110705500A CN110705500A (zh) 2020-01-17
CN110705500B true CN110705500B (zh) 2022-02-01

Family

ID=69198545

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910967046.3A Active CN110705500B (zh) 2019-10-12 2019-10-12 基于深度学习的人员工作图像的注意力检测方法及系统

Country Status (1)

Country Link
CN (1) CN110705500B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111414838A (zh) * 2020-03-16 2020-07-14 北京文香信息技术有限公司 一种注意力检测方法、装置、系统、终端及存储介质
CN111680546A (zh) * 2020-04-26 2020-09-18 北京三快在线科技有限公司 注意力检测方法、装置、电子设备及存储介质
CN112016429A (zh) * 2020-08-21 2020-12-01 高新兴科技集团股份有限公司 基于火车驾驶室场景下疲劳驾驶检测方法
CN112183200B (zh) * 2020-08-25 2023-10-17 中电海康集团有限公司 一种基于视频图像的眼动追踪方法和系统
CN112016518B (zh) * 2020-09-14 2023-07-04 郑州航空工业管理学院 基于无人机和人工智能的人群分布形式检测方法
CN113052064B (zh) * 2021-03-23 2024-04-02 北京思图场景数据科技服务有限公司 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法
CN113792577A (zh) * 2021-07-29 2021-12-14 何泽仪 一种网课学生注意力状态检测方法及检测系统、存储介质
CN115409663A (zh) * 2022-09-02 2022-11-29 吉林农业科技学院 一种用于企业员工素质提升的培训系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011148366A1 (en) * 2010-05-26 2011-12-01 Ramot At Tel-Aviv University Ltd. Method and system for correcting gaze offset
JP6488922B2 (ja) * 2015-07-06 2019-03-27 株式会社デンソー 運転者異常検出装置
CN105354987B (zh) * 2015-11-26 2018-06-08 南京工程学院 车载型疲劳驾驶检测与身份认证装置及其检测方法
CN108171152A (zh) * 2017-12-26 2018-06-15 深圳大学 深度学习人眼视线估计方法、设备、系统及可读存储介质

Also Published As

Publication number Publication date
CN110705500A (zh) 2020-01-17

Similar Documents

Publication Publication Date Title
CN110705500B (zh) 基于深度学习的人员工作图像的注意力检测方法及系统
CN110210323B (zh) 一种基于机器视觉的溺水行为在线识别方法
CN112200043B (zh) 面向室外施工现场的危险源智能识别系统及方法
CN111507592B (zh) 一种面向服刑人员的主动改造行为的评估方法
EP2012255B1 (en) Image processing apparatus and image processing method
CN107133612A (zh) 基于图像处理与语音识别技术的智能病房及其运行方法
CN104361332B (zh) 一种用于疲劳驾驶检测的人脸眼睛区域定位方法
Yimyam et al. Face detection criminals through CCTV cameras
CN109299690B (zh) 一种可提高视频实时人脸识别精度的方法
CN113392765B (zh) 一种基于机器视觉的摔倒检测方法和系统
CN114005167A (zh) 基于人体骨骼关键点的远距离视线估计方法和装置
Robin et al. Improvement of face and eye detection performance by using multi-task cascaded convolutional networks
CN109101943A (zh) 一种用于检测老人跌倒的机器视觉方法
Hatibaruah et al. A static hand gesture based sign language recognition system using convolutional neural networks
CN112464768A (zh) 一种基于自关注多特征融合的疲劳检测方法
CN114821753A (zh) 一种基于视觉图像信息的眼动交互系统
CN113221812A (zh) 人脸关键点检测模型的训练方法和人脸关键点检测方法
CN112149517A (zh) 一种人脸考勤方法、系统、计算机设备及存储介质
CN115965950A (zh) 一种基于多特征融合状态识别网络的驾驶员疲劳检测方法
RU2768797C1 (ru) Способ и система для определения синтетически измененных изображений лиц на видео
CN115909400A (zh) 一种用于低分辨率监控场景中使用手机行为的识别方法
CN107798282B (zh) 一种活体人脸的检测方法和装置
CN115170059A (zh) 户外工地智能安全监测系统及工作方法
Mohana et al. Human action Recognition using STIP Techniques
Fernandes et al. IoT based smart security for the blind

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Applicant after: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

Address before: 518054 room 04, 02 / F, podium building 4, Shenzhen software industry base, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Applicant before: SHENZHEN AINNOVATION TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: 266217 Room 501, block a, Haier International Plaza, No. 939, Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong

Applicant after: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

Address before: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Applicant before: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant