CN110532925B - 基于时空图卷积网络的驾驶员疲劳检测方法 - Google Patents

基于时空图卷积网络的驾驶员疲劳检测方法 Download PDF

Info

Publication number
CN110532925B
CN110532925B CN201910779891.8A CN201910779891A CN110532925B CN 110532925 B CN110532925 B CN 110532925B CN 201910779891 A CN201910779891 A CN 201910779891A CN 110532925 B CN110532925 B CN 110532925B
Authority
CN
China
Prior art keywords
space
driver
layer
convolution
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910779891.8A
Other languages
English (en)
Other versions
CN110532925A (zh
Inventor
白静
于文涛
张佑捷
张帆
焦李成
张丹
杨韦洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201910779891.8A priority Critical patent/CN110532925B/zh
Publication of CN110532925A publication Critical patent/CN110532925A/zh
Application granted granted Critical
Publication of CN110532925B publication Critical patent/CN110532925B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时空图卷积网络的驾驶员疲劳检测方法,主要解决现有技术中驾驶员疲劳检测准确率低的问题。本发明的具体步骤如下:(1)搭建时空图卷积网络;(2)生成数据集;(3)训练时空图卷积网络;(4)对驾驶状态进行实时分类。本发明具有提高驾驶员疲劳检测准确率和鲁棒性,降低漏检率的优点,是一种非常实用的驾驶员疲劳检测方法。

Description

基于时空图卷积网络的驾驶员疲劳检测方法
技术领域
本发明属于图像处理技术领域,更进一步涉及光学图像分类技术领域中的一种基于时空图卷积网络ST-GCN(Spatial-Temporal Graph Convolutional Network)的驾驶员疲劳检测方法。本发明可用于对机动车驾驶场景下驾驶员的驾驶状态进行分类,其分类的结果可为机动车驾驶员和交管人员判断驾驶员是否处于疲劳状态提供参考依据。
背景技术
研究表明,目前在所有的机动车撞车事故中,有8.8%-9.5%的驾驶员感到疲劳。驾驶员疲劳是造成重大道路交通事故的重要原因之一。近年来,人们提出了许多驾驶员疲劳检测技术。这些检测方法利用驾驶员疲劳时闭眼、打哈欠、低头等主要特征和头部动作、人脸状态,判断机动车驾驶员是否疲劳。
济南浪潮高新科技投资发展有限公司在其申请的专利文献“一种基于卷积神经网络的驾驶员疲劳检测方法及装置”(专利申请号:201910398400.5,公开号:CN110119714A)中提出了一种基于卷积神经网络的驾驶员疲劳检测方法。该方法利用卷积神经网络对驾驶室内的车载摄像头拍摄的驾驶员图片进行睁眼和闭眼的分类,能够判断驾驶员是否处于疲劳驾驶。相比其他驾驶员疲劳检测方法,该方法具有更强的适用性。但是,该方法仍然存在的不足之处是:机动车驾驶时驾驶室内的环境复杂多变,该方法在驾驶员面部有遮挡和光照不良的环境下的检测效果差,因此该方法对驾驶员疲劳检测的鲁棒性低,准确率低。
广东工业大学在其申请的专利文献“一种基于神经网络的驾驶员疲劳检测方法”(专利申请号:201910243728.X,公开号:CN110119676A)中提出了一种基于神经网络的驾驶员疲劳检测方法。该方法利用多任务级联卷积网络检测到人脸和关键点位置,然后利用区域提取算法提取出驾驶员眼部和嘴部区域图,紧接着将眼部和嘴部区域图送入神经网络进行抽烟、打电话、打哈欠、闭眼和正常状态五种类别的图像分类,最终判断驾驶员疲劳状态。该方法具有检测范围更广,不局限于眼睛和嘴巴,还可以同时检测打电话和抽烟等特征,但是,该方法仍然存在的不足之处是:由于连续的人脸关键点蕴含着丰富的时间和空间信息,例如驾驶员感到疲劳前的微小的头部动作和细微的人脸状态变化,该方法没有从驾驶员人脸关键点的时间和空间信息上着手进行处理,因此该方法无法检测出驾驶员微小的头部动作和细微的人脸状态变化,导致该方法对驾驶员疲劳检测的漏检率高,准确率低。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于时空图卷积网络的驾驶员疲劳检测方法,以解决机动车驾驶场景下驾驶员的驾驶状态分类中存在的鲁棒性低、漏检率高、准确率低的问题。
实现本发明目的的思路是:驾驶员的驾驶状态反应在驾驶员微小的头部动作和细微的人脸状态变化中;连续的人脸关键点蕴含着丰富的时间和空间信息;与传统的卷积神经网络相比,时空图卷积网络能够充分利用输入数据蕴含的时间和空间信息;在驾驶员驾驶状态分类的过程中时空图卷积网络充分利用了提取到的驾驶员人脸关键点的时间和空间信息,能够捕捉到驾驶员微小的头部动作和细微的人脸状态变化,得到的驾驶员的驾驶状态的分类结果更准确,提高了驾驶员疲劳检测的准确率并且降低了漏检率;人脸关键点的提取受驾驶员面部有遮挡和环境光照不良的影响小,对环境的适应性强,提高了驾驶员疲劳检测的鲁棒性。
本发明的具体步骤包括如下:
步骤1.搭建时空图卷积网络:
搭建一个82层的时空图卷积网络,其结构依次为:输入层→批归一化层→11个级联的时空图卷积算子→全局池化层→归一化指数函数层→输出层;将批归一化层的动量设置为0.1;
所述每个时空图卷积算子的结构依次为:第1卷积层→第1批归一化层→第1修正线性单元层→第2卷积层→第2批归一化层→第1随机失活层→第2修正线性单元层,其中,第1卷积层与第1随机失活层之间跳跃连接;设置时空图卷积算子各层的参数为:将第5、8个时空图卷积算子中所有卷积层的步长均设置为2,将其余时空图卷积算子中的所有卷积层的步长均设置为1;将所有卷积层的卷积核大小均设置为9×3;将所有随机失活层的随机失活概率均设置为0.45;将所有批归一化层的动量均设置为0.1;
步骤2.生成数据集:
使用摄像头对模拟的机动车驾驶环境中驾驶员的肩膀以上部位的进行录像;将每段完整视频分割为多个长度为T帧的短视频,其中T≥1;
将所有短视频中驾驶员的驾驶状态划分为4类并组成数据集;
使用人脸关键点提取软件,提取所有短视频中每一帧的人脸关键点,每一个人脸提取出N个关键点,其中N≥1,将数据保存为json格式的文件;
使用数据集数据预处理软件,将所有json格式的文件以npy格式组成数据集以及与该数据集对应的pkl格式的分类标签文件;
步骤3.训练时空图卷积网络:
将npy格式的数据集以及与该数据集对应的pkl格式的分类标签文件,输入到时空图卷积网络中,利用梯度下降法,对网络参数进行迭代更新,直至损失函数J(θ)≤0.1,得到训练好的时空图卷积网络;
步骤4.对驾驶状态进行实时分类:
第一步,使用人脸关键点提取软件,提取实时采集到的机动车驾驶室内驾驶员的肩膀以上部位的视频图像中人脸的所有关键点,并存入到用于存储人脸关键点数据的队列中;
第二步,判断队列中是否存满L个人脸关键点数据,若是,则执行本步骤的第三步,否则,则执行本步骤的第一步,其中,L的取值与T相等;
第三步,将队列中的所有人脸关键点数据送入训练好的时空图卷积网络,时空图卷积网络进行推断,得到驾驶员当前驾驶状态的分类结果。
本发明与现有的技术相比具有以下优点:
第一,本发明利用人脸关键点提取软件,提取实时采集到的机动车驾驶室内驾驶员的肩膀以上部位的视频图像中人脸的所有关键点,克服了现有技术在驾驶员面部有遮挡和光照不良的环境下检测效果差,驾驶员疲劳检测的鲁棒性低的缺点,使得本发明提高了驾驶员疲劳检测的鲁棒性和准确率。
第二,本发明利用搭建并训练好的时空图卷积网络,对机动车行驶中驾驶员的微小的头部动作和细微的人脸状态变化等细微驾驶状态进行实时分类,克服了现有技术无法检测出驾驶员微小的头部动作和细微的人脸状态变化,驾驶员疲劳检测的漏检率高、准确率低的缺点,使得本发明降低了驾驶员疲劳检测的漏检率,提高了驾驶员疲劳检测的准确率。
附图说明
图1是本发明的流程图;
图2是本发明时空图卷积网络结构示意图;
图3是本发明时空图卷积算子示意图;
图4是本发明使用的人脸关键点提取软件提取的人脸关键点的示意图;
图5是本发明的仿真图。
具体实施方式
下面结合附图对本发明作进一步详细描述。
参照图1,对本发明的具体实现步骤作进一步详细描述。
步骤1.搭建时空图卷积网络。
搭建一个82层的时空图卷积网络,其结构依次为:输入层→批归一化层→11个级联的时空图卷积算子→全局池化层→归一化指数函数层→输出层;将批归一化层的动量设置为0.1。
所述每个时空图卷积算子的结构依次为:第1卷积层→第1批归一化层→第1修正线性单元层→第2卷积层→第2批归一化层→第1随机失活层→第2修正线性单元层,其中,第1卷积层与第1随机失活层之间跳跃连接,作为时空图卷积算子的残差网络机制;设置时空图卷积算子各层的参数为:将第5、8个时空图卷积算子中所有卷积层的步长均设置为2,将其余时空图卷积算子中的所有卷积层的步长均设置为1;将所有卷积层的卷积核大小均设置为9×3;将所有随机失活层的随机失活概率均设置为0.45;将所有批归一化层的动量均设置为0.1。
下面参照图2,对所搭建的时空图卷积网络结构示意图进行详细描述。时空图卷积层的输入层是提取到的人脸关键点数据,然后是批归一化层,这个批归一化层的作用是对输入的人脸关键点数据进行归一化操作。在批归一化层之后,依次是11个时空图卷积算子,紧接着是全局池化层、归一化指数函数层,最终得到驾驶员的驾驶状态分类结果。时空图卷积网络输入层的维度是3,批归一化层后输出数据的维度仍然是3,第一个时空图卷积算子输出数据的维度是64,第二个时空图卷积算子输出数据的维度仍然是64,第三个时空图卷积算子输出数据的维度仍然是64,第四个时空图卷积算子输出数据的维度仍然是64,第五个时空图卷积算子输出数据的维度是128,第六个时空图卷积算子输出数据的维度仍然是128,第七个时空图卷积算子输出数据的维度仍然是128,第八个时空图卷积算子输出数据的维度是256,第九个时空图卷积算子输出数据的维度仍然是256,第十个时空图卷积算子输出数据的维度仍然是256,第十一个时空图卷积算子输出数据的维度仍然是256,全局池化层输出数据的维度仍然是256,归一化指数函数层输出数据的维度是4,输出层的数据的维度仍然是4。
下面参照图3,对所搭建的时空图卷积算子示意图进行详细描述,其结构依次为:第1卷积层→第1批归一化层→第1修正线性单元层→第2卷积层→第2批归一化层→第1随机失活层→第2修正线性单元层,其中,第1卷积层与第1随机失活层之间跳跃连接。
步骤2.生成数据集。
使用摄像头对模拟的机动车驾驶环境中驾驶员的肩膀以上部位的进行录像;将每段完整视频分割为多个长度为T帧的短视频,其中T≥1。
将所有短视频中驾驶员的驾驶状态划分为4类并组成数据集。所述驾驶员的驾驶状态划分为4类是指,驾驶员闭眼、驾驶员打哈欠、驾驶员低头、驾驶员未闭眼且未打哈欠且未低头,且每段短视频唯一分类为一个类别。
在本发明的仿真实验中,使用人脸关键点提取软件,提取所有短视频中每一帧的人脸关键点,每一个人脸提取出60个关键点,将数据保存为json格式的文件。每段短视频的长度为30帧,30帧中的人脸关键点数据都保存在一个json格式的文件中。所述人脸关键点提取软件是指openpose人脸关键点提取软件、百度公司的人脸关键点提取软件、旷视公司的人脸关键点提取软件、商汤公司的人脸关键点提取软件、腾讯云公司的人脸关键点提取软件、阿里云公司的人脸关键点提取软件中的任意一种软件均可。
图4是本发明使用的人脸关键点提取软件提取的人脸关键点的示意图,图4中的人脸外围上共有60个白色圆点,对应所提取到的60个人脸关键点,各白色圆点间的白色连接线表示人脸关键点之间的连接。图4中人脸的左眼眉毛和右眼眉毛分别提取了5个关键点,对应17到21和22到26所表示的白色圆点。图4中人脸的左眼框和右眼框分别提取了6个关键点,对应36到41和42到47所表示的白色圆点。图4中人脸的鼻梁提取了4个关键点,对应27到30所表示的白色圆点。图4中人脸的鼻子和嘴唇中间的部分提取了5个关键点,对应31到35所表示的白色圆点。图4中人脸的嘴唇提取了12个关键点,对应48到59所表示的白色圆点。图4中人脸的人脸的轮廓提取了17个关键点,在图4中对应0到16所表示的白色圆点。
使用数据集数据预处理软件,将所有json格式的文件以npy格式组成数据集以及与该数据集对应的pkl格式的分类标签文件。所述数据集数据预处理软件是指能够将多个json格式的文件中的数据提取出来,保存到一个npy格式的文件和一个pkl格式的文件。
步骤3.训练时空图卷积网络。
将npy格式的数据集以及与该数据集对应的pkl格式的分类标签文件,输入到时空图卷积网络中,利用梯度下降法,对网络参数进行迭代更新,直至损失函数J(θ)≤0.1,得到训练好的时空图卷积网络。在本发明的仿真实验中,使用随机梯度下降训练时空图卷积网络,初始学习率设置为0.01,每迭代训练10次,学习率以10%衰减。
步骤4.对驾驶状态进行实时分类。
第一步,使用人脸关键点提取软件,提取实时采集到的机动车驾驶室内驾驶员的肩膀以上部位的视频图像中人脸的所有关键点,并存入到用于存储人脸关键点数据的队列中。
第二步,判断队列中是否存满L个人脸关键点数据,若是,则执行本步骤的第三步,否则,则执行本步骤的第一步,其中,L的取值与T相等。
第三步,将队列中的所有人脸关键点数据送入训练好的时空图卷积网络,时空图卷积网络进行推断,得到驾驶员当前驾驶状态的分类结果。所述时空图卷积网络进行推断是指,给定时空图卷积网络输入数据后,时空图卷积网络进行前向运算,得到分类结果,为机动车驾驶员和交管人员判断驾驶员是否处于疲劳状态提供参考依据。
下面结合仿真实验对本发明的效果做进一步的说明:
1.仿真实验条件:
本发明的仿真实验的硬件平台为:CPU型号为Intel Xeon E5-2640 v4,20核,主频为2.4GHz,内存大小为64GB;GPU为NVIDIA GeForce GTX 1080 Ti/PCIe/SSE2,显存大小为20GB。
本发明的仿真实验的软件平台为:操作系统为Ubuntu18.04 LTS,OpenCV版本为3.2.0,TensorFlow的版本为1.2.1。
2.仿真内容及其结果分析:
本发明仿真实验是采用本发明和两个现有技术(卷积神经网络方法、神经网络方法)分别对台湾清华大学数据集中的验证集进行驾驶员疲劳检测。
在仿真实验中,采用的二个现有技术是指:
济南浪潮高新科技投资发展有限公司在其申请的专利文献“一种基于卷积神经网络的驾驶员疲劳检测方法及装置”(专利申请号:201910398400.5,公开号:CN110119714A)中提出的一种基于卷积神经网络的驾驶员疲劳检测方法,简称卷积神经网络方法。
广东工业大学在其申请的专利文献“一种基于神经网络的驾驶员疲劳检测方法”(专利申请号:201910243728.X,公开号:CN110119676A)中提出的一种基于神经网络的驾驶员疲劳检测方法,简称神经网络方法。
本发明仿真实验所使用的疲劳驾驶检测数据集为台湾清华大学采集的数据集,该数据集包含五个场景,分别是戴眼镜、不戴眼镜、晚上戴眼镜、晚上不戴眼镜和戴太阳镜。该数据集的训练集中有18名志愿者,其中10名男性、8名女性在每个场景中扮演4位不同的驾驶员。数据集中的视频都是模拟驾驶,分辨率为640×480像素,每秒30帧,视频格式为AVI,没有声音。台湾清华大学数据集中的验证集有4名志愿者,包括两名男性和两名女性,共有20个视频,视频总帧数为173259。台湾清华大学数据集中的验证集提供了驾驶员是否感到疲劳的分类标签,每帧视频都经过台湾清华大学研究人员严格、客观的分析与研究,每帧视频的标签为驾驶员感到疲劳或者驾驶员未感到疲劳。
当本发明仿真实验中的检测结果与台湾清华大学数据集中的验证集中视频的标签相同,则认为驾驶员疲劳检测结果正确;当本发明仿真实验中的检测结果与台湾清华大学数据集中的验证集中视频的标签不相同,则认为驾驶员疲劳检测结果不正确。统计每个方法驾驶员疲劳检测结果正确的次数之和,得到检测结果正确的视频帧数总和。
为了评价本发明的效果,利用下述的评价指标(准确率)公式,分别计算本发明仿真实验中三种方法的检测结果的准确率,并将计算结果绘制成表1:
Figure GDA0003883934200000071
表1.本发明仿真的准确率对比表
方法 准确率
卷积神经网络方法 84.21%
神经网络方法 85.52%
本发明方法 91.78%
结合表1可以看出,本发明的准确率为91.78%,这个指标均高于2种现有技术方法,证明本发明可以得到更高的驾驶员疲劳检测准确率。
下面结合图5,对本发明仿真的四种驾驶状态进行详细描述。图5(a)是利用本发明方法通过仿真得到的驾驶员的驾驶状态为“驾驶员闭眼”的分类结果示意图;图5(b)是利用本发明方法通过仿真得到的驾驶员的驾驶状态为“驾驶员打哈欠”的分类结果示意图;图5(c)是利用本发明方法通过仿真得到的驾驶员的驾驶状态为“驾驶员低头”的分类结果示意图;图5(d)是利用本发明方法通过仿真得到的驾驶员的驾驶状态为“驾驶员未闭眼且未打哈欠且未低头”的分类结果示意图。
以上仿真实验表明:本发明方法利用搭建并训练好的时空图卷积网络,能够充分利用提取到的人脸关键点的空间和时间信息,解决了机动车驾驶场景下驾驶员的驾驶状态分类中存在的鲁棒性低、漏检率高、准确率低的问题,是一种非常实用的驾驶员疲劳检测方法。

Claims (3)

1.一种基于时空图卷积网络的驾驶员疲劳检测方法,其特征在于,利用搭建并训练好的时空图卷积网络对提取出的机动车驾驶场景下驾驶员的人脸关键点进行驾驶员的驾驶状态分类;该方法的步骤包括如下:
步骤1.搭建时空图卷积网络:
搭建一个82层的时空图卷积网络,其结构依次为:输入层→批归一化层→11个级联的时空图卷积算子→全局池化层→归一化指数函数层→输出层;将批归一化层的动量设置为0.1;
所述每个时空图卷积算子的结构依次为:第1卷积层→第1批归一化层→第1修正线性单元层→第2卷积层→第2批归一化层→第1随机失活层→第2修正线性单元层,其中,第1卷积层与第1随机失活层之间跳跃连接;设置时空图卷积算子各层的参数为:将第5、8个时空图卷积算子中所有卷积层的步长均设置为2,将其余时空图卷积算子中的所有卷积层的步长均设置为1;将所有卷积层的卷积核大小均设置为9×3;将所有随机失活层的随机失活概率均设置为0.45;将所有批归一化层的动量均设置为0.1;
步骤2.生成数据集:
使用摄像头对模拟的机动车驾驶环境中驾驶员的肩膀以上部位的进行录像;将每段完整视频分割为多个长度为T帧的短视频,其中T≥1;
将所有短视频中驾驶员的驾驶状态划分为4类并组成数据集;
使用人脸关键点提取软件,提取所有短视频中每一帧的人脸关键点,每一个人脸提取出N个关键点,其中N≥1,将数据保存为json格式的文件;
使用数据集数据预处理软件,将所有json格式的文件以npy格式组成数据集以及与该数据集对应的pkl格式的分类标签文件;
步骤3.训练时空图卷积网络:
将npy格式的数据集以及与该数据集对应的pkl格式的分类标签文件,输入到时空图卷积网络中,利用梯度下降法,对网络参数进行迭代更新,直至损失函数J(θ)≤0.1,得到训练好的时空图卷积网络;
步骤4.对驾驶状态进行实时分类:
第一步,使用人脸关键点提取软件,提取实时采集到的机动车驾驶室内驾驶员的肩膀以上部位的视频图像中人脸的所有关键点,并存入到用于存储人脸关键点数据的队列中;
第二步,判断队列中是否存满L个人脸关键点数据,若是,则执行本步骤的第三步,否则,则执行本步骤的第一步,其中,L的取值与T相等;
第三步,将队列中的所有人脸关键点数据送入训练好的时空图卷积网络,时空图卷积网络进行推断,得到驾驶员当前驾驶状态的分类结果。
2.根据权利要求1所述的基于时空图卷积网络的驾驶员疲劳检测方法,其特征在于,步骤2中所述驾驶员的驾驶状态划分为4类是指,驾驶员闭眼、驾驶员打哈欠、驾驶员低头、驾驶员未闭眼且未打哈欠且未低头,且每段短视频唯一分类为一个类别。
3.根据权利要求1所述的基于时空图卷积网络的驾驶员疲劳检测方法,其特征在于,步骤4中第三步所述时空图卷积网络进行推断是指,给定时空图卷积网络输入数据后,时空图卷积网络进行前向运算,得到分类结果。
CN201910779891.8A 2019-08-22 2019-08-22 基于时空图卷积网络的驾驶员疲劳检测方法 Active CN110532925B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910779891.8A CN110532925B (zh) 2019-08-22 2019-08-22 基于时空图卷积网络的驾驶员疲劳检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910779891.8A CN110532925B (zh) 2019-08-22 2019-08-22 基于时空图卷积网络的驾驶员疲劳检测方法

Publications (2)

Publication Number Publication Date
CN110532925A CN110532925A (zh) 2019-12-03
CN110532925B true CN110532925B (zh) 2022-12-06

Family

ID=68662547

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910779891.8A Active CN110532925B (zh) 2019-08-22 2019-08-22 基于时空图卷积网络的驾驶员疲劳检测方法

Country Status (1)

Country Link
CN (1) CN110532925B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112381064B (zh) * 2020-12-07 2023-12-22 泰康保险集团股份有限公司 一种基于时空图卷积网络的人脸检测方法及装置
CN113111745B (zh) * 2021-03-30 2023-04-07 四川大学 基于openpose的产品关注度的眼动识别的方法
CN112801060A (zh) * 2021-04-07 2021-05-14 浙大城市学院 运动动作识别方法及装置、模型、电子设备、存储介质
CN113792599A (zh) * 2021-08-10 2021-12-14 东风电驱动系统有限公司 一种疲劳驾驶预警系统的验证方法及验证装置
CN115205767A (zh) * 2022-09-16 2022-10-18 浪潮通信信息系统有限公司 一种抽烟行为检测方法、系统及装置
CN115565159B (zh) * 2022-09-28 2023-03-28 华中科技大学 一种疲劳驾驶检测模型的构建方法及应用

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194346A (zh) * 2017-05-19 2017-09-22 福建师范大学 一种汽车疲劳驾驶预测方法
CN110119676A (zh) * 2019-03-28 2019-08-13 广东工业大学 一种基于神经网络的驾驶员疲劳检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10592785B2 (en) * 2017-07-12 2020-03-17 Futurewei Technologies, Inc. Integrated system for detection of driver condition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194346A (zh) * 2017-05-19 2017-09-22 福建师范大学 一种汽车疲劳驾驶预测方法
CN110119676A (zh) * 2019-03-28 2019-08-13 广东工业大学 一种基于神经网络的驾驶员疲劳检测方法

Also Published As

Publication number Publication date
CN110532925A (zh) 2019-12-03

Similar Documents

Publication Publication Date Title
CN110532925B (zh) 基于时空图卷积网络的驾驶员疲劳检测方法
CN109558832B (zh) 一种人体姿态检测方法、装置、设备及存储介质
CN110427867B (zh) 基于残差注意力机制的面部表情识别方法及系统
CN110738101B (zh) 行为识别方法、装置及计算机可读存储介质
CN110532900B (zh) 基于U-Net和LS-CNN的人脸表情识别方法
EP3796112B1 (en) Virtual vehicle control method, model training method, control device and storage medium
CN112906485B (zh) 基于改进的yolo模型的视障人士辅助障碍物感知方法
CN111860171B (zh) 一种大规模遥感图像中不规则形状目标的检测方法及系统
CN108509976A (zh) 动物的识别装置和方法
CN106845351A (zh) 一种用于视频的基于双向长短时记忆单元的行为识别方法
CN106909938B (zh) 基于深度学习网络的视角无关性行为识别方法
CN110543848B (zh) 一种基于三维卷积神经网络的驾驶员动作识别方法及装置
CN111666845B (zh) 基于关键帧采样的小样本深度学习多模态手语识别方法
CN110232564A (zh) 一种基于多模态数据的交通事故法律自动决策方法
CN110348350B (zh) 一种基于面部表情的驾驶员状态检测方法
CN107633196A (zh) 一种基于卷积神经网络的眼球移动预测方案
CN112966574A (zh) 人体三维关键点预测方法、装置及电子设备
CN115761834A (zh) 人脸识别的多任务混合模型和人脸识别方法
CN112052829B (zh) 一种基于深度学习的飞行员行为监控方法
Zhang et al. Research and application of facial expression recognition based on attention mechanism
CN114639152A (zh) 基于人脸识别的多模态语音交互方法、装置、设备及介质
CN114170657A (zh) 融合注意力机制与高阶特征表示的面部情感识别方法
CN112818899A (zh) 人脸图像处理方法、装置、计算机设备和存储介质
CN112818948B (zh) 一种嵌入式系统下的基于视觉注意力的行为识别方法
CN113343898B (zh) 基于知识蒸馏网络的口罩遮挡人脸识别方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant