CN109460703B - 一种基于心率和面部特征的非侵入式疲劳驾驶识别方法 - Google Patents

一种基于心率和面部特征的非侵入式疲劳驾驶识别方法 Download PDF

Info

Publication number
CN109460703B
CN109460703B CN201811076992.0A CN201811076992A CN109460703B CN 109460703 B CN109460703 B CN 109460703B CN 201811076992 A CN201811076992 A CN 201811076992A CN 109460703 B CN109460703 B CN 109460703B
Authority
CN
China
Prior art keywords
heart rate
fatigue
yawning
perclos
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811076992.0A
Other languages
English (en)
Other versions
CN109460703A (zh
Inventor
杜广龙
龙帅英
李方
张平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201811076992.0A priority Critical patent/CN109460703B/zh
Publication of CN109460703A publication Critical patent/CN109460703A/zh
Application granted granted Critical
Publication of CN109460703B publication Critical patent/CN109460703B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提出了一种基于心率和面部特征的非侵入式疲劳驾驶识别方法。该方法通过体感摄像机Kinect获取面部视频,根据面部视频使用独立量分析,分离出R、G、B和红外四个通道;使用傅里叶变换计算出心率;使用体感摄像机Kinect人脸追踪开发工具包获取视频中面部区域图像及眼睛和嘴部区域的特征点;计算眼睛张开度,用于统计眨眼持续时间PERCLOS;利用支持向量机对嘴部区域图像分成打哈欠和未打哈欠两类,统计打哈欠频率;将获得的心率统计特征、PERCLOS统计和打哈欠频率特征融合后进行疲劳识别。本发明结合心率和打哈欠是驾驶员下意识的特征,提高疲劳驾驶检测的可靠性。

Description

一种基于心率和面部特征的非侵入式疲劳驾驶识别方法
技术领域
本发明涉及一种疲劳驾驶检测技术,具体涉及一种基于心率和面部特征的非侵入式疲劳驾驶识别方法。
背景技术
当驾驶员处于疲劳驾驶状态时,其注意力会变得分散,识别路况和驾驶能力明显下降,因此无论是对他们自己还是他人的生命安全均构成了威胁。因此开发能及时检测驾驶员是否疲劳驾驶并做出预警的系统,对于较少交通事故意义重大。
目前有不少疲劳驾驶检测的方法,但仍然有很多问题有待解决或值得进一步研究。其一,基于车辆行为的方法。基于车辆行为的方法主要是通过测量转向角、速度、加速度、转弯角度等车辆数据,虽然收集车辆信号很方便,但是此时驾驶员已经明显表现出疲劳,因此这种方法无法有效的及时的检测到驾驶员是否疲劳并做出预警。其二,基于生理信号的方法。基于生理信号的方法研究主要是研究脑电图(EEG),眼电图(EOG)和心电图(ECG)和心率等生理信号,虽然提到的这些方法可以获得很高准确率,但是这些方法都需要驾驶员佩戴相关检测设备,有很强的侵入性,会妨碍驾驶员驾驶。同时在进行检测疲劳驾驶前需要驾驶员佩戴相关设备,用户体验不友好。
当司机疲劳时会出现频繁闭眼、点头和打哈欠等行为。基于行为的方法就是通过视觉分析驾驶员例如闭眼,眨眼,打哈欠,头部姿势、眼睑运动和面部表情等面部特征来检测是否疲劳。由于基于视觉的行为的方法不会干扰司机驾驶,更容易被驾驶员所接受。基于检测眼睛闭合频率来计算PERCLOS(Percentage of Eye Closure)值来判断是否疲劳,有些除了分析眼部区域的特征外还结合头部运动来进行检测。但是当司机带墨镜时候,通过眼部区域特征来判断是否疲劳这种方法将会失效。
更好的解决方案是对面部图像分析出心率。面部的血液会随着心脏的收缩和放松而变化,血液的变化意味着面部热量和颜色会发生微小的变化,因此Kinect获取的红外图像和RGB图像将着时间产生微小的变化,而这个变化的频率就是我们需要求的心率。当司机疲劳时会出现频繁闭眼、点头和打哈欠等行为。基于视觉的行为的方法不会干扰司机驾驶,更容易被驾驶员所接受。基于检测眼睛闭合频率来计算PERCLOS(Percentage of EyeClosure)值来判断是否疲劳,有些除了分析眼部区域的特征外还结合头部运动来进行检测。但是当司机带墨镜时候,通过眼部区域特征来判断是否疲劳这种方法将会失效。通过Kinect的红外图像,既可以大大降低光照变化所带来的影响也能很好的解决带墨镜时的情况。人下意识很容易控制眼睛闭合频率,仅仅通过眼部特征来判断是否疲劳这种方法不可靠。但是打哈欠和心率是很难下意识的控制的,因此我们应当融合心率、眼部特征和嘴部特征来提高疲劳驾驶检测的稳定性与准确性。
发明内容
为了解决上述现有技术所存在的问题,本发明提供一种基于心率和面部特征的非侵入式疲劳驾驶识别方法,通过Kinect获取RGB图像和红外(IR)图像,然后根据这些图像数据计算心率并获取面部特征,最终将心率和面部特征融合,使用随机森林算法分类出疲劳和未疲劳两种状态。
本发明的目的通过如下技术方案实现。
一种基于心率和面部特征的非侵入式疲劳驾驶识别方法,该方法包括以下步骤:
S1、通过体感摄像机Kinect获取面部视频,根据面部视频使用独立量分析(Independent Component Analysis)分离出R、G、B和红外四个通道;使用傅里叶变换计算出心率;
S2、使用体感摄像机Kinect人脸追踪开发工具包(Kinect Face TrackingSoftware Development Kit)获取视频中面部区域图像及眼睛和嘴部区域的特征点;
S3、计算眼睛张开度,用于统计眨眼持续时间PERCLOS(Percentage of EyeClosure);利用支持向量机(Support Vector Machine)对嘴部区域图像分成打哈欠和未打哈欠两类,统计打哈欠频率;
S4、将获得的心率统计特征、PERCLOS统计和打哈欠频率特征融合后进行疲劳识别。
进一步地,步骤S1使用Kinect获取RGB和红外(IR)图像数据,然后使用KinectFace-Tracker获取面部区域和眼睛及嘴部特征点。
进一步地,在步骤S1中,从Kinect中获取面部区域的RGB图像和红外图像,对此区域进行追踪;其次,从R、G、B和IR四个通道记录采集到的信号进行归一化;所述的使用傅里叶变换计算出心率,首先用基于特征矩阵联合近似对角化算法(Joint ApproximateDiagonalization Of Eigen-Matrices Algorithm),对信号进行独立分量分析,然后对得到的分离矩阵进行傅里叶变换,从而与心率范围匹配,得到被测者实时心率;再从每段心率提取五个统计特征:平均值、均方根、最大值、最小值和幅度
进一步地,步骤S2使用Kinect人脸追踪开发工具包(Kinect Face TrackingSoftware Development Kit)提取眼睛感兴趣区域(ROI),再使用光谱回归(SR)算法将眼睛感兴趣区域按照眼睛张开度作为权重映射成一个光谱模型。训练完成后输入一个眼睛ROI图像就可以快速得到眼睛张开度,统计一段时间内眼睑覆盖瞳孔80%所占的时间即可得到PERCLOS。
进一步地,步骤S3中,通过使用Kinect人脸追踪开发工具包(Kinect FaceTracking Software Development Kit)获取对于嘴部区域的特征点,在利用局部二值模式算法(Local Binary Pattern)提取嘴部特征,然后使用支持向量机算法分类出是否处于打哈欠状态。
进一步地,步骤S4中,首先将心率统计特征、PERCLOS统计和打哈欠频率这三种特征归一化,使用随机森林算法来融合这些特征进行驾驶状态分类,分为疲劳和未疲劳两种状态,我们选取分类回归树(Classification And Regression Tree)作为随机森林算法的分类决策树。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明利用面部图像数据来检测疲劳驾驶,不需要驾驶员身体任何部位佩戴传感器,无侵入性。可以长时间进行疲劳检测并且对司机驾驶无影响。
2、利用面部视频来计算心率,并且将其与面部特征融合,提高了疲劳驾驶检测的稳定性与可靠性。
3、面部特征均是利用红外图像提取,极大降低了光照对疲劳驾驶检测的影响。
附图说明
图1为本发明的一种基于心率和面部特征的非侵入式疲劳驾驶识别方法的流程示意图。
具体实施方式
下面结合附图并举实施例,对本发明的技术方案进行详细说明,需指出是,以下若有未特别详细说明之过程或符号,均是本领域技术人员可参照现有技术实现或理解的。
本实施例提供的一种基于心率和面部特征的非侵入式疲劳驾驶识别方法,仅使用Kinect获取面部视频数据来测量心率和识别面部表情,然后融合这两种数据进行疲劳检测。驾驶员在疲劳时候可以努力控制减少眨眼频率,但是打哈欠和心率是很难下意识的控制的,因此通过结合心率和打哈欠频率可以更好的检测到驾驶员是否疲劳。如图1所示,该框架主要包括以下部分:
S1、通过体感摄像机Kinect获取面部视频,根据面部视频使用独立量分析(Independent Component Analysis)分离出R、G、B和红外四个通道;使用傅里叶变换计算出心率;
S2、使用Kinect获取RGB和红外(IR)图像数据,然后使用Kinect Face-Tracker获取面部区域和眼睛及嘴部特征点。
根据面部视频计算出心率;从Kinect中获取面部区域的RGB图像和红外图像,并对此区域进行追踪,再从R、G、B和IR四个通道记录采集到的信号进行归一化,然后采用基于特征矩阵联合近似对角化的JADE算法,对信号进行独立分量分析。再对得到的分离矩阵进行快速傅里叶变换,从而与心率范围匹配,得到被测者实时心率。再从每段心率提取四个统计特征:平均值、均方根、最大值、最小值和幅度。
S3、计算眼睛张开度用来统计PERCLOS;根据眼部特征点提取眼睛ROI,首先利用训练集将眼睛张开度作为权重使用现有的光谱回归(Spectral Regression)算法映射成一个光谱模型。训练完成后输入一个眼睛ROI图像就可以快速得到眼睛张开度,统计一段时间内眼睑覆盖瞳孔80%所占的时间即可得到PERCLOS。
利用支持向量机算法对嘴部区域分成打哈欠和未打哈欠两类;对于嘴部区首先利用LBP提取嘴部特征,然后使用支持向量机算法分类出是否处于打哈欠状态。
S4、特征融合后进行疲劳识别;首先将心率统计特征、PERCLOS和打哈欠频率这三种特征归一化,然后将这些归一化后的特征作为随机森林算法的输入该算法输出结果为驾驶员精神状态,共有疲劳和未疲劳两种状态。以下是详细过程随机森林算法是一种特殊的集成学习方法,其是由多个决策树组成,由于疲劳检测是一个二分类问题,因此我们选取分类回归树(Classification And Regression Tree)作为随机森林算法的分类决策树。首先需要使用训练集训练随机森林,之前提到的归一化后的一组特征加上当前特征对应驾驶员疲劳状态即:{心率特征,PERCLOS,打哈欠频率,疲劳/未疲劳},其为训练集D的一个元素。模型构建过程中当前步骤所选择特征和划分子集的方法是,遍历目前还未选中的特征以及该特征所有划分情况然后计算划分后集合的基尼系数,最终选择让原来的集合的基尼系数Gini最小时所对应的特征以及划分方法。基尼系数越大总体内包含的类别越杂乱。集合Dξ的基尼系数Gini(Dξ)计算公式入下式所示。
Figure GDA0001895776230000041
其中,n是分类的个数这里由只有疲劳和不疲劳两种所以n的值为2,pk表示样本p=(xi,yi)属于分类k的概率,该概率是通过以往的数据进行统计如:PERCLOS值为0.8时10志愿者有9个处于疲劳状态,则我们可以说当样本中PERCLOS值为0.8时,当前驾驶员处于疲劳状态的概率为90%。而且i∈[1,s],p∈D,k∈[1,n],n∈[1,s]。
训练随机森林模型需要三步:
step 1:从原始训练集D0中随机有放回采样选出x个样本,样本是之前提到的,共进行y次采样,生成y个训练集,训练集个数就是随机森林所含有决策树的个数。然后将每个训练集划分为大小相同的K份;选择其中的K-1份来训练y个决策树模型,将用余下的那一份计算模型的预测值,这一份通常被称为交叉验证集;
step 2:依次遍历每个特征Aj的可能取值Aj,η,对每一个划分点(Aj,Aj,η)计算并保存按照该划分点划分后所得集合的基尼系数Gini(Dξ,Ai,η),这些数据将会在step 3使用。原先集合根据划分点(Aj,Aj,η)划分后的集合基尼系数计算公式如下所示。
Figure GDA0001895776230000051
其中Dξ+1与Dξ+2是原来的集合Dξ根据划分点(Aj,Aj,η)划分所得到的两两个互斥的子集。
step 3:从step 2所产生的所有划分情况中选取划分后集合基尼系数最小的情况作为最终决策树本次划分结果,此时原先集合被划分成两个互斥的子集。
step 4:对上步切出的两个子集分别递归调用step 1和step 2。每棵树都一直这样分裂下去,直到子集合的样本个数小于预定阀值,或者训练集的基尼系数小于预定阀值或没有更多特征可以用来划分子集时停止划分。最后将生成的多棵决策树组成随机森林。
得到森林之后,当有一个新的输入样本进入的时候,就让森林中的每一棵决策树对其分类,然后输出该样本所属类别。最后统计y个决策树所输出的分类,然后结果中出现次数最多的一个类别为最终输入驾驶员的特征所属的精神类别(驾驶状态),输出疲劳或未疲劳。
本实施例采用的整个疲劳检测系统主要分为心率获取、PERCLOS统计、打哈欠频率统计和数据融合四个模块。其中前面三个模块的数据均是由Kinect所获取的面部RGB和IR数据。心率计算模块是通过分析面部图像数据规律性变化得到心率变化的统计特征。PERCLOS统计模块是识别出眼睛闭合度,统计眼睛闭合所占时间比重。打哈欠频率统计模块是通过对嘴部图像使用支持向量机算法进行分类识别出打哈欠和未打哈欠两种状态。数据融合是利用分类器将上述三种特征分出疲劳和未疲劳这两种状态。结合心率和打哈欠是驾驶员下意识的特征,提高疲劳驾驶检测的可靠性。
综上所述,本发明如说明书及图示的内容,以上所举实施例仅用来方便举例说明本发明,并非对本发明作任何形式上的限制。

Claims (6)

1.一种基于心率和面部特征的非侵入式疲劳驾驶识别方法,其特征在于,该方法包括以下步骤:
S1、通过体感摄像机Kinect获取面部视频,根据面部视频使用独立量分析分离出R、G、B和红外四个通道;使用傅里叶变换计算出心率;
S2、使用体感摄像机Kinect人脸追踪开发工具包获取视频中面部区域图像及眼睛和嘴部区域的特征点;
S3、计算眼睛张开度,用于统计眨眼持续时间PERCLOS;利用支持向量机对嘴部区域图像分成打哈欠和未打哈欠两类,统计打哈欠频率;
S4 、将获得的心率统计特征、PERCLOS统计和打哈欠频率特征融合后进行疲劳识别,所述的特征融合后进行疲劳识别包括:
先将心率统计特征、PERCLOS和打哈欠频率这三种特征归一化,然后将这些归一化后的特征作为随机森林算法的输入,该算法输出结果为驾驶员精神状态,共有疲劳和未疲劳两种状态;
所述随机森林算法是一种特殊的集成学习方法,由多个决策树组成,选取分类回归树(Classification And Regression Tree)作为随机森林算法的分类决策树,具体是:使用训练集训练随机森林,所述归一化后的特征加上当前特征对应驾驶员疲劳状态即:{心率特征,PERCLOS,打哈欠频率,疲劳/未疲劳},为训练集D的一个元素;模型构建过程中当前步骤所选择特征和划分子集的方法是,遍历目前还未选中的特征以及该特征所有划分情况, 然后计算划分后集合的基尼系数,最终选择让原来的集合的基尼系数Gini最小时所对应的特征以及划分方法;基尼系数越大总体内包含的类别越杂乱;集合Dξ的基尼系数Gini(Dξ)计算公式入下式所示,
Figure FDA0003441559520000011
其中,n是分类的个数,这里只有疲劳和不疲劳两种,所以n的值为2,pk表示样本p=(xi,yi)属于分类k的概率;
训练随机森林模型需要四步:
step1:从原始训练集D0中随机有放回采样选出x个样本,样本是之前提到的,共进行y次采样,生成y个训练集,训练集个数就是随机森林所含有决策树的个数;然后将每个训练集划分为大小相同的K份;选择其中的K-1份来训练y个决策树模型,将用余下的那一份计算模型的预测值,这一份通常被称为交叉验证集;
step2:依次遍历每个特征Aj的可能取值Aj,η,对每一个划分点(Aj,Aj,η)计算并保存按照该划分点划分后所得集合的基尼系数Gini(Dξ,Aj,η),这些数据将会在step3使用;原先集合根据划分点(Aj,Aj,η)划分后的集合基尼系数计算公式如下所示:
Figure FDA0003441559520000021
其中Dξ+1与Dξ+2是原来的集合Dξ根据划分点(Aj,Aj,η)划分所得到的两个互斥的子集;
step3:从step2所产生的所有划分情况中选取划分后集合基尼系数最小的情况作为最终决策树本次划分结果,此时原先集合被划分成两个互斥的子集;
step4:对上步切出的两个子集分别递归调用step1和step2,每棵树都一直这样分裂下去,直到子集合的样本个数小于预定阀值,或者训练集的基尼系数小于预定阀值或没有更多特征可以用来划分子集时停止划分;最后将生成的多棵决策树组成随机森林。
2.根据权利要求1所述的一种基于心率和面部特征的非侵入式疲劳驾驶识别方法,其特征在于,步骤S1中所述使用体感摄像机Kinect获取彩色图像和红外图像数据。
3.根据权利要求1所述的一种基于心率和面部特征的非侵入式疲劳驾驶识别方法,其特征在于,在步骤S1中,从Kinect中获取面部区域的RGB图像和红外图像,对此区域进行追踪;其次,从R、G、B和IR四个通道记录采集到的信号进行归一化;所述的使用傅里叶变换计算出心率,首先用基于特征矩阵联合近似对角化算法,对信号进行独立分量分析,然后对得到的分离矩阵进行傅里叶变换,从而与心率范围匹配,得到被测者实时心率;再从每段心率提取五个统计特征:平均值、均方根、最大值、最小值和幅度。
4.根据权利要求1所述的一种基于心率和面部特征的非侵入式疲劳驾驶识别方法,其特征在于,在步骤S2中,通过使用Kinect人脸追踪开发工具包提取眼睛感兴趣区域,然后使用光谱回归算法将眼睛感兴趣区域按照眼睛张开度作为权重映射成一个光谱模型;训练完成后输入一个眼睛区域图像就可以快速得到眼睛张开度,统计一段时间内眼睑覆盖瞳孔80%所占的时间即可得到PERCLOS。
5.根据权利要求1所述的一种基于心率和面部特征的非侵入式疲劳驾驶识别方法,其特征在于,步骤S3中,通过使用Kinect人脸追踪开发工具包获取对于嘴部区域的特征点,在利用局部二值模式算法提取嘴部特征,然后使用支持向量机算法分类出是否处于打哈欠状态。
6.根据权利要求1所述的一种基于心率和面部特征的非侵入式疲劳驾驶识别方法,其特征在于,步骤S4中,首先将心率统计特征、PERCLOS统计和打哈欠频率这三种特征归一化,使用随机森林算法来融合这些特征进行驾驶状态分类,分为疲劳和未疲劳两种状态,选取分类回归树作为随机森林算法的分类决策树。
CN201811076992.0A 2018-09-14 2018-09-14 一种基于心率和面部特征的非侵入式疲劳驾驶识别方法 Active CN109460703B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811076992.0A CN109460703B (zh) 2018-09-14 2018-09-14 一种基于心率和面部特征的非侵入式疲劳驾驶识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811076992.0A CN109460703B (zh) 2018-09-14 2018-09-14 一种基于心率和面部特征的非侵入式疲劳驾驶识别方法

Publications (2)

Publication Number Publication Date
CN109460703A CN109460703A (zh) 2019-03-12
CN109460703B true CN109460703B (zh) 2022-03-29

Family

ID=65606682

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811076992.0A Active CN109460703B (zh) 2018-09-14 2018-09-14 一种基于心率和面部特征的非侵入式疲劳驾驶识别方法

Country Status (1)

Country Link
CN (1) CN109460703B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI715958B (zh) * 2019-04-08 2021-01-11 國立交通大學 評估駕駛者之疲勞分數的方法
CN110276273B (zh) * 2019-05-30 2024-01-02 福建工程学院 融合面部特征与图像脉搏心率估计的驾驶员疲劳检测方法
CN111652036B (zh) * 2020-03-30 2023-05-26 华南理工大学 一种基于视觉的融合心率与面部特征的疲劳驾驶识别方法
CN112690771B (zh) * 2020-12-09 2022-05-24 华南理工大学 一种利用线性回归模型的人脸视频心率检测方法
CN113255478A (zh) * 2021-05-10 2021-08-13 厦门理工学院 一种复合疲劳检测方法、终端设备及存储介质
CN113378681A (zh) * 2021-06-02 2021-09-10 联想(北京)有限公司 一种疲劳测量方法、装置及计算机可读介质
CN113378702B (zh) * 2021-06-09 2023-04-07 国网浙江宁波市奉化区供电有限公司 一种用于登杆作业的多特征融合的疲劳监测识别方法
CN114287939A (zh) * 2021-12-13 2022-04-08 上海航盛实业有限公司 一种疲劳驾驶检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107126224A (zh) * 2017-06-20 2017-09-05 中南大学 一种基于Kinect的轨道列车驾驶员状态的实时监测和预警方法与系统
CN107578008A (zh) * 2017-09-02 2018-01-12 吉林大学 基于分块特征矩阵算法和svm的疲劳状态检测方法
CN108154101A (zh) * 2017-12-21 2018-06-12 江苏东洲物联科技有限公司 一种多参数融合的疲劳驾驶检测系统及方法
CN108229245A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 基于面部视频特征的疲劳驾驶检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934368A (zh) * 2017-03-13 2017-07-07 长安大学 一种基于眼动指标数据的驾驶疲劳检测系统及识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229245A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 基于面部视频特征的疲劳驾驶检测方法
CN107126224A (zh) * 2017-06-20 2017-09-05 中南大学 一种基于Kinect的轨道列车驾驶员状态的实时监测和预警方法与系统
CN107578008A (zh) * 2017-09-02 2018-01-12 吉林大学 基于分块特征矩阵算法和svm的疲劳状态检测方法
CN108154101A (zh) * 2017-12-21 2018-06-12 江苏东洲物联科技有限公司 一种多参数融合的疲劳驾驶检测系统及方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Towards Detection of Bus Driver Fatigue Based on Robust Visual Analysis of Eye State;Bappaditya Mandal等;《IEEE Transactions on Intelligent Transportation Systems》;20171231;第545页至第556页 *
基于Kinect的体质检测系统的设计与实现;尹明;《中国优秀硕士学位论文全文数据库(信息科技辑)》;20180115;第I138-1788页 *
基于Kinect的疲劳驾驶综合监测系统研究;蔡菁等;《计算机工程与科学》;20151215;第2379页至第2385页 *
基于随机森林的疲劳驾驶检测识别模型的优化研究;叶建芳等;《汽车实用技术》;20180715;第39页至第43页 *

Also Published As

Publication number Publication date
CN109460703A (zh) 2019-03-12

Similar Documents

Publication Publication Date Title
CN109460703B (zh) 一种基于心率和面部特征的非侵入式疲劳驾驶识别方法
US11783601B2 (en) Driver fatigue detection method and system based on combining a pseudo-3D convolutional neural network and an attention mechanism
Mandal et al. Towards detection of bus driver fatigue based on robust visual analysis of eye state
Rahman et al. Real time drowsiness detection using eye blink monitoring
Sivasangari et al. Emotion recognition system for autism disordered people
Pimplaskar et al. Real time eye blinking detection and tracking using opencv
Jamshidi et al. Hierarchical deep neural networks to detect driver drowsiness
Koay et al. Detecting and recognizing driver distraction through various data modality using machine learning: A review, recent advances, simplified framework and open challenges (2014–2021)
Dong et al. An on-board monitoring system for driving fatigue and distraction detection
Dipu et al. Real-time driver drowsiness detection using deep learning
Zhao et al. Deep convolutional neural network for drowsy student state detection
Pinto et al. A deep learning approach to detect drowsy drivers in real time
Wathiq et al. Optimized driver safety through driver fatigue detection methods
Ukwuoma et al. Deep learning review on drivers drowsiness detection
Kassem et al. Drivers fatigue level prediction using facial, and head behavior information
Panicker et al. Open-eye detection using iris–sclera pattern analysis for driver drowsiness detection
CN116348042A (zh) 用於量化注意力的方法及系統
Shukla et al. An Efficient Approach of Face Detection and Prediction of Drowsiness Using SVM
Niu et al. Driver fatigue features extraction
Vural Video based detection of driver fatigue
Chiou et al. Abnormal driving behavior detection using sparse representation
Subbaiah et al. Driver drowsiness detection methods: A comprehensive survey
Luo et al. Multi-model fusion on real-time drowsiness detection for telemetric robotics tracking applications
Tarba et al. The driver's attention level
SP et al. A real-time fatigue detection system using multi-task cascaded CNN model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant