CN115393830A - 一种基于深度学习与面部特征的疲劳驾驶检测方法 - Google Patents
一种基于深度学习与面部特征的疲劳驾驶检测方法 Download PDFInfo
- Publication number
- CN115393830A CN115393830A CN202211030586.7A CN202211030586A CN115393830A CN 115393830 A CN115393830 A CN 115393830A CN 202211030586 A CN202211030586 A CN 202211030586A CN 115393830 A CN115393830 A CN 115393830A
- Authority
- CN
- China
- Prior art keywords
- fatigue
- eye
- mouth
- model
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及疲劳驾驶检测技术领域,尤其涉及一种基于深度学习与面部特征的疲劳驾驶检测方法,包括:S1:收集戴眼镜、不戴眼镜、戴墨镜的疲劳驾驶视频,并将视频分帧,得到图像数据集;S2:训练人脸检测模型,输入图像并检测出人脸区域;S3:训练人脸关键点与头部姿态学习模型并部署,输入人脸区域图像得到人脸关键点与头部姿态估计;S4:针对眼部、嘴部、头部疲劳特征评价指标给出疲劳判断。本发明主要是用深度学习模型对目标驾驶图像进行检测,具有无接触,成本低,使用方便等特点。通过对驾驶员眼部、嘴部、头部姿态等疲劳特征进行检测,对驾驶员出现疲劳状态进行识别,并做出报警响应,能够提高疲劳驾驶的检测速度和效率。
Description
技术领域
本发明涉及疲劳驾驶检测技术领域,尤其涉及一种基于深度学习与面部特征的疲劳驾驶检测方法。
背景技术
随着经济的发展,人们的生活水平逐渐提高,汽车的保有量也逐年增加。但同时,交通事故的发生率也呈递增趋势。分析其原因,在发生的事故中,由于驾驶员疲劳驾驶和酒后驾驶引发的事故占比最高,其中酒驾行为可以通过酒精含量探测器去管控,而疲劳驾驶更多的是依靠驾驶员自身去管控。
目前的疲劳驾驶检测方法中,可以分为3大类:分别为基于驾驶员生理信号的疲劳驾驶检测、基于车辆行为的疲劳驾驶检测方法、基于驾驶员面部特征的疲劳驾驶检测方法。其中,基于驾驶员生理信号的检测通过在驾驶员头部佩戴仪器等通过探测驾驶员的生理信号来对疲劳状态进行判定,优点是基于生理信号的判定准确率更高,缺点是仪器昂贵且在驾驶环境中佩戴不方便,难以普及。基于车辆行为的检测方法容易受复杂的路况影响,检测精度易受影响。随着深度学习的发展,基于深度学习的疲劳驾驶检测方法通过对眼睛、嘴巴、头部姿态等驾驶员面部特征对驾驶员进行疲劳检测,具有准确性高,成本低,非接触式等优点。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的一种基于深度学习与面部特征的疲劳驾驶检测方法,通过对眼睛、嘴巴、头部姿态等驾驶员面部特征对驾驶员进行疲劳检测,具有准确性高,成本低,非接触式等优点。
为了实现上述目的,本发明采用了如下技术方案:
一种基于深度学习与面部特征的疲劳驾驶检测方法,具体步骤如下:
S1:收集戴眼镜、不戴眼镜、戴墨镜的疲劳驾驶视频,并将视频分帧,得到图像数据集;
S2:训练人脸检测模型,构建并训练YOLOV5模型,采用训练好的YOLOV5模型检测算法对输入图像的人脸区域进行检测,对识别出的人脸进行对齐处理,将对齐后的人脸图像进行归一化处理并裁剪出人脸区域;
S3:训练人脸关键点与头部姿态学习模型并部署,构建并训练PFLD模型,将通过YOLOV5模型得到的人脸区域输入到PFLD模型,使用PFLD模型对人脸关键点与头部姿态进行检测,得到人脸的关键点及头部姿态角信息;
S4:针对眼部、嘴部、头部疲劳特征评价指标给出疲劳判断,采用PERCLOS评判准则对眼部信息进行疲劳判定,采用双阈值哈欠检测法对嘴部疲劳信息进行疲劳判定,采用pitch方向上头部姿态角度的估计结果对头部姿态进行疲劳判定;
S5:对于根据眼部关键点的位置信息,计算眼部纵横比EAR,判断眼部纵横比是否小于0.23,左眼及右眼的EAR需要分别计算;如果小于,则判断该张图像眼部为疲劳状态;然后由EAR值,计算PERCLOS值,PERCLOS超过40%且眼睛持续闭合的时间长于3秒,则判定眼部处于疲劳状态,其中PERCLOS定义为眼部为疲劳状态的图像占所有图像的比例;计算公式如下:
其中,EARleft为左眼的眼部纵横比,EARright为右眼的眼部纵横比;N表示单位时间内的总帧数,fn表示单位时间段内是否属于闭眼,如果处于闭眼状态,则fn为1,否则,fn为0,Pi(i=61,62,63,......75)对应标注的眼部关键点;
S6:对于嘴部关键点信息,计算嘴部纵横比MAR,判断嘴部纵横比是否小于0.3,如果小于,则判断该张图像嘴部为疲劳状态;然后由MAR值,计算PERCLOS值,PERCLOS超过40%且嘴巴持续闭合的时间长于3秒,则判定嘴部处于疲劳状态,其中,PERCLOS定义为嘴部为疲劳状态的图像占所有图像的比例;计算公式如下:
其中,M表示单位时间内的总帧数,fm表示单位时间段内是否属于打哈欠,如果处于打哈欠状态,则fm为1,否则,fm为0,Pi(i=88,89,......95)对应标注的嘴部关键点;
S7:对于头部姿态,采用pitch为头部姿态评价指标,当pitch值大于10度且小于15度时,持续5帧为一次点头动作,累计15次点头动作即视为疲劳状态;当pitch值大于15度时,持续5帧为一次低头动作,持续10次低头动作即可视为疲劳状态;
S8:根据眼部、嘴部、头部的疲劳状态,根据权值分配综合判断驾驶员的疲劳状态,计算公式如下:
W=αWeye+βWmouth+γWhead
其中,Weye表示眼部的疲劳状态,Wmouth表示嘴部的疲劳状态,Whead表示头部的疲劳状态,将相关系统α、β、γ分别设为0.5、0.2、0.3;当W大于等于0.5时,则判断驾驶员处于疲劳状态。
优选地,在S1中,采用YawDD数据集,YawDD数据集为疲劳驾驶检测的标准数据集,它包含不同种族、性别的驾驶员在不同环境下的驾驶视频,包含正常驾驶、唱歌、说话,打哈欠场景。
优选地,在S2中,人脸检测模型,采用Widerface数据集为训练数据集,FDDB数据集为测试数据集。
优选地,在S3中,对PFLD模型进行改进,将PFLD模型的主干网络Mobile net替换为轻量级网络Shuffle Net,改进后的PFLD模型所用数据集为WFLW数据集,共有10000张图像,其中7500张作为训练集,2500张作为测试集。
与现有技术相比,本发明具有以下有益效果:
1、本发明与传统的基于驾驶员生理信号以及车辆驾驶行为的疲劳驾驶检测方法相比,主要是用深度学习模型对目标驾驶图像进行检测,具有无接触,成本低,使用方便等特点。
2、本发明通过对驾驶员眼部、嘴部、头部姿态等疲劳特征进行检测,对驾驶员出现疲劳状态进行识别,并做出报警响应,能够提高疲劳驾驶的检测速度和效率。
3、本发明通过对驾驶员疲劳状态做出即时预警,有效防止因疲劳状态而引发的交通事故。
附图说明
图1为本发明的原理流程图;
图2为本发明中PFLD多任务模型的网络结构示意图;
图3为本发明中人脸98点人脸关键点位置分布图;
图4为本发明中头部姿态图。
具体实施方式
下面结合附图将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1-4,一种基于深度学习与面部特征的疲劳驾驶检测方法,具体步骤如下:
S1:收集戴眼镜、不戴眼镜、戴墨镜的疲劳驾驶视频,并将视频分帧,得到图像数据集;
这里主要采用YawDD数据集,YawDD数据集为疲劳驾驶检测的标准数据集,它包含不同种族、性别的驾驶员在不同环境下的驾驶视频,包含正常驾驶、唱歌、说话,打哈欠等场景;
这里采集驾驶员驾驶状态视频,对视频进行帧提取,得到驾驶员状态的图像信息。由于驾驶图像存在背景复杂等问题,本发明对驾驶员图像进行直方图均衡化以及中值滤波的处理,并且针对驾驶员图像数据集在低光环境下曝光度低的问题,对驾驶员图像进行低光增强等预处理。
S2:训练人脸检测模型,构建并训练YOLOV5模型,采用训练好的YOLOV5模型检测算法对输入图像的人脸区域进行检测,对识别出的人脸进行对齐处理,将对齐后的人脸图像进行归一化处理并裁剪出人脸区域;
这里YOLO模型是将检测任务当成一个回归问题,使用一个神经网络,直接从图像中预测出边界框(bounding boxes)的坐标,box中包含物体的置信度和类别probabilities,由于YOLO的物体检测流程是在一个神经网络里完成的,所以可以端到端来优化物体检测性能。不像其他物体检测框架使用了滑窗或region proposal,分类器只能得到图像的局部信息,YOLO在训练和测试时都能够看到整张图像的信息,因此YOLO在检测物体时能很好的利用上下文信息,从而不容易在背景上预测出错误的物体信息。训练集采用widerface数据集,测试集采用FDDB数据集。
S3:训练人脸关键点与头部姿态学习模型并部署,构建并训练PFLD模型,将通过YOLOV5模型得到的人脸区域输入到PFLD模型,使用PFLD模型对人脸关键点与头部姿态进行检测,得到人脸的关键点及头部姿态角信息;
这里对PFLD模型进行改进,将PFLD模型的主干网络Mobile net替换为轻量级网络Shuffle Net,Shuffle Net的使用可以降低深度网络计算量,是可以在移动设备上运行的深度网络。改进后的PFLD模型所用数据集为WFLW数据集,共有10000张图像,其中7500张作为训练集,2500张作为测试集。其中,人脸关键点信息可以反应头部姿态的信息,同时头部姿态的信息可以提高人脸关键点检测的准确率。
S4:针对眼部、嘴部、头部疲劳特征评价指标给出疲劳判断,采用PERCLOS评判准则对眼部信息进行疲劳判定,采用双阈值哈欠检测法对嘴部疲劳信息进行疲劳判定,采用pitch方向上头部姿态角度的估计结果对头部姿态进行疲劳判定。
S5:判断每张图像眼部的疲劳状态,根据眼部关键点的位置信息,计算眼部纵横比EAR,判断眼部纵横比是否小于0.23,左眼及右眼的EAR需要分别计算;如果小于,则判断该张图像眼部为疲劳状态;然后由EAR值,计算PERCLOS值,PERCLOS超过40%且眼睛持续闭合的时间长于3秒,则判定眼部处于疲劳状态,其中PERCLOS定义为眼部为疲劳状态的图像占所有图像的比例;计算公式如下:
其中,EARleft为左眼的眼部纵横比,EARright为右眼的眼部纵横比;N表示单位时间内的总帧数,fn表示单位时间段内是否属于闭眼,如果处于闭眼状态,则fn为1,否则,fn为0,Pi(i=61,62,63,......75)对应图2中标注的眼部关键点。
S6:判断每张图像嘴部的疲劳状态,根据嘴部关键点信息,计算嘴部纵横比MAR,判断嘴部纵横比是否小于0.3,如果小于,则判断该张图像嘴部为疲劳状态;然后由MAR值,计算PERCLOS值,PERCLOS超过40%且嘴巴持续闭合的时间长于3秒,则判定嘴部处于疲劳状态,其中,PERCLOS定义为嘴部为疲劳状态的图像占所有图像的比例;计算公式如下:
其中,M表示单位时间内的总帧数,fm表示单位时间段内是否属于打哈欠,如果处于打哈欠状态,则fm为1,否则,fm为0,Pi(i=88,89,......95)对应图2中标注的嘴部关键点。
S7:判断每张图像头部状态的疲劳状态,对于头部姿态,这里头部姿态估计是将面部2D图像经过计算机视觉技术的处理转换到对应的3D空间中。首先是在2D图像中进行估计,然后利用得到的关键点坐标转换到3D空间中。在3D空间中,头部姿态可以用pitch、yaw、roll三个欧拉角来表示。其中pitch是指围绕X轴旋转,表示点头的上下动作。Yaw是指围绕Y轴旋转,表示左右摇头的动作。Roll是指围绕Z轴旋转,表示做左右偏头动作。由于驾驶员疲劳状态时,往往伴随点头动作,所以本发明以pitch为头部姿态评价指标。当pitch值大于10度且小于15度时,持续5帧为一次点头动作,累计15次点头动作即视为疲劳状态;当pitch值大于15度时,持续5帧为一次低头动作,持续10次低头动作即可视为疲劳状态。
S8:综合判断,根据眼部、嘴部、头部的疲劳状态,根据一定的权值分配综合判断驾驶员的疲劳状态,计算公式如下:
W=αWeye+βWmouth+γWhead
其中,Weye表示眼部的疲劳状态,Wmouth表示嘴部的疲劳状态,Whead表示头部的疲劳状态,将相关系统α、β、γ分别设为0.5、0.2、0.3;当W大于等于0.5时,则判断驾驶员处于疲劳状态。
本实施例中,在人脸检测模型中,深度学习模型的检测目标类别数目为1,即是否图像中检测到人脸,设置训练学习率为0.0001,训练轮数epoch为50,每批次训练图片数batch_size为8,训练用于检测人脸的YOLOV5深度学习模型,直至模型收敛。
在人脸关键点检测模型中,设置训练学习率为0.001,训练轮数epoch为200,每批次训练图片数为4,训练用于检测人脸关键点与头部姿态的PFLD深度学习模型,直至模型收敛。
综上所述,本发明通过对眼睛、嘴巴、头部姿态等驾驶员面部特征对驾驶员进行疲劳检测,具有准确性高,成本低,非接触式等优点。
本发明中披露的说明和实践,对于本技术领域的普通技术人员来说,都是易于思考和理解的,且在不脱离本发明原理的前提下,还可以做出若干改进和润饰。因此,在不偏离本发明精神的基础上所做的修改或改进,也应视为本发明的保护范围。
Claims (4)
1.一种基于深度学习与面部特征的疲劳驾驶检测方法,其特征在于,具体步骤如下:
S1:收集戴眼镜、不戴眼镜、戴墨镜的疲劳驾驶视频,并将视频分帧,得到图像数据集;
S2:训练人脸检测模型,构建并训练YOLOV5模型,采用训练好的YOLOV5模型检测算法对输入图像的人脸区域进行检测,对识别出的人脸进行对齐处理,将对齐后的人脸图像进行归一化处理并裁剪出人脸区域;
S3:训练人脸关键点与头部姿态学习模型并部署,构建并训练PFLD模型,将通过YOLOV5模型得到的人脸区域输入到PFLD模型,使用PFLD模型对人脸关键点与头部姿态进行检测,得到人脸的关键点及头部姿态角信息;
S4:针对眼部、嘴部、头部疲劳特征评价指标给出疲劳判断,采用PERCLOS评判准则对眼部信息进行疲劳判定,采用双阈值哈欠检测法对嘴部疲劳信息进行疲劳判定,采用pitch方向上头部姿态角度的估计结果对头部姿态进行疲劳判定;
S5:对于根据眼部关键点的位置信息,计算眼部纵横比EAR,判断眼部纵横比是否小于0.23,左眼及右眼的EAR需要分别计算;如果小于,则判断该张图像眼部为疲劳状态;然后由EAR值,计算PERCLOS值,PERCLOS超过40%且眼睛持续闭合的时间长于3秒,则判定眼部处于疲劳状态,其中PERCLOS定义为眼部为疲劳状态的图像占所有图像的比例;计算公式如下:
其中,EARleft为左眼的眼部纵横比,EARright为右眼的眼部纵横比;N表示单位时间内的总帧数,fn表示单位时间段内是否属于闭眼,如果处于闭眼状态,则fn为1,否则,fn为0,Pi(i=61,62,63,......75)对应标注的眼部关键点;
S6:对于嘴部关键点信息,计算嘴部纵横比MAR,判断嘴部纵横比是否小于0.3,如果小于,则判断该张图像嘴部为疲劳状态;然后由MAR值,计算PERCLOS值,PERCLOS超过40%且嘴巴持续闭合的时间长于3秒,则判定嘴部处于疲劳状态,其中,PERCLOS定义为嘴部为疲劳状态的图像占所有图像的比例;计算公式如下:
其中,M表示单位时间内的总帧数,fm表示单位时间段内是否属于打哈欠,如果处于打哈欠状态,则fm为1,否则,fm为0,Pi(i=88,89,......95)对应标注的嘴部关键点;
S7:对于头部姿态,采用pitch为头部姿态评价指标,当pitch值大于10度且小于15度时,持续5帧为一次点头动作,累计15次点头动作即视为疲劳状态;当pitch值大于15度时,持续5帧为一次低头动作,持续10次低头动作即可视为疲劳状态;
S8:根据眼部、嘴部、头部的疲劳状态,根据权值分配综合判断驾驶员的疲劳状态,计算公式如下:
W=αWeye+βWmouth+γWhead
其中,Weye表示眼部的疲劳状态,Wmouth表示嘴部的疲劳状态,Whead表示头部的疲劳状态,将相关系统α、β、γ分别设为0.5、0.2、0.3;当W大于等于0.5时,则判断驾驶员处于疲劳状态。
2.根据权利要求1所述的一种基于深度学习与面部特征的疲劳驾驶检测方法,其特征在于,在S1中,采用YawDD数据集,YawDD数据集为疲劳驾驶检测的标准数据集,它包含不同种族、性别的驾驶员在不同环境下的驾驶视频,包含正常驾驶、唱歌、说话,打哈欠场景。
3.根据权利要求1所述的一种基于深度学习与面部特征的疲劳驾驶检测方法,其特征在于,在S2中,人脸检测模型,采用Widerface数据集为训练数据集,FDDB数据集为测试数据集。
4.根据权利要求1所述的一种基于深度学习与面部特征的疲劳驾驶检测方法,其特征在于,在S3中,对PFLD模型进行改进,将PFLD模型的主干网络Mobile net替换为轻量级网络Shuffle Net,改进后的PFLD模型所用数据集为WFLW数据集,共有10000张图像,其中7500张作为训练集,2500张作为测试集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211030586.7A CN115393830A (zh) | 2022-08-26 | 2022-08-26 | 一种基于深度学习与面部特征的疲劳驾驶检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211030586.7A CN115393830A (zh) | 2022-08-26 | 2022-08-26 | 一种基于深度学习与面部特征的疲劳驾驶检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115393830A true CN115393830A (zh) | 2022-11-25 |
Family
ID=84122525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211030586.7A Pending CN115393830A (zh) | 2022-08-26 | 2022-08-26 | 一种基于深度学习与面部特征的疲劳驾驶检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393830A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117079255A (zh) * | 2023-10-17 | 2023-11-17 | 江西开放大学 | 一种基于人脸识别和语音交互的疲劳驾驶检测方法 |
CN117495384A (zh) * | 2023-11-07 | 2024-02-02 | 广州准捷电子科技有限公司 | 一种基于ai人脸识别技术的ktv刷脸支付方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532976A (zh) * | 2019-09-03 | 2019-12-03 | 湘潭大学 | 基于机器学习和多特征融合的疲劳驾驶检测方法及系统 |
CN114120423A (zh) * | 2021-12-07 | 2022-03-01 | 北京中星天视科技有限公司 | 人脸图像检测方法、装置、电子设备和计算机可读介质 |
CN114170069A (zh) * | 2021-11-25 | 2022-03-11 | 杭州电子科技大学上虞科学与工程研究院有限公司 | 一种基于连续多张照片的闭眼自动处理方法 |
CN114220158A (zh) * | 2022-02-18 | 2022-03-22 | 电子科技大学长三角研究院(湖州) | 基于深度学习的疲劳驾驶检测方法 |
CN114360041A (zh) * | 2022-01-06 | 2022-04-15 | 重庆邮电大学 | 基于关键点检测和头部姿态的疲劳状态检测方法及系统 |
-
2022
- 2022-08-26 CN CN202211030586.7A patent/CN115393830A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532976A (zh) * | 2019-09-03 | 2019-12-03 | 湘潭大学 | 基于机器学习和多特征融合的疲劳驾驶检测方法及系统 |
CN114170069A (zh) * | 2021-11-25 | 2022-03-11 | 杭州电子科技大学上虞科学与工程研究院有限公司 | 一种基于连续多张照片的闭眼自动处理方法 |
CN114120423A (zh) * | 2021-12-07 | 2022-03-01 | 北京中星天视科技有限公司 | 人脸图像检测方法、装置、电子设备和计算机可读介质 |
CN114360041A (zh) * | 2022-01-06 | 2022-04-15 | 重庆邮电大学 | 基于关键点检测和头部姿态的疲劳状态检测方法及系统 |
CN114220158A (zh) * | 2022-02-18 | 2022-03-22 | 电子科技大学长三角研究院(湖州) | 基于深度学习的疲劳驾驶检测方法 |
Non-Patent Citations (2)
Title |
---|
景芙蓉: "基于深度学习的疲劳驾驶检测研究与实现", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》, vol. 2022, no. 01, pages 4 * |
郑伟成 等: "基于深度学习的疲劳驾驶检测算法", 《计算机工程》, vol. 46, no. 07, pages 1 - 6 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117079255A (zh) * | 2023-10-17 | 2023-11-17 | 江西开放大学 | 一种基于人脸识别和语音交互的疲劳驾驶检测方法 |
CN117079255B (zh) * | 2023-10-17 | 2024-01-05 | 江西开放大学 | 一种基于人脸识别和语音交互的疲劳驾驶检测方法 |
CN117495384A (zh) * | 2023-11-07 | 2024-02-02 | 广州准捷电子科技有限公司 | 一种基于ai人脸识别技术的ktv刷脸支付方法 |
CN117495384B (zh) * | 2023-11-07 | 2024-04-26 | 广州准捷电子科技有限公司 | 一种基于ai人脸识别技术的ktv刷脸支付方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11783601B2 (en) | Driver fatigue detection method and system based on combining a pseudo-3D convolutional neural network and an attention mechanism | |
CN115393830A (zh) | 一种基于深度学习与面部特征的疲劳驾驶检测方法 | |
CN108549854B (zh) | 一种人脸活体检测方法 | |
CN100592322C (zh) | 照片人脸与活体人脸的计算机自动鉴别方法 | |
CN202257856U (zh) | 驾驶员疲劳驾驶监控装置 | |
Chen et al. | Driver fatigue detection based on facial key points and LSTM | |
CN111062292B (zh) | 一种疲劳驾驶检测装置与方法 | |
CN107491769A (zh) | 基于AdaBoost算法的疲劳驾驶检测方法及系统 | |
CN202130312U (zh) | 一种驾驶员疲劳驾驶监控装置 | |
CN108596087B (zh) | 一种基于双网络结果的驾驶疲劳程度检测回归模型 | |
CN112016429A (zh) | 基于火车驾驶室场景下疲劳驾驶检测方法 | |
CN109740477A (zh) | 驾驶员疲劳检测系统及其疲劳检测方法 | |
CN109165630A (zh) | 一种基于二维人眼识别的疲劳监测方法 | |
CN114005167A (zh) | 基于人体骨骼关键点的远距离视线估计方法和装置 | |
CN113989788A (zh) | 一种基于深度学习和多指标融合的疲劳检测方法 | |
CN115937830A (zh) | 一种面向特种车辆的驾驶员疲劳检测方法 | |
CN108108651B (zh) | 基于视频人脸分析的驾驶员非专心驾驶检测方法及系统 | |
CN113887386B (zh) | 基于深度学习和机器学习的多特征融合的疲劳检测方法 | |
CN114155512A (zh) | 一种基于3d卷积网络多特征融合的疲劳检测方法及系统 | |
CN113343926A (zh) | 一种基于卷积神经网络的驾驶员疲劳检测方法 | |
CN112926364B (zh) | 头部姿态的识别方法及系统、行车记录仪和智能座舱 | |
CN107977622A (zh) | 基于瞳孔特征的眼睛状态检测方法 | |
CN112395900A (zh) | 基于YOLOv3算法的疲劳驾驶状态检测算法 | |
Wang et al. | An improved image-based iris-tracking for driver fatigue detection system | |
CN114998874A (zh) | 一种基于深度学习的驾驶员异常行为检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |