CN111368580A - 一种基于视频分析的疲劳状态检测方法及装置 - Google Patents
一种基于视频分析的疲劳状态检测方法及装置 Download PDFInfo
- Publication number
- CN111368580A CN111368580A CN201811586932.3A CN201811586932A CN111368580A CN 111368580 A CN111368580 A CN 111368580A CN 201811586932 A CN201811586932 A CN 201811586932A CN 111368580 A CN111368580 A CN 111368580A
- Authority
- CN
- China
- Prior art keywords
- mouth
- fatigue
- eye
- module
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视频分析的疲劳状态检测方法及装置。其中,图像预处理模块负责对视频图像数据进行基于双边滤波方式的实时预处理;人脸及特征点检测模块负责通过引入多任务级联卷积神经网络实现人脸检测和关键点定位;眼睛和嘴巴区域提取模块负责通过特征点的位置信息对眼部和嘴部区域进行提取,从而实现对眼部和嘴部区域的定位;眼睛和嘴巴状态识别模块负责基于“Adaboost算法+Haar‑like特征”分别实现对眼睛和嘴巴状态识别的训练过程,以此实现对眼睛和嘴巴特定状态的识别;疲劳参数计算模块负责通过提取PERCLOS、眨眼频率、打哈欠三类参数,计算该人疲劳程度;疲劳状态判定模块负责基于上述疲劳参数以及预先设定的阈值,实现对疲劳状态的判定。
Description
技术领域
本发明涉及疲劳检测领域,特别是涉及一种基于视频分析的疲劳状态综合检测方法及装置。
背景技术
疲劳状态检测技术在交通运输、生产安全、教育培训等许多领域应用广泛。目前,疲劳状态检测的方法一般可分为接触式和非接触式两大类。
其中,接触式疲劳状态检测包括脑电波检测等方法,即通过采集脑电图频率分布和波形数据,分析大脑活动状态,从而判断是否存在疲劳状况,此种方法通常需要引入复杂设备,成本较高,而且脑电图结果数据易受个体差异和外界干扰等因素的影响,因此实际应用效果存在限制。
非接触式疲劳状态检测则主要基于视频分析手段来进行,比如通过分析该人的头部姿势是否存在向下倾斜、眼睛闭合情况等;另外还可以结合具体应用场景考虑引入更多特定的检测手段,比如在开展驾驶员疲劳状态检测时,可通过结合对车辆行驶状态的监测来综合判定驾驶员的疲劳状况。
总体而言,当前的疲劳状态检测技术存在识别精度低、信号源单一、实用性能差等问题。另外,针对某些单一场景而专门设计的特定技术方法又存在通用性差的问题,不利于进一步推广,从而限制了自身的实际应用前景。
发明内容
为了克服上述现有技术的不足,本发明在于提供一种相对通用的、非接触式疲劳状态综合检测方法,其基本功能流程如附图1所示。
其中,图像预处理模块负责实时接收外部网络摄像头端发送而来的视频图像数据,通过调用OpenCV库中的bilateralFilter接口对其进行双边滤波式实时预处理,并将处理结果发送给人脸及特征点检测模块。
人脸及特征点检测模块负责通过引入多任务级联卷积神经网络(MTCNN),利用3层级联架构配合卷积神经网络算法进行人脸检测和关键点定位。
眼睛和嘴巴区域提取模块通过眼部和嘴部周围特征点的位置信息来实现对眼部和嘴部区域的提取,从而实现对眼部和嘴部区域的定位。
眼睛和嘴巴状态识别模块负责基于“Adaboost算法+Haar-like特征”分别实现对眼睛和嘴巴状态识别的训练过程,以此实现对眼睛和嘴巴的特定状态的识别,例如闭合、张开等。
疲劳参数计算模块负责通过提取PERCLOS、眨眼频率、打哈欠等3类参数,计算该人的疲劳程度。
疲劳状态判定模块负责基于上述计算得出的疲劳参数,以及各自预先设定的阈值,实现对疲劳状态的判定。
与现有技术相比,本发明的有益效果是:本发明提供的是一种基于视频分析的非接触式疲劳状态综合检测方法,相对于现有技术,检测效果更佳、适用性更广。
附图说明
附图1为该方法的具体功能流程图。
附图2为PERCLOS参数计算示意图。
具体实施方式
下面结合附图对本发明进一步说明。
图像预处理模块负责实时接收外部网络摄像头端发送而来的视频图像数据,对其进行实时预处理并将处理结果发送给人脸及特征点检测模块。该模块主要用于改善图像质量,减少噪声干扰,从而提高检测效果。本发明中的图像预处理模块采用双边滤波方式,并通过调用OpenCV库中的bilateralFilter接口实现。
人脸及特征点检测模块通过引入多任务级联卷积神经网络(MTCNN),利用 3层级联架构配合卷积神经网络算法进行人脸检测和关键点定位。本发明在该模块中引入WIDERFACE和CelebA两大人脸库作为该模块的训练数据库,并将训练样本划分为4类标注数据:
1)正样本,随机选取的框与任何的实际人脸区域的重叠度(即 Intersection-over-Union,IoU)大于0.7;
2)负样本,IoU<0.4;
3)部分人脸样本,0.4≤IoU≤0.7;
4)地标人脸样本,标注五个特征点的人脸图。
其中正负样本用于人脸分类,正样本和部分人脸样本用于人脸边界框的回归,地标人脸样本用于人脸特征点定位。以上4类样本数量的比例设为1∶2∶1∶2,其中正样本、负样本和部分人脸样本从WIDER FACE人脸库随机裁剪图片获取,地标人脸样本从CelebA人脸库中随机裁剪图片获取。
眼睛和嘴巴区域提取模块用于实现对眼部和嘴部区域的定位。由于人脸特征点包含眼部和嘴部在图像中的位置信息,因此,本发明通过眼部和嘴部周围特征点的位置信息来实现对眼部和嘴部区域的提取。提取规则如下:
We=2.1*Xe
He=3.6*Ye
Wm=1.3*Xm
Hm=2.0*Ym
其中,Xe和Ye分别为特征点检测中眼部的宽度和高度,We和He分别为提取眼部区域的宽度和高度,Xm和Ym分别为特征点检测中嘴部的宽度和高度,Wm和Hm分别为提取嘴部区域的宽度和高度。
眼睛和嘴巴状态识别模块用于识别眼睛和嘴巴的特定状态,例如闭合、张开等。本发明基于“Adaboost算法+Haar-like特征”分别实现对眼睛和嘴巴状态识别的训练过程。训练过程如下:
1)输入样本集,在给定的矩形特征原型下,计算获取特征集;
2)输入特征集,根据给定的弱学习算法,确定阈值,将特征与弱分类器对应获得弱分类器集;
3)输入弱分类器集,在训练检出率和误判率限制下,使用Adaboost算法挑选最优弱分类器构成强分类器;
4)输入强分类器集,组合为级联分类器;
5)输入非人脸图片集,组合强分类器为临时级联分类器,筛选并补充非人脸样本。
其中的训练样本包括正样本和负样本两部分。以眼睛状态识别为例,由于该模块的目标是检测闭眼状态,因此,训练集中正样本为闭眼图片,负样本为睁眼图片以及其他图片。在样本制作方式上,考虑到目前公开的人眼及嘴巴数据库资源较少,本发明通过调用上述训练好的MTCNN模型基于公开的人脸库进行人脸检测,再结合眼睛及嘴巴区域提取模块对人眼和嘴巴进行截取实现样本的制作。
疲劳参数计算模块负责基于特定标准计算该人的疲劳程度。本发明中该模块主要通过提取PERCLOS、眨眼频率、打哈欠等三类参数进行疲劳状态的计算:
1)闭眼时间:指一定时间内闭眼时间所占的百分比。本发明采用PERCLOS 方法。该方法通常有三种度量标准:P70、P80、EM,本发明选择P80标准作为疲劳判断标准,即眼睛闭合面积超过80%的时间百分比,该值可通过如下公式计算得出:
如附图2所示,t3-t2是眼睛20%瞳孔闭合到20%瞳孔睁开程度所用的时间,t4-t1是眼睛80%瞳孔闭合到80%瞳孔睁开程度所用的时间。
由于时间和视频中图像序列是相对应的,所以可以利用帧的数量来计算 PERCLOS值:
2)眨眼频率:指单位时间内的眨眼次数,计算公式如下所示:
其中,n为当前检测时间内所有的眨眼次数,t帧为处理每帧的时间,N为当前统计时间内的总帧数。正常情况下,成年人清醒状态下的眨眼频率在12~15 次/分钟。若该人在一段时间内的眨眼频率过低(例如,低于7次/分钟),则可判定该人进入疲劳状态。
3)嘴巴张开(打哈欠):统计一段时间内嘴巴持续张开的时间,打哈欠参数的计算如下:
Fmouth=n/N
其中,n为统计时间内嘴巴张开状态的总帧数,N为统计时间内的总帧数。当该人打哈欠时,Fmouth达到最大值。正常状态下,人的嘴巴基本处于闭合状态,而当处于疲劳状态时往往伴随频繁的打哈欠行为。当该人频繁地与他人讲话时,嘴巴的状态为普通张开,当打哈欠时,其嘴巴处于张大状态。一般情况下,打哈欠是一个比较长的过程,并且嘴巴张开的幅度较大。因此,当嘴巴张开且持续一定的时间,则可判定为打哈欠状态。
疲劳状态判定模块负责基于上述计算得出的疲劳参数,以及各自预先设定的阈值,实现对疲劳状态的判定,判定过程如附图2所示。当PERCLOS值大于预先设定的阈值TP时,判定此人为疲劳状态;否则将对眨眼频率进行判断,当眨眼频率小于预先设定的Te时,判断为疲劳状态;否则将对此人的嘴巴张开状态进行判断,当嘴巴张开参数大于预先设定的Tm时,则判断此人存在打哈欠现象,判定此人为疲劳状态。
Claims (9)
1.一种基于视频分析的疲劳状态检测方法及装置,其特征在于:能够基于视频分析手段,实现相对通用的、非接触式的疲劳状态综合检测过程,具体包括图像预处理、人脸及特征点检测、眼睛和嘴巴区域提取、眼睛和嘴巴状态识别、疲劳参数计算、疲劳状态判定共计六个模块。
2.根据权利要求1所述的方法,其特征在于:所述图像预处理模块负责实时接收外部网络摄像头端发送而来的视频图像数据,并通过调用OpenCV库中的bilateralFilter接口,对其进行双边滤波式实时预处理,并将处理结果发送给人脸及特征点检测模块。
3.根据权利要求1所述的方法,其特征在于:所述人脸及特征点检测模块通过引入多任务级联卷积神经网络(MTCNN),利用三层级联架构配合卷积神经网络算法进行人脸检测和关键点定位;所述人脸及特征点检测模块引入WIDERFACE和CelebA两大公开人脸库作为其训练数据库,并将训练样本划分为4类标注数据:正样本、负样本、部分人脸样本、地标人脸样本,且4类样本数量的比例设定为1:2:1:2。
4.根据权利要求1所述的方法,其特征在于:所述眼睛和嘴巴区域提取模块通过眼部和嘴部周围特征点的位置信息来实现对眼部和嘴部区域的提取,从而实现对眼部和嘴部区域的定位;提取规则为,
We=2.1*Xe
He=3.6*Ye
Wm=1.3*Xm
Hm=2.0*Ym
其中Xe和Ye分别为权利要求3所述特征点检测中眼部的宽度和高度,We和He分别为提取眼部区域的宽度和高度,Xm和Ym分别为权利要求3所述特征点检测中嘴部的宽度和高度,Wm和Hm分别为提取嘴部区域的宽度和高度。
5.根据权利要求1所述的方法,其特征在于:所述眼睛和嘴巴状态识别模块基于“Adaboost算法+Haar-like特征”分别实现对眼睛和嘴巴状态识别的训练过程,以此实现对眼睛和嘴巴的特定状态的识别;训练样本包括正样本和负样本两部分,其获取过程通过调用权利要求3所述的MTCNN模型基于权利要求3所述的人脸库进行人脸检测,再结合权利要求4所述眼睛及嘴巴区域提取模块对人眼和嘴巴进行截取实现。
6.根据权利要求1所述的方法,其特征在于:所述疲劳参数计算模块通过提取PERCLOS、眨眼频率、打哈欠共计三类疲劳参数,计算该人的疲劳程度。
8.根据权利要求1所述的方法,其特征在于:所述疲劳状态判定模块基于权利要求6所述的疲劳参数,以及各自预先设定的阈值,实现对疲劳状态的综合判定。
9.根据权利要求8所述的方法,所述综合判定过程的特征在于:当PERCLOS值大于预先设定的阈值TP时,判定此人为疲劳状态;否则将对眨眼频率进行判断,当眨眼频率小于预先设定的Te时,判断为疲劳状态;否则将对此人的嘴巴张开状态进行判断,当嘴巴张开参数大于预先设定的Tm时,则判断此人存在打哈欠现象,判定此人为疲劳状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811586932.3A CN111368580A (zh) | 2018-12-25 | 2018-12-25 | 一种基于视频分析的疲劳状态检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811586932.3A CN111368580A (zh) | 2018-12-25 | 2018-12-25 | 一种基于视频分析的疲劳状态检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111368580A true CN111368580A (zh) | 2020-07-03 |
Family
ID=71207870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811586932.3A Pending CN111368580A (zh) | 2018-12-25 | 2018-12-25 | 一种基于视频分析的疲劳状态检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111368580A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686161A (zh) * | 2020-12-31 | 2021-04-20 | 遵义师范学院 | 基于神经网络的疲劳驾驶检测方法 |
-
2018
- 2018-12-25 CN CN201811586932.3A patent/CN111368580A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686161A (zh) * | 2020-12-31 | 2021-04-20 | 遵义师范学院 | 基于神经网络的疲劳驾驶检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108053615B (zh) | 基于微表情的驾驶员疲劳驾驶状态检测方法 | |
CN101593425B (zh) | 一种基于机器视觉的疲劳驾驶监控方法及系统 | |
CN108229362B (zh) | 一种基于门禁系统的双目人脸识别活体检测方法 | |
CN100592322C (zh) | 照片人脸与活体人脸的计算机自动鉴别方法 | |
CN107292251B (zh) | 一种基于人眼状态的驾驶员疲劳检测方法及系统 | |
CN111191573A (zh) | 一种基于眨眼规律识别的驾驶员疲劳检测方法 | |
CN111414813A (zh) | 一种危险驾驶行为的识别方法、装置、设备及存储介质 | |
CN107085715A (zh) | 一种电视智能检测用户睡眠状态的系统及方法 | |
CN110811649A (zh) | 一种基于生物电及行为特征融合的疲劳驾驶检测方法 | |
CN107798318A (zh) | 一种机器人识别面部快乐微表情的方法及其装置 | |
CN104361326A (zh) | 一种判别活体人脸的方法 | |
Jie et al. | Analysis of yawning behaviour in spontaneous expressions of drowsy drivers | |
CN110728185B (zh) | 一种判别驾驶人存在手持手机通话行为的检测方法 | |
CN111460950A (zh) | 自然驾驶通话行为中基于头-眼证据融合的认知分心方法 | |
CN108108651B (zh) | 基于视频人脸分析的驾驶员非专心驾驶检测方法及系统 | |
CN107862298B (zh) | 一种基于红外摄像装置下眨眼的活体检测方法 | |
Cheng et al. | A fatigue detection system with eyeglasses removal | |
Hirzi et al. | Literature study of face recognition using the viola-jones algorithm | |
CN105631410B (zh) | 一种基于智能视频处理技术的课堂检测方法 | |
CN111368580A (zh) | 一种基于视频分析的疲劳状态检测方法及装置 | |
Lee et al. | Distinction Between Real Faces and Photos by Analysis of Face Data. | |
CN105335695A (zh) | 一种基于眼镜检测的眼睛定位方法 | |
CN106446822B (zh) | 基于圆拟合的眨眼检测方法 | |
CN103366163A (zh) | 基于增量学习的人脸检测系统和方法 | |
CN114998874A (zh) | 一种基于深度学习的驾驶员异常行为检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Room 224, 2 / F, East Annex building, Zhongguancun Dongsheng science and Technology Park, No. 18 Xueqing Road, Haidian District, Beijing 100083 (Dongsheng area) Applicant after: Beijing Jinsi Technology Group Co.,Ltd. Address before: Room 224, 2 / F, East Annex building, Zhongguancun Dongsheng science and Technology Park, No. 18 Xueqing Road, Haidian District, Beijing 100083 (Dongsheng area) Applicant before: BEIJING ROSTEC TECHNOLOGY Co.,Ltd. |
|
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200703 |