CN107784292A - 基于阵列镜头的驾驶员疲劳状态识别方法 - Google Patents
基于阵列镜头的驾驶员疲劳状态识别方法 Download PDFInfo
- Publication number
- CN107784292A CN107784292A CN201711089469.7A CN201711089469A CN107784292A CN 107784292 A CN107784292 A CN 107784292A CN 201711089469 A CN201711089469 A CN 201711089469A CN 107784292 A CN107784292 A CN 107784292A
- Authority
- CN
- China
- Prior art keywords
- msub
- image
- mrow
- array
- fatigue state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 210000001508 eye Anatomy 0.000 claims description 46
- 230000001815 facial effect Effects 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 14
- 230000004399 eye closure Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000013517 stratification Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于阵列镜头的驾驶员疲劳状态识别方法,包括:利用阵列镜头获取阵列图像组,对阵列图像组进行超分辨率重建,得到高清图像;根据高清图像,利用人脸检测算法提取人脸区域图像;根据人脸区域图像,确定人眼区域位置;根据确定的人眼区域位置,识别眼睛状态;根据眼睛状态,识别疲劳状态。本发明利用阵列镜头获取阵列图像组,对阵列图像组进行处理,结合人脸检测、人眼识别、人眼闭合状态检测等,识别驾驶员的疲劳状态,识别结果较为准确,具有自适应能力。
Description
技术领域
本发明涉及一种基于阵列镜头的驾驶员疲劳状态识别方法,属于图像处理及计算机视觉处理技术领域。
背景技术
现有的驾驶员疲劳状态检测方法主要分为以下三种:
第一种是基于驾驶员生理信号的检测,该检测方法主要是通过检测脑电图、心电图、肌电图等一系列生理特征的变化作为检测标准,该方法需要对驾驶员的身体特定部位进行检查,影响驾驶员的正常驾驶行为,且实时性差;
第二种是基于驾驶员的操作行为和车辆状态的检测,此类方法是利用驾驶员对方向盘操作时出现的一些特性,以及汽车在一定时间内的行驶轨迹来判断驾驶员是否处于疲劳状态,该方法主要依赖于车载技术实现;
第三种是基于驾驶员的面部器官行为特征的检测,即,通过眼睛、嘴巴、鼻子等面部器官的一些行为特征和几何特征来判断疲劳状态,例如,通过检测人眼睁开幅度、眨眼频率和闭眼时间等眼部状态信息,可以反映出驾驶员的疲劳状况,这种方法可通过图像处理及计算机视觉技术实现。现有的基于面部特征检测疲劳状态的方法,基于单幅图像进行处理、检测,动态场景下的识别准确率不高,且没有考虑个体面部特征差异。
发明内容
鉴于上述原因,本发明的目的在于提供一种基于阵列镜头的驾驶员疲劳状态识别方法,利用阵列镜头获取阵列图像组,对阵列图像组进行处理,结合人脸检测、人眼识别、人眼闭合状态检测等,识别驾驶员的疲劳状态,识别结果较为准确,具有自适应能力。
为实现上述目的,本发明采用以下技术方案:
一种基于阵列镜头的驾驶员疲劳状态识别方法,包括:
利用阵列镜头获取阵列图像组,对阵列图像组进行超分辨率重建,得到高清图像;
根据高清图像,利用人脸检测算法提取人脸区域图像;
根据人脸区域图像,确定人眼区域位置;
根据确定的人眼区域位置,识别眼睛状态;
根据眼睛状态,识别疲劳状态。
对阵列图像进行超分辨率重建的方法是:
对所述阵列镜头进行标定,得到阵列镜头的内参数;该阵列镜头由若干镜头模组按照N*M阵列形式排列组合而成;
利用所述阵列镜头撷取阵列图像组,利用相应镜头的内参数对阵列图像中的相应图像进行校正,得到校正后的阵列图像组;
对校正后的阵列图像组,进行多视立体匹配;
利用多视立体匹配的结果,通过双线性插值得到初始高分辨率图像;
对初始高分辨率图像进行优化。
所述多视立体匹配的方法是:
从校正后的阵列图像组中选取位于中心位置的图像作为参考图像,将参考图像的每个像素点作为网格点,建立空间曲面网,初始深度设为0;将场景空间沿参考图像的主轴方向划分成若干深度层,建立深度集合L;两两深度层的间隔根据两相邻深度层在参考图像上对应的像素位置差确定;
根据公式:
确定每个网格点的深度,其中fx∈L,N是参考图像相邻像素集合,其中Dx(fx)表示参考图像像素点X在深度fx处的灰度一致性,表示参考图像两相邻像素点x1,x2分别取深度对应的光滑能量项;
求解能量函数确定每个网格点的深度,基于MRF模型算法得到参考图像上每个像素的深度,得到场景的重建表面。
在每个像素的当前深度附近再划分若干子深度层,并进行优化重建,直到像素距离差小于设定的距离阈值。
所述得到初始高分辨率图像的方法是:
输入的低分辨率阵列图像组是满足如下条件建立高分辨率图像的降质模型:
gk=DBPkS+nk (2)
其中,k表示阵列镜头的序号,D表示下采样矩阵,B表示模糊矩阵,Pk表示第k幅图像的投影矩阵;S表示理想高分辨率图像,其像素大小为qN1×qN2,q为采样比例,gk是低分辨率阵列图像序列,每一帧大小为N1×N2,gk由低分辨率阵列图像组排列而成,即gk=[g1,g2,...gN*M]。
利用AdaBoost算法提取所述人脸区域图像。
所述确定人眼区域位置的方法是:
根据所述人脸区域图像,裁剪得到上半部人脸图像;
对该上半部人脸图像进行二值化处理,将处理后的图像中的小面积连通域和噪点删除;
采用八邻域标记算法标记出图像中的连通域;利用几何矩算法求每个连通域的质心点,标记每个质心点的坐标位置,基于眼睛的几何分布特征确定眼睛的质心点坐标。
所述识别眼睛状态的方法是:采用PCA算法计算出个体完全睁眼和完全闭眼时,分别对应的灰度化后眼睛区域的最大灰度值和最小灰度值,通过灰度投影法计算后续眼睛状态的灰度变化值,依据当前灰度变化值与最大灰度值、最小灰度值之间的关系,识别眼睛状态。
计算非疲劳状态下的波峰的平均值、疲劳状态下的波谷的平均值,计算两平均值的平均值,将得到的平均值作为疲劳状态判断阈值。
本发明的优点是:
1、本发明的驾驶员疲劳状态识别方法,利用阵列镜头重叠的小光圈代替单个镜头的一个大光圈,可获得更多的图像信息,利用阵列图像的相互信息可重建出更加清晰的图像;
2、本发明的驾驶员疲劳状态识别方法,利用阵列镜头获取同一时间的阵列图像组,在阵列图像组的基础上进行图像处理,对于动态场景,避免了帧间运动估计问题,图像更为清晰、完整;
3、本发明的驾驶员疲劳状态识别方法,对获取的阵列图像组进行处理,结合人脸检测、人眼识别、人眼闭合状态检测等方法,识别驾驶员的疲劳状态,识别结果较为准确;
4、本发明的驾驶员疲劳状态识别方法,根据不同个体的眼部特征进行疲劳状态识别,具有良好的自适应性。
附图说明
图1是本发明的方法流程示意图。
图2是本发明的图像超分辨率重建方法流程示意图。
具体实施方式
以下结合附图和实施例对本发明作进一步详细的描述。
如图1、2所示,本发明公开的基于阵列镜头的驾驶员疲劳状态识别方法,包括:
S1:对阵列镜头进行标定,得到阵列镜头的内参数;
阵列镜头由若干镜头模组按照N*M阵列形式排列组合而成,对N*M个镜头进行标定。
S2:利用阵列镜头撷取阵列图像组,利用相应镜头的内参数对阵列图像中的相应图像进行校正,得到校正后的阵列图像组;
N*M个镜头撷取N*M个图像,构成阵列图像组,对其中的每个图像,利用相应的镜头内参数进行校正,得到校正后的阵列图像组。
S3:对校正后的阵列图像组,进行多视立体匹配;
从校正后的阵列图像组中选取位于中心位置的图像作为参考图像,将参考图像的每个像素点作为网格点,建立空间曲面网,初始深度设为0。将场景空间沿参考图像的主轴方向划分成若干深度层,建立深度集合L。两两深度层的间隔可以根据两相邻深度层在参考图像上对应的像素位置差确定。
根据公式:
确定每个网格点的深度d,其中fx∈L,N是参考图像相邻像素集合,其中Dx(fx)表示参考图像像素点X在深度fx处的灰度一致性,可以表示为除参考图像的其他图像与参考图像在深度为fx时的投影点的归一化互相关(normalized cross-correlation)均值。表示参考图像两相邻像素点x1,x2分别取深度对应的光滑能量项。不同的Dx(fx)和可以得到不同的深度重建效果。
求解能量函数确定每个网格点的深度,基于MRF模型算法得到参考图像上每个像素的深度,得到场景的重建表面。
由于图像的超分辨率重建要求亚像素级的图像配准,在上述得到的参考图像深度层的基础上,在每个像素的当前深度附近再划分若干子深度层,即,重复上述过程,进行更细的等距深度分层(如d/2),并进行优化重建,直到像素距离差小于阈值σ<1,得到运动估计参数S0。
S4:利用多视立体匹配的结果,通过双线性插值得到初始高分辨率图像;
输入的低分辨率阵列图像组是满足如下条件建立高分辨率图像的降质模型:
针对同一场景的阵列图像组图像,成像系统以奈奎斯特频率采样,得到理想高分辨率图像S;高分辨率图像S依次经过变形、下采样、添加噪声后得到低分辨率观测图像序列gk。
图像降质模型如下:
gk=DBPkS+nk (2)
其中,k表示阵列镜头的序号,k=1,2,...,N*M;D表示下采样矩阵,B表示模糊矩阵,Pk表示第k幅图像的投影矩阵。
理想高分辨率图像S的大小为qN1×qN2像素,其中q为采样比例,gk是低分辨率阵列图像序列,每一帧大小为N1×N2,gk由低分辨率阵列图像组排列而成,即gk=[g1,g2,…gN*M]。
同一场景的阵列图像组图像进行下采样,下采样后进行平移,模糊得到同一时刻的阵列图像组。
S5:对得到的初始高分辨率图像进行优化,得到高清图像;
对得到的初始高分辨率图像进行滤波降噪、光照补偿等处理,得到优化后的高分辨率图像,得到一幅完整清晰的图像。
S6:根据高清图像,利用人脸检测算法提取人脸区域图像;
基于AdaBoost算法,对人脸区域进行提取。通过训练多个弱分类器,并将分类器组合成强分类器。最初,训练集中每个样本所对应的权重大小是一样的,将样本排好序进行分类,找分类误差最小的区间,然后判断此时的样本是否有错分情况,如果有样本分类错误,则将加大样本权值,若样本分类正确就降低它的权重。于是,被错误分类的样本就更加凸显,从而又形成一个新的样本,也就形成第一个弱分类器h1(x)。然后再把这个新形成的弱分类器再一次分类,得到弱分类器h2(x),如此这样,经过T次迭代循环训练,最后可以训练得到T个弱分类器,然后再将这T个弱分类器叠加起来组合成强分类器,用于最后的人脸检测。
S7:根据人脸区域图像,确定人眼区域位置;
在人脸区域图像的基础上,根据三庭五眼原则,人眼在脸部的上半部分,裁剪得到上半部人脸图像。
对上半部人脸图像进行二值化处理,然后,采用形态学处理方法对二值化处理后的上半部人脸图像进行预处理,将其中的小面积连通域和部分噪点全部删除。
对于预处理后的上半部人脸图像,采用八邻域标记算法标记出图像中的连通域;然后,利用几何矩算法求取每个连通域的质心点,标记每个质心点的坐标位置,然后基于眼睛的几何分布特征确定最终的眼睛质心点坐标。
S8:根据确定的人眼区域位置,识别眼睛状态;
考虑到不同驾驶员眼睛的差异性,为了能够精准识别不同个体的眼睛状态,首先,采用PCA算法计算出个体完全睁眼和完全闭眼时,分别对应的灰度化后眼睛区域的最大灰度值h1和最小灰度值h2,然后,通过灰度投影法计算后续眼睛状态的灰度变化值,依据当前灰度变化值与最大灰度值、最小灰度值之间的关系,识别眼睛状态(睁开、闭合)。
S9:根据眼睛状态,判断疲劳状态。
以实时视频每60秒为一个时间统计段,重复上述步骤S1-S8,利用阵列镜头获取多个阵列图像组,得到多个眼睛状态;求取PERCLOS值(Percentage of Eyelid Closure overthe Pupil,瞳孔闭合率,瞳孔闭合时间占检测总时间的百分比),即,根据采集视频中的每一帧高清图像对应的眼镜状态(瞳孔状态),计算:
PERCLOS=(瞳孔闭合帧数/检测时间内总帧数)*100%
计算非疲劳状态下的波峰的平均值、疲劳状态下的波谷的平均值,再对两种状态下的平均值再次平均,将得到的平均值作为疲劳状态判断阈值P,测试过程中,若计算得到的PERCLOS值大于阈值P则判定驾驶员处于疲劳状态,进行疲劳预警,提醒驾驶员安全驾驶。
根据出行习惯,可认定上午时段为驾驶员清醒时段。连续记录上午时段驾驶员眼部特征和轮廓大小,将其作为驾驶员的非疲劳状态特征。之后,如果检测过程中出现驾驶员眼部闭合过于频繁,超过阈值P时,可判断为驾驶疲劳。依本发明的方法可以对不同驾驶员建立相应的特征背景,相较于传统单一的检测系统具有更好的自适应能力。
以上所述是本发明的较佳实施例及其所运用的技术原理,对于本领域的技术人员来说,在不背离本发明的精神和范围的情况下,任何基于本发明技术方案基础上的等效变换、简单替换等显而易见的改变,均属于本发明保护范围之内。
Claims (9)
1.基于阵列镜头的驾驶员疲劳状态识别方法,其特征在于,包括:
利用阵列镜头获取阵列图像组,对阵列图像组进行超分辨率重建,得到高清图像;
根据高清图像,利用人脸检测算法提取人脸区域图像;
根据人脸区域图像,确定人眼区域位置;
根据确定的人眼区域位置,识别眼睛状态;
根据眼睛状态,识别疲劳状态。
2.根据权利要求1所述的基于阵列镜头的驾驶员疲劳状态识别方法,其特征在于,对阵列图像进行超分辨率重建的方法是:
对所述阵列镜头进行标定,得到阵列镜头的内参数;该阵列镜头由若干镜头模组按照N*M阵列形式排列组合而成;
利用所述阵列镜头撷取阵列图像组,利用相应镜头的内参数对阵列图像中的相应图像进行校正,得到校正后的阵列图像组;
对校正后的阵列图像组,进行多视立体匹配;
利用多视立体匹配的结果,通过双线性插值得到初始高分辨率图像;
对初始高分辨率图像进行优化。
3.根据权利要求2所述的基于阵列镜头的驾驶员疲劳状态识别方法,其特征在于,所述多视立体匹配的方法是:
从校正后的阵列图像组中选取位于中心位置的图像作为参考图像,将参考图像的每个像素点作为网格点,建立空间曲面网,初始深度设为0;将场景空间沿参考图像的主轴方向划分成若干深度层,建立深度集合L;两两深度层的间隔根据两相邻深度层在参考图像上对应的像素位置差确定;
根据公式:
<mrow>
<mi>E</mi>
<mrow>
<mo>(</mo>
<mi>f</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>E</mi>
<mrow>
<mi>d</mi>
<mi>a</mi>
<mi>t</mi>
<mi>a</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>f</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>E</mi>
<mrow>
<mi>s</mi>
<mi>m</mi>
<mi>o</mi>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>f</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>x</mi>
<mo>&Element;</mo>
<msub>
<mi>g</mi>
<mn>5</mn>
</msub>
</mrow>
</msub>
<msub>
<mi>D</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>f</mi>
<mi>x</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mo>{</mo>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mo>}</mo>
<mo>&Element;</mo>
<mi>N</mi>
</mrow>
</msub>
<msub>
<mi>V</mi>
<mrow>
<mo>{</mo>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mo>}</mo>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>f</mi>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
</msub>
<mo>,</mo>
<msub>
<mi>f</mi>
<msub>
<mi>d</mi>
<mn>2</mn>
</msub>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
确定每个网格点的深度,其中fx∈L,N是参考图像相邻像素集合,其中Dx(fx)表示参考图像像素点X在深度fx处的灰度一致性,表示参考图像两相邻像素点x1,x2分别取深度对应的光滑能量项;
求解能量函数确定每个网格点的深度,基于MRF模型算法得到参考图像上每个像素的深度,得到场景的重建表面。
4.根据权利要求3所述的基于阵列镜头的驾驶员疲劳状态识别方法,其特征在于,在每个像素的当前深度附近再划分若干子深度层,并进行优化重建,直到像素距离差小于设定的距离阈值。
5.根据权利要求4所述的基于阵列镜头的驾驶员疲劳状态识别方法,其特征在于,所述得到初始高分辨率图像的方法是:
输入的低分辨率阵列图像组是满足如下条件建立高分辨率图像的降质模型:
gk=DBPkS+nk (2)
其中,k表示阵列镜头的序号,D表示下采样矩阵,B表示模糊矩阵,Pk表示第k幅图像的投影矩阵;S表示理想高分辨率图像,其像素大小为qN1×qN2,q为采样比例,gk是低分辨率阵列图像序列,每一帧大小为N1×N2,gk由低分辨率阵列图像组排列而成,即gk=[g1,g2,...gN*M]。
6.根据权利要求5所述的基于阵列镜头的驾驶员疲劳状态识别方法,其特征在于,利用AdaBoost算法提取所述人脸区域图像。
7.根据权利要求6所述的基于阵列镜头的驾驶员疲劳状态识别方法,其特征在于,所述确定人眼区域位置的方法是:
根据所述人脸区域图像,裁剪得到上半部人脸图像;
对该上半部人脸图像进行二值化处理,将处理后的图像中的小面积连通域和噪点删除;
采用八邻域标记算法标记出图像中的连通域;利用几何矩算法求每个连通域的质心点,标记每个质心点的坐标位置,基于眼睛的几何分布特征确定眼睛的质心点坐标。
8.根据权利要求7所述的基于阵列镜头的驾驶员疲劳状态识别方法,其特征在于,所述识别眼睛状态的方法是:采用PCA算法计算出个体完全睁眼和完全闭眼时,分别对应的灰度化后眼睛区域的最大灰度值和最小灰度值,通过灰度投影法计算后续眼睛状态的灰度变化值,依据当前灰度变化值与最大灰度值、最小灰度值之间的关系,识别眼睛状态。
9.根据权利要求8所述的基于阵列镜头的驾驶员疲劳状态识别方法,其特征在于,计算非疲劳状态下的波峰的平均值、疲劳状态下的波谷的平均值,计算两平均值的平均值,将得到的平均值作为疲劳状态判断阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711089469.7A CN107784292A (zh) | 2017-11-08 | 2017-11-08 | 基于阵列镜头的驾驶员疲劳状态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711089469.7A CN107784292A (zh) | 2017-11-08 | 2017-11-08 | 基于阵列镜头的驾驶员疲劳状态识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107784292A true CN107784292A (zh) | 2018-03-09 |
Family
ID=61432732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711089469.7A Pending CN107784292A (zh) | 2017-11-08 | 2017-11-08 | 基于阵列镜头的驾驶员疲劳状态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107784292A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344711A (zh) * | 2018-08-30 | 2019-02-15 | 中国地质大学(武汉) | 一种基于睡意程度的服务机器人主动服务方法 |
CN109635682A (zh) * | 2018-11-26 | 2019-04-16 | 上海集成电路研发中心有限公司 | 一种人脸识别装置和方法 |
CN109800682A (zh) * | 2018-12-29 | 2019-05-24 | 桂林电子科技大学 | 驾驶员属性识别方法及相关产品 |
CN113655877A (zh) * | 2020-05-12 | 2021-11-16 | 华为技术有限公司 | 显示调整方法和设备 |
CN116671900A (zh) * | 2023-05-17 | 2023-09-01 | 安徽理工大学 | 一种基于脑波仪的眨眼识别与控制方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622600A (zh) * | 2012-02-02 | 2012-08-01 | 西南交通大学 | 基于面像与眼动分析的高速列车驾驶员警觉度检测方法 |
CN106203338A (zh) * | 2016-07-11 | 2016-12-07 | 南京航空航天大学 | 基于网格区域分割和阈值自适应的人眼状态快速识别方法 |
CN206133869U (zh) * | 2016-11-02 | 2017-04-26 | 纳智源科技(唐山)有限责任公司 | 疲劳驾驶监控装置及可穿戴设备 |
-
2017
- 2017-11-08 CN CN201711089469.7A patent/CN107784292A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622600A (zh) * | 2012-02-02 | 2012-08-01 | 西南交通大学 | 基于面像与眼动分析的高速列车驾驶员警觉度检测方法 |
CN106203338A (zh) * | 2016-07-11 | 2016-12-07 | 南京航空航天大学 | 基于网格区域分割和阈值自适应的人眼状态快速识别方法 |
CN206133869U (zh) * | 2016-11-02 | 2017-04-26 | 纳智源科技(唐山)有限责任公司 | 疲劳驾驶监控装置及可穿戴设备 |
Non-Patent Citations (3)
Title |
---|
刘刚: "基于阵列相机的图像测量技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
廖建国: "基于眼动特征的驾驶员疲劳驾驶检测技术研究", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》 * |
邹建成等: "基于阵列图像立体匹配的深度信息获取方法", 《北方工业大学学报》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344711A (zh) * | 2018-08-30 | 2019-02-15 | 中国地质大学(武汉) | 一种基于睡意程度的服务机器人主动服务方法 |
CN109344711B (zh) * | 2018-08-30 | 2020-10-30 | 中国地质大学(武汉) | 一种基于睡意程度的服务机器人主动服务方法 |
CN109635682A (zh) * | 2018-11-26 | 2019-04-16 | 上海集成电路研发中心有限公司 | 一种人脸识别装置和方法 |
CN109800682A (zh) * | 2018-12-29 | 2019-05-24 | 桂林电子科技大学 | 驾驶员属性识别方法及相关产品 |
CN113655877A (zh) * | 2020-05-12 | 2021-11-16 | 华为技术有限公司 | 显示调整方法和设备 |
CN116671900A (zh) * | 2023-05-17 | 2023-09-01 | 安徽理工大学 | 一种基于脑波仪的眨眼识别与控制方法 |
CN116671900B (zh) * | 2023-05-17 | 2024-03-19 | 安徽理工大学 | 一种基于脑波仪的眨眼识别与控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107784292A (zh) | 基于阵列镜头的驾驶员疲劳状态识别方法 | |
CN110837784B (zh) | 一种基于人体头部特征的考场偷窥作弊检测系统 | |
Liu et al. | Automated macular pathology diagnosis in retinal OCT images using multi-scale spatial pyramid and local binary patterns in texture and shape encoding | |
CN108875642A (zh) | 一种多指标融合的驾驶员疲劳检测的方法 | |
CN110084259A (zh) | 一种结合面部纹理和光流特征的面瘫分级综合评估系统 | |
CN108309311A (zh) | 一种列车驾驶员实时盹睡检测装置及检测算法 | |
CN110147738B (zh) | 一种驾驶员疲劳监测预警方法及系统 | |
CN108664947A (zh) | 一种基于表情识别的疲劳驾驶预警方法 | |
CN104123549B (zh) | 一种用于疲劳驾驶实时监测的眼睛定位方法 | |
CN110335266B (zh) | 一种智能中医目诊图像处理方法及装置 | |
CN106250801A (zh) | 基于人脸检测和人眼状态识别的疲劳检测方法 | |
CN108491784A (zh) | 面向大型直播场景的单人特写实时识别与自动截图方法 | |
CN108596087B (zh) | 一种基于双网络结果的驾驶疲劳程度检测回归模型 | |
CN107085715A (zh) | 一种电视智能检测用户睡眠状态的系统及方法 | |
CN105825503A (zh) | 基于视觉显著性的图像质量评价方法 | |
CN104574819B (zh) | 一种基于嘴巴特征的疲劳驾驶检测方法 | |
CN111507227A (zh) | 基于深度学习的多学生个体分割及状态自主识别方法 | |
CN113822157A (zh) | 一种基于多分支网络和图像修复的戴口罩人脸识别方法 | |
CN107480635A (zh) | 一种基于双模态分类模型融合的扫视信号识别方法及系统 | |
Broussard et al. | Using artificial neural networks and feature saliency techniques for improved iris segmentation | |
He et al. | Diabetic retinopathy grade and macular edema risk classification using convolutional neural networks | |
Ghassabi et al. | A unified optic nerve head and optic cup segmentation using unsupervised neural networks for glaucoma screening | |
Sharma et al. | Development of a drowsiness warning system based on the fuzzy logic | |
CN109558797A (zh) | 基于视觉刺激下的重心面积模型区分人体平衡障碍的方法 | |
CN113095297B (zh) | 一种基于一维投影跟踪眼动速率的疲劳检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180309 |
|
WD01 | Invention patent application deemed withdrawn after publication |