CN115798019B - 基于计算机视觉的实训驾驶平台智能预警方法 - Google Patents

基于计算机视觉的实训驾驶平台智能预警方法 Download PDF

Info

Publication number
CN115798019B
CN115798019B CN202310015142.4A CN202310015142A CN115798019B CN 115798019 B CN115798019 B CN 115798019B CN 202310015142 A CN202310015142 A CN 202310015142A CN 115798019 B CN115798019 B CN 115798019B
Authority
CN
China
Prior art keywords
area
sliding
region
degree
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310015142.4A
Other languages
English (en)
Other versions
CN115798019A (zh
Inventor
王一
王继
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Xingke Intelligent Technology Co ltd
Original Assignee
Shandong Xingke Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Xingke Intelligent Technology Co ltd filed Critical Shandong Xingke Intelligent Technology Co ltd
Priority to CN202310015142.4A priority Critical patent/CN115798019B/zh
Publication of CN115798019A publication Critical patent/CN115798019A/zh
Application granted granted Critical
Publication of CN115798019B publication Critical patent/CN115798019B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及图像处理领域,具体涉及基于计算机视觉的实训驾驶平台智能预警方法,包括:获取各个面部图像的感兴趣区域;获取各个滑动区域中各个像素点的卷积结果,根据各个滑动区域中各个像素点的卷积结果得到各个滑动区域的卷积结果变化程度;根据相邻滑动区域的卷积结果变化程度得到各个滑动区域的混淆度;根据各个滑动区域的混淆度得到各个标记区域;获取各个标记区域的第一差异程度与第二差异程度;获取各个标记区域的灰度分布方差,进而得到各个标记区域的混淆对称度;根据各个标记区域的混淆对称度得到眼睛区域以及对应的眼睛纵横比;根据参考纵横比得到各个疲劳率,根据各个疲劳率进行预警。本发明更加准确、快速。

Description

基于计算机视觉的实训驾驶平台智能预警方法
技术领域
本发明涉及图像处理领域,具体涉及基于计算机视觉的实训驾驶平台智能预警方法。
背景技术
随着智能驾驶技术和AI技术的快速发展,汽车行业正在变的更加的智能化,汽车学习和训练的平台也越来越智能化,实训驾驶平台基于强大的计算力和学习功能,能够帮助学员进行更多方面的训练,例如可以展示车辆的三维结构,不仅训练学员驾驶汽车的能力,还能够帮助学员拆装汽车机构,学习更全面的汽车知识。
在实训驾驶过程中,平台需要根据学员的驾驶情况进行判断,对不符合驾驶规范的行为进行预警,及时纠正学员在训练过程中出现的不标准驾驶行为,使得训练后的学员不仅具有较为完备的汽车知识还具有良好的驾驶规范,这样才能保证实训后学员的驾驶能力逐渐提升。
平台的智能预警方法是通过视频分析或者图像处理的方法为基础,采集学员在实训过程中的行为操作,通过对行为操作的分析判断车辆状态与安全状态的差异大小,通过差异大小决定是否需要发出预警信息,但是这种方法无法对学员自身状态进行检测,例如,当学员处于疲劳驾驶状态时,学员的行为操作可能不存在异常,但是由于疲劳驾驶状态会使学员在行车过程中出现突发状况时的反应能力大幅下降,因此还需要在学员处于疲劳驾驶状态时进行预警。
发明内容
本发明提供基于计算机视觉的实训驾驶平台智能预警方法,以解决现有的问题。
本发明的基于计算机视觉的实训驾驶平台智能预警方法采用如下技术方案:
本发明一个实施例提供了基于计算机视觉的实训驾驶平台智能预警方法,该方法包括以下步骤:
获取学员实训驾驶过程中采集的各个面部图像以及所得各个面部图像的面部灰度曲线,得到各个面部图像的感兴趣区域;
使用卷积模板在各个感兴趣区域中进行滑动,得到各个滑动区域,根据各个滑动区域中各个像素点的灰度值得到各个滑动区域中各个像素点的卷积结果,根据所得卷积结果得到各个滑动区域的卷积结果变化程度;根据相邻滑动区域的卷积结果变化程度得到各个滑动区域的混淆度;
根据各个滑动区域的混淆度得到各个标记区域;获取各个标记区域的第一区域以及第二区域,根据各个标记区域的第一区域以及第二区域中各个像素点的卷积结果得到各个标记区域的第一差异程度与第二差异程度;根据各个标记区域各个像素点的灰度值得到各个标记区域的灰度分布方差,根据各个标记区域的第一差异程度与第二差异程度以及各个标记区域的灰度分布方差得到各个标记区域的混淆对称度;
根据各个标记区域的混淆对称度得到各个面部图像的眼睛区域,根据各个眼睛区域中上眼睑、下眼睑以及内外眼角对应的像素点坐标得到各个眼睛区域的眼睛纵横比;
以学员正常状态下的眼睛纵横比为参考纵横比,根据各个眼睛纵横比以及参考纵横比得到各个疲劳率,根据各个疲劳率进行预警。
优选的,所述各个滑动区域的卷积结果变化程度的步骤包括:
将各个滑动区域中,处于卷积模板第一区域中的各个像素点的卷积结果与处于卷积模板第二区域中的各个像素点的卷积结果之间差值的绝对值,得到各个像素点之间的卷积结果变化程度;将所得所有卷积结果变化程度之间的方差作为各个滑动区域的卷积结果变化程度。
优选的,所述各个滑动区域的混淆度的获取方法为:
计算各个滑动区域的卷积结果变化程度与相邻滑动区域的卷积结果变化程度之间的平方差,计算相邻滑动区域中所有像素点卷积结果的累加和,将所得平方差与所得累加和之间的比值作为各个滑动区域的混淆度。
优选的,所述各个标记区域的第一差异程度与第二差异程度的获取方法为:
将各个标记区域中处于第一区域的各个像素点的卷积结果之间差值的绝对值,得到各个第一绝对值;将所得所有第一绝对值的累加和作为各个标记区域的第一差异程度;将各个标记区域中处于第二区域的各个像素点的卷积结果之间差值的绝对值,得到各个第二绝对值,将所得所有第二绝对值的累加和作为各个标记区域的第二差异程度。
优选的,所述各个标记区域的混淆对称度的获取方法包括:
计算各个标记区域的第一差异程度与第二差异程度之间差值的绝对值,将各个标记区域的灰度分布方差与所得绝对值之间的比值作为各个标记区域的混淆对称度。
本发明的有益效果是:针对学员在实训驾驶过程中的驾驶状态进行检测并判断是否需要发出预警信息,传统的面部图像处理中,通过肤色,表情等条件去判断的局限性过大,忽略了学员个体之间的差异,根据眼睛的结构特点构建了混淆度和混淆对称度的指标,用于获取学员在实训驾驶过程中眼睛的具体位置,混淆度考虑了在滑动过程中不同区域内像素点与卷积模板的卷积结果之间的变化程度,混淆度可以充分利用卷积模板上下对称的特征增强眼睛内部不同区域像素点之间的差异,提高眼睛区域检测结果的精准度;混淆对称度利用眼睛关于瞳孔左右对称的特点进行计算,消除了由于学员个体差异ROI区域内可能出现额外人脸特征,例如泪痣等的影响;最终通过眼睛纵横比计算疲劳率,从而判断学员是否处于疲劳驾驶的异常状态,可以对具有不同面部特征的学员的疲劳状态能够实现精准快速的识别,从而实现实训驾驶平台的智能预警。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的基于计算机视觉的实训驾驶平台智能预警方法的步骤流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的基于计算机视觉的实训驾驶平台智能预警方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的基于计算机视觉的实训驾驶平台智能预警方法的具体方案。
请参阅图1,其示出了本发明一个实施例提供的基于计算机视觉的实训驾驶平台智能预警方法的步骤流程图,该方法包括以下步骤:
步骤S001:获取学员实训驾驶过程中采集的各个面部图像以及所得各个面部图像的面部灰度曲线,得到各个面部图像的感兴趣区域。
对于实训驾驶而言,学员实训的日常驾驶场景中,公路上的人员不会像现实生活中那么不稳定,除此之外,道路自身上涂绘,包括交通标志和道路边缘线这些都是非常清晰的,学员不会因为这方面的干扰而出现异常驾驶的状态。在实训驾驶平台来说,异常驾驶大多是学员在驾驶过程中的发生了预警系统认为的异常行为。
在本实施例中,在驾驶位置前方安装小型摄像头,用于采集驾驶过程中学员的面部图像,摄像头的范围需要覆盖整个人脸区域,其清晰度越高,对采集到的面部图像进行灰度化处理,将所得灰度图作为学员的面部图像;对于每个实训驾驶的学员,连续采集N帧面部图像,每帧采集一张面部图像,N的值可自行设定,本实施例中设置的N=10,即共采集10个面部图像;由于汽车在驾驶过程中会产生干扰噪声,因此需要对所得各个面部图像进行去噪处理,常见的图像去噪技术包括均值滤波去噪,中值滤波去噪,双边滤波去噪等,为了保留面部图像中足够多的边缘信息,本实施例利用双边滤波去噪技术对各个面部图像进行预处理。
步骤S002:获取各个滑动区域以及各个滑动区域中各个像素点的卷积结果,根据所得卷积结果得到各个滑动区域的卷积结果变化程度;根据相邻滑动区域的卷积结果变化程度得到各个滑动区域的混淆度。
智能预警的前提是平台在学员实训驾驶过程中识别出了学员的异常驾驶行为,通常情况下,面部图像中有关异常驾驶行为的信息是疲劳驾驶居多,学员的面部出现了非正常驾驶状态的表情,这些表情在面部图像中表现为不同区域像素点之间的不同变化。
疲劳驾驶可以通过面部器官,如眼睛,嘴巴等部位的状态进行判断,其中眼部状态是判断学员驾驶状态的重要指标,本实施例中眼部状态的获取过程主要分为两个步骤,分别是眼睛区域的粗定位以及眼部状态的精确检测。根据人脸先验知识,眼部位于面部图像的上半部分区域中,且由于眼睛是成对出现的,位于人脸的中庭线以上,上庭线以下的区域。而当学员在实训驾驶过程中处于疲劳状态时,眼睛处于闭眼状态,半闭眼状态都是有可能的,此时的眼部状态相较于正常驾驶过程中的眼部状态会出现明显的差异;
对于人脸部特征来说,各部分的灰度分布有一定区别表现,人的眉毛、眼睛、鼻子和嘴巴等部位所在区域内像素点的灰度值相对于人脸皮肤区域的灰度值要低,如果遍历整个面部图像,这些部位所在区域内的像素点会在整个面部图像对应的灰度曲线上会产生一个个的局部极小值,此时曲线中这些一个个极小值地方就是每个器官的位置。
因此对于任意一个面部图像,本实施例利用水平积分投影法得到该面部图像的面部灰度曲线,积分投影法为公知技术,具体过程不再详细赘述;其中面部灰度曲线中的一个点(r,s)表示在面部图像中的第r行上所有像素点灰度值的累加和为s,记面部灰度曲线的横轴为面部图像的行数,纵轴为每一行上所有像素点灰度值的累加和,当面部灰度曲线中,纵坐标第一次下降时对应的是面部图像中的眉毛的位置,当纵坐标第二次下降时,对应的是面部图像中的眼睛区域的大致位置,因此本实施例获取面部灰度曲线中纵坐标第二次下降产生的峰谷对应的行数,所得所有行数构成了面部图像中的感兴趣区域,即ROI区域,由此得到各个面部图像中的各个ROI区域,后续需要对所得各个ROI区域进一步分析,从而得到各个ROI区域中的眼睛区域;
此时的ROI区域中包括人的面部皮肤区域以及人的眼睛区域,即人的左眼和右眼,而人的左右眼是近似对称的,因此ROI区域可以看成一个左右对称区域,计算所得ROI区域中最大横坐标与最小横坐标的平均值,以所得平均值所在列为分割线,所得分割线也是ROI区域的对称线,使用分割线将ROI区域平均分为左右两个区域,得到ROI区域的左侧区域以及右侧区域;
其中左侧区域中的区域边缘-内眼角、内眼角-对称线以及右侧区域中的外眼角-区域边缘、对称线-内眼角之间的区域为面部皮肤区域,因此左侧区域中从左到右依次为面部皮肤区域、眼白区域、眼球区域、瞳孔区域、眼球区域、眼白区域以及面部皮肤区域;右侧区域中从左到右依次为面部皮肤区域、眼白区域、眼球区域、瞳孔区域、眼球区域、眼白区域以及面部皮肤区域,因此ROI区域从左到右的像素点的灰度值是不均匀变化的;
当学员在实训驾驶过程中处于疲劳状态时,人眼区域会发生多种变化,例如打瞌睡时,眼睛睁开的幅度较小,或者学员本身的眼睛相较于常人就偏小等等,此时由于人的面部皮肤会占据ROI区域内大部分面积,眼睛区域的特征较少,因此很难准确确定眼睛的实际状态,也就难以准确确定学员是否处于疲劳驾驶状态;
本实施例利用眼睛在ROI区域中的位置不变的特点,以ROI区域左上角的顶点为原点建立直角坐标系,即以ROI区域中最小横坐标与最小纵坐标对应的像素点为原点,设置大小为4*4的卷积模板,该卷积模板是由两个大小形状相同的矩形区域构成的,卷积模板的第一行与第二行中的各个元素值为0,第三行与第四行中的各个元素值为255,本实施例中将卷积模板的第一行与第二行构成的区域称为卷积模板的第一区域;将卷积模板的第三行与第四行构成的区域称为卷积模板的第二区域;
使用卷积模板对ROI区域进行卷积处理,将卷积模板的左上角顶点与原点重合时的位置作为起始卷积位置,以卷积模板为滑动区域,按照从上到下从左到右的顺序在ROI区域内滑动,每次滑动一个像素距离,在滑动过程中,当整个卷积模板都处于面部皮肤区域中,由于面部皮肤区域中灰度差异较小,因此所得卷积结果也是基本不变的,而随着眼睛中不同位置上的灰度变化得到的卷积结果也会逐渐发生变化。
本实施例使用混淆度表征卷积模板每一次滑动得到的卷积结果的变化程度,对于第n次滑动,将卷积模板区域称为第n次滑动对应的滑动区域,则滑动区域的混淆度可以表示为:
式中,是指第n-1次滑动对应的滑动区域;p,q均为滑动区域中的像素点,其中p为处于卷积模板的第二区域中的任意一个像素点;q为处于卷积模板的第一区域中的任意一个像素点;为像素点p的卷积结果,该值为像素点p在ROI区域中对应像素点的灰度值分别与卷积模板上的各个元素值相乘,将所得所有相乘结果的累加和作为像素点p的卷积结果;为像素点q的卷积结果;是指第n次滑动对应的滑动区域;i,j均为滑动区域中的像素点,其中i为处于卷积模板的第二区域中的任意一个像素点;j为处于卷积模板的第一区域中的任意一个像素点;为像素点i的卷积结果;为像素点j的卷积结果;是第n-1次滑动对应的滑动区域中第m个像素点的卷积结果,M是滑动区域内包含的像素点的数量;
为第n次滑动对应的滑动区域中像素点i、j对应卷积结果之间差值的绝对值,用以表征像素点i、j对应的卷积结果变化程度;
是第n次滑动的滑动区域对应的分布方差,用以表征第n次滑动对应滑动区域的卷积结果变化程度,该值的获取过程为:计算第n次滑动的滑动区域中,处于卷积模板第一区域中的各个像素点与处于卷积模板第二区域中的各个像素点之间的卷积结果变化程度,将所得各个卷积结果变化程度的方差作为第n次滑动对应滑动区域的卷积结果变化程度;是第n-1次滑动的滑动区域对应的分布方差,用以表征第n-1次滑动对应滑动区域的卷积结果变化程度,本实施例通过对各个滑动区域的卷积结果变化程度的平方放大相邻两次滑动的分布方差之间的差异,即放大相邻两次卷积结果变化程度之间的差异,由于面部皮肤区域、眼白区域、眼球区域以及瞳孔区域内部灰度值相差较小,而不同区域之间的灰度值相差较大,因此当相邻两次卷积结果之间的变化程度越大,滑动区域为ROI区域中不同区域交界处的可能性越大,此时滑动区域中包含多个区域的概率也越大,对应该滑动区域中对应的混淆度越高;
在利用卷积模板从上到下,从左到右的逐行遍历整个ROI区域的过程中,对每一次滑动区域对应的混淆度进行判断,当第n次滑动的滑动区域对应的混淆度大于0,认为该第n次滑动得到的滑动区域处于ROI区域中不同部位对应区域的交界处,而ROI区域中除了面部皮肤区域,剩余的所有区域均为本实施例期望提取的眼睛区域,因此当第n次滑动得到的滑动区域处于ROI区域中不同部位的交界处时,也意味着该滑动区域内存在眼睛区域像素点,此时将该滑动区域在ROI区域内对应的区域进行标记,得到该滑动区域对应的标记区域;否则不对该滑动区域进行标记,依次对各个滑动区域进行判断,得到各个标记区域。
步骤S003:根据各个滑动区域的混淆度得到各个标记区域;根据各个标记区域的第一差异程度与第二差异程度以及各个标记区域的灰度分布方差,得到各个标记区域的混淆对称度;根据各个标记区域的混淆对称度得到各个面部图像的眼睛区域。
由于一个滑动区域的混淆度大于0时,表示该滑动区域内存在眼睛区域像素点,此时滑动区域内包含眼睛像素点可能较少,即该滑动区域可能并非全部位于眼睛区域,因此上述所得标记像素点并不完全是眼睛像素点,本实施例进一步根据眼睛自身的内部结构,由于内外眼角两点之间的距离是最大的,眼白区域内像素点全是白色像素,且关于瞳孔左右两边对称,也就是说在一个标记区域内,如果卷积模板完全在眼白区域内,对应的混淆度是接近于0的,如果该标记区域中同时包含不同区域的像素点,区域对应的混淆度是较大的值,因此本实施例构建混淆对称度,用于表征一个标记区域内不同区域内像素点的对称情况,首先将各个标记区域平均分为左右两份,分别记为各个标记区域的第一区域与第二区域,则对于任意一个标记区域A,该标记区域的混淆对称度
式中,是标记区域A的第一区域内,像素点a,b对应的卷积结果之间差值的绝对值,记为像素点a,b对应的第一绝对值,是标记区域A的第一区域中包含的像素点数量;是标记区域A的第二区域内的两个像素点g,d对应的卷积结果之间差值的绝对值,记为像素点g,d对应的第二绝对值,是标记区域A的第二区域中包含的像素点数量;是标记区域A内所有像素点对应灰度值的分布方差,即标记区域A的灰度分布方差。
分别为标记区域A的第一区域以及第二区域对应的变化差异程度,分别记为标记区域A的第一差异程度与第二差异程度;混淆对称度为滑动过程中标记区域内眼睛组成结构与卷积模板滑动位置的关系,混淆对称度越高,滑动区域全部位于眼白区域和眼球区域的概率越高。
当卷积模板完全滑动到眼白区域时,所得标记区域内像素点几乎是一致的,则对应该标记区域左右两侧对应的卷积结果一致,即接近于0,此时得到的是一个较大的值;当卷积模板完全落于眼球区域时,所得标记区域内像素点是上下对称的,标记区域左右两侧对应的卷积结果也是比较接近的,即接近于0,而眼球区域内部像素点的灰度值受到虹膜影响,使得眼球区域内对应的标记区域A的灰度分布方差是一个较大值,由此得到的也是一个较大的值;而对于不会存在面部皮肤区域的像素点的标记区域,因此这些区域左右两侧对应的变化差异程度相差较大,由此得到的较小,即各个标记区域中,不同标记区域的混淆对称度从小到大排序依次为:存在面部皮肤区域的标记区域,眼白区域以及眼球区域,且不同的部位对应的标记区域的混淆对称度相差较大,此时根据各个像素点的混淆对称度,使用区域生长算法进行区域分析,将具有最小混淆对称度的区域进行剔除,则剩余的区域即为学员的面部图像中眼睛的具体位置,区域生长算法为公知技术,在此不做详细赘述。
重复上述方法,得到各个面部图像对应的眼睛区域。
步骤S004:获取各个眼睛区域的眼睛纵横比;根据各个眼睛纵横比以及参考纵横比得到各个疲劳率,根据各个疲劳率进行预警。
对于左眼而言,获取眼睛上眼睑,下眼睑以及内外眼角处像素点的坐标,本实施例中分别取眼球区域左右两条切线与上下眼睑的交点,由此得到四个像素点,按照先纵坐标从小到大,再按照横坐标从小到大排序后,分别记为,其中为上眼睑对应的两个像素点;分别为下眼睑对应的两个像素点,且具有相同的横坐标;具有相同的横坐标,根据所得四个像素点的横纵坐标得到眼睛的纵向距离;
然后将处于ROI区域的左侧区域对应的眼睛区域的最大横坐标以及最小横坐标对应的两个像素点的坐标,分别作为ROI区域的左侧区域对应的右眼的内眼角的坐标和外眼角坐标;将获取处于ROI区域的右侧区域对应的眼睛区域的最大横坐标以及最小横坐标对应的两个像素点的坐标,分别作为ROI区域的右侧区域对应的左眼的外眼角的坐标和内眼角坐标,根据所得内外眼角的坐标得到眼睛的横向距离;
本实施例中,利用眼睛纵横比作为特征值,眼睛纵横比是通过上下眼睑之间的距离和内外眼角之间的距离计算的。学员在正常驾驶状态时,眼睛处于正常的睁开状态,人眼的上下眼睑之间的距离是不变的,而处于异常驾驶状态时,眼睛纵横比的值相对偏小。则对于左眼纵横比的计算公式如下:
式中,是上眼睑处的两个像素点,是下眼睑处的两个像素点;分别是左眼的内眼角与外眼角对应的像素点, 分别是点,点之间的欧式距离,两点之间的欧式距离。
重复上述方法,计算学员右眼纵横比,将左眼纵横比与纵横比之间的平均值作为实训过程中学员面部图像中眼睛纵横比
当学员进入汽车中,平台将根据汽车编号获取学员信息,根据学员信息获取学员正常状态下采集的面部图像对应的眼睛纵横比,以所得眼睛纵横比为参考纵横比,对比该学员在实训过程中的眼睛纵横比与学员正常状态下眼睛纵横比的大小,根据对比结果计算疲劳率
依次计算各个眼睛区域对应的眼睛纵横比,根据所得各个眼睛纵横比得到各个疲劳率,将所得各个疲劳率进行相加,当所得相加结果小于6时,认为学员未处于疲劳驾驶状态,否则认为学员处于疲劳驾驶状态,平台应该发出预警信息,提醒学员正常驾驶,从而保障人车安全。
通过以上步骤,完成实训驾驶平台的智能预警。
本实施例针对学员在实训驾驶过程中的驾驶状态进行检测并判断是否需要发出预警信息,传统的面部图像处理中,通过肤色,表情等条件去判断的局限性过大,忽略了学员个体之间的差异,根据眼睛的结构特点构建了混淆度和混淆对称度的指标,用于获取学员在实训驾驶过程中眼睛的具体位置,混淆度考虑了在滑动过程中不同区域内像素点与卷积模板的卷积结果之间的变化程度,混淆度可以充分利用卷积模板上下对称的特征增强眼睛内部不同区域像素点之间的差异,提高眼睛区域检测结果的精准度;混淆对称度利用眼睛关于瞳孔左右对称的特点进行计算,消除了由于学员个体差异ROI区域内可能出现额外人脸特征,例如泪痣等的影响;最终通过眼睛纵横比计算疲劳率,从而判断学员是否处于疲劳驾驶的异常状态,可以对具有不同面部特征的学员的疲劳状态能够实现精准快速的识别,从而实现实训驾驶平台的智能预警。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.基于计算机视觉的实训驾驶平台智能预警方法,其特征在于,该方法包括以下步骤:
获取学员实训驾驶过程中采集的各个面部图像以及所得各个面部图像的面部灰度曲线,得到各个面部图像的感兴趣区域;所述面部灰度曲线横轴为面部图像的行数,纵轴为每一行上所有像素点灰度值的累加和,获取面部灰度曲线中纵坐标第二次下降产生的峰谷对应的行数,所得所有行数构成了面部图像中的感兴趣区域;
使用卷积模板在各个感兴趣区域中进行滑动,得到各个滑动区域,根据各个滑动区域中各个像素点的灰度值得到各个滑动区域中各个像素点的卷积结果,根据所得卷积结果得到各个滑动区域的卷积结果变化程度;根据相邻滑动区域的卷积结果变化程度得到各个滑动区域的混淆度;
根据各个滑动区域的混淆度得到各个标记区域;将各个标记区域均匀分为左右两个区域,获取各个标记区域的第一区域以及第二区域,根据各个标记区域的第一区域以及第二区域中各个像素点的卷积结果得到各个标记区域的第一差异程度与第二差异程度;根据各个标记区域各个像素点的灰度值得到各个标记区域的灰度分布方差,根据各个标记区域的第一差异程度与第二差异程度以及各个标记区域的灰度分布方差得到各个标记区域的混淆对称度;
根据各个标记区域的混淆对称度得到各个面部图像的眼睛区域,根据各个眼睛区域中上眼睑、下眼睑以及内外眼角对应的像素点坐标得到各个眼睛区域的眼睛纵横比;
以学员正常状态下的眼睛纵横比为参考纵横比,根据各个眼睛纵横比以及参考纵横比得到各个疲劳率,根据各个疲劳率进行预警;
所述各个滑动区域的混淆度的获取方法为:
计算各个滑动区域的卷积结果变化程度与相邻滑动区域的卷积结果变化程度之间的平方差,计算相邻滑动区域中所有像素点卷积结果的累加和,将所得平方差与所得累加和之间的比值作为各个滑动区域的混淆度;
所述各个标记区域的混淆对称度的获取方法包括:
计算各个标记区域的第一差异程度与第二差异程度之间差值的绝对值,将各个标记区域的灰度分布方差与所得绝对值之间的比值作为各个标记区域的混淆对称度;
所述标记区域的获取方法包括:
在利用卷积模板从上到下,从左到右的逐行遍历整个感兴趣区域的过程中,对每一次滑动区域对应的混淆度进行判断,当滑动的滑动区域对应的混淆度大于0时,将滑动区域在感兴趣区域内对应的区域进行标记,获得标记区域。
2.根据权利要求1所述的基于计算机视觉的实训驾驶平台智能预警方法,其特征在于,所述各个滑动区域的卷积结果变化程度的步骤包括:
将各个滑动区域中,处于卷积模板第一区域中的各个像素点的卷积结果与处于卷积模板第二区域中的各个像素点的卷积结果之间差值的绝对值,得到各个像素点之间的卷积结果变变化程度;将所得所有卷积结果变化程度之间的方差作为各个滑动区域的卷积结果变化程度;所述卷积模板尺寸为4×4,第一行与第二行中的各个元素值为0,第三行与第四行中的各个元素值为255;将卷积模板的第一行与第二行构成的区域作为卷积模板第一区域;将卷积模板的第三行与第四行构成的区域作为卷积模板第二区域。
3.根据权利要求1所述的基于计算机视觉的实训驾驶平台智能预警方法,其特征在于,所述各个标记区域的第一差异程度与第二差异程度的获取方法为:
将各个标记区域中处于第一区域的各个像素点的卷积结果之间差值的绝对值,得到各个第一绝对值;将所得所有第一绝对值的累加和作为各个标记区域的第一差异程度;将各个标记区域中处于第二区域的各个像素点的卷积结果之间差值的绝对值,得到各个第二绝对值,将所得所有第二绝对值的累加和作为各个标记区域的第二差异程度。
CN202310015142.4A 2023-01-06 2023-01-06 基于计算机视觉的实训驾驶平台智能预警方法 Active CN115798019B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310015142.4A CN115798019B (zh) 2023-01-06 2023-01-06 基于计算机视觉的实训驾驶平台智能预警方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310015142.4A CN115798019B (zh) 2023-01-06 2023-01-06 基于计算机视觉的实训驾驶平台智能预警方法

Publications (2)

Publication Number Publication Date
CN115798019A CN115798019A (zh) 2023-03-14
CN115798019B true CN115798019B (zh) 2023-04-28

Family

ID=85428650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310015142.4A Active CN115798019B (zh) 2023-01-06 2023-01-06 基于计算机视觉的实训驾驶平台智能预警方法

Country Status (1)

Country Link
CN (1) CN115798019B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274963A (zh) * 2020-01-20 2020-06-12 西南科技大学 基于图像处理的疲劳驾驶预警系统
CN112241658A (zh) * 2019-07-17 2021-01-19 青岛大学 一种基于深度相机的疲劳驾驶预警系统及方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0202520D0 (en) * 2002-02-04 2002-03-20 Canon Kk Eye tracking in image data
CN103632136B (zh) * 2013-11-11 2017-03-29 北京天诚盛业科技有限公司 人眼定位方法和装置
CN106682603B (zh) * 2016-12-19 2020-01-21 陕西科技大学 一种基于多源信息融合的实时驾驶员疲劳预警系统
CN108256378A (zh) * 2016-12-29 2018-07-06 广州映博智能科技有限公司 基于眼球动作识别的驾驶员疲劳检测方法
CN107103294A (zh) * 2017-04-20 2017-08-29 上海耐相智能科技有限公司 一种基于移动智能手机的驾驶员疲劳检测系统
US10915769B2 (en) * 2018-06-04 2021-02-09 Shanghai Sensetime Intelligent Technology Co., Ltd Driving management methods and systems, vehicle-mounted intelligent systems, electronic devices, and medium
CN109902560A (zh) * 2019-01-15 2019-06-18 浙江师范大学 一种基于深度学习的疲劳驾驶预警方法
CN110807351A (zh) * 2019-08-28 2020-02-18 杭州勒格网络科技有限公司 一种基于人脸识别的智能化车载疲劳检测系统、方法及装置
CN112528843A (zh) * 2020-12-07 2021-03-19 湖南警察学院 一种融合面部特征的机动车驾驶人疲劳检测方法
CN113706964A (zh) * 2021-07-30 2021-11-26 山东星科智能科技股份有限公司 一种智能驾驶教学实训系统及自动驾驶车辆控制方法
CN113780125A (zh) * 2021-08-30 2021-12-10 武汉理工大学 一种驾驶员多特征融合的疲劳状态检测方法及装置
CN113869256A (zh) * 2021-10-08 2021-12-31 江汉大学 驾驶员疲劳检测方法、系统、设备及存储介质
CN114612885A (zh) * 2022-03-11 2022-06-10 广州翰南工程技术有限公司 基于计算机视觉的驾驶员疲劳状态检测方法
CN114663964A (zh) * 2022-05-24 2022-06-24 武汉理工大学 船舶远程驾驶行为状态监测预警方法、系统及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112241658A (zh) * 2019-07-17 2021-01-19 青岛大学 一种基于深度相机的疲劳驾驶预警系统及方法
CN111274963A (zh) * 2020-01-20 2020-06-12 西南科技大学 基于图像处理的疲劳驾驶预警系统

Also Published As

Publication number Publication date
CN115798019A (zh) 2023-03-14

Similar Documents

Publication Publication Date Title
CN108875642A (zh) 一种多指标融合的驾驶员疲劳检测的方法
CN110287790B (zh) 一种面向静态多人场景的学习状态混合分析方法
CN106980852B (zh) 基于角点检测与匹配的药品识别系统及其识别方法
CN111563452B (zh) 一种基于实例分割的多人体姿态检测及状态判别方法
CN104123549B (zh) 一种用于疲劳驾驶实时监测的眼睛定位方法
Wang et al. Blink detection using Adaboost and contour circle for fatigue recognition
CN107578008A (zh) 基于分块特征矩阵算法和svm的疲劳状态检测方法
CN111460950B (zh) 自然驾驶通话行为中基于头-眼证据融合的认知分心方法
CN103810491B (zh) 融合深度和灰度图像特征点的头姿估计兴趣点检测方法
CN108596087B (zh) 一种基于双网络结果的驾驶疲劳程度检测回归模型
CN110728241A (zh) 一种基于深度学习多特征融合的驾驶员疲劳检测方法
CN106250801A (zh) 基于人脸检测和人眼状态识别的疲劳检测方法
CN111126180B (zh) 一种基于计算机视觉的面瘫严重程度自动检测系统
CN105389554A (zh) 基于人脸识别的活体判别方法和设备
CN110837784A (zh) 一种基于人体头部特征的考场偷窥作弊检测系统
CN102567734B (zh) 基于比值的视网膜细小血管分割方法
CN105224285A (zh) 眼睛开闭状态检测装置和方法
CN104123543A (zh) 一种基于人脸识别的眼球运动识别方法
CN101941425A (zh) 对驾驶员疲劳状态的智能识别装置与方法
CN111553214B (zh) 一种驾驶员吸烟行为检测方法及系统
CN113158850B (zh) 基于深度学习的船舶驾驶员疲劳检测方法和系统
CN108108651B (zh) 基于视频人脸分析的驾驶员非专心驾驶检测方法及系统
CN111507227A (zh) 基于深度学习的多学生个体分割及状态自主识别方法
CN113887386A (zh) 基于深度学习和机器学习的多特征融合的疲劳检测方法
CN110796638B (zh) 毛孔检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant