CN108596087A - 一种基于双网络结果的驾驶疲劳程度检测回归模型 - Google Patents

一种基于双网络结果的驾驶疲劳程度检测回归模型 Download PDF

Info

Publication number
CN108596087A
CN108596087A CN201810368035.9A CN201810368035A CN108596087A CN 108596087 A CN108596087 A CN 108596087A CN 201810368035 A CN201810368035 A CN 201810368035A CN 108596087 A CN108596087 A CN 108596087A
Authority
CN
China
Prior art keywords
convolutional
convolution kernel
layer
convolutional layer
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810368035.9A
Other languages
English (en)
Other versions
CN108596087B (zh
Inventor
张中
牛雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Zhan Da Intelligent Technology Co Ltd
Original Assignee
Hefei Zhan Da Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Zhan Da Intelligent Technology Co Ltd filed Critical Hefei Zhan Da Intelligent Technology Co Ltd
Priority to CN201810368035.9A priority Critical patent/CN108596087B/zh
Publication of CN108596087A publication Critical patent/CN108596087A/zh
Application granted granted Critical
Publication of CN108596087B publication Critical patent/CN108596087B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于双网络结果的驾驶疲劳程度检测回归模型,包括以下步骤:S1、获取现有不同角度人脸数据集或收集固定、移动车内摄像头拍摄视频作为样本视频数据,并进行尺寸处理和人工标注;S2、将S1处理过的图片级输入第一个卷积网络,该卷积网络获得头部候选窗口以及头部状态;S3、将S2头部候选窗中不是低头的图片级处理后输入第二个卷积网络,获得人眼和嘴部状态;S4、将每分钟内低头、闭眼、打哈欠的次数输入回归模型中,用梯度下降算法优化参数,最后输出疲劳程度。本发明通过对人脸特征次数进行统计并通过建立回归模型实现疲劳检测。

Description

一种基于双网络结果的驾驶疲劳程度检测回归模型
技术领域
本发明涉及基于神经网络识别结果建立疲劳程度线性回归技术领域,具体是一种基于双网络结果的驾驶疲劳程度检测回归模型。
背景技术
预防事故的发生在一直是研究的热点之一,在过去的十年,许多研究人员一直在努力使用不同的技术对驾驶员监视系统进行开发。精确的检测技术是基于驾驶员像脑电波,心脏速率,脉搏速率和呼吸的生理现象。在这些基于人的生理反应的技术是通过两种方式实现:测量生理信号的变化,如脑电波、心脏速率和眨眼和测量人的姿势的变化,如点头的姿势,识别驾驶员的头部和眼睛的开/关状态。这种技术产生的疲劳数据相对准确的,但是感测电极都必须直接连接到驾驶员的身体上,给驾驶员驾驶带来了直接的困扰所以难以实现。长时间驾驶将导致在传感器排汗,削弱了其监测准确的能力。
现有技术CN106909879A提供了一种疲劳驾驶检测方法及系统,其中方法包括如下步骤:输入采集的驾驶员视频图像,利用预设的人脸特征分离器获取待检测人脸区域图像集;将待检测人脸区域图像集中所有人脸图像进行归一得到平均脸,根据平均脸获取待检测人脸区域图像集中某一人脸图像的初始关键点形状,通过预设的回归器计算初始关键点的偏差值,根据偏差结果更新关键点形状直至确定人脸区域内关键点的形状;根据确定的人脸区域关键点的形状获取眼睛关键点的位置,并提取对应的纹理特征,利用预设墨镜分类器判断用户是否佩戴眼睛,判断结果进行驾驶员疲劳状态的检测。该技术优点在于采用嵌入式智能设备,防止了驾驶员佩戴墨镜导致误判降低疲劳驾驶检测的准确性。但是该技术是基于回归器计算关键点偏差值确定人脸区域后提取眼睛位置的纹理特征得到疲劳检测,检测范围局限,计算结果偏差大。
发明内容
本发明的目的在于提供一种基于双网络结果的驾驶疲劳程度检测回归模型,以解决上述背景技术中提出的疲劳检测范围局限、计算结果存在偏差的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于双网络结果的驾驶疲劳程度检测回归模型,把每分钟获取的车内共1000帧的视频逐帧输入神经网络,通过网络输出不同样本的次数输入回归模型进而判断驾驶员疲劳的程度,包括以下步骤:
S1、获取现有不同角度人脸数据集或收集固定、移动车内摄像头拍摄视频作为样本视频数据,并进行尺寸处理和人工标注;
S2、将S1处理过的图片级输入第一个卷积网络,该卷积网络获得头部候选窗口以及头部状态;
S3、将S2头部候选窗中不是低头的图片级处理后输入第二个卷积网络,获得人眼和嘴部状态;
S4、将每分钟内低头、闭眼、打哈欠的次数输入回归模型中,用梯度下降算法优化参数,最后输出疲劳程度。
优选的,所述S1的样本视频数据来源于Multi-pie、point-04公开数据库以及驾驶车内移动摄像头拍摄的视频。
优选的,其特征在于,所述S2的第一卷积网络用于定位人头部并识别是否低头,其训练过程包括以下步骤:
S21、第一个卷积网络选用15层卷积神经网络,依次是卷积核使用3*3的卷积层conv1、最大池化层maxpool2、卷积核使用3*3的卷积层conv3、最大池化层maxpool4、卷积核使用3*3的卷积层conv5、卷积核使用1*1的卷积层conv6、最大池化层maxpool7、卷积核使用3*3的卷积层conv8、卷积核使用3*3的卷积层conv9、最大池化层maxpoo10、卷积核使用3*3的卷积层conv11、卷积核使用3*3卷积层conv12、卷积核使用3*3的卷积层conv13和两个平行的全连接层fc14_1与全连接层fc14_2;
S22、在卷积的最后一层conv13上使用固定大小的窗口滑动,每个窗口会输出固定大小维度的特征,每一个窗口对候选的9个box进行回归坐标和分类;
S23、分类和回归整体损失函数为:
其中,pi为anchor预测为目标的概率,pi*=0时表示为negative lable,pi*=1时表示为positive label,ti表示是一个向量,表示预测的bounding box包围盒的4个参数化坐标,ti*是与positive anchor对应的ground truth包围盒的坐标向量;
Lcls(pi,pi*)是两个类别的对数损失,Lreg(ti,ti*)表示回归损失;
S24、通过不断的进行梯度下降和反向传播算法进行迭代,当损失函数值L(χ,c,l,g)<0.01,卷积神经网络完成训练。
优选的,所述S3中第二卷积网络用于定位眼部和嘴部并识别是否闭眼和打哈欠,其训练过程包括以下步骤:
S31、第二个卷积网络网络架构分为进行目标特征提取的前端深度神经网络和实现多尺度特征检测的位于后端的级联卷积网络,前端卷积网络共16层,依次是卷积核使用3*3的卷积层conv1_1、最大池化层maxpool1_2、卷积核使用3*3的卷积层conv1_3、最大池化层maxpool1_4、卷积核使用3*3的卷积层conv1_5、卷积核使用1*1的卷积层conv1_6、最大池化层maxpool1_7、卷积核使用3*3的卷积层conv1_8、卷积核使用3*3的卷积层conv1_9、卷积核使用1*1的卷积层conv1_10、最大池化层maxpool1_11、卷积核使用3*3的卷积层conv1_12、卷积核使用3*3的卷积层conv1_13、卷积核使用3*3的卷积层conv1_14和最大池化层maxpool1_15,位于后端的级联卷积网络共5层,依次是卷积核使用3*3的卷积层conv2_1、卷积核使用1*1的卷积层conv2_2、卷积核使用3*3的卷积层conv2_3、卷积核使用1*1的卷积层conv2_4和最大池化层maxpool2_5,其中,卷积层conv1_10、卷积层conv2_2、卷积层conv2_3和卷积层conv2_4再分别采用两个3*3大小的用于并列执行回归和分类的卷积核进行卷积;
S32、后端卷积网络采用多尺度检测可以获得多尺度特征图,假设模型检测共有n层特征图,Smax设为0.95,Smin设为0.2,则第i个特征图比例为:
S33、采用anchors机制,设定默认框的中心为(a,b),特征图和原始图片的映射关系为:
其中,(X,Y)为特征层上默认框中心的坐标,Hb、Wb是默认框的高和宽,Hf、Wf为特征层的高和宽,Himg、Wimg为原始图像的高和宽,(Xmin、Ymin、Xmax、Ymax)为第i层特征图上中心为大小是(a,b)的默认框映射到原始图像的物体框坐标;
S34、构造损失函数的公式为:
其中,N是匹配的default boxes的个数,χ表示匹配了的框是否属于类别,l是预测框predicted box,g是真实值ground truth box,c是指所框选目标属于类别p的置信度confidence,Lconf(χ,c)为置信损失,Lloc(χ,l,g)是位置损失,α为权衡置信损失和位置损失的参数,α的值一般为1;
S35、通过不断的进行梯度下降和反向传播算法进行迭代,当损失函数值L(χ,c,l,g)<0.001,卷积神经网络完成训练。
优选的,所述S4疲劳程度计算包括以下步骤:
S41、所述S4的线性回归模型假定特征和结果之间满足线性关系,通过所述权力要求3和4判断出来3种特征,解释变量分别代表低头、闭眼和打哈欠的次数为χ1、χ2和χ3,建立估计函数:
hθ(x)=θTx=θ0x01x12x23x3
S42、将S41中的χ0设为1,其中,θ为解释变量χ的参数,用于表示每个变量的影响力大小,建立以下公式同于根据损失函数χ来对h进行评估,其中,m表示样本数量:
S43、采用梯度下降,θ设定一个初试值,然后向着让S42中J变化最大的方向更新θ的取值,公式如下:
S44、当损失函数L(χ,c,l,g)<0.01时,参数训练完成,通过驾驶员在驾驶过程中每分钟的视频数据,经过深度学习的神经网络获得解释变量χ1、χ2和χ3再根据S43调整参数的线性回归模型,得到驾驶员疲劳程度的估计值h。
更为优选的,所述驾驶员疲劳程度估计值h的大小与疲劳程度关系为:当h≥100时,表示非常疲劳,驾驶员处于危险驾驶极端,当50≤h<100时,表示比较疲劳,驾驶员需要休息,当20≤h<50时,表示有点疲劳,驾驶员需要注意休息,当h<20时,表示驾驶员不疲劳。
与现有技术相比,本发明的有益效果是:
本发明通过对于小目标(眼睛、嘴巴)的定位和识别建立回归模型,把每分钟视频(共1000帧)逐帧输入两个神经网络中识别出出现低头、闭眼、打哈欠(张大嘴)的次数。把次数结果输入回归模型中,通过输出的回归结果实现驾驶员疲劳程度的判断;本发明通过对人脸多个器官特征进行特征行为次数统计进行回归模型建立,检测参数多,参考数据广泛,得到的疲劳检测结果可行度高。
附图说明
图1为本发明一种基于双网络结果的驾驶疲劳程度检测回归模型的流程图;
图2为本发明一种基于双网络结果的驾驶疲劳程度检测回归模型第一个卷积神经网络的结构示意图;
图3为本发明一种基于双网络结果的驾驶疲劳程度检测回归模型第二个卷积神经网络的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于双网络结果的驾驶疲劳程度检测回归模型,将每分钟拍摄的视频逐帧输入第一个卷积网络,框出驾驶员头部以及识别是否为低头,若低头则统计数中低头样本数加一;否则,对框出头部位置的图片进行图像处理,把框出的头部裁剪出来,采用插值算法放大相应倍数,再输入第二个卷积网络,框出人眼和嘴部位置同时识别状态,若眼部为闭眼,则闭眼统计数中加一,若嘴部状态为打哈欠(张大嘴),则打哈欠(张大嘴)统计数中加一。当视频每一帧都处理完,把低头、闭眼、打哈欠(张大嘴)出现的次数输入线性回归模型中,输出疲劳程度。
首先,将Multi-pie、point-04公开数据库中部分数据以及移动摄像头拍摄驾驶车的图片划分为训练集和测试集两部分,图片格式为224*224*3,分别用于第一个卷积神经网络的训练和检验效果的验证。
如图2所示,第一个卷积网络共有15层,分别为9个卷积层、4个池化层以及两个水平的全连接层。使用一个小网络在最后卷积得到的特征图(conv13)上进行滑动扫描,这个滑动网络每次与特征图上3*3的窗口全连接,然后映射到一个低维向量,最后将这个低维向量送入到两个全连接层,即分类层(cls)和位置回归层(reg)。分类和回归整体损失函数为:
其中,pi为anchor预测为目标的概率,pi*=0时表示为negative lable,pi*=1时表示为positive label;ti表示是一个向量,表示预测的bounding box包围盒的4个参数化坐标;ti*是与positive anchor对应的ground truth包围盒的坐标向量。Lcls(pi,pi*)是两个类别(目标VS.非目标)的对数损失,Lreg(ti,ti*)表示回归损失。进行多次损失函数计算和进行参数调整,当损失函数<0.01时,进行测试。把测试数据集输入网络中,如果满足一定准确率,表示网络训练成功,否则重新进行训练来调整参数。
如图3所示,第二个卷积网络共21层,分为前端和后端,前端共16层,用于进行初步特征提取,后端卷积网络是一组级联卷积神经网络,用于多尺度特征检验。然后一方面,针对卷积层conv1_10、卷积层conv2_2、卷积层conv2_3、卷积层conv2_4中的每一个再分别采用两个3*3大小的卷积核进行卷积,这两个卷积核是并列执行回归和分类。后端卷积网络采用多尺度检测可以获得多尺度特征图,采用anchors机制,在特征图的每个位置预测K个box。对于每个box,预测C个类别得分,以及相对于default bounding box的4个偏移值,这样需要(C+4)*k个预测器,在m*n的特征图上将产生(C+4)*k*m*n个预测值。总的损失函数是localization loss(loc)和confidence loss(conf)的加权和,为;
N是匹配的default boxes的个数;χ表示匹配了的框是否属于类别,l是预测框predicted box,g是真实值ground truth box;c是指所框选目标属于类别p的置信度confidence。Lconf(χ,c)为置信损失,Lloc(χ,l,g)是位置损失。α为权衡置信损失和位置损失的参数,α一般为1。目标损失函数同时包含置信损失和位置损失,在训练过程中,通过减小损失函数值可以确保在提升预测框类別置信度的同时也提高预测框的位置可信度,通过数据训练进行不断的优化,提高模型的目标检测性能。
通过统计的结果建立回归模型,做出估计函数为:
hθ(x)=θTx=θ0x01x1+θ2x2+θ3x3
为了使估计函数更加精确和实用,使用一个损失函数来对h进行评估,来优化每一个样本特征的参数,损失函数方程为:
使用梯度下降算法对参数进行优化,首先我们给θ一个初试值,然后向着让J变化最大的方向更新θ的取值,使模型更加稳定和精确。公式如下:
当损失函数小于0.01时,参数调整完毕,模型完成。在驾驶过程中,可以根据每分钟模型得到的结果h来判断出司机的疲劳程度。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (6)

1.一种基于双网络结果的驾驶疲劳程度检测回归模型,其特征在于把每分钟获取的车内共1000帧的视频逐帧输入神经网络,通过网络输出不同样本的次数输入回归模型进而判断驾驶员疲劳的程度,包括以下步骤:
S1、获取现有不同角度人脸数据集或收集固定、移动车内摄像头拍摄视频作为样本视频数据,并进行尺寸处理和人工标注;
S2、将S1处理过的图片级输入第一个卷积网络,该卷积网络获得头部候选窗口以及头部状态;
S3、将S2头部候选窗中不是低头的图片级处理后输入第二个卷积网络,获得人眼和嘴部状态;
S4、将每分钟内低头、闭眼、打哈欠的次数输入回归模型中,用梯度下降算法优化参数,最后输出疲劳程度。
2.根据权利要求1所述的一种基于双网络结果的驾驶疲劳程度检测回归模型,其特征在于,所述S1的样本视频数据来源于Multi-pie、point-04公开数据库以及驾驶车内移动摄像头拍摄的视频。
3.根据权利要求1所述的一种基于双网络结果的驾驶疲劳程度检测回归模型,其特征在于,所述S2的第一卷积网络用于定位人头部并识别是否低头,其训练过程包括以下步骤:
S21、第一个卷积网络选用15层卷积神经网络,依次是卷积核使用3*3的卷积层conv1、最大池化层maxpool2、卷积核使用3*3的卷积层conv3、最大池化层maxpool4、卷积核使用3*3的卷积层conv5、卷积核使用1*1的卷积层conv6、最大池化层maxpool7、卷积核使用3*3的卷积层conv8、卷积核使用3*3的卷积层conv9、最大池化层maxpoo10、卷积核使用3*3的卷积层conv11、卷积核使用3*3卷积层conv12、卷积核使用3*3的卷积层conv13和两个平行的全连接层fc14_1与全连接层fc14_2;
S22、在卷积的最后一层conv13上使用固定大小的窗口滑动,每个窗口会输出固定大小维度的特征,每一个窗口对候选的9个box进行回归坐标和分类;
S23、分类和回归整体损失函数为:
其中,pi为anchor预测为目标的概率,pi*=0时表示为negative lable,pi*=1时表示为positive label,ti表示是一个向量,表示预测的bounding box包围盒的4个参数化坐标,ti*是与positive anchor对应的ground truth包围盒的坐标向量;
Lcls(pi,pi*)是两个类别的对数损失,Lreg(ti,ti*)表示回归损失;
S24、通过不断的进行梯度下降和反向传播算法进行迭代,当损失函数值L(χ,c,l,g)<0.01,卷积神经网络完成训练。
4.根据权利要求1所述的一种基于双网络结果的驾驶疲劳程度检测回归模型,其特征在于,所述S3中第二卷积网络用于定位眼部和嘴部并识别是否闭眼和打哈欠,其训练过程包括以下步骤:
S31、第二个卷积网络网络架构分为进行目标特征提取的前端深度神经网络和实现多尺度特征检测的位于后端的级联卷积网络,前端卷积网络共16层,依次是卷积核使用3*3的卷积层conv1_1、最大池化层maxpool1_2、卷积核使用3*3的卷积层conv1_3、最大池化层maxpool1_4、卷积核使用3*3的卷积层conv1_5、卷积核使用1*1的卷积层conv1_6、最大池化层maxpool1_7、卷积核使用3*3的卷积层conv1_8、卷积核使用3*3的卷积层conv1_9、卷积核使用1*1的卷积层conv1_10、最大池化层maxpool1_11、卷积核使用3*3的卷积层conv1_12、卷积核使用3*3的卷积层conv1_13、卷积核使用3*3的卷积层conv1_14和最大池化层maxpool1_15,位于后端的级联卷积网络共5层,依次是卷积核使用3*3的卷积层conv2_1、卷积核使用1*1的卷积层conv2_2、卷积核使用3*3的卷积层conv2_3、卷积核使用1*1的卷积层conv2_4和最大池化层maxpool2_5,其中,卷积层conv1_10、卷积层conv2_2、卷积层conv2_3和卷积层conv2_4再分别采用两个3*3大小的用于并列执行回归和分类的卷积核进行卷积;
S32、后端卷积网络采用多尺度检测可以获得多尺度特征图,假设模型检测共有n层特征图,Smax设为0.95,Smin设为0.2,则第i个特征图比例为:
S33、采用anchors机制,设定默认框的中心为(a,b),特征图和原始图片的映射关系为:
其中,(X,Y)为特征层上默认框中心的坐标,Hb、Wb是默认框的高和宽,Hf、Wf为特征层的高和宽,Himg、Wimg为原始图像的高和宽,(Xmin、Ymin、Xmax、Ymax)为第i层特征图上中心为大小是(a,b)的默认框映射到原始图像的物体框坐标;
S34、构造损失函数的公式为:
其中,N是匹配的default boxes的个数,χ表示匹配了的框是否属于类别,l是预测框predicted box,g是真实值ground truth box,c是指所框选目标属于类别p的置信度confidence,Lconf(χ,c)为置信损失,Lloc(χ,l,g)是位置损失,α为权衡置信损失和位置损失的参数,α的值一般为1;
S35、通过不断的进行梯度下降和反向传播算法进行迭代,当损失函数值L(χ,c,l,g)<0.001,卷积神经网络完成训练。
5.根据权利要求1所述的一种基于双网络结果的驾驶疲劳程度检测回归模型,其特征在于,所述S4疲劳程度计算包括以下步骤:
S41、所述S4的线性回归模型假定特征和结果之间满足线性关系,通过所述权力要求3和4判断出来3种特征,解释变量分别代表低头、闭眼和打哈欠的次数为χ1、χ2和χ3,建立估计函数:
hθ(x)=θTx=θ0x01x12x23x3
S42、将S41中的χ0设为1,其中,θ为解释变量χ的参数,用于表示每个变量的影响力大小,建立以下公式同于根据损失函数χ来对h进行评估,其中,m表示样本数量:
S43、采用梯度下降,θ设定一个初试值,然后向着让S42中J变化最大的方向更新θ的取值,公式如下:
S44、当损失函数L(χ,c,l,g)<0.01时,参数训练完成,通过驾驶员在驾驶过程中每分钟的视频数据,经过深度学习的神经网络获得解释变量χ1、χ2和χ3再根据S43调整参数的线性回归模型,得到驾驶员疲劳程度的估计值h。
6.根据权利要求5所述的一种基于双网络结果的驾驶疲劳程度检测回归模型,其特征在于,所述驾驶员疲劳程度估计值h的大小与疲劳程度关系为:当h≥100时,表示非常疲劳,驾驶员处于危险驾驶极端,当50≤h<100时,表示比较疲劳,驾驶员需要休息,当20≤h<50时,表示有点疲劳,驾驶员需要注意休息,当h<20时,表示驾驶员不疲劳。
CN201810368035.9A 2018-04-23 2018-04-23 一种基于双网络结果的驾驶疲劳程度检测回归模型 Active CN108596087B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810368035.9A CN108596087B (zh) 2018-04-23 2018-04-23 一种基于双网络结果的驾驶疲劳程度检测回归模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810368035.9A CN108596087B (zh) 2018-04-23 2018-04-23 一种基于双网络结果的驾驶疲劳程度检测回归模型

Publications (2)

Publication Number Publication Date
CN108596087A true CN108596087A (zh) 2018-09-28
CN108596087B CN108596087B (zh) 2020-09-15

Family

ID=63614063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810368035.9A Active CN108596087B (zh) 2018-04-23 2018-04-23 一种基于双网络结果的驾驶疲劳程度检测回归模型

Country Status (1)

Country Link
CN (1) CN108596087B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109697831A (zh) * 2019-02-25 2019-04-30 湖北亿咖通科技有限公司 疲劳驾驶监测方法、装置及计算机可读存储介质
CN109858553A (zh) * 2019-01-31 2019-06-07 深圳市赛梅斯凯科技有限公司 驾驶状态的监测模型更新方法、更新装置及存储介质
CN109948509A (zh) * 2019-03-11 2019-06-28 成都旷视金智科技有限公司 对象状态监测方法、装置及电子设备
CN110009023A (zh) * 2019-03-26 2019-07-12 杭州电子科技大学上虞科学与工程研究院有限公司 智慧交通中的车流统计方法
CN110334627A (zh) * 2019-06-26 2019-10-15 深圳市微纳集成电路与系统应用研究院 对人员的行为进行检测的装置和系统
CN113591750A (zh) * 2018-11-16 2021-11-02 北京市商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质
CN115736907A (zh) * 2021-09-04 2023-03-07 天津大学 基于级联卷积神经网络的可穿戴微波无损检测人体血糖

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102622600A (zh) * 2012-02-02 2012-08-01 西南交通大学 基于面像与眼动分析的高速列车驾驶员警觉度检测方法
CN104240446A (zh) * 2014-09-26 2014-12-24 长春工业大学 基于人脸识别的疲劳驾驶预警系统
CN107194346A (zh) * 2017-05-19 2017-09-22 福建师范大学 一种汽车疲劳驾驶预测方法
CN107610087A (zh) * 2017-05-15 2018-01-19 华南理工大学 一种基于深度学习的舌苔自动分割方法
CN107871106A (zh) * 2016-09-26 2018-04-03 北京眼神科技有限公司 人脸检测方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102622600A (zh) * 2012-02-02 2012-08-01 西南交通大学 基于面像与眼动分析的高速列车驾驶员警觉度检测方法
CN104240446A (zh) * 2014-09-26 2014-12-24 长春工业大学 基于人脸识别的疲劳驾驶预警系统
CN107871106A (zh) * 2016-09-26 2018-04-03 北京眼神科技有限公司 人脸检测方法和装置
CN107610087A (zh) * 2017-05-15 2018-01-19 华南理工大学 一种基于深度学习的舌苔自动分割方法
CN107194346A (zh) * 2017-05-19 2017-09-22 福建师范大学 一种汽车疲劳驾驶预测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
汪磊: "基于面部特征识别的管制员疲劳监测方法研究", 《中国安全科学学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113591750A (zh) * 2018-11-16 2021-11-02 北京市商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质
CN109858553A (zh) * 2019-01-31 2019-06-07 深圳市赛梅斯凯科技有限公司 驾驶状态的监测模型更新方法、更新装置及存储介质
CN109858553B (zh) * 2019-01-31 2023-12-12 锦图计算技术(深圳)有限公司 驾驶状态的监测模型更新方法、更新装置及存储介质
CN109697831A (zh) * 2019-02-25 2019-04-30 湖北亿咖通科技有限公司 疲劳驾驶监测方法、装置及计算机可读存储介质
CN109948509A (zh) * 2019-03-11 2019-06-28 成都旷视金智科技有限公司 对象状态监测方法、装置及电子设备
CN110009023A (zh) * 2019-03-26 2019-07-12 杭州电子科技大学上虞科学与工程研究院有限公司 智慧交通中的车流统计方法
CN110334627A (zh) * 2019-06-26 2019-10-15 深圳市微纳集成电路与系统应用研究院 对人员的行为进行检测的装置和系统
CN115736907A (zh) * 2021-09-04 2023-03-07 天津大学 基于级联卷积神经网络的可穿戴微波无损检测人体血糖

Also Published As

Publication number Publication date
CN108596087B (zh) 2020-09-15

Similar Documents

Publication Publication Date Title
CN108596087A (zh) 一种基于双网络结果的驾驶疲劳程度检测回归模型
US11645748B2 (en) Three-dimensional automatic location system for epileptogenic focus based on deep learning
CN109543526B (zh) 基于深度差异性特征的真假面瘫识别系统
CN108664947A (zh) 一种基于表情识别的疲劳驾驶预警方法
CN109409297B (zh) 一种基于双通道卷积神经网络的身份识别方法
CN107403142B (zh) 一种微表情的检测方法
CN107133612A (zh) 基于图像处理与语音识别技术的智能病房及其运行方法
CN107122744A (zh) 一种基于人脸识别的活体检测系统及方法
CN107832802A (zh) 基于人脸比对的人脸图像质量评价方法及装置
CN107103298A (zh) 基于图像处理的引体向上计数系统及计数方法
CN111967363B (zh) 一种基于微表情识别和眼动追踪的对情绪预测的方法
CN106295124A (zh) 利用多种图像检测技术综合分析基因子图相似概率量的方法
CN106023257A (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN108960142B (zh) 基于全局特征损失函数的行人再识别方法
CN103902978A (zh) 人脸检测及识别方法
CN106096513A (zh) 指纹识别方法、指纹识别系统、及电子设备
CN116343284A (zh) 基于注意力机制的多特征户外环境情绪识别方法
CN111626182A (zh) 一种基于视频的人体心率及面部血容积精确检测方法和系统
CN104091173A (zh) 一种基于网络摄像机的性别识别方法及装置
CN114916964B (zh) 一种咽拭子采样有效性检测方法及自助式咽拭子采样方法
CN107967944A (zh) 一种基于Hadoop的户外环境大数据人体健康监测方法与平台
CN116269355A (zh) 一种基于人物姿态识别的安全监测系统
CN107967941A (zh) 一种基于智能视觉重构的无人机人体健康监控方法与系统
CN107967455A (zh) 一种智能人体多维自然特征大数据透明学习方法与系统
CN116704585A (zh) 一种基于质量感知的人脸识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant