CN112464716B - 基于afn网络的驾驶员疲劳状态检测方法 - Google Patents
基于afn网络的驾驶员疲劳状态检测方法 Download PDFInfo
- Publication number
- CN112464716B CN112464716B CN202011141005.8A CN202011141005A CN112464716B CN 112464716 B CN112464716 B CN 112464716B CN 202011141005 A CN202011141005 A CN 202011141005A CN 112464716 B CN112464716 B CN 112464716B
- Authority
- CN
- China
- Prior art keywords
- fatigue
- afn
- module
- video
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于AFN网络的驾驶员疲劳状态检测方法,该方法包括:构建AFN网络;选取DDD数据集作为训练集、测试集和验证集,对选取的数据集分类处理;在选取的数据集视频,每13个连续帧作为基本单元进行裁剪,对视频标签做二值化处理;用数据集通过tensorflow+keras+pycharm框架对AFN网络进行训练直至网络收敛训练结束,得到所需权重文件;通过车辆前置摄像头采集驾驶员视频信息,每13帧为单位,传输至AFN网络,生成疲劳概率;若疲劳概率值大于75%时,判定驾驶员疲劳;本发明具有较高的鲁棒性,提高了疲劳状态检测的准确度。
Description
技术领域
本发明涉及机器学习技术领域,尤其涉及一种基于AFN网络的驾驶员疲劳状态检测方法。
背景技术
驾驶人疲劳状态的检测目前有较多研究的方法,按检测的类别可大致分为基于驾驶人生理信号的检测、基于驾驶人操作行为的检测、基于车辆状态信息的检测和基于驾驶人生理反应特征的检测等方法
总的来说,基于驾驶员生理信息的接触式疲劳识别方法对设备精度要求较高且影响驾车的舒适性;基于车辆的非接触式疲劳识别方法及基于眼部传统特征的非接触式疲劳识别方法难以构造鲁棒性较高的模型;现有基于驾驶人生理反应特征的非接触式疲劳识别方法多采用CNN模型进行特征提取,基于图像的轻量级卷积神经网络往往鲁棒性较差,而基于视频的卷积神经网络虽然提升了鲁棒性,但大多不满足轻量级模型的标准。
发明内容
本发明的目的在于提出一种基于AFN网络的驾驶员疲劳状态检测方法,该方法具有较高的鲁棒性,提高了疲劳状态检测的准确度。
实现本发明目的的技术方案为:一种基于AFN网络的驾驶员疲劳状态检测方法,包括:
构建AFN网络;
将DDD数据集分为训练集、测试集和验证集,对数据集按照场景和驾驶员行为分类处理;
对数据集预处理,对DDD数据集视频每13个连续帧作为基本单元进行裁剪,同时对视频标签做二值化处理;
用数据集通过tensorflow+keras+pycharm框架对AFN网络进行训练直至网络收敛,训练结束,得到所需权重文件;
通过车辆前置摄像头采集驾驶员视频信息,每13帧为单位,传输至AFN网络,生成疲劳概率;
若疲劳概率值大于设定的阈值,判定驾驶员疲劳。
进一步的,所述AFN网络采用残差块构建,包括数据预处理模块、3D时间维度融合模块、特征提取模块、感知激活模块、注意力获取模块、注意力驱动、多尺度特征融合模块、FCN卷积核堆叠模块和Dense模块;
数据预处理模块用于将视频中的图像逐帧进行灰度化,然后进行直方图均衡化,得到灰度视频;
3D时间维度融合模块用于将灰度视频单元数目所在的维度与颜色通道所在的维度进行交换,获取灰度视频的时空特征信息,对单通道短视频进行时空特征提取;
特征提取模块对融合图像先进行粗特征提取再进行图像特征提取,得到特征提取图;
感知激活模块采用Elu激活函数对特征提取图进行激活处理;
注意力获取模块对感知激活模块处理后的图像利用重叠池化获取高维激活空间中的局部注意力,再上采样后降为低维特征空间,最后利用局部卷积层构造的直连结构对图像做卷积处理;
注意力驱动模块利用bottleneck对注意力获取模块输出的图像进行处理,获取高维激活空间中的通道注意力;
多尺度特征融合模块融合多尺度感受野以获取疲劳特征图,并进行疲劳分类的推理,得到多尺度特征融合图,输出到FCN卷积核堆叠模块;
FCN卷积核堆叠模块用于聚合深层疲劳特征,得到深层疲劳特征图;
Dense模块对深层疲劳特征图进行最终的特征提取,生成疲劳概率。
进一步的,所述粗特征提取模块通过Multiple Conv2D进行粗特征提取,通过2D卷积提取图像特征。
进一步的,所述3D时间维度融合模块利用3D卷积核获取灰度视频的时空特征信息,利用2DCNN对单通道短视频进行时空特征提取。
进一步的,所述场景分为戴太阳镜、戴眼镜和不戴眼镜;驾驶员行为包括打哈欠、点头、侧视、说话、大笑、闭眼睛和正常开车。
进一步的,所述数据集预处理后视频的分辨率为480*640,且逐帧标注了二分类疲劳状态。
进一步的,所述数据集预处理具体为:利用MTCNN对数据集逐帧进行人脸检测后再进行人脸对齐,将对齐后的人脸图像裁剪,以25fps的帧率以13帧为单位重新剪裁封装成多个短视频,同时对视频标签二值化处理。
进一步的,所述视频标签二值化处理为:计算13帧中疲劳帧的数目,如果疲劳帧数在0-6帧之间,则二值化标签为0,判定为不疲劳;如果疲劳帧标签在7-13帧之间,则二值化标签为1。
进一步的,所述AFN网络在训练前,将预处理的训练集视频数据扩增n倍,或者通过亮度变化、对比度变化、加噪声或模糊处理方法对训练集数据进行扩增。
进一步的,所述阈值为75%。
与现有技术相比,本发明的显著优点为:
(1)本发明采用AFN网络,鲁棒性好;
(2)本发明的AFN网络的模型量级轻,方便部署在移动平台上;
(3)本发明使用了时间维度信息,检测效果更加准确;
(4)本发明方法可应用至各车载终端硬件,降低更多交通意外事故的发生,辅助改善和控制生活中的交通安全问题;
(5)本发明的检测方法无需接触,不影响驾驶员驾驶。
附图说明
图1、本发明中通道合并与维度转换示意图。
图2、本发明注意力获取模块示意图。
图3、本发明中注意力驱动的bottleneck示意图。
图4、本发明中AFN的网络结构示意图。
具体实施方式
以下结合附图详细说明本发明的具体实施方式,使本领域的技术人员更清楚地理解如何实践本发明。应当理解,尽管结合其优选的具体实施方案描述了本发明,但这些实施方案只是阐述,而不是限制本发明的范围。
本发明公开的一种基于AFN网络的驾驶员疲劳状态检测方法,包括:
构建轻量级CNN网络,即AFN网络(AttentionFaceNet);
在DDD数据集中选取数据集作为训练集、测试集和验证集,对选取的数据集按照场景和驾驶员行为分类处理;将DDD数据集划分为3个场景:1)戴太阳镜;2)戴眼镜;3)不戴眼镜;驾驶员行为包括打哈欠、点头、侧视、说话、大笑、闭上眼睛和正常开车;数据集视频的分辨率为480*640,且逐帧标注了二分类疲劳状态;
对训练集数据预处理,在选取的DDD数据集视频中裁剪出13个连续帧作为基本单元,对视频标签也做二值化处理;利用MTCNN对NTHU-DDD数据集逐帧进行人脸检测后进行人脸对齐,将对齐后的人脸图像裁剪,以25fps的帧率进行以13帧为单位重新封装成多个短视频;相应地,我们对视频标签也做二值化处理,计算13帧中疲劳帧的数目,如果疲劳帧数在0-6帧之间,则二值化标签为0,判定为不疲劳;如果疲劳帧标签在7-13帧之间,则二值化标签为1;
用数据集通过tensorflow+keras+pycharm框架对AFN网络进行训练直至网络收敛训练结束,得到所需权重文件;训练时,图像通过前向传播后向传播反复迭代到AFN网络,最终收敛;此时模型中对应参数即为所需权重文件;
通过车辆前置摄像头采集驾驶员视频信息,每13帧为单位,传输至AFN网络,生成疲劳概率;
若疲劳概率值大于设定的阈值,判定驾驶员疲劳,所述阈值优选75%。
如图4所示,构建的轻量级CNN模型包括数据预处理模块、3D时间维度融合模块、特征提取模块、感知激活模块、注意力获取模块、注意力驱动、多尺度特征融合模块、FCN卷积核堆叠模块和Dense模块;所述AFN网络采用残差块构建,用于解决所述网络训练中常出现的梯度消失问题;
数据预处理模块用于将视频中的图像逐帧进行灰度化后进行直方图均衡化,得到灰度视频;
3D时间维度融合模块用于将灰度视频单元数目所在的维度与颜色通道所在的维度进行交换,而后利用3D卷积核获取灰度视频的时空特征信息,这种方法能够高效学习视频特征。在本申请中,我们变换坐标系,对3D视频将灰度视频帧数所在的维度转化为通道所在的维度,利用2DCNN对单通道短视频进行时空特征提取;图1表示一个形状为(T,H,W,C)的四维张量变换成一个形状为(T,H,W)的三维张量的流程图;其中,T表示为视频帧数,H表示为单帧图像高度,W表示为单帧图像宽度,C表示为单帧图像通道数,得到融合图像;
特征提取模块对融合图像先进行粗特征提取再进行图像特征提取,得到特征提取图;粗特征提取模块通过MultipleConv2D进行粗特征提取,通过2D卷积提取图像特征;
感知激活模块采用Elu激活函数对特征提取图进行激活处理,缓解网络中的神经元死亡和梯度消失问题;
如图2所示,注意力获取模块对感知激活模块处理后的图像利用重叠池化获取高维激活空间中的局部注意力,再上采样后降为低维特征空间,最后利用局部卷积层构造的直连结构对图像做卷积处理,有效避免因特征破坏而造成梯度消失现象。
注意力驱动模块利用bottleneck对注意力获取模块输出的图像进行处理,避免在低维子空间中使用Relu激活函数导致大量信息丢失,获取高维激活空间中的通道注意力,这使得神经网络在不增加过多参数且不带来明显延迟损耗的条件下一定程度上提升准确率,并在神经网络中使用注意力机制具有正则化的效果。
多尺度特征融合模块对输入的图像融合多尺度感受野以获取疲劳特征图,并进行疲劳分类的推理,得到多尺度特征融合图,输出到FCN卷积核堆叠模块;输入的图像为注意力驱动模块和注意力获取模块处理后的图像;
FCN卷积核堆叠模块用于聚合深层疲劳特征,得到深层疲劳特征图;
Dense模块对深层疲劳特征图进行最终的特征提取,生成疲劳概率。
实施例
采用2016年亚洲计算机视觉会议期间引入的驾驶员睡意检测(DDD)数据集进行实验。当前,该数据集已在其它研究中得到广泛应用。该数据集独立划分了训练集18人(共8.5小时视频),验证集4人(共1.5小时视频),测试集共14人。每个驾驶员的疲劳状态分为5种场景:1)戴太阳镜;2)白天戴眼镜;3)白天不戴眼镜;4)晚上戴眼镜;5)晚上不戴眼镜。驾驶员行为包括打哈欠、点头、侧视、说话、大笑、闭上眼睛和正常开车。数据集视频的分辨率为480*640,且逐帧标注了二分类疲劳状态。
利用MTCNN对NTHU-DDD数据集逐帧进行人脸检测后进行人脸对齐,将对齐后的人脸图像裁剪,以25fps的帧率进行以13帧为单位重新封装成多个短视频。相应地,我们对视频标签也做二值化处理,计算13帧中疲劳帧的数目,如果疲劳帧数在0-6帧之间,则二值化标签为0,判定为不疲劳;如果疲劳帧标签在7-13帧之间,则二值化标签为1。
在数据载入前,我们将13帧短视频进行逐帧直方图均衡化处理,以一定程度下削弱光照对数据质量的影响。因此,将NTHU-DDD数据集划分为3个场景:1)戴太阳镜;2)戴眼镜;3)不戴眼镜。裁剪及分类后各场景下的13帧短视频统计如表1中所示。
表1
由于实验的视频数据数量有限,且比例分配较不均匀,我们在视频导入神经网络前利用以下两种数据增强的方式将视频数据扩增n倍:
本实验将数据集分为128个视频/批进行训练,将正例与反例随机平均分配于各批次内,重复n次,使得每批视频为不同的组合结果。
对原始数据进行亮度变化,对比度变化,加噪声,模糊处理等方法进行数据集的扩增。
基于人脸识别的研究现状以及Bottleneck3D的提出,本申请选取几种常用于人脸识别的经典神经网络与本申请基于AttentionFaceNet网络方法的实验进行对比,对比数据如表2所示。
表2
Net | 准确率 |
Mobilenetv3-Large_3D | 0.652969718 |
Mobilenetv3-Small_3D | 0.631552756 |
C3D | 0.64585876 |
I3D | 0.629634201 |
DenseNet | 0.630930126 |
Mobilefacenet | 0.620844245 |
RetinaNet | 0.654740691 |
AttentionFaceNet | 0.694427225 |
由表2对比可知,AFN网络较其他网络准确度有较大提升。此外,我们选取focalloss作为损失函数,且利用Adam优化器对神经网络进行优化。
以上所述仅是本发明的优选实施例,但上述实施例不以任何形式限定本发明,应当指出,对于本技术领域的普通技术人员,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种基于AFN网络的驾驶员疲劳状态检测方法,其特征在于,包括:
构建AFN网络;
将DDD数据集分为训练集、测试集和验证集,对数据集按照场景和驾驶员行为分类处理;
对数据集预处理,对DDD数据集视频每13个连续帧作为基本单元进行裁剪,同时对视频标签做二值化处理;
用数据集通过tensorflow+keras+pycharm框架对AFN网络进行训练直至网络收敛,训练结束,得到所需权重文件;
通过车辆前置摄像头采集驾驶员视频信息,每13帧为单位,传输至AFN网络,生成疲劳概率;
若疲劳概率值大于设定的阈值,判定驾驶员疲劳;
所述AFN网络采用残差块构建,包括数据预处理模块、3D时间维度融合模块、特征提取模块、感知激活模块、注意力获取模块、注意力驱动、多尺度特征融合模块、FCN卷积核堆叠模块和Dense模块;
数据预处理模块用于将视频中的图像逐帧进行灰度化,然后进行直方图均衡化,得到灰度视频;
3D时间维度融合模块用于将灰度视频单元数目所在的维度与颜色通道所在的维度进行交换,获取灰度视频的时空特征信息,对单通道短视频进行时空特征提取;
特征提取模块对融合图像先进行粗特征提取再进行图像特征提取,得到特征提取图;
感知激活模块采用Elu激活函数对特征提取图进行激活处理;
注意力获取模块对感知激活模块处理后的图像利用重叠池化获取高维激活空间中的局部注意力,再上采样后降为低维特征空间,最后利用局部卷积层构造的直连结构对图像做卷积处理;
注意力驱动模块利用bottleneck对注意力获取模块输出的图像进行处理,获取高维激活空间中的通道注意力;
多尺度特征融合模块融合多尺度感受野以获取疲劳特征图,并进行疲劳分类的推理,得到多尺度特征融合图,输出到FCN卷积核堆叠模块;
FCN卷积核堆叠模块用于聚合深层疲劳特征,得到深层疲劳特征图;
Dense模块对深层疲劳特征图进行最终的特征提取,生成疲劳概率。
2.根据权利要求1所述的基于AFN网络的驾驶员疲劳状态检测方法,其特征在于,所述特征提取模块通过Multiple Conv2D进行粗特征提取,通过2D卷积提取图像特征。
3.根据权利要求1所述的基于AFN网络的驾驶员疲劳状态检测方法,其特征在于,所述3D时间维度融合模块利用3D卷积核获取灰度视频的时空特征信息,利用2DCNN对单通道短视频进行时空特征提取。
4.根据权利要求1所述的基于AFN网络的驾驶员疲劳状态检测方法,其特征在于,所述场景分为戴太阳镜、戴眼镜和不戴眼镜;驾驶员行为包括打哈欠、点头、侧视、说话、大笑、闭眼睛和正常开车。
5.根据权利要求1所述的基于AFN网络的驾驶员疲劳状态检测方法,其特征在于,所述数据集预处理后视频的分辨率为480*640,且逐帧标注了二分类疲劳状态。
6.根据权利要求1所述的基于AFN网络的驾驶员疲劳状态检测方法,其特征在于,所述数据集预处理具体为:利用MTCNN对数据集逐帧进行人脸检测后再进行人脸对齐,将对齐后的人脸图像裁剪,以25fps的帧率以13帧为单位重新剪裁封装成多个短视频,同时对视频标签二值化处理。
7.根据权利要求6所述的基于AFN网络的驾驶员疲劳状态检测方法,其特征在于,所述视频标签二值化处理为:计算13帧中疲劳帧的数目,如果疲劳帧数在0-6帧之间,则二值化标签为0,判定为不疲劳;如果疲劳帧标签在7-13帧之间,则二值化标签为1。
8.根据权利要求1所述的基于AFN网络的驾驶员疲劳状态检测方法,其特征在于,所述AFN网络在训练前,将预处理的训练集视频数据扩增n倍,或者通过亮度变化、对比度变化、加噪声或模糊处理方法对训练集数据进行扩增。
9.根据权利要求1所述的基于AFN网络的驾驶员疲劳状态检测方法,其特征在于,所述阈值为75%。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011141005.8A CN112464716B (zh) | 2020-10-22 | 2020-10-22 | 基于afn网络的驾驶员疲劳状态检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011141005.8A CN112464716B (zh) | 2020-10-22 | 2020-10-22 | 基于afn网络的驾驶员疲劳状态检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112464716A CN112464716A (zh) | 2021-03-09 |
CN112464716B true CN112464716B (zh) | 2022-11-04 |
Family
ID=74834154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011141005.8A Active CN112464716B (zh) | 2020-10-22 | 2020-10-22 | 基于afn网络的驾驶员疲劳状态检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112464716B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106446811A (zh) * | 2016-09-12 | 2017-02-22 | 北京智芯原动科技有限公司 | 基于深度学习的驾驶员疲劳检测方法及装置 |
CN110119676A (zh) * | 2019-03-28 | 2019-08-13 | 广东工业大学 | 一种基于神经网络的驾驶员疲劳检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7877884B2 (en) * | 2004-11-20 | 2011-02-01 | Harrill Mitchell C | Dynamic axle alignment system onboard a vehicle |
-
2020
- 2020-10-22 CN CN202011141005.8A patent/CN112464716B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106446811A (zh) * | 2016-09-12 | 2017-02-22 | 北京智芯原动科技有限公司 | 基于深度学习的驾驶员疲劳检测方法及装置 |
CN110119676A (zh) * | 2019-03-28 | 2019-08-13 | 广东工业大学 | 一种基于神经网络的驾驶员疲劳检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112464716A (zh) | 2021-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107633513B (zh) | 基于深度学习的3d图像质量的度量方法 | |
CN109670446B (zh) | 基于线性动态系统和深度网络的异常行为检测方法 | |
CN110032926B (zh) | 一种基于深度学习的视频分类方法以及设备 | |
EP3291558B1 (en) | Video coding and decoding methods and apparatus | |
CN111797683A (zh) | 一种基于深度残差注意力网络的视频表情识别方法 | |
CN111539265B (zh) | 一种电梯轿厢内异常行为检测方法 | |
CN109543697A (zh) | 一种基于深度学习的rgbd图像目标识别方法 | |
CN106570444B (zh) | 基于行为识别的车载智能提醒方法及系统 | |
CN103136516A (zh) | 可见光与近红外信息融合的人脸识别方法及系统 | |
CN112668560B (zh) | 一种人流密集区域行人检测方法及系统 | |
CN112766056B (zh) | 一种基于深度神经网络的弱光环境车道线检测方法、装置 | |
CN111488805A (zh) | 一种基于显著性特征提取的视频行为识别方法 | |
Naik et al. | Driver’s seat belt detection using CNN | |
Wang et al. | Vehicle type classification via adaptive feature clustering for traffic surveillance video | |
CN112464716B (zh) | 基于afn网络的驾驶员疲劳状态检测方法 | |
DE102014100364A1 (de) | Klassierer für Augen-abseits-der-Straße-Klassifizierung mit Brille | |
Wang et al. | Variant-depth neural networks for deblurring traffic images in intelligent transportation systems | |
CN112052829A (zh) | 一种基于深度学习的飞行员行为监控方法 | |
Ayad et al. | Detecting abnormal driving behavior using modified DenseNet | |
CN112016592A (zh) | 基于交叉领域类别感知的领域适应语义分割方法及装置 | |
CN107341456B (zh) | 一种基于单幅户外彩色图像的天气晴阴分类方法 | |
Srivastava et al. | Driver’s Face Detection in Poor Illumination for ADAS Applications | |
CN112487996B (zh) | 基于DenseNet121网络的驾驶行为识别方法 | |
CN114119382A (zh) | 一种基于注意力生成对抗网络的图像去雨滴方法 | |
CN111126338A (zh) | 一种融合视觉注意力机制的智能车辆环境感知方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Guo Tangyi Inventor after: Liu Xinwei Inventor after: Li Qing Inventor after: Xu Rongxin Inventor after: Jiang Jiyang Inventor before: Liu Xinwei Inventor before: Li Qing Inventor before: Xu Rongxin Inventor before: Jiang Jiyang Inventor before: Guo Tangyi |
|
GR01 | Patent grant | ||
GR01 | Patent grant |