CN111626221A - 一种基于人眼信息增强的驾驶员注视区域估计方法 - Google Patents
一种基于人眼信息增强的驾驶员注视区域估计方法 Download PDFInfo
- Publication number
- CN111626221A CN111626221A CN202010467979.9A CN202010467979A CN111626221A CN 111626221 A CN111626221 A CN 111626221A CN 202010467979 A CN202010467979 A CN 202010467979A CN 111626221 A CN111626221 A CN 111626221A
- Authority
- CN
- China
- Prior art keywords
- driver
- model
- eye
- region
- human eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
Abstract
本发明针对现有方法存在的不足,在深度学习的基础上,提出了一种基于人眼信息增强的驾驶员注视区域估计方法。在对驾驶员的注视区域进行划分后,采集大量的驾驶员图像数据构建数据集,并构造一个基于眼部信息增强的注视区域估计模型,在收集到的数据集上面进行训练,最后将训练完毕的模型部署在车辆上监测驾驶员的注视区域。与现有技术相比,本发明所构造的模型具有泛化能力更强,在头部姿态相近区域准确率更高的优点,能够更有效地监控驾驶员的注视区域,保障驾驶员的安全。
Description
技术领域
本发明涉及驾驶安全和驾驶员监测领域,尤其涉及驾驶员注视区域估计领域,具体来说是一种基于人眼信息增强的驾驶员注视区域估计方法。
背景技术
随着我国汽车保有量以及机动车驾驶人数的不断上升,交通事故的死亡人数也在直线上升.通过获取驾驶员的注视区域,可以掌握驾驶员的注意力,适时给予提醒,提升驾驶安全性,进而减少交通事故,降低经济损失。
目前主流的驾驶员注视区域估计方法有基于特征的方法和基于深度学习的方法。基于特征的方法由于采用手工选择的特征,可能丢失图像中某些有用的信息,而基于深度学习的方法直接采用驾驶员的图像作为输入,一定程度上避免了基于特征学习的方法可能丢失特征的缺点。
人类的注视行为是由头部和眼球的转动共同协调完成的,仅靠头部姿态无法取得精确的结果。在注视区域相近时,驾驶员的头部姿态相近,图像的主要差异集中在人眼部分,想要准确地区分这些区域,就必须充分利用人眼图像所包含的注视信息。但是此前基于深度学习的方法仅将人脸图像作为输入,并且由于人眼图像占人脸图像的比例较小,导致此前的方法并未能充分利用人眼部分的信息,使其在头部姿态相近区域间的混淆率仍然较高,整体准确率偏低。
发明内容
本发明的目的就是为了解决上述缺陷,提供一种准确度高、处理速度块的驾驶员注视区域估计系统。
为了视线上述发明目的,本发明基于深度学习,通过为模型额外添加一个人眼特征提取模块,提出一种基于人眼信息增强的驾驶员注视区域估计方法,其特征在于,包括以下步骤:
(1)驾驶员注视区域划分:将驾驶员的注视区域划分为6个区域,分别是左后视镜、右后视镜、后视镜、前方、仪表盘和中控台;
(2)训练样本采集:通过放置在驾驶员前方的摄像头,采集大量驾驶员的驾驶图像,对每幅图像中驾驶员的注视区域进行手工标注,形成一个用于模型训练的数据集;
(3)模型构建:基于深度学习中的卷积神经网络,构造一个基于眼部信息增强的驾驶员注视区域估计模型,该模型包含两部分:驾驶员脸部特征提取模块和驾驶员眼部特征提取模块,其中驾驶员眼部特征提取模块用于增强模型对眼部注视信息的感知,提升模型在相近区域的预测精度。并且驾驶员眼部特征提取模块中包含一个基于通道注意力机制的双眼权重模块,用于在双眼信息不对称的情况下为不同的人眼提供相应的权重值来增强或者抑制某只人眼的信息,提升预测精度;
(4)数据集预处理:主要是获取人眼图像用于对步骤(3)中模型进行训练,其主要步骤如下:
a. 使用人脸关键点检测器获取驾驶员的人脸关键点;
b. 从步骤a中获得的关键点集合中挑选出人眼的左角点坐标(x l ,y l ),右角点坐标(x r , y r );
c. 计算人眼区域的宽度width,求取公式如下:
d. 计算人眼区域的高度height,求取公式如下:
e. 计算人眼的中点坐标(C x , C y ),求取公式如下:
f. 计算裁剪区域的左上角坐标(LT x , LT y ),求取公式如下:
g. 计算裁剪区域的右下角坐标(RB x , RB y ),求取公式如下:
h. 根据左上角和右下角坐标裁剪人眼图像。
(5)模型训练:将步骤(2)中获得训练样本集合依次送入模型获得相应的损失值,使用模型优化算法对注视区域估计模型进行反复的迭代优化,从而使模型具有注视区域估计的能力;
(6)模型部署:将具有区域分类能力的模型部署到驾驶舱中,通过摄像头所获取到的驾驶员图像分析驾驶员当前的注视区域,在驾驶员分心时给予提醒和警告。
附图说明
图1是本发明的流程图;
图2是本实施例的整体神经网络结构图;
图3是本实施例的双眼权重模块结构图。
具体实施方式
基于本发明的技术方案,下面结合附图给出本发明的详细实施例。一种基于人眼信息增强的驾驶员注视区域估计方法,包括以下步骤:
(1)驾驶员注视区域划分:将驾驶员的注视区域划分为6个区域,分别是左后视镜、右后视镜、后视镜、前方、仪表盘和中控台;
(2)训练样本采集:通过放置在驾驶员前方的摄像头,采集大量驾驶员的驾驶图像,对每幅图像中驾驶员的注视区域进行手工标注,形成一个用于模型训练的数据集;
(3)模型构建:基于深度学习中的卷积神经网络,构造一个基于眼部信息增强的驾驶员注视区域估计模型,该模型包含两部分:驾驶员脸部特征提取模块和驾驶员眼部特征提取模块,其中驾驶员眼部特征提取模块用于增强模型对眼部注视信息的感知,提升模型在相近区域的预测精度,并且驾驶员眼部特征提取模块中包含一个基于通道注意力机制的双眼权重模块,如图2所示,用于在双眼信息不对称的情况下为不同的人眼提供相应的权重值来增强或者抑制某只人眼的信息,提升预测精度,本模型的整体网络结构如图3所示;
(4)数据集预处理:主要是获取人眼图像用于对步骤(3)中模型进行训练,其主要步骤如下:
a. 使用人脸关键点检测器获取驾驶员的人脸关键点;
b. 从步骤a中获得的关键点集合中挑选出人眼的左角点坐标(x l ,y l ),右角点坐标(x r , y r );
c. 计算人眼区域的宽度width,求取公式如下:
d. 计算人眼区域的高度height,求取公式如下:
e. 计算人眼的中点坐标(C x , C y ),求取公式如下:
f. 计算裁剪区域的左上角坐标(LT x , LT y ),求取公式如下:
g. 计算裁剪区域的右下角坐标(RB x , RB y ),求取公式如下:
h. 根据左上角和右下角坐标裁剪人眼图像。
(5)模型训练:将步骤2中获得训练样本集合依次送入模型获得相应的损失值,使用随机梯度下降优化算法对注视区域估计模型进行反复的迭代优化,从而使模型具有注视区域估计的能力,在本实施例中,模型的训练批次大小为32,训练了100个周期;
(6)模型部署:将具有区域分类能力的模型部署到驾驶舱中,通过摄像头所获取到的驾驶员图像分析驾驶员当前的注视区域,在驾驶员分心时给予提醒和警告。
Claims (2)
1.一种基于眼部信息增强的驾驶员注视区域估计方法,其特征在于,所述方法包括以下步骤:
(1)驾驶员注视区域划分:将驾驶员的注视区域划分为6个区域,分别是左后视镜、右后视镜、后视镜、前方、仪表盘和中控台;
(2)训练样本采集:通过放置在驾驶员前方的摄像头,采集大量驾驶员的驾驶图像,对每幅图像中驾驶员的注视区域进行手工标注,形成一个用于模型训练的数据集;
(3)模型构建:基于深度学习中的卷积神经网络,构造一个基于眼部信息增强的驾驶员注视区域估计模型,模型包括两个模块:驾驶员脸部特征提取模块和驾驶员眼部特征提取模块,其中驾驶员眼部特征提取模块用于增强模型对眼部注视信息的感知,提升模型在相近区域的预测精度;
(4)数据集预处理:主要是获取驾驶员的人眼图像,用于对步骤(3)中模型进行训练,其主要步骤如下:
a. 使用人脸关键点检测器获取驾驶员的人脸关键点;
b. 从步骤a中获得的关键点集合中挑选出人眼的左角点坐标(x l ,y l ),右角点坐标(x r , y r );
c. 计算人眼区域的宽度width,求取公式如下:
d. 计算人眼区域的高度height,求取公式如下:
e. 计算人眼的中点坐标(C x , C y ),求取公式如下:
f. 计算裁剪区域的左上角坐标(LT x , LT y ),求取公式如下:
g. 计算裁剪区域的右下角坐标(RB x , RB y ),求取公式如下:
h. 根据左上角和右下角坐标裁剪人眼图像;
(5)模型训练:将步骤(2)中获得训练样本集合依次送入模型获得相应的损失值,使用模型优化算法对注视区域估计模型进行反复的迭代优化,从而使模型具有注视区域估计的能力;
(6)模型部署:将具有区域分类能力的模型部署到驾驶舱中,通过摄像头所获取到的驾驶员图像分析驾驶员当前的注视区域,在驾驶员分心时给予提醒和警告。
2.根据权利要求1所述的方法,其特征在于,步骤(3)所构建的驾驶员眼部特征提取模块中包含一个基于通道注意力机制的双眼权重模块,用于在双眼信息不对称的情况下为不同的人眼提供相应的权重值来增强或者抑制某只人眼的信息,提升预测精度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010467979.9A CN111626221A (zh) | 2020-05-28 | 2020-05-28 | 一种基于人眼信息增强的驾驶员注视区域估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010467979.9A CN111626221A (zh) | 2020-05-28 | 2020-05-28 | 一种基于人眼信息增强的驾驶员注视区域估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111626221A true CN111626221A (zh) | 2020-09-04 |
Family
ID=72260112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010467979.9A Pending CN111626221A (zh) | 2020-05-28 | 2020-05-28 | 一种基于人眼信息增强的驾驶员注视区域估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111626221A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112347851A (zh) * | 2020-09-30 | 2021-02-09 | 山东理工大学 | 多目标检测网络的构建方法、多目标检测方法及装置 |
CN112380935A (zh) * | 2020-11-03 | 2021-02-19 | 深圳技术大学 | 面向自动驾驶的人机协同感知方法及系统 |
CN113361441A (zh) * | 2021-06-18 | 2021-09-07 | 山东大学 | 基于头部姿态和空间注意力的视线区域估计方法及系统 |
CN116012932A (zh) * | 2022-12-29 | 2023-04-25 | 大连海事大学 | 一种驾驶员自适应的注视方向估计方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105769120A (zh) * | 2016-01-27 | 2016-07-20 | 深圳地平线机器人科技有限公司 | 疲劳驾驶检测方法和装置 |
CN107818310A (zh) * | 2017-11-03 | 2018-03-20 | 电子科技大学 | 一种基于视线的驾驶员注意力检测方法 |
CN109002774A (zh) * | 2018-06-28 | 2018-12-14 | 清华大学天津高端装备研究院 | 一种基于卷积神经网络的疲劳监测装置及方法 |
CN109044363A (zh) * | 2018-09-04 | 2018-12-21 | 华南师范大学 | 基于头部姿态和眼动的驾驶员疲劳检测方法 |
CN110119676A (zh) * | 2019-03-28 | 2019-08-13 | 广东工业大学 | 一种基于神经网络的驾驶员疲劳检测方法 |
CN110826369A (zh) * | 2018-08-10 | 2020-02-21 | 北京魔门塔科技有限公司 | 一种驾驶员驾驶时注意力检测方法和系统 |
WO2020042345A1 (zh) * | 2018-08-28 | 2020-03-05 | 初速度(苏州)科技有限公司 | 一种单相机采集人眼视线方向的方法及系统 |
-
2020
- 2020-05-28 CN CN202010467979.9A patent/CN111626221A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105769120A (zh) * | 2016-01-27 | 2016-07-20 | 深圳地平线机器人科技有限公司 | 疲劳驾驶检测方法和装置 |
CN107818310A (zh) * | 2017-11-03 | 2018-03-20 | 电子科技大学 | 一种基于视线的驾驶员注意力检测方法 |
CN109002774A (zh) * | 2018-06-28 | 2018-12-14 | 清华大学天津高端装备研究院 | 一种基于卷积神经网络的疲劳监测装置及方法 |
CN110826369A (zh) * | 2018-08-10 | 2020-02-21 | 北京魔门塔科技有限公司 | 一种驾驶员驾驶时注意力检测方法和系统 |
WO2020042345A1 (zh) * | 2018-08-28 | 2020-03-05 | 初速度(苏州)科技有限公司 | 一种单相机采集人眼视线方向的方法及系统 |
CN109044363A (zh) * | 2018-09-04 | 2018-12-21 | 华南师范大学 | 基于头部姿态和眼动的驾驶员疲劳检测方法 |
CN110119676A (zh) * | 2019-03-28 | 2019-08-13 | 广东工业大学 | 一种基于神经网络的驾驶员疲劳检测方法 |
Non-Patent Citations (1)
Title |
---|
解怀奇等: "基于通道注意力机制的视频人体行为识别", 《电子技术与软件工程》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112347851A (zh) * | 2020-09-30 | 2021-02-09 | 山东理工大学 | 多目标检测网络的构建方法、多目标检测方法及装置 |
CN112347851B (zh) * | 2020-09-30 | 2023-02-21 | 山东理工大学 | 多目标检测网络的构建方法、多目标检测方法及装置 |
CN112380935A (zh) * | 2020-11-03 | 2021-02-19 | 深圳技术大学 | 面向自动驾驶的人机协同感知方法及系统 |
CN112380935B (zh) * | 2020-11-03 | 2023-05-26 | 深圳技术大学 | 面向自动驾驶的人机协同感知方法及系统 |
CN113361441A (zh) * | 2021-06-18 | 2021-09-07 | 山东大学 | 基于头部姿态和空间注意力的视线区域估计方法及系统 |
CN113361441B (zh) * | 2021-06-18 | 2022-09-06 | 山东大学 | 基于头部姿态和空间注意力的视线区域估计方法及系统 |
CN116012932A (zh) * | 2022-12-29 | 2023-04-25 | 大连海事大学 | 一种驾驶员自适应的注视方向估计方法 |
CN116012932B (zh) * | 2022-12-29 | 2023-09-19 | 大连海事大学 | 一种驾驶员自适应的注视方向估计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626221A (zh) | 一种基于人眼信息增强的驾驶员注视区域估计方法 | |
CN109389806B (zh) | 基于多信息融合的疲劳驾驶检测预警方法、系统及介质 | |
CN113378771B (zh) | 驾驶员状态确定方法、装置、驾驶员监控系统、车辆 | |
CN103714660B (zh) | 基于图像处理融合心率特征与表情特征实现疲劳驾驶判别的系统 | |
CN110826369A (zh) | 一种驾驶员驾驶时注意力检测方法和系统 | |
CN105956548A (zh) | 驾驶员疲劳状况检测方法和装置 | |
CN104123549B (zh) | 一种用于疲劳驾驶实时监测的眼睛定位方法 | |
CN106250801A (zh) | 基于人脸检测和人眼状态识别的疲劳检测方法 | |
CN113743471A (zh) | 一种驾驶评估方法及其系统 | |
CN106128032A (zh) | 一种疲劳状态监测及预警方法及其系统 | |
CN107844783A (zh) | 一种营运车辆异常驾驶行为检测方法及系统 | |
CN111626272A (zh) | 一种基于深度学习的驾驶员疲劳监测系统 | |
CN106650635A (zh) | 一种驾驶员后视镜查看行为检测方法及系统 | |
CN111216637B (zh) | 一种面向安全辅助功能的车载抬头显示系统 | |
CN104881956A (zh) | 一种疲劳驾驶预警系统 | |
CN108256378A (zh) | 基于眼球动作识别的驾驶员疲劳检测方法 | |
JP2021130389A (ja) | 運転者状態推定装置 | |
CN108256487B (zh) | 一种基于反向双目的驾驶状态检测装置和方法 | |
CN109907756A (zh) | 基于头部姿态信息和眼电信息的驾驶疲劳监测系统 | |
Guo et al. | Monitoring and detection of driver fatigue from monocular cameras based on Yolo v5 | |
CN116012822B (zh) | 一种疲劳驾驶的识别方法、装置及电子设备 | |
CN108256397A (zh) | 基于投影积分的虹膜区域定位方法 | |
JP2021130390A (ja) | 運転者状態推定装置 | |
CN115923812A (zh) | 一种驾驶员分心驾驶识别方法、装置及存储介质 | |
CN113239798B (zh) | 基于孪生神经网络的三维头部姿态估计方法、存储介质和终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200904 |
|
WD01 | Invention patent application deemed withdrawn after publication |