CN114943956A - 多场景下的驾驶分心识别方法、系统及车辆 - Google Patents

多场景下的驾驶分心识别方法、系统及车辆 Download PDF

Info

Publication number
CN114943956A
CN114943956A CN202210721192.XA CN202210721192A CN114943956A CN 114943956 A CN114943956 A CN 114943956A CN 202210721192 A CN202210721192 A CN 202210721192A CN 114943956 A CN114943956 A CN 114943956A
Authority
CN
China
Prior art keywords
driving
distraction
driver
driving distraction
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210721192.XA
Other languages
English (en)
Other versions
CN114943956B (zh
Inventor
曾娟
许博
王昊
黄炫榕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202210721192.XA priority Critical patent/CN114943956B/zh
Publication of CN114943956A publication Critical patent/CN114943956A/zh
Application granted granted Critical
Publication of CN114943956B publication Critical patent/CN114943956B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供了一种多场景下的驾驶分心识别方法、系统及车辆,其方法包括:构建初始驾驶分心识别模型,获取多场景下的驾驶分心数据样本集,利用所述多场景下的驾驶分心数据样本集对所述初始驾驶分心识别模型进行训练,得到目标驾驶分心识别模型;实时获取车辆参数、周边环境信息和驾驶员头部数据,根据车辆参数和周边环境信息确定驾驶场景信息,并将所述车辆参数、驾驶员头部数据和驾驶场景信息输入目标驾驶分心识别模型,得到驾驶员驾驶状态;根据所述驾驶员驾驶状态确定预警信息。本发明通过建立多场景下的驾驶分心识别模型,实现对各种驾驶场景下的驾驶分心行为的准确识别并对驾驶分心行为发出警报,提高驾驶的安全性。

Description

多场景下的驾驶分心识别方法、系统及车辆
技术领域
本发明涉及汽车驾驶研究技术领域,具体涉及一种多场景下的驾驶分心识别方法、系统及车辆。
背景技术
随着我国社会的发展和科学技术的进步,截止到2021年,我国机动车的保有量达到3.95亿辆,其中汽车保有量达到3.05亿辆。在2020一年当中,全国机动车交通事故发生24.45万件,其中由汽车造成的交通事故达到15.69万件(占比74%)。根据我国道路交通事故的统计分析,其中90%的交通事故是由于驾驶人造成的,而驾驶分心是造成交通事故的一个重要原因。
目前驾驶分心的检测方法主要是通过驾驶员生理反应指标、驾驶人操作行为、车辆运行轨迹等等进行检测。心电信号、脑电信号、肌电信号、皮电信号、呼吸、血压等这些生理反应指标虽然在驾驶过程中较易测量,但是由于直接与驾驶人接触,一定程度上会影响驾驶的安全性,这会对测量结果造成较大影响,导致识别准确率不高。并且,现有的驾驶分心识别研究仅仅是对单一场景(如城市道路)进行识别,缺乏对多场景(如城市道路、高速道路,人流量大的道路、人流量小的道路等)的驾驶员行为识别,即现有技术不能应对车辆在行驶中遇到的多种不同场景情况。
因此,如何在多种场景下非接触式的准确识别驾驶分心行为是亟待解决的问题。
发明内容
有鉴于此,有必要提供一种多场景下的驾驶分心识别方法、系统及车辆,在非接触式识别的同时能够根据不同道路场景对驾驶员分心状况进行准确识别。
一方面,为了实现上述目的,本发明提供了一种多场景下的驾驶分心识别方法,包括:
构建初始驾驶分心识别模型,获取多场景下的驾驶分心数据样本集,利用所述多场景下的驾驶分心数据样本集对所述初始驾驶分心识别模型进行训练,得到目标驾驶分心识别模型;
实时获取车辆参数、周边环境信息和驾驶员头部数据,根据车辆参数和周边环境信息确定驾驶场景信息,并将所述车辆参数、驾驶员头部数据和驾驶场景信息输入目标驾驶分心识别模型,得到驾驶员驾驶状态;
根据所述驾驶员驾驶状态确定预警信息。
在一些可能的实现方式中,所述构建初始驾驶分心识别模型,获取多场景下的驾驶分心数据样本集,利用所述多场景下的驾驶分心数据样本集对所述初始驾驶分心识别模型进行训练,得到目标驾驶分心识别模型,包括:
构建初始驾驶分心识别模型,所述初始驾驶分心识别模型包括N个场景驾驶分心识别模型,其中每个场景驾驶分心识别模型只识别一种场景下的驾驶分心行为,N为大于1的整数;
获取多场景下的驾驶分心数据样本集,所述多场景下的驾驶分心数据样本集包括N个场景驾驶分心数据样本集;
基于所述N个场景驾驶分心数据样本集采用SVM算法对所述初始驾驶分心识别模型进行驾驶分心识别训练,得到N个目标场景驾驶分心识别模型,所述N个目标场景驾驶分心识别模型共同构成目标驾驶分心识别模型。
在一些可能的实现方式中,所述获取多场景下的驾驶分心数据样本集,包括:
通过驾驶模拟器构建不同驾驶场景,获取所述不同驾驶场景下分别在进行分心驾驶和正常驾驶状态下的驾驶员头部数据和车辆参数;
选取所述驾驶员头部数据和车辆参数中表征驾驶员存在驾驶分心的数据作为所述多场景下的驾驶分心数据样本集中的数据。
在一些可能的实现方式中,所述实时获取车辆参数、周边环境信息和驾驶员头部数据,根据车辆参数和周边环境信息确定驾驶场景信息,并将所述车辆参数、驾驶员头部数据和驾驶场景信息输入目标驾驶分心识别模型,得到驾驶员驾驶状态,包括:
实时获取车辆周边环境信息和车辆参数,根据周边环境信息确定驾驶场景信息;
实时获取驾驶员头部数据和车辆参数,将所述车辆参数、驾驶员头部信息和驾驶场景信息输入所述目标驾驶分心识别模型,根据驾驶场景信息切换对应的场景驾驶分心识别模型,所述对应的场景驾驶分心识别模型根据所述车辆参数和驾驶员头部信息识别得到驾驶员驾驶状态。
在一些可能的实现方式中,所述驾驶员驾驶状态,包括:驾驶员处于驾驶分心状态和驾驶员处于正常驾驶状态。
在一些可能的实现方式中,所述根据所述驾驶员驾驶状态确定预警信息,包括:
若驾驶员处于分心驾驶状态,则启用警报对驾驶员进行提醒;
若驾驶员处于正常驾驶状态,则不启用警报。
在一些可能的实现方式中,所述车辆参数包括:纵向车速平均值、纵向加速度标准差、方向盘转角、车辆航向角、车道位置、车辆间距、横向位置、转向灯状态、车道位置、车辆间距;
所述周边环境信息包括:弯道、同向的行人和非机动车距离、对向的行人和非机动车距离、物、行驶的对向车辆距离、跟随的同向车辆距离;
在一些可能的实现方式中,所述驾驶员头部数据包括:注视点位置、注视时间、注视持续时间、瞳孔直径、扫视持续时间、平均注视时间、路面注视时间比例、驾驶员头部转向角度、扫视频率、总扫视时间、视线离开路面时间。
另一方面,本发明还提供了一种多场景下的驾驶分心识别系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时,实现上述实现方式中任一项所述的多场景下的驾驶分心识别方法。
另一方面,本发明还提供了一种车辆,包括上述实现方式中所述的多场景下的驾驶分心识别系统。
采用上述实施例的有益效果是:本发明提供的多场景下的驾驶分心识别方法,通过获取周边环境信息确定对应的驾驶场景,以应对实际驾驶过程中多变的驾驶场景,并使用SVM算法进行模型训练,得到的驾驶分心识别模型包括多个场景驾驶分心识别模型,且每个场景驾驶分心识别模型只识别一种场景下的驾驶分心行为,使得识别的准确率显著提高,并能实时根据实际驾驶场景切换对应的场景驾驶分心识别模型,实现多场景下的驾驶分心识别。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的多场景下的驾驶分心识别方法的一个实施例流程示意图;
图2为本发明实施例中S101的一个实施例流程示意图;
图3为本发明实施例中S102的一个实施例流程示意图;
图4为本发明提供的多场景下的驾驶分心识别系统的一个实施例结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,示意性的附图并未按实物比例绘制。本发明中使用的流程图示出了根据本发明的一些实施例实现的操作。应当理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本发明内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器系统和/或微控制器系统中实现这些功能实体。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
在实施例描述之前,对相关词语进行释义:
多场景:包括周边环境场景和道路场景,周边环境场景包括开阔场景和繁杂场景,车辆周围20m内人、车(机动车和非机动车)事物总和超过10个,则判定为繁杂路段,反之判定为开阔场景,道路场景包括直线场景和弯道场景,直线和弯道场景还包括环岛驶入和驶出场景,交叉路口直线和转弯场景等。本发明实施例提及的多场景为周边环境场景和道路场景相结合的多个场景。
SVM:SVM(support vector machine)是支持向量机,是一种可以训练的机器学习方法,是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法创建一个将新的实例分配给两个类别之一的模型,使其成为非概率二元线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。
基于上述名词描述,在现有技术中,对驾驶员驾驶分心行为进行识别仅仅是对单一场景(如城市道路)进行识别,缺乏对多场景(如城市道路、高速道路,人流量大的道路、人流量小的道路等)下驾驶员的驾驶分心行为识别,且现有技术中在不同场景下对驾驶分心行为的判断标准并无不同,导致实际对驾驶员分心驾驶行为识别的准确率不高。除此之外,获取检测驾驶分心需要的相关数据也需要测量设备与驾驶员直接接触,影响驾驶安全性。因此,本发明旨在提出一种方法能在多种场景下非接触式的准确识别驾驶分心行为,并对驾驶分心行为进行预警,提高驾驶安全性。
以下分别对具体实施例进行详细说明:
本发明实施例提供了一种多场景下的驾驶分心识别方法、系统及车辆,以下分别进行说明。
如图1所示,图1为本发明提供的多场景下的驾驶分心识别方法的一个实施例流程示意图,包括:
S101、构建初始驾驶分心识别模型,获取多场景下的驾驶分心数据样本集,利用所述多场景下的驾驶分心数据样本集对所述初始驾驶分心识别模型进行训练,得到目标驾驶分心识别模型;
S102、实时获取车辆参数、周边环境信息和驾驶员头部数据,根据车辆参数和周边环境信息确定驾驶场景信息,并将所述车辆参数、驾驶员头部数据和驾驶场景信息输入目标驾驶分心识别模型,得到驾驶员驾驶状态;
S103、根据所述驾驶员驾驶状态确定预警信息。
与现有技术相比,本发明实施例提供的多场景下的驾驶分心识别方法,通过多场景下的驾驶分心数据样本集训练得到的目标驾驶分心识别模型能够实现在多场景下准确识别驾驶分心行为,并对驾驶分心行为进行预警,解决了现有技术对驾驶分心行为的识别场景单一的技术问题。
在本发明的一些实施例中,多场景包括开阔或繁杂环境下的直线场景和弯道场景,其中开阔和繁杂环境还包括高速、郊区等开阔地带场景和市区、集市等繁杂地带场景,直线和弯道场景还包括环岛驶入和驶出场景,交叉路口直线和转弯场景等。
需要说明的是,本发明实施例提供的多场景下的驾驶分心识别方法中所述多场景包括但不限于上述实施例中列举的场景。
在本发明的一些实施例中,如图2所示,图2为本发明实施例中S101的一个实施例流程示意图,步骤S101包括步骤S201至S203:
S201、构建初始驾驶分心识别模型,所述初始驾驶分心识别模型包括N个场景驾驶分心识别模型,其中每个场景驾驶分心识别模型只识别一种场景下的驾驶分心行为,N为大于1的整数;
具体的,初始驾驶分心识别模型包括的多个场景驾驶分心识别模型,即初始驾驶分心识别模型是以上述实施例中的列举的多个场景为基础构建的。
S202、获取多场景下的驾驶分心数据样本集,所述多场景下的驾驶分心数据样本集包括N个场景驾驶分心数据样本集;
具体的,通过驾驶模拟器构建不同驾驶场景,获取所述不同驾驶场景下分别在进行分心驾驶和正常驾驶状态下的驾驶员头部数据和车辆参数;
选取所述驾驶员头部数据和车辆参数中表征驾驶员存在驾驶分心的数据作为所述多场景下的驾驶分心数据样本集中的数据。
在本发明具体的实施例中,驾驶员头部数据包括:注视点位置、注视时间、注视持续时间、瞳孔直径、扫视持续时间、平均注视时间、路面注视时间比例、驾驶员头部转向角度、扫视频率、总扫视时间、视线离开路面时间等数据。
车辆参数包括:纵向车速平均值、纵向加速度标准差、方向盘转角、车辆航向角、车道位置、车辆间距、横向位置、转向灯状态、车道位置、车辆间距等。
获取驾驶员头部数据采用非接触式眼动仪,在不接触驾驶员的情况下获取驾驶员头部数据,避免直接接触驾驶员产生的安全隐患。
通过对比在不同场景正常驾驶状态下和分心驾驶状态下所采集的驾驶员头部数据和车辆参数,选取其中能表征驾驶员存在分心驾驶的数据,作为样本集中的数据,因此样本集中的数据包括正常驾驶状态下和分心驾驶状态下的驾驶员头部数据和车辆参数。由于不同场景下的出现驾驶分心时,其头部数据和车辆参数会有所不同,因此需要根据不同的场景分类建立不同场景下的数据样本集。
其中,多场景下的驾驶分心数据样本集包括60%训练集,20%交叉验证集和20%测试集,60%的训练集对不同场景的模型进行训练,20%的交叉验证集用来寻找最优参数,20%的验证集用来验证模型训练的准确率。
S203、基于所述N个场景驾驶分心数据样本集采用SVM算法对所述初始驾驶分心识别模型进行驾驶分心识别训练,得到N个目标场景驾驶分心识别模型,所述N个目标场景驾驶分心识别模型共同构成目标驾驶分心识别模型。
在本发明具体的实施例中,初始驾驶分心识别模型采用径向基核函数(RBF)作为SVM的核函数:
Figure BDA0003708554820000081
其中xi和xj是两个数据点,γ是预定于的正参数。使用RBF,可以通过调节参数γ和惩罚系数C来实现线性和非线性映射,相比于其他的核函数,RBF可以获得更加稳定的结果。
需要说明的是,惩罚系数C为SVM模型中的常数,代表对分类错误的容忍度或分类错误的惩罚力度,C越大表示越不能容忍出现误差,容易导致过拟合,反之C越小,容易导致欠拟合,C过大或过小都会使得模型的泛化能力变差,因此在模型训练过程中,在2-5到25之间寻找C和γ的合适值,使模型获得更好的泛化能力。
需要说明的是,在实际驾驶过程中,不同的周边环境信息(如行人、车辆和其他事物)会对驾驶员会产生不同程度的驾驶分心影响,因此在本发明实施例中采用逐步逻辑回归方法建立各环境变量对驾驶注意力需求等级,在模型训练过程中对这些环境变量的影响赋予相应的权重。并且在不同驾驶场景下要求驾驶员注意力需求等级也不同,例如:在弯道行驶模式下,由于只有一个路口,无论周围事物多(繁杂)还是少(开阔),驾驶员注意力理应着重放在弯道上,因此在模型训练过程中将驾驶员的头部数据进行相应的权重分配之后和车辆参数输入到该场景驾驶分心识别模型中进行训练;在直线行驶模式下,由于没有复杂的路口,正常情况下不会出现有车、人乱窜,所以无论周围事物多(繁杂)还是少(开阔),驾驶员的注意力应当着重放在车辆所在车道的前方,因此在模型训练过程中将驾驶人的头部数据进行相应的权重分配之后和车辆参数输入到该场景驾驶分心识别模型中进行训练。
本发明实施例通过使用不同场景下的驾驶分心数据样本集对初始驾驶分心识别模型进行训练,并在训练过程中对不同周边环境下的环境变量的影响和不同驾驶场景下的驾驶员头部数据赋予相应的权重,使得得到的不同场景下的目标场景驾驶分心识别模型对该场景下的驾驶分心行为识别准确率更高,进一步的,提高了目标驾驶分心识别模型对驾驶分心行为的识别准确率高。
进一步的,在本发明的一些实施例中,如图3所示,图3为本发明实施例中S102的一个实施例流程示意图,步骤S102包括步骤S301至S302:
S301、实时获取车辆周边环境信息和车辆参数,根据周边环境信息确定驾驶场景信息;
S302、实时获取驾驶员头部数据和车辆参数,将所述车辆参数、驾驶员头部信息和驾驶场景信息输入所述目标驾驶分心识别模型,根据驾驶场景信息切换对应的场景驾驶分心识别模型,所述对应的场景驾驶分心识别模型根据所述车辆参数和驾驶员头部信息识别得到驾驶员驾驶状态。
在本发明的一些实施例中,获取周边环境信息主要包括:弯道、同向的行人和非机动车距离、对向的行人和非机动车距离、物(垃圾桶、公交站牌、停止的车辆和其他(包括广告牌等等)、行驶的对向车辆距离、跟随的同向车辆距离等。
在具体的实施例中,实时获取当前车速,当速度达到设定阈值,目标驾驶分心识别模型开始识别,实时获取周边环境信息和车辆参数,根据周边环境信息确定驾驶场景信息,例如:对车道线进行识别,若识别到前方50m内道路有交叉道路并且结合油门和加速踏板的位置,则判定是否为交叉路口,然后再通过车道标识、车道线、转向灯状态进行直行或者转弯行驶意图的判断;若识别出前方50m内有环岛存在,并且结合油门和加速踏板的位置,判定是否准备进入环岛,若识别出的环岛在车辆前方10m时,判定为环岛驶入;当要驶出环岛时,结合转向灯和方向盘位置和速度参数,若打右转向灯并且方向盘发生转动一定角度和有一定转动速度时,判定为环岛驶出;若识别出的车道50m内的道路没有交叉道路,则将识别的车道信息根据公式计算出道路的曲率半径,若当前车辆所处的车道线曲率半径大于或等于50m,判定为直线行驶,小于50m则判定为弯道行驶,然后再对周围事物进行识别,若发现车辆周围20m内人、车(机动车和非机动车)事物总和超过10个,则判定为繁杂路段,否则判定为开阔路段,根据判定的道路行驶信息和周边事物信息确定对应的驾驶场景信息。
根据驾驶场景信息,目标驾驶分心识别模型将实时获取的驾驶员头部信息和车辆参数信息输入对应的场景驾驶分心识别模型对驾驶员的驾驶分心行为进行识别,利用模型进行驾驶分心检测时,会存在一个时间窗的设计,时间窗口宽度为5s,重叠率为75%。将每个时间窗计算出的数据导入模型中即可进行驾驶分心的识别。例如,当目标驾驶分心识别模型开始识别出此时的时间窗存在驾驶分心,标记为“分心”,在继续进行驾驶分心的识别时,接下来的连续至少三个时间窗都被标记为“分心”,则目标驾驶分心识别模型输出识别结果为分心,否则不输出为分心。
进一步的,在本发明的一些实施例中,步骤S103包括:根据驾驶员驾驶状态确定预警信息,若驾驶员处于分心驾驶状态,则启用警报对驾驶员进行提醒;若驾驶员处于正常驾驶状态,则不启用警报。
本发明实施例通过检测驾驶分心行为时为模型设计一个时间窗,使得模型在实际进行驾驶分心识别时对驾驶员的驾驶分心行为的误判率更低。
如图4所示,本发明还相应提供了一种多场景下的驾驶分心识别系统400。该系统400包括处理器401、存储器402及显示器403。图4仅示出了系统400的部分组件,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
处理器401在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器402中存储的程序代码或处理数据,例如本发明中的多场景下的驾驶分心识别方法。
在一些实施例中,处理器401可以是单个服务器或服务器组。服务器组可为集中式或分布式的。在一些实施例中,处理器401可为本地的或远程的。在一些实施例中,处理器401可实施于云平台。在一实施例中,云平台可包括私有云、公共云、混合云、社区云、分布式云、内部间、多重云等,或以上的任意组合。
存储器402在一些实施例中可以是系统400的内部存储单元,例如系统400的硬盘或内存。存储器402在另一些实施例中也可以是系统400的外部存储设备,例如系统400上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
进一步地,存储器402还可既包括系统400的内部储存单元也包括外部存储设备。存储器402用于存储安装系统400的应用软件及各类数据。
显示器403在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。显示器403用于显示在系统400的信息以及用于显示可视化的用户界面。系统400的部件401-403通过系统总线相互通信。
在一实施例中,当处理器401执行存储器402中的多场景下的驾驶分心识别程序时,可实现以下步骤:
构建初始驾驶分心识别模型,获取多场景下的驾驶分心数据样本集,利用所述多场景下的驾驶分心数据样本集对所述初始驾驶分心识别模型进行训练,得到目标驾驶分心识别模型;
实时获取车辆参数、周边环境信息和驾驶员头部数据,根据车辆参数和周边环境信息确定驾驶场景信息,并将所述车辆参数、驾驶员头部数据和驾驶场景信息输入目标驾驶分心识别模型,得到驾驶员驾驶状态;
根据所述驾驶员驾驶状态确定预警信息。
应当理解的是:处理器401在执行存储器402中的多场景下的驾驶分心识别程序时,除了上面的功能之外,还可实现其它功能,具体可参见前面相应方法实施例的描述。
上述实施例提供的多场景下的驾驶分心识别系统400可实现上述多场景下的驾驶分心识别方法实施例中描述的技术方案,上述各元件具体实现的原理可参见上述多场景下的驾驶分心识别系统实施例中的相应内容,此处不再赘述。
相应地,本申请实施例还提供一种车辆,包括上述实施例提供的多场景下的驾驶分心识别系统。
在具体的实施例中,该车辆可以是包括多场景下驾驶分心识别系统的汽车,在此不作限定,通过采用该多场景下驾驶分心识别系统,能够根据场景的变化识别该场景下的驾驶分心行为,并发出警报,提高驾驶安全性。
本领域技术人员可以理解,实现上述实施例方法的全部或部分流程,可以通过计算机程序来指令相关的硬件(如处理器,控制器等)来完成,计算机程序可存储于计算机可读存储介质中。其中,计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上对本发明所提供的多场景下的驾驶分心识别方法、系统及车辆进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种多场景下的驾驶分心识别方法,其特征在于,包括:
构建初始驾驶分心识别模型,获取多场景下的驾驶分心数据样本集,利用所述多场景下的驾驶分心数据样本集对所述初始驾驶分心识别模型进行训练,得到目标驾驶分心识别模型;
实时获取车辆参数、周边环境信息和驾驶员头部数据,根据车辆参数和周边环境信息确定驾驶场景信息,并将所述车辆参数、驾驶员头部数据和驾驶场景信息输入目标驾驶分心识别模型,得到驾驶员驾驶状态;
根据所述驾驶员驾驶状态确定预警信息。
2.根据权利要求1所述的一种多场景下的驾驶分心识别方法,其特征在于,所述构建初始驾驶分心识别模型,获取多场景下的驾驶分心数据样本集,利用所述多场景下的驾驶分心数据样本集对所述初始驾驶分心识别模型进行训练,得到目标驾驶分心识别模型,包括:
构建初始驾驶分心识别模型,所述初始驾驶分心识别模型包括N个场景驾驶分心识别模型,其中每个场景驾驶分心识别模型只识别一种场景下的驾驶分心行为,N为大于1的整数;
获取多场景下的驾驶分心数据样本集,所述多场景下的驾驶分心数据样本集包括N个场景驾驶分心数据样本集;
基于所述N个场景驾驶分心数据样本集采用SVM算法对所述初始驾驶分心识别模型进行驾驶分心识别训练,得到N个目标场景驾驶分心识别模型,所述N个目标场景驾驶分心识别模型共同构成目标驾驶分心识别模型。
3.根据权利要求2所述的一种多场景下的驾驶分心识别方法,其特征在于,所述获取多场景下的驾驶分心数据样本集,包括:
通过驾驶模拟器构建不同驾驶场景,获取所述不同驾驶场景下分别在进行分心驾驶和正常驾驶状态下的驾驶员头部数据和车辆参数;
选取所述驾驶员头部数据和车辆参数中表征驾驶员存在驾驶分心的数据作为所述多场景下的驾驶分心数据样本集中的数据。
4.根据权利要求1所述的一种多场景下的驾驶分心识别方法,其特征在于,所述实时获取车辆参数、周边环境信息和驾驶员头部数据,根据车辆参数和周边环境信息确定驾驶场景信息,并将所述车辆参数、驾驶员头部数据和驾驶场景信息输入目标驾驶分心识别模型,得到驾驶员驾驶状态,包括:
实时获取车辆周边环境信息和车辆参数,根据周边环境信息确定驾驶场景信息;
实时获取驾驶员头部数据和车辆参数,将所述车辆参数、驾驶员头部信息和驾驶场景信息输入所述目标驾驶分心识别模型,根据驾驶场景信息切换对应的场景驾驶分心识别模型,所述对应的场景驾驶分心识别模型根据所述车辆参数和驾驶员头部信息识别得到驾驶员驾驶状态。
5.根据权利要求1所述的一种多场景下的驾驶分心识别方法,其特征在于,所述驾驶员驾驶状态,包括:驾驶员处于驾驶分心状态和驾驶员处于正常驾驶状态。
6.根据权利要求5所述的一种多场景下的驾驶分心识别方法,其特征在于,所述根据所述驾驶员驾驶状态确定预警信息,包括:
若驾驶员处于分心驾驶状态,则启用警报对驾驶员进行提醒;
若驾驶员处于正常驾驶状态,则不启用警报。
7.根据权利要求1所述的一种多场景下的驾驶分心识别方法,其特征在于,所述车辆参数包括:纵向车速平均值、纵向加速度标准差、方向盘转角、车辆航向角、车道位置、车辆间距、横向位置、转向灯状态、车道位置、车辆间距;
所述周边环境信息包括:弯道、同向的行人和非机动车距离、对向的行人和非机动车距离、物、行驶的对向车辆距离、跟随的同向车辆距离。
8.根据权利要求1所述的一种多场景下的驾驶分心识别方法,其特征在于,所述驾驶员头部数据包括:注视点位置、注视时间、注视持续时间、瞳孔直径、扫视持续时间、平均注视时间、路面注视时间比例、驾驶员头部转向角度、扫视频率、总扫视时间、视线离开路面时间。
9.一种多场景下的驾驶分心识别系统,系统包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,处理器执行程序时,实现根据权利要求1至8任一项所述的一种多场景下的驾驶分心识别方法。
10.一种车辆,其特征在于,包括如权利要求9所述的一种多场景下的驾驶分心识别系统。
CN202210721192.XA 2022-06-22 2022-06-22 多场景下的驾驶分心识别方法、系统及车辆 Active CN114943956B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210721192.XA CN114943956B (zh) 2022-06-22 2022-06-22 多场景下的驾驶分心识别方法、系统及车辆

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210721192.XA CN114943956B (zh) 2022-06-22 2022-06-22 多场景下的驾驶分心识别方法、系统及车辆

Publications (2)

Publication Number Publication Date
CN114943956A true CN114943956A (zh) 2022-08-26
CN114943956B CN114943956B (zh) 2024-09-06

Family

ID=82910737

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210721192.XA Active CN114943956B (zh) 2022-06-22 2022-06-22 多场景下的驾驶分心识别方法、系统及车辆

Country Status (1)

Country Link
CN (1) CN114943956B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI824854B (zh) * 2022-11-28 2023-12-01 樹德科技大學 客運行駛安全之監測方法及系統
CN117257308A (zh) * 2023-10-30 2023-12-22 济南大学 基于驾驶员眼动信息的驾驶员认知分心检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809152A (zh) * 2016-04-06 2016-07-27 清华大学 一种基于多源信息融合的驾驶员认知分心监测方法
CN110843794A (zh) * 2020-01-15 2020-02-28 北京三快在线科技有限公司 驾驶场景理解方法、装置和轨迹规划方法、装置
CN112183466A (zh) * 2020-10-26 2021-01-05 同济大学 一种基于道路场景识别的分心驾驶识别方法
US20220032924A1 (en) * 2020-07-30 2022-02-03 Morgan State University System and method for driver distraction detection and classification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809152A (zh) * 2016-04-06 2016-07-27 清华大学 一种基于多源信息融合的驾驶员认知分心监测方法
CN110843794A (zh) * 2020-01-15 2020-02-28 北京三快在线科技有限公司 驾驶场景理解方法、装置和轨迹规划方法、装置
US20220032924A1 (en) * 2020-07-30 2022-02-03 Morgan State University System and method for driver distraction detection and classification
CN112183466A (zh) * 2020-10-26 2021-01-05 同济大学 一种基于道路场景识别的分心驾驶识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张辉;钱大琳;邵春福;钱振伟;菅美英;: "驾驶人分心状态判别支持向量机模型优化算法", 交通运输系统工程与信息, no. 01, 15 February 2018 (2018-02-15) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI824854B (zh) * 2022-11-28 2023-12-01 樹德科技大學 客運行駛安全之監測方法及系統
CN117257308A (zh) * 2023-10-30 2023-12-22 济南大学 基于驾驶员眼动信息的驾驶员认知分心检测方法及系统

Also Published As

Publication number Publication date
CN114943956B (zh) 2024-09-06

Similar Documents

Publication Publication Date Title
Azadani et al. Driving behavior analysis guidelines for intelligent transportation systems
Xue et al. Rapid Driving Style Recognition in Car‐Following Using Machine Learning and Vehicle Trajectory Data
Gu et al. A novel lane-changing decision model for autonomous vehicles based on deep autoencoder network and XGBoost
CN108995655B (zh) 一种驾驶员驾驶意图识别方法及系统
US9165477B2 (en) Systems and methods for building road models, driver models, and vehicle models and making predictions therefrom
CN114943956B (zh) 多场景下的驾驶分心识别方法、系统及车辆
Lyu et al. Using naturalistic driving data to identify driving style based on longitudinal driving operation conditions
CN112885145B (zh) 路口风险预警的方法和装置
You et al. A fatigue driving detection algorithm based on facial motion information entropy
US20210074091A1 (en) Automated vehicle actions, and associated systems and methods
Xie et al. CNN-based driving maneuver classification using multi-sliding window fusion
CN108357496A (zh) 自动驾驶控制方法及装置
US11491979B2 (en) Automated vehicle actions such as lane departure warning, and associated systems and methods
Zhu et al. What can we learn from autonomous vehicle collision data on crash severity? A cost-sensitive CART approach
US9542605B2 (en) State recognition system and state recognition method
CN111477030B (zh) 车辆协同避险方法、车端平台、云端平台及存储介质
CN115675520A (zh) 无人驾驶实现方法、装置、计算机设备和存储介质
CN117056153A (zh) 校准和验证驾驶员辅助系统和/或自动驾驶系统的方法、系统和计算机程序产品
Liu et al. Estimation of driver lane change intention based on the LSTM and Dempster–Shafer evidence theory
Yan et al. Automatic identification method for driving risk status based on multi-sensor data
KR20150066308A (ko) 운전자 운행 상태 판단 장치 및 그 방법
CN115520216A (zh) 行车状态判断方法、装置、计算机设备和存储介质
CN115855531A (zh) 自动驾驶汽车的测试场景构建方法、设备和介质
CN114895274A (zh) 一种护栏识别方法
Ponn et al. Performance Analysis of Camera-based Object Detection for Automated Vehicles.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant