CN112396235A - 基于眼球动作追踪的交通事故发生时间预测建模方法 - Google Patents
基于眼球动作追踪的交通事故发生时间预测建模方法 Download PDFInfo
- Publication number
- CN112396235A CN112396235A CN202011324076.1A CN202011324076A CN112396235A CN 112396235 A CN112396235 A CN 112396235A CN 202011324076 A CN202011324076 A CN 202011324076A CN 112396235 A CN112396235 A CN 112396235A
- Authority
- CN
- China
- Prior art keywords
- data
- time prediction
- eyeball
- accident occurrence
- occurrence time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000005252 bulbus oculi Anatomy 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 30
- 206010039203 Road traffic accident Diseases 0.000 title claims abstract description 26
- 238000004088 simulation Methods 0.000 claims abstract description 22
- 238000012360 testing method Methods 0.000 claims abstract description 22
- 230000009471 action Effects 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000012795 verification Methods 0.000 claims abstract description 14
- 238000003062 neural network model Methods 0.000 claims abstract description 8
- 238000002790 cross-validation Methods 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 210000002569 neuron Anatomy 0.000 claims description 15
- 230000004424 eye movement Effects 0.000 claims description 11
- 230000004434 saccadic eye movement Effects 0.000 claims description 9
- 230000002159 abnormal effect Effects 0.000 claims description 6
- 239000002131 composite material Substances 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 abstract description 9
- 230000008569 process Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Development Economics (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Educational Administration (AREA)
- Primary Health Care (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于眼球动作追踪的交通事故发生时间预测建模方法,包括以下步骤:建立危险驾驶工况仿真环境;标定眼球动作追踪设备;使用模拟驾驶系统进行驾驶员在环试验,收集眼球动作信息,得到原始试验数据;数据预处理,眼球动作数据与事故时间数据对应,挑选建模点和验证点,得到模型训练数据库;建立前馈神经网络模型;进行模型训练和交叉验证,得到事故时间预测模型;进行复杂危险工况下的驾驶模拟,并将眼球动作数据输入到事故时间预测模型中,验证模型可信度;输出交通事故发生时间预测模型。本发明使用以模拟驾驶系统试验为基础,使用前馈神经网络建模方法,得到高置信度的驾驶员眼球动作与事故发生时间之间的关系。
Description
技术领域
本发明涉及汽车制动系统的建模方法,尤其涉及一种基于模拟驾驶系统和眼球动作追踪的交通事故发生时间预测建模方法。
背景技术
随着社会经济的快速发展和人们生活水平的不断提高,汽车已经成为人们生产和生活中不可或缺的一部分,然而,交通事故给人们带来的生命和财产安全威胁也在逐渐增大。随着辅助驾驶,乃至无人驾驶的不断发展,如何避免交通事故的发生正在逐渐成为一个越来越重要的问题。由于模拟驾驶技术能够在保证一定仿真精度的情况下模拟各种驾驶工况,将在交通事故的识别和处理方法方面扮演重要角色。眼球动作是人的一种下意识动作,能够较为准确地反应人的决策特征。尽管已经有一定量涉及眼球动作的应用的专利公开,譬如CN201510822257.X、CN201610173439.3、CN201611227464.1,但是关于运用眼球动作进行交通事故发生时间预测的专利却几乎没有。因此,应当开发一种基于模拟驾驶系统的可以根据驾驶员眼球动作预测交通事故发生时间的方法。
前馈神经网络(feedforward neural network,FNN),简称前馈网络,是人工神经网络的一种。前馈神经网络采用一种单向多层结构。其中每一层包含若干个神经元。在此种神经网络中,各神经元可以接收前一层神经元的信号,并产生输出到下一层。前馈神经网络建模方法能够根据大量训练数据,自动地学习输入与输出的关系,且运算速度较快,适合进行复杂黑箱系统的建模。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种眼球动作追踪的交通事故发生时间预测建模方法。
为了达到上述目的,本发明提供一种基于眼球动作追踪的交通事故发生时间预测建模方法,包括以下步骤:
建立危险驾驶工况仿真环境;
标定眼球动作追踪设备;
使用模拟驾驶系统进行危险工况下的驾驶员在环试验,收集试验中的驾驶员眼球动作信息,得到包含眼球动作数据的原始试验数据;
对原始试验数据进行预处理,将眼球动作数据与事故时间数据对应,并随机挑选一定比例的建模点和验证点,得到模型训练数据库;
建立前馈神经网络模型;
使用模型训练数据库进行模型训练和交叉验证,得到事故时间预测模型;
使用模拟驾驶系统进行复杂危险工况下的驾驶模拟,并将眼球动作数据输入到事故时间预测模型中,验证模型可信度;
输出获得的交通事故发生时间预测模型。
进一步地,所述危险工况选自以下工况的一种或多种:违规变道,紧急刹车,行人违规横穿马路,非机动车突然闯入机动车道,机动车逆行,机动车闯红灯,车辆追尾。
进一步地,所述眼球动作信息包括跳视幅度、凝视数量、凝视时间、横向扫视幅度、纵向扫视幅度、眨眼数量以及相应的时间数据。
进一步地,对原始试验数据进行预处理时,将相关数据处于总体数据的正、负两倍标准差范围以外的数据视为异常点,将异常点所对应时间点的数据全部删除。
进一步地,进行眼球动作数据与事故时间数据对应时,将事故时间数据前移1s,并随机挑选一定比例的建模点和验证点,得到所述模型训练数据库,其中验证点比例不少于20%。
在一优选实施例中,所述建模点和验证点的比例为7:3。
进一步地,所建立的前馈神经网络模型中,输入层直接连接输入信号、输出信号直接连接事故发生的倒计时时间、输入层和输出层之间包含有隐含层和神经元。
在优选的一些实施例中,所述隐含层数量为2-8,所述神经元数量为10-40。
进一步地,使用模拟驾驶系统进行复杂危险工况驾驶模拟时,所述复杂危险工况包含进行驾驶员在环试验时涉及的所有危险工况以及具有这些危险工况特征的复合工况。
由于采用上述技术方案,本发明达到以下技术效果:本发明以模拟驾驶系统的驾驶员在环试验数据为基础,使用前馈神经网络建模方法,得到高置信度的驾驶员眼球动作与事故发生时间之间的关系,获得的交通事故发生时间预测模型可准确地根据驾驶员眼球动作预测事故的发生,提升驾驶的安全性,并可有效地降低汽车制动系统的研发成本。
附图说明
图1为根据本发明的基于眼球动作追踪的交通事故发生时间预测建模方法的流程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明,下面将结合实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所做的等效变化与修饰前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
请参见图1,本实施例提供一种基于眼球动作追踪的交通事故发生时间预测建模方法,包括如下步骤:
S1.在模拟驾驶系统中建立危险驾驶工况仿真环境:
本发明以模拟驾驶系统和眼球动作追踪设备为硬件基础,其中模拟驾驶系统中所设计的危险工况应为需要进行事故发生时间预测的工况,且须具有一定多样性。本实施例中,危险工况选自以下工况的一种或多种:违规变道,紧急刹车,行人违规横穿马路,非机动车突然闯入机动车道,机动车逆行,机动车闯红灯,车辆追尾。
S2.进行眼球动作跟踪设备标定:
本实施例中所采用的眼球动作追踪设备为smart eye pro,其是先进的水平/垂直遥测式眼动追踪设备,包括多个相机。由于该smart eye pro为现有设备,可通过市售获得,其具体的设备安装和标定操作本领域技术人员根据设备说明书即可完成,这里不再赘述。需要特别指出的是,进行眼球动作追踪设备标定时,必须至少标定九个离散点,且仅当标定结果误差小于一定阈值时方可进行下一步,否则必须重新进行标定。在本实施例中,阈值设定为95%。
S3.进行基于模拟驾驶系统的驾驶员在环实验:
进行危险工况下的驾驶员在环试验时,驾驶员应为熟练的有驾驶执照的人员,且年龄和驾驶年限等信息需与所研究对象对应,且需要记录的驾驶员眼球运动信息包括跳视幅度、凝视数量、凝视时间、横向扫视幅度、纵向扫视幅度、眨眼数量以及相应的时间数据。试验后,获得包含眼球动作数据的原始试验数据。
S4.对原始试验数据进行预处理:
将相关数据处于总体数据的正、负两倍标准差范围意外的数据视为异常点,需将异常点对应时间点的数据全部删除。然后将眼球动作数据与事故时间数据对应,此时,需将事故信号数据前移1s,并随机挑选一定比例的建模点和验证点,得到模型训练数据库,其中验证点比例不少于20%,得到模型训练数据库。本实施例中,建模点与验证点的比例为7:3。
S5.建立前馈神经网络模型:
所建立的前馈神经网络模型中,输入层直接连接输入信号、输出信号直接连接事故发生的倒计时时间、输入层和输出层之间包含有适量隐含层和神经元。本实施例中,隐含层的数量为2-8,神经元的数量为10-40。
S6.使用模型训练数据库进行模型训练和交叉验证,得到事故时间预测模型:
前馈神经网络的训练过程为:
(1)前向过程:
计算每个神经元的输入值和输出值
1)输入层神经元:输入值X1,j=Pj(输入层,i=1);输出值Y1,j=X1,j
(输出层,i=m)
输出值:Ym,j=Xm,j
其中:i表示所在神经网络层的编号,j表示所在神经元的编号,m表示输出层,即i的最大值。
(2)反向过程
1)计算每个输出神经元误差:Ej=Dj-Yj
2)更新权重:只有在隐含层才进行激活函数的计算,所以输入层的权重需要更新,而输出层的权重不会用到,不需要更新。
首先,
令
则:
由于i+1>1,所以不会是输入层,对于隐含层和输出层而言:
计算δi,k:
如果i+1是输出层,即i+1=m,则:
δi,k=f(X(i+1,k))'·(Y(i+1),k-Dk)=(Y(i+1),k-Dk)
如果i+1是隐含层,即i+1<m,则
则:
所以,
ΔWi,j,k=ηδi,k·Yi,j
3)更新阈值:输入层和输出层的神经元的阈值不需要进行更新,对于隐含层:
如果第i+1层是输出层,即i+1=m,
则
Δθi,j=η·(Y(i+1),k-Dk)
如果i+1层为隐含层,即i+1<m,
则:
Δθi,j=η·δi-1,j
以上过程反复进行,只有当输出层误差达到预先设定的阈值,或者迭代次数达到最大值时才会停止迭代计算。本实施例中,阈值设定为95%,当输出层误差达到95%,停止迭代计算。
交叉验证过程:
将验证点数据逐个输入训练好的前向神经网络模型中,并计算得到模型预测事故发生时间与相关验证点中试验得到的事故发生时间的差值。若差值小于1s,则表示模型在该点预测成功,否则表示模型在该点验证失败。
S7.可信度验证。
使用模拟驾驶系统进行复杂危险工况驾驶模拟,并将眼球动作数据输入到事故时间预测模型中,验证模型的可信度。所用复杂危险工况应当包含进行模拟驾驶试验时的所有危险工况以及具有这些危险工况特征的复合工况。若模型可信度达到预期目标,则进行下一步,否则返回S3。
S8.输出所得预测模型:
输出所得交通事故发生时间预测模型。
以上所述仅为本发明较佳的实施方式,并非用以限定本发明的保护范围;同时,以上的描述对于相关技术领域中具有通常知识者应可明了并据以实施,因此其他未脱离本发明所揭露概念下所完成之等效改变或修饰,都应涵盖在本发明的保护范围之内。
Claims (9)
1.一种基于眼球动作追踪的交通事故发生时间预测建模方法,其特征在于,包括以下步骤:
建立危险驾驶工况仿真环境;
标定眼球动作追踪设备;
使用模拟驾驶系统进行危险工况下的驾驶员在环试验,收集试验中的驾驶员眼球动作信息,得到包含眼球动作数据的原始试验数据;
对原始试验数据进行预处理,将眼球动作数据与事故时间数据对应,并随机挑选一定比例的建模点和验证点,得到模型训练数据库;
建立前馈神经网络模型;
使用模型训练数据库进行模型训练和交叉验证,得到事故时间预测模型;
使用模拟驾驶系统进行复杂危险工况下的驾驶模拟,并将眼球动作数据输入到事故时间预测模型中,验证模型可信度;
输出获得的交通事故发生时间预测模型。
2.根据权利要求1所述基于眼球动作追踪的交通事故发生时间预测建模方法,其特征在于,所述危险工况选自以下工况的一种或多种:违规变道,紧急刹车,行人违规横穿马路,非机动车突然闯入机动车道,机动车逆行,机动车闯红灯,车辆追尾。
3.根据权利要求1所述基于眼球动作追踪的交通事故发生时间预测建模方法,其特征在于,所述眼球动作信息包括跳视幅度、凝视数量、凝视时间、横向扫视幅度、纵向扫视幅度、眨眼数量以及相应的时间数据。
4.根据权利要求1所述基于眼球动作追踪的交通事故发生时间预测建模方法,其特征在于,对原始试验数据进行预处理时,将相关数据处于总体数据的正、负两倍标准差范围以外的数据视为异常点,将异常点所对应时间点的数据全部删除。
5.根据权利要求1所述基于眼球动作追踪的交通事故发生时间预测建模方法,其特征在于,进行眼球动作数据与事故时间数据对应时,将事故时间数据前移1s,并随机挑选一定比例的建模点和验证点,得到所述模型训练数据库,其中验证点比例不少于20%。
6.根据权利要求5所述基于眼球动作追踪的交通事故发生时间预测建模方法,其特征在于,所述建模点和验证点的比例为7:3。
7.根据权利要求1所述基于眼球动作追踪的交通事故发生时间预测建模方法,其特征在于,所建立的前馈神经网络模型中,输入层直接连接输入信号、输出信号直接连接事故发生的倒计时时间、输入层和输出层之间包含有隐含层和神经元。
8.根据权利要求1所述基于眼球动作追踪的交通事故发生时间预测建模方法,其特征在于,所述隐含层数量为2-8,所述神经元数量为10-40。
9.根据权利要求1所述基于眼球动作追踪的交通事故发生时间预测建模方法,其特征在于,使用模拟驾驶系统进行复杂危险工况驾驶模拟时,所述复杂危险工况包含进行驾驶员在环试验时涉及的所有危险工况以及具有这些危险工况特征的复合工况。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011324076.1A CN112396235B (zh) | 2020-11-23 | 2020-11-23 | 基于眼球动作追踪的交通事故发生时间预测建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011324076.1A CN112396235B (zh) | 2020-11-23 | 2020-11-23 | 基于眼球动作追踪的交通事故发生时间预测建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112396235A true CN112396235A (zh) | 2021-02-23 |
CN112396235B CN112396235B (zh) | 2022-05-03 |
Family
ID=74607755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011324076.1A Active CN112396235B (zh) | 2020-11-23 | 2020-11-23 | 基于眼球动作追踪的交通事故发生时间预测建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112396235B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408431A (zh) * | 2021-06-22 | 2021-09-17 | 青岛小鸟看看科技有限公司 | 基于眼球追踪的智能驾驶评估训练方法、系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170247031A1 (en) * | 2009-12-18 | 2017-08-31 | Honda Motor Co., Ltd. | Predictive human-machine interface using eye gaze technology, blind spot indicators and driver experience |
CN108334974A (zh) * | 2017-12-18 | 2018-07-27 | 上海瀚莅电子科技有限公司 | 危险监测方法、装置、头戴设备及计算机可读存储介质 |
CN108615110A (zh) * | 2018-04-23 | 2018-10-02 | 吉林大学 | 基于视觉特性的驾驶风险评估系统 |
CN109460780A (zh) * | 2018-10-17 | 2019-03-12 | 深兰科技(上海)有限公司 | 人工神经网络的车辆安全驾驶检测方法、装置及存储介质 |
CN109635793A (zh) * | 2019-01-31 | 2019-04-16 | 南京邮电大学 | 一种基于卷积神经网络的无人驾驶行人轨迹预测方法 |
CN110008978A (zh) * | 2017-12-07 | 2019-07-12 | 亿目朗欧洲股份有限公司 | 危险分级训练方法、危险分级方法、辅助或自动车辆驾驶系统 |
KR20190109720A (ko) * | 2019-09-06 | 2019-09-26 | 엘지전자 주식회사 | 차량의 주행 안내 방법 및 장치 |
CN110807352A (zh) * | 2019-08-29 | 2020-02-18 | 浙江零跑科技有限公司 | 一种用于危险驾驶行为预警的车内外场景视觉分析方法 |
CN111559382A (zh) * | 2020-05-09 | 2020-08-21 | Oppo广东移动通信有限公司 | 车辆行驶控制方法及装置 |
-
2020
- 2020-11-23 CN CN202011324076.1A patent/CN112396235B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170247031A1 (en) * | 2009-12-18 | 2017-08-31 | Honda Motor Co., Ltd. | Predictive human-machine interface using eye gaze technology, blind spot indicators and driver experience |
CN110008978A (zh) * | 2017-12-07 | 2019-07-12 | 亿目朗欧洲股份有限公司 | 危险分级训练方法、危险分级方法、辅助或自动车辆驾驶系统 |
CN108334974A (zh) * | 2017-12-18 | 2018-07-27 | 上海瀚莅电子科技有限公司 | 危险监测方法、装置、头戴设备及计算机可读存储介质 |
CN108615110A (zh) * | 2018-04-23 | 2018-10-02 | 吉林大学 | 基于视觉特性的驾驶风险评估系统 |
CN109460780A (zh) * | 2018-10-17 | 2019-03-12 | 深兰科技(上海)有限公司 | 人工神经网络的车辆安全驾驶检测方法、装置及存储介质 |
CN109635793A (zh) * | 2019-01-31 | 2019-04-16 | 南京邮电大学 | 一种基于卷积神经网络的无人驾驶行人轨迹预测方法 |
CN110807352A (zh) * | 2019-08-29 | 2020-02-18 | 浙江零跑科技有限公司 | 一种用于危险驾驶行为预警的车内外场景视觉分析方法 |
KR20190109720A (ko) * | 2019-09-06 | 2019-09-26 | 엘지전자 주식회사 | 차량의 주행 안내 방법 및 장치 |
CN111559382A (zh) * | 2020-05-09 | 2020-08-21 | Oppo广东移动通信有限公司 | 车辆行驶控制方法及装置 |
Non-Patent Citations (2)
Title |
---|
FARNAZ KHAGHANI: "A Deep Learning Approach to Predict Accident Occurrence Based on Traffic Dynamics", 《THE FACULTY OF THE VIRGINIA POLYTECHNIC INSTITUTE AND STATE UNIVERSITY》 * |
龚天洋 等: "视觉类次任务驾驶安全性预测模型", 《科学技术与工程》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408431A (zh) * | 2021-06-22 | 2021-09-17 | 青岛小鸟看看科技有限公司 | 基于眼球追踪的智能驾驶评估训练方法、系统 |
CN113408431B (zh) * | 2021-06-22 | 2023-03-10 | 青岛小鸟看看科技有限公司 | 基于眼球追踪的智能驾驶评估训练方法、系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112396235B (zh) | 2022-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gu et al. | A novel lane-changing decision model for autonomous vehicles based on deep autoencoder network and XGBoost | |
Moghaddam et al. | Prediction of accident severity using artificial neural networks | |
CN112052776B (zh) | 无人车自主驾驶行为优化方法、装置和计算机设备 | |
CN110077398B (zh) | 一种用于智能驾驶的危险处理方法 | |
CN110516380B (zh) | 一种基于车辆行驶仿真数据的深度强化测试方法和系统 | |
CN114399743A (zh) | 一种障碍物未来轨迹的生成方法 | |
CN111814766B (zh) | 车辆行为预警方法、装置、计算机设备和存储介质 | |
Lim et al. | Driver state estimation by convolutional neural network using multimodal sensor data | |
CN112396235B (zh) | 基于眼球动作追踪的交通事故发生时间预测建模方法 | |
Wang et al. | Causation analysis of crashes and near crashes using naturalistic driving data | |
Wu et al. | Driver lane change intention recognition based on Attention Enhanced Residual-MBi-LSTM network | |
Selvaraj et al. | An ML-aided reinforcement learning approach for challenging vehicle maneuvers | |
Zouhair et al. | Towards analyzing crash events for novice drivers under reduced-visibility settings: A simulator study | |
CN114148349B (zh) | 一种基于生成对抗模仿学习的车辆个性化跟驰控制方法 | |
Liu et al. | Estimation of driver lane change intention based on the LSTM and Dempster–Shafer evidence theory | |
CN113642114B (zh) | 可犯错的拟人化随机跟车驾驶行为建模方法 | |
Husen et al. | Syntactic pattern recognition of car driving behavior detection | |
CN113033902B (zh) | 一种基于改进深度学习的自动驾驶换道轨迹规划方法 | |
CN116946183A (zh) | 一种考虑驾驶能力的商用车驾驶行为预测方法及车用设备 | |
Ding et al. | Vehicle driving risk prediction model by reverse artificial intelligence neural network | |
Adamko et al. | Designing railway terminals using simulation techniques | |
CN113029155A (zh) | 机器人自动导航方法及装置、电子设备、存储介质 | |
CN114291097B (zh) | 实时反馈的驾驶行为差异化矫正方法、装置、设备 | |
Ding et al. | Research Article Vehicle Driving Risk Prediction Model by Reverse Artificial Intelligence Neural Network | |
Zhang et al. | What Are the Differences in Driver Lane-Changing Intention Models Recognition Performance Between Connected and Non-Connected Environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |