CN109960265B - 一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法 - Google Patents

一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法 Download PDF

Info

Publication number
CN109960265B
CN109960265B CN201910289235.XA CN201910289235A CN109960265B CN 109960265 B CN109960265 B CN 109960265B CN 201910289235 A CN201910289235 A CN 201910289235A CN 109960265 B CN109960265 B CN 109960265B
Authority
CN
China
Prior art keywords
fuzzy
visual
longitudinal
establishing
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201910289235.XA
Other languages
English (en)
Other versions
CN109960265A (zh
Inventor
莫红
陈新超
赵宣茗
曾雅琼
李润泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha University of Science and Technology
Original Assignee
Changsha University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha University of Science and Technology filed Critical Changsha University of Science and Technology
Priority to CN201910289235.XA priority Critical patent/CN109960265B/zh
Publication of CN109960265A publication Critical patent/CN109960265A/zh
Application granted granted Critical
Publication of CN109960265B publication Critical patent/CN109960265B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提出了一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法。与传统方法不同,新的视觉引导方法通过使用区间二型模糊集合来描述人类驾驶员的视觉焦点,该方法应用模糊综合评价方法,为计算机选择合适的视觉焦点,建立一个适合人类驾驶的模糊视觉引导规则库。该方法包括以下步骤:步骤1:收集视觉信息;步骤2:描述重要因素;步骤3:进行二型模糊综合评判;步骤4:建立模糊视觉引导规则库。本发明的特点如下:更好地解决语言模糊和数据噪声问题,更大的自由度隶属函数;同时,它在处理系统中具有明显的优势不确定性,提高图像处理的效率和速度,可以大大缩短响应时间和反应距离。

Description

一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法
技术领域
本发明致力于为无人驾驶车辆在路上行驶时获取更多的信息,让无人驾驶汽车更加安全的行驶提供更好的方案。
背景技术
自上世纪90年代以来,无人驾驶车领域成为热门话题,越来越多的专家学者致力于智能无人驾驶车的研发。随着计算机视觉和传感器技术的不断完善,无人驾驶车辆的研究不再局限于大公司的实验室,大学也参与了这项先进技术的研究热潮。在这种情况下,研究无人地面车辆算法的重要性是不言而喻的。然而,当前无人驾驶车辆阶段需要在路上行驶时每分每秒保持警惕,并且车载计算机总是处理由摄像机获得的周围信息,一些信息是必要的,否则交通事故很难避免,但在安全的前提下,一些信息是多余的,这增加了巨大的成本,严重影响了无人驾驶车辆系统的运行效率。
相机的初衷是从人类的角度模仿和观察世界,但人类的视角与相机的视角不同。人眼的视角,即人眼的视角,通常为120度,而注意力的浓度约为1/5,而且视觉焦点集中在一点,相机可以将当前视觉的所有内容转换为视频以供下一次分析。然而,人类依赖于仅从有限视图获得的信息来按照规定平稳地驾驶车辆。一方面,它是驾驶规则的改进和驾驶环境的标准化。另一方面,它显示了驾驶员关注的精确把握和明智选择。常识表明,当人类驾驶员前往不同的部分时,视觉焦点不一样,但模仿人类计算机却无法理解“视觉点”。今天的无人驾驶汽车技术,用于视觉处理,要么是全球处理,低效率换取高稳定,要么只有一部分功能要切断一些图像,追求优化处理。然而,速度是不足之处。
发明内容
针对以上问题,本发明解决的技术问题在于提出了一种无人驾驶车辆视觉引导方法。与传统方法不同,新的视觉引导方法通过使用区间二型模糊集合来描述人类驾驶员的视觉焦点,该模糊集合可以比传统的模糊集合更好地解决语言歧义和数据噪声问题。在此基础上,该方法应用模糊综合评价方法,为计算机选择合适的视觉焦点,建立一个适合人类驾驶的模糊视觉引导规则库。该方法有助于大大缩短响应时间和反应距离,并努力降低视觉处理成本。
本发明解决上述技术问题的技术方案如下:
步骤1:利用区间二型模糊集合引导无人驾驶,首先要经过收集视觉焦点信息和描述重要文件。
进一步,收集视觉焦点信息:通过测量眼睛的活动来了解人们关心的内容和人们忽视的内容,瞳孔对不同刺激的反应,保持焦点的时间以及搜索方式。
进一步,描述重要信息:以某些重要因素作为影响视觉焦点选择的因素,为影响驾驶员选择的因素建立相应的隶属函数视觉焦点。
步骤2:根据所选因素,运用区间二型模糊集合综合评判对无人驾驶视觉引导进行评判,其中包括以下步骤:
步骤2.1:确定评估对象的因素;
进一步,将Ω={ω1,ω2}设置为评估对象的一组因素,其中ω1表示“横向长度”;ω2表示“纵向长度”。
步骤2.2:建立评估对象的注释集;
进一步,将S={s1,s2,s3}设置为评估对象的一组注释,其中s1表示“合理”;s2代表“中度”;s3表示“不合理”。
步骤2.3:为每个因素建立权重集;
进一步,根据实际情况和相关经验,可以在因素集中设置两个因素的权重集建立了A={0.5,0.5}
步骤2.4:通过评估单因素建立模糊综合评价矩阵;
进一步,隶属度矩阵R是从Ω到S的模糊关系,评估每个因素并获得向量:
r1=[r11r12],r2=[r21r22],r3=[r31r32]
进一步,其中rmn表示m因子和Sn对应基本字之间的匹配程度。通过结合r1、r2和r3,获得了隶属度矩阵,表示为:
Figure BDA0002024359830000031
步骤2.5:计算模糊综合评价矩阵;
进一步,其中,因子ω1、ω2与“放松”、“适度”、“紧急”之间的匹配度定义为r1、r2和r3。最后,使用加权平均模糊合成算子得到二型模糊综合评价矩阵:
Figure BDA0002024359830000032
其中,
Figure BDA0002024359830000033
表示广义的模糊合成算法。
步骤2.6:根据最大隶属度原则做出判断。
进一步,所有因素和基本词之间匹配度的加权模糊综合值作为主要隶属度,所有次要隶属度为1,可以采用区间二型模糊控制集的形式:
Figure BDA0002024359830000034
步骤3:根据所选因素,运用区间二型模糊集合建立一个接近人类驾驶的模糊规则库,其中包括以下步骤:
步骤3.1:在域的定义中Ωn,n∈{1,2,3},定义作为状态变量,即对无人驾驶车辆的视觉焦点的评估
Figure BDA0002024359830000035
进一步,
Figure BDA0002024359830000036
是域的基础词Ωn
步骤3.2:建立
Figure BDA0002024359830000037
定义
Figure BDA0002024359830000038
作为控制域的基础词;
进一步,
Figure BDA0002024359830000039
意思是“车辆向左转”,
Figure BDA00020243598300000310
意思是“车辆直走”,
Figure BDA00020243598300000311
意思是“车辆向右转”。
步骤3.3:建立
Figure BDA00020243598300000312
定义
Figure BDA00020243598300000313
作为控制域的基础词;
进一步,
Figure BDA00020243598300000314
意思是“车辆上坡行驶”,
Figure BDA00020243598300000315
意思是“车辆水平行驶”,
Figure BDA00020243598300000316
意思是“车辆下坡行驶”。
步骤3.4:根据驾驶经验和实际情况,采用模糊控制规则R1,R2和R3,并在Ωn,n∈{1,2,3}域上单独设置。
进一步,
RuleR1
Figure BDA0002024359830000041
如果v1
Figure BDA0002024359830000042
γ1
Figure BDA0002024359830000043
那么你可以选择纵向中间的横向和中间;
Figure BDA0002024359830000044
如果v1
Figure BDA0002024359830000045
γ1
Figure BDA0002024359830000046
那么你可以选择纵向左侧和中间左侧;
Figure BDA0002024359830000047
如果v1
Figure BDA0002024359830000048
γ1
Figure BDA0002024359830000049
那么你可以选择纵向的横向和中间的右侧。
RuleR2
Figure BDA00020243598300000410
如果v1
Figure BDA00020243598300000411
γ1
Figure BDA00020243598300000412
那么你可以选择纵向的横向和横向中间;
Figure BDA00020243598300000413
如果v1
Figure BDA00020243598300000414
γ1
Figure BDA00020243598300000415
那么你可以选择纵向的横向和上部的左侧;
Figure BDA00020243598300000416
如果v1
Figure BDA00020243598300000417
γ1
Figure BDA00020243598300000418
那么你可以选择纵向的横向和上部的右侧。
RuleR3
Figure BDA00020243598300000419
如果v1
Figure BDA00020243598300000420
γ1
Figure BDA00020243598300000421
那么你可以选择纵向中下侧和下侧;
Figure BDA00020243598300000422
如果v1
Figure BDA00020243598300000423
γ1
Figure BDA00020243598300000424
那么你可以选择纵向左侧和下侧的左侧;
Figure BDA00020243598300000425
如果v1
Figure BDA00020243598300000426
γ1
Figure BDA00020243598300000427
那么你可以选择纵向的横向和纵向的右侧。
R1,R2和R3构成了时变宇宙中的模糊规则序列,以实现无人驾驶车辆视觉焦点的正确选择。
本发明提出了一种基于二型模糊控制集无人驾驶车辆视觉引导方法,其优点在于:
本发明适用于无人驾驶视觉系统,是一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法。本方法提供的决策方案,与传统方法不同,新的视觉引导方法通过使用区间二型模糊集合来描述人类驾驶员的视觉焦点,该模糊集合可以比传统的模糊集合更好地解决语言歧义和数据噪声问题。在此基础上,该方法应用模糊综合评价方法,为计算机选择合适的视觉焦点,建立一个适合人类驾驶的模糊视觉引导规则库。该方法有助于大大缩短响应时间和反应距离,并努力降低视觉处理成本。
附图说明
图1为横向长度的隶属函数示意图;
图2为纵向长度的隶属函数示意图;
图3为无人驾驶车辆视觉引导方法的评判流程图。
具体实施方式
结合附图及本发明的实施例对本发明的一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法作进一步详细的说明。
1)直行状态下,视觉焦点的标识
在直线行驶期间,虽然没有其他车辆和障碍物的干扰,但保持直线行驶是合理的,应该在前挡风玻璃的适当范围内进行视觉聚焦。
根据“横向长度”(单位为cm),基础词设置在区间[0,160]上,这是左,中,右的从属函数的相应关闭支持(CoS)示意图。相应的会员功能如下:
Figure BDA0002024359830000051
Figure BDA0002024359830000061
Figure BDA0002024359830000062
根据“纵向长度”(单位为cm),在[0,80]区间设置基础字,它们是上,中,下属的从属函数的对应CoS示意图。相应的会员功能如下:
Figure BDA0002024359830000063
Figure BDA0002024359830000064
Figure BDA0002024359830000065
2)评估视觉焦点:
在这项研究中,右转的视觉焦点将通过无人驾驶车辆视觉引导方法进行评估,当他们右转时,四个人类驾驶员的视觉焦点。视觉焦点评估的执行过程可以如上所述进行说明。
表1.当右转时,四个人类驾驶员视觉焦点
评价 横向长度 纵向长度
u<sub>1</sub> 76 24
u<sub>2</sub> 98 51
u<sub>3</sub> 140 48
u<sub>4</sub> 120 64
Figure BDA0002024359830000071
Figure BDA0002024359830000072
Figure BDA0002024359830000073
右转的热力学图表显示,在最大隶属度原则后,从S1,S2和S3比较中,显然μ1是不合理的,μ2适度的,μ3合理的,μ4合理的。

Claims (3)

1.一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法,其特征在于,包括以下步骤:
步骤1:收集视觉信息;
步骤2:描述重要因素;
步骤3:进行二型模糊综合评判,包括:
步骤3.1:确定评估对象的因素;
步骤3.2:建立评估对象的注释集;
步骤3.3:为每个因素建立权重集;
步骤3.4:通过评估单因素建立模糊综合评价矩阵;
步骤3.5:计算模糊综合评价矩阵;
步骤3.6:根据最大隶属度原则做出判断;
步骤4:根据所选因素,运用区间二型模糊集合建立一个接近人类驾驶的模糊规则库,包括:
步骤4.1:在域的定义中Ωn,n∈{1,2,3},定义作为状态变量,即对无人驾驶车辆的视觉焦点的评估
Figure FDA0003730344240000011
步骤4.2:建立
Figure FDA0003730344240000012
定义
Figure FDA0003730344240000013
作为控制域的基础词;
步骤4.3:建立
Figure FDA0003730344240000014
定义
Figure FDA0003730344240000015
作为控制域的基础词;
规则R1
Figure FDA0003730344240000016
如果v1
Figure FDA0003730344240000017
γ1
Figure FDA0003730344240000018
那么选择纵向中间的横向和中间;
Figure FDA0003730344240000019
如果v1
Figure FDA00037303442400000110
γ1
Figure FDA00037303442400000111
那么选择纵向左侧和中间左侧;
Figure FDA00037303442400000112
如果v1
Figure FDA00037303442400000113
γ1
Figure FDA00037303442400000114
那么选择纵向的横向和中间的右侧;
规则R2
Figure FDA00037303442400000115
如果v1
Figure FDA00037303442400000116
γ1
Figure FDA00037303442400000117
那么选择纵向的横向和横向中间;
Figure FDA0003730344240000021
如果v1
Figure FDA0003730344240000022
γ1
Figure FDA0003730344240000023
那么选择纵向的横向和上部的左侧;
Figure FDA0003730344240000024
如果v1
Figure FDA0003730344240000025
γ1
Figure FDA0003730344240000026
那么选择纵向的横向和上部的右侧;
规则R3
Figure FDA0003730344240000027
如果v1
Figure FDA0003730344240000028
γ1
Figure FDA0003730344240000029
那么选择纵向中下侧和下侧;
Figure FDA00037303442400000210
如果v1
Figure FDA00037303442400000211
γ1
Figure FDA00037303442400000212
那么选择纵向左侧和下侧的左侧;
Figure FDA00037303442400000213
如果v1
Figure FDA00037303442400000214
γ1
Figure FDA00037303442400000215
那么选择纵向的横向和纵向的右侧;
R1,R2和R3构成了时变论域中的模糊规则序列,以实现无人驾驶车辆视觉焦点的正确选择;
其中,
Figure FDA00037303442400000216
是域的基础词Ωn
Figure FDA00037303442400000217
意思是“车辆向左转”,
Figure FDA00037303442400000218
意思是“车辆直走”,
Figure FDA00037303442400000219
意思是“车辆向右转”;
Figure FDA00037303442400000220
意思是“车辆上坡行驶”,
Figure FDA00037303442400000221
意思是“车辆水平行驶”,
Figure FDA00037303442400000222
意思是“车辆下坡行驶”;
步骤4.4:根据驾驶经验和实际情况,采用模糊控制规则R1,R2和R3,并在Ωn,n∈{1,2,3}域上单独设置。
2.根据权利要求1所述的一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法,其特征在于,步骤1中:
通过经验分析或眼动追踪,获得不同场景下人类驾驶员的视觉焦点信息;眼睛跟踪是一种通过测量眼睛注视的位置或眼球相对于头部的运动来跟踪眼睛运动的方法,通过测量眼睛的活动来了解人们关心的内容和人们忽视的内容,瞳孔对不同刺激的反应,保持焦点的时间以及搜索方式。
3.根据权利要求1所述的一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法,其特征在于,步骤2中:
用挡风玻璃为研究对象,以两个重要因素“横向长度”和“纵向长度”为影响视觉焦点选择的因素,为影响驾驶员视觉焦点选择的因素建立了相应的隶属函数。
CN201910289235.XA 2019-04-11 2019-04-11 一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法 Expired - Fee Related CN109960265B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910289235.XA CN109960265B (zh) 2019-04-11 2019-04-11 一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910289235.XA CN109960265B (zh) 2019-04-11 2019-04-11 一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法

Publications (2)

Publication Number Publication Date
CN109960265A CN109960265A (zh) 2019-07-02
CN109960265B true CN109960265B (zh) 2022-10-21

Family

ID=67026056

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910289235.XA Expired - Fee Related CN109960265B (zh) 2019-04-11 2019-04-11 一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法

Country Status (1)

Country Link
CN (1) CN109960265B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112291534A (zh) * 2020-12-15 2021-01-29 成都运达科技股份有限公司 城轨全自动运行系统cctv监控场景自动推送功能仿真方法
CN116074479A (zh) * 2023-03-03 2023-05-05 山东交通学院 基于图像分析的乘务监控系统、方法、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103455795A (zh) * 2013-08-27 2013-12-18 西北工业大学 一种基于交通视频数据图像的确定交通目标所在区域的方法
CN108961473A (zh) * 2018-08-07 2018-12-07 长安大学 一种基于智能网联汽车控制中心的车辆状态评估预警方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5493456B2 (ja) * 2009-05-01 2014-05-14 ソニー株式会社 画像処理装置、画像処理方法、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103455795A (zh) * 2013-08-27 2013-12-18 西北工业大学 一种基于交通视频数据图像的确定交通目标所在区域的方法
CN108961473A (zh) * 2018-08-07 2018-12-07 长安大学 一种基于智能网联汽车控制中心的车辆状态评估预警方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Bypassing the Natural Visual-Motor Pathway to Execute Complex Movement Related Tasks Using Interval Type-2 Fuzzy Sets;Khasnobish, A.1等;《IEEE Transactions on Neural Systems and Rehabilitation Engineering》;20171231;第25卷(第1期);第88-102页 *
基于type-2模糊逻辑在图像处理中的研究;张芬;《中国优秀硕士学位论文全文数据库 信息科技辑》;20190115(第12期);第36-38页 *

Also Published As

Publication number Publication date
CN109960265A (zh) 2019-07-02

Similar Documents

Publication Publication Date Title
CN109263639B (zh) 基于状态栅格法的驾驶路径规划方法
Liu et al. A novel lane change decision-making model of autonomous vehicle based on support vector machine
CN112347567B (zh) 一种车辆意图和轨迹预测的方法
Pomerleau Neural network vision for robot driving
CN109684702B (zh) 基于轨迹预测的行车风险辨识方法
Zhao et al. Modeling driver behavior at roundabouts: Results from a field study
CN101644932B (zh) 行驶支持用设备
CN106874597A (zh) 一种应用于自动驾驶车辆的高速公路超车行为决策方法
US20100209881A1 (en) Driving skill recognition based on behavioral diagnosis
CN109960265B (zh) 一种基于区间二型模糊集合的无人驾驶车辆视觉引导方法
Li et al. Learning human-like trajectory planning on urban two-lane curved roads from experienced drivers
Jochem et al. Life in the fast lane: The evolution of an adaptive vehicle control system
CN113715842B (zh) 一种基于模仿学习和强化学习的高速运动车辆控制方法
Li et al. Human-like trajectory planning on curved road: Learning from human drivers
CN111324130A (zh) 一种仿鸽群的智能车编队协同自适应巡航控制切换方法
Guo et al. Control model of automated driving systems based on SOTIF evaluation
CN114670837B (zh) 一种智能汽车类人弯道轨迹双重规划系统
Milanés et al. An approach to driverless vehicles in highways
Zeng et al. A support vector machine-based truck discretionary lane changing decision model
Chen et al. DCFS-based deep learning supervisory control for modeling lane keeping of expert drivers
CN114708568A (zh) 基于改进RTFNet的纯视觉自动驾驶控制系统、方法、介质
Kumar et al. Understanding human driving behavior through computational cognitive modeling
Rosero et al. CNN-Planner: A neural path planner based on sensor fusion in the bird's eye view representation space for mapless autonomous driving
Chen et al. Imitating driver behavior for fast overtaking through bagging Gaussian process regression
Cabani et al. ADAS multi-sensor fusion system-based security and energy optimisation for an electric vehicle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20221021

CF01 Termination of patent right due to non-payment of annual fee