CN108960083B - 基于多传感器信息融合的自动驾驶目标分类方法及系统 - Google Patents
基于多传感器信息融合的自动驾驶目标分类方法及系统 Download PDFInfo
- Publication number
- CN108960083B CN108960083B CN201810627515.2A CN201810627515A CN108960083B CN 108960083 B CN108960083 B CN 108960083B CN 201810627515 A CN201810627515 A CN 201810627515A CN 108960083 B CN108960083 B CN 108960083B
- Authority
- CN
- China
- Prior art keywords
- target
- camera
- reliability
- sensor
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明实施例发明了一种基于多传感器信息融合的自动驾驶目标分类方法。所述目标分类方法包括:两个或多个传感器对目标对象分别进行检测,并初步判断所述目标对象的类型;根据所述传感器的可靠性参数,计算所述目标对象的基本概率赋值函数;对上述基本概率赋值函数进行信息融合,判定所述目标对象的类型。本发明能够利用多种传感器各自检测并初步判断出目标对象的类型,通过一种信息融合的算法,获取精准的目标类型,提高自动驾驶的安全可靠性。
Description
技术领域
本发明涉及自动驾驶领域,特别是一种基于多传感器信息融合的自动驾驶目标分类方法及系统。
背景技术
在自动驾驶技术中,获知车辆周围目标的类别(比如说行人,自行车,轿车,卡车等)将会对单车自动驾驶带来极大的辅助。并且获知目标的类型对于自动驾驶运动模型的学习与训练都有极大的帮助。
自动驾驶车辆往往会安装多种传感器,比如激光雷达、摄像头和测速雷达等,因此在对目标进行分类时,首先要通过不同传感器的检测特征(激光雷达检测目标的大小,摄像头检测目标的轮廓,测速雷达可检测目标的速度)分别对目标进行分类,之后通过信息融合的方式,将不同传感器的结果融合到一起。有效的信息融合能够很好地减小目标的误判,对于目标的追踪,障碍物的躲避都会起到很好的作用。但在实际融合的过程中,往往不能充分利用各个传感器的优势,将现有数据很好的融合在一起。
发明内容
为实现在自动驾驶中精准判断目标对象的类型,本发明实施例提供了一种基于多传感器信息融合的自动驾驶目标分类的方法。
根据本发明的一个方面,提出一种基于多传感器信息融合的自动驾驶目标分类的方法,该方法包括步骤:两个或多个传感器对目标对象分别进行检测,并初步判断所述目标对象的类型;针对每种传感器选择传感器的可靠性参数;根据所述传感器的可靠性参数,计算每种传感器针对所述目标对象的基本概率赋值函数;对上述基本概率赋值函数进行信息融合,判定所述目标对象的类型,所述目标对象的类型包括行人、自行车、轿车和卡车,分别表示为p,b,c,t;
其中,所述传感器包括激光雷达、摄像头和测速雷达;
对于所述激光雷达,其基本概率赋值函数mlidar(A)定义如下:
其中,μp,μb,μc,μt分别表示所述激光雷达对检测行人,自行车,轿车和卡车的准确度,αp,αb,αc分别表示所述激光雷达对行人,自行车和轿车的误检因子,mlidar(Ω)则表示该值不知如何分配,即不确定程度;
对于所述摄像头,其基本概率赋值函数mcamera(A)定义如下:
其中,ζp,ζb,ζc,ζt分别表示所述摄像头判断目标类型行人,自行车,轿车和卡车的可靠性,θ表示所述摄像头的精确度;
对于所述测速雷达,其基本概率赋值函数mradar(A)定义如下:
其中,所述测速雷达对于行人和自行车的检测可靠性为σpb,轿车和卡车的检测可靠性为σct。
根据本发明的另一种情况,提出一种基于多传感器信息融合的自动驾驶目标分类系统,该系统包括:两个或多个传感器,用于对目标对象分别进行检测,并初步判断所述目标对象的类型;可靠性参数选择模块,用于针对每种传感器选择传感器的可靠性参数;计算单元,根据所述传感器的可靠性参数,计算每种传感器针对所述目标对象的基本概率赋值函数;信息融合单元,对上述基本概率赋值函数进行信息融合,判定所述目标对象的类型,所述目标对象的类型包括行人、自行车、轿车和卡车,分别表示为p,b,c,t;
其中,所述传感器包括激光雷达、摄像头和测速雷达;
对于所述激光雷达,其基本概率赋值函数mlidar(A)定义如下:
其中,μp,μb,μc,μt分别表示所述激光雷达对检测行人,自行车,轿车和卡车的准确度,αp,αb,αc分别表示所述激光雷达对行人,自行车和轿车的误检因子,mlidar(Ω)则表示该值不知如何分配,即不确定程度;
对于所述摄像头,其基本概率赋值函数mcamera(A)定义如下:
其中,ζp,ζb,ζc,ζt分别表示所述摄像头判断目标类型行人,自行车,轿车和卡车的可靠性,θ表示所述摄像头的精确度;
对于所述测速雷达,其基本概率赋值函数mradar(A)定义如下:
其中,所述测速雷达对于行人和自行车的检测可靠性为σpb,轿车和卡车的检测可靠性为σct。
本发明基于证据理论,充分融合了多种传感器的信息,实现对目标种类的精准判断,提高了自动驾驶的安全性和可靠性
附图说明
图1是根据本发明一实施例的基于多传感器信息融合的自动驾驶目标分类的方法的流程图。
图2为根据本发明一实施例的基于多传感器信息融合的自动驾驶目标分类方法中计算基本概率赋值函数的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明提出一种基于多传感器信息融合的自动驾驶目标分类的方法,针对自动驾驶过程中遇到的目标对象,利用多种传感器各自检测并初步判断出目标对象类型,通过一种基于证据理论的信息融合方式,获取精准的目标的类型,提高自动驾驶的安全可靠性。
图1示出根据本发明一实施方式的基于多传感器信息融合的自动驾驶目标分类方法的流程图。参照图1,该方法包括以下步骤:
步骤S1,利用两个或多个传感器对目标对象分别进行检测,并初步判断所述目标对象的类型。
随着智能驾驶相关技术的飞速发展,自动驾驶越来越关注驾驶的安全性,要求智能驾驶系统中的传感器能识别不同车道的行人及自行车,同一车道上行驶的轿车和卡车,并能在有障碍时改变自动驾驶状态,避免事故的发生。
在智能驾驶系统中,需要重点识别的目标对象主要是行人、自行车、轿车和卡车,本发明以这几种为例进行描述,但并不限于仅仅识别这几类目标对象,而是可以识别道路上可能出现的对驾驶有影响的任何目标对象。
传感器种类繁多,本发明优选选用激光雷达、摄像头和测速雷达来识别目标对象。
激光雷达,用于根据目标对象的大小对目标类型进行判断。激光雷达可以准确地描述目标的大小,因此根据大小,可以判断出人,自行车,轿车或者卡车。
摄像头,用于根据目标对象的轮廓,对目标类型进行判断。摄像头则可以很好地获取目标的轮廓信息,从而根据这些轮廓,判断出目标的种类。
测速雷达,用于根据目标对象的速度,对目标类型进行判断。测速雷达可以很好地捕获目标的速度,因此,可以根据目标的速度,判断出目标是自行车或者行人,还是轿车或者卡车。
本发明中,采用激光雷达,摄像头和测速雷达这三种传感器,分别从不同的角度(目标大小,轮廓和速度)来对目标的种类进行描述,能够充分弥补不同角度判断结果信息的不足,提高信息的可靠性。
步骤S2,根据所述传感器的可靠性参数,计算所述目标对象的基本概率赋值函数。
参考图2,该步骤进一步包括:
步骤S21,根据激光雷达的可靠性参数,计算出目标的基本概率赋值函数(BPA):
上述公式中,其中μp,μb,μc,μt分别是激光雷达对检测行人,自行车,轿车和卡车的准确度,这些值主要与激光雷达通过目标大小判断目标类别的算法有关,可以通过真实测试得到。αp,αb,αc分别表示激光雷达由于客观原因对行人,自行车和轿车的误检因子,Ω表示被检测对象的全集,根据本发明的实施例,包括有人、自行车、轿车和卡车,A表示Ω的子集,mlidar(A)表示根据当前观测结果(证据)对于Ω的子集A的信任程度,如mlidar({p})表示当前证据对于判断结果是行人的信任程度,mlidar(Ω)则表示这个值不知如何分配,即不确定程度。mlidar(﹛b,c,t﹜)表示当前证据对于判断结果是自行车、轿车或卡车的信任程度。其他类似形式的参数表示类似的含义。
根据上述准确度和误检因子可计算其基本概率赋值函数mlidar(A),客观原因例如是轿车可能被挡住了一部分导致在大小上被检测成了自行车,但如果检测出来的是卡车,那就不存在客观原因。
如上述公式所示,由于是根据大小来判断目标的种类,如果检测类别是人,则一方面可能是行人,另一方面,有可能是自行车,轿车或卡车被遮挡的结果;如果检测类别是自行车,则一方面可能是自行车,另一方面可能是轿车或者卡车被遮挡的结果;如果检测类型是轿车,则一方面可能是轿车,另一方面可能是卡车被遮挡的结果;如果检测类型是大卡车,则只能是卡车。
步骤S22,利用摄像头的信息,根据目标的轮廓,对目标类型进行判断,按照如下公式来计算摄像头分类的基本概率赋值函数:
其中ζp,ζb,ζc,ζp分别是摄像头利用轮廓信息判断目标类型的可靠性,与检测算法有关,θ是摄像头的精确度,与摄像头的像素等有关,利用轮廓进行检测,容易把行人和自行车相互混淆,也容易把轿车和卡车相互混淆,例如在公式中,在检测结果为行人时,既对结果为行人有一定的信任程度mcamera({p})=θζp,也对结果为行人或自行车的合集有一定的信任程度mcamera({p,b})=(1-θ)ζp。计算其基本概率赋值函数mcamera(A);
步骤S23,利用测速雷达信息,根据目标的速度信息,对目标进行分类,按照以下公式计算测速雷达分类的基本概率赋值函数:
由于行人和自行车的速度相近,卡车和轿车的速度相近,所以只能分成两大组,设测速雷达利用速度信息对于行人和自行车的检测可靠性为σpb,轿车和卡车的为σct,这个值与临界速度有关,计算其基本概率赋值函数mradar(A)。
步骤S3,对上述基本概率赋值函数进行信息融合,判定所述目标对象的类型。
在分别计算上述激光雷达,摄像头和测速雷达对目标对象产生的基本概率赋值函数之后,利用下面的公式进行多传感器信息融合:
上述融合算法如下:
m(Φ)=0
式中,m(A)表示根据当前的信息(证据),将结果判断为A的可靠程度,i表示传感器的种类,j表示根据证据判断的可能的集合,n表示传感器的个数,mi(Aj)表示各个传感器根据其检测结果对于可能子集的信任程度,即基本概率赋值函数。m(Φ)表示融合各个传感器,对于判断结果为空集的信任程度,φ表示空集。若K=0,认为mi(Aj)之间是矛盾的。对于集合A来说,m(A)的计算方法是,首先对三个传感器中交集为A的赋值函数进行累乘,之后再将所有的累乘结果累加,再乘上系数K得到。累乘累加的具体计算方式在下面参照应用实例的描述中通过实例有进一步说明。
本发明的方法使用了所述激光雷达,摄像头和测速雷达三种传感器对目标对象进行检测并分类,通过其各自的可靠性参数计算出相应的基本概率赋值函数,最终通过证据理论中的融合算法对三种传感器的结果进行信息融合,从而得出对于目标对象种类判断较为准确的结果,为自动驾驶的安全性和可靠性带来了重要保障。
下面描述利用本发明的方法的一具体应用实例,具体实施步骤为:
步骤一,利用激光雷达采集的信息,根据待检测目标的大小,对目标进行分类,假设路况比较宽敞,目标之间没有遮挡,故αp=αb=αc=1,检测算法对于行人的检测准确度μp=0.9。根据激光雷达的可靠性参数,计算出目标的基本概率赋值函数(BPA),如激光雷达将其分为行人,则其BPA为:
mlidar({p})=0.9mlidar(Ω)=0.1
步骤二,利用摄像头的信息,根据待检测目标的轮廓,对目标进行分类,假设摄像头自身的准确度θ=0.9,检测算法对于行人的检测准确度ζp=0.9。根据摄像头的可靠性参数,计算出目标的基本概率赋值函数(BPA),如摄像头将其分为行人,则其BPA为:
mcamera({p})=0.81mcamera({p,b})=0.09mcamera(Ω)=0.1
步骤三,利用测速雷达的信息,根据待检测目标的速度,对目标进行分类,假设测速雷达对于轿车和卡车的检测准确度σct=0.9。根据测速雷达的可靠性参数,计算出目标的基本概率赋值函数(BPA),在此,假设测速雷达检测失误,结果检测为轿车或卡车,则其BPA为:
mradar({c,t})=0.9mradar(Ω)=0.1
步骤四,对三种传感器对目标分类产生的基本概率赋值函数进行信息融合。在该应用实例中,各个传感器(激光雷达,摄像头和测速雷达)根据其检测结果产生的可能子集包括{p}、{b,p}、{c,t}、{Ω}。
K=mlidar({p})×mcamera({p})×mradar(Ω)+mlidar({p})×mcamera({p,b})×mradar(Ω)+mlidar({p})×mcamera(Ω)×mradar(Ω)+mlidar(Ω)×mcamera({p})×mradar(Ω)+mlidar(Ω)×mcamera({p,b})×mradar(Ω)+mlidar(Ω)×mcamera(Ω)×mradar({c,t})+mlidar(Ω)×mcamera(Ω)×mradar(Ω)=0.109
m(Φ)=0
m({c,t})=K-1×{mlidar(Ω)×mcamera(Ω)×mradar({c,t})}=0.0826
m({p,b})=K-1×{mlidar(Ω)×mcamera({p,b})×mradar(Ω)}=0.00826
m(Ω)=K-1×{mlidar(Ω)×mcamera(Ω)×mradar(Ω)}=0.00917
所以有m(Φ,{p},{c,t}{p,b},Ω)=(0,0.9,0.0826,0.00826,0.00917),表示该种情况下,判断为行人,轿车或卡车,行人或者自行车,不确定的可靠度分别为0.9,0.0826,0.00826,0.00917,故而判断为行人。
本发明还提出一种用于实现上述方法的基于多传感器信息融合的自动驾驶目标分类系统,该系统包括:两个或多个传感器,用于对目标对象分别进行检测,并初步判断所述目标对象的类型;计算单元,根据所述传感器的可靠性参数,计算每种传感器针对所述目标对象的基本概率赋值函数;信息融合单元,对上述基本概率赋值函数进行信息融合,判定所述目标对象的类型。所述传感器包括激光雷达、摄像头和测速雷达,所述目标对象包括行人、自行车、轿车和卡车。所述计算单元和信息融合单元如何执行计算和信息融合在上面参照方法的描述中已经有详细说明,在此不再赘述。
本发明还提出一种计算机存储介质,该介质上存储有计算机程序,该计算机程序被行以实施本发明的上述方法。
本发明的自动驾驶目标分类技术中多传感器信息融合方法的优点在于:能够将激光雷达,摄像头和测速雷达对于目标种类的判断结果融合到一起,增加自动驾驶技术中目标检测的准确率,避免单一传感器的误检测,提高自动驾驶技术的可靠性。
本发明通过信息融合算法将激光雷达,摄像头和测速雷达对于目标类型的判断结果融合到一起,增加了判断自动驾驶技术中目标类型检测的准确率,避免单一传感器的误检测,提高自动驾驶技术的可靠性。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于多传感器信息融合的自动驾驶目标分类方法,其特征在于,包括:
两个或多个传感器对目标对象分别进行检测,并初步判断所述目标对象的类型;
针对每种传感器选择传感器的可靠性参数;
根据所述传感器的可靠性参数,计算每种传感器针对所述目标对象的基本概率赋值函数;
对上述基本概率赋值函数进行信息融合,判定所述目标对象的类型,
所述目标对象的类型包括行人、自行车、轿车和卡车,分别表示为p,b,c,t;
其中,所述传感器包括激光雷达、摄像头和测速雷达;
对于所述激光雷达,其基本概率赋值函数mlidar(A)定义如下:
其中,μp,μb,μc,μt分别表示所述激光雷达对检测行人,自行车,轿车和卡车的准确度,αp,αb,αc分别表示所述激光雷达对行人,自行车和轿车的误检因子,mlidar(Ω)则表示该值不知如何分配,即不确定程度;
对于所述摄像头,其基本概率赋值函数mcamera(A)定义如下:
其中,ζp,ζb,ζc,ζt分别表示所述摄像头判断目标类型行人,自行车,轿车和卡车的可靠性,θ表示所述摄像头的精确度;
对于所述测速雷达,其基本概率赋值函数mradar(A)定义如下:
其中,所述测速雷达对于行人和自行车的检测可靠性为σpb,轿车和卡车的检测可靠性为σct。
3.一种基于多传感器信息融合的自动驾驶目标分类系统,其特征在于,该系统包括:
两个或多个传感器,用于对目标对象分别进行检测,并初步判断所述目标对象的类型;
可靠性参数选择模块,用于针对每种传感器选择传感器的可靠性参数;
计算单元,根据所述传感器的可靠性参数,计算每种传感器针对所述目标对象的基本概率赋值函数;
信息融合单元,对上述基本概率赋值函数进行信息融合,判定所述目标对象的类型,
所述目标对象的类型包括行人、自行车、轿车和卡车,分别表示为p,b,c,t;
其中,所述传感器包括激光雷达、摄像头和测速雷达;
对于所述激光雷达,其基本概率赋值函数mlidar(A)定义如下:
其中,μp,μb,μc,μt分别表示所述激光雷达对检测行人,自行车,轿车和卡车的准确度,αp,αb,αc分别表示所述激光雷达对行人,自行车和轿车的误检因子,mlidar(Ω)则表示该值不知如何分配,即不确定程度;
对于所述摄像头,其基本概率赋值函数mcamera(A)定义如下:
其中,ζp,ζb,ζc,ζt分别表示所述摄像头判断目标类型行人,自行车,轿车和卡车的可靠性,θ表示所述摄像头的精确度;
对于所述测速雷达,其基本概率赋值函数mradar(A)定义如下:
其中,所述测速雷达对于行人和自行车的检测可靠性为σpb,轿车和卡车的检测可靠性为σct。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810627515.2A CN108960083B (zh) | 2018-06-15 | 2018-06-15 | 基于多传感器信息融合的自动驾驶目标分类方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810627515.2A CN108960083B (zh) | 2018-06-15 | 2018-06-15 | 基于多传感器信息融合的自动驾驶目标分类方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108960083A CN108960083A (zh) | 2018-12-07 |
CN108960083B true CN108960083B (zh) | 2021-04-06 |
Family
ID=64489681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810627515.2A Active CN108960083B (zh) | 2018-06-15 | 2018-06-15 | 基于多传感器信息融合的自动驾驶目标分类方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108960083B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109633621A (zh) * | 2018-12-26 | 2019-04-16 | 杭州奥腾电子股份有限公司 | 一种车载环境感知系统数据处理方法 |
CN110531377B (zh) * | 2019-10-08 | 2022-02-25 | 北京邮电大学 | 雷达系统的数据处理方法、装置、电子设备和存储介质 |
CN110796194B (zh) * | 2019-10-29 | 2022-03-04 | 中国人民解放军国防科技大学 | 一种用于多传感器信息的目标检测结果融合判定方法 |
CN113119988B (zh) * | 2019-12-31 | 2022-07-12 | 中移智行网络科技有限公司 | 无人驾驶决策的生成方法、装置、存储介质和计算机设备 |
CN112572471B (zh) * | 2020-12-08 | 2022-11-04 | 西人马帝言(北京)科技有限公司 | 自动驾驶方法、装置、电子设备及计算机存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609522A (zh) * | 2017-09-19 | 2018-01-19 | 东华大学 | 一种基于激光雷达和机器视觉的信息融合车辆检测系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8032467B1 (en) * | 2008-05-31 | 2011-10-04 | Hrl Laboratories, Llc | Valuation-based learning system |
CN101750150B (zh) * | 2010-01-04 | 2011-08-10 | 西安理工大学 | 基于红外阵列传感器的电站锅炉空气预热器热点检测方法 |
CN103984936A (zh) * | 2014-05-29 | 2014-08-13 | 中国航空无线电电子研究所 | 用于三维动态目标识别的多传感器多特征融合识别方法 |
CN106056163A (zh) * | 2016-06-08 | 2016-10-26 | 重庆邮电大学 | 一种多传感器信息融合的目标识别方法 |
-
2018
- 2018-06-15 CN CN201810627515.2A patent/CN108960083B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609522A (zh) * | 2017-09-19 | 2018-01-19 | 东华大学 | 一种基于激光雷达和机器视觉的信息融合车辆检测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108960083A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960083B (zh) | 基于多传感器信息融合的自动驾驶目标分类方法及系统 | |
JP6591842B2 (ja) | 意味付け交通空間についての適合型射線ベースのシーン分析を行うための方法及びシステム、並びにそのようなシステムを備える車両 | |
US8634593B2 (en) | Pixel-based texture-less clear path detection | |
CN112700470B (zh) | 一种基于交通视频流的目标检测和轨迹提取方法 | |
US8452053B2 (en) | Pixel-based texture-rich clear path detection | |
CN111382768A (zh) | 多传感器数据融合方法和装置 | |
US8812226B2 (en) | Multiobject fusion module for collision preparation system | |
US8890951B2 (en) | Clear path detection with patch smoothing approach | |
KR101891460B1 (ko) | 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치 | |
CN109919074B (zh) | 一种基于视觉感知技术的车辆感知方法及装置 | |
US20100098297A1 (en) | Clear path detection using segmentation-based method | |
Dueholm et al. | Trajectories and maneuvers of surrounding vehicles with panoramic camera arrays | |
CN106537180A (zh) | 用于用针对行人的主动制动的摄影机输入缓解雷达传感器限制的方法 | |
JP6962604B2 (ja) | 極限状況でフォールトトレランス及びフラクチュエーションロバスト性のある、自動車間通信基盤の協業的なブラインドスポット警報方法及び装置 | |
CN109270524B (zh) | 基于无人驾驶的多数据融合障碍物检测装置及其检测方法 | |
JP2021165080A (ja) | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム | |
KR102592830B1 (ko) | 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량 | |
CN113658427A (zh) | 基于视觉与雷达的路况监控方法及系统、设备 | |
CN113569778A (zh) | 基于多模态数据融合的路面湿滑区域检测及预警方法 | |
CN116142233A (zh) | 载具灯分类系统 | |
CN117056153A (zh) | 校准和验证驾驶员辅助系统和/或自动驾驶系统的方法、系统和计算机程序产品 | |
Shafiee et al. | Deep neural network perception models and robust autonomous driving systems: practical solutions for mitigation and improvement | |
EP3786845A1 (en) | Difficulty-adaptive training for machine learning modules | |
Munz et al. | Probabilistic modeling of sensor properties in generic fusion systems for modern driver assistance systems | |
Arvind et al. | Vision based driver assistance for near range obstacle sensing under unstructured traffic environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |