CN111142528B - 车用危险场景感知方法、装置和系统 - Google Patents
车用危险场景感知方法、装置和系统 Download PDFInfo
- Publication number
- CN111142528B CN111142528B CN201911415034.6A CN201911415034A CN111142528B CN 111142528 B CN111142528 B CN 111142528B CN 201911415034 A CN201911415034 A CN 201911415034A CN 111142528 B CN111142528 B CN 111142528B
- Authority
- CN
- China
- Prior art keywords
- scene
- sensing
- vehicle
- result
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000008447 perception Effects 0.000 claims abstract description 71
- 230000004927 fusion Effects 0.000 claims abstract description 44
- 238000005286 illumination Methods 0.000 claims abstract description 38
- 230000000007 visual effect Effects 0.000 claims abstract description 20
- 239000002245 particle Substances 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000007621 cluster analysis Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 abstract description 10
- 230000009286 beneficial effect Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 206010039203 Road traffic accident Diseases 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种车用危险场景感知方法、装置和系统,涉及车辆领域,该方法通过判断当前场景是否属于恶劣光照场景;如果当前场景不属于恶劣光照场景,则基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景,典型危险场景为当前车辆的感知范围受到障碍物车辆遮挡;如果当前场景是典型危险场景,则基于激光雷达进行危险场景感知得到第一感知结果,以及基于视觉传感器进行危险场景感知得到第二感知结果;然后将第一感知结果和第二感知结果进行融合,得到第一融合结果;最后基于第一融合结果,控制所述当前车辆的行驶,有利于提高智能汽车的安全系数,减少安全事故,缓解了现有技术中存在的检测出错或失效导致智能汽车安全事故多发的问题。
Description
技术领域
本发明涉及车辆控制领域,尤其是涉及一种基于车用危险场景感知方法、装置和系统。
背景技术
智能汽车行业的高速发展,其安全性问题愈发突出。智能汽车的安全性很大程度上依赖于环境感知技术的发展。
智能汽车均配备有传感器(例如摄像头或激光雷达)来感知外部环境。受限于技术成本考虑,各整车厂多倚重于摄像头的感知能力。然而,在复杂的交通场景中,受限于相机对光线敏感等无法回避的传感器硬件缺陷,智能汽车的环境感知功能判断会出错,从而造成严重的交通事故。
目前,在复杂的交通场景中,机非混行事故概率高,道路场景也更为复杂。例如,行人突然横向穿越导致交通事故是常见的场景。在这种场景下,配备了行人检测和主动刹车的智能汽车对于这种场景往往失灵。主要原因有两点:一是主动刹车的行人检测功能需要行人正面全部暴漏在画面中,对于行人的横向穿越场景,摄像头显然无法识;二是行人穿越隐蔽性和突然性使得缺少足够的时间去制动车辆。因此,亟需一种危险场景感知方法来缓解现有技术中存在的检测出错或失效,导致安全事故多发的问题。
发明内容
有鉴于此,本发明的目的在于提供车用危险场景感知方法、装置和系统,以缓解现有的智能汽车存在的安全系数低的问题。
第一方面,本发明实施例提供了一种车用危险场景感知方法,包括以下步骤:
判断当前场景是否属于恶劣光照场景;
如果当前场景不属于恶劣光照场景,则基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景,所述典型危险场景为当前车辆的感知范围受到障碍物车辆遮挡;
如果当前场景是典型危险场景,则基于激光雷达进行危险场景感知得到第一感知结果,以及基于视觉传感器进行危险场景感知得到第二感知结果;
将所述第一感知结果和所述第二感知结果进行融合,得到第一融合结果;
基于所述第一融合结果,控制所述当前车辆的行驶。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,恶劣光照场景包括下述一项或多项:
当前场景对应的图像存在高亮区域且高亮区域占所述图像的面积超过第一阈值;
所述图像整体亮度超过第二阈值,且所述图像划分的多个方块之间的亮度差异小于第三阈值;
所述图像整体亮度小于第四阈值。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景的步骤,包括:
判断当前车辆相邻车道的前方是否存在障碍物车辆;
若存在,则判断所述障碍物车辆与当前车辆的纵向距离是否小于第一阈值;
若是,则判断所述障碍物车辆的行进速度是否小于第二阈值;
若所述障碍物车辆的行进速度小于第二阈值,则确定当前场景为典型危险场景。
结合第一方面的第二种可能的实施方式,本发明实施例提供了第一方面的第三种可能的实施方式,其中,基于激光雷达进行危险场景感知得到第一感知结果的步骤,包括:
确定所述障碍物车辆与当前车辆的相对位置关系;
基于所述障碍物车辆与目标车辆的相对位置关系,确定第一敏感区域;所述第一敏感区域为当前场景下所述障碍物车辆的前方区域中选定的区域;
获取所述第一敏感区域的激光雷达点云数据;
基于所述第一敏感区域的激光雷达点云数据进行危险场景感知得到第一感知结果。
结合第一方面的第二种可能的实施方式,本发明实施例提供了第一方面的第四种可能的实施方式,其中,基于视觉传感器进行危险场景感知得到第二感知结果的步骤,包括:
获取所述障碍物车辆在当前场景对应的图像中的坐标;
基于所述障碍物车辆在当前场景对应的图像中的坐标,确定第二敏感区域;所述第二敏感区域为在当前场景对应的图像中选定的障碍物前方的像素区域;
针对所述第二敏感区域,基于视觉传感器进行危险场景感知得到第二感知结果。
结合第一方面,本发明实施例提供了第一方面的第五种可能的实施方式,其中,所述方法还包括:
如果当前场景不是典型危险场景,则基于激光雷达进行普通场景感知得到第三感知结果,以及基于视觉传感器进行普通场景感知得到第四感知结果;
将所述第三感知结果和所述第四感知结果进行融合,得到第二融合结果;
基于所述第二融合结果,控制所述当前车辆的行驶。
结合第一方面的第五种可能的实施方式,本发明实施例提供了第一方面的第六种可能的实施方式,其中,所述方法还包括:
基于激光雷达进行普通场景感知得到第三感知结果的步骤,包括:
获取当前场景的激光雷达点云数据;
对所述当前场景的激光雷达点云数据进行滤波处理,所述滤波处理用于去除当前车辆所在道路两侧以及与当前车辆距离大于第一阈值的激光雷达点云数据;
基于滤波处理后的激光雷达点云数据的反射强度信息进行聚类分析,得到障碍物敏感粒子群;
对所述障碍物敏感粒子群进行跟踪和分析,得到第三感知结果。
结合第一方面的第五种可能的实施方式,本发明实施例提供了第一方面的第七种可能的实施方式,其中,基于视觉传感器进行普通场景感知得到第四感知结果的步骤,包括:
获取毫米波雷达输出的当前车辆的前方所有的障碍物的位置信息;
基于障碍物的位置信息确定障碍物在当前场景对应的图像中的像素区域;
在确定的所述像素区域内进行图像识别,得到第四感知结果。
第二方面,本发明实施例还提供一种车用危险场景感知装置,包括:
判断模块,用于判断当前场景是否属于恶劣光照场景;
确定模块,用于如果当前场景不属于恶劣光照场景,则基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景,所述典型危险场景为当前车辆的感知范围受到障碍物车辆遮挡;
感知模块,用于如果是,则基于激光雷达进行危险场景感知得到第一感知结果,以及基于视觉传感器进行危险场景感知得到第二感知结果;
融合模块,用于将所述第一感知结果和所述第二感知结果进行融合,得到第一融合结果;
控制模块,基于所述第一融合结果,控制所述当前车辆的行驶。
第三方面,本发明实施例还提供一车用危险场景感知系统,包括:视觉传感器、毫米波雷达、激光雷达、车辆控制器以及如第二方面所述的车用危险场景感知装置,其中,所述视觉传感器、所述毫米波雷达、所述激光雷达、所述车辆控制器均与所述车用危险场景感知装置相连接。
第四方面,本发明实施例还提供一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的车用危险场景感知方法的步骤。
第五方面,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述的车用危险场景感知方法的步骤。
本发明实施例带来了以下有益效果:本发明实施例提供的车用危险场景感知方法、装置、系统电子设备以及计算机可读存储介质,通过判断当前场景是否属于恶劣光照场景;如果当前场景不属于恶劣光照场景,则基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景,典型危险场景为当前车辆的感知范围受到障碍物车辆遮挡;如果当前场景是典型危险场景,则基于激光雷达进行危险场景感知得到第一感知结果,以及基于视觉传感器进行危险场景感知得到第二感知结果;然后将第一感知结果和所述第二感知结果进行融合,得到第一融合结果;最后基于第一融合结果,控制所述当前车辆的行驶。因此,本发明实施例提供的技术方案,能够缓解现有技术中存在的检测出错或失效,导致智能汽车安全事故多发的问题,有利于提高智能汽车的安全系数,减少安全事故。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种车用危险场景感知方法的流程示意图;
图2为图1中步骤S102的具体流程图;
图3为图1中的步骤S104基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景的具体流程图;
图4为图1中的步骤S106基于激光雷达进行危险场景感知得到第一感知结果的具体流程图;
图5为图1中的步骤S106基于视觉传感器进行危险场景感知得到第二感知结果的具体流程图;
图6为本发明实施例提供的另一种车用危险场景感知方法的流程示意图;
图7为图6中的步骤S606基于激光雷达进行普通场景感知得到第三感知结果的具体流程图;
图8为图6中步骤S606基于视觉传感器进行普通场景感知得到第四感知结果的具体流程图;
图9为本发明实施例提供的一种车用危险场景感知装置的示意图;
图10为本发明实施例提供的一种车用危险场景感知系统的示意图;
图11为本发明实施例提供的一种电子设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
对于复杂的交通场景中,机非混行事故概率高,道路场景也更为复杂。例如,行人突然横向穿越导致交通事故是常见的场景。
在这种场景下,目前,现有技术中配备了行人检测和主动刹车的智能汽车对于这种场景往往失灵。主要原因有两点:一是主动刹车的行人检测功能需要行人正面全部暴漏在画面中,对于行人的横向穿越场景,摄像头显然无法识;二是行人穿越隐蔽性和突然性使得缺少足够的时间去制动车辆。因此,亟需一种危险场景感知方法来缓解现有技术中存在的检测出错或失效,导致安全事故多发的问题。
基于此,本发明实施例提供的一种车用危险场景感知方法、装置和系统,可以提高提高智能汽车的安全系数,减少安全事故,缓解了现有技术中存在的检测出错或失效,导致安全事故多发的问题。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种车用危险场景感知方法进行详细介绍。
实施例一:
如图1所示,本发明实施例提供了一种车用危险场景感知方法,该方法包括:
步骤S102,判断当前场景是否属于恶劣光照场景;
步骤S104,如果当前场景不属于恶劣光照场景,则基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景;
其中,上述典型危险场景为当前车辆的感知范围受到障碍物车辆遮挡;
步骤S106,如果当前场景是典型危险场景,则基于激光雷达进行危险场景感知得到第一感知结果,以及基于视觉传感器进行危险场景感知得到第二感知结果;
步骤S108,将上述第一感知结果和上述第二感知结果进行融合,得到第一融合结果;
具体的,应用视觉与激光雷达置信度函数,基于第一感知结果和第二感知结果进行信息融合得到第一融合结果;
步骤S110,基于上述第一融合结果,控制上述当前车辆的行驶。
具体的,基于上述第一融合结果,通过车辆控制器控制上述当前车辆的行驶。
在可选的实施方式中,恶劣光照场景包括下述一项或多项:
当前场景对应的图像存在高亮区域且高亮区域占上述图像的面积超过第一阈值;
上述图像整体亮度超过第二阈值,且上述图像划分的多个方块之间的亮度差异小于第三阈值;
上述图像整体亮度小于第四阈值。
参照图2,本实施例中,步骤S102可以通过以下步骤实现:
步骤S1021,判断当前场景对应的图像存在高亮区域且高亮区域占上述图像的面积是否超过第一阈值;
若超过第一阈值,则执行步骤S1022;若未超过第一阈值,则执行步骤S1023;
步骤S1022,确定当前场景为局部逆光,属于恶劣光照场景。
步骤S1023,判断图像整体亮度是否超过第二阈值,且图像划分的多个方块之间的亮度差异是否小于第三阈值;
如果图像整体亮度超过第二阈值,且上述图像划分的多个方块之间的亮度差异小于第三阈值,则执行步骤S1024;如果图像整体亮度不超过第二阈值,或者上述图像划分的多个方块之间的亮度差异不小于第三阈值,则执行步骤S1025。
步骤S1024,确定当前场景为整体逆光,属于恶劣光照场景。
步骤S1025,判断图像整体亮度是否小于第四阈值;
如果图像整体亮度小于第四阈值,则执行步骤S1026;如果图像整体亮度不小于第四阈值,则执行步骤S1027。
步骤S1026,确定当前场景为亮度不足的场景,属于恶劣光照场景。
步骤S1027,确定当前场景为正常光照场景,不属于恶劣光照场景。
应当理解的是,该步骤S1023、S1025在执行时,需要将图像划分为多个方块。
在可选的实施方式中,典型危险场景包括下述一项或多项:
当前车辆相邻车道的前方存在障碍物车辆,且障碍物车辆与当前车辆的纵向距离小于第一阈值;
当前车辆相邻车道的前方存在障碍物车辆,障碍物车辆的行进速度小于第二阈值。
在本实施例中,参照图3,上述步骤S104在基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景时,主要通过以下步骤执行:
步骤S1041,判断当前车辆相邻车道的前方是否存在障碍物车辆;
上述的相邻车道可以是左侧车道或右侧车道,因此,上述的前方可以理解为当前车辆的左前方或者右前方。
具体的,基于毫米波雷达和视觉传感器判断当前车辆相邻车道的前方是否存在障碍物车辆,该步骤1024可以通过以下步骤实现:
1、获取毫米波雷达反馈当前车辆相邻车道的前方的所有的障碍物;
2、通过视觉传感器对当前场景对应的图像进行图像识别,确定障碍物是否是车辆,即确定是否存在车辆充当障碍物(简称为障碍物车辆)。
若存在,则执行步骤S1042;若不存在,则执行步骤S1045。
步骤S1042,判断上述障碍物车辆与当前车辆的纵向距离是否小于第一阈值;
这里的纵向距离是指当前车辆的车头与障碍物车辆的车尾的垂直距离,可以理解为两条线之间的距离。
需要说明的是,纵向距离可以根据毫米波雷达探测的数据确定,也可以根据视觉传感器发送的图像确定。
若是小于第一阈值,则执行步骤S1043;若不小于第一阈值,则执行步骤S1045;
步骤S1043,判断上述障碍物车辆的行进速度是否小于第二阈值;
其中上述的障碍物车辆的行进速度可以由毫米波雷达可以直接测量得到的。
若上述障碍物车辆的行进速度小于第二阈值,则执行步骤S1044,若障碍物车辆的行进速度不小于第二阈值,则执行步骤S1045。
步骤S1044,确定当前场景为典型危险场景;
步骤S1045,确定当前场景不是典型危险场景。
在可选的实施方式中,在本实施例中,参照图4,步骤S106中基于激光雷达进行危险场景感知得到第一感知结果,包括以下子步骤:
步骤S401,确定障碍物车辆与当前车辆的相对位置关系;
步骤S402,基于障碍物车辆与目标车辆的相对位置关系,确定第一敏感区域;
其中,上述第一敏感区域为当前场景下上述障碍物车辆的前方区域中选定的区域;这里的当前场景是典型危险场景。
具体的,第一敏感区域可以理解为当前场景下激光雷达坐标区域中的障碍物车辆的前方区域中选定的区域。
步骤S403,获取上述第一敏感区域的激光雷达点云数据;
上述第一敏感区域的激光雷达点云数据可以通过过滤非敏感区域的激光雷达点云数据,从而仅保留第一敏感区域的激光雷达点云数据来得到。
步骤S404,基于上述第一敏感区域的激光雷达点云数据进行危险场景感知得到第一感知结果。
具体的,上述的第一敏感区域的激光雷达点云数据包括行人、非机动车辆的反射强度信息和聚类信息。
基于上述的反射强度信息和聚类信息来进行危险场景感知,得到第一感知结果,这里的第一感知结果包括感知到的行人和非机动车辆。
在可选的实施方式中,在本实施例中,参照图5,步骤S106中基于视觉传感器进行危险场景感知得到第二感知结果,包括以下步骤:
步骤S501,获取障碍物车辆在当前场景对应的图像中的坐标;
步骤S502,基于障碍物车辆在当前场景对应的图像中的坐标,确定第二敏感区域;
其中上述第二敏感区域为在当前场景对应的图像中选定的障碍物前方的像素区域;
这里的障碍物前方的像素区域的可以根据实际测定需求进行选取,对此本实施例不作具体限定。
步骤S503,针对上述第二敏感区域,基于视觉传感器进行危险场景感知得到第二感知结果。
上述的危险场景感知感知识别非机动车、行人和动物等;即第二感知结果感知的是非机动车、行人和动物等。
本发明实施例提供的车用危险场景感知方法,通过判断当前场景是否属于恶劣光照场景;如果当前场景不属于恶劣光照场景,则基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景,典型危险场景为当前车辆的感知范围受到障碍物车辆遮挡;如果当前场景是典型危险场景,则基于激光雷达进行危险场景感知得到第一感知结果,以及基于视觉传感器进行危险场景感知得到第二感知结果;然后将第一感知结果和第二感知结果进行融合,得到第一融合结果;最后基于第一融合结果,控制所述当前车辆的行驶,有利于提高智能汽车的安全系数,减少安全事故,缓解了现有技术中存在的检测出错或失效导致智能汽车安全事故多发的问题。
实施例二:
参照图6,本发明实施例提供了另一种车用危险场景感知方法,该方法包括:
步骤S601,判断当前场景是否属于恶劣光照场景;
如果当前场景不属于恶劣光照场景,则执行步骤S602;如果当前场景属于恶劣光照场景,则执行步骤S609;
步骤S602,基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景;
其中上述典型危险场景为当前车辆的感知范围受到障碍物车辆遮挡;
如果当前场景是典型危险场景,则执行步骤S603;如果当前场景不是典型危险场景,则执行步骤S606;
步骤S603,基于激光雷达进行危险场景感知得到第一感知结果,以及基于视觉传感器进行危险场景感知得到第二感知结果;
步骤S604,将上述第一感知结果和上述第二感知结果进行融合,得到第一融合结果;
步骤S605,基于上述第一融合结果,控制上述当前车辆的行驶;
步骤S606,基于激光雷达进行普通场景感知得到第三感知结果,以及基于视觉传感器进行普通场景感知得到第四感知结果;
这里的普通场景可以理解为不属于典型危险场景的场景,也可以称为非典型危险场景。
步骤S607,将上述第三感知结果和上述第四感知结果进行融合,得到第二融合结果;
具体的,应用视觉与激光雷达置信度函数,基于第三感知结果和第四感知结果进行信息融合得到第二融合结果;
在可选的实施方式中,视觉与激光雷达置信度函数:
式中,表示视觉与激光雷达对于不同物体的识别结果置信度函数;m1(Ai)表示视觉(或视觉系统)对于不同物体的识别结果置信度函数,例如A1表示车辆,A2代表行人,m1表示视觉置信度函数,m2表示激光雷达置信度函数。Crd1表示视觉的权重系数;Crd2表示激光雷达的权重系数。Crd1和Crd2与当前场景的类型相关联,具体的,依据当前场景是否为危险场景,调整不同的crd1和crd2参数。
步骤S608,基于上述第二融合结果,控制上述当前车辆的行驶。
具体的,基于上述第二融合结果,通过车辆控制器控制上述当前车辆的行驶。
步骤S609,基于毫米波雷达进行恶劣光照场景感知得到第五感知结果,以及基于视觉传感器进行恶劣光照场景感知得到第六感知结果;
步骤S610,将上述第五感知结果和上述第六感知结果进行融合,得到第三融合结果;
步骤S611,基于上述第三融合结果,控制上述当前车辆的行驶。
在可选的实施方式中,如图7所示,上述步骤S606中,基于激光雷达进行普通场景感知得到第三感知结果,可以通过以下步骤执行:
步骤S701,获取当前场景的激光雷达点云数据;
步骤S702,对上述当前场景的激光雷达点云数据进行滤波处理;
其中,上述滤波处理用于去除当前车辆所在道路两侧以及与当前车辆距离大于第一阈值的激光雷达点云数据;
上述的道路可以理解为当前车道。
步骤S703,基于滤波处理后的激光雷达点云数据的反射强度信息进行聚类分析,得到障碍物敏感粒子群;
这里的聚类分析可以参考现有技术中的数据挖掘和机器学习技术,这里不作过多赘述。
步骤S704,对上述障碍物敏感粒子群进行跟踪和分析,得到第三感知结果。
在可选的实施方式中,上述步骤S704包括:
1、对上述障碍物敏感粒子群进行跟踪,得到障碍物敏感粒子群的运动轨迹信息;
其中上述的运动轨迹信息包括速度和相对于当前车辆的距离;
2、对上述障碍物敏感粒子群进行分析,确定障碍物的属性。
具体的,基于反射强度信息和障碍物敏感粒子群的运动轨迹信息、障碍物敏感粒子群的外形轮廓信息等,确定障碍物的属性,障碍物的属性包括障碍物的类型、障碍物与当前车辆的距离以及障碍物的速度信息等,障碍物的类型即障碍物是车辆、行人还是其他物体;
基于障碍物的属性生成第三感知结果,即输出的第三感知结果是包括障碍物的类型、速度和距离的感知结果。
在可选的实施方式中,如图8所示,上述步骤S606中,基于视觉传感器进行普通场景感知得到第四感知结果的步骤,包括:
步骤S801,获取毫米波雷达输出的当前车辆的前方所有的障碍物的位置信息;
这里的障碍物包括但不限于行人、车辆、非机动车辆、动物、道路护栏等物体。
上述的位置信息包括障碍物在毫米波雷达坐标区域中的坐标位置、障碍物与当前车辆的相对距离等。
步骤S802,基于障碍物的位置信息确定障碍物在当前场景对应的图像中的像素区域;
这里的当前场景为普通场景。需要指出的是,每个障碍物对应一个像素区域,一个像素区域由多个像素点组成。
步骤S803,在确定的上述像素区域内进行图像识别,得到第四感知结果。
即在像素区域内进行图像识别,识别行人、车辆、非机动车辆、动物、其他物体等。
实施例三:
如图9所示,本发明实施例还提供一种信息推送装置,其中包括判断模块901、确定模块902、感知模块903、融合模块904和控制模块905。
判断模块901用于判断当前场景是否属于恶劣光照场景;
确定模块902用于如果当前场景不属于恶劣光照场景,则基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景,上述典型危险场景为当前车辆的感知范围受到障碍物车辆遮挡;
感知模块903用于如果是,则基于激光雷达进行危险场景感知得到第一感知结果,以及基于视觉传感器进行危险场景感知得到第二感知结果;
融合模块904用于将上述第一感知结果和上述第二感知结果进行融合,得到第一融合结果;
控制模块905基于上述第一融合结果,控制上述当前车辆的行驶。
在可选的实施方式中,恶劣光照场景包括下述一项或多项:
A当前场景对应的图像存在高亮区域且高亮区域占上述图像的面积超过第一阈值;
B上述图像整体亮度超过第二阈值,且上述图像划分的多个方块之间的亮度差异小于第三阈值;
C上述图像整体亮度小于第四阈值。
在可选的实施方式中,确定模块902在基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景时,用于判断当前车辆相邻车道的前方是否存在障碍物车辆;若存在,则判断上述障碍物车辆与当前车辆的纵向距离是否小于第一阈值;若是,则判断上述障碍物车辆的行进速度是否小于第二阈值;若上述障碍物车辆的行进速度是否小于第二阈值,则确定当前场景为典型危险场景。
在可选的实施方式中,感知模块903在基于激光雷达进行危险场景感知得到第一感知结果时,用于确定上述障碍物车辆与当前车辆的相对位置关系;基于上述障碍物车辆与目标车辆的相对位置关系,确定第一敏感区域;上述第一敏感区域为当前场景下上述障碍物车辆的前方区域中选定的区域;获取上述第一敏感区域的激光雷达点云数据;基于上述第一敏感区域的激光雷达点云数据进行危险场景感知得到第一感知结果。
在可选的实施方式中,感知模块903在基于视觉传感器进行危险场景感知得到第二感知结果时,用于获取上述障碍物车辆在当前场景对应的图像中的坐标;基于上述障碍物车辆在当前场景对应的图像中的坐标,确定第二敏感区域;上述第二敏感区域为在当前场景对应的图像中选定的障碍物前方的像素区域;针对上述第二敏感区域,基于视觉传感器进行危险场景感知得到第二感知结果。
在可选的实施方式中,感知模块903还用于如果当前场景不是典型危险场景,则基于激光雷达进行普通场景感知得到第三感知结果,以及基于视觉传感器进行普通场景感知得到第四感知结果;将上述第三感知结果和上述第四感知结果进行融合,得到第二融合结果;基于上述第二融合结果,控制上述当前车辆的行驶。
在可选的实施方式中,感知模块903在基于激光雷达进行普通场景感知得到第三感知结果时,用于获取当前场景的激光雷达点云数据;对上述当前场景的激光雷达点云数据进行滤波处理,上述滤波处理用于去除当前车辆所在道路两侧以及与当前车辆距离大于第一阈值的激光雷达点云数据;基于滤波处理后的激光雷达点云数据的反射强度信息进行聚类分析,得到障碍物敏感粒子群;对上述障碍物敏感粒子群进行跟踪和分析,得到第三感知结果。
在可选的实施方式中,感知模块903在基于视觉传感器进行普通场景感知得到第四感知结果时,用于获取毫米波雷达输出的当前车辆的前方所有的障碍物的位置信息;基于障碍物的位置信息确定障碍物在当前场景对应的图像中的像素区域;在确定的上述像素区域内进行图像识别,得到第四感知结果。
在可选的实施方式中,感知模块903还用于如果当前场景属于恶劣光照场景,则基于毫米波雷达进行恶劣光照场景感知得到第五感知结果,以及基于视觉传感器进行恶劣光照场景感知得到第六感知结果;将上述第五感知结果和上述第六感知结果进行融合,得到第三融合结果;基于上述第三融合结果,控制上述当前车辆的行驶。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明实施例提供的信息推送装置,与上述实施例提供的信息推送方法具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
如图10所示,本发明实施例还提供一种车用危险场景感知系统,该系统包括:视觉传感器1、毫米波雷达2、激光雷达3、车辆控制器4以及上述的车用危险场景感知装置5,其中,所述视觉传感器、所述毫米波雷达、所述激光雷达、所述车辆控制器均与所述车用危险场景感知装置相连接。
具体的,视觉传感器1、毫米波雷达2、激光雷达3、车辆控制器4通过智能汽车的电源及通信总线与上述的车用危险场景感知装置5相连接。
可选的,上述的视觉传感器可以采用摄像头;
本系统通过摄像头、毫米波雷达、激光雷达把感知数据传给感知装置。感知装置按照上述感知方法识别横向穿越的行人,将车辆制动信息传递给车辆控制器。车辆控制器负责车辆制动;此外,鉴于视觉传感器对光线敏感的特点,感知方法将依据当前场景的光照条件进行区别处理。光照条件恶劣情况下,感知方法将重点依赖于毫米波雷达和激光雷达的感知结果。光照条件合适情况下,首先由毫米波雷达与视觉传感器进行危险场景判定。普通场景下,视觉算法和激光算法的感知结果将进行融合处理,得到最终的感知结果。危险场景下,视觉算法和激光算法将分别激活单独的危险场景感知模块,所得结果再进行融合处理。
本发明实施例还提供了一种电子设备,包括存储器和处理器,其中,该存储器用于存储一条或多条计算机指令,上述一条或多条计算机指令被上述处理器执行,以实现上述各实施例中提及的车用危险场景感知方法的步骤。
参见图11所示的电子设备100的结构示意图,该电子设备包括:处理器40,存储器41,总线42和通信接口43,上述处理器40、通信接口43和存储器41通过总线42连接;处理器40用于执行存储器41中存储的可执行模块,例如计算机程序。
其中,存储器41可能包含高速随机存取存储器(RAM:Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口43(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接。
总线42可以是ISA总线、PCI总线或EISA总线等。图11中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
其中,存储器41用于存储程序,上述处理器40在接收到执行指令后,执行上述程序,前述本发明实施例任一实施例揭示的过程定义的装置所执行的方法可以应用于处理器40中,或者由处理器40实现。
处理器40可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器40中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器40可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。该存储介质位于存储器41,处理器40读取存储器41中的信息,结合其硬件完成上述方法的步骤。
本实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现前述实施例中涉及的车用危险场景感知方法的步骤。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (9)
1.一种车用危险场景感知方法,其特征在于,包括:
判断当前场景是否属于恶劣光照场景;
如果当前场景不属于恶劣光照场景,则基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景,所述典型危险场景为当前车辆的感知范围受到障碍物车辆遮挡;
如果当前场景是典型危险场景,则基于激光雷达进行危险场景感知得到第一感知结果,以及基于视觉传感器进行危险场景感知得到第二感知结果;
将所述第一感知结果和所述第二感知结果进行融合,得到第一融合结果;
基于所述第一融合结果,控制所述当前车辆的行驶;
所述恶劣光照场景包括下述一项或多项:
当前场景对应的图像存在高亮区域且高亮区域占所述图像的面积超过第一阈值;
所述图像整体亮度超过第二阈值,且所述图像划分的多个方块之间的亮度差异小于第三阈值;
所述图像整体亮度小于第四阈值;
所述方法还包括:
如果当前场景不是典型危险场景,则基于激光雷达进行普通场景感知得到第三感知结果,以及基于视觉传感器进行普通场景感知得到第四感知结果;
将所述第三感知结果和所述第四感知结果进行融合,得到第二融合结果;
基于所述第二融合结果,控制所述当前车辆的行驶;
如果当前场景属于恶劣光照场景,基于毫米波雷达进行恶劣光照场景感知得到第五感知结果,以及基于视觉传感器进行恶劣光照场景感知得到第六感知结果;
将所述第五感知结果和所述第六感知结果进行融合,得到第三融合结果;
基于所述第三融合结果,控制所述当前车辆的行驶。
2.根据权利要求1所述的方法,其特征在于,基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景的步骤,包括:
判断当前车辆相邻车道的前方是否存在障碍物车辆;
若存在,则判断所述障碍物车辆与当前车辆的纵向距离是否小于第一阈值;
若是,则判断所述障碍物车辆的行进速度是否小于第二阈值;
若所述障碍物车辆的行进速度小于第二阈值,则确定当前场景为典型危险场景。
3.根据权利要求2所述的方法,其特征在于,基于激光雷达进行危险场景感知得到第一感知结果的步骤,包括:
确定所述障碍物车辆与当前车辆的相对位置关系;
基于所述障碍物车辆与目标车辆的相对位置关系,确定第一敏感区域;所述第一敏感区域为当前场景下所述障碍物车辆的前方区域中选定的区域;
获取所述第一敏感区域的激光雷达点云数据;
基于所述第一敏感区域的激光雷达点云数据进行危险场景感知得到第一感知结果。
4.根据权利要求2所述的方法,其特征在于,基于视觉传感器进行危险场景感知得到第二感知结果的步骤,包括:
获取所述障碍物车辆在当前场景对应的图像中的坐标;
基于所述障碍物车辆在当前场景对应的图像中的坐标,确定第二敏感区域;所述第二敏感区域为在当前场景对应的图像中选定的障碍物前方的像素区域;
针对所述第二敏感区域,基于视觉传感器进行危险场景感知得到第二感知结果。
5.根据权利要求1所述的方法,其特征在于,基于激光雷达进行普通场景感知得到第三感知结果的步骤,包括:
获取当前场景的激光雷达点云数据;
对所述当前场景的激光雷达点云数据进行滤波处理,所述滤波处理用于去除当前车辆所在道路两侧以及与当前车辆距离大于第一阈值的激光雷达点云数据;
基于滤波处理后的激光雷达点云数据的反射强度信息进行聚类分析,得到障碍物敏感粒子群;
对所述障碍物敏感粒子群进行跟踪和分析,得到第三感知结果。
6.根据权利要求1所述的方法,其特征在于,基于视觉传感器进行普通场景感知得到第四感知结果的步骤,包括:
获取毫米波雷达输出的当前车辆的前方所有的障碍物的位置信息;
基于障碍物的位置信息确定障碍物在当前场景对应的图像中的像素区域;
在确定的所述像素区域内进行图像识别,得到第四感知结果。
7.一种车用危险场景感知装置,其特征在于,包括:
判断模块,用于判断当前场景是否属于恶劣光照场景;
确定模块,用于如果当前场景不属于恶劣光照场景,则基于毫米波雷达和视觉传感器确定当前场景是否为典型危险场景,所述典型危险场景为当前车辆的感知范围受到障碍物车辆遮挡;
感知模块,用于如果是,则基于激光雷达进行危险场景感知得到第一感知结果,以及基于视觉传感器进行危险场景感知得到第二感知结果;
融合模块,用于将所述第一感知结果和所述第二感知结果进行融合,得到第一融合结果;
控制模块,基于所述第一融合结果,控制所述当前车辆的行驶;
所述恶劣光照场景包括下述一项或多项:
当前场景对应的图像存在高亮区域且高亮区域占所述图像的面积超过第一阈值;
所述图像整体亮度超过第二阈值,且所述图像划分的多个方块之间的亮度差异小于第三阈值;
所述图像整体亮度小于第四阈值;
所述感知模块还用于,如果当前场景不是典型危险场景,则基于激光雷达进行普通场景感知得到第三感知结果,以及基于视觉传感器进行普通场景感知得到第四感知结果;将所述第三感知结果和所述第四感知结果进行融合,得到第二融合结果;基于所述第二融合结果,控制所述当前车辆的行驶;如果当前场景属于恶劣光照场景,基于毫米波雷达进行恶劣光照场景感知得到第五感知结果,以及基于视觉传感器进行恶劣光照场景感知得到第六感知结果;将所述第五感知结果和所述第六感知结果进行融合,得到第三融合结果;基于所述第三融合结果,控制所述当前车辆的行驶。
8.一种车用危险场景感知系统,其特征在于,包括:视觉传感器、毫米波雷达、激光雷达、车辆控制器以及如权利要求7所述的车用危险场景感知装置,其中,所述视觉传感器、所述毫米波雷达、所述激光雷达、所述车辆控制器均与所述车用危险场景感知装置相连接。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至6任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911415034.6A CN111142528B (zh) | 2019-12-31 | 2019-12-31 | 车用危险场景感知方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911415034.6A CN111142528B (zh) | 2019-12-31 | 2019-12-31 | 车用危险场景感知方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111142528A CN111142528A (zh) | 2020-05-12 |
CN111142528B true CN111142528B (zh) | 2023-10-24 |
Family
ID=70522734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911415034.6A Active CN111142528B (zh) | 2019-12-31 | 2019-12-31 | 车用危险场景感知方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111142528B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101316B (zh) * | 2020-11-17 | 2022-03-25 | 北京中科原动力科技有限公司 | 一种目标检测方法及系统 |
CN112650220B (zh) * | 2020-12-04 | 2022-03-25 | 东风汽车集团有限公司 | 一种车辆自动驾驶方法、车载控制器及系统 |
CN112937522A (zh) * | 2021-01-27 | 2021-06-11 | 北京中科慧眼科技有限公司 | 基于车辆紧急制动系统的数据处理方法、系统和智能终端 |
CN115379408B (zh) * | 2022-10-26 | 2023-01-13 | 斯润天朗(北京)科技有限公司 | 基于场景感知的v2x多传感器融合方法及装置 |
CN117208018B (zh) * | 2023-11-03 | 2024-02-02 | 安徽蔚来智驾科技有限公司 | 车辆控制方法、控制装置、可读存储介质及车辆 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103916603A (zh) * | 2013-01-07 | 2014-07-09 | 华为终端有限公司 | 逆光检测方法及设备 |
CN106004659A (zh) * | 2016-08-03 | 2016-10-12 | 安徽工程大学 | 车辆周围环境感知系统及其控制方法 |
CN107097781A (zh) * | 2017-04-21 | 2017-08-29 | 驭势科技(北京)有限公司 | 车辆自动驾驶方法、系统、存储介质及自动驾驶汽车 |
CN107161141A (zh) * | 2017-03-08 | 2017-09-15 | 深圳市速腾聚创科技有限公司 | 无人驾驶汽车系统及汽车 |
CN109747643A (zh) * | 2017-11-07 | 2019-05-14 | 郑州宇通客车股份有限公司 | 一种智能车辆感知系统的信息融合方法 |
CN109814112A (zh) * | 2019-01-15 | 2019-05-28 | 北京百度网讯科技有限公司 | 一种超声波雷达与激光雷达信息融合方法和系统 |
CN110406544A (zh) * | 2019-08-06 | 2019-11-05 | 阿尔法巴人工智能(深圳)有限公司 | 雨雾场景下的车辆感知系统及方法 |
-
2019
- 2019-12-31 CN CN201911415034.6A patent/CN111142528B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103916603A (zh) * | 2013-01-07 | 2014-07-09 | 华为终端有限公司 | 逆光检测方法及设备 |
CN106004659A (zh) * | 2016-08-03 | 2016-10-12 | 安徽工程大学 | 车辆周围环境感知系统及其控制方法 |
CN107161141A (zh) * | 2017-03-08 | 2017-09-15 | 深圳市速腾聚创科技有限公司 | 无人驾驶汽车系统及汽车 |
CN107097781A (zh) * | 2017-04-21 | 2017-08-29 | 驭势科技(北京)有限公司 | 车辆自动驾驶方法、系统、存储介质及自动驾驶汽车 |
CN109747643A (zh) * | 2017-11-07 | 2019-05-14 | 郑州宇通客车股份有限公司 | 一种智能车辆感知系统的信息融合方法 |
CN109814112A (zh) * | 2019-01-15 | 2019-05-28 | 北京百度网讯科技有限公司 | 一种超声波雷达与激光雷达信息融合方法和系统 |
CN110406544A (zh) * | 2019-08-06 | 2019-11-05 | 阿尔法巴人工智能(深圳)有限公司 | 雨雾场景下的车辆感知系统及方法 |
Non-Patent Citations (3)
Title |
---|
Research on pedestrian detection algorithm in driverless urban traffic environment;Liu Xinchao;MATEC Web of Conferences;第336卷;全文 * |
基于激光雷达感知的场景重构方法研究;邢雨;汽车技术;全文 * |
智能网联汽车的技术架构及测试方法;甘海云;天津职业技术师范大学学报;第28卷(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111142528A (zh) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111142528B (zh) | 车用危险场景感知方法、装置和系统 | |
US20200406897A1 (en) | Method and Device for Recognizing and Evaluating Roadway Conditions and Weather-Related Environmental Influences | |
US8175797B2 (en) | Vehicle drive assist system | |
CN110386065B (zh) | 车辆盲区的监控方法、装置、计算机设备及存储介质 | |
CN109997148B (zh) | 信息处理装置、成像装置、设备控制系统、移动对象、信息处理方法和计算机可读记录介质 | |
US9280900B2 (en) | Vehicle external environment recognition device | |
US9349070B2 (en) | Vehicle external environment recognition device | |
US20220373353A1 (en) | Map Updating Method and Apparatus, and Device | |
US10593029B2 (en) | Bloom removal for vehicle sensors | |
US9886773B2 (en) | Object detection apparatus and object detection method | |
US10719949B2 (en) | Method and apparatus for monitoring region around vehicle | |
JP2021510227A (ja) | 衝突前アラートを提供するためのマルチスペクトルシステム | |
US20200168094A1 (en) | Control device, control method, and program | |
CN107886729B (zh) | 车辆识别方法、装置及车辆 | |
KR101519261B1 (ko) | 차량의 모니터링 방법 및 자동 제동 장치 | |
JP6591188B2 (ja) | 車外環境認識装置 | |
CN112417976B (zh) | 一种路面检测识别方法、装置、智能终端及存储介质 | |
JP6564218B2 (ja) | 車外環境認識装置 | |
JP2018092605A (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム | |
CN112835029A (zh) | 面向无人驾驶的多传感器障碍物探测数据融合方法及系统 | |
KR20200135588A (ko) | 차량 및 그 제어 방법 | |
WO2021199584A1 (en) | Detecting debris in a vehicle path | |
US11688180B2 (en) | Lane departure warning without lane lines | |
JP6378547B2 (ja) | 車外環境認識装置 | |
JP2017187858A (ja) | 環境認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |