CN115909815B - 基于多元数据的融合检测方法、装置、设备及存储介质 - Google Patents

基于多元数据的融合检测方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN115909815B
CN115909815B CN202310015333.0A CN202310015333A CN115909815B CN 115909815 B CN115909815 B CN 115909815B CN 202310015333 A CN202310015333 A CN 202310015333A CN 115909815 B CN115909815 B CN 115909815B
Authority
CN
China
Prior art keywords
point cloud
data
cloud data
target
buses
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310015333.0A
Other languages
English (en)
Other versions
CN115909815A (zh
Inventor
高志刚
王东阳
张健
陈劼
石秀东
邢映彪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Tongbada Electric Technology Co ltd
Guangzhou Tongda Auto Electric Co Ltd
Original Assignee
Guangzhou Tongbada Electric Technology Co ltd
Guangzhou Tongda Auto Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Tongbada Electric Technology Co ltd, Guangzhou Tongda Auto Electric Co Ltd filed Critical Guangzhou Tongbada Electric Technology Co ltd
Priority to CN202310015333.0A priority Critical patent/CN115909815B/zh
Publication of CN115909815A publication Critical patent/CN115909815A/zh
Application granted granted Critical
Publication of CN115909815B publication Critical patent/CN115909815B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于多元数据的融合检测方法、装置、设备及存储介质,该方法包括:同时驱动第一激光雷达采集第一点云数据、驱动第一摄像头采集第一图像数据;确定当前公交车进入车队;接收车队中其他公交车驱动第二激光雷达采集的第二点云数据与驱动第二摄像头采集的第二图像数据;根据第一图像数据与第二图像数据生成第一激光雷达与第二激光雷达之间的目标转换关系;按照目标转换关系将第一点云数据与第二点云数据融合为第三点云数据;根据图像数据与第三点云数据进行语义识别,以检测障碍物;对障碍物生成驾驶提示信息,并将驾驶提示信息同步至车队中的其他公交车。提高点云数据的密度,提高检测障碍物的精确度,提高公交车的安全性。

Description

基于多元数据的融合检测方法、装置、设备及存储介质
技术领域
本发明涉及自动驾驶的技术领域,尤其涉及一种基于多元数据的融合检测方法、装置、设备及存储介质。
背景技术
在城镇中设置有许多公交路线,众多的公交车沿这些公交路线运行,使得公交车成为用户出行的主要公共交通工具之一。
由于公交车上的乘客众多,为了保障乘客的安全,越来越多的公交车部署激光雷达等传感器,并引入自动驾驶系统,辅助司机驾驶公交车。
由于生产工艺、成本、业务等因素的影响,部分公交车部署的激光雷达的线束较低,如16线,采集的点云数据较为稀疏,使得检测障碍物的精确度较低。
发明内容
本发明提供了一种基于多元数据的融合检测方法、装置、设备及存储介质,以解决如何提高公交车使用低线性激光雷达检测障碍物的精确度。
根据本发明的一方面,提供了一种基于多元数据的融合检测方法,应用于公交车,所述方法包括:
在当前所述公交车沿指定的路线行驶时,同时驱动第一激光雷达采集第一点云数据、驱动第一摄像头采集第一图像数据;
确定当前所述公交车进入车队,所述车队中具有多辆所述公交车,多辆所述公交车连续排列且均位于多辆所述公交车的路线的重叠部分上;
若当前所述公交车在所述车队中排列首位,则接收所述车队中其他所述公交车驱动第二激光雷达采集的第二点云数据与驱动第二摄像头采集的第二图像数据;
根据所述第一图像数据与所述第二图像数据生成所述第一激光雷达与所述第二激光雷达之间的目标转换关系;
按照所述目标转换关系将所述第一点云数据与所述第二点云数据融合为第三点云数据;
根据所述图像数据与所述第三点云数据进行语义识别,以检测障碍物;
对所述障碍物生成驾驶提示信息,并将所述驾驶提示信息同步至所述车队中的其他所述公交车。
根据本发明的另一方面,提供了一种基于多元数据的融合检测装置,应用于公交车,所述装置包括:
环境感知模块,用于在当前所述公交车沿指定的路线行驶时,同时驱动第一激光雷达采集第一点云数据、驱动第一摄像头采集第一图像数据;
车队确定模块,用于确定当前所述公交车进入车队,所述车队中具有多辆所述公交车,多辆所述公交车连续排列且均位于多辆所述公交车的路线的重叠部分上;
数据采集模块,用于若当前所述公交车在所述车队中排列首位,则接收所述车队中其他所述公交车驱动第二激光雷达采集的第二点云数据与驱动第二摄像头采集的第二图像数据;
转换关系生成模块,用于根据所述第一图像数据与所述第二图像数据生成所述第一激光雷达与所述第二激光雷达之间的目标转换关系;
点云融合模块,用于按照所述目标转换关系将所述第一点云数据与所述第二点云数据融合为第三点云数据;
障碍物检测模块,用于根据所述图像数据与所述第三点云数据进行语义识别,以检测障碍物;
提示信息生成模块,用于对所述障碍物生成驾驶提示信息,并将所述驾驶提示信息同步至所述车队中的其他所述公交车。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的基于多元数据的融合检测方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序用于使处理器执行时实现本发明任一实施例所述的基于多元数据的融合检测方法。
在本实施例中,在当前公交车沿指定的路线行驶时,同时驱动第一激光雷达采集第一点云数据、驱动第一摄像头采集第一图像数据;确定当前公交车进入车队,车队中具有多辆公交车,多辆公交车连续排列且均位于多辆公交车的路线的重叠部分上;若当前公交车在车队中排列首位,则接收车队中其他公交车驱动第二激光雷达采集的第二点云数据与驱动第二摄像头采集的第二图像数据;根据第一图像数据与第二图像数据生成第一激光雷达与第二激光雷达之间的目标转换关系;按照目标转换关系将第一点云数据与第二点云数据融合为第三点云数据;根据图像数据与第三点云数据进行语义识别,以检测障碍物;对障碍物生成驾驶提示信息,并将驾驶提示信息同步至车队中的其他公交车。本实施例并未对公交车的激光雷达进行修改,保持硬件成本不变,在此情况下,识别出多辆部分路线相同且连续跟随的公交车,并对其点云数据进行融合,可以提高点云数据的密度,使得点云数据更加稠密,提高检测障碍物的精确度,辅助司机做出驾驶的决策,提高公交车的安全性。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种基于多元数据的融合检测方法的流程图;
图2是根据本发明实施例二提供的一种基于多元数据的融合检测装置的结构示意图;
图3是实现本发明实施例三提供的一种电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供的一种基于多元数据的融合检测方法的流程图,本实施例可适用于融合多辆公交车调用激光雷达采集的点云数据检测障碍物的情况,该方法可以由基于多元数据的融合检测装置来执行,该基于多元数据的融合检测装置可以采用硬件和/或软件的形式实现,该基于多元数据的融合检测装置可配置于电子设备中,尤其为公交车。如图1所示,该方法包括:
步骤101、在当前公交车沿指定的路线行驶时,同时驱动第一激光雷达采集第一点云数据、驱动第一摄像头采集第一图像数据。
公交车(Bus,又称巴士、公车等),指在城市道路上循固定路线,该路线上设置有多个站点,有或者无固定班次时刻,有专属路号(如960号、195A号、35号等),在站点停靠让乘客上下车、承载乘客出行的机动车辆。
公交车的外形一般为方型,有窗,设置座位、扶手。在城区,公交车的时速一般在25-50公里/小时,在郊区,公交车的时速可达80公里/小时。
在本实施例中,公交车支持自动驾驶,所谓自动驾驶,可以指车辆本身拥有环境感知、路径规划并且自主实现车辆控制的能力,也就是用电子技术控制公交车进行的仿人驾驶。
根据对公交车操控任务的把握程度,自动驾驶可以分为L0非自动化(NoAutomotion)、L1驾驶人辅助(Driver Assistance)、L2部分自动化(Partial Automation)、L3有条件自动化(Conditional Automation)、L4高自动化(High Automation)、L5全自动化(Full Automation),那么,公交车可支持L1、L2中任一自动驾驶的级别。
公交车可以包括驾驶控制设备,车身总线,ECU(Electronic Control Unit,电子控制单元),传感器和执行器件。
驾驶控制设备(又称为车载大脑)负责整个公交车的总体智能控制。驾驶控制设备可以是单独设置的控制器,例如,CPU、异构处理器(如GPU、TPU、NPU等)可编程逻辑控制器(Programmable LogicController,PLC)、单片机、工业控制机等;也可以是由其他具有输入/输出端口,并具有运算控制功能的电子器件组成的设备;还可以是安装有车辆驾驶控制类应用的计算机设备。驾驶控制设备可以对从车身总线上接收到的各个ECU发来的数据和/或各个传感器发来的数据进行分析处理,作出相应的决策,并将决策对应的指令发送到车身总线。
车身总线可以是用于连接驾驶控制设备,ECU,传感器以及公交车的其他未示出的设备的总线。由于CAN(Controller AreaNetwork,控制器局域网络)总线的高性能和可靠性已被广泛认同,因此目前机动车中常用的车身总线为CAN总线。当然,可以理解的是车身总线也可以是其他类型的总线。
车身总线可以将驾驶控制设备发出的指令发送给ECU,ECU再将上述指令进行分析处理后发给相应的执行器件执行。
传感器包括但不限于激光雷达、摄像头,等等。
应该理解,公交车中驾驶控制设备、车身总线、ECU、执行器件和传感器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的车辆、驾驶控制设备、车身总线、ECU和传感器。
为便于区分,将当前公交车中的激光雷达记为第一激光雷达、将当前公交车中的摄像头记为第一摄像头,将除当前公交车之外的其他公交车中的激光雷达记为第二激光雷达、将除当前公交车之外的其他公交车中的摄像头记为第二摄像头。
每辆公交车定有一个或多个路号,该路号通常并不会发生改变,因此,可以建立公交车(以编号等标识表示)与路号之间的关系,并发送至云端进行维护,当前公交车在启动行驶之后,可与服务器协商确定当前应用的路号,并查询该路号对应的路线,作为公交车正在行驶的路线。
在当前公交车沿指定的路线行驶的过程中,当前公交车可以同时驱动第一激光雷达采集周围环境的第一点云数据、驱动第一摄像头采集周围环境的第一图像数据。
步骤102、确定当前公交车进入车队。
每辆公交车均与云端保持通信连接,每辆公交车实时将经纬度等信息传输至云端,云端对各辆公交车的经纬度、路线进行分析,从而临时生成车队,并通知车队中的每辆车。
其中,车队中具有多辆公交车,多辆公交车连续排列(前后相邻两辆公交车的经纬度之间的差值在预设的阈值内)且均位于多辆公交车的路线的重叠部分上。
在实际应用中,在居民聚居的地区,站点较为密集,且站点之间的距离较近,往往有多条不同的路线经过多个相同的站点、且这些站点之间的顺序相同,在既定站点之间的顺序的情况下,不同路线的公交车为到达这些站点而经过的道路基本也是相同的。
因此,在交通较为拥堵的情况下,多辆公交车在这些站点之间行驶时,可能会发生首尾相接(即连续排列)的情况。
对于这种情况下的多辆公交车,面向的环境是基本一致的,对于相同的障碍物,具有不同的观察角度,因而多辆公交车的激光雷达可以互补,提高点云数据的密度,使得点云数据稠密。
在本实施例中,为了便于对这种情况下的多辆公交车,可以对多辆公交车编入临时的车队中,并逐一通知多辆公交车加入车队(含排序的位置),在多辆公交车因路线不同而分开行驶时,逐一通知多辆公交车离开车队,直至解散车队。
步骤103、若当前公交车在车队中排列首位,则接收车队中其他公交车驱动第二激光雷达采集的第二点云数据与驱动第二摄像头采集的第二图像数据。
在同一车队中,排序在首位的公交车的前方没有明显的遮挡,感知范围更加广阔,其采集的点云数据与图像数据更加全面,排序在非首位的公交车的前方会被前一位的公交车遮挡,感知范围较为狭窄。
因此,在同一车队中,可以以排序在首位的公交车采集的点云数据与图像数据作为基准,以排序在非首位的公交车采集的点云数据与图像数据作为补充。
如果当前公交车在车队中排列在首位,可通过当前公交车与其他公交车之间的本地局域网(如WiFi(无线保真)等)或者云端接收车队中除当前公交车外的其他公交车驱动第二激光雷达对周围的环境采集的第二点云数据与驱动第二摄像头周围的环境采集的第二图像数据。
步骤104、根据第一图像数据与第二图像数据生成第一激光雷达与第二激光雷达之间的目标转换关系。
在本实施例中,以第一图像数据与第二图像数据作为中继,临时对第一激光雷达与第二激光雷达之间进行联合标定,从而生成第一激光雷达与第二激光雷达之间的目标转换关系。
在具体实现中,针对当前车辆,已经在出厂之前对第一激光雷达与第一摄像头联合进行标定,因此,可以在本地查询第一激光雷达与第一摄像头之间的第一子转关系,如旋转矩阵、平移矩阵等。
寻找第一图像数据与第二图像数据之间的匹配点,从而计算第一图像数据与第二图像数据之间的第二子转换关系,如单应性矩阵。
针对其他车辆,已经在出厂之前对第一激光雷达与第一摄像头联合进行标定,因此,可以在向云端查询第二激光雷达与第二摄像头之间的第三子转关系,如旋转矩阵、平移矩阵等。
通过对矩阵进行相乘、相加等转换,将第一子转关系、第二子转换关系与第三子转关系融合为第一激光雷达与第二激光雷达之间的目标转换关系。
对于低线性的激光雷达,在不同的观察角度对同一物体采集点云数据也可能因激光信号扫描到该物体的位置发生变化而导致三维的坐标、强度发生较大的变化,如果直接从第一点云数据与第二点云数据提取特性并使用特征进行匹配,以此生成第一激光雷达与第二激光雷达之间的目标转换关系,可能产生较大误差。
摄像头在不同的观察角度对同一物体采集图像数据,像素点的颜色本身的变化较小,并且,激光雷达与摄像头已经进行联合标定,因而根据第一图像数据与第二图像数据作为中继,可对第一激光雷达与第二激光雷达生成较为精确的目标转换关系。
步骤105、按照目标转换关系将第一点云数据与第二点云数据融合为第三点云数据。
在本实施例中,按照目标转换关系对第一点云数据与第二点云数据进行整合,从而将融合第一点云数据与第二点云数据为第三点云数据,使得第三点云数据均比第一点云数据与第二点云数据稠密。
在具体实现中,可以对第二点云数据进行聚类,在其他公交车前方方向预设范围内聚集的点大多是遮挡其他公交车感知范围的障碍物,如公交车的尾部等,这些障碍物是车队中位于首位的公交车未感知到的,因此,可以在第二点云数据中滤除位于车队中其他公交车前方的点,获得第三点云数据。
将第三点云数据按照目标转换关系投影至第一点云数据中,获得第三点云数据,即,将第三点云数据按照目标转换关系转换至第一点云数据所处的坐标系中,在该坐标系中叠加第一点云数据与第三点云数据。
由于第一摄像头与第二摄像头之间并无法直接进行联合标定,因此,根据第一图像数据与第二图像数据生成的、第一激光雷达与第二激光雷达之间的目标转换关系可能存在一定的误差,此时,将按照目标转换关系将第一点云数据与第二点云数据融合为第三点云数据当作是“生成”的过程,可以预先使用真实(未叠加)的点云数据与叠加的点云数据作为样本训练判别器(如多层感知机),实现类“对抗”的过程,所谓类“对抗”,可以指判别“生成”的结果是真或假。
在内存中加载预设的判别器,将第三点云数据输入判别器中进行处理,获得判别结果。
若判别结果为第三点云数据为真,即,第三点云数据的特性与真实的点云数据的特性一致,则确定第三点云数据有效,此时,可以使用第三点云数据继续后续的语义识别,保证语义识别的精确度。
若判别结果为第三点云数据为假,即,第三点云数据的特性与真实的点云数据的特性不一致,则确定第三点云数据无效,此时,可以停止使用第三点云数据继续后续的语义识别、而继续使用第一点云数据继续后续的语义识别。
步骤106、根据图像数据与第三点云数据进行语义识别,以检测障碍物。
在具体实现中,可以通过深度学习或机器学习融合图像数据与第三点云数据进行语义识别,从而检测位于当前公交车周围环境中的障碍物。
在本发明的一个实施例中,步骤106可以包括如下步骤:
步骤1061、加载环境感知网络。
在本实施例中,可以基于深度学习构建并训练轻量化的环境感知网络,将环境感知网络部署在公交车上,若公交车的算力不足,可以在公交车中部署边缘计算节点,支持环境感知网络的运行。
在公交车启动自动驾驶时,可将环境感知网络加载至内存运行,环境感知网络可用于融合图像数据与点云数据检测障碍物。
环境感知网络的结构不局限于人工设计的神经网络,也可以通过模型量化方法优化的神经网络,通过NAS(Neural Architecture Search,神经网络结构搜索)方法针对图像数据与点云数据融合的特性搜索的神经网络,等等,本实施例对此不加以限制。
进一步而言,环境感知网络包括点云转换器、骨干网络(Backbone)与检测头(Detection Head),骨干网络包括第一点云提取器、全连接层(fully connected layers,FC)、第二点云提取器与图像提取器。
其中,点云转换器用于将点云数据的结构转换至与图像数据一致,即,将点云数据转换至伪图像数据,使得点云数据与图像数据可以融合。
骨干网络用于提取图像数据与点云数据的特征,进一步地,图像提取器用于提取图像数据的特征,因点云数据的数量不同,第一点云提取器、全连接层、第二点云提取器共同作用于提取点云数据的特征。
步骤1062、将图像数据输入图像提取器中提取图像特征。
在具体实现中,图像提取器可以为一些卷积层的组合,尤其包含残差结构,将图像数据输入图像提取器中,图像提取器按照其结构对图像数据执行卷积、池化、激活等操作,输出图像数据。
步骤1063、将目标点云数据输入点云转换器中、转换为结构与图像数据相同的参考点云数据。
在具体实现中,点云转换器可以为VoxelNet(三维像素网络)、FCN(FeatureConvert Network,特征转换网络)等结构,点云数据的表现形式一般是三维的坐标(x,y,z)和反射强度i,将点云数据输入到点云转换器中进行处理,输出的是维度、宽、高(C,H,W)的参考点云数据。
在本实施例中,环境感知网络既可用于点云数据未融合的情况(如公交车未加入车队、在加入车队时第三点云数据无效等)下检测周边环境的障碍物,也可用于点云数据已融合的情况下检测周边环境的障碍物,因此,可以将第一点云数据或第三点云数据设置为目标点云数据,将目标点云数据输入点云转换器中,点云转换器将目标点云数据转换为结构与图像数据相同的参考点云数据。
步骤1064、将参考点云数据输入第一点云提取器中提取第一目标点云特征。
在具体实现中,第一点云提取器可以为一些卷积层、反卷积层的组合,将参考点云数据输入第一点云提取器中,第一点云提取器从参考点云数据中提取浅层次的特征,记为第一目标点云特征。
示例性地,第一点云提取器包括第一卷积层、第一反卷积层、第二卷积层与第二反卷积层,第一卷积层、第二卷积层均属于卷积层(Convolutional Layer),可提供卷积操作,第一反卷积层、第二反卷积层均属于反卷积层(Deconvolutional Layer),可提供反卷积操作。
卷积操作可以提取图像数据中的特征,低层的卷积层可以提取到退昂数据的一些边缘、线条、角等特征,高层的卷积层能够从低层的卷积层中学到更复杂的特征,从而实现到图像数据的分类和识别。
反卷积操作也被称为转置卷积,反卷积操作为卷积操作的逆过程,通过反卷积操作可以用来可视化卷积操作的过程。
在第一卷积层中,对参考点云数据执行第一卷积操作,获得第一候选点云特征,第一卷积层将第一候选点云特征分别输出至第一反卷积层、第二卷积层。
在第一反卷积层中,对第一候选点云特征执行第一反卷积操作,获得第二候选点云特征。
在第二卷积层中,对第一候选点云特征执行第二卷积操作,获得第三候选点云特征。
在第一反卷积层中,对第二候选点云特征执行第二反卷积操作,获得第四候选点云特征。
通过Concat(按通道数合并)等函数将第二候选点云特征与第四候选点云特征融合为第一目标点云特征。
步骤1065、若目标点云数据为第一点云数据,则将第一目标点云特征输入全连接层中映射为第二目标点云特征。
如果目标点云数据为第一点云数据,则将第一目标点云特征输入全连接层中进行映射,输出指定格式的第二目标点云特征。
步骤1066、将第二目标点云特征与图像特征融合为目标环境特征。
通过Add(相加)等函数将第二目标点云特征与图像特征融合为目标环境特征。
步骤1067、若目标点云数据为第三点云数据,则将第一目标点云特征输入第二点云提取器中提取第三目标点云特征。
如果目标点云数据为第三点云数据,则将第一目标点云特征输入第二点云提取器中,第二点云提取器从第一目标点云特征中提取高层次的特征,记为第三目标点云特征。
示例性地,第二点云提取器包括第三卷积层、第三反卷积层、第四卷积层与第四反卷积层,第三卷积层、第四卷积层均属于卷积层,可提供卷积操作,第三反卷积层、第四反卷积层均属于反卷积层,可提供反卷积操作。
在第三卷积层中,对第一目标点云特征执行第三卷积操作,获得第五候选点云特征,第三卷积层将第五候选点云特征分别输出至第三反卷积层、第四卷积层。
在第三反卷积层中,对第五候选点云特征执行第三反卷积操作,获得第六候选点云特征。
在第四卷积层中,对第五候选点云特征执行第四卷积操作,获得第七候选点云特征。
在第四反卷积层中,对第七候选点云特征执行第四反卷积操作,获得第八候选点云特征。
通过Concat(按通道数合并)等函数将第六候选点云特征与第八候选点云特征融合为第三目标点云特征。
步骤1068、将第三目标点云特征与图像特征融合为目标环境特征。
通过Add(相加)等函数将第三目标点云特征与图像特征融合为目标环境特征。
步骤1069、将目标环境特征输入检测头中进行处理,获得障碍物。
检测头是目标检测网络,如SSD(Single Shot MultiBox Detector,单步多框目标检测)、R-CNN(Region-CNN,基于候选区域的神经网络)及其改进的网络等,对障碍物进行回归预测。
步骤107、对障碍物生成驾驶提示信息,并将驾驶提示信息同步至车队中的其他公交车。
在检测出障碍物时,公交车的自动驾驶系统可以在复杂的道路环境中通过一定的约束条件(如空间地形、障碍物的运动状态(如速度、方向等)、公交车的运动学和动力学特性等)检测出可能对公交车的安全造成影响的情况,例如,有车辆在快速切入当前公交车的车道,等等,针对这些情况生成相应的驾驶提示信息,以语音等方式播报给司机,方便司机规划出安全的驾驶操作。
与此同时,车队中除当前车辆的其他车辆也面临与当前车辆同样的情况,若当前公交车触发急停等驾驶操作,由于公交车,连带其他公交车也会触发相同的急停等驾驶操作,因此,当前公交车可将驾驶提示信息实时同步至车队中的其他公交车,其他公交车以语音等方式播报给司机,方便司机规划出安全的驾驶操作,从而减少其他公交车运算的负担。
在本实施例中,在当前公交车沿指定的路线行驶时,同时驱动第一激光雷达采集第一点云数据、驱动第一摄像头采集第一图像数据;确定当前公交车进入车队,车队中具有多辆公交车,多辆公交车连续排列且均位于多辆公交车的路线的重叠部分上;若当前公交车在车队中排列首位,则接收车队中其他公交车驱动第二激光雷达采集的第二点云数据与驱动第二摄像头采集的第二图像数据;根据第一图像数据与第二图像数据生成第一激光雷达与第二激光雷达之间的目标转换关系;按照目标转换关系将第一点云数据与第二点云数据融合为第三点云数据;根据图像数据与第三点云数据进行语义识别,以检测障碍物;对障碍物生成驾驶提示信息,并将驾驶提示信息同步至车队中的其他公交车。本实施例并未对公交车的激光雷达进行修改,保持硬件成本不变,在此情况下,识别出多辆部分路线相同且连续跟随的公交车,并对其点云数据进行融合,可以提高点云数据的密度,使得点云数据更加稠密,提高检测障碍物的精确度,辅助司机做出驾驶的决策,提高公交车的安全性。
实施例二
图2为本发明实施例二提供的一种基于多元数据的融合检测装置的结构示意图。如图2所示,该装置应用于公交车,该装置包括:
环境感知模块201,用于在当前所述公交车沿指定的路线行驶时,同时驱动第一激光雷达采集第一点云数据、驱动第一摄像头采集第一图像数据;
车队确定模块202,用于确定当前所述公交车进入车队,所述车队中具有多辆所述公交车,多辆所述公交车连续排列且均位于多辆所述公交车的路线的重叠部分上;
数据采集模块203,用于若当前所述公交车在所述车队中排列首位,则接收所述车队中其他所述公交车驱动第二激光雷达采集的第二点云数据与驱动第二摄像头采集的第二图像数据;
转换关系生成模块204,用于根据所述第一图像数据与所述第二图像数据生成所述第一激光雷达与所述第二激光雷达之间的目标转换关系;
点云融合模块205,用于按照所述目标转换关系将所述第一点云数据与所述第二点云数据融合为第三点云数据;
障碍物检测模块206,用于根据所述图像数据与所述第三点云数据进行语义识别,以检测障碍物;
提示信息生成模块207,用于对所述障碍物生成驾驶提示信息,并将所述驾驶提示信息同步至所述车队中的其他所述公交车。
在本发明的一个实施例中,所述转换关系生成模块204还用于:
查询所述第一激光雷达与所述第一摄像头之间的第一子转关系;
计算所述第一图像数据与所述第二图像数据之间的第二子转换关系;
查询所述第二激光雷达与所述第二摄像头之间的第三子转关系;
将所述第一子转关系、所述第二子转换关系与所述第三子转关系融合为所述第一激光雷达与所述第二激光雷达之间的目标转换关系。
在本发明的一个实施例中,所述点云融合模块205还用于:
在所述第二点云数据中滤除位于所述车队中其他所述公交车前方的点,获得第三点云数据;
将所述第三点云数据按照所述目标转换关系投影至所述第一点云数据中,获得第三点云数据。
在本发明的一个实施例中,所述点云融合模块205还用于:
加载预设的判别器;
将所述第三点云数据输入所述判别器中进行处理,获得判别结果;
若所述判别结果为所述第三点云数据为真,则确定所述第三点云数据有效;
若所述判别结果为所述第三点云数据为假,则确定所述第三点云数据无效。
在本发明的一个实施例中,所述障碍物检测模块206还用于:
加载环境感知网络,所述环境感知网络包括点云转换器、骨干网络与检测头,所述骨干网络包括第一点云提取器、全连接层、第二点云提取器与图像提取器;
将所述图像数据输入所述图像提取器中提取图像特征;
将目标点云数据输入所述点云转换器中、转换为结构与所述图像数据相同的参考点云数据;
将所述参考点云数据输入所述第一点云提取器中提取第一目标点云特征;
若所述目标点云数据为所述第一点云数据,则将所述第一目标点云特征输入所述全连接层中映射为第二目标点云特征;
将所述第二目标点云特征与所述图像特征融合为目标环境特征;
若所述目标点云数据为所述第三点云数据,则将所述第一目标点云特征输入所述第二点云提取器中提取第三目标点云特征;
将所述第三目标点云特征与所述图像特征融合为目标环境特征;
将所述目标环境特征输入所述检测头中进行处理,获得障碍物。
在本发明的一个实施例中,所述障碍物检测模块206还用于:
对所述参考点云数据执行第一卷积操作,获得第一候选点云特征;
对所述第一候选点云特征执行第一反卷积操作,获得第二候选点云特征;
对所述第一候选点云特征执行第二卷积操作,获得第三候选点云特征;
对所述第二候选点云特征执行第二反卷积操作,获得第四候选点云特征;
将所述第二候选点云特征与所述第四候选点云特征融合为第一目标点云特征。
在本发明的一个实施例中,所述障碍物检测模块206还用于:
对所述第一目标点云特征执行第三卷积操作,获得第五候选点云特征;
对所述第五候选点云特征执行第三反卷积操作,获得第六候选点云特征;
对所述第五候选点云特征执行第四卷积操作,获得第七候选点云特征;
对所述第七候选点云特征执行第四反卷积操作,获得第八候选点云特征;
将所述第六候选点云特征与所述第八候选点云特征融合为第三目标点云特征。
本发明实施例所提供的基于多元数据的融合检测装置可执行本发明任意实施例所提供的基于多元数据的融合检测方法,具备执行基于多元数据的融合检测方法相应的功能模块和有益效果。
实施例三
图3示出了可以用来实施本发明的实施例的电子设备10的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图3所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,如基于多元数据的融合检测方法。
在一些实施例中,基于多元数据的融合检测方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的基于多元数据的融合检测方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行基于多元数据的融合检测方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
实施例四
本发明实施例还提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序在被处理器执行时实现如本发明任一实施例所提供的基于多元数据的融合检测方法。
计算机程序产品在实现的过程中,可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (8)

1.一种基于多元数据的融合检测方法,其特征在于,应用于公交车,所述方法包括:
在当前所述公交车沿指定的路线行驶时,同时驱动第一激光雷达采集第一点云数据、驱动第一摄像头采集第一图像数据;
确定当前所述公交车进入车队,所述车队中具有多辆所述公交车,多辆所述公交车连续排列且均位于多辆所述公交车的路线的重叠部分上;
若当前所述公交车在所述车队中排列首位,则接收所述车队中其他所述公交车驱动第二激光雷达采集的第二点云数据与驱动第二摄像头采集的第二图像数据;
根据所述第一图像数据与所述第二图像数据生成所述第一激光雷达与所述第二激光雷达之间的目标转换关系;
按照所述目标转换关系将所述第一点云数据与所述第二点云数据融合为第三点云数据;
根据所述第一图像数据与所述第三点云数据进行语义识别,以检测障碍物;
对所述障碍物生成驾驶提示信息,并将所述驾驶提示信息同步至所述车队中的其他所述公交车;
其中,所述根据所述第一图像数据与所述第二图像数据生成所述第一激光雷达与所述第二激光雷达之间的目标转换关系,包括:
查询所述第一激光雷达与所述第一摄像头之间的第一子转关系;
计算所述第一图像数据与所述第二图像数据之间的第二子转换关系;
查询所述第二激光雷达与所述第二摄像头之间的第三子转关系;
将所述第一子转关系、所述第二子转换关系与所述第三子转关系融合为所述第一激光雷达与所述第二激光雷达之间的目标转换关系。
2.根据权利要求1所述的方法,其特征在于,所述按照所述目标转换关系将所述第一点云数据与所述第二点云数据融合为第三点云数据,包括:
在所述第二点云数据中滤除位于所述车队中其他所述公交车前方的点,获得第三点云数据;
将所述第三点云数据按照所述目标转换关系投影至所述第一点云数据中,获得第三点云数据。
3.根据权利要求2所述的方法,其特征在于,所述按照所述目标转换关系将所述第一点云数据与所述第二点云数据融合为第三点云数据,还包括:
加载预设的判别器;
将所述第三点云数据输入所述判别器中进行处理,获得判别结果;
若所述判别结果为所述第三点云数据为真,则确定所述第三点云数据有效;
若所述判别结果为所述第三点云数据为假,则确定所述第三点云数据无效。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述根据所述第一图像数据与所述第三点云数据进行语义识别,以检测障碍物,包括:
加载环境感知网络,所述环境感知网络包括点云转换器、骨干网络与检测头,所述骨干网络包括第一点云提取器、全连接层、第二点云提取器与图像提取器;
将所述第一图像数据输入所述图像提取器中提取图像特征;
将目标点云数据输入所述点云转换器中、转换为结构与所述第一图像数据相同的参考点云数据;
将所述参考点云数据输入所述第一点云提取器中提取第一目标点云特征;
若所述目标点云数据为所述第一点云数据,则将所述第一目标点云特征输入所述全连接层中映射为第二目标点云特征;
将所述第二目标点云特征与所述图像特征融合为目标环境特征;
若所述目标点云数据为所述第三点云数据,则将所述第一目标点云特征输入所述第二点云提取器中提取第三目标点云特征;
将所述第三目标点云特征与所述图像特征融合为目标环境特征;
将所述目标环境特征输入所述检测头中进行处理,获得障碍物。
5.根据权利要求4所述的方法,其特征在于,所述将所述第一目标点云特征输入所述第二点云提取器中提取第三目标点云特征,包括:
对所述第一目标点云特征执行第三卷积操作,获得第五候选点云特征;
对所述第五候选点云特征执行第三反卷积操作,获得第六候选点云特征;
对所述第五候选点云特征执行第四卷积操作,获得第七候选点云特征;
对所述第七候选点云特征执行第四反卷积操作,获得第八候选点云特征;
将所述第六候选点云特征与所述第八候选点云特征融合为第三目标点云特征。
6.一种基于多元数据的融合检测装置,其特征在于,应用于公交车,所述装置包括:
环境感知模块,用于在当前所述公交车沿指定的路线行驶时,同时驱动第一激光雷达采集第一点云数据、驱动第一摄像头采集第一图像数据;
车队确定模块,用于确定当前所述公交车进入车队,所述车队中具有多辆所述公交车,多辆所述公交车连续排列且均位于多辆所述公交车的路线的重叠部分上;
数据采集模块,用于若当前所述公交车在所述车队中排列首位,则接收所述车队中其他所述公交车驱动第二激光雷达采集的第二点云数据与驱动第二摄像头采集的第二图像数据;
转换关系生成模块,用于根据所述第一图像数据与所述第二图像数据生成所述第一激光雷达与所述第二激光雷达之间的目标转换关系;
点云融合模块,用于按照所述目标转换关系将所述第一点云数据与所述第二点云数据融合为第三点云数据;
障碍物检测模块,用于根据所述第一图像数据与所述第三点云数据进行语义识别,以检测障碍物;
提示信息生成模块,用于对所述障碍物生成驾驶提示信息,并将所述驾驶提示信息同步至所述车队中的其他所述公交车;
其中,所述转换关系生成模块还用于:
查询所述第一激光雷达与所述第一摄像头之间的第一子转关系;
计算所述第一图像数据与所述第二图像数据之间的第二子转换关系;
查询所述第二激光雷达与所述第二摄像头之间的第三子转关系;
将所述第一子转关系、所述第二子转换关系与所述第三子转关系融合为所述第一激光雷达与所述第二激光雷达之间的目标转换关系。
7.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的基于多元数据的融合检测方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序用于使处理器执行时实现权利要求1-5中任一项所述的基于多元数据的融合检测方法。
CN202310015333.0A 2023-01-06 2023-01-06 基于多元数据的融合检测方法、装置、设备及存储介质 Active CN115909815B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310015333.0A CN115909815B (zh) 2023-01-06 2023-01-06 基于多元数据的融合检测方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310015333.0A CN115909815B (zh) 2023-01-06 2023-01-06 基于多元数据的融合检测方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN115909815A CN115909815A (zh) 2023-04-04
CN115909815B true CN115909815B (zh) 2023-06-06

Family

ID=86488291

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310015333.0A Active CN115909815B (zh) 2023-01-06 2023-01-06 基于多元数据的融合检测方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN115909815B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116902003B (zh) * 2023-07-31 2024-02-06 合肥海普微电子有限公司 基于激光雷达与摄像头混合模态的无人驾驶方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229366B (zh) * 2017-12-28 2021-12-14 北京航空航天大学 基于雷达和图像数据融合的深度学习车载障碍物检测方法
CN108509918B (zh) * 2018-04-03 2021-01-08 中国人民解放军国防科技大学 融合激光点云与图像的目标检测与跟踪方法
CN109859154A (zh) * 2019-01-31 2019-06-07 深兰科技(上海)有限公司 一种数据融合方法、装置、设备及介质
CN110032949B (zh) * 2019-03-22 2021-09-28 北京理工大学 一种基于轻量化卷积神经网络的目标检测与定位方法
JP7389729B2 (ja) * 2020-09-10 2023-11-30 株式会社日立製作所 障害物検知装置、障害物検知システム及び障害物検知方法
CN112835037B (zh) * 2020-12-29 2021-12-07 清华大学 一种基于视觉和毫米波融合的全天候目标检测方法

Also Published As

Publication number Publication date
CN115909815A (zh) 2023-04-04

Similar Documents

Publication Publication Date Title
Chen et al. Autonomous driving: cognitive construction and situation understanding
US10796201B2 (en) Fusing predictions for end-to-end panoptic segmentation
CN110765894B (zh) 目标检测方法、装置、设备及计算机可读存储介质
US20200250837A1 (en) Systems and Methods for Detecting an Object Velocity
CN109270524B (zh) 基于无人驾驶的多数据融合障碍物检测装置及其检测方法
US20200200545A1 (en) Method and System for Determining Landmarks in an Environment of a Vehicle
CN115909815B (zh) 基于多元数据的融合检测方法、装置、设备及存储介质
US11403947B2 (en) Systems and methods for identifying available parking spaces using connected vehicles
CN110936959B (zh) 车辆感知系统在线诊断和预测
CN111295666A (zh) 一种车道线检测方法、装置、控制设备及存储介质
CN115879060A (zh) 基于多模态的自动驾驶感知方法、装置、设备和介质
Kanchana et al. Computer vision for autonomous driving
Liu et al. Research on security of key algorithms in intelligent driving system
Jung et al. Intelligent Hybrid Fusion Algorithm with Vision Patterns for Generation of Precise Digital Road Maps in Self-driving Vehicles.
CN113611008B (zh) 一种车辆行驶场景采集方法、装置、设备及介质
US20240010225A1 (en) Representation learning for object detection from unlabeled point cloud sequences
CN113298044B (zh) 基于定位补偿的障碍物检测方法、系统、设备及存储介质
CN111352128B (zh) 一种基于融合点云的多传感器融合感知方法与系统
EP4047514A1 (en) Platform for perception system development for automated driving system
CN114882458A (zh) 一种目标跟踪方法、系统、介质及设备
CN114495049A (zh) 识别车道线的方法和装置
Nguyen et al. Optimized grid-based environment perception in advanced driver assistance systems
Bhatlawande et al. LIDAR based Detection of Small Vehicles
Paromtchik et al. Fusion of telemetric and visual data from road scenes with a lexus experimental platform
CN115880946B (zh) 一种跟车警报方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant