CN117471483A - 多传感器融合的车距计算方法及系统 - Google Patents
多传感器融合的车距计算方法及系统 Download PDFInfo
- Publication number
- CN117471483A CN117471483A CN202311246160.XA CN202311246160A CN117471483A CN 117471483 A CN117471483 A CN 117471483A CN 202311246160 A CN202311246160 A CN 202311246160A CN 117471483 A CN117471483 A CN 117471483A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- distance
- moment
- acquiring
- executing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 48
- 238000004364 calculation method Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 117
- 238000005259 measurement Methods 0.000 claims description 49
- 238000004590 computer program Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 9
- 238000012216 screening Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明提供一种多传感器融合的车距计算方法及系统,方法包括:执行第一时刻的车距测量过程,获取第一车辆与第二车辆之间的第一车距;执行第二时刻的车距测量过程,获取所述第一车辆与所述第二车辆之间的第二车距;执行第三时刻的车距测量过程,获取所述第一车辆与第二车辆之间的安全车距。所述系统执行所述方法。本发明通过对多个传感器如深度相机测得的跟车(即第一车辆)与前车(即第二车辆)的车距以及激光雷达测得的跟车与前车的车距进行融合,提高得到的跟车与前车之间的安全车距的准确度,从而提高道路的通行效率和整体交通安全。
Description
技术领域
本发明涉及自动驾驶技术领域,尤其涉及一种多传感器融合的车距计算方法及系统。
背景技术
自动驾驶是一种通过使用传感器、计算机和控制系统等技术,实现自主感知、决策和控制,完成交通行驶任务的技术。在自动驾驶过程中,确定与前车的车距十分重要,安全的车距可以避免碰撞事故的发生,保持交通的流畅,从而提高道路的通行效率和整体交通安全。
现有的自动驾驶车距测量方法包括:1,通过导航信息确定路段的拥挤度以确定影像设备的工作参数;然后通过影像设备以及车辆的车身参数计算预测车距;最后基于预测车距对雷达设备的采集数据进行筛选以确定最终车距。2,通过摄像头采集行车数据集,联合边缘设备和传感设备以预测行车距离。3,通过在等时间间隔的图像序列中进行轮廓提取以计算出车距。
现有的自动驾驶车距测量方法主要采用多传感器(激光雷达、摄像头等)串联判别的方式进行。目前的方法在阴天,多云等天气可以取得较好的结果。但是,这种方式得到的结果并不精确,精确度取决于串联最后一级的传感器。另外,在一些不理想的环境下,例如阳光强烈的大晴天,暴雨天等,系统中某个传感器的测量可能出现较大误差,整个系统容易出现失效,得出结果的可靠性大大下降,降低了安全性。
发明内容
本发明提供的多传感器融合的车距计算方法及系统,用于解决现有的自动驾驶车距测量方法测得的车距准确度低,导致的道路交通安全性低的问题。
本发明提供的一种多传感器融合的车距计算方法,包括:
执行第一时刻的车距测量过程,获取第一车辆与第二车辆之间的第一车距,其中,所述第一时刻的车距测量过程包括:根据部署在第一车辆上的深度相机在所述第一时刻获取的所述第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,所述第一车辆跟随所述第二车辆行驶;
执行第二时刻的车距测量过程,获取所述第一车辆与所述第二车辆之间的第二车距,其中,所述第二时刻的车距测量过程包括:根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的第二车距,所述第三车距为在所述第二时刻,执行所述第一时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第四车距为根据部署在所述第一车辆上的激光雷达在所述第二时刻测得的所述第一车辆与所述第二车辆之间的车距,所述第二时刻与所述第一时刻相隔目标时间间隔;
执行第三时刻的车距测量过程,获取所述第一车辆与第二车辆之间的安全车距,其中,所述第三时刻的车距测量过程包括:根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,所述第五车距为在所述第三时刻,执行所述第二时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第六车距根据所述第二车辆在所述第二时刻的速度、所述第一车辆在第三时刻的速度及所述第二车距确定,所述第三时刻与所述第二时刻相隔所述目标时间间隔。
根据本发明提供的一种多传感器融合的车距计算方法,所述根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的车距,包括:
根据所述第三车距、所述第四车距、第一方差及第二方差,获取所述第一车辆与所述车辆之间的车距,所述第一方差为所述深度相机测得的数据分布的方差,所述第二方差为所述激光雷达测得的数据分布的方差。
根据本发明提供的一种多传感器融合的车距计算方法,所述根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,包括:
将所述第五车距及所述第六车距中的较小值作为所述安全车距。
根据本发明提供的一种多传感器融合的车距计算方法,所述第二车辆在所述第二时刻的速度的获取方式,包括:
根据所述第一车辆在所述第二时刻的速度、所述第一车距、所述第二车距及所述目标时间间隔,获取所述第二车辆在所述第二时刻的速度。
根据本发明提供的一种多传感器融合的车距计算方法,所述第一车辆在所述第二时刻的速度的获取方式,包括:
根据里程计测得的所述第一车辆在所述第一时刻至所述第二时刻行驶的距离及所述目标时间间隔,确定所述第一车辆在所述第二时刻的速度。
根据本发明提供的一种多传感器融合的车距计算方法,所述根据部署在第一车辆上的深度相机在第一时刻获取的第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,包括:
对所述RGB图像进行目标检测,获取所述第二车辆及所述第二车辆的车牌位置;
根据所述深度图像及所述第二车辆的车牌位置,获取所述第一车辆与所述第二车辆的车牌位置的平均车距;
根据所述平均车距,确定所述第一车距。
本发明还提供一种多传感器融合的车距计算系统,包括:
第一获取模块,用于执行第一时刻的车距测量过程,获取第一车辆与第二车辆之间的第一车距,其中,所述第一时刻的车距测量过程包括:根据部署在第一车辆上的深度相机在所述第一时刻获取的所述第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,所述第一车辆跟随所述第二车辆行驶;
第二获取模块,用于执行第二时刻的车距测量过程,获取所述第一车辆与所述第二车辆之间的第二车距,其中,所述第二时刻的车距测量过程包括:根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的第二车距,所述第三车距为在所述第二时刻,执行所述第一时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第四车距为根据部署在所述第一车辆上的激光雷达在所述第二时刻测得的所述第一车辆与所述第二车辆之间的车距,所述第二时刻与所述第一时刻相隔目标时间间隔;
第三获取模块,用于执行第三时刻的车距测量过程,获取所述第一车辆与第二车辆之间的安全车距,其中,所述第三时刻的车距测量过程包括:根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,所述第五车距为在所述第三时刻,执行所述第二时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第六车距根据所述第二车辆在所述第二时刻的速度、所述第一车辆在第三时刻的速度及所述第二车距确定,所述第三时刻与所述第二时刻相隔所述目标时间间隔。
本发明还提供一种电子设备,包括处理器和存储有计算机程序的存储器,所述处理器执行所述程序时实现如上述任一种所述多传感器融合的车距计算方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述多传感器融合的车距计算方法。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述多传感器融合的车距计算方法。
本发明提供的多传感器融合的车距计算方法及系统,通过对多个传感器如深度相机测得的跟车(即第一车辆)与前车(即第二车辆)的车距以及激光雷达测得的跟车与前车的车距进行融合,提高得到的跟车与前车之间的安全车距的准确度,从而提高道路的通行效率和整体交通安全。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的多传感器融合的车距计算方法的流程示意图之一;
图2是本发明提供的多传感器融合的车距计算方法的流程示意图之二;
图3是本发明提供的多传感器融合的车距计算系统的结构示意图;
图4是本发明提供的电子设备的实体结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是本发明提供的多传感器融合的车距计算方法的流程示意图之一。参照图1,本发明提供的多传感器融合的车距计算方法,可以包括:
步骤110,执行第一时刻的车距测量过程,获取第一车辆与第二车辆之间的第一车距,其中,所述第一时刻的车距测量过程包括:根据部署在第一车辆上的深度相机在所述第一时刻获取的所述第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,所述第一车辆跟随所述第二车辆行驶;
步骤120,执行第二时刻的车距测量过程,获取所述第一车辆与所述第二车辆之间的第二车距,其中,所述第二时刻的车距测量过程包括:根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的第二车距,所述第三车距为在所述第二时刻,执行所述第一时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第四车距为根据部署在所述第一车辆上的激光雷达在所述第二时刻测得的所述第一车辆与所述第二车辆之间的车距,所述第二时刻与所述第一时刻相隔目标时间间隔;
步骤130,执行第三时刻的车距测量过程,获取所述第一车辆与第二车辆之间的安全车距,其中,所述第三时刻的车距测量过程包括:根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,所述第五车距为在所述第三时刻,执行所述第二时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第六车距根据所述第二车辆在所述第二时刻的速度、所述第一车辆在第三时刻的速度及所述第二车距确定,所述第三时刻与所述第二时刻相隔所述目标时间间隔。
需要说明的是,上述方法的执行主体可以是计算机设备。
可选地,执行第一时刻的车距测量过程,计算第一车辆与第二车辆之间的车距,即第一车距,其中,该第一车辆为跟车车辆,该第二车辆为前方车辆,该第一车辆跟随第二车辆行驶,跟车车辆和前方车辆可以为自动驾驶车辆或非自动驾驶车辆。
该第一时刻的车距测量过程可以具体包括通过部署到跟车车辆上的深度相机在第一时刻拍摄的前方车辆的深度图像以及RGB图像,得到第一时刻时的跟车车辆与前方车辆之间的车距,即第一车距,其中,该第一时刻可以是任意时刻。
执行第二时刻的车距测量过程,计算第一车辆与第二车辆之间的车距,即第二车距。其中,第二时刻的车距测量过程可以具体包括:根据第三车距及第四车距,计算第一车辆与第二车辆之间的第二车距。
其中,该第三车距可以具体为在第二时刻执行上述第一时刻的车距测量过程得到的跟车车辆与前方车辆在第二时刻的车距。该第四车距为在第二时刻采用激光雷达测距的方式得到跟车车辆与前方车辆在第二时刻的车距,具体地,由部署在跟车车辆上的激光雷达测得的数据经过动态补偿后的数据进行筛选,得到跟车车辆与前方车辆在第二时刻的车距。其中,该第二时刻为与第一时刻相隔目标时间间隔的时刻,该目标时间间隔可以根据本发明使用的各个传感器(例如包括深度相机、激光雷达和里程计)的刷新率进行设置。
通过将得到的第三车距和第四车距进行融合,得到跟车车辆与前方车辆在第二时刻的车距,即第二车距。
执行第三时刻的车距测量过程,计算第一车辆与第二车辆之间的安全车距,其中,该第三时刻的车距测量过程可以具体包括:根据第五车距及第六车距,确定第一车辆与第二车辆之间的安全车距。
其中,该第五车距为在第三时刻,执行上述第二时刻的车距测量过程得到的前方车辆与前方车辆之间的车距,第六车距可以具体是根据前方车辆在第二时刻的速度、跟车车辆在第三时刻的速度及第二车距确定的,该第三时刻为与第二时刻相隔目标时间间隔的时刻。
根据计算得到的第五车距以及第六车距,计算跟车车辆与前方车辆的安全车距。
本发明提供的多传感器融合的车距计算方法,充通过对多个传感器如深度相机测得的跟车(即第一车辆)与前车(即第二车辆)的车距以及激光雷达测得的跟车与前车的车距进行融合,提高得到的跟车与前车之间的安全车距的准确度,从而提高道路的通行效率和整体交通安全。
进一步地,在一个实施例中,所述根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,可以包括:
将所述第五车距及所述第六车距中的较小值作为所述安全车距。
可选地,将得到的第五车距和第六车距进行比较,并将两者中的较小值作为跟车车辆与前方车辆的安全车距。若这两个车距差值太大则认为部分传感器测距出现问题,发出警报。
本发明提供的多传感器融合的车距计算方法,通过融合多传感器测得的跟车车辆与前方车辆之间的车距,计算跟车车辆与前方车辆之间的安全车距,以避免追尾事故的方案,保障了道路交通安全。
进一步地,在一个实施例中,所述根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的车距,可以包括:
根据所述第三车距、所述第四车距、第一方差及第二方差,获取所述第一车辆与所述车辆之间的车距,所述第一方差为所述深度相机测得的数据分布的方差,所述第二方差为所述激光雷达测得的数据分布的方差。
可选地,计算深度相机测得的数据分布的方差(即第一方差,假设为),计算激光雷达测得的数据分布的方差(即第二方差,假设为/>)。
根据得到的第三车距dc2和第四车距dl2结合如下公式计算第一车辆与第二车辆之间的车距d2(即第二车距):
本发明提供的多传感器融合的车距计算方法,采用方差的形式融合多个传感器测得的跟车车辆与前车车辆的车距(传感器本身的误差大致由其标定的方差决定),可以提高整体测得的跟车车辆与前方车辆之间车距的精度。
进一步地,在一个实施例中,所述第二车辆在所述第二时刻的速度的获取方式,可以包括:
根据所述第一车辆在所述第二时刻的速度、所述第一车距、所述第二车距及所述目标时间间隔,获取所述第二车辆在所述第二时刻的速度。
可选地,根据跟车车辆在第二时刻的速度va2、第一车距dt1、第二车距dt2以及目标时间间隔t,计算前方车辆在第二时刻的速度vb2:
采用车速预估的方式,使得即使在一些不理想的环境下,仍可以获得一个较为理想的结果。
进一步地,在一个实施例中,所述第一车辆在所述第二时刻的速度的获取方式,可以包括:
根据里程计测得的所述第一车辆在所述第一时刻至所述第二时刻行驶的距离及所述目标时间间隔,确定所述第一车辆在所述第二时刻的速度。
可选地,跟车车辆在第二时刻的速度可以根据里程计测得的跟车车辆从第一时刻至第二时刻的行驶距离以及目标时间间隔计算得到。
进一步地,在一个实施例中,所述根据部署在第一车辆上的深度相机在第一时刻获取的第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,可以包括:
对所述RGB图像进行目标检测,获取所述第二车辆及所述第二车辆的车牌位置;
根据所述深度图像及所述第二车辆的车牌位置,获取所述第一车辆与所述第二车辆的车牌位置的平均车距;
根据所述平均车距,确定所述第一车距。
可选地,对获取的前方车辆的RGB图像进行目标识别/检测,确定前方车辆以及前方车辆的车牌所在位置。可以采用训练好的yolov5模型对获取的前方车辆的RGB图像进行目标识别/检测,其中,训练好的yolov5模型可以通过采集车辆和车牌数据集对yolov5模型进行训练后得到。
根据前方车辆的车牌位置以及深度相机测得的前方车辆的深度图,计算跟车车辆与前方车辆的车牌位置之间的平均车距,并将该平均车距作为第一车距。
在实际应用中,通过如下步骤对多传感器测得的车距进行融合,具体地:
1,通过不同传感器各自的刷新率确定处理时间间隔t,即目标时间间隔。
2,第一时刻的车距测量过程:通过对深度相机的获取的前方车辆的RGB图像进行目标识别,确定前方车辆,并识别该前方车辆的车牌位置。通过深度相机获取的前方车辆的深度图,获取跟车车辆与前方车辆的车牌位置的平均车距dc1。该车距作为在这一时刻与前车的车距dt1,即第一车距。
3,第二时刻的车距测量过程:重复第一时刻的车距测量过程获得车距dc2,即第三车距。将激光雷达测得的数据经过动态补偿后得到的数据进行筛选,获取跟车车辆与前方车辆的车距dl2,即第四车距。将dc2和dl2进行融合,获得这一时刻跟车车辆与前方车辆的第二车距将该第二车距作为这一时刻跟车车辆与前方车辆的车距dt2。结合里程计获取的跟车车辆的速度va2和上一时刻所计算车距dt1,求解出前方车辆在第二时刻的车速/>该车速vb2不仅可以用于后续的预测,也可以用于将车辆控制在一个安全的车距。
4,第三时刻的车距测量过程:重复第二时刻的车距测量过程获得跟车车辆与前方车辆的车距d3,即第五车距。认为短时间内前方匀速行驶,用上一时刻前方车辆的车速vb2结合跟车车辆在第三时刻的车速va3,预测跟车车辆与前方车辆的第六车距dp3为dp3=(vb2-va3)t+dt2。取第五车距和第六车距的较小值为当前时刻跟车车辆与前方车辆的安全车距dt3以避免追尾事故发生,即dt3=min{d3,dp3}。若这两个车距差值太大则认为部分传感器测距出现问题,发出警报。
5,后续时刻重复执行第三时刻的车距测量过程即可。
图2是本发明提供的多传感器融合的车距计算方法的流程示意图之二,参照图2,包括:
1.1,采用车辆检测和车牌检测模型如yolov5模型,采集车辆和车牌数据集进行训练。对深度相机和激光雷达的数据进行标定,获得各自数据分布的方差。一般情况下,雷达刷新率<相机刷新率<里程计刷新率,通过刷新率确定合适的时间间隔。
1.2,对深度相机测得的前方车辆的RGB图像采用yolov5进行车辆检测以及车牌检测。在深度相机的深度图上,计算跟车车辆与前方车辆的车牌的平均车距,作为当前时刻的车距。
1.3,重复步骤1.2。对激光雷达测得的数据进行动态补偿后得到的数据进行筛选后获得跟车车辆与前方车辆的车距,将该车距与当前时刻通过步骤1.2获得的车距进行融合获得优化后的车距,即第二车距,将其作为当前时刻的车距,计算前方车辆在第二时刻的速度。
1.4,重复步骤1.3。通过前方车辆在第二时刻的速度计算出当前第三时刻的跟车车辆与前方车辆之间的车距的预估值,即第六车距,取当前时刻通过步骤1.3计算出的车距(即第五车距)和预估值中的较小值作为当前时刻的安全车距。
1.5,重复步骤1.4。
本发明提供的多传感器融合的车距计算方法,改进了现有的车距计算方式,采用车速预估车距以及多传感融合的方式。通过这种方式能够提高车距的计算精度以及适应更多的环境。
下面对本发明提供的多传感器融合的车距计算系统进行描述,下文描述的多传感器融合的车距计算系统与上文描述的多传感器融合的车距计算方法可相互对应参照。
图3是本发明提供的多传感器融合的车距计算系统的结构示意图。参照图3,本发明提供的多传感器融合的车距计算系统,可以包括:
第一获取模块310,用于执行第一时刻的车距测量过程,获取第一车辆与第二车辆之间的第一车距,其中,所述第一时刻的车距测量过程包括:根据部署在第一车辆上的深度相机在所述第一时刻获取的所述第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,所述第一车辆跟随所述第二车辆行驶;
第二获取模块311,用于执行第二时刻的车距测量过程,获取所述第一车辆与所述第二车辆之间的第二车距,其中,所述第二时刻的车距测量过程包括:根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的第二车距,所述第三车距为在所述第二时刻,执行所述第一时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第四车距为根据部署在所述第一车辆上的激光雷达在所述第二时刻测得的所述第一车辆与所述第二车辆之间的车距,所述第二时刻与所述第一时刻相隔目标时间间隔;
第三获取模块312,用于执行第三时刻的车距测量过程,获取所述第一车辆与第二车辆之间的安全车距,其中,所述第三时刻的车距测量过程包括:根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,所述第五车距为在所述第三时刻,执行所述第二时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第六车距根据所述第二车辆在所述第二时刻的速度、所述第一车辆在第三时刻的速度及所述第二车距确定,所述第三时刻与所述第二时刻相隔所述目标时间间隔。
本发明提供的多传感器融合的车距计算系统,通过对多个传感器如深度相机测得的跟车(即第一车辆)与前车(即第二车辆)的车距以及激光雷达测得的跟车与前车的车距进行融合,提高得到的跟车与前车之间的安全车距的准确度,从而提高道路的通行效率和整体交通安全。
图4是本发明提供的一种电子设备的实体结构示意图,如图4所示,该电子设备可以包括:处理器(processor)410、通信接口(communication interface)411、存储器(memory)412和总线(bus)413,其中,处理器410,通信接口411,存储器412通过总线413完成相互间的通信。处理器410可以调用存储器412中的逻辑指令,以执行如下方法:
执行第一时刻的车距测量过程,获取第一车辆与第二车辆之间的第一车距,其中,所述第一时刻的车距测量过程包括:根据部署在第一车辆上的深度相机在所述第一时刻获取的所述第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,所述第一车辆跟随所述第二车辆行驶;
执行第二时刻的车距测量过程,获取所述第一车辆与所述第二车辆之间的第二车距,其中,所述第二时刻的车距测量过程包括:根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的第二车距,所述第三车距为在所述第二时刻,执行所述第一时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第四车距为根据部署在所述第一车辆上的激光雷达在所述第二时刻测得的所述第一车辆与所述第二车辆之间的车距,所述第二时刻与所述第一时刻相隔目标时间间隔;
执行第三时刻的车距测量过程,获取所述第一车辆与第二车辆之间的安全车距,其中,所述第三时刻的车距测量过程包括:根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,所述第五车距为在所述第三时刻,执行所述第二时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第六车距根据所述第二车辆在所述第二时刻的速度、所述第一车辆在第三时刻的速度及所述第二车距确定,所述第三时刻与所述第二时刻相隔所述目标时间间隔。
此外,上述的存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机电源屏(可以是个人计算机,服务器,或者网络电源屏等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-onlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
进一步地,本发明公开一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的多传感器融合的车距计算方法,例如包括:
执行第一时刻的车距测量过程,获取第一车辆与第二车辆之间的第一车距,其中,所述第一时刻的车距测量过程包括:根据部署在第一车辆上的深度相机在所述第一时刻获取的所述第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,所述第一车辆跟随所述第二车辆行驶;
执行第二时刻的车距测量过程,获取所述第一车辆与所述第二车辆之间的第二车距,其中,所述第二时刻的车距测量过程包括:根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的第二车距,所述第三车距为在所述第二时刻,执行所述第一时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第四车距为根据部署在所述第一车辆上的激光雷达在所述第二时刻测得的所述第一车辆与所述第二车辆之间的车距,所述第二时刻与所述第一时刻相隔目标时间间隔;
执行第三时刻的车距测量过程,获取所述第一车辆与第二车辆之间的安全车距,其中,所述第三时刻的车距测量过程包括:根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,所述第五车距为在所述第三时刻,执行所述第二时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第六车距根据所述第二车辆在所述第二时刻的速度、所述第一车辆在第三时刻的速度及所述第二车距确定,所述第三时刻与所述第二时刻相隔所述目标时间间隔。
另一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的多传感器融合的车距计算方法,例如包括:
执行第一时刻的车距测量过程,获取第一车辆与第二车辆之间的第一车距,其中,所述第一时刻的车距测量过程包括:根据部署在第一车辆上的深度相机在所述第一时刻获取的所述第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,所述第一车辆跟随所述第二车辆行驶;
执行第二时刻的车距测量过程,获取所述第一车辆与所述第二车辆之间的第二车距,其中,所述第二时刻的车距测量过程包括:根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的第二车距,所述第三车距为在所述第二时刻,执行所述第一时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第四车距为根据部署在所述第一车辆上的激光雷达在所述第二时刻测得的所述第一车辆与所述第二车辆之间的车距,所述第二时刻与所述第一时刻相隔目标时间间隔;
执行第三时刻的车距测量过程,获取所述第一车辆与第二车辆之间的安全车距,其中,所述第三时刻的车距测量过程包括:根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,所述第五车距为在所述第三时刻,执行所述第二时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第六车距根据所述第二车辆在所述第二时刻的速度、所述第一车辆在第三时刻的速度及所述第二车距确定,所述第三时刻与所述第二时刻相隔所述目标时间间隔。
以上所描述的系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机电源屏(可以是个人计算机,服务器,或者网络电源屏等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种多传感器融合的车距计算方法,其特征在于,包括:
执行第一时刻的车距测量过程,获取第一车辆与第二车辆之间的第一车距,其中,所述第一时刻的车距测量过程包括:根据部署在第一车辆上的深度相机在所述第一时刻获取的所述第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,所述第一车辆跟随所述第二车辆行驶;
执行第二时刻的车距测量过程,获取所述第一车辆与所述第二车辆之间的第二车距,其中,所述第二时刻的车距测量过程包括:根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的第二车距,所述第三车距为在所述第二时刻,执行所述第一时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第四车距为根据部署在所述第一车辆上的激光雷达在所述第二时刻测得的所述第一车辆与所述第二车辆之间的车距,所述第二时刻与所述第一时刻相隔目标时间间隔;
执行第三时刻的车距测量过程,获取所述第一车辆与第二车辆之间的安全车距,其中,所述第三时刻的车距测量过程包括:根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,所述第五车距为在所述第三时刻,执行所述第二时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第六车距根据所述第二车辆在所述第二时刻的速度、所述第一车辆在第三时刻的速度及所述第二车距确定,所述第三时刻与所述第二时刻相隔所述目标时间间隔。
2.根据权利要求1所述的多传感器融合的车距计算方法,其特征在于,所述根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的车距,包括:
根据所述第三车距、所述第四车距、第一方差及第二方差,获取所述第一车辆与所述车辆之间的车距,所述第一方差为所述深度相机测得的数据分布的方差,所述第二方差为所述激光雷达测得的数据分布的方差。
3.根据权利要求1所述的多传感器融合的车距计算方法,其特征在于,所述根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,包括:
将所述第五车距及所述第六车距中的较小值作为所述安全车距。
4.根据权利要求1所述的多传感器融合的车距计算方法,其特征在于,所述第二车辆在所述第二时刻的速度的获取方式,包括:
根据所述第一车辆在所述第二时刻的速度、所述第一车距、所述第二车距及所述目标时间间隔,获取所述第二车辆在所述第二时刻的速度。
5.根据权利要求4所述的多传感器融合的车距计算方法,其特征在于,所述第一车辆在所述第二时刻的速度的获取方式,包括:
根据里程计测得的所述第一车辆在所述第一时刻至所述第二时刻行驶的距离及所述目标时间间隔,确定所述第一车辆在所述第二时刻的速度。
6.根据权利要求1-5任一项所述的多传感器融合的车距计算方法,其特征在于,所述根据部署在第一车辆上的深度相机在第一时刻获取的第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,包括:
对所述RGB图像进行目标检测,获取所述第二车辆及所述第二车辆的车牌位置;
根据所述深度图像及所述第二车辆的车牌位置,获取所述第一车辆与所述第二车辆的车牌位置的平均车距;
根据所述平均车距,确定所述第一车距。
7.一种多传感器融合的车距计算系统,其特征在于,包括:
第一获取模块,用于执行第一时刻的车距测量过程,获取第一车辆与第二车辆之间的第一车距,其中,所述第一时刻的车距测量过程包括:根据部署在第一车辆上的深度相机在所述第一时刻获取的所述第二车辆的深度图像及RGB图像,获取所述第一车辆与所述第二车辆之间的第一车距,所述第一车辆跟随所述第二车辆行驶;
第二获取模块,用于执行第二时刻的车距测量过程,获取所述第一车辆与所述第二车辆之间的第二车距,其中,所述第二时刻的车距测量过程包括:根据第三车距及第四车距,获取所述第一车辆与所述第二车辆之间的第二车距,所述第三车距为在所述第二时刻,执行所述第一时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第四车距为根据部署在所述第一车辆上的激光雷达在所述第二时刻测得的所述第一车辆与所述第二车辆之间的车距,所述第二时刻与所述第一时刻相隔目标时间间隔;
第三获取模块,用于执行第三时刻的车距测量过程,获取所述第一车辆与第二车辆之间的安全车距,其中,所述第三时刻的车距测量过程包括:根据第五车距及第六车距,确定所述第一车辆与所述第二车辆之间的安全车距,所述第五车距为在所述第三时刻,执行所述第二时刻的车距测量过程得到的所述第一车辆与所述第二车辆之间的车距,所述第六车距根据所述第二车辆在所述第二时刻的速度、所述第一车辆在第三时刻的速度及所述第二车距确定,所述第三时刻与所述第二时刻相隔所述目标时间间隔。
8.一种电子设备,包括处理器和存储有计算机程序的存储器,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6任一项所述多传感器融合的车距计算方法。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至6任一项所述多传感器融合的车距计算方法。
10.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述多传感器融合的车距计算方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311246160.XA CN117471483A (zh) | 2023-09-25 | 2023-09-25 | 多传感器融合的车距计算方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311246160.XA CN117471483A (zh) | 2023-09-25 | 2023-09-25 | 多传感器融合的车距计算方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117471483A true CN117471483A (zh) | 2024-01-30 |
Family
ID=89630204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311246160.XA Pending CN117471483A (zh) | 2023-09-25 | 2023-09-25 | 多传感器融合的车距计算方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117471483A (zh) |
-
2023
- 2023-09-25 CN CN202311246160.XA patent/CN117471483A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10832061B2 (en) | Traveling road boundary estimation apparatus and traveling assistance system using same | |
US10604156B2 (en) | System and method for adjusting a road boundary | |
EP4152204A1 (en) | Lane line detection method, and related apparatus | |
US11525682B2 (en) | Host vehicle position estimation device | |
JP2018036067A (ja) | 自車位置認識装置 | |
CN110341621B (zh) | 一种障碍物检测方法及装置 | |
CN114274972A (zh) | 自主驾驶环境中的场景识别 | |
CN110637209B (zh) | 估计机动车的姿势的方法、设备和具有指令的计算机可读存储介质 | |
JP2022031266A (ja) | 自己位置推定装置、制御方法、プログラム及び記憶媒体 | |
JP2020003463A (ja) | 自車位置推定装置 | |
CN112313536B (zh) | 物体状态获取方法、可移动平台及存储介质 | |
CN114694111A (zh) | 车辆定位 | |
CN113177976A (zh) | 一种深度估计方法、装置、电子设备及存储介质 | |
CN112902911B (zh) | 基于单目相机的测距方法、装置、设备及存储介质 | |
CN117746357A (zh) | 一种车道线识别方法、装置及电子设备 | |
CN111612818A (zh) | 新型双目视觉多目标跟踪方法及系统 | |
CN107452230B (zh) | 一种障碍物检测方法、装置、终端设备及存储介质 | |
CN117471483A (zh) | 多传感器融合的车距计算方法及系统 | |
US20220309776A1 (en) | Method and system for determining ground level using an artificial neural network | |
JP2017102832A (ja) | 車両ピッチ角推定装置 | |
US20230150514A1 (en) | Adaptive rationalizer for vehicle perception systems toward robust automated driving control | |
CN116022163A (zh) | 基于超局部子图的自动驾驶车辆扫描匹配和雷达姿态估计器 | |
EP4099210A1 (en) | Method for training a neural network for semantic image segmentation | |
EP4336467A1 (en) | Method and apparatus for modeling object, storage medium, and vehicle control method | |
CN115661797B (zh) | 目标跟踪方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |