CN113223317B - 一种更新地图的方法、装置和设备 - Google Patents
一种更新地图的方法、装置和设备 Download PDFInfo
- Publication number
- CN113223317B CN113223317B CN202010079832.2A CN202010079832A CN113223317B CN 113223317 B CN113223317 B CN 113223317B CN 202010079832 A CN202010079832 A CN 202010079832A CN 113223317 B CN113223317 B CN 113223317B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- abnormal scene
- sensing data
- abnormal
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
- G08G1/0969—Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096725—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096766—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
- G08G1/096775—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Data Mining & Analysis (AREA)
- Atmospheric Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请提供一种地图更新方法、装置、设备,可应用于自动驾驶(Automated driving)或者智能驾驶(Intelligent Driving)等领域。其中,该方法包括:在异常场景发生时,获取各种类型的异常场景感应数据,根据异常场景感应数据计算最小安全边界。最后,根据计算获得的最小安全边界,对地图进行更新。上述方法在异常场景发生时就能触发地图更新程序,无需等待采集车/众包车,提高了地图刷新的实时性,从而保障了自动驾驶环境的安全性。
Description
技术领域
本申请涉及智能驾驶技术领域,尤其涉及一种地图更新方法、装置和设备。
背景技术
近年来,智能汽车(Smart/intelligent car)已成为车辆发展的新趋势,越来越多的汽车采用了辅助驾驶系统(Advanced Driving Assistance System)和自动驾驶(Automated Driving)系统。在自动驾驶领域,车辆所使用的地图是最为重要的组件之一。在运行过程中,自动驾驶汽车必须精确地知道自己在路面上的位置,例如与旁边路肩的距离,与车道线的距离等等。所以,自动驾驶车辆所使用的地图的绝对精度一般需要达到分米级,甚至厘米级。除了高精度的坐标之外,地图还需要存储交通场景中的各种交通要素,包括传统地图的道路网数据、车道线以及交通标志,还会含有车道的坡度、曲率、航向、高程、侧倾程度等数据。
目前的自动驾驶方案中,95%以上都依赖于高精地图来获取当前道路信息和环境信息,如果自动驾驶车辆所使用的地图无法及时更新,出现了地图和当前实际道路不匹配的情况,那么对于自动驾驶来说将会是一件非常危险的事情。因此,为了营造一个安全的行车环境,对自动驾驶车辆所依赖的地图进行实时、准确、快速地更新是必不可少的。
发明内容
本申请提供一种地图更新方法、装置和设备,可以提高地图刷新的效率,保障了自动驾驶环境的安全性,同时节约算力,降低刷新成本。
本申请第一方面提供一种地图更新方法,该方法包括:在异常场景发生时,获取异常场景感应数据,根据异常场景感应数据计算最小安全边界。所述最小安全边界指的是在地图上标识出的异常场景对交通的最小影响范围。然后,根据计算获得的最小安全边界,对地图进行更新。上述方法在异常场景发生时,触发地图更新程序,利用异常场景感应数据确定最小安全边界,并根据计算出的最小安全边界更新地图,提高了地图刷新的实时性,从而保障了自动驾驶环境的安全性。
在一种可能的实现方式中,根据异常场景感应数据计算最小安全边界,包括:根据异常场景感应数据获得车辆可行驶区域,然后再根据车辆可行驶区域计算异常场景在地图上的最小安全边界。其中,车辆可行驶区域是指以行车视角确定的车辆可安全通行区域。本申请先计算可行驶区域,再通过可行驶区域计算最小安全边界,提高了计算结果的准确性。
在另一种可能的实现方式中,异常场景感应数据包括车载传感器感应数据。根据异常场景感应数据计算车辆可行驶区域的方法包括:将车载传感器感应数据输入至预训练的神经网络以获取车辆可行驶区域。根据车载传感器感应数据,利用预训练的神经网络模型计算车辆可行驶区域,提高了计算速度以及计算结果的准确度,保障了地图的准确有效性。
在另一种可能的实现方式中,计算车辆可行驶区域的方法包括:将车载传感器获得的多种类型的感应数据分别输入至对应的多种类型的预训练的神经网络以获取车辆可行驶区域的多个估计。然后,将车辆可行驶区域的多个估计进行融合,得到融合后的车辆可行驶区域。本发明将多个传感器数据计算得到可行驶区域进行融合,提高了车辆可行驶区域估算的准确度,保证了地图更新的准确性、有效性。
在另一种可能的实现方式中,异常场景感应数据包括车载传感器感应数据和道路监控感应数据,其中,道路监控感应数据的获取方法包括:根据车载传感器感应数据中的异常场景位置信息确定附近的道路监控摄像头集合,然后,获取这些摄像头集合采集到的异常场景发生前后的道路监控数据。本申请结合真实的场景情况,考虑了道路监控数据。道路监控摄像头位置固定,朝向明确,且监控图像的质量日益完善,因此,利用道路监控数据可以更准确地计算出车辆可行驶区域,充分调用了现有的监控资源,实现资源的合理配置。
在另一种可能的实现方式中,根据异常场景感应数据计算车辆可行驶区域的方法包括:比对异常场景发生前后的道路监控数据,获得车辆可行驶区域。使用了计算机视觉的图像处理方法计算车辆可行驶区域,提供了计算车辆可行驶区域的另一种选择。
在另一种可能的实现方式中,根据车辆可行驶区域计算最小安全边界的方法包括根据异常场景的位置信息和车辆可行驶区域计算最小安全边界。
在另一种可能的实现方式中,根据异常场景的位置信息和车辆可行驶区域计算最小安全边界包括:以异常场景的位置信息作为参考点确定车辆可行驶区域在自车坐标系下的坐标。然后根据自车坐标系和地图采用的全局坐标系之间的映射关系,将车辆可行驶区域的坐标转换为全局坐标系下的坐标,获得所述异常场景的最小安全边界。通过坐标系之间的对应关系,可以直接将车辆可行驶区域映射至地图,方法简洁且准确。
在另一种可能的实现方式中,获取异常场景感应数据的方法包括:在检测到发生异常场景时,车载通信装置触发车载传感器获取所述异常场景感应数据。在异常场景发生时,车载通信装置获取异常场景感应数据之后主动触发地图修正程序,大大提高了系统响应的实时性,保障了自动驾驶车辆乘客的人身安全。此外,这种主动触法的方式明确了更新的地段,极大程度上节约了计算资源。
在另一种可能的实现方式中,车载传感器感应数据包括:车载雷达所采集到的障碍物信息/点云信息、车载相机所采集到的图片和视频、车载卫星定位接收系统获取的位置信息。为了确保车辆的行车安全,一辆车往往配有多种车载传感器。多种类型的传感器数据相结合,可以保障地图更新的准确度。
在另一种可能的实现方式中,异常场景包括:交通事故、道路施工或者车辆故障。异常场景主要是指道路被异常占用的情况,发生交通事故或者故障的车辆以及施工车在上述异常场景发生时,触发车载通信装置获取异常场景感应数据以执行地图的更新。本发明提供的更新方法由普通社会车辆触发地图更新操作,相对比现有技术采用地图采集车或者众包车去采集并触发地图更新的方式,降低了地图刷新的成本。
通过上述描述,本申请提供的地图更新方法使得异常车辆在发生异常场景时在第一时间内获取异常场景感应数据。这样的方法在明确了更新路段,节约算力的同时也提高了地图系统对异常情况的响应速度,提高地图刷新效率。且触发更新的车辆为普通社会车辆,无需地图服务公司派使采集车或者雇佣众包车去采集,降低了地图刷新的成本。此外,引入多种传感器数据计算车辆可行驶区域,提高了地图更新的准确度。
第二方面,本申请提供一种地图的更新装置,所述更新装置,包括:获取模块、处理模块和更新模块;
所述获取模块,用于获取异常场景感应数据;所述处理模块,用于根据异常场景感应数据,计算异常场景的最小安全边界,所述最小安全边界用来在地图上标识所述异常场景对交通的最小影响范围;所述更新模块,用于根据计算获得的最小安全边界,对地图进行更新。
在一种可能的实现方式中,处理模块用于:根据所述异常场景感应数据,获得异常场景的车辆可行驶区域,所述车辆可行驶区域是指以行车视角确定的车辆可安全通行区域;然后根据的得到的车辆可行驶区域计算异常场景的最小安全边界。
在另一种可能的实现方式中,异常场景感应数据包括车载传感器感应数据,处理模块具体用于:将车载传感器感应数据输入预训练的神经网络,获得车辆可行驶区域。
在另一种可能的实现方式中,处理模块还用于将车载传感器获得的多种类型的感应数据分别输入至对应的多种类型的预训练的神经网络,获取车辆可行驶区域的多个估计;将这多个估计进行融合,计算获得融合后的车辆可行驶区域。
在另一种可能的实现方式中,异常场景感应数据包括车载传感器感应数据和道路监控感应数据。获取模块获取道路监控感应数据的具体方式如下:根据车载传感器感应数据包含的异常场景位置信息,确定异常场景附近的道路监控摄像头集合。然后再获取道路监控摄像头集合采集的道路监控感应数据,所述道路监控感应数据包括所述异常场景发生前的道路监控数据和所述异常场景发生后的道路监控数据。
在另一种可能的实现方式中,处理模块还用于比对所述道路监控摄像头集合采集到所述异常场景发生前和发生后的道路监控数据,获得所述车辆可行驶区域。
在另一种可能的实现方式中,处理模块还用于根据所述异常场景的位置信息和所述车辆可行驶区域计算所述异常场景的最小安全边界。
在另一种可能的实现方式中,处理模块根据异常场景的位置和车辆可行驶区域计算最小安全边界具体包括:以异常场景的位置信息作为参考点,根据车载传感器感应数据获取车辆可行驶区域在自车坐标系下的坐标;然后,根据自车坐标系和地图所采用的全局坐标系之间的映射关系,将车辆可行驶区域的坐标转换为全局坐标系下的坐标,获得异常场景的最小安全边界。
在另一种可能的实现方式中,获取模块具体用于:在检测到发生异常场景时,获取所述异常场景感应数据。
在另一种可能的实现方式中,车载传感器感应数据包括:车载雷达所采集到的障碍物信息/点云信息、车载相机所采集到的图片和视频、车载卫星定位接收系统获取的位置信息。
在另一种可能的实现方式中,异常场景包括:交通事故、道路施工或者车辆故障。
第二方面提供的地图更新装置及可能的实现方式所能够达到的技术效果,与根据第一方面地图更新方法及可能的实现方式所能够达到的技术效果相同,在此不再赘述。
第三方面,本申请提供一种地图更新系统,具体包括车载通信装置、云端服务器。所述车载通信装置,用于在检测到发生异常场景时,获取异常场景感应数据,并将异常场景感应数据发送至云端系统,触发云端系统执行更新。所述云端服务器,用于根据获取到的所述异常场景感应数据,计算最小安全边界,对地图进行更新,所述最小安全边界用来在地图上标识所述异常场景对交通的最小影响范围。
第四方面,本申请提供另外一种地图更新系统,具体包括车载通信装置、云端服务器。所述车载通信装置,用于在检测到发生异常场景时,获取异常场景感应数据;根据获取到的异常场景感应数据,计算最小安全边界,所述最小安全边界用来在地图上标识所述异常场景对交通的最小影响范围;并将所述最小安全边界发送至云端系统,触发所述云端系统执行更新。所述云端服务器,用于根据获取到的所述最小安全边界,对地图进行更新。
第五方面,本申请提供一种车载通信盒子,所述车载通信盒子包括处理器、存储器、通信接口、总线,其中,所述处理器、存储器和通信接口之间通过总线连接并完成相互间的通信,所述存储器中用于存储计算机执行指令,所述车载通信盒子运行时,所述处理器执行所述存储器中的计算机执行指令以利用所述车载通信盒子中的硬件资源执行上述所有方面或所有方面任一种可能实现方式中所述方法中车载通信装置所实现的方法的操作步骤。
第六方面,本申请提供一种联网车辆,其特征在于所述联网车辆包括车载通信装置和车载传感器,当检测异常场景发生时,所述车载传感器获取异常场景感应数据,根据异常场景感应数据计算最小安全边界,所述最小安全边界用来在地图上标识所述异常场景对交通的最小影响范围,并将最小安全边界发送至云端系统,触发云端系统执行地图的更新。
第七方面,本申请提供另一种联网车辆,其特征在于所述联网车辆包括车载通信装置和车载传感器,当检测异常场景发生时,所述车载传感器获取异常场景感应数据,并将异常场景感应数据发送至云端系统,触发云端系统执行更新。
第八方面,本申请提供一种云端服务器,其特征在于,当异常场景发生时,所述云端服务器获取异常场景感应数据,并且根据异常场景感应数据计算最小安全边界对地图进行更新。
第九方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面以及可能实现方式中所述的方法。
第十方面,本申请提供一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面以及可能实现方式中所述的方法。
附图说明
图1A是本申请实施例提供的现有地图更新方法的应用场景示意图。
图1B是本申请实施例提供的本发明地图更新方法的应用场景示意图。
图2是本申请实施例提供的地图更新系统的逻辑架构示意图。
图3是本申请实施例提供的地图更新方法的流程示意图。
图4是本申请实施例提供的另一种地图更新方法的流程示意图。
图5是本申请实施例提供的一种计算可行驶区域的流程示意图。
图6是本申请实施例提供的利用神经网络计算出来的可行驶区域示意图。
图7是本申请实施例提供的将多种可行驶区域进行多层融合的示意图。
图8是本申请实施例提供的另一种计算可行驶区域的流程示意图。
图9是本申请实施例提供的一种地图更新装置的结构示意图。
图10是本申请实施例提供的一种地图更新设备的结构示意图。
具体实施方式
在现有技术中,将地图更新产品通过前装搭载上车,基于采集车/众包车上的传感器,计算平台可以实时估计车辆的相对位置信息。再结合深度学习和SLAM(SimultaneousLocalization And Mapping)算法感知道路元素(例如红绿灯、路灯等)将实时感知到的结果和当前的高精地图进行对比。当系统发现实时感知结果和地图不匹配时,就上报给云端的地图处理系统。云端系统对车辆上传的数据进行处理,形成地图更新信息,并且下发到各个车辆,完成整个地图更新的闭环。
但是,当前利用采集车/众包车进行更新的方法,难以迅速匹配到更新路段,只能按照事先定好的路线,或依赖于众包车的随机行驶路线进行更新,无法保证地图的实时有效性。示例性的,如图1A所示,当一辆车101发生了交通事故而导致道路不通时,如果采集车/众包车102(车A)的设定轨迹是沿着A1方向或者A2方向行驶时,将无法及时更新地图。当有其他自动驾驶汽车经过此异常路段时,由于其自身的地图无法得到及时的更新,将会出现自动驾驶危险场景。
此外,采集车/众包车需要沿着预设的路线或者随机路线,将扫描的场景与现有的地图进行实时比对,等发现异常时,再上报云端。这样的更新方法对算力和通讯带宽的要求极高。此外,由于每个采集车/众包车都需要配备加装一套独有的传感器和处理计算单元,所以采集车/众包车的数量十分有限,这对于大规模、大范围的高精地图来说,显然无法达到快速刷新的要求。
基于此,本申请提供一种快速更新地图的方法。图1B是本发明实施例的应用场景。发生交通异常的车辆101自车配有TBOX(Telecommunications Box,通信盒子)、定位模块以及其他的车载传感器,当道路上发生异常交通场景时,立刻通过TBOX上传车载传感器的数据。除此之外,云端系统还会根据定位信息来获取道路摄像头采集的数据。根据收集到的数据,计算出最小安全边界(如图1B中车辆101周围的虚线框所示)以更新高精地图。之后再调用采集车/众包车102在此路段采集的信息,来完成高精地图的完整修正。本发明提供的更新方法,可以在异常场景发生的第一时间主动上报异常场景数据,触发云端系统的紧急修正程序,提高了地图刷新的响应速度。除此之外,多种传感器数据的计算结果可以相互融合,提高了地图更新的准确度,确保了自动驾驶环境的安全性。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然所描述的实施例是本申请一部分实施例而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
图2为本申请提供的一种地图更新系统的组网架构示意图。如图2所示,该系统包括云端系统201、网络202、道路监控摄像头203、触发异常场景的车辆204。云端系统201通过网络202和道路监控摄像头203或者触发异常场景的车辆204进行通信。其中,云端系统201能够对大量传感器数据进行处理,计算出最小可行驶区域,然后根据定位投影至地图以获取最小安全边界,最后更新地图。网络202是实现将车载传感器的数据以及道路监控摄像头的数据传输至云端系统的媒介。网络202包括以有线和/或无线传输的方式,其中,有线的传输方式包括利用以太、光纤等形式进行数据传输。无线传输方式包括3G、4G(Fourthgeneration)、或5G(fifth generation)等宽带蜂窝网络传输方式。
道路监控摄像头203位置固定,朝向明确,分布在道路两旁。其具有联网功能,可以上传异常场景固定视角的视频流给云端以计算可行驶区域,从而更新出具有最小安全边界的地图。
触发异常场景的车辆204是指发生交通事故的车辆、故障车辆、施工车辆等导致车道状态异常的车辆。触发异常场景的车辆204包括通信盒子(Telecommunications Box,TBOX)2041、中央网关2042、车身控制器(BodyControl Module,BCM)2043,人机交互控制器2044、车载传感器2045、黑匣子设备2046等,上述各个器件或者设备可以通过控制器局域网络(ControllerArea Network,CAN)或者车内以太网(In-car Ethernet)进行通信,本申请对此不做任何限定。其中,通信盒子2041用于实现触发异常场景的车辆204和云端系统201之间的通信。车身控制器2043用于控制车门20431、车窗20432等汽车的基础硬件设备。人机交互控制器2044包括车载娱乐(In-VehicleInfotainment,IVI)和/或硬件监视器接口(HardwareMonitor Interface,HMI)等车载娱乐控制系统,负责支持人和车辆的交互,通常用于管理仪表20441、中控显示20442等设备。车载传感器2045则包括雷达20451、相机20452、定位模块20453,车载传感器2045的数据将通过通信盒子2041上传至云端。雷达20451可利用无线电信号来感测车辆的周边环境内的物体,在一些实施例中,雷达20451可以是激光雷达(Lidar),提供周边环境的点云信息。相机(摄像头或者摄像头组)20452可用于捕捉车辆的周边环境的多个图像。相机20452可以是静态相机或视频相机。作为示例,可以在车辆的前后保险杠、侧视镜、挡风玻璃上分别安装至少一个相机(摄像头或者摄像头组)20452。定位模块20453可以采用全球定位系统(GlobalPositioning System,GPS),也可以采用北斗系统或者其他系统,能够输出一定精度的全局定位信息。黑匣子设备2046用于在紧急情况下记录智能汽车的车身数据。
可选的,汽车除了通过通信盒子与外界进行通信外,还可以通过其他设备实现。可选的,图2所示的管理系统中也可以不包括中央网关2042,各个控制器、传感器可以直接与通信盒子2041相连。
值得说明的是,图2所示的系统架构仅仅是为了更好的说明本申请所提供的高精地图的更新方法,并不构成对本申请实施例的限定。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
图3是本发明的整体解决方案流程,方法包括如下步骤:
S301:异常车辆发送车载传感器感应数据。
在交通事故、车辆故障、道路施工等异常场景发生时,触发该异常场景的车辆主动获取自车的车载传感器感应数据并在第一时间内将其发送至云端系统。车载传感器的感应数据主要包括雷达所采集到的障碍物信息/点云信息、车载相机(摄像头或者摄像头组)采集到的图片和视频、全球定位系统(GPS)或者北斗导航系统反馈出来的位置信息。车载传感器感应数据由触发异常场景的车辆在发生异常的第一时间主动发送给云端系统,这种主动触发地图更新程序的方法提高了地图更新的效率,无需等待采集车/众包车发现异常,确保了自动驾驶汽车行驶的安全性。
可选的,本实施例中的触发异常场景的车辆可以配备高级辅助驾驶系统(ADAS)以实现自动驾驶的功能,也可以不具备自动驾驶的功能。具体的,该车辆可以是发生交通事故的车辆、发生故障的车辆或者是施工车辆。
此外,除了发送车载传感器感应数据给云端系统之外,异常车辆也会推送告警信息给满足预设条件的自动驾驶车辆集合以提示车辆或者乘客注意地图和现实道路的信息匹配,修改路径规划策略,降低车辆通行此异常路段的优先级,改为绕道其他道路。示例性的,满足预设条件的车辆集合可以是距离异常场景位置500米范围内的自动驾驶车辆集合,本发明对此不做具体限定。告警信息可以包含异常场景的位置,异常原因以及异常预计持续的时间。
S302:云端系统接收异常场景感应数据。
异常场景感应数据可以仅仅包括车载传感器的数据,也可以还包括根据车载传感器提供的位置数据而确定的道路监控数据。
云端系统首先接收触发异常场景的车辆上传的车载传感器感应数据。其中,车载传感器感应数据包括了异常场景的位置信息、车载雷达采集的点云信息、车载相机采集的视频数据。
可选的,云端系统在接收车载传感器提供的位置数据之后,可以定位异常场景附近的道路监控摄像头集合,以获取异常场景发生前后的道路监控数据。道路摄像头集合位置固定,朝向也固定,云端系统结合车载传感器提供的位置信息可以快速定位到异常场景附近的道路监控摄像头集合。道路摄像头与异常场景之间的关系满足预设条件。示例性的,预设条件可以是距离小于一定的阈值,且摄像头集合的朝向能拍摄到异常场景。
S303:云端系统计算可行驶区域。
云端系统根据获取到的异常场景感应数据,计算最小可行驶区域。所谓可行驶区域,是从车辆行车视角来考虑的,即道路上车辆可以安全通行的区域。异常场景感应数据可以来源于车载传感器也可以来源于道路监控摄像头集合,根据不同的数据,云端系统可以采用不同的方法计算车辆可行驶区域。
S304:云端系统计算最小安全边界以更新地图。
所谓最小安全边界是相对于地图而言的。示例性的,以异常车辆或者施工区域为对象,在地图上圈出对交通道路影响最小(即车辆能顺利通行)的范围,这范围的边界就是最小安全边界。云端系统根据定位信息,将计算好的可行驶区域投影至地图上,计算出最小安全边界以更新地图。
将车辆的可行驶区域投影至地图的方法具体如下:首先,以异常场景的位置为坐标原点,建立自车坐标系。结合车载传感器提供的数据,确定可行驶区域在自车坐标系下的坐标。其次,需要确定自车坐标系和地图所采用的全局坐标系之间的映射关系。可以根据监控摄像机或者路标等固定的道路元素与异常场景位置之间的距离,以及在地图上所述固定道路元素和异常场景位置之间的距离来确定两种坐标系之间的比例尺或者映射关系。然后,再根据两种坐标系之间的映射关系获取车辆可行驶区域在全局坐标系下的坐标,从而在地图上标出最小安全边界。可选的,当可行驶区域被映射上去时,云端系统还需结合高精地图上的道路信息,进行地图层面上的优化。示例性的,对映射出来的区域进行平滑处理或者规则化处理。
可选的,在更新地图的同时在异常场景还需在所处的位置打上异常标记,提醒过往自动驾驶车辆注意高精地图和现实道路的信息匹配,修改路径规划策略,降低车辆通行此异常路段的优先级,改为绕道其他道路。
需要说明的是,在步骤S302-S304中,车辆可行驶区域以及最小安全边界的计算不一定必须由云端系统执行,当异常车辆自身配有高性能的计算中心时,也可以由车载计算中心执行车辆可行驶区域和最小安全边界的计算,然后车载通信装置将最小安全边界的计算结果上传至云端,由云端执行地图更新。
在另一种可选的实现方式中,结合图4,当云端系统根据最小安全边界更新地图之后,还可以结合采集车/众包车的数据对更新结果进行辅助修正。
S305:收集采集车/众包车的采集数据进行地图修正。
在更新完具有最小安全边界的地图之后,云端系统可以直接收集即将路经异常场景所在路段的采集车/众包车采集的数据,或者调用空闲的采集车/众包车去异常路段采集数据。根据采集车/众包车的数据重新计算可行驶区域,将计算出来的可行驶区域投影至地图算出新的最小安全边界之后,对之前通过传感器数据计算出来的最小安全边界进行修正调整,更新高精地图。
S306:判断异常场景已经结束,取消异常标记。
当异常场景结束时,可以由触发异常场景的车辆主动上报异常结束信息。示例性的,施工结束之后,施工车主动发送信息提醒云端异常已经结束。可选的,异常结束信息还可以由采集车/众包车上报给云端。可选的,云端在确认异常信息已经结束之后,取消之前地图上的异常标记。
本申请实施例提供的地图更新方法,触发异常场景的车辆主动上报异常数据,启动云端地图紧急修正程序。这样的更新方法效率极大提升,在异常场景出现后1-5分钟就可以完成地图的刷新操作,无需采集车/众包车路过就能更新出具有最小安全边界地图,降低了刷新成本。且与之前的实时扫描比对方法相比,本发明方法极大地节约了算力。而且云端系统除了可以通过车载传感器的数据计算可行驶区域之外,还能根据定位获取到的道路监控视频流数据进行计算。两种方式计算出来的两个最小安全边界也可以进行融合调整,提高了地图更新的准确度。
示例性的,在上述实施例的基础上,结合图5-8,上述步骤S303计算可行驶区域可以通过以下三种方式实现。
实现方式一:云端系统根据车载相机(摄像头/摄像头组)采集的视觉数据计算可行驶区域。结合图5,上述方法的步骤如下所示:
S401:使用标注过可行驶区域的数据集对Multinet网络进行预训练。
所谓MultiNet,顾名思义是由多个网络结构组成,可以同时进行三项任务:分类、检测、语义分割。此网络进行三个任务时,一般共用一个编码器进行特征提取。编码器的结构可以采用VGG16,也可以是别的网络架构,比如GoogleNet、ResNet101。提取特征之后,再分别使用三个解码器进行分类、检测、语义分割这三个任务。使用大量的数据集对Multinet网络进行训练,并采用验证集验证模型的准确度,直至模型的准确度达到预设要求。
S402:将车载相机采集的视觉数据输入至上述Multinet神经网络。
S403:神经网络直接输出带可行驶区域的图片数据
比起传统的计算机图像处理方法,利用预训练好的神经网络模型获取可行驶区域,不仅加快了计算速度,也提高了计算的准确度。图6是使用MultiNet网络识别可行驶区域的示意图,用黑点填充的不规则区域501是由Multinet网络直接计算得出的代表自动驾驶车辆可以安全通行的区,即车辆可行驶区域。
实现方式二:云端系统根据车载雷达采集的点云数据计算可行驶区域。
第二实现方式与第一实现方式类似,只是数据类型由二维的普通视觉数据转换成了三维的点云阵列。点云是一组3D点,携带深度信息,点云也可以具有每个点的RGB值,形成一个彩色的点云。通过点云神经网络(例如PointNet)对场景数据进行分割,可以获得点云版的可行驶区域。
进一步的,当车辆拥有多种传感器时,可以通过多种传感器的数据分别计算出多个可行驶区域结果,再将它们进一步融合来获得置信度最佳的可行驶区域。多种传感器虽然在同一辆车上,但是采集的视角仍然具有不同的偏差。所以在融合之前,需要将这些可行驶区域的视角进行统一,也就是将这些可行驶区域都转换成自车坐标系下的坐标,然后,再进行可行驶区域的融合,得到最佳的车辆可行驶区域。示例性的,融合的方式如图7所示,将转换后的利用车载相机(摄像头或摄像头组)的数据计算得到的可行驶区域图片601、利用激光雷达传感器数据计算的点云可行驶区域图片602、利用毫米波雷达传感器数据计算的点云可行驶区域图片603栅格化,栅格的大小不予限定。601、602、603中每一个栅格在之前计算的过程中都产生了一个置信度,所谓置信度指的就是该栅格确认为车辆可行驶区域的概率。将同一个栅格对应的三个置信度按比例求和,若结果大于预设阈值,则该栅格为可行驶区域,否则为不可行驶区域。按照上述方法将601、602、603三个可行驶区域进行融合调整,提高车辆可行驶区域计算的准确度。
实现方式三:云端系统根据道路监控感应数据计算可行驶区域。结合图8,上述实现方式的步骤如下所示:
S701:云端系统获取道路监控摄像头所采集的异常场景历史视频流。
云端系统根据车载传感器提供的位置信息,定位异常场景附近的监控摄像头集合。然后,云端系统可以从存储设备的数据库中获取异常场景的视频流和历史视频流,也可以直接从道路监控摄像头终端获取。本申请实施例不对获取当前异常视频流以及历史视频流的方式进行限定,可以根据实际情况确定。
S702:云端系统从历史视频流中提取无车辆行人图片。
无车辆行人的图片是指该图片中道路上没有车辆、行人,也没有施工或者任何障碍物,仅仅包含完整干净的道路。此步骤可以选择合适的神经网络完成,也可以使用传统的图像处理方法完成。
S703:利用传统计算机视觉方法将无车辆行人的图片与异常场景的视频流持续进行比对,以获取异常区域。
S704:反向计算可行驶区域。利用膨胀阈值等方法,对步骤703取得的异常区域进行反向计算,从而得到车辆可行驶区域。
值得说明的是,对于道路监控感应数据,除了采用传统计算机视觉方法比对历史数据和异常数据以外,亦可以直接将异常的道路监控感应数据输入至神经网络以获取车辆可行驶区域。
上述计算出来的可行驶区域都是针对行驶车辆而言的可行驶的安全区域。计算可行驶区域是更新出具有最小安全边界的高精地图的前提。实现方式一和实现方式二的计算数据来源都是车载传感器,而实现方式三的计算数据来源是道路监控摄像头,这两类数据都可以计算出车辆的可行驶区域。根据这两类可行驶区域投影计算出来的最小安全边界也可以互相进行一个辅助调整,提高最小安全边界的准确度。
本申请提供的地图更新方法,根据车载通信装置上传车载传感器的数据或者根据定位到的道路监控数据计算车辆视角的最小可行驶区域,然后投影至地图的相应位置,以刷新出具有最小安全边界的地图。在该技术方案中,触发异常场景的车辆主动启动地图修正程序,极大提升了地图刷新效率,可在异常场景出现后1-5分钟完成高精地图刷新操作。无需等待采集车/众包车,降低了刷新的成本。且更新路段明确,降低云端因为高精地图修正而导致的超大算力要求和处理时间。
在本申请的另一种可能设计中,本申请的车载通信装置可以是具有通信能力的智能车辆。
值得说明的是,对于上述方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域的技术人员应该知悉,本申请并不受所描述的动作顺序的限制。
本领域的技术人员根据以上描述的内容,能够想到的其他合理步骤组合,也属于本申请的保护范围内。其次,本领域技术人员也应该熟悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本申请所必须的。
上文结合图2至图8,详细描述了根据本申请实施例所提供的地图更新方法,下面将结合图9-10,介绍本申请的地图更新装置,车载通信盒子。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图9为本申请实施例提供的一种地图更新装置800,该更新装置800可以包括:获取模块801、告警模块802、处理模块803、更新模块804、验证模块805。
获取模块801,用于在异常场景发生时,获取异常场景感应数据;
告警模块802(可选的),用于向满足预设条件的车辆集合推送告警信息;
处理模块803,用于根据获取到的异常场景感应数据,计算异常场景的最小安全边界,所述最小安全边界用来在地图上标识所述异常场景对交通的最小影响范围;
更新模块804,用于根据计算获得的所述最小安全边界,对地图进行更新。
验证模块805(可选的),用于调用/收集采集车或者众包车在异常场景所在路段采集的信息,对最小安全边界进行修正,且当判断异常已经结束时,取消异常标记。
可选的,处理模块803具体用于:根据异常场景感应数据,获得异常场景的车辆可行驶区域,所述车辆可行驶区域是指以行车视角确定的车辆可安全通行区域;根据车辆可行驶区域计算所述异常场景的最小安全边界。
可选的,异常场景感应数据包括车载传感器感应数据,所述处理模块803还用于将车载传感器感应数据输入预训练的神经网络,获取所述车辆可行驶区域。
可选的,处理模块803还用于将获得的多种类型的车载传感器感应数据分别输入至对应的多种类型的预训练的神经网络,获取车辆可行驶区域的多个估计;然后,将多个估计进行融合,计算获得融合后的车辆可行驶区域。
可选的,异常场景感应数据包括车载传感器感应数据和道路监控感应数据,所述获取模块801获取道路监控感应数据的具体方式如下:获取所述车载传感器感应数据包含的异常场景位置信息;根据异常场景的位置信息,确定所述异常场景附近的道路监控摄像头集合;获取道路监控摄像头集合采集的道路监控感应数据,所述道路监控感应数据包括所述异常场景发生前的道路监控数据和所述异常场景发生后的道路监控数据。
可选的,处理模块803还用于比对所述道路监控摄像头集合采集到所述异常场景发生前和发生后的道路监控数据,获得所述车辆可行驶区域。
可选的,处理模块803还用于根据异常场景的位置信息和车辆可行驶区域计算最小安全边界。
可选的,处理模块803根据所述异常场景的位置信息和所述车辆可行驶区域计算所述异常场景的最小安全边界具体包括:以异常场景的位置信息作为参考点,根据车载传感器感应数据获取车辆可行驶区域在自车坐标系下的坐标;根据自车坐标系和所述地图采用的全局坐标系之间的映射关系,将车辆可行驶区域的坐标转换为全局坐标系下的坐标,获得异常场景的最小安全边界。
可选的,获取模块801具体用于:在检测到发生异常场景时,获取所述异常场景感应数据。
可选的,车载传感器感应数据包括:车载雷达所采集到的障碍物信息/点云信息、车载相机所采集到的图片和视频、车载卫星定位接收系统获取的位置信息。
可选的,异常场景包括:交通事故、道路施工或者车辆故障。
作为另一种可能的实施例,本申请还提供一种地图更新系统。该地图更新系统包括车载通信装置和云端服务器。车载通信装置用于在检测到发生异常场景时,获取异常场景感应数据,并将异常场景感应数据发送至云端系统,触发云端系统执行更新;云端服务器用于根据获取到的异常场景感应数据,计算最小安全边界,对地图进行更新。
作为另一种可能的实施例,本申请还提供另一种地图更新系统。该地图更新系统包括车载通信装置和云端服务器。车载通信装置,用于在检测到发生异常场景时,获取异常场景感应数据;根据获取到的异常场景感应数据,计算最小安全边界;然后将最小安全边界发送至云端系统,触发云端系统执行更新。云端服务器,用于根据获取到的最小安全边界,对地图进行更新。
作为另一种可能的实施例,本申请还提供一种联网车辆。该联网车辆包括车载通信装置和车载传感器。当检测异常场景发生时,车载传感器获取异常场景感应数据,根据异常场景感应数据计算异常场景的最小安全边界,并将最小安全边界发送至云端系统,触发所述云端系统执行地图的更新。
作为另一种可能的实施例,本申请还提供一种另一种联网车辆。该联网车辆包括车载通信装置和车载传感器。当检测到异常场景发生时,车载传感器获取异常场景感应数据,并将异常场景感应数据发送至云端系统,触发云端系统执行更新。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。
在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(application specificintegrated circuit,ASIC),或,一个或多个微处理器(digital signal processor,DSP),或,一个或者多个现场可编程门阵列(field programmable gate array,FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(central processing unit,CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,SOC)的形式实现。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘solid state disk(SSD))等。
图10为本申请实施例提供的地图更新设备的结构示意图900。如图10所示,该装置可以包括处理器901、通信接口902、存储器903和系统总线904。存储器903和通信接口902通过系统总线904和处理器901连接,并完成相互间的通信。存储器903用于存储计算机执行指令,通信接口902用于和其他设备进行通信,处理器901执行计算机指令实现上述方法实施例所示的方案。
图10中提到的系统总线可以是外设部件互连标准(peripheral componentinterconnect,PCI)总线或扩展工业标准结构(extended industry standardarchitecture,EISA)总线等。所述系统总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(random access memory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器CPU、网络处理器(networkprocessor,NP)等;还可以是数字信号处理器DSP、专用集成电路ASIC、现场可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
可选的,本申请实施例还提供一种存储介质,所述存储介质中存储有指令,当其在计算机上运行时,使得计算机执行如上述方法实施例所示的方法。
可选的,本申请实施例还提供一种运行指令的芯片,所述芯片用于执行如上述方法实施例所示的方法。
可以理解的是,在本申请的实施例中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本申请的实施例的范围。
可以理解的是,在本申请的实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请的实施例的实施过程构成任何限定。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (24)
1.一种地图的更新方法,其特征在于,所述方法包括:
获取异常场景感应数据;所述异常场景感应数据包括车载传感器感应数据;
根据所述异常场景感应数据获得所述异常场景的车辆可行驶区域,根据所述车辆可行驶区域计算所述异常场景的最小安全边界;所述车辆可行驶区域是指以行车视角确定的车辆可安全通行区域,所述最小安全边界用来在地图上标识所述异常场景对交通的最小影响范围;所述最小安全边界大于车辆的大小;
根据计算获得的所述最小安全边界,对地图进行更新。
2.根据权利要求1所述的方法,其特征在于所述根据所述异常场景感应数据,获得所述异常场景的车辆可行驶区域包括:
将所述车载传感器感应数据输入预训练的神经网络,获取所述车辆可行驶区域。
3.根据权利要求2所述的方法,其特征在于,所述将所述车载传感器感应数据输入预训练的神经网络,获取所述车辆可行驶区域包括:
将所述车载传感器获得的多种类型的感应数据分别输入至对应的多种类型的预训练的神经网络,获取车辆可行驶区域的多个估计;
将所述车辆可行驶区域的多个估计进行融合,计算获得融合后的车辆可行驶区域。
4.根据权利要求1所述的方法,其特征在于,所述异常场景感应数据包括车载传感器感应数据和道路监控感应数据,所述道路监控感应数据通过如下方式获取:
获取所述车载传感器感应数据包含的所述异常场景的位置信息;
根据所述异常场景的位置信息,确定所述异常场景附近的道路监控摄像头集合;
获取所述道路监控摄像头集合采集的道路监控感应数据,所述道路监控感应数据包括所述异常场景发生前的道路监控数据和所述异常场景发生后的道路监控数据。
5.根据权利要求4所述的方法,其特征在于,所述根据所述异常场景感应数据,计算所述异常场景的车辆可行驶区域包括:
比对所述道路监控摄像头集合采集到所述异常场景发生前和发生后的道路监控数据,获得所述车辆可行驶区域。
6.根据权利要求5所述的方法,所述根据所述车辆可行驶区域计算所述异常场景的最小安全边界包括:
根据所述异常场景的位置信息和所述车辆可行驶区域计算所述异常场景的最小安全边界。
7.根据权利要求6所述的方法,其特征在于,所述根据所述异常场景的位置信息和所述车辆可行驶区域计算所述异常场景的最小安全边界包括:
以所述异常场景的位置信息作为参考点,根据所述车载传感器感应数据获取所述车辆可行驶区域在自车坐标系下的坐标;
根据所述自车坐标系和所述地图采用的全局坐标系之间的映射关系,将所述车辆可行驶区域的坐标转换为所述全局坐标系下的坐标,获得所述异常场景的最小安全边界。
8.根据权利要求1-7任一所述的方法,其特征在于,所述获取异常场景感应数据包括:
在检测到发生异常场景时,车载通信装置触发车载传感器获取所述异常场景感应数据。
9.根据权利要求8所述的方法,其特征于,所述车载传感器感应数据包括:
车载雷达所采集到的障碍物信息/点云信息、车载相机所采集到的图片和视频、车载卫星定位接收系统获取的位置信息。
10.根据权利要求9所述的方法,其特征在于,所述异常场景包括:交通事故、道路施工或者车辆故障。
11.一种地图更新装置,其特征在于,包括:获取模块、处理模块和更新模块;
所述获取模块,用于获取异常场景感应数据;所述异常场景感应数据包括车载传感器感应数据;
所述处理模块,用于根据所述异常场景感应数据获得所述异常场景的车辆可行驶区域,根据所述车辆可行驶区域计算所述异常场景的最小安全边界;所述车辆可行驶区域是指以行车视角确定的车辆可安全通行区域,所述最小安全边界用来在地图上标识所述异常场景对交通的最小影响范围;所述最小安全边界大于车辆的大小;
所述更新模块,用于根据计算获得的所述最小安全边界,对地图进行更新。
12.根据权利要求11所述的装置,其特征在于,所述处理模块还用于将所述车载传感器感应数据输入预训练的神经网络,获取所述车辆可行驶区域。
13.根据权利要求11所述的装置,其特征在于,所述处理模块还用于将所述车载传感器获得的多种类型的感应数据分别输入至对应的多种类型的预训练的神经网络,获取车辆可行驶区域的多个估计;将所述车辆可行驶区域的多个估计进行融合,计算获得融合后的车辆可行驶区域。
14.根据权利要求11所述的装置,其特征在于所述异常场景感应数据包括车载传感器感应数据和道路监控感应数据,所述获取模块获取道路监控感应数据的具体方式如下:
获取所述车载传感器感应数据包含的所述异常场景的位置信息;
根据所述异常场景的位置信息,确定所述异常场景附近的道路监控摄像头集合;
获取所述道路监控摄像头集合采集的道路监控感应数据,所述道路监控感应数据包括所述异常场景发生前的道路监控数据和所述异常场景发生后的道路监控数据。
15.根据权利要求14所述的装置,其特征在于,所述处理模块还用于比对所述道路监控摄像头集合采集到所述异常场景发生前和发生后的道路监控数据,获得所述车辆可行驶区域。
16.根据权利要求15所述的装置,其特征在于,所述处理模块还用于根据所述异常场景的位置信息和所述车辆可行驶区域计算所述异常场景的最小安全边界。
17.根据权利要求16所述的装置,其特征在于,所述处理模块根据所述异常场景的位置信息和所述车辆可行驶区域计算所述异常场景的最小安全边界具体包括:
以所述异常场景的位置信息作为参考点,根据所述车载传感器感应数据获取所述车辆可行驶区域在自车坐标系下的坐标;
根据所述自车坐标系和所述地图采用的全局坐标系之间的映射关系,将所述车辆可行驶区域的坐标转换为所述全局坐标系下的坐标,获得所述异常场景的最小安全边界。
18.根据权利要求11-17任一所述的装置,其特征在于,所述获取模块具体用于:
在检测到发生异常场景时,获取所述异常场景感应数据。
19.根据权利要求18所述的装置,其特征在于,所述车载传感器感应数据包括:
车载雷达所采集到的障碍物信息/点云信息、车载相机所采集到的图片和视频、车载卫星定位接收系统获取的位置信息。
20.根据权利要求19所述的装置,其特征在于,所述异常场景包括:交通事故、道路施工或者车辆故障。
21.一种地图更新系统,其特征在于,所述系统包括车载通信装置、云端服务器;
所述车载通信装置,用于在检测到发生异常场景时,获取异常场景感应数据,并将所述异常场景感应数据发送至云端系统,触发所述云端系统执行更新;所述异常场景感应数据包括车载传感器感应数据;所述云端服务器,用于根据获取到的所述异常场景感应数据,计算最小安全边界,对地图进行更新,所述最小安全边界用来在地图上标识所述异常场景对交通的最小影响范围;所述最小安全边界大于车辆的大小。
22.一种地图更新系统,其特征在于,所述系统包括车载通信装置、云端服务器;
所述车载通信装置,用于在检测到发生异常场景时,获取异常场景感应数据;所述异常场景感应数据包括车载传感器感应数据;根据获取到的异常场景感应数据获得所述异常场景的车辆可行驶区域,根据所述车辆可行驶区域计算所述异常场景的最小安全边界;所述车辆可行驶区域是指以行车视角确定的车辆可安全通行区域,所述最小安全边界用来在地图上标识所述异常场景对交通的最小影响范围;所述最小安全边界大于车辆的大小;并将所述最小安全边界发送至云端系统,触发所述云端系统执行更新;
所述云端服务器,用于根据获取到的所述最小安全边界,对地图进行更新。
23.一种联网车辆,其特征在于所述联网车辆包括车载通信装置和车载传感器,当检测异常场景发生时,所述车载传感器获取异常场景感应数据,所述异常场景感应数据包括车载传感器感应数据;根据所述异常场景感应数据获得所述异常场景的车辆可行驶区域,根据所述车辆可行驶区域计算所述异常场景的最小安全边界;所述车辆可行驶区域是指以行车视角确定的车辆可安全通行区域,所述最小安全边界用来在地图上标识所述异常场景对交通的最小影响范围,所述最小安全边界大于车辆的大小;并将所述最小安全边界发送至云端系统,触发所述云端系统执行地图的更新。
24.一种联网车辆,其特征在于所述联网车辆包括车载通信装置和车载传感器,当检测异常场景发生时,所述车载传感器获取异常场景感应数据,所述异常场景感应数据包括车载传感器感应数据;并将所述异常场景感应数据发送至云端系统,触发所述云端系统执行更新。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010079832.2A CN113223317B (zh) | 2020-02-04 | 2020-02-04 | 一种更新地图的方法、装置和设备 |
EP20917388.9A EP4089659A4 (en) | 2020-02-04 | 2020-10-31 | MAP UPDATE METHOD, DEVICE AND DEVICE |
PCT/CN2020/125615 WO2021155685A1 (zh) | 2020-02-04 | 2020-10-31 | 一种更新地图的方法、装置和设备 |
US17/879,252 US20220373353A1 (en) | 2020-02-04 | 2022-08-02 | Map Updating Method and Apparatus, and Device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010079832.2A CN113223317B (zh) | 2020-02-04 | 2020-02-04 | 一种更新地图的方法、装置和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113223317A CN113223317A (zh) | 2021-08-06 |
CN113223317B true CN113223317B (zh) | 2022-06-10 |
Family
ID=77085413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010079832.2A Active CN113223317B (zh) | 2020-02-04 | 2020-02-04 | 一种更新地图的方法、装置和设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220373353A1 (zh) |
EP (1) | EP4089659A4 (zh) |
CN (1) | CN113223317B (zh) |
WO (1) | WO2021155685A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3882813A1 (en) | 2020-03-20 | 2021-09-22 | Aptiv Technologies Limited | Method for generating a dynamic occupancy grid |
EP3905105A1 (en) | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a collision free space |
EP3905106A1 (en) * | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a drivable area |
CN114332384A (zh) * | 2021-11-19 | 2022-04-12 | 清华大学 | 一种车载高清地图数据源内容分发方法及装置 |
CN114136307B (zh) * | 2021-12-07 | 2024-01-26 | 上汽大众汽车有限公司 | 一种车载导航系统地图全自动更新方法 |
CN114252087B (zh) * | 2021-12-22 | 2022-07-01 | 广州小鹏自动驾驶科技有限公司 | 一种地图数据的处理方法及装置、车辆和存储介质 |
CN114689036A (zh) * | 2022-03-29 | 2022-07-01 | 深圳海星智驾科技有限公司 | 地图更新方法、自动驾驶方法、电子设备及存储介质 |
CN115329024B (zh) * | 2022-08-18 | 2023-09-26 | 北京百度网讯科技有限公司 | 一种地图数据更新方法、装置、电子设备及存储介质 |
CN116259028A (zh) * | 2023-05-06 | 2023-06-13 | 杭州宏景智驾科技有限公司 | 用于激光雷达的异常场景检测方法、电子设备和存储介质 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101414408A (zh) * | 2008-10-03 | 2009-04-22 | 邓湘 | 触发事件区域代码化智能交通系统 |
US8676480B2 (en) * | 2012-02-29 | 2014-03-18 | Navteq B.V. | Three-dimensional traffic flow presentation |
CN103500503B (zh) * | 2013-09-17 | 2016-09-07 | 北京中广睛彩导航科技有限公司 | 一种基于众包模式的精准路况分析方法及系统 |
US9792817B2 (en) * | 2013-12-24 | 2017-10-17 | Intel Corporation | Road hazard communication |
GB201403493D0 (en) * | 2014-02-27 | 2014-04-16 | Tomtom Int Bv | Method for associating a hazard with a zone of a digital map |
CN105139657B (zh) * | 2015-10-21 | 2017-12-12 | 招商局重庆交通科研设计院有限公司 | 一种基于v2i的道路边界与事故黑点的提取方法及系统 |
CN105644567A (zh) * | 2015-12-29 | 2016-06-08 | 大陆汽车投资(上海)有限公司 | 基于adas的驾驶辅助系统 |
US20170327035A1 (en) * | 2016-05-10 | 2017-11-16 | Ford Global Technologies, Llc | Methods and systems for beyond-the-horizon threat indication for vehicles |
CN108021625B (zh) * | 2017-11-21 | 2021-01-19 | 深圳广联赛讯股份有限公司 | 车辆异常聚集地监控方法及系统、计算机可读存储介质 |
CN108088455A (zh) * | 2017-12-14 | 2018-05-29 | 山东中图软件技术有限公司 | 一种导航方法 |
US10522038B2 (en) * | 2018-04-19 | 2019-12-31 | Micron Technology, Inc. | Systems and methods for automatically warning nearby vehicles of potential hazards |
CN108646752B (zh) * | 2018-06-22 | 2021-12-28 | 奇瑞汽车股份有限公司 | 自动驾驶系统的控制方法及装置 |
CN109461321A (zh) * | 2018-12-26 | 2019-03-12 | 爱驰汽车有限公司 | 自动驾驶电子围栏更新方法、系统、设备及存储介质 |
CN109808709B (zh) * | 2019-01-15 | 2021-08-03 | 北京百度网讯科技有限公司 | 车辆行驶保障方法、装置、设备及可读存储介质 |
CN109766405B (zh) * | 2019-03-06 | 2022-07-12 | 路特迩科技(杭州)有限公司 | 基于电子地图的交通和旅行信息服务系统及方法 |
CN110047270B (zh) * | 2019-04-09 | 2022-08-09 | 上海丰豹商务咨询有限公司 | 自动驾驶专用车道上应急管理和道路救援的方法 |
-
2020
- 2020-02-04 CN CN202010079832.2A patent/CN113223317B/zh active Active
- 2020-10-31 EP EP20917388.9A patent/EP4089659A4/en not_active Withdrawn
- 2020-10-31 WO PCT/CN2020/125615 patent/WO2021155685A1/zh unknown
-
2022
- 2022-08-02 US US17/879,252 patent/US20220373353A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220373353A1 (en) | 2022-11-24 |
CN113223317A (zh) | 2021-08-06 |
WO2021155685A1 (zh) | 2021-08-12 |
EP4089659A1 (en) | 2022-11-16 |
EP4089659A4 (en) | 2023-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113223317B (zh) | 一种更新地图的方法、装置和设备 | |
CN109920246B (zh) | 一种基于v2x通信与双目视觉的协同局部路径规划方法 | |
CN109739236B (zh) | 车辆信息的处理方法、装置、计算机可读介质及电子设备 | |
US12037015B2 (en) | Vehicle control device and vehicle control method | |
US20220089151A1 (en) | Path planning in autonomous driving environments | |
US20210325901A1 (en) | Methods and systems for automated driving system monitoring and management | |
CN112673231A (zh) | 用于更新环境地图的方法、用于在交通工具侧实施该方法的方法步骤的设备、交通工具、用于在中央计算机侧实施该方法的方法步骤的设备以及计算机可读的存储介质 | |
US20220289198A1 (en) | Automated emergency braking system | |
EP3896639A1 (en) | Methods and systems for managing an automated driving system of a vehicle | |
CN114387322A (zh) | 用于运载工具的方法、运载工具和存储介质 | |
CN114274972A (zh) | 自主驾驶环境中的场景识别 | |
CN114194209A (zh) | 自动驾驶环境中的风险评估 | |
CN115565149A (zh) | 用于对象检测的方法、运载工具和存储介质 | |
US20220350338A1 (en) | Platform for path planning system development for automated driving system | |
US20220266856A1 (en) | Platform for perception system development for automated driving systems | |
US20230005372A1 (en) | Estimation of accident intensity for vehicles | |
US11983918B2 (en) | Platform for perception system development for automated driving system | |
CN114596545A (zh) | 计算机实现的方法、运载工具和计算机可读介质 | |
Alrousan et al. | Multi-Sensor Fusion in Slow Lanes for Lane Keep Assist System | |
US20240328822A1 (en) | Operational design domain management for vehicles having automated driving systems | |
US20240233390A9 (en) | Identification of unknown traffic objects | |
CN118552934A (zh) | 目标检测方法、装置、电子设备、车辆、介质及程序产品 | |
CN115771521A (zh) | 用于监视车辆的自动驾驶系统的操作的方法和装置 | |
EP4309040A1 (en) | Real time integrity check of gpu accelerated neural network | |
CN117173651A (zh) | 用于确定可行驶区域信息的方法、装置和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |