CN115615445A - 处理地图数据的方法、系统和存储介质 - Google Patents

处理地图数据的方法、系统和存储介质 Download PDF

Info

Publication number
CN115615445A
CN115615445A CN202111617522.2A CN202111617522A CN115615445A CN 115615445 A CN115615445 A CN 115615445A CN 202111617522 A CN202111617522 A CN 202111617522A CN 115615445 A CN115615445 A CN 115615445A
Authority
CN
China
Prior art keywords
map
data
training
machine learning
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111617522.2A
Other languages
English (en)
Inventor
S·A·维德贾亚
V·E·B·里昂
钟庄杰
A·辛格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motional AD LLC
Original Assignee
Motional AD LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motional AD LLC filed Critical Motional AD LLC
Publication of CN115615445A publication Critical patent/CN115615445A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3819Road shape data, e.g. outline of a route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3844Data obtained from position sensors only, e.g. from inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9027Trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请涉及处理地图数据的方法、系统和存储介质。所附的是用于可驾驶面标注的基于ML的框架的实施例。在实施例中,一种方法包括:使用至少一个处理器获得地理区域的多模式地图数据;以及使用所述至少一个处理器,利用机器学习模型自动标注所述地图数据的一个或多于一个语义掩模。

Description

处理地图数据的方法、系统和存储介质
技术领域
本说明书总体上涉及用于标注使用自主运载工具穿过道路的语义地图层。
背景技术
自主运载工具通常使用对传感器数据(诸如图像数据(例如,照相机数据)和深度数据(例如,LiDAR点云))进行操作的感知栈,以使用经训练的机器学习(ML)模型来进行对象检测。ML模型通常输出包含已经使用ML模型标记的对象的二维(2D)和/或三维(3D)边界框。经标记的对象检测由具有手动标注的语义地图层(例如,车道和交叉口掩模层)的运载工具使用,以安全且高效地穿过环境中的道路。语义地图层包括粗粒度信息(诸如定义可驾驶面的道路标记等),以及细粒度信息(诸如人行横道和运载工具停放区域)。手动标注语义地图层是劳动密集型的并且耗费了财务资源。
发明内容
提供了用于可驾驶面标注的基于ML的框架的技术。
在实施例中,一种方法包括:使用至少一个处理器获得地理区域的地图数据;以及使用所述至少一个处理器,利用机器学习模型自动标注所述地图数据的一个或多于一个语义掩模。
在实施例中,地图数据是多模态的。
在实施例中,多模态地图数据至少包括强度图和占据图。
在实施例中,机器学习模型由二维(2D)卷积网络实现。
在实施例中,使用集合建模来实现机器学习模型。
在实施例中,在从一个或多于一个地图模型提取的图像样本上迭代地训练机器学习模型,并且针对每次训练迭代提取不同的图像样本以增加训练图像的变化性。
在实施例中,一个或多于一个地图模型被拆分成不同的采样图像区域,以生成用于训练和测试机器学习模型的训练和测试数据集。
在实施例中,使用树数据结构将一个或多于一个地图模型自动拆分成不同的采样图像区域,以生成训练和测试数据集。
在实施例中,树数据结构是四叉树数据结构。
在实施例中,一种系统,其包括:至少一个处理器;以及存储有指令的存储器,所述指令在由所述至少一个处理器执行时使所述至少一个处理器进行上述任何方法。
在实施例中,一种非暂时性计算机可读存储介质,其包括:至少一个处理器;以及存储有指令的存储器,所述指令在由所述至少一个处理器执行时使所述至少一个处理器进行上述任何方法。
所公开的实施例中的一个或多于一个提供以下优点中的一个或多于一个。手动标注语义地图层所需的小时数减少,从而允许从手动标注高清晰度(HD)地图重新使用财务和人力资源。由所公开的实施例输出的可驾驶面掩模可以用作其它机器学习应用的语义先验,以通知未来的分类和数据策展的主动学习(例如,在可驾驶的区域上偏置数据挖掘,识别未穿过道路上的交叉口以改善数据挖掘),并且通过排除离可驾驶面太远的点来减少计算要求。利用基于ML的框架,可以从现有地图资源利用更多信息,从而提高例如针对道路边界和交叉口的性能。
这些和其它方面、特征和实现可以表示为用于进行功能的方法、设备、系统、组件、程序产品、手段或步骤,以及以其它方式表示。根据包括权利要求的以下描述,这些和其它方面、特征和实现将变得显而易见。
附图说明
图1例示根据一个或多个实施例的具有自主能力的自主运载工具(AV)的示例。
图2例示根据一个或多个实施例的示例“云”计算环境。
图3例示根据一个或多个实施例的计算机系统。
图4例示根据一个或多个实施例的AV的示例架构。
图5是根据一个或多个实施例的手动标注的语义地图层的示例鸟瞰图(BEV)。
图6是例示根据一个或多个实施例的ML辅助标注循环的概念图。
图7A和7B是例示根据一个或多个实施例的用于可驾驶面标注的基于ML的框架的概念图。
图8是根据一个或多个实施例的用于基于ML的语义地图层标注的神经网络的概念图。
图9是例示根据一个或多个实施例的用于基于ML的语义地图层标注的集合建模的概念图。
图10是例示根据一个或多个实施例的使用级联块的基于ML的语义地图层标注的集合建模的概念图。
图11是例示根据一个或多个实施例的示出用于压缩和扩展路径的不同基本块的用于基于ML的语义地图层标注的集合建模的概念图。
图12是例示根据一个或多个实施例的示出交替的基本块的用于基于ML的语义地图层标注的集合建模的概念图。
图13是例示根据一个或多个实施例的全局到局部模型级联的概念图。
图14是根据一个或多个实施例的用于可驾驶面标注的基于ML的框架的流程图。
具体实施方式
在以下描述中,为了解释的目的,阐述了许多具体细节,以便提供对本发明的透彻理解。然而,本发明可以在没有这些具体细节的情况下实施将是明显的。在其它实例中,众所周知的构造和装置是以框图形式示出的,以避免不必要地使本发明模糊。
在附图中,为了便于描述,示出了示意要素(诸如表示装置、系统、指令块和数据要素的那些要素)的具体排列或次序。然而,本领域技术人员应当理解,附图中示意要素的具体次序或排列并不意在意味着要求特定的处理次序或序列、或处理过程的分离。此外,在附图中包含示意要素并不意在意味着在所有实施例中都需要这种要素,也不意在意味着由这种要素表示的特征不能包括在一些实施例中或不能在一些实施例中与其它要素结合。
此外,在附图中,连接要素、诸如实线或虚线或箭头用于例示两个或更多个其它示意要素之间的连接、关系或关联,没有任何此类连接要素并不意在意味着不能存在连接、关系或关联。换句话说,一些要素之间的连接、关系或关联未在附图中示出,以便不使本公开内容模糊。此外,为了便于例示,使用单个连接要素来表示要素之间的多个连接、关系或关联。例如,如果连接要素表示信号、数据或指令的通信,本领域技术人员应理解,这种要素表示影响通信可能需要的一个或多于一个信号路径(例如,总线)。
现在将详细参考实施例,其示例在附图中例示出。在以下的详细描述中,阐述了许多具体细节,以便提供对所描述的各种实施例的透彻理解。然而,对于本领域的普通技术人员来说将明显的是,可以在没有这些具体细节的情况下实施所描述的各种实施例。在其它情况下,没有详细描述众所周知的方法、程序、组件、电路和网络,以便不会不必要地使实施例的方面模糊。
下面描述的若干特征各自可以彼此独立地使用,也可以与其它特征的任何组合一起使用。然而,任何个别特征可能不能解决以上所讨论的任何问题,或者只能解决以上所讨论的问题之一。以上所讨论的一些问题可能不能通过本文所描述的任何一个特征得到充分解决。虽然提供了标题,但在本说明书的其它地方也可以找到与具体标题有关但在具有该标题的部分中未找到的信息。本文根据以下概要描述实施例:
1.总体概述
2.系统概述
3.自主运载工具架构
4.用于可驾驶面标注的基于ML的框架
总体概述
提供了用于可驾驶面标注的基于ML的框架的技术。在实施例中,基于ML的技术被应用于地图模型。地图模型可以被局部化到地图的特定区域。地图模型可以是高清晰度地图,并且包括但不限于:强度图(例如,由LiDAR传感器提供的地图,LiDAR传感器针对点云中的每个点测量生成该点的激光脉冲的回波强度)、占据图(表示由对象占据的区域)、颜色地图(例如,颜色编码的照相机图像)、纹理图(表示纹理)、从其它ML模型等输出的地图(例如,预测的BEV地图)、着色点云和来自在安装的传感器套件上运行的实时模型的输出。
基于ML的技术自动预测具有与用附加类别/标记(例如,车道、交叉口、行人、人行道、运载工具停放场)标注的可驾驶面掩模相关联的语义层的可驾驶面掩模(例如,地图上的至少一个运载工具将会运行的区域的掩模)。在实施例中,使用二维(2D)卷积网络来实现基于ML的技术,2D卷积网络以手动标注的语义层作为目标标记。在实施例中,从地图模型中提取感兴趣的图像区域的样本并将其输入到2D卷积网络中,该2D卷积网络预测具有附加类别/标记的语义地图层,其可以被进一步手动标注。
在实施例中,2D卷积网络是经修改的U-Net模型,其中U-Net模型的收缩和/或扩展路径中的基本卷积块被替换为基于ResNet和DenseNet ML模型的残差块和/或密集块。在实施例中,作为交叉熵和骰子损失的组合的损失函数可以用于训练2D卷积网络。
在实施例中,集合建模可以与2D卷积网络的收缩和/或扩展路径中的各种不同模型一起使用以改进预测。在实施例中,在训练期间从图像区域在线提取样本以提高效率。树数据结构(例如,四叉树)可以用于拆分图像区域,以确保2D卷积网络训练和测试数据集中的道路标记的相等比例。
所公开的实施例提供以下优点中的一个或多个。通过使用ML模型来辅助手动标注处理,可以减少个体完全标注HD地图所需的标注量,从而提高整体标注的速度。2D卷积网络的输出是经标注的可驾驶面掩模,其可以由AV的规划器使用或者作为其它ML模型的语义先验,诸如在由AV栈实现的感知任务中使用的图像分割和点云分割网络。“可驾驶性”的概念也可以用于通知未来的分类和数据策展的主动学习。例如,潜在的应用包括但不限于:在可驾驶面上偏置数据挖掘以及识别未穿过道路上的交叉口以用于更好的数据挖掘。为了减少点云(例如,LiDAR点云)分割网络的计算要求,可以使用可驾驶面掩模来从点云中排除离可驾驶面太远的点。
系统概述
图1示出具有自主能力的自主运载工具100的示例。
如本文所使用的,术语“自主能力”是指一种功能、特征或设施,该功能、特征或设施使运载工具能够部分地或完全地操作,而无需实时的人类干预,包括但不限于完全自主运载工具、高度自主运载工具和有条件自主运载工具。
如本文所使用的,自主运载工具(AV)是一种具有自主能力的运载工具。
如本文所使用的,“运载工具”包括货物或人员的运输方式。例如,小汽车、公共汽车、火车、飞机、无人机、卡车、船只、舰艇、潜水器、飞船、摩托车、自行车等。无人驾驶的小汽车是运载工具的示例。
如本文所使用的,“轨迹”是指将AV从第一时空地点运行到第二时空地点的路径或路线。在实施例中,第一时空地点被称为初始地点或起始地点,第二时空地点被称为目的地、最终地点、目标、目标位置或目标地点。在一些示例中,轨迹由一个或多于一个路段(例如,道路的数段)组成,并且各路段由一个或多于一个块(例如,车道或交叉口的一部分)组成。在实施例中,时空地点对应于真实世界地点。例如,时空地点是上车或下车地点,以使人员或货物上车或下车。
如本文所使用的,“(一个或多于一个)传感器”包括一个或多于一个硬件组件,用于检测与传感器周围环境有关的信息。一些硬件组件可包括感测组件(例如,图像传感器、生物特征传感器)、传输和/或接收组件(例如,激光或射频波发射器和接收器)、电子组件(诸如,模数转换器)、数据存储装置(诸如,RAM和/或非易失性存储器)、软件或固件组件和数据处理组件(诸如,专用集成电路)、微处理器和/或微控制器。
如本文所使用的,“道路”是一个可以被运载工具穿过的物理区域,并且可以对应于已命名的通道(例如,城市街道、州际高速公路等)或可对应于未命名的通道(例如,房屋或办公楼内的行车道、停车场的一段、空置停车场的一段、乡村区域的污物通道等)。因为有些运载工具(例如,四轮驱动的小卡车、越野车(SUV)等)能够穿过各种不特别适合运载工具行驶的物理区域,因此“道路”可以是任何市政当局或其它政府或行政机构没有正式定义为一条通道的物理区域。
如本文所使用的,“车道”是道路的可被运载工具穿过的部分,并且可以对应于车道标记之间的大部分或全部空间,或仅对应于车道标记之间的部分空间(例如,小于50%)。例如,具有相距很远的车道标记的道路可能容纳两个或两个以上的运载工具,使得一个运载工具可以在不穿过车道标记的情况下超过另一个运载工具,因此可被解释为车道比车道标记之间的空间窄,或车道之间有两个车道。在没有车道标记的情况下,也可以对车道进行解释。例如,可以基于环境的物理特征(例如,农村地区的岩石和沿着大道的树木)来定义车道。
如本文所使用的,“自身运载工具”或“自身”是指具有用于感测虚拟环境的虚拟传感器的虚拟运载工具或AV,该虚拟环境被例如规划器利用来规划虚拟AV在该虚拟环境中的路线。
“一个或多于一个”包括由一个要素执行的功能、由多个要素例如以分布式的方式执行的功能、由一个要素执行的若干功能、由若干要素执行的若干功能、或上述的任何组合。
还将理解的是,尽管在一些情况下,术语“第一”、“第二”等在本文中是用来描述各种要素的,但这些要素不应受到这些术语的限制。这些术语仅用于区分一个要素与另一个要素。例如,在未背离各种所描述的实施例的范围的情况下,第一触点可被称为第二触点,并且类似地,第二触点可被称为第一触点。第一触点和第二触点两者都是触点,但它们不是相同触点。
在本文所描述的各种实施例的说明书中使用的术语仅用于描述特定实施例的目的,而不是意在限制。如在所描述的各种实施例的说明书和所附权利要求书中所使用的,单数形式“a”、“an”和“the”也意在包括复数形式,除非上下文另有明确说明。还将理解的是,如本文所使用的“和/或”是指并且包括一个或多于一个相关清单项目的任何和所有可能的组合。还将理解的是,当在本说明书中使用术语“包括”、“包含”、“具备”和/或“具有”时,具体说明存在所陈述的特征、整数、步骤、操作、要素和/或组件,但并不排除存在或添加一个或多于一个其它特征、整数、步骤、操作、要素、组件、和/或其群组。
如本文所使用的,取决于上下文,术语“如果”可选地被理解为意指“当”或“在当时”或“响应于确定为”或“响应于检测到”。类似地,取决于上下文,短语“如果已确定”或“如果[所陈述的条件或事件]已被检测到”可选地被理解为意指“在确定时”或“响应于确定为“或”在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
如本文所使用的,AV系统是指AV以及支持AV操作的硬件、软件、存储的数据和实时生成的数据的阵列。在实施例中,AV系统并入在AV内。在实施例中,AV系统跨若干地点分布。例如,AV系统的一些软件是在类似于下面关于图3描述的云计算环境300的云计算环境中实现的。
一般而言,本文件描述了适用于任何具有一种或多种自主能力的运载工具的技术,包括完全自主运载工具、高度自主运载工具和有条件自主运载工具,诸如分别为所谓的第5级、第4级和第3级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义,通过引用将其全部内容并入本文件,用于了解运载工具自主权等级的更多详细信息)。本文件所描述的技术也适用于部分自主运载工具和驾驶员辅助运载工具,诸如所谓的第2级和第1级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义)。在实施例中,一个或多于一个第1级、第2级、第3级、第4级和第5级运载工具系统可基于对传感器输入的处理,在某些操作条件下自动执行某些运载工具操作(例如,转向、制动和使用地图)。本文件中所描述的技术可以使从完全自主运载工具到人类操作的运载工具范围内的任何级别的运载工具受益。
参考图1,AV系统120使AV 100沿着轨迹198操作,穿过环境190至目的地199(有时称为最终地点),同时避开对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)和遵守道路规则(例如,操作规则或驾驶偏好)。
在实施例中,AV系统120包括用于从计算机处理器146接收操作命令并对其进行操作的装置101。在实施例中,计算处理器146与下面参考图3描述的处理器304相似。装置101的示例包括转向控制器102、制动器103、挡位、加速踏板或其它加速控制机构、挡风玻璃雨刮器、侧门锁、窗控器和转向指示器。
在实施例中,AV系统120包括用于测量或推断AV 100的状态或条件的属性的传感器121,这些属性诸如是AV的位置、线速度和加速度及角速度和加速度、以及航向(例如,AV100的前端的方向)。传感器121的示例是全球导航卫星系统(GNSS)接收器、测量运载工具线加速度和角速率两者的惯性测量单元(IMU)、用于测量或估计轮滑移率的轮速率传感器、轮制动压力或制动扭矩传感器、引擎扭矩或轮扭矩传感器以及转向角度和角速率传感器。
在实施例中,传感器121还包括用于感测或测量AV的环境的属性的传感器。例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122,LiDAR 123,RADAR,超声波传感器,飞行时间(TOF)深度传感器,速率传感器,温度传感器,湿度传感器和降水传感器。
在实施例中,AV系统120包括数据存储单元142和存储器144,用于存储与计算机处理器146相关联的机器指令或由传感器121收集的数据。在实施例中,数据存储单元142与以下关于图3描述的ROM 308或存储装置310类似。在实施例中,存储器144与下面描述的主存储器306类似。在实施例中,数据存储单元142和存储器144存储有关环境190的历史、实时和/或预测性信息。在实施例中,存储的信息包括地图、驾驶性能、交通拥堵更新或天气条件。在实施例中,与环境190有关的数据从远程数据库134通过通信信道传输到AV 100。
在实施例中,AV系统120包括通信装置140,用于将对其它运载工具的状态和条件(诸如位置、线速度和角速度、线加速度和角加速度、以及线航向和角航向)测量或推断的属性传送到AV 100。这些装置包括运载工具到运载工具(V2V)和运载工具到基础设施(V2I)通信装置以及用于通过点对点或自组织(ad hoc)网络或两者进行无线通信的装置。在实施例中,通信装置140跨电磁频谱(包括无线电和光通信)或其它介质(例如,空气和声介质)进行通信。运载工具对运载工具(V2V)、运载工具对基础设施(V2I)通信(以及在一些实施例中为一种或多种其它类型的通信)的组合有时被称为运载工具对所有事物(V2X)通信。V2X通信通常符合一个或多于一个通信标准,用于与自主运载工具进行的和在自主运载工具之间的通信。
在实施例中,通信装置140包括通信接口。例如,有线、无线、WiMAX、Wi-Fi、蓝牙、卫星、蜂窝、光、近场、红外或无线电接口。通信接口将数据从远程数据库134传输到AV系统120。在实施例中,远程数据库134嵌入在如图2中所描述的云计算环境200中。通信接口140将从传感器121收集的数据或与AV 100操作有关的其它数据传输到远程数据库134。在实施例中,通信接口140向AV 100传输与遥操作有关的信息。在一些实施例中,AV 100与其它远程(例如,“云”)服务器136通信。
在实施例中,远程数据库134还存储和传输数字数据(例如,存储诸如道路和街道地点的数据)。这些数据存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV 100。
在实施例中,远程数据库134存储和传输与以前在一天中类似时间沿着轨迹198行驶的运载工具的驾驶属性有关的历史信息(例如,速率和加速度分布)。在一个实现中,这种数据可以存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV100。
位于AV 100上的计算装置146基于实时传感器数据和先验信息两者以算法方式生成控制动作,允许AV系统120执行其自主驾驶能力。
在实施例中,AV系统120包括耦接到计算装置146的计算机外围设备132,用于向AV100的用户(例如,乘员或远程用户)提供信息和提醒并接收来自该用户的输入。在实施例中,外围设备132类似于下面参考图3讨论的显示器312、输入装置314和光标控制器316。耦接是无线的或有线的。任意两个或更多个的接口装置可以集成到单个装置中。
示例云计算环境
图2例示示例“云”计算环境。云计算是一种服务交付模式,用于使得能够方便、按需地在网络上访问可配置计算资源(例如网络、网络带宽、服务器、处理、内存、存储、应用程序、虚拟机和服务)的共享池。在典型的云计算系统中,一个或多于一个大型云数据中心容纳用于交付云所提供的服务的机器。现在参考图2,云计算环境200包括通过云202互连的云数据中心204a、204b和204c。数据中心204a、204b和204c为连接到云202的计算机系统206a、206b、206c、206d、206e和206f提供云计算服务。
云计算环境200包括一个或多于一个云数据中心。一般而言,云数据中心(例如图2中所示的云数据中心204a)是指构成云(例如图2中所示的云202或云的特定部分)的服务器的物理排列。例如,服务器在云数据中心中物理排列成房间、组、行和机架。云数据中心有一个或多于一个区域,其中包括一个或多于一个服务器房间。每个房间有一行或多行服务器,并且每行包括一个或多于一个机架。每个机架包括一个或多于一个单独的服务器节点。在一些实现中,区域、房间、机架和/或行中的服务器基于数据中心设施的物理基础设施要求(包括电力、能源、热力、热源和/或其它要求)被排列成若干组。在实施例中,服务器节点类似于图3中描述的计算机系统。数据中心204a具有许多分布在多个机架上的计算系统。
云202包括云数据中心204a、204b和204c以及用于连接云数据中心204a、204b和204c并有助于促进计算系统206a-f对云计算服务的访问的网络和网络资源(例如,网络设备、节点、路由器、交换机和网络电缆)。在实施例中,该网络表示一个或多于一个本地网络、广域网或通过使用地面或卫星连接部署的有线或无线链路耦接的网际网络的任意组合。通过网络交换的数据使用多种网络层协议(诸如,因特网协议(IP)、多协议标记交换(MPLS)、异步传输模式(ATM)、帧中继(Frame Relay)等)进行传输。此外,在网络表示多个子网络的组合的实施例中,在每个底层子网络上使用不同的网络层协议。在一些实施例中,网络表示一个或多于一个互连网际网络(诸如公共因特网等)。
计算系统206a-f或云计算服务消费者通过网络链路和网络适配器连接到云202。在实施例中,计算系统206a-f被实现为各种计算装置,例如服务器、台式机、膝上型计算机、平板电脑、智能手机、物联网(IoT)装置、自主运载工具(包括小汽车、无人机、航天飞机、火车、公共汽车等)和消费电子产品。在实施例中,计算系统206a-f在其它系统中实现或作为其它系统的一部分实现。
计算机系统
图3例示计算机系统300。在实现中,计算机系统300是一种专用计算装置。专用计算装置被硬连线以执行这些技术,或包括诸如一个或多于一个专用集成电路(ASIC)或现场可编程门阵列(FPGA)的被持久编程为执行上述技术的数字电子装置,或可包括一个或多于一个通用硬件处理器,这些硬件处理器经编程以根据固件、存储器、其它存储器、或者组合中的程序指令执行这些技术。这种专用的计算装置还可以将定制的硬线逻辑、ASIC或FPGA与定制的编程相结合来完成这些技术。在各种实施例中,专用计算装置是台式计算机系统、便携式计算机系统、手持装置、网络装置或包含硬线和/或程序逻辑以实现这些技术的任何其它装置。
在实施例中,计算机系统300包括总线302或用于传达信息的其它通信机制、以及与总线302耦接以处理信息的硬件处理器304。硬件处理器304是例如通用微处理器。计算机系统300还包括主存储器306,诸如随机存取存储器(RAM)或其它动态存储装置,该主存储器306耦接到总线302以存储信息和指令,该信息和指令由处理器304执行。在一个实现中,主存储器306用于在执行要由处理器304执行的指令期间存储临时变量或其它中间信息。当这些指令存储在处理器304可访问的非暂时性存储介质中时,使计算机系统300变成一个专用机器,该机器被定制以执行指令中指定的操作。
在实施例中,计算机系统300还包括只读存储器(ROM)308或耦接到总线302的其它静态存储装置,用于存储处理器304的静态信息和指令。提供诸如磁盘、光盘、固态驱动器或三维交叉点存储器的存储装置310,并且该存储装置310耦接到总线302以存储信息和指令。
在实施例中,计算机系统300通过总线302耦接到诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子体显示器、发光二极管(LED)显示器或用于向计算机用户显示信息的有机发光二极管(OLED)显示器的显示器312。包括字母数字键和其它键的输入装置314耦接到总线302,用于向处理器304传送信息和命令选择。另一种类型的用户输入装置是光标控制器316,诸如鼠标、轨迹球、触控显示器或光标方向键,用于将方向信息和命令选择传送到处理器304,并用于控制光标在显示器312上的移动。这种输入装置通常具有两个轴(第一轴(例如,x轴)和第二轴(例如,y轴))上的两个自由度,这两个轴允许装置指定平面上的位置。
根据一个实施例,本文的技术由计算机系统300响应于处理器304执行主存储器306中包含的一个或于一多个指令的一个或多于一个序列而执行。这些指令从诸如存储装置310的另一存储介质读入主存储器306。执行主存储器306中包含的指令序列使处理器304执行本文所描述的过程步骤。在替代实施例中,使用硬连线电路代替或与软件指令结合使用。
如本文所使用的术语“存储介质”是指存储数据和/或指令的任何非暂时性介质,这些数据和/或指令使机器以特定方式操作。这种存储介质包括非易失性介质和/或易失性介质。非易失性介质例如包括诸如存储装置310的光盘、磁盘、固态驱动器或三维交叉点存储器。易失性介质包括动态存储器,诸如主存储器306。存储介质的常见形式包括例如软盘、软磁盘、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、CD-ROM、任何其它光数据存储介质、任何具有孔型的物理介质、RAM、PROM和EPROM、FLASH-EPROM、NV-RAM、或任何其它存储芯片或存储盒。
存储介质有别于传输介质,但可以与传输介质相结合使用。传输介质参与存储介质之间的信息传输。例如,传输介质包括同轴电缆、铜线和光纤,其包括具备总线302的电线。传输介质也可以采取声波或光波的形式,诸如在无线电波和红外数据通信过程中产生的声波或光波。
在实施例中,各种形式的介质涉及将一个或多于一个指令的一个或多于一个序列承载到处理器304以供执行。例如,这些指令最初是在远程计算机的磁盘或固态驱动器上执行的。远程计算机将指令加载到其动态存储器中,并使用调制解调器通过电话线路发送指令。计算机系统300的本地调制解调器接收电话线路上的数据,并使用红外发射器将数据转换为红外信号。红外检测器接收红外信号中承载的数据,并且适当的电路将数据放置在总线302上。总线302将数据承载到主存储器306,处理器304从主存储器306检索并执行指令。主存储器306接收的指令可以可选地在处理器304执行之前或之后存储在存储装置310上。
计算机系统300还包括耦接到总线302的通信接口318。通信接口318提供耦接到连接至本地网络322的网络链路320的双向数据通信。例如,通信接口318是综合业务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器或用以提供与相应类型电话线路的数据通信连接的调制解调器。作为另一示例,通信接口318是局域网(LAN)卡,用于提供与兼容LAN的数据通信连接。在一些实现中,无线链路也被实现。在任何这种实现中,通信接口318发送和接收承载表示各种类型的信息的数字数据流的电、电磁或光信号。
网络链路320通常通过一个或多于一个网络向其它数据装置提供数据通信。例如,网络链路320通过本地网络322提供与主计算机324或与由因特网服务提供商(ISP)326运营的云数据中心或设备的连接。ISP 326又通过现在通常称为“因特网”328的世界范围分组数据通信网络来提供数据通信服务。本地网络322和因特网328两者都使用承载数字数据流的电、电磁或光信号。通过各种网络的信号以及网络链路320上并通过通信接口318的信号是传输介质的示例形式,其中这些信号承载了进出计算机系统300的数字数据。在实施例中,网络320包含上述云202或云202的一部分。
计算机系统300通过(一个或多于一个)网络、网络链路320和通信接口318发送消息和接收包括程序代码的数据。在实施例中,计算机系统300接收用于处理的代码。接收到的代码在接收到时由处理器304执行,和/或存储在存储装置310中,或存储在其它非易失性存储装置中以便以后执行。
自主运载工具架构
图4示出用于自主运载工具(例如,图1所示的AV 100)的示例架构400。架构400包括感知系统402(有时称为感知电路)、规划系统404(有时称为规划电路)、控制系统406(有时称为控制电路)、定位系统408(有时称为定位电路)和数据库系统410(有时称为数据库电路)。各系统在AV 100的操作中发挥作用。共同地,系统402、404、406、408和410可以是图1所示的AV系统120的一部分。在一些实施例中,模块402、404、406、408和410中的任何系统是计算机软件(例如,计算机可读介质上所存储的可执行代码)和计算机硬件(例如,一个或多于一个微处理器、微控制器、专用集成电路(ASIC)、硬件存储器装置、其它类型的集成电路、其它类型的计算机硬件、或者这些硬件中的任何或所有的组合)的组合。
在使用中,规划系统404接收表示目的地412的数据,并且确定表示AV 100为了到达(例如,抵达)目的地412而可以行驶的轨迹414(有时称为路线)的数据。为了使规划系统404确定表示轨迹414的数据,规划系统404从感知系统402、定位系统408和数据库系统410接收数据。
感知系统402使用例如也如图1所示的一个或多于一个传感器121来识别附近的物理对象。将对象分类(例如,分组成诸如行人、自行车、汽车、交通标志等的类型),并且将包括经分类的对象416的场景描述提供至规划系统404。
规划系统404还从定位系统408接收表示AV位置418的数据。定位系统408通过使用来自传感器121的数据和来自数据库系统410的数据(例如,地理数据)以计算位置来确定AV位置。例如,定位系统408使用来自GNSS接收器的数据和地理数据来计算AV的经度和纬度。在实施例中,定位系统408所使用的数据包括具有行车道几何属性的高精度地图、描述道路网络连接属性的地图、描述行车道物理属性(诸如交通速率、交通量、运载工具和自行车车道的数量、车道宽度、车道交通方向、或车道标记类型和地点,或者它们的组合)的地图、以及描述道路特征(诸如十字路口、交通标志或各种类型的其它行驶信号等)的空间地点的地图。通常,手动标注高精度地图,这是劳动密集型处理。为了减少劳动量,可以使用基于ML的框架标注地图,如参考图5所描述的。
控制系统406接收表示轨迹414的数据和表示AV位置418的数据,并且以将使得AV100行驶轨迹414到达目的地412的方式来操作AV的控制功能420a~420c(例如,转向、油门、制动、点火)。例如,如果轨迹414包括左转,则控制系统406将以如下方式操作控制功能420a~420c:转向功能的转向角度将使得AV 100左转,并且油门和制动将使得AV 100在进行转弯之前暂停并等待经过的行人或运载工具。
用于可驾驶面标注的基于ML的框架
图5是根据一个或多个实施例的图像区域500的手动标注的语义地图层的示例鸟瞰图(BEV)。
除了从感知系统(例如,感知系统402)生成的语义信息(例如,关于环境中的至少一个对象的面的信息等)之外,AV 100还依赖于手动标注的语义层来安全且高效地穿过道路。语义地图层可以包括与表示粗粒度信息(例如,可驾驶区域)和/或细粒度信息(例如,人行横道、人行道、运载工具停放区域)的道路标记相关联的层。在所示的示例中,示出了道路分隔部501、车道分隔部502、车道连接部503、车道504、交叉口505和车道组506的手动标注。
高清晰度(HD)地图层(诸如图5中所示的地图等)的手动标注需要个人花费的大量小时和财务资源。例如,仅使用手动标注,可以根据可用标注器的数量每周标注几英里。如下面进一步详细描述的,描述了基于ML的解决方案,其利用图像分割网络(2D卷积网络)和预先存在的手动标注语义层来训练ML模型(或ML模型的网络)以生成关于与HD图相对应的语义层(例如,对象和/或其它对象的关联)的预测。然后,HD地图可以由人类标注者基于ML模型或ML模型网络生成关于语义层的预测(例如,在ML模型或ML模型网络生成关于语义层的预测之后)来标注。通过使用ML模型来辅助手动标注处理,可以减少个体完全标注HD地图所需的标注量,从而提高整体标注的速度。
图6是例示根据一个或多个实施例的用于标注语义地图层的ML辅助标注循环600的概念图。在实施例中,主动学习602(或其它自动训练数据选择处理)用于从原始传感器数据(例如,LiDAR点云、照相机图像)中选择未标记的感兴趣对象601。未标记的感兴趣对象601由人类标注者手动标注603(标记),并用作训练数据来训练ML模型604以预测感兴趣对象的标记。在该示例中,存在两个标记:标记A和标记B。然后将经训练的ML模型604部署605到ML辅助标注循环中,以用于从原始传感器数据预测感兴趣对象601的标记,从而完成ML辅助标注循环600。在实施例中,现有ML模型可以用作用于训练的起点(例如,迁移学习606)。
图7A和7B是例示根据一个或多个实施例的用于可驾驶面标注的基于ML的框架700的概念图。基于ML的框架700对准确局部化的多模态HD-map模型701使用ML。HD-map地图模型701的一些示例包括但不限于:强度图、占据图、纹理图(法线地图)、颜色地图以及使用来自安装在运载工具上的一个或多于一个照相机的照相机图像训练的LiDAR分割网络(LSN)和/或2D卷积网络的预测输出地图。这些多模态HD-map模型701被输入到图像分割网络702中。在实施例中,网络702是基于深度学习的模型,其被训练以预测具有附加类别/标记信息(例如,车道、交叉口、行人、人行道、运载工具停放区域)的可驾驶面掩模。在一些实现中,使用同时定位和映射(SLAM)引擎来生成HD-map模型701。
颜色地图
在实施例中,AV 100配备有可以捕获环境的不同动态的照相机。对于由LiDAR捕获的每个对象/点/地标,在该对象/点/地标与照相机传感器上的点之间存在映射。因此,可以通过将从照相机传感器获得的颜色像素值与LiDAR点交叉参考来获得该点的颜色信息。然后可以生成扫描的着色点云的鸟瞰视图光栅嵌入,即,称为上面的“颜色地图”。
法线地图
在法线地图中,捕获与点相关联的平面的取向(x、y或z方向)。在实施例中,使用相邻点来近似平面的取向。
从实时系统获得的分割光栅
在实施例中,应用于照相机系统的相同逻辑可以应用于从实时系统获得的分割光栅,其中照相机像素与LiDAR点之间存在对应关系。在这种情况下,颜色信息被从实时系统(诸如图像分割网络)获得的语义标记替换。语义标记被映射回LiDAR扫描,并且LiDAR扫描的鸟瞰视图被光栅化。
在实施例中,样本生成框架704从多个不同的HD-map模型701中提取样本705(也称为“区块”),以用作2D卷积网络702的训练数据。样本705可以在训练期间由直接访问(例如,订阅)HD-map模型数据(例如,二进制数据)的在线数据加载器按需提取,该HD-map模型数据对于HD-map模型的不同版本是可缩放的。通过允许在线数据加载器在训练期间直接访问/订阅HD-map模型,与离线提取样本的情况相比,数据集准备需要更少的步骤。此外,可以在每次训练迭代中提取不同的样本以增加训练图像的变化性。
如上所述,所提取的样本被输入到2D卷积网络702中,用于预测具有附加类别/标记信息(诸如车道、交叉口、运载工具停放场、人行横道、人行道等)的标注的可驾驶面。可以使用任何期望的损失函数706来训练2D卷积网络702。在实施例中,使用经修改的U-Net模型来实现2D卷积网络702,并且损失函数706是交叉熵和骰子损失的组合。2D卷积网络702的训练可以通过使用损失函数706计算损失而将2D卷积网络702的输出与真实标注层进行比较、并且使用神经网络反向传播技术基于损失更新2D卷积网络702的参数(例如,权重和偏差)来进行。
在实施例中,对于各个HD-map模型701,HD-map模型701中的地图区域被拆分成不同的采样图像区域,以用于生成用于2D卷积网络702的训练和测试数据集。为了增加训练数据的变化性,样本生成框架704在训练期间从采样区域在线随机提取样本。为了确保训练和测试数据集之间的语义地图层(例如,道路标记)的相等比例,使用树数据结构或其它合适的数据结构来自动将HD-map模型701拆分成训练和测试数据集。
在实施例中,四叉树算法用于有效地存储图像区域中的道路地标的位置。四叉树的各个节点最多具有四个子节点。四叉树算法在图像区域上实现,其中当特定道路地标的实例存在多于一次时,满足子节点的拆分标准。在实施例中,四叉树算法可以在各个二维(2D)图像区域上实现如下:1)将2D图像区域划分为四个框;2)如果框包含一个或多于一个道路地标,则创建针对该框的子节点并将其存储在该框的2D空间中;3)如果框不包含任何道路地标,则不创建针对该框的子节点;以及4)针对各个子节点递归。在实施例中,可以使用交叉口的数量作为拆分标准。然而,也可以使用任何合适的拆分标准,诸如使用概率热图基于可驾驶面的聚合区域的随机区块采样。
在实施例中,使用经修改的U-Net模型来实现2D卷积网络702。U-Net模型在例如Long,J.;Shelhamer,E.;Darrell.T.(2014)的“Fully convolutional networks forsemantic segmentation”(IEEE模式分析与机器智能汇刊39(4):640-651.arXiv:1411.4038)中描述,其通过引用整体并入本文。U-Net包括收缩路径和扩展路径。收缩路径是常规的卷积神经网络(CNN),其包括使用基本卷积块重复应用卷积,各个基本卷积块之后是整流线性单元(ReLU)和最大池化操作。在收缩路径中,空间信息减少,而特征信息增加。在扩展路径中,特征和空间信息通过具有来自收缩路径的高分辨率特征的一系列上卷积和级联来组合。
在实施例中,通过用ResNet架构启发的残差块替换U-Net模型的基本卷积块来修改常规U-Net模型,如例如在He,Kaiming;Zhang,Xiangyu;Ren,Shaoqing;Sun,Jian(2016)的“Deep Residual Learning for Image Recognition.”(会刊计算机视觉和模式识别(CVPR),IEEE),其全部内容通过引用并入本文。
在另一实施例中,通过用由DenseNet架构启发的密集块替换U-Net模型的基本卷积块来修改常规U-Net模型,如例如Gao Huang;Zhuang Liu;Laurens van der Maaten;Kilian Q.Weinberger.的“Densely Connected Convolutional Networks”(arXiv:1608.06993),其全部内容通过引用并入本文。
从收缩路径获得的特征在U-Net的扩展路径中重复使用。扩展路径包含基本卷积块,伴随着其间的上采样块,这些基本卷积块在减少通道数量的同时保持相同的输出维度,这实现了增加的特征图空间维度和减少的通道数量。
图8是根据一个或多个实施例的经修改的2D卷积网络800的概念图,其中U-Net ML模型的基本卷积块被残差块和/或密集块替换。在实施例中,经修改的2D卷积网络800包括收缩路径801和扩展路径802。块803表示特征图,线805表示要由起始系统809、残差块810或密集块811中的一个或多于一个替换的基本卷积块,线804表示下采样块,线807表示上采样块,并且线806表示跳过连接。注意,为了清楚起见,在特征图的单个实例上,基本块、下采样块、跳过连接和上采样块用数字指示符标记。所提供的图例还示出了这些块在经修改的2D卷积网络800中的各个实例的位置。
在实施例中,起始系统809包括从前一层馈送的多个处理路径。使用级联滤波器来级联各个路径馈送的输出。在所示的示例中,第一处理路径包括1×1卷积块,第二处理路径包括1×1卷积块,随后是3×3卷积块,以及第三处理路径包括1×1卷积块,随后是5×5卷积块,并且第四处理路径包括3×3卷积块,随后是1×1卷积块。
大多数现有技术的图像识别主干遵循某种模式,其中交替的下采样卷积和基本卷积操作被应用于图像和相应的特征图。基本卷积块805始终保持特征图803的相同维度。收缩路径801中的下采样卷积实现了减小的特征图空间维度和增加的通道数量。这些操作的乘积是作为跳过连接806的输出的不同步幅上的多个特征图803。其含义是大多数主干可容易地用于U-Net模型的收缩路径。因此,通过将U-Net模型视为块序列,来自ResNet ML模型的残差块810或来自DenseNet ML模型的密集块811可以替换U-Net模型800的基本卷积块805,如图8所示。
图9是例示根据一个或多个实施例的用于基于ML的语义地图层标注的集合建模900的概念图。与其它应用相比,参考图8描述的经修改的U-Net模型800具有更高的延迟容限。在实施例中,可以使用两个或更多个不同主干模型的集合来提高性能以及产生不确定性信息。在所示的示例实施例中,对由三个ML模型901-903输出的预测进行简单的平均操作904。注意,集合ML模型901-903对于主动学习任务工作良好,特别是通过提供不确定性信息。不确定性信息可以用于ML辅助标注循环,以精确定位哪些地图区域需要手动标注。除了提供鲁棒的不确定性信息之外。集合ML模型901-903也固有地提供更好的预测。尽管在集合900中示出了三个ML模型,但是集合900可以包括更多或更少的ML模型,其中更多的ML模型产生更细粒度的预测。
由集合ML模型901-903产生的不确定性信息更鲁棒,因为集合建模900提供比单个模型更多样化的预测范围。可以通过修改每个模型的超参数(例如,深度参数)来实现预测的多样化。在实施例中,通过在经修改的U-Net模型800中具有不同的卷积块来实现多样化。下面的图10-12示出了不同的U-Net模型变型。
图10是例示根据一个或多个实施例的使用级联卷积块的用于基于ML的语义地图层标注的2D卷积网络1000的集合建模的概念图,其中在整个2D卷积网络1000中使用一个块变体1001(例如,起始系统809)。
图11是例示根据一个或多个实施例的示出分别用于压缩和扩展路径的不同基本卷积块1101(例如,起始系统809)、1102(例如,密集块811)的用于基于ML的语义地图层标注的2D卷积网络1100的集合建模的概念图。
图12是例示根据一个或多个实施例的示出交替的基本块1201(例如,起始系统809)、1202(例如,密集块811)的用于基于ML的语义地图层标注的集合建模和2D卷积网络1200的概念图。
图13是例示根据一个或多个实施例的全局到局部模型级联的概念图。与可驾驶区域不同,交叉口是完全不同的道路地标。它们通常稀疏地分散在整个地图区域上。因此,需要不同地处理交叉口。
在实施例中,交叉口检测流水线1300被划分为两个阶段:全局检测阶段1301,随后是局部细化阶段1302。在全局检测阶段1301中,全局模型1303(例如,分割模型)接受地图区域1302的经调整大小的版本作为输入。全局模型1303试图大致精确定位特定交叉口在地图区域1302中的位置。全局模型1303的输出可以是具有边界框和/或分割掩模的地图区域1304的形式。地图区域1304用作人类标注者应该在何处寻找和细化交叉口的初始提示。
在局部细化阶段1302中,局部细化系统1306是语义分割模型,其接受全局模型引导的裁剪区块1305并尝试输出用于交叉口的细化分割掩模1306(例如,更好的分割模型或多边形化)。训练局部细化模型1306以输出具有高召回率的分割掩模1307,即,假设从地图区域1304提取的区块1305包含交叉口。局部细化模型1306预测具有高定位精度的分割掩模1307。
示例处理
图14是根据一个或多个实施例的用于可驾驶面标注的基于ML的框架的流程图。处理1400可以使用例如如参考图3所述的计算机系统300来实现。
处理1400包括获得地理区域的地图数据(1401)并且使用机器学习模型自动标注一个或多于一个语义地图层(1402)的步骤。在实施例中,地图数据是多模态的。在实施例中,多模态地图数据包括强度图、占据图、LSN/2D卷积网络输出、纹理图和任何其它合适的地图数据中的一个或多于一个。在实施例中,地图数据是HD-map数据。在实施例中,机器学习模型预测包括类别信息(例如,车道、交叉口、运载工具停放区域)的可驾驶面掩模。
在实施例中,利用任何基于分割的损失函数(例如,交叉熵和骰子损失的组合)由基于经修改的U-Net模型的图像分割网络来实现机器学习模型。例如,U-Net模型的收缩和扩展路径中的基本卷积块可以分别用ResNet和DenseNet模型中使用的残差块或密集块替换。
在实施例中,在从一个或多于一个HD-map模型提取的图像样本上迭代地训练经修改的U-Net模型,并且对于每次训练迭代从图像区域提取不同的图像样本,以增加训练图像的变化性,从而改善预测。
在实施例中,树数据结构可以用于使用树数据结构(例如,使用四叉树)将地图模型的图像区域自动拆分成训练和测试数据集,以确保训练和测试数据集中的地标的相等比例。
在自动标注之后,可以可选地进一步手动标注ML辅助的标注语义地图层(1403)。
在先前描述中,已经参考许多具体细节描述了本发明的实施例,这些具体细节可因实现而不同。因此,说明书和附图应被视为说明性的,而非限制性意义的。本发明范围的唯一且排他的指示、以及申请人期望是本发明范围的内容是以发布权利要求书的具体形式从本申请发布的权利要求书的字面和等同范围,包括任何后续修正。本文中明确阐述的用于被包括在此类权利要求中的术语的任何定义应当以此类术语如在权利要求书中所使用的意义为准。另外,当在先前的说明书或所附权利要求书使用术语“还包括”时,该短语的下文可以是附加的步骤或实体、或先前所述的步骤或实体的子步骤/子实体。

Claims (20)

1.一种用于处理地图数据的方法,包括:
使用至少一个处理器获得地理区域的地图数据;以及
使用所述至少一个处理器,利用机器学习模型,自动标注所述地图数据的一个或多于一个语义掩模。
2.根据权利要求1所述的方法,其中,所述地图数据是多模态的。
3.根据权利要求2所述的方法,其中,所述多模态的地图数据至少包括强度图和占据图。
4.根据权利要求1所述的方法,其中,所述机器学习模型是由二维卷积网络即2D卷积网络实现的。
5.根据权利要求1所述的方法,其中,所述机器学习模型是使用集合建模实现的。
6.根据权利要求1所述的方法,其中,在从一个或多于一个地图模型提取的图像样本上迭代地训练所述机器学习模型,并且针对每次训练迭代提取不同的图像样本以增加训练图像的变化性。
7.根据权利要求6所述的方法,其中,所述一个或多于一个地图模型被拆分成不同的采样图像区域,以生成用于训练和测试所述机器学习模型的训练数据集和测试数据集。
8.根据权利要求7所述的方法,其中,使用树数据结构将所述一个或多于一个地图模型自动拆分成不同的采样图像区域,以生成训练数据集和测试数据集。
9.根据权利要求8所述的方法,其中,所述一个或多于一个地图模型基于拆分标准被自动拆分成不同的采样图像区域,所述拆分标准是当特定道路地标的实例在特定采样图像区域中存在多于一次时。
10.根据权利要求8所述的方法,其中,所述树数据结构是四叉树数据结构。
11.一种用于处理地图数据的系统,包括:
至少一个处理器;以及
存储器,其上存储有指令,所述指令在由所述至少一个处理器执行的情况下使所述至少一个处理器:
获得地理区域的地图数据;以及
使用机器学习模型自动标注所述地图数据的一个或多于一个语义地图层。
12.根据权利要求11所述的系统,其中,所述地图数据被局部化。
13.根据权利要求11所述的系统,其中,所述地图数据是多模态的。
14.根据权利要求13所述的系统,其中,所述多模态的地图数据包括强度图和占据图。
15.根据权利要求11所述的系统,其中,所述机器学习模型是由二维卷积网络即2D卷积网络实现的。
16.根据权利要求11所述的系统,其中,在从一个或多于一个地图模型提取的图像样本上迭代地训练所述机器学习模型,并且针对每次训练迭代提取不同的图像样本以增加训练图像的变化性。
17.根据权利要求16所述的系统,其中,所述一个或多于一个地图模型被拆分成不同的采样图像区域,以生成用于训练和测试所述机器学习模型的训练数据集和测试数据集。
18.根据权利要求17所述的系统,其中,使用树数据结构将所述一个或多于一个地图模型自动拆分成不同的采样图像区域,以生成训练数据集和测试数据集。
19.根据权利要求18所述的系统,其中,所述树数据结构是四叉树数据结构。
20.一种非暂时性计算机可读存储介质,其上存储有指令,所述指令在由至少一个处理器执行的情况下使所述至少一个处理器进行操作,所述操作包括:
获得地理区域的地图数据;以及
使用机器学习模型自动标注所述地图数据的一个或多于一个语义地图层,其中,在从一个或多于一个地图模型提取的图像样本上迭代地训练所述机器学习模型,针对每次训练迭代提取不同的图像样本,并且使用树数据结构将所述一个或多于一个地图模型自动拆分成不同的采样图像区域,以生成训练数据集和测试数据集。
CN202111617522.2A 2021-07-16 2021-12-27 处理地图数据的方法、系统和存储介质 Pending CN115615445A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/378,636 US11367289B1 (en) 2021-07-16 2021-07-16 Machine learning-based framework for drivable surface annotation
US17/378,636 2021-07-16

Publications (1)

Publication Number Publication Date
CN115615445A true CN115615445A (zh) 2023-01-17

Family

ID=82060286

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111617522.2A Pending CN115615445A (zh) 2021-07-16 2021-12-27 处理地图数据的方法、系统和存储介质

Country Status (5)

Country Link
US (2) US11367289B1 (zh)
KR (1) KR20230012953A (zh)
CN (1) CN115615445A (zh)
DE (1) DE102022100213A1 (zh)
GB (1) GB2609060B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116394276A (zh) * 2023-06-06 2023-07-07 帕西尼感知科技(张家港)有限公司 一种样本生成、模型训练方法、装置及系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11521394B2 (en) * 2020-10-09 2022-12-06 Motional Ad Llc Ground plane estimation using LiDAR semantic network
US11858514B2 (en) 2021-03-30 2024-01-02 Zoox, Inc. Top-down scene discrimination
US11810225B2 (en) * 2021-03-30 2023-11-07 Zoox, Inc. Top-down scene generation
US11367289B1 (en) 2021-07-16 2022-06-21 Motional Ad Llc Machine learning-based framework for drivable surface annotation
KR102619044B1 (ko) * 2023-03-21 2023-12-27 쿠팡 주식회사 기계학습 기반 추천 방법 및 그 시스템

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8085849B1 (en) * 2006-11-03 2011-12-27 Keystream Corporation Automated method and apparatus for estimating motion of an image segment using motion vectors from overlapping macroblocks
US8209152B2 (en) * 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation
US9536321B2 (en) * 2014-03-21 2017-01-03 Intel Corporation Apparatus and method for foreground object segmentation
US9494935B2 (en) * 2014-11-13 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Remote operation of autonomous vehicle in unexpected environment
US10633091B2 (en) * 2015-01-29 2020-04-28 Scope Technologies Holdings Limited Accident monitoring using remotely operated or autonomous aerial vehicles
CA2995850A1 (en) * 2015-08-31 2017-03-09 Ryan Kottenstette Systems and methods for analyzing remote sensing imagery
US11100335B2 (en) * 2016-03-23 2021-08-24 Placemeter, Inc. Method for queue time estimation
EP3440428B1 (en) * 2016-04-08 2022-06-01 Orbital Insight, Inc. Remote determination of quantity stored in containers in geographical region
US10126141B2 (en) * 2016-05-02 2018-11-13 Google Llc Systems and methods for using real-time imagery in navigation
US10607342B2 (en) * 2016-09-30 2020-03-31 Siemenes Healthcare GmbH Atlas-based contouring of organs at risk for radiation therapy
US10382673B2 (en) * 2017-01-11 2019-08-13 Hover Inc. Automated guide for image capturing for 3D model creation
US10303956B2 (en) * 2017-08-23 2019-05-28 TuSimple System and method for using triplet loss for proposal free instance-wise semantic segmentation for lane detection
US11334762B1 (en) * 2017-09-07 2022-05-17 Aurora Operations, Inc. Method for image analysis
EP3506160B1 (en) * 2017-12-28 2022-06-01 Dassault Systèmes Semantic segmentation of 2d floor plans with a pixel-wise classifier
US10984286B2 (en) * 2018-02-02 2021-04-20 Nvidia Corporation Domain stylization using a neural network model
US11030466B2 (en) * 2018-02-11 2021-06-08 Nortek Security & Control Llc License plate detection and recognition system
US10650238B2 (en) * 2018-03-28 2020-05-12 Boohma Technologies Llc Opportunity to view an object in image processing
EP3779872A4 (en) * 2018-04-05 2021-05-19 Koito Manufacturing Co., Ltd. WORK PROCESSING DEVICE, OBJECT IDENTIFICATION SYSTEM, LEARNING PROCEDURE, AUTOMOTIVE AND LIGHTING DEVICE FOR VEHICLE
GB201806685D0 (en) * 2018-04-24 2018-06-06 Metail Ltd System and method for automatically enhancing the photo realism of a digital image
US10922793B2 (en) * 2018-05-16 2021-02-16 Nvidia Corporation Guided hallucination for missing image content using a neural network
US10936920B2 (en) * 2018-06-17 2021-03-02 Uber Technologies, Inc. Determining geographical map features with multi-sensor input
US20210312725A1 (en) * 2018-07-14 2021-10-07 Moove.Ai Vehicle-data analytics
KR102192899B1 (ko) * 2018-08-16 2020-12-18 주식회사 날비컴퍼니 이미지에 보케 효과를 적용하는 방법 및 기록매체
DK180774B1 (en) * 2018-10-29 2022-03-04 Motional Ad Llc Automatic annotation of environmental features in a map during navigation of a vehicle
US10940863B2 (en) * 2018-11-01 2021-03-09 GM Global Technology Operations LLC Spatial and temporal attention-based deep reinforcement learning of hierarchical lane-change policies for controlling an autonomous vehicle
KR20200052182A (ko) * 2018-11-06 2020-05-14 한국전자통신연구원 딥러닝 모델 압축 및 압축 해제 방법 그리고 장치
JP7110929B2 (ja) * 2018-11-16 2022-08-02 富士通株式会社 知識補完プログラム、知識補完方法および知識補完装置
US11036986B2 (en) * 2019-02-08 2021-06-15 Lyft, Inc. Systems and methods for aligning map data
CA3074064A1 (en) * 2019-03-01 2020-09-01 The Regents Of The University Of California Systems, methods, and media for automatically segmenting and diagnosing prostate lesions using multi-parametric magnetic resonance imaging data
WO2020190821A1 (en) * 2019-03-15 2020-09-24 Genentech, Inc. Deep convolutional neural networks for tumor segmentation with positron emission tomography
CN111818346B (zh) * 2019-04-11 2023-04-18 富士通株式会社 图像编码方法和装置、图像解码方法和装置
US11354914B1 (en) * 2019-06-06 2022-06-07 Zoox, Inc. Optimizing data levels for processing, transmission, or storage based on location information
WO2020257366A1 (en) * 2019-06-17 2020-12-24 DeepMap Inc. Updating high definition maps based on lane closure and lane opening
US11327497B2 (en) * 2019-06-21 2022-05-10 Volkswagen Ag Autonomous transportation vehicle image augmentation
WO2021030414A1 (en) * 2019-08-12 2021-02-18 Nvidia Corporation Automatic high beam control for autonomous machine applications
US20210073446A1 (en) * 2019-09-06 2021-03-11 BeamUp. Ltd. Structural design systems and methods for generating an actionable room index using modeling and simulation
US11900244B1 (en) * 2019-09-30 2024-02-13 Amazon Technologies, Inc. Attention-based deep reinforcement learning for autonomous agents
US20210097691A1 (en) * 2019-09-30 2021-04-01 Nvidia Corporation Image generation using one or more neural networks
US11037531B2 (en) * 2019-10-24 2021-06-15 Facebook Technologies, Llc Neural reconstruction of sequential frames
US11100667B2 (en) * 2019-10-30 2021-08-24 Wing Aviation Llc Systems and methods for generating annotations of structured, static objects in aerial imagery using geometric transfer learning and probabilistic localization
US11727587B2 (en) * 2019-11-12 2023-08-15 Geomagical Labs, Inc. Method and system for scene image modification
US11280630B2 (en) * 2019-11-27 2022-03-22 Zoox, Inc. Updating map data
US11430087B2 (en) * 2019-12-20 2022-08-30 Zoox, Inc. Using maps comprising covariances in multi-resolution voxels
US11796338B2 (en) * 2019-12-31 2023-10-24 Gm Cruise Holdings Llc Automated semantic mapping
US11244500B2 (en) * 2019-12-31 2022-02-08 Woven Planet North America, Inc. Map feature extraction using overhead view images
US11288522B2 (en) * 2019-12-31 2022-03-29 Woven Planet North America, Inc. Generating training data from overhead view images
US20210199446A1 (en) * 2019-12-31 2021-07-01 Lyft, Inc. Overhead view image generation
AU2021213243A1 (en) * 2020-01-31 2022-09-22 Hover Inc. Techniques for enhanced image capture using a computer-vision network
DE102020202350A1 (de) * 2020-02-24 2021-08-26 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Unterstützen einer Manöverplanung für ein automatisiert fahrendes Fahrzeug oder einen Roboter
US20210278852A1 (en) * 2020-03-05 2021-09-09 Uatc, Llc Systems and Methods for Using Attention Masks to Improve Motion Planning
US11481913B2 (en) * 2020-03-11 2022-10-25 Gm Cruise Holdings Llc LiDAR point selection using image segmentation
US11176823B2 (en) * 2020-03-30 2021-11-16 Ford Global Technologies, Llc Enhanced vehicle operation
US11488353B2 (en) * 2020-03-31 2022-11-01 Woven Planet North America, Inc. Manual curation tool for map data using aggregated overhead views
US20210319539A1 (en) * 2020-04-13 2021-10-14 GE Precision Healthcare LLC Systems and methods for background aware reconstruction using deep learning
US11430182B1 (en) * 2021-03-09 2022-08-30 Pony Ai Inc. Correcting or expanding an existing high-definition map
JP2022138187A (ja) * 2021-03-10 2022-09-26 富士通株式会社 画像分割プログラム、画像分割装置、及びモデル生成方法
US11367289B1 (en) 2021-07-16 2022-06-21 Motional Ad Llc Machine learning-based framework for drivable surface annotation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116394276A (zh) * 2023-06-06 2023-07-07 帕西尼感知科技(张家港)有限公司 一种样本生成、模型训练方法、装置及系统
CN116394276B (zh) * 2023-06-06 2023-08-15 帕西尼感知科技(张家港)有限公司 一种样本生成、模型训练方法、装置及系统

Also Published As

Publication number Publication date
GB2609060A (en) 2023-01-25
GB2609060B (en) 2023-12-20
US20230016246A1 (en) 2023-01-19
DE102022100213A1 (de) 2023-01-19
US11367289B1 (en) 2022-06-21
US12056935B2 (en) 2024-08-06
KR20230012953A (ko) 2023-01-26

Similar Documents

Publication Publication Date Title
CN112801124B (zh) 用于运载工具的方法和系统
EP3651064B1 (en) Deep learning for object detection using pillars
CN111104849B (zh) 运载工具的导航期间的、地图中的环境特征的自动注释
CN113012187A (zh) 使用曲面拟合的前景提取
US12056935B2 (en) Machine learning-based framework for drivable surface annotation
CN111102986A (zh) 用于运载工具导航的尺寸缩小的地图的自动生成以及时空定位
KR102588954B1 (ko) Lidar 시맨틱 네트워크를 사용한 지평면 추정
CN113654564A (zh) 用于运载工具的方法
CN112986979A (zh) 使用融合的照相机/LiDAR数据点的自动对象标注
CN114255260A (zh) 使用道路网络模型的轨迹生成方法和系统
CN113970924A (zh) 用于运载工具的方法和系统
CN115565149A (zh) 用于对象检测的方法、运载工具和存储介质
CN115705693A (zh) 用于传感器数据的标注的方法、系统和存储介质
KR102639022B1 (ko) 운전 가능 영역 검출을 사용한 운행
US20230168100A1 (en) Automatic annotation of drivable road segments
CN113056715B (zh) 用于操作运载工具的方法、运载工具和存储介质
CN115201854A (zh) 用于运载工具的方法、运载工具和存储介质
US20240132112A1 (en) Path-based trajectory prediction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination