CN112989909A - 用于地图增强的道路属性检测和分类 - Google Patents

用于地图增强的道路属性检测和分类 Download PDF

Info

Publication number
CN112989909A
CN112989909A CN202011412945.6A CN202011412945A CN112989909A CN 112989909 A CN112989909 A CN 112989909A CN 202011412945 A CN202011412945 A CN 202011412945A CN 112989909 A CN112989909 A CN 112989909A
Authority
CN
China
Prior art keywords
image
perspective
neural network
features
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011412945.6A
Other languages
English (en)
Inventor
D.沃斯坦迪格
M.A.洛什
O.布兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN112989909A publication Critical patent/CN112989909A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种生成用于交通工具自主驾驶的增强地图的系统和方法包括获取第一视角的图像,并训练第一神经网络以识别和分类与第一视角的图像中的属性相关的特征。方法还包括将特征投射到以第二视角获取的图像上,并且基于所述特征训练第二神经网络以在第二视角图像中识别所述属性。通过将属性添加到第二视角的地图图像来生成增强地图。

Description

用于地图增强的道路属性检测和分类
技术领域
本主题公开涉及用于地图增强的道路属性检测和分类。
背景技术
交通工具(例如汽车、卡车、建筑设备、农业设备、自动化工厂设备)包括越来越多的自主操作。自主操作和半自主操作(例如碰撞避免、自适应巡航控制、自动制动)要求交通工具控制器能够访问关于道路、方向、交通工具及其环境的信息。传感器(例如雷达系统、激光雷达系统、摄像头、惯性测量单元、加速度计)可用于确定交通工具状态以及关于其附近的其他交通工具或障碍物的信息。详细的地图可用于引导交通工具沿着路线到达目的地。当航拍图像用于生成用于半自主或自主操作的地图时,某些被遮挡的或不清晰的特征可能会对交通工具操作产生负面影响。因此,期望提供用于地图增强的道路属性检测和分类。
发明内容
在一个示例性实施例中,一种生成用于交通工具自主驾驶的增强地图的方法包括获取第一视角的图像,以及训练第一神经网络以识别和分类与第一视角的图像中的属性相关的特征。该方法还包括将所述特征投射到在第二视角获取的图像上,并且基于所述特征训练第二神经网络以在第二视角图像中识别属性。通过将属性添加到第二视角的地图图像来生成增强地图。
除了这里描述的一个或多个特征之外,获取第一视角的图像包括获取街道水平图像。
除了这里描述的一个或多个特征之外,该方法还包括使用交通工具的一个或多个摄像头来获取街道水平图像。
除了这里描述的一个或多个特征之外,获取第二视角的图像包括获取航拍图像。
除了这里描述的一个或多个特征之外,识别属性包括识别道路边缘。
除了这里描述的一个或多个特征之外,识别和分类特征基于道路边缘的类型,所述特征包括障碍物、墙壁或表面变化。
除了在此描述的一个或多个特征之外,该方法还包括训练第三神经网络,以在没有特征的第二视角图像中识别属性。
除了这里描述的一个或多个特征之外,训练第三神经网络包括使用第二神经网络的输出。
除了这里描述的一个或多个特征之外,训练第一神经网络、第二神经网络和第三神经网络是指训练同一神经网络。
除了这里描述的一个或多个特征之外,训练第一神经网络和第二神经网络是指训练同一神经网络。
在另一示例性实施例中,生成用于交通工具自主驾驶的增强地图的系统包括存储第一视角的图像和第二视角的图像的存储装置。该系统还包括处理器,用于训练第一神经网络以识别和分类与第一视角的图像中的属性相关的特征,将特征投射到第二视角的图像上,训练第二神经网络以基于所述特征识别第二视角的图像中的属性,以及通过将所述属性添加到第二视角的地图图像来生成增强地图。
除了这里描述的一个或多个特征之外,第一视角的图像是街道水平图像。
除了这里描述的一个或多个特征之外,该系统还包括交通工具的一个或多个摄像头,以获取街道水平图像。
除了这里描述的一个或多个特征之外,第二视角的图像是航拍图像。
除了这里描述的一个或多个特征之外,所述属性是道路边缘。
除了这里描述的一个或多个特征之外,所述特征基于道路边缘的类型,并且所述特征包括障碍物、墙壁或表面变化。
除了这里描述的一个或多个特征之外,处理器训练第三神经网络,以在没有所述特征的第二视角图像中识别所述属性。
除了这里描述的一个或多个特征之外,处理器使用第二神经网络的输出来训练第三神经网络。
除了这里描述的一个或多个特征之外,第一神经网络、第二神经网络和第三神经网络是同一神经网络。
除了这里描述的一个或多个特征之外,第一神经网络和第二神经网络是同一神经网络。
当结合附图时,根据以下详细描述,本公开的上述特征和优点以及其他特征和优点将变得显而易见。
附图说明
其他特征、优点和细节仅作为示例出现在以下详细描述中,所述详细描述参考附图进行,其中:
图1是根据一个或多个实施例的执行用于地图增强的道路属性检测和分类的交通工具的框图;
图2是根据一个或多个实施例的通过道路属性检测和分类来执行地图增强的方法的流程图;
图3是根据一个或多个实施例的通过道路属性检测和分类来执行地图增强的方法的流程图;和
图4示出了根据一个或多个实施例生成的示例性增强地图。
具体实施方式
以下描述本质上仅仅是示例性的,并不旨在限制本公开、其应用或使用。应当理解,在所有附图中,相应的附图标记表示相似或相应的部件和特征。
如前所述,交通工具的自主或半自主操作需要来自传感器和地图的信息。与人类驾驶员使用的地图不同,用于自主或半自主操作的地图必须指示对于正在观察道路的人类驾驶员来说可能是足够显而易见的属性。这里讨论的这些人类可命名属性中的一个示例性属性是道路边缘。使用航拍图像生成的地图可能无法清楚地指示道路属性,如道路边缘。例如,由于阴影或基于视角,用于识别道路边缘属性的特征可能不容易辨别。本文详述的系统和方法的实施例涉及用于地图增强的道路属性检测和分类。使用一个或多个深度学习神经网络。深度学习神经网络实现了一种识别特征并对其进行分类的机器学习。
根据示例性实施例,图1是执行道路属性检测和分类以用于地图增强的交通工具100的框图。图1所示的示例性交通工具100是汽车101。交通工具100被示出具有三个摄像头120和其他传感器140(例如,雷达系统、激光雷达系统、交通工具操作传感器、全球定位系统(GPS))和控制器110。摄像头120、其他传感器140和控制器110的数量和位置不旨在受示例性图示的限制。用户界面130(例如信息娱乐系统)包括显示器并且可以另外包括输入机构(例如语音输入、触摸屏)。控制器110可以基于来自摄像头120和其他传感器140的信息来控制交通工具100的操作。
根据示例性实施例,控制器110还可以执行用于地图增强的道路属性检测和分类。根据替代实施例,用于地图增强的道路属性检测和分类可以由外部控制器基于从一个或多个交通工具100的摄像头120获取的图像来执行。控制器110或外部控制器可以包括处理电路,该处理电路可以包括专用集成电路、电子电路、处理器(共享的、专用的或成组的)和执行一个或多个软件或固件程序的存储器、组合逻辑电路和/或提供所述功能的其他合适的组件。例如,控制器110的一个或多个存储装置可以存储图像和指令,而控制器110的一个或多个处理器实现这里讨论的一个或多个神经网络。
图2是根据一个或多个实施例的通过道路属性检测和分类来执行地图增强的方法200的过程流程。在框210,获取街道水平图像包括从交通工具100的一个或多个摄像头120获取图像。根据示例性实施例,感兴趣的属性可以是道路边缘410(图4)。在这种情况下,街道水平图像可以来自交通工具100的已知的邻近道路边缘的一侧上的摄像头120。可以获取示出了具有不同特征的道路边缘410(例如表面的变化(例如人行道上的泥土或草)、路缘、障碍物、墙壁)的许多图像(例如800幅图像)。神经网络NN1 220被训练来识别和分类特征。通常,神经网络NN1 220像任何深度学习神经网络一样,包括输入层222、隐藏层225和输出层227。一旦被训练,神经网络NN1 220识别并分类与感兴趣的属性相关的特征(例如与道路边缘相关的特征)。
在框230,获取特征分类有助于确定感兴趣属性的位置。例如,道路边缘的障碍物可以由神经网络NN1 220识别和分类。也就是说,神经网络NN1 220输出的特征基于道路边缘的类型而不同。神经网络NN1 220的输出允许道路边缘410位于街道水平图像上。在框235,可以执行由神经网络NN1 220输出的特征分类的可选人工检查。例如,特征识别热图可以通过用由神经网络NN1 220识别的颜色编码特征来增强源图像(在框210)而开发。用户界面130可用于方便人类检查。
在有或没有人工确认的情况下(在框235),在框240,由神经网络NN1 220识别和分类的特征可以被投射到与在框210获取的街道水平图像中的场景相对应的航拍图像上。在框250,神经网络NN2 250被训练成使用投射到航拍图像上的特征来输出用于生成增强地图400(图4)的三维道路边缘线,在框260。一旦被训练,神经网络NN2 250将街道水平视图(或更一般地,第一视角视图)中的识别特征转换成相应的鸟瞰视图(或更一般地,第二视角视图)中的识别特征。第二视图(例如鸟瞰视图)对应于地图视图。因此,在航拍图像中确定的道路边缘线可以作为道路边缘410被添加到相应的地图视图,以生成增强地图400。尽管图3中示出了两个独立的神经网络NN1 220和NN2 250,但相同的神经网络NN1 220可以被进一步训练,以执行针对神经网络NN1 220和NN2 250讨论的功能。
图3是根据一个或多个实施例的通过道路属性检测和分类来执行地图增强的方法300的过程流程。在框310,图3所示的过程可以从在框260生成增强地图400(图4)开始,如参考图2所讨论的。在框320,获取航拍图像包括获取未增强的或新的图像。在框340,训练神经网络NN3 330以生成增强地图400。可以基于道路边缘的类型应用规则来定位道路边缘属性。例如,当识别和分类的特征与墙壁相关时,作为增强地图400的一部分被输出的道路边缘线可以在特征位置的内部,以确保交通工具100不接触墙壁。当识别和分类的特征与草相关时,输出的道路边缘线可以在草线的位置。一旦被训练,神经网络NN3 330可以从航拍图像在没有任何增强的情况下生成增强地图400。神经网络NN3 330可以由图1所示的神经网络NN1 220或NN2 250之一的进一步训练产生。
也就是说,单个神经网络NN1 220可以被训练成从在框210获取的街道水平图像输出特征,被训练成在框260基于所述特征在框240在航拍图像上的投射生成增强地图,并且被训练成在框340从在框320获取的未增强的航拍图像生成增强地图。即使最终仅使用单独的神经网络NN3 330,神经网络NN3 330也受益于其训练包括在框260使用街道水平图像(在框210获取)生成的增强地图的事实。虽然出于解释的目的讨论了街道水平和航拍图像,但是根据替代实施例,可以考虑其他视角视图,具体地说,使用从一个视角视图获取的图像来增强另一个视角视图的图像。
图4示出了根据一个或多个实施例生成的示例性增强地图400。在框260,神经网络NN2 250可以使用由神经网络NN1 220输出的特征分类的投射(在框230)作为输入来生成增强地图400。替代地,增强地图400可以由使用增强地图训练的神经网络NN3 330基于未增强的航拍图像(在框320获取)来生成(在框260)。增强地图400包括道路边缘410的指示。
虽然已经参考示例性实施例描述了上述公开,但是本领域技术人员将理解,在不脱离本发明的范围的情况下,可以进行各种改变,并且等同物可以替代其元件。此外,在不脱离本公开的基本范围的情况下,可以进行许多修改以使特定情况或材料适应本公开的教导。因此,意图是本公开不限于所公开的特定实施例,而是将包括落入其范围内的所有实施例。

Claims (10)

1.一种生成用于交通工具自主驾驶的增强地图的方法,该方法包括:
获取第一视角的图像;
训练第一神经网络,以在第一视角的图像中识别并分类与属性相关的特征;
将所述特征投射到以第二视角获取的图像上;
基于所述特征训练第二神经网络,以在第二视角的图像中识别所述属性;和
通过将属性添加到第二视角的地图图像来生成增强地图。
2.根据权利要求1所述的方法,其中获取第一视角的图像包括获取街道水平图像。
3.根据权利要求2所述的方法,还包括使用交通工具的一个或多个摄像头来获取街道水平图像,其中获取第二视角的图像包括获取航拍图像。
4.根据权利要求1所述的方法,其中识别属性包括识别道路边缘,并且基于道路边缘的类型来识别和分类特征,所述特征包括障碍物、墙壁或表面变化。
5.根据权利要求1所述的方法,还包括训练第三神经网络以在没有所述特征的第二视角的图像中识别属性,其中训练第三神经网络包括使用第二神经网络的输出。
6.一种生成用于交通工具自主驾驶的增强地图的系统,该系统包括:
存储装置,被配置为存储第一视角的图像和第二视角的图像;和
处理器,被配置为训练第一神经网络以在第一视角的图像中识别和分类与属性相关的特征,将特征投射到第二视角的图像上,训练第二神经网络以基于所述特征识别第二视角的图像中的属性,并且通过将所述属性添加到第二视角的地图图像来生成增强地图。
7.根据权利要求6所述的系统,其中第一视角的图像是街道水平图像。
8.根据权利要求7所述的系统,还包括交通工具的一个或多个摄像头,所述一个或多个摄像头被配置成获取街道水平图像,其中第二视角的图像是航拍图像。
9.根据权利要求6所述的系统,其中所述属性是道路边缘,并且所述特征基于道路边缘的类型,并且所述特征包括障碍物、墙壁或表面变化。
10.根据权利要求6所述的系统,其中所述处理器还被配置为训练第三神经网络,以在没有所述特征的第二视角的图像中识别所述属性,并且所述处理器被配置为使用所述第二神经网络的输出来训练所述第三神经网络。
CN202011412945.6A 2019-12-17 2020-12-04 用于地图增强的道路属性检测和分类 Pending CN112989909A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/717,678 US20210180960A1 (en) 2019-12-17 2019-12-17 Road attribute detection and classification for map augmentation
US16/717,678 2019-12-17

Publications (1)

Publication Number Publication Date
CN112989909A true CN112989909A (zh) 2021-06-18

Family

ID=76085304

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011412945.6A Pending CN112989909A (zh) 2019-12-17 2020-12-04 用于地图增强的道路属性检测和分类

Country Status (3)

Country Link
US (1) US20210180960A1 (zh)
CN (1) CN112989909A (zh)
DE (1) DE102020130513A1 (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014199859A1 (ja) * 2013-06-11 2014-12-18 株式会社ジオ技術研究所 3次元地図表示システム
CN106295607A (zh) * 2016-08-19 2017-01-04 北京奇虎科技有限公司 道路识别方法及装置
US20170287170A1 (en) * 2016-04-01 2017-10-05 California Institute Of Technology System and Method for Locating and Performing Fine Grained Classification from Multi-View Image Data
CN107451526A (zh) * 2017-06-09 2017-12-08 蔚来汽车有限公司 地图的构建及其应用
US20180040137A1 (en) * 2015-09-17 2018-02-08 Skycatch, Inc. Generating georeference information for aerial images
US9940729B1 (en) * 2016-11-18 2018-04-10 Here Global B.V. Detection of invariant features for localization
CN108229522A (zh) * 2017-03-07 2018-06-29 北京市商汤科技开发有限公司 神经网络的训练方法、属性检测方法、装置及电子设备
CN109374008A (zh) * 2018-11-21 2019-02-22 深动科技(北京)有限公司 一种基于三目摄像头的图像采集系统及方法
CN109643125A (zh) * 2016-06-28 2019-04-16 柯尼亚塔有限公司 用于训练自动驾驶系统的逼真的3d虚拟世界创造与模拟
CN109737983A (zh) * 2019-01-25 2019-05-10 北京百度网讯科技有限公司 用于生成行驶路径的方法和装置
US20190146511A1 (en) * 2017-11-13 2019-05-16 Smart Ag, Inc. Safety system for autonomous operation of off-road and agricultural vehicles using machine learning for detection and identification of obstacles
WO2019182782A1 (en) * 2018-03-21 2019-09-26 Zoox, Inc. Generating maps without shadows

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014199859A1 (ja) * 2013-06-11 2014-12-18 株式会社ジオ技術研究所 3次元地図表示システム
US20180040137A1 (en) * 2015-09-17 2018-02-08 Skycatch, Inc. Generating georeference information for aerial images
US20170287170A1 (en) * 2016-04-01 2017-10-05 California Institute Of Technology System and Method for Locating and Performing Fine Grained Classification from Multi-View Image Data
CN109643125A (zh) * 2016-06-28 2019-04-16 柯尼亚塔有限公司 用于训练自动驾驶系统的逼真的3d虚拟世界创造与模拟
CN106295607A (zh) * 2016-08-19 2017-01-04 北京奇虎科技有限公司 道路识别方法及装置
US9940729B1 (en) * 2016-11-18 2018-04-10 Here Global B.V. Detection of invariant features for localization
CN108229522A (zh) * 2017-03-07 2018-06-29 北京市商汤科技开发有限公司 神经网络的训练方法、属性检测方法、装置及电子设备
CN107451526A (zh) * 2017-06-09 2017-12-08 蔚来汽车有限公司 地图的构建及其应用
US20190146511A1 (en) * 2017-11-13 2019-05-16 Smart Ag, Inc. Safety system for autonomous operation of off-road and agricultural vehicles using machine learning for detection and identification of obstacles
WO2019182782A1 (en) * 2018-03-21 2019-09-26 Zoox, Inc. Generating maps without shadows
CN109374008A (zh) * 2018-11-21 2019-02-22 深动科技(北京)有限公司 一种基于三目摄像头的图像采集系统及方法
CN109737983A (zh) * 2019-01-25 2019-05-10 北京百度网讯科技有限公司 用于生成行驶路径的方法和装置

Also Published As

Publication number Publication date
US20210180960A1 (en) 2021-06-17
DE102020130513A1 (de) 2021-06-17

Similar Documents

Publication Publication Date Title
EP3732657B1 (en) Vehicle localization
JP6672212B2 (ja) 情報処理装置、車両、情報処理方法およびプログラム
US10133273B2 (en) Location specific assistance for autonomous vehicle control system
JP6800575B2 (ja) 自己の乗り物のドライバを支援する方法およびシステム
CN111918053A (zh) 车辆图像验证
US20220057806A1 (en) Systems and methods for obstacle detection using a neural network model, depth maps, and segmentation maps
GB2558716A (en) Road sign recognition
US10553117B1 (en) System and method for determining lane occupancy of surrounding vehicles
DE112019001657T5 (de) Signalverarbeitungsvorrichtung und signalverarbeitungsverfahren, programm und mobiler körper
CN110214106B (zh) 可操作用于确定车道的一部分的位置的装置
US11204610B2 (en) Information processing apparatus, vehicle, and information processing method using correlation between attributes
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
DE112018004507T5 (de) Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
CN113228040A (zh) 多级对象行进方向估计
JP2020060369A (ja) 地図情報システム
CN112394725A (zh) 用于自动驾驶的基于预测和反应视场的计划
CN111348043A (zh) 用于确定理想化超车过程的方法和设备
JP2020086545A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
CN112937582A (zh) 改进车道改变检测的系统、非暂态计算机可读介质和方法
CN115705780A (zh) 关联被感知和映射的车道边缘以进行定位
US20220371614A1 (en) Ads perception development
US20230098314A1 (en) Localizing and updating a map using interpolated lane edge data
CN112989909A (zh) 用于地图增强的道路属性检测和分类
US10916026B2 (en) Systems and methods of determining stereo depth of an object using object class information
US20240037961A1 (en) Systems and methods for detecting lanes using a segmented image and semantic context

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20240329