CN111902694A - 用于确定导航参数的系统和方法 - Google Patents

用于确定导航参数的系统和方法 Download PDF

Info

Publication number
CN111902694A
CN111902694A CN201980021805.5A CN201980021805A CN111902694A CN 111902694 A CN111902694 A CN 111902694A CN 201980021805 A CN201980021805 A CN 201980021805A CN 111902694 A CN111902694 A CN 111902694A
Authority
CN
China
Prior art keywords
vehicle
host vehicle
road
image
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980021805.5A
Other languages
English (en)
Inventor
I.戈林斯基
I.汉尼尔
M.谢恩费尔德
Y.哈科恩
G.斯坦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mobileye Vision Technologies Ltd
Original Assignee
Mobileye Vision Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mobileye Vision Technologies Ltd filed Critical Mobileye Vision Technologies Ltd
Publication of CN111902694A publication Critical patent/CN111902694A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3844Data obtained from position sensors only, e.g. from inertial navigation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096758Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where no selection takes place on the transmitted or the received information
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

一种用于导航主车辆的系统可以包含至少一个处理装置。该至少一个处理装置可以被编程为从图像捕获装置接收表示主车辆的环境的至少一个图像。该至少一个处理装置还可以被编程为分析至少一个图像以识别主车辆的环境中的对象。该至少一个处理装置还可以被编程以确定主车辆的位置。该至少一个处理装置还可以被编程为接收与主车辆的确定的位置相关联的地图信息,其中所述地图信息包含与主车辆的环境相关联的标高信息。该至少一个处理装置还可以被编程为至少基于标高信息来确定从主车辆到对象的距离。该至少一个处理装置还可以被编程为基于确定的距离来确定主车辆的导航动作。

Description

用于确定导航参数的系统和方法
相关申请的交叉引用
本申请要求于2018年4月3日提交的美国临时专利申请No.62/652,029以及于2018年4月3日提交的美国临时专利申请No.62/652,039的优先权权益。前述申请的全部内容通过引用整体并入本文。
技术领域
本公开总体上涉及自主车辆导航。
背景技术
随着技术的不断进步,能够在道路上导航的完全自主车辆的目标即将出现。自主车辆可能需要考虑各种各样的因素,并且基于那些因素做出适当的决定,以安全和准确地到达预期的目的地。例如,自主车辆可能需要处理和解释可视信息(例如,从相机捕获的信息)、来自雷达或激光雷达的信息,并且也可能使用从其他源(例如,从GPS装置、速度传感器、加速度计、悬架传感器等)获得的信息。同时,为了导航到目的地,自主车辆可能还需要识别其在特定道路(例如,多车道道路中的具体车道)内的位置,与其他车辆并排导航,避开障碍物和行人,观察交通信号和标志,并在适当的交叉路口或交汇处从一条道路行驶到另一条道路。当自主车辆行驶到其目的地时利用(harness)和解释由该车辆收集的大量信息造成了许多设计挑战。自主车辆可能需要分析、访问和/或储存的海量数据(例如,捕获的图像数据、地图数据、GPS数据、传感器数据等)造成了实际上可能限制甚至不利地影响自主导航的挑战。此外,如果自主车辆依靠传统的绘制(mapping)技术来导航,那么存储和更新地图所需的海量数据将造成巨大的挑战。
发明内容
与本公开一致的实施例提供了用于自主车辆导航的系统和方法。所公开的实施例可以使用相机来提供自主车辆导航特征。例如,与所公开的实施例一致,所公开的系统可以包含一个、两个或更多个监控车辆的环境的相机。所公开的系统可以基于,例如对由一个或多个相机捕获的图像的分析来提供导航响应。
与所公开的实施例一致,提供了一种用于导航主车辆的系统。系统可以包含至少一个处理装置。该至少一个处理装置可以被编程为从图像捕获装置接收表示主车辆的环境的至少一个图像。该至少一个处理装置还可以被编程为分析至少一个图像以在主车辆的环境中识别对象。该至少一个处理装置还可以被编程以确定主车辆的位置。该至少一个处理装置还可以被编程为接收与确定的主车辆的位置相关联的地图信息,其中该地图信息包含与主车辆的环境相关联的标高(elevation)信息。该至少一个处理装置还可以被编程为至少基于标高信息来确定从主车辆到对象的距离。该至少一个处理装置还可以被编程为基于确定的距离来确定主车辆的导航动作。
与所公开的实施例一致,提供了一种用于导航主车辆的方法。该方法可以包含从图像捕获装置接收表示主车辆的环境的至少一个图像。该方法还可以包含分析至少一个图像以在主车辆的环境中识别对象。该方法还可以包含确定主车辆的位置。该方法还可以包含接收与确定的主车辆的位置相关联的地图信息,其中所述地图信息包含与主车辆的环境相关联的标高信息。该方法还可以包含至少基于标高信息来确定从主车辆到对象的距离。该方法还可以包含基于确定的距离来确定主车辆的导航动作。
与所公开的实施例一致,提供了一种用于导航主车辆的系统。系统可以包含至少一个处理装置。该至少一个处理装置可以被编程为从图像捕获装置接收表示主车辆的环境的至少一个图像。该至少一个处理装置还可以被编程为分析至少一个图像以在主车辆的环境中识别对象。该至少一个处理装置还可以被编程以确定主车辆的位置。该至少一个处理装置还可以被编程为接收与确定的主车辆的位置相关联的地图信息,其中该地图信息包含与主车辆的环境中的道路相关联的车道宽度信息。该至少一个处理装置还可以被编程为至少基于车道宽度信息来确定从主车辆到对象的距离。该至少一个处理装置还可以被编程为基于确定的距离来确定主车辆的导航动作。
与所公开的实施例一致,提供了一种用于导航主车辆的方法。该方法可以包含从图像捕获装置接收表示主车辆的环境的至少一个图像。该方法还可以包含分析至少一个图像以在主车辆的环境中识别对象。该方法还可以包含确定主车辆的位置。该方法还可以包含接收与确定的主车辆的位置相关联的地图信息,其中该地图信息包含与主车辆的环境中的道路相关联的车道宽度信息。该方法还可以包含至少基于车道宽度信息来确定从主车辆到对象的距离。该方法还可以包含基于确定的距离来确定主车辆的导航动作。
与所公开的实施例一致,提供了一种用于导航主车辆的系统。系统可以包含至少一个处理装置。该至少一个处理装置可以被编程为从图像捕获装置接收表示主车辆的环境的至少一个图像。该至少一个处理装置还可以被编程为分析多个图像中的至少一个图像以在车辆的环境中识别第一对象,其中第一对象和第一对象所位于的道路至少部分地被车辆的环境中的第二对象遮挡。该至少一个处理装置还可以被编程为基于多个图像中的至少两个图像来确定第一对象的比例改变信息。该至少一个处理装置还可以被编程为基于确定的第一对象的比例改变信息,确定第一对象相对于第一对象所位于的道路的车道的车道位置。该至少一个处理装置还可以被编程为基于确定的第一对象的车道位置来确定主车辆的导航动作。
与所公开的实施例一致,提供了一种用于导航主车辆的方法。该方法可以包含从图像捕获装置接收表示主车辆的环境的多个图像。该方法还可以包含分析多个图像中的至少一个图像以在车辆的环境中识别第一对象,其中第一对象和第一对象所位于的道路至少部分地被车辆的环境中的第二对象遮挡。该方法还可以包含基于多个图像中的至少两个图像来确定第一对象的比例改变信息。该方法还可以包含基于确定的第一对象的比例改变信息,确定第一对象相对于第一对象所位于的道路的车道的车道位置。该方法还可以包含基于确定的第一对象的车道位置来确定主车辆的导航动作。
与所公开的实施例一致,提供了一种用于导航主车辆的系统。系统可以包含至少一个处理装置。该至少一个处理装置可以被编程为从图像捕获装置接收表示主车辆的环境的多个图像。该至少一个处理装置还可以被编程为分析多个图像中的至少一个图像,以在主车辆的环境中识别目标车辆。该至少一个处理装置还可以被编程为接收与主车辆的环境相关联的地图信息。该至少一个处理装置还可以被编程为基于对多个图像的分析来确定目标车辆在时间段内的轨迹。该至少一个处理装置还可以被编程为基于确定的目标车辆的轨迹和地图信息来确定目标车辆相对于主车辆的环境中的道路的位置。该至少一个处理装置还可以被编程为基于确定的目标车辆的位置来确定主车辆的导航动作。
与所公开的实施例一致,提供了一种用于导航主车辆的方法。该方法可以包含从图像捕获装置接收表示主车辆的环境的多个图像。该方法还可以包含分析多个图像中的至少一个图像,以在主车辆的环境中识别目标车辆。该方法还可以包含接收与主车辆的环境相关联的地图信息。该方法还可以包含基于对多个图像的分析来确定目标车辆在时间段内的轨迹。该方法还可以包含基于确定的目标车辆的轨迹和地图信息,确定目标车辆相对于主车辆的环境中的道路的位置。该方法还可以包含基于确定的目标车辆的位置来确定主车辆的导航动作。
与其他公开的实施例一致,非暂时性计算机可读存储介质可以储存由至少一个处理装置执行的程序指令,并且可以进行本文中所描述的任何方法。
前述的总体描述和下面的详细描述仅仅是示例性和说明性的,并不是对权利要求的限制。
附图说明
并入本公开中并构成本公开的一部分的附图图示了各种所公开的实施例。在附图中:
图1是与所公开的实施例一致的示例性系统的图示性表示。
图2A是包含与所公开的实施例一致的系统的示例性车辆的图示性侧视图表示。
图2B是与所公开的实施例一致的图2A中所示的车辆和系统的图示性顶视图表示。
图2C是包含与所公开的实施例一致的系统的车辆的另一实施例的图示性顶视图表示。
图2D是包含与所公开的实施例一致的系统的车辆的又一实施例的图示性顶视图表示。
图2E是包含与所公开的实施例一致的系统的车辆的又一实施例的图示性顶视图表示。
图2F是与所公开的实施例一致的示例性车辆控制系统的图示性表示。
图3A是与所公开的实施例一致的包含后视镜和用于车辆成像系统的用户界面的车辆的内部的图示性表示。
图3B是与所公开的实施例一致的配置为定位在后视镜后面并抵靠车辆风挡的相机安装的示例的图示。
图3C是与所公开的实施例一致的图3B中所示的相机安装从不同的视角的图示。
图3D是与所公开的实施例一致的配置为定位在后视镜后面并抵靠车辆风挡的相机安装的示例的图示。
图4是与所公开的实施例一致的配置为储存用于进行一个或多个操作的指令的存储器的示例性框图。
图5A是示出与所公开的实施例一致的用于基于单目图像分析来引起一个或多个导航响应的示例性过程的流程图。
图5B是示出与所公开的实施例一致的用于在一组图像中检测一个或多个车辆和/或行人的示例性过程的流程图。
图5C是示出与所公开的实施例一致的用于在一组图像中检测道路标记和/或车道几何结构信息的示例性过程的流程图。
图5D是示出与所公开的实施例一致的用于在一组图像中检测交通灯的示例性过程的流程图。
图5E是示出与所公开的实施例一致的用于基于车辆路径来引起一个或多个导航响应的示例性过程的流程图。
图5F是示出与所公开的实施例一致的用于确定前方车辆是否正在改变车道的示例性过程的流程图。
图6是示出与所公开的实施例一致的用于基于立体图像分析来引起一个或多个导航响应的示例性过程的流程图。
图7是示出与所公开的实施例一致的用于基于三组图像的分析来引起一个或多个导航响应的示例性过程的流程图。
图8示出了与所公开的实施例一致的用于提供自主车辆导航的稀疏地图。
图9A示出了与所公开的实施例一致的道路段的部分的多项式表示。
图9B示出了与所公开的实施例一致的三维空间中的曲线,该曲线表示稀疏地图中包含的特定道路段的车辆的目标轨迹。
图10示出了与所公开的实施例一致的可以包含在稀疏地图中的示例地标。
图11A示出了与所公开的实施例一致的轨迹的多项式表示。
图11B和11C示出了与所公开的实施例一致的沿着多车道道路的目标轨迹。
图11D示出了与所公开的实施例一致的示例道路签名(signature)轮廓(profile)。
图12是与所公开的实施例一致的系统的示意图示,该系统使用从多个车辆接收的众包(crowd sourcing)数据用于自主车辆导航。
图13示出了与所公开的实施例一致的由多个三维样条(spline)表示的示例自主车辆道路导航模型。
图14示出了与所公开的实施例一致的根据组合来自多个驾驶的位置信息而生成的地图骨架(skeleton)。
图15示出了与所公开的实施例一致的两个驾驶的纵向对齐的示例,其中示例标志作为地标。
图16示出了与所公开的实施例一致的具有作为地标的示例标志的多个驾驶的纵向对齐的示例。
图17是与所公开的实施例一致的用于使用相机、车辆和服务器生成驾驶数据的系统的示意图示。
图18是与所公开的实施例一致的用于众包稀疏地图的系统的示意图示。
图19是示出与所公开的实施例一致的用于生成用于沿着道路段的自主车辆导航的稀疏地图的示例性过程的流程图。
图20示出了与所公开的实施例一致的服务器的框图。
图21示出了与所公开的实施例一致的存储器的框图。
图22示出了与所公开的实施例一致的聚类与车辆相关联的车辆轨迹的过程。
图23示出了与所公开的实施例一致的用于车辆的导航系统,该导航系统可以用于自主导航。
图24示出了与所公开的实施例一致的存储器的框图。
图25A示出了与所公开的实施例一致的主车辆相对于道路上的对象的示例性定位。
图25B示出了与所公开的实施例一致的示例性接收图像。
图26是示出与所公开的实施例一致的用于导航主车辆的示例性过程的流程图。
图27A示出了与所公开的实施例一致的三维坐标中的两个示例性样条。
图27B示出了与所公开的实施例一致的示例性接收图像。
图28A示出了与所公开的实施例一致的三维坐标中的两个示例性样条。
图28B示出了与所公开的实施例一致的示例性接收图像。
图29A示出了与所公开的实施例一致的二维坐标中的示例性样条。
图29B示出了与所公开的实施例一致的三维坐标中的示例性样条。
图30示出了与所公开的实施例一致的投影到二维坐标的示例性样条。
图31示出了与所公开的实施例一致的Delaunay三角测量结果。
图32示出了与所公开的实施例一致的基于相机的定位投影到图像上的相关三角形。
图33是示出与所公开的实施例一致的用于导航主车辆的示例性过程的流程图。
图34A示出了与所公开的实施例一致的主车辆相对于道路上的对象的示例性定位。
图34B示出了与所公开的实施例一致的示例性接收图像。
图35A示出了与所公开的实施例一致的主车辆相对于道路上的对象的示例性定位。
图35B示出了与所公开的实施例一致的在t1和t2处的示例性接收图像。
图36A示出了与所公开的实施例一致的主车辆相对于道路上的对象的示例性定位。
图36B示出了与所公开的实施例一致的示例性接收图像。
图37是示出与所公开的实施例一致的用于导航主车辆的示例性过程的流程图。
图38A示出了与所公开的实施例一致的主车辆相对于道路上的对象的示例性定位。
图38B示出了与所公开的实施例一致的示例性接收图像。
图38C示出了与所公开的实施例一致的示出了接收图像中的目标车辆的位置(x)与宽度(w)之间的关系的示图。
图39A示出了与所公开的实施例一致的主车辆相对于道路上的对象的示例性定位。
图39B示出了与所公开的实施例一致的示例性接收图像。
图40A示出了与所公开的实施例一致的主车辆相对于道路上的对象的示例性定位。
图40B示出了与所公开的实施例一致的在t1处的示例性接收图像。
图40C示出了与所公开的实施例一致的在t2处的示例性接收图像。
图41是示出与所公开的实施例一致的用于导航主车辆的示例性过程的流程图。
图42是其中可以确定到检测到的目标车辆的距离的示例性驾驶场景的示图。
具体实施方式
以下的详细描述参考附图。只要可能,在附图和以下的描述中使用相同的参考标号来指代相同或相似的部分。虽然本文描述了数个说明性实施例,但是修改、改编和其他实现方式是可能的。例如,可以对附图中图示的组件做出替换、添加或修改,并且可以通过对所公开的方法进行步骤的替换、重新排序、移除或添加,来对本文所描述的说明性方法进行修改。因此,以下的详细描述并不限于所公开的实施例和示例。代替地,适当的范围由所附权利要求限定。
自主车辆概览
如贯穿本公开所使用的,术语“自主车辆”指代在没有驾驶员输入的情况下能够实现至少一个导航改变的车辆。“导航改变”指代车辆的转向、制动、或加速中的一个或多个改变。为了实现自主,车辆不需要是完全自动的(例如,在没有驾驶员或没有驾驶员输入的情况下完全可操作的)。相反,自主车辆包含能够在某些时间段期间在驾驶员的控制下操作,且在其他时间段期间无需驾驶员控制而操作那些车辆。自主车辆还可以包含仅控制车辆导航的一些方面的车辆,诸如转向(例如,在车辆车道限制之间维持车辆路线),但是可以将其他方面留给驾驶员(例如,制动)。在一些情况下,自主车辆可以处理车辆的制动、速度控制和/或转向中的一些或全部方面。
由于人类驾驶员通常依赖于可视线索和观察以便控制车辆,因此相应地建造了交通基础设施,其中车道标记、交通标志和交通灯所有都被设计为向驾驶员提供可视信息。鉴于交通基础设施的这些设计特性,自主车辆可以包含相机以及分析从车辆的环境捕获的可视信息的处理单元。可视信息可以包含,例如,可由驾驶员观察到的交通基础设施(例如,车道标记、交通标志、交通灯等)的组件以及其他障碍物(例如,其他车辆、行人、碎片等)。此外,自主车辆还可以使用储存的信息,诸如在导航时提供车辆环境的模型的信息。例如,车辆可以使用GPS数据、传感器数据(例如,来自加速度计、速度传感器、悬架传感器等)和/或其他地图数据,以在车辆正在行驶时提供与其环境相关的信息,并且该车辆(以及其他车辆)可以使用该信息在模型上对其自身定位。
在本公开的一些实施例中,自主车辆可以使用在导航时(从相机、GPS装置、加速度计、速度传感器、悬架传感器等)获得的信息。在其他实施例中,自主车辆可以在导航时使用从该车辆(或其他车辆)过去的导航中获得的信息。在其他实施例中,自主车辆可以使用在导航时获得的信息和从过去的导航中获得的信息的组合。以下部分提供了与所公开的实施例一致的系统的概述,随后是与该系统一致的前向成像系统和方法的概述。以下部分公开了用于构建、使用和更新用于自主车辆导航的稀疏地图的系统和方法。
系统概览
图1是与所公开的示例性实施例一致的表示系统100的框图。系统100可以取决于特定实现方式的要求而包含各种组件。在一些实施例中,系统100可以包含处理单元110,图像获取单元120,位置传感器130,一个或多个存储器单元140、150,地图数据库160,用户界面170和无线收发器172。处理单元110可以包含一个或多个处理装置。在一些实施例中,处理单元110可以包含应用处理器180、图像处理器190或任何其他合适的处理装置。类似地,图像获取单元120可以取决于特定应用的要求而包含任何数目的图像获取装置和组件。在一些实施例中,图像获取单元120可以包含一个或多个图像捕获装置(例如,相机),诸如图像捕获装置122、图像捕获装置124和图像捕获装置126。系统100还可以将处理装置110通信地连接到图像获取装置120的数据接口128。例如,数据接口128可以包含用于将由图像获取装置120获取的图像数据发送到处理单元110的任何有线和/或无线的一个或多个链路。
无线收发器172可以包含一个或多个装置,其被配置为通过使用射频、红外频率、磁场或电场通过空中接口将传输交换到一个或多个网络(例如,蜂窝、互联网等)。无线收发器172可以使用任何已知的标准来发送和/或接收数据(例如,Wi-Fi、
Figure BDA0002698723110000101
蓝牙智能、802.15.4、ZigBee等)。这样的传输可以包含从主车辆到一个或多个位于远处的服务器的通信。这样的传输还可以包含主车辆与主车辆环境中的一个或多个目标车辆之间(单向或双向)的通信(例如,以便于鉴于或连同在主车辆的环境中的目标车辆来协调主车辆的导航),或者甚至包含在发送车辆附近的向未指定的接收者的广播传输。
应用处理器180和图像处理器190两者都可以包含各种类型的基于硬件的处理装置。例如,应用处理器180和图像处理器190中的任一者或两者可以包含微处理器、预处理器(诸如图像预处理器)、图形处理器、中央处理单元(CPU)、支持电路、数字信号处理器、集成电路、存储器或者适用于运行应用和适用于图像处理和分析的任何其他类型的装置。在一些实施例中,应用处理器180和/或图像处理器190可以包含任何类型的单核或多核处理器、移动装置微控制器、中央处理单元等。可以使用各种处理装置,包含,例如,可以从诸如
Figure BDA0002698723110000102
等制造商获得的处理器或者可以从诸如
Figure BDA0002698723110000104
Figure BDA0002698723110000103
等制造商获得的GPU,并且可以包含各种架构(例如,x86处理器、
Figure BDA0002698723110000105
等)。
在一些实施例中,应用处理器180和/或图像处理器190可以包含可从
Figure BDA0002698723110000106
获得的任何EyeQ系列处理器芯片。这些处理器设计各自包含具有本地存储器和指令集的多个处理单元。这样的处理器可以包含用于从多个图像传感器接收图像数据的视频输入,并且还可以包含视频输出能力。在一个示例中,
Figure BDA0002698723110000107
使用在332Mhz下操作的90纳米-微米技术。
Figure BDA00026987231100001010
架构由两个浮点式超线程32位RISC CPU(
Figure BDA0002698723110000108
核)、五个视觉计算引擎(VCE)、三个矢量微代码处理器
Figure BDA0002698723110000109
丹那利(Denali)64位移动DDR控制器、128位内部超音速互连(Sonics Interconnect)、双16位视频输入和18位视频输出控制器、16通道DMA和数个外围设备组成。MIPS34K CPU管理这五个VCE、三个VMPTM和DMA、第二MIPS34K CPU和多通道DMA以及其他外围设备。这五个VCE、三个
Figure BDA00026987231100001011
和MIPS34K CPU可以进行多功能捆绑应用所需要的密集视觉计算。在另一个实例中,可以在所公开的实施例中使用作为第三代处理器并且比
Figure BDA00026987231100001012
强六倍的
Figure BDA00026987231100001013
在其他示例中,可以在所公开的实施例中使用
Figure BDA00026987231100001014
和/或
Figure BDA00026987231100001015
当然,任何更新的或未来的EyeQ处理装置也可以与所公开的实施例一起使用。
任何本文所公开的处理装置可以被配置为进行某些功能。配置处理装置(诸如任何所描述的EyeQ处理器或其他控制器或微处理器)以进行某些功能可以包含计算机可执行指令的编程并使这些指令可用于处理装置以在处理装置的操作期间执行。在一些实施例中,配置处理装置可以包含直接利用架构指令对处理装置进行编程。例如,可以使用例如一个或多个硬件描述语言(HDL)来配置诸如现场可编程门阵列(FPGA)、专用集成电路(ASIC)等的处理装置。
在其他实施例中,配置处理装置可以包含将可执行指令储存在操作期间处理装置可访问的存储器上。例如,处理装置在操作期间可以访问该存储器以获得并执行所储存的指令。在任一种情况下,配置为进行本文公开的感测、图像分析和/或导航功能的处理装置表示基于硬件的专用系统,其控制主车辆的多个基于硬件的组件。
虽然图1描绘了包含在处理单元110中的两个分离的处理装置,但是可以使用更多或更少的处理装置。例如,在一些实施例中,可以使用单个处理装置完成应用处理器180和图像处理器190的任务。在其他实施例中,可以由多于两个处理装置来进行这些任务。此外,在一些实施例中,系统100可以在不包含其他组件(诸如图像获取单元120)的情况下包含处理单元110中的一个或多个。
处理单元110可以包括各种类型的装置。例如,处理单元110可以包含各种装置,诸如控制器、图像预处理器、中央处理单元(CPU)、图形处理单元(GPU)、支持电路、数字信号处理器、集成电路、存储器或用于图像处理和分析的任何其他类型的装置。图像预处理器可以包含用于捕获、数字化和处理来自图像传感器的影像的视频处理器。CPU可以包括任何数目的微控制器或微处理器。GPU还可以包括任何数目的微控制器或微处理器。支持电路可以是本领域公知的任何数目的电路,包含高速缓存、电源,时钟和输入输出电路。存储器可以储存软件,该软件在由处理器执行时控制系统的操作。存储器可以包含数据库和图像处理软件。存储器可以包括任何数目的随机存取存储器、只读存储器、闪速存储器、磁盘驱动器、光储存装置、磁带储存装置、可移动储存装置和其他类型的储存装置。在一个实例中,存储器可以与处理单元110分离。在另一实例中,存储器可以被集成到处理单元110中。
每个存储器140、150可以包含软件指令,该软件指令在由处理器(例如,应用处理器180和/或图像处理器190)执行时可以控制系统100的各个方面的操作。这些存储器单元可以包含各种数据库和图像处理软件,以及经训练的系统,诸如神经网络或例如深度神经网络。存储器单元可以包含随机存取存储器(RAM)、只读存储器(ROM)、闪速存储器、磁盘驱动器、光储存装置、磁带储存装置、可移动储存装置和/或任何其他类型的储存装置。在一些实施例中,存储器单元140、150可以是与应用处理器180和/或图像处理器190分离的。在其他实施例中,这些存储器单元可以被集成到应用处理器180和/或图像处理器190中。
位置传感器130可以包含适用于确定与系统100的至少一个组件相关联的位置的任何类型的装置。在一些实施例中,位置传感器130可以包含GPS接收器。这样的接收器可以通过处理由全球定位系统卫星广播的信号来确定用户位置和速度。可以使得来自位置传感器130的位置信息对于应用处理器180和/或图像处理器190可用。
在一些实施例中,系统100可以包含诸如用于测量车辆200的速度的速度传感器(例如,转速表、速度计)和/或用于测量车辆200的加速度的加速度计(单轴或多轴)的组件。
用户界面170可以包含适用于向系统100的一个或多个用户提供信息或从系统100的一个或多个用户接收输入的任何装置。在一些实施例中,用户界面170可以包含用户输入装置,包含例如触摸屏、麦克风、键盘、指针装置、跟踪转轮、相机、旋钮、按钮等。使用这样的输入装置,用户能够通过键入指令或信息,提供语音命令,使用按钮、指针或眼跟踪能力在屏幕上选择菜单选项,或通过任何其他适用于向系统100通信信息的技术来向系统100提供信息输入或命令。
用户界面170可以配备有一个或多个处理装置,其配置为向用户提供和从用户接收信息,并处理该信息以由例如应用处理器180使用。在一些实施例中,这样的处理装置可以执行指令以用于辨识和跟踪眼睛运动、接收和解释语音命令、辨识和解释在触摸屏上做出的触摸和/或手势、响应键盘输入或菜单选择等。在一些实施例中,用户界面170可以包含显示器、扬声器、触觉装置和/或用于向用户提供输出信息的任何其他装置。
地图数据库160可以包含用于储存对系统100有用的地图数据的任何类型的数据库。在一些实施例中,地图数据库160可以包含与各种项目在参考坐标系统中的位置相关的数据,各种项目包含道路、水特征、地理特征、商业区、感兴趣的点、餐馆、加油站等。地图数据库160不仅可以储存这样的项目的位置,还可以储存与这样的项目相关的描述符,包含例如与任何所储存的特征相关联的名称。
在一些实施例中,地图数据库160可以与系统100的其他组件物理上位于一起。替代地或附加地,地图数据库160或其一部分可以相对于系统100的其他组件(例如,处理单元110)位于远处。在这样的实施例中,来自地图数据库160的信息可以通过与网络的有线或无线数据连接(例如,通过蜂窝网络和/或互联网等)而下载。在一些情况下,地图数据库160可以储存稀疏数据模型,该稀疏数据模型包含某些道路特征(例如,车道标记)或主车辆的目标轨迹的多项式表示。下面参考图8至图19讨论生成这种地图的系统和方法。
图像捕获装置122、124和126可以各自包含适用于从环境捕获至少一个图像的任何类型的装置。此外,可以使用任何数目的图像捕获装置来获取用于输入到图像处理器的图像。一些实施例可以仅包含单个图像捕获装置,而其他实施例可以包含两个、三个、或者甚至四个或更多个图像捕获装置。以下将参考图2B至图2E进一步描述图像捕获装置122、124和126。
系统100或其各种组件可以合并到各种不同的平台中。在一些实施例中,系统100可以被包含在车辆200上,如图2A所示。例如,车辆200可以配备有如上关于图1所述的系统100的处理单元110和任何其他组件。虽然在一些实施例中,车辆200可以仅配备有单个图像捕获装置(例如,相机),但是在其他实施例中,诸如结合图2B-2E讨论的那些,可以使用多个图像捕获装置。例如,如图2A所示,车辆200的图像捕获装置122和124中的任一个可以是ADAS(Advanced Driver Assistance System,高级驾驶员辅助系统)成像集的一部分。
作为图像获取单元120的一部分的被包含在车辆200上的图像捕获装置,可以被定位在任何合适的位置。在一些实施例中,如图2A至图2E以及图3A至图3C所示,图像捕获装置122可以位于后视镜的附近。此位置可以提供与车辆200的驾驶员相似的视线,这可以帮助确定对驾驶员而言什么是可见和不可见的。图像捕获装置122可以被定位在靠近后视镜的任何位置,而将图像捕获装置122放置在镜子的驾驶员侧可以进一步帮助获得表示驾驶员的视场和/或视线的图像。
对于图像获取单元120的图像捕获装置还可以使用其他的位置。例如,图像捕获装置124可以位于车辆200的保险杠上或保险杠中。这样的位置可以尤其适用于具有宽视场的图像捕获装置。位于保险杠的图像捕获装置的视线可以与驾驶员的视线不同,并且因此,保险杠图像捕获装置和驾驶员可能不总是看到相同的对象。图像捕获装置(例如,图像捕获装置122、124和126)还可以位于其他的位置。例如,图像捕获装置可以位于车辆200的侧视镜中的一者或两者之上或之中、车辆200的车顶上、车辆200的引擎盖上、车辆200的后备箱上、车辆200的侧面上,安装在车辆200的任何车窗上、定位在车辆200的任何车窗的后面、或定位在车辆200的任何车窗的前面,以及安装在车辆200的前部和/或后部上的灯具中或附近等。
除了图像捕获装置之外,车辆200还可以包含系统100的各种其他组件。例如,处理单元110可以被包含在车辆200上,与车辆的引擎控制单元(engine contro lunit,ECU)集成或分离。车辆200还可以配备有诸如GPS接收器的位置传感器130,并且还可以包含地图数据库160以及存储器单元140和150。
如早先讨论的,无线收发器172可以通过一个或多个网络(例如,蜂窝网络、互联网等)和/或接收数据。例如,无线收发器172可以将由系统100收集的数据上传到一个或多个服务器,并且从一个或多个服务器下载数据。例如,经由无线收发器172,系统100可以接收对储存在地图数据库160、存储器140和/或存储器150中的数据的周期性或按需的更新。类似地,无线收发器172可以将来自系统100的任何数据(例如,由图像获取单元120捕获的图像、由位置传感器130或其他传感器、车辆控制系统接收的数据等)和/或由处理单元110处理的任何数据上传到一个或多个服务器。
系统100可以基于隐私等级设置将数据上传到服务器(例如,上传到云)。例如,系统100可以实现隐私等级设置,以规定或限制传送到服务器的、可以唯一地识别车辆和/或车辆的驾驶员/所有者的数据(包含元数据)的类型。这样的设置可以由用户经由例如无线收发器172来设置,可以由出厂默认设置、或由无线收发器172接收的数据来初始化。
在一些实施例中,系统100可以根据“高”隐私等级上传数据,并且在设置设置的情况下,系统100可以发送数据(例如,与路途相关的位置信息、捕获的图像等),而不带有任何关于特定车辆和/或驾驶员/所有者的细节。例如,当根据“高”隐私设置来上传数据时,系统100可以不包含车辆标识编号(vehicle identification number,VIN)或者车辆的驾驶员或所有者的名字,并且可以代替地发送数据,诸如,捕获的图像和/或与路途相关的受限的位置信息。
可以预期其他隐私等级。例如,系统100可以根据“中间”隐私等级向服务器发送数据,并且可以包含在“高”隐私等级下不包含的附加信息,诸如车辆的品牌和/或型号和/或车辆类型(例如,乘用车、运动型多用途车、卡车等)。在一些实施例中,系统100可以根据“低”隐私等级上传数据。在“低”隐私等级设置的情况下,系统100可以上传数据,并且包含足以唯一地识别具体车辆、所有者/驾驶员和/或车辆行驶过的部分或整个路途的信息。这样的“低”隐私等级数据可以包含以下中的一个或多个:例如VIN、驾驶员/所有者名字、出发之前车辆的始发点、车辆的预期目的地、车辆的品牌和/或型号、车辆类型等。
图2A是与所公开的实施例一致的示例性车辆成像系统的图示性侧视图表示。图2B是图2A中所示的实施例的图示性顶视图图示。如图2B所示,所公开的实施例可以包含车辆200,该车辆200在其车体中包含系统100,该系统100具有定位在车辆200的后视镜附近和/或靠近驾驶员的第一图像捕获装置122、定位在车辆200的保险杠区域(例如,保险杠区域210中的一个)之上或之中的第二图像捕获装置124、以及处理单元110。
如图2C所示,图像捕获装置122和124两者可以都定位在车辆200的后视镜附近和/或靠近驾驶员。此外,虽然图2B和图2C示出了两个图像捕获装置122和124,应理解的是,其他实施例可以包含多于两个的图像捕获装置。例如,在图2D和2E所示的实施例中,第一图像捕获装置122、第二图像捕获装置124和第三图像捕获装置126被包含在车辆200的系统100中。
如图2D所示,图像捕获装置122可以定位在车辆200的后视镜附近和/或靠近驾驶员,并且图像捕获装置124和126可以定位在车辆200的保险杠区域(例如,保险杠区域210中的一个)之上或之中。并且如图2E所示,图像捕获装置122、124和126可以定位在车辆200的后视镜附近和/或靠近驾驶员座。所公开的实施例不限于任何特定数目和配置的图像捕获装置,并且图像捕获装置可以定位在车辆200内或车辆200上的任何适当的位置中。
应理解的是,所公开的实施例不限于车辆,并且可以被应用在其他情景中。还应理解,所公开的实施例不限于特定类型的车辆200,并且可以适用于所有类型的车辆,包含汽车、卡车、拖车和其他类型的车辆。
第一图像捕获装置122可以包含任何合适类型的图像捕获装置。图像捕获装置122可以包含光轴。在一个实例中,图像捕获装置122可以包含具有全局快门的AptinaM9V024WVGA传感器。在其他实施例中,图像捕获装置122可以提供1280×960像素的分辨率,并且可以包含滚动快门(rolling shutter)。图像捕获装置122可以包含各种光学元件。在一些实施例中,可以包含一个或多个镜头,例如用于为图像捕获装置提供期望的焦距和视场。在一些实施例中,图像捕获装置122可以与6毫米镜头或12毫米镜头相关联。在一些实施例中,如图2D所示,图像捕获装置122可以配置为捕获具有期望的视场(FOV)202的图像。例如,图像捕获装置122可以配置为具有常规FOV,诸如在40度至56度的范围内,包含46度FOV、50度FOV、52度FOV,或更大的FOV。替代地,图像捕获装置122可以配置为具有在23度至40度的范围内的窄FOV,诸如28度FOV或36度FOV。另外,图像捕获装置122可以配置为具有在100度至180度的范围内的宽FOV。在一些实施例中,图像捕获装置122可以包含广角保险杠相机或者具有高达180度FOV的相机。在一些实施例中,图像捕获装置122可以是7。2M像素图像捕获装置,其纵横比为约2:1(例如,HxV=3800×1900像素),具有约100度的水平FOV。这样的图像捕获装置可以被用来代替三个图像捕获装置配置。由于显著的镜头畸变,在图像捕获装置使用径向对称镜头的实现方式中,这样的图像捕获装置的垂直FOV可显著地小于50度。例如,这样的镜头可以不是径向对称的,这将允许在100度水平FOV情况下垂直FOV大于50度。
第一图像捕获装置122可以获取关于与车辆200相关联的场景的多个第一图像。可以获取多个第一图像中的每个作为一系列图像扫描线,其可以使用滚动快门来捕获。每个扫描线可以包含多个像素。
第一图像捕获装置122可以具有与第一系列图像扫描线中的每个的获取相关联的扫描速率。扫描速率可以指图像传感器可以获取与包含在特定扫描线中的每个像素相关联的图像数据的速率。
图像捕获装置122、124和126可以含有任何合适的类型和数目的图像传感器,例如,包含CCD传感器或CMOS传感器等。在一个实施例中,CMOS图像传感器可以与滚动快门一起采用,使得一次一个地读取一行中的每个像素,并且行的扫描在逐行的基础上进行,直到已捕获整个图像帧。在一些实施例中,可以相对于帧从顶部到底部顺序地捕获行。
在一些实施例中,本文公开的图像捕获装置中的一个或多个(例如,图像捕获装置122、124和126)可以构成高分辨率成像器,并且可以具有大于5M像素、7M像素、10M像素或更大像素的分辨率。
滚动快门的使用可能导致不同行中的像素在不同的时间被曝光和捕获,这可能引起所捕获的图像帧中的歪斜和其他图像伪影。另一方面,当图像捕获装置122配置为利用全局或同步快门操作时,所有像素可以以相同量的时间并且在共同曝光时段期间被曝光。结果,从采用全局快门的系统收集的帧中的图像数据表示在特定时间的整个FOV(诸如FOV202)的快照。相比之下,在滚动快门应用中,在不同的时间,帧中的每行被曝光并且数据被捕获。因此,在具有滚动快门的图像捕获装置中,移动对象可能出现失真。这种现象将在下面更详细地描述。
第二图像捕获装置124和第三图像捕获装置126可以是任何类型的图像捕获装置。类似于第一图像捕获装置122,图像捕获装置124和126中的每个可以包含光轴。在一个实施例中,图像捕获装置124和126中的每个可以包含具有全局快门的AptinaM9V024 WVGA传感器。替代地,图像捕获装置124和126中的每个可以包含滚动快门。类似于图像捕获装置122,图像捕获装置124和126可以配置为包含各种镜头和光学元件。在一些实施例中,与图像捕获装置124和126相关联的镜头可以提供FOV(诸如FOV 204和206),其等于或窄于与图像捕获装置122相关联的FOV(诸如FOV 202)。例如,图像捕获装置124和126可以具有40度、30度、26度、23度、20度或更小的FOV。
图像捕获装置124和126可以获取关于与车辆200相关联的场景的多个第二图像和第三图像。可以获取多个第二和第三图像中的每个作为第二和第三系列图像扫描线,其可以使用滚动快门来捕获。每个扫描线或行可以具有多个像素。图像捕获装置124和126可以具有与包含在第二和第三系列中的每个图像扫描线的获取相关联的第二和第三扫描速率。
每个图像捕获装置122、124和126可以定位在相对于车辆200的任何合适的位置和方向处。可以选择图像捕获装置122、124和126的相对位置以帮助将从图像捕获装置获取的信息融合在一起。例如,在一些实施例中,与图像捕获装置124相关联的FOV(诸如FOV 204)可能部分地或完全地和与图像捕获装置122相关联的FOV(例如FOV 202)以及与图像捕获装置126相关联的FOV(例如FOV 206)重叠。
图像捕获装置122、124和126可以位于车辆200上的任何合适的相对高度处。在一个实例中,在图像捕获装置122、124和126之间可以存在高度差,其可以提供足够的视差信息以使能立体分析。例如,如图2A所示,两个图像捕获装置122和124在不同的高度处。例如,在图像捕获装置122、124和126之间还可以存在横向位移差,以为处理单元110的立体分析给出附加的视差信息。横向位移的差异可以用dx表示,如图2C和2D所示。在一些实施例中,图像捕获装置122、124和126之间可以存在前向或后向位移(例如,范围位移)。例如,图像捕获装置122可以位于图像捕获装置124和/或图像捕获装置126后面0.5到2米或更远处。这样的类型的位移可以使得图像捕获装置中的一个能够覆盖其他(一个或多个)图像捕获装置的潜在盲点。
图像捕获装置122可以具有任何合适的分辨率能力(例如,与图像传感器相关联的像素的数目),并且与图像捕获装置122相关联的(一个或多个)图像传感器的分辨率可以比与图像捕获装置124和126相关联的(一个或多个)图像传感器的分辨率更高、更低、或者与之相同。在一些实施例中,与图像捕获装置122和/或图像捕获装置124和126相关联的(一个或多个)图像传感器可以具有640×480、1024×768、1280×960的分辨率,或任何其他合适的分辨率。
帧速率(例如,图像捕获装置在继续捕获与下一图像帧相关联的像素数据之前获取一个图像帧的一组像素数据的速率)可以是可控的。与图像捕获装置122相关联的帧速率可以比与图像捕获装置124和126相关联的帧速率更高、更低或与之相同。与图像捕获装置122、124和126相关联的帧速度可以取决于可能影响帧速率的定时的各种因素。例如,图像捕获装置122、124和126中的一个或多个可以包含可选择的像素延迟时段,其在获取与图像捕获装置122、124和/或126中的图像传感器的一个或多个像素相关联的图像数据之前或之后施加。通常,可以根据用于该装置的时钟速率来获取对应于每个像素的图像数据(例如,每个时钟周期一个像素)。此外,在包含滚动快门的实施例中,图像捕获装置122、124和126中的一个或多个可以包含可选择的水平消隐时段,其在获取与图像捕获装置122、124和/或126中的图像传感器的一行像素相关联的图像数据之前或之后施加。此外,图像捕获装置122、124和/或126中的一个或多个可以包含可选择的垂直消隐时段,其在获取与图像捕获装置122、124和126的图像帧相关联的图像数据之前或之后施加。
这些定时控制可以使能与图像捕获装置122、124和126相关联的帧速率的同步,即便每个的线扫描率速率不同。此外,如将在下面更详细地讨论的,这些可选择的定时控制以及其他因素(例如,图像传感器分辨率、最大线扫描速率等)可以使能从图像捕获装置122的FOV与图像捕获装置124和126的一个或多个FOV重叠的区域的图像捕获的同步,即便图像捕获装置122的视场不同于图像捕获装置124和126的FOV。
图像捕获装置122、124和126中的帧速率定时可以取决于相关联的图像传感器的分辨率。例如,假定对于两个装置,线扫描速率类似,如果一个装置包含具有640×480的分辨率的图像传感器,并且另一个装置包含具有1280×960的分辨率的图像传感器,则需要更多的时间来从具有更高分辨率的传感器获取一帧图像数据。
可以影响图像捕获装置122、124和126中的图像数据获取的定时的另一个因素是最大线扫描速率。例如,从被包含在图像捕获装置122、124和126中的图像传感器获取一行图像数据将需要某个最低时间量。假定没有添加像素延迟时段,则用于获取一行图像数据的此最低时间量将与用于特定装置的最大线扫描速率相关。提供较高的最大线扫描速率的装置比具有较低的最大线扫描速率的装置具有提供更高的帧速率的潜力。在一些实施例中,图像捕获装置124和126中的一个或多个可以具有高于与图像捕获装置122相关联的最大线扫描速率的最大线扫描速率。在一些实施例中,图像捕获装置124和/或126的最大线扫描速率可以是图像捕获装置122的最大线扫描速率的1.25、1.5、1.75或2倍或更多倍。
在另一个实施例中,图像捕获装置122、124和126可以具有相同的最大线扫描速率,但图像捕获装置122可以以小于或等于其最大扫描扫描速率的扫描速率而操作。系统可以配置为使得图像捕获装置124和126中的一个或多个以等于图像捕获装置122的线扫描速率的线扫描速率而操作。在其他实例中,系统可以配置为使得图像捕获装置124和/或图像捕获装置126的线扫描速率可以是图像捕获装置122的线扫描速率的1.25、1.5、1.75、或2倍或更多倍。
在一些实施例中,图像捕获装置122、124和126可以是不对称的。换言之,它们可包含具有不同视场(FOV)和焦距的相机。例如,图像捕获装置122、124和126的视场可以包含关于车辆200的环境的任何期望的区域。在一些实施例中,图像捕获装置122、124和126中的一个或多个可以配置为从在车辆200前面、车辆200后面、车辆200的侧面、或其组合的环境获取图像数据。
此外,与每个图像捕获装置122、124和/或126相关联的焦距可以是可选择的(例如,通过包含适当的镜头等),使得每个装置在相对于车辆200的期望的距离范围处获取对象的图像。例如,在一些实施例中,图像捕获装置122、124和126可以获取离车辆几米之内的接近对象的图像。图像捕获装置122、124和126还可以配置为获取离车辆更远的范围处(例如,25米、50米、100米、150米或更远)的对象的图像。此外,图像捕获装置122、124和126的焦距可以被选择以使得一个图像捕获装置(例如,图像捕获装置122)可以获取相对靠近车辆(例如,在10米内或20米内的)对象的图像,而其他图像捕获装置(例如,图像捕获装置124和126)可以获取离车辆200较远的(例如,大于20米、50米、100米、150米等的)对象的图像。
根据一些实施例,一个或多个图像捕获装置122、124和126的FOV可以具有广角。例如,具有140度的FOV可能是有利的,尤其是对于可以被用于捕获车辆200附近的区域的图像的图像捕获装置122、124和126。例如,图像捕获装置122可以被用于捕获车辆200的右侧或左侧的区域的图像,并且在这样的实施例中,可能期望图像捕获装置122具有宽FOV(例如,至少140度)。
与图像捕获装置122、124和126中的每个相关联的视场可以取决于相应的焦距。例如,随着焦距增加,对应的视场减小。
图像捕获装置122、124和126可以配置为具有任何合适的视场。在一个特定示例中,图像捕获装置122可以具有46度的水平FOV,图像捕获装置124可以具有23度的水平FOV,并且图像捕获装置126可以具有在23度和46度之间的水平FOV。在一个特定示例中,图像捕获装置122可以具有52度的水平FOV,图像捕获装置124可以具有26度的水平FOV,并且图像捕获装置126可以具有在26度和52度之间的水平FOV。在一些实施例中,图像捕获装置122的FOV与图像捕获装置124和/或图像捕获装置126的FOV的比率可以从1.5到2.0变化。在其他实施例中,该比率可以在1.25与2.25之间变化。
系统100可以配置为使得图像捕获装置122的视场至少部分地或完全地与图像捕获装置124和/或图像捕获装置126的视场重叠。在一些实施例中,系统100可以配置为使得图像捕获装置124和126的视场例如落入(例如,窄于)图像捕获装置122的视场并且与图像捕获装置122的视场共享共同的中心。在其他实施例中,图像捕获装置122、124和126可以捕获相邻的FOV,或者可以在它们FOV中具有部分重叠。在一些实施例中,图像捕获装置122、124和126的视场可以对齐,以使得较窄FOV图像捕获装置124和/或126的中心可以位于较宽FOV装置122的视场的下半部分中。
图2F是与所公开的实施例一致的示例性车辆控制系统的图示性表示。如图2F所指示的,车辆200可以包含油门调节系统220、制动系统230和转向系统240。系统100可以经过一个或多个数据链路(例如,用于传输数据的任何有线和/或无线链路)向油门调节系统220、制动系统230和转向系统240中的一个或多个提供输入(例如,控制信号)。例如,基于对由图像捕获装置122、124和/或126获取的图像的分析,系统100可以向油门调节系统220、制动系统230和转向系统240中的一个或多个提供控制信号以导航车辆200(例如,通过引起加速、转向、车道变换(shift)等)。此外,系统100可以从油门调节系统220、制动系统230和转向系统240中的一个或多个接收输入,该输入指示车辆200的运行条件(例如,速度、车辆200是否正在制动和/或转向等)。以下结合图4至图7提供进一步的细节。
如图3A所示,车辆200还可以包含用于与车辆200的驾驶员或乘客进行交互的用户界面170。例如,车辆应用中的用户界面170可以包含触摸屏320、旋钮330、按钮340和麦克风350。车辆200的驾驶员或乘客还可以使用手柄(例如,位于车辆200的转向杆上或附近,包含例如转向信号手柄)、按钮(例如,位于车辆200的方向盘上)等与系统100交互。在一些实施例中,麦克风350可以定位为与后视镜310相邻。类似地,在一些实施例中,图像捕获装置122可以位于靠近后视镜310。在一些实施例中,用户界面170还可以包含一个或多个扬声器360(例如,车辆音频系统的扬声器)。例如,系统100可以经由扬声器360提供各种通知(例如,警报)。
图3B至图3D是与所公开的实施例一致的配置为定位在后视镜(例如,后视镜310)后面并抵靠车辆风挡的示例性相机安装370的图示。如图3B所示,相机安装370可以包含图像捕获装置122、124和126。图像捕获装置124和126可以定位在遮光板380的后面,遮光板380可以与车辆风挡齐平(flush)并且包含薄膜和/或防反射材料的合成物。例如,遮光板380可被定位为使得遮挡相对于具有匹配斜面的车辆风挡对齐。在一些实施例中,图像捕获装置122、124和126的每个可以定位在遮光板380的后面,例如在图3D中所描绘的。所公开的实施例不限于图像捕获装置122、124和126、相机安装370和遮光板380的任何特定配置。图3C是图3B所示的相机安装370从前面视角的图示。
如受益于本公开的本领域技术人员将理解的,可以对前述所公开的实施例做出许多变化和/或修改。例如,并非所有组件对于系统100的操作是必要的。此外,在提供所公开的实施例的功能时,任何组件可以位于系统100的任何适当的部分中并且组件可以被重新布置成各种配置。因此,前述配置是示例性的,并且不管上述讨论的配置如何,系统100都可以提供广阔范围的功能以分析车辆200的周围并响应于该分析而导航车辆200。
如在下面更详细讨论的并且根据各种所公开的实施例,系统100可以提供各种关于自主驾驶和/或驾驶员辅助技术的特征。例如,系统100可以分析图像数据、位置数据(例如,GPS位置信息)、地图数据、速度数据和/或来自包含在车辆200中的传感器的数据。系统100可以从例如图像获取单元120、位置传感器130以及其他传感器收集数据用于分析。此外,系统100可以分析所收集的数据以确定车辆200是否应该采取某个动作,并且然后在没有人工干预的情况下自动采取所确定的动作。例如,当车辆200在没有人工干预的情况下导航时,系统100可以自动地控制车辆200的制动、加速、和/或转向(例如,通过向油门调节系统220、制动系统230和转向系统240中的一个或多个传送控制信号)。此外,系统100可以分析所收集的数据,并基于对所收集的数据的分析向车辆乘员发出警告和/或警报。下面提供关于系统100提供的各种实施例的附加的细节。
前向多成像系统
如上所讨论的,系统100可以提供使用多相机系统的驾驶辅助功能。多相机系统可以使用面向车辆前方的一个或多个相机。在其他实施例中,多相机系统可以包含面向车辆的侧方或面向车辆的后方的一个或多个相机。在一个实施例中,例如系统100可以使用双相机成像系统,其中,第一相机和第二相机(例如,图像捕获装置122和124)可以被定位在车辆(例如,车辆200)的前面和/或侧面处。第一相机可以具有大于、小于、或部分重叠于第二相机的视场的视场。此外,第一相机可以连接到第一图像处理器以进行对由第一相机提供的图像的单目图像分析,并且第二相机可以连接到第二图像处理器以进行对由第二相机提供的图像的单目图像分析。第一和第二图像处理器的输出(例如,处理后的信息)可以被组合。在一些实施例中,第二图像处理器可以从第一相机和第二相机两者接收图像以执行立体分析。在另一个实施例中,系统100可以使用三相机成像系统,其中每个相机具有不同的视场。因此,这样的系统可以基于从位于车辆前方和侧方的不同距离处的对象导出的信息来做出决定。对单目图像分析的参考可以参考基于从单个视点(例如,从单个相机)捕获的图像进行图像分析的实例。立体图像分析可以参考基于使用图像捕获参数的一个或多个变化而捕获的两个或更多个图像而进行图像分析的实例。例如,适合于进行立体图像分析的所捕获的图像可以包含从两个或更多个不同位置、从不同视野、使用不同焦距以及与视差信息一起等捕获的图像。
例如,在一个实施例中,系统100可以使用图像捕获装置122、124和126来实现三相机配置。在这样的配置中,图像捕获装置122可以提供窄视场(例如,34度或从大约20度至45度的范围选择的其他值等),图像捕获装置124可以提供宽视场(例如,150度或从大约100度至大约180度的范围选择的其他值),并且图像捕获装置126可以提供中间的视场(例如,46度或从大约35度至大约60度的范围选择的其他值)。在一些实施例中,图像捕获装置126可以作为主相机或基本相机。图像捕获装置122、124和126可以被定位在后视镜310的后面并且基本上并排定位(例如,相距6厘米)。此外,在一些实施例中,如以上所讨论的,图像捕获装置122、124和126中的一个或多个可以被安装在与车辆200的风挡齐平的遮光板380的后面。这样的遮挡可以用于最小化来自汽车内部的任何反射对图像捕获装置122、124和126的影响。
在另一个实施例中,如以上结合图3B和3C所讨论的,宽视场相机(例如,上述示例中的图像捕获装置124)可以被安装得低于窄视场相机和主视场相机(例如,上述的示例中的图像捕获装置122和126)。这样的配置可以提供来自宽视场相机的自由视线。为减少反射,相机可以被安装得靠近车辆200的风挡,并且在相机上可以包含偏振器以衰减(damp)反射光。
三相机系统可以提供某些性能特性。例如,一些实施例可以包含由一个相机基于来自另一个相机的检测结果来验证对象的检测的能力。在上面讨论的三相机配置中,处理单元110可以包含例如三个处理装置(例如,三个如以上所讨论的EyeQ系列处理器芯片),其中每个处理装置专用于处理由图像捕获装置122、124和126中的一个或多个捕获的图像。
在三相机系统中,第一处理装置可以从主相机和窄视场相机两者接收图像,并且进行对窄FOV相机的视觉处理,例如以检测其他车辆、行人、车道标记、交通标志、交通灯以及其他道路对象。此外,第一处理装置可以计算来自主相机和窄相机的图像之间的像素的视差,并且创建车辆200的环境的3D重建。然后第一处理装置可以组合3D重建与3D地图数据、或组合3D重建与基于来自另一个相机的信息计算出的3D信息。
第二处理装置可以从主相机接收图像并进行视觉处理以检测其他车辆、行人、车道标记、交通标志、交通灯和其他道路对象。此外,第二处理装置可以计算相机位移,并且基于该位移计算连续图像之间的像素的视差,并创建场景的3D重建(例如,运动恢复结构(structure from motion))。第二处理装置可以将基于3D重建的运动恢复结构传送到第一处理装置以与立体3D图像进行组合。
第三处理装置可以从宽FOV相机接收图像,并处理该图像以检测车辆、行人、车道标记、交通标志、交通灯和其他道路对象。第三处理装置可以进一步执行附加的处理指令来分析图像,以识别图像中移动的对象,诸如正改变车道的车辆、行人等。
在一些实施例中,使得基于图像的信息的流被独立地捕获和处理可以提供用于在系统中提供冗余的机会。这样的冗余可以包含例如使用第一图像捕获装置和从该装置处理的图像来验证和/或补充通过从至少第二图像捕获装置捕获和处理图像信息而获得的信息。
在一些实施例中,系统100可以使用两个图像捕获装置(例如,图像捕获装置122和124)来为车辆200提供导航辅助,并使用第三图像捕获装置(例如,图像捕获装置126)来提供冗余和验证从其他两个图像捕获装置接收的数据的分析。例如,在这样的配置中,图像捕获装置122和124可以提供用于由系统100进行立体分析的图像以用于导航车辆200,而图像捕获装置126可以提供用于由系统100进行单目分析的图像,以提供冗余和基于从图像捕获装置122和/或图像捕获装置124捕获的图像而获得的信息的验证。换言之,可以认为图像捕获装置126(和对应的处理装置)提供冗余子系统,以用于提供对从图像捕获装置122和124导出的分析的检查(例如,以提供自动紧急制动(AEB)系统)。此外,在一些实施例中,可基于从一个或多个传感器接收的信息(例如,雷达、激光雷达、声学传感器、从车辆外部的一个或多个收发器接收的信息等)来补充冗余和接收到的数据的验证。
本领域的技术人员将认识到,上述相机配置、相机放置、相机数目、相机位置等仅为示例。在不脱离所公开的实施例的范围下,这些组件和关于整个系统描述的其他组件可以在各种不同的配置中被组装和使用。关于使用多相机系统以提供驾驶员辅助和/或自主车辆功能的进一步的细节如下。
图4是存储器140和/或存储器150的示例性功能性框图,该存储器140和/或存储器150可以被储存/被编程指令以用于进行与本公开实施例一致的一个或多个操作。尽管以下指代存储器140,但是本领域技术人员将认识到指令可以储存在存储器140和/或150中。
如图4所示,存储器140可以储存单目图像分析模块402、立体图像分析模块404、速度和加速度模块406以及导航响应模块408。所公开的实施例不限于存储器140的任何特定配置。此外,应用处理器180和/或图像处理器190可以执行包含在存储器140中的任何模块402、404、406和408所储存的指令。本领域技术人员将理解,在以下讨论中对处理单元110的参考可以分离地或共同地指代应用处理器180和图像处理器190。因此,可以由一个或多个处理装置来进行任何以下过程的步骤。
在一个实施例中,单目图像分析模块402可以储存指令(诸如计算机视觉软件),当由处理单元110执行该指令时,对由图像捕获装置122、124和126中的一个获取的一组图像进行单目图像分析。在一些实施例中,处理单元110可以将来自一组图像的信息与附加的感觉信息(例如,来自雷达、激光雷达等的信息)组合以进行单目图像分析。如以下结合图5A至图5D所描述的,单目图像分析模块402可以包含用于在一组图像内检测该组特征的指令,所述特征诸如车道标记、车辆、行人、道路标志、高速公路出口坡道、交通灯、危险对象以及与车辆的环境相关联的任何其他特征。基于该分析,系统100(例如,经由处理单元110)可以引起车辆200中的一个或多个导航响应,诸如转向、车道变换、加速度的改变等,如以下结合导航响应模块408所讨论的。
在一个实施例中,立体图像分析模块404可以储存指令(诸如,计算机视觉软件),当由处理单元110执行该指令时,对由从任何图像捕获装置122、124和126中选择的图像捕获装置的组合而获取的第一组和第二组图像进行立体图像分析。在一些实施例中,处理单元110可以将来自第一组和第二组图像的信息与附加的感觉信息(例如,来自雷达的信息)组合以进行立体图像分析。例如,立体图像分析模块404可以包含指令,该指令用于基于由图像捕获装置124获取的第一组图像和由图像捕获装置126获取的第二组图像而进行立体图像分析。如下面结合图6所描述的,立体图像分析模块404可以包含指令,该指令用于检测第一组和第二组图像内的一组特征,诸如车道标记、车辆、行人、道路标志、高速公路出口坡道、交通灯、危险对象等。基于该分析,处理单元110可以引起车辆200中的一个或多个导航响应,诸如转向、车道变换、加速度的改变等,如以下结合导航响应模块408所讨论的。此外,在一些实施例中,立体图像分析模块404可以实现与经训练的系统(诸如神经网络或深度神经网络)或未经训练的系统相关联的技术,诸如系统可以被配置为使用计算机视觉算法来检测和/或标记捕获和处理感觉信息的环境中的对象。在一个实施例中,立体图像分析模块404和/或其他图像处理模块可以被配置为使用经训练和未经训练系统的组合。
在一个实施例中,速度和加速度模块406可以储存软件,该软件被配置为分析从车辆200中的一个或多个计算和机电装置接收的数据,该一个或多个计算和机电装置被配置为引起车辆200的速度和/或加速度的改变。例如,处理单元110可以执行与速度和加速度模块406相关联的指令,以基于从执行单目图像分析模块402和/或立体图像分析模块404导出的数据来计算车辆200的目标速度。这样的数据可以包含,例如目标位置,速度和/或加速度,车辆200相对于附近车辆、行人或道路对象的位置和/或速度,车辆200相对于道路的车道标记的位置信息等。另外,处理单元110可以基于感觉输入(例如,来自雷达的信息)和来自车辆200的其他系统(诸如油门调节系统220、制动系统230和/或转向系统240)的输入来计算车辆200的目标速度。基于计算出的目标速度,处理单元110可以向车辆200的油门调节系统220、制动系统230和/或转向系统的240发送电信号,以通过例如物理地压下制动器或松开车辆200的加速器来触发速度和/或加速度的改变。
在一个实施例中,导航响应模块408可以储存软件,该软件可由处理单元110执行以基于从执行单目图像分析模块402和/或立体图像分析模块404导出的数据来确定期望的导航响应。这样的数据可以包含与附近的车辆、行人和道路对象相关联的位置和速度信息,车辆200的目标位置信息等。此外,在一些实施例中,导航响应可以(部分地或完全地)基于地图数据、车辆200的预定位置、和/或车辆200与从单目图像分析模块402和/或立体图像分析模块404的执行检测到的一个或多个对象之间的相对速度或相对加速度。导航响应模块408还可以基于感觉输入(例如,来自雷达的信息)和来自车辆200的其他系统(诸如车辆200的油门调节系统220、制动系统230和转向系统240)的输入确定期望的导航响应。基于期望的导航响应,处理单元110可以向车辆200的油门调节系统220、制动系统230和转向系统240发送电信号,以通过例如转动车辆200的方向盘来实现预定角度的旋转,从而触发期望的导航响应。在一些实施例中,处理单元110可以使用导航响应模块408的输出(例如,期望的导航响应)作为执行速度和加速度模块406的输入,以用于计算车辆200的速度的改变。
此外,本文公开的任何模块(例如,模块402、404和406)可以实现与经训练的系统(诸如神经网络或深度神经网络)或未经训练的系统相关联的技术。
图5A是示出与所公开的实施例一致的用于基于单目图像分析来引起一个或多个导航响应的示例性过程500A的流程图。在步骤510处,处理单元110可以经由在处理单元110和图像获取单元120之间的数据接口128接收多个图像。例如,包含在图像获取单元120中的相机(诸如具有视场202的图像捕获装置122)可以捕获车辆200的前方(例如,或者车辆的侧方或后方)区域的多个图像并通过数据连接(例如,数字、有线、USB、无线、蓝牙等)将它们发送到处理单元110。在步骤520处,处理单元110可以执行单目图像分析模块402来分析该多个图像,如以下结合图5B至5D所进一步详细描述的。通过进行该分析,处理单元110可以检测在该组图像内的一组特征,诸如车道标记、车辆、行人、道路标志、高速公路出口坡道、交通灯等。
在步骤520处,处理单元110还可以执行单目图像分析模块402来检测各种道路危险,诸如例如卡车轮胎的部件、倒下的道路标志、松散货物、小动物等。道路危险可能在结构、形状、大小和颜色上变化,这可能使这样的危险的检测更加困难。在一些实施例中,处理单元110可以执行单目图像分析模块402来对多个图像进行多帧分析以检测道路危险。例如,处理单元110可以估计连续图像帧之间的相机运动,并计算帧之间的像素中的视差来构建道路的3D地图。然后,处理单元110可以使用该3D地图来检测路面、以及存在于路面上的危险。
在步骤530处,处理单元110可以执行导航响应模块408以基于在步骤520处执行的分析和如以上结合图4所描述的技术来引起一个或多个导航响应。导航响应可以包含例如转向、车道变换、制动、加速度的改变等。在一些实施例中,处理单元110可以使用从执行速度和加速度模块406导出的数据来引起该一个或多个导航响应。此外,多个导航响应可以同时地、按照顺序地、或以其任何组合而发生。例如,处理单元110可以通过例如按照顺序地向车辆200的转向系统240和油门调节系统220发送控制信号,使得车辆200变换一个车道然后加速。替代地,处理单元110可以通过例如同时向车辆200的制动系统230和转向系统240发送控制信号,使得车辆200在变换车道的同时制动。
图5B是示出与所公开的实施例一致的用于在一组图像中检测一个或多个车辆和/或行人的示例性过程500B的流程图。处理单元110可以执行单目图像分析模块402来实现过程500B。在步骤540处,处理单元110可以确定表示可能的车辆和/或行人的一组候选对象。例如,处理单元110可以扫描一个或多个图像,将该图像与一个或多个预定模式比较,并且在每个图像内识别可能含有感兴趣的对象(例如,车辆、行人或其部分)的可能的位置。预定模式可以以实现高“伪命中”率和低“漏掉”率的这样的方式来设计。例如,处理单元110可以将低的相似性阈值用在预定模式以将候选对象识别为可能的车辆或行人。这样做可以允许处理单元110减少漏掉(例如,未识别出)表示车辆或行人的候选对象的可能性。
在步骤542处,处理单元110可以基于分类标准过滤该组候选对象以排除某些候选(例如,不相关或较不相关的对象)。可以从与储存在数据库(例如,储存在存储器140中的数据库)中的对象类型相关联的各种属性导出这样的标准。属性可以包含对象形状、尺寸、纹理、位置(例如,相对于车辆200)等。因此,处理单元110可以使用一组或多组标准来从该组候选对象中拒绝伪候选。
在步骤544处,处理单元110可以分析多帧图像,以确定在该组候选对象中的对象是否表示车辆和/或行人。例如,处理单元110可以跨连续帧来跟踪检测到的候选对象并累积与检测到的对象相关联的逐帧数据(例如,大小、相对于车辆200的位置等)。此外,处理单元110可以估计检测到的对象的参数并将该对象的逐帧位置数据与预测的位置比较。
在步骤546处,处理单元110可以为检测到的对象构建一组测量。这样的测量可以包含例如与检测到的对象相关联的位置、速度和加速度值(相对于车辆200)。在一些实施例中,处理单元110可以基于使用一系列基于时间的观察的诸如卡尔曼滤波器或线性二次估计(LQE)的估计技术和/或基于对于不同对象类型(例如,汽车、卡车、行人、自行车、道路标志等)可用的建模数据,来构建该测量。卡尔曼滤波器可以基于对象的比例的测量,其中该比例测量与要碰撞的时间(例如,车辆200到达对象的时间量)成比例。因此,通过进行步骤540至546,处理单元110可以识别在该组捕获图像内出现的车辆和行人,并导出与该车辆和行人相关联的信息(例如,位置、速度、大小)。基于该识别和所导出的信息,处理单元110可以引起车辆200中的一个或多个导航响应,如以上结合图5A所描述的。
在步骤548处,处理单元110可以进行对一个或多个图像的光流分析,以减少检测到“伪命中”和漏掉表示车辆或行人的候选对象的可能性。光流分析可以指代,例如在一个或多个图像中分析相对于车辆200的、与其他车辆和行人相关联的并且区别于路面运动的运动模式。处理单元110可以通过跨越在不同时间捕获到的多个图像帧观察对象的不同位置,来计算候选对象的运动。处理单元110可以使用该位置和时间值作为用于计算候选对象的运动的数学模型的输入。因此,光流分析可以提供检测车辆200附近的车辆和行人的另一种方法。处理单元110可以结合步骤540至546进行光流分析,以提供用于检测车辆和行人的冗余,并提高系统100的可靠性。
图5C是示出与所公开的实施例一致的用于在一组图像中检测道路标记和/或车道几何结构信息的示例性过程500C的流程图。处理单元110可以执行单目图像分析模块402来实现过程500C。在步骤550处,处理单元110可以通过扫描一个或多个图像来检测一组对象。为了检测车道标记、车道几何结构信息以及其他相关的道路标记的段,处理单元110可以过滤该组对象以排除被确定为不相关的对象(例如,小坑洼、小石块等)。在步骤552处,处理单元110可以将在步骤550中检测到的属于相同的道路标记或车道标记的段分组在一起。基于该分组,处理单元110可以产生表示所检测到的段的模型,诸如数学模型。
在步骤554处,处理单元110可以构建与所检测到的段相关联的一组测量。在一些实施例中,处理单元110可以创建所检测到的段从图像平面到现实世界平面上的投影。可以使用具有与诸如所检测到的道路的位置、斜率、曲率和曲率导数的物理属性对应的系数的三次多项式来表征该投影。在生成投影时,处理单元110可以考虑路面的改变,以及与车辆200相关的俯仰(pitch)和滚转速率(roll rate)。此外,处理单元110可以通过分析呈现在路面上的位置和运动线索来对道路标高进行建模。此外,处理单元110可以通过跟踪一个或多个图像中的一组特征点来估计与车辆200相关联的俯仰和滚转速率。
在步骤556处,处理单元110可以通过例如跨连续图像帧跟踪所检测到的段并累积与检测到的段相关联的逐帧数据来进行多帧分析。由于处理单元110进行多帧分析,在步骤554构建的该组测量可以变得更可靠并且与越来越高的置信水平相关联。因此,通过进行步骤550、552、554和556,处理单元110可以识别在该组捕获图像中出现的道路标记并导出车道几何结构信息。基于该识别和所导出的信息,处理单元110可以引起车辆200中的一个或多个导航响应,如以上结合图5A所描述的。
在步骤558处,处理单元110可以考虑附加的信息源,以进一步产生车辆200的在其周围的环境中的安全模型。处理单元110可以使用安全模型来限定系统100可以以安全方式执行车辆200的自主控制的上下文。为产生该安全模型,在一些实施例中,处理单元110可以考虑其他车辆的位置和运动、所检测的路缘和护栏、和/或从地图数据(诸如来自地图数据库160的数据)提取的一般道路形状描述。通过考虑附加的信息源,处理单元110可以提供用于检测道路标记和车道几何的冗余,并增加系统100的可靠性。
图5D是示出与所公开的实施例一致的用于在一组图像中检测交通灯的示例性过程500D的流程图。处理单元110可以执行单目图像分析模块402来实现过程500D。在步骤560处,处理单元110可以扫描该组图像,并识别出现在图像中的可能含有交通灯的位置处的对象。例如,处理单元110可以过滤所识别的对象来构建一组候选对象,而排除不可能对应于交通灯的那些对象。可以基于与交通灯相关联的各种属性来完成过滤,诸如形状、尺寸、纹理、位置(例如,相对于车辆200)等。这样的属性可以基于交通灯和交通控制信号的多个示例,并储存在数据库中。在一些实施例中,处理单元110可以对反映可能的交通灯的该组候选对象进行多帧分析。例如,处理单元110可以跨连续图像帧跟踪候选对象,估计候选对象的现实世界位置,并过滤掉那些移动的对象(其不可能是交通灯)。在一些实施例中,处理单元110可以对候选对象进行颜色分析,并识别出现在可能的交通灯内的所检测到的颜色的相对位置。
在步骤562处,处理单元110可以分析交叉口的几何结构。分析可以基于以下各项的任意组合:(i)在车辆200的任一侧检测到的车道数,(ii)在道路上检测到的标记(例如箭头标记),以及(iii)从地图数据(例如来自地图数据库160的数据)中提取的交叉口的描述。处理单元110可以使用从执行单目分析模块402导出的信息来进行分析。此外,处理单元110可以确定在步骤560检测到的交通灯和在车辆200附近出现的车道之间的对应性。
在步骤564处,随着车辆200接近交叉口,处理单元110可以更新与所分析的交叉口几何结构和所检测到的交通灯相关联的置信度等级。例如,被估计为出现在交叉口处的交通灯的数目与实际出现在交叉口处的交通灯的数目比较可以影响置信度等级。因此,基于该置信度等级,处理单元110可以将控制委托给车辆200的驾驶员以便改善安全条件。通过进行步骤560、562和564,处理单元110可以识别出现在该组捕获图像内的交通灯,并分析交叉口几何结构信息。基于该识别和分析,处理单元110可以引起车辆200中的一个或多个导航响应,如以上结合图5A所描述的。
图5E是示出与所公开的实施例一致的用于基于车辆路径来引起车辆200中的一个或多个导航响应的示例性过程500E的流程图。在步骤570处,处理单元110可以构建与车辆200相关联的初始车辆路径。车辆路径可以使用以坐标(x,z)表达的一组点来表示,并且该组点中两个点之间的距离di可以落入1至5米的范围中。在一个实施例中,处理单元110可以使用诸如左道路多项式和右道路多项式的两个多项式来构建初始车辆路径。处理单元110可以计算该两个多项式之间的几何中点,并且将被包含在得到的车辆路径中的每个点偏移预定的偏移(例如,智能车道偏移),如果有的话(零偏移可以对应于在车道的中间行驶)。该偏移可以在垂直于在车辆路径中的任何两点之间的线段的方向上。在另一个实施例中,处理单元110可以使用一个多项式和估计的车道宽度,来将车辆路径的每个点偏移估计的车道宽度的一半加上预定偏移(例如,智能车道偏移)。
在步骤572处,处理单元110可以更新在步骤570构建的车辆路径。处理单元110可以使用更高的分辨率来重建在步骤570构建的车辆路径,以使得表示车辆路径的该组点中两个点之间的dk小于上述距离di。例如,该距离dk可以落入0.1至0.3米的范围中。处理单元110可以使用抛物线样条算法(parabolic spline algorithm)重建车辆路径,这可以产生对应于车辆路径的总长度的累积距离向量S(即,基于表示车辆路径的该组点)。
在步骤574处,处理单元110可以基于在步骤572处构建的更新的车辆路径来确定前视点(look-ahead point)(以坐标表达为(x1,z1))。处理单元110可以从累积距离向量S提取前视点,并且该前视点可以与前视距离和前视时间相关联。前视距离可以具有范围为从10米至20米的下限,可以被计算为车辆200的速度和前视时间的乘积。例如,随着车辆200的速度下降,前视距离也可以减小(例如,直到它到达下限)。前视时间的范围可以从0.5到1.5秒,可以与关联于引起车辆200中的导航响应的诸如航向误差(heading error)跟踪控制环路的一个或多个控制环路的增益成反比。例如,该航向误差跟踪控制环路的增益可以取决于偏航率(yaw rate)环路、转向致动器环路、汽车横向动力学等的带宽。因此,航向误差跟踪控制环路的增益越高,前视时间越短。
在步骤576处,处理单元110可以基于在步骤574确定的前视点来确定航向误差和偏航率命令。处理单元110可以通过计算前视点的反正切,例如arctan(x1/z1)来确定航向误差。处理单元110可以将横摆角速率命令确定为航向误差和高水平控制增益的乘积。如果前视距离不在下限处,则高水平控制增益可以等于:(2/前视时间)。否则,高水平控制增益可以等于:(2×车辆200的速度/前视距离)。
图5F是示出与所公开的实施例一致的用于确定前方车辆是否正在改变车道的示例性过程500F的流程图。在步骤580处,处理单元110可以确定与前方车辆(例如,在车辆200前方行驶的车辆)相关联的导航信息。例如,处理单元110可以使用以上结合图5A和图5B所描述的技术来确定前方车辆的位置、速度(例如,方向和速度)和/或加速度。处理单元110还可以使用以上结合图5E所描述的技术来确定一个或多个道路多项式、前视点(与车辆200相关联)和/或追踪轨迹(例如,描述由前方车辆所采取的路径的一组点)。
在步骤582处,处理单元110可以分析在步骤580确定的导航信息。在一个实施例中,处理单元110可以计算追踪轨迹和道路多项式之间的距离(例如,沿着该轨迹)。如果沿着该轨迹的这个距离的变化超过预定的阈值(例如,在直路上0.1至0.2米,在适度弯曲道路上0.3至0.4米,以及在急转弯道路上0.5至0.6米),则处理单元110可以确定前方车辆很可能正在改变车道。在检测到多个车辆在车辆200前方行驶的情形中,处理单元110可以比较与每个车辆相关联的追踪轨迹。基于该比较,处理单元110可以确定追踪轨迹与其他车辆的追踪轨迹不匹配的车辆很可能正在改变车道。处理单元110可以附加地将(与前方车辆相关联的)追踪轨迹的曲率与前方车辆正在其中行驶的道路段的期望曲率相比较。该期望曲率可以从地图数据(例如,来自地图数据库160的数据)、从道路多项式、从其他车辆的追踪轨迹、从关于道路现有知识等提取。如果追踪轨迹的曲率和道路段的期望曲率的差异超过预定的阈值,则处理单元110可以确定前方车辆很可能正在改变车道。
在另一个实施例中,处理单元110可以在具体时间段(例如,0.5至1.5秒)将前方车辆的瞬时位置与前视点(与车辆200相关联)相比较。如果前方车辆的瞬时位置与前视点之间的距离在该具体时间段期间变化,并且变化的累积总和超过预定阈值(例如,在直路上0.3至0.4米,在适度弯曲道路上0.7至0.8米,以及在急转弯道路上1.3至1.7米),则处理单元110可以确定前方车辆很可能正在改变车道。在另一个实施例中,处理单元110可以通过将沿着追踪轨迹行驶的横向距离与该追踪路径的期望曲率相比较,来分析该追踪轨迹的几何结构。可以根据计算确定预期的曲率半径:(δz 2x 2)/2/(δx),其中δx表示横向行驶的距离和δz表示的纵向行驶的距离。如果行驶的横向距离和期望曲率之间的差异超过预定阈值(例如,500至700米),则处理单元110可以确定前方车辆很可能正在改变车道。在另一个实施例中,处理单元110可以分析前方车辆的位置。如果前方车辆的位置遮挡了道路多项式(例如,前车覆盖在道路多项式的上方),则处理单元110可以确定前方车辆很可能正在改变车道。在前方车辆的位置是使得在前方车辆的前方检测到另一车辆并且这两个车辆的追踪轨迹不平行的情况下,处理单元110可以确定(较近的)前方车辆很可能正在改变车道。
在步骤584,处理单元110可以基于在步骤582进行的分析来确定前方车辆200是否正在改变车道。例如,处理单元110可以基于在步骤582进行的各个分析的加权平均来做出该确定。在这样的方案下,例如,由处理单元110基于特定类型的分析做出的前方车辆很可能正在改变车道的决定可以被分配值“1”(以及“0”用来表示前方车辆不太可能正在改变车道的确定)。在步骤582处进行的不同分析可以被分配不同的权重,并且所公开的实施例不限于分析和权重的任何特定组合。
图6是示出与所公开的实施例一致的用于基于立体图像分析来引起一个或多个导航响应的示例性过程600的流程图。在步骤610处,处理单元110可以经由数据接口128接收第一和第二多个图像。例如,被包含在图像获取单元120的相机(诸如具有视场202和204的图像捕获装置122和124)可以捕获在车辆200前方的区域的第一和第二多个图像,并经过数字连接(例如,USB、无线、蓝牙等)将它们发送到处理单元110。在一些实施例中,处理单元110可以经由两个或多个数据接口接收该第一和第二多个图像。所公开的实施例不限于任何特定的数据接口配置或协议。
在步骤620处,处理单元110可以执行立体图像分析模块404来进行对第一和第二多个图像的立体图像分析,以创建在车辆前方的道路的3D地图并检测图像内的特征,诸如车道标记、车辆、行人、道路标志、高速公路出口坡道、交通灯、道路危险等。可以以与上面结合图5A至5D描述的步骤类似的方式进行立体图像分析。例如,处理单元110可以执行立体图像分析模块404以在第一和第二多个图像内检测候选对象(例如,车辆、行人、道路标记、交通灯、道路危险等),基于各种标准过滤掉候选对象的子集,并进行多帧分析、构建测量,以及为剩余的候选对象确定置信度等级。在进行上述步骤时,处理单元110可以考虑来自第一和第二多个图像两者的信息,而不是仅考虑来自一组图像的信息。例如,处理单元110可以分析出现在第一和第二多个图像两者中的候选对象的像素级数据(或来自捕获图像的两个流中的其他数据子集)的差异。作为另一个示例,处理单元110可以通过观察对象在多个图像中的一个出现而未在另一个图像中出现,或相对于出现在两个图像流中的对象可能存在的其他差异,来估计候选对象(例如,相对于车辆200)的位置和/或速度。例如,可以基于与出现在图像流的一个或两者中的对象相关联的轨迹、位置、移动特性等特征,来确定相对于车辆200的位置、速度和/或加速度。
在步骤630处,处理单元110可以执行导航响应模块408,以基于在步骤620进行的分析和如以上结合图4所描述的技术而引起车辆200中的一个或多个导航响应。导航响应可以包含例如转向、车道变换、加速度的改变、速度的改变、制动等。在一些实施例中,处理单元110可以使用从执行速度和加速度模块406导出的数据来引起该一个或多个导航响应。此外,多个导航响应可以同时地、按照顺序地、或以其任何组合而发生。
图7是示出与所公开的实施例一致的用于基于三组图像的分析来引起一个或多个导航响应的示例性过程700的流程图。在步骤710处,处理单元110可以经由数据接口128接收第一、第二和第三多个图像。例如,被包含在图像获取单元120的相机(诸如具有视场202、204和206的图像捕获装置122、124和126)可以捕获在车辆200前方和/或侧方的区域的第一、第二和第三多个图像,并且经过数字连接(例如,USB、无线、蓝牙等)将它们发送到处理单元110。在一些实施例中,处理单元110可以经由三个或更多个数据接口接收第一、第二和第三多个图像。例如,图像捕获装置122、124、126中的每个可以具有用于向处理单元110通信数据的相关联的数据接口。所公开的实施例不限于任何特定的数据接口配置或协议。
在步骤720处,处理单元110可以分析该第一、第二和第三多个图像以检测图像内的特征,诸如车道标记、车辆、行人、道路标志、高速公路出口坡道、交通灯、道路危险等。该分析可以以类似于以上结合图5A-图5D和图6所描述的步骤的方式来进行。例如,处理单元110可以对第一、第二和第三多个图像中的每个进行单目图像分析(例如,经由单目图像分析模块402的执行以及基于以上结合图5A至图5D所描述的步骤)。替代地,处理单元110可对第一和第二多个图像、第二和第三多个图像、和/或第一和第三多个图像进行立体图像分析(例如,经由立体图像分析模块404的执行以及基于以上结合图6所描述的步骤)。可以组合对应于第一、第二和/或第三多个图像的分析的处理后的信息。在一些实施例中,处理单元110可以进行单目和立体图像分析的组合。例如,处理单元110可以对第一多个图像进行单目图像分析(例如,经由单目图像分析模块402的执行)并且对第二和第三多个图像进行立体图像分析(例如,经由立体图像分析模块404的执行)。图像捕获装置122、124和126——包含它们各自的位置和视场202、204和206——的配置可以影响对第一、第二和第三多个图像进行的分析的类型。所公开的实施例不限于图像捕获装置122、124和126的特定配置或对第一、第二和第三多个图像进行的分析的类型。
在一些实施例中,处理单元110可以基于在步骤710和720所获取和分析的图像对系统100进行测试。这样的测试可以提供对于图像获取装置122、124和126的某些配置的系统100的整体性能的指示符。例如,处理单元110可以确定“伪命中”(例如,系统100不正确地确定车辆或行人的存在的情况)和“漏掉”的比例。
在步骤730处,处理单元110可以基于从第一、第二和第三多个图像中的两个导出的信息来引起车辆200中的一个或多个导航响应。对第一、第二和第三多个图像中的两个的选择可以取决于各种因素,诸如例如在多个图像的每个中检测到的对象的数目、类型和大小。处理单元110还可以基于图像质量和分辨率、在图像中反映的有效视场、捕获的帧的数目、一个或多个感兴趣的对象实际出现在帧中的程度(例如,对象出现的帧的百分比、每个这样的帧中出现的对象的比例)等来进行选择。
在一些实施例中,处理单元110可以通过确定从一个图像源导出的信息与从其他图像源导出的信息的相一致的程度,选择从第一、第二和第三多个图像中的两个导出的信息。例如,处理单元110可以将从图像捕获装置122、124和126中的每个导出的处理后的信息组合(无论通过单目分析、立体分析、还是两者的任何组合),并确定在从图像捕获装置122、124和126的每个捕获到的图像之间相一致的视觉指示符(例如,车道标记、检测到的车辆及其位置和/或路径、检测到的交通灯等)。处理单元110还可以排除在捕获到的图像之间不一致的信息(例如,正改变车道的车辆、指示车辆太靠近车辆200的车道模型等)。因此,处理单元110可以基于确定相一致和不一致的信息,来选择从第一、第二和第三多个图像中的两个导出的信息。
导航响应可以包含例如转向、车道变换、制动、加速度的改变等。处理单元110可以基于在步骤720所进行的分析和如以上结合图4所描述的技术来引起一个或多个导航响应。处理单元110还可以使用从执行速度和加速度模块406导出的数据来引起一个或多个导航响应。在一些实施例中,处理单元110可以基于在车辆200与在第一、第二和第三多个图像的任一者内检测到的对象之间的相对位置、相对速度和/或相对加速度来引起一个或多个导航响应。多个导航响应可以同时地、按顺序地或以其任何组合而发生。
用于自主车辆导航的稀疏道路模型
在一些实施例中,所公开的系统和方法可以使用用于自主车辆导航的稀疏地图。特别地,稀疏地图可以用于沿着道路段的自主车辆导航。例如,稀疏地图可以在不储存和/或更新大量数据的情况下为导航自主车辆提供足够的信息。如下文更详细讨论的,自主车辆可以基于一个或多个储存的轨迹使用稀疏地图来导航一条或多条道路。
用于自主车辆导航的稀疏地图
在一些实施例中,所公开的系统和方法可以生成用于自主车辆导航的稀疏地图。例如,稀疏地图可以在不需要过多的数据存储或数据传输速率的情况下为导航提供足够的信息。如下文更详细讨论的,车辆(其可以是自主车辆)可以使用稀疏地图来导航一条或多条道路。例如,在一些实施例中,稀疏地图可以包含与道路和沿着道路的潜在地标相关的数据,这些数据对于车辆导航来说可能是足够的,但是也表现出小的数据足迹(footprint)。例如,下面详细描述的稀疏数据地图与包含详细地图信息(诸如沿着道路收集的图像数据)的数字地图相比,可能需要显著更少的存储空间和数据传输带宽。
例如,稀疏数据地图可以储存沿着道路的优选车辆路径的三维多项式表示,而不是储存道路段的详细表示。这些路径可能需要非常少的数据存储空间。此外,在所描述的稀疏数据地图中,地标可以被识别并被包含在稀疏地图道路模型中以帮助导航。这些地标可以以适合于使能车辆导航的任何间距被定位,但是在一些情况下,这些地标不需要以高密度和短间距被识别并被包含在模型中。相反,在一些情况下,基于间距开至少50米、至少100米、至少500米、至少1千米或至少2千米的地标的导航是可能的。如将在其他部分中更详细讨论的,稀疏地图可以基于由配备有各种传感器和装置(诸如图像捕获装置、全球定位系统传感器、运动传感器等)的车辆在该车辆沿着道路行驶时收集或测量的数据来生成。在一些情况下,稀疏地图可以基于在一个或多个车辆沿着特定道路多次驾驶期间收集的数据来生成。使用一个或多个车辆的多次驾驶生成稀疏地图可以被称为“众包”稀疏地图。
与所公开的实施例一致,自主车辆系统可以使用用于导航的稀疏地图。例如,所公开的系统和方法可以分发稀疏地图用于为自主车辆生成道路导航模型,并且可以使用稀疏地图和/或生成的道路导航模型沿着道路段导航自主车辆。与本公开一致的稀疏地图可以包含一个或多个三维轮廓,这些三维轮廓可以表示自主车辆在它们沿着相关联的道路段移动时可以穿越(traverse)的预定轨迹。
与本公开一致的稀疏地图还可以包含表示一个或多个道路特征的数据。这样的道路特征可以包含辨识的地标、道路签名轮廓以及在车辆导航中有用的任何其他道路相关特征。与本公开一致的稀疏地图可以基于包含在稀疏地图中的相对少量的数据来使能车辆的自主导航。例如,稀疏地图的所公开的实施例可以需要相对小的存储空间(并且当稀疏地图的部分被传输到车辆时需要相对小的带宽),但是仍然可以充分地提供自主车辆导航,而不是包含道路的详细表示,诸如道路边缘、道路曲率、与道路段相关联的图像、或详细描述与道路段相关联的其他物理特征的数据。在一些实施例中,可以通过储存需要少量数据但仍然使能够自主导航的道路相关元素的表示来实现所公开的稀疏地图的小数据足迹,这将在下面进一步详细讨论。
例如,所公开的稀疏地图可以储存车辆可以沿着道路遵循的一个或多个轨迹的多项式表示,而不是储存道路的各个方面的详细表示。因此,使用所公开的稀疏地图,可以沿着特定道路段导航车辆,而不是储存(或必须传输)关于道路的物理性质的细节以使能沿着道路的导航,在某些情况下,不必解释道路的物理方面,而是通过将其行驶的路径与沿着特定道路段的轨迹(例如,多项式样条)对齐。以这种方式,可以主要基于储存的轨迹(例如,多项式样条)来导航车辆,与涉及道路图像、道路参数、道路布局等的存储的方法相比,该储存的轨迹可以需要少得多的存储空间。
除了储存的沿着道路段的轨迹的多项式表示之外,所公开的稀疏地图还可以包含可以表示道路特征的小数据对象。在一些实施例中,小数据对象可以包含数字签名,该数字签名从沿着道路段行驶的车辆上的传感器(例如,相机或其他传感器,诸如悬架传感器)获得的数字图像(或数字信号)中导出。相对于由传感器获取的信号,数字签名可以具有减小的大小。在一些实施例中,数字签名可以被创建为与分类器功能兼容,该分类器功能被配置为例如在后续驾驶期间从由传感器获取的信号中检测和识别道路特征。在一些实施例中,可以创建数字签名,使得数字签名具有尽可能小的足迹,同时保留基于道路特征的图像(或者如果所储存的签名不是基于图像和/或包含其他数据,则是由传感器生成的数字信号)将道路特征与所储存的签名相关联或匹配的能力,该道路特征的图像由后续沿相同道路段行驶的车辆上的相机捕获。
在一些实施例中,数据对象的大小可以进一步与道路特征的唯一性相关联。例如,对于可由车辆上的相机检测的道路特征,并且其中车辆上的相机系统耦合到分类器,该分类器能够将对应于该道路特征的图像数据区分为与特定类型的道路特征(例如,道路标志)相关联,并且其中这种道路标志在该区域中是本地唯一的(例如,附近没有相同的道路标志或相同类型的道路标志),储存指示道路特征的类型及其位置的数据可以是足够的。
如下面将进一步详细讨论的,道路特征(例如,沿着道路段的地标)可以被储存为小数据对象,该小数据对象可以以相对较少的字节来表示道路特征,同时提供足够的信息用于辨识和使用这样的特征进行导航。在一个示例中,道路标志可以被识别为车辆的导航可以基于的辨识的地标。道路标志的表示可以被储存在稀疏地图中,以包含例如指示地标的类型(例如,停车标志)的几个字节的数据和指示地标的位置(例如,坐标)的几个字节的数据。基于地标的这种轻数据(data-light)表示的导航(例如,使用足以基于地标定位、辨识和导航的表示)可以提供与稀疏地图相关联的期望等级的导航功能,而不会显著增加与稀疏地图相关联的数据开销。地标(和其他道路特征)的这种精简表示可以利用包含在这种车辆上的被配置成检测、识别和/或分类特定道路特征的传感器和处理器。
例如,当给定区域中的标志或者甚至特定类型的标志是本地唯一的(例如,当没有其他标志或者没有相同类型的其他标志时),稀疏地图可以使用指示地标的类型(标志或者特定类型的标志)的数据,并且在导航(例如,自主导航)期间当自主车辆上的相机捕获包含标志(或特定类型的标志)的区域的图像时,处理器可以处理图像,检测标志(如果确实存在于图像中),将图像分类为标志(或特定类型的标志),并将图像的位置与储存在稀疏地图中的标志的位置相关联。
生成稀疏地图
在一些实施例中,稀疏地图可以包含沿着道路段延伸的路面特征的至少一个线表示以及与该道路段相关联的多个地标。在某些方面,稀疏地图可以经由“众包”来生成,例如,通过对当一个或多个车辆穿越道路段时获取的多个图像进行图像分析。
图8示出了一个或多个车辆,例如车辆200(其可以是自主车辆)可以访问以用于提供自主车辆导航的稀疏地图800。稀疏地图800可以被储存在存储器中,诸如存储器140或150中。这种存储器装置可以包含任何类型的非暂时性存储装置或计算机可读介质。例如,在一些实施例中,存储器140或150可以包含硬盘驱动器、光盘、闪速存储器、基于磁的存储器装置、基于光的存储器装置等。在一些实施例中,稀疏地图800可以储存在数据库(例如,地图数据库160)中,该数据库可以储存在存储器140或150或其他类型的存储装置中。
在一些实施例中,稀疏地图800可以储存在车辆200上提供的存储装置或非暂时性计算机可读介质上(例如,包含在车辆200上的导航系统中的存储装置)。车辆200上提供的处理器(例如,处理单元110)可以访问储存在车辆200上提供的存储装置或计算机可读介质中的稀疏地图800,以便在车辆穿越道路段时生成用于引导自主车辆200的导航指令。
然而,稀疏地图800不需要相对于车辆被本地储存。在一些实施例中,稀疏地图800可以储存在存储装置或计算机可读介质上,在与车辆200或与车辆200相关联的装置通信的远程服务器上提供该存储装置或计算机可读介质。车辆200上提供的处理器(例如,处理单元110)可以从远程服务器接收稀疏地图800中包含的数据,并且可以执行用于引导车辆200的自主驾驶的数据。在这样的实施例中,远程服务器可以储存稀疏地图800的全部或仅其一部分。因此,在车辆200上和/或在一个或多个附加车辆上提供的存储装置或计算机可读介质可以储存稀疏地图800的(多个)剩余部分。
此外,在这样的实施例中,稀疏地图800可被穿过不同道路段的多个车辆(例如,数十、数百、数千或数百万车辆等)访问。还应当注意,稀疏地图800可以包含多个子地图。例如,在一些实施例中,稀疏地图800可以包含可用于导航车辆的数百、数千、数百万或更多的子地图。这种子地图可以被称为局部地图,并且沿着道路行驶的车辆可以访问与车辆正在行驶的位置相关的任意数量的局部地图。稀疏地图800的局部地图部分可以与全球导航卫星系统(GNSS)密钥一起储存作为到稀疏地图800的数据库的索引。因此,虽然在本系统中用于导航主车辆的转向角的计算可以在不依赖于主车辆的GNSS位置、道路特征或地标的情况下执行,但是这种GNSS信息可以用于检索相关的局部地图。
一般来说,稀疏地图800可以基于从一个或多个车辆在它们沿着道路行驶时收集的数据来生成。例如,使用一个或多个车辆上的传感器(例如,相机、速度计、GPS、加速度计等),可以记录一个或多个车辆沿着道路行驶的轨迹,并且可以基于由一个或多个车辆行驶的收集到的轨迹来确定沿着道路进行后续行程的车辆的优选轨迹的多项式表示。类似地,由一个或多个车辆收集的数据可以帮助识别沿着特定道路的潜在地标。从穿越车辆收集的数据也可以用于识别道路轮廓信息,诸如道路宽度轮廓、道路粗糙度轮廓、交通线间距轮廓、道路状况等。使用收集的信息,稀疏地图800可以被生成和分发(例如,用于本地储存或经由飞行中的数据传输),以用于导航一个或多个自主车辆。然而,在一些实施例中,地图生成可能不会在地图的初始生成时结束。如下面将更详细讨论的,当车辆继续穿越稀疏地图800中包含的道路时,稀疏地图800可以基于从车辆收集的数据被连续地或周期性地更新。
稀疏地图800中记录的数据可以包含基于全球定位系统(GPS)数据的位置信息。例如,位置信息可以包含在稀疏地图800中,以用于各种地图元素,包含例如地标位置、道路轮廓位置等。稀疏地图800中包含的地图元素的位置可以使用从穿越道路的车辆收集的GPS数据来获得。例如,经过所识别的地标的车辆可以使用与车辆相关联的GPS位置信息和所识别的地标相对于车辆的位置的确定(例如,基于从车辆上的一个或多个相机收集的数据的图像分析)来确定所识别的地标的位置。当附加的车辆经过所识别的地标的位置时,可以重复对所识别的地标(或稀疏地图800中包含的任何其他特征)的这种位置确定。一些或所有附加位置确定可用于相对于所识别的地标细化储存在稀疏地图800中的位置信息。例如,在一些实施例中,相对于储存在稀疏地图800中的特定特征的多个位置测量可以一起被平均。然而,任何其他数学运算也可用于基于地图元素的多个确定位置来细化地图元素的所储存的位置。
所公开的实施例的稀疏地图可以使用相对少量的储存数据来使能车辆的自主导航。在一些实施例中,稀疏地图800可以具有小于每千米道路2MB、小于每千米道路1MB、小于每千米道路500kB或小于每千米道路100kB的数据密度(例如,包含表示目标轨迹、地标和任何其他储存的道路特征的数据)。在一些实施例中,稀疏地图800的数据密度可以小于每千米道路10kB,或者甚至小于每千米道路2kB(例如,每千米1.6kB),或者不超过每千米道路10kB,或者不超过每千米道路20kB。在一些实施例中,也可以使用总共具有4GB或更少数据的稀疏地图来自主导航美国的大部分道路(如果不是全部的话)。这些数据密度值可以表示整个稀疏地图800、稀疏地图800内的局部地图和/或稀疏地图800内的特定道路段上的平均。
如上所述,稀疏地图800可以包含多个目标轨迹的表示810,以用于沿着道路段引导自主驾驶或导航。这种目标轨迹可以被储存为三维样条。例如,储存在稀疏地图800中的目标轨迹可以基于车辆沿着特定道路段的先前穿越(traversal)的两个或多个重建轨迹来确定。道路段可以与单个目标轨迹或多个目标轨迹相关联。例如,在双车道道路上,可以储存第一目标轨迹以表示在第一方向上沿着道路行驶的预期路径,并且可以储存第二目标轨迹以表示在另一方向上(例如,与第一方向相反)沿着道路行驶的预期路径。可以储存关于特定道路段的附加目标轨迹。例如,在多车道道路上,可以储存一个或多个目标轨迹,其表示与多车道道路相关联的一个或多个车道中的车辆的行驶的预期路径。在一些实施例中,多车道道路的每个车道可以与其自己的目标轨迹相关联。在其他实施例中,储存的目标轨迹可以比多车道道路上存在的车道少。在这种情况下,在多车道道路上导航的车辆可以使用任何储存的目标轨迹来通过考虑从储存目标轨迹的车道的车道偏移来引导其导航(例如,如果车辆在三车道公路的最左侧车道上行驶,并且目标轨迹仅针对公路的中间车道储存,当生成导航指令时,通过考虑中间车道和最左侧车道之间的车道偏移,车辆可以使用中间车道的目标轨迹导航)。
在一些实施例中,目标轨迹可以表示车辆行驶时应该走的理想路径。目标轨迹可以位于例如行驶的车道的近似中心。在其他情况下,目标轨迹可以位于相对于道路段的其他地方。例如,目标轨迹可以与道路的中心、道路的边缘或车道的边缘等近似重合。在这种情况下,基于目标轨迹的导航可以包含相对于目标轨迹的位置维持的确定的偏移量。此外,在一些实施例中,相对于目标轨迹的位置维持的确定的偏移量可以基于车辆的类型而不同(例如,沿着目标轨迹的至少一部分,包含两个轴的客车可以与包含多于两个轴的卡车具有不同的偏移)。
稀疏地图800还可以包含与多个预定地标820相关的数据,多个预定地标820与特定道路段、局部地图等相关联。如下文更详细讨论的,这些地标可以用于自主车辆的导航。例如,在一些实施例中,地标可用于确定车辆相对于所储存的目标轨迹的当前位置。利用该位置信息,自主车辆能够调整航向方向,以匹配在确定位置处的目标轨迹的方向。
多个地标820可以以任何合适的间距被识别并储存在稀疏地图800中。在一些实施例中,地标可以以相对高的密度被储存(例如,每隔几米或更多)。然而,在一些实施例中,可以采用显著更大的地标间距值。例如,在稀疏地图800中,所识别的(或所辨识的)地标可以间距10米、20米、50米、100米、1千米或2千米。在一些情况下,所识别的地标可以位于相距甚至超过2千米的距离处。
在地标之间,并因此在相对于目标轨迹的车辆位置的确定之间,车辆可以基于航位推算来导航,在该航位推算中,车辆使用传感器来确定其自我(ego)运动并估计其相对于目标轨迹的位置。由于在通过航位推算的导航期间误差可以累积,随着时间的推移,相对于目标轨迹的位置确定可能变得越来越不准确。车辆可以使用出现在稀疏地图800中的地标(以及它们的已知位置)来消除位置确定中由航位推算引起的误差。以这种方式,稀疏地图800中包含的所识别的地标可以用作导航锚,从该导航锚可以确定车辆相对于目标轨迹的准确位置。因为在位置定位中一定量的误差可以是可接受的,所以识别的地标不需要总是对自主车辆可用。相反,合适的导航甚至可以基于如上所述的10米、20米、50米、100米、500米、1千米、2千米或更多的地标间距。在一些实施例中,每1千米的道路的1个识别地标的密度足以将纵向位置确定精度维持在1米内。因此,不需要将沿着道路段出现的每个潜在地标储存在稀疏地图800中。
此外,在一些实施例中,车道标记可以用于在地标间距期间的车辆的定位。通过在地标间距期间使用车道标记,通过航位推算的导航期间的累积可以被最小化。
除了目标轨迹和识别的地标之外,稀疏地图800可以包含与各种其他道路特征相关的信息。例如,图9A示出了可以储存在稀疏地图800中的沿着特定道路段的曲线的表示。在一些实施例中,道路的单个车道可以由道路左侧和右侧的三维多项式描述来建模。图9A中示出了表示单个车道的左侧和右侧的这样的多项式。不管道路可以有多少车道,道路可以以类似于图9A所示的方式使用多项式来表示。例如,多车道道路的左侧和右侧可以由类似于图9A所示的多项式来表示,并且包含在多车道道路上的中间车道标记(例如,表示车道边界的虚线标记、表示在不同方向上行驶的车道之间的边界的黄色实线等)也可以使用诸如图9A所示的多项式来表示。
如图9A所示,可以使用多项式(例如,一阶、二阶、三阶或任何合适阶的多项式)来表示车道900。为了说明,车道900被示出为二维车道,并且多项式被显示为二维多项式。如图9A所示,车道900包含左侧910和右侧920。在一些实施例中,可以使用一个以上的多项式来表示道路或车道边界的每一侧的位置。例如,左侧910和右侧920中的每一个可以由任意合适长度的多个多项式来表示。在一些情况下,多项式可以具有大约100m的长度,尽管也可以使用大于或小于100m的其他长度。此外,多项式可以彼此重叠,以便当主车辆沿着道路行驶时,基于后续遇到的多项式来促进导航中的无缝过渡。例如,左侧910和右侧920中的每一个可以由多个三阶多项式表示,这些三阶多项式被分成大约100米长的段(第一预定范围的示例),并且彼此重叠大约50米。表示左侧910和右侧920的多项式可以具有或不具有相同的顺序。例如,在一些实施例中,一些多项式可以是二阶多项式,一些可以是三阶多项式,以及一些可以是四阶多项式。
在图9A所示的示例中,车道900的左侧910由两组三阶多项式表示。第一组包含多项式段911、912和913。第二组包含多项式段914、915和916。这两个组虽然基本上彼此平行,但是遵循它们各自的道路侧的位置。多项式段911、912、913、914、915和916具有大约100米的长度,并且与系列中与相邻段重叠大约50米。然而,如前所述,也可以使用不同长度和不同重叠量的多项式。例如,多项式可以具有500m、1km或更长的长度,并且重叠量可以从0到50m、50m到100m或大于100m变化。另外,虽然图9A被示为表示在2D空间(例如,在纸的表面上)中延伸的多项式,但是应当理解,这些多项式可以表示在三维中延伸的曲线(例如,包含高度分量),以表示除了X-Y曲率之外的道路段中的标高改变。在图9A所示的示例中,车道900的右侧920进一步由具有多项式段921、922和923的第一组和具有多项式段924、925和926的第二组表示。
回到稀疏地图800的目标轨迹,图9B示出了表示沿着特定道路段行驶的车辆的目标轨迹的三维多项式。目标轨迹不仅表示主车辆应该沿着特定道路段行驶的X-Y路径,还表示主车辆沿着该道路段行驶时将经历的标高改变。因此,稀疏地图800中的每个目标轨迹可以由一个或多个三维多项式表示,如图9B中所示的三维多项式950。稀疏地图800可以包含多个轨迹(例如,数百万或数十亿或更多,以表示沿着沿着世界各地的道路的各个道路段的车辆的轨迹)。在一些实施例中,每个目标轨迹可以对应于连接三维多项式段的样条。
关于储存在稀疏地图800中的多项式曲线的数据足迹,在一些实施例中,每个三次多项式可以由四个参数表示,每个参数需要四个字节的数据。可以使用需要每100m约192字节数据的三次多项式来获得合适的表示。对于行驶约100km/hr的主车辆,这可以转化为每小时约200kB的数据使用/传输要求。
稀疏地图800可以使用几何描述符和元数据的组合来描述车道网络。几何结构可以用如上所述的多项式或样条来描述。元数据可以描述车道的数量、特殊特性(诸如合乘车辆车道)以及可能的其他稀疏标签。这种指示符的总足迹可能可以忽略不计。
因此,根据本公开的实施例的稀疏地图可以包含沿着道路段延伸的路面特征的至少一个线表示,每个线表示表示沿着道路段基本上对应于路面特征的路径。在一些实施例中,如上所述,路面特征的至少一个线表示可以包含样条、多项式表示或曲线。此外,在一些实施例中,路面特征可以包含道路边缘或车道标记中的至少一个。此外,如下面关于“众包”所讨论的,可以通过对当一个或多个车辆穿越道路段时获取的多个图像的图像分析来识别路面特征。
如前所述,稀疏地图800可以包含与道路段相关联的多个预定地标。稀疏地图800中的每个地标可以使用比储存的实际图像所需的更少的数据来表示和识别,而不是储存地标的实际图像并依赖于例如基于捕获的图像和储存的图像的图像辨识分析。表示地标的数据仍然可以包含用于描述或识别沿着道路的地标的足够信息。储存描述地标的特性的数据,而不是地标的实际图像,可以减小稀疏地图800的大小。
图10示出了可以在稀疏地图800中表示的地标的类型的示例。地标可以包含沿着道路段的任何可见且可识别的对象。可以选择地标,使得它们是固定的,并且相对于它们的位置和/或内容不会经常改变。稀疏地图800中包含的地标在车辆穿越特定道路段时确定车辆200相对于目标轨迹的位置是有用的。地标的示例可以包含交通标志、方向标志、一般标志(例如,矩形标志)、路边固定装置(例如,灯柱、反射器等)以及任何其他合适的类别。在一些实施例中,道路上的车道标记也可以作为地标被包含在稀疏地图800中。
图10中示出的地标的示例包含交通标志,方向标志,路边固定装置和一般标志。交通标志可以包含,例如限速标志(例如,限速标志1000)、让行标志(例如,让行标志1005)、路线号标志(例如,路线号标志1010)、交通灯标志(例如,交通灯标志1015)、停车标志(例如,停车标志1020)。方向标志可以包含标志,该标志包含一个或多个箭头,该箭头指示到不同地方的一个或多个方向。例如,方向标志可以包含具有用于将车辆引导到不同道路或地方的箭头的高速公路标志1025、具有将车辆引导离开道路的箭头的出口标志1030等等。因此,多个地标中的至少一个可以包含道路标志。
一般标志可以与交通无关。例如,一般标志可能包含用于广告的广告牌,或两国、州、县、市或城镇之间边界附近的欢迎板。图10示出了一般标志1040(“乔的餐厅”)。尽管一般标志1040可以具有矩形形状,如图10所示,但是一般标志1040可以具有其他形状,诸如正方形,圆形,三角形等。
地标还可能包含路边固定装置。路边固定装置可以不是标志,也可以与交通或方向无关。例如,路边固定装置可以包含灯柱(例如,灯柱1035)、电力线柱、交通灯柱等。
地标还可以包含专门设计用于自主车辆导航系统的信标。例如,这种信标可以包含以预定间隔放置的独立结构,以帮助导航主车辆。这种信标还可以包含添加到现有道路标志的可视/图形信息(例如,图标、徽章、条形码等),该可视/图形信息可以被沿着道路段行驶的车辆识别或辨识。这种信标还可以包含电子组件。在这样的实施例中,电子信标(例如,RFID标签等)可用于向主车辆传输非可视信息。这种信息可以包含例如主车辆在确定其沿目标轨迹的位置时可以使用的地标标识和/或地标位置信息。
在一些实施例中,稀疏地图800中包含的地标可以由预定大小的数据对象来表示。表示地标的数据可以包含用于识别特定地标的任何合适的参数。例如,在一些实施例中,储存在稀疏地图800中的地标可以包含参数,诸如地标的物理大小(例如,以支持基于已知大小/比例的到地标的距离的估计)、到先前地标的距离、横向偏移、高度、类型代码(例如,地标类型——什么类型的方向标志、交通标志等)、GPS坐标(例如,支持全球定位)和任何其他合适的参数。每个参数可以与数据大小相关联。例如,可以使用8字节的数据来储存地标大小。可以使用12字节的数据来指定到先前地标的距离、横向偏移和高度。与诸如方向标志或交通标志的地标相关联的类型代码可以需要大约2字节的数据。对于一般标志,可以使用50字节的数据存储装置来储存使能识别一般标志的图像签名。地标GPS位置可以与16字节的数据存储装置相关联。每个参数的这些数据大小只是示例,也可以使用其他数据大小。
以这种方式在稀疏地图800中表示地标可以提供用于在数据库中有效地表示地标的精简方案。在一些实施例中,标志可以被称为语义标志和非语义标志。语义标志可以包含具有标准化含义的任何类别的标志(例如,限速标志、警告标志、方向标志等)。非语义标志可以包含与标准化含义不相关联的任何标志(例如,一般广告标志、标识商业机构的标志等)。例如,每个语义标志可以用38字节的数据来表示(例如,8字节用于大小;12字节用于到先前地标的距离、横向偏移和高度;2字节用于类型代码;以及16字节用于GPS坐标)。稀疏地图800可以使用标签系统来表示地标类型。在一些情况下,每个交通标志或方向标志可以与其自己的标签相关联,该标签可以作为地标标识的一部分储存在数据库中。例如,数据库可以包含大约1000个不同的标签来表示各种交通标志,以及大约10000个不同的标签来表示方向标志。当然,可以使用任何合适数量的标签,并且可以根据需要创建附加标签。在一些实施例中,一般用途标志可以使用小于约100字节(例如,约86字节,包含8字节用于大小;12字节用于到先前地标的距离、横向偏移和高度;50字节用于图像签名;以及16字节用于GPS坐标)。
因此,对于不需要图像签名的语义道路标志,即使以大约每50米1个的相对高的地标密度,对稀疏地图800的数据密度影响也可以是大约每千米760字节(例如,每千米20个地标×每地标38字节=760字节)。即使对于包含图像签名组件的一般用途标志,数据密度影响也约为每千米1.72千字节(例如,每千米20个地标×每地标86字节=1,720字节)。对于语义道路标志,这相当于对于行驶100千米/hr的车辆的每小时约76kB的数据使用。对于一般用途标志,这相当于对于行驶100千米/hr的车辆的每小时约170kB的数据使用。
在一些实施例中,诸如矩形标志的一般矩形对象可以在稀疏地图800中由不超过100字节的数据来表示。稀疏地图800中的一般矩形对象(例如,一般标志1040)的表示可以包含与一般矩形对象相关联的压缩(condensed)图像签名(例如,压缩图像签名1045)。这种压缩图像签名可以用于例如帮助一般标志的识别,例如作为识别的地标。这种压缩图像签名(例如,从表示对象的实际图像数据导出的图像信息)可以避免储存对象的实际图像的需要,或者避免对实际图像执行比较图像分析以识别地标的需要。
参考图10,稀疏地图800可以包含或储存与一般标志1040相关联的压缩图像签名1045,而不是一般标志1040的实际图像。例如,在图像捕获装置(例如,图像捕获装置122、124或126)捕获一般标志1040的图像之后,处理器(例如,可以处理图像的图像处理器190或任何其他处理器,其在主车辆上或相对于主车辆位于远处)可以执行图像分析以提取/创建包含与一般标志1040相关联的唯一签名或图案的压缩图像签名1045。在一个实施例中,压缩图像签名1045可以包含形状、颜色图案、亮度图案或可以从一般标志1040的图像中提取的用于描述一般标志1040的任何其他特征。
例如,在图10中,压缩图像签名1045中所示的圆形、三角形和星形可以表示不同颜色的区域。由圆形、三角形和星形表示的图案可以储存在稀疏地图800中,例如,在被指定为包含图像签名的50个字节内。值得注意的是,圆形、三角形和星形不一定意图指示这些形状作为图像签名的一部分被储存。相反,这些形状意图在概念上表示具有可辨别的颜色差异的可辨识区域、文本区域、图形形状或者可以与一般标志相关联的特性的其他变化。这种压缩图像签名可用于以一般标志的形式识别地标。例如,压缩图像签名可用于基于储存的压缩图像签名与例如使用自主车辆上的相机捕获的图像数据的比较来执行相同或不同的分析。
因此,可以通过对当一个或多个车辆穿越道路段时获取的多个图像进行图像分析来识别多个地标。如下面关于“众包”所解释的,在一些实施例中,识别多个地标的图像分析可以包含当地标确实出现的图像与地标没有出现的图像的比率超过阈值时接受潜在地标。此外,在一些实施例中,识别多个地标的图像分析可以包含当地标没有出现的图像与地标确实出现的图像的比率超过阈值时拒绝潜在地标。
回到主车辆可以用来导航特定道路段的目标轨迹,图11A示出了在建造或维持稀疏地图800的过程中捕获的多项式表示轨迹。稀疏地图800中包含的目标轨迹的多项式表示可以基于车辆沿着相同道路段的先前穿越的两个或更多个重建轨迹来确定。在一些实施例中,稀疏地图800中包含的目标轨迹的多项式表示可以是沿着相同道路段的车辆的先前穿越的两个或更多个重建轨迹的聚合。在一些实施例中,稀疏地图800中包含的目标轨迹的多项式表示可以是车辆沿着相同道路段的先前穿越的两个或更多个重建轨迹的平均。其他数学运算也可以用于基于从沿着道路段穿越的车辆收集的重建轨迹来构建沿着道路路径的目标轨迹。
如图11A所示,道路段1100可以由多个车辆200在不同时间处行驶。每个车辆200可以收集与车辆沿着道路段所走的路径相关的数据。由特定车辆行驶的路径可以基于相机数据、加速度计信息、速度传感器信息和/或GPS信息以及其他潜在来源来确定。这种数据可用于重建沿着道路段行驶的车辆的轨迹,并且基于这些重建轨迹,可为特定道路段确定目标轨迹(或多个目标轨迹)。这种目标轨迹可以表示主车辆沿着道路段行驶时的(例如,由自主导航系统所引导的)该车辆的优选路径。
在图11A所示的示例中,第一重建轨迹1101可以基于从在第一时间段(例如,第一天)穿越道路段1100的第一车辆接收的数据来确定,第二重建轨迹1102可以从在第二时间段(例如,第二天)穿越道路段1100的第二车辆获得,第三重建轨迹1103可以从在第三时间段(例如,第三天)穿越道路段1100的第三车辆获得。每个轨迹1101、1102和1103可以由多项式表示,诸如三维多项式。应当注意,在一些实施例中,任何重建轨迹可以在穿越道路段1100的车辆上组装。
附加地或替代地,可以基于从穿越道路段1100的车辆接收的信息在服务器侧确定这样的重建轨迹。例如,在一些实施例中,车辆200可以向一个或多个服务器发送与它们沿着道路段1100的运动相关的数据(例如,转向角、航向、时间、位置、速度、感测的道路几何结构和/或感测的地标等)。服务器可以基于接收到的数据重建车辆200的轨迹。服务器还可以基于第一轨迹1101、第二轨迹1102和第三轨迹1103生成用于引导将在稍后的时间沿着相同道路段1100行驶的自主车辆的导航的目标轨迹。虽然目标轨迹可以与道路段的单个先前穿越相关联,但是在一些实施例中,稀疏地图800中包含的每个目标轨迹可以基于穿越相同道路段的车辆的两个或更多个重建轨迹来确定。在图11A中,目标轨迹由1110表示。在一些实施例中,目标轨迹1110可以基于第一轨迹1101、第二轨迹1102和第三轨迹1103的平均来生成。在一些实施例中,稀疏地图800中包含的目标轨迹1110可以是两个或更多个重建轨迹的聚合(例如,加权组合)。
图11B和11C进一步示出了与地理区域1111内存在的道路段相关联的目标轨迹的概念。如图11B所示,地理区域1111内的第一道路段1120可以包含多车道道路,该多车道道路包含指定用于车辆在第一方向上行驶的两条车道1122和指定用于车辆在与第一方向相反的第二方向上行驶的两条附加车道1124。车道1122和车道1124可以由双黄线1123分开。地理区域1111还可以包含与道路段1120相交的分支道路段1130。道路段1130可以包含双车道道路,每个车道被指定用于不同的行驶方向。地理区域1111还可以包含其他道路特征,诸如停车线1132、停车标志1134、限速标志1136和危险标志1138。
如图11C所示,稀疏地图800可以包含局部地图1140,该局部地图1140包含用于帮助地理区域1111内的车辆的自主导航的道路模型。例如,局部地图1140可以包含与地理区域1111内的道路段1120和/或1130相关联的一个或多个车道的目标轨迹。例如,局部地图1140可以包含自主车辆在穿越车道1122时可以访问或依赖的目标轨迹1141和/或1142。类似地,局部地图1140可以包含自主车辆在穿越车道1124时可以访问或依赖得到目标轨迹1143和/或1144。此外,局部地图1140可以包含自主车辆在穿越道路段1130时可以访问或依赖的目标轨迹1145和/或1146。目标轨迹1147表示当从车道1120(具体而言,相对于与车道1120的最右侧车道相关联的目标轨迹1141)过渡到道路段1130(具体而言,相对于与道路段1130的第一侧相关联的目标轨迹1145)时,自主车辆应该遵循的优选路径。类似地,目标轨迹1148表示当从道路段1130(具体地,相对于目标轨迹1146)过渡到道路段1124的一部分(具体地,如图所示,相对于与车道1124的左车道相关联的目标轨迹1143)时,自主车辆应该遵循的优选路径。
稀疏地图800还可以包含与地理区域1111相关联的其他道路相关特征的表示。例如,稀疏地图800还可以包含在地理区域1111中识别的一个或多个地标的表示。这些地标可以包含与停车线1132相关联的第一地标1150、与停车标志1134相关联的第二地标1152、与限速标志1154相关联的第三地标以及与危险标志1138相关联的第四地标1156。这种地标可以用于例如帮助自主车辆确定其相对于任何所示目标轨迹的当前位置,使得车辆可以调整其航向以匹配在确定的位置处的目标轨迹的方向。
在一些实施例中,稀疏地图800还可以包含道路签名轮廓。这种道路签名轮廓可以与至少一个与道路相关联的参数的任何可辨别/可测量的变化相关联。例如,在一些情况下,这种轮廓可以与路面信息的变化相关联,诸如特定道路段的表面粗糙度的变化、特定道路段上道路宽度的变化、沿着特定道路段绘制的虚线之间的距离的变化、沿着特定道路段的道路曲率的变化等。图11D示出了道路签名轮廓1160的示例。虽然轮廓1160可以表示上述参数中的任意参数或其他参数,但是在一个示例中,轮廓1160可以表示路面粗糙度的测量,例如,如通过监控一个或多个传感器来获得,该一个或多个传感器提供指示车辆在特定道路段上行驶时悬架位移量的输出。
替代地或同时地,轮廓1160可以表示道路宽度的变化,如基于经由在特定道路段上行驶的车辆上的相机获得的图像数据来确定的。例如,这种轮廓在确定自主车辆相对于特定目标轨迹的特定位置时是有用的。也就是说,当它穿越道路段时,自主车辆可以测量与道路段相关联的一个或多个参数相关联的轮廓。如果测量的轮廓可以与相对于沿着道路段的位置绘制参数变化的预定轮廓相关/匹配,则可以使用测量的和预定的轮廓(例如,通过覆盖测量的和预定的轮廓的对应部分),以便确定沿着道路段的当前位置,并且因此确定相对于道路段的目标轨迹的当前位置。
在一些实施例中,稀疏地图800可以包含基于与自主车辆的用户相关联的不同特性、环境条件和/或与驾驶相关的其他参数的不同轨迹。例如,在一些实施例中,可以基于不同的用户偏好和/或轮廓来生成不同的轨迹。包含这种不同轨迹的稀疏地图800可以被提供给不同用户的不同自主车辆。例如,一些用户可能偏好避开收费公路,而其他用户可能偏好走最短或最快的路线,而不管路线上是否有收费公路。所公开的系统可以基于这种不同的用户偏好或轮廓生成具有不同轨迹的不同稀疏地图。作为另一个示例,一些用户可能偏好在快速移动的车道上行驶,而其他用户可能偏好始终维持在中心车道上的位置。
基于不同的环境条件,诸如白天和黑夜、雪、雨、雾等,可以生成不同的轨迹并将其包含在稀疏地图800中。在不同环境条件下行驶的自主车辆可以被提供有基于这种不同环境条件生成的稀疏地图800。在一些实施例中,在自主车辆上提供的相机可以检测环境条件,并且可以将这种信息提供回生成并提供稀疏地图的服务器。例如,服务器可以生成或更新已经生成的稀疏地图800,以包含在检测到的环境条件下可能更适合或更安全用于自主驾驶的轨迹。当自主车辆沿着道路行驶时,可以动态地执行基于环境条件的稀疏地图800的更新。
与驾驶相关的其他不同参数也可以用作生成不同的稀疏地图并将不同的稀疏地图提供给不同的自主车辆的基础。例如,当自主车辆以高速行驶时,转弯可能会更困难(tighter)。与特定车道而不是道路相关联的轨迹可以被包含在稀疏地图800中,使得当车辆遵循特定轨迹时,自主车辆可以维持在特定车道内。当由自主车辆上的相机捕获的图像指示车辆已经漂移到车道之外(例如,越过车道标志)时,可以在车辆内触发动作,以根据特定轨迹将车辆带回指定车道。
众包稀疏地图
在一些实施例中,所公开的系统和方法可以生成用于自主车辆导航的稀疏地图。例如,所公开的系统和方法可以使用众包数据来生成稀疏,一个或多个自主车辆可以使用该稀疏来沿着道路的系统导航。如这里所使用的,“众包”意味着从在不同时间处在道路段上行驶的各种车辆(例如,自主车辆)接收数据,并且这些数据被用于生成和/或更新道路模型。模型又可以被发送到稍后沿着道路段行驶的车辆或其他车辆,以用于辅助自主车辆导航。道路模型可以包含多个目标轨迹,这些目标轨迹表示自主车辆在穿越道路段时应该遵循的优选轨迹。目标轨迹可以与从穿越道路段的车辆收集的重建的实际轨迹相同,其可以从车辆发送到服务器。在一些实施例中,目标轨迹可以不同于一个或多个车辆先前在穿越道路段时所采用的实际轨迹。目标轨迹可以基于实际轨迹生成(例如,通过平均或任何其他合适的操作)。
车辆可以上传到服务器的车辆轨迹数据可以与车辆的实际重建轨迹对应,或者可以对应于推荐轨迹,该推荐轨迹可以基于车辆的实际重建轨迹或与之相关,但是可以不同于实际重建轨迹。例如,车辆可以修改它们的实际重建轨迹,并且向服务器提交(例如,推荐)修改的实际轨迹。道路模型可以使用推荐的、修改的轨迹作为其他车辆自主导航的目标轨迹。
除了轨迹信息之外,在建造稀疏数据地图800中潜在使用的其他信息可以包含与潜在地标候选相关的信息。例如,通过信息的众包,所公开的系统和方法可以识别环境中的潜在地标并细化地标位置。自主车辆的导航系统可以使用这些地标来确定和/或调整车辆沿着目标轨迹的位置。
车辆沿着道路行驶时可以生成的重建轨迹可以通过任何合适的方法获得。在一些实施例中,重建轨迹可以通过使用例如自我运动估计(例如,相机(以及由此的车身)的三维平移和三维旋转)将车辆的运动段拼接(stitch)在一起来产生。旋转和平移估计可以基于对由一个或多个图像捕获装置捕获的图像以及来自其他传感器或装置(诸如惯性传感器和速度传感器)的信息的分析来确定。例如,惯性传感器可以包含加速度计或其他合适的传感器,其被配置成测量车身平移和/或旋转的改变。车辆可以包含测量车辆的速度的速度传感器。
在一些实施例中,可以基于所捕获图像的光流分析来估计相机(以及由此的车身)的自我运动。图像序列的光流分析从图像序列中识别像素的移动,并且基于所识别的运动,确定车辆的运动。自我运动可以随着时间和沿着道路段被积分,以重建与车辆已经遵循的道路段相关联的轨迹。
沿着道路段在不同时间处由多个驾驶中的多个车辆收集的数据(例如,重建轨迹)可用于构建包含在稀疏数据地图800中的道路模型(例如,包含目标轨迹等)。还可以对沿着道路段在不同时间处由多个驾驶中的多个车辆收集的数据进行平均,以提高模型的精度。在一些实施例中,可以从在不同时间处穿越公共道路段的多个车辆接收关于道路几何结构和/或地标的数据。从不同车辆接收的这种数据可以被组合以生成道路模型和/或更新道路模型。
沿着道路段的重建轨迹(以及目标轨迹)的几何结构可以由三维空间中的曲线表示,该曲线可以是连接三维多项式的样条。重建轨迹曲线可以通过分析由安装在车辆上的相机捕获的视频流或多个图像来确定。在一些实施例中,在车辆当前位置前方几米的每个帧或图像中识别位置。该位置是车辆预期在预定时间段内行驶的位置。该操作可以逐帧重复,同时,车辆可以计算相机的自我运动(旋转和平移)。在每一帧或每一个图像中,车辆在附接到相机的参考帧中生成期望路径的短程模型。短程模型可以被拼接在一起,以在某个坐标帧中获得道路的三维模型,该坐标帧可以是任意的或预定的坐标帧。然后,道路的三维模型可以由样条拟合,该样条可以包含或连接一个或多个合适阶数的多项式。
为了在每个帧处总结短程道路模型,可以使用一个或多个检测模块。例如,可以使用自底向上(bottom-up)的车道检测模块。当在道路上绘制车道标志时,自底向上的车道检测模块可以是有用的。该模块可以在图像中寻找边缘,并将它们组装在一起以形成车道标志。第二模块可以与自底向上车道检测模块一起使用。第二模块是端到端深度神经网络,其可以被训练以从输入图像预测正确的短程路径。在这两个模块中,道路模型可以在图像坐标帧中被检测,并且被转换成可以虚拟地附接到相机的三维空间。
尽管重建轨迹建模方法可能由于长时间段的自我运动的积分而引入误差的累积,这可能包含噪声分量,但是这种误差可能是无关紧要的,因为生成的模型可以为局部比例上的导航提供足够的精度。此外,还可以通过使用卫星图像或大地测量等外部信息源来消除积分误差。例如,所公开的系统和方法可以使用GNSS接收器来消除累积误差。然而,GNSS定位信号可能并不总是可用和准确的。所公开的系统和方法可以使能弱依赖于GNSS定位的可用性和精度的转向应用。在这种系统中,GNSS信号的使用可能受到限制。例如,在一些实施例中,所公开的系统可以将GNSS信号仅用于数据库索引目的。
在一些实施例中,与自主车辆导航转向应用相关的范围比例(例如,局部比例)可以大约为50米、100米、200米、300米等。可以使用这样的距离,因为几何道路模型主要用于两个目的:计划前方轨迹和在道路模型上定位车辆。在一些实施例中,当控制算法根据位于前方1.3秒(或任何其他时间,例如1.5秒、1.7秒、2秒等)的目标点使车辆转向时,计划任务可以使用在前方40米(或任何其他合适的前方距离,例如20米、30米、50米)的典型范围内的模型。定位任务使用在汽车后60米(或任何其他合适的距离,诸如50米、100米、150米等)的典型范围内的道路模型。根据另一节中更详细描述的称为“尾部对齐”的方法。所公开的系统和方法可以生成在特定范围(诸如100米)上具有足够精度的几何模型,使得计划的轨迹不会偏离车道中心超过例如30厘米。
如上所述,可以根据检测短程道路段并将它们拼接在一起来构建三维道路模型。可以通过使用相机捕获的视频和/或图像、来自反映车辆的运动的惯性传感器的数据以及主车辆速度信号来计算六度自我运动模型来使能拼接。累积误差在某个局部范围比例(诸如大约100米)上可能足够小。所有这些都可以在特定道路段上的单个驾驶中完成。
在一些实施例中,可以使用多个驾驶来对得到的模型进行平均,并进一步提高其精度。相同汽车可以多次行驶相同路线,或者多辆汽车可以将它们收集到的模型数据传送到中央服务器。在任何情况下,可以执行匹配过程来识别重叠的模型并使能平均,以便生成目标轨迹。一旦满足收敛标准,构建的模型(例如,包含目标轨迹)可用于转向。后续驾驶可用于进一步的模型改进和适应基础设施改变。
如果多辆汽车连接到一个中央服务器,则它们之间共享驾驶经验(诸如感测的数据)变得可行。每个车辆客户端可以储存一般道路模型的部分副本,该副本可以与其当前位置相关。车辆和服务器之间的双向更新过程可以由车辆和服务器执行。上面讨论的小足迹概念使得所公开的系统和方法能够使用非常小的带宽来执行双向更新。
还可以确定与潜在地标相关的信息,并将其转发给中央服务器。例如,所公开的系统和方法可以基于包含地标的一个或多个图像来确定潜在地标的一个或多个物理属性。物理属性可以包含地标的物理大小(例如,高度、宽度)、从车辆到地标的距离、地标到先前地标之间的距离、地标的横向位置(例如,地标相对于行驶的车道的位置)、地标的GPS坐标、地标的类型、地标上的文本标识等。例如,车辆可以分析由相机捕获的一个或多个图像,以检测潜在地标,诸如限速标志。
车辆可以基于对一个或多个图像的分析来确定从车辆到地标的距离。在一些实施例中,可以使用合适的图像分析方法,例如缩放方法和/或光流方法,基于对地标的图像的分析来确定距离。在一些实施例中,所公开的系统和方法可以被配置成确定潜在地标的类型或分类。在车辆确定某潜在地标对应于储存在稀疏地图中的预定类型或分类的情况下,车辆将地标的类型或分类的指示连同其位置传送给服务器就足够了。服务器可以储存这样的指示。在稍后的时间,其他车辆可以捕获地标的图像,处理该图像(例如,使用分类器),并将处理该图像的结果与储存在服务器中的关于地标类型的指示进行比较。可以有各种类型的地标,并且不同类型的地标可以与上传到服务器并储存在服务器中的不同类型的数据相关联,车辆上的不同处理可以检测地标并将关于地标的信息传送到服务器,并且车辆上的系统可以从服务器接收地标数据并使用地标数据以用于在自主导航中识别地标。
在一些实施例中,在道路段上行驶的多个自主车辆可以与服务器通信。车辆(或客户端)可以在任意坐标帧中生成描述其驾驶的曲线(例如,通过自我运动积分)。车辆可以检测地标并在相同帧中定位它们。车辆可以将曲线和地标上传到服务器。服务器可以通过多个驾驶从车辆收集数据,并生成统一的道路模型。或者例如,如下面参考图19所讨论的,服务器可以使用上传的曲线和地标生成具有统一道路模型的稀疏地图。
服务器还可以将模型分发给客户端(例如,车辆)。例如,服务器可以将稀疏地图分发给一个或多个车辆。当从车辆接收到新数据时,服务器可以连续或周期性地更新模型。例如,服务器可以处理新数据以评估该数据是否包含应该触发服务器上新数据的更新或创建的信息。服务器可以将更新的模型或更新分发给车辆,以用于提供自主车辆导航。
服务器可以使用一个或多个标准来确定从车辆接收的新数据是否应该触发对模型的更新或者触发新数据的创建。例如,当新数据指示在特定位置的先前识别的地标不再存在,或者被另一个地标替换时,服务器可以确定新数据应该触发对模型的更新。作为另一个示例,当新数据指示道路段已经关闭,并且当这已经被从其他车辆接收的数据证实时,服务器可以确定新数据应该触发对模型的更新。
服务器可以将更新的模型(或模型的更新部分)分发给在与模型更新相关联的道路段上行驶的一个或多个车辆。服务器还可以将更新后的模型分发给将要在道路段上行驶的车辆,或者其计划行程包含与模型更新相关联的道路段的车辆。例如,当自主车辆在到达与更新相关联的道路段之前沿着另一道路段行驶时,服务器可以在车辆到达道路段之前将更新或更新的模型分发到自主车辆。
在一些实施例中,远程服务器可以从多个客户端(例如,沿着公共道路段行驶的车辆)收集轨迹和地标。服务器可以使用地标匹配曲线,并基于从多个车辆收集的轨迹创建平均道路模型。服务器还可以计算道路的图和道路段的每个节点或连接处的最可能路径。例如,远程服务器可以对齐轨迹以从收集的轨迹生成众包稀疏地图。
服务器可以对从沿着公共道路段行驶的多个车辆接收的地标属性进行平均,诸如由多个车辆测量的一个地标到另一个地标(例如,沿着道路段的前一个地标)之间的距离,以确定弧长参数并支持每个客户端车辆沿着路径的定位和速度校准。服务器可以对由沿着公共道路段行驶并辨识相同地标的多个车辆测量的地标的物理尺寸进行平均。平均物理尺寸可用于支持距离估计,诸如从车辆到地标的距离。服务器可以对由沿着公共道路段行驶并辨识相同地标的多个车辆测量的地标的横向位置(例如,从车辆正在行驶的车道到地标的位置)进行平均。平均横向部分可用于支持车道分配。服务器可以对由沿着相同道路段行驶并辨识相同地标的多个车辆测量的地标的GPS坐标进行平均。地标的平均GPS坐标可用于支持道路模型中地标的全球定位(localization)或定位(positioning)。
在一些实施例中,基于从车辆接收的数据,服务器可以识别模型改变,诸如构建、绕行、新标志、标志的移除等。当从车辆接收到新数据时,服务器可以连续地或周期性地或瞬时地更新模型。服务器可以将对模型的更新或更新后的模型分发给车辆,以用于提供自主导航。例如,如下面进一步讨论的,服务器可以使用众包数据来过滤掉由车辆检测到的“幽灵(ghost)”地标。
在一些实施例中,服务器可以分析自主驾驶期间的驾驶员干预。服务器可以分析在干预发生的时间和位置从车辆接收的数据,和/或在干预发生的时间之前接收的数据。服务器可以识别引起干预或与干预密切相关的数据的某些部分,例如,指示临时车道封闭设置的数据、指示道路中行人的数据。服务器可以基于识别的数据更新模型。例如,服务器可以修改储存在模型中的一个或多个轨迹。
图12是使用众包生成稀疏地图(以及使用众包稀疏地图分发和导航)的系统的示意图。图12示出了包含一个或多个车道的道路段1200。多个车辆1205、1210、1215、1220和1225可以在相同时间或在不同时间在道路段1200上行驶(尽管在图12中显示为在相同时间出现在道路段1200上)。车辆1205、1210、1215、1220和1225中的至少一个可以是自主车辆。为了简化本示例,假定所有车辆1205、1210、1215、1220和1225都为自主车辆。
每个车辆可以类似于在其他实施例中公开的车辆(例如,车辆200),并且可以包含被包含在其他实施例中公开的车辆中或者与其他实施例中公开的车辆相关联的组件或装置。每个车辆可以配备有图像捕获装置或相机(例如,图像捕获装置122或相机122)。每个车辆可以经由一个或多个网络(例如,通过蜂窝网络和/或互联网等)通过如虚线所示的无线通信路径1235与远程服务器1230通信。每个辆车可以向服务器1230发送数据,并从服务器1230接收数据。例如,服务器1230可以从在不同时间在道路段1200上行驶的多个车辆收集数据,并且可以处理所收集的数据以生成自主车辆道路导航模型,或者对模型的更新。服务器1230可以将自主车辆道路导航模型或对模型的更新发送到向服务器1230发送数据的车辆。服务器1230可以将自主车辆道路导航模型或对模型的更新发送给稍后在道路段1200上行驶的其他车辆。
当车辆1205、1210、1215、1220和1225在道路段1200上行驶时,由车辆1205、1210、1215、1220和1225收集(例如,检测、感测或测量)的导航信息可以被发送到服务器1230。在一些实施例中,导航信息可以与公共道路段1200相关联。导航信息可以包含当每个车辆在道路段1200上行驶时与每个车辆1205、1210、1215、1220和1225相关联的轨迹。在一些实施例中,可以基于由车辆1205上提供的各种传感器和装置感测的数据来重建轨迹。例如,可以基于加速度计数据、速度数据、地标数据、道路几何结构或轮廓数据、车辆位置数据和自我运动数据中的至少一个来重建轨迹。在一些实施例中,可以基于来自惯性传感器(诸如加速度计)的数据和由速度传感器感测的车辆1205的速度来重建轨迹。此外,在一些实施例中,可以基于感测的相机的自我运动来确定轨迹(例如,通过车辆1205、1210、1215、1220和1225中的每一个上的处理器),该感测的相机的自我运动可以指示三维平移和/或三维旋转(或旋转运动)。相机(以及由此的车身)的自我运动可以通过对相机捕获的一个或多个图像的分析来确定。
在一些实施例中,车辆1205的轨迹可以由在车辆1205上提供的处理器确定,并被发送到服务器1230。在其他实施例中,服务器1230可以接收由在车辆1205中提供的各种传感器和装置感测的数据,并基于从车辆1205接收的数据确定轨迹。
在一些实施例中,从车辆1205、1210、1215、1220和1225发送到服务器1230的导航信息可以包含关于路面、道路几何结构或道路轮廓的数据。道路段1200的几何结构可以包含车道结构和/或地标。车道结构可以包含道路段1200的车道总数、车道类型(例如,单车道、双车道、行驶车道、超车车道等)、车道上的标记,车道宽度等。在一些实施例中,导航信息可以包含车道分配,例如,车辆正在多个车道中的哪个车道中行驶。例如,车道分配可以与数字值“3”相关联,该数字值“3”指示车辆正在从左侧或右侧的第三车道上行驶。作为另一个示例,车道分配可以与文本值“中心车道”相关联,该文本值指示车辆正在中心车道上行驶。
服务器1230可以将导航信息储存在非暂时性计算机可读介质上,诸如硬盘驱动器、光盘、磁带、存储器等。服务器1230可以基于从多个车辆1205、1210、1215、1220和1225接收的导航信息,为公共道路段1200生成(例如,通过包含在服务器1230中的处理器)自主车辆道路导航模型的至少一部分,并且可以将该模型储存为稀疏地图的一部分。服务器1230可以基于从在不同时间在道路段的车道上行驶的多个车辆(例如,1205、1210、1215、1220和1225)接收的众包数据(例如,导航信息)来确定与每个车道相关联的轨迹。服务器1230可以基于基于众包导航数据确定的多个轨迹来生成自主车辆道路导航模型或模型的一部分(例如,更新部分)。服务器1230可以将模型或模型的更新部分发送到在道路段1200上行驶的自主车辆1205、1210、1215、1220和1225中的一个或多个,或者在稍后的时间在道路段上行驶的任何其他自主车辆,以用于更新在车辆的导航系统中提供的现有自主车辆道路导航模型。自主车辆道路导航模型可以被自主车辆用于沿着公共道路段1200的自主导航。
如上所述,自主车辆道路导航模型可以包含在稀疏地图(例如,图8中描绘的稀疏地图800)中。稀疏地图800可以包含与沿着道路的道路几何结构和/或地标相关的数据的稀疏记录,这可以为引导自主车辆的自主导航提供足够的信息,但是不需要过多的数据存储。在一些实施例中,自主车辆道路导航模型可以与稀疏地图800分开储存,并且当该模型被执行用于导航时,可以使用来自稀疏地图800的地图数据。在一些实施例中,自主车辆道路导航模型可以使用稀疏地图800中包含的地图数据来确定沿着道路段1200的目标轨迹,以用于引导自主车辆1205、1210、1215、1220和1225或稍后沿着道路段1200行驶的其他车辆的自主导航。例如,当自主车辆道路导航模型由包含在车辆1205的导航系统中的处理器执行时,该模型可以使处理器将基于从车辆1205接收的导航信息确定的轨迹与包含在稀疏地图800中的预定轨迹进行比较,以验证和/或校正车辆1205的当前行驶路线。
在自主车辆道路导航模型中,道路特征或目标轨迹的几何结构可以由三维空间中的曲线编码。在一个实施例中,曲线可以是三维样条,包含一个或多个连接三维多项式。如本领域技术人员所理解的,样条可以是由一系列多项式逐段定义的用于拟合数据的数值函数。用于拟合道路的三维几何数据的样条可以包含线性样条(一阶)、二次样条(二阶)、三次样条(三阶)、或任何其他样条(其他阶)、或其组合。样条可以包含连接(例如,拟合)道路的三维几何数据的数据点的不同阶的一个或多个三维多项式。在一些实施例中,自主车辆道路导航模型可以包含对应于沿着公共道路段(例如,道路段1200)或道路段1200的车道的目标轨迹的三维样条。
如上所述,稀疏地图中包含的自主车辆道路导航模型可以包含其他信息,诸如沿着道路段1200的至少一个地标的标识。地标可以在安装在车辆1205、1210、1215、1220和1225中的每一个上的相机(例如,相机122)的视场内可见。在一些实施例中,相机122可以捕获地标的图像。车辆1205上提供的处理器(例如,处理器180、190或处理单元110)可以处理地标的图像以提取地标的识别信息。地标识别信息,而不是地标的实际图像,可以储存在稀疏地图800中。地标识别信息可以需要比实际图像少得多的存储空间。其他传感器或系统(例如,GPS系统)也可以提供地标的某些识别信息(例如,地标的位置)。地标可以包含交通标志、箭头标志、车道标志、虚线车道标志、交通灯、停车线、方向标志(例如,具有指示方向的箭头的高速公路出口标志、具有指向不同方向或地方的箭头的高速公路标志)、地标信标或灯柱中的至少一个。地标信标是指沿着道路段安装的装置(例如,RFID装置),其向安装在车辆上的接收器发送或反射信号,使得当车辆经过该装置时,由车辆接收的信标和(例如,从装置的GPS位置确定的)装置的位置可以被用作要被包含在自主车辆道路导航模型和/或稀疏地图800中的地标。
至少一个地标的标识可以包含至少一个地标的位置。地标的位置可以基于使用与多个车辆1205、1210、1215、1220和1225相关联的传感器系统(例如,全球定位系统、基于惯性的定位系统、地标信标等)执行的位置测量来确定。在一些实施例中,地标的位置可以通过对不同车辆1205、1210、1215、1220和1225上的传感器系统通过多次驾驶检测、收集或接收的位置测量进行平均来确定。例如,车辆1205、1210、1215、1220和1225可以向服务器1230发送位置测量,服务器1230可以对位置测量进行平均,并将平均的位置测量用作地标的位置。地标的位置可以通过从后续驾驶中的车辆接收的测量来不断地细化。
地标的标识可以包含地标的大小。车辆(例如1205)上提供的处理器可以基于图像的分析来估计地标的物理大小。服务器1230可以通过不同的驾驶从不同的车辆接收相同地标的物理大小的多个估计。服务器1230可以对不同的估计进行平均,以得出地标的物理大小,并将地标大小储存在道路模型中。物理大小估计可用于进一步确定或估计从车辆到地标的距离。到地标的距离可以基于车辆的当前速度和基于图像中出现的地标相对于相机的扩展的焦点的位置的扩展比例来估计。例如,到地标的距离可以通过Z=V*dt*R/D来估计,其中V是车辆的速度,R是图像中从时间t1处的地标到扩展的焦点的距离,并且D是图像中从t1到t2的地标的距离改变。dt表示(t2-t1)。例如,到地标的距离可以通过Z=V*dt*R/D来估计,其中V是车辆的速度,R是图像中地标和扩展焦点之间的距离,dt是时间间隔,D是地标沿着核线的图像位移。与上述等式等效的其他等式,诸如Z=V*ω/Δω,可以用于估计到地标的距离。这里,V是车辆速度,ω是图像长度(类似对象宽度),Δω是该图像长度在单位时间内的改变。
当地标的物理大小已知时,到地标的距离也可以基于以下等式来确定:Z=f*W/ω,其中f为焦距,W为地标的大小(如高度或宽度),ω为地标离开图像时的像素数。根据上述等式,可以使用ΔZ=f*W*Δω/ω2+f*ΔW/ω来计算距离Z的改变,其中ΔW通过平均而衰减到零,并且其中Δω是表示图像中边界框精度的像素数。可以通过平均服务器侧的多个观测来计算估计地标的物理大小的值。距离估计的最终误差可以非常小。使用上述等式时,可能出现两个误差源,即ΔW和Δω。它们对距离误差的贡献由ΔZ=f*W*Δω/ω2+f*ΔW/ω给出。然而,ΔW通过平均衰减到零;因此ΔZ由Δω确定(例如,图像中边界框的非精确性)。
对于未知尺寸的地标,可以通过在连续帧之间跟踪地标上的特征点来估计到地标的距离。例如,可以在两个或多个图像帧之间跟踪出现在限速标志上的某些特征。基于这些跟踪的特征,可以生成每特征点的距离分布。距离估计可以从距离分布中提取。例如,距离分布中最频繁出现的距离可以用作距离估计。作为另一个示例,距离分布的平均可以用作距离估计。
图13示出了由多个三维样条1301、1302和1303表示的示例自主车辆道路导航模型。图13中所示的曲线1301、1302和1303仅用于说明目的。每个样条可以包含连接多个数据点1310的一个或多个三维多项式。每个多项式可以是一阶多项式、二阶多项式、三阶多项式或具有不同阶数的任何合适多项式的组合。每个数据点1310可以与从车辆1205、1210、1215、1220和1225接收的导航信息相关联。在一些实施例中,每个数据点1310可以与与地标(例如,地标的大小、位置和识别信息)和/或道路签名轮廓(例如,道路几何结构、道路粗糙度轮廓、道路曲率轮廓、道路宽度轮廓)相关的数据相关联。在一些实施例中,一些数据点1310可以与地标相关的数据相关联,而其他数据点可以与道路签名轮廓相关的数据相关联。
图14示出了从五个分离的驾驶接收的原始位置数据1410(例如,GPS数据)。如果一个驾驶同时被分离的车辆在相同的时间、被相同车辆在分离的时间、或被分离的车辆在分离的时间穿越,则该驾驶可以与另一驾驶分开。为了考虑位置数据1410中的误差以及相同车道内车辆的不同位置(例如,一个车辆可能比另一车辆更靠近车道的左侧),服务器1230可以使用一个或多个统计技术来生成地图骨架1420,以确定原始位置数据1410中的变化是否表示实际的偏离或统计误差。骨架1420内的每个路径可以链接回形成该路径的原始数据1410。例如,骨架1420内的A和B之间的路径链接到来自驾驶2、3、4和5而不是来自驾驶1的原始数据1410。骨架1420可以不足够详细以用于导航车辆(例如,因为与上述样条不同,骨架1420组合了相同道路上多个车道的驾驶),但是可以提供有用的拓扑信息并且可以用于定义交叉路口。
图15示出了通过其可以为地图骨架的段内的稀疏地图(例如,骨架1420内的段A至段B)生成附加细节的示例。如图15所示,数据(例如自我运动数据、道路标记数据等)可以示出为沿驾驶的位置S(或S1或S2)的函数。服务器1230可以通过识别驾驶1510的地标1501、1503和1505与驾驶1520的地标1507和1509之间的唯一匹配来识别稀疏地图的地标。这种匹配算法可以得到地标1511、1513和1515的识别。然而,本领域技术人员将认识到,可以使用其他匹配算法。例如,概率优化可以用来代替唯一匹配或者与唯一匹配相结合。服务器1230可以纵向对齐驾驶以对齐匹配的地标。例如,服务器1230可以选择一个驾驶(例如,驾驶1520)作为参考驾驶,然后变换和/或弹性拉伸(多个)其他驾驶(例如,驾驶1510)以用于对齐。
图16示出了在稀疏地图中使用的对齐地标数据的示例。在图16的示例中,地标1610包括道路标志。图16的示例进一步描绘了来自多个驾驶1601、1603、1605、1607、1609、1611和1613的数据。在图16的示例中,来自驾驶1613的数据包含“幽灵”地标,并且服务器1230可以这样识别它,因为驾驶1601、1603、1605、1607、1609和1611都不包含驾驶1613中识别的地标附近的地标的标识。因此,当地标确实出现的图像与地标没有出现的图像的比率超过阈值时,服务器1230可以接受潜在地标,和/或当地标没有出现的图像与地标确实出现的图像的比率超过阈值时,服务器1230可以拒绝潜在地标。
图17描绘了用于生成驾驶数据的系统1700,其可用于众包稀疏地图。如图17所示,系统1700可以包含相机1701和定位(locating)装置1703(例如,GPS定位器)。相机1701和定位装置1703可以安装在车辆上(例如,车辆1205、1210、1215、1220和1225之一)。相机1701可以产生多个多种类型的数据,例如,自我运动数据、交通标志数据、道路数据等。相机数据和位置数据可以被分段成驾驶段1705。例如,驾驶段1705可以各自具有来自少于1千米的驾驶的相机数据和位置数据。
在一些实施例中,系统1700可以移除驾驶段1705中的冗余。例如,如果地标出现在来自相机1701的多个图像中,则系统1700可以去除冗余数据,使得驾驶段1705仅包含地标的位置的一个副本和与地标相关的任何元数据。作为进一步的示例,如果车道标记出现在来自相机1701的多个图像中,系统1700可以去除冗余数据,使得驾驶段1705仅包含车道标记的位置的一个副本和与车道标记相关的任何元数据。
系统1700还包含服务器(例如,服务器1230)。服务器1230可以从车辆接收驾驶段1705,并将驾驶段1705重组为单个驾驶1707。当在车辆和服务器之间传输数据时,这种布置可以减少带宽需求,同时还允许服务器储存与整个驾驶相关的数据。
图18描绘了进一步被配置用于众包稀疏地图的图17的系统1700。如图17所示,系统1700包含车辆1810,其使用例如相机(其产生例如自我运动数据、交通标志数据、道路数据等)和定位装置(例如GPS定位器)来捕获驾驶数据。如图17所示,车辆1810将收集的数据分段成驾驶段(在图18中描绘为“DS1 1”、“DS2 1”、“DSN 1”)。然后,服务器1230接收驾驶段,并从接收到的段重建驾驶(在图18中被描述为“驾驶1”)。
如图18中进一步描绘的,系统1700还从附加车辆接收数据。例如,车辆1820还使用例如相机(其产生例如自我运动数据、交通标志数据、道路数据等)和定位装置(例如GPS定位器)来捕获驾驶数据。类似于车辆1810,车辆1820将收集的数据分段成驾驶段(在图18中描绘为“DS1 2”、“DS2 2”、“DSN 2”)。然后,服务器1230接收驾驶段,并从接收到的段重建驾驶(在图18中被描述为“驾驶2”)。可以使用任何数量的附加车辆。例如,图18还包括“汽车N”,该“汽车N”捕获驾驶数据,将其分段成驾驶段(在图18中描绘为“DS1 N”、“DS2 N”、“DSNN”),以及将其传送到服务器1230以用于重建成驾驶(在图18中描绘为“驾驶N”)。
如图18所示,服务器1230可以使用从多个车辆(例如,”汽车1”(也标记为车辆1810)、”汽车2”(也标记为车辆1820)和”汽车N”)收集的重建驾驶(例如,“驾驶1”、“驾驶2”和“驾驶N”)来构建稀疏地图(描绘为“地图”)。
图19是示出用于生成用于沿着道路段的自主车辆导航的稀疏地图的示例过程1900的流程图。过程1900可以由服务器1230中包含的一个或多个处理装置来执行。
过程1900可以包含接收当一个或多个车辆穿越道路段时获取的多个图像(步骤1905)。服务器1230可以从包含在车辆1205、1210、1215、1220和1225中的一个或多个内的相机接收图像。例如,当车辆1205沿着道路段1200行驶时,相机122可以捕获车辆1205周围的环境的一个或多个图像。在一些实施例中,服务器1230还可以接收已经被车辆1205上的处理器移除冗余的被剥离(stripped down)的图像数据,如上文参考图17所讨论的。
过程1900可以进一步包含基于多个图像识别沿着道路段延伸的路面特征的至少一个线表示(步骤1910)。每个线表示可以表示沿着基本上对应于路面特征的道路段的路径。例如,服务器1230可以分析从相机122接收的环境图像以识别道路边缘或车道标记,并确定沿着与道路边缘或车道标记相关联的道路段1200的行驶轨迹。在一些实施例中,轨迹(或线表示)可以包含样条、多项式表示或曲线。服务器1230可以基于在步骤1905处接收的相机自我运动(例如,三维平移和/或三维旋转运动)来确定车辆1205的行驶的轨迹。
过程1900还可以包含基于多个图像识别与道路段相关联的多个地标(步骤1910)。例如,服务器1230可以分析从相机122接收的环境图像,以识别一个或多个地标,诸如沿着道路段1200的道路标志。服务器1230可以使用对当一个或多个车辆穿越道路段时获取的多个图像的分析来识别地标。为了使能众包,分析可以包含关于接受和拒绝与道路段相关联的可能地标的规则。例如,分析可以包含当地标确实出现的图像与地标没有出现的图像的比率超过阈值时接受潜在地标,和/或当地标没有出现的图像与地标确实出现的图像的比率超过阈值时拒绝潜在地标。
过程1900可以包含由服务器1230执行的其他操作或步骤。例如,导航信息可以包含车辆沿着道路段行驶的目标轨迹,并且过程1900可以包含由服务器1230聚类与在道路段上行驶的多个车辆相关的车辆轨迹,并且基于聚类的车辆轨迹确定目标轨迹,如下面进一步详细讨论的。聚类车辆轨迹可以包含由服务器1230基于车辆的绝对航向或车辆的车道分配中的至少一个,将与在道路段上行驶的车辆相关的多个轨迹聚类成多个聚类。生成目标轨迹可以包含由服务器1230平均聚类的轨迹。作为进一步的示例,过程1900可以包含对齐在步骤1905中接收的数据。如上所述,由服务器1230执行的其他过程或步骤也可以包含在过程1900中。
所公开的系统和方法可以包含其他特征。例如,所公开的系统可以使用局部坐标,而不是全局坐标。对于自动驾驶,一些系统可能以世界坐标呈现数据。例如,可以使用地球表面上的经度和纬度坐标。为了使用地图进行转向,主车辆可以确定其相对于地图的位置和方向。在车上使用GPS装置似乎是很自然的,以便在地图上定位车辆,并以便找到本体参考帧和世界参考帧(例如,北、东和下)之间的旋转变换。一旦本体参考帧与地图参考帧对齐,则期望的路线可以在本体参考帧中表达,并且可以计算或生成转向命令。
所公开的系统和方法可以实现使能低足迹模型的自主车辆导航(例如,转向控制),这些模型可以由自主车辆自己收集,而无需昂贵的勘测仪器的帮助。为了支持自主导航(例如,转向应用),道路模型可以包含稀疏地图,该稀疏地图具有道路的几何结构、其车道结构和地标,该地标可以用于确定车辆沿着包含在模型中的轨迹的位置或定位。如上所述,稀疏地图的生成可以由远程服务器来执行,该远程服务器与在道路上行驶的车辆通信并从车辆接收数据。数据可以包含感测的数据、基于感测数据重建的轨迹、和/或可以表示修改的重建轨迹的推荐轨迹。如下所述,服务器可以将模型发送回车辆或稍后在道路上行驶的其他车辆,以帮助自主导航。
图20示出了服务器的框图。服务器1230可以包含通信单元2005,该通信单元2005可以包含硬件组件(例如,通信控制电路、开关和天线)和软件组件(例如,通信协议、计算机代码)。例如,通信单元2005可以包含至少一个网络接口。服务器1230可以通过通信单元2005与车辆1205、1210、1215、1220和1225通信。例如,服务器1230可以通过通信单元2005接收从车辆1205、1210、1215、1220和1225发送的导航信息。服务器1230可以通过通信单元2005将自主车辆道路导航模型分发给一个或多个自主车辆。
服务器1230可以包含至少一个非暂时性存储介质2010,诸如硬盘驱动器、光盘、磁带等。存储装置1410可以被配置成储存数据,诸如从车辆1205、1210、1215、1220和1225接收的导航信息和/或服务器1230基于导航信息生成的自主车辆道路导航模型。存储装置2010可以被配置为储存任何其他信息,诸如稀疏地图(例如,上面参考图8讨论的稀疏地图800)。
除了或代替存储装置2010,服务器1230可以包含存储器2015。存储器2015可以类似于或不同于存储器140或150。存储器2015可以是非暂时性存储器,诸如闪速存储器、随机存取存储器等。存储器2015可被配置成储存数据,诸如可由处理器(例如,处理器2020)执行的计算机代码或指令、地图数据(例如,稀疏地图800的数据)、自主车辆道路导航模型和/或从车辆1205、1210、1215、1220和1225接收的导航信息。
服务器1230可以包含至少一个处理装置2020,该至少一个处理装置2020被配置为执行储存在存储器2015中的计算机代码或指令,以执行各种功能。例如,处理装置2020可以分析从车辆1205、1210、1215、1220和1225接收的导航信息,并基于该分析生成自主车辆道路导航模型。处理装置2020可以控制通信单元1405以将自主车辆道路导航模型分发给一个或多个自主车辆(例如,车辆1205、1210、1215、1220和1225中的一个或多个或者稍后在道路段1200上行驶的任何车辆)。处理装置2020可以类似于或不同于处理器180、190或处理单元110。
图21示出了存储器2015的框图,存储器2015可以储存用于执行一个或多个操作的计算机代码或指令,以用于生成用于自主车辆导航的道路导航模型。如图21所示,存储器2015可以储存用于执行用于处理车辆导航信息的操作的一个或多个模块。例如,存储器2015可以包含模型生成模块2105和模型分发模块2110。处理器2020可以执行储存在包含在存储器2015中的任何模块2105和2110中的指令。
模型生成模块2105可以储存指令,当由处理器2020执行时,该指令可以基于从车辆1205、1210、1215、1220和1225接收的导航信息,为公共道路段(例如,道路段1200)生成自主车辆道路导航模型的至少一部分。例如,在生成自主车辆道路导航模型时,处理器2020可以将沿着公共道路段1200的车辆轨迹聚类成不同的聚类。处理器2020可以基于对于每个不同聚类的聚类的车辆轨迹来确定沿着公共道路段1200的目标轨迹。这样的操作可以包含在每个聚类中找到聚类的车辆轨迹的平均(mean)或平均(average)轨迹(例如,通过平均表示聚类的车辆轨迹的数据)。在一些实施例中,目标轨迹可以与公共道路段1200的单个车道相关联。
道路模型和/或稀疏地图可以储存与道路段相关联的轨迹。这些轨迹可以被称为目标轨迹,其被提供给自主车辆用于自主导航。目标轨迹可以从多个车辆接收,或者可以基于从多个车辆接收的实际轨迹或推荐轨迹(具有一些修改的实际轨迹)生成。道路模型或稀疏地图中包含的目标轨迹可以用从其他车辆接收的新轨迹连续更新(例如,平均)。
在道路段上行驶的车辆可以通过各种传感器收集数据。该数据可以包含地标、道路签名轮廓、车辆运动(例如,加速度计数据、速度数据)、车辆位置(例如,GPS数据),并且可以重建实际轨迹本身,或者将数据发送到服务器,该服务器将重建车辆的实际轨迹。在一些实施例中,车辆可以向服务器1230发送与轨迹(例如,任意参考帧中的曲线)、地标数据和沿着行驶路径的车道分配相关的数据。以多种驾驶方式沿相同道路段行驶的各种车辆可以具有不同的轨迹。服务器1230可以从通过聚类过程从车辆接收的轨迹中识别与每个车道相关联的路线或轨迹。
图22示出了聚类与车辆1205、1210、1215、1220和1225相关联的车辆轨迹以用于确定公共道路段(例如,道路段1200)的目标轨迹的过程。从聚类过程确定的目标轨迹或多个目标轨迹可以包含在自主车辆道路导航模型或稀疏地图800中。在一些实施例中,沿着道路段1200行驶的车辆1205、1210、1215、1220和1225可以向服务器1230发送多个轨迹2200。在一些实施例中,服务器1230可以基于从车辆1205、1210、1215、1220和1225接收的地标、道路几何结构和车辆运动信息来生成轨迹。为了生成自主车辆道路导航模型,服务器1230可以将车辆轨迹1600聚类成多个聚类2205、2210、2215、2220、2225和2230,如图22所示。
可以使用各种标准来执行聚类。在一些实施例中,聚类中的所有驾驶在沿着道路段1200的绝对航向方面可以是相似的。绝对航向可以从车辆1205、1210、1215、1220和1225接收的GPS信号中获得。在一些实施例中,可以使用航位推算来获得绝对航向。如本领域技术人员所理解的,航位推算可用于通过使用先前确定的位置、估计速度等来确定车辆1205、1210、1215、1220和1225的当前位置并因此确定其航向。按绝对航向聚类的轨迹可以有助于沿着道路识别路线。
在一些实施例中,关于沿着道路段1200上的驾驶的车道分配(例如,在交叉口之前和之后的相同车道中),聚类中的所有驾驶可以是相似的。通过车道分配聚类的轨迹可以有助于沿着道路识别车道。在一些实施例中,两个标准(例如,绝对航向和车道分配)都可以用于聚类。
在每个聚类2205、2210、2215、2220、2225和2230中,轨迹可以被平均以获得与特定聚类相关联的目标轨迹。例如,可以对来自与相同车道聚类相关联的多个驾驶的轨迹进行平均。平均轨迹可以是与特定车道相关联目标轨迹。为了平均一组轨迹,服务器1230可以选择任意轨迹C0的参考帧。对于所有其他轨迹(C1,…,Cn),服务器1230可以找到将Ci映射到C0的刚性变换,其中i=1,2,…,n,其中n是正整数,对应于包含在聚类中的轨迹的总数。服务器1230可以计算C0参考帧中的平均曲线或轨迹。
在一些实施例中,地标可以定义不同驾驶之间的弧长匹配,这可以用于轨迹与车道的对齐。在一些实施例中,交叉口之前和之后的车道标记可用于轨迹与车道的对齐。
为了从轨迹组装车道,服务器1230可以选择任意车道的参考帧。服务器1230可以将部分重叠的车道映射到选择的参考帧。服务器1230可以继续映射,直到所有车道都在相同的参考帧中。彼此相邻的车道可以对齐,就好像它们是相同的车道,稍后它们可以被横向变换。
沿着道路段辨识的地标可以首先在车道级,然后在交叉口级被映射到公共参考帧。例如,相同的地标可以被多个驾驶中的多个车辆辨识多次。不同驾驶中接收到的关于相同地标的数据可能略有不同。这样的数据可以被平均并映射到相同的参考帧,诸如C0参考帧。附加地或替代地,可以计算在多个驾驶中接收的相同地标的数据的方差。
在一些实施例中,道路段120的每个车道可以与目标轨迹和某些地标相关联。目标轨迹或多个这样的目标轨迹可以被包含在自主车辆道路导航模型中,其可以稍后被沿着相同道路段1200行驶的其他自主车辆使用。当车辆沿着道路段1200行驶时,由车辆1205、1210、1215、1220和1225识别的地标可以与目标轨迹相关联地被记录。目标轨迹和地标的数据可以利用在后续驾驶中从其他车辆接收的新数据被连续地或周期性地更新。
对于自主车辆的定位,所公开的系统和方法可以使用扩展卡尔曼滤波器。车辆的位置可以基于三维位置数据和/或三维方位数据、通过自我运动的积分对车辆的当前位置前方的未来位置的预测来确定。可以通过地标的图像观察来校正或调整车辆的定位。例如,当车辆检测到由相机捕获的图像内的地标时,该地标可以与储存在道路模型或稀疏地图800内的已知地标进行比较。已知地标可以具有储存在道路模型和/或稀疏地图800中的沿着目标轨迹的已知位置(例如,GPS数据)。基于地标的当前速度和图像,可以估计从车辆到地标的距离。车辆沿着目标轨迹的位置可以基于到地标的距离和地标的已知位置(储存在道路模型或稀疏地图800中)来调整。储存在道路模型和/或稀疏地图800中的地标的位置/位置数据(例如,来自多个驾驶的平均值)可以被假定为准确的。
在一些实施例中,所公开的系统可以形成闭环子系统,其中车辆六个自由度位置(例如,三维位置数据加上三维方位数据)的估计可以用于自主车辆的导航(例如,对自主车辆的车轮进行转向)以到达期望的点(例如,储存的前方1.3秒)。反过来,从转向和实际导航测量的数据可用于估计六个自由度的位置。
在一些实施例中,沿着道路的杆,诸如灯柱和电力或电缆线杆可以用作定位车辆的地标。诸如交通标志、交通灯、道路上的箭头、停车线以及沿着道路段的对象的静态特征(feature)或签名(signature)的其他地标也可以用作定位车辆的地标。当杆用于定位时,可以使用杆的x观察(即从车辆的视角),而不是y观察(即到杆的距离),因为杆的底部可能被遮挡,有时它们不在道路平面上。
图23示出了用于车辆的导航系统,其可以用于使用众包稀疏地图的自主导航。为了说明,车辆被称为车辆1205。图23中所示的车辆可以是本文公开的任何其他车辆,包含例如车辆1210、1215、1220和1225,以及其他实施例中所示的车辆200。如图12所示,车辆1205可以与服务器1230通信。车辆1205可以包含图像捕获装置122(例如,相机122)。车辆1205可以包含导航系统2300,该导航系统2300被配置用于为车辆1205在道路(例如,道路段1200)上行驶提供导航引导。车辆1205还可以包含其他传感器,例如速度传感器2320和加速度计2325。速度传感器2320可以被配置成检测车辆1205的速度。加速度计2325可以被配置成检测车辆1205的加速或减速。图23中所示的车辆1205可以是自主车辆,并且导航系统2300可以用于为自主驾驶提供导航引导。替代地,车辆1205也可以是非自主的、人类控制的车辆,并且导航系统2300仍然可以用于提供导航引导。
导航系统2300可以包含被配置为通过通信路径1235与服务器1230通信的通信单元2305。导航系统2300还可以包含配置成接收和处理GPS信号的GPS单元2310。导航系统2300还可以包含至少一个处理器2315,该至少一个处理器2315被配置为处理数据,诸如GPS信号、来自稀疏地图800的地图数据(其可以储存在车辆1205上提供的存储装置上和/或从服务器1230接收)、由道路轮廓传感器2330感测的道路几何结构、由相机122捕获的图像和/或从服务器1230接收的自主车辆道路导航模型。道路轮廓传感器2330可以包含用于测量不同类型的道路轮廓(诸如路面粗糙度、道路宽度、道路高度、道路曲率等)的不同类型的装置。例如,道路轮廓传感器2330可以包含测量车辆的悬架2305的运动以推导道路粗糙度轮廓的装置。在一些实施例中,道路轮廓传感器2330可以包含雷达传感器,以测量从车辆1205到道路侧(例如,道路侧上的障碍物)的距离,从而测量道路的宽度。在一些实施例中,道路轮廓传感器2330可以包含被配置用于测量道路的上下标高的装置。在一些实施例中,道路轮廓传感器2330可以包含被配置成测量道路曲率的装置。例如,相机(例如,相机122或另一个相机)可以用于捕获示出道路曲率的道路图像。车辆1205可以使用这样的图像来检测道路曲率。
至少一个处理器2315可以被编程为从相机122接收与车辆1205相关联的至少一个环境图像。至少一个处理器2315可以分析至少一个环境图像以确定与车辆1205相关的导航信息。导航信息可以包含与车辆1205沿着道路段1200行驶相关的轨迹。至少一个处理器2315可以基于相机122(以及由此的车辆)的运动来确定轨迹,例如三维平移和三维旋转运动。在一些实施例中,至少一个处理器2315可以基于对由相机122获取的多个图像的分析来确定相机122的平移和旋转运动。在一些实施例中,导航信息可以包含车道分配信息(例如,车辆1205沿着道路段1200行驶在哪个车道中)。从车辆1205发送到服务器1230的导航信息可以被服务器1230用来生成和/或更新自主车辆道路导航模型,该模型可以从服务器1230发送回车辆1205,以用于为车辆1205提供自主导航引导。
至少一个处理器2315还可以被编程为将导航信息从车辆1205发送到服务器1230。在一些实施例中,导航信息可以与道路信息一起被发送到服务器1230。道路位置信息可以包含由GPS单元2310接收的GPS信号、地标信息、道路几何结构、车道信息等中的至少一个。至少一个处理器2315可以从服务器1230接收自主车辆道路导航模型或模型的一部分。从服务器1230接收的自主车辆道路导航模型可以包含基于从车辆1205发送到服务器1230的导航信息的至少一个更新。从服务器1230发送到车辆1205的模型部分可以包含模型的更新部分。至少一个处理器2315可以基于接收到的自主车辆道路导航模型或模型的更新部分来引起车辆1205的至少一个导航操纵(例如,转向,诸如转弯、制动、加速、经过另一车辆等)。
至少一个处理器2315可以被配置成与车辆1205中包含的各种传感器和组件通信,包含通信单元1705、GPS单元2315、相机122、速度传感器2320、加速度计2325和道路轮廓传感器2330。至少一个处理器2315可以从各种传感器和组件收集信息或数据,并通过通信单元2305将信息或数据发送到服务器1230。替代地或附加地,车辆1205的各种传感器或组件也可以与服务器1230通信,并将由传感器或组件收集的数据或信息发送到服务器1230。
在一些实施例中,车辆1205、1210、1215、1220和1225可以彼此通信,并且可以彼此共享导航信息,使得车辆1205、1210、1215、1220和1225中的至少一个可以例如基于由其他车辆共享的信息,使用众包生成自主车辆道路导航模型。在一些实施例中,车辆1205、1210、1215、1220和1225可以彼此共享导航信息,并且每个车辆可以更新其自己的车辆中提供的自主车辆道路导航模型。在一些实施例中,车辆1205、1210、1215、1220和1225中的至少一个(例如,车辆1205)可以用作中枢车辆。中枢车辆(例如,车辆1205)的至少一个处理器2315可以执行由服务器1230执行的一些或所有功能。例如,中枢车辆的至少一个处理器2315可以与其他车辆通信,并从其他车辆接收导航信息。中枢车辆的至少一个处理器2315可以基于从其他车辆接收的共享信息生成自主车辆道路导航模型或对模型的更新。中枢车辆的至少一个处理器2315可以将自主车辆道路导航模型或对模型的更新发送到其他车辆,以提供自主导航引导。
使用绘制的(mapped)标高确定导航参数
在自主或半自主导航的许多方面,相对于主车辆环境中的对象的距离确定可以是有用的。在一些情况下,这种距离确定可以基于来自LIDAR系统或RADAR系统的一个或多个输出来进行。替代地或附加地,这种距离确定可以基于对从一个或多个图像捕获装置获取的图像的分析来进行。然而,在一些情况下,对获取的图像的分析可能会带来某些挑战。例如,在主车辆环境中的对象相对于主车辆具有不同标高的情况下,基于图像分析的距离测量可能更加困难。例如,当分析收集的图像时,位于高于主车辆标高的标高的目标车辆可能看起来比其实际距离更远离主车辆。为了解决这个问题,基于图像分析的距离确定可以考虑检测到的对象和主车辆之间的标高差异,以便在相对距离确定中提供更高的精度。这种高度信息可以通过多种方式来确定。然而,在一些实施例中,标高信息可以相对于道路段存储(例如,包含在上述稀疏地图中)。然后,这种绘制的高度信息可以用于确定距主车辆(具体地说,距捕获图像或正在分析的图像的装置)和在图像中检测到的目标对象的距离。这种基于获取的图像在距离测量中考虑标高的技术将在以下章节中详细描述。
图24示出了与公开的实施例一致的存储器的框图。在一些实施例中,存储器140或150可以包含地图信息2401、标高信息2403、对象识别模块2405、位置模块2407、距离模块2409和导航模块2411。所公开的实施例不限于存储器140或150的任何特定配置。此外,处理器(例如,应用处理器180、图像处理器190和/或处理单元110)可以执行储存在包含在存储器140或150中的模块2405、2407、2409和2411中的任何一个中的指令。此外,虽然描述了用于执行与所公开的实施例相关联的某些功能的各种模块(上面和下面),但是这些模块不需要在逻辑上分离,而是可以被包含在综合导航系统内或与其集成(以任何组合),该综合导航系统被配置为分析所获取的图像并基于通过对图像的分析检测到的主车辆环境的特性来确定下一导航状态。
在一个实施例中,对象识别模块2405可以储存指令,当由处理器执行时,该指令使得处理器能够对一组图像执行图像分析并识别该组图像中的对象。在一个实施例中,对象识别模块2405可以包含单目图像分析模块402和/或立体图像分析模块404。如上所述,单目图像分析模块402可以包含用于在该组图像内检测一组特征(诸如车道标记、车辆、行人、道路标志、高速公路出口坡道、交通灯、危险对象以及与车辆的环境相关联的任何其他特征)的指令。并且,如上所述,立体图像分析模块404可以包含指令,该指令用于检测第一组和第二组图像内的一组特征,诸如车道标记、车辆、行人、道路标志、高速公路出口坡道、交通灯、危险对象等。基于这些特征,对象识别模块2405可以包含用于识别对象类型(诸如车辆、行人、道路中的对象、井盖、交通灯、交通标志等)的指令。此外,作为图像分析过程的一部分,可以为某类型的每个识别的对象分配与相关图像中的对象的边缘界限相关联的边界框。
在一个实施例中,位置模块2407可以储存指令,当由处理器执行时,该指令使得处理器能够确定主车辆的位置。在一个实施例中,处理器可以基于主车辆的至少一个传感器的输出,诸如GPS装置、速度传感器和/或加速度计,来确定主车辆的位置。在一个实施例中,处理器可以基于稀疏地图道路模型上的定位(如上所述)来确定主车辆的位置。符合本公开的稀疏地图可以包含表示一个或多个道路特征的数据。这样的道路特征可以包含辨识的地标、道路签名轮廓以及在车辆导航中有用的任何其他道路相关特征。使用在一个或多个获取的图像中识别的所辨识的标志以及稀疏地图中包含的一个或多个目标轨迹,处理器可以确定主车辆相对于地图中的目标轨迹的位置。这种位置信息可以通知主车辆相对于主车辆的确定的位置的、与主车辆的环境相关联的某些特性。例如,在稀疏地图储存沿着道路段的坑的位置的情况下,相对于某目标轨迹定位主车辆的位置可以使得能够确定沿着当前目标轨迹在主车辆前方114米处存在坑。类似地,在稀疏地图存储道路标高信息的情况下(例如,每10cm、1m、2m、5m、10m、50m、100m等),处理器可以确定相对于某目标轨迹在主车辆的当前定位的位置前方128米处,道路段具有比主车辆的当前定位的位置处的道路段的标高高27米的标高。如上所述,在定位主车辆之后,处理器可以基于指示主车辆在辨识的地标之间的自我运动的传感器输出来估计其相对于目标轨迹的位置(例如,在辨识的地标的识别之间)。
在一个实施例中,地图信息2401(例如,包含上述稀疏地图)可以储存与特定道路段相关联的特征。这些特征可以包含检测到的车道标记、道路标志、高速公路出口坡道、交通灯、道路基础设施、道路宽度信息、路障、树木、建筑物、灯柱以及与车辆环境相关联的任何其他特征等。在一个实施例中,地图信息2401可以进一步包含标高信息2403。标高信息2403可以包含特定位置(例如,10米、20米、30米等)的高度或道路段,或者可以包含倾斜程度(例如,10度或-11度等)。在一个实施例中,标高信息2403可以包含起点上方的高度(例如,海平面或与特定道路段相关联的某个起点)。在一个实施例中,标高信息2403可以以等式(例如,等式(2))的形式储存,每一个对应于道路段。在一个实施例中,标高信息2403可以储存在表格中,其中每个标高信息条目对应于沿着道路段的特定位置。这种标高信息可以以任何合适的间距(例如,每10cm、1m、2m、5m、10m、50m、100m等)。在一个实施例中,返回参考图13,多个三维样条1301、1302和1303可以与多个数据点1310中的车道的标高信息一起储存。处理器可以以适合于特定标高存储协议的任何方式从稀疏地图中检索标高信息(例如,通过从表格中读取标高信息,从储存的轮廓或函数/等式中确定标高,从用于表示目标轨迹的三维样条的z轴投影中确定标高等等)。
在一个实施例中,距离模块2409可以储存指令,当由处理器执行时,该指令被配置为确定从主车辆到识别的对象的距离。该距离可以基于来自图像分析的测量来确定,例如缩放方法和/或光流方法。在一些情况下,基于图像分析进行的距离确定可能与基于LIDAR系统或RADAR系统的输出进行的一个或多个距离确定是冗余的,或者可以用作对该一个或多个距离确定的检查。在一个或多个图像中从主车辆到识别的对象的确定距离可以取决于识别的对象相对于主车辆的标高。例如,当目标车辆处于比主车辆更高的标高时,如果不考虑标高,则确定的距离可能大于实际距离。此外,为了确定主车辆的适当导航动作,到检测到的对象的准确距离值应该是可用的。
与所公开的实施例一致,处理器可以基于标高信息2403来确定从主车辆到识别的对象的距离。图25A和25B提供了目标车辆2503位于比主车辆2501更高标高的道路段上的场景的示意图。例如,主车辆2501可以位于地平面上,并且目标车辆2503可以被假设位于地平面上方升高位置的平面上。高度Y,即从地面到目标车辆2503被布置在其上的平面的高度,可以使用以下等式来描述:
Figure BDA0002698723110000741
其中,y是目标车辆2503的底部在图像空间中的垂直位移,f是捕获装置的焦距,以及Z是从主车辆到目标车辆的距离。
此外,基于道路模型,高度Y可以由以下等式确定:
Y=aZ2-H (2)
其中a是预定常数,以及H是捕获装置相对于地平面的高度。在一个实施例中,常数a可以储存在地图信息、稀疏地图和/或三维样条中。在一些情况下,常数a可以是样条的局部近似。在一个实施例中,等式(2)可以包含更复杂的函数(例如,Y=Function(Z))。
在一些情况下,距离Z,即从主车辆2501到目标车辆2503的距离,可以由处理器使用等式(1)和(2)来确定。例如,邻近区域可以近似为平面。平面(地平线)的消失线可以根据道路附近部分的消失点来确定。可替代地,可以通过任何合适的图像分析技术来确定局部道路平面。相对于“地平线”的图像中的车辆的底部可以定义空间中到车辆底部的线:Y=-yZ/f。这产生了:
Figure BDA0002698723110000751
这个二次等式可以通过求解Z来确定主车辆和目标车辆之间的距离。
在一个实施例中,导航模块2411可以储存可由处理器执行的软件指令,以基于确定的距离来确定期望的导航动作。在一个实施例中,导航模块2411包含导航响应模块408。例如,从主车辆到识别的对象(例如,目标车辆)的确定的距离对于生成自主车辆的适当导航响应可以是重要的。基于确定的距离,可以确定导航动作以推进自主车辆的一个或多个导航目标(例如,从点A行驶到点B、不撞到行人、离行人至少1米、如果速度大于30km/hr则离行人至少10米(等)、与前方车辆维持至少一段安全距离、制动以避免在安全距离内接近、以及许多其他导航目标)。为了实现这些目标,处理器可以至少依赖于主车辆和检测对象之间的准确距离确定。例如,当主车辆接近检测到的行人时,可以触发制动系统以使主车辆停在距行人的安全距离处。在一个实施例中,处理器可以将确定的距离与预定阈值进行比较。当确定的距离大于预定阈值(例如,相对于前方车辆的安全距离,其可以对应于主车辆在与主车辆相关联的反应时间内能够以其最大加速度行驶的距离之和,主车辆可以以主车辆的最大制动水平停止的距离,目标车辆可以以目标车辆的最大制动水平停止的距离,以及替代地在停止后相对于目标车辆维持的预定最小接近缓冲)时,则处理器可以允许主车辆以其当前速度和航向继续前进、加速等。然而,当确定的距离等于或低于预定阈值时,处理器可以使主车辆制动或改变航向等。在一些实施例中,导航响应可以基于确定的距离值以及相对速度和加速度的组合来确定。
图26是与所公开的实施例一致的用于导航主车辆的流程图。在步骤2601处,处理器可以从图像捕获装置接收表示主车辆的环境的至少一个图像。图像可以是经由网络或通信信道来自捕获装置122、124和/或126的原始或经处理的数据。数据可以包含任何适当的图像格式。
在步骤2603处,处理器可以分析至少一个图像以识别主车辆的环境中的对象。图像2500示出了具有许多不同对象的主车辆的环境。处理器可以分析图像2500以识别图像中的对象;处理器可以访问对象识别模块2405并使用任何合适的图像分析技术,包含例如对象辨识、图像分段、特征提取、光学字符辨识(OCR)、基于对象的图像分析、形状区域技术、边缘检测技术、基于像素的检测等。另外,处理器还可以使用分类算法来区分图像中的不同对象。在一个实施例中,处理器可以利用适当训练的机器学习算法和模型来执行对象识别。算法可以包含线性回归、逻辑回归、线性判别分析、分类和回归树、朴素贝叶斯、k最近邻(k-nearest neighbor)、学习向量量化、支持向量机、bagging和随机森林、和/或boosting和adaboost等。在一些实施例中,当执行对象识别模块2405时,处理器可以至少基于对象的可视属性(例如,大小、形状、纹理、文本、颜色等)来识别图像中的对象。
在步骤2605处,处理器可以确定主车辆的位置。在一个实施例中,处理器可以基于图像的分析来确定位置。此外,如上所述,处理器可以将主车辆的位置确定为主车辆沿着表示主车辆沿着道路段的目标轨迹的三维样条的定位的位置。并且,与所公开的实施例一致,对主车辆沿着预定三维样条的位置的预测可以基于至少一个辨识的地标的观察位置。与所公开的实施例一致,处理器可以基于稀疏地图道路模型上的定位来预测主车辆的位置。在一个实施例中,如上所述,主车辆的位置可以基于主车辆的至少一个传感器(诸如GPS装置、速度传感器和/或加速度计)的输出来确定。例如,来自GPS接收器的位置信息可以帮助确定主车辆的位置。
在步骤2607处,处理器可以接收与主车辆的确定的位置相关联的地图信息,其中地图信息包含与主车辆的环境相关联的标高信息。基于确定的位置(例如,GPS输出或相对于稀疏地图的先前定位),处理器可以检索特定位置或特定道路段的地图信息。检索到的地图信息可以包含主车辆行驶的道路段的标高信息。例如,标高信息可以以上述任何方式储存在地图中。
在步骤2609处,处理器可以至少基于标高信息来确定从主车辆到对象的距离。与所公开的实施例一致,处理器可以使用上述等式来确定到在一个或多个图像中识别的对象的距离。例如,基于来自储存的地图的标高信息,等式(2)可用于计算到目标对象的相对距离。
在步骤2611处,处理器可以基于确定的距离来确定主车辆的导航动作。在一个实施例中,处理器可以访问导航模块2411来确定导航动作。导航动作可以包含上述的任何导航动作,其可以取决于到识别的目标对象的确定的距离。
在一些情况下,如上所述,确定的导航动作可以包含响应于主车辆维持相对于其他车辆的至少安全距离的目标而产生的一个或多个导航动作。例如,如果考虑了主车辆和识别的目标车辆之间的标高差的确定距离不大于安全距离,或者如果主车辆正在接近安全距离缓冲,则导航处理器可以确定主车辆的导航动作,该导航动作意图建立或维持相对于识别的目标车辆的至少安全距离。例如,在一些情况下,安全距离可以对应于以下各项的总和:基于主车辆的当前速度及其当前最大制动能力的主车辆的当前停止距离、与主车辆在与主车辆相关联的反应时间内将以其当前最大加速能力行驶的距离相对应的加速距离、以及目标车辆在目标车辆的最大制动能力下从其当前速度到零的停止距离。导航动作可以基于相对于责任敏感安全(Responsibility-Sensitive Safety,RSS)模型描述的一个或多个等式来确定。
在一些实施例中,如果给定主车辆的最大制动能力、主车辆的当前速度、主车辆的最大加速能力和/或与主车辆相关联的反应时间,主车辆可以在小于主车辆和目标车辆之间的所确定的下一状态距离(即,如果采取确定的导航动作将得到的主车辆和目标车辆之间的距离)的停止距离内停止,则处理器可以实现确定的导航动作。在一些情况下,确定的导航动作的实现方式也可以基于其所确定的速度和最大制动能力来考虑目标车辆的停止距离。如果主车辆处理器确定在前方可见目标车辆和主车辆之间的下一状态距离中有足够的距离停止,而没有碰撞或者没有责任将附加到主车辆的碰撞并且假设前方可见目标车辆将在任何时刻突然完全停止,则主车辆的处理器可以采取计划的导航动作。另一方面,如果没有足够的空间停止主车辆而没有碰撞或没有碰撞责任,则可以不采取确定的导航动作。
使用绘制的车道宽度确定导航参数
类似于其中标高信息可以储存在特定道路段的稀疏地图中的上述实施例,道路段的测量车道宽度也可以储存在稀疏地图中。例如,当车辆穿越道路段时,可以沿着道路段进行车道宽度确定。通过众包,这些车道宽度测量可以被细化并合并到上述稀疏地图中。例如,车道宽度信息可以作为相对于纵向道路段尺寸的表格、作为定义沿纵向尺寸的宽度的函数或等式、相对于表示沿着道路段行驶的车道的目标轨迹的一个或多个三维样条、或以任何其他合适的方式储存。如下文进一步详细描述的,绘制的车道宽度信息在确定主车辆和在道路段上识别的一个或多个目标对象之间的距离时是有用的。确定的距离然后可以用于检查来自LIDAR系统、RADAR系统的测量,或者用于确定主车辆的一个或多个导航动作等。
在一个实施例中,如上所述,处理器可以接收表示主车辆周围的环境的一个或多个获取的图像。在一个实施例中,如上所述,对象识别模块2405可以储存指令,当由处理器执行时,该指令使处理器能够执行一组图像的图像分析并识别该组图像中的对象。处理器可以识别多个图像中的对象、与道路段相关联的多个地标(例如,道路标志)。可以通过上面公开的任何技术来识别对象。例如,对象辨识、图像分段、特征提取、光学字符辨识(OCR)、基于对象的图像分析、形状区域技术、边缘检测技术、基于像素的检测等可以单独使用或组合使用。
在一个实施例中,如上所述,处理器可以确定主车辆的位置。如上所述,位置可以通过各种技术来确定,诸如GPS定位、沿着稀疏地图的目标轨迹的所辨识的地标定位、两者的组合或其他。例如,参考图27A,使用上述技术,地标2705可用于确定主车辆2701沿着表示与主车辆2701行驶的道路段的车道相关联的目标轨迹的样条的定位的位置。
在一个实施例中,如上所述,距离模块2409可以储存指令,当由处理器执行时,该指令使得处理器能够确定从主车辆到识别的对象的距离。例如,参考图27A,主车辆2701、目标车辆2703、地标2705和两个样条S1和S2相对于(X,Y,Z)坐标显示在三维空间中。样条S1和S2可以表示与主车辆2701行驶的道路段相关联的车道边界。主车辆2701和目标车辆2703之间的距离确定可以基于LIDAR或RADAR系统的输出。主车辆2701和目标车辆2703之间的距离也可以通过图像分析来确定,例如,使用一系列图像上的对象的缩放。如上文所述,距离的确定可以考虑到标高差异。距离确定也可以基于目标车辆2703的跟踪轨迹和观察到的跟踪轨迹与绘制信息(诸如表示行驶的车道的样条)的比较来进行,以确定目标车辆沿着目标轨迹位于何处。主车辆2701和目标车辆2703之间的距离可以被确定为主车辆和目标车辆之间的线性最短距离。在其他情况下,主车辆2701和目标车辆2703之间的距离可以被确定为沿着主车辆和目标车辆之间的弯曲的三维路径的距离(例如,沿着车道边缘样条S1和S2之间的样条,并且表示主车辆沿着其行驶的目标轨迹)。
处理器还可以基于绘制的车道宽度信息来确定从主车辆到识别的对象的距离。包含在例如上述稀疏地图中的地图信息可以包含与主车辆沿着其行驶的道路段相关联的车道宽度信息。如上所述,稀疏地图可以以任何合适的格式储存车道宽度信息(例如,关系表、沿着纵向道路段方向的周期值、可以从中确定车道宽度的三维样条——诸如图27A和27B所示的S1和S2之间的车道宽度)。例如,与目标车辆2703相关联的纵向距离处的样条S1和S2之间的车道宽度可以表示为与样条S2相关联的点y2处的x坐标投影和与样条S1相关联的点y1处的x坐标投影之间的差。
参考图28A,示出了主车辆2801、目标车辆2803、地标2805和两个样条S1和S2。样条S1和S2可以表示与主车辆和目标车辆沿着其行驶的道路段相关联的车道边界。如图所示,样条S1和S2之间的宽度为W。在一些实施例中,表示检测到的车道边界的两个样条之间的宽度W可以是恒定的或接近恒定的。图28B示出了投影到(x,y)二维坐标系(例如,在图像空间中)的样条S1和S2。基于已知的车道宽度信息(例如,W=3.8米),可以使用以下等式来确定从主车辆2801到目标车辆2803的距离Z:
Figure BDA0002698723110000791
其中f是捕获装置的焦距,w是图像空间中车道的宽度。例如,w可以是125像素,f可以是1400像素。如果已知物理空间中的车道宽度W为3.8米(例如,基于储存的稀疏地图),则可以计算出Z为42.56米。
图29A示出了在(x,y)二维坐标系中包含样条s1、s2和s3的另一图像。图29B示出了在三维坐标中的样条S1、S2和S3的图像。在一个实施例中,服务器可以接收获取的图像2900,并且通过将(x,y)二维坐标映射到(X,Y,Z)三维坐标系统,使用该图像来构建图像2910。例如,为了构建图像2910,服务器可以检测目标车辆2903并确定目标车辆2903底部的(x,y)值。在一些实施例中,通过应用映射函数,服务器可以计算点(x,y)的(X,Y,Z)值。因此,可以基于二维图像构建三维样条。
在一个实施例中,通过使用构建的所有样条,服务器可以创建路面模型。例如,使用图像2910,服务器可以创建路面模型,并且可以将其用作地图的一部分。例如,为了创建路面模型,服务器可以在样条曲线S1、S2和S3上选择具有预定间隔(例如,相隔1米)的点。此外,服务器可以应用Delaunay三角测量,如图29B所示。图30示出了投影到二维坐标的示例性样条。图31示出了Delaunay三角测量结果。如图所示,道路3101边缘之外的点已经被过滤掉。此外,还增加了超出道路边缘的固定宽度的裕量(margin)——区域3103。如上所述,这些(X,Y,Z)三维坐标可以由服务器从(x,y)二维坐标构建。从三维值,服务器可以获得道路3101和道路附近的区域(例如,区域3103)的信息。
在一些实施例中,服务器可以使用来自地图和地图坐标(例如,位置和旋转信息)的一个或多个3D样条将(x,y)二维坐标映射到(X,Y,Z)三维坐标系。例如,服务器可以将表示车道边界的3D样条投影到图像中。对于沿样条的每个3D点(例如,具有一定间距),服务器可以使用关于捕获图像的一个或多个相机的已知信息(例如,焦距、主点、镜头失真等)来计算2D图像投影。代替确定RGB值,服务器可以确定并存储投影点的(X,Y,Z)值。因此,服务器可以沿着图像中的投影样条为每个(x,y)二维坐标确定(X,Y,Z)值。如果服务器检测到车辆及其与道路的接触点(例如,在图像数据中检测到),则服务器可以查看附近的样条s1和s2上的点y1和y2,并将到车辆的ae距离确定为y1和y2的(加权)平均。这种方法可以在车辆配备有多个环绕相机的情况下提供优势。
图32示出了基于相机的定位投影到图像上的相关三角形。当应用Delaunay三角测量函数时,如果图像中的点落在三角形内,则将由服务器基于该三角形为该点分配(X,Y,Z)三维值。
在一个实施例中,主车辆上的处理器可以接收表面模型。如上所述,处理器可以使用上述技术来确定主车辆的位置和主车辆在三维坐标系中的位置。例如,这种位置确定可以基于相对于所识别的地标的定位和/或基于在地标之间主车辆相对于识别的对象(例如,目标车辆)的确定的自我运动的定位。处理器可以使用路面模型来确定从主车辆到识别的对象的距离。例如,当检测到目标车辆2903时,与道路的(x,y)接触点是空间中的线。线和表面的3D交点给出了从主车辆到目标车辆的距离Z。
如上所述,处理器可以至少基于确定的距离来确定导航动作。例如,当从主车辆到目标车辆的确定的距离低于当前停止距离时,则处理器可以确定引起制动等。
图33是示出与所公开的实施例一致的用于导航主车辆的示例性过程的流程图。在步骤3301处,处理器可以从图像捕获装置接收表示主车辆的环境的至少一个图像。图像可以是经由网络或通信信道来自捕获装置122、124和/或126的原始或经处理的数据。数据可以包含以图像格式描述的信息。
在步骤3303处,处理器可以分析至少一个图像以识别主车辆的环境中的对象。图像2800示出了具有许多不同对象的主车辆的环境。处理器可以分析图像2800以识别图像中的对象;如上所述,处理器可以访问对象识别模块2705并使用任何合适的图像分析技术。另外,处理器还可以使用分类算法来区分图像中的不同对象。在一个实施例中,处理器可以利用适当训练的机器学习算法和模型来执行对象识别。
在步骤3305处,处理器可以确定主车辆的位置。在一个实施例中,如上所述,处理器可以基于主车辆沿着表示主车辆沿着道路段的目标轨迹的预定三维样条的位置的预测来确定主车辆的位置。例如,参考图27A,处理器可以基于所识别的地标2705来确定主车辆的位置。并且,与所公开的实施例一致,对主车辆沿着预定三维样条的位置的预测可以基于至少一个辨识的地标的观察位置。在一个实施例中,如上所述,主车辆的位置可以基于主车辆的至少一个传感器(诸如GPS装置、速度传感器和/或加速度计)的输出来确定。
在步骤3307处,处理器可以访问与主车辆的确定的位置相关联的地图信息,其中地图信息包含与主车辆环境中的道路相关联的车道宽度信息。在一个实施例中,处理器可以接收与主车辆正在行驶的特定道路段相关的稀疏地图。然后,如上所述,处理器可以确定主车辆相对于地图中的轨迹的位置。当轨迹被确定时,处理器可以基于主车辆沿着表示其目标轨迹的三维样条的确定的定位位置来确定主车辆的未来路径。此外,处理器可以接收沿着引导主车辆的道路段的所有点(或至少周期性点)的车道宽度信息。车道宽度信息可以以任何合适的格式储存在稀疏地图中,其示例如上所述。在一些实施例中,车道宽度信息还可以包含在沿着样条的预定纵向距离值处相对于目标轨迹样条的左右值,和/或任何其他存储格式。
在步骤3309处,处理器可以至少基于车道宽度信息来确定从主车辆到对象的距离。例如,如上所述,当样条被投影到二维坐标(例如Z=(y1+y2)/2))时,处理器可以对y值进行平均。在另一个示例中,使用等式(4),处理器可以确定从主车辆到对象的距离。替代地,该距离可以基于主车辆的至少一个传感器(诸如,LIDAR系统、RADAR系统、GPS装置、速度传感器和/或加速度计)的输出来确定。在一个实施例中,至少基于车道宽度信息来确定从主车辆到对象的距离的基于图像分析的方法可以用作基于主车辆的其他传感器的输出来确定的距离的检查。
在步骤3311处,处理器可以基于确定的距离来确定主车辆的导航动作。例如,如上所述,可以确定导航动作,以便维持或建立相对于一个或多个检测到的车辆的安全距离(例如,如上所述相对于RSS模型)。
确定部分遮挡的目标车辆的车道位置
在一些情况下,目标车辆可以在由与主车辆相关联的图像捕获装置获取的图像中被完全表示。在这种情况下,确定到目标车辆的距离可以基于图像中目标车辆接触路面的观察线或位置。然而,在其他情况下,获取的图像可能不能完全表示一个或多个目标车辆。例如,一个或多个目标车辆可能被部分遮挡,使得目标车辆和路面的交叉路口可能无法从(多个)捕获的图像中观察到。在这种情况下,可以使用其他技术来推断相对于一个或多个检测到的目标车辆的位置信息,并确定主车辆和检测到的目标车辆之间的距离。附加地或替代地,相对于检测到的目标车辆推断的位置信息,可选地与储存的地图信息(例如,来自上述稀疏地图)相结合,可以用于确定检测到的目标车辆行驶的行驶车道、目标车辆可能的未来航向方向等。
在一个实施例中,如上所述,用于图像处理的处理器可以接收表示主车辆周围的环境的获取的一个或多个图像。在一个实施例中,如上所述,处理器可以执行一组图像的图像分析,并识别该组图像中的对象。处理器可以识别多个图像中的对象、与道路段相关联的多个地标(例如,道路标志)。可以通过上面公开的任何技术来识别对象。例如,对象辨识、图像分段、特征提取、光学字符辨识(OCR)、基于对象的图像分析、形状区域技术、边缘检测技术、基于像素的检测等。
在一个实施例中,基于该分析,处理器可以识别环境中的第一对象(例如,目标车辆),其中第一对象和第一对象所位于的道路被第二对象(例如,分隔器、道路标志等)部分遮挡。图34A表示一个示例性场景,其中目标车辆可以在从主车辆3401捕获的图像中至少部分被遮挡。图34A示出了主车辆3401相对于诸如目标车辆3403和道路分隔器3405的其他对象的位置。
图34B表示可由与主车辆3401相关联的相机获取的示例性图像。在由图34B表示的图像中,可以在图像中检测到目标车辆3403,但是障碍物3405的表示部分地遮挡了目标车辆3403的图像。例如,目标车辆3403的底部被分隔器3405遮挡。然而,例如,通过跟踪目标车辆3403随时间的移动(例如,由两个或更多个获取的图像表示),将这些移动与绘制的信息(例如,上述稀疏地图)进行比较以推断目标车辆3403的行驶的车道或路径,可以确定目标车辆行驶的相关车道(或者目标车辆正在沿着其行驶并且预期行驶的路径)。
更具体地,基于两个或更多个获取的图像,处理器可以确定相对于储存的地图信息的目标车辆的车道位置和/或定位。例如,基于存储沿着道路段(其可以包含多个交叉道路部分)的可用行驶车道的轨迹的稀疏地图,处理器可以确定目标车辆3403位于与目标轨迹L1相关联的车道中。也就是说,使用上述定位技术,处理器可以确定主车辆3401的位置。目标车辆3403的图像坐标可以由线V1绘制。如上所述,图像坐标可以被转换成地图坐标。基于地图坐标以及线V1和车道L1的交点,处理器可以确定目标车辆3403的位置。
附加地或替代地,主车辆可以捕获目标车辆3403的两个或更多个图像,并且观察目标车辆的表示在所获取的图像中如何改变。例如,当主车辆3401和目标车辆3403接近合并时,随着主车辆3401和目标车辆3403之间的距离减小,目标车辆3403的获取的图像将显示目标车辆3403占据获取的图像的较大部分。基于目标车辆3403的图像表示大小如何改变(或基于与主车辆3401和目标车辆3403之间的相对运动相关联的任何其他可观察图像特性),处理器可以推断目标车辆3403的行驶的车道。例如,处理器可以访问储存的稀疏地图,并确定在图34B中表示的获取的图像中观察到的障碍物3405的另一侧上可能存在哪些行驶车道。在所示的示例中,处理器可以确定一个行驶车道存在于障碍物3405的另一侧,并且该车道与目标轨迹L1相关联。处理器可以测试与目标车辆3403相关联的观察到的运动特性,以确定这些运动特性是否与目标车辆沿着目标轨迹L1的运动一致。如果它们一致,则主车辆3401的导航处理器可以推断目标车辆3403正在沿着与障碍物3405相对的车道中的路径L1行驶。利用该信息,主车辆处理器可以估计目标车辆的未来路径,包含例如目标车辆如何与主车辆相互作用或者它们将如何在即将到来的车道合并处相遇的估计。在一些情况下,主车辆可能会减速,以便在即将到来的车道合并处跟随目标车辆,即使目标车辆被部分遮挡。在一些情况下,主车辆可以加速,以便在即将到来的车道合并处继续在目标车辆前面行驶。主车辆还可以基于稀疏地图信息来确定到目标车辆的距离,并且目标车辆3403的图像坐标可以通过线V1来绘制。
虽然所示的示例仅包含一个行驶车道,但是车道推断和差异确定技术可以用在多个车道从主车辆上的图像捕获装置的视野中被遮挡的情况中。例如,如果存在被障碍物3405遮挡的两条、三条或更多条车道,将两个或更多个捕获图像中观察到的目标车辆的运动特性与储存在稀疏地图中的车道/轨迹信息进行比较的相同技术将允许主车辆处理器推断目标车辆正在哪个被遮挡的车道中行驶。根据该信息,可以确定目标车辆的未来路径。
图35A示出了存在多个遮挡的车道的示例。图35B示出了目标车辆3503在t1和t2处的图像坐标,其分别由线V1和V2绘制。主车辆3501正在接近具有双车道道路3507的交叉路口。处理器可以确定所识别的目标车辆3503是位于车道L1还是车道L2。这种确定对于产生适当的导航动作可以是重要的。例如,如果目标车辆被确定在与轨迹L1相关联的车道中,则主车辆可能没有足够的空间左转到与轨迹L1相关联的车道中。另一方面,如果通过基于车辆3503的观察到的运动特性和储存的地图数据的推断技术,主车辆处理器确定目标车辆3503正在与轨迹L2相关联的车道中行驶,则处理器可以得出结论,即,主车辆3501将有足够的空间左转到与轨迹L1相关联的车道中,而不妨碍检测到的目标车辆。在一个实施例中,基于从主车辆到目标车辆的距离,以及来自图像的目标车辆的位置,处理器可以确定或推断目标车辆的速度。例如,基于线V1和V2,处理器可以相对于t2-t1的已知时间间隔确定目标车辆3503的行驶距离。因此,可以确定目标车辆的速度。
如图35B所示,随着主车辆3501从时间t1到t2接近交叉路口,从主车辆3501到目标车辆3503的距离减小,并且图像3510中的目标车辆3503的大小增大。在一个实施例中,处理器可以使用以下等式来确定在t1处从主车辆3501到目标车辆3503的距离Z1和在t2处从主车辆3501到目标车辆3503的距离Z2:
Figure BDA0002698723110000841
Z1-Z2=dZ (6)
其中,w1可以是图像3510中的目标车辆3503在t1处的大小,w2可以是图像3510中的目标车辆3503在t2处的大小,以及dZ可以是主车辆3501从t1行驶到t2的距离,其可以由处理器使用上述图像分析技术来检测。dZ值可以由来自速度传感器(例如,速度计)的信息确定。基于计算的Z1和Z2,处理器可以确定目标车辆的车道位置3503。
图36A提供了另一多车道示例,其中主车辆3601和目标车辆3603都接近车道合并。图36B示出了目标车辆3603在时间t1至t2处的图像坐标,其分别由线V1和V2绘制。如图36A所示,弯曲车道3609与道路3607合并。为了更简单的计算,处理器可以将弯曲车道3609近似为直线3613。处理器可以使用以下等式来确定在时间t1处从主车辆3601到目标车辆3603的距离Z1和在时间t2处从主车辆3601到目标车辆3603的距离Z2:
Z1-Z2=dZ×sin(a) (7)
Figure BDA0002698723110000851
其中,dZ可以是主车辆3601从t1行驶到t2的距离,a是线3613和道路3607之间的角度,w1可以是图像3610中目标车辆3603在t1处的大小,w2可以是图像3610中目标车辆3603在t2处的大小。在一个实施例中,为了简单起见,处理器可以使捕获装置(例如,相机)虚拟旋转,使得光轴垂直于车道L1和L2,因此,可以忽略目标车辆3603的运动。此外,基于计算的Z1和Z2,处理器可以通过基于与储存的地图数据的比较的推断来确定目标车辆3603的车道位置(例如,确定哪个车道轨迹最适合目标车辆的观察到的运动特性)。
在一个实施例中,处理器可以确定识别的对象的比例改变信息。比例改变信息可以包含图像中识别的对象的大小改变信息。例如,在图像3510中,处理器可以确定图像中目标车辆3503(或目标车辆的可识别组件或部分)的大小在t2处大于t1处的大小。比例改变信息还可以包含图像中识别的对象的位置改变信息。例如,在图像3510中,处理器可以检测到在图像中,目标车辆2503从时间t1到t2从右向左移动。图像中对象的大小可以用像素来描述。在一个实施例中,基于图像的时间戳,可以确定时间间隔。在一个实施例中,比例改变信息包含与道路的车道结构相关的配置信息。基于图像分析,处理器可以确定道路的车道结构。该结构可以包含车道的特征(例如,直行车道、绕行道、2米宽的车道、前方右转等)。
在一个实施例中,如上所述,处理器可以基于识别的对象的确定的车道位置来确定期望的导航动作。例如,如果目标车辆3503被确定为位于图35A中的车道L2,则处理器可以使主车辆3501安全地左转进入L1。如果目标车辆3503被确定为位于车道L1,则处理器可以使主车辆3501减速并等待一段时间以左转。在另一个示例中,如果目标车辆3603位于图36A中的车道L1,处理器可以使主车辆3601减速,以避免撞到目标车辆3603。此外,如上所述,处理器也可以基于目标车辆的确定的车道位置和RSS安全距离来确定导航动作。
图37是与所公开的实施例一致的用于导航主车辆的流程图。在步骤3701处,处理器可以从图像捕获装置接收表示主车辆的环境的至少一个图像。图像可以是经由网络或通信信道来自捕获装置122、124和/或126的原始或经处理的数据。数据可以包含以图像格式描述的信息。
在步骤3703处,处理器可以分析多个图像中的至少一个图像以识别车辆的环境中的第一对象,其中第一对象和第一对象所位于的道路至少部分被车辆的环境中的第二对象遮挡。如上所述,图像3410、3510和3610可以示出主车辆的环境。如上所述,处理器可以使用图像分析技术来分析图像以识别图像中的对象,所述图像分析技术包含例如对象辨识、图像分段、特征提取、光学字符辨识(OCR)、基于对象的图像分析、形状区域技术、边缘检测技术、基于像素的检测等。例如,基于该分析,处理器可以识别被分隔器3505图像3510遮挡的第一目标车辆3503。
在步骤3705处,处理器可以基于多个图像中的至少两个图像来确定第一对象的比例改变信息。例如,处理器可以比较包含目标车辆3503在t1和t2两者处的图像的图像3510,并且可以确定图像中的目标车辆3503的大小改变。
在步骤3707处,处理器可以基于第一对象的确定的比例改变信息,确定第一对象相对于第一对象所位于的道路的车道的车道位置。如上所述,基于Z1和Z2,处理器可以确定目标车辆的车道位置。
在步骤3709处,处理器可以基于第一对象的确定的车道位置来确定主车辆的导航动作。如上所述,例如,如果目标车辆3503被确定为位于图35A中的车道L2,则处理器可以使主车辆3501安全地左转进入L1。如果目标车辆3503被确定为位于车道L1,则处理器可以使主车辆3501减速并等待一段时间以左转。
基于轨迹的跟踪确定目标车辆的道路位置
如上所述,在获取的图像中,目标车辆可能被部分遮挡。在这种情况下,与储存的稀疏地图信息的比较可用于确定到检测到的目标车辆的距离。附加地或替代地,如所指出的,可以将(通过图像分析观察到的)检测到的目标车辆的运动特性与稀疏地图信息进行比较,以便推断检测到的目标车辆行驶的行驶车道、目标车辆可能的未来航向方向等。
在一个实施例中,如上所述,用于图像处理的处理器可以接收从主车辆周围的环境获取的一个或多个图像。在一个实施例中,如上所述,处理器可以执行一组图像的图像分析,并识别该组图像中的对象。处理器可以识别多个图像中的对象、与道路段相关联的多个地标(例如,道路标志)。可以通过上面公开的任何技术来识别对象。例如,对象辨识、图像分段、特征提取、光学字符辨识(OCR)、基于对象的图像分析、形状区域技术、边缘检测技术、基于像素的检测等。
在一个实施例中,基于该分析,处理器可以识别环境中的第一对象(例如,目标车辆),其中第一对象和第一对象所在的道路被第二对象(例如,分隔器、道路标志、环岛等)部分遮挡。图38A示出了主车辆3801相对于道路段上的对象的位置。主车辆3801上的处理器可以通过分析一个或多个获取的图像来检测目标车辆3803和环岛3805。如上所述,基于主车辆的确定的位置,与主车辆相关联的处理器可以接收与主车辆的环境相关联的地图信息。例如,可以向主车辆3801提供与主车辆3801行驶的道路段相关联的稀疏地图。
图38A示出了在时间t1、t2和t3处主车辆3801相对于目标车辆3803和环岛3805的位置。根据目标车辆3803的获取的图像中的位置和/或基于与目标车辆相关联的其他运动特性(例如,跨获取的图像的对象缩放等),处理器可以确定目标车辆3803的轨迹(例如,从时间t1到时间t3目标车辆已经沿着其行驶的跟踪轨迹)。进入环形交通枢纽(trafficcircle),目标车辆3803可以进行右转。初始转向角可以向右接近90度(相对于时间t1和t2出的原始行驶方向)。此外,当目标车辆绕着环形交通枢纽行驶时,目标车辆连续向左转弯,直到它离开环形交通枢纽。图38B示出了表示由主车辆3801上的处理器在时间t2出和稍后的时间t3出从捕获装置接收的两个不同的图像的示例性合成图像。这些图像被组合以显示目标车辆3803从时间t2到时间t3的前进。目标车辆3803被障碍物3805部分遮挡。
如上所述,基于从t1到t3捕获的图像,处理器可以跟踪图像中目标车辆3803的大小(或宽度(w))改变。处理器还可以跟踪目标车辆的行驶方向。根据该信息,可以确定目标车辆的行驶路径,尽管它被部分遮挡。这种确定的行驶路径可以与储存在稀疏地图中的车道轨迹进行比较,以确定储存的车道轨迹中的哪一个与通过图像分析确定的目标车辆的确定的行驶路径相匹配。以这种方式确认行驶车道可以使得主车辆导航处理器能够确定目标车辆在未来时间的可能行驶路径,并且鉴于为检测到的目标车辆确定的行驶车道来确定主车辆的导航动作。
图38C提供了示出图像中目标车辆3803的位置(x)和宽度(w)之间的关系的示图。如图所示,拐点可能出现在目标车辆3803进入环形交通枢纽的位置。基于拐点,处理器可以选择拐点出现时拍摄的图像。基于上述图像分析,处理器可以确定从主车辆3801到目标车辆3808的距离Z。基于确定的距离Z和图像宽度(w),处理器可以使用上述等式计算实际车辆宽度W。当图像中的宽度(w)和实际宽度W两者被确定时,当通过图像分析确定图像宽度(w)时,则处理器可以在任何给定点计算从主车辆3801到目标车辆3803的距离Z。用于确定从主车辆到目标车辆的距离的上述方法可以应用于在图像宽度(w)和图像位置(x)之间的关系图中出现拐点的任何目标车辆轨迹。
在一个示例中,图39A示出了主车辆3901相对于目标车辆3903、环岛3905和分隔器3907的位置。图39B示出了由主车辆3901上的处理器从捕获装置接收的图像之一。在一个实施例中,处理器可以确定目标车辆3903的车道位置,诸如目标车辆3903是位于内车道(T1)还是外车道(T2)。基于储存的稀疏地图信息,处理器可以生成从主车辆的当前位置到车道T1和T2之间的车道分隔器的中心的已知位置的切线,如图39A所示。使用该切线光来分析图39B所示的捕获图像,处理器可以确定目标车辆3903的车道位置。例如,如果目标车辆3903位于图像中的切线的左侧,则处理器可以确定目标3903位于外侧车道(T2)。并且,如果目标车辆3903在图像中的切线的右侧,则处理器可以确定目标3903位于内车道(T1)。用于确定目标车辆的车道位置的上述方法可以应用于任何多车道弯道或环形交通枢纽(trafficcircle)。
图40A示出了主车辆4001接近目标车辆4003的另一示例,目标车辆4003被障碍物4007部分遮挡。图40B示出了由处理器从与主车辆相关联的捕获装置接收的示例性图像。与本公开一致地,处理器可以接收由主车辆4001上的捕获装置捕获的图像4010。如图像4010所示,目标车辆4003的底部被障碍物4007遮挡。基于对获取的图像的分析,处理器可以确定目标车辆4003相对于主车辆沿着线V1被定位,而沿着线V1的确切位置可能是未知的。为了确定目标车辆4003的实际位置,处理器可以假设从主车辆4001到目标车辆4003的距离(例如,Z1或Z2)。如上所述,处理器可以在两个或多个捕获的图像上监控目标车辆4003的观察到的运动特性,并且可以针对每个假设距离(例如,Z1或Z2)确定目标的观察到的轨迹,每个假设距离可以与目标车辆的不同观察到的轨迹相关联。处理器可以将观察到的目标车辆的轨迹与储存的地图信息进行比较,该地图信息示出了障碍物相对的可用车道和相关联的轨迹4007。通过该比较,处理器可以确定哪个假设轨迹更有可能(例如,哪个最适合储存的地图中表示的实际车道和轨迹值)。在一些情况下,处理器可以根据目标车辆的特定假设轨迹与目标车辆的实际轨迹匹配的置信度(或其他量化器)来对每个假设轨迹进行排序(例如,哪个观察到的轨迹与可用的或相关的绘制轨迹最匹配)。
在一个示例中,如图40A所示,如果真实的目标车辆位置是T1,则目标车辆的路径Z1至Z1’将平行于车道L1。换句话说,如果假设车辆4003位于距主车辆距离Z1处,并且主车辆在两个或更多个捕获的图像上观察到车辆4003的运动特性,则主车辆的处理器将确定目标车辆的图像表示以与目标车辆沿着路径L1移动一致的方式改变,如储存的地图中所示的。另一方面,如果处理器假设目标车辆位于距离主车辆的距离Z2处(例如,在目标车辆位置4005处),则在目标车辆的图像表示中观察到的改变将得到不同于路径L1或路径L2的轨迹。例如,基于Z2起始距离的观察到的轨迹可以从Z2延伸到Z2’。这条路径不平行于有效路径L1或L2中的一个。结果,主车辆的处理器可以确定:因为基于距离Z2的假设的观察到的轨迹与储存在地图中的有效轨迹不匹配,所以目标车辆不位于距离Z2处。相反,因为与距离Z1相关联的观察到的轨迹与储存在地图中的有效轨迹匹配,所以处理器可以确定目标车辆位于距主车辆距离Z1处并且沿着路径L1行驶。
基于该分析,路径L1可以被认为是部分遮挡车辆4003的实际轨迹的最可能的候选。地图数据还可能包含储存的“可能路径”信息,该“可能路径”信息从该道路段或类似道路段的众包积累。在这种情况下,即使初始轨迹确定是不正确的,并且正确的路径是Z2至Z2’,那么车辆可能处于改变车道操纵的过程中。在某个时间点处,车辆将在L1中,此时重复上述过程将导致确定目标车辆现在正沿着路径L1行驶。这可能是对前面描述的场景的一般解决方法。例如,当38A中的目标被跟踪,并且假设不同的距离时,只有一个假设应该与地图数据很好地一致。机器学习方法可用于估计特定路径的可能性。返回参考图40A,RSS框架会建议我们确保对于沿着V1的目标的任何位置我们是安全的。然而,CRSS框架(例如,其距离缓冲大于最小安全距离以保证在主车辆故障时没有碰撞的策略)可以假定最可能的位置。
一般而言,如上所述,处理器可以在两个或更多个捕获的图像上监控目标车辆4003的观察到的运动特性,并且可以确定目标车辆的一个或更多个估计的轨迹。将观察到的目标轨迹与显示可用车道和与分隔器4007相对的相关联的轨迹的储存的地图信息进行比较,处理器可以确定目标车辆正在穿越哪个可用车道。例如,处理器可以确定目标车辆4003的观察到的运动(例如,缩放等)的轨迹与L1轨迹一致,但与L2轨迹不一致。
如上所述,处理器可以使用以下等式来确定从主车辆4001到目标车辆4003的距离:
Figure BDA0002698723110000901
其中,w是t1处图像中目标车辆4003的宽度,w’是t2处图像中目标车辆4003的宽度。
例如,从图像4010,处理器可以确定Z1=40米,Z2=44米,以及车道宽度=4米。基于预测,在目标车辆4003在车道L2中横向移动的情况下,处理器可以确定Z1’=30米,Z2’=33米。
因此,如果Z2’被预测为32米,则处理器可以确定目标车辆4003从车道L2的中心向车道L1偏移了1米。或者如果Z2’被确定为35米,则处理器可以确定目标车辆4003从车道L2向外偏移。
如上所述,处理器可以接收储存的地图信息,并确定距离Z1=40米是否与绘制的信息一致。如果距离与储存的地图信息一致,则目标车辆(例如,目标车辆4003)的轨迹可以被确认为对应于车道L1。该方法也可应用于推断交叉路口、环形交通枢纽或任何其他道路段结构处的目标车辆行驶车道。在一个实施例中,与主车辆相关联的处理器还可以依赖于从前到后对捕获图像中的对象表示的透视或排序,例如,以推断目标车辆的行驶车道。例如,图40C表示目标车辆4003遮挡目标车辆4005的捕获图像。主车辆处理器在分析捕获的图像时,可以基于在捕获的图像中车辆4003遮挡车辆4005的事实,确定目标车辆4003比目标车辆4005更靠近主车辆。基于该信息,主车辆处理器可以推断车辆4005比车辆4003行驶得离主车辆更远。将该推断与储存的地图信息进行比较可以使得主车辆处理器能够确定目标车辆4003和4005中的每一个正在行驶的可用行驶车道,尽管被分隔器4007部分遮挡。
图41是表示与所公开的实施例一致的用于导航主车辆的示例性方法的流程图。在步骤4101处,处理器可以从图像捕获装置接收表示主车辆的环境的至少一个图像。图像可以是经由网络或通信信道来自捕获装置122、124和/或126的原始或经处理的数据。
在步骤4103处,处理器可以分析多个图像中的至少一个,以在主车辆的环境中识别目标车辆。如上所述,图像3810、3910和4010可以示出主车辆的环境。如上所述,处理器可以使用图像分析技术来分析图像以识别图像中的对象。例如,基于该分析,处理器可以识别目标车辆3903、环岛3905和分隔器3907。
在步骤4105处,处理器可以接收与主车辆的环境相关联的地图信息。例如,处理器可以确定主车辆的位置,并获得与确定的位置相关的地图信息。例如,基于确定的主车辆位置,处理器可以检索包含特定位置或与确定的位置相关的地图信息。地图信息可以包含可用车道的目标轨迹、地标类型和位置、对象类型和位置、道路的结构、标高信息、车道宽度和/或限速等。
在步骤4107处,处理器可以基于对多个捕获图像的分析来确定时间段内检测到的目标车辆的轨迹。如上所述,处理器可以监控接收到的图像中识别的对象(例如,目标车辆)的运动。也就是说,处理器可以跟踪图像中目标车辆的大小和位置,以推断目标车辆在三维地图(例如,图像2910)上的位置。例如,如果处理器确定目标车辆直行,然后右转,然后左转,则处理器可以确定目标车辆正在进入环形交通枢纽。
在步骤4109处,处理器可以基于目标车辆的确定的轨迹和地图信息,确定目标车辆相对于主车辆的环境中的道路的位置。在一个实施例中,处理器可以使用目标车辆的确定的轨迹作为与三维地图进行比较的基础,该三维地图可以指示目标车辆行驶的轨迹。基于该比较,处理器可以对照来自地图的轨迹来验证目标车辆的确定的轨迹,以便确定哪些轨迹符合目标车辆的合理场景。处理器可以进一步推断地图中的哪个轨迹最适合目标车辆的观察到的轨迹。
在步骤4111处,处理器可以基于目标车辆的确定的位置和/或目标车辆的确定的行驶轨迹或行驶车道来确定主车辆的导航动作。基于上述信息,处理器可以沿着目标车辆的轨迹定位该目标车辆。基于定位,处理器可以确定从主车辆到目标车辆的距离。然后,处理器可以基于确定的距离来确定各种导航反应(例如,维持RSS安全距离等)。或者,如上所述,基于目标车辆的车道位置,处理器可以使主车辆不左转以避免撞到目标车辆。在一些情况下,主车辆处理器可以基于确定目标车辆被确定为遵循储存的地图中的哪个目标轨迹来确定目标车辆的预测航向方向。主车辆处理器在确定主车辆是否需要一个或多个导航改变(例如,制动、车道改变等)时,可以依赖目标车辆的这种航向方向。
当目标车辆的一部分被遮挡时(尤其是下部(lower portion)及其与路面的界面),确定到车辆或目标车辆所驻留的车道的距离可能是困难的。为了解决这个困难,上述系统可以基于随时间的观察到的比例改变和已知的道路车道配置来确定部分遮挡的目标车辆的车道位置。例如,比例改变和车道配置可以相互比较或测试,以确定比例改变与道路的车道上的有效车辆轨迹一致的车道。然后,所确定的车道信息可用于生成与车道相关的导航响应。
系统还可以推断距离,并使用推断的距离信息来做出导航决定。例如,储存的地图轨迹可以通过图像分析与目标车辆检测结合使用,以确定或至少推断当目标进入环形交通枢纽、经过前方道路中的某个弯道等时到目标车辆的距离。例如,该距离信息可用于决定是否进入环形交通枢纽或决定是否安全通过。参考图42中所示的示例,主车辆4202在车辆4204后面行驶,并且捕获其环境的图像。基于对那些获取的图像的分析,与主车辆4202相关联的处理器可以识别正准备进入前方道路中的弯道的至少一个迎面而来的目标车辆4206。图像分析可以使能确定目标车辆4206相对于主车辆4202沿着视线V1定位。然而,沿着线V1到目标车辆的绝对位置或距离可能是未知的。然而,使用储存的地图信息,主车辆4202可以相对于轨迹L1定位自身。处理器可以确定线V1和与检测到的迎面而来的目标车辆的有效行驶车道相关联的轨迹L2之间的交点4206。利用主车辆4202的定位的位置、和视线V1与检测到的目标车辆的轨迹L2的交点,主车辆处理器可以确定主车辆和检测到的目标车辆之间的距离。该距离信息可用于确定适当的导航动作(例如,是否有足够的空间经过车辆4204)。使用不同于V1的另一条视线重复测量(例如,当主车辆和目标车辆都朝着弯道4208行驶时)可以允许确定迎面而来的车辆速度。例如,主车辆可以确定其视线的线与轨迹L2的两个不同交点,可以确定两个交点之间的距离,并且使用图像采集之间的已知时间,可以确定目标车辆4206从第一地图/视线交点到第二地图/视线交点花费多长时间,这可以使得能够计算车辆速度。
出于说明的目的已经呈现了前面的描述。它不是穷举性的并且不限于所公开的精确形式或实施例。考虑到所公开实施例的说明书和实践,修改和改编对于本领域技术人员来说是显而易见的。另外,尽管所公开的实施例的方面被描述为储存在存储器中,但本领域的技术人员将理解,这些方面也可以储存在其他类型的计算机可读介质上,诸如辅助储存装置,例如,硬盘或CDROM、或其他形式的RAM或ROM、USB介质、DVD、蓝光、4K超高清蓝光、或其他光驱动介质。
基于书面说明和所公开的方法的计算机程序在有经验的开发人员的技术范围内。可以使用任何本领域技术人员已知的技术来创建或可以结合现有的软件来设计各种程序或程序模块。例如,程序段或程序模块可以以或通过.NET Framework、.NET CompactFramework(以及相关的语言,诸如Visual Basic,C等)、JAVA、C++、Objective-C、HTML、HTML/AJAX组合、XML或者包含Java小程序的HTML来设计。
此外,虽然已经在本文中描述了说明性实施例,但是本领域技术人员基于本公开将认识到具有等同的要素、修改、省略、组合(例如,遍及各个实施例的方面的)、改编和/或变化的任何以及所有实施例的范围。权利要求书中的限定将基于权利要求书中采用的语言宽泛地解释,并且不限于在本说明书中或在本申请的审查期间所描述的示例。示例将被解释为非排他性的。此外,所公开的方法的步骤可以以任何方式修改,包含通过重新排序步骤和/或插入或删除步骤。因此,意图是说明书和示例被视为仅是说明性的,真正的范围和精神由以下权利要求及其等同物的全部范围来表示。

Claims (78)

1.一种用于导航主车辆的系统,所述系统包括:
至少一个处理装置,被编程为:
从图像捕获装置接收表示主车辆的环境的至少一个图像;
分析至少一个图像以在主车辆的环境中识别对象;
确定主车辆的位置;
接收与确定的主车辆的位置相关联的地图信息,其中所述地图信息包含与主车辆的环境相关联的标高信息;
至少基于标高信息确定从主车辆到对象的距离;以及
基于确定的距离来确定主车辆的导航动作。
2.根据权利要求1所述的系统,其中,标高信息包含相对于主车辆的位置的标高的至少一个指示。
3.根据权利要求1所述的系统,其中,标高信息包含远离主车辆的位置延伸的道路的标高轮廓。
4.根据权利要求1所述的系统,其中,确定从主车辆到对象的距离还基于对至少一个图像的分析。
5.根据权利要求1所述的系统,其中,确定从主车辆到对象的距离还基于主车辆的位置。
6.根据权利要求1所述的系统,其中,确定主车辆的位置基于主车辆的至少一个传感器的输出。
7.根据权利要求6所述的系统,其中,至少一个传感器包含GPS装置、速度传感器或加速度计。
8.根据权利要求1所述的系统,其中,确定主车辆的位置基于对主车辆沿着表示主车辆沿着道路段的目标轨迹的预定三维样条的位置的预测,其中,对主车辆沿着预定三维样条的位置的预测基于至少一个辨识的地标的观察到的位置。
9.根据权利要求1所述的系统,其中,确定从主车辆到对象的距离还基于主车辆的至少一个传感器的输出。
10.根据权利要求9所述的系统,其中,至少一个传感器包含GPS装置、速度传感器或加速度计。
11.根据权利要求1所述的系统,其中,导航动作包含引起主车辆的导航致动器的至少一个调整。
12.根据权利要求11所述的系统,其中,导航致动器包含主车辆的转向机构、制动器或加速器中的至少一个。
13.根据权利要求1所述的系统,其中,对象包含目标车辆。
14.一种用于导航主车辆的方法,所述方法包括:
从图像捕获装置接收表示主车辆的环境的至少一个图像;
分析至少一个图像以在主车辆的环境中识别对象;
确定主车辆的位置;
接收与确定的主车辆的位置相关联的地图信息,其中所述地图信息包含与主车辆的环境相关联的标高信息;
至少基于标高信息确定从主车辆到对象的距离;以及
基于确定的距离来确定主车辆的导航动作。
15.根据权利要求14所述的方法,其中,标高信息包含相对于主车辆的位置的标高的至少一个指示。
16.根据权利要求14所述的方法,其中,标高信息包含远离主车辆的位置延伸的道路的标高轮廓。
17.根据权利要求14所述的方法,其中,确定从主车辆到对象的距离还基于对至少一个图像的分析。
18.根据权利要求14所述的方法,其中,确定从主车辆到对象的距离还基于主车辆的位置。
19.根据权利要求14所述的方法,其中,确定主车辆的位置基于主车辆的至少一个传感器的输出。
20.根据权利要求19所述的方法,其中,至少一个传感器包含GPS装置、速度传感器或加速度计。
21.一种用于导航主车辆的系统,所述系统包括:
至少一个处理装置,被编程为:
从图像捕获装置接收表示主车辆的环境的至少一个图像;
分析至少一个图像以在主车辆的环境中识别对象;
确定主车辆的位置;
接收与确定的主车辆的位置相关联的地图信息,其中所述地图信息包含与主车辆的环境中的道路相关联的车道宽度信息;
至少基于车道宽度信息确定从主车辆到对象的距离;以及
基于确定的距离来确定主车辆的导航动作。
22.根据权利要求21所述的系统,其中,车道宽度信息包含沿着道路的长度的车道宽度轮廓。
23.根据权利要求21所述的系统,其中,车道宽度信息包含车道宽度变化签名。
24.根据权利要求21所述的系统,其中,车道宽度信息包含相对于道路的参考点的距离。
25.根据权利要求21所述的系统,其中,确定从主车辆到对象的距离还基于对至少一个图像的分析。
26.根据权利要求21所述的系统,其中,确定从主车辆到对象的距离还基于主车辆的位置。
27.根据权利要求21所述的系统,其中,确定主车辆的位置基于主车辆的至少一个传感器的输出。
28.根据权利要求27所述的系统,其中,至少一个传感器包含GPS装置、速度传感器或加速度计。
29.根据权利要求21所述的系统,其中,确定主车辆的位置基于对主车辆沿着表示主车辆沿着道路段的目标轨迹的预定三维样条的位置的预测,其中,对主车辆沿着预定三维样条的位置的预测基于至少一个辨识的地标的观察到的位置。
30.根据权利要求21所述的系统,其中,确定从主车辆到对象的距离还基于主车辆的至少一个传感器的输出。
31.根据权利要求30所述的系统,其中,至少一个传感器包含GPS装置、速度传感器或加速度计。
32.根据权利要求21所述的系统,其中,导航动作包含引起主车辆的导航致动器的至少一个调整。
33.根据权利要求32所述的系统,其中,导航致动器包含主车辆的转向机构、制动器或加速器中的至少一个。
34.根据权利要求21所述的系统,其中,对象包含目标车辆。
35.一种用于导航主车辆的方法,所述方法包括:
从图像捕获装置接收表示主车辆的环境的至少一个图像;
分析至少一个图像以在主车辆的环境中识别对象;
确定主车辆的位置;
接收与确定的主车辆的位置相关联的地图信息,其中所述地图信息包含与主车辆的环境中的道路相关联的车道宽度信息;
至少基于车道宽度信息确定从主车辆到对象的距离;以及
基于确定的距离来确定主车辆的导航动作。
36.根据权利要求35所述的方法,其中,车道宽度信息包含沿着道路的长度的车道宽度轮廓。
37.根据权利要求35所述的方法,其中,车道宽度信息包含车道宽度变化签名。
38.根据权利要求35所述的方法,其中,车道宽度信息包含相对于道路的参考点的距离。
39.根据权利要求35所述的方法,其中,确定从主车辆到对象的距离还基于对至少一个图像的分析。
40.根据权利要求35所述的方法,其中,确定从主车辆到对象的距离还基于主车辆的位置。
41.一种用于导航主车辆的系统,所述系统包括:
至少一个处理装置,被编程为:
从图像捕获装置接收表示主车辆的环境的多个图像;
分析多个图像中的至少一个图像以在车辆的环境中识别第一对象,其中第一对象和第一对象所位于的道路至少部分地被车辆的环境中的第二对象遮挡;
基于多个图像中的至少两个图像来确定第一对象的比例改变信息;
基于确定的第一对象的比例改变信息,确定第一对象相对于第一对象所位于的道路的车道的车道位置;以及
基于确定的第一对象的车道位置来确定主车辆的导航动作。
42.根据权利要求41所述的系统,其中,第一对象的比例改变信息包含第一对象的图像表示的大小相对于时间段的改变。
43.根据权利要求41所述的系统,其中,确定第一对象的车道位置还包含将比例改变信息和与道路的一个或多个车道相关联的预期比例改变进行比较。
44.根据权利要求43所述的系统,其中,比例改变信息包含与道路的车道结构相关的配置信息。
45.根据权利要求41所述的系统,其中,导航动作包含引起主车辆的导航致动器的至少一个调整。
46.根据权利要求45所述的系统,其中,导航致动器包含主车辆的转向机构、制动器或加速器中的至少一个。
47.根据权利要求41所述的系统,其中,第一对象包含第一目标车辆。
48.根据权利要求41所述的系统,其中,第二对象包含第二目标车辆。
49.根据权利要求41所述的系统,其中,第二对象至少部分地遮挡第一对象的下部。
50.根据权利要求41所述的系统,其中,第一对象包含车辆,并且车辆的车轮从视野中被遮挡并且不在多个图像中被表示。
51.根据权利要求41所述的系统,其中,第一对象包含车辆,并且其中仅车辆的上部未被遮挡并且在多个图像中被表示。
52.一种用于导航主车辆的方法,所述方法包括:
从图像捕获装置接收表示主车辆的环境的多个图像;
分析多个图像中的至少一个图像以在车辆的环境中识别第一对象,其中第一对象和第一对象所位于的道路至少部分地被车辆的环境中的第二对象遮挡;
基于多个图像中的至少两个图像来确定第一对象的比例改变信息;
基于确定的第一对象的比例改变信息,确定第一对象相对于第一对象所位于的道路的车道的车道位置;以及
基于确定的第一对象的车道位置来确定主车辆的导航动作。
53.根据权利要求52所述的方法,其中,第一对象的比例改变信息包含第一对象的图像表示的大小相对于时间段的改变。
54.根据权利要求52所述的方法,其中,确定第一对象的车道位置还包含将比例改变信息和与道路的一个或多个车道相关联的预期比例改变进行比较。
55.根据权利要求54所述的方法,其中,比例改变信息包含与道路的车道结构相关的配置信息。
56.根据权利要求52所述的方法,其中,导航动作包含引起主车辆的导航致动器的至少一个调整。
57.根据权利要求56所述的方法,其中,导航致动器包含主车辆的转向机构、制动器或加速器中的至少一个。
58.根据权利要求52所述的方法,其中,第一对象包含第一目标车辆。
59.根据权利要求52所述的方法,其中,第二对象包含第二目标车辆。
60.根据权利要求52所述的方法,其中,第二对象至少部分地遮挡第一对象的下部。
61.一种用于导航主车辆的系统,所述系统包括:
至少一个处理装置,被编程为:
从图像捕获装置接收表示主车辆的环境的多个图像;
分析多个图像中的至少一个图像,以在主车辆的环境中识别目标车辆;
接收与主车辆的环境相关联的地图信息;
基于对多个图像的分析,确定目标车辆在时间段内的轨迹;
基于确定的目标车辆的轨迹和地图信息,确定目标车辆相对于主车辆的环境中的道路的位置;以及
基于确定的目标车辆的位置来确定主车辆的导航动作。
62.根据权利要求61所述的系统,其中,确定目标车辆在时间段内的轨迹还基于主车辆的至少一个导航传感器的输出。
63.根据权利要求62所述的系统,其中,至少一个导航传感器包含GPS装置、速度传感器或加速度计。
64.根据权利要求61所述的系统,其中,确定目标车辆相对于道路的位置包含与目标车辆的轨迹相关联的一个或多个拐点的分析,以及将一个或多个拐点与在地图信息中表示的一个或多个道路的轨迹的比较。
65.根据权利要求61所述的系统,其中,确定目标车辆相对于道路的位置还基于GPS信息。
66.根据权利要求61所述的系统,其中,导航动作包含引起主车辆的导航致动器的至少一个调整。
67.根据权利要求66所述的系统,其中,导航致动器包含主车辆的转向机构、制动器或加速器中的至少一个。
68.根据权利要求61所述的系统,其中,目标车辆的位置出现在道路的弯道上。
69.根据权利要求61所述的系统,其中,目标车辆的位置出现在道路中的环形交通枢纽上。
70.一种用于导航主车辆的方法,所述方法包括:
从图像捕获装置接收表示主车辆的环境的多个图像;
分析多个图像中的至少一个图像,以在主车辆的环境中识别目标车辆;
接收与主车辆的环境相关联的地图信息;
基于对多个图像的分析,确定目标车辆在时间段内的轨迹;
基于确定的目标车辆的轨迹和地图信息,确定目标车辆相对于主车辆的环境中的道路的位置;以及
基于确定的目标车辆的位置来确定主车辆的导航动作。
71.根据权利要求70所述的方法,其中,确定目标车辆在时间段内的轨迹还基于主车辆的至少一个导航传感器的输出。
72.根据权利要求71所述的方法,其中,至少一个导航传感器包含GPS装置、速度传感器或加速度计。
73.根据权利要求70所述的方法,其中,确定目标车辆相对于道路的位置包含与目标车辆的轨迹相关联的一个或多个拐点的分析,以及将一个或多个拐点与在地图信息中表示的一个或多个道路的轨迹的比较。
74.根据权利要求70所述的方法,其中,确定目标车辆相对于道路的位置还基于GPS信息。
75.根据权利要求70所述的方法,其中,导航动作包含引起主车辆的导航致动器的至少一个调整。
76.根据权利要求75所述的方法,其中,导航致动器包含主车辆的转向机构、制动器或加速器中的至少一个。
77.根据权利要求70所述的方法,其中,目标车辆的位置出现在道路的弯道上。
78.根据权利要求70所述的方法,其中,目标车辆的位置出现在道路中的环形交通枢纽上。
CN201980021805.5A 2018-04-03 2019-04-03 用于确定导航参数的系统和方法 Pending CN111902694A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862652039P 2018-04-03 2018-04-03
US201862652029P 2018-04-03 2018-04-03
US62/652,029 2018-04-03
US62/652,039 2018-04-03
PCT/US2019/025573 WO2019195415A1 (en) 2018-04-03 2019-04-03 Systems and methods for determining navigational parameters

Publications (1)

Publication Number Publication Date
CN111902694A true CN111902694A (zh) 2020-11-06

Family

ID=66182679

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980021805.5A Pending CN111902694A (zh) 2018-04-03 2019-04-03 用于确定导航参数的系统和方法

Country Status (5)

Country Link
US (8) US11263770B2 (zh)
EP (3) EP3740737A1 (zh)
JP (2) JP7125214B2 (zh)
CN (1) CN111902694A (zh)
WO (1) WO2019195415A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112346999A (zh) * 2021-01-11 2021-02-09 北京赛目科技有限公司 一种场景无关的无人驾驶仿真测试评估方法及装置
US20210122292A1 (en) * 2019-10-28 2021-04-29 Verizon Patent And Licensing Inc. Systems and methods for utilizing machine learning to identify vehicle surroundings, route conditions, and points of interest
CN113554870A (zh) * 2021-07-16 2021-10-26 中国联合网络通信集团有限公司 环岛道路交通预警方法、系统、终端设备及存储介质

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10740891B1 (en) 2016-05-20 2020-08-11 Ccc Information Services Inc. Technology for analyzing images depicting vehicles according to base image models
CN110226078B (zh) * 2016-12-22 2024-04-26 日产北美公司 自动车辆服务系统
JP6772944B2 (ja) * 2017-04-19 2020-10-21 トヨタ自動車株式会社 自動運転システム
CN108305477B (zh) * 2017-04-20 2019-08-13 腾讯科技(深圳)有限公司 一种车道选择方法及终端
CN109923488A (zh) * 2017-04-27 2019-06-21 深圳市大疆创新科技有限公司 使用可移动物体生成实时地图的系统和方法
JP6838522B2 (ja) * 2017-08-10 2021-03-03 トヨタ自動車株式会社 画像収集システム、画像収集方法、画像収集装置、および記録媒体
DE102017222017A1 (de) * 2017-12-06 2019-06-06 Robert Bosch Gmbh Verfahren und System zum Ermitteln und Bereitstellen eines Bodenprofils
EP3740737A1 (en) 2018-04-03 2020-11-25 Mobileye Vision Technologies Ltd. Systems and methods for determining navigational parameters
US20190346841A1 (en) * 2018-05-09 2019-11-14 GM Global Technology Operations LLC Method and system for remotely guiding an autonomous vehicle
KR102146451B1 (ko) * 2018-08-17 2020-08-20 에스케이텔레콤 주식회사 좌표계 변환 정보 획득 장치 및 방법
KR102483649B1 (ko) * 2018-10-16 2023-01-02 삼성전자주식회사 차량 위치 결정 방법 및 차량 위치 결정 장치
KR102627453B1 (ko) 2018-10-17 2024-01-19 삼성전자주식회사 위치 추정 장치 및 방법
US11295615B2 (en) 2018-10-29 2022-04-05 Here Global B.V. Slowdown events
JP7293648B2 (ja) * 2018-12-21 2023-06-20 トヨタ自動車株式会社 運転支援装置、車両、運転支援システム、及び運転支援方法
US11302182B2 (en) * 2018-12-28 2022-04-12 Beijing Voyager Technology Co., Ltd. Systems and methods for vehicle identification
US11137766B2 (en) * 2019-03-07 2021-10-05 Zoox, Inc. State machine for traversing junctions
US11965754B2 (en) * 2019-03-13 2024-04-23 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, and mobile body apparatus
US11100794B2 (en) * 2019-04-15 2021-08-24 Here Global B.V. Autonomous driving and slowdown patterns
US11643115B2 (en) * 2019-05-31 2023-05-09 Waymo Llc Tracking vanished objects for autonomous vehicles
KR102627478B1 (ko) * 2019-06-14 2024-01-23 주식회사 에이치엘클레무브 차량 제어 시스템, 비이미지 센서 모듈 및 센싱 데이터 처리 방법
USD930023S1 (en) * 2019-06-26 2021-09-07 Hyundai Mobis Co., Ltd. Cluster display screen or portion thereof with a graphical user interface
US11480962B1 (en) 2019-06-28 2022-10-25 Zoox, Inc. Dynamic lane expansion
US11778934B2 (en) * 2019-07-02 2023-10-10 Bear Flag Robotics, Inc. Agricultural lane following
US11427191B2 (en) 2019-10-31 2022-08-30 Zoox, Inc. Obstacle avoidance action
US11532167B2 (en) 2019-10-31 2022-12-20 Zoox, Inc. State machine for obstacle avoidance
CN112818727A (zh) * 2019-11-18 2021-05-18 华为技术有限公司 一种道路约束确定方法及装置
US10928830B1 (en) * 2019-11-23 2021-02-23 Ha Q Tran Smart vehicle
US11688155B2 (en) 2020-01-06 2023-06-27 Luminar, Llc Lane detection and tracking techniques for imaging systems
CN111258300B (zh) * 2020-01-22 2023-05-30 长安大学 一种无人车无信号灯环岛通行能力测试系统及测试方法
US11320281B2 (en) * 2020-03-04 2022-05-03 Ford Global Technologies, Llc On-demand vehicle imaging systems and methods
DE102020202964A1 (de) * 2020-03-09 2021-09-09 Continental Automotive Gmbh Die Erfindung betrifft ein Verfahren zur Erhöhung der Sicherheit von Fahrfunktionen.
CN111523471B (zh) * 2020-04-23 2023-08-04 阿波罗智联(北京)科技有限公司 车辆所在车道的确定方法、装置、设备以及存储介质
CN111582189B (zh) * 2020-05-11 2023-06-23 腾讯科技(深圳)有限公司 交通信号灯识别方法、装置、车载控制终端及机动车
CN111681417B (zh) * 2020-05-14 2022-01-25 阿波罗智联(北京)科技有限公司 交通路口渠化调整方法和装置
CN113873426A (zh) * 2020-06-30 2021-12-31 罗伯特·博世有限公司 用于决策车辆的地理围栏事件的系统、控制单元和方法
DE102020210697A1 (de) 2020-08-24 2022-02-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Überwachen eines Bereichs
US11654933B2 (en) * 2020-11-10 2023-05-23 GM Global Technology Operations LLC Navigation trajectory using reinforcement learning for an ego vehicle in a navigation network
US20220178700A1 (en) * 2020-12-03 2022-06-09 Motional Ad Llc Localization based on surrounding vehicles
US11538185B2 (en) * 2020-12-11 2022-12-27 Zoox, Inc. Localization based on semantic objects
DE102020216014A1 (de) * 2020-12-16 2022-06-23 Siemens Mobility GmbH Verfahren zum Steuern einer Vorrichtung
US11703586B2 (en) 2021-03-11 2023-07-18 Qualcomm Incorporated Position accuracy using sensor data
JP2022172928A (ja) * 2021-05-07 2022-11-17 ウーブン・プラネット・ホールディングス株式会社 遠隔監視装置、遠隔監視システム、遠隔監視方法、及び遠隔監視プログラム
US20220410901A1 (en) * 2021-06-28 2022-12-29 GM Global Technology Operations LLC Initializing early automatic lane change
JP2023028609A (ja) * 2021-08-19 2023-03-03 トヨタ自動車株式会社 自動運転システム、自動運転方法およびプログラム
WO2023031926A2 (en) * 2021-08-31 2023-03-09 Itc Intelligent Traffic Control Ltd Traffic light control based on traffic pattern prediction
US20230103248A1 (en) * 2021-09-28 2023-03-30 GM Global Technology Operations LLC Automated driving systems and control logic for lane localization of target objects in mapped environments
KR102431122B1 (ko) * 2021-12-30 2022-08-10 주식회사 버넥트 맵 타겟 추적 방법 및 그 시스템
US11934430B2 (en) * 2022-07-14 2024-03-19 T-Mobile Innovations Llc Visualization of elevation between geographic locations using segmented vectors based on ground and clutter elevation data
TWI831445B (zh) * 2022-10-27 2024-02-01 新馳科技股份有限公司 影像擷取裝置參數取得方法及系統

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106030609A (zh) * 2013-12-04 2016-10-12 移动眼视力科技有限公司 用于模仿前车的系统和方法
CN106461774A (zh) * 2014-02-20 2017-02-22 御眼视觉技术有限公司 基于雷达提示视觉成像的高级驾驶员辅助系统
CN107438754A (zh) * 2015-02-10 2017-12-05 御眼视觉技术有限公司 用于自主车辆导航的稀疏地图
US20180025235A1 (en) * 2016-07-21 2018-01-25 Mobileye Vision Technologies Ltd. Crowdsourcing the collection of road surface information
US20180024562A1 (en) * 2016-07-21 2018-01-25 Mobileye Vision Technologies Ltd. Localizing vehicle navigation using lane measurements
US20180057003A1 (en) * 2016-09-01 2018-03-01 Samsung Electronics Co., Ltd. Autonomous driving method and apparatus

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4277717B2 (ja) 2004-03-17 2009-06-10 株式会社日立製作所 車両位置推定装置およびこれを用いた運転支援装置
JP4852919B2 (ja) * 2005-07-25 2012-01-11 アイシン・エィ・ダブリュ株式会社 車両乗上制御システム及び車両乗上制御方法
JP4169065B2 (ja) * 2006-02-13 2008-10-22 株式会社デンソー 車両制御装置
JP5116555B2 (ja) 2008-04-25 2013-01-09 三菱電機株式会社 位置標定装置、位置標定システム、標定サーバ装置および位置標定方法
NO20082337L (no) * 2008-05-22 2009-11-23 Modulprodukter As Fremgangsmate til fremstilling av veikart og bruk av samme, samt system for veikart
US7868821B2 (en) * 2009-01-15 2011-01-11 Alpine Electronics, Inc Method and apparatus to estimate vehicle position and recognized landmark positions using GPS and camera
WO2012033173A1 (ja) * 2010-09-08 2012-03-15 株式会社豊田中央研究所 移動物予測装置、仮想可動物予測装置、プログラム、移動物予測方法、及び仮想可動物予測方法
JP5714940B2 (ja) 2011-03-04 2015-05-07 国立大学法人 熊本大学 移動体位置測定装置
US9760092B2 (en) * 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
US9558584B1 (en) * 2013-07-29 2017-01-31 Google Inc. 3D position estimation of objects from a monocular camera using a set of known 3D points on an underlying surface
US9776632B2 (en) * 2013-07-31 2017-10-03 Elwha Llc Systems and methods for adaptive vehicle sensing systems
US9495602B2 (en) * 2013-10-23 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Image and map-based detection of vehicles at intersections
US9365214B2 (en) * 2014-01-30 2016-06-14 Mobileye Vision Technologies Ltd. Systems and methods for determining the status of a turn lane traffic light
US9710925B2 (en) * 2014-06-08 2017-07-18 The Board Of Trustees Of The Leland Stanford Junior University Robust anytime tracking combining 3D shape, color, and motion with annealed dynamic histograms
JP6441616B2 (ja) * 2014-08-29 2018-12-19 株式会社ゼンリン 位置特定装置、運転支援装置および制御プログラム
DE102016205433A1 (de) * 2015-11-25 2017-06-14 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung, Kartenverwaltungseinrichtung und System zum punktgenauen Lokalisieren eines Kraftfahrzeugs in einem Umfeld
JP6751280B2 (ja) 2016-02-22 2020-09-02 Necプラットフォームズ株式会社 位置推定装置、位置検出方法及びプログラム
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
US10354157B2 (en) * 2016-06-27 2019-07-16 Mobileye Vision Technologies Ltd. Controlling host vehicle based on detection of a one-way road
RU2699583C1 (ru) * 2016-06-30 2019-09-06 Ниссан Мотор Ко., Лтд. Способ отслеживания объектов и устройство отслеживания объектов
JP6654977B2 (ja) * 2016-07-04 2020-02-26 株式会社Soken 自車位置特定装置、及び自車位置特定方法
JP6390671B2 (ja) * 2016-07-29 2018-09-19 オムロン株式会社 画像処理装置および画像処理方法
CN108121764B (zh) * 2016-11-26 2022-03-11 星克跃尔株式会社 图像处理装置、图像处理方法、电脑程序及电脑可读取记录介质
US10480947B2 (en) * 2016-12-21 2019-11-19 X Development Llc Boolean satisfiability (SAT) reduction for geometry and kinematics agnostic multi-agent planning
JP6669059B2 (ja) * 2016-12-27 2020-03-18 トヨタ自動車株式会社 位置算出装置
US10032379B1 (en) * 2017-04-03 2018-07-24 Nissan North America, Inc. Traffic circle warning system and method
US10372130B1 (en) * 2017-05-19 2019-08-06 Zoox, Inc. Communicating reasons for vehicle actions
US10656657B2 (en) * 2017-08-08 2020-05-19 Uatc, Llc Object motion prediction and autonomous vehicle control
US20190079526A1 (en) * 2017-09-08 2019-03-14 Uber Technologies, Inc. Orientation Determination in Object Detection and Tracking for Autonomous Vehicles
US10788585B2 (en) * 2017-09-15 2020-09-29 Toyota Research Institute, Inc. System and method for object detection using a probabilistic observation model
JP7030573B2 (ja) * 2018-03-15 2022-03-07 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
EP3740737A1 (en) 2018-04-03 2020-11-25 Mobileye Vision Technologies Ltd. Systems and methods for determining navigational parameters

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106030609A (zh) * 2013-12-04 2016-10-12 移动眼视力科技有限公司 用于模仿前车的系统和方法
CN106461774A (zh) * 2014-02-20 2017-02-22 御眼视觉技术有限公司 基于雷达提示视觉成像的高级驾驶员辅助系统
CN107438754A (zh) * 2015-02-10 2017-12-05 御眼视觉技术有限公司 用于自主车辆导航的稀疏地图
US20180025235A1 (en) * 2016-07-21 2018-01-25 Mobileye Vision Technologies Ltd. Crowdsourcing the collection of road surface information
US20180024562A1 (en) * 2016-07-21 2018-01-25 Mobileye Vision Technologies Ltd. Localizing vehicle navigation using lane measurements
US20180057003A1 (en) * 2016-09-01 2018-03-01 Samsung Electronics Co., Ltd. Autonomous driving method and apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210122292A1 (en) * 2019-10-28 2021-04-29 Verizon Patent And Licensing Inc. Systems and methods for utilizing machine learning to identify vehicle surroundings, route conditions, and points of interest
US11511666B2 (en) * 2019-10-28 2022-11-29 Verizon Patent And Licensing Inc. Systems and methods for utilizing machine learning to identify vehicle surroundings, route conditions, and points of interest
CN112346999A (zh) * 2021-01-11 2021-02-09 北京赛目科技有限公司 一种场景无关的无人驾驶仿真测试评估方法及装置
CN113111004A (zh) * 2021-01-11 2021-07-13 北京赛目科技有限公司 一种场景无关的无人驾驶仿真测试评估方法及装置
CN113111004B (zh) * 2021-01-11 2022-05-17 北京赛目科技有限公司 一种场景无关的无人驾驶仿真测试评估方法及装置
CN113554870A (zh) * 2021-07-16 2021-10-26 中国联合网络通信集团有限公司 环岛道路交通预警方法、系统、终端设备及存储介质

Also Published As

Publication number Publication date
JP2021517680A (ja) 2021-07-26
US11983894B2 (en) 2024-05-14
US20190347820A1 (en) 2019-11-14
US11741627B2 (en) 2023-08-29
US20220146276A1 (en) 2022-05-12
US20230237689A1 (en) 2023-07-27
EP3740737A1 (en) 2020-11-25
JP2022166143A (ja) 2022-11-01
JP7125214B2 (ja) 2022-08-24
US20240161331A1 (en) 2024-05-16
US11276195B2 (en) 2022-03-15
EP3825650A1 (en) 2021-05-26
US20220164980A1 (en) 2022-05-26
US11580660B2 (en) 2023-02-14
US11263770B2 (en) 2022-03-01
US20210118168A1 (en) 2021-04-22
US20190347821A1 (en) 2019-11-14
US11263771B2 (en) 2022-03-01
WO2019195415A1 (en) 2019-10-10
US20210104060A1 (en) 2021-04-08
EP3832261A1 (en) 2021-06-09

Similar Documents

Publication Publication Date Title
US11276195B2 (en) Using mapped elevation to determine navigational parameters
JP7432285B2 (ja) レーンマッピング及びナビゲーション
CN112923930B (zh) 用于自主车辆导航的众包和分发稀疏地图以及车道测量
CN114440898A (zh) 用于车辆导航的系统和方法
CN112654836A (zh) 用于车辆导航的系统和方法
CN113874683A (zh) 用于车辆导航的系统和方法
CN114514411A (zh) 用于交通工具导航的系统和方法
CN114402377A (zh) 用于监测交通车道拥塞的系统和方法
CN115380196A (zh) 用于确定道路安全性的系统和方法
CN114729813A (zh) 用于车辆导航的系统和方法
CN113490835A (zh) 用于车辆导航的系统和方法
CN113924462A (zh) 用于确定物体尺寸的导航系统和方法
CN113825979A (zh) 用于基于图像分析的车辆导航的系统和方法
JP2023539868A (ja) マップベースの現実世界モデル化のシステム及び方法
CN115335664A (zh) 用于优化针对导航的地图图块请求的系统和方法
CN115735168A (zh) 用于对交通工具进行导航的控制回路
CN115151454A (zh) 用于选择性地使交通工具减速的系统和方法
CN117677972A (zh) 用于路段绘制的系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination