CN111775945A - 用于自动驾驶的用于检测最接近的路径内对象的方法和装置 - Google Patents

用于自动驾驶的用于检测最接近的路径内对象的方法和装置 Download PDF

Info

Publication number
CN111775945A
CN111775945A CN202010598754.7A CN202010598754A CN111775945A CN 111775945 A CN111775945 A CN 111775945A CN 202010598754 A CN202010598754 A CN 202010598754A CN 111775945 A CN111775945 A CN 111775945A
Authority
CN
China
Prior art keywords
lane
autonomous vehicle
virtual lane
virtual
adv
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010598754.7A
Other languages
English (en)
Other versions
CN111775945B (zh
Inventor
崔泰恩
郭玉亮
陈�光
张伟德
蔡家伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of CN111775945A publication Critical patent/CN111775945A/zh
Application granted granted Critical
Publication of CN111775945B publication Critical patent/CN111775945B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

涉及一种用于自动驾驶的用于检测最接近的路径内对象的方法和装置。在一个实施例中,除了检测或识别实际车道之外,还基于ADV的当前状态或运动预测确定虚拟车道。虚拟车道可以或者可以不与实际车道相同或相似。虚拟车道可以表示在给定车辆的当前速度和前进方向的情况下ADV在下一时间段中的可能的移动。如果检测到可能穿过虚拟车道的车道线并且是与ADV最接近的对象,则该对象被认为是CIPO,并且可以激活紧急操作。也就是说,即使对象可能不在实际车道的路径中,但如果对象在ADV的虚拟车道的路径中,则该对象可被认为是CIPO并且可经受特定操作。

Description

用于自动驾驶的用于检测最接近的路径内对象的方法和装置
技术领域
本公开的实施例一般涉及操作自动车辆。更特别地,本公开的实施例涉及一种用于自动驾驶的用于检测最接近的路径内对象的方法、装置、计算机可读存储介质和数据处理系统。
背景技术
以自动模式(例如,无人驾驶)操作的车辆可以免除乘坐者,尤其是驾驶员的一些驾驶相关责任。当在自动模式下操作时,车辆可以使用车载传感器导航到各种位置,从而允许车辆以最少的人机交互或者在一些没有任何乘客的情况下行驶。
运动规划和控制是自动驾驶中的关键操作。当规划路径以自动驾驶车辆时,最关键的情况之一是检测可导致与自动驾驶车辆(ADV)发生潜在碰撞的最接近的路径内对象(CIPO)。检测这种CIPO是重要的,因为它可以触发紧急操作以使ADV进入安全状态。一直缺乏在给定ADV的当前状态的情况下检测CIPO的有效方法。
发明内容
为解决以上技术问题,本公开的一个方面提供了一种用于自动驾驶的用于检测最接近的路径内对象的方法,所述方法包括:基于从安装在自动驾驶车辆(ADV)上的多个传感器获得的传感器数据,感知所述自动驾驶车辆周围的驾驶环境,包括检测一个或多个对象;确定所述自动驾驶车辆的操作状态,所述操作状态包括所述自动驾驶车辆的速度和前进方向;基于所述自动驾驶车辆的所述操作状态生成虚拟车道,所述虚拟车道表示所述自动驾驶车辆可能将在预定时间段内沿其移动的路径;确定检测到的对象中的第一对象的至少一部分是否落入所述虚拟车道内;以及响应于确定所述第一对象的至少一部分落入所述虚拟车道内,将所述第一对象分类为最接近的路径内对象(CIPO)。
此外,本公开的另一个方面提供了一种用于自动驾驶的用于检测最接近的路径内对象的装置,所述装置包括:感知装置,基于从安装在自动驾驶车辆(ADV)上的多个传感器获得的传感器数据,感知所述自动驾驶车辆周围的驾驶环境,包括检测一个或多个对象;导航装置,确定所述自动驾驶车辆的操作状态,所述操作状态包括所述自动驾驶车辆的速度和前进方向;虚拟车道生成装置,基于所述自动驾驶车辆的所述操作状态生成虚拟车道,所述虚拟车道表示所述自动驾驶车辆可能将在预定时间段内沿其移动的路径;分类装置,确定检测到的对象中的第一对象的至少一部分是否落入所述虚拟车道内,以及响应于确定所述第一对象的至少一部分落入所述虚拟车道内,将所述第一对象分类为最接近的路径内对象(CIPO)。
此外,本公开的另一个方面提供了一种非暂时性计算机可读存储介质,其中存储有指令,当由处理器执行时,所述指令使得所述处理器执行上述的用于自动驾驶的用于检测最接近的路径内对象的方法。
此外,本公开的另一个方面提供了一种数据处理系统,包括:处理器;以及连接到所述处理器以存储指令的存储器,所述指令在由所述处理器执行时使得所述处理器执行上述的用于自动驾驶的用于检测最接近的路径内对象的方法。
附图说明
本公开的实施例通过示例的方式示出并且不局限于附图中的图,在附图中相同的附图标记表示相似的元件。
图1是示出根据一个实施例的联网系统的框图。
图2是示出根据一个实施例的自动车辆的示例的框图。
图3A-3B是示出根据一个实施例的与自动车辆一起使用的感知和规划系统的示例的框图。
图4是示出根据一个实施例的最接近的路径内对象(CIPO)检测系统的框图。
图5是示出根据一个实施例的检测CIPO的过程的图。
图6是示出根据一个实施例的自动驾驶系统的图形用户接口的屏幕截图。
图7是示出根据一个实施例的检测CIPO的方法的流程图。
具体实施方式
将参考以下讨论的细节描述本公开的各个实施例和方面,并且附图将示出各个实施例。以下描述和附图是本公开的说明并且不应被解释为限制本公开。描述了许多具体细节以提供对本公开的各种实施例的全面理解。然而,在某些情况下,为了提供对本公开的实施例的简要讨论,没有描述公知或常规的细节。
说明书中对“一个实施例”或“实施例”的引用意味着结合该实施例描述的特别特征、结构或特性可包括在本公开的至少一个实施例中。在说明书中的各个地方出现的短语“在一个实施例中”不一定都指同一实施例。
在一个实施例中,除了检测或识别实际车道之外,还基于ADV的当前状态或运动预测确定虚拟车道。虚拟车道可以或者可以不与实际车道相同或相似。虚拟车道可以表示在给定车辆的当前速度和前进方向的情况下ADV在下一时间段中的可能的移动。如果检测到可能穿过虚拟车道的车道线并且是与ADV最接近的对象,则该对象被认为是CIPO,并且可以激活紧急操作。也就是说,即使对象可能不在实际车道的路径中,但如果对象在ADV的虚拟车道的路径中,则该对象可被认为是CIPO并且可经受特定操作。
根据一个实施例,基于从安装在自动驾驶车辆(ADV)上的各种传感器(诸如相机、LIDAR或雷达设备)获得的传感器数据,感知ADV周围的驾驶环境,包括检测和识别一个或多个移动的对象。确定ADV的操作状态(例如,位置、速度、前进方向)。基于ADV的操作状态确定与ADV相关联的虚拟车道。虚拟车道表示ADV可能在预定的时间段内沿其移动的路径。然后确定检测到的对象中的第一对象的至少一部分是否落入虚拟车道内。响应于确定第一对象的至少一部分落入虚拟车道内,可以将第一对象分类为最接近的路径内对象(CIPO)。如果第一对象被分类为CIPO,则可以激活紧急操作以控制ADV以避免与第一对象的碰撞。
根据一个实施例,虚拟车道可以在不使用与ADV当前所处的道路相关联的地图的地图数据、并且不基于根据传感器数据识别出的实际车道的情况下生成。实际上,虚拟车道是基于ADV的当前状态和过去状态确定的。在一个实施例中,通过基于车辆状态和ADV的移动历史预测ADV的进一步移动来确定虚拟车道。在一个实施例中,可基于ADV的当前速度和预定的时间段,计算虚拟车道的车道长度。如果对象落在虚拟车道长度内,则这种对象将被认为是CIPO。类似地,也可基于ADV的当前前进方向或转向角,确定虚拟车道的曲率或车道方向。可基于ADV的物理尺寸,确定虚拟车道的车道宽度。虚拟车道的车道宽度也可基于道路类型(例如,城市道路与乡村道路、国家或管辖区域、公路与地方道路)和政府交通规则确定。
除了虚拟车道之外,还可考虑实际车道,其中实际车道可基于地图数据来确定,或可通过对由传感器捕获的图像进行图像处理来识别。如果有另一对象落在实际车道上,则在实际车道和虚拟车道上检测到的对象中的相对于ADV的当前位置具有最短距离的一个对象被认为是CIPO。在确定虚拟车道中,确定一条或多条车道线以限定虚拟车道的形状和/或长度。例如,如果基于感知已经存在一条车道线,则另一条车道线被确定。如果感知或地图数据中没有可用的车道线,则两条车道线都被确定。
图1是示出根据本公开的一个实施例的自动车辆网络配置的框图。参考图1,网络配置100包括自动车辆101,自动车辆101可以通过网络102通信地连接到一个或多个服务器103-104。尽管示出一个自动车辆,但是多个自动车辆可以通过网络102彼此连接和/或连接到服务器103-104。网络102可以是任何类型的有线或无线的网络,比如局域网(LAN),诸如因特网之类的广域网(WAN),蜂窝网络,卫星网络,或其组合。服务器103-104可以是任何类型的服务器或服务器集群,诸如Web或云服务器、应用服务器、后端服务器或其组合。服务器103-104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或位置服务器等。
自动车辆指的是能够被配置为处于自动模式的车辆,在自动模式中,车辆在驾驶员很少或没有输入的情况下导航通过环境。这种自动车辆可包括具有一个或多个传感器的传感器系统,所述传感器被配置为检测关于车辆操作环境的信息。车辆及其相关联的控制器使用检测的信息导航通过环境。自动车辆101可以以手动模式、全自动模式或部分自动模式操作。
在一个实施例中,自动车辆101包括但不限于感知和规划系统110、车辆控制系统111、无线通信系统112、用户接口系统113、信息娱乐系统114和传感器系统115。自动车辆101还可包括在普通车辆中包括的某些常见组件,例如发动机、车轮、方向盘、变速器等,这些组件可以被车辆控制系统111和/或感知和规划系统110使用各种通信信号和/或命令来控制,例如加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
组件110-115可以经由互连、总线、网络或其组合彼此通信地连接。例如,组件110-115可以经由控制器局域网(CAN)总线彼此通信地连接。CAN总线是一种车辆总线标准,其被设计为允许微控制器和设备在没有主机的应用中彼此通信。它是基于消息的协议,最初被设计用于汽车内的多路电线,但是也用于许多其它环境中。
现在参考图2,在一个实施例中,传感器系统115包括但不限于一个或多个相机211、全球定位系统(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光检测和测距(LIDAR)单元215。GPS系统212可包括可操作以提供关于自动车辆的位置的信息的收发器。IMU单元213可基于惯性加速度感测自动车辆的位置和方向变化。雷达单元214可以表示使用无线电信号感测自动车辆的本地环境内的对象的系统。在一些实施例中,除了感测对象之外,雷达单元214还可以感测对象的速度和/或前进方向。LIDAR单元215可以使用激光感测自动车辆所处的环境中的对象。LIDAR单元215可包括一个或多个激光源、激光扫描器以及一个或多个检测器,以及其他系统组件。相机211可包括一个或多个设备以捕获自动车辆周围的环境的图像。相机211可以是静态相机和/或摄影机。相机可以是机械可移动的,例如通过将相机安装在旋转和/或倾斜的平台上。
传感器系统115还可包括其它传感器,诸如声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器和音频传感器(例如麦克风)。音频传感器可以被配置为捕获来自自动车辆周围的环境的声音。转向传感器可以被配置为感测方向盘、车辆的车轮或其组合的转向角。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情况下,油门传感器和制动传感器可以集成为集成的油门/制动传感器。
在一个实施例中,车辆控制系统111包括但不限于转向单元201、油门单元202(也称为加速单元)和制动单元203。转向单元201用于调节车辆的方向或前进方向。油门单元202用于控制电动机或发动机的速度,进而控制车辆的速度和加速度。制动单元203通过提供摩擦力以使车辆的车轮或轮胎变慢来使车辆减速。注意,图2所示的组件可以以硬件、软件或其组合实现。
返回参考图1,无线通信系统112允许在自动车辆101和外部系统(诸如设备、传感器、其他车辆等)之间的通信。例如,无线通信系统112可以直接或经由通信网络与一个或多个设备无线通信,诸如通过网络102的服务器103-104。无线通信系统112可以使用任何蜂窝通信网络或无线局域网(WLAN),例如使用WiFi与另一组件或系统通信。无线通信系统112可以例如使用红外链路、蓝牙等直接与设备(例如,乘客的移动设备、显示设备、车辆101内的扬声器)通信。用户接口系统113可以是在车辆101内实现的外围设备的一部分,包括例如键盘、触摸屏显示设备、麦克风和扬声器等。
自动车辆101的一些或所有功能可以由感知和规划系统110控制或管理,尤其是当在自动驾驶模式下操作时。感知和规划系统110包括必要的硬件(例如,处理器、存储器、存储设备)和软件(例如,操作系统、规划和路由程序),以从传感器系统115、控制系统111、无线通信系统112和/或用户接口系统113接收信息,处理所接收的信息,规划从起点到目的地点的路线或路径,然后基于规划和控制信息驱动车辆101。可替换地,感知和规划系统110可以与车辆控制系统111集成。
例如,作为乘客的用户可以例如经由用户接口指定行程的起始位置和目的地。感知和规划系统110获取行程相关数据。例如,感知和规划系统110可以从MPOI服务器获取位置和路线信息,MPOI服务器可以是服务器103-104的一部分。位置服务器提供位置服务,以及MPOI服务器提供地图服务和某些位置的POI。可替换地,这种位置和MPOI信息可本地缓存在感知和规划系统110的永久存储设备中。
当自动车辆101沿着路线移动时,感知和规划系统110还可以从交通信息系统或服务器(TIS)获得实时交通信息。注意,服务器103-104可以由第三方实体操作。可替换地,服务器103-104的功能可以与感知和规划系统110集成。感知和规划系统110可基于实时交通信息、MPOI信息和位置信息,以及由传感器系统115检测或感测的实时局部环境数据(例如,障碍物、对象、附近车辆),规划最佳路线,并例如经由控制系统111根据规划路线驾驶车辆101,以安全且高效地到达指定目的地。
服务器103可以是数据分析系统,用于为各种客户端执行数据分析服务。在一个实施例中,数据分析系统103包括数据收集器121和机器学习引擎122。数据收集器121从各种车辆(自动车辆或者由人类驾驶员驾驶的常规车辆)收集驾驶统计123。驾驶统计123包括指示发出的驾驶命令(例如,油门、制动、转向命令)和由车辆的传感器在不同时间点捕获的车辆的响应(例如,速度、加速度、减速度、方向)的信息。驾驶统计123还可包括描述不同时间点的驾驶环境的信息,诸如路线(包括起始位置和目的地位置)、MPOI、道路条件、天气条件等。
基于驾驶统计123,机器学习引擎122为各种目的生成或训练一组规则、算法和/或预测模型124。在一个实施例中,算法124可包括CIPO分类算法或规则,包括确定虚拟车道的算法。然后,算法124可以被上传到ADV上,以便在自动驾驶期间实时使用。
图3A和3B是示出根据一个实施例的与自动车辆一起使用的感知和规划系统的示例的框图。系统300可以被实现为图1的自动车辆101的一部分,包括但不限于感知和规划系统110、控制系统111和传感器系统115。参考图3A-3B,感知和规划系统110包括但不限于定位模块301、感知模块302、预测模块303、决策模块304、规划模块305、控制模块306、路由模块307和CIPO检测器308。
模块301-308中的一些或全部可以以软件、硬件或其组合来实现。例如,这些模块可以安装在永久存储设备352中,加载到存储器351中,以及由一个或多个处理器(未示出)执行。注意,这些模块中的一些或全部可以通信地连接到图2的车辆控制系统111的一些或全部模块或与之集成。模块301-308中的一些可以被集成在一起作为集成模块。
定位模块301确定自动车辆300的当前位置(例如,使用GPS单元212)并管理与用户的行程或路线有关的任何数据。定位模块301(也称为地图和路线模块)管理与用户的行程或路线有关的任何数据。例如,用户可以经由用户接口登录并指定行程的起始位置和目的地。定位模块301与自动车辆300的其他组件,诸如地图和路线信息311通信,以获得与行程有关的数据。例如,定位模块301可以从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,以及MPOI服务器提供地图服务和某些位置的POI,它们可作为地图和路线信息311的一部分被缓存。当自动车辆300沿着路线移动时,定位模块301还可以从交通信息系统或服务器获取实时交通信息。
基于由传感器系统115提供的传感器数据和由定位模块301获得的定位信息,由感知模块302确定对周围环境的感知。感知信息可以表示普通驾驶员将感知到的驾驶员正在驾驶的车辆周围的情况。感知可包括车道配置、交通灯信号、例如以对象形式的另一车辆、行人、建筑物、人行横道或其它交通相关标志(例如,停止标志、让步标志)等的相对位置。车道配置包括描述一条或多条车道的信息,例如车道的形状(例如,直的或弯曲的)、车道的宽度、道路中的车道数量、单向或双向车道、合并或分离车道、驶出车道等。
感知模块302可包括计算机视觉系统或计算机视觉系统的功能,以处理和分析由一个或多个相机捕获的图像,以便识别自动车辆的环境中的对象和/或特征。对象可包括交通信号、车行道边界、其他车辆、行人和/或障碍物等。计算机视觉系统可使用对象识别算法、视频跟踪和其它计算机视觉技术。在一些实施例中,计算机视觉系统可以映射环境、跟踪对象、以及估计对象的速度等。感知模块302还可基于由诸如雷达和/或LIDAR等其他传感器提供的其他传感器数据检测对象。
对于每个对象,预测模块303预测对象将在该环境下作出什么行为。根据一组地图/路线信息311和交通规则312,基于在该时间点感知驾驶环境的感知数据执行预测。例如,如果对象是在相反方向上的车辆并且当前驾驶环境包括十字路口,则预测模块303将预测车辆是否可能直行或者转弯。如果感知数据指示交叉路口没有交通灯,则预测模块303可以预测车辆在进入交叉路口之前可能必须完全停止。如果感知数据指示车辆当前处于仅左转弯车道或仅右转弯车道,则预测模块303可预测车辆将更可能分别进行左转弯或右转弯。
对于每个对象,决策模块304作出关于如何处理该对象的决策。例如,对于特定对象(例如,在交叉路线中的另一车辆)以及描述该对象的元数据(例如,速度、方向、转向角),决策模块304决定如何遇到该对象(例如,超车、让行、停止、通过)。决策模块304可根据可存储于永久存储设备352中的一组规则,诸如交通规则或驾驶规则312,来作出这些决策。
路由模块307被配置为提供从起点到目的地点的一条或多条路线或路径。对于例如从用户接收到的从起始位置到目的地位置的给定行程,路由模块307获得路线和地图信息311并且确定从起始位置用以到达目的地位置的所有可能的路线或路径。路由模块307可以以地形图的形式,为其确定的从起始位置用以到达目的地位置的每条路线生成参考线。参考线是指没有受到诸如其它车辆、障碍物或交通状况等其他事物的任何干扰的理想路线或路径。也就是说,如果在道路上没有其它车辆、行人或障碍物,则ADV应该精确地或紧密地跟随参考线。然后,地形图被提供给决策模块304和/或规划模块305。决策模块304和/或规划模块305根据由其它模块提供的其它数据,诸如来自定位模块301的交通状况、由感知模块302感知的驾驶环境和由预测模块303预测的交通状况,检查所有可能的路线,以选择和修改最佳路线中的一个。依据在该时间点的特定驾驶环境,用于控制ADV的实际路径或路线可以接近或不同于由路由模块307提供的参考线。
基于对于每个感知的对象的决策,规划模块305使用由路线模块307提供的参考线作为基础,规划用于自动车辆的路径或路线以及驾驶参数(例如,距离、速度和/或转向角)。也就是说,对于给定对象,决策模块304决定对该对象做什么,而规划模块305确定如何做。例如,对于给定对象,决策模块304可以决定经过该对象,而规划模块305可以确定是在该对象的左侧还是右侧经过。规划和控制数据由规划模块305生成,包括描述车辆300在下一个移动周期(例如,下一个路线/路径段)中将如何移动的信息。例如,规划和控制数据可指示车辆300以30英里每小时(mph)的速度移动10米,然后以25mph的速度改变到右车道。
基于规划和控制数据,控制模块306通过根据由规划和控制数据限定的路线或路径向车辆控制系统111发送适当的命令或信号,来控制和驾驶自动车辆。规划和控制数据包括足够的信息以沿着路径或路线在不同时间点使用适当的车辆设置或驾驶参数(例如,油门、制动、转向命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施例中,在多个规划周期(也称为驾驶周期,诸如在100毫秒(ms)的每个时间间隔内)内执行规划阶段。对于每个规划周期或驾驶周期,将基于规划和控制数据发出一个或多个控制命令。也就是说,对于每100ms,规划模块305规划下一个路线段或路径段,例如包括目标位置和ADV到达目标位置所需的时间。可替换地,规划模块305可进一步规定具体速度、方向和/或转向角等。在一个实施例中,规划模块305为下一预定的时间段,诸如5秒,规划路线段或路径段。对于每个规划周期,规划模块305基于在先前周期中规划的目标位置来规划用于当前周期(例如,下一个5秒)的目标位置。然后控制模块306基于当前周期的规划和控制数据生成一个或多个控制命令(例如,油门、制动、转向控制命令)。
注意,决策模块304和规划模块305可以集成为集成模块。决策模块304/规划模块305可包括导航系统或导航系统的功能,以确定用于自动车辆的驾驶路径。例如,导航系统可以确定一系列速度和方向性的前进方向,以导致自动车辆沿着基本上避开感知的障碍物的路径移动,同时总体上使自动车辆沿着通向最终目的地的基于道路的路径前进。目的地可以根据经由用户接口系统113的用户输入来设置。导航系统可以在自动车辆操作时动态地更新驾驶路径。导航系统可以整合来自GPS系统的数据和一个或多个地图,以便确定用于自动车辆的驾驶路径。
根据一个实施例,CIPO检测器308被配置为使用CIPO检测算法或规则313基于ADV的当前车辆状态检测对象是否可以落入ADV的将被分类为CIPO的路径内。例如,可以基于ADV的车辆状态创建虚拟驾驶环境,包括ADV可以在下一预定时间段期间沿其移动的虚拟车道,其中虚拟车道可以或者可以不与实际车道相同。如果对象落入实际车道或虚拟车道内,则该对象可被认为是CIPO。也就是说,基于在考虑了实际车道的情况下作出的对象的移动预测,对象可能不被认为是CIPO,然而,在考虑了虚拟车道和ADV的当前车辆状态的情况下,相同的对象可能被认为是CIPO。CIPO检测器308可以与感知模块302集成。
图4是示出根据一个实施例的CIPO检测器的示例的框图。参考图4,CIPO检测器308包括虚拟车道生成器411和CIPO分类器412等。在一个实施例中,虚拟车道生成器411被配置为根据由感知模块302基于传感器数据401和车辆状态403检测到的一个或多个对象的对象状态402而生成虚拟车道。对象的对象状态包括描述对象的当前和过去位置、速度和前进方向的信息。这种信息可以存储在专门分配用于存储和跟踪对象移动的对象缓冲器中。类似地,车辆状态包括描述ADV的当前和过去位置、速度和前进方向的信息。
根据一个实施例,感知模块302基于从安装在ADV上的各种传感器,诸如相机、LIDAR或雷达设备获得的传感器数据401感知ADV周围的驾驶环境,包括检测和识别一个或多个移动的对象。确定ADV的操作状态403(例如,位置、速度、前进方向),操作状态403可以由记录器记录并存储在永久存储设备中。虚拟车道生成器411基于ADV的操作状态403确定与ADV相关联的虚拟车道。虚拟车道表示ADV可能将在预定的时间段内沿其移动的路径。CIPO分类器412基于一组CIPO分类规则313确定检测到的对象中的第一对象的至少一部分是否落入虚拟车道内。响应于确定第一对象的至少一部分落入虚拟车道内,可以将第一对象分类为CIPO。如果第一对象被分类为CIPO,则可以激活与CIPO相关联的预定的操作(例如,紧急动作)以控制ADV以避免与第一对象的碰撞。
根据一个实施例,可以在不使用与ADV当前所处的道路相关联的地图的地图数据并且不基于根据传感器数据识别出的实际车道的情况下生成虚拟车道。实际上,虚拟车道基于ADV的当前状态和过去状态403确定的。在一个实施例中,通过基于车辆状态和/或ADV403的移动历史预测ADV的进一步移动,来确定虚拟车道。在一个实施例中,可基于ADV的当前速度和预定的时间段(例如,3-5秒),计算虚拟车道的车道长度。如果对象的至少一部分落在虚拟车道长度内,则这种对象将被认为是CIPO。类似地,也可基于ADV的当前前进方向或转向角,确定虚拟车道的曲率或车道方向。可基于诸如车辆宽度的ADV的物理尺寸,确定虚拟车道的车道宽度。虚拟车道的车道宽度也可基于道路类型(例如,城市道路与乡村道路、国家或管辖区域、高速公路与地方道路)和政府交通规则(例如,最小净空空间)来确定。
除了虚拟车道之外,还可考虑实际车道,其中实际车道可基于地图数据确定,或经由对由传感器捕获的图像进行图像处理识别。如果有另一对象落在实际车道上,则在实际车道和虚拟车道上检测到的对象中的相对于ADV的当前位置具有最短距离的一个对象被认为是CIPO。在确定虚拟车道时,确定一条或多条车道线以限定虚拟车道的形状和/或长度。例如,如果基于感知已经存在一条车道线,则另一条车道线被确定。如果感知或地图数据中没有可用的车道线,则两条车道线都被确定。
图5是示出根据一个实施例的检测CIPO的过程的图。参考图5,在该示例中,ADV501在实际车道511内行进,并且对象502在ADV 501前面移动。对象503在相邻的实际车道512内移动。因此,基于车道511的实际车道配置,对象502可以被认为是CIPO,而对象503可以不被认为是CIPO,因为对象503不在ADV 501的路径中。然而,基于当前车辆状态,诸如ADV501的速度和前进方向,确定虚拟车道512。在考虑了对象503和虚拟车道512的相对位置的情况下,对象503的至少一部分落入虚拟车道512内。在这种情况下,对象502和503可以潜在地都是CIPO。在一个实施例中,测量对象502和ADV 501之间的第一距离以及对象503和ADV501之间的第二距离。如果第一距离比第二距离短,则对象502被认为是CIPO。同样,如果第二距离比第一距离短,则对象503被认为是CIPO。
图6是示出根据一个实施例的自动驾驶系统的图形用户接口(GUI)的屏幕截图。参照图6,所示的GUI可以显示在ADV内的显示设备上。在该示例中,图像601由ADV的相机捕获,并且由包括检测由边界框610包围的对象的感知处理来处理。图像601表示从ADV的视点看的二维(2D)视图,并且显示在显示设备的第一显示区域上。图像602是基于图像601和其他传感器数据生成的,所述其他传感器数据诸如从其他传感器(例如LIDAR、雷达)获得并且被显示在显示设备的第二显示区域上的传感器数据。图像602表示3D视图,即,自顶向下视图。图像603是通过将3D视图602重新投影回2D视图(称为重新投影的2D视图)而生成的另一2D视图。
如图6所示,ADV在实际车道内驾驶,并且基于ADV的车辆状态(例如,位置、速度和前进方向),生成虚拟车道605。如3D视图602和重新投影的2D视图所示,对象610的至少一部分落入虚拟车道605内。因此,在该示例中,对象610可被分类为CIPO。图中其他对象被分别标示为611、612、613、614和615,以便于相互区分不同的对象。
图7是示出根据一个实施例的检测CIPO的过程的流程图。过程700可以由可包括软件、硬件或其组合的处理逻辑执行。例如,过程700可由感知模块302和/或CIPO检测器308执行。参照图7,在框701处,处理逻辑基于从安装在ADV上的多个传感器获得的传感器数据感知ADV周围的驾驶环境,包括检测或识别一个或多个对象(例如,诸如车辆、自行车、行人的移动的对象)。在框702处,处理444逻辑确定ADV的操作状态,包括ADV的速度和前进方向。ADV的操作状态还可以基于ADV的操作历史确定,操作历史可以被记录并保持在ADV内的永久存储设备中。在框703处,处理逻辑基于ADV的操作状态生成虚拟车道(也称为伪车道)。虚拟车道表示ADV可能将在下一预定时间段内沿其移动的路径。虚拟车道可以与实际车道相同,或者由于ADV的速度和前进方向而偏离实际车道。在框704处,确定检测到的对象中的至少一个对象的至少一部分是否落入虚拟车道内。如果是,则在框705处,该对象可被分类为CIPO。
注意,如上所示和所述的一些或所有组件可以用软件、硬件或其组合实现。例如,这些组件可以被实现为安装并存储在永久存储设备中的软件,软件可以由处理器(未示出)加载并执行在存储器中以执行贯穿本申请所述的过程或操作。可替换地,这些组件可被实现为编程或嵌入到专用硬件中的可执行代码,专用硬件诸如集成电路(例如,专用IC或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA),可执行代码可经由对应的驾驶员和/或来自应用的操作系统访问。此外,这些组件可以被实现为处理器或处理器内核中的特定硬件逻辑,作为软件组件经由一个或多个特定指令可访问的指令集的一部分。
已经在对计算机存储器内的数据位的操作的算法和符号表示方面呈现了前述详细描述的一些部分。这些算法描述和表示是数据处理领域的技术人员用来最有效地将他们的工作实质传达给本领域的其他技术人员的方式。算法在这里并且通常被认为是导致期望结果的自相容操作序列。这些操作是需要对物理量进行物理操纵的那些操作。
然而,应当记住的是,所有这些和类似的术语都与适当的物理量相关联,并且仅仅是应用于这些量的方便的标记。除非特别声明,否则从以上讨论中显而易见的是,应当理解的是,在整个说明书中,使用诸如所附权利要求书中所阐述的术语的讨论指的是计算机系统或类似电子计算设备的动作和处理,所述计算机系统或类似电子计算设备将计算机系统的寄存器和存储器内表示为物理(电子)量的数据操纵和变换成计算机系统存储器或寄存器或其它这样的信息存储、传输或显示设备内的类似地表示为物理量的其它数据。
本公开的实施例还涉及用于执行本文的操作的装置。这种计算机程序存储在非瞬态计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机制。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存设备)。
在前述附图中描述的过程或方法可以由包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合的处理逻辑来执行。尽管以上根据一些顺序操作描述了过程或方法,但是应当理解的是,可以以不同的顺序执行所述的一些操作。此外,一些操作可以并行地而不是顺序地执行。
本公开的实施例不是参考任何特别编程语言描述的。将了解,可使用各种编程语言实施如本文所述的本公开的实施例的教示。
在前述说明书中,已经参考本公开的具体示例性实施例描述了本公开的实施例。显然,在不背离如所附权利要求书中所阐述的本公开的更宽的精神和范围的情况下,可以对其进行各种修改。因此,说明书和附图应被认为是说明性的而不是限制性的。

Claims (18)

1.一种用于自动驾驶的用于检测最接近的路径内对象的方法,所述方法包括:
基于从安装在自动驾驶车辆(ADV)上的多个传感器获得的传感器数据,感知所述自动驾驶车辆周围的驾驶环境,包括检测一个或多个对象;
确定所述自动驾驶车辆的操作状态,所述操作状态包括所述自动驾驶车辆的速度和前进方向;
基于所述自动驾驶车辆的所述操作状态生成虚拟车道,所述虚拟车道表示所述自动驾驶车辆可能将在预定时间段内沿其移动的路径;
确定检测到的对象中的第一对象的至少一部分是否落入所述虚拟车道内;以及
响应于确定所述第一对象的至少一部分落入所述虚拟车道内,将所述第一对象分类为最接近的路径内对象(CIPO)。
2.如权利要求1所述的方法,还包括响应于确定所述第一对象是最接近的路径内对象,激活紧急操作以控制所述自动驾驶车辆以避免与所述第一对象碰撞。
3.如权利要求1所述的方法,其中所述虚拟车道是在不使用与所述自动驾驶车辆当前所处的道路相关联的地图的地图数据、并且不基于根据传感器数据识别出的道路的实际车道的情况下生成的。
4.如权利要求1所述的方法,其中生成虚拟车道包括:
基于所述自动驾驶车辆的所述速度和所述预定时间段,确定虚拟车道长度;
基于所述自动驾驶车辆的所述前进方向,确定所述虚拟车道的曲率;以及
基于所述自动驾驶车辆的物理尺寸,确定所述虚拟车道的虚拟车道宽度。
5.如权利要求4所述的方法,其中所述虚拟车道宽度还基于道路类型或交通规则中的至少一个来确定。
6.如权利要求1所述的方法,还包括:
检测基于所述自动驾驶车辆的所述操作状态在基于所述感知的驾驶环境识别出的实际车道内所述自动驾驶车辆可能在所述预定时间段内碰撞的第二对象;
测量所述自动驾驶车辆与所述第一对象之间的第一距离以及所述自动驾驶车辆与所述第二对象之间的第二距离;以及
如果所述第一距离小于所述第二距离,则将所述第一对象指定为最接近的路径内对象。
7.如权利要求1所述的方法,其中生成所述虚拟车道包括确定第一车道线和第二车道线,以限定所述虚拟车道的形状和车道宽度。
8.根据权利要求7的方法,其中所述第一车道线是基于根据感知的驾驶环境识别出的地图数据或车道标记中的至少一个而确定的,以及其中所述第二车道线是在考虑了一组规则的情况下从所述第一车道线导出的。
9.一种用于自动驾驶的用于检测最接近的路径内对象的装置,所述装置包括:
感知装置,基于从安装在自动驾驶车辆(ADV)上的多个传感器获得的传感器数据,感知所述自动驾驶车辆周围的驾驶环境,包括检测一个或多个对象;
导航装置,确定所述自动驾驶车辆的操作状态,所述操作状态包括所述自动驾驶车辆的速度和前进方向;
虚拟车道生成装置,基于所述自动驾驶车辆的所述操作状态生成虚拟车道,所述虚拟车道表示所述自动驾驶车辆可能将在预定时间段内沿其移动的路径;
分类装置,确定检测到的对象中的第一对象的至少一部分是否落入所述虚拟车道内,以及响应于确定所述第一对象的至少一部分落入所述虚拟车道内,将所述第一对象分类为最接近的路径内对象(CIPO)。
10.如权利要求9所述的装置,其中所述分类装置进一步:
响应于确定所述第一对象是最接近的路径内对象,激活紧急操作以控制所述自动驾驶车辆以避免与所述第一对象碰撞。
11.如权利要求9所述的装置,其中所述虚拟车道是在不使用与所述自动驾驶车辆当前所处的道路相关联的地图的地图数据、并且不基于根据传感器数据识别出的道路的实际车道的情况下生成的。
12.如权利要求9所述的装置,其中所述虚拟车道生成装置进一步:
基于所述自动驾驶车辆的所述速度和所述预定时间段,确定虚拟车道长度;
基于所述自动驾驶车辆的所述前进方向,确定所述虚拟车道的曲率;以及
基于所述自动驾驶车辆的物理尺寸,确定所述虚拟车道的虚拟车道宽度。
13.如权利要求12所述的装置,其中所述虚拟车道生成装置进一步:
基于道路类型或交通规则中的至少一个来确定所述虚拟车道宽度。
14.如权利要求9所述的装置,其中所述分类装置进一步:
检测基于所述自动驾驶车辆的所述操作状态在基于所述感知的驾驶环境识别出的实际车道内所述自动驾驶车辆可能在所述预定时间段内碰撞的第二对象;
测量所述自动驾驶车辆与所述第一对象之间的第一距离以及所述自动驾驶车辆与所述第二对象之间的第二距离;以及
如果所述第一距离小于所述第二距离,则将所述第一对象指定为最接近的路径内对象。
15.如权利要求9所述的装置,其中所述虚拟车道生成装置进一步:
确定第一车道线和第二车道线,以限定所述虚拟车道的形状和车道宽度。
16.根据权利要求15的装置,其中所述第一车道线是基于根据感知的驾驶环境识别出的地图数据或车道标记中的至少一个而确定的,以及其中所述第二车道线是在考虑了一组规则的情况下从所述第一车道线导出的。
17.一种非暂时性机器可读介质,其中存储有指令,所述指令在由处理器执行时使得所述处理器执行根据权利要求1-8中任一项所述的方法。
18.一种数据处理系统,包括:
处理器;以及
连接到所述处理器以存储指令的存储器,所述指令在由所述处理器执行时使得所述处理器执行根据权利要求1-8中任一项所述的方法。
CN202010598754.7A 2019-06-28 2020-06-28 用于自动驾驶的用于检测最接近的路径内对象的方法和装置 Active CN111775945B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/457,719 2019-06-28
US16/457,719 US10915766B2 (en) 2019-06-28 2019-06-28 Method for detecting closest in-path object (CIPO) for autonomous driving

Publications (2)

Publication Number Publication Date
CN111775945A true CN111775945A (zh) 2020-10-16
CN111775945B CN111775945B (zh) 2023-08-04

Family

ID=72761530

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010598754.7A Active CN111775945B (zh) 2019-06-28 2020-06-28 用于自动驾驶的用于检测最接近的路径内对象的方法和装置

Country Status (2)

Country Link
US (1) US10915766B2 (zh)
CN (1) CN111775945B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112309004A (zh) * 2020-10-30 2021-02-02 广州小鹏自动驾驶科技有限公司 一种虚拟减速带生成方法、装置、车辆和存储介质
CN114435394A (zh) * 2021-12-22 2022-05-06 安徽建德基文化传媒有限公司 一种无人驾驶汽车的控制系统

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7439434B2 (ja) * 2019-09-30 2024-02-28 株式会社デンソー 車両に搭載されているライダーの傾きの検出装置、および車両に搭載されているライダーの傾きの検出方法
JP2021056841A (ja) * 2019-09-30 2021-04-08 スズキ株式会社 教師データ作成装置及び画像分類装置
US11276179B2 (en) * 2019-12-18 2022-03-15 Zoox, Inc. Prediction on top-down scenes based on object motion
US11683660B2 (en) 2020-02-06 2023-06-20 Huawei Technologies Co., Ltd. Method, apparatus and system for determining a location of a mobile device
US12010583B2 (en) 2020-02-06 2024-06-11 Huawei Technologies Co., Ltd. Method, apparatus and system for mobile device location determination
US20210256842A1 (en) * 2020-02-14 2021-08-19 Huawei Technologies Co., Ltd. System, method and apparatus supporting navigation
US11703577B2 (en) * 2020-08-14 2023-07-18 Baidu Usa Llc Recalibration determination system for autonomous driving vehicles with multiple LiDAR sensors
CN113504734B (zh) * 2021-05-12 2022-06-24 上海和夏新能源科技有限公司 基于图像显示的车道线模拟仿真测试方法和系统
KR20230001869A (ko) * 2021-06-29 2023-01-05 현대자동차주식회사 차량 제어 장치, 그를 포함한 시스템 및 그 방법
GB2609482A (en) * 2021-08-05 2023-02-08 Continental Automotive Gmbh Method and system for creating a virtual lane for a vehicle

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020049539A1 (en) * 2000-09-08 2002-04-25 Russell Mark E. Path prediction system and method
JP2009120300A (ja) * 2007-11-13 2009-06-04 Canon Inc 検査支援方法及びプログラム
JP2015099953A (ja) * 2013-11-18 2015-05-28 アズビル株式会社 通信経路表示装置および方法
CN106448260A (zh) * 2015-08-05 2017-02-22 Lg电子株式会社 驾驶员辅助设备和包括该驾驶员辅助设备的车辆
CN107121980A (zh) * 2017-03-17 2017-09-01 北京理工大学 一种基于虚拟约束的自动驾驶车辆路径规划方法
US20170320500A1 (en) * 2016-05-03 2017-11-09 Hyundai Motor Company Path planning apparatus and method for autonomous vehicle
CN108216227A (zh) * 2016-12-22 2018-06-29 现代自动车株式会社 具有自动驾驶控制系统的车辆及其控制方法
CN108394410A (zh) * 2017-02-08 2018-08-14 现代自动车株式会社 Ecu、包括该ecu的自动驾驶车辆以及确定该车辆的行驶车道的方法
CN109491375A (zh) * 2017-09-13 2019-03-19 百度(美国)有限责任公司 用于自动驾驶车辆的基于驾驶场景的路径规划

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69428505T2 (de) * 1993-12-27 2002-06-06 Aisin Aw Co Kartenanzeigesystem
JP3266827B2 (ja) * 1997-06-25 2002-03-18 本田技研工業株式会社 車両の物体検知装置
JP3642547B2 (ja) * 1997-08-22 2005-04-27 株式会社小松製作所 自走車両の車速制御装置
JP2003016429A (ja) * 2001-06-28 2003-01-17 Honda Motor Co Ltd 車両周辺監視装置
JP4019736B2 (ja) * 2002-02-26 2007-12-12 トヨタ自動車株式会社 車両用障害物検出装置
JP3902543B2 (ja) * 2002-12-17 2007-04-11 本田技研工業株式会社 道路交通シミュレーション装置
KR100493092B1 (ko) * 2003-02-08 2005-06-02 삼성전자주식회사 네비게이션장치 및 네비게이션장치의 최적경로 계산방법
WO2007077867A1 (ja) * 2005-12-28 2007-07-12 National University Corporation Nagoya University 運転行動推定装置、運転支援装置、車両評価システム、ドライバモデル作成装置、及び運転行動判定装置
JP4231527B2 (ja) * 2007-01-15 2009-03-04 株式会社豊田中央研究所 交通シミュレーション装置
JP5146446B2 (ja) * 2007-03-22 2013-02-20 日本電気株式会社 移動体検知装置および移動体検知プログラムと移動体検知方法
EP1998160A1 (en) * 2007-05-31 2008-12-03 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO System and method for testing a vehicle
JP5174609B2 (ja) * 2008-10-10 2013-04-03 日立オートモティブシステムズ株式会社 走行支援装置
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
JP5673597B2 (ja) * 2011-11-18 2015-02-18 株式会社デンソー 車両用挙動制御装置
JP5757900B2 (ja) * 2012-03-07 2015-08-05 日立オートモティブシステムズ株式会社 車両走行制御装置
CN104411558B (zh) * 2012-07-06 2017-09-22 丰田自动车株式会社 车辆的行驶控制装置
JP6128584B2 (ja) * 2013-01-16 2017-05-17 株式会社Soken 走行経路生成装置
US9174672B2 (en) * 2013-10-28 2015-11-03 GM Global Technology Operations LLC Path planning for evasive steering maneuver in presence of target vehicle and surrounding objects
US9199668B2 (en) * 2013-10-28 2015-12-01 GM Global Technology Operations LLC Path planning for evasive steering maneuver employing a virtual potential field technique
JP6651702B2 (ja) * 2015-03-23 2020-02-19 富士通株式会社 物体検出装置、物体検出方法および情報処理プログラム
US9868443B2 (en) * 2015-04-27 2018-01-16 GM Global Technology Operations LLC Reactive path planning for autonomous driving
US9953535B1 (en) * 2016-06-27 2018-04-24 Amazon Technologies, Inc. Annotated virtual track to inform autonomous vehicle control
US10053091B2 (en) * 2016-10-25 2018-08-21 Baidu Usa Llc Spring system-based change lane approach for autonomous vehicles
KR20180099280A (ko) * 2017-02-28 2018-09-05 삼성전자주식회사 가상 차로 생성 장치 및 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020049539A1 (en) * 2000-09-08 2002-04-25 Russell Mark E. Path prediction system and method
JP2009120300A (ja) * 2007-11-13 2009-06-04 Canon Inc 検査支援方法及びプログラム
JP2015099953A (ja) * 2013-11-18 2015-05-28 アズビル株式会社 通信経路表示装置および方法
CN106448260A (zh) * 2015-08-05 2017-02-22 Lg电子株式会社 驾驶员辅助设备和包括该驾驶员辅助设备的车辆
US20170320500A1 (en) * 2016-05-03 2017-11-09 Hyundai Motor Company Path planning apparatus and method for autonomous vehicle
CN108216227A (zh) * 2016-12-22 2018-06-29 现代自动车株式会社 具有自动驾驶控制系统的车辆及其控制方法
CN108394410A (zh) * 2017-02-08 2018-08-14 现代自动车株式会社 Ecu、包括该ecu的自动驾驶车辆以及确定该车辆的行驶车道的方法
CN107121980A (zh) * 2017-03-17 2017-09-01 北京理工大学 一种基于虚拟约束的自动驾驶车辆路径规划方法
CN109491375A (zh) * 2017-09-13 2019-03-19 百度(美国)有限责任公司 用于自动驾驶车辆的基于驾驶场景的路径规划

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112309004A (zh) * 2020-10-30 2021-02-02 广州小鹏自动驾驶科技有限公司 一种虚拟减速带生成方法、装置、车辆和存储介质
CN114435394A (zh) * 2021-12-22 2022-05-06 安徽建德基文化传媒有限公司 一种无人驾驶汽车的控制系统

Also Published As

Publication number Publication date
US10915766B2 (en) 2021-02-09
US20200410260A1 (en) 2020-12-31
CN111775945B (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN111775945B (zh) 用于自动驾驶的用于检测最接近的路径内对象的方法和装置
CN111775933B (zh) 用于基于车辆周围障碍物的移动轨迹自主驾驶车辆的方法
CN112363492A (zh) 用于操作自动驾驶车辆的计算机实施的方法以及数据处理系统
CN112149487A (zh) 一种用于自动驾驶的用于训练神经网络对象检测模型的用于确定锚框的方法
US11880201B2 (en) Fastest lane determination algorithm under traffic jam
US11662730B2 (en) Hierarchical path decision system for planning a path for an autonomous driving vehicle
CN113448329A (zh) 减少用于规划自主驾驶车辆的路径的障碍物的方法及系统
CN114379590A (zh) 紧急车辆音频和视觉检测后融合
CN112230646A (zh) 设计用于单车运行的自动驾驶系统下的车辆队列实施
CN114764523A (zh) 利用自主驾驶车辆的模型训练和车载验证的系统和方法
CN114763159A (zh) 利用自主驾驶车辆的自动音频数据标记
EP3838696A1 (en) A post collision, damage reduction brake system
CN112985435A (zh) 用于操作自主驾驶车辆的方法及系统
CN113815640A (zh) 用于具有不同速度限制的车道的车道变更系统
CN115871712A (zh) 操作自主驾驶车辆的方法和系统
US11288528B2 (en) Differentiation-based traffic light detection
CN212391730U (zh) 用于自动驾驶车辆的光探测和测距装置
CN114764022A (zh) 用于自主驾驶车辆的声源检测和定位的系统和方法
CN113815526A (zh) 用于自动驾驶车辆的早期制动灯警告系统
CN113753071A (zh) 预防减速规划
CN113492848A (zh) 用于自主驾驶车辆安全操作员的前方碰撞告警警报系统
US12017681B2 (en) Obstacle prediction system for autonomous driving vehicles
US20240005066A1 (en) Decoupled prediction evaluation
US11662219B2 (en) Routing based lane guidance system under traffic cone situation
US20230202516A1 (en) Planning under prediction with confidence region for an autonomous driving vehicle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant