CN113128326A - 具有语义地图和lstm的车辆轨迹预测模型 - Google Patents

具有语义地图和lstm的车辆轨迹预测模型 Download PDF

Info

Publication number
CN113128326A
CN113128326A CN202010472673.2A CN202010472673A CN113128326A CN 113128326 A CN113128326 A CN 113128326A CN 202010472673 A CN202010472673 A CN 202010472673A CN 113128326 A CN113128326 A CN 113128326A
Authority
CN
China
Prior art keywords
target obstacle
features
neural network
image
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010472673.2A
Other languages
English (en)
Other versions
CN113128326B (zh
Inventor
许珂诚
孙宏艺
潘嘉诚
肖祥全
胡江滔
缪景皓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of CN113128326A publication Critical patent/CN113128326A/zh
Application granted granted Critical
Publication of CN113128326B publication Critical patent/CN113128326B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)

Abstract

公开了预测由自动驾驶车辆(ADV)感测的移动障碍物的近期轨迹的系统和方法。该方法应用诸如LSTM模型的神经网络来基于目标障碍物的直到当前预测位置的实际过去轨迹和预测间隔中任何预测位置来提取和学习目标障碍物的动态特征,以及应用CNN模型来学习图像地图的一部分中的驾驶环境的语义地图特征。根据所学习的移动障碍物的动态特征和所学习的环境语义地图特征,该方法应用神经网络对预测间隔的连续时间点的移动障碍物的位置进行迭代预测。为了从当前预测位置预测移动障碍物在下一时间点的位置,该方法可以基于移动障碍物直到当前预测位置的过去轨迹更新所学习的动态特征。

Description

具有语义地图和LSTM的车辆轨迹预测模型
技术领域
本公开的实施方式总体涉及操作自动驾驶车辆。更具体地,本公开的实施方式涉及用于预测障碍物(诸如自动驾驶车辆(ADV)周围的其他车辆)的轨迹的方法。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在没有任何乘客的一些情况下行驶。
运动规划和控制是自动驾驶中的关键操作。运动规划和控制操作的安全性、准确性和效率取决于ADV感知和预测移动障碍物(如其他车辆或行人)运动的能力。诸如摄像机、光探测和测距(LIDAR)装置、雷达等传感器被用来捕捉车辆周围环境的视频和电磁图像。ADV可以处理由传感器捕捉的信息以感知驾驶环境,包括ADV周围的障碍物、交通要素和道路特征,以规划和控制ADV的运动。
为了预测附近车辆的运动或轨迹以确保ADV的安全导航,ADV可以使用神经网络预测车辆的行为,然后使用基于规则的方法预测车辆的轨迹。例如,如果车辆在到达十字路口之前在左车道上减速,则车辆很可能在十字路口左转。可预测车辆进入左转车道。使用基于规则的方法,可以预测车辆在十字路口左转,并沿着轨迹进入交叉街道的车道。然而,使用行为建模和基于规则的方法的轨迹预测模型具有局限性。在某些场景下,根据基于规则的方法预测的轨迹可能不是合理或最优的。在其他情况下,可能没有足够的场景信息来对基于规则的方法进行足够精确的建模。为了更安全地进行ADV的运动规划和控制,需要更精确、高效、鲁棒的车辆轨迹预测模型。
发明内容
在第一方面,本公开提供了一种用于预测由自动驾驶车辆检测的目标障碍物的轨迹的计算机实施的方法,所述方法包括:
响应于所述目标障碍物周围的驾驶环境的图像,通过第一神经网络对所述图像进行处理以学习所述图像的语义地图特征;
将所述目标障碍物的特征嵌入到低维向量中;
通过第二神经网络处理所述目标障碍物的所述低维向量和最新动态特征,以学习所述目标障碍物的更新动态特征;
通过第三神经网络对所述目标障碍物的所述更新动态特征和所述图像的所述语义地图特征进行处理,生成所述目标障碍物的下一预测位置,所述下一预测位置包括预测特征;以及
重复嵌入所述下一预测位置的所述预测特征,通过所述第二神经网络处理并通过所述第三神经网络处理,直到生成预测间隔的所有预测位置。
在第二方面,本公开提供了一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时致使所述处理器执行用于预测由自动驾驶车辆检测的目标障碍物的轨迹的操作,所述操作包括:
响应于所述目标障碍物周围的驾驶环境的图像,通过第一神经网络对所述图像进行处理以学习所述图像的语义地图特征;
将所述目标障碍物的特征嵌入到低维向量中;
通过第二神经网络处理所述目标障碍物的所述低维向量和最新动态特征,以学习所述目标障碍物的更新动态特征;
通过第三神经网络对所述目标障碍物的所述更新动态特征和所述图像的所述语义地图特征进行处理,生成所述目标障碍物的下一预测位置,所述下一预测位置包括预测特征;以及
重复嵌入所述下一预测位置的所述预测特征,通过所述第二神经网络处理并通过所述第三神经网络处理,直到生成预测间隔的所有预测位置。
在第三方面,本公开提供了一种数据处理系统,包括:
处理器;以及
存储器,所述存储器联接至所述处理器,以存储指令,所述指令在由所述处理器执行时致使所述处理器执行预测由自动驾驶车辆检测的目标障碍物的轨迹的操作,所述操作包括:
响应于所述目标障碍物周围的驾驶环境的图像,通过第一神经网络对所述图像进行处理以学习所述图像的语义地图特征;
将所述目标障碍物的特征嵌入到低维向量中;
通过第二神经网络处理所述目标障碍物的所述低维向量和最新动态特征,以学习所述目标障碍物的更新动态特征;
通过第三神经网络对所述目标障碍物的所述更新动态特征和所述图像的所述语义地图特征进行处理,生成所述目标障碍物的下一预测位置,所述下一预测位置包括预测特征;以及
重复嵌入所述下一预测位置的所述预测特征,通过所述第二神经网络处理并通过所述第三神经网络处理,直到生成预测间隔的所有预测位置。
附图说明
本公开的实施方式在附图的各图中以举例而非限制的方式示出,附图中的相同参考标记指示相似元件。
图1是示出根据一个实施方式的网络化系统的框图。
图2是示出根据一个实施方式的自动驾驶车辆的示例的框图。
图3A至图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。
图4是示出根据一个实施方式的自动驾驶系统的架构的框图。
图5是示出根据一个实施方式的用来选择目标障碍物和图像地图的子地图、用于基于子图特征的所选目标障碍物的轨迹预测的过程的图。
图6是示出根据一个实施方式的使用所学习的环境语义地图特征和所学习的目标障碍物动态历史来部署神经网络模型以预测目标障碍物的轨迹的过程的图。
图7是示出根据一个实施方式的用来选择目标障碍物和图像地图的子地图、用于在所选子地图中预测所选目标障碍物的轨迹的方法的示例的流程图。
图8是示出根据一个实施方式的使用神经网络学习目标障碍物的动态历史和环境的语义地图特征以及使用所学习的目标障碍物和环境的信息来预测目标障碍物的轨迹的方法的示例的流程图。
具体实施方式
将参考以下所讨论的细节来描述本公开的各种实施方式和方面,附图将示出所述各种实施方式。下列描述和附图是本公开的说明,而不应当解释为对本公开进行限制。描述了许多特定细节以提供对本公开的各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节,以提供对本公开的实施方式的简洁讨论。
本说明书中对“一个实施方式”或“实施方式”的提及意味着结合该实施方式所描述的特定特征、结构或特性可包括在本公开的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指同一实施方式。
对移动障碍物(如ADV周围的移动车辆或行人)的轨迹的预测对于ADV的运动规划和控制至关重要。为了预测移动障碍物的近期未来轨迹,ADV除了考虑交通要素(如交通信号和交通方式,以及环境道路特征)之外,还会考虑移动障碍物的过去轨迹或历史。公开了预测ADV附近的移动障碍物的近期未来轨迹的方法,该方法通过应用神经网络来基于移动障碍物直到当前位置的过去轨迹来学习移动障碍物运动的动态特征,并学习环境的语义地图特征。
根据所学习的移动障碍物的动态特征和所学习的环境语义地图特征,所述方法还可以应用神经网络对预测间隔的连续时间点的移动障碍物的位置进行迭代预测。例如,为了从当前预测位置预测移动障碍物在下一时间点的位置,所述方法可以基于移动障碍物直到当前预测位置的过去实际轨迹更新所学习的动态特征。然后,神经网络可以对更新的动态特征和环境的语义地图特征进行操作,以预测下一时间点的位置。
在一个实施方式中,所述方法可以应用诸如基于长-短期记忆(LSTM)模型的递归神经网络(RNN)来基于目标障碍物的直到当前预测位置的实际过去轨迹和预测间隔中任何预测位置来提取和学习目标障碍物的动态特征。为了提取和学习目标障碍物周围环境的语义地图特征,该方法可以将卷积神经网络(CNN)应用于图像地图的子区域。前馈神经网络或多层感知器(MLP)可以对LSTM生成的目标障碍物的动态特征和CNN生成的语义地图特征进行操作,以预测下一时间点的目标障碍物位置。
这些方法可以在由ADV的传感器捕捉的数据生成的图像地图中选择感兴趣的移动障碍物,并且可以识别围绕每个所选障碍物的图像地图的子区域,以提取在预测模型中使用的环境的语义地图特征。图像地图可以显示ADV附近若干移动障碍物的当前位置和前进方向。为了选择目标障碍物来预测其近期轨迹,准备过程可以选择移动障碍物中的一个作为目标障碍物。基于所选目标障碍物的当前位置和当前前进方向,准备过程可旋转图像地图以将目标障碍物定位在参考位置,并将目标障碍物定向为从参考位置朝向参考前进方向。准备过程可以相对于参考点和参考前进方向裁剪旋转的图像地图,以选择图像地图的子区域或子图像。
子区域可以足够大,以在预测间隔期间包含目标障碍物的预测轨迹。子区域可以提供为轨迹预测过程的CNN的输入,以便CNN提取和学习目标障碍物周围子区域中环境的语义地图特征。目标障碍物的当前位置和前进方向可以作为轨迹预测过程的LSTM模型的输入,以便LSTM模型提取和学习目标障碍物的动态特征。准备过程可以选择图像地图中的连续移动障碍物作为目标障碍物,并且可以关于每个所选目标障碍物识别图像地图的子区域作为轨迹预测过程的输入。
轨迹预测过程可以通过嵌入层处理目标障碍物的当前位置和前进方向,以生成针对LSTM模型的当前时间目标障碍物特征的低维向量表示。LSTM模型可以处理当前时间目标障碍物特征的低维向量表示和目标障碍物过去轨迹或以前时间的特征,以提取和学习目标障碍物的动态特征。LSTM模型的输出可以是表示目标障碍物直到当前时间的动态特征的高维向量。
CNN可以处理围绕目标障碍物的图像地图的识别的子区域,以学习和提取环境的语义地图特征,例如其他车辆、交通要素和道路特征。轨迹预测过程可以使用全连接神经网络(NN)层(例如MLP)来处理来自LSTM的目标障碍物的动态特征和来自CNN的语义地图特征,以预测预测间隔内的多个时间点的位置。在一个实施方式中,预测间隔可以是3秒,以包括间隔0.1秒的预测位置的30个时间点。例如,MLP可以根据目标障碍物直到当前时间的动态特征和语义地图特征,在0.1s的第一时间点生成目标障碍物的预测位置。
为了生成目标障碍物在下一时间点0.2秒的预测位置,轨迹预测过程可以通过嵌入层处理目标障碍物在0.1s的第一时间点的预测位置,以生成在第一时间点目标障碍物特征的低维向量表示。LSTM模型可以在第一时间点处理目标障碍物特征的低维向量表示,以更新目标障碍物的动态特征。LSTM模型的输出可以是更新的高维向量,表示目标障碍物在预测间隔的第一时间点的动态特征。MLP可以根据目标障碍物直到第一时间点的动态特征和语义地图特征,生成在0.2秒的第二时间点目标障碍物的预测位置。
为了预测目标障碍物在附加时间点的位置,轨迹预测过程可以因此通过嵌入层迭代处理目标障碍物在最近时间点的预测位置,以生成低维向量表示,通过LSTM模型处理低维向量表示来更新表示目标障碍物的最新时间点的动态特征的高维向量,通过MLP对目标障碍物到最新时间点的动态特征和语义地图特征进行处理,以便生成目标障碍物在下一时间点的预测位置。轨迹预测过程可以为预测间隔的所有时间点生成目标障碍物的预测位置。相比使用基于规则的方法,结合提取和学习目标障碍物的动态特征的LSTM,提取和学习目标障碍物周围环境的语义地图特征的CNN,以及根据目标障碍物的动态特征和环境的语义地图特征来预测目标障碍物的位置的MLP,提供了更准确、高效、鲁棒的目标障碍物轨迹预测。
根据一个实施方式,公开了一种用于从ADV的传感器系统捕捉的数据生成的图像地图中选择目标障碍物和子地图以用于预测所选子地图中所选目标障碍物的轨迹的方法。该方法包括接收显示障碍物(例如ADV在规划周期期间检测到的车辆)的图像地图。该方法包括选择被检测的车辆之一作为目标障碍物。该方法还包括旋转图像地图以将目标障碍物定位在旋转图像地图中的参考位置和参考前进方向中。该方法还包括相对于位于参考位置和参考前进方向中的目标障碍物裁剪旋转的图像地图以生成子地图。
根据一个实施方式,公开了一种利用神经网络来学习ADV检测的目标障碍物的动态历史和目标障碍物周围环境的语义地图特征,并利用目标障碍物和环境的学习信息来预测目标障碍物的轨迹的方法。该方法包括接收目标障碍物周围的驾驶环境的图像地图。目标障碍物包括目标障碍物的特征信息。该方法包括使用第一NN对图像进行处理,以学习环境的语义地图特征。该方法还包括将目标障碍物的特征嵌入到低维向量中。该方法还包括使用第二NN来处理目标障碍物的低维向量和最新的动态特征,以学习目标障碍物的更新动态特征。
该方法还包括使用第三NN处理来自第二NN的目标障碍物的更新动态特征和来自第一NN的环境语义地图特征,以生成目标障碍物的预测位置。为了预测目标障碍物的附加位置,该方法还包括将目标障碍物最新预测位置的特征迭代嵌入到低维向量中,利用第二NN对低维向量进行处理以基于最新预测位置的特征更新目标障碍物的动态特征预测位置,以及利用第三NN对目标障碍物的更新动态特征和语义地图特征进行处理,以生成目标障碍物的下一预测位置。
图1是示出根据本公开的一个实施方式的自动驾驶车辆网络配置的框图。参考图1,网络配置100包括可通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆101。尽管示出一个自动驾驶车辆,但多个自动驾驶车辆可通过网络102联接到彼此和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群集,诸如,网络或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或位置服务器等。在一个实施方式中,自动驾驶车辆101可以从服务器103或104下载HD地图以用于运动规划和控制。
自动驾驶车辆是指可配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种自动驾驶车辆可包括传感器系统,所述传感器系统具有配置成检测与车辆运行环境有关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用所检测的信息来导航通过所述环境。自动驾驶车辆101可在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。
在一个实施方式中,自动驾驶车辆101包括,但不限于,感知与规划系统110、车辆控制系统111、无线通信系统112、用户接口系统113和传感器系统115。自动驾驶车辆101还可包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可由车辆控制系统111和/或感知与规划系统110使用多种通信信号和/或命令进行控制,该多种通信信号和/或命令例如,加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
部件110至115可经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它是最初是为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器系统115包括但不限于一个或多个摄像机211、全球定位系统(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。GPS单元212可包括收发器,所述收发器可操作以提供关于自动驾驶车辆的位置的信息。IMU单元213可基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达单元214可表示利用无线电信号来感测自动驾驶车辆的本地环境内的对象的系统。在一些实施方式中,除感测对象之外,雷达单元214可另外感测对象的速度和/或前进方向。LIDAR单元215可使用激光来感测自动驾驶车辆所处环境中的对象。除其它系统部件之外,LIDAR单元215还可包括一个或多个激光源、激光扫描器以及一个或多个检测器。摄像机211可包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。摄像机211可以是静物摄像机和/或视频摄像机。摄像机可以是可机械地移动的,例如,通过将摄像机安装在旋转和/或倾斜平台上。
传感器系统115还可包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可配置成从自动驾驶车辆周围的环境中采集声音。转向传感器可配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制系统111包括但不限于转向单元201、油门单元202(也称为加速单元)和制动单元203。转向单元201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度进而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以以硬件、软件或其组合实施。
返回参考图1,无线通信系统112允许自动驾驶车辆101与诸如装置、传感器、其它车辆等外部系统之间的通信。例如,无线通信系统112可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至104通信。无线通信系统112可使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或系统通信。无线通信系统112可例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口系统113可以是在车辆101内实施的外围装置的部分,包括例如键盘、触摸屏显示器、麦克风和扬声器等。
自动驾驶车辆101的功能中的一些或全部可由感知与规划系统110控制或管理,尤其当在自动驾驶模式下操作时。感知与规划系统110包括必要的硬件(例如,处理器、存储器、存储装置)和软件(例如,操作系统、规划和路线安排程序),以从传感器系统115、控制系统111、无线通信系统112和/或用户接口系统113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。可替代地,感知与规划系统110可与车辆控制系统111集成在一起。
例如,作为乘客的用户可例如经由用户接口来指定行程的起始位置和目的地。感知与规划系统110获得行程相关数据。例如,感知与规划系统110可从MPOI服务器中获得位置和路线信息,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。可替代地,此类位置和MPOI信息可本地高速缓存在感知与规划系统110的永久性存储装置中。在一个实施方式中,可以从自服务器103至104下载的HD地图获得位置和MPOI信息。
当自动驾驶车辆101沿着路线移动时,感知与规划系统110也可从交通信息系统或服务器(TIS)获得实时交通信息。应注意,服务器103至104可由第三方实体进行操作,诸如,将起始位置和目的地位置下载到感知和规划系统110以用于感知和规划系统110规划路线的服务提供商。第三方也可以向感知和规划系统110发出命令,以命令自动驾驶车辆101开始在规划的路线上行驶。可替代地,服务器103至104的功能可与感知与规划系统110集成在一起。基于实时交通信息、MPOI信息和位置信息以及由传感器系统115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),感知与规划系统110可规划最佳路线并且根据所规划的路线例如经由控制系统111来驾驶车辆101,以安全且高效到达指定目的地。
服务器103可以是数据分析系统,从而为各种客户执行数据分析服务。在一个实施方式中,数据分析系统103包括数据收集器121和机器学习引擎122。数据收集器121从各种车辆(自动驾驶车辆或由人类驾驶员驾驶的常规车辆)收集驾驶统计数据123。驾驶统计数据123包括指示所发出的驾驶指令(例如,油门、制动、转向指令)以及由车辆的传感器在不同的时间点捕捉到的车辆的响应(例如,速度、加速、减速、方向)的信息。驾驶统计数据123还可包括描述不同时间点下的驾驶环境的信息,例如,路线(包括起始位置和目的地位置)、MPOI、道路状况、天气状况等。驾驶统计数据123还可以包括由IMU和GPS传感器捕捉的描述车辆的位置和方向的姿势。
基于驾驶统计数据123,出于各种目的,机器学习引擎122生成或训练一组规则、算法和/或预测模型124。在一个实施方式中,算法124可以包括深度学习神经网络模型,用于预测自动驾驶车辆101的环境中的其他车辆的轨迹,以使感知和规划系统110能够导航自动驾驶车辆101以避免与其他车辆碰撞。
算法124可上传到ADV上以在自动驾驶期间实时使用,或者可以被诸如服务器103的障碍物跟踪引擎125的其它模块使用。在一个实施方式中,障碍物跟踪引擎125可以基于移动障碍物的过去轨迹和移动障碍物操作的环境来预测移动障碍物(如围绕自动驾驶车辆101的车辆或行人)的近期运动或轨迹。尽管障碍物跟踪引擎125示出为服务器103的一部分,但在一些实施方式中,引擎125可以是服务器104的一部分。
图3A和图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。系统300可实施为图1的自动驾驶车辆101的一部分,包括但不限于感知与规划系统110、控制系统111和传感器系统115。参考图3A至图3B,感知与规划系统110包括但不限于定位模块301、感知模块302、预测模块303、决策模块304、规划模块305、控制模块306、路线安排模块307和安全模块308。
模块301至308中的一些或全部可以以软件、硬件或其组合实施。例如,这些模块可安装在永久性存储装置352中、加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可通信地联接到图2的车辆控制系统111的一些或全部模块或者与它们集成在一起。模块301至308中的一些可一起集成为集成模块。例如,决策模块304和规划模块305可集成为单个模块。
定位模块301确定自动驾驶车辆300的当前位置(例如,利用GPS单元212)以及管理与用户的行程或路线相关的任何数据。定位模块301(又称作为地图与路线模块)管理与用户的行程或路线相关的任何数据。用户可例如经由用户接口登录并且指定行程的起始位置和目的地。定位模块301与自动驾驶车辆300的诸如地图与路线信息311的其它部件通信,以获得行程相关数据。例如,定位模块301可从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI,从而可作为地图与路线信息311的一部分高速缓存。在一个实施方式中,地图和路线信息311可以是HD地图。HD地图可以从位置服务器和MPOI服务器下载。当自动驾驶车辆300沿着路线移动时,定位模块301也可从交通信息系统或服务器获得实时交通信息。
基于由传感器系统115提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可表示普通驾驶员在驾驶员正驾驶的车辆周围将感知到的东西。感知可包括例如采用对象形式的车道配置、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其它交通相关标志(例如,停止标志、让行标志)等。车道配置包括描述一个或多个车道的信息,诸如,例如车道的形状(例如,直线或弯曲)、车道的宽度、道路中的车道数量、单向或双向车道、合并或分开车道、出口车道等。
感知模块302可包括计算机视觉系统或计算机视觉系统的功能,以处理并分析由一个或多个摄像机采集的图像,从而识别自动驾驶车辆101环境中的对象和/或特征。所述对象可包括交通信号、道路边界、其它车辆、行人和/或障碍物等。计算机视觉系统可使用对象识别算法、视频跟踪以及其它计算机视觉技术。在一些实施方式中,计算机视觉系统可绘制环境地图,跟踪对象,以及估算对象的速度等。感知模块302也可基于由诸如雷达和/或LIDAR的其它传感器提供的其它传感器数据来检测对象。在一个实施方式中,感知模块302可以生成图像地图,该图像地图显示在自动驾驶车辆101环境中其他车辆或行人的当前位置、当前前进方向和过去轨迹。
针对每个对象,预测模块303预测对象在这种情况下将如何表现。预测是基于感知数据执行的,该感知数据在考虑一组地图/路线信息311和交通规则312的时间点感知驾驶环境。例如,如果对象为相反方向上的车辆且当前驾驶环境包括十字路口,则预测模块303将预测车辆是否可能会笔直向前移动或转弯。如果感知数据表明十字路口没有交通灯,则预测模块303可能会预测车辆在进入十字路口之前可能需要完全停车。如果感知数据表明车辆目前处于左转唯一车道或右转唯一车道,则预测模块303可能预测车辆将更可能分别左转或右转。
预测模块303可以预测车辆的未来轨迹,通过应用神经网络以基于车辆的过去轨迹来学习车辆运动的动态特征,并从感知模块302提供的图像地图中学习驾驶环境的语义地图特征。根据所学习的车辆的动态特征和所学习的环境的语义地图特征,预测模块303可以进一步应用神经网络来迭代地预测预测间隔的连续时间点的车辆位置。在一个实施方式中,预测模块303针对100毫秒(ms)的每个规划周期(也称为预测周期)运行。对于每个规划周期,预测模块303预测下一预测间隔的车辆位置,如在预测间隔内的周期时间点处的3秒。在一个实施方式中,周期时间点具有100ms的周期。例如,在每100ms的预测间隔处,预测模块303可以预测下3秒的车辆位置,包括间隔100ms的30个周期时间点。
针对每个对象,决策模块304作出关于如何处置对象的决定。例如,针对特定对象(例如,交叉路线中的另一车辆)以及描述对象的元数据(例如,速度、方向、转弯角度),决策模块304决定如何与所述对象相遇(例如,超车、让行、停止、超过)。决策模块304可根据诸如交通规则或驾驶规则312的规则集来作出此类决定,所述规则集可存储在永久性存储装置352中。
路线安排模块307配置成提供从起始点到目的地点的一个或多个路线或路径。对于从起始位置到目的地位置的给定行程,例如从用户接收的给定行程,路线安排模块307获得路线与地图信息311,并确定从起始位置至到达目的地位置的所有可能路线或路径。路线安排模块307可生成地形图形式的参考线,它确定了从起始位置至到达目的地位置的每个路线。参考线是指不受其它诸如其它车辆、障碍物或交通状况的任何干扰的理想路线或路径。即,如果道路上没有其它车辆、行人或障碍物,则ADV应精确地或紧密地跟随参考线。然后,将地形图提供至决策模块304和/或规划模块305。决策模块304和/或规划模块305检查所有可能的路线,以根据由其它模块提供的其它数据选择和更改最佳路线中的一个,其中,其它数据诸如为来自定位模块301的交通状况、由感知模块302感知到的驾驶环境以及由预测模块303预测的交通状况。根据时间点下的特定驾驶环境,用于控制ADV的实际路径或路线可能接近于或不同于由路线安排模块307提供的参考线。
因此,基于针对所感知到的对象中的每个的决定,决策模块304和/或规划模块305使用由路线安排模块307提供的参考线作为基础,为自动驾驶车辆规划路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。换言之,针对给定的对象,决策模块304决定对该对象做什么,而规划模块305确定如何去做。例如,针对给定的对象,决策模块304可决定超过所述对象,而规划模块305可确定在所述对象的左侧还是右侧超过。规划和控制数据由规划模块305生成,包括描述车辆300在下一移动循环(例如,下一路线/路径段)中将如何移动的信息。例如,规划和控制数据可指示车辆300以30英里每小时(mph)的速度移动10米,随后以25mph的速度变到右侧车道。
基于规划和控制数据,控制模块306根据由规划和控制数据限定的路线或路径通过将适当的命令或信号发送到车辆控制系统111来控制并驾驶自动驾驶车辆。所述规划和控制数据包括足够的信息,以沿着路径或路线在不同的时间点使用适当的车辆设置或驾驶参数(例如,油门、制动、转向命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施方式中,规划阶段在多个规划周期(也称作为驾驶周期)中执行,例如,在每个时间间隔为100毫秒(ms)的周期中执行。对于规划周期或驾驶周期中的每一个,将基于规划和控制数据发出一个或多个控制命令。即,对于每100ms,规划模块305规划下一个路线段或路径段,例如,包括目标位置和ADV到达目标位置所需要的时间。可替代地,规划模块305还可规定具体的速度、方向和/或转向角等。在一个实施方式中,规划模块305为下一个预定时段(诸如,5秒)规划路线段或路径段。对于每个规划周期,规划模块305基于在前一周期中规划的目标位置规划用于当前周期(例如,下一个5秒)的目标位置。控制模块306然后基于当前周期的规划和控制数据生成一个或多个控制命令(例如,油门、制动、转向控制命令)。
应注意,决策模块304和规划模块305可集成为集成模块。决策模块304/规划模块305可包括导航系统或导航系统的功能,以确定自动驾驶车辆的驾驶路径。例如,导航系统可确定用于影响自动驾驶车辆沿着以下路径移动的一系列速度和前进方向:所述路径在使自动驾驶车辆沿着通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可根据经由用户接口系统113进行的用户输入来设定。导航系统可在自动驾驶车辆正在运行的同时动态地更新驾驶路径。导航系统可将来自GPS系统和一个或多个地图的数据合并,以确定用于自动驾驶车辆的驾驶路径。
决策模块304/规划模块305还可包括防撞系统或防撞系统的功能,以识别、评估并且避免或以其它方式越过自动驾驶车辆的环境中的潜在障碍物。例如,防撞系统可通过以下方式实现自动驾驶车辆的导航中的变化:操作控制系统111中的一个或多个子系统来采取变向操纵、转弯操纵、制动操纵等。防撞系统可基于周围的交通模式、道路状况等自动确定可行的障碍物回避操纵。防撞系统可被配置成使得当其它传感器系统检测到位于自动驾驶车辆将变向进入的相邻区域中的车辆、建筑障碍物等时不采取变向操纵。防撞系统可自动选择既可使用又使得自动驾驶车辆乘员的安全性最大化的操纵。防撞系统可选择预测使得自动驾驶车辆的乘客舱中出现最小量的加速度的避让操纵。
在一个实施方式中,安全模块308被配置成基于一组安全规则313来检测网络和欺骗攻击。安全模块308可以被实现为感知模块302的一部分,或者可以与感知模块302或其它模块通信。安全模块308可以检测自动驾驶车辆的目的地的变化或异常的重新安排路线活动,以确定是否存在网络攻击。安全模块308还可以检测对自动驾驶车辆的传感器系统115的欺骗,以防止欺骗攻击。在一个实施方式中,安全模块308可以将攻击通知决策模块304,以便自动驾驶车辆可以切换到故障安全操作。
应注意,如上文示出和描述的部件中的一些或全部可在软件、硬件或其组合中实施。例如,此类部件可实施为安装并存储在永久性存储装置中的软件,所述软件可通过处理器(未示出)加载在存储器中并在存储器中执行以实施贯穿本申请所述的过程或操作。可替代地,此类部件可实施为编程或嵌入到专用硬件(诸如,集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可经由来自应用的相应驱动程序和/或操作系统来访问。此外,此类部件可实施为处理器或处理器内核中的特定硬件逻辑,作为可由软件部件通过一个或多个特定指令访问的指令集的一部分。
图4是示出根据一个实施方式的用于自动驾驶的系统架构的框图。系统架构400可以表示如图3A和3B所示的自动驾驶系统的系统架构。参考图4,系统架构400包括但不限于应用层401、规划和控制(PNC)层402、感知层403、驾驶员层404、固件层405和硬件层406。应用层401可以包括与自动驾驶车辆的用户或乘客交互的用户界面或配置应用,例如,与用户接口系统113相关联的功能。PNC层402可以包括至少规划模块305和控制模块306的功能。感知层403可以包括至少感知模块302的功能。在一个实施方式中,存在包括预测模块303和/或决策模块304的功能的附加层。或者,这种功能可以包括在PNC层402和/或感知层403中。固件层405可以表示传感器系统115的至少功能,传感器系统115可以以现场可编程门阵列(FPGA)的形式实现。硬件层406可以表示诸如控制系统111的自动驾驶车辆的硬件。层401-403可以经由设备驾驶员层404与固件层405和硬件层406通信。
图5是示出根据一个实施方式的用来选择目标障碍物和图像地图的子地图、用于基于子图的特征来预测所选目标障碍物的轨迹的过程500的图。图像地图可以由感知模块302或预测模块303从自动驾驶车辆101的传感器系统115捕捉的数据生成,以识别每个所选障碍物周围的图像地图的子区域,以提取驾驶环境的语义地图特征。
在一个实施方式中,感知模块302可以生成显示自动驾驶车辆101环境中其他车辆或行人的当前位置、当前前进方向和过去轨迹的图像地图。例如,图像地图510显示十字路口附近的四辆车501、503、505和507。这些线显示了在十字路口相交的道路的车道以及进入十字路口的车辆可能走的路线。车辆的当前位置可用白色矩形表示,而白色矩形后面逐渐变暗的区域表示其过去的轨迹。车辆的当前前进方向可通过由车辆占用的车道表示。例如,显示车辆501从左侧进入十字路口,以便左转或掉头;显示车辆503从底部进入,以便左转;显示车辆505以从左到右的直行前进方向穿过十字路口;显示车辆507从右侧进入十字路口左转。
感知模块302可以选择车辆中的一个(被称为目标障碍物)来预测其轨迹。为了选择与所选目标相关的图像地图的子区域,感知模块302可以将图像地图旋转,以将目标障碍物定位和定向在参考前进方向中的参考位置。例如,可以选择车辆501作为目标障碍物。为了选择车辆501周围的图像地图的子区域,可以逆时针旋转图像地图510,使得车辆501位于旋转图像地图的中心底部附近的参考位置,并且如旋转图像地图520所示在朝北方向行进。旋转图像地图可以相对于目标障碍物进行裁剪,以减少从与目标障碍物相关的环境中提取的语义地图特征的数量。例如,旋转图像地图520可以被裁剪为由边界509定义以生成子地图530。子地图的大小可以足够大,以在预测间隔期间包络目标障碍物的预测轨迹。在一个实施方式中,预测间隔可以是3秒,子地图530可以是40m×40m正方形(400像素×400像素,像素间距为0.1m),其目标障碍物、车辆501的参考位置位于子地图530的x轴中点和y轴上方10m处。
从所示的子地图530的角度来看,作为目标车辆的车辆501在进入十字路口时位于左转车道向北行驶的参考位置;从东进入十字路口的车辆503也在左转车道上;车辆505在向北行驶通过十字路口;车辆507在左转穿过十字路口,向南行驶,方向与车辆501相反。CNN可以使用子地图530来提取和学习车辆501期望行驶通过的子地图530中的环境的语义地图特征,。车辆501的当前位置、前进方向和其他元数据(例如速度、转向角)可由LSTM模型使用以提取和学习车辆501的动态特征。感知模块302可以连续地选择图像地图510中的车辆501、503、505和507作为每个预测周期或规划周期的目标车辆,针对所选目标车辆旋转并裁剪图像地图,生成供NN模型使用的相应的子地图,来预测所选目标车辆通过子地图的驾驶环境的轨迹。在一个实施方式中,规划周期可以是0.1秒。
图6是示出根据一个实施方式的用于部署神经网络模型以使用所学习的环境语义地图特征和所学习的目标障碍物动态历史来预测目标障碍物的轨迹的过程600的图。自动驾驶车辆101的预测模块303可以将神经网络模型部署为在目标障碍物以及对应于图5的过程500提供的目标障碍物的子地图上操作以便执行过程600。
CNN模型601可以处理子地图530,其中车辆501是向北行驶的参考位置处的目标车辆,以学习车辆501在子地图530中可能遇到的语义地图特征,例如其他车辆、交通要素、道路特征等。CNN模型601可以生成输出向量CNN输出特征603以表示子地图530的语义地图特征。在一个实施方式中,CNN输出特征603可以是2048元素向量。
嵌入层607或全连接NN层可以处理目标车辆的障碍物特征605,例如车辆501的当前位置、前进方向和其他元数据(例如速度、转向角),以生成表示当前时间车辆501的特征的低维向量609。嵌入层607可以是包含LSTM模型613的RNN的一部分。在一个实施方式中,低维向量609可以是64元素向量。LSTM模型613可以处理来自低维向量609的当前时间的车辆501的特征的表示和来自先前时间的车辆501的特征的表示611,以学习车辆501的动态特征。在一个实施方式中,来自先前时间的车辆501的特征的表示611可以是LSTM模型613在最后一个预测周期或规划周期的状态,该预测周期或规划周期表示从当前时间之前发生的车辆501的过去轨迹学习到的车辆501的动态特征。在一个实施方式中,先前时间的车辆特征的表示611可以是128元素向量。LSTM 613的输出可以是高维向量615,其表示截至当前时间车辆501的动态特征。在一个实施方式中,高维向量615可以是128元素向量。
诸如MLP 617的全连接NN层可以处理车辆501由高维向量615表示的直到当前时间的动态特征,以及由CNN输出特征603表示的子地图530的语义地图特征,以预测车辆501在预测间隔的第一时间点的位置。在一个实施方式中,预测间隔可以是3秒,包括间隔0.1秒周期的30个时间点的预测位置。例如,MLP 617可以基于由高维向量615表示的直到当前时间(例如,时间0)的车辆501动态特征和由CNN输出特征603表示的子地图530的语义地图特征,生成车辆501在0.1s的第一预测时间点处的预测位置619。在一个实施方式中,车辆501在第一预测时间点的预测位置619可以包括预测位置、方向、速度、转向角和其他元数据。
为了生成车辆501在下一时间点的预测位置,可以通过嵌入层处理第一预测时间点的预测位置619,以生成表示车辆501在第一预测时间点的特征的低维向量。在一个实施方式中,第一预测时间点的嵌入层可以是用于生成表示在当前时间车辆501的特征的低维向量609的相同嵌入层607。LSTM模型613可以在第一预测时间点处处理表示车辆501的特征的低维向量,以更新LSTM模型613的状态,即表示直到当前时间车辆501的动态特征的高维向量615。来自LSTM 613的更新输出可以是高维向量621,其表示直到第一预测时间点的车辆501的动态特征。MLP 617可以处理由高维向量621表示的直到第一预测时间点的车辆501的动态特征和子地图530的语义地图特征,以生成车辆501在预测间隔的第二时间点的预测位置623。在一个实施方式中,子地图530的语义地图特征可以是由MLP 617使用以生成在第一预测时间点的预测位置619的相同CNN输出特征603。
为了生成预测间隔的其他预测时间点的车辆501的预测位置,可以重复过程600以通过嵌入层607处理最新的预测时间点以生成表示车辆501在最新预测时间点的特征的低维向量,通过LSTM模型613处理表示车辆501在最新预测时间点的特征的低维向量,以生成表示车辆501直到最新预测时间点的动态特征的高维向量,并对表示车辆501直到最新预测时间点的动态特征的高维向量和子地图530的语义地图特征进行处理,以生成车辆501在预测间隔的下一时间点的预测位置。相比使用基于规则的方法,结合提取和学习目标障碍物的动态特征的LSTM模型613,提取和学习目标障碍物周围环境的语义地图特征的CNN模型601,以及根据目标障碍物的动态特征和环境的语义地图特征来预测目标障碍物的位置的MLP 617,提供了更准确、高效、鲁棒的目标障碍物轨迹预测。
图7是示出根据一个实施方式的用来选择目标障碍物和图像地图的子地图、用于在所选子地图中预测所选目标障碍物的轨迹的方法700的示例的流程图。方法700可以通过处理逻辑来执行,处理逻辑可以包括软件、硬件或其组合。例如,方法700可由诸如感知模块302或预测模块303的自动驾驶车辆的感知和规划系统执行。
在操作701,方法700接收感测障碍物的图像地图。图像地图可以由感知模块302或预测模块303从自动驾驶车辆101的传感器系统115捕捉的数据生成,以识别每个所选障碍物周围的图像地图的子区域,从而提取驾驶环境的语义地图特征。在一个实施方式中,图像地图可以显示自动驾驶车辆101环境中其他车辆或行人的当前位置、当前前进方向和过去的轨迹。
在操作702,方法700从图像地图中选择目标障碍物。目标障碍物可以是要预测其轨迹的自动驾驶车辆101环境中的车辆之一。在一个实施方式中,方法700可以循环通过图像地图中的所有车辆,以选择车辆作为每个规划周期的目标车辆。
在操作703,方法700旋转图像地图以将目标障碍物定位并定向于参考前进方向中的参考位置。在一个实施方式中,参考位置可以在旋转地图图像的中心底部附近,并且参考前进方向可以是旋转地图图像内的偏北方向。在一个实施方式中,参考位置可以相对于将用于提取与目标障碍物相关的驾驶环境的语义地图特征的子地图来选择。
在操作704,方法700将旋转图像裁剪为相对于参考位置处的目标障碍物的所选大小,以生成子地图。使用子地图代替整个图像地图,减少了待提取用于预测目标障碍物轨迹的语义地图特征量。在一个实施方式中,子地图的大小可以大到足以在预测间隔期间包络目标障碍物的预测轨迹。例如,如果预测间隔是3秒,则子地图可以是40m×40m正方形(400像素×400像素,像素间距为0.1m),目标障碍物的参考位置位于子地图的x轴中点和y轴上10m处。CNN模型可以利用子图来提取和学习目标障碍物期望行驶通过的环境的语义图特征。LSTM模型可以利用目标障碍物的当前位置、前进方向和其他元数据(如速度、转角)来提取和学习目标障碍物的动态特征。
图8是示出根据一个实施方式的使用神经网络学习目标障碍物的动态历史和环境的语义地图特征以及使用所学习的目标障碍物和环境的信息来预测目标障碍物的轨迹的方法800的示例的流程图。方法800可以通过处理逻辑来执行,处理逻辑可以包括软件、硬件或其组合。例如,方法800可以由诸如预测模块303的自动驾驶车辆的感知和规划系统来执行。
在操作801,方法800接收包含目标障碍物的图像输入。目标障碍物和图像输入可以是由图7的方法700提供的所选车辆和围绕所选车辆的子地图。例如,图像输入可以包含在位于向北方向的图像输入前进方向中的参考位置处的目标障碍物。
在操作803,方法800使用CNN模型来处理图像输入,以学习目标障碍物在子地图中可能遇到的语义地图特征,如其他车辆、交通要素、道路特征等。CNN模型可以生成输出特征向量来表示子地图的语义地图特征。在一个实施方式中,输出特征向量可以是2048元素向量。在一个实施方式中,操作803可以使用其他类型的NN模型。
在操作805,方法800使用嵌入层来处理目标障碍物的障碍物特征,如目标障碍物的当前位置、前进方向和其他元数据(例如速度、转角),以生成表示当前时间目标障碍物特征的低维向量。在一个实施方式中,低维向量可以是64元素向量。在一个实施方式中,操作805可以使用其它类型的全连接NN层。
在操作807中,方法800使用LSTM模型来处理由低维向量捕捉的当前时间的目标障碍物的特征和先前时间的目标障碍物的动态特征,以更新目标障碍物的动态特征。LSTM模型的输出可以是表示目标障碍物在当前时间之前的学习动态特征的高维向量。在一个实施方式中,高维向量可以是128元素向量。在一个实施方式中,来自先前时间的目标障碍物的动态特征可以是最后预测周期或规划周期之后的LSTM模型的状态,在此期间,LSTM模型可以基于目标障碍物直到最后规划周期发生的过去轨迹来学习目标障碍物的动态特征。因此,来自之前时间的目标障碍物的动态特征也可以是128元素向量。
在操作809,方法800使用全连接NN层(如MLP)来处理由LSTM模型的高维向量表示的直到当前时间的目标障碍物的动态特征,以及由CNN模型的输出特征向量表示的子地图的语义地图特征,以预测目标障碍物在预测间隔的第一时间点的位置。在一个实施方式中,预测间隔可以是3秒,包括30个时间点的预测位置,使得第一时间点在当前时间的0.1秒处。在一个实施方式中,目标障碍物在第一预测时间点的预测位置还可以包括预测的方向、速度、转向角和其他元数据。
在操作811,方法800确定是否生成了预测间隔的所有时间点的目标障碍物的预测位置。如果已经生成了目标障碍物的预测间隔的所有预测位置,则方法800选择下一目标障碍物和在操作813处输入的相应图像。重复处理800以预测预测间隔的所有时间点的下一目标障碍物的位置,直到已生成原始图像地图中每个障碍物的预测间隔的所有预测位置为止。
在操作815,如果尚未生成目标障碍物的预测间隔的所有预测位置,则方法800使用嵌入层来处理目标障碍物对于最新预测的位置的障碍物特征,以生成表示在预测间隔的最新时间点的目标障碍物特征的低维向量。在一个实施方式中,操作815处的嵌入层可以与操作805处用于生成表示当前时间目标障碍物的特征的低维向量的嵌入层相同。
方法800返回操作807,迭代LSTM模型,以处理目标障碍物在低维向量捕捉的预测间隔的最新时间点处的特征,以更新LSTM模型的状态。在一个实施方式中,由LSTM模型处理以基于在预测间隔的最近时间点处的目标障碍物的特征来更新LSTM模型的状态的前一时间的目标障碍物的动态特征可以是预测间隔的前一时间点之后的LSTM模型的状态。LSTM模型的更新状态可以是一个更新的高维向量,它表示到预测间隔的最新时间点为止的目标车辆的学习动态特征。方法800在操作809处迭代MLP,以处理由LSTM模型中更新的高维向量表示的当前时间内的目标障碍物的动态特征和CNN模型中的子地图的语义特征,以预测目标障碍物在预测的下一时间点的位置间隔。在一个实施方式中,MLP可以使用来自CNN的子映射的相同语义地图特征来生成预测间隔的所有时间点的预测位置。可以重复操作807、809和815,直到生成预测间隔的所有时间点的目标障碍物的预测位置为止。方法800可在每个规划周期中执行。在一个实施方式中,规划周期为0.1秒。
数据处理系统可以执行上述任何处理或方法,例如,子地图生成和目标障碍物选择方法,或目标障碍物轨迹预测方法。系统可包括许多不同的部件。这些部件可实施为集成电路(IC)、集成电路的部分、分立电子装置或适用于电路板(诸如,计算机系统的主板或插入卡)的其它模块或者实施为以其它方式并入计算机系统的机架内的部件。
数据处理系统可包括通过总线连接的一个或多个处理器、一个或多个存储器以及装置。处理器可表示一个或多个通用处理器,诸如,微处理器、中央处理单元(CPU)等。更具体地,处理器可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实施其它指令集的处理器、或实施指令集组合的处理器。处理器1501还可以是一个或多个专用处理器,诸如,专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协处理器、嵌入式处理器、或者能够处理指令的任何其它类型的逻辑。处理器可以被配置成执行存储在存储器中的指令以用于执行本文所讨论的操作和步骤。
本文所述的处理模块/单元/逻辑、部件以及其它特征可实施为分立硬件部件或集成在硬件部件(诸如,ASICS、FPGA、DSP或类似装置)的功能中。此外,处理模块/单元/逻辑可实施为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑可以以硬件装置和软件部件的任何组合来实施。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其它方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机系统或类似电子计算装置的动作和处理,所述计算机系统或电子计算装置操控计算机系统的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机系统存储器或寄存器或者其它此类信息存储装置、传输或显示装置内类似地表示为物理量的其它数据。
本公开的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可按不同的顺序执行。此外,一些操作可并行地执行而不是顺序地执行。
本公开的实施方式并未参考任何特定的编程语言进行描述。应认识到,可使用多种编程语言来实施如本文描述的本公开的实施方式的教导。
在以上的说明书中,已经参考本公开的具体示例性实施方式对本公开的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本公开的更宽泛精神和范围的情况下,可对本发明作出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。

Claims (20)

1.一种用于预测由自动驾驶车辆检测的目标障碍物的轨迹的计算机实施的方法,所述方法包括:
响应于所述目标障碍物周围的驾驶环境的图像,通过第一神经网络对所述图像进行处理以学习所述图像的语义地图特征;
将所述目标障碍物的特征嵌入到低维向量中;
通过第二神经网络处理所述目标障碍物的所述低维向量和最新动态特征,以学习所述目标障碍物的更新动态特征;
通过第三神经网络对所述目标障碍物的所述更新动态特征和所述图像的所述语义地图特征进行处理,生成所述目标障碍物的下一预测位置,所述下一预测位置包括预测特征;以及
重复嵌入所述下一预测位置的所述预测特征,通过所述第二神经网络处理并通过所述第三神经网络处理,直到生成预测间隔的所有预测位置。
2.根据权利要求1所述的方法,其中,在所述图像中所述目标障碍物的特征包括所述目标障碍物的位置、前进方向、速度或转向角中的一个或多个。
3.根据权利要求1所述的方法,其中,所述图像的所述语义地图特征包括所述图像中的车辆、交通要素或道路特征中的一个或多个。
4.根据权利要求1所述的方法,其中,通过所述第二神经网络处理以学习用于生成所述预测间隔的第一预测位置的所述目标障碍物的更新动态特征的所述目标障碍物的所述最新动态特征包括从多个规划周期中的先前规划周期学习的所述目标障碍物的动态特征。
5.根据权利要求4所述的方法,其中,所述预测间隔的所有预测位置被生成以对应于所述多个规划周期中的每一个的预测间隔期间的多个周期时间点。
6.根据权利要求1所述的方法,其中,通过所述第二神经网络处理以学习用于生成所述预测间隔的第二或后续预测位置的所述目标障碍物的更新动态特征的所述目标障碍物的所述最新动态特征包括从所述预测间隔的先前预测位置学习的所述目标障碍物的动态特征。
7.根据权利要求1所述的方法,其中,所述第一神经网络包括卷积神经网络模型,所述第二神经网络包括长短期记忆模型,所述第三神经网络包括多层感知器。
8.根据权利要求1所述的方法,其中,接收包含所述目标障碍物的图像包括:
接收由所述自动驾驶车辆检测的用于规划周期的一个或多个感测障碍物的图像地图;
从所述一个或多个感测障碍物中选择所述目标障碍物;
旋转所述图像地图以将所述目标障碍物定位在旋转图像地图的参考前进方向中的参考点处;以及
在所述参考前进方向中的所述参考点处相对于所述目标障碍物裁剪所述旋转图像地图以生成所述图像。
9.根据权利要求8所述的方法,还包括:
在所述规划周期期间选择所述一个或多个感测障碍物中的每一个作为所述目标障碍物。
10.一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时致使所述处理器执行用于预测由自动驾驶车辆检测的目标障碍物的轨迹的操作,所述操作包括:
响应于所述目标障碍物周围的驾驶环境的图像,通过第一神经网络对所述图像进行处理以学习所述图像的语义地图特征;
将所述目标障碍物的特征嵌入到低维向量中;
通过第二神经网络处理所述目标障碍物的所述低维向量和最新动态特征,以学习所述目标障碍物的更新动态特征;
通过第三神经网络对所述目标障碍物的所述更新动态特征和所述图像的所述语义地图特征进行处理,生成所述目标障碍物的下一预测位置,所述下一预测位置包括预测特征;以及
重复嵌入所述下一预测位置的所述预测特征,通过所述第二神经网络处理并通过所述第三神经网络处理,直到生成预测间隔的所有预测位置。
11.根据权利要求10所述的非暂时性机器可读介质,其中,在所述图像中所述目标障碍物的特征包括所述目标障碍物的位置、前进方向、速度或转向角中的一个或多个。
12.根据权利要求10所述的非暂时性机器可读介质,其中,所述图像的所述语义地图特征包括所述图像中的车辆、交通要素或道路特征中的一个或多个。
13.根据权利要求10所述的非暂时性机器可读介质,其中,通过所述第二神经网络处理以学习用于生成所述预测间隔的第一预测位置的所述目标障碍物的更新动态特征的所述目标障碍物的所述最新动态特征包括从多个规划周期中的先前规划周期学习的所述目标障碍物的动态特征。
14.根据权利要求10所述的非暂时性机器可读介质,其中,通过所述第二神经网络处理以学习用于生成所述预测间隔的第二或后续预测位置的所述目标障碍物的更新动态特征的所述目标障碍物的所述最新动态特征包括从所述预测间隔的先前预测位置学习的所述目标障碍物的动态特征。
15.根据权利要求10所述的非暂时性机器可读介质,其中,所述第一神经网络包括卷积神经网络模型,所述第二神经网络包括长短期记忆模型,所述第三神经网络包括多层感知器。
16.根据权利要求10所述的非暂时性机器可读介质,其中,所述操作还包括:
接收由所述自动驾驶车辆检测的用于规划周期的一个或多个感测障碍物的图像地图;
从所述一个或多个感测障碍物中选择所述目标障碍物;
旋转所述图像地图以将所述目标障碍物定位在旋转图像地图的参考前进方向中的参考点处;以及
在所述参考前进方向中的所述参考点处相对于所述目标障碍物裁剪所述旋转图像地图以生成所述图像。
17.一种数据处理系统,包括:
处理器;以及
存储器,所述存储器联接至所述处理器,以存储指令,所述指令在由所述处理器执行时致使所述处理器执行预测由自动驾驶车辆检测的目标障碍物的轨迹的操作,所述操作包括:
响应于所述目标障碍物周围的驾驶环境的图像,通过第一神经网络对所述图像进行处理以学习所述图像的语义地图特征;
将所述目标障碍物的特征嵌入到低维向量中;
通过第二神经网络处理所述目标障碍物的所述低维向量和最新动态特征,以学习所述目标障碍物的更新动态特征;
通过第三神经网络对所述目标障碍物的所述更新动态特征和所述图像的所述语义地图特征进行处理,生成所述目标障碍物的下一预测位置,所述下一预测位置包括预测特征;以及
重复嵌入所述下一预测位置的所述预测特征,通过所述第二神经网络处理并通过所述第三神经网络处理,直到生成预测间隔的所有预测位置。
18.根据权利要求17所述的数据处理系统,其中,通过所述第二神经网络处理以学习用于生成所述预测间隔的第一预测位置的所述目标障碍物的更新动态特征的所述目标障碍物的所述最新动态特征包括从多个规划周期中的先前规划周期学习的所述目标障碍物的动态特征。
19.根据权利要求17所述的数据处理系统,其中,所述第一神经网络包括卷积神经网络模型,所述第二神经网络包括长短期记忆模型,所述第三神经网络包括多层感知器。
20.根据权利要求17所述的数据处理系统,其中,所述操作还包括:
接收由所述自动驾驶车辆检测的用于规划周期的一个或多个感测障碍物的图像地图;
从所述一个或多个感测障碍物中选择所述目标障碍物;
旋转所述图像地图以将所述目标障碍物定位在旋转图像地图的参考前进方向中的参考点处;以及
在所述参考前进方向中的所述参考点处相对于所述目标障碍物裁剪所述旋转图像地图以生成所述图像。
CN202010472673.2A 2019-12-31 2020-05-29 具有语义地图和lstm的车辆轨迹预测模型 Active CN113128326B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/732,125 US11127142B2 (en) 2019-12-31 2019-12-31 Vehicle trajectory prediction model with semantic map and LSTM
US16/732,125 2019-12-31

Publications (2)

Publication Number Publication Date
CN113128326A true CN113128326A (zh) 2021-07-16
CN113128326B CN113128326B (zh) 2024-04-09

Family

ID=76546490

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010472673.2A Active CN113128326B (zh) 2019-12-31 2020-05-29 具有语义地图和lstm的车辆轨迹预测模型

Country Status (2)

Country Link
US (1) US11127142B2 (zh)
CN (1) CN113128326B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113932794A (zh) * 2021-10-13 2022-01-14 广州小鹏自动驾驶科技有限公司 一种语义地图的更新方法和装置
CN116578088A (zh) * 2023-05-04 2023-08-11 浙江大学 室外自主移动机器人连续轨迹生成方法、系统、介质及设备
WO2023202485A1 (zh) * 2022-04-22 2023-10-26 武汉路特斯汽车有限公司 一种自动驾驶系统中的轨迹预测方法及系统

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110096933B (zh) * 2018-01-30 2023-07-18 华为技术有限公司 目标检测的方法、装置及系统
DE102019209736A1 (de) * 2019-07-03 2021-01-07 Robert Bosch Gmbh Verfahren zur Bewertung möglicher Trajektorien
RU2750243C2 (ru) * 2019-12-24 2021-06-24 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способ и система для формирования траектории для беспилотного автомобиля (sdc)
US12001958B2 (en) * 2020-03-19 2024-06-04 Nvidia Corporation Future trajectory predictions in multi-actor environments for autonomous machine
KR102525191B1 (ko) * 2020-08-07 2023-04-26 한국전자통신연구원 자율주행 차량에서의 주행 경로 생성 및 제어 시스템 및 방법
KR20220039903A (ko) * 2020-09-21 2022-03-30 현대자동차주식회사 자율주행 제어 장치 및 방법
US20230067822A1 (en) * 2021-09-01 2023-03-02 Baidu Usa Llc E2e learning-based evaluator for an autonomous driving vehicle
TWI796846B (zh) * 2021-11-23 2023-03-21 財團法人工業技術研究院 基於物件互動關係之路徑預測方法及電子裝置
CN114200937B (zh) * 2021-12-10 2023-07-14 新疆工程学院 一种基于gps定位和5g技术的无人驾驶控制方法
CN114312831B (zh) * 2021-12-16 2023-10-03 浙江零跑科技股份有限公司 一种基于空间注意力机制的车辆轨迹预测方法
CN114518762B (zh) * 2022-04-20 2022-07-22 长沙小钴科技有限公司 机器人避障装置、避障控制方法和机器人
CN114862001B (zh) * 2022-04-27 2023-06-02 哈尔滨工业大学 一种基于区域功能增强特征的城市人群流量预测方法及系统
CN115329024B (zh) * 2022-08-18 2023-09-26 北京百度网讯科技有限公司 一种地图数据更新方法、装置、电子设备及存储介质
CN115905434B (zh) * 2022-10-26 2023-10-13 南京航空航天大学 一种基于学习插值预测的道路网轨迹补全方法
CN115781693B (zh) * 2023-01-09 2023-05-26 广东隆崎机器人有限公司 工业机器人的避障方法、装置、工业机器人及存储介质
CN116309689B (zh) * 2023-05-17 2023-07-28 上海木蚁机器人科技有限公司 障碍物轨迹预测方法、装置、设备和介质
CN117475090B (zh) * 2023-12-27 2024-06-11 粤港澳大湾区数字经济研究院(福田) 一种轨迹生成模型、轨迹生成方法、装置、终端及介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017079229A1 (en) * 2015-11-04 2017-05-11 Zoox, Inc. Simulation system and methods for autonomous vehicles
CN108292134A (zh) * 2015-11-04 2018-07-17 祖克斯有限公司 用于优化远程操作和/或规划器决策的机器学习系统和技术
CN108986453A (zh) * 2018-06-15 2018-12-11 华南师范大学 一种基于情境信息的交通状况预测方法、系统及装置
CN109583151A (zh) * 2019-02-20 2019-04-05 百度在线网络技术(北京)有限公司 车辆的行驶轨迹预测方法及装置
CN109927719A (zh) * 2017-12-15 2019-06-25 百度在线网络技术(北京)有限公司 一种基于障碍物轨迹预测的辅助驾驶方法和系统
CN110032181A (zh) * 2019-02-26 2019-07-19 文远知行有限公司 语义地图中障碍物定位方法、装置、计算机设备和存储介质
CN110047276A (zh) * 2019-03-11 2019-07-23 广州文远知行科技有限公司 障碍物车辆的拥堵状态确定方法、装置和相关产品
CN110362083A (zh) * 2019-07-17 2019-10-22 北京理工大学 一种基于多目标跟踪预测的时空地图下自主导航方法
DE102019112038A1 (de) * 2018-05-24 2019-11-28 GM Global Technology Operations LLC Steuerungssysteme, steuerungsverfahren und steuerungen für ein autonomes fahrzeug
CN110618678A (zh) * 2018-06-19 2019-12-27 辉达公司 自主机器应用中的行为引导路径规划

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11644834B2 (en) * 2017-11-10 2023-05-09 Nvidia Corporation Systems and methods for safe and reliable autonomous vehicles
CN110147706B (zh) * 2018-10-24 2022-04-12 腾讯科技(深圳)有限公司 障碍物的识别方法和装置、存储介质、电子装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017079229A1 (en) * 2015-11-04 2017-05-11 Zoox, Inc. Simulation system and methods for autonomous vehicles
CN108292134A (zh) * 2015-11-04 2018-07-17 祖克斯有限公司 用于优化远程操作和/或规划器决策的机器学习系统和技术
CN109927719A (zh) * 2017-12-15 2019-06-25 百度在线网络技术(北京)有限公司 一种基于障碍物轨迹预测的辅助驾驶方法和系统
DE102019112038A1 (de) * 2018-05-24 2019-11-28 GM Global Technology Operations LLC Steuerungssysteme, steuerungsverfahren und steuerungen für ein autonomes fahrzeug
CN108986453A (zh) * 2018-06-15 2018-12-11 华南师范大学 一种基于情境信息的交通状况预测方法、系统及装置
CN110618678A (zh) * 2018-06-19 2019-12-27 辉达公司 自主机器应用中的行为引导路径规划
CN109583151A (zh) * 2019-02-20 2019-04-05 百度在线网络技术(北京)有限公司 车辆的行驶轨迹预测方法及装置
CN110032181A (zh) * 2019-02-26 2019-07-19 文远知行有限公司 语义地图中障碍物定位方法、装置、计算机设备和存储介质
CN110047276A (zh) * 2019-03-11 2019-07-23 广州文远知行科技有限公司 障碍物车辆的拥堵状态确定方法、装置和相关产品
CN110362083A (zh) * 2019-07-17 2019-10-22 北京理工大学 一种基于多目标跟踪预测的时空地图下自主导航方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113932794A (zh) * 2021-10-13 2022-01-14 广州小鹏自动驾驶科技有限公司 一种语义地图的更新方法和装置
WO2023202485A1 (zh) * 2022-04-22 2023-10-26 武汉路特斯汽车有限公司 一种自动驾驶系统中的轨迹预测方法及系统
CN116578088A (zh) * 2023-05-04 2023-08-11 浙江大学 室外自主移动机器人连续轨迹生成方法、系统、介质及设备
CN116578088B (zh) * 2023-05-04 2024-02-09 浙江大学 室外自主移动机器人连续轨迹生成方法及系统

Also Published As

Publication number Publication date
US11127142B2 (en) 2021-09-21
US20210201504A1 (en) 2021-07-01
CN113128326B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
CN113128326B (zh) 具有语义地图和lstm的车辆轨迹预测模型
CN110641472B (zh) 基于神经网络的用于自主车辆的安全监控系统
US11815891B2 (en) End dynamics and constraints relaxation algorithm on optimizing an open space trajectory
US11372417B2 (en) Method for predicting exiting intersection of moving obstacles for autonomous driving vehicles
US20210300427A1 (en) Group and combine obstacles for autonomous driving vehicles
CN113496189B (zh) 基于静态障碍物地图的感知方法及系统
CN111857118A (zh) 对停车轨迹分段以控制自动驾驶车辆停车
CN112977472A (zh) 预测车辆的移动轨迹的方法及系统
CN113129624A (zh) 交通堵塞情况下的最快车道确定算法
CN112825127A (zh) 生成用于自动驾驶标记的紧密2d边界框的新方法
CN113442945A (zh) 用于自动驾驶车辆的使用反馈的增量式侧向控制系统
CN113748059A (zh) 离线和在线解决方案相结合的停车轨迹生成方法
CN112230646A (zh) 设计用于单车运行的自动驾驶系统下的车辆队列实施
CN113247017B (zh) 用于确保自动驾驶车辆的稳定绕行的双缓冲系统
US11661085B2 (en) Locked pedestrian detection and prediction for autonomous vehicles
CN113075924B (zh) 自动驾驶车辆停放场景设计
US20210284195A1 (en) Obstacle prediction system for autonomous driving vehicles
CN112829770A (zh) 基于车道边界和车辆速度的绕行决策
US11663913B2 (en) Neural network with lane aggregation for lane selection prediction of moving objects during autonomous driving
EP4147936B1 (en) Drive with caution under uncertainty for an autonomous driving vehicle
US20210188257A1 (en) Post collision, damage reduction brake system
US20240025445A1 (en) Safety enhanced planning system with anomaly detection for autonomous vehicles
US11288528B2 (en) Differentiation-based traffic light detection
US20220223170A1 (en) Sound source detection and localization for autonomous driving vehicle
US20210370941A1 (en) Precautionary slowdown speed planning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant