CN112937603A - 用于预测目标车辆的位置的系统和方法 - Google Patents

用于预测目标车辆的位置的系统和方法 Download PDF

Info

Publication number
CN112937603A
CN112937603A CN202011451903.3A CN202011451903A CN112937603A CN 112937603 A CN112937603 A CN 112937603A CN 202011451903 A CN202011451903 A CN 202011451903A CN 112937603 A CN112937603 A CN 112937603A
Authority
CN
China
Prior art keywords
lane
target vehicle
trajectory
determining
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011451903.3A
Other languages
English (en)
Inventor
孙林
罗晨旭
戴瑞奇·达比里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN112937603A publication Critical patent/CN112937603A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)

Abstract

公开了用于预测目标车辆的位置的系统和方法。处理器接收目标车辆的轨迹信息,并且基于轨迹信息确定轨迹特征。处理器还确定目标车辆的阈值附近区域内的车道的车道特征,并且基于轨迹特征和车道特征确定与车道相关的概率。基于所述概率确认车辆可进入的车道。处理器还可生成目标车辆与其它车辆之间的交互的交互特征。处理器基于车道特征和轨迹特征来预测目标车辆在即将到来的时间段的位置。在一些实施例中,交互特征也用于预测。

Description

用于预测目标车辆的位置的系统和方法
本申请要求于2019年12月10日提交的名称为“用于控制自主车辆的系统和方法(SYSTEM AND METHOD FOR CONTROLLING AUTONOMOUS VEHICLE)”的第62/946,284号美国临时申请和于2020年11月20日提交的第17/100,777号美国专利申请的优先权和权益,这些申请的全部内容通过引用包含于此。
技术领域
根据本公开的实施例的一个或多个方面涉及自主车辆,更具体地,涉及预测自主车辆的未来轨迹。
背景技术
自动驾驶车辆(自主车辆)从事各种任务,以在当前环境下安全地进行自我操纵。这样的任务之一是预测其未来轨迹以及周围车辆的轨迹。然而,由于未来的内在不确定性以及由车辆导航的环境的复杂性,轨迹预测通常可具有挑战性。由于驾驶员的意图通常确定轨迹,并且该意图可能被难以估计,因此轨迹预测也可具有挑战性。因此,期望具有一种处理自主车辆的轨迹预测的挑战性任务的系统和方法。
在本背景技术部分中公开的以上信息仅用于增强本公开的背景的理解,因此可包含不形成现有技术的信息。
发明内容
本公开的实施例针对一种用于预测目标车辆的位置的方法。处理器接收目标车辆的轨迹信息,并且基于轨迹信息确定轨迹特征。处理器还确定目标车辆的阈值附近区域内的车道的车道特征,并且基于轨迹特征和车道特征确定与车道相关的概率。基于所述概率确认车道。处理器基于车道特征和轨迹特征来预测目标车辆在即将到来的时间段的位置。
根据一个实施例,轨迹信息包括目标车辆的位置历史和速度历史。
根据一个实施例,确定轨迹特征的步骤包括:将位置历史编码成第一向量;将速度历史编码成第二向量;和联结第一向量和第二向量。
根据一个实施例,车道的信息包括从车道的中心采样的有序点的集合。
根据一个实施例,阈值附近区域包括距目标车辆的阈值半径。
根据一个实施例,确定车道特征的步骤包括:调用用于提取车道的一个或多个特征并将所述一个或多个特征存储在向量中的神经网络。
根据一个实施例,提取车道的所述一个或多个特征的步骤经由卷积神经网络。
根据一个实施例,确定与车道相关的概率的步骤包括:确定目标车辆将进入车道的概率。
根据一个实施例,处理器还接收第二车辆的第二轨迹信息;基于第二轨迹信息确定第二轨迹特征;并且基于轨迹特征和第二轨迹特征确定交互特征。可通过处理器基于车道特征、轨迹特征和交互特征来预测目标车辆的未来位置。
根据一个实施例,处理器还确定目标车辆的阈值附近区域内的第二车道的第二车道特征;并且基于轨迹特征和第二车道特征确定与第二车道相关的第二概率。通过处理器进行的预测可包括基于第二车道特征和轨迹特征来预测目标车辆在即将到来的时间段的第二位置。
本公开的实施例还针对一种用于预测目标车辆的位置的系统。所述系统包括:处理器和存储器。存储器存储指令,所述指令在被执行时使处理器:接收目标车辆的轨迹信息;基于轨迹信息确定轨迹特征;确定目标车辆的阈值附近区域内的车道的车道特征;基于轨迹特征和车道特征确定与车道相关的概率;基于所述概率确认车道;和基于车道特征和轨迹特征来预测目标车辆在即将到来的时间段的位置。
当考虑关于下面的具体实施方式、所附权利要求和附图时,将更全面地理解本公开的实施例的这些和其它特征、方面和优点。当然,发明的实际范围由所附权利要求限定。
附图说明
参照下面的附图描述本实施例的非限制性实施例和非详尽性实施例,其中,除非另有说明,否则贯穿各个视图,相同的参考标号表示相同的部分。
图1是根据一个实施例的用于控制目标自主车辆的导航的系统的框图;
图2是根据一个实施例的在目标车辆中运行的预测模块的概念布局图;
图3是根据一个实施例的局部地图的概念布局图;
图4是根据一个实施例的车道关注模块的概念布局图;以及
图5是根据一个实施例的用于预测目标车辆的位置的处理的流程图。
具体实施方式
在下文中,将参照附图更详细地描述示例实施例,其中,相同的参考标号始终表示相同的元件。然而,本公开可以以各种不同的形式来实现,并且不应被解释为仅限于在此示出的实施例。相反地,提供这些实施例作为示例,使得本公开将是彻底的和完整的,并且将本公开的方面和特征充分传达给本领域技术人员。因此,可不描述对于本领域普通技术人员完全理解本公开的方面和特征不是必须的处理、元件和技术。除非另外说明,否则贯穿附图和书面描述,相同的参考标记表示相同的元件,因此,它们的描述可不被重复。此外,在附图中,为了清楚,可夸大和/或简化元件、层和区域的相对尺寸。
轨迹预测(包括预测对象的未来位置)是由自主车辆执行的各种任务中的一个。对于自主驾驶,车辆的轨迹可受到车道几何形状的影响。例如,当驾驶时,驾驶员通常基于自己的意图或目标来关注一条或多条行车线。驾驶员通常将遵循当前车道或者朝向意图车道驾驶。因此,期望考虑围绕目标车辆的行车线,以便预测车辆的未来移动。
一般而言,本公开的实施例针对用于基于车辆的局部附近的行车线来预测目标车辆的未来轨迹的系统和方法。车道信息可用于预测车辆可能移动到的一个或多个目标车道。然后,可基于预测的目标车道做出一个或多个轨迹预测以及相关的概率。
在一个实施例中,目标车辆的局部附近的车道由有序点的集合表示。经由有序点的集合表示车道的优点在于,它可比栅格地图具有高的存储器效率。另外,局部地图可提供可比目标车辆的全局栅格地图准确的局部信息。在一个实施例中,车道编码器提取用于车道表示的固定长度向量。车道表示信息可被提供给车道关注模块,以用于预测目标车辆将进入车道的概率。对于自主驾驶,考虑到车辆的当前观察和驾驶员的意图的不确定性,可存在目标车辆可能进入的多个车道。在一个实施例中,各个车道中的每个的概率可用于考虑目标车辆的不同的似乎合理的轨迹。
图1是根据一个实施例的用于控制目标自主车辆100的导航的系统的框图。自主车辆100可以是陆地交通工具(例如,汽车)、空中交通工具(例如,飞机)等(例如,水上交通工具)。本公开的实施例还可应用在除了控制自主车辆的导航之外的环境中。例如,本公开的实施例可扩展到增强现实应用、驾驶员/飞行员辅助应用、地图应用和/或可期望轨迹预测的其它应用。
自主车辆100可包括一个或多个传感器102、计算系统104以及一个或多个车辆控制装置106。一个或多个传感器102可包括光检测和测距(LiDAR)系统、无线电检测和测距(RADAR)系统、一个或多个相机、地理定位系统等。传感器可被配置为提供自主车辆附近的对象的信息。对象可以是交通信号灯、其它车辆、行人等。
计算系统104可包括一个或多个处理器以及存储器。存储器可存储指令,当该指令被一个或多个处理器执行时使一个或多个处理器执行在此描述的各种操作。在一个实施例中,该指令使一个或多个处理器估计自主车辆的未来位置/轨迹,并且相应地控制自主车辆。
在一个实施例中,车辆计算系统104包括但不限于感知模块108、预测模块110、运动规划模块111和控制模块112。尽管假设各种模块108至112是单独的功能单元,但是本领域技术人员将认识到,在不脱离发明构思的精神和范围的情况下,模块的功能可被组合或集成到单个模块中,或者进一步被细分为更多的子模块。
在一个实施例中,感知模块108被配置为基于来自一个或多个传感器102的传感器数据以及关于周围环境的地图数据来确认一个或多个对象。地图数据可包括在自主车辆的阈值附近区域内的车道的局部地图数据。感知模块108可使用传感器数据和地图数据来确认自主车辆附近的对象的当前状态。当前状态信息可包括例如自主车辆邻近的移动对象的轨迹,以及对象的分类(如车辆、行人等)。
预测模块110可包括一个或多个神经网络(诸如,以一个或多个卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆(LSTM)循环神经网络和/或门控循环单元(GRU)等为例)。采用的神经网络可包括不同数量的层以及神经网络的每层内的不同数量的节点。除了别的之外,一个或多个神经网络可被训练,以提取用于输入到网络的相关特征、生成自主车辆可能喜欢进入的一个或多个车道的预测和/或预测自主车辆的一个或多个未来轨迹。预测模块110的输出可以是例如自主车辆的预测的未来轨迹以及相关的概率值。
在一个实施例中,来自预测模块110的预测的未来轨迹被提供给运动规划模块111。在一个实施例中,运动规划模块111可被配置为基于预测的未来轨迹和相关的概率值来确定自主车辆100的运动规划。在这方面,运动规划模块111可以以安全的方式生成遵循预测的未来轨迹之一的运动规划。
在一个实施例中,控制模块112生成命令并将命令提供给车辆控制装置106,以根据运动规划模块111的运动规划来控制自主车辆100。一个或多个车辆控制装置106可包括但不限于致动器或控制气体流动、加速、转向和/或制动等的其它装置。基于来自控制模块112的命令,车辆控制装置106可使自主车辆100移动、停止或采取另外的期望动作。
在一个实施例中,计算系统104通过数据通信网络116结合到训练系统114。数据通信网络可以是局域网、专用广域网(WAN)和/或公共广域网(诸如,以因特网为例)。在一些实施例中,通信网络可包括无线载波网络,无线载波网络包括码分多址(CDMA)网络、全球移动通信系统(GSM)网络或本领域常规的任何无线网络/技术(包括但不限于3G、4G、5G、LTE等)。
训练系统114可包括一个或多个处理器以及存储器。存储器可存储指令,当该指令被一个或多个处理器执行时使一个或多个处理器训练一个或多个神经网络以预测目标车辆的未来轨迹。在这方面,训练系统114可包括训练模块118,训练模块118用于使用一个或多个训练算法或学习算法来训练一个或多个神经网络。一个示例训练技术是误差的反向传播。
在一个实施例中,训练模块118采用监督学习技术来使用训练数据训练一个或多个神经网络。训练数据可包括例如地面真值数据。地面真值数据可以是例如地面真值车道和地面真值轨迹。在一个实施例中,训练一个或多个神经网络包括将地面真值数据的部分提供给一个或多个神经网络以进行预测。例如,一个或多个神经网络可输出预测的车道意图分类和/或预测的轨迹等。预测结果可由训练模块118使用以应用或计算损失函数,损失函数将预测与神经网络尝试预测的地面真值数据进行比较。训练模块118可被配置为通过一个或多个神经网络反向传播损失函数以通过修改例如与一个或多个神经网络相关的一个或多个权重来训练一个或多个神经网络。
输入地面真值数据、确定损失函数和反向传播损失函数的处理可用不同的训练数据被重复多次,直到收敛被实现,此时一个或多个神经网络可被认为已被训练。
图2是根据一个实施例的在目标车辆100中运行的预测模块的概念布局图。在一个实施例中,目标车辆100的一个或多个传感器102捕获并提供邻近对象的传感器数据。邻近对象可以是例如目标车辆100附近的其它车辆200a至200c(统称为200)。目标车辆100和邻近车辆200也可被称为代理(agent)。
在一个实施例中,安装在目标车辆100中的一个或多个传感器102捕获邻近车辆200的速度信息和位置信息以及目标车辆100的速度信息和位置信息。位置信息和速度信息可在多个时间步长上被捕获,并且由感知模块108使用以确定目标车辆100和邻近车辆200的轨迹202。
在一个实施例中,感知模块108还被配置为获得局部地图,局部地图包括目标车辆100的阈值附近区域/距离206内的车道的中心的有序车道点(例如,地理x、y坐标(或称为采样车道坐标))的集合204。阈值附近区域可包括例如通过使用目标车辆100作为中心的半径测量的区域。可基于由一个或多个传感器102感测的车道线生成局部地图。还可通过定位目标车辆的位置、然后从存储在存储装置中的预先收集的地图获取阈值附近区域区域内的车道来得到局部地图。
在一个实施例中,预测模块110包括轨迹编码器208、车道编码器210、车道关注模块212、交互网络模块214和解码器模块216。尽管假设预测模块110的各种组件208至216是单独的功能单元,但是本领域技术人员将认识到,在不脱离发明构思的精神和范围的情况下,模块的功能可被组合或集成到单个模块中,或者进一步被细分为更多的子模块。
轨迹编码器208可包括被训练为提取并对目标车辆100和邻近车辆200的轨迹的特征进行编码的一个或多个神经网络(例如,LSTM、GRU等)。在一个实施例中,轨迹信息可包括目标车辆的位置历史和速度历史。在一个实施例中,轨迹编码器208包括用于将代理的位置历史编码成第一向量的第一神经网络,以及用于将代理的速度历史编码成第二向量的第二神经网络。然后,两个提取的特征(例如,第一向量和第二向量)可被联结以形成代理的运动/轨迹特征向量fTRi,如下:
Figure BDA0002827375570000071
其中,Xi和Vi分别是第i代理的位置和速度的序列,g1和g2是用于位置和速度的LSTM模块,||是联结。
车道编码器210可包括被训练为提取并对目标车辆100的阈值附近区域206内的车道路段的特征进行编码的一个或多个神经网络。在一个实施例中,车道编码器210包括具有一个或多个卷积层(例如,两个1维卷积层)和多层感知器(MLP)的卷积神经网络,用于基于车道路段的有序车道点204的集合来提取车道特征。卷积神经网络的最终输出可被池化并被存储在每个车道的固定大小的特征向量中。在一个实施例中,可调用用于提取车道的一个或多个特征并将一个或多个特征存储在向量中的神经网络。与使用栅格地图提取目标车辆100周围的整个场景的特征表示相反,使用局部地图仅提取目标车辆附近的车道的特征是轻量级的,并且具有更高的存储器效率。
车道关注模块212使用由车道编码器210生成的车道的车道特征向量以及由轨迹编码器208生成的目标车辆100的轨迹特征向量来确认在即将到来的未来(例如,在接下来的3秒中)被预测为目标车辆的目标的一个或多个目标车道。驾驶员基于他们的意图将他们的关注放在一条或多条车道上并不少见。驾驶员倾向于遵循那些车道之中的作为他们意图的主体的车道的方向,确定目标车辆的轨迹。
在一个实施例中,车道关注模块212可包括使用被称为“关注”的深度学习构思构建的一个或多个神经网络。在这方面,可调用柔性最大(softmax)函数来将目标车辆100的轨迹与目标车辆附近的车道关联,以确定车道的概率分布。概率分布可描述目标车辆100将进入各个车道的可能性。在一个实施例中,车道关注模块212的输出是被确认为目标车辆100进入的满足阈值概率的目标车道的车道的车道特征。目标车道的车道特征可与相关的概率信息一起被输出。在一个实施例中,车道关注模块212输出替代目标车道的车道特征以及它们的对应概率。在一个实施例中,车道关注模块212可输出预测的车道218的车道特征。
交互网络模块214可被配置为对各种代理100、200之间的交互进行建模。在一些情况下,目标车辆的未来轨迹不仅可受到受制于驾驶员关注的车道的影响,而且还可受到与其它车辆200的交互的影响。在一个实施例中,交互网络模块214类似于车道关注模块212,在于交互网络模块214包括具有关注层的一个或多个神经网络。在这方面,交互网络模块214采用第j其它车辆200的轨迹特征向量fTRj和目标车辆100的轨迹特征向量fTRv,用于计算目标车辆v与第j车辆之间的交互权重wvj,如下:
Figure BDA0002827375570000081
其中,WI是目标车辆轨迹和各种轨迹的特征嵌入层的权重。o∈{1,m},m表示其他车辆200的数量,fTRo表示第o车辆的轨迹特征向量。在一个实施例中,交互网络模块214使用计算的交互权重来输出最终交互特征fact,用于对目标车辆v和第j车辆之间的交互进行建模,如下:
Figure BDA0002827375570000082
在一个实施例中,交互网络模块214输出目标车辆与目标车辆100附近的所有其它车辆200之间的交互的交互特征。
在一个实施例中,解码器模块216是标准LSTM网络或任何其它循环神经网络。解码器模块216可被配置为接收目标车辆100的轨迹特征、由交互网络模块214生成的交互特征以及由车道关注模块212生成的目标车道的车道特征,并且输出针对目标车辆100预测的未来轨迹。在一个实施例中,使用双变量高斯分布,预测的未来轨迹可包括在每个时间戳t的预测的位置(xv t,yv t),如下:
Figure BDA0002827375570000083
其中,
Figure BDA0002827375570000084
是平均值,
Figure BDA0002827375570000085
是在每个时间戳t的方差。
在一个实施例中,解码器模块216被配置为输出一个或多个轨迹预测,并且为每个轨迹预测分配概率。在这方面,来自车道关注模块212的不同目标车道特征可被馈送到解码器模块216,以生成对应的预测和相关的概率。在这方面,不同目标车道特征可被视为自主车辆的意图。代替意图是各种固定意图(例如,转弯或改变车道)之一,根据各种实施例的意图集合是目标车道的集合,目标车道的集合是动态的且灵活的,以处理不同的驾驶场景。
图3是根据一个实施例的目标车辆100附近内的车道302a至302d(统称为302)的局部地图300的概念布局图。局部地图300可随着目标车辆100的位置改变而更新。在一个实施例中,车道302的中心的路段由起点(s)304和终点(e)306确认。在一个实施例中,局部地图300将车道路段的一系列地理坐标提供给车道编码器210,用于提取车道的特征。
图4是根据一个实施例的车道关注模块212的概念布局图。应理解,根据各种实施例的车道关注模块212是灵活的,在于它可处理动态驾驶环境中的变化数量的车道。在这方面,车道关注模块212可接收由车道编码器模块210产生的变化数量的车道特征向量400a至400c(统称为400)作为输入。车道关注模块212还可接收目标车辆100的轨迹特征向量402作为输入。在一个实施例中,在每个车道特征向量400与轨迹特征向量402之间执行点积计算,以产生每个车道的关注分数。生成的分数可通过归一化层404(诸如,以柔性最大层为例)进行运行。归一化层404可被配置为将分数归一化为包括与每个车道相关的概率的概率分布。假设n个可能车道的车道特征是l1、l2、...、ln,每个车道的概率pi可被计算如下,其中,
Figure BDA0002827375570000091
表示每个车道的概率pi的估计值,Wl表示每个车道特征向量的权重,Wt表示每个轨迹特征向量的权重。
Figure BDA0002827375570000092
表示第i车道的车道特征向量,
Figure BDA0002827375570000093
表示第j车道的车道特征向量。
Figure BDA0002827375570000094
在一个实施例中,除了不是使用车道特征向量而是使用目标车辆100附近的其它车辆200的轨迹特征向量与目标车辆100的轨迹特征进行点积计算之外,交互网络模块214包括类似于车道关注模块212的结构。
在一个实施例中,训练模块118使用一个或多个损失函数来训练由预测模块110使用的一个或多个神经网络。一个或多个损失函数可包括用于车道意图分类的车道意图损失函数Llane,如下:
Figure BDA0002827375570000095
其中,n是局部地图中的车道的数量。
一个或多个损失函数还可包括用于预测目标车辆的位置/地点的轨迹损失函数Lpos,如下:
Figure BDA0002827375570000096
在一个实施例中,训练模块118使用车道意图损失和轨迹损失作为用于训练由预测模块110使用的一个或多个神经网络的最终损失。一旦被训练,预测模块110可用于预测目标车辆100的未来位置/轨迹。
图5是根据一个实施例的用于预测目标车辆的位置的处理的流程图。应理解,如本领域技术人员所认识到,该处理的步骤顺序不是固定的,而是可被修改、按顺序改变、不同地执行、顺序地、并行地或同时地执行、或改变为任何期望的顺序。
该处理开始,在框500,感知模块108确认目标车辆100和邻近车辆200的轨迹。轨迹确认可基于由一个或多个传感器102提供的传感器数据(例如,速度信息和位置信息)。
在框502,轨迹编码器模块208使用轨迹信息来确定目标车辆100和任何邻近车辆200的轨迹特征。
在框504,感知模块确认关于目标车辆100的阈值附近区域内的一个或多个车道的车道路段的信息。在一个实施例中,该信息包括沿着车道的中心线的有序地理坐标的集合。
在框506,车道编码器模块210使用车道坐标来确定确认的车道的车道特征。
在框508,车道关注模块212使用目标车辆100的车道特征和轨迹特征来确定每个车道的车道概率。车道概率可被解释为自主车辆进入车道的意图。
在框510,交互网络模块214使用目标车辆100和邻近车辆200的轨迹特征来对邻近车辆与目标车辆的交互进行建模。目标车辆与邻近车辆之间的建模的交互可作为交互特征向量被输出。可创建单独的交互特征向量,以对目标车辆100与每个邻近车辆200之间的交互进行建模。
在框512,解码器模块216接收目标车辆100的轨迹特征、由交互网络模块214生成的交互特征以及由车道关注模块212生成的目标车道的车道特征作为输入,以预测目标车辆的车辆位置/轨迹。该预测可伴随有对应的概率值。在一个实施例中,不同目标车道的不同车道特征被逐个馈送到解码器模块216,用于生成不同的轨迹预测以及相关的概率。以这种方式,目标车辆的运动规划模块111可在规划目标车辆的路径时考虑各种轨迹。
在一些实施例中,以上讨论的用于预测目标车辆的位置的系统和方法在一个或多个处理器中实现。术语处理器可表示一个或多个处理器和/或一个或多个处理核。一个或多个处理器可托管在单个装置中或分布在多个装置上(例如,通过云系统)。处理器可包括例如专用集成电路(ASIC)、通用或专用中央处理器(CPU)、数字信号处理器(DSP)、图形处理器(GPU)、可编程逻辑器件(诸如,现场可编程门阵列(FPGA))。在处理器中,如在此使用的,每个功能由被配置(即,硬连线)为执行该功能的硬件执行,或由被配置为执行存储在非暂时性存储介质中的指令的更通用硬件(诸如,CPU)执行。处理器可制造在单个印刷电路板(PCB)上或分布在多个互连的PCB上。处理器可包含其它处理电路;例如,处理电路可包括在PCB上互连的两个处理电路FPGA和CPU。
将理解,尽管在此可使用“第一”、“第二”、“第三”等的术语来描述各种元件、组件、区域、层和/或部分,但是这些元件、组件、区域、层和/或部分不应被这些术语限制。这些术语仅用于将一个元件、组件、区域、层或部分与另一元件、组件、区域、层或部分进行区分。因此,在不脱离发明构思的精神和范围的情况下,在此讨论的第一元件、第一组件、第一区域、第一层或第一部分能够被称为第二元件、第二组件、第二区域、第二层或第二部分。
在此使用的术语仅用于描述特定实施例的目的,并且不意在限制发明构思。如在此使用的,术语“基本上”、“约”和类似术语用作近似术语而不是程度术语,并且意在解释本领域普通技术人员将认识到的测量值或计算值的固有偏差。
如在此使用的,除非上下文另外清楚地指示,否则单数形式也意在也包括复数形式。还将理解,当在本说明书中使用术语“包括”和/或“包含”时,指定存在叙述的特征、整体、步骤、操作、元件和/或组件,但不排除存在或添加一个或多个其它特征、整体、步骤、操作、元件、组件和/或它们的组。如在此使用的,术语“和/或”包括相关所列项中的一个或多个的任何组合和所有组合。诸如“……中的至少一个”的表述在一列元素之后时,修饰整列元素,而不修饰列中的单个元素。此外,当描述发明构思的实施例时,“可”的使用表示“本公开的一个或多个实施例”。此外,术语“示例性”意在表示示例或说明。如在此使用的,术语“使用”及其变型可被认为与术语“利用”及其变型同义。
将理解,当元件或层被称为“在”另一元件或层“上”、“连接到”、“结合到”或“邻近”另一元件或层时,该元件或层可直接在另一元件或层上、直接连接到、直接结合到或直接邻近另一元件或层,或者可存在一个或多个中间元件或层。相反,当元件或层被称为“直接在”另一元件或层“上”、“直接连接到”、“直接结合到”或“紧邻”另一元件或层时,不存在中间元件或层。
在此所列的任何数值范围意在包括包含在所列的范围内的相同数值精度的全部子范围。例如,“1.0至10.0”的范围意在包括所列的最小值1.0与所列的最大值10.0之间(并且包括所列的最小值1.0和所列的最大值10.0)的全部子范围(即,具有等于或大于1.0的最小值以及等于或小于10.0的最大值(诸如,以2.4至7.6为例))。在此所列的任何最大数值限制意在包括包含在其中的全部较低数值限制,并且本说明书中所列的任何最小数值限制意在包括包含在其中的全部较高数值限制。
尽管在此已经具体描述和示出了用于预测目标车辆的位置的系统和方法的示例性实施例,但是对于本领域技术人员来说,许多修改和变化将是清楚的。因此,将理解,根据本公开的原理构造的用于预测目标车辆的位置的系统和方法可以以不同于在此具体描述的方式来实现。本公开还在权利要求及其等同物中被限定。

Claims (20)

1.一种用于预测目标车辆的位置的方法,所述方法包括:
通过处理器,接收目标车辆的轨迹信息;
通过处理器,基于轨迹信息确定轨迹特征;
通过处理器,确定目标车辆的阈值附近区域内的车道的车道特征;和
通过处理器,基于车道特征和轨迹特征来预测目标车辆在即将到来的时间段的位置,
其中,预测目标车辆的位置步骤包括:
基于轨迹特征和车道特征确定与车道相关的概率;和
基于所述概率来预测目标车辆的位置。
2.根据权利要求1所述的方法,其中,轨迹信息包括目标车辆的位置历史和速度历史。
3.根据权利要求2所述的方法,其中,确定轨迹特征的步骤包括:
将位置历史编码成第一向量;
将速度历史编码成第二向量;和
联结第一向量和第二向量。
4.根据权利要求1所述的方法,其中,基于从车道的中心采样的有序点的集合来确认车道,其中,有序点的集合由局部地图提供。
5.根据权利要求1所述的方法,其中,阈值附近区域包括距目标车辆的阈值半径。
6.根据权利要求1所述的方法,其中,确定车道特征的步骤包括:调用用于提取车道的一个或多个特征并将所述一个或多个特征存储在向量中的神经网络。
7.根据权利要求1所述的方法,其中,提取车道的所述一个或多个特征的步骤经由卷积神经网络。
8.根据权利要求1所述的方法,其中,确定与车道相关的概率的步骤包括:确定目标车辆将进入车道的概率。
9.根据权利要求1至权利要求8中的任何一项所述的方法,还包括:
通过处理器,接收第二车辆的第二轨迹信息;
通过处理器,基于第二轨迹信息确定第二轨迹特征;和
通过处理器,基于轨迹特征和第二轨迹特征确定交互特征,
其中,通过处理器,基于车道特征、轨迹特征和交互特征来预测目标车辆的位置。
10.根据权利要求1至权利要求8中的任何一项所述的方法,还包括:
通过处理器,确定目标车辆的阈值附近区域内的第二车道的第二车道特征;和
通过处理器,基于轨迹特征和第二车道特征确定与第二车道相关的第二概率,
其中,预测的步骤包括:基于与第二车道相关的第二概率来预测目标车辆在即将到来的时间段的第二位置。
11.一种用于预测目标车辆的位置的系统,所述系统包括:
处理器;和
存储器,其中,存储器存储指令,所述指令在被执行时使处理器:
接收目标车辆的轨迹信息;
基于轨迹信息确定轨迹特征;
确定目标车辆的阈值附近区域内的车道的车道特征;和
基于车道特征和轨迹特征来预测目标车辆在即将到来的时间段的位置,
其中,预测目标车辆的位置步骤包括:
基于轨迹特征和车道特征确定与车道相关的概率;和
基于所述概率来预测目标车辆的位置。
12.根据权利要求11所述的系统,其中,轨迹信息包括目标车辆的位置历史和速度历史。
13.根据权利要求12所述的系统,其中,确定轨迹特征的步骤包括:
将位置历史编码成第一向量;
将速度历史编码成第二向量;和
联结第一向量和第二向量。
14.根据权利要求11所述的系统,其中,基于从车道的中心采样的有序点的集合来确认车道,其中,有序点的集合由局部地图提供。
15.根据权利要求11所述的系统,其中,阈值附近区域包括距目标车辆的阈值半径。
16.根据权利要求11所述的系统,其中,确定车道特征的步骤包括:调用用于提取车道的一个或多个特征并将所述一个或多个特征存储在向量中的神经网络。
17.根据权利要求11所述的系统,其中,提取车道的所述一个或多个特征的步骤经由卷积神经网络。
18.根据权利要求11所述的系统,其中,确定与车道相关的概率的步骤包括:确定目标车辆将进入车道的概率。
19.根据权利要求11至权利要求18中的任何一项所述的系统,其中,所述指令还使处理器:
接收第二车辆的第二轨迹信息;
基于第二轨迹信息确定第二轨迹特征;和
基于轨迹特征和第二轨迹特征确定交互特征,
其中,基于车道特征、轨迹特征和交互特征来预测目标车辆的位置。
20.根据权利要求11至权利要求18中的任何一项所述的系统,其中,所述指令还使处理器:
确定目标车辆的阈值附近区域内的第二车道的第二车道特征;和
基于轨迹特征和第二车道特征确定与第二车道相关的第二概率,
其中,预测的步骤包括:基于与第二车道相关的第二概率来预测目标车辆在即将到来的时间段的第二位置。
CN202011451903.3A 2019-12-10 2020-12-10 用于预测目标车辆的位置的系统和方法 Pending CN112937603A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962946284P 2019-12-10 2019-12-10
US62/946,284 2019-12-10
US17/100,777 2020-11-20
US17/100,777 US11989952B2 (en) 2019-12-10 2020-11-20 Systems and methods for trajectory prediction

Publications (1)

Publication Number Publication Date
CN112937603A true CN112937603A (zh) 2021-06-11

Family

ID=73747959

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011451903.3A Pending CN112937603A (zh) 2019-12-10 2020-12-10 用于预测目标车辆的位置的系统和方法

Country Status (4)

Country Link
US (1) US11989952B2 (zh)
EP (1) EP3836013A1 (zh)
KR (1) KR20210074193A (zh)
CN (1) CN112937603A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673412A (zh) * 2021-08-17 2021-11-19 驭势(上海)汽车科技有限公司 关键目标物的识别方法、装置、计算机设备及存储介质
CN113916242A (zh) * 2021-12-14 2022-01-11 腾讯科技(深圳)有限公司 车道定位方法和装置、存储介质及电子设备
CN113954864A (zh) * 2021-09-22 2022-01-21 江苏大学 一种融合周边车辆交互信息的智能汽车轨迹预测系统及方法
CN114291116A (zh) * 2022-01-24 2022-04-08 广州小鹏自动驾驶科技有限公司 周围车辆轨迹预测方法、装置、车辆及存储介质
CN114368387A (zh) * 2021-12-21 2022-04-19 吉林大学 一种基于注意力机制的驾驶员意图识别及车辆轨迹预测方法
WO2024008086A1 (zh) * 2022-07-06 2024-01-11 华为技术有限公司 轨迹预测方法及其装置、介质、程序产品和电子设备

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11405762B2 (en) * 2020-09-30 2022-08-02 Ford Global Technologies, Llc Vehicle-to-infrastructure communication control
US11731663B2 (en) * 2020-11-17 2023-08-22 Uatc, Llc Systems and methods for actor motion forecasting within a surrounding environment of an autonomous vehicle
CN113313320B (zh) * 2021-06-17 2022-05-31 湖北汽车工业学院 一种基于残差注意力机制的车辆轨迹预测方法
CN113486822B (zh) * 2021-07-12 2022-04-29 吉林大学 一种基于驾驶意图的周围车辆轨迹预测方法及系统
CN113954863B (zh) * 2021-09-07 2024-06-11 江苏大学 基于双注意力机制和改进Social Gan的车辆轨迹预测方法
CN114312831B (zh) * 2021-12-16 2023-10-03 浙江零跑科技股份有限公司 一种基于空间注意力机制的车辆轨迹预测方法
DE102022102202A1 (de) * 2022-01-31 2023-08-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Unterstützen eines Nutzers eines Fahrzeugs während einer automatisierten Querführung des Fahrzeugs auf einer Straße mit einer Abzweigung unter Berücksichtigung eines Vorderfahrzeugs, Recheneinrichtung sowie Fahrerassistenzsystem
DE102022102200A1 (de) * 2022-01-31 2023-08-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Unterstützen eines Nutzers eines Fahrzeugs während einer automatisierten Querführung des Fahrzeugs auf einer Straße mit einer Abzweigung, Recheneinrichtung sowie Fahrerassistenzsystem
CN114637770A (zh) * 2022-02-23 2022-06-17 中国第一汽车股份有限公司 车辆轨迹的预测方法、装置
CN114758502B (zh) * 2022-04-29 2023-08-18 北京百度网讯科技有限公司 双车联合轨迹预测方法及装置、电子设备和自动驾驶车辆
CN115359662B (zh) * 2022-10-18 2023-01-10 智道网联科技(北京)有限公司 车道拥堵预测方法及装置
CN116071925B (zh) * 2023-02-13 2024-04-12 北京爱芯科技有限公司 轨迹预测方法、装置及电子处理装置
CN116662788B (zh) * 2023-07-27 2024-04-02 太平金融科技服务(上海)有限公司深圳分公司 一种车辆轨迹处理方法、装置、设备和存储介质
CN117351712A (zh) * 2023-10-11 2024-01-05 江苏大学 基于Cro-IntentFormer的融合车辆驾驶意图的周车轨迹预测方法及系统
CN117077042B (zh) * 2023-10-17 2024-01-09 北京鑫贝诚科技有限公司 一种农村平交路口安全预警方法及系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355539B2 (en) * 2007-09-07 2013-01-15 Sri International Radar guided vision system for vehicle validation and vehicle motion characterization
JP4706984B2 (ja) * 2009-02-25 2011-06-22 トヨタ自動車株式会社 衝突推定装置及び衝突推定方法
US7898472B2 (en) * 2009-03-27 2011-03-01 GM Global Technology Operations LLC Method and apparatus for precise relative positioning in multiple vehicles
DE102015214338A1 (de) 2015-07-29 2017-02-02 Volkswagen Aktiengesellschaft Bestimmung einer Anordnungsinformation für ein Fahrzeug
CN108604292B (zh) 2015-11-26 2023-10-13 御眼视觉技术有限公司 对切入车道的车辆的自动预测和利他响应
US10460600B2 (en) * 2016-01-11 2019-10-29 NetraDyne, Inc. Driver behavior monitoring
WO2018126228A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Sign and lane creation for high definition maps used for autonomous vehicles
DE102017106349A1 (de) * 2017-03-24 2018-09-27 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem für ein Fahrzeug zum Prognostizieren eines dem Fahrzeug vorausliegenden Fahrspurbereichs, Fahrzeug und Verfahren
WO2018211140A1 (en) 2017-05-19 2018-11-22 Deepmind Technologies Limited Data efficient imitation of diverse behaviors
US10611371B2 (en) 2017-09-14 2020-04-07 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for vehicle lane change prediction using structural recurrent neural networks
US10739776B2 (en) 2017-10-12 2020-08-11 Honda Motor Co., Ltd. Autonomous vehicle policy generation
US20190220016A1 (en) 2018-01-15 2019-07-18 Uber Technologies, Inc. Discrete Decision Architecture for Motion Planning System of an Autonomous Vehicle
US11501637B2 (en) * 2019-10-04 2022-11-15 Here Global B.V. Method, apparatus, and system for detecting lane-level slowdown events
US11308363B2 (en) * 2020-03-26 2022-04-19 Intel Corporation Device and method for training an object detection model

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673412A (zh) * 2021-08-17 2021-11-19 驭势(上海)汽车科技有限公司 关键目标物的识别方法、装置、计算机设备及存储介质
CN113673412B (zh) * 2021-08-17 2023-09-26 驭势(上海)汽车科技有限公司 关键目标物的识别方法、装置、计算机设备及存储介质
CN113954864A (zh) * 2021-09-22 2022-01-21 江苏大学 一种融合周边车辆交互信息的智能汽车轨迹预测系统及方法
CN113954864B (zh) * 2021-09-22 2024-05-14 江苏大学 一种融合周边车辆交互信息的智能汽车轨迹预测系统及方法
CN113916242A (zh) * 2021-12-14 2022-01-11 腾讯科技(深圳)有限公司 车道定位方法和装置、存储介质及电子设备
CN113916242B (zh) * 2021-12-14 2022-03-25 腾讯科技(深圳)有限公司 车道定位方法和装置、存储介质及电子设备
CN114368387A (zh) * 2021-12-21 2022-04-19 吉林大学 一种基于注意力机制的驾驶员意图识别及车辆轨迹预测方法
CN114291116A (zh) * 2022-01-24 2022-04-08 广州小鹏自动驾驶科技有限公司 周围车辆轨迹预测方法、装置、车辆及存储介质
WO2024008086A1 (zh) * 2022-07-06 2024-01-11 华为技术有限公司 轨迹预测方法及其装置、介质、程序产品和电子设备

Also Published As

Publication number Publication date
EP3836013A1 (en) 2021-06-16
KR20210074193A (ko) 2021-06-21
US20210174668A1 (en) 2021-06-10
US11989952B2 (en) 2024-05-21

Similar Documents

Publication Publication Date Title
CN112937603A (zh) 用于预测目标车辆的位置的系统和方法
US11860636B2 (en) Providing actionable uncertainties in autonomous vehicles
US20210362596A1 (en) End-To-End Tracking of Objects
US11131993B2 (en) Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout
US10768628B2 (en) Systems and methods for object detection at various ranges using multiple range imagery
CN111670468B (zh) 移动体行为预测装置以及移动体行为预测方法
US10310087B2 (en) Range-view LIDAR-based object detection
US11407431B2 (en) System and method for object trajectory prediction in an autonomous scenario
US10037613B1 (en) Systems and methods to track vehicles proximate perceived by an autonomous vehicle
Aoude et al. Mobile agent trajectory prediction using Bayesian nonparametric reachability trees
US20210149404A1 (en) Systems and Methods for Jointly Performing Perception, Perception, and Motion Planning for an Autonomous System
JP2022549913A (ja) 知覚システム
CN114341950A (zh) 占据预测神经网络
CN115485177A (zh) 雷达跟踪的对象速度和/或偏航
US11727690B2 (en) Behavior prediction of surrounding agents
GB2562049A (en) Improved pedestrian prediction by using enhanced map data in automated vehicles
KR20160048530A (ko) 자율 이동 차량의 경로 생성 방법 및 경로 생성 장치
CN115485698A (zh) 时空交互网络
Zhang et al. A learning-based method for predicting heterogeneous traffic agent trajectories: Implications for transfer learning
EP4060613A1 (en) Predicting the future movement of agents in an environment using occupancy flow fields
CN112833896A (zh) 自主场景中用于对象轨迹预测的系统和方法
CN115900725B (zh) 路径规划装置、电子设备、存储介质和相关方法
WO2022241771A1 (zh) 一种预测方法、装置、车辆和智能驾驶系统
US20240208546A1 (en) Predictive models for autonomous vehicles based on object interactions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210611