CN113557559A - 用于交通参与者机动预测的方法 - Google Patents
用于交通参与者机动预测的方法 Download PDFInfo
- Publication number
- CN113557559A CN113557559A CN201980086165.6A CN201980086165A CN113557559A CN 113557559 A CN113557559 A CN 113557559A CN 201980086165 A CN201980086165 A CN 201980086165A CN 113557559 A CN113557559 A CN 113557559A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- traffic
- target vehicle
- traffic environment
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000001514 detection method Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000000306 recurrent effect Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 4
- 230000004927 fusion Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00272—Planning or execution of driving tasks using trajectory prediction for other traffic participants relying on extrapolation of current movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00274—Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4045—Intention, e.g. lane change or imminent movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Transportation (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
一种用于自主可控车辆(10)的导航交通的方法和系统,通过用布置在主车辆(10)上的至少一个传感器(16)检测交通环境(22)内的至少一个目标车辆(12)来操作。系统(15)用布置在交通环境的主车辆(10)和至少目标车辆(12)上的多个传感器(16)获得信息,并且基于获得的与交通环境(22)和至少一个目标车辆(12)相关的信息,用布置在主车辆(10)上的控制器预测至少一个目标车辆(12)在未来时间的机动。系统(15)进一步用控制器(25)生成用于主车辆(10)的推荐路径,该推荐路径基于至少一个目标车辆(12)的预测机动来避免与至少一个目标车辆(12)的未来位置的冲突。
Description
技术领域
本公开涉及一种用于预测周围车辆和交通参与者的机动(maneuver)以帮助自主车辆操作的系统和方法。
背景技术
能够自主操作的车辆包括传感器,所述传感器提供数据并使得能够对周围车辆和其它交通参与者的机动做出反应。对周围车辆的当前动作做出反应可以限制机动操作,并且由于关于其它车辆的意图的不确定性,可能包括一些不准确性。此外,在其它车辆的机动出现之后对其做出反应可以限制选项并导致低效率。
本文中提供的背景描述是出于一般呈现本公开的上下文的目的。在本背景技术部分中描述的程度上,当前命名的发明人的工作以及在提交时可能以其它方式无资格作为现有技术的描述的方面,既不明确也不隐含地被承认为是针对本公开的现有技术。
发明内容
一种根据本公开的示例实施例的用于自主可控车辆的导航交通的方法除了其它可能的步骤之外尤其包括以下步骤:用布置在主车辆上的至少一个传感器检测交通环境内的至少一个目标车辆;用布置在交通环境的主车辆和至少目标车辆上的多个传感器获得信息;基于获得的与交通环境和至少一个目标车辆相关的信息,用布置在主车辆上的控制器预测至少一个目标车辆在未来时间的机动;以及用控制器生成用于主车辆的推荐路径,该推荐路径基于至少一个目标车辆的预测机动来避免与至少一个目标车辆的未来位置的冲突。
用于自主可控车辆的导航交通的前述方法的进一步实施例,其中获得关于交通环境的信息的步骤包括从布置在主车辆上的摄像机捕获的图像生成局部区域特征图。
用于自主可控车辆的导航交通的任一前述方法的进一步实施例,其中预测至少一个目标车辆的机动包括利用循环神经网络,该循环神经网络利用获得的关于交通环境和局部区域特征图的信息来预测至少一个目标车辆的可能位置和机动。
用于自主可控车辆的导航交通的任一前述方法的进一步实施例,其中所述循环神经网络预测至少一个目标车辆在多个未来时间的可能位置和机动。
用于自主可控车辆的导航交通的任一前述方法的进一步实施例,其中与交通环境相关的信息包括与主车辆和至少一个目标车辆之间的空间关系相关的信息。
用于自主可控车辆的导航交通的任一前述方法的进一步实施例,其中与交通环境相关的信息包括与至少一个目标车辆和其它交通参与者之间的空间关系相关的信息。
用于自主可控车辆的导航交通的任一前述方法的进一步实施例,其中与交通环境相关的信息包括与至少一个目标车辆和道路边界之间的空间关系相关的信息。
用于自主可控车辆的导航交通的任一前述方法的进一步实施例,其中与交通环境相关的信息包括直接从至少一个目标车辆获得的信息。
用于自主可控车辆的导航交通的任一前述方法的进一步实施例,其中所述主车辆包括部分自主车辆,其生成主车辆功能的操作以辅助驾驶员操作。
用于自主可控车辆的导航交通的任一前述方法的进一步实施例,其中所述主车辆包括独立操作的完全自主车辆。
一种根据另一个公开的示例实施例的用于导航交通环境内的自主可控车辆的车辆导航系统除了其它事物之外尤其包括:检测模块,用于获得关于邻近交通参与者的信息;局部区域特征图,其基于来自检测模块的信息而被持续更新;循环神经网络,用于以多个未来时间步长为至少一个交通参与者生成多个预测的可能未来位置;以及车辆控制器,用于基于至少一个交通参与者的多个预测的未来位置而生成更改车辆路径的命令。
在前述车辆导航系统的进一步实施例中,车辆检测模块包括捕获车辆周围的至少一个交通参与者、其它静止和非静止对象的图像的摄像机。
在任一前述车辆导航系统的进一步实施例中,至少一个传感器提供指示交通环境内车辆操作的信息。
在任一前述车辆导航系统的进一步实施例中,车辆控制器被配置为检测至少一个交通参与者和其它交通参与者之间的关系。
在任一前述车辆导航系统的进一步实施例中,至少一个交通参与者包括第一车辆,并且车辆控制器被配置为检测第一车辆在道路边界内的位置。
在任一前述车辆导航系统的进一步实施例中,车辆控制器检测直接来自第一车辆的指示未来机动的动作。
在任一前述车辆导航系统的进一步实施例中,车辆控制器生成部分自主车辆的一部分,并生成车辆功能的操作以辅助驾驶员操作。
在任一前述车辆导航系统的进一步实施例中,车辆控制器生成用于主车辆的命令,所述主车辆包括独立操作的完全自主车辆。
从以下说明书和附图可以最好地理解本文中所公开的这些和其它特征,其以下是简要描述。
附图说明
图1是交通环境内包括示例导航系统的示例车辆的示意性视图。
图2是用于自主驾驶的示例车辆导航系统的示意性视图。
图3是图示利用示例导航系统实施例的车辆的示例导航步骤的流程图。
具体实施方式
参考图1,主车辆10包括系统15,该系统15评估周围交通参与者(诸如车辆12、14)的操作,并预测由其它车辆12、14执行的潜在机动。主车辆10包括摄像机16和雷达设备24,用于获得指示至少一个周围车辆和/或交通参与者的信息。应当领会,可以利用提供关于周围交通参与者的信息的其它感测设备,并且所述感测设备在本公开的上下文内。
主车辆10使用预测来采取预测动作并定义路径以避免意外延迟、改进乘客舒适度并提供改进的交通管理。此外,所得到的路径可以通过预测路径与其它交通参与者的潜在不期望的交叉来避免事故。所公开的系统15通过组合来自车辆10、其它车辆12、14和静态结构内的许多不同传感器系统的信息,提取指示沿着道路20和邻近道路的路肩25的交通环境的数据。来自交通环境内的传感器的组合信息被用于构建对应于目标车辆12、14的图像区域的特征图,并且在循环神经网络(RNN)中被组合以预测目标车辆12、14在未来时间步长的可能机动和路径,如在12’、14’处指示的。
在继续参考图1的情况下参考图2,示例公开的系统15在主车辆10中提供。系统15可以实现为指导车辆控制器25的控制的软件。系统15也可以作为单独的系统提供,该单独的系统使用来自已经随车辆提供的传感器和其它检测设备的信息。车辆10可以是完全自主车辆、部分自主车辆或者包括辅助驾驶员操作的特征。
车辆10收集并使用关于在22处示意性指示的现有交通环境获得的信息来生成期望的路径。交通环境22是目标车辆12、14和其它静止和/或非静止的交通参与者以及道路20之间的关系。在一个示例实施例中,通过处理来自传感器融合模块的输出来获得交通环境22。传感器融合模块收集并融合来自诸如雷达24、摄像机16和地图/定位模块之类的各种不同输入源的对象信息、车道信息和道路边缘信息,以供预测模型和网络使用,从而定义和/或更改车辆10的路径。
示例公开的系统15从收集的与交通环境22相关的数据和捕获的目标车辆12、14的图像18生成局部区域特征图28。示例图像18从检测系统获得。在该示例中,检测系统包括在主车辆10中提供的摄像机16。使用两个主要步骤生成局部区域特征图28。示例第一步骤包括从原始摄像机图像18获得局部区域特征图。计算机视觉技术被应用于原始摄像机图像18,用于使得能够在捕获的图像中检测和定位车辆12、14,如在34处示意性指示的。感兴趣的目标车辆12的图像区域被构造为完全卷积网络(FCN)26,其由所有卷积层组成,在这种情况下,没有转置的转换层。采用FCN 26提取特征图28,该特征图28包括与其它目标车辆12、14直接相关的信息。
获得该信息并将其用于生成完全卷积网络26,该完全卷积网络26由循环神经网络30(RNN)利用。RNN 30为每个目标车辆12、14提供机动预测32,并将那些预测传送到车辆控制器25。车辆控制器25使用预测32来更改车辆操作,以适应和计及潜在的目标车辆移动。
交通环境信息22和局部区域特征图28被馈送到经训练的RNN 30,以推断目标车辆12、14的未来机动。由RNN 30确定和利用的信息的示例包括目标车辆12、14离左和右车道标志36和/或路肩25有多远/多近,以及直接从目标车辆12、14获得的信息,诸如什么转向信号被致动。
先前的系统依赖目标车辆相对于车道的横向运动学信息来辅助推断可能的未来机动。然而,即使用传感器融合,横向运动学信息和车道估计也提供不清楚的信息,并且基于这样的“直接指示符”的算法容易出现假阳性错误。相比之下,所公开的系统和方法利用机器学习技术从原始摄像机图像18直接提取信息(例如,车辆离车道标志36有多远/多近)。代替单独处理对象和车道信息并且然后进行组合,直接利用原始摄像机镜头18。因此,示例系统15极大地减少了不确定性。用本公开中提出的方法,甚至还可以提取与驾驶员意图相关的更抽象的信息(诸如转向信号),并将其包括在特征图28中,以进一步增强来自系统15的预测的鲁棒性。
在继续参考图1和图2的情况下参考图3,在40处示意性地示出了所公开的方法的示例实施例。示例方法40开始于用布置在主车辆10上的至少一个传感器16、24来检测交通环境22内的至少一个目标车辆12、14。对其它交通参与者的检测包括检测在主车辆10前方和后方和侧面的其它车辆。检测被提供有如已知的并安装在主车辆10内的传感器和摄像机。如在44处指示的,用传感器16、24获得特定信息。特定信息可以包括道路20、车道标志36和路肩25内相对于其它交通参与者的当前位置。此外,直接从其它车辆12收集信息。直接来自其它车辆12、14的信息可以包括转向信号致动和刹车致动。处理其它车辆12、14的图像,使得获得并利用直接来自其它车辆的操作。如在46处指示的,所收集的信息用于预测其它车辆12、14和交通参与者的机动。在该示例实施例中,系统15在车辆控制器25中实现为模块和指令,该模块和指令生成用于控制主车辆10的可动作信息。在该示例实施例中,利用RNN30预测至少一个未来时间的其它车辆的至少一个和/或多个机动。在实践中,RNN 30预测未来时间的多个路径,所述多个路径基于感测到的条件的改变而不断更新并且变窄,直到单个预测的路径最有可能。替代路径仍然被确定。一旦理解并预测了其它车辆12、14的路径,示例系统15就生成主车辆10的推荐路径,如在48处指示的。预测路径被确定为避免与其它车辆12、14的未来位置的冲突,并且基于在先前步骤中收集并持续更新的信息。
示例系统15和方法提供了预测结果的增加的分辨率。之前系统可能仅预测TPO在有限时间范围内可能的未来机动,例如在接下来的2秒内向左的车道改变。由于循环神经网络可变大小的输出,该示例系统能够预测在未来时间步长交通参与者机动的概率。
尽管已经公开了示例实施例,但是本领域普通技术人员将认识到某些修改将落入本公开的范围内。为了该理由,应该研究以下权利要求来确定本公开的范围和内容。
Claims (16)
1.一种用于自主可控车辆的导航交通的方法,该方法包括:
用布置在主车辆上的至少一个传感器检测交通环境内的至少一个目标车辆;
用布置在交通环境的主车辆和至少目标车辆上的多个传感器获得信息;
基于获得的与交通环境和至少一个目标车辆相关的信息,用布置在主车辆上的控制器预测至少一个目标车辆在未来时间的机动;以及
用控制器生成用于主车辆的推荐路径,所述推荐路径基于至少一个目标车辆的预测机动来避免与至少一个目标车辆的未来位置的冲突。
2.如权利要求1所述的方法,其中获得关于交通环境的信息的步骤包括从布置在主车辆上的摄像机捕获的图像生成局部区域特征图。
3.如权利要求2所述的方法,其中预测至少一个目标车辆的机动包括利用循环神经网络,所述循环神经网络利用获得的关于交通环境和局部区域特征图的信息来预测至少一个目标车辆的可能位置和机动。
4.如权利要求3所述的方法,其中所述循环神经网络预测至少一个目标车辆在多个未来时间的可能位置和机动。
5.如权利要求2所述的方法,其中与交通环境相关的信息包括与主车辆和至少一个目标车辆之间的空间关系相关的信息。
6.如权利要求2所述的方法,其中与交通环境相关的信息包括与至少一个目标车辆和其它交通参与者之间的空间关系相关的信息。
7.如权利要求2所述的方法,其中与交通环境相关的信息包括与至少一个目标车辆和道路边界之间的空间关系相关的信息。
8.如权利要求2所述的方法,其中与交通环境相关的信息包括直接从至少一个目标车辆获得的信息。
9.如权利要求1所述的方法,其中所述主车辆包括部分自主车辆,其生成主车辆功能的操作以辅助驾驶员操作,或者其中所述主车辆包括独立操作的完全自主车辆。
10.一种用于导航交通环境内的自主可控车辆的车辆系统导航系统,包括:
检测系统,用于获得关于邻近交通参与者的信息;
局部区域特征图,其基于来自检测模块的信息而被持续更新;
循环神经网络,用于以多个未来时间步长为至少一个交通参与者生成多个预测的可能未来位置;以及
车辆控制器,用于基于至少一个交通参与者的多个预测的未来位置而生成更改车辆路径的命令。
11.如权利要求10所述的系统,其中所述车辆检测模块包括捕获车辆周围的至少一个交通参与者、其它静止和非静止对象的图像的摄像机。
12.如权利要求11所述的系统,包括至少一个传感器,提供指示交通环境内车辆操作的信息。
13.如权利要求11所述的系统,其中所述车辆控制器被配置为检测至少一个交通参与者和其它交通参与者之间的关系。
14.如权利要求13所述的系统,其中所述至少一个交通参与者包括第一车辆,并且所述车辆控制器被配置为检测第一车辆在道路边界内的位置。
15.如权利要求14所述的系统,其中所述车辆控制器检测直接来自第一车辆的指示未来机动的动作。
16.如权利要求10所述的系统,其中所述车辆控制器生成部分自主车辆的一部分,并生成车辆功能的操作以辅助驾驶员操作,或者所述车辆控制器生成用于主车辆的命令,所述主车辆包括独立操作的完全自主车辆。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862785339P | 2018-12-27 | 2018-12-27 | |
US62/785339 | 2018-12-27 | ||
US16/688603 | 2019-11-19 | ||
US16/688,603 US11409285B2 (en) | 2018-12-27 | 2019-11-19 | Method for maneuver prediction of traffic participant |
PCT/US2019/066289 WO2020139587A1 (en) | 2018-12-27 | 2019-12-13 | Method for maneuver prediction of traffic participant |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113557559A true CN113557559A (zh) | 2021-10-26 |
Family
ID=71122300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980086165.6A Pending CN113557559A (zh) | 2018-12-27 | 2019-12-13 | 用于交通参与者机动预测的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11409285B2 (zh) |
EP (1) | EP3903296A1 (zh) |
JP (1) | JP7438222B2 (zh) |
CN (1) | CN113557559A (zh) |
WO (1) | WO2020139587A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112019024097A2 (pt) * | 2017-05-16 | 2020-06-02 | Nissan Motor Co., Ltd. | Método de predição de ação e dispositivo de predição de ação de dispositivo de ajuda para deslocamento |
US20200249674A1 (en) * | 2019-02-05 | 2020-08-06 | Nvidia Corporation | Combined prediction and path planning for autonomous objects using neural networks |
US11325594B2 (en) * | 2020-02-10 | 2022-05-10 | GM Global Technology Operations LLC | Sensor fusion based on intersection scene to determine vehicle collision potential |
US12001958B2 (en) * | 2020-03-19 | 2024-06-04 | Nvidia Corporation | Future trajectory predictions in multi-actor environments for autonomous machine |
US11584371B2 (en) * | 2020-07-15 | 2023-02-21 | Toyota Research Institute, Inc. | Systems and methods for using R-functions and semi-analytic geometry for lane keeping in trajectory planning |
JP7396308B2 (ja) * | 2021-01-28 | 2023-12-12 | トヨタ自動車株式会社 | 走行軌跡推定システム、走行軌跡推定プログラム、及び走行軌跡推定方法 |
CN114084155B (zh) * | 2021-11-15 | 2023-10-20 | 清华大学 | 预测型智能汽车决策控制方法、装置、车辆及存储介质 |
US11801871B1 (en) * | 2022-12-28 | 2023-10-31 | Aurora Operations, Inc. | Goal-based motion forecasting |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2549456A1 (en) * | 2010-03-16 | 2013-01-23 | Toyota Jidosha Kabushiki Kaisha | Driving assistance device |
EP2990290A1 (en) * | 2014-09-01 | 2016-03-02 | Honda Research Institute Europe GmbH | Method and system for post-collision manoeuvre planning and vehicle equipped with such system |
WO2016156236A1 (en) * | 2015-03-31 | 2016-10-06 | Sony Corporation | Method and electronic device |
WO2017044525A1 (en) * | 2015-09-08 | 2017-03-16 | Quovard Management Llc | Intention recognition |
CN106546977A (zh) * | 2015-09-16 | 2017-03-29 | 福特全球技术公司 | 车辆雷达感知和定位 |
US20180154899A1 (en) * | 2016-12-02 | 2018-06-07 | Starsky Robotics, Inc. | Vehicle control system and method of use |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7680596B2 (en) * | 2004-04-06 | 2010-03-16 | Honda Motor Co., Ltd. | Route calculation method for a vehicle navigation system |
JP2010086269A (ja) | 2008-09-30 | 2010-04-15 | Mazda Motor Corp | 車両同定装置及びそれを用いた運転支援装置 |
EP2562060B1 (en) | 2011-08-22 | 2014-10-01 | Honda Research Institute Europe GmbH | A method and system for predicting movement behavior of a target traffic object |
US9286793B2 (en) * | 2012-10-23 | 2016-03-15 | University Of Southern California | Traffic prediction using real-world transportation data |
US9792821B1 (en) * | 2016-03-25 | 2017-10-17 | Toyota Jidosha Kabushiki Kaisha | Understanding road scene situation and semantic representation of road scene situation for reliable sharing |
US10303166B2 (en) * | 2016-05-23 | 2019-05-28 | nuTonomy Inc. | Supervisory control of vehicles |
JP6731819B2 (ja) | 2016-09-26 | 2020-07-29 | 日立オートモティブシステムズ株式会社 | 移動体軌道予測システム |
US11620528B2 (en) * | 2018-06-12 | 2023-04-04 | Ciena Corporation | Pattern detection in time-series data |
-
2019
- 2019-11-19 US US16/688,603 patent/US11409285B2/en active Active
- 2019-12-13 CN CN201980086165.6A patent/CN113557559A/zh active Pending
- 2019-12-13 JP JP2021537907A patent/JP7438222B2/ja active Active
- 2019-12-13 WO PCT/US2019/066289 patent/WO2020139587A1/en unknown
- 2019-12-13 EP EP19836881.3A patent/EP3903296A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2549456A1 (en) * | 2010-03-16 | 2013-01-23 | Toyota Jidosha Kabushiki Kaisha | Driving assistance device |
EP2990290A1 (en) * | 2014-09-01 | 2016-03-02 | Honda Research Institute Europe GmbH | Method and system for post-collision manoeuvre planning and vehicle equipped with such system |
WO2016156236A1 (en) * | 2015-03-31 | 2016-10-06 | Sony Corporation | Method and electronic device |
WO2017044525A1 (en) * | 2015-09-08 | 2017-03-16 | Quovard Management Llc | Intention recognition |
CN106546977A (zh) * | 2015-09-16 | 2017-03-29 | 福特全球技术公司 | 车辆雷达感知和定位 |
US20180154899A1 (en) * | 2016-12-02 | 2018-06-07 | Starsky Robotics, Inc. | Vehicle control system and method of use |
Also Published As
Publication number | Publication date |
---|---|
WO2020139587A1 (en) | 2020-07-02 |
JP7438222B2 (ja) | 2024-02-26 |
JP2022516857A (ja) | 2022-03-03 |
EP3903296A1 (en) | 2021-11-03 |
US20200209860A1 (en) | 2020-07-02 |
US11409285B2 (en) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7438222B2 (ja) | 交通参加者の運転マヌーバ予測のための方法 | |
US12005904B2 (en) | Autonomous driving system | |
US20210146928A1 (en) | Systems and methods for navigating a vehicle among encroaching vehicles | |
US20210271260A1 (en) | Navigating a vehicle based on a detected barrier | |
EP3657130B1 (en) | Navigation based on vehicle activity | |
US9815462B2 (en) | Path determination for automated vehicles | |
JP4985142B2 (ja) | 画像認識装置および画像認識装置の画像認識処理方法 | |
JP4420011B2 (ja) | 物体検知装置 | |
US12002353B2 (en) | Method and system for providing environmental data | |
CN112046481B (zh) | 自动驾驶装置和方法 | |
US11565720B2 (en) | Autonomous vehicle, system, and method of operating an autonomous vehicle | |
US20220237921A1 (en) | Outside environment recognition device | |
EP3432261A1 (en) | Image processing device, image processing method, image processing program, object recognition device, and apparatus control system | |
US11830254B2 (en) | Outside environment recognition device | |
US11989944B2 (en) | Method for selecting an image detail of a sensor | |
US20220237899A1 (en) | Outside environment recognition device | |
JP2021138338A (ja) | 車両制御システム | |
JP2022154927A (ja) | データ補正装置、データ補正方法、データ補正プログラム及び車両 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |