JP7459224B2 - アンカー軌道を使用したエージェント軌道予測 - Google Patents
アンカー軌道を使用したエージェント軌道予測 Download PDFInfo
- Publication number
- JP7459224B2 JP7459224B2 JP2022500054A JP2022500054A JP7459224B2 JP 7459224 B2 JP7459224 B2 JP 7459224B2 JP 2022500054 A JP2022500054 A JP 2022500054A JP 2022500054 A JP2022500054 A JP 2022500054A JP 7459224 B2 JP7459224 B2 JP 7459224B2
- Authority
- JP
- Japan
- Prior art keywords
- trajectory
- agent
- neural network
- anchor
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 claims description 57
- 238000012549 training Methods 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 35
- 238000009826 distribution Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 16
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims description 4
- 230000000306 recurrent effect Effects 0.000 claims description 2
- 230000003068 static effect Effects 0.000 claims description 2
- 239000003795 chemical substances by application Substances 0.000 description 107
- 238000004590 computer program Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 210000002569 neuron Anatomy 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00274—Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0129—Traffic data processing for creating historical data or processing based on historical data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0145—Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
ここで、Kはアンカー軌道の総数であり、θはモデルパラメータであり、
は指数kがグラウンドトゥルース軌道に最も類似したアンカー軌道の指数
と同じである場合に1であり、指数kが指数
と同じでない場合は常に0である指示関数であり、π(ak|xm;θ)は、シーンデータxmを所与として軌道予測出力内でアンカー軌道kに割り当てられる確率であり、Tは、アンカー軌道内の時点の総数であり、
は、
である平均および共分散パラメータ
を有する正規分布によってグラウンドトゥルース軌道内の時間tにおいてウェイポイント空間的場所
に割り当てられる確率であり、
は、アンカー軌道k内の時点tにおけるウェイポイント空間的場所であり、
は、アンカー軌道kの軌道予測出力における、時点tでのウェイポイント空間的場所からの正規確率分布の平均のオフセットであり、
は、アンカー軌道kの軌道予測出力における時点tでのウェイポイント空間的場所の共分散パラメータである。
Claims (15)
- 1つ以上のデータ処理装置によって実行される方法であって、
現在の時点までの環境における車両の近傍のエージェントを特徴付ける埋め込みを取得することと、
軌道予測ニューラルネットワークを使用して前記埋め込みを処理して、前記現在の時点の後の前記エージェントの将来の軌道を特徴付ける軌道予測出力を生成することであって、
前記軌道予測出力が、前記エージェントの前記将来の軌道と、複数の既定のアンカー軌道の各々との予測類似度を特徴付けるデータを含み、前記複数の既定のアンカー軌道は、前記エージェントの以前の軌道を特徴付けるデータまたは前記環境内の現在のシーンに関する他の情報から独立しており、
各アンカー軌道が、前記エージェントの可能な将来の軌道を特徴付け、各々がそれぞれの将来の時点での前記エージェントの可能な位置に対応する、前記環境内の複数のウェイポイント空間的場所のシーケンスを指定するデータを含む、生成することと、
前記軌道予測出力を前記車両の計画システムに提供して、前記車両の将来の軌道を計画する計画決定を生成することと、を含む、方法。 - 前記軌道予測出力が、前記複数のアンカー軌道の各々について、
前記アンカー軌道の各ウェイポイント空間的場所について、前記エージェントが前記ウェイポイント空間的場所に対応する前記将来の時点で前記ウェイポイント空間的場所の近傍のそれぞれの空間的位置を占めるそれぞれの可能性を定義する、前記ウェイポイント空間的場所に依存する確率分布を特徴付けるデータをさらに含む、請求項1に記載の方法。 - 前記ウェイポイント空間的場所に依存する前記確率分布を特徴付ける前記データが、前記ウェイポイント空間的場所に依存するパラメトリック確率分布のパラメータを定義するデータを含む、請求項2に記載の方法。
- 前記ウェイポイント空間的場所に依存する前記パラメトリック確率分布が、正規確率分布であり、前記正規確率分布の前記パラメータを定義する前記データが、(i)前記ウェイポイント空間的場所からの前記正規確率分布の平均のオフセットを指定するオフセットパラメータ、および(ii)前記正規確率分布の共分散パラメータを含む、請求項3に記載の方法。
- 前記軌道予測ニューラルネットワークが、1つ以上の畳み込みニューラルネットワーク層を含む、請求項1~4のいずれか一項に記載の方法。
- 前記軌道予測ニューラルネットワークが、1つ以上の再帰型ニューラルネットワーク層を含む、請求項1~5のいずれか一項に記載の方法。
- 前記現在の時点までの前記環境における前記車両の近傍の前記エージェントを特徴付ける前記埋め込みを取得することが、
埋め込みニューラルネットワークを使用して、前記現在の時点までの前記環境内の前記エージェントの以前の軌道を特徴付ける埋め込みニューラルネットワーク入力を処理して、埋め込みニューラルネットワーク出力を生成することと、
前記エージェントに対応する前記埋め込みニューラルネットワーク出力の部分をクロップすることと、
前記埋め込みニューラルネットワーク出力のクロップされた前記部分に基づいて、前記エージェントを特徴付ける前記埋め込みを判定することと、を含む、請求項1~6のいずれか一項に記載の方法。 - 前記埋め込みニューラルネットワーク入力が、前記現在の時点までの前記環境内の1つ以上の他のエージェントの軌道をさらに特徴付ける、請求項7に記載の方法。
- 前記埋め込みニューラルネットワーク入力が、(i)信号機状態を含む前記環境の動的な特徴、ならびに(ii)車線の接続性、車線の種類、一端停止線、および制限速度のうちの1つ以上を含む、前記環境の静的な特徴をさらに特徴付ける、請求項7または8に記載の方法。
- 前記埋め込みニューラルネットワーク入力および前記埋め込みニューラルネットワーク出力が各々、トップダウンの視点から前記環境を特徴付けるそれぞれの三次元データ表現を含む、請求項7~9のいずれか一項に記載の方法。
- 前記埋め込みニューラルネットワークが、1つ以上の畳み込みニューラルネットワーク層を含む、請求項7~10のいずれか一項に記載の方法。
- 前記埋め込みニューラルネットワーク出力の前記クロップされた部分に基づいて前記エージェントを特徴付ける前記埋め込みを判定することが、
前記埋め込みニューラルネットワーク出力の前記クロップされた部分をエージェント中心の座標系に対して回転させることを含む、請求項7~11のいずれか一項に記載の方法。 - 前記アンカー軌道を既定することが、エージェント軌道のトレーニングセットからのエージェント軌道をクラスタ化することを含む、請求項1に記載の方法。
- システムであって、
1つ以上のコンピュータと、
前記1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、請求項1~13のいずれか一項に記載のそれぞれの方法の動作を実施させる命令を記憶している1つ以上の記憶デバイスと、を備える、システム。 - 1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、請求項1~13のいずれか一項に記載のそれぞれの方法の動作を実施させる命令を記憶している、1つ以上の非一時的コンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962870399P | 2019-07-03 | 2019-07-03 | |
US62/870,399 | 2019-07-03 | ||
PCT/US2020/040682 WO2021003379A1 (en) | 2019-07-03 | 2020-07-02 | Agent trajectory prediction using anchor trajectories |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022539250A JP2022539250A (ja) | 2022-09-07 |
JP7459224B2 true JP7459224B2 (ja) | 2024-04-01 |
Family
ID=74066312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022500054A Active JP7459224B2 (ja) | 2019-07-03 | 2020-07-02 | アンカー軌道を使用したエージェント軌道予測 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11618481B2 (ja) |
EP (1) | EP3977227A4 (ja) |
JP (1) | JP7459224B2 (ja) |
KR (1) | KR20220030270A (ja) |
CN (1) | CN114080634B (ja) |
WO (1) | WO2021003379A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6728495B2 (ja) * | 2016-11-04 | 2020-07-22 | ディープマインド テクノロジーズ リミテッド | 強化学習を用いた環境予測 |
DE102019209736A1 (de) * | 2019-07-03 | 2021-01-07 | Robert Bosch Gmbh | Verfahren zur Bewertung möglicher Trajektorien |
US20210081843A1 (en) * | 2019-09-17 | 2021-03-18 | Seyed Ershad BANIJAMALI | Methods and systems for observation prediction in autonomous vehicles |
US11754408B2 (en) * | 2019-10-09 | 2023-09-12 | Argo AI, LLC | Methods and systems for topological planning in autonomous driving |
US11912271B2 (en) * | 2019-11-07 | 2024-02-27 | Motional Ad Llc | Trajectory prediction from precomputed or dynamically generated bank of trajectories |
EP4052108A4 (en) * | 2019-11-15 | 2023-11-01 | Waymo Llc | PREDICTING AGENT TRAVEL PATH USING VECTORIZED INPUTS |
US11926347B2 (en) * | 2020-10-30 | 2024-03-12 | Waymo Llc | Conditional agent trajectory prediction |
US11674806B2 (en) * | 2021-02-25 | 2023-06-13 | Navico Holding As | Anchoring systems and methods for marine vessels |
US20220301182A1 (en) * | 2021-03-18 | 2022-09-22 | Waymo Llc | Predicting the future movement of agents in an environment using occupancy flow fields |
US11858514B2 (en) | 2021-03-30 | 2024-01-02 | Zoox, Inc. | Top-down scene discrimination |
US11810225B2 (en) * | 2021-03-30 | 2023-11-07 | Zoox, Inc. | Top-down scene generation |
US11753043B2 (en) * | 2021-05-20 | 2023-09-12 | Waymo Llc | Predicting crossing behavior of agents in the vicinity of an autonomous vehicle |
CN113256681B (zh) * | 2021-05-26 | 2022-05-13 | 北京易航远智科技有限公司 | 基于时空注意力机制的行人轨迹预测方法 |
US20220391639A1 (en) * | 2021-06-02 | 2022-12-08 | Nvidia Corporation | Techniques for classification with neural networks |
CN113240198A (zh) * | 2021-06-07 | 2021-08-10 | 兰州大学 | 一种基于tcn模型的港口船舶轨迹预测方法 |
US20220396289A1 (en) * | 2021-06-15 | 2022-12-15 | Nvidia Corporation | Neural network path planning |
US12060060B1 (en) * | 2021-08-31 | 2024-08-13 | Zoox, Inc. | Vehicle control using trajectory clustering and reactive prediction |
CN114022847B (zh) * | 2021-11-23 | 2024-07-05 | 清华大学 | 一种智能体轨迹预测方法、系统、设备和存储介质 |
US11993288B2 (en) | 2021-12-29 | 2024-05-28 | Waymo Llc | Automated cut-in identification and classification |
CN114757355B (zh) * | 2022-04-08 | 2024-04-02 | 中国科学技术大学 | 轨迹数据集差异性度量方法、系统、设备及存储介质 |
DE102023200197A1 (de) | 2023-01-12 | 2024-07-18 | Zf Friedrichshafen Ag | Fahrzeugsystem und Verfahren zur Erhöhung der Verlässlichkeit einer Vorhersage von Zukunftstrajektorien |
CN116001807B (zh) * | 2023-02-27 | 2023-07-07 | 安徽蔚来智驾科技有限公司 | 多场景轨迹预测方法、设备、介质及车辆 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4062353B1 (ja) | 2006-11-10 | 2008-03-19 | トヨタ自動車株式会社 | 障害物進路予測方法、装置、およびプログラム |
JP2017211691A (ja) | 2016-05-23 | 2017-11-30 | 株式会社ツクタ技研 | 画像処理装置、画像処理方法、および画像処理プログラム |
WO2019020103A1 (zh) | 2017-07-28 | 2019-01-31 | 北京市商汤科技开发有限公司 | 目标识别方法、装置、存储介质和电子设备 |
US20190072973A1 (en) | 2017-09-07 | 2019-03-07 | TuSimple | Data-driven prediction-based system and method for trajectory planning of autonomous vehicles |
WO2019104112A1 (en) | 2017-11-22 | 2019-05-31 | Uber Technologies, Inc. | Object interaction prediction systems and methods for autonomous vehicles |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8849737B1 (en) * | 2011-03-18 | 2014-09-30 | Rockwell Collins, Inc. | Prediction method of predicting a future state of a system |
US9483812B2 (en) * | 2013-03-25 | 2016-11-01 | Imax Corporation | Enhancing motion pictures with accurate motion information |
CN103914985B (zh) * | 2014-04-25 | 2015-10-28 | 大连理工大学 | 一种混合动力客车未来车速轨迹预测方法 |
DE102014012825A1 (de) * | 2014-08-28 | 2016-03-03 | Wirtgen Gmbh | Selbstfahrende Baumaschine und Verfahren zur Steuerung einer selbstfahrenden Baumaschine |
CN114274260A (zh) * | 2017-04-05 | 2022-04-05 | 速特系统技术股份公司 | 切割机和机器可读的载体 |
US10111043B1 (en) | 2017-04-24 | 2018-10-23 | Uber Technologies, Inc. | Verifying sensor data using embeddings |
JP6722280B2 (ja) | 2017-06-22 | 2020-07-15 | バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッドBaidu.com Times Technology (Beijing) Co., Ltd. | 自律走行車の交通予測における予測軌跡の評価フレームワーク |
US10579063B2 (en) * | 2017-07-21 | 2020-03-03 | Uatc, Llc | Machine learning for predicting locations of objects perceived by autonomous vehicles |
WO2019023628A1 (en) * | 2017-07-27 | 2019-01-31 | Waymo Llc | NEURAL NETWORKS FOR VEHICLE TRACK PLANNING |
US11256983B2 (en) * | 2017-07-27 | 2022-02-22 | Waymo Llc | Neural networks for vehicle trajectory planning |
KR101951595B1 (ko) * | 2018-05-18 | 2019-02-22 | 한양대학교 산학협력단 | 모듈형 순환 신경망 구조 기반 차량 경로 예측 시스템 및 방법 |
CN108629978B (zh) * | 2018-06-07 | 2020-12-22 | 重庆邮电大学 | 一种基于高维路网和循环神经网络的交通轨迹预测方法 |
CN109034448B (zh) * | 2018-06-14 | 2022-02-11 | 重庆邮电大学 | 基于车辆轨迹语义分析和深度信念网络的轨迹预测方法 |
JP7014687B2 (ja) * | 2018-08-07 | 2022-02-01 | 株式会社クボタ | 収穫機 |
CN109272108A (zh) * | 2018-08-22 | 2019-01-25 | 深圳市亚博智能科技有限公司 | 基于神经网络算法的移动控制方法、系统和计算机设备 |
US11195418B1 (en) * | 2018-10-04 | 2021-12-07 | Zoox, Inc. | Trajectory prediction on top-down scenes and associated model |
US11169531B2 (en) * | 2018-10-04 | 2021-11-09 | Zoox, Inc. | Trajectory prediction on top-down scenes |
CN109711557B (zh) * | 2018-12-28 | 2022-10-14 | 西安航空学院 | 一种行车轨迹预测方法、计算机设备及存储介质 |
US11023749B2 (en) * | 2019-07-05 | 2021-06-01 | Zoox, Inc. | Prediction on top-down scenes based on action data |
US20210216889A1 (en) * | 2020-01-09 | 2021-07-15 | Caterpillar Inc. | Predicting Worksite Activities of Standard Machines Using Intelligent Machine Data |
-
2020
- 2020-07-02 WO PCT/US2020/040682 patent/WO2021003379A1/en unknown
- 2020-07-02 CN CN202080049032.4A patent/CN114080634B/zh active Active
- 2020-07-02 KR KR1020227003248A patent/KR20220030270A/ko not_active Application Discontinuation
- 2020-07-02 US US16/919,872 patent/US11618481B2/en active Active
- 2020-07-02 EP EP20834624.7A patent/EP3977227A4/en not_active Withdrawn
- 2020-07-02 JP JP2022500054A patent/JP7459224B2/ja active Active
-
2023
- 2023-04-03 US US18/194,882 patent/US12097889B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4062353B1 (ja) | 2006-11-10 | 2008-03-19 | トヨタ自動車株式会社 | 障害物進路予測方法、装置、およびプログラム |
JP2017211691A (ja) | 2016-05-23 | 2017-11-30 | 株式会社ツクタ技研 | 画像処理装置、画像処理方法、および画像処理プログラム |
WO2019020103A1 (zh) | 2017-07-28 | 2019-01-31 | 北京市商汤科技开发有限公司 | 目标识别方法、装置、存储介质和电子设备 |
US20190072973A1 (en) | 2017-09-07 | 2019-03-07 | TuSimple | Data-driven prediction-based system and method for trajectory planning of autonomous vehicles |
WO2019104112A1 (en) | 2017-11-22 | 2019-05-31 | Uber Technologies, Inc. | Object interaction prediction systems and methods for autonomous vehicles |
Also Published As
Publication number | Publication date |
---|---|
EP3977227A1 (en) | 2022-04-06 |
JP2022539250A (ja) | 2022-09-07 |
EP3977227A4 (en) | 2023-01-25 |
US20230234616A1 (en) | 2023-07-27 |
CN114080634B (zh) | 2024-04-26 |
US20210001897A1 (en) | 2021-01-07 |
US11618481B2 (en) | 2023-04-04 |
WO2021003379A1 (en) | 2021-01-07 |
CN114080634A (zh) | 2022-02-22 |
US12097889B2 (en) | 2024-09-24 |
KR20220030270A (ko) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7459224B2 (ja) | アンカー軌道を使用したエージェント軌道予測 | |
JP7367183B2 (ja) | 占有予測ニューラルネットワーク | |
JP7239703B2 (ja) | 領域外コンテキストを用いたオブジェクト分類 | |
US11727690B2 (en) | Behavior prediction of surrounding agents | |
CN114830138A (zh) | 训练轨迹评分神经网络以准确分配分数 | |
EP4060626A1 (en) | Agent trajectory prediction using context-sensitive fusion | |
CN114514524A (zh) | 多智能体模拟 | |
CA3160652A1 (en) | Agent trajectory prediction using vectorized inputs | |
US12049221B2 (en) | Multi-modal multi-agent trajectory prediction | |
US11610423B2 (en) | Spatio-temporal-interactive networks | |
US12030523B2 (en) | Agent trajectory planning using neural networks | |
US20210364637A1 (en) | Object localization using machine learning | |
CN114846523A (zh) | 使用记忆注意力的多对象跟踪 | |
US20230082365A1 (en) | Generating simulated agent trajectories using parallel beam search | |
US20230082079A1 (en) | Training agent trajectory prediction neural networks using distillation | |
CN114663503A (zh) | 从图像进行三维位置预测 | |
US20220289209A1 (en) | Evaluating multi-modal trajectory predictions for autonomous driving | |
CN114139697A (zh) | 自主载具的知识蒸馏 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7459224 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |