JP2022016419A - 軌跡予測方法及び装置 - Google Patents

軌跡予測方法及び装置 Download PDF

Info

Publication number
JP2022016419A
JP2022016419A JP2021114281A JP2021114281A JP2022016419A JP 2022016419 A JP2022016419 A JP 2022016419A JP 2021114281 A JP2021114281 A JP 2021114281A JP 2021114281 A JP2021114281 A JP 2021114281A JP 2022016419 A JP2022016419 A JP 2022016419A
Authority
JP
Japan
Prior art keywords
map
locus
point
dimensional
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021114281A
Other languages
English (en)
Inventor
皓 何
Hao He
乃岩 王
Nai Yan Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Tusimple Future Technology Co Ltd
Original Assignee
Beijing Tusimple Future Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Tusimple Future Technology Co Ltd filed Critical Beijing Tusimple Future Technology Co Ltd
Publication of JP2022016419A publication Critical patent/JP2022016419A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】特徴抽出の精度を著しく高めることができる軌跡予測方法を提供する。【解決手段】運動主体が現在の環境において運動を実行する過程において、軌跡予測ニューラルネットワークは、入力された現在の軌跡データと現在の環境の現在の地図データとを取得して高次元空間における現在の軌跡点集合及び現在の地図点集合として表現し、現在の軌跡点集合及び現在の地図点集合に基づいて、現在の環境の地図特徴及び軌跡特徴を有するグローバルシーン特徴を抽出して得て、グローバルシーン特徴に基づいて、運動主体の複数の予測軌跡点集合と、各予測軌跡点集合に対応する確率とを予測して出力する。【選択図】図11

Description

本発明は、コンピュータ技術の分野に関し、特に軌跡予測方法、装置、記憶媒体、及びコンピュータプログラムに関する。
人工知能の研究及び発展の上で、人工知能と結び付けて多くの技術分野、例えばロボット技術及び無人運転技術がより広く適用され、発展している。
ロボット及び無人運転の分野で、軌跡予測は、重要な一環である。軌跡予測は、無人運転システムの安全性能を大きく左右する。無人運転を例にとると、車両の走行中に、軌跡予測技術によって周りの車両の将来の所定期間における走行軌跡をリアルタイムで予測する必要があり、無人運転システムがこの予測の結果に基づいて安全な経路計画を作成し、衝突を避ける。
本発明の実施例は、従来の技術における軌跡予測方法が有する予測結果の精確性や信頼性が低いという問題を解決するための軌跡予測方法、装置、記憶媒体、及びコンピュータプログラムを提供する。
本発明の実施例の一態様によれば、
運動主体が現在の環境において運動を実行する過程において、軌跡予測ニューラルネットワークは、入力された現在の軌跡データと現在の環境の現在の地図データとを取得することと、
現在の軌跡データ及び現在の地図データを高次元空間における現在の軌跡点集合及び現在の地図点集合として表現することと、
現在の軌跡点集合及び現在の地図点集合に基づいてグローバルシーン特徴を抽出して得ることと、
グローバルシーン特徴に基づいて、運動主体の複数の予測軌跡点集合と、各予測軌跡点集合に対応する確率とを予測して出力することと、を含み、
現在の軌跡データは、運動主体と、現在の環境における他の1つ又は複数の運動物体との過去の所定時間帯での複数の軌跡点を含み、各軌跡点は1つの対応する時点における空間位置を含み、現在の地図データは該所定時間帯での現在の環境における道路要素の複数の地図点の空間位置を含み、現在の軌跡点集合は、現在の軌跡データの各軌跡点に対応する高次元軌跡点を含み、現在の地図点集合は、現在の地図データの各地図点に対応する高次元地図点を含み、グローバルシーン特徴は、現在の環境の地図特徴及び軌跡特徴を有し、各予測軌跡点集合は、いずれも運動主体の将来の所定時間帯での複数の時点の空間位置を含む、
軌跡予測方法が提供される。
本発明の実施例の他の態様によれば、
運動主体が現在の環境において運動を実行する過程において、入力された現在の軌跡データと現在の環境の現在の地図データとを取得することと、
現在の軌跡データ及び現在の地図データを高次元空間における現在の軌跡点集合及び現在の地図点集合として表現することと、
現在の軌跡点集合及び現在の地図点集合に基づいてグローバルシーン特徴を抽出して得ることと、のために使用されるエンコーダと、
グローバルシーン特徴に基づいて、運動主体の複数の予測軌跡点集合と、各予測軌跡点集合に対応する確率とを予測して出力するために使用されるデコーダとを含み、
現在の軌跡データは、運動主体と、現在の環境における他の1つ又は複数の運動物体との過去の所定時間帯での複数の軌跡点を含み、各軌跡点は1つの対応する時点における空間位置を含み、現在の地図データは該所定時間帯での現在の環境における道路要素の複数の地図点の空間位置を含み、グローバルシーン特徴は、現在の環境の地図特徴及び軌跡特徴を有し、各予測軌跡点集合は、いずれも運動主体の将来の所定時間帯での複数の時点の空間位置を含む、
軌跡予測方法が提供される。
本発明の実施例の他の態様によれば、
少なくとも1つのプロセッサと、少なくとも1つのメモリとを含み、
少なくとも1つのメモリには、少なくとも1つの機器実行可能な命令が記憶されており、
少なくとも1つのプロセッサは、少なくとも1つの機器実行可能な命令を実行して上記のような軌跡予測方法を実行する、
軌跡予測装置が提供される。
本発明の実施例の他の態様によれば、
上記のような軌跡予測方法を含む軌跡予測処理を実行するために使用されるように構成されたコードセグメント、
を有するコンピュータプログラムが提供される。
本発明の実施例の他の態様によれば、
上記のような軌跡予測方法を含む軌跡予測処理のためのコンピュータプログラムが記憶されている、
不揮発性記憶媒体が提供される。
本発明の実施例に係る軌跡予測方法によれば、運動主体が運動を実行するリアルタイム過程において、リアルタイムで取得された現在の軌跡データ及び現在の地図データを高次元空間における現在の軌跡点集合及び現在の地図点集合として表現し、現在の軌跡点集合及び現在の地図点集合に基づいてグローバルシーン特徴を取得して得て、グローバルシーン特徴は現在の環境の地図特徴及び軌跡特徴を有し、グローバルシーン特徴に基づいて運動主体の将来の所定時間帯での軌跡を予測することができる。ここで、現在の軌跡データ及び現在の地図データを高次元空間におけるデータの点集合として表現し、時間特徴と空間特徴とを同時に有するデータの点集合を取得することができ、グローバルシーン特徴が現在の環境の地図特徴と軌跡特徴を融合し、特徴抽出の精度を著しく高めることができ、さらに、効率で高精度な特徴抽出に基づいて、軌跡予測の結果の精度と精確性を著しく高めることができる。
図面は、本発明のさらなる理解を提供するために使用され、且つ明細書の一部を構成し、本発明の実施例と共に、本発明を説明するために使用され、本発明を限定するものではない。
本発明の実施例に係る軌跡予測ニューラルネットワークのトレーニング方法の1つの処理のフローチャートである。 本発明の実施例に係る軌跡予測ニューラルネットワークの1つの構造の模式図である。 本発明の実施例に係る軌跡予測ニューラルネットワークのトレーニング方法の他の処理のフローチャートである。 本発明の実施例に係る軌跡予測ニューラルネットワークの他の構造の模式図である。 図2bに示すステップ104aにおける処理手順のフローチャートである。 1つのシーンにおける動的物体の模式図である。 図5aに示すシーンにおいて、従来の方法を用いて動的物体の軌跡を表現する模式図である。 図5aに示すシーンにおいて、本発明の実施例に係る方法を用いて動的物体の軌跡を表現する模式図である。 図2bのステップ106aの処理手順のフローチャートである。 図6のステップ1062aの処理手順のフローチャートである。 図7aのステップ621の処理手順のフローチャートである。 一例における1つの高次元軌跡点と隣接する高次元地図点を決定する模式図である。 一例における地図の関係学習を行う伝播の模式図である。 図6のステップ1063aの処理手順のフローチャートである。 本発明の実施例に係るリアルタイム処理段階における軌跡予測方法の一処理のフローチャートである。 図11のステップ1106の処理手順のフローチャートである。 図12のステップ1062’の処理手順のフローチャートである。 図12のステップ1063’の処理手順のフローチャートである。 本発明の実施例に係る軌跡予測ニューラルネットワークの他の構造の模式図である。 本発明の実施例に係る軌跡予測ニューラルネットワークの他の構造の模式図である。 本発明の実施例に係る軌跡予測ニューラルネットワークの他の構造の模式図である。 本発明の実施例に係る1回のグローバル特徴抽出操作のフローチャートである。 本発明の実施例に係る軌跡予測装置の構造模式図である。
以下、当業者が本発明の技術態様をよりよく理解できるように、本発明の実施例における図面を参照しながら、本発明の実施例における技術態様を明確且つ完全に説明する。説明される実施例は、本発明の一部の実施例にすぎず、すべての実施例ではないことは明らかである。本発明の実施例に基づいて、当業者が創造的な労働を行わない前提で得られるすべての他の実施例は、本発明の保護範囲に属すべきである。
ロボット技術や無人運転技術の中で、非常に重要な技術の一つは、ロボットや無人運転車両のために、安全かつ信頼性のある経路計画を如何に行うかである。経路計画はまた、ロボットや無人運転車両が位置する環境における他の動的物体の運動の軌跡を精確で有効に予測することに依存する。動的物体の運動の軌跡に対する精確で有効な予測に基づいてこそ、ロボットや無人運転車両に対して、安全かつ信頼性のある経路計画の作成が可能となる。
従来の技術では、複数の方法によって物体の運動の軌跡を予測することができる。
1つの履歴の軌跡データに基づく予測方法は、ニューラルネットワークを作成し、履歴の軌跡データを使用してニューラルネットワークをトレーニングし、軌跡を予測可能なニューラルネットワークを得る。この方法では、ニューラルネットワークによって実行される操作が通常、特徴抽出操作と予測操作を含み、特徴抽出操作によって動的物体(例えば車両、バイク、自転車又は歩行者)の過去の所定期間における走行軌跡の時間-空間特徴(即ち、時空間特徴)を取得し、予測操作によって抽出された時空間特徴に基づいて車両の将来の所定期間における軌跡を予測するようになっている。特徴抽出操作は、通常、先に複数の時点(時間特徴とも呼ぶ)を抽出してから、それぞれの時点における各動的物体の空間特徴を抽出し、空間特徴と時間特徴を融合させる。
上記の特徴抽出操作において、空間特徴の抽出は非常に時間の掛かる操作であり、このような処理手順はリアルタイムの処理環境に適用することができない。加えて、異なる時点間の動的物体間の空間の繋がりや空間の影響が捨てられ、特徴抽出操作は複数の時点間の空間特徴の複雑な繋がり及び影響を模擬できなくなってしまう。このような予測手順は、信頼性のない予測結果しかもたらすことができない。さらに、この方法は、ノイズのある入力データを処理することができない。ノイズのある入力データとは通常、ある動的物体の不完全な軌跡データをいう。不完全な軌跡データに対して、通常、この方法の処理は、この動的物体の全ての軌跡データを削除することと、不完全な軌跡データを充填することの二種類がある。このような制限は、明らかに予測結果の精確性と精度に影響を与え、上記の方法をリアルタイムの応用環境に適用できないようにしている。
他の履歴の軌跡と道路情報に基づく方法では、通常、環境における高精度地図の情報及び異なる車両の走行軌跡を、平面視で見たラスタライズ画像で示し、ラスタライズ画像における画素RGB値をニューラルネットワークに入力し、ニューラルネットワークが、入力データに基づいて特徴を抽出し、抽出された特徴に基づいて軌跡予測を行う。この方法は、軌跡の情報及び道路構造の情報を保持することができるが、示される必要のあるシーンの面積が広く、画像で示すと、過量な冗長情報が記憶されてしまい(例えば、多くの車両のない場所が画像における画素点に対応してしまう)、さらにニューラルネットワークの演算効率が低いという問題をもたらしてしまう。
従来の技術による軌跡予測方法においては、予測操作に時間が掛かり、効率が低く、リアルタイム処理の環境に適用することができないという問題、及び予測結果の精確性が低く、信頼性及び効率が低いという問題があることが分かる。
そこで、本発明の実施例は、上記の問題の一部又は全部を解決するために、軌跡予測態様を提供する。
本発明は、無人運転技術を例として本発明に係る軌跡予測態様について説明する。当業者にとっては、本発明に係る軌跡予測態様が他の技術分野、例えばロボットの分野にも適用できることが理解できる。
本発明では、用語「車両」が本発明で任意の移動物体を含むものとして広く解釈され、例えば航空機、船、宇宙船、自動車、トラック、バン、セミトレーラー、バイク、ゴルフカート、オフローダー、倉庫の輸送車両又は農業用トラック、及び例えば電車又は汽車及び他の鉄道車両などの軌道上を走行する輸送手段を含む。本発明に係る「車両」は通常、動力システム、センサシステム、制御システム、周辺機器及びコンピュータシステムを含んでもよい。他の実施例において、車両は、より多い又はより少ない数のシステム、又は、異なるシステムを含んでもよい。
ただし、動力システムは、車両に動力を提供して運動させるものであり、エンジン/モータ、トランスミッションとホイール/タイヤ、エネルギーユニットを含む。
制御システムは、車両及びそのコンポーネントを制御する装置の組合せ、例えば、ステアリングユニット、スロットル、制動ユニットなどの部品を含んでもよい。
周辺機器は、車両と外部センサ、他の車両、外部のコンピューティングデバイス及び/又はユーザとのインタラクトを可能にする設備、例えば、無線通信システム、タッチスクリーン、マイクロフォン及び/又はスピーカであってもよい。
上記説明した車両に基づいて、無人運転車両にはセンサシステムと無人運転制御装置も配置されている。
センサシステムは、車両が位置する環境の情報を検知するための複数のセンサ、及びセンサの位置及び/又は方向を変更する1つ又は複数のアクチュエータを含んでもよい。センサシステムは、全地球測位システムセンサ、慣性計測ユニット、無線検出及び測距(RADAR)ユニット、カメラ、レーザー距離計、光検出及び測距(LIDAR)ユニット及び/又は音響センサ等のセンサの任意の組合せを含んでよく、センサシステムは、車両内部のシステムを監視するセンサ(例えばO2モニタ、燃料計、エンジン温度計等)を含んでもよい。
無人運転制御装置は、少なくとも1つのプロセッサと少なくとも1つのメモリを含んでもよい。プロセッサは、中央処理装置(CPU: Central Processing Unit)及び/又は画像処理装置 (GPU: Graphics Processing Unit)を含んでもよい。メモリには、少なくとも1つの機器実行可能な命令が記憶されているが、該少なくとも1つの機器実行可能な命令を含むプログラムプロダクトを無人運転制御システムと呼ぶことができる。無人運転制御システムは、地図エンジン、測位モジュール、感知モジュール、ナビゲーション又は経路モジュール、及び自動制御モジュール等の複数のモジュールを含んでもよく、それに応じて、プロセッサが少なくとも1つの機器実行可能な命令を実行して、地図構築、測位、感知、ナビゲーション又は経路計画、及び車両制御等の機能を含む複数の対応する機能を実現することができる。地図エンジンと測位モジュールは、地図及び測位の情報を提供するために使用される。感知モジュールは、センサシステムによって取得された情報及び地図エンジンによって提供された地図情報に基づいて、車両が位置する環境の環境情報を感知するために使用される。ナビゲーション又は経路モジュールは、地図エンジン、測位モジュール及び感知モジュールの処理結果に基づいて、車両に走行経路を計画するために使用される。自動制御モジュールは、ナビゲーション又は経路モジュール等のモジュールの意思決定情報を、入力して解析し、車両制御システムに対する制御命令に変換して出力し、車載ネットワークによって(例えば、CANバス、ローカルインターコネクトネットワーク(LIN:Local Interconnect Network)、マルチメディア指向性システム伝送(MOST:Media Oriented Systems Transport)等の方法による車両内部の電子ネットワークシステムによって)車両制御システムにおける対応する部品に制御命令を送信して車両に対する自動制御を実現する。自動制御モジュールは、車載ネットワークによって車両における各部品の情報を取得することもできる。
車両に経路を計画する過程において、軌跡予測技術によって周りの動的物体(例えば車両、バイク、自転車又は歩行者)の将来の所定期間における走行軌跡をリアルタイムで予測する必要があり、この予測の結果に基づいて安全かつ信頼性のある経路計画を作成する。
本発明の実施例に係る学習に基づく軌跡予測態様は、トレーニング段階とリアルタイム処理段階という2つの段階を含む。
トレーニング段階において、特定のネットワーク構造と初期のパラメータ集合を有するニューラルネットワークを設置する。教師あり学習方法を使用して、履歴の実際のデータに基づいて学習を行うようにニューラルネットワークをトレーニングして、トレーニングの結果が収束の条件を満たす場合、ニューラルネットワークのパラメータ集合が得られる。該特定のネットワーク構造及びトレーニングによるパラメータ集合を有するニューラルネットワークは、即ち、軌跡予測を実現するニューラルネットワークであり、又は、軌跡予測ニューラルネットワークとも呼ばれる。
リアルタイム処理段階において、1つの動的主体に対して軌跡予測を行う場合、動的主体及び周りの動的物体の現在の軌跡点集合データと現在の環境における現在の地図点集合データを軌跡予測ニューラルネットワークに提供し、該ニューラルネットワークは、運動データの処理を行って、該動的主体の将来の複数の軌跡点集合及びそれぞれの軌跡点集合の対応する確率を予測する。
以下、複数の実施例によって、本発明の技術態様について説明する。
軌跡予測ニューラルネットワークを得るためのトレーニング
トレーニング段階において、複数のネットワーク層を含むことができるニューラルネットワークを構築し、該ニューラルネットワークに初期パラメータ集合を設定する。ニューラルネットワークにおけるネットワーク層の層数及び初期パラメータ集合が、ユースシーンのニーズに応じて、具体的に設定されてもよい。
本発明の実施例は、履歴の実際の第1の軌跡データ及び第2の軌跡データと、履歴の地図データとによって、構築されたニューラルネットワークをトレーニングする。
本発明の実施例において、第1の軌跡データ及び第2の軌跡データには運動主体及び周りの1つ又は複数の運動物体の複数の軌跡点が含まれ、各軌跡点は1つの対応する時点における空間位置を含む。該空間位置は、二次元位置、三次元位置又は高次元位置であってもよい。例えば、車両が比較的平坦な路面を走行する過程において、路面の高さの変化の幅が小さければ、高さ情報を無視してもよく、軌跡データには運動主体及び運動物体の二次元位置のみが含まれてもよい。他の分野では、例えば、特殊用途のロボットにおいては、運動過程中に高さが大幅に変化する可能性があるため、軌跡データには運動主体及び運動物体の三次元位置が含まれてもよい。他のユースシーンにおいて、他の次元の位置情報がある、又は、他の次元の位置情報を考える必要がある場合、軌跡データには、高次元位置のデータが含まれてもよい。簡潔及び便宜のために、本発明では、すべて二次元位置を例として解釈して説明する。当業者は、空間位置が三次元位置又は高次元位置である場合、三次元位置又は高次元位置に対して、対応する位置変換や座標変換等の処理を行う、又は、具体的なユースシーンのニーズに応じて、対応する位置処理と座標処理を行うことができることを理解すべきである。
本発明の実施例において、第1及び第2の軌跡データは、時間的に前後に隣り合うデータ集合であり、例えば第1の軌跡データはi番目の時間帯のデータ集合であり、第2の軌跡データはi+1番目の時間帯のデータ集合である。i番目の時間帯の時間の長さはmであり、i+1番目の時間帯の時間の長さはnであり、いくつかの実施例において、mとnは等しくてもよく、例えば、すべて3秒の時間の長さを含み、他のいくつかの実施例において、mとnは、等しくなくてもよく、例えば、i番目の時間帯の時間の長さは3秒であり、i+1番目の時間帯の時間の長さは2秒数である。i番目の時間帯で頻度uによって複数の時点が得られ、i+1番目の時間帯で頻度vによって複数の時点が得られるが、uとvは、等しくてもよいし、等しくなくてもよい。
履歴の地図データは、第1の軌跡データに対応する時間帯で(例えば、i番目の時間帯)の運動主体が位置する環境における道路要素の複数の地図点の空間位置を含む。履歴の地図データは、車両の走行過程中の高精度地図からのものであってもよい。道路要素は、車線、歩道、路肩、ランプウェイ、交差点、ロータリー等の要素であってもよい。本発明は、車線等の道路要素に対して所定距離ごとにサンプリングを行い、一連の地図点を得て、各地図点には該点の空間位置が記録されている。上記の軌跡点の空間位置に対応して、地図点の空間位置は、二次元位置、三次元位置又は高次元位置であってもよい。
図1は、本発明の実施例に係る軌跡予測ニューラルネットワークのトレーニング方法の処理手順を示しており、該トレーニング処理は複数回の反復トレーニングを含み、1回の反復トレーニングは、
履歴の第1の軌跡データと履歴の地図データを入力としてニューラルネットワークに提供するステップ102と、
ニューラルネットワークは、第1の軌跡データ及び履歴の地図データを高次元空間における第1の軌跡点集合と履歴の地図点集合として表現するステップ104と、
第1の軌跡点集合、履歴の地図点集合に基づいて現在の環境の地図特徴と軌跡特徴を有するグローバルシーン特徴を抽出して得るステップ106と、
グローバルシーン特徴に基づいて運動主体の複数の軌跡点集合と、いずれも運動主体の将来の所定時間帯での複数の時点の空間位置を含む各軌跡点集合に対応する確率とを予測して出力するステップ108と、
出力された各軌跡点集合について、該出力された軌跡点集合及び第2の軌跡データを損失関数の入力とし、1つの対応する損失関数の出力を得るステップ110と、
すべての損失関数の出力が予め設定された収束の条件を満たすか否かを判断し、収束の条件を満たすと判断した場合、処理がステップ116に進み、収束の条件を満たさない場合、処理がステップ114に戻るステップ112と、
ニューラルネットワークのパラメータを調整し、処理がステップ102に戻るステップ114と、
トレーニングの完了を決定し、トレーニングを完了したニューラルネットワークのパラメータ集合を取得するステップ116と、
の処理を含む。
以下、例示的な実施例によって、図1に示す処理手順について説明する。
運動主体と運動物体の数をNと仮定すると、第1の軌跡データにはT個の時点が含まれ、
Figure 2022016419000002
は、運動主体又は運動物体nの時点tにおける二次元位置を示し、
Figure 2022016419000003

Figure 2022016419000004
が二次元空間の表示である。運動主体又は1つの運動物体nの軌跡データは、
Figure 2022016419000005
として表すことができ、そのうち、
Figure 2022016419000006
は、該物体の過去の時点1から観察時点Tまでの履歴の位置を示し、
Figure 2022016419000007
は、該物体の将来の時点T+1から時点T+sまでの将来位置を示す。
Figure 2022016419000008
は、第1の軌跡点集合と見なすことができ、
Figure 2022016419000009
は、第2の軌跡点集合と見なすことができる。
履歴の地図点集合には
Figure 2022016419000010
段の車線が含まれると仮定し、第1の軌跡データに対応する時間帯は時点1から観察時点Tまでであり、この期間における
Figure 2022016419000011
段目の車線の地図データは
Figure 2022016419000012
であり、
Figure 2022016419000013
は、
Figure 2022016419000014
段目の車線に含まれる
Figure 2022016419000015
個のサンプル地図点の地図位置を示し、
Figure 2022016419000016
は、
Figure 2022016419000017
段目の車線におけるサンプル地図点
Figure 2022016419000018
の地図位置を示す。
軌跡予測の目的は、
Figure 2022016419000019
及び地図データ
Figure 2022016419000020
によって、
Figure 2022016419000021
と最適なマッチングを形成することができるマルチモーダル分布の予測軌跡点集合を予測して得ることである。
該例示的な実施例において、図2aに示すように、ニューラルネットワークの構造は、実現する機能によってエンコーダ1とデコーダ2を含んでもよい。該例示的な実施例において、ニューラルネットワークに対するトレーニング処理は、
履歴の第1の軌跡データと履歴の地図データを入力としてエンコーダ1に提供するステップ102aと、
エンコーダ1は、第1の軌跡データ及び履歴の地図データを高次元空間における第1の軌跡点集合と履歴の地図点集合として表現するステップ104aと、
エンコーダ1は、第1の軌跡点集合と履歴の地図点集合に基づいて運動主体が位置する環境の地図特徴と軌跡特徴を有するグローバルシーン特徴を抽出して得るステップ106aと、
デコーダ2は、グローバルシーン特徴に基づいて運動主体の複数の軌跡点集合と、いずれも運動主体の将来の所定時間帯での複数の時点の空間位置を含む各軌跡点集合に対応する確率とを予測して出力するステップ108aと、
出力された各軌跡点集合について、該出力された軌跡点集合及び第2の軌跡点集合を損失関数の入力とし、1つの対応する損失関数の出力を得るステップ110と、
すべての損失関数の出力が予め設定された収束の条件を満たすか否かを判断し、収束の条件を満たすと判断した場合、処理がステップ116に進み、収束の条件を満たさない場合、処理がステップ114に戻るステップ112と、
ニューラルネットワークのパラメータを調整し、処理がステップ102aに戻るステップ114と、
トレーニングの完了を決定し、トレーニングを完了したニューラルネットワークのパラメータ集合を取得するステップ116と、
の図2bに示す手順を含む。
以下、いくつかの実施例におけるニューラルネットワークの構造設定によって、上記のステップ104a~108aの処理手順について説明する。
いくつかの実施例において、図3に示すように、エンコーダ1に入力表示層11を設置することによって、ステップ104aを実施することができる。図4に示すように、ステップ104aは、
入力表示層11は、所定の無順序の軌跡データのフォーマットで第1の軌跡データを表現し、無順序な第1の軌跡点集合を得るステップ1041aと、
所定の無順序の地図データのフォーマットで履歴の地図データを表現し、無順序な履歴の地図点集合を得るステップ1042aと、
の処理手順として実施されることができる。
ステップ1041aにおいて、予め設定された軌跡データのフォーマットは、具体的なユースシーンのニーズに応じて、具体的に設定されてもよい。一例では、簡潔と拡張性から考えると、下記の式(1)に示す軌跡データのフォーマットで第1の軌跡データを表すことができる。
Figure 2022016419000022
ここで、
Figure 2022016419000023
は運動主体及び1つ又は複数の運動物体であり、
Figure 2022016419000024
は複数の時点であり、
Figure 2022016419000025
は物体nの時間tにおける二次元位置(即ち、1つの軌跡点)である。
Figure 2022016419000026
は、物体nの時間tにおける空間位置
Figure 2022016419000027
が高次元空間にマッピングされた1つの対応点であり、Pは高次元空間にマッピングされた第1の軌跡点集合である。
ステップ1042aにおいて、下記の式(2)に示す地図データのフォーマットで履歴の地図点集合を表す。
Figure 2022016419000028
ここで、
Figure 2022016419000029
は、
Figure 2022016419000030
段目の車線におけるサンプル地図点
Figure 2022016419000031
の地図位置であり、
Figure 2022016419000032
段目の車線に
Figure 2022016419000033
個のサンプル地図点が含まれ、該履歴の地図点集合に
Figure 2022016419000034
段の車線が含まれる。
Figure 2022016419000035
は、1つのサンプル地図点
Figure 2022016419000036
が高次元空間にマッピングされた1つの対応点であり、Mは、高次元空間にマッピングされた履歴の地図点集合である。
例示的なシーンにおいて、入力表示層11は、式(1)で第1の軌跡データにおけるデータを高次元空間(例えば、時空間座標系)にマッピングする。該シーンにおいて、図5aに示すように、動的物体には、2台の車、1台の自転車及び1人の歩行者が含まれる。図5bは、伝統的な表示方法で該シーンにおける動的物体の軌跡を表現する場合を示しており、即ち、二次元空間座標系において物体の二次元位置を表現する。該二次元空間座標系において、各データ点は空間特徴のみを有する。図5cは、本発明の実施例に係るデータ表現方法で該シーンにおける第1の軌跡点集合を、時空間座標系に表現する場合を示している。該座標系において、x軸とy軸は二次元空間の座標軸を示しており、z軸は時間軸であり、該座標系における各データ点は同時に時間特徴と空間特徴を有する。
所定の無順序で拡張可能なデータのフォーマットで第1の軌跡データを表現することによって、運動主体と運動物体の時系列順に発生する位置データを、時空間座標系にマッピングすることができ、即ち、順序あるデータを離散で無順序な点集合にマッピングすることができる。時空間座標系に表現された高次元第1の軌跡点集合は、第1の軌跡データの表現方式又は表現順序の変更に伴って変更されず、1つの物体に欠損データがあることによって、該物体のデータが表現できなくなることはない。第1の軌跡データを高次元空間にマッピングすることによって、従来の技術において、入力データにノイズがある際に余分な処理が必要となるという問題を克服し、欠損のある入力データの処理のロバスト性を向上させることができることがわかる。
さらに、所定のデータのフォーマットによって、第1の軌跡データにおけるすべてのデータを同じ高次元空間(例えば、時空間座標系)に統一して表現することができ、時間特徴と空間特徴を同じ表現に統一することで、後続の特徴抽取処理は、統一で融合された時間特徴と空間特徴を抽取することができる。
入力表示層11は、所定の無順序なデータのフォーマットで、即ち、式(2)で履歴の地図データを表現することによって、道路要素を高次元空間(例えば時空間座標系)における離散で無順序な点集合として表現することができる。時空間座標系に表現された地図点集合は、道路データの表現方式又は表現順序の変更に伴って変更されず、道路要素にデータが欠損することによって、道路要素が表現できなくなることはない。
一方、運動主体と運動物体の軌跡データ、及び道路要素の地図データを高次元空間における離散で無順序な高次元データの点集合として表現することによって、従来の技術において、ラスタライズ画像で高精度地図の情報及び異なる車両の走行軌跡を示し、ラスタライズ画像における画素RGB値をニューラルネットワークに入力して特徴を抽出するよりも、ニューラルネットワークの処理のデータ量を著しく減らし、ニューラルネットワークの処理速度と処理効率を向上させることができる。
いくつかの実施例において、図3に示すように、エンコーダ1に埋め込み層12、関係学習層13、グローバル特徴抽出層14及び特徴出力層15を設置することによって、ステップ106aを実施することができる。図6に示すように、ステップ106aは、以下の処理手順で実施されることができる。
ステップ1061aにおいて、埋め込み層12は、第1の軌跡点集合を所定の高次元空間に埋め込んで高次元軌跡点特徴を得て、履歴の地図点集合を所定の高次元空間に埋め込んで高次元地図点特徴を得る。
埋め込み操作の目的は、高次元空間の高次元軌跡点
Figure 2022016419000037
を、データの時間特徴と空間特徴を統一することが可能な隠れた軌跡特徴
Figure 2022016419000038
にマッピングすることである。いくつかの実施例において、埋め込み層12は多層パーセプトロン(Multilayer Perceptron、MLP)によって実現されることができる。MLPは、フルメッシュ型ネットワークを含んでもよく、ネットワークにおけるニューロンの活性化関数はReLU活性化関数であってもよい。さらに、埋め込み層の各層の後には、1つのバッチ正規化層(Batch Normalization、BN)が設置されてもよい。
説明の便宜上、下記の式(3)で第1の軌跡点集合を高次元空間に埋め込み(又はマッピング)操作を表すことができる。ここで、
Figure 2022016419000039
は多層パーセプトロンである。
Figure 2022016419000040
同様に、履歴の地図点集合に対する埋め込みの原理は似ていて、下記の式(4)で高次元地図点
Figure 2022016419000041
を地図特徴
Figure 2022016419000042
にマッピングすることができる。ここで、
Figure 2022016419000043
は多層パーセプトロンである。
Figure 2022016419000044
埋め込み操作は、高次元第1の軌跡点集合と高次元履歴の地図点集合を複数の次元からなる高次元空間に埋め込むが、各次元におけるデータは、いずれも時間特徴と空間特徴を含む。
ステップ1062aにおいて、関係学習層13は、第1の軌跡点集合、履歴の地図点集合、高次元軌跡点特徴、及び高次元地図点特徴に基づいて、ローカル地図情報を有する高次元軌跡点特徴であるローカルシーン特徴を取得して得る。
一例では、図7aに示すように、ステップ1062aは、以下の処理手順で実施されることができる。
ステップ621において、関係学習層13は、第1の軌跡点集合と履歴の地図点集合に基づいて、各高次元軌跡点と、該高次元軌跡点の周りにおける所定の複数の高次元地図点との間の複数の地図空間関係を決定して得る。
一例では、関係学習層13に、計算処理を行うネットワークを設置することによってステップ621を実施することができ、図7bに示すように、ステップ621の実施過程は、以下を含む。
ステップS1において、1つの高次元軌跡点とのユークリッド距離が予め設定された距離閾値内にある所定数の複数の高次元地図点を決定して得る。
一例では、図8に示すように、(a)部分は、第1の軌跡データにおける軌跡点、及び履歴の地図データにおける地図点を示し、入力表示層11によって第1の軌跡データと履歴の地図データが表示されると、(b)部分に示す高次元軌跡点と高次元地図点が得られ、(c)部分に示すように、ステップS1によって1つの高次元軌跡点と隣接する複数の高次元地図点を決定して得る。
図9は、直観的な表現によってこの関連を示している。1つの高次元軌跡点
Figure 2022016419000045
の予め設定された距離内には、4つ近接した高次元地図点
Figure 2022016419000046

Figure 2022016419000047

Figure 2022016419000048
及び
Figure 2022016419000049
がある。高次元地図点から高次元軌跡点に指している矢印は、関係学習を利用してローカル地図特徴を軌跡特徴に伝播し、相対的な空間関係を得る過程、即ち下記のステップS2を示す。
ステップS2において、該高次元軌跡点と、該複数の高次元地図点のうちの各高次元地図点との間の相対的な空間関係をそれぞれ決定し、1つの相対的な空間関係は、該高次元軌跡点及び1つの高次元地図点の絶対位置及び相対位置と、該軌跡点と該地図点との間の相対距離及び相対方向とを含む。
ここで、
Figure 2022016419000050
は高次元軌跡点の絶対位置であり、
Figure 2022016419000051
は高次元地図点の絶対位置であり、
Figure 2022016419000052
は高次元軌跡点と高次元地図点との間の相対位置であり、dist
Figure 2022016419000053
は高次元軌跡点と高次元地図点との間の相対距離であり、
cos
Figure 2022016419000054
は高次元軌跡点と高次元地図点との間の相対方向であり、
Figure 2022016419000055
は運動主体又は運動物体nの時点tにおける速度である。
1つの高次元軌跡点と1つの高次元地図点との間の相対的な空間関係
Figure 2022016419000056
は、下記の式(5)として表すことができる。
Figure 2022016419000057
ステップ623において、1つの高次元軌跡点に対応する各相対的な空間関係を高次元空間にそれぞれ埋め込んで高次元地図空間関係を得て、各高次元地図空間関係と、対応する高次元地図点特徴とのドット積を行って1つの加重地図特徴を得て、該高次元軌跡点の複数の加重地図特徴に対して最大化処理を行って最大加重地図特徴を選択して得る。
ここで、1つの高次元軌跡点に対応する複数の相対的な空間関係をいずれも高次元空間に埋め込むという操作は、上記の式(3)又は(4)の埋め込み操作を参照することができ、関係学習層13に埋め込み層(例えば、多層パーセプトロンMLP)を設置することによって該埋め込み操作を実行することができる。埋め込み操作の後に複数の高次元地図空間関係を得ることができ、複数の高次元地図空間関係を該高次元軌跡点とそれぞれドット積を行ってから、複数のドット積の結果、つまり、複数の加重地図特徴を得るが、関係学習層13にドット積の計算を実現するネットワーク層を設置することによってドット積操作を実行することができる。これらの複数のドット積の結果に対して最大化処理を行ってから、最大加重地図特徴を得ることができるが、関係学習層13にプーリング層(例えば、最大プーリング層又は平均プーリング層)を設置することによって最大化処理を実現することができる。
ステップ625において、最大加重地図特徴と、該高次元軌跡点に対応する高次元軌跡点特徴とを加算して1つのローカルシーン特徴を得る。
式(6)でステップ623及び625の処理手順を表すことができる。
Figure 2022016419000058
ここで、
Figure 2022016419000059
はローカルシーン特徴であり、符号
Figure 2022016419000060
は最大化処理を表し、
Figure 2022016419000061
は相対的な空間関係に対して埋め込み処理を行うことであり、
Figure 2022016419000062
は高次元地図点特徴であり、kは、1つの軌跡点とのユークリッド距離が予め設定された距離の閾値内にある地図点の所定数である。
図7aに示す処理によって、1つの高次元軌跡点の周りにおける複数の高次元地図点の地図情報を該高次元軌跡点に伝播し、即ち、1つの高次元軌跡点の周りにおけるローカル地図情報を該高次元軌跡点に伝播し、ローカルの地図情報及び軌跡点の時空間情報を有するローカルシーン特徴を得ることができる。ローカルシーン特徴は、後から精確さがより高い予測軌跡点集合を得るためのデータの基礎を提供する。
ステップ1063aにおいて、グローバル特徴抽出層14は、ローカルシーン特徴及び高次元地図点特徴に対してそれぞれグローバル特徴抽出操作を実行して、グローバル軌跡特徴及びグローバル地図特徴を抽出して得る。
1つの実施例において、図10に示すように、ステップ1063aは、
ローカルシーン特徴における各特徴に対して特徴を抽出し、抽出された特徴に対して最大化処理を行って、選択された最大の特徴をグローバル軌跡特徴とするステップ631と、
高次元地図点特徴における各特徴に対して特徴を抽出し、抽出された特徴に対して最大化処理を行って、選択された最大の特徴をグローバル地図特徴とするステップ633と
の処理手順で実施されることができる。
ローカルシーン特徴と高次元地図点特徴を得た後、データの異なる配列に対して不変性を保持する必要がある。特徴抽出層は、高次元空間に含まれる各次元におけるデータに対して特徴を抽出し、時間特徴と空間特徴を融合したグローバル地図特徴、及びローカル地図特徴を融合したグローバル軌跡特徴を含むグローバル特徴を得る。グローバル特徴は、多次元の特徴を含むが、各次元が特徴空間の一部に対応し、つまり、時空間特徴における一部を表現する。
いくつかの実施例において、グローバル特徴抽出層14は、順番にグローバル軌跡特徴とグローバル地図特徴を抽出するために使用される1つのプーリング層を含んでよく、グローバル軌跡特徴とグローバル地図特徴をそれぞれ抽出するために使用される2つの並列するプーリング層を含んでもよい。
ステップ1064aにおいて、特徴出力層15は、グローバル軌跡特徴とグローバル地図特徴に基づいてグローバルシーン特徴を決定して得る。
ここで、特徴出力層15は、グローバル軌跡特徴をグローバル地図特徴に加算してグローバルシーン特徴を得る。該グローバルシーン特徴にはグローバル地図特徴とグローバル軌跡特徴が含まれ、後から精確さがより高い予測軌跡点集合を得るためのデータの基礎を提供する。
デコーダ1はグローバルシーン特徴を決定した後、デコーダ2はグローバルシーン特徴に基づいて予測処理を行うことができる。
いくつかの実施例において、図3に示すように、デコーダ2にマルチヘッド型デコーダ21と確率決定層22を設置することができる。
マルチヘッド型デコーダ21は、複数のサブデコーダを含んでもよく、サブデコーダは、循環ニューラルネットワーク又は多層パーセプトロンであってもよい。循環ニューラルネットワークは、長短期記憶ネットワーク(Long-Short Term Memory、LSTM)又はゲート付き回帰型ユニット(GRU:Gated recurrent unit)を含む。他のいくつかの実施例において、確率論的デコーダ(Stochastic Decoder)を選択してもよい。
特定する初期パラメータ集合を有する各サブデコーダは、グローバルシーン特徴に基づいて1つの予測軌跡点集合を予測して得ると、マルチヘッド型デコーダ21は複数の予測軌跡点集合を出力する。
確率決定層22は各予測軌跡点集合に対して1つの対応する確率を決定して得る。確率決定層22は1つのソータであってもよい。
上記のステップ110において、出力された各軌跡点集合について、該出力された軌跡点集合及び第2の軌跡点集合を損失関数の入力とし、1つの対応する損失関数の出力を得る。
損失関数は、ガウス分布の負の対数尤度(Negative Log likelihood、NLL)関数であってもよい。
上記のトレーニングによってニューラルネットワークのパラメータ集合を得ることができ、該トレーニングによって得られたパラメータ集合を有し、かつ特定の構造を有するニューラルネットワークは、軌跡予測ニューラルネットワークである。該軌跡予測ニューラルネットワークによって、リアルタイム処理段階において、入力された現在の軌跡点集合及び現在の地図点集合に対して処理を行い、将来の時間帯の複数の予測軌跡点集合及び各予測軌跡点集合に対応する確率を予測して得ることができる。
上記のトレーニング過程によって、履歴の第1の軌跡データを高次元空間における第1の軌跡点集合にマッピングし、履歴の地図データを高次元空間における履歴の地図点集合にマッピングし、順序ある軌跡データを無順序なデータ点に変換することで、データのノイズによる後続の影響を克服し、データの処理のロバスト性を向上させることができる。エンドツーエンドの学習方式によって軌跡データと地図データに対する特徴抽出を実現することで、特徴抽出操作の速度と効率を著しく向上させ、ユースシーンのリアルタイム性へのニーズをよりよく満たすことができる。抽出されたグローバルシーン特徴はグローバル軌跡特徴とグローバル地図特徴を有し、グローバル軌跡特徴はローカル地図特徴と軌跡特徴を融合し、軌跡特徴は時間特徴と空間特徴とを同時に有する。グローバルシーン特徴に基づいて予測して得た予測軌跡点集合は、軌跡予測の結果の精度と精確性を著しく高めることができる。
リアルタイム処理段階における軌跡予測
図1に示す処理と対応し、図11は、リアルタイム処理段階において、軌跡予測ニューラルネットワークによって物体の運動軌跡を予測する処理手順を示している。
ステップ1102において、運動主体が現在の環境において運動を実行する過程において、軌跡予測ニューラルネットワークは、入力された現在の軌跡データと現在の環境の現在の地図データとを取得し、現在の軌跡データは、運動主体と、現在の環境における他の1つ又は複数の運動物体との過去の所定時間帯での複数の軌跡点を含み、各軌跡点は1つの対応する時点における空間位置を含み、現在の地図データは該所定時間帯での現在の環境における道路要素の複数の地図点の空間位置を含む。
ステップ1104において、現在の軌跡データ及び現在の地図データを高次元空間における現在の軌跡点集合及び現在の地図点集合として表現し、現在の軌跡点集合は、現在の軌跡データの各軌跡点に対応する高次元軌跡点を含み、現在の地図点集合は、現在の地図データの各地図点に対応する高次元地図点を含む。
ステップ1106において、現在の軌跡点集合及び現在の地図点集合に基づいてグローバルシーン特徴を抽出して得て、グローバルシーン特徴は、現在の環境の地図特徴及び軌跡特徴を有する。
ステップ1108において、グローバルシーン特徴に基づいて、運動主体の複数の予測軌跡点集合と、各予測軌跡点集合に対応する確率とを予測して出力し、各予測軌跡点集合は、いずれも運動主体の将来の所定時間帯での複数の時点の空間位置を含む。
以下、例示的な実施例によって、図11に示す処理について説明し、該例では、ニューラルネットワークは図3に示すニューラルネットワークであってもよい。該ニューラルネットワークにはエンコーダ1とデコーダ2が含まれる。エンコーダ1には入力表示層11、埋め込み層12、関係学習層13、グローバル特徴抽出層14及び特徴出力層15が含まれる。デコーダ2にはマルチヘッド型デコーダ21と確率決定層22が含まれる。
上記のステップ1102において、軌跡予測ニューラルネットワークに入力される現在の軌跡データは、上流のモジュール、例えば感知モジュールからのものであってもよい。感知モジュールは、感知データの中から現在の軌跡データを選択して、現在の軌跡データを軌跡予測ニューラルネットワークのエンコーダ1に提供する。軌跡予測ニューラルネットワークに入力される現在の地図データは、上流の地図モジュールからの高精度地図データであってもよい。
現在の軌跡データは、上記の第1の軌跡データと同じ設定を有してもよく、現在の地図データは、上記の現在の地図データと同じ設定を有してもよい。
上記のステップ1104において、図3に示す入力表示層11によってステップ1104を実行することができる。
該例では、入力表示層11は、所定の無順序の軌跡データのフォーマットで現在の軌跡データを表現し、高次元空間にマッピングされた無順序の現在の軌跡点集合を得て、軌跡データのフォーマットは上記の式(1)に示すフォーマットであってもよく、現在の軌跡点集合は現在の軌跡データの各軌跡点に対応する高次元軌跡点を含む。所定の無順序の地図データのフォーマットで現在の地図データを表現し、高次元空間にマッピングされた無順序の現在の地図点集合を得て、地図データのフォーマットは上記の式(2)に示すフォーマットであってもよく、現在の地図点集合は現在の地図データの各地図点に対応する高次元地図点を含む。
ステップ1104の具体的な処理手順は、上記のステップ104aの式(1)及び(2)と図4の処理を参照してもよい。
該例では、上記のステップ1106が、図3に示す埋め込み層12、関係学習層13、グローバル特徴抽出層14及び特徴出力層15、及び図6に示す処理を参照することによって実行されることができる。図12に示すように、ステップ1106は、以下を含んでもよい。
ステップ1061’において、埋め込み層12は、現在の軌跡点集合を所定の高次元空間に埋め込んで高次元軌跡点特徴を得て、現在の地図点集合を所定の高次元空間に埋め込んで高次元地図点特徴を得る。埋め込み層12の具体的な操作は上記の式(3)及び(4)を使用し、上記のステップ1061aの処理を参照して実現できる。
ステップ1062’において、関係学習層13は、現在の軌跡点集合、現在の地図点集合、高次元軌跡点特徴及び高次元地図点特徴に基づいて、ローカル地図情報を有する高次元軌跡点特徴であるローカルシーン特徴を取得する。関係学習層13の具体的な操作は上記のステップ1062aの処理を参照して実現できる。
ステップ1063’において、グローバル特徴抽出層14は、ローカルシーン特徴及び高次元地図点特徴に対してそれぞれグローバル特徴抽出操作を実行して、グローバル軌跡特徴及びグローバル地図特徴を抽出して得る。グローバル特徴抽出層14の具体的な操作は上記のステップ1063aを参照して実現できる。
ステップ1064’において、特徴出力層15は、グローバル軌跡特徴とグローバル地図特徴に基づいてグローバルシーン特徴を決定して得る。特徴出力層15の具体的な操作は上記のステップ1064aを参照して実現できる。
例示的に、図7aと上記のステップ1062aを参照し、図13に示すように、ステップ1062’において、関係学習層13の処理は、以下を含んでもよい。
ステップ621’において、現在の軌跡点集合及び現在の地図点集合に基づいて、各高次元軌跡点と該高次元軌跡点の周りの所定の複数の高次元地図点との間の複数の相対的な空間関係を決定して得る。該処理は、図7b及び上記のステップ621の処理を参照してもよく、1つの高次元軌跡点とのユークリッド距離が予め設定された距離閾値内にある所定数の複数の高次元地図点を決定して得ることと、該高次元軌跡点と、該複数の高次元地図点のうちの各高次元地図点との間の相対的な空間関係をそれぞれ決定することと、を含み、1つの相対的な空間関係は、該高次元軌跡点及び1つの高次元地図点の絶対位置及び相対位置と、該軌跡点と該地図点との間の相対距離及び相対方向とを含む。相対的な空間関係の表現は上記の式(5)を参照することができる。
ステップ623’において、1つの高次元軌跡点に対応する各地図空間関係を高次元空間にそれぞれ埋め込んで高次元地図空間関係を得て、各高次元地図空間関係と、対応する高次元地図点特徴とのドット積を行って1つの加重地図特徴を得て、該高次元軌跡点の複数の加重地図特徴に対して最大化処理を行って最大加重地図特徴を選択して得る。
ステップ625’において、最大加重地図特徴と、該高次元軌跡点に対応する高次元軌跡点特徴とを加算して1つのローカルシーン特徴を得る。
ステップ623’及び625’の操作は上記のステップ623及び625を参照して実現できる。
1つの高次元軌跡点に対応するローカルシーン特徴は上記の式(6)で表現することができる。現在の軌跡点集合における複数の高次元軌跡点から、対応する複数のローカルシーン特徴を得ることができる。
例示的に、図10及び上記のステップ1063aを参照し、図14に示すように、ステップ1063’において、グローバル特徴抽出層14の処理は、
ローカルシーン特徴における各特徴に対して特徴を抽出し、抽出された特徴に対して最大化処理を行って、選択された最大の特徴をグローバル軌跡特徴とするステップ631’と、
高次元地図点特徴における各特徴に対して特徴を抽出し、抽出された特徴に対して最大化処理を行って、選択された最大の特徴をグローバル地図特徴とするステップ633’とを含む。
例示的に、上記のステップ1064aを参照し、特徴出力層15の処理は、グローバル軌跡特徴をグローバル地図特徴に加算してグローバルシーン特徴を得ることを含むことができる。
上記の処理によって、現在の軌跡データを高次元空間における現在の軌跡点集合にマッピングし、現在の地図データを高次元空間における現在の地図点集合にマッピングし、順序ある軌跡データを無順序なデータ点に変換することで、データのノイズによる後続の影響を克服し、データの処理のロバスト性を向上させることができる。エンドツーエンドの処理方式によって軌跡データと地図データに対する特徴抽出を実現することで、特徴抽出操作の速度と効率を著しく向上させ、ユースシーンのリアルタイム性へのニーズをよりよく満たすことができる。抽出されたグローバルシーン特徴はグローバル軌跡特徴とグローバル地図特徴を有し、グローバル軌跡特徴はローカル地図特徴と軌跡特徴を融合し、軌跡特徴は時間特徴と空間特徴とを同時に有する。グローバルシーン特徴は、軌跡予測に精確で有効なデータの基礎を提供することができる。
該例では、ステップ1108の処理において、デコーダ21におけるマルチヘッド型デコーダ21が複数の予測軌跡点集合を出力して、確率決定層22が各予測軌跡点集合に対して1つの対応する確率を決定する。
デコーダ2は、より精確で有効なグローバルシーン特徴に基づいて、精度と精確率がより高い軌跡点集合を予測することができる。
他のいくつかの実施例において、上記のいずれかの実施例に基づいて、第1の軌跡データ、第2の軌跡データ、現在の軌跡データにおけるデータ項目に対して、区分けと拡張を行って、データを軌跡データと属性データに区分けしてもよい。これに対応し、入力表示層11が使用する軌跡データのフォーマットに対して、対応して拡張する。
一例では、軌跡データには、物体の1つの所定時間帯での複数の時点の空間位置と速度とが含まれてもよい。このような場合、所定データのフォーマットの拡張性に基づいて、式(7)で軌跡データのフォーマットを定義することができる。
Figure 2022016419000063
ここで、
Figure 2022016419000064
は物体の時間tにおける速度である。
実験及びテストの結果によって、軌跡データに速度データを追加することで、軌跡予測の結果の精度をさらに高められることが判明した。
他の例示的な実施例において、軌跡点集合には、軌跡データと属性データが含まれてもよい。属性データは、例えば歩行者、自転車又は車両である物体種別データを含んでもよい。具体的なユースシーンにおいて、物体種別データは、他の属性、例えばバン、レッカー車、セミトレーラー等の状況を含んでいる車両の属性であってもよく、また、車両のライトの属性項目、例えば車両のライトが点灯されているか否かを識別する車両のヘッドライトの属性データ又は車両のテールライトの属性データを追加してもよい。このような場合に、式(8)で軌跡データのフォーマットを定義することができる。
Figure 2022016419000065
ここで、
Figure 2022016419000066
は物体種別を表し、該種別の値は、例えば車両が1、歩行者が2、自転車が3であると予め設定されてもよい。式(8)では、1つの項目の属性データを例示的に拡張しているが、具体的なユースシーンのニーズに応じて、複数の項目の属性データを拡張してもよい。
属性データには、例えば運動主体又は周りにおける運動物体である物体の識別データが含まれてもよい。このような場合に、式(9)で軌跡データのフォーマットを定義することができる。
Figure 2022016419000067
ここで、idは物体が運動主体又は周りにおける運動物体であることを識別し、例えば該データの値が1であると、物体nが運動主体であることを示し、値が0であると、物体nが周りにおける運動物体であることを示す。
所定の拡張可能なデータのフォーマットは、ユースシーンのニーズに応じて、複数のデータを含むことが可能であるため、データのフォーマットの長さが可変である。従来の技術では、入力データに対してデータ項目を増減させる必要があれば、開発者がデータに手動での編集と微調整を行う必要があり、仕事量が大きい。本発明の実施例は、可変長のデータのフォーマットを提供し、データのフォーマットにデータ項目を増減させるだけで、データに後続の処理を行うことができ、手動での編集による余計な仕事を避けることができる。
さらに、軌跡データに属性データを追加することにで、軌跡予測ネットワークが物体の属性について学習及び理解するようトレーニングすることができ、軌跡予測の精度と精確性を高めることができる。
他のいくつかの実施例において、上記のいずれかの実施例に基づいて、履歴の地図データ及び現在の地図データにおけるデータ項目に対して、区分けと拡張を行うこともできる。これに対応し、入力表示層11の使用する地図データのフォーマットに対して、対応して拡張する。
一例では、地図データには各地図点とその点が位置する同じ道路要素における他の隣の地図点との位置の差が含まれてもよい。このような場合に、所定のデータのフォーマットの拡張性に基づいて、式(10)で地図データのフォーマットを定義することができる。
Figure 2022016419000068
Figure 2022016419000069
は、地図点
Figure 2022016419000070
と隣の1つ前の地図点
Figure 2022016419000071
との位置の差、例えば二次元座標における位置の差又は三次元座標における位置の差である。
隣の2つの地図点間の位置の差を設定することで、軌跡予測ニューラルネットワークの後続の処理において道路要素の複数の地図点間の方向性及び接続性を取得することができる。
該例では、埋め込み層12の処理が高次元地図点特徴を得てから、即ち、上記のステップ1061aと上記のステップ1061’の後に、高次元地図点特徴に対して方向性と接続性の強化処理を行うことができる。これに対応し、図15に示すように、図3に示すニューラルネットワークに基づいて、埋め込み層12の後に強化層12’を設置することができる。強化層12’は、自己注意ニューラルネットワークであってもよい。
他の例では、地図データには各地図点の属性データをさらに含んでもよく、
属性データは、該地図点が属する道路要素の種別、属する道路要素が該所定時間帯で含んだ複数の地図点における該地図点のシーケンス番号を含む
他のいくつかの実施例において、上記のいずれかの実施例に基づいて、より精確で有効なグローバル軌跡特徴とグローバル地図特徴を抽出するために、複数回のグローバル特徴抽出操作を行うこと、即ち、上記のステップ1063a及びステップ1063’において複数回のグローバル特徴抽出操作を実行することができる。これに対応し、図16a又は図16bに示すように、図3又は図15に示すニューラルネットワークに基づいて、グローバル特徴抽出層14に複数の積み重ねられたサブグローバル特徴抽出層141を設置する。
グローバル特徴抽出層14は、複数回のグローバル特徴抽出操作を実行し、各グローバル特徴抽出操作は、
隣の1つ前のサブグローバル特徴抽出層141は、ローカルシーン特徴から抽出したグローバル軌跡特徴を高次元軌跡点特徴に連結してから、連結された高次元軌跡点特徴を隣の次のサブグローバル特徴抽出層141に出力することと、
隣の1つ前のサブグローバル特徴抽出層141は、高次元地図点特徴から抽出したグローバル地図特徴を高次元地図点特徴に連結してから、連結された高次元地図点特徴を隣の次のサブグローバル特徴抽出層141に出力することと、を含む。
図17は、1回のグローバル特徴抽出操作の模式図を示しており、ポイントレベルの特徴(即ち、ローカルシーン特徴又は高次元地図点特徴)に対してグローバル特徴抽出を行い、集約した特徴(つまり、1回の抽出で得たグローバル軌跡特徴又はグローバル地図特徴)を得て、該グローバル特徴を抽出して該グローバル特徴抽出操作に入力されたポイントレベルの特徴の後に連結して、連結されたローカルシーン特徴と連結された高次元地図点特徴を得る。連結されたローカルシーン特徴と連結された高次元地図点特徴を次のサブグローバル特徴抽出層141に入力して、次回のグローバル特徴抽出操作を実行する。
エンコーダ1には1つのグローバル特徴抽出層14が含まれると、該グローバル特徴抽出層14は、運動主体が位置する環境の第1のシーケンス情報、即ち、グローバルの時空間特徴を抽出することができ、複数のグローバル特徴抽出層14によって該環境における第2のシーケンス情報、例えば異なる物体間の互いの影響を学習して抽出することができる。積層のグローバル特徴抽出層14によって、個体物体とグローバルの時空間環境の状態及び関係をより深く理解し、これにより積層の特徴層が複数の物体間の互いの作用及び影響を捉えることができる。
積層の特徴層によって、例えば、現在の車が減速すると後の車に影響を与えて、それに応じて、後の車も減速するという作用と影響を捉えることができる。
エンコーダ1に積層のグローバル特徴抽出層14を設置することによって、複数の物体間の互いの作用と影響を抽出し、ニューラルネットワークの環境への学習と理解の能力を高めることができ、これにより軌跡予測の精確性と精度をさらに高めることができる。
本発明の実施例は軌跡予測装置をさらに提供し、該装置は上記の図2a、図3、図15、図16a又は図16bに示す構造であってもよく、対応するネットワーク構造は上記の説明を参照し、上記の軌跡予測の処理を対応して完了する。
図18は、1つのプロセッサ81と1つのメモリ82を例示的に含む軌跡予測装置の一例の構造を示している。リアルタイム処理手順において、プロセッサ81は、メモリ82に記憶された少なくとも1つの機器実行可能な命令を実行して、図11~図14に示す処理を実行する。トレーニング過程において、プロセッサ81は、メモリ82に記憶された少なくとも1つの機器実行可能な命令を実行して、図1、図2b、図4、図6、図7a、図7b、図10に示す処理を実行する。
本発明の実施例は、図11~図14に示す処理に加えて、図1、図2b、図4、図6、図7a、図7b、図10に示す処理をさらに含むことができる軌跡予測処理を実行するために使用されるように配置されるコードセグメントを有するコンピュータプログラムをさらに提供する。
本発明の実施例は、図11~図14に示す処理に加えて、図1、図2b、図4、図6、図7a、図7b、図10に示す処理をさらに含むことができる軌跡予測処理のためのコンピュータプログラムを記憶している記憶媒体をさらに提供する。
本開示のいくつかの例は、以下を含む。
例1、
運動主体が現在の環境において運動を実行する過程において、軌跡予測ニューラルネットワーク、入力された現在の軌跡データと現在の環境の現在の地図データとを取得することと、
現在の軌跡データ及び現在の地図データを高次元空間における現在の軌跡点集合及び現在の地図点集合として表現することと、
現在の軌跡点集合及び現在の地図点集合に基づいてグローバルシーン特徴を抽出して得ることと、
グローバルシーン特徴に基づいて、運動主体の複数の予測軌跡点集合と、各予測軌跡点集合に対応する確率とを予測して出力することと、を含み、
現在の軌跡データは、運動主体と、現在の環境における他の1つ又は複数の運動物体との過去の所定時間帯での複数の軌跡点を含み、各軌跡点は1つの対応する時点における空間位置を含み、現在の地図データは該所定時間帯での現在の環境における道路要素の複数の地図点の空間位置を含み、現在の軌跡点集合は、現在の軌跡データの各軌跡点に対応する高次元軌跡点を含み、現在の地図点集合は、現在の地図データの各地図点に対応する高次元地図点を含み、グローバルシーン特徴は、現在の環境の地図特徴及び軌跡特徴を有し、各予測軌跡点集合は、いずれも運動主体の将来の所定時間帯での複数の時点の空間位置を含む、
ことを特徴とする、軌跡予測方法。
例2、軌跡予測ニューラルネットワークは、現在の軌跡データ及び現在の地図データを高次元空間における現在の軌跡点集合及び現在の地図点集合として表現することは、
所定の無順序の軌跡データのフォーマットで現在の軌跡点集合を表現し、無順序の現在の軌跡点集合を得ることと、
所定の無順序の地図データのフォーマットで現在の地図点集合を表現し、無順序の現在の地図点集合を得ることと、を含む、
ことを特徴とする、例1に記載の方法。
例3、軌跡予測ニューラルネットワークは、現在の軌跡点集合及び現在の地図点集合に基づいてグローバルシーン特徴を抽出して得ることは、
現在の軌跡点集合を所定の高次元空間に埋め込んで高次元軌跡点特徴を得て、現在の地図点集合を所定の高次元空間に埋め込んで高次元地図点特徴を得ることと、
現在の軌跡点集合、現在の地図点集合、高次元軌跡点特徴及び高次元地図点特徴に基づいて、ローカル地図情報を有する高次元軌跡点特徴であるローカルシーン特徴を取得して得ることと、
ローカルシーン特徴及び高次元地図点特徴に対してそれぞれグローバル特徴抽出操作を実行して、グローバル軌跡特徴及びグローバル地図特徴を抽出して得ることと、
グローバル軌跡特徴及びグローバル地図特徴に基づいてグローバルシーン特徴を決定して得ることと、を含む、
ことを特徴とする、例1に記載の方法。
例4、軌跡予測ニューラルネットワークは、高次元軌跡点特徴と高次元地図点特徴に対して方向性と接続性の強化処理をさらに行う、
ことを特徴とする、例3に記載の方法。
例5、現在の軌跡点集合、現在の地図点集合、高次元軌跡点特徴及び高次元地図点特徴に基づいてローカルシーン特徴を取得して得ることは、
現在の軌跡点集合及び現在の地図点集合に基づいて、各高次元軌跡点と該高次元軌跡点の周りの所定の複数の高次元地図点との間の複数の相対的な空間関係を決定して得ることと、
1つの高次元軌跡点に対応する各地図空間関係を高次元空間にそれぞれ埋め込んで高次元地図空間関係を得て、各高次元地図空間関係と、対応する高次元地図点特徴とのドット積を行って1つの加重地図特徴を得て、該高次元軌跡点の複数の加重地図特徴に対して最大化処理を行って最大加重地図特徴を選択して得ることと、
最大加重地図特徴と、該高次元軌跡点に対応する高次元軌跡点特徴とを加算して1つのローカルシーン特徴を得ることと、を含む、
ことを特徴とする、例3に記載の方法。
例6、現在の軌跡点集合及び現在の地図点集合に基づいて、各高次元軌跡点と該高次元軌跡点の周りの所定の複数の高次元地図点との間の複数の相対的な空間関係を決定して得ることは、
1つの高次元軌跡点とのユークリッド距離が予め設定された距離閾値内にある所定数の複数の高次元地図点を決定して得ることと、
該高次元軌跡点と、該複数の高次元地図点のうちの各高次元地図点との間の相対的な空間関係をそれぞれ決定することと、を含み、
1つの相対的な空間関係は、該高次元軌跡点及び1つの高次元地図点の絶対位置及び相対位置と、該軌跡点と該地図点との間の相対距離及び相対方向とを含む、
ことを特徴とする、例5に記載の方法。
例7、ローカルシーン特徴及び高次元地図点特徴に対して、グローバル軌跡特徴及びグローバル地図特徴をそれぞれ抽出することは、
ローカルシーン特徴における各特徴に対して特徴を抽出し、抽出された特徴に対して最大化処理を行って、選択された最大の特徴をグローバル軌跡特徴とすることと、
高次元地図点特徴における各特徴に対して特徴を抽出し、抽出された特徴に対して最大化処理を行って、選択された最大の特徴をグローバル地図特徴とすることと、を含む、
ことを特徴とする、例3に記載の方法。
例8、軌跡予測ニューラルネットワークは、ローカルシーン特徴及び高次元地図点特徴に対して、グローバル軌跡特徴及びグローバル地図特徴をそれぞれ抽出することは、
軌跡予測ニューラルネットワークは、
複数回のグローバル特徴抽出操作を実行することを含み、各グローバル特徴抽出操作は、
ローカルシーン特徴から抽出したグローバル軌跡特徴を高次元軌跡点特徴に連結してから、連結された高次元軌跡点特徴を次回のグローバル特徴抽出操作に出力することと、
高次元地図点特徴から抽出したグローバル地図特徴を高次元地図点特徴に連結してから、連結された高次元地図点特徴を次回のグローバル特徴抽出操作に出力することと、を含む、
ことを特徴とする、例3又は7に記載の方法。
例9、グローバル軌跡特徴及びグローバル地図特徴に基づいてグローバルシーン特徴を決定して得ることは、
グローバル軌跡特徴をグローバル地図特徴に加算してグローバルシーン特徴を得ることを含む、
ことを特徴とする、例3に記載の方法。
例10、現在の軌跡データは、運動主体及び他の1つ又は複数の運動物体の各軌跡点における速度をさらに含む、
ことを特徴とする、例1に記載の方法。
例11、現在の軌跡データは、運動主体及び各運動物体の物体種別データを含む、運動主体及び各運動物体の属性データをさらに含む、
ことを特徴とする、例1に記載の方法。
例12、運動主体又は運動物体が車両である場合、属性データは、ヘッドライトの属性データとテールライトの属性データとのうちの1つ又は複数をさらに含む、
ことを特徴とする、例11に記載の方法。
例13、現在の地図データは、各地図点とそれが存在する同じ道路要素における他の隣り合う地図点との位置の差をさらに含む、
ことを特徴とする、例1に記載の方法。
例14、現在の地図データは、各地図点の属性データをさらに含み、
属性データは、該地図点が属する道路要素の種別、属する道路要素が該所定時間帯で含んだ複数の地図点における該地図点のシーケンス番号を含む、
ことを特徴とする、例13に記載の方法。
例15、軌跡予測ニューラルネットワークは、入力された現在の軌跡データ及び現在の地図データを取得することは、
上流モジュールから、入力された現在の軌跡データ及び現在の地図データを取得することを含む、
ことを特徴とする、例1に記載の方法。
例16、トレーニングによって軌跡予測ニューラルネットワークを得る処理は、
履歴の第1の軌跡データ、第2の軌跡データ及び履歴の地図データに基づいて、予め設定されたニューラルネットワークに対して、複数回の反復トレーニングを行うこと、を含み、
第1の軌跡データ及び第2の軌跡データは時間的に前後に隣り合うデータ集合であり、いずれも、運動主体及び周りの1つ又は複数の運動物体の所定時間帯での複数の軌跡点を含み、各軌跡点は1つの対応する時点における空間位置を含み、履歴の地図データは第1の軌跡データに対応する時間帯での運動主体が存在する環境における道路要素の複数の地図点の空間位置を含み、予め設定されたニューラルネットワークは初期パラメータ集合を有し、
1回の反復トレーニングは、
第1の軌跡データと履歴の地図データを入力としてニューラルネットワークに提供することと、
ニューラルネットワークは、第1の軌跡データ及び履歴の地図データを高次元空間における第1の軌跡点集合と履歴の地図点集合として表現することと、
第1の軌跡点集合及び履歴の地図点集合に基づいて、運動主体が存在する環境の地図特徴及び軌跡特徴を有するグローバルシーン特徴を抽出して得ることと、
グローバルシーン特徴に基づいて、運動主体の複数の軌跡点集合と、いずれも運動主体の将来の所定時間帯での複数の時点の空間位置を含む各軌跡点集合に対応する確率とを予測して出力することと、
出力された各軌跡点集合及び対応する確率と、第2の軌跡データとを入力として1つの対応する損失関数に提供し、該損失関数の出力を得ることと、
すべての損失関数の出力が予め設定された収束の条件を満たすか否かを判断することと、
収束の条件を満たすと判断した場合、トレーニングの完了を決定し、トレーニング後のニューラルネットワークのパラメータ集合を取得することと、
収束の条件を満たさないと判断した場合、ニューラルネットワークのパラメータを調整し、次回の反復トレーニングを実行することと、を含む、
ことを特徴とする、例1に記載の方法。
例17では、
運動主体が現在の環境において運動を実行する過程において、入力された現在の軌跡データと現在の環境の現在の地図データとを取得することと、
現在の軌跡データ及び現在の地図データを高次元空間における現在の軌跡点集合及び現在の地図点集合として表現することと、
現在の軌跡点集合及び現在の地図点集合に基づいてグローバルシーン特徴を抽出して得ることと、のために使用されるエンコーダと、
グローバルシーン特徴に基づいて、運動主体の複数の予測軌跡点集合と、各予測軌跡点集合に対応する確率とを予測して出力するために使用されるデコーダとを含み、
現在の軌跡データは、運動主体と、現在の環境における他の1つ又は複数の運動物体との過去の所定時間帯での複数の軌跡点を含み、各軌跡点は1つの対応する時点における空間位置を含み、現在の地図データは該所定時間帯での現在の環境における道路要素の複数の地図点の空間位置を含み、グローバルシーン特徴は、現在の環境の地図特徴及び軌跡特徴を有し、各予測軌跡点集合は、いずれも運動主体の将来の所定時間帯での複数の時点の空間位置を含む、
ことを特徴とする、軌跡予測装置。
例18、
エンコーダは、入力表示層を含み、
エンコーダは、現在の軌跡データ及び現在の地図データを高次元空間における現在の軌跡点集合及び現在の地図点集合として表現することは、
入力表示層は、所定の無順序の軌跡データのフォーマットで現在の軌跡点集合を表現し、無順序の高次元の現在の軌跡点集合を得ることと、所定の無順序の地図データのフォーマットで現在の地図点集合を表現し、無順序の現在の地図点集合を得ることとを含む、
ことを特徴とする、例17に記載の装置。
例19、
現在の軌跡点集合及び現在の地図点集合に基づいて、グローバルシーン特徴を抽出して得るエンコーダは、
現在の軌跡点集合を所定の高次元空間に埋め込んで高次元軌跡点特徴を得て、現在の地図点集合を所定の高次元空間に埋め込んで高次元地図点特徴を得ることに使用される埋め込み層と、現在の軌跡点集合、現在の地図点集合、高次元軌跡点特徴及び高次元地図点特徴に基づいて、ローカル地図情報を有する高次元軌跡点特徴であるローカルシーン特徴を取得して得ることに使用される地図関係学習層と、ローカルシーン特徴及び高次元地図点特徴に対してそれぞれグローバル特徴抽出操作を実行して、グローバル軌跡特徴及びグローバル地図特徴を抽出して得ることに使用されるグローバル特徴抽出層と、グローバル軌跡特徴及びグローバル地図特徴に基づいてグローバルシーン特徴を決定して得ることに使用される特徴出力層とを含む、
ことを特徴とする、例17に記載の装置。
例20、エンコーダは、強化層をさらに含み、
強化層は高次元軌跡点特徴及び高次元地図点特徴に対して方向性と接続性の強化処理を行うために使用され、強化層は自己注意ニューラルネットワークを含む、
ことを特徴とする、例19に記載の装置。
例21、地図関係学習層は、現在の軌跡点集合、現在の地図点集合、高次元軌跡点特徴及び高次元地図点特徴に基づいてローカルシーン特徴を取得して得ることは、
現在の軌跡点集合及び現在の地図点集合に基づいて、各高次元軌跡点と該高次元軌跡点の周りの所定の複数の高次元地図点との間の複数の相対的な空間関係を決定して得ることと、
1つの高次元軌跡点に対応する各地図空間関係を高次元空間にそれぞれ埋め込んで高次元地図空間関係を得て、各高次元地図空間関係と、対応する高次元地図点特徴とのドット積を行って1つの加重地図特徴を得て、該高次元軌跡点の複数の加重地図特徴に対して最大化処理を行って最大加重地図特徴を選択して得ることと、
最大加重地図特徴と、該高次元軌跡点に対応する高次元軌跡点特徴とを加算して1つのローカルシーン特徴を得ることと、を含む、
ことを特徴とする、例19に記載の装置。
例22、地図関係学習層は、現在の軌跡点集合及び現在の地図点集合に基づいて、各高次元軌跡点と該軌跡点の周りの所定の複数の高次元地図点との間の複数の相対的な空間関係を決定して得ることは、
1つの高次元軌跡点とのユークリッド距離が予め設定された距離閾値内にある所定数の複数の高次元地図点を決定して得ることと、
該高次元軌跡点と、該複数の高次元地図点のうちの各高次元地図点との間の相対的な空間関係をそれぞれ決定することと、を含み、
1つの相対的な空間関係は、該高次元軌跡点及び1つの高次元地図点の絶対位置及び相対位置と、該軌跡点と該地図点との間の相対距離及び相対方向とを含む、
ことを特徴とする、例21に記載の装置。
例23、グローバル特徴抽出層は、ローカルシーン特徴及び高次元地図点特徴に対して、グローバル軌跡特徴及びグローバル地図特徴をそれぞれ抽出することは、
ローカルシーン特徴における各特徴に対して特徴を抽出し、抽出された特徴に対して最大化処理を行って、選択された最大の特徴をグローバル軌跡特徴とすることと、
高次元地図点特徴における各特徴に対して特徴を抽出し、抽出された特徴に対して最大化処理を行って、選択された最大の特徴をグローバル地図特徴とすることと、を含む、
ことを特徴とする、例19に記載の装置。
例24、グローバル特徴抽出層は、複数の積み重ねられたサブグローバル特徴抽出層を含み、
隣の1つ前のサブグローバル特徴抽出層は、ローカルシーン特徴から抽出したグローバル軌跡特徴を高次元軌跡点特徴に連結してから、連結された高次元軌跡点特徴を隣の次のサブグローバル特徴抽出層に出力し、
隣の1つ前のサブグローバル特徴抽出層は、高次元地図点特徴から抽出したグローバル地図特徴を高次元地図点特徴に連結してから、連結された高次元地図点特徴を隣の次のサブグローバル特徴抽出層に出力する、
ことを特徴とする、例19又は23に記載の装置。
例25、特徴出力層は、グローバル軌跡特徴及びグローバル地図特徴に基づいてグローバルシーン特徴を決定して得ることは、
特徴出力層が、グローバル軌跡特徴をグローバル地図特徴に加算してグローバルシーン特徴を得ることを含む、
ことを特徴とする、例19に記載の装置。
例26、デコーダは、
複数の長短期記憶ネットワーク又はゲート付き回帰型ユニットを含む循環ニューラルネットワーク、又は多層パーセプトロンを含み、グローバルシーン特徴に基づいて、運動主体の複数の予測軌跡点集合を予測して出力するために使用されるマルチヘッド型デコーダと、
各予測軌跡点集合に対応する確率を決定して得るために使用される確率決定層と、を含む、
ことを特徴とする、例17に記載の装置。
例27、
1つのプロセッサと、少なくとも1つのメモリとを含み、
少なくとも1つのメモリには、少なくとも1つの機器実行可能な命令が記憶されており、
プロセッサは、少なくとも1つの機器実行可能な命令を実行して例1から16のいずれか1項に記載の方法を実現する、
ことを特徴とする、軌跡予測装置。
例28、例1から16のいずれか1項に記載の方法を含む軌跡予測処理を実行するために使用されるように構成されたコードセグメントを有する
ことを特徴とする、コンピュータプログラム。
例29、プロセッサに実行されて例1~16のいずれか1項に記載の方法を実現する少なくとも1つの機器実行可能な命令が記憶されている、
ことを特徴とする、不揮発性記憶媒体。
当業者にとって、本発明の範囲および精神から逸脱することなく、本発明に対して様々な変更及び変形を行うことができることは、明らかである。このように、本発明に対するこれらの修正及び変形が本発明の請求項及びその均等技術の範囲に属すれば、本発明が、これらの変更及び変形を含むことも意図している。

Claims (15)

  1. 現在の軌跡データ及び現在の地図データを取得することと、
    現在の軌跡データ及び現在の地図データを高次元空間における現在の軌跡点集合及び現在の地図点集合として表現することと、
    現在の軌跡点集合及び現在の地図点集合に基づいてグローバルシーン特徴を抽出して得ることと、
    グローバルシーン特徴に基づいて、運動主体の複数の予測軌跡点集合と、各予測軌跡点集合に対応する確率とを予測して出力することとを含み、
    現在の軌跡データは、運動主体と、現在の環境における他の1つ又は複数の運動物体との過去の所定時間帯での複数の軌跡点を含み、各軌跡点は1つの対応する時点における空間位置を含み、現在の地図データは該所定時間帯での現在の環境における道路要素の複数の地図点の空間位置を含む、軌跡予測方法。
  2. 現在の軌跡データ及び現在の地図データを高次元空間における現在の軌跡点集合及び現在の地図点集合として表現することは、
    所定の無順序の軌跡データのフォーマットで現在の軌跡点集合を表現し、無順序の現在の軌跡点集合を得ることと、
    所定の無順序の地図データのフォーマットで現在の地図点集合を表現し、無順序の現在の地図点集合を得ることと、
    を含む、請求項1に記載の軌跡予測方法。
  3. 現在の軌跡点集合は、現在の軌跡データの各軌跡点に対応する高次元軌跡点を含み、
    現在の地図点集合は、現在の地図データの各地図点に対応する高次元地図点を含む、
    請求項1又は2に記載の軌跡予測方法。
  4. 現在の軌跡点集合及び現在の地図点集合に基づいてグローバルシーン特徴を抽出して得ることは、
    現在の軌跡点集合を所定の高次元空間に埋め込んで高次元軌跡点特徴を得て、現在の地図点集合を所定の高次元空間に埋め込んで高次元地図点特徴を得ることと、
    現在の軌跡点集合、現在の地図点集合、高次元軌跡点特徴及び高次元地図点特徴に基づいてローカルシーン特徴を取得して得ることと、
    ローカルシーン特徴及び高次元地図点特徴に対してそれぞれグローバル特徴抽出操作を実行して、グローバル軌跡特徴及びグローバル地図特徴を抽出して得ることと、
    グローバル軌跡特徴及びグローバル地図特徴に基づいてグローバルシーン特徴を決定して得ることと、
    を含む、請求項1から3のいずれか1項に記載の軌跡予測方法。
  5. 現在の軌跡点集合、現在の地図点集合、高次元軌跡点特徴及び高次元地図点特徴に基づいてローカルシーン特徴を取得して得ることは、
    現在の軌跡点集合及び現在の地図点集合に基づいて、各高次元軌跡点と該高次元軌跡点の周りの所定の複数の高次元地図点との間の複数の相対的な空間関係を決定して得ることと、
    1つの高次元軌跡点に対応する各相対的な空間関係を高次元空間にそれぞれ埋め込んで高次元地図空間関係を得て、各高次元地図空間関係と、対応する高次元地図点特徴とのドット積を行って1つの加重地図特徴を得て、該高次元軌跡点の複数の加重地図特徴に対して最大化処理を行って最大加重地図特徴を選択して得ることと、
    最大加重地図特徴と、該高次元軌跡点に対応する高次元軌跡点特徴とを加算してローカルシーン特徴を得ることと、
    を含む、請求項4に記載の軌跡予測方法。
  6. 現在の軌跡点集合及び現在の地図点集合に基づいて、各高次元軌跡点と該高次元軌跡点の周りの所定の複数の高次元地図点との間の複数の相対的な空間関係を決定して得ることは、
    1つの高次元軌跡点とのユークリッド距離が予め設定された距離閾値内にある所定数の複数の高次元地図点を決定して得ることと、
    該高次元軌跡点と、該複数の高次元地図点のうちの各高次元地図点との間の相対的な空間関係をそれぞれ決定することと、を含み、
    1つの相対的な空間関係は、該高次元軌跡点及び1つの高次元地図点の絶対位置及び相対位置と、該軌跡点と該地図点との間の相対距離及び相対方向とを含む、
    請求項5に記載の軌跡予測方法。
  7. ローカルシーン特徴及び高次元地図点特徴に対してそれぞれグローバル特徴抽出操作を実行して、グローバル軌跡特徴及びグローバル地図特徴を抽出して得ることは、
    複数回のグローバル特徴抽出操作を実行することを含み、各グローバル特徴抽出操作は、
    ローカルシーン特徴から抽出したグローバル軌跡特徴を高次元軌跡点特徴に連結してから、連結された高次元軌跡点特徴を次回のグローバル特徴抽出操作に出力することと、
    高次元地図点特徴から抽出したグローバル地図特徴を高次元地図点特徴に連結してから、連結された高次元地図点特徴を次回のグローバル特徴抽出操作に出力することと、を含む、
    請求項4に記載の軌跡予測方法。
  8. 現在の軌跡データは、
    運動主体及び他の1つ又は複数の運動物体の各軌跡点における速度、または、
    運動主体及び各運動物体の物体種別データを含む、運動主体及び各運動物体の属性データ、
    をさらに含む、請求項1から7のいずれか1項に記載の軌跡予測方法。
  9. 現在の地図データは、
    各地図点とそれが存在する同じ道路要素における他の隣り合う地図点との位置の差、または、
    各地図点の属性データをさらに含み、
    属性データは、該地図点が属する道路要素の種別、属する道路要素が該所定時間帯で含んだ複数の地図点における該地図点のシーケンス番号を含む、
    請求項1から8のいずれか1項に記載の軌跡予測方法。
  10. 予測ニューラルネットワークによって実行される軌跡予測方法であって、前記軌跡予測方法は、トレーニングによって軌跡予測ニューラルネットワークを得ることをさらに含み、
    トレーニングによって軌跡予測ニューラルネットワークを得ることは、
    履歴の第1の軌跡データ、第2の軌跡データ及び履歴の地図データに基づいて、予め設定されたニューラルネットワークに対して、複数回の反復トレーニングを行うこと、を含み、
    第1の軌跡データ及び第2の軌跡データは時間的に前後に隣り合うデータ集合であり、いずれも、運動主体及び周りの1つ又は複数の運動物体の所定時間帯での複数の軌跡点を含み、各軌跡点は1つの対応する時点における空間位置を含み、履歴の地図データは第1の軌跡データに対応する時間帯での運動主体が存在する環境における道路要素の複数の地図点の空間位置を含み、予め設定されたニューラルネットワークは初期パラメータ集合を有する、
    請求項1から9のいずれか1項に記載の軌跡予測方法。
  11. 1回の反復トレーニングは、
    第1の軌跡データと履歴の地図データを入力としてニューラルネットワークに提供することと、
    ニューラルネットワークは、第1の軌跡データ及び履歴の地図データを高次元空間における第1の軌跡点集合と履歴の地図点集合として表現することと、
    第1の軌跡点集合及び履歴の地図点集合に基づいて、運動主体が存在する環境の地図特徴及び軌跡特徴を有するグローバルシーン特徴を抽出して得ることと、
    グローバルシーン特徴に基づいて、運動主体の複数の軌跡点集合と、いずれも運動主体の将来の所定時間帯での複数の時点の空間位置を含む各軌跡点集合に対応する確率とを予測して出力することと、
    出力された各軌跡点集合及び対応する確率と、第2の軌跡データとを入力として1つの対応する損失関数に提供し、該損失関数の出力を得ることと、
    すべての損失関数の出力が予め設定された収束の条件を満たすか否かを判断することと、
    収束の条件を満たすと判断した場合、トレーニングの完了を決定し、トレーニング後のニューラルネットワークのパラメータ集合を取得することと、
    収束の条件を満たさないと判断した場合、ニューラルネットワークのパラメータを調整し、次回の反復トレーニングを実行することと、
    を含む、請求項10に記載の軌跡予測方法。
  12. 予測ニューラルネットワークによって実行される軌跡予測方法であって、前記軌跡予測ニューラルネットワークは、
    現在の軌跡データ及び現在の地図データを取得して高次元空間における現在の軌跡点集合及び現在の地図点集合として表現し、現在の軌跡点集合及び現在の地図点集合に基づいてグローバルシーン特徴を抽出して得るために使用されるエンコーダと、
    グローバルシーン特徴に基づいて、運動主体の複数の予測軌跡点集合と、各予測軌跡点集合に対応する確率とを予測して出力するために使用されるデコーダと、
    を含む、請求項1から11のいずれか1項に記載の軌跡予測方法。
  13. デコーダは、
    複数の長短期記憶ネットワーク又はゲート付き回帰型ユニットを含む循環ニューラルネットワーク、又は多層パーセプトロンを含み、グローバルシーン特徴に基づいて、運動主体の複数の予測軌跡点集合を予測して出力するために使用されるマルチヘッド型デコーダと、
    各予測軌跡点集合に対応する確率を決定して得るために使用される確率決定層と、
    を含む、請求項12に記載の軌跡予測方法。
  14. 少なくとも1つのプロセッサと、少なくとも1つのメモリとを含み、
    少なくとも1つのメモリには、少なくとも1つの機器実行可能な命令が記憶されており、
    プロセッサは、少なくとも1つの機器実行可能な命令を実行して請求項1から13のいずれか1項に記載の軌跡予測方法を実現する、
    軌跡予測装置。
  15. プロセッサに実行されて請求項1から13のいずれか1項に記載の軌跡予測方法を実現する少なくとも1つの機器実行可能な命令が記憶されている、
    不揮発性記憶媒体。
JP2021114281A 2020-07-09 2021-07-09 軌跡予測方法及び装置 Pending JP2022016419A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010658245.9 2020-07-09
CN202010658245.9A CN114092751B (zh) 2020-07-09 2020-07-09 一种轨迹预测方法和装置

Publications (1)

Publication Number Publication Date
JP2022016419A true JP2022016419A (ja) 2022-01-21

Family

ID=77499589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021114281A Pending JP2022016419A (ja) 2020-07-09 2021-07-09 軌跡予測方法及び装置

Country Status (5)

Country Link
US (1) US12333784B2 (ja)
EP (1) EP3937079A1 (ja)
JP (1) JP2022016419A (ja)
CN (1) CN114092751B (ja)
AU (1) AU2021240237A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024214192A1 (ja) * 2023-04-11 2024-10-17 日本電信電話株式会社 学習装置、推定装置、学習方法、推定方法及びプログラム

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11112796B2 (en) * 2017-08-08 2021-09-07 Uatc, Llc Object motion prediction and autonomous vehicle control
US11514293B2 (en) * 2018-09-11 2022-11-29 Nvidia Corporation Future object trajectory predictions for autonomous machine applications
EP4050460B1 (en) * 2021-02-24 2025-07-16 Infineon Technologies AG Radar-based object tracking using a neural network
US12148174B2 (en) * 2021-11-19 2024-11-19 Shenzhen Deeproute.Ai Co., Ltd Method for forecasting motion trajectory, storage medium, and computer device
CN114418093B (zh) * 2022-01-19 2023-08-25 北京百度网讯科技有限公司 训练路径表征模型、输出信息的方法和装置
CN114442623B (zh) * 2022-01-20 2023-10-24 中国农业大学 一种基于时空图神经网络的农机作业轨迹田路分割方法
CN114217881B (zh) * 2022-02-23 2022-06-21 北京航空航天大学杭州创新研究院 任务卸载方法及相关装置
US12399033B2 (en) * 2022-03-01 2025-08-26 Here Global B.V. Method and apparatus for generating maps from aligned geospatial observations
US12435993B2 (en) 2022-03-01 2025-10-07 Here Global B.V. Method and apparatus for generating maps from aligned geospatial observations
CN114595427B (zh) * 2022-03-10 2024-06-04 华南理工大学 基于非自回归模型的含缺失值车辆轨迹序列填补修复方法
EP4246183B1 (en) * 2022-03-18 2025-08-06 Robert Bosch GmbH Method and device for segmenting radar data
CN114742280B (zh) * 2022-03-18 2023-01-13 北京百度网讯科技有限公司 路况预测方法及相应的模型训练方法、装置、设备及介质
CN114740889B (zh) * 2022-04-08 2025-05-27 南京航空航天大学 基于飞行状态划分的非合作无人机轨迹分布预测方法
CN114936331B (zh) * 2022-04-18 2025-06-17 北京大学 位置预测方法、装置、电子设备及存储介质
CN114889638B (zh) * 2022-04-22 2024-08-13 武汉路特斯汽车有限公司 一种自动驾驶系统中的轨迹预测方法及系统
CN114777797B (zh) * 2022-06-13 2022-09-30 长沙金维信息技术有限公司 用于自动驾驶的高精度地图视觉定位方法及自动驾驶方法
CN115082896B (zh) * 2022-06-28 2024-08-20 东南大学 基于拓扑图结构和深度自注意力网络的行人轨迹预测方法
CN115098613B (zh) * 2022-07-04 2024-09-06 苏州大学 一种轨迹数据的追踪与预测方法、装置及介质
CN117409566A (zh) * 2022-07-06 2024-01-16 华为技术有限公司 轨迹预测方法及其装置、介质、程序产品和电子设备
CN114872735B (zh) * 2022-07-10 2022-10-04 成都工业职业技术学院 基于神经网络算法的自动驾驶物流车辆决策方法和装置
CN115588026A (zh) * 2022-09-08 2023-01-10 上汽大众汽车有限公司 机场场景下预测飞机轨迹的自动驾驶方法
CN115512152B (zh) * 2022-09-08 2024-09-13 武汉大学 一种cnn和lstm神经网络组合的船舶轨迹分类方法及系统
CN115908507B (zh) * 2022-09-26 2025-01-24 清华大学 车辆轨迹恢复方法、设备、装置和存储介质
CN115880767B (zh) * 2022-10-11 2025-12-05 电子科技大学长三角研究院(湖州) 基于类脑记忆网络的目标运动跟踪方法
CN115578861B (zh) * 2022-10-14 2023-10-10 东南大学 一种基于嵌入式特征选择策略的高速公路交通流预测方法
CN115905434B (zh) * 2022-10-26 2023-10-13 南京航空航天大学 一种基于学习插值预测的道路网轨迹补全方法
CN115760918B (zh) * 2022-11-16 2025-10-28 武汉中海庭数据技术有限公司 基于自注意力和无监督学习的地图异常轨迹检测方法及系统
CN115587641B (zh) * 2022-11-25 2023-04-07 浙江工业大学 一种基于多生成器的环境因素引导的台风多趋势预测方法
CN115718789A (zh) * 2022-11-25 2023-02-28 北京百度网讯科技有限公司 场景信息确定方法、装置及电子设备
CN116238834B (zh) * 2022-12-08 2024-01-02 湖北凯乐仕通达科技有限公司 立体仓库系统的作业路径规划方法、装置及计算机设备
CN116108390B (zh) * 2023-03-09 2024-11-29 中国船舶集团有限公司第七一九研究所 一种舰船水上航道轨迹分类方法及系统
CN116300928A (zh) * 2023-03-17 2023-06-23 北京百度网讯科技有限公司 针对车辆的数据处理方法和数据处理模型的训练方法
CN116128930B (zh) * 2023-03-22 2025-05-06 重庆邮电大学 一种基于图时空金字塔的自动轨迹预测方法
CN118790282A (zh) * 2023-04-11 2024-10-18 北京三快在线科技有限公司 自动驾驶的风险识别方法及自动驾驶车辆
US20240386723A1 (en) * 2023-05-17 2024-11-21 Hon Hai Precision Industry Co., Ltd. Method and computing system for vehicle motion forecasting
CN116562487B (zh) * 2023-05-30 2024-05-28 武汉大学 顾及路口时空关联与历史出行语义的移动目的地预测方法
DE102023206742A1 (de) 2023-07-17 2025-01-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Trajektorienprädiktion für ein Fahrzeug
CN116907510B (zh) * 2023-07-19 2024-08-09 福建省昊立建设工程有限公司 一种基于物联网技术的智能化运动识别方法
CN117237475B (zh) * 2023-08-14 2024-11-01 北京科技大学 一种基于扩散生成模型的车辆交通轨迹生成方法及装置
CN117112710A (zh) * 2023-08-21 2023-11-24 上海海事大学 一种用于船舶轨迹预测的动态时空图注意力方法
CN117475090B (zh) * 2023-12-27 2024-06-11 粤港澳大湾区数字经济研究院(福田) 一种轨迹生成模型、轨迹生成方法、装置、终端及介质
CN117493424B (zh) * 2024-01-03 2024-03-22 湖南工程学院 一种不依赖地图信息的车辆轨迹预测方法
CN117688823B (zh) * 2024-02-04 2024-05-14 北京航空航天大学 一种岩土颗粒轨迹预测方法、电子设备及介质
US20250321321A1 (en) * 2024-04-12 2025-10-16 Nxp B.V. Extracting features from queued radar frames
CN118364959B (zh) * 2024-04-28 2025-04-01 中国人民解放军国防科技大学 一种行人轨迹预测方法、装置及设备
CN118468223B (zh) * 2024-05-17 2024-11-22 淮阴工学院 一种基于STGNN-Net的车辆轨迹预测方法
CN118537440B (zh) * 2024-05-21 2025-08-01 酷哇科技有限公司 自动驾驶轨迹预测方法、系统及存储介质
CN118781151A (zh) * 2024-06-24 2024-10-15 北京迈驰智行科技有限公司 车载端多目标跟踪与轨迹预测方法、电子设备及存储介质
CN118410408A (zh) * 2024-06-27 2024-07-30 科大讯飞股份有限公司 车辆轨迹预测方法、装置、相关设备及计算机程序产品
CN119277322B (zh) * 2024-09-30 2025-06-24 北京中科创途科技有限公司 用户位置的补全方法、装置、终端设备及存储介质
CN119738812A (zh) * 2024-11-20 2025-04-01 粤港澳大湾区数字经济研究院(福田)低空经济分院 利用感知设备对低空飞行物进行跟踪监视的方法和装置
CN119647717B (zh) * 2024-12-12 2025-11-25 岚图汽车科技股份有限公司 智能轨迹规划预测方法、装置、设备及存储介质
CN119357591A (zh) * 2024-12-20 2025-01-24 中国科学院深海科学与工程研究所 一种融合海洋环境场的浮体漂流轨迹预测方法及系统
CN119989016B (zh) * 2025-04-14 2025-07-25 武汉理工大学 一种船舶交通流量预测方法、装置、电子设备及存储介质
CN120316518B (zh) * 2025-06-17 2025-12-16 武汉理工大学 一种船舶行为预测方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157049A (ja) * 2002-11-07 2004-06-03 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP4088336B2 (ja) * 2006-04-14 2008-05-21 松下電器産業株式会社 移動先予測装置および移動先予測方法
US10514799B2 (en) * 2016-09-08 2019-12-24 Google Llc Deep machine learning to perform touch motion prediction
US9989964B2 (en) * 2016-11-03 2018-06-05 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling vehicle using neural network
CN108629978B (zh) * 2018-06-07 2020-12-22 重庆邮电大学 一种基于高维路网和循环神经网络的交通轨迹预测方法
DE102018210494B3 (de) * 2018-06-27 2019-09-19 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Fahrzeugs, computerlesbares Medium, System, und Fahrzeug
CN109754630B (zh) * 2019-02-02 2020-06-19 武汉元光科技有限公司 确定车辆运营线路的方法和装置
CN110221603B (zh) * 2019-05-13 2020-08-14 浙江大学 一种基于激光雷达多帧点云融合的远距离障碍物检测方法
CN110275531B (zh) * 2019-06-21 2020-11-27 北京三快在线科技有限公司 障碍物的轨迹预测方法、装置及无人驾驶设备
CN111242351A (zh) * 2019-12-31 2020-06-05 上海师范大学 基于自编码器和gru神经网络的热带气旋轨迹预测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024214192A1 (ja) * 2023-04-11 2024-10-17 日本電信電話株式会社 学習装置、推定装置、学習方法、推定方法及びプログラム

Also Published As

Publication number Publication date
CN114092751A (zh) 2022-02-25
US12333784B2 (en) 2025-06-17
US20220011122A1 (en) 2022-01-13
AU2021240237A1 (en) 2022-01-27
CN114092751B (zh) 2024-12-31
EP3937079A1 (en) 2022-01-12

Similar Documents

Publication Publication Date Title
JP2022016419A (ja) 軌跡予測方法及び装置
Yurtsever et al. A survey of autonomous driving: Common practices and emerging technologies
Ma et al. Artificial intelligence applications in the development of autonomous vehicles: A survey
CN111860155B (zh) 一种车道线的检测方法及相关设备
US11899411B2 (en) Hybrid reinforcement learning for autonomous driving
US12517252B2 (en) Three-dimensional object detection
Chen et al. 3d point cloud processing and learning for autonomous driving: Impacting map creation, localization, and perception
US11768292B2 (en) Three-dimensional object detection
US11776135B2 (en) Object velocity from images
JP7086911B2 (ja) 自動運転車両のためのリアルタイム意思決定
US11131993B2 (en) Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout
US20230028035A1 (en) Perpendicular cut-in training
CN107985313A (zh) 用于自主车辆的基于弹簧系统的变换车道方法
US20240208546A1 (en) Predictive models for autonomous vehicles based on object interactions
Khanum et al. Involvement of deep learning for vision sensor-based autonomous driving control: A review
CN115221970A (zh) 目标轨迹预测方法、系统、设备及介质
US20230159060A1 (en) Focusing prediction distribution output for efficient sampling
CN116701586A (zh) 一种数据处理方法及其相关装置
WO2024093321A1 (zh) 车辆的位置获取方法、模型的训练方法以及相关设备
Xie et al. Reduced-scale mobile robots for autonomous driving research
Khidhir et al. Comparative transfer learning models for end-to-end self-driving car
WO2022115216A2 (en) Method and system for determining a mover model for motion forecasting in autonomous vehicle control
Kassem Behavior planning for autonomous driving: Methodologies, applications, and future orientation
US12116017B1 (en) Machine-learned component hybrid training and assistance of vehicle trajectory generation
JP7655918B2 (ja) オブジェクトを伴う歩行者

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231025