JP6833936B2 - 自己中心映像に基づく将来の車両位置特定のためのシステム及び方法 - Google Patents

自己中心映像に基づく将来の車両位置特定のためのシステム及び方法 Download PDF

Info

Publication number
JP6833936B2
JP6833936B2 JP2019156911A JP2019156911A JP6833936B2 JP 6833936 B2 JP6833936 B2 JP 6833936B2 JP 2019156911 A JP2019156911 A JP 2019156911A JP 2019156911 A JP2019156911 A JP 2019156911A JP 6833936 B2 JP6833936 B2 JP 6833936B2
Authority
JP
Japan
Prior art keywords
vehicle
future
self
past
hidden state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019156911A
Other languages
English (en)
Other versions
JP2020042808A (ja
Inventor
ユイ・ヤオ
ミンツェ・シー
チホ・チェ
ベザド・ダーリウーシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2020042808A publication Critical patent/JP2020042808A/ja
Application granted granted Critical
Publication of JP6833936B2 publication Critical patent/JP6833936B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Description

自動先進運転支援システム(advanced driving assist systems、ADAS)内のタスクは、参加車両の行動及び位置予測を必要とし得る。将来の行動予測は、周囲のカメラ、LiDARシステム、又は航空写真から通常生成される鳥瞰図(bird's eye view、BEV)撮像を使用して試行されている。しかしながら、BEV画像をキャプチャするために必要なセンサ又はサービスを大部分の量産車両が備えていないため、BEV画像の適用性は限定的であり得る。
多くの場合、BEV画像は、LiDAR点を大地面に投影することによって生成することができる。投影された画像は、未確認の将来のフレームを使用して作成され得るか、又は変換関数の性質として道路の不規則性によって歪んでいる場合がある。結果として、これらの解決策は、有効な予測運動計画戦略を開発するために、一般的なADASインターフェースと一貫して機能しない場合がある。
一態様によれば、車両の周囲環境の少なくとも1つの自己中心一人称視点画像を受信することを含む、自己中心映像に基づく将来の車両位置特定のためのコンピュータ実装方法である。コンピュータ実装方法はまた、少なくとも1つの自己中心一人称視点画像内にキャプチャされた少なくとも1つの交通参加者に関連付けられた少なくとも1つの過去の境界ボックス軌道を符号化することを含む。少なくとも1つの過去の境界ボックス軌道符号化の最終隠れ状態が出力される。コンピュータ実装方法は、少なくとも1つの交通参加者に関連付けられた自己中心一人称視点画像の密なオプティカルフローを符号化することを更に含む。密なオプティカルフロー符号化の最終隠れ状態が出力される。更に、コンピュータ実装方法は、少なくとも1つの過去の境界ボックス軌道符号化の最終隠れ状態及び密なオプティカルフロー符号化の最終隠れ状態に基づいて、少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することを含む。コンピュータ実装方法は、少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスに基づいて、自律的に運転されるように車両を制御することを更に含む。
別の態様によれば、自己中心映像に基づく将来の車両位置特定のためのシステムであって、命令を記憶するメモリを含み、メモリは、プロセッサによって実行されると、車両の周囲環境の少なくとも1つの自己中心一人称視点画像を受信することをプロセッサに行わせる、システムである。命令はまた、プロセッサに、少なくとも1つの自己中心一人称視点画像内にキャプチャされた少なくとも1つの交通参加者に関連付けられた少なくとも1つの過去の境界ボックス軌道を符号化させる。少なくとも1つの過去の境界ボックス軌道符号化の最終隠れ状態が出力される。命令は更に、プロセッサに、少なくとも1つの交通参加者に関連付けられた自己中心一人称視点画像の密なオプティカルフローを符号化させる。密なオプティカルフロー符号化の最終隠れ状態が出力される。加えて、命令は、プロセッサに、少なくとも1つの過去の境界ボックス軌道符号化の最終隠れ状態及び密なオプティカルフロー符号化の最終隠れ状態に基づいて、少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号させる。命令は、プロセッサに、少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスに基づいて、自律的に運転されるように車両を更に制御させる。
更に別の態様によれば、命令を記憶する非一時的コンピュータ可読記憶媒体であって、プロセッサを含むコンピュータによって実行されると、車両の周囲環境の少なくとも1つの自己中心一人称視点画像を受信することを含む方法を実行する、非一時的コンピュータ可読記憶媒体である。方法はまた、少なくとも1つの自己中心一人称視点画像内にキャプチャされた少なくとも1つの交通参加者に関連付けられた少なくとも1つの過去の境界ボックス軌道を符号化することを含む。少なくとも1つの過去の境界ボックス軌道符号化の最終隠れ状態が出力される。方法は、少なくとも1つの交通参加者に関連付けられた自己中心一人称視点画像の密なオプティカルフローを符号化することを更に含む。密なオプティカルフロー符号化の最終隠れ状態が出力される。加えて、方法は、少なくとも1つの過去の境界ボックス軌道符号化の最終隠れ状態及び密なオプティカルフロー符号化の最終隠れ状態に基づいて、少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することを含む。方法は、少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスに基づいて、自律的に運転されるように車両を制御することを更に含む。
本開示の例示的な実施形態による、自己中心映像に基づく将来の車両位置特定のためのシステム及び方法を実施するための例示的な動作環境の概略図である。
本開示の例示的な実施形態による、ニューラルネットワークのRNNエンコーダ−デコーダ構造の例示的な例を含む。
本開示の例示的な実施形態による、過去の境界ボックス軌道を符号化するための方法のプロセスフロー図である。
本開示の例示的な実施形態による、過去の相対運動及びスケール変化を符号化するための方法のプロセスフロー図である。
本開示の例示的な実施形態による、各交通参加者に関連付けられた将来の境界ボックスを復号するための方法のプロセスフロー図である。
車両の周囲環境内に位置する交通参加者のそれぞれについて、過去の境界ボックスから将来の境界ボックスを復号する例示的な例である。
本開示の例示的な実施形態による、車両の周囲環境内に位置する1つ以上の交通参加者の予測される将来の位置、場所、スケール、深さ、及び軌道を考慮するように自律的に運転されるように車両を制御するための方法のプロセスフロー図である。
本開示の例示的な実施形態による、自己中心映像に基づく将来の車両位置特定のための方法のプロセスフロー図である。
以下は、本明細書で用いられる選択された用語の定義を含む。定義は、用語の範囲内に含まれかつ実装に使用され得る構成要素の様々な実施例及び/又は形態を含む。実施例は、限定することを意図するものではない。
本明細書で使用される場合、「バス」とは、コンピュータ内部又はコンピュータ間の他のコンピュータ構成要素に操作可能に接続された、相互接続されたアーキテクチャを指す。バスは、コンピュータ構成要素間でデータを転送することができる。バスは、とりわけ、メモリバス、メモリコントローラ、周辺バス、外部バス、クロスバースイッチ、及び/又はローカルバスであってもよい。バスはまた、とりわけ、媒体配向システム輸送(media oriented systems transport、MOST)、コントローラエリアネットワーク(controller area network、CAN)、ローカル相互接続ネットワーク(local interconnect network、LIN)などのプロトコルを使用して、車両内部の構成要素を相互接続する、車両バスであってもよい。
本明細書で使用される場合、「コンピュータ通信」とは、2つ以上のコンピューティングデバイス(例えば、コンピュータ、パーソナルデジタルアシスタント、携帯電話、ネットワークデバイス)間の通信を指し、例えば、ネットワーク転送、ファイル転送、アプレット転送、電子メール、ハイパーテキスト転送プロトコル(hypertext transfer protocol、HTTP)転送などであってもよい。コンピュータ通信は、例えば、とりわけ、無線システム(例えば、IEEE802.11)、イーサネットシステム(例えば、IEEE802.3)、トークンリングシステム(例えば、IEEE802.5)、ローカルエリアネットワーク(local area network、LAN)、広域ネットワーク(wide area network、WAN)、ポイントツーポイントシステム、回路スイッチングシステム、パケットスイッチングシステムを介して発生し得る。
本明細書で使用される場合、「ディスク」又は「ドライブ」とは、磁気ディスクドライブ、ソリッドステートディスクドライブ、フロッピーディスクドライブ、テープドライブ、Zipドライブ、フラッシュメモリカード、及び/又はメモリスティックであってもよい。更に、ディスクは、CD−ROM(コンパクトディスクROM)、CD記録可能ドライブ(CD recordable drive、CD−Rドライブ)、CD書き換え可能ドライブ(CD rewritable drive、CD−RWドライブ)、及び/又はデジタルビデオROMドライブ(digital video ROM、DVD−ROM)であってもよい。ディスクは、コンピューティングデバイスのリソースを制御する又は割り振るオペレーティングシステムを記憶することができる。
本明細書で使用される場合、「メモリ」は、揮発性メモリ及び/又は不揮発性メモリを含んでもよい。不揮発性メモリとしては、例えば、ROM(読み取り専用メモリ)、PROM(プログラム可能な読み取り専用メモリ)、EPROM(消去可能なPROM)、及びEEPROM(電気的に消去可能なPROM)を挙げることができる。揮発性メモリとしては、例えば、RAM(ランダムアクセスメモリ)、シンクロナスRAM(synchronous RAM、SRAM)、ダイナミックRAM(dynamic RAM、DRAM)、シンクロナスDRAM(synchronous DRAM、SDRAM)、ダブルデータレートSDRAM(double data rate SDRAM、DDR SDRAM)、及び/又はダイレクトRAMバスRAM(direct RAM bus RAM、DRRAM)を挙げることができる。メモリは、コンピューティングデバイスのリソースを制御する又は割り振るオペレーティングシステムを記憶することができる。
本明細書で使用される場合、「モジュール」は、機能若しくは行動を実行するため、並びに/又は別のモジュール、メソッド、及び/若しくはシステムからの機能若しくは行動を引き起こすための、命令を記憶する非一時的コンピュータ可読媒体、機械上で実行される命令、ハードウェア、ファームウェア、機械で実行中のソフトウェア、及び/又はそれぞれの組み合わせを含むが、これらに限定されない。モジュールはまた、論理、ソフトウェア制御マイクロプロセッサ、別個の論理回路、アナログ回路、デジタル回路、プログラムされた論理デバイス、実行命令を含むメモリデバイス、論理ゲート、ゲートの組み合わせ、及び/又は他の回路構成要素を含んでもよい。複数のモジュールは、1つのモジュールに組み合わされてもよく、単一モジュールは、複数のモジュール間に分散されてもよい。
「操作可能な接続」、又はエンティティが「操作可能に接続される」ことによる接続は、信号、物理的通信、及び/又は論理的通信が、送信及び/又は受信され得るものである。操作可能な接続は、無線インターフェース、物理的インターフェース、データインターフェース、及び/又は電気インターフェースを含んでもよい。
本明細書で使用される場合、「プロセッサ」は、信号を処理し、一般的なコンピューティング及び演算機能を実行する。プロセッサによって処理された信号は、デジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は受信、送信、及び/若しくは検出され得る他の手段を含んでもよい。一般に、プロセッサは、複数の単一及びマルチコアのプロセッサ及びコプロセッサ並びに他の複数の単一及びマルチコアのプロセッサ及びコプロセッサアーキテクチャを含む、多種の様々なプロセッサであってもよい。プロセッサは、様々な機能を実行するための様々なモジュールを含んでもよい。
本明細書で使用される場合、「車両」は、1人以上の人間の乗員を運ぶことができ、任意の形態のエネルギーによって電力供給される、任意の移動車両を指し得る。「車両」という用語には、限定するものではないが、自動車、トラック、バン、ミニバン、SUV、オートバイ、スクータ、ボート、ゴーカート、アミューズメントライドカー、鉄道輸送、水上バイク、及び航空機が含まれる。場合によっては、モータ車両は、1つ以上のエンジンを含む。更に、「車両」という用語は、1人以上の人間の乗員を運ぶことができ、電気電池によって電力供給される1つ以上の電気モータによって、完全に又は部分的に電力供給される、電気車両(electric vehicle、EV)を指し得る。EVは、電池電気自動車(battery electric vehicle、BEV)及びプラグインハイブリッド電気自動車(plug-in hybrid electric vehicle、PHEV)を含んでもよい。追加的に、「車両」という用語は、任意の形態のエネルギーによって動力を供給される、自律型車両及び/又は自動運転型車両を指し得る。自律型車両は、1人以上の人間の乗員を運んでいても運んでいなくてもよい。更に、「車両」という用語は、所定の経路又は自由移動車両で自動化又は非自動化される車両を含んでもよい。
本明細書で使用される場合、「値」及び「レベル」とは、特に、百分率、非数値、離散的な状態、離散値、連続値などの数値、又は他の種類の値若しくはレベルを含むことができるが、これらに限定されない。「Xの値」又は「Xのレベル」という用語は、この詳細な説明全体を通じて、及び特許請求の範囲で使用される場合、Xの2つの状態か2つ超の状態を区別するための任意の数値又はその他の種類の値を指す。例えば、場合によっては、Xの値又はレベルは、0%〜100%の割合として与えられてもよい。他の場合には、Xの値又はレベルは、1〜10の範囲の値であり得る。更に他の場合では、Xの値又はレベルは数値でなくてもよいが、「非X」、「わずかにx」、「x」、「非常にx」、及び「極x」などの所与の離散した状態と関連付けることができる。
I.システムの概要
ここで図面を参照すると、表示は、1つ以上の例示的な実施形態を例示する目的のためであり、限定する目的のためではなく、図1は、本開示の例示的な実施形態による、自己中心映像に基づく将来の車両位置特定のためのシステム及び方法を実施するための例示的な動作環境100の概略図である。環境100の構成要素、並びに本明細書で考察される他のシステム、ハードウェアアーキテクチャ、及びソフトウェアアーキテクチャの構成要素は、様々な実施形態のために異なるアーキテクチャに組み合わされるか、省略されるか、又は編成されてもよい。
一般に、環境100は、とりわけ、1つ以上のアプリケーション、オペレーティングシステム、車両システム、及びサブシステムユーザインターフェースを実行する電子制御ユニット(electronic control unit、ECU)104を有する自己車両(車両)102を含む。ECU104はまた、車両102の周囲環境内に位置する交通参加者(図6に示す)として本明細書に分類される1つ以上の車両及び/又は歩行者の将来の位置特定を完了する自己中心映像に基づく車両位置特定を完了するように構成され得る将来の車両位置特定アプリケーション(位置特定アプリケーション)106を実行してもよい。後述するように、将来の位置特定は、車両102の周囲環境内に位置する1つ以上の交通参加者の1つ以上の交通参加者の将来の位置、場所、スケール、深さ、及び軌道の予測を含んでもよい。周囲環境は、車両102の近傍を含む領域を含んでもよい。例えば、車両102の周囲環境は、車両102が位置する(例えば、停止した)交差点、及び/又は車両102が運転される道路(例えば、高速道路のレーン)を含んでもよい。
後述するように、将来の位置特定アプリケーション106は、ニューラルネットワーク108と通信し、これを利用して過去の観測の時間的情報を符号化して、車両102の周囲環境内に位置する1つ以上の交通参加者に関する位置及びスケール情報を提供することができる。将来の位置特定アプリケーション106はまた、ニューラルネットワーク108を利用して、密なオプティカルフローを符号化し、交通参加者の運動、スケール変化、及び外観についての画素レベル情報を提供してもよい。加えて、将来の位置特定アプリケーション106は、ニューラルネットワーク108を更に利用して、符号化によって提供される融合符号化出力に基づいて将来データを復号し、それにより、車両102の周囲環境内の1つ以上の交通参加者のそれぞれに関連付けられた予測される将来の境界ボックスの予測される将来の位置の変化を出力することができる。
後述するように、いくつかの実施形態では、アプリケーション106はまた、予測された境界ボックスに関する情報を復号及び出力するためにニューラルネットワーク108に提供され得る車両102の計画された将来の自己運動に関する車両102の車両自律制御装置112によって提供されるデータを入力してもよい。いくつかの構成では、アプリケーション106はまた、入力として提供される様々なソースからの情報を処理することができ、また、対象物分類、特徴認識、多層知覚、及び自律運転コマンドを含むがこれらに限定されない様々な機能を提供するために、ニューラルネットワーク108を利用してもよい。
以下でより詳細に論じられるように、ニューラルネットワーク108は、マルチストリーム型のリカレントニューラルネットワーク(recurrent neural network、RNN)として構成されてもよく、複数の完全に接続された層を含むエンコーダ−デコーダ構造を含んでもよい。ニューラルネットワーク108は、機械学習/深層学習を利用して、過去の観測からの時間的情報及びオプティカルフロー情報を符号化し、車両102の周囲環境の自己中心FPV画像に基づいて予測される将来の境界ボックスを復号するために利用され得る人工知能能力を提供することができる。
ニューラルネットワーク108は、復号された予測される将来の境界ボックスから将来の車両位置特定情報を処理するように構成されてもよく、1つ以上の道路環境シナリオ(例えば、交差点シナリオ)のために収集され得る位置特定データセット110を構築及び維持することができる。いくつかの実施形態では、アプリケーション106は、車両102及び/又は車両102の周囲環境内の1つ以上の交通参加者の予測される将来の位置、場所、スケール、深さ、及び軌道に事前に適応することができるように車両102を自律的に制御するために提供され得る自律運転コマンドを実行しながら、運動計画能力を提供するために位置特定データセット110にアクセスして分析してもよい。更なる実施形態では、アプリケーション106は、車両102及び/又は車両102の周囲環境内の1つ以上の交通参加者の予測される将来の位置、場所、スケール、深さ、及び軌道に基づいて、事前に衝突回避目的のために運転者に警告/警報するために提供され得る車両102の運転者に警告を提供するために、位置特定データセット110にアクセスして分析してもよい。
図1を引き続き参照すると、ECU104及び車両自律制御装置112に加えて、車両102は、複数の構成要素、例えば、メモリ114、1つ以上のカメラ118及び複数の車両システム120に操作可能に接続された車両カメラシステム116を含むことができる。例示的な実施形態では、ECU104は、車両102の複数の構成要素を操作可能に制御するように構成することができる。
1つ以上の実施形態では、ECU104は、マイクロプロセッサ、1つ以上の特定用途向け集積回路(application-specific integrated circuit、ASIC)、又は他の同様のデバイスを含んでもよい。ECU104はまた、内部処理メモリ、インターフェース回路、及びデータを転送し、コマンドを送信し、車両102の複数の構成要素と通信するためのバスラインを含むことができる。ECU104はまた、車両102内でデータを送信し、外部ホスト型コンピューティングシステム(例えば、車両102の外部)と通信するための通信デバイス(図示せず)を含んでもよい。概して、ECU104は、メモリ114と通信して、メモリ114内に記憶されている1つ以上のアプリケーション、オペレーティングシステム、車両システム、及びサブシステムユーザインターフェースなどを実行する。
一実施形態では、ECU104は、車両自律制御装置112を操作可能に制御して、車両102の意図された目的地、車両102の周囲環境内に位置する1つ以上の交通参加者、将来の位置特定アプリケーション106により決定される1つ以上の交通参加者の1つ以上の将来の予測された位置、及び/又は車両102が走行しているレーン、交通信号のステータス、交通パターン、交通規制などを含んでもよいが、これらに限定されない1つ以上の外部要因のうちの1つ以上に基づいて、自律運転計画を処理及び実行することができる。後述するように、いくつかの実施形態では、将来の位置特定アプリケーション106は、車両自律制御装置112によって処理された自律運転計画に基づいて、車両102の将来の自己運動を予測してもよい。
一実施形態では、車両自律制御装置112は、車両システム120、及び/又は車両102のエンジン制御ユニット、ブレーキ制御ユニット、トランスミッション制御ユニット、ステアリング制御ユニットなどを含むがこれに限定されない1つ以上の制御ユニット(図示せず)のうちの1つ以上に1つ以上のコマンドを更に提供し、自律運転計画及び/又はアプリケーション106によって通信されるデータに基づいて、車両102を自律的に運転するように制御して、車両102を自律的又は半自律的に制御する。換言すれば、車両102は、自律運転計画に影響し得る1つ以上の要因(例えば、車両102が走行しているレーン、交通信号のステータス、交通パターン、交通規制など)に基づいて自律的に運転されてもよく、及び/又はニューラルネットワーク108によって出力された最終隠れ状態を符号化及び復号することに基づいて、車両102の周囲環境内の1つ以上の交通参加者の予測された位置、場所、スケール、深さ、及び軌道に事前に適応させてもよい。
具体的には、車両自律制御装置112は、車両102の完全自律的又は半自律的制御を提供するために、1つ以上のコマンド(信号)を車両システム120及び/又は制御ユニットのうちの1つ以上に提供するように構成することができる。車両102のそのような自律制御は、1つ以上の状況(例えば、運転者支援制御)中に車両102を操作(例えば、運転)するように、及び/又は車両102の全行程中の車両102の運転を完全に制御するために、1つ以上のコマンドを送信して1つ以上の車両システム120及び/又は1つ以上の制御ユニットを制御することによって提供されてもよい。
メモリ114は、ECU104によって実行される1つ以上のオペレーティングシステム、アプリケーション、関連するオペレーティングシステムデータ、アプリケーションデータ、車両システム、及びサブシステムユーザインターフェースデータなどに関連付けられた1つ以上の実行可能ファイルを記憶するように構成することができる。1つ以上の実施形態では、車両102のメモリ114は、将来の位置特定アプリケーション106によってアクセスされて、データ、例えば、車両102の周囲環境の1つ以上の自己中心FPV画像を記憶することができる。いくつかの実施形態では、メモリ114は、異なる種類の交通参加者に関連付けられた(画像データに基づく)サイズ及び特徴の範囲を含む値を表す1つ以上の種類の交通参加者に関連付けられた1つ以上の交通参加者モデル(図示せず)を含んでもよい。
例示的な実施形態では、メモリ114は、ニューラルネットワーク108の構成要素を含むことができる。上述のように、ニューラルネットワーク108は、ニューラルネットワーク108に提供される1つ以上の形態のデータを中心とし得るコンピュータ/機械ベース/深層学習を処理するように構成されたRNNとして構成することができる。一部の実施形態では、メモリ114にホスティングされることに加えて、ニューラルネットワーク108、ニューラルネットワーク108のサブセット、及び/又はデータのサブセットは、ニューラルネットワーク108によって使用されてもよく、これは、ECU104の通信デバイスを通じて車両102のECU104と通信するように構成され得る外部ホスト型サーバインフラストラクチャ(図示せず)にホスティングされてもよい。
1つ以上の実施形態では、ニューラルネットワーク108は、将来の位置特定アプリケーション106にデータを出力し、位置特定データセット110を構築及び維持するために利用され得る人工知能能力を提供するために、機械学習/深層学習を利用するように構成される処理能力を提供し得る、ニューラルネットワーク処理ユニット122を含んでもよい。ニューラルネットワーク処理ユニット122は、入力として提供される情報を処理してもよく、記憶された将来の位置特定データにアクセスして、様々な機能を提供するために位置特定データセット110を利用して、対象物分類、特徴認識、コンピュータ映像、速度認識、機械並進、自律運転コマンドなどを含むが、これらに限定されない様々な機能を提供することができる。
例示的な実施形態では、ニューラルネットワーク108は、ニューラルネットワーク処理ユニット122によって操作可能に制御されるRNNエンコーダ−デコーダ構造として構成されてもよく、位置エンコーダ124、運動エンコーダ126、及び将来の位置特定デコーダ128を含む。位置エンコーダ124及び運動エンコーダ126は、ゲート化された反復単位エンコーダとして構成することができる。例示的な実施形態では、位置エンコーダ124は、車両102の周囲環境内に位置する1つ以上の交通参加者の過去の境界ボックス軌道に対する1つ以上の自己中心FPV画像内にキャプチャされた過去の観測の時間的情報を符号化するように構成することができる。位置エンコーダ124は、それにより、車両102の周囲環境内に位置する1つ以上の交通参加者のそれぞれに関する位置及びスケール情報を提供することができる。
一実施形態では、運動エンコーダ126は、1つ以上の自己中心FPV画像内にキャプチャされた1つ以上の交通参加者及び背景の、運動、スケール、及び/又は外観変化の密なオプティカルフロー情報を符号化するように構成することができる。後述するように、アプリケーション106は、位置エンコーダ124及び運動エンコーダ126によって出力されたデータを融合して、車両102の周囲環境内に位置する1つ以上の交通参加者のそれぞれの符号化された過去の位置、スケール、及び対応するオプティカルフローフィールドを提供するように構成することができる。融合データは、将来の位置特定デコーダ128に通信されて、車両102の周囲環境内に位置する1つ以上の交通参加者のそれぞれの将来の境界ボックス軌道を推定することができる。
より具体的には、将来の位置特定デコーダ128は、車両102の周囲環境の1つ以上の自己中心FPV画像に基づいて将来の境界ボックスを復号するように構成された、ゲート化された反復単位デコーダとして構成することができる。将来の位置特定デコーダ128の隠れ状態は、位置エンコーダ124及び運動エンコーダ126の最終融合隠れ状態によって初期化されて、将来の境界ボックスを復号し、それにより、アプリケーション106が車両102の周囲環境内の1つ以上の交通参加者の予測された位置、場所、スケール、深さ、及び軌道を出力して位置特定データセット110に更新させることを可能にする。いくつかの実施形態では、将来の位置特定デコーダ128の隠れ状態は、車両102の(車両自律制御装置112によって提供される自律運転計画に基づく)将来の自己運動に加えて、位置エンコーダ124及び運動エンコーダ126の最終融合隠れ状態によって初期化されてもよい。
図2は、本開示の例示的な実施形態による、ニューラルネットワーク108のRNNエンコーダ−デコーダ構造の例示的な例を含む。以下でより詳細に論じられるように、将来の位置特定アプリケーション106によってニューラルネットワーク108のニューラルネットワーク処理ユニット122に提供される1つ以上のコマンドに基づいて、1つ以上の自己中心FPV画像に基づく1つ以上の交通参加者の1つ以上の過去の境界ボックス軌道202は、位置及びスケール情報を提供するために位置エンコーダ124によって符号化されてもよい。
図示のように、将来の位置特定アプリケーション106はまた、車両102(例えば、密なオプティカルフローフィールド204)の周囲環境内に位置する1つ以上の交通参加者に関連付けられた、自己中心FPV画像の密なオプティカルフローを符号化するために、運動エンコーダ126のための1つ以上のコマンドを提供し、1つ以上の交通参加者のそれぞれの運動、スケール、及び/又は外観変化の画素レベル情報を提供することができる。いくつかの実施形態では、将来の位置特定アプリケーション106は、将来の位置特定デコーダ128に車両102の自己運動計画に関連付けられた将来の自己運動データ214を入力するための1つ以上のコマンドを追加的に提供してもよい。将来の位置特定デコーダ128は、車両102の周囲環境内に位置する1つ以上の交通参加者に関連付けられた将来の境界ボックス216を復号及び予測するように構成することができる。後述するように、将来の位置特定アプリケーション106は、それにより、車両102の周囲環境に対して復号された隠れ状態を評価することによって、車両102の周囲環境内に位置する1つ以上の交通参加者のそれぞれに関連付けられた将来の位置、場所、スケール、深さ、及び軌道を予測することができる。
いくつかの実施形態では、車両102の周囲環境内の1つ以上の交通参加者の将来の予測された位置、場所、スケール、深さ、及び軌道は、位置特定データセット110に追加される車両位置特定データとして提供されてもよい。いくつかの構成では、アプリケーション106は、位置特定データセット110を利用し、車両102の周囲環境内の1つ以上の交通参加者の予測された位置、場所、スケール、深さ、及び軌道に事前に適応するように車両102を自律的に制御するために提供され得る自律運転コマンドを実行しながら運動計画能力を提供することができる。
再び図1を参照すると、車両カメラシステム116は、車両102の周囲環境の1つ以上の領域に位置決めされた1つ以上のカメラ118を含んでもよい。例示的な実施形態では、車両102の周囲環境は、車両の走行経路内に含まれ得る車両102(例えば、車両102の前方、側部、及び/又は後方の道路環境)の周り(前方/側部/後方)に位置する所定の領域として定義されてもよい。
車両カメラシステム116の1つ以上のカメラ118は、車両ダッシュボード、車両バンパ、車両前方照明ユニット、車両フェンダ、及びフロントガラスの異なる部分を含むが、これらに限定されない車両102の外部前部に配置されてもよい。一実施形態では、1つ以上のカメラは、対象物の外観に関するリッチな情報、並びに車両102と1つ以上の交通参加者が含まれ得る車両102の周囲環境内の対象物との間の関係及び相互作用をキャプチャするように構成されたRGB帯域をキャプチャし得るRGBカメラとして構成することができる。1つ以上のカメラ118は、1つ以上の解像度で車両102の周囲環境の自己中心FPV画像(例えば、画像、ビデオ)をキャプチャするように構成することができる。例えば、1つ以上のカメラ118は、1920×1200の解像度及び10fpsの車両102の前向き周囲環境のビデオクリップをキャプチャするように構成することができる。
論じたように、画像データは、将来の位置特定アプリケーション106の1つ以上の構成要素に、車両カメラシステム116によって提供されてもよく、ニューラルネットワーク108の利用に基づいて更に評価及び処理されてもよい。いくつかの実施形態では、アプリケーション106は、画像上の抽出物で特徴抽出を実行するために、画像論理を実行するように構成することができる。画像抽出は、1つ以上の時空間的特徴の抽出を含んでもよく、対象物及びシーン認識に関し得る。一実施形態では、画像論理はまた、交通参加者(例えば、歩行者、バイカー、他の車両)、道路属性(例えば、車線区分線、オフランプ、縁石)、及び道路側対象物(例えば、信号機、停止標識)を含んでもよいが、これらに限定されない1つ以上の対象物に関連付けられた1つ以上の画像座標セットを決定するために利用されてもよい。
1つ以上の実施形態では、車両システム120は、車両102及び/又は車両102の1つ以上の機能及び特徴を自律的に制御するために利用され得る1つ以上のシステムを含んでもよい。例えば、車両システム120は、車両運転を強化するために使用され得る任意の自動又は手動システムを含むことができるが、これらに限定されない。車両システム120は、車両102及び/又は特定の車両システム120と関連付けられた異なる刺激(例えば、信号、属性、測定値、量)を感知及び測定する様々な車両センサ(図示せず)を含んでもよいことが理解される。
例えば、一部の車両センサは、車両102の外部に装着されたレーダーセンサ及びレーザーセンサを含むことができる。センサは、例えば、とりわけ、音響、電気、環境、光学、イメージング、光、圧力、力、熱、温度、近接などの任意の種類のセンサであってもよい。いくつかの実施形態では、車両システム120のうちの1つ以上は、車両102を取り囲む対象物を検出するための車両センサを含んでもよい。例えば、近接センサ、レーダーセンサ、レーザーセンサ、LIDARセンサ、及び他の光学センサを使用して、車両102の周囲環境内の対象物を検出することができる。
車両システム120は、車両102及び/又は車両102の周囲環境内の1つ以上の交通参加者の予測された位置、場所、スケール、深さ、及び軌道に基づいて事前に衝突回避目的のために、車両102の運転者に(例えば、車両102が、運転者によって運転され、自律的ではない場合)警告/警報を提供するために利用され得る、とりわけ、先進運転者支援システム(ADAS)、例えば、適応的なクルーズ制御システム、ブラインドスポット監視システム、衝突緩和システム、レーン出発警告システムを含んでもよい。
II.将来の車両位置特定アプリケーション及び関連方法
ここで、例示的な実施形態に従って、かつ図1及び図2を参照して、将来の位置特定アプリケーション106の構成要素を説明する。例示的な実施形態では、将来の位置特定アプリケーション106は、メモリ114上に記憶され、車両102のECU104によって実行されてもよい。別の実施形態では、将来の位置特定アプリケーション106は、外部ホスト型コンピューティングインフラストラクチャ上に記憶されてもよく、ECU104の通信デバイスによってアクセスされ、車両102のECU104によって実行されてもよい。
将来の位置特定アプリケーション106の一般的な機能性について説明する。例示的な実施形態では、将来の位置特定アプリケーション106は、過去のデータ符号化モジュール130、将来のデータ復号モジュール132、及び車両制御モジュール134を含むことができる。以下でより詳細に論じられるように、過去のデータ符号化モジュール130は、車両カメラシステム116から画像データを受信し、かつニューラルネットワーク108を利用して車両102からキャプチャされた1つ以上の自己中心FPV画像から1つ以上の過去の境界ボックス軌道を符号化するように構成することができる。過去のデータ符号化モジュール130は、1つ以上の過去の境界ボックス軌道に基づく運動エンコーダ126によって符号化されるキューとして、1つ以上の交通参加者に関連付けられた密なオプティカルフローを符号化するように更に構成し、運動及び外観についての画素レベル情報を評価し、それにより、車両102の周囲環境における相対運動のパターンを決定することができる。
以下でより詳細に論じられるように、将来のデータ復号モジュール132は、位置エンコーダ124及び運動エンコーダ126の最終融合隠れ状態210に関するデータを受信してもよく、1つ以上の交通参加者の将来のカメラフレームにおける将来の境界ボックス216(例えば、将来の1秒)を予測するために、最終融合隠れ状態210を将来の位置特定デコーダ128に入力してもよい。それにより、アプリケーション106は、現在の自己中心FPV画像フレームからの将来の境界ボックスの相対的将来の位置及びスケールを出力して、車両102の周囲環境内の1つ以上の交通参加者のそれぞれの将来の車両位置特定を達成することができる。将来の位置特定は、車両102の周囲環境内の1つ以上の交通参加者の予測された位置、場所、スケール、深さ、及び軌道に関してもよく、車両102を自律的又は半自律的に操作するように制御される車両の1つ以上の車両システムを操作可能に制御するために更に利用されてもよい。将来の位置特定アプリケーション106のモジュール130〜134によって実行されるプロセス工程を説明する方法及び実施例を、より詳細に説明する。
図3は、本開示の例示的な実施形態による、過去の境界ボックス軌道を符号化するための方法300のプロセスフロー図である。図3は、図1及び図2の構成要素を参照して説明されるが、図3の方法300は、他のシステム/構成要素と共に使用されてもよいことを理解されたい。方法300は、ブロック302で開始することができ、方法300は、車両カメラシステム116から画像データを受信することを含み得る。例示的な実施形態では、将来の位置特定アプリケーション106の過去のデータ符号化モジュール130は、1つ以上のカメラ118によってキャプチャされた車両102の周囲環境の自己中心FPV画像/ビデオに関する画像データをパッケージ化及び記憶することができる。一実施形態では、過去のデータ符号化モジュール130は、メモリ114上に画像データをパッケージ化及び記憶することができる。
方法300は、ブロック304に進んでもよく、方法300は、画像データを解析することと、複数の画像フレームを決定することと、を含むことができる。いくつかの実施形態では、過去のデータ符号化モジュール130は、画像データを評価するために画像論理を利用することができ、機械学習/深層学習を実行して、そのサンプリングレート又は同じサイズを低下させることによって画像データをダウンサンプリングするために、ニューラルネットワーク108を利用することができる。ダウンサンプリングは、画像データをより効率的に処理するためにビットレートを減少させることを可能にし得る。
1つ以上の実施形態では、過去のデータ符号化モジュール130は、1つ以上のコマンドをニューラルネットワーク108に送信して、ダウンサンプリングされたデータを、現在の時点からの1つ以上の直近の過去の時点を含む画像の1つ以上の過去の画像フレームを含み得る複数の画像フレームに変換して、過去の画像フレームの画像データ入力を決定することができる。1つ以上の直近の過去の時点は、画像データの形態で受信される現在の時点の、過去の(例えば、すぐ過去の)時点を含むことができる。いくつかの実施形態では、過去のデータ符号化モジュール130はまた、現在の画像フレームの画像データ入力を決定するための現在の画像フレームを含む画像フレームを決定するように構成することができる。
方法300は、ブロック306に進んでもよく、方法300は、1つ以上の対象物の物理的位置を決定することを含み得る。一実施形態では、過去のデータ符号化モジュール130は、画像論理を実行して、車両102に対する1つ以上の対象物の物理的位置の決定を実施することができる。過去のデータ符号化モジュール130は、対象物及びシーン認識に関する1つ以上の時空間的特徴を抽出することができる。一実施形態では、画像論理はまた、交通参加者(例えば、歩行者、バイカー、他の車両)、道路属性(例えば、車線区分線、オフランプ、縁石)、及び道路側対象物(例えば、信号機、停止標識)を含んでもよいが、これらに限定されない1つ以上の対象物に関連付けられた1つ以上の画像座標セットを決定するために利用され、車両102に対する1つ以上の対象物の物理的位置を決定することができる。
方法300は、ブロック308に進んでもよく、方法300は、1つ以上の交通参加者を各画像フレームから分類することを含み得る。例示的な実施形態では、1つ以上の対象物の物理的位置を出力すると、過去のデータ符号化モジュール130は、決定された画像座標の1つ以上のセットに基づいて、交通参加者として分類される1つ以上の対象物に関連付けられた特徴を抽出することができる。1つの構成では、過去のデータ符号化モジュール130は、メモリ114にアクセスし、対象物の画素位置及びスケールを、交通参加者として1つ以上の対象物を分類する異なる種類の交通参加者に関連付けられたサイズ及び特徴の範囲を含む値を表す1つ以上の種類の交通参加者に関連付けられた1つ以上の交通参加者モデルと比較することができる。いくつかの実施形態では、過去のデータ符号化モジュール130は、交通参加者検出のためにCOCOデータセット(図示せず)に予め訓練されたMask−RCNN(図示せず)を利用してもよい。過去のデータ符号化モジュール130は、各画像フレーム(例えば、ビデオの)に対する複数の交通参加者追跡のためのカルマンフィルタを利用して、それにより、各画像フレームから1つ以上の交通参加者を分類することができる。
方法300は、ブロック310に進んでもよく、方法300は、過去の境界ボックス軌道位置を符号化することを含み得る。1つ以上の交通対象物を分類すると、過去のデータ符号化モジュール130は、過去の画像フレームに対する1つ以上の交通参加者の周りの境界ボックスを計算することができる。図2を参照すると、過去の境界ボックス軌道202は、ニューラルネットワーク処理ユニット122を通じて、ニューラルネットワーク108の完全に接続された層208aに、過去のデータ符号化モジュール130によって入力されてもよい。
過去のデータ符号化モジュール130は、ニューラルネットワーク108にアクセスし、位置エンコーダ124を利用して、車両102の周囲環境内に位置する1つ以上の交通参加者の過去の軌道に関連付けられた過去の境界ボックス軌道のための対象物位置スケールの観測を符号化することができる。1つの構成では、各交通参加者の過去の境界ボックス軌道は、以下のように過去のデータ符号化モジュール130によって計算されてもよい。
X={x t0− τ +1 ,x t0− τ +2..., t0
式中、x t= [x t, t, t, ]は、時間t(フレーム)における各交通参加者の境界ボックスの画素座標を、画素のその幅及び高さと共に含む。
方法300は、ブロック310に進んでもよく、方法300は、過去のボックス軌道を符号化することを含み得る。例示的な実施形態では、過去のデータ符号化モジュール130は、ニューラルネットワーク108と通信して、ニューラルネットワーク108の完全に接続された層208aを通じて各交通参加者の過去の境界ボックス軌道を位置エンコーダ124に提供することができる。一実施形態では、過去のデータ符号化モジュール130は、画素のその幅及び高さと共に時間tにおける各交通参加者の境界ボックスの画素座標によって指定されるその画素位置及びスケールに基づいて、各交通参加者の過去の位置、場所、及び軌道で過去の軌道を符号化することができる。一例として、画像の中心に位置する別の交通参加者の過去の位置、場所、及び軌道は、交差点の反対側から近くの車両又は離れた車両として決定されてもよい。そのような差異は、交通参加者の将来の位置、場所、及び軌道の異なる位置特定をもたらし得る。
1つ以上の実施形態では、車両102の周囲環境内の1つ以上の交通参加者のそれぞれに関連付けられた過去の境界ボックス軌道を符号化すると、位置エンコーダ124は、過去のデータ符号化モジュール130への画素のその幅及び高さと共に時間tにおける各交通参加者の境界ボックスの画素座標によって指定されるその画素位置及びスケールに基づいて、各交通参加者の過去の位置、場所、及び軌道に通信することができ、かつ符号化された過去の境界ボックス軌道のそれぞれに関連付けられた最終隠れ状態を出力することができる。符号化された過去の境界ボックス軌道のそれぞれに関連付けられた最終隠れ状態は、時間tにおけるゲート化された反復単位(gated recurrent unit、GRU)モデルの隠れ状態ベクトルとして出力されてもよく、ここで、
であり、式中、GRUは、パラメータ
を有する位置エンコーダ124のゲート化された反復単位であり、ReLUのアクティブ化を伴う線形投影であり、
は、時間tにおけるGRUモデルの隠れ状態ベクトルである。一実施形態では、隠れ状態ベクトルを出力すると、位置エンコーダ124は、隠れ状態ベクトルを過去のデータ符号化モジュール130に通信してもよい。論じたように、位置エンコーダ124の最終隠れ状態は、運動エンコーダ126の最終隠れ状態と更に融合されてもよい。
図4は、本開示の例示的な実施形態による過去の相対運動及びスケール変化を符号化するための方法400のプロセスフロー図であり、図1及び図2の構成要素を参照して説明されるが、図4の方法400は、他のシステム/構成要素と共に使用されてもよいことを理解されたい。1つ以上の実施形態では、方法400は、将来の位置特定アプリケーション106の過去のデータ符号化モジュール130によって実行されてもよい。
方法400は、ブロック402で開始することができ、方法400は、積層されたオプティカルフローフィールドを決定することを含み得る。上述のように、車両102の周囲環境内の1つ以上の交通参加者のそれぞれに関連付けられた過去の境界ボックス軌道を符号化すると、過去のデータ符号化モジュール130は、(方法300のブロック304で決定されたように)画像データに基づいて過去の画像フレームを評価することができる。一実施形態では、過去のデータ符号化モジュール130は、過去の画像フレームの画素のそれぞれに対する画素レベル情報を評価して、過去の画像フレームの密なオプティカルフローを決定することができる。密なオプティカルフローは、1つ以上の交通参加者を含み得る対象物の移動によって引き起こされる2つの連続する画像フレーム間の1つ以上の交通参加者の明らかな運動変化のパターンを提供することができる。
一構成では、過去のデータ符号化モジュール130は、ベクトル場として密なオプティカルフローデータを提供することができ、各ベクトルは、1つの画像フレームから次の画像フレームへの点の移動を示す変位ベクトルを表す。換言すれば、交通参加者に関連付けられた各特徴については、ベクトル[u,v]は、(ブロック304において)画像フレームが決定された画像をキャプチャする1つ以上のそれぞれのカメラ118の移動及び画像フレーム内に含まれる1つ以上の交通参加者の移動から生じる、それぞれの交通参加者の相対運動を説明するために使用される。
密なオプティカルフローは、全ての画素の正確な推定を提供する。したがって、過去のデータ符号化モジュール130は、画像フレーム内にキャプチャされたバックグラウンド対象物からの交通参加者などの移動対象物を区別することができる。また、過去のデータ符号化モジュール130は、それにより、対象物上の異なる画素が異なるフローを有し得るため、対象物の外観の変化を説明することができる。したがって、密なオプティカルフローは、交通参加者の運動、並びに(階段状の)密なオプティカルフローフィールド204の形態の外観情報をキャプチャすることができる。決定された密なオプティカルフローフィールド204は、過去のデータ符号化モジュール130によって更に処理され得るオプティカルフローマップ(データ)を含んでもよく、モジュール130によって、過去のτフレームに対するO={O t0− τ +1 ,O t0− τ +2..., t0 }としてコンピュータであってもよい。
方法400は、ブロック404に進んでもよく、方法400は、オプティカルフローフィールド及び過去の境界ボックス軌道の対象領域のプール化を完了することを含み得る。一実施形態では、積層されたオプティカルフローフィールドを決定すると、将来の位置特定アプリケーション106の過去のデータ符号化モジュール130は、対象領域のプール化(ROIプール化)操作206を利用して、1つ以上の交通参加者のそれぞれの特徴を抽出することができる。
例示的な実施形態では、ROIプール化操作206は、密なオプティカルフローフィールド204からの双線形補間、及び車両102の周囲環境内に位置する1つ以上の交通参加者のそれぞれに関連付けられた過去の境界ボックス軌道202の使用を含んでもよい。したがって、ROI領域は、それぞれの交通参加者に関するコンテキスト情報を含む(例えば、各交通参加者の周りで計算される)各交通参加者に関連付けられた境界ボックスから拡張されてもよい。
モジュール130は、ROIプール化操作206を完了することによって、交通参加者の特徴を抽出するように構成することができる。換言すれば、プール化データは、1つ以上の交通参加者のそれぞれの過去の境界ボックス軌道を決定するときに計算された1つ以上の境界ボックス内に囲まれた1つ以上の交通参加者に関連付けられたオプティカルフローに関するデータに基づいて、1つ以上の交通参加者に関連付けられた特徴を抽出するために利用されてもよい。
この機能性は、車両102の周囲環境に対する各交通参加者の相対運動もまた、以下で論じるように運動エンコーダ126によって符号化されることを確実にすることができる。一実施形態では、結果として得られた相対運動ベクトルは、以下のように表される。
t= [u ,v ,u ,v ,u ,...u ,v
式中、nはプール化された領域のサイズである。1つ以上の実施形態では、プール化操作206を完了すると、過去のデータ符号化モジュール130は、密なオプティカルフローフィールド204及び車両102の周囲環境内に位置する1つ以上の交通参加者のそれぞれの過去の境界ボックス軌道202からの双線形補間に基づいてプール化データを出力することができる。過去のデータ符号化モジュール130は、以下に説明するように、別の完全に接続された層208bに、ニューラルネットワーク処理ユニット122を通じてプール化データを更に運動エンコーダ126に入力してもよい。
方法400は、ブロック406に進んでもよく、方法400は、過去の相対運動及びスケール変化を符号化することを含み得る。例示的な実施形態では、ROIプール化操作206を完了し、かつニューラルネットワーク108の完全に接続された層208bにプール化データを出力すると、過去のデータ符号化モジュール130は、ニューラルネットワーク108のニューラルネットワーク処理ユニット122と通信して、完全に接続された層208bからニューラルネットワーク108の運動エンコーダ126にデータストリームを入力することができる。運動エンコーダ126は、各入力ステムに対して利用されてもよく、後期融合を適用してもよい。したがって、位置エンコーダ124及び運動エンコーダ126の最終隠れ状態は、位置エンコーダ124及び運動エンコーダ126による符号化に基づく将来データ復号モジュール132に出力されてもよい。
具体的には、運動エンコーダ126の隠れ状態は、時間tにおけるGRUモデルの隠れ状態ベクトルとして出力されてもよく、
式中、GRUは、パラメータ
を有する運動エンコーダ126のゲート化された反復単位であり、ReLUのアクティブ化を伴う線形投影であり、
は、時間tにおけるGRUモデルの隠れ状態ベクトルである。一実施形態では、隠れ状態ベクトルを出力すると、運動エンコーダ126は、隠れ状態ベクトルを過去のデータ符号化モジュール130に通信してもよい。
方法400は、ブロック408に進んでもよく、方法400は、位置エンコーダ124及び運動エンコーダ126によって出力された最終隠れ状態を融合することを含み得る。例示的な実施形態では、(方法300の実行に基づいて)位置エンコーダ124によって出力される1つ以上の交通参加者のそれぞれの過去の境界ボックス軌道と関連付けられた最終隠れ状態及び(ブロック406に基づく)オプティカルフローの交通参加者の特徴に関連付けられた最終隠れ状態を受信すると、過去のデータ符号化モジュール130は、最終隠れ状態を融合(例えば、合併、集約)することができる。具体的には、過去のデータ符号化モジュール130は、位置エンコーダ124の最終隠れ状態及び運動エンコーダ126の最終隠れ状態を融合して、最終融合隠れ状態210を出力してもよい。最終融合隠れ状態210は、時間tにおけるGRUモデルの隠れ状態ベクトルとして出力されてもよく、ここで、
式中、パラメータ
が、ReLUのアクティブ化を伴う線形投影であり、
が、時間tにおける位置エンコーダ124及び運動エンコーダ126のそれぞれのGRUモデルの隠れ状態ベクトルである。例示的な実施形態では、位置エンコーダ124及び運動エンコーダ126によって出力された最終隠れ状態を融合すると、過去のデータ符号化モジュール130は、最終融合隠れ状態210を、時間tにおけるGRUモデルの隠れ状態ベクトルとして、将来の位置特定アプリケーション106の将来のデータ復号モジュール132に通信することができる。
後述するように、将来のデータ復号モジュール132は、ニューラルネットワーク108を利用して、車両102の周囲環境内に位置する1つ以上の交通参加者の将来のカメラフレーム内の将来の境界ボックス216(例えば、将来の1秒)を予測するように構成することができる。それにより、将来のデータ復号モジュール132は、現在の自己中心FPV画像フレームからの将来の境界ボックスの相対的将来の位置及びスケールを出力して、車両102の周囲環境内の1つ以上の交通参加者のそれぞれの将来の車両位置特定を達成することができる。
図5は、本開示の例示的な実施形態による各交通参加者に関連付けられた将来の境界ボックスを復号するための方法500のプロセスフロー図であり、図1及び図2の構成要素を参照して説明されるが、図5の方法500は、他のシステム/構成要素と共に使用されてもよいことを理解されたい。
方法500は、ブロック502で開始することができ、方法500は、最終融合隠れ状態を将来の位置特定デコーダ128に入力することを含み得る。上述のように、位置エンコーダ124及び運動エンコーダ126によって出力された最終隠れ状態を融合すると、過去のデータ符号化モジュール130は、最終融合隠れ状態210を、時間tにおけるGRUモデルの隠れ状態ベクトルとして、将来の位置特定アプリケーション106の将来のデータ復号モジュール132に通信することができる。
将来のデータ復号モジュール132は、ニューラルネットワーク処理ユニット122を通じて最終的に融合隠れ状態210の隠れ状態ベクトルを別の完全に接続された層206cに入力するように構成することができる。したがって、符号化された過去の境界ボックス軌道(過去の車両位置)の最終隠れ状態の最終融合隠れ状態210及び車両102の周囲環境内に位置するそれぞれの交通参加者に関連付けられた積層されたオプティカルフローフィールドの最終隠れ状態は、完全に接続された層208cに入力されてもよい。例示的な実施形態では、最終融合隠れ状態210は、将来のデータ復号モジュール132によって将来の位置特定デコーダ128に更に出力されて、GRUを利用して、1つ以上の交通参加者の予測される将来の位置に関連付けられた将来の境界ボックスを復号することができる。
方法500は、ブロック504に進んでもよく、方法500は、車両102の将来の自己運動214を推定することを含み得る。1つ以上の実施形態では、将来のデータ復号モジュール132は、車両102の将来の自己運動214を推定して、車両102の周囲環境内に位置する1つ以上の交通参加者の将来の位置を予測する際に助けとなり得る追加データを提供することができる。一実施形態では、ブロック504は、車両102が半自律型又は完全に自律型車両として構成されている場合、任意のプロセス工程として実行されてもよい。
上述のように、車両102の車両自律制御装置112は、車両102の意図された目的地、車両102の周囲環境内に位置する1つ以上の交通参加者、将来の位置特定アプリケーション106により決定される1つ以上の交通参加者の1つ以上の将来の予測された位置、及び/又は車両102が走行しているレーン、交通信号のステータス、交通パターン、交通規制などを含んでもよいが、これらに限定されない1つ以上の外部要因のうちの1つ以上に基づいて、自律運転計画を処理及び実行することができる。
例示的な実施形態では、将来のデータ復号モジュール132は、移動車両102に対する交通参加者の将来の位置を予測するために、車両102に関連付けられた将来の自己運動を推定するように構成することができる。換言すれば、この機能性は、車両102の将来のポーズ(場所、位置、及び軌道)が、車両102の周囲環境内に位置する1つ以上の交通参加者の将来の位置予測を支援するように推定され得るように、運動計画の認識を決定することができる。このような計画された自己運動情報は、車両102と1つ以上の交通参加者との間の相互作用によって引き起こされる運動を予測するのを支援することができる。例えば、車両102が交差点で左折すると推定される場合、この推定は、1つ以上の交通参加者が道を譲るために停止するか、又は車両102を追い越すために加速し得ることを更に推定するのを支援することができる。
したがって、将来のデータ復号モジュール132は、車両自律制御装置によって処理された自律運転計画を分析して、車両102の将来の速度、ヨーレート、及び進路(例えば、将来の1秒)を推定することができる。一実施形態では、将来データ復号モジュール132は、回転行列
及び並進ベクトル
によって推定される将来の自己運動を表し得、時間tからt+1へのカメラ座標フレームの変換を共に説明する。フレーム間の相対的なペアワイズ変換は、現在のフレームから予測水平にわたる変換を推定するように構成することができる。
将来の自己運動は、ベクトルによって表されてもよい。
式中、
は、
から抽出される推定ヨー角であり、
は、時間t における座標フレームからの並進である。将来のデータ復号モジュール132は、車両102に固定された右手座標系を利用してもよく、車両の進路は正のxである。
方法500は、ブロック506に進んでもよく、方法500は、将来の軌道復号のために将来の位置特定デコーダ128に推定された将来の自己運動を入力することを含んでもよい。例示的な実施形態では、車両102の将来の自己運動を推定すると、将来のデータ復号モジュール132は、それにより、ニューラルネットワーク処理ユニット122を通じてニューラルネットワーク108の完全に接続された層208dに車両102の将来の自己運動を入力することができる。将来のデータ復号モジュール132は、完全に接続された層208dからニューラルネットワーク108の将来の位置特定デコーダ128に推定された将来の自己運動を入力して、GRUを利用し、最終融合隠れ状態210及び車両102の推定された自己運動に基づいて、1つ以上の交通参加者の予測される将来の位置に関連付けられた将来の境界ボックスを復号することができる。
方法500は、ブロック508に進んでもよく、方法500は、車両102の周囲環境内に位置する1つ以上の交通参加者に関連付けられた将来の境界ボックスを復号することを含み得る。例示的な実施形態では、将来のデータ復号モジュール132は、将来の位置特定デコーダを利用して、車両102の周囲環境内に位置する1つ以上の交通参加者のそれぞれと関連付けられた将来の境界ボックスを復号することができる。一実施形態では、将来の位置特定デコーダ128は、(過去の境界ボックス軌道入力の)位置エンコーダ124の最終融合隠れ状態210から初期化されたデコーダ隠れ状態、及び(オプティカルフロー入力の)運動エンコーダ126を出力してもよい。将来の位置特定デコーダ128は、反復関数を計算することができる。
例示的な実施形態では、将来の位置特定デコーダ128は、最終融合隠れ状態210を復号するGRU及び将来の位置特定デコーダ128に入力された車両102の推定された自己運動に基づく過去の境界ボックス軌道から、将来の推定される境界ボックス軌道の推定デルタ(変化)を出力してもよい。デコーダ隠れ状態は、時間tにおけるGRUモデルの隠れ状態ベクトルとして出力されてもよく、ここで、
式中、
は、デコーダ隠れ状態であり、
は、将来の位置特定デコーダ128の初期隠れ状態であり、
は、ドメイン転送に適用されるReLUのアクティブ化を伴う線形投影である。将来の位置特定デコーダ128は、それに応じて、画像フレームからの1つ以上の交通参加者のそれぞれに関連付けられた将来の境界ボックスの相対位置及びスケールを生成する(方法300のブロック302で決定され、上記の式によって表される)。将来の位置特定デコーダ128によって出力されるモデルは、それにより、ゼロ初期を有するようにシフトされる。
一実施形態では、将来の位置特定デコーダ128は、それにより、過去の境界ボックス軌道の位置及びサイズからの将来の(予測される)境界ボックスの位置及びサイズにおけるデルタ(変化)を提供することができ、それぞれのデータを将来のデータ復号モジュール132に通信することができる。将来の位置特定デコーダ128は、車両102の周囲環境内に位置する1つ以上の交通参加者のそれぞれに関連付けられ得る複数の予測される将来の境界ボックスのための将来の境界ボックスの位置にデルタを提供し得ることを理解されたい。
方法500は、ブロック510を処理してもよく、方法500は、1つ以上の交通参加者の将来の位置、場所、スケール、深さ、及び軌道を予測することを含み得る。一実施形態では、将来のデータ復号モジュール132は、画像論理(例えば、予めプログラムされたコンピュータ論理)を利用することができ、また、ニューラルネットワーク108と通信し、機械学習/深層学習を提供し、人工知能能力を提供して車両102の周囲環境600内の1つ以上の交通参加者の将来の位置(例えば、物理的位置)、場所(例えば、車両102に対する地理的場所、車両102に対する走行方向)、スケール(例えば、交通参加者の物理的サイズ)、深さ(例えば、交通参加者と車両102との間の距離に変換され得る画像内の深さ)、及び軌道(例えば、走行方向、経路、進路)を予測することができる。
図6の例示的な例に示すように、位置エンコーダ124、運動エンコーダ126、及び将来の自己運動の決定により完了した符号化に基づいて、将来の位置特定デコーダ128は、車両102の周囲環境内に位置する交通参加者610、612のそれぞれについて、過去の境界ボックス602から将来の境界ボックス604、606、608を復号することができる。将来のデータ復号モジュール132は、それに応じて、車両102の周囲環境600内に位置する交通参加者610、612の将来の位置、場所、スケール、深さ、及び軌道(例示的な線614a及び614bによって表される)を予測することができる。
例示的な実施形態では、将来のデータ復号モジュール132は、それぞれのデータをニューラルネットワーク108に通信することができ、それにより、1つ以上の道路環境シナリオ(例えば、交差点シナリオ)について収集され得る位置特定データセット110を更新してもよい。1つ以上の実施形態では、アプリケーション106は、車両102の周囲環境内の1つ以上の交通参加者の予測される将来の位置、場所、スケール、深さ、及び軌道に事前に適応するように車両102を自律的に制御するために提供され得る自律運転コマンドを実行しながら、運動計画能力を提供するために、位置特定データセット110にアクセスして分析してもよい。更なる実施形態では、アプリケーション106は、車両102及び/又は車両102の周囲環境内の1つ以上の交通参加者の予測される将来の位置、場所、スケール、深さ、及び軌道に基づいて、事前に衝突回避目的のために運転者に警告/警報するために提供され得る車両102の運転者に警告を提供するために、位置特定データセット110にアクセスして分析してもよい。
図7は、本開示の例示的な実施形態による、車両102の周囲環境内に位置する1つ以上の交通参加者の予測される将来の位置、場所、スケール、深さ、及び軌道を考慮するように自律的に運転されるように車両102を制御するための方法700のプロセスフロー図であり、図1及び図2の構成要素を参照して説明されるが、図7の方法は他のシステム/構成要素と共に使用されてもよいことを理解されたい。方法700は、ブロック702で開始することができ、方法700は、画像データ及び複数の画像フレームを受信することを含み得る。一実施形態では、車両制御モジュール134は、車両の周囲環境102の画像データを受信するために、車両カメラシステム116と通信してもよい。車両制御モジュール134は、(ブロック304で決定された)複数の画像フレームを受信するために、過去のデータ符号化モジュール130と追加的に通信してもよい。
方法700は、ブロック704に進んでもよく、方法700は、1つ以上の交通参加者に関連付けられた予測される将来の位置特定データを分析することを含み得る。1つ以上の実施形態では、将来のデータ復号モジュール132はまた、車両102の周囲環境内に位置する1つ以上の交通参加者の将来の位置、場所、スケール、深さ、及び軌道に関するデータを、将来の位置特定アプリケーション106の車両制御モジュール134に通信してもよい。画像データ及び複数の画像フレームを受信すると、車両制御モジュール134は、車両102の周囲環境内に位置する1つ以上の交通参加者の予測される将来の位置、場所、スケール、深さ、及び軌道を分析してもよい。車両制御モジュール134は、画像データ及び複数の画像フレームに基づいて、1つ以上の将来の時点で車両102によって走行し得る1つ以上の経路を更に決定してもよい。1つ以上の経路はまた、(上述のように)車両自律制御装置112によって処理された自律運転計画に基づいて、車両102の将来の自己運動の更なる分析が決定されてもよい。
追加の実施形態では、車両制御モジュール134は、更に、ニューラルネットワーク108と通信して、1つ以上の交通参加者が(ブロック510で)予測されたのと同様の将来の位置、場所、スケール、深さ、及び軌道内に位置する1つ以上の同様の道路環境シナリオに関し得る位置特定データセット110からの位置特定データにアクセスすることができる。データセット110からのデータを利用して、車両102が運転されている環境及び車両102の周囲環境内に位置する1つ以上の交通参加者の予測される将来の位置、場所、スケール、深さ、及び軌道を考慮するために、車両102を自律的に制御するように送信され得る1つ以上のコマンドを更に精緻化することができる。
方法700は、ブロック706に進んでもよく、方法700は、車両102を自律的に制御するために車両自律制御装置112と通信することを含み得る。例示的な実施形態では、車両102の周囲環境内に位置する1つ以上の交通参加者の予測される将来の位置、場所、スケール、深さ、及び軌道1つ以上の将来の時点で車両102によって走行し得る1つ以上の経路、並びに/又は位置特定データセット110からのデータを分析すると、車両制御モジュール134は、車両自律制御装置112及び/又はECU104に1つ以上のコマンド(例えば、データ信号)に通信して、車両102の周囲環境内に位置する1つ以上の交通参加者の予測された自己中心映像に基づく将来の車両位置特定に基づいて車両102を自律的に制御してもよい。
1つ以上の実施形態では、車両自律制御装置112は、車両102の周囲環境内に位置する1つ以上の交通参加者の予測された自己中心映像に基づく将来の車両位置特定に基づいて、車両102を自律的又は半自律的に制御するように、車両システム120のうちの1つ以上を操作可能に制御してもよい。車両自律制御装置112及び/又はECU104は、車両102の制御ユニットのうちの1つ以上と通信してもよく、それにより、車両102を制御して、車両102の周囲環境内に位置する1つ以上の交通参加者の予測された自己中心映像に基づく将来の車両位置特定に基づいて車両102を制御するように運転されてもよい。
例示的な例として、再び図6を参照すると、車両制御モジュール136は、車両102によって実施され得る1つ以上の離散した将来の行動を決定し、車両102の周囲環境600内に位置する交通参加者610、612の予測される将来の位置、場所、スケール、深さ、及び軌道(例示的な線614a及び614bによって表される)を考慮することができる。より具体的には、車両102は、特定の方法(例えば、特定の速度、加速度、操舵角、スロットル角度、制動力の適用によって)で実行され得る1つ以上の別個の行動を実行するように制御されてもよく、車両102の推定された自己運動及び車両102の周囲環境600内に位置する交通参加者610、612の予測される将来の位置、場所、スケール、深さ、及び軌道(例示的な線614s及び614bによって表される)を考慮することができる。例えば、車両102は、車両102の推定された自己運動及び車両102の周囲環境600内に位置する交通参加者610、612の予測される将来の位置、場所、スケール、深さ、及び軌道(線614s及び614bによって表される)に基づいて、特定の制動力を使用して減速及び停止するように自律的に制御されてもよい。
更なる実施形態では、車両102の周囲環境内に位置する1つ以上の交通参加者の予測される将来の位置、場所、スケール、深さ、及び軌道、1つ以上の将来の時点で車両102によって走行し得る1つ以上の経路、並びに/又は位置特定データセット110からのデータを分析すると、車両制御モジュール134は、1つ以上のコマンド(例えば、データ信号)をECU104に通信して、それに応じて車両システム120の1つ以上を操作可能に制御し、特定の方法で実施し得る1つ以上の別個の行動を実行し、車両102の推定された自己運動及び車両102の周囲環境内に位置する1つ以上の交通参加者の予測された自己中心映像に基づく将来の車両位置特定を考慮することができる。
図8は、本開示の例示的な実施形態による、自己中心映像に基づく将来の車両位置特定のための方法800のプロセスフロー図であり、図1及び図2の構成要素を参照して説明されるが、図8の方法は、他のシステム/構成要素と共に使用されてもよいことを理解されたい。方法800は、ブロック802で開始することができ、方法800は、車両102の周囲環境の少なくとも1つの自己中心一人称視点画像を受信することを含み得る。
方法800は、ブロック804に進んでもよく、方法800は、少なくとも1つの自己中心FPV画像内にキャプチャされた少なくとも1つの交通参加者に関連付けられた少なくとも1つの過去の境界ボックス軌道を符号化することを含み得る。一実施形態では、少なくとも1つの過去の境界ボックス軌道符号化の最終隠れ状態が出力される。方法800は、ブロック806に進んでもよく、方法800は、少なくとも1つの交通参加者に関連付けられた自己中心一人称視点画像の密なオプティカルフローを符号化することを含み得る。
方法800は、ブロック808に進んでもよく、方法800は、少なくとも1つの過去の境界ボックス軌道符号化の最終隠れ状態及び密なオプティカルフロー符号化の最終隠れ状態に基づいて、少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することを含み得る。方法800は、ブロック810に進んでもよく、方法800は、少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスに基づいて自律的に運転されるように、車両102を制御することを含み得る。
上述の説明から、本発明の様々な例示的な実施形態がハードウェアに実装され得ることが明らかであるべきである。更に、様々な例示的な実施形態は、本明細書で詳細に説明される操作を実行するために少なくとも1つのプロセッサによって読み取り及び実行され得る、揮発性又は不揮発性メモリなどの非一時的機械可読記憶媒体上に記憶された命令として実装されてもよい。機械可読記憶媒体は、パーソナルコンピュータ又はラップトップコンピュータ、サーバ、又は他のコンピューティングデバイスなどの機械によって読み取り可能な形態で情報を記憶するための任意の機構を含んでもよい。したがって、非一時的機械可読記憶媒体は、一時信号を除外するが、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイス、及び同様の記憶媒体を含むがこれらに限定されない揮発性及び不揮発性メモリの両方を含んでもよい。
本明細書の任意のブロック図は、本発明の原理を具現化する例示的な回路の概念図を表すことを当業者は理解すべきである。同様に、任意のフローチャート、フロー図、状態遷移図、擬似コードなどは、そのようなコンピュータ又はプロセッサが明示的に示されているか否かにかかわらず、機械可読媒体に実質的に表され、コンピュータ又はプロセッサによって実行され得る様々なプロセスを表すことが理解されるであろう。
上記に開示された及び他の特徴並びに機能又はこれらの代替物若しくは変形の様々な実装が、望ましくは多くの他の異なるシステム又はアプリケーションに組み合わされ得ることが理解されるであろう。また、当業者であれば、現在予測されていない、又は予期されていない様々な代替、修正、変形、又は改良を連続的に行うことができ、これらも添付の特許請求の範囲によって包含されることが意図される。

Claims (20)

  1. 自己中心映像に基づく将来の車両位置特定のためのコンピュータ実装方法であって、
    車両の周囲環境の少なくとも1つの自己中心一人称視点画像を受信することと、
    前記少なくとも1つの自己中心一人称視点画像内にキャプチャされた少なくとも1つの交通参加者に関連付けられた少なくとも1つの過去の境界ボックス軌道を符号化することであって、前記少なくとも1つの過去の境界ボックス軌道の符号化の最終隠れ状態が出力される、符号化することと、
    前記少なくとも1つの交通参加者に関連付けられた前記自己中心一人称視点画像の密なオプティカルフローを符号化することであって、前記密なオプティカルフロー符号化の最終隠れ状態が出力される、符号化することと、
    前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態及び前記密なオプティカルフロー符号化の前記最終隠れ状態に基づいて、前記少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することと、
    前記少なくとも1つの交通参加者に関連付けられた前記少なくとも1つの将来の境界ボックスに基づいて、自律的に運転されるように前記車両を制御することと、を含む、コンピュータ実装方法。
  2. 前記少なくとも1つの自己中心一人称視点画像を受信することが、対象物に関連する少なくとも1つの時空間的特徴を抽出することと、少なくとも1つの交通参加者モデルに対する前記対象物の画素位置及びスケールの比較に基づいて、前記対象物を前記少なくとも1つの交通参加者として分類することと、を含む、請求項1に記載のコンピュータ実装方法。
  3. 前記少なくとも1つの過去の境界ボックス軌道を符号化することが、分類された前記少なくとも1つの交通参加者の周りの少なくとも1つの境界ボックスを計算することを含み、少なくとも1つの過去の軌道が、前記少なくとも1つの過去の境界ボックスに基づいて計算される、請求項2に記載のコンピュータ実装方法。
  4. 前記少なくとも1つの過去の境界ボックス軌道を符号化することが、前記少なくとも1つの交通参加者の前記少なくとも1つの自己中心一人称視点画像の画素内の幅及び高さと共に、前記少なくとも1つの交通参加者の境界ボックスの画素座標によって指定された画素位置及びスケールに基づいて、前記少なくとも1つの交通参加者の過去の位置、場所、及び軌道を一度に符号化することを含む、請求項3に記載のコンピュータ実装方法。
  5. 前記自己中心一人称視点画像の前記密なオプティカルフローを符号化することが、過去の画像フレームの画素のそれぞれに対する画素レベル情報を評価して、過去の画像フレームの前記密なオプティカルフローを決定することを含み、2つの連続する画像フレーム間の前記少なくとも1つの交通参加者の明らかな運動変化のパターンが、前記少なくとも1つの交通参加者の移動によって引き起こされる、請求項1に記載のコンピュータ実装方法。
  6. 前記自己中心一人称視点画像の前記密なオプティカルフローを符号化することが、オプティカルフローフィールド及び前記過去の境界ボックス軌道の対象領域のプール化を完了することを含み、前記少なくとも1つの交通参加者に関連付けられた特徴を抽出するために、対象領域が、境界ボックスから拡張され得る、請求項5に記載のコンピュータ実装方法。
  7. 前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態と、前記密なオプティカルフロー符号化の前記最終隠れ状態とを融合することを更に含み、最終融合隠れ状態が、特定の時間にゲート化された反復単位モデルの隠れ状態ベクトルとして出力される、請求項1に記載のコンピュータ実装方法。
  8. 前記車両の将来の自己運動を推定することを更に含み、前記車両の前記将来の自己運動が、前記車両の意図された目的地、前記車両が走行しているレーン、交通信号のステータス、交通パターン、及び交通規制のうちの少なくとも1つに基づく自律運転計画によって決定される、請求項7に記載のコンピュータ実装方法。
  9. 前記少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することが、前記少なくとも1つの交通参加者に関連付けられた前記少なくとも1つの将来の境界ボックスを復号するために、前記最終融合隠れ状態及び前記車両の前記将来の自己運動を将来の位置特定デコーダに入力することを含む、請求項8に記載のコンピュータ実装方法。
  10. 自己中心映像に基づく将来の車両位置特定のためのシステムであって、
    命令を記憶するメモリを含み、前記メモリは、プロセッサによって実行されると、
    車両の周囲環境の少なくとも1つの自己中心一人称視点画像を受信することと、
    前記少なくとも1つの自己中心一人称視点画像内にキャプチャされた少なくとも1つの交通参加者に関連付けられた少なくとも1つの過去の境界ボックス軌道を符号化することであって、前記少なくとも1つの過去の境界ボックス軌道の最終隠れ状態が出力される、符号化することと、
    前記少なくとも1つの交通参加者に関連付けられた前記自己中心一人称視点画像の密なオプティカルフローを符号化することであって、前記密なオプティカルフロー符号化の最終隠れ状態が出力される、符号化することと、
    前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態及び前記密なオプティカルフロー符号化の前記最終隠れ状態に基づいて、前記少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することと、
    前記少なくとも1つの交通参加者に関連付けられた前記少なくとも1つの将来の境界ボックスに基づいて、自律的に運転されるように前記車両を制御することと、を前記プロセッサに行わせる、システム。
  11. 前記少なくとも1つの自己中心一人称視点画像を受信することが、対象物に関連する少なくとも1つの時空間的特徴を抽出することと、少なくとも1つの交通参加者モデルに対する前記対象物の画素位置及びスケールの比較に基づいて、前記対象物を前記少なくとも1つの交通参加者として分類することと、を含む、請求項10に記載のシステム。
  12. 前記少なくとも1つの過去の境界ボックス軌道を符号化することが、分類された前記少なくとも1つの交通参加者の周りの少なくとも1つの境界ボックスを計算することを含み、少なくとも1つの過去の軌道が、前記少なくとも1つの過去の境界ボックスに基づいて計算される、請求項11に記載のシステム。
  13. 前記少なくとも1つの過去の境界ボックス軌道を符号化することが、前記少なくとも1つの交通参加者の前記少なくとも1つの自己中心一人称視点画像の画素内の幅及び高さと共に、前記少なくとも1つの交通参加者の境界ボックスの画素座標によって指定された画素位置及びスケールに基づいて、前記少なくとも1つの交通参加者の過去の位置、場所、及び軌道を一度に符号化することを含む、請求項12に記載のシステム。
  14. 前記自己中心一人称視点画像の前記密なオプティカルフローを符号化することが、過去の画像フレームの画素のそれぞれに対する画素レベル情報を評価して、過去の画像フレームの前記密なオプティカルフローを決定することを含み、2つの連続する画像フレーム間の前記少なくとも1つの交通参加者の明らかな運動変化のパターンが、前記少なくとも1つの交通参加者の移動によって引き起こされる、請求項10に記載のシステム。
  15. 前記自己中心一人称視点画像の前記密なオプティカルフローを符号化することが、オプティカルフローフィールド及び前記過去の境界ボックス軌道の対象領域のプール化を完了することを含み、前記少なくとも1つの交通参加者に関連付けられた特徴を抽出するために、対象領域が境界ボックスから拡張され得る、請求項14に記載のシステム。
  16. 前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態と、前記密なオプティカルフロー符号化の前記最終隠れ状態とを融合することを更に含み、最終融合隠れ状態が、特定の時間にゲート化された反復単位モデルの隠れ状態ベクトルとして出力される、請求項10に記載のシステム。
  17. 前記車両の将来の自己運動を推定することを更に含み、前記車両の前記将来の自己運動が、前記車両の意図された目的地、前記車両が走行しているレーン、交通信号のステータス、交通パターン、及び交通規制のうちの少なくとも1つに基づく自律運転計画によって決定される、請求項16に記載のシステム。
  18. 前記少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することが、前記少なくとも1つの交通参加者に関連付けられた前記少なくとも1つの将来の境界ボックスを復号するために、前記最終融合隠れ状態及び前記車両の前記将来の自己運動を将来の位置特定デコーダに入力することを含む、請求項17に記載のシステム。
  19. 命令を記憶する非一時的コンピュータ可読記憶媒体であって、前記命令は、プロセッサを含むコンピュータによって実行されると、
    車両の周囲環境の少なくとも1つの自己中心一人称視点画像を受信することと、
    前記少なくとも1つの自己中心一人称視点画像内にキャプチャされた少なくとも1つの交通参加者に関連付けられた少なくとも1つの過去の境界ボックス軌道を符号化することであって、前記少なくとも1つの過去の境界ボックス軌道の符号化の最終隠れ状態が出力される、符号化することと、
    前記少なくとも1つの交通参加者に関連付けられた前記自己中心一人称視点画像の密なオプティカルフローを符号化することであって、前記密なオプティカルフロー符号化の最終隠れ状態が出力される、符号化することと、
    前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態及び前記密なオプティカルフロー符号化の前記最終隠れ状態に基づいて、前記少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することと、
    前記少なくとも1つの交通参加者に関連付けられた前記少なくとも1つの将来の境界ボックスに基づいて、自律的に運転されるように前記車両を制御することと、を含む方法を実行する、非一時的コンピュータ可読記憶媒体。
  20. 前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態と、前記密なオプティカルフロー符号化の前記最終隠れ状態とを融合することを更に含み、最終融合隠れ状態が、特定の時間にゲート化された反復単位モデルの隠れ状態ベクトルとして出力される、請求項19に記載の非一時的コンピュータ可読記憶媒体。
JP2019156911A 2018-09-13 2019-08-29 自己中心映像に基づく将来の車両位置特定のためのシステム及び方法 Active JP6833936B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862730788P 2018-09-13 2018-09-13
US62/730788 2018-09-13
US16/386,964 US11155259B2 (en) 2018-09-13 2019-04-17 System and method for egocentric-vision based future vehicle localization
US16/386964 2019-04-17

Publications (2)

Publication Number Publication Date
JP2020042808A JP2020042808A (ja) 2020-03-19
JP6833936B2 true JP6833936B2 (ja) 2021-02-24

Family

ID=69772370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019156911A Active JP6833936B2 (ja) 2018-09-13 2019-08-29 自己中心映像に基づく将来の車両位置特定のためのシステム及び方法

Country Status (3)

Country Link
US (1) US11155259B2 (ja)
JP (1) JP6833936B2 (ja)
CN (1) CN110895674B (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11501441B2 (en) * 2019-05-14 2022-11-15 Aic Innovations Group, Inc. Biomarker determination using optical flows
KR20200132468A (ko) * 2019-05-17 2020-11-25 삼성전자주식회사 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법
US11420625B2 (en) * 2019-07-03 2022-08-23 Ford Global Technologies, Llc Vehicle intersection operation
US11292458B2 (en) 2019-07-31 2022-04-05 Toyota Research Institute, Inc. Autonomous vehicle user interface with predicted trajectories
US11292457B2 (en) * 2019-07-31 2022-04-05 Toyota Research Institute, Inc. Autonomous vehicle user interface with predicted trajectories
US11328593B2 (en) 2019-07-31 2022-05-10 Toyota Research Institute, Inc. Autonomous vehicle user interface with predicted trajectories
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
US11416774B2 (en) * 2019-10-23 2022-08-16 Samsung Electronica Da Amazonia Ltda. Method for video recognition capable of encoding spatial and temporal relationships of concepts using contextual features
US11967106B2 (en) * 2019-12-27 2024-04-23 Motional Ad Llc Object tracking supporting autonomous vehicle navigation
US20210295171A1 (en) * 2020-03-19 2021-09-23 Nvidia Corporation Future trajectory predictions in multi-actor environments for autonomous machine applications
JP6899986B1 (ja) * 2020-04-28 2021-07-07 楽天グループ株式会社 オブジェクト領域特定装置、オブジェクト領域特定方法、及びオブジェクト領域特定プログラム
CN112001838B (zh) * 2020-07-23 2022-09-20 浙江大学 基于自交叉编码器的跨域图像转换方法、装置、计算机设备和存储介质
CN114708723B (zh) * 2020-12-16 2023-07-21 华为技术有限公司 轨迹预测方法和装置
US11720108B2 (en) * 2020-12-22 2023-08-08 Baidu Usa Llc Natural language based indoor autonomous navigation
US20220371622A1 (en) * 2021-05-21 2022-11-24 Honda Motor Co., Ltd. System and method for completing joint risk localization and reasoning in driving scenarios
CN113538520B (zh) * 2021-08-02 2022-03-18 北京易航远智科技有限公司 行人轨迹预测方法、装置、电子设备及存储介质
US11887317B2 (en) * 2021-08-30 2024-01-30 Ford Global Technologies, Llc Object trajectory forecasting
CN114368387A (zh) * 2021-12-21 2022-04-19 吉林大学 一种基于注意力机制的驾驶员意图识别及车辆轨迹预测方法
CN115984970B (zh) * 2023-03-13 2023-08-18 浙江宇视科技有限公司 行人身高确定方法、装置、电子设备和存储介质
CN116933041B (zh) * 2023-09-14 2024-05-03 深圳市力准传感技术有限公司 力传感器编号校对系统及方法
CN117560638B (zh) * 2024-01-10 2024-03-22 山东派蒙机电技术有限公司 应用于移动端通信系统的融合通信方法、装置及设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2523740B (en) * 2014-02-26 2020-10-14 Sony Interactive Entertainment Inc Image encoding and display
CN106937531B (zh) * 2014-06-14 2020-11-06 奇跃公司 用于产生虚拟和增强现实的方法和系统
CA2976344A1 (en) * 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
US10121082B2 (en) * 2015-10-07 2018-11-06 Honda Motor Co., Ltd. System and method for providing laser camera fusion for identifying and tracking a traffic participant
CN110352153A (zh) * 2018-02-02 2019-10-18 辉达公司 自主车辆中用于障碍物躲避的安全程序分析
US10800408B2 (en) * 2018-05-24 2020-10-13 Baidu Usa Llc Determining driving paths for autonomous driving that avoid moving obstacles
US10936922B2 (en) * 2018-06-20 2021-03-02 Zoox, Inc. Machine learning techniques
WO2020055759A1 (en) * 2018-09-11 2020-03-19 Nvidia Corporation Future object trajectory predictions for autonomous machine applications
US11494937B2 (en) * 2018-11-16 2022-11-08 Uatc, Llc Multi-task multi-sensor fusion for three-dimensional object detection
US10963709B2 (en) * 2019-01-02 2021-03-30 Zoox, Inc. Hierarchical machine-learning network architecture
US11482011B2 (en) * 2019-03-28 2022-10-25 Intel Corporation Acceleration of data processing for object detection
US11554785B2 (en) * 2019-05-07 2023-01-17 Foresight Ai Inc. Driving scenario machine learning network and driving environment simulation
US11345342B2 (en) * 2019-09-27 2022-05-31 Intel Corporation Potential collision warning system based on road user intent prediction

Also Published As

Publication number Publication date
US11155259B2 (en) 2021-10-26
JP2020042808A (ja) 2020-03-19
US20200086858A1 (en) 2020-03-19
CN110895674A (zh) 2020-03-20
CN110895674B (zh) 2024-01-05

Similar Documents

Publication Publication Date Title
JP6833936B2 (ja) 自己中心映像に基づく将来の車両位置特定のためのシステム及び方法
US11312372B2 (en) Vehicle path prediction
US11042156B2 (en) System and method for learning and executing naturalistic driving behavior
US9672446B1 (en) Object detection for an autonomous vehicle
CN111050116B (zh) 利用时间递归网络进行在线动作检测的系统和方法
US11587329B2 (en) Method and apparatus for predicting intent of vulnerable road users
JP7072030B2 (ja) アクション事前分布を使用して将来予測するためのシステム及び方法
US10800430B2 (en) Driving intervention in vehicles
US11608067B2 (en) Probabilistic-based lane-change decision making and motion planning system and method thereof
US11188766B2 (en) System and method for providing context aware road-user importance estimation
CN111986128A (zh) 偏心图像融合
US20210082283A1 (en) Systems and methods for providing future object localization
JP2021136021A (ja) 運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別
CN114463714A (zh) 用于完成风险对象识别的系统和方法
CN116674593A (zh) 用于自主车辆的具有异常检测的安全增强规划系统
US11745744B2 (en) System and method for determining object-wise situational awareness
US20220308581A1 (en) System and method for completing continual multi-agent trajectory forecasting
US11216001B2 (en) System and method for outputting vehicle dynamic controls using deep neural networks
US20240157977A1 (en) Systems and methods for modeling and predicting scene occupancy in the environment of a robot
US11546503B1 (en) Dynamic image compression for multiple cameras of autonomous vehicles
US11954921B2 (en) System and method for improving driver situation awareness prediction using human visual sensory and memory mechanism
EP4137845A1 (en) Methods and systems for predicting properties of a plurality of objects in a vicinity of a vehicle
CN115200583A (zh) 用于提供针对轨迹预测的长期和关键意图的系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191015

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R150 Certificate of patent or registration of utility model

Ref document number: 6833936

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150