JP7438222B2 - 交通参加者の運転マヌーバ予測のための方法 - Google Patents

交通参加者の運転マヌーバ予測のための方法 Download PDF

Info

Publication number
JP7438222B2
JP7438222B2 JP2021537907A JP2021537907A JP7438222B2 JP 7438222 B2 JP7438222 B2 JP 7438222B2 JP 2021537907 A JP2021537907 A JP 2021537907A JP 2021537907 A JP2021537907 A JP 2021537907A JP 7438222 B2 JP7438222 B2 JP 7438222B2
Authority
JP
Japan
Prior art keywords
vehicle
traffic
information
target
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021537907A
Other languages
English (en)
Other versions
JP2022516857A (ja
Inventor
チャン シャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Systems Inc
Original Assignee
Continental Automotive Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive Systems Inc filed Critical Continental Automotive Systems Inc
Publication of JP2022516857A publication Critical patent/JP2022516857A/ja
Application granted granted Critical
Publication of JP7438222B2 publication Critical patent/JP7438222B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00272Planning or execution of driving tasks using trajectory prediction for other traffic participants relying on extrapolation of current movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4045Intention, e.g. lane change or imminent movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Description

本開示は、自律的な車両操作を支援するために、周囲の車両および交通参加者の運転マヌーバを予測するためのシステムおよび方法に関する。
背景技術
自律的に操作できる車両には、データを提供し、周囲の車両および他の交通参加者による運転マヌーバへの反応を可能にするセンサが含まれている。周囲の車両の現在のアクションに反応することにより、運転マヌーバ操作が制限される可能性があり、他の車両の意図に関する不確実性のための幾らかの不正確さが含まれる場合がある。さらに、他の車両の運転マヌーバが発生した後にこれに反応することにより、オプションが制限され、非効率となる可能性もある。
本明細書で提供される背景説明は、本開示の文脈を一般的に提示することを目的としている。この背景セクションに記載されている範囲で、本明細書に氏名を挙げている発明者の著作物、ならびにそれ以外で出願時に先行技術とされていない記載の態様はいずれも、明示的にも黙示的にも本開示に対する先行技術として認められない。
概要
本開示の例示的な実施形態による、自律制御可能な車両の交通をナビゲートする方法は、とりわけ、第1の車両に配置された少なくとも1つのセンサを用いて交通環境内の少なくとも1つのターゲット車両を検出することと、交通環境の第1の車両および少なくともターゲット車両に配置された複数のセンサを用いて情報を取得することと、交通環境および少なくとも1つのターゲット車両に関連して取得された情報に基づいて、未来時間(future time)に対して、第1の車両に配置されたコントローラを用いて少なくとも1つのターゲット車両の運転マヌーバ(maneuver)を予測することと、少なくとも1つのターゲット車両の予測された運転マヌーバに基づいて、コントローラを用いて、少なくとも1つのターゲット車両の未来位置(future position)との衝突を回避する、第1の車両用の推奨経路を生成することと、を含む。
自律制御可能な車両の交通をナビゲートする前述の方法のさらなる実施形態では、交通環境に関する情報を取得するステップは、第1の車両に配置されたカメラによってキャプチャされた画像から局所領域特徴マップを生成することを含む。
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、少なくとも1つのターゲット車両の運転マヌーバを予測することは、交通環境および局所領域特徴マップについて取得された情報を利用して少なくとも1つのターゲット車両の可能な位置および運転マヌーバを予測するリカレントニューラルネットワークを利用することを含む。
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、リカレントニューラルネットワークは、複数の未来時間に対して、少なくとも1つのターゲット車両の可能な位置および運転マヌーバを予測する。
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、交通環境に関連する情報は、第1の車両と少なくとも1つのターゲット車両との間の空間的関係に関連する情報を含む。
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、交通環境に関連する情報は、少なくとも1つのターゲット車両と他の交通参加者(traffic participants)との間の空間的関係に関連する情報を含む。
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、交通環境に関連する情報は、少なくとも1つのターゲット車両と道路の境界との間の空間的関係に関連する情報を含む。
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、交通環境に関連する情報は、少なくとも1つのターゲット車両から直接に取得された情報を含む。
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、第1の車両は、運転者の操作を支援するために第1の車両機能の操作を生成する部分的自律車両(partially autonomously vehicle)を含む。
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、第1の車両は、独立して操作を行う完全自律車両(fully autonomous vehicle)を含む。
別の開示された例示的な実施形態による、交通環境内で自律制御可能な車両をナビゲートするための車両ナビゲーションシステムは、とりわけ、近接する交通参加者に関する情報を取得するための検出モジュールと、検出モジュールからの情報に基づいて継続的に更新される局所領域特徴マップと、複数の未来時間ステップにおいて少なくとも1つの交通参加者の複数の予測された可能な未来位置(possible future positions)を生成するためのリカレントニューラルネットワークと、少なくとも1つの交通参加者の複数の予測された未来位置に基づいて車両の経路を変更するコマンドを生成するための車両コントローラと、を備える。
前述の車両ナビゲーションシステムのさらなる実施形態では、車両検出モジュールは、少なくとも1つの交通参加者、車両を取り囲む他の静止および非静止オブジェクトの画像をキャプチャするカメラを備える。
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、少なくとも1つのセンサは、交通環境内での車両の操作を示す情報を提供する。
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、車両コントローラは、少なくとも1つの交通参加者と他の交通参加者との間の関係を検出するように構成されている。
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、少なくとも1つの交通参加者は、第1の車両を含み、車両コントローラは、車道の境界内の第1の車両の位置を検出するように構成されている。
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、車両コントローラは、第1の車両から直接に、未来の運転マヌーバを示すアクションを検出する。
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、車両コントローラは、部分的自律車両の一部を生成し、かつ運転者の操作を支援するための車両機能の操作を生成する。
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、車両コントローラは、独立して操作を行う完全自律型車両を含む第1の車両用のコマンドを生成する。
本明細書に開示されるこれらおよび他の特徴は、以下の明細書および図面から最もよく理解することができ、以下はその簡単な説明である。
交通環境内の例示的なナビゲーションシステムを含む例示的な車両の概略図である。 自律運転用の例示的な車両ナビゲーションシステムの概略図である。 例示的なナビゲーションシステムの実施形態を利用する車両用の例示的なナビゲーションステップを示すフロー図である。
詳細な説明
図1を参照すると、第1の車両10は、車両12,14などの周囲の交通参加者の操作を評価し、かつ他の車両12,14によって実行される潜在的な運転マヌーバを予測するシステム15を含む。第1の車両10は、少なくとも1つの周囲の車両および/または交通参加者を示す情報を取得するためのカメラ16およびレーダデバイス24を含む。周囲の交通参加者に関する情報を提供する他の感知装置を利用することができ、それらが本開示の文脈内にあることを理解されたい。
第1の車両10は、予測を使用して予測アクションを実行し、意図しない遅延を回避し、乗員の快適さを改善し、かつ改善された交通管理を提供するための経路を定義する。さらに、結果として得られる経路は、他の交通参加者との経路の潜在的で望ましくない交差を予測することによって、事故を回避しうる。開示されたシステム15は、車両10、他の車両12,14、および静的構造内の多くの異なるセンサシステムからの情報を組み合わせることによって、車道20、および車道に近接する路肩25に沿った交通状況を示すデータを抽出する。交通環境内のセンサからの組み合わされた情報は、使用されてターゲット車両12、14に対応する画像領域の特徴マップを構築し、かつリカレントニューラルネットワーク(RNN)で組み合わされて、12’,14’で示されるように、未来時間ステップ[t0,t1,t2,…,tn]においてターゲット車両12,14の可能な運転マヌーバおよび経路を予測する。
図1を引き続き参照しながら図2を参照すると、例示的に開示されたシステム15が、第1の車両10に設けられている。システム15は、車両コントローラ25の制御を指示するソフトウェアとして実装されうる。システム15はまた、車両にすでに設けられているセンサおよび他の検出デバイスからの情報を使用する別個のシステムとして提供されうる。車両10は、完全自律車両、部分的自律車両であってよく、または運転者の操作を支援する特徴を含んでもよい。
車両10は、22で概略的に示されている既存の交通状況に関して取得された情報を収集および使用して、所望の経路を生成する。交通状況22は、ターゲット車両12,14と、静止および/または非静止の他の交通参加者、ならびに車道20との間の関係である。交通状況22は、1つの例示的な実施形態では、センサ融合モジュールからの出力を処理することによって取得される。センサ融合モジュールは、レーダー24、カメラ16、ならびに予測モデルおよびネットワークによって車両10の経路を定義および/または変更するために使用されるマップ/位置特定モジュールなど、様々な異なる入力ソースからオブジェクト情報、車線情報、ならびに道路端部情報を収集して融合する。
例示的に開示されたシステム15は、交通状況22、およびターゲット車両12,14のキャプチャされた画像18に関連して収集されたデータから局所領域特徴マップ28を生成する。例示的な画像18は、検出システムから取得される。この実施例では、検出システムは、第1の車両10に設けられたカメラ16を備える。局所領域特徴マップ28は、2つの主要ステップを使用して生成される。例示的な第1のステップには、生のカメラ画像18から局所領域特徴マップを取得することを含む。34に概略的に示されているように、キャプチャされた画像内の車両12,14の検出および位置特定を可能にするために、コンピュータビジョン技術が生のカメラ画像18に適用される。対象のターゲット車両12の画像領域は、この場合、転置された変換層を含むことなく、全ての畳み込み層から構成される完全畳み込みネットワーク(FCN)26として構築される。FCN26は、他のターゲット車両12、14に直接に関連する情報を含む特徴マップ28を抽出するために使用される。
リカレントニューラルネットワーク30(RNN)によって利用される完全畳み込みネットワーク26を生成するために、情報が取得されて使用される。RNN30は、ターゲット車両12,14のそれぞれについての運転マヌーバの予測32を提供し、これらの予測を車両コントローラ25に通信する。車両コントローラ25は、予測32を使用して、車両の操作を変更して潜在的なターゲット車両の動きに適応して考慮する。
交通状況情報22および局所領域特徴マップ28は、訓練されたRNN30に供給されて、ターゲット車両12,14の未来の運転マヌーバを推測する。RNN30によって確認および利用される情報の例には、ターゲット車両12,14が左右の車線マーカ36および/または路肩25からどれだけ離れているか/近づいているか、ならびにどの方向指示器が作動されているかなど、ターゲット車両12,14から直接に取得される情報が含まれる。
以前のシステムは、車線に対するターゲット車両の横方向の運動学的情報に依存して、可能な未来の運転マヌーバを推測するのを支援する。しかしながら、たとえセンサ融合を使用しても、横方向の運動学的情報および車線推定は、不明確な情報を提供し、そのような「直接的な指標」に基づくアルゴリズムは偽陽性エラーの影響を受けやすい。対照的に、開示されたシステムおよび方法は、機械学習技術を活用して、生のカメラ画像18から情報(例えば、車両が車線マーカ36からどれだけ離れているか/近づいているか)を直接に抽出する。生のカメラ映像18は、オブジェクトおよび車線の情報を別々に処理してその後で組み合わせる代わりに、直接に利用される。したがって、例示的なシステム15は、不確実性を大幅に低減する。また、本開示で提案する方法を用いて、方向指示器などの運転者の意図に関連するより抽象的な情報さえも抽出できて特徴マップ28に含んで、システム15からの予測のロバスト性をさらに強化することができる。
図1および図2を引き続き参照しながら図3を参照すると、開示された方法の例示的な実施形態が、40として概略的に示されている。例示的な方法40は、第1の車両10に配置された少なくとも1つのセンサ16,24を用いて、交通環境22内の少なくとも1つのターゲット車両12,14を検出することによって開始する。他の交通参加者の検出は、第1の車両10の前後および横にある他の車両の検出を含む。検出は、既知でありかつ第1の車両10内に設置されている、センサおよびカメラを用いて提供される。特定の情報が、44に示されているように、センサ16,24を用いて取得される。特定の情報には、車道20、車線マーカ36、および路肩25内の他の交通参加者に対する現在の位置を含みうる。さらに、他の車両12から直接に、情報が収集される。他の車両12,14からの直接的な情報には、方向指示器の作動およびブレーキの作動を含みうる。他の車両12,14の画像は、他の車両から直接に、操作が取得されて利用されるように処理される。収集された情報は、46に示されているように、他の車両12,14および交通参加者の運転マヌーバを予測するために使用される。この例示的な実施形態では、システム15は、第1の車両10を制御するために使用される実用的な情報を生成するためのモジュールおよび命令として、車両コントローラ25に実装される。この例示的な実施形態では、RNN30は、少なくとも1つの未来時間に対して、他の車両の少なくとも1つおよび/または複数の運転マヌーバを予測するために利用される。実際には、RNN30は、感知された状態の変化に基づいて常に更新され、単一の予測経路が最も可能性が高くなるまで狭められた、未来時間に対する複数の経路を予測する。代替的な経路もさらに判定される。いったん他の車両12,14の経路が理解されて予測されると、例示的なシステム15は、48に示されているように、第1の車両10用の推奨経路を生成する。予測経路は、他の車両12,14の未来位置との衝突を回避するように判定され、かつ以前のステップで収集されて継続的に更新される情報に基づいている。
例示的なシステム15および方法は、予測結果のより高い解像度を提供する。以前のシステムは、限られた時間範囲内でのTPOの可能性のある未来の運転マヌーバ、例えば、次の2秒以内の左への車線変更しか予測できない。例示的なシステムによれば、リカレントニューラルネットワークの出力のサイズが可変であるために、未来時間ステップ[t0,t1,t2,…,tn]における交通参加者の運転マヌーバの確率を予測することができる。
例示的な実施形態を開示してきたが、当業者であれば、特定の修正が本開示の範囲内に入るであろうことを認識するであろう。そのため、本開示の範囲および内容を判定するために、以下の特許請求の範囲を検討すべきである。

Claims (13)

  1. 自律制御可能な車両の交通をナビゲートする方法であって、前記方法が、
    第1の車両に配置されたシステムが、前記第1の車両に配置された少なくとも1つの画像センサを用いて交通環境内の少なくとも1つのターゲット車両を検出するステップと、
    前記システムが、前記第1の車両に配置された複数のセンサを用いて、前記交通環境の情報および少なくとも1つの前記ターゲット車両の情報を取得するステップであって、前記交通環境の情報は、前記少なくとも1つのターゲット車両と、静止および/または非静止の他の交通参加者、ならびに車道との間の関係の交通状況を含み、前記少なくとも1つの前記ターゲット車両の情報は、前記第1の車両に配置された前記少なくとも1つの画像センサによりキャプチャされた画像からの、前記少なくとも1つの前記ターゲット車両に対応する画像領域の局所領域特徴マップを含む、ステップと、
    前記システムが、前記交通状況および前記局所領域特徴マップに基づいて、未来時間に対して、前記第1の車両に配置されたコントローラを用いて少なくとも1つの前記ターゲット車両の運転マヌーバを予測するステップと、
    前記システムが、少なくとも1つの前記ターゲット車両の予測された運転マヌーバに基づいて、前記コントローラを用いて、少なくとも1つの前記ターゲット車両の未来位置との衝突を回避する、前記第1の車両用の推奨経路を生成するステップと、
    を含み、
    前記少なくとも1つの前記ターゲット車両の運転マヌーバを予測する前記ステップが、前記交通状況および前記局所領域特徴マップを受けとって少なくとも1つの前記ターゲット車両の可能な位置および運転マヌーバを予測するリカレントニューラルネットワークを利用することを含む、
    方法。
  2. 前記リカレントニューラルネットワークが、複数の未来時間に対して、少なくとも1つの前記ターゲット車両の可能な位置および運転マヌーバを予測する、請求項1記載の方法。
  3. 前記交通環境に関連する情報が、前記第1の車両と少なくとも1つの前記ターゲット車両との間の空間的関係に関連する情報を含む、請求項1または2記載の方法。
  4. 前記交通環境に関連する情報が、少なくとも1つの前記ターゲット車両と他の交通参加者との間の空間的関係に関連する情報を含む、請求項1から3までのいずれか1項記載の方法。
  5. 前記交通環境に関連する情報が、少なくとも1つの前記ターゲット車両と車道の境界との間の空間的関係に関連する情報を含む、請求項1から4までのいずれか1項記載の方法。
  6. 前記交通環境に関連する情報が、少なくとも1つの前記ターゲット車両から直に取得された情報を含む、請求項1から5までのいずれか1項記載の方法。
  7. 前記第1の車両が、運転者の操作を支援するために第1の車両機能の操作を生成する部分的自律車両を含むか、または前記第1の車両が、独立して操作を行う完全自律車両を含む、請求項1から6までのいずれか1項記載の方法。
  8. 交通環境内で自律制御可能な車両をナビゲートするための車両システムナビゲーションシステムであって、
    近接する少なくとも1つの交通参加者に関する情報を取得するための検出モジュールであって、前記検出モジュールが、前記少なくとも1つの交通参加者の画像をキャプチャするカメラと、前記自律制御可能な車両内に配置され、前記少なくとも1つの交通参加者の情報を取得するセンサとを備える検出モジュールと、
    車両コントローラと、
    を備え、
    前記車両コントローラは、前記検出モジュールを用いて、前記交通環境の情報および前記少なくとも1つの交通参加者の情報を取得し、前記交通環境の情報は、前記検出モジュールにより検出された、前記少なくとも1つの交通参加者および他の静止および非静止オブジェクト、ならびに車道との間の関係の交通状況を含み、前記少なくとも1つの交通参加者の情報は、前記カメラによりキャプチャされた画像からの、前記少なくとも1つの交通参加者に対応する画像領域の局所領域特徴マップを含み、
    前記車両コントローラは、前記交通状況および前記局所領域特徴マップを受けとり、未来の運転マヌーバを示す複数の予測される可能なアクションと、前記未来の運転マヌーバに基づく複数の未来時間ステップにおける前記少なくとも1つの交通参加者の複数の予測される位置とを生成するリカレントニューラルネットワークを実行し、
    前記車両コントローラは、前記少なくとも1つの交通参加者の前記複数の予測される未来位置に基づいて前記車両の経路を変更するコマンドを生成する、
    車両システムナビゲーションシステム。
  9. 前記車両システムが、前記交通環境内での車両の操作を示す情報を提供する少なくとも1つのセンサを含む、請求項8記載のシステム。
  10. 前記車両コントローラが、前記少なくとも1つの交通参加者と他の交通参加者との間の関係を検出するように構成されている、請求項8または9記載のシステム。
  11. 前記少なくとも1つの交通参加者が、第1の車両を含み、前記車両コントローラが、車道の境界内の前記第1の車両の位置を検出するように構成されている、請求項10記載のシステム。
  12. 前記車両コントローラが、前記第1の車両から直に、未来の運転マヌーバを示すアクションを検出する、請求項11記載のシステム。
  13. 前記車両コントローラが、部分的自律車両の一部であり、かつ運転者の操作を支援するために車両機能の操作を生成するか、または前記車両コントローラが、独立して操作を行う完全自律車両を含む第1の車両用のコマンドを生成する、請求項8から12までのいずれか1項記載のシステム。
JP2021537907A 2018-12-27 2019-12-13 交通参加者の運転マヌーバ予測のための方法 Active JP7438222B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862785339P 2018-12-27 2018-12-27
US62/785,339 2018-12-27
US16/688,603 US11409285B2 (en) 2018-12-27 2019-11-19 Method for maneuver prediction of traffic participant
US16/688,603 2019-11-19
PCT/US2019/066289 WO2020139587A1 (en) 2018-12-27 2019-12-13 Method for maneuver prediction of traffic participant

Publications (2)

Publication Number Publication Date
JP2022516857A JP2022516857A (ja) 2022-03-03
JP7438222B2 true JP7438222B2 (ja) 2024-02-26

Family

ID=71122300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537907A Active JP7438222B2 (ja) 2018-12-27 2019-12-13 交通参加者の運転マヌーバ予測のための方法

Country Status (5)

Country Link
US (1) US11409285B2 (ja)
EP (1) EP3903296A1 (ja)
JP (1) JP7438222B2 (ja)
CN (1) CN113557559A (ja)
WO (1) WO2020139587A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112019024097A2 (pt) * 2017-05-16 2020-06-02 Nissan Motor Co., Ltd. Método de predição de ação e dispositivo de predição de ação de dispositivo de ajuda para deslocamento
US20200249674A1 (en) * 2019-02-05 2020-08-06 Nvidia Corporation Combined prediction and path planning for autonomous objects using neural networks
US11325594B2 (en) * 2020-02-10 2022-05-10 GM Global Technology Operations LLC Sensor fusion based on intersection scene to determine vehicle collision potential
US20210295171A1 (en) * 2020-03-19 2021-09-23 Nvidia Corporation Future trajectory predictions in multi-actor environments for autonomous machine applications
US11584371B2 (en) * 2020-07-15 2023-02-21 Toyota Research Institute, Inc. Systems and methods for using R-functions and semi-analytic geometry for lane keeping in trajectory planning
CA3126236A1 (en) * 2020-07-29 2022-01-29 Uatc, Llc Systems and methods for sensor data packet processing and spatial memoryupdating for robotic platforms
JP7396308B2 (ja) * 2021-01-28 2023-12-12 トヨタ自動車株式会社 走行軌跡推定システム、走行軌跡推定プログラム、及び走行軌跡推定方法
CN114084155B (zh) * 2021-11-15 2023-10-20 清华大学 预测型智能汽车决策控制方法、装置、车辆及存储介质
US11801871B1 (en) * 2022-12-28 2023-10-31 Aurora Operations, Inc. Goal-based motion forecasting

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086269A (ja) 2008-09-30 2010-04-15 Mazda Motor Corp 車両同定装置及びそれを用いた運転支援装置
JP2016051465A (ja) 2014-09-01 2016-04-11 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 衝突後操縦計画を行う方法及びシステム、並びに当該システムを備える車両
JP2018055141A (ja) 2016-09-26 2018-04-05 日立オートモティブシステムズ株式会社 移動体軌道予測システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680596B2 (en) * 2004-04-06 2010-03-16 Honda Motor Co., Ltd. Route calculation method for a vehicle navigation system
US8655579B2 (en) 2010-03-16 2014-02-18 Toyota Jidosha Kabushiki Kaisha Driving assistance device
EP2562060B1 (en) 2011-08-22 2014-10-01 Honda Research Institute Europe GmbH A method and system for predicting movement behavior of a target traffic object
US9286793B2 (en) * 2012-10-23 2016-03-15 University Of Southern California Traffic prediction using real-world transportation data
WO2016156236A1 (en) 2015-03-31 2016-10-06 Sony Corporation Method and electronic device
US20180260635A1 (en) 2015-09-08 2018-09-13 Apple Inc. Intention recognition
US10082797B2 (en) * 2015-09-16 2018-09-25 Ford Global Technologies, Llc Vehicle radar perception and localization
US9792821B1 (en) * 2016-03-25 2017-10-17 Toyota Jidosha Kabushiki Kaisha Understanding road scene situation and semantic representation of road scene situation for reliable sharing
US10303166B2 (en) * 2016-05-23 2019-05-28 nuTonomy Inc. Supervisory control of vehicles
CN110291477B (zh) 2016-12-02 2022-08-16 嘉蒂克人工智能公司 车辆控制系统及使用方法
US11620528B2 (en) * 2018-06-12 2023-04-04 Ciena Corporation Pattern detection in time-series data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086269A (ja) 2008-09-30 2010-04-15 Mazda Motor Corp 車両同定装置及びそれを用いた運転支援装置
JP2016051465A (ja) 2014-09-01 2016-04-11 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 衝突後操縦計画を行う方法及びシステム、並びに当該システムを備える車両
JP2018055141A (ja) 2016-09-26 2018-04-05 日立オートモティブシステムズ株式会社 移動体軌道予測システム

Also Published As

Publication number Publication date
EP3903296A1 (en) 2021-11-03
WO2020139587A1 (en) 2020-07-02
US20200209860A1 (en) 2020-07-02
US11409285B2 (en) 2022-08-09
JP2022516857A (ja) 2022-03-03
CN113557559A (zh) 2021-10-26

Similar Documents

Publication Publication Date Title
JP7438222B2 (ja) 交通参加者の運転マヌーバ予測のための方法
US11703876B2 (en) Autonomous driving system
CN108885836B (zh) 驾驶辅助装置、系统、方法、控制装置、车辆及介质
JP4420011B2 (ja) 物体検知装置
US8615109B2 (en) Moving object trajectory estimating device
JP6468261B2 (ja) 自動運転システム
CN109841088B (zh) 车辆驾驶辅助系统及方法
JP2018106676A (ja) 情報処理装置、被操作車両、情報処理方法及びプログラム
CN108447302A (zh) 信息处理装置以及程序
CN104925055A (zh) 用于检测车辆周围区域中的移动物体的方法和装置
EP3882100B1 (en) Method for operating an autonomous driving vehicle
JP2009009209A (ja) 画像認識装置および画像認識処理方法
JP2018133072A (ja) 情報処理装置およびプログラム
JP2018063476A (ja) 運転支援装置、運転支援方法及び運転支援用コンピュータプログラム
CN112046481B (zh) 自动驾驶装置和方法
JP2018173816A (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP7035204B2 (ja) 車両制御装置、自動運転車開発システム、車両制御方法、およびプログラム
JP6910254B2 (ja) 運転支援表示方法及び運転支援表示装置
WO2020255751A1 (ja) 自動運転システム
JP6804268B2 (ja) 駐車制御装置の姿勢推定方法、及び姿勢推定装置
US11851088B2 (en) Method for determining capability boundary and associated risk of a safety redundancy autonomous system in real-time
US20210255330A1 (en) Method for selecting an image detail of a sensor
CN114930423A (zh) 感测系统
JP6330868B2 (ja) 車両制御装置
WO2023149003A1 (ja) 車両制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240213

R150 Certificate of patent or registration of utility model

Ref document number: 7438222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150