JP2019073271A - 自律走行車ポリシー生成 - Google Patents

自律走行車ポリシー生成 Download PDF

Info

Publication number
JP2019073271A
JP2019073271A JP2018187322A JP2018187322A JP2019073271A JP 2019073271 A JP2019073271 A JP 2019073271A JP 2018187322 A JP2018187322 A JP 2018187322A JP 2018187322 A JP2018187322 A JP 2018187322A JP 2019073271 A JP2019073271 A JP 2019073271A
Authority
JP
Japan
Prior art keywords
autonomous vehicle
vehicle
autonomous
behavior
policy generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018187322A
Other languages
English (en)
Other versions
JP7231372B2 (ja
Inventor
ムスタファ・ムカダム
Mukadam Mustafa
アリエザ・ナカエイ・サルヴェダニ
Nakhaei Sarvedani Alireza
アカンセル・コスグン
Cosgun Akansel
希久雄 藤村
Kikuo Fujimura
希久雄 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2019073271A publication Critical patent/JP2019073271A/ja
Application granted granted Critical
Publication of JP7231372B2 publication Critical patent/JP7231372B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/085Taking automatic action to adjust vehicle attitude in preparation for collision, e.g. braking for nose dropping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Navigation (AREA)

Abstract

【課題】自動運転車において、効率的な車線変更操縦を安全に行う。【解決手段】自律走行車ポリシー生成システム100は、訓練を受ける自律走行車の属性セットを生成する状態入力生成装置108と、自律走行車、車線の数に関連付けられた道路、及び、シミュレーション環境内の他車両を含むシミュレーション環境をシミュレーションする交通シミュレータ112と、ある時間間隔に関して、自律走行車の可能な行動セットのサブセットにマスクを適用することを決定するQマスカー114と、可能な行動セットから残りの行動セットを探索して、残りの行動セットと自律走行車の属性セットとに基づいて、その時間間隔の自律走行車ポリシーを決定する行動生成装置116と、を含んでよい。【選択図】図1

Description

関連出願の相互参照
本出願は、2017年10月12日出願の米国仮特許出願第62/571717号(代理人整理番号HRA−43303)「TACTICAL DECISION MAKING FOR LANE CHANGING WITH DEEP REINFORCEMENT LEARNING」の利益を主張し、上記出願書類(複数可)の全体を参照により本明細書に組み込む。
近年、自動運転車に対する関心が高まってきた。しかしながら、自律走行車は、いつ車線変更するか、どのように車線変更するか等、多くの決定に直面する。これらの決定は、多車線またはマルチエージェントの設定または環境で行われることが多い。いずれにしても、自動運転車は、効率的な車線変更操縦を安全に行うことが要求され得る。これは、高速交通の存在下等、多車線の幹線道路の設定または環境で有用であり得る。これらの運転操縦の決定もしくは生成、または、車線変更決定は、例えば、天候や道路状況等、多くの他の要因と共に、自律走行車と他車両の間の相互作用によって難しく、複雑な場合がある。
一態様によると、自律走行車ポリシー生成システムは、状態入力生成装置、交通シミュレータ、Qマスカー、及び、行動生成装置を含んでよい。状態入力生成装置は、訓練を受ける自律走行車の属性セットを生成してよい。交通シミュレータは、自律走行車と、車線数に関連付けられた道路と、シミュレーション環境内の他車両とを含むシミュレーション環境をシミュレーションしてよい。Qマスカーは、ある時間間隔に関して、自律走行車の可能な行動セットのサブセットにマスクを適用することを決定してよい。行動生成装置は、可能な行動セットから残りの行動セットを探索してよく、残りの行動セットと自律走行車の属性セットとに基づいて、時間間隔に関して、自律走行車ポリシーを決定してよい。残りの行動セットは、マスクされた行動サブセットを除く。
属性セットは、自律走行車の現在速度、自律走行車の車線位置、及び、自律走行車から目標までの距離を含んでよい。目標は、所望の目的地であってよい。自律走行車の可能な行動セットは、時間間隔中の、自律走行車の現在速度の維持、加速、減速、右車線変更、または、左車線変更の自動運転操縦を含んでよい。
Qマスカーは、自律走行車とシミュレーション環境の間、もしくは、自律走行車とシミュレーション環境内の他車両との間の所定の許容される相互作用を示す予備知識と、許容される運転操縦を示す交通規則、または、自律走行車の物理的に可能な運転操縦を示す自律走行車の能力に基づいて、行動サブセットにマスクを適用することを決定してよい。
Qマスカーは、自律走行車が道路の右端の車線にいる時、右車線変更を行う自動運転操縦を含むように、また、自律走行車が道路の左端の車線にいる時、左車線変更を行う自動運転操縦を含むように、予備知識に基づいて、マスクする行動サブセットを決定してよい。Qマスカーは、自律走行車と他車両の両方が同じ車線にいて、自律走行車が他車両より第1の閾値距離だけ後ろにいる時、加速の自動運転操縦を含むように、また、自律走行車と他車両の両方が同じ車線にいて、自律走行車が他車両より第2の閾値距離だけ前にいる時、減速の自動運転操縦を含むように、予備知識に基づいて、マスクする行動サブセットを決定してよい。
Qマスカーは、自律走行車が、他車両の右側、且つ、他車両の車線変更閾値距離内にいる時、左車線変更の自動運転操縦を含むように、また、自律走行車が、他車両の左側、且つ、他車両の車線変更閾値距離内にある時、右車線変更の自動運転操縦を含むように、予備知識に基づいて、マスクする行動サブセットを決定してよい。Qマスカーは、自律走行車と他車両の間の衝突余裕時間(TTC)推定値が閾値TTC値未満の時、TTC推定値の減少が予測される運転操縦をいずれも含むように、予備知識に基づいて、マスクする行動サブセットを決定してよい。
Qマスカーは、自律走行車の現在速度が道路の制限速度より速い時、加速を含むように、また、自律走行車の現在速度が道路の最低速度制限より遅い時、減速を含むように、交通規則に基づいて、マスクする行動サブセットを決定してよい。Qマスカーは、自律走行車が、道路の二重の車線区分線のすぐ右側にいる時、右車線変更を行う自動運転操縦を含むように、また、自律走行車が、道路の二重の車線区分線のすぐ左側にいる時、左車線変更を行う自動運転操縦を含むように、交通規則に基づいて、マスクする行動サブセットを決定してよい。
行動生成装置は、自律走行車が最終状態に到達するまで、可能な行動セットから残りの行動セットを探索してよく、1つまたは複数の追加の時間間隔に関して、自律走行車ポリシーを決定してよい。行動生成装置は、1つまたは複数の追加の時間間隔に関する1つまたは複数の探索された行動セットを、1つまたは複数の対応する軌道として記憶してよい。行動生成装置は、報酬関数に基づいて、可能な行動セットから残りの行動セットを探索してよく、報酬関数に基づいて、自律走行車ポリシーを決定してよい。報酬関数は、割引係数を含んでよい。
一態様によると、自律走行車ポリシー生成方法は、訓練を受ける自律走行車の属性セットを生成することと、自律走行車と、車線の数に関連付けられた道路と、シミュレーション環境内の他車両を含むシミュレーション環境をシミュレーションすることと、ある時間間隔に関して、自律走行車の可能な行動セットのサブセットにマスクを適用することを決定することと、可能な行動セットから残りの行動セットを探索することと、残りの行動セットと自律走行車の属性セットとに基づいて、時間間隔に関して、自律走行車ポリシーを決定することと、を含む。残りの行動セットは、マスクされた行動サブセットを除く。
属性セットは、自律走行車の現在速度、自律走行車の車線位置、及び、自律走行車から目標までの距離を含んでよい。目標は、所望の目的地であってよい。自律走行車の可能な行動セットは、時間間隔中の、自律走行車の現在速度の維持、加速、減速、右車線変更、または、左車線変更の自動運転操縦を含んでよい。
行動サブセットにマスクを適用することを決定することは、自律走行車とシミュレーション環境の間、もしくは、自律走行車とシミュレーション環境内の他車両との間の所定の許容される相互作用を示す予備知識、許容される運転操縦を示す交通規則、または、自律走行車の物理的に可能な運転操縦を示す自律走行車の能力に基づいてよい。方法は、シミュレーション環境外の自律走行車に対して自律走行車ポリシーを実施することを含んでよい。
一態様によると、自律走行車ポリシー生成システムは、状態入力生成装置、交通シミュレータ、Qマスカー、及び、行動生成装置を含んでよい。状態入力生成装置は、訓練を受ける自律走行車の属性セットを生成してよい。交通シミュレータは、自律走行車と、車線の数に関連付けられた道路と、シミュレーション環境内の他車両とを含むシミュレーション環境をシミュレーションしてよい。Qマスカーは、ある時間間隔に関して、自律走行車とシミュレーション環境の間、もしくは、自律走行車とシミュレーション環境内の他車両との間の所定の許容される相互作用を示す予備知識、許容される運転操縦を示す交通規則、または、自律走行車の物理的に可能な運転操縦を示す自律走行車の能力に基づいて、自律走行車の可能な行動セットのサブセットにマスクを適用することを決定してよい。行動生成装置は、可能な行動セットから残りの行動セットを探索してよく、残りの行動セットと自律走行車の属性セットとに基づいて、時間間隔に関して、自律走行車ポリシーを決定してよい。残りの行動セットは、マスクされた行動サブセットを除く。
1つまたは複数の態様による、自律走行車ポリシー生成システムの構成要素図である。 1つまたは複数の態様による、自律走行車ポリシー生成方法のフロー図である。 図3Aは、1つまたは複数の態様による、自律走行車ポリシー生成方法のフロー図である。図3Bは、1つまたは複数の態様による、自律走行車ポリシー生成に関連付けられた例示のシミュレーションインタフェースである。 図4A〜図4Cは、1つまたは複数の態様による、自律走行車ポリシー生成を実施し得る例示のシナリオである。 1つまたは複数の態様による、本明細書に記載の規定の1つまたは複数を具体化するように構成されたプロセッサ実行可能命令を含むコンピュータ可読媒体またはコンピュータ可読デバイスの例を示す図である。 1つまたは複数の態様による、本明細書に記載の規定の1つまたは複数を実施するコンピューティング環境の例を示す図である。
以下の用語は、本開示を通して使用される。本開示の1つまたは複数の態様を理解する助けとなるように、その用語の定義を記載する。
エージェントは、可能な行動セットから行動(シミュレーションされる行動であってよい)を取ってよい。可能な行動セットは、行動セット(A)として既知であってよい。
環境は、シミュレーション環境、または、エージェントが移動する世界であってよい。
報酬関数(R)は、取られた(例えば、シミュレーションされた)行動を評価する関数であってよい。
割引係数(γ)は、将来の報酬を掛けて、長期の報酬よりも短期の決定に重みを置いてよい。
値(V)は、割引係数の効果を含む予測される長期的リターンであってよい。
Q値(Q)は、状態(s)で、ポリシー(π)の下での行動(a)の長期的リターンを示す行動値であってよい。
軌道は、一連の状態、及び/または、一連の状態を含む行動であってよい。
ポリシー(π)は、現在の状態に基づいて、エージェントの次の行動を決定するために採用される戦略であってよい。
図1は、1つまたは複数の態様による、自律走行車ポリシー生成システム100の構成要素図である。自律走行車ポリシー生成システム100は、プロセッサ102、メモリ104、ストレージドライブ106、状態入力生成装置108、交通シミュレータ112、Qマスカー114、及び、行動生成装置116を含んでよい。状態入力生成装置108、交通シミュレータ112、Qマスカー114、及び、行動生成装置116は、プロセッサ102、メモリ104、及び/または、ストレージドライブ106を介して実施されてよい。
自律走行車ポリシー生成システム100は、シミュレーションを通して、また、Qマスキングを通して、自律走行車120の自律走行車ポリシーを生成してよく、自律走行車120は、例えば、電子制御ユニット(ECU)122を使用して、自律走行車ポリシーを実施してよい。
状態入力生成装置108は、シミュレーションされるように、自律走行車の状態情報を決定または生成する。言い換えると、状態入力生成装置108は、自律走行車ポリシー生成に関連するネットワークへの入力の決定を担当する。これらの入力の例は、シミュレーションされる自律走行車内部の状態情報(例えば、シミュレーションされる自律走行車の速度または現在速度)、及び、シミュレーションされる自律走行車の外部の状態情報(例えば、シミュレーションされる自律走行車の車線場所または車線位置、及び、所望の目的地等の目標からの距離)を含む、シミュレーションされる自律走行車の状態を含んでよい。目標は、必ずしも最終目的地でなくてもよく、例えば、ルート上のウェイポイント目的地であってよい。交通シミュレータ112は、シミュレーションされる自律走行車と、シミュレーション環境内の1つまたは複数の他車両(例えば、第1の車両、第2の車両、第3の車両等)とを含むシミュレーション環境をシミュレーションしてよい。交通シミュレータ112は、他車両が、ある範囲内の速度を維持するように制御するように構成されてよい。
目標までの距離は、シミュレータへの入力として考慮されるので、交通のうち、多車線の幹線道路等の運転シナリオ中にある時、戦略レベルの長期的決定に関する推論が、考慮されてよい。
一態様によると、交通シミュレータ112は、シミュレーション環境内の他車両を、シミュレーションされる自律走行車(例えば、エージェント)との衝突ではなく、互いの衝突を回避するように制御してよい。Qマスカー114は、低レベルコントローラを介して実施されてよく、深層Q学習システムの一部であってよい。深層Q学習システムは、自律走行車が戦略レベルについて決定するのを可能にするポリシーを学習する。深層Q学習システムは、状態と、可能な行動のそれぞれに関連付けられたQ値とのマッピングを学習してよい。言い換えると、交通シミュレータ112は、深層Q学習システムを用いて、Qマスカー114を適用しなければ、各時間枠の可能な行動全てのシミュレーションに進み、これは、多大な計算能力を利用する場合がある。よって、各行動及びあらゆる行動を探索する完全なポリシーを学習することは、大きいネットワークを訓練するには難しい場合がある。
Q学習ネットワークにおいては、状態と、各行動に関連付けられたQ値との間のマッピングが学習されてよい。一態様によると、Qマスキングが、max(または、soft max)演算子の前に、出力されるQ値に適用されるマスクの形でQ値の出力層に適用されて、「最適な」行動を選んでよい。これに関して、Qマスカー114の直接効果は、max演算を行って、「最適な」行動を選ぶとき、低レベルモジュールによって指示された行動サブセットに関連付けられたQ値のみを考慮することである。
従って、Qマスカー114は、交通シミュレータ112によってシミュレーションされる出力Q値のサブセットをマスクしてよい。よって、行動の残りのサブセットに関連付けられたQ値のみが、シミュレーション中、交通シミュレータ112よって考慮され、それによって、自律走行車ポリシー生成において、自律走行車のシミュレーション及び訓練中に利用される処理能力量、及び/または、コンピューティングリソースを軽減する。行動の残りのサブセット(例えば、可能な行動セットから、マスクされたサブセットを除いた行動サブセット)に基づいて、行動生成装置116は、残りの行動を探索してよく、それに従って、自律走行車ポリシーを決定してよい。これは、1つまたは複数の時間間隔にわたって繰り返されてよい。そうすることによって、Qマスカー114は、シミュレーションされる自律走行車に、マスクされていない状態のみを「強制的に」探索させてよく、従って、状態(s)におけるポリシー(π)の下での行動(a)の長期的リターンを示す)関連するQ値の空間のサブセットのみを学習してよい。
より詳細には、状態入力生成装置108は、訓練を受ける自律走行車(例えば、シミュレーションされる自律走行車)の属性セットを生成してよい。例えば、属性セットは、自律走行車の現在速度v、自律走行車の車線位置l、及び、自律走行車から目標までの距離d2gを含んでよい。目標は、所望の目的地であってよい。さらに、車両の属性セットまたは位置情報は、占有グリッドとして表されてよい。属性セットは、自律走行車の状態(S)またはシナリオを示す、または、表す状態情報であってよい。例えば、掲示された制限速度、または、最低速度制限vmin及び最高速度制限vmax等の情報は、自律走行車の位置または場所に基づいて決定されてよい。
交通シミュレータ112は、自律走行車と、車線の数に関連付けられた道路と、シミュレーション環境内の1つまたは複数の他車両とを含むシミュレーション環境をシミュレーションしてよい。交通シミュレータ112は、交通密度で交通を生成してよく、各車線は、ある時間間隔で、スタート位置に車両を出す確率Planeを割り当てられてよく、他車両は、ランダムスタート速度、ランダム目標速度、及び、ランダム目標速度からとどまる範囲に関連付けられてよい。交通シミュレータ112は、シミュレーションされる自律走行車との衝突ではなく、互いの衝突を回避するように、他車両を制御するモデルを使用してよい。一態様によると、交通シミュレータ112は、シミュレーションされる自律走行車を制御せず、シミュレーション環境内の他車両を、(シミュレーションされる自律走行車とではなく)、互いに衝突することだけを回避するように制御する。
交通シミュレータ112は、深層Q学習システムであってよく、シミュレーションされる自律走行車の状態入力生成属性と、交通シミュレータ112によって提供されるシミュレーション環境とに基づいて、強化学習を実施する。交通シミュレータ112によって管理されるシミュレーション環境内において、シミュレーションされる自律走行車は、エージェントであってよく、エージェントは、可能な行動セットからシミュレーションする行動を取ってよい。可能な行動セットは、行動セット(A)として既知であってよい。例えば、自律走行車の可能な行動セットは、時間間隔中の、自律走行車の現在速度の維持、加速、減速、右車線変更、または、左車線変更の自動運転操縦を含む。
シミュレーション環境は、シミュレーションされる自律走行車が移動する世界または環境であってよい。交通シミュレータ112は、シミュレーションされる環境をシミュレーションし、シミュレーションされる自律走行車の(例えば、所与の時間間隔に関する)現在の状態と行動を入力として使用し、シミュレーションされた自律走行車の下記の報酬と次の状態とを出力として返信する。例えば、交通シミュレータ112は、車両の現在の状態(例えば、50mph)と行動(例えば、減速)を取得してよく、物理学法則を適用して、シミュレーションされる自律走行車の次の状態(例えば、45mph)を決定してよい。
交通シミュレータ112は、取られた(例えば、シミュレーションされた)行動を評価する関数であってよい報酬関数(R)を利用してよい。言い換えると、報酬関数を利用して、成功または失敗を測ってよい。例えば、シミュレーションされる自律走行車が、目標(例えば、所望の目的地)に到着しない場合、または、衝突に巻き込まれる場合、報酬関数は、現在の状態(例えば、目標に到着しないこと、または、衝突)に至るシミュレーションされた行動に罰則を与えてよい。逆に、報酬関数は、目標までの最速の時間または最速のルートに基づいて、報酬を与えてよい。報酬は、報酬関数に基づいて、すぐに与えられてもよく、または、遅らされてもよい。報酬関数によって与えられる報酬は、所与の目標(例えば、出口ランプへの到達)に基づいて、強化学習が生じるのを可能にする。
割引係数(γ)に、将来の報酬を掛けて、長期の報酬より短期の決定に重みを置いてよい。言い換えると、割引係数を使用して、将来の報酬は、即時の報酬より価値が無いようにしてよい。これに関して、値(V)は、割引効果を含む予測される長期的リターンであってよい。Q値(Q)は、行動値であってよく、行動値は、状態(s)でポリシー(π)の下での行動(a)の長期的リターンを示す。軌道は、一連の状態、及び/または、一連の状態を含む行動であってよい。ポリシー(π)または自律走行車ポリシーは、行動生成装置116が、(例えば、自律走行車の属性セットによって示される)現在の状態に基づいて、自律走行車の次の行動を決定するために使用または採用する戦略であってよい。
一態様によると、報酬関数は、以下のようであってよい。
ここで、lは、車線であり、その車線内で、シミュレーションされる自律走行車は、スタート位置から目標距離Dにある。
よって、この報酬関数に従うと、正の最終報酬が、成功(例えば、目標到達)に対して与えられ、シミュレーションされる自律走行車が目標の車線から最終的に離れれば離れるほど、負の最終的報酬が増える。割引係数は、シミュレーションされる自律走行車が最短の時間量、または、最小の時間間隔数で目標に到達すること(すなわち、最高の平均速度を維持すること)を促進してよい。さらに、衝突は、訓練中は決して許されないので、報酬関数は、衝突を考慮する必要はなく、報酬関数を単純化する。
例えば、状態を所与とすると、Qマスカー114は、エージェントまたはシミュレーションされる自律走行車が、その結果を探索する必要がない、または、その結果から学習する必要のない行動セットはいずれも、制限してよい、または、「マスクで取り除いて」よい。言い換えると、シミュレーションされる自律走行車が、左端の車線にいる場合、左車線変更行動を取ることは、幹線道路を離れることになる。よって、Qマスカー114は、このような状態では、左車線変更行動が決して選択されないように、左行動に関連付けられたQ値をマスクする。これは、システムに関する予備知識(すなわち、この例では、幹線道路路肩)を学習プロセスに直接、組み込むのを可能にする。そうすると、幹線道路から離れることに対する負の報酬は、設定する必要がないので、報酬関数を単純化する。
また、行動生成装置116が、これらの状態を探索しないので、学習自体が、より速く、より効率的になる。行動生成装置116が学習することになるのは、完全なセットではなく、Q値の実際の空間のサブセットである。システムへの制約も、同様に組み込まれてよい。例えば、自律走行車が、最高速度vmaxで運転している場合、加速行動は、マスクされてよい(または、最低速度vminの場合、減速行動はマスクされる)。このように、行動生成装置116は、幹線道路または道路の制限速度の学習に、時間を費やす必要はない。
Qマスカー114は、ある時間間隔に関して、自律走行車の可能な行動セットのサブセットにマスクを適用することを決定してよい。これらのマスクされた行動セットは、行動生成装置116によって探索されず、考慮もされないので、自律走行車ポリシー生成のためにシステムが利用する計算リソース(例えば、処理能力、メモリ、ストレージ等)の量を軽減する。
一態様によると、Qマスカー114は、予備知識、1つまたは複数の交通規則、低レベルコントローラからの制約もしくは情報、または、自律走行車の能力に基づいて、マスクを適用することを決定してよい。予備知識は、自律走行車とシミュレーション環境の間、または、自律走行車とシミュレーション環境内の他車両との間の所定の許容される相互作用を示してよい。言い換えると、Qマスカー114は、予備知識を利用して、例えば、シミュレーションされる自律走行車と他車両との衝突を生じ得る行動、衝突余裕時間(TTC)を増加させ得る行動、シミュレーションされる自律走行車を道路から外れさせ得る行動、または、所望の運転閾値もしくは範囲の外になり得る行動をマスクしてよい。
交通規則は、車両の場所または現在位置に基づいて、許容される運転操縦を示してよい。例えば、交通規則は、最高速度制限と、最低速度制限と、急ハンドルを切らない、停止無しにダブルレーンチェンジを行わない、他のドライバの「行く手を遮る」運転を行わない等の運転エチケットとを含んでよい。言い換えると、Qマスカー114は、自律走行車の現在速度が、道路の制限速度より速い時、加速することを含むように、また、自律走行車の現在速度が、道路の最低速度制限より遅い時、減速することを含むように、交通規則に基づいて、マスクする行動サブセットを決定してよい。このように、最低速度制限vmin及び最高速度制限vmaxを破り得る加速行動及び減速行動は、Qマスカー114によってマスクされてよい。
他の交通規則は、二重の車線区分線では追い越さないことを含んでよい。例えば、Qマスカー114は、自律走行車が、道路の二重の車線区分線のすぐ右にいる時、右車線変更を行う自動運転操縦を含むように、また、自律走行車が、道路の二重の車線区分線のすぐ左にいる時、左車線変更を行う自動運転操縦を含むように、交通規則に基づいて、マスクする行動サブセットを決定してよい。
さらに、自律走行車の能力は、自律走行車の物理的に可能な運転操縦を示してよい。例えば、自律走行車が、既に最高速度で運転している場合、加速は、可能でないので、加速行動は、Qマスカー114によってマスクされてよい。
Qマスカー114によってマスクされ得る他の行動の例は、自律走行車が道路を外れるような車線変更を含む。言い換えると、Qマスカー114は、自律走行車が、道路の右端の車線にいる時、右車線変更を行う自動運転操縦を含むように、また、自律走行車が、道路の左端の車線にいる時、左車線変更を行う自動運転操縦を含むように、予備知識に基づいて、マスクする行動サブセットを決定してよい。
同様に、Qマスカー114は、他車両に向かっての加速または減速に関連する行動をマスクしてよい。例えば、Qマスカー114は、自律走行車と他車両の両方が同じ車線にいて、自律走行車が、他車両より第1の閾値距離だけ後ろにいる時、加速の自動運転操縦を含むように、また、自律走行車と他車両の両方が同じ車線にいて、自律走行車が、他車両より第2の閾値距離だけ前にいる時、減速の自動運転操縦を含むように、予備知識に基づいて、マスクする行動サブセットを決定してよい。
一態様によると、Qマスカー114は、他の閾値に基づいて、シミュレーションされる自律走行車の行動をマスクしてよい(例えば、車線変更閾値距離に基づいて車線変更を無くす、または、あるシナリオにおいて、衝突余裕時間(TTC)推定値の減少が予測される行動を無くす)。例えば、Qマスカー114は、自律走行車が、他車両の右側、且つ、他車両の車線変更閾値距離内にいる時、左車線変更の自動運転操縦を含むように、また、自律走行車が、他車両の左側、且つ、他車両の車線変更閾値距離内にある時、右車線変更の自動運転操縦を含むように、予備知識に基づいて、マスクする行動サブセットを決定してよい。Qマスカー114は、自律走行車と他車両の間のTTC推定値が閾値TTC値未満の時、TTC推定値の減少が予測される運転操縦をいずれも含むように、予備知識に基づいて、マスクする行動サブセットを決定してよい。
このように、Qマスカー114は、多くの利益及び/または長所を提供する。例えば、Qマスキングを用いて、報酬関数を単純化することによって、深層Q学習をより速く、より効率的にしてよい。言い換えると、報酬関数は、交通シミュレータ112及び行動生成装置116によって実施されるように、学習プロセス(例えば、ネットワークの訓練)に予備知識を直接、組み込むことによって、単純化されてよい。Qマスカー114は、予備知識に基づいて行動をマスクするので、負の報酬関数を必要とせず、よって、報酬関数を単純化する。Qマスキングを用いることによって、Qマスカー114は、訓練中またはテスト中の衝突を軽減または除き得るので、必ずしもシミュレーション下ではなく、実際のシステムで直接、訓練を行うことを可能にする。言い換えると、Qマスカー114は、実際の自律走行車での自律走行車の訓練実施を可能にし得る。よって、一態様によると、交通シミュレータ112は、代わりに、1つまたは複数の他車両(例えば、第1の車両、第2の車両、第3の車両等、また、速度、位置、車線場所、方向指示器等の1つまたは複数の関連する属性)を検出するセンサと置き換えられてよい。
行動生成装置116は、可能な行動セットから残りの行動セットを探索してよく、(例えば、マスクされた行動サブセットを除く)残りの行動セットと、自律走行車の属性セットとに基づいて、時間間隔に関して、自律走行車ポリシーを決定してよい。行動生成装置116は、自律走行車が最終状態(例えば、目標または所望の目的地)に到達するまで等、可能な行動セットから残りの行動セットを探索してよく、1つまたは複数の追加の時間間隔に関して、自律走行車ポリシーを決定してよい。ここで、行動生成装置116は、1つまたは複数の追加の時間間隔に関連する探索された行動セットの1つまたは複数を、1つまたは複数の対応する軌道として記憶してよい。上記のように、軌道は、一連の状態、及び/または、一連の状態を含む行動であってよい。
行動生成装置116は、報酬関数に基づいて、可能な行動セットから残りの行動セットを探索してよく、また、報酬関数に基づいて、自律走行車ポリシーを決定してよい。報酬関数は、割引係数を含んでよい。訓練及び/またはシミュレーションを通して、行動生成装置116は、自律走行車ポリシーを学習してよく、自律走行車ポリシーは、ストレージドライブ106に記憶されてよく、車両120に通信されてよく、また、車両ECU122を介して実施されて、自動運転を容易にしてよい。
訓練中、epsilon−greedy(エプシロングリーディ)法で行動を取ってよく、Eは、焼きなまされてよい。行動生成装置116は、最終状態までの完全な軌道をシミュレーションしてよく、その軌道を、良い、または、悪いとして、分類してよい(すなわち、良いバッファは、衝突に巻き込まれず、制限速度を超えず等、目標に到達するシミュレーションされる自律走行車に関連付けられる)。他の言い方で説明すると、全ての推移(すなわち、成功した軌道からの状態、行動、及び、報酬タプルは、良いバッファに保存され、失敗した(すなわち、目標に到達しない)軌道からの推移は、悪いバッファに保存される。
任意の推移に関して、予測される報酬が、最終報酬から、以下の式によって、逆算されてよい。
ここで、γは、割引係数である。
ネットワークは、以下の損失関数を用いて、良いバッファ及び悪いバッファから等しくサンプリングされた推移のミニバッチを用いて、最適化されてよい。
2つの異なるバッファによって、探索が常に失敗した軌道につながり得る時、成功した実行への十分な暴露の維持を支援し、それによって、ネットワークが、極小値でスタックするのを回避する。
このように、自律走行車ポリシー生成システム100は、高レベルの戦略的意思決定に深層強化学習の強みを活用し、従来の最適化または規則ベースの方法を用いて高レベルポリシーを公式化することは難しいが、よく設計された低レベルコントローラ(例えば、Qマスカー114を実施するコントローラ)が利用できる問題に対して、エンドツーエンドの完全なポリシー学習より構造化され、データ効率の良い代替を実証するフレームワークを提供する。自律走行車ポリシー生成システム100は、低レベルコントローラとの緊密な一体化を維持しながら、深層強化学習を用いて、戦略的意思決定のための高レベルポリシーを取得する。
自動運転車両(例えば、自律走行車)の自動車線変更意思決定にこのフレームワークを適用して、ネットワークは、高レベルの戦略的意思決定ポリシーを学習してよい。グリーディベースライン及び人間ドライバに対する実験結果によって、本明細書に記載の自律走行車ポリシー生成システム100及び方法は、より効率が良く、また、(例えば、衝突を除くことによって)ずっと低い衝突率という両方で、性能的に優れていることが分かった。グリーディベースラインは、自律走行車が、正しい車線に来るまで、右車線変更を行うことを優先し、次に、制限速度内にとどまりながら、他車両と衝突せずに、できるだけ速く進むというポリシーであってよい。
一態様によると、状態入力生成装置108は、閉塞に留意してよく、交通シミュレータ112は、確率的占有グリッドを提供してよい。さらに、交通シミュレータ112は、占有グリッドの履歴を、前の時間間隔から、別個のチャネルとして受信してよい。
図2は、1つまたは複数の態様による、自律走行車ポリシー生成方法200のフロー図である。202において、自律走行車の属性セットを生成する。属性セットは、自律走行車の現在速度と、自律走行車の車線位置と、自律走行車から目標までの距離とを含んでよく、目標は、所望の目的地である。204において、交通シミュレーションを行う。例えば、シミュレーション環境は、自律走行車と、車線の数に関連付けられた道路と、シミュレーション環境内の他車両とを含んでよい。
206において、マスクが、行動サブセットに対して決定される。マスクは、自律走行車とシミュレーション環境の間、もしくは、自律走行車とシミュレーション環境内の他車両との間の所定の許容される相互作用を示す予備知識、許容される運転操縦を示す交通規則、または、自律走行車の物理的に可能な運転操縦を示す自律走行車の能力に基づいて、決定されてよい。
208において、マスクされていない残りの行動セットが探索される。言い換えると、シミュレーションは、残りの行動セットに関連付けられた全ての可能な結果を探索して、これらを良いと悪いの2つのクラスにソートしてよい。ここで、良いは、シミュレーションされる自律走行車が、目標に到達することに関連付けられ、悪いは、シミュレーションされる自律走行車が、目標に到達しないことに関連付けられる。210において、自律走行車ポリシーが、報酬関数または割引係数に基づいて等、決定される。割引係数は、時間、将来の報酬対現在の報酬等を考慮する。
図3Aは、1つまたは複数の態様による、例示の自律走行車ポリシー生成方法のフロー図である。履歴を有する占有グリッドが、1つの畳み込み層を通って渡され、平らにされ、スカラ入力108を有する完全接続層の出力と連結されてよい。連結は、完全接続層を通って渡され、5つの戦略的行動に関連付けられた5つのQ値が最終的に出力される。図3Aに示すように、Qマスキング114が、Q値とmax演算との間に挿入されて、行動116を決定し、それによって、事前情報を組み込むので、探索を通したゼロからの学習を行う必要はない。max演算は、行動を選択するためのQ値に対するmaxまたはsoft−max演算であってよい。
図3Bは、1つまたは複数の態様による、自律走行車ポリシー生成に関連する例示のシミュレーションインタフェースである。上記のように、自律走行車の可能な行動セットは、時間間隔中の、自律走行車の現在速度(例えば、「N」、または、運転されていない)の維持、加速(A)、減速(D)、右車線変更(R)、または、左車線変更(L)の自動運転操縦を含む。
図4A〜図4Cは、1つまたは複数の態様による、自律走行車ポリシー生成を実施し得る例示のシナリオである。例示の一態様による、シミュレーションされる自律走行車が、制限速度を守り、衝突等を回避しながら、図4Aに示すように、最小の時間量で右端の車線の出口に到達することを課される。図4Aにおいて、自律走行車は、出口から目標までの距離d2gにある。シミュレーションされる自律走行車が、出口(例えば、このシナリオにおける目標)に到達しない場合、これは、行動生成装置116または交通シミュレータ112によって失敗とみなされる。目標までの距離が、低レベルコントローラからの制約情報の予備知識等の情報と共に考慮されているので、高レベル及び低レベルの両方の考慮事項が、考慮されている。
図4Bにおいて、自律走行車またはエージェントが、位置402にいる場合、自律走行車が既に道路の左端の車線にいるので、左車線変更行動は、Qマスカー114によってマスクされてよい。同様に、自律走行車が位置404にいる時、加速行動は、Qマスカー114によってマスクされてよく、自律走行車が位置406にいる時、減速行動は、Qマスカー114によってマスクされてよい。これらの加速行動及び減速行動は、それぞれ、他車両までの閾値距離に基づいてマスクされてよい。
図4Cにおいて、2つの異なる軌道410及び420を示す。Qマスカー114が、各軌道に関わる意思決定のリスクの大半を既に軽減しているので、行動生成装置は、より高い報酬(例えば、時間が速い)に関連付けられた軌道を選択してよい。
さらに別の態様は、本明細書に提示の技術の1つまたは複数の態様を実施するように構成されたプロセッサ実行可能命令を含むコンピュータ可読媒体を伴う。このように考案されたコンピュータ可読媒体またはコンピュータ可読デバイスの態様を図5に示す。図5において、実際態様500は、CD−R、DVD−R、フラッシュドライブ、ハードディスクドライブのプラッタ等、コンピュータ可読媒体508を含み、コンピュータ可読媒体508上にコンピュータ可読データ506が符号化されている。そして、コンピュータ可読データ506に示すように複数のゼロと1を含むバイナリデータ等のこのコンピュータ可読データ506は、本明細書に記載の原理の1つまたは複数に従って演算するように構成されたプロセッサ実行可能コンピュータ命令504のセットを含む。このような一態様500において、プロセッサ実行可能コンピュータ命令504は、図2の方法200等、方法502を行うように構成されてよい。別の態様において、プロセッサ実行可能コンピュータ命令504は、図1のシステム100等、システムを実施するように構成されてよい。本明細書に提示の技術に従って動作するように構成された多くのこのようなコンピュータ可読媒体が、当業者によって考案されてよい。
本出願書で使用される場合、「構成要素」「モジュール」「システム」「インタフェース」等の用語は、一般的に、ハードウェア、ハードウェアとソフトウェアの組み合わせ、ソフトウェア、または、実行中のソフトウェア等、コンピュータ関連の実体を指すことを意図している。例えば、構成要素は、プロセッサで実行中のプロセス、マイクロプロセッサ、オブジェクト、実行ファイル、実行スレッド、プログラム、または、コンピュータであってよいが、これらに限らない。例を挙げると、コントローラ上で実行しているアプリケーションもコントローラも両方とも、構成要素であってよい。プロセスまたは実行スレッド内に常駐する1つまたは複数の構成要素、及び、ある構成要素は、1つのコンピュータに配置されてもよく、2つ以上のコンピュータに分散されてもよい。
さらに、特許を請求している主題は、標準的プログラミング技術またはエンジニアリング技術を用いた方法、装置、または、製品として実施されて、開示の主題を実施するようにコンピュータを制御するソフトウェア、ファームウェア、ハードウェア、または、これらの任意の組み合わせを生成する。本明細書では「製品」という用語は、任意のコンピュータ可読デバイス、搬送波、または、媒体からアクセス可能なコンピュータプログラムを含むものとする。特許を請求する主題の範囲や趣旨を逸脱することなく、この構成に多くの修正が行われてよいことは、当然である。
図6と以下の記述は、本明細書に記載の規定の1つまたは複数の態様を実施するのに適したコンピューティング環境を記載したものである。図6の動作環境は、適切な動作環境のほんの一例であり、動作環境の使用または機能の範囲への制限を意図したものではない。コンピューティングデバイスの例は、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドもしくはラップトップデバイス、携帯電話等のモバイルデバイス、パーソナルデジタルアシスタント(PDA)、メディアプレーヤ等、マルチプロセッサシステム、家電、ミニコンピュータ、メインフレームコンピュータ、上記システム、デバイス等のいずれかを含む分散コンピューティング環境を含むが、これらに限らない。
一般的に、態様は、1つまたは複数のコンピューティングデバイスによって実行されている「コンピュータ可読命令」の一般的な文脈で記載される。コンピュータ可読命令は、下記のように、コンピュータ可読媒体を介して分散されてよい。コンピュータ可読命令は、1つまたは複数のタスクを実行する、または、1つまたは複数の抽象データ型を実施する、関数、オブジェクト、アプリケーションプログラミングインタフェース(API)、データ構造等、プログラムモジュールとして実施されてよい。典型的に、コンピュータ可読命令の機能は、様々な環境において、所望のように、組み合わされる、または、分散される。
図6は、本明細書で提供する1つまたは複数の態様を実施するように構成されたコンピューティングデバイス612を含むシステム600を示す。一つの構成においては、コンピューティングデバイス612は、少なくとも1つの処理ユニット616とメモリ618とを含む。コンピューティングデバイスの正確な構成と種類に応じて、メモリ618は、RAM等、揮発性、ROM、フラッシュメモリ等、不揮発性、または、それら2つの組み合わせであってよい。この構成は、図6に破線614によって示される。
他の態様においては、コンピューティングデバイス612は、追加の特徴または機能を含む。例えば、コンピューティングデバイス612は、磁気ストレージ、光学ストレージ等を含むが、これらに限らない、リムーバブルストレージまたはノンリムーバブルストレージ等の追加のストレージを含んでよい。このような追加のストレージは、図6にストレージ620によって示す。1つまたは複数の態様において、本明細書で提供された1つまたは複数の態様を実施するコンピュータ可読命令は、ストレージ620内にある。ストレージ620は、オペレーティングシステム、アプリケーションプログラミング等を実施する他のコンピュータ可読命令を記憶してよい。コンピュータ可読命令は、例えば、処理ユニット616によって実行されるために、メモリ618にロードされてよい。
本明細書で使用される「コンピュータ可読媒体」という用語は、コンピュータ記憶媒体を含む。コンピュータ記憶媒体は、コンピュータ可読命令または他のデータ等の情報を記憶するための任意の方法または技術で実施される揮発性及び不揮発性、リムーバブル及びノンリムーバブルの媒体を含む。メモリ618とストレージ620は、コンピュータ記憶媒体の例である。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリ、もしくは、他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)、もしくは、他の光学ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ、もしくは、他の磁気記憶装置、または、所望の情報の記憶に使用してよく、且つ、コンピューティングデバイス612によってアクセス可能な任意の他の媒体を含むが、これらに限らない。このようなコンピュータ記憶媒体は、いずれも、コンピューティングデバイス612の一部である。
「コンピュータ可読媒体」という用語は、通信媒体を含む。通信媒体は、典型的に、搬送波または他の伝達機構等、「変調データ信号」の形でコンピュータ可読命令または他のデータを実現し、任意の情報伝達媒体を含む。「変調データ信号」という用語は、その特徴の1つまたは複数が信号に情報を符合化するように設定または変更された信号を含む。
コンピューティングデバイス612は、キーボード、マウス、ペン、音声入力装置、タッチ入力装置、赤外線カメラ、ビデオ入力装置、または、任意の他の入力装置等、入力装置(複数可)624を含む。1つまたは複数のディスプレイ、スピーカ、プリンタ、もしくは、任意の他の出力装置等、出力装置(複数可)622が、コンピューティングデバイス612に含まれてよい。入力装置(複数可)624と出力装置(複数可)622は、有線接続、無線接続、または、それらの任意の組み合わせを介して、コンピューティングデバイス612に接続されてよい。1つまたは複数の態様において、他のコンピューティングデバイスの入力装置または出力装置が、コンピューティングデバイス612の入力装置(複数可)624または出力装置(複数可)622として使用されてよい。コンピューティングデバイス612は、例えば、ネットワーク628を通して等、1つまたは複数の他の装置630との通信を容易にする通信接続(複数可)626を含んでよい。
構造的特徴または方法論的行為に固有の言葉で主題を記載したが、添付の請求項の主題は、上記特定の特徴または行為に必ずしも限定されないことを理解されたい。むしろ、上記特定の特徴及び行為は、例示の態様として開示した。
態様の様々な動作を本明細書に記載した。動作の1つまたは複数または全てを記載した順番は、これらの動作が必ず順番に依存していることを示唆していると解釈すべきではない。この記載に基づいて、代わりの順番も認められる。さらに、本明細書で提供した各態様に、全ての動作が必ずしも存在しなくてもよい。
本出願書で使用される場合、「または(もしくは)」は、排他的な「または(もしくは)」ではなく、非排他的な「または(もしくは)」を意味するものとする。さらに、非排他的な「または(もしくは)」は、任意の組み合わせ(例えば、A、B、または、A、Bの任意の組み合わせ)を含んでよい。さらに、本出願書で使用される「a」及び「an」は、別段の記載のない限り、または、単数形を指すと文脈から明らかでない限り、一般的に、「1つまたは複数」を意味すると解釈される。さらに、A及びBの少なくとも1つ等は、一般的に、A、または、B、または、AとBの両方を意味する。さらに、「includes(含む)」「having(有する)」「has(有する)」「with(有する)」、または、これらの変形が、詳細な説明または請求項で使用される場合、このような用語は、「comprising(含む)」という語と同様に、非排他的であることを意図している。
さらに、別段の記載がない限り、「第1の」「第2の」等は、時間的側面、空間的側面、または、順番等を示唆する意図はない。むしろ、このような用語は、特徴、要素、項目等を識別するもの、名称等として使用されているだけである。例えば、第1のチャネルと第2のチャネルは、一般的に、チャネルAとチャネルB、または、2つの異なるもしくは2つの同一のチャネル、または、同じチャネルに対応する。さらに、「comprising(含む)」「comprises(含む)」「including(含む)」「includes(含む)」等は、一般的に、「comprising(含む)」または「including(含む)」を意味するが、これらに限らない。
様々な上記に開示した、及び、他の特徴及び機能、または、それらの代替もしくは変形は、多くの他の異なるシステムまたは用途に組み込まれることが望ましいことは理解されよう。また、現在は予見または予測されていないこれらの様々な代替、変形、または、改良が、今後、当業者によって行われるであろうが、これらも、また、以下の請求項に含まれるものとする。
100 自律走行車ポリシー生成システム
102 プロセッサ
104 メモリ
106 ストレージドライブ
108 状態入力生成装置
112 交通シミュレータ
114 Qマスカー
116 行動生成装置
120 自律走行車
122 電子制御ユニット(ECU)
402 位置
404 位置
406 位置
410 軌道
420 軌道
500 実際態様
502 方法
504 プロセッサ実行可能コンピュータ命令
506 コンピュータ可読データ
508 コンピュータ可読媒体
600 システム
612 コンピューティングデバイス
614 破線
616 処理ユニット
618 メモリ
620 ストレージ
622 出力装置
624 入力装置
626 通信接続
628 ネットワーク
630 装置

Claims (20)

  1. 訓練を受ける自律走行車の属性セットを生成する状態入力生成装置と、
    自律走行車と、車線の数に関連付けられた道路と、シミュレーション環境内の他車両とを含む前記シミュレーション環境をシミュレーションする交通シミュレータと、
    ある時間間隔に関して、前記自律走行車の可能な行動セットのサブセットにマスクを適用することを決定するQマスカーと、
    前記可能な行動セットから残りの行動セットを探索し、前記残りの行動セットと、前記自律走行車の前記属性セットとに基づいて、前記時間間隔に関して自律走行車ポリシーを決定する行動生成装置と、
    を含む、自律走行車ポリシー生成システムであって、
    前記残りの行動セットは、前記マスクされた行動サブセットを除く、
    前記自律走行車ポリシー生成システム。
  2. 前記属性セットは、前記自律走行車の現在速度と、前記自律走行車の車線位置と、前記自律走行車から目標までの距離とを含み、前記目標は、所望の目的地である、請求項1に記載の自律走行車ポリシー生成システム。
  3. 前記自律走行車の前記可能な行動セットは、前記時間間隔中の、前記自律走行車の現在速度の維持、減速、加速、右車線変更、または、左車線変更の自動運転操縦を含む、請求項1に記載の自律走行車ポリシー生成システム。
  4. 前記Qマスカーは、前記自律走行車と前記シミュレーション環境の間、もしくは、前記自律走行車と、前記シミュレーション環境内の前記他車両との間の所定の許容される相互作用を示す予備知識、許容される運転操縦を示す交通規則、または、前記自律走行車の物理的に可能な運転操縦を示す前記自律走行車の能力に基づいて、前記行動サブセットにマスクを適用することを決定する、請求項1に記載の自律走行車ポリシー生成システム。
  5. 前記Qマスカーは、前記予備知識に基づいて、
    前記自律走行車が前記道路の右端の車線にいる時、右車線変更を行う自動運転操縦と、
    前記自律走行車が前記道路の左端の車線にいる時、左車線変更を行う自動運転操縦と
    を含むように、前記マスクする行動サブセットを決定する、
    請求項4に記載の自律走行車ポリシー生成システム。
  6. 前記Qマスカーは、前記予備知識に基づいて、
    前記自律走行車と前記他車両の両方が、同じ車線にいて、前記自律走行車が、前記他車両から第1の閾値距離だけ後ろにいる時、加速する自動運転操縦と、
    前記自律走行車と前記他車両の両方が、同じ車線にいて、前記自律走行車が、前記他車両から第2の閾値距離だけ前にいる時、減速する自動運転操縦と、
    を含むように、前記マスクされた行動サブセットを決定する、
    請求項4に記載の自律走行車ポリシー生成システム。
  7. 前記Qマスカーは、前記予備知識に基づいて、
    前記自律走行車が前記他車両の右側にいて、前記他車両の車線変更閾値距離内にいる時、左車線変更の自動運転操縦と、
    前記自律走行車が前記他車両の左側にいて、前記他車両の前記車線変更閾値距離内にいる時、右車線変更の自動運転操縦と
    を含むように、前記マスクする行動サブセットを決定する、
    請求項4に記載の自律走行車ポリシー生成システム。
  8. 前記Qマスカーは、前記自律走行車と前記他車両の間の衝突余裕時間(TTC)推定値が閾値TTC値未満の時、前記TTC推定値の減少が予測される運転操縦をいずれも含むように、前記予備知識に基づいて、前記マスクする行動サブセットを決定する、請求項4に記載の自律走行車ポリシー生成システム。
  9. 前記Qマスカーは、前記交通規則に基づいて、
    前記自律走行車の現在速度が、前記道路の制限速度より速い時、加速と、
    前記自律走行車の前記現在速度が、前記道路の最低速度制限より遅い時、減速と、
    を含むように、前記マスクする行動サブセットを決定する、
    請求項4に記載の自律走行車ポリシー生成システム。
  10. 前記Qマスカーは、前記交通規則に基づいて、
    前記自律走行車が、前記道路の二重の車線区分線のすぐ右にある時、右車線変更を行う自動運転操縦と、
    前記自律走行車が、前記道路の二重の車線区分線のすぐ左にある時、左車線変更を行う自動運転操縦と
    を含むように、前記マスクする行動サブセットを決定する、
    請求項4に記載の自律走行車ポリシー生成システム。
  11. 前記自律走行車が最終状態に到達するまで、前記行動生成装置は、前記残りの行動セットを前記可能な行動セットから探索し、1つまたは複数の追加の時間間隔に関して、前記自律走行車ポリシーを決定する、請求項1に記載の自律走行車ポリシー生成システム。
  12. 前記行動生成装置は、前記1つまたは複数の追加の時間間隔に関連する1つまたは複数の探索された行動セットを、1つまたは複数の対応する軌道として記憶する、請求項11に記載の自律走行車ポリシー生成システム。
  13. 前記行動生成装置は、報酬関数に基づいて、前記可能な行動セットから前記残りの行動セットを探索し、前記報酬関数に基づいて、前記自律走行車ポリシーを決定する、請求項1に記載の自律走行車ポリシー生成システム。
  14. 前記報酬関数は、割引係数を含む、請求項13に記載の自律走行車ポリシー生成システム。
  15. 訓練を受ける自律走行車の属性セットを生成することと、
    前記自律走行車と、車線の数に関連付けられた道路と、シミュレーション環境内の他車両とを含む前記シミュレーション環境をシミュレーションすることと、
    ある時間間隔に関して、前記自律走行車の可能な行動セットのサブセットにマスクを適用することを決定することと、
    前記可能な行動セットから残りの行動セットを探索することと、
    前記残りの行動セットと、前記自律走行車の前記属性セットとに基づいて、前記時間間隔に関して、自律走行車ポリシーを決定することと、
    を含む、自律走行車ポリシー生成方法であって、
    前記残りの行動セットは、前記マスクされた行動サブセットを除く、
    前記自律走行車ポリシー生成方法。
  16. 前記属性セットは、前記自律走行車の現在速度と、前記自律走行車の車線位置と、前記自律走行車から目標までの距離とを含み、前記目標は、所望の目的地である、請求項15に記載の自律走行車ポリシー生成方法。
  17. 前記自律走行車の前記可能な行動セットは、前記時間間隔中の、前記自律走行車の現在速度の維持、加速、減速、右車線変更、または、左車線変更の自動運転操縦を含む、請求項15に記載の自律走行車ポリシー生成方法。
  18. 前記行動サブセットに前記マスクを適用すると決定することは、前記自律走行車と前記シミュレーション環境の間、もしくは、前記自律走行車と前記シミュレーション環境内の前記他車両との間の所定の許容される相互作用を示す予備知識、許容される運転操縦を示す交通規則、または、前記自律走行車の物理的に可能な運転操縦を示す前記自律走行車の能力に基づく、請求項15に記載の自律走行車ポリシー生成方法。
  19. 前記シミュレーション環境外の自律走行車に対して前記自律走行車ポリシーを実施することを含む、請求項15に記載の自律走行車ポリシー生成方法。
  20. 訓練を受ける自律走行車の属性セットを生成する状態入力生成装置と、
    前記自律走行車と、車線の数に関連付けられた道路と、シミュレーション環境内の他車両とを含む前記シミュレーション環境をシミュレーションする交通シミュレータと、
    前記自律走行車と前記シミュレーション環境の間、もしくは、前記自律走行車と前記シミュレーション環境内の前記他車両との間の所定の許容される相互作用を示す予備知識、許容される運転操縦を示す交通規則、または、前記自律走行車の物理的に可能な運転操縦を示す前記自律走行車の能力に基づいて、ある時間間隔に関して、前記自律走行車の可能な行動セットのサブセットにマスクを適用することを決定するQマスカーと、
    前記可能な行動セットから残りの行動セットを探索し、前記残りの行動セットと前記自律走行車の前記属性セットとに基づいて、前記時間間隔に関して自律走行車ポリシーを決定する行動生成装置と、
    を含む、自律走行車ポリシー生成システムであって、
    前記残りの行動セットは、前記マスクされた行動サブセットを除く、前記自律走行車ポリシー生成システム。
JP2018187322A 2017-10-12 2018-10-02 自律走行車ポリシー生成 Active JP7231372B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762571717P 2017-10-12 2017-10-12
US62/571,717 2017-10-12
US16/103,847 US10739776B2 (en) 2017-10-12 2018-08-14 Autonomous vehicle policy generation
US16/103,847 2018-08-14

Publications (2)

Publication Number Publication Date
JP2019073271A true JP2019073271A (ja) 2019-05-16
JP7231372B2 JP7231372B2 (ja) 2023-03-01

Family

ID=66095705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018187322A Active JP7231372B2 (ja) 2017-10-12 2018-10-02 自律走行車ポリシー生成

Country Status (3)

Country Link
US (1) US10739776B2 (ja)
JP (1) JP7231372B2 (ja)
CN (1) CN109649402B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126646A (ja) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. 人の走行データをトレーニングデータとして利用して、強化学習を支援することによりカスタマイズ型経路プランニングを遂行する学習方法及び学習装置
KR20210048647A (ko) * 2019-10-23 2021-05-04 국민대학교산학협력단 사용자 관점의 자율주행 정보 제공 장치 및 방법
WO2022180901A1 (ja) * 2021-02-24 2022-09-01 日立Astemo株式会社 シミュレーション方法及び装置
JP2022547611A (ja) * 2019-11-14 2022-11-14 エヌイーシー ラボラトリーズ アメリカ インク 道路シーンにおける多様な長期将来軌道のシミュレーション

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018083667A1 (en) * 2016-11-04 2018-05-11 Deepmind Technologies Limited Reinforcement learning systems
US20190185012A1 (en) 2017-12-18 2019-06-20 PlusAI Corp Method and system for personalized motion planning in autonomous driving vehicles
US11130497B2 (en) 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
US11643092B2 (en) * 2017-12-27 2023-05-09 Bayerische Motoren Werke Aktiengesellschaft Vehicle lane change prediction
US11354458B1 (en) * 2018-02-22 2022-06-07 Hexagon Manufacturing Intelligence, Inc. Automated vehicle safety simulation using safety quotient method
US10732639B2 (en) * 2018-03-08 2020-08-04 GM Global Technology Operations LLC Method and apparatus for automatically generated curriculum sequence based reinforcement learning for autonomous vehicles
US10990096B2 (en) * 2018-04-27 2021-04-27 Honda Motor Co., Ltd. Reinforcement learning on autonomous vehicles
US10940863B2 (en) * 2018-11-01 2021-03-09 GM Global Technology Operations LLC Spatial and temporal attention-based deep reinforcement learning of hierarchical lane-change policies for controlling an autonomous vehicle
CN110363295A (zh) * 2019-06-28 2019-10-22 电子科技大学 一种基于dqn的智能车多车道换道方法
JP7098580B2 (ja) * 2019-07-05 2022-07-11 株式会社東芝 予測装置、予測方法、プログラムおよび車両制御システム
US11465650B2 (en) * 2019-09-20 2022-10-11 Honda Motor Co., Ltd. Model-free reinforcement learning
CN111045445B (zh) * 2019-10-23 2023-11-28 浩亚信息科技有限公司 一种基于强化学习的飞行器智能避撞方法、设备、介质
EP3828780A1 (en) * 2019-11-29 2021-06-02 Bayerische Motoren Werke Aktiengesellschaft Training an artificial intelligence unit for an automated vehicle
US11989952B2 (en) 2019-12-10 2024-05-21 Samsung Electronics Co., Ltd. Systems and methods for trajectory prediction
CN111222630B (zh) * 2020-01-17 2023-07-25 北京工业大学 一种基于深度强化学习的自主驾驶规则学习方法
CN111258314B (zh) * 2020-01-20 2022-07-15 中国科学院深圳先进技术研究院 一种基于协同演化的自动驾驶车辆决策涌现方法
EP3866074B1 (en) * 2020-02-14 2022-11-30 Robert Bosch GmbH Method and device for controlling a robot
CN111368409A (zh) * 2020-02-27 2020-07-03 杭州飞步科技有限公司 车辆流的模拟处理方法、装置、设备和存储介质
CN111612162B (zh) * 2020-06-02 2021-08-27 中国人民解放军军事科学院国防科技创新研究院 一种强化学习方法、装置、电子设备及存储介质
EP4165476A1 (en) 2020-07-01 2023-04-19 May Mobility, Inc. Method and system for dynamically curating autonomous vehicle policies
US11912302B2 (en) * 2020-12-21 2024-02-27 Zoox, Inc. Autonomous control engagement
US11738777B2 (en) 2020-12-21 2023-08-29 Zoox, Inc. Dynamic autonomous control engagement
CN112683292A (zh) * 2021-01-07 2021-04-20 阿里巴巴集团控股有限公司 一种导航路线确定方法、装置和相关产品
WO2022212944A1 (en) 2021-04-02 2022-10-06 May Mobility, Inc. Method and system for operating an autonomous agent with incomplete environmental information
US11565717B2 (en) * 2021-06-02 2023-01-31 May Mobility, Inc. Method and system for remote assistance of an autonomous agent
CN113359771B (zh) * 2021-07-06 2022-09-30 贵州大学 一种基于强化学习的智能自动驾驶控制方法
CN113807503B (zh) * 2021-09-28 2024-02-09 中国科学技术大学先进技术研究院 适用于智能汽车的自主决策方法及系统、装置、终端
CN114360290B (zh) * 2021-12-08 2023-07-28 四川智慧高速科技有限公司 一种基于强化学习的交叉口前车辆群体车道选择方法
US11814072B2 (en) 2022-02-14 2023-11-14 May Mobility, Inc. Method and system for conditional operation of an autonomous agent

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006315491A (ja) * 2005-05-11 2006-11-24 Toyota Motor Corp 車両用走行制御装置
WO2016067336A1 (ja) * 2014-10-27 2016-05-06 日産自動車株式会社 走行制御情報のデータ構造及び走行制御装置
JP2016207016A (ja) * 2015-04-24 2016-12-08 日産自動車株式会社 走行制御装置およびデータ構造
JP2017081421A (ja) * 2015-10-28 2017-05-18 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
JP2017149254A (ja) * 2016-02-24 2017-08-31 トヨタ自動車株式会社 車両制御装置
WO2017163538A1 (ja) * 2016-03-25 2017-09-28 ソニー株式会社 情報処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2746126B1 (en) * 2012-12-18 2019-04-10 Honda Research Institute Europe GmbH Driver assistance system
US8788134B1 (en) * 2013-01-04 2014-07-22 GM Global Technology Operations LLC Autonomous driving merge management system
KR101877553B1 (ko) * 2014-11-14 2018-07-11 한국전자통신연구원 차량 자율주행 시스템 및 이를 이용한 차량 주행 방법
US9566980B2 (en) * 2015-03-05 2017-02-14 Qualcomm Incorporated Automobile driver improved response times using priming
US9934688B2 (en) * 2015-07-31 2018-04-03 Ford Global Technologies, Llc Vehicle trajectory determination
US9632502B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
DE102015221920A1 (de) * 2015-11-09 2017-05-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Computerprogrammprodukt, Vorrichtung, und Fahrzeug umfassend die Vorrichtung zum Steuern einer Trajektorienplanung eines Egofahrzeugs
EP3475778A4 (en) * 2016-06-28 2019-12-18 Cognata Ltd. CREATION AND SIMULATION OF A REALISTIC 3D VIRTUAL WORLD FOR DRIVING SELF-CONDUCTIVE SYSTEMS
US10019655B2 (en) * 2016-08-31 2018-07-10 Adobe Systems Incorporated Deep-learning network architecture for object detection
US10346727B2 (en) * 2016-10-28 2019-07-09 Adobe Inc. Utilizing a digital canvas to conduct a spatial-semantic search for digital visual media
EP3559600A2 (en) * 2016-12-23 2019-10-30 Mobileye Vision Technologies Ltd. Navigational system with imposed liability constraints
US11009884B2 (en) * 2017-09-29 2021-05-18 Direct Current Capital LLC Method for calculating nominal vehicle paths for lanes within a geographic region

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006315491A (ja) * 2005-05-11 2006-11-24 Toyota Motor Corp 車両用走行制御装置
WO2016067336A1 (ja) * 2014-10-27 2016-05-06 日産自動車株式会社 走行制御情報のデータ構造及び走行制御装置
JP2016207016A (ja) * 2015-04-24 2016-12-08 日産自動車株式会社 走行制御装置およびデータ構造
JP2017081421A (ja) * 2015-10-28 2017-05-18 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
JP2017149254A (ja) * 2016-02-24 2017-08-31 トヨタ自動車株式会社 車両制御装置
WO2017163538A1 (ja) * 2016-03-25 2017-09-28 ソニー株式会社 情報処理装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126646A (ja) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. 人の走行データをトレーニングデータとして利用して、強化学習を支援することによりカスタマイズ型経路プランニングを遂行する学習方法及び学習装置
KR20210048647A (ko) * 2019-10-23 2021-05-04 국민대학교산학협력단 사용자 관점의 자율주행 정보 제공 장치 및 방법
KR102255595B1 (ko) * 2019-10-23 2021-05-26 국민대학교산학협력단 사용자 관점의 자율주행 정보 제공 장치 및 방법
JP2022547611A (ja) * 2019-11-14 2022-11-14 エヌイーシー ラボラトリーズ アメリカ インク 道路シーンにおける多様な長期将来軌道のシミュレーション
JP7471397B2 (ja) 2019-11-14 2024-04-19 エヌイーシー ラボラトリーズ アメリカ インク 道路シーンにおける多様な長期将来軌道のシミュレーション
WO2022180901A1 (ja) * 2021-02-24 2022-09-01 日立Astemo株式会社 シミュレーション方法及び装置

Also Published As

Publication number Publication date
CN109649402A (zh) 2019-04-19
US10739776B2 (en) 2020-08-11
JP7231372B2 (ja) 2023-03-01
CN109649402B (zh) 2023-06-02
US20190113929A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
JP7231372B2 (ja) 自律走行車ポリシー生成
US11900797B2 (en) Autonomous vehicle planning
Zhan et al. A non-conservatively defensive strategy for urban autonomous driving
CN110861634B (zh) 交互感知决策
CN109624990B (zh) 用于基于关键帧的自主车辆操作的系统及计算机实现方法
US20220363279A1 (en) Method for combating stop-and-go wave problem using deep reinforcement learning based autonomous vehicles, recording medium and device for performing the method
KR20200094641A (ko) 강화 학습에 기초하여 협업 주행에서 다중 에이전트 센서 퓨전을 수행하는 방법 및 장치
US20200189597A1 (en) Reinforcement learning based approach for sae level-4 automated lane change
US11866070B2 (en) Vehicle control method and apparatus, storage medium, and electronic device
US20200097015A1 (en) System and method for motion planning of an autonomous driving machine
Wang et al. Cooperative lane changing via deep reinforcement learning
US20210271988A1 (en) Reinforcement learning with iterative reasoning for merging in dense traffic
DE102018217004A1 (de) Autonome Fahrzeugstrategiegenerierung
US20220135086A1 (en) Conditional agent trajectory prediction
CN109143852A (zh) 城市环境下智能驾驶车辆环境自适应汇入方法
Venkatesh et al. Connected and automated vehicles in mixed-traffic: Learning human driver behavior for effective on-ramp merging
Fang et al. Ontology-based reasoning approach for long-term behavior prediction of road users
Mani et al. Learning adaptive driving behavior using recurrent deterministic policy gradients
Brunoud et al. Comparison of deep reinforcement learning methods for safe and efficient autonomous vehicles at pedestrian crossings
US20220153303A1 (en) Methods and Systems for Determining a Maneuver to be Executed by an Autonomous Vehicle
Youssef et al. Deep reinforcement learning with external control: Self-driving car application
CN114114954A (zh) 一种无人设备的控制方法及装置
Alagumuthukrishnan et al. Reliable and efficient lane changing behaviour for connected autonomous vehicle through deep reinforcement learning
Huang Safe intention-aware maneuvering of autonomous vehicles
Deng et al. Deep Reinforcement Learning Based Decision-Making Strategy of Autonomous Vehicle in Highway Uncertain Driving Environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7231372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150