JP2022048416A - 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 - Google Patents
自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 Download PDFInfo
- Publication number
- JP2022048416A JP2022048416A JP2020154225A JP2020154225A JP2022048416A JP 2022048416 A JP2022048416 A JP 2022048416A JP 2020154225 A JP2020154225 A JP 2020154225A JP 2020154225 A JP2020154225 A JP 2020154225A JP 2022048416 A JP2022048416 A JP 2022048416A
- Authority
- JP
- Japan
- Prior art keywords
- inference
- vehicle
- model
- learning
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000002787 reinforcement Effects 0.000 claims description 30
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 238000010801 machine learning Methods 0.000 abstract description 22
- 238000012360 testing method Methods 0.000 description 59
- 238000012545 processing Methods 0.000 description 30
- 230000005540 biological transmission Effects 0.000 description 26
- 230000009471 action Effects 0.000 description 21
- 230000004048 modification Effects 0.000 description 20
- 238000012986 modification Methods 0.000 description 20
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000013500 data storage Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000006399 behavior Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 238000000465 moulding Methods 0.000 description 6
- 238000007667 floating Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000011478 gradient descent method Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F02—COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
- F02D—CONTROLLING COMBUSTION ENGINES
- F02D29/00—Controlling engines, such controlling being peculiar to the devices driven thereby, the devices being other than parts or accessories essential to engine operation, e.g. controlling of engines by signals external thereto
- F02D29/02—Controlling engines, such controlling being peculiar to the devices driven thereby, the devices being other than parts or accessories essential to engine operation, e.g. controlling of engines by signals external thereto peculiar to engines driving vehicles; peculiar to engines driving variable pitch propellers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M17/00—Testing of vehicles
- G01M17/007—Wheeled or endless-tracked vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Control Of Vehicle Engines Or Engines For Specific Uses (AREA)
- Feedback Control In General (AREA)
Abstract
Description
モードは、例えば、走行開始から経過した時間と、その時に到達すべき車速との関係として、グラフにより表わすことが可能である。この到達すべき車速は、車両へ与えられる達成すべき速度に関する指令という観点で、指令車速と呼ばれることがある。
上記のような、燃費や排出ガスに関する試験は、シャシーダイナモメータ上に車両を載置し、車両に搭載された自動操縦ロボット、所謂ドライブロボット(登録商標)により、モードに従って車両を運転させることにより行われる。
例えば、特許文献1には、人間らしいペダル操作を行うドライバモデルを強化学習によって構築することが可能な車輌用走行シミュレーション装置、ドライバモデル構築方法及びドライバモデル構築プログラムが開示されている。
より詳細には、車輌用走行シミュレーション装置は、ドライバモデルのゲインの値を変更させながら、車輌モデルを複数回走行させ、この時に変更されたゲインの値を報酬値に基づいて評価することによって、ドライバモデルのゲインの設定を自動的に行う。上記ゲインの値は、車速の追従性を評価する車速報酬関数のみならず、アクセルペダルの操作の滑らかさを評価するアクセル報酬関数、ブレーキペダルの操作の滑らかさを評価するブレーキ報酬関数によっても評価が行われる。
特許文献1等において用いられる車両モデルとしては、通常、車両の各構成要素に対して、動作を模した物理モデルを各々作成し、これらを組み合わせた物理モデルとして作成される。
仮想環境の再現精度向上に大きな影響を有する実際の環境の特性として、処理時間が挙げられる。
例えば、実車両と車両モデルとは、何らかの操作が入力されてから、これに対応して走行状態が変化するまでの時間に、差異がある。これら実車両と車両モデルに限らず、実際の環境と仮想環境に個別に、例えばドライブロボットと、これを模擬動作するドライブロボットモデルのような、互いに対応する処理体系が設けられている場合には、これらの間には少なからず処理時間の際が生じ得る。
ドライブロボットと実車両の間のみならず、例えば操作推論学習モデルとドライブロボットあるいはドライブロボットモデルの間や、実車両あるいは車両モデルと操作推論学習モデルの間でのデータ伝達に要する時間に関しても、これらは、実際の環境と仮想環境で異なる値となり得る。
このように、仮想環境で操作推論学習モデルが推論した操作をドライブロボットモデルに入力して車両モデルを操作し、操作後の走行状態である模擬走行状態を取得して操作推論学習モデルに適用するまでの処理時間は、実際の環境で操作推論学習モデルが推論した操作をドライブロボットに入力して実車両を操作し、操作後の実際の走行状態を取得して操作推論学習モデルに適用するまでの処理時間とは異なった、多くの場合においてはより短い時間となり得る。
このような場合においては、操作推論学習モデルがアクセルペダルの操作を推論した後の、実際の試験環境における、実際の走行状態が取得されるまでの反応が、仮想環境の場合に比べると遅くなる。このため、実際の環境においては、入力された操作に対応して正しく反応しようとしているにもかかわらず、操作推論学習モデルは実際の環境から想定された程度の十分な反応がないと認識する。結果として、操作推論学習モデルは、実際の環境に対し、より大きな反応を求めて、必要以上に大きくアクセルペダルを操作してしまう。
必要以上に大きな操作は、実車両に負担をかけるため、できるだけ出力しないように、低減するのが望ましい。
したがって、仮想環境においては、処理時間を、実際の環境にあわせて調整するように、構築することが必要となる。
あるいは、仮想環境を、実環境全体の、遅延も含めた、総合的な動作を再現するように構築することも考えられる。しかし、この場合においては、例えば車種が変わる等の、実車両を含めた、試験の対象となる試験環境が部分的に変わるだけで、仮想環境全体の再度の学習が必要となる。このため、実現が容易ではない。
本実施形態においては、自動操縦ロボットとしては、ドライブロボット(登録商標)を用いているため、以下、自動操縦ロボットをドライブロボットと記載する。
車両2は、床面上に設けられている。シャシーダイナモメータ3は、床面の下方に設けられている。車両2は、車両2の駆動輪2aがシャシーダイナモメータ3の上に載置されるように、位置づけられている。車両2が走行し駆動輪2aが回転する際には、シャシーダイナモメータ3が反対の方向に回転する。
ドライブロボット4は、車両2の運転席2bに搭載されて、車両2を走行させる。ドライブロボット4は、第1アクチュエータ4cと第2アクチュエータ4dを備えており、これらはそれぞれ、車両2のアクセルペダル2cとブレーキペダル2dに当接するように設けられている。
学習制御装置11は、ドライブロボット4を、車両2が規定された指令車速に従って走行するように制御する。すなわち、学習制御装置11は、車両2のアクセルペダル2cとブレーキペダル2dの開度を変更することで、規定された走行パターン(モード)に従うように、車両2を走行制御する。より詳細には、学習制御装置11は、走行開始から時間が経過するに従い、各時間に到達すべき車速である指令車速に従うように、車両2を走行制御する。
学習制御装置11は、ドライブロボット制御部20と学習部30を備えている。
ドライブロボット制御部20は、ドライブロボット4の制御を行うための制御信号を生成し、ドライブロボット4に送信することで、ドライブロボット4を制御する。学習部30は、後に説明するような機械学習を行い、車両学習モデル、操作推論学習モデル、及び価値推論学習モデルを生成する。上記のような、ドライブロボット4の制御を行うための制御信号は、操作推論学習モデルにより生成される。
ドライブロボット制御部20は、例えば、ドライブロボット4の筐体外部に設けられた、コントローラ等の情報処理装置である。学習部30は、例えばパーソナルコンピュータ等の情報処理装置である。
試験装置1は、既に説明したような車両2、シャシーダイナモメータ3、及びドライブロボット4に加え、車両状態計測部5を備えている。車両状態計測部5は、車両2の状態を計測する各種の計測装置である。車両状態計測部5としては、例えばアクセルペダル2cやブレーキペダル2dの操作量を計測するためのカメラや赤外線センサなどであり得る。
学習制御装置11の、学習データ記憶部35以外の各構成要素は、例えば上記の各情報処理装置内のCPUにより実行されるソフトウェア、プログラムであってよい。また、学習データ記憶部35は、上記各情報処理装置内外に設けられた半導体メモリや磁気ディスクなどの記憶装置により実現されていてよい。
仮想装置モデル50の、車両モデル52、ドライブロボットモデル51及びシャシーダイナモメータモデル53は、試験装置1の、車両2、ドライブロボット4、シャシーダイナモメータ3に対応して、これらを模擬動作するように構成された、例えばプログラムである。すなわち、仮想装置モデル50は、物理的に現存する実際の環境である試験装置(実環境)1に対し、これを模擬動作するように構成された、仮想環境である。
すなわち、学習システム10は大別して、機械学習時における操作の学習と、性能測定のために車両を走行制御させる際における操作の推論の、2通りの動作を行う。説明を簡単にするために、以下ではまず、操作の学習時における、学習システム10の各構成要素の説明をした後に、車両の性能測定に際して操作を推論する場合での各構成要素の挙動について説明する。
学習制御装置11は、操作の学習に先立ち、学習時に使用する走行実績データ(走行実績)を、走行実績として収集する。詳細には、ドライブロボット制御部20が、アクセルペダル2c及びブレーキペダル2dの、車両特性計測用の操作パターンを生成して、これにより車両2を走行制御し、走行実績データを収集する。
ペダル操作パターン生成部21は、ペダル2c、2dの、車両特性計測用の操作パターンを生成する。ペダル操作パターンとしては、例えば車両2と類似する他の車両において、WLTC(Worldwide harmonized Light vehicles Test Cycle)モードなどによって走行した際のペダル操作の実績値を使用することができる。
ペダル操作パターン生成部21は、生成したペダル操作パターンを、車両操作制御部22へ送信する。
ドライブロボット4は、アクチュエータ4c、4dへの指令を受信すると、これに基づいて車両2をシャシーダイナモメータ3上で走行させる。
駆動状態取得部23は、例えばアクチュエータ4c、4dの位置等の、ドライブロボット4の実際の駆動状態を取得する。車両2が走行することにより、車両2の走行状態は逐次変化する。駆動状態取得部23と、車両状態計測部5、及びシャシーダイナモメータ3に設けられた様々な計測器により、車両2の走行状態が計測される。例えば、駆動状態取得部23は上記のように、アクセルペダル2cの検出量と、ブレーキペダル2dの検出量を、走行状態として計測する。また、シャシーダイナモメータ3に設けられた計測器は、車速を走行状態として計測する。
計測された車両2の走行状態は、学習部30の学習データ成形部33へ送信される。
学習データ成形部33は、車両2の走行状態を受信し、受信したデータを後の様々な学習において使用されるフォーマットに変換して、走行実績データとして学習データ記憶部35に保存する。
学習部30の、仮想装置モデル50の車両モデル52は、学習データ生成部34から成形された走行実績データを取得し、これを用いて機械学習器60を機械学習して、車両学習モデル60を生成する。車両学習モデル60は、車両2の実際の走行実績である走行実績データを基に車両2を模擬動作するように設定、本実施形態においては機械学習され、車両2に対する操作を受信すると、これを基に、車両2を模した模擬走行状態を出力する。すなわち、車両モデル52の機械学習器60は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される、適切な学習パラメータが学習された学習済みモデル60を生成するものである。
本実施形態においては、車両学習モデル60は、ニューラルネットワークで実現されている。
以下、説明を簡単にするため、車両モデル52が備えている機械学習器と、これが学習されて生成される学習モデルをともに、車両学習モデル60と呼称する。
入力層61は、上記のような車速の系列である車速系列i1、アクセルペダル2cの操作量の系列であるアクセルペダル操作量系列i2、及びブレーキペダル2dの操作量の系列であるブレーキペダル操作量系列i3の各々に対応する入力ノードを備えている。
上記のように、各入力i1、i2、i3は系列であり、それぞれ、複数の値により実現されている。例えば、図3においては、一つの矩形として示されている、車速系列i1に対応する入力は、実際には、車速系列i1の複数の値の各々に対応するように、入力ノードが設けられている。
車両モデル52は、各入力ノードに、対応する走行実績データの値を格納する。
中間層62の各ノードにおいては、前段の層(例えば、第1中間層62aの場合は入力層61、第2中間層62bの場合は第1中間層62a)の各ノードから、この前段の層の各ノードに格納された値と、前段の層の各ノードから当該中間層62のノードへの重みを基にした演算がなされて、当該中間層62のノード内に演算結果が格納される。
出力層63においても、中間層62の各々と同様な演算が行われ、出力層63に備えられた各出力ノードに演算結果が格納される。
本実施形態においては、車両学習モデル60の出力は、基準時刻から所定の第3時間だけ将来の時刻(後の時刻)までの間の、推定された車速の系列である推定車速系列o1と、アクセルペダル2cの検出量の系列であるアクセルペダル検出量系列o2、及びブレーキペダル2dの検出量の系列であるブレーキペダル検出量系列o3を含む、模擬走行状態oである。この、図3においては、一つの矩形として示されている模擬走行状態oの各々は、実際には、上記の複数の値の各々に対応するように、出力ノードが設けられている。
より詳細には、車両モデル52は、別途学習データ記憶部35から学習データ生成部34を介して送信された、基準時刻から第3時間だけ将来の時刻までの間の走行実績を、教師データとして受信する。車両モデル52は、教師データと、車両学習モデル60が出力した模擬走行状態oの平均二乗誤差が小さくなるように、重みやバイアスの値等、ニューラルネットワークを構成する各パラメータの値を、誤差逆伝搬法、確率的勾配降下法により調整する。
車両モデル52は、車両学習モデル60の学習を繰り返しつつ、教師データと模擬走行状態oの最小二乗誤差を都度計算し、これが所定の値よりも小さければ、車両学習モデル60の学習を終了する。
学習システム10は、既に学習が終了した車両学習モデル60が出力した模擬走行状態を操作推論学習モデル70に適用することで、操作推論学習モデル70を事前に強化学習する。後に説明するように、操作推論学習モデル70の強化学習が進行して事前の強化学習が終了した後に、操作推論学習モデル70の出力した推論操作を基に実際に車両2を走行させて取得された走行状態を操作推論学習モデル70に適用することで、操作推論学習モデル70を更に強化学習する。このように、学習システム10は、操作推論学習モデル70の学習段階に応じて、推論操作の実行対象及び走行状態の取得対象を、車両学習モデル60から実車両2へと変更する。
車両学習モデル60の学習により、仮想装置モデル50は、全体として、実環境としての試験装置1の各々を模擬動作するように構成されている。仮想装置モデル50は、推論操作を受信する。
ドライブロボットモデル51は、ドライブロボット4を模擬動作するように構成されている。ドライブロボットモデル51は、推論操作調整部56から受信した、時間が調整された推論操作を基に、操作系の表現を車両2に対する実際のペダル操作量の値へと変換して、入力操作を生成する。より詳細には、ドライブロボットモデル51は、入力操作としてペダル操作量の系列であるアクセルペダル操作量系列i2とブレーキペダル操作量系列i3を生成し、車両モデル入力調整部57に送信する。
シャシーダイナモメータモデル53は、シャシーダイナモメータ3を模擬動作するように構成されている。シャシーダイナモメータ3は、模擬走行中の車両学習モデル60の車速を検出しつつ、これを内部に随時記録している。シャシーダイナモメータモデル53は、この過去の車速の記録から車速系列i1を生成し、車両モデル入力調整部57に送信する。
車両モデル52は、車速系列i1と入力操作i2、i3を受信して、これらを車両学習モデル60に入力する。車両学習モデル60が模擬走行状態oを出力すると、車両モデル52は模擬走行状態oをシャシーダイナモメータモデル53と模擬走行状態調整部58に送信する。
模擬走行状態調整部58は、後に説明するように、模擬走行状態oが出力されてから操作推論学習モデル70に適用されるまでの時間を調整する。
模擬走行状態調整部58によって時間が調整された模擬走行状態oは、推論データ成形部32と強化学習部40に送信される。
このように、仮想装置モデル50は、推論操作が入力されると、推論操作を基に、車両モデル52により模擬走行状態oを出力する。
推論データ成形部32は、模擬走行状態oと指令車速系列を受信し、適切に成形した後に強化学習部40に送信する。
強化学習部40は、模擬走行状態oと指令車速系列を、走行状態として操作内容推論部41に送信する。
本実施形態においては、操作推論学習モデル70は、走行状態の各々に対応する入力ノードを備えた入力層と、複数の中間層、及び複数の出力ノードを有する出力層を備えた、ニューラルネットワークである。
入力ノードの各々に、対応する走行状態の値が入力されると、重みを基にした演算がなされて、入力ノードの次の段として設けられた中間層の、中間ノードの各々に、演算結果が格納される。このような演算と、次の段の中間ノードへの演算結果の格納が、各中間層に対して順次実行される。最終的には、最終段の中間層内の中間ノードに格納された演算結果を基に、同様な演算がなされ、その結果が出力ノードに格納される。
操作推論学習モデル70の出力ノードの各々は、操作の各々に対応するように設けられている。本実施形態においては、操作の対象は、アクセルペダル2cとブレーキペダル2dであり、これに対応して、操作推論学習モデル70は、操作として、例えばアクセルペダル操作の系列とブレーキペダル操作の系列を推論する。
操作推論学習モデル70の学習、すなわち誤差逆伝搬法、確率的勾配降下法によるニューラルネットワークを構成する各パラメータの値の調整は、現段階においては行われず、操作推論学習モデル70は操作を推論するのみである。操作推論学習モデル70の学習は、後に、価値推論学習モデル80の学習に伴って行われる。
報酬計算部43は、走行状態、これに対応して推論された推論操作、当該推論操作を基に新たに生成された走行状態、及び計算した報酬を、学習データ成形部33に送信する。学習データ成形部33は、これらを適切に成形して学習データ記憶部35に保存する。これらのデータは、後述する価値推論学習モデル80の学習に使用される。
このようにして、操作内容推論部41による推論操作の推論と、この推論操作に対応した、車両モデル52による模擬走行状態oの推論、及び報酬の計算が、価値推論学習モデル80の学習に十分なデータが蓄積されるまで、繰り返し行われる。
強化学習部40は全体として、操作推論学習モデル70が推論した推論操作がどの程度適切であったかを示す行動価値を計算し、操作推論学習モデル70が、この行動価値が高くなるような推論操作を出力するように、強化学習を行う。行動価値は、走行状態と、これに対する推論操作を引数として、報酬が大きいほど行動価値を高くするように設計された関数として表わされる。本実施形態においては、この関数の計算を、走行状態と推論操作を入力として、行動価値を出力するように設計された、関数近似器としての学習モデル80により行う。
状態行動価値推論部42は、成形された学習データを受信し、価値推論学習モデル80を機械学習させる。
本実施形態においては、価値推論学習モデル80は、走行状態と推論操作の各々に対応する入力ノードを備えた入力層と、複数の中間層、及び行動価値に対応する出力ノードを備えた、ニューラルネットワークである。価値推論学習モデル80は、操作推論学習モデル70と同様な構造のニューラルネットワークにより実現されているため、構造上の詳細な説明を割愛する。
価値推論学習モデル80の学習が進むと、価値推論学習モデル80は、より適切な行動価値の値を出力するようになる。すなわち、価値推論学習モデル80が出力する行動価値の値が学習前とは変わるため、これに伴い、行動価値が高くなるような推論操作を出力するように設計された操作推論学習モデル70を更新する必要がある。このため、操作内容推論部41は操作推論学習モデル70を学習する。
具体的には、操作内容推論部41は、例えば行動価値の負値を損失関数とし、これをできるだけ小さくするような、すなわち行動価値が大きくなるような推論操作を出力するように、重みやバイアスの値等、ニューラルネットワークを構成する各パラメータの値を、誤差逆伝搬法、確率的勾配降下法により調整して、操作推論学習モデル70を学習させる。
操作推論学習モデル70が学習され更新されると、出力される推論操作が変化するため、再度走行データを蓄積し、これを基に価値推論学習モデル80を学習する。
このように、学習部30は、操作推論学習モデル70と価値推論学習モデル80の学習を繰り返すことにより、これら学習モデル70、80を強化学習する。
操作推論学習モデル70が精度よく学習されるためには、仮想装置モデル50において、試験装置1の再現精度を高める必要がある。この際に特に重要となるのは、試験装置1における処理時間を、仮想装置モデル50においても正確に再現することである。
仮想環境で、すなわち仮想装置モデル50において、操作推論学習モデル70が推論した推論操作をドライブロボットモデル51に入力して車両モデル52を操作し、操作後の走行状態である模擬走行状態oを取得して操作推論学習モデル70に適用するまでの処理時間は、実際の環境で、すなわち試験装置1において、操作推論学習モデル70が推論した推論操作をドライブロボット4に入力して車両2を操作し、操作後の実際の走行状態を取得して操作推論学習モデル70に適用するまでの処理時間とは異なった、多くの場合においてはより短い時間となり得る。
このため、操作推論学習モデル70が例えばアクセルペダル2cの操作を推論した後の、実際の試験装置1における、実際の走行状態が取得されるまでの反応が、仮想装置モデル50の場合に比べると遅くなることが想定される。これにより、特に本実施形態のように、操作推論学習モデル70の学習段階に応じて、推論操作の実行対象及び走行状態の取得対象を、車両学習モデル60から実車両2へと変更するような場合には、次のような不都合が生じる。すなわち、試験装置1においては、入力された推論操作に対応して正しく反応しようとしているにもかかわらず、操作推論学習モデル70は試験装置1から想定された程度の十分な反応がないと認識する。結果として、操作推論学習モデル70は、試験装置1に対し、より大きな反応を求めて、必要以上に大きくアクセルペダルを操作するような、推論操作を推論してしまう。
このような、実際の試験装置1を用いた際に必要以上に大きな操作が推論されるのを抑制するために、調整部55は、仮想装置モデル50を用いて操作推論学習モデル70を学習させる際に、推論操作や模擬走行状態oが使用される時間を調整する。
同様に、事前学習時に、仮想装置モデル50を用いて操作推論学習モデル70を学習する際にも、操作推論学習モデル70の出力した推論操作は、仮想装置モデル50に送信されて、ドライブロボットモデル51に入力される。このため、仮想装置モデル50を用いた場合にも、推論操作が推論されてからドライブロボットモデル51へ入力されるまでの、一定の、仮想環境での伝達時間が必要である。
ここで、本実施形態においては、ドライブロボット4は、学習制御装置11とは独立して別個に設けられた装置であるが、ドライブロボットモデル51は、学習制御装置11内に設けられた、学習制御装置11の構成要素である。したがって、操作推論学習モデル70によって推論された推論操作の、実環境での伝達時間は、仮想環境での伝達時間よりも長いものとなり得る。
より詳細には、推論操作調整部56は、操作推論学習モデル70が出力した推論操作が、ドライブロボットモデル51に、推論操作が出力された時刻から上記の実環境での伝達時間後に、入力されるように、推論操作の伝達時間を遅延させる。
同様に、事前学習時に、仮想装置モデル50を用いて操作推論学習モデル70を学習する際にも、ドライブロボットモデル51は、入力操作を車両モデル52に入力することで、車両モデル52を操作する。このため、仮想装置モデル50を用いた場合にも、入力操作が車両モデル52に入力されるまでの、一定の、仮想環境での作動時間が必要である。
ここで、本実施形態においては、ドライブロボット4は上記のように、車両2を機械的に操作するのに対し、ドライブロボットモデル51と車両モデル52は、同一の学習制御装置11内に設けられた、プログラムなどの構成要素である。したがって、車両2の操作に要する、実環境での作動時間は、車両モデル52の操作に要する、仮想環境での作動時間よりも長いものとなり得る。
より詳細には、車両モデル入力調整部57は、ドライブロボットモデル51が出力した入力操作が、車両モデル52に、入力操作が出力された時刻から上記の実環境での作動時間後に、入力されるように、入力操作の伝達時間を遅延させる。
同様に、事前学習時に、仮想装置モデル50を用いて操作推論学習モデル70を学習する際にも、車両モデル52がドライブロボットモデル51によって操作、走行された結果として、模擬走行状態oが取得され、最終的には操作推論学習モデル70に入力される。このため、仮想装置モデル50を用いた場合にも、模擬走行状態oが取得されてから操作推論学習モデル70へ適用されるまでの、一定の、仮想環境での伝達時間が必要である。
ここで、本実施形態においては、車両2や車両2の走行状態を取得する車両状態計測部5は、学習制御装置11とは独立して別個に設けられた装置であるが、車両モデル52は、学習制御装置11内に設けられた、学習制御装置11の構成要素である。したがって、走行状態が操作推論学習モデル70に適用されるまでの、実環境での伝達時間は、模擬走行状態oが操作推論学習モデル70に適用されるまでの、仮想環境での伝達時間よりも、長いものとなり得る。
より詳細には、模擬走行状態調整部58は、車両モデル52が出力した模擬走行状態oが、操作推論学習モデル70に、模擬走行状態oが出力された時刻から上記の実環境での伝達時間後に、入力されるように、模擬走行状態oの伝達時間を遅延させる。
模擬走行状態調整部58は、リングメモリを備えている。リングメモリは、例えば、メモリ上で一定の長さの配列を確保し、当該配列の末尾を超えてアクセスがなされた際には、当該配列の先頭をアクセスするように構成されている。
模擬走行状態調整部58は、車両モデル52が模擬走行状態oを推論するたびに、リングメモリの先頭位置に模擬走行状態oを格納し、先頭位置を新たに格納された模擬走行状態oの先に移動させる。模擬走行状態oは車両モデル52によって続々と推論されるが、格納対象がリングメモリであるため、これを適切に設計した際には、メモリの末尾を意識することなく、データの格納が可能である。
Tdelay = (Lnum / Lstate) × Tsim
すなわち、模擬走行状態調整部58は、リングメモリから、データサイズLnumだけ先頭位置から後方に位置して格納された模擬走行状態oを取得し、これを模擬走行状態oとして出力することで、模擬走行状態oの出力を時間Tdelayだけ遅延させている。
ここで、リングメモリの大きさを、上記の総データサイズLnumと一致させると、データサイズLnumだけ先頭位置から後方に位置して格納された模擬走行状態oを取得する際に、実際には、リングメモリの先頭位置に現在格納されている模擬走行状態oを取得すればよいので、好適である。すなわち、この場合には、模擬走行状態調整部58の実装が容易となる。
車両操作制御部22は、受信した推論操作を、ドライブロボット4の第1及び第2アクチュエータ4c、4dへの指令に変換して、ドライブロボット4に送信する。
ドライブロボット4は、アクチュエータ4c、4dへの指令を受信すると、これに基づいて車両2をシャシーダイナモメータ3上で走行させる。
シャシーダイナモメータ3と車両状態計測部5は、車両2の車速、アクセルペダル2cとブレーキペダル2dの操作量を検出して各々の系列を生成し、推論データ成形部32に送信する。
指令車速生成部31は、指令車速系列を生成して推論データ成形部32に送信する。
推論データ成形部32は、各系列を受信し、適切に成形した後に走行状態として、強化学習部40に送信する。
学習部30は、学習データの蓄積と、操作推論学習モデル70と価値推論学習モデル80の学習を繰り返すことにより、これら学習モデル70、80を強化学習する。
指令車速生成部31は、指令車速系列を生成して推論データ成形部32に送信する。
推論データ成形部32は、車速、アクセルペダル2cの検出量、ブレーキペダル2dの検出量等と、指令車速系列を受信し、適切に成形した後に走行状態として、強化学習部40に送信する。
操作内容推論部41は、走行状態を受信すると、これを基に、学習済みの操作推論学習モデル70により、車両2の推論操作を推論する。
操作内容推論部41は、推論した推論操作を、車両操作制御部22へ送信する。
車両操作制御部22は、操作内容推論部41から推論操作を受信し、この推論操作に基づき、ドライブロボット4を操作する。
学習制御装置11は、操作の学習に先立ち、学習時に使用する走行実績データ(走行実績)を、走行実績として収集する。詳細には、ドライブロボット制御部20が、アクセルペダル2c及びブレーキペダル2dの、車両特性計測用の操作パターンを生成して、これにより車両2を走行制御し、走行実績データを収集する(ステップS1)。
車両モデル52は、学習データ生成部34から成形された走行実績データを取得し、これを用いて機械学習器60を機械学習して、車両学習モデル60を生成する(ステップS3)。
学習部30は、この事前学習としての、車両学習モデル60を推論操作の実行対象として用いた強化学習を、事前学習終了基準を満たすまで実行する。事前学習終了基準を満たさなければ(ステップS7のNo)、事前学習を継続する。事前学習終了基準が満たされると(ステップS7のYes)、事前学習を終了する。
また、本実施形態の学習制御方法は、車両2と、車両2に搭載されたドライブロボット(自動操縦ロボット)4とを備える試験装置(実環境)1と、車速を含む車両2の走行状態を基に、車両2を規定された指令車速に従って走行させるような、車両2の操作を推論する操作推論学習モデル70とに関し、ドライブロボット4は、操作推論学習モデル70が推論した推論操作を基に車両2を走行させ、操作推論学習モデル70を機械学習する、ドライブロボット4を制御する操作推論学習モデル70の学習方法であって、車両2を模擬動作するように設定され、推論操作を基に、車両2を模した走行状態である模擬走行状態oを出力する、車両モデル52を備えた、仮想装置モデル50において、推論操作が入力されると、推論操作を基に、車両モデル52により模擬走行状態oを出力し、当該模擬走行状態oを操作推論学習モデル70に適用することで、操作推論学習モデル70を機械学習し、試験装置1において、推論操作が推論されてから、推論操作がドライブロボット4に入力されて車両2が操作、走行され、車両2の走行状態が取得され、走行状態が操作推論学習モデル70に適用されるまでに要する実時間を基に、推論操作が推論されてから仮想装置モデル50において使用され、模擬走行状態oが出力されてから操作推論学習モデル70に適用されるまでの時間を調整する。
上記のような構成によれば、既に説明したように、試験装置1における、データの伝達に要する遅延時間や機械的な動作時間が、仮想装置モデル50において考慮され、結果として、試験装置1における処理時間が、仮想装置モデル50においても正確に再現される。このため、仮想装置モデル50における、入力された推論操作に対する反応を、試験装置1における反応に一致させるに際し、少なくとも、試験装置1と仮想装置モデル50の間の処理時間による影響は低減される。
更に、試験装置1と仮想装置モデル50の間の処理時間による影響が低減されるため、車両モデル52を学習させた後に、試験装置1と仮想装置モデル50の処理時間の差異が発覚し、車両モデル52を処理時間が試験装置1に適合するように再度学習するという事態の発生も抑制される。このため、実現が容易である。
したがって、車両モデル52を操作実行の対象として操作推論学習モデル70を機械学習するに際し、車両モデル52と実車両2との処理時間の差異に起因する操作推論学習モデル70の学習精度の低下を、容易に抑制可能である。
これに対し、本実施形態においては、上記のように、試験装置1と仮想装置モデル50の間の処理時間による影響が低減されるため、上記のような必要以上に大きな操作を抑制し、実車両への負担を低減可能である。
また、操作は、アクセルペダル2dとブレーキペダル2dのいずれか一方または双方のペダルの、ペダル操作量を含む。
また、車両モデル52は、車両2の実際の走行実績を基に車両2を模擬動作するように機械学習され、推論操作を基に模擬走行状態oを出力する、車両学習モデル60を備えている。
特に本実施形態においては、車両学習モデル60は、ニューラルネットワークで実現されている。
上記のような構成によれば、学習システム10を適切に実現可能である。
強化学習により学習される操作推論学習モデル70は、強化学習の初期段階においては、例えばペダル2c、2dを極端に高い頻度で操作するような、人間には不可能で、実車両に負担がかかる、好ましくない推論操作を出力する可能性がある。
上記のような構成によれば、このような強化学習の初期段階においては、当該車両学習モデル60が、操作推論学習モデル70が推論した推論操作を基に、車両2を模した走行状態sである模擬走行状態oを出力し、これを操作推論学習モデル70に適用することで、操作推論学習モデル70を事前に強化学習する。すなわち、強化学習の初期段階においては、実車両2を使用せずに、操作推論学習モデル70を強化学習することができる。したがって、実車両2の負担を低減可能である。
また、事前学習が終了すると、実車両2を使用して操作推論学習モデル70を更に強化学習するため、車両学習モデル60のみを使用して操作推論学習モデル70を強化学習する場合に比べると、操作推論学習モデル70により出力する操作の学習精度を向上することができる。
特に、上記のような構成においては、事前学習を、車両学習モデル60を推論操作の実行対象として行うため、事前学習の全過程において車両2を推論操作の実行対象とした場合に比べると、学習時間を低減可能である。
次に、上記実施形態として示したドライブロボットを制御する操作推論学習モデルの学習システム及び学習方法の第1変形例を説明する。図7は、本第1変形例における学習システムの、操作推論学習モデル70の事前学習時における処理の流れを記したブロック図である。本第1変形例における学習システムは、上記実施形態の学習システム10とは、調整部55Aが推論操作調整部56と車両モデル入力調整部57を備えておらず、模擬走行状態調整部58Aのみを備えている点が異なっている。
すなわち、本変形例における模擬走行状態調整部58Aは、試験装置1において、推論操作が推論されてから、推論操作がドライブロボット4に入力されて車両2が操作、走行され、車両2の走行状態が取得され、走行状態が操作推論学習モデル70に適用されるまでに要する実時間を基に、模擬走行状態oが出力されてから操作推論学習モデル70に適用されるまでの時間を調整する。
このように、本変形例における模擬走行状態調整部58Aは、仮想装置モデル50を、試験装置1に対応する1つの制御処理系と見做して、仮想装置モデル50全体における時間をまとめて調整している。
これに対し、本変形例においては、上記のように仮想装置モデル50全体の処理時間を測定し、測定結果を模擬走行状態調整部58Aに反映させればよいため、仮想装置モデル50の構築が容易である。
本変形例が、既に説明した実施形態と同様な他の効果を奏することは言うまでもない。
次に、上記実施形態として示したドライブロボットを制御する操作推論学習モデルの学習システム及び学習方法の第2変形例を説明する。本第2変形例における学習システムは、上記実施形態の学習システム10とは、調整部55が、推論操作の分解能を、仮想装置モデル50における分解能へと変換し、模擬走行状態oの分解能を、車両2に対して取得される走行状態の分解能へと変換する点が異なっている。
また、上記実施形態においては、模擬走行状態調整部58は、車両2の走行状態が取得されてから操作推論学習モデル70に適用されるまでの時間を基に、模擬走行状態oが出力されてから操作推論学習モデル70に適用されるまでの時間を調整していた。本変形例においては、模擬走行状態調整部58は、これに加えて、模擬走行状態oの分解能を、試験装置1における、例えばセンサや通信パケットのデータサイズに応じた、分解能へと変換する。
例えば仮想装置モデル50において、プログラムによって、試験装置1の各々の物理動作が記述され、再現される場合においては、各変数のデータ型としては、浮動小数点が使用される。推論操作調整部56においては、仮想装置モデル50に入力されるデータの型を浮動小数点へと変換する。逆に、模擬走行状態調整部58においては、仮想装置モデル50から出力するデータの型を浮動小数点から他の型へと変換する。
例えば、アクセルペダル2cに対する操作を想定した場合に、分解能を変換する前のペダル開度をPbase、変換後の1ビット分解能をBreal、分解能を変換した後の値をPchg、浮動小数点の変数を整数へと変換する関数をInteger()とすると、模擬走行状態調整部58においてデータの型を浮動小数点から他の型へと変換する場合に、次の式が適用可能である。
Pchg = Integer(Pbase / Breal) × Breal
これに対し、本変形例においては、調整部55によって、仮想装置モデル50の入出力の分解能を試験装置1にあわせて調整することができる。これにより、上記のような必要以上に大きな操作を抑制し、実車両への負担を低減可能である。
本変形例が、既に説明した実施形態と同様な他の効果を奏することは言うまでもない。
これに変えて、調整部55が車両モデル入力調整部57と模擬走行状態調整部58を備えておらず、推論操作調整部56のみを備えた構成としてもよい。この場合においては、推論操作調整部56が、推論操作が推論されてから、推論操作がドライブロボット4に入力されて車両2が操作、走行され、車両2の走行状態が取得され、走行状態が操作推論学習モデル70に適用されるまでに要する実時間を基に、模擬走行状態oが出力されてから操作推論学習モデル70に適用されるまでの時間を調整する。
このようにした場合においては、何らかの車両モデルが用意できる環境にあるのであれば、車両学習モデル60を機械学習させなくとも、操作推論学習モデル70を事前学習することができる。したがって、操作推論学習モデル70の学習が容易である。
2 車両
2c アクセルペダル
2d ブレーキペダル
3 シャシーダイナモメータ
4 ドライブロボット(自動操縦ロボット)
10 学習システム
11 学習制御装置
20 ドライブロボット制御部
30 学習部
40 強化学習部
41 操作内容推論部
42 状態行動価値推論部
43 報酬計算部
50 仮想装置モデル
51 ドライブロボットモデル(自動操縦ロボットモデル)
52 車両モデル
53 シャシーダイナモメータモデル
55、55A 調整部
56 推論操作調整部
57 車両モデル入力調整部
58、58A 模擬走行状態調整部
60 車両学習モデル
70 操作推論学習モデル
80 価値推論学習モデル
i1 車速系列
i2 アクセルペダル操作量系列(入力操作)
i3 ブレーキペダル操作量系列(入力操作)
o 模擬走行状態
Claims (8)
- 車両と、前記車両に搭載された自動操縦ロボットとを備える実環境と、車速を含む前記車両の走行状態を基に、前記車両を規定された指令車速に従って走行させるような、前記車両の操作を推論する操作推論学習モデルを備え、前記自動操縦ロボットは、前記操作推論学習モデルが推論した推論操作を基に当該車両を走行させ、前記操作推論学習モデルを機械学習する、自動操縦ロボットを制御する操作推論学習モデルの学習システムであって、
前記車両を模擬動作するように設定され、前記推論操作を基に、前記車両を模した前記走行状態である模擬走行状態を出力する、車両モデルを備えた、仮想装置モデルを備え、
前記仮想装置モデルは、前記推論操作が入力されると、当該推論操作を基に、前記車両モデルにより前記模擬走行状態を出力し、
当該模擬走行状態を前記操作推論学習モデルに適用することで、前記操作推論学習モデルを機械学習し、
前記実環境において、前記推論操作が推論されてから、当該推論操作が前記自動操縦ロボットに入力されて前記車両が操作、走行され、前記車両の前記走行状態が取得され、当該走行状態が前記操作推論学習モデルに適用されるまでに要する実時間を基に、前記推論操作が推論されてから前記仮想装置モデルにおいて使用され、前記模擬走行状態が出力されてから前記操作推論学習モデルに適用されるまでの時間を調整する、調整部を備えている、自動操縦ロボットを制御する操作推論学習モデルの学習システム。 - 前記仮想装置モデルは、前記自動操縦ロボットを模擬動作するように設定され、前記推論操作を入力として、前記車両モデルへ入力される入力操作を出力する、自動操縦ロボットモデルを更に備え、
前記調整部は、
前記推論操作が推論されてから、当該推論操作が前記自動操縦ロボットに入力されるまでの時間を基に、前記推論操作が推論されてから前記自動操縦ロボットモデルに入力されるまでの時間を調整する、推論操作調整部と、
前記推論操作が前記自動操縦ロボットに入力されてから前記車両が操作されるまでの時間を基に、前記入力操作が前記車両モデルに入力されるまでの時間を調整する、車両モデル入力調整部と、
前記車両の前記走行状態が取得されてから前記操作推論学習モデルに適用されるまでの時間を基に、前記模擬走行状態が出力されてから前記操作推論学習モデルに適用されるまでの時間を調整する、模擬走行状態調整部と、
を備えている、請求項1に記載の自動操縦ロボットを制御する操作推論学習モデルの学習システム。 - 前記調整部は、前記推論操作が推論されてから、当該推論操作が前記自動操縦ロボットに入力されて前記車両が操作、走行され、前記車両の前記走行状態が取得され、当該走行状態が前記操作推論学習モデルに適用されるまでに要する前記実時間を基に、前記模擬走行状態が出力されてから前記操作推論学習モデルに適用されるまでの時間を調整する、模擬走行状態調整部を備えている、請求項1に記載の自動操縦ロボットを制御する操作推論学習モデルの学習システム。
- 前記調整部は、前記推論操作の分解能を、前記仮想装置モデルにおける分解能へと変換し、前記模擬走行状態の分解能を、前記車両に対して取得される前記走行状態の分解能へと変換する、請求項1から3のいずれか一項に記載の自動操縦ロボットを制御する操作推論学習モデルの学習システム。
- 前記操作は、アクセルペダルとブレーキペダルのいずれか一方または双方のペダルの、ペダル操作量を含む、請求項1から4のいずれか一項に記載の自動操縦ロボットを制御する操作推論学習モデルの学習システム。
- 前記車両モデルは、前記車両を模擬動作するように機械学習され、前記推論操作を基に、前記模擬走行状態を出力する、車両学習モデルを備え、
前記車両学習モデルは、ニューラルネットワークで実現されている、請求項1から5のいずれか一項に記載の自動操縦ロボットを制御する操作推論学習モデルの学習システム。 - 前記操作推論学習モデルは、強化学習されている、請求項1から6のいずれか一項に記載の自動操縦ロボットを制御する操作推論学習モデルの学習システム。
- 車両と、前記車両に搭載された自動操縦ロボットとを備える実環境と、車速を含む前記車両の走行状態を基に、前記車両を規定された指令車速に従って走行させるような、前記車両の操作を推論する操作推論学習モデルとに関し、前記自動操縦ロボットは、前記操作推論学習モデルが推論した推論操作を基に当該車両を走行させ、前記操作推論学習モデルを機械学習する、自動操縦ロボットを制御する操作推論学習モデルの学習方法であって、
前記車両を模擬動作するように設定され、前記推論操作を基に、前記車両を模した前記走行状態である模擬走行状態を出力する、車両モデルを備えた、仮想装置モデルにおいて、前記推論操作が入力されると、当該推論操作を基に、前記車両モデルにより前記模擬走行状態を出力し、
当該模擬走行状態を前記操作推論学習モデルに適用することで、前記操作推論学習モデルを機械学習し、
前記実環境において、前記推論操作が推論されてから、当該推論操作が前記自動操縦ロボットに入力されて前記車両が操作、走行され、前記車両の前記走行状態が取得され、当該走行状態が前記操作推論学習モデルに適用されるまでに要する実時間を基に、前記推論操作が推論されてから前記仮想装置モデルにおいて使用され、前記模擬走行状態が出力されてから前記操作推論学習モデルに適用されるまでの時間を調整する、自動操縦ロボットを制御する操作推論学習モデルの学習方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020154225A JP6988969B1 (ja) | 2020-09-15 | 2020-09-15 | 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 |
PCT/JP2021/032055 WO2022059484A1 (ja) | 2020-09-15 | 2021-09-01 | 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020154225A JP6988969B1 (ja) | 2020-09-15 | 2020-09-15 | 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6988969B1 JP6988969B1 (ja) | 2022-01-05 |
JP2022048416A true JP2022048416A (ja) | 2022-03-28 |
Family
ID=79239752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020154225A Active JP6988969B1 (ja) | 2020-09-15 | 2020-09-15 | 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6988969B1 (ja) |
WO (1) | WO2022059484A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210114596A1 (en) * | 2019-10-18 | 2021-04-22 | Toyota Jidosha Kabushiki Kaisha | Method of generating vehicle control data, vehicle control device, and vehicle control system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060155734A1 (en) * | 2005-01-07 | 2006-07-13 | Grimes Michael R | Apparatus and methods for evaluating a dynamic system |
US20190278272A1 (en) * | 2016-11-30 | 2019-09-12 | SZ DJI Technology Co., Ltd. | Method, device, and system for object testing |
CN110795818A (zh) * | 2019-09-12 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 一种确定虚拟测试场景方法、装置、电子设备和存储介质 |
JP2020056737A (ja) * | 2018-10-04 | 2020-04-09 | 株式会社明電舎 | 自動操縦ロボットの制御装置及び制御方法 |
-
2020
- 2020-09-15 JP JP2020154225A patent/JP6988969B1/ja active Active
-
2021
- 2021-09-01 WO PCT/JP2021/032055 patent/WO2022059484A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060155734A1 (en) * | 2005-01-07 | 2006-07-13 | Grimes Michael R | Apparatus and methods for evaluating a dynamic system |
US20190278272A1 (en) * | 2016-11-30 | 2019-09-12 | SZ DJI Technology Co., Ltd. | Method, device, and system for object testing |
JP2020056737A (ja) * | 2018-10-04 | 2020-04-09 | 株式会社明電舎 | 自動操縦ロボットの制御装置及び制御方法 |
CN110795818A (zh) * | 2019-09-12 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 一种确定虚拟测试场景方法、装置、电子设备和存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210114596A1 (en) * | 2019-10-18 | 2021-04-22 | Toyota Jidosha Kabushiki Kaisha | Method of generating vehicle control data, vehicle control device, and vehicle control system |
US11654915B2 (en) * | 2019-10-18 | 2023-05-23 | Toyota Jidosha Kabushiki Kaisha | Method of generating vehicle control data, vehicle control device, and vehicle control system |
Also Published As
Publication number | Publication date |
---|---|
JP6988969B1 (ja) | 2022-01-05 |
WO2022059484A1 (ja) | 2022-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020183864A1 (ja) | 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 | |
US20220193895A1 (en) | Apparatus and methods for object manipulation via action sequence optimization | |
Wu et al. | Deep reinforcement learning on autonomous driving policy with auxiliary critic network | |
JP6908144B1 (ja) | 自動操縦ロボットの制御装置及び制御方法 | |
JP6954168B2 (ja) | 車両速度制御装置及び車両速度制御方法 | |
WO2022059484A1 (ja) | 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 | |
CN110687907B (zh) | 基于模型动态重构的智能汽车解耦预测控制器及其控制方法 | |
CN116382297A (zh) | 基于深度强化学习策略的带约束的混合车辆编队控制方法 | |
CN118193978A (zh) | 一种基于dqn深度强化学习算法的汽车路障规避方法 | |
JP2021143882A (ja) | 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 | |
JP7110891B2 (ja) | 自動操縦ロボットの制御装置及び制御方法 | |
US11718295B2 (en) | Automatic driving robot control device and control method | |
JP2021128510A (ja) | 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 | |
CN115562258A (zh) | 基于神经网络的机器人社会自适应路径规划方法及系统 | |
KR20230153481A (ko) | 판별기 모델의 앙상블을 사용한 강화 학습 | |
CN115081612A (zh) | 用以改进机器人策略学习的设备和方法 | |
Pretorius et al. | Towards an artificial neural network-based simulator for behavioural evolution in evolutionary robotics | |
JP2024001584A (ja) | 自動操縦ロボットの制御装置及び制御方法 | |
KR102719462B1 (ko) | 다관절 로봇의 구동을 위한 기구학 모델링 방법, 장치 및 컴퓨터 프로그램 | |
CN117444978B (zh) | 一种气动软体机器人的位置控制方法及其系统、设备 | |
KR20220163751A (ko) | 가상 드라이빙 시스템의 딥러닝 머신 및 그 운용방법 | |
Zhang et al. | Self-tuning Speed Tracking for Autonomous Vehicles Based on Cascaded GRU Predictive Control | |
WO2022044429A1 (ja) | モデルパラメータ学習方法 | |
JP2023043899A (ja) | 制御装置及び制御方法 | |
TW202314604A (zh) | 軌跡追蹤控制方法及控制系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210906 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211115 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6988969 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |