JP2021128510A - 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 - Google Patents

自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 Download PDF

Info

Publication number
JP2021128510A
JP2021128510A JP2020022384A JP2020022384A JP2021128510A JP 2021128510 A JP2021128510 A JP 2021128510A JP 2020022384 A JP2020022384 A JP 2020022384A JP 2020022384 A JP2020022384 A JP 2020022384A JP 2021128510 A JP2021128510 A JP 2021128510A
Authority
JP
Japan
Prior art keywords
vehicle
learning
learning model
error
inference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020022384A
Other languages
English (en)
Inventor
祥希 野田
Yoshiki Noda
祥希 野田
寛修 深井
Hironaga Fukai
寛修 深井
健人 吉田
Taketo Yoshida
健人 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP2020022384A priority Critical patent/JP2021128510A/ja
Publication of JP2021128510A publication Critical patent/JP2021128510A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Abstract

【課題】車両学習モデルの学習に要する時間を低減する。【解決手段】車両2の走行状態を基に指令車速に従って走行させる操作を推論する操作推論学習モデル70と、操作を基に車両を走行させる自動操縦ロボット4を備える学習システム10であって、車両の走行実績を基に操作が入力されると車両を模した模擬走行状態を出力するように機械学習される車両学習モデル60を備え、学習モデルを機械学習する学習部30と、車両学習モデルが出力する模擬走行状態と車両を走行させたときの実績データの誤差を判定閾値と比較する誤差評価部91と、誤差が閾値以上の場合に誤差検出操作の関連操作を自動操縦ロボットに適用して追加学習データを取得する追加学習データ取得部93とを備える。学習部は、誤差が閾値以上の場合に追加学習データにより車両学習モデルを更に学習し、閾値より小さい場合に車両学習モデルが出力した模擬走行状態を操作推論学習モデルに適用する。【選択図】図2

Description

本発明は、自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法に関する。
一般に、普通自動車などの車両を製造、販売する際には、国や地域により規定された、特定の走行パターン(モード)により車両を走行させた際の燃費や排出ガスを測定し、これを表示する必要がある。
モードは、例えば、走行開始から経過した時間と、その時に到達すべき車速との関係として、グラフにより表わすことが可能である。この到達すべき車速は、車両へ与えられる達成すべき速度に関する指令という観点で、指令車速と呼ばれることがある。
上記のような、燃費や排出ガスに関する試験は、シャシーダイナモメータ上に車両を載置し、車両に搭載された自動操縦ロボット、所謂ドライブロボット(登録商標)により、モードに従って車両を運転させることにより行われる。
指令車速には、許容誤差範囲が規定されている。車速が許容誤差範囲を逸脱すると、その試験は無効となるため、自動操縦ロボットの制御には、指令車速への高い追従性が求められる。このため、自動操縦ロボットを、例えば強化学習により学習された学習モデルを用いて制御することがある。
例えば、特許文献1には、人間らしいペダル操作を行うドライバモデルを強化学習によって構築することが可能な車輌用走行シミュレーション装置、ドライバモデル構築方法及びドライバモデル構築プログラムが開示されている。
より詳細には、車輌用走行シミュレーション装置は、ドライバモデルのゲインの値を変更させながら、車輌モデルを複数回走行させ、この時に変更されたゲインの値を報酬値に基づいて評価することによって、ドライバモデルのゲインの設定を自動的に行う。上記ゲインの値は、車速の追従性を評価する車速報酬関数のみならず、アクセルペダルの操作の滑らかさを評価するアクセル報酬関数、ブレーキペダルの操作の滑らかさを評価するブレーキ報酬関数によっても評価が行われる。
特許文献1等において用いられる車両モデルとしては、通常、車両の各構成要素に対して、動作を模した物理モデルを各々作成し、これらを組み合わせた物理モデルとして作成される。
特許文献1に開示されたような装置においては、車両の操作を推論する操作推論学習モデルを、車両モデルを基に学習している。このため、車両モデルの再現精度が低いと、操作推論学習モデルをどれだけ精密に学習させたとしても、操作推論学習モデルが推論する操作が、実際の車両にそぐわないものとなり得る。特に、物理モデルの作成は、実車両の微細なパラメータを解析してこれを反映させる必要があるために、これを用いて精度が高い車両モデルを構築するのは容易ではない。このため、特に車両モデルとして物理モデルを使用すると、操作推論学習モデルにより出力する操作の精度を高めるのが難しい。
したがって、車両モデルを、例えば車両の実際の走行実績を基に車両を模擬動作するように機械学習された機械学習モデルとして実現することが考えられる。
特開2014−115168号公報
車両モデルを機械学習により車両学習モデルとして実現した場合においては、出力する模擬動作の精度を十分に高めようとすると、車両学習モデルの学習に時間がかかる。
例えば、車両学習モデルを十分に学習させるためには、様々なパターンの操作や車両の走行状態が網羅された学習データが、多量に必要である。しかし、車両学習モデルの学習前に、どのようなパターンの学習データが不足しているかを見極めるのは容易ではない。このため、車両学習モデルの学習後に、車両学習モデルの推論結果を基に、どのようなパターンの学習データが不足しているのかを分析し、学習データを再度収集したうえで、車両学習モデルを更に学習させなければならない。この一連の作業には手間がかかる。
車両学習モデルの学習に要する時間を低減することが望まれている。
本発明が解決しようとする課題は、車両を模擬動作するように機械学習された車両学習モデルを用いて操作推論学習モデルを強化学習するに際し、車両学習モデルの学習に要する時間を低減可能な、自動操縦ロボット(ドライブロボット)を制御する操作推論学習モデルの学習システム及び学習方法を提供することである。
本発明は、上記課題を解決するため、以下の手段を採用する。すなわち、本発明は、車速を含む車両の走行状態を基に、前記車両を規定された指令車速に従って走行させるような、前記車両の操作を推論する操作推論学習モデルと、前記車両に搭載されて、前記操作を基に当該車両を走行させる自動操縦ロボットを備え、前記操作推論学習モデルを強化学習する、自動操縦ロボットを制御する操作推論学習モデルの学習システムであって、前記車両の実際の走行実績を基に、前記操作が入力されると、前記車両を模した前記走行状態である模擬走行状態を出力するように機械学習される、車両学習モデルを備え、当該車両学習モデルを機械学習する学習部と、前記車両学習モデルが出力する前記模擬走行状態と、当該模擬走行状態に対応する前記操作を前記自動操縦ロボットに適用して前記車両を走行させたときの実績データと、を比較して、これらの誤差を算出し、当該誤差を判定閾値と比較する、誤差評価部と、前記誤差が前記判定閾値以上の場合に、当該誤差が算出された前記模擬走行状態に対応する前記操作である誤差検出操作を抽出し、当該誤差検出操作を基にした関連操作を生成し、当該関連操作を前記自動操縦ロボットに適用して、前記車両学習モデルを追加学習するための追加学習データを取得する、追加学習データ取得部と、を備え、前記学習部は、前記誤差が前記判定閾値以上の場合に、前記追加学習データにより前記車両学習モデルを更に学習し、前記誤差が前記判定閾値より小さい場合に、前記車両学習モデルが出力した前記模擬走行状態を前記操作推論学習モデルに適用することで、前記操作推論学習モデルを強化学習する、自動操縦ロボットを制御する操作推論学習モデルの学習システムを提供する。
また、本発明は、車速を含む車両の走行状態を基に、前記車両を規定された指令車速に従って走行させるような、前記車両の操作を推論する操作推論学習モデルと、前記車両に搭載されて、前記操作を基に当該車両を走行させる自動操縦ロボットに関し、前記操作推論学習モデルを強化学習する、自動操縦ロボットを制御する操作推論学習モデルの学習方法であって、前記車両の実際の走行実績を基に、前記操作が入力されると、前記車両を模した前記走行状態である模擬走行状態を出力するように、車両学習モデルを機械学習し、前記車両学習モデルが出力する前記模擬走行状態と、当該模擬走行状態に対応する前記操作を前記自動操縦ロボットに適用して前記車両を走行させたときの実績データと、を比較して、これらの誤差を算出し、当該誤差を判定閾値と比較し、前記誤差が前記判定閾値以上の場合に、当該誤差が算出された前記模擬走行状態に対応する前記操作である誤差検出操作を抽出し、当該誤差検出操作を基にした関連操作を生成し、当該関連操作を前記自動操縦ロボットに適用して、前記車両学習モデルを追加学習するための追加学習データを取得し、前記誤差が前記判定閾値以上の場合に、前記追加学習データにより前記車両学習モデルを更に学習し、前記誤差が前記判定閾値より小さい場合に、前記車両学習モデルが出力した前記模擬走行状態を前記操作推論学習モデルに適用することで、前記操作推論学習モデルを強化学習する、自動操縦ロボットを制御する操作推論学習モデルの学習方法を提供する。
本発明によれば、車両を模擬動作するように機械学習された車両学習モデルを用いて操作推論学習モデルを機械学習するに際し、車両学習モデルの学習に要する時間を低減可能な、自動操縦ロボット(ドライブロボット)を制御する操作推論学習モデルの学習システム及び学習方法を提供することができる。
本発明の実施形態における、自動操縦ロボット(ドライブロボット)を用いた試験環境の説明図である。 上記実施形態における自動操縦ロボットを制御する操作推論学習モデルの学習システムの、車両学習モデルの学習時における処理の流れを記したブロック図である。 上記車両学習モデルのブロック図である。 上記学習システムの車両学習モデル評価部の説明図である。 上記自動操縦ロボットを制御する操作推論学習モデルの学習システムの、操作推論学習モデルの事前学習時における処理の流れを記したブロック図である。 上記操作推論学習モデルのブロック図である。 上記操作推論学習モデルの強化学習に用いられる、価値推論学習モデルのブロック図である。 上記自動操縦ロボットを制御する操作推論学習モデルの学習システムの、操作推論学習モデルの事前学習が終了した後の強化学習時における処理の流れを記したブロック図である。 上記実施形態における自動操縦ロボットを制御する操作推論学習モデルの学習方法のフローチャートである。
以下、本発明の実施形態について図面を参照して詳細に説明する。
本実施形態においては、自動操縦ロボットとしては、ドライブロボット(登録商標)を用いているため、以下、自動操縦ロボットをドライブロボットと記載する。
図1は、実施形態におけるドライブロボットを用いた試験環境の説明図である。試験装置1は、車両2、シャシーダイナモメータ3、及びドライブロボット4を備えている。
車両2は、床面上に設けられている。シャシーダイナモメータ3は、床面の下方に設けられている。車両2は、車両2の駆動輪2aがシャシーダイナモメータ3の上に載置されるように、位置づけられている。車両2が走行し駆動輪2aが回転する際には、シャシーダイナモメータ3が反対の方向に回転する。
ドライブロボット4は、車両2の運転席2bに搭載されて、車両2を走行させる。ドライブロボット4は、第1アクチュエータ4cと第2アクチュエータ4dを備えており、これらはそれぞれ、車両2のアクセルペダル2cとブレーキペダル2dに当接するように設けられている。
ドライブロボット4は、後に詳説する学習制御装置11によって制御されている。学習制御装置11は、ドライブロボット4の第1アクチュエータ4cと第2アクチュエータ4dを制御することにより、車両2のアクセルペダル2cとブレーキペダル2dの開度を変更、調整する。
学習制御装置11は、ドライブロボット4を、車両2が規定された指令車速に従って走行するように制御する。すなわち、学習制御装置11は、車両2のアクセルペダル2cとブレーキペダル2dの開度を変更することで、規定された走行パターン(モード)に従うように、車両2を走行制御する。より詳細には、学習制御装置11は、走行開始から時間が経過するに従い、各時間に到達すべき車速である指令車速に従うように、車両2を走行制御する。
学習制御システム(学習システム)10は、上記のような試験装置1と学習制御装置11を備えている。
学習制御装置11は、ドライブロボット制御部20、学習部30、及び車両学習モデル評価部90を備えている。
ドライブロボット制御部20は、ドライブロボット4の制御を行うための制御信号を生成し、ドライブロボット4に送信することで、ドライブロボット4を制御する。学習部30は、後に説明するような機械学習を行い、車両学習モデル、操作推論学習モデル、及び価値推論学習モデルを生成する。上記のような、ドライブロボット4の制御を行うための制御信号は、操作推論学習モデルにより生成される。車両学習モデル評価部90は、車両学習モデルの学習精度を判定し、学習精度が低い場合には、車両学習モデルを更に追加学習するための追加学習データを取得する。
ドライブロボット制御部20は、例えば、ドライブロボット4の筐体外部に設けられた、コントローラ等の情報処理装置である。学習部30、車両学習モデル評価部90は、例えばパーソナルコンピュータ等の情報処理装置である。本実施形態においては、学習部30と車両学習モデル評価部90は、同一の情報処理装置に実装されている。
図2は、学習制御システム10のブロック図である。図2においては、各構成要素を結ぶ線は、上記車両学習モデルを機械学習する際にデータの送受信があるもののみが示されており、したがって構成要素間の全てのデータの送受信を示すものではない。
試験装置1は、既に説明したような車両2、シャシーダイナモメータ3、及びドライブロボット4に加え、車両状態計測部5を備えている。車両状態計測部5は、車両2の状態を計測する各種の計測装置である。車両状態計測部5としては、例えばアクセルペダル2cやブレーキペダル2dの操作量を計測するためのカメラや赤外線センサなどであり得る。
本実施形態においては、ドライブロボット4が第1及び第2アクチュエータ4c、4dを制御することでこれらペダル2c、2dを操作する。したがって、車両状態計測部5に依らずとも、例えば第1及び第2アクチュエータ4c、4dの制御量等を基に、ペダル2c、2dの操作量を把握することができる。このため、本実施形態においては、車両状態計測部5は必須の構成ではない。しかし、後に変形例として記載するような、例えばドライブロボット4に替えて人間が車両2を操縦する際にペダル2c、2dの操作量を把握したい場合や、エンジン回転数やギア状態、エンジン温度等の車両2の状態を直接計測して把握したい場合には必要となる。
ドライブロボット制御部20は、ペダル操作パターン生成部21、車両操作制御部22、及び駆動状態取得部23を備えている。学習部30は、指令車速生成部31、推論データ成形部32、学習データ成形部33、学習データ生成部34、学習データ記憶部35、強化学習部40、及び試験装置モデル50を備えている。強化学習部40は、操作内容推論部41、状態行動価値推論部42、及び報酬計算部43を備えている。試験装置モデル50は、ドライブロボットモデル51、車両モデル52、及びシャシーダイナモメータモデル53を備えている。車両学習モデル評価部90は、誤差評価部91、誤差表示部92、及び追加学習データ取得部93を備えている。
学習制御装置11の、学習データ記憶部35以外の各構成要素は、例えば上記の各情報処理装置内のCPUにより実行されるソフトウェア、プログラムであってよい。また、学習データ記憶部35は、上記各情報処理装置内外に設けられた半導体メモリや磁気ディスクなどの記憶装置により実現されていてよい。
後に説明するように、操作内容推論部41は、ある時刻における走行状態を基に、指令車速に従うような、当該時刻よりも後の車両2の操作を推論する。この、車両2の操作の推論を効果的に行うために、特に操作内容推論部41は、後に説明するように機械学習器を備えており、推論した操作に基づいたドライブロボット4の操作の後の時刻における走行状態に基づいて計算された報酬を基に機械学習器を強化学習して学習モデル(操作推論学習モデル)70を生成する。操作内容推論部41は、性能測定のために実際に車両2を走行制御させる際には、この学習が完了した操作推論学習モデル70を使用して、車両2の操作を推論する。
すなわち、学習制御システム10は大別して、強化学習時における操作の学習と、性能測定のために車両を走行制御させる際における操作の推論の、2通りの動作を行う。説明を簡単にするために、以下ではまず、操作の学習時における、学習制御システム10の各構成要素の説明をした後に、車両の性能測定に際して操作を推論する場合での各構成要素の挙動について説明する。
まず、操作の学習時における、学習制御装置11の構成要素の挙動を説明する。
学習制御装置11は、操作の学習に先立ち、学習時に使用する走行実績データ(走行実績)を、走行実績として収集する。詳細には、ドライブロボット制御部20が、アクセルペダル2c及びブレーキペダル2dの、車両特性計測用の操作パターンを生成して、これにより車両2を走行制御し、走行実績データを収集する。
ペダル操作パターン生成部21は、ペダル2c、2dの、車両特性計測用の操作パターンを生成する。ペダル操作パターンとしては、例えば車両2と類似する他の車両において、WLTC(Worldwide harmonized Light vehicles Test Cycle)モードなどによって走行した際のペダル操作の実績値を使用することができる。
ペダル操作パターン生成部21は、生成したペダル操作パターンを、車両操作制御部22へ送信する。
車両操作制御部22は、ペダル操作パターン生成部21から、ペダル操作パターンを受信し、これを、ドライブロボット4の第1及び第2アクチュエータ4c、4dへの指令に変換して、ドライブロボット4に送信する。
ドライブロボット4は、アクチュエータ4c、4dへの指令を受信すると、これに基づいて車両2をシャシーダイナモメータ3上で走行させる。
駆動状態取得部23は、例えばアクチュエータ4c、4dの位置等の、ドライブロボット4の実際の駆動状態を取得する。車両2が走行することにより、車両2の走行状態は逐次変化する。駆動状態取得部23と、車両状態計測部5、及びシャシーダイナモメータ3に設けられた様々な計測器により、車両2の走行状態が計測される。例えば、駆動状態取得部23は上記のように、アクセルペダル2cの検出量と、ブレーキペダル2dの検出量を、走行状態として計測する。また、シャシーダイナモメータ3に設けられた計測器は、車速を走行状態として計測する。
計測された車両2の走行状態は、学習部30の学習データ成形部33へ送信される。
学習データ成形部33は、車両2の走行状態を受信し、受信したデータを後の様々な学習において使用されるフォーマットに変換して、走行実績データとして学習データ記憶部35に保存する。
車両2の走行状態すなわち走行実績データの収集が終了すると、学習データ生成部34は学習データ記憶部35から走行実績データを取得し、適切なフォーマットに成形して、試験装置モデル50に送信する。
学習部30の、試験装置モデル50の車両モデル52は、学習データ生成部34から成形された走行実績データを取得し、これを用いて機械学習器60を機械学習して、車両学習モデル60を生成する。車両学習モデル60は、車両2の実際の走行実績である走行実績データを基に車両2を模擬動作するように機械学習され、車両2に対する操作を受信すると、これを基に、車両2を模した走行状態である模擬走行状態を出力する。すなわち、車両モデル52の機械学習器60は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される、適切な学習パラメータが学習された学習済みモデル60を生成するものである。
本実施形態においては、車両学習モデル60は、ニューラルネットワークで実現され、基準となる時刻(基準時刻)の走行状態と、当該走行状態において適用される操作が学習データとして入力され、基準時刻の走行状態を基に基準時刻より後の時刻の模擬走行状態を出力して、これを、後の時刻の実際の走行実績である教師データと比較することで機械学習される。
以下、説明を簡単にするため、車両モデル52が備えている機械学習器と、これが学習されて生成される学習モデルをともに、車両学習モデル60と呼称する。
図3は、車両学習モデル60のブロック図である。本実施形態においては、車両学習モデル60は、中間層を3層とした全5層の全結合型のニューラルネットワークにより実現されている。車両学習モデル60は、入力層61、中間層62、及び出力層63を備えている。図3においては、各層が矩形として描かれており、各層に含まれるノードは省略されている。
本実施形態においては、車両学習モデル60の入力となる走行状態は、任意の基準時刻を基点として、走行実績データ内の所定の第1時間だけ過去から基準時刻までの間の、車速の系列を含む。また、本実施形態においては、車両学習モデル60の入力は、基準時刻から所定の第2時間だけ将来の時刻までの間の、アクセルペダル2cの操作量の系列、及びブレーキペダル2dの操作量の系列を含む。これらアクセルペダル2cの操作量の系列、及びブレーキペダル2dの操作量の系列は、実際には、学習データ記憶部35に保存された走行実績データ内の、基準時刻以降のアクセルペダル2cの検出量と、ブレーキペダル2dの検出量であり、これらが基準時刻において車両2に対して適用される操作として、車両学習モデル60に入力される。
入力層61は、上記のような車速の系列である車速系列i1、アクセルペダル2cの操作量の系列であるアクセルペダル系列i2、及びブレーキペダル2dの操作量の系列であるブレーキペダル系列i3の各々に対応する入力ノードを備えている。
上記のように、各入力i1、i2、i3は系列であり、それぞれ、複数の値により実現されている。例えば、図3においては、一つの矩形として示されている、車速系列i1に対応する入力は、実際には、車速系列i1の複数の値の各々に対応するように、入力ノードが設けられている。
車両モデル52は、各入力ノードに、対応する走行実績データの値を格納する。
中間層62は、第1中間層62a、第2中間層62b、及び第3中間層62cを備えている。
中間層62の各ノードにおいては、前段の層(例えば、第1中間層62aの場合は入力層61、第2中間層62bの場合は第1中間層62a)の各ノードから、この前段の層の各ノードに格納された値と、前段の層の各ノードから当該中間層62のノードへの重みを基にした演算がなされて、当該中間層62のノード内に演算結果が格納される。
出力層63においても、中間層62の各々と同様な演算が行われ、出力層63に備えられた各出力ノードに演算結果が格納される。
本実施形態においては、車両学習モデル60の出力は、基準時刻から所定の第3時間だけ将来の時刻(後の時刻)までの間の、推定された車速の系列である。この推定車速系列oは、系列であるため、複数の値により実現されている。例えば、図3においては、一つの矩形として示されている、推定車速系列oに対応する出力は、実際には、推定車速系列oの複数の値の各々に対応するように、出力ノードが設けられている。
車両学習モデル60においては、上記のように基準時刻の走行実績が走行状態i1や操作i2、i3として入力されて、後の時刻の適切な推定車速系列oを、車両2の走行を模した走行状態である模擬走行状態oとして出力することができるように学習がなされる。
より詳細には、車両モデル52は、別途学習データ記憶部35から学習データ生成部34を介して送信された、基準時刻から第3時間だけ将来の時刻までの間の走行実績、本実施形態においては車速系列の正解値を、教師データとして受信する。車両モデル52は、教師データと、車両学習モデル60が出力した推定車速系列oの平均二乗誤差が小さくなるように、重みやバイアスの値等、ニューラルネットワークを構成する各パラメータの値を、誤差逆伝搬法、確率的勾配降下法により調整する。
車両学習モデル60は、基本的には、学習データ記憶部35に蓄積された全ての学習データを用いて学習される。車両学習モデル評価部90は、この時点における車両学習モデル60の学習精度が十分であるか否かを判定する。
図4は、車両学習モデル評価部90の説明図である。
例えば学習データ記憶部35に蓄積された学習データの量が少なかったり、学習データに収録された走行実績のパターンが偏重したりすると、十分な学習データが用意されなかったパターンの走行実績において、車両学習モデル60が十分な精度の推定車速系列oを推定できない場合がある。図4においては、時刻t1から時刻t2の時間範囲において、実際に走行した速度を時間の関数として表現した速度実績L1と、車両学習モデル60が推定した推定車速系列oを時間の関数として表現した推定速度L2とに、誤差が生じている。
車両学習モデル評価部90は、このような誤差を抽出することで車両学習モデル60の学習精度を判定し、十分でない場合には、車両学習モデル60を追加学習するための追加学習データを取得する。
より詳細には、学習データ記憶部35に蓄積された全ての学習データを用いて学習されると、車両学習モデル評価部90の誤差評価部91は、この時点における車両学習モデル60に、学習データ記憶部35に蓄積された学習データ、あるいは車両学習モデル60の学習終了を判定するために用意された試験データを入力データとして逐次入力して、推定車速系列oを出力させる。誤差評価部91は、この推定車速系列oと、推定車速系列oに対応する、推定車速系列oを推論した際の入力となった操作をドライブロボット4に適用して車両2を走行させたときの実績データ、すなわち学習データや試験データに対応して設けられた教師データや正答データと比較して、これらの誤差を算出する。
誤差評価部91は、誤差として、模擬走行状態oの車速と、実績データの車速の差を算出する。車速の差は、より詳細には、例えば、推定車速系列oに含まれる車速の各々に対して実績データとの差分を計算し、その絶対値の最大値を算出することで求められる。
誤差評価部91は、この誤差を、判定閾値と比較する。その結果、全ての入力データにおいて誤差が判定閾値より小さい場合には、誤差評価部91は、車両学習モデル60の学習が終了したと判定し、後に説明するような、操作推論学習モデル70の学習に移行する。
算出された誤差が判定閾値以上である入力データがある場合には、誤差表示部92がその旨を表示するとともに、追加学習データ取得部93が、このような誤差が算出された推定車速系列oに対応する操作である誤差検出操作を抽出する。誤差検出操作は、例えば、大きな誤差が生じはじめる図4における時刻t1での車両2の走行状態を再現するための、車両2の運転開始から時刻t1までの操作、すなわちアクセルペダル2cとブレーキペダル2dの各々の検出量と、時刻t1からt2までの、誤差が実際に生じた時間範囲内の操作の双方を、走行実績から取得することで抽出され得る。
追加学習データ取得部93は、誤差検出操作を基にした関連操作を生成する。より詳細には、追加学習データ取得部93は、誤差検出操作に含まれる操作のうち、時刻t1からt2までの、誤差が実際に生じた時間範囲内における操作の、アクセルペダルとブレーキペダルいずれか一方または双方を、例えば0.9〜1.1倍の僅かな範囲の間で変動させることで、一つの誤差検出操作から複数の関連操作を生成し得る。
追加学習データ取得部93は、関連操作をドライブロボット4に適用する。より詳細には、車両操作制御部22と同様に、関連操作をドライブロボット4の第1及び第2アクチュエータ4c、4dへの指令に変換して、ドライブロボット4に送信する。
ドライブロボット4は、アクチュエータ4c、4dへの指令を受信すると、これに基づいて車両2をシャシーダイナモメータ3上で走行させる。これにより、駆動状態取得部23と、車両状態計測部5、及びシャシーダイナモメータ3に設けられた様々な計測器が、車両2の走行状態を計測する。
計測された車両2の、特に時刻t1からt2までの、誤差が実際に生じた時間範囲内の走行状態は、学習部30の学習データ成形部33へ送信される。
学習データ成形部33は、車両2の走行状態を受信し、受信したデータを後の様々な学習において使用されるフォーマットに変換して、車両学習モデル60を追加学習するための追加学習データとして学習データ記憶部35に保存する。
追加学習データが保存されると、学習部30の車両モデル52は、これを用いて、車両学習モデル60を更に追加して学習させる。
車両学習モデル60の追加学習と、追加学習データの取得は、誤差評価部91において、全ての入力データで誤差が判定閾値より小さいと判定されるまで、繰り返し実行される。
車両学習モデル60の学習が終了すると、学習制御システム10の強化学習部40は、操作内容推論部41に設けられた、車両2の操作を推論する操作推論学習モデル70を事前学習する。図5は、事前学習時のデータの送受信関係が示された学習制御システム10のブロック図である。本実施形態においては、操作推論学習モデル70は、強化学習により機械学習される。すなわち、操作推論学習モデル70は、機械学習器が学習されることにより、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される、適切な学習パラメータが学習された学習済みモデルとなる。
学習制御システム10は、既に学習が終了した車両学習モデル60が出力した模擬走行状態を操作推論学習モデル70に適用することで、操作推論学習モデル70を事前に強化学習する。後に説明するように、操作推論学習モデル70の強化学習が進行して事前の強化学習が終了した後に、操作推論学習モデル70の出力した操作を基に実際に車両2を走行させて取得された走行状態を操作推論学習モデル70に適用することで、操作推論学習モデル70を更に強化学習する。このように、学習制御システム10は、操作推論学習モデル70の学習段階に応じて、推論した操作の実行対象及び走行状態の取得対象を、車両学習モデル60から実車両2へと変更する。
後に説明するように、操作内容推論部41は、現時点から第3時間だけ将来の時刻までの間の車両2の操作を出力し、これをドライブロボットモデル51に送信する。本実施形態において、操作内容推論部41は、特にアクセルペダル2c及びブレーキペダル2dの操作の系列を出力する。
車両学習モデル60の学習により、試験装置モデル50は、全体として試験装置1の各々を模擬動作するように構成されている。試験装置モデル50は、操作の系列を受信する。
ドライブロボットモデル51は、ドライブロボット4を模擬動作するように構成されている。ドライブロボットモデル51は、受信した操作を基に、学習が終了した車両学習モデル60の入力となるアクセルペダル系列i2とブレーキペダル系列i3を生成し、車両モデル52に送信する。
シャシーダイナモメータモデル53は、シャシーダイナモメータ3を模擬動作するように構成されている。シャシーダイナモメータ3は、模擬走行中の車両学習モデル60の車速を検出しつつ、これを内部に随時記録している。シャシーダイナモメータモデル53は、この過去の車速の記録から車速系列i1を生成し、車両モデル52に送信する。
車両モデル52は、車速系列i1、アクセルペダル系列i2、及びブレーキペダル系列i3を受信してこれらを車両学習モデル60に入力する。車両学習モデル60が推定車速系列oを出力すると、車両モデル52は推定車速系列oをシャシーダイナモメータモデル53に送信する。
シャシーダイナモメータモデル53は、推定車速系列oを推論データ成形部32に送信する。
指令車速生成部31は、モードに関する情報に基づいて生成された、指令車速を保持している。指令車速生成部31は、現時点から所定の第4時間だけ将来の時刻までの間に、車両学習モデル60が従うべき指令車速の系列を生成し、推論データ成形部32に送信する。
推論データ成形部32は、推定車速系列oと指令車速系列を受信し、適切に成形した後に強化学習部40に送信する。
強化学習部40は、過去に送信したアクセルペダル2cとブレーキペダル2dの操作を保持している。強化学習部40は、これらの送信した操作を、車両学習モデル60が実際にこれに従った結果としての検出値として見做し、これらアクセルペダル2cとブレーキペダル2dの操作の系列を基に、過去のアクセルペダル検出量の系列とブレーキペダル検出量の系列を生成する。強化学習部40は、これらを推定車速系列oと指令車速系列とともに、走行状態として操作内容推論部41に送信する。
操作内容推論部41は、ある時刻において走行状態を受信すると、これを基に、学習中の操作推論学習モデル70により、当該時刻より後の操作の系列を推論する。図6は、操作推論学習モデル70のブロック図である。
操作推論学習モデル70の入力層71においては、入力ノードが、例えばアクセルペダル検出量s1、ブレーキペダル検出量s2から、指令車速sNに至るまでの、走行状態sの各々に対応するように設けられている。操作推論学習モデル70は、車両学習モデル60と同様な構造のニューラルネットワークにより実現されているため、構造上の詳細な説明を割愛する。
操作推論学習モデル70の出力層73においては、出力ノードの各々は、操作aの各々に対応するように設けられている。本実施形態においては、操作の対象は、アクセルペダル2cとブレーキペダル2dであり、これに対応して、操作aは、例えばアクセルペダル操作の系列a1とブレーキペダル操作の系列a2となっている。
操作内容推論部41は、このようにして生成されたアクセルペダル操作a1とブレーキペダル操作a2をドライブロボットモデル51に送信する。ドライブロボットモデル51は、これを基にアクセルペダル系列i2とブレーキペダル系列i3を生成して車両学習モデル60に送信し、車両学習モデル60は次の車速を推論する。この、次の車速を基にして、次の走行状態sが生成される。
操作推論学習モデル70の学習、すなわち誤差逆伝搬法、確率的勾配降下法によるニューラルネットワークを構成する各パラメータの値の調整は、現段階においては行われず、操作推論学習モデル70は操作aを推論するのみである。操作推論学習モデル70の学習は、後に、価値推論学習モデル80の学習に伴って行われる。
報酬計算部43は、走行状態sと、これに対応して操作推論学習モデル70により推論された操作a、及び当該操作aを基に新たに生成された走行状態sを基に、適切に設計された式により報酬を計算する。報酬は、操作a、及びこれに伴う新たに生成された走行状態sが望ましくないほど小さい値を、望ましいほど大きい値を、有するように設計されている。後述する状態行動価値推論部42は、行動価値を、報酬が大きいほどこれが高くするように計算し、操作推論学習モデル70はこの行動価値が高くなるような操作aを出力するように、強化学習が行われる。
報酬計算部43は、走行状態s、これに対応して推論された操作a、当該操作aを基に新たに生成された走行状態s、及び計算した報酬を、学習データ成形部33に送信する。学習データ成形部33は、これらを適切に成形して学習データ記憶部35に保存する。これらのデータは、後述する価値推論学習モデル80の学習に使用される。
このようにして、操作内容推論部41による操作aの推論と、この操作aに対応した、車両モデル52による推定車速系列oの推論、及び報酬の計算が、価値推論学習モデル80の学習に十分なデータが蓄積されるまで、繰り返し行われる。
学習データ記憶部35に、価値推論学習モデル80の学習に十分な量の走行データが蓄積されると、状態行動価値推論部42は価値推論学習モデル80を学習する。価値推論学習モデル80は、機械学習器が学習されることにより、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される、適切な学習パラメータが学習された学習済みモデルとなる。
強化学習部40は全体として、操作推論学習モデル70が推論した操作aがどの程度適切であったかを示す行動価値を計算し、操作推論学習モデル70が、この行動価値が高くなるような操作aを出力するように、強化学習を行う。行動価値は、走行状態sと、これに対する操作aを引数として、報酬が大きいほど行動価値Qを高くするように設計された関数Qとして表わされる。本実施形態においては、この関数Qの計算を、走行状態sと操作aを入力として、行動価値Qを出力するように設計された、関数近似器としての学習モデル80により行う。
状態行動価値推論部42は、学習データ記憶部35から、学習データ生成部34を介して成形された走行状態sと操作aを受信し、価値推論学習モデル80を機械学習させる。図7は、価値推論学習モデル80のブロック図である。
価値推論学習モデル80の入力層81においては、入力ノードが、例えばアクセルペダル検出量s1、ブレーキペダル検出量s2から、指令車速sNに至るまでの、走行状態sの各々と、及び、例えばアクセルペダル操作a1とブレーキペダル操作a2の、操作aの各々に対応するように設けられている。価値推論学習モデル80は、車両学習モデル60と同様な構造のニューラルネットワークにより実現されているため、構造上の詳細な説明を割愛する。
価値推論学習モデル80の出力層83においては、出力ノードは、例えば1つであり、これが、計算された行動価値Qの値に相当する。
状態行動価値推論部42は、TD(Temporal Difference)誤差、すなわち、操作aを実行する前の行動価値と、操作aを実行した後の行動価値の誤差を小さくして、行動価値Qとして適切な値が出力されるように、重みやバイアスの値等、ニューラルネットワークを構成する各パラメータの値を、誤差逆伝搬法、確率的勾配降下法により調整する。このように、現状の操作推論学習モデル70によって推論された操作aを適切に評価できるように、価値推論学習モデル80を学習させる。
価値推論学習モデル80の学習が終了すると、価値推論学習モデル80は、より適切な行動価値Qの値を出力するようになる。すなわち、価値推論学習モデル80が出力する行動価値Qの値が学習前とは変わるため、これに伴い、行動価値Qが高くなるような操作aを出力するように設計された操作推論学習モデル70を更新する必要がある。このため、操作内容推論部41は操作推論学習モデル70を学習する。
具体的には、操作内容推論部41は、例えば行動価値Qの負値を損失関数とし、これをできるだけ小さくするような、すなわち行動価値Qが大きくなるような操作aを出力するように、重みやバイアスの値等、ニューラルネットワークを構成する各パラメータの値を、誤差逆伝搬法、確率的勾配降下法により調整して、操作推論学習モデル70を学習させる。
操作推論学習モデル70が学習され更新されると、出力される操作aが変化するため、再度走行データを蓄積し、これを基に価値推論学習モデル80を学習する。
このように、学習部30は、操作推論学習モデル70と価値推論学習モデル80の学習を繰り返すことにより、これら学習モデル70、80を強化学習する。
学習部30は、この事前学習としての、車両学習モデル60を操作aの実行対象として用いた強化学習を、事前学習終了基準を満たすまで実行する。
例えば、学習部30は、車両学習モデル60を操作aの実行対象として用いた制御で十分な走行性能が得られるまで、事前学習を実行する。例えば、学習制御システム10がモード走行を前提としている場合においては、車両学習モデル60によるモード走行において、車速指令と推定車速系列oとの誤差が所定の閾値以下となり十分に小さい値となるまで、事前学習が実行される。
あるいは、所定の時間範囲におけるアクセルペダル2cやブレーキペダル2dの操作回数、操作量や変化率が、所定の閾値以下になった場合は、実際に車両2で試験を実行しても車両2に大きな負荷を与える可能性が低いと判断して、事前学習を終了するようにしてもよい。
操作推論学習モデル70及び価値推論学習モデル80の、車両学習モデル60を操作aの実行対象として用いた事前学習が終了すると、学習部30は、車両学習モデル60に替えて、実車両2を操作aの実行対象として、操作推論学習モデル70及び価値推論学習モデル80を更に強化学習する。図8は、事前学習が終了した後の強化学習時におけるデータの送受信関係が示された学習制御システム10のブロック図である。
操作内容推論部41は、現時点から第3時間だけ将来の時刻までの間の車両2の操作aを出力し、これを車両操作制御部22に送信する。
車両操作制御部22は、受信した操作aを、ドライブロボット4の第1及び第2アクチュエータ4c、4dへの指令に変換して、ドライブロボット4に送信する。
ドライブロボット4は、アクチュエータ4c、4dへの指令を受信すると、これに基づいて車両2をシャシーダイナモメータ3上で走行させる。
シャシーダイナモメータ3は、車両2の車速を検出し、車速系列を生成して推論データ成形部32に送信する。
指令車速生成部31は、指令車速系列を生成して推論データ成形部32に送信する。
推論データ成形部32は、車速系列と指令車速系列を受信し、適切に成形した後に走行状態として、強化学習部40に送信する。
強化学習部40は、車両モデル52により生成される推定車速系列oの替わりに上記の車速系列を用いて、図5を用いて説明した事前学習時と同様に、上記のように実車両2を操作aの実行対象として用いて学習データを学習データ記憶部35に蓄積する。強化学習部40は、十分な量の走行データが蓄積されると、価値推論学習モデル80を学習し、その後操作推論学習モデル70を学習する。
学習部30は、学習データの蓄積と、操作推論学習モデル70と価値推論学習モデル80の学習を繰り返すことにより、これら学習モデル70、80を強化学習する。
学習部30は、車両2を操作aの実行対象として用いた強化学習を、学習終了基準を満たすまで実行する。
例えば、学習部30は、車両2を操作aの実行対象として用いた制御で十分な走行性能が得られるまで、事前学習を実行する。例えば、学習制御システム10がモード走行を前提としている場合においては、車両2によるモード走行において、車速指令と実際にシャシーダイナモメータ3により検出される車速との誤差が所定の閾値以下となり十分に小さい値となるまで、学習が実行される。
次に、車両2の性能測定に際して操作aを推論する場合での、すなわち、操作推論学習モデル70の強化学習が終了した後における、学習制御システム10の各構成要素の挙動について説明する。
駆動状態取得部23と、車両状態計測部5、及びシャシーダイナモメータ3に設けられた様々な計測器により、車両2の車速、アクセルペダル2cの検出量、ブレーキペダル2dの検出量等が計測される。これらの値は、推論データ成形部32に送信される。
指令車速生成部31は、指令車速系列を生成して推論データ成形部32に送信する。
推論データ成形部32は、車速、アクセルペダル2cの検出量、ブレーキペダル2dの検出量等と、指令車速系列を受信し、適切に成形した後に走行状態として、強化学習部40に送信する。
操作内容推論部41は、走行状態を受信すると、これを基に、学習済みの操作推論学習モデル70により、車両2の操作aを推論する。
操作内容推論部41は、推論した操作aを、車両操作制御部22へ送信する。
車両操作制御部22は、操作内容推論部41から操作aを受信し、この操作aに基づき、ドライブロボット4を操作する。
次に、図1〜図8、及び図9を用いて、上記の学習制御システム10を用いた、ドライブロボット4を制御する操作推論学習モデル70の学習方法を説明する。図9は、学習方法のフローチャートである。
学習制御装置11は、操作の学習に先立ち、学習時に使用する走行実績データ(走行実績)を、走行実績として収集する。詳細には、ドライブロボット制御部20が、アクセルペダル2c及びブレーキペダル2dの、車両特性計測用の操作パターンを生成して、これにより車両2を走行制御し、走行実績データを収集する(ステップS1)。
車両モデル52は、学習データ生成部34から成形された走行実績データを取得し、これを用いて機械学習器60を機械学習して、車両学習モデル60を生成する(ステップS3)。
誤差評価部91は、誤差として、模擬走行状態oの車速と、実績データの車速の差を算出する。誤差評価部91は、この誤差を、判定閾値と比較する。
算出された誤差が判定閾値以上である入力データがある場合には(ステップS5のYes)、誤差表示部92がその旨を表示するとともに、追加学習データ取得部93が、誤差検出操作を基にした関連操作を生成する。
追加学習データ取得部93は、関連操作をドライブロボット4に適用することで、追加学習データを取得する(ステップS7)。
追加学習データが保存されると、学習部30の車両モデル52は、これを用いて、車両学習モデル60を更に学習させる(ステップS3へ遷移)。
全ての入力データにおいて誤差が判定閾値より小さくなり、車両学習モデル60の学習が終了すると(ステップS5のNo)、学習制御システム10の強化学習部40は、車両2の操作を推論する操作推論学習モデル70を事前学習する(ステップS9)。より詳細には、学習制御システム10は、既に学習が終了した車両学習モデル60が出力した模擬走行状態を操作推論学習モデル70に適用することで、操作推論学習モデル70を事前に強化学習する。
学習部30は、この事前学習としての、車両学習モデル60を操作aの実行対象として用いた強化学習を、事前学習終了基準を満たすまで実行する。事前学習終了基準を満たさなければ(ステップS11のNo)、事前学習を継続する。事前学習終了基準が満たされると(ステップS11のYes)、事前学習を終了する。
操作推論学習モデル70及び価値推論学習モデル80の、車両学習モデル60を操作aの実行対象として用いた事前学習が終了すると、学習部30は、車両学習モデル60に替えて、実車両2を操作aの実行対象として、操作推論学習モデル70及び価値推論学習モデル80を更に強化学習する(ステップS13)。
次に、上記のドライブロボットを制御する操作推論学習モデルの学習システム及び学習方法の効果について説明する。
本実施形態の学習制御システム10は、車速を含む車両2の走行状態sを基に、車両2を規定された指令車速に従って走行させるような、車両2の操作aを推論する操作推論学習モデル70と、車両2に搭載されて、操作aを基に車両2を走行させるドライブロボット(自動操縦ロボット)4を備え、操作推論学習モデル70を強化学習する、ドライブロボット4を制御する操作推論学習モデル70の学習システム10であって、車両2の実際の走行実績を基に、操作aが入力されると、車両2を模した走行状態sである模擬走行状態oを出力するように機械学習される、車両学習モデル60を備え、車両学習モデル60を機械学習する学習部30と、車両学習モデル60が出力する模擬走行状態と、模擬走行状態に対応する操作aをドライブロボット4に適用して車両2を走行させたときの実績データと、を比較して、これらの誤差を算出し、誤差を判定閾値と比較する、誤差評価部91と、誤差が判定閾値以上の場合に、誤差が算出された模擬走行状態に対応する操作aである誤差検出操作を抽出し、誤差検出操作を基にした関連操作を生成し、関連操作をドライブロボット4に適用して、車両学習モデル60を追加学習するための追加学習データを取得する、追加学習データ取得部93と、を備え、学習部30は、誤差が判定閾値以上の場合に、追加学習データにより車両学習モデル60を更に学習し、誤差が判定閾値より小さい場合に、車両学習モデル60が出力した模擬走行状態oを操作推論学習モデル70に適用することで、操作推論学習モデル70を強化学習する。
また、本実施形態の学習制御方法は、車速を含む車両2の走行状態sを基に、車両2を規定された指令車速に従って走行させるような、車両2の操作aを推論する操作推論学習モデル70と、車両2に搭載されて、操作aを基に車両2を走行させるドライブロボット(自動操縦ロボット)4に関し、操作推論学習モデル70を強化学習する、ドライブロボット4を制御する操作推論学習モデル70の学習方法であって、車両2の実際の走行実績を基に、操作aが入力されると、車両2を模した走行状態である模擬走行状態を出力するように、車両学習モデル60を機械学習し、車両学習モデル60が出力する模擬走行状態と、模擬走行状態に対応する入力となる操作aをドライブロボット4に適用して車両2を走行させたときの実績データと、を比較して、これらの誤差を算出し、誤差を判定閾値と比較し、誤差が判定閾値以上の場合に、誤差が算出された模擬走行状態に対応する操作aである誤差検出操作を抽出し、誤差検出操作を基にした関連操作を生成し、関連操作をドライブロボット4に適用して、車両学習モデル60を追加学習するための追加学習データを取得し、誤差が判定閾値以上の場合に、追加学習データにより車両学習モデル60を更に学習し、誤差が判定閾値より小さい場合に、車両学習モデル60が出力した模擬走行状態oを操作推論学習モデル70に適用することで、操作推論学習モデル70を強化学習する。
例えば学習データ記憶部35に蓄積された学習データの量が少なかったり、学習データに収録された走行実績のパターンが偏重したりすると、十分な学習データが用意されなかったパターンの走行実績において、車両学習モデル60が十分な精度の推定車速系列oを推定できない場合がある。
上記のような構成によれば、模擬走行状態と実績データとを比較して誤差を算出することで、車両学習モデル60の学習精度が不足していることを検出できる。特に本実施形態においては、判定閾値以上の誤差が算出された模擬走行状態に関し、これに対応する操作aである誤差検出操作を抽出している。誤差が判定閾値以上となった理由として、この誤差検出操作に近い操作の実績データが少なく、この誤差検出操作に対応する実績データに類似するパターンの学習データに関して学習が不足したことが考えられる。この論拠に基づき、追加学習データ取得部93は、誤差検出操作を基にした関連操作を生成し、関連操作をドライブロボット4に適用して、車両学習モデル60を追加学習するための追加学習データを取得する。このように、車両学習モデル60を追加学習するための追加学習データが自動的に取得され、これを用いて車両学習モデル60が更に追加学習される。
これにより、車両学習モデル60の学習精度の向上に要する時間を低減することができる。
特に本実施形態においては、学習部30は、操作推論学習モデル70を強化学習している。
このような学習制御システム10では、既に説明したように、操作推論学習モデル70と価値推論学習モデル80の学習が繰り返され、学習途中の操作推論学習モデル70が推論した操作を、最終的には車両2に適用しなければならない。しかし、操作推論学習モデル70は、強化学習の途中段階においては、例えばペダルを極端に高い頻度で操作するような、人間には不可能で、実車両に負担がかかる、好ましくない操作aを出力する可能性がある。
上記のような構成によれば、操作推論学習モデル70は、上記のように学習精度が高められた車両学習モデル60により強化学習される。このため、車両学習モデル60を用いた操作推論学習モデル70の学習が終了した後に、操作推論学習モデル70が好ましくない操作aを出力する可能性が低減される。したがって、操作推論学習モデル70の出力を車両2に適用することで操作推論学習モデル70の学習精度を高めようとする場合においても、実車両2の負担を低減可能である。
また、誤差評価部91は、誤差として、模擬走行状態の車速と、実績データの車速の差を算出する。
上記のような構成によれば、学習制御システム10を適切に実現することができる。
また、車両学習モデル60は、ニューラルネットワークで実現され、基準時刻の走行実績と、操作が学習データとして入力され、基準時刻より後の時刻の模擬走行状態を出力して、これを、後の時刻の走行実績である教師データと比較することで機械学習される。
従来のように、車両モデルとして、車両の各構成要素に対して、動作を模した物理モデルを各々作成し、これらを組み合わせた物理モデルとして作成するのは、開発コストが嵩む。また、物理モデルの作成のためには実車両2の微細なパラメータや特性を熟知する必要があり、これらが入手できない場合においては、必要に応じて車両2を改造し、解析しなければならない。
上記のような構成によれば、車両学習モデル60がニューラルネットワークにより実現されているため、物理モデルとして車両学習モデル60を実現する場合に比べると実現が容易である。
また、走行状態sは、車速に加え、アクセルペダル開度、ブレーキペダル開度のいずれか、またはいずれかの組み合わせを含む。
上記のような構成によれば、上記のような学習制御システム10を適切に実現可能である。
なお、本発明のドライブロボットを制御する操作推論学習モデルの学習システム及び学習方法は、図面を参照して説明した上述の実施形態に限定されるものではなく、その技術的範囲において他の様々な変形例が考えられる。
例えば、上記実施形態においては、事前に車両学習モデル60を操作aの実行対象として操作推論学習モデル70を強化学習した後には、車両2を操作aの実行対象として操作推論学習モデル70を強化学習していた。
事前学習後においては、操作推論学習モデル70が推論した操作により車両2を走行させることで、車両2の走行実績を更に取得することができる。この、新たに取得された走行実績を用いて、車両学習モデル60を更に学習し、模擬走行状態の推論精度を高めたうえで、事前学習後の強化学習において、推論した操作の実行及び走行状態の取得の対象として、車両2に加えて、更なる学習がなされた車両学習モデル60を併用することもできる。このような構成においては、車両2を使用して試験を行う時間が低減するため、操作推論学習モデル70の学習時間を低減可能である。
また、上記実施形態においては、車両学習モデル60の学習に使用する、車両2の実際の走行実績データを収集する際に、ドライブロボット4を使用した構成を説明したが、この場合に車両2を操縦するのはドライブロボット4に限られず、例えば人間であってもよい。この場合においては、上記実施形態で既に説明したように、アクセルペダル2cやブレーキペダル2dの操作量を計測するために、例えばカメラや赤外線センサが用いられ得る。
また、上記実施形態においては、走行状態として、車速、アクセルペダル開度、ブレーキペダル開度を用いていたが、これに限られない。例えば、走行状態は、車速に加え、アクセルペダル開度、ブレーキペダル開度、エンジン回転数、ギア状態、エンジン温度のいずれか、またはいずれかの組み合わせを含むように構成してもよい。
例えば、走行状態として、上記実施形態の構成に加えてエンジン回転数、ギア状態、エンジン温度を追加する場合においては、車両学習モデル60の入力には、車速系列i1、アクセルペダル系列i2、ブレーキペダル系列i3に加え、過去の時間におけるエンジン回転数の系列、ギア状態の系列、及びエンジン温度の系列が追加され得る。また、出力には、推定車速系列oに加え、将来の時間におけるエンジン回転数の系列、ギア状態の系列、及びエンジン温度の系列が追加され得る。
このように構成した場合においては、より精度の高い車両学習モデル60を生成することができる。
これ以外にも、本発明の主旨を逸脱しない限り、上記実施形態で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。
1 試験装置
2 車両
3 シャシーダイナモメータ
4 ドライブロボット(自動操縦ロボット)
10 学習制御システム(学習システム)
11 学習制御装置
20 ドライブロボット制御部
21 ペダル操作パターン生成部
22 車両操作制御部
23 駆動状態取得部
30 学習部
31 指令車速生成部
32 推論データ成形部
33 学習データ成形部
34 学習データ生成部
35 学習データ記憶部
40 強化学習部
41 操作内容推論部
42 状態行動価値推論部
43 報酬計算部
50 試験装置モデル
51 ドライブロボットモデル
52 車両モデル
53 シャシーダイナモメータモデル
60 車両学習モデル
70 操作推論学習モデル
80 価値推論学習モデル
90 車両学習モデル評価部
91 誤差評価部
93 追加学習データ取得部
i1 車速系列
i2 アクセルペダル系列
i3 ブレーキペダル系列
a 操作
s 走行状態
o 模擬走行状態

Claims (5)

  1. 車速を含む車両の走行状態を基に、前記車両を規定された指令車速に従って走行させるような、前記車両の操作を推論する操作推論学習モデルと、前記車両に搭載されて、前記操作を基に当該車両を走行させる自動操縦ロボットを備え、前記操作推論学習モデルを強化学習する、自動操縦ロボットを制御する操作推論学習モデルの学習システムであって、
    前記車両の実際の走行実績を基に、前記操作が入力されると、前記車両を模した前記走行状態である模擬走行状態を出力するように機械学習される、車両学習モデルを備え、当該車両学習モデルを機械学習する学習部と、
    前記車両学習モデルが出力する前記模擬走行状態と、当該模擬走行状態に対応する前記操作を前記自動操縦ロボットに適用して前記車両を走行させたときの実績データと、を比較して、これらの誤差を算出し、当該誤差を判定閾値と比較する、誤差評価部と、
    前記誤差が前記判定閾値以上の場合に、当該誤差が算出された前記模擬走行状態に対応する前記操作である誤差検出操作を抽出し、当該誤差検出操作を基にした関連操作を生成し、当該関連操作を前記自動操縦ロボットに適用して、前記車両学習モデルを追加学習するための追加学習データを取得する、追加学習データ取得部と、
    を備え、
    前記学習部は、
    前記誤差が前記判定閾値以上の場合に、前記追加学習データにより前記車両学習モデルを更に学習し、
    前記誤差が前記判定閾値より小さい場合に、前記車両学習モデルが出力した前記模擬走行状態を前記操作推論学習モデルに適用することで、前記操作推論学習モデルを強化学習する、自動操縦ロボットを制御する操作推論学習モデルの学習システム。
  2. 前記誤差評価部は、前記誤差として、前記模擬走行状態の車速と、前記実績データの車速の差を算出する、請求項1に記載の自動操縦ロボットを制御する操作推論学習モデルの学習システム。
  3. 前記車両学習モデルは、ニューラルネットワークで実現され、基準時刻の前記走行状態と、前記操作が学習データとして入力され、前記基準時刻より後の時刻の前記模擬走行状態を出力して、これを、前記後の時刻の前記走行実績である教師データと比較することで機械学習される、請求項1または2に記載の自動操縦ロボットを制御する操作推論学習モデルの学習システム。
  4. 前記走行状態は、前記車速に加え、アクセルペダル開度、ブレーキペダル開度、エンジン回転数、ギア状態、エンジン温度のいずれか、またはいずれかの組み合わせを含む、請求項1から3のいずれか一項に記載の自動操縦ロボットを制御する操作推論学習モデルの学習システム。
  5. 車速を含む車両の走行状態を基に、前記車両を規定された指令車速に従って走行させるような、前記車両の操作を推論する操作推論学習モデルと、前記車両に搭載されて、前記操作を基に当該車両を走行させる自動操縦ロボットに関し、前記操作推論学習モデルを強化学習する、自動操縦ロボットを制御する操作推論学習モデルの学習方法であって、
    前記車両の実際の走行実績を基に、前記操作が入力されると、前記車両を模した前記走行状態である模擬走行状態を出力するように、車両学習モデルを機械学習し、
    前記車両学習モデルが出力する前記模擬走行状態と、当該模擬走行状態に対応する前記操作を前記自動操縦ロボットに適用して前記車両を走行させたときの実績データと、を比較して、これらの誤差を算出し、当該誤差を判定閾値と比較し、
    前記誤差が前記判定閾値以上の場合に、当該誤差が算出された前記模擬走行状態に対応する前記操作である誤差検出操作を抽出し、当該誤差検出操作を基にした関連操作を生成し、当該関連操作を前記自動操縦ロボットに適用して、前記車両学習モデルを追加学習するための追加学習データを取得し、
    前記誤差が前記判定閾値以上の場合に、前記追加学習データにより前記車両学習モデルを更に学習し、
    前記誤差が前記判定閾値より小さい場合に、前記車両学習モデルが出力した前記模擬走行状態を前記操作推論学習モデルに適用することで、前記操作推論学習モデルを強化学習する、自動操縦ロボットを制御する操作推論学習モデルの学習方法。
JP2020022384A 2020-02-13 2020-02-13 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法 Pending JP2021128510A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020022384A JP2021128510A (ja) 2020-02-13 2020-02-13 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020022384A JP2021128510A (ja) 2020-02-13 2020-02-13 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法

Publications (1)

Publication Number Publication Date
JP2021128510A true JP2021128510A (ja) 2021-09-02

Family

ID=77488618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020022384A Pending JP2021128510A (ja) 2020-02-13 2020-02-13 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法

Country Status (1)

Country Link
JP (1) JP2021128510A (ja)

Similar Documents

Publication Publication Date Title
WO2020183864A1 (ja) 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法
JP6781183B2 (ja) 制御装置及び機械学習装置
JP6954168B2 (ja) 車両速度制御装置及び車両速度制御方法
CN108621159A (zh) 一种基于深度学习的机器人动力学建模方法
JP6908144B1 (ja) 自動操縦ロボットの制御装置及び制御方法
US10444731B2 (en) Controller and machine learning device
CN113614743A (zh) 用于操控机器人的方法和设备
JP7336856B2 (ja) 情報処理装置、方法及びプログラム
WO2022059484A1 (ja) 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法
JP7110891B2 (ja) 自動操縦ロボットの制御装置及び制御方法
JP2021143882A (ja) 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法
JP2021128510A (ja) 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法
JP6866940B1 (ja) 自動操縦ロボットの制御装置及び制御方法
JP2023173617A (ja) 性能評価システムおよび情報処理装置
JP2024001584A (ja) 自動操縦ロボットの制御装置及び制御方法
Pretorius et al. Towards an artificial neural network-based simulator for behavioural evolution in evolutionary robotics
CN117444978B (zh) 一种气动软体机器人的位置控制方法及其系统、设备
Togai et al. Human driving behavior analysis and model representation with expertise acquiring process for controller rapid prototyping
US20240202537A1 (en) Learning method, learning device, control method, control device, and storage medium
JP7056794B1 (ja) モデル学習システム及びモデル学習装置
CN114779746B (zh) 基于hil台架系统的控制器标定方法、标定系统及电子装置
Pretorius Artificial Neural Networks as simulators for behavioural evolution in evolutionary robotics
JP2023043899A (ja) 制御装置及び制御方法
KR20230134890A (ko) 다관절 로봇의 구동을 위한 기구학 모델링 방법, 장치 및 컴퓨터 프로그램
JP2003014586A (ja) シミュレーション補助装置、及びシミュレーション装置