JP2021067256A - Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device - Google Patents
Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device Download PDFInfo
- Publication number
- JP2021067256A JP2021067256A JP2020060900A JP2020060900A JP2021067256A JP 2021067256 A JP2021067256 A JP 2021067256A JP 2020060900 A JP2020060900 A JP 2020060900A JP 2020060900 A JP2020060900 A JP 2020060900A JP 2021067256 A JP2021067256 A JP 2021067256A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- data
- value
- state
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Combined Controls Of Internal Combustion Engines (AREA)
Abstract
Description
本発明は、車両用制御データの生成方法、車両用制御装置、車両用制御システム、および車両用学習装置に関する。 The present invention relates to a method for generating control data for a vehicle, a control device for a vehicle, a control system for a vehicle, and a learning device for a vehicle.
たとえば下記特許文献1には、アクセルペダルの操作量をフィルタ処理した値に基づき、車両に搭載される内燃機関の操作部としてのスロットルバルブを操作する制御装置が記載されている。
For example,
ところで、上記フィルタは、アクセルペダルの操作量に応じて車両に搭載される内燃機関のスロットルバルブの操作量を適切な操作量に設定するものである必要があることから、その適合には熟練者が多くの工数をかける必要が生じる。このように、従来は、車両の状態に応じた車両内の電子機器の操作量等の適合には、熟練者が多くの工数をかけていた。 By the way, in the above filter, it is necessary to set the operation amount of the throttle valve of the internal combustion engine mounted on the vehicle to an appropriate operation amount according to the operation amount of the accelerator pedal. However, it is necessary to spend a lot of man-hours. As described above, conventionally, a skilled person has spent a lot of man-hours to adapt the operation amount of the electronic device in the vehicle according to the state of the vehicle.
以下、上記課題を解決するための手段およびその作用効果について記載する。
1.車両の状態が所定の条件を満たす場合における、前記車両の状態と前記車両内の電子機器の操作に関する行動を示す行動変数との関係を規定する第1データが記憶装置に記憶された状態で、前記車両の状態を検出するセンサの検出値を取得する取得処理と、前記電子機器を操作する操作処理と、前記所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づき、前記車両の特性が基準を満たす場合に満たさない場合よりも大きい報酬を与える報酬算出処理と、前記所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づく前記車両の状態、前記電子機器の操作に用いられた行動変数の値、および該操作に対応する前記報酬を予め定められた更新写像への入力とし、前記第1データを更新する更新処理と、を実行装置に実行させ、前記更新写像は、前記第1データに従って前記電子機器が操作される場合の前記報酬についての期待収益を増加させるように更新された前記第1データを出力するものであり、前記車両の状態が所定の条件を満たさない場合、前記報酬算出処理および前記更新処理によらずに前記車両の状態と前記行動変数との関係を適合して第2データとする車両用制御データの生成方法である。
Hereinafter, means for solving the above problems and their actions and effects will be described.
1. 1. When the state of the vehicle satisfies a predetermined condition, the first data defining the relationship between the state of the vehicle and the action variable indicating the behavior related to the operation of the electronic device in the vehicle is stored in the storage device. Based on the acquisition process of acquiring the detection value of the sensor that detects the state of the vehicle, the operation process of operating the electronic device, and the detection value acquired by the acquisition process when the predetermined conditions are satisfied, the said A reward calculation process that gives a larger reward than when the characteristics of the vehicle meet the criteria, and when the predetermined condition is satisfied, the state of the vehicle based on the detected value acquired by the acquisition process, the electronic The value of the action variable used for the operation of the device and the reward corresponding to the operation are input to the predetermined update mapping, and the execution device is made to execute the update process for updating the first data. The updated mapping outputs the first data updated so as to increase the expected profit for the reward when the electronic device is operated according to the first data, and the state of the vehicle is predetermined. This is a method of generating vehicle control data in which the relationship between the vehicle state and the action variable is matched and used as the second data regardless of the reward calculation process and the update process when the above conditions are not satisfied.
上記方法では、所定の条件を満たす場合、電子機器の操作に対応する報酬を算出することによって、当該操作によってどのような報酬が得られるかを把握することができる。そして、報酬に基づき、強化学習に従った更新写像によって第1データを更新することにより、車両の状態と行動変数との関係を設定することができる。したがって、車両の状態と行動変数との関係の設定に際して、熟練者に要求される工数を削減できる。しかも、所定の条件を満たす場合に強化学習によって第1データを更新し、所定の条件を満たさない場合には強化学習によらずに第2データを適合するため、熟練者の工数が大きくなる条件を所定の条件とすることにより、熟練者の工数を削減するうえで効果が顕著な条件において強化学習を利用することが可能となる。 In the above method, when a predetermined condition is satisfied, by calculating the reward corresponding to the operation of the electronic device, it is possible to grasp what kind of reward can be obtained by the operation. Then, based on the reward, the relationship between the state of the vehicle and the behavior variable can be set by updating the first data by the update mapping according to the reinforcement learning. Therefore, it is possible to reduce the man-hours required for the expert when setting the relationship between the state of the vehicle and the behavior variable. Moreover, when the predetermined condition is satisfied, the first data is updated by reinforcement learning, and when the predetermined condition is not satisfied, the second data is matched without relying on reinforcement learning. By setting the above as a predetermined condition, it becomes possible to use reinforcement learning under a condition in which the effect is remarkable in reducing the man-hours of a skilled person.
2.前記所定の条件は、過渡運転時である旨の条件である上記1記載の車両用制御データの生成方法である。
過渡運転時には定常運転時と比較して、車両の状態と行動変数との関係を適合するうえで熟練者の工数が大きくなる傾向がある。そこで上記方法では、所定の条件を過渡運転時である旨の条件とすることにより、熟練者の工数が特に大きくなる条件における車両の状態と行動変数との関係の適合を、強化学習によって自動的に実行することにより、熟練者に要求される工数を効果的に削減できる。
2. The predetermined condition is the method for generating vehicle control data according to 1 above, which is a condition for transient driving.
In transient operation, the man-hours of a skilled person tend to be larger in matching the relationship between the vehicle state and the behavior variable than in steady operation. Therefore, in the above method, by setting a predetermined condition as a condition that the driver is in transient operation, reinforcement learning automatically adjusts the relationship between the vehicle state and the behavior variable under the condition that the man-hours of the expert are particularly large. By executing this, the man-hours required for skilled workers can be effectively reduced.
3.前記車両は、内燃機関を搭載しており、前記電子機器は、前記内燃機関の操作部を含み、前記第1データは、前記車両の状態と前記行動変数としての前記内燃機関の操作部の操作量との関係を規定する上記1または2記載の車両用制御データの生成方法である。 3. 3. The vehicle is equipped with an internal combustion engine, the electronic device includes an operation unit of the internal combustion engine, and the first data is an operation of the operation unit of the internal combustion engine as the state of the vehicle and the action variable. The method for generating vehicle control data according to 1 or 2 above, which defines the relationship with the quantity.
内燃機関は、一般に多数の操作部を備え、且つ、排気特性、燃料消費率、ドライバビリティ等、要求要素が多いことから、車両の状態と行動変数としての操作部の操作量との関係の適合に熟練者の工数を多く必要とする傾向がある。そこで上記方法では、車両の状態と行動変数としての操作部の操作量との関係の適合に強化学習を用いることにより、熟練者の工数を効果的に削減できる。 Since an internal combustion engine generally has a large number of operation units and has many required elements such as exhaust characteristics, fuel consumption rate, and drivability, the relationship between the state of the vehicle and the operation amount of the operation unit as an action variable is matched. It tends to require a lot of man-hours for skilled workers. Therefore, in the above method, the man-hours of a skilled person can be effectively reduced by using reinforcement learning to match the relationship between the state of the vehicle and the operation amount of the operation unit as an action variable.
4.前記車両の状態と前記期待収益を最大化する前記行動変数の値とを1対1に対応付けることによって前記車両の状態を入力とし前記期待収益を最大化する前記行動変数の値を出力する制御用写像データを、前記更新処理によって更新された前記第1データに基づき生成する処理を前記実行装置に実行させる上記1〜3のいずれか1つに記載の車両用制御データの生成方法である。 4. For control that inputs the state of the vehicle and outputs the value of the action variable that maximizes the expected profit by associating the state of the vehicle with the value of the action variable that maximizes the expected profit on a one-to-one basis. The vehicle control data generation method according to any one of 1 to 3 above, wherein the execution device executes a process of generating mapping data based on the first data updated by the update process.
上記方法では、強化学習によって学習された第1データに基づき、制御用写像データを生成する。そのため、その制御用写像データを制御装置に実装することにより、車両の状態に基づき、期待収益を最大化する行動変数の値を簡易に設定することが可能となる。 In the above method, control mapping data is generated based on the first data learned by reinforcement learning. Therefore, by implementing the control mapping data in the control device, it is possible to easily set the value of the action variable that maximizes the expected return based on the state of the vehicle.
5.上記1〜3のいずれか1つに記載の前記記憶装置および前記実行装置を備え、前記記憶装置には、前記第2データが記憶されており、前記操作処理は、前記所定の条件が成立する場合、前記第1データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第1操作処理と、前記所定の条件が成立しない場合、前記第2データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第2操作処理と、を含む車両用制御装置である。 5. The storage device and the execution device according to any one of the above 1 to 3 are provided, the second data is stored in the storage device, and the operation process satisfies the predetermined conditions. In the case, the first operation process of operating the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the first data, and the first operation process when the predetermined condition is not satisfied, the first operation. 2 This is a vehicle control device including a second operation process for operating the electronic device according to the value of an action variable according to the state of the vehicle acquired by the acquisition process based on the data.
上記構成では、所定の条件を満たす場合、強化学習によって学習された第1データに基づき行動変数の値が設定され、それに基づき電子機器が操作されることにより、期待収益を大きくするように電子機器を操作することができる。しかも、所定の条件を満たす場合、報酬算出処理によって、関係規定データを更新することから、ユーザによる車両の運転シーンに応じた更新を行わない場合と比較して、関係規定データの更新機会を増加させることができる。 In the above configuration, when a predetermined condition is satisfied, the value of the action variable is set based on the first data learned by reinforcement learning, and the electronic device is operated based on the value, so that the expected return is increased. Can be operated. Moreover, when the predetermined conditions are met, the related regulation data is updated by the reward calculation process, so that the opportunity to update the related regulation data is increased as compared with the case where the user does not update according to the driving scene of the vehicle. Can be made to.
6.実行装置および記憶装置を備え、前記記憶装置には、車両の状態と前記車両内の電子機器の操作に関する変数である行動変数との関係を規定する、第1データおよび第2データが記憶されており、前記実行装置は、前記車両の状態を検出するセンサの検出値を取得する取得処理と、前記電子機器を操作する操作処理と、前記車両の状態が所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づき、前記車両の特性が基準を満たす場合に満たさない場合よりも大きい報酬を与える報酬算出処理と、前記車両の状態が所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づく前記車両の状態、前記電子機器の操作に用いられた行動変数の値、および該操作に対応する前記報酬を予め定められた更新写像への入力とし、前記第1データを更新する更新処理と、を実行し、前記更新写像は、前記第1データに従って前記電子機器が操作される場合の前記報酬についての期待収益を増加させるように更新された前記第1データを出力するものであり、前記操作処理は、前記所定の条件が成立する場合、前記第1データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第1操作処理と、前記所定の条件が成立しない場合、前記第2データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第2操作処理と、を含む車両用制御装置である。 6. The storage device includes an execution device and a storage device, and stores the first data and the second data that define the relationship between the state of the vehicle and the behavior variable which is a variable related to the operation of the electronic device in the vehicle. The executing device has an acquisition process for acquiring a detection value of a sensor that detects the state of the vehicle, an operation process for operating the electronic device, and an acquisition process when the state of the vehicle satisfies a predetermined condition. Based on the detection value acquired by, the reward calculation process that gives a larger reward than the case where the characteristics of the vehicle satisfy the criteria, and the acquisition process when the state of the vehicle satisfies the predetermined condition. The state of the vehicle based on the acquired detected value, the value of the action variable used for the operation of the electronic device, and the reward corresponding to the operation are input to the predetermined update mapping, and the first The update process of updating the data and the update process are executed, and the update mapping is the first data updated so as to increase the expected profit for the reward when the electronic device is operated according to the first data. The operation process operates the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the first data when the predetermined condition is satisfied. The first operation process to be performed and the second operation to operate the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the second data when the predetermined condition is not satisfied. A vehicle control device that includes processing.
上記構成では、所定の条件を満たす場合、電子機器の操作に対応する報酬を算出することによって、当該操作によってどのような報酬が得られるかを把握することができる。そして、報酬に基づき、強化学習に従った更新写像によって第1データを更新することにより、車両の状態と行動変数との関係を設定することができる。したがって、車両の状態と行動変数との関係を車両の走行において適切な関係に設定する際、熟練者に要求される工数を削減できる。しかも、所定の条件を満たす場合に強化学習によって第1データを更新するため、熟練者の工数が大きくなる条件を所定の条件とすることにより、熟練者の工数を削減するうえで効果が顕著な条件において強化学習を利用することが可能となる。 In the above configuration, when a predetermined condition is satisfied, by calculating the reward corresponding to the operation of the electronic device, it is possible to grasp what kind of reward can be obtained by the operation. Then, based on the reward, the relationship between the state of the vehicle and the behavior variable can be set by updating the first data by the update mapping according to the reinforcement learning. Therefore, when setting the relationship between the state of the vehicle and the behavior variable to an appropriate relationship in the running of the vehicle, the man-hours required for the expert can be reduced. Moreover, since the first data is updated by reinforcement learning when a predetermined condition is satisfied, the effect of reducing the man-hours of the expert is remarkable by setting the condition that the man-hour of the expert is large as the predetermined condition. Reinforcement learning can be used under conditions.
7.上記5または6記載の前記実行装置および前記記憶装置を備え、前記実行装置は、前記車両に搭載される第1実行装置と、車載装置とは別の第2実行装置と、を含み、前記第1実行装置は、少なくとも前記取得処理、および前記操作処理を実行し、前記第2実行装置は、少なくとも前記更新処理を実行する車両用制御システムである。 7. The execution device and the storage device according to the above 5 or 6 are provided, and the execution device includes a first execution device mounted on the vehicle and a second execution device different from the in-vehicle device, and the first execution device includes the first execution device. The 1 execution device is a vehicle control system that executes at least the acquisition process and the operation process, and the second execution device executes at least the update process.
上記構成では、更新処理を第2実行装置によって実行することにより、更新処理を第1実行装置が実行する場合と比較して、第1実行装置の演算負荷を軽減できる。
なお、第2実行装置が車載装置とは別の装置であることは、第2実行装置が車載装置ではないことを意味する。
In the above configuration, by executing the update process by the second execution device, the calculation load of the first execution device can be reduced as compared with the case where the update process is executed by the first execution device.
The fact that the second executing device is a device different from the in-vehicle device means that the second executing device is not an in-vehicle device.
8.上記7記載の第1実行装置を備える車両用制御装置である。
9.上記7記載の第2実行装置を備える車両用学習装置である。
8. It is a vehicle control device including the first execution device according to the above 7.
9. It is a learning device for a vehicle including the second executing device according to the above 7.
以下、車両用制御データの生成方法、車両用制御装置、車両用制御システム、および車両用学習装置にかかる実施形態について図面を参照しつつ説明する。
<第1の実施形態>
図1に、本実施形態にかかる車両VC1の駆動系および制御装置の構成を示す。
Hereinafter, embodiments of a vehicle control data generation method, a vehicle control device, a vehicle control system, and a vehicle learning device will be described with reference to the drawings.
<First Embodiment>
FIG. 1 shows the configuration of the drive system and the control device of the vehicle VC1 according to the present embodiment.
図1に示すように、内燃機関10の吸気通路12には、上流側から順にスロットルバルブ14および燃料噴射弁16が設けられており、吸気通路12に吸入された空気や燃料噴射弁16から噴射された燃料は、吸気バルブ18の開弁に伴って、シリンダ20およびピストン22によって区画される燃焼室24に流入する。燃焼室24内において、燃料と空気との混合気は、点火装置26の火花放電に伴って燃焼に供され、燃焼によって生じたエネルギは、ピストン22を介してクランク軸28の回転エネルギに変換される。燃焼に供された混合気は、排気バルブ30の開弁に伴って、排気として排気通路32に排出される。排気通路32には、排気を浄化する後処理装置としての触媒34が設けられている。
As shown in FIG. 1, the
クランク軸28には、ロックアップクラッチ42を備えたトルクコンバータ40を介して、変速装置50の入力軸52が機械的に連結可能とされている。変速装置50は、入力軸52の回転速度と出力軸54の回転速度との比である変速比を可変とする装置である。出力軸54には、駆動輪60が機械的に連結されている。
The
制御装置70は、内燃機関10を制御対象とし、その制御量であるトルクや排気成分比率等を制御すべく、スロットルバルブ14、燃料噴射弁16および点火装置26等の内燃機関10の操作部を操作する。また、制御装置70は、トルクコンバータ40を制御対象とし、ロックアップクラッチ42の係合状態を制御すべくロックアップクラッチ42を操作する。また、制御装置70は、変速装置50を制御対象とし、その制御量としての変速比を制御すべく変速装置50を操作する。なお、図1には、スロットルバルブ14、燃料噴射弁16、点火装置26、ロックアップクラッチ42、および変速装置50のそれぞれの操作信号MS1〜MS5を記載している。
The
制御装置70は、制御量の制御のために、エアフローメータ80によって検出される吸入空気量Gaや、スロットルセンサ82によって検出されるスロットルバルブ14の開口度(スロットル開口度TA)、クランク角センサ84の出力信号Scrを参照する。また、制御装置70は、触媒34の上流側に設けられた空燃比センサ86の検出値Afuや、アクセルセンサ90によって検出されるアクセルペダル88の踏み込み量(アクセル操作量PA)、加速度センサ92によって検出される車両VC1の前後方向の加速度Gxを参照する。
The
制御装置70は、CPU72、ROM74、電気的に書き換え可能な不揮発性メモリ(記憶装置76)、および周辺回路78を備え、それらがローカルネットワーク79を介して通信可能とされている。ここで、周辺回路78は、内部の動作を規定するクロック信号を生成する回路や、電源回路、リセット回路等を含む。
The
ROM74には、制御プログラム74aが記憶されている。一方、記憶装置76には、定常マップデータDMsと過渡マップデータDMtとが記憶されている。定常マップデータDMsは、アクセル操作量PAおよび回転速度NEを入力変数とし、スロットル開口度TAの指令値(スロットル開口度指令値TA*)を出力変数とするマップデータと、回転速度NEおよび充填効率ηを入力変数とし、基準点火時期abseを出力変数とするマップデータとからなる。過渡マップデータDMtは、アクセル操作量PAの時系列データを入力変数とし、スロットル開口度指令値TA*を出力変数とするマップデータと、アクセル操作量PAの時系列データを入力変数とし、基準点火時期abseに対する遅角量aopを出力変数とするマップデータとからなる。なお、基準点火時期abseは、MBT点火時期とノック限界点とのうちの遅角側の時期である。MBT点火時期は、最大トルクの得られる点火時期(最大トルク点火時期)である。またノック限界点は、ノック限界の高い高オクタン価燃料の使用時に、想定される最良の条件下で、ノッキングを許容できるレベル以内に収めることのできる点火時期の進角限界値である。
The control program 74a is stored in the
なお、マップデータとは、入力変数の離散的な値と、入力変数の値のそれぞれに対応する出力変数の値と、の組データである。
図2に、本実施形態にかかる制御装置70が実行する処理の手順を示す。図2に示す処理は、ROM74に記憶された制御プログラム74aをCPU72がたとえば所定周期で繰り返し実行することにより実現される。なお、以下では、先頭に「S」が付与された数字によって各処理のステップ番号を示す。
The map data is a set of data of discrete values of input variables and values of output variables corresponding to the values of the input variables.
FIG. 2 shows a procedure of processing executed by the
図2に示す一連の処理において、CPU72は、まず回転速度NEおよび充填効率ηを取得する(S10)。ここで、回転速度NEは、出力信号Scrに基づきCPU72によって算出される。また、充填効率ηは、回転速度NEおよび吸入空気量Gaに基づきCPU72によって算出される。次に、CPU72は、定常マップデータDMsによって規定され基準点火時期abseを出力変数とするマップデータを用い、回転速度NEおよび充填効率ηを入力変数として、基準点火時期abseをマップ演算する(S12)。ここで、マップ演算は、たとえば、入力変数の値がマップデータの入力変数の値のいずれかに一致する場合、対応するマップデータの出力変数の値を演算結果とするのに対し、一致しない場合、マップデータに含まれる複数の出力変数の値の補間によって得られる値を演算結果とする処理とすればよい。
In the series of processes shown in FIG. 2, the
そして、CPU72は、過渡フラグFが「1」であるか否かを判定する(S14)。過渡フラグFは、「1」である場合に過渡運転時であることを示し、「0」である場合に過渡運転時ではないことを示す。CPU72は、過渡フラグFが「0」であると判定する場合(S14:NO)、アクセル操作量PAの単位時間当たりの変化量ΔPAの絶対値が所定量ΔPAth以上であるか否かを判定する(S16)。ここで、変化量ΔPAは、たとえば、S16の処理の実行タイミングにおける最新のアクセル操作量PAと、同タイミングに対して単位時間だけ前におけるアクセル操作量PAとの差とすればよい。
Then, the
CPU72は、所定量ΔPAth以上であると判定する場合(S16:YES)、過渡フラグFに「1」を代入する(S18)。
これに対し、CPU72は、過渡フラグFが「1」であると判定する場合(S14:YES)、S16の処理において肯定判定されてから所定期間が経過したか否かを判定する(S20)。ここで、所定期間は、アクセル操作量PAの単位時間当たりの変化量ΔPAの絶対値が所定量ΔPAthよりも小さい規定量以下となる状態が所定時間継続するまでの期間とする。CPU72は、所定期間が経過したと判定する場合(S20:YES)、過渡フラグFに「0」を代入する(S22)。
When the
On the other hand, when the
CPU72は、S22の処理が完了する場合や、S16の処理において否定判定する場合には、アクセル操作量PAを取得する(S24)。そして、CPU72は、定常マップデータDMsにて規定されスロットル開口度指令値TA*を出力変数とするマップデータの入力変数をアクセル操作量PAおよび回転速度NEとすることによって、スロットル開口度指令値TA*をマップ演算する(S26)。ここで、マップ演算は、たとえば、入力変数の値がマップデータの入力変数の値のいずれかに一致する場合、対応するマップデータの出力変数の値を演算結果とするのに対し、一致しない場合、マップデータに含まれる複数の出力変数の値の補間によって得られる値を演算結果とする処理とすればよい。
The
そしてCPU72は、スロットル開口度指令値TA*に基づきスロットルバルブ14を操作すべくスロットルバルブ14に操作信号MS1を出力するとともに、基準点火時期abseに基づき点火装置26を操作すべく点火装置26に操作信号MS3を出力する(S28)。
Then, the
一方、CPU72は、S18の処理が完了する場合や、S20の処理において否定判定する場合には、アクセル操作量PAの6個のサンプリング値「PA(1),PA(2),…PA(6)」からなる時系列データを取得する(S30)。ここで、時系列データを構成する各サンプリング値は、互いに異なるタイミングにおいてサンプリングされたものである。本実施形態では、一定のサンプリング周期でサンプリングされる場合の、互いに時系列的に隣り合う6個のサンプリング値によって時系列データを構成する。
On the other hand, when the processing of S18 is completed or when a negative determination is made in the processing of S20, the
そしてCPU72は、過渡マップデータDMtに基づき、スロットル開口度指令値TA*および遅角量aopをマップ演算する(S32)。すなわち、CPU72は、過渡マップデータDMtによって規定されスロットル開口度指令値TA*を出力変数とするマップデータの入力変数を上記時系列データとしてスロットル開口度指令値TA*をマップ演算する。また、CPU72は、過渡マップデータDMtにて規定され遅角量aopを出力変数とするマップデータの入力変数を上記時系列データとして遅角量aopをマップ演算する。
Then, the
そしてCPU72は、スロットルバルブ14に操作信号MS1を出力してスロットル開口度TAを操作するとともに、点火装置26に操作信号MS3を出力して点火時期を操作する(S34)。ここで、CPU72は、基準点火時期abseを遅角量aopだけ遅角させた時期に基づき点火時期を設定する。具体的には、CPU72は、たとえば周知のノッキングコントロール(KCS)等がなされる場合、点火時期を、基準点火時期abseが遅角量aopで補正された値がKCSにてフィードバック補正された値とする。なお、本実施形態では、スロットル開口度TAをスロットル開口度指令値TA*にフィードバック制御することを例示することから、スロットル開口度指令値TA*が同一の値であっても、操作信号MS1が互いに異なる信号となりうるものである。
Then, the
なお、CPU72はS28,S34の処理が完了する場合、図2に示す一連の処理を一旦終了する。
図3に、上記定常マップデータDMsおよび過渡マップデータDMtを生成するシステムを示す。
When the processes of S28 and S34 are completed, the
FIG. 3 shows a system for generating the stationary map data DMs and the transient map data DMt.
図3に示すように、本実施形態では、内燃機関10のクランク軸28にトルクコンバータ40および変速装置50を介してダイナモメータ100を機械的に連結する。そして内燃機関10を稼働させた際の様々な状態変数がセンサ群102によって検出され、検出結果が、定常マップデータDMsや過渡マップデータDMtを生成するコンピュータである生成装置110に入力される。なお、センサ群102には、図1に示した車両VC1が搭載するセンサ等が含まれる。
As shown in FIG. 3, in the present embodiment, the
生成装置110は、CPU112、ROM114、電気的に書き換え可能な不揮発性メモリ(記憶装置116)、および周辺回路118を備えており、それらがローカルネットワーク119によって通信可能とされたものである。ここで、記憶装置116には、アクセル操作量PAと、スロットル開口度指令値TA*および遅角量aopとの関係を規定するデータである関係規定データDRが記憶されている。また、ROM114には、強化学習によって、関係規定データDRを学習する学習プログラム114aが記憶されている。
The
図4に、定常マップデータDMsの生成処理の手順を示す。図4に示す処理は、ROM114に記憶された学習プログラム114aを、CPU112が実行することにより実現される。
FIG. 4 shows a procedure for generating steady-state map data DMs. The process shown in FIG. 4 is realized by the
図4に示す一連の処理において、CPU112は、内燃機関10が定常運転された状態において、回転速度NEおよび充填効率ηに応じた基準点火時期abseを1つ設定し、点火時期が基準点火時期abseとなるように点火装置26を操作する(S40)。ここで設定する値は、熟練者によって予め定められた複数の候補のうちの1つとする。そして、CPU72は、内燃機関10のトルクTrqと、センサ群102に含まれるノッキングセンサによるノッキング強度とを取得する(S42)。ここで、トルクTrqは、ダイナモメータ100の発生する負荷トルクと、変速装置50の変速比とに基づきCPU112によって算出される。次に、CPU112は、トルクTrqおよびノッキング強度に基づき、S40の処理によって設定した基準点火時期abseが最適な時期であるか否かを判定する(S44)。ここで、最適な時期とは、MBTとノック限界点火時期とのうちの遅角側の時期として適切な時期のことである。
In the series of processes shown in FIG. 4, the
CPU112は、最適な時期ではないと判定する場合(S44:NO)、S40の処理に戻って、基準点火時期abseを別の時期に設定する。これに対し、CPU112は、最適な時期であると判定する場合(S44:YES)、S40の処理によって設定した点火時期を基準点火時期abseとして確定する(S46)。そして、CPU112は、回転速度NEおよび充填効率ηによって規定される動作点であって且つ定常マップデータDMsを定義する動作点の全てについてS46の処理が完了したか否かを判定する(S48)。CPU112は、未だS46の処理が完了していない動作点があると判定する場合(S48:NO)、S40の処理に戻る。
When the
これに対しCPU112は、全ての動作点についてS46の処理が完了したと判定する場合(S48:YES)、内燃機関10が定常運転された状態で、アクセル操作量PAおよび回転速度NEに応じたスロットル開口度指令値TA*を設定する(S50)。ここで設定する値は、熟練者によって予め設定された複数の候補のうちの1つとする。そしてCPU112は、トルクTrqを取得し(S52)、トルクTrqに基づき、S50の処理によって取得したスロットル開口度指令値TA*が最適な開口度であるか否かを判定する(S54)。ここで、CPU112は、アクセル操作量PAに応じたトルク指令値Trq*とトルクTrqとの偏差が十分小さい場合に最適な開口度と判定すればよい。CPU112は、最適な開口度ではないと判定する場合(S54:NO)、S50の処理に戻って、スロットル開口度指令値TA*として別の値を設定する。
On the other hand, when the
これに対し、CPU112は、最適な開口度であると判定する場合(S54:YES)、S50の処理において設定したスロットル開口度指令値TA*を、その時のアクセル操作量PAおよび回転速度NEに応じた値として確定する(S56)。そして、CPU112は、定常マップデータDMsを定義するアクセル操作量PAおよび回転速度NEの全ての組についてS56の処理が完了したか否かを判定する(S58)。そしてCPU112は、未だS56の処理がなされていない組があると判定する場合(S58:NO)、S50の処理に戻る。
On the other hand, when the
これに対し、CPU112は、全ての組についてS56の処理が完了したと判定する場合(S58:YES)、定常マップデータDMsを作成する(S60)。
なお、CPU112は、S60の処理が完了する場合、図4の処理を一旦終了する。
On the other hand, when the
When the process of S60 is completed, the
図5に、過渡マップデータDMtの生成のための前処理の手順を示す。図5に示す処理は、ROM114に記憶された学習プログラム114aを、CPU112が実行することにより実現される。
FIG. 5 shows a preprocessing procedure for generating transient map data DMt. The process shown in FIG. 5 is realized by the
図5に示す一連の処理において、CPU112は、まず、内燃機関10を稼働させた状態において、状態sとして、アクセル操作量PAの時系列データを取得する(S30)。ここでの時系列データは、図2に示したS30の処理におけるものと同様のデータである。ただし、図3に示すシステムにおいては、アクセルペダル88は存在しない。そのため、アクセル操作量PAを、生成装置110が車両VC1の状態を模擬することによって疑似的に生成されたものとし、疑似的に生成されたアクセル操作量PAを、車両の状態の検出値とみなす。なお、ここでCPU112は、アクセル操作量PAを変化させることによって、内燃機関10の過渡運転状態を模擬する。
In the series of processes shown in FIG. 5, the
次にCPU112は、関係規定データDRが定める方策πに従い、S30の処理によって取得した状態sに応じたスロットル開口度指令値TA*および遅角量aopからなる行動aを設定する(S32a)。
Next, the
本実施形態において、関係規定データDRは、行動価値関数Qおよび方策πを定めるデータである。本実施形態において、行動価値関数Qは、状態sおよび行動aの8次元の独立変数に応じた期待収益の値を示すテーブル型式の関数である。また、方策πは、状態sが与えられたときに、独立変数が与えられた状態sとなる行動価値関数Qのうち最大となる行動a(グリーディ行動)を優先的に選択しつつも、所定の確率εで、それ以外の行動aを選択する規則を定める。 In the present embodiment, the relational regulation data DR is data that defines the action value function Q and the policy π. In the present embodiment, the action value function Q is a table-type function showing the value of the expected return according to the eight-dimensional independent variables of the state s and the action a. Further, the policy π is predetermined while preferentially selecting the action a (greedy action) that is the largest among the action value functions Q in which the independent variable is given the state s when the state s is given. With the probability ε of, the rule for selecting other actions a is determined.
詳しくは、本実施形態にかかる行動価値関数Qの独立変数がとりうる値の数は、状態sおよび行動aのとりうる値の全組み合わせの一部が、人の知見等によって削減されたものである。すなわち、たとえばアクセル操作量PAの時系列データのうち隣接する2つのサンプリング値の1つがアクセル操作量PAの最小値となりもう1つが最大値となるようなことは、人によるアクセルペダル88の操作からは生じえないとして、行動価値関数Qが定義されていない。本実施形態では、人の知見等に基づく次元削減によって、行動価値関数Qを定義する状態sの取りうる値を、10の4乗個以下、より望ましくは10の3乗個以下に制限する。
Specifically, the number of possible values of the independent variable of the action value function Q according to the present embodiment is that a part of all combinations of possible values of the state s and the action a is reduced by human knowledge or the like. is there. That is, for example, in the time series data of the accelerator operation amount PA, one of the two adjacent sampling values becomes the minimum value of the accelerator operation amount PA and the other becomes the maximum value from the operation of the
次にCPU112は、設定されたスロットル開口度指令値TA*および遅角量aopに基づき、操作信号MS1,MS3を出力する(S34)。次にCPU112は、内燃機関10のトルクTrq、内燃機関10に対するトルク指令値Trq*、および加速度Gxを取得する(S70)。ここで、CPU112は、トルクTrqを、ダイナモメータ100が生成する負荷トルクと変速装置50の変速比とに基づき算出する。また、CPU112は、トルク指令値Trq*を、アクセル操作量PAに応じて設定する。また、CPU112は、加速度Gxを、ダイナモメータ100の負荷トルク等に基づき、仮に内燃機関10等が車両に搭載されていた場合に車両に生じると想定される値として算出する。すなわち、本実施形態においては、加速度Gxについても仮想的なものであるが、この加速度Gxについても、車両の状態の検出値であるとみなす。
Next, the
次にCPU112は、過渡期間が終了したか否かを判定する(S72)。ここでCPU112は、アクセル操作量PAの単位時間当たりの変化量ΔPAの絶対値を所定量ΔPth以上とした後、同単位時間当たりの変化量ΔPAの絶対値が所定量ΔPAthよりも小さい規定量以下となる状態が所定時間継続する場合に、過渡期間が終了したと判定する。CPU72は、過渡期間が未だ完了していないと判定する場合(S72:NO)、S30の処理に戻る。
Next, the
これに対し、CPU112は、過渡期間が完了したと判定する場合(S72:YES)、1つのエピソードが完了したとして、強化学習によって行動価値関数Qを更新する(S74)。
On the other hand, when the
図6に、S74の処理の詳細を示す。
図6に示す一連の処理において、CPU112は、直近に終了されたエピソード中のトルク指令値Trq*、トルクTrqおよび加速度Gxの3つのサンプリング値の組からなる時系列データと、状態sおよび行動aの時系列データと、を取得する(S80)。図6には、カッコの中の数字が異なるものが、異なるサンプリングタイミングにおける変数の値であることを示す。たとえば、トルク指令値Trq*(1)とトルク指令値Trq*(2)とは、サンプリングタイミングが互いに異なるものである。また、直近のエピソードに属する行動aの時系列データを、行動集合Ajとし、同エピソードに属する状態sの時系列データを、状態集合Sjと定義する。
FIG. 6 shows the details of the processing of S74.
In the series of processes shown in FIG. 6, the
次にCPU112は、直近のエピソードに属する任意のトルクTrqとトルク指令値Trq*との差の絶対値が規定量ΔTrq以下である旨の条件(ア)と、加速度Gxが下限値GxL以上であって上限値GxH以下である旨の条件(イ)との論理積が真であるか否かを判定する(S82)。
Next, the
ここで、CPU112は、規定量ΔTrqを、エピソードの開始時におけるアクセル操作量PAの単位時間当たりの変化量ΔPAによって可変設定する。すなわち、CPU112は、エピソードの開始時におけるアクセル操作量PAの変化量ΔPAの絶対値が大きい場合には過渡時に関するエピソードであるとして、定常時に関するエピソードと比較して、規定量ΔTrqを大きい値に設定する。
Here, the
また、CPU112は、下限値GxLを、エピソードの開始時におけるアクセル操作量PAの変化量ΔPAによって可変設定する。すなわち、CPU112は、過渡時に関するエピソードであって且つ変化量ΔPAが正である場合には、定常時に関するエピソードの場合と比較して、下限値GxLを大きい値に設定する。また、CPU112は、過渡時に関するエピソードであって且つ変化量ΔPAが負である場合には、定常時に関するエピソードの場合と比較して、下限値GxLを小さい値に設定する。
Further, the
また、CPU112は、上限値GxHを、エピソードの開始時におけるアクセル操作量PAの単位時間当たりの変化量ΔPAによって可変設定する。すなわち、CPU112は、過渡時に関するエピソードであって且つ変化量ΔPAが正である場合には、定常時に関するエピソードの場合と比較して、上限値GxHを大きい値に設定する。また、CPU112は、過渡時に関するエピソードであって且つ変化量ΔPAが負である場合には、定常時に関するエピソードの場合と比較して、上限値GxHを小さい値に設定する。
Further, the
CPU112は、論理積が真であると判定する場合(S82:YES)、報酬rに「10」を代入する一方(S84)、偽であると判定する場合(S82:NO)、報酬rに「−10」を代入する(S86)。CPU112は、S84,S86の処理が完了する場合、図3に示した記憶装置116に記憶されている関係規定データDRを更新する。本実施形態では、εソフト方策オン型モンテカルロ法を用いる。
When the
すなわち、CPU112は、上記S80の処理によって読み出した各状態と対応する行動との組によって定まる収益R(Sj,Aj)に、それぞれ、報酬rを加算する(S88)。ここで、「R(Sj,Aj)」は、状態集合Sjの要素の1つを状態とし行動集合Ajの要素の1つを行動とする収益Rを総括した記載である。次に、上記S80の処理によって読み出した各状態と対応する行動との組によって定まる収益R(Sj,Aj)のそれぞれについて、平均化して対応する行動価値関数Q(Sj,Aj)に代入する(S90)。ここで、平均化は、S88の処理がなされた回数によって、S88の処理によって算出された収益Rを除算する処理とすればよい。なお、収益Rの初期値はゼロとすればよい。
That is, the
次にCPU112は、上記S80の処理によって読み出した状態について、それぞれ、対応する行動価値関数Q(Sj,A)のうち、最大値となるときのスロットル開口度指令値TA*および遅角量aopの組である行動を、行動Aj*に代入する(S92)。ここで、「A」は、とりうる任意の行動を示す。なお、行動Aj*は、上記S80の処理によって読み出した状態の種類に応じて各別の値となるものであるが、ここでは、表記を簡素化して、同一の記号にて記載している。
Next, the
次に、CPU72は、上記S80の処理によって読み出した状態のそれぞれについて、対応する方策π(Aj|Sj)を更新する(S94)。すなわち、行動の総数を、「|A|」とすると、S92によって選択された行動Aj*の選択確率を、「1−ε+ε/|A|」とする。また、行動Aj*以外の「|A|−1」個の行動の選択確率を、それぞれ「ε/|A|」とする。S94の処理は、S90の処理によって更新された行動価値関数Qに基づく処理であることから、これにより、状態sと行動aとの関係を規定する関係規定データDRが、収益Rを増加させるように更新されることとなる。
Next, the
なお、CPU112は、S94の処理が完了する場合、図6に示す一連の処理を一旦終了する。
図5に戻り、CPU112は、S74の処理が完了すると、行動価値関数Qが収束したか否かを判定する(S76)。ここでは、独立変数のそれぞれの値に対して行動価値関数Qの更新量が所定値以下となる連続回数が所定回数に達する場合に収束したと判定すればよい。CPU112は、収束していないと判定する場合(S76:NO)、S30の処理に戻る。これに対し、CPU112は、収束したと判定する場合(S76:YES)、図5に示す一連の処理を終了する。
When the process of S94 is completed, the
Returning to FIG. 5, when the processing of S74 is completed, the
図7に、生成装置110が実行する処理のうち、特に図5の処理によって学習された行動価値関数Qに基づき、過渡マップデータDMtを生成する処理の手順を示す。図7に示す処理は、ROM114に記憶された学習プログラム114aを、CPU112が実行することにより実現される。
FIG. 7 shows a procedure of processing for generating transient map data DMt, particularly based on the action value function Q learned by the processing of FIG. 5, among the processes executed by the
図7に示す一連の処理において、CPU112は、まず、状態sを1つ選択する(S100)。次に、CPU112は、状態sに対応した行動価値関数Q(s,A)のうち、行動価値関数Qの値を最大とする行動aを選択する(S102)。すなわち、ここでは、グリーディ方策によって行動aを選択する。次に、CPU112は、状態sと行動aとの組を記憶装置116に記憶させる(S104)。
In the series of processes shown in FIG. 7, the
次にCPU112は、過渡マップデータDMtの入力変数の値とするもの全てがS100の処理によって選択されたか否かを判定する(S106)。そして、CPU112は、選択されていないものがあると判定する場合(S106:NO)、S100の処理に戻る。これに対し、CPU112は、全てが選択されたと判定する場合(S106:YES)、S104の処理によって記憶されたデータに基づき、過渡マップデータDMtを生成する(S108)。ここでは、過渡マップデータDMtの入力変数の値が状態sであるものに対応する出力変数の値を、対応する行動aとする。
Next, the
なお、CPU112は、S108の処理が完了する場合、図7に示す一連の処理を一旦終了する。
ここで、本実施形態の作用および効果について説明する。
When the process of S108 is completed, the
Here, the operation and effect of this embodiment will be described.
図3に示すシステムにおいて、CPU112は、定常マップデータDMsについては、強化学習によらずに適合する。これに対し、CPU112は、過渡マップデータDMtについては、強化学習によって、行動価値関数Qを学習することによって生成する。すなわちCPU112は、アクセル操作量PAの時系列データを取得し、方策πに従って、スロットル開口度指令値TA*および遅角量aopからなる行動aを設定する。ここでCPU72は、所定の確率εで、期待収益を最大化する行動a以外の行動を選択することによって、期待収益を最大化する行動aの探索を行う。そして、CPU112は、行動価値関数Qの値が収束する場合、過渡マップデータDMtの入力変数となる状態のそれぞれについて、行動価値関数Qを最大化する行動を選択し、状態と行動との組を記憶装置116に記憶する。次に、CPU112は、記憶装置116に記憶された状態と行動との組に基づき、過渡マップデータDMtを生成する。
In the system shown in FIG. 3, the
ここで、過渡マップデータDMtを熟練者が適合する場合には、出力変数の値について手探りで候補を設定し評価する作業を繰り返すこととなり、定常状態と比較して工数が多くなる。これに対し、本実施形態では、強化学習を利用することにより、熟練者の工数を削減できる。 Here, when a skilled person fits the transient map data DMt, the work of setting and evaluating the candidate for the value of the output variable by fumbling is repeated, and the man-hours are increased as compared with the steady state. On the other hand, in the present embodiment, the man-hours of a skilled person can be reduced by using reinforcement learning.
以上説明した本実施形態によれば、さらに以下に記載する効果が得られる。
(1)制御装置70が備える記憶装置76に、行動価値関数Q等ではなく、過渡マップデータDMtを記憶した。これにより、CPU72は、過渡マップデータDMtを用いたマップ演算に基づき、スロットル開口度指令値TA*や遅角量aopを設定することから、行動価値関数Qのうち最大値となるものを選択する処理を実行する場合と比較して、演算負荷を軽減できる。
According to the present embodiment described above, the effects described below can be further obtained.
(1) The transient map data DMt is stored in the
(2)行動価値関数Qの独立変数にアクセル操作量PAの時系列データを含めた。これにより、アクセル操作量PAに関して単一のサンプリング値のみを独立変数とする場合と比較して、アクセル操作量PAの様々な変化に対して行動aの値をきめ細かく調整できる。 (2) The time series data of the accelerator operation amount PA was included in the independent variable of the action value function Q. As a result, the value of the action a can be finely adjusted for various changes in the accelerator operation amount PA, as compared with the case where only a single sampling value is used as the independent variable for the accelerator operation amount PA.
(3)行動価値関数Qの独立変数に、スロットル開口度指令値TA*自体を含めた。これにより、たとえば、スロットル開口度指令値TA*の挙動をモデル化したモデル式のパラメータ等をスロットル開口度に関する独立変数とする場合と比較して、強化学習による探索の自由度を高めることが容易である。 (3) The throttle opening command value TA * itself is included in the independent variable of the action value function Q. This makes it easier to increase the degree of freedom of search by reinforcement learning, for example, as compared with the case where the parameters of the model formula that models the behavior of the throttle opening command value TA * are used as independent variables related to the throttle opening. Is.
<第2の実施形態>
以下、第2の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
<Second embodiment>
Hereinafter, the second embodiment will be described with reference to the drawings, focusing on the differences from the first embodiment.
図8に、本実施形態にかかる車両VC1の駆動系および制御装置を示す。なお、図8において、図1に示した部材に対応する部材については、便宜上、同一の符号を付している。 FIG. 8 shows the drive system and the control device of the vehicle VC1 according to the present embodiment. In FIG. 8, the members corresponding to the members shown in FIG. 1 are designated by the same reference numerals for convenience.
図8に示すように、本実施形態では、ROM74に、制御プログラム74aに加えて、学習プログラム74bが記憶されている。また、記憶装置76に、定常マップデータDMsについては記憶されているものの、過渡マップデータDMtについては記憶されておらず、代わりに、関係規定データDRが記憶され、また、トルク出力写像データDTが記憶されている。ここで、関係規定データDRは、図5の処理によって学習された学習済みのデータである。また、トルク出力写像データDTによって規定されるトルク出力写像は、回転速度NE、充填効率η、および点火時期を入力とし、トルクTrqを出力するニューラルネットワーク等の学習済みモデルに関するデータである。なお、上記トルク出力写像データDTは、たとえば図5の処理を実行する際、S70の処理によって取得されるトルクTrqを教師データとして学習されたものとすればよい。
As shown in FIG. 8, in the present embodiment, the
図9に、本実施形態にかかる制御装置70が実行する処理の手順を示す。図9に示す処理は、ROM74に記憶された制御プログラム74aおよび学習プログラム74bを、CPU72がたとえば所定周期で繰り返し実行することにより実現される。なお、図9において、図2および図5に示した処理に対応する処理については、便宜上同一のステップ番号を付与する。
FIG. 9 shows a procedure of processing executed by the
図9に示す一連の処理において、CPU72は、S30の処理が完了する場合、S32a,S34,S70の処理を順次実行し、図9に示す一連の処理を一旦終了する。また、CPU72は、S22の処理を完了する場合には、S74の処理を実行する。そして、CPU72は、S74の処理を完了する場合やS16の処理において否定判定する場合には、S24〜S28の処理を実行し、図9に示す一連の処理を一旦終了する。ちなみに、図9の処理のうちのS74の処理以外の処理は、CPU72が制御プログラム74aを実行することにより実現され、S74の処理は、CPU72が学習プログラム74bを実行することにより実現される。
In the series of processes shown in FIG. 9, when the process of S30 is completed, the
このように、本実施形態によれば、制御装置70に関係規定データDRおよび学習プログラム74bを実装することにより、車両VC1の実際の走行に伴って、関係規定データDRを更新できることから、第1の実施形態の場合と比較して、関係規定データDRの更新頻度を向上させることができる。
As described above, according to the present embodiment, by mounting the relational regulation data DR and the
<第3の実施形態>
以下、第3の実施形態について、第2の実施形態との相違点を中心に図面を参照しつつ説明する。
<Third embodiment>
Hereinafter, the third embodiment will be described with reference to the drawings, focusing on the differences from the second embodiment.
本実施形態では、関係規定データDRの更新を、車両VC1の外で実行する。
図10に、本実施形態において、強化学習を実行する制御システムの構成を示す。なお、図10において、図1に示した部材に対応する部材については、便宜上、同一の符号を付している。
In the present embodiment, the update of the related regulation data DR is executed outside the vehicle VC1.
FIG. 10 shows the configuration of the control system that executes reinforcement learning in the present embodiment. In FIG. 10, the members corresponding to the members shown in FIG. 1 are designated by the same reference numerals for convenience.
図10に示す車両VC1内の制御装置70におけるROM74は、制御プログラム74aを記憶しているものの、学習プログラム74bを記憶していない。また、記憶装置76は、定常マップデータDMsや、関係規定データDR、トルク出力写像データDTを記憶している。なお、本実施形態にかかる定常マップデータDMsは、上記実施形態における基準点火時期abseを出力変数とするデータと、スロットル開口度指令値TA*を出力変数とするデータとに加えて、充填効率ηを入力変数としベース噴射量Qbseを出力変数とするデータを含む。ここで、充填効率ηを入力変数としベース噴射量Qbseを出力変数とするデータにおいて、ベース噴射量Qbseは、充填効率ηに対応する空気と燃料との混合気が理論空燃比となるように設定されたものであり、充填効率ηに所定の比例係数を乗算した値となる。また、本実施形態にかかる関係規定データDRは、行動変数を、スロットル開口度指令値TA*、遅角量aopおよびベース噴射量Qbseとするものである。
The
また、制御装置70は、通信機77を備えている。通信機77は車両VC1の外部のネットワーク120を介してデータ解析センター130と通信するための機器である。
データ解析センター130は、複数の車両VC1,VC2,…から送信されるデータを解析する。データ解析センター130は、CPU132、ROM134、および電気的に書き換え可能な不揮発性メモリ(記憶装置136)、周辺回路138および通信機137を備えており、それらがローカルネットワーク139によって通信可能とされるものである。ROM134には、学習プログラム74bが記憶されており、記憶装置136には、関係規定データDRが記憶されている。
Further, the
The
図11に、本実施形態にかかる制御装置70が実行する処理の手順を示す。図11に示す処理は、ROM74に記憶された制御プログラム74aを、CPU72がたとえば所定周期で繰り返し実行することにより実現される。なお、図11において、図9に示した処理に対応する処理については、便宜上同一のステップ番号を付与する。
FIG. 11 shows a procedure of processing executed by the
図11に示す一連の処理において、CPU72は、S22の処理を完了する場合やS16の処理において否定判定する場合には、S24の処理に移行する。そしてCPU72は、S24の処理を完了する場合、定常マップデータDMsに基づき、スロットル開口度指令値TA*とベース噴射量Qbseとをマップ演算する(S26a)。そして、CPU72は、S28の処理と同様にして操作信号MS1,MS3を出力することに加えて、ベース噴射量Qbseに基づき燃料噴射弁16を操作すべく燃料噴射弁16に操作信号MS2を出力する(S28a)。ここで、CPU72は、検出値Afuを目標値にフィードバック制御するための操作量によってベース噴射量Qbseを補正した値に基づき、操作信号MS2を生成する。
In the series of processes shown in FIG. 11, the
一方、CPU72は、S18の処理が完了する場合、状態sとして、アクセル操作量PAの時系列データに加えて、回転速度NEおよび充填効率ηの時系列データを取得する(S30a)。本実施形態では、アクセル操作量PA、回転速度NE、および充填効率ηの各時系列データを、等間隔でサンプリングされた6個の値とする。次にCPU72は、S30aの処理において取得した状態sに基づき行動aを設定する(S32b)。
On the other hand, when the processing of S18 is completed, the
図12に、S32bの処理の詳細を示す。
本実施形態では、方策πを、行動を定める各操作量の取りうる確率を定める多変量ガウス分布とする。ここで、多変量ガウス分布の平均値μ(1)は、スロットル開口度指令値TA*の平均値を示し、平均値μ(2)は、遅角量aopの平均値を示し、平均値μ(3)は、ベース噴射量Qbseの平均値を示す。また、本実施形態では、多変量ガウス分布の共分散行列を対角行列とし、各平均値μ(i)に対応する分散σ(i)が各別の値となりうるものとする。
FIG. 12 shows the details of the processing of S32b.
In the present embodiment, the policy π is a multivariate Gaussian distribution that determines the possible probabilities of each manipulated variable that determines the behavior. Here, the average value μ (1) of the multivariate Gaussian distribution indicates the average value of the throttle opening command value TA *, and the average value μ (2) indicates the average value of the retard angle amount aop, and the average value μ. (3) shows the average value of the base injection amount Qbse. Further, in the present embodiment, the covariance matrix of the multivariate Gaussian distribution is a diagonal matrix, and the variance σ (i) corresponding to each average value μ (i) can be a different value.
図12に示すように、CPU72は、方策πを設定するための関数近似器の入力変数x(1)〜x(18)に、S30aの処理によって取得した状態sを代入する(S110)。詳しくは、CPU72は、「i=1〜6」として、入力変数x(i)にアクセル操作量PA(i)を代入し、入力変数x(6+i)に回転速度NE(i)を代入し、入力変数x(12+i)に充填効率η(i)を代入する。
As shown in FIG. 12, the
次に、CPU72は、「i=1〜3」のそれぞれについて、平均値μ(i)および分散σ(i)を算出する(S112)。本実施形態では、平均値μ(i)を、中間層の層数が「p−1」個であって且つ、各中間層の活性化関数h1〜hp−1がハイパボリックタンジェントであり、出力層の活性化関数hpがReLUであるニューラルネットワークによって構成されている。ここで、ReLUは、入力と「0」とのうちの小さくない方を出力する関数である。また、m=1,2,…,p−1とすると、第mの中間層の各ノードの値は、係数w(m)によって規定される線形写像の出力を活性化関数hmに入力することによって生成される。ここで、n1,n2,…,np−1は、それぞれ、第1、第2、…、第p−1中間層のノード数である。たとえば、第1の中間層の各ノードの値は、係数w(1)ji(j=0〜n1,i=0〜18)によって規定される線形写像に上記入力変数x(1)〜x(18)を入力した際の出力を活性化関数h1に入力することによって生成される。ちなみに、w(1)j0等は、バイアスパラメータであり、入力変数x(0)は、「1」と定義している。
Next, the
上記ニューラルネットワークは、活性化関数hpの出力を係数w(p)iq(i=1〜3,q=0〜np−1)によって規定される線形写像に入力した際の出力を平均値μ(i)とする。 In the above neural network, the output when the output of the activation function hp is input to the linear map defined by the coefficient w (p) iq (i = 1-3, q = 0 to np-1) is the average value μ ( i).
また、本実施形態では、分散σ(i)を、係数wTik(i=1〜3,k=1〜18)によって規定される線形写像によって入力変数x(1)〜x(18)を線形変換した値のそれぞれを関数fに入力した際の関数fの値とする。本実施形態では、関数fとして、ReLUを例示する。 Further, in the present embodiment, the variance σ (i) is linearly transformed from the input variables x (1) to x (18) by a linear map defined by the coefficient wTik (i = 1-3, k = 1-18). Let each of these values be the value of the function f when it is input to the function f. In this embodiment, ReLU is exemplified as the function f.
次にCPU72は、S112の処理によって算出された平均値μ(i)および分散σ(i)にて定義される方策πに基づき、行動aを決定する(S114)。ここでは、平均値μ(i)を選択する確率が最も高く、且つ、平均値μ(i)を選択する確率は、分散σ(i)が小さい場合に大きい場合よりも大きくなる。
Next, the
なお、CPU72は、S114の処理を完了する場合、図11のS32bの処理を完了する。そして、CPU72は、S34の処理と同様にして操作信号MS1,MS3を出力することに加えて、S32bの処理によって設定されたベース噴射量Qbseを、検出値Afuを目標値にフィードバック制御するための操作量にて補正した値の燃料を燃料噴射弁16から噴射させるべく、燃料噴射弁16に操作信号MS2を出力する(S34a)。
When the
なお、CPU72は、S28a,34aの処理を完了する場合、図11に示す一連の処理を一旦終了する。
図13に、本実施形態にかかる強化学習の処理手順を示す。図13(a)に示す処理は、図10に示すROM74に記憶された制御プログラム74aをCPU72が実行することにより実現される。また、図13(b)に示す処理は、ROM134に記憶されている学習プログラム74bを、S34aの処理が実行される場合にCPU132がS34aの処理の実行周期で繰り返し実行することにより実現される。以下では、強化学習の時系列に沿って、図13に示す処理を説明する。
When the
FIG. 13 shows a processing procedure of reinforcement learning according to the present embodiment. The process shown in FIG. 13A is realized by the
図13(a)に示すように、CPU72は、トルク指令値Trq*、トルクTrq、加速度Gx、および検出値Afuを取得する(S120)。次にCPU72は、通信機77を操作することによって、S120の処理によって取得したデータを送信する(S122)。
As shown in FIG. 13A, the
これに対し図13(b)に示すように、CPU132は、S122の処理によって送信されたデータを受信する(S130)。次にCPU132は、上記条件(ア)と上記条件(イ)と、検出値Afuがリッチ側上限値AfR以上であって且つリーン側上限値AfL以下である旨の条件(ウ)との論理積が真であるか否かを判定する(S132)。
On the other hand, as shown in FIG. 13B, the
そしてCPU132は、論理積が真であると判定する場合(S132:YES)、報酬rに「1」を代入する(S134)一方、偽であると判定する場合(S132:NO)、報酬rに「−1」を代入する(S136)。CPU132は、S134,S136の処理が完了する場合、収益Rに報酬rを加算する(S138)。そして、CPU132は、変数tが所定時間T−1に達したか否かを判定する(S140)。CPU132は、所定時間T−1に達していないと判定する場合(S140:NO)、変数tをインクリメントする(S142)。
Then, when the
これに対しCPU132は、所定時間T−1に達すると判定する場合(S140:YES)、収益Riに、収益Rを代入した後、収益Rを初期化し、さらに、変数tを初期化する(S144)。次にCPU132は、変数iが所定値Nに達したか否かを判定する(S146)。そして、CPU132は、所定値Nに達していないと判定する場合(S146:NO)、変数iをインクリメントする(S148)。
On the other hand, when the
これに対し、CPU132は、所定値Nに達すると判定する場合(S146:YES)、方策勾配法によって、方策πを規定する変数w(1)〜w(p)や係数wTを更新する(S150)。図13には、方策πを規定する変数w(1)〜w(p)や係数wTを総括してパラメータθと記載している。
On the other hand, when the
ここで、変数tが0〜T−1となるまでにおける、状態s、行動aおよび報酬rの、T個の組を、トラジェクトリhtとし、確率pθ(ht)を、パラメータθによって規定される方策πに従ってトラジェクトリhtとなる確率pθ(ht)とする。ここでは、「pθ(ht)・Rt」のトラジェクトリhtによる積分値は、収益R(ht)の期待値(期待収益J)であり、これを最大化するように、パラメータθを更新する。これは、パラメータθの各成分の更新量を、同成分によって上記期待収益Jを偏微分した値に比例した量とすることにより実現できる。 Here, a measure in which T sets of states s, action a, and reward r until the variable t becomes 0 to T-1 is a trajectory ht, and the probability pθ (ht) is defined by the parameter θ. Let the probability of becoming a trajectory ht according to π be pθ (ht). Here, the integrated value of “pθ (ht) · Rt” by the trajectory ht is the expected value (expected return J) of the profit R (ht), and the parameter θ is updated so as to maximize this. This can be realized by setting the update amount of each component of the parameter θ to be an amount proportional to the value obtained by partially differentiating the expected return J by the same component.
ここで、確率pθ(ht)は、状態s0,s1,…sT、行動a0,a1,…aTを用いると、pθ(ht)=p(s0)・p(s1|s0,a0)・π(a0|s0)・p(s2|s1,a1)・π(a1|s1)…p(sT|sT-1,aT-1)・π(aT-1|sT-1)
となる。ただし、初期確率p(s0)は、状態s0となる確率であり、遷移確率p(st+1|st,at)は、状態st、行動atのときに状態stから状態st+1に遷移する確率である。
Here, the probability pθ (ht) is pθ (ht) = p (s0) · p (s1 | s0, a0) · π (when the states s0, s1, ... sT and the actions a0, a1, ... aT are used. a0 | s0) ・ p (s2 | s1, a1) ・ π (a1 | s1)… p (sT | sT-1, aT-1) ・ π (aT-1 | sT-1)
Will be. However, the initial probability p (s0) is the probability of becoming the state s0, and the transition probability p (st + 1 | st, at) is the probability of transitioning from the state st to the state st + 1 at the time of the state st and the action at.
したがって、期待収益Jの偏微分は、下記の式(c1)となる。 Therefore, the partial differential of the expected return J is given by the following equation (c1).
ここで、確率pθ(ht)については、知ることができないことから、上記の式(c1)における積分を、複数(ここでは、所定値N個)のトラジェクトリhtによる平均値に置き換える。
Here, since the probability pθ (ht) cannot be known, the integral in the above equation (c1) is replaced with an average value of a plurality of (here, N predetermined values) trajectories.
これにより、期待収益Jのパラメータθの各成分による偏微分は、方策π(at|ht(i))の対数のパラメータθの該当する成分による偏微分係数の「t=0〜T−1」における和と収益Riとの積を、所定値N個の収益Riについて加算し、所定値Nで除算した値となる。 As a result, the partial differential of each component of the parameter θ of the expected profit J is the partial differential coefficient “t = 0 to T-1” of the corresponding component of the logarithmic parameter θ of the policy π (at | ht (i)). The product of the sum and the profit Ri in the above is added to the predetermined value N of the profit Ri and divided by the predetermined value N.
パラメータθの各成分による期待収益Jの偏微分係数に学習率αを乗算した値を、パラメータθのうちの該当する成分の更新量とする。
なお、S140〜S150の処理は、ROM134に記憶された学習プログラム74bのうち、状態s0,s1,…、行動a0,a1,…、および報酬rを入力とし、更新されたパラメータθを出力する更新写像の実行指令が実行されることによって実現される。
The value obtained by multiplying the partial differential coefficient of the expected return J by each component of the parameter θ by the learning rate α is defined as the update amount of the corresponding component of the parameter θ.
In the processing of S140 to S150, among the learning
CPU132は、S150の処理が完了する場合、変数iおよび収益R1〜RNを初期化する(S152)。そしてCPU132は、通信機137を操作して、更新されたパラメータθを送信する(S154)。
When the processing of S150 is completed, the
なお、CPU132は、S142,S148,S154の処理が完了する場合、図13(b)に示す一連の処理を一旦終了する。
これに対し図13(a)に示すように、CPU72は、更新データがあるか否かを判定する(S124)。そしてCPU72は、更新データがあると判定する場合(S124:YES)、更新データを受信する(S126)。そしてCPU72は、S32bの処理において利用する関係規定データDRを構成する係数w(1)〜w(p),wTを、S126の処理によって受信したデータに書き換える(S128)。なお、CPU72は、S128の処理が完了する場合や、S124の処理において否定判定する場合には、図13(a)に示す一連の処理を一旦終了する。
When the processes of S142, S148, and S154 are completed, the
On the other hand, as shown in FIG. 13A, the
ちなみに、車両VC1の出荷時に制御装置70に実装される関係規定データDRは、図12および図13の処理に準じた処理を図3に示したシステムにおいて実行することによって生成された学習済みモデルである。
By the way, the relational regulation data DR mounted on the
このように、本実施形態によれば、関係規定データDRの更新処理をデータ解析センター130によって実行することにより、CPU72の演算負荷を軽減できる。
以上説明した本実施形態によれば、さらに以下の作用効果が得られる。
As described above, according to the present embodiment, the calculation load of the
According to the present embodiment described above, the following effects can be further obtained.
(4)関係規定データDRに関数近似器を用いることにより、状態や行動が連続変数であっても、これを容易に扱うことができる。
(5)行動aにベース噴射量Qbseを含めた。過渡時においては開ループ操作量としてのベース噴射量Qbseを充填効率ηに比例した値としたのみでは、検出値Afuがリッチ側上限値AfRとリーン側上限値AfLとの間から外れるおそれがある。そして、どのようにベース噴射量Qbseを設定すればよいかを、熟練者による試行錯誤の繰り返しによって行う場合には、熟練者に要求される工数が多くなる。これに対し、本実施形態では、過渡時の開ループ制御の噴射量であるベース噴射量Qbseを強化学習によって学習することにより、熟練者に要求される工数を効果的に削減できる。
(4) By using a function approximator for the relational regulation data DR, even if the state or action is a continuous variable, it can be easily handled.
(5) The base injection amount Qbse was included in the action a. In the transient case, if the base injection amount Qbse as the open loop operation amount is set to a value proportional to the filling efficiency η, the detected value Afu may deviate from the rich side upper limit value AfR and the lean side upper limit value AfL. .. Then, when the method of setting the base injection amount Qbse is performed by repeating trial and error by a skilled person, the number of man-hours required for the skilled person increases. On the other hand, in the present embodiment, the man-hours required for the expert can be effectively reduced by learning the base injection amount Qbse, which is the injection amount of the open loop control at the time of transient, by reinforcement learning.
<対応関係>
上記実施形態における事項と、上記「課題を解決するための手段」の欄に記載した事項との対応関係は、次の通りである。以下では、「課題を解決するための手段」の欄に記載した解決手段の番号毎に、対応関係を示している。
<Correspondence>
The correspondence between the matters in the above-described embodiment and the matters described in the above-mentioned "means for solving the problem" column is as follows. In the following, the correspondence is shown for each number of the solution means described in the column of "Means for solving the problem".
[1,2]実行装置は、CPU112およびROM114に対応し、記憶装置は記憶装置116に対応する。取得処理は、図4のS30,S70の処理に対応する。操作処理は、S34の処理に対応する。報酬算出処理は、S82〜S86の処理に対応する。更新処理は、S88〜S94の処理に対応する。第1データは、関係規定データDRに対応し、第2データは、定常マップデータDMsに対応する。[3]行動変数としての操作量は、スロットル開口度指令値TA*と遅角量aopとに対応する。[4]制御用写像データは、過渡マップデータDMtに対応する。[5,6]実行装置は、図8のCPU72およびROM74に対応し、記憶装置は、図8の記憶装置76に対応する。第1操作処理は、図9のS34の処理に対応する。第2操作処理は、図9のS28の処理に対応する。[7〜9]第1実行装置は、CPU72およびROM74に対応し、第2実行装置は、CPU132およびROM134に対応する。取得処理は、S30a,S120の処理に対応し、更新処理は、S150の処理に対応する。
[1, 2] The execution device corresponds to the
<その他の実施形態>
なお、本実施形態は、以下のように変更して実施することができる。本実施形態および以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
<Other Embodiments>
In addition, this embodiment can be implemented by changing as follows. The present embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.
・「行動変数について」
上記実施形態では、行動変数としてのスロットルバルブの開口度に関する変数として、スロットル開口度指令値TA*を例示したが、これに限らない。たとえば、アクセル操作量PAに対するスロットル開口度指令値TA*の応答性を、無駄時間および2次遅れフィルタにて表現し、無駄時間と、2次遅れフィルタを規定する2つの変数との合計3つの変数を、スロットルバルブの開口度に関する変数としてもよい。ただし、その場合、状態変数は、アクセル操作量PAの時系列データに代えて、アクセル操作量PAの単位時間当たりの変化量とすることが望ましい。
・ "About behavior variables"
In the above embodiment, the throttle opening command value TA * is exemplified as a variable related to the opening degree of the throttle valve as an action variable, but the present invention is not limited to this. For example, the responsiveness of the throttle opening command value TA * to the accelerator operation amount PA is expressed by the wasted time and the second-order lag filter, and the wasted time and the two variables that define the second-order lag filter are a total of three. The variable may be a variable related to the opening degree of the throttle valve. However, in that case, it is desirable that the state variable is a change amount per unit time of the accelerator operation amount PA instead of the time series data of the accelerator operation amount PA.
上記実施形態では、行動変数としての点火時期に関する変数として、遅角量aopを例示したが、これに限らない。たとえば、KCSによる補正対象とされる点火時期自体であってもよい。 In the above embodiment, the retard angle amount aop is exemplified as a variable related to the ignition timing as an action variable, but the present invention is not limited to this. For example, it may be the ignition timing itself to be corrected by KCS.
上記実施形態では、行動変数として、スロットルバルブの開口度に関する変数および点火時期に関する変数の組や、スロットルバルブの開口度に関する変数、点火時期に関する変数、および噴射量に関する変数の組を例示したが、これに限らない。たとえば、スロットルバルブの開口度に関する変数、点火時期に関する変数、および噴射量に関する変数の3つに関しては、スロットルバルブの開口度に関する変数および燃料噴射量のみを採用したり、点火時期に関する変数および燃料噴射量のみを採用したりしてもよい。さらに、それら3つに関しては、行動変数としてそれらのうちの1つのみを採用してもよい。 In the above embodiment, as the action variables, a set of variables related to the throttle valve opening degree and the ignition timing, a set of variables related to the throttle valve opening degree, a variable related to the ignition timing, and a set of variables related to the injection amount are illustrated. Not limited to this. For example, regarding the variables related to the throttle valve opening degree, the ignition timing variable, and the injection amount, only the throttle valve opening degree variable and the fuel injection amount are adopted, or the ignition timing variable and the fuel injection amount are adopted. Only the quantity may be adopted. Furthermore, for those three, only one of them may be adopted as the behavioral variable.
また、「内燃機関について」の欄に記載したように、内燃機関10が過給機と吸気バルブのバルブ特性可変装置とを備える場合、吸気バルブのバルブ特性を行動変数に含めてもよい。この場合、上記条件(ア)や条件(イ)を満たす場合に所定の基準を満たすとして報酬を与えることにより、過渡時における応答性を高めるうえでのバルブ特性の操作を強化学習によって学習できる。
Further, as described in the column of "About the internal combustion engine", when the
また、「内燃機関について」の欄に記載したように、圧縮着火式の内燃機関の場合、スロットルバルブの開口度に関する変数に代えて噴射量に関する変数を用い、点火時期に関する変数に代えて噴射時期に関する変数を用いればよい。なお、噴射時期に関する変数に加えて、1燃焼サイクルにおける噴射回数に関する変数や、1燃焼サイクルにおける1つの気筒のための時系列的に隣接する2つの燃料噴射のうちの一方の終了タイミングと他方の開始タイミングとの間の時間間隔に関する変数を加えることが望ましい。 Further, as described in the column of "About the internal combustion engine", in the case of a compression ignition type internal combustion engine, a variable related to the injection amount is used instead of the variable related to the opening degree of the throttle valve, and a variable related to the ignition timing is used instead of the variable related to the ignition timing. You can use the variables related to. In addition to the variables related to the injection timing, the variables related to the number of injections in one combustion cycle and the end timing of one of the two fuel injections adjacent in time series for one cylinder in one combustion cycle and the other It is desirable to add a variable for the time interval between the start timing.
また、たとえば変速装置50が有段変速装置の場合、クラッチの係合状態を油圧によって調整するためのソレノイドバルブの電流値等を行動変数としてもよい。
また、たとえば、下記「車両について」の欄に記載したように車両としてハイブリッド車や、電気自動車、燃料電池車を採用する場合、回転電機のトルクや出力を行動変数としてもよい。
Further, for example, when the
Further, for example, when a hybrid vehicle, an electric vehicle, or a fuel cell vehicle is adopted as the vehicle as described in the column of "About the vehicle" below, the torque and output of the rotary electric machine may be used as an action variable.
・「状態について」
上記実施形態では、アクセル操作量PAの時系列データを、等間隔でサンプリングされた6個の値からなるデータとしたが、これに限らない。互いに異なるサンプリングタイミングにおける2個以上のサンプリング値からなるデータであればよく、この際、3個以上のサンプリング値からなるデータや、サンプリング間隔が等間隔であるデータであることがより望ましい。
・ "About the condition"
In the above embodiment, the time-series data of the accelerator operation amount PA is set to the data consisting of six values sampled at equal intervals, but the present invention is not limited to this. The data may be data consisting of two or more sampling values at different sampling timings, and at this time, it is more desirable that the data consists of three or more sampling values or the sampling intervals are evenly spaced.
上記実施形態では、回転速度NEの時系列データを、等間隔でサンプリングされた6個の値からなるデータとしたが、これに限らない。互いに異なるサンプリングタイミングにおける2個以上のサンプリング値からなるデータであればよく、この際、3個以上のサンプリング値からなるデータや、サンプリング間隔が等間隔であるデータであることがより望ましい。 In the above embodiment, the time-series data of the rotation speed NE is set to the data consisting of six values sampled at equal intervals, but the present invention is not limited to this. The data may be data consisting of two or more sampling values at different sampling timings, and at this time, it is more desirable that the data consists of three or more sampling values or the sampling intervals are evenly spaced.
上記実施形態では、充填効率ηの時系列データを、等間隔でサンプリングされた6個の値からなるデータとしたが、これに限らない。互いに異なるサンプリングタイミングにおける2個以上のサンプリング値からなるデータであればよく、この際、3個以上のサンプリング値からなるデータや、サンプリング間隔が等間隔であるデータであることがより望ましい。 In the above embodiment, the time-series data of the filling efficiency η is set to the data consisting of six values sampled at equal intervals, but the present invention is not limited to this. The data may be data consisting of two or more sampling values at different sampling timings, and at this time, it is more desirable that the data consists of three or more sampling values or the sampling intervals are evenly spaced.
また、たとえば「行動変数について」の欄に記載したように、ソレノイドバルブの電流値を行動変数とする場合、状態に、変速装置の入力軸52の回転速度や出力軸54の回転速度、ソレノイドバルブによって調整される油圧を含めればよい。またたとえば「行動変数について」の欄に記載したように、回転電機のトルクや出力を行動変数とする場合、状態に、バッテリの充電率や温度を含めればよい。
Further, for example, as described in the column of "About the action variable", when the current value of the solenoid valve is used as the action variable, the state includes the rotation speed of the
・「第1データについて」
上記実施形態では、行動価値関数Qを、テーブル形式の関数としたが、これに限らない。たとえば、関数近似器を用いてもよい。
・ "About the first data"
In the above embodiment, the action value function Q is a table-type function, but the present invention is not limited to this. For example, a function approximator may be used.
図10に示した例では、車両VC1の出荷に際して実装する関係規定データDRを、図3に示したシステムによって強化学習がなされたデータとしたが、これに限らない。たとえば、関係規定データDRを行動価値関数Qを含んで構成し、すでに従来手法にてマップデータが適合されている内燃機関10について、各状態に対応する行動をグリーディ行動とするように行動価値関数Qをマップデータから求めることによって、実装する関係規定データDRを生成してもよい。
In the example shown in FIG. 10, the relational regulation data DR implemented at the time of shipment of the vehicle VC1 is set to the data for which reinforcement learning is performed by the system shown in FIG. 3, but the present invention is not limited to this. For example, for the
・「テーブル形式のデータの次元削減について」
テーブル形式のデータの次元削減手法としては、上記実施形態において例示したものに限らない。たとえばアクセル操作量PAが最大値となることはまれであることから、アクセル操作量PAが規定量以上となる状態については行動価値関数Qを定義せず、アクセル操作量PAが規定量以上となる場合のスロットル開口度指令値TA*等は、別途適合してもよい。またたとえば、行動のとりうる値からスロットル開口度指令値TA*が規定値以上となるものを除くなどして、次元削減をしてもよい。
・ "About dimensionality reduction of table format data"
The method for reducing the dimension of the table format data is not limited to the one illustrated in the above embodiment. For example, since it is rare that the accelerator operation amount PA becomes the maximum value, the action value function Q is not defined for the state where the accelerator operation amount PA becomes the specified amount or more, and the accelerator operation amount PA becomes the specified amount or more. In this case, the throttle opening command value TA * and the like may be adapted separately. Further, for example, the dimension may be reduced by excluding the value at which the throttle opening degree command value TA * is equal to or more than the specified value from the values that can be taken.
また、たとえば、図5のS76の処理において肯定判定されるまでは、S32aの処理において、行動価値関数Qの独立変数の値を少数に制限してもよい。その場合、S76の処理において肯定判定される場合に、行動価値関数Qの値が大きくなる行動aの付近の値を行動価値関数Qの独立変数がとりうる値に加えてS30,S32a,S34,S70〜S72の処理を繰り返せばよい。 Further, for example, the value of the independent variable of the action value function Q may be limited to a small number in the process of S32a until an affirmative decision is made in the process of S76 of FIG. In that case, when affirmative judgment is made in the processing of S76, the value near the action a in which the value of the action value function Q becomes large is added to the value that can be taken by the independent variable of the action value function Q, and S30, S32a, S34, The processes of S70 to S72 may be repeated.
もっとも、次元削減をすることは必須ではない。たとえば、第3の実施形態において複数の車両のデータに基づく強化学習を行って且つCPU72の演算能力や記憶装置76の記憶容量が十分であるのであれば、車両の出荷前には次元削減をした一部のみについて行動価値関数を学習しておくものの、出荷後には、全ての行動を探索によって実行可能としてもよい。これにより、出荷後には出荷前と比較して十分な学習用のデータを確保できることに鑑み、探索としてとりうる行動の数を増やして、より適切な行動を見出すことが可能となる。
However, dimensionality reduction is not essential. For example, in the third embodiment, if reinforcement learning based on the data of a plurality of vehicles is performed and the computing power of the
・「所定の条件について」
強化学習の実行条件または強化学習によって学習された制御用データの利用条件としての所定の条件としては、アクセル操作量PAの変化量ΔPAの絶対値が所定値ΔPA以上となってからの所定期間に限らない。たとえば吸入空気量Gaの単位時間当たりの変化量の絶対値が所定量以上となってからの所定期間としてもよい。
・ "Regarding certain conditions"
The predetermined condition as the execution condition of the reinforcement learning or the usage condition of the control data learned by the reinforcement learning is the predetermined period after the absolute value of the change amount ΔPA of the accelerator operation amount PA becomes the predetermined value ΔPA or more. Not exclusively. For example, it may be a predetermined period after the absolute value of the change amount of the intake air amount Ga per unit time becomes a predetermined amount or more.
もっとも、所定の条件としては、過渡状態である旨の条件に限らない。たとえば、所定の電子部品に異常が生じるフェールセーフ処理時であること、または、フェールセーフ処理時ではないことを所定の条件としてもよい。 However, the predetermined condition is not limited to the condition that the state is in a transient state. For example, a predetermined condition may be that it is during the fail-safe process in which an abnormality occurs in a predetermined electronic component, or that it is not during the fail-safe process.
・「更新写像について」
S88〜S94の処理においては、εソフト方策オン型モンテカルロ法によるものを例示したが、これに限らない。たとえば、方策オフ型モンテカルロ法によるものであってもよい。もっとも、モンテカルロ法にも限らず、たとえば、方策オフ型TD法を用いたり、またたとえばSARSA法のように方策オン型TD法を用いたり、またたとえば、方策オン型の学習として適格度トレース法を用いたりしてもよい。
・ "About updated mapping"
In the processing of S88 to S94, the ε-soft policy on-type Monte Carlo method was illustrated, but the present invention is not limited to this. For example, the policy-off type Monte Carlo method may be used. However, it is not limited to the Monte Carlo method, for example, the policy-off type TD method is used, the policy-on type TD method such as the SARSA method is used, and the eligibility tracing method is used as the policy-on type learning, for example. You may use it.
なお、「第1データについて」の欄に記載したように、行動価値関数Qの関数近似器を用いる場合には、更新写像は、たとえば、行動価値関数Qを規定するパラメータによる行動価値関数Qの偏微分に基づき同パラメータの更新量を出力する写像を含めて構成すればよい。 As described in the column of "About the first data", when the function approximator of the action value function Q is used, the updated map is, for example, the action value function Q according to the parameter defining the action value function Q. It may be configured including a mapping that outputs the update amount of the same parameter based on the partial differential.
S150の処理においては、収益Riを、時間Tの間の単純平均としたが、これに限らない。たとえば、所定の割引率γによって過去の報酬rほど大きく割引された値を用いた和としてもよい。これは、指数移動平均処理に相当する。 In the processing of S150, the revenue Ri is set as a simple average during the time T, but the present invention is not limited to this. For example, it may be a sum using a value discounted by a predetermined discount rate γ as much as the past reward r. This corresponds to exponential moving average processing.
S150の処理において、収益Riに代えて、収益Riから、パラメータθに依存しない適宜のベースライン関数を引いたものとしてもよい。具体的には、ベースライン関数は、たとえば、期待収益Jのパラメータによる偏微分の分散を最小化する関数とすることが望ましい。 In the processing of S150, instead of the profit Ri, an appropriate baseline function independent of the parameter θ may be subtracted from the profit Ri. Specifically, it is desirable that the baseline function is, for example, a function that minimizes the variance of the partial differential according to the parameter of the expected return J.
また、行動価値関数Qと方策πとのうちのいずれか一方のみを、報酬rによる直接の更新対象とするものに限らない。たとえば、アクター・クリティック法のように、行動価値関数Qおよび方策πをそれぞれ更新してもよい。また、アクター・クリティック法においては、これに限らず、たとえば行動価値関数Qに代えて価値関数Vを更新対象としてもよい。 Further, only one of the action value function Q and the policy π is not limited to the one directly updated by the reward r. For example, the action value function Q and the policy π may be updated, respectively, as in the actor-critic method. Further, in the actor-critic method, the value function V may be updated instead of the action value function Q, for example.
なお、方策πを定める「ε」については、固定値に限らず、学習の進行度合いに応じてあらかじめ定められた規則に応じて変更してもよい。また、学習率αについても、固定値に限らず、学習の進行度合いに応じてあらかじめ定められた規則に応じて変更してもよい。 The “ε” that defines the policy π is not limited to a fixed value, and may be changed according to a predetermined rule according to the degree of learning progress. Further, the learning rate α is not limited to a fixed value, and may be changed according to a predetermined rule according to the degree of progress of learning.
・「報酬算出処理について」
図6の処理では、条件(ア)および条件(イ)の論理積が真であるか否かに応じて報酬を与えたが、これに限らない。たとえば、条件(ア)を満たすか否かに応じて報酬を与える処理と、条件(イ)を満たすか否かに応じて報酬を与える処理とを実行してもよい。また、たとえば、条件(ア)を満たすか否かに応じて報酬を与える処理と、条件(イ)を満たすか否かに応じて報酬を与える処理との2つの処理に関しては、それらのうちのいずれか1つの処理のみを実行してもよい。
・ "About reward calculation processing"
In the process of FIG. 6, the reward is given according to whether or not the logical product of the condition (a) and the condition (b) is true, but the reward is not limited to this. For example, a process of giving a reward depending on whether or not the condition (a) is satisfied and a process of giving a reward depending on whether or not the condition (b) is satisfied may be executed. Further, for example, with respect to two processes, that is, a process of giving a reward depending on whether or not the condition (a) is satisfied and a process of giving a reward depending on whether or not the condition (b) is satisfied, among them. Only one of the processes may be executed.
図13の処理では、条件(ア)〜条件(ウ)の論理積が真であるか否かに応じて報酬を与えたが、これに限らない。たとえば、条件(ア)を満たすか否かに応じて報酬を与える処理と、条件(イ)を満たすか否かに応じて報酬を与える処理と、条件(ウ)を満たすか否かに応じて報酬を与える処理とを実行してもよい。また、たとえば、条件(ア)を満たすか否かに応じて報酬を与える処理と、条件(イ)を満たすか否かに応じて報酬を与える処理と、条件(ウ)を満たすか否かに応じて報酬を与える処理との3つの処理に関しては、それらのうちのいずれか1つの処理のみを実行してもよい。 In the process of FIG. 13, a reward is given according to whether or not the logical product of the conditions (a) to (c) is true, but the reward is not limited to this. For example, a process of giving a reward depending on whether or not the condition (a) is satisfied, a process of giving a reward depending on whether or not the condition (b) is satisfied, and a process of giving a reward depending on whether or not the condition (c) is satisfied. You may perform a rewarding process. Further, for example, a process of giving a reward depending on whether or not the condition (a) is satisfied, a process of giving a reward depending on whether or not the condition (b) is satisfied, and whether or not the condition (c) is satisfied. With respect to the three processes of rewarding according to the situation, only one of them may be executed.
また、たとえば条件(ア)を満たす場合に一律同じ報酬を与える代わりに、トルクTrqとトルク指令値Trq*との差の絶対値が小さい場合に大きい場合よりもより大きい報酬を与える処理としてもよい。またたとえば、条件(ア)を満たさない場合に一律同じ報酬を与える代わりに、トルクTrqとトルク指令値Trq*との差の絶対値が大きい場合に小さい場合よりもより小さい報酬を与える処理としてもよい。 Further, for example, instead of giving the same reward uniformly when the condition (a) is satisfied, a process may be performed in which a larger reward is given when the absolute value of the difference between the torque Trq and the torque command value Trq * is smaller than when it is large. .. Further, for example, instead of giving the same reward uniformly when the condition (a) is not satisfied, it is also possible to give a smaller reward when the absolute value of the difference between the torque Trq and the torque command value Trq * is large than when it is small. Good.
また、たとえば条件(イ)を満たす場合に一律同じ報酬を与える代わりに、加速度Gxの大きさに応じて報酬の大きさを可変とする処理としてもよい。またたとえば、条件(イ)を満たさない場合に一律同じ報酬を与える代わりに、加速度Gxの大きさに応じて報酬の大きさを可変とする処理としてもよい。 Further, for example, instead of giving the same reward uniformly when the condition (a) is satisfied, the process may be such that the magnitude of the reward is variable according to the magnitude of the acceleration Gx. Further, for example, instead of giving the same reward uniformly when the condition (a) is not satisfied, the process may be such that the magnitude of the reward is variable according to the magnitude of the acceleration Gx.
また、たとえば条件(ウ)を満たす場合に一律同じ報酬を与える代わりに、検出値Afuの大きさに応じて報酬の大きさを可変とする処理としてもよい。またたとえば、条件(ウ)を満たさない場合に一律同じ報酬を与える代わりに、検出値Afuの大きさに応じて報酬の大きさを可変とする処理としてもよい。 Further, for example, instead of giving the same reward uniformly when the condition (c) is satisfied, the process may be such that the size of the reward is variable according to the size of the detected value Afu. Further, for example, instead of giving the same reward uniformly when the condition (c) is not satisfied, the process may be such that the size of the reward is variable according to the size of the detected value Afu.
ドライバビリティに関する基準としては、上述したものに限らず、たとえば騒音や振動強度が基準を満たすか否かに応じて設定してもよい。もっともこれに限らず、たとえば上記加速度が基準を満たすか否かと、トルクTrqの追従性が基準を満たすか否かと、騒音が基準を満たすか否かと、振動強度が基準を満たすか否かとの4つのうちの任意の1つ以上であってよい。 The drivability standard is not limited to the above-mentioned one, and may be set according to whether or not noise and vibration intensity satisfy the standard, for example. However, the present invention is not limited to this, for example, whether or not the above acceleration meets the standard, whether or not the followability of the torque Trq meets the standard, whether or not the noise meets the standard, and whether or not the vibration intensity meets the standard. It may be any one or more of the ones.
報酬算出処理としては、報酬rを、ドライバビリティに関する基準を満たすか否かや、排気特性が基準を満たすか否かに応じて与えるものにも限らない。たとえば、燃料消費率が基準を満たす場合に満たさない場合よりも大きい報酬を与える処理であってもよい。なお、ドライバビリティに関する基準を満たす場合に満たさない場合よりも大きい報酬を与える処理と、燃料消費率が基準を満たす場合に満たさない場合よりも大きい報酬を与える処理と、排気特性が基準を満たす場合に満たさない場合よりも大きい報酬を与える処理との3つの処理のうちの任意の2つまたは3つを含んでもよい。 The reward calculation process is not limited to the one in which the reward r is given according to whether or not the criteria for drivability are satisfied and whether or not the exhaust characteristics satisfy the criteria. For example, if the fuel consumption rate meets the criteria, it may be a process that rewards a larger amount than if it does not meet the criteria. In addition, when the drivability standard is met, a larger reward is given than when it is not met, when the fuel consumption rate meets the standard, a larger reward is given than when it is not met, and when the exhaust characteristics meet the standard. May include any two or three of the three processes with the process that rewards greater than if not satisfied.
また、たとえば「行動について」の欄に記載したように、変速装置50のソレノイドバルブの電流値を行動変数とする場合、たとえば報酬算出処理に以下の(a)〜(c)の3つの処理のうちの少なくとも1つの処理を含めればよい。
Further, for example, when the current value of the solenoid valve of the
(a)変速装置による変速比の切り替えに要する時間が所定時間以内である場合に所定時間を超える場合よりも大きい報酬を与える処理である。
(b)変速装置の入力軸52の回転速度の変化速度の絶対値が入力側所定値以下である場合に入力側所定値を超える場合よりも大きい報酬を与える処理である。
(A) This is a process in which when the time required for switching the gear ratio by the transmission is within a predetermined time, a larger reward is given than when the predetermined time is exceeded.
(B) This is a process in which when the absolute value of the change speed of the rotation speed of the
(c)変速装置の出力軸54の回転速度の変化速度の絶対値が出力側所定値以下である場合に出力側所定値を超える場合よりも大きい報酬を与える処理である。
また、たとえば「行動変数について」の欄に記載したように、回転電機のトルクや出力を行動変数とする場合、バッテリの充電率が所定範囲内にある場合にない場合よりも大きい報酬を与える処理や、バッテリの温度が所定範囲内にある場合にない場合よりも大きい報酬を与える処理を含めてもよい。
(C) This is a process in which when the absolute value of the change speed of the rotation speed of the
In addition, for example, as described in the column of "About behavior variables", when the torque or output of a rotating electric machine is used as a behavior variable, a process of giving a larger reward than when the battery charge rate is within a predetermined range. Alternatively, it may include a process that rewards a greater amount than if the battery temperature is within a predetermined range.
・「車両用制御データの生成方法について」
図5のS32aの処理では、行動価値関数Qに基づき行動を決定したが、これに限らず、とりうるすべての行動を等確率で選択してもよい。
・ "How to generate control data for vehicles"
In the process of S32a of FIG. 5, the action is determined based on the action value function Q, but the action is not limited to this, and all possible actions may be selected with equal probability.
・「操作処理について」
たとえば「第1データについて」の欄に記載したように、行動価値関数Qを関数近似器とする場合、上記実施形態におけるテーブル型式の関数の独立変数となる行動についての離散的な値の組の全てについて、状態sとともに行動価値関数Qに入力することによって、行動価値関数Qを最大化する行動aを選択すればよい。
・ "About operation processing"
For example, as described in the column of "About the first data", when the action value function Q is used as a function approximation device, a set of discrete values for actions that are independent variables of the function of the table type in the above embodiment. For all, the action a that maximizes the action value function Q may be selected by inputting the action value function Q together with the state s.
・「制御用写像データについて」
車両の状態と期待収益を最大化する行動変数の値とを1対1に対応付けることによって車両の状態を入力とし期待収益を最大化する行動変数の値を出力する制御用写像データとしては、マップデータに限らない。たとえば、関数近似器であってもよい。これは、たとえば、図13に例示する方策勾配法等を用いる場合において、学習後の平均値μを制御用写像データとすることによって実現できる。
・ "About control mapping data"
Map as control mapping data that inputs the state of the vehicle and outputs the value of the action variable that maximizes the expected return by associating the state of the vehicle with the value of the action variable that maximizes the expected return on a one-to-one basis. Not limited to data. For example, it may be a function approximator. This can be realized, for example, by using the average value μ after learning as the control mapping data when the policy gradient method illustrated in FIG. 13 is used.
・「車両用制御システムについて」
図11に示した例では、方策πに基づく行動を決定する処理(S32bの処理)を、車両側で実行したが、これに限らない。たとえば、車両VC1からS30aの処理によって取得したデータを送信することとし、データ解析センター130にて送信されてデータを用いて行動aを決定し、決定した行動を車両VC1に送信してもよい。
・ "About vehicle control system"
In the example shown in FIG. 11, the process of determining the action based on the policy π (the process of S32b) is executed on the vehicle side, but the present invention is not limited to this. For example, the data acquired by the processing of the vehicle VC1 to S30a may be transmitted, the action a may be determined using the data transmitted at the
車両用制御システムとしては、制御装置70およびデータ解析センター130によって構成されるものに限らない。たとえば、データ解析センター130に代えて、ユーザの携帯端末を用いてもよい。また、制御装置70およびデータ解析センター130と携帯端末とによって車両用制御システムを構成してもよい。これは、たとえばS32bの処理を携帯端末によって実行することにより実現できる。
The vehicle control system is not limited to the one composed of the
・「実行装置について」
実行装置としては、CPU72(112,132)とROM74(114,134)とを備えて、ソフトウェア処理を実行するものに限らない。たとえば、上記実施形態においてソフトウェア処理されたものの少なくとも一部を、ハードウェア処理する専用のハードウェア回路(たとえばASIC等)を備えてもよい。すなわち、実行装置は、以下の(a)〜(c)のいずれかの構成であればよい。(a)上記処理の全てを、プログラムに従って実行する処理装置と、プログラムを記憶するROM等のプログラム格納装置とを備える。(b)上記処理の一部をプログラムに従って実行する処理装置およびプログラム格納装置と、残りの処理を実行する専用のハードウェア回路とを備える。(c)上記処理の全てを実行する専用のハードウェア回路を備える。ここで、処理装置およびプログラム格納装置を備えたソフトウェア実行装置や、専用のハードウェア回路は複数であってもよい。
・ "About the execution device"
The execution device is not limited to the one provided with the CPU 72 (112, 132) and the ROM 74 (114, 134) to execute software processing. For example, a dedicated hardware circuit (for example, ASIC or the like) that performs hardware processing on at least a part of what has been software-processed in the above embodiment may be provided. That is, the executing device may have any of the following configurations (a) to (c). (A) A processing device that executes all of the above processing according to a program and a program storage device such as a ROM that stores the program are provided. (B) A processing device and a program storage device that execute a part of the above processing according to a program, and a dedicated hardware circuit that executes the remaining processing are provided. (C) A dedicated hardware circuit for executing all of the above processes is provided. Here, there may be a plurality of software execution devices including a processing device and a program storage device, and a plurality of dedicated hardware circuits.
・「記憶装置について」
上記実施形態では、関係規定データDRが記憶される記憶装置と、学習プログラム74b,114aや制御プログラム74aが記憶される記憶装置(ROM74,114,134)とを別の記憶装置としたが、これに限らない。
・ "About storage device"
In the above embodiment, the storage device that stores the related regulation data DR and the storage device (ROM74, 114, 134) that stores the learning
・「内燃機関について」
内燃機関としては、燃料噴射弁として吸気通路12に燃料を噴射するポート噴射弁を備えるものに限らず、燃焼室24に燃料を直接噴射する筒内噴射弁を備えるものであってもよく、またたとえば、ポート噴射弁および筒内噴射弁の双方を備えるものであってもよい。
・ "About internal combustion engine"
The internal combustion engine is not limited to one having a port injection valve for injecting fuel into the
内燃機関に、吸気バルブのバルブ特性可変装置や、過給機を備えてもよい。
内燃機関としては、火花点火式内燃機関に限らず、たとえば燃料として軽油などを用いる圧縮着火式内燃機関等であってもよい。
The internal combustion engine may be provided with a valve characteristic variable device for an intake valve or a supercharger.
The internal combustion engine is not limited to the spark ignition type internal combustion engine, and may be, for example, a compression ignition type internal combustion engine that uses light oil or the like as fuel.
・「車両について」
車両としては、推力生成装置が内燃機関のみである車両に限らず、たとえば内燃機関と回転電機とを備えるいわゆるハイブリッド車両であってもよい。またたとえば、推力生成装置として、内燃機関を備えることなく、回転電機を備えるいわゆる電気自動車や燃料電池車あってもよい。
・ "About the vehicle"
The vehicle is not limited to a vehicle in which the thrust generator is only an internal combustion engine, and may be, for example, a so-called hybrid vehicle including an internal combustion engine and a rotary electric machine. Further, for example, as the thrust generator, there may be a so-called electric vehicle or a fuel cell vehicle equipped with a rotating electric machine without providing an internal combustion engine.
10…内燃機関、12…吸気通路、14…スロットルバルブ、16…燃料噴射弁、18…吸気バルブ、20…シリンダ、22…ピストン、24…燃焼室、26…点火装置、28…クランク軸、30…排気バルブ、32…排気通路、34…触媒、40…トルクコンバータ、42…ロックアップクラッチ、50…変速装置、52…入力軸、54…出力軸、60…駆動輪、70…制御装置、72…CPU、74…ROM、74a…制御プログラム、74b…学習プログラム、76…記憶装置、77…通信機、78…周辺回路、79…ローカルネットワーク、80…エアフローメータ、82…スロットルセンサ、84…クランク角センサ、88…アクセルペダル、90…アクセルセンサ、92…加速度センサ、100…ダイナモメータ、102…センサ群、110…生成装置、112…CPU、114…ROM、114a…学習プログラム、116…記憶装置、118…周辺回路、119…ローカルネットワーク、120…ネットワーク、130…データ解析センター、132…CPU、134…ROM、136…記憶装置、137…通信機、138…周辺回路、139…ローカルネットワーク。 10 ... Internal engine, 12 ... Intake passage, 14 ... Throttle valve, 16 ... Fuel injection valve, 18 ... Intake valve, 20 ... Cylinder, 22 ... Piston, 24 ... Combustion chamber, 26 ... Ignition device, 28 ... Crank shaft, 30 ... exhaust valve, 32 ... exhaust passage, 34 ... catalyst, 40 ... torque converter, 42 ... lockup clutch, 50 ... transmission, 52 ... input shaft, 54 ... output shaft, 60 ... drive wheel, 70 ... control device, 72 ... CPU, 74 ... ROM, 74a ... Control program, 74b ... Learning program, 76 ... Storage device, 77 ... Communication device, 78 ... Peripheral circuit, 79 ... Local network, 80 ... Airflow meter, 82 ... Throttle sensor, 84 ... Crank Angle sensor, 88 ... Accelerator pedal, 90 ... Accelerator sensor, 92 ... Acceleration sensor, 100 ... Dynamometer, 102 ... Sensor group, 110 ... Generator, 112 ... CPU, 114 ... ROM, 114a ... Learning program, 116 ... Storage device , 118 ... peripheral circuit, 119 ... local network, 120 ... network, 130 ... data analysis center, 132 ... CPU, 134 ... ROM, 136 ... storage device, 137 ... communication device, 138 ... peripheral circuit, 139 ... local network.
Claims (9)
前記車両の状態を検出するセンサの検出値を取得する取得処理と、
前記電子機器を操作する操作処理と、
前記所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づき、前記車両の特性が基準を満たす場合に満たさない場合よりも大きい報酬を与える報酬算出処理と、
前記所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づく前記車両の状態、前記電子機器の操作に用いられた行動変数の値、および該操作に対応する前記報酬を予め定められた更新写像への入力とし、前記第1データを更新する更新処理と、
を実行装置に実行させ、
前記更新写像は、前記第1データに従って前記電子機器が操作される場合の前記報酬についての期待収益を増加させるように更新された前記第1データを出力するものであり、
前記車両の状態が所定の条件を満たさない場合、前記報酬算出処理および前記更新処理によらずに前記車両の状態と前記行動変数との関係を適合して第2データとする車両用制御データの生成方法。 When the state of the vehicle satisfies a predetermined condition, the first data defining the relationship between the state of the vehicle and the action variable indicating the behavior related to the operation of the electronic device in the vehicle is stored in the storage device.
The acquisition process for acquiring the detection value of the sensor that detects the state of the vehicle, and
The operation process for operating the electronic device and
When the predetermined condition is satisfied, a reward calculation process for giving a larger reward than when the characteristic of the vehicle satisfies the standard based on the detected value acquired by the acquisition process, and
When the predetermined condition is satisfied, the state of the vehicle based on the detected value acquired by the acquisition process, the value of the action variable used for the operation of the electronic device, and the reward corresponding to the operation are predetermined. An update process for updating the first data as an input to the updated map, and
To the execution device
The updated map outputs the first data updated so as to increase the expected profit for the reward when the electronic device is operated according to the first data.
When the state of the vehicle does not satisfy a predetermined condition, the control data for the vehicle is used as the second data by matching the relationship between the state of the vehicle and the action variable without depending on the reward calculation process and the update process. Generation method.
前記電子機器は、前記内燃機関の操作部を含み、
前記第1データは、前記車両の状態と前記行動変数としての前記内燃機関の操作部の操作量との関係を規定する請求項1または2記載の車両用制御データの生成方法。 The vehicle is equipped with an internal combustion engine.
The electronic device includes an operation unit of the internal combustion engine.
The method for generating vehicle control data according to claim 1 or 2, wherein the first data defines a relationship between the state of the vehicle and the operation amount of the operation unit of the internal combustion engine as the action variable.
前記記憶装置には、前記第2データが記憶されており、
前記操作処理は、前記所定の条件が成立する場合、前記第1データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第1操作処理と、前記所定の条件が成立しない場合、前記第2データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第2操作処理と、を含む車両用制御装置。 The storage device and the execution device according to any one of claims 1 to 3 are provided.
The second data is stored in the storage device.
The operation process is the first operation process of operating the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the first data when the predetermined condition is satisfied. , A vehicle including a second operation process of operating the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the second data when the predetermined condition is not satisfied. Control device for.
前記記憶装置には、車両の状態と前記車両内の電子機器の操作に関する変数である行動変数との関係を規定する、第1データおよび第2データが記憶されており、
前記実行装置は、
前記車両の状態を検出するセンサの検出値を取得する取得処理と、
前記電子機器を操作する操作処理と、
前記車両の状態が所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づき、前記車両の特性が基準を満たす場合に満たさない場合よりも大きい報酬を与える報酬算出処理と、
前記車両の状態が所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づく前記車両の状態、前記電子機器の操作に用いられた行動変数の値、および該操作に対応する前記報酬を予め定められた更新写像への入力とし、前記第1データを更新する更新処理と、
を実行し、
前記更新写像は、前記第1データに従って前記電子機器が操作される場合の前記報酬についての期待収益を増加させるように更新された前記第1データを出力するものであり、
前記操作処理は、前記所定の条件が成立する場合、前記第1データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第1操作処理と、前記所定の条件が成立しない場合、前記第2データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第2操作処理と、を含む車両用制御装置。 Equipped with an execution device and a storage device
The storage device stores first data and second data that define the relationship between the state of the vehicle and the behavior variable, which is a variable related to the operation of the electronic device in the vehicle.
The executing device is
The acquisition process for acquiring the detection value of the sensor that detects the state of the vehicle, and
The operation process for operating the electronic device and
When the state of the vehicle satisfies a predetermined condition, a reward calculation process of giving a larger reward than when the characteristic of the vehicle satisfies the standard based on the detected value acquired by the acquisition process, and
When the state of the vehicle satisfies a predetermined condition, the state of the vehicle based on the detection value acquired by the acquisition process, the value of the action variable used for the operation of the electronic device, and the said corresponding to the operation. An update process in which the reward is input to a predetermined update map and the first data is updated, and
And
The updated map outputs the first data updated so as to increase the expected profit for the reward when the electronic device is operated according to the first data.
The operation process is the first operation process of operating the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the first data when the predetermined condition is satisfied. , A vehicle including a second operation process of operating the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the second data when the predetermined condition is not satisfied. Control device for.
前記実行装置は、前記車両に搭載される第1実行装置と、車載装置とは別の第2実行装置と、を含み、
前記第1実行装置は、少なくとも前記取得処理、および前記操作処理を実行し、
前記第2実行装置は、少なくとも前記更新処理を実行する車両用制御システム。 The executing device and the storage device according to claim 5 or 6 are provided.
The execution device includes a first execution device mounted on the vehicle and a second execution device different from the in-vehicle device.
The first execution device executes at least the acquisition process and the operation process,
The second execution device is a vehicle control system that executes at least the update process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020060900A JP2021067256A (en) | 2020-03-30 | 2020-03-30 | Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020060900A JP2021067256A (en) | 2020-03-30 | 2020-03-30 | Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019191098A Division JP6705545B1 (en) | 2019-10-18 | 2019-10-18 | Vehicle control data generation method, vehicle control device, vehicle control system, and vehicle learning device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021067256A true JP2021067256A (en) | 2021-04-30 |
Family
ID=75637000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020060900A Pending JP2021067256A (en) | 2020-03-30 | 2020-03-30 | Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021067256A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210114596A1 (en) * | 2019-10-18 | 2021-04-22 | Toyota Jidosha Kabushiki Kaisha | Method of generating vehicle control data, vehicle control device, and vehicle control system |
-
2020
- 2020-03-30 JP JP2020060900A patent/JP2021067256A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210114596A1 (en) * | 2019-10-18 | 2021-04-22 | Toyota Jidosha Kabushiki Kaisha | Method of generating vehicle control data, vehicle control device, and vehicle control system |
US11654915B2 (en) * | 2019-10-18 | 2023-05-23 | Toyota Jidosha Kabushiki Kaisha | Method of generating vehicle control data, vehicle control device, and vehicle control system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6705545B1 (en) | Vehicle control data generation method, vehicle control device, vehicle control system, and vehicle learning device | |
JP6809587B1 (en) | Vehicle control device | |
JP7287287B2 (en) | VEHICLE CONTROL DATA GENERATION METHOD, VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM, AND VEHICLE LEARNING DEVICE | |
JP7302466B2 (en) | Device for Deterioration Determination of Internal Combustion Engine for Vehicle | |
JP7314831B2 (en) | VEHICLE CONTROL DATA GENERATION METHOD, VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM, AND VEHICLE LEARNING DEVICE | |
TW202117179A (en) | Method of generating vehicle control data, vehicle control device, and vehicle control system | |
JP7243642B2 (en) | VEHICLE CONTROL DATA GENERATION METHOD, VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM, AND VEHICLE LEARNING DEVICE | |
JP2021067192A (en) | Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device | |
JP2021067201A (en) | Vehicle control device, vehicle control system, and vehicle learning device | |
TWI745120B (en) | Vehicle control system, vehicle control device, and control method for a vehicle | |
JP7331704B2 (en) | VEHICLE CONTROL DATA GENERATION METHOD, VEHICLE CONTROL DEVICE, AND VEHICLE CONTROL SYSTEM | |
JP2021066240A (en) | Vehicle control device, vehicle control system, and vehicle learning device | |
JP7207290B2 (en) | Vehicle control device, vehicle control system, vehicle learning device, and vehicle learning method | |
JP2021067197A (en) | Vehicle control device, vehicle control system, and vehicle learning device | |
CN112682196B (en) | Vehicle control device, vehicle control system, and vehicle learning device | |
CN113266481A (en) | Vehicle control method, vehicle control device, and server | |
JP7314819B2 (en) | VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE, AND SERVER | |
JP2021067256A (en) | Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device | |
JP2021067257A (en) | Vehicle control device, vehicle control system, and vehicle learning device | |
JP2021067258A (en) | Vehicle control device, vehicle control system, and vehicle learning device | |
JP7205456B2 (en) | VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM AND VEHICLE LEARNING DEVICE | |
JP7207289B2 (en) | Vehicle control device, vehicle control system, vehicle learning device, and vehicle learning method | |
JP7205460B2 (en) | VEHICLE CONTROL DATA GENERATION METHOD, VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM, AND VEHICLE LEARNING DEVICE | |
JP2021067261A (en) | Vehicle control device, vehicle control system and vehicle learning device | |
JP2021067262A (en) | Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device |