JP2021067256A - Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device - Google Patents

Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device Download PDF

Info

Publication number
JP2021067256A
JP2021067256A JP2020060900A JP2020060900A JP2021067256A JP 2021067256 A JP2021067256 A JP 2021067256A JP 2020060900 A JP2020060900 A JP 2020060900A JP 2020060900 A JP2020060900 A JP 2020060900A JP 2021067256 A JP2021067256 A JP 2021067256A
Authority
JP
Japan
Prior art keywords
vehicle
data
value
state
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020060900A
Other languages
Japanese (ja)
Inventor
洋介 橋本
Yosuke Hashimoto
洋介 橋本
章弘 片山
Akihiro Katayama
章弘 片山
裕太 大城
Yuta Oshiro
裕太 大城
和紀 杉江
Kazuki Sugie
和紀 杉江
尚哉 岡
Naoya Oka
尚哉 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020060900A priority Critical patent/JP2021067256A/en
Publication of JP2021067256A publication Critical patent/JP2021067256A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

To provide a method of generating vehicle control data that allows reduction in the number of man-hours necessary for an expert in setting a relationship between a state of a vehicle and an action variable.SOLUTION: In a transient period (S72: NO), a CPU sets a throttle opening degree command value TA* and a retardation amount aop of ignition timing on the basis of time-series data of an accelerator operation amount PA, operates a throttle valve and an ignition device according to them (S32a, S34), and acquires a torque Trq, a torque command value Trq* and an acceleration Gx at that time (S70). If the transient period ends, the CPU updates an action value function Q by rewarding according to whether the torque Trq and the acceleration Gx satisfy criteria (S74). Thus, reinforcement learning is performed only in the transient period.SELECTED DRAWING: Figure 5

Description

本発明は、車両用制御データの生成方法、車両用制御装置、車両用制御システム、および車両用学習装置に関する。 The present invention relates to a method for generating control data for a vehicle, a control device for a vehicle, a control system for a vehicle, and a learning device for a vehicle.

たとえば下記特許文献1には、アクセルペダルの操作量をフィルタ処理した値に基づき、車両に搭載される内燃機関の操作部としてのスロットルバルブを操作する制御装置が記載されている。 For example, Patent Document 1 below describes a control device that operates a throttle valve as an operation unit of an internal combustion engine mounted on a vehicle based on a value obtained by filtering the operation amount of the accelerator pedal.

特開2016−6327号公報Japanese Unexamined Patent Publication No. 2016-6327

ところで、上記フィルタは、アクセルペダルの操作量に応じて車両に搭載される内燃機関のスロットルバルブの操作量を適切な操作量に設定するものである必要があることから、その適合には熟練者が多くの工数をかける必要が生じる。このように、従来は、車両の状態に応じた車両内の電子機器の操作量等の適合には、熟練者が多くの工数をかけていた。 By the way, in the above filter, it is necessary to set the operation amount of the throttle valve of the internal combustion engine mounted on the vehicle to an appropriate operation amount according to the operation amount of the accelerator pedal. However, it is necessary to spend a lot of man-hours. As described above, conventionally, a skilled person has spent a lot of man-hours to adapt the operation amount of the electronic device in the vehicle according to the state of the vehicle.

以下、上記課題を解決するための手段およびその作用効果について記載する。
1.車両の状態が所定の条件を満たす場合における、前記車両の状態と前記車両内の電子機器の操作に関する行動を示す行動変数との関係を規定する第1データが記憶装置に記憶された状態で、前記車両の状態を検出するセンサの検出値を取得する取得処理と、前記電子機器を操作する操作処理と、前記所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づき、前記車両の特性が基準を満たす場合に満たさない場合よりも大きい報酬を与える報酬算出処理と、前記所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づく前記車両の状態、前記電子機器の操作に用いられた行動変数の値、および該操作に対応する前記報酬を予め定められた更新写像への入力とし、前記第1データを更新する更新処理と、を実行装置に実行させ、前記更新写像は、前記第1データに従って前記電子機器が操作される場合の前記報酬についての期待収益を増加させるように更新された前記第1データを出力するものであり、前記車両の状態が所定の条件を満たさない場合、前記報酬算出処理および前記更新処理によらずに前記車両の状態と前記行動変数との関係を適合して第2データとする車両用制御データの生成方法である。
Hereinafter, means for solving the above problems and their actions and effects will be described.
1. 1. When the state of the vehicle satisfies a predetermined condition, the first data defining the relationship between the state of the vehicle and the action variable indicating the behavior related to the operation of the electronic device in the vehicle is stored in the storage device. Based on the acquisition process of acquiring the detection value of the sensor that detects the state of the vehicle, the operation process of operating the electronic device, and the detection value acquired by the acquisition process when the predetermined conditions are satisfied, the said A reward calculation process that gives a larger reward than when the characteristics of the vehicle meet the criteria, and when the predetermined condition is satisfied, the state of the vehicle based on the detected value acquired by the acquisition process, the electronic The value of the action variable used for the operation of the device and the reward corresponding to the operation are input to the predetermined update mapping, and the execution device is made to execute the update process for updating the first data. The updated mapping outputs the first data updated so as to increase the expected profit for the reward when the electronic device is operated according to the first data, and the state of the vehicle is predetermined. This is a method of generating vehicle control data in which the relationship between the vehicle state and the action variable is matched and used as the second data regardless of the reward calculation process and the update process when the above conditions are not satisfied.

上記方法では、所定の条件を満たす場合、電子機器の操作に対応する報酬を算出することによって、当該操作によってどのような報酬が得られるかを把握することができる。そして、報酬に基づき、強化学習に従った更新写像によって第1データを更新することにより、車両の状態と行動変数との関係を設定することができる。したがって、車両の状態と行動変数との関係の設定に際して、熟練者に要求される工数を削減できる。しかも、所定の条件を満たす場合に強化学習によって第1データを更新し、所定の条件を満たさない場合には強化学習によらずに第2データを適合するため、熟練者の工数が大きくなる条件を所定の条件とすることにより、熟練者の工数を削減するうえで効果が顕著な条件において強化学習を利用することが可能となる。 In the above method, when a predetermined condition is satisfied, by calculating the reward corresponding to the operation of the electronic device, it is possible to grasp what kind of reward can be obtained by the operation. Then, based on the reward, the relationship between the state of the vehicle and the behavior variable can be set by updating the first data by the update mapping according to the reinforcement learning. Therefore, it is possible to reduce the man-hours required for the expert when setting the relationship between the state of the vehicle and the behavior variable. Moreover, when the predetermined condition is satisfied, the first data is updated by reinforcement learning, and when the predetermined condition is not satisfied, the second data is matched without relying on reinforcement learning. By setting the above as a predetermined condition, it becomes possible to use reinforcement learning under a condition in which the effect is remarkable in reducing the man-hours of a skilled person.

2.前記所定の条件は、過渡運転時である旨の条件である上記1記載の車両用制御データの生成方法である。
過渡運転時には定常運転時と比較して、車両の状態と行動変数との関係を適合するうえで熟練者の工数が大きくなる傾向がある。そこで上記方法では、所定の条件を過渡運転時である旨の条件とすることにより、熟練者の工数が特に大きくなる条件における車両の状態と行動変数との関係の適合を、強化学習によって自動的に実行することにより、熟練者に要求される工数を効果的に削減できる。
2. The predetermined condition is the method for generating vehicle control data according to 1 above, which is a condition for transient driving.
In transient operation, the man-hours of a skilled person tend to be larger in matching the relationship between the vehicle state and the behavior variable than in steady operation. Therefore, in the above method, by setting a predetermined condition as a condition that the driver is in transient operation, reinforcement learning automatically adjusts the relationship between the vehicle state and the behavior variable under the condition that the man-hours of the expert are particularly large. By executing this, the man-hours required for skilled workers can be effectively reduced.

3.前記車両は、内燃機関を搭載しており、前記電子機器は、前記内燃機関の操作部を含み、前記第1データは、前記車両の状態と前記行動変数としての前記内燃機関の操作部の操作量との関係を規定する上記1または2記載の車両用制御データの生成方法である。 3. 3. The vehicle is equipped with an internal combustion engine, the electronic device includes an operation unit of the internal combustion engine, and the first data is an operation of the operation unit of the internal combustion engine as the state of the vehicle and the action variable. The method for generating vehicle control data according to 1 or 2 above, which defines the relationship with the quantity.

内燃機関は、一般に多数の操作部を備え、且つ、排気特性、燃料消費率、ドライバビリティ等、要求要素が多いことから、車両の状態と行動変数としての操作部の操作量との関係の適合に熟練者の工数を多く必要とする傾向がある。そこで上記方法では、車両の状態と行動変数としての操作部の操作量との関係の適合に強化学習を用いることにより、熟練者の工数を効果的に削減できる。 Since an internal combustion engine generally has a large number of operation units and has many required elements such as exhaust characteristics, fuel consumption rate, and drivability, the relationship between the state of the vehicle and the operation amount of the operation unit as an action variable is matched. It tends to require a lot of man-hours for skilled workers. Therefore, in the above method, the man-hours of a skilled person can be effectively reduced by using reinforcement learning to match the relationship between the state of the vehicle and the operation amount of the operation unit as an action variable.

4.前記車両の状態と前記期待収益を最大化する前記行動変数の値とを1対1に対応付けることによって前記車両の状態を入力とし前記期待収益を最大化する前記行動変数の値を出力する制御用写像データを、前記更新処理によって更新された前記第1データに基づき生成する処理を前記実行装置に実行させる上記1〜3のいずれか1つに記載の車両用制御データの生成方法である。 4. For control that inputs the state of the vehicle and outputs the value of the action variable that maximizes the expected profit by associating the state of the vehicle with the value of the action variable that maximizes the expected profit on a one-to-one basis. The vehicle control data generation method according to any one of 1 to 3 above, wherein the execution device executes a process of generating mapping data based on the first data updated by the update process.

上記方法では、強化学習によって学習された第1データに基づき、制御用写像データを生成する。そのため、その制御用写像データを制御装置に実装することにより、車両の状態に基づき、期待収益を最大化する行動変数の値を簡易に設定することが可能となる。 In the above method, control mapping data is generated based on the first data learned by reinforcement learning. Therefore, by implementing the control mapping data in the control device, it is possible to easily set the value of the action variable that maximizes the expected return based on the state of the vehicle.

5.上記1〜3のいずれか1つに記載の前記記憶装置および前記実行装置を備え、前記記憶装置には、前記第2データが記憶されており、前記操作処理は、前記所定の条件が成立する場合、前記第1データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第1操作処理と、前記所定の条件が成立しない場合、前記第2データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第2操作処理と、を含む車両用制御装置である。 5. The storage device and the execution device according to any one of the above 1 to 3 are provided, the second data is stored in the storage device, and the operation process satisfies the predetermined conditions. In the case, the first operation process of operating the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the first data, and the first operation process when the predetermined condition is not satisfied, the first operation. 2 This is a vehicle control device including a second operation process for operating the electronic device according to the value of an action variable according to the state of the vehicle acquired by the acquisition process based on the data.

上記構成では、所定の条件を満たす場合、強化学習によって学習された第1データに基づき行動変数の値が設定され、それに基づき電子機器が操作されることにより、期待収益を大きくするように電子機器を操作することができる。しかも、所定の条件を満たす場合、報酬算出処理によって、関係規定データを更新することから、ユーザによる車両の運転シーンに応じた更新を行わない場合と比較して、関係規定データの更新機会を増加させることができる。 In the above configuration, when a predetermined condition is satisfied, the value of the action variable is set based on the first data learned by reinforcement learning, and the electronic device is operated based on the value, so that the expected return is increased. Can be operated. Moreover, when the predetermined conditions are met, the related regulation data is updated by the reward calculation process, so that the opportunity to update the related regulation data is increased as compared with the case where the user does not update according to the driving scene of the vehicle. Can be made to.

6.実行装置および記憶装置を備え、前記記憶装置には、車両の状態と前記車両内の電子機器の操作に関する変数である行動変数との関係を規定する、第1データおよび第2データが記憶されており、前記実行装置は、前記車両の状態を検出するセンサの検出値を取得する取得処理と、前記電子機器を操作する操作処理と、前記車両の状態が所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づき、前記車両の特性が基準を満たす場合に満たさない場合よりも大きい報酬を与える報酬算出処理と、前記車両の状態が所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づく前記車両の状態、前記電子機器の操作に用いられた行動変数の値、および該操作に対応する前記報酬を予め定められた更新写像への入力とし、前記第1データを更新する更新処理と、を実行し、前記更新写像は、前記第1データに従って前記電子機器が操作される場合の前記報酬についての期待収益を増加させるように更新された前記第1データを出力するものであり、前記操作処理は、前記所定の条件が成立する場合、前記第1データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第1操作処理と、前記所定の条件が成立しない場合、前記第2データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第2操作処理と、を含む車両用制御装置である。 6. The storage device includes an execution device and a storage device, and stores the first data and the second data that define the relationship between the state of the vehicle and the behavior variable which is a variable related to the operation of the electronic device in the vehicle. The executing device has an acquisition process for acquiring a detection value of a sensor that detects the state of the vehicle, an operation process for operating the electronic device, and an acquisition process when the state of the vehicle satisfies a predetermined condition. Based on the detection value acquired by, the reward calculation process that gives a larger reward than the case where the characteristics of the vehicle satisfy the criteria, and the acquisition process when the state of the vehicle satisfies the predetermined condition. The state of the vehicle based on the acquired detected value, the value of the action variable used for the operation of the electronic device, and the reward corresponding to the operation are input to the predetermined update mapping, and the first The update process of updating the data and the update process are executed, and the update mapping is the first data updated so as to increase the expected profit for the reward when the electronic device is operated according to the first data. The operation process operates the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the first data when the predetermined condition is satisfied. The first operation process to be performed and the second operation to operate the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the second data when the predetermined condition is not satisfied. A vehicle control device that includes processing.

上記構成では、所定の条件を満たす場合、電子機器の操作に対応する報酬を算出することによって、当該操作によってどのような報酬が得られるかを把握することができる。そして、報酬に基づき、強化学習に従った更新写像によって第1データを更新することにより、車両の状態と行動変数との関係を設定することができる。したがって、車両の状態と行動変数との関係を車両の走行において適切な関係に設定する際、熟練者に要求される工数を削減できる。しかも、所定の条件を満たす場合に強化学習によって第1データを更新するため、熟練者の工数が大きくなる条件を所定の条件とすることにより、熟練者の工数を削減するうえで効果が顕著な条件において強化学習を利用することが可能となる。 In the above configuration, when a predetermined condition is satisfied, by calculating the reward corresponding to the operation of the electronic device, it is possible to grasp what kind of reward can be obtained by the operation. Then, based on the reward, the relationship between the state of the vehicle and the behavior variable can be set by updating the first data by the update mapping according to the reinforcement learning. Therefore, when setting the relationship between the state of the vehicle and the behavior variable to an appropriate relationship in the running of the vehicle, the man-hours required for the expert can be reduced. Moreover, since the first data is updated by reinforcement learning when a predetermined condition is satisfied, the effect of reducing the man-hours of the expert is remarkable by setting the condition that the man-hour of the expert is large as the predetermined condition. Reinforcement learning can be used under conditions.

7.上記5または6記載の前記実行装置および前記記憶装置を備え、前記実行装置は、前記車両に搭載される第1実行装置と、車載装置とは別の第2実行装置と、を含み、前記第1実行装置は、少なくとも前記取得処理、および前記操作処理を実行し、前記第2実行装置は、少なくとも前記更新処理を実行する車両用制御システムである。 7. The execution device and the storage device according to the above 5 or 6 are provided, and the execution device includes a first execution device mounted on the vehicle and a second execution device different from the in-vehicle device, and the first execution device includes the first execution device. The 1 execution device is a vehicle control system that executes at least the acquisition process and the operation process, and the second execution device executes at least the update process.

上記構成では、更新処理を第2実行装置によって実行することにより、更新処理を第1実行装置が実行する場合と比較して、第1実行装置の演算負荷を軽減できる。
なお、第2実行装置が車載装置とは別の装置であることは、第2実行装置が車載装置ではないことを意味する。
In the above configuration, by executing the update process by the second execution device, the calculation load of the first execution device can be reduced as compared with the case where the update process is executed by the first execution device.
The fact that the second executing device is a device different from the in-vehicle device means that the second executing device is not an in-vehicle device.

8.上記7記載の第1実行装置を備える車両用制御装置である。
9.上記7記載の第2実行装置を備える車両用学習装置である。
8. It is a vehicle control device including the first execution device according to the above 7.
9. It is a learning device for a vehicle including the second executing device according to the above 7.

第1の実施形態にかかる駆動系および制御装置の構成を示す図。The figure which shows the structure of the drive system and the control device which concerns on 1st Embodiment. 同実施形態にかかる制御装置が実行する処理の手順を示す流れ図。The flow chart which shows the procedure of the process executed by the control device which concerns on the same embodiment. 同実施形態にかかるマップデータを生成するシステムを示す図。The figure which shows the system which generates the map data concerning this embodiment. 同実施形態にかかる定常マップデータの生成処理の手順を示す流れ図。The flow chart which shows the procedure of the generation process of the steady-state map data which concerns on the same embodiment. 同実施形態にかかる学習処理の手順を示す流れ図。The flow chart which shows the procedure of the learning process concerning this embodiment. 同実施形態にかかる学習処理の一部の詳細を示す流れ図。The flow chart which shows a part of the details of the learning process which concerns on this embodiment. 同実施形態にかかる過渡マップデータの生成処理の手順を示す流れ図。The flow chart which shows the procedure of the generation process of the transient map data which concerns on the same embodiment. 第2の実施形態にかかる制御装置および駆動系を示す図。The figure which shows the control device and the drive system which concerns on 2nd Embodiment. 同実施形態にかかる制御装置が実行する処理の手順を示す流れ図。The flow chart which shows the procedure of the process executed by the control device which concerns on the same embodiment. 第3の実施形態にかかるシステムの構成を示す図。The figure which shows the structure of the system which concerns on 3rd Embodiment. 同実施形態にかかる制御装置が実行する処理の手順を示す流れ図。The flow chart which shows the procedure of the process executed by the control device which concerns on the same embodiment. 同実施形態にかかる制御装置が実行する処理の一部の詳細な手順を示す流れ図。The flow chart which shows the detailed procedure of a part of the processing executed by the control device which concerns on this embodiment. (a)および(b)は、同実施形態にかかるシステムが実行する処理の手順を示す流れ図。(A) and (b) are flow charts showing the procedure of processing executed by the system according to the same embodiment.

以下、車両用制御データの生成方法、車両用制御装置、車両用制御システム、および車両用学習装置にかかる実施形態について図面を参照しつつ説明する。
<第1の実施形態>
図1に、本実施形態にかかる車両VC1の駆動系および制御装置の構成を示す。
Hereinafter, embodiments of a vehicle control data generation method, a vehicle control device, a vehicle control system, and a vehicle learning device will be described with reference to the drawings.
<First Embodiment>
FIG. 1 shows the configuration of the drive system and the control device of the vehicle VC1 according to the present embodiment.

図1に示すように、内燃機関10の吸気通路12には、上流側から順にスロットルバルブ14および燃料噴射弁16が設けられており、吸気通路12に吸入された空気や燃料噴射弁16から噴射された燃料は、吸気バルブ18の開弁に伴って、シリンダ20およびピストン22によって区画される燃焼室24に流入する。燃焼室24内において、燃料と空気との混合気は、点火装置26の火花放電に伴って燃焼に供され、燃焼によって生じたエネルギは、ピストン22を介してクランク軸28の回転エネルギに変換される。燃焼に供された混合気は、排気バルブ30の開弁に伴って、排気として排気通路32に排出される。排気通路32には、排気を浄化する後処理装置としての触媒34が設けられている。 As shown in FIG. 1, the intake passage 12 of the internal combustion engine 10 is provided with a throttle valve 14 and a fuel injection valve 16 in this order from the upstream side, and is injected from the air or fuel injection valve 16 sucked into the intake passage 12. The fuel is discharged into the combustion chamber 24 partitioned by the cylinder 20 and the piston 22 as the intake valve 18 is opened. In the combustion chamber 24, the air-fuel mixture is subjected to combustion with the spark discharge of the ignition device 26, and the energy generated by the combustion is converted into the rotational energy of the crankshaft 28 via the piston 22. To. The air-fuel mixture used for combustion is discharged to the exhaust passage 32 as exhaust gas when the exhaust valve 30 is opened. The exhaust passage 32 is provided with a catalyst 34 as an aftertreatment device for purifying the exhaust gas.

クランク軸28には、ロックアップクラッチ42を備えたトルクコンバータ40を介して、変速装置50の入力軸52が機械的に連結可能とされている。変速装置50は、入力軸52の回転速度と出力軸54の回転速度との比である変速比を可変とする装置である。出力軸54には、駆動輪60が機械的に連結されている。 The input shaft 52 of the transmission 50 can be mechanically connected to the crankshaft 28 via a torque converter 40 provided with a lockup clutch 42. The transmission 50 is a device that makes the gear ratio variable, which is the ratio of the rotation speed of the input shaft 52 to the rotation speed of the output shaft 54. A drive wheel 60 is mechanically connected to the output shaft 54.

制御装置70は、内燃機関10を制御対象とし、その制御量であるトルクや排気成分比率等を制御すべく、スロットルバルブ14、燃料噴射弁16および点火装置26等の内燃機関10の操作部を操作する。また、制御装置70は、トルクコンバータ40を制御対象とし、ロックアップクラッチ42の係合状態を制御すべくロックアップクラッチ42を操作する。また、制御装置70は、変速装置50を制御対象とし、その制御量としての変速比を制御すべく変速装置50を操作する。なお、図1には、スロットルバルブ14、燃料噴射弁16、点火装置26、ロックアップクラッチ42、および変速装置50のそれぞれの操作信号MS1〜MS5を記載している。 The control device 70 targets the internal combustion engine 10, and in order to control the torque and the exhaust component ratio, which are the controlled amounts thereof, the control device 70 controls the operation unit of the internal combustion engine 10 such as the throttle valve 14, the fuel injection valve 16, and the ignition device 26. Manipulate. Further, the control device 70 controls the torque converter 40 and operates the lockup clutch 42 in order to control the engaged state of the lockup clutch 42. Further, the control device 70 targets the transmission 50 as a control target, and operates the transmission 50 to control the gear ratio as the control amount thereof. Note that FIG. 1 shows the operation signals MS1 to MS5 of the throttle valve 14, the fuel injection valve 16, the ignition device 26, the lockup clutch 42, and the transmission 50, respectively.

制御装置70は、制御量の制御のために、エアフローメータ80によって検出される吸入空気量Gaや、スロットルセンサ82によって検出されるスロットルバルブ14の開口度(スロットル開口度TA)、クランク角センサ84の出力信号Scrを参照する。また、制御装置70は、触媒34の上流側に設けられた空燃比センサ86の検出値Afuや、アクセルセンサ90によって検出されるアクセルペダル88の踏み込み量(アクセル操作量PA)、加速度センサ92によって検出される車両VC1の前後方向の加速度Gxを参照する。 The control device 70 controls the intake air amount Ga detected by the air flow meter 80, the opening degree of the throttle valve 14 (throttle opening degree TA) detected by the throttle sensor 82, and the crank angle sensor 84 for controlling the control amount. Refer to the output signal Scr of. Further, the control device 70 uses the detection value Afu of the air-fuel ratio sensor 86 provided on the upstream side of the catalyst 34, the depression amount of the accelerator pedal 88 (accelerator operation amount PA) detected by the accelerator sensor 90, and the acceleration sensor 92. Refer to the detected acceleration Gx in the front-rear direction of the vehicle VC1.

制御装置70は、CPU72、ROM74、電気的に書き換え可能な不揮発性メモリ(記憶装置76)、および周辺回路78を備え、それらがローカルネットワーク79を介して通信可能とされている。ここで、周辺回路78は、内部の動作を規定するクロック信号を生成する回路や、電源回路、リセット回路等を含む。 The control device 70 includes a CPU 72, a ROM 74, an electrically rewritable non-volatile memory (storage device 76), and a peripheral circuit 78, which can communicate with each other via the local network 79. Here, the peripheral circuit 78 includes a circuit that generates a clock signal that defines the internal operation, a power supply circuit, a reset circuit, and the like.

ROM74には、制御プログラム74aが記憶されている。一方、記憶装置76には、定常マップデータDMsと過渡マップデータDMtとが記憶されている。定常マップデータDMsは、アクセル操作量PAおよび回転速度NEを入力変数とし、スロットル開口度TAの指令値(スロットル開口度指令値TA*)を出力変数とするマップデータと、回転速度NEおよび充填効率ηを入力変数とし、基準点火時期abseを出力変数とするマップデータとからなる。過渡マップデータDMtは、アクセル操作量PAの時系列データを入力変数とし、スロットル開口度指令値TA*を出力変数とするマップデータと、アクセル操作量PAの時系列データを入力変数とし、基準点火時期abseに対する遅角量aopを出力変数とするマップデータとからなる。なお、基準点火時期abseは、MBT点火時期とノック限界点とのうちの遅角側の時期である。MBT点火時期は、最大トルクの得られる点火時期(最大トルク点火時期)である。またノック限界点は、ノック限界の高い高オクタン価燃料の使用時に、想定される最良の条件下で、ノッキングを許容できるレベル以内に収めることのできる点火時期の進角限界値である。 The control program 74a is stored in the ROM 74. On the other hand, the storage device 76 stores stationary map data DMs and transient map data DMt. The steady-state map data DMs include map data in which the accelerator operation amount PA and the rotation speed NE are input variables and the command value of the throttle opening degree TA (throttle opening degree command value TA *) is the output variable, and the rotation speed NE and the filling efficiency. It consists of map data with η as the input variable and the reference ignition timing abse as the output variable. The transient map data DMt uses the time-series data of the accelerator operation amount PA as the input variable, the map data with the throttle opening command value TA * as the output variable, and the time-series data of the accelerator operation amount PA as the input variable, and is the reference ignition. It consists of map data whose output variable is the retard angle amount aop with respect to the time abse. The reference ignition timing abse is the timing on the retard side of the MBT ignition timing and the knock limit point. The MBT ignition timing is the ignition timing at which the maximum torque can be obtained (maximum torque ignition timing). The knock limit is an ignition timing advance limit that can keep knocking within an acceptable level under the best possible conditions when using a high octane fuel with a high knock limit.

なお、マップデータとは、入力変数の離散的な値と、入力変数の値のそれぞれに対応する出力変数の値と、の組データである。
図2に、本実施形態にかかる制御装置70が実行する処理の手順を示す。図2に示す処理は、ROM74に記憶された制御プログラム74aをCPU72がたとえば所定周期で繰り返し実行することにより実現される。なお、以下では、先頭に「S」が付与された数字によって各処理のステップ番号を示す。
The map data is a set of data of discrete values of input variables and values of output variables corresponding to the values of the input variables.
FIG. 2 shows a procedure of processing executed by the control device 70 according to the present embodiment. The process shown in FIG. 2 is realized by the CPU 72 repeatedly executing the control program 74a stored in the ROM 74, for example, at a predetermined cycle. In the following, the step number of each process is indicated by a number prefixed with "S".

図2に示す一連の処理において、CPU72は、まず回転速度NEおよび充填効率ηを取得する(S10)。ここで、回転速度NEは、出力信号Scrに基づきCPU72によって算出される。また、充填効率ηは、回転速度NEおよび吸入空気量Gaに基づきCPU72によって算出される。次に、CPU72は、定常マップデータDMsによって規定され基準点火時期abseを出力変数とするマップデータを用い、回転速度NEおよび充填効率ηを入力変数として、基準点火時期abseをマップ演算する(S12)。ここで、マップ演算は、たとえば、入力変数の値がマップデータの入力変数の値のいずれかに一致する場合、対応するマップデータの出力変数の値を演算結果とするのに対し、一致しない場合、マップデータに含まれる複数の出力変数の値の補間によって得られる値を演算結果とする処理とすればよい。 In the series of processes shown in FIG. 2, the CPU 72 first acquires the rotation speed NE and the filling efficiency η (S10). Here, the rotation speed NE is calculated by the CPU 72 based on the output signal Scr. Further, the filling efficiency η is calculated by the CPU 72 based on the rotation speed NE and the intake air amount Ga. Next, the CPU 72 performs a map calculation of the reference ignition timing abscess using the rotation speed NE and the filling efficiency η as input variables using the map data defined by the stationary map data DMs and using the reference ignition timing abscess as the output variable (S12). .. Here, in the map operation, for example, when the value of the input variable matches any of the values of the input variable of the map data, the value of the output variable of the corresponding map data is used as the operation result, whereas the value does not match. , The value obtained by interpolating the values of a plurality of output variables included in the map data may be used as the calculation result.

そして、CPU72は、過渡フラグFが「1」であるか否かを判定する(S14)。過渡フラグFは、「1」である場合に過渡運転時であることを示し、「0」である場合に過渡運転時ではないことを示す。CPU72は、過渡フラグFが「0」であると判定する場合(S14:NO)、アクセル操作量PAの単位時間当たりの変化量ΔPAの絶対値が所定量ΔPAth以上であるか否かを判定する(S16)。ここで、変化量ΔPAは、たとえば、S16の処理の実行タイミングにおける最新のアクセル操作量PAと、同タイミングに対して単位時間だけ前におけるアクセル操作量PAとの差とすればよい。 Then, the CPU 72 determines whether or not the transient flag F is “1” (S14). When the transient flag F is "1", it indicates that it is in transient operation, and when it is "0", it indicates that it is not in transient operation. When the CPU 72 determines that the transient flag F is "0" (S14: NO), the CPU 72 determines whether or not the absolute value of the change amount ΔPA of the accelerator operation amount PA per unit time is equal to or greater than the predetermined amount ΔPAth. (S16). Here, the change amount ΔPA may be, for example, the difference between the latest accelerator operation amount PA at the execution timing of the process of S16 and the accelerator operation amount PA before the same timing by a unit time.

CPU72は、所定量ΔPAth以上であると判定する場合(S16:YES)、過渡フラグFに「1」を代入する(S18)。
これに対し、CPU72は、過渡フラグFが「1」であると判定する場合(S14:YES)、S16の処理において肯定判定されてから所定期間が経過したか否かを判定する(S20)。ここで、所定期間は、アクセル操作量PAの単位時間当たりの変化量ΔPAの絶対値が所定量ΔPAthよりも小さい規定量以下となる状態が所定時間継続するまでの期間とする。CPU72は、所定期間が経過したと判定する場合(S20:YES)、過渡フラグFに「0」を代入する(S22)。
When the CPU 72 determines that the predetermined amount is ΔPAth or more (S16: YES), the CPU 72 substitutes “1” for the transient flag F (S18).
On the other hand, when the CPU 72 determines that the transient flag F is "1" (S14: YES), the CPU 72 determines whether or not a predetermined period has elapsed since the affirmative determination was made in the process of S16 (S20). Here, the predetermined period is a period until the state in which the absolute value of the change amount ΔPA of the accelerator operation amount PA per unit time is smaller than the predetermined amount ΔPAth and is equal to or less than the specified amount continues for a predetermined time. When the CPU 72 determines that the predetermined period has elapsed (S20: YES), the CPU 72 substitutes “0” for the transient flag F (S22).

CPU72は、S22の処理が完了する場合や、S16の処理において否定判定する場合には、アクセル操作量PAを取得する(S24)。そして、CPU72は、定常マップデータDMsにて規定されスロットル開口度指令値TA*を出力変数とするマップデータの入力変数をアクセル操作量PAおよび回転速度NEとすることによって、スロットル開口度指令値TA*をマップ演算する(S26)。ここで、マップ演算は、たとえば、入力変数の値がマップデータの入力変数の値のいずれかに一致する場合、対応するマップデータの出力変数の値を演算結果とするのに対し、一致しない場合、マップデータに含まれる複数の出力変数の値の補間によって得られる値を演算結果とする処理とすればよい。 The CPU 72 acquires the accelerator operation amount PA when the process of S22 is completed or when a negative determination is made in the process of S16 (S24). Then, the CPU 72 sets the throttle opening command value TA * as the accelerator operation amount PA and the rotation speed NE as the input variables of the map data defined by the steady map data DMs and using the throttle opening command value TA * as the output variable. * Is mapped (S26). Here, in the map operation, for example, when the value of the input variable matches any of the values of the input variable of the map data, the value of the output variable of the corresponding map data is used as the operation result, whereas the value does not match. , The value obtained by interpolating the values of a plurality of output variables included in the map data may be used as the calculation result.

そしてCPU72は、スロットル開口度指令値TA*に基づきスロットルバルブ14を操作すべくスロットルバルブ14に操作信号MS1を出力するとともに、基準点火時期abseに基づき点火装置26を操作すべく点火装置26に操作信号MS3を出力する(S28)。 Then, the CPU 72 outputs an operation signal MS1 to the throttle valve 14 to operate the throttle valve 14 based on the throttle opening degree command value TA *, and operates the ignition device 26 to operate the ignition device 26 based on the reference ignition timing abse. The signal MS3 is output (S28).

一方、CPU72は、S18の処理が完了する場合や、S20の処理において否定判定する場合には、アクセル操作量PAの6個のサンプリング値「PA(1),PA(2),…PA(6)」からなる時系列データを取得する(S30)。ここで、時系列データを構成する各サンプリング値は、互いに異なるタイミングにおいてサンプリングされたものである。本実施形態では、一定のサンプリング周期でサンプリングされる場合の、互いに時系列的に隣り合う6個のサンプリング値によって時系列データを構成する。 On the other hand, when the processing of S18 is completed or when a negative determination is made in the processing of S20, the CPU 72 has six sampling values "PA (1), PA (2), ... PA (6) of the accelerator operation amount PA. ) ”(S30). Here, each sampling value constituting the time series data is sampled at different timings from each other. In the present embodiment, time-series data is configured by six sampling values that are adjacent to each other in time series when sampling is performed at a constant sampling cycle.

そしてCPU72は、過渡マップデータDMtに基づき、スロットル開口度指令値TA*および遅角量aopをマップ演算する(S32)。すなわち、CPU72は、過渡マップデータDMtによって規定されスロットル開口度指令値TA*を出力変数とするマップデータの入力変数を上記時系列データとしてスロットル開口度指令値TA*をマップ演算する。また、CPU72は、過渡マップデータDMtにて規定され遅角量aopを出力変数とするマップデータの入力変数を上記時系列データとして遅角量aopをマップ演算する。 Then, the CPU 72 performs a map calculation of the throttle opening command value TA * and the retard angle amount aop based on the transient map data DMt (S32). That is, the CPU 72 performs map calculation of the throttle opening degree command value TA * by using the input variable of the map data defined by the transient map data DMt and using the throttle opening degree command value TA * as the output variable as the time series data. Further, the CPU 72 performs a map calculation of the retard angle amount aop by using the input variable of the map data defined by the transient map data DMt and using the retard angle amount aop as the output variable as the time series data.

そしてCPU72は、スロットルバルブ14に操作信号MS1を出力してスロットル開口度TAを操作するとともに、点火装置26に操作信号MS3を出力して点火時期を操作する(S34)。ここで、CPU72は、基準点火時期abseを遅角量aopだけ遅角させた時期に基づき点火時期を設定する。具体的には、CPU72は、たとえば周知のノッキングコントロール(KCS)等がなされる場合、点火時期を、基準点火時期abseが遅角量aopで補正された値がKCSにてフィードバック補正された値とする。なお、本実施形態では、スロットル開口度TAをスロットル開口度指令値TA*にフィードバック制御することを例示することから、スロットル開口度指令値TA*が同一の値であっても、操作信号MS1が互いに異なる信号となりうるものである。 Then, the CPU 72 outputs the operation signal MS1 to the throttle valve 14 to operate the throttle opening degree TA, and outputs the operation signal MS3 to the ignition device 26 to operate the ignition timing (S34). Here, the CPU 72 sets the ignition timing based on the timing at which the reference ignition timing abse is retarded by the retard angle amount aop. Specifically, when a well-known knocking control (KCS) or the like is performed, the CPU 72 sets the ignition timing as a value obtained by correcting the reference ignition timing abscess with a retard angle amount aop and then feedback-correcting the ignition timing. To do. In this embodiment, the throttle opening degree TA is feedback-controlled to the throttle opening degree command value TA *. Therefore, even if the throttle opening degree command value TA * is the same value, the operation signal MS1 is generated. It can be different signals from each other.

なお、CPU72はS28,S34の処理が完了する場合、図2に示す一連の処理を一旦終了する。
図3に、上記定常マップデータDMsおよび過渡マップデータDMtを生成するシステムを示す。
When the processes of S28 and S34 are completed, the CPU 72 temporarily ends the series of processes shown in FIG.
FIG. 3 shows a system for generating the stationary map data DMs and the transient map data DMt.

図3に示すように、本実施形態では、内燃機関10のクランク軸28にトルクコンバータ40および変速装置50を介してダイナモメータ100を機械的に連結する。そして内燃機関10を稼働させた際の様々な状態変数がセンサ群102によって検出され、検出結果が、定常マップデータDMsや過渡マップデータDMtを生成するコンピュータである生成装置110に入力される。なお、センサ群102には、図1に示した車両VC1が搭載するセンサ等が含まれる。 As shown in FIG. 3, in the present embodiment, the dynamometer 100 is mechanically connected to the crankshaft 28 of the internal combustion engine 10 via the torque converter 40 and the transmission 50. Then, various state variables when the internal combustion engine 10 is operated are detected by the sensor group 102, and the detection results are input to the generator 110, which is a computer that generates steady-state map data DMs and transient map data DMt. The sensor group 102 includes sensors and the like mounted on the vehicle VC1 shown in FIG.

生成装置110は、CPU112、ROM114、電気的に書き換え可能な不揮発性メモリ(記憶装置116)、および周辺回路118を備えており、それらがローカルネットワーク119によって通信可能とされたものである。ここで、記憶装置116には、アクセル操作量PAと、スロットル開口度指令値TA*および遅角量aopとの関係を規定するデータである関係規定データDRが記憶されている。また、ROM114には、強化学習によって、関係規定データDRを学習する学習プログラム114aが記憶されている。 The generator 110 includes a CPU 112, a ROM 114, an electrically rewritable non-volatile memory (storage device 116), and peripheral circuits 118, which are made communicable by the local network 119. Here, the storage device 116 stores the relationship regulation data DR, which is data that defines the relationship between the accelerator operation amount PA, the throttle opening degree command value TA *, and the retard angle amount aop. Further, the ROM 114 stores a learning program 114a for learning the relational regulation data DR by reinforcement learning.

図4に、定常マップデータDMsの生成処理の手順を示す。図4に示す処理は、ROM114に記憶された学習プログラム114aを、CPU112が実行することにより実現される。 FIG. 4 shows a procedure for generating steady-state map data DMs. The process shown in FIG. 4 is realized by the CPU 112 executing the learning program 114a stored in the ROM 114.

図4に示す一連の処理において、CPU112は、内燃機関10が定常運転された状態において、回転速度NEおよび充填効率ηに応じた基準点火時期abseを1つ設定し、点火時期が基準点火時期abseとなるように点火装置26を操作する(S40)。ここで設定する値は、熟練者によって予め定められた複数の候補のうちの1つとする。そして、CPU72は、内燃機関10のトルクTrqと、センサ群102に含まれるノッキングセンサによるノッキング強度とを取得する(S42)。ここで、トルクTrqは、ダイナモメータ100の発生する負荷トルクと、変速装置50の変速比とに基づきCPU112によって算出される。次に、CPU112は、トルクTrqおよびノッキング強度に基づき、S40の処理によって設定した基準点火時期abseが最適な時期であるか否かを判定する(S44)。ここで、最適な時期とは、MBTとノック限界点火時期とのうちの遅角側の時期として適切な時期のことである。 In the series of processes shown in FIG. 4, the CPU 112 sets one reference ignition timing abse according to the rotation speed NE and the filling efficiency η in a state where the internal combustion engine 10 is in steady operation, and the ignition timing is the reference ignition timing abse. The ignition device 26 is operated so as to be (S40). The value set here is one of a plurality of candidates predetermined by an expert. Then, the CPU 72 acquires the torque Trq of the internal combustion engine 10 and the knocking strength by the knocking sensor included in the sensor group 102 (S42). Here, the torque Trq is calculated by the CPU 112 based on the load torque generated by the dynamometer 100 and the gear ratio of the transmission 50. Next, the CPU 112 determines whether or not the reference ignition timing abse set by the process of S40 is the optimum timing based on the torque Trq and the knocking strength (S44). Here, the optimum time is an appropriate time as the time on the retard side of the MBT and the knock limit ignition timing.

CPU112は、最適な時期ではないと判定する場合(S44:NO)、S40の処理に戻って、基準点火時期abseを別の時期に設定する。これに対し、CPU112は、最適な時期であると判定する場合(S44:YES)、S40の処理によって設定した点火時期を基準点火時期abseとして確定する(S46)。そして、CPU112は、回転速度NEおよび充填効率ηによって規定される動作点であって且つ定常マップデータDMsを定義する動作点の全てについてS46の処理が完了したか否かを判定する(S48)。CPU112は、未だS46の処理が完了していない動作点があると判定する場合(S48:NO)、S40の処理に戻る。 When the CPU 112 determines that the timing is not optimal (S44: NO), the CPU 112 returns to the process of S40 and sets the reference ignition timing abscess to another timing. On the other hand, when the CPU 112 determines that the timing is optimal (S44: YES), the CPU 112 determines the ignition timing set by the process of S40 as the reference ignition timing abscess (S46). Then, the CPU 112 determines whether or not the processing of S46 is completed for all the operating points defined by the rotation speed NE and the filling efficiency η and defining the steady-state map data DMs (S48). When the CPU 112 determines that there is an operating point for which the processing of S46 has not been completed (S48: NO), the CPU 112 returns to the processing of S40.

これに対しCPU112は、全ての動作点についてS46の処理が完了したと判定する場合(S48:YES)、内燃機関10が定常運転された状態で、アクセル操作量PAおよび回転速度NEに応じたスロットル開口度指令値TA*を設定する(S50)。ここで設定する値は、熟練者によって予め設定された複数の候補のうちの1つとする。そしてCPU112は、トルクTrqを取得し(S52)、トルクTrqに基づき、S50の処理によって取得したスロットル開口度指令値TA*が最適な開口度であるか否かを判定する(S54)。ここで、CPU112は、アクセル操作量PAに応じたトルク指令値Trq*とトルクTrqとの偏差が十分小さい場合に最適な開口度と判定すればよい。CPU112は、最適な開口度ではないと判定する場合(S54:NO)、S50の処理に戻って、スロットル開口度指令値TA*として別の値を設定する。 On the other hand, when the CPU 112 determines that the processing of S46 is completed for all the operating points (S48: YES), the throttle according to the accelerator operation amount PA and the rotation speed NE while the internal combustion engine 10 is in steady operation. The opening degree command value TA * is set (S50). The value set here is one of a plurality of candidates preset by an expert. Then, the CPU 112 acquires the torque Trq (S52), and based on the torque Trq, determines whether or not the throttle opening degree command value TA * acquired by the processing of S50 is the optimum opening degree (S54). Here, the CPU 112 may determine the optimum opening degree when the deviation between the torque command value Trq * and the torque Trq according to the accelerator operation amount PA is sufficiently small. When the CPU 112 determines that the opening degree is not the optimum (S54: NO), the CPU 112 returns to the process of S50 and sets another value as the throttle opening degree command value TA *.

これに対し、CPU112は、最適な開口度であると判定する場合(S54:YES)、S50の処理において設定したスロットル開口度指令値TA*を、その時のアクセル操作量PAおよび回転速度NEに応じた値として確定する(S56)。そして、CPU112は、定常マップデータDMsを定義するアクセル操作量PAおよび回転速度NEの全ての組についてS56の処理が完了したか否かを判定する(S58)。そしてCPU112は、未だS56の処理がなされていない組があると判定する場合(S58:NO)、S50の処理に戻る。 On the other hand, when the CPU 112 determines that the opening degree is the optimum (S54: YES), the throttle opening degree command value TA * set in the process of S50 is set according to the accelerator operation amount PA and the rotation speed NE at that time. It is determined as a value (S56). Then, the CPU 112 determines whether or not the processing of S56 is completed for all the sets of the accelerator operation amount PA and the rotation speed NE that define the steady-state map data DMs (S58). Then, when the CPU 112 determines that there is a set in which the processing of S56 has not been performed yet (S58: NO), the CPU 112 returns to the processing of S50.

これに対し、CPU112は、全ての組についてS56の処理が完了したと判定する場合(S58:YES)、定常マップデータDMsを作成する(S60)。
なお、CPU112は、S60の処理が完了する場合、図4の処理を一旦終了する。
On the other hand, when the CPU 112 determines that the processing of S56 has been completed for all the sets (S58: YES), the CPU 112 creates steady-state map data DMs (S60).
When the process of S60 is completed, the CPU 112 temporarily ends the process of FIG.

図5に、過渡マップデータDMtの生成のための前処理の手順を示す。図5に示す処理は、ROM114に記憶された学習プログラム114aを、CPU112が実行することにより実現される。 FIG. 5 shows a preprocessing procedure for generating transient map data DMt. The process shown in FIG. 5 is realized by the CPU 112 executing the learning program 114a stored in the ROM 114.

図5に示す一連の処理において、CPU112は、まず、内燃機関10を稼働させた状態において、状態sとして、アクセル操作量PAの時系列データを取得する(S30)。ここでの時系列データは、図2に示したS30の処理におけるものと同様のデータである。ただし、図3に示すシステムにおいては、アクセルペダル88は存在しない。そのため、アクセル操作量PAを、生成装置110が車両VC1の状態を模擬することによって疑似的に生成されたものとし、疑似的に生成されたアクセル操作量PAを、車両の状態の検出値とみなす。なお、ここでCPU112は、アクセル操作量PAを変化させることによって、内燃機関10の過渡運転状態を模擬する。 In the series of processes shown in FIG. 5, the CPU 112 first acquires time-series data of the accelerator operation amount PA as the state s in the state where the internal combustion engine 10 is operated (S30). The time-series data here is the same data as that in the process of S30 shown in FIG. However, in the system shown in FIG. 3, the accelerator pedal 88 does not exist. Therefore, it is assumed that the accelerator operation amount PA is simulated by the generator 110 simulating the state of the vehicle VC1, and the pseudo-generated accelerator operation amount PA is regarded as the detected value of the vehicle state. .. Here, the CPU 112 simulates the transient operation state of the internal combustion engine 10 by changing the accelerator operation amount PA.

次にCPU112は、関係規定データDRが定める方策πに従い、S30の処理によって取得した状態sに応じたスロットル開口度指令値TA*および遅角量aopからなる行動aを設定する(S32a)。 Next, the CPU 112 sets the action a including the throttle opening degree command value TA * and the retard angle amount aop according to the state s acquired by the process of S30 according to the policy π defined by the relational regulation data DR (S32a).

本実施形態において、関係規定データDRは、行動価値関数Qおよび方策πを定めるデータである。本実施形態において、行動価値関数Qは、状態sおよび行動aの8次元の独立変数に応じた期待収益の値を示すテーブル型式の関数である。また、方策πは、状態sが与えられたときに、独立変数が与えられた状態sとなる行動価値関数Qのうち最大となる行動a(グリーディ行動)を優先的に選択しつつも、所定の確率εで、それ以外の行動aを選択する規則を定める。 In the present embodiment, the relational regulation data DR is data that defines the action value function Q and the policy π. In the present embodiment, the action value function Q is a table-type function showing the value of the expected return according to the eight-dimensional independent variables of the state s and the action a. Further, the policy π is predetermined while preferentially selecting the action a (greedy action) that is the largest among the action value functions Q in which the independent variable is given the state s when the state s is given. With the probability ε of, the rule for selecting other actions a is determined.

詳しくは、本実施形態にかかる行動価値関数Qの独立変数がとりうる値の数は、状態sおよび行動aのとりうる値の全組み合わせの一部が、人の知見等によって削減されたものである。すなわち、たとえばアクセル操作量PAの時系列データのうち隣接する2つのサンプリング値の1つがアクセル操作量PAの最小値となりもう1つが最大値となるようなことは、人によるアクセルペダル88の操作からは生じえないとして、行動価値関数Qが定義されていない。本実施形態では、人の知見等に基づく次元削減によって、行動価値関数Qを定義する状態sの取りうる値を、10の4乗個以下、より望ましくは10の3乗個以下に制限する。 Specifically, the number of possible values of the independent variable of the action value function Q according to the present embodiment is that a part of all combinations of possible values of the state s and the action a is reduced by human knowledge or the like. is there. That is, for example, in the time series data of the accelerator operation amount PA, one of the two adjacent sampling values becomes the minimum value of the accelerator operation amount PA and the other becomes the maximum value from the operation of the accelerator pedal 88 by a person. The action value function Q is not defined as it cannot occur. In the present embodiment, the possible values of the state s that defines the action value function Q are limited to 10 4 or less, more preferably 10 3 or less, by dimensionality reduction based on human knowledge or the like.

次にCPU112は、設定されたスロットル開口度指令値TA*および遅角量aopに基づき、操作信号MS1,MS3を出力する(S34)。次にCPU112は、内燃機関10のトルクTrq、内燃機関10に対するトルク指令値Trq*、および加速度Gxを取得する(S70)。ここで、CPU112は、トルクTrqを、ダイナモメータ100が生成する負荷トルクと変速装置50の変速比とに基づき算出する。また、CPU112は、トルク指令値Trq*を、アクセル操作量PAに応じて設定する。また、CPU112は、加速度Gxを、ダイナモメータ100の負荷トルク等に基づき、仮に内燃機関10等が車両に搭載されていた場合に車両に生じると想定される値として算出する。すなわち、本実施形態においては、加速度Gxについても仮想的なものであるが、この加速度Gxについても、車両の状態の検出値であるとみなす。 Next, the CPU 112 outputs the operation signals MS1 and MS3 based on the set throttle opening command value TA * and the retard angle amount aop (S34). Next, the CPU 112 acquires the torque Trq of the internal combustion engine 10, the torque command value Trq * for the internal combustion engine 10, and the acceleration Gx (S70). Here, the CPU 112 calculates the torque Trq based on the load torque generated by the dynamometer 100 and the gear ratio of the transmission 50. Further, the CPU 112 sets the torque command value Trq * according to the accelerator operation amount PA. Further, the CPU 112 calculates the acceleration Gx as a value that is assumed to occur in the vehicle if the internal combustion engine 10 or the like is mounted in the vehicle, based on the load torque of the dynamometer 100 or the like. That is, in the present embodiment, the acceleration Gx is also virtual, but this acceleration Gx is also regarded as a detected value of the state of the vehicle.

次にCPU112は、過渡期間が終了したか否かを判定する(S72)。ここでCPU112は、アクセル操作量PAの単位時間当たりの変化量ΔPAの絶対値を所定量ΔPth以上とした後、同単位時間当たりの変化量ΔPAの絶対値が所定量ΔPAthよりも小さい規定量以下となる状態が所定時間継続する場合に、過渡期間が終了したと判定する。CPU72は、過渡期間が未だ完了していないと判定する場合(S72:NO)、S30の処理に戻る。 Next, the CPU 112 determines whether or not the transition period has ended (S72). Here, the CPU 112 sets the absolute value of the change amount ΔPA of the accelerator operation amount PA per unit time to be equal to or greater than the predetermined amount ΔPth, and then sets the absolute value of the change amount ΔPA per unit time to be smaller than the predetermined amount ΔPAth. When this state continues for a predetermined time, it is determined that the transition period has ended. When the CPU 72 determines that the transition period has not yet been completed (S72: NO), the CPU 72 returns to the process of S30.

これに対し、CPU112は、過渡期間が完了したと判定する場合(S72:YES)、1つのエピソードが完了したとして、強化学習によって行動価値関数Qを更新する(S74)。 On the other hand, when the CPU 112 determines that the transition period is completed (S72: YES), the CPU 112 updates the action value function Q by reinforcement learning, assuming that one episode is completed (S74).

図6に、S74の処理の詳細を示す。
図6に示す一連の処理において、CPU112は、直近に終了されたエピソード中のトルク指令値Trq*、トルクTrqおよび加速度Gxの3つのサンプリング値の組からなる時系列データと、状態sおよび行動aの時系列データと、を取得する(S80)。図6には、カッコの中の数字が異なるものが、異なるサンプリングタイミングにおける変数の値であることを示す。たとえば、トルク指令値Trq*(1)とトルク指令値Trq*(2)とは、サンプリングタイミングが互いに異なるものである。また、直近のエピソードに属する行動aの時系列データを、行動集合Ajとし、同エピソードに属する状態sの時系列データを、状態集合Sjと定義する。
FIG. 6 shows the details of the processing of S74.
In the series of processes shown in FIG. 6, the CPU 112 performs time-series data including a set of three sampling values of the torque command value Trq *, the torque Trq, and the acceleration Gx in the most recently completed episode, and the state s and the action a. (S80). FIG. 6 shows that the values in parentheses that differ are the values of the variables at different sampling timings. For example, the torque command value Trq * (1) and the torque command value Trq * (2) have different sampling timings. Further, the time-series data of the action a belonging to the latest episode is defined as the action set Aj, and the time-series data of the state s belonging to the same episode is defined as the state set Sj.

次にCPU112は、直近のエピソードに属する任意のトルクTrqとトルク指令値Trq*との差の絶対値が規定量ΔTrq以下である旨の条件(ア)と、加速度Gxが下限値GxL以上であって上限値GxH以下である旨の条件(イ)との論理積が真であるか否かを判定する(S82)。 Next, the CPU 112 has a condition (a) that the absolute value of the difference between the arbitrary torque Trq belonging to the latest episode and the torque command value Trq * is the specified amount ΔTrq or less, and the acceleration Gx is the lower limit value GxL or more. It is determined whether or not the logical product with the condition (a) indicating that the upper limit value is GxH or less is true (S82).

ここで、CPU112は、規定量ΔTrqを、エピソードの開始時におけるアクセル操作量PAの単位時間当たりの変化量ΔPAによって可変設定する。すなわち、CPU112は、エピソードの開始時におけるアクセル操作量PAの変化量ΔPAの絶対値が大きい場合には過渡時に関するエピソードであるとして、定常時に関するエピソードと比較して、規定量ΔTrqを大きい値に設定する。 Here, the CPU 112 variably sets the specified amount ΔTrq according to the amount of change ΔPA per unit time of the accelerator operation amount PA at the start of the episode. That is, when the absolute value of the change amount ΔPA of the accelerator operation amount PA at the start of the episode is large, the CPU 112 considers that the episode is related to the transient time, and sets the specified amount ΔTrq to a larger value than the episode related to the steady state. Set.

また、CPU112は、下限値GxLを、エピソードの開始時におけるアクセル操作量PAの変化量ΔPAによって可変設定する。すなわち、CPU112は、過渡時に関するエピソードであって且つ変化量ΔPAが正である場合には、定常時に関するエピソードの場合と比較して、下限値GxLを大きい値に設定する。また、CPU112は、過渡時に関するエピソードであって且つ変化量ΔPAが負である場合には、定常時に関するエピソードの場合と比較して、下限値GxLを小さい値に設定する。 Further, the CPU 112 variably sets the lower limit value GxL according to the change amount ΔPA of the accelerator operation amount PA at the start of the episode. That is, when the CPU 112 is an episode related to the transient time and the amount of change ΔPA is positive, the CPU 112 sets the lower limit value GxL to a larger value than the case of the episode related to the steady state. Further, when the CPU 112 is an episode related to the transient time and the amount of change ΔPA is negative, the CPU 112 sets the lower limit value GxL to a smaller value than the case of the episode related to the steady state.

また、CPU112は、上限値GxHを、エピソードの開始時におけるアクセル操作量PAの単位時間当たりの変化量ΔPAによって可変設定する。すなわち、CPU112は、過渡時に関するエピソードであって且つ変化量ΔPAが正である場合には、定常時に関するエピソードの場合と比較して、上限値GxHを大きい値に設定する。また、CPU112は、過渡時に関するエピソードであって且つ変化量ΔPAが負である場合には、定常時に関するエピソードの場合と比較して、上限値GxHを小さい値に設定する。 Further, the CPU 112 variably sets the upper limit value GxH according to the change amount ΔPA per unit time of the accelerator operation amount PA at the start of the episode. That is, when the CPU 112 is an episode related to the transient time and the amount of change ΔPA is positive, the CPU 112 sets the upper limit value GxH to a larger value than the case of the episode related to the steady time. Further, when the CPU 112 is an episode related to the transient time and the amount of change ΔPA is negative, the CPU 112 sets the upper limit value GxH to a smaller value than the case of the episode related to the steady state.

CPU112は、論理積が真であると判定する場合(S82:YES)、報酬rに「10」を代入する一方(S84)、偽であると判定する場合(S82:NO)、報酬rに「−10」を代入する(S86)。CPU112は、S84,S86の処理が完了する場合、図3に示した記憶装置116に記憶されている関係規定データDRを更新する。本実施形態では、εソフト方策オン型モンテカルロ法を用いる。 When the CPU 112 determines that the logical product is true (S82: YES), it substitutes "10" for the reward r (S84), while when it determines that the logical product is false (S82: NO), the reward r is "". -10 ”is substituted (S86). When the processing of S84 and S86 is completed, the CPU 112 updates the relational regulation data DR stored in the storage device 116 shown in FIG. In this embodiment, the ε soft policy on-type Monte Carlo method is used.

すなわち、CPU112は、上記S80の処理によって読み出した各状態と対応する行動との組によって定まる収益R(Sj,Aj)に、それぞれ、報酬rを加算する(S88)。ここで、「R(Sj,Aj)」は、状態集合Sjの要素の1つを状態とし行動集合Ajの要素の1つを行動とする収益Rを総括した記載である。次に、上記S80の処理によって読み出した各状態と対応する行動との組によって定まる収益R(Sj,Aj)のそれぞれについて、平均化して対応する行動価値関数Q(Sj,Aj)に代入する(S90)。ここで、平均化は、S88の処理がなされた回数によって、S88の処理によって算出された収益Rを除算する処理とすればよい。なお、収益Rの初期値はゼロとすればよい。 That is, the CPU 112 adds the reward r to the profit R (Sj, Aj) determined by the set of each state read by the process of S80 and the corresponding action (S88). Here, "R (Sj, Aj)" is a general description of the profit R in which one of the elements of the state set Sj is a state and one of the elements of the action set Aj is an action. Next, each of the revenues R (Sj, Aj) determined by the set of each state read by the process of S80 and the corresponding action is averaged and substituted into the corresponding action value function Q (Sj, Aj) ( S90). Here, the averaging may be a process of dividing the profit R calculated by the process of S88 by the number of times the process of S88 is performed. The initial value of the profit R may be zero.

次にCPU112は、上記S80の処理によって読み出した状態について、それぞれ、対応する行動価値関数Q(Sj,A)のうち、最大値となるときのスロットル開口度指令値TA*および遅角量aopの組である行動を、行動Aj*に代入する(S92)。ここで、「A」は、とりうる任意の行動を示す。なお、行動Aj*は、上記S80の処理によって読み出した状態の種類に応じて各別の値となるものであるが、ここでは、表記を簡素化して、同一の記号にて記載している。 Next, the CPU 112 describes the throttle opening command value TA * and the retard angle amount aop at the maximum value of the corresponding action value functions Q (Sj, A) for the state read by the process of S80, respectively. The set of actions is substituted into the action Aj * (S92). Here, "A" indicates an arbitrary action that can be taken. The action Aj * has a different value depending on the type of the state read by the process of S80, but here, the notation is simplified and described by the same symbol.

次に、CPU72は、上記S80の処理によって読み出した状態のそれぞれについて、対応する方策π(Aj|Sj)を更新する(S94)。すなわち、行動の総数を、「|A|」とすると、S92によって選択された行動Aj*の選択確率を、「1−ε+ε/|A|」とする。また、行動Aj*以外の「|A|−1」個の行動の選択確率を、それぞれ「ε/|A|」とする。S94の処理は、S90の処理によって更新された行動価値関数Qに基づく処理であることから、これにより、状態sと行動aとの関係を規定する関係規定データDRが、収益Rを増加させるように更新されることとなる。 Next, the CPU 72 updates the corresponding policy π (Aj | Sj) for each of the states read by the process of S80 (S94). That is, assuming that the total number of actions is "| A |", the selection probability of the action Aj * selected by S92 is "1-ε + ε / | A |". Further, the selection probabilities of "| A | -1" actions other than the action Aj * are set to "ε / | A |", respectively. Since the process of S94 is a process based on the action value function Q updated by the process of S90, the relationship rule data DR that defines the relationship between the state s and the action a increases the profit R. Will be updated to.

なお、CPU112は、S94の処理が完了する場合、図6に示す一連の処理を一旦終了する。
図5に戻り、CPU112は、S74の処理が完了すると、行動価値関数Qが収束したか否かを判定する(S76)。ここでは、独立変数のそれぞれの値に対して行動価値関数Qの更新量が所定値以下となる連続回数が所定回数に達する場合に収束したと判定すればよい。CPU112は、収束していないと判定する場合(S76:NO)、S30の処理に戻る。これに対し、CPU112は、収束したと判定する場合(S76:YES)、図5に示す一連の処理を終了する。
When the process of S94 is completed, the CPU 112 temporarily ends the series of processes shown in FIG.
Returning to FIG. 5, when the processing of S74 is completed, the CPU 112 determines whether or not the action value function Q has converged (S76). Here, it may be determined that the action value function Q has converged when the number of consecutive times when the update amount of the action value function Q is equal to or less than the predetermined value reaches the predetermined number of times for each value of the independent variable. When the CPU 112 determines that the convergence has not occurred (S76: NO), the CPU 112 returns to the process of S30. On the other hand, when the CPU 112 determines that the convergence has occurred (S76: YES), the CPU 112 ends the series of processes shown in FIG.

図7に、生成装置110が実行する処理のうち、特に図5の処理によって学習された行動価値関数Qに基づき、過渡マップデータDMtを生成する処理の手順を示す。図7に示す処理は、ROM114に記憶された学習プログラム114aを、CPU112が実行することにより実現される。 FIG. 7 shows a procedure of processing for generating transient map data DMt, particularly based on the action value function Q learned by the processing of FIG. 5, among the processes executed by the generation device 110. The process shown in FIG. 7 is realized by the CPU 112 executing the learning program 114a stored in the ROM 114.

図7に示す一連の処理において、CPU112は、まず、状態sを1つ選択する(S100)。次に、CPU112は、状態sに対応した行動価値関数Q(s,A)のうち、行動価値関数Qの値を最大とする行動aを選択する(S102)。すなわち、ここでは、グリーディ方策によって行動aを選択する。次に、CPU112は、状態sと行動aとの組を記憶装置116に記憶させる(S104)。 In the series of processes shown in FIG. 7, the CPU 112 first selects one state s (S100). Next, the CPU 112 selects the action a that maximizes the value of the action value function Q from the action value functions Q (s, A) corresponding to the state s (S102). That is, here, the action a is selected by the Greedy policy. Next, the CPU 112 stores the set of the state s and the action a in the storage device 116 (S104).

次にCPU112は、過渡マップデータDMtの入力変数の値とするもの全てがS100の処理によって選択されたか否かを判定する(S106)。そして、CPU112は、選択されていないものがあると判定する場合(S106:NO)、S100の処理に戻る。これに対し、CPU112は、全てが選択されたと判定する場合(S106:YES)、S104の処理によって記憶されたデータに基づき、過渡マップデータDMtを生成する(S108)。ここでは、過渡マップデータDMtの入力変数の値が状態sであるものに対応する出力変数の値を、対応する行動aとする。 Next, the CPU 112 determines whether or not all the values of the input variables of the transient map data DMt are selected by the processing of S100 (S106). Then, when the CPU 112 determines that there is something that has not been selected (S106: NO), the CPU 112 returns to the process of S100. On the other hand, when it is determined that all are selected (S106: YES), the CPU 112 generates transient map data DMt based on the data stored by the processing of S104 (S108). Here, the value of the output variable corresponding to the state s of the value of the input variable of the transient map data DMt is set as the corresponding action a.

なお、CPU112は、S108の処理が完了する場合、図7に示す一連の処理を一旦終了する。
ここで、本実施形態の作用および効果について説明する。
When the process of S108 is completed, the CPU 112 temporarily ends the series of processes shown in FIG. 7.
Here, the operation and effect of this embodiment will be described.

図3に示すシステムにおいて、CPU112は、定常マップデータDMsについては、強化学習によらずに適合する。これに対し、CPU112は、過渡マップデータDMtについては、強化学習によって、行動価値関数Qを学習することによって生成する。すなわちCPU112は、アクセル操作量PAの時系列データを取得し、方策πに従って、スロットル開口度指令値TA*および遅角量aopからなる行動aを設定する。ここでCPU72は、所定の確率εで、期待収益を最大化する行動a以外の行動を選択することによって、期待収益を最大化する行動aの探索を行う。そして、CPU112は、行動価値関数Qの値が収束する場合、過渡マップデータDMtの入力変数となる状態のそれぞれについて、行動価値関数Qを最大化する行動を選択し、状態と行動との組を記憶装置116に記憶する。次に、CPU112は、記憶装置116に記憶された状態と行動との組に基づき、過渡マップデータDMtを生成する。 In the system shown in FIG. 3, the CPU 112 conforms to the steady-state map data DMs without relying on reinforcement learning. On the other hand, the CPU 112 generates the transient map data DMt by learning the action value function Q by reinforcement learning. That is, the CPU 112 acquires the time-series data of the accelerator operation amount PA, and sets the action a including the throttle opening degree command value TA * and the retard angle amount aop according to the policy π. Here, the CPU 72 searches for the action a that maximizes the expected return by selecting an action other than the action a that maximizes the expected return with a predetermined probability ε. Then, when the value of the action value function Q converges, the CPU 112 selects an action that maximizes the action value function Q for each of the states that are input variables of the transient map data DMt, and sets the state and the action. It is stored in the storage device 116. Next, the CPU 112 generates the transient map data DMt based on the pair of the state and the action stored in the storage device 116.

ここで、過渡マップデータDMtを熟練者が適合する場合には、出力変数の値について手探りで候補を設定し評価する作業を繰り返すこととなり、定常状態と比較して工数が多くなる。これに対し、本実施形態では、強化学習を利用することにより、熟練者の工数を削減できる。 Here, when a skilled person fits the transient map data DMt, the work of setting and evaluating the candidate for the value of the output variable by fumbling is repeated, and the man-hours are increased as compared with the steady state. On the other hand, in the present embodiment, the man-hours of a skilled person can be reduced by using reinforcement learning.

以上説明した本実施形態によれば、さらに以下に記載する効果が得られる。
(1)制御装置70が備える記憶装置76に、行動価値関数Q等ではなく、過渡マップデータDMtを記憶した。これにより、CPU72は、過渡マップデータDMtを用いたマップ演算に基づき、スロットル開口度指令値TA*や遅角量aopを設定することから、行動価値関数Qのうち最大値となるものを選択する処理を実行する場合と比較して、演算負荷を軽減できる。
According to the present embodiment described above, the effects described below can be further obtained.
(1) The transient map data DMt is stored in the storage device 76 included in the control device 70, not the action value function Q or the like. As a result, the CPU 72 sets the throttle opening command value TA * and the retard angle amount aop based on the map calculation using the transient map data DMt, and thus selects the one having the maximum value among the action value functions Q. The calculation load can be reduced as compared with the case of executing the process.

(2)行動価値関数Qの独立変数にアクセル操作量PAの時系列データを含めた。これにより、アクセル操作量PAに関して単一のサンプリング値のみを独立変数とする場合と比較して、アクセル操作量PAの様々な変化に対して行動aの値をきめ細かく調整できる。 (2) The time series data of the accelerator operation amount PA was included in the independent variable of the action value function Q. As a result, the value of the action a can be finely adjusted for various changes in the accelerator operation amount PA, as compared with the case where only a single sampling value is used as the independent variable for the accelerator operation amount PA.

(3)行動価値関数Qの独立変数に、スロットル開口度指令値TA*自体を含めた。これにより、たとえば、スロットル開口度指令値TA*の挙動をモデル化したモデル式のパラメータ等をスロットル開口度に関する独立変数とする場合と比較して、強化学習による探索の自由度を高めることが容易である。 (3) The throttle opening command value TA * itself is included in the independent variable of the action value function Q. This makes it easier to increase the degree of freedom of search by reinforcement learning, for example, as compared with the case where the parameters of the model formula that models the behavior of the throttle opening command value TA * are used as independent variables related to the throttle opening. Is.

<第2の実施形態>
以下、第2の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
<Second embodiment>
Hereinafter, the second embodiment will be described with reference to the drawings, focusing on the differences from the first embodiment.

図8に、本実施形態にかかる車両VC1の駆動系および制御装置を示す。なお、図8において、図1に示した部材に対応する部材については、便宜上、同一の符号を付している。 FIG. 8 shows the drive system and the control device of the vehicle VC1 according to the present embodiment. In FIG. 8, the members corresponding to the members shown in FIG. 1 are designated by the same reference numerals for convenience.

図8に示すように、本実施形態では、ROM74に、制御プログラム74aに加えて、学習プログラム74bが記憶されている。また、記憶装置76に、定常マップデータDMsについては記憶されているものの、過渡マップデータDMtについては記憶されておらず、代わりに、関係規定データDRが記憶され、また、トルク出力写像データDTが記憶されている。ここで、関係規定データDRは、図5の処理によって学習された学習済みのデータである。また、トルク出力写像データDTによって規定されるトルク出力写像は、回転速度NE、充填効率η、および点火時期を入力とし、トルクTrqを出力するニューラルネットワーク等の学習済みモデルに関するデータである。なお、上記トルク出力写像データDTは、たとえば図5の処理を実行する際、S70の処理によって取得されるトルクTrqを教師データとして学習されたものとすればよい。 As shown in FIG. 8, in the present embodiment, the learning program 74b is stored in the ROM 74 in addition to the control program 74a. Further, although the stationary map data DMs are stored in the storage device 76, the transient map data DMt is not stored. Instead, the relational regulation data DR is stored, and the torque output mapping data DT is stored. It is remembered. Here, the relational regulation data DR is the learned data learned by the process of FIG. Further, the torque output mapping defined by the torque output mapping data DT is data related to a trained model such as a neural network that outputs torque Trq with rotation speed NE, filling efficiency η, and ignition timing as inputs. The torque output mapping data DT may be learned by using the torque Trq acquired by the processing of S70 as the teacher data when executing the processing of FIG. 5, for example.

図9に、本実施形態にかかる制御装置70が実行する処理の手順を示す。図9に示す処理は、ROM74に記憶された制御プログラム74aおよび学習プログラム74bを、CPU72がたとえば所定周期で繰り返し実行することにより実現される。なお、図9において、図2および図5に示した処理に対応する処理については、便宜上同一のステップ番号を付与する。 FIG. 9 shows a procedure of processing executed by the control device 70 according to the present embodiment. The process shown in FIG. 9 is realized by the CPU 72 repeatedly executing the control program 74a and the learning program 74b stored in the ROM 74, for example, at a predetermined cycle. In FIG. 9, the same step numbers are assigned to the processes corresponding to the processes shown in FIGS. 2 and 5 for convenience.

図9に示す一連の処理において、CPU72は、S30の処理が完了する場合、S32a,S34,S70の処理を順次実行し、図9に示す一連の処理を一旦終了する。また、CPU72は、S22の処理を完了する場合には、S74の処理を実行する。そして、CPU72は、S74の処理を完了する場合やS16の処理において否定判定する場合には、S24〜S28の処理を実行し、図9に示す一連の処理を一旦終了する。ちなみに、図9の処理のうちのS74の処理以外の処理は、CPU72が制御プログラム74aを実行することにより実現され、S74の処理は、CPU72が学習プログラム74bを実行することにより実現される。 In the series of processes shown in FIG. 9, when the process of S30 is completed, the CPU 72 sequentially executes the processes of S32a, S34, and S70, and temporarily ends the series of processes shown in FIG. Further, when the CPU 72 completes the process of S22, the CPU 72 executes the process of S74. Then, when the CPU 72 completes the process of S74 or determines negative in the process of S16, the CPU 72 executes the processes of S24 to S28 and temporarily ends the series of processes shown in FIG. Incidentally, the processing other than the processing of S74 in the processing of FIG. 9 is realized by the CPU 72 executing the control program 74a, and the processing of S74 is realized by the CPU 72 executing the learning program 74b.

このように、本実施形態によれば、制御装置70に関係規定データDRおよび学習プログラム74bを実装することにより、車両VC1の実際の走行に伴って、関係規定データDRを更新できることから、第1の実施形態の場合と比較して、関係規定データDRの更新頻度を向上させることができる。 As described above, according to the present embodiment, by mounting the relational regulation data DR and the learning program 74b on the control device 70, the relational regulation data DR can be updated with the actual running of the vehicle VC1, and therefore, the first As compared with the case of the embodiment of the above, the update frequency of the related regulation data DR can be improved.

<第3の実施形態>
以下、第3の実施形態について、第2の実施形態との相違点を中心に図面を参照しつつ説明する。
<Third embodiment>
Hereinafter, the third embodiment will be described with reference to the drawings, focusing on the differences from the second embodiment.

本実施形態では、関係規定データDRの更新を、車両VC1の外で実行する。
図10に、本実施形態において、強化学習を実行する制御システムの構成を示す。なお、図10において、図1に示した部材に対応する部材については、便宜上、同一の符号を付している。
In the present embodiment, the update of the related regulation data DR is executed outside the vehicle VC1.
FIG. 10 shows the configuration of the control system that executes reinforcement learning in the present embodiment. In FIG. 10, the members corresponding to the members shown in FIG. 1 are designated by the same reference numerals for convenience.

図10に示す車両VC1内の制御装置70におけるROM74は、制御プログラム74aを記憶しているものの、学習プログラム74bを記憶していない。また、記憶装置76は、定常マップデータDMsや、関係規定データDR、トルク出力写像データDTを記憶している。なお、本実施形態にかかる定常マップデータDMsは、上記実施形態における基準点火時期abseを出力変数とするデータと、スロットル開口度指令値TA*を出力変数とするデータとに加えて、充填効率ηを入力変数としベース噴射量Qbseを出力変数とするデータを含む。ここで、充填効率ηを入力変数としベース噴射量Qbseを出力変数とするデータにおいて、ベース噴射量Qbseは、充填効率ηに対応する空気と燃料との混合気が理論空燃比となるように設定されたものであり、充填効率ηに所定の比例係数を乗算した値となる。また、本実施形態にかかる関係規定データDRは、行動変数を、スロットル開口度指令値TA*、遅角量aopおよびベース噴射量Qbseとするものである。 The ROM 74 in the control device 70 in the vehicle VC1 shown in FIG. 10 stores the control program 74a, but does not store the learning program 74b. Further, the storage device 76 stores steady-state map data DMs, related regulation data DR, and torque output mapping data DT. The stationary map data DMs according to the present embodiment include the data in which the reference ignition timing abse in the above embodiment is used as the output variable and the data in which the throttle opening degree command value TA * is used as the output variable, and the filling efficiency η. Contains data with the input variable and the base injection amount Qbse as the output variable. Here, in the data in which the filling efficiency η is used as an input variable and the base injection amount Qbse is used as an output variable, the base injection amount Qbse is set so that the air-fuel mixture corresponding to the filling efficiency η is the stoichiometric air-fuel ratio. It is a value obtained by multiplying the filling efficiency η by a predetermined proportional coefficient. Further, in the relational regulation data DR according to the present embodiment, the action variables are the throttle opening degree command value TA *, the retard angle amount aop, and the base injection amount Qbse.

また、制御装置70は、通信機77を備えている。通信機77は車両VC1の外部のネットワーク120を介してデータ解析センター130と通信するための機器である。
データ解析センター130は、複数の車両VC1,VC2,…から送信されるデータを解析する。データ解析センター130は、CPU132、ROM134、および電気的に書き換え可能な不揮発性メモリ(記憶装置136)、周辺回路138および通信機137を備えており、それらがローカルネットワーク139によって通信可能とされるものである。ROM134には、学習プログラム74bが記憶されており、記憶装置136には、関係規定データDRが記憶されている。
Further, the control device 70 includes a communication device 77. The communication device 77 is a device for communicating with the data analysis center 130 via the network 120 outside the vehicle VC1.
The data analysis center 130 analyzes the data transmitted from the plurality of vehicles VC1, VC2, .... The data analysis center 130 includes a CPU 132, a ROM 134, an electrically rewritable non-volatile memory (storage device 136), peripheral circuits 138, and a communication device 137, which can be communicated by the local network 139. Is. The learning program 74b is stored in the ROM 134, and the related regulation data DR is stored in the storage device 136.

図11に、本実施形態にかかる制御装置70が実行する処理の手順を示す。図11に示す処理は、ROM74に記憶された制御プログラム74aを、CPU72がたとえば所定周期で繰り返し実行することにより実現される。なお、図11において、図9に示した処理に対応する処理については、便宜上同一のステップ番号を付与する。 FIG. 11 shows a procedure of processing executed by the control device 70 according to the present embodiment. The process shown in FIG. 11 is realized by the CPU 72 repeatedly executing the control program 74a stored in the ROM 74, for example, at a predetermined cycle. In FIG. 11, the same step numbers are assigned to the processes corresponding to the processes shown in FIG. 9 for convenience.

図11に示す一連の処理において、CPU72は、S22の処理を完了する場合やS16の処理において否定判定する場合には、S24の処理に移行する。そしてCPU72は、S24の処理を完了する場合、定常マップデータDMsに基づき、スロットル開口度指令値TA*とベース噴射量Qbseとをマップ演算する(S26a)。そして、CPU72は、S28の処理と同様にして操作信号MS1,MS3を出力することに加えて、ベース噴射量Qbseに基づき燃料噴射弁16を操作すべく燃料噴射弁16に操作信号MS2を出力する(S28a)。ここで、CPU72は、検出値Afuを目標値にフィードバック制御するための操作量によってベース噴射量Qbseを補正した値に基づき、操作信号MS2を生成する。 In the series of processes shown in FIG. 11, the CPU 72 shifts to the process of S24 when the process of S22 is completed or when a negative determination is made in the process of S16. Then, when the processing of S24 is completed, the CPU 72 performs a map calculation of the throttle opening degree command value TA * and the base injection amount Qbse based on the steady-state map data DMs (S26a). Then, in addition to outputting the operation signals MS1 and MS3 in the same manner as the processing of S28, the CPU 72 outputs the operation signal MS2 to the fuel injection valve 16 in order to operate the fuel injection valve 16 based on the base injection amount Qbse. (S28a). Here, the CPU 72 generates the operation signal MS2 based on the value obtained by correcting the base injection amount Qbse by the operation amount for feedback-controlling the detected value Afu to the target value.

一方、CPU72は、S18の処理が完了する場合、状態sとして、アクセル操作量PAの時系列データに加えて、回転速度NEおよび充填効率ηの時系列データを取得する(S30a)。本実施形態では、アクセル操作量PA、回転速度NE、および充填効率ηの各時系列データを、等間隔でサンプリングされた6個の値とする。次にCPU72は、S30aの処理において取得した状態sに基づき行動aを設定する(S32b)。 On the other hand, when the processing of S18 is completed, the CPU 72 acquires the time-series data of the rotation speed NE and the filling efficiency η in addition to the time-series data of the accelerator operation amount PA as the state s (S30a). In the present embodiment, each time series data of the accelerator operation amount PA, the rotation speed NE, and the filling efficiency η is set to six values sampled at equal intervals. Next, the CPU 72 sets the action a based on the state s acquired in the process of S30a (S32b).

図12に、S32bの処理の詳細を示す。
本実施形態では、方策πを、行動を定める各操作量の取りうる確率を定める多変量ガウス分布とする。ここで、多変量ガウス分布の平均値μ(1)は、スロットル開口度指令値TA*の平均値を示し、平均値μ(2)は、遅角量aopの平均値を示し、平均値μ(3)は、ベース噴射量Qbseの平均値を示す。また、本実施形態では、多変量ガウス分布の共分散行列を対角行列とし、各平均値μ(i)に対応する分散σ(i)が各別の値となりうるものとする。
FIG. 12 shows the details of the processing of S32b.
In the present embodiment, the policy π is a multivariate Gaussian distribution that determines the possible probabilities of each manipulated variable that determines the behavior. Here, the average value μ (1) of the multivariate Gaussian distribution indicates the average value of the throttle opening command value TA *, and the average value μ (2) indicates the average value of the retard angle amount aop, and the average value μ. (3) shows the average value of the base injection amount Qbse. Further, in the present embodiment, the covariance matrix of the multivariate Gaussian distribution is a diagonal matrix, and the variance σ (i) corresponding to each average value μ (i) can be a different value.

図12に示すように、CPU72は、方策πを設定するための関数近似器の入力変数x(1)〜x(18)に、S30aの処理によって取得した状態sを代入する(S110)。詳しくは、CPU72は、「i=1〜6」として、入力変数x(i)にアクセル操作量PA(i)を代入し、入力変数x(6+i)に回転速度NE(i)を代入し、入力変数x(12+i)に充填効率η(i)を代入する。 As shown in FIG. 12, the CPU 72 substitutes the state s acquired by the process of S30a into the input variables x (1) to x (18) of the function approximator for setting the policy π (S110). Specifically, the CPU 72 substitutes the accelerator operation amount PA (i) for the input variable x (i) and substitutes the rotation speed NE (i) for the input variable x (6 + i) with "i = 1 to 6". Substitute the filling efficiency η (i) into the input variable x (12 + i).

次に、CPU72は、「i=1〜3」のそれぞれについて、平均値μ(i)および分散σ(i)を算出する(S112)。本実施形態では、平均値μ(i)を、中間層の層数が「p−1」個であって且つ、各中間層の活性化関数h1〜hp−1がハイパボリックタンジェントであり、出力層の活性化関数hpがReLUであるニューラルネットワークによって構成されている。ここで、ReLUは、入力と「0」とのうちの小さくない方を出力する関数である。また、m=1,2,…,p−1とすると、第mの中間層の各ノードの値は、係数w(m)によって規定される線形写像の出力を活性化関数hmに入力することによって生成される。ここで、n1,n2,…,np−1は、それぞれ、第1、第2、…、第p−1中間層のノード数である。たとえば、第1の中間層の各ノードの値は、係数w(1)ji(j=0〜n1,i=0〜18)によって規定される線形写像に上記入力変数x(1)〜x(18)を入力した際の出力を活性化関数h1に入力することによって生成される。ちなみに、w(1)j0等は、バイアスパラメータであり、入力変数x(0)は、「1」と定義している。 Next, the CPU 72 calculates the average value μ (i) and the variance σ (i) for each of “i = 1-3” (S112). In the present embodiment, the average value μ (i) is such that the number of layers of the intermediate layer is “p-1” and the activation functions h1 to hp-1 of each intermediate layer are hyperbolic tangents, and the output layer. The activation function hp of is configured by a neural network of ReLU. Here, ReLU is a function that outputs the input and "0", whichever is not smaller. Further, assuming that m = 1, 2, ..., P-1, the value of each node in the mth intermediate layer inputs the output of the linear map defined by the coefficient w (m) to the activation function hm. Generated by. Here, n1, n2, ..., Np-1 are the number of nodes in the first, second, ..., And p-1 intermediate layers, respectively. For example, the value of each node in the first intermediate layer is the input variables x (1) to x (1) to the linear map defined by the coefficient w (1) ji (j = 0 to n1, i = 0 to 18). It is generated by inputting the output when 18) is input to the activation function h1. Incidentally, w (1) j0 and the like are bias parameters, and the input variable x (0) is defined as “1”.

上記ニューラルネットワークは、活性化関数hpの出力を係数w(p)iq(i=1〜3,q=0〜np−1)によって規定される線形写像に入力した際の出力を平均値μ(i)とする。 In the above neural network, the output when the output of the activation function hp is input to the linear map defined by the coefficient w (p) iq (i = 1-3, q = 0 to np-1) is the average value μ ( i).

また、本実施形態では、分散σ(i)を、係数wTik(i=1〜3,k=1〜18)によって規定される線形写像によって入力変数x(1)〜x(18)を線形変換した値のそれぞれを関数fに入力した際の関数fの値とする。本実施形態では、関数fとして、ReLUを例示する。 Further, in the present embodiment, the variance σ (i) is linearly transformed from the input variables x (1) to x (18) by a linear map defined by the coefficient wTik (i = 1-3, k = 1-18). Let each of these values be the value of the function f when it is input to the function f. In this embodiment, ReLU is exemplified as the function f.

次にCPU72は、S112の処理によって算出された平均値μ(i)および分散σ(i)にて定義される方策πに基づき、行動aを決定する(S114)。ここでは、平均値μ(i)を選択する確率が最も高く、且つ、平均値μ(i)を選択する確率は、分散σ(i)が小さい場合に大きい場合よりも大きくなる。 Next, the CPU 72 determines the action a based on the measure π defined by the average value μ (i) calculated by the process of S112 and the variance σ (i) (S114). Here, the probability of selecting the average value μ (i) is the highest, and the probability of selecting the average value μ (i) is larger when the variance σ (i) is small than when it is large.

なお、CPU72は、S114の処理を完了する場合、図11のS32bの処理を完了する。そして、CPU72は、S34の処理と同様にして操作信号MS1,MS3を出力することに加えて、S32bの処理によって設定されたベース噴射量Qbseを、検出値Afuを目標値にフィードバック制御するための操作量にて補正した値の燃料を燃料噴射弁16から噴射させるべく、燃料噴射弁16に操作信号MS2を出力する(S34a)。 When the CPU 72 completes the process of S114, the CPU 72 completes the process of S32b in FIG. Then, in addition to outputting the operation signals MS1 and MS3 in the same manner as the processing of S34, the CPU 72 feedback-controls the base injection amount Qbse set by the processing of S32b with the detected value Afu as the target value. The operation signal MS2 is output to the fuel injection valve 16 in order to inject the fuel having the value corrected by the operation amount from the fuel injection valve 16 (S34a).

なお、CPU72は、S28a,34aの処理を完了する場合、図11に示す一連の処理を一旦終了する。
図13に、本実施形態にかかる強化学習の処理手順を示す。図13(a)に示す処理は、図10に示すROM74に記憶された制御プログラム74aをCPU72が実行することにより実現される。また、図13(b)に示す処理は、ROM134に記憶されている学習プログラム74bを、S34aの処理が実行される場合にCPU132がS34aの処理の実行周期で繰り返し実行することにより実現される。以下では、強化学習の時系列に沿って、図13に示す処理を説明する。
When the CPU 72 completes the processes of S28a and 34a, the CPU 72 temporarily ends the series of processes shown in FIG.
FIG. 13 shows a processing procedure of reinforcement learning according to the present embodiment. The process shown in FIG. 13A is realized by the CPU 72 executing the control program 74a stored in the ROM 74 shown in FIG. Further, the process shown in FIG. 13B is realized by repeatedly executing the learning program 74b stored in the ROM 134 in the execution cycle of the process of S34a by the CPU 132 when the process of S34a is executed. In the following, the process shown in FIG. 13 will be described along with the time series of reinforcement learning.

図13(a)に示すように、CPU72は、トルク指令値Trq*、トルクTrq、加速度Gx、および検出値Afuを取得する(S120)。次にCPU72は、通信機77を操作することによって、S120の処理によって取得したデータを送信する(S122)。 As shown in FIG. 13A, the CPU 72 acquires the torque command value Trq *, the torque Trq, the acceleration Gx, and the detected value Afu (S120). Next, the CPU 72 operates the communication device 77 to transmit the data acquired by the processing of S120 (S122).

これに対し図13(b)に示すように、CPU132は、S122の処理によって送信されたデータを受信する(S130)。次にCPU132は、上記条件(ア)と上記条件(イ)と、検出値Afuがリッチ側上限値AfR以上であって且つリーン側上限値AfL以下である旨の条件(ウ)との論理積が真であるか否かを判定する(S132)。 On the other hand, as shown in FIG. 13B, the CPU 132 receives the data transmitted by the processing of S122 (S130). Next, the CPU 132 is a logical product of the above condition (a), the above condition (a), and the condition (c) that the detected value Afu is equal to or more than the rich side upper limit value AfR and is equal to or less than the lean side upper limit value AfL. Is true or not (S132).

そしてCPU132は、論理積が真であると判定する場合(S132:YES)、報酬rに「1」を代入する(S134)一方、偽であると判定する場合(S132:NO)、報酬rに「−1」を代入する(S136)。CPU132は、S134,S136の処理が完了する場合、収益Rに報酬rを加算する(S138)。そして、CPU132は、変数tが所定時間T−1に達したか否かを判定する(S140)。CPU132は、所定時間T−1に達していないと判定する場合(S140:NO)、変数tをインクリメントする(S142)。 Then, when the CPU 132 determines that the logical product is true (S132: YES), it substitutes "1" for the reward r (S134), while when it determines that the logical product is false (S132: NO), the reward r is assigned. Substitute "-1" (S136). When the processing of S134 and S136 is completed, the CPU 132 adds the reward r to the profit R (S138). Then, the CPU 132 determines whether or not the variable t has reached the predetermined time T-1 (S140). When the CPU 132 determines that the predetermined time T-1 has not been reached (S140: NO), the CPU 132 increments the variable t (S142).

これに対しCPU132は、所定時間T−1に達すると判定する場合(S140:YES)、収益Riに、収益Rを代入した後、収益Rを初期化し、さらに、変数tを初期化する(S144)。次にCPU132は、変数iが所定値Nに達したか否かを判定する(S146)。そして、CPU132は、所定値Nに達していないと判定する場合(S146:NO)、変数iをインクリメントする(S148)。 On the other hand, when the CPU 132 determines that the predetermined time T-1 is reached (S140: YES), the CPU 132 substitutes the profit R for the profit Ri, initializes the profit R, and further initializes the variable t (S144). ). Next, the CPU 132 determines whether or not the variable i has reached the predetermined value N (S146). Then, when the CPU 132 determines that the predetermined value N has not been reached (S146: NO), the variable i is incremented (S148).

これに対し、CPU132は、所定値Nに達すると判定する場合(S146:YES)、方策勾配法によって、方策πを規定する変数w(1)〜w(p)や係数wTを更新する(S150)。図13には、方策πを規定する変数w(1)〜w(p)や係数wTを総括してパラメータθと記載している。 On the other hand, when the CPU 132 determines that the predetermined value N is reached (S146: YES), the CPU 132 updates the variables w (1) to w (p) and the coefficient wT that define the policy π by the policy gradient method (S150). ). In FIG. 13, the variables w (1) to w (p) and the coefficient wT that define the policy π are collectively described as the parameter θ.

ここで、変数tが0〜T−1となるまでにおける、状態s、行動aおよび報酬rの、T個の組を、トラジェクトリhtとし、確率pθ(ht)を、パラメータθによって規定される方策πに従ってトラジェクトリhtとなる確率pθ(ht)とする。ここでは、「pθ(ht)・Rt」のトラジェクトリhtによる積分値は、収益R(ht)の期待値(期待収益J)であり、これを最大化するように、パラメータθを更新する。これは、パラメータθの各成分の更新量を、同成分によって上記期待収益Jを偏微分した値に比例した量とすることにより実現できる。 Here, a measure in which T sets of states s, action a, and reward r until the variable t becomes 0 to T-1 is a trajectory ht, and the probability pθ (ht) is defined by the parameter θ. Let the probability of becoming a trajectory ht according to π be pθ (ht). Here, the integrated value of “pθ (ht) · Rt” by the trajectory ht is the expected value (expected return J) of the profit R (ht), and the parameter θ is updated so as to maximize this. This can be realized by setting the update amount of each component of the parameter θ to be an amount proportional to the value obtained by partially differentiating the expected return J by the same component.

ここで、確率pθ(ht)は、状態s0,s1,…sT、行動a0,a1,…aTを用いると、pθ(ht)=p(s0)・p(s1|s0,a0)・π(a0|s0)・p(s2|s1,a1)・π(a1|s1)…p(sT|sT-1,aT-1)・π(aT-1|sT-1)
となる。ただし、初期確率p(s0)は、状態s0となる確率であり、遷移確率p(st+1|st,at)は、状態st、行動atのときに状態stから状態st+1に遷移する確率である。
Here, the probability pθ (ht) is pθ (ht) = p (s0) · p (s1 | s0, a0) · π (when the states s0, s1, ... sT and the actions a0, a1, ... aT are used. a0 | s0) ・ p (s2 | s1, a1) ・ π (a1 | s1)… p (sT | sT-1, aT-1) ・ π (aT-1 | sT-1)
Will be. However, the initial probability p (s0) is the probability of becoming the state s0, and the transition probability p (st + 1 | st, at) is the probability of transitioning from the state st to the state st + 1 at the time of the state st and the action at.

したがって、期待収益Jの偏微分は、下記の式(c1)となる。 Therefore, the partial differential of the expected return J is given by the following equation (c1).

Figure 2021067256

ここで、確率pθ(ht)については、知ることができないことから、上記の式(c1)における積分を、複数(ここでは、所定値N個)のトラジェクトリhtによる平均値に置き換える。
Figure 2021067256

Here, since the probability pθ (ht) cannot be known, the integral in the above equation (c1) is replaced with an average value of a plurality of (here, N predetermined values) trajectories.

これにより、期待収益Jのパラメータθの各成分による偏微分は、方策π(at|ht(i))の対数のパラメータθの該当する成分による偏微分係数の「t=0〜T−1」における和と収益Riとの積を、所定値N個の収益Riについて加算し、所定値Nで除算した値となる。 As a result, the partial differential of each component of the parameter θ of the expected profit J is the partial differential coefficient “t = 0 to T-1” of the corresponding component of the logarithmic parameter θ of the policy π (at | ht (i)). The product of the sum and the profit Ri in the above is added to the predetermined value N of the profit Ri and divided by the predetermined value N.

パラメータθの各成分による期待収益Jの偏微分係数に学習率αを乗算した値を、パラメータθのうちの該当する成分の更新量とする。
なお、S140〜S150の処理は、ROM134に記憶された学習プログラム74bのうち、状態s0,s1,…、行動a0,a1,…、および報酬rを入力とし、更新されたパラメータθを出力する更新写像の実行指令が実行されることによって実現される。
The value obtained by multiplying the partial differential coefficient of the expected return J by each component of the parameter θ by the learning rate α is defined as the update amount of the corresponding component of the parameter θ.
In the processing of S140 to S150, among the learning programs 74b stored in the ROM 134, the states s0, s1, ..., The actions a0, a1, ..., And the reward r are input, and the updated parameter θ is output. It is realized by executing the execution command of the mapping.

CPU132は、S150の処理が完了する場合、変数iおよび収益R1〜RNを初期化する(S152)。そしてCPU132は、通信機137を操作して、更新されたパラメータθを送信する(S154)。 When the processing of S150 is completed, the CPU 132 initializes the variables i and the profits R1 to RN (S152). Then, the CPU 132 operates the communication device 137 to transmit the updated parameter θ (S154).

なお、CPU132は、S142,S148,S154の処理が完了する場合、図13(b)に示す一連の処理を一旦終了する。
これに対し図13(a)に示すように、CPU72は、更新データがあるか否かを判定する(S124)。そしてCPU72は、更新データがあると判定する場合(S124:YES)、更新データを受信する(S126)。そしてCPU72は、S32bの処理において利用する関係規定データDRを構成する係数w(1)〜w(p),wTを、S126の処理によって受信したデータに書き換える(S128)。なお、CPU72は、S128の処理が完了する場合や、S124の処理において否定判定する場合には、図13(a)に示す一連の処理を一旦終了する。
When the processes of S142, S148, and S154 are completed, the CPU 132 temporarily ends the series of processes shown in FIG. 13 (b).
On the other hand, as shown in FIG. 13A, the CPU 72 determines whether or not there is update data (S124). Then, when the CPU 72 determines that there is update data (S124: YES), the CPU 72 receives the update data (S126). Then, the CPU 72 rewrites the coefficients w (1) to w (p) and wT constituting the relational regulation data DR used in the processing of S32b to the data received by the processing of S126 (S128). When the processing of S128 is completed or when a negative determination is made in the processing of S124, the CPU 72 temporarily ends the series of processing shown in FIG. 13A.

ちなみに、車両VC1の出荷時に制御装置70に実装される関係規定データDRは、図12および図13の処理に準じた処理を図3に示したシステムにおいて実行することによって生成された学習済みモデルである。 By the way, the relational regulation data DR mounted on the control device 70 at the time of shipment of the vehicle VC1 is a trained model generated by executing the processing according to the processing of FIGS. 12 and 13 in the system shown in FIG. is there.

このように、本実施形態によれば、関係規定データDRの更新処理をデータ解析センター130によって実行することにより、CPU72の演算負荷を軽減できる。
以上説明した本実施形態によれば、さらに以下の作用効果が得られる。
As described above, according to the present embodiment, the calculation load of the CPU 72 can be reduced by executing the update process of the related regulation data DR by the data analysis center 130.
According to the present embodiment described above, the following effects can be further obtained.

(4)関係規定データDRに関数近似器を用いることにより、状態や行動が連続変数であっても、これを容易に扱うことができる。
(5)行動aにベース噴射量Qbseを含めた。過渡時においては開ループ操作量としてのベース噴射量Qbseを充填効率ηに比例した値としたのみでは、検出値Afuがリッチ側上限値AfRとリーン側上限値AfLとの間から外れるおそれがある。そして、どのようにベース噴射量Qbseを設定すればよいかを、熟練者による試行錯誤の繰り返しによって行う場合には、熟練者に要求される工数が多くなる。これに対し、本実施形態では、過渡時の開ループ制御の噴射量であるベース噴射量Qbseを強化学習によって学習することにより、熟練者に要求される工数を効果的に削減できる。
(4) By using a function approximator for the relational regulation data DR, even if the state or action is a continuous variable, it can be easily handled.
(5) The base injection amount Qbse was included in the action a. In the transient case, if the base injection amount Qbse as the open loop operation amount is set to a value proportional to the filling efficiency η, the detected value Afu may deviate from the rich side upper limit value AfR and the lean side upper limit value AfL. .. Then, when the method of setting the base injection amount Qbse is performed by repeating trial and error by a skilled person, the number of man-hours required for the skilled person increases. On the other hand, in the present embodiment, the man-hours required for the expert can be effectively reduced by learning the base injection amount Qbse, which is the injection amount of the open loop control at the time of transient, by reinforcement learning.

<対応関係>
上記実施形態における事項と、上記「課題を解決するための手段」の欄に記載した事項との対応関係は、次の通りである。以下では、「課題を解決するための手段」の欄に記載した解決手段の番号毎に、対応関係を示している。
<Correspondence>
The correspondence between the matters in the above-described embodiment and the matters described in the above-mentioned "means for solving the problem" column is as follows. In the following, the correspondence is shown for each number of the solution means described in the column of "Means for solving the problem".

[1,2]実行装置は、CPU112およびROM114に対応し、記憶装置は記憶装置116に対応する。取得処理は、図4のS30,S70の処理に対応する。操作処理は、S34の処理に対応する。報酬算出処理は、S82〜S86の処理に対応する。更新処理は、S88〜S94の処理に対応する。第1データは、関係規定データDRに対応し、第2データは、定常マップデータDMsに対応する。[3]行動変数としての操作量は、スロットル開口度指令値TA*と遅角量aopとに対応する。[4]制御用写像データは、過渡マップデータDMtに対応する。[5,6]実行装置は、図8のCPU72およびROM74に対応し、記憶装置は、図8の記憶装置76に対応する。第1操作処理は、図9のS34の処理に対応する。第2操作処理は、図9のS28の処理に対応する。[7〜9]第1実行装置は、CPU72およびROM74に対応し、第2実行装置は、CPU132およびROM134に対応する。取得処理は、S30a,S120の処理に対応し、更新処理は、S150の処理に対応する。 [1, 2] The execution device corresponds to the CPU 112 and the ROM 114, and the storage device corresponds to the storage device 116. The acquisition process corresponds to the processes of S30 and S70 of FIG. The operation process corresponds to the process of S34. The reward calculation process corresponds to the processes of S82 to S86. The update process corresponds to the processes of S88 to S94. The first data corresponds to the relational regulation data DR, and the second data corresponds to the steady-state map data DMs. [3] The manipulated variable as an action variable corresponds to the throttle opening command value TA * and the retard angle amount aop. [4] The control mapping data corresponds to the transient map data DMt. [5, 6] The execution device corresponds to the CPU 72 and ROM 74 of FIG. 8, and the storage device corresponds to the storage device 76 of FIG. The first operation process corresponds to the process of S34 in FIG. The second operation process corresponds to the process of S28 in FIG. [7-9] The first executing device corresponds to the CPU 72 and the ROM 74, and the second executing device corresponds to the CPU 132 and the ROM 134. The acquisition process corresponds to the processes of S30a and S120, and the update process corresponds to the process of S150.

<その他の実施形態>
なお、本実施形態は、以下のように変更して実施することができる。本実施形態および以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
<Other Embodiments>
In addition, this embodiment can be implemented by changing as follows. The present embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.

・「行動変数について」
上記実施形態では、行動変数としてのスロットルバルブの開口度に関する変数として、スロットル開口度指令値TA*を例示したが、これに限らない。たとえば、アクセル操作量PAに対するスロットル開口度指令値TA*の応答性を、無駄時間および2次遅れフィルタにて表現し、無駄時間と、2次遅れフィルタを規定する2つの変数との合計3つの変数を、スロットルバルブの開口度に関する変数としてもよい。ただし、その場合、状態変数は、アクセル操作量PAの時系列データに代えて、アクセル操作量PAの単位時間当たりの変化量とすることが望ましい。
・ "About behavior variables"
In the above embodiment, the throttle opening command value TA * is exemplified as a variable related to the opening degree of the throttle valve as an action variable, but the present invention is not limited to this. For example, the responsiveness of the throttle opening command value TA * to the accelerator operation amount PA is expressed by the wasted time and the second-order lag filter, and the wasted time and the two variables that define the second-order lag filter are a total of three. The variable may be a variable related to the opening degree of the throttle valve. However, in that case, it is desirable that the state variable is a change amount per unit time of the accelerator operation amount PA instead of the time series data of the accelerator operation amount PA.

上記実施形態では、行動変数としての点火時期に関する変数として、遅角量aopを例示したが、これに限らない。たとえば、KCSによる補正対象とされる点火時期自体であってもよい。 In the above embodiment, the retard angle amount aop is exemplified as a variable related to the ignition timing as an action variable, but the present invention is not limited to this. For example, it may be the ignition timing itself to be corrected by KCS.

上記実施形態では、行動変数として、スロットルバルブの開口度に関する変数および点火時期に関する変数の組や、スロットルバルブの開口度に関する変数、点火時期に関する変数、および噴射量に関する変数の組を例示したが、これに限らない。たとえば、スロットルバルブの開口度に関する変数、点火時期に関する変数、および噴射量に関する変数の3つに関しては、スロットルバルブの開口度に関する変数および燃料噴射量のみを採用したり、点火時期に関する変数および燃料噴射量のみを採用したりしてもよい。さらに、それら3つに関しては、行動変数としてそれらのうちの1つのみを採用してもよい。 In the above embodiment, as the action variables, a set of variables related to the throttle valve opening degree and the ignition timing, a set of variables related to the throttle valve opening degree, a variable related to the ignition timing, and a set of variables related to the injection amount are illustrated. Not limited to this. For example, regarding the variables related to the throttle valve opening degree, the ignition timing variable, and the injection amount, only the throttle valve opening degree variable and the fuel injection amount are adopted, or the ignition timing variable and the fuel injection amount are adopted. Only the quantity may be adopted. Furthermore, for those three, only one of them may be adopted as the behavioral variable.

また、「内燃機関について」の欄に記載したように、内燃機関10が過給機と吸気バルブのバルブ特性可変装置とを備える場合、吸気バルブのバルブ特性を行動変数に含めてもよい。この場合、上記条件(ア)や条件(イ)を満たす場合に所定の基準を満たすとして報酬を与えることにより、過渡時における応答性を高めるうえでのバルブ特性の操作を強化学習によって学習できる。 Further, as described in the column of "About the internal combustion engine", when the internal combustion engine 10 includes the supercharger and the valve characteristic variable device of the intake valve, the valve characteristic of the intake valve may be included in the action variable. In this case, when the above conditions (a) and (b) are satisfied, the operation of the valve characteristics for enhancing the responsiveness at the time of transition can be learned by reinforcement learning by giving a reward as satisfying a predetermined criterion.

また、「内燃機関について」の欄に記載したように、圧縮着火式の内燃機関の場合、スロットルバルブの開口度に関する変数に代えて噴射量に関する変数を用い、点火時期に関する変数に代えて噴射時期に関する変数を用いればよい。なお、噴射時期に関する変数に加えて、1燃焼サイクルにおける噴射回数に関する変数や、1燃焼サイクルにおける1つの気筒のための時系列的に隣接する2つの燃料噴射のうちの一方の終了タイミングと他方の開始タイミングとの間の時間間隔に関する変数を加えることが望ましい。 Further, as described in the column of "About the internal combustion engine", in the case of a compression ignition type internal combustion engine, a variable related to the injection amount is used instead of the variable related to the opening degree of the throttle valve, and a variable related to the ignition timing is used instead of the variable related to the ignition timing. You can use the variables related to. In addition to the variables related to the injection timing, the variables related to the number of injections in one combustion cycle and the end timing of one of the two fuel injections adjacent in time series for one cylinder in one combustion cycle and the other It is desirable to add a variable for the time interval between the start timing.

また、たとえば変速装置50が有段変速装置の場合、クラッチの係合状態を油圧によって調整するためのソレノイドバルブの電流値等を行動変数としてもよい。
また、たとえば、下記「車両について」の欄に記載したように車両としてハイブリッド車や、電気自動車、燃料電池車を採用する場合、回転電機のトルクや出力を行動変数としてもよい。
Further, for example, when the transmission 50 is a stepped transmission, the current value of the solenoid valve for adjusting the engaged state of the clutch by flood control may be used as an action variable.
Further, for example, when a hybrid vehicle, an electric vehicle, or a fuel cell vehicle is adopted as the vehicle as described in the column of "About the vehicle" below, the torque and output of the rotary electric machine may be used as an action variable.

・「状態について」
上記実施形態では、アクセル操作量PAの時系列データを、等間隔でサンプリングされた6個の値からなるデータとしたが、これに限らない。互いに異なるサンプリングタイミングにおける2個以上のサンプリング値からなるデータであればよく、この際、3個以上のサンプリング値からなるデータや、サンプリング間隔が等間隔であるデータであることがより望ましい。
・ "About the condition"
In the above embodiment, the time-series data of the accelerator operation amount PA is set to the data consisting of six values sampled at equal intervals, but the present invention is not limited to this. The data may be data consisting of two or more sampling values at different sampling timings, and at this time, it is more desirable that the data consists of three or more sampling values or the sampling intervals are evenly spaced.

上記実施形態では、回転速度NEの時系列データを、等間隔でサンプリングされた6個の値からなるデータとしたが、これに限らない。互いに異なるサンプリングタイミングにおける2個以上のサンプリング値からなるデータであればよく、この際、3個以上のサンプリング値からなるデータや、サンプリング間隔が等間隔であるデータであることがより望ましい。 In the above embodiment, the time-series data of the rotation speed NE is set to the data consisting of six values sampled at equal intervals, but the present invention is not limited to this. The data may be data consisting of two or more sampling values at different sampling timings, and at this time, it is more desirable that the data consists of three or more sampling values or the sampling intervals are evenly spaced.

上記実施形態では、充填効率ηの時系列データを、等間隔でサンプリングされた6個の値からなるデータとしたが、これに限らない。互いに異なるサンプリングタイミングにおける2個以上のサンプリング値からなるデータであればよく、この際、3個以上のサンプリング値からなるデータや、サンプリング間隔が等間隔であるデータであることがより望ましい。 In the above embodiment, the time-series data of the filling efficiency η is set to the data consisting of six values sampled at equal intervals, but the present invention is not limited to this. The data may be data consisting of two or more sampling values at different sampling timings, and at this time, it is more desirable that the data consists of three or more sampling values or the sampling intervals are evenly spaced.

また、たとえば「行動変数について」の欄に記載したように、ソレノイドバルブの電流値を行動変数とする場合、状態に、変速装置の入力軸52の回転速度や出力軸54の回転速度、ソレノイドバルブによって調整される油圧を含めればよい。またたとえば「行動変数について」の欄に記載したように、回転電機のトルクや出力を行動変数とする場合、状態に、バッテリの充電率や温度を含めればよい。 Further, for example, as described in the column of "About the action variable", when the current value of the solenoid valve is used as the action variable, the state includes the rotation speed of the input shaft 52 of the transmission, the rotation speed of the output shaft 54, and the solenoid valve. The oil pressure adjusted by may be included. Further, for example, as described in the column of "behavior variable", when the torque or output of the rotary electric machine is used as the action variable, the charge rate or temperature of the battery may be included in the state.

・「第1データについて」
上記実施形態では、行動価値関数Qを、テーブル形式の関数としたが、これに限らない。たとえば、関数近似器を用いてもよい。
・ "About the first data"
In the above embodiment, the action value function Q is a table-type function, but the present invention is not limited to this. For example, a function approximator may be used.

図10に示した例では、車両VC1の出荷に際して実装する関係規定データDRを、図3に示したシステムによって強化学習がなされたデータとしたが、これに限らない。たとえば、関係規定データDRを行動価値関数Qを含んで構成し、すでに従来手法にてマップデータが適合されている内燃機関10について、各状態に対応する行動をグリーディ行動とするように行動価値関数Qをマップデータから求めることによって、実装する関係規定データDRを生成してもよい。 In the example shown in FIG. 10, the relational regulation data DR implemented at the time of shipment of the vehicle VC1 is set to the data for which reinforcement learning is performed by the system shown in FIG. 3, but the present invention is not limited to this. For example, for the internal combustion engine 10 in which the relational regulation data DR includes the action value function Q and the map data has already been adapted by the conventional method, the action value function is set so that the action corresponding to each state is a greedy action. By obtaining Q from the map data, the relational regulation data DR to be implemented may be generated.

・「テーブル形式のデータの次元削減について」
テーブル形式のデータの次元削減手法としては、上記実施形態において例示したものに限らない。たとえばアクセル操作量PAが最大値となることはまれであることから、アクセル操作量PAが規定量以上となる状態については行動価値関数Qを定義せず、アクセル操作量PAが規定量以上となる場合のスロットル開口度指令値TA*等は、別途適合してもよい。またたとえば、行動のとりうる値からスロットル開口度指令値TA*が規定値以上となるものを除くなどして、次元削減をしてもよい。
・ "About dimensionality reduction of table format data"
The method for reducing the dimension of the table format data is not limited to the one illustrated in the above embodiment. For example, since it is rare that the accelerator operation amount PA becomes the maximum value, the action value function Q is not defined for the state where the accelerator operation amount PA becomes the specified amount or more, and the accelerator operation amount PA becomes the specified amount or more. In this case, the throttle opening command value TA * and the like may be adapted separately. Further, for example, the dimension may be reduced by excluding the value at which the throttle opening degree command value TA * is equal to or more than the specified value from the values that can be taken.

また、たとえば、図5のS76の処理において肯定判定されるまでは、S32aの処理において、行動価値関数Qの独立変数の値を少数に制限してもよい。その場合、S76の処理において肯定判定される場合に、行動価値関数Qの値が大きくなる行動aの付近の値を行動価値関数Qの独立変数がとりうる値に加えてS30,S32a,S34,S70〜S72の処理を繰り返せばよい。 Further, for example, the value of the independent variable of the action value function Q may be limited to a small number in the process of S32a until an affirmative decision is made in the process of S76 of FIG. In that case, when affirmative judgment is made in the processing of S76, the value near the action a in which the value of the action value function Q becomes large is added to the value that can be taken by the independent variable of the action value function Q, and S30, S32a, S34, The processes of S70 to S72 may be repeated.

もっとも、次元削減をすることは必須ではない。たとえば、第3の実施形態において複数の車両のデータに基づく強化学習を行って且つCPU72の演算能力や記憶装置76の記憶容量が十分であるのであれば、車両の出荷前には次元削減をした一部のみについて行動価値関数を学習しておくものの、出荷後には、全ての行動を探索によって実行可能としてもよい。これにより、出荷後には出荷前と比較して十分な学習用のデータを確保できることに鑑み、探索としてとりうる行動の数を増やして、より適切な行動を見出すことが可能となる。 However, dimensionality reduction is not essential. For example, in the third embodiment, if reinforcement learning based on the data of a plurality of vehicles is performed and the computing power of the CPU 72 and the storage capacity of the storage device 76 are sufficient, the dimension is reduced before the vehicle is shipped. Although the action value function is learned for only a part, all actions may be executed by exploration after shipment. As a result, it is possible to increase the number of actions that can be taken as a search and find more appropriate actions in view of the fact that sufficient learning data can be secured after shipping as compared with before shipping.

・「所定の条件について」
強化学習の実行条件または強化学習によって学習された制御用データの利用条件としての所定の条件としては、アクセル操作量PAの変化量ΔPAの絶対値が所定値ΔPA以上となってからの所定期間に限らない。たとえば吸入空気量Gaの単位時間当たりの変化量の絶対値が所定量以上となってからの所定期間としてもよい。
・ "Regarding certain conditions"
The predetermined condition as the execution condition of the reinforcement learning or the usage condition of the control data learned by the reinforcement learning is the predetermined period after the absolute value of the change amount ΔPA of the accelerator operation amount PA becomes the predetermined value ΔPA or more. Not exclusively. For example, it may be a predetermined period after the absolute value of the change amount of the intake air amount Ga per unit time becomes a predetermined amount or more.

もっとも、所定の条件としては、過渡状態である旨の条件に限らない。たとえば、所定の電子部品に異常が生じるフェールセーフ処理時であること、または、フェールセーフ処理時ではないことを所定の条件としてもよい。 However, the predetermined condition is not limited to the condition that the state is in a transient state. For example, a predetermined condition may be that it is during the fail-safe process in which an abnormality occurs in a predetermined electronic component, or that it is not during the fail-safe process.

・「更新写像について」
S88〜S94の処理においては、εソフト方策オン型モンテカルロ法によるものを例示したが、これに限らない。たとえば、方策オフ型モンテカルロ法によるものであってもよい。もっとも、モンテカルロ法にも限らず、たとえば、方策オフ型TD法を用いたり、またたとえばSARSA法のように方策オン型TD法を用いたり、またたとえば、方策オン型の学習として適格度トレース法を用いたりしてもよい。
・ "About updated mapping"
In the processing of S88 to S94, the ε-soft policy on-type Monte Carlo method was illustrated, but the present invention is not limited to this. For example, the policy-off type Monte Carlo method may be used. However, it is not limited to the Monte Carlo method, for example, the policy-off type TD method is used, the policy-on type TD method such as the SARSA method is used, and the eligibility tracing method is used as the policy-on type learning, for example. You may use it.

なお、「第1データについて」の欄に記載したように、行動価値関数Qの関数近似器を用いる場合には、更新写像は、たとえば、行動価値関数Qを規定するパラメータによる行動価値関数Qの偏微分に基づき同パラメータの更新量を出力する写像を含めて構成すればよい。 As described in the column of "About the first data", when the function approximator of the action value function Q is used, the updated map is, for example, the action value function Q according to the parameter defining the action value function Q. It may be configured including a mapping that outputs the update amount of the same parameter based on the partial differential.

S150の処理においては、収益Riを、時間Tの間の単純平均としたが、これに限らない。たとえば、所定の割引率γによって過去の報酬rほど大きく割引された値を用いた和としてもよい。これは、指数移動平均処理に相当する。 In the processing of S150, the revenue Ri is set as a simple average during the time T, but the present invention is not limited to this. For example, it may be a sum using a value discounted by a predetermined discount rate γ as much as the past reward r. This corresponds to exponential moving average processing.

S150の処理において、収益Riに代えて、収益Riから、パラメータθに依存しない適宜のベースライン関数を引いたものとしてもよい。具体的には、ベースライン関数は、たとえば、期待収益Jのパラメータによる偏微分の分散を最小化する関数とすることが望ましい。 In the processing of S150, instead of the profit Ri, an appropriate baseline function independent of the parameter θ may be subtracted from the profit Ri. Specifically, it is desirable that the baseline function is, for example, a function that minimizes the variance of the partial differential according to the parameter of the expected return J.

また、行動価値関数Qと方策πとのうちのいずれか一方のみを、報酬rによる直接の更新対象とするものに限らない。たとえば、アクター・クリティック法のように、行動価値関数Qおよび方策πをそれぞれ更新してもよい。また、アクター・クリティック法においては、これに限らず、たとえば行動価値関数Qに代えて価値関数Vを更新対象としてもよい。 Further, only one of the action value function Q and the policy π is not limited to the one directly updated by the reward r. For example, the action value function Q and the policy π may be updated, respectively, as in the actor-critic method. Further, in the actor-critic method, the value function V may be updated instead of the action value function Q, for example.

なお、方策πを定める「ε」については、固定値に限らず、学習の進行度合いに応じてあらかじめ定められた規則に応じて変更してもよい。また、学習率αについても、固定値に限らず、学習の進行度合いに応じてあらかじめ定められた規則に応じて変更してもよい。 The “ε” that defines the policy π is not limited to a fixed value, and may be changed according to a predetermined rule according to the degree of learning progress. Further, the learning rate α is not limited to a fixed value, and may be changed according to a predetermined rule according to the degree of progress of learning.

・「報酬算出処理について」
図6の処理では、条件(ア)および条件(イ)の論理積が真であるか否かに応じて報酬を与えたが、これに限らない。たとえば、条件(ア)を満たすか否かに応じて報酬を与える処理と、条件(イ)を満たすか否かに応じて報酬を与える処理とを実行してもよい。また、たとえば、条件(ア)を満たすか否かに応じて報酬を与える処理と、条件(イ)を満たすか否かに応じて報酬を与える処理との2つの処理に関しては、それらのうちのいずれか1つの処理のみを実行してもよい。
・ "About reward calculation processing"
In the process of FIG. 6, the reward is given according to whether or not the logical product of the condition (a) and the condition (b) is true, but the reward is not limited to this. For example, a process of giving a reward depending on whether or not the condition (a) is satisfied and a process of giving a reward depending on whether or not the condition (b) is satisfied may be executed. Further, for example, with respect to two processes, that is, a process of giving a reward depending on whether or not the condition (a) is satisfied and a process of giving a reward depending on whether or not the condition (b) is satisfied, among them. Only one of the processes may be executed.

図13の処理では、条件(ア)〜条件(ウ)の論理積が真であるか否かに応じて報酬を与えたが、これに限らない。たとえば、条件(ア)を満たすか否かに応じて報酬を与える処理と、条件(イ)を満たすか否かに応じて報酬を与える処理と、条件(ウ)を満たすか否かに応じて報酬を与える処理とを実行してもよい。また、たとえば、条件(ア)を満たすか否かに応じて報酬を与える処理と、条件(イ)を満たすか否かに応じて報酬を与える処理と、条件(ウ)を満たすか否かに応じて報酬を与える処理との3つの処理に関しては、それらのうちのいずれか1つの処理のみを実行してもよい。 In the process of FIG. 13, a reward is given according to whether or not the logical product of the conditions (a) to (c) is true, but the reward is not limited to this. For example, a process of giving a reward depending on whether or not the condition (a) is satisfied, a process of giving a reward depending on whether or not the condition (b) is satisfied, and a process of giving a reward depending on whether or not the condition (c) is satisfied. You may perform a rewarding process. Further, for example, a process of giving a reward depending on whether or not the condition (a) is satisfied, a process of giving a reward depending on whether or not the condition (b) is satisfied, and whether or not the condition (c) is satisfied. With respect to the three processes of rewarding according to the situation, only one of them may be executed.

また、たとえば条件(ア)を満たす場合に一律同じ報酬を与える代わりに、トルクTrqとトルク指令値Trq*との差の絶対値が小さい場合に大きい場合よりもより大きい報酬を与える処理としてもよい。またたとえば、条件(ア)を満たさない場合に一律同じ報酬を与える代わりに、トルクTrqとトルク指令値Trq*との差の絶対値が大きい場合に小さい場合よりもより小さい報酬を与える処理としてもよい。 Further, for example, instead of giving the same reward uniformly when the condition (a) is satisfied, a process may be performed in which a larger reward is given when the absolute value of the difference between the torque Trq and the torque command value Trq * is smaller than when it is large. .. Further, for example, instead of giving the same reward uniformly when the condition (a) is not satisfied, it is also possible to give a smaller reward when the absolute value of the difference between the torque Trq and the torque command value Trq * is large than when it is small. Good.

また、たとえば条件(イ)を満たす場合に一律同じ報酬を与える代わりに、加速度Gxの大きさに応じて報酬の大きさを可変とする処理としてもよい。またたとえば、条件(イ)を満たさない場合に一律同じ報酬を与える代わりに、加速度Gxの大きさに応じて報酬の大きさを可変とする処理としてもよい。 Further, for example, instead of giving the same reward uniformly when the condition (a) is satisfied, the process may be such that the magnitude of the reward is variable according to the magnitude of the acceleration Gx. Further, for example, instead of giving the same reward uniformly when the condition (a) is not satisfied, the process may be such that the magnitude of the reward is variable according to the magnitude of the acceleration Gx.

また、たとえば条件(ウ)を満たす場合に一律同じ報酬を与える代わりに、検出値Afuの大きさに応じて報酬の大きさを可変とする処理としてもよい。またたとえば、条件(ウ)を満たさない場合に一律同じ報酬を与える代わりに、検出値Afuの大きさに応じて報酬の大きさを可変とする処理としてもよい。 Further, for example, instead of giving the same reward uniformly when the condition (c) is satisfied, the process may be such that the size of the reward is variable according to the size of the detected value Afu. Further, for example, instead of giving the same reward uniformly when the condition (c) is not satisfied, the process may be such that the size of the reward is variable according to the size of the detected value Afu.

ドライバビリティに関する基準としては、上述したものに限らず、たとえば騒音や振動強度が基準を満たすか否かに応じて設定してもよい。もっともこれに限らず、たとえば上記加速度が基準を満たすか否かと、トルクTrqの追従性が基準を満たすか否かと、騒音が基準を満たすか否かと、振動強度が基準を満たすか否かとの4つのうちの任意の1つ以上であってよい。 The drivability standard is not limited to the above-mentioned one, and may be set according to whether or not noise and vibration intensity satisfy the standard, for example. However, the present invention is not limited to this, for example, whether or not the above acceleration meets the standard, whether or not the followability of the torque Trq meets the standard, whether or not the noise meets the standard, and whether or not the vibration intensity meets the standard. It may be any one or more of the ones.

報酬算出処理としては、報酬rを、ドライバビリティに関する基準を満たすか否かや、排気特性が基準を満たすか否かに応じて与えるものにも限らない。たとえば、燃料消費率が基準を満たす場合に満たさない場合よりも大きい報酬を与える処理であってもよい。なお、ドライバビリティに関する基準を満たす場合に満たさない場合よりも大きい報酬を与える処理と、燃料消費率が基準を満たす場合に満たさない場合よりも大きい報酬を与える処理と、排気特性が基準を満たす場合に満たさない場合よりも大きい報酬を与える処理との3つの処理のうちの任意の2つまたは3つを含んでもよい。 The reward calculation process is not limited to the one in which the reward r is given according to whether or not the criteria for drivability are satisfied and whether or not the exhaust characteristics satisfy the criteria. For example, if the fuel consumption rate meets the criteria, it may be a process that rewards a larger amount than if it does not meet the criteria. In addition, when the drivability standard is met, a larger reward is given than when it is not met, when the fuel consumption rate meets the standard, a larger reward is given than when it is not met, and when the exhaust characteristics meet the standard. May include any two or three of the three processes with the process that rewards greater than if not satisfied.

また、たとえば「行動について」の欄に記載したように、変速装置50のソレノイドバルブの電流値を行動変数とする場合、たとえば報酬算出処理に以下の(a)〜(c)の3つの処理のうちの少なくとも1つの処理を含めればよい。 Further, for example, when the current value of the solenoid valve of the transmission 50 is used as the action variable as described in the column of "behavior", for example, in the reward calculation process, the following three processes (a) to (c) are performed. At least one of these processes may be included.

(a)変速装置による変速比の切り替えに要する時間が所定時間以内である場合に所定時間を超える場合よりも大きい報酬を与える処理である。
(b)変速装置の入力軸52の回転速度の変化速度の絶対値が入力側所定値以下である場合に入力側所定値を超える場合よりも大きい報酬を与える処理である。
(A) This is a process in which when the time required for switching the gear ratio by the transmission is within a predetermined time, a larger reward is given than when the predetermined time is exceeded.
(B) This is a process in which when the absolute value of the change speed of the rotation speed of the input shaft 52 of the transmission is equal to or less than the input side predetermined value, a larger reward is given than when the input side predetermined value is exceeded.

(c)変速装置の出力軸54の回転速度の変化速度の絶対値が出力側所定値以下である場合に出力側所定値を超える場合よりも大きい報酬を与える処理である。
また、たとえば「行動変数について」の欄に記載したように、回転電機のトルクや出力を行動変数とする場合、バッテリの充電率が所定範囲内にある場合にない場合よりも大きい報酬を与える処理や、バッテリの温度が所定範囲内にある場合にない場合よりも大きい報酬を与える処理を含めてもよい。
(C) This is a process in which when the absolute value of the change speed of the rotation speed of the output shaft 54 of the transmission is equal to or less than the predetermined value on the output side, a larger reward is given than when the predetermined value on the output side is exceeded.
In addition, for example, as described in the column of "About behavior variables", when the torque or output of a rotating electric machine is used as a behavior variable, a process of giving a larger reward than when the battery charge rate is within a predetermined range. Alternatively, it may include a process that rewards a greater amount than if the battery temperature is within a predetermined range.

・「車両用制御データの生成方法について」
図5のS32aの処理では、行動価値関数Qに基づき行動を決定したが、これに限らず、とりうるすべての行動を等確率で選択してもよい。
・ "How to generate control data for vehicles"
In the process of S32a of FIG. 5, the action is determined based on the action value function Q, but the action is not limited to this, and all possible actions may be selected with equal probability.

・「操作処理について」
たとえば「第1データについて」の欄に記載したように、行動価値関数Qを関数近似器とする場合、上記実施形態におけるテーブル型式の関数の独立変数となる行動についての離散的な値の組の全てについて、状態sとともに行動価値関数Qに入力することによって、行動価値関数Qを最大化する行動aを選択すればよい。
・ "About operation processing"
For example, as described in the column of "About the first data", when the action value function Q is used as a function approximation device, a set of discrete values for actions that are independent variables of the function of the table type in the above embodiment. For all, the action a that maximizes the action value function Q may be selected by inputting the action value function Q together with the state s.

・「制御用写像データについて」
車両の状態と期待収益を最大化する行動変数の値とを1対1に対応付けることによって車両の状態を入力とし期待収益を最大化する行動変数の値を出力する制御用写像データとしては、マップデータに限らない。たとえば、関数近似器であってもよい。これは、たとえば、図13に例示する方策勾配法等を用いる場合において、学習後の平均値μを制御用写像データとすることによって実現できる。
・ "About control mapping data"
Map as control mapping data that inputs the state of the vehicle and outputs the value of the action variable that maximizes the expected return by associating the state of the vehicle with the value of the action variable that maximizes the expected return on a one-to-one basis. Not limited to data. For example, it may be a function approximator. This can be realized, for example, by using the average value μ after learning as the control mapping data when the policy gradient method illustrated in FIG. 13 is used.

・「車両用制御システムについて」
図11に示した例では、方策πに基づく行動を決定する処理(S32bの処理)を、車両側で実行したが、これに限らない。たとえば、車両VC1からS30aの処理によって取得したデータを送信することとし、データ解析センター130にて送信されてデータを用いて行動aを決定し、決定した行動を車両VC1に送信してもよい。
・ "About vehicle control system"
In the example shown in FIG. 11, the process of determining the action based on the policy π (the process of S32b) is executed on the vehicle side, but the present invention is not limited to this. For example, the data acquired by the processing of the vehicle VC1 to S30a may be transmitted, the action a may be determined using the data transmitted at the data analysis center 130, and the determined action may be transmitted to the vehicle VC1.

車両用制御システムとしては、制御装置70およびデータ解析センター130によって構成されるものに限らない。たとえば、データ解析センター130に代えて、ユーザの携帯端末を用いてもよい。また、制御装置70およびデータ解析センター130と携帯端末とによって車両用制御システムを構成してもよい。これは、たとえばS32bの処理を携帯端末によって実行することにより実現できる。 The vehicle control system is not limited to the one composed of the control device 70 and the data analysis center 130. For example, the user's mobile terminal may be used instead of the data analysis center 130. Further, the vehicle control system may be configured by the control device 70, the data analysis center 130, and the mobile terminal. This can be realized, for example, by executing the processing of S32b by a mobile terminal.

・「実行装置について」
実行装置としては、CPU72(112,132)とROM74(114,134)とを備えて、ソフトウェア処理を実行するものに限らない。たとえば、上記実施形態においてソフトウェア処理されたものの少なくとも一部を、ハードウェア処理する専用のハードウェア回路(たとえばASIC等)を備えてもよい。すなわち、実行装置は、以下の(a)〜(c)のいずれかの構成であればよい。(a)上記処理の全てを、プログラムに従って実行する処理装置と、プログラムを記憶するROM等のプログラム格納装置とを備える。(b)上記処理の一部をプログラムに従って実行する処理装置およびプログラム格納装置と、残りの処理を実行する専用のハードウェア回路とを備える。(c)上記処理の全てを実行する専用のハードウェア回路を備える。ここで、処理装置およびプログラム格納装置を備えたソフトウェア実行装置や、専用のハードウェア回路は複数であってもよい。
・ "About the execution device"
The execution device is not limited to the one provided with the CPU 72 (112, 132) and the ROM 74 (114, 134) to execute software processing. For example, a dedicated hardware circuit (for example, ASIC or the like) that performs hardware processing on at least a part of what has been software-processed in the above embodiment may be provided. That is, the executing device may have any of the following configurations (a) to (c). (A) A processing device that executes all of the above processing according to a program and a program storage device such as a ROM that stores the program are provided. (B) A processing device and a program storage device that execute a part of the above processing according to a program, and a dedicated hardware circuit that executes the remaining processing are provided. (C) A dedicated hardware circuit for executing all of the above processes is provided. Here, there may be a plurality of software execution devices including a processing device and a program storage device, and a plurality of dedicated hardware circuits.

・「記憶装置について」
上記実施形態では、関係規定データDRが記憶される記憶装置と、学習プログラム74b,114aや制御プログラム74aが記憶される記憶装置(ROM74,114,134)とを別の記憶装置としたが、これに限らない。
・ "About storage device"
In the above embodiment, the storage device that stores the related regulation data DR and the storage device (ROM74, 114, 134) that stores the learning programs 74b, 114a and the control program 74a are different storage devices. Not limited to.

・「内燃機関について」
内燃機関としては、燃料噴射弁として吸気通路12に燃料を噴射するポート噴射弁を備えるものに限らず、燃焼室24に燃料を直接噴射する筒内噴射弁を備えるものであってもよく、またたとえば、ポート噴射弁および筒内噴射弁の双方を備えるものであってもよい。
・ "About internal combustion engine"
The internal combustion engine is not limited to one having a port injection valve for injecting fuel into the intake passage 12 as a fuel injection valve, and may be provided with an in-cylinder injection valve for directly injecting fuel into the combustion chamber 24. For example, it may include both a port injection valve and an in-cylinder injection valve.

内燃機関に、吸気バルブのバルブ特性可変装置や、過給機を備えてもよい。
内燃機関としては、火花点火式内燃機関に限らず、たとえば燃料として軽油などを用いる圧縮着火式内燃機関等であってもよい。
The internal combustion engine may be provided with a valve characteristic variable device for an intake valve or a supercharger.
The internal combustion engine is not limited to the spark ignition type internal combustion engine, and may be, for example, a compression ignition type internal combustion engine that uses light oil or the like as fuel.

・「車両について」
車両としては、推力生成装置が内燃機関のみである車両に限らず、たとえば内燃機関と回転電機とを備えるいわゆるハイブリッド車両であってもよい。またたとえば、推力生成装置として、内燃機関を備えることなく、回転電機を備えるいわゆる電気自動車や燃料電池車あってもよい。
・ "About the vehicle"
The vehicle is not limited to a vehicle in which the thrust generator is only an internal combustion engine, and may be, for example, a so-called hybrid vehicle including an internal combustion engine and a rotary electric machine. Further, for example, as the thrust generator, there may be a so-called electric vehicle or a fuel cell vehicle equipped with a rotating electric machine without providing an internal combustion engine.

10…内燃機関、12…吸気通路、14…スロットルバルブ、16…燃料噴射弁、18…吸気バルブ、20…シリンダ、22…ピストン、24…燃焼室、26…点火装置、28…クランク軸、30…排気バルブ、32…排気通路、34…触媒、40…トルクコンバータ、42…ロックアップクラッチ、50…変速装置、52…入力軸、54…出力軸、60…駆動輪、70…制御装置、72…CPU、74…ROM、74a…制御プログラム、74b…学習プログラム、76…記憶装置、77…通信機、78…周辺回路、79…ローカルネットワーク、80…エアフローメータ、82…スロットルセンサ、84…クランク角センサ、88…アクセルペダル、90…アクセルセンサ、92…加速度センサ、100…ダイナモメータ、102…センサ群、110…生成装置、112…CPU、114…ROM、114a…学習プログラム、116…記憶装置、118…周辺回路、119…ローカルネットワーク、120…ネットワーク、130…データ解析センター、132…CPU、134…ROM、136…記憶装置、137…通信機、138…周辺回路、139…ローカルネットワーク。 10 ... Internal engine, 12 ... Intake passage, 14 ... Throttle valve, 16 ... Fuel injection valve, 18 ... Intake valve, 20 ... Cylinder, 22 ... Piston, 24 ... Combustion chamber, 26 ... Ignition device, 28 ... Crank shaft, 30 ... exhaust valve, 32 ... exhaust passage, 34 ... catalyst, 40 ... torque converter, 42 ... lockup clutch, 50 ... transmission, 52 ... input shaft, 54 ... output shaft, 60 ... drive wheel, 70 ... control device, 72 ... CPU, 74 ... ROM, 74a ... Control program, 74b ... Learning program, 76 ... Storage device, 77 ... Communication device, 78 ... Peripheral circuit, 79 ... Local network, 80 ... Airflow meter, 82 ... Throttle sensor, 84 ... Crank Angle sensor, 88 ... Accelerator pedal, 90 ... Accelerator sensor, 92 ... Acceleration sensor, 100 ... Dynamometer, 102 ... Sensor group, 110 ... Generator, 112 ... CPU, 114 ... ROM, 114a ... Learning program, 116 ... Storage device , 118 ... peripheral circuit, 119 ... local network, 120 ... network, 130 ... data analysis center, 132 ... CPU, 134 ... ROM, 136 ... storage device, 137 ... communication device, 138 ... peripheral circuit, 139 ... local network.

Claims (9)

車両の状態が所定の条件を満たす場合における、前記車両の状態と前記車両内の電子機器の操作に関する行動を示す行動変数との関係を規定する第1データが記憶装置に記憶された状態で、
前記車両の状態を検出するセンサの検出値を取得する取得処理と、
前記電子機器を操作する操作処理と、
前記所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づき、前記車両の特性が基準を満たす場合に満たさない場合よりも大きい報酬を与える報酬算出処理と、
前記所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づく前記車両の状態、前記電子機器の操作に用いられた行動変数の値、および該操作に対応する前記報酬を予め定められた更新写像への入力とし、前記第1データを更新する更新処理と、
を実行装置に実行させ、
前記更新写像は、前記第1データに従って前記電子機器が操作される場合の前記報酬についての期待収益を増加させるように更新された前記第1データを出力するものであり、
前記車両の状態が所定の条件を満たさない場合、前記報酬算出処理および前記更新処理によらずに前記車両の状態と前記行動変数との関係を適合して第2データとする車両用制御データの生成方法。
When the state of the vehicle satisfies a predetermined condition, the first data defining the relationship between the state of the vehicle and the action variable indicating the behavior related to the operation of the electronic device in the vehicle is stored in the storage device.
The acquisition process for acquiring the detection value of the sensor that detects the state of the vehicle, and
The operation process for operating the electronic device and
When the predetermined condition is satisfied, a reward calculation process for giving a larger reward than when the characteristic of the vehicle satisfies the standard based on the detected value acquired by the acquisition process, and
When the predetermined condition is satisfied, the state of the vehicle based on the detected value acquired by the acquisition process, the value of the action variable used for the operation of the electronic device, and the reward corresponding to the operation are predetermined. An update process for updating the first data as an input to the updated map, and
To the execution device
The updated map outputs the first data updated so as to increase the expected profit for the reward when the electronic device is operated according to the first data.
When the state of the vehicle does not satisfy a predetermined condition, the control data for the vehicle is used as the second data by matching the relationship between the state of the vehicle and the action variable without depending on the reward calculation process and the update process. Generation method.
前記所定の条件は、過渡運転時である旨の条件である請求項1記載の車両用制御データの生成方法。 The method for generating vehicle control data according to claim 1, wherein the predetermined condition is a condition for transient driving. 前記車両は、内燃機関を搭載しており、
前記電子機器は、前記内燃機関の操作部を含み、
前記第1データは、前記車両の状態と前記行動変数としての前記内燃機関の操作部の操作量との関係を規定する請求項1または2記載の車両用制御データの生成方法。
The vehicle is equipped with an internal combustion engine.
The electronic device includes an operation unit of the internal combustion engine.
The method for generating vehicle control data according to claim 1 or 2, wherein the first data defines a relationship between the state of the vehicle and the operation amount of the operation unit of the internal combustion engine as the action variable.
前記車両の状態と前記期待収益を最大化する前記行動変数の値とを1対1に対応付けることによって前記車両の状態を入力とし前記期待収益を最大化する前記行動変数の値を出力する制御用写像データを、前記更新処理によって更新された前記第1データに基づき生成する処理を前記実行装置に実行させる請求項1〜3のいずれか1項に記載の車両用制御データの生成方法。 For control that inputs the state of the vehicle and outputs the value of the action variable that maximizes the expected profit by associating the state of the vehicle with the value of the action variable that maximizes the expected profit on a one-to-one basis. The method for generating vehicle control data according to any one of claims 1 to 3, wherein the executing device executes a process of generating mapping data based on the first data updated by the update process. 請求項1〜3のいずれか1項に記載の前記記憶装置および前記実行装置を備え、
前記記憶装置には、前記第2データが記憶されており、
前記操作処理は、前記所定の条件が成立する場合、前記第1データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第1操作処理と、前記所定の条件が成立しない場合、前記第2データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第2操作処理と、を含む車両用制御装置。
The storage device and the execution device according to any one of claims 1 to 3 are provided.
The second data is stored in the storage device.
The operation process is the first operation process of operating the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the first data when the predetermined condition is satisfied. , A vehicle including a second operation process of operating the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the second data when the predetermined condition is not satisfied. Control device for.
実行装置および記憶装置を備え、
前記記憶装置には、車両の状態と前記車両内の電子機器の操作に関する変数である行動変数との関係を規定する、第1データおよび第2データが記憶されており、
前記実行装置は、
前記車両の状態を検出するセンサの検出値を取得する取得処理と、
前記電子機器を操作する操作処理と、
前記車両の状態が所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づき、前記車両の特性が基準を満たす場合に満たさない場合よりも大きい報酬を与える報酬算出処理と、
前記車両の状態が所定の条件を満たす場合、前記取得処理によって取得された前記検出値に基づく前記車両の状態、前記電子機器の操作に用いられた行動変数の値、および該操作に対応する前記報酬を予め定められた更新写像への入力とし、前記第1データを更新する更新処理と、
を実行し、
前記更新写像は、前記第1データに従って前記電子機器が操作される場合の前記報酬についての期待収益を増加させるように更新された前記第1データを出力するものであり、
前記操作処理は、前記所定の条件が成立する場合、前記第1データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第1操作処理と、前記所定の条件が成立しない場合、前記第2データに基づき前記取得処理によって取得された前記車両の状態に応じた行動変数の値に従って前記電子機器を操作する第2操作処理と、を含む車両用制御装置。
Equipped with an execution device and a storage device
The storage device stores first data and second data that define the relationship between the state of the vehicle and the behavior variable, which is a variable related to the operation of the electronic device in the vehicle.
The executing device is
The acquisition process for acquiring the detection value of the sensor that detects the state of the vehicle, and
The operation process for operating the electronic device and
When the state of the vehicle satisfies a predetermined condition, a reward calculation process of giving a larger reward than when the characteristic of the vehicle satisfies the standard based on the detected value acquired by the acquisition process, and
When the state of the vehicle satisfies a predetermined condition, the state of the vehicle based on the detection value acquired by the acquisition process, the value of the action variable used for the operation of the electronic device, and the said corresponding to the operation. An update process in which the reward is input to a predetermined update map and the first data is updated, and
And
The updated map outputs the first data updated so as to increase the expected profit for the reward when the electronic device is operated according to the first data.
The operation process is the first operation process of operating the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the first data when the predetermined condition is satisfied. , A vehicle including a second operation process of operating the electronic device according to the value of the action variable according to the state of the vehicle acquired by the acquisition process based on the second data when the predetermined condition is not satisfied. Control device for.
請求項5または6記載の前記実行装置および前記記憶装置を備え、
前記実行装置は、前記車両に搭載される第1実行装置と、車載装置とは別の第2実行装置と、を含み、
前記第1実行装置は、少なくとも前記取得処理、および前記操作処理を実行し、
前記第2実行装置は、少なくとも前記更新処理を実行する車両用制御システム。
The executing device and the storage device according to claim 5 or 6 are provided.
The execution device includes a first execution device mounted on the vehicle and a second execution device different from the in-vehicle device.
The first execution device executes at least the acquisition process and the operation process,
The second execution device is a vehicle control system that executes at least the update process.
請求項7記載の第1実行装置を備える車両用制御装置。 A vehicle control device including the first execution device according to claim 7. 請求項7記載の第2実行装置を備える車両用学習装置。 A vehicle learning device including the second execution device according to claim 7.
JP2020060900A 2020-03-30 2020-03-30 Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device Pending JP2021067256A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020060900A JP2021067256A (en) 2020-03-30 2020-03-30 Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020060900A JP2021067256A (en) 2020-03-30 2020-03-30 Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019191098A Division JP6705545B1 (en) 2019-10-18 2019-10-18 Vehicle control data generation method, vehicle control device, vehicle control system, and vehicle learning device

Publications (1)

Publication Number Publication Date
JP2021067256A true JP2021067256A (en) 2021-04-30

Family

ID=75637000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020060900A Pending JP2021067256A (en) 2020-03-30 2020-03-30 Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device

Country Status (1)

Country Link
JP (1) JP2021067256A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210114596A1 (en) * 2019-10-18 2021-04-22 Toyota Jidosha Kabushiki Kaisha Method of generating vehicle control data, vehicle control device, and vehicle control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210114596A1 (en) * 2019-10-18 2021-04-22 Toyota Jidosha Kabushiki Kaisha Method of generating vehicle control data, vehicle control device, and vehicle control system
US11654915B2 (en) * 2019-10-18 2023-05-23 Toyota Jidosha Kabushiki Kaisha Method of generating vehicle control data, vehicle control device, and vehicle control system

Similar Documents

Publication Publication Date Title
JP6705545B1 (en) Vehicle control data generation method, vehicle control device, vehicle control system, and vehicle learning device
JP6809587B1 (en) Vehicle control device
JP7287287B2 (en) VEHICLE CONTROL DATA GENERATION METHOD, VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM, AND VEHICLE LEARNING DEVICE
JP7302466B2 (en) Device for Deterioration Determination of Internal Combustion Engine for Vehicle
TW202117179A (en) Method of generating vehicle control data, vehicle control device, and vehicle control system
JP7314831B2 (en) VEHICLE CONTROL DATA GENERATION METHOD, VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM, AND VEHICLE LEARNING DEVICE
JP7243642B2 (en) VEHICLE CONTROL DATA GENERATION METHOD, VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM, AND VEHICLE LEARNING DEVICE
JP2021067192A (en) Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device
JP2021067201A (en) Vehicle control device, vehicle control system, and vehicle learning device
TWI745120B (en) Vehicle control system, vehicle control device, and control method for a vehicle
JP7331704B2 (en) VEHICLE CONTROL DATA GENERATION METHOD, VEHICLE CONTROL DEVICE, AND VEHICLE CONTROL SYSTEM
JP2021066240A (en) Vehicle control device, vehicle control system, and vehicle learning device
JP7207290B2 (en) Vehicle control device, vehicle control system, vehicle learning device, and vehicle learning method
JP2021067197A (en) Vehicle control device, vehicle control system, and vehicle learning device
CN112682196B (en) Vehicle control device, vehicle control system, and vehicle learning device
JP7314819B2 (en) VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE, AND SERVER
JP2021067256A (en) Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device
CN113266481A (en) Vehicle control method, vehicle control device, and server
JP2021067257A (en) Vehicle control device, vehicle control system, and vehicle learning device
JP2021067258A (en) Vehicle control device, vehicle control system, and vehicle learning device
JP7205456B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM AND VEHICLE LEARNING DEVICE
JP7207289B2 (en) Vehicle control device, vehicle control system, vehicle learning device, and vehicle learning method
JP7205460B2 (en) VEHICLE CONTROL DATA GENERATION METHOD, VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM, AND VEHICLE LEARNING DEVICE
JP2021067261A (en) Vehicle control device, vehicle control system and vehicle learning device
JP2021067262A (en) Method of generating vehicle control data, vehicle control device, vehicle control system, and vehicle learning device