JP2023170227A - Electronic control device - Google Patents

Electronic control device Download PDF

Info

Publication number
JP2023170227A
JP2023170227A JP2022081801A JP2022081801A JP2023170227A JP 2023170227 A JP2023170227 A JP 2023170227A JP 2022081801 A JP2022081801 A JP 2022081801A JP 2022081801 A JP2022081801 A JP 2022081801A JP 2023170227 A JP2023170227 A JP 2023170227A
Authority
JP
Japan
Prior art keywords
feature
feature quantity
value
candidate
candidates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022081801A
Other languages
Japanese (ja)
Inventor
耕輔 山本
Kosuke Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2022081801A priority Critical patent/JP2023170227A/en
Publication of JP2023170227A publication Critical patent/JP2023170227A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Abstract

To provide an electronic device that can automatically select an optimal feature quantity.SOLUTION: A second ECU generates a candidate feature quantity set including a plurality of feature quantity candidates that are at least some of a plurality of feature quantities and output data in each feature quantity candidate, repeatedly performs changing the feature quantity candidates in the candidate feature quantity set and prediction using the candidate feature quantity set with the changed feature quantity candidates, and selects feature quantity candidates that are involved in improving prediction accuracy (S10-S12). The second ECU generates an improved model obtained by improving a basic model used to predict an objective variable based on the objective variable and an updated feature quantity set including the selected feature quantity candidates and a plurality of items of output data in each feature quantity candidate (S13).SELECTED DRAWING: Figure 2

Description

本開示は、電子制御装置に関する。 The present disclosure relates to an electronic control device.

従来、特許文献1に記載されているように、教師ラベルとセンサ情報とに加えて、教師ラベルの判定に影響する要因を表す要因情報を用いて判定モデルの学習を行う学習方法がある。 Conventionally, as described in Patent Document 1, there is a learning method in which, in addition to a teacher label and sensor information, a judgment model is trained using factor information representing factors that influence the judgment of the teacher label.

特開2021-36379号公報JP 2021-36379 Publication

ところで、機械学習のモデルの予測精度を向上するためには、既存の特徴量を用いて新たな特徴量を生成することが考えられる。しかしながら、モデルは、新たな特徴量を既存の特徴量に加えたとしても、必ずしも予測精度が向上するとは限らない。つまり、モデルは、目的変数への予測に寄与しない特徴量を加えることで、予測精度が低下する可能性がある。 By the way, in order to improve the prediction accuracy of a machine learning model, it is conceivable to generate new feature quantities using existing feature quantities. However, even if a new feature is added to an existing feature, the prediction accuracy of the model does not necessarily improve. In other words, the prediction accuracy of the model may decrease by adding features that do not contribute to the prediction of the target variable.

既存の特徴量を用いた新たな特徴量の生成は、人の経験などによる試行錯誤で行われていた。しかしながら、今後は、電子制御装置の制御などに、機械学習を用いたデータ活用を行う可能性がある。この場合、扱うデータの種類と数が膨大なものになることが予測される。よって、モデル生成方法では、予測精度を向上できる新たな特徴量を、人の経験などによって生成することが困難である。 Generating new features using existing features has been done through trial and error based on human experience. However, in the future, there is a possibility that data using machine learning will be used to control electronic control devices. In this case, it is predicted that the types and amount of data to be handled will be enormous. Therefore, with the model generation method, it is difficult to generate new feature quantities that can improve prediction accuracy based on human experience.

開示される一つの目的は、最適な特徴量を自動的に選択することができる電子装置を提供することである。 One disclosed objective is to provide an electronic device that can automatically select optimal features.

ここに開示された電子制御装置は、
複数の特徴量と各特徴量における複数の出力データを含む特徴量集合と、各出力データに対応する目的変数とによって機械学習された基礎モデルを用いて目的変数の予測を行う電子制御装置であって、
複数の特徴量の少なくとも一部である複数の特徴量候補と各特徴量候補における出力データとを含む候補特徴量集合を生成し、候補特徴量集合における特徴量候補の変更と、特徴量候補を変更した候補特徴量集合を用いた予測と、を繰り返し行い、予測の精度向上にかかわっている特徴量候補を選択する選択部(S10~S12)と、
目的変数と、選択部で選択された特徴量候補と各特徴量候補における複数の出力データを含む更新特徴量集合とをもとに、目的変数の予測に用いる基礎モデルを改良した改良モデルを生成するモデル生成部(S13)と、を備えていることを特徴とする。
The electronic control device disclosed herein is
It is an electronic control device that predicts an objective variable using a basic model that is machine-learned using a feature set that includes multiple feature quantities and multiple output data for each feature quantity, and an objective variable that corresponds to each output data. hand,
A candidate feature set including a plurality of feature candidates that are at least a part of the plurality of feature quantities and output data for each feature candidate is generated, and the feature quantity candidates in the candidate feature set are changed and the feature quantity candidates are changed. a selection unit (S10 to S12) that repeatedly performs prediction using the changed candidate feature set and selects feature candidates that are involved in improving prediction accuracy;
Generates an improved model that improves the basic model used to predict the objective variable based on the objective variable, the feature candidates selected by the selection unit, and an updated feature set that includes multiple output data for each feature candidate. The present invention is characterized by comprising a model generation unit (S13) that generates a model.

ここに開示された電子制御装置によると、選択した特徴量候補を含む更新特徴量集合をもとに、目的変数の予測に用いる基礎モデルを改良した改良モデルを生成する。また、電子制御装置は、特徴量候補を選択する際に、候補特徴量集合における特徴量候補の変更と、特徴量候補を変更した候補特徴量集合を用いた予測と、を繰り返し行い、予測の精度向上にかかわっている特徴量候補を選択する。このため、電子制御装置は、予測の精度向上にかかわっている最適な特徴量を自動的に選択することができる。 According to the electronic control device disclosed herein, an improved model that is an improved basic model used for predicting a target variable is generated based on an updated feature set including selected feature candidates. Furthermore, when selecting feature candidates, the electronic control unit repeatedly changes the feature candidates in the candidate feature set and performs prediction using the candidate feature set with the changed feature candidates. Select feature candidates that are involved in improving accuracy. Therefore, the electronic control device can automatically select the optimal feature amount that is involved in improving prediction accuracy.

この明細書において開示された複数の態様は、それぞれの目的を達成するために、互いに異なる技術的手段を採用する。請求の範囲およびこの項に記載した括弧内の符号は、後述する実施形態の部分との対応関係を例示的に示すものであって、技術的範囲を限定することを意図するものではない。この明細書に開示される目的、特徴、および効果は、後続の詳細な説明、および添付の図面を参照することによってより明確になる。 The multiple embodiments disclosed in this specification employ different technical means to achieve their respective objectives. The claims and the reference numerals in parentheses described in this section exemplarily indicate correspondence with parts of the embodiment described later, and are not intended to limit the technical scope. The objects, features, and advantages disclosed in this specification will become more apparent by reference to the subsequent detailed description and accompanying drawings.

車載システムの概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an in-vehicle system. 第2ECUのアルゴリズムの概要を示すフローチャートである。It is a flowchart which shows the outline of the algorithm of a 2nd ECU. 第2ECUのモデルフリー最適化手法を示すフローチャートである。It is a flowchart which shows the model-free optimization method of 2nd ECU. 第2ECUのコスト関数計算を示すフローチャートである。It is a flowchart which shows the cost function calculation of 2nd ECU. 記号の明細書中の記載の対応関係を示す図である。FIG. 2 is a diagram showing the correspondence between symbols and descriptions in the specification. 数式1~数式4を示す図である。3 is a diagram showing Equations 1 to 4. FIG.

以下において、図1~図4を参照しながら、本開示を実施するための形態を説明する。 Hereinafter, embodiments for implementing the present disclosure will be described with reference to FIGS. 1 to 4.

本実施形態では、一例として、電子制御装置を、車両に搭載された車載システム100に適用する。車載システム100は、三つのECU11~13と、三つのセンサ21~23を備えている。しかしながら、本開示は、ECU11~13の機能を一つのECUが備えていてもよい。第2ECU12、第3ECU13は、電子制御装置に相当する。また、本開示は、四つ以上のセンサを備えていてもよい。ECUは、Electronic Control Unitの略称である。 In this embodiment, as an example, an electronic control device is applied to an in-vehicle system 100 mounted on a vehicle. The in-vehicle system 100 includes three ECUs 11-13 and three sensors 21-23. However, in the present disclosure, one ECU may have the functions of the ECUs 11 to 13. The second ECU 12 and the third ECU 13 correspond to an electronic control device. Additionally, the present disclosure may include four or more sensors. ECU is an abbreviation for Electronic Control Unit.

各ECU11~13は、プロセッサと、メモリ装置と、周辺I/Oなどを備えている。プロセッサは、CPUなどの演算処理装置である。メモリ装置は、揮発性メモリと不揮発性メモリを備えている。周辺I/Oは、通信インタフェースやADコンバータなどを備えている。プロセッサは、メモリ装置に記憶されているプログラムを実行する。プロセッサは、プログラムを実行することでして演算処理を行う。このとき、プロセッサは、メモリ装置に記憶されたデータや周辺I/Oから得られたデータなどを用いつつ演算処理を行う。そして、プロセッサは、演算結果を周辺I/Oから出力する。 Each ECU 11 to 13 includes a processor, a memory device, peripheral I/O, and the like. A processor is an arithmetic processing device such as a CPU. Memory devices include volatile memory and nonvolatile memory. The peripheral I/O includes a communication interface, an AD converter, and the like. A processor executes a program stored in a memory device. A processor performs arithmetic processing by executing a program. At this time, the processor performs arithmetic processing using data stored in the memory device, data obtained from peripheral I/O, and the like. The processor then outputs the calculation result from the peripheral I/O.

第1ECU11は、第1センサ21、第2センサ22、第3センサ23が電気的に接続されている。第1ECU11は、各センサ21~23からセンサデータ(センサ値)が入力される。第1ECU11は、車両の各センサ21~23から出力されたセンサデータを統括する。 A first sensor 21, a second sensor 22, and a third sensor 23 are electrically connected to the first ECU 11. The first ECU 11 receives sensor data (sensor values) from each of the sensors 21 to 23. The first ECU 11 controls sensor data output from each sensor 21 to 23 of the vehicle.

第1センサ21は、エンジン回転数に応じた電気信号であるセンサデータを出力する回転数センサである。第2センサ22は、エンジン温度に応じた電気信号であるセンサデータを出力する温度センサである。第3センサ23は、排ガス中の酸素濃度に応じた電気信号であるセンサデータを出力する酸素濃度センサである。 The first sensor 21 is a rotational speed sensor that outputs sensor data that is an electrical signal according to the engine rotational speed. The second sensor 22 is a temperature sensor that outputs sensor data that is an electrical signal depending on the engine temperature. The third sensor 23 is an oxygen concentration sensor that outputs sensor data that is an electrical signal depending on the oxygen concentration in the exhaust gas.

しかしながら、本開示は、これに限定されず、他の物理量に応じた電気信号を出力するセンサであっても採用できる。なお、エンジン回転数、エンジン温度、酸素濃度は、特徴量(ラベル)に相当する。各センサ21~23が出力するセンサデータは、出力データに相当する。 However, the present disclosure is not limited thereto, and sensors that output electrical signals according to other physical quantities can also be employed. Note that the engine speed, engine temperature, and oxygen concentration correspond to feature amounts (labels). The sensor data output by each sensor 21 to 23 corresponds to output data.

第2ECU12は、プロセッサがモデルを構築する。このモデルは、教師あり学習によって得られるものである。詳述すると、モデルは、複数の特徴量と各特徴量における複数の出力データを含む特徴量集合と、各出力データに対応する目的変数とによって機械学習されたものである。また、第2ECU12は、第3ECU13が予測に用いるモデルを構築するともいえる。さらに、第2ECU12は、第3ECU13が予測に用いるモデルである基礎モデルを改良して、改良モデルを生成する。特徴量集合と目的変数とは、例えば第2ECU12のメモリ装置に記憶されている。 In the second ECU 12, a processor constructs a model. This model is obtained through supervised learning. To be more specific, the model is machine learned using a feature set including a plurality of feature quantities and a plurality of output data for each feature quantity, and an objective variable corresponding to each output data. It can also be said that the second ECU 12 constructs a model that the third ECU 13 uses for prediction. Further, the second ECU 12 improves the basic model, which is the model used by the third ECU 13 for prediction, to generate an improved model. The feature quantity set and the objective variable are stored in the memory device of the second ECU 12, for example.

第2ECU12のプロセッサは、図2、図3、図4に示すフローチャートを実行することで、改良モデルを生成する。また、第2ECU12のプロセッサは、図6に示す数式1、数式2、数式3、数式4を計算する。第2ECU12の処理動作に関しては、後ほど詳しく説明する。 The processor of the second ECU 12 generates an improved model by executing the flowcharts shown in FIGS. 2, 3, and 4. Further, the processor of the second ECU 12 calculates Equation 1, Equation 2, Equation 3, and Equation 4 shown in FIG. The processing operation of the second ECU 12 will be explained in detail later.

第3ECU13は、モデルがメモリ装置に記憶されている。第3ECU13は、プロセッサが入力されたセンサデータからモデルを用いて目的変数を予測(出力)する。この予測は、識別もしくは回帰である。本実施形態では、エンジン回転数、エンジン温度、酸素濃度のセンサデータから、エンジンの故障予測を行うモデルを採用する。 The model of the third ECU 13 is stored in the memory device. The third ECU 13 uses a model to predict (output) a target variable from the sensor data input to the processor. This prediction is identification or regression. This embodiment employs a model that predicts engine failure from sensor data on engine speed, engine temperature, and oxygen concentration.

なお、本実施形態では、三つのECU11~13に機能を分散させた例を採用している。しかしながら、本開示は、各ECU11~13の機能を備えた一つのECUであっても採用できる。 Note that this embodiment employs an example in which functions are distributed among three ECUs 11 to 13. However, the present disclosure can be adopted even with a single ECU having the functions of each of the ECUs 11 to 13.

ここで、図2~図6を用いて、第2ECU12(プロセッサ)による処理動作に関して説明する。まず、以下で用いる記号に関して説明する。Xは、既存の特徴量集合であり、n行m列の行列である。nはデータ数、mは特徴量数である。つまり、Xの列要素は、特徴量である。一方、Xの行要素は、各特徴量のデータ(出力データ)である。既存の特徴量集合Xの特徴量は、既存の特徴量ともいえる。Yは、既知の目的変数集合であり、n行1列の列ベクトルである。1は目的変数の数である。nは、目的変数の各データであり、特徴量の各出力データと同数である。 Here, processing operations by the second ECU 12 (processor) will be explained using FIGS. 2 to 6. First, the symbols used below will be explained. X is an existing feature quantity set and is a matrix of n rows and m columns. n is the number of data, and m is the number of features. In other words, the column elements of X are feature amounts. On the other hand, the row elements of X are data (output data) of each feature amount. The features of the existing feature set X can also be said to be existing features. Y is a known target variable set and is a column vector with n rows and 1 column. 1 is the number of objective variables. n is each data of the objective variable, and is the same number as each output data of the feature amount.

train,xtestは、既存の特徴量集合Xを訓練用集合とテスト用集合に分割したものである。訓練用集合xtrainは、t行m列の行列である。tは訓練データのデータ数、mは特徴量の数である。テスト用集合xtestは、(n-t)行m列の行列である。 x train and x test are obtained by dividing the existing feature set X into a training set and a test set. The training set x train is a matrix with t rows and m columns. t is the number of training data, and m is the number of features. The test set x test is a matrix with (nt) rows and m columns.

allは、候補特徴量集合である。候補特徴量集合xallは、既存の特徴量集合xtrainの列要素を組み合わせることで得られる新規特徴量集合を、既存の特徴量集合xtrainに追加した特徴量集合である。ここでは、候補特徴量集合xallは、t行(m+l)列の行列であり、l(エル)は、既存の特徴量を用いて作成した新規特徴量の数である。ここでは、一例として、既存の特徴量集合として、訓練用集合xtrainを採用している。 x all is a candidate feature set. The candidate feature set x all is a feature set in which a new feature set obtained by combining column elements of the existing feature set x train is added to the existing feature set x train . Here, the candidate feature set x all is a matrix with t rows and (m+l) columns, and l is the number of new features created using existing features. Here, as an example, a training set x train is used as an existing feature set.

xotrは、図5の1段目に記載の記号で表現される。xotrは、候補特徴量集合xallの行列の中から目的変数の予測の精度向上に関わっている特徴量の列ベクトルのみを抽出した特徴量集合である。xotrは、訓練用集合の抽出特徴量集合である。xotrは、t行q列の行列である。qは、目的変数の予測の精度向上に関わっている特徴量の数(1<q<(m+l))である。 xotr is expressed by the symbol shown in the first row of FIG. xotr is a feature set in which only column vectors of features that are involved in improving the accuracy of prediction of the target variable are extracted from the matrix of the candidate feature set x all . xotr is an extracted feature set of the training set. xotr is a matrix with t rows and q columns. q is the number of feature amounts (1<q<(m+l)) that are involved in improving the accuracy of prediction of the objective variable.

xoteは、図5の2段目に記載の記号で表現される。xoteは、テスト用集合xtestを用いて候補特徴量集合xallのように、新規特徴量を追加した特徴量集合を作成し、その特徴量からxotrと同じ特徴量の列要素を抽出した特徴量集合である。xoteは、テスト用集合の抽出特徴量集合である。 xote is expressed by the symbol shown in the second row of FIG. xote uses the test set x test to create a feature set to which new features are added, such as the candidate feature set It is a quantity set. xote is an extracted feature set of the test set.

train,ytestは、既存の目的変数集合Yを訓練用集合とテスト用集合に分割したものである。ytrainは、t行1列のベクトルである。ytestは、(n-t)行1列のベクトルである。 y train and y test are obtained by dividing the existing target variable set Y into a training set and a test set. y train is a t-by-1 vector. y test is a (nt)-by-1 vector.

方策パラメータθは、ステップS11に示すモデルフリーの最適化手法への入力ベクトルである。第2ECU12は、方策パラメータθをもとに、コスト関数(S23)で用いられる途中特徴量集合xtempに採用する列要素を決定する。途中特徴量集合xtempは、モデルフリーの最適化手法において、ロールアウトの途中の方策パラメータθの値に対するコスト値rの計算に使用される特徴量集合である。 The policy parameter θ is an input vector to the model-free optimization method shown in step S11. Based on the policy parameter θ, the second ECU 12 determines column elements to be adopted in the intermediate feature set x temp used in the cost function (S23). The intermediate feature set x temp is a feature set used to calculate the cost value r i for the value of the policy parameter θ during rollout in the model-free optimization method.

最適化パラメータθoptは、コスト関数(コスト値r)を最小化するように最適化された方策パラメータθである。言い換えると、θoptは、候補特徴量集合xallの中からどの列要素を抽出するかをつかさどるパラメータである。θoptは、1行(m+l)列の行ベクトルである。第2ECU12は、θoptとxallをもとにxotrを求める。 The optimization parameter θ opt is a policy parameter θ optimized to minimize the cost function (cost value r i ). In other words, θ opt is a parameter that controls which column element is extracted from the candidate feature set x all . θ opt is a row vector with 1 row and (m+l) columns. The second ECU 12 calculates xotr based on θ opt and x all .

なお、図5の3段面に示すように、数式2などにおけるθの上付き(1)~(m+l)は、θi(k)と記載する。図5の4段面に示すように、数式3におけるΘの上付き(1)~(m+l)は、Θi(k)と記載する。kは、1以上でm+lまでの自然数の連続値である。iは、iは、1以上でロールアウトするまでの自然数の連続値である。ロールアウトする値は、例えば、コスト値rが収束したとみなせる値など、任意に決めることができる。さらに、図5の5段面に示すように、数式4におけるθoptの上付き(j)は、θo(j)と記載する。jは、1≦j<m+lである。 Note that, as shown in the three-tiered plane of FIG. 5, the superscripts (1) to (m+l) of θ i in Equation 2 and the like are written as θi(k). As shown in the four-stage plane of FIG. 5, the superscripts (1) to (m+l) of Θi in Equation 3 are written as Θi(k). k is a continuous natural number from 1 to m+l. i is a continuous natural number value of 1 or more until rolling out. The value to be rolled out can be arbitrarily determined, for example, a value at which the cost value r i can be considered to have converged. Further, as shown in the fifth row of FIG. 5, the superscript (j) of θ opt in Equation 4 is written as θo(j). j is 1≦j<m+l.

図2のフローチャートは、第2ECU12による特徴量を自動的に選択するための処理動作ともいえる。また、図2のフローチャートは、第2ECU12による改良モデルの生成方法ともいえる。さらに、図2のフローチャートは、改良モデルを生成するためのアルゴリズムの概要ともいえる。第2ECU12は、ユーザなどからの指示に応じて図2のフローチャートを開始する。 The flowchart of FIG. 2 can also be said to be a processing operation for automatically selecting the feature quantity by the second ECU 12. Moreover, the flowchart of FIG. 2 can also be said to be a method for generating an improved model by the second ECU 12. Furthermore, the flowchart in FIG. 2 can be said to be an outline of an algorithm for generating an improved model. The second ECU 12 starts the flowchart of FIG. 2 in response to an instruction from a user or the like.

なお、以下においては、基礎モデルおよび改良モデルとして、からエンジンの故障予測を行う予測モデルを構築する例を採用する。まず、各センサ21~23の出力データと、各出力データが出力された際のエンジンの状態(正常、異常)について、それぞれデータを10000個用意する。この場合、出力データ数nは10000である。特徴量は、エンジン回転数、エンジン温度、酸素濃度である。特徴量数mは3である。正常を示すデータと異常を示すデータは、目的変数のデータである。 In the following, an example of constructing a predictive model for predicting engine failure will be adopted as the basic model and the improved model. First, 10,000 pieces of data are prepared for the output data of each sensor 21 to 23 and the state of the engine (normal, abnormal) when each output data is output. In this case, the number n of output data is 10,000. The feature quantities are engine speed, engine temperature, and oxygen concentration. The number m of feature quantities is three. The data indicating normality and the data indicating abnormality are objective variable data.

よって、既存の特徴量集合Xは、センサ1~3のセンサ値を列要素に持つ10000行3列の行列となる。既知の目的変数集合Yは、エンジンの状態を列要素に持つ10000行1列の列ベクトルとなる。 Therefore, the existing feature quantity set X is a 10,000-by-3 matrix having the sensor values of sensors 1 to 3 as column elements. The known objective variable set Y is a 10,000-row, 1-column column vector whose column elements are engine states.

次に、第2ECU12は、特徴量集合Xを訓練用集合xtrainとテスト用集合xtestに9対1の割合で分割する。同様に、第2ECU12は、目的変数集合Yを訓電用集合ytrain,とテスト用集合ytestに9対1の割合で分割する。訓練用集合xtrainは、9000行3列の行列となる。訓電用集合ytrainは、9000行1列の行列となる。テスト用集合xtestは、1000行3列の行列となる。テスト用集合ytestは、1000行1列の行列となる。なお、ここで採用している訓練用集合のテスト用集合の割合(9対1)は、一例に過ぎない。本開示は、その他の割合であっても採用できる。 Next, the second ECU 12 divides the feature set X into a training set x train and a test set x test at a ratio of 9:1. Similarly, the second ECU 12 divides the target variable set Y into a training set y train and a test set y test at a ratio of 9:1. The training set x train is a matrix with 9000 rows and 3 columns. The training set y train is a matrix of 9000 rows and 1 column. The test set x test is a matrix of 1000 rows and 3 columns. The test set y test is a matrix of 1000 rows and 1 column. Note that the ratio of the training set to the test set employed here (9:1) is only an example. The present disclosure can also be employed with other ratios.

次に、第2ECU12は、訓練用集合xtrainから候補特徴量集合xallを生成する(選択部)。本実施形態では、各センサ21~23における出力データをかけ合わせて新規特徴量を生成する。つまり、新規特徴量は、第1センサ21、第2センサ22、第3センサ23の列要素を組み合わせたものである。ここでの新規特徴量は、センサb×センサc(1≦b≦3,1≦c≦3)となる。新規特徴量の出力データは、各センサ21~23の組み合わせに対応して、出力データをかけ合わせたデータとなる。 Next, the second ECU 12 generates a candidate feature set x all from the training set x train (selection unit). In this embodiment, new feature amounts are generated by multiplying output data from each of the sensors 21 to 23. That is, the new feature amount is a combination of column elements of the first sensor 21, the second sensor 22, and the third sensor 23. The new feature amount here is sensor b×sensor c (1≦b≦3, 1≦c≦3). The output data of the new feature amount is data obtained by multiplying the output data corresponding to the combination of each sensor 21 to 23.

そして、第2ECU12は、訓練用集合xtrainの列要素に加えることで、候補特徴量集合xallを生成する。この場合、候補特徴量集合xallは、9000行12列の行列となる。このように、第2ECU12は、候補特徴量集合xallの列要素として、複数の特徴量と、複数の特徴量を組み合わせて得られる新規特徴量とを含む複数の特徴量候補を用いる。 Then, the second ECU 12 generates a candidate feature set x all by adding it to the column elements of the training set x train . In this case, the candidate feature set x all is a matrix of 9000 rows and 12 columns. In this way, the second ECU 12 uses a plurality of feature quantity candidates including a plurality of feature quantities and a new feature quantity obtained by combining the plurality of feature quantities, as column elements of the candidate feature quantity set x all .

なお、候補特徴量集合xallを生成する方法は、これに限定されない。さらに、候補特徴量集合xallは、既存の特徴量集合Xにおける少なくとも一部である複数の特徴量候補と、各特徴量候補における出力データとを含む候補特徴量集合であれば採用できる。よって、候補特徴量集合xallは、既存の特徴量集合Xであっても採用できる。また、候補特徴量集合xallは、既存の特徴量におけるセンサデータの平均値や分散などを用いてもよい。 Note that the method for generating the candidate feature set x all is not limited to this. Further, the candidate feature set x all can be adopted as long as it includes a plurality of feature candidates that are at least part of the existing feature set X and output data for each feature candidate. Therefore, even an existing feature set X can be adopted as the candidate feature set x all . Furthermore, the candidate feature set x all may use the average value, variance, or the like of sensor data in existing feature quantities.

そして、第2ECU12は、ステップS10でθ=θintとする(選択部)。つまり、第2ECU12は、方策パラメータθに初期値θintを代入する。初期値θintは、最初の特徴量選択の際に、既存の特徴量のみを選択するように値が設定される。これは、改良モデルが、既存の特徴量集合Xに基づく基礎モデルよりも予測精度が低下しないようにするためである。例えば、初期値θint=[0.1,0.1,0.1,-0.2,-0.2,…,-0.2]とする。初期値θintは、1行12の行ベクトルである。ここでは、-0.2などの負の値とすることで、最初の特徴量選択の際に、既存の特徴量のみが選択されるようにしている。なお、負の値とする場合は、できるだけ正の値に近い値が好ましい。 Then, the second ECU 12 sets θ=θ int in step S10 (selection unit). That is, the second ECU 12 assigns the initial value θ int to the policy parameter θ. The initial value θ int is set so that only existing feature quantities are selected during the first feature quantity selection. This is to ensure that the improved model does not have lower prediction accuracy than the basic model based on the existing feature set X. For example, the initial value θ int = [0.1, 0.1, 0.1, -0.2, -0.2, . . . , -0.2]. The initial value θ int is a row vector with 1 row and 12 rows. Here, by setting a negative value such as -0.2, only existing feature quantities are selected during the first feature quantity selection. Note that when a negative value is used, a value as close to a positive value as possible is preferable.

第2ECU12は、ステップS11でモデルフリーの最適化手法を実行する(選択部)。ステップS11に関しては、図3を用いて説明する。なお、以下におけるθとΘは、数式2、数式3の関係を有している。 The second ECU 12 executes a model-free optimization method in step S11 (selection unit). Step S11 will be explained using FIG. 3. Note that θ i and Θ i in the following have the relationship shown in Equations 2 and 3.

まず、図3のステップS21では、第2ECU12は、入力の初期値θ=θintを代入する。そして、第2ECU12は、ステップS22で第1ループ処理を行う。第2ECU12は、iの値が1からロールアウトする値までループ処理を行う。つまり、第2ECU12は、図4で定義されたコスト関数を最小化するような方策パラメータθである最適化パラメータθoptを繰り返し計算により求める。言い換えると、第2ECU12は、コスト関数の計算を行うことでコスト値rを求める。第2ECU12は、コスト値rが適切な値に近くなるように繰り返し計算を行うことで、最適化パラメータθoptを求める。また、第2ECU12は、最適化パラメータθoptを求めることで、コスト値rが適切な値に近くなる特徴量候補を選択するともいえる。xotrは、コスト値rが適切な値に近くなる特徴量候補を含んでいる。 First, in step S21 of FIG. 3, the second ECU 12 substitutes the input initial value θ 1int . Then, the second ECU 12 performs the first loop process in step S22. The second ECU 12 performs loop processing from the value of 1 to the value of i to be rolled out. That is, the second ECU 12 repeatedly calculates the optimization parameter θ opt , which is the policy parameter θ that minimizes the cost function defined in FIG. In other words, the second ECU 12 calculates the cost value r i by calculating the cost function. The second ECU 12 calculates the optimization parameter θ opt by repeatedly performing calculations so that the cost value r i becomes close to an appropriate value. It can also be said that the second ECU 12 selects a feature amount candidate whose cost value r i is close to an appropriate value by determining the optimization parameter θ opt . xotr includes feature quantity candidates whose cost value r i is close to an appropriate value.

ここで、ステップS22の第1ループ処理に関して詳しく説明する。第2ECU12は、ステップS23でコスト関数を計算する。ステップS23に関しては、図4を用いて説明する。 Here, the first loop process of step S22 will be explained in detail. The second ECU 12 calculates a cost function in step S23. Step S23 will be explained using FIG. 4.

第2ECU12は、ステップS31で数式1を計算する。第2ECU12は、途中特徴量集合xtempを計算するために、θを数式1のロジスティックシグモイド関数に代入して計算を行う。言い換えると、第2ECU12は、ステップS32の第2ループ処理で、候補特徴量集合xallから途中特徴量集合xtempを選択するためにステップS31を行っている。後ほどステップS24で説明するが、ステップS31で代入される方策パラメータθは、コスト値rが小さくなるように計算された値である。方策パラメータθは、連続値である。 The second ECU 12 calculates Equation 1 in step S31. The second ECU 12 performs calculation by substituting θ i into the logistic sigmoid function of Equation 1 in order to calculate the intermediate feature set x temp . In other words, the second ECU 12 performs step S31 in order to select the intermediate feature set x temp from the candidate feature set x all in the second loop process of step S32. As will be explained later in step S24, the policy parameter θ i substituted in step S31 is a value calculated so that the cost value r i becomes small. The policy parameter θ i is a continuous value.

なお、ロジスティックシグモイド関数は、予め決められた関数に相当する。ロジスティックシグモイド関数は、Θの値が0から1に収まる性質をもっている。そして、Θの値と比較する第1閾値は、0から1の間にある値を採用する。このように、ロジスティックシグモイド関数は、値の範囲が限定されている。このため、途中特徴量集合xtempを選択するための第1閾値の設定を容易にできる。しかしながら、本開示は、予め決められた関数として、ガウス関数であっても採用できる。 Note that the logistic sigmoid function corresponds to a predetermined function. The logistic sigmoid function has the property that the value of Θ i falls within the range of 0 to 1. A value between 0 and 1 is adopted as the first threshold value to be compared with the value of Θ i . Thus, the logistic sigmoid function has a limited range of values. Therefore, it is possible to easily set the first threshold value for selecting the intermediate feature quantity set x temp . However, the present disclosure can also employ a Gaussian function as the predetermined function.

第2ECU12は、ステップS32では、第2ループ処理を行う。第2ECU12は、ステップS33でΘi(k)>0.5(第1閾値)であるか否かを判定する。第2ECU12は、Θi(k)>0.5であると判定するとステップS34へ進み、でΘi(k)>0.5であると判定しないとステップS34をスキップする。第1閾値は、閾値に相当する。 The second ECU 12 performs a second loop process in step S32. The second ECU 12 determines whether Θi(k)>0.5 (first threshold) in step S33. If the second ECU 12 determines that Θi(k)>0.5, the process proceeds to step S34, and if it does not determine that Θi(k)>0.5, it skips step S34. The first threshold corresponds to a threshold.

第2ECU12は、ステップS34で、候補特徴量集合xallのk列の列要素を途中特徴量集合xtempに追加する。k列の列要素とは、候補特徴量集合xallの特徴量のうち、0.5より大きな値のΘi(k)に対応する特徴量である。 In step S34, the second ECU 12 adds column elements of column k of the candidate feature set x all to the intermediate feature set x temp . The column element of the k column is a feature amount corresponding to Θi(k) having a value larger than 0.5 among the feature amounts of the candidate feature set x all .

このように、第2ECU12は、ロジスティックシグモイド関数から得られる値Θi(k)と第1閾値とを比較して、第1閾値より大きな値の値Θi(k)を選択する。よって、第2ECU12は、コスト値rが適切な値に近くなる特徴量候補を選択する際に、ロジスティックシグモイド関数から得られる値Θi(k)と第1閾値との比較によって、連続値を離散値に変換するといえる。 In this way, the second ECU 12 compares the value Θi(k) obtained from the logistic sigmoid function with the first threshold, and selects the value Θi(k) that is larger than the first threshold. Therefore, when selecting feature quantity candidates whose cost value r i is close to an appropriate value, the second ECU 12 converts continuous values into discrete values by comparing the value Θi(k) obtained from the logistic sigmoid function with the first threshold value. It can be said to convert into a value.

そして、第2ECU12は、Θi(k)に対応する特徴量候補を選択する。また、第2ECU12は、Θi(k)と第1閾値との比較により、候補特徴量集合xallから選択する特徴量の種類を決定し、選択された特徴量の種類のみを抜き出すともいえる。また、第2ECU12は、候補特徴量集合xallにおける特徴量候補を変更するともいえる。また、第2ECU12は、特徴量候補を変更した候補特徴量集合である途中特徴量集合xtempを用いた予測の結果であるコスト値rを算出し、特徴量候補を変更する際に、コスト値rが適切な値に近くなる特徴量候補を選択するといえる。 Then, the second ECU 12 selects a feature amount candidate corresponding to Θi(k). It can also be said that the second ECU 12 determines the type of feature to be selected from the candidate feature set x all by comparing Θi(k) with the first threshold, and extracts only the selected type of feature. It can also be said that the second ECU 12 changes the feature amount candidates in the candidate feature amount set x all . In addition, the second ECU 12 calculates a cost value r i that is a prediction result using an intermediate feature set x temp , which is a candidate feature set in which the feature candidates are changed, and It can be said that feature quantity candidates whose value r i is close to an appropriate value are selected.

モデルフリーの最適化手法は、本来、連続値の最適化に用いられるものである。しかしながら、本開示は、第2ECU12が第2ループ処理S32を行うことで、モデルフリーの最適化手法を特徴量選択の有無という離散値の最適化に適用可能となる。 Model-free optimization methods are originally used for continuous value optimization. However, in the present disclosure, the second ECU 12 performs the second loop process S32, thereby making it possible to apply a model-free optimization method to the optimization of discrete values regarding the presence or absence of feature quantity selection.

第2ECU12は、ステップS35で、識別手法を用いてコスト値rを計算する。詳述すると、第2ECU12は、訓練用集合ytrain,途中特徴量集合xtempを目的変数とそれに対応する特徴量とし、使用する識別手法を用いてコスト値rを計算する。コスト値rは、損失関数の値に相当する。損失関数の計算は、交差検証を用いる。なお、コスト値rは、回帰や識別などの予測結果の正確さ、精度と言い換えることもできる。本実施形態では、識別手法を用いる例を採用している。しかしながら、本開示は、これに限定されず回帰手法を用いてもよい。 The second ECU 12 calculates the cost value r i using the identification method in step S35. Specifically, the second ECU 12 uses the training set y train and the intermediate feature set x temp as target variables and the corresponding feature values, and calculates the cost value r i using the discrimination method to be used. The cost value r i corresponds to the value of the loss function. Cross validation is used to calculate the loss function. Note that the cost value r i can also be rephrased as the accuracy and precision of prediction results such as regression and identification. In this embodiment, an example using an identification method is adopted. However, the present disclosure is not limited thereto, and a regression method may be used.

第2ECU12は、ステップS36で、コスト値rを戻り値として返す。つまり、第2ECU12は、モデルフリー最適化手法の戻り値とする。よって、コスト値rは、ステップS24で用いられる。 The second ECU 12 returns the cost value r i as a return value in step S36. In other words, the second ECU 12 uses the return value of the model-free optimization method. Therefore, the cost value r i is used in step S24.

ここで、図3の説明に戻る。第2ECU12は、ステップS24で、コスト値rが小さくなるような方策パラメータθi+1を計算する。第2ECU12は、戻り値であるコスト値rと、前回の方策パラメータθとから、方策パラメータθi+1を計算する。 Here, we return to the explanation of FIG. 3. In step S24, the second ECU 12 calculates a policy parameter θ i+1 that reduces the cost value r i . The second ECU 12 calculates the policy parameter θ i+1 from the cost value r i that is the return value and the previous policy parameter θ i .

第2ECU12は、ステップS25で、最適化された最適化パラメータθoptを戻り値として返す。最適化パラメータθoptは、ステップS12で用いられる。 The second ECU 12 returns the optimized optimization parameter θ opt as a return value in step S25. The optimization parameter θ opt is used in step S12.

ここで、図2の説明に戻る。第2ECU12は、ステップS12で最適化パラメータθoptと候補特徴量集合xallをもとに、xotrを計算する(選択部)。このとき、第2ECU12は、候補特徴量集合xallのj列の特徴量を抽出するかどうかを判断するために数式4を計算する。そして、第2ECU12は、数式4の値と、第2閾値(0.5)とを比較する。 Here, we return to the explanation of FIG. 2. The second ECU 12 calculates xotr (selection unit) based on the optimization parameter θ opt and the candidate feature set x all in step S12. At this time, the second ECU 12 calculates Equation 4 in order to determine whether to extract the feature amount in the j column of the candidate feature set x_all . The second ECU 12 then compares the value of Equation 4 with the second threshold (0.5).

第2ECU12は、数式4の値が0.5よりも大きい場合、その時のjの値が示す、候補特徴量集合xallにおける列要素を抽出する。一方、第2ECU12は、数式4の値が0.5よりも大きくない場合、その時のjの値が示す、候補特徴量集合xallにおける列要素を抽出しない。 If the value of Equation 4 is greater than 0.5, the second ECU 12 extracts the column element in the candidate feature set x all that is indicated by the value of j at that time. On the other hand, if the value of Equation 4 is not greater than 0.5, the second ECU 12 does not extract the column element in the candidate feature set x all indicated by the value of j at that time.

抽出した列要素は、目的変数の予測精度の向上にかかわっている特徴量とみなす。一方、抽出していない列要素は、目的変数の予測精度の向上にかかわっていない特徴量とみなす。よって、第2ECU12は、抽出した列要素と、その出力データとの行列をxotrとする。このように、第2ECU12は、数式4の計算と比較を、jの値を1からm+lまで切り替えながら繰り返し行いxotrを求める。ここで抽出された列要素は、選択された特徴量候補に相当する。また、xotrは、更新特徴量集合に相当する。 The extracted column elements are regarded as features involved in improving the prediction accuracy of the target variable. On the other hand, column elements that are not extracted are regarded as features that are not involved in improving the prediction accuracy of the target variable. Therefore, the second ECU 12 sets the matrix of the extracted column elements and their output data as xotr. In this way, the second ECU 12 repeatedly calculates and compares Equation 4 while switching the value of j from 1 to m+l to obtain xotr. The column elements extracted here correspond to the selected feature quantity candidates. Furthermore, xotr corresponds to an updated feature set.

以上のように、第2ECU12は、候補特徴量集合xallにおける特徴量候補の変更と、特徴量候補を変更した候補特徴量集合である途中特徴量集合xtempを用いた予測と、を繰り返し行い、予測の精度向上にかかわっている特徴量候補を選択する。そして、第2ECU12は、選択した特徴量候補を含むxotrを求める。 As described above, the second ECU 12 repeatedly changes the feature quantity candidates in the candidate feature quantity set x all and performs prediction using the intermediate feature quantity set x temp , which is a candidate feature quantity set in which the feature quantity candidates have been changed. , select feature quantity candidates that are involved in improving prediction accuracy. Then, the second ECU 12 obtains xotr including the selected feature amount candidate.

第2ECU12は、ステップS13で、ytrain,xotrで学習を行い、訓練済みモデルを求める(モデル生成部)。つまり、第2ECU12は、ytrain,xotrを目的変数と、それに対応する特徴量として学習を行い、訓練済みモデルを求める。言い換えると、第2ECU12は、ステップS12で算出したxotrと、ytrainにおける目的変数とをもとに、目的変数の予測に用いる基礎モデルを改良した改良モデルを生成する。 In step S13, the second ECU 12 performs learning using y train and xotr to obtain a trained model (model generation unit). In other words, the second ECU 12 performs learning using y train and xotr as objective variables and feature amounts corresponding thereto, and obtains a trained model. In other words, the second ECU 12 generates an improved model that is an improved basic model used for predicting the target variable, based on the xotr calculated in step S12 and the target variable in y train .

なお、第2ECU12は、最適化パラメータθoptとテストデータxtestをもとに、xoteを求めてもよい。これは、改良モデルを評価するためである。xoteは、xotrと同様の方法で求めることができる。つまり、第2ECU12は、訓練用データxtrainではなく、テスト用データxtestを用いて候補特徴量集合をつくり、ステップS12と同様の処理を行う。そして、第2ECU12は、評価用集合にytest,xoteを用いる。 Note that the second ECU 12 may calculate xote based on the optimization parameter θ opt and the test data x test . This is to evaluate the improved model. xote can be determined in the same manner as xotr. That is, the second ECU 12 creates a candidate feature set using the test data x test instead of the training data x train , and performs the same process as step S12. Then, the second ECU 12 uses y test and xote as the evaluation set.

そして、第2ECU12は、ytest,xoteを用いて、改良モデルの評価を行う。つまり、第2ECU12は、新規特徴量を追加した改良モデルが有効かどうかの判断を行う。言い換えると、第2ECU12は、基礎モデルよりも改良モデルの方が予測精度が向上しているか否かを判断する。第2ECU12は、有効と判断した改良モデルを正式に採用してもよい。この場合は、第3ECU13は、改良モデルを用いて、エンジンの故障予測を行う。 Then, the second ECU 12 evaluates the improved model using y test and xote. In other words, the second ECU 12 determines whether the improved model to which the new feature amount is added is effective. In other words, the second ECU 12 determines whether the improved model has better prediction accuracy than the basic model. The second ECU 12 may formally adopt the improved model determined to be effective. In this case, the third ECU 13 uses the improved model to predict engine failure.

<効果>
ここに開示された第2ECU12によると、選択した特徴量候補を含む更新特徴量集合xotrをもとに、基礎モデルを改良した改良モデルを生成する。また、第2ECU12は、特徴量候補を選択する際に、途中特徴量集合xtempにおける特徴量候補の変更と、特徴量候補を変更した途中特徴量集合xtempを用いた予測と、を繰り返し行い、予測の精度向上にかかわっている特徴量候補を選択する。そして、第2ECU12は、選択した特徴量候補を含むxotrを求める。このため、第2ECU12は、予測の精度向上にかかわっている最適な特徴量を自動的に選択することができる。
<Effect>
According to the second ECU 12 disclosed herein, an improved model that is an improved basic model is generated based on the updated feature set xotr that includes the selected feature candidates. Furthermore, when selecting feature quantity candidates, the second ECU 12 repeatedly changes the feature quantity candidates in the intermediate feature quantity set x temp and performs prediction using the intermediate feature quantity set x temp in which the feature quantity candidates have been changed. , select feature quantity candidates that are involved in improving prediction accuracy. Then, the second ECU 12 obtains xotr including the selected feature amount candidate. Therefore, the second ECU 12 can automatically select the optimal feature quantity that is involved in improving prediction accuracy.

なお、第2ECU12は、モデルフリー最適化手法を用いて、識別や回帰などの予測に用いる特徴量の選択を自動化する機能を有しているといえる。第2ECU12は、モデルフリーの自作コスト関数を最小化する手法を実行するものである。この自作コスト関数は、選択する特徴量の種類を入力し、選択した特徴量を用いて識別や回帰などの予測を行った際のコスト関数の値を、自作コスト関数のリターン値として、特徴量を自動で選択するともいえる。 Note that the second ECU 12 can be said to have a function of automating the selection of feature quantities used for prediction such as identification and regression using a model-free optimization method. The second ECU 12 executes a method of minimizing a model-free homemade cost function. This self-made cost function inputs the type of feature to be selected, and uses the value of the cost function when performing prediction such as classification or regression using the selected feature as the return value of the self-made cost function. can also be said to be automatically selected.

以上、本開示の好ましい実施形態について説明した。しかしながら、本開示は、上記実施形態に何ら制限されることはなく、本開示の趣旨を逸脱しない範囲において、種々の変形が可能である。 The preferred embodiments of the present disclosure have been described above. However, the present disclosure is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present disclosure.

この明細書には、以下に列挙する複数の技術的思想と、それらの複数の組み合わせが開示されている。 This specification discloses a plurality of technical ideas listed below and a plurality of combinations thereof.

(技術的思想1)
複数の特徴量と各特徴量における複数の出力データを含む特徴量集合と、各出力データに対応する目的変数とによって機械学習された基礎モデルを用いて目的変数の予測を行う電子制御装置であって、
複数の特徴量の少なくとも一部である複数の特徴量候補と各特徴量候補における出力データとを含む候補特徴量集合を生成し、候補特徴量集合における特徴量候補の変更と、特徴量候補を変更した候補特徴量集合を用いた予測と、を繰り返し行い、予測の精度向上にかかわっている特徴量候補を選択する選択部(S10~S12)と、
目的変数と、選択部で選択された特徴量候補と各特徴量候補における複数の出力データを含む更新特徴量集合とをもとに、目的変数の予測に用いる基礎モデルを改良した改良モデルを生成するモデル生成部(S13)と、を備えている電子制御装置。
(Technical thought 1)
It is an electronic control device that predicts an objective variable using a basic model that is machine-learned using a feature set that includes multiple feature quantities and multiple output data for each feature quantity, and an objective variable that corresponds to each output data. hand,
A candidate feature set including a plurality of feature candidates that are at least a part of the plurality of feature quantities and output data for each feature candidate is generated, and the feature quantity candidates in the candidate feature set are changed and the feature quantity candidates are changed. a selection unit (S10 to S12) that repeatedly performs prediction using the changed candidate feature set and selects feature candidates that are involved in improving prediction accuracy;
Generates an improved model that improves the basic model used to predict the objective variable based on the objective variable, the feature candidates selected by the selection unit, and an updated feature set that includes multiple output data for each feature candidate. An electronic control device comprising: a model generation unit (S13) for generating a model;

(技術的思想2)
選択部は、特徴量候補を変更した候補特徴量集合を用いた予測の結果であるコスト値を算出し、特徴量候補を変更する際に、コスト値が適切な値に近くなる特徴量候補を選択する技術的思想1に記載の電子制御装置。
(Technical thought 2)
The selection unit calculates a cost value that is a result of prediction using a candidate feature set with changed feature candidates, and selects a feature candidate whose cost value is close to an appropriate value when changing the feature candidates. The electronic control device according to Selected Technical Idea 1.

(技術的思想3)
選択部は、コスト値が適切な値に近くなる特徴量候補を選択する際に、連続値を予め決められた関数に代入して得られる値と閾値との比較によって、連続値を離散値に変換して、離散値に対応する特徴量候補を選択する技術的思想2に記載の電子制御装置。
(Technical thought 3)
When selecting feature quantity candidates whose cost values are close to appropriate values, the selection unit converts continuous values into discrete values by comparing the value obtained by substituting the continuous value into a predetermined function with a threshold value. The electronic control device according to technical idea 2, which converts and selects feature amount candidates corresponding to the discrete values.

(技術的思想4)
選択部は、コスト値が適切な値に近くなる特徴量候補を選択する際に、連続値を予め決められた関数に代入して得られる値と閾値との比較によって、連続値を離散値に変換して、離散値に対応する特徴量候補を選択するものであり、
関数は、値が0から1に収まる性質を有しており、
閾値は、0から1の間にある技術的思想2に記載の電子制御装置。
(Technical thought 4)
When selecting feature quantity candidates whose cost values are close to appropriate values, the selection unit converts continuous values into discrete values by comparing the value obtained by substituting the continuous value into a predetermined function with a threshold value. It converts and selects feature quantity candidates corresponding to discrete values.
A function has the property that its value falls between 0 and 1,
The electronic control device according to technical idea 2, wherein the threshold value is between 0 and 1.

(技術的思想5)
選択部では、複数の特徴量と、複数の特徴量を組み合わせて得られる新規特徴量とを含む複数の特徴量候補を用いる技術的思想1~4のいずれか1項に記載の電子制御装置。
(Technical Thought 5)
The electronic control device according to any one of technical ideas 1 to 4, in which the selection unit uses a plurality of feature quantity candidates including a plurality of feature quantities and a new feature quantity obtained by combining the plurality of feature quantities.

本開示は、実施形態に準拠して記述されたが、本開示は当該実施形態や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態が本開示に示されているが、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。 Although the present disclosure has been described in accordance with embodiments, it is understood that the present disclosure is not limited to such embodiments or structures. The present disclosure also includes various modifications and equivalent modifications. In addition, although various combinations and configurations are shown in this disclosure, other combinations and configurations involving only one element, more, or fewer elements are also within the scope and spirit of this disclosure. It is something that can be entered.

11…第1ECU、12…第2ECU、13…第3ECU、21…第1センサ、22…第2センサ、23…第3センサ、100…車載システム DESCRIPTION OF SYMBOLS 11... 1st ECU, 12... 2nd ECU, 13... 3rd ECU, 21... 1st sensor, 22... 2nd sensor, 23... 3rd sensor, 100... in-vehicle system

Claims (5)

複数の特徴量と各特徴量における複数の出力データを含む特徴量集合と、各出力データに対応する目的変数とによって機械学習された基礎モデルを用いて前記目的変数の予測を行う電子制御装置であって、
複数の前記特徴量の少なくとも一部である複数の特徴量候補と各特徴量候補における前記出力データとを含む候補特徴量集合を生成し、前記候補特徴量集合における前記特徴量候補の変更と、前記特徴量候補を変更した前記候補特徴量集合を用いた前記予測と、を繰り返し行い、前記予測の精度向上にかかわっている前記特徴量候補を選択する選択部(S10~S12)と、
前記目的変数と、前記選択部で選択された前記特徴量候補と各特徴量候補における複数の前記出力データを含む更新特徴量集合とをもとに、前記目的変数の前記予測に用いる前記基礎モデルを改良した改良モデルを生成するモデル生成部(S13)と、を備えている電子制御装置。
An electronic control device that predicts the objective variable using a basic model machine-learned using a feature quantity set including a plurality of feature quantities and a plurality of output data for each feature quantity, and an objective variable corresponding to each output data. There it is,
generating a candidate feature set including a plurality of feature quantity candidates that are at least some of the plurality of feature quantities and the output data for each feature quantity candidate, and changing the feature quantity candidates in the candidate feature quantity set; a selection unit (S10 to S12) that repeatedly performs the prediction using the candidate feature set in which the feature quantity candidates are changed, and selects the feature quantity candidates that are involved in improving the accuracy of the prediction;
The basic model used for the prediction of the objective variable based on the objective variable, the feature quantity candidate selected by the selection unit, and an updated feature set including the plurality of output data for each feature quantity candidate. An electronic control device comprising: a model generation unit (S13) that generates an improved model that improves the .
前記選択部は、前記特徴量候補を変更した前記候補特徴量集合を用いた前記予測の結果であるコスト値を算出し、前記特徴量候補を変更する際に、前記コスト値が適切な値に近くなる前記特徴量候補を選択する請求項1に記載の電子制御装置。 The selection unit calculates a cost value that is a result of the prediction using the candidate feature set in which the feature quantity candidates are changed, and when changing the feature quantity candidates, adjusts the cost value to an appropriate value. The electronic control device according to claim 1, wherein the feature quantity candidates that are close to each other are selected. 前記選択部は、前記コスト値が適切な値に近くなる前記特徴量候補を選択する際に、連続値を予め決められた関数に代入して得られる値と閾値との比較によって、前記連続値を離散値に変換して、前記離散値に対応する前記特徴量候補を選択する請求項2に記載の電子制御装置。 When selecting the feature quantity candidate whose cost value is close to an appropriate value, the selection unit selects the continuous value by comparing a value obtained by substituting the continuous value into a predetermined function with a threshold value. The electronic control device according to claim 2, wherein the feature quantity candidate corresponding to the discrete value is selected by converting into a discrete value. 前記選択部は、前記コスト値が適切な値に近くなる前記特徴量候補を選択する際に、連続値を予め決められた関数に代入して得られる値と閾値との比較によって、前記連続値を離散値に変換して、前記離散値に対応する前記特徴量候補を選択するものであり、
前記関数は、前記値が0から1に収まる性質を有しており、
前記閾値は、0から1の間にある請求項2に記載の電子制御装置。
When selecting the feature quantity candidate whose cost value is close to an appropriate value, the selection unit selects the continuous value by comparing a value obtained by substituting the continuous value into a predetermined function with a threshold value. is converted into a discrete value, and the feature amount candidate corresponding to the discrete value is selected,
The function has a property that the value falls between 0 and 1,
3. The electronic control device according to claim 2, wherein the threshold value is between 0 and 1.
前記選択部では、複数の前記特徴量と、複数の前記特徴量を組み合わせて得られる新規特徴量とを含む複数の前記特徴量候補を用いる請求項1に記載の電子制御装置。 The electronic control device according to claim 1, wherein the selection unit uses a plurality of feature quantity candidates including a plurality of the feature quantities and a new feature quantity obtained by combining the plurality of feature quantities.
JP2022081801A 2022-05-18 2022-05-18 Electronic control device Pending JP2023170227A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022081801A JP2023170227A (en) 2022-05-18 2022-05-18 Electronic control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022081801A JP2023170227A (en) 2022-05-18 2022-05-18 Electronic control device

Publications (1)

Publication Number Publication Date
JP2023170227A true JP2023170227A (en) 2023-12-01

Family

ID=88928155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022081801A Pending JP2023170227A (en) 2022-05-18 2022-05-18 Electronic control device

Country Status (1)

Country Link
JP (1) JP2023170227A (en)

Similar Documents

Publication Publication Date Title
US20220146993A1 (en) Machine learning method and machine learning device for learning fault conditions, and fault prediction device and fault prediction system including the machine learning device
Wang et al. A grey prediction-based evolutionary algorithm for dynamic multiobjective optimization
US8554707B2 (en) Method for the computer-assisted control and/or regulation of a technical system where the dynamic behavior of the technical system is modeled using a recurrent neural network
US8160978B2 (en) Method for computer-aided control or regulation of a technical system
CN110023850B (en) Method and control device for controlling a technical system
US20130282635A1 (en) Method For The Computer-Assisted Modeling Of A Technical System
JP2001236337A (en) Predicting device using neural network
CN113031983B (en) Intelligent software upgrading method and device based on deep reinforcement learning
US20220147897A1 (en) Machine learning for predictive optmization
CN113614743A (en) Method and apparatus for operating a robot
Senn et al. Reducing the computational effort of optimal process controllers for continuous state spaces by using incremental learning and post-decision state formulations
CN113537614A (en) Construction method, system, equipment and medium of power grid engineering cost prediction model
US8190536B2 (en) Method of performing parallel search optimization
JP2023170227A (en) Electronic control device
JP7196935B2 (en) Arithmetic device, action determination method, and control program
JP2004326200A (en) Automatic machine, and system and method for automatically operating same
WO2002006953A1 (en) Soft sensor device and device for evaluating the same
Aleksovski et al. Ensembles of fuzzy linear model trees for the identification of multioutput systems
Dube et al. Machine Learning Approach to Predict Aerodynamic Performance of Underhood and Underbody Drag Enablers
KR20200051343A (en) Method and apparatus for estimating a predicted time series data
JP2000339005A (en) Method and device for controlling optimization of controlled target
Doudkin et al. Spacecraft Telemetry Time Series Forecasting With Ensembles of Neural Networks
JP4230890B2 (en) Model identification device, model identification program, and method of operating model identification device
JP7362937B2 (en) Production condition generation system using a generative adversarial network, its production condition generation method, and production condition generation program
JPH0454685A (en) State learning device and state estimating device