WO2020241009A1 - Prediction device, learning device, prediction method, and program - Google Patents

Prediction device, learning device, prediction method, and program Download PDF

Info

Publication number
WO2020241009A1
WO2020241009A1 PCT/JP2020/012873 JP2020012873W WO2020241009A1 WO 2020241009 A1 WO2020241009 A1 WO 2020241009A1 JP 2020012873 W JP2020012873 W JP 2020012873W WO 2020241009 A1 WO2020241009 A1 WO 2020241009A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
function
input
learning
behavior
Prior art date
Application number
PCT/JP2020/012873
Other languages
French (fr)
Japanese (ja)
Inventor
石田 武
Original Assignee
株式会社エヌ・ティ・ティ・データ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エヌ・ティ・ティ・データ filed Critical 株式会社エヌ・ティ・ティ・データ
Publication of WO2020241009A1 publication Critical patent/WO2020241009A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

A prediction device equipped with: a function control unit for controlling the behavior of a prediction function indicating a relationship between an input and an output in a prediction model that outputs a predicted value with respect to an input; a learning unit for causing the prediction model to learn such that the output obtained by inputting learning data to the prediction function, the behavior of which is controlled by the function control unit, approaches training data corresponding to the learning data; and a prediction unit for predicting a predicted value with respect to an input, on the basis of the output obtained by inputting unlearned data to the prediction model that has completed the learning caused by the learning unit.

Description

予測装置、学習装置、予測方法、及びプログラムPredictors, learning devices, prediction methods, and programs
 本発明は、予測装置、学習装置、予測方法、及びプログラムに関する。
 本願は、2019年5月31日に、日本に出願された特願2019-102808号に基づき優先権を主張し、その内容をここに援用する。
The present invention relates to a prediction device, a learning device, a prediction method, and a program.
The present application claims priority based on Japanese Patent Application No. 2019-102808 filed in Japan on May 31, 2019, the contents of which are incorporated herein by reference.
 幅広い産業において、統計解析、機械学習といった手法を用いた分析モデルが活用されている。例えば、担当者の経験則に依存していた販売促進企画の立案を、機械学習によって自動的に行う技術が知られている(例えば、特許文献1参照)。特許文献1では、過去の販売促進企画と、当該販売促進企画に係る顧客データや売上データを学習データとして学習を行い、実施予定の企画を立案するために必要な、顧客への売上予測等の情報を収集する。
 また、機械学習の分野において、学習過程における過学習を防止するために、正則化項を用いる手法がある(例えば、特許文献2参照)。特許文献2では、正則化項が深層学習のパラメータを二値に収束させることにより効率的な学習を行う技術が開示されている。
Analytical models using methods such as statistical analysis and machine learning are used in a wide range of industries. For example, there is known a technique for automatically planning a sales promotion plan that relies on the rule of thumb of the person in charge by machine learning (see, for example, Patent Document 1). In Patent Document 1, past sales promotion plans and customer data and sales data related to the sales promotion plans are learned as learning data, and sales forecasts to customers, etc., which are necessary for planning an implementation schedule, are described. Gather information.
Further, in the field of machine learning, there is a method of using a regularization term in order to prevent overfitting in the learning process (see, for example, Patent Document 2). Patent Document 2 discloses a technique in which a regularization term converges a deep learning parameter to a binary value to perform efficient learning.
特開2018-45316号公報JP-A-2018-45316 特開2019-40414号公報Japanese Unexamined Patent Publication No. 2019-40414
 しかしながら、機械学習を用いて生成したモデルから、人間の感覚とは乖離した結果が得られてしまう場合がある。
 例えば、本日の広告費用(x1)と、本日の売上(x2)とに基づいて、明日の広告費用に対する売上(y)を予測する分析モデル(f(x1、x2))を構築する場合を考える。
 通常の感覚で言えば、ある程度までは広告費用を増やすことで売上が伸びるが、それ以上は広告費用を増やしても売上が横ばいとなる地点が存在するはずである。しかし、分析モデルにおける広告費用x1を横軸、売上fを縦軸とするグラフを作成すると、広告費用x1の増加に伴い、売上fが単調に増加し続け、ある地点から売上の増加率(広告効果)が低減することが考慮できていない結果となることがある。或いは、広告費用x1の増加に伴い、売上fが局所的にマイナスになる等、違和感のある挙動を示す場合がある。
However, there are cases where results that deviate from human senses are obtained from the model generated using machine learning.
For example, consider the case of constructing an analysis model (f (x1, x2)) that predicts sales (y) for tomorrow's advertising costs based on today's advertising costs (x1) and today's sales (x2). ..
In the usual sense, increasing advertising costs will increase sales to a certain extent, but there should be points where sales will level off even if advertising costs are increased. However, if you create a graph with the advertising cost x1 on the horizontal axis and the sales f on the vertical axis in the analysis model, the sales f will continue to increase monotonously as the advertising cost x1 increases, and the rate of increase in sales from a certain point (advertising). The result may be that the reduction of the effect) cannot be considered. Alternatively, as the advertising cost x1 increases, the sales f may become locally negative, and the behavior may be uncomfortable.
 このような状況は、決して稀なものではなく、特に、学習データが不完全な場合において高い頻度で発生することが考えられる。図5A~図5Cは、データの不完全性と、それが引き起こす問題の例を示している。図5A~図5Cに示す上下のグラフでは、横軸に広告費用、縦軸に売上を示しており、上側にデータと真の曲線(真の広告費用と売上との関係を示す曲線)、下側にデータとモデルが予測した曲線を示している。図5A~図5Cでは、不完全なデータを分析した結果、誤った結論(予測値)が導かれる例として、下記(1)~(3)が示されている。 Such a situation is not rare, and it is conceivable that it occurs frequently, especially when the training data is incomplete. 5A-5C show examples of data imperfections and the problems they cause. In the upper and lower graphs shown in FIGS. 5A to 5C, the horizontal axis shows advertising costs, the vertical axis shows sales, the upper side shows the data and the true curve (the curve showing the relationship between the true advertising costs and sales), and the lower side. The data and the curve predicted by the model are shown on the side. In FIGS. 5A to 5C, the following (1) to (3) are shown as examples in which an erroneous conclusion (predicted value) is drawn as a result of analyzing incomplete data.
 (1)学習に用いるデータが不足している(図5A参照)
 (2)学習に用いるデータにノイズが多く含まれている(図5B参照)
 (3)学習に用いるべき重要なデータが取得できない、ないし学習過程において考慮されていない(図5C参照)
(1) Insufficient data used for learning (see Fig. 5A)
(2) The data used for learning contains a lot of noise (see Fig. 5B).
(3) Important data to be used for learning cannot be obtained or is not considered in the learning process (see Fig. 5C).
 例えば、(1)では、図5Aに示すように、モデルの入力に用いられる説明変数や、モデルの挙動を決定するパラメータに対して、学習に用いるデータが不足している。この場合に、学習の過程においてモデルが、真の予想曲線に対して乖離しているデータと乖離していないデータとを区別することができないために、違和感のある挙動を示す学習済みモデルが生成されてしまうと考えられる。
 (2)では、図5Bに示すように、真の曲線から乖離しているデータが多数存在している。この場合に、学習の過程においてモデルが、乖離しているデータからの影響を受けるために、違和感のある挙動を示す学習済みモデルが生成されてしまうと考えられる。
 (3)では、図5Cに示すように、学習の過程において予測モデルの挙動に影響を与え得る重要な情報(例えば、広告の内容が不評であった等)が入力変数に用いられなかったために、違和感のある挙動を示す学習済みモデルが生成されてしまうと考えられる。
For example, in (1), as shown in FIG. 5A, the data used for learning is insufficient for the explanatory variables used for inputting the model and the parameters for determining the behavior of the model. In this case, since the model cannot distinguish between the data that deviates from the true prediction curve and the data that does not deviate from the true prediction curve in the process of learning, a trained model that exhibits a strange behavior is generated. It is thought that it will be done.
In (2), as shown in FIG. 5B, there are many data that deviate from the true curve. In this case, it is considered that the model is influenced by the dissociated data in the learning process, so that a trained model showing a strange behavior is generated.
In (3), as shown in FIG. 5C, important information that can affect the behavior of the prediction model (for example, the content of the advertisement was unpopular) was not used as the input variable in the learning process. , It is considered that a trained model showing a strange behavior is generated.
 これにより、学習済みモデルから分析結果の利用者の納得が得られ難い予測値が出力されてしまう事象が発生し、開発コストをかけて生成した分析モデルが活用できない問題が発生している。 As a result, an event occurs in which a predicted value that is difficult for the user to understand the analysis result is output from the trained model, and there is a problem that the analysis model generated at the development cost cannot be utilized.
 本発明は、上記問題を解決すべくなされたもので、その目的は、モデルに、人間の知見が反映され易くなるように機械学習させることができる予測装置、学習装置、予測方法、及びプログラムを提供することにある。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a prediction device, a learning device, a prediction method, and a program capable of machine learning so that human knowledge can be easily reflected in a model. To provide.
 上記問題を解決するために、本発明の一態様は、入力に対する予測値を出力する予測モデルにおける、入力と出力との関係を示す予測関数の挙動を制御する関数制御部と、前記関数制御部により挙動を制御された前記予測関数に、学習データを入力させることにより得られる出力が、当該学習データに対応する教師データに近づくように、前記予測モデルを学習させる学習部と、前記学習部による学習済みの前記予測モデルに、未学習データを入力させることにより得られる出力に基づいて、入力に対する予測値を予測する予測部とを備える予測装置である。 In order to solve the above problem, one aspect of the present invention includes a function control unit that controls the behavior of a prediction function indicating a relationship between an input and an output in a prediction model that outputs a prediction value with respect to an input, and the function control unit. The learning unit that trains the prediction model so that the output obtained by inputting the training data into the prediction function whose behavior is controlled by the method approaches the teacher data corresponding to the training data, and the learning unit. It is a prediction device including a prediction unit that predicts a predicted value with respect to an input based on an output obtained by inputting unlearned data into the trained prediction model.
 また、本発明の一態様は、上記に記載の予測装置において、前記関数制御部は、予め設定した所定の損失関数に正則化項を加算したものを、前記予測モデルを学習させる過程において用いる損失関数とすることにより、前記予測関数の挙動を制御し、前記正則化項は、前記予測関数、及び前記予測関数に用いられる変数に基づいて導出される関数を変数とする関数に、所定の正則化重みが乗算されることにより生成されるようにしてもよい。 Further, in one aspect of the present invention, in the prediction device described above, the function control unit uses a preset loss function plus a regularization term in the process of training the prediction model. By making it a function, the behavior of the prediction function is controlled, and the regularization term is a predetermined regularity to the prediction function and a function whose variables are functions derived based on the variables used in the prediction function. It may be generated by multiplying the conversion weights.
 また、本発明の一態様は、上記に記載の予測装置において、前記正則化項は、前記予測関数を、前記予測関数の入力に用いられる変数で微分することにより導出される導関数を変数とする関数に、所定の正則化重みが乗算されることにより生成されるようにしてもよい。 Further, in one aspect of the present invention, in the prediction device described above, the regularization term uses a derivative derived by differentiating the prediction function with a variable used for inputting the prediction function as a variable. It may be generated by multiplying the function to be used by a predetermined regularization weight.
 また、本発明の一態様は、上記に記載の予測装置において、前記正則化項は、前記予測関数の入力に用いられる変数の値に応じて互いに異なる関数を含むようにしてもよい。 Further, in one aspect of the present invention, in the prediction device described above, the regularization term may include functions different from each other depending on the value of the variable used for inputting the prediction function.
 また、本発明の一態様は、上記に記載の予測装置において、前記正則化項は、前記予測関数の出力を変数とする関数に、所定の正則化重みが乗算されることにより生成されるようにしてもよい。 Further, one aspect of the present invention is such that in the prediction device described above, the regularization term is generated by multiplying a function whose variable is the output of the prediction function by a predetermined regularization weight. It may be.
 また、本発明の一態様は、上記に記載の予測装置において、前記正則化項は、前記予測関数の入力を変数とする関数に、所定の正則化重みが乗算されることにより生成されるようにしてもよい。 Further, one aspect of the present invention is such that in the prediction device described above, the regularization term is generated by multiplying a function whose variable is the input of the prediction function by a predetermined regularization weight. It may be.
 また、本発明の一態様は、入力に対する予測値を出力する予測モデルにおける、入力と出力との関係を示す予測関数の挙動を制御する関数制御部と、前記関数制御部により挙動を制御された前記予測関数に、学習データを入力させることにより得られる出力が、当該学習データに対応する教師データに近づくように、前記予測モデルを学習させる学習部とを備える学習装置である。 Further, one aspect of the present invention is a function control unit that controls the behavior of a prediction function that indicates the relationship between an input and an output in a prediction model that outputs a prediction value with respect to an input, and the behavior is controlled by the function control unit. It is a learning device including a learning unit that trains the prediction model so that the output obtained by inputting the training data into the prediction function approaches the teacher data corresponding to the training data.
 また、本発明の一態様は、関数制御部が、入力に対する予測値を出力する予測モデルにおける、入力と出力との関係を示す予測関数の挙動を制御する関数制御過程と、学習部が、前記関数制御部により挙動を制御された前記予測関数に、学習データを入力させることにより得られる出力が、当該学習データに対応する教師データに近づくように、前記予測モデルを学習させる学習過程と、予測部が、前記学習部による学習済みの前記予測モデルに、未学習データを入力させることにより得られる出力に基づいて、入力に対する予測値を予測する予測過程とを含む予測方法である。 Further, in one aspect of the present invention, the function control process controls the behavior of the prediction function indicating the relationship between the input and the output in the prediction model in which the function control unit outputs the prediction value with respect to the input, and the learning unit describes the above. A learning process in which the prediction model is trained so that the output obtained by inputting training data to the prediction function whose behavior is controlled by the function control unit approaches the teacher data corresponding to the training data, and prediction. The unit is a prediction method including a prediction process of predicting a predicted value with respect to an input based on an output obtained by inputting unlearned data to the predicted model that has been trained by the learning unit.
 また、本発明の一態様は、コンピュータを、入力に対する予測値を出力する予測モデルにおける、入力と出力との関係を示す予測関数の挙動を制御する関数制御手段、前記関数制御手段により挙動を制御された前記予測関数に、学習データを入力させることにより得られる出力が、当該学習データに対応する教師データに近づくように、前記予測モデルを学習させる学習手段、前記学習手段による学習済みの前記予測モデルに、未学習データを入力させることにより得られる出力に基づいて、入力に対する予測値を予測する予測手段として機能させるためのプログラムである。 Further, in one aspect of the present invention, the behavior of a computer is controlled by a function control means for controlling the behavior of a prediction function indicating a relationship between an input and an output in a prediction model that outputs a prediction value with respect to the input, the function control means. A learning means that trains the prediction model so that the output obtained by inputting the training data into the predicted function is close to the teacher data corresponding to the training data, and the prediction that has been learned by the learning means. It is a program for making a model function as a prediction means for predicting a predicted value for an input based on an output obtained by inputting untrained data.
 この発明によれば、モデルに、人間の知見が反映され易くなるように機械学習させることができる。 According to the present invention, machine learning can be performed so that the model can easily reflect human knowledge.
実施形態の予測装置の構成例を示すブロック図である。It is a block diagram which shows the configuration example of the prediction apparatus of embodiment. 実施形態の関数制御部が行う処理を説明するグラフである。It is a graph explaining the process performed by the function control unit of embodiment. 実施形態の関数制御部が行う処理を説明する表である。It is a table explaining the process performed by the function control unit of embodiment. 実施形態の予測装置が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process performed by the prediction apparatus of embodiment. 本願の課題を説明するグラフである。It is a graph explaining the subject of this application. 本願の課題を説明するグラフである。It is a graph explaining the subject of this application. 本願の課題を説明するグラフである。It is a graph explaining the subject of this application.
 以下、本発明の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
 まず、実施形態について説明する。図1は、第の1実施形態の予測装置1の構成例を示すブロック図である。予測装置1は、予測モデルを生成し、生成した予測モデルを用いて、入力に対する予測を行う装置である。ここでの予測モデルは、任意の項目について、入力に対する予測値を出力するモデルであり、例えば、広告費用(入力)に対する売上(予測値)を出力するモデルである。 First, the embodiment will be described. FIG. 1 is a block diagram showing a configuration example of the prediction device 1 of the first embodiment. The prediction device 1 is a device that generates a prediction model and uses the generated prediction model to make a prediction for an input. The prediction model here is a model that outputs a predicted value for an input for an arbitrary item, and is, for example, a model that outputs a sales (forecast value) for an advertising cost (input).
 予測装置1は、例えば、学習データ取得部11と、教師データ取得部12と、前処理部13と、学習部14と、予測部15と、関数制御部16と、予測モデルパラメータ記憶部17とを備える。 The prediction device 1 includes, for example, a learning data acquisition unit 11, a teacher data acquisition unit 12, a preprocessing unit 13, a learning unit 14, a prediction unit 15, a function control unit 16, and a prediction model parameter storage unit 17. To be equipped.
 学習データ取得部11は、学習データを取得する。学習データは、予測モデルに学習させる際の入力として用いられるデータである。例えば、予測モデルが、広告費用(入力)に対する売上(予測値)を出力するモデルである場合、学習データは、過去において投資された広告費用の実績を示すデータである。 The learning data acquisition unit 11 acquires the learning data. The training data is data used as an input when training the prediction model. For example, when the forecast model is a model that outputs sales (predicted value) with respect to advertising cost (input), the training data is data showing the actual performance of advertising cost invested in the past.
 教師データ取得部12は、教師データを取得する。教師データは、予測モデルに学習させる際の出力として用いられるデータである。例えば、予測モデルが、広告費用(入力)に対する売上(予測値)を出力するモデルである場合、学習データは、過去における売上の実績を示すデータである。 The teacher data acquisition unit 12 acquires teacher data. The teacher data is data used as an output when the prediction model is trained. For example, when the forecast model is a model that outputs sales (forecast value) with respect to advertising cost (input), the training data is data showing the actual sales in the past.
 前処理部13は、学習データに教師データを対応付けることにより、予測モデルに学習させるデータを生成する。前処理部13は、例えば、ある過去の日付において投資された広告費用(入力データ)に、その日付における売上の実績を対応づけたデータを、予測モデルに学習させるデータとして生成する。 The preprocessing unit 13 generates data to be trained by the prediction model by associating the training data with the teacher data. For example, the preprocessing unit 13 generates data in which the advertising cost (input data) invested on a certain past date is associated with the actual sales on that date as data to be trained by the prediction model.
 学習部14は、前処理部13により生成されたデータを用いて、予測モデルを学習させる。予測モデルは、任意の機械学習の手法を用いた構成であってよいが、例えば、リカレントニューラルネットワーク(以下、RNNと称する)である。一般的に、RNNは、入力層、隠れ層(中間層)、出力層の3つの階層により構成される。入力層には、RNNに学習させたいデータ(入力データ)が入力される。出力層からは、RNNによって学習された結果を示すデータ(出力データ)が出力される。隠れ層は、学習の核となる処理を行う。例えば、隠れ層は、入力を、活性化関数(伝達関数)と呼ばれる関数により表現される値に変換して出力する。例えば、活性化関数は、正規化線形関数や、シグモイド関数、ステップ関数などであるが、これに限定されず、任意の関数が用いられてよい。 The learning unit 14 trains the prediction model using the data generated by the preprocessing unit 13. The prediction model may be configured using an arbitrary machine learning method, and is, for example, a recurrent neural network (hereinafter referred to as RNN). Generally, an RNN is composed of three layers: an input layer, a hidden layer (intermediate layer), and an output layer. Data (input data) to be trained by the RNN is input to the input layer. Data (output data) indicating the result learned by the RNN is output from the output layer. The hidden layer performs the core processing of learning. For example, the hidden layer converts the input into a value represented by a function called an activation function (transfer function) and outputs it. For example, the activation function includes, but is not limited to, a rectified linear function, a sigmoid function, a step function, and the like, and any function may be used.
 ここで、RNNの構成について簡単に説明する。RNNは、入力層のユニットから、隠れ層のn層のうち、最も浅い層の複数のユニットの各々に対してノードが接続される。ここで、nは任意の自然数である。また、最も浅い層とは隠れ層のn層のうち、最も入力層に近い層であり、この例では第1層である。第1層のユニットから、隠れ層のn層のうち、第1層の次に浅い層(この例では第2層)の複数のユニットの各々に対してノードが接続される。ユニット同士を接続するノードの各々には、結合係数よる重みづけW及びバイアス成分bが適用される。これにより、ある層のユニットから、より深い層のユニットにデータが出力される際に、ユニット同士を接続するノードの結合係数に応じた重みW及びバイアス成分bが付与されたデータが出力される。 Here, the configuration of the RNN will be briefly explained. In the RNN, nodes are connected from the unit of the input layer to each of the plurality of units of the shallowest layer among the n layers of the hidden layer. Here, n is an arbitrary natural number. The shallowest layer is the layer closest to the input layer among the n layers of the hidden layer, and is the first layer in this example. Nodes are connected from the unit of the first layer to each of a plurality of units of the n-layer of the hidden layer, which is the shallowest layer next to the first layer (second layer in this example). A weighting W based on a coupling coefficient and a bias component b are applied to each of the nodes connecting the units. As a result, when data is output from a unit in a certain layer to a unit in a deeper layer, data to which a weight W and a bias component b corresponding to the coupling coefficient of the nodes connecting the units are added is output. ..
 学習部14は、予測モデルの入力層に学習データを入力させる。学習部14は、予測モデルに入力させた学習データに対して出力層から出力されたデータが、当該学習データに対応する教師データに近づくように、予測モデルを学習させる。学習部14は、誤差と予測モデルに設定したパラメータとの関係を、損失関数として導出する。ここでの誤差は、予測モデルの出力層から出力されるデータと、教師データとの乖離度合いである。乖離度合いには、任意の指標が用いられてよいが、例えば、誤差の二乗(二乗誤差)やクロスエントロピー等が用いられる。 The learning unit 14 causes the learning data to be input to the input layer of the prediction model. The learning unit 14 trains the prediction model so that the data output from the output layer with respect to the learning data input to the prediction model approaches the teacher data corresponding to the learning data. The learning unit 14 derives the relationship between the error and the parameters set in the prediction model as a loss function. The error here is the degree of dissociation between the data output from the output layer of the prediction model and the teacher data. Any index may be used for the degree of divergence, and for example, the square of the error (square error), cross entropy, or the like is used.
 一般に、損失関数l(小文字のL)は、教師データyR、及び予測関数f(x)を変数とする関数で表現することができ、以下に示す(1)式で表現される。(1)式において、lは損失関数、yRは教師データ、f(x)は予測モデルの入力(x)と出力(f(x))との関係を示す関数である。 In general, the loss function l (lowercase L) can be expressed by a function having the teacher data y R and the prediction function f (x) as variables, and is expressed by the following equation (1). In equation (1), l is a loss function, y R is training data, and f (x) is a function showing the relationship between the input (x) and the output (f (x)) of the prediction model.
  損失関数l(yR、f(x)) …(1) Loss function l (y R , f (x)) ... (1)
 予測モデルの出力をyとすれば、予測関数は、y=f(x)にて表現される。これを(1)式に適用すると、損失関数lは、以下の(2)式にて示すことができる。 If the output of the prediction model is y, the prediction function is expressed by y = f (x). When this is applied to the equation (1), the loss function l can be expressed by the following equation (2).
  損失関数l(yR、y) …(2) Loss function l (y R , y) ... (2)
 本実施形態では、学習部14は、式(1)又は式(2)に示す損失関数lに代えて、関数制御部16により導出された正則化項Lを損失関数lに加えたものを、新たな損失関数l#として用いる。 In the present embodiment, the learning unit 14 adds the regularization term L derived by the function control unit 16 to the loss function l instead of the loss function l shown in the equation (1) or the equation (2). Used as a new loss function l #.
 損失関数lに正則化項Lを加算することにより、予測関数yの挙動を制御することができる。これにより、予測関数yが違和感のある挙動を示す場合において、その挙動を違和感のない挙動とすることが可能である。例えば、予測関数yが、学習の過程において広告費用xの増加に伴い、売上f(x)が局所的にマイナスになってしまう挙動を示した場合であっても、マイナスにはならないように制御することができる。したがって、予測モデルに人間の知見が反映され易くなるように機械学習させることが可能である。 The behavior of the prediction function y can be controlled by adding the regularization term L to the loss function l. As a result, when the prediction function y shows a strange behavior, it is possible to make the behavior a natural behavior. For example, even if the prediction function y shows a behavior that the sales f (x) locally becomes negative as the advertising cost x increases in the learning process, it is controlled so as not to become negative. can do. Therefore, it is possible to perform machine learning so that human knowledge is easily reflected in the prediction model.
 損失関数l#は、以下に示す(3)式で表現される。(3)式において、l#は本実施形態の学習部14が用いる損失関数、lは(1)式又は(2)式で示される損失関数、yRは教師データ、f(x)は予測モデルの出力、λは正則化の重み係数、Lは正則化項である。 The loss function l # is expressed by the following equation (3). In equation (3), l # is the loss function used by the learning unit 14 of the present embodiment, l is the loss function represented by equation (1) or (2), y R is the teacher data, and f (x) is the prediction. The output of the model, λ is the weighting coefficient of regularization, and L is the regularization term.
  損失関数l#=l(yR、y)+λ×L …(3) Loss function l # = l (y R , y) + λ × L ... (3)
 なお、正則化の重み係数λは任意の実数、あるいは、入力xの関数であってよい。また、正則化項Lについては、後で詳しく説明する。 Note that the regularization weighting coefficient λ may be an arbitrary real number or a function of the input x. Further, the regularization term L will be described in detail later.
 学習部14は、誤差逆伝搬法を用いて、損失関数lが最小となるように、重みWとバイアス成分bの組み合わせを決定する。学習部14は、決定(更新)した重みWとバイアス成分bとを、ノードやユニットと対応付け、対応付けた情報を予測モデルパラメータ記憶部17に記憶させる。 The learning unit 14 uses the error back propagation method to determine the combination of the weight W and the bias component b so that the loss function l is minimized. The learning unit 14 associates the determined (updated) weight W and the bias component b with the nodes and units, and stores the associated information in the prediction model parameter storage unit 17.
 予測部15は、予測モデルパラメータ記憶部17を参照することで、学習により決定された各階層の重みWとバイアス成分bに基づいてRNNを生成(再構築)する。予測部15は、生成(再構築)したRNNを予測モデルとして、予測モデルに未学習の入力データを入力することにより、予測モデルから出力される出力データに基づいて予測値を予測する。「未学習の入力データ」とは、例えば、予測モデルを学習させる段階において学習データに利用されていないデータのことである。予測部15は、例えば、再構築したRNNの入力層に、未学習の入力データを入力することにより出力層から出力される値を、予測値として出力する。 The prediction unit 15 generates (reconstructs) an RNN based on the weight W and the bias component b of each layer determined by learning by referring to the prediction model parameter storage unit 17. The prediction unit 15 uses the generated (reconstructed) RNN as a prediction model, inputs unlearned input data to the prediction model, and predicts the prediction value based on the output data output from the prediction model. The “unlearned input data” is, for example, data that is not used as training data at the stage of training the prediction model. For example, the prediction unit 15 outputs a value output from the output layer as a prediction value by inputting unlearned input data to the reconstructed RNN input layer.
 予測モデルパラメータ記憶部17は、予測モデルの学習により決定された各階層の重みWとバイアス成分bが記憶される。予測モデルパラメータ記憶部17には、RNNの構成を示す情報が記憶されてよい。RNNの構成を示す情報には、例えば、RNNの隠れ層の層数や、各層のユニット数、活性化関数、などを示す情報が含まれる。 The prediction model parameter storage unit 17 stores the weight W and the bias component b of each layer determined by learning the prediction model. Information indicating the configuration of the RNN may be stored in the prediction model parameter storage unit 17. The information indicating the configuration of the RNN includes, for example, information indicating the number of hidden layers of the RNN, the number of units of each layer, the activation function, and the like.
 関数制御部16は、予測モデルにおける、予測関数yの挙動を制御する。関数制御部16は、学習が実行される度に、予測部15により導出される予測関数yを取得する。関数制御部16は、予測関数yの挙動に違和感があるか否かを判定する。 The function control unit 16 controls the behavior of the prediction function y in the prediction model. The function control unit 16 acquires the prediction function y derived by the prediction unit 15 each time learning is executed. The function control unit 16 determines whether or not there is a sense of discomfort in the behavior of the prediction function y.
 図2は、実施形態の関数制御部16が行う処理を説明するグラフである。図2には、予測モデルが予測した、入力(横軸に示す、広告費用x)と、出力(縦軸に示す、売上y)との関係が示されている。ここでは、広告費用に対する売上は単調に増加すること、及び、広告費用に対する売上の増加率は急激に変化しないという業務上の知見があることを前提とする。すなわち、この前提は、広告はマイナスには作用せず、広告により指数的に売上が増加することもないという業務上の知見に基づく。 FIG. 2 is a graph illustrating the processing performed by the function control unit 16 of the embodiment. FIG. 2 shows the relationship between the input (advertising cost x shown on the horizontal axis) and the output (sales y shown on the vertical axis) predicted by the prediction model. Here, it is assumed that there is business knowledge that sales for advertising costs increase monotonically and that the rate of increase in sales for advertising costs does not change sharply. That is, this premise is based on the business knowledge that advertising does not have a negative effect and that advertising does not increase sales exponentially.
 上記業務上の知見によれば、図2に示された領域E1においては、広告費用に対する売上yは増加傾向であるべきである。しかしながら、図2に示すように、予測モデルが予測した予測結果が、領域E1に示すような広告費用に対する売上が減少するものであった場合、関数制御部16は、領域E1において予測関数yの挙動に違和感があると判定する。また、領域E2に示すような、広告費用に対する売上が増加する比率が急激に変化する(所定の閾値より傾きが大きく、増加傾向が強すぎる)ものであった場合、関数制御部16は、領域E2において予測関数yの挙動に違和感があると判定する。 According to the above business knowledge, in the area E1 shown in FIG. 2, sales y with respect to advertising costs should be on an increasing trend. However, as shown in FIG. 2, when the prediction result predicted by the prediction model is such that the sales for the advertising cost as shown in the area E1 decrease, the function control unit 16 determines the prediction function y in the area E1. Judge that there is something wrong with the behavior. Further, when the ratio of the increase in sales to the advertising cost as shown in the area E2 changes abruptly (the slope is larger than the predetermined threshold value and the increasing tendency is too strong), the function control unit 16 sets the area. In E2, it is determined that the behavior of the prediction function y feels strange.
 関数制御部16は、予測モデルの挙動に違和感があると判定する場合、損失関数lに正則化項Lを加算することにより、新たな損失関数l#を導出する。関数制御部16は、導出した損失関数l#を用いて、予測部15により予測モデルを学習させることにより、予測関数yの挙動を制御する。 When the function control unit 16 determines that the behavior of the prediction model is uncomfortable, the function control unit 16 derives a new loss function l # by adding the regularization term L to the loss function l. The function control unit 16 controls the behavior of the prediction function y by training the prediction model by the prediction unit 15 using the derived loss function l #.
 関数制御部16が導出する正則化項Lは、(4)式に示すように、予測モデルの入出力、及び任意階数の導関数を変数とする関数として表現される。(4)式において、xは予測モデルの入力、yは予測モデルの出力、dy/dxは予測モデルの出力yを入力xで一回微分した導関数、d^ny/dx^nyは予測モデルの出力yを入力xでn回微分した導関数である。nは任意の自然数である。 The regularization term L derived by the function control unit 16 is expressed as a function whose variables are the input / output of the prediction model and the derivative of an arbitrary order, as shown in equation (4). In equation (4), x is the input of the prediction model, y is the output of the prediction model, dy / dx is the derivative of the output y of the prediction model differentiated once with the input x, and d ^ ny / dx ^ ny is the prediction model. It is a derivative obtained by differentiating the output y of the above at the input x n times. n is an arbitrary natural number.
 正則化項L(x、y、dy/dx、…、d^ny/dx^ny) …(4) Regularization term L (x, y, dy / dx, ..., d ^ ny / dx ^ ny) ... (4)
 なお、正則化項Lは、(4)式にて示した変数を全て使用するものに限定されることはなく、(4)式にて示した変数のうち、少なくとも一つの変数を使用するものであればよい。例えば、導関数については、二階微分以上の高階導関数のみを用いるものであってもよい。
 また、正則化項Lは、従来の統計および機械学習において、特に過学習を防いだり、汎化能力を高めたりするための正則化の技法により用いられる、いわゆるL1正則化や、L2正則化を含んでいてもよいし、L1正則化や、L2正則化を含まずに構成されてもよい。
The regularization term L is not limited to the one that uses all the variables shown in the equation (4), and uses at least one of the variables shown in the equation (4). It should be. For example, as the derivative, only the higher derivative of the second derivative or higher may be used.
In addition, the regularization term L is a so-called L1 regularization or L2 regularization used in conventional statistics and machine learning by a regularization technique for preventing overfitting and enhancing generalization ability. It may be included, or it may be configured without including L1 regularization and L2 regularization.
 関数制御部16は、正則化項Lを、(5)式のように、入力xの範囲と、出力yの挙動を示す関数の積により導出する。(5)式において、Iは入力xの範囲を示す関数、GradLossは出力yの挙動(例えば、勾配)を制御する関数である。 The function control unit 16 derives the regularization term L from the product of the range of the input x and the function indicating the behavior of the output y, as in Eq. (5). (5) In the equation, the function I A indicating the range of the input x, GradLoss is a function to control the behavior of the output y (e.g., slope).
 L(x、y、dy/dx、…、d^ny/dx^ny)
 =I(x)×GradLoss(x、y、dy/dx、…、d^ny/dx^ny) …(5)                                  
L (x, y, dy / dx, ..., d ^ ny / dx ^ ny)
= I A (x) × GradLoss (x, y, dy / dx, ..., d ^ ny / dx ^ ny) ... (5)
 (5)式において、関数I(x)は、x∈Aの場合に1、x∈Aでない場合に0を出力する関数(領域判定関数)である。ここでxは、入力として取り得る任意の値である。
 これにより、分析モデルの定義域の任意の部分集合Aにおいて、出力yの挙動を制御することができる。
In the equation (5), the function IA (x) is a function (domain determination function) that outputs 1 when x ∈ A and 0 when x ∈ A is not. Here, x is an arbitrary value that can be taken as an input.
As a result, the behavior of the output y can be controlled in any subset A of the domain of the analysis model.
 ここで、関数制御部16が、導出する正則化項Lの例について、図3を用いて説明する。図3は、実施形態の関数制御部16が行う処理を説明する表である。図3では、業務上の知見、f(x)がどのような挙動になるとよいか、GradLossの定義式の各項目を備える。
 「業務上の知見」には、予測モデルに予測させる項目に応じて人間が設定する知見が示される。なお、知見は業務上のものに限定されることはなく、例えば、歴史的な背景によるもの、経験によるもの、前提や想定によるもの、及びこれらの組み合わせによる知見が含まれてよい。
 「f(x)がどのような挙動になるとよいか」には、業務上の知見に対応する出力f(x)の挙動が数式により示されている。「GradLossの定義式」には、業務上の知見に対応する具体的なGradLossの式が示されている。
Here, an example of the regularization term L derived by the function control unit 16 will be described with reference to FIG. FIG. 3 is a table for explaining the processing performed by the function control unit 16 of the embodiment. FIG. 3 includes each item of the definition formula of GradLoss, which is the business knowledge and what kind of behavior f (x) should be.
“Business knowledge” indicates knowledge set by humans according to the items predicted by the prediction model. The knowledge is not limited to business, and may include, for example, historical background, experience, assumptions and assumptions, and knowledge based on a combination thereof.
In "What kind of behavior should f (x) be?", The behavior of the output f (x) corresponding to the business knowledge is shown by a mathematical formula. The “GradLoss definition formula” shows a specific GradLoss formula corresponding to business knowledge.
 関数制御部16は、例えば、図3の1番目の項目に示すように、入力xに対して出力yが増加傾向であるべきとする業務上の知見がある場合、dy/dx>0、つまりyの一回微分が正であるような挙動が望ましいと判定する。この場合、関数制御部16は、GradLoss関数として、max((-1)×dy/dx、0)を定義する。ここでのmax関数は、引数に示された二つの値を比較して大きい方を出力する関数である。
 例えば、dy/dxが正である場合、((-1)×dy/dx)は負となり、GradLoss関数は0を出力する。一方、dy/dxが負である場合、((-1)×dy/dx)は正となり、GradLoss関数は((-1)×dy/dx)を出力する。
For example, as shown in the first item of FIG. 3, the function control unit 16 has dy / dx> 0, that is, when there is business knowledge that the output y should tend to increase with respect to the input x. It is determined that the behavior in which the first derivative of y is positive is desirable. In this case, the function control unit 16 defines max ((-1) × dy / dx, 0) as the GradLoss function. The max function here is a function that compares the two values indicated in the arguments and outputs the larger one.
For example, when dy / dx is positive, ((-1) × dy / dx) becomes negative, and the GradLoss function outputs 0. On the other hand, when dy / dx is negative, ((-1) × dy / dx) becomes positive, and the GradLoss function outputs ((-1) × dy / dx).
 GradLoss関数は、(4)式、及び(5)式に示すように、損失関数に加算される正則化項Lを構成する。したがって、dy/dxが正である場合に正則化項Lは0となり、予測部15により学習に用いられる損失関数として、(1)式又は(2)式に示す損失関数lそのものが適用される。一方、dy/dxが負である場合に正則化項Lは((-1)×dy/dx)に応じた値となり、予測部15により学習に用いられる損失関数として、(1)式又は(2)式に示す損失関数lに、((-1)dy/dx)に応じた正則化項Lを加算したものが適用される。
 なお、入力xに対して出力yが減少傾向であるべきとする業務上の知見がある場合には、GradLoss関数として、max(dy/dx、0)を定義してもよい。
The GradLoss function constitutes the regularization term L to be added to the loss function, as shown in Eqs. (4) and (5). Therefore, when dy / dx is positive, the regularization term L becomes 0, and the loss function l itself shown in Eq. (1) or (2) is applied as the loss function used for learning by the prediction unit 15. .. On the other hand, when dy / dx is negative, the regularization term L becomes a value corresponding to ((-1) × dy / dx), and the loss function used for learning by the prediction unit 15 is the equation (1) or (1). The loss function l shown in Eq. 2) plus the regularization term L according to ((-1) dy / dx) is applied.
If there is business knowledge that the output y should tend to decrease with respect to the input x, max (dy / dx, 0) may be defined as the GradLoss function.
 関数制御部16は、図3の2番目の項目に示すように、入力xに対して出力yにおける増加の程度が強すぎるとの業務上の知見がある場合、dy/dx<b、つまりyの傾きがbより小さくなるような挙動が望ましいと判定する。ここでのbは、任意の正の実数である。この場合、関数制御部16は、GradLoss関数として、(max(dy/dx、b)-b)を定義する。 As shown in the second item of FIG. 3, the function control unit 16 has dy / dx <b, that is, y when there is a business finding that the degree of increase in the output y is too strong with respect to the input x. It is determined that the behavior in which the inclination of is smaller than b is desirable. Here, b is an arbitrary positive real number. In this case, the function control unit 16 defines (max (dy / dx, b) -b) as the GradLoss function.
 例えば、dy/dxがbより小さい場合、max関数からbが出力され、GradLoss関数は0を出力する。一方、dy/dxがbより大きい場合、max関数からdy/dxが出力され、GradLoss関数は(dy/dx-b)を出力する。したがって、dy/dxがbより小さい場合に正則化項Lは0となり、予測部15により学習に用いられる損失関数として、(1)式又は(2)式に示す損失関数lそのものが適用される。一方、dy/dxがbより大きい場合に正則化項Lは(dy/dx-b)となり、予測部15により学習に用いられる損失関数として、(1)式又は(2)式に示す損失関数lに、(dy/dx-b)に応じた正則化項Lを加算したものが適用される。
 なお、入力xに対して出力yにおける減少の程度に着目する場合には、GradLoss関数として、max(-dy/dx、―b)+bを定義してもよく、強すぎる、弱すぎるといった程度に着目する場合には、bの値を適宜設定してよい。
For example, when dy / dx is smaller than b, b is output from the max function and 0 is output from the GradLoss function. On the other hand, when dy / dx is larger than b, dy / dx is output from the max function, and (dy / dx-b) is output from the GradLoss function. Therefore, when dy / dx is smaller than b, the regularization term L becomes 0, and the loss function l itself shown in Eq. (1) or (2) is applied as the loss function used for learning by the prediction unit 15. .. On the other hand, when dy / dx is larger than b, the regularization term L becomes (dy / dx−b), and the loss function used for learning by the prediction unit 15 is the loss function shown in Eq. (1) or (2). The sum of l plus the regularization term L according to (dy / dx−b) is applied.
When paying attention to the degree of decrease in the output y with respect to the input x, max (-dy / dx, -b) + b may be defined as the GradLoss function, to the extent that it is too strong or too weak. When paying attention, the value of b may be set as appropriate.
 関数制御部16は、図3の3番目の項目に示すように、入力xに対して出力yにおける増加の傾向が下に凸であるべきとの業務上の知見がある場合、d^2y/dx^2>0、つまりyの二回微分が正となるような挙動が望ましいと判定する。この場合、関数制御部16は、GradLoss関数として、(max((-1)×d^2y/dx^2、0)を定義する。 As shown in the third item of FIG. 3, the function control unit 16 has a business knowledge that the tendency of increase in the output y should be convex downward with respect to the input x, when d ^ 2y / It is determined that dx ^ 2> 0, that is, the behavior in which the double derivative of y is positive is desirable. In this case, the function control unit 16 defines (max ((-1) × d ^ 2y / dx ^ 2, 0) as the GradLoss function.
 例えば、d^2y/dx^2が正である場合、GradLoss関数は0を出力する。一方、d^2y/dx^2が負である場合、GradLoss関数は((-1)×d^2y/dx^2)を出力する。したがって、d^2y/dx^2が正である場合に正則化項Lは0となり、予測部15により学習に用いられる損失関数として、(1)式又は(2)式に示す損失関数lそのものが適用される。一方、(d^2y/dx^2)が負である場合に正則化項Lは((-1)×d^2y/dx^2)となり、予測部15により学習に用いられる損失関数として、(1)式又は(2)式に示す損失関数lに、((-1)×d^2y/dx^2)に応じた正則化項Lを加算したものが適用される。
 なお、入力xに対して出力yにおける増加の傾向が上に凸であるべき場合には、GradLoss関数として、max(d^2y/dx^2、0)を定義してもよい。
For example, if d ^ 2y / dx ^ 2 is positive, the GradLoss function outputs 0. On the other hand, when d ^ 2y / dx ^ 2 is negative, the GradLoss function outputs ((-1) × d ^ 2y / dx ^ 2). Therefore, when d ^ 2y / dx ^ 2 is positive, the regularization term L becomes 0, and the loss function l itself shown in Eq. (1) or (2) is used as the loss function for learning by the prediction unit 15. Is applied. On the other hand, when (d ^ 2y / dx ^ 2) is negative, the regularization term L becomes ((-1) × d ^ 2y / dx ^ 2), and the loss function used for learning by the prediction unit 15 is The loss function l shown in the equation (1) or (2) plus the regularization term L according to ((-1) × d ^ 2y / dx ^ 2) is applied.
If the tendency of the increase in the output y should be convex with respect to the input x, max (d ^ 2y / dx ^ 2, 0) may be defined as the GradLoss function.
 このように、関数制御部16は、業務上の知見に応じて、出力yにおいて望ましい挙動を示す数式(例えば、出力yの導関数)を規定する。関数制御部16は、出力yにおける入出力の関係において、規定した数式に合致する挙動が示されている場合に0となり、当該数式に合致しない挙動が示されている場合に0でない値となる正則化項Lを導出する。
 これにより、関数制御部16は、予測モデル(予測関数y)が業務上の知見に応じた挙動をする場合としない場合とで、互いに異なる正則化項Lを導出することができる。したがって、関数制御部16は、予測モデル(予測関数y)が業務上の知見に応じた挙動をしない場合に、業務上の知見に応じた挙動をする場合と比較して、値が大きい正則化項Lを導出して、損失関数l#を大きくしたものを用いて予測モデルを学習させることができる。
 予測モデルは、学習の過程において、業務上の知見に応じた挙動をしない場合に、損失が大きくなることを学習し、業務上の知見に応じた挙動をするように、予測モデルのパラメータ(重みW及びバイアス成分b)を決定するように学習が進められることが期待できる。
In this way, the function control unit 16 defines a mathematical formula (for example, a derivative of the output y) that shows desirable behavior in the output y, depending on business knowledge. The function control unit 16 becomes 0 when the behavior that matches the specified mathematical expression is shown in the input / output relationship at the output y, and becomes a non-zero value when the behavior that does not match the mathematical expression is shown. The regularization term L is derived.
As a result, the function control unit 16 can derive a regularization term L that is different from each other depending on whether the prediction model (prediction function y) behaves according to business knowledge or not. Therefore, the function control unit 16 regularizes the value when the prediction model (prediction function y) does not behave according to the business knowledge, as compared with the case where the prediction model (prediction function y) behaves according to the business knowledge. The term L can be derived and the prediction model can be trained using a larger loss function l #.
The prediction model learns that the loss increases when it does not behave according to the business knowledge in the learning process, and the parameters (weights) of the prediction model so as to behave according to the business knowledge. It can be expected that learning will proceed so as to determine W and the bias component b).
 なお、図3の例では、正則化項Lの変数が、予測関数yの導関数である場合を例示して説明したが、これに限定されない。例えば、正則化項Lに用いられる変数は、予測関数yの出力yそのものであってもよい。この場合、出力yの値が一定の範囲から逸脱することがあり得ないとする業務上の知見がある場合に、出力yが一定の範囲に収まるように、予測関数yの挙動を是正することが可能となる。 In the example of FIG. 3, the case where the variable of the regularization term L is a derivative of the prediction function y has been described as an example, but the present invention is not limited to this. For example, the variable used for the regularization term L may be the output y of the prediction function y itself. In this case, if there is business knowledge that the value of the output y cannot deviate from a certain range, correct the behavior of the prediction function y so that the output y falls within a certain range. Is possible.
 また、正則化項Lに用いられる変数は、予測関数yの入力xそのものであってもよい。この場合、入力xの値に応じた予測値の挙動を制御することができる。
 一般に予測モデルは、学習により予測モデルのパラメータが決定されていれば、入力に対する予測値を出力することが可能である。このため、入力xが所定の範囲でしか得られない、つまり学習データが所定の範囲でしか得られてない場合であっても、その範囲外の入力に対する予測値を出力することができてしまう。この場合、学習データが存在していないため、予測値は実績(学習データと教師データとの対応関係)とは無関係に出力されてしまう。このため、入力xにおける所定の範囲において業務上の知見とは乖離した結果となる可能性が高い。
 このような場合に、正則化項Lの変数として入力xを用いることで、入力xにおける特定の範囲において、業務上の知見に沿うように予測関数yの挙動を是正することが可能となる。例えば、入力xにおける特定の範囲において、出力yが増加と減少を繰り返すような挙動が予測されている場合において、その範囲の出力yが単調に増加するという知見を与えれば、出力yが減少する挙動を見直すような学習がなされ、学習データが存在しない範囲においても、出力yが単調に増加するように、予測関数yの挙動を是正することが可能となる。
 なお、学習データが存在しない、或いは、不足する領域において、ダミーデータ(c、f(c))を作成し、これを用いて予測関数yの挙動の是正を行ってもよい。ここでのcは、学習データには存在しない、予測関数yの定義域上の任意の点である。
 また、正則化項Lの入力を、損失関数lの入力と独立させても良い。例えば、正則化項Lの計算に予測関数yの値が不要である場合に、損失関数lで用いる学習データ(x、y)に対して、正則化項Lの入力データを(x+εi、y)としても良い。ここでεiは任意の分布からサンプリングされた任意個数のノイズ値である。
Further, the variable used for the regularization term L may be the input x itself of the prediction function y. In this case, the behavior of the predicted value according to the value of the input x can be controlled.
Generally, the prediction model can output the prediction value for the input if the parameters of the prediction model are determined by learning. Therefore, even if the input x can be obtained only in a predetermined range, that is, the training data can be obtained only in a predetermined range, the predicted value for the input outside the range can be output. .. In this case, since the learning data does not exist, the predicted value is output regardless of the actual result (correspondence between the learning data and the teacher data). Therefore, there is a high possibility that the result will be different from the business knowledge within a predetermined range of the input x.
In such a case, by using the input x as the variable of the regularization term L, it is possible to correct the behavior of the prediction function y in a specific range of the input x so as to be in line with the business knowledge. For example, when a behavior in which the output y repeatedly increases and decreases is predicted in a specific range of the input x, the output y decreases if the knowledge that the output y in that range increases monotonically is given. Learning is performed to review the behavior, and it is possible to correct the behavior of the prediction function y so that the output y increases monotonically even in the range where the training data does not exist.
In addition, dummy data (c, f (c)) may be created in a region where learning data does not exist or is insufficient, and the behavior of the prediction function y may be corrected by using the dummy data (c, f (c)). Here, c is an arbitrary point on the domain of the prediction function y that does not exist in the training data.
Further, the input of the regularization term L may be made independent of the input of the loss function l. For example, when the value of the prediction function y is not required for the calculation of the regularization term L, the input data of the regularization term L is (x + εi, y) with respect to the training data (x, y) used in the loss function l. May be. Here, εi is an arbitrary number of noise values sampled from an arbitrary distribution.
 図4は、第1の実施形態の予測装置1が行う処理の流れを示すフローチャートである。
 まず、予測装置1の学習部14は、予測モデルを学習させる(ステップS10)。学習部14は、予測モデルに学習データを入力した場合に出力される予測値が、学習データに対応付けられた教師データに近づくように、予測モデルのパラメータを決定することにより、予測モデルを学習させる。
FIG. 4 is a flowchart showing a flow of processing performed by the prediction device 1 of the first embodiment.
First, the learning unit 14 of the prediction device 1 trains the prediction model (step S10). The learning unit 14 learns the prediction model by determining the parameters of the prediction model so that the prediction value output when the training data is input to the prediction model approaches the teacher data associated with the training data. Let me.
 関数制御部16は、学習された学習済みの予測モデルの挙動に違和感が有るか否かを判定する(ステップS11)。関数制御部16は、予測モデルが予測する項目に応じて予め設定された業務上の知見に応じた数式(例えば、出力yの任意階数の導関数)に、予測モデルの挙動が合致しない場合に、予測モデルの挙動に違和感が有ると判定する。 The function control unit 16 determines whether or not there is a sense of discomfort in the behavior of the learned predicted model (step S11). When the function control unit 16 does not match the behavior of the prediction model with a mathematical formula (for example, a derivative of an arbitrary rank of the output y) set in advance according to the items predicted by the prediction model. , Judge that there is a sense of discomfort in the behavior of the prediction model.
 関数制御部16は、予測モデルの挙動に違和感が有る場合、損失関数lに、当該違和感に対応した正則化項Lを加算する(ステップS12)。関数制御部16は、例えば、max関数などを用いて、業務上の知見に応じた数式に合致しない程度に応じた正則化項Lとすることにより、当該違和感に対応した正則化項Lを導出する。
 学習部14は、関数制御部16により導出された正則化項Lを損失関数lに加算した損失関数l#を用いて、予測モデルの再学習を実施する(ステップS13)。
 学習部14は、予測モデルの再学習を実施(ステップS13)した後、予測モデルの学習における終了条件を満たすか否かを判定する(ステップS14)。学習の終了条件は、予め定められた条件であって、例えば、予測値と教師データとの誤差が所定の閾値未満となったこと、一回の学習あたりの予測値と教師データとの誤差の変化量が所定の閾値未満となったこと、等である。
 学習部14は、予測モデルを学習させる学習の終了条件を満たさない場合、ステップS10に戻り、再学習された学習済の予測モデルが終了条件を満たすようにするための学習を行う。このようにして、学習部14は、予測モデルにおける学習の終了条件を満たすまで、ステップS10~S13に示す処理のフローを繰り返す。
When the behavior of the prediction model has a feeling of strangeness, the function control unit 16 adds the regularization term L corresponding to the feeling of strangeness to the loss function l (step S12). The function control unit 16 derives the regularization term L corresponding to the discomfort by, for example, using the max function or the like to set the regularization term L according to the degree that does not match the mathematical formula according to the business knowledge. To do.
The learning unit 14 retrains the prediction model using the loss function l # obtained by adding the regularization term L derived by the function control unit 16 to the loss function l (step S13).
After re-learning the prediction model (step S13), the learning unit 14 determines whether or not the end condition in the learning of the prediction model is satisfied (step S14). The learning end condition is a predetermined condition, for example, that the error between the predicted value and the teacher data is less than a predetermined threshold value, and the error between the predicted value and the teacher data per learning. The amount of change is less than a predetermined threshold, and so on.
If the learning end condition for learning the prediction model is not satisfied, the learning unit 14 returns to step S10 and performs learning for making the relearned learned prediction model satisfy the end condition. In this way, the learning unit 14 repeats the flow of processing shown in steps S10 to S13 until the learning end condition in the prediction model is satisfied.
 なお、上述した図4のフローチャートでは、ステップS11において、関数制御部16が学習済みの予測モデルに対し、違和感の有無を判定する場合を例示したが、これに限定されることはない。関数制御部16は、学習前、学習過程、及び学習済みの何れの過程においても、予測モデルの挙動について違和感の有無を判定してもよい。すなわち、学習前、学習過程、及び学習済みの何れの過程における予測モデルの挙動についても、損失関数l#を用いた学習が行われることにより、予測モデルの挙動が業務上の知見に沿うように再構築されてよい。 Note that, in the flowchart of FIG. 4 described above, in step S11, the case where the function control unit 16 determines whether or not there is a sense of discomfort with respect to the trained prediction model is illustrated, but the present invention is not limited to this. The function control unit 16 may determine whether or not there is a sense of discomfort in the behavior of the prediction model before learning, in the learning process, or in any of the learned processes. That is, for the behavior of the prediction model in any of the pre-learning, the learning process, and the learned process, the behavior of the prediction model is in line with the business knowledge by learning using the loss function l #. It may be rebuilt.
 以上説明したように、実施形態の予測装置1では、関数制御部16と学習部14と予測部15とを備える。関数制御部16は、予測関数yの挙動を制御する。学習部14は、関数制御部16により挙動を制御された予測関数yに、学習データを入力させることにより得られる出力が、当該学習データに対応する教師データに近づくように、予測モデルを学習させる。予測部15は、学習部14による学習済みの予測モデルに、未学習データを入力させることにより得られる出力に基づいて、入力に対する予測値を予測する。
 これにより、実施形態の予測装置1では、関数制御部16が予測関数yの挙動を制御することができ、予測関数yの挙動が、業務上の知見と異なる場合に、是正することができ、予測モデルに、人間の知見が反映され易くなるように機械学習させることが可能となる。
As described above, the prediction device 1 of the embodiment includes a function control unit 16, a learning unit 14, and a prediction unit 15. The function control unit 16 controls the behavior of the prediction function y. The learning unit 14 trains the prediction model so that the output obtained by inputting the training data to the prediction function y whose behavior is controlled by the function control unit 16 approaches the teacher data corresponding to the learning data. .. The prediction unit 15 predicts the predicted value for the input based on the output obtained by inputting the unlearned data into the predicted model trained by the learning unit 14.
As a result, in the prediction device 1 of the embodiment, the function control unit 16 can control the behavior of the prediction function y, and when the behavior of the prediction function y is different from the business knowledge, it can be corrected. It is possible to make the prediction model machine-learn so that human knowledge can be easily reflected.
 また、第1の実施形態の予測装置1では、関数制御部16は、予め設定した所定の損失関数lに正則化項Lを加算したものを、予測モデルを学習させる過程において用いる損失関数l#とすることにより、予測関数yの挙動を制御する。また、正則化項Lは、予測関数y、及び予測関数yに用いられる変数(例えば、予測関数yの入力x)に基づいて導出される関数を変数とする関数に、所定の正則化重みλが乗算されることにより生成される。
 これにより、第1の実施形態の予測装置1では、損失関数lに正則化項Lを加算することにより、業務上の知見と異なる場合に損失が大きく見えるようにして、予測関数yの挙動が業務上の知見に沿うように学習させることができ、上述した効果と同様の効果を奏する。
Further, in the prediction device 1 of the first embodiment, the function control unit 16 uses a preset loss function l plus the regularization term L in the process of training the prediction model. By doing so, the behavior of the prediction function y is controlled. Further, the regularization term L is a function whose variable is a function derived based on the prediction function y and the variable used for the prediction function y (for example, the input x of the prediction function y), and has a predetermined regularization weight λ. Is generated by multiplying.
As a result, in the prediction device 1 of the first embodiment, the regularization term L is added to the loss function l so that the loss looks large when it differs from the business knowledge, and the behavior of the prediction function y changes. It can be learned in line with business knowledge, and has the same effect as the above-mentioned effect.
 また、第1の実施形態の予測装置1では、正則化項は、予測関数yを、予測関数yの入力xで微分することにより導出される導関数(例えば、dy/dx)を変数とする関数に、所定の正則化重みλが乗算されることにより生成される。これにより、第1の実施形態の予測装置1では、入力xに対する出力yの傾きに応じた正則化項Lを導出することができ、入力xに対する出力yの傾きが業務上の知見に沿うように学習させることができ、上述した効果と同様の効果を奏する。 Further, in the prediction device 1 of the first embodiment, the regularization term uses a derivative (for example, dy / dx) derived by differentiating the prediction function y with the input x of the prediction function y as a variable. It is generated by multiplying the function by a predetermined regularization weight λ. As a result, in the prediction device 1 of the first embodiment, the regularization term L can be derived according to the slope of the output y with respect to the input x, so that the slope of the output y with respect to the input x is in line with the business knowledge. Can be trained to produce the same effect as the above-mentioned effect.
 また、第1の実施形態の予測装置1では、正則化項は、予測関数yの入力xの値に応じて互いに異なる関数(例えば、(5)式のI(x))を含む。これにより、第1の実施形態の予測装置1では、入力xの特定の範囲に応じた正則化項Lを導出することができ、入力xの特定の範囲における出力yの挙動を業務上の知見に沿うように学習させることができ、上述した効果と同様の効果を奏する。 Further, the prediction apparatus 1 of the first embodiment, regularization term includes different depending on the value of the input x of the prediction function y function (e.g., (5) formula I A (x)) a. As a result, in the prediction device 1 of the first embodiment, the regularization term L corresponding to the specific range of the input x can be derived, and the behavior of the output y in the specific range of the input x can be known in business. It can be trained according to the above-mentioned effect, and the same effect as the above-mentioned effect is obtained.
 また、第1の実施形態の予測装置1では、正則化項は、予測関数yの出力yを変数とする関数に、所定の正則化重みλが乗算されることにより生成される。これにより第1の実施形態の予測装置1では、出力yの値に応じた正則化項Lを導出することができ、例えば、出力yの値が一定の範囲から逸脱することがあり得ないとする業務上の知見がある場合に、出力yの挙動を業務上の知見に沿うように学習させることができる。 Further, in the prediction device 1 of the first embodiment, the regularization term is generated by multiplying a function whose variable is the output y of the prediction function y by a predetermined regularization weight λ. As a result, in the prediction device 1 of the first embodiment, the regularization term L corresponding to the value of the output y can be derived, and for example, the value of the output y cannot deviate from a certain range. When there is business knowledge to be performed, the behavior of the output y can be learned so as to be in line with the business knowledge.
 また、第1の実施形態の予測装置1では、正則化項は、予測関数yの入力xを変数とする関数に、所定の正則化重みλが乗算されることにより生成される。これにより第1の実施形態の予測装置1では、入力xの値に応じた正則化項Lを導出することができ、例えば、入力xにおける所定の範囲において、学習データが存在していないために予測値が制御できない場合であっても、ダミーデータ等を用いて予測関数yの挙動を業務上の知見に沿うように学習させることができる。 Further, in the prediction device 1 of the first embodiment, the regularization term is generated by multiplying a function whose variable is the input x of the prediction function y by a predetermined regularization weight λ. As a result, in the prediction device 1 of the first embodiment, the regularization term L corresponding to the value of the input x can be derived. For example, because the training data does not exist in a predetermined range of the input x. Even when the predicted value cannot be controlled, it is possible to learn the behavior of the prediction function y by using dummy data or the like so as to be in line with business knowledge.
 また、第1の実施形態の予測装置1が、学習済みモデルを生成する学習装置と、学習装置により生成された学習済みモデルとを用いて予測を行う制御装置とで構成されてもよい。この場合、学習装置は、関数制御部16と学習部14とを備える。学習装置が関数制御部16を備えることにより、実施形態の学習装置は、業務上の知見を反映した予測モデルを作成することができ、上述した効果と同様の効果を奏する。 Further, the prediction device 1 of the first embodiment may be composed of a learning device that generates a learned model and a control device that makes a prediction using the learned model generated by the learning device. In this case, the learning device includes a function control unit 16 and a learning unit 14. When the learning device includes the function control unit 16, the learning device of the embodiment can create a prediction model that reflects business knowledge, and has the same effect as the above-mentioned effect.
 なお、上述した実施形態では、予測モデルにRNNが適用された場合を例示して説明したが、これに限定されない。例えば、予測モデルとして、RNN以外の再帰型ニューラルネットワークであるLSTM(Long Short Term Memory)が適用されてもよいし、順伝搬型のニューラルネットワークが適用されてもよい。順伝搬型の場合、予測モデルとして多層パーセプトロンが適用されてもよい。また、予測モデルとしてニューラルネットワーク以外の他の機械学習が用いられてもよい。 In the above-described embodiment, the case where the RNN is applied to the prediction model has been illustrated and described, but the present invention is not limited to this. For example, as a prediction model, RSTM (Long Short Term Memory), which is a recurrent neural network other than RNN, may be applied, or a forward propagation type neural network may be applied. In the case of the forward propagation type, a multi-layer perceptron may be applied as a prediction model. Further, machine learning other than the neural network may be used as the prediction model.
 また、上述した実施形態では、GradLoss関数として、max関数を用いる場合を例示して説明したが、これに限定されない。GradLoss関数として、少なくとも出力f(x)の挙動について、人間の知見を反映させた関数や数式が用いられればよい。
 例えば、GradLossの関数として、max関数の代わりに、min関数が用いられてもよいのは勿論である。min関数は、引数に示された複数の値のうち、最も小さい値を出力する関数である。
Further, in the above-described embodiment, the case where the max function is used as the GradLoss function has been described as an example, but the present invention is not limited to this. As the GradLoss function, a function or mathematical formula that reflects human knowledge may be used at least for the behavior of the output f (x).
For example, as a function of GradLoss, it goes without saying that a min function may be used instead of the max function. The min function is a function that outputs the smallest value among a plurality of values indicated in the argument.
 上述した実施形態における予測装置1の全部又は一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 The whole or part of the prediction device 1 in the above-described embodiment may be realized by a computer. In that case, the program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. Further, a "computer-readable recording medium" is a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short period of time. It may also include a program that holds a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client in that case. Further, the above program may be for realizing a part of the above-mentioned functions, and may be further realized for realizing the above-mentioned functions in combination with a program already recorded in the computer system. It may be realized by using a programmable logic device such as FPGA (Field Programmable Gate Array).
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.
 1 予測装置
11 学習データ取得部
12 教師データ取得部
13 前処理部
14 学習部
15 予測部
16 関数制御部
17 予測モデルパラメータ記憶部
1 Prediction device 11 Learning data acquisition unit 12 Teacher data acquisition unit 13 Preprocessing unit 14 Learning unit 15 Prediction unit 16 Function control unit 17 Prediction model parameter storage unit

Claims (9)

  1.  入力に対する予測値を出力する予測モデルにおける、入力と出力との関係を示す予測関数の挙動を制御する関数制御部と、
     前記関数制御部により挙動を制御された前記予測関数に、学習データを入力させることにより得られる出力が、当該学習データに対応する教師データに近づくように、前記予測モデルを学習させる学習部と、
     前記学習部による学習済みの前記予測モデルに、未学習データを入力させることにより得られる出力に基づいて、入力に対する予測値を予測する予測部と、
     を備える予測装置。
    A function control unit that controls the behavior of the prediction function that indicates the relationship between the input and the output in the prediction model that outputs the prediction value for the input.
    A learning unit that trains the prediction model so that the output obtained by inputting training data to the prediction function whose behavior is controlled by the function control unit approaches the teacher data corresponding to the training data.
    A prediction unit that predicts a predicted value for an input based on an output obtained by inputting unlearned data to the prediction model that has been trained by the learning unit.
    Predictor device.
  2.  前記関数制御部は、予め設定した所定の損失関数に正則化項を加算したものを、前記予測モデルを学習させる過程において用いる損失関数とすることにより、前記予測関数の挙動を制御し、
     前記正則化項は、前記予測関数、及び前記予測関数に用いられる変数に基づいて導出される関数を変数とする関数に、所定の正則化重みが乗算されることにより生成される、
     請求項1に記載の予測装置。
    The function control unit controls the behavior of the prediction function by adding a regularization term to a predetermined loss function set in advance as a loss function used in the process of training the prediction model.
    The regularization term is generated by multiplying the prediction function and a function whose variables are functions derived based on the variables used in the prediction function by a predetermined regularization weight.
    The prediction device according to claim 1.
  3.  前記正則化項は、前記予測関数を、前記予測関数の入力に用いられる変数で微分することにより導出される導関数を変数とする関数に、所定の正則化重みが乗算されることにより生成される、
     請求項2に記載の予測装置。
    The regularization term is generated by multiplying a function whose variable is a derivative derived by differentiating the prediction function with a variable used to input the prediction function by a predetermined regularization weight. ,
    The prediction device according to claim 2.
  4.  前記正則化項は、前記予測関数の入力に用いられる変数の値に応じて互いに異なる関数を含む、
     請求項2又は請求項3に記載の予測装置。
    The regularization terms include functions that differ from each other depending on the value of the variable used to input the prediction function.
    The prediction device according to claim 2 or 3.
  5.  前記正則化項は、前記予測関数の出力を変数とする関数に、所定の正則化重みが乗算されることにより生成される、
     請求項2から請求項4のいずれか一項に記載の予測装置。
    The regularization term is generated by multiplying a function whose variable is the output of the prediction function by a predetermined regularization weight.
    The prediction device according to any one of claims 2 to 4.
  6.  前記正則化項は、前記予測関数の入力を変数とする関数に、所定の正則化重みが乗算されることにより生成される、
     請求項2から請求項5のいずれか一項に記載の予測装置。
    The regularization term is generated by multiplying a function whose variable is the input of the prediction function by a predetermined regularization weight.
    The prediction device according to any one of claims 2 to 5.
  7.  入力に対する予測値を出力する予測モデルにおける、入力と出力との関係を示す予測関数の挙動を制御する関数制御部と、
     前記関数制御部により挙動を制御された前記予測関数に、学習データを入力させることにより得られる出力が、当該学習データに対応する教師データに近づくように、前記予測モデルを学習させる学習部と、
     を備える学習装置。
    A function control unit that controls the behavior of the prediction function that indicates the relationship between the input and the output in the prediction model that outputs the prediction value for the input.
    A learning unit that trains the prediction model so that the output obtained by inputting training data to the prediction function whose behavior is controlled by the function control unit approaches the teacher data corresponding to the training data.
    A learning device equipped with.
  8.  関数制御部が、入力に対する予測値を出力する予測モデルにおける、入力と出力との関係を示す予測関数の挙動を制御する関数制御過程と、
     学習部が、前記関数制御部により挙動を制御された前記予測関数に、学習データを入力させることにより得られる出力が、当該学習データに対応する教師データに近づくように、前記予測モデルを学習させる学習過程と、
     予測部が、前記学習部による学習済みの前記予測モデルに、未学習データを入力させることにより得られる出力に基づいて、入力に対する予測値を予測する予測過程と、
     を含む予測方法。
    A function control process in which the function control unit controls the behavior of the prediction function that indicates the relationship between the input and the output in the prediction model that outputs the prediction value for the input.
    The learning unit trains the prediction model so that the output obtained by inputting the training data into the prediction function whose behavior is controlled by the function control unit approaches the teacher data corresponding to the learning data. The learning process and
    A prediction process in which the prediction unit predicts a prediction value for an input based on an output obtained by inputting unlearned data into the prediction model trained by the learning unit.
    Forecasting methods including.
  9.  コンピュータを、
     入力に対する予測値を出力する予測モデルにおける、入力と出力との関係を示す予測関数の挙動を制御する関数制御手段、
     前記関数制御手段により挙動を制御された前記予測関数に、学習データを入力させることにより得られる出力が、当該学習データに対応する教師データに近づくように、前記予測モデルを学習させる学習手段、
     前記学習手段による学習済みの前記予測モデルに、未学習データを入力させることにより得られる出力に基づいて、入力に対する予測値を予測する予測手段
     として機能させるためのプログラム。
    Computer,
    A function control means that controls the behavior of a prediction function that indicates the relationship between an input and an output in a prediction model that outputs a prediction value for the input.
    A learning means for training the prediction model so that the output obtained by inputting the training data to the prediction function whose behavior is controlled by the function control means approaches the teacher data corresponding to the training data.
    A program for causing the prediction model trained by the learning means to function as a prediction means for predicting a predicted value for an input based on an output obtained by inputting unlearned data.
PCT/JP2020/012873 2019-05-31 2020-03-24 Prediction device, learning device, prediction method, and program WO2020241009A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-102808 2019-05-31
JP2019102808 2019-05-31

Publications (1)

Publication Number Publication Date
WO2020241009A1 true WO2020241009A1 (en) 2020-12-03

Family

ID=73553353

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/012873 WO2020241009A1 (en) 2019-05-31 2020-03-24 Prediction device, learning device, prediction method, and program

Country Status (2)

Country Link
JP (1) JP2020198097A (en)
WO (1) WO2020241009A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7273107B2 (en) * 2021-06-17 2023-05-12 ヤフー株式会社 Information processing device, information processing method and information processing program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713745A (en) * 1993-06-28 1995-01-17 Nippon Telegr & Teleph Corp <Ntt> Neural network type pattern learning method and pattern processor
WO2013118225A1 (en) * 2012-02-08 2013-08-15 日本電気株式会社 Optimal-query generation device, optimal-query extraction method, and discriminative-model learning method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713745A (en) * 1993-06-28 1995-01-17 Nippon Telegr & Teleph Corp <Ntt> Neural network type pattern learning method and pattern processor
WO2013118225A1 (en) * 2012-02-08 2013-08-15 日本電気株式会社 Optimal-query generation device, optimal-query extraction method, and discriminative-model learning method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
STEWART, RUSSELL ET AL.: "Label-Free Supervision of Neural Networks with Physics and Domain Knowledge", PROC. OF THE THIRTY-FIRST AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE (AAAI-17), 2017, pages 2576 - 2582, XP080727537, Retrieved from the Internet <URL:https://www.aaai.org/ocs/index.php/AAAI/AAAI17/paper/view/14967>> [retrieved on 20200617] *

Also Published As

Publication number Publication date
JP2020198097A (en) 2020-12-10

Similar Documents

Publication Publication Date Title
Doumpos et al. Multicriteria decision aid and artificial intelligence: links, theory and applications
US11449684B2 (en) Contrastive pre-training for language tasks
Kotsiantis et al. Combining bagging and boosting
US20180268318A1 (en) Training classification algorithms to predict end-user behavior based on historical conversation data
Nguyen et al. Multiple neural networks for a long term time series forecast
US8543445B2 (en) System and method for direct mailing insurance solicitations utilizing hierarchical bayesian inference for prospect selection
CN112215604A (en) Method and device for identifying information of transaction relationship
Wang et al. A Deep-forest based approach for detecting fraudulent online transaction
US20220414470A1 (en) Multi-Task Attention Based Recurrent Neural Networks for Efficient Representation Learning
US20210232972A1 (en) Methods, mediums, and systems for an unsupervised predictive learning system
Zhang et al. Statistical inference after adaptive sampling in non-markovian environments
WO2020241009A1 (en) Prediction device, learning device, prediction method, and program
US11715291B2 (en) Establishment of general-purpose artificial intelligence system
Panda et al. Predicting stock returns: an experiment of the artificial neural network in Indian stock market
CN110851580B (en) Personalized task type dialog system based on structured user attribute description
Li et al. Temporal supervised learning for inferring a dialog policy from example conversations
CN111445291A (en) Method for providing dynamic decision for social network influence maximization problem
US20240029088A1 (en) System for customer churn prediction and prevention
KR20220083630A (en) Deep learning using embedding vectors of heterogeneous data-sets in multi-distributed database environments
Momeni et al. A neuro-fuzzy based approach to software quality requirements prioritization
TWI676902B (en) Method and system of analyzing conversation contents using chatting robot
Feng et al. Construction and application of learning petri net
Chawla et al. Counsellor chatbot
Perez Dialog state tracking, a machine reading approach using a memory-enhanced neural network
Branchi et al. Recommending the optimal policy by learning to act from temporal data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20812683

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20812683

Country of ref document: EP

Kind code of ref document: A1