JP2022154442A - Learning apparatus, learning method, and program - Google Patents

Learning apparatus, learning method, and program Download PDF

Info

Publication number
JP2022154442A
JP2022154442A JP2021057480A JP2021057480A JP2022154442A JP 2022154442 A JP2022154442 A JP 2022154442A JP 2021057480 A JP2021057480 A JP 2021057480A JP 2021057480 A JP2021057480 A JP 2021057480A JP 2022154442 A JP2022154442 A JP 2022154442A
Authority
JP
Japan
Prior art keywords
inference
explanation
unit
value
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021057480A
Other languages
Japanese (ja)
Other versions
JP7092228B1 (en
Inventor
恭史 国定
Yasushi Kunisada
素子 加賀谷
Motoko Kagaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2021057480A priority Critical patent/JP7092228B1/en
Application granted granted Critical
Publication of JP7092228B1 publication Critical patent/JP7092228B1/en
Publication of JP2022154442A publication Critical patent/JP2022154442A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a technology for generating a trained model configured to obtain a similar result with any explanation methods applied thereto.SOLUTION: A learning apparatus includes: an input unit which acquires leaning data and a correct answer value for the learning data; an inference unit which outputs a first inference value based on the learning data and a machine learning algorithm; an explanation unit which outputs multiple pieces of explanation information which are grounds for determining the first inference value; an inference evaluation unit which obtains an inference evaluation result based on the correct answer value and the first inference value; an explanation evaluation unit which obtains an explanation evaluation result based on the multiple pieces of explanation information; and an update unit which updates a first weight parameter of the machine learning algorithm based on the inference evaluation result and the explanation evaluation result.SELECTED DRAWING: Figure 1

Description

本発明は、学習装置、学習方法およびプログラムに関する。 The present invention relates to a learning device, a learning method and a program.

ニューラルネットワーク(以下、「NN」とも表記する。)は、画像認識などにおいて高い性能を有する。しかし、一般的にNNは、膨大なパラメータと複雑なモデルとによって構成されており、NNのパラメータとNNからの出力結果との関係を解釈することが難しい。そのため、NNのパラメータを人手で修正し、NNの精度を向上させることが困難であるという課題がある。かかる課題を解決するため、NNの判断根拠を説明する手法が幾つか提案されている。 A neural network (hereinafter also referred to as “NN”) has high performance in image recognition and the like. However, NNs are generally composed of a huge number of parameters and complicated models, and it is difficult to interpret the relationship between NN parameters and output results from NNs. Therefore, there is a problem that it is difficult to improve the accuracy of the NN by manually correcting the parameters of the NN. In order to solve this problem, several techniques have been proposed for explaining the basis of judgment of the NN.

例えば、NNの入力と出力の勾配を利用し、入力の領域ごとの推論結果に対する貢献度を計算し、計算した貢献度を提示することによってNNの判断根拠を説明する手法が知られている(例えば、特許文献1および非特許文献1参照)。さらに、分類問題において、それぞれの分類クラスの典型例(プロトタイプ)を学習し、プロトタイプとの類似度を入力の領域ごとに表示することによってNNの判断根拠を説明する手法が知られている(例えば、特許文献2参照)。 For example, there is a known method that uses the gradient of the NN's input and output, calculates the degree of contribution to the inference result for each input region, and presents the calculated contribution to explain the basis for the NN's judgment ( For example, see Patent Document 1 and Non-Patent Document 1). Furthermore, in the classification problem, there is known a method of learning a typical example (prototype) of each classification class and displaying the degree of similarity with the prototype for each region of the input to explain the basis for the NN's decision (for example, , see Patent Document 2).

特表2018-513507号公報Japanese translation of PCT publication No. 2018-513507

Daniel Smilkov、他4名、"SmoothGrad: removing noise by adding noise"、[online]、[令和3年3月19日検索]、インターネット<https://arxiv.org/abs/1706.03825>Daniel Smilkov, 4 others, "SmoothGrad: removing noise by adding noise", [online], [searched on March 19, 2021], Internet <https://arxiv.org/abs/1706.03825> Chaofan Chen、他5名、"This Looks Like That: Deep Learningfor Interpretable Image Recognition"、[online]、[令和3年3月19日検索]、インターネット<https://arxiv.org/abs/1806.10574>Chaofan Chen, 5 others, "This Looks Like That: Deep Learning for Interpretable Image Recognition", [online], [searched March 19, 2021], Internet <https://arxiv.org/abs/1806.10574> Hiroshi Fukui、他3名、"AttentionBranch Network:Learning of Attention Mechanism for Visual Explanation"、[online]、[令和3年3月19日検索]、インターネット<https://arxiv.org/abs/1812.10025>Hiroshi Fukui, 3 others, "AttentionBranch Network: Learning of Attention Mechanism for Visual Explanation", [online], [searched March 19, 2021], Internet <https://arxiv.org/abs/1812.10025>

しかしながら、上記の説明手法は、いずれも推論結果に寄与した入力の領域を提示するものであるにも関わらず、同一のNNモデルに説明手法を適用しても説明手法ごとに異なる結果が得られるという課題があった。説明手法ごとに異なる結果が得られる場合、説明の信頼性が失われる場合がある。そこで、どの説明手法を適用しても類似した結果が得られる学習済みモデル(例えば、NNの学習済みモデル)を生成する技術が提供されることが望まれる。 However, although all of the above explanation methods present the regions of the input that contributed to the inference results, different results are obtained for each explanation method even if the explanation methods are applied to the same NN model. There was a problem. If different explanation methods yield different results, the explanation may become unreliable. Therefore, it is desired to provide a technique for generating a trained model (for example, a trained model of NN) that provides similar results regardless of which explanation method is applied.

上記問題を解決するために、本発明のある観点によれば、学習用データと前記学習用データの正解値とを取得する入力部と、前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力する推論部と、前記第1の推論値の判断根拠の複数の説明情報を出力する説明部と、前記正解値と前記第1の推論値とに基づいて推論評価結果を得る推論評価部と、前記複数の説明情報に基づいて説明評価結果を得る説明評価部と、前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行う更新部と、を備える、学習装置が提供される。 In order to solve the above problem, according to one aspect of the present invention, an input unit that acquires learning data and a correct value of the learning data, and a first learning data based on the learning data and a machine learning algorithm an inference unit for outputting an inference value of; an explanation unit for outputting a plurality of pieces of explanation information of judgment grounds for said first inference value; and obtaining an inference evaluation result based on said correct value and said first inference value. an inference evaluation unit, an explanation evaluation unit that obtains an explanation evaluation result based on the plurality of pieces of explanation information, and updates a first weight parameter of the machine learning algorithm based on the inference evaluation result and the explanation evaluation result. and an updating unit for performing.

前記説明部は、複数の説明手法に基づいて前記複数の説明情報を出力してもよい。 The explanation unit may output the plurality of pieces of explanation information based on a plurality of explanation methods.

前記複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播が可能な関数を含んでもよい。 At least one explanation technique among the plurality of explanation techniques may include a function capable of error backpropagation.

前記説明部は、第2の重みパラメータを有し、前記更新部は、誤差逆伝播法によって前記第2の重みパラメータの更新を行ってもよい。 The explanation unit may have a second weight parameter, and the update unit may update the second weight parameter by error backpropagation.

前記機械学習アルゴリズムは、ニューラルネットワークを含んでもよい。 The machine learning algorithms may include neural networks.

前記推論部は、前記学習用データと前記ニューラルネットワークとに基づいて前記第1の推論値と特徴量とを出力し、前記複数の説明手法のうち少なくとも一つの説明手法は、前記第1の推論値と前記特徴量と前記ニューラルネットワークとに基づいて、説明情報を出力してもよい。 The inference unit outputs the first inference value and the feature amount based on the learning data and the neural network, and at least one of the plurality of explanation methods uses the first inference method. Explanation information may be output based on the value, the feature amount, and the neural network.

前記複数の説明手法のうち少なくとも一つの説明手法は、前記第1の推論値と前記特徴量と前記ニューラルネットワークとに基づいて、説明情報および第2の推論値を出力し、前記推論評価部は、前記正解値と前記第1の推論値と前記第2の推論値とに基づいて前記推論評価結果を得てもよい。 At least one explanation technique among the plurality of explanation techniques outputs explanation information and a second inference value based on the first inference value, the feature amount, and the neural network, and the inference evaluation unit , the inference evaluation result may be obtained based on the correct value, the first inference value and the second inference value.

前記更新部は、前記推論評価結果と前記説明評価結果との加算結果に基づいて、前記第1の重みパラメータの更新を行ってもよい。 The updating unit may update the first weighting parameter based on an addition result of the inference evaluation result and the explanation evaluation result.

前記複数の説明情報それぞれは、前記第1の推論値に与える前記学習用データの貢献度の大きさを示す情報であってもよい。 Each of the plurality of explanatory information may be information indicating a degree of contribution of the learning data given to the first inference value.

前記貢献度の大きさを示す情報は、前記第1の推論値に与える前記学習用データの貢献度の大きさを領域ごとに示すヒートマップであってもよい。 The information indicating the degree of contribution may be a heat map indicating the degree of contribution of the learning data given to the first inference value for each region.

前記貢献度の大きさを示す情報は、前記第1の推論値に与える前記学習用データの貢献度の大きさを示す言語説明情報であってもよい。 The information indicating the degree of contribution may be linguistic explanation information indicating the degree of contribution of the learning data given to the first inference value.

また、本発明の別の観点によれば、学習用データと前記学習用データの正解値とを取得することと、前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力することと、前記第1の推論値の判断根拠の複数の説明情報を出力することと、前記正解値と前記第1の推論値とに基づいて推論評価結果を得ることと、前記複数の説明情報に基づいて説明評価結果を得ることと、前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行うことと、を備える、学習方法が提供される。 According to another aspect of the present invention, acquiring learning data and a correct value of the learning data, and outputting a first inference value based on the learning data and a machine learning algorithm outputting a plurality of pieces of explanation information as basis for judgment of the first inference value; obtaining an inference evaluation result based on the correct value and the first inference value; and producing the plurality of pieces of explanation information. and updating a first weight parameter of the machine learning algorithm based on the inference evaluation result and the explanation evaluation result. be.

また、本発明の別の観点によれば、コンピュータを、学習用データと前記学習用データの正解値とを取得する入力部と、前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力する推論部と、前記第1の推論値の判断根拠の複数の説明情報を出力する説明部と、前記正解値と前記第1の推論値とに基づいて推論評価結果を得る推論評価部と、前記複数の説明情報に基づいて説明評価結果を得る説明評価部と、前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行う更新部と、を備える学習装置として機能させるプログラムが提供される。 According to another aspect of the present invention, a computer comprises an input unit for acquiring learning data and a correct value of the learning data, and a first inference based on the learning data and a machine learning algorithm. an inference unit for outputting a value; an explanation unit for outputting a plurality of pieces of explanation information of the basis for judgment of said first inference value; and an inference evaluation for obtaining an inference evaluation result based on said correct value and said first inference value. an explanation evaluation unit that obtains an explanation evaluation result based on the plurality of explanation information; and an update that updates a first weight parameter of the machine learning algorithm based on the inference evaluation result and the explanation evaluation result. A program functioning as a learning device comprising a part is provided.

以上説明したように本発明によれば、どの説明手法を適用しても類似した結果が得られる学習済みモデルを生成する技術が提供される。 As described above, according to the present invention, there is provided a technique for generating a trained model that provides similar results regardless of which explanation method is applied.

本発明の第1の実施形態に係る学習装置の機能構成例を示す図である。1 is a diagram showing a functional configuration example of a learning device according to a first embodiment of the present invention; FIG. 推論値と説明手法と説明情報と損失関数との関係を示す図である。FIG. 4 is a diagram showing the relationship between an inference value, an explanation method, explanation information, and a loss function; 同実施形態に係る学習装置の動作例を示すフローチャートである。4 is a flow chart showing an example of the operation of the learning device according to the embodiment; 本発明の第2の実施形態に係る学習装置の機能構成例を示す図である。FIG. 7 is a diagram showing an example of functional configuration of a learning device according to a second embodiment of the present invention; 同実施形態に係る学習装置の動作例を示すフローチャートである。4 is a flow chart showing an example of the operation of the learning device according to the embodiment; 学習装置の例としての情報処理装置のハードウェア構成を示す図である。1 is a diagram showing a hardware configuration of an information processing device as an example of a learning device; FIG.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。 In addition, in this specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by attaching different numerals after the same reference numerals. However, when there is no particular need to distinguish between a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are used. Also, similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, when there is no particular need to distinguish between similar components of different embodiments, only the same reference numerals are used.

(0.実施形態の概要)
本発明の実施形態の概要について説明する。本発明の実施形態では、学習用データと正解値との組み合わせに基づいてニューラルネットワークの学習を行う学習装置について説明する。しかし、ニューラルネットワークは、機械学習アルゴリズムの一例に過ぎない。したがって、ニューラルネットワークの代わりに他の機械学習アルゴリズムが用いられてもよい。例えば、機械学習アルゴリズムの他の一例として、SVM(Support Vector Machine)などが用いられてもよい。
(0. Outline of embodiment)
An outline of an embodiment of the present invention will be described. In the embodiment of the present invention, a learning device that performs neural network learning based on a combination of learning data and correct values will be described. But neural networks are just one example of machine learning algorithms. Therefore, other machine learning algorithms may be used instead of neural networks. For example, SVM (Support Vector Machine) or the like may be used as another example of the machine learning algorithm.

(1.第1の実施形態)
まず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る学習装置10の機能構成例を示す図である。図1に示されるように、本発明の第1の実施形態に係る学習装置10は、入力部115と、推論部121と、説明部123と、推論評価部140と、説明評価部150と、更新部160とを備える。
(1. First embodiment)
First, a first embodiment of the present invention will be described. FIG. 1 is a diagram showing a functional configuration example of a learning device 10 according to the first embodiment of the present invention. As shown in FIG. 1, the learning device 10 according to the first embodiment of the present invention includes an input unit 115, an inference unit 121, an explanation unit 123, an inference evaluation unit 140, an explanation evaluation unit 150, and an updating unit 160 .

本発明の第1の実施形態では、推論部121と説明部123とが、ニューラルネットワークを含んで構成される場合を主に想定する。以下では、ニューラルネットワークを「NN」とも表記する。より詳細に、推論部121が、ニューラルネットワーク(以下、「推論NN」とも表記する。)を含み、しかし、推論部121は、具体的にどのような構成であってもよい。 In the first embodiment of the present invention, it is mainly assumed that the inference unit 121 and the explanation unit 123 include neural networks. Below, a neural network is also written as "NN." More specifically, the inference unit 121 includes a neural network (hereinafter also referred to as “inference NN”), but the inference unit 121 may have any specific configuration.

例えば、推論部121は、誤差逆伝播が可能な関数を含んでいれば、推論部121の一部が特定の推論アルゴリズムに基づく推論を行ってもよい。 For example, if the inference unit 121 includes a function capable of error backpropagation, part of the inference unit 121 may perform inference based on a specific inference algorithm.

入力部115と、推論部121と、説明部123と、推論評価部140と、説明評価部150と、更新部160とは、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、図示しない記憶部によって適宜記憶される。 The input unit 115, the inference unit 121, the explanation unit 123, the inference evaluation unit 140, the explanation evaluation unit 150, and the update unit 160 are arithmetic units such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). , and a program stored in a ROM (Read Only Memory) is developed in a RAM by an arithmetic unit and executed, thereby realizing its function. At this time, a computer-readable recording medium recording the program may also be provided. Alternatively, these blocks may be composed of dedicated hardware, or may be composed of a combination of multiple pieces of hardware. Data necessary for calculation by the calculation device are appropriately stored in a storage unit (not shown).

データセット110、推論NNの重みパラメータ132(第1の重みパラメータ)および説明部123が有する重みパラメータ133(第2の重みパラメータ)は、図示しない記憶部によって記憶される。かかる記憶部は、RAM(Random Access Memory)、ハードディスクドライブまたはフラッシュメモリなどのメモリによって構成されてよい。 The data set 110, the weighting parameter 132 (first weighting parameter) of the inference NN, and the weighting parameter 133 (second weighting parameter) of the explanation section 123 are stored in a storage section (not shown). The storage unit may be composed of a memory such as a RAM (Random Access Memory), a hard disk drive, or a flash memory.

初期状態において、推論NNの重みパラメータ132および説明部123が有する重みパラメータ133それぞれには、初期値が設定されている。例えば、これらに設定される初期値は、ランダムな値であってよいが、どのような値であってもよい。例えば、これらに設定される初期値は、あらかじめ学習によって得られた学習済みの値であってもよい。 In the initial state, the weight parameter 132 of the inference NN and the weight parameter 133 of the explanation part 123 are each set to an initial value. For example, the initial values set to these may be random values, but may be any value. For example, the initial values set for these may be learned values obtained in advance through learning.

(データセット110)
データセット110は、複数の学習用データ(入力データ)と当該複数の学習用データそれぞれの正解値とを含んで構成される。なお、本発明の実施形態では、学習用データが画像データである場合(特に、静止画像データである場合)を主に想定する。しかし、学習用データの種類は特に限定されず、画像データ以外も学習用データとして用いられ得る。例えば、学習用データは、複数のフレームを含んだ動画像データであってもよいし、音響データであってもよい。
(Dataset 110)
The data set 110 includes a plurality of learning data (input data) and correct values for each of the plurality of learning data. In the embodiment of the present invention, it is mainly assumed that the learning data is image data (particularly still image data). However, the type of learning data is not particularly limited, and data other than image data can be used as learning data. For example, the learning data may be moving image data including a plurality of frames, or may be sound data.

(入力部115)
入力部115は、データセット110から学習用データおよび正解値の組み合わせを順次に取得する。入力部115は、学習用データおよび正解値の組み合わせを順次に推論部121に出力する。
(Input unit 115)
The input unit 115 sequentially acquires combinations of learning data and correct values from the data set 110 . Input unit 115 sequentially outputs combinations of learning data and correct values to inference unit 121 .

なお、例えば、入力部115は、データセット110から学習用データおよび正解値の組み合わせを全部取得し終わった場合には、最初から当該組み合わせを取得し直して再度出力する動作を所定の回数繰り返してよい。かかる場合には、入力部115よりも後段のブロックにおいても、再度の入力に基づいて順次に各自の処理が繰り返し実行されてよい。 Note that, for example, when the input unit 115 has acquired all combinations of learning data and correct values from the data set 110, the input unit 115 repeats the operation of acquiring the combinations again from the beginning and outputting them again a predetermined number of times. good. In such a case, the blocks subsequent to the input unit 115 may sequentially repeat their processes based on the re-input.

(推論部121)
推論部121は、入力部115から入力された入力データと推論NNとに基づいて、推論値(第1の推論値)を得る。推論NNの重みパラメータ132は図示しない記憶部によって記憶されている。したがって、推論部121は、図示しない記憶部から重みパラメータ132を取得し、取得した重みパラメータ132と入力部115から出力された入力データとに基づいて推論NNによる推論を行って推論値を得る。
(Inference unit 121)
The inference unit 121 obtains an inference value (first inference value) based on the input data input from the input unit 115 and the inference NN. The weight parameter 132 of the inference NN is stored in a storage unit (not shown). Therefore, the inference unit 121 acquires the weight parameter 132 from a storage unit (not shown), performs inference by the inference NN based on the acquired weight parameter 132 and the input data output from the input unit 115, and obtains an inference value.

なお、本明細書においては、ニューラルネットワークへの入力に基づいてニューラルネットワークからの出力を得ることを広く「推論」と言う。 In this specification, obtaining an output from a neural network based on an input to the neural network is broadly referred to as "inference".

推論部121は、推論値を説明部123および推論評価部140それぞれに出力する。なお、後にも説明するように、説明部123に含まれる複数の説明手法の中には、推論NNから出力される特徴量を必要とする説明手法が存在する場合があり得る。かかる場合には、推論部121は、推論値とともに、推論NNの中間層から出力される特徴量を説明部123に出力してよい。 The inference unit 121 outputs inference values to the explanation unit 123 and the inference evaluation unit 140, respectively. As will be described later, among the plurality of explanation methods included in the explanation unit 123, there may be an explanation method that requires the feature amount output from the inference NN. In such a case, the inference unit 121 may output the feature amount output from the intermediate layer of the inference NN to the explanation unit 123 together with the inference value.

推論NNの具体的な構成は、特に限定されない。しかし、推論NNの出力の形式は、学習用データに対応する正解値の形式と合わせて設定されているのがよい。例えば、正解値が分類問題のクラスである場合、推論NNの出力は、クラス数分の長さを有するone-hotベクトルであるとよい。 A specific configuration of the inference NN is not particularly limited. However, it is preferable that the output format of the inference NN is set together with the format of the correct value corresponding to the learning data. For example, if the correct answer values are classes of a classification problem, the output of the inference NN may be a one-hot vector with a length equal to the number of classes.

(説明部123)
説明部123は、推論部121から入力された推論値の判断根拠の複数の説明情報を説明評価部150に出力する。より詳細に、説明部123は、複数の説明手法を含んで構成されている。そして、説明部123は、複数の説明手法に基づいて当該複数の説明手法それぞれに対応する説明情報を生成し、複数の説明手法それぞれに対応する説明情報を複数の説明情報として説明評価部150に出力する。
(Description part 123)
Explanation unit 123 outputs to explanation evaluation unit 150 a plurality of pieces of explanation information of the basis for determining the inference value input from inference unit 121 . More specifically, the explanation part 123 is configured including a plurality of explanation methods. Then, the explanation unit 123 generates explanation information corresponding to each of the plurality of explanation techniques based on the plurality of explanation techniques, and sends the explanation information corresponding to each of the plurality of explanation techniques to the explanation evaluation unit 150 as a plurality of explanation information. Output.

ここで、複数の説明情報それぞれは、推論部121から入力された推論値に与える入力データの貢献度の大きさを示す情報である。説明手法は、このような説明情報を生成する手法であれば、具体的にはどのような手法であってもよい。例えば、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値に基づいて、説明情報を生成してもよい。 Here, each of the plurality of explanation information is information indicating the degree of contribution of the input data given to the inference value input from the inference section 121 . The explanation technique may be any technique as long as it is a technique for generating such explanation information. For example, at least one explanation technique among the plurality of explanation techniques may generate explanation information based on an inference value input from the inference unit 121 .

より詳細に、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値と推論NNとに基づいて、説明情報を得てもよい。 More specifically, at least one of the plurality of explanation methods may obtain explanation information based on the inference value and the inference NN input from the inference unit 121 .

あるいは、上記したように、推論部121から説明部123に推論値だけではなく特徴量も入力される場合があり得る。かかる場合には、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値と特徴量と推論NNとに基づいて、説明情報を得てもよい。すなわち、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値と特徴量とに基づいて推論NNによる推論を行って説明情報を得てもよい。 Alternatively, as described above, not only the inference value but also the feature amount may be input from the inference unit 121 to the explanation unit 123 . In such a case, at least one explanation technique among the plurality of explanation techniques may obtain explanation information based on the inference value, the feature amount, and the inference NN input from the inference unit 121 . That is, at least one of the plurality of explanation methods may obtain explanation information by performing inference by the inference NN based on the inference value and feature amount input from the inference unit 121 .

例えば、複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播が可能な関数を含んでいてもよい。このとき、後に説明するように、更新部160によって説明部123が有する重みパラメータ133が誤差逆伝播法によって更新され得る。すなわち、複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播法による更新後の重みパラメータ133によって説明情報を生成してもよい。 For example, at least one explanation technique among the plurality of explanation techniques may include a function capable of error backpropagation. At this time, as will be described later, the weight parameter 133 of the description unit 123 can be updated by the update unit 160 by error backpropagation. That is, at least one of the plurality of explanation methods may generate explanation information using the updated weight parameters 133 by the error backpropagation method.

非特許文献1には、誤差逆伝播法による更新後の重みパラメータによって説明情報を生成する説明手法の例が記載されている。非特許文献1に記載された説明手法は、ニューラルネットワークへの入力のうち推論値への寄与度が高い領域を示すヒートマップを説明情報として出力する説明手法である。本発明の実施形態に対しても、非特許文献1に記載されている説明手法を適用することが可能である。 Non-Patent Literature 1 describes an example of an explanation method for generating explanation information using updated weighting parameters by the error backpropagation method. The explanation method described in Non-Patent Document 1 is an explanation method that outputs, as explanation information, a heat map indicating regions of inputs to a neural network that have a high degree of contribution to an inference value. The explanation method described in Non-Patent Document 1 can also be applied to the embodiments of the present invention.

すなわち、本発明の実施形態において、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から出力される推論値に与える入力データの貢献度の大きさを領域ごとに示すヒートマップを生成してもよい。 That is, in the embodiment of the present invention, at least one of the plurality of explanation methods generates a heat map showing the degree of contribution of input data to the inference value output from the inference unit 121 for each region. You may

例えば、説明部123に含まれる複数の説明手法は、非特許文献1に記載された説明手法を用い、説明手法のパラメータの値を変更することによって用意されてもよい。あるいは、説明部123に含まれる複数の説明手法は、非特許文献1に記載された説明手法と、特許文献1に記載された説明手法とを組み合わせることによって用意されてもよい。その他にも、Vanilla Gradient、Grad-CAMといった各種の説明手法が適用され得る。 For example, a plurality of explanation techniques included in the explanation section 123 may be prepared by using the explanation technique described in Non-Patent Document 1 and changing the parameter values of the explanation technique. Alternatively, a plurality of explanation techniques included in the explanation section 123 may be prepared by combining the explanation technique described in Non-Patent Document 1 and the explanation technique described in Patent Document 1. In addition, various explanation methods such as Vanilla Gradient and Grad-CAM can be applied.

一例として、説明部123に含まれる説明手法を示す関数をFk(k=1,2・・・,n)とし、関数Fkから出力される説明情報をMk(k=1,2・・・,n)とし、推論値をxとすると、以下の数式(1)に示す関係が成立し得る。 As an example, let Fk (k=1, 2, . n) and the inference value is x, the relationship shown in the following formula (1) can be established.

Mk=Fk(x)・・・(1) Mk=Fk(x) (1)

なお、図2には、推論値xと説明手法Fk(k=1,2・・・,n)と説明情報Mk(k=1,2・・・,n)と損失関数Gとの関係が示されている。 2 shows the relationship between the inference value x, the explanation method Fk (k=1, 2, . . . , n), the explanation information Mk (k=1, 2, . . . , n), and the loss function G. It is shown.

(推論評価部140)
推論評価部140は、推論部121から入力された推論値と入力部115によって取得された正解値とに基づいて、推論評価結果を得る。より詳細に、推論評価部140は、推論部121から入力された推論値と入力部115によって取得された正解値とを比較することによって、推論評価結果を得る。推論評価部140は、推論評価結果を更新部160に出力する。
(Inference evaluation unit 140)
The inference evaluation unit 140 obtains an inference evaluation result based on the inference value input from the inference unit 121 and the correct value obtained by the input unit 115 . More specifically, the inference evaluation unit 140 obtains an inference evaluation result by comparing the inference value input from the inference unit 121 and the correct value obtained by the input unit 115 . The inference evaluation unit 140 outputs the inference evaluation result to the update unit 160 .

本発明の実施形態では、推論評価部140が、推論部121から入力された推論値と入力部115によって取得された正解値とに応じた損失関数を推論評価結果として算出する場合を想定する。ここで、推論値と正解値とに応じた損失関数は特定の関数に限定されず、一般的なニューラルネットワークにおいて用いられる損失関数と同様の損失関数が用いられてよい。例えば、推論値と正解値とに応じた損失関数は、正解値と推論値との差分に基づく平均二乗誤差であってもよい。 In the embodiment of the present invention, it is assumed that the inference evaluation unit 140 calculates a loss function corresponding to the inference value input from the inference unit 121 and the correct value obtained by the input unit 115 as the inference evaluation result. Here, the loss function according to the inference value and the correct value is not limited to a specific function, and a loss function similar to loss functions used in general neural networks may be used. For example, the loss function according to the inferred value and the correct value may be the mean squared error based on the difference between the correct value and the inferred value.

(説明評価部150)
説明評価部150は、説明部123から入力された複数の説明情報に基づいて説明評価結果を得る。より詳細に、説明評価部150は、説明部123から入力された複数の説明情報同士を比較することによって、説明評価結果を得る。説明評価部150は、説明評価結果を更新部160に出力する。
(Description evaluation unit 150)
Explanation evaluation unit 150 obtains explanation evaluation results based on a plurality of pieces of explanation information input from explanation unit 123 . More specifically, explanation evaluation unit 150 obtains explanation evaluation results by comparing a plurality of pieces of explanation information input from explanation unit 123 . Explanation evaluation section 150 outputs the explanation evaluation result to update section 160 .

本発明の実施形態では、説明評価部150が、説明部123から入力された複数の説明情報に応じた損失関数を説明評価結果として算出する場合を想定する。ここで、複数の説明情報に応じた損失関数は特定の関数に限定されず、一般的なニューラルネットワークにおいて用いられる損失関数と同様の損失関数が用いられてよい。例えば、複数の説明情報に応じた損失関数は、複数の説明情報の平均値と当該複数の説明情報それぞれとの差分に基づく平均二乗誤差であってもよい。 In the embodiment of the present invention, it is assumed that the explanation evaluation unit 150 calculates a loss function according to a plurality of pieces of explanation information input from the explanation unit 123 as explanation evaluation results. Here, the loss function corresponding to the multiple pieces of explanatory information is not limited to a specific function, and a loss function similar to loss functions used in general neural networks may be used. For example, the loss function corresponding to a plurality of explanatory information may be a mean squared error based on the difference between the average value of the plurality of explanatory information and each of the plurality of explanatory information.

一例として、説明部123から入力される複数の説明情報をMk(k=1,2・・・,n)とし、損失関数をGとし、説明評価結果をLとすると、以下の数式(2)に示す関係が成立し得る。 As an example, let Mk (k=1, 2, . The relationship shown in can be established.

L=G(M1,M2,・・・,Mn)・・・(2) L = G (M1, M2, ..., Mn) ... (2)

(更新部160)
更新部160は、推論評価部140から入力された推論評価結果と、説明評価部150から入力された説明評価結果とに基づいて、推論NNの重みパラメータ132の更新を行う。これによって、推論部121から出力される推論値が正解値に近づくように、かつ、説明部123から出力される複数の説明情報同士が互いに近づくように、推論NNの重みパラメータ132が更新され得る。推論NNの重みパラメータ132は、誤差逆伝播法(バックプロパゲーション)によって更新されてよい。
(Update unit 160)
The update unit 160 updates the weight parameter 132 of the inference NN based on the inference evaluation result input from the inference evaluation unit 140 and the explanation evaluation result input from the explanation evaluation unit 150 . As a result, the weight parameter 132 of the inference NN can be updated so that the inference value output from the inference unit 121 approaches the correct value and the plurality of pieces of explanation information output from the explanation unit 123 approach each other. . The weight parameters 132 of the inference NN may be updated by backpropagation.

例えば、更新部160は、推論評価部140から入力された推論評価結果と、説明評価部150から入力された説明評価結果とを加算し、加算結果に基づいて、推論NNの重みパラメータ132の更新を行えばよい。このとき、更新部160は、計算した加算結果を誤差として、誤差逆伝播法(バックプロパゲーション)によって推論NNの重みパラメータ132を更新すればよい。 For example, the update unit 160 adds the inference evaluation result input from the inference evaluation unit 140 and the explanation evaluation result input from the explanation evaluation unit 150, and updates the weight parameter 132 of the inference NN based on the addition result. should be done. At this time, the update unit 160 may update the weight parameter 132 of the inference NN by error back propagation using the calculated addition result as an error.

さらに、更新部160は、説明部123が有する重みパラメータ133を更新してよい。より詳細に、複数の説明手法のうち少なくとも一つの説明手法が、誤差逆伝播が可能な関数を含む場合、更新部160は、推論評価結果と説明評価結果とに基づいて、誤差逆伝播法(バックプロパゲーション)によって、説明部123が有する重みパラメータ133を更新してよい。 Furthermore, the update unit 160 may update the weight parameter 133 that the description unit 123 has. More specifically, when at least one explanation technique among the plurality of explanation techniques includes a function capable of error backpropagation, the update unit 160 performs error backpropagation based on the inference evaluation result and the explanation evaluation result. Backpropagation) may update the weight parameter 133 of the explanation part 123 .

なお、学習の終了条件(すなわち、重みパラメータ更新の終了条件)は特に限定されず、推論NNの学習がある程度行われたことを示す条件であればよい。具体的に、学習の終了件は、損失関数の値が閾値よりも小さいという条件を含んでもよい。あるいは、学習の終了条件は、損失関数の値の変化が閾値よりも小さいという条件(損失関数の値が収束状態になったという条件)を含んでもよい。あるいは、学習の終了条件は、重みパラメータの更新が所定の回数行われたという条件を含んでもよい。あるいは、推論評価部140によって正解値と推論値とに基づいて精度(例えば、正答率など)が算出される場合、学習の終了条件は、精度が所定の割合(例えば、90%など)を超えるという条件を含んでもよい。 Note that the learning termination condition (that is, the weight parameter update termination condition) is not particularly limited as long as it indicates that the learning of the inference NN has been performed to some extent. Specifically, the learning termination condition may include a condition that the value of the loss function is smaller than a threshold. Alternatively, the learning end condition may include a condition that the change in the value of the loss function is smaller than a threshold (a condition that the value of the loss function has converged). Alternatively, the learning termination condition may include a condition that the weighting parameters have been updated a predetermined number of times. Alternatively, when the inference evaluation unit 140 calculates the accuracy (for example, the percentage of correct answers) based on the correct value and the inference value, the learning termination condition is that the accuracy exceeds a predetermined percentage (for example, 90%). may include the condition

(第1の実施形態の動作)
図3を参照しながら、本発明の第1の実施形態に係る学習装置10の動作の流れについて説明する。図3は、本発明の第1の実施形態に係る学習装置10の動作例を示すフローチャートである。
(Operation of the first embodiment)
The flow of operation of the learning device 10 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 3 is a flow chart showing an operation example of the learning device 10 according to the first embodiment of the present invention.

まず、図3に示されたように、入力部115は、データセット110から入力データ(すなわち、学習用データ)および正解値の組み合わせを取得する。さらに、推論部121は、推論NNの重みパラメータ132を取得する(S11)。推論部121は、入力部115によって取得された入力データと推論NNとに基づいて推論を行い(S12)、推論によって得られた推論値を推論評価部140および説明部123それぞれに出力する。 First, as shown in FIG. 3 , the input unit 115 acquires a combination of input data (that is, learning data) and correct values from the data set 110 . Furthermore, the inference unit 121 acquires the weight parameter 132 of the inference NN (S11). The inference unit 121 makes an inference based on the input data and the inference NN obtained by the input unit 115 (S12), and outputs the inference value obtained by the inference to the inference evaluation unit 140 and the explanation unit 123, respectively.

説明部123は、推論部121から入力された推論値に基づいて、複数の説明手法それぞれに対応する説明情報を複数の説明情報として生成する(S13)。説明部123は、生成した複数の説明情報を説明評価部150に出力する。 Based on the inference value input from the inference unit 121, the explanation unit 123 generates explanation information corresponding to each of the plurality of explanation methods as a plurality of pieces of explanation information (S13). The explanation unit 123 outputs the generated plural pieces of explanation information to the explanation evaluation unit 150 .

推論評価部140は、入力部115によって取得された正解値に基づいて、推論部121から入力された推論値を評価して推論評価結果を得る。より詳細に、推論評価部140は、正解値と推論値とに応じた損失関数を推論評価結果として算出する。推論評価部140は、算出した推論評価結果を更新部160に出力する。 The inference evaluation unit 140 evaluates the inference value input from the inference unit 121 based on the correct value obtained by the input unit 115 to obtain an inference evaluation result. More specifically, the inference evaluation unit 140 calculates a loss function according to the correct value and the inference value as an inference evaluation result. The inference evaluation unit 140 outputs the calculated inference evaluation result to the update unit 160 .

説明評価部150は、説明部123から入力された複数の説明情報に基づいて、説明評価結果を得る。より詳細に、説明評価部150は、説明部123から入力された複数の説明情報同士の差分に応じた損失関数を説明評価結果として算出する。説明評価部150は、算出した説明評価結果を更新部160に出力する(S14)。 Explanation evaluation unit 150 obtains explanation evaluation results based on a plurality of pieces of explanation information input from explanation unit 123 . More specifically, the explanation evaluation unit 150 calculates a loss function according to the difference between the multiple pieces of explanation information input from the explanation unit 123 as the explanation evaluation result. The explanation evaluation unit 150 outputs the calculated explanation evaluation result to the updating unit 160 (S14).

更新部160は、推論評価部140から入力された推論評価結果と、説明評価部150から入力された説明評価結果とに基づいて、推論NNの重みパラメータ132の更新を行う(S15)。より詳細に、更新部160は、推論評価結果と説明評価結果とに基づいて、誤差逆伝播法によって、推論NNの重みパラメータ132を更新する。さらに、更新部160は、推論評価結果と説明評価結果とに基づく誤差逆伝播法によって説明部123が有する重みパラメータ133の更新を行う。 The update unit 160 updates the weight parameter 132 of the inference NN based on the inference evaluation result input from the inference evaluation unit 140 and the explanation evaluation result input from the explanation evaluation unit 150 (S15). More specifically, the updating unit 160 updates the weight parameter 132 of the inference NN by error backpropagation based on the inference evaluation result and the explanation evaluation result. Further, the update unit 160 updates the weight parameter 133 of the explanation unit 123 by error backpropagation based on the inference evaluation result and explanation evaluation result.

更新部160は、入力データに基づく重みパラメータの更新が終わるたびに、学習の終了条件が満たされたか否かを判断する(S16)。学習の終了条件が満たされていないと判断した場合には(S16において「NO」)、S11に動作が移行され、入力部115によって次の学習用データが取得され、推論部121、説明部123、推論評価部140、説明評価部150および更新部160それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、更新部160によって、学習の終了条件が満たされたと判断された場合には(S16において「YES」)、学習が終了される。 The updating unit 160 determines whether or not the learning termination condition is satisfied each time the updating of the weight parameter based on the input data is completed (S16). If it is determined that the learning termination condition is not satisfied ("NO" in S16), the operation proceeds to S11, the input unit 115 acquires the next data for learning, and the inference unit 121 and explanation unit 123 , the inference evaluation unit 140, the explanation evaluation unit 150, and the update unit 160, respectively, perform their respective processes again based on the next input data. On the other hand, when updating unit 160 determines that the end condition for learning is satisfied ("YES" in S16), learning ends.

以上、本発明の第1の実施形態に係る学習装置10の動作の流れについて説明した。 The flow of operation of the learning device 10 according to the first embodiment of the present invention has been described above.

(第1の実施形態のまとめ)
以上に説明したように、本発明の第1の実施形態によれば、単一のNNモデルに対して複数の説明情報を生成し、複数の説明情報同士の差分を評価する機構がNNの学習機構に追加される。これにより、複数の説明手法によって生成される複数の説明の差分が小さくなるようにNNの学習が行われ得る。その結果、異なる説明手法が用いられた場合であっても、互いに近い複数の説明情報を生成するモデル(すなわち、説明に一貫性のあるモデル)を得ることができる。
(Summary of the first embodiment)
As described above, according to the first embodiment of the present invention, a mechanism for generating a plurality of explanatory information for a single NN model and evaluating the difference between the plurality of explanatory information is the learning function of the NN. added to the mechanism. As a result, the NN can be trained such that the difference between the multiple explanations generated by the multiple explanation methods is small. As a result, even when different explanation methods are used, it is possible to obtain a model that generates a plurality of pieces of explanation information close to each other (that is, a model with consistent explanation).

以上、本発明の第1の実施形態について説明した。 The first embodiment of the present invention has been described above.

(2.第2の実施形態)
続いて、本発明の第2の実施形態について説明する。図4は、本発明の第2の実施形態に係る学習装置20の機能構成例を示す図である。図4に示されるように、本発明の第2の実施形態に係る学習装置20は、本発明の第1の実施形態に係る学習装置10と同様に、入力部115と、推論部121と、説明評価部150と、更新部160とを備える。さらに、本発明の第2の実施形態に係る学習装置20は、説明部223と、推論評価部240とを備える。
(2. Second embodiment)
Next, a second embodiment of the invention will be described. FIG. 4 is a diagram showing a functional configuration example of the learning device 20 according to the second embodiment of the present invention. As shown in FIG. 4, the learning device 20 according to the second embodiment of the present invention includes an input unit 115, an inference unit 121, and A description evaluation unit 150 and an update unit 160 are provided. Furthermore, the learning device 20 according to the second embodiment of the present invention includes an explanation unit 223 and an inference evaluation unit 240 .

本発明の第2の実施形態においても、本発明の第1の実施形態と同様に、データセット110、入力部115、推論部121、説明評価部150および更新部160の機能が発揮される。したがって、以下では、説明部223および推論評価部240について主に説明を行う。 Also in the second embodiment of the present invention, the functions of the data set 110, the input section 115, the inference section 121, the explanation evaluation section 150 and the update section 160 are exhibited as in the first embodiment of the present invention. Therefore, the explanation part 223 and the inference evaluation part 240 are mainly explained below.

説明部223および推論評価部240は、CPUまたはGPUなどの演算装置を含み、ROMにより記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、図示しない記憶部によって適宜記憶される。 Explanation unit 223 and reasoning evaluation unit 240 include an arithmetic device such as a CPU or GPU, and their functions can be realized by the arithmetic device expanding a program stored in ROM into RAM and executing the program. At this time, a computer-readable recording medium recording the program may also be provided. Alternatively, these blocks may be composed of dedicated hardware, or may be composed of a combination of multiple pieces of hardware. Data necessary for calculation by the calculation device are appropriately stored in a storage unit (not shown).

(説明部223)
説明部223は、本発明の第1の実施形態に係る説明部123と同様に、推論部121から入力された推論値の判断根拠の複数の説明情報を説明評価部150に出力する。例えば、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値に基づいて、説明情報を生成してもよい。
(Description part 223)
The explanation unit 223 outputs, to the explanation evaluation unit 150, a plurality of pieces of explanation information of the judgment basis of the inference value input from the inference unit 121, similarly to the explanation unit 123 according to the first embodiment of the present invention. For example, at least one explanation technique among the plurality of explanation techniques may generate explanation information based on an inference value input from the inference unit 121 .

複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値と推論NNとに基づいて、説明情報を得てもよい。本発明の第2の実施形態では、推論部121から説明部223に推論値だけではなく特徴量も入力される場合を想定する。かかる場合、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値と特徴量と推論NNとに基づいて、説明情報を得る。 At least one of the plurality of explanation methods may obtain explanation information based on the inference value and the inference NN input from the inference unit 121 . In the second embodiment of the present invention, it is assumed that not only an inference value but also a feature amount is input from the inference unit 121 to the explanation unit 223 . In such a case, at least one of the plurality of explanation methods obtains explanation information based on the inference value, the feature amount, and the inference NN input from the inference unit 121 .

本発明の第1の実施形態と同様に、複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播が可能な関数を含んでいてもよい。このとき、更新部160によって説明部123が有する重みパラメータ133が誤差逆伝播法によって更新され得る。すなわち、複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播法による更新後の重みパラメータ133によって説明情報を生成してもよい。 As in the first embodiment of the present invention, at least one explanation technique among the plurality of explanation techniques may include a function capable of error backpropagation. At this time, the weight parameter 133 of the explanation unit 123 can be updated by the update unit 160 by the error backpropagation method. That is, at least one of the plurality of explanation methods may generate explanation information using the updated weight parameters 133 by the error backpropagation method.

また、本発明の第2の実施形態では、複数の説明手法のうち少なくとも一つの説明手法が、説明情報の生成だけでなく、推論値(第2の推論値)を算出する場合を想定する。かかる場合には、説明部123は、複数の説明情報だけでなく、このようにして算出した推論値も推論評価部240に出力する。 Further, in the second embodiment of the present invention, it is assumed that at least one explanation technique out of a plurality of explanation techniques not only generates explanation information but also calculates an inference value (second inference value). In such a case, the explanation unit 123 outputs not only the plurality of pieces of explanation information but also the inference value thus calculated to the inference evaluation unit 240 .

非特許文献3には、ニューラルネットワークから出力される特徴量に基づいて、ニューラルネットワークへの入力のうち推論値への寄与度が高い領域を示すヒートマップを説明情報として出力するとともに、寄与度と特徴量とに基づいて推論を行い、推論値を出力する説明手法の例が記載されている。本発明の実施形態に対しても、非特許文献3に記載されている説明手法を適用することが可能である。 In Non-Patent Document 3, based on the feature amount output from the neural network, a heat map indicating a region with a high degree of contribution to the inference value among the inputs to the neural network is output as explanatory information. An example of an explanation method is described in which inference is made based on feature values and an inference value is output. The explanation method described in Non-Patent Document 3 can also be applied to the embodiment of the present invention.

例えば、説明部223に含まれる複数の説明手法は、非特許文献3に記載された説明手法を用い、説明手法のパラメータの値を変更することによって用意されてもよい。あるいは、説明部223に含まれる複数の説明手法は、非特許文献3に記載された説明手法と、他の説明手法とを組み合わせることによって用意されてもよい。 For example, a plurality of explanation techniques included in the explanation section 223 may be prepared by using the explanation technique described in Non-Patent Document 3 and changing the parameter values of the explanation technique. Alternatively, the plurality of explanation techniques included in the explanation section 223 may be prepared by combining the explanation technique described in Non-Patent Document 3 and other explanation techniques.

推論評価部240は、推論部121から入力された推論値と入力部115によって取得された正解値と説明部223から入力された推論値とに基づいて、推論評価結果を得る。より詳細に、推論評価部240は、推論部121から入力された推論値と入力部115によって取得された正解値とを比較するとともに、説明部223から入力された推論値と入力部115によって取得された正解値とを比較することによって、推論評価結果を得る。推論評価部240は、推論評価結果を更新部160に出力する。 Inference evaluation unit 240 obtains an inference evaluation result based on the inference value input from inference unit 121 , the correct value obtained by input unit 115 , and the inference value input from explanation unit 223 . More specifically, the inference evaluation unit 240 compares the inference value input from the inference unit 121 and the correct value obtained by the input unit 115, and compares the inference value input from the explanation unit 223 with the inference value obtained by the input unit 115. An inference evaluation result is obtained by comparing with the obtained correct answer value. The inference evaluation unit 240 outputs the inference evaluation result to the update unit 160 .

本発明の実施形態では、推論評価部240が、推論部121から入力された推論値および説明部223から入力された推論値と入力部115によって取得された正解値とに応じた損失関数を推論評価結果として算出する場合を想定する。ここで、本発明の第1の実施形態と同様に、推論値と正解値とに応じた損失関数は特定の関数に限定されない。 In the embodiment of the present invention, the inference evaluation unit 240 infers a loss function according to the inference value input from the inference unit 121, the inference value input from the explanation unit 223, and the correct value obtained by the input unit 115. Assume a case where it is calculated as an evaluation result. Here, as in the first embodiment of the present invention, the loss function according to the inference value and correct value is not limited to a specific function.

(第2の実施形態の動作)
図5を参照しながら、本発明の第2の実施形態に係る学習装置20の動作の流れについて説明する。図5は、本発明の第2の実施形態に係る学習装置20の動作例を示すフローチャートである。
(Operation of Second Embodiment)
The operation flow of the learning device 20 according to the second embodiment of the present invention will be described with reference to FIG. FIG. 5 is a flow chart showing an operation example of the learning device 20 according to the second embodiment of the present invention.

S11~S12は、本発明の第1の実施形態に係るS11~S12(図3)と同様に実行される。 S11-S12 are executed in the same manner as S11-S12 (FIG. 3) according to the first embodiment of the present invention.

本発明の第1の実施形態と同様に、説明部223は、推論部121から入力された推論値に基づいて、複数の説明手法それぞれに対応する説明情報を複数の説明情報として生成する。説明部223は、生成した複数の説明情報を説明評価部150に出力する。さらに、説明部223に含まれる複数の説明手法のうち少なくとも一つの説明手法は、推論値(第2の推論値)を算出する。説明部223は、算出した推論値を推論評価部240に出力する(S23)。 As in the first embodiment of the present invention, the explanation unit 223 generates a plurality of pieces of explanation information corresponding to each of the plurality of explanation methods based on the inference value input from the inference unit 121 . The explanation unit 223 outputs the generated plural pieces of explanation information to the explanation evaluation unit 150 . Furthermore, at least one of the plurality of explanation methods included in the explanation section 223 calculates an inference value (second inference value). The explanation unit 223 outputs the calculated inference value to the inference evaluation unit 240 (S23).

推論評価部240は、推論部121から入力された推論値と入力部115によって取得された正解値と説明部223から入力された推論値とに基づいて、推論評価結果を得る。推論評価部240は、推論評価結果を更新部160に出力する。本発明の第1の実施形態と同様に、説明評価部150は、説明部123から入力された複数の説明情報に基づいて、説明評価結果を得る。そして、説明評価部150は、算出した説明評価結果を更新部160に出力する(S14)。 Inference evaluation unit 240 obtains an inference evaluation result based on the inference value input from inference unit 121 , the correct value obtained by input unit 115 , and the inference value input from explanation unit 223 . The inference evaluation unit 240 outputs the inference evaluation result to the update unit 160 . As in the first embodiment of the present invention, the explanation evaluation unit 150 obtains explanation evaluation results based on multiple pieces of explanation information input from the explanation unit 123 . Then, the explanation evaluation unit 150 outputs the calculated explanation evaluation result to the updating unit 160 (S14).

本発明の第1の実施形態と同様に、更新部160は、推論評価部240から入力された推論評価結果と、説明評価部150から入力された説明評価結果とに基づいて、推論NNの重みパラメータ132の更新を行う(S15)。より詳細に、更新部160は、推論評価結果と説明評価結果とに基づいて、誤差逆伝播法によって、推論NNの重みパラメータ132を更新する。さらに、更新部160は、推論評価結果と説明評価結果とに基づく誤差逆伝播法によって説明部123が有する重みパラメータ133の更新を行う。さらに、更新部160は、推論評価結果と説明評価結果とに基づく誤差逆伝播法によって説明部123が有する重みパラメータ133の更新を行う。 As in the first embodiment of the present invention, the update unit 160 calculates the weight of the inference NN based on the inference evaluation result input from the inference evaluation unit 240 and the explanation evaluation result input from the explanation evaluation unit 150. The parameter 132 is updated (S15). More specifically, the updating unit 160 updates the weight parameter 132 of the inference NN by error backpropagation based on the inference evaluation result and the explanation evaluation result. Further, the update unit 160 updates the weight parameter 133 of the explanation unit 123 by error backpropagation based on the inference evaluation result and explanation evaluation result. Further, the update unit 160 updates the weight parameter 133 of the explanation unit 123 by error backpropagation based on the inference evaluation result and explanation evaluation result.

更新部160は、入力データに基づく重みパラメータの更新が終わるたびに、学習の終了条件が満たされたか否かを判断する(S16)。学習の終了条件が満たされていないと判断した場合には(S16において「NO」)、S11に動作が移行され、入力部115によって次の学習用データが取得され、推論部121、説明部223、推論評価部240、説明評価部150および更新部160それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、更新部160によって、学習の終了条件が満たされたと判断された場合には(S16において「YES」)、学習が終了される。 The updating unit 160 determines whether or not the learning termination condition is satisfied each time the updating of the weight parameter based on the input data is completed (S16). If it is determined that the learning end condition is not satisfied ("NO" in S16), the operation proceeds to S11, the next data for learning is acquired by the input unit 115, and the inference unit 121 and explanation unit 223 , the inference evaluation unit 240, the explanation evaluation unit 150, and the update unit 160, respectively, perform their respective processes again based on the next input data. On the other hand, when updating unit 160 determines that the end condition for learning is satisfied ("YES" in S16), learning ends.

以上、本発明の第2の実施形態に係る学習装置20の動作の流れについて説明した。 The flow of operation of the learning device 20 according to the second embodiment of the present invention has been described above.

(第2の実施形態のまとめ)
以上に説明したように、本発明の第2の実施形態によれば、本発明の第1の実施形態が奏する効果と同様の効果が享受され得る。また、本発明の第2の実施形態によれば、説明部223と推論評価部240とを接続することにより、説明情報と推論値との両方を出力する説明手法を用いることが可能となる。
(Summary of the second embodiment)
As described above, according to the second embodiment of the present invention, the same effects as those of the first embodiment of the present invention can be obtained. Further, according to the second embodiment of the present invention, by connecting the explanation unit 223 and the inference evaluation unit 240, it is possible to use an explanation technique that outputs both explanation information and inference values.

以上、本発明の第2の実施形態について説明した。 The second embodiment of the present invention has been described above.

(3.ハードウェア構成例)
続いて、本発明の第1の実施形態に係る学習装置10のハードウェア構成例について説明する。なお、本発明の第2の実施形態に係る学習装置20のハードウェア構成も同様に実現され得る。
(3. Hardware configuration example)
Next, a hardware configuration example of the learning device 10 according to the first embodiment of the present invention will be described. Note that the hardware configuration of the learning device 20 according to the second embodiment of the present invention can also be realized in the same manner.

以下では、本発明の実施形態に係る学習装置10のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、学習装置10のハードウェア構成の一例に過ぎない。したがって、学習装置10のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。 A hardware configuration example of the information processing device 900 will be described below as a hardware configuration example of the learning device 10 according to the embodiment of the present invention. Note that the hardware configuration example of the information processing device 900 described below is merely an example of the hardware configuration of the learning device 10 . Therefore, as for the hardware configuration of the learning device 10, unnecessary configurations may be deleted from the hardware configuration of the information processing device 900 described below, or a new configuration may be added.

図6は、本発明の実施形態に係る学習装置10の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。 FIG. 6 is a diagram showing the hardware configuration of an information processing device 900 as an example of the learning device 10 according to the embodiment of the present invention. The information processing device 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, a host bus 904, a bridge 905, an external bus 906, and an interface 907. , an input device 908 , an output device 909 , a storage device 910 and a communication device 911 .

CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。 The CPU 901 functions as an arithmetic processing device and a control device, and controls general operations within the information processing device 900 according to various programs. Alternatively, the CPU 901 may be a microprocessor. The ROM 902 stores programs, calculation parameters, and the like used by the CPU 901 . The RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. These are interconnected by a host bus 904 comprising a CPU bus or the like.

ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。 The host bus 904 is connected via a bridge 905 to an external bus 906 such as a PCI (Peripheral Component Interconnect/Interface) bus. Note that the host bus 904, the bridge 905 and the external bus 906 do not necessarily have to be configured separately, and these functions may be implemented in one bus.

入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。 The input device 908 includes input means for the user to input information, such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input control circuit that generates an input signal based on the user's input and outputs it to the CPU 901 . etc. A user who operates the information processing apparatus 900 can input various data to the information processing apparatus 900 and instruct processing operations by operating the input device 908 .

出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。 The output device 909 includes, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, a display device such as a lamp, and an audio output device such as a speaker.

ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。 The storage device 910 is a device for data storage. The storage device 910 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 910 is configured by, for example, an HDD (Hard Disk Drive). The storage device 910 drives a hard disk and stores programs executed by the CPU 901 and various data.

通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。 The communication device 911 is, for example, a communication interface configured with a communication device or the like for connecting to a network. Also, the communication device 911 may support either wireless communication or wired communication.

以上、本発明の実施形態に係る学習装置10のハードウェア構成例について説明した。 The hardware configuration example of the learning device 10 according to the embodiment of the present invention has been described above.

(4.まとめ)
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
(4. Summary)
Although the preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention belongs can conceive of various modifications or modifications within the scope of the technical idea described in the claims. It is understood that these also naturally belong to the technical scope of the present invention.

本発明の第1の実施形態および第2の実施形態では、複数の説明手法それぞれが誤差逆伝播可能な関数を含む場合を主に想定した。しかし、複数の説明手法の一部は、誤差逆伝播不可能な関数を含んでもよい。 In the first and second embodiments of the present invention, it is mainly assumed that each of the multiple explanation methods includes a function capable of backpropagating errors. However, some of the multiple explanation techniques may involve functions that cannot be backpropagated.

本発明の第1の実施形態および第2の実施形態では、複数の説明手法それぞれが、推論値に基づいて説明情報を生成する場合を主に想定した。しかし、複数の説明手法の少なくとも一部は、人によってラベル付けされた説明情報を出力してもよい。 In the first and second embodiments of the present invention, it is mainly assumed that each of a plurality of explanation methods generates explanation information based on an inference value. However, at least some of the multiple descriptive techniques may output descriptive information labeled by humans.

本発明の第1の実施形態および第2の実施形態では、複数の説明手法それぞれが、推論部121から出力される推論値に与える入力データの貢献度の大きさを領域ごとに示すヒートマップを生成する場合を主に想定した。しかし、複数の説明手法それぞれは、推論部121から出力される推論値に与える入力データの貢献度の大きさを示す他の情報であってもよい。 In the first embodiment and the second embodiment of the present invention, each of the plurality of explanation methods creates a heat map showing the degree of contribution of input data to the inference value output from the inference unit 121 for each region. I mainly assumed the case of generating. However, each of the plurality of explanation methods may be other information indicating the degree of contribution of the input data given to the inference value output from the inference unit 121 .

複数の説明手法それぞれは、推論部121から出力される推論値に与える入力データの貢献度の大きさを示す言語説明情報であってもよい。例えば、言語説明情報は、「画像(入力データ)の中央に所定の種類の動物の特徴を有する物体が存在する」といった説明情報であってもよい。あるいは、複数の説明手法それぞれは、推論部121から出力される推論値に与える入力データごとの貢献度の大きさを示す情報であってもよい。 Each of the plurality of explanation methods may be linguistic explanation information indicating the degree of contribution of the input data given to the inference value output from the inference unit 121 . For example, the linguistic explanation information may be explanation information such as "there is an object having characteristics of a predetermined kind of animal in the center of the image (input data)". Alternatively, each of the plurality of explanation methods may be information indicating the degree of contribution of each piece of input data given to the inference value output from the inference unit 121 .

10、20 学習装置
110 データセット
115 入力部
121 推論部
123、223 説明部
132 重みパラメータ
133 重みパラメータ
140、240 推論評価部
150 説明評価部
160 更新部

10, 20 learning device 110 data set 115 input unit 121 inference unit 123, 223 explanation unit 132 weight parameter 133 weight parameter 140, 240 inference evaluation unit 150 explanation evaluation unit 160 update unit

Claims (13)

学習用データと前記学習用データの正解値とを取得する入力部と、
前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力する推論部と、
前記第1の推論値の判断根拠の複数の説明情報を出力する説明部と、
前記正解値と前記第1の推論値とに基づいて推論評価結果を得る推論評価部と、
前記複数の説明情報に基づいて説明評価結果を得る説明評価部と、
前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行う更新部と、
を備える、学習装置。
an input unit that acquires learning data and a correct value of the learning data;
an inference unit that outputs a first inference value based on the learning data and the machine learning algorithm;
an explanation unit that outputs a plurality of pieces of explanation information for the basis for judgment of the first inference value;
an inference evaluation unit that obtains an inference evaluation result based on the correct value and the first inference value;
an explanation evaluation unit that obtains an explanation evaluation result based on the plurality of pieces of explanation information;
an updating unit that updates a first weight parameter of the machine learning algorithm based on the inference evaluation result and the explanation evaluation result;
A learning device comprising:
前記説明部は、複数の説明手法に基づいて前記複数の説明情報を出力する、
請求項1に記載の学習装置。
The explanation unit outputs the plurality of explanation information based on a plurality of explanation techniques.
A learning device according to claim 1.
前記複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播が可能な関数を含む、
請求項2に記載の学習装置。
At least one explanation method among the plurality of explanation methods includes a function capable of back propagation,
3. A learning device according to claim 2.
前記説明部は、第2の重みパラメータを有し、
前記更新部は、誤差逆伝播法によって前記第2の重みパラメータの更新を行う、
請求項3に記載の学習装置。
The description part has a second weighting parameter,
The update unit updates the second weight parameter by error backpropagation.
4. A learning device according to claim 3.
前記機械学習アルゴリズムは、ニューラルネットワークを含む、
請求項2~4のいずれか一項に記載の学習装置。
the machine learning algorithm comprises a neural network;
A learning device according to any one of claims 2 to 4.
前記推論部は、前記学習用データと前記ニューラルネットワークとに基づいて前記第1の推論値と特徴量とを出力し、
前記複数の説明手法のうち少なくとも一つの説明手法は、前記第1の推論値と前記特徴量と前記ニューラルネットワークとに基づいて、説明情報を出力する、
請求項5に記載の学習装置。
The inference unit outputs the first inference value and the feature value based on the learning data and the neural network,
At least one of the plurality of explanation techniques outputs explanation information based on the first inference value, the feature amount, and the neural network.
The learning device according to claim 5.
前記複数の説明手法のうち少なくとも一つの説明手法は、前記第1の推論値と前記特徴量と前記ニューラルネットワークとに基づいて、説明情報および第2の推論値を出力し、
前記推論評価部は、前記正解値と前記第1の推論値と前記第2の推論値とに基づいて前記推論評価結果を得る、
請求項6に記載の学習装置。
at least one explanation method among the plurality of explanation methods outputs explanation information and a second inference value based on the first inference value, the feature value, and the neural network;
The inference evaluation unit obtains the inference evaluation result based on the correct value, the first inference value, and the second inference value.
7. A learning device according to claim 6.
前記更新部は、前記推論評価結果と前記説明評価結果との加算結果に基づいて、前記第1の重みパラメータの更新を行う、
請求項1~7のいずれか一項に記載の学習装置。
The update unit updates the first weight parameter based on the addition result of the inference evaluation result and the explanation evaluation result.
A learning device according to any one of claims 1 to 7.
前記複数の説明情報それぞれは、前記第1の推論値に与える前記学習用データの貢献度の大きさを示す情報である、
請求項8に記載の学習装置。
Each of the plurality of explanatory information is information indicating a degree of contribution of the learning data given to the first inference value,
9. A learning device according to claim 8.
前記貢献度の大きさを示す情報は、前記第1の推論値に与える前記学習用データの貢献度の大きさを領域ごとに示すヒートマップである、
請求項9に記載の学習装置。
The information indicating the degree of contribution is a heat map indicating the degree of contribution of the learning data given to the first inference value for each region,
10. A learning device according to claim 9.
前記貢献度の大きさを示す情報は、前記第1の推論値に与える前記学習用データの貢献度の大きさを示す言語説明情報である、
請求項9に記載の学習装置。
The information indicating the degree of contribution is linguistic explanation information indicating the degree of contribution of the learning data given to the first inference value,
10. A learning device according to claim 9.
学習用データと前記学習用データの正解値とを取得することと、
前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力することと、
前記第1の推論値の判断根拠の複数の説明情報を出力することと、
前記正解値と前記第1の推論値とに基づいて推論評価結果を得ることと、
前記複数の説明情報に基づいて説明評価結果を得ることと、
前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行うことと、
を備える、学習方法。
Acquiring learning data and a correct value of the learning data;
outputting a first inference value based on the learning data and a machine learning algorithm;
outputting a plurality of pieces of explanatory information of the basis for judgment of the first inference value;
obtaining an inference evaluation result based on the correct value and the first inference value;
obtaining an explanation evaluation result based on the plurality of pieces of explanation information;
updating a first weight parameter of the machine learning algorithm based on the inference evaluation result and the explanation evaluation result;
A learning method comprising:
コンピュータを、
学習用データと前記学習用データの正解値とを取得する入力部と、
前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力する推論部と、
前記第1の推論値の判断根拠の複数の説明情報を出力する説明部と、
前記正解値と前記第1の推論値とに基づいて推論評価結果を得る推論評価部と、
前記複数の説明情報に基づいて説明評価結果を得る説明評価部と、
前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行う更新部と、
を備える学習装置として機能させるプログラム。

the computer,
an input unit that acquires learning data and a correct value of the learning data;
an inference unit that outputs a first inference value based on the learning data and the machine learning algorithm;
an explanation unit that outputs a plurality of pieces of explanation information for the basis for judgment of the first inference value;
an inference evaluation unit that obtains an inference evaluation result based on the correct value and the first inference value;
an explanation evaluation unit that obtains an explanation evaluation result based on the plurality of pieces of explanation information;
an updating unit that updates a first weight parameter of the machine learning algorithm based on the inference evaluation result and the explanation evaluation result;
A program that functions as a learning device with

JP2021057480A 2021-03-30 2021-03-30 Learning equipment, learning methods and programs Active JP7092228B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021057480A JP7092228B1 (en) 2021-03-30 2021-03-30 Learning equipment, learning methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021057480A JP7092228B1 (en) 2021-03-30 2021-03-30 Learning equipment, learning methods and programs

Publications (2)

Publication Number Publication Date
JP7092228B1 JP7092228B1 (en) 2022-06-28
JP2022154442A true JP2022154442A (en) 2022-10-13

Family

ID=82196223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057480A Active JP7092228B1 (en) 2021-03-30 2021-03-30 Learning equipment, learning methods and programs

Country Status (1)

Country Link
JP (1) JP7092228B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113557536B (en) * 2019-04-25 2024-05-31 欧姆龙株式会社 Learning system, data generation device, data generation method, and storage medium
JP7161979B2 (en) * 2019-07-26 2022-10-27 株式会社 日立産業制御ソリューションズ Explanation support device and explanation support method

Also Published As

Publication number Publication date
JP7092228B1 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
JP6922945B2 (en) Information processing method
JP6605259B2 (en) Neural network structure expansion method, dimension reduction method, and apparatus using the method
AU2020385049B2 (en) Identifying optimal weights to improve prediction accuracy in machine learning techniques
JP2021039640A (en) Learning device, learning system, and learning method
JP7192895B2 (en) MODEL BUILDING DEVICE, MODEL BUILDING METHOD, COMPUTER PROGRAM AND RECORDING MEDIUM
CN114072809A (en) Small and fast video processing network via neural architectural search
JP2022154442A (en) Learning apparatus, learning method, and program
JP7215966B2 (en) Hyperparameter management device, hyperparameter management method and hyperparameter management program product
US20200057758A1 (en) Server and control method thereof
JP2022523207A (en) Systems and methods for generating pyramid layer architectures
JP2019185121A (en) Learning device, learning method and program
JP6801751B1 (en) Information processing equipment, information processing methods and programs
JP2022078286A (en) Training method and training device for data processing model, electronic equipment and storage medium
JP7438544B2 (en) Neural network processing device, computer program, neural network manufacturing method, neural network data manufacturing method, neural network utilization device, and neural network downsizing method
JP2023527341A (en) Interpretable imitation learning by discovery of prototype options
JPWO2020110272A1 (en) Machine learning equipment, machine learning methods, and programs
WO2017056320A1 (en) Program generation device, program generation method and generation program
JP2023008028A (en) Information processor, information processing method, and program
KR102663160B1 (en) Pruning method and system for efficient compression of generative artificial intelligence model
US20230133868A1 (en) Computer-readable recording medium storing explanatory program, explanatory method, and information processing apparatus
US20240062105A1 (en) Information processing apparatus, information processing method, and recording medium
JP7421046B2 (en) Information acquisition device, information acquisition method and program
US20220300801A1 (en) Techniques for adaptive generation and visualization of quantized neural networks
US20230350954A1 (en) Systems and methods of filtering topics using parts of speech tagging
US12020160B2 (en) Generation of neural network containing middle layer background

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R150 Certificate of patent or registration of utility model

Ref document number: 7092228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150