JP7092228B1 - 学習装置、学習方法およびプログラム - Google Patents

学習装置、学習方法およびプログラム Download PDF

Info

Publication number
JP7092228B1
JP7092228B1 JP2021057480A JP2021057480A JP7092228B1 JP 7092228 B1 JP7092228 B1 JP 7092228B1 JP 2021057480 A JP2021057480 A JP 2021057480A JP 2021057480 A JP2021057480 A JP 2021057480A JP 7092228 B1 JP7092228 B1 JP 7092228B1
Authority
JP
Japan
Prior art keywords
inference
explanatory
unit
value
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021057480A
Other languages
English (en)
Other versions
JP2022154442A (ja
Inventor
恭史 国定
素子 加賀谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2021057480A priority Critical patent/JP7092228B1/ja
Application granted granted Critical
Publication of JP7092228B1 publication Critical patent/JP7092228B1/ja
Publication of JP2022154442A publication Critical patent/JP2022154442A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】どの説明手法を適用しても類似した結果が得られる学習済みモデルを生成する技術が提供されることが望まれる。【解決手段】学習用データと前記学習用データの正解値とを取得する入力部と、前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力する推論部と、前記第1の推論値の判断根拠の複数の説明情報を出力する説明部と、前記正解値と前記第1の推論値とに基づいて推論評価結果を得る推論評価部と、前記複数の説明情報に基づいて説明評価結果を得る説明評価部と、前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行う更新部と、を備える、学習装置が提供される。【選択図】図1

Description

本発明は、学習装置、学習方法およびプログラムに関する。
ニューラルネットワーク(以下、「NN」とも表記する。)は、画像認識などにおいて高い性能を有する。しかし、一般的にNNは、膨大なパラメータと複雑なモデルとによって構成されており、NNのパラメータとNNからの出力結果との関係を解釈することが難しい。そのため、NNのパラメータを人手で修正し、NNの精度を向上させることが困難であるという課題がある。かかる課題を解決するため、NNの判断根拠を説明する手法が幾つか提案されている。
例えば、NNの入力と出力の勾配を利用し、入力の領域ごとの推論結果に対する貢献度を計算し、計算した貢献度を提示することによってNNの判断根拠を説明する手法が知られている(例えば、特許文献1および非特許文献1参照)。さらに、分類問題において、それぞれの分類クラスの典型例(プロトタイプ)を学習し、プロトタイプとの類似度を入力の領域ごとに表示することによってNNの判断根拠を説明する手法が知られている(例えば、特許文献2参照)。
特表2018-513507号公報
Daniel Smilkov、他4名、"SmoothGrad: removing noise by adding noise"、[online]、[令和3年3月19日検索]、インターネット<https://arxiv.org/abs/1706.03825> Chaofan Chen、他5名、"This Looks Like That: Deep Learningfor Interpretable Image Recognition"、[online]、[令和3年3月19日検索]、インターネット<https://arxiv.org/abs/1806.10574> Hiroshi Fukui、他3名、"AttentionBranch Network:Learning of Attention Mechanism for Visual Explanation"、[online]、[令和3年3月19日検索]、インターネット<https://arxiv.org/abs/1812.10025>
しかしながら、上記の説明手法は、いずれも推論結果に寄与した入力の領域を提示するものであるにも関わらず、同一のNNモデルに説明手法を適用しても説明手法ごとに異なる結果が得られるという課題があった。説明手法ごとに異なる結果が得られる場合、説明の信頼性が失われる場合がある。そこで、どの説明手法を適用しても類似した結果が得られる学習済みモデル(例えば、NNの学習済みモデル)を生成する技術が提供されることが望まれる。
上記問題を解決するために、本発明のある観点によれば、学習用データと前記学習用データの正解値とを取得する入力部と、前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力する推論部と、前記第1の推論値の判断根拠の複数の説明情報を出力する説明部と、前記正解値と前記第1の推論値とに基づいて推論評価結果を得る推論評価部と、前記複数の説明情報に基づいて説明評価結果を得る説明評価部と、前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行う更新部と、を備える、学習装置が提供される。
前記説明部は、複数の説明手法に基づいて前記複数の説明情報を出力してもよい。
前記複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播が可能な関数を含んでもよい。
前記説明部は、第2の重みパラメータを有し、前記更新部は、誤差逆伝播法によって前記第2の重みパラメータの更新を行ってもよい。
前記機械学習アルゴリズムは、ニューラルネットワークを含んでもよい。
前記推論部は、前記学習用データと前記ニューラルネットワークとに基づいて前記第1の推論値と特徴量とを出力し、前記複数の説明手法のうち少なくとも一つの説明手法は、前記第1の推論値と前記特徴量と前記ニューラルネットワークとに基づいて、説明情報を出力してもよい。
前記複数の説明手法のうち少なくとも一つの説明手法は、前記第1の推論値と前記特徴量と前記ニューラルネットワークとに基づいて、説明情報および第2の推論値を出力し、前記推論評価部は、前記正解値と前記第1の推論値と前記第2の推論値とに基づいて前記推論評価結果を得てもよい。
前記更新部は、前記推論評価結果と前記説明評価結果との加算結果に基づいて、前記第1の重みパラメータの更新を行ってもよい。
前記複数の説明情報それぞれは、前記第1の推論値に与える前記学習用データの貢献度の大きさを示す情報であってもよい。
前記貢献度の大きさを示す情報は、前記第1の推論値に与える前記学習用データの貢献度の大きさを領域ごとに示すヒートマップであってもよい。
前記貢献度の大きさを示す情報は、前記第1の推論値に与える前記学習用データの貢献度の大きさを示す言語説明情報であってもよい。
また、本発明の別の観点によれば、学習用データと前記学習用データの正解値とを取得することと、前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力することと、前記第1の推論値の判断根拠の複数の説明情報を出力することと、前記正解値と前記第1の推論値とに基づいて推論評価結果を得ることと、前記複数の説明情報に基づいて説明評価結果を得ることと、前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行うことと、を備える、学習方法が提供される。
また、本発明の別の観点によれば、コンピュータを、学習用データと前記学習用データの正解値とを取得する入力部と、前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力する推論部と、前記第1の推論値の判断根拠の複数の説明情報を出力する説明部と、前記正解値と前記第1の推論値とに基づいて推論評価結果を得る推論評価部と、前記複数の説明情報に基づいて説明評価結果を得る説明評価部と、前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行う更新部と、を備える学習装置として機能させるプログラムが提供される。
以上説明したように本発明によれば、どの説明手法を適用しても類似した結果が得られる学習済みモデルを生成する技術が提供される。
本発明の第1の実施形態に係る学習装置の機能構成例を示す図である。 推論値と説明手法と説明情報と損失関数との関係を示す図である。 同実施形態に係る学習装置の動作例を示すフローチャートである。 本発明の第2の実施形態に係る学習装置の機能構成例を示す図である。 同実施形態に係る学習装置の動作例を示すフローチャートである。 学習装置の例としての情報処理装置のハードウェア構成を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。
(0.実施形態の概要)
本発明の実施形態の概要について説明する。本発明の実施形態では、学習用データと正解値との組み合わせに基づいてニューラルネットワークの学習を行う学習装置について説明する。しかし、ニューラルネットワークは、機械学習アルゴリズムの一例に過ぎない。したがって、ニューラルネットワークの代わりに他の機械学習アルゴリズムが用いられてもよい。例えば、機械学習アルゴリズムの他の一例として、SVM(Support Vector Machine)などが用いられてもよい。
(1.第1の実施形態)
まず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る学習装置10の機能構成例を示す図である。図1に示されるように、本発明の第1の実施形態に係る学習装置10は、入力部115と、推論部121と、説明部123と、推論評価部140と、説明評価部150と、更新部160とを備える。
本発明の第1の実施形態では、推論部121と説明部123とが、ニューラルネットワークを含んで構成される場合を主に想定する。以下では、ニューラルネットワークを「NN」とも表記する。より詳細に、推論部121が、ニューラルネットワーク(以下、「推論NN」とも表記する。)を含み、しかし、推論部121は、具体的にどのような構成であってもよい。
例えば、推論部121は、誤差逆伝播が可能な関数を含んでいれば、推論部121の一部が特定の推論アルゴリズムに基づく推論を行ってもよい。
入力部115と、推論部121と、説明部123と、推論評価部140と、説明評価部150と、更新部160とは、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、図示しない記憶部によって適宜記憶される。
データセット110、推論NNの重みパラメータ132(第1の重みパラメータ)および説明部123が有する重みパラメータ133(第2の重みパラメータ)は、図示しない記憶部によって記憶される。かかる記憶部は、RAM(Random Access Memory)、ハードディスクドライブまたはフラッシュメモリなどのメモリによって構成されてよい。
初期状態において、推論NNの重みパラメータ132および説明部123が有する重みパラメータ133それぞれには、初期値が設定されている。例えば、これらに設定される初期値は、ランダムな値であってよいが、どのような値であってもよい。例えば、これらに設定される初期値は、あらかじめ学習によって得られた学習済みの値であってもよい。
(データセット110)
データセット110は、複数の学習用データ(入力データ)と当該複数の学習用データそれぞれの正解値とを含んで構成される。なお、本発明の実施形態では、学習用データが画像データである場合(特に、静止画像データである場合)を主に想定する。しかし、学習用データの種類は特に限定されず、画像データ以外も学習用データとして用いられ得る。例えば、学習用データは、複数のフレームを含んだ動画像データであってもよいし、音響データであってもよい。
(入力部115)
入力部115は、データセット110から学習用データおよび正解値の組み合わせを順次に取得する。入力部115は、学習用データおよび正解値の組み合わせを順次に推論部121に出力する。
なお、例えば、入力部115は、データセット110から学習用データおよび正解値の組み合わせを全部取得し終わった場合には、最初から当該組み合わせを取得し直して再度出力する動作を所定の回数繰り返してよい。かかる場合には、入力部115よりも後段のブロックにおいても、再度の入力に基づいて順次に各自の処理が繰り返し実行されてよい。
(推論部121)
推論部121は、入力部115から入力された入力データと推論NNとに基づいて、推論値(第1の推論値)を得る。推論NNの重みパラメータ132は図示しない記憶部によって記憶されている。したがって、推論部121は、図示しない記憶部から重みパラメータ132を取得し、取得した重みパラメータ132と入力部115から出力された入力データとに基づいて推論NNによる推論を行って推論値を得る。
なお、本明細書においては、ニューラルネットワークへの入力に基づいてニューラルネットワークからの出力を得ることを広く「推論」と言う。
推論部121は、推論値を説明部123および推論評価部140それぞれに出力する。なお、後にも説明するように、説明部123に含まれる複数の説明手法の中には、推論NNから出力される特徴量を必要とする説明手法が存在する場合があり得る。かかる場合には、推論部121は、推論値とともに、推論NNの中間層から出力される特徴量を説明部123に出力してよい。
推論NNの具体的な構成は、特に限定されない。しかし、推論NNの出力の形式は、学習用データに対応する正解値の形式と合わせて設定されているのがよい。例えば、正解値が分類問題のクラスである場合、推論NNの出力は、クラス数分の長さを有するone-hotベクトルであるとよい。
(説明部123)
説明部123は、推論部121から入力された推論値の判断根拠の複数の説明情報を説明評価部150に出力する。より詳細に、説明部123は、複数の説明手法を含んで構成されている。そして、説明部123は、複数の説明手法に基づいて当該複数の説明手法それぞれに対応する説明情報を生成し、複数の説明手法それぞれに対応する説明情報を複数の説明情報として説明評価部150に出力する。
ここで、複数の説明情報それぞれは、推論部121から入力された推論値に与える入力データの貢献度の大きさを示す情報である。説明手法は、このような説明情報を生成する手法であれば、具体的にはどのような手法であってもよい。例えば、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値に基づいて、説明情報を生成してもよい。
より詳細に、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値と推論NNとに基づいて、説明情報を得てもよい。
あるいは、上記したように、推論部121から説明部123に推論値だけではなく特徴量も入力される場合があり得る。かかる場合には、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値と特徴量と推論NNとに基づいて、説明情報を得てもよい。すなわち、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値と特徴量とに基づいて推論NNによる推論を行って説明情報を得てもよい。
例えば、複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播が可能な関数を含んでいてもよい。このとき、後に説明するように、更新部160によって説明部123が有する重みパラメータ133が誤差逆伝播法によって更新され得る。すなわち、複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播法による更新後の重みパラメータ133によって説明情報を生成してもよい。
非特許文献1には、誤差逆伝播法による更新後の重みパラメータによって説明情報を生成する説明手法の例が記載されている。非特許文献1に記載された説明手法は、ニューラルネットワークへの入力のうち推論値への寄与度が高い領域を示すヒートマップを説明情報として出力する説明手法である。本発明の実施形態に対しても、非特許文献1に記載されている説明手法を適用することが可能である。
すなわち、本発明の実施形態において、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から出力される推論値に与える入力データの貢献度の大きさを領域ごとに示すヒートマップを生成してもよい。
例えば、説明部123に含まれる複数の説明手法は、非特許文献1に記載された説明手法を用い、説明手法のパラメータの値を変更することによって用意されてもよい。あるいは、説明部123に含まれる複数の説明手法は、非特許文献1に記載された説明手法と、特許文献1に記載された説明手法とを組み合わせることによって用意されてもよい。その他にも、Vanilla Gradient、Grad-CAMといった各種の説明手法が適用され得る。
一例として、説明部123に含まれる説明手法を示す関数をFk(k=1,2・・・,n)とし、関数Fkから出力される説明情報をMk(k=1,2・・・,n)とし、推論値をxとすると、以下の数式(1)に示す関係が成立し得る。
Mk=Fk(x)・・・(1)
なお、図2には、推論値xと説明手法Fk(k=1,2・・・,n)と説明情報Mk(k=1,2・・・,n)と損失関数Gとの関係が示されている。
(推論評価部140)
推論評価部140は、推論部121から入力された推論値と入力部115によって取得された正解値とに基づいて、推論評価結果を得る。より詳細に、推論評価部140は、推論部121から入力された推論値と入力部115によって取得された正解値とを比較することによって、推論評価結果を得る。推論評価部140は、推論評価結果を更新部160に出力する。
本発明の実施形態では、推論評価部140が、推論部121から入力された推論値と入力部115によって取得された正解値とに応じた損失関数を推論評価結果として算出する場合を想定する。ここで、推論値と正解値とに応じた損失関数は特定の関数に限定されず、一般的なニューラルネットワークにおいて用いられる損失関数と同様の損失関数が用いられてよい。例えば、推論値と正解値とに応じた損失関数は、正解値と推論値との差分に基づく平均二乗誤差であってもよい。
(説明評価部150)
説明評価部150は、説明部123から入力された複数の説明情報に基づいて説明評価結果を得る。より詳細に、説明評価部150は、説明部123から入力された複数の説明情報同士を比較することによって、説明評価結果を得る。説明評価部150は、説明評価結果を更新部160に出力する。
本発明の実施形態では、説明評価部150が、説明部123から入力された複数の説明情報に応じた損失関数を説明評価結果として算出する場合を想定する。ここで、複数の説明情報に応じた損失関数は特定の関数に限定されず、一般的なニューラルネットワークにおいて用いられる損失関数と同様の損失関数が用いられてよい。例えば、複数の説明情報に応じた損失関数は、複数の説明情報の平均値と当該複数の説明情報それぞれとの差分に基づく平均二乗誤差であってもよい。
一例として、説明部123から入力される複数の説明情報をMk(k=1,2・・・,n)とし、損失関数をGとし、説明評価結果をLとすると、以下の数式(2)に示す関係が成立し得る。
L=G(M1,M2,・・・,Mn)・・・(2)
(更新部160)
更新部160は、推論評価部140から入力された推論評価結果と、説明評価部150から入力された説明評価結果とに基づいて、推論NNの重みパラメータ132の更新を行う。これによって、推論部121から出力される推論値が正解値に近づくように、かつ、説明部123から出力される複数の説明情報同士が互いに近づくように、推論NNの重みパラメータ132が更新され得る。推論NNの重みパラメータ132は、誤差逆伝播法(バックプロパゲーション)によって更新されてよい。
例えば、更新部160は、推論評価部140から入力された推論評価結果と、説明評価部150から入力された説明評価結果とを加算し、加算結果に基づいて、推論NNの重みパラメータ132の更新を行えばよい。このとき、更新部160は、計算した加算結果を誤差として、誤差逆伝播法(バックプロパゲーション)によって推論NNの重みパラメータ132を更新すればよい。
さらに、更新部160は、説明部123が有する重みパラメータ133を更新してよい。より詳細に、複数の説明手法のうち少なくとも一つの説明手法が、誤差逆伝播が可能な関数を含む場合、更新部160は、推論評価結果と説明評価結果とに基づいて、誤差逆伝播法(バックプロパゲーション)によって、説明部123が有する重みパラメータ133を更新してよい。
なお、学習の終了条件(すなわち、重みパラメータ更新の終了条件)は特に限定されず、推論NNの学習がある程度行われたことを示す条件であればよい。具体的に、学習の終了件は、損失関数の値が閾値よりも小さいという条件を含んでもよい。あるいは、学習の終了条件は、損失関数の値の変化が閾値よりも小さいという条件(損失関数の値が収束状態になったという条件)を含んでもよい。あるいは、学習の終了条件は、重みパラメータの更新が所定の回数行われたという条件を含んでもよい。あるいは、推論評価部140によって正解値と推論値とに基づいて精度(例えば、正答率など)が算出される場合、学習の終了条件は、精度が所定の割合(例えば、90%など)を超えるという条件を含んでもよい。
(第1の実施形態の動作)
図3を参照しながら、本発明の第1の実施形態に係る学習装置10の動作の流れについて説明する。図3は、本発明の第1の実施形態に係る学習装置10の動作例を示すフローチャートである。
まず、図3に示されたように、入力部115は、データセット110から入力データ(すなわち、学習用データ)および正解値の組み合わせを取得する。さらに、推論部121は、推論NNの重みパラメータ132を取得する(S11)。推論部121は、入力部115によって取得された入力データと推論NNとに基づいて推論を行い(S12)、推論によって得られた推論値を推論評価部140および説明部123それぞれに出力する。
説明部123は、推論部121から入力された推論値に基づいて、複数の説明手法それぞれに対応する説明情報を複数の説明情報として生成する(S13)。説明部123は、生成した複数の説明情報を説明評価部150に出力する。
推論評価部140は、入力部115によって取得された正解値に基づいて、推論部121から入力された推論値を評価して推論評価結果を得る。より詳細に、推論評価部140は、正解値と推論値とに応じた損失関数を推論評価結果として算出する。推論評価部140は、算出した推論評価結果を更新部160に出力する。
説明評価部150は、説明部123から入力された複数の説明情報に基づいて、説明評価結果を得る。より詳細に、説明評価部150は、説明部123から入力された複数の説明情報同士の差分に応じた損失関数を説明評価結果として算出する。説明評価部150は、算出した説明評価結果を更新部160に出力する(S14)。
更新部160は、推論評価部140から入力された推論評価結果と、説明評価部150から入力された説明評価結果とに基づいて、推論NNの重みパラメータ132の更新を行う(S15)。より詳細に、更新部160は、推論評価結果と説明評価結果とに基づいて、誤差逆伝播法によって、推論NNの重みパラメータ132を更新する。さらに、更新部160は、推論評価結果と説明評価結果とに基づく誤差逆伝播法によって説明部123が有する重みパラメータ133の更新を行う。
更新部160は、入力データに基づく重みパラメータの更新が終わるたびに、学習の終了条件が満たされたか否かを判断する(S16)。学習の終了条件が満たされていないと判断した場合には(S16において「NO」)、S11に動作が移行され、入力部115によって次の学習用データが取得され、推論部121、説明部123、推論評価部140、説明評価部150および更新部160それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、更新部160によって、学習の終了条件が満たされたと判断された場合には(S16において「YES」)、学習が終了される。
以上、本発明の第1の実施形態に係る学習装置10の動作の流れについて説明した。
(第1の実施形態のまとめ)
以上に説明したように、本発明の第1の実施形態によれば、単一のNNモデルに対して複数の説明情報を生成し、複数の説明情報同士の差分を評価する機構がNNの学習機構に追加される。これにより、複数の説明手法によって生成される複数の説明の差分が小さくなるようにNNの学習が行われ得る。その結果、異なる説明手法が用いられた場合であっても、互いに近い複数の説明情報を生成するモデル(すなわち、説明に一貫性のあるモデル)を得ることができる。
以上、本発明の第1の実施形態について説明した。
(2.第2の実施形態)
続いて、本発明の第2の実施形態について説明する。図4は、本発明の第2の実施形態に係る学習装置20の機能構成例を示す図である。図4に示されるように、本発明の第2の実施形態に係る学習装置20は、本発明の第1の実施形態に係る学習装置10と同様に、入力部115と、推論部121と、説明評価部150と、更新部160とを備える。さらに、本発明の第2の実施形態に係る学習装置20は、説明部223と、推論評価部240とを備える。
本発明の第2の実施形態においても、本発明の第1の実施形態と同様に、データセット110、入力部115、推論部121、説明評価部150および更新部160の機能が発揮される。したがって、以下では、説明部223および推論評価部240について主に説明を行う。
説明部223および推論評価部240は、CPUまたはGPUなどの演算装置を含み、ROMにより記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、図示しない記憶部によって適宜記憶される。
(説明部223)
説明部223は、本発明の第1の実施形態に係る説明部123と同様に、推論部121から入力された推論値の判断根拠の複数の説明情報を説明評価部150に出力する。例えば、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値に基づいて、説明情報を生成してもよい。
複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値と推論NNとに基づいて、説明情報を得てもよい。本発明の第2の実施形態では、推論部121から説明部223に推論値だけではなく特徴量も入力される場合を想定する。かかる場合、複数の説明手法のうち少なくとも一つの説明手法は、推論部121から入力された推論値と特徴量と推論NNとに基づいて、説明情報を得る。
本発明の第1の実施形態と同様に、複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播が可能な関数を含んでいてもよい。このとき、更新部160によって説明部123が有する重みパラメータ133が誤差逆伝播法によって更新され得る。すなわち、複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播法による更新後の重みパラメータ133によって説明情報を生成してもよい。
また、本発明の第2の実施形態では、複数の説明手法のうち少なくとも一つの説明手法が、説明情報の生成だけでなく、推論値(第2の推論値)を算出する場合を想定する。かかる場合には、説明部123は、複数の説明情報だけでなく、このようにして算出した推論値も推論評価部240に出力する。
非特許文献3には、ニューラルネットワークから出力される特徴量に基づいて、ニューラルネットワークへの入力のうち推論値への寄与度が高い領域を示すヒートマップを説明情報として出力するとともに、寄与度と特徴量とに基づいて推論を行い、推論値を出力する説明手法の例が記載されている。本発明の実施形態に対しても、非特許文献3に記載されている説明手法を適用することが可能である。
例えば、説明部223に含まれる複数の説明手法は、非特許文献3に記載された説明手法を用い、説明手法のパラメータの値を変更することによって用意されてもよい。あるいは、説明部223に含まれる複数の説明手法は、非特許文献3に記載された説明手法と、他の説明手法とを組み合わせることによって用意されてもよい。
推論評価部240は、推論部121から入力された推論値と入力部115によって取得された正解値と説明部223から入力された推論値とに基づいて、推論評価結果を得る。より詳細に、推論評価部240は、推論部121から入力された推論値と入力部115によって取得された正解値とを比較するとともに、説明部223から入力された推論値と入力部115によって取得された正解値とを比較することによって、推論評価結果を得る。推論評価部240は、推論評価結果を更新部160に出力する。
本発明の実施形態では、推論評価部240が、推論部121から入力された推論値および説明部223から入力された推論値と入力部115によって取得された正解値とに応じた損失関数を推論評価結果として算出する場合を想定する。ここで、本発明の第1の実施形態と同様に、推論値と正解値とに応じた損失関数は特定の関数に限定されない。
(第2の実施形態の動作)
図5を参照しながら、本発明の第2の実施形態に係る学習装置20の動作の流れについて説明する。図5は、本発明の第2の実施形態に係る学習装置20の動作例を示すフローチャートである。
S11~S12は、本発明の第1の実施形態に係るS11~S12(図3)と同様に実行される。
本発明の第1の実施形態と同様に、説明部223は、推論部121から入力された推論値に基づいて、複数の説明手法それぞれに対応する説明情報を複数の説明情報として生成する。説明部223は、生成した複数の説明情報を説明評価部150に出力する。さらに、説明部223に含まれる複数の説明手法のうち少なくとも一つの説明手法は、推論値(第2の推論値)を算出する。説明部223は、算出した推論値を推論評価部240に出力する(S23)。
推論評価部240は、推論部121から入力された推論値と入力部115によって取得された正解値と説明部223から入力された推論値とに基づいて、推論評価結果を得る。推論評価部240は、推論評価結果を更新部160に出力する。本発明の第1の実施形態と同様に、説明評価部150は、説明部123から入力された複数の説明情報に基づいて、説明評価結果を得る。そして、説明評価部150は、算出した説明評価結果を更新部160に出力する(S14)。
本発明の第1の実施形態と同様に、更新部160は、推論評価部240から入力された推論評価結果と、説明評価部150から入力された説明評価結果とに基づいて、推論NNの重みパラメータ132の更新を行う(S15)。より詳細に、更新部160は、推論評価結果と説明評価結果とに基づいて、誤差逆伝播法によって、推論NNの重みパラメータ132を更新する。さらに、更新部160は、推論評価結果と説明評価結果とに基づく誤差逆伝播法によって説明部123が有する重みパラメータ133の更新を行う。さらに、更新部160は、推論評価結果と説明評価結果とに基づく誤差逆伝播法によって説明部123が有する重みパラメータ133の更新を行う。
更新部160は、入力データに基づく重みパラメータの更新が終わるたびに、学習の終了条件が満たされたか否かを判断する(S16)。学習の終了条件が満たされていないと判断した場合には(S16において「NO」)、S11に動作が移行され、入力部115によって次の学習用データが取得され、推論部121、説明部223、推論評価部240、説明評価部150および更新部160それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、更新部160によって、学習の終了条件が満たされたと判断された場合には(S16において「YES」)、学習が終了される。
以上、本発明の第2の実施形態に係る学習装置20の動作の流れについて説明した。
(第2の実施形態のまとめ)
以上に説明したように、本発明の第2の実施形態によれば、本発明の第1の実施形態が奏する効果と同様の効果が享受され得る。また、本発明の第2の実施形態によれば、説明部223と推論評価部240とを接続することにより、説明情報と推論値との両方を出力する説明手法を用いることが可能となる。
以上、本発明の第2の実施形態について説明した。
(3.ハードウェア構成例)
続いて、本発明の第1の実施形態に係る学習装置10のハードウェア構成例について説明する。なお、本発明の第2の実施形態に係る学習装置20のハードウェア構成も同様に実現され得る。
以下では、本発明の実施形態に係る学習装置10のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、学習装置10のハードウェア構成の一例に過ぎない。したがって、学習装置10のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
図6は、本発明の実施形態に係る学習装置10の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。
ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。
以上、本発明の実施形態に係る学習装置10のハードウェア構成例について説明した。
(4.まとめ)
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
本発明の第1の実施形態および第2の実施形態では、複数の説明手法それぞれが誤差逆伝播可能な関数を含む場合を主に想定した。しかし、複数の説明手法の一部は、誤差逆伝播不可能な関数を含んでもよい。
本発明の第1の実施形態および第2の実施形態では、複数の説明手法それぞれが、推論値に基づいて説明情報を生成する場合を主に想定した。しかし、複数の説明手法の少なくとも一部は、人によってラベル付けされた説明情報を出力してもよい。
本発明の第1の実施形態および第2の実施形態では、複数の説明手法それぞれが、推論部121から出力される推論値に与える入力データの貢献度の大きさを領域ごとに示すヒートマップを生成する場合を主に想定した。しかし、複数の説明手法それぞれは、推論部121から出力される推論値に与える入力データの貢献度の大きさを示す他の情報であってもよい。
複数の説明手法それぞれは、推論部121から出力される推論値に与える入力データの貢献度の大きさを示す言語説明情報であってもよい。例えば、言語説明情報は、「画像(入力データ)の中央に所定の種類の動物の特徴を有する物体が存在する」といった説明情報であってもよい。あるいは、複数の説明手法それぞれは、推論部121から出力される推論値に与える入力データごとの貢献度の大きさを示す情報であってもよい。
10、20 学習装置
110 データセット
115 入力部
121 推論部
123、223 説明部
132 重みパラメータ
133 重みパラメータ
140、240 推論評価部
150 説明評価部
160 更新部

Claims (13)

  1. 学習用データと前記学習用データの正解値とを取得する入力部と、
    前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力する推論部と、
    前記第1の推論値の判断根拠の複数の説明情報を出力する説明部と、
    前記正解値と前記第1の推論値とに基づいて推論評価結果を得る推論評価部と、
    前記複数の説明情報に基づいて説明評価結果を得る説明評価部と、
    前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行う更新部と、
    を備える、学習装置。
  2. 前記説明部は、複数の説明手法に基づいて前記複数の説明情報を出力する、
    請求項1に記載の学習装置。
  3. 前記複数の説明手法のうち少なくとも一つの説明手法は、誤差逆伝播が可能な関数を含む、
    請求項2に記載の学習装置。
  4. 前記説明部は、第2の重みパラメータを有し、
    前記更新部は、誤差逆伝播法によって前記第2の重みパラメータの更新を行う、
    請求項3に記載の学習装置。
  5. 前記機械学習アルゴリズムは、ニューラルネットワークを含む、
    請求項2~4のいずれか一項に記載の学習装置。
  6. 前記推論部は、前記学習用データと前記ニューラルネットワークとに基づいて前記第1の推論値と特徴量とを出力し、
    前記複数の説明手法のうち少なくとも一つの説明手法は、前記第1の推論値と前記特徴量と前記ニューラルネットワークとに基づいて、説明情報を出力する、
    請求項5に記載の学習装置。
  7. 前記複数の説明手法のうち少なくとも一つの説明手法は、前記第1の推論値と前記特徴量と前記ニューラルネットワークとに基づいて、説明情報および第2の推論値を出力し、
    前記推論評価部は、前記正解値と前記第1の推論値と前記第2の推論値とに基づいて前記推論評価結果を得る、
    請求項6に記載の学習装置。
  8. 前記更新部は、前記推論評価結果と前記説明評価結果との加算結果に基づいて、前記第1の重みパラメータの更新を行う、
    請求項1~7のいずれか一項に記載の学習装置。
  9. 前記複数の説明情報それぞれは、前記第1の推論値に与える前記学習用データの貢献度の大きさを示す情報である、
    請求項8に記載の学習装置。
  10. 前記貢献度の大きさを示す情報は、前記第1の推論値に与える前記学習用データの貢献度の大きさを領域ごとに示すヒートマップである、
    請求項9に記載の学習装置。
  11. 前記貢献度の大きさを示す情報は、前記第1の推論値に与える前記学習用データの貢献度の大きさを示す言語説明情報である、
    請求項9に記載の学習装置。
  12. 学習用データと前記学習用データの正解値とを取得することと、
    前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力することと、
    前記第1の推論値の判断根拠の複数の説明情報を出力することと、
    前記正解値と前記第1の推論値とに基づいて推論評価結果を得ることと、
    前記複数の説明情報に基づいて説明評価結果を得ることと、
    前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行うことと、
    を備える、学習方法。
  13. コンピュータを、
    学習用データと前記学習用データの正解値とを取得する入力部と、
    前記学習用データと機械学習アルゴリズムとに基づいて第1の推論値を出力する推論部と、
    前記第1の推論値の判断根拠の複数の説明情報を出力する説明部と、
    前記正解値と前記第1の推論値とに基づいて推論評価結果を得る推論評価部と、
    前記複数の説明情報に基づいて説明評価結果を得る説明評価部と、
    前記推論評価結果と前記説明評価結果とに基づいて、前記機械学習アルゴリズムの第1の重みパラメータの更新を行う更新部と、
    を備える学習装置として機能させるプログラム。

JP2021057480A 2021-03-30 2021-03-30 学習装置、学習方法およびプログラム Active JP7092228B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021057480A JP7092228B1 (ja) 2021-03-30 2021-03-30 学習装置、学習方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021057480A JP7092228B1 (ja) 2021-03-30 2021-03-30 学習装置、学習方法およびプログラム

Publications (2)

Publication Number Publication Date
JP7092228B1 true JP7092228B1 (ja) 2022-06-28
JP2022154442A JP2022154442A (ja) 2022-10-13

Family

ID=82196223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057480A Active JP7092228B1 (ja) 2021-03-30 2021-03-30 学習装置、学習方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7092228B1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020217371A1 (ja) * 2019-04-25 2020-10-29 オムロン株式会社 学習システム、データ生成装置、データ生成方法、及びデータ生成プログラム
JP2021022159A (ja) * 2019-07-26 2021-02-18 株式会社 日立産業制御ソリューションズ 説明支援装置、および、説明支援方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020217371A1 (ja) * 2019-04-25 2020-10-29 オムロン株式会社 学習システム、データ生成装置、データ生成方法、及びデータ生成プログラム
JP2021022159A (ja) * 2019-07-26 2021-02-18 株式会社 日立産業制御ソリューションズ 説明支援装置、および、説明支援方法

Also Published As

Publication number Publication date
JP2022154442A (ja) 2022-10-13

Similar Documents

Publication Publication Date Title
JP6922945B2 (ja) 情報処理方法
AU2020385049B2 (en) Identifying optimal weights to improve prediction accuracy in machine learning techniques
JP6516025B2 (ja) 情報処理方法および情報処理装置
CN111461226A (zh) 对抗样本生成方法、装置、终端及可读存储介质
US11704570B2 (en) Learning device, learning system, and learning method
JP2018151876A (ja) 機械学習に使用される経験を格納する経験データベースを更新する方法
WO2021070819A1 (ja) 採点モデル学習装置、採点モデル及び判定装置
JP2021086371A (ja) 学習プログラム、学習方法および学習装置
JP7092228B1 (ja) 学習装置、学習方法およびプログラム
JP7210489B2 (ja) 学習装置、学習方法および学習プログラム
US20210283505A1 (en) Video Game Content Provision System and Method
JP2021144461A (ja) 学習装置及び推論装置
JP2022523207A (ja) ピラミッドレイヤのアーキテクチャを生成するためのシステムおよび方法
CN112148274A (zh) 用于改善代码特性的方法、系统、制品和装置
US20220300800A1 (en) Techniques for adaptive generation and visualization of quantized neural networks
JP2022078286A (ja) データ処理モデルのトレーニング方法、装置、電子機器及び記憶媒体
JP2019185121A (ja) 学習装置、学習方法及びプログラム
JP6801751B1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2023527341A (ja) プロトタイプオプションの発見による解釈可能な模倣学習
KR20210148877A (ko) 전자 장치 및 이의 제어 방법
US20210086070A1 (en) Voice command interface for video games
JP2023044336A (ja) 学習装置、学習方法およびプログラム
JP2023008028A (ja) 情報処理装置、情報処理方法およびプログラム
WO2023170810A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7462206B2 (ja) 学習装置、学習方法、及び学習プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R150 Certificate of patent or registration of utility model

Ref document number: 7092228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150