JP7107340B2 - 学習装置、学習方法およびプログラム - Google Patents

学習装置、学習方法およびプログラム Download PDF

Info

Publication number
JP7107340B2
JP7107340B2 JP2020146624A JP2020146624A JP7107340B2 JP 7107340 B2 JP7107340 B2 JP 7107340B2 JP 2020146624 A JP2020146624 A JP 2020146624A JP 2020146624 A JP2020146624 A JP 2020146624A JP 7107340 B2 JP7107340 B2 JP 7107340B2
Authority
JP
Japan
Prior art keywords
unit
similarity
data
learning
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020146624A
Other languages
English (en)
Other versions
JP2022041434A (ja
Inventor
恭史 国定
素子 加賀谷
蔵人 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2020146624A priority Critical patent/JP7107340B2/ja
Publication of JP2022041434A publication Critical patent/JP2022041434A/ja
Application granted granted Critical
Publication of JP7107340B2 publication Critical patent/JP7107340B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、学習装置、学習方法およびプログラムに関する。
ニューラルネットワーク(以下、「NN」とも表記する。)は、画像認識などにおいて高い性能を有する。しかし、一般的にNNは、膨大なパラメータと複雑なモデルとによって構成されており、NNのパラメータとNNからの出力結果との関係を解釈することが難しい。そのため、NNのパラメータを人手で修正し、NNの精度を向上させることが困難であるという課題がある。かかる課題を解決するため、NNの構造を工夫することによって、人手によるNNのパラメータ修正を可能とする各種の技術が提案されている。
例えば、入力データのうちNNが判断のために注目する領域を抽出する機構をNN内に導入する技術が開示されている(例えば、非特許文献1及び非特許文献2など)。かかる技術においては、学習済みのNNの注目領域を人間が修正し、修正した注目領域とNNの注目領域とが一致するように、NNに再学習を行わせることによって、NNの精度を向上させることができる。
Drew Linsley、他3名、"LEARNING WHAT AND WHERE TO ATTEND"、[online]、[令和2年6月26日検索]、インターネット<https://arxiv.org/abs/1805.08819> Masahiro Mitsuhara、他6名、" Embedding Human Knowledge into Deep NeuralNetwork via Attention Map"、[online]、[令和2年6月26日検索]、インターネット<https://arxiv.org/abs/1905.03540> Chaofan Chen、他5名、"This LooksLike That: Deep Learning for Interpretable Image Recognition"、[online]、[令和2年6月26日検索]、インターネット<https://arxiv.org/abs/1806.10574>
しかしながら、非特許文献1および非特許文献2それぞれに記載された技術では、人手によるNNのパラメータ修正の際に、人間が得られる情報はNNの注目領域のみである。例えば、NNがなぜその領域に注目して判定を行ったのか、NNがなぜ誤判定したのかを人間が推測することができれば、人手によってより的確な修正が行われ得ると考えられる。すなわち、NNの注目領域の情報だけでは、NNによる判断根拠を推測するには不十分である場合がある。人手によるNNのパラメータ修正をより容易かつ的確にするためには、NNによる判断根拠の推測の補助となる注目領域以外の情報も提供されることが望まれる。
そこで、NNによる判断根拠の推測の補助となる有用な情報を提示することを可能とする技術が提供されることが望まれる。
上記問題を解決するために、本発明のある観点によれば、学習用データと前記学習用データの正解値とを取得する入力部と、前記学習用データと第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、前記特徴量の一部または全部の領域と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力する類似度算出部と、前記類似度に基づいて推論値を出力する推論部と、前記学習用データと前記プロトタイプの前記元データとが出力部によって出力されるように前記出力部を制御する出力制御部と、ユーザによって入力された操作に基づいて前記類似度の修正データを記憶部に記録する記録制御部と、前記正解値と前記推論値と前記類似度と前記修正データとに基づいて評価結果を得る評価部と、前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータの更新を行う更新部と、を備える、学習装置が提供される。
前記出力制御部は、前記類似度が前記出力部によって出力されるように前記出力部を制御してもよい。
前記出力制御部は、前記推論値が前記出力部によって出力されるように前記出力部を制御してもよい。
前記評価部は、前記正解値と前記推論値とに基づく第1の誤差と、前記類似度と前記修正データとに基づく第2の誤差とに基づいて、前記評価結果を得てもよい。
前記記録制御部は、前記修正データを入力する操作に基づいて、前記修正データを前記記憶部に記録してもよい。
前記類似度算出部は、前記特徴量を構成する複数の領域単位で前記類似度を算出し、前記出力制御部は、前記学習用データのうち前記プロトタイプとの類似度が所定の類似度よりも高い特徴量が抽出される類似領域の位置が第1の位置として出力されるように制御し、前記記録制御部は、前記類似領域の位置を第1の位置から、前記プロトタイプとの類似度が所定の類似度以下である第2の位置に移動する操作に基づいて、前記修正データを生成してもよい。
前記記録制御部は、前記第1の位置に対応する類似度が前記所定の類似度以下であり、かつ、前記第2の位置に対応する類似度が前記所定の類似度よりも高い修正データを生成してもよい。
前記学習装置は、前記重みパラメータの更新後の第1のニューラルネットワークの第1の精度に基づく所定の処理を実行する処理実行部を備えてもよい。
前記処理実行部は、前記第1の精度が所定の精度よりも低い場合に、前記第1のニューラルネットワークの重みパラメータの更新の停止、または、所定の警告情報の出力を実行してもよい。
前記所定の精度は、あらかじめ定められた値、または、前記評価結果に基づく重みパラメータの更新前における第1のニューラルネットワークの第2の精度であってもよい。
前記処理実行部は、前記評価結果に基づく重みパラメータの更新前における第1のニューラルネットワークの第2の精度と前記第1の精度とが出力されるように制御してもよい。
前記更新部は、前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータととともに前記プロトタイプの更新を行ってもよい。
前記類似度算出部は、複数の学習用データそれぞれにおいて、前記推論部に出力した類似度と、前記類似度に対応する特徴量とを、保存データとして保存し、前記更新部は、前記プロトタイプと最も類似度が高い特徴量を類似特徴量として前記保存データから検出し、前記類似特徴量によって前記プロトタイプを上書きするとともに、前記類似特徴量が抽出された学習用データの前記類似特徴量に対応する領域データによって前記プロトタイプの前記元データを更新してもよい。
前記更新部は、前記類似特徴量によって前記プロトタイプを上書きした場合、前記プロトタイプの更新を停止してもよい。
前記更新部は、前記プロトタイプの元データを、前記第1のニューラルネットワークの重みパラメータの更新後の特徴抽出部に入力させたことに基づいて出力される特徴量によって、前記プロトタイプを更新してもよい。
前記推論部は、前記類似度と第2のニューラルネットワークとに基づいて前記推論値を出力し、前記更新部は、前記正解値と前記推論値と前記類似度と前記修正データとに基づいて前記第2のニューラルネットワークの重みパラメータの更新を行ってもよい。
また、本発明の別の観点によれば、学習用データと前記学習用データの正解値とを取得することと、前記学習用データと第1のニューラルネットワークとに基づいて特徴量を抽出することと、前記特徴量の一部または全部の領域と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力することと、前記類似度に基づいて推論値を出力することと、前記学習用データと前記プロトタイプの前記元データとが出力部によって出力されるように前記出力部を制御することと、ユーザによって入力された操作に基づいて前記類似度の修正データを記憶部に記録することと、前記正解値と前記推論値と前記類似度と前記修正データとに基づいて評価結果を得ることと、前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータの更新を行うことと、を備える、学習方法が提供される。
また、本発明の別の観点によれば、コンピュータを、学習用データと前記学習用データの正解値とを取得する入力部と、前記学習用データと第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、前記特徴量の一部または全部の領域と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力する類似度算出部と、前記類似度に基づいて推論値を出力する推論部と、前記学習用データと前記プロトタイプの前記元データとが出力部によって出力されるように前記出力部を制御する出力制御部と、ユーザによって入力された操作に基づいて前記類似度の修正データを記憶部に記録する記録制御部と、前記正解値と前記推論値と前記類似度と前記修正データとに基づいて評価結果を得る評価部と、前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータの更新を行う更新部と、を備える、学習装置として機能させるためのプログラムが提供される。
以上説明したように本発明によれば、NNによる判断根拠の推測の補助となる有用な情報を提示することを可能とする技術が提供される。
本発明の第1の実施形態に係る学習装置の機能構成例を示す図である。 特徴抽出部の機能の詳細を説明するための図である。 類似度算出部の機能の詳細を説明するための図である。 推論部の機能の詳細を説明するための図である。 評価部の機能の詳細を説明するための図である。 更新部によるプロトタイプデータの更新の第1の例について説明するための図である。 更新部によるプロトタイプデータの更新の第2の例について説明するための図である。 本発明の第1の実施形態に係る学習装置によって実行される学習段階の動作例を示すフローチャートである。 ユーザに類似度を修正させるための類似度修正画面の例を示す図である。 本発明の第1の実施形態に係る学習装置によって実行される修正段階の動作例を示すフローチャートである。 本発明の第1の実施形態に係る学習装置によって実行される再学習段階の動作例を示すフローチャートである。 本発明の第2の実施形態に係る学習装置の機能構成例を示す図である。 類似度算出部の機能の詳細を説明するための図である。 ユーザに類似度を修正させるための類似度修正画面の例を示す図である。 ユーザによる類似度修正後の類似度修正画面の例を示す図である。 同実施形態に係る学習装置の例としての情報処理装置のハードウェア構成を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。
(0.実施形態の概要)
本発明の実施形態の概要について説明する。本発明の実施形態では、学習用データと正解値との組み合わせに基づいてニューラルネットワークの学習を行う学習装置について説明する。学習装置においては、ニューラルネットワークの学習が行われた後(学習段階)、学習時に算出された類似度の修正が行われ(修正段階)、修正データに基づいて再度学習が行われる(再学習段階)。類似度については後に説明する。その後、識別装置において、学習済みのニューラルネットワークと識別用データ(テストデータ)とに基づいて推論値が出力される。
本発明の実施形態では、学習装置と識別装置とが同一のコンピュータによって実現される場合を主に想定する。しかし、学習装置と識別装置とは、別のコンピュータによって実現されてもよい。かかる場合には、学習装置によって生成された学習済みのニューラルネットワークが識別装置に提供される。例えば、学習済みのニューラルネットワークは、学習装置から識別装置に記録媒体を介して提供されてもよいし、通信を介して提供されてもよい。以下では、学習装置において実行される「学習段階」「修正段階」「再学習段階」について説明する。
(1.第1の実施形態)
まず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る学習装置10の機能構成例を示す図である。図1に示されるように、本発明の第1の実施形態に係る学習装置10は、入力部115と、特徴抽出部121と、類似度算出部122と、推論部123と、評価部140と、更新部150と、出力制御部161と、出力部162と、操作部171と、記録制御部172と、処理実行部180とを備える。
本発明の第1の実施形態では、特徴抽出部121と、類似度算出部122と、推論部123とが、ニューラルネットワーク120によって構成される場合を主に想定する。すなわち、特徴抽出部121と、類似度算出部122と、推論部123とは、ニューロンによって構築される計算グラフが処理順に接続されて構成されており、全体として1つのニューラルネットワークとみなされ得る。以下では、ニューラルネットワークを「NN」とも表記する。より詳細に、特徴抽出部121は、第1のニューラルネットワーク(以下、「特徴抽出NN」とも表記する。)を含み、推論部123は、第2のニューラルネットワーク(以下、「推論NN」とも表記する。)を含む。
しかし、特徴抽出部121と、類似度算出部122と、推論部123とは、具体的にどのような構成であってもよい。例えば、以下では、特徴抽出部121が特徴抽出NNを含み、推論部123が推論NNを含む場合を主に想定して説明する。しかし、推論部123は、推論NNを含まずに特定の推論アルゴリズムに基づいて推論を行ってもよい。
特徴抽出部121、類似度算出部122および推論部123の他、評価部140、更新部150、出力制御部161、記録制御部172および処理実行部180などは、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、図示しない記憶部によって適宜記憶される。
データセット110、特徴抽出NNの重みパラメータ132、推論NNの重みパラメータ133およびプロトタイプデータ134は、図示しない記憶部によって記憶される。また、後に説明するように、保存データ160(図7)が用いられる例では、かかる保存データ160も図示しない記憶部によって記憶される。かかる記憶部は、RAM(Random Access Memory)、ハードディスクドライブまたはフラッシュメモリなどのメモリによって構成されてよい。
初期状態において、特徴抽出NNの重みパラメータ132、推論NNの重みパラメータ133、および、プロトタイプデータ134それぞれには、初期値が設定されている。例えば、これらに設定される初期値は、ランダムな値であってよいが、どのような値であってもよい。例えば、これらに設定される初期値は、あらかじめ学習によって得られた学習済みの値であってもよい。プロトタイプデータ134に設定される初期値についての詳細は、後に説明する。
(1-1.学習段階)
まず、本発明の第1の実施形態に係る学習装置10によって実行される「学習段階」について説明する。
(データセット110)
データセット110は、複数の学習用データ(入力データ)と当該複数の学習用データそれぞれの正解値とを含んで構成される。なお、本発明の実施形態では、学習用データが画像データである場合(特に、静止画像データである場合)を主に想定する。しかし、学習用データの種類は特に限定されず、次元数調整によって画像データ以外も学習用データとして用いられ得る。例えば、学習用データは、複数のフレームを含んだ動画像データであってもよいし、音響データであってもよい。
(入力部115)
入力部115は、データセット110から学習用データおよび正解値の組み合わせを順次に取得する。入力部115は、学習用データおよび正解値の組み合わせを順次にニューラルネットワーク120の特徴抽出部121に出力する。入力部115よりも後段の各ブロックにおいては、前段のブロックからの入力に基づいて順次に各自の処理が繰り返し実行される。
なお、例えば、入力部115は、データセット110から学習用データおよび正解値の組み合わせを全部取得し終わった場合には、最初から当該組み合わせを取得し直して再度出力する動作を所定の回数繰り返してよい。かかる場合には、入力部115よりも後段のブロックにおいても、前段のブロックからの再度の入力に基づいて順次に各自の処理が繰り返し実行されてよい。
(特徴抽出部121)
特徴抽出部121は、入力部115から出力された学習用データと特徴抽出NNとに基づいて特徴量を抽出する。より詳細に、特徴抽出部121は、特徴抽出NNに学習用データを入力させたことに基づいて、特徴抽出NNから出力されるデータを特徴量として得る。特徴抽出部121は、特徴量を類似度算出部122に出力する。ここで、図2を参照しながら、特徴抽出部121の機能についてより詳細に説明する。
図2は、特徴抽出部121の機能の詳細を説明するための図である。図2を参照すると、入力部115から出力された学習用データ(入力データG1)が示されている。特徴抽出部121は、特徴抽出NNに学習用データ(入力データG1)を入力させ、重みパラメータ132を用いて特徴抽出NNから出力される特徴量F1を得る。特徴抽出NNの具体的な構成は限定されない。例えば、特徴抽出NNとしては、畳み込み層およびプーリング層を主として構成されたニューラルネットワークが用いられてもよい。以下では、畳み込み層として、2次元畳み込み層が用いられる場合を主に想定するが、3次元畳み込み層が用いられてもよい。
(類似度算出部122)
図1に戻って説明を続ける。類似度算出部122は、特徴抽出部121から出力された特徴量F1とプロトタイプデータ134との類似度を算出する。そして、類似度算出部122は、算出した特徴量F1とプロトタイプデータ134との類似度を推論部123に出力する。ここで、図3を参照しながら、類似度算出部122の機能についてより詳細に説明する。
図3は、類似度算出部122の機能の詳細を説明するための図である。図3を参照すると、特徴量F1が示されている。また、プロトタイプデータ134の例としてプロトタイプP1~P4が示されている。本発明の実施形態では、プロトタイプの数が4つである場合を主に想定するが、プロトタイプの数は限定されない。すなわち、プロトタイプの数は、1つであってもよいし、複数であってもよい。
ここで、プロトタイプは、ニューラルネットワーク120が正解値を予測するために必要となる典型的な特徴量であり得る。例えば、ニューラルネットワーク120が、入力画像が「犬」であるか「猫」であるかをクラス分類するニューラルネットワークである場合を想定する。かかる場合には、「犬」の典型例が写る画像、および、「猫」の典型例が写る画像それぞれの特徴量がプロトタイプとして用いられればよい。
上記したように、プロトタイプP1~P4に設定される初期値は、ランダムな値であってもよい。しかし、本発明の実施形態においては、このような典型例のデータを特徴抽出部121に入力した場合に特徴抽出部121から出力されるデータをプロトタイプP1~P4として使用する場合を主に想定する。すなわち、典型例のデータを特徴抽出部121に入力した場合に特徴抽出部121から出力されるデータを事前に計算し、そのデータをプロトタイプP1~P4の初期値として保存する。
また、プロトタイプP1~P4として使用される特徴量の元データ(例えば、典型例のデータ)、または当該元データを識別するための情報(元データのID)などいった情報もプロトタイプP1~P4に対応付けられて保存される。典型例のデータは、データセット110に含まれる学習用データからユーザによって選択されてもよい。このとき、プロトタイプP1~P4の初期値は、ユーザによって選択された典型例のデータから特徴抽出部121によって抽出される特徴量であってよい。
図3に示された例では、類似度算出部122によって、特徴量F1とプロトタイプP1との類似度M1が算出され、特徴量F1とプロトタイプP2との類似度M2が算出され、特徴量F1とプロトタイプP3との類似度M3が算出され、特徴量F1とプロトタイプP4との類似度M4が算出される。
特徴量とプロトタイプP1~P4それぞれとの類似度は、どのように算出されてもよい。例えば、類似度算出部122は、特徴量とプロトタイプP1~P4それぞれとの類似度を、特徴量とプロトタイプP1~P4それぞれとにおいて対応する要素同士の差分の二乗和(L2ノルム)を用いて算出することができる。例えば、L2ノルムの逆数は、要素同士の差分の二乗和が小さいほど(特徴量とプロトタイプとの距離が近いほど)大きくなるため、類似度として好適に用いられ得る。
一例として、特徴抽出部121から出力された特徴量をzとすると、類似度Mは、類似度算出部122によって以下の数式(1)に示されるように算出されてよい。
Figure 0007107340000001
なお、類似度の算出方法は、かかる例に限定されない。例えば、類似度を算出する関数としては、ニューラルネットワークにおける誤差逆伝播法が適用可能な関数であれば、ニューラルネットワークが解決すべき問題に応じて自由に設定されてよい。
(推論部123)
図1に戻って説明を続ける。推論部123は、類似度算出部122から出力された類似度M1~M4に基づいて推論を行って推論値を得る。そして、推論部123は、推論値を評価部140に出力する。ここで、図4を参照しながら、推論部123の機能についてより詳細に説明する。
図4は、推論部123の機能の詳細を説明するための図である。図4を参照すると、類似度算出部122から出力された類似度M1~M4が示されている。推論部123は、推論NNに類似度M1~M4を入力させ、重みパラメータ133を用いて推論NNから出力される推論値を得る。なお、本明細書においては、ニューラルネットワークへのデータの入力に基づいてニューラルネットワークから出力されるデータを得ることを広く「推論」と言う。そのため、学習段階においても「推論」という用語が使用される。
推論NNの具体的な構成は、特に限定されない。しかし、推論NNの出力の形式は、学習用データに対応する正解値の形式と合わせて設定されているのがよい。例えば、正解値が分類問題のクラスである場合、推論NNの出力は、クラス数分の長さを有するone-hotベクトルであるとよい。
(評価部140)
図1に戻って説明を続ける。評価部140は、入力部115によって取得された正解値に基づいて、推論部123から出力された推論値を評価して評価結果を得る。そして、評価部140は、評価結果を更新部150に出力する。ここで、図5を参照しながら、評価部140の機能についてより詳細に説明する。
図5は、評価部140の機能の詳細を説明するための図である。図5を参照すると、推論部123から出力された推論値が示されている。また、図5を参照すると、入力部115によって取得された正解値が示されている。本発明の実施形態では、評価部140が、正解値と推論値とに応じた損失関数を評価結果として算出する場合を想定する。ここで、本発明の実施形態において用いられる損失関数は特定の関数に限定されず、一般的なニューラルネットワークにおいて用いられる損失関数と同様の損失関数が用いられてよい。例えば、損失関数は、正解値と推論値との差分に基づく平均二乗誤差であってもよい。
(更新部150)
図1に戻って説明を続ける。更新部150は、評価部140から出力された評価結果に基づいて、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133との更新を行う。これによって、推論部123から出力される推論値が正解値に近づくように、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133とが訓練され得る。
また、本発明の第1の実施形態においては、更新部150が、評価部140から出力された評価結果に基づいて、プロトタイプデータ134も更新する場合を主に想定する。これによって、特徴抽出部121から出力される特徴量の変化に伴って、典型的な特徴量としてのプロトタイプデータ134も変化し得る。しかし、プロトタイプデータ134は、更新されなくてもよい。
プロトタイプデータ134を更新する手法としては、幾つかの手法が想定され得る。ここでは、プロトタイプデータ134の更新の例として、第1の例および第2の例について説明する。以下、図6および図7を参照しながら、更新部150によるプロトタイプデータ134の更新の第1の例および第2の例についてより詳細に説明する。
図6は、更新部150によるプロトタイプデータ134の更新の第1の例について説明するための図である。図6を参照すると、評価部140から出力された評価結果が示されている。また、プロトタイプデータ134の例として、プロトタイプP1~P4が示されている。さらに、当該評価結果に対応する学習用データ(入力データ)が示されている。例えば、更新部150は、評価部140から出力された評価結果に基づく誤差逆伝播法(バックプロパゲーション)によって、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133とを更新してよい。
第1の例では、更新部150は、プロトタイプP1~P4の元データを、特徴抽出NNの重みパラメータ132の更新後の特徴抽出部121に入力させたことに基づいて出力される特徴量によって、プロトタイプP1~P4を更新する。なお、更新部150は、特徴抽出NNの重みパラメータ132を更新するたびに、プロトタイプP1~P4を更新してもよい。しかし、更新部150は、特徴抽出NNの重みパラメータ132を複数回(例えば、100回など)更新するごとに、プロトタイプP1~P4を1回更新してもよい。これによって、プロトタイプP1~P4の更新に要する演算量が低減され得る。
図7は、更新部150によるプロトタイプデータ134の更新の第2の例について説明するための図である。図7を参照すると、評価部140から出力された評価結果が示されている。また、プロトタイプデータ134の例として、プロトタイプP1~P4が示されている。保存データ160には、初期状態では特に何も設定されていなくてよい。例えば、更新部150は、評価部140から出力された評価結果に基づく誤差逆伝播法(バックプロパゲーション)によって、特徴抽出NNの重みパラメータ132および推論NNの重みパラメータ133とともに、プロトタイプデータ134とを更新してよい。
第2の例では、プロトタイプと類似する特徴量(類似特徴量)の抽出元の学習用データ(すなわち、プロトタイプの元データ)が学習装置10によって検出(探索)される場合を想定する。そして、図示しない識別装置において、学習装置10によって検出された元データが、類似データとしてテストデータとともに提示される場合を想定する。これによって、類似データとテストデータとの類似性が容易に理解され得る。
より詳細に、類似度算出部122は、上記したように、複数の学習用データそれぞれに対して特徴量とプロトタイプP1~P4それぞれとの類似度M1~M4を算出し、推論部123に出力する。そこで、類似度算出部122は、所定のタイミングで、推論部123に出力した類似度と、当該類似度に対応する当該特徴量とを、プロトタイプP1~P4それぞれに対応付けて保存データ160として保存する。
図7には一例として、プロトタイプP1に対して、推論部123に出力された複数の類似度(類似度:50%、類似度:10%、・・・、類似度:20%)と、複数の類似度それぞれに対応する特徴量とが保存データ160として保存されている例が示されている。しかし、プロトタイプP2~P4それぞれに対応するチャネルの特徴量と類似度も同様に保存される。
なお、ここでは、データセット110を用いた学習装置10による学習が何巡か繰り返し実行された後に(例えば、4回繰り返し実行された後など)、次の巡目(例えば、5巡目など)の類似度と特徴量とが保存される場合を想定する。しかし、類似度と特徴量とが保存されるタイミングは限定されない。すなわち、類似度算出部122は、学習装置10による学習に用いられた複数の学習用データの一部または全部それぞれにおいて、(プロトタイプと特徴量との)類似度と特徴量とをプロトタイプに対応付けて保存すればよい。
類似度算出部122による類似度と特徴量との保存が終わると、更新部150は、プロトタイプと最も類似度が高い特徴量を類似特徴量として保存データ160から検出する。図7に示された例では、類似度が「50%」の特徴量が類似特徴量として検出される。更新部150は、類似特徴量が抽出された学習用データの当該類似特徴量に対応する学習用データを類似データとしてプロトタイプP1に対応付ける。なお、更新部150は、同様にして、プロトタイプP2~P4それぞれに類似データを対応付ける。
なお、プロトタイプデータ134は、学習が終了するまで、重みパラメータ132、133とともに誤差逆伝播法(バックプロパゲーション)によって更新され続けてもよい。しかし、プロトタイプデータ134の更新の第2の例では、更新部150が、検出した類似特徴量によってプロトタイプデータ134をプロトタイプごとに上書きする場合を想定する。これによって、類似度の算出に用いられるプロトタイプデータ134と、提示される類似データとの間の整合性が向上し得る。かかる整合性の観点から、更新部150は、学習の途中において、類似特徴量によってプロトタイプデータ134を上書きした場合、プロトタイプデータ134の更新を停止するのがよい。
なお、更新部150は、学習用データに基づく更新が終わるたびに、学習の終了条件が満たされたか否かを判断する。学習の終了条件が満たされていないと判断した場合には、入力部115によって次の学習用データが取得され、特徴抽出部121、類似度算出部122、推論部123、評価部140および更新部150それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、更新部150によって、学習の終了条件が満たされたと判断された場合には、学習が終了される。
なお、学習の終了条件は特に限定されず、ニューラルネットワーク120の学習がある程度行われたことを示す条件であればよい。具体的に、学習の終了件は、損失関数の値が閾値よりも小さいという条件を含んでもよい。あるいは、学習の終了条件は、損失関数の値の変化が閾値よりも小さいという条件(損失関数の値が収束状態になったという条件)を含んでもよい。あるいは、学習の終了条件は、重みパラメータの更新が所定の回数行われたという条件を含んでもよい。あるいは、評価部140によって正解値と推論値とに基づいて精度(例えば、正答率など)が算出される場合、学習の終了条件は、精度が所定の割合(例えば、90%など)を超えるという条件を含んでもよい。
(学習段階の動作)
図8を参照しながら、本発明の第1の実施形態に係る学習装置10によって実行される「学習段階」の動作の流れについて説明する。図8は、本発明の第1の実施形態に係る学習装置10によって実行される学習段階の動作例を示すフローチャートである。
まず、図8に示されたように、入力部115は、データセット110から入力データ(すなわち、学習用データ)および正解値の組み合わせを取得する。また、特徴抽出部121は、重みパラメータ132を取得し、推論部123は、重みパラメータ133を取得し、類似度算出部122は、プロトタイプデータ134を取得する(S11)。
特徴抽出部121は、入力部115によって取得された学習用データと特徴抽出NNとに基づいて特徴量を抽出する(S12)。より詳細に、特徴抽出部121は、特徴抽出NNに入力データを入力させ、重みパラメータ132を用いて特徴抽出NNから出力される特徴量を得る。特徴抽出部121は、特徴量を類似度算出部122に出力する。
類似度算出部122は、特徴抽出部121から出力された特徴量とプロトタイプP1~P4それぞれとの類似度M1~M4を算出する(S13)。推論部123は、類似度算出部122から出力された類似度M1~M4に基づいて推論を行って推論値を得る(S14)。より詳細に、推論部123は、推論NNに類似度M1~M4を入力させ、重みパラメータ133を用いて推論NNから出力される推論値を得る。そして、推論部123は、推論値を評価部140に出力する。
評価部140は、入力部115によって取得された正解値に基づいて、推論部123から出力された推論値を評価して評価結果を得る(S15)。より詳細に、評価部140は、正解値と推論値とに応じた損失関数を評価結果として算出する。そして、評価部140は、評価結果を更新部150に出力する。更新部150は、評価部140から出力された評価結果に基づいて、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133と、プロトタイプデータ134との更新を行う(S16)。
更新部150は、学習用データに基づく更新が終わるたびに、学習の終了条件が満たされたか否かを判断する(S17)。学習の終了条件が満たされていないと判断した場合には(S17において「NO」)、S11に動作が移行され、入力部115によって次の学習用データが取得され、特徴抽出部121、類似度算出部122、推論部123、評価部140および更新部150それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、更新部150によって、学習の終了条件が満たされたと判断された場合には(S17において「YES」)、学習が終了される。
以上、本発明の第1の実施形態に係る学習装置10によって実行される「学習段階」の動作の流れについて説明した。
(1-2.修正段階)
続いて、本発明の第1の実施形態に係る学習装置10によって実行される「修正段階」について説明する。なお、以下では、「学習段階」において類似度が一度算出されているものの、「修正段階」において類似度が算出され直される場合を主に想定する。これによって、類似度を記憶しておくために確保すべきメモリ領域が低減され得る。しかし、「学習段階」において、算出された類似度が、図示しない記憶部によって記憶されてもよい。かかる場合には、「修正段階」において、図示しない記憶部によって記憶されている類似度が用いられればよい。
さらに、以下では、「修正段階」が「学習段階」の後に実行される場合を主に想定する。しかし、「学習段階」が実行されずに、「修正段階」が実行され、後に説明する「再学習」に相当する学習が実行されてもよい。かかる場合であっても、「修正段階」において、ユーザによって類似度(類似度の修正データ)が入力される。なお、例えば、ユーザは、学習済みのニューラルネットワーク120の修正を担当する者であってよい。「修正段階」においても、学習段階と同様に、入力部115、特徴抽出部121、類似度算出部122および推論部123において各自の処理が実行される。
(出力制御部161)
推論部123によって推論値が算出されると、出力制御部161は、入力部115によって取得された学習用データ(入力データ)と、プロトタイプに対応付けられている(プロトタイプの)元データとが出力部162によって出力されるように出力部162を制御する。これによって、ユーザは、学習用データと元データとの比較に基づいて、類似度の修正が可能となる。
さらに、出力制御部161は、類似度算出部122によって算出された類似度が出力部162によって出力されるように出力部162を制御してよい。これによって、類似度算出部122によって算出された類似度がユーザによって認識され得る。また、出力制御部161は、推論部123によって得られた推論値が出力部162によって出力されるように出力部162を制御してもよい。
(出力部162)
出力部162は、ユーザに対して視覚的な情報を提示する表示部(ディスプレイ)である場合を主に想定する。しかし、出力部162の具体的な形態は限定されない。例えば、学習用データが音響データである場合などには、出力部162は、ユーザに対して聴覚的な情報を提示する音声出力部(スピーカ)などであってもよい。これによって、ユーザは、学習用データと元データとを聴覚的な情報として知覚した結果に基づいて、類似度を修正することが可能となる。
図9は、ユーザに類似度を修正させるための類似度修正画面の例を示す図である。図9を参照すると、出力部162によって表示される類似度修正画面W1が示されている。図9を参照すると、出力制御部161は、入力部115によって取得された学習用データ(入力データG1)と、プロトタイプに対応付けられている(プロトタイプの)元データR1とが出力部162によって表示されるように出力部162を制御している。
さらに、出力制御部161は、類似度算出部122によって算出された類似度(「現在の類似度」=10%)が出力部162によって表示されるように出力部162を制御している。また、出力制御部161は、推論部123によって得られた推論値「0」が出力部162によって表示されるように出力部162を制御している。ユーザは、入力データG1、プロトタイプの元データR1、推論値、現在の類似度などを見ながら、各種操作を操作部171に対して入力することが可能である。
(操作部171)
操作部171は、ユーザによって入力される各種操作を受け付ける機能を有する。ここでは、操作部171がマウスおよびキーボードによって構成される場合を主に想定する。しかし、操作部171の具体的な形態は限定されない。例えば、操作部171は、他の入力デバイス(例えば、タッチパネルなど)によって構成されてもよい。
一例として、操作部171に対して、ユーザがプロトタイプの元データを前に戻す操作(例えば、ボタンB21を選択する操作)を入力すると、出力制御部161は、表示対象のプロトタイプの元データを前に戻してもよい。例えば、プロトタイプP2の元データが現在表示されている状態であれば、表示対象のプロトタイプの元データを、プロトタイプP2の元データからプロトタイプP1の元データに切り替えてもよい。このとき、「推論値」および「現在の類似度」も、切り替え後のデータ(すなわち、プロトタイプP1の元データ)に対応する各値に切り替えられてよい。
他の一例として、操作部171に対して、ユーザがプロトタイプの元データを先に進める操作(例えば、ボタンB22を選択する操作)を入力すると、出力制御部161は、表示対象のプロトタイプの元データを先に進めてもよい。例えば、プロトタイプP2の元データが現在表示されている状態であれば、表示対象のプロトタイプの元データを、プロトタイプP2の元データからプロトタイプP3の元データに切り替えてもよい。このとき、「推論値」および「現在の類似度」も、切り替え後のデータ(すなわち、プロトタイプP3の元データ)に対応する各値に切り替えられてよい。
なお、プロトタイプP1~P4それぞれの元データが同時に表示される場合には、ユーザがプロトタイプの元データを前に戻す操作、および、ユーザがプロトタイプの元データを先に進める操作などは不要である。
また、一例として、操作部171に対して、ユーザが学習用データ(入力データ)を前に戻す操作(例えば、ボタンB11を選択する操作)を入力すると、出力制御部161は、表示対象の学習用データを前に戻してもよい。例えば、2つ目の学習用データが現在表示されている状態であれば、表示対象の学習用データを、2つ目の学習用データから1つ目の学習用データに切り替えてもよい。このとき、「推論値」および「現在の類似度」も、切り替え後のデータ(すなわち、1つ目の学習用データ)に対応する各値に切り替えられてよい。
他の一例として、操作部171に対して、ユーザが学習用データ(入力データ)を前に戻す操作(例えば、ボタンB12を選択する操作)を入力すると、出力制御部161は、表示対象の学習用データを先に進めてもよい。例えば、2つ目の学習用データが現在表示されている状態であれば、表示対象の学習用データを、2つ目の学習用データから3つ目の学習用データに切り替えてもよい。このとき、「推論値」および「現在の類似度」も、切り替え後のデータ(すなわち、3つ目の学習用データ)に対応する各値に切り替えられてよい。
なお、ユーザが学習用データを前に戻す操作によって、2つ以上前の学習用データに戻されてもよい。あるいは、幾つ前の学習用データに戻すかを、ユーザが選択可能であってもよい。同様に、ユーザが学習用データを先に進める操作によって、2つ以上先の学習用データに進められてもよい。あるいは、幾つ先の学習用データに進めるかを、ユーザが選択可能であってもよい。
ユーザは、類似度の修正データを入力することが可能である。より詳細に、類似度修正画面W1には、「修正後の類似度」の入力欄N1が含まれている。ユーザは、現在表示されている学習用データ(入力データG1)とプロトタイプの元データR1とを比較しながら、「修正後の類似度」の入力欄N1に対して、入力データG1およびプロトタイプの元データR1に対応する類似度(すなわち、学習用データから抽出される特徴量とプロトタイプとの類似度)を入力することが可能である。
なお、ここでは、ユーザによる修正作業を簡便にするため、「修正後の類似度」として、「0:類似していない」「1:類似している」の2値のいずれかがユーザによって入力され得る場合を主に想定する。しかし、ユーザは、「修正後の類似度」として、「0:類似していない」と「1:類似している」との間の値を入力可能であってもよい。
(記録制御部172)
記録制御部172は、修正データを入力する操作に基づいて、当該修正データを類似度修正データ173として図示しない記憶部に記録する。より詳細に、操作部171に対して、ユーザが修正を実行させる操作(例えば、ボタンB80を選択する操作)を入力すると、記録制御部172は、「修正後の類似度」の入力欄N1に設定された値を修正データとして取得する。記録制御部172は、取得した修正データを類似度修正データ173として図示しない記憶部に記録する。
一方、操作部171に対して、ユーザが修正を取り消す操作(例えば、ボタンB70を選択する操作)を入力すると、出力制御部161は、現在表示されている学習用データ(入力データG1)とプロトタイプの元データR1とに対応する類似度の修正を実行しなくてよい。
なお、記録制御部172は、類似度の修正の終了条件が満たされたか否かを判断する。記録制御部172は、類似度の修正の終了条件が満たされていないと判断した場合には、引き続き類似度の修正が行われる。一方、記録制御部172は、類似度の修正の終了条件が満たされたと判断された場合には、類似度の修正を終了する。
なお、類似度の修正の終了条件は特に限定されない。例えば、類似度の修正の終了条件は、ユーザによって類似度の修正を終了させる操作(例えば、類似度修正画面W1を閉じる操作など)が入力されたという条件であってもよい。あるいは、類似度の修正の終了条件は、類似度の修正がある程度行われたことを示す条件であってもよい。具体的に、類似度の修正がある程度行われたことを示す条件は、学習段階において誤判定された学習用データ(すなわち、正解値と推論値とが不一致であった学習用データ)に対応する類似度の修正が全部終了したという条件を含んでもよい。
(修正段階の動作)
図10を参照しながら、本発明の第1の実施形態に係る学習装置10によって実行される「修正段階」の動作の流れについて説明する。図10は、本発明の第1の実施形態に係る学習装置10によって実行される修正段階の動作例を示すフローチャートである。まず、S21~S24は、学習段階におけるS11~S14(図8)と同様に実行される。
出力制御部161は、入力部115によって取得された学習用データ(入力データ)と、プロトタイプに対応付けられている(プロトタイプの)元データと、推論部123によって得られた推論値と、類似度算出部122によって算出された類似度とが、出力部162によって出力されるように出力部162を制御する(S25)。
記録制御部172は、ユーザの操作に基づいて、類似度修正データ173を保存する(S26)。より詳細に、記録制御部172は、類似度の修正データを入力するユーザの操作に基づいて、当該修正データを類似度修正データ173として、図示しない記憶部に記録する。記録制御部172は、類似度の修正の終了条件が満たされていないと判断した場合には(S27において「NO」)、引き続き類似度の修正が行われる。一方、記録制御部172は、類似度の修正の終了条件が満たされたと判断された場合には(S27において「YES」)、類似度の修正を終了する。
以上、本発明の第1の実施形態に係る学習装置10によって実行される「修正段階」の動作の流れについて説明した。
(1-3.再学習段階)
続いて、本発明の第1の実施形態に係る学習装置10によって実行される「再学習段階」について説明する。「再学習段階」においても、学習段階と同様に、入力部115、特徴抽出部121、類似度算出部122および推論部123において各自の処理が実行される。
評価部140は、入力部115によって取得された正解値と、推論部123から出力された推論値と、類似度算出部122によって算出された類似度と、(入力部115によって取得された学習用データに対応する)類似度修正データ173とに基づいて評価結果を得る。より詳細に、評価部140は、正解値と推論値とに基づく第1の誤差と、類似度と類似度修正データとに基づく第2の誤差とに基づいて、評価結果を得る。
これによって、推論部123から出力される推論値が正解値に近づくように、かつ、類似度が類似度修正データに近づくように、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133とが訓練され得る。一例として、評価部140は、正解値と推論値とに基づく第1の誤差(例えば、正解値と推論値との差分に基づく平均二乗誤差)と、類似度と類似度修正データとに基づく第2の誤差(例えば、類似度と類似度修正データとの差分に基づく平均二乗誤差)とを加算し、加算した結果を評価結果として得る。
なお、類似度修正データが対応付けられていない類似度は、特に第2の誤差は生じずに第1の誤差のみが評価結果に反映されればよい。
更新部150は、学習段階と同様に、評価部140によって得られた評価結果に基づいて、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133とプロトタイプデータ134との更新を行う。
処理実行部180は、特徴抽出NNの重みパラメータ132、推論NNの重みパラメータ133およびプロトタイプデータ134の更新後のニューラルネットワーク120の精度(第1の精度)が算出される場合、当該ニューラルネットワーク120の精度(以下、「再学習段階実行によるニューラルネットワーク120の精度」とも言う。)に基づく所定の処理を実行する。これによって、ニューラルネットワーク120の精度がどのように変化したかがユーザによって認識され得る。なお、再学習段階実行によるニューラルネットワーク120は、再学習段階実行中のニューラルネットワーク120であってもよいし、再学習段階終了後のニューラルネットワーク120であってもよい。
再学習段階実行によるニューラルネットワーク120の精度は、具体的にどのような指標であってもよい。例えば、再学習段階実行によるニューラルネットワーク120の精度は、再学習段階実行によるニューラルネットワーク120に次の学習用データを入力させた場合に再学習段階実行によるニューラルネットワーク120から出力される推論値と、当該次の学習用データの正解値とに基づいて算出される正答率であってもよい。
例えば、処理実行部180は、再学習段階実行によるニューラルネットワーク120の精度が所定の精度よりも低い場合に、(例えば、再学習段階の実行を続ける必要性が低いことも想定され得るため、)特徴抽出NNの重みパラメータ132、推論NNの重みパラメータ133およびプロトタイプデータ134の更新を停止してもよい。あるいは、処理実行部180は、再学習段階実行によるニューラルネットワーク120の精度が所定の精度よりも低い場合に、(例えば、再学習段階の実行状況をユーザに知らせるため、)所定の警告情報の出力を実行してもよい。警告情報は、出力部162から(例えば、視覚的な情報または聴覚的な情報として)出力されてよい。
ここで、再学習段階実行によるニューラルネットワーク120の精度と比較される所定の精度は、あらかじめ定められた値であってもよい。あるいは、再学習段階実行によるニューラルネットワーク120の精度と比較される所定の精度は、再学習段階実行前(すなわち、類似度修正データに基づく重みパラメータの更新前)におけるニューラルネットワーク120の精度(第2の精度)であってもよい。例えば、再学習段階実行によるニューラルネットワーク120の精度と比較される所定の精度は、学習段階実行後(すなわち、類似度修正データを用いずに重みパラメータを更新した後)かつ再学習段階実行前におけるニューラルネットワーク120の精度であってもよい。
あるいは、処理実行部180は、再学習段階実行前におけるニューラルネットワーク120の精度と、再学習段階実行によるニューラルネットワーク120の精度とが、出力部162によって出力されるように出力部162を制御してもよい。これによって、ユーザは、再学習段階が行われることによってニューラルネットワーク120の精度がどのように変化したかを、再学習段階実行前後のニューラルネットワーク120の精度同士を直接比較することによって認識することができる。
更新部150は、学習用データに基づく更新が終わるたびに、再学習の終了条件が満たされたか否かを判断する。再学習の終了条件は、上記した学習の終了条件と同様であってよい。更新部150は、再学習の終了条件が満たされていないと判断した場合には、入力部115によって次の学習用データが取得され、特徴抽出部121、類似度算出部122、推論部123、評価部140および更新部150それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、更新部150によって、再学習の終了条件が満たされたと判断された場合には、再学習が終了される。
(再学習段階の動作)
図11を参照しながら、本発明の第1の実施形態に係る学習装置10によって実行される「再学習段階」の動作の流れについて説明する。図11は、本発明の第1の実施形態に係る学習装置10によって実行される再学習段階の動作例を示すフローチャートである。まず、S31~S35は、学習段階におけるS11~S15(図8)と同様に実行される。
評価部140は、入力部115によって取得された正解値に基づいて、推論部123から出力された推論値を評価して暫定的な評価結果(第1の誤差)を得る。そして、評価部140は、類似度修正データに基づいて、類似度算出部122から出力された類似度を評価して加算分の評価結果(第2の誤差)を得る。評価部140は、暫定的な評価結果に加算分の評価結果を加算することによって、暫定的な評価結果を更新する(S36)。
S37およびS38は、学習段階におけるS16およびS17(図8)と同様に実行される。
以上、本発明の第1の実施形態に係る学習装置10によって実行される「再学習段階」の動作の流れについて説明した。
(1-4.第1の実施形態のまとめ)
以上に説明したように、本発明の第1の実施形態に係る学習装置10において、入力部115は、学習用データと学習用データの正解値とを取得する。特徴抽出部121は、学習用データと特徴抽出NNとに基づいて特徴量を抽出する。類似度算出部122は、特徴量の全部の領域と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力する。推論部123は、類似度に基づいて推論値を出力する。
そして、出力制御部161は、学習用データとプロトタイプの元データとが出力部162によって出力されるように出力部162を制御する。記録制御部172は、ユーザによって入力された操作に基づいて類似度修正データ173を図示しない記憶部に記録する。評価部140は、正解値と推論値と類似度と類似度修正データ173とに基づいて評価結果を得る。更新部150は、評価結果に基づいて、特徴抽出NNの重みパラメータの更新を行う。
かかる構成によれば、特徴抽出NNのパラメータとプロトタイプとの類似度に基づいて判定を行うニューラルネットワーク120における特徴抽出NNのパラメータをユーザが修正するために、類似度を直接修正するに際して、プロトタイプの元データと学習用データとがユーザに提示される。すなわち、類似度を修正するユーザに際して、判断根拠の推測の補助となる有用な情報をユーザに提示することが可能となる。また、ユーザによって入力された類似度修正データに基づく再学習によって、プロトタイプが適切な特徴量に更新され得る。
以上、本発明の第1の実施形態について説明した。
(2.第2の実施形態)
続いて、本発明の第2の実施形態について説明する。図12は、本発明の第2の実施形態に係る学習装置20の機能構成例を示す図である。図12に示されるように、本発明の第2の実施形態に係る学習装置20は、本発明の第1の実施形態に係る学習装置10と同様に、入力部115と、特徴抽出部121と、推論部123と、評価部140と、出力部162と、操作部171と、処理実行部180とを備える。さらに、本発明の第2の実施形態に係る学習装置20は、類似度算出部222と、更新部250と、出力制御部261と、記録制御部272とを備える。以下では、類似度算出部222、更新部250および出力制御部261について主に説明を行う。
本発明の第2の実施形態においても、本発明の第1の実施形態と同様に、特徴抽出部121と、類似度算出部222と、推論部123とが、ニューラルネットワーク220によって構成される場合を主に想定する。また、本発明の第2の実施形態においても、本発明の第1の実施形態と同様に、特徴抽出部121と、類似度算出部222と、推論部123とは、具体的にどのような構成であってもよい。
類似度算出部222、更新部250、出力制御部261および記録制御部272は、CPUまたはGPUなどの演算装置を含み、ROMにより記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、図示しない記憶部によって適宜記憶される。プロトタイプデータ234は、図示しない記憶部によって記憶される。
初期状態において、プロトタイプデータ234には、初期値が設定されている。例えば、これらに設定される初期値は、ランダムな値であってよいが、どのような値であってもよい。例えば、プロトタイプデータ234に設定される初期値は、あらかじめ学習によって得られた学習済みの値であってもよい。プロトタイプデータ234に設定される初期値についての詳細は、後に説明する。
(2-1.学習段階)
まず、本発明の第2の実施形態に係る学習装置20によって実行される「学習段階」について説明する。
(データセット110~特徴抽出部121)
本発明の第2の実施形態に係る学習装置20においても、本発明の第1の実施形態と同様に、データセット110、入力部115および特徴抽出部121それぞれの機能が発揮される。
(類似度算出部222)
類似度算出部222は、特徴抽出部121から出力された特徴量とプロトタイプデータ234との類似度を算出する。そして、類似度算出部222は、算出した特徴量とプロトタイプデータ234との類似度を推論部123に出力する。ここで、図13を参照しながら、類似度算出部222の機能についてより詳細に説明する。
図13は、類似度算出部222の機能の詳細を説明するための図である。図13を参照すると、特徴量F1が示されている。また、特徴量F1には、部分特徴量F1-1~F1-Nが含まれている。部分特徴量F1-1~F1-Nそれぞれは、特徴量F1から切り出された特徴量の一部の領域である。なお、特徴量F1から部分特徴量F1-1~F1-Nの切り出し方は限定されない。例えば、部分特徴量F1-1~F1-Nの中に重複領域を有するもの同士があってもよい。あるいは、特徴量F1の中には、部分特徴量として切り出されない領域が存在してもよい。
また、図13を参照すると、プロトタイプデータ234の例としてプロトタイプP1~P4が示されている。本発明の第1の実施形態と同様に、本発明の第2の実施形態においても、プロトタイプの数が4つである場合を主に想定するが、プロトタイプの数は限定されない。すなわち、プロトタイプの数は、1つであってもよいし、複数であってもよい。
ここで、プロトタイプは、ニューラルネットワーク220が正解値を予測するために必要となる典型的な特徴量であり得る。本発明の第2の実施形態においても、ニューラルネットワーク220が、入力画像が「犬」であるか「猫」であるかをクラス分類するニューラルネットワークである場合を想定する。しかし、本発明の第2の実施形態においては、「犬」の典型例が写る画像の一部の領域(以下、「部分領域」とも言う。)、および、「猫」の典型例が写る画像の部分領域それぞれの特徴量がプロトタイプとして用いられる。
部分領域の位置、サイズおよび形状などは限定されない。例えば、特徴抽出部121から出力される特徴量のサイズが、C×H(高さ)×W(幅)と表現される場合、プロトタイプP1~P4それぞれのデータサイズは、C×H’(高さ)×W’(幅)(ただし、H>H’かつW>W’)と表現される。プロトタイプP1~P4それぞれのデータサイズは、特徴抽出部121から出力される特徴量から切り出される部分特徴量と同じサイズである。
上記したように、プロトタイプP1~P4に設定される初期値は、ランダムな値であってもよい。本発明の第2の実施形態においては、このような典型例のデータの部分領域を特徴抽出部121に入力した場合に特徴抽出部121から出力されるデータをプロトタイプP1~P4として使用する場合を主に想定する。すなわち、典型例のデータの部分領域を特徴抽出部121に入力した場合に特徴抽出部121から出力されるデータを事前に計算し、そのデータをプロトタイプP1~P4の初期値として保存する。
また、プロトタイプP1~P4として使用される特徴量の元データ(例えば、典型例のデータの部分領域)、または当該元データを識別するための情報(元データのID)などいった情報もプロトタイプP1~P4に対応付けられて保存される。典型例のデータは、データセット110に含まれる学習用データからユーザによって選択されてもよい。このとき、プロトタイプP1~P4の初期値は、ユーザによって選択された典型例のデータの部分領域から特徴抽出部121によって抽出される特徴量であってよい。
図3に示された例では、類似度算出部122によって、特徴量F1-1~特徴量F1-NそれぞれとプロトタイプP1との類似度M1(類似度マップ)が算出され、特徴量F1-1~特徴量F1-N1それぞれとプロトタイプP2との類似度M2(類似度マップ)が算出され、特徴量F1-1~F1-NそれぞれとプロトタイプP3との類似度M3(類似度マップ)が算出され、特徴量F1-1~F1-NそれぞれとプロトタイプP4との類似度M4(類似度マップ)が算出される。
特徴量F1-1~F1-NとプロトタイプP1~P4との各組み合わせに対応する類似度は、どのように算出されてもよい。例えば、類似度算出部122は、特徴量F1-1~F1-NとプロトタイプP1~P4との各組み合わせに対応する類似度を、各組み合わせにおいて対応する要素同士の差分の二乗和(L2ノルム)を用いて算出することができる。例えば、L2ノルムの逆数は、要素同士の差分の二乗和が小さいほど(特徴量とプロトタイプとの距離が近いほど)大きくなるため、類似度として好適に用いられ得る。
一例として、特徴抽出部121から出力された特徴量の部分特徴量をz’とすると、類似度Mij(i:特徴量からの切り出される領域数、j:プロトタイプ数)は、類似度算出部222によって以下の数式(2)に示されるように算出されてよい。なお、類似度の算出方法は、本発明の第1の実施形態と同様に、かかる例に限定されない。
Figure 0007107340000002
(推論部123~評価部140)
図12に戻って説明を続ける。推論部123は、本発明の第1の実施形態と同様に、類似度算出部122から出力された類似度M1~M4に基づいて推論を行って推論値を得る。そして、推論部123は、推論値を評価部140に出力する。
(更新部250)
更新部250は、評価部140から出力された評価結果に基づいて、特徴抽出NNの重みパラメータ132と、推論NNの重みパラメータ133との更新を行う。また、本発明の第2の実施形態においては、更新部250が、評価部140から出力された評価結果に基づいて、プロトタイプデータ234も更新する場合を主に想定する。しかし、プロトタイプデータ234は、更新されなくてもよい。これらの更新は、本発明の第1の実施形態における更新と同様に実行され得る。
以上、本発明の第2の実施形態に係る学習装置20によって実行される「学習段階」について説明した。
(2-2.修正段階)
続いて、本発明の第2の実施形態に係る学習装置10によって実行される「修正段階」について説明する。「修正段階」においても、学習段階と同様に、入力部115、特徴抽出部121、類似度算出部222および推論部123において各自の処理が実行される。
(出力制御部261)
推論部123によって推論値が算出されると、出力制御部261は、入力部115によって取得された学習用データ(入力データ)と、プロトタイプに対応付けられている(プロトタイプの)元データとが出力部162によって出力されるように出力部162を制御する。さらに、出力制御部261は、類似度算出部222によって算出された類似度が出力部162によって出力されるように出力部162を制御してよい。これによって、類似度算出部222によって算出された類似度がユーザによって認識され得る。また、出力制御部261は、推論部123によって得られた推論値が出力部162によって出力されるように出力部162を制御してもよい。
図14は、ユーザに類似度を修正させるための類似度修正画面の例を示す図である。図14を参照すると、出力部162によって表示される類似度修正画面W2が示されている。図14を参照すると、出力制御部261は、入力部115によって取得された学習用データ(入力データG1)と、(元データR1の特徴量に該当し得る)プロトタイプに対応付けられている(プロトタイプの)元データR1とが出力部162によって表示されるように出力部162を制御している。
さらに、出力制御部261は、類似度算出部122によって算出された類似度(現在の類似度)が出力部162によって表示されるように出力部162を制御する。出力制御部261は、学習用データ(入力データG1)のうち(元データR1の特徴量に該当し得る)プロトタイプとの類似度が所定の類似度よりも高い部分特徴量が抽出される領域(以下、「類似領域」とも言う。)の位置が出力部162によって表示されるように出力部162を制御する。所定の類似度が具体的にどのような値であるかは限定されない。
図14に示された例では、学習用データ(入力データG1)のうち(元データR1の特徴量に該当し得る)プロトタイプとの類似度が所定の類似度よりも高い部分特徴量が抽出される類似領域G11の位置が示されている。なお、学習用データ(入力データG1)のうち類似領域G11の外側は、類似度が所定の類似度以下である部分特徴量が抽出される領域(以下、「非類似領域」とも言う。)である。
なお、類似領域G11の表現の仕方は限定されない。例えば、図14に示されたように、類似領域G11の輪郭線が表示されてもよいし、類似領域G11に対して何らかの修飾(例えば、着色など)が付されてもよい(すなわち、類似領域が可視化されたヒートマップが作成されてもよい)。また、類似領域G11の形は図14に示されたように四角形で表示してもよいし、ヒートマップ状で表示してもよい。
ユーザは、操作部171に対して、類似領域G11の位置を移動する操作を(例えば、ドラッグアンドドロップ操作などによって)入力することが可能である。なお、類似領域G11の位置を移動する操作は、移動後の類似領域G11の位置をクリックする操作であってもよい。また、類似領域G11の位置の移動前後において、類似領域G11のサイズおよび形は同じであってもよいし、類似領域G11のサイズおよび形の少なくともいずれか一方が変化してもよい。ユーザが、操作部171に対して、類似領域G11の位置を第1の位置から、プロトタイプとの類似度が所定の類似度以下である第2の位置に移動する操作を入力すると、記録制御部272は、当該操作に基づいて、類似度修正データを生成する。
例えば、図14に示された例では、類似領域G11が入力データG1に写る「犬」の「足部」であると判断されている。しかし、ユーザが、入力データG1に写る「犬」の「頭部」が類似領域であると考えた場合を想定する。かかる場合、ユーザは、操作部171に対して、類似領域G11を「犬」の「足部」の位置(第1の位置)から「頭部」の位置(第2の位置)に移動する操作を入力する。
(記録制御部272)
図15は、ユーザによる類似度修正後の類似度修正画面の例を示す図である。図15を参照すると、出力部162によって表示される類似度修正画面W3が示されている。図15を参照すると、類似領域G11が「犬」の「頭部」に移動されている。このとき、記録制御部272は、(移動前の類似領域G11の位置である)「足部」の位置に対応する類似度が所定の類似度以下であり、かつ、(移動後の類似領域G11の位置である)「頭部」の位置に対応する類似度が所定の類似度よりも高い類似度修正データを生成する。
なお、所定の類似度以下の値、および、所定の類似度よりも高い値それぞれが、具体的にどのような値であるかは限定されない。記録制御部272は、生成した類似度修正データを類似度修正データ273として図示しない記憶部に記録する。一例として、操作部171に対して、ユーザが修正を実行させる操作(例えば、ボタンB80を選択する操作)を入力すると、記録制御部272は、生成した類似度修正データを類似度修正データ273として図示しない記憶部に記録する。
なお、本発明の第2の実施形態においても、本発明の第1の実施形態と同様に、記録制御部272は、類似度の修正の終了条件が満たされたか否かを判断する。記録制御部272は、類似度の修正の終了条件が満たされていないと判断した場合には、引き続き類似度の修正が行われる。一方、記録制御部272は、類似度の修正の終了条件が満たされたと判断された場合には、類似度の修正を終了する。
以上、本発明の第2の実施形態に係る学習装置20によって実行される「修正段階」について説明した。
(2-3.再学習段階)
続いて、本発明の第2の実施形態に係る学習装置20によって実行される「再学習段階」について説明する。本発明の第2の実施形態に係る学習装置20によって実行される「再学習段階」は、本発明の第1の実施形態に係る学習装置10によって実行される「再学習段階」と同様である。
以上、本発明の第2の実施形態に係る学習装置20によって実行される「再学習段階」について説明した。
(2-4.第2の実施形態のまとめ)
以上に説明したように、本発明の第2の実施形態に係る学習装置20において、類似度算出部222は、特徴量の一部の領域(部分領域)と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力する。評価部140は、正解値と推論値と類似度と類似度修正データ273とに基づいて評価結果を得る。更新部150は、評価結果に基づいて、特徴抽出NNの重みパラメータの更新を行う。
かかる構成によれば、本発明の第1の実施形態が奏する効果と同様の効果が奏される。また、特徴抽出NNのパラメータを修正するために、学習用データから抽出される特徴量に対応する類似度の修正を、学習用データの部分領域ごとに(領域単位で)行うことが可能となる。
以上、本発明の第2の実施形態について説明した。
(3.ハードウェア構成例)
続いて、本発明の実施形態に係る学習装置10のハードウェア構成例について説明する。
以下では、本発明の実施形態に係る学習装置10のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、学習装置10のハードウェア構成の一例に過ぎない。したがって、学習装置10のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
図16は、本発明の実施形態に係る学習装置10の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。
ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。
以上、本発明の実施形態に係る学習装置10のハードウェア構成例について説明した。
(4.まとめ)
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10、20 学習装置
110 データセット
115 入力部
120、220 ニューラルネットワーク
121 特徴抽出部
122、222 類似度算出部
123 推論部
134、234 プロトタイプデータ
140 評価部
150、250 更新部
160 保存データ
161、261 出力制御部
162 出力部
171 操作部
172、272 記録制御部
173、273 類似度修正データ
180 処理実行部

Claims (17)

  1. 学習用データと前記学習用データの正解値とを取得する入力部と、
    前記学習用データと第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、
    前記特徴量の一部または全部の領域と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力する類似度算出部と、
    前記類似度に基づいて推論値を出力する推論部と、
    前記学習用データと前記プロトタイプの前記元データとが出力部によって出力されるように前記出力部を制御する出力制御部と、
    ユーザによって入力された操作に基づいて前記類似度の修正データを記憶部に記録する記録制御部と、
    前記正解値と前記推論値とに基づく第1の誤差と、前記類似度と前記修正データとに基づく第2の誤差とに基づいて評価結果を得る評価部と、
    前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータの更新を行う更新部と、
    を備える、学習装置。
  2. 学習用データと前記学習用データの正解値とを取得する入力部と、
    前記学習用データと第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、
    前記特徴量の一部または全部の領域と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力する類似度算出部と、
    前記類似度に基づいて推論値を出力する推論部と、
    前記学習用データと前記プロトタイプの前記元データとが出力部によって出力されるように前記出力部を制御する出力制御部と、
    ユーザによって入力された操作に基づいて前記類似度の修正データを記憶部に記録する記録制御部と、
    前記正解値と前記推論値と前記類似度と前記修正データとに基づいて評価結果を得る評価部と、
    前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータの更新を行う更新部と、
    を備え
    前記類似度算出部は、前記特徴量を構成する複数の領域単位で前記類似度を算出し、
    前記出力制御部は、前記学習用データのうち前記プロトタイプとの類似度が所定の類似度よりも高い特徴量が抽出される類似領域の位置が第1の位置として出力されるように制御し、
    前記記録制御部は、前記類似領域の位置を第1の位置から、前記プロトタイプとの類似度が所定の類似度以下である第2の位置に移動する操作に基づいて、前記修正データを生成する、
    学習装置。
  3. 前記記録制御部は、前記第1の位置に対応する類似度が前記所定の類似度以下であり、かつ、前記第2の位置に対応する類似度が前記所定の類似度よりも高い修正データを生成する、
    請求項に記載の学習装置。
  4. 学習用データと前記学習用データの正解値とを取得する入力部と、
    前記学習用データと第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、
    前記特徴量の一部または全部の領域と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力する類似度算出部と、
    前記類似度に基づいて推論値を出力する推論部と、
    前記学習用データと前記プロトタイプの前記元データとが出力部によって出力されるように前記出力部を制御する出力制御部と、
    ユーザによって入力された操作に基づいて前記類似度の修正データを記憶部に記録する記録制御部と、
    前記正解値と前記推論値と前記類似度と前記修正データとに基づいて評価結果を得る評価部と、
    前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータの更新を行うととともに前記プロトタイプの更新を行う更新部と、
    を備える、学習装置。
  5. 前記類似度算出部は、複数の学習用データそれぞれにおいて、前記推論部に出力した類似度と、前記類似度に対応する特徴量とを、保存データとして保存し、
    前記更新部は、前記プロトタイプと最も類似度が高い特徴量を類似特徴量として前記保存データから検出し、前記類似特徴量によって前記プロトタイプを上書きするとともに、前記類似特徴量が抽出された学習用データの前記類似特徴量に対応する領域データによって前記プロトタイプの前記元データを更新する、
    請求項に記載の学習装置。
  6. 前記更新部は、前記類似特徴量によって前記プロトタイプを上書きした場合、前記プロトタイプの更新を停止する、
    請求項に記載の学習装置。
  7. 前記更新部は、前記プロトタイプの元データを、前記第1のニューラルネットワークの重みパラメータの更新後の特徴抽出部に入力させたことに基づいて出力される特徴量によって、前記プロトタイプを更新する、
    請求項に記載の学習装置。
  8. 学習用データと前記学習用データの正解値とを取得する入力部と、
    前記学習用データと第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、
    前記特徴量の一部または全部の領域と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力する類似度算出部と、
    前記類似度と第2のニューラルネットワークとに基づいて推論値を出力する推論部と、
    前記学習用データと前記プロトタイプの前記元データとが出力部によって出力されるように前記出力部を制御する出力制御部と、
    ユーザによって入力された操作に基づいて前記類似度の修正データを記憶部に記録する記録制御部と、
    前記正解値と前記推論値と前記類似度と前記修正データとに基づいて評価結果を得る評価部と、
    前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータの更新を行い、前記正解値と前記推論値と前記類似度と前記修正データとに基づいて前記第2のニューラルネットワークの重みパラメータの更新を行う更新部と、
    を備える、学習装置。
  9. 前記出力制御部は、前記類似度が前記出力部によって出力されるように前記出力部を制御する、
    請求項1~8のいずれか一項に記載の学習装置。
  10. 前記出力制御部は、前記推論値が前記出力部によって出力されるように前記出力部を制御する、
    請求項1~9のいずれか一項に記載の学習装置。
  11. 前記記録制御部は、前記修正データを入力する操作に基づいて、前記修正データを前記記憶部に記録する、
    請求項1~10のいずれか一項に記載の学習装置。
  12. 前記学習装置は、前記重みパラメータの更新後の第1のニューラルネットワークの第1の精度に基づく所定の処理を実行する処理実行部を備える、
    請求項1~11のいずれか一項に記載の学習装置。
  13. 前記処理実行部は、前記第1の精度が所定の精度よりも低い場合に、前記第1のニューラルネットワークの重みパラメータの更新の停止、または、所定の警告情報の出力を実行する、
    請求項12に記載の学習装置。
  14. 前記所定の精度は、あらかじめ定められた値、または、前記評価結果に基づく重みパラメータの更新前における第1のニューラルネットワークの第2の精度である、
    請求項13に記載の学習装置。
  15. 前記処理実行部は、前記評価結果に基づく重みパラメータの更新前における第1のニューラルネットワークの第2の精度と前記第1の精度とが出力されるように制御する、
    請求項12に記載の学習装置。
  16. 学習用データと前記学習用データの正解値とを取得することと、
    前記学習用データと第1のニューラルネットワークとに基づいて特徴量を抽出することと、
    前記特徴量の一部または全部の領域と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力することと、
    前記類似度に基づいて推論値を出力することと、
    前記学習用データと前記プロトタイプの前記元データとが出力部によって出力されるように前記出力部を制御することと、
    ユーザによって入力された操作に基づいて前記類似度の修正データを記憶部に記録することと、
    前記正解値と前記推論値とに基づく第1の誤差と、前記類似度と前記修正データとに基づく第2の誤差とに基づいて評価結果を得ることと、
    前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータの更新を行うことと、
    を備える、学習方法。
  17. コンピュータを、
    学習用データと前記学習用データの正解値とを取得する入力部と、
    前記学習用データと第1のニューラルネットワークとに基づいて特徴量を抽出する特徴抽出部と、
    前記特徴量の一部または全部の領域と所定の元データから抽出された特徴量であるプロトタイプとの類似度を算出して出力する類似度算出部と、
    前記類似度に基づいて推論値を出力する推論部と、
    前記学習用データと前記プロトタイプの前記元データとが出力部によって出力されるように前記出力部を制御する出力制御部と、
    ユーザによって入力された操作に基づいて前記類似度の修正データを記憶部に記録する記録制御部と、
    前記正解値と前記推論値とに基づく第1の誤差と、前記類似度と前記修正データとに基づく第2の誤差とに基づいて評価結果を得る評価部と、
    前記評価結果に基づいて、前記第1のニューラルネットワークの重みパラメータの更新を行う更新部と、
    を備える、学習装置として機能させるためのプログラム。

JP2020146624A 2020-09-01 2020-09-01 学習装置、学習方法およびプログラム Active JP7107340B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020146624A JP7107340B2 (ja) 2020-09-01 2020-09-01 学習装置、学習方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020146624A JP7107340B2 (ja) 2020-09-01 2020-09-01 学習装置、学習方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022041434A JP2022041434A (ja) 2022-03-11
JP7107340B2 true JP7107340B2 (ja) 2022-07-27

Family

ID=80500297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020146624A Active JP7107340B2 (ja) 2020-09-01 2020-09-01 学習装置、学習方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7107340B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310753A (ja) 2003-03-24 2004-11-04 Fuji Photo Film Co Ltd データ学習装置およびプログラムならびに画像の意味判定装置
JP2011145791A (ja) 2010-01-13 2011-07-28 Hitachi Ltd 識別器学習画像生成プログラム、方法、及びシステム
WO2020066257A1 (ja) 2018-09-26 2020-04-02 国立研究開発法人理化学研究所 分類装置、分類方法、プログラム、ならびに、情報記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310753A (ja) 2003-03-24 2004-11-04 Fuji Photo Film Co Ltd データ学習装置およびプログラムならびに画像の意味判定装置
JP2011145791A (ja) 2010-01-13 2011-07-28 Hitachi Ltd 識別器学習画像生成プログラム、方法、及びシステム
WO2020066257A1 (ja) 2018-09-26 2020-04-02 国立研究開発法人理化学研究所 分類装置、分類方法、プログラム、ならびに、情報記録媒体

Also Published As

Publication number Publication date
JP2022041434A (ja) 2022-03-11

Similar Documents

Publication Publication Date Title
US10922628B2 (en) Method and apparatus for machine learning
US11023806B2 (en) Learning apparatus, identifying apparatus, learning and identifying system, and recording medium
JP6182242B1 (ja) データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム
KR102052624B1 (ko) 기계 학습 방법 및 장치
KR20200048474A (ko) 전이 학습을 위한 기반 모델 결정 방법 및 그 방법을 지원하는 장치
WO2016062095A1 (zh) 视频分类方法和装置
KR102355489B1 (ko) 약물-표적 단백질의 상호작용을 예측하는 방법 및 그 방법을 수행하는 장치
CN111063392B (zh) 基于神经网络的基因突变致病性检测方法、系统及介质
JP5123759B2 (ja) パターン検出器の学習装置、学習方法及びプログラム
KR20200008845A (ko) 전자 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
JP2024500938A (ja) 医用画像における状態特徴の自動注釈付け
JP2019204505A (ja) オブジェクト検出装置及び方法及び記憶媒体
JP7210489B2 (ja) 学習装置、学習方法および学習プログラム
JP7107340B2 (ja) 学習装置、学習方法およびプログラム
EP3614314A1 (en) Method and apparatus for generating chemical structure using neural network
KR20200061154A (ko) 시각 및 텍스트 정보를 포함하는 다이어그램의 분석 방법 및 장치
JP7489275B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
CN113901880A (zh) 一种实时事件流识别方法及系统
JP7143906B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7402140B2 (ja) 登録装置、登録方法、および登録プログラム
US20240203595A1 (en) Characteristics of patient influencing disease progession
KR102264041B1 (ko) 유전자 알고리즘 기반의 단계적인 피처 선택을 이용한 기계학습 방법 및 장치
KR102512598B1 (ko) 헤어 스타일링 가상 체험용 인공 신경망의 학습을 위한 학습 데이터 생성 장치 및 방법, 및 이를 이용한 헤어 스타일링 가상 체험 장치 및 방법
US20230260662A1 (en) Generative manifold networks for prediction and simulation of complex systems
CN111933217B (zh) 一种基于深度学习的dna模体长度预测方法及预测系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220627

R150 Certificate of patent or registration of utility model

Ref document number: 7107340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150