JP2023008028A - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2023008028A JP2023008028A JP2021111255A JP2021111255A JP2023008028A JP 2023008028 A JP2023008028 A JP 2023008028A JP 2021111255 A JP2021111255 A JP 2021111255A JP 2021111255 A JP2021111255 A JP 2021111255A JP 2023008028 A JP2023008028 A JP 2023008028A
- Authority
- JP
- Japan
- Prior art keywords
- data
- unlabeled data
- result corresponding
- inference
- unlabeled
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 23
- 238000003672 processing method Methods 0.000 title description 2
- 238000011156 evaluation Methods 0.000 claims abstract description 61
- 238000011157 data evaluation Methods 0.000 claims abstract description 52
- 238000013528 artificial neural network Methods 0.000 claims abstract description 42
- 230000006870 function Effects 0.000 claims description 40
- 238000000034 method Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 7
- 238000012795 verification Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】検証用のラベル付きデータセットなしに高精度なニューラルネットワークを構築する。【解決手段】ラベル無しデータとラベル有りデータとニューラルネットワークとに基づいて、ラベル無しデータに対応する推論結果とラベル有りデータに対応する推論結果とを出力する推測部と、ラベル無しデータに対応する推論結果に基づいて、ラベル無しデータの影響度を示す係数を算出する係数生成部と、ラベル無しデータに対応する推論結果と係数とに基づいて、ラベル無しデータに対応する評価結果を出力するラベル無しデータ評価部と、ラベル有りデータに対応する推論結果と教師ラベルとに基づいて、ラベル有りデータに対応する評価結果を出力するラベル有りデータ評価部と、ラベル無しデータに対応する評価結果と、ラベル有りデータに対応する評価結果とに基づいて、ニューラルネットワークの重みパラメータを更新する更新部と、を備える、情報処理装置が提供される。【選択図】図1
Description
本発明は、情報処理装置、情報処理方法およびプログラムに関する。
ニューラルネットワーク(以下、「NN」とも表記する。)は、画像認識などにおいて高い性能を有する。NNの学習精度を高めるためには、膨大な入力データとそれに対応した教師ラベルが必要となることが知られている。しかし、教師ラベルは人手によって付与される場合が多い。そのため、膨大な入力データに対して教師ラベルを付与する負担がユーザに掛かってしまう。
近年、この課題を解決するため、収集した入力データのうち少量のデータに教師ラベルを付与し、残りのデータには教師ラベルを付与せずにNNの学習を行う半教師あり学習の研究が盛んになっている。半教師あり学習によれば、ユーザの負担が大きく削減され得る。一般に、半教師あり学習に用いられる損失関数は、教師ラベル付きデータセット(ラベル付きデータセット)に対応する損失関数と、教師ラベル無しデータセット(ラベル無しデータセット)に対応する損失関数との重み和によって定義される。
非特許文献1に記載の手法は、特に画像認識における半教師あり学習の手法の一つであり、教師ラベルが付されていない画像に対して2種類のデータ拡張を施し、2種類のデータ拡張によって得られた2種類の画像同士を比較することに基づいて学習を行う手法である。これによって、学習精度を高めることが可能となる。非特許文献1に記載の手法においては、教師ラベルが付されていない入力データ(ラベル無しデータ)に依存しない定数が個々のラベル無しデータに対応する損失関数に乗じられることによって、ラベル無しデータ全体に対応する損失関数が算出される。
非特許文献2に記載の手法は、半教師あり学習の一つであり、ラベル無しデータごとに影響度を示す係数を算出し、ラベル無しデータごとの係数と損失関数との重み和によってラベル無しデータ全体に対応する損失関数を算出する手法である。ただし、係数の算出は、学習用データとは別に用意された検証用の教師ラベル付きデータセットを用いて行われる。
Kihyuk Sohn、他8名、"FixMatch:Simplifying Semi-Supervised Learning with Consistencyand Confidence"、[online]、[令和3年6月18日検索]、インターネット<https://arxiv.org/abs/2001.07685>
Zhongzheng Ren、他2名、"Not AllUnlabeled Data are Equal: Learning to Weight Data in Semi-supervised Learning"、[online]、[令和3年6月18日検索]、インターネット<https://arxiv.org/abs/2007.01293>
しかしながら、非特許文献1に記載の手法によれば、個々のラベル無しデータに対応する損失関数が均等に扱われた上で、損失関数に基づくNNの更新が行われる。そのため、学習を妨害するラベル無しデータに対応する損失関数も均等に扱われるため、学習が不安定となりやすく、構築されるNNの精度も高くなりにくい。
また、非特許文献2に記載の手法によれば、ラベル無しデータの影響度がサンプルごとに決定され得る。しかし、学習用データとは別に検証用の教師ラベル付きデータセットを用意する必要があるため、ユーザに掛かる負担が高くなる可能性がある。
そこで、本発明は、これらの問題点を解決すべく提案されたものであり、学習用データとは別に検証用の教師ラベル付きデータセットを用意せずとも、高精度なNNを構築することを可能とする技術が提供されることが望まれる。
上記問題を解決するために、本発明のある観点によれば、ラベル無しデータを取得するとともに、教師ラベルが付されたラベル有りデータを取得する入力部と、前記ラベル無しデータと前記ラベル有りデータとニューラルネットワークとに基づいて、前記ラベル無しデータに対応する推論結果と前記ラベル有りデータに対応する推論結果とを出力する推測部と、前記ラベル無しデータに対応する推論結果に基づいて、前記ラベル無しデータの影響度を示す係数を算出する係数生成部と、前記ラベル無しデータに対応する推論結果と前記係数とに基づいて、前記ラベル無しデータに対応する評価結果を出力するラベル無しデータ評価部と、前記ラベル有りデータに対応する推論結果と前記教師ラベルとに基づいて、前記ラベル有りデータに対応する評価結果を出力するラベル有りデータ評価部と、前記ラベル無しデータに対応する評価結果と、前記ラベル有りデータに対応する評価結果とに基づいて、前記ニューラルネットワークの重みパラメータを更新する更新部と、を備える、情報処理装置が提供される。
本発明の実施形態に係る技術においては、ラベル無しデータとラベル付きデータとが学習に用いられる。したがって、本発明の実施形態に係る技術は、半教師あり機械学習に関する技術に該当する。
本発明の実施形態に係る技術においては、ラベル無しデータとラベル付きデータとが学習に用いられる。したがって、本発明の実施形態に係る技術は、半教師あり機械学習に関する技術に該当する。
前記ラベル無しデータに対応する推論結果は、クラスごとの推論値を含み、前記係数生成部は、ラベル無しデータごとに推論値が最大となる第1のクラスの推論値と前記第1のクラスとは異なる1または複数のクラスの推論値とに基づく差分を算出し、前記ラベル無しデータごとに前記差分に基づいて前記係数を算出してもよい。
前記係数生成部は、前記ラベル無しデータごとに前記第1のクラスの推論値と推論値が2番目に大きい第2のクラスの推論値との差分を算出してもよい。
前記係数生成部は、前記ラベル無しデータごとに前記第1のクラスの推論値と前記第1のクラスとは異なる複数のクラスの推論値の平均値との差分を算出してもよい。
前記係数生成部は、前記ラベル無しデータごとに前記差分に対して正の相関を有する数を前記係数として算出してもよい。
前記ラベル無しデータに対応する推論結果は、クラスごとの推論値を含み、前記係数生成部は、ラベル無しデータごとに推論値に基づく予測クラスを特定し、前記予測クラスに対応するラベル無しデータの数を前記予測クラスの度数として算出し、前記ラベル無しデータごとに前記予測クラスの度数に基づいて前記係数を算出してもよい。
前記係数生成部は、前記ラベル無しデータごとに前記推論値が最大となるクラスを予測クラスとして特定してもよい。
前記係数生成部は、前記ラベル無しデータごとに前記予測クラスの度数に対して負の相関を有する数を前記係数として算出してもよい。
前記ラベル無しデータ評価部は、前記ラベル無しデータに対応する推論結果に基づく損失と前記係数とを乗算することに基づいて、前記ラベル無しデータに対応する評価結果を出力してもよい。
また、本発明の別の観点によれば、ラベル無しデータを取得するとともに、教師ラベルが付されたラベル有りデータを取得することと、前記ラベル無しデータと前記ラベル有りデータとニューラルネットワークとに基づいて、前記ラベル無しデータに対応する推論結果と前記ラベル有りデータに対応する推論結果とを出力することと、前記ラベル無しデータに対応する推論結果に基づいて、前記ラベル無しデータの影響度を示す係数を算出することと、前記ラベル無しデータに対応する推論結果と前記係数とに基づいて、前記ラベル無しデータに対応する評価結果を出力することと、前記ラベル有りデータに対応する推論結果と前記教師ラベルとに基づいて、前記ラベル有りデータに対応する評価結果を出力することと、前記ラベル無しデータに対応する評価結果と、前記ラベル有りデータに対応する評価結果とに基づいて、前記ニューラルネットワークの重みパラメータを更新することと、を備える、情報処理方法が提供される。
また、本発明の別の観点によれば、コンピュータを、ラベル無しデータを取得するとともに、教師ラベルが付されたラベル有りデータを取得する入力部と、前記ラベル無しデータと前記ラベル有りデータとニューラルネットワークとに基づいて、前記ラベル無しデータに対応する推論結果と前記ラベル有りデータに対応する推論結果とを出力する推測部と、前記ラベル無しデータに対応する推論結果に基づいて、前記ラベル無しデータの影響度を示す係数を算出する係数生成部と、前記ラベル無しデータに対応する推論結果と前記係数とに基づいて、前記ラベル無しデータに対応する評価結果を出力するラベル無しデータ評価部と、前記ラベル有りデータに対応する推論結果と前記教師ラベルとに基づいて、前記ラベル有りデータに対応する評価結果を出力するラベル有りデータ評価部と、前記ラベル無しデータに対応する評価結果と、前記ラベル有りデータに対応する評価結果とに基づいて、前記ニューラルネットワークの重みパラメータを更新する更新部と、を備える情報処理装置として機能させるプログラムが提供される。
以上説明したように本発明によれば、学習用データとは別に検証用の教師ラベル付きデータセットを用意せずとも、高精度なNNを構築することを可能とする技術が提供される。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。
(0.実施形態の概要)
本発明の実施形態の概要について説明する。本発明の実施形態では、ニューラルネットワークの学習を行う情報処理装置(以下、「学習装置」とも言う。)について説明する。学習装置においては、学習用データに基づいてニューラルネットワークの学習が行われる(学習段階)。その後、識別装置において、学習済みのニューラルネットワークと識別用データ(テストデータ)とに基づいて推定ラベルが出力される。
本発明の実施形態の概要について説明する。本発明の実施形態では、ニューラルネットワークの学習を行う情報処理装置(以下、「学習装置」とも言う。)について説明する。学習装置においては、学習用データに基づいてニューラルネットワークの学習が行われる(学習段階)。その後、識別装置において、学習済みのニューラルネットワークと識別用データ(テストデータ)とに基づいて推定ラベルが出力される。
本発明の実施形態では、学習装置と識別装置とが同一のコンピュータによって実現される場合を主に想定する。しかし、学習装置と識別装置とは、別のコンピュータによって実現されてもよい。かかる場合には、学習装置によって生成された学習済みのニューラルネットワークが識別装置に提供される。例えば、学習済みのニューラルネットワークは、学習装置から識別装置に記録媒体を介して提供されてもよいし、通信を介して提供されてもよい。以下では、学習装置において実行される「学習段階」について説明する。
(1.第1の実施形態)
まず、本発明の第1の実施形態について説明する。本発明の第1の実施形態においては、学習装置によって半教師あり学習が行われる。
まず、本発明の第1の実施形態について説明する。本発明の第1の実施形態においては、学習装置によって半教師あり学習が行われる。
(学習装置の構成)
図1を参照しながら、本発明の第1の実施形態に係る学習装置の構成例について説明する。図1は、本発明の第1の実施形態に係る学習装置10の機能構成例を示す図である。図1に示されるように、本発明の第1の実施形態に係る学習装置10は、入力部111と、推測部122と、係数生成部131と、ラベル無しデータ評価部132と、ラベル有りデータ評価部133と、更新部134とを備える。
図1を参照しながら、本発明の第1の実施形態に係る学習装置の構成例について説明する。図1は、本発明の第1の実施形態に係る学習装置10の機能構成例を示す図である。図1に示されるように、本発明の第1の実施形態に係る学習装置10は、入力部111と、推測部122と、係数生成部131と、ラベル無しデータ評価部132と、ラベル有りデータ評価部133と、更新部134とを備える。
本発明の第1の実施形態では、推測部122が、ニューラルネットワーク120に含まれる場合を主に想定する。すなわち、推測部122は、ニューロンによって構築される計算グラフが処理順に接続されて構成されており、全体として1つのニューラルネットワークとみなされ得る。以下では、ニューラルネットワークを「NN」とも表記する。より詳細に、推測部122は、畳み込み層およびプーリング層を主に含んでよい。以下では、畳み込み層として、2次元畳み込み層が用いられる場合を主に想定するが、3次元畳み込み層が用いられてもよい。
推測部122の他、入力部111、係数生成部131、ラベル無しデータ評価部132、ラベル有りデータ評価部133および更新部134などは、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。演算装置による演算に必要なデータは、図示しない記憶部によって適宜記憶される。
ラベル無しデータセット101、ラベル付きデータセット102および重みパラメータ121は、図示しない記憶部によって記憶される。かかる記憶部は、RAM(Random Access Memory)、ハードディスクドライブまたはフラッシュメモリなどのメモリによって構成されてよい。
初期状態において、重みパラメータ121には、初期値が設定されている。例えば、重みパラメータ121に設定される初期値は、ランダムな値であってよいが、どのような値であってもよい。例えば、重みパラメータ121に設定される初期値は、あらかじめ学習によって得られた学習済みの値であってもよい。
(ラベル無しデータセット101)
ラベル無しデータセット101は、教師ラベルがそれぞれ対応付けられていない複数の学習用データ(入力データ)を含んで構成される。以下では、教師ラベルが対応付けられていない学習用データを「ラベル無しデータ」とも言う。なお、本発明の実施形態では、ラベル無しデータが画像データである場合(特に、静止画像データである場合)を主に想定する。しかし、ラベル無しデータの種類は特に限定されず、静止画像データ以外もラベル無しデータとして用いられ得る。例えば、ラベル無しデータは、複数のフレームを含んだ動画像データであってもよいし、時系列データまたは音声データであってもよい。
ラベル無しデータセット101は、教師ラベルがそれぞれ対応付けられていない複数の学習用データ(入力データ)を含んで構成される。以下では、教師ラベルが対応付けられていない学習用データを「ラベル無しデータ」とも言う。なお、本発明の実施形態では、ラベル無しデータが画像データである場合(特に、静止画像データである場合)を主に想定する。しかし、ラベル無しデータの種類は特に限定されず、静止画像データ以外もラベル無しデータとして用いられ得る。例えば、ラベル無しデータは、複数のフレームを含んだ動画像データであってもよいし、時系列データまたは音声データであってもよい。
(ラベル付きデータセット102)
ラベル付きデータセット102は、複数の学習用データ(入力データ)と当該複数の学習用データそれぞれに対応付けられた教師ラベルとを含んで構成される。以下では、教師ラベルが対応付けられた学習用データを「ラベル有りデータ」とも言う。また、教師ラベルとラベル有りデータとの組み合わせを「ラベル付きデータ」とも言う。教師ラベルは、人手または図示しない機能によって付与される。なお、ラベル無しデータの種類と同様に、ラベル有りデータの種類も特に限定されない。
ラベル付きデータセット102は、複数の学習用データ(入力データ)と当該複数の学習用データそれぞれに対応付けられた教師ラベルとを含んで構成される。以下では、教師ラベルが対応付けられた学習用データを「ラベル有りデータ」とも言う。また、教師ラベルとラベル有りデータとの組み合わせを「ラベル付きデータ」とも言う。教師ラベルは、人手または図示しない機能によって付与される。なお、ラベル無しデータの種類と同様に、ラベル有りデータの種類も特に限定されない。
(入力部111)
入力部111は、ラベル無しデータセット101からラベル無しデータを順次に取得し、取得したラベル無しデータをもとにミニバッチを作成し、作成したミニバッチをニューラルネットワーク120の推測部122に出力する。さらに、入力部111は、ラベル付きデータセット102からラベル付きデータ(教師ラベルとラベル有りデータとの組み合わせ)を順次に取得し、取得したラベル付きデータをもとにミニバッチを作成し、作成したミニバッチをニューラルネットワーク120の推測部122に出力する。ミニバッチのサイズは特に限定されない。
入力部111は、ラベル無しデータセット101からラベル無しデータを順次に取得し、取得したラベル無しデータをもとにミニバッチを作成し、作成したミニバッチをニューラルネットワーク120の推測部122に出力する。さらに、入力部111は、ラベル付きデータセット102からラベル付きデータ(教師ラベルとラベル有りデータとの組み合わせ)を順次に取得し、取得したラベル付きデータをもとにミニバッチを作成し、作成したミニバッチをニューラルネットワーク120の推測部122に出力する。ミニバッチのサイズは特に限定されない。
(推測部122)
推測部122は、入力部111から出力されたミニバッチに含まれるラベル無しデータとニューラルネットワーク120とに基づいてラベル無しデータに対応する推論結果を得る。より詳細に、推測部122は、重みパラメータ121が設定されたニューラルネットワーク120にラベル無しデータを入力させたことに基づいて、ニューラルネットワーク120から出力されるデータをラベル無しデータに対応する推論結果として得る。推測部122は、ラベル無しデータに対応する推論結果を係数生成部131に出力する。
推測部122は、入力部111から出力されたミニバッチに含まれるラベル無しデータとニューラルネットワーク120とに基づいてラベル無しデータに対応する推論結果を得る。より詳細に、推測部122は、重みパラメータ121が設定されたニューラルネットワーク120にラベル無しデータを入力させたことに基づいて、ニューラルネットワーク120から出力されるデータをラベル無しデータに対応する推論結果として得る。推測部122は、ラベル無しデータに対応する推論結果を係数生成部131に出力する。
このとき、推測部122は、ラベル無しデータに対応する推論結果として、半教師あり学習の枠組みに基づく2種類のラベルを係数生成部131に出力し得る。ここで、2種類のラベルを得るためのアルゴリズムは、特定のアルゴリズムに限定されず、半教師あり学習に用いられるアルゴリズムが用いられてよい。
例えば、入力部111が、ラベル無しデータセット101から取得したラベル無しデータに基づいて2種類のラベル無しデータを得てもよい。一例として、入力部111は、ラベル無しデータに対して2種類のデータ拡張を施すことによって2種類のラベル無しデータを得てもよい。このとき、入力部111は、推測部122に対して2種類のラベル無しデータを出力し、推測部122は、2種類のラベル無しデータそれぞれに対応するラベルを2種類のラベルとして係数生成部131に出力する。
あるいは、入力部111から推測部122に出力されるラベル無しデータは1種類であり、推測部122において、2種類の重みパラメータを使用してもよい。一例として、推測部122は、入力部111から出力されるラベル無しデータに対して、重みパラメータ121の全部を適用して得たデータおよび重みパラメータ121の一部を適用して得たデータを2種類のラベルとして得てもよい。このとき、推測部122は、2種類のラベルを係数生成部131に出力する。
例えば、推測部122は、2種類のラベルのうち、一方をラベル無しデータに対応する擬似的な教師ラベルとし、他方をラベル無しデータに対応する推定ラベルとして係数生成部131に出力する。なお、2種類のラベルのどちらを疑似的な教師ラベルとするかは限定されない。例えば、より弱いデータ拡張によって得られたラベルが疑似的な教師ラベルとされてもよい。あるいは、重みパラメータ121の全部の適用によって得られたラベルが疑似的な教師ラベルとされてもよい。
さらに、推測部122は、入力部111から出力されたミニバッチに含まれるラベル有りデータとニューラルネットワーク120とに基づいてラベル有りデータに対応する推論結果を得る。より詳細に、推測部122は、重みパラメータ121が設定されたニューラルネットワーク120にラベル有りデータを入力させたことに基づいて、ニューラルネットワーク120から出力されるデータをラベル有りデータに対応する推論結果として得る。推測部122は、ラベル有りデータに対応する推論結果をラベル有りデータ評価部133に出力する。
なお、推測部122から出力される推論結果の形式は、特に限定されない。しかし、推測部122から出力される推論結果の形式は、教師ラベルの形式と合わせて設定されているのがよい。例えば、教師ラベルが分類問題のクラスを示し、クラス数分の長さを有するone-hotベクトルである場合、推測部122から出力される推論結果の形式も、クラス数分の長さを有するベクトルであってよい。このとき、推測部122から出力される推論結果は、クラスごとの値(以下、「推論値」とも言う。)を含み得る。
一例として、推測部122によって全クラスの推論値の合計が1になるように調整される場合には、それぞれのクラスに対応する推論値は、それぞれのクラスに対応する確率に相当し得る。しかし、全クラスの推論値の合計は、推測部122によって1になるように調整されていなくてもよい。いずれの場合であっても、推測部122から出力される推論値は、そのクラスの確からしさが高いほど、大きい値であり得る。
(係数生成部131)
係数生成部131は、推測部122から出力されたラベル無しデータに対応する推論結果に基づいて、ラベル無しデータの影響度を示す係数を算出する。より詳細に、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに推論値に基づく予測クラスを特定する。バッチサイズBとすると、ラベル無しデータxu={x1 u,…,xB u}の推論値に基づく予測クラスは、yu={y1 u,…,yB u}として特定される。なお、yuの各要素は、予測クラスの番号であってよい。
係数生成部131は、推測部122から出力されたラベル無しデータに対応する推論結果に基づいて、ラベル無しデータの影響度を示す係数を算出する。より詳細に、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに推論値に基づく予測クラスを特定する。バッチサイズBとすると、ラベル無しデータxu={x1 u,…,xB u}の推論値に基づく予測クラスは、yu={y1 u,…,yB u}として特定される。なお、yuの各要素は、予測クラスの番号であってよい。
ここで、予測クラスは、どのようにして特定されてもよい。一例として、推論値が最大となるクラスは、確からしさが最も高いクラスであると考えられる。そこで、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに推論値が最大となるクラスを予測クラスとして特定してもよい。例えば、予測クラスの特定に用いられる推論値としては、2種類のラベルのいずれが用いられてもよいが、疑似的な教師ラベルが用いられるのが望ましい。
そして、係数生成部131は、予測クラスに対応するラベル無しデータの数を予測クラスの度数として算出する。例えば、ニューラルネットワーク120がNクラスへの分類問題を解く場合には(すなわち、ラベル無しデータに対応する推論結果がNクラス分の推論値を含む場合には)、予測クラスの度数ciは、以下の式(1)のように表現され得る。
係数生成部131は、ミニバッチに含まれるラベル無しデータxuごとに、予測クラスの度数cに基づいて係数tを算出する。一例として、係数生成部131は、ミニバッチに含まれるラベル無しデータxuごとに予測クラスの度数cに対して負の相関を有する数を係数tとして算出するのが望ましい。これによって、度数cが小さい予測クラスに対応するラベル無しデータほど、影響度が高く扱われるようになる。
例えば、入力値に対して負の相関を示す出力値を返却する関数をfとすると、入力値に対して負の相関を示す出力値を返却する関数fは、以下の式(2)のように表現され得る。
例えば、入力値に対して負の相関を示す出力値を返却する関数fの例として、以下の式(3)が挙げられる。
係数生成部131は、ミニバッチに含まれるラベル無しデータごとの推論結果および係数を、ラベル無しデータ評価部132に出力する。
(ラベル無しデータ評価部132)
ラベル無しデータ評価部132は、ミニバッチに含まれるラベル無しデータごとの推論結果および係数に基づいて、ラベル無しデータに対応する評価結果を得る。より詳細に、ラベル無しデータ評価部132は、ミニバッチに含まれるラベル無しデータごとに、推論結果に基づいて損失を算出し、ラベル無しデータごとの損失および係数に基づいて、ラベル無しデータに対応する評価結果を得る。
ラベル無しデータ評価部132は、ミニバッチに含まれるラベル無しデータごとの推論結果および係数に基づいて、ラベル無しデータに対応する評価結果を得る。より詳細に、ラベル無しデータ評価部132は、ミニバッチに含まれるラベル無しデータごとに、推論結果に基づいて損失を算出し、ラベル無しデータごとの損失および係数に基づいて、ラベル無しデータに対応する評価結果を得る。
まず、ラベル無しデータ評価部132は、ラベル無しデータごとに、疑似的な教師ラベルに基づいて推定ラベルを評価して損失を算出する。
ここで、損失の算出に用いられる損失関数は特定の関数に限定されず、一般的なニューラルネットワークにおいて用いられる損失関数と同様の損失関数が用いられてよい。例えば、損失関数は、ラベル無しデータに対応する疑似的な教師ラベルとラベル無しデータに対応する推定ラベルとの差分に基づく平均二乗誤差であってもよいし、ラベル無しデータに対応する疑似的な教師ラベルとラベル無しデータに対応する推定ラベルとの差分に基づく交差エントロピー誤差であってもよい。
次に、ラベル無しデータ評価部132は、ラベル無しデータごとの損失および係数に基づいて、ラベル無しデータに対応する評価結果を得る。より詳細に、ラベル無しデータ評価部132は、ラベル無しデータごとに損失と係数とを乗算することに基づいて、ラベル無しデータに対応する評価結果を得る。
一例として、ラベル無しデータをxuとし、重みパラメータ121をθとし、係数生成部131によって算出された係数をtとすると、ラベル無しデータに対応する評価結果luは、以下の式(4)に示すように、ラベル無しデータごとの損失と係数との乗算結果のミニバッチにおける合計によって算出され得る。
ラベル無しデータ評価部132は、ラベル無しデータに対応する評価結果を更新部134に出力する。
(ラベル有りデータ評価部133)
ラベル有りデータ評価部133は、ミニバッチに含まれるラベル有りデータごとに、ラベル有りデータに対応する教師ラベルに基づいて、ラベル有りデータを評価してラベル有りデータごとの評価結果を得る。より詳細に、ラベル有りデータ評価部133は、ラベル有りデータに対応する教師ラベルとラベル有りデータとに基づいて損失を算出し、ラベル有りデータごとの損失に基づいて、ラベル有りデータに対応する評価結果を得る。
ラベル有りデータ評価部133は、ミニバッチに含まれるラベル有りデータごとに、ラベル有りデータに対応する教師ラベルに基づいて、ラベル有りデータを評価してラベル有りデータごとの評価結果を得る。より詳細に、ラベル有りデータ評価部133は、ラベル有りデータに対応する教師ラベルとラベル有りデータとに基づいて損失を算出し、ラベル有りデータごとの損失に基づいて、ラベル有りデータに対応する評価結果を得る。
まず、ラベル有りデータ評価部133は、ラベル有りデータごとに、ラベル有りデータに対応する教師ラベルに基づいてラベル有りデータを評価して損失を算出する。
ここで、損失関数は特定の関数に限定されず、一般的なニューラルネットワークにおいて用いられる損失関数と同様の損失関数が用いられてよい。例えば、損失関数は、ラベル有りデータに対応する教師ラベルとラベル有りデータとの差分に基づく平均二乗誤差であってもよいし、ラベル有りデータに対応する教師ラベルとラベル有りデータとの差分に基づく交差エントロピー誤差であってもよい。
次に、ラベル有りデータ評価部133は、ラベル有りデータごとの損失に基づいて、ラベル有りデータに対応する評価結果を得る。より詳細に、ラベル有りデータ評価部133は、ラベル有りデータごとの損失のミニバッチにおける合計によって、ラベル有りデータに対応する評価結果を得る。
一例として、ラベル有りデータをxtとし、ラベル有りデータに対応する教師ラベルをxtとし、重みパラメータ121をθとすると、ラベル有りデータに対応する評価結果lsは、以下の式(5)に示すように表現され得る。
ラベル有りデータ評価部133は、ラベル有りデータに対応する評価結果を更新部134に出力する。
(更新部134)
更新部134は、ラベル無しデータ評価部132から出力されたラベル無しデータに対応する評価結果とラベル有りデータ評価部133から出力されたラベル有りデータに対応する評価結果とに基づいて、重みパラメータ121の更新を行う。これによって、ラベル無しデータに対応する推定ラベルがラベル無しデータに対応する疑似的な教師ラベルに近づくように、かつ、ラベル有りデータがラベル有りデータに対応する教師ラベルに近づくように、重みパラメータ121が訓練され得る。
更新部134は、ラベル無しデータ評価部132から出力されたラベル無しデータに対応する評価結果とラベル有りデータ評価部133から出力されたラベル有りデータに対応する評価結果とに基づいて、重みパラメータ121の更新を行う。これによって、ラベル無しデータに対応する推定ラベルがラベル無しデータに対応する疑似的な教師ラベルに近づくように、かつ、ラベル有りデータがラベル有りデータに対応する教師ラベルに近づくように、重みパラメータ121が訓練され得る。
例えば、更新部134は、ラベル有りデータに対応する評価結果とラベル無しデータに対応する評価結果との重み付き和(以下、単に「重み付き和」とも言う。)に基づいて、重みパラメータ121の更新を行ってよい。より詳細に、更新部134は、ラベル有りデータに対応する評価結果とラベル無しデータに対応する評価結果との重み付き和に基づく誤差逆伝播法(バックプロパゲーション)によって重みパラメータ121を更新してよい。
重み付き和は、どのように表現されてもよい。一例として、式(5)に示されたように、ラベル有りデータに対応する評価結果をlsとし、式(4)に示されたように、ラベル無しデータに対応する評価結果をluとし、重み付き和を取るためのハイパーパラメータをλとすると、重み付き和Lは、以下の式(6)に示すように表現され得る。
なお、更新部134は、重みパラメータ121の更新が終わるたびに、学習の終了条件が満たされたか否かを判断する。学習の終了条件が満たされていないと判断された場合には、入力部111によって次の入力データ(ラベル有りデータおよび教師ラベルの組み合わせ、および、ラベル無しデータ)が取得され、推測部122、係数生成部131、ラベル無しデータ評価部132、ラベル有りデータ評価部133および更新部134それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、学習の終了条件が満たされたと判断された場合には、学習が終了される。
なお、学習の終了条件は特に限定されず、ニューラルネットワーク120の学習がある程度行われたことを示す条件であればよい。具体的に、学習の終了件は、当該重み付き和の値が閾値よりも小さいという条件を含んでもよい。あるいは、学習の終了条件は、当該重み付き和の値の変化が閾値よりも小さいという条件(当該重み付き和の値が収束状態になったという条件)を含んでもよい。あるいは、学習の終了条件は、重みパラメータ121の更新が所定の回数行われたという条件を含んでもよい。あるいは、ニューラルネットワーク120の精度(例えば、正解率など)が算出される場合、学習の終了条件は、精度が所定の割合(例えば、90%など)を超えるという条件を含んでもよい。
以上、本発明の第1の実施形態に係る学習装置の構成例について説明した。
(学習段階の動作)
続いて、図2を参照しながら、本発明の第1の実施形態に係る学習装置10によって実行される「学習段階」の動作の流れについて説明する。図2は、本発明の第1の実施形態に係る学習装置10によって実行される学習段階の動作例を示すフローチャートである。
続いて、図2を参照しながら、本発明の第1の実施形態に係る学習装置10によって実行される「学習段階」の動作の流れについて説明する。図2は、本発明の第1の実施形態に係る学習装置10によって実行される学習段階の動作例を示すフローチャートである。
まず、入力部111は、ラベル無しデータセット101からバッチサイズのラベル無しデータを取得することによってミニバッチを作成し、作成したミニバッチをニューラルネットワーク120の推測部122に出力する(S101)。
続いて、推測部122は、入力部111によって作成されたミニバッチに含まれるラベル無しデータとニューラルネットワーク120とに基づいてラベル無しデータに対応する推論結果を得る(S102)。推測部122は、ラベル無しデータに対応する推論結果を係数生成部131に出力する。
このとき、推測部122は、ラベル無しデータに対応する推論結果として、2種類のラベルを係数生成部131に出力し得る。例えば、推測部122は、2種類のラベルのうち、一方をラベル無しデータに対応する擬似的な教師ラベルとし、他方をラベル無しデータに対応する推定ラベルとして係数生成部131に出力する。
係数生成部131は、推測部122から出力されたラベル無しデータに対応する推論結果に基づいて、ラベル無しデータの影響度を示す係数を算出する(S103)。より詳細に、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに推論値に基づく予測クラスを特定する。一例として、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに推論値が最大となるクラスを予測クラスとして特定してもよい。例えば、予測クラスの特定に用いられる推論値としては、2種類のラベルのいずれが用いられてもよいが、疑似的な教師ラベルが用いられるのが望ましい。
そして、係数生成部131は、予測クラスに対応するラベル無しデータの数を予測クラスの度数として算出する。係数生成部131は、ミニバッチに含まれるラベル無しデータごとに、予測クラスの度数に基づいて係数を算出する。一例として、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに予測クラスの度数に対して負の相関を有する数を係数として算出するのが望ましい。これによって、度数が小さい予測クラスに対応するラベル無しデータほど、影響度が高く扱われるようになる。
係数生成部131は、ミニバッチに含まれるラベル無しデータごとの推論結果および係数を、ラベル無しデータ評価部132に出力する。
ラベル無しデータ評価部132は、ミニバッチに含まれるラベル無しデータごとの推論結果および係数に基づいて、ラベル無しデータに対応する評価結果を得る(S104)。より詳細に、ラベル無しデータ評価部132は、ミニバッチに含まれるラベル無しデータごとに、推論結果に基づいて損失を算出し、ラベル無しデータごとの損失および係数に基づいて、ラベル無しデータに対応する評価結果を得る。ラベル無しデータ評価部132は、ラベル無しデータに対応する評価結果を更新部134に出力する。
続いて、入力部111は、ラベル付きデータセット102からバッチサイズのラベル付きデータを教師ラベルとラベル有りデータとの組み合わせとして取得することによってミニバッチを作成し、作成したミニバッチをニューラルネットワーク120の推測部122に出力する(S105)。
続いて、推測部122は、入力部111によって作成されたミニバッチに含まれるラベル有りデータとニューラルネットワーク120とに基づいてラベル有りデータに対応する推論結果を得る(S106)。推測部122は、ラベル有りデータに対応する推論結果をラベル有りデータ評価部133に出力する。
ラベル有りデータ評価部133は、ミニバッチに含まれるラベル有りデータごとに、ラベル有りデータに対応する教師ラベルに基づいて、ラベル有りデータを評価してラベル有りデータごとの評価結果を得る(S107)。より詳細に、ラベル有りデータ評価部133は、ラベル有りデータに対応する教師ラベルとラベル有りデータとに基づいて損失を算出し、ラベル有りデータごとの損失に基づいて、ラベル有りデータに対応する評価結果を得る。ラベル有りデータ評価部133は、ラベル有りデータに対応する評価結果を更新部134に出力する。
更新部134は、ラベル無しデータ評価部132から出力されたラベル無しデータに対応する評価結果とラベル有りデータ評価部133から出力されたラベル有りデータに対応する評価結果とに基づいて、重みパラメータ121の更新を行う(S108)。これによって、ラベル無しデータに対応する推定ラベルがラベル無しデータに対応する疑似的な教師ラベルに近づくように、かつ、ラベル有りデータがラベル有りデータに対応する教師ラベルに近づくように、重みパラメータ121が訓練され得る。
例えば、更新部134は、ラベル有りデータに対応する評価結果とラベル無しデータに対応する評価結果との重み付き和に基づいて、重みパラメータ121の更新を行ってよい。より詳細に、更新部134は、ラベル有りデータに対応する評価結果とラベル無しデータに対応する評価結果との重み付き和に基づく誤差逆伝播法(バックプロパゲーション)によって重みパラメータ121を更新してよい。
更新部134は、重みパラメータ121の更新が終わるたびに、学習の終了条件が満たされたか否かを判断する(S109)。学習の終了条件が満たされていないと判断された場合には(S109において「NO」)、S101に動作が移行され、入力部111によって次の入力データが取得され、推測部122、係数生成部131、ラベル無しデータ評価部132、ラベル有りデータ評価部133および更新部134それぞれによって、当該次の入力データに基づく各自の処理が再度実行される。一方、学習の終了条件が満たされたと判断された場合には、学習が終了される。
以上、本発明の第1の実施形態に係る学習装置10によって実行される「学習段階」の動作の流れについて説明した。
(第1の実施形態のまとめ)
以上に説明したように、本発明の第1の実施形態によれば、ラベル無しデータに対応する推論結果に基づいて、ラベル無しデータごとの擬似的な予測クラスが特定される。そして、疑似的な予測クラスに基づいて損失に影響する度合いがラベル無しデータごとに自動的に決定される。
以上に説明したように、本発明の第1の実施形態によれば、ラベル無しデータに対応する推論結果に基づいて、ラベル無しデータごとの擬似的な予測クラスが特定される。そして、疑似的な予測クラスに基づいて損失に影響する度合いがラベル無しデータごとに自動的に決定される。
これによって、学習段階(特に学習初期段階)において発生し得る現象(すなわち、推論結果が特定のクラスに集中してしまう現象)に対して、推論結果が集中してしまうクラスの損失への影響度を下げることが可能となる。その結果として、安定した学習が可能となるという効果が享受され得る。
また、本発明の第1の実施形態によれば、半教師あり学習のアルゴリズムに依存せず、ラベル無しデータの損失への影響度が決定され得る。さらに、本発明の第1の実施形態によれば、損失への影響度が比較的小さいラベル無しデータが存在する場合であっても、その影響度が係数として学習に用いられるため、閾値などを利用した人手によるデータ選別作業を不要としつつ、安定した学習が可能になる。
以上、本発明の第1の実施形態について説明した。
(2.第2の実施形態)
続いて、本発明の第2の実施形態について説明する。本発明の第2の実施形態においても、学習装置によって半教師あり学習が行われる。
続いて、本発明の第2の実施形態について説明する。本発明の第2の実施形態においても、学習装置によって半教師あり学習が行われる。
図1に示されるように、本発明の第2の実施形態に係る学習装置10は、本発明の第1の実施形態に係る学習装置10と同様に、入力部111と、推測部122と、係数生成部131と、ラベル無しデータ評価部132と、ラベル有りデータ評価部133と、更新部134とを備える。
本発明の第2の実施形態に係る学習装置10は、本発明の第1の実施形態に係る学習装置10と比較して、係数生成部131の機能が主に異なる。したがって、以下では、係数生成部131の機能について主に説明を行い、他のブロックの機能についての詳細な説明は省略する。
(係数生成部131)
係数生成部131は、推測部122から出力されたラベル無しデータに対応する推論結果に基づいて、ラベル無しデータの影響度を示す係数を算出する。より詳細に、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに推論値が最大となる第1のクラスを特定する。そして、係数生成部131は、第1のクラスの推論値と第1のクラスとは異なる1または複数のクラスの推論値とに基づく差分を算出する。例えば、差分の算出に用いられる推論値としては、2種類のラベルのいずれが用いられてもよいが、疑似的な教師ラベルが用いられるのが望ましい。係数生成部131は、ラベル無しデータごとに差分に基づいて係数を算出する。
係数生成部131は、推測部122から出力されたラベル無しデータに対応する推論結果に基づいて、ラベル無しデータの影響度を示す係数を算出する。より詳細に、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに推論値が最大となる第1のクラスを特定する。そして、係数生成部131は、第1のクラスの推論値と第1のクラスとは異なる1または複数のクラスの推論値とに基づく差分を算出する。例えば、差分の算出に用いられる推論値としては、2種類のラベルのいずれが用いられてもよいが、疑似的な教師ラベルが用いられるのが望ましい。係数生成部131は、ラベル無しデータごとに差分に基づいて係数を算出する。
一例として、係数生成部131は、推論値が2番目に大きい第2のクラスを特定してもよい。このとき、係数生成部131は、ラベル無しデータごとに第1のクラスの推論値と第2のクラスの推論値との差分を算出してもよい。例えば、ニューラルネットワーク120がNクラスへの分類問題を解く場合には(すなわち、ラベル無しデータに対応する推論結果がNクラス分の推論値を含む場合には)、差分diは、以下の式(7)のように表現され得る。
式(7)において、vは、ラベル無しデータに対応する推論結果を示し、各クラスに対応する推論値の集合を示す。argmaxは、引数として渡された推論値に対応するクラス番号を出力値として返却する関数である。
なお、第1のクラスの推論値と第1のクラスとは異なる1または複数のクラスの推論値とに基づく差分を算出する手法は限定されない。例えば、係数生成部131は、ラベル無しデータごとに第1のクラスの推論値と第1のクラスとは異なる複数のクラスの推論値の平均値との差分を算出してもよい。このとき、平均値を取る関数をaveとすると、差分diは、以下の式(8)のように表現され得る。
係数生成部131は、ミニバッチに含まれるラベル無しデータごとに、差分dに基づいて係数tを算出する。一例として、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに差分dに対して正の相関を有する数を係数tとして算出するのが望ましい。これによって、大きい差分に対応するラベル無しデータほど、影響度が高く扱われるようになる。
例えば、入力値に対して正の相関を示す出力値を返却する関数をgとすると、入力値に対して正の相関を示す出力値を返却する関数gは、以下の式(9)のように表現され得る。
例えば、入力値に対して正の相関を示す出力値を返却する関数gの例として、以下の式(10)が挙げられる。
係数生成部131は、ミニバッチに含まれるラベル無しデータごとの推論結果および係数を、ラベル無しデータ評価部132に出力する。
以上、本発明の第2の実施形態に係る学習装置の構成例について説明した。
(学習段階の動作)
続いて、図2を参照しながら、本発明の第2の実施形態に係る学習装置10によって実行される「学習段階」の動作の流れについて説明する。本発明の第2の実施形態に係る学習装置10によって実行される「学習段階」の動作は、本発明の第1の実施形態に係る学習装置10によって実行される「学習段階」の動作と比較して、係数生成部131の動作が主に異なる。したがって、以下では、係数生成部131の動作について主に説明を行い、他の動作についての詳細な説明は省略する。
続いて、図2を参照しながら、本発明の第2の実施形態に係る学習装置10によって実行される「学習段階」の動作の流れについて説明する。本発明の第2の実施形態に係る学習装置10によって実行される「学習段階」の動作は、本発明の第1の実施形態に係る学習装置10によって実行される「学習段階」の動作と比較して、係数生成部131の動作が主に異なる。したがって、以下では、係数生成部131の動作について主に説明を行い、他の動作についての詳細な説明は省略する。
本発明の第2の実施形態においても、本発明の第1の実施形態と同様に、S101~S102が実行される。続いて、係数生成部131は、推測部122から出力されたラベル無しデータに対応する推論結果に基づいて、ラベル無しデータの影響度を示す係数を算出する(S103)。
より詳細に、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに推論値が最大となる第1のクラスを特定する。そして、係数生成部131は、第1のクラスの推論値と第1のクラスとは異なる1または複数のクラスの推論値とに基づく差分を算出する。例えば、差分の算出に用いられる推論値としては、2種類のラベルのいずれが用いられてもよいが、疑似的な教師ラベルが用いられるのが望ましい。係数生成部131は、ラベル無しデータごとに差分に基づいて係数を算出する。
一例として、係数生成部131は、推論値が2番目に大きい第2のクラスを特定してもよい。このとき、係数生成部131は、ラベル無しデータごとに第1のクラスの推論値と第2のクラスの推論値との差分を算出してもよい。あるいは、係数生成部131は、ラベル無しデータごとに第1のクラスの推論値と第1のクラスとは異なる複数のクラスの推論値の平均値との差分を算出してもよい。
係数生成部131は、ミニバッチに含まれるラベル無しデータごとに、差分に基づいて係数を算出する。一例として、係数生成部131は、ミニバッチに含まれるラベル無しデータごとに差分に対して正の相関を有する数を係数として算出するのが望ましい。これによって、大きい差分に対応するラベル無しデータほど、影響度が高く扱われるようになる。
係数生成部131は、ミニバッチに含まれるラベル無しデータごとの推論結果および係数を、ラベル無しデータ評価部132に出力する。
本発明の第2の実施形態においても、本発明の第1の実施形態と同様に、S104~S109が実行される。
以上、本発明の第2の実施形態に係る学習装置10によって実行される「学習段階」の動作の流れについて説明した。
(第2の実施形態のまとめ)
以上に説明したように、本発明の第2の実施形態によれば、ラベル無しデータに対応する推論結果に基づいて、ラベル無しデータごとに推論値が最大となる第1のクラスの推論値と第1のクラスとは異なる1または複数のクラスの推論値とに基づく差分が算出される。そして、差分に基づいて損失に影響する度合いがラベル無しデータごとに自動的に決定される。
以上に説明したように、本発明の第2の実施形態によれば、ラベル無しデータに対応する推論結果に基づいて、ラベル無しデータごとに推論値が最大となる第1のクラスの推論値と第1のクラスとは異なる1または複数のクラスの推論値とに基づく差分が算出される。そして、差分に基づいて損失に影響する度合いがラベル無しデータごとに自動的に決定される。
これによって、本発明の第1の実施形態と同様の効果が享受され得る。さらに、本発明の第2の実施形態によれば、バッチサイズが比較的小さい場合であっても、損失に影響する度合いが高精度に決定され得る。そのため、本発明の第2の実施形態によれば、バッチサイズが比較的小さい場合であっても、安定した学習が可能になる。
以上、本発明の第2の実施形態について説明した。
(3.ハードウェア構成例)
続いて、本発明の第1の実施形態に係る学習装置10のハードウェア構成例について説明する。なお、本発明の第2の実施形態に係る学習装置10のハードウェア構成も、本発明の第1の実施形態に係る学習装置10のハードウェア構成と同様に実現され得る。
続いて、本発明の第1の実施形態に係る学習装置10のハードウェア構成例について説明する。なお、本発明の第2の実施形態に係る学習装置10のハードウェア構成も、本発明の第1の実施形態に係る学習装置10のハードウェア構成と同様に実現され得る。
以下では、本発明の第1の実施形態に係る学習装置10のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、学習装置10のハードウェア構成の一例に過ぎない。したがって、学習装置10のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
図3は、本発明の第1の実施形態に係る学習装置10の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。
ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。
以上、本発明の第1の実施形態に係る学習装置10のハードウェア構成例について説明した。
(4.まとめ)
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
本発明の第1の実施形態および本発明の第2の実施形態では、学習用データが画像データである場合(特に、静止画像データである場合)について主に説明した。しかし、学習用データの種類は特に限定されない。例えば、学習用データの種類に合わせた特徴量が抽出されれば、静止画像データ以外も学習用データとして用いられ得る。例えば、学習用データは、複数のフレームを含んだ動画像データであってもよいし、音声データであってもよい。
このとき、学習用データが静止画像データである場合には、推測部122に含まれる畳み込み層として2次元畳み込み層が用いられるのが一般的である。一方、推測部122に含まれる畳み込み層として3次元畳み込み層が用いられれば、学習用データとして動画像データが適用され得る。
本発明の第1の実施形態では、入力値に対して負の相関を示す出力値を返却する関数fの例として、以下の式(3)を挙げて説明した。しかし、入力値に対して負の相関を示す出力値を返却する関数fは、かかる例に限定されない。例えば、入力値に対して負の相関を示す出力値を返却する関数fの例として、以下の式(3-A)および式(3-B)なども挙げられる。
本発明の第2の実施形態では、入力値に対して正の相関を示す出力値を返却する関数gの例として、以下の式(9)を挙げて説明した。しかし、入力値に対して正の相関を示す出力値を返却する関数gは、かかる例に限定されない。例えば、入力値に対して正の相関を示す出力値を返却する関数gの例として、以下の式(9-A)および式(9-B)なども挙げられる。
10 学習装置
101 ラベル無しデータセット
102 ラベル付きデータセット
111 入力部
120 ニューラルネットワーク
121 重みパラメータ
122 推測部
131 係数生成部
132 ラベル無しデータ評価部
133 ラベル有りデータ評価部
134 更新部
101 ラベル無しデータセット
102 ラベル付きデータセット
111 入力部
120 ニューラルネットワーク
121 重みパラメータ
122 推測部
131 係数生成部
132 ラベル無しデータ評価部
133 ラベル有りデータ評価部
134 更新部
Claims (11)
- ラベル無しデータを取得するとともに、教師ラベルが付されたラベル有りデータを取得する入力部と、
前記ラベル無しデータと前記ラベル有りデータとニューラルネットワークとに基づいて、前記ラベル無しデータに対応する推論結果と前記ラベル有りデータに対応する推論結果とを出力する推測部と、
前記ラベル無しデータに対応する推論結果に基づいて、前記ラベル無しデータの影響度を示す係数を算出する係数生成部と、
前記ラベル無しデータに対応する推論結果と前記係数とに基づいて、前記ラベル無しデータに対応する評価結果を出力するラベル無しデータ評価部と、
前記ラベル有りデータに対応する推論結果と前記教師ラベルとに基づいて、前記ラベル有りデータに対応する評価結果を出力するラベル有りデータ評価部と、
前記ラベル無しデータに対応する評価結果と、前記ラベル有りデータに対応する評価結果とに基づいて、前記ニューラルネットワークの重みパラメータを更新する更新部と、
を備える、情報処理装置。 - 前記ラベル無しデータに対応する推論結果は、クラスごとの推論値を含み、
前記係数生成部は、ラベル無しデータごとに推論値が最大となる第1のクラスの推論値と前記第1のクラスとは異なる1または複数のクラスの推論値とに基づく差分を算出し、前記ラベル無しデータごとに前記差分に基づいて前記係数を算出する、
請求項1に記載の情報処理装置。 - 前記係数生成部は、前記ラベル無しデータごとに前記第1のクラスの推論値と推論値が2番目に大きい第2のクラスの推論値との差分を算出する、
請求項2に記載の情報処理装置。 - 前記係数生成部は、前記ラベル無しデータごとに前記第1のクラスの推論値と前記第1のクラスとは異なる複数のクラスの推論値の平均値との差分を算出する、
請求項2に記載の情報処理装置。 - 前記係数生成部は、前記ラベル無しデータごとに前記差分に対して正の相関を有する数を前記係数として算出する、
請求項2~4のいずれか一項に記載の情報処理装置。 - 前記ラベル無しデータに対応する推論結果は、クラスごとの推論値を含み、
前記係数生成部は、ラベル無しデータごとに推論値に基づく予測クラスを特定し、前記予測クラスに対応するラベル無しデータの数を前記予測クラスの度数として算出し、前記ラベル無しデータごとに前記予測クラスの度数に基づいて前記係数を算出する、
請求項1に記載の情報処理装置。 - 前記係数生成部は、前記ラベル無しデータごとに前記推論値が最大となるクラスを予測クラスとして特定する、
請求項2に記載の情報処理装置。 - 前記係数生成部は、前記ラベル無しデータごとに前記予測クラスの度数に対して負の相関を有する数を前記係数として算出する、
請求項6または7に記載の情報処理装置。 - 前記ラベル無しデータ評価部は、前記ラベル無しデータに対応する推論結果に基づく損失と前記係数とを乗算することに基づいて、前記ラベル無しデータに対応する評価結果を出力する、
請求項2~8のいずれか一項に記載の情報処理装置。 - ラベル無しデータを取得するとともに、教師ラベルが付されたラベル有りデータを取得することと、
前記ラベル無しデータと前記ラベル有りデータとニューラルネットワークとに基づいて、前記ラベル無しデータに対応する推論結果と前記ラベル有りデータに対応する推論結果とを出力することと、
前記ラベル無しデータに対応する推論結果に基づいて、前記ラベル無しデータの影響度を示す係数を算出することと、
前記ラベル無しデータに対応する推論結果と前記係数とに基づいて、前記ラベル無しデータに対応する評価結果を出力することと、
前記ラベル有りデータに対応する推論結果と前記教師ラベルとに基づいて、前記ラベル有りデータに対応する評価結果を出力することと、
前記ラベル無しデータに対応する評価結果と、前記ラベル有りデータに対応する評価結果とに基づいて、前記ニューラルネットワークの重みパラメータを更新することと、
を備える、情報処理方法。 - コンピュータを、
ラベル無しデータを取得するとともに、教師ラベルが付されたラベル有りデータを取得する入力部と、
前記ラベル無しデータと前記ラベル有りデータとニューラルネットワークとに基づいて、前記ラベル無しデータに対応する推論結果と前記ラベル有りデータに対応する推論結果とを出力する推測部と、
前記ラベル無しデータに対応する推論結果に基づいて、前記ラベル無しデータの影響度を示す係数を算出する係数生成部と、
前記ラベル無しデータに対応する推論結果と前記係数とに基づいて、前記ラベル無しデータに対応する評価結果を出力するラベル無しデータ評価部と、
前記ラベル有りデータに対応する推論結果と前記教師ラベルとに基づいて、前記ラベル有りデータに対応する評価結果を出力するラベル有りデータ評価部と、
前記ラベル無しデータに対応する評価結果と、前記ラベル有りデータに対応する評価結果とに基づいて、前記ニューラルネットワークの重みパラメータを更新する更新部と、
を備える情報処理装置として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021111255A JP2023008028A (ja) | 2021-07-05 | 2021-07-05 | 情報処理装置、情報処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021111255A JP2023008028A (ja) | 2021-07-05 | 2021-07-05 | 情報処理装置、情報処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023008028A true JP2023008028A (ja) | 2023-01-19 |
Family
ID=85112062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021111255A Pending JP2023008028A (ja) | 2021-07-05 | 2021-07-05 | 情報処理装置、情報処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023008028A (ja) |
-
2021
- 2021-07-05 JP JP2021111255A patent/JP2023008028A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gauci et al. | Horizon: Facebook's open source applied reinforcement learning platform | |
JP6483667B2 (ja) | ベイズの最適化を実施するためのシステムおよび方法 | |
TW201901532A (zh) | 前饋生成神經網路 | |
JP2012058972A (ja) | 評価予測装置、評価予測方法、及びプログラム | |
JP2020525872A (ja) | インフルエンザ予測モデルの生成方法、装置及びコンピュータ可読記憶媒体 | |
JP7059458B2 (ja) | 生成的敵対神経網ベースの分類システム及び方法 | |
JP2020087103A (ja) | 学習方法、コンピュータプログラム、分類器、及び生成器 | |
CN113435430B (zh) | 基于自适应时空纠缠的视频行为识别方法、系统、设备 | |
JP7356738B2 (ja) | ニューラルネットワークの学習方法、ニューラルネットワークの生成方法、学習済装置、携帯端末装置、学習処理装置及びコンピュータプログラム | |
CN115376518B (zh) | 一种实时噪声大数据的声纹识别方法、系统、设备和介质 | |
CN111523593B (zh) | 用于分析医学影像的方法和装置 | |
JP6955233B2 (ja) | 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム | |
CN114072809A (zh) | 经由神经架构搜索的小且快速的视频处理网络 | |
WO2022197615A1 (en) | Techniques for adaptive generation and visualization of quantized neural networks | |
JP2023044336A (ja) | 学習装置、学習方法およびプログラム | |
CN111311000B (zh) | 用户消费行为预测模型训练方法、装置、设备及存储介质 | |
JP2023008028A (ja) | 情報処理装置、情報処理方法およびプログラム | |
TWI781000B (zh) | 機器學習裝置以及方法 | |
JP5255484B2 (ja) | クラスタリング距離学習装置およびそのプログラム、ならびに、クラスタリング装置 | |
CN114186097A (zh) | 用于训练模型的方法和装置 | |
JP2022148878A (ja) | プログラム、情報処理装置、及び方法 | |
JP7092228B1 (ja) | 学習装置、学習方法およびプログラム | |
JP2020030702A (ja) | 学習装置、学習方法及び学習プログラム | |
JP2023124376A (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2022190301A1 (ja) | 学習装置、学習方法、及びコンピュータ可読媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240508 |