JP6814981B2 - 学習装置、識別装置、学習識別システム、及び、プログラム - Google Patents

学習装置、識別装置、学習識別システム、及び、プログラム Download PDF

Info

Publication number
JP6814981B2
JP6814981B2 JP2017098161A JP2017098161A JP6814981B2 JP 6814981 B2 JP6814981 B2 JP 6814981B2 JP 2017098161 A JP2017098161 A JP 2017098161A JP 2017098161 A JP2017098161 A JP 2017098161A JP 6814981 B2 JP6814981 B2 JP 6814981B2
Authority
JP
Japan
Prior art keywords
learning
data
vector
neural network
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017098161A
Other languages
English (en)
Other versions
JP2018022473A (ja
Inventor
好秀 澤田
好秀 澤田
透 中田
透 中田
佳州 佐藤
佳州 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2018022473A publication Critical patent/JP2018022473A/ja
Application granted granted Critical
Publication of JP6814981B2 publication Critical patent/JP6814981B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、学習装置、認識装置、学習認識システム、及び、プログラムに関する。特には、ニューラルネットワークを用いて転移学習を行う学習装置、認識装置、学習認識システム、及び、プログラムに関する。
近年、ニューラルネットワークにおける転移学習に関する研究がある。ニューラルネットワークにおける転移学習とは、解きたい問題とは異なる正解ラベルが付されたデータ(以下、転移元学習用データと記載)での学習結果を、実際に解きたい問題の正解ラベルが付された転移先のデータ(以下、転移先学習用データと記載)の分類及び/または回帰などの特徴抽出に利用するための適応させる深層学習をいう。
例えば、非特許文献1では、転移元学習用データを用いて深層学習させた多層ニューラルネットワークを、転移先学習用データに適応するようにさらに学習させる方法、すなわち転移学習の方法が開示されている。より具体的には、深層学習後の多層ニューラルネットワークの入力層から、ある隠れ層までの下位層を、汎用の特徴抽出器としてそのまま利用することが開示されている。そして、多層ニューラルネットワークの隠れ層の出力を受ける隠れ層から出力層までの上位層を、新たに構成した適応層(つまり、新たな隠れ層及び出力層)で置き換え、転移先学習用データを用いて当該適応層の学習を行うことが開示されている。
MaximeOquab,LeonBottou,IvanLaptev,JosefSivic,"Learning and Transferring Mid-Level Image Representations using Convolutional Neural Networks"、CVPR,June 2014
しかしながら、本発明者らは、非特許文献1に開示される転移学習に関し、過学習や認識精度の低下などといった学習効果を損ない得るいくつかの問題に気づいた。
本開示の一態様に係る学習装置は、上記の問題点に着目したものであり、少なくとも認識精度の低下を抑制できる学習装置を提供することを目的とする。
上記目的を達成するために、本開示の一態様に係る学習装置は、少なくとも1つのメモリと、少なくとも1つの回路とを備える学習装置であって、前記回路は、(a)元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習された第1ニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得し、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、(b)第2ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記第2ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルとを取得し、前記第1ニューラルネットワークと前記第2ニューラルネットワークは、同じ荷重値、同じ隠れ層の数、各隠れ層に含まれるニューロン数が同じ、入力層のニューロン数が同じ、出力層のニューロン数が同じであり、(c)前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能な記録媒体で実現されてもよく、装置、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。コンピュータで読み取り可能な記録媒体はCD−ROMを含む。
本開示によれば、少なくとも認識精度の低下を抑制できる学習装置を提供することができる。本開示の一態様の付加的な恩恵及び有利な点は本明細書及び図面から明らかとなる。この恩恵及び/又は有利な点は、本明細書及び図面に開示した様々な態様及び特徴により個別に提供され得るものであり、その1以上を得るために全てが必要ではない。
図1は、ニューラルネットワークが行う演算の計算モデルを説明するための概念図である。 図2は、ニューラルネットワークの学習の一例を説明するための図である。 図3は、実施の形態1に係る学習識別システムの機能的な構成の一例を示すブロック図である。 図4は、実施の形態1に係る転移元ニューラルネットワーク学習装置の機能的な構成の一例を示すブロック図である。 図5は、実施の形態1に係る転移学習装置の機能的な構成の一例を示すブロック図である。 図6は、実施の形態1に係る識別装置の機能的な構成の一例を示すブロック図である。 図7は、実施の形態1に係る学習識別システムの機能的な構成の別の一例を示すブロック図である。 図8は、実施の形態1に係る学習識別システムにおいて実行される転移学習の一例を示すフローチャートである。 図9は、実施の形態1に係る転移学習装置において行われる転移学習の一例を示す図である。 図10は、2次元電気泳動像の模式図である。 図11Aは、敗血症に関する関連度ベクトルの一例を示す図である。 図11Bは、非敗血症に関する関連度ベクトルの一例を示す図である。 図12は、実施の形態1に係る識別装置において実行される識別処理の一例を示すフローチャートである。 図13は、実施の形態2に係る転移学習装置の機能的な構成の一例を示すブロック図である。 図14は、実施の形態2に係る転移学習装置において実行される転移学習の一例を示すフローチャートである。 図15は、実施の形態3に係る転移学習装置の機能的な構成の一例を示すブロック図である。 図16は、実施の形態3に係る転移学習装置の動作の一例を示すフローチャートである。 図17は、実施の形態4に係る学習識別システムの機能的な構成の一例を示すブロック図である。 図18は、実施の形態4における系統樹保持部が保持する系統樹の一例を示す図である。 図19は、実施の形態4に係る学習識別システムにおいて実行される動作の一部の一例を示すフローチャートである。 図20は、本開示の学習装置、認識装置及び学習認識システムを実現するためのハードウェア構成の一例を示すブロック図である。 図21は、データサーバを利用したコンピュータの一例を示す模式図である。 図22は、実施の形態3に係る転移学習装置の動作の別の一例を示すフローチャートである。
(本開示の基礎となった知見)
上記非特許文献1に開示される転移学習では、深層学習後の多層ニューラルネットワークの入力層から、ある隠れ層までの下位層を、汎用の特徴抽出器としてそのまま利用する。そして、多層ニューラルネットワークにおいて、当該隠れ層の出力を受ける隠れ層から出力層までの上位層を、新たに構成した適応層(つまり、新たな隠れ層及び出力層)で置き換え、転移先学習用データを用いて当該適応層の学習を行う。
また、上記非特許文献1では、画像プロセッサで動作するソフトウェアによってエミュレートされる多層ニューラルネットワークを、転移元学習用データとして約120万枚の転移元画像を用いて深層学習させた後、転移先学習用データとして異種の転移先画像を用いて上述の転移学習を行う実験についても開示されている。当該実験により、転移先画像が転移元画像とは異種の画像であるにも関わらず、転移学習によって、転移先画像に表される物体及び動作の認識精度が向上することが開示示されている。
しかしながら、本発明者らは、上記非特許文献1に開示される転移学習に関し、学習効果を損ない得るいくつかの問題に気づいた。
より具体的には、上記非特許文献1に開示される転移学習では、深層学習後の多層ニューラルネットワークの下位層がそのまま利用される一方で上位層が新たに構成され、転移先学習用データに適応するように学習される。しかしながら、まず、利用できる下位層の好適な範囲を定める明確な基準がないという問題がある。そのため、好適な上位層を新たに構成する手間がかかる。次に、転移先学習用データが比較的小規模なデータである場合に問題がある。すなわち、新たに構成される上位層を、当該小規模なデータである転移先学習用データを用いて初期状態から学習させると、過学習に陥る恐れがあるという問題がある。加えて、下位層と上位層とを異なるデータ(転移元学習用データと転移先学習用データ)を用いて学習させるため、データの組み合わせによっては、認識精度が低下する悪影響が生じる懸念があるという問題もある。
そこで、本発明者らは、少なくとも認識精度が低下するといった問題を解決すべく、以下に開示される学習装置、認識装置、学習認識システム、及び、プログラムに到達した。
本開示の一態様に係る学習装置は、少なくとも1つのメモリと、少なくとも1つの回路とを備える学習装置であって、前記回路は、(a)元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習された第1ニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得し、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、(b)第2ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記第2ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルとを取得し、前記第1ニューラルネットワークと前記第2ニューラルネットワークは、同じ荷重値、同じ隠れ層の数、各隠れ層に含まれるニューロン数が同じ、入力層のニューロン数が同じ、出力層のニューロン数が同じであり、(c)前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成する。
この構成により、転移元ニューラルネットワーク、すなわち、第1ニューラルネットワークの構成情報及び荷重値をそのまま使用した転移先ニューラルネットワーク、すなわち、第2ニューラルネットワークに、転移先学習用データに適応させるための転移学習を行うことができる。
これにより、少なくとも認識精度の低下を抑制できる。さらに、転移学習の際に、転移先学習用データを利用して転移元ニューラルネットワーク、すなわち、第1ニューラルネットワークの構成情報及び荷重値を変更する手間もなく、構成情報や前記荷重値の変更によって生じ得る過学習による悪影響もないという効果を奏する。
ここで、例えば、(i)前記第2ニューラルネットワークに、前記第1ラベルが付与された第1データが入力したときの出力ベクトルは、前記第2関連度ベクトルより前記第1関連度ベクトルに近く、(ii)前記第2ニューラルネットワークに、前記第2ラベルが付与された第2データを入力したときの出力ベクトルは、前記第1関連度ベクトルより前記第2関連度ベクトルに近い。
また、例えば、前記回路は、さらに、(d)前記第1関連度ベクトル及び前記第2関連度ベクトルを用いて、前記第2ニューラルネットワークの荷重情報を更新し、前記回路は、前記(d)において、前記複数の第1データに対する出力である複数の第1出力ベクトルが、前記第1関連度ベクトルを正解とし、前記複数の第2データに対する出力である複数の第2出力ベクトルが、前記第2関連度ベクトルを正解とする学習を行うことによって、前記荷重情報を更新するとしてもよい。
この構成により、転移先学習用データを用いた教師付き学習によって、転移先ニューラルネットワーク、すなわち、第2ニューラルネットワークの荷重値を、転移元学習用データで学習済みの転移元ニューラルネットワーク、すなわち、第1ニューラルネットワークの荷重値を初期値として更新する。これにより、学習済みの転移元ニューラルネットワーク、すなわち、第1ニューラルネットワークの荷重値をそのまま用いず、かつ、少量の転移先学習用データで学習する場合に起こり得る過学習を抑制することができる。
また、例えば、前記回路は、前記(c)において、前記複数の第1出力ベクトルの平均ベクトルを前記第1関連度ベクトルとし、前記複数の第2出力ベクトルの平均ベクトルを前記第2関連度ベクトルとして生成するとしてもよい。
この構成により、転移元学習用データと転移先学習用データとから、関連度ベクトルを一意に決定することができる。
また、例えば、前記回路は、前記(c)において、前記第1関連度ベクトルの値が、前記複数の第1出力ベクトルから計算される第1標準偏差の定数倍の範囲内であり、前記第2関連度ベクトルの値が前記複数の第2出力ベクトルから計算される第2標準偏差の定数倍の範囲内であり、かつ、前記第1関連度ベクトル及び前記第2関連度ベクトルの間の差分値が大きくなるように、前記第1関連度ベクトルの値及び第2関連度ベクトルの値を調整するとしてもよい。
この構成により、関連度ベクトルが近しい場合には、関連度ベクトル間の差が大きくすることができるので、認識精度を向上できる。
また、例えば、前記学習装置は、さらに、正解ラベル付き学習用データである転移元学習用データを複数セットと、正解ラベルそれぞれの類似度を計算するための距離情報とを保持しており、前記回路は、さらに、前記複数セットの転移元学習用データそれぞれに付与されたすべての正解ラベルと、前記転移先学習用データに付与されたすべての正解ラベルとの距離を計算し、その中で最も小さい距離を有する転移元学習用データのセットを選択し、選択した前記転移元学習用データのセットを用いて学習させることで前記第1ニューラルネットワークを生成し、生成した前記第1ニューラルネットワークの構成情報及び荷重値を、前記メモリに保存するとしてもよい。
この構成により、転移先学習用データに最も近い(最も類似する)転移元学習用データセットを用いて転移元ニューラルネットワーク、すなわち、第1ニューラルネットワークを構築することができる。
また、例えば、前記転移先学習用データは、等電点と分子量によって分離されたたんぱく質の2次元電気泳動像であり、前記第1ラベルは、敗血症であり、前記第2ラベルは、非敗血症であるとしてもよい。
この構成により、患者から得られる2次元電気泳動像を用いてその患者が病気に罹っているか否かを判定することができる。
ここで、例えば、前記転移元学習用データは、健常者における、等電点と分子量によって分離されたたんぱく質の2次元電気泳動像であり、前記転移元学習用データの正解ラベルは、健常者であるとしてもよい。
また、本開示の一態様に係る識別装置は、少なくとも1つの回路とを備える識別装置であって、前記回路は、請求項1〜7のいずれか1項に記載の学習装置から、前記第1関連度ベクトル及び前記第2関連度ベクトルを取得し、前記転移先学習用データと同種かつラベルなしデータであるテストデータを取得し、前記第2ニューラルネットワークに、取得した前記テストデータを入力して、前記テストデータに対する出力ベクトルを取得し、取得した前記出力ベクトル及び前記第1関連度ベクトルの距離と、取得した前記出力ベクトル及び前記第2関連度ベクトルの距離とを計算し、前記第1関連度ベクトル及び前記第2関連度ベクトルのうち、前記出力ベクトルとの距離が近い方に対応する、前記第1ラベルまたは前記第2ラベルを、前記テストデータに対する正解ラベルとして出力する。
また、本開示の一態様に係る学習識別システムは、少なくとも1つのメモリと、少なくとも1つの第1回路とを有する学習装置と、少なくとも1つの第2回路を有する識別装置とを備える学習識別システムであって、前記学習装置では、前記第1回路は、元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習された第1ニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得し、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、第2ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記第2ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルを取得し、前記第1ニューラルネットワークと前記第2ニューラルネットワークは、同じ荷重値、同じ隠れ層の数、各隠れ層に含まれるニューロン数が同じ、入力層のニューロン数が同じ、出力層のニューロン数が同じであり、前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成し、前記識別装置では、前記第2回路は、前記学習装置から、前記第1関連度ベクトル及び前記第2関連度ベクトルを取得し、前記転移先学習用データと同種かつラベルなしデータであるテストデータを取得し、前記第2ニューラルネットワークに、取得した前記テストデータを入力して、前記テストデータに対する出力ベクトルを取得し、取得した前記出力ベクトル及び前記第1関連度ベクトルの距離と、取得した前記出力ベクトル及び前記第2関連度ベクトルの距離とを計算し、前記第1関連度ベクトル及び前記第1関連度ベクトルのうち、前記出力ベクトルとの距離が近い方に対応する、前記第1ラベルまたは前記第2ラベルを、前記テストデータに対する正解ラベルとして出力する。
本開示の一態様に係る学習装置は、少なくとも1つのメモリと、少なくとも1つの回路とを備える学習装置であって、前記回路は、(a)元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習されたニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得し、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、(b)前記ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルを取得し、(c)前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、図面を参照して本開示の実施の形態を詳細に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(ニューラルネットワーク)
まず、図1及び図2を用いて、ニューラルネットワークが行う演算の計算モデルを説明する。
図1は、ニューラルネットワークが行う演算の計算モデルを説明するための概念図である。ニューラルネットワークは、周知のように、生物のニューラルネットワークを模した計算モデルに従って演算を行う演算装置である。
図1に示されるように、ニューラルネットワーク200は、ニューロンに相当する複数のユニット(白丸で示されている)を、入力層201、隠れ層202、及び出力層203に配置して構成される。
隠れ層202は、図1に示す例では、2つの隠れ層202a、隠れ層202bで構成されているが、単一の隠れ層若しくは3以上の隠れ層で構成されてもよい。なお、複数の隠れ層を有するニューラルネットワークは、特に、多層ニューラルネットワーク装置と呼ばれることがある。
ここで、入力層201に近い層を下位層とし、出力層203に近い層を上位層とする。この場合、各ユニットは、下位層に配置されたユニットから受信した計算結果を荷重値に応じて結合(例えば、荷重和演算)し、該当結合の結果を上位層に配置されたユニットに送信する計算要素である。
ニューラルネットワーク200の機能は、ニューラルネットワーク200が有する層の数や各層に配置されるユニットの数などを表す構成情報と、各ユニットでの荷重値和計算に用いられる荷重値を表す荷重W=[w1、w2、・・・]とで定義される。
図1に示すように、ニューラルネットワーク200は、入力層201の入力ユニット205に入力データX=[x1、x2、・・・](画像であれば画素値)が入力される。これにより、隠れ層202の隠れユニット206及び出力層203の出力ユニット207において荷重W=[w1、w2、・・・]を用いた荷重和演算がなされ、出力層203の出力ユニット207から出力ベクトルY=[y1、y2、・・・]が出力される。
なお、本開示では、ニューラルネットワーク200の具体的な実装について限定しない。ニューラルネットワーク200は、例えば、再構成可能なハードウェアで実現されてもよく、また、ソフトウェアによるエミュレーションによって実現されてもよい。
また、本開示では、ニューラルネットワーク200の学習は、周知の方法に従って行われるものとし、具体的な方法を限定しない。例えば、ニューラルネットワーク200は、学習装置によって、以下で述べる周知の方法に従って学習されてもよい。
図2は、ニューラルネットワーク200の学習の一例を説明するための図である。
図2では、転移元ニューラルネットワークを、正解ラベルが付されたデータである転移元学習用データを用いて学習する場合の例が示されている。ここで、転移元ニューラルネットワークは、転移元学習用データにより学習されるニューラルネットワークである。また、転移元学習用データは、元ドメインにおける正解ラベル付き学習用データである。
図2に示される例では、転移元学習用データは、車の画像、横断歩道の画像、自転車の画像、人の画像、猫の画像である。そして、各画像には、正解ラベルとして、「車」を示す値[1,0,0,0,0]、「横断歩道」を示す値[0,1,0,0,0]、「自転車」を示す値[0,0,1,0,0]、「人」を示す値[0,0,0,1,0]、及び「猫」を示す値[0,0,0,0,1]が付されている。
ニューラルネットワーク200は、入力データXを分類する分類問題を解く。より具体的には、ニューラルネットワーク200では、各出力ユニットは入力データXを分類するための異なる正解ラベルに対応付けられ、荷重Wは、複数の入力データXの各々が入力されたときに、当該入力データXの正しい正解ラベルに対応する出力ユニットの出力値が1に近づき、他の出力ユニットの出力値が0に近づくように調整される。
つまり、図2に示される例では、ニューラルネットワーク200において、各出力ユニットは、「車」、「横断歩道」、「自転車」、「人」、及び「猫」を示す正解ラベルのうち異なる1つの正解ラベルに対応付けられる。また、荷重Wは、転移元学習用データである画像が入力されたときに出力される出力ユニットの出力値を並べた出力ベクトルYと当該画像に付された正解ラベルとの差分が小さくなるように教師付き学習によって調整される。例えば、「車」を示す正解ラベル[1,0,0,0,0]を持つ転移元学習用データを用いて学習した場合、出力ベクトルYがベクトルZ=[1,0,0,0,0]となるように調整される。以降では、ベクトルZのことを正解ベクトルと呼ぶ。
なお、ニューラルネットワーク200に教師付き学習を行う場合、例えば、入力データX、荷重W及び正解ラベルを用いて、正解ベクトルと出力ベクトルYとの誤差を表す損失関数を定義し、勾配降下法により当該損失関数を減少させる勾配に沿って荷重Wを更新してもよい。
また、ニューラルネットワーク200が多層ニューラルネットワークである場合、特に、前記教師付き学習を行う前に、layer-wise pre-trainingと呼ばれる教師無し学習によ
って、荷重値を隠れ層ごとに個別に調整してもよい。これにより、その後の教師付き学習によって、より正確な分類ができる荷重Wが得られる。
また、ニューラルネットワーク200の荷重値の調整には、上述した勾配降下法の他にも、例えば、バックプロパゲーションなどの周知のアルゴリズムが用いられ得る。また、ニューラルネットワーク200の学習では、荷重値を調整せずに、ニューラルネットワーク200の構成の変更(例えば、ユニットの追加及び/または削除)を行っても良く、荷重値の調整と構成の変更の両方を行ってもよい。ニューラルネットワーク200が多層ニューラルネットワークである場合、各層で個別に学習を行ってもよい。
以下では、元ドメインにおける正解ラベル付き学習用データである転移元学習用データで学習済みのニューラルネットワーク200における転移学習について、複数の態様に基づいて説明する。なお、以下で説明する転移先ニューラルネットワークは、転移先学習用データにより学習されるニューラルネットワークである。また、転移先学習用データは、目標ドメインにおける正解ラベル付き学習用データである。
(実施の形態1)
[学習識別システム1の構成]
図3は、実施の形態1に係る学習識別システム1の機能的な構成の一例を示すブロック図である。
図3に示す学習識別システム1は、転移学習装置10と、識別装置20と、転移先学習用データ保持部30と、テストデータなどのデータが入力されるデータ入力部40とを備える。学習識別システム1は、転移元ニューラルネットワーク学習装置2より、転移元学習用データで学習済みの転移元ニューラルネットワークの構成情報及び荷重値を取得する。
[転移元ニューラルネットワーク学習装置2の構成]
図4は、実施の形態1に係る転移元ニューラルネットワーク学習装置2の機能的な構成の一例を示すブロック図である。
図4に示す転移元ニューラルネットワーク学習装置2は、転移元ニューラルネットワーク生成部21と、転移元学習用データ保持部22とを備える。なお、転移元ニューラルネットワーク学習装置2の各構成は、例えば、画像プロセッサ又はマイクロプロセッサが所定のプログラムを実行することにより発揮されるソフトウェア機能として実現されてもよい。
転移元学習用データ保持部22は、例えばメモリであり、正解ラベル付き学習用データである転移元学習用データを保持する。転移元学習用データは、例えば、デジタルカメラで撮像される画像、インターネットで取得された画像、および健常者から得られた等電点と分子量とによって分離されたたんぱく質の2次元電気泳動像である。例えば、2次元電気泳動像は、泳動像の生成方法の種類、健常者の性別、または年齢が正解ラベルとして付与されている。転移元学習用データは、学習を十分に行うことができる程の比較的大規模なデータである。
転移元ニューラルネットワーク生成部21は、転移元ニューラルネットワークを構成する構成情報と荷重値(学習前の初期値)を取得する。例えば、ユーザがキーボード(図示せず)を用いて、転移元ニューラルネットワーク学習装置2に、転移元ニューラルネットワークを構成する構成情報と荷重値(学習前の初期値)を入力し、そして、転移元ニューラルネットワーク生成部21は、転移元ニューラルネットワークを構成する構成情報と荷重値(学習前の初期値)を取得してもよい。構成情報は、隠れ層の数、各隠れ層のニューロン数、入力層のニューロン数、出力層のニューロン数、各ニューロン間の結合関係を示す情報(どのニューロンがどのニューロンと結合しているか)、各ニューロンの活性化関数、各ニューロンのバイアスパラメータを含んでもよい。結合する2つのニューロン間で1つの荷重値を定義してもよい。
図2の例では、構成情報は、隠れ層の数=2、入力層のニューロン数=4、出力層のニューロン数=5、入力層に最も近い隠れ層(隠れ層1と呼ぶ)のニューロン数=3、出力層に最も近い隠れ層(隠れ層2と呼ぶ)のニューロン数=2、各ニューロン間の結合関係を示す情報として「(i)入力層の4つのニューロンのそれぞれは隠れ層1の3つのニューロンと結合している、(ii)隠れ層1の3つのニューロンのそれぞれは隠れ層2の2つのニューロンと結合している、(iii)隠れ層2の2つのニューロンのそれぞれは出力層の5つのニューロンと結合している」を示す情報を含んでもよい。
図2の例では、28個の荷重値を定義してもよい。すなわち、入力層のニューロンの各々と隠れ層1のニューロンの各々の間の荷重値(12個)、隠れ層1のニューロンの各々と隠れ層2のニューロンの各々の間の加重値(6個)、隠れ層2のニューロンの各々と出力層のニューロンの各々の間の荷重値(10個)を定義してもよい。
また、転移元ニューラルネットワーク生成部21は、転移元学習用データ保持部22が保持する転移元学習用データを用いて、構成情報から決定される構造を有するニューラルネットワークの学習を行い、転移元ニューラルネットワークを生成する。そして、転移元ニューラルネットワーク生成部21は、生成した転移元ニューラルネットワークの構成情報及び荷重値(学習後)を学習識別システム1に出力する。本実施の形態では、転移元ニューラルネットワーク生成部21は、生成した転移元ニューラルネットワークの構成情報及び荷重値を転移学習装置10のメモリ(構成情報保持部104と荷重保持部105)に出力する。
なお、学習識別システム1が転移元学習用データ保持部22を有すれば、転移元ニューラルネットワーク学習装置2は、転移元学習用データ保持部22を有さないとしてもよい。
[転移先学習用データ保持部30の構成]
転移先学習用データ保持部30は、例えばメモリであり、正解ラベル付き学習用データである転移先学習用データを保持する。転移先学習用データは、例えば、敗血症または非敗血を正解ラベルとして付与されたたんぱく質の2次元電気泳動像などである。たんぱく質の2次元電気泳動像は、等電点と分子量とによって分離された像である。転移先学習用データは、転移元学習用データより小規模なデータである。
[転移学習装置10の構成]
図5は、実施の形態1に係る転移学習装置10の機能的な構成の一例を示すブロック図である。
転移学習装置10は、例えば少なくとも1つのメモリと、少なくとも1つの第1回路とを有する学習装置の一例である。なお、転移学習装置10の各構成は、例えば、画像プロセッサ及び/またはマイクロプロセッサが所定のプログラムを実行することにより発揮されるソフトウェア機能として実現されてもよいし、上記のように第1回路とメモリとで実現されてもよい。
転移学習装置10は、元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習された転移元ニューラルネットワークの構成情報及び荷重値を取得する。すなわち、構成情報保持部104と荷重保持部105は転移元ニューラルネットワークの構成情報及び荷重値を転移元ニューラルネットワーク生成部21から受け取る。転移学習装置10は、転移元ニューラルネットワークの構成情報及び荷重値を用いて構成される転移先ニューラルネットワーク102に、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとして、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを転移先学習用データ保持部30から取得して入力する。転移先ニューラルネットワーク102の入力層には、複数の第1データ、複数の第2データが入力される。転移先ニューラルネットワーク102の入力層には、第1ラベル、第2ラベルは入力されなくてもよい。そして、転移先ニューラルネットワーク102から、複数の第1データに対する出力である複数の第1出力ベクトルと、複数の第2データに対する出力である複数の第2出力ベクトルとを取得する。複数の第1データと複数の第1出力ベクトルは1対1対応する。複数の第2データと複数の第2出力ベクトルは1対1対応する。転移学習装置10は、複数の第1出力ベクトルを用いて、第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成する。ここで、第1関連度ベクトル及び第2関連度ベクトルは、転移先ニューラルネットワーク102を用いて、データを識別する際に用いられる識別用データとも表記する。
ここで、例えば、転移学習装置10は、複数の第1出力ベクトルの平均ベクトルを第1関連度ベクトルとし、複数の第2出力ベクトルの平均ベクトルを第2関連度ベクトルとして生成する。複数のベクトル[x11,…,xn1],…,[x1i,…,xni],…,[x1k,…,xnk]の平均ベクトルは[(x11+…+x1i+…x1k)/k,…,(xn1+…+xni+…xnk)/k]である。
また、転移先ニューラルネットワーク102に、第1ラベルに対応する第1データが入力されたとき転移先ニューラルネットワーク102から第1出力ベクトルが出力され、転移先ニューラルネットワーク102に、第2ラベルに対応する第2データが入力されたとき、転移先ニューラルネットワーク102から第2出力ベクトルが出力されるとする。この場合、第1出力ベクトルと第1関連度ベクトルの距離は、第1出力ベクトルと第2関連度ベクトルの距離より小さく、第2出力ベクトルと第2関連度ベクトルの距離は、第2出力ベクトルと第1関連度ベクトルの距離より小さい。
本実施の形態では、転移学習装置10は、図5に示されるように、関連度ベクトル生成部101と、転移先ニューラルネットワーク102とを備える。
転移先ニューラルネットワーク102は、構成情報保持部104、荷重保持部105、及び、データ演算部103を有する。
構成情報保持部104は、例えばメモリであり、転移先ニューラルネットワーク102を構成する構成情報を保持している。この構成情報には、転移先ニューラルネットワーク102を構成する層の数及び層ごとに配置される入力ユニット、隠れユニット及び出力ユニットの数などが示されている。荷重保持部105は、例えばメモリであり、転移先ニューラルネットワーク102を構成する隠れユニット及び出力ユニットでの荷重和計算に用いられる荷重値を示す荷重Wを保持している。データ演算部103は、構成情報保持部104が保持する構成情報によって表される入力ユニット、隠れユニット及び出力ユニットの配置に従って構成した転移先ニューラルネットワークと、荷重Wによって示される荷重値とを用いた荷重和演算を行う。つまり、データ演算部103は、入力データXが入力ユニットに与えられたときの各ユニットでの荷重和を算出する。
換言すると、転移学習装置10は、複数の転移先学習用データを、転移先学習用データ保持部30から取得し、転移元ニューラルネットワーク生成部21で生成された転移元ニューラルネットワークの構成情報及び荷重値を持つ転移先ニューラルネットワーク102に入力する。そして、転移学習装置10は、転移先ニューラルネットワーク102から、各ユニットでの荷重和が算出され、各出力ユニットから出力される出力値を並べた出力ベクトルを取得して、関連度ベクトル生成部101に入力する。なお、複数の転移先学習用データの各々には、転移元学習用データの正解ラベルとは異なる1以上の正解ラベルが付されている。
関連度ベクトル生成部101は、各転移先学習用データに対応する出力ベクトルを用いて、転移先学習用データの正解ラベルに1対1対応する関連度ベクトルを生成する。換言すると、関連度ベクトル生成部101は、転移元ニューラルネットワークを用いて構成される転移先ニューラルネットワーク102に入力した転移先学習用データの出力ベクトルが、当該転移先学習用データの正解ラベルと1対1に対応するように紐付けるために関連度ベクトルを生成する。
以上のように、転移学習装置10は、転移元学習用データで学習済みの転移元ニューラルネットワークの構成情報及び荷重値をそのまま転移先ニューラルネットワーク102に使用する。そして、転移学習装置10は、転移先ニューラルネットワーク102に入力した転移先学習用データそれぞれの出力ベクトルと、当該転移先学習用データの正解ラベルのそれぞれと1対1対応させることができる関連度ベクトルを計算する。このようにして、転移学習装置10は、計算した関連度ベクトルを用いることにより、転移元ニューラルネットワークをそのまま用いて構成される転移先ニューラルネットワーク102を、転移先学習用データに適応させる転移学習を行うことができる。
[識別装置20の構成]
図6は、実施の形態1に係る識別装置20の機能的な構成の一例を示すブロック図である。
識別装置20は、例えば少なくとも1つの第2回路とを有する識別装置の一例である。なお、識別装置20の各構成は、例えば、画像プロセッサ及び/またはマイクロプロセッサが所定のプログラムを実行することにより発揮されるソフトウェア機能として実現されてもよい、上記のように第2回路とで実現されてもよい。
識別装置20は、転移学習装置10から、第1関連度ベクトル及び第2関連度ベクトルを取得し、転移先学習用データと同種かつラベルなしデータであるテストデータをデータ入力部40から取得する。識別装置20は、転移先ニューラルネットワーク102に、取得したテストデータを入力して、テストデータに対する出力である出力ベクトルを取得する。
識別装置20は、取得した出力ベクトルと第1関連度ベクトルの距離である第1距離、及び、取得した出力ベクトルと第2関連度ベクトルの距離である第2距離を計算する。第1距離が第1関連度ベクトルに対応し、第2距離が第2関連度ベクトルに対応する。第1距離と第2距離のうち値が小さい距離に対応する関連ベクトルを、第1関連度ベクトルと第2関連度ベクトルから選択する。選択した関連ベクトルに対応するラベルを、第1ラベル、第2ラベルから選択してテストデータに対する正解ラベルとして出力する。なお、第1ラベルに第1関連ベクトルが対応し、第2ラベルに第2関連ベクトルが対応する。
本実施の形態では、識別装置20は、図6に示されるように、出力ユニット比較部220と、転移先ニューラルネットワーク102とを備える。なお、転移先ニューラルネットワーク102は、転移学習装置10から取得したものであり、構成情報保持部104、荷重保持部105、及び、データ演算部103を有する。詳細は、上述した通りであるので、説明を省略する。
出力ユニット比較部220は、データ演算部103で出力ユニットの荷重和をして算出された出力ベクトルと、関連度ベクトル生成部101で生成される関連度ベクトルとを取得し、これらを比較する。出力ユニット比較部220は、比較した結果、出力ベクトルの値と最も近い関連度ベクトルに対応する転移先学習用データの正解ラベルを、データ入力部40により入力されたテストデータに対する出力ベクトルとして出力する。出力ユニット比較部220は、例えば、(出力ベクトルY−関連度ベクトルR)×(出力ベクトルY−関連度ベクトルR)の値が最も小さくなる関連度ベクトルに対応する転移先学習用データの正解ラベルを、入力されたテストデータに対する出力ベクトルとして出力する。
なお、識別装置20は、転移先ニューラルネットワーク102を自身で有さず、転移学習装置10の転移先ニューラルネットワーク102を共用するとしてもよい。
図7は、実施の形態1に係る学習識別システム1Aの機能的な構成の別の一例を示すブロック図である。図7に示す学習識別システム1Aは、図3に示す学習識別システム1と比較して、転移元ニューラルネットワーク学習装置2A、識別装置20A、及び、転移元学習用データ保持部22Aの構成が異なる。より具体的には、転移元ニューラルネットワーク学習装置2Aは、転移元学習用データ保持部22を有さず、学習識別システム1Aが転移元学習用データ保持部22Aを有する点で構成が異なる。識別装置20Aは、転移先ニューラルネットワーク102を有さず、転移学習装置10の転移先ニューラルネットワーク102を共用する点で構成が異なる。詳細については上述した通りであるので、ここでの説明は省略する。
[学習識別システム1の動作]
次に、上述のように構成された学習識別システム1の動作の一例について説明する。
まずは、図8〜図11Bを用いて、転移学習について説明し、その後、図12を用いて識別処理について説明する。
(転移学習)
図8は、実施の形態1に係る学習識別システム1において実行される転移学習の一例を示すフローチャートである。
まず、転移元ニューラルネットワーク学習装置2は転移元学習を行う(S1)。
転移元ニューラルネットワーク生成部21は、隠れ層の数H、及び、各隠れ層のニューロン数Ni(i=1、2、…、H)を取得する(S11)。
次いで、転移元ニューラルネットワーク生成部21は、転移元学習用データ保持部22に保持されている、実数で表現される正解ラベルyj(yi=1、2、…、M)と、画像の各画素を1列に並べた出力ベクトルxjの複数組{(xj,yj)|j=1,2,…,N}を取得する(S12)。
次いで、転移元ニューラルネットワーク生成部21は、隠れ層の数H及び各隠れ層のニューロン数Niから一意に決定されるニューラルネットワークを作成して、その隠れ層の数及び各隠れ層のニューロン数を構成情報保持部104に出力する(S13)。
次いで、転移元ニューラルネットワーク生成部21は、各出力ベクトルxjをニューラルネットワークに入力し、ニューラルネットワークの荷重W=[w1、w2、…]の値を算出する。荷重値は、各ユニットの荷重和を算出して最終的に出力されるM次元のベクトルが、対となる正解ラベルyjに対応する値が1、それ以外の正解ラベルに対応する値が0となるような勾配降下法によって算出される。算出した荷重Wを入力層と入力層と一番近い隠れ層との間の荷重から順番に荷重保持部105に出力する(S14)。
次に、学習識別システム1の転移学習装置10は転移先学習を行う(S2)。
データ演算部103は、転移先学習用データ保持部30より、実数で表現される正解ラベルy’j(y’j=1、2、…、M’)と画像の各画素を一列に並べたベクトルx‘jの複数組{(x’j,y’j)|j=1、2、…、N’}を取得する(S21)。
次いで、データ演算部103は、荷重保持部105に保持されている荷重の値と構成情報保持部104に保持されている隠れ層の数及び各隠れ層のニューロン数から転移元ニューラルネットワークの構造を復元した転移先ニューラルネットワーク102に、複数のベクトル{x’j|j=1、2、・・・、N’}を入力し、各ユニットの荷重和を算出し、最終的な算出結果を関連度ベクトル生成部101に複数のM次元の出力ベクトル{Yj|j=1、2、…、N’}を出力する(S22)。画像の各画素を一列に並べたベクトルx’jと出力ベクトルYj(j=1、2、・・・、N’)が一対一対応する。
次いで、関連度ベクトル生成部101は、データ演算部103が出力した複数のM次元の出力ベクトル{Yj|j=1、2、…、N’}のそれぞれを、対応する正解ラベルy’jの値毎に分類する。すなわち、この分類によって、複数のM次元の出力ベクトルの各々は、正解ラベルの値の種類数であるM’個のグループに分類される。そして、関連度ベクトル生成部101は、各正解ラベルの値に属する出力ベクトルの平均ベクトルを算出し、関連度ベクトルRj=[R1、R2、…、RM](j=1、2、…、M’)として識別装置20に出力する(S23)。
図9は、実施の形態1に係る転移学習装置10において行われる転移学習の一例を示す図である。図10は、2次元電気泳動像の模式図である。
図9に示される例では、転移先学習用データは、複数の2次元電気泳動像の画像である。そして、各画像には、正解ラベルとして「敗血症」及び「非敗血症」が付されている。
ここで、2次元電気泳動像600は、図10に示されるように、たんぱく質を電荷量と分子量とで2次元的に分離することで得られる画像である。2次元電気泳動像600は、その画像中のたんぱく質601の位置または濃度(すなわち画素値)によって患者の状態を取得することができる。また、敗血症は、全身性炎症反応症候群の一種であり、医療現場において早期の発見が必要とされている。なお、敗血症の患者の2次元電気泳動像の画像を多数収集することは困難である。そのため、敗血症の患者の2次元電気泳動像の画像は、学習を十分に行うことができない程の比較的小規模な学習用データに該当する。
図9に示される例では、転移学習装置10において、2次元電気泳動像600の識別を行うため転移学習を行う。これにより、識別装置20で敗血症と非敗血症の識別を精度よく行うことができるようになる。
より具体的には、転移学習装置10において、転移先ニューラルネットワーク102は、転移元学習用データで学習済みの転移元ニューラルネットワークの構成情報及び荷重Wをそのまま使用している。そして、転移先ニューラルネットワーク102は、転移先学習用データが入力されるたびに、各出力ユニットの出力値からなる出力ベクトルY=[y1、y2、y3、y4、y5]を関連度ベクトル生成部101に出力する。
関連度ベクトル生成部101は、転移先学習用データの正解ラベル毎に、出力ベクトルYの平均値を計算し、関連度ベクトルRとして算出する。このようにして、転移元ニューラルネットワークをそのまま用いて構成される転移先ニューラルネットワーク102を、転移先学習用データに適応させる転移学習を行う。
図11Aは、「敗血症」に関する関連度ベクトルの一例を示す図である。図11Bは、「非敗血症」に関する関連度ベクトルの一例を示す図である。
図11Aには、複数枚すなわち例えば3枚の敗血症画像が入力データXとして、図9に示される転移先ニューラルネットワーク102に入力されたときの、3つの出力ベクトルYから関連度ベクトルRを算出する場合の例が示されている。より具体的には、図11Aに示す関連度ベクトルRは、3つの出力ベクトルY701〜703の値すなわち図9に示す5つの出力ユニットのそれぞれの出力値y1、y2、y3、y4、及びy5の値の平均値として算出される。つまり、関連度ベクトル生成部101は、
出力ベクトルY701=[y11,y21,y31,y41,y51]=[0.01,−0.3,0.1,0.4,0.2]、
出力ベクトルY702=[y12,y22,y32,y42,y52]=[−0.01,−0.15,0.15,0.55,0.3]、
出力ベクトルY703=[y13,y23,y33,y43,y53]=[0.03,−0.2,0.1,0.35,0.25]
を用いて、正解ラベル=「敗血症」に対応する関連度ベクトルR1=[(y11+y12+y13)/3,(y21+y22+y23)/3,(y31+y32+y33)/3,(y41+y42+y43)/3,(y51+y52+y53)/3]=[0.01,−0.22,0.12,0.43,0.25]を算出する。
一方、図11Bには、複数枚すなわち例えば3枚の非敗血症画像が入力データXとして、図9に示される転移先ニューラルネットワーク102に入力されたときの、3つの出力ベクトルYから関連度ベクトルRを算出する場合の例が示されている。より具体的には、図11Bに示す関連度ベクトルRは、3つの出力ベクトルY704〜706の値すなわち図9に示す5つの出力ユニットのそれぞれの出力値y1、y2、y3、y4、及びy5の値の平均値として算出される。つまり、関連度ベクトル生成部101は、
出力ベクトルY704=[y14,y24,y34,y44,y54]=[0.22,−0.1,0.14,0.2,0.25]、
出力ベクトルY705=[y15,y25,y35,y45,y55]=[−0.03,−0.1,0.1,0.3,0.35]、
出力ベクトルY706=[y16,y26,y36,y46,y56]=[0.1,−0.14,0.12,0.5,0.4]
を用いて、正解ラベル=「非敗血症」に対応する関連度ベクトルR2=[(y14+y15+y16)/3,(y24+y25+y26)/3,(y34+y35+y36)/3,(y44+y45+y46)/3,(y54+y55+y56)/3]=[0.03,−0.11,0.12,0.33,0.33]を算出する。
そして、上述したように、本実施の形態では、上記の関連度ベクトルRを計算することが、転移先学習用データに適応するための転移学習となる。
(識別処理)
図12は、実施の形態1に係る識別装置20において実行される識別処理S3の一例を示すフローチャートである。
より詳細には、まず、データ演算部103は、データ入力部40より転移先学習用データ保持部30内に保持されているベクトルx’jとは異なるベクトルxを取得する(S31)。ここで、ベクトルxは、例えばテストデータに該当し、ベクトルx’jと同種、かつ、正解ラベルが付されていないデータである。ここで、同種とは、識別対象が同カテゴリであること、識別対象の種別が同一、または、識別対象の種別が類似することを意味してもよい。
次いで、データ演算部103は荷重保持部105に保持されている荷重の値と構成情報保持部104に保持されている隠れ層の数及び各隠れ層のニューロン数から転移元ニューラルネットワークの構造を復元した転移先ニューラルネットワークに、ベクトルxを入力し、各ユニットの荷重和を算出し、最終的な算出結果Yを出力ユニット比較部220に出力する(S32)。
次いで、出力ユニット比較部220は、データ演算部103が出力した算出結果と、転移学習装置10の関連度ベクトル生成部101が出力したM’個の関連度ベクトルRj(j=1、2、…、M’)を比較し、(Rj−Y)×(Rj−Y)の値が最も小さいRjに対応する正解ラベルの値をベクトルxのラベルとしてユーザに提示する(S33)。
例えば、識別装置20において、ある2次元電気泳動像を識別(分類)したときの出力ベクトルYが、[0.03、−0.2、0.1、0.35、0.25]であったとする。この場合、識別装置20は、「敗血症」及び「非敗血症」に関する関連度ベクトル[0.01、−0.22、0.12、0.43、0.25]及び[0.03,−0.11,0.12,0.33,0.33]のうちで最も距離が近い関連度ベクトル[0.01、−0.22、0.12、0.43、0.25]に対応する正解ラベルである「敗血症」を出力する。
ここで、図9、図11A、図11Bの例を用いて説明する。データ演算部103は、転移先学習用データ保持部30内に保持されているテストデータであるベクトルxを取得する。データ演算部103が、テストデータであるベクトルxを用いて算出し、出力ユニット比較部220に出力した出力ベクトルY(算出結果)が[y10、y20、y30、y40、y50]=[0,−0.23,0.11,0.42,0.24]であったとする。
出力ユニット比較部220は、正解ラベル=「敗血症」に対応する関連度ベクトルR1=[r11,r21,r31,r41,r51]=[0.01,−0.22,0.12,0.43,0.25]と出力ベクトルY= [y10, y20,y30,y40,y50] = [0,−0.23,0.11,0.42,0.24]の距離の2乗の値を算出する。つまり、出力ユニット比較部220は(y10−r11)+(y20−r21)+(y30−r31)+(y40−r41)+(y50−r51)=(0−0.01)+(−0.23−(−0.22))+(0.11−0.12)+(0.42−0.43)+(0.24−0.25)=0.005を算出する。
出力ユニット比較部220は、正解ラベル=「非敗血症」に対応する関連度ベクトルR2=[r12,r22,r32,r42,r52]=[0.03, −0.11,0.12,0.33,0.33] と出力ベクトルY= [y10, y20,y30,y40,y50] = [0,−0.23,0.11,0.42,0.24]の距離の2乗の値を算出する。つまり、出力ユニット比較部220は(y10−r12)+(y20−r22)+(y30−r32)+(y40−r42)+(y50−r52)=(0−0.03)+(−0.23−(−0.11))+(0.11−0.12)+(0.42−0.33)+(0.24−0.33)=0.0316を算出する。
出力ユニット比較部220は正解ラベル=「敗血症」に対応する関連度ベクトルR1と出力ベクトルYの距離の2乗の値=0.005と、正解ラベル=「非敗血症」に対応する関連度ベクトルR2と出力ベクトルYの距離の2乗の値=0.0316を比較して、より小さい距離の2乗の値である0.005に対応する正解ラベルである「敗血症」を出力する。
出力ユニット比較部220は距離の2乗の値を求めて、距離の2乗の値を比較したが、これに変えて、出力ユニット比較部220は距離を求めて、距離を比較してもよい。すなわち、出力ユニット比較部220は正解ラベル=「敗血症」に対応する関連度ベクトルR1と出力ベクトルYの距離=(0.005)1/2と、正解ラベル=「非敗血症」に対応する関連度ベクトルR2と出力ベクトルYの距離=(0.0316)1/2を比較して、より小さい距離である(0.005)1/2に対応する正解ラベルである「敗血症」を出力してもよい。
[実施の形態1の効果等]
以上のように、実施の形態1に係る学習装置及び学習認識システムによれば、転移元学習用データでの学習によって生成された転移元ニューラルネットワークの構成情報及び荷重値をそのまま転移先ニューラルネットワークとして使用する。そして、転移先ニューラルネットワークに転移先学習用データそれぞれを入力したときの出力ベクトルを、当該転移先学習用データそれぞれの正解ラベルと1対1対応させることができる関連度ベクトルを計算する。このようにして、転移元ニューラルネットワークの構成情報及び荷重値をそのまま使用した転移先ニューラルネットワークに、転移先学習用データに適応させるための転移学習を行うことができる学習装置及び学習認識システムを実現することができる。
また、実施の形態1に係る認識装置によれば、転移先学習用データと同種だが正解ラベルが付されていない新規データを識別するときには、新規データそれぞれを入力したときの出力ベクトルと各関連度ベクトルとを比較する。そして、当該出力ベクトルに最も近い関連度ベクトルと対応する転移先学習用データの正解ラベルの値を当該出力ベクトルのラベルとして出力する。
これにより、転移学習の際に、転移先学習用データを利用して転移元ニューラルネットワークの構成情報及び荷重値を変更する手間や、構成情報や荷重値の変更によって生じ得る過学習や認識精度の低下といった悪影響がない学習装置、認識装置及び学習認識システムを得ることができる。
なお、転移元ニューラルネットワーク学習装置2、及び転移学習装置10に入力されるデータに、正規化、閾値処理、ノイズ除去、及びデータサイズの統一などを含むデータ整形処理を行ってもよい。正規化は、入力データに限らず、正解ベクトルに対して行ってもよい。データ整形処理は、転移元ニューラルネットワーク学習装置2、及び転移学習装置10のいずれかが行ってもよい。データ整形処理を行うことによって、転移元学習用データから転移先学習用データへの整合性の高い転移学習が可能になる。
(実施の形態2)
実施の形態1では、転移元学習用データで学習済みの転移元ニューラルネットワークの構成情報及び荷重Wをそのまま使用した転移先ニューラルネットワークの転移学習と識別処理について説明したが、それに限らない。そのまま使用した転移先ニューラルネットワークにおいて、さらに荷重Wを更新させてもよい。以下、この場合について実施の形態2として説明する。なお、以下では、実施の形態1と異なるところを中心に説明する。
[転移学習装置10Bの構成]
図13は、実施の形態2に係る転移学習装置10Bの機能的な構成の一例を示すブロック図である。図5と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図13に示される転移学習装置10Bは、実施の形態1に係る転移学習装置10に対して、荷重調整部106が追加され、転移先ニューラルネットワーク102Bが変化する点が異なる。
荷重調整部106は、第1関連度ベクトル及び第2関連度ベクトルを用いて、転移先ニューラルネットワーク102Bの荷重情報を更新する。より具体的には、荷重調整部106は、複数の第1データに対する出力である複数の第1出力ベクトルが、第1関連度ベクトルを正解とし、複数の第2データに対する出力である複数の第2出力ベクトルが、第2関連度ベクトルを正解とする学習を行うことによって、荷重情報を更新する。
本実施の形態では、転移学習装置10Bは、荷重保持部105Bに保持されている荷重値を、転移元学習用データで学習済みの転移元ニューラルネットワークの荷重値を初期値として、関連度ベクトル生成部101で生成された関連度ベクトルを正解(教師)として、教師付き学習によって更新する。例えば、転移学習装置10Bは、転移先学習用データの正解ベクトルZを対応する関連度ベクトルRとする。そして、転移学習装置10Bは、荷重Wを、複数の入力データXの各々が入力されたときに、当該入力データXに対応する正解ベクトルZの各値と近しい値(対応する関連度ベクトルRの値)が各出力ユニットの出力値から出力されるように、学習により調整する。
このように、実施の形態2に係る学習識別システムは、実施の形態1で説明した関連度ベクトルの算出に加え、転移先ニューラルネットワークの荷重値を更新する機能を有する。そして、転移先ニューラルネットワークの荷重値は、複数の転移元学習用データで学習済みの転移元ニューラルネットワークの荷重値を初期値として、転移先学習用データを用いた教師付き学習によって更新される。
[転移学習装置10Bの動作]
次に、以上のように構成された転移学習装置10Bの動作について説明する。
図14は、実施の形態2に係る転移学習装置10Bにおいて実行される転移学習の一例を示すフローチャートである。図8と同様の要素には同一の符号を付しており、詳細な説明は省略する。
まず、転移学習装置10Bにおいて、ステップS21〜S23で、関連度ベクトルが算出される。なお、ステップS21〜S23は上述した通りであるので、説明を省略する。
次に、荷重調整部106は、転移先ニューラルネットワークにおける荷重値を関連度ベクトルを正解とする教師付き学習によって更新する(S24)。
より具体的には、荷重調整部106は、まず、正解ラベル付き学習用データである複数の転移先学習用データを、転移先学習用データ保持部30から取得する。次いで、荷重調整部106は、転移先ニューラルネットワーク102Bにおける荷重値を複数の転移元学習用データで学習済みの転移元ニューラルネットワークの荷重値を初期値として、転移先学習用データそれぞれに対応する関連度ベクトルを正解ベクトルとした教師付き学習によって更新する。
換言すると、荷重調整部106は、転移先ニューラルネットワーク102Bの荷重Wを、正解ラベル毎に割り振られている正解ベクトルZと出力ベクトルYとの値が近くなるように、更新する。例えば、荷重調整部106は、「敗血症」の転移先学習用データの出力ベクトルY1と「敗血症」の正解ベクトルZ1との誤差L1=(Y1−Z1)×(Y1−Z1)の値が小さくなるように、転移先ニューラルネットワーク102Bの荷重Wを更新する。また、例えば、荷重調整部106は、「非敗血症」の転移先学習用データの出力ベクトルZ2と「非敗血症」の正解ベクトルE2との誤差L2=(Y2−Z2)×(Y2−Z2)の値が小さくなるように、転移先ニューラルネットワーク102Bの荷重Wを更新する。
なお、上述したように、転移先ニューラルネットワーク102Bに教師付き学習を行う場合、例えば、入力データX、荷重W及び正解ラベルを用いて、正解ベクトルZと出力データYとの誤差を表す損失関数(L1やL2)を定義し(例えばL=|Y−Z|、||は絶対値を表す)、勾配降下法やバックプロパゲーションにより当該損失関数を減少させる勾配に沿って荷重Wを更新してもよい。
また、実施の形態1で説明したのと同様に、転移元ニューラルネットワーク学習装置2、及び転移学習装置10Bに入力される入力データに、正規化、閾値処理、ノイズ除去、及びデータサイズの統一などを含むデータ整形処理を行ってもよい。正規化は、入力データに限らず、正解ベクトルに対して行ってもよい。データ整形処理は、転移元ニューラルネットワーク学習装置2、及び転移学習装置10のいずれが行ってもよい。
[実施の形態2の効果等]
以上のように、実施の形態2に係る学習装置及び学習認識システムによれば、転移先学習用データを用いた教師付き学習によって、転移先ニューラルネットワークの荷重値を、転移元学習用データで学習済みの転移元ニューラルネットワークの荷重値を初期値として更新する。これにより、学習済みの転移元ニューラルネットワークの荷重値をそのまま用いず、かつ、少量の転移先学習用データで学習する場合に起こり得る過学習を抑制することができる。
なお、荷重調整部106は、転移先ニューラルネットワーク102Bが有する全てのユニットの荷重値を更新の対象として、転移先学習用データでの学習を行ってもよい。これにより、例えば、転移先ニューラルネットワーク102Bが多層ニューラルネットワークである場合、上位層に位置するユニットの荷重値を更新し、他の層に位置するユニットの荷重値を更新しないなど、転移先ニューラルネットワーク102Bにおける荷重値を一部のユニットについて更新し、他のユニット荷重値を更新しないするときに起こり得る認識精度の低下を抑制することができる。
(実施の形態3)
実施の形態1では、転移先学習用データに対応する出力ベクトルを用いて、転移先学習用データの正解ラベルに1対1対応する関連度ベクトルを生成することについて説明した。しかし、生成した関連度ベクトル同士の値が近い(距離が近い)場合には、認識精度が落ちてしまう場合がある。そこで、関連度ベクトルの値を調整し、関連度ベクトル間の差分が大きくなるようにしてもよい。以下、この場合について実施の形態3として説明する。なお、以下では、実施の形態1と異なるところを中心に説明する。
[転移学習装置10Cの構成]
図15は、実施の形態3に係る転移学習装置10Cの機能的な構成の一例を示すブロック図である。図5と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図15に示される転移学習装置10Cは、実施の形態1に係る転移学習装置10に対して、関連度ベクトル調整部107が追加される点で構成が異なる。
関連度ベクトル調整部107は、第1関連度ベクトルの値が、複数の第1出力ベクトルから計算される第1標準偏差の定数倍の範囲内であり、第2関連度ベクトルの値が複数の第2出力ベクトルから計算される第2標準偏差の定数倍の範囲内であり、かつ、第1関連度ベクトル及び第2関連度ベクトルの間の差分値が大きくなるように、第1関連度ベクトルの値及び第2関連度ベクトルの値を調整する。つまり、関連度ベクトル調整部107は、関連度ベクトル生成部101が生成した関連度ベクトルを、所定の範囲で関連度ベクトル間の差分が大きくなるように調整する。
[転移学習装置10Cの動作]
次に、以上のように構成された転移学習装置10Cの動作について説明する。
図16は、実施の形態3に係る転移学習装置10Cの動作の一例を示すフローチャートである。図8と同様の要素には同一の符号を付しており、詳細な説明は省略する。
まず、転移学習装置10Cにおいて、ステップS21〜S23Cで、関連度ベクトルが生成される。なお、ステップS23Cと、図8で説明したステップS23と異なる点は、次の通りである。すなわち、ステップS23では、生成した関連度ベクトルRjを識別装置20に出力する。一方、ステップS23Cでは、生成した関連度ベクトルRjを識別装置20に出力しない。
次に、関連度ベクトル調整部107は、生成した関連度ベクトルの各値に対して乱数△を生成する(S251)。ここで、乱数△は、転移先学習用データの正解ラベル毎に出力ベクトルYの共分散行列を計算し、計算した共分散行列に基づいてBox-Muller法などの周知のアルゴリズムに基づいて生成することができる。
次に、関連度ベクトル調整部107は、関連度ベクトルの各値に生成した乱数△を加算し(S251)、新たな関連度ベクトルR’=[r1+△1、r2+△2、・・・]を生成する。
次に、関連度ベクトル調整部107は、新たな関連度ベクトル間の差分値が閾値T以上かを判定する(S253)。ここで、差分値は、新たな関連度ベクトル間のユークリッド距離もしくはマハラノビス距離によって判定することができる。
新たな関連度ベクトル間の差分値が閾値T以上の場合(S253でYES)、ステップS254に進む。なお、新たな関連度ベクトル間の差分値が閾値T未満の場合(S253でNO)、ステップS251に戻る。
次に、ステップS254において、関連度ベクトル調整部107は、新たな関連度ベクトルそれぞれが、対応する正解ラベルが付された転移先学習用データによって求められる出力ベクトルYの標準偏差のN倍以内に収まっているかを判定する。
ステップS254において、新たな関連度ベクトルそれぞれが、対応する出力ベクトルYのN倍以内に収まっている場合(S254でYES)、ステップS255に進む。なお、新たな関連度ベクトルそれぞれが、対応する出力ベクトルYのN倍より大きい場合(S254でNO)、ステップS251に戻る。
そして、ステップS255において、関連度ベクトル調整部107は、S23Cで生成した関連度ベクトルに代えて、新たな関連度ベクトルを識別装置20に出力する。
なお、ステップS254は、新たな関連度ベクトルが、その関連度ベクトルに対応する正解ラベルの出力ベクトルYから算出し得ないほどの乱数を加算したものでないことを判定する処理である。Nは一般的に3もしくは5に設定する。これは、対応する正解ラベルを持つほぼ全ての転移先学習用データを包含するという意味であり、その範囲外のベクトルは、対応する正解ラベルを持つ転移先学習用データでは算出できないことを示す。
ここで、図9で説明した複数の2次元電気泳動像の画像を転移先学習用データとする場合を例に挙げて、実施例として説明する。
(実施例)
例えば、「敗血症」の関連度ベクトルR1がR1=[0.21、0.03、−0.54、1.08、―0.04,0.08,0.03,0.13,0.13,0.01]であるとする。また、ステップS251で生成した乱数を△1=0.02、△2=0.1、△3=―0.01、△4=―0.05、△5=0.01、△6=0.04、△7=0.02、△8=0.02、及び△9=0.02であるとする。この場合、ステップS252において、関連度ベクトル調整部107は、関連度ベクトルR1の各値に生成した上記の乱数を加算して、新たな関連度ベクトルR1’=[0.23、0.13、−0.55、1.03、−0.03、0.12、0.05、0.15、0.03]を生成する。
また、例えば、「非敗血症」の関連度ベクトルR2がR2=[0.l6、0.03、0.0、0.27、0.07、0.04、0.14、0.15、0.13]であるとする。また、ステップS251で生成した乱数が△1=0.0、△2=0.01、△3=0.01、△4=0.05、△5=―0.03、△6=0.06、△7=−0.04、△8=−0.01、及び△9=−0.10であるとする。この場合、ステップS252において、関連度ベクトル調整部107は、関連度ベクトルR2の各値に生成した上記の乱数を加算して、新たな関連度ベクトルR2’=[0.16、0.04、0.01、0.32、0.04、0.1、0.1、0.14、0.03]を生成する。
次に、ステップS253において、関連度ベクトル調整部107は、新たな関連度ベクトルR1‘と新たな関連度ベクトルR2との間の差分値としてユークリッド距離dを計算すると、ユークリッド距離d=0.91となる。ここで、閾値Tを乱数加算前のユークリッド距離とすると、閾値T=1.01となるので、関連度ベクトル調整部107は、上記の乱数加算後の新たな関連度ベクトルR1‘及び新たな関連度ベクトルR2‘を棄却して、ステップS251に戻って処理をやり直す。
次に、関連度ベクトル調整部107は、ステップS251に戻って、「敗血症」の乱数を例えば△1=−0.01、△2=−0.03、△3=0.03、△4=0.07、△5=−0.05、△6=0.01、△7=0.04、△8=0.02、及び△9=0.02として生成する。この場合、ステップS252において、関連度ベクトル調整部107は、関連度ベクトルR1の各値に生成した上記の乱数を加算して、新たな関連度ベクトルR1‘=[0.20、0.0、−0.51、1.15、−0.09、0.10、−0.07、0.03、0.0]を生成する。
一方、関連度ベクトル調整部107は、ステップS251において、「非敗血症」の乱数を例えば△1=0.02、△2=0.01、△3=―0.07、△4=―0.13、△5=0.02、△6=−0.02、△7=0.15、△8=0.2、及び△9=0.1として生成する。この場合、ステップS252において、関連度ベクトル調整部107は、関連度ベクトルR2の各値に生成した上記の乱数を加算して、新たな関連度ベクトルR2‘=[0.18、0.04、-0.07、0.14、0.09、0.02、0.15、0
.20、0.10]を生成する。
次に、ステップS253において、関連度ベクトル調整部107は、新たな関連度ベクトルR1’と新たな関連度ベクトルR2との間の差分値としてユークリッド距離dを計算すると、ユークリッド距離d=1.21となる。このユークリッド距離d=1.21は、上述した閾値T以上となるので、関連度ベクトル調整部107は、ステップS254に進む。そして、関連度ベクトル調整部107は、ステップS254において、新たな関連度ベクトルR1‘=[0.20、0.0、−0.51、1.15、−0.09、0.10、−0.07、0.03、0.0]、及び新たな関連度ベクトルR2’=[0.18、0.04、-0.07、0.14、0.09、0.02、0.15、0.20、0.10]
が、それぞれの出力ベクトルから計算される標準偏差の5倍以内に収まっているかどうかを判定し、収まっていれば、新たな関連度ベクトルR1‘及びR2’を識別装置20に出力する。
[実施の形態3の効果等]
以上のように、実施の形態3に係る学習装置及び学習認識システムによれば、関連度ベクトル生成部101で生成した各関連度ベクトルの値を乱数に基づいて調整することができる。関連度ベクトル生成部101で生成した各関連度ベクトルの値が近い場合、認識精度が低下しうるが、本実施の形態のように生成した各関連度ベクトルの値を乱数に基づいて調整することで、認識精度の低下を抑制することができる。
なお、実施の形態1及び実施の形態2で説明したように、転移元ニューラルネットワーク学習装置2及び転移学習装置10Cに入力される入力データに、正規化、閾値処理、ノイズ除去、及びデータサイズの統一などを含むデータ整形処理を行ってもよい。正規化は、入力データに限らず、正解ベクトルに対して行ってもよい。データ整形処理は、転移元ニューラルネットワーク学習装置2及び転移学習装置10Cのいずれが行ってもよい。
また、実施の形態3に係る学習装置及び学習認識システムは、さらに、実施の形態2で説明した荷重調整部を有してもよい。このような構成によれば、関連度ベクトルを正解ベクトルとして、転移先学習用データを用いて教師付き学習を行うことにより、転移先ニューラルネットワークにおける荷重値を、学習済みの転移元ニューラルネットワークの荷重値を初期値として更新することができる。これにより、学習済みの転移元ニューラルネットワークの荷重値をそのまま用いず学習により最適化されるので、かつ少量の転移先学習用データで学習する場合に起こり得る過学習を抑制することができる。
また、関連度ベクトル調整部が生成した関連度ベクトルに基づいて、荷重値を更新した後、更新した荷重値に基づいて、関連度ベクトル生成部が関連度ベクトルを生成しても良い。関連度ベクトル調整部が生成した関連度ベクトルに基づいて、さらに荷重値を 更新
する。これにより、少しずつ荷重値が変更されていくため、無理なく関連度ベクトルを引き離していくことができる。
また、転移先ニューラルネットワークに教師付き学習を行う場合、例えば、入力データX、荷重W及び正解ラベルを用いて、正解ベクトルZと出力データYとの誤差を表す損失関数(L1やL2)を定義し(例えばL=|Y−Z|、||は絶対値を表す)、勾配降下法やバックプロパゲーションにより当該損失関数を減少させる勾配に沿って荷重Wを更新してもよい。また、データ演算部103にて荷重保持部105に保持されている荷重値にも乱数を加えてもよい。図22に動作の一例を示すフローチャートを示す。ステップS22Aにてデータ演算部103にて荷重保持部105に保持されている荷重値に乱数を加え、ステップS22Bにて複数のベクトルと各ユニットの荷重和を算出し、最終的な算出結果を関連度ベクトル生成部に出力する。そして、ステップS256にてk<Kか否かを判定し、計算した場合(ステップS256でYES)、ステップS257にて関連度ベクトルの差分値が最大となる乱数付き荷重値を選択し、荷重保持部105へ出力しつつ、関連度ベクトルを識別装置に出力する。計算が終了していない場合(ステップS256でNO)はk=k+1としてステップS22Aに戻る。これにより、関連度ベクトル間の距離がより離れた転移学習装置を実施できる。
(実施の形態4)
実施の形態4では、学習識別システム1Dが、転移先学習用データに基づき、転移元ニューラルネットワーク学習装置に学習させる転移元学習用データを選択できる場合について説明する。以下では、実施の形態1と異なるところを中心に説明する。
[学習識別システム1Dの構成]
図17は、実施の形態4に係る学習識別システム1Dの機能的な構成の一例を示すブロック図である。図3及び図7と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図17に示す学習識別システム1Dは、転移元ニューラルネットワーク学習装置2Dと、転移学習装置10と、識別装置20A、転移元学習用データセット保持部22Dと、転移先学習用データ保持部30、系統樹保持部31と、データ入力部40とを備える。
図17に示される学習識別システム1Dは、実施の形態1に係る図7に示される学習識別システム1Aに対して、系統樹保持部31が追加されており、転移元ニューラルネットワーク学習装置2D及び転移元学習用データセット保持部22Dの構成が異なる。
[転移元学習用データセット保持部22Dの構成]
転移元学習用データセット保持部22Dは、例えばメモリからなり、正解ラベル付き学習用データである転移元学習用データを複数セット(以下、複数の転移元学習用データセットと記載)を保持する。ここで、転移元学習用データセットは、例えば、数字画像セットや一般画像セット、2次元電気泳動像セットやCT画像セットである。
[系統樹保持部31の構成]
系統樹保持部31は、例えばメモリからなり、正解ラベルそれぞれの類似度を計算するための距離情報を保持する。本実施の形態では、系統樹保持部31は、複数の転移元学習用データセット及び転移先学習用データに関連する系統樹を保持している。ここで、系統樹とは、対象物体の類縁関係を樹枝状の線でグラフ化したものである。以下では、説明を簡単のために、一般的な生物に関する系統樹を基に説明するが、系統樹はこれに限定されるものではない。例えば、「敗血症」か否かを判定するために、病気に応じて変化するたんぱく質に基づいて作成された系統樹を利用して、2次元電気泳動像を用いた「敗血症」及び「非敗血症」の識別を実施することも可能である。
図18は、実施の形態4における系統樹保持部31が保持する系統樹801の一例を示す図である。なお、図18には、「ヒト」に関する系統樹が示されている。
例えば、図18に示される系統樹801から、「ヒト」に最も近い動物が「チンパンジー」であることがわかる。このようにして、正解ラベルそれぞれの類似度の計算を正解ラベル間の系統樹801上の距離から行うことができる。
[転移元ニューラルネットワーク学習装置2Dの構成]
転移元ニューラルネットワーク学習装置2Dは、図17に示されるように、転移元ニューラルネットワーク生成部21Dと、転移元学習用データセット選択部23とを備える。
転移元学習用データセット選択部23は、複数の転移元学習用データセットそれぞれに付与されたすべての正解ラベルと、転移先学習用データに付与されたすべての正解ラベルとの類似度を、系統樹保持部31に保持されている、正解ラベルそれぞれの類似度を計算するための距離情報を用いて計算する。転移元学習用データセット選択部23は、計算した距離情報に基づき、複数の転移元学習用データセットのうち、転移先学習用データに付与されたすべての正解ラベルに最も近い正解ラベルが付与された転移元学習用データセットを選択する。つまり、転移元学習用データセット選択部23は、複数の転移元学習用データセットの中から最も適した転移元学習用データセットを選択する。
そして、転移元学習用データセット選択部23は、選択した転移元学習用データセットを転移元ニューラルネットワーク生成部21に出力する。
本実施の形態では、転移元学習用データセット選択部23は、その複数の転移元学習用データセットの中から、系統樹保持部31が保持する系統樹上の距離に基づいて、学習に利用する転移元学習用データセットを選択する。
転移元ニューラルネットワーク生成部21Dは、ユーザにより、隠れ層の数、各隠れ層のニューロン数などニューラルネットワークを構成する構成情報が入力される。また、転移元ニューラルネットワーク生成部21Dは、転移元学習用データセット選択部23より出力された、転移元学習用データのセットを用いて、入力された構成情報から決定される構造からなるニューラルネットワークの学習を行い、転移元ニューラルネットワークを生成する。
なお、転移元ニューラルネットワーク学習装置2Dの各構成は、例えば、画像プロセッサやマイクロプロセッサが所定のプログラムを実行することにより発揮されるソフトウェア機能として実現されてもよい。また、転移元ニューラルネットワーク学習装置2Dが、転移元学習用データセット保持部22Dを備えるとしてもよい。
[学習識別システム1Dの動作]
次に、以上のように構成された学習識別システム1Dの動作について説明する。
図19は、実施の形態4に係る学習識別システム1Dにおいて実行される動作の一部の一例を示すフローチャートである。図19では、転移元ニューラルネットワーク学習装置2Dで実行される転移元学習用データセットの選択処理(S40)について示されている。なお、転移元ニューラルネットワーク学習装置2Dが行う転移元学習と、転移学習装置10が行う転移先学習とは、図8で説明したステップS1とステップS2と同様であるため、ここでの説明は省略する。また、ステップS40で実行される転移元学習用データセットの選択処理は、図8で説明したステップS1のステップS11及びステップS12の間に行われる。
図19に示されるように、転移元ニューラルネットワーク学習装置2Dは、転移元学習用データセットの選択処理を行う(S40)。
より詳細には、まず、転移元学習用データセット選択部23は、転移元学習用データセット保持部22Dより、複数の転移元学習用データセットのうち一の転移元学習用データセットを選択する(S401)。
次に、転移元学習用データセット選択部23は、系統樹保持部31に保持されている系統樹から、選択した一の転移元学習用データセット内の全ての正解ラベルと、転移先学習用データの全ての正解ラベルとの距離を計算する(S402)。
次に、転移元学習用データセット選択部23は、計算した距離の中で最も小さい距離を転移可能距離として選択する(S403)。
次に、転移元学習用データセット選択部23は、全ての転移先学習用データセットに対して転移可能距離の選択を実行したか否かを判定する(S404)。全ての転移先学習用データセットに対して転移可能距離の選択が完了していない場合(S404でNO)、ステップS401に戻って処理を繰り返す。
一方、全ての転移先学習用データセットに対して転移可能距離の選択が完了した場合(S404でYES)、転移元学習用データセット選択部23は、選択した転移可能距離のうち最小の転移可能距離を持つ転移元学習用データセットを選択する(S405)。
そして、転移元ニューラルネットワーク生成部21Dは、転移元学習用データセット保持部22Dに保持され、かつ、転移元学習用データセット選択部23により選択された転移先学習用データセットを用いて、転移元ニューラルネットワークを生成する(S406)。
(実施例)
本実施例では、系統樹保持部31が図18に示す系統樹801を保持しており、転移元学習用データセット選択部23が系統樹801に基づき算出した距離情報から、複数の転移元学習用データセットの中から転移元学習用データを選択する場合について説明する。
転移元学習用データセット選択部23は、転移先学習用データの全ての正解ラベルと、全ての転移元学習用データセット内の正解ラベルとの距離を計算し、その中で最も小さい距離を有する転移元学習用データセットを選択する。ここで、当該距離は、系統樹801上の節802の数から計算することができる。
例えば、転移先学習用データの正解ラベルに「ヒト」と「カエル」が含まれているとする。また、転移元学習用データセットA内の正解ラベルとして、「チンパンジー」、「ゴリラ」、「オランウータン」、「テナガザル」が含まれているとする。
この場合、転移元学習用データセット選択部23は、「ヒト」と「チンパンジー」との系統樹801上での距離を1(分類に利用する節が1個)、「ヒト」と「ゴリラ」との系統樹801上での距離を2(分類に利用する節が2個)と計算する。同様に、転移元学習用データセット選択部23は、「ヒト」と「オランウータン」との系統樹801上での距離を3(分類に利用する節が3個)、「ヒト」と「テナガザル」との系統樹801上での距離を4(分類に利用する節が4個)と計算する。
また、転移元学習用データセット選択部23は、「カエル」と「チンパンジー」との系統樹801上での距離を7(分類に利用する節が7個)、「カエル」と「ゴリラ」との系統樹801上での距離を6(分類に利用する節が6個)と計算する。同様に、転移元学習用データセット選択部23は、「カエル」と「オランウータン」との系統樹801上での距離を5(分類に利用する節が5個)、「カエル」と「テナガザル」との系統樹801上での距離を4(分類に利用する節が4個)と計算する。
したがって、転移元学習用データセット選択部23は、この転移元学習用データセットAにおける転移可能距離として「ヒト」と「チンパンジー」との距離である「1」を選択する。
一方、別の転移元学習用データセットB内の正解ラベルとして、「ネコ」、「ゴリラ」、「タカ」、「トカゲ」が含まれているとする。この場合、転移元学習用データセット選択部23は、転移元学習用データセットにおける転移可能距離はとして、「ヒト」と「ゴリラ」、及び「カエル」と「ネコ」のの距離である「2」を選択する。
以上から、転移元学習用データセット選択部23は、選択した転移可能距離のうち、最小の転移可能距離である「1」の転移元学習用データセットAを選択する。
なお、上記の例の場合、転移元学習用データセットAでは「カエル」との最小の距離「4」であり、「ヒト」との最小の距離「1」と比べて遠かった。一方、転移元学習用データセットBでは「カエル」も「ヒト」も最小距離は「2」であった。本実施の形態では、転移元学習用データセット選択部23は、転移先学習用データの各正解ラベルとの最小距離の平均値ではなく、最小距離の最小値を転移可能距離とする。これは、転移学習においては、系統樹上で一部でも非常に近い転移元学習用データが存在する場合の方が認識精度の向上が期待できるためである。例えば、「ヒト」の正解ラベルを持つ転移先学習用データを正確に識別するように学習できれば、識別装置20において、それ以外の例えば「カエル」の正解ラベルを持つ転移先学習用データも高精度に識別できるからである。
[実施の形態4の効果等]
以上のように、実施の形態4に係る学習装置及び学習認識システムによれば、転移先学習用データと系統樹上の距離が最も近しい転移元学習用データを含む転移元学習用データセットを用いて転移元ニューラルネットワークを生成することができる。つまり、転移先学習用データにより類似する転移元学習用データを含む転移元学習用データセットを用いて転移元ニューラルネットワークを生成する。これにより、転移学習に最適な転移元学習用データセットを選択することができるので、認識精度の向上が期待できる。
なお、実施の形態1及び実施の形態2で説明したように、転移元ニューラルネットワーク学習装置2D及び転移学習装置10に入力される入力データに、正規化、閾値処理、ノイズ除去、及びデータサイズの統一などを含むデータ整形処理を行ってもよい。正規化は、入力データに限らず、正解ベクトルに対して行ってもよい。データ整形処理は、転移元ニューラルネットワーク学習装置2及び転移学習装置10Cのいずれが行ってもよい。
また、実施の形態4に係る学習装置及び学習認識システムは、さらに、実施の形態2で説明した荷重調整部と、実施の形態3で説明した関連度ベクトル調整部とを有してもよい。この場合、例えば、転移元学習用データセットの選択を行った後に、関連度ベクトルを生成し、荷重調整を行えばよい。
このような構成によれば、関連度ベクトルを正解ベクトルとして、転移先学習用データを用いて教師付き学習を行うことにより、転移先ニューラルネットワークにおける荷重値を、学習済みの転移元ニューラルネットワークの荷重値を初期値として更新することができる。これにより、学習済みの転移元ニューラルネットワークの荷重値をそのまま用いず最適化できるので、少量の転移先学習用データで学習する場合に起こり得る過学習を抑制することができる。
また、転移先ニューラルネットワークに教師付き学習を行う場合、例えば、入力データX、荷重W及び正解ラベルを用いて、正解ベクトルZと出力データYとの誤差を表す損失関数(L1やL2)を定義し(例えばL=|Y−Z|、||は絶対値を表す)、勾配降下法やバックプロパゲーションにより当該損失関数を減少させる勾配に沿って荷重Wを更新してもよい。
以上、本開示の実施の形態に係る学習装置、認識装置及び学習認識システムについて説明したが、本開示はこれら実施の形態に限定されるものではない。
例えば、本開示の学習装置、認識装置及び学習認識システムは、コンピュータを利用して実現してもよい。
図20は、本開示の学習装置、認識装置及び学習認識システムを実現するためのハードウェア構成を示すブロック図である。
本開示の学習装置、認識装置及び学習認識システムは、コンピュータ1000とコンピュータ1000に指示を与えるためのキーボード1011及びマウス1012と、コンピュータ1000の演算結果等の情報を提示するためのディスプレイ1010と、コンピュータ1000で実行されるプログラムを読み取るためのODD(Optical Disk Drive)1008とを含む。
本開示の学習装置、認識装置及び学習認識システムが実行するプログラムは、コンピュータで読み取り可能な光記憶媒体1009に記憶され、ODD1008で読み取られる。または、コンピュータネットワークを通じてNIC1006で読み取られる。
コンピュータ1000は、CPU(Central Processing Unit)1001と、ROM(Read Only Memory)1004と、RAM(Random Access Memory)1003と、HDD(Hard Disk Drive)2005と、NIC(Network Interface Controller)1006と、バス1007とを含む。
さらに、コンピュータ1000は、高速演算を行うためのGPU(Graphical
Processing Unit)1002を含んでもよい。
CPU1001とGPU1002は、ODD1008またはNIC1006を介して読み取られたプログラムを実行する。ROM1004は、コンピュータ1000の動作に必要なプログラムやデータを記憶する。RAM1003は、プログラム実行時のパラメータなどのデータを記憶する。HDD1005は、プログラムやデータなどを記憶する。NIC1006は、コンピュータネットワークを介して他のコンピュータとの通信を行う。バス1007は、CPU1001、ROM1004、RAM1003、HDD1005、NIC1006、ディスプレイ1010、キーボード1011、マウス1012及びODD1008を相互に接続する。なお、コンピュータ1000に接続されているキーボード1111、マウス1012、及びODD1008は、例えばディスプレイ1010がタッチパネルになっている場合やNIC1006を利用する場合には、取り外してもよい。
さらに、上記の各装置を構成するデータ識別装置300の構成要素の一部または全ては、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に蓄積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
さらにまた、上記の各装置を構成する構成要素の一部または全ては、各装置に着脱可能なICカードまたは単体モジュールから構成されているとしてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
また、本開示は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムを含んでもよいし、前記コンピュータプログラムからなるデジタル信号を含んでもよい。
さらに、本開示は、上記コンピュータプログラムまたは上記デジタル信号をコンピュータで読み取り可能な非一時的な記憶媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM,DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記憶したものを含んでもよい。また、これら非一時的な記憶媒体に記録されている上記デジタル信号を含んでもよい。
また、本開示は、上記コンピュータプログラムまたは上記デジタル信号を、電気通信回線、無線または有線通信回路、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、上記プログラムまたは上記デジタル信号を上記非一時的な記憶媒体に記録して移送することにより、または上記プログラムまたは上記デジタル信号は上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
また、本開示は、図21のように、コンピュータ1000以外にも別途データサーバ1101を構築し、そのデータサーバ1101上にメモリ等の保存すべきデータを置き、上記ネットワーク等を経由してその情報をコンピュータ1000が読み出してもよい。また、データサー1101から情報を読み出す、コンピュータ1000は1台である必要はなく、複数であってもよい。その際、各コンピュータ1000が、本開示の学習装置、認識装置及び学習認識システムの構成要素の一部をそれぞれ実施してもよい。
さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
また、今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
本開示によれば、学習装置、認識装置、学習認識システム、及び、プログラムに利用でき、特に画像やセンサ値を認識及び/または分類するために過学習に左右されない転移学習を実施することができる学習装置、認識装置、学習認識システム、及び、プログラムに利用できる。
1、1A、1D 学習識別システム
2、2A、2D 転移元ニューラルネットワーク学習装置
10、10C 転移学習装置
20、20A 識別装置
21、21D 転移元ニューラルネットワーク生成部
22、22A 転移元学習用データ保持部
22D 転移元学習用データセット保持部
23 転移元学習用データセット選択部
30 転移先学習用データ保持部
31 系統樹保持部
40 データ入力部
102 転移先ニューラルネットワーク
103 データ演算部
104 構成情報保持部
105 荷重保持部
106 荷重調整部
107 関連度ベクトル調整部
200 ニューラルネットワーク
201 入力層 202、202a、202b 隠れ層
203 出力層
205 入力ユニット
206 隠れユニット
207 出力ユニット
220 出力ユニット比較部
801 系統樹

Claims (13)

  1. 少なくとも1つのメモリと、少なくとも1つの回路とを備える学習装置であって、
    前記回路は、
    (a)元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習された第1ニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得し、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、
    (b)第2ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記第2ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルとを取得し、前記第1ニューラルネットワークと前記第2ニューラルネットワークは、同じ荷重値、同じ隠れ層の数、各隠れ層に含まれるニューロン数が同じ、入力層のニューロン数が同じ、出力層のニューロン数が同じであり、
    (c)前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成する、
    学習装置。
  2. (i)前記第2ニューラルネットワークに、前記第1ラベルが付与された第1データが入力したときの出力ベクトルは、前記第2関連度ベクトルより前記第1関連度ベクトルに近く、
    (ii)前記第2ニューラルネットワークに、前記第2ラベルが付与された第2データを入力したときの出力ベクトルは、前記第1関連度ベクトルより前記第2関連度ベクトルに近い、
    請求項1に記載の学習装置。
  3. 前記回路は、さらに、
    (d)前記第1関連度ベクトル及び前記第2関連度ベクトルを用いて、前記第2ニューラルネットワークの荷重情報を更新し、
    前記回路は、前記(d)において、
    前記複数の第1データに対する出力である複数の第1出力ベクトルが、前記第1関連度ベクトルを正解とし、前記複数の第2データに対する出力である複数の第2出力ベクトルが、前記第2関連度ベクトルを正解とする学習を行うことによって、前記荷重情報を更新する、
    請求項1または2に記載の学習装置。
  4. 前記回路は、前記(c)において、
    前記複数の第1出力ベクトルの平均ベクトルを前記第1関連度ベクトルとし、前記複数の第2出力ベクトルの平均ベクトルを前記第2関連度ベクトルとして生成する、
    請求項1〜3のいずれか1項に記載の学習装置。
  5. 前記回路は、前記(c)において、
    前記第1関連度ベクトルの値が、前記複数の第1出力ベクトルから計算される第1標準偏差の定数倍の範囲内であり、
    前記第2関連度ベクトルの値が前記複数の第2出力ベクトルから計算される第2標準偏差の定数倍の範囲内であり、かつ、
    前記第1関連度ベクトル及び前記第2関連度ベクトルの間の差分値が大きくなるように、
    前記第1関連度ベクトルの値及び第2関連度ベクトルの値を調整する、
    請求項3に記載の学習装置。
  6. 前記学習装置は、さらに、
    正解ラベル付き学習用データである転移元学習用データを複数セットと、正解ラベルそれぞれの類似度を計算するための距離情報とを保持しており、
    前記回路は、さらに、
    前記複数セットの転移元学習用データそれぞれに付与されたすべての正解ラベルと、前記転移先学習用データに付与されたすべての正解ラベルとの距離を計算し、その中で最も小さい距離を有する転移元学習用データのセットを選択し、
    選択した前記転移元学習用データのセットを用いて学習させることで前記第1ニューラルネットワークを生成し、
    生成した前記第1ニューラルネットワークの構成情報及び荷重値を、前記メモリに保存する、
    請求項1〜5のいずれか1項に記載の学習装置。
  7. 前記転移先学習用データは、等電点と分子量によって分離されたたんぱく質の2次元電気泳動像であり、
    前記第1ラベルは、敗血症であり、
    前記第2ラベルは、非敗血症である、
    請求項1〜6のいずれか1項に記載の学習装置。
  8. 前記転移元学習用データは、健常者における、等電点と分子量によって分離されたたんぱく質の2次元電気泳動像であり、
    前記転移元学習用データの正解ラベルは、健常者である、
    請求項7に記載の学習装置。
  9. 少なくとも1つの回路とを備える識別装置であって、
    前記回路は、
    請求項1〜7のいずれか1項に記載の学習装置から、前記第1関連度ベクトル及び前記第2関連度ベクトルを取得し、
    前記転移先学習用データと同種かつラベルなしデータであるテストデータを取得し、
    前記第2ニューラルネットワークに、取得した前記テストデータを入力して、前記テストデータに対する出力ベクトルを取得し、
    取得した前記出力ベクトル及び前記第1関連度ベクトルの距離と、取得した前記出力ベクトル及び前記第2関連度ベクトルの距離とを計算し、
    前記第1関連度ベクトル及び前記第2関連度ベクトルのうち、前記出力ベクトルとの距離が近い方に対応する、前記第1ラベルまたは前記第2ラベルを、前記テストデータに対する正解ラベルとして出力する、
    識別装置。
  10. 少なくとも1つのメモリと、少なくとも1つの第1回路とを有する学習装置と、少なくとも1つの第2回路を有する識別装置とを備える学習識別システムであって、
    前記学習装置では、前記第1回路は、
    元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習された第1ニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得し、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、
    第2ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記第2ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルを取得し、前記第1ニューラルネットワークと前記第2ニューラルネットワークは、同じ荷重値、同じ隠れ層の数、各隠れ層に含まれるニューロン数が同じ、入力層のニューロン数が同じ、出力層のニューロン数が同じであり、
    前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成し、
    前記識別装置では、前記第2回路は、
    前記学習装置から、前記第1関連度ベクトル及び前記第2関連度ベクトルを取得し、
    前記転移先学習用データと同種かつラベルなしデータであるテストデータを取得し、
    前記第2ニューラルネットワークに、取得した前記テストデータを入力して、前記テストデータに対する出力ベクトルを取得し、
    取得した前記出力ベクトル及び前記第1関連度ベクトルの距離と、取得した前記出力ベクトル及び前記第2関連度ベクトルの距離とを計算し、
    前記第1関連度ベクトル及び前記第1関連度ベクトルのうち、前記出力ベクトルとの距離が近い方に対応する、前記第1ラベルまたは前記第2ラベルを、前記テストデータに対する正解ラベルとして出力する、
    学習識別システム。
  11. 少なくとも1つのメモリと、少なくとも1つの回路とを備える学習装置の学習方法をコンピュータに実行させるためのプログラムであって、
    前記回路に、
    元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習された第1ニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得させ、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、
    第2ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記第2ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルとを取得させ、前記第1ニューラルネットワークと前記第2ニューラルネットワークは、同じ荷重値、同じ隠れ層の数、各隠れ層に含まれるニューロン数が同じ、入力層のニューロン数が同じ、出力層のニューロン数が同じであり、
    前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成させる、
    プログラム。
  12. 少なくとも1つの回路とを備える識別装置の識別方法をコンピュータに実行させるためのプログラムであって、
    前記回路に、
    請求項1〜7のいずれか1項に記載の学習装置から、前記第1関連度ベクトル及び前記第2関連度ベクトルを取得させ、
    前記転移先学習用データと同種かつラベルなしデータであるテストデータを取得させ、
    前記第2ニューラルネットワークに、取得した前記テストデータを入力させて、前記テストデータに対する出力である出力ベクトルを取得させ、
    取得した前記出力ベクトル及び前記第1関連度ベクトルの距離と、取得した前記出力ベクトル及び前記第2関連度ベクトルの距離とを計算させ、
    前記第1関連度ベクトル及び前記第2関連度ベクトルのうち、前記出力ベクトルとの距離が近い方に対応する、前記第1ラベルまたは前記第2ラベルを、前記テストデータに対する正解ラベルとして出力させる、
    プログラム。
  13. 少なくとも1つのメモリと、少なくとも1つの回路とを備える学習装置であって、
    前記回路は、
    (a)元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習されたニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得し、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、
    (b)前記ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルを取得し、
    (c)前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成する、
    学習装置。
JP2017098161A 2016-07-21 2017-05-17 学習装置、識別装置、学習識別システム、及び、プログラム Active JP6814981B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016143631 2016-07-21
JP2016143631 2016-07-21

Publications (2)

Publication Number Publication Date
JP2018022473A JP2018022473A (ja) 2018-02-08
JP6814981B2 true JP6814981B2 (ja) 2021-01-20

Family

ID=60988568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017098161A Active JP6814981B2 (ja) 2016-07-21 2017-05-17 学習装置、識別装置、学習識別システム、及び、プログラム

Country Status (2)

Country Link
US (1) US11023806B2 (ja)
JP (1) JP6814981B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220026861A1 (en) * 2020-07-23 2022-01-27 National Cheng Kung University Virtual metrology method using convolutional neural network and computer program product thereof

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180060728A1 (en) * 2016-08-31 2018-03-01 Microsoft Technology Licensing, Llc Deep Embedding Forest: Forest-based Serving with Deep Embedding Features
US11068781B2 (en) * 2016-10-07 2021-07-20 Nvidia Corporation Temporal ensembling for semi-supervised learning
US11392827B1 (en) * 2017-07-19 2022-07-19 United States Of America As Represented By The Secretary Of The Navy Deeper learning from the real-time transformative correction of and reasoning from neural network outputs
JP6618661B2 (ja) * 2017-08-10 2019-12-11 三菱電機株式会社 識別分類装置および識別分類方法
CN108416755B (zh) * 2018-03-20 2020-06-30 南昌航空大学 一种基于深度学习的图像去噪方法及系统
JP6964044B2 (ja) * 2018-05-21 2021-11-10 株式会社デンソーアイティーラボラトリ 学習装置、学習方法、プログラム、学習済みモデルおよびリップリーディング装置
US20200104710A1 (en) * 2018-09-27 2020-04-02 Google Llc Training machine learning models using adaptive transfer learning
JP7205154B2 (ja) * 2018-10-16 2023-01-17 トヨタ自動車株式会社 表示装置
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
JP2021089446A (ja) * 2019-03-13 2021-06-10 ダイキン工業株式会社 モデルの選定方法および深層強化学習方法
US11494616B2 (en) * 2019-05-09 2022-11-08 Shenzhen Malong Technologies Co., Ltd. Decoupling category-wise independence and relevance with self-attention for multi-label image classification
DE102019007340A1 (de) * 2019-10-22 2021-04-22 e.solutions GmbH Technik zum Einrichten und Betreiben eines neuronalen Netzwerks
US11804050B1 (en) * 2019-10-31 2023-10-31 Nvidia Corporation Processor and system to train machine learning models based on comparing accuracy of model parameters
KR102144975B1 (ko) * 2019-11-08 2020-08-14 주식회사 알체라 머신 러닝 시스템 및 머신 러닝 시스템의 동작 방법
US11922303B2 (en) * 2019-11-18 2024-03-05 Salesforce, Inc. Systems and methods for distilled BERT-based training model for text classification
US11468294B2 (en) * 2020-02-21 2022-10-11 Adobe Inc. Projecting images to a generative model based on gradient-free latent vector determination
EP4100876A4 (en) * 2020-03-10 2024-02-28 AI:ON Innovations, Inc. SYSTEM AND METHOD FOR LEARNING TRANSMISSION PROCESSES IN MAMMALS
JP7424909B2 (ja) * 2020-05-18 2024-01-30 株式会社日立製作所 処理条件探索装置および処理条件探索方法
JP7487556B2 (ja) * 2020-05-22 2024-05-21 富士通株式会社 モデル生成プログラム、モデル生成装置、及びモデル生成方法
US11195084B1 (en) * 2020-10-09 2021-12-07 Sas Institute Inc. Neural network training system
CN112949904B (zh) * 2021-01-28 2022-06-07 华中科技大学 一种基于特征选择与多层级深度迁移学习的风电场短期功率预测方法
JP7661073B2 (ja) 2021-03-15 2025-04-14 株式会社Screenホールディングス ベクトル取得方法、ベクトル取得装置、および、ベクトル取得プログラム
JP7785747B2 (ja) * 2021-03-18 2025-12-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理システム、および、プログラム
JP7617811B2 (ja) * 2021-05-21 2025-01-20 株式会社日立ハイテク 機械学習システム
CN113688809B (zh) * 2021-10-26 2022-02-18 北京世纪好未来教育科技有限公司 一种模型训练方法、文本去除方法及相关装置
CN114764874B (zh) * 2022-04-06 2023-04-07 北京百度网讯科技有限公司 深度学习模型的训练方法、对象识别方法和装置
US12374099B2 (en) * 2022-06-24 2025-07-29 Salesforce, Inc. Systems and methods for visual question answering
US20240169611A1 (en) * 2022-11-18 2024-05-23 Ohio State Innovation Foundation CONDITIONAL GENERATIVE ADVERSARIAL NETWORK (cGAN) FOR POSTERIOR SAMPLING AND RELATED METHODS

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535710A (ja) * 1991-08-01 1993-02-12 Ricoh Co Ltd ニユーラルネツトワークの学習方法および学習装置
JPH06139410A (ja) * 1992-10-23 1994-05-20 Fujitsu Ltd ニューラル・ネットワークによるテンプレート・マッチング型文字認識方式
US5835901A (en) * 1994-01-25 1998-11-10 Martin Marietta Corporation Perceptive system including a neural network
US5689621A (en) * 1995-04-28 1997-11-18 Michigan State University Modular feedforward neural network architecture with learning
JP4639784B2 (ja) * 2004-12-06 2011-02-23 ソニー株式会社 学習装置および学習方法、並びにプログラム
JP2006285899A (ja) * 2005-04-05 2006-10-19 Sony Corp 学習装置および学習方法、生成装置および生成方法、並びにプログラム
US8345962B2 (en) * 2007-11-29 2013-01-01 Nec Laboratories America, Inc. Transfer learning methods and systems for feed-forward visual recognition systems
CN102356393B (zh) * 2010-01-29 2014-04-09 松下电器产业株式会社 数据处理装置
US9412064B2 (en) * 2011-08-17 2016-08-09 Qualcomm Technologies Inc. Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update
US9786270B2 (en) * 2015-07-09 2017-10-10 Google Inc. Generating acoustic models
US10793906B2 (en) * 2018-07-30 2020-10-06 Cna Diagnostics Inc. Methods for treating and detecting sepsis in humans

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220026861A1 (en) * 2020-07-23 2022-01-27 National Cheng Kung University Virtual metrology method using convolutional neural network and computer program product thereof
US11921474B2 (en) * 2020-07-23 2024-03-05 National Cheng Kung University Virtual metrology method using convolutional neural network and computer program product thereof

Also Published As

Publication number Publication date
US20180025271A1 (en) 2018-01-25
US11023806B2 (en) 2021-06-01
JP2018022473A (ja) 2018-02-08

Similar Documents

Publication Publication Date Title
JP6814981B2 (ja) 学習装置、識別装置、学習識別システム、及び、プログラム
Jones et al. Computational biology: deep learning
Pritom et al. Predicting breast cancer recurrence using effective classification and feature selection technique
JP7522936B2 (ja) グラフニューラルネットワークに基づく遺伝子表現型予測
Nakane et al. Application of evolutionary and swarm optimization in computer vision: a literature survey
Alkım et al. A fast and adaptive automated disease diagnosis method with an innovative neural network model
CN109543727B (zh) 一种基于竞争重构学习的半监督异常检测方法
CN116635866A (zh) 用于挖掘少数类数据样本以训练神经网络的方法和系统
WO2020170052A1 (en) Disease-gene prioritization method and system
WO2021084623A1 (ja) 劣化抑制プログラム、劣化抑制方法および情報処理装置
Sekaran et al. RETRACTED ARTICLE: Predicting autism spectrum disorder from associative genetic markers of phenotypic groups using machine learning
EP3828772A1 (en) Solving multiple tasks simultaneously using capsule neural networks
Karayiannis et al. Training reformulated radial basis function neural networks capable of identifying uncertainty in data classification
Lopez-Rubio et al. Bregman divergences for growing hierarchical self-organizing networks
Bhardwaj et al. Computational biology in the lens of CNN
CN116602688A (zh) 一种高原地区儿童心电图预测方法
Rashid et al. A hybrid deep learning approach to classify the plant leaf species
Sachnev et al. Parkinson disease classification based on binary coded genetic algorithm and extreme learning machine
Yousif Classification of mental disorders figures based on soft computing methods
Babatunde et al. Comparative analysis of genetic algorithm and particle swam optimization: An application in precision agriculture
CN116342928B (zh) 基于改进神经原型树的可解释细粒度图像分类方法及系统
Sharma et al. Prediction of cardiovascular diseases using genetic algorithm and deep learning techniques
Zheng et al. A winner-take-all strategy for improved object tracking
Ramachandran et al. Deep learning for better variant calling for cancer diagnosis and treatment
CN115221952A (zh) 图数据识别方法、装置、计算机设备及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201204

R151 Written notification of patent or utility model registration

Ref document number: 6814981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151