JP7436928B2 - 学習装置、学習方法およびプログラム - Google Patents

学習装置、学習方法およびプログラム Download PDF

Info

Publication number
JP7436928B2
JP7436928B2 JP2022561707A JP2022561707A JP7436928B2 JP 7436928 B2 JP7436928 B2 JP 7436928B2 JP 2022561707 A JP2022561707 A JP 2022561707A JP 2022561707 A JP2022561707 A JP 2022561707A JP 7436928 B2 JP7436928 B2 JP 7436928B2
Authority
JP
Japan
Prior art keywords
label
unit
feature amount
feature
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022561707A
Other languages
English (en)
Other versions
JPWO2022101961A1 (ja
Inventor
忍 工藤
隆一 谷田
英明 木全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2022101961A1 publication Critical patent/JPWO2022101961A1/ja
Application granted granted Critical
Publication of JP7436928B2 publication Critical patent/JP7436928B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、学習装置、学習方法およびプログラムの技術に関する。
ラベル特徴を抽出するWcとラベル以外特徴を抽出するWuの2つのニューラルネットワークで構成され、ラベル特徴を更にクラス分類用のニューラルネットワークへ入力し、クラス分類タスクを解く学習方法が提案されている。そして、この提案の学習方法では、ラベル特徴の再構成とラベル以外特徴の再構成を1:1で加重和したもので入力xを復元する(例えば非特許文献1参照)。
Thomas Robert, Nicolas Thome, Matthieu Cord、"HybridNet: Classification and Reconstruction Cooperation for Semi-Supervised Learning"、2018、インターネット検索、<URL: https://arxiv.org/abs/1807.11407>
しかしながら、従来技術は、ラベル特徴のクラス分類を解く際に、ラベル特徴の特徴を更にクラス分類用のNWへ入力しているため、この処理でクラス以外の情報が消失する可能性がある。このため、従来技術では、ラベル特徴がクラス以外の情報を含んでいたとしてもそれを検知できない。このように、従来技術では、学習時に特徴が漏れるため、データを任意の特徴に明確に分離することができない場合があるという問題があった。
上記事情に鑑み、本発明は、データを任意の特徴に明確に分離することができる技術の提供を目的としている。
本発明の一態様は、学習に用いる学習データから得られた潜在変数をラベル特徴量とラベル以外特徴量とに分類する分類部と、前記分類部によって分類されたラベル特徴量とラベル以外特徴量をデコーダパラメータを用いてデコードして再構成データを生成するデコード部と、前記ラベル特徴量を用いて、前記ラベル特徴量と分類に用いられるラベル情報との分類誤差を最小化し、前記ラベル特徴量と前記ラベル以外特徴量とを用いて再構成誤差を最小化するように前記デコーダパラメータを最適化する最適化部と、を備える学習装置である。
本発明の一態様は、分類部が、学習に用いる学習データから得られた潜在変数をラベル特徴量とラベル以外特徴量とに分類し、デコード部が、前記分類部によって分類されたラベル特徴量とラベル以外特徴量をデコーダのパラメータを用いてデコードして再構成データを生成し、最適化部が、前記ラベル特徴量を用いて、前記ラベル特徴量と分類に用いられるラベル情報との分類誤差を最小化し、前記ラベル特徴量と前記ラベル以外特徴量とを用いて再構成誤差を最小化するように前記デコーダパラメータを最適化する、学習方法である。
本発明の一態様は、コンピュータに、学習に用いる学習データから得られた潜在変数をラベル特徴量とラベル以外特徴量とに分類させ、前記分類されたラベル特徴量とラベル以外特徴量をデコーダのパラメータを用いてデコードして再構成データを生成させ、前記ラベル特徴量を用いて、前記ラベル特徴量と分類に用いられるラベル情報との分類誤差を最小化し、前記ラベル特徴量と前記ラベル以外特徴量とを用いて再構成誤差を最小化させて前記デコーダパラメータを最適化する、プログラムである。
本発明により、データを任意の特徴に明確に分離することができる。
実施形態の学習装置の構成の一例を示す図である。 第1の実施形態の処理の概要を示す図である。 第1の実施形態に係る学習時と分類時の処理手順例を示すフローチャートである。 第1の実施形態に係るラベル特徴量とラベル以外特徴量の一例を示す図である。 第1の実施形態に係る原画と再構成した画像の一例を示す図である。 第1の実施形態に係る原画とラベル特徴量以外を交換した時の再構成した画像の一例を示す図である。 第2の実施形態の処理の概要を示す図である。 第2の実施形態に係る学習時と分類時の処理手順例を示すフローチャートである。 第2の実施形態に係るラベル特徴量とラベル以外特徴量の一例を示す図である。 第2の実施形態に係る原画と再構成した画像の一例を示す図である。 第2の実施形態に係る原画とラベル特徴量以外を交換した時の再構成した画像の一例を示す図である。 第3の実施形態の処理の概要を示す図である。 第3の実施形態に係る学習時と分類時の処理手順例を示すフローチャートである。 第1の実施形態に加えて第2の実施形態の処理と第3の実施形態の処理を行う場合のラベル特徴量とラベル以外特徴量の一例を示す図である。 第1の実施形態に加えて第2の実施形態の処理と第3の実施形態の処理を行う場合の原画と再構成した画像の一例を示す図である。 第1の実施形態に加えて第2の実施形態の処理と第3の実施形態の処理を行う場合の原画とラベル特徴量以外を交換した時の再構成した画像の一例を示す図である。
本発明の実施形態について、図面を参照して詳細に説明する。
図1は、実施形態の学習装置の構成の一例を示す図である。図1のように、学習装置1は、サンプリング部11、分類部2、処理部3、および最適化部27を備える。
分類部2は、エンコード部12、ラベル特徴量抽出部13、およびラベル以外特徴量抽出部14を備える。
処理部3は、ラベル特徴量交換部15、特徴結合部16、デコード部17、再構成誤差算出部18、デコード部19、再構成誤差算出部20、ラベル以外特徴量交換部21、特徴結合部22、デコード部23、エンコード部24、ラベル特徴量抽出部25、および分類誤差算出部26を備える。
学習装置1は、入力されたデータをラベル特徴量とラベル以外特徴量とに分離する。なお、以下の説明において、学習データを{x,y}(xは入力データ、yはラベル(クラス)情報)(i=1,…,N)とする。
サンプリング部11は、学習データ{x,y}からバッチサイズB(Bは1以上の整数)の入力データ{x,y},…,{x,y}をサンプリングする。
エンコード部12は、サンプルされた入力データxをエンコードして、各データについてM個のパラメータから構成される特徴量101{Z=[zi,label,zi,wo_label]}を得る。ここで、zi,labelはC個(Cは1以上の整数)のパラメータから構成されるラベル特徴量zi,label=[zi,1,…,zi,C]であり、zi,wo_labelはM-C個(Mは2以上の整数)のパラメータから構成されるラベル以外特徴量zi,wo_label=[zi,C+1,…,zi,M]である。エンコード部12は、特徴量101を、ラベル特徴量抽出部13とラベル以外特徴量抽出部14とデコード部19とに出力する。なお、潜在変数とは、オートエンコーダを使用する場合、エンコードして得られる特徴量である。
ラベル特徴量抽出部13は、ラベル特徴量102{zi,label}を抽出する。ラベル特徴量抽出部13は、抽出したラベル特徴量102を、ラベル特徴量交換部15と特徴結合部22と分類誤差算出部26とに出力する。
ラベル以外特徴量抽出部14は、ラベル以外特徴量103{zi,wo_label}を抽出する。ラベル以外特徴量抽出部14は、抽出したラベル以外特徴量103を、特徴結合部16とラベル以外特徴量交換部21と特徴結合部22とに出力する。
ラベル特徴量交換部15には、学習データに付与されているラベル情報と、ラベル特徴量102とが入力される。ラベル特徴量交換部15は、ラベル特徴量zi,labelの各パラメータについてバッチ処理内の同一ラベルサンプルとランダムに交換(スワップ)する。交換したものを(zi,labelswapとする。ラベル特徴量交換部15は、交換したラベル特徴量104を特徴結合部16に出力する。なお、ラベル特徴量交換部15には、バッチ処理内に限らず、同一ラベルの別のサンプルと交換するようにしてもよい。
特徴結合部16は、ラベル特徴量交換部15によって交換されたラベル特徴量104と、ラベル以外特徴量抽出部14によって抽出されたラベル以外特徴量103とを結合し、結合した特徴量をデコード部17に出力する。
デコード部17は、特徴量をデコードして再構成データ105{(x(swap_label)^}を得る。デコード部17は、再構成データ105を再構成誤差算出部18に出力する。
再構成誤差算出部18は、入力データxと、デコードして得られた再構成データ(x)^との再構成誤差106{Lrec,swap}を次式(1)によって算出する。なお、式(1)においてdは、2つのベクトル間の距離を算出する任意の関数であり、例えば平均二乗誤差和や平均絶対誤差和等である。再構成誤差算出部18は、算出した再構成誤差106を最適化部27に出力する。
Figure 0007436928000001
デコード部19は、特徴量101をデコードして再構成データ107{(x}を得る。デコード部19は、再構成データ107を再構成誤差算出部20に出力する。
再構成誤差算出部20は、入力データxと、デコード部19が出力する再構成データ(z(swap_label)^との再構成誤差108{Lrec,org}を次式(2)によって算出する。
Figure 0007436928000002
ラベル以外特徴量交換部21は、ラベル以外特徴量zi,wo_labelの各パラメータについてバッチ処理内のサンプルとランダムに交換する。交換したものを(zi,wo_labelswapとする。ラベル以外特徴量交換部21は、ラベル特徴量zi,labelと交換された(zi,wo_labelswapとを結合した特徴量{(zswap_wo_label}を生成する。ラベル以外特徴量交換部21は、交換したラベル以外特徴量110を特徴結合部22に出力する。
特徴結合部22は、ラベル特徴量抽出部13によって抽出されたラベル特徴量102と、ラベル以外特徴量交換部21によって交換されたラベル以外特徴量110とを結合する。特徴結合部22は、結合した特徴量をデコード部23に出力する。
デコード部23は、合された特徴量{(zswap_wo_label}をデコードして再構成データ111{(x(swap_wo_label)^}を得る。デコード部23は、再構成データ111をエンコード部24に出力する。
エンコード部24は、再構成データ111{(x(swap_wo_label)^}を再エンコードして、特徴量112を得る。エンコード部24は、特徴量112をラベル特徴量抽出部25に出力する。
ラベル特徴量抽出部25は、特徴量112からラベル特徴量{(zi,label(swap_wo_label)^}を抽出し、抽出したラベル特徴量113を分類誤差算出部26に出力する。
分類誤差算出部26には、ラベル情報と、ラベル特徴量抽出部13が抽出したラベル特徴量102と、ラベル特徴量抽出部25が抽出したラベル特徴量113とが入力される。分類誤差算出部26は、ラベル特徴量102{zi,label}から、次式(3)によって分類誤差109{Llabel,org}を算出する。式(3)において、(zyi,label) ̄は、バッチサンプルの中でラベル情報がyであるサンプルのラベル特徴量zi,labelを平均化したものであり、Kは分類ラベル数である。
Figure 0007436928000003
また、分類誤差算出部26は、ラベル特徴量113{(zi,label(swap_wo_label)^}から、次式(4)によって分類誤差114{Llabel,swap}を算出する。
Figure 0007436928000004
最適化部27は、各誤差を重み付けした目的関数Lを次式(5)によって算出する。なお、式(5)において、λは所定の重み係数である。
Figure 0007436928000005
さらに、最適化部27は、例えば勾配法によりエンコード部(12,24)およびデコード部(17,19,23)のパラメータを更新する。最適化部27は、例えば目的関数Lが収束したか否かを判別、または所定回数の処理が終了したか否かを判別する。
なお、図1に示した構成や処理は一例であり、これに限らない。また、図1の構成は、用途によって、使用する機能部と使用しない機能部とがある。また、エンコード部17、19、23は、一体であっても別であってもよい。特徴結合部18、22は、一体であっても別であってもよい。再構成誤差算出部18,20は、一体であっても別であってもよい。
なお、学習装置1は、例えばCPU(Central Processing Unit)等のプロセッサーとメモリーとを用いて構成される。学習装置1は、プロセッサーがプログラムを実行することによって、サンプリング部11、エンコード部2、分類部3および最適化部27として機能する。なお、学習装置1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD:Solid State Drive)等の可搬媒体、コンピューターシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。
(第1の実施例)
本実施形態では、エンコード部12が同一層で特徴を分離する。なお、本実施形態では、バッチ内で交換させない。
図2は、本実施形態の処理の概要を示す図である。エンコーダg102は、図1のエンコード部12に対応する。エンコーダg102とデコーダg105は、例えばオートエンコーダである。エンコーダg102には、入力データg101が入力される。
学習装置1は、オートエンコーダのボトルネック部分を特徴とみなして学習を行う。
ラベル特徴量抽出部13とラベル以外特徴量抽出部14は、特徴をラベル特徴量g103とラベル以外特徴量g104との2つに分離する。
ラベル特徴量g103とラベル以外特徴量g104とは、デコーダg105に入力される。デコーダg105は、図1のデコード部19に対応する。
最適化部27は、ラベル特徴量g103を用いて、クラス分類誤差(CE loss;Cross-entropy loss)を最小化する。
最適化部27は、ラベル特徴量g103とラベル以外特徴量g104とを用いて、再構成誤差を最小化する。
次に、学習時と分類時の処理手順例を説明する。
図3は、本実施形態に係る学習時と分類時の処理手順例を示すフローチャートである。
サンプリング部11は、学習データからバッチサイズBの入力データをサンプルする(ステップS11)。エンコード部12は、入力データをエンコードして特徴量を得る(ステップS12)。
ラベル特徴量抽出部13がラベル特徴量を抽出し、ラベル以外特徴量抽出部14がラベル以外特徴量を抽出することで、特徴量を2つに分離する(ステップS13)。
最適化部27は、ラベル特徴量g103を用いて、クラス分類誤差を最小化する(ステップS14)。最適化部27は、ラベル特徴量g103とラベル以外特徴量g104とを用いて、再構成誤差を最小化する(ステップS15)。
最適化部27は、例えば勾配法によりエンコード部(12,24)およびデコード部(17,19,23)のパラメータを更新する(ステップS16)。最適化部27は、例えば目的関数Lが収束したか否かを判別、または所定回数の処理が終了したか否かを判別する(ステップS16)。最適化部27は、目的関数Lが収束した場合または所定回数の処理が終了した場合(ステップS17;YES)、処理を終了する。最適化部27は、目的関数Lが収束していない場合または所定回数の処理が終了していない場合(ステップS17;NO)、ステップS11~S16の処理を繰り返す。
次に、本実施形態の効果を示す一例を図4~6に示す。なお、図4~図6では、学習データ、分類すべきデータが画像データの例である。また、ラベル特徴量は数字の種類(0~9)であり、ラベル以外特徴量は数字の形状である。
図4は、本実施形態に係るラベル特徴量とラベル以外特徴量の一例を示す図である。縦軸は、ラベル特徴量g201と、ラベル以外特徴量g202である。横方向は、原画g203と、特徴をそれぞれ変化させた時の再構成した画像g204である。なお、枠g205内の画像については、後述する。
図5は、本実施形態に係る原画と再構成した画像の一例を示す図である。横方向は、原画g211、g213と、再構成した画像g212、g214である。
図6は、本実施形態に係る原画とラベル特徴量以外を交換した時の再構成した画像の一例を示す図である。横方向は、原画g221、g223と、ラベル特徴量以外を交換した時の再構成した画像g212、g214である。なお、枠g225内の画像については、後述する。
本実施形態では、このように構成された学習装置1では、特徴をラベル特徴とラベル以外の特徴との2つに分離するようにした。また、学習装置1では、ラベル特徴量を用いてクラス分類誤差を最小化するようにした。また、学習装置1では、ラベル特徴量とラベル以外特徴量とを用いて再構成誤差を最小化するようにした。
これにより、本実施形態によれば、オートエンコーダにより再構成するため、特徴の漏れがない。また、本実施形態によれば、ラベル情報が連続空間上の表現として明確に抽出することができる。
(第2の実施例)
ラベル以外の特徴から、さらに精度よくラベル特徴を除外するテクニックを本実施形態で示す。ラベル以外の特徴にラベル特徴が含まれると、デコードした結果得られる出力値が、違うラベルの出力値になると考えられる。また、同じラベルをもつデータ間であれば、ラベル以外の特徴を交換しても同じクラスの出力値にデコードされる。そこで、本実施形態では、学習装置1が、ラベル以外の特徴をバッチ内で交換させて学習する。
図7は、本実施形態の処理の概要を示す図である。エンコーダg107は、図1のエンコード部24に対応する。エンコーダg107は、例えばオートエンコーダである。エンコーダg107には、再構成されたデータg106が入力される。なお、エンコーダg102とエンコーダg107は一体であっても別であってもよい。
第2の実施形態では、第1の実施形態に加えて、以下の処理を行う。
ラベル以外特徴量交換部21は、ラベル以外特徴量をバッチ間で交換する。
デコード部23は、ラベル特徴量と交換されたラベル以外特徴量を結合した特徴量をデコードする。
エンコード部24は、デコードされた特徴量を再エンコードする。
最適化部27は、再エンコードした結果得られたラベル特徴量g103’を用いて、クラス分類誤差を最小化する。
次に、学習時と分類時の処理手順例を説明する。
図8は、本実施形態に係る学習時と分類時の処理手順例を示すフローチャートである。
学習装置1は、ステップS11~S13の処理を行う。
続けて、ラベル以外特徴量交換部21は、ラベル以外特徴量をバッチ間で交換する(ステップS21)。デコード部23は、ラベル特徴量と交換されたラベル以外特徴量を結合した特徴量をデコードする(ステップS22)。エンコード部24は、デコードされた特徴量を再エンコードする(ステップS23)。
続けて、最適化部27は、再エンコードされたラベル特徴量g103’を用いてクラス分類誤差を最小化する(ステップS24)。
続けて、学習装置1は、ステップS16~S17の処理を行う。
次に、本実施形態の効果を示す一例を図9~11に示す。なお、図9~図11では、学習データ、分類すべきデータが画像データの例である。
図9は、本実施形態に係るラベル特徴量とラベル以外特徴量の一例を示す図である。図10は、本実施形態に係る原画と再構成した画像の一例を示す図である。図11は、本実施形態に係る原画とラベル特徴量以外を交換した時の再構成した画像の一例を示す図である。
図11のようにラベル以外特徴量を交換して再構成しても、他の数字に変化しない、すなわちラベル以外特徴量にラベル情報が入っていない。
本実施形態では、このように構成された学習装置1では、特徴をラベル特徴とラベル以外の特徴との2つに分離するようにした。また、学習装置1では、ラベル以外特徴量をバッチ間で交換するようにした。また、学習装置1では、交換されたデータをデコードし、デコードされた再構成データを再エンコードするようにした。また、学習装置1では、再エンコードされて得られたラベル特徴量g103’を用いてクラス分類誤差を最小化するようにした。
ラベル以外の特徴にラベルの情報が入っていると再構成した時に異なるラベルのデータになる場合がある。これに対して、本実施形態によれば、再構成された画像を再エンコードしてクラス分類誤差が小さくなるようにすることでラベル以外の特徴にラベルの情報が含まれなくすることができる。
(第3の実施例)
ラベル特徴量から、さらにラベル特徴量以外の情報を取り除くテクニックを本実施形態で説明する。同一のラベルが付与されるデータ間であれば、ラベル特徴を交換してもデコードされた結果得られるクラスは同一である。そこで、本実施形態では、学習装置1が、ラベル特徴をバッチ内の同一ラベル間で交換させて学習する。図12は、本実施形態の処理の概要を示す図である。
第3の実施形態では、第1の実施形態に加えて、以下の処理を行う。
ラベル特徴量交換部15は、ラベル特徴量をバッチ内の同一ラベル間でランダムに交換する。
デコード部17は、交換されたラベル特徴量とラベル以外特徴量を結合した特徴量をデコードする。
最適化部27は、デコード部17でデコードされた再構成データを用いて、再構成誤差を最小化する。
次に、第1の実施形態に加えて本実施形態の処理を行う場合の学習時と分類時の第1の処理手順例を説明する。図13は、第3の実施形態に係る学習時と分類時の処理手順例を示すフローチャートである。
学習装置1は、ステップS11~S13の処理を行う。
ラベル特徴量交換部15は、ラベル特徴量g103をバッチ内の同一ラベル間でランダムに交換する(ステップS31)。デコード部17は、交換されたラベル特徴量g103とラベル以外特徴量g104を結合した特徴量をデコードする(ステップS32)。
最適化部27は、交換されデコードされた再構成データを用いて、再構成誤差を最小化する(ステップS33)。
学習装置1は、ステップS16~S17の処理を行う。
本実施形態では、このように構成された学習装置1では、特徴をラベル特徴とラベル以外の特徴との2つに分離するようにした。また、学習装置1では、ラベル特徴量をバッチ内の同一ラベル間で交換するようにした。また、学習装置1では、交換されたデータをデコードし、デコードされた再構成データを用いて再構成誤差を最小化するようにした。
以上のように、本実施形態によれば、ラベル特徴量を他の同一ラベルデータと交換して再構成するようにした。この再構成では、交換したラベル特徴量にラベル情報のみが含まれていなければならないため、ラベル特徴量にラベル以外の情報が含まれなくすることができる。
なお、本実施形態によれば、交換したサンプル間の共通特徴を抽出できる。本実施形態では、ラベル情報がない学習データを2つの特徴(第一の部分特徴量(ラベル特徴量)と、第二の部分特徴量(ラベル以外特徴量))に分けて、ラベル特徴量をランダムに交換して再構成誤差を算出することで、その学習データの潜在的な共通特徴を求めることができる。なお、共通特徴とは、例えば、犬の画像群であれば、犬という情報が共通特徴であり、ある人の手書き文字の画像群であれば、その人の書き方の情報が共通特徴であり、あるいはデータセットであるImagenetのような自然画像を学習データであれば、自然画像という概念が共通特徴である。これにより、本実施形態は、ラベルが付与されていない学習データにも適用ができる。
この場合の処理は、学習装置1が、例えば、対象データから特徴量を抽出し、抽出された特徴量を再構成し再構成データを取得し、対象データと再構成データとの差である再構成誤差を、所定のデータ群が共通して有する特徴を前記対象データが有する度合いとして出力する。学習装置1は、再構成の際、所定のデータ群に属するデータから得られた特徴量を、第一の部分特徴量と、第二の部分特徴量と、に分離し、前記第二の部分特徴量を、所定のデータ群に属する別のデータから抽出された第二の部分特徴量と交換し、交換後特徴量を取得する。そして、学習装置1は、交換後特徴量を再構成したデータと、所定のデータ群に属するデータとの差が小さくなるよう最適化する。
次に、第1の実施形態に加えて第2の実施形態の処理と本実施形態の処理を行う場合の効果を示す一例を図14~16に示す。なお、図14~図16では、学習データ、分類すべきデータが画像データの例である。
図14は、第1の実施形態に加えて第2の実施形態の処理と本実施形態の処理を行う場合のラベル特徴量とラベル以外特徴量の一例を示す図である。図15は、第1の実施形態に加えて第2の実施形態の処理と本実施形態の処理を行う場合の原画と再構成した画像の一例を示す図である。図16は、第1の実施形態に加えて第2の実施形態の処理と本実施形態の処理を行う場合の原画とラベル特徴量以外を交換した時の再構成した画像の一例を示す図である。
図14~図16のように、第1の実施形態に加えて第2の実施形態の処理を行う場合は、ラベル以外の特徴にラベルの情報が乗っていない。また、第1の実施形態に加えて本実施形態の処理を行う場合は、ラベル特徴量にラベル特徴以外の情報が乗っていない。これにより、第2実施形態と本実施形態とによれば、ラベル情報とラベル以外情報を明確に分離することができる。
(変形例)
なお、上述した各実施例において、特徴を分離する対象のデータが画像データに限らず、他のデータであってもよい。また、画像データは、静止画であっても動画であってもよい。
また、上述した各実施形態によれば、データを任意の特徴に分離できるため、特定の特徴を持ったデータを生成したり、特定の特徴を編集して再構成したりすることができる。これにより、上述した各実施形態は、任意の特徴についてデータ生成したり編集することができる(データのDisentanglement)。
また、上述した各実施形態によれば、ラベル情報とそれ以外の情報に分離し、更にラベル情報を連続空間での値として抽出できるため、未学習クラスの認識等へ応用が可能である。これにより、上述した各実施形態は、少数データのクラスを認識するFew-shot学習の精度を向上させることができる。
通常の転移学習では、例えばImagenetのクラス分類問題で学習する等、クラス分類タスクに特化した特徴を再利用する。しかし、別のタスクで必要な情報が失われてしまう可能性がある。これに対して、上述した各実施形態によれば、データを再現するのに過不足なく特徴を得ているため、様々なタスクへ転移学習しても必要な情報が失われないため、精度を向上させることができる。これにより、上述した各実施形態は、転移学習の精度を向上させることができる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、データの特徴の分離、データの生成、データの編集、データのクラスの認識、転移学習等に適用可能である。
1…学習装置、2…分類部、3…処理部、11…サンプリング部、12…エンコード部、13…ラベル特徴量抽出部、14…ラベル以外特徴量抽出部、15…ラベル特徴量交換部、16…特徴結合部、17…デコード部、18…再構成誤差算出部、19…デコード部、20…再構成誤差算出部、21…ラベル以外特徴量交換部、22…特徴結合部、23…デコード部、24…エンコード部、25…ラベル特徴量抽出部、26…分類誤差算出部、27…最適化部

Claims (6)

  1. 学習に用いる学習データから得られた潜在変数をラベル特徴量とラベル以外特徴量とに分類する分類部と、
    前記分類部によって分類されたラベル特徴量とラベル以外特徴量をデコーダパラメータを用いてデコードして再構成データを生成するデコード部と、
    前記ラベル特徴量を用いて、前記ラベル特徴量と分類に用いられるラベル情報との分類誤差を最小化し、前記ラベル特徴量と前記ラベル以外特徴量とを用いて再構成誤差を最小化するように前記デコーダパラメータを最適化する最適化部と、
    を備える学習装置。
  2. 前記ラベル以外特徴量は、M-C(Cは1以上の整数、Mは2以上の整数)個のパラメータから構成され、
    前記ラベル以外特徴量の各パラメータをバッチ処理内の前記学習データとランダムに交換するラベル以外特徴量交換部と、
    前記交換されたラベル以外特徴量と前記ラベル特徴量とを結合する特徴結合部と、
    前記デコード部が前記結合された特徴量をデコードして生成した前記再構成データをエンコードして特徴量を生成するエンコード部と、
    前記特徴量からラベル特徴量を抽出するラベル特徴量抽出部と、
    前記ラベル特徴量抽出部によって抽出されたラベル特徴量を用いて前記分類誤差を算出する分類誤差算出部と、を更に備え、
    前記最適化部は、
    前記ラベル特徴量抽出部によって抽出されたラベル特徴量を用いて前記分類誤差を最小化する、
    請求項1に記載の学習装置。
  3. 前記分類部は、オートエンコーダを備える、
    請求項1または請求項2に記載の学習装置。
  4. 前記分類誤差は、次式においてLlabel,swapで表される値であり、
    Figure 0007436928000006
    前記(zyi,label) ̄はバッチサンプルの中でラベル情報がyiであるサンプルのラベル特徴量zi,labelを平均化したものであり、前記Kは分類ラベル数であり、前記(zi,label(swap_wo_label)^は前記再構成データをエンコードして得られるラベル特徴量であり、B(Bは1以上の整数)はバッチサイズであり、前記dは2つのベクトル間の距離を算出する任意の関数である、
    請求項2に記載の学習装置。
  5. 分類部が、学習に用いる学習データから得られた潜在変数をラベル特徴量とラベル以外特徴量とに分類し、
    デコード部が、前記分類部によって分類されたラベル特徴量とラベル以外特徴量をデコーダのパラメータを用いてデコードして再構成データを生成し、
    最適化部が、前記ラベル特徴量を用いて、前記ラベル特徴量と分類に用いられるラベル情報との分類誤差を最小化し、前記ラベル特徴量と前記ラベル以外特徴量とを用いて再構成誤差を最小化するように前記デコーダパラメータを最適化する、
    学習方法。
  6. コンピュータに、
    学習に用いる学習データから得られた潜在変数をラベル特徴量とラベル以外特徴量とに分類させ、
    前記分類されたラベル特徴量とラベル以外特徴量をデコーダのパラメータを用いてデコードして再構成データを生成させ、
    前記ラベル特徴量を用いて、前記ラベル特徴量と分類に用いられるラベル情報との分類誤差を最小化し、前記ラベル特徴量と前記ラベル以外特徴量とを用いて再構成誤差を最小化させて前記デコーダパラメータを最適化する、
    プログラム。
JP2022561707A 2020-11-10 2020-11-10 学習装置、学習方法およびプログラム Active JP7436928B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/041848 WO2022101961A1 (ja) 2020-11-10 2020-11-10 学習装置、学習方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2022101961A1 JPWO2022101961A1 (ja) 2022-05-19
JP7436928B2 true JP7436928B2 (ja) 2024-02-22

Family

ID=81602394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022561707A Active JP7436928B2 (ja) 2020-11-10 2020-11-10 学習装置、学習方法およびプログラム

Country Status (3)

Country Link
US (1) US20240020530A1 (ja)
JP (1) JP7436928B2 (ja)
WO (1) WO2022101961A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012258A (ja) 2014-06-30 2016-01-21 富士ゼロックス株式会社 学習プログラム及び情報処理装置
JP2019061512A (ja) 2017-09-27 2019-04-18 株式会社Abeja データの特徴を利用してデータを処理するシステム
JP2019200551A (ja) 2018-05-15 2019-11-21 株式会社日立製作所 データから潜在因子を発見するニューラルネットワーク

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012258A (ja) 2014-06-30 2016-01-21 富士ゼロックス株式会社 学習プログラム及び情報処理装置
JP2019061512A (ja) 2017-09-27 2019-04-18 株式会社Abeja データの特徴を利用してデータを処理するシステム
JP2019200551A (ja) 2018-05-15 2019-11-21 株式会社日立製作所 データから潜在因子を発見するニューラルネットワーク

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
細江 麻梨子,条件付きAutoEncorderによる書き癖抽出手法の提案,情報処理学会 第80回 全国大会講演論文集,第2018巻 第1号 2C-06,日本,一般社団法人 情報処理学会,2018年03月13日,P. 2-37 ~ 2-38

Also Published As

Publication number Publication date
JPWO2022101961A1 (ja) 2022-05-19
US20240020530A1 (en) 2024-01-18
WO2022101961A1 (ja) 2022-05-19

Similar Documents

Publication Publication Date Title
Komura et al. A recurrent variational autoencoder for human motion synthesis
Perarnau et al. Invertible conditional gans for image editing
Cheung et al. Discovering hidden factors of variation in deep networks
US20220121931A1 (en) Direct regression encoder architecture and training
EP3298576B1 (en) Training a neural network
Rasmus et al. Semi-supervised learning with ladder networks
Qi et al. Avt: Unsupervised learning of transformation equivariant representations by autoencoding variational transformations
Wu et al. The kanerva machine: A generative distributed memory
Liu et al. Feature-level frankenstein: Eliminating variations for discriminative recognition
Creswell et al. Adversarial information factorization
US20200074273A1 (en) Method for training deep neural network (dnn) using auxiliary regression targets
CN113077388B (zh) 一种数据增广的深度半监督超限学习图像分类方法及系统
KR20200052453A (ko) 딥러닝 모델 학습 장치 및 방법
JPWO2002054758A1 (ja) 適応型予測符号化、復号化方法およびそれらの装置ならびに適応型予測符号化、復号化プログラム
Bartunov et al. Fast adaptation in generative models with generative matching networks
KR102366302B1 (ko) 준 지도 학습을 위한 오토인코더 기반 그래프 설계
WO2021161405A1 (ja) 異常データ生成装置、異常データ生成モデル学習装置、異常データ生成方法、異常データ生成モデル学習方法、プログラム
Rezaei et al. G-lbm: Generative low-dimensional background model estimation from video sequences
Ren et al. How to prepare your task head for finetuning
JP7436928B2 (ja) 学習装置、学習方法およびプログラム
Hu et al. Labeling of human motion based on CBGA and probabilistic model
Drefs et al. Direct evolutionary optimization of variational autoencoders with binary latents
JP7513918B2 (ja) 学習装置、学習方法およびプログラム
WO2022074840A1 (ja) ドメイン特徴抽出器学習装置、ドメイン予測装置、学習方法、学習装置、クラス識別装置及びプログラム
WO2021250774A1 (ja) 学習装置、予測装置、学習方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R150 Certificate of patent or registration of utility model

Ref document number: 7436928

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150