JP6781415B2 - ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置 - Google Patents

ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置 Download PDF

Info

Publication number
JP6781415B2
JP6781415B2 JP2019505609A JP2019505609A JP6781415B2 JP 6781415 B2 JP6781415 B2 JP 6781415B2 JP 2019505609 A JP2019505609 A JP 2019505609A JP 2019505609 A JP2019505609 A JP 2019505609A JP 6781415 B2 JP6781415 B2 JP 6781415B2
Authority
JP
Japan
Prior art keywords
neural network
learning
hostile
features
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019505609A
Other languages
English (en)
Other versions
JPWO2018167900A1 (ja
Inventor
雅人 石井
雅人 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018167900A1 publication Critical patent/JPWO2018167900A1/ja
Application granted granted Critical
Publication of JP6781415B2 publication Critical patent/JP6781415B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Description

本発明はニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置に関する。
パターン認識技術とは、入力されたパターンがどのクラスに属するパターンであるかを推定する技術である。具体的なパターン認識の例としては、画像を入力として写っている物体を推定する物体認識や、音声を入力として発話内容を推定する音声認識などが挙げられる。
パターン認識技術として統計的機械学習が広く利用されている。統計的機械学習の中で、特にニューラルネットワークは、近年、ディープラーニング(deep learning)と呼ばれる学習技術の発達により、深層ネットワークの学習が可能となり、入力パターンの変動に頑健な認識を行うことができることが知られている。
周知のように、機械学習は大きく分けて、教師有り学習(supervised learning)と、教師無し学習(unsupervised learning)との2つに分類される。教師有り学習では、正解付きデータ(訓練データや教師データとも呼ばれる)を機械に自動的に解析させ、算出した特徴量を正解に分類させることで正解と特徴量の関係を学習する。換言すれば、教師有り学習は、「入力」と「正しい出力(分け方)」がセットになった訓練データを予め用意して、ある入力が与えられたときに、正しい出力(分け方)ができるようにコンピュータ(機械)に学習させる。これに対して、教師無し学習では、入力データ(学習データ)のみで学習を行い、学習データから抽出した特徴量から本質的な構造を学習する。換言すれば、教師無し学習は、入力用のデータ(学習データ)のみを与え、データに内在する構造をつかむために用いられる。
機械学習は、ニューラルネットワークをつくる「学習フェーズ」と、できあがったニューラルネットワークを使って正解を出す「認識フェーズ」又は「予測フェーズ」との2つに分かれる。公知の機械学習では人間が特徴量の設計をしなければならなかったのに対し、ディープラーニングは自動で学習データから特徴量を取得(獲得)して学習する。
本発明に関連する先行技術文献が種々知られている。
特許文献1は、ニューラルネットワークの構造を最適化することが可能な「ニューラルネットワーク学習装置」を開示している。特許文献1に開示されたニューラルネットワーク学習装置は、初期構造取得部と、演算部とを有する。演算部は、データベース、学習部、及び中間層生成部を備えている。データベースは、複数の学習データ(学習サンプルとも称される)を予め記憶して格納している。学習部は、学習データ読込部と、結合荷重修正部と、ニューロン生成部と、ニューロン生滅部とを有している。中間層生成部は、中間層生成処理を実行する。中間層生成処理では、例えばニューラルネットワークにおいて最も出力層側の中間層と出力層との間に、追加中間層を中間層として新たに生成する。
演算部は、初期構造取得部で取得した初期構造のニューラルネットワークを有している。ニューロン生成部は、生成対象中間層である中間層に新たなニューロンを1つ生成する。
特許文献2は、複数の分類カテゴリの全てに対して十分な数の教師画像を準備することができない場合でも、効果的に学習を行うことのできる「教師データ作成方法」を開示している。特許文献2に開示された教師データ作成方法は、教示工程と、一次作成工程と、二次作成工程とを備える。教示工程は、複数の教師画像のそれぞれに対して、複数の分類カテゴリのうち当該教師画像が分類されるべき一の分類カテゴリを関連付ける。一次作成工程は、複数の分類カテゴリのうち少なくとも1つを対象カテゴリとして、当該対象カテゴリに関連付けられた教師画像について求めた複数種の特徴量の値の組を、当該対象カテゴリと関連付けられた教師データとする。二次作成工程は、一の教師データに基づき、複数種の特徴量からなる特徴空間において当該教師データが占める点からの距離が所定距離以内である点に対応する新たな特徴量の値を生成し、それらの特徴量の値と対象カテゴリとを関連付けて新たな教師データとする。
特許文献2において、教師データに対応する点を体心とする超立方体の頂点とする方法では、当該教師データを表す各種特徴量の少なくとも1つにおいてその値に所定値を加算することのみによって新たな教師データを生成することができる。教師画像の数が少ない分類カテゴリを対象カテゴリとして教師データの補充を行うようにすれば、教師データ数の不均衡に起因する過学習の不都合を効果的に回避することが可能である。事前学習処理は、必要に応じて教師データを補充して再学習を行うことができるように構成されている。また、既に存在する教師データが特徴量空間において占める点の近傍に、補充により作成される新たな教師データに対応する点を派生させることにより、教師データの補充を行う。すなわち、実画像として欠陥画像を模した画像を生成することはすいない。このため、特徴量空間における既存の教師データからの新たな教師データまでの距離を限定されたものとすることができる。
また、特許文献2は、特徴量算出部と、欠陥分類部とを含む欠陥分類装置(画像分類装置)を開示している。特徴量算出部は欠陥画像を特徴付ける複数の特徴量の値を算出する。欠陥分類部は、算出された特徴量の値に基づき、事前学習により構成された分類器を用いて当該欠陥画像を複数の分類カテゴリのいずれかに分類する。欠陥分類部は、検出された欠陥をSVM(サポートベクタマシン;Support Vector Machine)、ニューラルネットワーク、決定木、判別分析等の学習アルゴリズムを利用して分類する処理をソフトウェア的に実行する。
特許文献3は、パターン認識の処理の精度を保ち、かつ、高速化することができる「パターン認識用辞書生成装置」を開示している。特許文献3に開示されたパターン認識用辞書生成装置は、プロセッサと、このプロセッサに接続された記憶媒体とを備える。記憶媒体には、複数の学習用のパターンから構成される学習用パターンデータベースが格納されている。パターン認識用辞書生成装置は、パターン入力部と、n次元特徴を抽出する特徴抽出部と、特徴選択辞書生成部と、特徴選択部と、識別関数生成部と、識別関数主要部分抽出部とを備える。
このパターン認識用辞書生成装置において、特徴選択辞書生成部は、m次元特徴にn次元特徴を変換する特徴選択関数を生成し、特徴選択用辞書として記憶媒体に格納する。特徴選択部は、特徴選択関数を用いて、抽出されたn次元特徴をm次元特徴に変換する。識別関数生成部は、パターンの類似度を算出するための詳細識別関数を生成し、識別用辞書として記憶媒体に格納する。識別関数主要部分抽出部は、まず、n次元特徴空間の部分空間で、かつ、m次元特徴空間の部分空間であるL次元特徴空間上のL次元特徴にm次元特徴を変換する大分類特徴選択関数を生成する。引き続いて、識別関数主要部分抽出部は、詳細識別関数をL次元特徴空間上の関数として変換することによって、L次元特徴空間上で各カテゴリに対する認識対象のパターンの類似度を算出するための大分類識別関数を生成する。そして、識別関数主要部分抽出部は、大分類特徴選択関数を特徴選択用辞書として記憶媒体に格納し、大分類識別関数を識別用辞書として記憶媒体に格納する。
パターン認識では、認識処理の高速化のため、まず、高速に計算できる大分類識別関数によって、正解候補カテゴリを絞る粗い認識処理が実行される。その後、正解候補カテゴリとして詳細識別関数を用いて、正解候補カテゴリの各々に対する入力パターンの類似度が算出され、最終的な認識結果が出力される。パターン認識装置は、学習フェーズにおいて、大分類用特徴変換関数と大分類識別関数とをそれぞれ特徴選択用辞書と識別用辞書とに出力する識別関数主要部分抽出部を備える。
特開2017−037392号公報 特開2014−178229号公報 特開2011−008634号公報
深層ネットワークを学習する際には、一般的に大量の学習データを必要とし、少数の学習データで学習することは困難である。その理由は、深層ネットワークでは学習すべきパラメータが非常に多く、学習データが少数の場合、過学習によって汎化性能が大きく低下するためである。この問題を解決するために最も良く採用される方法は、学習データを加工して擬似的にデータを増やす方法である。
学習データを加工して擬似的にデータを増やす方法には、大きく2種類の方法がある。1つの方法は「データ拡張方法」であり、もう1つの方法は「敵対的パターン生成方法」である。
データ拡張方法は、学習データに摂動(例えば、並進移動、回転、スケール変化など)を加えることでデータを生成する手法である。データ拡張方法による生成では、実際にニューラルネットワークに入力され得るデータを生成できる。しかしながら、一方で、データ拡張方法による生成では、ニューラルネットワークの学習の改善に寄与するデータを生成するとは限らず、効率的ではないという問題がある。
敵対的パターン生成方法は、学習データに対して機械による認識が困難になるように人工的な微小ノイズを付加する方法である。しかしながら、敵対的パターン生成方法では、生成されるデータが学習データの分布に沿っているかを考慮していないため、実際には存在しえないノイジーなデータを生成してしまう場合がある。その結果、敵対的パターン生成方法では、ニューラルネットワークの学習の改善に寄与するデータを効率的に生成することが難しい。
一方、前述した特許文献1〜3には、それぞれ、次に述べるような問題がある。
特許文献1は、単に、追加中間層を中間層として新たに生成するなどして、ニューラルネットワークの構造を最適化する技術を開示しているに過ぎない。すなわち、特許文献1は、学習データを増加する手法について何ら開示も示唆もしていない。
特許文献2は、教師データ数の不均衡に起因する過学習等の不都合を効果的に回避するために、教師画像の数が少ない分類カテゴリを対象カテゴリとして教師データの補充を行なう技術的思想を開示している。すなわち、特許文献2では、前述したデータ拡張方法と同様に、教師データを表す各種特徴量の少なくとも1つにおいてその値に所定値を加算することで新たな教師データを生成している。その結果、上記データ拡張方法と同様に、特許文献2の開示の技術的思想では、ニューラルネットワークの学習の改善に寄与するデータを生成するとは限らず、効率的ではないという問題がある。
特許文献3は、学習フェーズにおいて、識別関数主要部分抽出部が、m次元特徴をL次元特徴に変換する大分類用特徴変換関数と、L次元特徴空間上で各カテゴリに対する認識対象のパターンの類似度を算出するための大分類識別関数とを生成する、技術的思想を開示しているに過ぎない。また、特許文献3は、ニューラルネットワークを学習してはいないし、学習データを加工する手法についても何ら開示も示唆もしていない。
[発明の目的]
本発明の目的は、学習データが少数の場合に、学習データを加工することで、学習の改善に寄与するデータを効率的に生成し、これを学習することで性能の高いニューラルネットワークを学習することにある。
本発明のニューラルネットワーク学習装置は、学習中のニューラルネットワークを用いて学習データから特徴を抽出する特徴抽出部と、前記抽出した特徴から前記学習中のニューラルネットワークを用いて敵対的特徴を生成する敵対的特徴生成部と、前記抽出した特徴と前記敵対的特徴とを用いて前記ニューラルネットワークの認識結果を算出するパターン認識部と、前記認識結果が望ましい出力に近づくように前記ニューラルネットワークを学習するネットワーク学習部とを備える。
本発明の効果は、学習データを加工することで、学習の改善に寄与するデータを効率的に生成し、これを学習することで性能の高いニューラルネットワークを学習できる点である。
本発明の一実施形態に係るニューラルネットワーク学習装置の構成を示すブロック図である。 図1に示したニューラルネットワーク学習装置の動作を説明するためのフローチャートである。 ニューラルネットワークの一例を示す図である。 学習データから特徴を抽出する一例を示す図である。 学習すべきニューラルネットワークの一例を示す図である。 図1に示したニューラルネットワーク学習装置を用いて生成されたデータ(学習の改善に寄与するデータ)を説明するための図である。 関連技術における敵対的パターン生成方法により生成されたデータ(現実には存在しえないデータ)を説明するための図である。 関連技術におけるデータ拡張方法により生成されたデータ(学習の改善に寄与しないデータ)を説明するための図である。
[構成の説明]
図1は、本発明の一実施の形態に係るニューラルネットワーク学習装置10の構成を示すブロック図である。図示のニューラルネットワーク学習装置10は、特徴抽出部12と、敵対的特徴生成部14と、パターン認識部16と、ネットワーク学習部18とから成る。
特徴抽出部12は、学習中のニューラルネットワークを用いて学習データから特徴を抽出する。敵対的特徴生成部14は、特徴抽出部12で抽出した特徴から学習中のニューラルネットワークを用いて敵対的特徴を生成する。パターン認識部16は、抽出した特徴と敵対的特徴とを用いてニューラルネットワークの認識結果を算出する。ネットワーク学習部18は、認識結果が望ましい出力に近づくようにニューラルネットワークを学習する。ここで、抽出した特徴と敵対的特徴との組み合わせは、学習データを加工することによって生成されたデータに相当する。
[動作の説明]
図1と図2を参照して、本実施形態の動作について詳細に説明する。図2は、図1に示したニューラルネットワーク学習装置10の動作を説明するためのフローチャートである。
特徴抽出部12は、現在学習中のニューラルネットワークを用いて、入力された学習データから特徴を抽出する(ステップS101)。敵対的特徴生成部14は、特徴抽出部12で抽出された特徴に対して、現在学習中のニューラルネットワークによる認識が難しくなるように摂動を付加し、敵対的特徴を生成する(ステップS102)。パターン認識部16は、特徴抽出部12で抽出された特徴と敵対的特徴生成部14で生成された敵対的特徴のそれぞれについて、現在学習中のニューラルネットワークを用いた認識結果を算出して出力する(ステップS103)。ネットワーク学習部18は、パターン認識部16から出力された認識結果が望ましい認識結果となるようにニューラルネットワークを更新して学習する(ステップS104)。
本実施形態の効果について説明する。本実施形態の効果は、特徴空間上で敵対的特徴を生成して学習データを加工することで、学習の改善に寄与するデータを効率的に生成し、このように生成されたデータを用いてニューラルネットワークを学習することで性能の高いニューラルネットワークを学習できる点である。
その理由は次の通りである。特徴空間は学習データの分布を良く表現する空間である。そのため、特徴空間上に存在するパターンの近傍は、そのパターンと意味が類似しているパターンの集合であると考えられる。したがって、特徴空間上で敵対的特徴を生成することで、パターンの意味が類似したパターンの中で、最も認識が難しいパターンを生成することができ、ニューラルネットワークの学習の改善に寄与するデータを効率的に生成することができるからである。
関連技術の方法と比較した時の本実施形態の効果を、図6〜8を用いて具体例を元に詳細に説明する。この例では2次元の入力パターンに対して、●と×の2クラスを識別する場合を示している。また、データは2次元で表現されているが、実際には点線で示す1次元の部分空間にしか存在しないとする。このように、学習データが特徴空間の部分空間にしか分布しないという状況は、パターン認識の分野では一般的に起こりうる。
関連技術のデータ拡張方法を用いてデータを生成した場合、データに起こり得る摂動を事前に指定してデータを生成する。このため、データ拡張方法は、図8のように学習データの分布(図中の点線)に沿ったデータを生成できる。しかしながら、データ拡張方法は、ニューラルネットワークの学習の改善に寄与するかどうかを考慮していない。その結果、データ拡張方法では効率的にニューラルネットワークの学習の性能を向上することが難しいという問題がある。
一方、関連技術の敵対的パターン生成方法では、識別が難しくなるようにデータを生成する。このため、敵対的パターン生成方法は、図7のように識別境界に近いデータを生成することができる。しかしながら、敵対的パターン生成方法は、生成されるデータが学習データの分布に沿っているかを考慮していない。その結果、敵対的パターン生成方法では、実際には存在しえないデータ(点線上以外のデータ)を生成してしまい、そのように生成されたデータはニューラルネットワークの学習の改善には必ずしも寄与しない。
これに対して、本実施形態では、図6に示すように、学習データの分布を良く表現する1次元の特徴空間上で敵対的特徴を生成する。このため、本実施形態は、学習データの分布に沿い、かつ識別境界に近いデータを生成するように、学習データを加工することができる。その結果、この加工して得られたデータを使用してニューラルネットワークを学習することにより、効率的にニューラルネットワークの性能を向上できる。
次に、本発明の理解を更に容易にするために、本実施形態と上記特許文献1〜3に記載の発明との間の相違点について説明する。
特許文献1に開示された発明では、ニューラルネットワークの構造を修正することによって、ニューラルネットワークの構造を最適化している。これに対して、本実施形態では、ニューラルネットワークの構造を修正することなく、ニューラルネットワークに入力されるべき学習データを加工し、加工して生成されたデータを用いてニューラルネットワークを学習している。
特許文献2に開示された発明では、欠陥分類部のニューラルネットワーク等の学習アルゴリズムを使用することなく、専用の特徴量算出部が特徴量の値を算出している。これに対して、本実施形態では、特徴抽出部12が、学習中のニューラルネットワークを用いて学習データから特徴を抽出している。また、特許文献2に開示された発明では、事前学習において、教師データ数が不足している場合に、教師データの近傍に新たな教師データを生成(補充)している。これに対して、本実施形態では、新たな教師データ(学習データ)を生成(補充)しているのではなく、ニューラルネットワークに供給される学習データを加工して、ニューラルネットワークの学習の改善に寄与するデータを効率的に生成している。
特許文献3に開示された発明では、特徴抽出部がn次元特徴を抽出しているが、抽出するために具体的にどのようなアルゴリズムを使用しているかについては記載していない。これに対して、本実施形態では、特徴抽出部が、学習中のニューラルネットワークを用いて学習データから特徴を抽出している。特許文献3に開示された発明では、複数の学習用のパターンからパターン認識用辞書を生成している。これに対して、本実施形態では、パターン認識用辞書を生成しているのではなく、学習データを使用し加工し、加工して生成されたデータを用いてニューラルネットワークを学習している。
このように、本実施形態と特許文献1〜3に記載された発明とは、解決しようとする課題、構成、および作用効果が全く相違する。
次に、具体的な第1の実施例を用いて、本発明を実施するための形態の動作を説明する。本第1の実施例では、図3に示すニューラルネットワーク30を学習する例を示す。
ニューラルネットワーク30は、入力層31と、中間層32と、出力層33とから成る。入力層31には2次元の学習パターンが入力される。ニューラルネットワーク30は、1つの隠れユニットを持つ中間層32を経て、出力層33から2クラスの識別結果であるクラスごとの確率を出力する。本例では、層31〜33の間は全て全結合とし、活性化関数は恒等関数とする。
特徴抽出部12では、ニューラルネットワーク30を用いて、学習データから特徴を抽出する。図3のニューラルネットワーク30を用いる場合、特徴抽出部12は、図4に示すように、2次元の入力パターンから点線で示す1次元の特徴を抽出する。
敵対的特徴生成部14では、特徴抽出部12で抽出した特徴と現在学習中のニューラルネットワーク30を用いて敵対的特徴を生成する。図3のニューラルネットワーク30では、中間層32で抽出した1次元の特徴量を用いて閾値処理によって識別を行っているため、敵対的特徴生成部14は、特徴が閾値に近づくように摂動を付加して敵対的特徴を生成する。例えば、敵対的特徴生成部14は、図4中の特徴Aに対しては、出力層33の●のクラスに属する確率を出力するユニットの出力が小さくなり、×のクラスに属する確率を出力するユニットの出力が大きくなるように、敵対的特徴A’を生成する。
パターン認識部16では、特徴抽出部12で抽出された特徴と敵対的特徴生成部14で生成された敵対的特徴のそれぞれについて、学習中のニューラルネットワーク30を用いた認識結果を算出する。図4の例では、パターン認識部16は、特徴Aを正しく●のクラスと識別するが、敵対的特徴A’を×のクラスと識別する。
ネットワーク学習部18では、パターン認識部16から出力された認識結果が望ましい認識結果となるようにニューラルネットワーク30を更新して学習する。図4の例では、ネットワーク学習部18は、敵対的特徴A’を●のクラスと識別されるように、識別境界(特徴量の閾値)が右にずれるように学習する。
このように、本第1の実施例では、敵対的特徴を学習データの存在する部分空間内で生成してニューラルネットワークを学習することで、識別境界をサンプルから大きく遠ざけることができる。その結果、マージンが大きく汎化性能の高いニューラルネットワークを学習することができる。
次に、中間層が多層になった場合の第2の実施例について、発明を実施するための形態の動作を説明する。本第2の実施例では、図5に示すニューラルネットワーク50を学習する例を示す。
ニューラルネットワーク50は、入力層51と、中間層52と、出力層53とから成る。このようなニューラルネットワーク50では、入力層51には学習パターンが入力され、出力層53から認識結果が出力される。中間層52はH1層521、H2層522、H3層523、およびH4層524の4層からなる。
特徴抽出部12では、現在学習中のニューラルネットワーク50を用いて、学習データから特徴を抽出する。図5のニューラルネットワーク50を用いる場合、特徴抽出部12は、例えば中間層52からランダムに1層選択し、その中間層52の値を特徴として出力する。ここでは、特徴抽出部12は、H3層523の値を特徴として出力したとする。
入力パターンをx、学習中のネットワークのパラメータをθとすると、抽出する特徴zは以下のように書ける。
Figure 0006781415
ただし、f(x|θ,A,B)は、θをパラメータとするネットワークにおいてA層の値をxとした時のB層の値を算出する操作である。特徴を出力する中間層52の選択は、ランダムに行っても良いし、事前に決めた方法に従って決定論的に決めても良い。
敵対的特徴生成部14では、特徴抽出部12で抽出した特徴と現在学習中のニューラルネットワーク50を用いて敵対的特徴を生成する。敵対的特徴を生成する方法としては、関連技術の敵対的パターン生成方法と同様の方法を用いることができる。例えば、Virtual Adversarial Training(VAT)を用いた場合、zに対する敵対的特徴z’は、以下のように生成される。
Figure 0006781415
ここで、f(z|θ,H3,Out)とf(z+r|θ,H3,Out)はいずれも出力層の出力であるため、入力パターンが所属するクラスの確率分布となっている。KL(p,q)は2つの離散確率分布pとqの間のKLダイバージェンスを算出する関数である。
Figure 0006781415
ただし、iは確率分布のインデックスであり、本第2の実施例では出力層53のユニットのインデックスである。
本第2の実施例では、敵対的特徴生成部14は、大きさがε以下の摂動のうち、出力層53の値が最も大きく変化するような摂動をzに付加することで、敵対的特徴を生成している。
パターン認識部16では、特徴抽出部12で抽出された特徴と敵対的特徴生成部14で生成された敵対的特徴のそれぞれについて、学習中のニューラルネットワーク50を用いた認識結果を算出する。本第2の実施例では、パターン認識部16は、zとz’についてそれぞれ出力層53の値を計算する。
Figure 0006781415
ここで、yは元の学習データに対する認識結果、y’は敵対的特徴に対する認識結果である。
ネットワーク学習部18では、パターン認識部16から出力された認識結果が望ましい認識結果となるようにニューラルネットワーク50を更新して学習する。ネットワークの更新方法は、一般的に良く用いられる誤差逆伝播法に基づく勾配法などを用いることができる。例えば、最も単純な最急降下法を用いた場合、ニューラルネットワークのパラメータは以下のように更新される。
Figure 0006781415
ここで、tは望ましい認識結果を示す教師信号、μは学習率である。
このように、本第2の実施例でも、敵対的特徴を学習データの存在する部分空間内で生成してニューラルネットワークを学習することで、識別境界をサンプルから大きく遠ざけることができる。その結果、マージンが大きく汎化性能の高いニューラルネットワークを学習することができる。
次に、本発明の第3の実施例について説明する。敵対的特徴を更に学習データの分布に沿わせるため、敵対的特徴あるいは敵対的特徴を生成するための摂動に対して制約を導入することもできる。
上記第1の実施例においては、敵対的特徴を生成するための摂動r*に対する制約は、大きさがε以下であるという拘束条件だけであった。これに対して、本第3の実施例では、例えば、学習データの線形結合で表現できるという拘束条件を導入している。線形結合の係数をcとすると、摂動rは以下のように書ける。
Figure 0006781415
ただし、Zは学習データから抽出した特徴(z_1,…,z_M)を並べた行列である。この時、敵対的特徴z’は以下のように生成できる。
Figure 0006781415
このように、本第3の実施例でも、敵対的特徴を学習データの存在する部分空間内で生成してニューラルネットワークを学習することで、識別境界をサンプルから大きく遠ざけることができる。その結果、マージンが大きく汎化性能の高いニューラルネットワークを学習することができる。
このように学習して得られたニューラルネットワークを用いることによって、パターン認識装置を実現することが可能である。すなわち、パターン認識装置は、上述したニューラルネットワーク学習装置10を用いて学習したニューラルネットワーク30又は50に基づいて、パターン認識を行う。
尚、ニューラルネットワーク学習装置10の各部(各構成要素)は、ハードウェアとソフトウェアとの組み合わせを用いて実現すればよい。ハードウェアとソフトウェアとを組み合わせた形態では、RAM(random access memory)にニューラルネットワーク学習プログラムが展開され、該プログラムに基づいて制御部(CPU(central processing unit))等のハードウェアを動作させることによって、各部(各構成要素)を各種手段として実現する。また、該プログラムは、記録媒体に記録されて頒布されても良い。当該記録媒体に記録されたプログラムは、有線、無線、又は記録媒体そのものを介して、メモリに読込まれ、制御部等を動作させる。尚、記録媒体を例示すれば、オプティカルディスクや磁気ディスク、半導体メモリ装置、ハードディスクなどが挙げられる。
上記実施の形態(実施例)を別の表現で説明すれば、ニューラルネットワーク学習装置10として動作させるコンピュータを、RAMに展開されたニューラルネットワーク学習プログラムに基づき、特徴抽出部12、敵対的特徴抽出部14、パターン認識部16、およびネットワーク学習部18として動作させることで実現することが可能である。
以上説明したように、本発明の実施の形態(実施例)によれば、少数の学習データでも効率よくニューラルネットワークを学習することができる。
また、本発明の具体的な構成は前述の実施の形態に限られるものではなく、この発明の要旨を逸脱しない範囲の変更があってもこの発明に含まれる。
以上、実施の形態および実施例を参照して本願発明を説明したが、本願発明は上記実施の形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
本発明は、画像処理や音声処理において、例えば顔認識や物体認識などのように、パターンを識別する用途に使用することができる。
10 ニューラルネットワーク学習装置
12 特徴抽出部
14 敵対的特徴生成部
16 パターン認識部
18 ネットワーク学習部
30 ニューラルネットワーク
31 入力層
32 中間層
33 出力層
50 ニューラルネットワーク
51 入力層
52 中間層
521 H1層
522 H2層
523 H3層
524 H4層
53 出力層

Claims (7)

  1. 学習中のニューラルネットワークを用いて学習データから特徴を抽出する特徴抽出部と、
    前記抽出した特徴から前記学習中のニューラルネットワークを用いて敵対的特徴を生成する敵対的特徴生成部と、
    前記抽出した特徴と前記敵対的特徴とを用いて前記ニューラルネットワークの認識結果を算出するパターン認識部と、
    前記認識結果が望ましい出力に近づくように前記ニューラルネットワークを学習するネットワーク学習部と、
    を備えるニューラルネットワーク学習装置。
  2. 前記敵対的特徴生成部は、前記学習データの線形結合で表現した拘束条件下で、前記敵対的特徴を生成する、請求項1に記載のニューラルネットワーク学習装置。
  3. 請求項1または2に記載のニューラルネットワーク学習装置を用いて学習したニューラルネットワークに基づいて、パターン認識を行うパターン認識装置。
  4. ニューラルネットワーク学習装置によって実行されるニューラルネットワーク学習方法であって、前記ニューラルネットワーク学習装置は、
    学習中のニューラルネットワークを用いて学習データから特徴を抽出するステップと、
    前記抽出した特徴から前記学習中のニューラルネットワークを用いて敵対的特徴を生成するステップと、
    前記抽出した特徴と前記敵対的特徴とを用いて前記ニューラルネットワークの認識結果を算出するステップと、
    前記認識結果が望ましい出力に近づくように前記ニューラルネットワークを学習するステップと、
    実行するニューラルネットワーク学習方法。
  5. 前記ニューラルネットワーク学習装置は、前記生成するステップ、前記学習データの線形結合で表現した拘束条件下で、前記敵対的特徴を生成する、請求項4に記載のニューラルネットワーク学習方法。
  6. 学習中のニューラルネットワークを用いて学習データから特徴を抽出する手順と、
    前記抽出した特徴から前記学習中のニューラルネットワークを用いて敵対的特徴を生成する手順と、
    前記抽出した特徴と前記敵対的特徴とを用いて前記ニューラルネットワークの認識結果を算出する手順と、
    前記認識結果が望ましい出力に近づくように前記ニューラルネットワークを学習する手順と、
    をコンピュータに実行させるニューラルネットワーク学習プログラム。
  7. 前記生成する手順は、前記コンピュータに、前記学習データの線形結合で表現した拘束条件下で、前記敵対的特徴を生成させる、請求項6に記載のニューラルネットワーク学習プログラム。
JP2019505609A 2017-03-16 2017-03-16 ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置 Active JP6781415B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/010560 WO2018167900A1 (ja) 2017-03-16 2017-03-16 ニューラルネットワーク学習装置、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2018167900A1 JPWO2018167900A1 (ja) 2019-11-07
JP6781415B2 true JP6781415B2 (ja) 2020-11-04

Family

ID=63522861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019505609A Active JP6781415B2 (ja) 2017-03-16 2017-03-16 ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置

Country Status (3)

Country Link
US (1) US11580383B2 (ja)
JP (1) JP6781415B2 (ja)
WO (1) WO2018167900A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11373091B2 (en) * 2017-10-19 2022-06-28 Syntiant Systems and methods for customizing neural networks
JP7063393B2 (ja) * 2018-10-05 2022-05-09 日本電気株式会社 教師データ拡張装置、教師データ拡張方法およびプログラム
JP7115207B2 (ja) * 2018-10-11 2022-08-09 富士通株式会社 学習プログラム、学習方法および学習装置
JP7028133B2 (ja) 2018-10-23 2022-03-02 オムロン株式会社 制御システムおよび制御方法
JP7059166B2 (ja) * 2018-11-29 2022-04-25 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP7279368B2 (ja) * 2019-01-17 2023-05-23 富士通株式会社 学習方法、学習プログラムおよび学習装置
JP7192895B2 (ja) * 2019-02-12 2022-12-20 日本電気株式会社 モデル構築装置、モデル構築方法、コンピュータプログラム及び記録媒体
JP6533021B1 (ja) * 2019-02-19 2019-06-19 株式会社東光高岳 アナログメータ諸元認識装置、コンピュータプログラム及びアナログメータ諸元認識方法
GB2581523A (en) * 2019-02-22 2020-08-26 Bae Systems Plc Bespoke detection model
EP3942384A4 (en) * 2019-03-18 2022-05-04 Zestfinance, Inc. SYSTEMS AND PROCEDURES FOR MODEL FAIRNESS
CN110070115B (zh) * 2019-04-04 2021-09-03 广州大学 一种单像素攻击样本生成方法、装置、设备及存储介质
JP7106486B2 (ja) * 2019-04-22 2022-07-26 株式会社東芝 学習装置、学習方法、プログラムおよび情報処理システム
JP7213754B2 (ja) * 2019-05-27 2023-01-27 株式会社日立製作所 情報処理システム、推論方法、攻撃検知方法、推論実行プログラム及び攻撃検知プログラム
US11831160B2 (en) * 2019-06-21 2023-11-28 Siemens Aktiengesellschaft Power load data prediction method and device, and storage medium
JP7454402B2 (ja) * 2020-02-20 2024-03-22 浜松ホトニクス株式会社 検出システムおよび学習方法
JP7252156B2 (ja) * 2020-02-28 2023-04-04 株式会社日立製作所 学習データ生成装置、及び学習データ生成方法
CN111460426B (zh) * 2020-04-02 2023-06-20 武汉大学 基于对抗演化框架的抗深度学习文本验证码生成系统及方法
EP3896612B1 (en) * 2020-04-14 2023-12-13 Robert Bosch GmbH Device and method for training a classifier
JP7475192B2 (ja) 2020-04-30 2024-04-26 株式会社日立製作所 識別器学習装置及び識別器学習方法
US11818147B2 (en) * 2020-11-23 2023-11-14 Fair Isaac Corporation Overly optimistic data patterns and learned adversarial latent features
JP6908907B1 (ja) * 2021-01-12 2021-07-28 株式会社エクサウィザーズ 情報処理装置、情報処理方法、およびプログラム
US20220237415A1 (en) * 2021-01-28 2022-07-28 International Business Machines Corporation Priority-based, accuracy-controlled individual fairness of unstructured text
JP2023001431A (ja) * 2021-06-21 2023-01-06 コニカミノルタ株式会社 学習装置、学習システム、機械学習モデルの学習方法及びプログラム
WO2023188790A1 (ja) * 2022-03-29 2023-10-05 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム
US20230340757A1 (en) * 2022-04-20 2023-10-26 Deere & Company System and method providing overlays for assisting coupling loaders with implements
US20230401492A1 (en) * 2022-06-13 2023-12-14 Gobubble Ltd Content moderation

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009032273A (ja) * 2008-08-29 2009-02-12 Olympus Corp 分類装置
JP5353482B2 (ja) 2009-06-26 2013-11-27 株式会社日立情報通信エンジニアリング パターン認識用辞書生成装置、パターン認識装置、及びパターン認識用辞書生成方法
JP2014178229A (ja) * 2013-03-15 2014-09-25 Dainippon Screen Mfg Co Ltd 教師データ作成方法、画像分類方法および画像分類装置
JP6189818B2 (ja) * 2014-11-21 2017-08-30 日本電信電話株式会社 音響特徴量変換装置、音響モデル適応装置、音響特徴量変換方法、音響モデル適応方法、およびプログラム
JP6287999B2 (ja) 2015-08-07 2018-03-07 トヨタ自動車株式会社 ニューラルネットワーク学習装置

Also Published As

Publication number Publication date
US11580383B2 (en) 2023-02-14
WO2018167900A1 (ja) 2018-09-20
JPWO2018167900A1 (ja) 2019-11-07
US20200193285A1 (en) 2020-06-18

Similar Documents

Publication Publication Date Title
JP6781415B2 (ja) ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置
US11741372B2 (en) Prediction-correction approach to zero shot learning
WO2022121289A1 (en) Methods and systems for mining minority-class data samples for training neural network
KR20180125905A (ko) 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치
CN109271958B (zh) 人脸年龄识别方法及装置
US20120093396A1 (en) Digital image analysis utilizing multiple human labels
JP7024515B2 (ja) 学習プログラム、学習方法および学習装置
CN112868032B (zh) 提升ai识别学习能力
Wang et al. An unequal deep learning approach for 3-D point cloud segmentation
JP7047498B2 (ja) 学習プログラム、学習方法および学習装置
JP2011150541A (ja) 学習装置、学習方法、及びプログラム
KR102370910B1 (ko) 딥러닝 기반 소수 샷 이미지 분류 장치 및 방법
TWI792560B (zh) 資訊處理裝置及資訊處理方法
CN112232395B (zh) 一种基于联合训练生成对抗网络的半监督图像分类方法
KR20190021095A (ko) 이미지 분류 장치와 방법 및 이미지 분류를 위한 이미지 학습 장치
García-Manso et al. Study of the effect of breast tissue density on detection of masses in mammograms
JPWO2019215904A1 (ja) 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム
JP2006127446A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN115063664A (zh) 用于工业视觉检测的模型学习方法、训练方法及系统
KR102018788B1 (ko) 이미지 분류 시스템 및 방법
Jena et al. Elitist TLBO for identification and verification of plant diseases
KR102646430B1 (ko) 분류기를 학습시키는 방법 및 이를 이용한 예측 분류 장치
KR20230127509A (ko) 콘셉트 기반의 퓨샷 학습 방법 및 장치
JP2021174471A (ja) 識別器学習装置及び識別器学習方法
Eicholtz et al. Recognizing planar kinematic mechanisms from a single image using evolutionary computation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200929

R150 Certificate of patent or registration of utility model

Ref document number: 6781415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150