JPWO2019102984A1 - 学習装置、識別装置及びプログラム - Google Patents

学習装置、識別装置及びプログラム Download PDF

Info

Publication number
JPWO2019102984A1
JPWO2019102984A1 JP2019555305A JP2019555305A JPWO2019102984A1 JP WO2019102984 A1 JPWO2019102984 A1 JP WO2019102984A1 JP 2019555305 A JP2019555305 A JP 2019555305A JP 2019555305 A JP2019555305 A JP 2019555305A JP WO2019102984 A1 JPWO2019102984 A1 JP WO2019102984A1
Authority
JP
Japan
Prior art keywords
learning
cell
target data
element values
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019555305A
Other languages
English (en)
Other versions
JP6908302B2 (ja
Inventor
由仁 宮内
由仁 宮内
宇田 安規男
安規男 宇田
勝宏 中出
勝宏 中出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Publication of JPWO2019102984A1 publication Critical patent/JPWO2019102984A1/ja
Application granted granted Critical
Publication of JP6908302B2 publication Critical patent/JP6908302B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

学習対象データに基づく複数の要素値が入力されるニューラルネットワーク部と、ニューラルネットワーク部の学習を行う学習部と、を有し、ニューラルネットワーク部は、複数の要素値の各々に所定の重み付けをする複数の入力ノードと、重み付けをした複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有し、学習部は、学習セルの出力値に応じて、学習セルの複数の入力ノードの重み付け係数を更新し、又は、ニューラルネットワーク部に新たな学習セルを追加する。

Description

本発明は、学習装置及び学習方法、識別装置及び識別方法、プログラム並びに記録媒体に関する。
近年、機械学習手法として、多層ニューラルネットワークを用いた深層学習(ディープラーニング)が注目されている。深層学習は、バックプロパゲーションと呼ばれる計算手法を用い、大量の教師データを多層ニューラルネットワークへ入力した際の出力誤差を計算し、誤差が最小となるように学習を行うものである。
特許文献1乃至3には、大規模なニューラルネットワークを複数のサブネットワークの組み合わせとして規定することにより、少ない労力及び演算処理量でニューラルネットワークを構築することを可能にしたニューラルネットワーク処理装置が開示されている。また、特許文献4には、ニューラルネットワークの最適化を行う構造最適化装置が開示されている。
特開2001−051968号公報 特開2002−251601号公報 特開2003−317073号公報 特開平09−091263号公報
しかしながら、深層学習では、教師データとして良質な大量のデータが必要であり、また、学習に長時間を要していた。特許文献1乃至4にはニューラルネットワークの構築のための労力や演算処理量を低減する手法が提案されているが、システム負荷等の更なる軽減のために、より簡単なアルゴリズムにより学習が可能なニューラルネットワークを備えた学習装置が望まれていた。
本発明の目的は、より簡単なアルゴリズムにより学習が可能なニューラルネットワークを備えた学習装置及び学習方法、プログラム及び記録媒体を提供することにある。また、本発明の他の目的は、このようなニューラルネットワークを用いて構成した認識率の高い識別装置及び識別方法、プログラム及び記録媒体を提供することにある。
本発明の一観点によれば、学習対象データに基づく複数の要素値が入力されるニューラルネットワーク部と、前記ニューラルネットワーク部の学習を行う学習部と、を有し、前記ニューラルネットワーク部は、前記複数の要素値の各々に所定の重み付けをする複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有し、前記学習部は、前記学習セルの出力値に応じて、前記学習セルの前記複数の入力ノードの重み付け係数を更新し、又は、前記ニューラルネットワーク部に新たな学習セルを追加する学習装置が提供される。
また、本発明の他の一観点によれば、識別対象データに基づく複数の要素値が入力されるニューラルネットワーク部と、前記ニューラルネットワーク部の出力に基づき前記識別対象データを識別する識別部と、を有し、前記ニューラルネットワーク部は、前記複数の要素値の各々に所定の重み付けをする複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有し、前記複数の学習セルの各々は、教師情報を示す複数のカテゴリのうちのいずれかに紐付けられており、前記学習セルの前記複数の入力ノードは、前記複数の要素値の各々が対応するカテゴリに応じた所定の重みで入力されるように構成されており、前記識別部は、前記学習セルの出力値と前記学習セルに紐付けられたカテゴリとに基づいて、前記識別対象データの属するカテゴリを識別する識別装置が提供される。
また、本発明の更に他の一観点によれば、学習対象データに基づく複数の要素値が入力される複数の入力ノードと、前記複数の要素値の各々に対して所定の重みで加算して出力する出力ノードと、を各々が含む複数の学習セルを有するニューラルネットワーク部を有する学習装置の学習方法であって、学習対象データに基づく複数の要素値を、前記学習セルの前記複数の入力ノードに入力し、前記学習セルの出力値に応じて、前記学習セルの前記複数の入力ノードの重み付け係数を更新し、又は、前記ニューラルネットワーク部に新たな学習セルを追加することにより、前記ニューラルネットワーク部を学習する学習方法が提供される。
また、本発明の更に他の一観点によれば、識別対象データに基づく複数の要素値が入力される複数の入力ノードと、前記複数の要素値に対して所定の重み付けをして加算して出力する出力ノードと、を各々が含み、各々が教師情報を示す複数のカテゴリのうちのいずれかに紐付けられた複数の学習セルを有するニューラルネットワーク部を有する識別装置を用いた識別方法であって、識別対象データに基づく複数の要素値を、前記複数の学習セルの前記複数の入力ノードに入力し、前記学習セルの出力値と前記学習セルに紐付けられたカテゴリとに基づいて、前記識別対象データの属するカテゴリを識別する識別方法が提供される。
また、本発明の更に他の一観点によれば、学習対象データに基づいて学習を行う学習装置において実行されるプログラムであって、コンピュータを、学習対象データに基づく複数の要素値が入力される複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有するニューラルネットワーク部、前記学習セルの出力値に応じて、前記学習セルの前記複数の入力ノードの重み付け係数を更新し、又は、前記ニューラルネットワーク部に新たな学習セルを追加する手段、として機能させるプログラムが提供される。
また、本発明の更に他の一観点によれば、識別対象データに基づいて識別を行う識別装置において実行されるプログラムであって、コンピュータを、識別対象データに基づく複数の要素値が入力される複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含み、各々が教師情報を示す複数のカテゴリのうちのいずれかに紐付けられた複数の学習セルを有するニューラルネットワーク部、前記学習セルの出力値と前記学習セルに紐付けられたカテゴリとに基づいて、前記識別対象データの属するカテゴリを識別する手段、として機能させるプログラムが提供される。
本発明によれば、より簡単なアルゴリズムにより学習が可能で認識率の高いニューラルネットワークを構築することができる。
図1は、本発明の第1実施形態による学習・識別装置の構成例を示す概略図である。 図2は、本発明の第1実施形態による学習・識別装置におけるニューラルネットワーク部の構成例を示す概略図である。 図3は、本発明の第1実施形態による学習・識別装置における学習セルの構成例を示す概略図である。 図4は、本発明の第1実施形態による学習・識別装置における学習方法を示すフローチャートである。 図5は、学習対象データ及びその要素値の一例を示す図である。 図6は、本発明の第1実施形態による学習・識別装置における識別方法を示すフローチャートである。 図7は、本発明の第1実施形態による学習・識別装置のハードウェア構成例を示す概略図である。 図8は、本発明の第2実施形態による学習・識別装置の構成例を示す概略図である。 図9は、学習対象データ及び識別対象データに対して行う前処理の一例を示す図である。 図10は、本発明の第3実施形態による学習装置の構成例を示す概略図である。 図11は、本発明の第4実施形態による識別装置の構成例を示す概略図である。
[第1実施形態]
本発明の第1実施形態による学習・識別装置について、図1乃至図7を用いて説明する。図1は、本実施形態による学習・識別装置の構成例を示す概略図である。図2は、本実施形態による学習・識別装置におけるニューラルネットワーク部の構成例を示す概略図である。図3は、本実施形態による学習・識別装置における学習セルの構成例を示す概略図である。図4は、本実施形態による学習・識別装置における学習方法を示すフローチャートである。図5は、学習対象データ及びその要素値の一例を示す図である。図6は、本実施形態による学習・識別装置における識別方法を示すフローチャートである。図7は、本実施形態による学習・識別装置のハードウェア構成例を示す概略図である。
はじめに、本実施形態による学習・識別装置の概略構成について、図1乃至図3を用いて説明する。本実施形態による学習・識別装置100は、図1に示すように、抽出部10と、ニューラルネットワーク部20と、判定部30と、学習部40と、識別部50と、出力部60と、を有している。学習部40は、重み修正部42と、学習セル生成部44と、を有している。
抽出部10は、外部から入力される学習対象データ又は識別対象データから、これらデータの形態に応じた所定の数の所定の要素値(パターンデータ)を抽出する。
ニューラルネットワーク部20は、例えば図2に示すように、入力層と出力層とを含む2層の人工ニューラルネットワークにより構成され得る。入力層は、1つの学習対象データ又は識別対象データから抽出される要素値の数に対応する数のセル(ニューロン)22を備える。例えば、1つの学習対象データ又は識別対象データから生成される要素値の数がM個であるとすると、入力層は、少なくともM個のセル22,22,…,22,…,22を含む。出力層は、少なくとも学習対象データに紐付けられた教師情報のカテゴリの数に対応する数のセル(ニューロン)24、例えばN個のセル24,24,…,24,…,24を含む。
入力層のセル22,22,…,22,…,22には、抽出部10から供給されるM個の要素値I,I,…,I,…,Iが、それぞれ入力される。セル22,22,…,22,…,22の各々は、入力された要素値Iをセル24,24,…,24,…,24のそれぞれに出力する。
セル22とセル24とを繋ぐ枝(軸索)の各々には、要素値Iに対して所定の重み付けをするための重み付け係数ωが設定されている。例えば、セル22,22,…,22,…,22とセル24とを繋ぐ枝には、図3に示すように、重み付け係数ω1j,ω2j,…,ωij,…,ωMjが設定されている。これによりセル24は、以下の式(1)に示す演算を行い、出力値Oを出力する。
Figure 2019102984
なお、本明細書では、1つのセル24と、そのセル24に要素値I〜Iを入力する枝(入力ノード)と、そのセル24から出力値Oを出力する枝(出力ノード)とを総称して学習セル26と表記することがある。
判定部30は、学習対象データから抽出した複数の要素値と学習セルの出力値との間の相関値と所定の閾値とを比較し、当該相関値が閾値以上であるか閾値未満であるかを判定する。相関値の一例は、学習セルの出力値に対する尤度である。なお、判定部30の機能は、学習セル26の各々が備えていると考えることもできる。
学習部40は、判定部30の判定結果に応じてニューラルネットワーク部20の学習を行う機能ブロックである。重み修正部42は、上記相関値が所定の閾値以上である場合に、学習セル26の入力ノードに設定された重み付け係数ωを更新する。また、学習セル生成部44は、上記相関値が所定の閾値未満である場合に、ニューラルネットワーク部20に新たな学習セル26を追加する。
識別部50は、学習対象データから抽出した複数の要素値と学習セルの出力値との間の相関値に基づき、当該識別対象データのカテゴリを識別する。出力部60は、識別部50による識別結果を出力する。
なお、本実施形態による学習・識別装置100は、学習機能を備えた学習装置と、識別機能を備えた識別装置とにより構成することもできる。この場合、学習装置は、少なくとも、抽出部10と、ニューラルネットワーク部20と、判定部30と、学習部40と、を備えていればよい。また、識別装置は、少なくとも、抽出部10と、ニューラルネットワーク部20と、識別部50と、を備えていればよい。なお、学習・識別装置100、学習装置及び識別装置は、必ずしも抽出部10を備えている必要はなく、他の装置などにおいて学習対象データや識別対象データから抽出した要素値をニューラルネットワーク部20に直に入力する構成としてもよい。
次に、本実施形態による学習・識別装置100を用いた学習方法について、図4及び図5を用いて説明する。なお、ここでは理解を容易にするために、学習対象データが0〜9の10種類の手書き文字を含む白黒の2次元画像である場合を想定して説明を行うが、学習対象データの種類は特に限定されるものではない。学習対象データとしては、例えば、画像データ、音声データ等が挙げられる。
まず、初期状態として、ニューラルネットワーク部20に、学習対象データに紐付けられた教師情報のカテゴリの数に相当する数の学習セル26を設定する。例えば、ニューラルネットワーク部20に0〜9の手書き文字を学習させる場合、教師情報のカテゴリは0〜9の10種類であり、カテゴリの数に相当する10個の学習セル26を設定する。各々の学習セル26は、教師情報のカテゴリと紐付けておく。
次いで、抽出部10に、学習対象データを取り込む(ステップS101)。ここでは、学習対象データの一例として、図5の左側に示すような、手書きの「2」の文字を含む白黒の二次元画像を想定する。
次いで、抽出部10において、取り込んだ学習対象データから、学習対象データの特徴を示す要素値を抽出する(ステップS102)。要素値は、取り込んだ学習対象データの種類等に応じて適宜選択することができる。例えば、図5に示す学習対象データに対しては、右側の拡大図に示すように、取り込んだ画像を画素単位で分割し、1つの画素を1つの要素値に対応づけることができる。そして、白の画素に対応する要素値を0、黒の画素に対応する要素値を1と定義することができる。例えば、図5の例では、p番目の画素に対応する要素値Iは1となり、q番目の画素に対応する要素値Iは0となる。1つの学習対象データに対応する要素値が、要素値I〜Iである。
次いで、抽出部10で抽出した要素値I〜Iを、ニューラルネットワーク部20に入力する。ニューラルネットワーク部20に入力された要素値I〜Iは、セル22〜22を介して、取り込んだ学習対象データの教師情報のカテゴリに紐付けられた学習セル26に入力される。例えば、図5に示す学習対象データから抽出した要素値I〜Iは、カテゴリ「2」に紐付けられた学習セル26に入力される。
次いで、要素値I〜Iが入力された学習セル26が、各入力ノードに重み付け係数ωが設定されていない状態、すなわち一度も学習を行っていない初期状態であるかどうかを判定する(ステップS103)。
学習セル26が初期状態である場合(ステップS103の「Yes」)には、ニューラルネットワーク部20に入力された要素値I〜Iの値を、当該学習セル26の入力ノードの重み付け係数ωの初期値として設定する(ステップS104)。例えば、図5に示すように、カテゴリ「2」に紐付けられた学習対象データを取り込む場合、カテゴリ「2」に紐付けられた学習セル26の入力ノードの各々に、要素値I〜Iに対応する重み付け係数ωを設定する。例えば、図5の例では、学習セル26のp番目の画素に対応する入力ノードの重み付け係数ωpjは1となり、学習セル26のq番目の画素に対応する入力ノードの重み付け係数ωqjは0となる。
一方、学習セル26が初期状態ではない場合(ステップS103の「No」)には、要素値I〜Iを当該学習セル26に入力し、出力値Oを得る。この際、当該学習セル26の入力ノードには重み付け係数ωが既に設定されているため、出力値Oは式(1)に基づいて算出される。
次いで、当該学習セル26の出力値Oに基づき、判定部30において、要素値I〜Iと学習セル26の出力値Oとの間の相関値(ここでは、学習セルの出力値に関する尤度Pとする)を算出する(ステップS105)。尤度Pの算出方法は、特に限定されるものではない。例えば、学習セル26の尤度Pは、以下の式(2)に基づいて算出することができる。
Figure 2019102984
式(2)は、尤度Pが、学習セル26の複数の入力ノードの重み付け係数ωijの累積値に対する学習セル26の出力値Oの比率で表されることを示している。或いは、尤度Pが、複数の入力ノードの重み付け係数ωijに基づく学習セル26の出力の最大値に対する、複数の要素値を入力したときの学習セル26の出力値の比率で表されることを示している。
次いで、判定部30において、算出した尤度Pの値と所定の閾値とを比較し、尤度Pの値が閾値以上であるか否かを判定する(ステップS106)。
取り込んだ学習対象データの教師情報のカテゴリに紐付けられた学習セル26のうち、尤度Pの値が閾値以上である学習セル26が1つ以上存在した場合(ステップS106の「Yes」)には、ステップS107へと移行する。ステップS107では、当該カテゴリに紐付けられた学習セル26のうち尤度Pの値が最も大きい学習セル26の入力ノードの重み付け係数ωを更新する。学習セル26の入力ノードの重み付け係数ωijは、例えば以下の式(3)に基づいて修正することができる。
ωij=(i番目の画素における黒の出現回数)/(学習回数) …(3)
式(3)は、学習セル26の複数の入力ノードの各々の重み付け係数ωが、対応する入力ノードから入力された要素値Iの累積平均値により決定されることを示している。このようにして、尤度Pの値が所定の閾値以上の学習対象データの情報を各入力ノードの重み付け係数ωに累積していくことにより、黒(1)の出現回数の多い画素に対応する入力ノードほど、重み付け係数ωの値が大きくなる。このような学習セル26の学習アルゴリズムは、人の脳の学習原理として知られるヘブ則に近似したものである。
一方、取り込んだ学習対象データの教師情報のカテゴリに紐付けられた学習セル26のうち、尤度Pの値が閾値以上である学習セル26が1つも存在しない場合(ステップS106の「No」)には、ステップS108へと移行する。ステップS108では、当該カテゴリに紐付けられた新たな学習セル26を生成する。新たに生成した学習セル26の各入力ノードには、学習セル26が初期状態であった場合と同様、要素値I〜Iの値を重み付け係数ωの初期値として設定する。
例えば、学習対象データが手書き文字である場合、文字の傾きが異なるときなどに、教師情報のカテゴリが同じであるにもかかわらず尤度の値が閾値未満になることが想定される。同じカテゴリに紐付けられた学習セル26を追加することにより、同じカテゴリに属する様々な態様の学習対象データを学習することが可能となり、認識率を高めることができる。
尤度Pの判定に用いる閾値は、その値が大きいほど、認識率は高くなるが、学習セル26の数も多くなり学習に時間を要する。逆に、閾値は、その値が小さいほど、認識率は低くなるが、学習セル26の数は少なくなり学習に要する時間は短くなる。閾値の設定値は、学習対象データ及び識別対象データの種類や形態等に応じて、所望の認識率や学習時間が得られるように、適宜設定することが望ましい。
このようにすることで、取り込んだ学習対象データに基づいて、ニューラルネットワーク部20を学習することができる。
次いで、上述したステップS101からステップS108までの処理を、総ての学習対象データに対して行い(ステップS109,S110)、ニューラルネットワーク部20を繰り返し学習する。
本実施形態による学習・識別装置100を用いた学習方法は、深層学習などにおいて用いられている誤差逆伝播法(バック・プロパゲーション)を適用するものではなく、1パスでの学習が可能である。このため、ニューラルネットワーク部20の学習処理を簡略化することができる。また、各々の学習セル26は独立しているため、学習データの追加、削除、更新が容易である。
次に、本実施形態による学習・識別装置100を用いた識別対象データの識別方法について、図6を用いて説明する。
まず、抽出部10に、識別対象データを取り込む(ステップS201)。
次いで、抽出部10において、取り込んだ識別対象データから、識別対象データの特徴を示す要素値I〜Iを抽出する(ステップS202)。要素値Iは、学習対象データと同様、取り込んだ識別対象データの種類等に応じて適宜選択することができる。
次いで、抽出部10で抽出した要素値I〜Iを、上述のようにして学習を行ったニューラルネットワーク部20に入力する。ニューラルネットワーク部20に入力された要素値I〜Iは、セル22〜22を介して、各学習セル26に入力される。これにより、総ての学習セル26から、要素値I〜Iに応じた出力値Oを得る。
次いで、学習セル26から出力された出力値Oに基づき、識別部50において、要素値I〜Iと学習セル26の出力値Oとの間の相関値(ここでは、学習セルの出力値に関する尤度Pとする)を算出する(ステップS203)。尤度Pの算出方法は、特に限定されるものではない。例えば、学習セル26の尤度Pは、前述の式(2)に基づいて算出することができる。なお、尤度Pを算出する機能は、学習セル26の各々が備えていると考えることもできる。
次いで、算出した総ての学習セル26の尤度Pに基づいて、識別対象データの属するカテゴリを識別する(ステップS204)。識別対象データの属するカテゴリを識別する方法は、特に限定されるものではない。例えば、総ての学習セル26のうち、最も尤度Pの大きい学習セル26に紐付けられたカテゴリを、識別対象データの属するカテゴリと識別することができる。或いは、総ての学習セル26の中から尤度Pの大きい順に所定の数の学習セル26を抽出し、抽出した学習セル26に対して最も多く紐付けられたカテゴリを、識別対象データの属するカテゴリと識別することができる。
なお、識別対象データの属するカテゴリを識別した後、この識別対象データから抽出した要素値I〜Iを用いて、ニューラルネットワーク部20を学習するようにしてもよい。例えば、識別したカテゴリに紐付けられた学習セル26のうち、最も尤度が大きかった学習セル26の入力ノードの重み付け係数ωを、当該識別対象データから抽出した要素値I〜Iを用いて更新することができる。すなわち、本実施形態による学習・識別装置100は、いわゆるダイナミック学習を行うことが可能であり、識別対象データを用いた追加の学習処理を容易に行うことができる。
次に、本実施形態による学習・識別装置100のハードウェア構成例について、図7を用いて説明する。図7は、本実施形態による学習・識別装置のハードウェア構成例を示す概略図である。
学習・識別装置100は、図7に示すように、一般的な情報処理装置と同様のハードウェア構成によって実現することが可能である。例えば、学習・識別装置100は、CPU(Central Processing Unit)200、主記憶部202、通信部204、入出力インターフェース部206を備える。
CPU200は、学習・識別装置100の全体的な制御や演算処理を司る制御・演算装置である。主記憶部202は、データの作業領域やデータの一時退避領域に用いられる記憶部であり、RAM(Random Access Memory)等のメモリにより構成される。通信部204は、ネットワークを介してデータの送受信を行うためのインターフェースである。入出力インターフェース部206は、外部の出力装置210、入力装置212、記憶装置214等と接続してデータの送受信を行うためのインターフェースである。CPU200、主記憶部202、通信部204及び入出力インターフェース部206は、システムバス208によって相互に接続されている。記憶装置214は、例えばROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリから構成されるハードディスク装置等で構成することができる。
主記憶部202は、複数の学習セル26を含むニューラルネットワーク部20を構築し演算を実行するための作業領域として用いることができる。CPUは、主記憶部202に構築したニューラルネットワーク部20における演算処理を制御する制御部として機能する。記憶装置214には、学習済みの学習セル26に関する情報を含む学習セル情報を保存することができる。また、記憶装置214に記憶された学習セル情報を読み出し、主記憶部202においてニューラルネットワーク部を構築するように構成することで、様々な識別対象データの識別に利用することができる。CPU200は、主記憶部202に構築したニューラルネットワーク部における複数の学習セルにおける演算処理を並列して実行するように構成されていることが望ましい。
通信部204は、イーサネット(登録商標)、Wi−Fi(登録商標)等の規格に基づく通信インターフェースであり、他の装置との通信を行うためのモジュールである。学習セル情報は、通信部204を介して他の装置から受信するようにしてもよい。例えば、頻繁に使用する学習セル情報は記憶装置214に記憶しておき、使用頻度の低い学習セル情報は他の装置から読み込むように構成することができる。
入力装置212は、キーボード、マウス、タッチパネル等であって、ユーザが学習・識別装置100に所定の情報を入力するために用いられる。また、入力装置212は、学習対象データや識別対象データを入力するための手段として用いることもできる。例えば、学習対象データや識別対象データが2次元画像の場合にあっては、入力装置212として画像読取装置を適用することができる。
学習対象データや識別対象データは、記憶装置214から、或いは、通信部204を介して他の装置から読み込むように構成することもできる。出力装置210は、例えば液晶表示装置等のディスプレイを含む。学習結果や識別結果の通知は、出力装置210を介して行うことができる。
本実施形態による学習・識別装置100の各部の機能は、プログラムを組み込んだLSI(Large Scale Integration)等のハードウェア部品である回路部品を実装することにより、ハードウェア的に実現することができる。或いは、その機能を提供するプログラムを、記憶装置214に格納し、そのプログラムを主記憶部202にロードしてCPU200で実行することにより、ソフトウェア的に実現することも可能である。
このように、本実施形態によれば、より簡単なアルゴリズムにより学習が可能で認識率の高いニューラルネットワークを備えた学習・識別装置を実現することができる。
[第2実施形態]
本発明の第2実施形態による学習・識別装置について、図8及び図9を用いて説明する。第1実施形態による学習・識別装置と同様の構成要素には同一の符号を付し、説明を省略し或いは簡潔にする。図8は、本実施形態による学習・識別装置の構成例を示す概略図である。図9は、学習対象データ及び識別対象データに対して行う前処理の一例を示す図である。
本実施形態による学習・識別装置は、図8に示すように、抽出部10が前処理部12を更に有するほかは、第1実施形態による学習・識別装置100と同様である。前処理部12は、抽出部10に入力された学習対象データ及び識別対象データに対して前処理を行う機能ブロックである。
学習対象データ及び識別対象データに対して行う前処理は、学習対象データ及び識別対象データに対する識別率を向上するための処理であるが、その内容は特に限定されるものではない。このような前処理としては、例えば、正規化処理、プーリング処理、特徴抽出処理等が挙げられる。
図9は、学習対象データ又は識別対象データが手書き文字を含む白黒の2次元画像である場合における正規化処理及びプーリング処理の例を示す概略図である。図9(a)は、前処理を行う前の学習対象データ又は識別対象データの一例を示している。図9(b)及び図9(c)は、図9(a)のデータに対して正規化処理を行った例である。ここで言う正規化処理とは、データの文字部分をデータエリアの全体に広げる処理である。図9(b)は、文字のアスペクトを保持しつつ縦横同じ比率で文字部分を拡大した例である。図9(c)は、文字のアスペクトを無視して縦横異なる比率で文字部分を拡大した例である。図9(d)、図9(e)及び図9(f)は、図9(c)のデータに対してプーリング処理を行った例である。ここで言うプーリング処理とは、複数の画素からなるブロックを1つの画素としてリサンプリングする処理である。図9(d)は、2×2の画素ブロックを1つの画素に変換した例である。図9(e)は、4×4の画素ブロックを1つの画素に変換した例である。図9(f)は、7×7の画素ブロックを1つの画素に変換した例である。
発明者が使用したシステムにおける検討結果では、60000個のデータに対して、前処理を行わない場合(図9(a)に相当)の認識率は89.4%であり、学習時間は383秒であった。これに対し、文字のアスペクトを保持して正規化を行った場合(図9(b)に相当)の認識率は95.1%であり、学習時間は495秒であった。また、文字のアスペクトを無視して正規化を行った場合(図9(c)に相当)の認識率は97.1%であり、学習時間は566秒であった。このように、データの正規化処理を行うと、学習時間は増加する傾向にあるが、認識率を大幅に向上することができる。
一方、2×2の画素ブロックでプーリング処理を行った場合(図9(d)に相当)の認識率は96.5%、学習時間は135秒であった。4×4の画素ブロックでプーリング処理を行った場合(図9(e)に相当)の認識率は85.4%、学習時間は21秒であった。また、7×7の画素ブロックでプーリング処理を行った場合(図9(f)に相当)の認識率は30.5%、学習時間は2秒であった。プーリング処理では、その度合いによって認識率は大幅に悪化するが、適切な度合いを選択することにより、認識率の向上と学習時間の短縮との双方を実現することができる。
前処理部12において行う処理は、正規化処理やプーリング処理のように、学習対象データや識別対象データに対して直接的に処理を施すものでなくてもよい。例えば、前処理部12として、学習済みのディープラーニングモデルの特徴抽出部を利用することもできる。すなわち、学習済みのディープラーニングモデルから抽出した特徴量を、ニューラルネットワーク部20に入力する要素値として用いることができる。
前処理部12において行う処理は、必ずしも1種類である必要はなく、2つ以上の処理を組み合わせて行うようにしてもよい。
このように、本実施形態によれば、より簡単なアルゴリズムにより学習が可能で認識率の高いニューラルネットワークを備えた学習・識別装置を実現することができる。
[第3実施形態]
本発明の第3実施形態による学習装置について、図10を用いて説明する。第1及び第2実施形態による学習・識別装置と同様の構成要素には同一の符号を付し、説明を省略し或いは簡潔にする。図10は、本実施形態による学習装置の構成例を示す概略図である。
本実施形態による学習装置300は、図10に示すように、ニューラルネットワーク部20と、学習部40とを有している。
ニューラルネットワーク部20には、学習対象データに基づく複数の要素値が入力される。ニューラルネットワーク部20は、複数の要素値の各々に所定の重み付けをする複数の入力ノードと、重み付けをした複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有する。
学習部40は、ニューラルネットワーク部20の学習を行う。学習部は、学習セル26の出力値に応じて、学習セル26の複数の入力ノードの重み付け係数ωを更新し、又は、ニューラルネットワーク部20に新たな学習セル26を追加する。
このように構成することで、より簡単なアルゴリズムにより学習が可能で認識率の高いニューラルネットワークを備えた学習装置を実現することができる。
[第4実施形態]
本発明の第4実施形態による識別装置について、図11を用いて説明する。第1及び第2実施形態による学習・識別装置と同様の構成要素には同一の符号を付し、説明を省略し或いは簡潔にする。図11は、本実施形態による識別装置の構成例を示す概略図である。
本実施形態による識別装置400は、図11に示すように、ニューラルネットワーク部20と、識別部50とを有している。
ニューラルネットワーク部20には、識別対象データに基づく複数の要素値が入力される。ニューラルネットワーク部20は、複数の要素値の各々に所定の重み付けをする複数の入力ノードと、重み付けをした複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セル26を有する。複数の学習セル26の各々は、教師情報を示す複数のカテゴリのうちのいずれかに紐付けられている。学習セル26の複数の入力ノードは、複数の要素値の各々が対応するカテゴリに応じた所定の重みで入力されるように構成されている。
識別部50は、ニューラルネットワーク部20の出力に基づき識別対象データを識別する。識別部50は、学習セル26の出力値と学習セルに紐付けられたカテゴリとに基づいて、識別対象データの属するカテゴリを識別する。
このように構成することで、より簡単なアルゴリズムにより認識率の高いニューラルネットワークを備えた識別装置を実現することができる。
[変形実施形態]
本発明は、上記実施形態に限らず種々の変形が可能である。
例えば、いずれかの実施形態の一部の構成を他の実施形態に追加した例や、他の実施形態の一部の構成と置換した例も、本発明の実施形態である。
また、上記実施形態では、学習対象データ及び識別対象データとして黒色の手書き文字を含む白黒の2次元画像を例示した。しかしながら、上述の構成では、例えば黒地に白色の文字が描かれた画像データの場合に適切に識別できない虞がある。このような場合には、1種類のカテゴリに対して複数種類の学習セル26を設けるようにしてもよい。例えば、上述の例では、白の画素に対応する要素値を0、黒の画素に対応する要素値を1として学習を行う学習セル26と、白の画素に対応する要素値を1、黒の画素に対応する要素値を0として学習を行う学習セル26とを設定することができる。このように構成することにより、認識率を更に高めることができる。
また、上記実施形態では、学習対象データから抽出した要素値を、当該学習対象データの教師情報のカテゴリに紐付けられた学習セル26だけに入力する例を示したが、総ての学習セル26に入力するように構成してもよい。この場合には、例えば、学習セル26の入力ノードの重み付け係数ωに初期値を設定する際及び重み付け係数ωを更新する際に、取り込んだ学習対象データの教師情報のカテゴリに紐付けられた学習セル26であることを条件とすればよい。
また、上記実施形態では、教師情報を含む学習対象データを用いてニューラルネットワーク部20の学習を行ったが、学習対象データは、必ずしも教師情報を含む必要はない。例えば、学習対象データから抽出した複数の要素値を総ての学習セル26に入力し、尤度Pが最も大きくなる学習セル26を学習するとともに、入力した学習対象データと尤度Pが最も大きくなる学習セル26とを関連付ける。これにより、学習対象データが備える特徴に基づいてニューラルネットワーク部20を学習するとともに、学習対象データを分類することができる。学習セル26には、このようにして学習対象データを分類した後に、分類された学習対象データに応じたラベルを付するようにすればよい。
また、上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
該記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
上記実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
学習対象データに基づく複数の要素値が入力されるニューラルネットワーク部と、
前記ニューラルネットワーク部の学習を行う学習部と、を有し、
前記ニューラルネットワーク部は、前記複数の要素値の各々に所定の重み付けをする複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有し、
前記学習部は、前記学習セルの出力値に応じて、前記学習セルの前記複数の入力ノードの重み付け係数を更新し、又は、前記ニューラルネットワーク部に新たな学習セルを追加する
ことを特徴とする学習装置。
(付記2)
前記学習部は、前記複数の要素値と前記学習セルの出力値との間の相関値が所定の閾値未満の場合に、前記新たな学習セルを追加する
ことを特徴とする付記1記載の学習装置。
(付記3)
前記学習部は、前記複数の要素値の各々を、前記新たな学習セルの複数の入力ノードの各々の重み付け係数の初期値として設定する
ことを特徴とする付記2記載の学習装置。
(付記4)
前記学習部は、前記複数の要素値と前記学習セルの出力値との間の相関値が所定の閾値以上の場合に、前記学習セルの前記複数の入力ノードの前記重み付け係数を更新する
ことを特徴とする付記1記載の学習装置。
(付記5)
前記学習部は、前記相関値が前記閾値以上である前記学習セルが複数存在する場合に、前記相関値が最も大きい前記学習セルの前記複数の入力ノードの前記重み付け係数を更新する
ことを特徴とする付記4記載の学習装置。
(付記6)
前記複数の学習セルの各々は、教師情報を示す複数のカテゴリのうちのいずれかに紐付けられており、
前記学習部は、入力された前記学習対象データが属するカテゴリに紐付けられた前記学習セルの前記重み付け係数を更新する
ことを特徴とする付記4又は5記載の学習装置。
(付記7)
前記学習部は、前記学習セルの前記複数の入力ノードの各々の前記重み付け係数を、対応する前記入力ノードから入力された前記要素値に基づいて更新する
ことを特徴とする付記4乃至6のいずれか1項に記載の学習装置。
(付記8)
前記相関値は、前記学習セルの前記出力値に関する尤度である
ことを特徴とする付記2乃至7のいずれか1項に記載の学習装置。
(付記9)
前記尤度は、前記複数の入力ノードの各々に設定されている重み付け係数に応じた前記学習セルの出力の最大値に対する前記複数の要素値を入力したときの前記学習セルの前記出力値の比率である
ことを特徴とする付記8記載の学習装置。
(付記10)
所定の前処理を行った後の前記学習対象データから前記複数の要素値を抽出する抽出部を更に有する
ことを特徴とする付記1乃至9のいずれか1項に記載の学習装置。
(付記11)
前記前処理は、正規化処理、プーリング処理又は特徴抽出処理である
ことを特徴とする付記10記載の学習装置。
(付記12)
前記複数の学習セルを含む前記ニューラルネットワーク部を構築し演算を実行するための作業領域となる記憶部と、前記ニューラルネットワーク部における演算処理を制御する制御部と、を更に有し、
前記制御部は、前記記憶部に構築した前記ニューラルネットワーク部における前記複数の要素値に対する前記複数の学習セルにおける演算処理を並列して実行する
ことを特徴とする付記1乃至11のいずれか1項に記載の学習装置。
(付記13)
識別対象データに基づく複数の要素値が入力されるニューラルネットワーク部と、
前記ニューラルネットワーク部の出力に基づき前記識別対象データを識別する識別部と、を有し、
前記ニューラルネットワーク部は、前記複数の要素値の各々に所定の重み付けをする複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有し、
前記複数の学習セルの各々は、教師情報を示す複数のカテゴリのうちのいずれかに紐付けられており、
前記学習セルの前記複数の入力ノードは、前記複数の要素値の各々が対応するカテゴリに応じた所定の重みで入力されるように構成されており、
前記識別部は、前記学習セルの出力値と前記学習セルに紐付けられたカテゴリとに基づいて、前記識別対象データの属するカテゴリを識別する
ことを特徴とする識別装置。
(付記14)
前記識別部は、前記複数の要素値と前記学習セルの出力値との間の相関値が最も大きい前記学習セルに紐付けられたカテゴリを、前記識別対象データの属するカテゴリを識別する
ことを特徴とする付記13記載の識別装置。
(付記15)
前記識別部は、前記複数の学習セルの中から、前記複数の要素値の値と前記学習セルの出力値との間の相関値が大きい順に所定の数の前記学習セルを抽出し、抽出した前記学習セルに対して最も多く紐付けられたカテゴリを、前記識別対象データの属するカテゴリを識別する
ことを特徴とする付記13記載の識別装置。
(付記16)
前記複数の要素値を用いて前記学習セルの前記複数の入力ノードの各々の重み付け係数を更新する学習部を更に有する
ことを特徴とする付記13乃至15のいずれか1項に記載の識別装置。
(付記17)
学習対象データに基づく複数の要素値が入力される複数の入力ノードと、前記複数の要素値の各々に対して所定の重みで加算して出力する出力ノードと、を各々が含む複数の学習セルを有するニューラルネットワーク部を有する学習装置の学習方法であって、
学習対象データに基づく複数の要素値を、前記学習セルの前記複数の入力ノードに入力し、
前記学習セルの出力値に応じて、前記学習セルの前記複数の入力ノードの重み付け係数を更新し、又は、前記ニューラルネットワーク部に新たな学習セルを追加することにより、前記ニューラルネットワーク部を学習する
ことを特徴とする学習方法。
(付記18)
識別対象データに基づく複数の要素値が入力される複数の入力ノードと、前記複数の要素値に対して所定の重み付けをして加算して出力する出力ノードと、を各々が含み、各々が教師情報を示す複数のカテゴリのうちのいずれかに紐付けられた複数の学習セルを有するニューラルネットワーク部を有する識別装置を用いた識別方法であって、
識別対象データに基づく複数の要素値を、前記複数の学習セルの前記複数の入力ノードに入力し、
前記学習セルの出力値と前記学習セルに紐付けられたカテゴリとに基づいて、前記識別対象データの属するカテゴリを識別する
ことを特徴とする識別方法。
(付記19)
学習対象データに基づいて学習を行う学習装置において実行されるプログラムであって、コンピュータを、
学習対象データに基づく複数の要素値が入力される複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有するニューラルネットワーク部、
前記学習セルの出力値に応じて、前記学習セルの前記複数の入力ノードの重み付け係数を更新し、又は、前記ニューラルネットワーク部に新たな学習セルを追加する手段、
として機能させるプログラム。
(付記20)
識別対象データに基づいて識別を行う識別装置において実行されるプログラムであって、コンピュータを、
識別対象データに基づく複数の要素値が入力される複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含み、各々が教師情報を示す複数のカテゴリのうちのいずれかに紐付けられた複数の学習セルを有するニューラルネットワーク部、
前記学習セルの出力値と前記学習セルに紐付けられたカテゴリとに基づいて、前記識別対象データの属するカテゴリを識別する手段、
として機能させるプログラム。
(付記21)
付記19又は20に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
この出願は、2017年11月22日に出願された日本出願特願2017−224329を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10…抽出部
12…前処理部
20…ニューラルネットワーク部
22,24…セル
26…学習セル
30…判定部
40…学習部
42…重み修正部
44…学習セル生成部
50…識別部
60…出力部
100…学習・識別装置
200…CPU
202…主記憶部
204…通信部
206…入出力インターフェース部
208…システムバス
210…出力装置
212…入力装置
214…記憶装置
300…学習装置
400…識別装置
(付記14)
前記識別部は、前記複数の要素値と前記学習セルの出力値との間の相関値が最も大きい前記学習セルに紐付けられたカテゴリを、前記識別対象データの属するカテゴリ識別する
ことを特徴とする付記13記載の識別装置。
(付記15)
前記識別部は、前記複数の学習セルの中から、前記複数の要素値の値と前記学習セルの出力値との間の相関値が大きい順に所定の数の前記学習セルを抽出し、抽出した前記学習セルに対して最も多く紐付けられたカテゴリを、前記識別対象データの属するカテゴリ識別する
ことを特徴とする付記13記載の識別装置。

Claims (21)

  1. 学習対象データに基づく複数の要素値が入力されるニューラルネットワーク部と、
    前記ニューラルネットワーク部の学習を行う学習部と、を有し、
    前記ニューラルネットワーク部は、前記複数の要素値の各々に所定の重み付けをする複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有し、
    前記学習部は、前記学習セルの出力値に応じて、前記学習セルの前記複数の入力ノードの重み付け係数を更新し、又は、前記ニューラルネットワーク部に新たな学習セルを追加する
    ことを特徴とする学習装置。
  2. 前記学習部は、前記複数の要素値と前記学習セルの出力値との間の相関値が所定の閾値未満の場合に、前記新たな学習セルを追加する
    ことを特徴とする請求項1記載の学習装置。
  3. 前記学習部は、前記複数の要素値の各々を、前記新たな学習セルの複数の入力ノードの各々の重み付け係数の初期値として設定する
    ことを特徴とする請求項2記載の学習装置。
  4. 前記学習部は、前記複数の要素値と前記学習セルの出力値との間の相関値が所定の閾値以上の場合に、前記学習セルの前記複数の入力ノードの前記重み付け係数を更新する
    ことを特徴とする請求項1記載の学習装置。
  5. 前記学習部は、前記相関値が前記閾値以上である前記学習セルが複数存在する場合に、前記相関値が最も大きい前記学習セルの前記複数の入力ノードの前記重み付け係数を更新する
    ことを特徴とする請求項4記載の学習装置。
  6. 前記複数の学習セルの各々は、教師情報を示す複数のカテゴリのうちのいずれかに紐付けられており、
    前記学習部は、入力された前記学習対象データが属するカテゴリに紐付けられた前記学習セルの前記重み付け係数を更新する
    ことを特徴とする請求項4又は5記載の学習装置。
  7. 前記学習部は、前記学習セルの前記複数の入力ノードの各々の前記重み付け係数を、対応する前記入力ノードから入力された前記要素値に基づいて更新する
    ことを特徴とする請求項4乃至6のいずれか1項に記載の学習装置。
  8. 前記相関値は、前記学習セルの前記出力値に関する尤度である
    ことを特徴とする請求項2乃至7のいずれか1項に記載の学習装置。
  9. 前記尤度は、前記複数の入力ノードの各々に設定されている重み付け係数に応じた前記学習セルの出力の最大値に対する前記複数の要素値を入力したときの前記学習セルの前記出力値の比率である
    ことを特徴とする請求項8記載の学習装置。
  10. 所定の前処理を行った後の前記学習対象データから前記複数の要素値を抽出する抽出部を更に有する
    ことを特徴とする請求項1乃至9のいずれか1項に記載の学習装置。
  11. 前記前処理は、正規化処理、プーリング処理又は特徴抽出処理である
    ことを特徴とする請求項10記載の学習装置。
  12. 前記複数の学習セルを含む前記ニューラルネットワーク部を構築し演算を実行するための作業領域となる記憶部と、前記ニューラルネットワーク部における演算処理を制御する制御部と、を更に有し、
    前記制御部は、前記記憶部に構築した前記ニューラルネットワーク部における前記複数の要素値に対する前記複数の学習セルにおける演算処理を並列して実行する
    ことを特徴とする請求項1乃至11のいずれか1項に記載の学習装置。
  13. 識別対象データに基づく複数の要素値が入力されるニューラルネットワーク部と、
    前記ニューラルネットワーク部の出力に基づき前記識別対象データを識別する識別部と、を有し、
    前記ニューラルネットワーク部は、前記複数の要素値の各々に所定の重み付けをする複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有し、
    前記複数の学習セルの各々は、教師情報を示す複数のカテゴリのうちのいずれかに紐付けられており、
    前記学習セルの前記複数の入力ノードは、前記複数の要素値の各々が対応するカテゴリに応じた所定の重みで入力されるように構成されており、
    前記識別部は、前記学習セルの出力値と前記学習セルに紐付けられたカテゴリとに基づいて、前記識別対象データの属するカテゴリを識別する
    ことを特徴とする識別装置。
  14. 前記識別部は、前記複数の要素値と前記学習セルの出力値との間の相関値が最も大きい前記学習セルに紐付けられたカテゴリを、前記識別対象データの属するカテゴリを識別する
    ことを特徴とする請求項13記載の識別装置。
  15. 前記識別部は、前記複数の学習セルの中から、前記複数の要素値の値と前記学習セルの出力値との間の相関値が大きい順に所定の数の前記学習セルを抽出し、抽出した前記学習セルに対して最も多く紐付けられたカテゴリを、前記識別対象データの属するカテゴリを識別する
    ことを特徴とする請求項13記載の識別装置。
  16. 前記複数の要素値を用いて前記学習セルの前記複数の入力ノードの各々の重み付け係数を更新する学習部を更に有する
    ことを特徴とする請求項13乃至15のいずれか1項に記載の識別装置。
  17. 学習対象データに基づく複数の要素値が入力される複数の入力ノードと、前記複数の要素値の各々に対して所定の重みで加算して出力する出力ノードと、を各々が含む複数の学習セルを有するニューラルネットワーク部を有する学習装置の学習方法であって、
    学習対象データに基づく複数の要素値を、前記学習セルの前記複数の入力ノードに入力し、
    前記学習セルの出力値に応じて、前記学習セルの前記複数の入力ノードの重み付け係数を更新し、又は、前記ニューラルネットワーク部に新たな学習セルを追加することにより、前記ニューラルネットワーク部を学習する
    ことを特徴とする学習方法。
  18. 識別対象データに基づく複数の要素値が入力される複数の入力ノードと、前記複数の要素値に対して所定の重み付けをして加算して出力する出力ノードと、を各々が含み、各々が教師情報を示す複数のカテゴリのうちのいずれかに紐付けられた複数の学習セルを有するニューラルネットワーク部を有する識別装置を用いた識別方法であって、
    識別対象データに基づく複数の要素値を、前記複数の学習セルの前記複数の入力ノードに入力し、
    前記学習セルの出力値と前記学習セルに紐付けられたカテゴリとに基づいて、前記識別対象データの属するカテゴリを識別する
    ことを特徴とする識別方法。
  19. 学習対象データに基づいて学習を行う学習装置において実行されるプログラムであって、コンピュータを、
    学習対象データに基づく複数の要素値が入力される複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含む複数の学習セルを有するニューラルネットワーク部、
    前記学習セルの出力値に応じて、前記学習セルの前記複数の入力ノードの重み付け係数を更新し、又は、前記ニューラルネットワーク部に新たな学習セルを追加する手段、
    として機能させるプログラム。
  20. 識別対象データに基づいて識別を行う識別装置において実行されるプログラムであって、コンピュータを、
    識別対象データに基づく複数の要素値が入力される複数の入力ノードと、重み付けをした前記複数の要素値を加算して出力する出力ノードと、を各々が含み、各々が教師情報を示す複数のカテゴリのうちのいずれかに紐付けられた複数の学習セルを有するニューラルネットワーク部、
    前記学習セルの出力値と前記学習セルに紐付けられたカテゴリとに基づいて、前記識別対象データの属するカテゴリを識別する手段、
    として機能させるプログラム。
  21. 請求項19又は20に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
JP2019555305A 2017-11-22 2018-11-20 学習装置、識別装置及びプログラム Active JP6908302B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017224329 2017-11-22
JP2017224329 2017-11-22
PCT/JP2018/042781 WO2019102984A1 (ja) 2017-11-22 2018-11-20 学習装置及び学習方法、識別装置及び識別方法、プログラム並びに記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019102984A1 true JPWO2019102984A1 (ja) 2020-07-09
JP6908302B2 JP6908302B2 (ja) 2021-07-21

Family

ID=66631047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019555305A Active JP6908302B2 (ja) 2017-11-22 2018-11-20 学習装置、識別装置及びプログラム

Country Status (4)

Country Link
US (1) US11599791B2 (ja)
JP (1) JP6908302B2 (ja)
CN (1) CN111373418A (ja)
WO (1) WO2019102984A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11599791B2 (en) * 2017-11-22 2023-03-07 Nec Solution Innovators, Ltd. Learning device and learning method, recognition device and recognition method, program, and storage medium
US10863127B1 (en) * 2018-08-21 2020-12-08 Perceive Corporation Compressive sensing based image capture using multi-lens array
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
KR20200072307A (ko) * 2018-12-12 2020-06-22 삼성전자주식회사 뉴럴 네트워크에서의 부하 균형을 위한 장치 및 방법
JP6787444B1 (ja) * 2019-05-23 2020-11-18 沖電気工業株式会社 ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム
US11610134B2 (en) 2019-07-08 2023-03-21 Vianai Systems, Inc. Techniques for defining and executing program code specifying neural network architectures

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991263A (ja) 1995-09-20 1997-04-04 Hitachi Medical Corp ニューラルネットワーク構造最適化装置ならびに方法
JPH09259101A (ja) 1996-03-22 1997-10-03 Nec Corp カテゴリ分類方法
JP2001051968A (ja) 1999-08-05 2001-02-23 Fuji Xerox Co Ltd ニューラルネットワーク構築方法及びニューラルネットワーク処理装置
JP2002251601A (ja) 2001-02-22 2002-09-06 Fuji Xerox Co Ltd ニューラルネットワーク処理装置
JP2003317073A (ja) 2002-04-24 2003-11-07 Fuji Xerox Co Ltd ニューラルネットワーク処理装置
US8301356B2 (en) * 2008-10-06 2012-10-30 GM Global Technology Operations LLC Engine out NOx virtual sensor using cylinder pressure sensor
US9495619B2 (en) * 2014-12-30 2016-11-15 Facebook, Inc. Systems and methods for image object recognition based on location information and object categories
JP2017194782A (ja) * 2016-04-19 2017-10-26 ソニー株式会社 情報処理装置及び情報処理方法
WO2018023356A1 (en) * 2016-08-01 2018-02-08 Microsoft Technology Licensing, Llc Machine translation method and apparatus
US10949736B2 (en) * 2016-11-03 2021-03-16 Intel Corporation Flexible neural network accelerator and methods therefor
JP7005191B2 (ja) * 2017-06-30 2022-01-21 キヤノンメディカルシステムズ株式会社 画像処理装置、医用画像診断装置、及びプログラム
DE102017219365B4 (de) * 2017-10-27 2023-03-30 Zf Friedrichshafen Ag Vorrichtung und Verfahren zur adaptiven Fahrzeugregelung
US11599791B2 (en) * 2017-11-22 2023-03-07 Nec Solution Innovators, Ltd. Learning device and learning method, recognition device and recognition method, program, and storage medium
CN112262399A (zh) * 2018-06-11 2021-01-22 日本电气方案创新株式会社 行动学习设备、行动学习方法、行动学习系统、程序以及记录介质

Also Published As

Publication number Publication date
WO2019102984A1 (ja) 2019-05-31
US11599791B2 (en) 2023-03-07
JP6908302B2 (ja) 2021-07-21
US20200285957A1 (en) 2020-09-10
CN111373418A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
JP6908302B2 (ja) 学習装置、識別装置及びプログラム
CN111695415B (zh) 图像识别方法及相关设备
JP4618098B2 (ja) 画像処理システム
CN112598643B (zh) 深度伪造图像检测及模型训练方法、装置、设备、介质
CN112418292B (zh) 一种图像质量评价的方法、装置、计算机设备及存储介质
CN112308115B (zh) 一种多标签图像深度学习分类方法及设备
US11449734B2 (en) Neural network reduction device, neural network reduction method, and storage medium
CN113011529B (zh) 文本分类模型的训练方法、装置、设备及可读存储介质
CN113642400A (zh) 基于2s-agcn的图卷积动作识别方法、装置及设备
CN113255617A (zh) 图像识别方法、装置、电子设备和计算机可读存储介质
CN114781611A (zh) 自然语言处理方法、语言模型训练方法及其相关设备
CN111694954A (zh) 图像分类方法、装置和电子设备
CN111753995A (zh) 一种基于梯度提升树的局部可解释方法
JP7073171B2 (ja) 学習装置、学習方法及びプログラム
CN115879508A (zh) 一种数据处理方法及相关装置
WO2021059527A1 (ja) 学習装置、学習方法、及び、記録媒体
KR102408189B1 (ko) 인공 신경망의 학습을 위해 표 형태의 데이터를 전처리 하는 방법
WO2021145185A1 (ja) 行動認識装置、行動認識方法、プログラム及び記録媒体
JP6801751B1 (ja) 情報処理装置、情報処理方法およびプログラム
EP3940601A1 (en) Information processing apparatus, information processing method, and information program
WO2021025094A1 (ja) 行動学習装置、行動学習方法、行動決定装置、行動決定方法、行動学習システム、プログラム、及び記録媒体
CN117274692A (zh) 一种基于新遗传编程结构及基因修饰的图像分类方法
CN118015707A (zh) 一种手语识别系统中手语动作与非手语动作辨别分类方法、存储介质和电子设备
CN116361657A (zh) 用于对灰样本标签进行消歧的方法、系统和存储介质
CN117474072A (zh) 一种图卷积神经网络模型训练方法、装置及设备和介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210624

R150 Certificate of patent or registration of utility model

Ref document number: 6908302

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150