JP2021189532A - パターン認識装置、学習方法及び学習プログラム - Google Patents

パターン認識装置、学習方法及び学習プログラム Download PDF

Info

Publication number
JP2021189532A
JP2021189532A JP2020091429A JP2020091429A JP2021189532A JP 2021189532 A JP2021189532 A JP 2021189532A JP 2020091429 A JP2020091429 A JP 2020091429A JP 2020091429 A JP2020091429 A JP 2020091429A JP 2021189532 A JP2021189532 A JP 2021189532A
Authority
JP
Japan
Prior art keywords
learning
error
input data
neural network
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020091429A
Other languages
English (en)
Other versions
JP7010541B2 (ja
Inventor
健 星野
Takeshi Hoshino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2020091429A priority Critical patent/JP7010541B2/ja
Publication of JP2021189532A publication Critical patent/JP2021189532A/ja
Application granted granted Critical
Publication of JP7010541B2 publication Critical patent/JP7010541B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】汎化能力を向上させ、収束までの学習時間を短縮することができるパターン認識装置、学習方法及び学習プログラムを提供する。【解決手段】一実施の形態に係るパターン認識装置1は、複数のパターンを含む入力データq(p,t)を複数回入力することによって学習させる非巡回神経回路網FNNの各ニューロンNRへ揺らぎノイズとして与える正規乱数を生成する際の分散値を、非巡回神経回路網FNNの学習中に変化させる処理部11を備える。【選択図】図4

Description

本発明は、パターン認識装置、学習方法及び学習プログラムに関し、例えば、非巡回神経回路網の各ニューロンへ揺らぎノイズとして分散値を与えるパターン認識装置、学習方法及び学習プログラムに関する。
特許文献1には、非巡回神経回路網のための揺らぎ駆動学習法が記載されている。特許文献1の駆動学習法は、連続非線形ユニットと線形しきい値ユニットとが混在するような神経回路網に対して、微分処理や逆伝搬処理を用いることなく、簡単な相関処理のみを用いて学習を行なえるようにしている。具体的には、特許文献1の駆動学習法は、それぞれのユニットのしきい値に、互いに無相関で分散1のゆらぎを加えるステップと、教師データに対する出力誤差とユニットでのゆらぎとそのユニットへの入力との積の時間平均を求め、この時間平均からそのユニットについての重みの更新量を計算し、重みの修正を行なうステップと、を有している。
特開平8−235146号公報
特許文献1の揺らぎ駆動学習法では、各ニューロンの活性値に与える揺らぎノイズに、固定された分散値から生成される正規乱数を用いて学習を行っている。このような方法では、学習後の神経回路網の汎化能力が低いこと、収束までの学習時間が長時間になること等の課題がある。
本開示の目的は、このような課題を解決するためになされたものであり、汎化能力を向上させ、収束までの学習時間を短縮させることができるパターン認識装置、学習方法及び学習プログラムを提供することにある。
本開示にかかるパターン認識装置は、複数のパターンを含む入力データを複数回入力することによって学習させる非巡回神経回路網の各ニューロンへ揺らぎノイズとして与える正規乱数を生成する際の分散値を、前記非巡回神経回路網の学習中に変化させる処理部を備える。
また、本開示にかかる学習方法は、複数のパターンを含む入力データを複数回入力することによって学習させる非巡回神経回路網の各ニューロンへ揺らぎノイズとして与える正規乱数を生成する際の分散値を、前記非巡回神経回路網の学習中に変化させる。
さらに、本開示にかかる学習プログラムは、複数のパターンを含む入力データを複数回入力することによって学習させる非巡回神経回路網の各ニューロンへ揺らぎノイズとして与える正規乱数を生成する際の分散値を、前記非巡回神経回路網の学習中に変化させることをコンピュータに実行させる。
本開示によれば、汎化能力を向上させ、収束までの学習時間を短縮させることができるパターン認識装置、学習方法及び学習プログラムを提供する。
実施形態1に係るパターン認識装置において、非巡回神経回路網を例示した構成図である。 実施形態1に係る非巡回神経回路網におけるニューロンの入出力を例示した図である。 実施形態1に係る非巡回神経回路網に与えられる揺らぎノイズの正規乱数の分散値を例示したグラフであり、横軸は、入力データの入力回数を示し、縦軸は、分散値を示す。 実施形態1に係るパターン認識装置を例示したブロック図である。 実施形態1に係るパターン認識装置の学習方法を例示したフローチャート図である。
(実施形態1)
実施形態1に係るパターン認識装置を説明する。本実施形態のパターン認識装置は、例えば、パーソナルコンピュータ等の情報処理装置で構成されてもよい。具体的には、パターン認識装置は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、インターフェイス部(I/F)等からなるハードウェアで構成されてもよい。
本実施形態のパターン認識装置は、複数のパターンを含む入力データを複数回入力することによって学習させるニューラルネットワークを備えている。パターン認識装置は、複数のパターンを含む入力データを用いてニューラルネットワークを学習する。具体的には、パターン認識装置は、パターン群を学習する問題において、パターンに一対一に対応した教師信号に近似した出力値となるように、ニューラルネットワークを揺らぎ駆動式学習法を用いて学習する。ニューラルネットワークは、例えば、非巡回階層型ニューラルネットワーク(以下、非巡回神経回路網と呼ぶ。)である。以下で、まず、本実施形態のパターン認識装置が備える<非巡回神経回路網>を説明する。その後、<パターン認識装置の各構成>を説明し、パターン認識装置の動作として、<パターン認識装置の学習方法>を説明する。
<非巡回神経回路網>
図1は、実施形態1に係るパターン認識装置において、非巡回神経回路網を例示した構成図である。図1に示すように、非巡回神経回路網FNNは、複数のニューロンNRを有している。なお、図が煩雑にならないように、いくつかの符号を省略している。以下の図面も同様である。
複数のニューロンNRは、階層に分かれている。非巡回神経回路網FNNの階層は、入力層IL、中間層ML及び出力層OLを含む。例えば、入力層ILは、4つのニューロンNRを含み、中間層MLは、6つのニューロンNRを含み、出力層OLは、2つのニューロンNRを含む。なお、各層が含むニューロンNRの個数は、これらに限らず、適宜、個数を選択してもよい。また、中間層MLは1層に限らず、複数の中間層MLを有してもよい。
図2は、実施形態1に係る非巡回神経回路網FNNにおけるニューロンNRの入出力を例示した図である。図2に示すように、ニューロンNRは、複数のニューロンNRから入力データが入力される。そして、ニューロンNRは、下記の(1)式に示すニューロン出力値r(p,t)を出力する。pは、学習パターン番号を示し、tは、時刻を示す。
Figure 2021189532
上記の(1)式において、右辺のf(v(p,t))は、(2)式に示すシグモイド関数である。
Figure 2021189532
ここで、v(p,t)は、(3)式に示す活性値である。
Figure 2021189532
u(p,t)は、(4)式に示す膜電圧であり、n(t)は、(5)式に示す揺らぎノイズである。
Figure 2021189532
Figure 2021189532
下記の(6)式は、結合係数を示し、(7)式は、パターンpの入力データを示し、(8)式は、時間を示す。
Figure 2021189532
Figure 2021189532
Figure 2021189532
また、誤差関数e(p,t)は、(9)式で示されるような2乗誤差とする。
Figure 2021189532
上記の(9)式において、t(p)は、入力パターンをパターンpとしたときの、出力ニューロン集合Svの出力ニューロンkに対応する教師信号を示す。
揺らぎノイズn(t)が正規乱数であるとすると、(9)式の誤差を小さくするための結合係数wの更新式は、下記の(10)式で示される。なお、(10)式の[e(p,t)・n(t)・q(p,t)]Tpは、パターン入力継続期間Tにおいて、e(p,t)、n(t)及びq(p,t)の積の平均を示す。
Figure 2021189532
上記の(10)式で、逐次的に結合係数wを更新することで、(9)式の誤差を小さくすることができる。すなわち、パターンを含む入力データが入力されたときの非巡回神経回路網FNNの出力値を教師信号へ近付けることができ、入力データと教師信号の対を学習することができる。
例えば、特許文献1の学習方法では、揺らぎノイズn(t)に、下記の(11)式のような確率密度関数の正規乱数を使用し、分散値σ は固定する。
Figure 2021189532
本実施形態では、分散値σ を学習が進むにつれて、動的に変化させ、学習の高速化と汎化能力を向上させている。具体的には、本実施形態では、揺らぎノイズn(t)は、(12)式及び(13)式からなる確率密度関数を持つ正規乱数により生成される。
Figure 2021189532
Figure 2021189532
上記の(13)式において、lは、0を初期値とする学習ループ回数、すなわち、全入力データの学習を1回と数えた場合の学習回数の最大である。dは、下記の(14)式で与えられる学習開始時の正規分布の分散値を示す。dは、下記の(15)式で与えられる学習終了時の正規分布の分散値を示す。
Figure 2021189532
Figure 2021189532
図3は、実施形態1に係る非巡回神経回路網に与えられる揺らぎノイズの正規乱数の分散値σ を例示したグラフであり、横軸は、入力データの入力回数を示し、縦軸は、分散値を示す。図中のLOOP_MAX回は、全入力データの学習を1回と数えた場合の学習回数の最大である。図3に示すように、学習初期段階では、比較的大きな分散値を利用して学習を行い、徐々に、分散値を小さくする。これにより、本実施形態のパターン認識装置は、学習の最終段階において、学習するパターン群から少しずれた入力パターンについても正解を出力できるように頑強な非巡回神経回路網FNNとすることができる。よって、汎化能力を向上させることができる。
また、下記の(16)式は、学習誤差の変化aを示す。(16)式において、e(p)は、学習ループl回目の(18)式の誤差値を示す。
Figure 2021189532
学習誤差の変化aが0に近い値となると、学習が進まなくなったことを示す。そのような場合には、(17)式の様に、分散値dを少し大きくして学習を継続する。(17)式のεは、正の値とする。
Figure 2021189532
これにより、学習誤差を、極小値から抜け出させ、大局的な最小解へ収束させることが期待できる。ここで、(16)式のe(p)は、下記の(18)式〜(22)式より算出される揺らぎノイズのないニューロン出力の学習誤差である。
Figure 2021189532
Figure 2021189532
Figure 2021189532
Figure 2021189532
Figure 2021189532
<パターン認識装置の構成>
次に、本実施形態に係るパターン認識装置の構成を説明する。図4は、実施形態1に係るパターン認識装置を例示したブロック図である。図4に示すように、パターン認識装置1は、処理部11、入力データ記憶部12、ニューロン出力値算出部13、ニューロン出力値記憶部14、教師信号記憶部15、学習誤差算出部16、及び、正規乱数生成部17を備えている。処理部11、入力データ記憶部12、ニューロン出力値算出部13、ニューロン出力値記憶部14、教師信号記憶部15、学習誤差算出部16、及び、正規乱数生成部17は、処理手段、入力データ記憶手段、ニューロン出力値算出手段、ニューロン出力値記憶手段、教師信号記憶手段、学習誤差算出手段、及び、正規乱数生成手段としての機能を有している。パターン認識装置1は、単体として、機能する。
処理部11は、例えば、CPU、ROM、RAM、I/F等からなるハードウェアで構成されてもよい。CPUは、複数のパターンを含む入力データを用いた学習の全般の制御処理等を行う。ROMは、CPUによって実行される学習プログラム及び制御プログラム等を記憶する。RAMは、入力データ、出力値、教師信号、学習誤差等を記憶する。I/Fは、パターン認識装置1を構成する他の各部と入力データ、出力値、教師信号、学習誤差等の入出力を行う。CPU、ROM、RAM及びインターフェイス部は、データバスなどを介して相互に接続されている。
処理部11は、複数のパターンを含む入力データを非巡回神経回路網FNNに対して入力することにより、非巡回神経回路網FNNを学習させる。処理部11は、入力される学習パターンに一対一に対応した教師信号に近似する出力値を出力するように、揺らぎ駆動式学習法を用いて非巡回神経回路網FNNを学習させる。
また、処理部11は、非巡回神経回路網FNNの各ニューロンNRへ、揺らぎノイズとして正規乱数を与える。そして、処理部11は、正規乱数を生成する際の分散値σ を、非巡回神経回路網FNNの学習中に変化させる。具体的には、処理部11は、入力データを入力する毎に、分散値σ を変化させる。例えば、処理部11は、図3に示すように、入力データを入力する毎に、分散値σ を減少させる。また、処理部11は、非巡回神経回路網FNNから出力された出力値と、パターンに対応した教師信号の出力と、の学習誤差に基づいて分散値σ を変化させる。
入力データ記憶部12は、ROM、RAM等の記憶手段を含んでいる。入力データ記憶部12は、学習に用いられる複数のパターンを含む入力データを記憶する。学習に用いられる複数のパターンは、例えば、複数のパターンを含むパターン群である。
ニューロン出力値算出部13は、正規乱数を与えた非巡回神経回路網FNNに入力データを入力することによって非巡回神経回路網FNNの出力値を算出する。ニューロン出力値算出部13は、ROM、RAM等の記憶手段を含んでもよい。また、ニューロン出力値算出部13は、非巡回神経回路網FNNの出力値を算出するとともに、各ニューロンNRの結合係数wを更新する。
ニューロン出力値記憶部14は、ニューロン出力値算出部13によって算出された出力値を記憶する。ニューロン出力値記憶部14は、ROM、RAM等の記憶手段を含んでいる。教師信号記憶部15は、パターンに一対一に対応した教師信号を記憶する。教師信号記憶部15は、ROM、RAM等の記憶手段を含んでいる。
学習誤差算出部16は、学習誤差を算出する。学習誤差算出部16は、非巡回神経回路網FNNから出力された出力値と、パターンに対応した教師信号の出力と、の学習誤差を算出する。非巡回神経回路網FNNを学習させる際に、入力データは、複数回入力される。入力データが入力される複数回は、例えばL回と、L回よりも前の(L−1)回、(L−2)回、(L−3)回等を含む。学習誤差算出部16は、例えば、L回の学習誤差、(L−1)回の学習誤差、(L−2)回の学習誤差、(L−3)回の学習誤差等、入力データを入力する毎に学習誤差を算出する。学習誤差は、前述の(18)式を用いて算出される。
正規乱数生成部17は、非巡回神経回路網の各ニューロンへ揺らぎノイズとして入力される正規乱数を生成する。(3)式のn(t)は、各ニューロンNRへ、パターン入力継続期間T中に入力される揺らぎノイズである。
<パターン認識装置の学習方法>
次に、本実施形態のパターン認識装置の動作として、パターン認識装置の学習方法を説明する。図5は、実施形態1に係るパターン認識装置の学習方法を例示したフローチャート図である。
図5のステップS1に示すように、分散値σ を所定の初期値に初期化する。例えば、処理部11は、図3及び式(14)に示すように、分散値σ の初期値として、比較的大きな値に初期化する。
次に、ステップS2に示すように、結合係数wを初期化する。例えば、式(6)に示すように、結合係数wの初期値として、所定の結合係数wに設定する。
次に、ステップS3に示すように、パターン入力継続期間T中の各ニューロンNRに入力する揺らぎノイズn(t)を生成する。例えば、正規乱数生成部17は、式(5)に示すように、揺らぎノイズn(t)として、分散値σ を有する正規乱数を生成する。
次に、ステップS4に示すように、ニューロン出力値を算出するとともに、結合係数wを更新する。例えば、ニューロン出力値算出部13は、(1)式〜(8)式によって、ニューロン出力値を算出する。具体的には、ニューロン出力値算出部13は、入力データを非巡回神経回路網FNNに入力した場合に、(3)式によって、ニューロンNRの活性値v(p,t)を算出する。その際に、ニューロン出力値算出部13は、結合係数wを用いた膜電圧wq(p,t)、正規乱数生成部17によって生成された揺らぎノイズn(t)によって、ニューロン出力値を算出する。
本実施形態において、(5)式の揺らぎノイズn(t)は、パターン入力継続期間T中に入力される揺らぎノイズであり、(12)式及び(13)式の確率密度関数を持つ正規乱数により生成される。前述したように、(13)式において、dは、(14)式で与えられる学習開始時の正規分布の分散値σbk を示し、dは、(15)式で与えられる学習終了時の正規分布の分散値σek を示す。
ニューロン出力値算出部13は、計算したニューロン出力値を、ニューロン出力値記憶部14に記憶させる。また、(9)式及び(10)式を用いて結合係数wを更新する。
次に、ステップS5に示すように、(18)式によって、ニューロン出力値算出部13が算出した出力値と、パターンに対応した教師信号との学習誤差を算出する。例えば、学習誤差算出部16は、ニューロン出力値記憶部14に記憶された出力値と、教師信号記憶部15に記憶された教師信号と、を用いて学習誤差を算出する。本実施形態において、入力データが入力される複数回は、例えば、L回と、L回よりも前の(L−1)回、(L−2)回、及び、(L−3)回等を含む。学習誤差算出部16は、例えば、L回の学習誤差、(L−1)回の学習誤差、(L−2)回の学習誤差、(L−3)回の学習誤差等、入力データを入力する毎に学習誤差を算出する。
次に、ステップS6に示すように、学習誤差が変化しなくなったか判断する。学習誤差が変化しなくなったかどうかは、学習誤差の変化量aが0に近くなったかどうかにより判断する。学習誤差の変化量aが0に近くなったかどうかは、例えば、所定の値を設定して判断してもよい。すなわち、処理部11は、L回の誤差と、(L−1)回の誤差と、の差を含む学習誤差の変化量aが、所定の値よりも大きい場合には、学習誤差が変化していると判断する。一方、処理部11は、学習誤差の変化量aが、所定の値以下の場合には、学習誤差が変化しなくなったと判断する。処理部11は、学習誤差の変化量aを、例えば、(16)式を用いて算出する。学習誤差の変化量aは、L回の誤差と(L−1)回の誤差との差、L回の誤差と(L−2)回の誤差との差、L回の誤差と(L−3)回の誤差との差を含んでいる。
このように、処理部11は、学習誤差の変化量aが所定の値以下の場合に、学習誤差の変化aが0に近くなり、学習誤差が変化しなくなったと判断する。一方、処理部11は、学習誤差の変化量aが所定の閾値よりも大きい場合に、学習誤差の変化量aが0に近くならず、学習誤差が変化していると判断する。
ステップS6において、学習誤差が変化している場合には、ステップS7に示すように、分散値σ を(13)〜(15)及び図4に従って小さくする。一方、ステップS6において、学習誤差が変化しなくなった場合には、ステップS8に示すように、分散値σ を(17)式に従って大きくする。
次に、ステップS9に示すように、学習誤差が十分小さくなったか判断する。学習誤差が十分小さくなったかどうかは、例えば、所定の誤差を設定して判断してもよい。すなわち、処理部11は、学習誤差が所定の誤差よりも大きい場合に、学習誤差が十分小さくなっていないと判断する。一方、処理部11は、学習誤差が所定の誤差以下の場合に、学習誤差が十分小さくなったと判断する。
ステップS9において、学習誤差が十分小さくなっていないと判断した場合、すなわち、学習誤差が所定の誤差よりも大きい場合には、ステップS3に戻り、処理部11は、次の回の入力データの入力に進む。そして、パターン入力継続期間T中の全ニューロンに入力する揺らぎノイズn(t)を生成し、ステップS3〜ステップS9を繰り返す。一方、ステップS9において、学習誤差が十分小さくなったと判断した場合、すなわち、誤差が所定の誤差以下の場合には、処理部11は、学習を終了する。
次に、本実施形態の効果を説明する。本実施形態のパターン認識装置1は、非巡回神経回路網FNNの各ニューロンNRへ揺らぎノイズとして与える正規乱数を生成する際の分散値σ を動的に変化させる。具体的には、正規乱数を生成する際の分散値σ を、非巡回神経回路網FNNの学習中に変化させる処理部11を備える。例えば、学習が進むに従い、分散値σ を、大きな分散値から小さな分散値へ動的に変化させる。これにより、学習時間の短縮化、及び、学習後の非巡回神経回路網FNNの汎化能力を向上させることができる。
また、学習が停滞した場合は、意図的に大きな分散値σ に戻すことによって、極小値から抜け出す可能性を高める。すなわち、学習誤差が変化しなくなった場合のうち、極小解に陥り、学習の停滞が認められた際には、揺らぎノイズの分散値σ を大きくすることによって、極小解から抜け出すようにする。よって、学習の停滞状態から抜け出すことができ、学習時間を短縮することができる。
また、学習初期に、揺らぎノイズの分散値σ を大きくしている。これにより、学習用入力データに対して頑強となり、汎化能力を向上させることができる。
関連技術のバックプロパゲーション学習法では、入力データにノイズを付加し、汎化能力を向上する方法がある。本実施形態では、入力データにノイズを付加する必要がないので、入力データ用のノイズの生成を不要とすることができる。
(実施形態2)
次に、実施形態2に係るパターン認識装置を説明する。前述の実施形態1では、図5及び(13)式で示したように、分散値をループ回数により線形に変化させている。本実施形態では、分散値σ をループ回数により非線形に変化させる。例えば、下記の(23)式に示すように、分散値σ をループ回数により非線形に変化させてもよい。例えば、ループ回数が進むにつれて減少する割合が徐々に小さくなるように変化させてもよい。ここで、αは、0よりも大きい値である。
Figure 2021189532
本実施形態においても、処理部11は、学習初期に、揺らぎノイズの分散値σ を大きくすることができ、学習用入力データに対して頑強となり、汎化能力を向上させることができる。また、分散値σ をループ回数により非線形に変化させることで、入力データに適する分散値σ の変化傾向を選択することができる。よって、収束までの学習時間を短縮することができる。これ以外の構成、動作及び効果は、実施形態1の記載に含まれている。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本実施形態のパターン認識装置及び学習方法は、揺らぎ駆動学習を使ってパターンを学習する様々な分野で利用することができるが、POSの物体認識装置やロボットの視覚処理にも利用することが可能である。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
複数のパターンを含む入力データを複数回入力することによって学習させる非巡回神経回路網の各ニューロンへ揺らぎノイズとして与える正規乱数を生成する際の分散値を、前記非巡回神経回路網の学習中に変化させる学習方法。
(付記2)
前記入力データを入力する毎に、前記分散値を変化させる、
付記1に記載の学習方法。
(付記3)
前記入力データを入力する毎に、前記分散値を減少させる、
付記1に記載の学習方法。
(付記4)
前記入力データを入力することによって前記非巡回神経回路網から出力された出力値と、前記パターンに対応した教師信号と、の学習誤差に基づいて前記分散値を変化させる、
付記1または2に記載の学習方法。
(付記5)
前記入力データが入力される前記複数回は、第1の回と、前記第1の回よりも前の第2の回と、を含み、
前記第1の回の前記学習誤差の第1誤差と、前記第2の回の前記学習誤差の第2誤差と、の差を含む学習誤差の変化量が、所定の値よりも大きい場合には、前記分散値を小さくし、
前記学習誤差の変化量が、前記所定の値以下の場合には、前記分散値を大きくする、
付記4に記載の学習方法。
(付記6)
前記正規乱数を生成し、
前記正規乱数を与えた前記非巡回神経回路網に前記入力データを入力することによって前記出力値を算出するとともに、前記各ニューロンの結合係数を更新し、
前記学習誤差を算出する、
付記5に記載の学習方法。
(付記7)
前記学習誤差が所定の誤差よりも大きい場合には、次の回の前記入力データの入力に進み、前記学習誤差が前記所定の誤差以下の場合には、学習を終了する、
付記4〜6のいずれか1項に記載の学習方法。
(付記8)
複数のパターンを含む入力データを複数回入力することによって学習させる非巡回神経回路網の各ニューロンへ揺らぎノイズとして与える正規乱数を生成する際の分散値を、前記非巡回神経回路網の学習中に変化させることをコンピュータに実行させる学習プログラム。
(付記9)
前記入力データを入力する毎に、前記分散値を変化させる、
ことをコンピュータに実行させる付記8に記載の学習プログラム。
(付記10)
前記入力データを入力する毎に、前記分散値を減少させる、
ことをコンピュータに実行させる付記8に記載の学習プログラム。
(付記11)
前記入力データを入力することによって前記非巡回神経回路網から出力された出力値と、前記パターンに対応した教師信号と、の学習誤差に基づいて前記分散値を変化させる、
ことをコンピュータに実行させる付記8また9に記載の学習プログラム。
(付記12)
前記入力データが入力される前記複数回は、第1の回と、前記第1の回よりも前の第2の回と、を含み、
前記第1の回の前記学習誤差の第1誤差と、前記第2の回の前記学習誤差の第2誤差と、の差を含む学習誤差の変化量が、所定の値よりも大きい場合には、前記分散値を小さくさせ、
前記学習誤差の変化量が、前記所定の値以下の場合には、前記分散値を大きくさせる、
ことをコンピュータに実行させる付記11に記載の学習プログラム。
(付記13)
前記正規乱数を生成させ、
前記正規乱数を与えた前記非巡回神経回路網に前記入力データを入力することによって前記出力値を算出させるとともに、前記各ニューロンの結合係数を更新させ、
前記学習誤差を算出させる、
ことをコンピュータに実行させる付記12に記載の学習プログラム。
(付記14)
前記学習誤差が所定の誤差よりも大きい場合には、次の回の前記入力データの入力に進ませ、前記学習誤差が前記所定の誤差以下の場合には、学習を終了させる、
ことをコンピュータに実行させる付記11〜13のいずれか1項に記載の学習プログラム。
1 パターン認識装置
11 処理部
12 入力データ記憶部
13 ニューロン出力値算出部
14 ニューロン出力値記憶部
15 教師信号記憶部
16 学習誤差算出部
17 正規乱数生成部
IL 入力層
FNN 非巡回神経回路網
ML 中間層
NR ニューロン
OL 出力層

Claims (10)

  1. 複数のパターンを含む入力データを複数回入力することによって学習させる非巡回神経回路網の各ニューロンへ揺らぎノイズとして与える正規乱数を生成する際の分散値を、前記非巡回神経回路網の学習中に変化させる処理部を備えたパターン認識装置。
  2. 前記処理部は、前記入力データを入力する毎に、前記分散値を変化させる、
    請求項1に記載のパターン認識装置。
  3. 前記処理部は、前記入力データを入力する毎に、前記分散値を減少させる、
    請求項1に記載のパターン認識装置。
  4. 前記処理部は、前記入力データを入力することによって前記非巡回神経回路網から出力された出力値と、前記パターンに対応した教師信号と、の学習誤差に基づいて前記分散値を変化させる、
    請求項1または2に記載のパターン認識装置。
  5. 前記入力データが入力される前記複数回は、第1の回と、前記第1の回よりも前の第2の回と、を含み、
    前記処理部は、
    前記第1の回の前記学習誤差の第1誤差と、前記第2の回の前記学習誤差の第2誤差と、の差を含む学習誤差の変化量が、所定の値よりも大きい場合には、前記分散値を小さくし、
    前記学習誤差の変化量が、前記所定の値以下の場合には、前記分散値を大きくする、
    請求項4に記載のパターン認識装置。
  6. 前記正規乱数を生成する正規乱数生成部と、
    前記正規乱数を与えた前記非巡回神経回路網に前記入力データを入力することによって前記出力値を算出するとともに、前記各ニューロンの結合係数を更新するニューロン出力値算出部と、
    前記学習誤差を算出する学習誤差算出部と、
    をさらに備えた、
    請求項5に記載のパターン認識装置。
  7. 前記処理部は、前記学習誤差が所定の誤差よりも大きい場合には、次の回の前記入力データの入力に進み、前記学習誤差が前記所定の誤差以下の場合には、学習を終了する、
    請求項4〜6のいずれか1項に記載のパターン認識装置。
  8. 複数のパターンを含む入力データを複数回入力することによって学習させる非巡回神経回路網の各ニューロンへ揺らぎノイズとして与える正規乱数を生成する際の分散値を、前記非巡回神経回路網の学習中に変化させる学習方法。
  9. 前記入力データが入力される前記複数回は、第1の回と、前記第1の回よりも前の第2の回と、を含み、
    前記入力データを入力することによって前記非巡回神経回路網から出力された出力値と、前記パターンに対応した教師信号と、の学習誤差に基づいて前記分散値を変化させる際に、
    前記第1の回の前記学習誤差の第1誤差と、前記第2の回の前記学習誤差の第2誤差と、の差を含む学習誤差の変化量が、所定の値よりも大きい場合には、前記分散値を小さくし、
    前記学習誤差の変化量が、前記所定の値以下の場合には、前記分散値を大きくする、
    請求項8に記載の学習方法。
  10. 複数のパターンを含む入力データを複数回入力することによって学習させる非巡回神経回路網の各ニューロンへ揺らぎノイズとして与える正規乱数を生成する際の分散値を、前記非巡回神経回路網の学習中に変化させることをコンピュータに実行させる学習プログラム。
JP2020091429A 2020-05-26 2020-05-26 パターン認識装置、学習方法及び学習プログラム Active JP7010541B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020091429A JP7010541B2 (ja) 2020-05-26 2020-05-26 パターン認識装置、学習方法及び学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020091429A JP7010541B2 (ja) 2020-05-26 2020-05-26 パターン認識装置、学習方法及び学習プログラム

Publications (2)

Publication Number Publication Date
JP2021189532A true JP2021189532A (ja) 2021-12-13
JP7010541B2 JP7010541B2 (ja) 2022-01-26

Family

ID=78848417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020091429A Active JP7010541B2 (ja) 2020-05-26 2020-05-26 パターン認識装置、学習方法及び学習プログラム

Country Status (1)

Country Link
JP (1) JP7010541B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7491622B1 (ja) 2023-03-29 2024-05-28 Necプラットフォームズ株式会社 パターン認識装置、学習方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561848A (ja) * 1991-09-02 1993-03-12 Hitachi Ltd 最適アルゴリズムの選定及び実行のための装置及び方法
JPH05197891A (ja) * 1991-03-12 1993-08-06 Babcock Hitachi Kk 異常検出方法および装置
JPH05298277A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd ニュ−ラルネット学習装置及び学習方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197891A (ja) * 1991-03-12 1993-08-06 Babcock Hitachi Kk 異常検出方法および装置
JPH0561848A (ja) * 1991-09-02 1993-03-12 Hitachi Ltd 最適アルゴリズムの選定及び実行のための装置及び方法
JPH05298277A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd ニュ−ラルネット学習装置及び学習方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7491622B1 (ja) 2023-03-29 2024-05-28 Necプラットフォームズ株式会社 パターン認識装置、学習方法、及びプログラム

Also Published As

Publication number Publication date
JP7010541B2 (ja) 2022-01-26

Similar Documents

Publication Publication Date Title
Behera et al. On adaptive learning rate that guarantees convergence in feedforward networks
Suliman et al. A review on back-propagation neural networks in the application of remote sensing image classification
Lawrence et al. What size neural network gives optimal generalization? Convergence properties of backpropagation
US11676026B2 (en) Using back propagation computation as data
Zimmermann et al. Forecasting with recurrent neural networks: 12 tricks
Lehtokangas et al. Initializing weights of a multilayer perceptron network by using the orthogonal least squares algorithm
US5630023A (en) Signal processor
Wang et al. A modified error function for the backpropagation algorithm
JP2007265345A (ja) 情報処理装置および方法、学習装置および方法、並びにプログラム
Salvatori et al. Predictive coding can do exact backpropagation on convolutional and recurrent neural networks
Abiyev et al. Identification and control of dynamic plants using fuzzy wavelet neural networks
JP7010541B2 (ja) パターン認識装置、学習方法及び学習プログラム
Solazzi et al. Regularising neural networks using flexible multivariate activation function
Tsung et al. Phase-space learning
Annabi et al. Bidirectional interaction between visual and motor generative models using predictive coding and active inference
Gabrijel et al. On-line identification and reconstruction of finite automata with generalized recurrent neural networks
Yang et al. A neural network learning algorithm of chemical process modeling based on the extended Kalman filter
Aizenberg et al. Why we need complex-valued neural networks?
Chartier et al. BAM learning of nonlinearly separable tasks by using an asymmetrical output function and reinforcement learning
Kumar et al. Neural networks and fuzzy logic
Peng et al. Nonmonotone BFGS-trained recurrent neural networks for temporal sequence processing
Gorse et al. A pulse-based reinforcement algorithm for learning continuous functions
Malagon et al. Evolving neural networks in reinforcement learning by means of UMDAc
Sorheim A combined network architecture using ART2 and back propagation for adaptive estimation of dynamical processes
Ghorrati A New Adaptive Learning algorithm to train Feed-Forward Multi-layer Neural Networks, Applied on Function Approximation Problem

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220106

R150 Certificate of patent or registration of utility model

Ref document number: 7010541

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150