JPH04253259A - ニューラルネットワークの学習方法 - Google Patents

ニューラルネットワークの学習方法

Info

Publication number
JPH04253259A
JPH04253259A JP3009072A JP907291A JPH04253259A JP H04253259 A JPH04253259 A JP H04253259A JP 3009072 A JP3009072 A JP 3009072A JP 907291 A JP907291 A JP 907291A JP H04253259 A JPH04253259 A JP H04253259A
Authority
JP
Japan
Prior art keywords
learning
subset
neural network
pattern
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3009072A
Other languages
English (en)
Inventor
Satoshi Maruyama
智 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JFE Steel Corp
Original Assignee
Kawasaki Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Steel Corp filed Critical Kawasaki Steel Corp
Priority to JP3009072A priority Critical patent/JPH04253259A/ja
Publication of JPH04253259A publication Critical patent/JPH04253259A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、パターン識別、システ
ム同定などで用いられるニューラルネットワークの学習
方法に関し、さらに詳しくは学習時間の短縮を図る学習
方法に関する。
【0002】
【従来の技術】計算機の発達に伴い、従来は難しいとさ
れていた非線形システムの同定が可能になってきている
。そこでパラメータによって適当な非線形関数を構成す
ることが必要になる。代表的な構成関数として、隠れ層
および非線形処理素子を持ったフィールドフォワード型
ニューラルネットワークがある。この関数はいくつかの
典型的な値に対して模範となる答えを持っているとする
。そしてそのような関数を構成するためには、n(・)
を適当なノルムとして、
【0003】
【数1】
【0004】を最小とするようなパラメータの組x=(
x1 ,...,xM )を求めることになる。ここで
はtp は教師パターンというべき所望の値であり、o
p は学習用入力パターンからパラメータ化されたモデ
ルによって得られる出力パターンである。またIは学習
用入力パターンと教師パターンの組みを表わす集合Tの
部分集合である。最終的には集合Iは集合Tを表すこと
になる。
【0005】
【外1】
【0006】って修正ベクトルを決めているが、第6図
に示す通り集合Iは修正回数τにかかわらず、I(τ)
=Tと定める方法である。またパターンに着目した方式
として特開平1−232464がある。ここではパター
ン(識別対象)をあらかじめいくつかのグループに分け
、そのグループ内での個々のパターンのネットワークと
分けられた対象同士のネットワークを構成し、識別に両
者の情報を使う方法が提案されている。
【0007】
【発明が解決しようとする課題】ところが修正回数τに
かかわらず、I(τ)=Tと定める方法は、学習用入力
パターンが互いにパターンとして似ているものを含んで
いると、収束に要する計算回数が多くなってしまう。特
開平1−232464の方法は、学習時間の短縮は行え
るものの、規模の異なる複数のネットワークを構成しな
ければならないため、複雑さが増し、管理や判定に支障
を来たすおそれがある。本発明では以上述べた収束計算
の増加という問題点を除く方法を提供するものである。
【0008】
【課題を解決するための手段】本発明者は学習用入力パ
ターンの距離(類似度)とその収束特性とが関連してい
ることを発見した。そしてそのパターン間の距離を何ら
かの手段により計算して、もっとも距離の近いパターン
同士を先に計算することによって学習の効果が上がるこ
とがわかった。従って、問題を解決するには、学習用パ
ターン同士の距離を計算する手順と、その距離に基づい
て更新パラメータを計算する範囲となる集合を求める手
順が必要不可欠である。
【0009】本発明は、入力層、隠れ層及び出力層の結
合重みを示す初期パラメータ及び学習停止誤差を設定し
ておき、教師パターンと入力パターンから求められる出
力パターンに従って該パラメータを変化させ、該出力パ
ターンと該教師パターンの誤差の評価関数が該学習停止
誤差以下となるように学習を行わせるニューラルネット
ワークの学習方法に適用されるものであり、次の方法を
採った。
【0010】すなわち、学習を開始する前の全入力パタ
ーンから以下(1)〜(4)条件を満足する各部分集合
と該各部分集合へ対応する学習停止誤差を設定しておき
、学習過程においては初期パラメータをランダムに設定
して最初の部分集合から該最初の部分集合の学習停止誤
差以下となるまで学習を行い、次いで、該学習停止時の
パラメータを次の部分集合の初期パラメータとして該次
の部分集合の学習を行い、以下同様に学習順序に従って
全部分集合について学習を行うことを特徴とするニュー
ラルネットワークの学習方法である。
【0011】ただし、 (1)各部分集合の要素は個々の入力パターンである。 (2)該部分集合の学習順序は設定されている。 (3)学習順序が最後の部分グループ集合は該全入力パ
ターンを要素とする集合である。 (4)学習順序が最後の部分グループ集合は該全入力パ
ターンを要素とする集合である。
【0012】また、部分集合は階層化クラスター分析に
よって求めてもよい。さらに全入力パターンに対応する
学習停止誤差と各部分グループに対応する学習停止誤差
との比をそれぞれ全入力パターンの数と各部分グループ
に含まれるパターンの数の比に等しくすることができる
【0013】
【作用】以下に本発明の作用を説明する。図1は本発明
の概念を表すフローである。以下のこのフローにしたが
って説明する。誤差の評価関数が学習用入力パターンに
対して各学習用入力パターンごとの同一のノルムの線形
和になっている場合を考える。ここでノルムとしてはL
2 ノルム、すなわち二乗ノルムを考える。まず誤差の
評価関数が学習用入力パターンと教師パターンの二乗和
の1/2で表されているとする。これを式にすると次の
ようになる。
【0014】
【数2】
【0015】ここでxはパラメータ、up はp番目の
教師パターン、op はp番目の学習用入力パターンの
組sp を用いたニューラルネットワーク出力値である
。具体的には、学習用入力パターンspに対する出力ユ
ニットkの出力信号をopk(x)、そのときの中間ユ
ニットの出力信号をhpk(x)とすると
【0016】
【数3】
【0017】
【数4】
【0018】
【数5】
【0019】
【数6】
【0020】となる。学習には誤差の評価関数の勾配ベ
クトルを用いる。結果のみを記すと、教師ベクトルを表
すパターンのt番目の部分集合It について
【002
1】
【数7】
【0022】
【数8】
【0023】が成り立つ。次に階層的なクラスタリング
構成を求める。このために各パターンごとの距離を求め
る。距離の尺度として、通常のユークリッド距離、標準
化ユークリッド距離がある。これらの距離を求めた後、
各パターンを横軸に、クラスター間の距離を縦軸にして
、各クラスター毎の関係を表示した図(デンドログラム
)を描く。このためには各クラスター間の距離を定義し
なければならない。一つの方法として、二つのクラスタ
ーのそれぞれから取出した任意の個体の組合わせの中で
、距離が最小のものをもってこの二つのクラスター間の
距離と定義する方法(最短距離法)がある。
【0024】デンドログラムによってグループを構成す
る方法は以下の通りである。まず最も距離の近いパター
ン二種類をひとつの集合I1 とする。つぎにデンドロ
グラムをI1 から上にたどり、隣接するクラスターを
含めて新しい集合I2 を作る。この操作を集合がすべ
てのパターンを含むまで続ける。このようにして集合の
列I1 ,I2 ,…,IT を作る。注意すべきこと
は、任意のi,j(ただしi<j)に対してIi ⊂I
j が成り立つこと、およびIT =Iとなることであ
る。
【0025】またIT に応じて目標となる誤差も変更
すべきである。It に応じて変更された目標誤差をε
t とすると、集合It の場合と同じようにεi <
εj およびεT =ε(学習停止誤差)が成り立つよ
うにするとよい。以上の準備の上で、学習を開始する。 概要は集合It と誤差εt に対する学習(これを部
分学習と呼ぶ)を行わせ、収束と判断した場合に集合I
t+1 と誤差εt+1 に対する部分学習を行わせる
操作を、集合It がIに一致するまで繰返すことであ
る。
【0026】具体的な学習はモーメント付きバックプロ
パゲーションといわれる方法であり、手順は以下のとお
りである。なお、以下の記述ではパラメータのことをベ
クトルと呼ぶこともある。まず集合It に基づく勾配
ベクトル∇EIt(x(τ))を求める。ここでτは更
新の回数を表す。次に修正ベクトルΔx(τ)を次の式
で求める。
【0027】     Δx(τ)=η(−(1−α)∇EIt(x(
τ))+αΔx(τ−1))ここでηは学習効率と呼ば
れる定数であり、この値が大きい程収束に必要な回数も
短くなるが、同時に不安定性も増す。またαはモーメン
トと呼ばれる定数であり、この値を大きくすると不安定
性が少なくなる。この修正ベクトルによって新しいパラ
メータを以下の式で求める。
【0028】x(τ+1)=x(τ)+Δx(τ)この
ようにして順次τを増し、∇EIt(x(τ))<εt
 が成立したときに部分学習を終了したとみなす。この
ときt=Tならば学習を終了し、そうでないならばt=
t+1として新たな部分学習を開始する。注意すべきこ
とは、新しい部分学習の最初には前面学習済みのパラメ
ータをそのまま使うことである。この方法により、パラ
メータの更新を最小限度にとどめることができる。
【0029】
【実施例】以下に本発明の実施例を説明する。この例で
は縦12、横14の計168の画素からなるパターンを
認識する問題をニューラルネットワークによって解くこ
ととする。ここでは入力ユニットが168、隠れユニッ
トが20、出力ユニットが10のニューラルネットを考
える。ただしこの数にはパターンにかかわらず絶えず1
を出力するユニットであるspIおよびhpJは含んで
いない。
【0030】パターンspiと教師信号up の対を図
3に示す。またパターンspiとニューラルネットワー
クの入力の対応を図4に示す。図3に示した教師信号u
p について互いの標準化ユークリッド距離を計算した
。教師信号up の第k成分をupkと書くと、教師信
号up と教師信号uq の標準化ユークリッド距離d
pqは次の式で表される。
【0031】
【数9】
【0032】ただし、
【0033】
【数10】
【0034】
【数11】
【0035】である。pはパターンの総数である。また
k(0≦k≦168)は入力ユニットを識別する添字で
ある。次にこの距離に基づいて階層的クラスタリングを
実施した。階層化の方法としては最近接法を用いた。こ
の方法によって階層化を図示したデンドログラムを図5
に示す。この図から、最も距離の近い順に集合を構成す
ると次のようになる。
【0036】I1 ={6,8} I2 ={1,3,6,7,8} I3 ={0,1,3,5,6,7,8,9}I4 =
{0,1,3,4,5,6,7,8,9}I5 ={0
,1,2,3,4,5,6,7,8,9}}このように
して集合を構成したのちに、各集合に対する目標誤差(
部分誤差)を設定する。本実施例では全体の誤差をεと
したとき部分誤差εt を以下の式で求めた。
【0037】εt =N(It )ε/N(I)ここで
N(・)は集合の数を求める関数である。このようにし
て本方法を適用し、従来方法と比較した。従来方法では
、図6のように入力パターンを変化させずに最初からI
T =Iのときの勾配ベクトルを利用した式で学習を行
った。
【0038】本方法と従来方法を10組の異なる初期パ
ラメータに適用し、収束に至るまでの電学習回数を調べ
た。ただし回数が5000階を越えた場合は学習を打ち
切った。この結果を表1に示した。この表から本方法で
は10組が全て収束しているのに対し、従来方法では殆
どの組が5000回の学習でも収束しないことがわかる
。この結果、従来方法より本方法が優れていることは明
らかである。
【0039】
【表1】
【0040】
【発明の効果】本発明によれば、ネットワークの構造を
変更することなく学習回数を短縮することができるので
、複雑なパターン認識や最適化問題などの解を短時間で
得ることができ、その効果は大きい。
【図面の簡単な説明】
【図1】本発明の方法の概要を示すフローである。
【図2】本発明に用いた学習用入力パターンと教師信号
の一例の説明図である。
【図3】本発明に用いた学習用入力パターンと教師信号
の一例の説明図である。
【図4】学習用教師パターンとニューラルネットワーク
の入力の対応の説明図である。
【図5】階層的クラスタリングにより求めた教師データ
のデンドログラムである。
【図6】従来の方法を表すフローである。
【符号の説明】
x      パラメータ ε      学習停止誤差 spi    学習用入力パターン u0 〜9 教師データ

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】  入力層、隠れ層及び出力層の結合重み
    を示す初期パラメータ及び学習停止誤差を設定しておき
    、教師パターンと学習用入力パターンから求められる出
    力パターンに従って該パラメータを変化させ、該出力パ
    ターンと該教師パターンの誤差の評価関数が該学習停止
    誤差以下となるように学習を行わせるニューラルネット
    ワークの学習方法において、学習を開始する前に、全入
    力パターンから以下の(1)から(4)の条件を満足す
    る各部分集合と、該各部分集合に対応する学習停止誤差
    を設定しておき、学習過程においては、初期パラメータ
    をランダムに設定して最初の部分集合から該最初の部分
    集合の学習停止誤差以下となるまで学習を行い、次いで
    該学習停止時のパラメータを次の部分集合の初期パラメ
    ータとして該次の部分集合の学習を行い、以下同様に学
    習順序に従って全部分集合について学習を行うことを特
    徴とするニューラルネットワークの学習方法。ただし、
    (1)各部分集合の要素は個々の入力パターンである。 (2)該部分集合の学習順序は設定されている。 (3)学習順序が先の部分集合は学習順序が後の部分集
    合の真部分集合である。 (4)学習順序が最後の部分集合は該全入力パターンを
    要素とする集合である。
  2. 【請求項2】  該部分集合を階層化クラスター分析に
    よって求める請求項1記載のニューラルネットワークの
    学習方法。
  3. 【請求項3】  該全入力パターンに対応する学習停止
    誤差と該各部分集合に対応する学習停止誤差との比がそ
    れぞれ該全入力パターンの数と該各部分集合に含まれる
    パターンの数の比に等しい請求項1記載のニューラルネ
    ットワークの学習方法。
JP3009072A 1991-01-29 1991-01-29 ニューラルネットワークの学習方法 Pending JPH04253259A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3009072A JPH04253259A (ja) 1991-01-29 1991-01-29 ニューラルネットワークの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3009072A JPH04253259A (ja) 1991-01-29 1991-01-29 ニューラルネットワークの学習方法

Publications (1)

Publication Number Publication Date
JPH04253259A true JPH04253259A (ja) 1992-09-09

Family

ID=11710407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3009072A Pending JPH04253259A (ja) 1991-01-29 1991-01-29 ニューラルネットワークの学習方法

Country Status (1)

Country Link
JP (1) JPH04253259A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009506464A (ja) * 2005-08-29 2009-02-12 マイクロソフト コーポレーション 筆跡入力のスタイルを意識した使用
JP2009520305A (ja) * 2005-12-19 2009-05-21 マイクロソフト コーポレーション 手書きキャラクタ認識のための異書体に基づく筆者適応

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009506464A (ja) * 2005-08-29 2009-02-12 マイクロソフト コーポレーション 筆跡入力のスタイルを意識した使用
JP2009520305A (ja) * 2005-12-19 2009-05-21 マイクロソフト コーポレーション 手書きキャラクタ認識のための異書体に基づく筆者適応

Similar Documents

Publication Publication Date Title
Yair et al. Competitive learning and soft competition for vector quantizer design
Trawiński et al. A genetic fuzzy linguistic combination method for fuzzy rule-based multiclassifiers
CN111259738A (zh) 人脸识别模型构建方法、人脸识别方法及相关装置
CN111488946A (zh) 基于信息融合的雷达伺服系统故障诊断方法
CN110275928A (zh) 迭代式实体关系抽取方法
JPH08227408A (ja) ニューラルネットワーク
CN113627471A (zh) 一种数据分类方法、系统、设备及信息数据处理终端
JPH04253259A (ja) ニューラルネットワークの学習方法
Chuang et al. Adaptive fuzzy regression clustering algorithm for TSK fuzzy modeling
CN114707655A (zh) 一种量子线路转换方法、系统、存储介质和电子设备
CN110739030B (zh) 一种乙烯生产过程小样本的软测量方法
Ding et al. Simplified space based neural architecture search
Liu et al. Efficient attentive knowledge tracing for long-tail distributed records
JPH05197705A (ja) ニューラルネットワークの学習システム
Sun et al. Regularization of deep neural networks using a novel companion objective function
Chen et al. Static correlative filter based convolutional neural network for visual question answering
JP3171897B2 (ja) 知識情報処理装置
CN117934890B (zh) 基于局部和全局邻居对齐的原型对比图像聚类方法及系统
JPH10187649A (ja) ニューラルネットワーク
JPH04253260A (ja) ニューラルネットワークの学習方法
Tian et al. Fast CNN Inference by Adaptive Sparse Matrix Decomposition
Weifeng Research on the Optimization of PID Controller Parameters Based on Teaching and Learning Optimization Algorithm
Seth et al. FusDom: Combining in-Domain and Out-of-Domain Knowledge for Continuous Self-Supervised Learning
Owens et al. A multi-output-layer perceptron
CN115423010A (zh) 基于机器学习的飞行器遥测数据自动判读方法及系统