JPH0594554A - ニユ−ラルネツトワ−ク装置 - Google Patents
ニユ−ラルネツトワ−ク装置Info
- Publication number
- JPH0594554A JPH0594554A JP27869591A JP27869591A JPH0594554A JP H0594554 A JPH0594554 A JP H0594554A JP 27869591 A JP27869591 A JP 27869591A JP 27869591 A JP27869591 A JP 27869591A JP H0594554 A JPH0594554 A JP H0594554A
- Authority
- JP
- Japan
- Prior art keywords
- output
- input
- data
- learning
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
(57)【要約】
【目的】本発明は、実用的なニュ−ラルネットワ−ク装
置を得ることを目的とする。 【構成】ニュ−ラルネットワ−ク装置本体11と、学習
用デ−タを備えた学習デ−タ提示部13と、学習用デ−
タとニュ−ラルネットワ−ク装置本体11の出力とか
ら、ニュ−ラルネットワ−ク装置本体11の入力と出力
とが所定の関係になるように、ニュ−ラルネットワ−ク
装置本体11を制御するネットワ−ク修正部15と、補
充学習用入力デ−タを生成すると共に、この補充学習用
入力デ−タに対するニュ−ラルネットワ−ク装置本体1
1の出力として望まれる出力(補充教師デ−タ)を利用
者に要求し、この補充教師デ−タと補充学習用入力デ−
タとを新たな学習用デ−タとして学習デ−タ提示部13
に与える補充デ−タ生成手段17とを備えていることを
特徴とするニュ−ラルネットワ−ク装置。
置を得ることを目的とする。 【構成】ニュ−ラルネットワ−ク装置本体11と、学習
用デ−タを備えた学習デ−タ提示部13と、学習用デ−
タとニュ−ラルネットワ−ク装置本体11の出力とか
ら、ニュ−ラルネットワ−ク装置本体11の入力と出力
とが所定の関係になるように、ニュ−ラルネットワ−ク
装置本体11を制御するネットワ−ク修正部15と、補
充学習用入力デ−タを生成すると共に、この補充学習用
入力デ−タに対するニュ−ラルネットワ−ク装置本体1
1の出力として望まれる出力(補充教師デ−タ)を利用
者に要求し、この補充教師デ−タと補充学習用入力デ−
タとを新たな学習用デ−タとして学習デ−タ提示部13
に与える補充デ−タ生成手段17とを備えていることを
特徴とするニュ−ラルネットワ−ク装置。
Description
【0001】
【産業上の利用分野】本発明は、組合わせ最適化判断、
パタ−ン認識、画像修復などの分野に応用可能なニュ−
ラルネットワ−ク装置に関する。
パタ−ン認識、画像修復などの分野に応用可能なニュ−
ラルネットワ−ク装置に関する。
【0002】
【従来の技術】近年、ニュ−ラルネット(神経回路網)
を用いた情報処理の有効性が見直され、各所で研究が活
発に行なわれている。ニュ−ラルネットワ−ク装置の応
用分野は、その並列性を生かした組合わせ最適化判断や
学習機能を利用したパタ−ン認識,音声認識,画像修
復,画像圧縮等の幅広い分野にまたがっている。
を用いた情報処理の有効性が見直され、各所で研究が活
発に行なわれている。ニュ−ラルネットワ−ク装置の応
用分野は、その並列性を生かした組合わせ最適化判断や
学習機能を利用したパタ−ン認識,音声認識,画像修
復,画像圧縮等の幅広い分野にまたがっている。
【0003】図8は従来のニュ−ラルネットワ−ク装置
の概略構成図である。このニュ−ラルネットワ−ク装置
は、大きく分けて、ニュ−ラルネット装置本体51と、
学習デ−タ提示部53と、ネットワ−ク修正部55とで
構成されている。
の概略構成図である。このニュ−ラルネットワ−ク装置
は、大きく分けて、ニュ−ラルネット装置本体51と、
学習デ−タ提示部53と、ネットワ−ク修正部55とで
構成されている。
【0004】ニュ−ラルネット装置本体51は、複数の
ニュ−ラルユニット層、即ち、入力層43,中間層4
5,出力層47とからなり、これらニュ−ラルユニット
層43,45,47により、階層タイプのニュ−ラルネ
ットワ−クが構成されている。入力層43,中間層4
5,出力層47はニュ−ロン素子41からなり、入力層
43と中間層45とを結ぶニュ−ロン素子41及び中間
層45と出力層47とを結ぶニュ−ロン素子41は結合
係数が割り振られたシナプス接合部49を介して接続さ
れている。
ニュ−ラルユニット層、即ち、入力層43,中間層4
5,出力層47とからなり、これらニュ−ラルユニット
層43,45,47により、階層タイプのニュ−ラルネ
ットワ−クが構成されている。入力層43,中間層4
5,出力層47はニュ−ロン素子41からなり、入力層
43と中間層45とを結ぶニュ−ロン素子41及び中間
層45と出力層47とを結ぶニュ−ロン素子41は結合
係数が割り振られたシナプス接合部49を介して接続さ
れている。
【0005】ここで、入力層43の第i番目のニュ−ロ
ン素子41と中間層45の第j番目のニュ−ロン素子4
1との結合係数をSjiとし、中間層45の第j番目のニ
ュ−ロン素子41と出力層47の第k番目のニュ−ロン
素子41との結合係数をTkjとし、入力層43の第i番
目のニュ−ロン素子41の出力信号をxi とし、中間層
45の第j番目のニュ−ロン素子41の出力信号をyj
とし、出力層47の第j番目のニュ−ロン素子41の出
力信号をzk とすると、ニュ−ラルネット装置本体51
の動作方程式は次のようになる。
ン素子41と中間層45の第j番目のニュ−ロン素子4
1との結合係数をSjiとし、中間層45の第j番目のニ
ュ−ロン素子41と出力層47の第k番目のニュ−ロン
素子41との結合係数をTkjとし、入力層43の第i番
目のニュ−ロン素子41の出力信号をxi とし、中間層
45の第j番目のニュ−ロン素子41の出力信号をyj
とし、出力層47の第j番目のニュ−ロン素子41の出
力信号をzk とすると、ニュ−ラルネット装置本体51
の動作方程式は次のようになる。
【0006】
【数1】 なお、Ii は入力層43の第i番目のニュ−ロン素子4
1の入力信号、θj ,φk はしきい値である 学習デ−タ提示部53には、学習用入力デ−タと、この
学習用入力デ−タを入力層43に与えたときに望まれる
出力層47の出力信号、つまり、教師デ−タとが蓄えら
れている。
1の入力信号、θj ,φk はしきい値である 学習デ−タ提示部53には、学習用入力デ−タと、この
学習用入力デ−タを入力層43に与えたときに望まれる
出力層47の出力信号、つまり、教師デ−タとが蓄えら
れている。
【0007】ネットワ−ク修正部55には、学習用入力
デ−タと教師デ−タ、並びに学習用入力デ−タに対する
出力層47の出力信号が与えられる。ネットワ−ク修正
部55は、この学習用入力デ−タと出力信号とから、結
合荷重Sji,Tkj及びしきい値θj ,φk が所定の関係
を満たすようにニュ−ラルネット装置本体51を制御す
る。
デ−タと教師デ−タ、並びに学習用入力デ−タに対する
出力層47の出力信号が与えられる。ネットワ−ク修正
部55は、この学習用入力デ−タと出力信号とから、結
合荷重Sji,Tkj及びしきい値θj ,φk が所定の関係
を満たすようにニュ−ラルネット装置本体51を制御す
る。
【0008】即ち、出力信号zk の関数である次式の誤
差関数Eが最小になるように制御する。
差関数Eが最小になるように制御する。
【0009】
【数2】 なお、Ok は教師デ−タ(教師信号)である。また、出
力信号zk は、入力信号xi (=Ii )、結合係数
Sji,Tkj及びしきい値θj ,φk の関数である。
力信号zk は、入力信号xi (=Ii )、結合係数
Sji,Tkj及びしきい値θj ,φk の関数である。
【0010】このように構成されたニュ−ラルネットワ
−ク装置では次のようにして学習が行われる。
−ク装置では次のようにして学習が行われる。
【0011】即ち、ランダムに定めた結合係数Sji,T
kj,しきい値θj ,φk を初期値としたニュ−ラルネッ
ト装置本体51に、学習デ−タ提示部53の最初の学習
用入力デ−タを入力層43に与え、このときの出力層4
7の出力をネットワ−ク修正部55に与える。ネットワ
−ク修正部55は、この出力と教師デ−タとから誤差関
数Eの値を求め、この値がより小さくなるように結合荷
重Sji,Tkj、しきい値θj ,φk を微少量増減させ、
修正を行なう。次いで学習デ−タ提示部53の他の入力
デ−タを順次与え、修正を繰り返すことでニュ−ラルネ
ットワ−ク装置は、しだいに教師デ−タを出力するよう
になる。そして、学習を終了した後は、入力が多少異な
っても正常な出力が得られる。このような学習は一般に
バックプロパゲ−ション学習法と呼ばれている。
kj,しきい値θj ,φk を初期値としたニュ−ラルネッ
ト装置本体51に、学習デ−タ提示部53の最初の学習
用入力デ−タを入力層43に与え、このときの出力層4
7の出力をネットワ−ク修正部55に与える。ネットワ
−ク修正部55は、この出力と教師デ−タとから誤差関
数Eの値を求め、この値がより小さくなるように結合荷
重Sji,Tkj、しきい値θj ,φk を微少量増減させ、
修正を行なう。次いで学習デ−タ提示部53の他の入力
デ−タを順次与え、修正を繰り返すことでニュ−ラルネ
ットワ−ク装置は、しだいに教師デ−タを出力するよう
になる。そして、学習を終了した後は、入力が多少異な
っても正常な出力が得られる。このような学習は一般に
バックプロパゲ−ション学習法と呼ばれている。
【0012】しかしながら、学習デ−タ提示部53に蓄
えられた学習用デ−タのどれとも似ていない入力や大き
く異なる入力が与えられると、その入力に対応した所望
の出力が得られないという問題があった。この種の問題
は、利用者が新たな学習用デ−タ(補充学習用デ−タ)
を作成し、これを用いて追加学習や再学習を行なえば解
決可能であるが、補充デ−タの作成指針が確立されてい
ないため、その実行は困難なものとなり、結果として実
用的なニュ−ラルネットワ−ク装置が得られないという
問題があった。
えられた学習用デ−タのどれとも似ていない入力や大き
く異なる入力が与えられると、その入力に対応した所望
の出力が得られないという問題があった。この種の問題
は、利用者が新たな学習用デ−タ(補充学習用デ−タ)
を作成し、これを用いて追加学習や再学習を行なえば解
決可能であるが、補充デ−タの作成指針が確立されてい
ないため、その実行は困難なものとなり、結果として実
用的なニュ−ラルネットワ−ク装置が得られないという
問題があった。
【0013】
【発明が解決しようとする課題】上述の如く、与えられ
た学習用デ−タだけでは、十分な学習を行なうことがで
きず、利用者が補充デ−タを作成する必要があった。し
かしながら、補充デ−タの作成指針が確立されていなか
ったので、利用者は補充デ−タを作成できず、実用に耐
え得るニュ−ラルネットワ−ク装置が得られないという
問題があった。
た学習用デ−タだけでは、十分な学習を行なうことがで
きず、利用者が補充デ−タを作成する必要があった。し
かしながら、補充デ−タの作成指針が確立されていなか
ったので、利用者は補充デ−タを作成できず、実用に耐
え得るニュ−ラルネットワ−ク装置が得られないという
問題があった。
【0014】本発明は、上記事情を考慮してなされたも
ので、その目的とするところは、利用者側で容易に追加
学習や再学習を行なえるニュ−ラルネットワ−ク装置を
提供することにある。
ので、その目的とするところは、利用者側で容易に追加
学習や再学習を行なえるニュ−ラルネットワ−ク装置を
提供することにある。
【0015】
【課題を解決するための手段】上記の目的を達成するた
めに、本発明のニュ−ラルネットワ−ク装置は、ニュ−
ラルネットワ−ク装置本体と、学習用デ−タを備えた学
習デ−タ提示部と、前記学習用デ−タと前記ニュ−ラル
ネットワ−ク装置本体の出力とから、前記ニュ−ラルネ
ットワ−ク装置本体の入力と出力とが所定の関係になる
ように、前記ニュ−ラルネットワ−ク装置本体を制御す
る制御手段と、前記ニュ−ラルネットワ−ク装置本体の
入力を生成すると共に、この入力に対する前記ニュ−ラ
ルネットワ−ク装置本体の望ましい出力を利用者に要求
し、この出力と前記入力とを新たな学習用デ−タとして
前記学習デ−タ提示部に与える補充デ−タ生成手段とを
備えていることを特徴とする。
めに、本発明のニュ−ラルネットワ−ク装置は、ニュ−
ラルネットワ−ク装置本体と、学習用デ−タを備えた学
習デ−タ提示部と、前記学習用デ−タと前記ニュ−ラル
ネットワ−ク装置本体の出力とから、前記ニュ−ラルネ
ットワ−ク装置本体の入力と出力とが所定の関係になる
ように、前記ニュ−ラルネットワ−ク装置本体を制御す
る制御手段と、前記ニュ−ラルネットワ−ク装置本体の
入力を生成すると共に、この入力に対する前記ニュ−ラ
ルネットワ−ク装置本体の望ましい出力を利用者に要求
し、この出力と前記入力とを新たな学習用デ−タとして
前記学習デ−タ提示部に与える補充デ−タ生成手段とを
備えていることを特徴とする。
【0016】
【作用】本発明のニュ−ラルネットワ−ク装置では、補
充デ−タ生成手段により、新たな学習用デ−タが得られ
る。したがって、この学習用デ−タを用いて追加学習や
再学習を行なうことで、不当な解が出現する可能性が低
くなり、実用的なニュ−ラルネットワ−ク装置を構築で
きるようになる。
充デ−タ生成手段により、新たな学習用デ−タが得られ
る。したがって、この学習用デ−タを用いて追加学習や
再学習を行なうことで、不当な解が出現する可能性が低
くなり、実用的なニュ−ラルネットワ−ク装置を構築で
きるようになる。
【0017】
【実施例】以下、図面を参照しながら実施例を説明す
る。
る。
【0018】図1は本発明の一実施例に係るニュ−ラル
ネットワ−ク装置の概略構成図である。このニュ−ラル
ネットワ−ク装置は、大きく分けて、ニュ−ラルネット
装置本体11と、学習デ−タ提示部13と、ネットワ−
ク修正部15と、補充デ−タ生成部17とからなる。
ネットワ−ク装置の概略構成図である。このニュ−ラル
ネットワ−ク装置は、大きく分けて、ニュ−ラルネット
装置本体11と、学習デ−タ提示部13と、ネットワ−
ク修正部15と、補充デ−タ生成部17とからなる。
【0019】ニュ−ラルネット装置本体11は、入力層
3,中間層5,出力層7とからなる階層タイプのニュ−
ラルネットワ−クである。各層3,5,7はそれぞれN
個,L個,M個のニュ−ロン素子1で構成され、入力層
3のニュ−ロン素子1は、中間層5に設けられた結合係
数が割り振られたシナプス接合部9を介して中間層5の
ニュ−ロン素子1と接続し、中間層5のニュ−ロン素子
1は、上述したように入力層3のニュ−ロン素子1と接
続すると共に、出力層7に設けられたシナプス接合部9
を介して出力層7のニュ−ロン素子1と接続している。
3,中間層5,出力層7とからなる階層タイプのニュ−
ラルネットワ−クである。各層3,5,7はそれぞれN
個,L個,M個のニュ−ロン素子1で構成され、入力層
3のニュ−ロン素子1は、中間層5に設けられた結合係
数が割り振られたシナプス接合部9を介して中間層5の
ニュ−ロン素子1と接続し、中間層5のニュ−ロン素子
1は、上述したように入力層3のニュ−ロン素子1と接
続すると共に、出力層7に設けられたシナプス接合部9
を介して出力層7のニュ−ロン素子1と接続している。
【0020】学習デ−タ提示部13には、学習用入力デ
−タとこの学習用入力デ−タに対する教師デ−タとから
なる初期学習用デ−タが蓄えられていると共に、後述す
る補充デ−タ生成部17により生成された補充学習用入
力デ−タと補充教師デ−タとからなる補充学習用デ−タ
が与えられ蓄積される。
−タとこの学習用入力デ−タに対する教師デ−タとから
なる初期学習用デ−タが蓄えられていると共に、後述す
る補充デ−タ生成部17により生成された補充学習用入
力デ−タと補充教師デ−タとからなる補充学習用デ−タ
が与えられ蓄積される。
【0021】ネットワ−ク修正部15には、上記初期学
習用デ−タと追加学習用デ−タ、並びにこれら学習用デ
−タに対する出力層7の出力が与えられる。ネットワ−
ク修正部15は、入力層3の入力と出力層7の出力とが
所定の関係を満たすように、ニュ−ラルネット装置本体
11を制御する。
習用デ−タと追加学習用デ−タ、並びにこれら学習用デ
−タに対する出力層7の出力が与えられる。ネットワ−
ク修正部15は、入力層3の入力と出力層7の出力とが
所定の関係を満たすように、ニュ−ラルネット装置本体
11を制御する。
【0022】図2は補充デ−タ生成部17の概略構成図
である。補充デ−タ生成部17は、大きく分けて、仮出
力信号生成部19と中間−出力層間逆算部21と入力−
中間層間逆算部23とで構成されている。仮出力信号生
成部19は、出力層19の仮の出力A1を生成する。中
間−出力層間逆算部21は、仮の出力A1から、出力層
19が仮の出力A1を出力するような中間層5の出力A
2を求める。入力−中間層間逆算部21は、出力A2か
ら、入力層3が出力A2を出力するような入力層3の出
力を求める。なお、入力層3は入力をそのまま中間層5
に流すだけなので、上記入力層3の出力は入力層3の入
力そのものである。補充デ−タ生成部17は、仮の出力
A1から逆算して得られた入力層3の入力を利用者に提
示すると共に、その入力信号に対する望ましい出力層7
の出力を利用者に要求し、上記入力を補充学習用入力デ
−タ、上記出力を補充教師デ−タとして学習デ−タ提示
部3に与える。
である。補充デ−タ生成部17は、大きく分けて、仮出
力信号生成部19と中間−出力層間逆算部21と入力−
中間層間逆算部23とで構成されている。仮出力信号生
成部19は、出力層19の仮の出力A1を生成する。中
間−出力層間逆算部21は、仮の出力A1から、出力層
19が仮の出力A1を出力するような中間層5の出力A
2を求める。入力−中間層間逆算部21は、出力A2か
ら、入力層3が出力A2を出力するような入力層3の出
力を求める。なお、入力層3は入力をそのまま中間層5
に流すだけなので、上記入力層3の出力は入力層3の入
力そのものである。補充デ−タ生成部17は、仮の出力
A1から逆算して得られた入力層3の入力を利用者に提
示すると共に、その入力信号に対する望ましい出力層7
の出力を利用者に要求し、上記入力を補充学習用入力デ
−タ、上記出力を補充教師デ−タとして学習デ−タ提示
部3に与える。
【0023】次に上記の如く構成されたニュ−ラルネッ
トワ−ク装置の学習について説明する。まず、学習デ−
タ提示部13に予め備わっている初期学習用デ−タを用
いて学習を行なう。この学習について、手書き数字のパ
タ−ン識別を例にあげて更に詳細に説明する。
トワ−ク装置の学習について説明する。まず、学習デ−
タ提示部13に予め備わっている初期学習用デ−タを用
いて学習を行なう。この学習について、手書き数字のパ
タ−ン識別を例にあげて更に詳細に説明する。
【0024】図3は手書き数字の2次元パタ−ンの一例
を表している。この2次元パタ−ンを24×24のメッ
シュに区切り、これを1次元的に並び替え、各メッシュ
の値として、予め設定されているしきい値によって
“1”又は“0”のいずれかを割り当てる。例えば、数
字の構成に寄与しているメッシュには“1”を割り当
て、数字の構成に寄与していないメッシュに“0”を割
り当てる。2次元パタ−ンを24×24(=576)の
メッシュに区切ったので、この場合、入力層3のニュ−
ロン素子1の個数Nは576となる。また、識別するべ
き数字は0,1,…,9の10個なので、出力層7のニ
ュ−ロン素子1の個数Mは10となる。なお、本実施例
では、中間層5のニュ−ロン素子1の個数Lを50とし
た。
を表している。この2次元パタ−ンを24×24のメッ
シュに区切り、これを1次元的に並び替え、各メッシュ
の値として、予め設定されているしきい値によって
“1”又は“0”のいずれかを割り当てる。例えば、数
字の構成に寄与しているメッシュには“1”を割り当
て、数字の構成に寄与していないメッシュに“0”を割
り当てる。2次元パタ−ンを24×24(=576)の
メッシュに区切ったので、この場合、入力層3のニュ−
ロン素子1の個数Nは576となる。また、識別するべ
き数字は0,1,…,9の10個なので、出力層7のニ
ュ−ロン素子1の個数Mは10となる。なお、本実施例
では、中間層5のニュ−ロン素子1の個数Lを50とし
た。
【0025】ここで、ニュ−ラルネットワ−ク装置本体
11の動作方程式は次式のようになる。
11の動作方程式は次式のようになる。
【0026】
【数3】 上式において、Sjiは入力層3の第i番目(1≦i≦5
76)のニュ−ロン素子1と中間層5の第j番目(1≦
j≦50)のニュ−ロン素子1との結合係数を示し、T
kjは中間層5の第j番目のニュ−ロン素子1と出力層7
の第k番目のニュ−ロン素子1との結合係数をTkjを示
し、xi は入力層3の第i番目のニュ−ロン素子1の出
力信号を示し、yj は中間層5の第j番目のニュ−ロン
素子1の出力信号を示し、zkは出力層7の第k番目の
ニュ−ロン素子1の出力信号を示し、Ii は入力層3の
第i番目のニュ−ロン素子1の入力信号を示し、θj 及
びφk はしきい値を示していている。また、本実施例で
は、出力信号z1 〜z10にそれぞれ1,…,9,0を対
応させている。例えば、入力信号が“5”のパタ−ンの
場合、出力信号zk の望ましい信号はz5 =1,z1 =
z2 =z3 =z4 =z6 =z7 =z8 =z9 =z10=0
となる。
76)のニュ−ロン素子1と中間層5の第j番目(1≦
j≦50)のニュ−ロン素子1との結合係数を示し、T
kjは中間層5の第j番目のニュ−ロン素子1と出力層7
の第k番目のニュ−ロン素子1との結合係数をTkjを示
し、xi は入力層3の第i番目のニュ−ロン素子1の出
力信号を示し、yj は中間層5の第j番目のニュ−ロン
素子1の出力信号を示し、zkは出力層7の第k番目の
ニュ−ロン素子1の出力信号を示し、Ii は入力層3の
第i番目のニュ−ロン素子1の入力信号を示し、θj 及
びφk はしきい値を示していている。また、本実施例で
は、出力信号z1 〜z10にそれぞれ1,…,9,0を対
応させている。例えば、入力信号が“5”のパタ−ンの
場合、出力信号zk の望ましい信号はz5 =1,z1 =
z2 =z3 =z4 =z6 =z7 =z8 =z9 =z10=0
となる。
【0027】まず、結合係数Sji,結合係数Tkj,しき
い値θj 及びφk の初期値として、範囲を制限した乱数
を用いる。
い値θj 及びφk の初期値として、範囲を制限した乱数
を用いる。
【0028】次に学習デ−タ提示部13に予め備わって
いる初期学習用デ−タの最初の学習用入力デ−タを入力
層3のニュ−ロン素子1に与える。ネットワ−ク修正部
15は、この学習用入力デ−タに対する出力層7の出力
信号zk と教師デ−タとから次式の誤差関数E´を評価
する。
いる初期学習用デ−タの最初の学習用入力デ−タを入力
層3のニュ−ロン素子1に与える。ネットワ−ク修正部
15は、この学習用入力デ−タに対する出力層7の出力
信号zk と教師デ−タとから次式の誤差関数E´を評価
する。
【0029】
【数4】 そして最急降下法等を用いて、誤差関数E´が小さくな
るように、即ち、出力信号zk が教師デ−タに近付くよ
うに、結合荷重Sji,Tkj及びしきい値θj ,φk を微
少量増減させ、修正を行なう。なお、出力信号Ok は教
師デ−タ(教師信号)である。また、出力信号zk は、
入力信号xi ,結合係数Sji,Tkj及びしきい値θj ,
φk の関数である。
るように、即ち、出力信号zk が教師デ−タに近付くよ
うに、結合荷重Sji,Tkj及びしきい値θj ,φk を微
少量増減させ、修正を行なう。なお、出力信号Ok は教
師デ−タ(教師信号)である。また、出力信号zk は、
入力信号xi ,結合係数Sji,Tkj及びしきい値θj ,
φk の関数である。
【0030】このような修正を残りの学習用入力デ−タ
についても行なうことで、ニュ−ラルネットワ−ク装置
は、しだいに教師デ−タを出力するようになり、初期学
習用デ−タの学習用入力デ−タとあまり異なっていない
入力に対しては、高い解答率が得られる。
についても行なうことで、ニュ−ラルネットワ−ク装置
は、しだいに教師デ−タを出力するようになり、初期学
習用デ−タの学習用入力デ−タとあまり異なっていない
入力に対しては、高い解答率が得られる。
【0031】次にニュ−ラルネットワ−ク装置の性能を
向上するために、補充デ−タ生成部17による追加学習
を行なう。
向上するために、補充デ−タ生成部17による追加学習
を行なう。
【0032】まず、仮出力生成部19により、出力層7
の仮の出力A1を生成する。ここでは出現することが望
ましくない信号を仮の出力A1の生成指針とする。望ま
しくない信号とは、例えば、出力層7の10個の出力信
号zk のうち、2個が同程度の出力レベルとなるものが
ある。即ち、z5 =z6 =0.7,z1 =z2 =z3 =
z4 =z7 =z8 =z9 =z10=0となるような出力信
号zk である。
の仮の出力A1を生成する。ここでは出現することが望
ましくない信号を仮の出力A1の生成指針とする。望ま
しくない信号とは、例えば、出力層7の10個の出力信
号zk のうち、2個が同程度の出力レベルとなるものが
ある。即ち、z5 =z6 =0.7,z1 =z2 =z3 =
z4 =z7 =z8 =z9 =z10=0となるような出力信
号zk である。
【0033】次に入力−中間層間逆算部21により、出
力層7が仮の出力A1を出力するような中間層5の出力
A2を求める。この出力A2の算出方法を図4のフロ−
チャ−トを用いて説明する。まず、仮出力信号A1の各
成分zk (k=1,…10)に非線形関数fの逆関数F
を作用させる(ステップS1)。逆関数Fは次式の通り
である。
力層7が仮の出力A1を出力するような中間層5の出力
A2を求める。この出力A2の算出方法を図4のフロ−
チャ−トを用いて説明する。まず、仮出力信号A1の各
成分zk (k=1,…10)に非線形関数fの逆関数F
を作用させる(ステップS1)。逆関数Fは次式の通り
である。
【0034】 F(z)=−loge {(1−z)/z)} 次にステップS1により得られた中間層5から出力層7
への信号Tkjyj のjについての荷重和から、出力yj
(1≦j≦50)に関する連立1次方程式
への信号Tkjyj のjについての荷重和から、出力yj
(1≦j≦50)に関する連立1次方程式
【0035】
【数5】 を求める(ステップS2)。次いでこの連立1次方程式
を解き、出力yj を求める(ステップ3)。このように
して得られた出力yj が、出力層7が仮の出力A1を出
力するような中間層5の出力A2である。
を解き、出力yj を求める(ステップ3)。このように
して得られた出力yj が、出力層7が仮の出力A1を出
力するような中間層5の出力A2である。
【0036】次に上記連立1次方程式の解法(ステップ
S3)の詳細について、図5のフロ−チャ−トを用いて
説明する。
S3)の詳細について、図5のフロ−チャ−トを用いて
説明する。
【0037】本実施例では、未知数の数、つまり、中間
層5のニュ−ロン素子1の個数(50個)が、方程式の
数、つまり、出力層7のニュ−ロン素子1の個数(10
個)より多いので、上記方程式は不定となり、解に任意
性が残る。そこで、まず、連立1次方程式の特解を1つ
求める(ステップS3a)。特解は次の手順で求めるこ
とができる。なお、表記を簡単にするため、結合係数T
kjを次のようにベクトル表示する。
層5のニュ−ロン素子1の個数(50個)が、方程式の
数、つまり、出力層7のニュ−ロン素子1の個数(10
個)より多いので、上記方程式は不定となり、解に任意
性が残る。そこで、まず、連立1次方程式の特解を1つ
求める(ステップS3a)。特解は次の手順で求めるこ
とができる。なお、表記を簡単にするため、結合係数T
kjを次のようにベクトル表示する。
【0038】
【数6】 なお、右辺の右肩のTは転置を表している。
【0039】また、基底{T}及びこの基底{T}の張
る部分空間における双対基底{T* }をそれぞれ下記の
ように表す。
る部分空間における双対基底{T* }をそれぞれ下記の
ように表す。
【0040】
【数7】
【0041】
【数8】 ただし、
【0042】
【数9】 である。
【0043】このような表記を用いると、内積に関して
次の等式が成り立つ。
次の等式が成り立つ。
【0044】
【数10】 この双対基底を用いると、上記連立一次方程式の特解、
即ち、中間層5の出力の特解yi specificは次式のよう
に表せる。
即ち、中間層5の出力の特解yi specificは次式のよう
に表せる。
【0045】
【数11】 次にこの特解yi specificを用いて上記連立一次方程式
の一般解を求める(ステップS3b)。
の一般解を求める(ステップS3b)。
【0046】即ち、基底{T}が張る部分空間に対する
補空間の正規直交基底{τ}をSchmidtの直交化
法により求め、下記のように表記する。
補空間の正規直交基底{τ}をSchmidtの直交化
法により求め、下記のように表記する。
【0047】
【数12】 ただし、
【0048】
【数13】 この正規直交基底{τ}を用いると、中間層5の出力の
一般解yi は次式のように表せる。
一般解yi は次式のように表せる。
【0049】
【数14】 ここで、λk は任意の実数である。
【0050】次に上記一般解yi の任意性を吸収する
(ステップS3c)。即ち、評価関数を導入し、それに
ついての最適化を行なうことで、一般解yi の任意性を
吸収する。本実施例では、ニュ−ロン素子1の興奮状態
を中間的なものとする次の評価関数C(yj ,λk )を
導入する。
(ステップS3c)。即ち、評価関数を導入し、それに
ついての最適化を行なうことで、一般解yi の任意性を
吸収する。本実施例では、ニュ−ロン素子1の興奮状態
を中間的なものとする次の評価関数C(yj ,λk )を
導入する。
【0051】
【数15】 ただし
【0052】
【数16】 評価関数C(yj ,λk )を最小にするという条件から
λk は、
λk は、
【0053】
【数17】 となる。ここで、右辺の括弧は内積を意味する。
【0054】なお、評価関数は上記のものに限らず、学
習用入力デ−タとして望まれる性質、例えば、数字の標
準的なドットパタ−ンに近いといった性質が分かってい
る場合には、それに対応した評価関数を用いることで、
そのような性質を評価関数に反映させることができる。
習用入力デ−タとして望まれる性質、例えば、数字の標
準的なドットパタ−ンに近いといった性質が分かってい
る場合には、それに対応した評価関数を用いることで、
そのような性質を評価関数に反映させることができる。
【0055】このようにして得られたλk をステップS
3bでもとめた一般解に代入することにより、一般解の
任意性が吸収され、中間層5の出力A2が求まる。
3bでもとめた一般解に代入することにより、一般解の
任意性が吸収され、中間層5の出力A2が求まる。
【0056】以上のようにして、図2の中間−出力層間
逆算部21は、仮の出力A1から、出力層19が仮の出
力A1を出力するような中間層5の出力A2を求める。
逆算部21は、仮の出力A1から、出力層19が仮の出
力A1を出力するような中間層5の出力A2を求める。
【0057】次に入力−中間層間逆算部23は、上記出
力A2から、入力層3が出力A2を出力するような入力
層3の入力A3を求める。図6,図7は入力A3を求め
る手順を示すフロ−チャ−トである。これは上述した出
力A1から出力A2を求める方法と同じである。即ち、
まず、出力A2からxi に関する連立一次方程式を作成
し(ステップS4,S5)、これを解いて入力A3を求
める(ステップS6,S7)。
力A2から、入力層3が出力A2を出力するような入力
層3の入力A3を求める。図6,図7は入力A3を求め
る手順を示すフロ−チャ−トである。これは上述した出
力A1から出力A2を求める方法と同じである。即ち、
まず、出力A2からxi に関する連立一次方程式を作成
し(ステップS4,S5)、これを解いて入力A3を求
める(ステップS6,S7)。
【0058】以上のようにして、例えば、z5 =z6 =
0.7,z1 =z2 =z3 =z4 =z7 =z8 =z9 =
z10=0のような望ましくない仮の信号A1を与える入
力A3が求まる。
0.7,z1 =z2 =z3 =z4 =z7 =z8 =z9 =
z10=0のような望ましくない仮の信号A1を与える入
力A3が求まる。
【0059】したがって、上記の例の場合において、望
ましくない仮の信号A1に対する補充教師デ−タをz5
=1,z1 =z2 =z3 =z4 =z6 =z7 =z8 =z
9 =z10=0として追加学習を行なえば、入力層3の入
力が信号A1であっても、正常な出力、即ち、手書き数
字が5だと判断される。このような追加学習を行なうこ
とで、不当な出力が出現する率が低くなり、信頼性が向
上する。また、以上のようにして得られた補充学習用デ
−タと初期学習用デ−タと一緒に用い、再学習を行なっ
ても識別能力が向上する。
ましくない仮の信号A1に対する補充教師デ−タをz5
=1,z1 =z2 =z3 =z4 =z6 =z7 =z8 =z
9 =z10=0として追加学習を行なえば、入力層3の入
力が信号A1であっても、正常な出力、即ち、手書き数
字が5だと判断される。このような追加学習を行なうこ
とで、不当な出力が出現する率が低くなり、信頼性が向
上する。また、以上のようにして得られた補充学習用デ
−タと初期学習用デ−タと一緒に用い、再学習を行なっ
ても識別能力が向上する。
【0060】また、補充学習用デ−タを利用者に明示す
ることにより、ニュ−ラルネット装置本体の状態がどの
ようなものであるか、即ち、どのような入力に対して出
力が正常なるか又は異常になるかが分かり、これにより
装置の有効利用が図れるなど、利用者は大きな利益が得
られる。
ることにより、ニュ−ラルネット装置本体の状態がどの
ようなものであるか、即ち、どのような入力に対して出
力が正常なるか又は異常になるかが分かり、これにより
装置の有効利用が図れるなど、利用者は大きな利益が得
られる。
【0061】また、評価関数を取り替えることで、様々
な入力状態を得ることができ、補充学習用デ−タの補充
分の性質をコントロ−ルできるので、色々な利用法が可
能となる。
な入力状態を得ることができ、補充学習用デ−タの補充
分の性質をコントロ−ルできるので、色々な利用法が可
能となる。
【0062】かくして本実施例によれば、利用者側で新
たな学習デ−タを作成でき、これを用いて追加学習や再
学習を行なうことで、汎化能力が高いニュ−ラルネット
ワ−ク装置を短期間で構築できる。
たな学習デ−タを作成でき、これを用いて追加学習や再
学習を行なうことで、汎化能力が高いニュ−ラルネット
ワ−ク装置を短期間で構築できる。
【0063】なお、上記実施例では手書き数字のパタ−
ン識別の場合について説明したが、本発明は他の情報処
理の場合にも適用できる。その他、本発明の要旨を逸脱
しない範囲で、種々変形して実施できる。
ン識別の場合について説明したが、本発明は他の情報処
理の場合にも適用できる。その他、本発明の要旨を逸脱
しない範囲で、種々変形して実施できる。
【0064】
【発明の効果】以上詳述したように本発明によれば、利
用者側で追加学習や再学習を行なえるようになるので、
高い汎化能力を有するニュ−ラルネットワ−ク装置を得
ることができる。
用者側で追加学習や再学習を行なえるようになるので、
高い汎化能力を有するニュ−ラルネットワ−ク装置を得
ることができる。
【図1】本発明の一実施例に係るニュ−ラルネットワ−
ク装置の概略構成図。
ク装置の概略構成図。
【図2】補充デ−タ生成部の概略構成図。
【図3】手書き数字の2次元パタ−ン。
【図4】仮の出力から中間層の出力を求める方法を示す
フロ−チャ−ト。
フロ−チャ−ト。
【図5】中間層の出力を求めるのに必要な連立一次方程
式の解法を示すフロ−チャ−ト。
式の解法を示すフロ−チャ−ト。
【図6】中間層の出力から入力層の入力を求める方法を
示すフロ−チャ−ト。
示すフロ−チャ−ト。
【図7】入力層の入力を求めるのに必要な連立一次方程
式の解法を示すフロ−チャ−ト。
式の解法を示すフロ−チャ−ト。
【図8】従来のニュ−ラルネットワ−ク装置の概略構成
図。
図。
1…ニュ−ロン素子、3…入力層、5…中間層、7…出
力層、9…シナプス接合部、11…ニュ−ラルネット装
置本体、13…学習デ−タ提示部、15…ネットワ−ク
修正部、17…補充デ−タ生成部、19…仮出力信号生
成部、21…中間−出力層間逆算部、23…入力−中間
層間逆算部。
力層、9…シナプス接合部、11…ニュ−ラルネット装
置本体、13…学習デ−タ提示部、15…ネットワ−ク
修正部、17…補充デ−タ生成部、19…仮出力信号生
成部、21…中間−出力層間逆算部、23…入力−中間
層間逆算部。
Claims (1)
- 【請求項1】ニュ−ラルネットワ−ク装置本体と、 学習用デ−タを備えた学習デ−タ提示部と、 前記学習用デ−タと前記ニュ−ラルネットワ−ク装置本
体の出力とから、前記ニュ−ラルネットワ−ク装置本体
の入力と出力とが所定の関係になるように、前記ニュ−
ラルネットワ−ク装置本体を制御する制御手段と、 前記ニュ−ラルネットワ−ク装置本体の入力を生成する
と共に、この入力に対する前記ニュ−ラルネットワ−ク
装置本体の望ましい出力を利用者に要求し、この出力と
前記入力とを新たな学習用デ−タとして前記学習デ−タ
提示部に与える補充デ−タ生成手段とを具備してなるこ
とを特徴とするニュ−ラルネットワ−ク装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27869591A JPH0594554A (ja) | 1991-09-30 | 1991-09-30 | ニユ−ラルネツトワ−ク装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27869591A JPH0594554A (ja) | 1991-09-30 | 1991-09-30 | ニユ−ラルネツトワ−ク装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0594554A true JPH0594554A (ja) | 1993-04-16 |
Family
ID=17600895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27869591A Pending JPH0594554A (ja) | 1991-09-30 | 1991-09-30 | ニユ−ラルネツトワ−ク装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0594554A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019016025A (ja) * | 2017-07-04 | 2019-01-31 | 株式会社日立製作所 | 情報処理システム |
-
1991
- 1991-09-30 JP JP27869591A patent/JPH0594554A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019016025A (ja) * | 2017-07-04 | 2019-01-31 | 株式会社日立製作所 | 情報処理システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200410090A1 (en) | Robust von neumann ensembles for deep learning | |
Song et al. | Identification of sparse neural functional connectivity using penalized likelihood estimation and basis functions | |
Kang | An investigation of the use of feedforward neural networks for forecasting | |
Skapura | Building neural networks | |
US9367797B2 (en) | Methods and apparatus for spiking neural computation | |
Ratcliff | Connectionist models of recognition memory: constraints imposed by learning and forgetting functions. | |
US9111225B2 (en) | Methods and apparatus for spiking neural computation | |
US20130204814A1 (en) | Methods and apparatus for spiking neural computation | |
Xiao | Eigenspace restructuring: a principle of space and frequency in neural networks | |
Patel et al. | Comprehensive modelling of ANN | |
JPH0594554A (ja) | ニユ−ラルネツトワ−ク装置 | |
JP2907486B2 (ja) | ニューラルネットワーク装置 | |
De Veaux et al. | A brief introduction to neural networks | |
JP2699447B2 (ja) | 信号処理装置 | |
JPH0535710A (ja) | ニユーラルネツトワークの学習方法および学習装置 | |
EP0577694B1 (en) | A neural network and training method | |
Dumitras et al. | Feedforward neural network design with tridiagonal symmetry constraints | |
Huang et al. | A neuronet approach to information fusion | |
Steib et al. | Expert systems for guiding backpropagation training of layered perceptrons | |
Kufudaki et al. | 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION | |
Meng et al. | Aggregating regressive estimators: gradient-based neural network ensemble | |
Hooker | Adaptation in systems: a review essay | |
JPH05242062A (ja) | ニューラルネット中間層ユニット数の決定方法 | |
JPH06266691A (ja) | ニューラルネットの構成方法 | |
JPH0451379A (ja) | ニューラルネットを用いた情報処理装置 |