JPH0451385A - ニューラルネットワーク - Google Patents

ニューラルネットワーク

Info

Publication number
JPH0451385A
JPH0451385A JP2161907A JP16190790A JPH0451385A JP H0451385 A JPH0451385 A JP H0451385A JP 2161907 A JP2161907 A JP 2161907A JP 16190790 A JP16190790 A JP 16190790A JP H0451385 A JPH0451385 A JP H0451385A
Authority
JP
Japan
Prior art keywords
layer
neural network
groups
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2161907A
Other languages
English (en)
Inventor
Yoshinobu Mita
三田 良信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2161907A priority Critical patent/JPH0451385A/ja
Priority to EP91305363A priority patent/EP0461902B1/en
Priority to DE69130656T priority patent/DE69130656T2/de
Publication of JPH0451385A publication Critical patent/JPH0451385A/ja
Priority to US08/026,093 priority patent/US5719955A/en
Priority to US08/969,832 priority patent/US6243490B1/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 本発明は、各種処理に好適なニューラルネットワーク及
びその構築方法に関するものである。
[従来の技術] 近年、ニューラルネットワークによって各種処理を行な
うことが研究されている。
ニューラルネットワークを用いる処理では、処理精度を
向上させるために、各素子にニューロン)は多数の人力
に対して演算処理を施して出力を行なう。
[発明が解決しようとする課題] しかしながら、ニューラルネットワークを単純にハード
化すると、その回路規模は非常に大きいものとなってし
まうという問題があった。
[課題を解決するための手段および作用]上記課題を解
決するために、本発明のニューラルネッ!・ワークは、
当該ニューラルネットワークの入力層と、中間層の内の
1層以上とを、各々が入力層と中間層とを有する互いに
非接続な複数のグループにより構成したことにより、各
ニューロン間の結線を減らして回路規模を小さくする。
[実施例] 先ず、バックプロパゲーション型ニューラルネットワー
クにおける学習の手順を第5図を例として説明する。
第5図に示されたニューラルネットワークは、入力層i
、1層よりなる中間層j、出力層kによって構成されて
いる。
学習のためには、入力データと、それに対する理想出力
とを用意し、中間層における結合強度WJl、出力層に
おける結合強度WMJの初期値を適当に決定し、この初
期値に基づいて結合されたネットワークに、用意した入
力データを与え、中間層、出力層の順で処理されて出力
データを得る。ここまでが、第5図における■および■
の流れである。次に、得られた出力層よりの出力と、用
意した理想出力とを比較し、この比較により教師信号を
生成し、この教師信号によって、出力層における結合強
度W0を補正し、更に中間層における結合強度WJlを
補正する。これが■および■の流れである。
以上が学習の1工程であり、この学習を繰り返すことに
より、結合強度W31、WkJが適切な値へと修正され
ていく。学習の結果、更新された結合強度がネットワー
ク内に保持される。
上述の学習手順を、第4図のフローチャートを用いて更
に詳細に説明する。
先ず、ステップ5401で、重み係数(結合強度)W4
0、W kJの初期値を与える。ここでは、学習過程で
の収束を考慮して、−〇、5〜+0.5の範囲の値を選
択する。
次に、ステップ5402で学習用の入力データ1out
 (i )を選択し、ステップ5403でこのブタ1o
ut(i)を入力層にセットする。また、ステップ54
04で、入力データjout(i)に対する理想出力(
ideal out)を用意する。
そこで、ステップ3405で、中間層の出力j(+ut
(j)を求める。
先ず、入力層よりのデータ1out(i)に中間層の重
み係数W、1を掛け、その総和Sumv Jを、Sum
z=ΣW Jl(j、 i)*1out(i)により計
算し、次に、このSllmFjにsigmojd関数を
作用させて、j番目の中間層の出力jout(j)を、 によって計算する。
次に、ステップ8406で、出力層の出力kout(k
)を求める。この手順はステップ3406と同様である
すなわち、中間層からの出力jout(j)に出力層の
重み係数W kJを掛け、その総和Sump uを、S
LImpi+=ΣW IIJ (k、 j)*jout
(j)により計算し、次に、このSumpkにsigm
oid関数を作用させて、k番目の中間層の出力kou
t(k)を、 によって計算する。なお、この出力値は正規化されてい
る。また、一般には、出力層の素子数は複数であるが、
第5図の例では、1個だけとしている。
次に、ステップ5407では、以上により得られた出力
kout(k)と、ステップ5404で用意した理想出
力1deal out(k)とを比較し、出力層の教師
信号teach k(k)として、 teach k(k) = (ideal out(k
) −kout(k))*kout(k)*(1−ko
ut(k)1を求める。ここで、kout(k)*(1
−kout(kNは、sigmoid関数kout(k
)の微分の意義を有する。
次に、ステップ34.08で、出力層の重み係数の変化
幅△Wya(k、j)を、 △W0(klj)=β*jout(j)*teach 
k(k)+α*△Wk、1(k、、+) により計算する。ここで、αは安定化定数、βは学習定
数と呼ばれる定数であり、急激な変化を押える役割を果
たしている。
ステップ5409では、この変化幅に基づいて、重み係
数W −= (k、 j)を、WkJ(k、j) =W
kJ(k、j)+△W kJ(k、 j)と、更新する
。すなわち学習を行なう。
次に、ステップ5410で、中間層の教師信号teac
h j(j)を計算する。そのために、先ず、Sumu
i−Σteach k(k)*  Wk、+(j、j)
に基づいて、出力層から、中間層の各素子への逆方向の
寄与を計算する。次にこのSuma、+から、中間層の
教師信号teach j(j)を以下の式により演算す
る。
teach j(j)=jout(j)”(I−jou
t(j)l*sumB。
次に、ステップ5411で、中間層の重み係数の変化幅
△W J l (j、 i)を、△WJ+(、j、i)
 =β*jout(i)*teach j(j)+a*
△WJ + (j、 1) により計算する。
ステップ5412では、この変化幅に基づいて、重み係
数WJl(j、i)を、 W4+(j、i)  =:WJ、(j、i) 十△W1
.(j、i)と、更新する。すなわち学習を行なう。
こうして、ステップ8401〜412により、1組の人
力データとこれに対する理想出力とから、重み係数W4
.とW5とが1回学習された。
ステップ8413では、以上のような学習を全入力デー
タにつき行なったかを調べ、未だの場合は、ステップ8
401〜412を繰り返す。
ステップ5414では、所定の学習回数に達したかを調
べ、不足の場合は、ステップ34.01〜413を繰り
返す。
以上がバックプロパゲーション法に基づいたニューラル
ネットワークの学習手順の説明である。
本発明は、第5図のような一般のニューラルネットワー
クに対して、次のような構成のニュラルネットワークを
新たに提案するものである。
本発明の1実施例の構成を第1図(a)に示す。同図に
おけるニューラルネットワークは、入力層および第1中
間層までが、グループ1〜nに分断され、異なるグルー
プ間では、結合は生じない。各グループで処理されたデ
ータは、出力層において、初めて1つの神経細胞で処理
される。
このようなニューラルネットワークのハードウェア構成
について、以下に説明する。
出力層での処理を軽減するために次のような方法を考え
る。
出力層では、各グループの中間層よりの出力データに出
力層での重み係数を乗じ、総和を取るs u、 m =
ΣW y a X jout (j)の演算が実行され
るが、これを、 sum(m)=ΣW J X jout(j)(、jは
グループmの内部) と定義すれば、 Sum=sum(1)+sum(2)+−川用S u 
m (n) となる。従って、各グループ内で、s u m (m)
を求めて、これを各グループからの出力とすれば、出力
層では、各グループからの出力の総和をとってsu、m
を求め、これにsigmoid関数を作用させればよい
このようにして、s u m (n)の計算を含めて各
グループにおいては、処理をテーブルによる変換で実現
する。
このようにグループ分けされた構造を、ハードウェアに
よって実現するための回路構成を第2図に示す。
第2図は、2値画像を処理するためのものである。第2
図(b)に示すように、入力された2値画像は、ライン
バッファ部1で垂直画素方向に遅延され、DFF2Oよ
り水平ライン方向に遅延され、注目画素の周囲の画像デ
ータがとりだされて演算メモリ3〜4に入力される。各
演算メモリは、それぞれ、前述のグループ1〜nに対応
しており、DFF2Oりの出力の内で、対応するグルー
プに関する入力層の値だけが人力され、各グループmで
は、テーブル変換により、s u m (m)を求める
ところまでの演算が行なわれる。
そして加算器5で、su m (m)の全グループにつ
いての総和が計算され、関数メモリ6において、sig
moid関数の値をテーブル変換により得る。
上記のラインバッファ部1およびDFF2O更に詳細な
構造を第2図(a)に示す。ラインバッファ部は、直列
に接続されたラインバッファ101〜103により構成
され、それぞれからがらは、1ライン、2ライン、・・
・の遅延データが得られ、画像の垂直方向のデータが得
られる。
また、DF部2では、ラインバッファ部1からの遅延デ
ータが、先ず、DフリップフロップDF111〜114
に入力さA1、水平方向に1画素の遅延が行なわれる。
また、その出力は、DフリップフロップDF115〜1
18に入力され、水平方向に更に】画素の遅延が行なわ
れ、同様にDフリップフロップDF119〜122まで
で、順次1画素の遅延が行なわれる。
このようにして、注目画素の周辺の画素がとりだされる
。各グループには、この周辺画素の内、当該グループに
対応する画素が与えられる。
特に、グループ数が2の場合のグループ分しづの例が第
2図(Cud)に示されている。これらの図では、例え
ば、斜線部分をグループ1、残りをグループ2とする。
(c)は中心部分と周辺部分とにグループ分けした例で
あり、(d)は注目画素周辺を一様に2つに分割した例
である。
本実施例を、演算メモリ3〜4および加算器5、関数メ
モリ6を1つのテーブルで実現した場合と比べると、入
力素子数をpとし、pをn等分してn個のグループとす
れば、テーブル量は、全部を1つのテーブルとする場合
が、2値デ一タp個に対する2pであるのに対し、本実
施例では、各グループの入力が2値デ一タp/n個であ
り、そのnグルー1分に対する2 p/ n X nの
テーブル量で済む。
例えば、入力を5×5の画素とし、これを5グループに
分けるとすると、]テテブルにするには、225岬3.
4X1.07必要であるのに対し、本実施例では、2′
″X 5 = 1.60で済むこととなる。
次に、本発明の他の構成を第1図(l〕)に示す。
同図において、ニューラルネットワークは、入力層、第
1中間層、第2中間層および出力層よりなる。
このニューラルネットワークでは、前述の場合のグルー
プ1〜nが、変形グループ1〜nに含まれ、変形グルー
プにおける第1中間層までを形成し、その出力は、変形
グループ内の第2の中間層に全て入力される。
第2の中間層では、各入力に第2中間層の重み係数を乗
じてグループ内の総和をとり、sigmoid関数の値
を計算する。
この4層からなるニューラルネットワークも、第2図に
示すものと同じ回路構成で、実現が可能である。
この場合は、第2図(b)に示した演算メモリ3〜4の
テーブルの内容は、以下のニューロンの演算結果が記憶
される。
先ず、グループにおける全ての入力層の値1out  
に対するsum+=ΣW、、X1out  、および、
第1中間層の出力となるsigmoid関数の値jou
t= f (s u m l)、この出力joutに対
するStlmj:ΣWb、+Xjout、および、第1
中間層の出力となるSigmoid関数の値kout=
 f (s um、、)更に、koutに対して出力層
における重み係数W1□を乗じたW、□X koutを
テーブルの内容として持つ。
従って、第2図(l〕)に示す加算器5では、Sumw
=ΣW h + X kou tの演算が行なわれ、関
数メモリ6では、sigmoid関数値f(sumk)
がテーブル変換により求められ、最終出力が得られるこ
ととなる。
以上の説明では、各グループは、完全に分断されていた
が、一部分だけは接続されるようにしてもよい。第3図
にその構成例を示す。
同図では、入力層および中間層は2つのグルブより構成
され、入力層の素子の内、斜線部分の素子だけが、両グ
ループに共通となる。
このような場合、ハードウェア化におけるテブル容量は
、完全に分断されている場合に比べると、例えば、各グ
ループが、新たに他のグループに属する素子を1つ共有
するようにし、各グルブ内の素子を1増加させるとして
も、2倍になるだけなので、その容量が、メモリの許容
範囲内であれば、差し支えない。
以上のように、本発明によれば、入力層側で、ニューラ
ルネットワークを複数のグループに分断した構成とした
ので、ニューロンの処理の一部を少数ビットのアドレス
によるテーブル変換で実現できるようにし、そのための
メモリを数個設けることにより、ニューラルネットワー
クにおける?寅算の大部分を行なうようにしたので、回
路規模の縮小化が図れる。
一方、出力層側においては、入力層側で分断されていた
グループが接続されるので、全体としてニューラルネジ
1〜ワークの作用が保たれている。
また、分断された各グループでは、中間層を多層化させ
ても、ハードウェアの規模を大きくする必要はない。
[発明の効果] 以上説明した如く、本発明によれば、ニューラルネット
ワークの入力層と、中間層の内の1層以上とを、各々が
入力層と中間層とを有する互いに非接続な複数のグルー
プにより構成したことにより、回路規模を小さくするこ
とが可能となる。
【図面の簡単な説明】
第1図(a)は、実施例のニューラルネットワークの構
成図、 第1図(b)は、他の実施例のニューラルネットワーク
の構成図、 第2図(a)、(1〕)は、実施例のニューラルネジ1
〜ワークの回路構成図、 第2図(cL(d)は、入力画像のグループ分けの例を
示す図、 第3図は、他の実施例のニューラルネットワークの構成
図、 第4図は、ニューラルネットワークの学習手順のフロー
チャー1・、 第5図は、ニューラルネットワークの概念図、1・・・
ラインバッファ部 2・・・DF部 3〜4・・・演算メモリ 5・・・加算器 6・・・関数メモリ

Claims (2)

    【特許請求の範囲】
  1. (1)入力層、1つ以上の中間層及び出力層を有するニ
    ューラルネットワークであって、当該ニューラルネット
    ワークの入力層と、中間層の内の1層以上とを、各々が
    入力層と中間層とを有する互いに非接続な複数のグルー
    プにより構成したことを特徴とするニューラルネットワ
    ーク。
  2. (2)前記グループの各々に、グループ内の各層の処理
    をテーブル変換によって行なうための演算テーブルを備
    えたことを特徴とする請求項第1項記載のニューラルネ
    ットワーク。
JP2161907A 1990-06-14 1990-06-19 ニューラルネットワーク Pending JPH0451385A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2161907A JPH0451385A (ja) 1990-06-19 1990-06-19 ニューラルネットワーク
EP91305363A EP0461902B1 (en) 1990-06-14 1991-06-13 Neural network
DE69130656T DE69130656T2 (de) 1990-06-14 1991-06-13 Neuronale Netzwerke
US08/026,093 US5719955A (en) 1990-06-14 1993-03-04 Data processing using neural networks having conversion tables in an intermediate layer
US08/969,832 US6243490B1 (en) 1990-06-14 1997-11-13 Data processing using neural networks having conversion tables in an intermediate layer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2161907A JPH0451385A (ja) 1990-06-19 1990-06-19 ニューラルネットワーク

Publications (1)

Publication Number Publication Date
JPH0451385A true JPH0451385A (ja) 1992-02-19

Family

ID=15744289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2161907A Pending JPH0451385A (ja) 1990-06-14 1990-06-19 ニューラルネットワーク

Country Status (1)

Country Link
JP (1) JPH0451385A (ja)

Similar Documents

Publication Publication Date Title
JP2006154992A (ja) ニューロプロセッサ
JP2760170B2 (ja) 学習機械
JPH0451385A (ja) ニューラルネットワーク
JPH05101028A (ja) 複数特徴量の統合判定方法
JPH0451383A (ja) ニューラルネットワーク
JP3082530B2 (ja) ニューラルネットワーク回路
JP3262340B2 (ja) 情報処理装置
JPH0492901A (ja) ニューラルネットワークによるファジイ制御器
JPH0567062A (ja) ニユーラルネツトワーク装置
JP3328953B2 (ja) 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法
JP3271186B2 (ja) 学習処理装置
JPH0483471A (ja) 色補正装置
JP2607351B2 (ja) 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法
JPH0484358A (ja) ニユーラルネットの並列計算処理方法
Duong et al. Cascade error projection: a new learning algorithm
JPH0233655A (ja) 神経回路網型パターン処理装置
JPH0736183B2 (ja) ネットワーク構成データ処理装置
JPH11175494A (ja) ニューラルネットワーク
Basso A massively parallel implementation of autoassociative neural networks for image compression
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
Yamamori et al. Two-stage parallel partial retraining scheme for defective multi-layer neural networks
JPH0414192A (ja) ニューラルネットワークにおける結合のグループ単位学習調整方式
JPH06301663A (ja) 直列結合型リカレントニューラルネットワークの学習方式
JPH05324013A (ja) システムモデリング方法
JPH04348453A (ja) ファジィ論理演算用ニューロン素子