JP2737583B2 - ニューラルネットワーク回路 - Google Patents

ニューラルネットワーク回路

Info

Publication number
JP2737583B2
JP2737583B2 JP4316801A JP31680192A JP2737583B2 JP 2737583 B2 JP2737583 B2 JP 2737583B2 JP 4316801 A JP4316801 A JP 4316801A JP 31680192 A JP31680192 A JP 31680192A JP 2737583 B2 JP2737583 B2 JP 2737583B2
Authority
JP
Japan
Prior art keywords
output
learning
neural network
layer
intermediate layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP4316801A
Other languages
English (en)
Other versions
JPH06161981A (ja
Inventor
史朗 崎山
征克 丸山
博幸 中平
敏行 香田
進 丸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP4316801A priority Critical patent/JP2737583B2/ja
Priority to US08/155,865 priority patent/US5452402A/en
Priority to DE69320003T priority patent/DE69320003T2/de
Priority to EP93119130A priority patent/EP0599347B1/en
Publication of JPH06161981A publication Critical patent/JPH06161981A/ja
Application granted granted Critical
Publication of JP2737583B2 publication Critical patent/JP2737583B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像認識処理等を行う
ニューラルネットワーク回路に関する。
【0002】
【従来の技術】近年、情報処理のニューラルネットワー
クの分野に大きな関心が集まってきている。これらのニ
ューラルネットワークは、生物の頭脳に備えるニューロ
ンの構造を模倣して考えられている。これらのニューラ
ルネットワークの処理の多くは、従来のフォン・ノイマ
ン型の逐次計算機により実現されており、処理速度はき
わめて遅いため、最近ニューラルネットワークの構成を
専用の電子回路で構成する試みがなされている。専用の
電子回路で構成するニューラルネットワークには、様々
な形態があるが、その中の一つに多層型ニューラルネッ
トワークがある。これは、図8に示すようなネットワー
ク構造であって、分岐及び統合能力のあるニューロンを
持ち、入力層と出力層の間に、多層からなる中間層を持
つ。
【0003】図8に示す多層型ニューラルネットワーク
は、入力ベクトルi=1,i=2が各々入力される2個
のニューロン素子111,112より成る入力層と、出
力o=1,o=2に関する2個のニューロン素子330,
340より成る出力層と、この入力層と出力層の間に位
置し、2階層に形成した6個のニューロン素子121〜
124,131,132より成る中間層の3層からなるニ
ューラルネットワークであって、前記各層のニューロン
素子間には、該各層のニューロン素子間の結合荷重を定
めるシナプス群41〜43が配置される。該各シナプス
群41〜43の各シナプスの結合荷重は、学習により変
更可能である。
【0004】前記各シナプス群41〜43の各シナプス
の結合荷重を逐次適切に変更して学習することにより、
認識目的に合致したニューラルネットワークが構築され
る。これら各シナプス群41〜43の各シナプスの結合
荷重の学習方法として、一般的にバックプロパゲーショ
ン法(BP法)が知られるが、該BP法では学習や追加
学習に時間を要し、また学習アルゴリズムがハードウェ
ア化に適していないという欠点があった。
【0005】そこで、高速な学習及び追加学習が可能で
あり、また学習アルゴリズムがハードウェア化に適した
図9に示すニューラルネットワーク回路が提案されてい
る。
【0006】図9のニューラルネットワーク回路は、図
8に示すネットワーク構造を木分岐構造に展開したニュ
ーラルネットワークであって、入力ベクトルi=1,i
=2を各々入力する分岐動作のみのニューロン素子11
-11,12-11よりなる入力層と、2階層に形成した24
個の分岐動作のみのニューロン素子11-21〜11-24,
11-31〜11-38,12-21〜12-24,12-31〜12-38
よりなる中間層と、該中間層のうち上層の16個のニュ
ーロン素子11-31〜11-38,12-31〜12-38からの
出力を統合し、出力o=1,o=2に関する統合動作の
みの2個のニューロン素子310,320よりなる出力
層とを備えた3層のニューラルネットワークであって、
中間層と出力層の間には、それらのニューロン素子間の
結合荷重を定めるシナプス群4が配置され、該シナプス
群4の各シナプスの結合荷重は学習により変更が可能で
ある。図9において、例えば図8における、112ー1
22ー132ー330の経路は図9における12-11ー
12ー22ー12ー34ー310の経路に対応する。ただしニ
ューロン素子11-11〜11-38間の各シナプスの結合荷
重、およびニューロン素子12-11〜12-38間の各シナ
プスの結合荷重は共に学習されず、入力層の各ニューロ
ン素子11-11,12-11に入力される入力ベクトルの値
により一意的に定まる。
【0007】図9のように入力ベクトルの値のみに依存
し、学習せずに一意的に木分岐構造のシナプスの結合荷
重を定めるネットワークの形態の一つとして、例えば文
献「機能別階層ネットワークを用いた文字認識システ
ム」(平成2年度画像電子通信学会全国大会予稿第77頁
〜第80頁)または文献「Multi-Functional Layered Net
work using Quantizer Neurons」(Computer World '9
0,November 1990)に示されるような、量子化ニューロ
ンと呼ばれるネットワーク形態がある。この種のネット
ワーク構成は、最終層のシナプスの結合荷重の変更が他
にシナプスに依存しないので、高速な学習や追加学習性
を持ち、また学習アルゴリズムのハードウェア化に適し
ている。
【0008】図9で示したネットワーク形態での認識方
法は、出力層にある統合動作のみの2個のニューロン素
子310,320の出力値の大小判定を行ない、最も出
力値の大きいニューロン素子の番号を認識結果とする。
ニューロン素子11-31〜11-38、12-31〜12-38の
中間層出力を統合する最終層のニューロン素子310,
320の統合方法には、各中間層出力の出力値と、シナ
プス群4で示される個々の結合荷重との積和による統合
が用いられる。
【0009】図10を用いて、統合ニューロン素子の統
合方法を更に詳しく説明する。図10において、出力ニ
ューロン素子310と320、及びシナプス群4は図9
における図面のものと同じである。図10におけるf1
及びf2は中間層出力値であり、図9におけるニューロ
ン素子11-31の出力値をf1、ニューロン素子11-32
の出力値をf2としてある。なお、11-31〜12ー38で
示すニューロン素子は、上述の文献に従い、入力信号の
分岐点としているため、11-31から310への出力値
と11-31から320への出力値は等しく、ここではf
1としている。また出力ニューロン素子へのシナプスの
結合荷重演算は、4-11〜4-22で実行される。結合荷重
演算実行部4ー11は、乗算器112と結合荷重係数111より
なり、中間層の出力値と乗算され、出力される。結合荷
重演算実行部4ー12〜4-22においても4-11と同様の機
能を有するが、各々別の結合荷重値を持つ。出力ニュー
ロン素子310と320での統合演算を(数1)で示
す。このようにして統合されたニューロン素子310,
320の出力値の大小判定を行ない、最も出力値の大き
いニューロン素子の番号を認識結果とする。
【0010】
【数1】 O(310)=W11×f1+W12×f2+… O(320)=W21×f1+W22×f2+…
【0011】図9で示したネットワーク形態での学習ア
ルゴリズムは、Hebbの学習則が用いられ、認識結果
が偽の時は、図9における教師入力により、真にすべき
出力ニューロン素子が、最大出力になるまで、前記真に
すべき出力ニューロン素子へのシナプス群4の結合荷重
を補強する。この補強の方法としては、ニューロン素子
11-31〜11-38、12-31〜12-38の出力値の大きさ
に応じて加算する補強方法が用いられる。
【0012】図11を用いて、シナプスの結合荷重の補
強方法を説明する。図11は図10における結合荷重11
1の拡大図であり、学習信号により、現在の結合荷重W1
1に中間層出力f1が加算される。学習による荷重変更式
を(数2)で示す。
【0013】
【数2】 W11=W11+f1
【0014】
【発明が解決しようとする課題】上述したような木分岐
構造からなる中間層をもち、最終層の統合ニューロンに
より各シナプスの統合を行ない、最終層のシナプスの結
合荷重変更により学習を行なう多層型ニューラルネット
ワーク構成では、荷重変更が他のシナプスに依存しない
ため、高速な学習や追加学習性を持ち、また学習アルゴ
リズムのハードウェア化にも適している。
【0015】しかし上述のニューラルネットワークによ
り初期学習を行ない、新たな未学習データに対し認識を
行なった時の認識率が良くないという欠点がある。この
理由は上述のニューラルネットワークの学習により何種
類かの入力データを全て識別させようとした時、同種類
の入力データに偏りがありかつ類似データが存在する
と、その類似データの出力ニューロン素子へのシナプス
群の結合荷重が、他の結合荷重に比較して肥大する傾向
が生ずる。従って未学習のデータに前記肥大した結合荷
重に属するデータがノイズ成分として存在した時、前記
肥大した結合荷重のある出力ニューロン素子の出力結果
として誤認識してしまうからである。これが上述のニュ
ーラルネットワークの未学習データに対する認識率低下
の原因となっていた。
【0016】また初期学習においても、出力ニューロン
素子へのシナプスの結合荷重が、学習回数に応じて次第
に大きくなるため、結合荷重のビット精度(ビット語
長)を必要とし、そのため結合荷重メモリに要するハー
ド量が大きくなる欠点があった。上述の文献によれば、
認識対照のデータ群にもよるが、62種類の文字データ
を13フォント学習させるために16ビット程度の結合
荷重メモリを必要とする。
【0017】本発明は、上記木分岐構造のニューラルネ
ットワークにおける問題点であった、未学習データ認識
率の向上と、結合荷重メモリに要するハード量の縮小化
を可能とするニューラルネットワーク回路を提供するこ
とを目的とする。
【0018】
【課題を解決するための手段】前記の目的を達成するた
め、請求項1記載の発明の構成は、単一または複数個の
入力ベクトルを持つ入力層と、出力が前記入力ベクトル
の値により一意的に定まる木分岐構造のネットワークを
前記入力層の入力ベクトル数だけ持つ中間層と、前記中
間層の全ての出力を統合する単一または複数個の出力ユ
ニットを持つ出力層とを有する多層型ニューラルネット
ワークにおいて、前記中間層と各出力ユニットとの経路
における学習回数を記憶する学習回数メモリと、前記学
習回数メモリの出力を閾値処理する閾値処理回路と、前
記閾値処理回路の出力により制御される、前記中間層と
各出力ユニットとの経路の接続制御回路を有することを
特徴とし、前記各出力ユニットにおいて、前記接続制御
回路により接続された前記中間層の出力を総加算するニ
ューラルネットワーク回路の構成とする。
【0019】更に請求項2の発明では、請求項1記載の
発明において、学習回数メモリに納められた学習回数を
ある上限値によりクリップするクリッピング機能を有す
るニューラルネットワーク回路の構成とする。
【0020】更に請求項3の発明では、請求項1記載の
発明において、学習回数メモリに納められた全ての学習
回数値から、一様に一定の値を減じる学習回数更新器
と、学習回数更新結果が零回を下回る値に対しては、零
回にクリップするクリッピング機能とを有するニューラ
ルネットワーク回路の構成とする。
【0021】請求項4記載の発明の構成は、単一または
複数個の入力ベクトルを持つ入力層と、出力が前記入力
ベクトルの値により一意的に定まる木分岐構造のネット
ワークを前記入力層の入力ベクトル数だけ持つ中間層
と、前記中間層の全ての出力を統合する単一または複数
個の出力ユニットを持つ出力層とを有する多層型ニュー
ラルネットワークにおいて、前記中間層と各出力ユニッ
トとの経路において前記経路が過去からの学習において
学習されたかどうかを記憶するフラグメモリと、前記フ
ラグメモリの出力により制御される、前記中間層と各出
力ユニットとの経路の接続制御回路を有することを特徴
とし、前記各出力ユニットにおいて、前記接続制御回路
により接続された前記中間層の出力を総加算するニュー
ラルネットワーク回路の構成とする。
【0022】更に請求項5の発明では、請求項1及び4
記載の発明において、中間層の出力を「ハイ」もしくは
「ロウ」の2値出力とし、各出力ユニットにおいて、接
続制御回路により接続された前記中間層の出力のうち、
「ハイ」の数をカウントするニューラルネットワーク回
路の構成とする。
【0023】
【作用】請求項1記載のニューラルネットワーク回路に
より、出力ニューロン素子へのシナプスの学習回数を記
憶することが可能となり、出力ニューロン素子により、
ある閾値を超えたシナプスからの中間層出力のみを総加
算することが可能となる。これため従来問題であった、
学習による、同種類の入力データに偏りがありかつ類似
データが存在する時の局所的なシナプスの結合荷重の肥
大化を抑え、未学習データに対する認識率の向上が可能
となる。また請求項2記載の発明と併用する事で、学習
回数メモリに要するハード量の削減が可能となる。また
請求項3記載の発明と併用する事で、過学習による認識
対照データのノイズ成分を削減することが可能となり、
更なる未学習データに対する認識率の向上が可能とな
る。
【0024】請求項4記載の発明では、出力ニューロン
素子へ統合するシナプスを、出力ニューロン素子へのシ
ナプスの学習歴があるかないかのフラグメモリとするた
め、更なるハード量の大幅な削減が可能となる。
【0025】また請求項5記載の発明と併用すること
で、出力ニューロン素子の中間層出力の統合化が、中間
層出力数のカウントとなり、統合化回路のハード量の削
減が可能となる。
【0026】
【実施例】
(実施例1)図1は本発明の請求項1に基づくニューラ
ルネットワーク回路の構成図である。図1のネットワー
ク構成は従来例で述べた図10に従っており、同じ構成
要素に対しては同じ番号を付けてある。
【0027】図1において、310,320はそれぞれ
図9で示したニューロン素子11-31〜11-38,12-31
〜12-38の中間層出力を統合する最終層の出力ニュー
ロン素子である。またf1及びf2は従来例の項でも述
べたように、中間層出力値であり、図9におけるニュー
ロン素子11-31の出力値をf1、ニューロン素子11-
32の出力値をf2としてある。なお、11-31〜12ー38
で示すニューロン素子は、上述の文献に従い、入力信号
の分岐点としているため、11-31から310への出力
値と11-31から320への出力値は等しく、ここでは
f1としている。また出力ニューロン素子へのシナプス
の結合荷重演算は、4-11〜4-22で実行される。
【0028】結合荷重演算実行部4ー11は、学習回数メ
モリ113とこの学習回数メモリを閾値処理する閾値処理
回路114と、前記閾値処理回路により、2値化された制
御信号により制御される接続制御回路115により構成さ
れ、中間層と出力ニューロン素子とのシナプスの接続を
制御する。結合荷重演算実行部4ー12〜4-22においても
結合荷重演算実行部4-11と同様の機能を有するが、各
々別々の学習回数値を持つ。ここで仮に閾値処理回路の
閾値を1とした時、結合荷重演算部4-11において学習
回数メモリ113の値R11が1以上の値の時は、中間層出
力f1を出力し、学習回数メモリ113の値R11が0の時
は、中間層出力f1は接続されず零を出力する。このよ
うに出力ニューロン素子310,320において、中間
層出力のうち、接続されたシナプスの中間層出力のみを
加算することにより統合する。
【0029】以上のようにして統合された出力ニューロ
ン素子310,320の出力値の大小判定を行ない、最
も出力値の大きい出力ニューロン素子の番号を認識結果
とする。
【0030】次に図1で示したネットワーク形態での学
習アルゴリズムについて説明する。まず全ての出力ニュ
ーロン素子につながるシナプスの学習回数メモリを0と
する。その後初期学習において、初期学習させるべきデ
ータに対し、全て1度だけ学習を行なう。学習の方法
は、図1における教師入力により、入力データに対応し
た出力ニューロン素子の番号に連結されているシナプス
のうち、中間層出力が零でないシナプスに関し、全て学
習回数メモリの値をインクリメントさせる。ここでは、
中間層出力が零でないシナプスに関し学習回数をインク
リメントすると述べたが、中間層出力がある閾値以上の
ものに関してインクリメントさせても良い。
【0031】学習回数メモリの更新器の例を図2に示
す。図2は図1における学習回数メモリ113の拡大図で
あり、学習信号により、現在の学習回数値R11が1つイ
ンクリメントされる。学習による荷重変更式を(数3)
で示す。
【0032】
【数3】 R11=R11+1
【0033】以上のように本実施例では、出力ニューロ
ン素子へのシナプスの学習回数を記憶することが可能と
なり、出力ニューロン素子により、ある閾値を超えたシ
ナプスからの中間層出力のみを総加算することが可能と
なる。これため従来問題であった、学習による、同種類
の入力データに偏りがありかつ類似データが存在する時
の局所的なシナプスの結合荷重の肥大化を抑え、未学習
データに対する認識率の向上が可能となる。
【0034】(実施例2)図3は本発明の請求項2に基
づく学習回数メモリの学習演算回路である。図3で示す
ように学習回数メモリの入力に、上限リミッタを設ける
事により、学習回数メモリのメモリ量を減らす事が可能
である。このように本発明は、従来使用されている、出
力ニューロン素子へのシナプスが結合荷重という重みに
より結合されるという構成とは違い、出力ニューロン素
子へのシナプスが学習回数により接続制御される新規な
構成を成している。
【0035】図3で示す上限リミッタを3とした時、学
習回数メモリに要するメモリはわずか2ビットでよく、
従来必要とした16ビットの結合荷重メモリに対し、1
/8のメモリ量となる。しかも上述の文献によるニュー
ラルネットワーク構成で、同じ入力データに対し、本発
明による初期学習を行い、その後未学習データに対する
認識テストを行なった結果、従来の学習では63%程度
であった未学習データに対する認識率が、本発明により
86%程度まで上昇した。この認識テストは、初期学習
では、62種類13フォントの文字データに対し学習さ
せ、その後未学習の62種類10フォントの文字データ
に対する認識率を算出した。
【0036】このように本発明では、学習に必要なメモ
リ量が少ないにもかかわらず、かつ未学習データに対す
る認識率がよいという優れた効果を持つ。
【0037】更に本構成によるニューラルネットワーク
回路では、1つの入力データに対し、一度学習させるこ
とにより、必ず対応する出力ニューロン素子が、同じ入
力データに対しては最大出力となるため、認識結果を得
ずに無条件に初期学習することが可能である。このため
本発明によるニューラルネットワーク構成では、従来の
初期学習における収束時間に対し、約1/60から1/
1000の収束時間となる。
【0038】(実施例3)このように実施例2は優れた
効果を持つが、過学習による未学習データに対する認識
率低下が問題となる。つまり各出力ニューロン素子への
シナプスが過学習により、ノイズ成分を多く受け接続制
御されてしまうからである。従って過去の学習において
あまり学習されていないシナプスをノイズ成分とみな
し、学習の履歴をなくすことで、過学習による未学習デ
ータに対する認識率低下を防止することができる。
【0039】前記問題点を解決する学習回数メモリの更
新器の例を図4に示す。図4は請求項3に基づく実施例
である。図4は図1における学習回数メモリ113の拡大
図であり、図2に示すインクリメント機能の他に、学習
信号により、現在の学習回数値R11を1つデクリメント
する機能も合わせもつ。更に学習回数メモリの入力には
下限リミッタをもち、零以下の値に対して零にリミット
する機能を持つ。
【0040】過学習により、未学習データに対する認識
率が低下してきた時は、全てのシナプスの学習回数メモ
リに対し、減算用制御信号により、全ての出力ニューロ
ン素子へのシナプスの学習回数値から1減算する学習を
行なう。ただし、前記下限リミッタにより、零以下の学
習メモリ値に対しては零にリミットされる。以上のよう
な機能を付加することにより、過学習による未学習デー
タに対する認識率低下を防止することが可能となる。
【0041】過学習による未学習データに対する認識率
低下を防止する手段としては、上記で述べた手法の他
に、図1における閾値処理回路の閾値を1増加させても
同等の効果を得る。
【0042】なお上記学習回数メモリ更新器の構成では
1減算する構成についてのみ述べたが、学習回数を減少
させる機能があれば、減算でも除算でもよい。
【0043】(実施例4)図5は本発明の請求項4に基
づくニューラルネットワーク回路の構成図である。図5
のネットワーク構成は従来例で述べた図10に従ってお
り、同じ構成要素に対しては同じ番号を付けてある。
【0044】図5において、310,320はそれぞれ
図9で示したニューロン素子11-31〜11-38,12-31
〜12-38の中間層出力を統合する最終層の出力ニュー
ロン素子である。またf1及びf2は従来例の項でも述
べたように、中間層出力値であり、図9におけるニュー
ロン素子11-31の出力値をf1、ニューロン素子11-
32の出力値をf2としてある。なお、11-31〜12ー38
で示すニューロン素子は、上述の文献に従い、入力信号
の分岐点としているため、11-31から310への出力
値と11-31から320への出力値は等しく、ここでは
f1としている。また出力ニューロン素子へのシナプス
の結合荷重演算は、4-11〜4-22で実行される。
【0045】結合荷重演算実行部4ー11は、フラグメモ
リ116と、前記フラグメモリにより制御される接続制御
回路115により構成され、中間層と出力ニューロン素子
とのシナプスの接続を制御する。結合荷重演算実行部4
ー12〜4-22においても4-11と同様の機能を有するが、
各々別々のフラグ値を持つ。ここで仮に結合荷重演算部
4-11におけるフラグメモリ116の値Q11が1の値の時
は、中間層出力f1を出力し、フラグメモリ116の値Q1
1が0の時は、中間層出力f1は接続されず零を出力す
る。このように出力ニューロン素子310,320にお
いて、中間層出力のうち、接続されたシナプスの中間層
出力のみを加算することにより統合する。このようにし
て統合された出力ニューロン素子310、320の出力
値の大小判定を行ない、最も出力値の大きい出力ニュー
ロン素子の番号を認識結果とする。
【0046】次に図5で示したネットワーク形態での学
習アルゴリズムについて説明する。まず全ての出力ニュ
ーロン素子につながるシナプスのフラグメモリを0とす
る。ここではフラグメモリが0の時は中間層出力は出力
ニューロン素子に接続されず、1の時に接続されるもの
とする。その後初期学習において、初期学習させるべき
データに対し、全て1度だけ学習を行なう。学習の方法
は、図5における教師入力により、入力データに対応し
た出力ニューロン素子の番号に連結されているシナプス
のうち、中間層出力が零でないシナプスに関し、全てフ
ラグメモリの値を1とする。ここでは、中間層出力が零
でないシナプスに関しフラグメモリの値を1とすると述
べたが、中間層出力がある閾値以上のものに関してフラ
グメモリを1としても良い。
【0047】以上のように本実施例では、フラグメモリ
に要する1つのシナプスに対しるメモリ量が1ビットで
あるため、実施例1で述べた発明に対しメモリ量がさら
に削減することができる。さらに学習回数メモリに対す
る閾値処理回路を必要としないため、さらにハード規模
の削減が期待される。未学習データに対する認識率に関
しては、実施例1で述べたニューラルネットワーク回路
と同等の性能を得る。
【0048】このように本発明では、学習に必要なメモ
リ量が少ないにもかかわらず、かつ未学習データに対す
る認識率がよいという優れた効果を持つ。
【0049】更に本構成によるニューラルネットワーク
回路では、1つの入力データに対し、一度学習させるこ
とにより、必ず対応する出力ニューロン素子が、同じ入
力データに対しては最大出力となるため、認識結果を得
ずに無条件に初期学習することが可能である。このため
本発明によるニューラルネットワーク構成では、従来の
初期学習における収束時間に対し、約1/60から1/
1000の収束時間となる。
【0050】但し本実施例で述べたニューラルネットワ
ーク回路構成では、過学習による未学習データに対する
認識率低下に対し、対応することができない。しかし過
学習とはならない初期学習を行なう場合、またはノイズ
成分の少ないデータに対する学習をさせる場合、もしく
は、フラグメモリをROM化し認識装置としてのみ使用
する場合は、実用上効率的である。
【0051】(実施例5)図6は本発明の請求項5に基
づくニューラルネットワーク回路の第1の構成図であ
る。図6のネットワーク構成は図5に従っており、同じ
構成要素に対しては同じ番号を付けてある。
【0052】図6において、310,320はそれぞれ
図9で示したニューロン素子11-31〜11-38,12-31
〜12-38の中間層出力を統合する最終層の出力ニュー
ロン素子である。またf1及びf2は従来例の項でも述
べたように、中間層出力値であり、図9におけるニュー
ロン素子11-31の出力値をf1、ニューロン素子11-
32の出力値をf2としてある。なお、11-31〜12ー38
で示すニューロン素子は、上述の文献に従い、入力信号
の分岐点としているため、11-31から310への出力
値と11-31から320への出力値は等しく、ここでは
f1としている。但し図6においては、中間層出力値f
1、f2等は1もしくは0の2値出力である。また出力
ニューロン素子へのシナプスの結合荷重演算は、4-11
〜4-22で実行される。
【0053】結合荷重演算実行部4ー11は、フラグメモ
リ116と、前記フラグメモリにより制御される接続制御
回路117により構成され、中間層と出力ニューロン素子
とのシナプスの接続を制御する。結合荷重演算実行部4
ー12〜4-22においても4-11と同様の機能を有するが、
各々別々のフラグ値を持つ。接続制御回路117への中間
層からの入力は2値であるため、接続制御回路117は、
図5で示したセレクタではなしに、論理積回路で実現可
能である。出力ニューロン素子310,320におい
て、中間層出力のうち、接続されたシナプスの中間層出
力の1の数をカウントすることにより統合する。
【0054】このようにして統合された出力ニューロン
素子310,320の出力値の大小判定を行ない、最も
出力値の大きい出力ニューロン素子の番号を認識結果と
する。
【0055】次に図6で示したネットワーク形態での学
習アルゴリズムについて説明する。まず全ての出力ニュ
ーロン素子につながるシナプスのフラグメモリを0とす
る。ここではフラグメモリが0の時は中間層出力は出力
ニューロン素子に接続されず、1の時に接続されるもの
とする。その後初期学習において、初期学習させるべき
データに対し、全て1度だけ学習を行なう。学習の方法
は、図6における教師入力により、入力データに対応し
た出力ニューロン素子の番号に連結されているシナプス
のうち、中間層出力が1のシナプスに関し、全てフラグ
メモリの値を1とする。
【0056】上記実施例4で述べた発明と本実施例で述
べた発明との併用することにより、出力ニューロン素子
へのシナプスの接続制御回路117が簡単となり、また出
力ニューロン素子310,320において実行する統合
処理が、入力が1の数のカウント処理となるため、図5
で示した回路と比較し、ハード量がさらに削減される。
【0057】未学習データに対する認識率をテストした
所、実施例1または実施例4で述べた回路より、2〜3
%程度の認識率の劣化が生じた。しかし従来の学習法に
比べ高い認識率であり、また認識対照のデータの種類に
依っては、実用上十分に利用可能である。
【0058】(実施例6)図7は本発明の請求項5に基
づくニューラルネットワーク回路の第2の構成図であ
る。図7のネットワーク構成は図1に従っており、同じ
構成要素に対しては同じ番号を付けてある。
【0059】図7において、310,320はそれぞれ
図9で示したニューロン素子11-31〜11-38,12-31
〜12-38の中間層出力を統合する最終層の出力ニュー
ロン素子である。またf1及びf2は従来例の項でも述
べたように、中間層出力値であり、図9におけるニュー
ロン素子11-31の出力値をf1、ニューロン素子11-
32の出力値をf2としてある。なお、11-31〜12ー38
で示すニューロン素子は、上述の文献に従い、入力信号
の分岐点としているため、11-31から310への出力
値と11-31から320への出力値は等しく、ここでは
f1としている。但し図7においては、中間層出力値f
1、f2等は1もしくは0の2値出力である。また出力
ニューロン素子へのシナプスの結合荷重演算は、4-11
〜4-22で実行される。
【0060】結合荷重演算実行部4ー11は、学習回数メ
モリ113と、前記学習回数メモリを閾値処理する閾値処
理回路114と、前記閾値処理回路により、2値化された
制御信号により制御される接続制御回路117により構成
され、中間層と出力ニューロン素子とのシナプスの接続
を制御する。結合荷重演算実行部4ー12〜4-22において
も4-11と同様の機能を有するが、各々別々の学習回数
値を持つ。接続制御回路4ー11ー7への中間層からの入力
は2値であるため、接続制御回路117は、図1で示した
セレクタではなしに、論理積回路で実現可能である。出
力ニューロン素子310,320において、中間層出力
のうち、接続されたシナプスの中間層出力の1の数をカ
ウントすることにより統合する。
【0061】このようにして統合された出力ニューロン
素子310,320の出力値の大小判定を行ない、最も
出力値の大きい出力ニューロン素子の番号を認識結果と
する。
【0062】上記実施例1で述べた発明と実施例5で述
べた発明とを併用することにより、出力ニューロン素子
へのシナプスの接続制御回路117が簡単となり、また出
力ニューロン素子310,320において実行する統合
処理が、入力が1の数のカウント処理となるため、図1
で示した回路と比較し、ハード量がさらに削減される。
【0063】未学習データに対する認識結果は図6で示
す回路と同等で、実施例1または実施例4で述べた回路
より、2〜3%程度の認識率の劣化が生じる。しかし従
来の学習法に比べ高い認識率であり、また認識対照のデ
ータの種類に依っては、実用上十分に利用可能である。
また図7で示す回路では、図1の回路と同様に過学習に
よる未学習データに対する認識率低下に対し、対応する
ことが可能である。
【0064】以上述べた全ての実施例において、結合荷
重演算実行部4-11〜4-22は各結合荷重演算実行部毎に
別々の学習値を記憶するメモリを必要とする。しかし各
結合荷重演算実行部における処理及び出力ニューロン素
子における統合処理においては、1つもしくは複数の処
理装置を用い、逐次的に学習メモリを切り替えながら処
理を行うことが可能である。また本実施例で述べたよう
に、それぞれの出力ニューロン素子へのシナプスに対
し、全て結合荷重演算実行部を具備し、並列処理させる
ことも可能である。
【0065】また本発明では、簡単のため出力ニューロ
ン素子数を2として説明したが、本発明はこれに限定さ
れず、他の出力数としてもよいのは勿論である。
【0066】
【発明の効果】以上説明したように本発明は、従来使用
されている、出力ニューロン素子へのシナプスが結合荷
重という重みにより結合されるという構成とは違い、出
力ニューロン素子へのシナプスが、学習により接続制御
される新規な学習構成を成している。
【0067】請求項1記載の発明により、未学習データ
に対する認識率の向上が可能となる。また請求項2記載
の発明と併用することで、ハード規模の縮小化が可能と
なる。また請求項3記載の発明と併用することで、過学
習に対する未学習データに対する認識率劣化を抑えるこ
とが可能となる。
【0068】請求項4記載の発明により、請求項1記載
の発明に対し、更なるハード規模の縮小化が可能とな
る。
【0069】更に請求項1記載の発明または請求項4記
載の発明において、請求項5記載の発明を用いることに
より、更なるハード規模の縮小化が可能となる。
【図面の簡単な説明】
【図1】本発明の請求項1に基づくニューラルネットワ
ーク回路の構成図
【図2】学習回数メモリの学習演算回路図
【図3】本発明の請求項2に基づく学習回数メモリの学
習演算回路図
【図4】本発明の請求項3に基づく学習回数メモリの学
習演算回路図
【図5】本発明の請求項4に基づくニューラルネットワ
ーク回路の構成図
【図6】本発明の請求項5に基づくニューラルネットワ
ーク回路の第1の構成図
【図7】本発明の請求項5に基づくニューラルネットワ
ーク回路の第2の構成図
【図8】多層型ニューラルネットワーク回路図
【図9】木分岐構造の多層型ニューラルネットワーク回
路図
【図10】木分岐構造の多層型ニューラルネットワーク
回路図
【図11】結合荷重メモリの結合荷重演算回路図
【符号の説明】
111〜132 ニューロン素子 310〜340 出力ニューロン素子 11-11〜11ー38,12-11〜12ー38 分岐ニューロン
素子 4 結合荷重群 4-11〜4-22 結合荷重演算部 113 学習回数メモリ 114 閾値処理回路 115 接続制御回路 116 フラグメモリ 117 接続制御回路
フロントページの続き (72)発明者 香田 敏行 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (72)発明者 丸野 進 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (56)参考文献 電子情報通信学会技術研究報告 Vo l.93,No.223 P.39−46

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】単一または複数個の入力ベクトルを持つ入
    力層と、 出力が前記入力ベクトルの値により一意的に定まる木分
    岐構造のネットワークを前記入力層の入力ベクトル数だ
    け持つ中間層と、 前記中間層の全ての出力を統合する単一または複数個の
    出力ユニットを持つ出力層とを有する多層型ニューラル
    ネットワークにおいて、 前記中間層と各出力ユニットとの経路における学習回数
    を記憶する学習回数メモリと、 前記学習回数メモリの出力を閾値処理する閾値処理回路
    と、 前記閾値処理回路の出力により制御される、前記中間層
    と各出力ユニットとの経路の接続制御回路とを有し、 前記各出力ユニットにおいて、前記接続制御回路により
    接続された前記中間層の出力を総加算するニューラルネ
    ットワーク回路。
  2. 【請求項2】請求項1記載の学習回数メモリに納められ
    た学習回数をある上限値によりクリップするクリッピン
    グ機能を有するニューラルネットワーク回路。
  3. 【請求項3】請求項1記載の学習回数メモリに納められ
    た全ての学習回数値から、一様に一定の値を減じる学習
    回数更新器と、学習回数更新結果が零回を下回る値に対
    しては、零回にクリップするクリッピング機能とを有す
    るニューラルネットワーク回路。
  4. 【請求項4】単一または複数個の入力ベクトルを持つ入
    力層と、 出力が前記入力ベクトルの値により一意的に定まる木分
    岐構造のネットワークを前記入力層の入力ベクトル数だ
    け持つ中間層と、 前記中間層の全ての出力を統合する単一または複数個の
    出力ユニットを持つ出力層とを有する多層型ニューラル
    ネットワークにおいて、 前記中間層と各出力ユニットとの経路において前記経路
    が過去からの学習において学習されたか否かを記憶する
    フラグメモリと、 前記フラグメモリの出力により制御される、前記中間層
    と各出力ユニットとの経路の接続制御回路とを有し、 前記各出力ユニットにおいて、前記接続制御回路により
    接続された前記中間層の出力を総加算するニューラルネ
    ットワーク回路。
  5. 【請求項5】請求項1叉は4記載の中間層の出力を「ハ
    イ」もしくは「ロウ」の2値出力とし、各出力ユニット
    において、接続制御回路により接続された前記中間層の
    出力のうち、「ハイ」の数をカウントするニューラルネ
    ットワーク回路。
JP4316801A 1992-11-26 1992-11-26 ニューラルネットワーク回路 Expired - Lifetime JP2737583B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP4316801A JP2737583B2 (ja) 1992-11-26 1992-11-26 ニューラルネットワーク回路
US08/155,865 US5452402A (en) 1992-11-26 1993-11-23 Neural network circuit for adaptively controlling the coupling of neurons
DE69320003T DE69320003T2 (de) 1992-11-26 1993-11-26 Neuronalnetzwerkschaltung
EP93119130A EP0599347B1 (en) 1992-11-26 1993-11-26 Neural network circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4316801A JP2737583B2 (ja) 1992-11-26 1992-11-26 ニューラルネットワーク回路

Publications (2)

Publication Number Publication Date
JPH06161981A JPH06161981A (ja) 1994-06-10
JP2737583B2 true JP2737583B2 (ja) 1998-04-08

Family

ID=18081079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4316801A Expired - Lifetime JP2737583B2 (ja) 1992-11-26 1992-11-26 ニューラルネットワーク回路

Country Status (4)

Country Link
US (1) US5452402A (ja)
EP (1) EP0599347B1 (ja)
JP (1) JP2737583B2 (ja)
DE (1) DE69320003T2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5475768A (en) * 1993-04-29 1995-12-12 Canon Inc. High accuracy optical character recognition using neural networks with centroid dithering
JP2615422B2 (ja) * 1994-03-23 1997-05-28 工業技術院長 時系列学習神経回路素子およびそれを用いた時系列学習神経回路
JP2000506642A (ja) * 1996-02-09 2000-05-30 サーノフ コーポレイション 不確定の訓練データを用いてオブジェクトを検出及び分類するようにニューラルネットワークを訓練する方法及び装置
US6424961B1 (en) 1999-12-06 2002-07-23 AYALA FRANCISCO JOSé Adaptive neural learning system
US7080053B2 (en) * 2000-08-16 2006-07-18 Research Foundation Of State University Of New York Neural network device for evolving appropriate connections
WO2004068456A2 (en) * 2003-01-17 2004-08-12 Ayala Francisco J System and method for developing artificial intelligence
US7493295B2 (en) * 2003-01-17 2009-02-17 Francisco J. Ayala Method, system and computer program for developing cortical algorithms
MY138544A (en) 2003-06-26 2009-06-30 Neuramatix Sdn Bhd Neural networks with learning and expression capability
KR102067112B1 (ko) * 2017-10-17 2020-01-16 한양대학교 산학협력단 Pcm 기반의 뉴런 네트워크 소자
US11341407B2 (en) 2019-02-07 2022-05-24 International Business Machines Corporation Selecting a disconnect from different types of channel disconnects by training a machine learning module
US10929057B2 (en) * 2019-02-07 2021-02-23 International Business Machines Corporation Selecting a disconnect from different types of channel disconnects using a machine learning module
EP3792709A1 (de) * 2019-09-10 2021-03-17 Avalance UG (haftungsbeschränkt) Analysevorrichtung für betriebsgeräusche einer werkzeugmaschine

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5161203A (en) * 1981-08-06 1992-11-03 Buckley B Shawn Self-organizing circuits
US5132813A (en) * 1988-08-18 1992-07-21 Teledyne Industries, Inc. Neural processor with holographic optical paths and nonlinear operating means
JPH0738186B2 (ja) * 1989-03-13 1995-04-26 シャープ株式会社 自己拡張形ニユーラル・ネットワーク
US5319587A (en) * 1989-08-07 1994-06-07 Rockwell International Corporation Computing element for neural networks
WO1991011776A2 (en) * 1990-01-12 1991-08-08 The Trustees Of Boston University Hierarchical pattern recognition system with variable selection weights
EP0457325B1 (en) * 1990-05-16 1997-09-03 Matsushita Electric Industrial Co., Ltd. Recognition unit and recognizing and judging apparatus employing same
JPH04211802A (ja) * 1990-07-25 1992-08-03 Toshiba Corp ニュ−ラルネットワ−ク装置
US5087826A (en) * 1990-12-28 1992-02-11 Intel Corporation Multi-layer neural network employing multiplexed output neurons
JPH04266153A (ja) * 1991-02-20 1992-09-22 Honda Motor Co Ltd ニューラルネットワーク
JPH04305778A (ja) * 1991-04-02 1992-10-28 Seiko Instr Inc カラーデータ変換装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会技術研究報告 Vol.93,No.223 P.39−46

Also Published As

Publication number Publication date
JPH06161981A (ja) 1994-06-10
EP0599347A2 (en) 1994-06-01
DE69320003T2 (de) 1998-12-03
US5452402A (en) 1995-09-19
EP0599347B1 (en) 1998-07-29
DE69320003D1 (de) 1998-09-03
EP0599347A3 (en) 1995-12-27

Similar Documents

Publication Publication Date Title
JP2737583B2 (ja) ニューラルネットワーク回路
Gomory et al. An application of generalized linear programming to network flows
Drucker Improving regressors using boosting techniques
Hasegawa et al. Solving large scale traveling salesman problems by chaotic neurodynamics
Wang On competitive learning
JP2747104B2 (ja) ニューラルネットワーク
KR920003189A (ko) 뉴-럴 네트워크 회로
CN113489654A (zh) 一种路由选择方法、装置、电子设备及存储介质
US5528700A (en) Character recognition system based on a neural network
Zhang et al. Structure and properties of generalized adaptive neural filters for signal enhancement
EP0385637A2 (en) Learning machine with multi-input single output circuits connected in hierarchical structure
Chiueh et al. Multivalued associative memories based on recurrent networks
JPH07191951A (ja) ニューラルネットワーク回路
Woods Back and counter propagation aberrations
JPH0660051A (ja) ニューラルネットワーク回路
Yamamoto et al. Fuzzy associative inference system and its features
Arisawa et al. Enhanced back-propagation learning and its application to business evaluation
JP2860057B2 (ja) ニューラルネットワークシステム
Oohori et al. A new backpropagation learning algorithm for layered neural networks with nondifferentiable units
Gelenbe et al. Approximation by random networks with bounded number of layers
JPH07104849B2 (ja) ニューラル・ネットワークの学習方法
JP3343625B2 (ja) ファジィ推論のためのニューラルネットワーク
Bielinska et al. Comparison of different methods of bilinear time series prediction
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク
JP3344873B2 (ja) 学習型認識判断装置