JPH064504A - ニューラルネットワーク回路 - Google Patents

ニューラルネットワーク回路

Info

Publication number
JPH064504A
JPH064504A JP4159495A JP15949592A JPH064504A JP H064504 A JPH064504 A JP H064504A JP 4159495 A JP4159495 A JP 4159495A JP 15949592 A JP15949592 A JP 15949592A JP H064504 A JPH064504 A JP H064504A
Authority
JP
Japan
Prior art keywords
output
layer
intermediate layer
input
address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4159495A
Other languages
English (en)
Inventor
Shiro Sakiyama
史朗 崎山
Toshiyuki Koda
敏行 香田
Masakatsu Maruyama
征克 丸山
Hiroyuki Nakahira
博幸 中平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP4159495A priority Critical patent/JPH064504A/ja
Publication of JPH064504A publication Critical patent/JPH064504A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 画像等の認識処理を行うニューラルネットワ
ーク回路において、対象とする認識物に対し、小規模な
回路で高速に認識及び学習を実行できるネットワーク回
路を提供する。 【構成】 入力ベクトルi=1,i=2により一意的に
出力の定まる木分岐構造の中間層11,12と、統合ニ
ューロン31〜36より成る出力o=1,o=2の出力
層とを持ち、各中間層と出力層との間の経路のシナプス
群4の結合荷重の逐次変更により、シナプス群4の結合
荷重の学習を行なうニューラルネットワークにおいて、
シナプス群4の学習された結合荷重に対して重要度判定
器5を用いて重要度判定を行ない、各入力ベクトルi=
1,i=2と出力ユニットo=1,o=2との組合せ毎
に、経路選択回路21〜24で重要度の高いシナプスの
選択を行なって、ネットワークを再構成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像認識処理等の情報
処理を行うニューラルネットワーク回路の改良に関す
る。
【0002】
【従来の技術】近年、情報処理のニューラルネットワー
クの分野に大きな関心が集まってきている。これ等のニ
ューラルネットワークは、生物の頭脳に備えるニューロ
ンの構造を模倣して考えられている。これ等のニューラ
ルネットワークの処理の多くは、従来のフォン・ノイマ
ン型の逐次計算機により実現されていて、処理速度は極
めて遅いため、最近、ニューラルネットワークの構成を
専用の電子回路で構成する試みがなされている。
【0003】専用の電子回路で構成するニューラルネッ
トワークには様々な形態があるが、その中の一つに多層
型のニューラルネットワークがある。これは、図7に示
すようなネットワーク構造であって、分岐能力のあるニ
ューロン及び統合能力のあるニューロンを持ち、入力層
と出力層との間に、多層からなる中間層を持つ。
【0004】図7に示す多層型のニューラルネットワー
クは、入力ベクトルi=1,i=2が各々入力される2
個のニューロン素子111、112より成る入力層と、
出力o=1,o=2に関する2個のニューロン素子33
0、340より成る出力層と、この入力層と出力層との
間に位置し、2階層に形成した6個のニューロン素子1
21〜124、131,132より成る中間層の3層か
らなるニューラルネットワークであって、前記各層のニ
ューロン素子間には、該各層のニューロン素子間の結合
荷重を定めるシナプス群41〜43が配置される。該各
シナプス群41〜43の各シナプスの結合荷重は、学習
により変更可能である。
【0005】前記各シナプス群41〜43の各シナプス
の結合荷重を逐次適切に変更して学習することにより、
認識目的に合致したニューラルネットワークが構築され
る。これ等各シナプス群41〜43の各シナプスの結合
荷重の学習方法として、一般的に、バックプロパゲーシ
ョン法(BP法)が知られるが、該BP法では学習や追
加学習に時間を要し、また、学習アルゴリズムがハード
ウエア化に適していないという欠点があった。
【0006】そこで、高速な学習及び追加学習が可能で
あり、また学習アルゴリズムがハードウエア化に適した
図8に示すニューラルネットワーク回路が提案されてい
る。図8のニューラルネットワーク回路は、図7に示す
ネットワーク構造を木分岐構造に展開したニューラルネ
ットワークであって、入力ベクトルi=1,i=2を各
々入力する2個の分岐動作のみのニューロン素子11-1
1 ,12-11 よりなる入力層と、2階層に形成した24
個の分岐動作のみのニューロン素子11-21 〜11-24
,11-31 〜11-38 ,12-21 〜12-24 ,12-31
〜12-38 よりなる中間層と、該中間層のうち上層の
16個のニューロン素子11-31 〜11-38,12-31
〜12-38 からの出力を統合し、出力o=1,o=2に
関する統合動作のみの2個のニューロン素子310,3
20よりなる出力層とを備えた3層のニューラルネット
ワークであって、中間層と出力層との間には、それ等の
ニューロン素子間の結合荷重を定めるシナプス群4が配
置され、該シナプス群4の各シナプスの結合荷重は学習
により変更が可能である。前記図8において、例えば図
7におけるニューロン素子112−122−132−3
30の経路は、図8におけるニューロン素子12-11 −
12-22 −12-34 −310の経路に対応する。但し、
ニューロン素子11-11 〜11-38 間の各シナプスの結
合荷重、及びニューロン素子12-11 〜12-38 間の各
シナプスの結合荷重は共に学習されず、入力層の各ニュ
ーロン素子11- 11,12-11 に入力される入力ベク
トルの値により一意的に定まる。
【0007】前記図8のように入力ベクトルの値のみに
依存し、学習せずに一意的に木分岐構造のシナプスの結
合荷重を定めるネットワークの形態の一つとして、例え
ば文献「機能別階層ネットワークを用いた文字認識シス
テム」(平成2年度画像電子通信学会全国大会予稿第77
頁〜第80頁、又は文献「Multi-Functional LayeredNetw
ork using Quantizer Neurons 」(Computer World '9
0,November 1990)に示されるように、量子化ニューロ
ンと呼ばれるネットワーク形態がある。この種のネット
ワーク構成は、個々のシナプスの結合荷重の変更が他の
シナプスに依存しないので、高速な学習や追加学習性を
持ち、また学習アルゴリズムのハードウエア化にも適し
ている。
【0008】図9は、図8に示したニューラルネットワ
ーク回路の出力層を構成する2個の統合ニューロン31
0,320を2階層に分けた構造を示し、そのネットワ
ーク構造は図8と全く同じである。即ち、図9におい
て、11…は入力ベクトルi=1に対する中間層であっ
て、図8の12個のニューロン素子11-11 〜11-38
の集合体である。また、12…は入力ベクトルi=2に
対する中間層であって、図8の12個のニューロン素子
12-11 〜12-38 の集合体である。31は出力o=1
に関する中間層11の出力を統合する統合ニューロンで
あり、32は出力o=1に関する中間層12の出力を統
合する統合ニューロンである。同様に、33は出力o=
2に関する中間層11の出力を統合する統合ニューロン
であり、34は出力o=2に関する中間層12の出力を
統合する統合ニューロンである。35は前記統合ニュー
ロン31,32の出力を統合する統合ニューロンであ
り、36は同様に前記統合ニューロン33,34の出力
を統合する統合ニューロンである。以下、この図9に示
した図示法で説明を行なう。
【0009】
【発明が解決しようとする課題】しかしながら、上述し
たような木分岐構造からなる中間層を持ち、最終層の統
合ニューロンにより各シナプスの統合を行ない、最終層
のシナプスの結合荷重の変更により学習を行なう多層型
ニューラルネットワーク構成では、シナプスの結合荷重
の変更が他のシナプスに依存しないので、多層型のニュ
ーラルネットワークの1つの学習法であるBP法の欠点
を改善できて、高速な学習及び追加学習が可能であると
共に、学習アルゴリズムのハードウエア化にも適してい
るものの、中間層の多数のニューロン素子により分岐さ
れた多数の出力を出力層の統合ニューロンで統合してい
るため、この中間層と出力層との間に位置するシナプス
群におけるシナプスの数が膨大となる欠点がある。
【0010】本発明の目的は、前記木分岐構造のニュー
ラルネットワークにおける問題点に鑑み、その木分岐構
造のニューラルネットワーク構造を基本的に採用しなが
ら、そのシナプス群のシナプス数を減少し、よって演算
速度の高速化を図って短時間での画像認識等を可能にす
ると共に、ネットワーク回路を構成するハードウエアの
規模を縮小することにある。
【0011】
【課題を解決するための手段】前記の目的を達成するた
め、請求項1記載の発明の構成は、単一又は複数個の入
力ベクトルを持つ入力層と、出力が前記入力層の入力ベ
クトルの値により一意的に定まる木分岐構造のネットワ
ークを前記入力層の入力ベクトルの数だけ持つ中間層
と、該各中間層の出力を該各出力に対応する結合荷重で
もって統合する単一又は複数個の出力ユニットを持つ出
力層とを有し、前記中間層の各出力と前記出力層との経
路の結合荷重を学習するようにした多層型のニューラル
ネットワークにおいて、前記入力層の各入力ベクトル毎
に、若しくは前記出力層の各出力ユニット毎に、又は該
各入力ベクトルと出力ユニットとの組合せ毎に、学習さ
れた前記中間層と出力層との経路の結合荷重の重要度を
判定する重要度判定器と、該重要度判定器の出力により
前記中間層と出力層との経路のうち重要度の高い経路を
選択し、該選択された経路のみによるネットワークを再
構成する経路選択回路とを設ける構成とする。
【0012】更に、請求項2記載の発明の構成は、単一
又は複数個の入力ベクトルを持つ入力層と、出力が前記
入力層の入力ベクトルの値により一意的に定まる木分岐
構造のネットワークを前記入力層の入力ベクトルの数だ
け持つ中間層と、該各中間層の出力を該各出力に対応す
る結合荷重でもって統合する単一又は複数個の出力ユニ
ットを持つ出力層とを有し、前記中間層の各出力と前記
出力層との経路の結合荷重を学習する多層型のニューラ
ルネットワークであって、前記入力層の各入力ベクトル
毎に、若しくは前記出力層の各出力ユニット毎に、又は
該各入力ベクトルと出力ユニットとの組合せ毎に、学習
された前記中間層と出力層との経路の結合荷重の重要度
を判定して結合荷重の重要度の高い経路を選択し、該選
択された経路のみによるネットワークを再構成するよう
にした多層型のニューラルネットワーク回路において、
前記中間層の再構成前の重要度の高い各出力経路のアド
レスと前記中間層の再構成後の各出力経路のアドレスと
の対応関係を記憶するアドレス変換テーブルメモリを設
けるとともに、前記中間層の再構成前の重要度の高い各
出力経路のアドレスに対応する結合荷重を記憶し、前記
中間層の再構成前の重要度の高い各出力経路のアドレス
に対応する結合荷重が読み出される結合荷重メモリと、
前記アドレス変換テーブルメモリから出力される中間層
の再構成後の各出力の経路のアドレスに対応する中間層
の出力を演算する演算ユニットと、前記結合荷重メモリ
の結合荷重と前記中間層の出力とを合成する合成ユニッ
トと、前記各出力ユニット毎に前記合成ユニットによる
再構成後の前記中間層の全ての合成結果を逐次的に統合
する単数又は複数の統合ユニットとを設ける構成とす
る。
【0013】
【作用】前記の構成により、請求項1記載の発明では、
学習された中間層と出力層との経路の結合荷重の重要度
が重要度判定器により判定され、その重要度の高い経路
が経路選択回路により選択されて、該選択された経路の
みによるネットワークが再構成されるので、認識の対象
データに対してシナプス数が少なく制限しつつも認識効
率の良いニューラルネットワーク回路となり、演算速度
の高速化が可能になる。
【0014】また、請求項2記載の発明では、中間層と
出力層との間の経路のうち重要度の高い再構成前の経路
のアドレスが、アドレス変換テーブルメモリによって、
再構成後の経路のアドレスに変換される。そして、前記
再構成前の重要度の高い経路のアドレスに対応する結合
荷重が結合荷重メモリから読み出されると共に、前記再
構成後のアドレスに対応する中間層の出力が演算ユニッ
トにより演算され、その後、前記読み出された結合係数
と演算された中間層の出力とが合成ユニットにより合成
されて、該合成ユニットに合成された再構成後の中間層
の全ての合成結果が各出力ユニット毎に統合ユニットに
より逐次的に統合される。その結果、アドレス変換テー
ブルメモリから出力される再構成後の経路のアドレスの
数,即ちシナプスの数が少くても、認識の対象が精度良
く認識されるニューラルネットワーク回路となり、演算
速度の高速化及び、ネットワーク回路を構成するハード
ウエアの規模を縮小することが可能になる。
【0015】
【実施例】
(実施例1)請求項1記載の発明の実施例を図1に示
す。図1のネットワーク構成の図示法は前述した図9に
従っており、同じ構成要素に対しては同じ番号を付して
ある。図1において、11は入力ベクトルi=1に対す
る中間層であって、図8に示す12個のニューロン素子
11-11 〜11-38 の集合体である。同様に、12は入
力ベクトルi=2に対する中間層であって、図8に示す
12個のニューロン素子12-11 〜12-38 の集合体で
ある。31は出力o=1に関する中間層11の出力を統
合する出力ユニットとしての統合ニューロン、32は出
力o=1に関する中間層12の出力を統合する出力ユニ
ットとしての統合ニューロンである。同様に、33は出
力o=2に関する中間層11の出力を統合する出力ユニ
ットとしての統合ニューロン、34は出力o=2に関す
る中間層12の出力を統合する出力ユニットとしての統
合ニューロンである。35は前記出力o=1に関する2
個の統合ニューロン31,32の各出力を統合する統合
ニューロン、36は前記出力o=2に関する2個の統合
ニューロン33,34の各出力を統合する統合ニューロ
ンであって、これ等統合ニューロン31〜36により、
2階層の出力層を構成している。
【0016】また、図1において、21は出力o=1に
関する中間層11の出力のシナプスを選択する経路選択
回路、22は出力o=1に関する中間層12の出力のシ
ナプスを選択する経路選択回路である。同様に、23は
出力o=2に関する中間層11の出力のシナプスを選択
する経路選択回路、24は出力o=2に関する中間層1
2の出力のシナプスを選択する経路選択回路である。ま
た、4は各経路選択回路21〜24と統合ニューロン3
1〜34との間に配置されたシナプス群であって、各中
間層11〜14と統合ニューロン31〜34との間の結
合荷重を定めるものである。5は前記シナプス群4にお
ける各経路選択回路21〜24と統合ニューロン31〜
34との間のシナプスのうち、重量度の高いシナプスを
各経路選択回路21〜24毎に判定し、その判定結果に
基いて各経路選択回路21〜24のシナプスのスイッチ
を制御する重要度判定器である。前記重要度判定器5に
よる重要度の判定は、ヘブの学習則に基づく場合には、
結合荷重の大きいものが重要度が高いシナプスであると
判定され、またパーセプトロンの学習則に基づく場合に
は、促進や抑制が大きい,換言すれば結合荷重の絶対値
の大きいものが重要度の高いシナプスであると判定され
る。
【0017】次に本実施例の動作について説明する。
【0018】先ず、各経路選択回路21〜24の各シナ
プスのスイッチを全てオンにして、図9で示したネット
ワーク回路と同様の学習を行なう。そして、複数回の学
習を行ない、これにより所定の認識対象に対して、ある
程度の認識能力を持つネットワークが構成されれば、こ
の時点で重要度判定器5により各経路選択回路21〜2
4の出力毎のシナプス群4の結合荷重の重要度を判定
し、その重要度の高いシナプスのみスイッチをオンす
る。これにより、少ないシナプスを用いた新たなネット
ワークが再構成される。
【0019】前記経路選択回路21〜24を用いた再構
成前と再構成後のネットワーク形態を示すと、図2及び
図3の通りとなる。図2は再構成前のネットワーク形態
を示し、図3は再構成後のネットワーク形態を示す。
尚、図2及び図3では図1と同一構成要素につき図1と
同一番号を付している。
【0020】図3は、経路選択回路21〜24により、
各中間層の出力のシナプス8本を4本に圧縮した例を示
す。図3では、出力o=1に関する中間層11の出力は
経路選択回路21により、左から3番目、4番目、6番
目、及び8番目のシナプスが選択されている。従って、
演算すべきシナプスの数を図2の再構成前のネットワー
ク回路に比較して半分に減少することができる。よっ
て、本実施例では、認識すべき対象に対してシナプスが
少なくて効率の良いニューラルネットワークを再構築す
ることができる。
【0021】尚、前記図1では、各入力ベクトルと出力
との各々の組合せ(i=1,o=1)、(i=2,o=
1)、(i=1,o=2)、(i=2,o=2)毎にそ
れぞれ経路選択回路21〜24を設け、該経路選択回路
21〜24別に最終層のシナプスの重要度を判定して、
シナプスの経路選択を行なう実施例を示したが、各入力
ベクトルi=1,i=2毎に、又は各出力o=1,o=
2毎に経路選択回路を設けてもよい。但し、本実施例の
ように各入力ベクトルと出力との各々の組合わせ毎に最
終層のシナプスの経路選択を行なう方が、シナプスの圧
縮効果は高い。その理由は、認識すべき対象となる各入
力ベクトル群と各出力とは相関性が高いからである。例
えば入出力の組合わせ毎ではなく、入力ベクトル毎に経
路選択回路を設ける場合には、図1において、経路選択
回路21と経路選択回路23との論理和をとった経路選
択回路が必要となり、シナプス数が増大する。
【0022】次に、前記図1の4個の経路選択回路21
〜24のハードウエア構成を例を挙げて説明する。
【0023】図4は、図3に示す中間層11と統合ニュ
ーロン31との間における図1の経路選択回路21の経
路選択を示す。図4に示すように、経路選択回路21に
より中間層のアドレス010、011、101、111
の重要度が高いと判別されたシナプスだけが図3の統合
ニューロン31に接続される。経路選択回路22〜24
に対しても同様に中間層の重要度が高いアドレスが選択
されて、対応する統合ニューロン32〜34に接続され
る。
【0024】図5は、前記図4で示した経路選択回路2
1の再構成前と再構成後のアドレスの対応を示したアド
レス変換テーブル210を示す。同様に、各経路選択回
路22〜24に対してもアドレス変換テーブルを作成す
る。
【0025】尚、図4及び図5では、8本のシナプスを
4本に圧縮する例を述べたが、認識すべき対象に対して
目標とする認識能力が得られる限り、一層少ないシナプ
ス数に圧縮することが可能である。
【0026】(実施例2)図6は請求項2記載の発明の
実施例を示す。図6において、800は中間層と出力層
との間の経路を重要度に応じて選択した再構成前のシナ
プスのアドレスを発生するアドレス発生器である。20
0は図5で示したアドレス変換テーブル210を有する
アドレス変換テーブルメモリであって、入出力の組合せ
毎のアドレス変換テーブル210〜240からなり、前
記アドレス発生器800から発生する再構成前のアドレ
スを受け、該再構成前のアドレスに対応する再構成後の
アドレスを出力するものである。また、400は中間層
の各出力と出力層との間の経路の結合荷重のうち、図1
の重要度判定器5によって判定された重要度の高い結合
荷重のみを再構成前のアドレスに対応して記憶する結合
荷重メモリであって、入出力の組合せ毎の結合荷重テー
ブル410〜440からなり、前記アドレス発生器80
0から発生する再構成前のアドレスに対応する結合係数
を出力するものである。700は入力ベクトルi=1,
i=2の入力ベクトルテーブル710,720を記憶す
る入力メモリ、100は前記アドレス変換テーブルメモ
リ200より出力される再構成後のアドレスに対応する
中間層の出力を演算する演算ユニットとしての中間層出
力演算回路であり、該中間層出力演算回路100の出力
は、入力メモリ700に記憶する入力ベクトルと、アド
レス変換テーブルメモリ200より出力される再構成後
のアドレスにより一意的に定まる。900は、前記中間
層出力演算回路100より出力されるデータ(中間層の
出力)と、結合荷重メモリ400より出力される結合荷
重との合成を行なう合成ユニットとしての合成部であ
る。該合成部900は一般的に乗算器等が用いられる。
300は図1の各出力ユニット35,36別に合成部9
00の出力を逐次的に統合する統合部である。該統合部
300は、図1で示す統合ニューロン31〜36の役割
を果たし、図6の実施例では例えば統合ニューロン3
1、32の役目を逐次的(順序的)に行なうものであ
る。600は、前記統合部300により一つの出力ユニ
ットに関して全ての統合化が終了した時点で、その統合
結果を記憶するものであって、一般的には累積加算器等
を用いる。アドレス発生器800は、上記合成部90
0、統合部300を含む全てのユニットの制御を行う。
【0027】続いて、図6における実施例の動作につい
て説明する。
【0028】アドレス発生器800は、再構成前のシナ
プスのうち、選択された重要度の高いシナプスのアドレ
スを順次出力し、結合荷重メモリ400及びアドレス変
換テーブルメモリ200に送られる。結合荷重メモリ4
00では、アドレス発生器800から発生する再構成前
の重要度の高いアドレスに対応する結合荷重が読み出さ
れて、合成部900に送られる。一方、アドレス変換テ
ーブルメモリ200からは、中間層の再構成後のアドレ
スが出力されて、中間層出力演算回路100に送られ
る。入力メモリ700からはアドレス発生器800から
発生する再構成前の重要度の高いアドレスに対応する入
力ベクトルのデータが出力され、中間層出力演算回路1
00に送られる。中間層出力演算回路100では、前記
入力メモリ700からの入力ベクトルのデータと、アド
レス変換テーブルメモリ200からの中間層の再構成後
のアドレスとで一意的に定まる中間層の出力データが出
力され、合成部900に送られる。合成部900では、
前記結合荷重メモリ400より出力される結合荷重デー
タと中間層出力演算回路100より出力される中間層の
出力データとが合成され、その合成結果が統合部300
に送られる。統合部300では、出力ユニット毎に合成
部900のデータが統合されて、出力メモリ600に記
憶される。出力メモリ600の出力結果が偽である時
は、教師信号により結合荷重メモリ400の結合係数値
が更新される。
【0029】したがって、本実施例においては、前記図
1で示したハードウエアを使用して経路選択回路21〜
24におけるアドレス変換対応テーブルを作成し、これ
が図6のアドレス変換テーブルメモリ200に書き込ま
れているので、アドレス発生器800から発生させるア
ドレス信号でもって再構成前の中間層と出力層との間の
重要度の高い経路を指定すると、演算すべきシナプスの
数の少ない限られたハードウエアでもって、認識すべき
対象が高い認識能力で高速に認識し得る。また、結合荷
重メモリ400は、重要度の高い結合荷重のみを記憶す
るので、その容量が少なくて済み、小型の画像認識装置
等を提供できる。
【0030】尚、本実施例では、図6において統合部3
00を1個設けたが、この統合部300は、出力ユニッ
ト毎の中間層当り1個、又は入力層と出力ユニットとの
組合せ毎の中間層当り1個用意して、これ等中間層の出
力を統合させることも可能である。また、認識すべき対
象が固定である場合には、図6のアドレス変換テーブル
メモリ200はROMで代用でき、該ROMを取り替え
れば各種の認識対象に対して固有の最適なネットワーク
を構築できる。
【0031】また、本実施例の図6では、入力ベクトル
と出力ユニットとの組合せ毎にアドレス変換テーブル2
10〜240を設けたが、各入力ベクトル毎又は各出力
ユニット毎にアドレス変換テーブルを設けてもよく、例
えば各入力ベクトル毎に用意する場合には、図6の2つ
のアドレス変換テーブル210,230の内容を等しく
したものに一致する。
【0032】更に、以上の説明では、入力ベクトル数を
2、出力ベクトル数を2として説明したが、本発明はこ
れに限定されず、他のベクトル数としてもよいのは勿論
である。
【0033】
【発明の効果】以上説明したように、請求項1記載の発
明によれば、学習された中間層と出力層との経路の結合
荷重の重要度を判定し、その重要度の高い経路を選択し
て、該選択された経路のみによるネットワークを再構成
したので、認識の対象データに対してシナプスの数を少
なく制限しながら認識効率の高い小型のニューラルネッ
トワーク回路を提供でき、演算速度の高速化を図ること
ができる。
【0034】また、請求項2記載の発明によれば、前記
請求項1記載の発明の効果と同様に、シナプスの数の少
ない限られたハードウエアでもって、認識すべき対象を
高い認識能力で高速に認識し得るネットワークを提供で
きると共に、結合荷重メモリの容量を少なくして、小型
の画像認識装置等を提供でき、ネットワーク回路のハー
ドウェア規模の縮小化を図ることができる。
【図面の簡単な説明】
【図1】請求項1記載の発明の実施例におけるニューラ
ルネットワーク回路の構成図である。
【図2】同実施例における再構成前のニューラルネット
ワーク回路を示す図である。
【図3】同実施例における再構成後のニューラルネット
ワーク回路を示す図である。
【図4】同実施例における経路選択回路の説明図であ
る。
【図5】図4の経路選択回路をハードウェア構成する場
合のアドレス変換テーブルを示す図である。
【図6】請求項2記載の発明の実施例におけるニューラ
ルネットワーク回路の構成図である。
【図7】従来例を示す多層型のニューラルネットワーク
回路の一般的回路を示す図である。
【図8】木分岐構造の多層型のニューラルネットワーク
回路を示す図である。
【図9】出力層を2階層とした木分岐構造の多層型のニ
ューラルネットワーク回路を示す図である。
【符号の説明】
4 シナプス群 5 重要度判定器 11、12 中間層 11-11 〜11-38 分岐ニューロン素子 12-11 〜12-38 分岐ニューロン素子 21〜24 経路選択回路 31〜36 統合ニューロン 41〜43 シナプス群 100 中間層出力演算回路(演算ユニ
ット) 111〜132 ニューロン素子 200 アドレス変換テーブルメモリ 210〜240 アドレス変換テーブル 300 統合部(統合ユニット) 310〜340 統合ニューロン素子 400〜440 結合荷重メモリ 600〜620 出力メモリ 700〜720 入力メモリ 800 アドレス発生器 900 合成部(合成ユニット)
───────────────────────────────────────────────────── フロントページの続き (72)発明者 中平 博幸 大阪府門真市大字門真1006番地 松下電器 産業株式会社内

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 単一又は複数個の入力ベクトルを持つ入
    力層と、出力が前記入力層の入力ベクトルの値により一
    意的に定まる木分岐構造のネットワークを前記入力層の
    入力ベクトルの数だけ持つ中間層と、該各中間層の出力
    を該各出力に対応する結合荷重でもって統合する単一又
    は複数個の出力ユニットを持つ出力層とを有し、前記中
    間層の各出力と前記出力層との経路の結合荷重を学習す
    るようにした多層型のニューラルネットワークにおい
    て、 前記入力層の各入力ベクトル毎に、若しくは前記出力層
    の各出力ユニット毎に、又は該各入力ベクトルと出力ユ
    ニットとの組合せ毎に、学習された前記中間層と出力層
    との経路の結合荷重の重要度を判定する重要度判定器
    と、該重要度判定器の出力により前記中間層と出力層と
    の経路のうち重要度の高い経路を選択し、該選択された
    経路のみによるネットワークを再構成する経路選択回路
    とを有することを特徴とする多層型のニューラルネット
    ワーク回路。
  2. 【請求項2】 単一又は複数個の入力ベクトルを持つ入
    力層と、出力が前記入力層の入力ベクトルの値により一
    意的に定まる木分岐構造のネットワークを前記入力層の
    入力ベクトルの数だけ持つ中間層と、該各中間層の出力
    を該各出力に対応する結合荷重でもって統合する単一又
    は複数個の出力ユニットを持つ出力層とを有し、前記中
    間層の各出力と前記出力層との経路の結合荷重を学習す
    る多層型のニューラルネットワークであって、前記入力
    層の各入力ベクトル毎に、若しくは前記出力層の各出力
    ユニット毎に、又は該各入力ベクトルと出力ユニットと
    の組合せ毎に、学習された前記中間層と出力層との経路
    の結合荷重の重要度を判定して結合荷重の重要度の高い
    経路を選択し、該選択された経路のみによるネットワー
    クを再構成するようにした多層型のニューラルネットワ
    ーク回路において、 前記中間層の再構成前の重要度の
    高い各出力経路のアドレスと前記中間層の再構成後の各
    出力経路のアドレスとの対応関係を記憶するアドレス変
    換テーブルメモリを備えるとともに、前記中間層の再構
    成前の重要度の高い各出力経路のアドレスに対応する結
    合荷重を記憶し、前記中間層の再構成前の重要度の高い
    各出力経路のアドレスに対応する結合荷重が読み出され
    る結合荷重メモリと、前記アドレス変換テーブルメモリ
    から出力される中間層の再構成後の各出力の経路のアド
    レスに対応する中間層の出力を演算する演算ユニット
    と、前記結合荷重メモリの結合荷重と前記中間層の出力
    とを合成する合成ユニットと、前記各出力ユニット毎に
    前記合成ユニットによる再構成後の前記中間層の全ての
    合成結果を逐次的に統合する単数又は複数の統合ユニッ
    トとを有することを特徴とする多層型のニューラルネッ
    トワーク回路。
JP4159495A 1992-06-18 1992-06-18 ニューラルネットワーク回路 Pending JPH064504A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4159495A JPH064504A (ja) 1992-06-18 1992-06-18 ニューラルネットワーク回路

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4159495A JPH064504A (ja) 1992-06-18 1992-06-18 ニューラルネットワーク回路

Publications (1)

Publication Number Publication Date
JPH064504A true JPH064504A (ja) 1994-01-14

Family

ID=15695021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4159495A Pending JPH064504A (ja) 1992-06-18 1992-06-18 ニューラルネットワーク回路

Country Status (1)

Country Link
JP (1) JPH064504A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1866816A1 (en) * 2005-03-11 2007-12-19 Commonwealth Scientific And Industrial Research Organisation Processing pedigree data
JP2018506785A (ja) * 2015-01-22 2018-03-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated モデル圧縮および微調整
KR20190016311A (ko) * 2017-08-08 2019-02-18 서울대학교산학협력단 재구성 가능한 뉴로모픽 시스템 및 이의 신경망 구성 방법
CN109961134A (zh) * 2017-12-14 2019-07-02 北京中科寒武纪科技有限公司 集成电路芯片装置及相关产品

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1866816A1 (en) * 2005-03-11 2007-12-19 Commonwealth Scientific And Industrial Research Organisation Processing pedigree data
EP1866816A4 (en) * 2005-03-11 2008-10-29 Commw Scient Ind Res Org TREATMENT OF GENEALOGY DATA
JP2018506785A (ja) * 2015-01-22 2018-03-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated モデル圧縮および微調整
KR20190016311A (ko) * 2017-08-08 2019-02-18 서울대학교산학협력단 재구성 가능한 뉴로모픽 시스템 및 이의 신경망 구성 방법
CN109961134A (zh) * 2017-12-14 2019-07-02 北京中科寒武纪科技有限公司 集成电路芯片装置及相关产品

Similar Documents

Publication Publication Date Title
JP2662000B2 (ja) 神経回路網およびその回路網に用いる回路
CN111932445A (zh) 对风格迁移网络的压缩方法及风格迁移方法、装置和系统
JP2004538582A (ja) 最大射影を規定する重みを含む人工ニューロン
EP0526504B1 (en) Artificial neural device
US5265224A (en) Recognition unit and recognizing and judging apparatus employing same
Austin et al. The advanced uncertain reasoning architecture, AURA
CA2412963A1 (en) Apparatus for generating sequences of elements
JPH064504A (ja) ニューラルネットワーク回路
JP2679730B2 (ja) 階層構造ニューラルネット
JP3172352B2 (ja) ニューラルネットワーク回路
US5493632A (en) Neural network employing a location addressable memory and method for operating the same
US3496382A (en) Learning computer element
JPH08286922A (ja) ファジィ・ニューラルネットワーク装置
US5781128A (en) Data compression system and method
Osana Improved chaotic associative memory using distributed patterns for image retrieval
JP2762735B2 (ja) 単位認識ユニット及び学習型認識判断装置
JP3082530B2 (ja) ニューラルネットワーク回路
JP3224831B2 (ja) ニューラルネットワーク装置
CN113593600B (zh) 混合语音分离方法和装置、存储介质及电子设备
JPS63298523A (ja) クラスタリング法による2進木構造辞書の作成方式
Stupmann et al. Implementation of learning in continuous analog circuitry
CN115964626A (zh) 一种基于动态多尺度特征融合网络的社区检测方法
Philpot et al. Ensembles of Neural Networks for Digital Problems
Ye et al. Dynamic Scalable Self-Attention Ensemble for Task-Free Continual Learning
Valdovinos et al. Ensembles of multilayer perceptron and modular neural networks for fast and accurate learning

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020122