JP3172352B2 - ニューラルネットワーク回路 - Google Patents

ニューラルネットワーク回路

Info

Publication number
JP3172352B2
JP3172352B2 JP32924693A JP32924693A JP3172352B2 JP 3172352 B2 JP3172352 B2 JP 3172352B2 JP 32924693 A JP32924693 A JP 32924693A JP 32924693 A JP32924693 A JP 32924693A JP 3172352 B2 JP3172352 B2 JP 3172352B2
Authority
JP
Japan
Prior art keywords
output
input
layer
neural network
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32924693A
Other languages
English (en)
Other versions
JPH07191951A (ja
Inventor
征克 丸山
史朗 崎山
博幸 中平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP32924693A priority Critical patent/JP3172352B2/ja
Publication of JPH07191951A publication Critical patent/JPH07191951A/ja
Application granted granted Critical
Publication of JP3172352B2 publication Critical patent/JP3172352B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像認識処理等を行う
ニューラルネットワーク回路の改良に関するものであ
る。
【0002】
【従来の技術】情報処理のニューラルネットワークの分
野に最近大きな関心が集まってきている。これらのニュ
ーラルネットワークは生物のニューロンの構造を模倣し
て考えられており、これらのニューラルネットワークの
処理の多くは、従来のフォン・ノイマン型の逐次計算機
で実現されているため、処理速度はきわめて遅い。そこ
で、専用の電子回路での構成の試みがなされている。
【0003】専用の電子回路で構成したニューラルネッ
トワークは色々あるが、その中の1つのニューラルネッ
トワークである量子化ニューロン(量子化セル)のネッ
トワークによる画像認識は、例えば文献:『機能別階層
ネットワークを用いた文字認識システム』平成2年度画
像電子通信学会全国大会予稿ページ77〜80、又は『Mult
i-Functional Layered Network using Quantizer Neuro
ns』ComputerWorld '90,November 1990 )に開示され
る。以下、このニューラルネットワークによる画像認識
について説明する。
【0004】図12に量子化ニューロンのネットワーク
を示す。このネットワークは、複数個の量子化ニューロ
ンを層状のツリー構成で多層ネットワーク状に連結し、
最終層は多入力1出力の通常の人工神経細胞を連結した
構成となっている。このネットワークに与える画像の特
徴データは、その1例として、8×8の画素値、8×8
の画素値の横方向の差分値、及び8×8の画素値の縦方
向の差分値である。図12に示すように、第1層は、8
×8画素数に相当する64個の量子化ニューロンからな
り、これらの量子化ニューロンの量子化信号入力端子に
は特徴データ入力1として画素値を入力する。第2層で
は、量子化ニューロンの量子化信号入力端子に特徴デー
タ入力2として画素値の横方向の差分値を入力する。第
3層では、量子化ニューロンの量子化信号入力端子に特
徴データ入力3として画素値の縦方向の差分値を入力す
る。第4層は教師入力層であって、教師入力によって最
終層の各ニューロンのシナプシスの結合係数を変化させ
る。最終層は解答の出力層であって、例えば、英数字6
2文字に対する62個の通常の人工神経細胞からなる。
【0005】前記出力層のニューロンは、図15に示す
ように、それぞれの入力データに対し、各々、学習で決
定されている重みWn (n は入力の番号)を掛けて、そ
れらの総和を出力する。
【0006】前記量子化ニューロン(量子化セル)は、
図13に示すように、量子化信号入力端子S及び選択入
力端子Rと、複数の出力とを有している。選択入力端子
Rより入力された信号は、量子化信号入力端子Sから入
力される値x によって、例えば、(式1)に従った重み
τが掛けられ各出力に出力される。
【0007】 τj =1−β(|j-x |) …(式1) |a |:a の絶対値 ここで、j は量子化ニューロンの出力番号を示す。
【0008】前記図13の量子化ニューロンは、量子化
信号入力端子Sからの入力レベルが8レベルであって、
出力数が8ケのものである。例えば、関数(1−β)を
図16で示すものとするならば、量子化信号入力が値0
であったとき、量子化ニューロンのそれぞれの出力に現
れる値は、選択信号入力に与えられる値に図14(a)
で示される対応する重みτ(n)を掛けた値となる。
【0009】図13で示したような量子化信号入力レベ
ルSが8レベル、出力数が8ケの量子化ニューロンでネ
ットワークを構成する場合、第1層の量子化ニューロン
の8つの出力それぞれに、第2層の量子化ニューロンの
選択信号入力が接続される。更に、この8つの第2層の
量子化ニューロンの各々の8つの出力それぞれに第3層
の量子化ニューロンの選択信号入力が接続される。この
ように、第1層の量子化ニューロン1個から、量子化ニ
ューロンを経由し、ツリー状に分岐すると、第3層の量
子化ニューロンの出力数(第4層)は512となる。
【0010】第1層の量子化ニューロンの8つの出力に
接続される8個の第2層の量子化ニューロンの量子化信
号入力は、第1層の特徴データ入力1である画素値と同
位置の横方向差分値が与えられる。
【0011】8個ある第2層の量子化ニューロンの各8
つの出力に接続される64個の第3層の量子化ニューロ
ンの量子化信号入力は、第1層の特徴データ入力1であ
る画素値、および第2層の特徴データ入力2である横方
向差分値と同位置の縦方向差分値が与えられる。
【0012】図12に示した量子化ニューロンの画像認
識ネットワークは、第1層の1個の量子化ニューロンを
元として、第3層の量子化ニューロンの数が64個とな
る第4層までのツリー状のネットワークを構成し、それ
に最終層のネットワークを付して構成されている。
【0013】先ず、量子化ニューロンの一層について説
明する。図13で説明したように、量子化ニューロン
は、下層のニューロンの出力、又は選択信号(通常は1
か最大の値)が与えられる選択信号入力Rと、特徴デー
タが与えられる量子化信号入力Sとがある。ここでは、
特徴データを0〜7までの8レベルとして説明する。こ
の時、量子化ニューロンの出力は出力0〜7の8つあ
る。
【0014】量子化信号入力Sが値0であったとき、そ
れぞれの出力に現れる値は、選択信号入力Rに与えられ
る値に図14(a)で示された対応する結合係数を掛け
たものとなる。量子化信号入力Rが値3であれば、それ
ぞれの結合係数は、図14(b)となる。図14(b)
は、同図(a)を出力番号方向に3つスライドしたのと
同様である。また、量子化信号入力Rが値7であれば、
それぞれの結合係数は、出力番号方向に7つスライドし
たのと同様で図14(c)のようになる。
【0015】第1層の量子化ニューロンの選択信号入力
Rは、最大の値が与えられている。例えば、量子化ニュ
ーロンを8ビットの演算で行うとするならば、第1層
で、量子化信号入力が0の場合は、 選択信号入力=FF 出力番号0=FF 出力番号1=7F 出力番号2=0 出力番号3=0 出力番号4=0 出力番号5=0 出力番号6=0 出力番号7=7F (16進表現) となる。
【0016】第2層の量子化ニューロンの選択信号入力
は、第1層の量子化ニューロンの出力が与えられる。ま
た、第3層の量子化ニューロンの選択信号入力は、第2
層の量子化ニューロンの出力が与えられる。
【0017】従って、第3層の量子化ニューロンの出力
は、第1層の量子化ニューロンの結合係数、第2層の量
子化ニューロンの結合係数、第3層の量子化ニューロン
の結合係数の3つと第1層の量子化ニューロンの選択信
号入力を掛け合わせたものになっている。
【0018】このニューラルネットワークを高速に計算
するために図11に示す構成が提案されており(出願番
号03-237674 )、以下に説明する。
【0019】図11示す従来回路は、特徴データを特徴
データメモリ107〜109に与え、その特徴データを
認識するニューラルネットワーク回路である。すなわ
ち、特徴データについてネットワークの演算を行うもの
である。
【0020】図11において、特徴データメモリ107
〜109は、それぞれ第1層〜第3層の量子化ニューロ
ンの量子化信号入力に与えるデータが保持されている。
係数メモリ101〜103は、それぞれ第1層〜第3層
の量子化ニューロンの結合係数が保持されている。テー
ブルメモリ112は、係数メモリ101〜103の出力
J,K,Hを入力とし、それらの掛け合わせた値を出力
する。重みメモリ118は量子化ニューロンのネットワ
ークの最終層のニューロンの重みを保持する。累積乗算
器113は、テーブルメモリ112の出力と重みメモリ
118の出力とを入力とし、その両値の累積乗算を行
う。
【0021】制御回路117は、ニューラルネットワー
ク回路1を制御し、スタート入力によって処理を開始
し、クロック信号によって動作する。前記制御回路11
7は、第1層〜第3層の各結合係数の零以外のデータの
数Wj,Wk,Whをアドレス発生器119とアドレス
変換器104〜106に与える。アドレス変換器104
〜106は、アドレス発生器119と対応する特徴デー
タメモリ107〜109との各データを受け取り、それ
ぞれ対応する係数メモリ101〜103のアドレス入力
の変換と重みメモリ118へのアドレス入力の変換を行
う。
【0022】前記アドレス発生器119は、図8に示す
ように、5つのカウンタ121〜124で構成されてい
る。第1層カウンタ120、第2層カウンタ121及び
第3層カウンタ122は、キャリ入力が1のとき、零か
ら幅入力の値−1までカウントアップする。例えば、幅
入力が値3であれば0、1、2とカウントし、その後に
0に戻り、再び1、2とカウントする。特徴データカウ
ンタ123は、特徴データ数をカウントするカウンタで
あり、出力層カウンタ124は、出力数をカウントする
カウンタである。
【0023】また、図11において、出力メモリ114
は、前記アドレス発生器119の出力カウンタ124の
出力Pのアドレスに累積演算器113の値が書き込まれ
るものである。
【0024】次に、前記従来回路の動作について説明す
る。
【0025】特徴データメモリ107、108、109
には、認識すべき画像の特徴データが書き込まれてい
る。
【0026】アドレス発生器119の特徴データカウン
ター123の出力iにより特徴データメモリ107、1
08、109から各層に与えられる特徴データj,k,
hが読み出される。
【0027】アドレス変換器104は、第1層の特徴デ
ータj、アドレス発生器119の第1層カウンター12
0の出力x、第1層の結合係数の零以外のデータの数W
jを入力としている。ここで、例えば、第1層の結合係
数を図16に示したものとするならば、Wjは3とな
る。前記アドレス変換器104は、第1層の量子化ニュ
ーロンの結合係数を保持している係数メモリ101のア
ドレスと、最終層のニューロンの結合係数を記憶してい
る重みメモリ118のアドレスの一部とに変換する。
【0028】前記アドレス変換器104によるアドレス
の変換式を次に示す。
【0029】重みメモリ119のアドレスへの出力jj
は、 jj=j−wj/2+x で示され、係数メモリ101のアドレスへの出力jjj
は、 jjj=−wj/2+x で示される。ここで、量子化ニューロン出力数を8、量
子化信号入力のレベルを0〜7とした場合、それの変数
の範囲は0〜7である。jjj、jjの結果の下位より
3ビットを出力とする。
【0030】同様に、アドレス変換器105は、第2層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスと、最終層のニューロンの係数を記
憶している重みメモリ119のアドレスの一部とに変換
し、出力する。同様に、アドレス変換器106は、第3
層の量子化ニューロンの結合係数を保持している係数メ
モリ103のアドレスと、最終層のニューロンの係数を
記憶している重みメモリ119のアドレスの一部とに変
換し、出力する。
【0031】前記係数メモリ101〜103は、それぞ
れ第1層〜第3層の量子化ニューロンの結合係数が保持
されており、入力されたデータのアドレスの結合係数を
出力する。
【0032】テーブルメモリ112は、係数メモリ10
1〜103からの出力を入力とし、それらの掛け合わせ
た値を出力する。すなわち、第3層の量子化ニューロン
の出力となる。
【0033】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ118は、3
個のアドレス変換器104、105、106からの入力
と、アドレス発生器119の特徴データカウンター12
3の出力iと、アドレス発生器119の出力層カウンタ
ー124の出力pからの入力とによって、テーブルメモ
リ112の出力データ(すなわち、第3層の量子化ニュ
ーロンの出力)に一致する出力ニューロンの重みデータ
を出力する。
【0034】累積演算器113は、テーブルメモリ11
2の出力と重みメモリ118の出力を掛け合わせ、累積
する。
【0035】以上の動作を、アドレス発生器119のカ
ウントアップに従って実行する。アドレス発生器119
の出力層カウンタ124が変化するときに、そのアドレ
スに累積演算器113の値を書き込み、累積演算器11
3の値を0にする。
【0036】アドレス発生器119のカウントアップが
終了すれば、認識の演算が終了しており、出力メモリ1
14には量子化ニューロンのネットワークの解答出力が
得られる。
【0037】
【発明が解決しようとする課題】しかしながら、前記従
来のハードウェアで構成したニューラルネットワーク回
路では、処理する入力特徴データの数とネットワークの
規模を予め決めて構成する必要があり、このため、処理
内容の複雑化に伴いネットワーク規模を拡大することが
困難であった。
【0038】本発明は、以上のような問題点を解決する
ためになされたものであり、その目的は、柔軟に規模の
拡張可能なニューラルネットワーク回路を提供すること
にある。
【0039】
【課題を解決するための手段】上記目的を達成するため
に、本発明では、ニューラルネットワークを一定の規模
のハードウェアで構築して複数設け、それ等を簡易に接
続して演算結果を利用できる構成とする。
【0040】すなわち、請求項1記載の発明のニューラ
ルネットワーク回路は、1入力複数出力の量子化ニュー
ロンを複数個層状のツリー構成で分岐配置した複数層の
ネットワークと、前記層状のツリー構成で分岐配置した
前記複数層のネットワークの出力を入力とする複数入力
1出力の出力ニューロンで構成される最終層のネットワ
ークとを有し、与えられた特徴データのネットワークの
演算を実行することで認識処理を行う多層のニューラル
ネットワーク回路を対象として、前記最終層のネットワ
ークの出力ニューロンは、入力データとして前記多層の
ニューラルネットワーク回路と同一構成の他のニューラ
ルネットワーク回路の出力ニューロンの出力を入力する
ための入力端子を有する構成である。
【0041】また、請求項2記載の発明のニューラルネ
ットワーク回路は、前記請求項1記載の発明の複数層の
ネットワーク及び最終層のネットワークを特定し、これ
等を、前記最終層以外の各層での計算の繰り返し回数
出力する制御回路と、前記制御回路の出力を受け、前記
最終層以外の各層で繰り返し計算した回数を順次カウン
トするアドレス発生器と、前記アドレス発生器によって
指定される特徴データを記憶している特徴データメモリ
と、最終層の出力ニューロンの重みを記憶する重みメモ
リと、最終層以外のニューロンの結合係数を記憶する最
終層以外の層別の結合係数メモリと、前記制御回路、特
徴データメモリ及びアドレス発生器の出力を、前記重み
メモリに与えるアドレス、及び前記結合係数メモリに与
えるアドレスに変換するアドレス変換器と、前記層別の
結合係数メモリの出力を入力として各入力を乗算した値
を出力するテーブルメモリと、前記テーブルメモリの出
力と前記重みメモリの出力とを累積加算すると共に、前
記アドレス発生器の信号により、前記累積加算の結果値
と前記出力ニューロンの入力端子に入力されたデータと
の加算を実行する累積演算器と、前記アドレス発生器の
出力アドレスに前記累積演算器の結果を保持する出力メ
モリとにより構成したものである。
【0042】加えて、請求項記載の発明のニューラル
ネットワーク回路では、更に、テーブルメモリと前記出
力ニューロンの入力端子に入力されたデータとを入力と
して何れか一方を選択する選択回路を設けるとともに、
重みメモリは、前記選択回路が前記出力ニューロンの入
力端子に入力されたデータを選択したとき所定の重みを
出力するものであり、累積演算器は、前記選択回路によ
り選択された出力ニューロンの入力端子に入力されたデ
ータと前記重みメモリの所定の重みとを累積加算して外
部に出力する機能を持たせる構成としている。
【0043】
【作用】以上の構成により、請求項1ないし請求項
載の発明のニューラルネットワーク回路では、最終層の
出力ニューロンに別途設けた入力端子に、入力データと
して、多層のニューラルネットワーク回路と同一構成の
他のニューラルネットワーク回路の出力ニューロンの出
を入力できる構成、即ち累積演算器が前記最終層の出
力ニューロンに別途設けた入力端子に入力されたデータ
の加算を実行する構成であるので、このニューラルネッ
トワーク回路を複数設け、ニューラルネットワーク回路
で得た解答出力を他のニューラルネットワーク回路の最
終層で加算利用できるようにそれ等を簡易に接続すれだ
けで、柔軟に規模の拡張したニューラルネットワーク回
路を提供できる。従って、各ニューラルネットワーク回
路別に異なる分別能力を持たせれば、簡易に処理能力の
向上を図ることができる。
【0044】
【実施例】(実施例1) 本発明の第1の実施例を図1に示す。同図の実施例は、
最終層の出力ニューロンを図6に示すように従来での最
終層の出力ニューロンより1入力多く、増加した入力の
重みを1としている。これにより、図5に示すように、
隣りのニューラルネットワークの出力を最終層の出力ニ
ューロンに与えることで拡張性に優れたニューラルネッ
トワーク回路となる。
【0045】同図の実施例は、特徴データを特徴データ
メモリ107〜109に与え、そのデータについて処理
するニューラルネットワーク回路である。
【0046】係数メモリ101〜103には、それぞれ
第1層〜第3層の量子化ニューロンの結合係数が保持さ
れている。テーブルメモリ112は、3個の係数メモリ
101〜103の出力J,K,Hを入力とし、それらの
掛け合わせた値を出力する。重みメモリ118は量子化
ニューロンのネットワークの最終層のニューロンの重み
を保持する。
【0047】そして、累積乗算器130は、切替入力が
LOWのとき、テーブルメモリ112の出力と、重みメ
モリ118の出力とを入力として累積乗算を行い、一
方、切替入力がHIGHのとき、外部加算入力より入っ
た信号を加算する。特徴データメモリ107〜109に
は、それぞれ第1層〜第3層の量子化ニューロンの量子
化信号入力Sに与えるデータが保持されている。
【0048】制御回路132は、ニューラルネットワー
ク回路10を制御し、スタート入力によって処理を開始
し、クロック信号によって動作する。
【0049】また、制御回路132のスタート出力は、
スタート入力を1クロック遅らせたものである。
【0050】前記制御回路132は、第1層〜第3層の
各結合係数の零以外のデータの数 即ち、各層での計算
の繰り返し回数Wj,Wk,Whをアドレス発生器13
1とアドレス変換器104〜106とに与える。前記ア
ドレス変換器104〜106は、アドレス発生器110
と特徴データメモリ107〜109との両データを受け
取り、それぞれ係数メモリ101〜103のアドレス入
力の変換と、重みメモリ118へのアドレス入力の変換
を行う。
【0051】図2に示すように、アドレス発生器131
は、6つのカウンタで構成されている。第1層カウンタ
120、第2層カウンタ121及び第3層カウンタ12
2は、前記制御回路132から第1層〜第3層の各結合
係数の零以外のデータの数Wj,Wk,Whを受け、
ャリ入力が1のとき、零から幅入力Wj,Wk,Wh
値−1までカウントアップする。例えば、幅入力が値3
であれば0、1、2とカウントし、その後に0に戻り、
再び1、2とカウントして、各層での計算の繰り返し回
数Wj,Wk,Whを順次カウントすることを繰り返
。特徴データカウンタ123は特徴データ数をカウン
トするカウンタであり、出力層カウンタ124は出力数
をカウントするカウンタである。
【0052】そして、133は外部アクセスカウンタで
あって、この外部アクセスカウンタ133は、特徴デー
タカウンタ123の出力を1クロック遅らせて出力カウ
ンタ124に与えて、累積演算器130の外部入力の計
算サイクルをカウントするカウンタである。
【0053】次に、本発明の実施例の動作について説明
する。
【0054】特徴データメモリ107、108、109
には、処理すべき特徴データが書き込まれている。
【0055】アドレス発生器131の特徴データカウン
ター123の出力iにより特徴データメモリ107、
108、109からは、前記特徴データカウンター12
3の出力iにより指定される各層に与えられる特徴デー
タj,k,hが各々読み出される。
【0056】アドレス変換器104は、第1層の特徴デ
ータj、アドレス発生器131の第1層カウンター12
0の出力x、第1層の結合係数の零以外のデータの数W
jを入力としている。ここで、例えば、第1層の結合係
数を図16に示したものとするならば、Wjは3とな
る。
【0057】アドレス変換器104は、第1層の量子化
ニューロンの結合係数を保持している係数メモリ101
のアドレスと、最終層のニューロンの結合係数を記憶し
ている重みメモリ118のアドレスの一部とに変換す
る。
【0058】前記アドレス変換器104のアドレスの変
換式を次に示す。
【0059】重みメモリ118のアドレスへの出力jj
は、 jj=j−wj/2+x で示され、係数メモリ101のアドレスへの出力jjj
は、 jjj=−wj/2+x で示される。ここで、量子化ニューロン出力数を8、量
子化信号入力のレベルを0〜7とした場合、それの変数
の範囲は0〜7である。jjj、jjの結果の下位より
3ビットを出力とする。
【0060】同様に、アドレス変換器105は、第2層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスと、最終層のニューロンの係数を記
憶している重みメモリ118のアドレスの一部とに変換
し、出力する。同様に、アドレス変換器106は、第3
層の量子化ニューロンの結合係数を保持している係数メ
モリ103のアドレスと、最終層のニューロンの係数を
記憶している重みメモリ118のアドレスの一部とに変
換し、出力する。
【0061】係数メモリ101〜103には、それぞれ
対応する第1層〜第3層の量子化ニューロンの結合係数
が保持されており、入力されたデータのアドレスの結合
係数を出力する。
【0062】テーブルメモリ112は、3個の係数メモ
リ101〜103からの出力を入力として、それらの掛
け合わせた値を出力する。すなわち、第3層の量子化ニ
ューロンの出力となる。
【0063】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ118は、ア
ドレス変換器104、105、106からの入力と、ア
ドレス発生器131の特徴データカウンター123の出
力iと、出力層カウンター124の出力pからの入力に
よって、テーブルメモリ112の出力データ(すなわ
ち、第3層の量子化ニューロンの出力)に一致する出力
ニューロンの重みデータを出力する。
【0064】累積演算器130はテーブルメモリ112
の出力と重みメモリ118の出力とを掛け合わせ、累積
する。
【0065】以上の動作を、図4の波形図に示すよう
に、アドレス発生器131のカウントアップに従って実
行する。
【0066】アドレス発生器131の外部アクセスカウ
ンタ133の出力がHIGHになったとき、特徴データ
カウンタ123のキャリ出力Cにより累積演算器130
の入力が外部加算入力に切り替えられて、外部のデータ
が累積演算器130に入力されて、累積演算器130は
前記テーブルメモリ112の出力と重みメモリ118の
出力との累積結果値と前記入力した外部データとの加算
を行う。
【0067】その後、アドレス発生器131の出力層カ
ウンタ124の出力Pが変化するときに、そのアドレス
に累積演算器130の値を出力メモリ114に書き込
み、累積演算器130の値を0にする。そして、特徴デ
ータカウンタ123、第3層カウンタ122、第2層カ
ウンタ121、及び第1層カウンタ120がリセットさ
れる。
【0068】アドレス発生器131のカウントアップが
終了すれば、認識の演算が終了しており、出力メモリ1
14には量子化ニューロンのネットワークの解答出力が
得られる。
【0069】本ニューラルネットワーク回路10を、図
3のように、例えば2つ設け、一方の回路10Aには外
部データとして0を入力すると共に、他の回路10Bに
は、前記一方の回路10Aの累積演算器130の累積演
算結果を最終層のネットワークの複数入力1出力の出力
ニューロンに外部データとして入力するように接続する
ことにより、図5に示すようなネットワークの拡張がで
きる。ここで、前記累積演算器130の累積演算結果を
外部データとして入力する側の回路10Bは、図4の波
形図に示すように、その累積演算結果を外部データとし
て出力する側の回路10Aより1クロック遅れて動作演
算する。
【0070】尚、図5に示すネットワークは、入力特徴
データが各層128データ、すなわち2倍の拡張とした
場合であるが、3倍以上の拡張とする場合も同様であ
る。
【0071】(実施例2) 本発明の第2の実施例を図7に示す。同図の実施例は、
最終層の出力ニューロンを図10のような従来での最終
層の出力ニューロンより1入力多く、その増加した入力
に対し重みWsを有している。これにより、図9に示す
ように隣りのニューラルネットワークの出力を最終層の
出力ニューロンに与えることで拡張性に優れたニューラ
ルネットワーク回路となる。
【0072】図7の実施例は、特徴データを特徴データ
メモリ107〜109に与えたデータを処理する回路で
ある。
【0073】制御回路132、アドレス発生器131、
係数メモリ101〜103、テーブルメモリ112、特
徴データメモリ107〜109、アドレス変換器104
〜106、出力メモリ114は、前記実施例1と同様の
ものである。
【0074】重みメモリ134は、アドレス変換器10
4〜106の出力hh,kk,jjとアドレス発生器1
31の出力c,i,pとをアドレス信号とし、量子化ニ
ューロンのネットワークの最終層のニューロンの重みを
保持する。
【0075】136はマルチプレクサであって、このマ
ルチプレクサ136は、外部累積入力とテーブルメモリ
112の出力との2つを入力とし、アドレス発生器13
1からの切り替え信号cによって、切替入力がLOWの
ときはテーブルメモリ112を、切り替え入力がHIG
Hのときは外部累積入力を出力する。累積乗算器113
は、マルチプレクサ136の出力と、重みメモリ134
の出力を入力とし、累積乗算を行う。
【0076】前記実施例1と同様に、図4の波形図に示
すようにアドレス発生器131のカウントアップに従っ
て実行する。アドレス発生器131の外部アクセスカウ
ンタ133の出力がHIGHになったとき、その出力カ
ウンタ124の出力Cによりマルチプレクサ136は外
部累算入力を選択し、累積乗算器113に外部累算入力
データの値を出力する。累積乗算器113は、外部累算
入力データの値と、重みメモリ134から読み出された
値との累積を計算する。この時、重みメモリ134から
読み出された値は、図9での重みWsの値である。その
後、アドレス発生器131の出力層カウンタ124の出
力Pが変化するときに、そのアドレスに累積演算器11
3の値を出力メモリ114に書き込み、累積演算器11
3の値を0にする。そして、その後、特徴データカウン
タ123、第3層カウンタ122、第2層カウンタ12
1、第1層カウンタ120がリセットされる。
【0077】アドレス発生器131のカウントアップが
終了すれば、認識の演算が終了しており、出力メモリ1
14には量子化ニューロンのネットワークの解答出力が
得られる。
【0078】本ニューラルネットワーク回路11を図3
と同様に接続することで図9に示すネットワークの拡張
ができる。図9に示すネットワークは、入力特徴データ
が各層64データであるが、左右それぞれのニューラル
ネットワークに違った分別能力持たせ、それぞれの結果
を重み付け加算することで、最終的な解答出力とし、こ
れによりニューラルネットワークの能力の向上を実現で
きる。
【0079】尚、以上の説明では、量子化ニューロンを
用いたネットワークを、1層の特徴データを8×8の6
4ヶ、3層の特徴データ、64解答出力として説明した
がこの限りではない。
【0080】
【発明の効果】以上説明したように、本発明によれば、
量子化ニューロンを用いたニューラルネットワーク回路
において、ニューラルネットワークを一定の規模のハー
ドウェアで構築し、それを外部入力可能な構成としたの
で、そのニューラルネットワークを複数設けてそれ等を
簡易に接続するだけで柔軟に規模の拡張可能なニューラ
ルネットワーク回路を提供でき、処理能力の向上が図れ
るニューラルネットワーク回路が実現できる。
【図面の簡単な説明】
【図1】本発明の第1の実施例におけるニューラルネッ
トワーク回路の構成図である。
【図2】本発明の第1の実施例におけるアドレス発生器
の構成図である。
【図3】本発明の第1の実施例におけるニューラルネッ
トワーク回路を複数用いる場合の接続図である。
【図4】図3の接続における各部の波形図である。
【図5】本発明の第1の実施例におけるニューラルネッ
トワーク回路図3の接続におけるニューラルネットワー
クモデルの説明図である。
【図6】本発明の第1の実施例におけるニューラルネッ
トワーク回路のモデルの最終層のニューロンの説明図で
ある。
【図7】本発明の第2の実施例におけるニューラルネッ
トワーク回路の構成図である。
【図8】従来例におけるニューラルネットワーク回路に
おけるアドレス発生器の構成図である。
【図9】本発明の第2の実施例におけるニューラルネッ
トワーク回路の図3の接続におけるニューラルネットワ
ークモデルの説明図である。
【図10】本発明の第2の実施例におけるニューラルネ
ットワーク回路のモデルの最終層のニューロンの説明図
である。
【図11】従来例におけるニューラルネットワーク回路
の構成図である。
【図12】従来例における量子化ニューロンによるニュ
ーラルネットワークの構造の説明図である。
【図13】量子化ニューロンの説明図である。
【図14】量子化ニューロン結合係数の説明図である。
【図15】量子化ニューロンによるニューラルネットワ
ークの最終層のニューロンの説明図である。
【図16】量子化ニューロン結合係数の説明図である。
【符号の説明】
101〜103 係数メモリ 104〜106 アドレス変換器 107〜109 特徴データメモリ 112 テーブルメモリ 113、130 累積演算器 118、134 重みメモリ 117、132 制御回路 119、131 アドレス発生器 120 第1層カウンタ 121 第2層カウンタ 122 第3層カウンタ 123 特徴データカウンタ 124 出力層カウンタ 133 外部アクセスカウンタ 136 マルチプレクサ
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−264354(JP,A) 中平 博幸、外5名,”量子化ニュー ロンを用いたディジタルニューロプロセ ッサ”,電子情報通信学会技術研究報 告,社団法人電子情報通信学会,1993年 9月,第93巻,第233号(DSP93 55 −64),p.39−46 (58)調査した分野(Int.Cl.7,DB名) G06F 15/18

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】 1入力複数出力の量子化ニューロンを複
    数個層状のツリー構成で分岐配置した複数層のネットワ
    ークと、前記層状のツリー構成で分岐配置した前記複数層のネッ
    トワークの出力を入力とする 複数入力1出力の出力ニュ
    ーロンで構成される最終層のネットワークとを有し、 与えられた特徴データのネットワークの演算を実行する
    ことで認識処理を行う多層のニューラルネットワーク回
    路であって、 前記最終層のネットワークの出力ニューロンは、入力デ
    ータとして前記多層のニューラルネットワーク回路と同
    一構成の他のニューラルネットワーク回路の出力ニュー
    ロンの出力を入力するための入力端子を有することを特
    徴とするニューラルネットワーク回路。
  2. 【請求項2】 複数層のネットワーク及び最終層のネッ
    トワークは、前記最終層以外の各層での計算の繰り返し回数 を出力す
    る制御回路と、 前記制御回路の出力を受け、前記最終層以外の各層で繰
    り返し計算した回数を順次カウントするアドレス発生器
    と、 前記アドレス発生器によって指定される特徴データを記
    憶している特徴データメモリと、 最終層の出力ニューロンの重みを記憶する重みメモリ
    と、 最終層以外のニューロンの結合係数を記憶する最終層以
    外の層別の結合係数メモリと、 前記制御回路、特徴データメモリ及びアドレス発生器の
    出力を、前記重みメモリに与えるアドレス、及び前記結
    合係数メモリに与えるアドレスに変換するアドレス変換
    器と、 前記層別の結合係数メモリの出力を入力として各入力を
    乗算した値を出力するテーブルメモリと、 前記テーブルメモリの出力と前記重みメモリの出力とを
    累積加算すると共に、 前記アドレス発生器の信号によ
    り、前記累積加算の結果値と前記出力ニューロンの入力
    端子に入力されたデータとの加算を実行する累積演算器
    と、 前記アドレス発生器の出力アドレスに前記累積演算器の
    結果を保持する出力メモリとから成ることを特徴とする
    請求項1記載のニューラルネットワーク回路。
  3. 【請求項3】 テーブルメモリと前記出力ニューロンの
    入力端子に入力されたデータとを入力として何れか一方
    を選択する選択回路を有するとともに、 重みメモリは、前記選択回路が前記出力ニューロンの入
    力端子に入力されたデータを選択したとき所定の重みを
    出力するものであり、 累積演算器は、前記選択回路により選択された出力ニュ
    ーロンの入力端子に入力されたデータと前記重みメモリ
    の所定の重みとを累積加算して外部に出力するものであ
    ることを特徴とする請求項2記載のニューラルネットワ
    ーク回路。
  4. 【請求項4】 請求項記載のニューラルネットワーク
    回路又は請求項記載のニューラルネットワーク回路を
    複数備え、 相い隣る2つのニューラルネットワーク回路は、その一
    方のニューラルネットワーク回路の累積演算器の累積結
    果が、前記出力ニューロンの入力端子に入力されるデー
    として他方のニューラルネットワーク回路に出力され
    ることを特徴とするニューラルネットワーク回路。
  5. 【請求項5】 累積演算器の累積結果が前記出力ニュー
    ロンの入力端子に入力されるデータとして入力される側
    のニューラルネットワーク回路の演算は、前記累積演算
    器の累積結果が出力される側のニューラルネットワーク
    回路の演算よりも1クロック遅れることを特徴とする請
    求項記載のニューラルネットワーク回路
JP32924693A 1993-12-27 1993-12-27 ニューラルネットワーク回路 Expired - Fee Related JP3172352B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32924693A JP3172352B2 (ja) 1993-12-27 1993-12-27 ニューラルネットワーク回路

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32924693A JP3172352B2 (ja) 1993-12-27 1993-12-27 ニューラルネットワーク回路

Publications (2)

Publication Number Publication Date
JPH07191951A JPH07191951A (ja) 1995-07-28
JP3172352B2 true JP3172352B2 (ja) 2001-06-04

Family

ID=18219295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32924693A Expired - Fee Related JP3172352B2 (ja) 1993-12-27 1993-12-27 ニューラルネットワーク回路

Country Status (1)

Country Link
JP (1) JP3172352B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10387298B2 (en) * 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
JP7068575B2 (ja) 2018-02-06 2022-05-17 富士通株式会社 最適化システム、最適化装置及び最適化システムの制御方法
JP7108186B2 (ja) 2018-11-27 2022-07-28 富士通株式会社 最適化装置及び最適化装置の制御方法
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中平 博幸、外5名,"量子化ニューロンを用いたディジタルニューロプロセッサ",電子情報通信学会技術研究報告,社団法人電子情報通信学会,1993年9月,第93巻,第233号(DSP93 55−64),p.39−46

Also Published As

Publication number Publication date
JPH07191951A (ja) 1995-07-28

Similar Documents

Publication Publication Date Title
US4994982A (en) Neural network system and circuit for use therein
US5278945A (en) Neural processor apparatus
US4791598A (en) Two-dimensional discrete cosine transform processor
JP3172352B2 (ja) ニューラルネットワーク回路
US5604840A (en) Information processing apparatus
GB1307261A (en) Optimising component interconnection
JPH04232562A (ja) コンピユータ装置
EP0475732A2 (en) Asynchronous control system for a neuro computer
JP3172278B2 (ja) ニューラルネットワーク回路
US5636327A (en) Neural network circuit
CN111652359A (zh) 用于矩阵运算的乘法器阵列和用于卷积运算的乘法器阵列
GB2236608A (en) Digital neural networks
US4584561A (en) Method of residue to analog conversion
CN115437602A (zh) 任意精度计算加速器、集成电路装置、板卡及方法
CN114519425A (zh) 一种规模可扩展的卷积神经网络加速系统
JP3082530B2 (ja) ニューラルネットワーク回路
JPH1055346A (ja) ニューラルネットワーク回路
CN115658013B (zh) 向量乘加器的rom存内计算装置和电子设备
JP3523325B2 (ja) ニューラルネットワーク及びこれを用いた信号処理装置、自律システム、自律型ロボット並びに移動システム
CN210006083U (zh) 乘法器、装置、芯片及电子设备
JP3463890B2 (ja) 神経回路模倣素子
US4584562A (en) Method of residue to analog conversion
JPH07192073A (ja) プログラマブル・デバイス及びプログラマブル・デバイスを使用した装置
Holtz Autosophy networks yield self-learning robot vision
JPH02228116A (ja) 時空間フィルタ

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010306

LAPS Cancellation because of no payment of annual fees