JPH02181256A - ニューラル・ネット - Google Patents

ニューラル・ネット

Info

Publication number
JPH02181256A
JPH02181256A JP89296A JP29689A JPH02181256A JP H02181256 A JPH02181256 A JP H02181256A JP 89296 A JP89296 A JP 89296A JP 29689 A JP29689 A JP 29689A JP H02181256 A JPH02181256 A JP H02181256A
Authority
JP
Japan
Prior art keywords
product
input
neural network
value
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP89296A
Other languages
English (en)
Inventor
Takehisa Hayashi
剛久 林
Akira Masaki
亮 正木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP89296A priority Critical patent/JPH02181256A/ja
Publication of JPH02181256A publication Critical patent/JPH02181256A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、動作の正当性の検証が容易なニューラル・ネ
ットに関する。
〔従来の技術〕
近年、ニューラル・ネットを信号処理やパターン認識等
に用いる研究が進められている。ニューラル・ネットに
ついては、日経エレクトロニクス1987年8月10日
号115頁〜123頁に述べられている。ニューラル・
ネットは、一般に第2図(a)に示す様なニューロン・
モデルを多段に相互接続したものであり、ニューロン・
モデルは人間の脳の神経細胞にニューロン)を模擬した
工学的(人工的)モデルである。ニューロン・モデルは
、第2図(a)に示す様な構成を持つ。
第2図(a)で、x、(1≦i≦n)+い、(1≦i≦
n)はそれぞれ入力端子1の入力信号と重み値、yは出
力端子の出力信号である。
しは積和値であり、 t : Σ W r X 1 の様に表わされる。出力信号yは正規化関数fにより y=f(t)           (2)の様にtを
正規化して与えられる。f (t)としては、第2図(
b)に示す様なしきい値開数や、同図(c)に示す様な
sigmoid関数を用いる。
(sigmoid関数については、・前述の文献を参照
。)上記文献に示されるように、ニューラル・ネットで
は、パックプロパゲーション等の学習アルゴリズムに従
って学習を行なわせることにより、上記重み値が変化し
、これによって、入出力間でパターン認識や信号処理を
行なうことができる。上記文献の121頁1本文15行
〜19行にあるように、ニューラル・ネットでは、明確
に教えなくても、問題に対応した構造を得ることができ
るが、その構造は外部から直接アクセスできない中間層
(隠れたN)に現われてくる。
〔発明が解決しようとする課題〕
上記ニューラル・ネットを、工業的に製造する場合、例
えばLSI技術を用いて集積化する場合、何らかの方法
で個々のニューロン・モデルが正しく動作することを検
証する必要がある。ニューラル・ネットの中に正しく動
作しないニューロン・モデルが含まれていると、学習の
収束が悪くなり、パターン認識や信号処理の能力で所望
のものが得られなくなる。ニューラル・ネットにおいて
は、一般に、ニューラル・ネットの入力端子にも、出力
端子にも接続されないニューロン・モデルが多数存在し
、かつ、それらの間は多数の配線によって結線されてい
るので、ニューラル・ネットの入出力端子のみを用いて
、ニューラル・ネットの正当性を検証することは困難で
ある。
本発明は上記の様な問題を解決することを目的とする。
〔課題を解決するための手段〕
上記目的を達成するために本発明では、ニューラルネッ
トを構成する各二ニーロンモデルの出力状態を外部から
観測するための手段を持つ。
さらに本発明は、上記出力状態を観測するために、少な
くとも1つ以上の入力端子と、少なくとも1つ以上の出
力端子と、該入力端子の各々に対応する重み値を記憶ま
たは保持する手段と、上記入力端子の各々についてその
入力信号の値とこれに対応する上記重み値の積を演算し
、さらに該入力端子の各々について演算された上記の積
を該入力端子にわたって加算し、これによって入力信号
の値と重み値の積和値を演算する手段を有する二ニーロ
ンモデルを多段に相互接続し、少なくとも1つ以上のニ
ューロンモデルの出力をニューラルネットの外部から観
測するための手段を有する。
さらに本発明の他の構成では、上記出力状態を観測する
ために、少なくとも1つ以上の入力端子と、少なくとも
1つ以上の出力端子と、該入力端子の各々に対応する重
み値を記憶または保持する手段と、上記入力端子の各々
についてその入力端子の値とこ、れに対応する上記重み
値の積を演算し、さらに該入力端子の各々について演算
された上記の積を該入力端子にわたって加算し、これに
よって入力信号の値と重み値の積和値を演算する手段と
該積和値が所定の値域に入る様に該積和値を正規化する
手段を有する二ニーロンモデルを多段に相互接続し、少
なくとも1つ以上のニューロンモデルの正規化していな
い状態の上記積和値をニューラルネットの外部から観測
するための手段を有する。
〔作用〕
本発明において、各二ニーロンモデルの出力状態は、こ
れをニューラル・ネットの外部から観測することによっ
て把握される。本発明では、ニューラルネットの外部か
ら、各ニューロンの出力状態を観測するため、ニューロ
ン・モデルにおける積和演算が正しく行なわれたか否か
を容易に判定することができる。
さらに第2図(b)に示す様なしきい値関数の場合、正
規化された後の出力はO又は1のみとなるので、二ニー
ロンモデルの動作の検証をすることは難しい。本発明で
は、正規化する前の積和値をニューラル・ネットの外部
から観測することによって各ニューロンモデルの出力状
態を把握する。
第2図(Q)に示す様なsigmoid関数の場合、し
きい値θ2から入力の値が雑れるほど、正規化後の結果
から、動作の検証をすることが困難となる。本発明はこ
の様な場合にも有効である。
〔実施例〕
以下、本発明の一実施例を第1図による説明する。
第1図において、Nll0.N210゜N310.N1
20.N220.N320゜N130.N230.N3
30は= ニー o :、’モデルである。ニューロン
モデルNll0.N210゜N310は、1つの入力端
子と1つの出力端子とを持ち、ニューロンモデ/L/N
120.N220゜N320.N130.N230.N
330は3つの入力端子と1つの出力端子とを持つ。
各々のニューロンモデルは、その入力端子の各々に対応
する重み値をそれぞれ記憶または保持する回路NRII
O,NR210,NR310゜NR120,NR220
,NR320゜NR130,NR230,NR330と
、上記入力端子の各々についてその入力信号の値とこれ
に対応する上記重み値の積を演算し、さらに該入力端子
の各々について演算された上記の積を該入力端子にわた
って加算し、これによって入力信号の値と重み値の積和
値を演算する積和値演算回路NMIIO,NM210.
NM310゜NM120.NM220.NM320゜N
M130.NM230.NM330と、該積和値が所定
の値域に入る様に該積和値を正規化するための正規化回
路N5IIO,N5210゜N5310.N5120.
N5220゜N5320.N5130.N5230゜N
5330とを、それぞれ有する。
さらに、上記複数のニューロンモデルは、第1図に示す
ように、N110の出力がN120゜N220.N32
0の入力に接続され、N210の出力がN120.N2
20.N320(7)入力に接続され、N310の出力
がN120.N220゜N320の入力に接続され、N
120の出力がN130.N230.N330の入力に
接続され、N220の出力がN130.N230.N3
30の入力に接続され、N320の出力がN130゜N
230.N330の入力に接続されて、他殺に相互接続
されたニューラルネットNWK 100を構成する。
各々のニューロンモデルは、各々の正規化していない状
態の上記積和値を記憶するための記憶回路FILO,F
210.F310.F120゜F220.F320.F
130.F230゜F330をそれぞれ有する。
さらに、FIIO,F210.F310゜F120.F
220.F320.F130゜F230.F330は、
それぞれ、上記正規化していない状態の積和値の入力端
子、FTIIO。
FT210.FT310.FT120゜FT220.F
T320.FT130゜FT230.FT33oと、各
々テ記憶されたデータを読み出すための読み出し端子F
OIIO。
FO210,FO310,FO120゜FO220,F
O320,FO130゜FO230,FO330と、各
々へデータを書き込むための書き込み端子F4110.
FI210゜FI310.F1120.FI220゜F
I320.FI130.FI230゜FI330を有す
る。
ニューラルネットNWK 100は、上記各々の正規化
していない状態の積和値を外部から観測するため、FI
LO,F210.F310へ(7)データ入力を制御す
るための少なくとも1本以上の信号からなる制御信号線
SCI、FILO。
F210.F310のデータをニューラルネットの外部
に取り出すための読み出し信号線SQL。
FILO,F210.F310へ:ユーラ/L/ネット
の外部からデータを書き込むための書き込み信号線SI
Iを有する。また、F120.F220゜F320への
データ入力を制御するための少なくとも1本以上の信号
線からなる制御信号線SC2゜F120.F220.F
320(7)データをニューラルネットの外部に取り出
すための読み出し信号線S02.F120.F220.
F320へ=ユーラルネットの外部からデータを書き込
むための書き込み信号線SI2を有し、F130゜F2
30.F330へのデータ入力を制御するための少なく
とも1本以上の信号線からなる副制御信号線SC3,F
130.F230.F330のデータをニューラルネッ
トの外部に取り出すため(7)mミ出り、信号線803
.F130.F230゜F330へニューラルネットの
外部からデータを書き込むための書き込み信号線SI3
を有する。
第1図に示すように、各々の上記記憶回路の読み出し端
子は他の記憶回路の書き込み端子またはニューラルネッ
トの読み出し信号線に接続され。
各々の上記記憶回路の書き込み端子は、他の上記記憶回
路の読み出し端子またはニューラルネットの書き込み信
号線に接続され、FILO。
F210.F310および、F120.F220゜F3
20および、F310.F320.F330はそれぞれ
シフトレジスタを構成する。
例えば、Nll0についてFILOの動作を次に説明す
る。ここで、簡単のため、第1図において、ニューロン
モデルの積和値演算回路の出力はデジタル信号とする。
第3A図は上記記憶回路F110の構成の一例を示した
ものである。第3図において、FSlloは上記正規化
していない状態の積和値(入力端子FTI 10)と書
き込みデータ(書き込み端子F4110)を選択するた
めのセレクタ、FFll0は、データを記憶するための
レジスタである。セレクタFSIIOの出力は、制御信
号SC1に含まれる信号5CIIによって選択される。
FFll0の内容はSC1に含まれる信号5C12で与
えられるタイミングで更新される。
ニューラルネットの動作の検証のため、Ni1Oの規定
化していない状態の積和値をニューラルネットの外部か
ら観測する手順は次のようにする。
まず、セレクタFSIIOでFIIIOを選択し、ニュ
ーラルネットの書き込み信号線s11を用い、S01の
第1のタイミングでFFll0にデータを書き込む。つ
ぎに同様にして、SCIの第2のタイミングでFllo
のデータをF210にコピーし、次にSCIの第3のタ
イミングでFlloのデータをF210にコピーし、次
にSCIの第3のタイミングでF210のデータをF3
10ヘコピーし、このようにFILO,F210゜F3
10をシフトレジスタとして動作させて、最終的にニュ
ーラルネットの読み出し信号線SQLへ正しいデータが
得られるか否かにより、検証のためのハードウェアが正
しく動作することを確認する。次に第3A図のセレクタ
FSIIOでFTIIOをFFll0の入力として選択
正規化していない状態の積和値を記憶する。この後、上
述したシフトレジスタ動作により、F310゜F210
.FILOの記憶内容を順次SQLから読み出すことに
より、各二ニーロンモデルにおける正規化していない状
態の積和値をニューラルネットワークの外部から知るこ
とができる。
第3B図は、第1図において積和値演算回路の出力がア
ナログ信号の場合の記憶回路FILOの構成を示したも
のである。第3B図の構成で第3A図と異なるのは、積
和値入力端子FTIIOとセレクタFSIIOの間にア
ナログ−デジタル変換回路FADIIOが挿入されてい
ることである。
ニューロンモデルの積和値演算回路、正規化回路をアナ
ログ回路で実現すると9回路規模を大幅に削減できるが
、多数の二ニーロンモデルの個々の出力のアナログ信号
をニューラルネットの外部から正確に観測することは極
めて困難である0本構成では、動作の検証にはデジタル
回路を用いることで、この問題を解決することができる
第4図は、本発明の他の実施例を示したものである。第
4図の実施例は、第1図の実施例で、上記正規化してい
ない状態の積和値記憶回路が上記積和値演算回路と上記
正規化回路の間に挿入される。
積和値記憶回路は、それぞれ、ニューラルネットの外部
からその内容を読み出せ、かつ、ニューラルネットの外
部からその内容を書き込みすることによって各々のニュ
ーロンモデルの出力値をニューラルネットの外部から決
定できることを特徴とする。
すなわち、第4図において、Nl 11゜N211.N
311.N121.N211゜N321.N131.N
231.N331はニューロンモデルであって、ニュー
ロンモデルN11l、N211.N311は1つの入力
端子と1つの出力端子とを持ち、ニューロンモデルN1
21.N221.N321.N131゜N231.N3
31は3つの入力端子と1つの出力端子とを持つ。
各々のニューロンモデルは、その入力端子の各々に対応
する重み値をそれぞれ記憶または保持する回路NRII
I、NR211,NR311゜NR121,NR221
,NR321゜NR131,NR231,NR331と
、上記入力端子の各々についてその入力信号の値とこれ
に対応する上記重み値の積を演算し、さらに該入力端子
の各々について演算された上記の積を該入力端子にわた
って加算し、これによって入力信号の値と重み値の積和
値を演算する積和値演算回路NMI 11.NM211
.NM311゜NM121.NM221.NM321゜
NM131.NM231.NM331と、該積和値が所
定の値域に入る様に該積和値を正規化するための正規化
回路N5III、N5211゜N5311.N5121
.N5221゜N5321.N5131.N5231゜
N5331とを、それぞれ有する。
さらに、上記複数のニューロンモデルは、第4・図に示
すように、N111の出力がNl 21゜N221.N
321の入力に接続され、N211の出力がN121.
N221.N321の入力に接続され、N311の出力
がN121.N221゜N321の入力に接続され、N
121の出力がN131.N231.N331の入力に
接続され、N221の出力がN131.N231.N3
31の入力に接続され、N321の出力がN131゜N
231.N331の入力に接続されて、他殺に相互接続
されたニューラルネットNWKIIOを構成する。
各々のニューロンモデルは、各々の正規化していない状
態の上記積和値を記憶するための記憶回路Fill、F
211.F311.F121゜F221.F321.F
131.F231゜F331をそれぞれ有する。
さらに、Fil、F211.F311゜F121.F2
21.F321.F131゜F231.F331は、そ
れぞれ、上記積和値演算回路NMIII、NM211.
NM311゜NM12’l、NM221.NM321゜
NM131.NM231.NM331と、上記正規化回
路N5III、N5211.N5311゜N5121.
N5221.N5321゜N5131.N5231.N
5331の間に挿入される。すなわち、上記積和値を記
憶するための記憶回路Fill、F211.F311゜
F121.F221.F321.F131゜F231.
F331の出力が、上記正規化回路N5III、N52
11.N5311゜N5121.N5221.N532
1゜N5131.N5231.N5331の入力となっ
ており、おのおのの積和値記憶回路は、第1図の場合と
同様にシフトレジスタ構成により、それぞれ、ニューラ
ルネットの外部からその内容を読み出せるとともに、ニ
ューラルネットの外部からその内容を書き込みできるこ
とによって各々の二ニーロンモデルの出力値をニューラ
ルネットの外部から決定できる。
ニューラルネットNWK 110は、上記各々の正規化
していない状態の積和値を外部から観測するため、FM
I、F211.F311へのデータ入力を制御するため
の少なくとも1本以上の信号線からなる制御信号線SC
I、Fill。
F211.F311のデータをニューラルネットの外部
に取り出すための読み出し信号線S○1゜Fill、F
211.F311八ニューラルネットの外部からデータ
を書き込むための書き込み信号線Sllを有し、F12
1.F221゜F321へのデータ入力を制御するため
の少なくとも1本以上の信号線からなる制御信号線SC
2゜F121.F221.F321のデータをニューラ
ルネットの外部に取り出すための読み出し信号線S○2
.F121.F221.F321ヘニューラルネットの
外部からデータを書き込むための書き込み信号1s I
 2を有し、F131゜F231.F331へのデータ
入力を制御するための少なくとも1本以上の信号線から
なる制御信号線SC3,F131.F231.F331
のデータをニューラルネットの外部に取り出すための読
み出し信号線S03.F131.F231゜F331ヘ
ニューラルネットの外部からデータを書き込むための書
き込み信号線SI3を有する。
第4図に示すように、各々の上記記憶回路の読み出し端
子は他の記憶回路の書き込み端子またはニューラルネッ
トの読み出し信号線に接続され、各々の上記記憶回路の
書き込み端子は、他の上記記憶回路の読み出し端子また
はニューラルネットの書き込み信号線に接続され、Fl
ll。
F211.F311および、F121.F221゜F3
21および、F311.F321.F331はそれぞれ
シフトレジスタを構成する。
おのおのの積和値記憶回路は、第1図の場合と同様にシ
フトレジスタ構成により、それぞれ、ニューラルネット
の外部からその内容を読み出せるとともに、ニューラル
ネットの外部からその内容を書き込みできることによっ
て各々のニューロンモデルの出力値をニューラルネット
の外部から決定できる。
第5図は第4図のニューロンモデルの1例を示したもの
で、例として第4図のN121を示しているが、第4図
の他の二ニーロンモデルも同様である。第5図において
、ニューロンモデルN121は、3つの入力端子N11
211゜N11212.N11213と1つの出力端子
N○121を持ち、各々の入力端子に対応する重み値を
記憶または保持する回路NR121と、上記入力端子の
各々についてその入力信号の値とこれに対応する上記重
み値の積を演算し、さらに該入力端子の各々について演
算された上記の積を該入力端子にわたって加算し、これ
によって入力信号の値と重み値の積和値を演算する積和
値演算回路NM121と、該積和値が所定の値域に入る
様に該積和値を正規化するための正規化回路N5121
と、正規化していない状態の上記積和値を記憶するため
の記憶回路F121を有する。
さらに、F121は、上記積和値演算回路NM121と
、上記正規化回路NS 121の間に挿入され、上記積
和値演算回路NM121の出力FT121がF121に
入力され、上記積和値を記憶するための記憶回路F12
1の出力FTL 121が、上記正規化回路N5121
の入力となっている。
さらに、F121は、記憶されたデータを読み出すため
の読み出し端子FO121と、データを書き込むための
書き込み端子F1121を有する。
第4図の構成の様なシフトレジスタ構成により。
積和値記憶回路F121は、ニューラルネットの外部か
らその内容を読み出せるとともに、ニューラルネットの
外部からその内容を書き込みできるので、二ニーロンモ
デルN121の出力をニューラルネットの外部から決定
できる。これにより、例えば、入力端子に接続されてい
ないニューロンモデルの入力を前段のニューロンモデル
の出力を制御することで任意の値に選ぶことができ、動
作の正当性の検証がより容易にできる。
第6図は上記記憶回路F121の構成の一例を示したも
のである。第6図において、FS121は上記正規化し
ていない状態の積和値(入力端子FT 121)と書き
込みデータ(書き込み端子F1121)を選択するため
のセレクタ、FF1211は、データを記憶するための
レジスタである。セレクタFS121の出力は制御信号
SC2に含まれる信号5C22で与えられるタイミング
で更新される。FF1211の出力FTL 121は正
規化回路NS 121に接続される。FF1211の出
力はレジスタFF1212に接続され、レジスタFF1
212の内容はSC2に含まれる信号5C23で与えら
れるタイミングで更新される。
FF1211は、第3A図の場合と同様に読み出し、書
き込みを行なうことができる。第3A図の回路では、S
CIの同一のタイミングでレジスタの内容の更新が行な
われるため、FFll0はマスタースレーブ・フリップ
フロップ等レーシングをおこさないものを用いる必要が
あるが、第6図のようにFF1211の内容を一旦 FF1212にコピーしてから転送する場合には、その
必要がない。第6図の構成で、FF1211をマスター
スレーブ・フリップフロップ等とし、FF1212を省
略して、F○121をFTL 121に直接接続した構
成としても、第5図の回路の動作に問題はない。
第7図は、ニューロンモデルの他の1例を示したもので
ある。例として第4図のN121を示しているが、他の
ニューロンモデルも同様である。
第7図において、ニューロンモデルN121は、3つの
入力端子N11211.N11212゜N41213と
1つの出力端子N○121を持ち、各々の入力端子に対
応する重み値を記憶または保持する回路NR121と、
上記入力端子の各々についてその入力信号の値とこれに
対応する上記重み値の積を演算し、さらに該入力端子の
各々について演算された上記の積を該入力端子にわたっ
て加算し、これによって入力信号の値と重み値の積和値
を演算する積和値演算回路NM121と、該積和値が所
定の値域に入る様に該積和値を正規化するための正規化
回路NS 121と、正規化していない状態の上記積和
値を記憶するための記憶回路F121を有する。
さらに、F121は、上記積和値演算回路NM121と
、上記正規化回路N5121の間に挿入され、上記積和
値演算回路NM121の出力FT121がF121に入
力され、上記積和値を記憶するための記憶回路F121
の出力FTL 121が、上記正規化回路NS 121
の入力となっている。
さらに、F121は、記憶されたデータを読み出すため
の読み出し端子F○121と、データを書き込むための
書き込み端子F1121を有する。
第4図の構成の様なシフトレジスタ構成により、積和値
演算回路F121は、ニューラルネットの外部からその
内容を読み出せるとともに、ニューラルネットの外部か
らその内容を書き込みできるので、ニューロンモデルN
121の出力をニューラルネットの外部から決定できる
さらに、第7図のニューロンモデルでは、各々の入力端
子N11211.N11212゜N11213と積和値
演算回路NM121の間に、各々の入力値を記憶するた
めの記憶回路FN41゜FN42.FN43が設けられ
ている。
さらに、FN41.FN42.FN43は、それぞれ、
記憶されたデータを読み出すための読み出力端子FNO
41,FNO42,FNO43と、データを書き込むた
めの書き込み端子FNI41゜FNI42.FNI43
を有し、FN41゜FN42.FN43の読み出し端子
は他の記憶回路の書き込み端子またはニューラルネット
の読み出し信号線に接続され、各々の上記記憶回路の書
き込み端子は、他の上記記憶回路の読み出し端子または
ニューラルネットの書き込み信号線に接続され、シフト
レジスタ構成により、ニューラルネットの外部からその
内容を読み出せるとともに、ニューラルネットの外部か
らその内容を書き込みできるので、二ニーロンモデルN
121の入力をニュラルネットの外部から決定できる。
これにより 例えば、入力端子にも出力端子にも接続さ
れ\ ていないニューロンモデルの入力、出力を任意の値に選
ぶことができ、この機能をもちいてニューラルネットワ
ークの中の特定のニューロンモデルの動作の正当性の検
証がより容易にできる。
第8図はニューロンモデルの出力をニューラルネットの
外部から観測する手段を有する実施例である。この様な
構成は、第1図の構成で、正規化化回路を省略した場合
や正規化による信号のダイナミックレンジの減少が少な
いときにとることができる。
第8図において、N118.N218゜N318.N1
28.N228.N328゜N138.N238.N3
38はニューロンモデルである。
ニューロンモデルN118.N218゜N318は1つ
の入力端子と1つの出力端子とを持ち、ニューロンモデ
ルN128.N228゜N328.N138.N238
.N338は3つの入力端子と1つの出力端子とを持つ
各々のニューロンモデルは、その入力端子の各々に対応
する重み値をそれぞれ記憶または保持する回路、NR1
18,NR218,NR318゜NR128,NR22
8,NR328,NR138、NR238,NR338
と、上記入力端子の各々についてその入力信号の値とこ
れに対応する上記重み値の積を演算し、さらに該入力端
子の各々について演算された上記の積を該入力端子にわ
たって加算し、これによって入力信号の値と重み値の積
和値を演算する積和値演算回路NM118゜NM218
.NM318.NM128゜N M 228 、 N 
M 328 、 N M 138 。
NM238.NM338とをそれぞれ有する。
さらに、上記複数のニューロンモデルは、第1図に示す
ようにN118の出力がN128゜N228.N328
の入力に接続され、N218の出力がN128.N22
8.N328の入力に接続され、N318の出力がN1
28.N228゜N328の入力に接続され、N318
の出力がN128.N228.N328の入力に接続さ
れ、N228の出力がN138.N238.N338の
入力に接続され、N328の出力がN138゜N238
.N338の入力に接続されて、他殺に相互接続された
ニューラルネットNWK108を構成する。
各々のニューロンモデルは、各々の出力を記憶するため
の記憶回路F1.18.F218゜F318.F128
.F228.F328゜F138.F238.F338
をそれぞれ有する。
さらに、F、118.F218.F318゜F128.
F228.F328.F138゜F238.F338は
、それぞれ、上記出力の入力端子、FT118.FT2
18.FT318゜FT128.FT228.FT32
8゜FT138.FT238.FT338と、各々で記
憶されたデータを読み出すための読み出し端子FO11
8,FO218,FO318゜FO128,FO228
,FO328゜F○138.FO238,FO338と
、各々へデータを書き込むための書き込み端子F111
8゜FI218.FI318.F1128゜FI228
.FI328.F1138゜FI238.FI338を
有する。
ニューラルネットNWK 108は、上記各々出力を外
部から観測するため、F118.F218゜F318へ
のデータ入力を制御するための少なくとも1本以上の信
号線からなる制御信号線SCI。
F118.F218.F318のデータをニューラルネ
ットの外部に取り出すための読み出し信号線SQL、F
118.F218.F318ヘニューラルネットの外部
からデータを書き込むための書き込み信号線S■1を有
し、F128゜F228.F328へのデータ入力を制
御するための少なくとも1本以上の信号線からなる制御
信号線SC2,F128.F228.F328のデータ
をニューラルネットの外部に取り出すための読み出し信
号線SO2,F128.F228゜F328ヘニューラ
ルネットの外部からデータを書き込むための書き込み信
号線SI2を有し、F138.F238.F338への
データ入力を制御するための少なくとも1本以上の信号
線からなる副制御信号線SC3,F138.F238゜
F338のデータをニューラルネットの外部に取り出す
ための読み出し信号線SO3,F138゜F238.F
338ヘニューラルネットの外部からデータを書き込む
ための書き込み信号線SI3を有する。
第8図に示すように、各々の上記記憶回路の読み出し端
子は他の記憶回路の書き込み端子またはニューラルネッ
トの読み出し信号線に接続され、各々の上記記憶回路の
書き込み端子は、他の上記記憶回路の読み出し端子また
はニューラルネットの書き込み信号線に接続され、F1
18゜F218.F318および、F128.F228
゜F328および、F318.F328.F338はそ
れぞれシフトレジスタを構成する。
この様なシフトレジスタ構成により、先の実施例の説明
と同様にして、ニューロンモデルの出力をニューラルネ
ットの外部から知ることができるので、ニューラルネッ
トの動作の検証を容易にすることができる。
〔発明の効果〕
以上説明したように、本発明により、ニューラルネット
の動作の正当性の検証が容易にできる。
【図面の簡単な説明】
第1図、第3図、第4図、第5図、第6図、第7図、第
8図はそれぞれ本発明の実施例を示す図、第2図は従来
の二ニーロンモデルを示す図である。 NWK 100・・・ニューラルネット。 II、I2.I3・・・入力端子、 01.02,03・・・出力端子。 Nll0−N330・・・ニューロンモデルヵ$1国 第2図 (リ レ11 (bつ CC) N 0j FADyyρ 第 区 (す Fβ〃ρ FF IIρ (A) 第 乙 図 第 目

Claims (2)

    【特許請求の範囲】
  1. 1.少なくとも1つ以上の入力端子と、少なくとも1つ
    以上の出力端子と該入力端子の各々に対応する重み値を
    記憶または保持する手段と、上記入力端子の各々につい
    てその入力信号の値とこれに対応する上記重み値の積を
    演算し、さらに該入力端子の各々について演算された上
    記の積を該入力端子にわたって加算し、これによって入
    力信号の値と重み値の積和値を演算する手段を有するニ
    ューロンモデルを多段に相互接続してなるニューラルネ
    ットにおいて、少なくとも1つ以上のニューロンモデル
    の出力をニューラルネットの外部から観測するための手
    段を有することを特徴とするニューラルネット。
  2. 2.少なくとも1つ以上の入力端子と、少なくとも1つ
    以上の出力端子と、該入力端子の各々に対応する重み値
    を記憶または保持する手段と、上記入力端子の各々につ
    いてその入力信号の値とこれに対応する上記重み値の積
    を演算し、さらに該入力端子の各々について演算された
    上記の積を該入力端子にわたって加算し、これによって
    入力信号の値と重み値の積和値を演算する手段と、該積
    和値が所定の値域に入る様に該積和値を正規化する手段
    を有するニューロンモデルを多段に相互接続してなるニ
    ューラルネットにおいて、少なくとも1つ以上のニュー
    ロンモデルの正規化していない状態の上記積和値をニュ
    ーラルネットの外部から観測するための手段を有するこ
    とを特徴とするニューラルネット。
JP89296A 1989-01-06 1989-01-06 ニューラル・ネット Pending JPH02181256A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP89296A JPH02181256A (ja) 1989-01-06 1989-01-06 ニューラル・ネット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP89296A JPH02181256A (ja) 1989-01-06 1989-01-06 ニューラル・ネット

Publications (1)

Publication Number Publication Date
JPH02181256A true JPH02181256A (ja) 1990-07-16

Family

ID=11469937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP89296A Pending JPH02181256A (ja) 1989-01-06 1989-01-06 ニューラル・ネット

Country Status (1)

Country Link
JP (1) JPH02181256A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046375A (ja) * 2017-09-06 2019-03-22 株式会社半導体エネルギー研究所 半導体装置、電子部品、及び電子機器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046375A (ja) * 2017-09-06 2019-03-22 株式会社半導体エネルギー研究所 半導体装置、電子部品、及び電子機器

Similar Documents

Publication Publication Date Title
Graf et al. VLSI implementation of a neural network memory with several hundreds of neurons
US5483620A (en) Learning machine synapse processor system apparatus
JPH04293151A (ja) 並列データ処理方式
US5095441A (en) Rule inference and localization during synthesis of logic circuit designs
JPH0122652B2 (ja)
EP0484506A1 (en) A learning machine synapse processor system apparatus
JPH07219919A (ja) 数値演算処理装置
Lisboa et al. Complete solution of the local minima in the XOR problem
JP5894645B1 (ja) 半導体装置及びその品質管理方法
CN111353598A (zh) 一种神经网络压缩方法、电子设备及计算机可读介质
de Oliveira et al. Quantum logical neural networks
JPH02181256A (ja) ニューラル・ネット
Wang et al. A modified bidirectional decoding strategy based on the BAM structure
Watson Common LISP modules: artificial intelligence in the era of neural networks and chaos theory
US20200082879A1 (en) Circuit and method for memory operation
Ralston Views: Discrete Mathematics: The New Mathematics of Science: The computer revolution has made discrete mathematics as indispensable as the calculus to science and technology
JPS58147236A (ja) ダイナミックpla
Stout et al. A VLSI implementation of a parallel, self-organizing learning model
Watson et al. The Substrates of Intelligence, a Neural Network Primer
JPH01116869A (ja) ダイナミックプログラミング機能を有するニューラルネットワーク
JPS6059595A (ja) 符号化回路
Ramacher et al. WSI architecture of a neurocomputer module
Van Camp THE AMATEUR SCIENTIST
JPS5911458A (ja) 論理シミユレ−タ
Jutten et al. Simulation machine and integrated implementation of neural networks: A review of methods, problems and realizations