JPH06187472A - アナログニューラルネットワーク - Google Patents

アナログニューラルネットワーク

Info

Publication number
JPH06187472A
JPH06187472A JP3070034A JP7003491A JPH06187472A JP H06187472 A JPH06187472 A JP H06187472A JP 3070034 A JP3070034 A JP 3070034A JP 7003491 A JP7003491 A JP 7003491A JP H06187472 A JPH06187472 A JP H06187472A
Authority
JP
Japan
Prior art keywords
output
layer
input
neural network
intermediate layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3070034A
Other languages
English (en)
Inventor
Yuuji Katsuradaira
勇次 桂平
Sadao Yamamoto
定雄 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wacom Co Ltd
Original Assignee
Wacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wacom Co Ltd filed Critical Wacom Co Ltd
Priority to JP3070034A priority Critical patent/JPH06187472A/ja
Publication of JPH06187472A publication Critical patent/JPH06187472A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 回路構成が簡単で且つ学習を効率良く行うこ
とのできるアナログニューラルネットワークを提供す
る。 【構成】 入力層を構成する入力端子21 〜2l と、出
力層を構成するニューロン41 〜4n 及び出力端子51
〜5n との間において、中間層を構成するニューロン3
1 〜3m に中間出力端子71 〜7m を設けることによ
り、中間層の出力値を取出し、これを学習に利用して回
路の特性のばらつき等による影響を抑える。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
ク、特にアナログニューラルネットワークの改良に関す
るものである。
【0002】
【従来の技術】従来より、逐次処理方式のノイマン型コ
ンピュータが不得手とするパターン認識や連想記憶等の
数学的にランダムな問題を処理する装置として、人間の
脳の情報処理様式を規範とするニューラルネットワーク
(コンピュータ)が提案されている。
【0003】図2はニューラルネットワークの基本単位
であるニューロンを示すもので、ニューロン1はn個の
入力信号x1 ,x2 ,……xn に対してそれぞれシナプ
ス結合荷重w1 ,w2 ,……wn を乗じてその総和を取
り(積和演算処理)、これを出力(非線形)関数f(x)
に通す(関数演算処理)ことにより出力信号yを得る如
くなっており、下記式で近似される。
【0004】 y=f(w1 ・x1 +w2 ・x2 +……+wn ・xn ) …… (1) 図3は前記ニューロンを用いた従来のニューラルネット
ワークの一例を示すもので、図中、21 ,22 ,……2
l は入力端子、31 ,32 ,……3m は一段目のニュー
ロン、41 ,42 ,……4n は二段目のニューロン、5
1 ,52 ,……5n は出力端子、6は結合荷重設定回路
である。
【0005】前記入力端子21 ,22 ,……2l にはl
個の入力信号a1 ,a2 ,……alがそれぞれ入力され
ているが、これらはそれぞれm個のニューロン31 ,3
2 ,……3m に分配して入力される。各ニューロン
1 ,32 ,……3m はそれぞれ前述した積和演算及び
関数演算処理を行う。さらに、各ニューロン31
2 ,……3m の出力信号はそれぞれn個のニューロン
1 ,42 ,……4n に分配して入力される。各ニュー
ロン41 ,42 ,……4n もそれぞれ前述した積和演算
及び関数演算処理を行い、その各出力信号b1 ,b2
……bn はそれぞれn個の出力端子51 ,52 ,……5
n より出力される。なお、前記入力端子21 〜2l は入
力層を構成し、また、ニューロン31 〜3m は中間層を
構成し、また、ニューロン41 〜4n 及び出力端子51
〜5n は出力層を構成して、全体として3層の階層型の
ニューラルネットワークを構成している。
【0006】前記各ニューロン31 〜3m 及び41 〜4
n におけるシナプス結合荷重は結合荷重設定回路6によ
り設定されるが、その値は予め出力信号b1 〜bn が既
知な入力信号a1 〜al を入力した時に実際に出力され
る出力信号b1 〜bn に基いて、誤差逆伝播学習法(バ
ックプロパゲーション)を用いて修正を行ない、これを
入力信号と出力信号との複数の組合わせについて適当な
回数繰返すことによって決定される。
【0007】前述したニューラルネットワークでは学習
によって自ら正しい出力信号が得られる如く構成(組織
化)するため、入力信号a1 〜al から出力信号b1
nを得るためのアルゴリズムやプログラムが不要であ
り、また、多量のデータを並列的に同時処理できるた
め、パターン認識や連想記憶等の数学的にランダムな問
題を高速に処理できるという特徴がある。
【0008】ところで、前述した誤差逆伝播学習が正し
く行われるためには前記(1) 式で示された計算値と実際
の回路での出力値とが一致する必要がある。従って、例
えば森下 他著「ダイナミックリフレッシュ方式アナロ
グニューロプロセッサ」(電子情報通信学会技術報告I
CD90−1、P1〜6、1990)に記載された装置
のように、ニューロンの出力関数としてシグモイド関数
を用いた場合、各ニューロンにシグモイド関数の特性を
有する回路を設けなければならず、また、入力値とシナ
プス結合荷重とを掛け合せるための乗算回路を各シナプ
ス毎に設けなければならず、回路構成が複雑になるとい
う問題があった。
【0009】一方、回路構成が簡単で且つ大規模なアナ
ログニューラルネットワークを構成するための素子とし
て、シナプス結合荷重を実現する容量性の浮動ゲートを
備えた半導体セルが提案されている(例えば、特開平2
−74053号公報参照)。
【0010】
【発明が解決しようとする課題】しかしながら、前述し
た半導体セルを用いて図3に示したようなニューラルネ
ットワークを構成した場合、回路の正確な特性を数式で
表すことが難しく、また、素子毎の特性のばらつきもあ
るため、誤差逆伝播を正確に行うことができず、学習に
時間がかかったり、不可能になるという問題があった。
【0011】本発明は前記従来の問題点に鑑み、回路構
成が簡単で且つ学習を効率良く行うことのできるアナロ
グニューラルネットワークを提供することを目的とす
る。
【0012】
【課題を解決するための手段】本発明では前記目的を達
成するため、請求項1として、入力層と出力層との間に
少なくとも一層の中間層を備えたアナログニューラルネ
ットワークにおいて、中間層の各ニューロンの出力値の
取出し部を設けたアナログニューラルネットワーク、ま
た、請求項2として、入力層と出力層との間に少なくと
も一層の中間層を備えたアナログニューラルネットワー
クにおいて、中間層の各ニューロンの出力値の取出し部
を設けるとともに、予め出力層よりの出力値が既知な入
力値を入力層に入力し、実際に出力層より得られた出力
値と前記既知の出力値との相違及び前記取出し部より得
られた中間層の出力値に基いてシナプス結合荷重を変更
し、これを繰返して学習を行うようになしたアナログニ
ューラルネットワークを提案する。
【0013】
【作用】本発明の請求項1によれば、中間層の各ニュー
ロンの出力値を取出すことができ、該出力値を学習の際
に利用することができる。また、請求項2によれば、中
間層の各ニューロンから取出された出力値を利用して誤
差逆伝播学習を行うことができ、回路の特性のばらつき
等による影響を抑えることができる。
【0014】
【実施例】図1は本発明のアナログニューラルネットワ
ークの一実施例を示すもので、図中、従来例と同一構成
部分は同一符号をもって表す。即ち、21 ,22 ,……
l は入力端子、31 ,32 ,……3m は一段目のニュ
ーロン、41 ,42 ,……4n は二段目のニューロン、
1 ,52 ,……5n は出力端子、6は結合荷重設定回
路、71 ,72 ,……7m は中間出力端子である。
【0015】前記入力端子21 ,22 ,……2l にはl
個の入力信号a1 ,a2 ,……alがそれぞれ入力され
ているが、これらはそれぞれm個のニューロン31 ,3
2 ,……3m に分配して入力される。各ニューロン
1 ,32 ,……3m はそれぞれ従来例の場合と同様な
積和演算及び関数演算処理を行う。さらに、各ニューロ
ン31 ,32 ,……3m の出力信号はそれぞれn個のニ
ューロン41 ,42 ,……4n に分配して入力されると
ともに、中間出力端子71 ,72 ,……7m から出力さ
れる。各ニューロン41 ,42 ,……4n もそれぞれ従
来例の場合と同様な積和演算及び関数演算処理を行い、
その各出力信号b1 ,b2 ,……bn はそれぞれn個の
出力端子51 ,52 ,……5n より出力される。
【0016】なお、前記入力端子21 〜2l は入力層を
構成し、また、ニューロン31 〜3m 及び中間出力端子
1 〜7m は中間層を構成し、また、ニューロン41
n及び出力端子51 〜5n は出力層を構成して、全体
として3層の階層型のアナログニューラルネットワーク
を構成している。また、前記各ニューロン31 〜3m
び41 〜4n におけるシナプス結合荷重は従来例の場合
と同様に結合荷重設定回路6により設定される。
【0017】前記構成によれば、中間層のニューロン3
1 〜3m の出力値を中間出力端子71 〜7m から取出す
ことができるため、その値を誤差逆伝播学習の計算に利
用することにより回路の特性があまり正確にわかってい
なくても誤差逆伝播学習を効率良く行うことができる。
【0018】図4は本発明のアナログニューラルネット
ワークの具体例を示すもので、図中、10は1段目の複
数のニューロンを構成するシナプスマトリクス回路、2
0は2段目の複数のニューロンを構成するシナプスマト
リクス回路である。また、301 ,302 ,……30l
は入力端子、311 ,312 ,……31m は中間出力端
子、321 ,322 ,……32n は出力端子、33,3
4,35,36はデコーダ、37,38はディジタル・
アナログ(D/A)コンバータ、39は結合荷重設定回
路である。
【0019】シナプスマトリクス回路10は極性反転回
路111 ,112 ,……11l と、シナプス回路1
11,1212,……121l,1221,1222,……12
2l,……12m1,12m2,……12mlと、差動増幅器1
1 ,132 ,……13m と、トランジスタ(FET)
1411,1412,……141l,1421,1422,……1
2l,……14m1,14m2,……14ml及び151 ,1
2 ,……15l とからなっている。
【0020】また、シナプスマトリクス回路20は極性
反転回路211 ,212 ,……21m と、シナプス回路
2211,2212,……221m,2221,2222,……2
2m,……22n1,22n2,……22nmと、差動増幅器
231 ,232 ,……23nと、トランジスタ(FE
T)2411,2412,……241m,2421,2422,…
…242m,……24n1,24n2,……24nm及251
252 ,……25m とからなっている。
【0021】極性反転回路111 〜11l 及び211
21m は、それぞれ入力端子301〜30l に入力され
る電圧及び中間出力端子311 〜31m へ出力される電
圧と極性が反対で大きさが同じ電圧をシナプス回路12
11〜12ml及び2211〜22nmに行毎に出力する。
【0022】シナプス回路、例えば1211は、図5に示
すように一対のPチャネルMOSFET1211−1、N
チャネルMOSFET1211−2及びコンデンサ1211
−3からなっている。該FET1211−1及びFET1
11−2のドレインは入力端子301 及び極性反転回路
111 の出力にそれぞれ接続され、また、ソースは両方
とも差動増幅器131 に接続されている。また、該FE
T1211−1及びFET1211−2のゲートは互いに接
続されており、さらにコンデンサ1211−3に接続され
ている。また、該コンデンサ1211−3はトランジスタ
1411に接続されている。前記FET1211−1及びF
ET1211−2は後述する如くしてコンデンサ1211
3に充電された電圧、即ちゲート電圧の正負によって、
その一方のみが導通し、また、この時のゲート電圧の大
きさによってその抵抗値の大きさが決まることにより、
入力電圧に対して任意の値の正又は負の結合荷重を設定
することができる。なお、他のシナプス回路1212〜1
ml及び2211〜22nmについても同様な構成となって
いる。
【0023】差動増幅器131 〜13m 及び231 〜2
n はシナプス回路1211〜12ml及び2211〜22nm
に列毎に接続されている。トランジスタ1411〜14ml
及び2411〜24nmはそれぞれデコーダ33及び35に
列毎に接続されるとともに、トランジスタ151 〜15
l 及び251 〜25m に行毎に接続されている。トラン
ジスタ151 〜15l はデコーダ34及びD/Aコンバ
ータ37に接続され、また、トランジスタ251 〜25
m はデコーダ36及びD/Aコンバータ38に接続され
ている。
【0024】結合荷重設定回路39はCPU、RAM、
ROM、EEPROM等によって構成されており、該E
EPROMには各シナプス回路1211〜12ml及び22
11〜22nmのそれぞれの結合荷重に対応するデータが予
め記憶されている。該結合荷重設定回路39はデコーダ
33〜36を駆動してトランジスタ1411〜14ml及び
151 〜15l のいずれか1つずつ又はトランジスタ2
11〜24nm及び251 〜25m のいずれか1つずつを
オンとなし、シナプス回路1211〜12ml又は2211
22nmのうちから一のシナプス回路を選択するととも
に、前記EEPROMに記憶されたデータのうちから該
選択されたシナプス回路に該当するデータをD/Aコン
バータ37又は38に送出することにより、該シナプス
回路中のコンデンサにその結合荷重に対応するアナログ
電圧を充電し、これを全てのシナプス回路に繰返し行う
如くなっている。
【0025】図6は図4のアナログニューラルネットワ
ークにおいて学習を行う場合の構成を示すもので、図
中、40は図4に示したアナログニューラルネットワー
ク、41はディジタル・アナログ(D/A)コンバー
タ、42,43はアナログ・ディジタル(A/D)コン
バータ、44はコンピュータである。
【0026】D/Aコンバータ41はコンピュータ44
より供給されるl個の入力データをアナログ電圧N1
l に変換してアナログニューラルネットワーク40の
入力端子に送出する。また、A/Dコンバータ42はア
ナログニューラルネットワーク40の中間出力端子より
出力されるm個の中間出力電圧H1 〜Hm をディジタル
データに変換してコンピュータ44に送出する。また、
A/Dコンバータ43はアナログニューラルネットワー
ク40の出力端子より出力されるn個の出力電圧O1
n をディジタルデータに変換してコンピュータ44に
送出する。コンピュータ44は図7に示すフローチャー
トに従って学習を実行する。
【0027】ここで、入力信号をNi (i=1,2,…
…l)(0≦Ni ≦1)、中間出力信号をHj (j=
1,2,……m)(0≦Hj ≦1)、出力信号をO
k (k=1,2,……n)(0≦Ok ≦1)、入力信号
i に対応する既知の出力信号をTk (k=1,2,…
…n)(0≦Tk ≦1)とすると、中間層の結合荷重W
ij及びその更新量ΔWij並びに出力層の結合荷重Vjk
びその更新量ΔVjkは、次のように表される。
【0028】 ΔVjk=α・Hj ・f´(Ok )・(Tk −Ok ) ……(2) Vjk=Vjk+ΔVjk ……(3) ΔWij=β・Ni ・f´(Hj )・Σ[k=1〜n]{(Tk −Ok )・f´ (Ok )・Vjk} ……(4) Wij=Wij+ΔWij ……(5) 但し、α,βは学習の係数、f´(Ok )は0<Ok
1の時に1、Ok =1又はOk =0の時に0、f´(H
j )は0<Hj <1の時に1、Hj =1又はHj =0の
時に0である。
【0029】前記中間層の出力信号Hj は従来の場合、
前記(1) 式の計算によって算出していたが、本発明では
回路中より直接取出すことができるため、該回路のシナ
プスの特性等にばらつきがあっても誤差逆伝播学習を効
率良く行うことができる。
【0030】図8は本発明のアナログニューラルネット
ワークによって手書き数字9文字のパターン認識を学習
させた場合の学習回数と出力誤差との関係の一例を示す
ものである。
【0031】なお、これまでの説明では中間層が1層の
ものを例に挙げたが、複数の中間層を備えたアナログニ
ューラルネットワークについても同様に適用でき、この
場合は各中間層毎に信号を取出し、これを学習に利用す
ることができる。
【0032】
【発明の効果】以上説明したように本発明の請求項1に
よれば、中間層の各ニューロンの出力値を取出すことが
でき、該出力値を学習の際に利用することができる。
【0033】また、請求項2によれば、中間層の各ニュ
ーロンから取出された出力値を利用して誤差逆伝播学習
を行うことができ、回路の特性のばらつき等による影響
を抑えることができ、学習を効率良く行うことができ
る。
【図面の簡単な説明】
【図1】 本発明のアナログニューラルネットワークの
一実施例を示す構成図
【図2】 ニューラルネットワークを構成するニューロ
ンの概要図
【図3】 従来のニューラルネットワークの一例を示す
構成図
【図4】 本発明のアナログニューラルネットワークの
具体例を示す回路図
【図5】 図4の回路中のシナプス回路の詳細を示す回
路図
【図6】 図4の回路において学習を行う場合の構成図
【図7】 図6中のコンピュータにおけるフローチャー
【図8】 本発明のアナログニューラルネットワークに
おける学習回数と出力誤差との関係の一例を示すグラフ
【符号の説明】
2,301 〜30l …入力端子、3,4…ニューロン、
5,321 〜32n …出力端子、6,39…結合荷重設
定回路、7,311 〜31m …中間出力端子、33,3
4,35,36…デコーダ、37,38…ディジタル・
アナログ(D/A)コンバータ、10,20…シナプス
マトリクス回路。

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 入力層と出力層との間に少なくとも一層
    の中間層を備えたアナログニューラルネットワークにお
    いて、 中間層の各ニューロンの出力値の取出し部を設けたこと
    を特徴とするアナログニューラルネットワーク。
  2. 【請求項2】 入力層と出力層との間に少なくとも一層
    の中間層を備えたアナログニューラルネットワークにお
    いて、 中間層の各ニューロンの出力値の取出し部を設けるとと
    もに、 予め出力層よりの出力値が既知な入力値を入力層に入力
    し、実際に出力層より得られた出力値と前記既知の出力
    値との相違及び前記取出し部より得られた中間層の出力
    値に基いてシナプス結合荷重を変更し、これを繰返して
    学習を行うようになしたことを特徴とするアナログニュ
    ーラルネットワーク。
JP3070034A 1991-04-02 1991-04-02 アナログニューラルネットワーク Pending JPH06187472A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3070034A JPH06187472A (ja) 1991-04-02 1991-04-02 アナログニューラルネットワーク

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3070034A JPH06187472A (ja) 1991-04-02 1991-04-02 アナログニューラルネットワーク

Publications (1)

Publication Number Publication Date
JPH06187472A true JPH06187472A (ja) 1994-07-08

Family

ID=13419908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3070034A Pending JPH06187472A (ja) 1991-04-02 1991-04-02 アナログニューラルネットワーク

Country Status (1)

Country Link
JP (1) JPH06187472A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018109968A (ja) * 2016-12-28 2018-07-12 株式会社半導体エネルギー研究所 ニューラルネットワークを利用したデータ処理装置、電子部品、および電子機器
US10141069B2 (en) 2015-05-21 2018-11-27 Semiconductor Energy Laboratory Co., Ltd. Neural network and electronic device including artificial neural array
US10674168B2 (en) 2015-10-23 2020-06-02 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
US10827102B2 (en) 2017-02-24 2020-11-03 Huawei Technologies Co., Ltd Image processing apparatus
US10922605B2 (en) 2015-10-23 2021-02-16 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
US11099814B2 (en) 2016-10-12 2021-08-24 Semiconductor Energy Laboratory Co., Ltd. Neural network semiconductor device and system using the same

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10141069B2 (en) 2015-05-21 2018-11-27 Semiconductor Energy Laboratory Co., Ltd. Neural network and electronic device including artificial neural array
US10699794B2 (en) 2015-05-21 2020-06-30 Semiconductor Energy Laboratory Co., Ltd. Electronic device
US11004528B2 (en) 2015-05-21 2021-05-11 Semiconductor Energy Laboratory Co., Ltd. Electronic device
US11776645B2 (en) 2015-05-21 2023-10-03 Semiconductor Energy Laboratory Co., Ltd. Stacked electronic device capable of retaining an analog potential
US10674168B2 (en) 2015-10-23 2020-06-02 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
US10922605B2 (en) 2015-10-23 2021-02-16 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
US11893474B2 (en) 2015-10-23 2024-02-06 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
US11099814B2 (en) 2016-10-12 2021-08-24 Semiconductor Energy Laboratory Co., Ltd. Neural network semiconductor device and system using the same
US11755286B2 (en) 2016-10-12 2023-09-12 Semiconductor Energy Laboratory Co., Ltd. Neural network semiconductor device and system using the same
JP2018109968A (ja) * 2016-12-28 2018-07-12 株式会社半導体エネルギー研究所 ニューラルネットワークを利用したデータ処理装置、電子部品、および電子機器
US11195088B2 (en) 2016-12-28 2021-12-07 Semiconductor Energy Laboratory Co., Ltd. Data processing device using neural network, electronic component, and electronic device
US10827102B2 (en) 2017-02-24 2020-11-03 Huawei Technologies Co., Ltd Image processing apparatus

Similar Documents

Publication Publication Date Title
Choi et al. A high-precision VLSI winner-take-all circuit for self-organizing neural networks
US6829598B2 (en) Method and apparatus for modeling a neural synapse function by utilizing a single conventional MOSFET
Lee et al. Hardware annealing in analog VLSI neurocomputing
Choi et al. A Gaussian synapse circuit for analog VLSI neural networks
CN111656368A (zh) 硬件加速的离散式神经网络
US8275728B2 (en) Neuromorphic computer
JP3289748B2 (ja) 半導体装置
US11188815B2 (en) Weight shifting for neuromorphic synapse array
US10468098B2 (en) In-cell differential read-out circuitry for reading signed weight values in resistive processing unit architecture
JP3438241B2 (ja) 半導体神経回路装置
JP2760543B2 (ja) 多重帰還回路
CN110651330A (zh) 二分忆阻网络中的深度学习
JPH0467259A (ja) 情報処理装置
Hsu et al. Competitive learning with floating-gate circuits
Tripathi et al. Analog neuromorphic system based on multi input floating gate mos neuron model
JPH06187472A (ja) アナログニューラルネットワーク
JP2007066258A (ja) 演算装置
Wu et al. CMOS current-mode neural associative memory design with on-chip learning
JPH06125049A (ja) 半導体装置
KR0183406B1 (ko) 신경망에 사용되는 가중합가법의 용량성 구조물
Vohra et al. CMOS circuit implementation of spiking neural network for pattern recognition using on-chip unsupervised STDP learning
JPH04281584A (ja) 複数の入力信号の重みづけられた複数の加算を行う装置
Bo et al. A circuit architecture for analog on-chip back propagation learning with local learning rate adaptation
CN115062583B (zh) 一种求解优化问题的hopfield网络硬件电路及操作方法
US20230229870A1 (en) Cross coupled capacitor analog in-memory processing device