JPH04283884A - アナログ逆伝搬学習回路とその駆動方法 - Google Patents

アナログ逆伝搬学習回路とその駆動方法

Info

Publication number
JPH04283884A
JPH04283884A JP3048180A JP4818091A JPH04283884A JP H04283884 A JPH04283884 A JP H04283884A JP 3048180 A JP3048180 A JP 3048180A JP 4818091 A JP4818091 A JP 4818091A JP H04283884 A JPH04283884 A JP H04283884A
Authority
JP
Japan
Prior art keywords
learning
circuit
layer
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3048180A
Other languages
English (en)
Other versions
JP3095798B2 (ja
Inventor
Toyoe Moriizumi
森泉 豊栄
Takamichi Nakamoto
高道 中本
Hideaki Takagi
秀昭 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Research Development Corp of Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research Development Corp of Japan filed Critical Research Development Corp of Japan
Priority to JP03048180A priority Critical patent/JP3095798B2/ja
Publication of JPH04283884A publication Critical patent/JPH04283884A/ja
Application granted granted Critical
Publication of JP3095798B2 publication Critical patent/JP3095798B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Analogue/Digital Conversion (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
クのハードウェア化を図ったアナログ逆伝搬学習回路と
その駆動方法に関するものである。
【0002】
【従来の技術】近年、生体の神経系を模倣したニューラ
ルネットワークによる情報処理の研究が進んでいる。さ
まざまなモデルが提案されるとともに、パターン認識、
最適化問題等の分野において、従来のノイマン型コンピ
ュータより優れていることが確認されてきた。
【0003】しかし、汎用プロッセサ上のソフトウェア
シミュレーションでは、ネットワークを大規模化するこ
とにより急激に計算量が増加して、高速に処理を行なう
ことには問題がある。そこで、LSIを中心とした回路
技術によるハードウェア化の研究が行なわれている。当
初は重み係数固定のホップフィルド(Hopfield
)モデルのLSI化が行なわれていたが、その後、シナ
プス結合を可変にする機能を持ったLSIが研究されて
いる。しかし、学習機能を持ったネットワークのハード
ウェア化の研究はまだ不十分である。
【0004】本願の発明者らは、複数センサ出力パター
ンをニューラルネットワークでパターン認識して、ガス
・においを識別するセンシングシステムを研究している
。このパターン認識を現在ソフトウェアシミュレーショ
ンで行なっているが、小型で可搬型のシステムを作るに
は、学習機能を含めた専用ハードウェアの開発が必要で
ある。
【0005】ところで、ニューラルネットワークには、
相互結合型と層状ネットワークがある。前者は最適化問
題、後者はパターン認識、制御等への応用が検討されて
いる。逆伝搬学習法はフィードバック結合を持たない層
状ネットワークの学習則として知られている。ネットワ
ークは、図13に示すようにモデル化されたニューロン
によって、図14に示すように構成される。ニューロン
は前層の出力に重みをかけて加算した量に非線形関数を
作用させて出力値を得る。非線形関数は連続で微分可能
な単調増加関数であればよいが、一般には数式1で表さ
れるシグモイド関数がよく用いられる。
【0006】
【数1】
【0007】なお、図13における結合重み係数wij
は正の時興奮性結合、負の時抑制性結合、零の時は結合
のないことを表す。ネットワークの入力層にあるパター
ンpの入力信号を与えると、入力層→中間層→出力層の
順に信号が伝送され出力を得る。この時、出力層のi番
目の出力をyPiとして、その時のニューロンの望まし
い出力(教師信号)をtPiとする。この二値間の二乗
誤差は数式2で表すことができる。
【0008】
【数2】
【0009】逆伝搬学習法は数式2を最小にするように
、ネットワークの重み係数を変更し、出力を望ましい出
力に近づける学習法である。この際、重みの変更は入力
信号と逆に出力層→中間層→入力層の順に行なわれるた
め、この名称がついている。出力層の学習信号δPiは
数式3で与えられる。
【0010】
【数3】
【0011】なお、ここで、f,f′は出力関数及びそ
の導関数、netPiはi番目のニューロンの内部状態
(前層出力の重み付け加算和)である。この学習信号δ
Piを用いると、中間層の学習信号δPjは数式4のよ
うに表される。
【0012】
【数4】
【0013】数式3、数式4の学習信号を用いると、各
重み係数wijは、数式5の幅Δwijだけ変更される
【0014】
【数5】
【0015】ここで、εは経験的に決める定数であり、
収束までの学習回数やネットワークの安定性等に大きな
影響を与える。一連の学習を繰り返すことにより、出力
層のニューロンの出力値yPiは、望ましい出力値tp
1に収束していく。1一般に逆伝搬学習法を用いる時は
、全パターンについて重み係数変更量を求め、一括して
重み係数を変更する方式が多く採用されている。
【0016】
【発明が解決しようとする課題】ところで、学習回路の
電子回路化の方式としては、アナログ方式、デジタル方
式、両者のハイブリッド方式、光方式がある。本願の発
明者らは、配線が少なく簡易な回路で実現できるアナロ
グ方式を採用し、逆伝搬学習則を用いたニューラルネッ
トワークをハードウェア化する研究を進めている。これ
とほぼ同時期に、逆伝搬学習則をデジタル方式で実現し
た例が報告された。
【0017】しかしながら、上記したデジタル方式によ
る逆伝搬学習では、回路に大きな近似を導入するか、テ
ーブル変換等でシグモイド(sigmoid)及びその
導関数を実現するために、ハードウェア量が大きくなる
等の問題がある。そこで、ここでは、ハードウェア量と
性能のトレードオフを考えて、アナログ方式を用いるよ
うにした。また、ハードウェア化にあたり入力、伝送を
時系列で行なう時分割多重方式を採用した。
【0018】これにより配線量を低減することができる
ばかりでなく、積和演算に必要な乗算器の個数も低減す
ることができる。また、アナログ方式ではニューロン間
のシナプス結合重みを記憶する、線形性の良い不揮発性
素子を必要とするが、半導体素子で実現するのが困難で
ある。そこで、本発明においては、リーク電流が少なく
線形性もよい、一種の濃淡電池である電気化学積分素子
を用いて、重みの変更と保持を実現するようにしている
【0019】更に、前記した一括して重み係数を変更す
る方式によるとアナログメモリの必要個数が増えるため
、本発明においては、逐次変換方式を用いるようにした
。また、今回、ネットワークについてシミュレーション
により検討を加え、回路定数の適正化を行ない、効率的
なアナログ逆伝搬学習回路の駆動方法を得るようにして
いる。
【0020】このように、本発明は、ニューロン間で並
列動作するハードウェアにより、簡単な回路構成で、し
かも学習時間を大幅に短縮可能なアナログ逆伝搬学習回
路とその駆動方法を提供することを目的としている。ま
た、本発明は、特に、シグモイド関数回路、重み係数変
更回路及び乗算回路の改良を図り、パターン認識能力の
向上、収束までの学習回数の減少を図ることを目的とし
ている。
【0021】
【課題を解決するための手段】本発明は、上記目的を達
成するために、入力層から出力層へ伝わる正伝搬モード
と、出力層から入力層へ逆に伝わる学習モードとを有す
るアナログ逆伝搬学習回路において、前記正伝搬モード
において、前層のニューロンの出力をアナログスイッチ
で切り替えて、時系列の入力を得る手段と、該時系列の
入力に同期させて重み係数を読み出し、入力との積を得
る乗算器と、各入力に対する積を積分器で足してニュー
ロンの内部状態を得る手段と、該ニューロンの内部状態
にシグモイド関数を作用させて出力値を得る手段と、前
記学習モードにおける出力層から中間への学習において
、ニューロンの出力と教師信号との誤差を得る減算器と
、その時のニューロンの内部状態にシグモイド導関数を
作用させて得た値との積を乗算器で求め第1の学習信号
を得る手段と、該第1の学習信号と前層の出力との積で
重み係数の変更量を得る手段と、前記学習モードにおけ
る中間層から入力層への学習において、次層での学習信
号と重み係数の積を乗算器で得て、それらの和を加算器
で計算し、誤差信号を得る手段と、前記中間層での各ユ
ニットは所定のタイミングでサンプル&ホールド回路に
データを取り込み、各ユニットでは該データに、その時
の内部状態にシグモイド導関数に作用させた値を乗じて
第2の学習信号を得る手段と、該第2の学習信号に基づ
いて前記出力層から中間層への学習と同様に重み係数の
変更を行う手段とを設けるようにしたものである。
【0022】また、入力層から出力層へ伝わる正伝搬モ
ードと、出力層から入力層へ逆に伝わる学習モードとを
有するアナログ逆伝搬学習回路の駆動方法において、前
記正伝搬モードにおいて、前層のニューロンの出力を切
り替えて、時系列の入力を得るステップと、該時系列の
入力に同期させて重み係数を読み出し、入力との積を得
るステップと、各入力に対する積を足してニューロンの
内部状態を得るステップと、該ニューロンの内部状態に
シグモイド関数を作用させて出力値を得るステップと、
前記学習モードにおける出力層から中間層への学習にお
いて、ニューロンの出力と教師信号との誤差を得るステ
ップと、その時のニューロンの内部状態にシグモイド導
関数を作用させて得た値との積を求め第1の学習信号を
得るステップと、該第1の学習信号と前層の出力との積
で重み係数の変更量を得るステップと、前記学習モード
における中間層から入力層への学習において、次層での
学習信号と重み係数の積を得て、それらの和を計算し、
誤差信号を得るステップと、中間層での各ユニットは所
定のタイミングでデータを取り込み、各ユニットでは該
データに、その時の内部状態にシグモイド導関数に作用
させた値を乗じて第2の学習信号を得るステップと、該
第2の学習信号に基づいて前記出力層から中間層への学
習と同様に重み係数の変更を行うステップとを施すよう
にしたものである。
【0023】
【作用】本発明によれば、入力層から出力層へ伝わる正
伝搬モードと、出力層から入力層へ逆に伝わる学習モー
ドとを有するアナログ逆伝搬学習回路の駆動方法におい
て、(1)前記正伝搬モードにおいて、前層のニューロ
ンの出力を切り替えて、時系列の入力を得て、(2)該
時系列の入力に同期させて重み係数を読み出し、入力と
の積を得て、(3)各入力に対する積を足してニューロ
ンの内部状態を得て、(4)該ニューロンの内部状態に
シグモイド関数を作用させて出力値を得て、(5)前記
学習モードにおける出力層から中間層への学習において
、ニューロンの出力と教師信号との誤差を得て、(6)
その時のニューロンの内部状態にシグモイド導関数を作
用させて得た値との積を求め、第1の学習信号を得て、
(7)該第1の学習信号と前層の出力との積で重み係数
の変更量を得て、(8)前記学習モードにおける中間層
から入力層への学習において、次層での学習信号と重み
係数の積を得て、それらの和を計算し、誤差信号を得て
、(9)中間層での各ユニットは所定のタイミングでデ
ータを取り込み、各ユニットでは該データに、その時の
内部状態にシグモイド導関数に作用させた値を乗じて第
2の学習信号を得て、(10)該第2の学習信号に基づ
いて前記出力層から中間層への学習と同様に重み係数の
変更を行うようにしている。
【0024】従って、収束までの学習回数の減少法、さ
らに多様なパターンでの収束性能の向上を図ることがで
きる。
【0025】
【実施例】以下、本発明の実施例について図面を参照し
ながら詳細に説明する。図1は本発明の実施例を示すア
ナログ逆伝搬学習回路のブロック図である。図中、1〜
4は乗算器、5はシグモイド導関数回路、6は書き込み
回路、7,10,11はアナログスイッチ、8は積分回
路、9はシグモイド関数回路、12は電気化学積分素子
である。
【0026】ここでは、アナログ電圧を時分割多重方式
で伝送することにより実現している。ネットワークの動
作は、入力層から出力層へ伝わる正伝搬モードと、出力
層から入力層へ逆に伝わる学習モードとに分けられる。 以下、図1を用いてその動作の説明を行う。 (a)正伝搬モード 入力は前層のニューロンの出力yPjをアナログスイッ
チで切り替えることで、時系列の入力としている。これ
に同期させて重み係数wijを読み出し、乗算器3で入
力との積を得る。各入力に対する積を積分器で足し込む
ことにより、ニューロンの内部状態netpiを得る。
【0027】
【数6】
【0028】これに出力関数(シグモイド関数)を作用
させて出力値yPiを得る。
【0029】
【数7】
【0030】(b)学習モード 図2(a)に示すように、出力層→中間層での学習は、
ニューロンの出力yPiと教師信号tpiとの誤差を減
算器13により求める。その時の内部状態netpiに
シグモイド導関数を作用させて得た値との積を乗算器で
計算し、数式3の第1の学習信号δp1を得る。
【0031】重み係数の変更量Δwは、学習信号と前層
の出力(入力信号)との積で得られる〔数式5参照〕。 εは回路の利得を調整することで決まる。実際の重みの
変更は、重み係数の変更量Δwに相当する電流を流すこ
とにより、電気化学積分素子の電圧を変えるようにして
いる。一方、図2(b)に示すように、中間→入力層で
は、次層(出力層)での学習信号δpiと結合重み係数
wijの積を乗算器で求め、それらの和ej を加算器
14で計算し、誤差信号とする。
【0032】
【数8】
【0033】この誤差信号は時系列であるから、中間層
での各ユニットは適当なタイミングでサンプル&ホール
ド回路15にデータを取り込む。各ユニットではこのデ
ータに、その時の内部状態にシグモイド導関数に作用さ
せた値を乗じて数式4の第2の学習信号を得る。該第2
の学習信号から中間層−出力層の場合と同様に重み係数
の変更を行う。
【0034】上述の正伝搬学習を行うネットワーク構成
を図3に示す。これは入力、中間、出力層が各3ニュー
ロンの時の構成図である。図3において、20は入力1
〜3を切り替えるアナログスイッチ、21はユニット1
〜3、22はユニット1〜3の出力を切り替えるアナロ
グスイッチ、23はそのアナログスイッチ22に接続さ
れるユニット1〜3、24は減算器、25は加算器、2
6はサンプル&ホールド回路である。 (c)動作タイミング 正伝搬モードと学習モードの切り替えと、重み係数の切
り替えのために制御信号が必要である。また、積和演算
の積分器リセット、サンプル&ホールド回路のタイミン
グ等も必要である。制御信号はカウンタ及びEPROM
を用いたタイミングシーケンサにより発生させる。タイ
ミングチャートを図4に示す。
【0035】まず、積分器リセット信号を入れる〔ステ
ップ(イ)〕。同時に入力、教師信号のパターンを1つ
進める。中間層の正伝搬モードで重み係数を順次替えて
、積和演算を行ない、内部状態、出力を決定する〔ステ
ップ(ロ)〜(ホ)〕。出力層の正伝搬モードは前層の
出力と重み係数を同期させて読みだし積和演算を行ない
内部状態、出力を決定する〔ステップ(ヘ)〜(リ)〕
【0036】ネットワークの出力を保持するためにサン
プル&ホールド回路のホールド信号をいれる〔ステップ
(ヌ)〕。ここまでが正伝搬モードで、判別だけを行う
時は、ここでリターンする。次に、出力→中間層の学習
信号に重み係数を順次乗じて誤差信号を計算し、前層の
相当するニューロンは同期した信号でホールドする〔ス
テップ(ル)〜(カ)〕。
【0037】出力→中間層の学習信号は内部状態が決る
と同時に計算されている。中間→入力層も同様に誤差信
号が決まれば学習信号が得られる。学習信号に入力を乗
じ、対応する重みに書き込むことで結合の変更を行う〔
ステップ(ヨ)〜(ソ)〕。以上18クロックで1入力
パターンの学習が終わる。現在、クロック周波数を1K
Hzとして、1パターンの1回の学習時間を18msか
けて行っている。
【0038】次に、上記ブロック図で示した各部の回路
構成について説明する。 (a)積分回路 入力に重み係数を乗じた、時系列の値を加算するために
積分回路を用いる。この積分回路は図5に示すようにオ
ペアンプ30を使った一般的なものを用いた。この時、
出力Vo1 は数式9で表すことができ、入力に比例し
た加算和が得られることがわかる。
【0039】
【数9】
【0040】オン・オフ型アナログスイッチS1 は正
伝搬の時だけONになり、OFFの時積分回路はニュー
ロンの内部状態をホールドし続ける役目をする。フィー
ドバックの抵抗R2 はホールド時の電圧を安定させる
ために接続されている。また、コンデンサC1 と並列
に接続されたアナログスイッチS2 は、図4のステッ
プ(イ)でONになり、出力電圧を0Vにリセットする
。因みに、抵抗R1 は32KΩ、抵抗R2 は3MΩ
、C1 は0.2μF、オペアンプ30はTL072で
ある。 (b)シグモイド関数回路 出力関数として、シグモイド関数を用いている。オペア
ンプ31とダイオード32,33を使った近似関数回路
を図6に示す。入力側にダイオードリミッタ34をいれ
て、電圧を約±0.5Vに変換している。この時ダイオ
ード32,33の特性により、飽和型の非線形特性が得
られる。オペアンプ31の入力にはマイナス電圧で約−
1〜0Vにシフトさせ、オペアンプ31の利得を調整す
ることで出力値0〜1vのシグモイド近似関数を得る。 因みに、抵抗R4 は17.8KΩ、抵抗R5 は10
KΩ、抵抗R6 は270KΩ、抵抗R7 は8.87
KΩ、ダイオード32,33は1S1588、オペアン
プ31はTL072、−VB は−15Vである。
【0041】入出力特性を図7に示す。図7において、
横軸は入力電圧(mV)、縦軸は出力電圧(mV)であ
る。なお、netpiを反転して入力すれば、通常のシ
グモイド関数と同様に使える。また、学習の時必要とな
るシグモイド導関数については、後述する。 (c)電気化学積分素子と書き込み回路アナログ回路で
問題となる結合重みの保持には、電気化学積分素子(三
洋電機MD2B2)を用いている。この電気化学積分素
子は、銀イオン導電性の固体電解質Ag121 I93
P14O49と、銀イオン・電子混合導電体Ag415
 Se185 P15O60とを使用し、通電電気量を
電圧の形で積分記憶する性質を有しており、電圧は電荷
量に比例して変化する。通電を停止した後、出力電圧保
持も非常に安定している( 記憶電位時間変化0.3m
v/48hr)。また、正負両方の電圧値を保持できる
ので、興奮性結合、抑制性結合を1つの回路で実現でき
る。以上の点から、この電気化学積分素子は重み係数を
保持するアナログ量記憶素子に適している。
【0042】電気化学積分素子を重み係数保持素子とし
て使う場合、入力電圧に比例した電荷量を書き込む回路
が必要となる。そのための電圧制御定電流源回路を図8
に示す。図8において、アナログスイッチ43は重み係
数の切り替え用、アナログスイッチ44は読み出し(a
端子)と書き込み(b端子)の切り替え用である。書き
込み時に入力電圧Vs2 が入ると、オペアンプ41の
反転入力側も電圧Vs2 になり、アースとの間に電流
I=Vs2 /R8 が流れる。オペアンプ41には電
流が流れ込まないので、すべて電気化学積分素子42に
流れる。 従って、電気化学積分素子42の内部電圧に関係なく、
入力電圧Vs2 に比例した電流を流すことができる。 因みに、抵抗R8 は390Ω、オペアンプ41はTL
072である。
【0043】なお、当初は乗算器出力から抵抗を介して
アナログスイッチに接続する回路を用いていたが、乗算
器出力が小さくなると書き込み電荷量が入力電圧に比例
しなくなるのでこのような回路構成とした。 (d)乗算回路 乗算回路としては、図9に示すように、トランスコンダ
クタンス乗算器(インターシルICL8013)を用い
た。トランスコンダクタンス乗算器は、差動増幅器の利
得を外部電圧で制御することにより乗算を行う。図9に
おいて、差動増幅器45の利得AV は、AV =V0
3/VX =RL /reここで、re はエミッタ抵
抗であり、re =1/gm =KT/q・IE V0
3=VX ・AV =VX ・q・IE ・RL /(
KT)なお、ここで、Kはボルッマン定数、Tは絶対温
度である。
【0044】ここで、定電流源の電流値を外部電圧Vy
 で制御するようにすれば、外部電圧Vy とVX の
積をとることができる。そこで、図9に示すように、エ
ミッタ電流IE を制御する。この回路では、Vx は
正負両方の値がとれるが、VY は正でなければならな
い。これを正負両方に拡張し、リニアリティ、フィード
スルー特性を改善している。
【0045】従って、トランジスタのトランスコンダク
タンスの特性を利用し、そのままで4象限での乗算が行
うことができる。入出力は電圧値で、2入力の積の10
分の1の電圧値を出力する。 (e)アナログスイッチ C−MOS  ICを用い、1回路8接点のHC405
1と3回路2接点のHC4053を用いている。いずれ
もON抵抗が40Ω程度と小さい。
【0046】また、加算器、減算器は標準的なオペアン
プ回路、サンプル&ホールド回路は市販のIC(LF3
98)を用いている。次に、本発明のアナログ逆伝搬学
習回路の回路定数について説明する。ネットワークをハ
ードウェア化すると、様々な制約がでてくる。例えば、
電源電圧での飽和や入出力電流の制限等である。また、
非線形関数を正確に近似しようとすればするほど回路規
模は大きくなり、複雑になっていく。
【0047】そこで、種々の条件を課して回路シミュレ
ーションを行ない、回路定数の適正化を行った。さらに
、シグモイド導関数を実現し易い簡略化した形に変え、
その収束状況をシミュレーションし、簡略化の影響を調
べた。 (A)シミュレーションと実測値の比較シミュレーショ
ンが正確に回路動作を表すかどうか、学習後の重み係数
の値と出力値を比べて確認した。簡単のため、シグモイ
ド導関数を除いた二層構成のネットワーク(入力層3、
出力層3ニューロン)で、比較を行った。ε=0.56
の時の結果を表1に示す。入力は3パターンで各パター
ンベクトルが直交している単純な場合である。表1より
重み係数、出力値ともほぼ一致していることがわかり、
本シミュレーションが回路動作を十分反映していると考
えられる。以後、パラメータ変更の楽なシミュレーショ
ンで回路の検討を行った。
【0048】最終的に考慮した点は、各ICの電源電圧
における出力電圧飽和、重み係数変更用電流回路の出力
電流制限、アナログスイッチのON抵抗、アナログスイ
ッチ保護のための入力制限等である。また、シグモイド
関数は、シグモイド関数回路より実測した値を折れ線近
似して用いている。
【0049】
【表1】
【0050】(B)二層構成ネットワーク回路化された
ネットワークでは、学習時のεの値は各演算回路の利得
により決定される。前述の二層構成のネットワークにお
いて、重み係数の増幅度を変えることでεの値を変化さ
せて、収束の変化について調べた。入力は3パターンで
、各パターンベクトル間の角度が10度しか離れていな
い近接パターンである。重み係数の初期値は±10mV
の範囲の乱数である。結果を表2に示す。 出力と教師信号の二乗誤差が0.1以下となった時を収
束とした。なお、εが0.56以下の時は重み係数の更
新が遅く、収束までの学習回数が多くなってしまう。逆
にεが56.6のように大きすぎると振動してしまい、
安定な収束は得られない。結局、εが5.6でうまく動
作した。さらに、初期値を小さくする(±1mV)こと
により、収束までの学習回数は表2の1/4〜1/5ま
で減少した。実際の回路でも同様の学習回数で収束する
ことを確認することができた。
【0051】
【表2】
【0052】(C)シグモイド導関数の検討二層構成の
ネットワークでは、EXOR(排他的論理和)のように
線形分離できないパターンは識別できないことが知られ
ている。そのようなパターンでも識別できるように、ネ
ットワークを三層構成とし、シグモイド導関数も加える
。しかし、シグモイド導関数は正確な関数の実現が難し
いので、簡単化した関数を考えて検討を行った。
【0053】(a)シグモイド導関数の評価シグモイド
導関数の実際の形状〔図10(a)〕を参考にして、導
関数を簡単化し、三角近似〔図10(b)〕、方形近似
〔図10(c)〕、一定値〔図10(d)〕の場合につ
き検討した。一定値は導関数がないことを意味する。三
層構成のネットワークで入力をEXORパターンとした
時、各導関数の収束への影響を調べた結果を表3に示す
【0054】なお、ここで、ニューロン数は入力、中間
、出力層でそれぞれ2、3、2個である。εは0.1と
して、重み係数の初期値は±10mVの範囲の乱数で1
0回変更した。収束判定は前章と同様である。一定値で
は収束せず、適当な導関数が必要なことがわかる。方形
近似の場合はM=2Vで表3の収束学習回数が得られ、
Mの値を変えてもこれ以上の改善は得られなかった。三
角近似で行った場合は、収束までの学習回数がシグモイ
ド導関数の時と大差無く、十分代用できることがわかる
【0055】
【表3】
【0056】次に、三角近似での裾の広がりの影響につ
いて、同様に調べた結果を表4に示す。広がり(L)は
小さすぎると学習が進んでからの誤差の減り方が遅く、
収束までの回数が増える。これは、望ましい出力を得る
前に導関数の値が小さくなり、重み係数の変更が鈍くな
るためと考えられる。(L)が大きすぎると初期値によ
っては回数が増えてしまう。なお、(L)の大きさにつ
いては、4Vを中心に±0.5V程度の誤差であれば収
束に影響しないことがわかった。
【0057】
【表4】
【0058】(b)シグモイド導関数回路前項の評価を
ふまえ、シグモイド導関数は三角近似した回路を用いて
、±4Vの範囲で値を持つようにした。オペアンプとダ
イオードによる折れ線近似回路を図11に示す。2つの
折れ線を加算することで三角近似を実現している。第1
のオペアンプ51では、ダイオード54に加わる電圧は
【0059】
【数10】
【0060】の時零となる。この点を境に入力の抵抗値
が変化する。すなわち、増幅度はこれより小さいVs3
の時、
【0061】
【数11】
【0062】大きいVs3の時
【0063】
【数12】
【0064】となり、−(R10/R11)VB の点
で折れ線となる。第2のオペアンプ52でも同様であり
、入力が−(R15/R16)VB の時入力抵抗が、
出力が−(R19/R18)VB の時フィードバック
抵抗がそれぞれ変わり、増幅度を変化させる。抵抗値を
うまく選ぶことにより、図10(b)に示した入出力特
性を実現する。なお、53、55、56はダイオードで
ある。
【0065】実際の回路の特性を図12に示す。図12
において、横軸は入力電圧(mV)、縦軸は出力電圧(
mV)である。 (D)三層構成でのシミュレーションとの比較ネットワ
ークを三層構成にして、前述の三角近似導関数を組み込
んだ時のシミュレーションと実測値の比較を行った。ε
は0.1であり、初期値は±10mVの範囲の乱数であ
る。
【0066】直交パターン、近接パターン、EXORパ
ターンともシミュレーションと同程度の学習回数で教師
信号にほぼ一致した出力パターンとなった。しかし、重
み係数の値は近接、EXORパターンの場合、全く違う
ものとなった。その時の重み係数値を用いても、二乗誤
差は小さいことがシミュレーションで確かめられた。ま
た、シミュレーションである程度学習した後の重み係数
を用いて回路を動作させた。その時の二乗誤差は1.6
3で重み係数は±30mVの範囲であった。収束した時
の重み係数はほぼ等しくなった(表5)。そこで、実際
の回路では学習初期段階で誤差を含み、シミュレーショ
ンとは別の初期値から始めた様になってしまい、別の解
に収束したと考えられる。
【0067】
【表5】
【0068】このように、シミュレーションにより回路
の検討を行った結果、二層構成のネットワークでシグモ
イド導関数が無い場合、εを調整することにより入力が
近接しているパターンでも、十分早い回数で収束するこ
とを確かめられた。三層構成のネットワークでEXOR
パターンの様に線形分離できないパターンを学習するに
は、導関数が必要となってくる。その場合でも三角近似
した導関数で代用できることが確かめられた。この関数
はオペアンプとダイオードによる折れ線近似回路で実現
することができる。
【0069】なお、本発明は上記実施例に限定されるも
のではなく、本発明の趣旨に基づいて種々の変形が可能
であり、これらを本発明の範囲から排除するものではな
い。
【0070】
【発明の効果】以上、詳細に説明したように、本発明に
よれば、逆伝搬学習法のハードウェア化を、アナログ電
圧を時分割して伝送する方法で実現し、配線及び回路を
簡素化することができ、しかも学習時間を大幅に短縮す
ることができる。また、重み係数の保持は電気化学積分
素子で行ったが、線形性がよく保持特性も優れており、
正負両方の電圧を保持できることにより、可変の重み係
数を扱うのに適している。
【0071】更に、シミュレーションにより、二層構成
のネットワークでシグモイド導関数が無い場合、εを調
整することにより入力が近接しているパターンでも、十
分早い回数で収束することができる。また、三層構成の
ネットワークでEXORパターンの様に線形分離できな
いパターンを学習するには、導関数が必要となってくる
が、その場合でも三角近似した導関数で代用できる。
【0072】従って、上記のように構成することにより
、収束までの学習回数の減少法、さらに多様なパターン
での収束性能の向上を図ることができる。
【図面の簡単な説明】
【図1】本発明の実施例を示すアナログ逆伝搬学習回路
のブロック図である。
【図2】本発明の出力→中間層及び中間→入力層におけ
る誤差信号の説明図である。
【図3】本発明の実施例を示す正伝搬、学習を行うネッ
トワークの構成図である。
【図4】本発明の実施例を示すアナログ逆伝搬学習回路
の動作タイミングチャートである。
【図5】本発明の実施例を示すアナログ逆伝搬学習回路
の積分回路の構成図である。
【図6】本発明の実施例を示すアナログ逆伝搬学習回路
のシグモイド関数回路図である。
【図7】本発明の実施例を示すアナログ逆伝搬学習回路
のシグモイド関数入出力特性図である。
【図8】本発明の実施例を示すアナログ逆伝搬学習回路
の重み係数変更回路図である。
【図9】本発明の実施例を示すアナログ逆伝搬学習回路
の乗算器回路図である。
【図10】本発明の実施例を示すアナログ逆伝搬学習回
路のシグモイド及び近似導関数の概略を示す図である。
【図11】本発明の実施例を示すアナログ逆伝搬学習回
路の三角近似導関数回路図である。
【図12】本発明の実施例を示すアナログ逆伝搬学習回
路の三角近似導関数入出力特性図である。
【図13】モデル化されたニューロンを示す図である。
【図14】アナログ逆伝搬学習回路の概略構成図である
【符号の説明】
1〜4    乗算器 5    シグモイド導関数回路 6    書き込み回路 7,10,11,20,22,43,44    アナ
ログスイッチ 8    積分回路 9    シグモイド関数回路 12,42    電気化学積分素子 13,24    減算器 14,25    加算器 15,26    サンプル&ホールド回路21,23
    ユニット1〜3 30,31,41    オペアンプ 32,33,54,55,56    ダイオード34
    ダイオードリミッタ 45    差動増幅器 51    第1のオペアンプ 52    第2のオペアンプ 53    第3のオペアンプ

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】  入力層から出力層へ伝わる正伝搬モー
    ドと、出力層から入力層へ逆に伝わる学習モードとを有
    するアナログ逆伝搬学習回路において、(a)前記正伝
    搬モードにおいて、前層のニューロンの出力をアナログ
    スイッチで切り替えて、時系列の入力を得る手段と、(
    b)該時系列の入力に同期させて重み係数を読み出し、
    入力との積を得る乗算器と、(c)各入力に対する積を
    積分器で足してニューロンの内部状態を得る手段と、(
    d)該ニューロンの内部状態にシグモイド関数を作用さ
    せて出力値を得る手段と、(e)前記学習モードにおけ
    る出力層から中間層への学習において、ニューロンの出
    力と教師信号との誤差を得る減算器と、(f)その時の
    ニューロンの内部状態にシグモイド導関数を作用させて
    得た値との積を乗算器で求め、第1の学習信号を得る手
    段と、(g)該第1の学習信号と前層の出力との積で重
    み係数の変更量を得る手段と、(h)前記学習モードに
    おける中間層から入力層への学習において、次層での学
    習信号と結合重み係数の積を乗算器で得て、それらの和
    を加算器で計算し、誤差信号を得る手段と、(i)前記
    中間層での各ユニットは所定のタイミングでサンプル&
    ホールド回路にデータを取り込み、各ユニットでは該デ
    ータにその時の内部状態にシグモイド導関数に作用させ
    た値を乗じて第2の学習信号を得る手段と、(j)該第
    2の学習信号に基づいて前記出力層から中間層への学習
    と同様に重み係数の変更を行う手段とを具備するアナロ
    グ逆伝搬学習回路。
  2. 【請求項2】  シグモイド関数回路の入力側にダイオ
    ードリミッタを接続して飽和型の非線形特性を得ること
    を特徴とする請求項1記載のアナログ逆伝搬学習回路。
  3. 【請求項3】  重み係数変更回路の書き込み回路を電
    圧制御定電流源回路構成とし、電気化学積分素子の内部
    電圧に関係なく、入力電圧に比例した電流を得て、該電
    流を電気化学積分素子に流すようにしたことを特徴とす
    る請求項1記載のアナログ逆伝搬学習回路。
  4. 【請求項4】  乗算器のトランジスタのトランスコン
    ダクタンスの特性を用いて、4象限の乗算を行うことを
    特徴とする請求項1記載のアナログ逆伝搬学習回路。
  5. 【請求項5】  線形分離できないパターンを学習する
    際に、三角近似した導関数を用いて学習することを特徴
    とする請求項1記載のアナログ逆伝搬学習回路。
  6. 【請求項6】  入力層から出力層へ伝わる正伝搬モー
    ドと、出力層から入力層へ逆に伝わる学習モードとを有
    するアナログ逆伝搬学習回路の駆動方法において、(a
    )前記正伝搬モードにおいて、前層のニューロンの出力
    を切り替えて、時系列の入力を得るステップと、(b)
    該時系列の入力に同期させて重み係数を読み出し、入力
    との積を得るステップと、(c)各入力に対する積を足
    してニューロンの内部状態を得るステップと、(d)該
    ニューロンの内部状態にシグモイド関数を作用させて出
    力値を得るステップと、(e)前記学習モードにおける
    出力層から中間層への学習において、ニューロンの出力
    と教師信号との誤差を得るステップと、(f)その時の
    ニューロンの内部状態にシグモイド導関数を作用させて
    得た値との積を求め、第1の学習信号を得るステップと
    、(g)該第1の学習信号と前層の出力との積で重み係
    数の変更量を得るステップと、(h)前記学習モードに
    おける中間層から入力層への学習において、次層での学
    習信号と結合重み係数の積を得て、それらの和を計算し
    、誤差信号を得るステップと、(i)中間層での各ユニ
    ットは所定のタイミングでデータを取り込み、各ユニッ
    トでは該データに、その時の内部状態にシグモイド導関
    数に作用させた値を乗じて第2の学習信号を得るステッ
    プと、(j)該第2の学習信号に基づいて前記出力層か
    ら中間層への学習と同様に重み係数の変更を行うステッ
    プとを有するアナログ逆伝搬学習回路の駆動方法。
JP03048180A 1991-03-13 1991-03-13 アナログ逆伝搬学習回路とその駆動方法 Expired - Fee Related JP3095798B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03048180A JP3095798B2 (ja) 1991-03-13 1991-03-13 アナログ逆伝搬学習回路とその駆動方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03048180A JP3095798B2 (ja) 1991-03-13 1991-03-13 アナログ逆伝搬学習回路とその駆動方法

Publications (2)

Publication Number Publication Date
JPH04283884A true JPH04283884A (ja) 1992-10-08
JP3095798B2 JP3095798B2 (ja) 2000-10-10

Family

ID=12796188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03048180A Expired - Fee Related JP3095798B2 (ja) 1991-03-13 1991-03-13 アナログ逆伝搬学習回路とその駆動方法

Country Status (1)

Country Link
JP (1) JP3095798B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111275178A (zh) * 2014-07-21 2020-06-12 徐志强 具有不同工作形态的神经元模拟方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111275178A (zh) * 2014-07-21 2020-06-12 徐志强 具有不同工作形态的神经元模拟方法及装置

Also Published As

Publication number Publication date
JP3095798B2 (ja) 2000-10-10

Similar Documents

Publication Publication Date Title
Patra et al. An intelligent pressure sensor using neural networks
Ergezinger et al. An accelerated learning algorithm for multilayer perceptrons: optimization layer by layer
US10453527B1 (en) In-cell differential read-out circuitry for reading signed weight values in resistive processing unit architecture
CN105981055A (zh) 神经网络对当前计算资源的自适应
Patra et al. An ANN-based smart capacitive pressure sensor in dynamic environment
Bor et al. Realization of the CMOS pulsewidth-modulation (PWM) neural network with on-chip learning
Pineda Time dependent adaptive neural networks
Douthwaite et al. A time-domain current-mode mac engine for analogue neural networks in flexible electronics
JPH0318985A (ja) 情報処理装置
JPH04283884A (ja) アナログ逆伝搬学習回路とその駆動方法
US5075869A (en) Neural network exhibiting improved tolerance to temperature and power supply variations
MORIE et al. Analog VLSI implementation of adaptive algorithms by an extended Hebbian synapse circuit
JP4181837B2 (ja) 演算回路およびこれを用いたニューラルネットワーク
Patra et al. Auto-calibration and-compensation of a capacitive pressure sensor using multilayer perceptrons
Bobylev et al. Manufacture and testing of a pulsed hardware neural network with memristor synapses for a biomorphic neuroprocessor
JPH04216160A (ja) ニュ−ラルネットワ−ク回路
JP3110434B2 (ja) アナログ逆伝搬学習回路
Gencer et al. Design of An Analog Circuit-Based Artificial Neural Network
Mayes et al. Pulsed VLSI for RBF neural networks
JPH03144785A (ja) ニューロ素子
Wang Analog CMOS implementation of backward error propagation
JPH0547870B2 (ja)
Lehmann A hardware efficient cascadable chip set for ANN's with on-chip backpropagation
JPH06131482A (ja) アナログニューラルネットワーク回路
Del Corso Hardware implementations of artificial neural networks

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000725

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees