JPH0264787A - 階層構造ニューラルネット - Google Patents

階層構造ニューラルネット

Info

Publication number
JPH0264787A
JPH0264787A JP63215102A JP21510288A JPH0264787A JP H0264787 A JPH0264787 A JP H0264787A JP 63215102 A JP63215102 A JP 63215102A JP 21510288 A JP21510288 A JP 21510288A JP H0264787 A JPH0264787 A JP H0264787A
Authority
JP
Japan
Prior art keywords
time
output
unit
input
voltage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63215102A
Other languages
English (en)
Other versions
JP2679730B2 (ja
Inventor
Hiroyuki Tsuzuki
都築 裕之
Shuichi Endo
秀一 遠藤
Takashi Kawasaki
川崎 貴
Toshiharu Matsuda
松田 俊春
Kazuo Asakawa
浅川 和雄
Hideki Kato
英樹 加藤
Hideki Yoshizawa
英樹 吉沢
Hiromoto Ichiki
宏基 市來
Hiroshi Iwamoto
岩本 弘
Chikara Tsuchiya
主税 土屋
Katsuya Ishikawa
勝哉 石川
Yoshihide Sugiura
義英 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63215102A priority Critical patent/JP2679730B2/ja
Priority to FI894021A priority patent/FI894021A/fi
Priority to EP89115978A priority patent/EP0357016B1/en
Priority to US07/400,826 priority patent/US5220559A/en
Priority to DE68928978T priority patent/DE68928978T2/de
Priority to KR1019890012588A priority patent/KR930002792B1/ko
Priority to AU40999/89A priority patent/AU626912B2/en
Publication of JPH0264787A publication Critical patent/JPH0264787A/ja
Application granted granted Critical
Publication of JP2679730B2 publication Critical patent/JP2679730B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (概   要〕 単層のハードウェアを時分割多重化使用して多層化する
ことを可能とする階層構造ニューラルネットのアーキテ
クチャに関し、。
単層のハードウェアを時分割多重化使用して等価的に多
層化することを可能とすることを目的とし、 複数のニューロンモデルを相互に接続することにより形
成されるニューラルネットにおいて、時分割多重化アナ
ログ信号を外部からのデジタル重みデータとの積を生成
し、かつその積を時分割的にコンデンサを介して加える
ことにより積分し、非線形出力関数を通した電圧を時分
割的に出力することを可能とするニューロンモデルのユ
ニットを複数設置して単層のユニット集合を形成する単
層ユニット集合手段と、前記単層ユニット集合手段の出
力を同じ単層ユニット集合の入力部に帰還する帰還手段
と、前記単層ユニット集合手段から出力される各ユニッ
トからのアナログ信号を時分割多重化し、さらに前記帰
還手段を介して前記単層ユニット集合手段を時分割多重
使用するための制御を実行する制御手段とを有し、単層
構造のユニット集合手段を時分割多重使用することによ
り等価的に階層構造のニューラルネットを形成するよう
に構成する。
〔産業上の利用分野〕
本発明はアレイ状に相互配線されたニューロンで構成さ
れる階層構造のニューラルネットのハードウェア化に係
り、更に詳しくは単層のハードウェアを時分割多重化使
用して多層化することを可能とする階層構造ニューラル
ネットのアーキテクチャに関する。
数々のパターン認識問題が積分器と量子化器からなるア
ナログニューロンを相互に結合したニューラルネットに
よって解析できることがわかってきた。そして複数のニ
ューロンで構成されるニューラルネットは演算の並列性
が極めて高いという特徴がある。さらにこのようにニュ
ーラルネットで構成されるニューロコンピュータはパタ
ーン認識や知識処理、機械制御、信号処理などに利用さ
れ得ると考えられている。
例えば音声認識の分野においては入力音声情報列を音声
情報の標準パターンと対応づけることにより、入力音声
が何であるかを認識することができる。このようにニュ
ーラルネットはニューロンをネットワーク上に接続する
ことにより、超並列処理を行い、高度な情報処理を高速
に行うことができ、広範囲な分野での利用が期待されて
いる。
そしてニューラルネットの性能を引き出すために必要と
されるニューロンのハードウェア化の実現が待たれてい
る。
第9図はニューロンモデルのブロック図である。
ニューロンモデルはニューラルネットの各ノードにあた
る処理要素であり、ユニ・ノドと呼ばれている。神経回
路網、すなわちニューラルネ・ノドの場合には、ユニッ
トと伝達線とを合わせてニューロン、すなわちユニット
と呼び、伝達線とユニ・ノドとの結合点をシナプス結合
と呼ぶこともある。それぞれの結合には重みと呼ばれる
量が付加されている。この重みはユニット間の相互作用
の強さを表すパラメータであって通常W、hでユニ・ノ
ドhからユニットiへの結合とその結合の重みの両方を
さす。ネットワークの学習は通常この重みを変化させる
ことで実現される。ニューラルネ・ノドの全ユニットの
内部状態をネットワークの状態というが、各ユニットで
はX、が内部活性化レベルと呼ばれる内部状態になって
いる。
各ユニットiは前段のユニットからの重み付入力を受け
て、その総和を計算し、その値に適当な非線形関数fを
ほどこしたものを出力とする。すなわち、ニューロンモ
デルは第9図に示すように他のニューロンモデル、すな
わち他のユニットからの出力y6に対して x! =Σ )Ih’W、h+θ  ・ ・ ・ ・ 
・+1))’t  = f(Xt  )       
 ・ ・ ・ ・ ・(2)の処理を行って出力するも
のである。
ここで、y、はユニットhの出力、Yi はユニットi
の出力、Wihはiユニットとhユニット間のリンクの
重み、fは非線形関数、θは闇値である。
ニューラルネットは、このようなユニットをネットワー
ク上に接続したものである。
ニューラルネットにおける学習の方式は種々あり、例え
ば誤り訂正型の方法が使われる。この方式は、ネットワ
ークにある結合の重みのパターンをその時点で与え、も
し、そのパターンが間道っていた場合にはその結合の重
みを修正するという  を与え、ネットワークから出力
された出力値が目繰り返しによって最終的に正しいパタ
ーンを求め  的の解でなければ、この重みパターンを
その誤差るというものである。           
    が小さくなるように変えていくことになる。
〔従来の技術〕
第10図は従来の階層構造ニューラルネットの概念図で
ある。同図において、■はニューロンモデルのユニット
、■はシナプス結合のアークで、■1〜I5は入力層の
ユニット、H1〜HIOは隠れ層のユニット、01〜0
4は出力層のユニットである。入力層の各ユニット11
〜!5はそれぞれ後段のユニッ)H1〜HIOに共に接
続され、例えば11はH1〜HIOにすべて接続された
完全グラフになっている。このように、ニューラルネッ
トを階層化することにより、例えば、出力層における出
力信号と帰還信号との2乗誤差を最小にするように、出
力層から逆向きに入力層に向かって、結合の重みを修正
していくという誤り逆伝搬学習の法則が利用できる。す
なわち、学習時には例えば結合における重みとして適当
なパターン〔発明が解決しようとする課題〕 従来の階層構造のニューラルネットは各層をそれぞれ別
にハードウェアで実現していたため、多量のユニット配
置と膨大なユニット間接続を必要とし、従って、多くの
ハード量と非常に複雑な回路とを必要とする、という問
題点が生じていた。
本発明は、単層のハードウェアを時分割多重化使用して
等価的に多層化することを可能とすることを目的とする
〔課題を解決するための手段〕
第1図は本発明の構成図である。複数のニューロンモデ
ルを相互に接続することにより形成されるニューラルネ
ットにおいて、時分割多重化アナログ信号3を外部から
のデジタル重みデータ4との積を生成し、かつその積を
時分割的にコンデンサを介して加えることにより積分し
、単層ユニット集合手段6は非線形出力関数を通した電
圧を時分割的に出力することを可能とするニューロンモ
デルのユニット5を複数設置して単層のユニット集合を
形成し、帰還手段7は前記単層ユニット集合手段6の出
力を同じ単層ユニット集合の入力部に帰還し、制御手段
8は前記単層ユニット集合手段6から出力される各ユニ
ット5からのアナログ信号を時分割多重化し、さらに前
記帰還手段7を介して前記単層ユニット集合手段6を時
分割多重使用するための制御を実行し、単層構造のユニ
ット集合手段6を時分割多重使用することにより等価的
に階層構造のニューラルネットを形成することを特徴と
する。
〔作   用〕
本発明のニューラルネットでは、単層のユニット集合の
ハードウェアを時分割多重使用することにより、等価的
に階層構造ニューラルネットを形成している。さらに、
ニューラルネットにおいて、ユニット間の結合重みを可
変にできる。
〔実  施  例〕
次に本発明の実施例を図面を参照して説明する。
第2図は、本発明の階層構造ニューラルネ7)の構成の
概念図である。同図において、Ul、U2、U3は単層
のニューロンすなわちユニット集合である。各ユニット
から出力される出力信号は同じバスに接続された帰還手
段7によって帰還され同じユニット集合の入力になる構
造で、本発明では単層のユニッ)Ul〜U3を時分割多
重化使用して等価的に階層構造ニューラルネットを構成
するものである。
第3図は、本発明のユニ・ノドの入出力電圧の波形を示
すタイミング図である。
本発明のユニットでは、積和に対応する振幅を有するパ
ルス電圧(D+、Dz、Di)と重みデータ(Wt、W
t、W3)を時分割で入力し、内部T: W ID +
+W、D2+W、D3の積和を求め、さらにその結果を
非線形関数演算し、CS、、がハイレベルのとき、その
結果り。Uアを出力する。そして、C3outの出力制
御信号を出す。本発明では、この動作を単層のユニット
集合のみを何度も使用し、等価的に多層化するものであ
る。
第4図は第2図の本発明のニューラルネットで実現され
る等価的な階層構造ニューラルネットの概念図である。
また第5図は第2図の本発明の時分割多重化使用ニュー
ラルネットの伝送波形の詳細なタイミングチャートであ
る。
第2図におい、て、Wデータ1、Wデータ2、Wデータ
3はユニットU1、U2、U3にそれぞれ入力する可変
の重みデータである。まず第5図のタイムチャートに示
されるように、データ入力線データからユニットU1、
U2、U3にそれぞれYDl、YD2、YD3が与えら
れ、それとともにユニッ)Ul、U2、U3にそれぞれ
重みデータWデータ1、Wデータ2、Wデータ3が時分
割的に与えられる。すなわち、YDIと同時にWデータ
1がユニット11に時刻I0与えられ、次の時刻T、に
おいてYD2とWデータ2がユニットI2に与えられ、
次の時刻T2にYD3とWデータ3とがユニットI3に
与えられ、それぞれ積が計算されさらにシグモイド関数
を通る。この場合、本発明を第4図の層構造ニューラル
ネットに写像すると、ユニットの入力層11、I2、I
3がそれぞれ本発明のUl、U2、U3に対応し、入力
電圧と重み電圧との積がそれぞれのユニット11、I2
、I3で実行されることを意味する。第4図のIfユニ
ットで、YDIとWデータ1との積が計算され、さらに
シグモイド関数を通った出力値としてYllが出力され
る。これは、隠れ層のHl、U2に同時に与えられるが
、第2図の本発明では隠れ層に相当するユニットも同じ
ユニットのUl、U2を用いて行われるため、I1に対
応するUlから出力されたYllはフィードバック線か
らなる帰還手段7を介して再び帰還され、Hl、U2に
対応するUl、U2に時刻T、で与えられる。このとき
の重みデータはそれぞれWデータ1、Wデータ2で、同
様にYllとともにHl、U2に対応するUI U2に
与えられる。同様に、第4図では、YD2とWデータ2
との積はI2で計算され、その中にあるシグモイド関数
を介してI2からYI2が出力され、それがHl、U2
に与えられる。これを第2図で説明すれば、I2の処理
はU2で行われるため、U2から出力されるY■2はフ
ィードバック線を介して再び帰還され、Hl、U2に相
当するUl、U2にそれぞれ同時に時刻T、で与えられ
る。同様に、I3において実行されたYD3とWデータ
との積のシグモイド関数出力値はYI3で、これも第4
図では、Hl、U2ともに与えられるため、第2図の本
発明ではHl、U2に対応するUl、U2に同時に時刻
T5において与えられる。
第4図において、Hl、U2に人力されるYll、YI
2、YI3の各々にWデータ1、Wデータ2、Wデータ
3をそれぞれ掛ける掛算動作が実行される。本発明では
、第5図に示されるように、この掛算動作は異なる時刻
T3、I4、T、で実行され、その総和に対するシグモ
イド関数を通した出力値がYHIである。同様にユニッ
)U2においてもYll、YI2、YI3の各々に重み
データWデータ1、Wデータ2、Wデータ3が掛けられ
、その総和がU2で実行されシグモイド関数の値がYH
2となる。この動作は時分割で行われる。
すなわち、後者の場合、YllとWデータ1、YI2と
Wデー夕2、YI3とWデータ3はそれぞれ異なる時刻
T3、T 4 、T sでU2に対応するU2に入力さ
れ、それらの総和のシグモイド関数が出力され、その結
果のYH2が出力されるタイミングはYHIと異なり、
時刻T、である。
本発明ではこのように、Hl、U2に対しても同じUl
、U2を用いて時分割処理が実行される。
また、出力層01.02.03も同様に本発明ではUl
、U2、U3を用いて実行される。すなわち、第5図に
示されるように、Hlに対応するUlから出力されるア
ナログ電圧YHIは01.02.03に対応するUl、
U2、U3に時刻T。
において入力され、U2に対応するU2からの出力YH
2は01.0,2.03に時刻Tマにおいて与えられる
。すなわち、本発明ではHlと01は同じユニットU1
であり、H2と02は同じユニットU2であり、03は
U3に対応するため、YHlと重みとの積は01.02
.03に対応するUl、U2、U3において同時に行わ
れる。YH2と重みデータとの積は異なる時刻T、にお
いて01.02.03に対応するUl、U2、U3で同
時に行われる。そして01.02.03に対応するUl
、U2、U3の各ユニットにおいて、積和がTbとT、
で計算されシグモイド関数を通した出力値としてYOI
、YO2、YO3が時刻Tll、T9、TIOにおいて
出力される。なお、第5図に示される制御信号C3I、
C32、C33、CS4は入力信号と重みデータとの積
をとりシグモイド関数を出すまでの計算の実行を可能と
する制御信号であり、例えば、C3IはUlが実行状態
となるときに1となるパルスである。そのためYll、
YHI、YOIがそれぞれ、時刻T3、TいT8で入力
され、それに対応する重みデータが入力されているとき
に1となっているパルス)言号である。同様にC32は
YI2、YH2、YO2がU2に入力されているときに
1となるパルス信号で、C33はYI3、YH3、YO
3がU8に入力されているときに1となるパルス信号で
ある。
また、制御信号C34はユニットU3から出力されるも
ので、U3の演算実行後に出されるパルスとなる。
このように本発明では、単層のユニット集合を時分割多
重使用して等価的に階層構造のニューラルネットを構成
するものである。
第6図は本発明のユニットのブロック図である。
(1)部は入力部である。入力信号は前時刻の複数のユ
ニットから出力された時分割アナログ入力である。この
入力パルス電圧は、入力インピーダンスが無限大で、出
力インピーダンスが0である1倍のアンプすなわち、バ
ッファで整形され、出力されるが、この入力部にオフセ
ットキャンセル機能がある。オフセントキャンセル制御
部からオフセットコントロール信号が与えられると、オ
フセットキャンセル部を介してそのバッファに強制的に
O電圧が入力され、次段に接続される各部のオペアンプ
の出力にオフセント電圧を発生させ、後述する機能によ
りオフセントをキャンセルするようにしている。
(n)部は掛算部である。入力部から出力された時分割
アナログ信号の各アナログ信号パルス電圧を正負切換回
路に入力し、デジタル重みデータの符号ピッ)(SIG
N)に従って興奮性の正電圧または抑制性の負電圧に切
り換え、D/Aコンバータに人力する。D/Aコンバー
タにはデジタル重みデータの数値ビットのMSBからL
SBまで入力され、正負切換回路から出力された電圧を
D/Aコンバータの内部にあるR−2R方式の抵抗回路
に与える。このことにより、数値ビットに対応した重み
電流がR−2R方式の抵抗回路に流れ、結果として、D
/Aコンバータの出力には、アナログ信号とデジタル重
みデータとの積が生成され、バッファから出力される。
この掛算部(n)の機能によりニューロン間の重みが可
変にでき、ニューラルネットの特性を動的に変化させる
ことができ、外部制御によりネットワークの学習が可能
となる。
(III)の部分は加算部である。ここでは、掛算部の
結果、すなわち時分割多重化アナログ信号とデジタル重
みデータとの積の結果の電圧は積分器に入力されるが、
入力される信号は振幅値の異なるパルス電圧であり、こ
れが時分割で入力されるので、時分割加算制御部の制御
に従って次段の積分器の内部にあるコンデンサにそのア
ナログ信号とデジタル重みデータとの積の和が貯えられ
る。
さらにオフセントキャンセル制御部の制御に従って入力
電圧を強制的に0にした時のコンデンナの電圧をスイッ
チによって反転させ、実際の入力が加算された結果から
このオフセント電圧を引くことによりオフセット電圧を
キャンセルしている。
この回路によって精度が低下することを防いでいる。
(TV)の部分はサンプル/ホールド部である。
積分器の出力が(IV)部のサンプル/ホールド部に入
力され、コンデンサにその値がホールドされるが、ここ
でも、オフセットキャンセル機能を持たせている。すな
わちオフセントキャンセル制御部からの制御に従って次
段の回路に発生するオペアンプのオフセット電圧をオフ
セットキャンセル部にフィードバックし、そのオフセッ
ト電圧をキャンセルするようにしている。
(V)の部分はシグモイド関数発生回路で、サンプル/
ホールド部においてサンプル/ホールドされたアナログ
信号とデジタル重みデータとの積の和がシグモイド関数
回路に入力される。
(Vl)の部分はの出力部である。本発明ではユニット
から次の時刻へのユニット(ただし、同一の層にある)
へは必ず時分割のアナログ電圧で伝送するため、出力制
御部に入力される出力制御入力信号の制御により、シグ
モイド関数によって生成された出力電圧は時分割アナロ
グ出力部によって適当な時間に出力される。また、ユニ
ット間の相互の時間間隔を制御するために出力制御出力
信号が外部に伝送される。
第7図は、本発明のニューラルネットのユニットの詳細
図である。本発明のユニットでは入力部(I)、掛算部
(■)、加算部(■)、サンプル/ホールド部(■)、
非線形関数部(■)、及び出力部(Vl)から構成され
ている。
入力部(1)はオフセットキャンセル部11と、1倍の
バッファ9から構成されている。1倍のバッファ9はオ
ペアンプの出力を一端子にフィードバックし、十端子に
入力電圧を人力することによって構成される。データ入
力はアナログの時分割されたパルス信号である。OCは
オフセットコントロール信号であり、これが1のときア
ナログスイッチ26がオンし、1倍のバッファ9には、
0電圧が強制的に設定される。一方、オフセットコント
ロール信号oCが、0のときアナログスイッチ26はオ
フされ、アナログスイッチの他方25がオンし、データ
入力が1倍のバッファ9に入力される。すなわち、オフ
セットコントロール信号OCが1である場合には、ニュ
ーロンモデルのユニットにはOボルトが強制的に入力さ
れて次段の回路のオペアンプの出力に生じるオフセット
電圧に対するオフセットのキャンセルの動作を行うよう
にしている。
正負切換回路12は2つの倍数器をカスケード結合して
構成されている。倍数器では入力抵抗(10にΩ)とフ
ィードバック抵抗(IOKΩ)によって10/10、す
なわち1倍の電圧の反転したものが形成され、それを1
段だけを通すか、2段を通すかによってアナログ電圧の
符号を決定している。
その制御電圧はデジタル重みデータの符号ビット(SI
GN)であり、この5IGNビツトはMOSスイッチ3
0のゲートに接続されている。符号ビットが1である場
合に入力部からの入力電圧は第1段目の倍数器で反転さ
れ、さらにスイッチ27もオンしているので後段の倍数
器も通り、結果として正相となる。また符号ビットがO
である場合には、反転回路28を介して、スイッチ29
がオンとなる。この時スイッチ27と30はオフしてい
るため、入力部からの入力電圧はスイッチ29を介して
後段のオペアンプ31の一端子に入力される。従って、
前段の抵抗32と後段のオペアンプのフィードバックの
抵抗33とによって倍数器が形成され、1倍された形で
反転される。すなわち、符号ビットの正負によって入力
部の入力が正または負の電圧として形成され、これが、
興奮性と抑制性のシナラプス結合に従った電圧となる正
負切換回路12からの出力は掛算部の中にあるD/Aコ
ンバータ13のR−2R低抵抗路網の34の点に入力さ
れる。
R−2R方式のD/Aコンバータをまず説明する。
MSBからLSBまでのデジタル重みによって内部のス
イッチはオンまたはオフをとる。デジタル値が1である
場合に、電流は右側のスイッチ35を通って、オペアン
プ36の仮想接地点37′に流れ込む。オペアンプ36
の仮想接地点37′は+端子と同じ電圧になるように制
御され、これがグランドであるから仮想的な0ボルトで
ある。スイッチの状態に関わらず、2Rの抵抗には電流
が流れ、デジタル値の値に従ってその2Rに流れる重み
電流が仮想接地点37′の方に流れるかどうかが決定さ
れる。1香石の2Rに流れる電流をiとする。右から2
番目すなわちLSBに対応する2Rは1番台の2Rに係
る電圧を2Rで割った値であるから2Rxj÷2Rでi
となる。従って1番台の横方向のRには電流1711(
流れる。右から3番目の2Rには2Rxi+Rx21の
電圧がかかり、これを2Rで割るから21の電流が流れ
る。
以下同様で左に行くに従って4i、8iとなって2のべ
き乗で増える電流になる。この2のべき乗になった重み
電流をオペアンプの方に流すか流さないかを決めている
のがMSBからLSBである。
従って、デジタル重みに対応する電流か2のべき乗の形
で仮想接地に入りこみ、オペアンプの入力インピーダン
スは無限大であるから、この電流がオペアンプ36の帰
還抵抗37に流れる。従って、出力電圧■。。、は入力
電圧をEとすれば、+ ・ ・ ・ +2”−’  X
DII−1)となる。ここで、DoはLSBで、D□1
がMSBであるとする。すなわち、掛算部の出力は入力
電圧に重みを掛けた値になっている。その重み係数はM
SBからLSBに入力されるデジタル値で制御されるこ
とになる。
次に加算部(III)を説明する。加算部(III)は
38のR7と帰還キャパシタC7による積分器である。
加算部の入力部には時分割加算制御部15があり、サン
プル/ホールド信号S/H信号が1のとき掛算部の出力
電圧がオペアンプの仮想接地点39に人力され、S/H
信号が0のとき反転回路40によりスイッチ41がオン
となって掛算部の出力がR1を介してグランドに接続さ
れるので加算部の帰還キャパシタCTには加算されない
ことになる。今、S/H信号が1のとき、掛算部の出力
電圧はR7を介してオペアンプ39の一端子に入力し、
入力電圧をR7で割った電流が仮想接地を介して帰還キ
ャパシタCTの方に入力される。
キャパシタC1を含む積分回路の帰還回路42には4つ
のスイッチを用いてオフセットキャンセル機能が付加さ
れている。今オフセットコントロール信号OCが1にな
ったとすると、スイッチ43と44がオンで、45と4
6がオフとなる。オフセットコントロールOCは入力部
2にも入力され、これが1である場合にはデータ入力は
強制的には0にされる。この場合、正負切換回路及び掛
算部のD/Aコンバータを介してもしオフセットがなけ
れば、D/Aコンバータの出力は0ボルトとなる。しか
し、オペアンプがあるためにオフセット電圧が生じ、そ
のオフセット電圧が加算部のC?に蓄えられる。オフセ
ントコントロール信号OCが0のときには、データイン
プットに入力電圧が与えられ、それに対応する掛算部の
出力がRtを介してCTに入力される。この場合、前の
オフセットコントロール信号が1である場合と違ってC
7の十−の極性は逆である。そのため、入力信号が入力
されたときに生じるオフセント電圧はOCを1にするこ
とにより、CTの極性が変わり、結果として、オフセッ
トがキャンセルされることになる。なお、スイッチ47
はリセット信号によって制御され、リセット信号が与え
られた場合に、加算部の出力を強制的にOにリセットす
るものである。
加算部(III)の出力はサンプル/ホールド回路5の
入力となる。サンプル/ホールド部5では、サンプル/
ホールド制御信号S/HOIJTが1である場合に、ス
イッチ48を介して加算部4の出力がコンデンサChに
蓄えられる。S/HouT信号が1である場合には、反
転回路54′によってスイッチ50の制御信号はOとな
り、コンデンサChの一方の端子はグランドに接地され
ず、スイ・7チ51がオンになることによりユニットの
最終出力データの信号がそのスイ・ノチ51を介・して
入力される。すなわち、その時の最終出力信号がフィー
ドバックされてコンデンサC6の下側に与えられる。従
って、Chのコンデンサには、加算器の出力から最終出
力データの値を引いた電圧が保持される。一方S/Ho
ur制御信号が00ときには、スイッチ49と50がオ
ンし、コンデンサChの下側はグランドとなり、結果と
してChに蓄えられた電圧、すなわち加算部の出力から
最終出力値を引いた電圧値がスイッチ49を介して1倍
のオペアンプの+側に人力される。そしてバッファ53
を介してシグモイド関数の入力となる。また、S/Ho
uT制御信号が1のときスイッチ48がオンし、Chに
は加算器の出力値と最終出力値との差の電圧が蓄えられ
ているときには、スイッチ52がオンしている。そのた
めバッファ53には0ボルトが強制的に入力される。こ
の時にシグモイド関数及びオペアンプを介してデータア
ウトにはオフセット電圧が生成される。これがスイッチ
51を介してChの下側に入力される。従ってS/)(
ou↑制御信号がOの時点、すなわちスイッチ49がオ
ンでスイッチ52がオフである場合には、C1に蓄えら
れた電圧、すなわち(加算部の出力−オフセット電圧)
がバッファ53とシグモイド関数を介して最終出力にな
るが、オフセットコントロール信号OCが1になると、
この時に生成されるオフセット電圧もΔVであるから結
果としてオフセット電圧がキャンセルされることになる
シグモイド関数を生成する非線形関数部(V)は非線形
回路選択制御部22があり、Se151g信号を1にす
るとスイッチ55がオンし、シグモイド関数がオペアン
プ56に入力される。しかし、Se151g信号がOの
時には反転回路57を介してスイッチ58の制御信号が
1となってそれがオンし、シグモイド関数の出力はカッ
トされる。すなわちSe151g信号がOの時には、サ
ンプル/ホールドの出力電圧がシグモイド関数を介さず
に直接オペアンプ56に入力される。オペアンプ56は
本質的には出力を一端子に直接帰還する1倍のオペアン
プでバッファの働きをする。
すなわち出力インピーダンスをOにするバッファとなる
出力部(Vl)には時分割アナログ出力部24と出力制
御部23が接続されている。C3lNが1のときにはス
イッチ59がオンで、スイッチ61もオンであるため、
最終出力値が一端子にフィードバックされて、1倍のオ
ペアンプとして働く。それと同時に最終出力値がサンプ
ル/ホールド部5にフィードバックされる。一方、C3
lNが0のときスイッチ60がオンになり、スイッチ6
1がオフになる。すなわちバッファ56の出力はデータ
アウト線には出力されないことになる。しかし、スイッ
チ60がオンすることによって1倍のバッファを形成す
るようにしているため問題なく実行される。出力制御部
23はC3lNによって出力パルス電圧を伝達するかど
うかを決める回路である。
このC3lNをデイレイ回路を介してC3outにし、
他のユニット(ただし、同じ層にある)に対する出力ア
ナログ信号の時間タイミングを決定することになる。す
なわち、本発明では出力部からのアナログ信号は時分割
で伝送されるため、他のユニットからのアナログ信号と
競合しない。
第8図は本発明のニューロボードのブロック図である。
同図において、62はバスインターフェース部で、ニュ
ーロボードとシステムとのインターフェースを行うもの
、63は入出力制御部でネットワーク部へのデータの入
出力を制御するもの、64はネットワーク部で単層のユ
ニット集合で時分割多重使用により等価的に階層構造の
ニューラルネットが形成されているもの、65はメモリ
でニューラルネットのデジタル重みデータを格納するも
の、66はネットワーク制御部でネットワークの単層構
造を時分割多重使用により多層化するための同期制御信
号を出力する制御部である。
本発明のニューロボードでは、ネットワーク制御部66
でユニット総数よりネットワーク構造を決定し、かつユ
ニットの重みはメモリ65より出力され、学習時に刻々
と変わる重みデータもこのメモリに入力される。またネ
ットワーク64へのデータ入出力は入出力制御部63よ
り行われ、結果として層構造ニューラルネットの学習及
び実行処理がニューロボードレベルで行われる。
〔発明の効果〕
本発明によれば、単層のユニット集合のみのハードウェ
ア構成で、等価的に階層構造のニューラルネットを実現
することができ、従って大量のユニット配置とユニニッ
ト間接続を必要とせず、極めて実用的なニューラルネッ
トを構成することができる。
【図面の簡単な説明】
第1図は本発明の構成図、 第2図は本発明の階層構造のニューラルネットの概念図
、 第3図は本発明のユニットの入出力電圧の波形を示すタ
イミング図、 第4図は第2図の本発明のニューラルネットで実現され
る等価的な階層構造ニューラルネットの概念図、 第5図は第2図の本発明の時分割多重化使用ニューラル
ネットの伝送波形のタイミングチャート、第6図は本発
明のユニットのブロック図、第7図は本発明のニューラ
ルネットのユニットの詳細図、 第8図は本発明のニューロボードのブロック図、第9図
はニューロンモデルのブロック図、第10図は従来の階
層構造ニューラルネットの概念図である。 3 ・・・ 時分割多重化使用アナログ信号4 ・・・
 デジタル重みデータ 5  ・ ・ ・ 6  ・ ・ ・ 7  ・ ・ ・ 8  ・ ・ ・ ■ 1〜■5 1−HIO 01〜04 ・・・ 出力層のユニット 入力層のユニット ユニット 単層ユニット集合部 帰還部 制御部 隠れ層のユニット

Claims (1)

  1. 【特許請求の範囲】 1)複数のニューロンモデルを相互に接続することによ
    り形成されるニューラルネットにおいて、時分割多重化
    アナログ信号(3)を外部からのデジタル重みデータ(
    4)との積を生成し、かつその積を時分割的にコンデン
    サを介して加えることにより積分し、非線形出力関数を
    通した電圧を時分割的に出力することを可能とするニュ
    ーロンモデルのユニット(5)を複数設置して単層のユ
    ニット集合を形成する単層ユニット集合手段(6)と、 前記単層ユニット集合手段(6)の出力を同じ単層ユニ
    ット集合の入力部に帰還する帰還手段(7)と、 前記単層ユニット集合手段(6)から出力される各ユニ
    ット(5)からのアナログ信号を時分割多重化し、さら
    に前記帰還手段(7)を介して前記単層ユニット集合手
    段(6)を時分割多重使用するための制御を実行する制
    御手段(8)とを有し、 単層構造のユニット集合手段(6)を時分割多重使用す
    ることにより等価的に階層構造のニューラルネットを形
    成することを特徴とする階層構造ニューラルネット。 2)請求項1記載のニューラルネットにおいて、ユニッ
    ト間の結合重みを可変にできることを特徴とする階層構
    造ニューラルネット。
JP63215102A 1988-08-31 1988-08-31 階層構造ニューラルネット Expired - Fee Related JP2679730B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP63215102A JP2679730B2 (ja) 1988-08-31 1988-08-31 階層構造ニューラルネット
FI894021A FI894021A (fi) 1988-08-31 1989-08-28 Neuronstruktur.
US07/400,826 US5220559A (en) 1988-08-31 1989-08-30 Neuron architecture
DE68928978T DE68928978T2 (de) 1988-08-31 1989-08-30 Neuronarchitektur
EP89115978A EP0357016B1 (en) 1988-08-31 1989-08-30 Neuron architecture
KR1019890012588A KR930002792B1 (ko) 1988-08-31 1989-08-31 뉴우런 아키텍쳐(neuron architecture)
AU40999/89A AU626912B2 (en) 1988-08-31 1989-08-31 Neuron architecture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63215102A JP2679730B2 (ja) 1988-08-31 1988-08-31 階層構造ニューラルネット

Publications (2)

Publication Number Publication Date
JPH0264787A true JPH0264787A (ja) 1990-03-05
JP2679730B2 JP2679730B2 (ja) 1997-11-19

Family

ID=16666787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63215102A Expired - Fee Related JP2679730B2 (ja) 1988-08-31 1988-08-31 階層構造ニューラルネット

Country Status (1)

Country Link
JP (1) JP2679730B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5165010A (en) * 1989-01-06 1992-11-17 Hitachi, Ltd. Information processing system
US5214743A (en) * 1989-10-25 1993-05-25 Hitachi, Ltd. Information processing apparatus
US7028271B2 (en) 2002-11-06 2006-04-11 Canon Kabushiki Kaisha Hierarchical processing apparatus
US7978905B2 (en) 2007-06-13 2011-07-12 Canon Kabushiki Kaisha Calculation processing apparatus and control method thereof
US7991719B2 (en) 2004-06-03 2011-08-02 Canon Kabushiki Kaisha Information processing method and apparatus, and image pickup device
JP2019531535A (ja) * 2016-08-05 2019-10-31 ザイリンクス インコーポレイテッドXilinx Incorporated プログラマブル集積回路上のバイナリニューラルネットワーク

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
JP4846924B2 (ja) 2001-05-31 2011-12-28 キヤノン株式会社 パターン認識装置
JP4780921B2 (ja) 2004-03-17 2011-09-28 キヤノン株式会社 並列パルス信号処理装置、及びその制御方法
JP5184824B2 (ja) 2007-06-15 2013-04-17 キヤノン株式会社 演算処理装置及び方法
JP5368687B2 (ja) 2007-09-26 2013-12-18 キヤノン株式会社 演算処理装置および方法
JP2017139646A (ja) * 2016-02-04 2017-08-10 リコーイメージング株式会社 撮影装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5165010A (en) * 1989-01-06 1992-11-17 Hitachi, Ltd. Information processing system
US5214743A (en) * 1989-10-25 1993-05-25 Hitachi, Ltd. Information processing apparatus
US7028271B2 (en) 2002-11-06 2006-04-11 Canon Kabushiki Kaisha Hierarchical processing apparatus
US7991719B2 (en) 2004-06-03 2011-08-02 Canon Kabushiki Kaisha Information processing method and apparatus, and image pickup device
US7978905B2 (en) 2007-06-13 2011-07-12 Canon Kabushiki Kaisha Calculation processing apparatus and control method thereof
US8385631B2 (en) 2007-06-13 2013-02-26 Canon Kabushiki Kaisha Calculation processing apparatus and control method thereof
JP2019531535A (ja) * 2016-08-05 2019-10-31 ザイリンクス インコーポレイテッドXilinx Incorporated プログラマブル集積回路上のバイナリニューラルネットワーク

Also Published As

Publication number Publication date
JP2679730B2 (ja) 1997-11-19

Similar Documents

Publication Publication Date Title
AU626912B2 (en) Neuron architecture
KR940001173B1 (ko) 뉴로 컴퓨터
US5063601A (en) Fast-learning neural network system for adaptive pattern recognition apparatus
JPH0264787A (ja) 階層構造ニューラルネット
GB2287820A (en) Neural network
US5857178A (en) Neural network apparatus and learning method thereof
Abdelbaki et al. Analog hardware implementation of the random neural network model
JPH03250243A (ja) 神経回路網演算装置
Beerhold et al. Pulse-processing neural net hardware with selectable topology and adaptive weights and delays
JPH04149663A (ja) 逆モデル生成方法および該方法による制御システム
JPH0547870B2 (ja)
JPH07113942B2 (ja) ニューロチップによる結合器
JPH0266688A (ja) ホップフィールドネット
JP3130326B2 (ja) 階層ネットワーク構成演算素子
Tang et al. Backpropagation learning in analog T-model neural network hardware
JP2517662B2 (ja) 連鎖制御装置
JPH04216160A (ja) ニュ−ラルネットワ−ク回路
Ishida Control by a policy-and-experience-driven neural network
JP2752109B2 (ja) 集積回路及び半導体装置
JP3262340B2 (ja) 情報処理装置
JP3256553B2 (ja) 信号処理装置の学習方法
JPH03265077A (ja) フィードバック神経細胞モデル
SU734798A1 (ru) Модель мышцы
JPH05307624A (ja) 信号処理装置
JP2544489B2 (ja) ニュ―ラルネットワ―クモデルの学習方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees