JPH0467258A - ニューラルネットワーク回路 - Google Patents

ニューラルネットワーク回路

Info

Publication number
JPH0467258A
JPH0467258A JP2179666A JP17966690A JPH0467258A JP H0467258 A JPH0467258 A JP H0467258A JP 2179666 A JP2179666 A JP 2179666A JP 17966690 A JP17966690 A JP 17966690A JP H0467258 A JPH0467258 A JP H0467258A
Authority
JP
Japan
Prior art keywords
circuit
input
neuron
circuits
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2179666A
Other languages
English (en)
Inventor
Kuniharu Uchimura
内村 国治
Osamu Saito
修 斉藤
Yoshihito Amamiya
好仁 雨宮
Atsushi Iwata
穆 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2179666A priority Critical patent/JPH0467258A/ja
Priority to KR1019910011546A priority patent/KR950001601B1/ko
Priority to US07/727,065 priority patent/US5166539A/en
Priority to EP91111435A priority patent/EP0477486B1/en
Priority to DE69119172T priority patent/DE69119172T2/de
Publication of JPH0467258A publication Critical patent/JPH0467258A/ja
Priority to US07/909,993 priority patent/US5353383A/en
Priority to US08/266,691 priority patent/US5467429A/en
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、単位回路である多数のニューロン回路の入出
力端子間を接続することによってネットワーク回路を構
成したニューラルネットワーク回路に関する。
〔従来の技術〕
ニューラルネットワーク回路は生物の神経回路網をモデ
ル化して、従来のノイマン形計算機では難しかった文字
認識や音声認識などのパターン認識処理、最適化問題、
ロボット制御などを実現するものである。従来のノイマ
ン形計算機ではプログラムに従って逐次処理するため計
算時間が膨大だったのに対して、ニューラルネットワー
ク回路ではニューロン回路が並列に演算を実行できるの
で処理速度が極めて高速になる特徴がある。また、ニュ
ーラルネットワーク回路の機能は、学習によってニュー
ロン間の接続状態を変えることによって実現される。こ
のため、処理手順がルール化しにくい問題でも学習教材
さえあれば機能を実現できる特徴がある。学習を常に行
いながら動作させると、環境の変化によって時間ととも
に望ましい機能が変化しても、それに追従することがで
きるなどの柔軟なシステムが構築できるものである。
さらに、同一のニューロン回路を多数接続してネットワ
ークを構成するため、故障した回路があっても他の正常
な回路に簡単に置き換えて動作できるので、LSI化す
る場合などに高い欠陥耐性を実現できる。本発明はこの
ようなニューラルネットワーク回路をLSI化する場合
に適し、回路規模と消費電力の小さいニューロン回路の
構成法に関するものである。
ニューラルネットワーク回路は神経細胞に相当するニュ
ーロン回路を単位として、ニューロン回路を多数接続し
て構成される。第6図に、1個のニューロン回路の記号
を示す。1個のニューロン回路は、複数の入力端子から
の信号を受けて、それぞれの入力信号に対して荷重係数
を持っており、荷重係数に応じて結合の強さを変えたり
、入力との誤差を計算し、その結果を全て加算して出力
を決定する。このニューロン回路の接続によりニューラ
ルネットワーク回路の構造がきまるが、最も簡単な構造
は第7図に示すような2層構造のニューラルネットワー
ク回路である。入力端子の層を入力層あるいは第1層、
ニューロン回路の層を第2層あるいは出力層と言ってい
る。それぞれの入力端子の信号は全てのニューロン回路
に並列に入力されており、それぞれにニューロン回路は
並列に入力信号を処理できるようになっている。入力信
号が加えられると、特定のニューロン回路が反応して認
識などの処理が実現される。
しかし、2層構造のニューラルネットワークでは処理能
力はあまり大きくないので、一般的には、第8図に示す
ような3層構造のニューラルネットワークを使う場合が
多い。3層構造の場合には、第2層のニューロン回路の
層を中間層あるいは隠れ層、第3層のニューロン回路の
層を出力層と呼んでいる。この第3層は第2層のニュー
ロン回路の出力を入力として、第2層と全く同じ構造を
持つ場合と異なる構造を持つ場合がある。同じ構造の場
合にはそれぞれの中間層の出力信号は全ての出力層のニ
ューロン回路に入力されるが、第8図に示すように出力
層のニューロン回路をOR論理処理のみの簡単な構造に
することができる。この場合には、中間層の出力は1個
の出力層のニューロン回路に接続されるだけなので回路
規模は大幅に低減できるとともに、パターン認識などに
使う場合には十分な能力を維持している。しかし、複雑
な処理に対応するためには、ネットワークの構造も複雑
なものが使用されるのが一般的であり、ニューロン回路
の出力が帰還されたり、3層以上の多層構造が使用され
たり、複数のネットワーク回路を組み合わせたりされる
従来のニューラルネットワーク回路で使用されていたニ
ューロン回路を第9図に示す。n個の入力に対応して、
n個の荷重係数(w 1 % wn)を持ち、減算回路
は入力信号と荷重係数の差を求め、その結果を2乗回路
で2乗して、それぞれの入力と荷重係数に対する演算結
果を全て加算回路によって累積し、その結果の平方根の
大きさによって出力値が決定される。出力値を最終的に
決定する閾値回路は、第10図(a)〜(C)に示すよ
うな伝達特性をもっている。(a)はステップ関数形、
(b)は折線形、(c)はシグモイド関数形である。第
10図(c)のシグモイド関数形がもっとも汎用性が高
いが、演算が複雑であるので、(a)、(b)のような
簡単化したものも使用できる。
〔発明が解決しようとする課題〕
第9図のニューロン回路を用いて、第8図の3層構造の
ネットワーク回路を構成したものはパターン認識等に使
用される。第3図の構成で中間層のニューロン回路の個
数をh個、入力層の入力端子数をn個とすると、荷重係
数はn−h個だけ存在し、この個数だけ減算回路と2乗
回路が必要になる。パターン認識の対象数が多くなるに
ともなって中間層のニューロン数りは大きくなるため、
極めて多数の減算回路と2乗回路が必要になることがわ
かる。特に、ディジタル回路でニューラルネットワーク
回路を実現する場合には、乗算回路を使う2乗回路の回
路規模が極めて大きいため、装置が極めて大型化したり
、多数のニューロン回路をLSI化できない欠点があっ
た。また、2乗回路は回路規模だけでなく、消費電力も
大きな回路であり、極めて多数の2乗回路が同時に動作
することによって全体の消費電力は極めて大きくなる欠
点もあった。
本発明の目的は、従来の2乗回路を使用していたニュー
ロン回路で構成されたニューラルネットワーク回路と同
等の機能を持ち、回路規模と消費電力の低減を図ったニ
ューラルネットワーク回路を実現することにある。
〔課題を解決するための手段〕
上記の目的を解決するために、本発明は、n個の入力端
子と(nは1以上の整数)、上記入力端子のそれぞれに
対応するn個の荷重係数と、入力信号と上記荷重係数の
差を求める減算回路と、上記減算結果の絶対値を求める
絶対値回路と、上記絶対値演算の結果の全てを累積する
加算回路と、上記累積結果が入力される閾値回路とを有
し、かつ上記閾値回路の出力値を出力信号とするニュー
ロン回路を単位回路として、多数の上記ニューロン回路
の入呂力端子間を接続することによってネットワーク回
路を構成し、上記ネットワーク回路に入力されたm個(
mは1以上の整数)の入力信号に対してそれぞれ独自の
上記荷重係数を持つ上記ニューロン回路が演算を実行し
、上記ネットワーク回路内の全て、または一部の上記ニ
ューロン回路の出力値を上記ネットワーク回路の出力信
号とし、それぞれの上記ニューロン回路の上記荷重係数
と上記閾値回路の閾値の大きさによって上記ネットワー
ク回路の機能を制御することを特徴とする。
[作用] 本発明は、従来形のニューロン回路で使用していた2乗
回路を、同様な機能を有し、回路規模の小さい絶対値回
路に置き換えることにより2乗回路を不要にしたので、
回路規模と消費電力の低減を図ることができる。
[実施例] 本発明のニューロン回路の一例を第1図に示す。
n個の入力に対応して、n個の荷重係数(wl〜w n
 )を持ち、減算回路は入力信号と荷重係数の差を求め
、その結果を絶対値回路に入力し、それぞれの入力と荷
重係数に対する絶対値回路の出力を全て加算回路によっ
て累積し、その結果によって出力値が決定される。出力
値を最終的に決定する閾値回路は、従来回路と同様に第
10図(a)〜(c)に示すような伝達特性をもってい
る。第9図の従来のニューロン回路と比較すると、2乗
回路が絶対値回路に置き変わり、平方根回路が省略され
ている点が異なっている。
第9図の従来のニューロン回路あるいは第1図の本発明
のニューロン回路を用いて、第8図のネットワーク回路
を構成したものはパターン認識に多く使用される。入力
層に入力されたパターンによってニューロン回路が反応
して認識を行う。入力信号の数に応じた次元数の多次元
空間を認識する多数の領域に区切るようにニューロン回
路の荷重係数が決められていると、入カバターンを含む
領域を形成するニューロン回路が反応する。
入力数が2個の場合、1個のニューロン回路が形成する
領域の形状は、第9図の従来形の場合には第2図に示す
ように円状になる。例えば、入力l、2の値が円内の部
分に含まれる場合にニューロン回路が反応するようにす
るには、荷重係数w1、W2の値を円の中心点に設定し
てベクトルWを決め、閾値回路のスレショルドレベルh
の大きさを半径に設定すればよい。つまり、ベクトルW
と入力ベクトルの距離を計算し、距離がスレショルドレ
ベルh以内であればニューロン回路が反応出力(Low
)を呂している。従って、ベクトルWから等距離になる
半径りの円が境界になる。閾値回路の伝達特性を第1O
図(a)のステップ関数形に設定すると、識別領域の境
界は明確になるし、第10図(b)、(C)の特性に設
定すると境界は幅を持つことになる。入力数が3個の場
合の識別領域は球状になり、4個以上では超球面になる
。識別できる領域数はニューロン回路数が増えるほど多
くなる。また、第8図のように出力層でOR処理を行う
ことにより、識別領域を複数の超球面の集まりとして形
成できるので、多数のニューロン回路を用いれば任意の
形状の識別領域に対応できる。
本発明による第1図のニューロン回路では、入力数が2
個の場合、1個のニューロン回路が形成する領域の形状
は第3図に示すように四角形になる。第1図のニューロ
ン回路では入力と荷重係数の差の絶対値を加算し、その
総和が閾値回路のスレショルドレベルhより小さければ
反応出力を出している。その境界は入力lをX、入力2
をYとすると、 X−wl   +  Y−w2   =hの直線で表わ
される。従って、入力数が2個の場合には第3図のよう
に四角形になり、入力数が3個の場合には8面体になり
、4個以上では越冬面体になる。
本発明と従来回路の識別領域を比較した場合に、識別領
域の形状が異なっている点を除くと全く同じ機能を持っ
ている。任意の形状の識別領域に対応するために複数の
ニューロン回路を使う場合、超球面でも越冬面体でも接
するように並べたのでは隙間ができるので重なりを作る
必要がある。重なった部分については2種類のニューロ
ン回路の識別領域の形状の差はあまりなくなる。つまり
、任意の形状の表面のでこぼこの形状が異なるに過ぎな
いので2種類のニューロン回路の識別領域の形状の違い
による性能の差はほとんど無いと考えられる。以上説明
したように、本発明のニューロン回路は従来のニューロ
ン回路とほとんど同じ機能を持っていることが明らかで
ある。
ディジタル回路によってニューラルネットワーク回路を
実現する場合のニューロン回路の構成例は従来形では第
4図に示すようになり、本発明では第5図に示すように
なる。第4.5図では1番目の入力と荷重係数に対する
演算回路と1からnまでの演算結果の累積を行うi#目
の加算器のみを示しており、ニューロン回路の入力部分
を示している。第4.5図を比較すると従来回路の2乗
回路と、本発明の絶対値回路の部分が異なっている以外
は同じ構成である。従来回路の2乗回路は乗算器のA、
Bの2個の入力端子に同じ信号を入力することによって
実現されているのに対して、本発明の絶対値回路は第5
図に示すようにEX−OR論理(排他的論理和)ゲート
のみで構成される。入力iと荷重係数wiの差を加算回
路で演算すると、演算結果が正数の場合にはキャリー出
力(Co)がII Q IIになり、演算結果が負数の
場合にはキャリー出力(Co)が“1″になる。2の補
数表示2進ディジタル信号で、負数を正数に変換するに
は各ビット信号を反転して、it I IIを加算すれ
ば良い。従って、上記Coが“l”のときのみEX−O
Rゲートを用いて各ビット信号を反転し、累積を行う加
算回路のキャリー人力(Cin)を利角して“1″の加
算を行うことが可能である。
第4.5図では、信号は4ビツトの2進デイジタルの時
の例であるが、これは図を簡単にするためで、一般的に
は8ビツト以上の精度の2進ディジタル信号が使用され
る。ディジタル信号のビット数をNb1tとすると、加
算回路を構成するのに必要なトランジスタ数Naは次式
で概算できる。
N a =28Nbit また、乗算回路を構成するのに必要なトランジスタ数N
mは次式で概算できる。
Nm=26Nbit” さらに、絶対値回路を構成するのに必要なトランジスタ
数Nzは次式で概算できる。
N z =16Nbit 必要なトランジスタ数を8ビツト、16ビツトの場合を
例に試算してみると、 Nb1t=8の場合、N a =224、N m = 
1664、Nz=128 Nb1t=86の場合、N a =448、Nm=66
56、Nz=256 ビット数が大きくなるにともなって、加算回路や絶対値
回路に比べて乗算回路が極めて大きな回路規模になるこ
とが明らかである。このように、乗算回路を使わない本
発明のニューロン回路では従来形より、大幅に回路規模
を低減できる利点がある。
また、消費電力もほぼ回路規模に比例して増加するので
、大幅な回路規模低減による消費電力の削減効果もある
さらに、乗算回路と絶対値回路の遅延を比較した場合、
乗算回路の遅延時間Tmは1ビツトの加算回路の遅延時
間をTalとすると、Tm=2 Nb1tTalで概算
できるのに対して、絶対値回路の遅延時間は1ビツト加
算回路の遅延時間よりやや小さい程度であるので、乗算
回路より1/(2Nb1t)に低減できることになる。
このように、本発明のニューロン回路は演算時間を大幅
に短縮できる利点もある。
ニューラルネットワーク回路をハード化するとき、必要
なニューロン回路数は応用によって異なるが、一般的に
はニューロン回路数が大きいほど処理能力は向上する。
そのため、LSI化によって多数のニューロン回路を搭
載したニューラルネットワーク回路の実現が期待されて
いる。しかし、チップサイズの制限によって1チツプに
搭載できる回路規模は限られているし、放熱や実装の問
題から1チツプで消費できる電力も制限がある。従って
、LSI化されたニューラルネットワーク回路が実用的
な性能を発揮するために、ニューロン回路の回路規模と
消費電力の低減が最も重要な課題になっている。このた
め、本発明のニューロン回路を用いることにより、ニュ
ーラルネットワーク回路が実用的なレベルまで性能が向
上する効果は極めて大きい。
以上本発明を上記実施例に基づいて具体的に説明したが
、本発明は上記実施例に限定されるものではなく、その
要旨を逸脱しない範囲において種々変更可能であること
は勿論である。
〔発明の効果〕
本発明のニューロン回路では、乗算回路を用いないので
、従来形より大幅に回路規模を低減でき、また、消費電
力もほぼ回路規模に比例して増加するので、大幅な回路
規模低減による消費電力を削減できる。さらに、演算時
間を大幅に短縮できる。
【図面の簡単な説明】
第1図は本発明のニューロン回路の構成例を示す図、第
2図は従来形のニューロン回路の識別領域を示す図(2
人力の場合)、第3図は本発明によるニューロン回路の
識別領域を示す図(2人力の場合)、第4図は従来形の
ニューロン回路の演算回路の構成例を示す図、第5図は
本発明によるニューロン回路の演算回路の構成例を示す
図、第6図はニューロン回路の記号を示す図、第7図は
2層構造のニューラルネットワーク回路の構成を示す図
、第8図は3層構造のニューラルネットワーク回路(O
R処理出力形)の構成を示す図、第9図は従来形のニュ
ーロン回路の構成を示す図、第10図(a)〜(c)は
閾値回路の伝達特性を示す図である。 第1WJ W     入力 第2図 特許出願人 日本電信電話株式会社

Claims (1)

    【特許請求の範囲】
  1. 1.n個の入力端子と(nは1以上の整数)、上記入力
    端子のそれぞれに対応するn個の荷重係数と、入力信号
    と上記荷重係数の差を求める減算回路と、上記減算結果
    の絶対値を求める絶対値回路と、上記絶対値演算の結果
    の全てを累積する加算回路と、上記累積結果が入力され
    る閾値回路とを有し、かつ上記閾値回路の出力値を出力
    信号とするニューロン回路を単位回路として、多数の上
    記ニューロン回路の入出力端子間を接続することによっ
    てネットワーク回路を構成し、上記ネツトワーク回路に
    入力されたm個(mは1以上の整数)の入力信号に対し
    てそれぞれ独自の上記荷重係数を持つ上記ニユーロン回
    路が演算を実行し、上記ネットワーク回路内の全て、ま
    たは一部の上記ニューロン回路の出力値を上記ネットワ
    ーク回路の出力信号とし、それぞれの上記ニューロン回
    路の上記荷重係数と上記閾値回路の閾値の大きさによっ
    て上記ネットワーク回路の機能を制御することを特徴と
    するニューラルネットワーク回路。
JP2179666A 1990-07-09 1990-07-09 ニューラルネットワーク回路 Pending JPH0467258A (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2179666A JPH0467258A (ja) 1990-07-09 1990-07-09 ニューラルネットワーク回路
KR1019910011546A KR950001601B1 (ko) 1990-07-09 1991-07-08 뉴-럴 네트워크 회로
US07/727,065 US5166539A (en) 1990-07-09 1991-07-08 Neural network circuit
EP91111435A EP0477486B1 (en) 1990-07-09 1991-07-09 Neural network circuit
DE69119172T DE69119172T2 (de) 1990-07-09 1991-07-09 Neuronalnetzwerkschaltung
US07/909,993 US5353383A (en) 1990-07-09 1992-07-07 Neural network circuit
US08/266,691 US5467429A (en) 1990-07-09 1994-06-28 Neural network circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2179666A JPH0467258A (ja) 1990-07-09 1990-07-09 ニューラルネットワーク回路

Publications (1)

Publication Number Publication Date
JPH0467258A true JPH0467258A (ja) 1992-03-03

Family

ID=16069756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2179666A Pending JPH0467258A (ja) 1990-07-09 1990-07-09 ニューラルネットワーク回路

Country Status (1)

Country Link
JP (1) JPH0467258A (ja)

Similar Documents

Publication Publication Date Title
Sutradhar et al. Look-up-table based processing-in-memory architecture with programmable precision-scaling for deep learning applications
WO2017200088A1 (ja) ニューラルネットワーク回路及びニューラルネットワーク集積回路
Sharma et al. Area and power efficient 4-bit comparator design by using 1-bit full adder module
Juang et al. Circuit implementation of data-driven TSK-type interval type-2 neural fuzzy system with online parameter tuning ability
Ajit et al. FPGA based performance comparison of different basic adder topologies with parallel processing adder
JP2024530610A (ja) デジタルコンピュートインメモリのための折り畳み列加算器アーキテクチャ
US5016211A (en) Neural network implementation of a binary adder
CN101258464A (zh) 全加器模块和使用该全加器模块的乘法器装置
KR930009066B1 (ko) 다층신경회로망 및 그 회로설계방법
Xie et al. Replacing fuzzy systems with neural networks
JPH0467258A (ja) ニューラルネットワーク回路
CN116523011A (zh) 基于忆阻的二值神经网络层电路及二值神经网络训练方法
Zhang et al. Arithmetic for digital neural networks
KR930009065B1 (ko) 다층신경회로망 및 그 회로설계방법
Uchimura et al. A high-speed digital neural network chip with low-power chain-reaction architecture
Rojas Networks of width one are universal classifiers
US4942549A (en) Recursive adder for calculating the sum of two operands
Ogawa et al. Multiple-input neuron MOS operational amplifier for voltage-mode multivalued full adders
Nehru et al. A shannon based low power adder cell for neural network training
He et al. LSAC: A Low-Power Adder Tree for Digital Computing-in-Memory by Sparsity and Approximate Circuits Co-Design
JPH04295976A (ja) ニューラルネットワーク回路
JP2542107B2 (ja) ニュ―ラルネットワ―ク回路
Talaśka Parallel, asynchronous, fuzzy logic systems realized in CMOS technology
Ramanathan et al. A novel power delay optimized 32-bit parallel prefix adder for high speed computing
Ramanathan et al. Hybrid prefix adder architecture for minimizing the power delay product