JPH04112354A - ニューラルネットワーク回路 - Google Patents

ニューラルネットワーク回路

Info

Publication number
JPH04112354A
JPH04112354A JP2232915A JP23291590A JPH04112354A JP H04112354 A JPH04112354 A JP H04112354A JP 2232915 A JP2232915 A JP 2232915A JP 23291590 A JP23291590 A JP 23291590A JP H04112354 A JPH04112354 A JP H04112354A
Authority
JP
Japan
Prior art keywords
circuit
neuron
input
output
circuits
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2232915A
Other languages
English (en)
Inventor
Kuniharu Uchimura
内村 国治
Osamu Saito
修 斉藤
Yoshihito Amamiya
好仁 雨宮
Atsushi Iwata
穆 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2232915A priority Critical patent/JPH04112354A/ja
Priority to KR1019910011546A priority patent/KR950001601B1/ko
Priority to US07/727,065 priority patent/US5166539A/en
Priority to EP91111435A priority patent/EP0477486B1/en
Priority to DE69119172T priority patent/DE69119172T2/de
Publication of JPH04112354A publication Critical patent/JPH04112354A/ja
Priority to US07/909,993 priority patent/US5353383A/en
Priority to US08/266,691 priority patent/US5467429A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はニューラルネットワーク回路に係り、生物の神
経回路網をモデル化して、従来のノイマン形計算機では
離しかった文字認識や音声認識なとのパターン認識処理
、最適化問題、ロポ・ノド制画なとを実現するニューラ
ルネットワーク回路に関する。
従来のノイマン形計算機ではプログラムに従って逐次処
理するため計算時間か膨大たったのに対して、ニューラ
ルネットワーク回路ではニューロン回路か並列に演算を
実行できるので処理速度か極めて高速になる。また、ニ
ューラルネットワーク回路の機能は学習によってニュー
ロン間の接続状態を変えることによって実現される。こ
の為、処理手順かルール化しにくい問題でも学習教材さ
えあれば機能を実現できる。学習を常に行いながら動作
させると、環境の変化によって時間とともに望ましい機
能が変化しても、それに追従することかできるなどの柔
軟なシステムが構築できる。
さらに、同一のニューロン回路を多数接続してネットワ
ークを構成するため、故障した回路かあっても他の正常
な回路に簡単に置き換えて動作できるので、LSI化す
る場合などに高い欠陥耐性を実現できる。
これにより、ニューラルネットワーク回路をLSI化す
る場合に適し、少数のニューロン回路で高い性能が得ら
れることか望まれている。
〔従来の技術〕
ニューラルネットワーク回路は神経細胞に相当するニュ
ーロン回路を単位として、ニューロン回路を多数接続し
て構成される。
第6図はニューロン回路の記号を示す。1個のニューロ
ン回路は複数の入力端子(xi、x2゜・・・xn)か
らの信号を受ける。ニューロン回路はそれぞれの入力信
号に対して荷重係数を持っており荷重係数に応じて結合
の強さを変えたり、入力との誤差を計算し、その結果を
全て加算して出力yを決定する。
上記ニューロン回路の接続方法によりニューラルネット
ワーク回路の構造か決まる。
第7図は2層構造のニューラルネットワーク回路を示す
。入力端子xi、x2.x3・・・xnて構成される層
を入力層、または第1層という。一方、ニューロン回路
の層を出力層、または第2層という。それぞれの入力端
子の入力信号はすへてのニューロン回路に並列に入力さ
れており、それぞれにニューロン回路は並列に入力信号
を処理できるようになっている。入力層からの入力信号
かニューロン回路に加えられると、特定のニューロン回
路が反応して認識等の処理が行われる。
第8図は3層構造のニューラルネットワーク回路を示す
。しかし、2層構造のニューラルネットワークでは処理
能力はあまり大きくないのて、船釣には第8図に示すよ
うな3層のニューラルネットワークを用いる。このよう
な3層構造の場合には、第2層のニューロン回路の層を
出力層と呼んでいる。この第3層は第2層のニューロン
回路の出力を入力として、第2層と全く同じ構造を持つ
場合と異なる構造を持つ場合かある。同じ構造の場合に
は夫々の中間層の出力信号は全ての出力層がニューロン
回路に入力されるが、第8図に示すように出力層のニュ
ーロン回路をOR論理処理のみの簡単な構造にすること
かできる。同図に示すように、ニューロン回路からOR
ニューロン回路に入力され、夫々の出力光は出力端子z
l。
z2.z3. ・・・zmに出力される。この場合は中
間層の出力は1個の出力層のニューロン回路に接続され
るだけなので回路規模は大幅に低減できるとともに、パ
ターン認識などに使う場合には充分である。
しかし、複雑な処理に対応するためには、ネットワーク
回路を組み合わせて行われる。
従来のニューラルネットワーク回路で使用されていたニ
ューロン回路を第9図、第1O図に示す。
第9図は従来における超球面識別形ニューロン回路の構
成図を示す。入力端子xi、x2・・・xnの入力に対
応して、n個の荷重係数wl、w2.・・・wnをもち
、減算回路91は入力信号と荷重係数の差を求め、その
結果を2乗回路92で2乗し、それぞれの入力と荷重係
数に対する演算結果を全て加算回路93に入力し、累積
を行い、平方根回路94に入力し、その結果の大きさに
よって出力値か決定される。次に閾値回路95を経て出
力端子yより出力される。
第1O図は従来における超球面識別形ニュロン回路の構
成図を示す。
入力端子xi、x2・・・xnの入力に対応して、n個
の荷重係数wl、 w2.・・・wnをもち、減算回路
91は入力信号と荷重係数の差を求め、その結果を絶対
値回路100に入力し、絶対値を計算し、正数に変換し
、それぞれの入力と荷重係数に対する演算結果を全て加
算回路93に入力し、累積を行い、次に閾値回路95を
経て出力端子yより出力される。
閾値回路95は出力値を最終的に決定する。第11図に
閾値回路の伝達特性を示す。伝達特性を表すものとして
同図(C)のシグモイド関数形か最も汎用性が高いか、
同図(A)のステップ関数形、同図(B)の折れ線形の
ように簡単化したものか多く使用される。同図中りの地
点を境にハイレベルになり、それ以上に入力レベルか太
き(なっても出力レベルは変化しなくなる。
第9図、第10図の従来におけるニューロン回路を用い
て、第8図のようなニューラルネットワーク回路を構成
したものはパターン認識に多く使用され、なかでも入力
層に入力されたパターン認識に多く使用される。このニ
ューラルネットワク回路は入力層に入力されたパターン
によってニューロン回路が反応して認識を行う。入力信
号の数に応じた次元数の多次元空間を認識する多数の領
域に区切るようにニューロン回路の荷重係数が決められ
ていると、入カバターンを含む領域を形成するニューロ
ン回路か反応する。
例えば、第9図の従来形における超球面識別形ニューロ
ン回路の構成のように2乗回路を用いている場合には、
入力端子数か2個の場合、1個のニューロン回路が形成
する識別領域の形状は第12図の(A)に示すように、
円状になる。この場合、入力1、入力2の値か円内の部
分に含まれるときにニューロン回路が反応するようにす
るには、荷重係数wl、w2の値を円の中心点に設定し
て、ベクトルWを決め、閾値回路95のスレショルドレ
ベルhの大きさを円の半径に設定すればよい。
つまり、ベクトルWと入力ベクトルの距離を計算し、入
力ベクトルの距離かスレショルドレベルh以内であれば
ニューロン回路か反応出力(Low)を出力している。
従って、ベクトルWから等距離になる半径りの円が境界
になる。また、入力端子数か3個の場合の識別領域は球
状になり、また、入力端子数か4個の場合の識別領域は
超球面になる。
また、第10図の従来における超多面体識別形ニューロ
ン回路の構成において絶対値回路100を用いる場合で
は入力端子数か2個の場合には、1個のニューロン回路
が形成する領域の形状は第12図(B)に示すような四
角形になる。入力端子数が3個の場合には8面体になり
、入力端子数か4個以上では超多面体となる。
閾値回路95の伝達特性を第11図(A)のステップ関
数形に設定すると、識別領域の境界は明確になる。また
、第11図(B)の折れ線形、(C)のシグモイド関数
形等の特性に設定すると境界は幅をもつことになる。識
別できる領域数はニューロン回路の数か増える程多くな
る。
〔発明か解決しようとする課題〕
しかるに、任意の形状の識別領域に対応するには第8図
のように出力層でOR処理を行うことにより、識別領域
を複数の超球面の集まりとして形成する。第4図は複数
のニューロン回路による識別領域の形成例を示す。同図
は2人力の場合を示す。同図(A)は多数のニューロン
回路を用いて任意の形状の目標識別領域に対応したとき
の従来の例であるか、精度良く目標形状に合致させるに
は円形の重なりか多くなり、多数のニューロン回路が必
要になるという欠点かあり、このため装置か極めて大型
化したり、消費電力も極めて大きくなるという問題があ
った。
本発明は上記の点に鑑みなされたもので識別領域形状が
固定であるニューロン回路では極めて多数のニューロン
回路数を必要としていたが、少ないニューロン回路数で
任意形状の識別領域を実現できるニューロン回路を提供
することを目的とする。
〔課題を解決するための手段〕
多数のニューロン回路の入出力端子間を接続することに
よって構成されるニューロンネットワーク回路において
、本発明は前記ニューロン回路の各々を任意形状の識別
領域を形成する場合にn(nは1以上の整数)個の入力
端子と、それぞれの入力端子に対応して2個ずつの合計
2n個の荷重係数を持ち、2個の組のうちの1個の荷重
係数と入力信号の差を求める減算回路と、減算回路の減
算結果に対して2乗演算あるいは絶対値演算を行う演算
回路と、2個の組のうちのもう1個の荷重係数を演算回
路の出力信号に乗じる乗算回路と、乗算回路より取り出
された信号(n個の入力信号と2n個の荷重係数に対す
る演算の結果)を全て累積する加算回路と、この累積結
果から出力値を決定する閾値回路とより構成し、ネット
ワーク回路に入力されたm (mは1以上の整数)個の
入力信号に対してそれぞれ独自の荷重係数をもつ前記ニ
ューロン回路か演算を実行し、ネットワーク回路内の全
て、あるいは一部のニューロン回路の出力値をネットワ
ーク回路の出力信号とし、それぞれのニューロン回路の
荷重係数と閾値回路の閾値の大きさによってニューロン
回路の識別領域形状を可変にしてネットワーク回路の機
能を制御する。
〔作用〕
本発明では従来の2倍の荷重係数を持つニューロン回路
により、入力と荷重係数の演算結果を累積するときに荷
重係数で重み付けを行い、その累積結果を閾値回路に入
力し、閾値回路の閾値レベルの大きさにより、1個のニ
ューロン回路の識別領域形状を可変にして、少ないニュ
ーロン回路数で任意の形状の識別領域を形成する。
〔実施例〕
第1図は本発明になるニューラルネットワーク回路で単
位回路として使用されるニューロン回路の第1実施例の
構成図を示す。本実施例は減算回路10によって得られ
た入力信号と荷重係数の減算結果を2東回路12を用い
て変換している。n(nは1以上の整数)個の入力端子
と、それぞれの入力端子に対応して2個ずつの合計2n
個の荷重係数(wl、w2.・・・W、)を持ち、減算
回路10は入力信号と2個の組のうち1個の荷重係数W
との差を求めており、夫々の減算結果は2東回路12で
正数に変換されるとともに、乗算回路14で2個の組の
うちもう1個の荷重係数whを乗算する。夫々の入力と
荷重係数に対する演算結果を全て加算回路16によって
累積し、その結果によって出力値が決定される。
第2図は本発明になるニューラルネットワーク回路で単
位回路として使用されるニューロン回路の第2実施例の
構成例を示す。本実施例は減算回路lOによって得られ
た入力信号と荷重係数の減算結果を絶対値回路20を用
いて変換している。
n (nは1以上の整数)個の入力端子と、それぞれの
入力端子に対応して2個ずつの合計2n個の荷重係数(
wl、w2.・・・W、)を持ち、減算回路10は入力
信号と2個の組のうち1個の荷重係数Wとの差を求めて
おり、夫々の減算結果は絶対値回路20で正数に変換さ
れるとともに乗算回路14て2個の組のうちもう1個の
荷重係数whを乗算する。夫々の入力と荷重係数に対す
る演算結果を全て加算回路16によって累積し、その結
果によって出力値が決定される。
出力値を最終的に決定するのは閾値回路19であるのは
従来と同様である。
第3図は本発明におけるニューロン回路の識別領域を示
す。入力端子数が2個の場合、第1図の2東回路12を
用いている場合には1個のニュロン回路が形成する領域
の形状は第3図(A)に示すような楕円の形状となる。
また、第2図の絶対値回路20を用いている場合には1
個のニューロン回路が形成する領域の形状は第3図(B
)に示すような菱形の形状となる。
荷重係数wl、w2の値のベクトルWが識別領域の中心
を表すのは従来と同様であるが、第1図の実施例では従
来では円形であったが、本実施例ては各入力端子の入力
と荷重係数Wに対する演算結果を累積するときに荷重係
数whで重みをつけて加算回路16で加算しているため
に識別領域の形状か楕円になっている。例えば第3図(
A)の2乗形で入力lに対して(入力1−wl)whl
=hか境界点になるので入力1の方向の半径はh/wh
 1になる。同様に入力2に対して(入力2−wl)w
h2=hか境界点になるので入力2の方向の半径はh/
wh2となる。従って、荷重係数whによって半径か自
由に制御できる。
また、第2図の実施例の絶対値回路20を用いている場
合には1個のニューロン回路が形成する領域の形状は、
従来ては正方形であったが、本実施例では各入力端子の
入力と荷重係数Wに対する演算結果を累積するときに荷
重係数whて重みをつけて加算回路16で加算している
ために、識別領域の形状が第3図(B)の絶対値形に示
すような形状になる。例えば、第3図(B)で入力lに
対して(入力1−wl)wh l=hか境界点になるの
で入力1の方向の半径はh/whlになる。
同様に、入力2に対して(入力2−wl)wh2hが境
界点になるので入力2の方向の半径はh/wh2となる
。従って、荷重係数whによって半径か自由に制御でき
る。
第4図は複数のニューロン回路による識別領域の形成例
を示す。同図は2つの入力端子からの入力の場合の任意
形状を目標識別領域にして、従来形と本発明のニューロ
ン回路で対応した例である。
同図(A)の従来形におけるニューロン回路の識別領域
は多数のニューロン回路か必要であったか、同図(B)
の本発明におけるニューロン回路の識別領域では3つで
目標識別領域に対応する。
さらに、実際の応用ではパターン認識に全ての入力デー
タか有効に利用できるわけではなく、パターンの特徴情
報を抽出して利用されるので、不必要な入力データか含
まれていることが多い。第5図は複数のニューロン回路
による識別領域の形成例を示す。同図は2つの入力端子
からの入力の場合を示し、入力2の値が意味のないデー
タであった場合の例である。識別領域は入力Iで決まり
、入力2に間しては全ての範囲が領域に含まれる。この
ため、入力2の方向に長い領域を実現しなければならな
い。同図(A)は従来形を示す。
入力2を表現しているディジタル信号のビット数が大き
い場合や、浮動小数点上限である場合には入力2の範囲
は極めてひろく、入力1の識別領域の幅か小さければ小
さな半径の円で識別領域を埋めつくす必要があり、極め
て多数のニューロン回路が必要になる。同図(B)の本
発明ては目標識別領域に対して、ニューロン回路識別領
域は−って済むことになる。
〔発明の効果〕
上記のように本発明によれば、ニューロン数に比例して
回路規模か大きくなってもニューロン数には限界がある
ので入力信号の範囲を狭くすることで対処しなくてはな
らないが、この場合には信号精度(分解能)が低下する
ので精度の良いパターン認識はできなくなってしまうと
いう状況であっても、入力信号の範囲に関係なく1個の
二ニーロン回路で対処できるので、必要ニューロン数の
低減効果か高く、パターン認識の精度か改善できる。
さらに、ニューラルネットワーク回路をハード化すると
き、必要なニューロン回路数は応用によって異なるか、
−船釣にはニューロン回路数か大きい程処理能力か向上
する。そのため、LSI化によって多数のニューロン回
路を搭載したニュラルネットワーク回路の実現が期待さ
れている。
しかし、チップサイズの制限によって1チツプに搭載で
きる回路規模は限られているし、放熱や実装の問題から
1チツプで消費できる電力も制限がある。従って、LS
I化されたニューラルネットワーク回路が実用的な性能
を発揮するために、ニューロン回路の回路規模と消費電
力の低減がもっとも重要な課題になっている。このため
、本発明の回路は実用上有用である。
【図面の簡単な説明】
第1図は本発明におけるニューロン回路の第1実施例の
構成図、 第2図は本発明におけるニューロン回路の第2実施例の
構成図、 第3図は本発明におけるニューロン回路の識別領域を示
す図(2人力の場合)、 第4図は複数のニューロン回路による識別領域の形成例
を示す図(2人力の場合)、 第5図は複数のニューロン回路による識別領域の形成例
を示す図(2人力の場合)、 第6図はニューロン回路の記号を示す図、第7図は2層
構造のニューラルネットワーク回路を示す図、 第8図は3層構造のニューラルネットワーク回路を示す
図(OR処理出力形)、 第9図は従来における超球面識別形ニューロン回路の構
成図、 第10図は従来における超球面識別形ニュロン回路の構
成図、 第11図は閾値回路の伝達特性を示す図、第12図は従
来におけるニューロン回路の識別領域を示す図(2人力
の場合)である。 10・・・減算回路、12・・・2乗回路、14・・・
乗算回路、16・・加算回路、18・・・平方根回路、
19・・・閾値回路、20・・・絶対値回路。 特許出願人 日本電信電話株式会社 (A) (β) 赴明におばするニューロン回路の第1実施例の構威図第
1図 2乗形                絶対値形朱秦
男(こhlるニューロン回路の職別領域(2人力の場合
)第 図 (A) (B) 本・う唱にbIするニューロン回路の第2実施例の構成
図第2図 従来形 第 図 本発明 2層構造のニューラルネットワ ク回路を示す図 第 図 第 図 減算回路 U(こお(する超球面朧別形ニューロン回路の構威図第 図 減算回路 り1民おりろ超多面体識別形ニュ ロン回路の構成図 第 図 平成 3年 4月22日 事件の表示 平成 2年 特許願 第23291、 発明の名称 ニューラルネットワーク回路 補正をする者 事件との関係 特許出願人 住 所 〒100東京都千代田区内幸町−丁目1番6号
名 称 (422)日本電信電話株式会社代表者 児 
島  仁 6、 補正の対象 明細書の発明の詳細な説明の欄、図面。 7、 補正の内容 (1)明細書中、第15頁5行目から9行目記載の「(
入力1−wl)whl=hが ・・・・となる。」を次
の文章に補正する。 「(入力1−wl) 2wh 1 =h2が境界点にな
るので入力lの方向の半径はh/「になる。 同様に入力2に対して(入力2−wl)2wh2=h2
が境界点になるので入力2の方向の半径はh7qi下]
−となる。」 (2)図面中、第3図を別添の図面に補正する。

Claims (1)

  1. 【特許請求の範囲】  多数のニューロン回路の入出力端子間を接続すること
    によって構成されるニューロンネットワーク回路におい
    て、 前記ニューロン回路の各々は任意形状の識別領域を形成
    する場合にn(nは1以上の整数)個の入力端子と、そ
    れぞれの入力端子に対応して2個ずつの合計2n個の荷
    重係数を持ち、2個の組のうちの1個の荷重係数と入力
    信号の差を求める減算回路と、 該減算回路の減算結果に対して2乗演算あるいは絶対値
    演算を行う演算回路と、 2個の組のうちのもう1個の荷重係数を該演算回路の出
    力信号に乗じる乗算回路と、 該乗算回路より取り出されたn個の入力信号と2n個の
    荷重係数に対する演算の結果を全て累積する加算回路と
    、 この累積結果から出力値を決定する閾値回路とより構成
    し、 ネットワーク回路に入力されたm(mは1以上の整数)
    個の入力信号に対してそれぞれ独自の荷重係数をもつ前
    記ニューロン回路が演算を実行し、ネットワーク回路内
    の全て、あるいは一部のニューロン回路の出力値をネッ
    トワーク回路の出力信号とし、 それぞれの該ニューロン回路の荷重係数と閾値回路の閾
    値の大きさによって該ニューロン回路の識別領域形状を
    可変にしてネットワーク回路の機能をを制御することを
    特徴とするニューラルネットワーク回路。
JP2232915A 1990-07-09 1990-09-03 ニューラルネットワーク回路 Pending JPH04112354A (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2232915A JPH04112354A (ja) 1990-09-03 1990-09-03 ニューラルネットワーク回路
KR1019910011546A KR950001601B1 (ko) 1990-07-09 1991-07-08 뉴-럴 네트워크 회로
US07/727,065 US5166539A (en) 1990-07-09 1991-07-08 Neural network circuit
EP91111435A EP0477486B1 (en) 1990-07-09 1991-07-09 Neural network circuit
DE69119172T DE69119172T2 (de) 1990-07-09 1991-07-09 Neuronalnetzwerkschaltung
US07/909,993 US5353383A (en) 1990-07-09 1992-07-07 Neural network circuit
US08/266,691 US5467429A (en) 1990-07-09 1994-06-28 Neural network circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2232915A JPH04112354A (ja) 1990-09-03 1990-09-03 ニューラルネットワーク回路

Publications (1)

Publication Number Publication Date
JPH04112354A true JPH04112354A (ja) 1992-04-14

Family

ID=16946834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2232915A Pending JPH04112354A (ja) 1990-07-09 1990-09-03 ニューラルネットワーク回路

Country Status (1)

Country Link
JP (1) JPH04112354A (ja)

Similar Documents

Publication Publication Date Title
CN110705703B (zh) 基于脉动阵列的稀疏神经网络处理器
Hollstein et al. Computer-aided design of fuzzy systems based on generic VHDL specifications
KR950001601B1 (ko) 뉴-럴 네트워크 회로
CN109508784B (zh) 一种神经网络激活函数的设计方法
EP0557997A2 (en) Information processing apparatus and information processing system
US20210232899A1 (en) Neural electronic circuit
Choi et al. Retrain-less weight quantization for multiplier-less convolutional neural networks
KR970017000A (ko) 다층퍼셉트론 신경회로망의 n비트 데이타 표현에 의한 학습방법
Ramanujam et al. Mapping combinatorial optimization problems onto neural networks
JPH04112354A (ja) ニューラルネットワーク回路
CA2135857A1 (en) Neural network utilizing logarithmic function and method of using same
Singh et al. Fpga implementation of a trained neural network
JPH04182769A (ja) デジタル・ニューロプロセッサ
CN111930670B (zh) 异构智能处理量化装置、量化方法、电子设备及存储介质
Paasio et al. An analog array processor hardware realization with multiple new features
CN114676826A (zh) 一种求解回归问题的神经网络量化方法
JP2542107B2 (ja) ニュ―ラルネットワ―ク回路
JPH0713768A (ja) 連続論理計算システムおよびその使用方法
McGinnity et al. Novel architecture and synapse design for hardware implementations of neural networks
CN111860792A (zh) 一种激活函数的硬件实现装置和方法
JPH04295976A (ja) ニューラルネットワーク回路
Yang et al. A Low-Power and Small-Area MAC Unit for Accuracy-Scalable Approximate Computing
Ghorbani et al. Incremental communication for multilayer neural networks
JPH0467258A (ja) ニューラルネットワーク回路
Ramacher et al. Architecture and VLSI design of a VLSI neural signal processor