JPH07302292A - ニューラルネットワーク回路の制御装置 - Google Patents

ニューラルネットワーク回路の制御装置

Info

Publication number
JPH07302292A
JPH07302292A JP6119555A JP11955594A JPH07302292A JP H07302292 A JPH07302292 A JP H07302292A JP 6119555 A JP6119555 A JP 6119555A JP 11955594 A JP11955594 A JP 11955594A JP H07302292 A JPH07302292 A JP H07302292A
Authority
JP
Japan
Prior art keywords
output
circuit
learning
units
predetermined number
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6119555A
Other languages
English (en)
Inventor
Takashi Morie
隆 森江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6119555A priority Critical patent/JPH07302292A/ja
Publication of JPH07302292A publication Critical patent/JPH07302292A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 学習可能なニューラルネットワークLSIに
おいて、学習完了を容易かつ高速にチェックすることが
でき、しかも外部ホスト計算機との接続が簡単であるニ
ューラルネットワーク回路の制御装置を提供することを
目的とする。 【構成】 学習可能なニューラルネットワーク回路の各
出力ユニットの出力値とこれに対応する教師信号との差
の絶対値または自乗が所定の値よりも小さいか、大きい
かによって、論理出力状態を変える学習終了判定回路
を、各出力ユニットに付加したものである。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、学習操作によって結合
荷重を変化することができるニューラルネットワーク回
路の制御装置に関するものである。
【0002】
【従来の技術】ニューラルネットワーク回路は生物の神
経回路網をモデル化した回路であり、近年、従来のノイ
マン形計算機では難しかった文字認識や音声認識などの
パタン認識処理、最適化問題の近似求解、ロボット制御
等に有効であると期待されている。
【0003】図6は、従来、よく知られているニューラ
ルネットワーク回路10を示す図であり、多層フィード
フォワード形のニューラルネットワークを示す図であ
る。
【0004】この従来例は、与えられた問題によって個
数が決まる入力ユニット1u、出力ユニット2uをそれ
ぞれ含む入力層1、出力層2に加えて、ニューラルネッ
トワークの入出力に直接は関与しない任意個数の隠れユ
ニット3uを含む隠れ層(中間層とも呼ばれる)3を有
し、これらの間が結合荷重によって重み付けされて結合
しているものである。隠れ層3が1層のみ設けられ、層
間のユニット間にのみ結合が存在するニューラルネット
ワーク構造がよく使用されるが、一般的には、隠れ層3
を2層以上有するようにしてもよく、ユニット間の結合
も任意の組合せがあり得る。
【0005】ニューラルネットワーク回路において望ま
しい入出力関係を獲得するために、結合荷重を修正して
いく必要があり、この方法としてバックプロパゲーショ
ン学習法(以下、「BP法」または「BP学習」とい
う)がよく使われる。
【0006】ここでいう「学習」とは、ニューラルネッ
トワーク回路に与える入力値と、この入力値に対応する
教師信号(入力値に対応する望ましい出力値)とのパタ
ンの組み(以下、「学習パタン」という)を複数個準備
し、各学習パタンについて、ニューラルネットワーク回
路の実際の出力値が教師信号に近付くように結合荷重を
修正していくことをいう。通常、学習パタンを1つ提示
しては、結合荷重をわずかに修正し、次に別の学習パタ
ンを提示し、結合荷重をわずかに修正するという動作を
繰り返し、1つの学習パタンについて、数10から数1
000回の荷重修正を繰り返す。
【0007】BP学習に代表されるこのような「教師有
り学習法」では、教師信号と実際のニューラルネットワ
ークの出力値との差(以下、「学習誤差」という)を小
さくするように荷重を修正していくので、学習がどの程
度進んだかを調べるには、この学習誤差を随時監視する
必要がある。通常、全ての学習パタンについての学習誤
差の絶対値の最大値、または学習誤差の自乗平均が、予
め設定されている所定の閾値を下回ったときに、学習が
完了したとみなすことが多い。
【0008】
【発明が解決しようとする課題】BP学習においては、
学習が正しく進めば、学習誤差は必ず減少するので、十
分な時間、学習させた後で学習誤差をチェックすれば、
学習が完了しているか否かの判断を一応行うことができ
る。
【0009】しかし、学習誤差が十分に小さくなった後
も学習をさらに続けると、いわゆる「過学習」状態とな
り、学習に用いたパタンについては学習誤差が十分減少
するものの、学習をしていないパタンについては逆に誤
差が増大し、すなわち、汎化能力が劣化する。したがっ
て、学習を行なっている間、学習誤差を常時モニタし、
学習誤差が設定値に達したら直ちに学習を停止させるこ
とが望ましいが、しかし、このように学習を行なってい
る間、学習誤差を常時モニタすることが煩雑であるとい
う問題がある。
【0010】また、ニューラルネットワークにおける隠
れユニット3uの数が多ければ、ニューラルネットワー
クの内部自由度が大きくなるので、学習が成功する可能
性が高くなるものの、一般に汎化能力が低下する。一
方、隠れユニット3uが少な過ぎると、学習が正しく行
なわれない。隠れユニット3uの最適な個数を決定する
には、隠れユニット3uの数を変えながら、学習を行な
い、学習が成功する最も少ない隠れユニット3uの数を
見つけ出すようにすればよいが、このようにすると、学
習を何度も繰り返さなければならないので、隠れユニッ
ト3uの最適な個数を決定するためには、非常に長い時
間を必要とするという問題がある。
【0011】ところで、ニューラルネットワークが取り
扱う入出力信号、教師信号は、文字認識等のように0、
1または−1、1のデジタル値であることも多いが、一
般にはアナログ値である。入出力信号、教師信号がアナ
ログ値である場合、LSIの外部で学習演算を行なった
ときに、並列処理を行なうようにすると、ピン数が多く
なることから学習の完了をチェックする機構が複雑にな
り、時分割で処理するようにすると、処理速度を速くす
ることが困難になる。一方、入出力信号、教師信号がア
ナログ値である場合、LSIの内部で学習演算を行なっ
たときに、LSI外部のホスト計算機によって学習完了
の判断を行なうようにすると、A/D変換回路を設ける
必要があるので、ニューラルネットワークシステム全体
が複雑化し、またA/D変換する時間が必要であること
から学習速度が低下する。
【0012】本発明の第1の目的は、学習可能なニュー
ラルネットワークLSIにおいて、学習完了を容易かつ
高速にチェックすることができ、しかも外部ホスト計算
機との接続が簡単であるニューラルネットワーク回路の
制御装置を提供することである。
【0013】本発明の第2の目的は、学習可能なニュー
ラルネットワークLSIにおいて、隠れユニットの最適
な個数を短時間で決定することができるニューラルネッ
トワーク回路の制御装置を提供することである。
【0014】
【課題を解決するための手段】本発明は、学習可能なニ
ューラルネットワーク回路の各出力ユニットの出力値と
これに対応する教師信号との差の絶対値または自乗が所
定の値よりも小さいか、大きいかによって、論理出力状
態を変える学習終了判定回路を、各出力ユニットに付加
するものである。
【0015】
【作用】本発明は、学習可能なニューラルネットワーク
LSIの各出力ユニットに、教師信号に対して出力値が
所定の値以内に近付いたか否かを調べ、その結果を1ビ
ット論理値で出力する学習終了判定回路を付加するの
で、出力値や教師信号がアナログ値であっても、学習完
了の判断結果をデジタル値で得ることができ、このため
に、外部ホストとの接続も容易かつ簡便になり、また、
各ユニットが並列的に学習完了を判断するので、学習完
了の判断を高速に実行することができ、結果として学習
速度が向上し、また、学習完了の判断がデジタル的にな
されるので、学習完了の操作をチップ内で処理すること
も容易になる。
【0016】
【実施例】図1は、本発明の一実施例であるニューラル
ネットワーク回路の制御装置100を示す図である。
【0017】この実施例は、学習機能内蔵型アナログニ
ューラルネットワーク回路11についてのものであり、
3つの学習終了判定回路20と、論理積回路40と、学
習制御回路50と、学習パタン発生回路60とを有す
る。
【0018】ここで、ニューラルネットワーク回路11
は、3つの入力ユニット1uで構成されている入力層1
と、3つの出力ユニット2uで構成されている出力層2
と、ニューラルネットワーク回路の内部で非線形変換処
理を行なう3つの隠れユニット3uで構成されている隠
れ層3とを有するものである。また、ニューラルネット
ワーク回路11は、3種類のユニット1u、2u、3u
がそれぞれ任意の結合荷重によって重み付けされて結合
しており、3つの入力値と、これらの入力値に対応する
3つの望ましい出力値(教師信号)とのパタンで構成さ
れる組みが少なくとも1つ与えられたときに、上記複数
の結合荷重を適宜調整することによって、3つの出力ユ
ニット2uの出力値を、対応する教師信号に近付けるこ
とが可能なニューラルネットワーク回路である。
【0019】学習終了判定回路20は、各出力ユニット
2uの出力値と望ましい出力値(教師信号)との差の絶
対値(または自乗)が所定の値Dよりも小さいか、大き
いかによって、論理出力状態を変え、しかも各出力ユニ
ット2uに対応させて付加されている回路である。
【0020】論理積回路40は、3つの出力ユニット2
uに対応して設けられた学習終了判定回路20の出力の
全てについて論理積をとる回路である。
【0021】学習制御回路50はラッチ回路51を有
し、学習制御回路50が学習パタン発生回路60にパタ
ン提示開始信号を出力したときに、ラッチ回路51がリ
セットされ、論理積回路40が出力する学習完了信号が
0になると、ラッチ回路51がセットされ、論理積回路
40が出力する学習完了信号が1であるときに、ラッチ
回路51がリセットされるようになっている。つまり、
ラッチ回路51は、パタン提示開始信号によってリセッ
トされ、論理積回路40が出力する学習完了信号が0で
あるときにセットされ、その後は、論理積回路40が出
力する学習完了信号が1になってもリセットされず、パ
タン提示開始信号の発生によってのみリセットされる。
【0022】なお、学習パタンは、ニューラルネットワ
ーク回路11に与える入力値と、この入力値に対応する
教師信号T(入力値に対応する望ましい出力値)とのパ
タンの組みである。
【0023】学習パタン発生回路60が発生する各学習
パタンについて、論理積回路40が出力する学習完了信
号が全て1になったときに、学習パタンの提示が不要に
なるので、学習パタン発生回路60にパタン提示開始信
号を供給することを停止するものである。つまり、学習
制御回路50は、論理積回路の出力の変化に応じて、ニ
ューラルネットワーク回路内部の結合荷重調整を終了さ
せる調整終了回路の例である。
【0024】なお、入力ユニット1u、出力ユニット2
u、隠れユニット3uは、それぞれ3つ以外の個数設け
られていてもよく、つまり、入力ユニット1uは第1の
所定個数、出力ユニット2uは第2の所定個数、隠れユ
ニット3uは第3の所定個数設けられていてもよい。ま
た、学習終了判定回路20は、出力ユニット2uと同じ
個数設けられていればよい。
【0025】図2(1)は、上記実施例における学習終
了判定回路20の具体例を示す回路図である。
【0026】学習終了判定回路20は、これ自体で、ニ
ューラルネットワーク回路の制御装置として把握できる
ものであり、ニューラルネットワーク回路11における
出力層2を構成する出力ユニット2uの出力値Oと、こ
れに対応する教師信号Tとの差を求める減算器21と、
この減算器21によって求められた差の絶対値を算出す
る絶対値回路22と、この算出された絶対値が所定の値
(許容値)D以下であるか否かを求めるコンパレータ2
3とで構成されている。コンパレータ23の出力値は、
学習終了判定回路20の論理出力値Jである。つまり、
論理出力値Jは、|T−O|<Dならば1になり、そう
でなければ0になる。
【0027】図2(2)は、上記実施例における学習終
了判定回路20をより具体例に示す回路図である。図2
(2)における絶対値回路22は、「C. Mead, Analog
VLSIand Nenral Systems, Addison-Weisley, 1989」に
示されている回路を用いている。
【0028】上記実施例において、絶対値回路22の代
わりに、自乗回路を使用してもよく、この場合、乗算器
を用いて自乗回路を構成するようにしてもよい。
【0029】図3は、学習終了判定回路20の代わりに
使用することができる学習終了判定回路30を示す回路
図である。
【0030】この学習終了判定回路30は、これ自体
で、ニューラルネットワーク回路の制御装置として把握
できるものであり、アナログの加算器31、減算器3
2、コンパレータ33、34、AND回路35を用いた
回路であり、図3における上側の回路によって、T+D
>Oが成り立つか否かを調べ、図3における下側の回路
によって、T−D<Oが成り立つか否かを調べ、両者の
論理積をとることによって、両方が成り立つ場合に、1
を出力する回路である。
【0031】次に、上記実施例の動作について説明す
る。
【0032】まず、学習制御回路50がパタン提示開始
信号を学習パタン発生回路60に供給することによっ
て、学習パタン発生回路60が学習パタン提示を開始
し、特定の順番またはランダムな順番によって、全ての
学習パタンをニューラルネットワーク回路11に与え、
つまり、ニューラルネットワーク回路11に与える入力
値と、この入力値に対応する教師信号T(入力値に対応
する望ましい出力値)とのパタンの組みである学習パタ
ンを発生し、各出力ユニット2u、2u、……のそれぞ
れに配置されている学習終了判定回路20、20、……
の出力の論理積を論理積回路40が演算し、この論理積
(学習完了信号)を調べることによって、全出力ユニッ
ト20、20、……が望ましい出力を出すようになった
か否かを判定する。
【0033】つまり、学習終了判定回路20が、ニュー
ラルネットワーク回路11における出力層2を構成する
出力ユニット2uの出力値Oと、これに対応する教師信
号Tとの差を求め、この求められた差の絶対値を算出
し、この算出された絶対値が所定の値D以下であるか否
かを求め、|T−O|<Dならば、論理出力値Jが1に
なり、そうでなければ0になる。すなわち、学習可能な
ニューラルネットワークLSIの各出力ユニット2u、
2u、……の出力値Oが、その教師信号Tに対して所定
の値D以内に近付いたか否かを調べ、その結果が1ビッ
ト論理値で出力される。
【0034】したがって、上記実施例において、出力値
Oや教師信号Tがアナログ値であっても、学習完了の判
断結果をデジタル値で得ることができ、外部ホスト計算
機との接続が簡単である。
【0035】このようにして、学習パタン発生回路60
が全ての学習パタンをニューラルネットワーク回路11
に与えた後、学習パタン発生回路60がパタン提示終了
信号を学習制御回路50に返す。このときに、全ての学
習パタンについて学習完了していた場合には、各学習パ
タンについて、論理積回路40が出力する学習完了信号
が全て1になるので、これをラッチ回路51で調べる。
すなわち、全ての学習パタンがニューラルネットワーク
回路11に入力された後にラッチ回路51がリセットさ
れていれば、全ての学習パタンについての学習が完了し
たことを示し、一方、全ての学習パタンがニューラルネ
ットワーク回路11に入力された後にラッチ回路51が
セットされていれば、全ての学習パタンのうち少なくと
も1つの学習パタンについて学習が完了していないこと
を示している。
【0036】全ての学習パタンについて学習が完了した
ときに、学習制御回路50は、全ての学習パタンについ
て学習が完了したことを示す全パタン学習完了信号を1
にセットし、学習制御回路50は結合荷重の更新を終了
させる。ラッチ回路51が上記全パタン学習完了信号を
出力するようにしてもよく、ラッチ回路51以外の回路
が上記全パタン学習完了信号を出力するようにしてもよ
い。
【0037】図1に示す実施例によれば、学習可能なニ
ューラルネットワークLSIの各出力ユニット2u、2
u、……の出力値Oが、対応する教師信号Tに対して所
定の値D以内に近付いたか否かを調べ、その結果が1ビ
ット論理値で出力されるので、出力値Oや教師信号Tが
アナログ値であっても、学習完了の判断結果をデジタル
値で得ることができ、このために、外部ホスト計算機と
の接続も容易かつ簡便になり、また、各出力ユニット2
u、2u、……の出力値について並列的に学習完了を判
断するので、学習完了の判断を高速に実行することがで
き、結果として学習速度が向上し、また、学習完了の判
断がデジタル的になされるので、学習完了の操作をチッ
プ内で処理することも容易になる。
【0038】図4は、本発明の他の実施例であるニュー
ラルネットワーク回路200を示す回路図であり、学習
を行いながらニューラルネットワーク構造を最適にする
回路を示す図である。
【0039】図4に示す実施例は、図3に示すニューラ
ルネットワーク回路100に加えて、学習におけるパタ
ン提示の繰り返し回数をモニタし、パタン提示回数の上
限に達したか否かを判断するパタン提示回数制御回路7
0と、隠れユニット数増減回路80とを付け加えたもの
である。
【0040】パタン提示回数制御回路70は、パタン提
示回数を積算するカウンタ回路で構成され、学習許可信
号を出力するものである。この学習許可信号は、学習中
には1を出力し、設定した学習回数に達したら0を出力
する信号である。また、パタン提示回数を学習時間で管
理するタイマー回路によってパタン提示回数制御回路7
0を構成してもよく、この場合、パタン提示回数制御回
路70が出力する学習許可信号は、学習中に1を出力
し、設定した学習時間が経過したら0を出力する信号で
ある。
【0041】隠れユニット数増減回路80は、3つの隠
れユニット3uに対して(一般的には、第3の所定個数
の隠れユニット3uに対して)、結合荷重調整の過程の
初期においては、任意の個数の隠れユニット3uの出力
をその入力の状態に関わりなく固定することによって、
その任意の個数の隠れユニット3uの機能を無効化して
結合荷重調整を行なう手段と、所定のパタン提示回数ま
たは時間の結合荷重調整の過程の後、論理積回路40の
出力の変化が見られた場合は、無効化された隠れユニッ
ト3uの個数を任意数だけ増加させる手段と、論理積回
路40の出力の変化が見られない場合は、無効化された
隠れユニット3uの個数を任意数だけ減少させる手段と
を有するものである。
【0042】なお、ニューラルネットワーク回路200
において、ニューラルネットワーク回路12は、基本的
には、ニューラルネットワーク回路11と同じである
が、隠れ層3aを構成する隠れユニット3u、3u、3
uのそれぞれの出力端子にスイッチSW1、SW2、S
W3を有している点が異なる。
【0043】次に、図4に示す実施例の動作について説
明する。
【0044】図5は、図4に示す実施例の動作を示すフ
ローチャートである。
【0045】まず、学習操作を開始したときに(S
1)、学習パタン提示回数の上限NP、学習誤差許容値
(所定の値)D、隠れユニット3uの数を示すNHID
を設定し(S2)、荷重初期値を設定し(S3)、学習
制御回路50がパタン提示開始信号を出力することによ
って学習パタン発生回路60が学習パタンを提示し(S
4)、この学習パタンを構成する入力信号と教師信号T
とがニューラルネットワーク回路12に供給される。
【0046】そして、学習が行われた後に、荷重修正が
行われ(S5)、全ての学習パタンのうちの1つでも、
その学習誤差が学習誤差許容値Dよりも大きければ(S
6)、パタン提示回数の上限NPになるまで学習を繰り
返し(S7)、学習がパタン提示回数の上限NPに達し
たときに、各学習パタンについての学習誤差が全て学習
誤差許容値Dよりも小さくならなければ(S7)、学習
が失敗したと判断し(S8)、隠れユニット3uの数N
HIDを1だけ増加させ(S9)、学習パタン提示、荷
重修正を繰り返す。
【0047】一方、各学習パタンについての学習誤差が
全て学習誤差許容値Dよりも小さければ(S6)、学習
が成功したと判断し(S11)、不要な隠れユニット3
uを減少させる意味で、隠れユニット3uの数NHID
を1だけ減少させ(S12)、学習パタン提示、荷重修
正を繰り返す。そして、隠れユニット3uの数NHID
が収束した場合には(S10)、学習最適化に成功した
ことになる。
【0048】つまり、各学習パタンの全てについて学習
完了信号が1であり、しかも、パタン提示回数制御回路
70が出力する学習許可信号が1である場合(パタン提
示回数の設定値以内である場合)は、設定回数以内に学
習が成功したことを示す。この場合、学習に成功したの
で、隠れユニット3uの数を減らして再学習を繰り返
す。一方、全学習パタン学習完了信号と学習許可信号と
がともに0である場合は、設定回数以内に学習が成功し
なかったことを示す。この場合、学習に失敗したので、
結合荷重の初期値を変えて再学習を行なうか、または隠
れユニット3uの数を増やして再度学習を開始する。
【0049】このようにして、隠れユニット3uの数を
変えながら学習を繰り返し、隠れユニット3uの数があ
る数の前後で、学習の成功・失敗を繰り返すようになる
と、隠れユニット3uの数が収束したと考え、この場合
に最適化が実現されたことになる。なお、隠れユニット
3uの数を減らすには、隠れユニット3uの出力を0に
固定するように、スイッチSW1、SW2、SW3で切
り換えればよい。逆に、隠れユニット3uの数を増やす
には、0に固定していた隠れユニット3uの出力を、本
来の動作を行なうようにスイッチSW1、SW2、SW
3で切り換えればよい。
【0050】図4に示す実施例によれば、隠れユニット
3uの数の最適化を行う回路を組み込むことによって、
ニューラルネットワーク回路の最適化を高速で実現する
ことができる。
【0051】BP学習の場合は荷重の初期値が学習の成
功・失敗に大きく影響する。図5に示すフローチャート
では学習の度に荷重初期値をランダムに設定し、学習の
成功・失敗に応じて隠れユニット3uの数を増減して、
学習を繰り返している。これとは別に、学習が失敗した
ときに隠れユニット3uの数を変更せずに、荷重初期値
を変更して学習をやり直してみることは重要である。適
当な試行回数の上限を設定して、その試行回数内で学習
が成功しなかった場合にのみ、隠れユニット3uの数を
増加させるようにしてもよく、この方法は有効である。
【0052】また、学習が成功した場合に、荷重値をリ
セットするのではなく、成功したときの荷重値を初期値
として、適当な隠れユニット3uを除去して(隠れユニ
ット3uの数を減じて)学習をやり直すようにしてもよ
く、この方法も有効である。削除する隠れユニット3u
は、たとえば次段のユニットへの結合荷重の絶対値が全
て小さいもの、または同様な荷重を有するユニットが2
つ以上存在する場合にはそのうちの1つを選ぶ。これは
そのユニットを削除してもニューラルネットワークとし
ての性能を低下させることが少ないと予想されるからで
ある。以上のような操作を、学習制御回路50に行わせ
るようにしてもよい。
【0053】なお、学習終了判定回路20、30は、各
出力ユニットの出力値と望ましい出力値との差の絶対値
または自乗が所定の値よりも小さいか、大きいかによっ
て、論理出力状態を変え、しかも各出力ユニットに対応
させて付加されている学習終了判定回路の例である。
【0054】また、ラッチ回路51の代わりに、提示す
べき学習パタンの数と同じ数のレジスタと、論理積回路
回路40が出力する学習完了信号を各レジスタに切り換
えるマルチプレクサと、上記レジスタに格納されている
値の論理積をとる論理積回路(論理積回路40とは別の
論理積回路)とを設けるようにしてもよく、この場合、
提示すべき各学習パタンと各レジスタとを対応させるよ
うにマルチプレクサを切り換え、上記別の論理積回路が
1を出力すれば、全ての学習パタンについての学習が完
了したことを示す。
【0055】なお、上記実施例は、BP学習だけでな
く、隠れユニットを有するニューラルネットワーク構造
を有し、教師有り学習を行うモデル(たとえばボルツマ
ンマシン等)に、一般的に適用できる。
【0056】
【発明の効果】本発明によれば、学習完了の確認を回路
上で並列的に実行できるので、実効的に高速な学習を行
うことができ、また、アナログの出力を取り扱うニュー
ラルネットワークにおいても学習完了の信号をデジタル
信号で得られるので、学習制御操作をデジタル論理で実
行することができ、高速で複雑な制御を行うことができ
るという効果を奏する。
【図面の簡単な説明】
【図1】本発明の一実施例であるニューラルネットワー
ク回路の制御装置100を示す図である。
【図2】図2(1)は、上記実施例における学習終了判
定回路20の具体例を示す回路図であり、図2(2)
は、上記実施例における学習終了判定回路20をより具
体例に示す回路図である。
【図3】学習終了判定回路20の代わりに使用すること
ができる学習終了判定回路30を示す回路図である。
【図4】本発明の他の実施例であるニューラルネットワ
ーク回路200を示す回路図であり、学習を行いながら
ニューラルネットワーク構造を最適にする回路を示す図
である。
【図5】図4に示す実施例の動作を示すフローチャート
である。
【図6】従来の多層フィードフォワード形のニューラル
ネットワーク回路10を示す図である。
【符号の説明】
1…入力層、 1u…入力ユニット、 2…出力層、 2u…出力ユニット、 3…隠れ層、 3u…隠れユニット、 SW1、SW2、SW3…スイッチ、 11、12…ニューラルネットワーク回路、 20、30…学習終了判定回路、 40…論理積回路、 50…学習制御回、、 51…ラッチ回路、 60…学習パタン発生回路、 70…パタン提示回数制御回路、 80…隠れユニット数増減回路。

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 第1の所定個数の入力ユニットと、第2
    の所定個数の出力ユニットと、ニューラルネットワーク
    回路の内部で非線形変換処理を行なう第3の所定個数の
    隠れユニットとを有し、上記3種類のユニットがそれぞ
    れ任意の結合荷重によって重み付けされて結合してお
    り、上記第1の所定個数の入力値と、これらの入力値に
    対応する上記第2の所定個数の望ましい出力値とのパタ
    ンで構成される組みが少なくとも1つ与えられたとき
    に、上記複数の結合荷重を適宜調整することによって、
    上記第2の所定個数の出力ユニットの出力値を上記望ま
    しい出力値に近付けることが可能なニューラルネットワ
    ーク回路において、 上記各出力ユニットの出力値と上記望ましい出力値との
    差の絶対値または自乗が所定の値よりも小さいか、大き
    いかによって、論理出力状態を変え、しかも各出力ユニ
    ットに対応させて付加されている学習終了判定回路によ
    って構成されていることを特徴とするニューラルネット
    ワーク回路の制御装置。
  2. 【請求項2】 第1の所定個数の入力ユニットと、第2
    の所定個数の出力ユニットと、ニューラルネットワーク
    回路の内部で非線形変換処理を行なう第3の所定個数の
    隠れユニットとを有し、上記3種類のユニットがそれぞ
    れ任意の結合荷重によって重み付けされて結合してお
    り、上記第1の所定個数の入力値と、これらの入力値に
    対応する上記第2の所定個数の望ましい出力値とのパタ
    ンで構成される組みが少なくとも1つ与えられたとき
    に、上記複数の結合荷重を適宜調整することによって、
    上記第2の所定個数の出力ユニットの出力値を上記望ま
    しい出力値に近付けることが可能なニューラルネットワ
    ーク回路において、 上記各出力ユニットの出力値と上記望ましい出力値との
    差の絶対値または自乗が所定の値よりも小さいか、大き
    いかによって、論理出力状態を変え、しかも各出力ユニ
    ットに対応させて付加されている学習終了判定回路と;
    上記第2の所定個数の出力ユニットに対応して設けられ
    た上記学習終了判定回路の出力の全てについて論理積を
    とる論理積回路と;この論理積回路の出力の変化に応じ
    て、上記ニューラルネットワーク回路内部の結合荷重調
    整を終了させる調整終了回路と;を有することを特徴と
    するニューラルネットワーク回路の制御装置。
  3. 【請求項3】 第1の所定個数の入力ユニットと、第2
    の所定個数の出力ユニットと、ニューラルネットワーク
    回路の内部で非線形変換処理を行なう第3の所定個数の
    隠れユニットとを有し、上記3種類のユニットがそれぞ
    れ任意の結合荷重によって重み付けされて結合してお
    り、上記第1の所定個数の入力値と、これらの入力値に
    対応する上記第2の所定個数の望ましい出力値とのパタ
    ンで構成される組みが少なくとも1つ与えられたとき
    に、上記複数の結合荷重を適宜調整することによって、
    上記第2の所定個数の出力ユニットの出力値を上記望ま
    しい出力値に近付けることが可能なニューラルネットワ
    ーク回路において、 上記各出力ユニットの出力値と上記望ましい出力値との
    差の絶対値または自乗が所定の値よりも小さいか、大き
    いかによって、論理出力状態を変え、しかも各出力ユニ
    ットに対応させて付加されている学習終了判定回路と;
    上記第2の所定個数の出力ユニットに対応して設けられ
    た上記学習終了判定回路の出力の全てについて論理積を
    とる論理積回路と;この論理積回路の出力の変化に応じ
    て、上記ニューラルネットワーク回路内部の結合荷重調
    整を終了させる調整終了回路と;上記第3の所定個数の
    隠れユニットに対して、結合荷重調整の過程の初期にお
    いては、任意の個数の隠れユニットの出力をその入力の
    状態に関わりなく固定することによって、上記隠れユニ
    ットの機能を無効化して結合荷重調整を行なう手段と;
    所定のパタン提示回数または時間の結合荷重調整の過程
    の後、上記論理積回路の出力の変化が見られた場合は、
    上記無効化された隠れユニットの個数を任意数だけ増加
    させる手段と;上記論理積回路の出力の変化が見られな
    い場合は、上記無効化された隠れユニットの個数を任意
    数だけ減少させる手段と;を有することを特徴とするニ
    ューラルネットワーク回路の制御装置。
JP6119555A 1994-05-09 1994-05-09 ニューラルネットワーク回路の制御装置 Pending JPH07302292A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6119555A JPH07302292A (ja) 1994-05-09 1994-05-09 ニューラルネットワーク回路の制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6119555A JPH07302292A (ja) 1994-05-09 1994-05-09 ニューラルネットワーク回路の制御装置

Publications (1)

Publication Number Publication Date
JPH07302292A true JPH07302292A (ja) 1995-11-14

Family

ID=14764219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6119555A Pending JPH07302292A (ja) 1994-05-09 1994-05-09 ニューラルネットワーク回路の制御装置

Country Status (1)

Country Link
JP (1) JPH07302292A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010106587A1 (ja) * 2009-03-18 2012-09-13 パナソニック株式会社 ニューラルネットワークシステム
JP2020009048A (ja) * 2018-07-05 2020-01-16 株式会社日立製作所 ニューラルネットワークの学習装置および学習方法
JP2020161031A (ja) * 2019-03-28 2020-10-01 株式会社日立製作所 計算機システム及び機械学習の制御方法
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010106587A1 (ja) * 2009-03-18 2012-09-13 パナソニック株式会社 ニューラルネットワークシステム
US8694451B2 (en) 2009-03-18 2014-04-08 Panasonic Corporation Neural network system
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
US11461615B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. System and method of memory access of multi-dimensional data
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11514291B2 (en) 2017-04-04 2022-11-29 Hailo Technologies Ltd. Neural network processing element incorporating compute and local memory elements
JP2020009048A (ja) * 2018-07-05 2020-01-16 株式会社日立製作所 ニューラルネットワークの学習装置および学習方法
JP2020161031A (ja) * 2019-03-28 2020-10-01 株式会社日立製作所 計算機システム及び機械学習の制御方法
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
JPH07302292A (ja) ニューラルネットワーク回路の制御装置
JP5102046B2 (ja) プラントを制御するための装置
JPH05282476A (ja) ニューラルネットワーク装置
US6038683A (en) Replicated controller and fault recovery method thereof
JP2996183B2 (ja) Dma機能を備えたデータ処理装置
JP2540654B2 (ja) ニュ―ラルネットワ―クの学習装置
JP3329202B2 (ja) ニューラルネットワーク学習方式
JP3277648B2 (ja) 並列ニューラルネットワーク
JP2606317B2 (ja) 学習処理装置
JP3518813B2 (ja) 構造化神経回路網構築装置
JP3262340B2 (ja) 情報処理装置
JPH04160579A (ja) 連想ニューラルネット
TWI827411B (zh) 微控制電路及處理方法
JPH05324598A (ja) ニューラル・ネットワーク学習装置における学習方式
JP2000035955A (ja) 階層型ニューラルネットワークの構成方法
JPS6118001A (ja) 保護制御装置の2重化整定システム
JPH05204885A (ja) ニューラルネットワークの学習高速化装置及び方法
JPH05151373A (ja) ニユーラルネツトワークを用いたフアジイ逆診断方法
JP2773672B2 (ja) 入力チェック方式
JPH05151143A (ja) Dmaコントローラ内蔵コンピユータの割り込み処理方式
JPH0394364A (ja) ニューラルネットワーク
JPH0675935A (ja) 多変数システム構成方法およびその装置
JPH0877131A (ja) ニューラルネットの学習方法
CN111367668A (zh) 一种基于改进bp神经网络的云服务资源弹性伸缩方法
JPH10171502A (ja) ディジタル制御装置