JPH0520294A - ニユーラルネツトワーク型情報処理装置 - Google Patents

ニユーラルネツトワーク型情報処理装置

Info

Publication number
JPH0520294A
JPH0520294A JP3176726A JP17672691A JPH0520294A JP H0520294 A JPH0520294 A JP H0520294A JP 3176726 A JP3176726 A JP 3176726A JP 17672691 A JP17672691 A JP 17672691A JP H0520294 A JPH0520294 A JP H0520294A
Authority
JP
Japan
Prior art keywords
unit
bias unit
neural network
bias
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3176726A
Other languages
English (en)
Inventor
Hidetaka Yada
英孝 矢田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3176726A priority Critical patent/JPH0520294A/ja
Publication of JPH0520294A publication Critical patent/JPH0520294A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 本発明は、ニューラルネットワーク型情報処
理装置に関し、ニューロンユニットに必要とされる閾値
重みを得ることができるニューラルネットワーク型情報
処理装置を提供することを目的とする。 【構成】 入力(X0 〜Xn )及び閾値(θ)に基づい
て、出力(y)を出力するニューロンユニット(N)
と、少なくとも1つのバイアスユニット(B)を有し、
該バイアスユニット(B)からの閾値重み(W)に基づ
いて、前記ニューロンユニット(N)に閾値(θ)を出
力するバイアスユニット部(50)と、該バイアスユニ
ット部(50)を制御するバイアスユニット制御部(8
8、98)と、を含み、前記バイアスユニット制御部
(88、98)は、1つのバイアスユニット(B)の制
限(L)を越える閾値重み(W)をバイアスユニット部
(50)から出力させることが可能であるように構成す
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
ク型情報処理装置に関する。ニューロコンピュータは、
従来のノイマン型コンピュータが不得手とするアルゴリ
ズムが規定できないようなあいまいな情報処理(例え
ば、パターン認識、滑らかな機械制御、知識情報処理)
に適している。
【0002】上記ニューロコンピュータは、生物の脳の
機能を模倣したものであり、一番の特徴は、「学習」に
よって上記のような複雑、あいまいな問題を解決できる
ことである。ここで、ニューロコンピュータは、生体の
神経細胞(ニューロン)をモデル化(マッカロ・ピッツ
モデルが有名)した基本ユニットを複数個結合して構成
されている。この基本ユニットを複数個結合したニュー
ラルネットワークモデルとしては、階層型モデル、ホッ
プフィールドモデル、ボルツマンマシンモデルが代表的
なものである。前記階層型のネットワークモデルとして
は、パーセプトロンモデルを一般化したPDP(Parall
el Distributed Processing )モデルが有名である。
【0003】ニューラルネットワークは、学習によって
ネットワーク構造を変化させて環境に柔軟に適用できる
柔軟性を特徴としている。ニューラルネットワークモデ
ルの学習法として、PDPモデルでは「教師あり学習
法」が用いられ、ホップフィールドモデル、ボルツマン
マシンモデルでは「教師なし学習法」が用いられる。前
記PDPモデルのニューロコンピュータでは、教師デー
タを入力すると、「学習アルゴリズム」に基づき自律的
にニューラルネットワークを作成し、所望のニューロコ
ンピュータの機能を実現することができる。なお、PD
Pモデルの「教師あり学習法」の例としてバックプロパ
ゲーション法があり、該バックプロパゲーション法にお
いては、実際の出力値と教師データ(正解値)との誤差
が小さくなるように、各ユニット間の結合の重みを修正
していき、学習を収束させている。
【0004】このような「学習」といった新しいアルゴ
リズムを用いることにより、ニューロコンピュータは、
従来困難であった新しい産業分野への適用が可能であ
り、パターン認識の分野では、あいまいな文字、画像、
音声等の認識、機械制御分野ではロボット等の滑らかな
運動制御、知識処理分野ではより高度なエキスパートシ
ステムの実現、信号処理分野では画像圧縮及び復元等、
多岐にわたる用途が期待されている。
【0005】上記ニューラルネットワークにおいて、ニ
ューロンユニットは、入力及び閾値に基づいて出力を行
っており、前記閾値は、バイアスユニットからの出力値
と閾値重みとに基づいて設定される。ところが、機器構
成上の制約から、閾値重みが、一定値以下の値しかとる
ことができないときには、これは、ニューラルネットワ
ークの円滑な動作を妨げる。本発明は、このようなバイ
アスユニットの閾値重みの問題を解決するものである。
なお、ニューラルネットワークを工学的に実現したモデ
ルとしては、前述したように、PDPモデル、ホップフ
ィールドモデル、ボルツマンマシンモデル等があるが、
本発明は、このようなモデルに限定されることがなく、
各種のモデルにおいて、ニューロンの閾値処理を改善す
るものである。
【0006】
【従来の技術】神経細胞(ニューロン)の動作を工学的
に表現したニューロンユニットとしては、マッカロ・ピ
ッツモデルが有名であり、図7には、マッカロ・ピッツ
のニューロンモデルが示されている。
【0007】図7において、ニューロンユニットNi
ついて考えると、該ニューロンユニットNi には、他の
ニューロンユニットの出力y0 、y1 、y2 、y3
…、y n が供給され、該出力y0 、y1 、y2 、y3
…、yn とユニット間の重み(ユニット間のシナプス結
合強度)W0 、W1 、W2 、W3 、…、Wn との積の総
和xi が求められる。すなわち、総和xi は、
【0008】
【数1】 である。一方、ニューロンユニットNi に対応してバイ
アスユニットBi が設けられており、該バイアスユニッ
トBi は、閾値重みWi 及び定数k(例えば1ボルト)
に基づいて、閾値θi (=Wi k)を求め、該閾値θi
は、ニューロンユニットNi に供給される。
【0009】ニューロンユニットNi は、上記入力(総
和)xi及び閾値θi に基づいて、出力yi を他のニュ
ーロンユニットに供給する。すなわち、出力yi は、y
i =f(xi 、θi )である。そして、ニューロンユニ
ットの出力yi =f(xi 、θi )のグラフ図が図8
(A)、(B)に示されている。
【0010】図8(A)において、ニューロンユニット
の出力yi は、ステップ関数で示されており、すなわ
ち、 xi >θi のとき、yi =1 xi ≦θi のとき、yi =0 である。
【0011】また、図8(B)において、ニューロンユ
ニットの出力yi は、シグモイド関数で示されており、
すなわち、 yi =SIG(xi 、θi ) =1/{1+exp(−xi +θi )} である。
【0012】ニューラルネットワークにおいて、各ニュ
ーロンユニットNiごとに閾値θi は閾値重み(W)を
用いて学習によって決定される。この閾値重み(W)は
バイアスユニット(B)によって与えられるが、ニュー
ラルネットワーク構成をできるだけ少なくするためバイ
アスユニットは共通に使用される。そこで、例えば、P
DPモデルの場合には、各層について1つのバイアスユ
ニットを設け、1つの層の各ユニットでは、該1つのバ
イアスユニットの閾値を共通に使用している。そして、
図9には、各層に1つのバイアスユニットを設けた3層
構造のニューラルネットワークが示されている。
【0013】図9において、ニューラルネットワーク
は、入力層10、中間層12、及び、出力層14を含
み、入力層10のユニット10a〜10eには、入力信
号INが入力される。入力層10のユニット10a〜1
0eは、中間層12のニューロンユニット12a〜12
dに結合され、該中間層12のニューロンユニット12
a〜12dは、出力層のニューロンユニット14a、1
4bに結合され、該出力層のニューロンユニット14
a、14bからは、出力信号OUTが出力される。
【0014】前記中間層12に対応して、中間層用のバ
イアスユニット16が設けられ、該バイアスユニット1
6は、中間層12の各ニューロンユニット12a〜12
dに共通に使用される。同様にして、出力層14に対応
して、出力層用のバイアスユニット18が設けられ、該
バイアスユニット18は、出力層14の各ニューロンユ
ニット14a、14bに共通に使用される。
【0015】以上のように、図9の3層構造のニューラ
ルネットワークでは、バイアスユニット16は、中間層
ニューロンユニット12a〜12dに共通に使用され、
バイアスユニット18は、出力層ニューロンユニット1
4a、14bに共通に使用され、学習により、中間層ニ
ューロンユニット12a〜12d、および出力層ニュー
ロンユニット14a、14bの閾値が決定される。
【0016】
【発明が解決しようとする課題】ニューロンユニットを
複数個結合してニューラルネットワークを構成する場
合、例えばPDPモデルにおいては、前述したように、
各ニューロンユニットの閾値を決定するバイアスユニッ
トを各層ごとに1個設けている。
【0017】しかしながら、工学的に実現したニューロ
チップ、例えば、富士通株式会社製のアナログニューロ
プロセッサ(MB4442)によってニューラルネット
ワークを実現する場合には、バイアスユニットの閾値重
みがある有限の値しかとることができず(すなわち、一
定値以下の値しかとることができず)、ニューロンユニ
ットに必要とされる閾値を得ることができない場合があ
る。そして、このような閾値重みの制約のため、ニュー
ラルネットワークが円滑に構築できないという問題があ
った。
【0018】詳述すると、MB4442の場合、バイア
スユニットの閾値重みWは、16ビット長(符号1ビッ
ト+データ15ビット)で表現されるので、閾値重みW
は、|W|≦1−2-15 (=1)の範囲に制限される。
このようにバイアスユニットの閾値重み|W|≦1であ
るので、バイアスユニットで設定できる閾値θには制限
があり、これが原因で、ニューラルネットワークの学習
が円滑に行われないという問題があった。
【0019】なお、上記の問題は、例えば、相互結合型
ニューラルネットワークモデル(ホップフィールドモデ
ル、ボルツマンマシンモデル)の場合にも生じる。そこ
で、本発明の目的は、ニューロンユニットに必要とされ
る閾値重みを得ることができるニューラルネットワーク
型情報処理装置を提供することにある。
【0020】
【課題を解決するための手段】本発明は、入力(x0
n )及び閾値(θ)に基づいて、出力(y)を出力す
るニューロンユニット(N)と、少なくとも1つのバイ
アスユニット(B)を有し、該バイアスユニット(B)
からの閾値重み(W)に基づいて、前記ニューロンユニ
ット(N)に閾値(θ)を出力するバイアスユニット部
(50)と、該バイアスユニット部(50)を制御する
バイアスユニット制御部(88、98)と、を含み、前
記バイアスユニット制御部(88、98)は、1つのバ
イアスユニット(B)の制限(L)を越える閾値重み
(W)をバイアスユニット部(50)から出力させるこ
とが可能であることを特徴とする。
【0021】
【作用】本発明において、バイアスユニット制御部(8
8、98)は、教師パターン等の外部環境条件あるいは
ニューラルネットワークの構成に応じて、1つのバイア
スユニット(B)の制限値(L)を越えた閾値重み
(W)をバイアスユニット部(50)から出力させるこ
とが可能である。それゆえ、ニューロンユニット(N)
に必要とされる閾値重み(W)が1つのバイアスユニッ
ト(B)の制限値(L)を越えた場合であっても、バイ
アスユニット部(50)は、ニューロンユニット(N)
に必要な閾値重み(W)を出力することができ、ニュー
ラルネットワークの学習を維持させることが可能であ
る。
【0022】なお、1つのバイアスユニット(B)の制
限値(L)を越えた閾値重み(W)をバイアスユニット
部(50)から出力するためには1つのバイアスユニッ
トの閾値重みを制限値(L)以内にして、且つ構成とし
ては、バイアスユニット部(50)内のバイアスユニッ
ト(B)の個数を変更したり、あるいは、バイアスユニ
ット部(50)からの出力値(例えば電圧値)を変更し
たり、あるいは、バイアスユニット部(50)内のバイ
アスユニット(B)の個数を変更し且つバイアスユニッ
ト部(50)からの出力値(例えば電圧値)を変更する
ことである。
【0023】以上のように、本発明においては、1つの
バイアスユニット(B)の閾値重みの制約のためにニュ
ーラルネットワークの学習が継続できない場合(ニュー
ロンユニット(N)に必要とされる閾値重み(W)が1
つのバイアスユニット(B)の制限値(L)を越える場
合)であっても、バイアスユニット部(50)がニュー
ロンユニット(N)に必要な閾値重み(W)を出力する
ことにより(例えばバイアスユニット部(50)内のバ
イアスユニット(B)の個数を増加させる)、ニューラ
ルネットワークの学習の継続が可能である。
【0024】従って、本発明によれば、外部環境(教師
パターン等)に応じて例えばバイアスユニット(B)の
個数を増加させることにより、バイアスユニット部(5
0)は、ニューロンユニット(N)に必要な閾値重み
(W)を出力することができ、ニューラルネットワーク
の学習を可能にしている。すなわち、工学的に実現した
ニューロチップの閾値重みの制限のために従来不可能で
あったニューラルネットワークの学習が可能になる。そ
れゆえ、本発明によれば、ニューロチップを用いたニュ
ーラルネットワーク型情報処理装置の実用化がより推進
される。
【0025】次に、本発明の原理を図1、図2、図3に
基づいて説明する。図1には、本発明の原理によるニュ
ーラルネットワーク型情報処理装置が示されている。
【0026】図1において、ニューロンユニットNに
は、他のニューロンユニットの出力x 0 、x1 、x2
3 が入力として供給されており、該入力x0 、x1
2 、x3 とユニット間の重みW0 、W1、W2 、W3
との積の総和xが求められる。すなわち、総和xは、
【0027】
【数2】 である。またニューロンユニットNに対応してバイアス
ユニット部50が設けられており、該バイアスユニット
部50は、最初、1つのバイアスユニットBを有し、こ
のバイアスユニットBは、閾値重みWを出力する。そし
て、バイアスユニットBから出力される閾値重みW及び
定数k(定数の電圧値例えば1ボルト)に基づいて、閾
値θが求められ、該閾値θは、ニューロンユニットNに
供給される。
【0028】ニューロンユニットNは、前記総和x及び
前記閾値θに基づいて、出力yを他のニューロンユニッ
トに供給する。ここで、出力yは、y=f(x、θ)で
示され、例えば、前述したステップ関数(図8
(A))、シグモイド関数(図8(B))である。
【0029】前記バイアスユニットBの閾値重みWは、
制限値L以下の値しかとることができず(|W|≦
L)、従って、ニューロンユニットに必要とされる閾値
重みWが制限値Lを越えている場合には、バイアスユニ
ット部50から出力される閾値重みWが1つのバイアス
ユニットの制限値Lを越えて設定され得るようにする。
例えば、バイアスユニット部50内に、2つのバイアス
ユニットB、Bを設けて、バイアスユニット部50から
出力される1つのバイアスユニットの閾値重みWの最大
値をLに設定し、これにより、ニューロンユニットNに
必要とされる閾値重みWが得られるようにする。なお、
バイアスユニット部50内に設けられるバイアスユニッ
トBの個数nは、n=<W/L>で示される。ここで、
WはニューロンユニットNに必要とされる閾値重み、L
は1つのバイアスユニットBの制限値であり、記号<x
>は、xを下回らない最小の整数値を示す。例えば、<
2.4>=3、<2>=2である。
【0030】なお、バイアスユニット部50からの閾値
重みWが制限値Lを越えて設定されるためには、上記の
ようにバイアスユニットBの個数を増加する方法の他
に、バイアスユニット部50からの出力値(電圧値)を
増加する方法がある。
【0031】次に、図2には、本発明の原理によるニュ
ーラルネットーク型情報処理装置の構成が示されてい
る。図2において、ニューラルネットワーク52は、入
力層54、中間層56、及び、出力層58を有する3層
構造のPDPモデルであり、中間層56は、中間層用バ
イアスユニット部60に接続され、出力層58は、出力
層用バイアスユニット部62に接続されている。そし
て、バイアスユニット部60、62は、バイアスユニッ
トB、Bを有する。
【0032】前記バイアスユニット部60、62を制御
するために、バイアスユニット制御部64が設けられて
いる。また、学習演算部66は、ニューラルネットワー
ク52からの出力に基づいて、閾値重みWを設定し、該
閾値重みWをバイアスユニット制御部64に供給する。
そして、バイアスユニット制御部64は、必要な閾値重
みWが得られるように、前記バイアスユニット部60、
62を制御し、例えば、バイアスユニット部60、62
内のバイアスユニットB、Bの個数を増加させたり、あ
るいは、バイアスユニット部60、62からの出力値を
増加させる。
【0033】なお、図2において、ニューラルネットワ
ーク52は、3層構造のPDPモデルであるが、本発明
は、PDPモデルに限られず、他のモデルにも適用可能
である。例えば、本発明は、図3に示されるような相互
結合型モデル(ホップフィールドモデル、ボルツマンマ
シンモデル等)にも適用可能であり、図3において、符
号68、68、68、68はニューロンユニットを示
し、符号70は、バイアスユニット部を示す。
【0034】次に、図4には、本発明の原理によるニュ
ーラルネットワーク型情報処理装置のフローチャートが
示されている。図4において、ステップ72で開始し、
ステップ74で学習を行い、すなわち、閾値重みWの更
新を行い、ステップ76に進む。ステップ76では、閾
値重みWがバイアスユニット部の制限値Lと比較され、
ステップ76において|W|>Lの場合には、ステップ
78に進み、1つのバイアスユニットの閾値重みをW/
<W/L>にして、バイアスユニット部内のバイアスユ
ニットの数を<W/L>にしたり、あるいは、バイアス
ユニット部の出力値を<W/L>倍する。なお、前述し
たように、記号<x>は、xを下回らない最小の整数値
を示す。
【0035】ステップ78の処理が完了すると、ステッ
プ80に進む。また、前記ステップ76で|W|≦Lの
場合には、ステップ76から直接にステップ80に進
む。ステップ80で学習が完了していない場合には、ス
テップ74に戻り、一方、ステップ80で学習が完了し
た場合には、ステップ82に進み、動作を終了する。
【0036】
【実施例】以下、図面に基づいて本発明の好適な実施例
を説明する。本発明の実施形態としては、(1)ソフト
ウエア、(2)ハードウエアの2つが考えられる。ま
た、本発明は、ニューロンユニットの閾値をある有限値
に設定するものであり、本発明の適用は、特定のニュー
ラルネットワークモデル、例えば、階層型モデルやホッ
プフィールドモデルに限定されるものではない。
【0037】以下、富士通株式会社製のアナログニュー
ロチップ(MB4442)を例にとって説明する。この
MB4442は、実行専用チップであり、学習は、ソフ
トウエアシミュレータで行う。また、ニューラルネット
ワークは、階層型モデルである。そして、MB4442
の閾値重みWは、16ビットの固定小数点表示(符号1
ビット+データ15ビット)であり、重みWは、 |W|≦1−2-15 =1 に制限される。
【0038】まず、図5には、本発明の第1実施例によ
るニューラルネットワーク型情報処理装置が示されてい
る。なお、図5の装置は、ソフトウエアで学習を行い、
専用ハードウエアで実行するものである。
【0039】図5(A)において、ソフトウエアシミュ
レータ84は、前記図4のフローチャートに基づいて学
習を行い、閾値重みW及びしきい値(バイアスユニット
数)を求める。この閾値重みW及びしきい値は、例えば
ROMライタ86でROM88に転送される。
【0040】一方、図5(B)において、符号90は、
MB4442によるニューラルネット構成部90aを有
するユニット部を示し、該ユニット部90は、入力信号
処理部92及び出力信号処理部94に接続されている。
なお、入力信号処理部92には、入力信号INが供給さ
れ、出力信号処理部94は、出力信号OUTを出力す
る。また、ユニット部90、入力信号処理部92、及
び、出力信号処理部94は、信号制御部96により制御
される。そして、ユニット部90は、前記ROM88を
含み、該ROM88は、前述したように、しきい値及び
閾値重みWを有しており、これにより、ROM88は、
バイアスユニット数に基づいて、ニューラルネット構成
部90aのバイアスユニット部を制御する。例えば、ニ
ューラルネット構成部90aのバイアスユニット部は、
ROM88に基づきデータを複数回読み出すと、バイア
スユニット部は、読出し回数に対応して複数のバイアス
ユニットを有することとなる(前記図1参照)。このよ
うに、ROM88は、バイアスユニット部を制御するよ
うに機能する。
【0041】次に、図6には、本発明の第2実施例によ
るニューラルネットワーク型情報処理装置が示されてい
る。なお、図6の装置は、専用ハードウエアで学習及び
実行するものである。
【0042】前記図5の装置では、学習及びバイアスユ
ニット数の決定をソフトウエアで行ったが、図6の装置
では、学習機能付のチップが使用されている。すなわ
ち、図6では、前記図4のフローチャートをROM化し
たバイアスユニット制御部98が設けられており、該バ
イアスユニット制御部98は、学習を行い、ニューラル
ネット構成部90bのバイアスユニット部を制御し、す
なわち、バイアスユニット部内のバイアスユニットの個
数を制御する。
【0043】
【発明の効果】以上説明したように、本発明によれば、
バイアスユニット制御部は、1つのバイアスユニットの
制限値を越えた閾値重みをバイアスユニット部から出力
させることができるので、ニューロンユニットに必要と
される閾値重みを得ることができ、従って、ニューラル
ネットワークの学習を継続させることが可能である。
【0044】なお、本発明においては、ニューラルネッ
トワーク型情報処理装置をニューロチップ等のニューロ
専用のハードウエアで実現する際に、重みデータ特にし
きい値データをある有限値の範囲に設定するときに効果
がある。
【0045】また、本発明は、専用ハードウエアによる
ニューラルネットワーク型情報処理装置の実現に効果が
あり、すなわち、ニューロ技術の実用化推進に効果が期
待される。なお、専用のハードウエアによるニューラル
ネットワーク型情報処理装置は、学習時間等の処理時間
の短縮、及び、機器の小型化を特徴としている。
【図面の簡単な説明】
【図1】本発明の原理によるニューラルネットワーク型
情報処理装置の説明図である。
【図2】本発明の原理によるニューラルネットワーク型
情報処理装置の構成説明図である。
【図3】相互結合型モデルの説明図である。
【図4】本発明の原理によるニューラルネットワーク型
情報処理装置のフローチャート図である。
【図5】本発明の第1実施例によるニューラルネットワ
ーク型情報処理装置の説明図である。
【図6】本発明の第2実施例によるニューラルネットワ
ーク型情報処理装置の説明図である。
【図7】ニューロンモデルの説明図である。
【図8】ニューロンユニットの出力y1 =f(x1 、θ
i )のグラフ図である。
【図9】3層構造のニューラルネットワークの説明図で
ある。
【符号の説明】
50…バイアスユニット部 B…バイアスユニット N…ニューロンユニット

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 入力(x0 〜xn )及び閾値(θ)に基
    づいて、出力(y)を出力するニューロンユニット
    (N)と、 少なくとも1つのバイアスユニット(B)を有し、該バ
    イアスユニット(B)からの出力値(V)と閾値重み
    (W)とに基づいて、前記ニューロンユニット(N)に
    閾値(θ)を出力するバイアスユニット部(50)と、 該バイアスユニット部(50)を制御するバイアスユニ
    ット制御部(88、98)と、を含み、 前記バイアスユニット制御部(88、98)は、1つの
    バイアスユニット(B)の制限(L)を越える閾値重み
    (W)をバイアスユニット部(50)から出力させるこ
    とが可能であることを特徴とするニューラルネットワー
    ク型情報処理装置。
  2. 【請求項2】 前記請求項1記載のニューラルネットワ
    ーク型情報処理装置において、 前記バイアスユニット制御部(88、98)は、バイア
    スユニット部(50)内のバイアスユニット(B)の個
    数を変更可能であることを特徴とするニューラルネット
    ワーク型情報処理装置。
  3. 【請求項3】 前記請求項1記載のニューラルネットワ
    ーク型情報処理装置において、 前記バイアスユニット制御部(88、98)は、バイア
    スユニット部(50)からの出力値を変更可能であるこ
    とを特徴とするニューラルネットワーク型情報処理装
    置。
  4. 【請求項4】 前記請求項1記載のニューラルネットワ
    ーク型情報処理装置において、 前記バイアスユニット制御部(88、98)は、バイア
    スユニット部(50)内のバイアスユニット(B)の個
    数を変更可能であり、且つ、バイアスユニット部(5
    0)からの出力値を変更可能であることを特徴とするニ
    ューラルネットワーク型情報処理装置。
JP3176726A 1991-07-17 1991-07-17 ニユーラルネツトワーク型情報処理装置 Withdrawn JPH0520294A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3176726A JPH0520294A (ja) 1991-07-17 1991-07-17 ニユーラルネツトワーク型情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3176726A JPH0520294A (ja) 1991-07-17 1991-07-17 ニユーラルネツトワーク型情報処理装置

Publications (1)

Publication Number Publication Date
JPH0520294A true JPH0520294A (ja) 1993-01-29

Family

ID=16018710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3176726A Withdrawn JPH0520294A (ja) 1991-07-17 1991-07-17 ニユーラルネツトワーク型情報処理装置

Country Status (1)

Country Link
JP (1) JPH0520294A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7511422B2 (en) 2003-10-02 2009-03-31 Kabushiki Kaisha Toyota Jidoshokki Organic electroluminescent element with specific structure connecting luminescent regions and organic electroluminescent device including the same
US7855506B2 (en) 2003-10-02 2010-12-21 Kabushiki Kaisha Toyota Jidoshokki Electric field light emitting element
WO2019131147A1 (ja) * 2017-12-28 2019-07-04 Tdk株式会社 積和演算器、ニューロモーフィックデバイスおよび積和演算器の使用方法
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7511422B2 (en) 2003-10-02 2009-03-31 Kabushiki Kaisha Toyota Jidoshokki Organic electroluminescent element with specific structure connecting luminescent regions and organic electroluminescent device including the same
US7855506B2 (en) 2003-10-02 2010-12-21 Kabushiki Kaisha Toyota Jidoshokki Electric field light emitting element
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
WO2019131147A1 (ja) * 2017-12-28 2019-07-04 Tdk株式会社 積和演算器、ニューロモーフィックデバイスおよび積和演算器の使用方法
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
US7904398B1 (en) Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
Villmann et al. Magnification control in self-organizing maps and neural gas
KR102449837B1 (ko) 신경망 학습 방법 및 장치, 및 인식 방법 및 장치
Guyon Applications of neural networks to character recognition
Warner et al. Understanding neural networks as statistical tools
US9367798B2 (en) Spiking neuron network adaptive control apparatus and methods
Jiang et al. Stock price forecast based on LSTM neural network
Rajchakit et al. Stability analysis of neural networks
Kumaraswamy Neural networks for data classification
Godjevac et al. Neuro-fuzzy control of a mobile robot
Swiniarski Introduction to neural networks
JPH0520294A (ja) ニユーラルネツトワーク型情報処理装置
JP2760145B2 (ja) 知識情報処理装置
KR950012359B1 (ko) 신경회로망 구조와 학습방법
Grossberg Birth of a learning law
Widrow et al. Artificial neural networks of the perceptron, madaline, and backpropagation family
JP5458791B2 (ja) 連想記憶装置、連想記憶方法、及びプログラム
Pao Neural net computing for pattern recognition
Kasabov et al. Spatial-temporal adaptation in evolving fuzzy neural networks for on-line adaptive phoneme recognition
Chandra A Survey on deep learning its architecture and various applications
PANDYA et al. A stochastic parallel algorithm for supervised learning in neural networks
Paine et al. Adaptive motor primitive and sequence formation in a hierarchical recurrent neural network
Nurmamatovich UNRAVELING NEURAL NETWORKS: UNDERSTANDING THEIR MAIN FUNCTION AND THE ROLE OF PERCEPTRONS
Bishesh Neural Networks for Big Data Analytics
Castillo et al. Introduction to Neural Networks

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19981008