JPH05165800A - ニューラルネットを用いた情報処理装置 - Google Patents

ニューラルネットを用いた情報処理装置

Info

Publication number
JPH05165800A
JPH05165800A JP3332046A JP33204691A JPH05165800A JP H05165800 A JPH05165800 A JP H05165800A JP 3332046 A JP3332046 A JP 3332046A JP 33204691 A JP33204691 A JP 33204691A JP H05165800 A JPH05165800 A JP H05165800A
Authority
JP
Japan
Prior art keywords
character
layer
network
word
neuron element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3332046A
Other languages
English (en)
Inventor
Kenji Okuma
建司 大熊
Toshiaki Tanaka
俊明 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP3332046A priority Critical patent/JPH05165800A/ja
Publication of JPH05165800A publication Critical patent/JPH05165800A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

(57)【要約】 【目的】 複数の部分ネットワークを統一的に接続し、
連想精度を向上し得るニューラルネットを用いた情報処
理装置を提供することを目的とする。 【構成】 処理対象の入力信号をニューラルネットに与
えて、該入力信号に対応した出力信号を得るニューラル
ネットを用いた情報処理装置であって、全体のネットワ
ークが複数の部分ネットワークから構成され、前記各部
分ネットワークは出力層の出力信号が入力層へ戻る循環
型の階層構造を持つとともに、各々の層の一部又は全部
を互いに共有することにより相互作用して動作するよう
にした。 【効果】 連想の精度が向上する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、パターン認識や連想記
憶等に応用されるニューラルネットを用いた情報処理装
置に関する。
【0002】
【従来の技術】近年、ニューラルネットの研究が進めら
れる中で、ニューラルネットを用いた情報処理装置の開
発がなされている。
【0003】ニューラルネットの応用分野は非常に広
く、注目されているネットワークとして、初期条件を入
力したときそれを基に記憶パターンを自立的に探索する
Hopfield型ネートワークがある。この型のニュ
ーラルネットは、一層でニューロン同志が相互結合した
構造をしており、内部表現を行なう中間層を持たない。
また、個々の問題に対応するのにニューロン間の結合強
度を設定し直すだけで済み、プログラムをわざわざアル
ゴリズムとして書く必要がないといったメリットを有す
る。このような特徴をいかし、連想記憶装置や組み合わ
せ最適化問題の解法などへの応用が試みられている。
【0004】ところが、このよう一層型のHopfie
ld型ネットワークは、その構造の特性から以下に示す
如くの欠点があった。例えば、2次元ドットパターンを
与え、記憶された文字パターンの中からこのドットパタ
ーンに近いものを想起する連想記憶装置と、3文字の文
字種の組合わせを与え、記憶された組合わせ(3文字単
語)の中からこの組合わせに近いものを想起する連想記
憶装置とが一層型のニューラルネットに実現された場合
には、この2種類の連想記憶装置を適切に接続すること
によって、前記文字パターンを想起する連想記憶装置を
単独で動作させたときよりも想起能力を向上させ得るこ
とが期待される。しかし、2種類のネットワークでは、
同一の文字種類の情報表現が異なるので、その接続方法
に工夫が必要となり、例えば3個の文字種の組合わせを
3個の2次元ドットパターンで表わすという方法を用い
た場合には、2次元ドットパターンのメッシュ幅が細か
くなったり階層構造が複雑になると、必要とするニュー
ロン素子の個数や結合係数が膨大になり実用的でない。
【0005】
【発明が解決しようとする課題】このように、従来にお
けるニューラルネットを用いた情報処理装置では、複数
のネットワーク(部分ネットワーク)をモジュールとし
て組み合わせて大規模なネットワーク(全体のネットワ
ーク)を構築する際には、各モジュール間の接続が問題
となり、円滑な動作が望めないという欠点があった。
【0006】この発明はこのような従来の課題を解決す
るためになされたもので、この目的とするところは、個
々のネートワークを統一的に接続し得るニューラルネッ
トを用いた情報処理装置を提供することにある。
【0007】
【課題を解決するための手段】上記目的を達成するた
め、本発明は、処理対象の入力信号をニューラルネット
に与えて、該入力信号に対応した出力信号を得るニュー
ラルネットを用いた情報処理装置であって、全体のネッ
トワークが複数の部分ネットワークから構成され、前記
各部分ネットワークは出力層の出力信号が入力層へ戻る
循環型の階層構造を持つとともに、各々の層の一部又は
全部を互いに共有することにより相互作用して動作する
ことが特徴である。
【0008】
【作用】上述の如く構成すれば、各部分ネットワークど
うしが共通の複合型ニューロンによって結合される。そ
して、この複合型ニューロンの状態変数を、各部分ネッ
トワークのもつニューロン素子の状態を基に演算し、こ
れによって独立した部分ネットワークどうしの相互作用
が行なわれる。
【0009】その結果、各部分ネツトワークを独立に動
作させたときよりも高精度なパターンの連想を行なうこ
とができるようになる。
【0010】
【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明の一実施例に係わる情報処理装置の
構成図である。
【0011】同図に示す情報処理装置は、2次元ドット
パターンから文字の種類を想起する複数(図では3個)
の文字連想サブネットワーク10と、3文字の組合せか
ら3文字単語を想起する単語連想サブネットワーク11
とで全体のネットワークが構成され、完全な文字パター
ンの想起と、各文字パターンの組合せから成る3文字単
語の想起を同時に行なうものである。
【0012】文字連想サブネットワーク10は、複数の
ニューロン素子1から成る入力層4と、複数の複合型ニ
ューロン素子2を有する文字層5と、入力層4と文字層
5とを結合する結合部8から構成される。また、各文字
連想サブネットワーク10の文字層5によって3文字層
6が構成される。
【0013】単語連想サブネットワーク11は、前記3
文字層6と、複数の線形ニューロン素子3から成る単語
層7と、3文字層6と単語層7とを結合する結合部9か
ら構成される。
【0014】即ち、文字連想サブネットワーク10と、
単語連想サブネットワーク11は3文字層6によって結
合され、全体のネットワークが構成されている。
【0015】次に、本実施例の動作を図2に示したフロ
ーチャートを参照しながら説明する。まず、図1におい
て、ニューロン素子1、複合型ニューロン素子2、およ
び、線形ニューロン素子3の状態変数を各々xi
j 、およびzk とし、連続実数値を取るものと定義す
る。また、結合部8において、入力層4から文字層5へ
の結合を結合係数uji、文字層5から入力層4への結合
を結合係数vijと定義する。更に、結合部9において、
3文字層6から単語層7への結合を結合係数Ukj、単語
層7から3文字層6への結合を結合係数Vjkと定義す
る。なお、各結合係数uji、vij、Ukj、Vjkの具体的
な設定方法は後述する。
【0016】そして、ニューロン素子1は、入力を
j 、出力をxi 、結合係数をvijとしたとき次の
(1)式に従って動作する。
【0017】
【数1】 また、複合型ニューロン素子2は2系統の入力を持ち、
各々に対する入力をxi ,zk 、結合係数をuji
jk、出力をyj としたとき次の(2)式に従って動作
する。
【0018】
【数2】 ここで、μchar,μwordは混合率と呼ばれる正の定数で
ある。また、線形ニューロン素子3は、入力をyj 、出
力をzk 、結合係数をUkjとしたとき、次の(3)式に
従って動作する。
【0019】
【数3】 そして、このように定義されたネットワークにおいて、
3個の入力層4の各々が有するニューロン素子1の初期
状態x(0) が設定される(ステップST1)。ここで
の設定では、2次元パターンを図3のように5×5のメ
ッシュに区切り、これを1次元的に並び換えて各メッシ
ュの値Ii とあらかじめ設定しておいた2個の閾値θ1,
θ2 (θ1 <θ2 )とを比較し、各ニューロン素子1の
初期値xi を、Ii <θ1 のときはxi =−1、θ1
I <θ2 のときはxi =0、Ii >θ2 のときはxi
=1と設定する。各入力層4が有するニューロン素子1
の個数はN=25、合計の個数は3N=75となる。な
お、3組の入力層4を区別するために、ニューロン素子
1を識別する添字iには、i=1、…、3Nの通し番号
を付す。また、このときの時刻をt=0とする。
【0020】次に、時刻t=0での各文字層5が有する
複合型ニューロン素子2の状態y(0 ) j を各入力層4か
らの信号を基に次の(4)式にて決定する(ステップS
T2)。
【0021】
【数4】 ここで、p(=1,2,3)は3組の文字連想サブネッ
トワーク10を区別する添字である。そして、2系統あ
る複合型ニューロン素子2の入力のうち、時刻t=0で
入力信号とは無関係に決まる線形ニューロン素子3から
の信号は利用しない。また、ニューロン素子1の、時刻
t+1での状態x(t+1) i は、複合型ニューロン素子2
の時刻tにおける状態を基に、次の(5)式で決定され
る。
【0022】
【数5】 そして、これと同時に、線形ニューロン素子3の時刻t
+1での状態z(t+1) k が、複合型ニューロン素子2の
時刻tにおける状態を基に、次の(6)式にて決定され
る(ステップST3)。
【0023】
【数6】 次いで、複合型ニューロン素子2の、時刻t+1におけ
る状態y(t+1) k は、各入力層4のニューロン素子1、
及び単語層7の線形ニューロン素子3の時刻t+1にお
ける状態を基に、次の(7)式で決定される(ステップ
ST4)。
【0024】
【数7】 この過程によって、3組の文字層5と3文字層6とが結
合され、計4個のサブネットワークの接続が実現され
る。
【0025】そして、複合型ニューロン素子2の、時刻
t+1における状態変数yj 変化分(y(t+1) j −y
(t) j )の絶対値がすべてのニューロン素子2について
求められ、この数値がすべて設定値よりも小さいか否か
が判定される(ステップST5)。そして、すべての変
化分の絶対値が設定値よりも小さくならないときには
(ステップST5でNO)ステップST3、ST4の動
作を繰り返す。また、すべての変化分の絶対値が設定値
よりも小さい場合には(ステップST5でYES)、状
態更新は停止される。
【0026】その結果、標準文字パターンが、各々Jp
番目(p=1,2,3)(Jは記憶文字パターンの番
号)、また、各文字パターンの組合せに対する単語がK
番目(kは記憶単語パターンの番号)の状態に収束した
場合には、その状態は次の(8)、(9)、(10)式
にて示される。
【0027】
【数8】 ここで、νchar,νwordは次の(11),(12)式を
満たす実定数である。
【数9】 ただし、ξJp はJp 番目の文字パターンのi番目の成
分を示し、取り得る値は±1である。また、Ξk j は、
K番目の単語のj 番目の成分を示し、取り得る値は±1
である。また、λ、Λは拡大率である。
【0028】なお、μchar, μwordを適切に設定するこ
とにより、相互作用が実現される。相対的に、μchar
大きく設定すれば文字主導型の認識となり、μwordを大
きく設定すれば単語主導型の認識となる。
【0029】こうして、収束した3文字の単語パターン
は、文字連想サブネットワーク10と単語連想サブネッ
トワーク11とが互いに影響し合っているので、それぞ
れのサブネットワーク10,11を単独に動作させたと
きよりも想起能力が向上する。
【0030】次に,文字連想サブネットワーク10と、
単語連想サブネットワーク11を独立に動作させた際の
例について説明する。
【0031】ここで、文字連想サブネットワーク10を
単独で動作させるには、(8)〜(10)式において混
合係数をμchar=1、μword=0と設定すれば良く、単
語連想サブネットワーク11を単独で動作させるには、
混合係数をμchar=0、μwo rd=1と設定すれば良い。
【0032】また、図1に示したネットワークは、3組
の図4に示す文字連想ネットワーク10a、及び図5に
示す単語連想サブネットワーク11aとに分解できる。
【0033】ただし,このとき複合型ニューロン素子2
は、線形ニューロン素子12(図4)および、ニューロ
ン素子13(図5)の2個に分解される。以下では、各
々のサブネットワークが独立しているときの動作につい
て説明する。
【0034】図4に示す文字連想サブネットワーク10
aは、複合型ニューロン素子2が線形ニューロン素子1
2に置き換わった以外は、図1の文字連想サブネットワ
ーク10と同一である。
【0035】文字連想サブネットワーク10aは、2次
元ドットパターンが与えられると、記憶されている標準
文字パターンの中から、最も近いものを入力層4の上に
想起する。それと同時に、文字層5の上に文字パターン
に対応するニューロンだけが興奮したパターンを示す。
すなわち、各線形ニューロン素子12は、文字認識ニュ
ーロンに相当する。
【0036】また、ニューロン素子1の初期値の設定
は、図1のときと同様に行なわれる。つまり、手書き文
字を読み取って得られた2次元パターンを図3の如く5
×5のメッシュに区切り、これを1次元的に並び換えて
各メッシュの値Ii とあらかじめ設定しておいた2個の
閾値θ1 ,θ2 (θ1 <θ2 )とを比較し、Ii <θ1
のときはxi =−1、θ1 <II <θ2 のときはxi
0、II >θ2 のときはxi =1とニューロン素子1の
状態変数xi の初期値を設定する。ただし、この例で
は、文字連想サブネットワーク10aが独立に動作する
ので、状態変数xの添字iは、通し番号でなく、1から
25(=5×5=N)までの整数とする。
【0037】そして、文字連想サブネットワーク10a
の状態更新は、次の(13)、(14)式に示す漸化式
によって行なう。
【0038】
【数10】 また、文字連想サブネットワーク10aには、図6に示
してある6種類の英字:‘A’,‘E’,‘N’,
‘O’,‘P’,‘T’に対する標準文字パターンを記
憶させておく。したがって、状態変数yの添字jは、1
から6(=M)までの整数とする。
【0039】そして、上記の動作式を繰り返すことによ
って記憶パターンが想起されるようにするには、結合係
数uji,vijを次のように与えれば良い。ただし、j番
目の文字パターンのi番目の成分をξj i (取り得る値
は±1)とする。この成分間の相関行列をγ:
【数11】 としたとき、その逆行列γ-1を用いて、ξj i に対する
共役ベクトルηj i は次の(16)式で求められる。
【0040】
【数12】 このξj i ,ηj i を用いて、結合係数uji,vijは、
次の(17),(18)式で与えられる。
【0041】
【数13】 ここで、λは拡大率であり、1より大きい値に設定す
る。このような設定のとき、J番目の標準文字パターン
に対応する収束状態は、次の(19),(20)式で与
えられる。
【0042】
【数14】 ここで、実定数νc は次の(21)式を満たす定数であ
る。
【0043】 tanh( λνc )=νc …(21) 次に、図5に示す単語連想サブネットワーク11aにつ
いて説明する。このサブネットワークは、複合型ニュー
ロン素子2がニューロン素子13に置き換わった以外
は、図1の文字連想サブネットワーク11と同一であ
る。
【0044】図5において、単語連想サブネットワーク
11aの3文字層6は3組の文字層5からなる。また、
文字層5は、文字連想サブネットワーク10aに記憶さ
れている6種類の英字の各々に対応するニューロン素子
13を有する。そして、単語連想サブネットワーク11
a には、この6種類の英字を順に3個並べた組み合わせ
のうち、‘ANT’,‘ATE’,‘EAT’,‘NE
T’,‘NOT’,‘PEN’,‘POT’,‘TE
A’,‘TEN’,‘TOP’の10個が単語として記
憶されている。したがって、状態変数zの添字kは、1
から10(=L)までの整数となる。また、単語層7は
これら10個の単語を認識する線形ニューロン素子3を
有している。
【0045】そして、単語連想サブネットワーク11a
の状態更新は、次の(22)、(23)式に示す漸化式
によって行なう。
【0046】
【数15】 その結果、ニューロン素子13に初期値を与え、上記の
動作式を繰り返すことによって収束した状態において、
記憶されている単語の中から最も近いものが単語層7の
上に想起される。それと同時に、単語に対応する文字ご
との適合度が3文字層6の上に示される。
【0047】このように動作させるためには、結合係数
kj,Vjkを次のように与えれば良い。ここで、k番目
の単語のj番目の成分をΞk j (取り得る値は±1)と
し、この成分間の相関行列をΓ:
【数16】 としたとき、その逆行列Γ-1を用いて、Ξk j に対する
共役ベクトルHk j は次の(25)式として求められ
る。
【0048】
【数17】 このΞk j ,Ηk j を用いて、結合係数Ukj,Vjkを、
次の(26),(27)式で与える。
【0049】
【数18】 ここでΛは拡大率で、1より大きい定数とする。このよ
うな設定のとき、K番目の標準文字パターンに対応する
収束状態は、次の(28),(29)式で示される。
【0050】
【数19】 ここで、実定数νw は次の(30)式を満たす定数であ
る。
【0051】 tanh(Λνw )=νw …(30) こうして、文字連想サブネットワーク10と単語連想サ
ブネットワーク11とを独立に動作させたときの収束状
態を得ることができるのである。
【0052】本発明の有効性を示すために、文字サブネ
ットと単語サブネットワークを組み合わせた上記実施例
の方式で想起させた場合(図1)と、従来手法通りに文
字サブネットワークだけで独立に想起させた場合(図
7)との比較実験を行なった。パラメタは、本実施例の
場合ではλ=1.5,Λ=1.5,μchar=0.9,μ
word=0.1とし、従来例ではλ=1.5とした。この
とき、νchar,νwordの値は、各々式(11),(1
2)からνchar=νword=0.86、νc の値は、式
(21)からνc =0.86となる。各々の入力層4に
入力する2次元ドットパターンは、順に‘N’,
‘E’,‘T’の各標準パターンにノイズをかけたもの
を用いた。ノイズは、乱数によって選んだ7ケ所の明暗
を反転することによりかけた(図8)。各々に対する結
果を、図9、図10に示す。従来方式では、2番目の文
字が誤って想起されているのに対し(図10)、本発明
の方式では、単語の情報を利用して正しく想起されてい
ることが分かる(図9)。
【0053】なお、上記実施例ではサブネットワークと
して2層の循環型ネットワークを用いたが、組み合わせ
上の必要に応じて、複数の内部表現を持つ3層以上のネ
ットワークを用いた場合にも本発明を適用することがで
きる。また、上記実施例ではサブネットワーク同士の互
いに共有しあう層における相互作用として、各々のサブ
ネットワークからの入力に重み付けしたものの単純和を
用いたが、これをより適切な関数に置き換えた場合に本
発明を適用することもできる。また、上記実施例では状
態の更新を同期的に行なったが、これを非同期にした場
合にも本発明を適用することもできる。
【0054】
【発明の効果】以上述べたように、本発明のニューラル
ネットを用いた情報処理装置によれば、従来の一層型の
ネットワークでは困難であった個々のネットワーク間の
接続が容易に行なえるようになる。そのため、例えば、
階層型の知識が有るとき、その各層を個々の部分ネット
ワークによって実現した後で、それらの部分ネットワー
ク同士を組み合わせることにより、全体的な知識を容易
に実現することが可能であるという効果を奏する。
【図面の簡単な説明】
【図1】本発明が適用されたニューラルネットを用いた
情報処理装置の一実施例を示す構成図である。
【図2】本実施例の動作を示すフローチャートである。
【図3】入力に用いる2次元パターンの例を示す説明図
である。
【図4】文字連想サブネットワークを示す構成図であ
る。
【図5】単語連想サブネットワークを示す構成図であ
る。
【図6】文字連想サブネットトワークに記憶させる標準
文字パターンを示す説明図である。
【図7】従来の文字連想サブネットワークをそれぞれ独
立に動作させて使用する際の構成図である。
【図8】ノイズを含んだ2次元入力パターンを示す説明
図である。
【図9】本発明に係わるニューラルネットを用いた情報
処理装置を用いたときの想起結果を示す説明図である。
【図10】従来方式で文字連想サブネットを独立に動作
させたときの想起結果を示す説明図である。
【符号の説明】
1 ニューロン素子 2 複合型ニューロン素子 3 線形ニューロン素子 4 入力層 5 文字層 6 3文字層 7 単語層 10 文字連想サブネットワーク 11 単語サブネットワーク

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 処理対象の入力信号をニューラルネット
    に与えて、該入力信号に対応した出力信号を得るニュー
    ラルネットを用いた情報処理装置であって、 全体のネットワークが複数の部分ネットワークから構成
    され、前記各部分ネットワークは出力層の出力信号が入
    力層へ戻る循環型の階層構造を持つとともに、各々の層
    の一部又は全部を互いに共有することにより相互作用し
    て動作することを特徴とするニューラルネットを用いた
    情報処理装置。
JP3332046A 1991-12-16 1991-12-16 ニューラルネットを用いた情報処理装置 Pending JPH05165800A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3332046A JPH05165800A (ja) 1991-12-16 1991-12-16 ニューラルネットを用いた情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3332046A JPH05165800A (ja) 1991-12-16 1991-12-16 ニューラルネットを用いた情報処理装置

Publications (1)

Publication Number Publication Date
JPH05165800A true JPH05165800A (ja) 1993-07-02

Family

ID=18250539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3332046A Pending JPH05165800A (ja) 1991-12-16 1991-12-16 ニューラルネットを用いた情報処理装置

Country Status (1)

Country Link
JP (1) JPH05165800A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
Dogaru et al. Universal CNN cells
US5249259A (en) Genetic algorithm technique for designing neural networks
DE112008003510T5 (de) Im Mikro- und/oder Nanobereich liegende Neuromorphe integrierte Hybridschaltung
Boubez et al. Wavelet neural networks and receptive field partitioning
Takefuji et al. Design of parallel distributed Cauchy machines
Ghosh et al. Object background classification using Hopfield type neural network
DE60125536T2 (de) Anordnung zur generierung von elementensequenzen
JPH05165800A (ja) ニューラルネットを用いた情報処理装置
Hafner et al. Learning hierarchical information flow with recurrent neural modules
EP0349819B1 (de) In integrierter Schaltungstechnik ausgeführtes digitales neuronales Netz
Bishop et al. Neural networks-an introduction
Deffuant Neural units recruitment algorithm for generation of decision trees
JPH0457181A (ja) 多重神経回路網の構築方法およびその装置
DE3607241C2 (ja)
Auda et al. A new neural network structure with cooperative modules
Arena et al. MLP optimal topology via genetic algorithms
Szu Neural networks based on peano curves and hairy neurons
Solla et al. Constrained neural networks for pattern recognition
US5426721A (en) Neural networks and methods for training neural networks
Babri et al. Deep feedforward networks: application to pattern recognition
Mandziuk et al. Incremental class learning-an approach to longlife and scalable learning
El-Bakry Modular neural networks for solving high complexity problems
Han et al. Explore the Knowledge contained in Network Weights to Obtain Sparse Neural Networks
JPH0855098A (ja) ニューラルネットワーク・クラシファイアおよびニューラルネットワークの構成法
Zhang et al. Performance aspects of a novel neuron activation function in multi-layer feed-forward networks