JPH04264664A - 神経回路網型パターン処理装置 - Google Patents

神経回路網型パターン処理装置

Info

Publication number
JPH04264664A
JPH04264664A JP3024506A JP2450691A JPH04264664A JP H04264664 A JPH04264664 A JP H04264664A JP 3024506 A JP3024506 A JP 3024506A JP 2450691 A JP2450691 A JP 2450691A JP H04264664 A JPH04264664 A JP H04264664A
Authority
JP
Japan
Prior art keywords
input
output
normalization
neural network
normalization constant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3024506A
Other languages
English (en)
Inventor
Tadashi Uchiyama
匡 内山
Akira Hiraiwa
明 平岩
Kazuhiko Shinosawa
一彦 篠沢
Katsunori Shimohara
勝憲 下原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3024506A priority Critical patent/JPH04264664A/ja
Publication of JPH04264664A publication Critical patent/JPH04264664A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、神経回路網型パターン
処理装置に関し、特に、アナログ値をとる入力および期
待出力が実時間で逐次与えられる学習を行う場合におい
て、入力と期待出力をその最大絶対値に応じて装置内で
自動的に正規化し学習を実時間で効率的に行う神経回路
網型パターン処理装置に関するものである。
【0002】
【従来の技術】従来の典型的な神経回路網型パターン処
理装置のうち、多入力・1出力で入出力ともにアナログ
量を扱うものは、図1に示されるような3層の神経回路
網で構成される装置となっている。図1における神経回
路網は入力層1,中間層2,出力層3の3層から構成さ
れており、入力層1から出力層3へ向かう方向に各層の
処理ユニットが結合されている。まず、入力層1のN個
の処理ユニット(入力ユニット11〜1N)に提示され
たアナログ入力は正規化され、中間層2のM個の処理ユ
ニット(中間ユニット21〜2M)へ送られる。ここで
変換を受けた後に更に出力層3の処理ユニット(出力ユ
ニット31)へと送り出される。アナログの入出力を扱
う神経回路網において学習を確実に遂行するためにはア
ナログ入力および期待出力を正規化することが必須であ
る。このため、通常、次に説明するように神経回路網が
構成される。
【0003】図2は神経回路網における入力ユニットの
構造を説明する図である。入力ユニット1jは外部から
のアナログ入力を受ける部分1jAと、これを正規化す
る部分1jBとから構成されている。例えば、j番目の
入力ユニット1jは、入力として提示されるアナログ入
力pj(pjはゼロまたは正の値をとるものとして扱わ
れることが多い)を適当な定数Pjで正規化し、その正
規化入力xj;
【0004】
【数1】
【0005】を出力として中間ユニットへ送出する。学
習を確実に遂行するためには入力ユニット1jの出力x
jは0≦xj≦1に制限したほうがよい。したがって定
数Pjは、予めこのアナログ入力がとる値の範囲を調べ
ておき、その最大値に設定されることが多い。
【0006】図3は神経回路網における中間ユニットの
構造を説明する図である。中間ユニット2iは、入力ユ
ニット1jからの出力を重みづけ総和して入力値に変換
する部分2iAと、この入力値を非線形変換して出力ユ
ニットへ出力する部分2iBとから構成されている。更
に、例えば、j番目の入力ユニット1jからの出力を受
ける部分2iAjには、入力ユニット1jとの結合部2
iCjが付加されている。この結合部2iCjは可変の
重みwijをもっている。j番目(j=1,…,N)の
入力ユニット1jの出力xjに重みwijを掛けて全入
力ユニットにわたり総和したものが、中間ユニット2i
の入力値yiとなる。すなわち、この場合の入力値yi
は次式で与えられる。
【0007】
【数2】
【0008】ここでのwi0は中間ユニット2iの閾値
であり、これは常に1を出力する入力ユニット1jを想
定したとき、この入力ユニット1jと中間ユニット2i
との間に定義される重みと考えることができる。中間ユ
ニット2iの出力値ziは入力値yiを非線形の飽和関
数fによって非線形変換したものである。これは典型的
な非線形の飽和関数であるシグモイド関数を用いれば次
式で表すことができる。
【0009】
【数3】
【0010】図4は神経回路網における出力ユニットの
構造を説明する図である。出力ユニット31は、中間ユ
ニット2iの出力を重みづけ総和する部分31Aから構
成されている。また入力部分の中間ユニット2iからの
出力を受ける部分31Bには、中間ユニット2iとの結
合部31Biが付加されている。この結合部31Biは
可変の重みviをもっている。
【0011】出力ユニット31の出力(神経回路網の出
力)qは、i番目(i=1,…,M)の中間ユニット2
iの出力ziに重みviを掛けて総和したものあり、

0012】
【数4】
【0013】で与えられる。ここでv0は出力ユニット
31における閾値であり、これは常に1を出力する中間
ユニット2iを想定したとき、この中間ユニット2iと
出力ユニット31との間に定義される重みと考えること
ができる。出力ユニット31の出力(神経回路網の出力
)qに、後述する正規化定数Rを掛けることにより、神
経回路網型パターン処理装置としての出力が計算される
【0014】神経回路網型パターン処理装置に特徴的で
ある学習とは、装置の出力と期待出力とを比較し、その
差が小さくなるように重み(閾値を含む)を変える必要
がある。学習のアルゴリズムとして代表的な逆伝搬法は
、結合部の重みを変える操作を、まず出力ユニットと中
間ユニットとの間の結合に対し、次に中間ユニットと入
力ユニットとの間の結合に対して、順次に移行して行う
ものである。この操作をそれぞれの入力に対して繰り返
して行うことにより、正しい入出力関係を得るための最
適な重みおよび閾値を得ることができる。次に、この操
作を具体的に示す。
【0015】ある入力を神経回路網型パターン処理装置
に提示した時、神経回路網の出力qとこのときの期待出
力rとの差を次式で評価することにする。
【0016】
【数5】
【0017】ここで、Rはアナログ量である期待出力を
正規化するための定数である。学習を確実に遂行するた
めには、神経回路網の出力qのとる値は0≦q≦1に制
限したほうがよい。したがって、この定数Rも入力の正
規化定数Pjと同様に、予め期待出力がとり得る値の最
大値に設定されることが多い。こうして定義されるEを
極小にするように最急降下法により重み(閾値を含む)
を更新する。
【0018】各ステップにおける中間ユニット2iから
出力ユニット31への重み(閾値を含む)viの更新量
Δvi(t)は、最急降下法のステップ幅をηとし、モ
ーメンタム係数をαとするとき、1ステップ前の更新量
Δvi(t−1)を用いて次式で与えられる。
【0019】
【数6】
【0020】ここで、δは、
【0021】
【数7】
【0022】である。
【0023】入力ユニット1iから中間ユニット2jへ
の重み(閾値を含む)wijの更新量Δwij(t)は
、最急降下法のステップ幅をηとし、モーメンタム係数
をαとするとき、1ステップ前の更新量Δwij(t−
1)を用いて次式で与えられる。
【0024】
【数8】
【0025】ここで、δiは、
【0026】
【数9】
【0027】である。
【0028】このようにして、重み(閾値を含む)更新
の操作をそれぞれの入力に対して繰り返し行うことによ
り、所期の入出力関係を備えた神経回路網型パターン処
理装置を構成することができる( D. E. Rum
enlhat,G. Hinton and R. J
. Williams, “Learning rep
resentations by backpropa
gatiog errors”, Nature 32
3, 533〜536(1986)を参照)。
【0029】
【発明が解決しようとする課題】このように、従来にお
ける神経回路網型パターン処理装置により、入力あるい
は出力としてアナログ量を扱う場合には、学習を行うた
めに予め入力あるいは期待出力がとる値の範囲を調ベて
おき、これに応じてそれぞれの正規化定数を決めておく
必要があった。しかし、このような装置では、未知の入
力あるいは未知の期待出力が装置に逐次提示される対象
について、提示される入力の処理に並行して実時間で学
習を行うことができないという問題がある。
【0030】本発明の目的は、このような従来の問題点
を解決するためになされたものであり、実時間でアナロ
グの入出力関係の学習が可能である神経回路網型パター
ン処理装置を提供することにある。
【0031】
【課題を解決するための手段】上記の目的を達成するた
め、本発明の神経回路網型パターン処理装置は、各層が
複数の処理ユニットからなる多層の神経回路網を備えた
神経回路網型パターン処理装置において、処理されるべ
き入力を提示する入力提示手段(41)と、入力提示手
段(41)により提示された入力に応じて入力の正規化
定数を決定する入力正規化定数決定手段(42)と、入
力を入力正規化定数決定手段(42)によって決定され
た正規化定数に従って正規化する入力正規化手段(43
)と、入力提示手段(41)により提示される入力に対
応する期待出力を提示する期待出力提示手段(44)と
、期待出力提示手段(44)により提示された期待出力
に応じて期待出力の正規化定数を決定する期待出力正規
化定数決定手段(45)と、期待出力を期待出力正規化
定数決定手段(45)によって決定された正規化定数に
従って正規化する期待出力正規化手段(46)と、入力
正規化定数決定手段(42)および期待出力正規化定数
決定手段(45)からの正規化定数に応じて重みを計算
する重み計算手段(47)と、入力正規化手段(43)
により正規化された入力から重み計算手段(47)によ
り計算される重みを用いて神経回路網の出力を計算する
神経回路網出力計算手段(48)と、神経回路網出力計
算手段(48)により計算された神経回路網の出力から
装置として出力を計算する装置出力計算手段(49)と
、神経回路網出力計算手段(48)により計算された神
経回路網の出力と期待出力正規化手段(46)により正
規化された期待出力との差を計算する比較手段(50)
と、比較手段(50)によって計算された差から各処理
ユニットの閾値および処理ユニット間の結合の重みの更
新量を計算する重み更新量計算手段(51)と、重み更
新量計算手段(51)により計算された更新量だけ各処
理ユニットの閾値および処理ユニット間の結合の重みを
更新する重み更新手段(52)とを有することを特徴と
する。
【0032】
【作用】これによれば、それぞれが複数の処理ユニット
からなる多層の神経回路網を備えた神経回路網型パター
ン処理装置に、入力提示手段(41)と、入力正規化定
数決定手段(42)と、入力正規化手段(43)と、期
待出力提示手段(44)と、期待出力正規化定数決定手
段(45)と、期待出力正規化手段(46)と、重み計
算手段(47)と、神経回路網出力計算手段(48)と
、装置出力計算手段(49)と、比較手段(50)と、
重み更新量計算手段(51)と、重み更新手段(52)
とが備えられる。
【0033】入力提示手段(41)が処理されるべき入
力を提示すると、入力正規化定数決定手段(42)が入
力提示手段(41)により提示された入力に応じて入力
の正規化定数を決定する。入力正規化手段(43)は、
入力を入力正規化定数決定手段(42)によって決定さ
れた正規化定数に従って正規化する。また、この入力時
に、期待出力提示手段(44)が入力提示手段(41)
により提示される入力に対応する期待出力を提示する。 期待出力提示手段(44)が期待出力を提示すると、提
示された期待出力に応じて、期待出力正規化定数決定手
段(45)が期待出力の正規化定数を決定するので、期
待出力正規化手段(46)は、期待出力を期待出力正規
化定数決定手段(45)によって決定された正規化定数
に従って正規化する。一方、重み計算手段(47)は、
入力正規化定数決定手段(42)および期待出力正規化
定数決定手段(45)からの正規化定数に応じて重みを
計算する。計算された重みは神経回路網出力計算手段(
48)に供給され、神経回路網出力計算手段(48)は
、この重みを用いて、入力正規化手段(43)により正
規化された入力から神経回路網の出力を計算する。神経
回路網出力計算手段(48)により計算された神経回路
網の出力は、装置出力計算手段(49)によって、装置
としての出力が計算されて出力される。また、比較手段
(50)は、神経回路網出力計算手段(48)により計
算された神経回路網の出力と期待出力正規化手段(46
)により正規化された期待出力との差を計算する。そし
て、重み更新量計算手段(51)が、比較手段(50)
によって計算された差から各処理ユニットの閾値および
処理ユニット間の結合の重みの更新量を計算する。 計算された重みの更新量は、重み更新手段(52)によ
り、計算された更新量だけ各処理ユニットの閾値および
処理ユニット間の結合の重みを更新する。
【0034】このように、ここでの神経回路網型パター
ン処理装置は、提示される入力および期待出力に対して
、それぞれの最大値に応じて正規化定数を装置内で自動
的に決定して、正規化定数によって正規化した後に神経
回路網の係る一連の処理を一部を並行して行うので、ど
のような範囲の入力が提示されても計算処理が処理不能
となることはなく、提示される入力の処理に並行して実
時間で学習を行うことが可能となる。
【0035】
【実施例】以下、本発明の実施例を図面により詳細に説
明する。図5は本発明の一実施例にかかる神経回路網型
パターン処理装置の要部の構成を示すブロック図ある。 図5において、41は処理されるパターンが入力される
入力提示部、42は入力の正規化定数を決定する入力正
規化定数決定部、43は入力の正規化を行う入力正規化
部、44は入力に対する期待出力が入力される期待出力
提示部、45は期待出力の正規化定数を決定する期待出
力正規化定数決定部、46は期待出力の正規化を行う期
待出力正規化部、47は入力および期待出力から神経回
路網の重みを計算する重み計算部、48は神経回路網の
出力を計算する神経回路網出力計算部、49は神経回路
網の出力から装置としての出力を計算する装置出力計算
部であり、50は神経回路網の出力と正規化された期待
出力を比較する比較部、51は重みの更新量を計算する
重み更新量計算部、52は計算された更新量だけ重みを
実際に更新する更新部、また、53は出力結果を表示す
る出力表示部である。
【0036】入力提示部41が処理されるべき入力を提
示すると、次に入力正規化定数決定部42が入力提示部
41により提示された入力に応じて入力の正規化定数を
決定する。これにより、入力正規化部43は、入力を入
力正規化定数決定部42によって決定された正規化定数
に従って正規化する。また、この入力時に、期待出力提
示部44が入力提示部41により提示された入力に対応
する期待出力を提示するので、提示された期待出力に応
じて、期待出力正規化定数決定部45が期待出力の正規
化定数を決定する。これにより、期待出力正規化部46
は、期待出力を期待出力正規化定数決定部45によって
決定された正規化定数に従って正規化する。一方、重み
計算部47は、入力正規化定数決定部42および期待出
力正規化定数決定部45で既に計算された正規化定数に
応じて重みを計算する。計算された重みは神経回路網出
力計算部48に供給され、神経回路網出力計算部48は
、この重みを用いて、入力正規化部43により正規化さ
れた入力から神経回路網の出力を計算する。神経回路網
出力計算部48により計算された神経回路網の出力は、
装置出力計算部49によって、装置として出力が計算さ
れて出力される。出力される出力結果は、出力表示部5
3で表示される。また、比較部50は神経回路網出力計
算部48により計算された神経回路網の出力と期待出力
正規化部46により正規化された期待出力との差を計算
する。そして、重み更新量計算部51が、比較部50に
よって計算された差から各処理ユニットの閾値および処
理ユニット間の結合の重みの更新量を計算する。計算さ
れた重みの更新量は重み更新部52により、計算された
更新量だけ各処理ユニットの閾値および処理ユニット間
の結合の重みを更新する。
【0037】図6は神経回路網型パターン処理装置の一
連の処理動作の流れを説明するフローチチャートである
。図6を参照して、神経回路網型パターン処理装置の一
連の処理動作の流れを説明する。まず、ステップ61に
おいて正規化定数の初期化の処理を行う。これにより、
入力の正規化定数Pjおよび期待出力の正規化定数Rは
予め小さい正の数に初期化される。
【0038】次に、ステップ62の処理により、入力と
これに対する期待出力を提示する。すなわち、ある時刻
において、アナログ入力pj(j=1,…,N)が入力
提示部41に、また、これに対する期待出力が期待出力
提示部44に提示する。次にステップ63の処理におい
て、正規化定数の決定を行い、次にステップ64の処理
で、入力とこれに対する期待出力の正規化の処理を行う
【0039】すなわち、入力ユニット1jに提示される
アナログ入力pjが現在保持されている入力正規化定数
Pjよりも小さい値であれば、入力正規化定数決定部4
2において入力正規化定数Pjは変更せず、入力正規化
部43において、式(1)に従い正規化を行う。アナロ
グ入力pjが現在保持されている入力正規化定数Pjよ
りも大きい値であれば、入力正規化定数決定部42にお
いて入力正規化定数Pjを変更して、
【0040】
【数10】
【0041】とし、更にこの入力正規化定数の変更を補
償するために、この入力ユニット1jと中間ユニット2
i(i=1,…,M)との重みwijを次の式(13)
にように計算して更新する。
【0042】
【数11】
【0043】現在保持している重みの更新量Δwijは
次式(14)のように計算する。
【0044】
【数12】
【0045】そして、式(12)により計算した新しい
入力正規化定数を用いて入力正規化部43において、式
(1)に従い正規化を行う。
【0046】期待出力提示部44に提示される期待出力
rが、現在保持されている期待出力正規化定数Rよりも
小さい値であれば、期待出力正規化定数決定部45にお
いては、期待出力正規化定数Rを変更せず、期待出力正
規化部46において正規化を行う。期待出力rが、現在
保持されている期待出力正規化定数Rよりも大きい値で
あれば、期待出力正規化定数決定部45において期待出
力正規化定数Rを、
【0047】
【数13】
【0048】とし、さらにこの期待出力正規化定数Rの
変更を補償するために、中間ユニット2i(i=1,…
,M)と出力ユニット31の結合の重みviを次式(1
6)により計算して更新する。
【0049】
【数14】
【0050】また、現在保持している重みの更新量を

0051】
【数15】
【0052】
【数16】
【0053】とする。式(15)で計算した新しい期待
出力正規化定数を用いて、期待出力正規化部46におい
て正規化を行う。
【0054】次にステップ65の処理において神経回路
網の出力を計算する。これは神経回路網出力計算部48
において、式(2),式(3),式(4)に従って神経
回路網の出力qを計算することにより行う。次に、ステ
ップ66の処理で装置としての出力を計算する。これは
、装置出力計算部49において、装置としての出力
【0
055】
【数17】
【0056】を計算することにより行う。
【0057】一方、ステップ65の処理と並行して、ス
テップ67の処理を行い、正規化された期待出力との比
較を行う。これは比較部50において、神経回路網の出
力qと正規化された期待出力から、式(8)にしたがっ
てδを計算することにより行う。続いて並行して行うス
テップ68の処理により重みの更新の処理を行う。これ
は、重み更新量計算部51において式(6),式(7)
,式(9),式(10),式(11)にしたがって、重
みの更新量を計算し、重み更新部52において新たな重
みを計算する。更新された重みはステップ62の処理で
用いられるため、次の時刻の処理のためにステップ62
に戻される。
【0058】次の時刻におけるアナログ入力については
、以上の操作を繰り返すことにより、予め入力あるは期
待出力がとる値の範囲を調ベて正規化定数を決めること
ができない場合についても、提示される入力の処理に並
行して実時間で学習を行うことができる。
【0059】以上に述ベた実施例においては、神経回路
網として多入力・1出力のものを仮定したが、この実施
例ににおける正規化の方式は、多入力・多出力の神経回
路網についても容易に拡張できる。また、以上に述へた
実施例においては、出力ユニットとして線形のユニット
を仮定したが、非線形のユニットを用いる場合について
も同様の正規化の方式を適用することができる。また、
4層以上の多層の神経回路網についても同様に正規化の
方式を適用することが可能である。
【0060】
【発明の効果】以上説明したように、本発明の神経回路
網型パターン処理装置によれば、提示される入力および
期待出力に対して、それぞれの最大値に応じて正規化定
数を装置内で自動的に決定して、正規化定数によって正
規化した後に神経回路網の係る一連の処理を行うので、
どのような範囲の入力が提示されても計算処理が処理不
能となることはなく、提示される入力の処理に並行して
実時間で学習を行うことが可能となる。特に、学習を行
うために予め入力あるいは期待出力がとる値の範囲を調
ベておき、これに応じてそれぞれに正規化定数を決める
ことができない場合についても、正規化定数を自動的に
決定するので、提示される入力の処理に並行して実時間
で学習を行うことが可能となる。
【0061】このように、本発明の神経回路網型パター
ン処理装置は実時間で学習を行うことが可能となるので
、時々刻々と入ってくる新しい情報を実時間で処理の反
映する必要のある分野、例えば、交通の流れの予測・制
御,通信トラヒックの予測・制御,気象予報,株価予測
等の経済予測,…,への幅広い応用が期待できる。
【図面の簡単な説明】
【図1】従来の典型的な神経回路網型パターン処理装置
の多入力・1出力の3層の神経回路網を説明するブロッ
ク図である。
【図2】神経回路網における入力ユニットの構造を説明
する図である。
【図3】神経回路網における中間ユニットの構造を説明
する図である。
【図4】神経回路網における出力ユニットの構造を説明
する図である。
【図5】本発明の一実施例にかかる神経回路網型パター
ン処理装置の要部の構成を示すブロック図である。
【図6】神経回路網型パターン処理装置の一連の処理動
作の流れを説明するフローチャートである。
【符号の説明】
41  入力提示部 42  入力正規化定数決定部 43  入力正規化部 44  期待出力提示部 45  期待出力正規化定数決定部 46  期待出力正規化部 47  重み計算部 48  神経回路網出力計算部 49  装置出力計算部 50  比較部 51  重み更新量計算部 52  重み更新部 53  出力表示部

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】  各層が複数の処理ユニットからなる多
    層の神経回路網を備えた神経回路網型パターン処理装置
    において、処理されるべき入力を提示する入力提示手段
    と、前記入力提示手段により提示された入力に応じて入
    力の正規化定数を決定する入力正規化定数決定手段と、
    入力を前記入力正規化定数決定手段によって決定された
    正規化定数に従って正規化する入力正規化手段と、前記
    入力提示手段により提示される入力に対応する期待出力
    を提示する期待出力提示手段と、前記期待出力提示手段
    により提示された期待出力に応じて期待出力の正規化定
    数を決定する期待出力正規化定数決定手段と、期待出力
    を前記期待出力正規化定数決定手段によって決定された
    正規化定数に従って正規化する期待出力正規化手段と、
    前記入力正規化定数決定手段および前記期待出力正規化
    定数決定手段からの正規化定数に応じて重みを計算する
    重み計算手段と、前記入力正規化手段により正規化され
    た入力から前記重み計算手段により計算される重みを用
    いて神経回路網の出力を計算する神経回路網出力計算手
    段と、前記神経回路網出力計算手段により計算された神
    経回路網の出力から装置として出力を計算する装置出力
    計算手段と、前記神経回路網出力計算手段により計算さ
    れた神経回路網の出力と前記期待出力正規化手段により
    正規化された期待出力との差を計算する比較手段と、前
    記比較手段によって計算された差から各処理ユニットの
    閾値および処理ユニット間の結合の重みの更新量を計算
    する重み更新量計算手段と、前記重み更新量計算手段に
    より計算された更新量だけ各処理ユニットの閾値および
    処理ユニット間の結合の重みを更新する重み更新手段と
    を有することを特徴とする神経回路網型パターン処理装
    置。
JP3024506A 1991-02-19 1991-02-19 神経回路網型パターン処理装置 Pending JPH04264664A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3024506A JPH04264664A (ja) 1991-02-19 1991-02-19 神経回路網型パターン処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3024506A JPH04264664A (ja) 1991-02-19 1991-02-19 神経回路網型パターン処理装置

Publications (1)

Publication Number Publication Date
JPH04264664A true JPH04264664A (ja) 1992-09-21

Family

ID=12140072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3024506A Pending JPH04264664A (ja) 1991-02-19 1991-02-19 神経回路網型パターン処理装置

Country Status (1)

Country Link
JP (1) JPH04264664A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017070105A (ja) * 2015-09-30 2017-04-06 ファナック株式会社 パラメータを自動調整する機能を有する機械学習装置及び電動機制御装置
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017070105A (ja) * 2015-09-30 2017-04-06 ファナック株式会社 パラメータを自動調整する機能を有する機械学習装置及び電動機制御装置
CN106560997A (zh) * 2015-09-30 2017-04-12 发那科株式会社 机械学习装置以及电动机控制装置
US10353351B2 (en) 2015-09-30 2019-07-16 Fanuc Corporation Machine learning system and motor control system having function of automatically adjusting parameter
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
Zhang et al. A simulation study of artificial neural networks for nonlinear time-series forecasting
Castillo Functional networks
Yazdizadeh et al. Adaptive time delay neural network structures for nonlinear system identification
BuHamra et al. The Box–Jenkins analysis and neural networks: prediction and time series modelling
Sridhar et al. An information theoretic approach for combining neural network process models
Li Neural network models for intelligent support of mark‐up estimation
Huang The construction of production performance prediction system for semiconductor manufacturing with artificial neural networks
Chakroborty et al. Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data
Abdella et al. Treatment of missing data using neural networks and genetic algorithms
Hines A logarithmic neural network architecture for unbounded non-linear function approximation
JPH04264664A (ja) 神経回路網型パターン処理装置
Srinivasan et al. Exponentiated backpropagation algorithm for multilayer feedforward neural networks
Cheng et al. A neural network-based procedure for the monitoring of exponential mean
JPH07168799A (ja) ニューラルネットワークの学習装置
Woods Back and counter propagation aberrations
EP0583217B1 (en) Optimisation of feedforward neural networks
Shaikh Smart sensor using function approximation
Wang et al. Parameter estimation of ARX/NARX model: a neural network based method
Jovanović et al. Neural network implementation in Java
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
Juang et al. A fuzzified neural fuzzy inference network for handling both linguistic and numerical information simultaneously
Sineglazov et al. Using a mixture of experts’ approach to solve the forecasting task
Yu et al. Basic learning principles of artificial neural networks
JPH0644207A (ja) ニューラルネットワーク及びその構成方法
JPH06175998A (ja) 時系列予測方法