JPH01114899A - ダイナミックなニューラルネットワーク - Google Patents
ダイナミックなニューラルネットワークInfo
- Publication number
- JPH01114899A JPH01114899A JP62273830A JP27383087A JPH01114899A JP H01114899 A JPH01114899 A JP H01114899A JP 62273830 A JP62273830 A JP 62273830A JP 27383087 A JP27383087 A JP 27383087A JP H01114899 A JPH01114899 A JP H01114899A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- output
- input
- unit
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 17
- 230000001537 neural effect Effects 0.000 claims abstract description 16
- 230000000644 propagated effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 abstract description 14
- 238000000034 method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000008602 contraction Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 101150087426 Gnal gene Proteins 0.000 description 1
- 235000006040 Prunus persica var persica Nutrition 0.000 description 1
- 240000006413 Prunus persica var. persica Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は音声等のパターン認識システムに利用されるニ
ューラルネットワークの改良に関する。
ューラルネットワークの改良に関する。
(従来の技術)
生物の神経回路を模擬した情報処理機構であるニューラ
ルネットワークは、パターン認識等の諸問題の解決に有
望と考えられ、近年世界中で研究開発が盛んに行なわれ
ている。
ルネットワークは、パターン認識等の諸問題の解決に有
望と考えられ、近年世界中で研究開発が盛んに行なわれ
ている。
ニューラルネットワークに関しては「日経エレクトロニ
クス」誌、第427号(昭和62年8月10日発行)の
pp、115−124に[ニューラルネットワークをパ
ターン認識、知識処理に使う]と題して発表された解説
](以下「文猷(1月)に分り易く説明されている。そ
れによると、ニューラルネットワークの基本構成要素は
ニューロンユニットと呼ばれる素子で、複数の入力の荷
重和を計′算しそれに応じた出力を発生する。ニューラ
ルネットワークは多層構造をとり、典型的には入力層、
中間層、出力層の3階層構成となる。入力層の各ニュー
ラルユニットの出力は中間層の各ニューラルユニットに
伝達され一ζそれらへの入力となる。中間層の各ニュー
ラルユニットの出力は出力層の各ニューラルユニットに
伝達され、それらへの入力となる。
クス」誌、第427号(昭和62年8月10日発行)の
pp、115−124に[ニューラルネットワークをパ
ターン認識、知識処理に使う]と題して発表された解説
](以下「文猷(1月)に分り易く説明されている。そ
れによると、ニューラルネットワークの基本構成要素は
ニューロンユニットと呼ばれる素子で、複数の入力の荷
重和を計′算しそれに応じた出力を発生する。ニューラ
ルネットワークは多層構造をとり、典型的には入力層、
中間層、出力層の3階層構成となる。入力層の各ニュー
ラルユニットの出力は中間層の各ニューラルユニットに
伝達され一ζそれらへの入力となる。中間層の各ニュー
ラルユニットの出力は出力層の各ニューラルユニットに
伝達され、それらへの入力となる。
音声認識に例を取ると、入力層では[計測と制御1誌、
第22巻、第1号(昭和58年1月発行)のpp、99
−pp、105に[音声認識におけるパターンマツチン
グ手法Jと題して発表された論文(以下「文献(2)J
)の図2に示される如き音声パターンを入力信号として
受ける。ここに図2の行列の各元を入力層の各ニューラ
ルユニットに対応させるものとする。出力層の各ニュー
ラルユニットは、認識対象語文の各単語が対応する、最
大の出力が得られるニューラルユニットに対応する単語
が認識結果となる。
第22巻、第1号(昭和58年1月発行)のpp、99
−pp、105に[音声認識におけるパターンマツチン
グ手法Jと題して発表された論文(以下「文献(2)J
)の図2に示される如き音声パターンを入力信号として
受ける。ここに図2の行列の各元を入力層の各ニューラ
ルユニットに対応させるものとする。出力層の各ニュー
ラルユニットは、認識対象語文の各単語が対応する、最
大の出力が得られるニューラルユニットに対応する単語
が認識結果となる。
このような認識動作を有効に機能さすためには、あらか
じめニューラルユニットの入力に付せられる荷重の係数
を学習する必要がある。これには前記文献(1)の第1
18頁に詳述されるパックプロパゲーション法を用いる
ことができる。
じめニューラルユニットの入力に付せられる荷重の係数
を学習する必要がある。これには前記文献(1)の第1
18頁に詳述されるパックプロパゲーション法を用いる
ことができる。
(発明が解決しようとする問題点)
以上の如き構成と機能を有するニューラルネットワーク
は、理論的に定式化が不可能なパターン認識問題に対し
て、学習という高度な機能を発揮して、対処可能な解法
を与えるものと期待されている。しかし、文献(1)の
図2に示されるように、現在までに提案されているニュ
ーラルネットワークは、層間のニューラルユニット間で
はまったく自由な結合が行なわれている点で、極めて一
般的な形態のものである。それゆえ万能ではあるがも知
れないが特殊な問題を扱かう場合には能率が悪い。例え
ば比較的簡単な認識対象である活字文字でも印字の条件
によっては位置が変動する。あらゆる位置変動を想定し
て学習パターンを与えて荷重係数を学習させるのは、極
めて大変なことである。同様のことは文字の拡大・縮小
の変動についても言える。
は、理論的に定式化が不可能なパターン認識問題に対し
て、学習という高度な機能を発揮して、対処可能な解法
を与えるものと期待されている。しかし、文献(1)の
図2に示されるように、現在までに提案されているニュ
ーラルネットワークは、層間のニューラルユニット間で
はまったく自由な結合が行なわれている点で、極めて一
般的な形態のものである。それゆえ万能ではあるがも知
れないが特殊な問題を扱かう場合には能率が悪い。例え
ば比較的簡単な認識対象である活字文字でも印字の条件
によっては位置が変動する。あらゆる位置変動を想定し
て学習パターンを与えて荷重係数を学習させるのは、極
めて大変なことである。同様のことは文字の拡大・縮小
の変動についても言える。
別の例として音声認識の例を考える。文献(2)の第3
.1節に記される如く音声パターンには時間軸の伸縮が
存在する。この伸縮は複雑な非線形性を有し、極めて大
量の歪みパターンを生ずる。これら総てを対象として学
習を行なうのは計算時間的に言って不可能である。
.1節に記される如く音声パターンには時間軸の伸縮が
存在する。この伸縮は複雑な非線形性を有し、極めて大
量の歪みパターンを生ずる。これら総てを対象として学
習を行なうのは計算時間的に言って不可能である。
以上の2例からパターンの学習には多量の学習パターン
が必要なことが分る。しがし、学習パターンを少なくす
るとHIKtL率が低下することは明白である。
が必要なことが分る。しがし、学習パターンを少なくす
るとHIKtL率が低下することは明白である。
すなわち、従来提案されているニューラルネットワーク
は、−船釣ではあるが、伸縮や位置の変動を処理するに
は適していないという欠点があった。本発明はこれを改
善するためダイナミックなニューラルネットワークの構
成を実現せんとするものである。
は、−船釣ではあるが、伸縮や位置の変動を処理するに
は適していないという欠点があった。本発明はこれを改
善するためダイナミックなニューラルネットワークの構
成を実現せんとするものである。
(問題点を解決するための手段)
本発明によるダイナミックなニューラルネットワークは
、いずれかの層への入力の接続関係を最適に切り換える
機能を有することを特徴とする。
、いずれかの層への入力の接続関係を最適に切り換える
機能を有することを特徴とする。
(作用)
上記の入力の接続関係を切り換える部位では、あらかじ
めあらゆる接続関係を与えておくことはしない。かつ切
り換え部の両端の各接続線は、入カバターンの位置と何
らかの対応を有しているものとする。かくして入カバタ
ーンが与えられた時、出力層の個々のニューラルユニッ
トの出力が最大になるように上記の接続を切りかえるこ
とにより、下位層での入カバターンの位置、形状(大小
、歪み)等の変動を正規化して上位層に伝達することが
でき、安定な認識動作が達成される。
めあらゆる接続関係を与えておくことはしない。かつ切
り換え部の両端の各接続線は、入カバターンの位置と何
らかの対応を有しているものとする。かくして入カバタ
ーンが与えられた時、出力層の個々のニューラルユニッ
トの出力が最大になるように上記の接続を切りかえるこ
とにより、下位層での入カバターンの位置、形状(大小
、歪み)等の変動を正規化して上位層に伝達することが
でき、安定な認識動作が達成される。
(実施例)
第1図は本発明の原理に基づく音声認識システムの構成
を示す図である。参照数字11〜14は入力層で、各1
6個のユニット(図では一部を省略)よりなり、前記文
献(2)の図2の如き16次元のスペクトラムベクトル
の時系列(xim)(時刻方向がi、周波数方向がm)
を入力され、それを中間層(参照数字21〜24)に送
る。入力層と中間層の結合は図に示す如く、中間層の第
1列のユニットには入力層の第i−1、第i、第i+1
の3者のユニットが結合される。中間層のi列内の各ユ
ニットはに、1,2.3の行番号で指定される。
を示す図である。参照数字11〜14は入力層で、各1
6個のユニット(図では一部を省略)よりなり、前記文
献(2)の図2の如き16次元のスペクトラムベクトル
の時系列(xim)(時刻方向がi、周波数方向がm)
を入力され、それを中間層(参照数字21〜24)に送
る。入力層と中間層の結合は図に示す如く、中間層の第
1列のユニットには入力層の第i−1、第i、第i+1
の3者のユニットが結合される。中間層のi列内の各ユ
ニットはに、1,2.3の行番号で指定される。
これら2層間ではmとkに関してはあらゆる結合が許さ
れる。
れる。
入力層の(i、m)ユニットから中間層の(i、k)ユ
ニットへの結合には13i、t、m、になる係数が荷重
され、入力層の(i=1.m)ユニットから中間層の(
i、k)ユニットへの結合にはΔ−1.i、m、になる
係数が荷重される。同様に入力層の(i+1.m)ユニ
ットから中間層の(i、 k)ユニットにはl’i+1
.i、m、になる係数が荷重される。よって中間層の(
i、k)ユニットへの入力信号和は+Σ13i+1.t
、m、k ’ xi、m−〇 (1)(θ
はユニットの内部で発生されるバイアスファクタ) となる。これを受けて中間層の(i、k)ユニットはな
る出力を発生する。(1)式の信号は時刻iの近傍の人
力殉、kに対してl3i−1,i、m、に’ Di、i
、m、に’ 1’i+1.i、m、になる係数群を荷重
するというフィルタリング処理を施したものであり、係
数群の学習を適当に行なっておくことによりスペクトラ
ム形状と変化傾向に対応した音声的特徴を表現する量と
な″る。(2)式はそれをsigmoid関数で変換し
て(0,1)なる値域に正規化したものである。結果と
して中間層の時刻iにおけるユニット(i、1)〜(i
、3)の出力3’H” (y51s ’/、□p’14
3>は、この時刻iの近傍における入力の音声的特徴の
検出結果となる。
ニットへの結合には13i、t、m、になる係数が荷重
され、入力層の(i=1.m)ユニットから中間層の(
i、k)ユニットへの結合にはΔ−1.i、m、になる
係数が荷重される。同様に入力層の(i+1.m)ユニ
ットから中間層の(i、 k)ユニットにはl’i+1
.i、m、になる係数が荷重される。よって中間層の(
i、k)ユニットへの入力信号和は+Σ13i+1.t
、m、k ’ xi、m−〇 (1)(θ
はユニットの内部で発生されるバイアスファクタ) となる。これを受けて中間層の(i、k)ユニットはな
る出力を発生する。(1)式の信号は時刻iの近傍の人
力殉、kに対してl3i−1,i、m、に’ Di、i
、m、に’ 1’i+1.i、m、になる係数群を荷重
するというフィルタリング処理を施したものであり、係
数群の学習を適当に行なっておくことによりスペクトラ
ム形状と変化傾向に対応した音声的特徴を表現する量と
な″る。(2)式はそれをsigmoid関数で変換し
て(0,1)なる値域に正規化したものである。結果と
して中間層の時刻iにおけるユニット(i、1)〜(i
、3)の出力3’H” (y51s ’/、□p’14
3>は、この時刻iの近傍における入力の音声的特徴の
検出結果となる。
参照数字51〜54は出力層である。認識対象語索の単
語1,2.・・・n・・・Nのそれぞれに対応してユニ
ットが設けられている。(特殊な場合として出力層のユ
ニットは1個でもよい。その場合にはニューラルネット
ワーク全体は特定語の検出器としてのみ機能する。)従
来技術による構成では、各ユニツ)nは中間層の各ユニ
ット(i、k)に接続され、αhなる係数で荷重された
入力和 を受け、これに応じて出力 なる出力を発生する。0(n)が最大となるユニットn
が品であるときΔが認識結果となる。
語1,2.・・・n・・・Nのそれぞれに対応してユニ
ットが設けられている。(特殊な場合として出力層のユ
ニットは1個でもよい。その場合にはニューラルネット
ワーク全体は特定語の検出器としてのみ機能する。)従
来技術による構成では、各ユニツ)nは中間層の各ユニ
ット(i、k)に接続され、αhなる係数で荷重された
入力和 を受け、これに応じて出力 なる出力を発生する。0(n)が最大となるユニットn
が品であるときΔが認識結果となる。
本発明の特徴として中間層と出力層の間にスイッチング
層30.40がある。このスイッチング層は中間層の時
刻iと出力層の時刻jとの間の最適な結合を行なう機能
を有する。
層30.40がある。このスイッチング層は中間層の時
刻iと出力層の時刻jとの間の最適な結合を行なう機能
を有する。
文献(2)の3.1節に関連して前述した如く、音声パ
ターンは時間方向に非線形に件数する。このために入カ
バターンの時刻iすなわち中間層の時刻iとの間の非線
形な関数j =j(i)による写像を時間軸iと時間軸
jとの間に設ける。これを最適化するには(4)式の出
力が最大となる写像を定めればよいが(4)式のsig
moid関数が増加関数であること、及び(3)式の右
辺のθがj(i)に無関係であることからなる−次結合
の最大化問題を計算すればよいことになる。
ターンは時間方向に非線形に件数する。このために入カ
バターンの時刻iすなわち中間層の時刻iとの間の非線
形な関数j =j(i)による写像を時間軸iと時間軸
jとの間に設ける。これを最適化するには(4)式の出
力が最大となる写像を定めればよいが(4)式のsig
moid関数が増加関数であること、及び(3)式の右
辺のθがj(i)に無関係であることからなる−次結合
の最大化問題を計算すればよいことになる。
このような問題は文献(2)でも行なわれているが如く
、動的計画法によって計算することができる。すなわち
、 g(1,1) =r(1,1)
(6)なる初期条件のもとに り f(n)=g(I、J)
(8)と最大化が達成される。ここに、(5)、(
6)式においてr(i、j)==Σ噴・Vsk(9) である。
、動的計画法によって計算することができる。すなわち
、 g(1,1) =r(1,1)
(6)なる初期条件のもとに り f(n)=g(I、J)
(8)と最大化が達成される。ここに、(5)、(
6)式においてr(i、j)==Σ噴・Vsk(9) である。
以上の(5)〜(9)式の処理は第2図の如き(i、j
)平面で明解に説明される。横軸(i)には中間層より
の出力ythが並んでいる。縦軸(i)には荷重係数α
r、が並んでいる。各(i、j)格子点では(9)式の
r(i、j)が算出される。
)平面で明解に説明される。横軸(i)には中間層より
の出力ythが並んでいる。縦軸(i)には荷重係数α
r、が並んでいる。各(i、j)格子点では(9)式の
r(i、j)が算出される。
これをもとにして、まず(6)式の初期条件設定が(1
゜1)点になされる。以後(i、j)が増加する方向に
(i、j)を変化させながらく7)式の漸化式を計算し
格子点にg(i。
゜1)点になされる。以後(i、j)が増加する方向に
(i、j)を変化させながらく7)式の漸化式を計算し
格子点にg(i。
j)の値を詰めて行く。最後にg(i、j)が得られた
時点で処理が終了する。
時点で処理が終了する。
かくの如く動作するスイッチング層と出力層の構成は第
3図に示す如きマイクロコンピュータにより構成される
。図においてバッファ35には中間層よりの出力群(y
、、) i’保持される。荷重記憶部45には前記の係
数群(ajk)が記憶される。マイクロプロセッサ部5
0は、ワークメモリ55上のテーブルgQtj)を利用
して、各出カニニットnに対して(6)から(9)式の
計算を行なって、それぞれの出力0(n)を計算する。
3図に示す如きマイクロコンピュータにより構成される
。図においてバッファ35には中間層よりの出力群(y
、、) i’保持される。荷重記憶部45には前記の係
数群(ajk)が記憶される。マイクロプロセッサ部5
0は、ワークメモリ55上のテーブルgQtj)を利用
して、各出カニニットnに対して(6)から(9)式の
計算を行なって、それぞれの出力0(n)を計算する。
そのためマイクロプロセッサ部で実行される処理プログ
ラムは第4図に示す如くである。この処理中(7)式の
計算において右辺のgの座標として負あるいは0が生じ
たときはg=−のと見なすものとする。
ラムは第4図に示す如くである。この処理中(7)式の
計算において右辺のgの座標として負あるいは0が生じ
たときはg=−のと見なすものとする。
なお、認識システムとしては、第4図の処理によって順
次算出される0(n)が最大となるn=Δを決定して認
識結果とするという処理も、このマイクロプロセッサ部
50で実行される。
次算出される0(n)が最大となるn=Δを決定して認
識結果とするという処理も、このマイクロプロセッサ部
50で実行される。
第3図、第4図の処理機能と同等なことは、例えばブロ
シーディングスオブジアイ・イー・イー・イーインター
ナショナルコンファレンスオンアコ−ステイクススピー
チアンドシグナルプロセッシング(Proceedin
gs of IEEE International
Conference onAcoustics、 5
peech and−8層gnal Processi
ng)1981年3月発行のpp、471−474に[
アハイスピードアレイコンビュータフオーダイナミック
タイムワービング(AHigh 5peed Arra
y Computer for Dynamic Ti
meWarping) Jと題して発表された論文に示
される如き、並列型の回路を用いて行なうことができる
。
シーディングスオブジアイ・イー・イー・イーインター
ナショナルコンファレンスオンアコ−ステイクススピー
チアンドシグナルプロセッシング(Proceedin
gs of IEEE International
Conference onAcoustics、 5
peech and−8層gnal Processi
ng)1981年3月発行のpp、471−474に[
アハイスピードアレイコンビュータフオーダイナミック
タイムワービング(AHigh 5peed Arra
y Computer for Dynamic Ti
meWarping) Jと題して発表された論文に示
される如き、並列型の回路を用いて行なうことができる
。
以上本発明の原理作用を実施例に基づいて説明したが、
これらの記載は本発明の範囲を限定するものではない。
これらの記載は本発明の範囲を限定するものではない。
特に本実施例は音声パターンの時間歪の例を扱うものと
したが、位置、大きさ等のパターン変動をも扱うことが
できるのは明白である。例えば位置変動を扱かう場合に
は、第1図のスイッチング層の結合をiと1間を単純に
シフトして(5)式の最大化を行なえばよい。中間層出
力30と出力層人力40を2次元的に構成して拡大・縮
小及び平行移動等を行なうことにすると文字等の図形認
識に有効である。上記実施例ではスイッチング層を中間
層と出力層の間に盤けたが、中間層と入力層の間、また
は入力層の前等に設けることも可能である。さらに、本
実施例21は中間層を1層としたが1、:+′、゛1 必要に応じて2層、3層と複数層設定することも可能で
ある。逆に中間層を設けないで、入力層と出力層よりな
るニューラルネットワークにも本発明の原理は適用され
るものである。
したが、位置、大きさ等のパターン変動をも扱うことが
できるのは明白である。例えば位置変動を扱かう場合に
は、第1図のスイッチング層の結合をiと1間を単純に
シフトして(5)式の最大化を行なえばよい。中間層出
力30と出力層人力40を2次元的に構成して拡大・縮
小及び平行移動等を行なうことにすると文字等の図形認
識に有効である。上記実施例ではスイッチング層を中間
層と出力層の間に盤けたが、中間層と入力層の間、また
は入力層の前等に設けることも可能である。さらに、本
実施例21は中間層を1層としたが1、:+′、゛1 必要に応じて2層、3層と複数層設定することも可能で
ある。逆に中間層を設けないで、入力層と出力層よりな
るニューラルネットワークにも本発明の原理は適用され
るものである。
また、出力層のニューロンユニットの個数は一般的にN
個としたがN=1であってもよい。この場合は認識機能
としてではなく、アクセプタとして動作する。
個としたがN=1であってもよい。この場合は認識機能
としてではなく、アクセプタとして動作する。
(効果)
いずれかの層への入力を最適に切換える機能を有する本
発明のダイナミックなニューロンネットワークによると
、位置や伸縮等のパターン変動に対して安定な出力を出
すことができるので、少量の学習データで、高制度な認
識動作を実現することができる。
発明のダイナミックなニューロンネットワークによると
、位置や伸縮等のパターン変動に対して安定な出力を出
すことができるので、少量の学習データで、高制度な認
識動作を実現することができる。
第1図は本発明の一実施例を示す図である。第2図はそ
の動作説明図である。第3図は第1図実施例の要部の構
成例であり、第4図はその動作説明図である。図におい
て、11.12.13.14・・・入力層ユニ一うルユ
ニット、21,22,23.24・・・中間層ニューラ
ルユニット、30・・・中間層出力、40・・・出力層
入力、51.52゜53、54・・・出力層ニューラル
ユニット、31・・・バッファ、45・・・荷重記憶部
、50・・・マイクロプロセッサ、55・・・ワークメ
モリ。
の動作説明図である。第3図は第1図実施例の要部の構
成例であり、第4図はその動作説明図である。図におい
て、11.12.13.14・・・入力層ユニ一うルユ
ニット、21,22,23.24・・・中間層ニューラ
ルユニット、30・・・中間層出力、40・・・出力層
入力、51.52゜53、54・・・出力層ニューラル
ユニット、31・・・バッファ、45・・・荷重記憶部
、50・・・マイクロプロセッサ、55・・・ワークメ
モリ。
Claims (1)
- 入力の荷重和に応じて出力を発生するニューラルユニッ
トの群により層を構成し、隣接する層のニューラルユニ
ット間で該出力を伝搬するニューラルネットワークにお
いて、いずれかの層への入力の接続関係を最適に切換え
る機能を有することを特徴とするダイナミックなニュー
ラルネットワーク。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62273830A JPH0638200B2 (ja) | 1987-10-28 | 1987-10-28 | ダイナミックなニューラルネットワーク |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62273830A JPH0638200B2 (ja) | 1987-10-28 | 1987-10-28 | ダイナミックなニューラルネットワーク |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01114899A true JPH01114899A (ja) | 1989-05-08 |
JPH0638200B2 JPH0638200B2 (ja) | 1994-05-18 |
Family
ID=17533141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62273830A Expired - Lifetime JPH0638200B2 (ja) | 1987-10-28 | 1987-10-28 | ダイナミックなニューラルネットワーク |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0638200B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH038003A (ja) * | 1989-06-06 | 1991-01-16 | Nissan Motor Co Ltd | 自動車用空調装置 |
JPH0327479A (ja) * | 1989-06-26 | 1991-02-05 | Fuji Photo Film Co Ltd | 異常陰影検出装置 |
JPH0327485A (ja) * | 1989-06-26 | 1991-02-05 | Fuji Photo Film Co Ltd | 異常陰影判定装置 |
JPH0366357A (ja) * | 1989-08-02 | 1991-03-22 | Matsushita Electric Ind Co Ltd | 生体信号処理装置 |
JPH03150949A (ja) * | 1989-11-07 | 1991-06-27 | Sekisui Chem Co Ltd | 留守番電話装置 |
JPH03150950A (ja) * | 1989-11-07 | 1991-06-27 | Sekisui Chem Co Ltd | 留守番電話装置 |
JPH041628A (ja) * | 1990-04-18 | 1992-01-07 | Fuji Photo Film Co Ltd | 放射線画像読取条件及び/又は画像処理条件決定装置 |
-
1987
- 1987-10-28 JP JP62273830A patent/JPH0638200B2/ja not_active Expired - Lifetime
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH038003A (ja) * | 1989-06-06 | 1991-01-16 | Nissan Motor Co Ltd | 自動車用空調装置 |
JPH0327479A (ja) * | 1989-06-26 | 1991-02-05 | Fuji Photo Film Co Ltd | 異常陰影検出装置 |
JPH0327485A (ja) * | 1989-06-26 | 1991-02-05 | Fuji Photo Film Co Ltd | 異常陰影判定装置 |
JPH0366357A (ja) * | 1989-08-02 | 1991-03-22 | Matsushita Electric Ind Co Ltd | 生体信号処理装置 |
JPH03150949A (ja) * | 1989-11-07 | 1991-06-27 | Sekisui Chem Co Ltd | 留守番電話装置 |
JPH03150950A (ja) * | 1989-11-07 | 1991-06-27 | Sekisui Chem Co Ltd | 留守番電話装置 |
JPH041628A (ja) * | 1990-04-18 | 1992-01-07 | Fuji Photo Film Co Ltd | 放射線画像読取条件及び/又は画像処理条件決定装置 |
Also Published As
Publication number | Publication date |
---|---|
JPH0638200B2 (ja) | 1994-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Abe | Neural networks and fuzzy systems: theory and applications | |
Schäfer et al. | Recurrent neural networks are universal approximators | |
US5301257A (en) | Neural network | |
JPH04184686A (ja) | パターン認識装置 | |
JPH01114899A (ja) | ダイナミックなニューラルネットワーク | |
Li et al. | Distributed consensus control for a group of autonomous marine vehicles with nonlinearity and external disturbances | |
Do et al. | Optimized multi-cascade fuzzy model for ship dynamic positioning system based on genetic algorithm | |
US5627944A (en) | Parallel data processing system | |
CN113283986B (zh) | 算法交易系统及基于该系统的算法交易模型的训练方法 | |
JPH01114896A (ja) | 時系列パターン認識用のダイナミック・ニューラルネットワーク | |
Tokunaga et al. | Modular network SOM: Self-organizing maps in function space | |
JPH01114897A (ja) | 時系列パターン用ダイナミック・ニューラルネットワーク | |
Lv et al. | Quaternion extreme learning machine | |
Suykens et al. | Coupled chaotic simulated annealing processes | |
JP2606317B2 (ja) | 学習処理装置 | |
JP2542107B2 (ja) | ニュ―ラルネットワ―ク回路 | |
JP3393511B2 (ja) | 文字認識装置及び方法 | |
JP3052520B2 (ja) | パターン分類装置 | |
JPH0583920B2 (ja) | ||
Nikravesh et al. | Process control of nonlinear time variant processes via artificial neural network | |
JPH04118741A (ja) | ニューラルネットワーク装置 | |
Took et al. | Fusion of heterogeneous data sources: A quaternionic approach | |
JPH0752439B2 (ja) | ダイナミックプログラミング機能を有するニューラルネットワーク | |
Araújo et al. | Associative memory used for trajectory generation and inverse kinematics problem | |
JPH04364565A (ja) | ニューラルネットワーク装置 |