JPH04548A - ニューラルネットワーク装置 - Google Patents

ニューラルネットワーク装置

Info

Publication number
JPH04548A
JPH04548A JP2100661A JP10066190A JPH04548A JP H04548 A JPH04548 A JP H04548A JP 2100661 A JP2100661 A JP 2100661A JP 10066190 A JP10066190 A JP 10066190A JP H04548 A JPH04548 A JP H04548A
Authority
JP
Japan
Prior art keywords
learning
neural network
network
layer
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2100661A
Other languages
English (en)
Other versions
JP2907486B2 (ja
Inventor
Ryusuke Masuoka
竜介 益岡
Nobuo Watabe
信雄 渡部
Akira Kawamura
旭 川村
Kazuo Asakawa
浅川 和雄
Yuri Oowada
大和田 有理
Shigenori Matsuoka
松岡 成典
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to JP2100661A priority Critical patent/JP2907486B2/ja
Publication of JPH04548A publication Critical patent/JPH04548A/ja
Application granted granted Critical
Publication of JP2907486B2 publication Critical patent/JP2907486B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概 要〕 ニューラルネットワークの構造を動的に変更可能にした
装置に関し。
ニューラルネットワークの学習効果を高められる有効な
手段を提供することを目的とし。
外部からニューラルネットワークのセル結合の追加また
は削除、あるいは追加および削除を指示する手段と、外
部からの指示にしたがって、ニューラルネットワークに
セル結合を追加しあるいはニューラルネットワークから
セル結合を削除してニューラルネットワークの構造を変
更する手段とを設け。
ニューラルネットワークの学習過程中に、状況に応じて
外部からニューラルネットワーク構造の変更指示を与え
、動的に変更可能に構成した。
〔産業上の利用分野〕
本発明は、ニューラルネットワーク装置に関し。
特にニューラルネットワークの構造を動的に変更可能に
した装置に関する。
近年、ニューラルネットワークを用いたパターン認識装
置や適応フィルタなどが開発されており更に何かしら構
造を持ったニューラルネットワークを使おうとする動き
が急速に強まっている。
ところで、プラントの制御など、従来ファジィモデルを
適用してきた分野でファジィモデルをニューロモデルで
実現しようとする際には、構造を持ったニューラルネッ
トワークが必要になる。このためある構造をもったニュ
ーラルネットワークを設定するが、学習を進めている間
に更に複雑な構造が必要になることが判ったり、逆に最
初に与えた構造が複雑過ぎて、もっと単純なネットワー
クで十分であることが判ったりする。
本発明は5そのような学習の過程において必要性が生じ
たネットワークの構造の動的な変更を可能とする。
〔従来の技術〕
今までのプログラム内蔵方式のいわゆるノイマン型コン
ピュータは、全ての場合について動作を指定する必要が
あった。ニューラルネットワークで構成されるニューロ
コンピュータは9代表的な学習パターンを何回か提示す
ることにより学習することができ1 それまで与えてい
ないパターンに対しても適切な解を与えることができる
ニューラルネットワークの代表的なものに、パーセプト
ロンモデルのような階層型のモデルと。
ホップフィールド型モデルのような相互結合型のモデル
がある。
またニューラルネットワークの代表的な構造と学習方法
には1階層型ニューラルネットワークとバンクプロパゲ
ーション法や階層型ニューラルネットワークと仮想イン
ピーダンス法などがある。
次に従来技術の具体例として1階層型のバーセプトロン
型ニューラルネットワークについて説明する。
パーセブトロン ニューラルネットワークの 本盪遺 第7図に、基本的なパーセプトロン型ニューラルネット
ワークの例として、2層パーセブトロン型ニューラルネ
ットワークの構成を示す。
第7図の2層パーセプトロン型ニューラルネットワーク
は、iれ層(中間層ともいう)と出力層からなり、各層
はOで示すセルで構成される。ここでセルは、ニューロ
ンを機能的に模擬した素子を意味している。この例では
入力数が(++1)個、iれ層のセル個数(++1)個
および出力層のセル個数1個からなっている。
各セルには複数個の入力があり、出力層のセルの各入力
には結合係数(Vj ) j+。、、。
また隠れ層の各セルの各入力には (W、Jl+−0” + j”++Jが付与されている
。各セルの出力(YJ)およびZは1次の1式または2
式で表される。但し、X−”1.Yo =1である。
1+exp  (−ΣV、Y、) 1式は、隠れ層の各セルの出力関数である。1式でΣW
、JX、は隠れ層の一つのセルの入力の総和であり、そ
れを S、−ΣW+jXt        −・−・−・−(
3)と表すことにする。また2式は出力層のセルの出力
関数である。2式でΣV、Yjは出力層のセルの入力の
総和であり、それを R−ΣV、Y、         −・・・・−・・−
(4)と表すことにする。
2層バーセプトロン型ニューラルネットワークには、1
次元パターン空間内に分布する多数のパターンミー1次
元の複数の超平面の組み合わせによって2つのカテゴリ
に分離する機能がある。この組み合わせられた超平面を
識別面という。識別面は結合係数(Vj ) j+。、
Jおよび(W+il=、。+I + J”++Jにより
決定される。この結合係数(V、)j−0,、および (W五J)l・0・1・j−1,Jは・バンクプロパゲ
ーション法(以下BP法とよぶ)を用いて学習データよ
り決定することができる。
BP法 第8図に、BP法を適用した標準的ネットワークの構成
を示す。このネットワークの特徴は通常のセル以外に、
常に出力値が1であるセルを設けであることである。こ
のセルと上層の通常のユニットとの間の結合の重みは、
闇値と見做すことができる。このようにして、闇値に重
みと同じ学習側を適用することができる。したがって、
以下の数式では閾値θはあられに出てこない。
第8図において、入力層(6層)の各セル1〜Nhに学
習させたいパターンをもつ入力信号を与え、このとき出
力層(j層)の各セル1〜N、から出力される出力信号
を、学習させたい目標値を与える教師信号と比較し、誤
差を求めて、それを眉間の結合の重みWムb+ Wji
に反映(フィードバック)させるものである。
BP法の詳細は以下の文献に詳しく述べられている。
D、E、Ru+*elhert、 G、E、Hinto
n、 R,JJilliams。
”Leaning  Internal  Repre
sentations  by  ErrorProp
agation Parallel  Distributed  Pr
ocessing Vol、1(The MIT pr
ess)、pp318−362ここではその概要を述べ
る。
学習パターン(Xム’l(pは学習パターン番号)が与
えられた場合に、現状の結合係数で得られる出力をze
とし2人間が意図する望ましい出力(パターンのカテゴ
リに対応する)をtoとする。ここでは、あるカテゴリ
であるかまたはないかを識別するニューラルネットワー
クを学習させるものとする。学習パターン(Xt ’ 
)がそのカテゴリである場合jpを1とし、そうでない
場合tpを0とする。そして全学習パターンに対してz
eとjPの誤差が小さくなるようにニューラルネットワ
ーク内の結合係数の値を変更する。
zlとi、eの誤差Eは5式により定義される。
E=Σ(tp−2p)l     ・・−・・・−・−
・(5)最急降下法でEの極小値を求める場合。
(V; l j−0,J及び(WB)+、。+l HJ
”1Jの変化量は6式で表される。
E E 第8図のニューラルネットワークの場合、学習時の結合
係数の変化量は以下の7式〜10式に従えばよい。
a’ = (t’ −z’ )z’  (1−z’ )
−(9)j!+j’−YJ’(1−YJ’)α’V7 
   ・・・−Qω7式及び8式でηは学習定数と呼ば
れ、0.1〜0.3程度の値が用いられる。
学習の処理は11式および12式を学習パターンに対し
て繰り返し実行することにより行われる。
V、WV、十ΔV、          θOW、、−
W=W、+ΔW、   −・・−・−021一般には学
習方向の連続性を保つために、7式および8式の代わり
に次の13式および14式を用いる。
ΔVJ  (n+1)  −77Σcr’  Yj’ 
 +yΔV 、  (n)  −−Q3)ΔW1j(n
+1) −77Σβj’ Xi’ + rΔW 目(n
) −0IJ13式および14式においてnは学習回数
であり、Tは結合係数の学習方向の連続性を保つための
係数であり、モーメンタムと呼ばれる。一般にTは0.
05〜0.7程度の値が用いられる。また。
ΔVJ (0) =0.ΔW目(0)=Oである。
誤差Eが充分小さくなるまで13式および14式により
結合係数を繰り返し演算する。
徽皿曳方広 上記の方法で結合係数を学習した後で、Wji別が行わ
れる。まず未知パターンが入力に与えられる。
ニューラルネットワーク内では、1式および2式の計算
が行われ出力Zが得られる。たとえばこのZが0.5以
上の場合未知パターンは学習されたカテゴリであると識
別され、Zが0.5以下の場合未知パターンは学習され
たカテゴリでないと識別される。
ニューラルネットワークの ニューラルネットワークの機能についての理Nを容易に
するため、第9図ないし第15図を用いて具体例を説明
する。
まず第9図に示すようなセルが1個の場合について考え
てみる。これは、第8図において隠れ層の1個のセルに
相当する。
図示されたセルは、N+1個の入力は重みWt  (1
−0,1,−、N)をもち、X、、X、。
・・・、XNの要素からなる入カバターン(パターン(
Xム))が与えられると、15式で示す出力関数処理を
行って、rIa別結果yを出力する。
(ただしX、蟲1とする) 15式のexp()中において f−ΣW* xi          −06)とおき
、15式を次の17式のように表す。
f−0は、パターン空間における判別面(判別線)を示
している。第10図にパターン空間が2次元の場合の例
を示す。
f−We +W、X、+w、X、  ・−・・−−一−
−・・・ Ol(ただしW、〉0とする) であり、第1θ図の判別直線(f−0)を境界にシテ、
領域1はf<O,jJl域2はr>oとして判別できる
すなわち、fの正負判定を行えば、パターン空間の領域
識別が可能となる。
15式は、fの値(ΣW五Xi)を、第11図に示すよ
うなシグモイド特性にしたがって0から1までの値に非
線形変換するものである(f=0は、yw−o、sに変
換される)。
この非線形変換を施すことにより、第10図は。
fの代わりにyを用いて第12図のように書き直すこと
ができる。
セルが2個(1!!れ層のセルが2個、出力層のセルが
1個)の場合には、パターン空間にもう1本の判別直線
を引くことができる。第13図にその1例を示す0図中
の1+、Vtは次の19式と20式で表される。
(VOJ>Oとする) 第13図において1次の21式のZの値が0.5以上と
いう条件(y+ とy2の和が165以上)を満足する
領域を第14図に斜線領域で示す。
2−                  ・・−・−
・・al11+exp (−y+ −yr +1.5 
)ylとy、の和が1以上という第12図の条件を満足
するニューラルネットワークの構成を第15図に示す1
図中のU、、、U、、、U□、は結合係数である。
このように、隠れ層と出力層をもつ構造のニューラルネ
ットワークでは、結合係数を適当に設定すれば、出力層
のセルがパターン空間内の非線形な境界をもつ連続凸領
域を識別(セル出力が0.5以上となる)することが可
能となる。さらに隠れ層を多層化すれば、非線形な境界
をもつ非連続凸領域の識別が可能となる。
以上説明した従来のニューラルネットワークでは、ネッ
トワーク構造は固定であり、学習過程で制御できるのは
セル間の結合係数(重み)と闇値のみであった。
〔発明が解決しようとする課題〕
従来のニューラルネットワークでは、対象のパターン群
によっては学習効果がなかなかあがらない場合があり、
処理精度が向上しないことがあった。
本発明は、ニューラルネットワークの学習効果を高めら
れる有効な手段を提供することを目的としている。
〔課題を解決するための手段〕
本発明は、従来のニューラルネットワークでは。
ネットワーク構造が固定であったため、処理対象によっ
てはセル間の結合が不足したり過剰になったりし、学習
効率や処理精度に影響している点に着目し、学習過程中
に必要な場合セル間結合の追加、削除、あるいは追加お
よび削除を可能にして。
ネットワーク構造を処理対象に最適化できるようにした
ものである。
第1図は2本発明の原理的構成図である。
図において。
1は、構築されているニューラルネットワークである。
2は、ニューラルネットワーク構造情報である。
3は、各セル間の結合係数を規定する重み情報である。
4は、学習部であり、ニューラルネットワーク1に学習
パターンを与えて結果出力を教師信号と比較し、誤差を
重み情報3に反映させる処理を行う。
5は9動的構造変更装置であり、外部からの指示により
、ニューラルネットワーク1におけるセル結合の追加ま
たは削除あるいは追加と削除の両方を行う。
6は、構造変更指示手段であり、外部から動的構造変更
装置5に対してネットワーク構造の変更指示を与えるた
めに用いられる。
〔作 用〕
第1図において、動作開始時にネットワーク構造情報2
および重み情報3は初期設定され、学習部4は、それら
の情報に基づいてニューラルネットワーク1の学習を実
行する。
学習の過程において、ニューラルネットワーク1の出力
と教師信号との間の誤差が基準値以下になかなか収斂し
ない場合には、外部から構造変更指示手段6により動的
構造変更装置5に対してネットワーク中のセル間結合の
追加、削除あるいは追加および削除を指示する。
動的構造変更装置5は、指示にしたがってネットワーク
構造情報2を変更し、学習部4はその結果に基づいて学
習処理を再実行する。
この過程は、学習が適切に遂行されるまで繰り返される
〔実施例〕
第2図は本発明の1実施例装置の構成図であり。
第3図はその制御フロー図である。
第2図において、10はニューラルネットワーク処理装
置であり、その中の11はニューラルネットワークの重
みおよび構造情報を保存する重みおよび構造保存部、1
2は学習パターンを格納するパターン格納部、13は学
習パターンを用いてニューラルネットワークの学習処理
を実行する学習部、14は学習されたニューラルネット
ワークにより未知入力を処理する実行部、15は処理結
果を出力する出力部である。
また20は本発明による動的構造変更装置であり、その
中の21は重みおよび構造保存部11から重みおよび構
造情報を読出す重みおよび構造読取部、22は重みおよ
び構造情報を重みおよび構造保存部11に設定あるいは
再設定する設定部。
23は外部からの構造変更指示を読取る指示読取装置、
24は追加されたネットワーク構造中のセル結合の重み
を乱数で初期化する乱数発生装置である。
第3図により、第2図中の設定部22を中心とする動作
を説明する。
ニューラルネットワークを観察している人あるいは装置
が、ネットワークの構造を変えるように指示を与える。
■ 設定部はまず、その外部からの指示を指示読取装置
を通じて読み取る。
■ 設定部は指示読取装置から外部の指示を受は次にネ
ットワークの各結合の重みおよび構造の情報を重みおよ
び構造読取部を通じて読み出す。
■ 外部からの指示内容により次の(a)、 (b)、
 (C1゜(d)の動作を行う。
(a)  外部からの追加指示に従い、セル結合を追加
する指示を重みおよび構造保存部に行う。
(b)  外部からの削除指示に従い、セル結合を削除
する指示を重みおよび構造保存部に行う。
(C)  外部からの追加および削除指示に従い、はじ
めに指示された結合の削除を重みおよび構造保存部に行
い1次に結合の削除を指示する。
(d)  上記(a)、 (C)の場合、さらに追加し
た結合の重みを乱数で初期化する。
次に9本発明実施例の動作の具体例を説明する。
第4図(A)が1本発明の実施例に用いたネットワーク
の基本の形である。全ての重みおよび闇値の初期値を設
定する時、および新しい重みを付は加える時には0.5
から0.5までの乱数で初期化する。学習定数5.0モ
ーメンタム0.4で、第5図のデータを学習させた。学
習終了の判定は、各出カニニットからの出力と教師信号
との差が0.025以下になった時とした。第6図の(
1)〜(5)が、各状態における重みと闇値の値である
。第6図の見方は。
weight (i )  (j )は、第i15の第
jユニットへの結合の重みを並べたものであり、 th
reshold(i)N)は、第1層の第jユニットの
闇値である。重みで、  *****とあるのは、結合
が存在しない部分である。
く第3図の(a)の場合の例〉 第4図(C)のネットワークで第5図のデータを学習さ
せた。10000回学習してもネットワークはデータを
学習することが出来なかった。重み等の結果は第6図の
(3)である。そこで、その状態から第3図のネットワ
ークのように全ての結合を乱数で初期化して追加した。
そして学習をすると、 2349回の学習でデータを学
習することができた。重み等の結果は第6図の(4)で
ある。
く第3図の(b)の場合の例〉 第4図(A)のままのネットワークで第5図のデータを
学習させた。学習は、 6784回で終了した。
重み等の結果は第6図の(1)である。そこで重みを調
べ1重みが0.2以下の結合を削除した。この場合は第
4図の(B)のように第0層のユニット0と第1層のユ
ニット1の間の結合と、第0層のユニットOと第1層の
ユニット3の間の結合を削除した。結合を削除すること
により、学習が終了している状態が壊れてしまったが、
更に、24回の学習をすることにより、完全に学習が終
了した。重み等の結果は第6図の(2)である。
〈第3図の(C)の場合の例〉 第3図(a)の例と同様に第4図(C)のネットワーク
で第5図のデータを学習させた。重み等の結果は第6図
の3である。学習に役だっていない0.2以下の重みを
持つ結合第0層のユニット0と第1層のユニットOの間
の結合を削除し、その他の結合を追加した第4図(D)
のようなネットワークで学習を続けた。4018回の学
習でデータを学習することができた0重み等の結果は第
6図の5である。
〔発明の効果〕
本発明を用いれば、構造を持つニューラルネットワーク
を学習させる際に、学習の途中でネットワークの構造を
変更することを可能とする。例えばうまく学習できない
時にネットワークの構造を変更して、結合を増やす、或
いは一応学習は終わったが、もっと簡単な構造を持つネ
ットワークで実現するために学習に効いてなさそうなネ
ットワークの結合を削除してしまう、などといったこと
を本発明は可能とする。
【図面の簡単な説明】
第1図は本発明の原理的構成図、第2図は本発明の1実
施例装置の構成図、第3図は本発明の設定部の制御フロ
ー図、第4図(A)ないし第4図(D)は本発明実施例
の動作を説明するためのネットワーク構造状態の説明図
(その1)ないしくその4)、第5図は学習データ例の
説明図、第6図は学習過程における闇値と重みの変化の
説明図、第7図は2Nパーセブトロン型ニユーラルネツ
トワークの構成図、第8図はバック・プロパゲーション
法の説明図、第9図は1個のセルを用いたニューラルネ
ットワークの構成図、第10図はパターン空間における
判別直線f=oの説明図第11図はセルのシグモイド特
性の説明図、第12図はパターン空間におけるセル出力
を用いた判別直線の説明図、第13図はパターン空間に
おける線形判別直線群の説明図、第14図はパターン空
間における非線形判別線の説明図、第15図は非線形判
別線を実現するニューラルネットワークの説明図である
。 第1区中 1  、 ニューラルネットワーク 2 : ネットワークの構造情報 3 : 重み情報 4 : 学習部 5 : 動的構造変更装置 6 : 構造変更指示手段 特許出願人 冨士通株式会社(外1名)代 理 人 弁
理士 長谷用 文廣(外2名)本9:日月の月艮理的填
万父図 孝し 1 図 本癒明q註定節制句元−図 第3図 第 図(D) 第0層 第1層 第2層 第4図(B) 橡習テーグ分l搾説明図 部5図 ← フィーF゛ ノぐツク 晩れM(i/i) バッブデ0ノでゲーションシ夫、f)含也明図第8図 (=1) 2眉ノ(0−でデトO:/型二1うルネットワークの木
1成図第7図 1イffJcr>でJL/に用いhニューラルえットフ
ーフの不陶万(図系9図 〕(ター〉空間1;お(76判別直緯A○q説明図 第10図 でルのシクモイf ’41tの説明図 第11図 第12図 ノ(0ヲ一ン宇間1:おける東〉手り月り1D輔し奪←
乃銑明図第13図 パターン空間におけSJP線町≠1別縁の説明図第14
図 xO=1 プF奉竿斤9¥’1%’1mを突IL了う二l−ラノV
才7トワ−7の柘ε明図第15図

Claims (1)

  1. 【特許請求の範囲】  ニューラルネットワーク装置において, 外部からニューラルネットワークのセル結合の追加また
    は削除,あるいは追加および削除を指示する手段と, 外部からの指示にしたがって,ニューラルネットワーク
    にセル結合を追加しあるいはニューラルネットワークか
    らセル結合を削除してニューラルネットワークの構造を
    変更する手段とを設け,ニューラルネットワークの学習
    過程中に,状況に応じて外部からニューラルネットワー
    ク構造の変更指示を与え,動的に変更可能にしたことを
    特徴とするニューラルネットワーク装置。
JP2100661A 1990-04-17 1990-04-17 ニューラルネットワーク装置 Expired - Lifetime JP2907486B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2100661A JP2907486B2 (ja) 1990-04-17 1990-04-17 ニューラルネットワーク装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2100661A JP2907486B2 (ja) 1990-04-17 1990-04-17 ニューラルネットワーク装置

Publications (2)

Publication Number Publication Date
JPH04548A true JPH04548A (ja) 1992-01-06
JP2907486B2 JP2907486B2 (ja) 1999-06-21

Family

ID=14279985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2100661A Expired - Lifetime JP2907486B2 (ja) 1990-04-17 1990-04-17 ニューラルネットワーク装置

Country Status (1)

Country Link
JP (1) JP2907486B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0652340A (ja) * 1992-05-30 1994-02-25 Gold Star Electron Co Ltd プログラムの可能な多層神経回路網
JPH06266398A (ja) * 1993-03-16 1994-09-22 Sanyo Electric Co Ltd ニューラルネットワークを用いた演算装置
JPH06348675A (ja) * 1993-06-07 1994-12-22 Ebara Corp ニューロコンピュータ応用機器およびこれを含む機械装置
JPH0749945A (ja) * 1993-08-04 1995-02-21 Mitsubishi Electric Corp 識別装置
JP2001175870A (ja) * 2000-11-10 2001-06-29 Mitsubishi Electric Corp 識別装置
JP2018055570A (ja) * 2016-09-30 2018-04-05 キヤノン株式会社 演算処理装置、演算処理方法及びプログラム
JP2019200743A (ja) * 2018-05-18 2019-11-21 ヤフー株式会社 生成装置、生成方法、生成プログラムおよびプログラムパラメータ

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0652340A (ja) * 1992-05-30 1994-02-25 Gold Star Electron Co Ltd プログラムの可能な多層神経回路網
JPH06266398A (ja) * 1993-03-16 1994-09-22 Sanyo Electric Co Ltd ニューラルネットワークを用いた演算装置
JPH06348675A (ja) * 1993-06-07 1994-12-22 Ebara Corp ニューロコンピュータ応用機器およびこれを含む機械装置
JPH0749945A (ja) * 1993-08-04 1995-02-21 Mitsubishi Electric Corp 識別装置
JP2001175870A (ja) * 2000-11-10 2001-06-29 Mitsubishi Electric Corp 識別装置
JP2018055570A (ja) * 2016-09-30 2018-04-05 キヤノン株式会社 演算処理装置、演算処理方法及びプログラム
JP2019200743A (ja) * 2018-05-18 2019-11-21 ヤフー株式会社 生成装置、生成方法、生成プログラムおよびプログラムパラメータ

Also Published As

Publication number Publication date
JP2907486B2 (ja) 1999-06-21

Similar Documents

Publication Publication Date Title
Kang An investigation of the use of feedforward neural networks for forecasting
Sivanandam et al. Principles of soft computing (with CD)
CN108510194A (zh) 风控模型训练方法、风险识别方法、装置、设备及介质
Werbos Neural networks for control and system identification
Irwin et al. Neural network applications in control
Munakata Fundamentals of the new artificial intelligence
Mitra et al. Self-organizing neural network as a fuzzy classifier
Zahedi An introduction to neural networks and a comparison with artificial intelligence and expert systems
Hoffmann et al. Comparing a genetic fuzzy and a neurofuzzy classifier for credit scoring
JPH04548A (ja) ニューラルネットワーク装置
Beyer et al. Learning from examples, agent teams and the concept of reflection
Koster et al. A business application of artificial neural network systems
Guan Development of optimal network structures for back-propagation-trained neural networks
Ruxanda LEARNING PERCEPTRON NEURAL NETWORK WITH BACKPROPAGATION ALGORITHM.
Fasel An introduction to bio-inspired artificial neural network architectures
Kasabov et al. Spatial-temporal adaptation in evolving fuzzy neural networks for on-line adaptive phoneme recognition
Medler The crossroads of connectionism: where do we go from here?
Castillo et al. Introduction to Neural Networks
Xu A novel higher order artificial neural networks
Tafti Neural networks: a new dimension in expert systems applications
Mitra et al. A fusion of fuzzy sets and layered neural networks at the input, output and neuronal levels
Nguyen Artificial Intelligence application: Categorize route and non-route given predefined route
Chen et al. An economic forecasting system based on recurrent neural networks
Wilson The strategic organizational use of neural networks: an exploratory study
Xu Features of higher order neural network with adaptive neurons

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080402

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 10

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 10

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100402

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110402

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110402

Year of fee payment: 12