JP2907486B2 - ニューラルネットワーク装置 - Google Patents
ニューラルネットワーク装置Info
- Publication number
- JP2907486B2 JP2907486B2 JP2100661A JP10066190A JP2907486B2 JP 2907486 B2 JP2907486 B2 JP 2907486B2 JP 2100661 A JP2100661 A JP 2100661A JP 10066190 A JP10066190 A JP 10066190A JP 2907486 B2 JP2907486 B2 JP 2907486B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- learning
- weight
- network
- cell
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Image Analysis (AREA)
- Feedback Control In General (AREA)
- Devices For Executing Special Programs (AREA)
Description
た装置に関し, ニューラルネットワークの学習効果を高められる有効
な手段を提供することを目的とし, 外部からニューラルネットワークのセル結合の追加ま
たは削除、あるいは追加および削除を指示する手段と、 外部からの指示にしたがって、ニューラルネットワー
クにセル結合を追加しあるいはニューラルネットワーク
からセル結合を削除してニューラルネットワークの構造
を変更するとともに、セル結合を追加する場合は追加し
た結合の重みを乱数で初期化する手段とを設け、 ニューラルネットワークの学習過程中に、外部からニ
ューラルネットワーク構造の変更指示が与えられたと
き、セル数を一定にした状態においてセル結合を動的に
変更可能に構成した。
ニューラルネットワークの構造を動的に変更可能にした
装置に関する。
装置や適応フィルタなどが開発されており,更に何かし
ら構造を持ったニューラルネットワークを使おうとする
動きが急速に強まっている。
を適用してきた分野でファジィモデルをニューロモデル
で実現しようとする際には,構造を持ったニューラルネ
ットワークが必要になる。このためある構造をもったニ
ューラルネットワークを設定するが,学習を進めている
間に更に複雑な構造が必要になることが判ったり,逆に
最初に与えた構造が複雑過ぎて,もっと単純なネットワ
ークで十分であることが判ったりする。
じたネットワークの構造の動的な変更を可能とする。
ンピュータは,全ての場合について動作を指定する必要
があった。ニューラルネットワークで構成されるニュー
ロコンピュータは,代表的な学習パターンを何回か提示
することにより学習することができ,それまで与えてい
ないパターンに対しても適切な解を与えることができ
る。
トロンモデルのような階層型のモデルと,ホップフィー
ルド型モデルのような相互結合型のモデルがある。
法には,階層型ニューラルネットワークとバックプロパ
ゲーション法や階層型ニューラルネットワークと仮想イ
ンピーダンス法などがある。
ン型ニューラルネットワークについて説明する。
トワークの例として,2層のパーセプトロン型ニューラル
ネットワークの構成を示す。
クは、隠れ層(中間層ともいう)と出力層からなり,各
層は○で示すセルで構成される。ここでセルは,ニュー
ロンを機能的に模擬した素子を意味している。この例で
は入力数が(I+1)個,隠れ層のセル個数(J+1)
個および出力層のセル個数1個からなっている。
力には結合計数{Vj}j=0,J, また隠れ層の各セルの各入力には {Wij}i=0,I,j=I,Jが付与されている。各セルの出
力{Yj}およびZは,次の1式または2式で表される。
但し,X0=1,Y0=1である。
である。2式で は出力層のセルの入力の総和であり,それを と表すことにする。
次元パターン空間内に分布する多数のパターンI−1次
元の複数の超平面の組み合わせによって2つのカテゴリ
に分離する機能がある。この組み合わせられた超平面を
識別面という。識別面は結合係数{Vj}j=0,jおよび {Wij}i=0,I,j=1,Jにより決定される。この結合係
数{Vj}j=0,Jおよび {Wij}j=0,I,j=1,Jは,バックプロパゲーション法
(以下BP法とよぶ)を用いて学習データより決定するこ
とができる。
を示す。このネットワークの特徴は通常のセル以外に,
常に出力値が1であるセルを設けてあることである。こ
のセルと上層の通常のユニットとの間の結合の重みは,
閾値と見做すことができる。このようにして,閾値に重
みと同じ学習則を適用することができる。したがって,
以下の数式では閾値θはあらわに出てこない。
習させたいパターンをもつ入力信号を与え,このとき出
力層(j層)の各セル1〜Njから出力される出力信号
を,学習させたい目標値を与える教師信号と比較し,誤
差を求めて,それを層間の結合の重みWij,Wjiに反映
(フィードバック)させるものである。
ternal Representations by Error Propagation" Parallel Distributed Processing Vol.1 (The MIT press),pp318〜362 ここではその概要を述べる。
えられた場合に,現状の結合係数で得られる出力をzpと
し,人間が意図する望ましい出力(パターンのカテゴリ
に対応する)をtpとする。ここでは,あるカテゴリであ
るかまたはないかを識別するニューラルネットワークを
学習させるものとする。学習パターン{xi p}がそのカ
テゴリである場合tpを1とし,そうでない場合tpを0と
する。そして全学習パターンに対してzpとtpの誤差が小
さくなるようにニューラルネットワーク内の結合係数の
値を変更する。
式で表される。
合係数の変化量は以下の7式〜10式に従えばよい。
の値が用いられる。
繰り返し実行することにより行われる。
式の代わりに次の13式および14式を用いる。
合係数の学習方向の連続性を保つための係数であり,モ
ーメンタムと呼ばれる。一般にγは0.05〜0.7程度の値
が用いられる。また,ΔVj(0)=0,ΔWij(0)=0
である。
合係数を繰り返し演算する。
る。まず未知パターンが入力に与えられる。ニューラル
ネットワーク内では,1式および2式の計算が行われ出力
Zが得られる。たとえばこのZが0.5以上の場合未知パ
ターンは学習されたカテゴリであると識別され,Zが0.5
以下の場合未知パターンは学習されたカテゴリでないと
識別される。
にするため,第9図ないし第15図を用いて具体例を説明
する。
えてみる。これは,第8図において隠れ層の1個のセル
に相当する。
…,N)をもち,X0,X1,…,XNの要素からなる入力パターン
(パターン{Xi})が与えられると,15式で示す出力関
数処理を行って,識別結果yを出力する。
示している。第10図にパターン空間が2次元の場合の例
を示す。
域1はf<0,領域2はf>0として判別できる。
域識別が可能となる。
モイド特性にしたがって0から1までの値に非線形変換
するものである(f=0は,y=0.5に変換される)。
りにyを用いて第12図のように書き直すことができる。
個)の場合には,パターン空間にもう1本の判別直線を
引くことができる。第13図にその1例を示す。図中の
y1,y2は次の19式と20式で表される。
条件(y1とy2の和が1.5以上)を満足する領域を第14図
に斜線領域で示す。
ューラルネットワークの構成を第15図に示す。図中のU
01,U11,U21は結合係数である。
ネットワークでは,結合係数を適当に設定すれば,出力
層のセルがパターン空間内の非線形な境界をもつ連続凸
領域を識別(セル出力が0.5以上となる)することが可
能となる。さらに隠れ層を多層化すれば,非線形な境界
をもつ非連続凸領域の識別が可能となる。
ットワーク構造は固定であり,学習過程で制御できるの
はセル間の結合係数(重み)と閾値のみであった。
群によっては学習効果がなかなかあがらない場合があ
り,処理精度が向上しないことがあった。
られる有効な手段を提供することを目的としている。
トワーク構造が固定であったため,処理対象によっては
セル間の結合が不足したり過剰になったりし,学習効率
や処理精度に影響している点に着目し,学習過程中に必
要な場合セル間結合の追加,削除,あるいは追加および
削除を可能にして,ネットワーク構造を処理対象に最適
化できるようにしたものである。
る。
る。
習パターンを与えて結果出力を教師信号と比較し,誤差
を重み情報3に反映させる処理を行う。
り,ニューラルネットワーク1におけるセル結合の追加
または削除あるいは追加と削除の両方を行う。
更装置5に対してネットワーク構造の変更指示を与える
ために用いられる。
2および重み情報3は初期設定され,学習部4は,それ
らの情報に基づいてニュートラルネットワーク1の学習
を実行する。
力と教師信号との間の誤差が基準値以下になかなか収斂
しない場合には,外部から構造変更指示手段6により動
的構造変更装置5に対して,ネットワーク中のセル間結
合の追加,削除あるいは追加および削除を指示する。
ク構造情報2を変更し,学習部4はその結果に基づいて
学習処理を最実行する。
る。
図はその制御フロー図である。
置であり,その中の11はニューラルネットワークの重み
および構造情報を保存する重みおよび構造保存部,12は
学習パターンを格納するパターン格納部,13は学習パタ
ーンを用いてニューラルネットワークの学習処理を実行
する学習部,14は学習されたニューラルネットワークに
より未知入力を処理する実行部,15は処理結果を出力す
る出力部である。
中の21は重みおよび構造保存部11から重みおよび構造情
報を読出す重みおよび構造読取部,22は重みおよび構造
情報を重みおよび構造保存部11に設定あるいは再設定す
る設定部,23は外部からの構造変更指示を読取る指示読
取装置,24は追加されたネットワーク構造中のセル結合
の重みを乱数で初期化する乱数発生装置である。
を説明する。
置が,ネットワークの構造を変えるように指示を与え
る。
を通じて読み取る。
ネットワークの各結合の重みおよび構造の情報を重みお
よび構造読取部を通じて読み出す。
(c),(d)の動作を行う。
する指示を重みおよび構造保存部に行う。
する指示を重みおよび構造保存部に行う。
めに指示された結合の削除を重みおよび構造保存部に行
い,次に結合の追加を指示する。
結合の重みを乱数で初期化する。
クの基本の形である。全ての重みおよび閾値の初期値を
設定する時,および新しい重みを付け加える時には−0.
5から0.5までの乱数で初期化する。学習定数5.0モーメ
ンタム0.4で,第5図のデータを学習させた。学習終了
の判定は,各出力ユニットからの出力と教師信号との差
が0.025以下になった時とした。第6図の(1)〜
(5)が,各状態における重みと閾値の値である。第6
図の見方は,weight〔i〕〔j〕は,第i層の第jユニ
ットへの結合の重みを並べたものであり,threshold
〔i〕〔j〕は,第i層の第jユニットの閾値である。
重みで,*****とあるのは,結合が存在しない部分
である。
させた。10000回学習してもネットワークはデータを学
習することが出来なかった。重み等の結果は第6図の
(3)である。そこで,その状態から第3図のネットワ
ークのように全ての結合を乱数で初期化して追加した。
そして学習をすると,2349回の学習でデータを学習する
ことができた。重み等の結果は第6図の(4)である。
を学習させた。学習は,6784回で終了した。重み等の結
果は第6図の(1)である。そこで重みを調べ,重みが
0.2以下の結合を削除した。この場合は第4図の(B)
のように第0層のユニット0と第1層のユニット1の間
の結合と,第0層のユニット0と第1層のユニット3の
間の結合を削除した。結合を削除することにより,学習
が終了している状態が壊れてしまったが,更に,24回の
学習をすることにより,完全に学習が終了した。重み等
の結果は第6図の(2)である。
クで第5図のデータを学習させた。重み等の結果は第6
図の3である。学習に役だっていない0.2以下の重みを
持つ第0層のユニット0と第1層のユニット0の間の結
合を削除し,その他の結合を追加した第4図(D)のよ
うなネットワークで学習を続けた。4018回の学習でデー
タを学習することができた。重み等の結果は第6図の5
である。
クを学習させる際に,学習の途中でネットワークの構造
を変更することを可能とする。例えばうまく学習できな
い時にネットワークの構造を変更して,結合を増やす。
或いは一応学習は終わったが,もっと簡単な構造を持つ
ネットワークで実現するために学習に効いてなさそうな
ネットワークの結合を削除してしまう,などといったこ
とを本発明は可能とする。
施例装置の構成図,第3図は本発明の設定部の制御フロ
ー図,第4図(A)ないし第4図(D)は本発明実施例
の動作を説明するためのネットワーク構造状態の説明図
(その1)ないし(その4),第5図は学習データ例の
説明図,第6図は学習過程における閾値と重みの変化の
説明図,第7図は2層パーセプトロン型ニューラルネッ
トワークの構成図,第8図はバック・プロパゲーション
法の説明図,第9図は1個のセルを用いたニューラルネ
ットワークの構成図,第10図はパターン空間における判
別直線f=0の説明図,第11図はセルのシグモイド特性
の説明図,第12図はパターン空間におけるセル出力を用
いた判別直線の説明図,第13図はパターン空間における
線形判別直線群の説明図,第14図はパターン空間におけ
る非線形判別線の説明図,第15図は非線形判別線を実現
するニューラルネットワークの説明図である。 第1図中 1:ニューラルネットワーク 2:ネットワークの構造情報 3:重み情報 4:学習部 5:動的構造変更装置 6:構造変更指示手段
Claims (1)
- 【請求項1】ニューラルネットワーク装置において、 外部からニューラルネットワークのセル結合の追加また
は削除、あるいは追加および削除を指示する手段と、 外部からの指示にしたがって、ニューラルネットワーク
にセル結合を追加しあるいはニューラルネットワークか
らセル結合を削除してニューラルネットワークの構造を
変更するとともに、セル結合を追加する場合は追加した
結合の重みを乱数で初期化する手段とを設け、 ニューラルネットワークの学習過程中に、外部からニュ
ーラルネットワーク構造の変更指示が与えられたとき、
セル数を一定にした状態においてセル結合を動的に変更
可能に構成したことを特徴とするニューラルネットワー
ク装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2100661A JP2907486B2 (ja) | 1990-04-17 | 1990-04-17 | ニューラルネットワーク装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2100661A JP2907486B2 (ja) | 1990-04-17 | 1990-04-17 | ニューラルネットワーク装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04548A JPH04548A (ja) | 1992-01-06 |
JP2907486B2 true JP2907486B2 (ja) | 1999-06-21 |
Family
ID=14279985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2100661A Expired - Lifetime JP2907486B2 (ja) | 1990-04-17 | 1990-04-17 | ニューラルネットワーク装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2907486B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR960013367B1 (ko) * | 1992-05-30 | 1996-10-04 | 정호선 | 프로그램이 가능한 다층 신경회로망 |
JPH06266398A (ja) * | 1993-03-16 | 1994-09-22 | Sanyo Electric Co Ltd | ニューラルネットワークを用いた演算装置 |
JPH06348675A (ja) * | 1993-06-07 | 1994-12-22 | Ebara Corp | ニューロコンピュータ応用機器およびこれを含む機械装置 |
JP3279743B2 (ja) * | 1993-08-04 | 2002-04-30 | 三菱電機株式会社 | 多層型ニューラルネットワーク構造を有する識別装置 |
JP3504604B2 (ja) * | 2000-11-10 | 2004-03-08 | 三菱電機株式会社 | 識別装置 |
JP6964969B2 (ja) * | 2016-09-30 | 2021-11-10 | キヤノン株式会社 | 演算処理装置、演算処理方法及びプログラム |
JP7054645B2 (ja) * | 2018-05-18 | 2022-04-14 | ヤフー株式会社 | 生成装置、生成方法、生成プログラムおよびプログラムパラメータ |
-
1990
- 1990-04-17 JP JP2100661A patent/JP2907486B2/ja not_active Expired - Lifetime
Non-Patent Citations (1)
Title |
---|
広瀬佳生,山下公一,土屋真平,「中間層ユニット数を変化させるバックプロパゲーション法」,平成元年電子情報通信学会春季全国大会講演論文集,D−18,p.7−18(1989) |
Also Published As
Publication number | Publication date |
---|---|
JPH04548A (ja) | 1992-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kang | An investigation of the use of feedforward neural networks for forecasting | |
Irwin et al. | Neural network applications in control | |
Ponnapalli et al. | A formal selection and pruning algorithm for feedforward artificial neural network optimization | |
JP2907486B2 (ja) | ニューラルネットワーク装置 | |
JPH11510936A (ja) | コンピュータによるファジィルールの最適化方法 | |
Kuo et al. | Applying genetic programming technique in classification trees | |
JPH07282168A (ja) | カオスリカレント神経回路網とその学習方法 | |
JP3374476B2 (ja) | ニューラルネットワーク構築方法 | |
Kumara et al. | Use of associative memory and self-organization in conceptual design | |
JP3354593B2 (ja) | ネットワーク型情報処理装置の学習システム | |
CN115131646A (zh) | 基于离散系数的深度网络模型压缩方法 | |
JP2897220B2 (ja) | 信号処理装置 | |
US6490571B1 (en) | Method and apparatus for neural networking using semantic attractor architecture | |
Hassan et al. | Rough neural classifier system | |
JP3171897B2 (ja) | 知識情報処理装置 | |
Du et al. | Evolutionary NAS in light of model stability for accurate continual learning | |
Bull | Model-based evolutionary computing: A neural network and genetic algorithm architecture | |
Clark et al. | Higher-order probabilistic perceptrons as Bayesian inference engines | |
JP2699447B2 (ja) | 信号処理装置 | |
Bebis et al. | Improving generalization by using genetic algorithms to determine the neural network size | |
US5535301A (en) | Method for guessing the response of a physical system to an arbitrary input | |
Sarkar et al. | An information theoretic technique to design belief network based expert systems | |
US20240020553A1 (en) | Interactive electronic device for performing functions of providing responses to questions from users and real-time conversation with the users using models learned by deep learning technique and operating method thereof | |
Tsoi et al. | Building MLP networks by construction | |
US20240127032A1 (en) | Temporal Convolution-Readout for Random Recurrent Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080402 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090402 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090402 Year of fee payment: 10 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090402 Year of fee payment: 10 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090402 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100402 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110402 Year of fee payment: 12 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110402 Year of fee payment: 12 |