JPH096881A - ニューラルネットワーク - Google Patents
ニューラルネットワークInfo
- Publication number
- JPH096881A JPH096881A JP7172889A JP17288995A JPH096881A JP H096881 A JPH096881 A JP H096881A JP 7172889 A JP7172889 A JP 7172889A JP 17288995 A JP17288995 A JP 17288995A JP H096881 A JPH096881 A JP H096881A
- Authority
- JP
- Japan
- Prior art keywords
- input
- neural network
- learning
- value
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】情報処理の遺伝的アルゴリズムを適用したニュ
ーラルネットワークによるパターン認識、推定の入力層
ユニットの構造化による学習および汎化能力の向上にあ
る。 【構成】多層階層構造型神経回路網において、各ユニッ
ト間の結合係数を初期化する際、入力層のユニットに対
して遺伝的アルゴリズムにより構造化を行い、各構造に
対する結合係数の初期値の範囲を設定し遺伝的アルゴリ
ズムで学習し、その結果をもってさらに学習、認識およ
び推定を行うものである。
ーラルネットワークによるパターン認識、推定の入力層
ユニットの構造化による学習および汎化能力の向上にあ
る。 【構成】多層階層構造型神経回路網において、各ユニッ
ト間の結合係数を初期化する際、入力層のユニットに対
して遺伝的アルゴリズムにより構造化を行い、各構造に
対する結合係数の初期値の範囲を設定し遺伝的アルゴリ
ズムで学習し、その結果をもってさらに学習、認識およ
び推定を行うものである。
Description
【0001】
【産業上の利用分野】本発明は、情報処理におけるニュ
ーラルネットワーク型パターン識別装置や値推定装置及
びその学習手段に関するものである。
ーラルネットワーク型パターン識別装置や値推定装置及
びその学習手段に関するものである。
【0002】
【従来の技術】ニューラルネットワーク(多層階層構造
型神経回路網)の構造及び学習手段としては、代表的な
誤差逆伝播法(バックプロパゲーション法)がある。
(例えば「神経回路網モデルとコネクショニズム」、甘
利俊一著、東京大学出版会に掲載されている。) この概要を図9のユニット内部状態説明図により説明す
ると、入力層以外のユニットiの入出力関係は(1)、
(2)、(3)式に示され、ユニットiに対する入力を
Oj(j=1からN)、各Ojに対する結合係数(重み)を
Wijで表す。このとき、結合係数Wijは、乱数で初期設
定する。
型神経回路網)の構造及び学習手段としては、代表的な
誤差逆伝播法(バックプロパゲーション法)がある。
(例えば「神経回路網モデルとコネクショニズム」、甘
利俊一著、東京大学出版会に掲載されている。) この概要を図9のユニット内部状態説明図により説明す
ると、入力層以外のユニットiの入出力関係は(1)、
(2)、(3)式に示され、ユニットiに対する入力を
Oj(j=1からN)、各Ojに対する結合係数(重み)を
Wijで表す。このとき、結合係数Wijは、乱数で初期設
定する。
【0003】 入力の積和 Xi=Σ WijOj ──────────(1) (1)式を関数f(Xi )に適用し変換する。関数とし
ては一般に微分可能な次の(2)式のようなシグモイド
関数を使うことが多い。 f(Xi)=1/{1+exp(−Xi)} ────────(2) 出力 Yi=f(Xi) ────────(3) ここで、Yiの値は0から1の間の数となる。他方、入
力層のユニットは入力値をそのまま出力値とする。
ては一般に微分可能な次の(2)式のようなシグモイド
関数を使うことが多い。 f(Xi)=1/{1+exp(−Xi)} ────────(2) 出力 Yi=f(Xi) ────────(3) ここで、Yiの値は0から1の間の数となる。他方、入
力層のユニットは入力値をそのまま出力値とする。
【0004】誤差逆伝播法とは、学習パターンXk から
得られる出力パターンYi と学習パターンに対する所望
の出力値Ii (以後教師パターンと言う)とのユニット
の2乗誤差を最小化する学習方法である。ここでは図8
のような3層構造の例について説明するが、多層の場合
も同様である。結合係数の学習は次のようにする。まず
出力層の学習は損失関数をE(二乗誤差)とすると、
(4)式に示され、iは出力層のユニット番号、jは中
間層のユニット番号、kは入力層のユニット番号、Oj
は中間層の出力、Wijは中間層と出力層間の結合係数、
Yi は出力層の出力、Ii は教師パターンである。 E(W)=1/2Σ(Yi−Ii)2 ──────────(4) WはすべてのWijを示す。
得られる出力パターンYi と学習パターンに対する所望
の出力値Ii (以後教師パターンと言う)とのユニット
の2乗誤差を最小化する学習方法である。ここでは図8
のような3層構造の例について説明するが、多層の場合
も同様である。結合係数の学習は次のようにする。まず
出力層の学習は損失関数をE(二乗誤差)とすると、
(4)式に示され、iは出力層のユニット番号、jは中
間層のユニット番号、kは入力層のユニット番号、Oj
は中間層の出力、Wijは中間層と出力層間の結合係数、
Yi は出力層の出力、Ii は教師パターンである。 E(W)=1/2Σ(Yi−Ii)2 ──────────(4) WはすべてのWijを示す。
【0005】最急降下法(確率的降下法)を適用する
と、(5)式を学習信号として(6)式に示すように結
合係数を変えればよい。 δE/δWij=(Yi−Ii)f’(ΣWijOj)Oj─────(5) 新Wij=旧Wij−cδE/δWij ────────(6) ここで、cは学習定数、Oj は中間層の出力である。
と、(5)式を学習信号として(6)式に示すように結
合係数を変えればよい。 δE/δWij=(Yi−Ii)f’(ΣWijOj)Oj─────(5) 新Wij=旧Wij−cδE/δWij ────────(6) ここで、cは学習定数、Oj は中間層の出力である。
【0006】(2)式のシグモイド関数は、一般的には
次の(7)式で表せ、これを微分すると、元の関数を使
い、(8)式のように表される。 f(x)=1/{1+exp(−x)} ──────────(7) f’(x)=f(x)(1−f(x)) ──────────(8) 実際にはf(ΣWijOj)=Yiであるから、(8)式
は、 f’(ΣWijOj)=Yi(1−Yi) で示され、(5)式は(9)式となる。 δE/δWij=(Yi−Ii)Yi(1−Yi)Oj ────────(9) したがってc=1とすると、(6)式は、 新Wij=旧Wij−(Yi−Ii)Yi(1−Yi)Oj ───────(10) で示される。ここで、D1i=(Ii−Yi)Yi(1−Y
i)とすると、(10)式は(11)式で表される。 新Wij=旧Wij+D1iOj ──────────(11) 中間層の学習も損失関数をE(二乗誤差)とすると、
(12)式で表される。 E(V)=1/2(Yi−Ii)(Yi−Ii)──────────(12) VはすべてのVjkのことである。ここで、Vjkは中間層
と入力層間の結合係数を表す。最急降下法(確率的降下
法)を適用すると、(13)式を学習信号として(14)式
に示すように結合係数を変えればよい。
次の(7)式で表せ、これを微分すると、元の関数を使
い、(8)式のように表される。 f(x)=1/{1+exp(−x)} ──────────(7) f’(x)=f(x)(1−f(x)) ──────────(8) 実際にはf(ΣWijOj)=Yiであるから、(8)式
は、 f’(ΣWijOj)=Yi(1−Yi) で示され、(5)式は(9)式となる。 δE/δWij=(Yi−Ii)Yi(1−Yi)Oj ────────(9) したがってc=1とすると、(6)式は、 新Wij=旧Wij−(Yi−Ii)Yi(1−Yi)Oj ───────(10) で示される。ここで、D1i=(Ii−Yi)Yi(1−Y
i)とすると、(10)式は(11)式で表される。 新Wij=旧Wij+D1iOj ──────────(11) 中間層の学習も損失関数をE(二乗誤差)とすると、
(12)式で表される。 E(V)=1/2(Yi−Ii)(Yi−Ii)──────────(12) VはすべてのVjkのことである。ここで、Vjkは中間層
と入力層間の結合係数を表す。最急降下法(確率的降下
法)を適用すると、(13)式を学習信号として(14)式
に示すように結合係数を変えればよい。
【0007】 δE/δVjk=δE/δOj・δOj/δVjk =Σ(Yi−Ii)δYi/δOj・δOj/δVjk ={Σ(Yi−Ii)f’(WijOj)Wij} ×f’(ΣVjkXk)Xk──────(13) 新Vi=旧Vi−cδE/δVjkより ───────────(14) (14)式は(15)〜(18)式を用いて変換し、(19)式
を得る。 Dj =−(Σ(Yi−Ii)f’(WijOj)Wij) =ΣD1iWij ──────────(15) f’(ΣVjkXk)Xk=Oj(1−Oj)Xk ────────(16) δE/δVjk=−DjOj(1−Oj)Xk ─────────(17) なお、Xkは入力層の出力である。したがってc=1と
すると 新Vjk=旧Vjk+DjOj(1−Oj)Xk ─────────(18) ここで D2j=DjOj(1−Oj) とする。 したがって、新Vjk=旧Vjk+D2jXk ──────────(19) このようにして、入力層中間層間の結合係数の学習式も
表すことが出来る。結合係数の計算は出力層のユニット
から始めて中間層のユニットへ移り、次々に前段の中間
層へ移っていく。従って学習は次のように進み、まず学
習用のパターンを入力し、結果を計算する。結果の教師
パターンとの誤差を減らすように全ての結合係数を変更
する。再び、学習用パターンを入力する。これを収束す
るまで繰り返す。
を得る。 Dj =−(Σ(Yi−Ii)f’(WijOj)Wij) =ΣD1iWij ──────────(15) f’(ΣVjkXk)Xk=Oj(1−Oj)Xk ────────(16) δE/δVjk=−DjOj(1−Oj)Xk ─────────(17) なお、Xkは入力層の出力である。したがってc=1と
すると 新Vjk=旧Vjk+DjOj(1−Oj)Xk ─────────(18) ここで D2j=DjOj(1−Oj) とする。 したがって、新Vjk=旧Vjk+D2jXk ──────────(19) このようにして、入力層中間層間の結合係数の学習式も
表すことが出来る。結合係数の計算は出力層のユニット
から始めて中間層のユニットへ移り、次々に前段の中間
層へ移っていく。従って学習は次のように進み、まず学
習用のパターンを入力し、結果を計算する。結果の教師
パターンとの誤差を減らすように全ての結合係数を変更
する。再び、学習用パターンを入力する。これを収束す
るまで繰り返す。
【0008】ニューラルネットワークに遺伝的アルゴリ
ズムを適用した従来方式としては、ニューラルネットワ
ークのユニット数、特に中間層のユニット数の同定、ユ
ニット間の接続の有無の同定による構造決定方式があ
る。また、各ユニット間の結合係数の学習を遺伝的アル
ゴリズムで行う方式や、学習係数、学習回数を遺伝子と
する方式もある。
ズムを適用した従来方式としては、ニューラルネットワ
ークのユニット数、特に中間層のユニット数の同定、ユ
ニット間の接続の有無の同定による構造決定方式があ
る。また、各ユニット間の結合係数の学習を遺伝的アル
ゴリズムで行う方式や、学習係数、学習回数を遺伝子と
する方式もある。
【0009】
【発明が解決しようとする課題】従来の技術では、次の
ような欠点がある。 (1)従来の多層階層構造型ニューラルネットワークに
於ける入力層と中間層の間の結合係数の初期値はすべて
0か乱数で決めてから学習させていたが、入力層の各ユ
ニットが全く独立の変数ならよいが、波形データや平面
上のデータのように隣接するユニットと相互に関連があ
る場合その関連性をニューラルネットワークでうまく表
現することが出来ず、汎化能力を上がらなかった。 (2)入力層の各ユニット間の関連をあらかじめ同定で
きないとき、学習結果の結合係数を見ても、入力層の各
ユニット間の関連は何ら判断できない。
ような欠点がある。 (1)従来の多層階層構造型ニューラルネットワークに
於ける入力層と中間層の間の結合係数の初期値はすべて
0か乱数で決めてから学習させていたが、入力層の各ユ
ニットが全く独立の変数ならよいが、波形データや平面
上のデータのように隣接するユニットと相互に関連があ
る場合その関連性をニューラルネットワークでうまく表
現することが出来ず、汎化能力を上がらなかった。 (2)入力層の各ユニット間の関連をあらかじめ同定で
きないとき、学習結果の結合係数を見ても、入力層の各
ユニット間の関連は何ら判断できない。
【0010】
【課題を解決するための手段】本発明は上述した点に鑑
みて創案されたもので、その目的とするところは、ニュ
ーラルネットワークに対して次の改良手段を施すことに
ある。入力層のユニット間の構造化の設定方法に対して
遺伝的アルゴリズムを導入する。 遺伝子としては構造
化分割数、各構造の中心点の値、各構造の初期値の取り
うる範囲を割り当て、評価データにより出力値と教師値
の二乗誤差の値を評価値とし遺伝的アルゴリズムを適用
する。入力層のユニット間の構造化の設定方法に対して
は、遺伝的アルゴリズムを導入し、遺伝子としては構造
化分割数、各構造の中心点の値、各構造のユニットの結
合係数の初期値の取りうる最小値、最大値及び入力ユニ
ットの全結合係数すなわち結合係数テーブルを割り当
て、評価データにより出力値と教師値の二乗誤差の値を
評価値とし、遺伝的アルゴリズムを適用して入力層の構
造化を行うことが出来るよう構成したものである。
みて創案されたもので、その目的とするところは、ニュ
ーラルネットワークに対して次の改良手段を施すことに
ある。入力層のユニット間の構造化の設定方法に対して
遺伝的アルゴリズムを導入する。 遺伝子としては構造
化分割数、各構造の中心点の値、各構造の初期値の取り
うる範囲を割り当て、評価データにより出力値と教師値
の二乗誤差の値を評価値とし遺伝的アルゴリズムを適用
する。入力層のユニット間の構造化の設定方法に対して
は、遺伝的アルゴリズムを導入し、遺伝子としては構造
化分割数、各構造の中心点の値、各構造のユニットの結
合係数の初期値の取りうる最小値、最大値及び入力ユニ
ットの全結合係数すなわち結合係数テーブルを割り当
て、評価データにより出力値と教師値の二乗誤差の値を
評価値とし、遺伝的アルゴリズムを適用して入力層の構
造化を行うことが出来るよう構成したものである。
【0011】
【作 用】その作用は、後述する実施例において詳細に
説明するが、ニューラルネットワークにおいて波形デー
タ、2次元、3次元形状データを学習する際、汎化能力
を増すようにニューラルネットワークの入力層を遺伝的
アルゴリズムにより構造化する。遺伝的アルゴリズムに
より進化させることにより、入力ユニットの相互の関連
を結合係数に反映させ、汎化能力を増すようにするもの
である。以下、本発明の神経回路網の実施例を、図面に
基づいて詳述する。
説明するが、ニューラルネットワークにおいて波形デー
タ、2次元、3次元形状データを学習する際、汎化能力
を増すようにニューラルネットワークの入力層を遺伝的
アルゴリズムにより構造化する。遺伝的アルゴリズムに
より進化させることにより、入力ユニットの相互の関連
を結合係数に反映させ、汎化能力を増すようにするもの
である。以下、本発明の神経回路網の実施例を、図面に
基づいて詳述する。
【0012】
【実施例】図1は本発明のニューラルネットワークを含
む学習認識装置の一実施例の全体の構成図で、11は神経
回路網学習認識装置、1はニューラルネットワーク、2
はワーキングメモリ(一時的に入力あるいは演算したも
のを記憶しておく場所)、3は入力制御部、4は出力制
御部、5は入力装置、6は出力・表示を行う装置、7は
遺伝的アルゴリズム制御部、8は遺伝子集団である。
む学習認識装置の一実施例の全体の構成図で、11は神経
回路網学習認識装置、1はニューラルネットワーク、2
はワーキングメモリ(一時的に入力あるいは演算したも
のを記憶しておく場所)、3は入力制御部、4は出力制
御部、5は入力装置、6は出力・表示を行う装置、7は
遺伝的アルゴリズム制御部、8は遺伝子集団である。
【0013】神経回路網学習認識装置11において、学習
パターン、教師パターン等各種設定値を入力装置5に入
力すると、入力された値は、入力制御部3を介してワー
キングメモリ2にそれぞれのパターンが記憶される。そ
れぞれの入力値はニューラルネットワーク1に入力さ
れ、ここで、ワーキングメモリー上の学習パターン、教
師パターン、各種設定値をもとに、遺伝的アルゴリズム
制御部7と遺伝子集団8を介して学習を行い結合係数を
更新する。結合係数はニューラルネットワーク1の内部
に蓄えられ、学習結果を、出力制御部4を介して、出力
・表示を行う装置6に出力・表示する。また神経回路網
学習認識装置11において、入力パターンを入力すると、
前述したと同様に、入力された値は入力制御部3を介し
てワーキングメモリ2に記憶される。ニューラルネット
ワーク1は、結合係数をもとに認識または値推定を行い
結果を、出力制御部4を介して、出力・表示を行う装置
6に出力・表示する。ここで遺伝子集団8は遺伝子を持
った個体の集まりを意味する。さらに遺伝子としては結
合係数等を含む。
パターン、教師パターン等各種設定値を入力装置5に入
力すると、入力された値は、入力制御部3を介してワー
キングメモリ2にそれぞれのパターンが記憶される。そ
れぞれの入力値はニューラルネットワーク1に入力さ
れ、ここで、ワーキングメモリー上の学習パターン、教
師パターン、各種設定値をもとに、遺伝的アルゴリズム
制御部7と遺伝子集団8を介して学習を行い結合係数を
更新する。結合係数はニューラルネットワーク1の内部
に蓄えられ、学習結果を、出力制御部4を介して、出力
・表示を行う装置6に出力・表示する。また神経回路網
学習認識装置11において、入力パターンを入力すると、
前述したと同様に、入力された値は入力制御部3を介し
てワーキングメモリ2に記憶される。ニューラルネット
ワーク1は、結合係数をもとに認識または値推定を行い
結果を、出力制御部4を介して、出力・表示を行う装置
6に出力・表示する。ここで遺伝子集団8は遺伝子を持
った個体の集まりを意味する。さらに遺伝子としては結
合係数等を含む。
【0014】次に図2〜図7により本発明の一実施例を
説明する。図2は電動機の漏れインダクタンスと二次巻
線抵抗の推論を行うニューラルネットワークの一実施例
であり、入力層のユニットは各周波数や各電流での漏
れインダクタンスの値6×6ユニットと各周波数や各電
流での二次巻線抵抗の6×6ユニットの2次元配列構造
が2つの72ユニット、中間層のユニットは各入力層
のユニットと結合係数で結ばれた10ユニット、出力層
は電動機の漏れインダクタンスと二次巻線抵抗の値の
2ユニットである。図3は遺伝的アルゴリズムにおける
各個体の遺伝子の表現方法を示す。使用する個体数、結
合係数の範囲等は予め設定しておく。この例は図2のよ
うに入力層が2次元配列構造のユニットの例である。遺
伝子としては入力層の分割数、各分割するブロックの中
心点のx座標、y座標、結合係数の最小値、最大値、各
層間の結合係数のテーブルを持つ。図4は入力層が1次
元配列の場合の中心点による分割の仕方を示す図であ
る。図5は入力層が2次元配列の場合の中心点による分
割の仕方を示す図である。いずれの場合も前の中心点か
ら順番に中心点を中心に1マスずつ領域を広げていき未
決定の領域に対して分割を決める。このような方法によ
れば3次元以降、n次元での分割適用できる。
説明する。図2は電動機の漏れインダクタンスと二次巻
線抵抗の推論を行うニューラルネットワークの一実施例
であり、入力層のユニットは各周波数や各電流での漏
れインダクタンスの値6×6ユニットと各周波数や各電
流での二次巻線抵抗の6×6ユニットの2次元配列構造
が2つの72ユニット、中間層のユニットは各入力層
のユニットと結合係数で結ばれた10ユニット、出力層
は電動機の漏れインダクタンスと二次巻線抵抗の値の
2ユニットである。図3は遺伝的アルゴリズムにおける
各個体の遺伝子の表現方法を示す。使用する個体数、結
合係数の範囲等は予め設定しておく。この例は図2のよ
うに入力層が2次元配列構造のユニットの例である。遺
伝子としては入力層の分割数、各分割するブロックの中
心点のx座標、y座標、結合係数の最小値、最大値、各
層間の結合係数のテーブルを持つ。図4は入力層が1次
元配列の場合の中心点による分割の仕方を示す図であ
る。図5は入力層が2次元配列の場合の中心点による分
割の仕方を示す図である。いずれの場合も前の中心点か
ら順番に中心点を中心に1マスずつ領域を広げていき未
決定の領域に対して分割を決める。このような方法によ
れば3次元以降、n次元での分割適用できる。
【0015】図6は遺伝的アルゴリズムによる入力層の
分割、学習方式を含む、ニューラルネットワークの学習
方式を説明するフローチャートで、入力、中間、出力層
を構成するユニット数をIN、HN、ONとする。図7
はニューラルネットワークの認識方式を説明するフロー
チャートである。図8は入力、中間、出力層からなるニ
ューラルネットワークのユニットによる結合状態を示す
概説図、図9は1ユニットの内部状態説明図である。以
下、図6のフローチャートを用いて学習を行う手順を示
す。 100 ──処理開始。 101 ──ニューラルネットワークモデル名設定。入力層
のタイプ設定。入力層、中間層、出力層の各ユニット数
をIN、HN、ONと値を設定する。学習終了条件の目
標値等の各種パラメータの値を設定する。 102 ──全ての学習パターンと教師値をワーキングメモ
リーにセットする。学習パターン数をセットする。 103 ──個体数を設定する。各個体の各遺伝子を乱数等
により初期化する。中心点の値により入力層の各分割の
領域を前述の方法等により設定する。初期化された遺伝
子内の各中心点に対する結合係数最小値、最大値の示す
範囲に従い、乱数等により入力層と中間層間の各結合係
数を初期化する。中間層と出力層間の結合係数を乱数等
により初期化する。 104 ──学習パターンと教師値によりニューラルネット
ワークを評価し、評価値を設定する。 105 ──評価値が目標値に達したか?YESのとき110
へ、NOのとき次へ。 106 ──評価値が良くない個体を削除する。(削除の割
合や方法は予め設定しておく。例えば良くないものから
半数等。)(淘汰) 107 ──残った個体を適当に二つずつ組み合わせて遺伝
子を交叉させる。(交叉の方法も予め設定しておく。例
えば一点交叉等) 108 ──指定の確率で遺伝子の、ある個所を突然変異さ
せる。(突然変異の方法も予め設定しておく。例えば乱
数で突然変異をする遺伝子を決め遺伝子の値を乱数で決
め直す等。)105へ行く。 110 ──第二段階目の処理を行う。第一段階目の遺伝的
アルゴリズムで第一段階目の目標値に持って行き、第二
段階目は従来例にあるような最急降下法等を用いて最終
目標値に持っていく。もちろん第一段階目で最終目標値
に持って行き、第二段階目を省略しても良い。 111 ──終了
分割、学習方式を含む、ニューラルネットワークの学習
方式を説明するフローチャートで、入力、中間、出力層
を構成するユニット数をIN、HN、ONとする。図7
はニューラルネットワークの認識方式を説明するフロー
チャートである。図8は入力、中間、出力層からなるニ
ューラルネットワークのユニットによる結合状態を示す
概説図、図9は1ユニットの内部状態説明図である。以
下、図6のフローチャートを用いて学習を行う手順を示
す。 100 ──処理開始。 101 ──ニューラルネットワークモデル名設定。入力層
のタイプ設定。入力層、中間層、出力層の各ユニット数
をIN、HN、ONと値を設定する。学習終了条件の目
標値等の各種パラメータの値を設定する。 102 ──全ての学習パターンと教師値をワーキングメモ
リーにセットする。学習パターン数をセットする。 103 ──個体数を設定する。各個体の各遺伝子を乱数等
により初期化する。中心点の値により入力層の各分割の
領域を前述の方法等により設定する。初期化された遺伝
子内の各中心点に対する結合係数最小値、最大値の示す
範囲に従い、乱数等により入力層と中間層間の各結合係
数を初期化する。中間層と出力層間の結合係数を乱数等
により初期化する。 104 ──学習パターンと教師値によりニューラルネット
ワークを評価し、評価値を設定する。 105 ──評価値が目標値に達したか?YESのとき110
へ、NOのとき次へ。 106 ──評価値が良くない個体を削除する。(削除の割
合や方法は予め設定しておく。例えば良くないものから
半数等。)(淘汰) 107 ──残った個体を適当に二つずつ組み合わせて遺伝
子を交叉させる。(交叉の方法も予め設定しておく。例
えば一点交叉等) 108 ──指定の確率で遺伝子の、ある個所を突然変異さ
せる。(突然変異の方法も予め設定しておく。例えば乱
数で突然変異をする遺伝子を決め遺伝子の値を乱数で決
め直す等。)105へ行く。 110 ──第二段階目の処理を行う。第一段階目の遺伝的
アルゴリズムで第一段階目の目標値に持って行き、第二
段階目は従来例にあるような最急降下法等を用いて最終
目標値に持っていく。もちろん第一段階目で最終目標値
に持って行き、第二段階目を省略しても良い。 111 ──終了
【0016】次に、図7のフローチャートを用いて認識
を行う手順を示す。 200 ──処理開始。 201 ──ニューラルネットワークモデル名設定。入力層
のタイプ設定。入力層、中間層、出力層の各ユニット数
をIN、HN、ONと値を設定する。各種パラメータの
値を設定する。 202 ──学習済み結合係数を設定する。 203 ──入力パターンを入力層にセット。 204 ──中間層ユニットの出力値計算。出力層ユニット
の出力値計算。 205 ──出力値より認識結果または推定値を算出し出力
・表示を行う。 206 ──終了か? YESのとき次へ、NOのとき203
へ。 207 ──終了。
を行う手順を示す。 200 ──処理開始。 201 ──ニューラルネットワークモデル名設定。入力層
のタイプ設定。入力層、中間層、出力層の各ユニット数
をIN、HN、ONと値を設定する。各種パラメータの
値を設定する。 202 ──学習済み結合係数を設定する。 203 ──入力パターンを入力層にセット。 204 ──中間層ユニットの出力値計算。出力層ユニット
の出力値計算。 205 ──出力値より認識結果または推定値を算出し出力
・表示を行う。 206 ──終了か? YESのとき次へ、NOのとき203
へ。 207 ──終了。
【0017】
【発明の効果】以上説明したように本発明のニューラル
ネットワークによれば、波形データ、2次元、3次元形
状データ等の学習、認識及び推定に、入力ユニットの相
互の関連性を結合係数に反映させるので、従来より高い
汎化能力を得ることが出来る。
ネットワークによれば、波形データ、2次元、3次元形
状データ等の学習、認識及び推定に、入力ユニットの相
互の関連性を結合係数に反映させるので、従来より高い
汎化能力を得ることが出来る。
【図1】図1は本発明によるニューラルネットワークを
採用した一実施例のシステム構成図である。
採用した一実施例のシステム構成図である。
【図2】図2は漏れインダクタンスと二次巻線抵抗の値
推定を行うニューラルネットワークの一実施例の説明図
である。
推定を行うニューラルネットワークの一実施例の説明図
である。
【図3】図3は各個体の遺伝子の一実施例を示す説明図
である。
である。
【図4】図4は入力層が1次元配列の場合の中心点によ
る分割の方法を示す一実施例の説明図である。
る分割の方法を示す一実施例の説明図である。
【図5】図5は入力層が2次元配列の場合の中心点によ
る分割の方法を示す一実施例の説明図である。
る分割の方法を示す一実施例の説明図である。
【図6】図6は遺伝的アルゴリズムによる入力層の分
割、学習方式を含む、ニューラルネットワークの学習方
式を説明するフローチャートである。
割、学習方式を含む、ニューラルネットワークの学習方
式を説明するフローチャートである。
【図7】図7はニューラルネットワークの認識および推
定方式を説明するフローチャートである。
定方式を説明するフローチャートである。
【図8】図8は3層構造神経回路網のユニット結合概説
図である。
図である。
【図9】図9はユニット内部状態説明図である。
1 ニューラルネットワーク 2 ワーキングメモリー 3 入力制御部 4 出力制御部 5 入力装置 6 出力・表示を行う装置 7 遺伝的アルゴリズム制御部 8 遺伝子集団 11 神経回路網学習認識装置
Claims (2)
- 【請求項1】 多層階層構造型神経回路網において、遺
伝的アルゴリズムにより入力層のユニットを構造化し、
各構造に対する結合係数の範囲を設定し、教師値に対す
る出力値の二乗誤差を小さくなるよう進化させる学習方
式を構成するニューラルネットワーク。 - 【請求項2】 前記入力層のユニット間の構造化の設定
に対して遺伝的アルゴリズムを導入し、遺伝子としては
構造化分割数、各構造の中心点の値、各構造のユニット
の結合係数の初期値の取りうる最小値、最大値及び入力
ユニットの全結合係数すなわち結合係数テーブルを割り
当て、評価データにより出力値と教師値の二乗誤差の値
を評価値とし、遺伝的アルゴリズムを適用して入力層の
構造化を行うことが出来るよう構成した請求項1記載の
ニューラルネットワーク。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7172889A JPH096881A (ja) | 1995-06-15 | 1995-06-15 | ニューラルネットワーク |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7172889A JPH096881A (ja) | 1995-06-15 | 1995-06-15 | ニューラルネットワーク |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH096881A true JPH096881A (ja) | 1997-01-10 |
Family
ID=15950211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7172889A Pending JPH096881A (ja) | 1995-06-15 | 1995-06-15 | ニューラルネットワーク |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH096881A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1141830A (ja) * | 1997-07-11 | 1999-02-12 | N T T Facilities:Kk | 電力貯蔵装置 |
JPH11275762A (ja) * | 1998-03-24 | 1999-10-08 | Ntt Power And Building Facilities Inc | 電力貯蔵装置 |
WO2011058621A1 (ja) | 2009-11-10 | 2011-05-19 | Yoshinobu Masayuki | 最適手法探索方法及び最適手法探索システム |
WO2017154284A1 (ja) * | 2016-03-09 | 2017-09-14 | ソニー株式会社 | 情報処理方法および情報処理装置 |
JP2018029860A (ja) * | 2016-08-26 | 2018-03-01 | 株式会社 ディー・エヌ・エー | ニューロエボリューションを用いたニューラルネットワークの構造及びパラメータ調整のためのプログラム、システム、及び方法 |
-
1995
- 1995-06-15 JP JP7172889A patent/JPH096881A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1141830A (ja) * | 1997-07-11 | 1999-02-12 | N T T Facilities:Kk | 電力貯蔵装置 |
JPH11275762A (ja) * | 1998-03-24 | 1999-10-08 | Ntt Power And Building Facilities Inc | 電力貯蔵装置 |
WO2011058621A1 (ja) | 2009-11-10 | 2011-05-19 | Yoshinobu Masayuki | 最適手法探索方法及び最適手法探索システム |
US8838514B2 (en) | 2009-11-10 | 2014-09-16 | Masayuki Yoshinobu | Optimal technique search method and system that creates a virtual cell division space to create/form a neural network |
WO2017154284A1 (ja) * | 2016-03-09 | 2017-09-14 | ソニー株式会社 | 情報処理方法および情報処理装置 |
JPWO2017154284A1 (ja) * | 2016-03-09 | 2019-01-10 | ソニー株式会社 | 情報処理方法および情報処理装置 |
JP2018029860A (ja) * | 2016-08-26 | 2018-03-01 | 株式会社 ディー・エヌ・エー | ニューロエボリューションを用いたニューラルネットワークの構造及びパラメータ調整のためのプログラム、システム、及び方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Generating fuzzy rules by learning from examples | |
Castillo et al. | Some applications of functional networks in statistics and engineering | |
US5859925A (en) | Classifying system having a single neural network architecture for multiple input representations | |
JP2002509303A (ja) | 等化直交マッピングによる多次元データの視覚化および自己組織化 | |
JPH096881A (ja) | ニューラルネットワーク | |
US5493632A (en) | Neural network employing a location addressable memory and method for operating the same | |
Lin et al. | Integration of CMAC technique and weighted regression for efficient learning and output differentiability | |
Rossi et al. | Geometrical initialization, parametrization and control of multilayer perceptrons: application to function approximation | |
Rempe et al. | An illustration of the principal ideas of MANOVA | |
JPH04182860A (ja) | 画像セグメンテーション方法 | |
JP2000172662A (ja) | ニューラルネットワークの学習方法 | |
JPH09311846A (ja) | ニューラルネットワーク | |
JPH08297715A (ja) | ニューラルネットワーク | |
JPH11175494A (ja) | ニューラルネットワーク | |
JPH09138786A (ja) | ニューラルネットワークの学習装置 | |
JP2813567B2 (ja) | 推論規則決定装置及び推論規則決定方法 | |
JP2621916B2 (ja) | 神経回路網の学習方法 | |
Wienholt | Optimizing the structure of radial basis function networks by optimizing fuzzy inference systems with evolution strategy | |
JPH1097514A (ja) | 多価写像学習方法 | |
JPH06301663A (ja) | 直列結合型リカレントニューラルネットワークの学習方式 | |
JPH05128087A (ja) | ニユーラルネツトワーク及びその学習方式 | |
Younis et al. | Color Reduction and Quantization using Kohonan Self Organizing Neural Networks and K-means algorithms | |
JP3608237B2 (ja) | ニューラルネットワークの学習装置 | |
JP2732603B2 (ja) | ネットワーク構成データ処理装置の学習処理監視装置 | |
JP3289517B2 (ja) | 連想記憶装置及び思考模擬装置 |