JPH0991264A - ニューラルネットワーク構造最適化装置ならびに方法 - Google Patents
ニューラルネットワーク構造最適化装置ならびに方法Info
- Publication number
- JPH0991264A JPH0991264A JP7266387A JP26638795A JPH0991264A JP H0991264 A JPH0991264 A JP H0991264A JP 7266387 A JP7266387 A JP 7266387A JP 26638795 A JP26638795 A JP 26638795A JP H0991264 A JPH0991264 A JP H0991264A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- importance
- neuron
- neurons
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
(57)【要約】
【目的】階層型ニューラルネットワークでは各層ごとで
しか最適化を行えなかった。そこで、階層型ニューラル
ネットワークの任意の層における構造最適化装置および
方法を提供する。 【構成】重要度算出部2によりニューラルネットワーク
部1の各ニューロンの重要度を算出し、この重要度に基
づいて変更するニューロンを判定し、この判定結果から
構造変更部3によりニューラルネットワーク部1の構造
を変更する。これにより、ニューラルネットワークの演
算時間の短縮や学習速度の向上などニューラルネットワ
ークの構造を最適化することができる。
しか最適化を行えなかった。そこで、階層型ニューラル
ネットワークの任意の層における構造最適化装置および
方法を提供する。 【構成】重要度算出部2によりニューラルネットワーク
部1の各ニューロンの重要度を算出し、この重要度に基
づいて変更するニューロンを判定し、この判定結果から
構造変更部3によりニューラルネットワーク部1の構造
を変更する。これにより、ニューラルネットワークの演
算時間の短縮や学習速度の向上などニューラルネットワ
ークの構造を最適化することができる。
Description
【0001】
【発明の属する技術分野】本発明は、ニューロンを層状
に結合した階層型ニューラルネットワークに関し、特に
ニューラルネットワークの構造について、ニューロンの
構成の最適化をすると共に、ニューラルネットワークの
演算時間の短縮や学習速度の向上や汎化能力の向上や入
力情報の合理的選択やシステムの同定を行うニューラル
ネットの構築を行うことができるニューラルネットワー
クの構造最適化装置および方法に関する。
に結合した階層型ニューラルネットワークに関し、特に
ニューラルネットワークの構造について、ニューロンの
構成の最適化をすると共に、ニューラルネットワークの
演算時間の短縮や学習速度の向上や汎化能力の向上や入
力情報の合理的選択やシステムの同定を行うニューラル
ネットの構築を行うことができるニューラルネットワー
クの構造最適化装置および方法に関する。
【0002】
【従来の技術】従来、階層型のニューラルネットワーク
の構造最適化は、中間層ニューロン数の最適化及び入力
層ニューロンの最適化が一般的に知られている。中間層
ニューロン数の最適化は、中間層ニューロンの出力分散
を分散基準と定義し、また任意の2つの中間層ニューロ
ンの出力値の相関を相関基準と定義し、この分散基準及
び相関基準に基づきニューロンを削減するものである。
(押野隆弘,他:誤差逆伝搬学習における中間層ユニッ
トの逐次削減法,電子情報通信学会論文誌, D-II, Vol.
J76-D-II, No.7, pp.1414-1424 (1993)参照)。
の構造最適化は、中間層ニューロン数の最適化及び入力
層ニューロンの最適化が一般的に知られている。中間層
ニューロン数の最適化は、中間層ニューロンの出力分散
を分散基準と定義し、また任意の2つの中間層ニューロ
ンの出力値の相関を相関基準と定義し、この分散基準及
び相関基準に基づきニューロンを削減するものである。
(押野隆弘,他:誤差逆伝搬学習における中間層ユニッ
トの逐次削減法,電子情報通信学会論文誌, D-II, Vol.
J76-D-II, No.7, pp.1414-1424 (1993)参照)。
【0003】また、入力層ニューロンの最適化は、入力
層のあるニューロンと結合されている入力層−中間層間
の結合係数の絶対値の総和を重要度として定義し、この
重要度に基づきニューロンを削減するものである。(片
山洋志,他:人工ニューラルネットワークを用いたラッ
トの味覚神経系データの解析,電子情報通信学会論文
誌, D-II, Vol. J75-D-II, No.2, pp.395-401 (1992)参
照)。
層のあるニューロンと結合されている入力層−中間層間
の結合係数の絶対値の総和を重要度として定義し、この
重要度に基づきニューロンを削減するものである。(片
山洋志,他:人工ニューラルネットワークを用いたラッ
トの味覚神経系データの解析,電子情報通信学会論文
誌, D-II, Vol. J75-D-II, No.2, pp.395-401 (1992)参
照)。
【0004】
【発明が解決しようとしている課題】しかし、このよう
な従来のニューラルネットワークの構造最適化方法にお
いては、ネットワーク内部の状態より分散基準や相関基
準や重要度を定義し、その基準に基づいてネットワーク
構造の最適化を行うものであるが、各層に限定して最適
化するため、最適化に限界があるものとなっていた。
な従来のニューラルネットワークの構造最適化方法にお
いては、ネットワーク内部の状態より分散基準や相関基
準や重要度を定義し、その基準に基づいてネットワーク
構造の最適化を行うものであるが、各層に限定して最適
化するため、最適化に限界があるものとなっていた。
【0005】そこで本発明は、このような問題点に鑑
み、階層型ニューラルネットワークの構造について、任
意の層のニューロンの変更により最適化をする、つまり
ニューラルネットワークの演算時間の短縮や学習速度の
向上や汎化能力の向上や入力情報の合理的選択やシステ
ムの同定を行うニューラルネットの構築などを行うこと
ができるニューラルネットワークの構造最適化装置なら
びに方法を提供することを目的とする。
み、階層型ニューラルネットワークの構造について、任
意の層のニューロンの変更により最適化をする、つまり
ニューラルネットワークの演算時間の短縮や学習速度の
向上や汎化能力の向上や入力情報の合理的選択やシステ
ムの同定を行うニューラルネットの構築などを行うこと
ができるニューラルネットワークの構造最適化装置なら
びに方法を提供することを目的とする。
【0006】
【課題を解決するための手段】上記目的を達成するため
に本発明の構造最適化装置は、ニューロンが層状に結合
された階層型構造のニューラルネットワークを持つニュ
ーラルネットワーク部と、該階層型のニューラルネット
ワーク部の各ニューロンに対して重要度を算出する重要
度算出部と、この重要度に基づいて前記ニューラルネッ
トワーク部の構造を変更する構造変更部とを有するもの
である。また、上記構造変更したニューラルネットワー
ク部に対して再学習を行う再学習部を備えてもよい。ま
た、上記重要度算出部は、各ニューロン間の結合係数及
び各ニューロンに対する入出力関数の微分値を用いるこ
とで重要度を算出するようにしてもよい。さらに、上記
ニューラルネットワーク部は、0を中心に略対象に分布
した範囲に規格化された入力信号により学習されたもの
であってもよい。
に本発明の構造最適化装置は、ニューロンが層状に結合
された階層型構造のニューラルネットワークを持つニュ
ーラルネットワーク部と、該階層型のニューラルネット
ワーク部の各ニューロンに対して重要度を算出する重要
度算出部と、この重要度に基づいて前記ニューラルネッ
トワーク部の構造を変更する構造変更部とを有するもの
である。また、上記構造変更したニューラルネットワー
ク部に対して再学習を行う再学習部を備えてもよい。ま
た、上記重要度算出部は、各ニューロン間の結合係数及
び各ニューロンに対する入出力関数の微分値を用いるこ
とで重要度を算出するようにしてもよい。さらに、上記
ニューラルネットワーク部は、0を中心に略対象に分布
した範囲に規格化された入力信号により学習されたもの
であってもよい。
【0007】また、本発明の構造最適化方法は、階層型
ニューラルネットワークの各ニューロンに対して重要度
を算出し、この重要度に基づいて前記ニューラルネット
ワークの構造を変更することにより行う。さらに、階層
型ニューラルネットワークの各ニューロンに対して各ニ
ューロン間の結合係数及び各ニューロンに対する入出力
関数の微分値により重要度を算出し、この重要度に基づ
いて変更するニューロンを判定し、前記ニューラルネッ
トワークの構造を変更し、構造を変更したニューラルネ
ットワークに対して再学習するようにしてもよい。
ニューラルネットワークの各ニューロンに対して重要度
を算出し、この重要度に基づいて前記ニューラルネット
ワークの構造を変更することにより行う。さらに、階層
型ニューラルネットワークの各ニューロンに対して各ニ
ューロン間の結合係数及び各ニューロンに対する入出力
関数の微分値により重要度を算出し、この重要度に基づ
いて変更するニューロンを判定し、前記ニューラルネッ
トワークの構造を変更し、構造を変更したニューラルネ
ットワークに対して再学習するようにしてもよい。
【0008】
【発明の実施の形態】以下、本発明の一実施形態を添付
図面に基づいて詳細に説明する。図1は、本実施形態に
よるニューラルネットワークの構造最適化装置を示すブ
ロック図である。このニューラルネットワークの構造最
適化装置は、ニューラルネットワーク部1と、重要度算
出部2と、構造変更部3とにより構成される。ニューラ
ルネットワーク部1は、構造を最適化する対象となる階
層型のニューラルネットワークで、ニューロンを可塑性
を持つ結合により多数層状に結合したものである。この
ニューラルネットワーク部1は、バックプロパゲーショ
ン(誤差逆伝播学習)やヘブの学習則、相関学習、競合
学習などの任意の学習アルゴリズムによって、すでに所
定回数もしくは所定評価値まで学習が行われたものであ
る。
図面に基づいて詳細に説明する。図1は、本実施形態に
よるニューラルネットワークの構造最適化装置を示すブ
ロック図である。このニューラルネットワークの構造最
適化装置は、ニューラルネットワーク部1と、重要度算
出部2と、構造変更部3とにより構成される。ニューラ
ルネットワーク部1は、構造を最適化する対象となる階
層型のニューラルネットワークで、ニューロンを可塑性
を持つ結合により多数層状に結合したものである。この
ニューラルネットワーク部1は、バックプロパゲーショ
ン(誤差逆伝播学習)やヘブの学習則、相関学習、競合
学習などの任意の学習アルゴリズムによって、すでに所
定回数もしくは所定評価値まで学習が行われたものであ
る。
【0009】ここで、ニューラルネットワーク部1の学
習に使用する入力信号は、通常0〜1で規格化される
が、入力層ニューロンの入出力関数のオフセット成分が
入力層ー中間層間の結合係数に入り込むのを防ぐため
に、0を中心に入力信号が対象に分布するように−1〜
1の範囲で規格化され、この規格化された入力信号を用
いて学習を行う。また、ニューラルネットワーク部1を
構成するニューロンと、階層型ニューラルネットワーク
を図2及び図3により説明する。まず、ニューロン11
は生物の神経細胞素子の働きを模した多入力一出力の情
報処理素子で、入力Ii(I1〜IN)12と結合係数Wj
i(Wj1〜WjN)13の積和により出力Oj14が決定さ
れる。すなわち、入出力関数f(x)を用いて次式のよ
うに決定される。
習に使用する入力信号は、通常0〜1で規格化される
が、入力層ニューロンの入出力関数のオフセット成分が
入力層ー中間層間の結合係数に入り込むのを防ぐため
に、0を中心に入力信号が対象に分布するように−1〜
1の範囲で規格化され、この規格化された入力信号を用
いて学習を行う。また、ニューラルネットワーク部1を
構成するニューロンと、階層型ニューラルネットワーク
を図2及び図3により説明する。まず、ニューロン11
は生物の神経細胞素子の働きを模した多入力一出力の情
報処理素子で、入力Ii(I1〜IN)12と結合係数Wj
i(Wj1〜WjN)13の積和により出力Oj14が決定さ
れる。すなわち、入出力関数f(x)を用いて次式のよ
うに決定される。
【0010】
【数1】
【0011】ただし、θjはしきい値に相当する入出力
関数のオフセットであり、Nは入力の数である。
関数のオフセットであり、Nは入力の数である。
【0012】次に、階層型ニューラルネットワークは、
複数のニューロン11で構成された入力層及び中間層並
びに出力層の結合によりネットワークを構成し、信号処
理及び情報処理の機能を実現するように構成されてい
る。また、図3において、符号15は入力層−中間層間
結合を示し、入力層の各ニューロン11は中間層の全て
のニューロン11とそれぞれ結合されている。また、符
号16は中間層−出力層間結合を示し、中間層の各ニュ
ーロンモデル11は出力層の全てのニューロン11とそ
れぞれ結合されている。そして、入力層に供給される入
力情報を変換して出力層から出力情報として出力するよ
うになっている。ここで、上記入力層においては、入出
力関数として次式に示すような恒等関数が用いられてい
る。
複数のニューロン11で構成された入力層及び中間層並
びに出力層の結合によりネットワークを構成し、信号処
理及び情報処理の機能を実現するように構成されてい
る。また、図3において、符号15は入力層−中間層間
結合を示し、入力層の各ニューロン11は中間層の全て
のニューロン11とそれぞれ結合されている。また、符
号16は中間層−出力層間結合を示し、中間層の各ニュ
ーロンモデル11は出力層の全てのニューロン11とそ
れぞれ結合されている。そして、入力層に供給される入
力情報を変換して出力層から出力情報として出力するよ
うになっている。ここで、上記入力層においては、入出
力関数として次式に示すような恒等関数が用いられてい
る。
【0013】
【数2】
【0014】これにより、入力がそのまま出力される。
なお、この恒等関数の代わりに他の関数を用いて入力情
報に変調をかけてもよい。また、上記中間層において
は、入出力関数としてシグモイド関数が用いられてい
る。もちろん、他の関数を用いることもできる。シグモ
イド関数は次式のように表現される。
なお、この恒等関数の代わりに他の関数を用いて入力情
報に変調をかけてもよい。また、上記中間層において
は、入出力関数としてシグモイド関数が用いられてい
る。もちろん、他の関数を用いることもできる。シグモ
イド関数は次式のように表現される。
【0015】
【数3】
【0016】ただし、U0は傾きを制御するパラメータ
である。また、上記出力層においては、入出力関数とし
て上述のシグモイド関数が用いられている。もちろん、
この入出力関数は出力が入力に対して直線的に増減する
リニア関数などの他の関数を用いることもできる。
である。また、上記出力層においては、入出力関数とし
て上述のシグモイド関数が用いられている。もちろん、
この入出力関数は出力が入力に対して直線的に増減する
リニア関数などの他の関数を用いることもできる。
【0017】重要度算出部2は、ニューラルネットワー
ク部1のニューロン間の結合係数、及びニューロンの入
出力関数の微分値を用いて、各ニューロンの重要度を算
出するものである。構造変更部3は、重要度算出部2か
ら算出した各ニューロンの重要度に基づいてニューラル
ネットワーク部1の構造を変更するものである。
ク部1のニューロン間の結合係数、及びニューロンの入
出力関数の微分値を用いて、各ニューロンの重要度を算
出するものである。構造変更部3は、重要度算出部2か
ら算出した各ニューロンの重要度に基づいてニューラル
ネットワーク部1の構造を変更するものである。
【0018】次に、このように構成されたニューラルネ
ットワークの構造最適化装置の動作を説明する。まず、
階層型のニューラルネットワークでの最適化動作の前に
行われるバックプロパゲーション学習法による学習動作
を図3及び図4を用いて説明する。ニューラルネットワ
ーク部1では入力信号に対して所望の出力が出力される
ように学習が行なわれる。換言すると、まずニューラル
ネットワーク部1の入力層−中間層間結合15及び中間
層−出力層間結合16の結合係数の初期化が行われる。
次に、このニューラルネットワーク部1に入力信号が供
給され、その結果出力信号が出力される。そして、この
入力信号に対する理想的な出力である教師信号との誤差
が小さくなるように入力層−中間層間結合15及び中間
層−出力層間結合16の結合係数を変化させて、所望の
出力が得られるようにネットワークを自己組織化してい
く。以上により学習が行われ、ニューロン間の結合係数
が合理的に信号を伝達するように決定される。
ットワークの構造最適化装置の動作を説明する。まず、
階層型のニューラルネットワークでの最適化動作の前に
行われるバックプロパゲーション学習法による学習動作
を図3及び図4を用いて説明する。ニューラルネットワ
ーク部1では入力信号に対して所望の出力が出力される
ように学習が行なわれる。換言すると、まずニューラル
ネットワーク部1の入力層−中間層間結合15及び中間
層−出力層間結合16の結合係数の初期化が行われる。
次に、このニューラルネットワーク部1に入力信号が供
給され、その結果出力信号が出力される。そして、この
入力信号に対する理想的な出力である教師信号との誤差
が小さくなるように入力層−中間層間結合15及び中間
層−出力層間結合16の結合係数を変化させて、所望の
出力が得られるようにネットワークを自己組織化してい
く。以上により学習が行われ、ニューロン間の結合係数
が合理的に信号を伝達するように決定される。
【0019】図4は、階層型のニューラルネットワーク
におけるバックプロパゲーション学習法を示した図であ
る。図4における個々の記号の意味は次のとおりであ
る。 I;入力信号 O(k);第k層のニューロンモデルの出力 W(k);第k層と第k+1層間の結合係数 θ(k);第k層のニューロンモデルのオフセット T;教師信号 ηW;Wに対する学習定数 ηθ;θに対する学習定数 δ(k);第k−1層を修正するための誤差量 fi;恒等関数 fs;シグモイド関数
におけるバックプロパゲーション学習法を示した図であ
る。図4における個々の記号の意味は次のとおりであ
る。 I;入力信号 O(k);第k層のニューロンモデルの出力 W(k);第k層と第k+1層間の結合係数 θ(k);第k層のニューロンモデルのオフセット T;教師信号 ηW;Wに対する学習定数 ηθ;θに対する学習定数 δ(k);第k−1層を修正するための誤差量 fi;恒等関数 fs;シグモイド関数
【0020】なお、入力信号I、第k層のニューロンモ
デルの出力O(k)、第k層のニューロンモデルのオフセ
ットθ(k)、教師信号T、第k-1層を修正するための誤
差量δ(k)は1次元ベクトルで表されており、第k層と
第k+1層間の結合係数W(k)は2次元ベクトルで表され
ている。また、本実施形態のニューラルネットワーク部
1は3層のものであり、fiに相当する部分が入力層で
あり、θ(2)を出力するfsに相当する部分が中間層で
あり、θ(3)を出力するfsに相当する部分が出力層と
なっている。
デルの出力O(k)、第k層のニューロンモデルのオフセ
ットθ(k)、教師信号T、第k-1層を修正するための誤
差量δ(k)は1次元ベクトルで表されており、第k層と
第k+1層間の結合係数W(k)は2次元ベクトルで表され
ている。また、本実施形態のニューラルネットワーク部
1は3層のものであり、fiに相当する部分が入力層で
あり、θ(2)を出力するfsに相当する部分が中間層で
あり、θ(3)を出力するfsに相当する部分が出力層と
なっている。
【0021】この学習アルゴリズムについて以下に説明
する。教師信号Tと出力層の出力O(3)との平均二乗
誤差Eは、
する。教師信号Tと出力層の出力O(3)との平均二乗
誤差Eは、
【0022】
【数4】
【0023】である。これが減少するように第k層と第k
+1層間の結合係数W(k)を修正量
+1層間の結合係数W(k)を修正量
【0024】
【数5】
【0025】によって修正する。ただし、Xj(k+1)は
k+1層j番目のニューロンモデルの入出力関数への入力で
ある。次式のようにδを定義すると、
k+1層j番目のニューロンモデルの入出力関数への入力で
ある。次式のようにδを定義すると、
【0026】
【数6】
【0027】中間層と出力層間の修正量を決めるδは、
【0028】
【数7】
【0029】である。よって、修正量は、
【0030】
【数8】
【0031】となる。また、入力層と出力層間の修正量
を決めるδは、
を決めるδは、
【0032】
【数9】
【0033】となり、修正量は、
【0034】
【数10】
【0035】となる。オフセットθ(k)についても同
様に求めることにより、図6に示すアルゴリズムとな
る。なお、ここでは3層のニューラルネットワークにつ
いて例を示したが、中間層の数を増やすことによって3
層以上のニューラルネットワークが構成可能であり、そ
の場合の学習アルゴリズムは誤差量δを逆伝播させ、漸
化的に修正量を求めて上記同様に算出することができ
る。
様に求めることにより、図6に示すアルゴリズムとな
る。なお、ここでは3層のニューラルネットワークにつ
いて例を示したが、中間層の数を増やすことによって3
層以上のニューラルネットワークが構成可能であり、そ
の場合の学習アルゴリズムは誤差量δを逆伝播させ、漸
化的に修正量を求めて上記同様に算出することができ
る。
【0036】そして、重要度算出部2がこのように学習
されたニューラルネットワーク部1の各ニューロンに対
して重要度を算出する。このときの重要度の算出には、
各ニューロン間の結合係数と各ニューロンの入出力関数
の微分値を用いて行う。ここで、中間層のニューロンの
重要度の算出を図5により説明する。中間層のニューロ
ンの重要度Hjは、中間層ニューロンと出力層ニューロ
ンを結合している結合係数Vkj、及びオフセットθjに
おけるニューロンの入出力関数(例えばシグモイド関
数)の微分値f'(θj)を用いて次式のように定義され
る。
されたニューラルネットワーク部1の各ニューロンに対
して重要度を算出する。このときの重要度の算出には、
各ニューロン間の結合係数と各ニューロンの入出力関数
の微分値を用いて行う。ここで、中間層のニューロンの
重要度の算出を図5により説明する。中間層のニューロ
ンの重要度Hjは、中間層ニューロンと出力層ニューロ
ンを結合している結合係数Vkj、及びオフセットθjに
おけるニューロンの入出力関数(例えばシグモイド関
数)の微分値f'(θj)を用いて次式のように定義され
る。
【0037】
【数11】
【0038】中間層の任意のニューロン21の重要度を
算出する場合、数11に示されるようにニューロン21
の出力に結合しているいわゆる中間層−出力層の結合係
数の絶対値の総和と、オフセットにおけるシグモイド関
数の微分値との積により求められる。結合係数の絶対値
は、大きいほどニューロンとニューロンとの結合が強
く、信号伝達効率が高いことを示す。また、シグモイド
関数の微分値は、大きいほど信号伝達効率が高い。これ
は、図6に示すようにシグモイド関数の傾きが大きい、
つまり微分値が大きいほど信号の伝達効率が高いことを
示す。このことから、積が大きいほど信号伝達への寄与
が大きいつまり重要度が高く、逆に小さいほど重要度が
低いものとなる。ここで、中間層のニューロンの重要度
は、中間層−出力層の結合係数と、オフセットにおける
ニューロンの入出力関数の微分値の積で定義したが、和
や二乗和などの他の演算子を用いて定義してもよい。
算出する場合、数11に示されるようにニューロン21
の出力に結合しているいわゆる中間層−出力層の結合係
数の絶対値の総和と、オフセットにおけるシグモイド関
数の微分値との積により求められる。結合係数の絶対値
は、大きいほどニューロンとニューロンとの結合が強
く、信号伝達効率が高いことを示す。また、シグモイド
関数の微分値は、大きいほど信号伝達効率が高い。これ
は、図6に示すようにシグモイド関数の傾きが大きい、
つまり微分値が大きいほど信号の伝達効率が高いことを
示す。このことから、積が大きいほど信号伝達への寄与
が大きいつまり重要度が高く、逆に小さいほど重要度が
低いものとなる。ここで、中間層のニューロンの重要度
は、中間層−出力層の結合係数と、オフセットにおける
ニューロンの入出力関数の微分値の積で定義したが、和
や二乗和などの他の演算子を用いて定義してもよい。
【0039】また、入力層のニューロンの重要度の算出
を図7により説明する。入力層のニューロンの重要度I
iは、入力層ニューロンと中間層ニューロンを結合して
いる結合係数Wji、及び上述の中間層ニューロンの重要
度Hjを用いて次式のように定義される。
を図7により説明する。入力層のニューロンの重要度I
iは、入力層ニューロンと中間層ニューロンを結合して
いる結合係数Wji、及び上述の中間層ニューロンの重要
度Hjを用いて次式のように定義される。
【0040】
【数12】
【0041】入力層の任意のニューロン22の重要度を
算出する場合、数12に示すようにニューロン22の出
力に結合しているいわゆる入力層−中間層の結合係数の
絶対値と中間層ニューロンの重要度の積の総和により求
められる。入力層の重要度は、入力層ニューロンの入出
力関数が恒等関数であるため、オフセットと関数の傾き
を考慮する必要がない。また入力層ニューロンの重要度
の算出には、信号伝達効率の高いニューロンを表す中間
層ニューロンの重要度が考慮されている。ここで、入力
層のニューロンの重要度は、入力層−中間層の結合係数
と中間層ニューロンの重要度の積との総和で定義した
が、和や二乗和などの他の演算子を用いて定義してもよ
い。
算出する場合、数12に示すようにニューロン22の出
力に結合しているいわゆる入力層−中間層の結合係数の
絶対値と中間層ニューロンの重要度の積の総和により求
められる。入力層の重要度は、入力層ニューロンの入出
力関数が恒等関数であるため、オフセットと関数の傾き
を考慮する必要がない。また入力層ニューロンの重要度
の算出には、信号伝達効率の高いニューロンを表す中間
層ニューロンの重要度が考慮されている。ここで、入力
層のニューロンの重要度は、入力層−中間層の結合係数
と中間層ニューロンの重要度の積との総和で定義した
が、和や二乗和などの他の演算子を用いて定義してもよ
い。
【0042】このようにして重要度算出部2では、ニュ
ーラルネットワーク部1の各ニューロンの重要度が算出
される。本実施形態では3層のニューラルネットワーク
について説明したが、3層以上のニューラルネットワー
クにおいても同様に重要度を算出することができる。す
なわち、図8に示すような任意の層の任意のニューロ
ン、つまり第k-1層のi番目のニューロンの重要度は一般
的に次式のように表される。
ーラルネットワーク部1の各ニューロンの重要度が算出
される。本実施形態では3層のニューラルネットワーク
について説明したが、3層以上のニューラルネットワー
クにおいても同様に重要度を算出することができる。す
なわち、図8に示すような任意の層の任意のニューロ
ン、つまり第k-1層のi番目のニューロンの重要度は一般
的に次式のように表される。
【0043】
【数13】
【0044】ここで、Hj(k)は第k層j番目のニューロン
の重要度、Wji(k)は第k-1層と第k層間の結合係数を表
す。このように出力層側から漸化的にニューロンの重要
度は算出でき、任意の層数の階層型ニューラルネットワ
ークに対応可能である。各ニューロンの重要度の算出が
されたら、構造変更部3によりニューラルネットワーク
部1を任意の構造、例えば重要度の低いニューロンを優
先的に除去して、新たな構造のニューラルネットワーク
部1に変更する。
の重要度、Wji(k)は第k-1層と第k層間の結合係数を表
す。このように出力層側から漸化的にニューロンの重要
度は算出でき、任意の層数の階層型ニューラルネットワ
ークに対応可能である。各ニューロンの重要度の算出が
されたら、構造変更部3によりニューラルネットワーク
部1を任意の構造、例えば重要度の低いニューロンを優
先的に除去して、新たな構造のニューラルネットワーク
部1に変更する。
【0045】このようなニューラルネットワークの構造
最適化をフローチャートにて説明する。まず、ニューラ
ルネットワークの各ニューロンの重要度を算出し(ステ
ップ31)、算出した各ニューロンの重要度に基づいて
変更するニューロンを判定し(ステップ32)、この判
定結果によりニューラルネットワークの構造を変更する
(ステップ33)。ここで、ニューラルネットワークの
構造変更(ステップ33)では、例えば重要度の小さい
ニューロンを除去すれば不要なニューロンを除去できる
など最適化の目的などに対応した様々な条件で変更が行
われる。
最適化をフローチャートにて説明する。まず、ニューラ
ルネットワークの各ニューロンの重要度を算出し(ステ
ップ31)、算出した各ニューロンの重要度に基づいて
変更するニューロンを判定し(ステップ32)、この判
定結果によりニューラルネットワークの構造を変更する
(ステップ33)。ここで、ニューラルネットワークの
構造変更(ステップ33)では、例えば重要度の小さい
ニューロンを除去すれば不要なニューロンを除去できる
など最適化の目的などに対応した様々な条件で変更が行
われる。
【0046】以上のような構造最適化装置及び方法によ
れば、所望の構造への最適化、つまりニューラルネット
ワークの演算時間の短縮や学習速度の向上、汎化能力の
向上、入力情報の合理的選択、システムの同定を行うニ
ューラルネットワークの構築などを行うことができる。
れば、所望の構造への最適化、つまりニューラルネット
ワークの演算時間の短縮や学習速度の向上、汎化能力の
向上、入力情報の合理的選択、システムの同定を行うニ
ューラルネットワークの構築などを行うことができる。
【0047】ここで、ニューラルネットワーク部1で予
め学習する際の入力信号は0を中心に対象に分布した範
囲に規格化しているが、厳密に0に対象でなくとも同様
の効果が得られる。
め学習する際の入力信号は0を中心に対象に分布した範
囲に規格化しているが、厳密に0に対象でなくとも同様
の効果が得られる。
【0048】次に、上述の構造変更したニューラルネッ
トワーク部1に対して再学習を行う再学習部を備えた構
造最適化装置の実施形態を図10により説明する。本実
施形態において同一符号の説明は省略する。再学習部4
は、構造変更したニューラルネットワーク部1に対して
再学習を行い、構造変更したニューラルネットワーク部
1を再学習したときの評価値が基準評価値を下回らなけ
れば、再度重要度を算出しニューラルネットワーク部1
の構造を変更する。つまり、構造変更後のニューラルネ
ットワークに再学習を行い、再学習をしたニューラルネ
ットワークに対し評価値を算出し、この算出した評価値
と予め設定した基準評価値とを比較し、評価値が基準評
価値より下回ればこれ以上変更する必要がないと判断
し、また逆に下回らなければまだ構造を変更することが
できると判断する。ここで、再学習は上述に示した各種
学習アルゴリズムを用いてもよい。また、再学習は最適
化したニューラルネットワークの構造のみを生かし、結
合係数を初期値にしてから再学習してもよいし、結合係
数を継続してもよい。
トワーク部1に対して再学習を行う再学習部を備えた構
造最適化装置の実施形態を図10により説明する。本実
施形態において同一符号の説明は省略する。再学習部4
は、構造変更したニューラルネットワーク部1に対して
再学習を行い、構造変更したニューラルネットワーク部
1を再学習したときの評価値が基準評価値を下回らなけ
れば、再度重要度を算出しニューラルネットワーク部1
の構造を変更する。つまり、構造変更後のニューラルネ
ットワークに再学習を行い、再学習をしたニューラルネ
ットワークに対し評価値を算出し、この算出した評価値
と予め設定した基準評価値とを比較し、評価値が基準評
価値より下回ればこれ以上変更する必要がないと判断
し、また逆に下回らなければまだ構造を変更することが
できると判断する。ここで、再学習は上述に示した各種
学習アルゴリズムを用いてもよい。また、再学習は最適
化したニューラルネットワークの構造のみを生かし、結
合係数を初期値にしてから再学習してもよいし、結合係
数を継続してもよい。
【0049】この再学習部4を含めた構造最適化をフロ
ーチャートにて説明する。まず、ニューラルネットワー
クの各ニューロンの重要度を算出し(ステップ31)、
算出した各ニューロンの重要度に基づいて変更するニュ
ーロンを判定し(ステップ32)、この判定結果により
ニューラルネットワークの構造を変更、例えば重要度の
小さいニューロンを除去し(ステップ33)、ニューロ
ンを除去したニューラルネットワークに対して再学習を
行い(ステップ34)、再学習されたニューラルネット
ワークの評価値を算出すると共に予め設定した基準評価
値と評価値を比較する(ステップ35)。ここで、評価
値が基準評価値を下回らなければ、目的とする機能は達
成されているがさらに構造の単純化を図るために、ステ
ップ31に戻り他のニューロンを除去することができる
かを再度判断する。そして、このステップ31〜35を
評価値が基準評価値を下回るまで繰り返す。
ーチャートにて説明する。まず、ニューラルネットワー
クの各ニューロンの重要度を算出し(ステップ31)、
算出した各ニューロンの重要度に基づいて変更するニュ
ーロンを判定し(ステップ32)、この判定結果により
ニューラルネットワークの構造を変更、例えば重要度の
小さいニューロンを除去し(ステップ33)、ニューロ
ンを除去したニューラルネットワークに対して再学習を
行い(ステップ34)、再学習されたニューラルネット
ワークの評価値を算出すると共に予め設定した基準評価
値と評価値を比較する(ステップ35)。ここで、評価
値が基準評価値を下回らなければ、目的とする機能は達
成されているがさらに構造の単純化を図るために、ステ
ップ31に戻り他のニューロンを除去することができる
かを再度判断する。そして、このステップ31〜35を
評価値が基準評価値を下回るまで繰り返す。
【0050】以上のような構造最適化装置及び方法によ
れば、ニューラルネットワークの演算時間の短縮や学習
速度の向上、汎化能力の向上、入力情報の合理的選択、
システムの同定を行うニューラルネットワークの構築な
どを行うことができるると共に、さらに目的とする機能
の向上を図ることができる。
れば、ニューラルネットワークの演算時間の短縮や学習
速度の向上、汎化能力の向上、入力情報の合理的選択、
システムの同定を行うニューラルネットワークの構築な
どを行うことができるると共に、さらに目的とする機能
の向上を図ることができる。
【0051】ここで、ステップ33では予め基準重要度
を設定しておき各ニューロンの重要度の中から基準重要
度以下の重要度を持つ全てのニューロンを変更ニューロ
ンと判定し、ステップ34では全ての変更ニューロンを
除去すれば、ニューラルネットワークの構造の最適化を
より高速に行うこともできる。また、このニューラルネ
ットワークの構造の最適化は、入力層や中間層といった
意味づけを持ったニューロンの集団ごとに行ってもよ
い。また、評価値が基準評価値を下回ったときに終了し
たが、除去するニューロンが所定のニューロン数を越え
た時に終了するなど、別の終了条件を用いてもかまわな
い。
を設定しておき各ニューロンの重要度の中から基準重要
度以下の重要度を持つ全てのニューロンを変更ニューロ
ンと判定し、ステップ34では全ての変更ニューロンを
除去すれば、ニューラルネットワークの構造の最適化を
より高速に行うこともできる。また、このニューラルネ
ットワークの構造の最適化は、入力層や中間層といった
意味づけを持ったニューロンの集団ごとに行ってもよ
い。また、評価値が基準評価値を下回ったときに終了し
たが、除去するニューロンが所定のニューロン数を越え
た時に終了するなど、別の終了条件を用いてもかまわな
い。
【0052】
【発明の効果】本発明は階層型ニューラルネットワーク
の各ニューロンの重要度を算出し、この評価値からニュ
ーラルネットワークの構造を変更することにより、目的
に一致した構造の最適化、つまりニューラルネットワー
クの演算時間の短縮や学習速度の向上、汎化能力の向
上、入力情報の合理的選択あるいはシステムの同定を行
うニューラルネットの構築などを行うことができる。ま
た、所望の構造に変更したあと、再学習をさせること
で、上述の効果を得ることができると共に、目的の機能
の向上を図ることができる。
の各ニューロンの重要度を算出し、この評価値からニュ
ーラルネットワークの構造を変更することにより、目的
に一致した構造の最適化、つまりニューラルネットワー
クの演算時間の短縮や学習速度の向上、汎化能力の向
上、入力情報の合理的選択あるいはシステムの同定を行
うニューラルネットの構築などを行うことができる。ま
た、所望の構造に変更したあと、再学習をさせること
で、上述の効果を得ることができると共に、目的の機能
の向上を図ることができる。
【図1】本発明の第一の実施形態を示すブロック図
【図2】ニューロンを示す説明図
【図3】階層型ニューラルネットワークを示す図
【図4】バックプロパゲーション学習法を示す図
【図5】中間層ニューロンの重要度の説明図
【図6】シグモイド関数とその信号伝達及びシグモイド
関数の微分値を示す図
関数の微分値を示す図
【図7】入力層ニューロンの重要度の説明図
【図8】任意の層におけるニューロンの重要度の説明図
【図9】本発明の第一の実施形態におけるフローチャー
トを示す図
トを示す図
【図10】本発明の第二の実施形態を示すブロック図
【図11】本発明の第二の実施形態におけるフローチャ
ートを示す図
ートを示す図
1 ニューラルネットワーク部 2 重要度算出部 3 構造変更部 11 ニューロン 12 ニューロンへの入力 13 結合係数 14 ニューロンの出力 15 入力層−中間層間結合 16 中間層−出力層間結合
Claims (6)
- 【請求項1】ニューロンが層状に結合された階層型構造
のニューラルネットワークを持つニューラルネットワー
ク部と、該階層型のニューラルネットワーク部の各ニュ
ーロンに対して重要度を算出する重要度算出部と、この
重要度に基づいて前記ニューラルネットワーク部の構造
を変更する構造変更部とを有することを特徴とするニュ
ーラルネットワーク構造最適化装置。 - 【請求項2】上記構造変更したニューラルネットワーク
部に対して再学習を行う再学習部を備えた請求項1記載
のニューラルネットワーク構造最適化装置。 - 【請求項3】上記重要度算出部は、各ニューロン間の結
合係数及び各ニューロンに対する入出力関数の微分値を
用いることで重要度を算出することを特徴とする請求項
1あるいは2記載のニューラルネットワーク構造最適化
装置。 - 【請求項4】上記ニューラルネットワーク部は、0を中
心に略対象に分布した範囲に規格化された入力信号によ
り学習されたものであることを特徴とする請求項1ある
いは2に記載のニューラルネットワーク構造最適化装
置。 - 【請求項5】階層型ニューラルネットワークの各ニュー
ロンに対して重要度を算出し、この重要度に基づいて前
記ニューラルネットワークの構造を変更することを特徴
とするニューラルネットワーク構造最適化方法。 - 【請求項6】階層型ニューラルネットワークの各ニュー
ロンに対して各ニューロン間の結合係数及び各ニューロ
ンに対する入出力関数の微分値により重要度を算出し、
この重要度に基づいて変更するニューロンを判定し、前
記ニューラルネットワークの構造を変更し、構造を変更
したニューラルネットワークに対して再学習することを
特徴とするニューラルネットワーク構造最適化方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7266387A JPH0991264A (ja) | 1995-09-20 | 1995-09-20 | ニューラルネットワーク構造最適化装置ならびに方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7266387A JPH0991264A (ja) | 1995-09-20 | 1995-09-20 | ニューラルネットワーク構造最適化装置ならびに方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0991264A true JPH0991264A (ja) | 1997-04-04 |
Family
ID=17430235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7266387A Pending JPH0991264A (ja) | 1995-09-20 | 1995-09-20 | ニューラルネットワーク構造最適化装置ならびに方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0991264A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018109947A (ja) * | 2016-12-30 | 2018-07-12 | 富士通株式会社 | ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用 |
JP2019061338A (ja) * | 2017-09-25 | 2019-04-18 | Kddi株式会社 | ニューラルネットワークの調整装置、デバイス及びプログラム |
CN112036564A (zh) * | 2020-08-28 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 神经网络的剪枝方法、装置、设备及存储介质 |
WO2021130997A1 (ja) * | 2019-12-26 | 2021-07-01 | 日本電気株式会社 | モデル圧縮装置、学習システム、モデル圧縮方法、プログラム記録媒体 |
JP7388606B1 (ja) * | 2022-12-28 | 2023-11-29 | Dic株式会社 | 予測方法、情報処理装置、及びプログラム |
WO2024142427A1 (ja) * | 2022-12-28 | 2024-07-04 | Dic株式会社 | 予測方法、情報処理装置、及びプログラム |
-
1995
- 1995-09-20 JP JP7266387A patent/JPH0991264A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018109947A (ja) * | 2016-12-30 | 2018-07-12 | 富士通株式会社 | ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用 |
JP2019061338A (ja) * | 2017-09-25 | 2019-04-18 | Kddi株式会社 | ニューラルネットワークの調整装置、デバイス及びプログラム |
WO2021130997A1 (ja) * | 2019-12-26 | 2021-07-01 | 日本電気株式会社 | モデル圧縮装置、学習システム、モデル圧縮方法、プログラム記録媒体 |
JPWO2021130997A1 (ja) * | 2019-12-26 | 2021-07-01 | ||
CN112036564A (zh) * | 2020-08-28 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 神经网络的剪枝方法、装置、设备及存储介质 |
CN112036564B (zh) * | 2020-08-28 | 2024-01-09 | 腾讯科技(深圳)有限公司 | 图片识别方法、装置、设备及存储介质 |
JP7388606B1 (ja) * | 2022-12-28 | 2023-11-29 | Dic株式会社 | 予測方法、情報処理装置、及びプログラム |
WO2024142427A1 (ja) * | 2022-12-28 | 2024-07-04 | Dic株式会社 | 予測方法、情報処理装置、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0378689B1 (en) | Inference rule determination method and inference apparatus | |
US4912647A (en) | Neural network training tool | |
US4914603A (en) | Training neural networks | |
US4912655A (en) | Adjusting neural networks | |
US4912649A (en) | Accelerating learning in neural networks | |
Pal | Soft computing for feature analysis | |
US5195169A (en) | Control device for controlling learning of a neural network | |
Perneel et al. | Optimization of fuzzy expert systems using genetic algorithms and neural networks | |
Liu et al. | Efficient learning algorithms for three-layer regular feedforward fuzzy neural networks | |
CA2353992A1 (en) | Robust modeling | |
US4912652A (en) | Fast neural network training | |
JPH0991263A (ja) | ニューラルネットワーク構造最適化装置ならびに方法 | |
JPH0991264A (ja) | ニューラルネットワーク構造最適化装置ならびに方法 | |
Pal et al. | Fuzzy versions of Kohonen's net and MLP-based classification: performance evaluation for certain nonconvex decision regions | |
Spackman | Maximum likelihood training of connectionist models: comparison with least squares back-propagation and logistic regression. | |
Rangarajan et al. | Markov random fields and neural networks with applications to early vision problems | |
Yeung | Constructive neural networks as estimators of Bayesian discriminant functions | |
JP2000259598A (ja) | ニューラルネットワークの最適化学習方法 | |
JP3757722B2 (ja) | 多層ニューラルネットワークユニット数最適化方法及び装置 | |
US5644681A (en) | Learning method for neural network having discrete interconnection strengths | |
USRE36823E (en) | Inference rule determining method and inference device | |
JP3618007B2 (ja) | ニューラルネットワークの学習装置及び学習方法 | |
Abraham | Beyond integrated neuro-fuzzy systems: Reviews, prospects, perspectives and directions | |
JP3367295B2 (ja) | 多値ニューラルネットワーク学習方式 | |
JPH05314090A (ja) | ニューラルネットを用いたパターン認識方法およびその装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050721 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050901 |