JP3491317B2 - フィードフォワード型ニューラルネットワークの構築方法 - Google Patents

フィードフォワード型ニューラルネットワークの構築方法

Info

Publication number
JP3491317B2
JP3491317B2 JP02251894A JP2251894A JP3491317B2 JP 3491317 B2 JP3491317 B2 JP 3491317B2 JP 02251894 A JP02251894 A JP 02251894A JP 2251894 A JP2251894 A JP 2251894A JP 3491317 B2 JP3491317 B2 JP 3491317B2
Authority
JP
Japan
Prior art keywords
hidden layer
layer
neurons
column vector
column
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP02251894A
Other languages
English (en)
Other versions
JPH07230437A (ja
Inventor
震一 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP02251894A priority Critical patent/JP3491317B2/ja
Priority to US08/326,950 priority patent/US5596681A/en
Publication of JPH07230437A publication Critical patent/JPH07230437A/ja
Application granted granted Critical
Publication of JP3491317B2 publication Critical patent/JP3491317B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
ク(NN)の構築方法に関し、特に、フィードフォワード型
ニューラルネットワークの隠れ層(中間層とも呼ばれ
る)に含まれるニューロンの個数を最適に決定する方法
に関する。
【0002】
【従来の技術】従来、フィードフォワード型ニューラル
ネットワーク(階層型NNとも呼ばれる。以下、FFNNと記
す)においては、ある特定の問題に適用する場合に、ネ
ットワークの層数や、隠れ層のニューロン数等は、研究
者の経験と勘によって適当に決められている。そして階
層化されたFFNNではBP学習(バックプロパゲーション学
習、逆伝播学習)が一般に実施されている。これはある
系もしくはそのある特定の問題の入力値に対する出力値
が得られた時、その入力に対する望ましい出力値が系か
ら出力されるように、各層を結び付けるリンクウエイト
(結合係数)を出力層側から変更していく学習アルゴリ
ズムである。階層構造が暫定的に決定されたFFNNで、BP
学習によりトレーニングして、学習誤差が予め定めた値
よりも小さくなれば、つまりうまく学習に成功すれば、
そのFFNNを応用に適用する、という方法がとられてい
る。このあり方は、FFNNに限らず、一般のニューラルネ
ットワークの理論的解析がいまだになされていないこと
に起因する。構築されたニューラルネットワークが最適
な構成であるとは限らないため、いくつかのモデルを用
意して、学習の結果、最も良いネットワークを採用する
などの方法も取られている。
【0003】
【発明が解決しようとする課題】いずれにせよ、学習が
完了して応用に適したFFNNが用意されたとしても、その
FFNNが、その応用に際して申し分無く最適な、必要最小
限の隠れニューロン数構成になっているかどうかは全く
保証がなく、一般には余分な隠れニューロンを保有す
る。このことは、ネットワークとして必要以上の計算を
実施しなければならず、余分な記憶容量を必要とするこ
とを意味し、取り扱える問題の限度が小さくなり、計算
時間が増大してしまうという問題がある。また、ネット
ワークをハードウエアで実現する場合では装置の規模を
必要以上に大きくしてしまうという問題がある。それゆ
え、ニューラルネットワークにおいて最適なネットワー
クを構築するための手立てが求められていた。
【0004】発明者らは、ネットワークの特徴を示す、
FFNNを学習させた後の関係式が行列(マトリクス)で表
記されることから、数学の行列理論及びベクトル理論を
応用して最適化する方法を見出したのでFFNNの最適構築
方法として提案する。
【0005】
【課題を解決するための手段】上記の課題を解決するた
めに構成された本発明のフィードフォワード型ニューラ
ルネットワークの構築方法は、入力層、出力層、及び前
記入力層と前記出力層との間に設けられた少なくとも一
つの隠れ層を有し、前記入力層と前記出力層と前記隠れ
層との内の隣接する2つの層に属するニューロンごとに
リンクウエイトが存在し、学習データに基づいた学習に
より各々のリンクウエイトが記憶装置内に記憶され、出
力計算時には下層のニューロンの出力と前記記憶装置か
ら読み出された前記リンクウエイトの値とが積和演算さ
れて上層ニューロンへの入力値として供給され、更に前
記入力層はデータを入力して入力層データを出力する
なくとも一つ以上の入力層ニューロンを有し、前記隠れ
層は前記入力層ニューロンで出力された前記入力層デー
タを受ける複数の隠れ層ニューロンを有するフィードフ
ォワード型ニューラルネットワークの構築方法におい
て、複数の学習データの各学習データに対する隠れ層の
個々の前記隠れ層ニューロンの出力を行ベクトルとして
表す段階と、前記行ベクトルを前記学習データの数並べ
て行列O(m×n行列、但しmは学習データ数,nは隠
れ層ニューロンの数)を形成する段階とを有する行列形
成過程と、前記行列形成過程で形成された行列を前記
隠れ層ニューロンの数の列ベクトルに分解する列ベクト
ル形成過程と、前記列ベクトル形成過程で形成した前記
列ベクトル相互間で所定数の一次独立性の高い列ベクト
ルを求める列ベクトル選別過程と、前記列ベクトル選別
過程で求めた一次独立性の高い列ベクトルに対応した前
記隠れ層ニューロンを前記隠れ層の中に残し、他の隠れ
層ニューロンを前記隠れ層から取り除くニューロン除去
過程と、前記ニューロン除去過程で残った前記隠れ層ニ
ューロンから成る隠れ層を有するフィードフォワード型
ニューラルネットワークの新たなリンクウエイトを決定
するリンクウエイト決定過程とを備えたことを特徴とし
ている。
【0006】
【0007】また前記列ベクトル形成過程は、前記行列
Oを前記隠れ層ニューロンの数n個の列ベクトル(m×
1の列ベクトル)に分解することが好ましい。また前記
列ベクトル選別過程は、前記n個の列ベクトルの長さを
1にする正規化段階と、前記n個の列ベクトルの集まり
の集合Tと空集合Sを形成する集合形成段階と、前記集
合Tの中から任意の列ベクトルを一つ取り出し集合Sに
入れる列ベクトル移動段階と、前記集合S内の前記列ベ
クトルが張る部分線型空間への前記集合T内の前記列ベ
クトルから下ろした垂線の長さを求める垂線計算段階
と、前記垂線のうち一番長い垂線の前記列ベクトルを集
合Tから取り出し集合Sに入れる抽出段階とを備え、前
記列ベクトル移動段階と前記垂線計算段階と前記抽出段
階とを所定回数繰り返し、前記集合T内に残った列ベク
トルに対応した前記隠れ層ニューロンを、前記隠れ層か
ら取り除くことが好ましい。
【0008】そして前記リンクウエイト決定過程は、前
記ニューロン除去過程で取り除かれた前記隠れ層ニュー
ロンに対応する列ベクトルを、残された隠れ層ニューロ
ンの列ベクトルの線型結合で表し、もとの線型方程式に
代入する段階と、該線型方程式を列ベクトルについて整
理する段階と、該整理した線型方程式のそれぞれの列ベ
クトルに掛けられている係数を新しいリンクウエイトと
して決定する段階とを備えていることが好ましい。
【0009】ここで前記隠れ層ニューロンは、シグモイ
ド関数を有していても良い。また前記入力層ニューロン
は次層の全ての前記隠れ層ニューロンへ結合され、前記
隠れ層ニューロンは次層の全ての前記隠れ層ニューロン
もしくは前記出力層の何れか一方に結合されていること
が好ましい。そして前記各隠れ層ニューロンは、該隠れ
層ニューロンに結合される直前の隠れ層ニューロンまた
は入力層ニューロンの何れか一方から出力される値に前
記リンクウエイトを掛け合わせて加算し、加算結果に前
記各隠れ層ニューロン毎に依存するバイアスを加算し、
続いてこのバイアス加算結果をシグモイド関数に入力
し、その出力結果を次層への出力値とすることが好まし
い。
【0010】
【作用】請求項1記載の発明によれば、複数の学習デー
タによりフィードフォワード型ニューラルネットワーク
に学習させ、学習で得られたフィードフォワード型ニュ
ーラルネットワークから行列Oを形成する。そして、形
成された行列を隠れ層ニューロンの数の列ベクトルに分
解し、この分解した列ベクトル相互間で所定数の一次独
立性の高い列ベクトルを求める。一次独立性の高い列ベ
クトルに対応した隠れ層ニューロンを隠れ層の中に残
し、他の隠れ層ニューロンを隠れ層から取り除く。そし
て残った隠れ層ニューロンから成る隠れ層を有するフィ
ードフォワード型ニューラルネットワークに新たなリン
クウエイトを決定する。
【0011】 ここで、行列形成過程は、学習データの
各学習データに対する隠れ層の個々の隠れ層ニューロン
の出力を行ベクトルとして表し、その行ベクトルを学習
データの数並べて行列Oを形成する。また、請求項
載の発明によれば、列ベクトル形成過程は、行列Oを隠
れ層ニューロンの数n個の列ベクトルに分解する。
【0012】 請求項記載の発明によれば、列ベクト
ル選別過程は、n個の列ベクトルの長さを1とし、次に
n個の列ベクトルの集まりの集合Tと空集合Sを形成す
る。そして、集合Tの中から任意の列ベクトルを一つ取
り出し集合Sに入れ、集合S内の列ベクトルが張る部分
線型空間への集合T内の列ベクトルから下ろした垂線の
長さを求める。そして、垂線のうち一番長い垂線の列ベ
クトルを集合Tから取り出し集合Sに入れる。これらを
所定回数繰り返し、最後まで集合T内に残った列ベクト
ルに対応した隠れ層ニューロンを、隠れ層から取り除
く。
【0013】
【0014】
【発明の効果】請求項1記載の発明によれば、無駄に計
算量を増加させているニューラルネットワークの隠れ層
ニューロンを見つけ出し、その隠れ層ニューロンを除去
することができるため、効率良い最適なニューラルネッ
トワークが構築できる。また、隠れ層ニューロンの除去
によりネットワークの誤差が著しく増加することがな
い。これにより、計算時間、記憶容量の節約が実現し、
同規模の計算機では、より高度な問題に対処できる。
【0015】 請求項記載の発明によれば、列ベクト
ル選別過程は、一次独立の高い列ベクトルを選別するこ
とができる
【0016】
【実施例】以下、本発明を具体的な実施例に基づいて説
明する。図1は本発明の、FFNN(フィードフォワード型
ニューラルネットワーク)の構築方法を示すフローチャ
ートである。ここでMは所定回数を示す。この手順を実
際に当てはめていくFFNNの構成として、図2に示す4層
構造のFFNNで説明する。
【0017】図2のFFNNは入力層として二つのニューロ
ン1、2(入力層ニューロン)を持ち、第1隠れ層とし
ての6個(n=6) のニューロン3〜8(隠れ層ニューロ
ン)があり、第2隠れ層としての6個(n=6) のニューロ
ン9〜14(隠れ層ニューロン)、出力層は一つのニュ
ーロン15のみで構成され、各層のニューロンは次の層
の全てのニューロンへリンクされている。そして学習デ
ータによりBP学習法で既に学習がなされ、各リンクウ
エイトの値が決められている。
【0018】ここで、第1,第2隠れ層のニューロンは
それぞれ変換関数として良く知られたシグモイド関数s
(x)=1/(1+exp(-x)) を持つものとし、入、出力層のニ
ューロンは線型関係のみ持つものとする。つまり、隠れ
層の各ニューロンの関係は、図3(a) に示すように、そ
のニューロンにリンクされる各ニューロンの値oj (j=
1,2, …,n) に、リンクウエイト(重み付けを表す実数
値)としてwj (i=1,2, …,n) を掛け合わせて加算す
る。即ち、
【0019】
【数2】
【0020】がそのニューロンの出力値となる。ここで
θは、そのニューロンが持つポテンシャルもしくはバイ
アスであり実数値であって、系に適した値を決めること
ができる。図2の各隠れ層はこのようなニューロンが6
個並んでつなげられている(n=6) 。入出力ニューロンの
関係は図3(b) に示す線型関係である。このようなFFNN
において、効率的なFFNN構築のために、現在隠れ層にあ
るニューロンの中でどのニューロンを除去し、どのニュ
ーロンを残すべきかの決定方法を図2の4層フィードフ
ォワード型ニューラルネットワークの例に則して説明す
る。
【0021】なお、第1,第2隠れ層とも手順は同じで
あるので、第2隠れ層における不要なニューロン番号の
決定方法について説明する。すなわち本実施例の決定方
法は、隠れ層の中にあるニューロンの列ベクトルを形成
する第一過程(行列形成過程,列ベクトル形成過程に相
当)と、現在隠れ層の中にあるニューロンの内、取り除
くことのできるニューロンの番号を決定する第二過程
(列ベクトル選別過程,ニューロン除去過程に相当)
と、第二過程で残された各ニューロンのリンクウエイト
を再決定する第三過程(リンクウエイト決定過程に相
当)とからなる。以下にこれらの決定方法を順に説明す
る。
【0022】先ず第一過程について説明する。ここで
は、このFFNNが10個の学習データ出力値(教師信号)t
i (i=1,2, …,10)によってトレーニングされたとし(m=1
0)、また、取り除くことのできるニューロンの数Mが予
め分かっているとする。この除去可能なニューロン数の
決定方法は、例えば本発明者が先に出願した「ニューラ
ルネットワークの構築方法」(特願平5−28764
9)等がある。
【0023】先ず初めに、出力層に近い第2隠れ層にお
いて、第i番目の学習データが与えられた時の第2隠れ
層のj番目ニューロンの出力をo(i,k) として、以下の
10×6 行列Oを作成する(行列形成過程)。
【0024】
【数3】 (ただし、i=1,2,…,10(10個) は学習データ番号、k=1,
2,…,6(6個) は各々図2中の第 9,10,…,14 のニューロ
ンの番号に対応する。) また、上記数3式はoj (但し、(j=1,2, …,6),10×1
の列ベクトル)を用いて次式のように表される(列ベク
トル形成過程)。
【0025】
【数4】O=(o1 ,o2 ,o3 ,o4 ,o5 ,o6 ) すなわち上記数4式で、oj は以下のように表される。
【0026】
【数5】 従って問題は、列ベクトルo1,…, o6 の内、どの(6
−M)個(但し、Mは第2隠れ層における取り除くべき
ニューロン個数)の列ベクトルを選び、第2隠れ層に残
せば良いかという問題になる。(6−M)は列ベクトル
1,…, o6 の一次独立なベクトルの数になっているの
で、一次独立性の高い(6−M)の列ベクトルを選ぶこ
とが望ましい。残されたM個の列ベクトルは(6−M)
個の列ベクトルの線型結合で表されるものであるから、
この基底ベクトルとしては計算誤差が大きくなったり、
ベクトルの線型結合の結合係数が極端に変動するのを抑
制するためにも一次独立性の高いものが望ましい。従っ
て、ここでは隠れ層の6個のニューロンの中から、ニュ
ーロンに対する列ベクトルの一次独立性の高い(6−
M)個のニューロンを選ぶ。
【0027】次に図5に示したフローチャートに基づ
き、第二過程(列ベクトル選別過程)を説明する。まず
ステップ200では、6個の10×1 列ベクトルの長さを
全て1にする(正規化段階)。次にステップ202で
は、6個の列ベクトルの集まりの集合Tと、空集合Sを
考える。ステップ204では、先の残すニューロンの数
(6−M)よりも1だけ小さい数を考え、カウンタであ
る変数Cに代入する。そしてステップ206で、集合T
の中から任意の列ベクトルを一つ取り出し集合Sに入れ
る(列ベクトル移動段階)。ステップ208では図4に
示すように、集合Sの列ベクトルが張る部分線型空間へ
集合Tの列ベクトルから下ろした垂線の長さ、すなわち
一次独立性の大きさを集合Tに含まれる全ての列ベクト
ルについて計算する(垂線計算段階)。ステップ210
では、ステップ208で求めた垂線のうち一番長いも
の、すなわち最も一次独立性の高いものを集合Tから取
り出し集合Sに入れる(抽出段階)。
【0028】ここで、ステップ208,ステップ210
の意味について図4を用いて説明する。集合Sの列ベク
トルが張る部分線型空間への集合Tの列ベクトルから下
ろした垂線の長さは図4のl1 又はl2 に相当する。集
合T内に二つの列ベクトルa,bがあり、このうち何れ
か一方とSの元の二つの列ベクトルを使って任意の列ベ
クトルcを表したいとする。この場合、列ベクトルc
は、列ベクトルa又は列ベクトルbのスカラー倍とSの
元のスカラー倍の合計で表されるが、列ベクトルbとS
の元を用いて表すよりも列ベクトルaとSの元を用いて
表す方が、スカラー量は小さくて済む。すなわち、ネッ
トワークにおいても垂線の長いものを採用したほうが効
率的である。なお、このように垂線の長さを比較するた
め、ステップ200において列ベクトルの長さを全て1
にする必要がある。
【0029】次にステップ212でCに(C−1)を代
入しステップ208に戻る。そしてC=0となるまでこ
れを繰り返す。C=0となった場合、ステップ216で
最後まで集合Tに残った列ベクトルに対応したニューロ
ンの番号を確認し、このニューロンをネットワークから
除き、集合Sに移動した列ベクトルに対応したニューロ
ンをネットワークに残す(ニューロン除去過程)。すな
わち集合Sには一次独立性が高い列ベクトルが入ってい
ることになる。
【0030】次に第三過程(リンクウエイト決定過程)
について説明する。ネットワークでは、上記第二過程で
取り除くことが望ましいと判断されたニューロンが抜け
ると、その分をカバーする必要性が生じる。すなわち、
取り除くと決定されたニューロンに対する列ベクトル
を、それぞれ残される列ベクトルの線型結合で表し、も
との線型方程式に代入する。そしてこの線型方程式を整
理すると、残される列ベクトルのみの線型方程式とな
る。この新しい線型方程式のそれぞれの列ベクトルに掛
けられている係数が、ニューロンから次層のニューロン
への新しいリンクウエイトとなる。
【0031】すなわち、数2式におけるwj から成るベ
クトルをW、学習データ出力値から成るベクトルをtと
すると、学習結果は以下の式で表される。
【0032】
【数6】OW=t ここで数4式において、例えば一つの列ベクトルo1
他の5つの列ベクトルにより、以下のような線型結合で
表されるとする。
【0033】
【数7】o1 =a2 2 +a3 3 +a4 4 +a5
5 +a6 6 この数7式を上記数6式に代入すると、
【0034】
【数8】(a2 2 +a3 3 +a4 4 +a5 5
6 6 ,o2 ,o3 ,o4 ,o5 ,o6 )W=t となる。この式を展開すると、
【0035】
【数9】(w1 2 +w2 )o2 +(w1 3 +w3
3 +(w1 4 +w4 )o4+(w1 5 +w5 )o
5 +(w1 6 +w6 )o =t となる。すなわち、これは5つの列ベクトルより成るマ
トリクス、
【0036】
【数10】(o2 ,o3 ,o4 ,o5 ,o6 ) が数6式を満たしていることになる。つまり数9式でo
j に掛けられている数値が新しいウエイトリンクとな
る。以下に図6に示したフローチャートに基づき、この
第三過程を説明する。
【0037】まず、ステップ300で取り除くニューロ
ンに対応する列ベクトルを、残されるニューロンの列ベ
クトルの線型結合で表す。ステップ302では、もとの
線型方程式に、上記線型結合で表された列ベクトルを代
入する。ステップ304で、この線型方程式を整理す
る。最後にステップ306で、前記整理した線型方程式
のそれぞれの列ベクトルに掛けられている数値を新しい
リンクウエイトと決定する。
【0038】なお、第1隠れ層についても第2隠れ層と
同様に上記の操作を行えば良い。以上のように、学習済
みのFFNNにおいて、各層のニューロンの構成数に係わら
ず、学習データに基づき、隠れ層内にあるニューロンの
どれを残しどれを省略すれば良いのかが明らかにされた
ので、効率的な計算が実施でき、また効果的な結果を求
められるフィードフォワード型ニューラルネットワーク
を構築することができる。そしてこれにより、無駄に計
算量を増加させているネットワークを減少させることが
でき、効率良い最適なニューラルネットワークが構築で
きるので、計算時間、記憶容量の節約が実現し、同規模
の計算機では、より高度な問題に対処できる。
【図面の簡単な説明】
【図1】本発明の一実施例であるフィードフォワード型
ニューラルネットワークの構築方法を示すフローチャー
ト。
【図2】本発明の応用を示すニューラルネットワークの
構成図。
【図3】各層のニューロンの働きを示す説明図。
【図4】図1に示したフローチャートを説明する図。
【符号の説明】
1、2 入力層のニューロン(入力層ニューロン) 3、4、5、6、7、8 第1隠れ層のニューロン(隠
れ層ニューロン) 9、10、11、12、13、14 第2隠れ層のニュ
ーロン(隠れ層ニューロン) 15 出力層のニューロン
フロントページの続き (56)参考文献 特開 平4−175964(JP,A) 特開 平5−242062(JP,A) Tamura, S. Tateis hi, M.,et.al.,”Det ermination of The Number of Redundan t Hidden Units in a Three−layered Fe ed−forward Neura l・・・”,Proc. of 1993 Int. Joint Conf. o n Neural Networks (IJCNN’93),1993年,Vol. 1,pp.335−338 Goggin, S.D.D. Gu stafson, K.E., et. al.,”An Asymptotic Singular Value De composition Analys is of Nonlinear Mu ltilayer Neural Ne tworks”,Proc. of I nt. Joint Conf. on Neural Networks(I JCNN’91),1991年,Vol.1, pp.785−789 増田達也・他,「隠れユニットの合成 による階層型ニューラルネットワークの コンパクト構造化」,計測自動制御学会 論文集,日本,社団法人計測自動制御学 会,1992年 4月30日,Vol.28, No.4,pp.519−527 鹿山昌宏・他,「多層ニューラルネッ トの最適中間層ニューロン数決定方 法」,電気学会論文誌D,日本,社団法 人電気学会,1992年11月20日,Vol. 112, No.11,pp.1064−1070 藤田修,「フィードフォワードニュー ラルネットワークにおける隠れ素子の最 適化」,電子情報通信学会技術研究報 告,日本,社団法人電子情報通信学会, 1991年 3月18日,Vol.90, N o.483(NC90−68〜111),pp.43 −48 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 G06F 19/00 G06F 17/10 - 17/18 JSTファイル(JOIS) CSDB(日本国特許庁)

Claims (6)

    (57)【特許請求の範囲】
  1. 【請求項1】 入力層、出力層、及び前記入力層と前記
    出力層との間に設けられた少なくとも一つの隠れ層を有
    し、前記入力層と前記出力層と前記隠れ層との内の隣接
    する2つの層に属するニューロンごとにリンクウエイト
    が存在し、学習データに基づいた学習により各々のリン
    クウエイトが記憶装置内に記憶され、出力計算時には下
    層のニューロンの出力と前記記憶装置から読み出された
    前記リンクウエイトの値とが積和演算されて上層ニュー
    ロンへの入力値として供給され、更に前記入力層はデー
    タを入力して入力層データを出力する少なくとも一つ以
    上の入力層ニューロンを有し、前記隠れ層は前記入力層
    ニューロンで出力された前記入力層データを受ける複数
    の隠れ層ニューロンを有するフィードフォワード型ニュ
    ーラルネットワークの構築方法において、 複数の学習データの各学習データに対する隠れ層の個々
    の前記隠れ層ニューロンの出力を行ベクトルとして表す
    段階と、前記行ベクトルを前記学習データの数並べて行
    列O(m×n行列、但しmは学習データ数,nは隠れ層
    ニューロンの数)を形成する段階とを有する行列形成過
    程と、 前記行列形成過程で形成された行列を前記隠れ層ニュ
    ーロンの数の列ベクトルに分解する列ベクトル形成過程
    と、 前記列ベクトル形成過程で形成した前記列ベクトル相互
    間で所定数の一次独立性の高い列ベクトルを求める列ベ
    クトル選別過程と、 前記列ベクトル選別過程で求めた一次独立性の高い列ベ
    クトルに対応した前記隠れ層ニューロンを前記隠れ層の
    中に残し、他の隠れ層ニューロンを前記隠れ層から取り
    除くニューロン除去過程と、 前記ニューロン除去過程で残った前記隠れ層ニューロン
    から成る隠れ層を有するフィードフォワード型ニューラ
    ルネットワークの新たなリンクウエイトを決定するリン
    クウエイト決定過程とを備えたことを特徴とするフィー
    ドフォワード型ニューラルネットワークの構築方法。
  2. 【請求項2】 前記列ベクトル形成過程は、前記行列O
    を前記隠れ層ニューロンの数n個の列ベクトル(m×1
    の列ベクトル)に分解することを特徴とする請求項1記
    のフィードフォワード型ニューラルネットワークの構
    築方法。
  3. 【請求項3】 前記列ベクトル選別過程は、 前記n個の列ベクトルの長さを1にする正規化段階と、 前記n個の列ベクトルの集まりの集合Tと空集合Sを形
    成する集合形成段階と、 前記集合Tの中から任意の列ベクトルを一つ取り出し集
    合Sに入れる列ベクトル移動段階と、 前記集合S内の前記列ベクトルが張る部分線型空間への
    前記集合T内の前記列ベクトルから下ろした垂線の長さ
    を求める垂線計算段階と、 前記垂線のうち一番長い垂線の前記列ベクトルを集合T
    から取り出し集合Sに入れる抽出段階とを備え、前記列
    ベクトル移動段階と前記垂線計算段階と前記抽出段階と
    を所定回数繰り返し、前記集合T内に残った列ベクトル
    に対応した前記隠れ層ニューロンを、前記隠れ層から取
    り除くことを特徴とする請求項1乃至請求項記載のフ
    ィードフォワード型ニューラルネットワークの構築方
    法。
  4. 【請求項4】 前記隠れ層ニューロンはシグモイド関
    数、 【数1】s(x)=1/(1+exp(−x)) を有することを特徴とする請求項1乃至請求項記載の
    フィードフォワード型ニューラルネットワークの構築方
    法。
  5. 【請求項5】 前記入力層ニューロンは次層の全ての前
    記隠れ層ニューロンへ結合され、前記隠れ層ニューロン
    は次層の全ての前記隠れ層ニューロンもしくは前記出力
    層の何れか一方に結合されていることを特徴とする請求
    項1乃至請求項記載のフィードフォワード型ニューラ
    ルネットワークの構築方法。
  6. 【請求項6】 前記各隠れ層ニューロンは、該隠れ層ニ
    ューロンに結合される直前の隠れ層ニューロンまたは入
    力層ニューロンの何れか一方から出力される値に前記リ
    ンクウエイトを掛け合わせて加算し、加算結果に前記各
    隠れ層ニューロン毎に依存するバイアスを加算し、続い
    てこのバイアス加算結果をシグモイド関数に入力し、そ
    の出力結果を次層への出力値とすることを特徴とする請
    求項1乃至請求項記載のフィードフォワード型ニュー
    ラルネットワークの構築方法。
JP02251894A 1993-10-22 1994-02-21 フィードフォワード型ニューラルネットワークの構築方法 Expired - Lifetime JP3491317B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP02251894A JP3491317B2 (ja) 1994-02-21 1994-02-21 フィードフォワード型ニューラルネットワークの構築方法
US08/326,950 US5596681A (en) 1993-10-22 1994-10-21 Method of determining an optimal number of neurons contained in hidden layers of a neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02251894A JP3491317B2 (ja) 1994-02-21 1994-02-21 フィードフォワード型ニューラルネットワークの構築方法

Publications (2)

Publication Number Publication Date
JPH07230437A JPH07230437A (ja) 1995-08-29
JP3491317B2 true JP3491317B2 (ja) 2004-01-26

Family

ID=12084998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02251894A Expired - Lifetime JP3491317B2 (ja) 1993-10-22 1994-02-21 フィードフォワード型ニューラルネットワークの構築方法

Country Status (1)

Country Link
JP (1) JP3491317B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7438517B2 (ja) * 2019-07-25 2024-02-27 国立大学法人 和歌山大学 ニューラルネットワークの圧縮方法、ニューラルネットワーク圧縮装置、コンピュータプログラム、及び圧縮されたニューラルネットワークデータの製造方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3329806B2 (ja) * 1990-11-09 2002-09-30 株式会社日立製作所 ニューラルネット構築装置
JPH05242062A (ja) * 1992-02-26 1993-09-21 Matsushita Graphic Commun Syst Inc ニューラルネット中間層ユニット数の決定方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Goggin, S.D.D. Gustafson, K.E., et.al.,"An Asymptotic Singular Value Decomposition Analysis of Nonlinear Multilayer Neural Networks",Proc. of Int. Joint Conf. on Neural Networks(IJCNN’91),1991年,Vol.1,pp.785−789
Tamura, S. Tateishi, M.,et.al.,"Determination of The Number of Redundant Hidden Units in a Three−layered Feed−forward Neural・・・",Proc. of 1993 Int. Joint Conf. on Neural Networks(IJCNN’93),1993年,Vol.1,pp.335−338
増田達也・他,「隠れユニットの合成による階層型ニューラルネットワークのコンパクト構造化」,計測自動制御学会論文集,日本,社団法人計測自動制御学会,1992年 4月30日,Vol.28, No.4,pp.519−527
藤田修,「フィードフォワードニューラルネットワークにおける隠れ素子の最適化」,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,1991年 3月18日,Vol.90, No.483(NC90−68〜111),pp.43−48
鹿山昌宏・他,「多層ニューラルネットの最適中間層ニューロン数決定方法」,電気学会論文誌D,日本,社団法人電気学会,1992年11月20日,Vol.112, No.11,pp.1064−1070

Also Published As

Publication number Publication date
JPH07230437A (ja) 1995-08-29

Similar Documents

Publication Publication Date Title
JP3329806B2 (ja) ニューラルネット構築装置
CN113780470B (zh) 一种基于自适应多通道交叉图卷积网络的图分类方法
CN109543112A (zh) 一种基于循环卷积神经网络的序列推荐方法及装置
US6446054B1 (en) Fuzzy inference system or adaptive neuro-fuzzy inference system, and intelligent agent for the dynamic generation and retrieval of user interface software modules
CN113516133A (zh) 一种多模态图像分类方法及系统
CN114067819A (zh) 基于跨层相似性知识蒸馏的语音增强方法
JP3374476B2 (ja) ニューラルネットワーク構築方法
Choi et al. Relevance feedback for content-based image retrieval using the choquet integral
JP2002518925A (ja) 適応状態空間信号の分離、弁別、回復用アーキテクチャ、及び、動的環境における使用へのそれらの適用
JP3491317B2 (ja) フィードフォワード型ニューラルネットワークの構築方法
US5596681A (en) Method of determining an optimal number of neurons contained in hidden layers of a neural network
CN116739900A (zh) 基于对偶注意力网络的高效图像超分辨率重建方法
JPH07129534A (ja) 現存するエキスパートシステムを1つ以上のニューラルネットワークを使用するものに変換する方法
CN115100599A (zh) 基于掩码transformer的半监督人群场景异常检测方法
CN109800859B (zh) 一种神经网络批归一化的优化方法及装置
CN111475620A (zh) 一种面向智能问答系统的自然语言推理方法
CN115294967B (zh) 一种适用于语音分类的学习模型搜索空间全自动构建方法
CN116596779B (zh) 基于Transformer的Raw视频去噪方法
CN118378593B (zh) 一种将序列的位置信息添加到文本特征的多通道方法及装置
CN118098212B (zh) 一种基于Whisper模型的住院医师临床口试智能评分方法
CN117972389A (zh) 基于自注意机制的vae的数据降维方法及预测装置
JP3328953B2 (ja) 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法
CN116521836A (zh) 一种基于动态路由和答案投票的生物医学抽取式问答方法
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク
JP3389684B2 (ja) ニューラルネットワークの学習方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031014

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101114

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131114

Year of fee payment: 10

EXPY Cancellation because of completion of term