JP3608237B2 - ニューラルネットワークの学習装置 - Google Patents
ニューラルネットワークの学習装置 Download PDFInfo
- Publication number
- JP3608237B2 JP3608237B2 JP33554794A JP33554794A JP3608237B2 JP 3608237 B2 JP3608237 B2 JP 3608237B2 JP 33554794 A JP33554794 A JP 33554794A JP 33554794 A JP33554794 A JP 33554794A JP 3608237 B2 JP3608237 B2 JP 3608237B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural network
- data
- output
- output data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Feedback Control In General (AREA)
Description
【産業上の利用分野】
この発明は、多層構造のニューラルネットワークの学習を行なう装置に関する。
【0002】
【従来の技術】
ニューラルネットワークは、神経細胞(ニューロン)のネットワークを用いて、対象とする特定のシステムの複雑な入出力関係を予測しようとする情報処理技術である。
【0003】
ニューラルネットワークの学習は、学習データの入力データ(以下、「学習入力データ」と呼ぶ)をニューラルネットワークに与え、その時のニューラルネットワークの出力が、所望の出力結果(以下、「学習出力データ」または「教師データ」と呼ぶ)に一致するように、ニューロン間の結合重みを調整する過程である。
【0004】
図1は、従来のニューラルネットワークの構成を示す説明図である。従来のニューラルネットワークの学習では、出力層の各ニューロンからの出力データY1 〜Y4 と、その教師データd1 〜d4 (学習出力データ)とを用いて、下記の数式1で与えられる誤差Eを求め、この誤差Eが所定の許容値以下になるようにニューロン間の結合重みを調整していた。
【0005】
【数1】
【0006】
【発明が解決しようとする課題】
ニューラルネットワークで予測しようとする出力データの種類によっては、複数の出力データYi のうちのいくつかが、他の出力データに従属している場合も存在する。例えば、顔料の調合率や合金の調合率を出力データとするニューラルネットワークでは、調合率の合計値が100%になる。すなわち、4成分系の顔料や合金の場合には、次の数式2が成り立っている。
【0007】
【数2】
【0008】
従来のニューラルネットワークの学習装置では、すべての出力データをニューラルネットワークで予想して、その予想誤差Eを数式1に従って求めるようにしており、数式2のような出力データ相互の関係式を考慮して学習を行なうものは存在しなかった。
【0009】
この発明は、従来技術における上述の課題を解決するためになされたものであり、出力データ相互の関係を考慮して学習を効率的に行なうことのできるニューラルネットワークの学習装置を提供することを目的とする。
【0010】
【課題を解決するための手段および作用】
上述の課題を解決するため、この発明の請求項1に記載したニューラルネットワークの学習装置は、
それぞれ複数のニューロンを有する入力層と中間層と、n個(nは1以上の整数)のニューロンを有する出力層とを備えた多層構造のニューラルネットワークと、
前記ニューラルネットワークに学習させるべき学習データとして、前記入力層に与える学習入力データと、前記出力層から出力されるべきn個の第1の学習出力データと、それぞれ所定の関数に従って前記n個の第1の学習出力データに従属するm個(mは1以上の整数)の第2の学習出力データとを含む複数組の学習データを記憶する学習データ格納手段と、
前記ニューラルネットワークの前記入力層に前記学習入力データを与えて得られたn個の第1の出力データから、前記所定の関数に従ってm個の第2の出力データを算出する出力データ算出手段と、
前記(n+m)個の出力データと前記(n+m)個の学習出力データとの誤差を示す指標を、前記ニューラルネットワークの学習状態を評価するための評価関数として算出する誤差算出手段と、
前記評価関数を減少させるように前記ニューラルネットワークにおける結合重みを調整する結合重み調整手段と、
を備えることを特徴とする。
【0011】
n個の第1の出力データから所定の関数を用いてm個の第2の出力データを求め、こうして得られた(n+m)個の出力データと、これに対応する(n+m)個の学習出力データとの誤差を学習時の評価関数として用いる。従って、第1と第2の出力データ相互の関係を考慮して学習を効率的に行なうことができる。
【0012】
請求項2に記載したニューラルネットワークの学習装置では、前記所定の関数は、前記n個の第1の出力データのそれぞれに関して微分可能な関数である。
【0013】
所定の関数が第1の出力データに関して微分可能な関数であれば、ニューロン間の結合重みを学習する際に、重み係数を容易に調整することができる。
【0014】
【実施例】
図2は、この発明の一実施例を適用するニューラルネットワークの構成を示す説明図である。このニューラルネットワークは、入力層と中間層と出力層とで構成される三層の多層構造を有している。入力層は、3個のニューロンN1(1)〜N3(1)で構成されており、出力層も3個のニューロンN1(3)〜N3(3)で構成されている。なお、ニューロンの符号の右肩にある括弧付きの番号は、ニューロンの階層を示している。また、中間層も複数のニューロンで構成されている。
【0015】
入力層の3個のニューロンN1(1)〜N3(1)には、入力データX1 〜X3 がそれぞれ入力される。図2の左下部に示すように、(k−1)番目の階層のj番目ニューロンNj(k−1)からK番目の階層のi番目のニューロンNi(k)に伝達される信号は、ニューロンNj(k−1)の出力Qj(k−1)に重みWij(k) を乗じたものである。例えば、入力層の第1のニューロンN1(1)から中間層の第1のニューロンN1(2)に伝達される信号はW11(2) X1 である。一般に、(k−1)番目の階層の各ニューロンからk番目の階層のi番目のニューロンNi(k)への入力の合計値Ui(k)は、次の数式3で与えられる。
【0016】
【数3】
【0017】
ここで、Qj(k−1)は(k−1)番目の階層のj番目のニューロンの出力、mは(k−1)番目の階層のニューロンの数、θ(k)は所定のしきい値である。
【0018】
k番目の階層のi番目のニューロンNi(k)の入力Ui(k)と出力Qi(k)との関係は、次の数式4に示す情報伝達関数f(シグモイド関数)で与えられる。
【0019】
【数4】
【0020】
なお、図2の出力層においては、数式4の出力Qi(k)が出力データYi (i=1〜3)に相当する。但し、入力層のニューロンは数式4の例外であり、入力データX1 〜X3 がそのまま出力される。
【0021】
ニューラルネットワークの学習は、入力層への入力データX1 〜X3 (学習入力データ)と、出力層からの正しい出力データである教師データd1 〜d4 (学習出力データ)との間の関係を数多く与えて、正しい入出力関係を与えるような重みWij(k) の値を決定する過程である。以下では、バックプロパゲーションと呼ばれる学習アルゴリズムに従って学習を行なう場合について説明する。
【0022】
ニューラルネットワークの学習状態を評価するための評価関数としては、次の数式5で与えられる誤差Eを用いる。
【0023】
【数5】
【0024】
この評価関数Eは、出力データYi と教師データdi との自乗誤差の和の1/2である。なお、評価関数Eとしては、出力データYi と教師データdi との誤差を示す指標であればよく、自乗誤差の和に比例する値や標準偏差に比例する値なども使用することができる。
【0025】
上記の数式5は、上述した数式1と同じである。但し、この実施例においては、ニューラルネットワークから直接出力されない第4の出力データY4 も含めて評価関数Eを定義しているところに従来との差異がある。
【0026】
第4の出力データY4 は、図2にも示すように、ニューラルネットワークから直接出力される3つの出力データY1 〜Y3 から、次の数式6に示す関数g(Y1 ,Y2 ,Y3 )に従って算出される。
【0027】
【数6】
【0028】
バックプロパゲーションによってニューラルネットワークの学習を行なう場合には、出力層のi番目のニューロンNi(3)と中間層のj番目のニューロンNj(2)との間の重み係数Wij(3)は、いわゆる最急降下法を用いて、次の数式7に従って更新される。
【0029】
【数7】
【0030】
ここで、Wij(k)(n)はn回の学習で得られた重み係数、Wij(k)(n+1)は(n+1)回の学習で得られた重み係数である。また、ηは極値探索のためのパラメータであり、定数である。数式7の右辺の偏微分は、次の数式8に変形できる。
【0031】
【数8】
【0032】
ここで、Ui(3)は、出力層のi番目のニューロンの入力である。また、Qi(3)は出力層のi番目のニューロンの出力であり、Yi に等しい。数式8の最右辺の3つの偏微分の値は、以下のようにして求めることができる。
【0033】
数式8の最右辺の最初の偏微分は、評価関数Eを出力データYi で偏微分したものであり、上記の数式5から導かれる次の数式9で与えられる。
【0034】
【数9】
【0035】
数式9において(Y4 −d4 )の項が存在するのは、第4の出力データY4 が数式6に従ってi番目の出力データYi に従属しているからである。数式9の右辺の値は、i番目の出力データYi および教師データdi と、4番目の出力データY4 および教師データd4 とによって決定される。
【0036】
ところで、出力層のi番目のニューロンNi(3)に対しては、上記の数式4で示される入力Ui(k)と出力Qi(k)の関係が成立するので、出力データYi (=Qi(3))は次の数式10で与えられる。
【0037】
【数10】
【0038】
従って、数式8の最右辺の2番目の偏微分は、シグモイド関数fを入力Ui(3)で偏微分したものであり、次の数式11で与えられる。
【0039】
【数11】
【0040】
なお、数式11の右辺の値は、入力Ui(3)としきい値θ(3)とによって決定される。
【0041】
出力層のi番目のニューロンNi(3)への入力Ui(3)は、上記の数式3に従って、次の数式12で与えられる。
【0042】
【数12】
【0043】
従って、数式8の最右辺の3番目の偏微分の値は、次の数式13で与えられるように、中間層のj番目のニューロンの出力Qj(2)に等しい。
【0044】
【数13】
【0045】
上記の数式7,8,9,11,13を用いることによって、(n+1)回目の学習による重み係数Wij(3) (n+1)を求めることができる。なお、入力層から中間層への信号伝達の重み係数Wij(2) の学習は、通常のバックプロパゲーションを用いて実行することができる。
【0046】
図3は、この発明の一実施例としてのニューラルネットワークの学習装置の構成を示すブロック図である。この学習装置は、学習データ格納手段100と、結合重み格納手段102と、多層構造型ニューラルネットワーク104と、想起結果格納手段106と、外部事象予測手段108と、全予測事象誤差算出手段110と、結合重み調整手段112と、教師データ格納手段114とを有している。多層構造型ニューラルネットワーク104は、図2に示すニューラルネットワークである。また、学習データ格納手段100は、多層構造型ニューラルネットワーク104の学習を行なうための学習データを格納する手段であり、結合重み格納手段102は多層構造型ニューラルネットワーク104の結合重みWij(k) を格納する手段である。「想起結果」は、多層構造型ニューラルネットワーク104から直接出力される3つの出力データY1 〜Y3 である。外部事象予測手段108は、ニューラルネットワークで直接予測されない第4の出力データY4 を予測する手段であり、この実施例では上記の数式6に従って第4の出力データY4 を算出する。全予測事象誤差算出手段110は、4つの出力データY1 〜Y4 から、上記の数式5に従って評価関数Eを算出する。また、結合重み調整手段112は、上記の数式7〜13を用いて、評価関数Eが小さくなるように結合重みWij(k) を調整する手段である。なお、教師データ格納手段114には、学習データ格納手段100から与えられた教師データd1 〜d4 が格納される。
【0047】
学習データ格納手段100と教師データ格納手段114は、請求項に記載された発明における学習データ格納手段に相当する。また、外部事象予測手段108が本発明における出力データ算出手段に相当し、全予測事象誤差算出手段110が本発明における誤差算出手段に、結合重み調整手段112が本発明における結合重み調整手段にそれぞれ相当する。
【0048】
なお、上記の各格納手段は磁気ディスクやRAMなどで実現され、その他の手段はソフトウェアプログラムをCPUが実行することによって実現される。
【0049】
図4は、実施例の検証に用いた学習データを示す図である。図4の13組の学習データにおける学習入力データ(X1 ,X2 ,X3 )と教師データ(d1,d2
,d3 ,d4 )には、次の数式14のような関係がある。
【0050】
【数14】
【0051】
図5は、図4の学習データで学習したニューラルネットワークに、適当な入力データ(X1 ,X2 ,X3 )を与えて予測を行なった結果を示す図である。図5の「真値」の欄は、上記の数式14に従って得られる値である。図5の「実施例」の欄は、図2に示すニューラルネットワークを図4の学習データで学習させた場合に得られる想起結果である。また、図5の「比較例」の欄は、図1に示す従来のニューラルネットワークを図4の学習データで学習させた場合に得られる想起結果である。
【0052】
図5の3つのケースのいずれにおいても、実施例の結果は比較例の結果に比べて真値に近い。従って、実施例の学習装置を用いることによって、ニューラルネットワークにおける学習効率を向上させることができたことが解る。
【0053】
図6は、赤、青、黄、白の4色の顔料を混合することによって混合物を生成する場合について検証を行なった結果を示す図である。学習データとしては、混合物の色の三刺激値を学習入力データとし、4つの顔料の調合率を教師データとする複数組の学習データ(図示せず)を、実施例と比較例に共通に用いた。図6の結果からも、実施例が比較例に比べて予測精度が高いことが解る。
【0054】
以上のように、上記実施例では、ニューラルネットワークから直接出力される3つの出力データY1 〜Y3 と、第4の出力データY4 との関係を与える関数gを用いて中間層から出力層への信号伝達の重み関数を学習している。従って、ニューラルネットワークから直接出力される3つの出力データY1 〜Y3 とその教師データd1 〜d3 のみを用いて学習する場合に比べて、学習をより効率的に行うことができる。換言すれば、同じ学習データを用いると従来よりも予測精度が向上する。また、従来よりも少ない学習データによって従来と同程度の予測精度が得られる。
【0055】
さらに、図2に示すニューラルネットワークでは、図1に示す従来のニューラルネットワークに比べて出力層のニューロンが少ないので、その重み係数も少なく、この結果、学習効率をさらに向上させることができるという利点もある。
【0056】
なお、この発明は上記実施例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
【0057】
(1)ニューラルネットワークで直接出力されない第2のタイプの出力データと、ニューラルネットワークから直接出力される第1のタイプの出力データとの関係を表わす関数としては、上記数式6以外の任意の関数を用いることができる。但し、この関数は、第1のタイプの出力データのそれぞれに関して偏微分可能であることが好ましい。この理由は、数式8の最右辺の第1の偏微分が、数式9と同様にして決定できるからである。
【0058】
(2)第2のタイプの出力データは複数であってもよい。一般には、m個(mは1以上の整数)の第2のタイプの出力データが、出力層のn個(nは1以上の整数)のニューロンから出力されるn個の第1のタイプの出力データに従属すればよい。また、中間層が1層でなく、複数の中間層を設けるようにすることも可能である。
【0059】
【発明の効果】
以上説明したように、請求項1に記載された発明によれば、第1と第2の出力データ相互の関係を考慮して学習を効率的に行なうことができる。
【0060】
また、請求項2に記載された発明によれば、ニューロン間の結合重みを学習する際に、重み係数を容易に調整することができる。
【図面の簡単な説明】
【図1】従来のニューラルネットワークの構成を示す説明図。
【図2】この発明の一実施例におけるニューラルネットワークの構成を示す説明図。
【図3】この発明の一実施例としてのニューラルネットワークの学習装置の構成を示すブロック図。
【図4】実施例の検証に用いた学習データを示す図。
【図5】図4の学習データで学習したニューラルネットワークを用いた予測結果を示す図。
【図6】顔料の調合問題に対して本発明の実施例を適用した結果を示す図。
【符号の説明】
100…学習データ格納手段
102…結合重み格納手段
104…多層構造型ニューラルネットワーク
106…想起結果格納手段
108…外部事象予測手段
108…想起誤差算出手段
110…全予測事象誤差算出手段
112…結合重み調整手段
114…教師データ格納手段
Claims (2)
- ニューラルネットワークの学習を行なう装置であって、
それぞれ複数のニューロンを有する入力層と中間層と、n個(nは1以上の整数)のニューロンを有する出力層とを備えた多層構造のニューラルネットワークと、
前記ニューラルネットワークに学習させるべき学習データとして、前記入力層に与える学習入力データと、前記出力層から出力されるべきn個の第1の学習出力データと、それぞれ所定の関数に従って前記n個の第1の学習出力データに従属するm個(mは1以上の整数)の第2の学習出力データとを含む複数組の学習データを記憶する学習データ格納手段と、
前記ニューラルネットワークの前記入力層に前記学習入力データを与えて得られたn個の第1の出力データから、前記所定の関数に従ってm個の第2の出力データを算出する出力データ算出手段と、
前記(n+m)個の出力データと前記(n+m)個の学習出力データとの誤差を示す指標を、前記ニューラルネットワークの学習状態を評価するための評価関数として算出する誤差算出手段と、
前記評価関数を減少させるように前記ニューラルネットワークにおける結合重みを調整する結合重み調整手段と、
を備えることを特徴とするニューラルネットワークの学習装置。 - 請求項1記載のニューラルネットワークの学習装置であって、
前記所定の関数は、前記n個の第1の出力データのそれぞれに関して微分可能な関数である、ニューラルネットワークの学習装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33554794A JP3608237B2 (ja) | 1994-12-20 | 1994-12-20 | ニューラルネットワークの学習装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33554794A JP3608237B2 (ja) | 1994-12-20 | 1994-12-20 | ニューラルネットワークの学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08180033A JPH08180033A (ja) | 1996-07-12 |
JP3608237B2 true JP3608237B2 (ja) | 2005-01-05 |
Family
ID=18289805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33554794A Expired - Fee Related JP3608237B2 (ja) | 1994-12-20 | 1994-12-20 | ニューラルネットワークの学習装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3608237B2 (ja) |
-
1994
- 1994-12-20 JP JP33554794A patent/JP3608237B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH08180033A (ja) | 1996-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Heiat | Comparison of artificial neural network and regression models for estimating software development effort | |
Bai et al. | Prediction of SARS epidemic by BP neural networks with online prediction strategy | |
KR20170136357A (ko) | 인공 신경망 기반 예측 모델 생성 장치 및 방법 | |
Hsieh et al. | Optimization of multiple quality responses involving qualitative and quantitative characteristics in IC manufacturing using neural networks | |
Chen | An effective fuzzy collaborative forecasting approach for predicting the job cycle time in wafer fabrication | |
US5455890A (en) | Method for structuring an expert system utilizing one or more neural networks | |
Li et al. | Complex neural fuzzy system and its application on multi-class prediction—A novel approach using complex fuzzy sets, IIM and multi-swarm learning | |
JP3608237B2 (ja) | ニューラルネットワークの学習装置 | |
CN112287120A (zh) | 一种基于强化学习的双系统知识图谱的知识推理方法 | |
JPH03250243A (ja) | 神経回路網演算装置 | |
WO2022249518A1 (ja) | 情報処理装置、情報処理方法、情報処理プログラム、及び学習モデル生成装置 | |
Miche et al. | A faster model selection criterion for OP-ELM and OP-KNN: Hannan-Quinn criterion. | |
JP7551577B2 (ja) | 学習装置、方法及びプログラム | |
Chun et al. | Impact of momentum bias on forecasting through knowledge discovery techniques in the foreign exchange market | |
US5724486A (en) | Method for structuring an expert system utilizing one or more polynomial processors | |
Seung | Multilayer perceptrons and backpropagation learning | |
CN110853754A (zh) | 一种在非确定性和非完整性条件下的决策支持系统方法 | |
Jamal | Neural network and cellular manufacturing | |
Sewak et al. | In pursuit of the best Artificial Neural Network for predicting the most complex data | |
Co | Confirmation testing of the Taguchi methods by artificial neural-networks simulation | |
Hndoosh et al. | Mathematical structure of fuzzy modeling of medical diagnoses by using clustering models | |
JPH0410130A (ja) | ニューラルネットワークを用いたエキスパートシステムのルールベースの自動調整方法及び装置 | |
Mishra | Developing intelligent index for fuzzified inventory of supply chain by using neural computing | |
Cao et al. | On the use of subproduct in fuzzy relational compositions based on grouping features | |
US5528729A (en) | Neural network learning apparatus and learning method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041004 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071022 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071022 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081022 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091022 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101022 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |