JP2003030622A - ニューラルネットワーク、その学習方法 - Google Patents

ニューラルネットワーク、その学習方法

Info

Publication number
JP2003030622A
JP2003030622A JP2001210780A JP2001210780A JP2003030622A JP 2003030622 A JP2003030622 A JP 2003030622A JP 2001210780 A JP2001210780 A JP 2001210780A JP 2001210780 A JP2001210780 A JP 2001210780A JP 2003030622 A JP2003030622 A JP 2003030622A
Authority
JP
Japan
Prior art keywords
neural network
product
learning
prior application
coupling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001210780A
Other languages
English (en)
Inventor
Tatsuya Iizaka
達也 飯坂
Tetsuo Matsui
哲郎 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2001210780A priority Critical patent/JP2003030622A/ja
Publication of JP2003030622A publication Critical patent/JP2003030622A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 【課題】 予測・診断等の精度が高く、且つ適切な解析
も可能な構造のニューラルネットワークを提供する。 【解決手段】 先出願(特願2000-230665 )のニューラ
ルネットワーク構造を前提とし、更に部分的に積結合を
有する構造とする。部分的にとは、例えば全結合部分2
0の中間層素子だけに積結合を持つ構造とする。上記先
出願におけるニューラルネットワークの解析は、疎結合
部分の入出力特性を解析する方法であり、全結合部分は
従来同様解析困難な部分である。つまり、解析困難な部
分にだけに積結合を持つため、不要な結合の発生が抑制
され汎化能力が向上するとともに、学習時間の増加を最
低限に防いでいる。また積成分の結合は複雑で解析困難
になりやすいが、解析対象の疎結合部分には積成分を持
たないため、解析容易である。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ニューラルネット
ワークに関する。
【0002】
【従来の技術】ニューラルネットワークは、学習能力を
持ち、非線形性、パターンマッチングに優れており、制
御、予測、診断など多くの分野に用いられている。
【0003】ニューラルネットワークは、多くの構造が
提案されているが、実用化されたその多くは、階層型、
特に以下の(1)式のシグモイド関数を持つニューロン
素子を2つ重ねた3階層型(例えば図16に示す)がほ
とんどである。
【0004】
【数1】
【0005】階層型ニューラルネットワークは、バック
プロパゲーション法と呼ばれるアルゴリズムにより学習
され、内部の結合状態が調整される。こうして学習した
ニューラルネットワークは、学習データと同一のデータ
を与えると学習データとほぼ同一の出力をし、学習デー
タに近い入力を与えると学習データに近い出力をする特
徴がある。最小二乗法で構築される回帰式と比較する
と、ニューラルネットワークは非線形性に優れるが、内
部構造が複雑で解析困難なため、未知データに対しては
どのような出力をするか分からない、どうしてそういう
出力結果をしたか分からない等の欠点がある。
【0006】上記欠点を克服する為の発明として、本出
願人は、既に、特願2000-166528「解析可能なニューラ
ルネットワーク構造、学習法、解析法及びその装置」
(以下、先出願aという)、特願2000-230665「ニュー
ラルネットワークの学習方法」(以下、先出願bとい
う)を提案している。
【0007】これらは、従来のニューラルネットワーク
と互換性をもちつつ、上記欠点を克服する技術である。
いずれの発明も、図17に示すニューラルネットワーク
構造であり、疎結合部分で入出力の独立した関係を学習
し、全結合部分で各入出力の複雑な相互作用分を学習す
る。適切に学習できた場合には、疎結合部分から入出力
の独立した関係を抽出することが可能であり、全結合部
分から相互作用分を抽出することができる。通常、相互
作用分は非常に複雑なため解析対象からはずすことが多
い。
【0008】上記2つの発明の違いは、先出願aは規模
の大きなニューラルネットワークで学習を開始し、不要
な部分を削除していく学習法(図18)であるのに対
し、先出願bの発明はニューラルネットワークを部分ご
とに学習していく方法(図19)であることである。
【0009】以下、先出願a、先出願bの発明による学
習法について、各々、図18、図19を参照して簡単に
説明する。まず、図18を参照して、先出願aの学習方
法について簡単に説明する。 (A1)図18(a)は、学習開始前のニューラルネッ
トワーク構造を示し、各サブネットワークごとに2つの
中間層素子を有している(合計8つ)。尚、サブネット
ワークとは、疎結合部分、全結合部分の両方を意味す
る。 (A2)図18(b)の学習段階では、上記疎結合部分
と全結合部分の中間層素子を交互に配置する(構造概略
決定)。 (A3)図18(c)では、図18(b)の学習を経て
いるため、成長によって幾つかの中間層素子が削減され
ている(構造の明確化)。 (A4)図18(d)は、通常の重畳エネルギー関数法
による学習を、図18(c)の後に行った結果を示す。 (A5)図18(e)には、上記学習によって構築され
るネットワーク構造を示す。
【0010】次に、図19を参照して、先出願bの学習
方法について簡単に説明する。 (B1)図19(a)は、学習開始時の構造である。解
析目的に応じて疎結合グループを決定し、疎結合をまた
ぐ結合は削除し、残った結合は小さな乱数で初期化す
る。 (B2)図19(b)は、1回目の学習を行う段階であ
り、各疎結合ごとに独立して学習を行う(疎結合グルー
プ数はN個あるとする)。 (B3)図19(c)は、独立して学習したN個の疎結
合を結合して1つのネットワークとして学習する段階で
ある。中間層−出力層間の重み結合の大きさを1/Nに
してから学習を開始する。 (B4)図19(d)の段階では、全結合を付加してさ
らに学習を行う。図19(c)の段階のニューラルネッ
トワークは、独立した成分は学習可能であるが、各因子
の相互作用等は学習できない。そこで、全結合を付加す
ることで、相互作用分も学習する。 (B5)図19(e)には、上記学習によって構築され
るネットワーク構造を示す。
【0011】
【発明が解決しようとする課題】ニューラルネットワー
クは、その学習能力、非線形能力、パターンマッチング
など優れた能力のため、多くの分野に利用されている
が、内部構造が複雑なためにその出力値がどうして出力
されたかを容易に説明することが困難であった。
【0012】上記先出願aは、ニューラルネットワーク
を解析し出力値の理由を説明することが可能であるが、
学習の状態によっては、必ずしも適切な解析結果が得ら
れるとは限らなかった。この原因は、入出力の独立した
関係の一部が疎結合部分ではなく全結合部分で学習され
ることがあるからである。これを解消する為の先出願b
の発明は、適切な解析結果が得られやすい利点がある
が、予測・診断等の精度は、先出願aの発明と比較する
と若干劣ることがある。
【0013】ここで、近年、例えば図20に示すような
積結合を持つニューラルネットワークが、その情報処理
能力の高さから注目されている(例えば、「PDPモデ
ル認知科学とニューロン回路網の探索」D.E.ラメル
ハート、J.L.マクレランド、PDPリサーチグルー
プ、甘利俊一監訳;産業図書、「多層高次神経回路網の
能力に関する一考察」馬立新、小田幹雄、宮島廣美;電
学論C,119巻3号,平成11年、「積結合をもつ神
経回路網による連想記憶能力」屋附秀司、宮島廣美、村
島定行;電子情報通信学会論文誌 D−II Vol.J79-D-
II No.11 pp.1929-1939 1996年11月・・・等で
紹介されている。その各ユニットは、シグマ−パイ・ユ
ニット)sigma-pi unit)と呼ばれている)。一般に、
積結合ニューロは、通常ニューロよりも学習能力が高
い。但し、入力因子が多い場合には、汎化能力は低い傾
向にある。
【0014】このタイプのニューラルネットワークは、
各ニューロンの積の成分を持つことが特徴である。応答
関数は以下の(2)式の通り。
【0015】
【数2】
【0016】積結合をもつニューラルネットワークは、
学習能力が高いという利点がある。よって、積結合を持
つニューラルネットワークに先出願bの発明を適用する
ことで、適切な解析結果が得られやすいという利点はそ
のままに、予測・診断等の精度を向上させることができ
る可能性があるが、以下に列挙する問題点があった。 1)積結合ニューロは、結合の数が非常に多く、学習の計
算量が膨大である。特に、入力層素子や中間層素子が多
くなると指数関数的に学習時間がかかる欠点がある。 2)積結合ニューロは、学習能力は高いが汎化能力が低
い。つまり、学習時に与えられた問題に対しては、非常
に小さい誤差で学習可能であるが、実際に予測・診断等
に適用すると、精度が上がらないことが多い。これは、
過学習と呼ばれる現象であり、学習した問題のノイズ成
分までも学習してしまうことが原因である。不要な結合
を削除することで、汎化能力が向上すると言われるが、
積結合ニューロは結合が非常に多く、適切に不要結合を
削除することが難しい。 3)積結合ニューロに先出願bの発明を単純に適用するだ
けでは、理解しやすい解析結果が得られない。これは、
積結合ニューロは、結合が多く、さまざまな結合形態が
許されるため、理解しづらい結合形態になることが多い
からである。
【0017】特に問題になるのは、2)3)の理由であり、
先出願bの発明において、予測・診断等の精度を向上さ
せようとして積結合を適用しても、実際には精度が低下
することが多い。また理解し易い解析結果が得られるこ
とは稀である。
【0018】尚、図21には、積結合を持つニューラル
ネットワークに先出願bの発明を単純に適用した例を示
す。この場合、図示のように全ての素子において積結合
を持つ構造となるが(図では積結合部分のみ示している
が、実際には、サブグループ間において独立している複
数の疎結合部分と、全ての入力因子との結合を持つ1つ
の全結合部分も持つ;つまり図17に示すニューラルネ
ットワーク構造が省略されて示されている;また、図示
の例では、疎結合部分のうちのB及びCは、入力層の素
子数が1つである為に積結合が存在しないだけであり、
入力層の素子数が複数であれば積結合は存在する)、上
述したように、このような積結合を単純に適用した構造
では、結合が多いために学習時間が掛かる、汎化能力が
劣る、理解しやすい解析結果が得られない等の欠点があ
る。
【0019】本発明の課題は、上記問題点を解決し、予
測・診断等の精度が高く、且つ適切な解析も可能な構造
のニューラルネットワーク、その学習方法を提供するこ
とである。
【0020】
【課題を解決するための手段】本発明によるニューラル
ネットワーク構造は、階層型構造のニューラルネットワ
ークにおいて、一部の入力層素子と一部の中間層素子が
結合する疎結合部分を複数有し、または、該複数の疎結
合部分と、全ての入力層素子が特定の中間層素子と結合
する全結合部分とを有し、部分的に積の結合を持つよう
に構成する。
【0021】上述したように、積結合を単純に先願(特
願2000-230665 )に適用した場合には、結合が多いため
に、学習時間が掛かる/汎化能力が劣る/理解しやすい
解析結果が得られない等の欠点があるが、本発明によれ
ば部分的に積の結合を持つ、すなわち結合数を少なくす
る為、上記欠点を解消できる。
【0022】特に、例えば、前記部分的な積の結合は、
前記全結合部分に対する積の結合となるように構成す
る。全結合部分は、解析困難な部分である。つまり、解
析困難な部分にだけに積結合を持つため、不要な結合の
発生が抑制され汎化能力が向上するとともに、学習時間
の増加を最低限に防いでいる。また積成分の結合は複雑
で解析困難になりやすいが、解析対象の疎結合部分の中
間層素子には積成分を持たないため、先願と同様に解析
し易いものとなる。
【0023】また、本発明によるニューラルネットワー
クの学習方法は、各疎結合部分毎に各々独立して学習を
行わせ、 該学習済みの全ての疎結合部分を結合して第
1のネットワークを生成し、該第1のネットワークに学
習を行わせて第2のネットワークを生成し、該第2のネ
ットワークに全結合部分を結合して第3のネットワーク
を生成して学習を行わせる際に、一部に積成分を付加す
る。
【0024】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。図1は、本例によるニュー
ラルネットワークの学習方法について説明する為のフロ
ーチャート図である。本例の学習法は、ステップS1〜
S3の処理までは、先出願bの学習方法における図19
(a)〜(c)の処理とほぼ同じである。すなわち、ま
ず、解析目的に応じて疎結合グループを決定し、疎結合
をまたぐ結合は削除し、残った結合は小さな乱数で初期
化する(ステップS1;図19(a)に相当)。
【0025】次に、各疎結合ごとに独立して学習を行う
(ステップS2;図19(b)に相当)。この段階では
積成分はもたない(積成分を持てば、全ての素子が積成
分を持つため、学習時間が増大するので)。尚、疎結合
部分は、N個あるとする。
【0026】次に、上記独立して学習したN個の疎結合
を結合して1つのネットワークとして、更に学習させる
(ステップS3;図19(c)に相当)。その際、中間
層−出力層間の重み結合の大きさを1/Nにしてから、
学習を開始する。
【0027】そして、ステップS3で学習済みの上記1
つのネットワークに対して、図19(d)では全結合を
付加してさらに学習を行っていたが、本例では全結合を
付加すると共に一部に積成分を付加して学習させる(ス
テップS4)。積成分を付加するタイミングは、ステッ
プS4の処理のはじめからでもよいし、ステップS4の
最初は積成分なしで学習し、その後の任意のときに積成
分を追加してもよい。
【0028】尚、先出願bでも述べているが、上記の各
学習段階における学習アルゴリズムとしては、バックプ
ロパゲーション法を用いてもよいが、特願平11-066165
や特願2000-071011 の発明の学習方法を用いるほうが、
良好な結果が得られる。これらの発明の学習方法は、不
要な中間層素子や結合を少なくできるものであるので、
汎化能力(例題の学習により、未学習の入力データに対
して妥当な出力を生成できる能力)が高いネットワーク
を構築できる。
【0029】本発明の最大の特徴は、上記ステップS4
のように、部分的に積成分を付加して学習することにあ
る。本発明は、出力値が説明可能(内部解析可能)なニ
ューラルネットワーク構造において、積結合を部分的に
採用することで、内部解析可能かつ、汎化能力が高いニ
ューラルネットワークの構造とその学習方法を提供する
ものである。
【0030】このように積結合を部分的に採用したニュ
ーラルネットワーク構造を、図2〜図5に示す。尚、図
2〜図5は、積結合のみを示すものとし、他の結合(例
えば図17に示す結合)は省略して示してある。また、
積結合についても、その数が多すぎる場合には、一部省
略して示してある。
【0031】図2〜図5のなかで、図2の構造が最も優
れている(ベストモード)。図2は、全結合部分20の
中間層素子だけに積結合を持つ構造である。ニューラル
ネットワークの解析は、疎結合部分10の入出力特性を
解析する方法であり、全結合部分20は、従来同様、解
析困難な部分である。つまり、解析困難な部分にだけに
積結合を持つため、不要な結合の発生が抑制され汎化能
力が向上するとともに、学習時間の増加を最低限に防い
でいる。また積成分の結合は複雑で解析困難になりやす
いが、解析対象の疎結合部分10の中間層素子には積成
分を持たないため、先出願bと同様に解析し易いものと
なる。
【0032】上記ステップS4で図2の構造を適用する
には、例えば、ごく小さな乱数で初期化された積結合
を、全結合部分20の中間層素子だけに付加して学習を
行う。このようにすると、疎結合部分10の構造をほと
んど壊すことなく、学習性能を向上させることができ
る。また付加する積結合は全結合部分20だけであるの
で、汎化能力が著しく低下することはおきない。
【0033】図3、図4、図5は、積結合を部分的に採
用したニューラルネットワーク構造の他の例である。各
々が、積結合の部分的な採用方法として以下に述べる条
件下で作成されたものの一例である。よって、図示の例
に限るわけではなく、以下に述べる条件を満たすもので
あれば、どのような構造であってもよい。
【0034】図3は、「積結合は中間層−出力層間の
み」という条件下で作成されたニューラルネットワーク
構造の一例を示す図である。図4は、「積結合は中間層
−出力層間のみ」且つ「同じ疎結合内の積結合を禁止」
という条件下で作成されたニューラルネットワーク構造
の一例を示す図である。
【0035】図5は、「積結合は同じ疎結合内の積結合
のみ」という条件下で作成されたニューラルネットワー
ク構造の一例を示す図である。尚、図示の例では、疎結
合部分10のうちのB及びCについては、入力層の素子
数が1つである為に、入力層素子−中間層素子間の積結
合(各々、中間層素子3、4に対する積結合/中間層素
子5、6に対する積結合)が存在しないだけであり、入
力層の素子数が複数であれば上記積結合は存在する。
【0036】上記の通り、図2〜図5のなかで、図2の
構造が最も優れているのであり、図2と比較した場合に
は各々以下の通りとなる。まず、図3、図4の構造は、
各疎結合間の積の成分規則抽出が可能である。特に図4
の構造は、結合を図3の構造よりも制限しているので、
計算が高速であり、不要結合も生じづらい利点がある。
但し、積成分の抽出は可能であるが、抽出した規則が複
雑となる傾向にあり、必ずしも理解容易とはならない。
【0037】図5の構造は、他のサブネットワークとの
結合を禁止している。つまり他の積成分の規則抽出はで
きないため、理解しやすい構造が得られる可能性はある
が、ネットワークの自由度が高すぎるために、図2と比
較すると、良好な結果が得られない可能性が残る。
【0038】以上、本例によるニューラルネットワーク
構造、学習方法について説明した。以下には、本例によ
るニューラルネットワーク構造/学習方法、先出願aの
手法、先出願bの手法、積結合ニューロの各々につい
て、本出願の発明者等が実際に行った実験結果について
説明する。この例では、翌日電力需要量予測を例題とし
ている。
【0039】学習対象のデータは、翌日の電力需要を予
測するためのデータであり、ニューラルネットワークの
入出力データは図6(a)に、学習等の条件は図6
(b)に示す。
【0040】図6(a)に示す通り、入力因子は、電力
(最大電力)、気象(最高気温、最低気温、最小湿度、
天気)、特異日フラグ(土曜、休日)である。電力(最
大電力)は、前日(i−1;iは当日)と7日前(i−
7)のデータを入力する。気象(最高気温、最低気温、
最小湿度、天気)は、季節によって異なるが、例えば
“春”については当日i〜2日前(i−2)までのデー
タを入力する。特異日フラグ(土曜、休日)は、当日i
〜2日前(i−2)までとする。また、天気は、数値化
(晴れ:1、曇り:2、雨:3、雪:4)して入力す
る。また、特異日フラグは、平日を0、土曜/休日を1
としている。尚、当日iとは、学習後の翌日電力需要量
予測処理においては予測対象日(つまり“翌日”)を意
味するものとなる。
【0041】また、学習等の条件は、図6(b)に示す
通りであるが、特にここで、学習データが「春期のみ
または 1年間」となっているのは、後述する図9、図
12、図13が春期のみを学習させて春期の翌日電力需
要量予測処理を実行した結果を示すものであるのに対
し、図10、図11、図14は1年間分学習させて1年
間の翌日電力需要量予測処理を実行した結果を示すもの
であることを意味している。
【0042】本例で用いた学習データの特徴を図7
(a)、(b)に示す。翌日の電力需要と気温との間に
は、図7(a)に示すように、下に凸の2次の関係があ
る。これは、気温が低い時には暖房機を、気温が高い時
には冷房機を動かすために電力需要が増大するためであ
る。また、1週間前の電力とは図7(b)に示すように
右肩上がりの関係がある。
【0043】つまり、先出願aでも述べているが、通
常、電力需要量を下げる要因は、気温が中程度であって
至近の電力需要量が小さいことであり、逆に電力需要量
を上げる要因は、気温が高すぎるか低すぎるかのどちら
かに偏り、至近の電力需要量が大きいことである。尚、
平日は電力需要が高く、土曜・休日は電力需要が低い関
係がある。
【0044】このような関係が適切に抽出でき且つ予測
精度が高いニューラルネットワークが望ましいのであ
り、以下、上記学習対象データを用いて学習を行わせた
後のニューラルネットワーク構造の解析結果、及び学習
後のニューラルネットワークを用いて1年間、翌日の電
力需要の予測を行わせた結果について説明する。
【0045】まず、先出願aと先出願bとを比較する。
図8(a)、図8(b)は、先出願aと先出願bの発明
の各々の学習により得られたニューラルネットワークの
構造である。図8(a)は先出願aによる構造、図8
(b)は先出願bによる構造を示す。
【0046】これらについては、実際にこのような結果
になったものであるので、特に説明はしない。尚、本例
によるニューラルネットワーク構造は、ほぼ「図8
(b)のニューラルネットワーク構造+図2〜図5のい
ずれかの積結合」と同等となる。
【0047】図9(a)、図9(b)は、先出願a、先
出願bの各々の発明によって学習したニューラルネット
ワークの解析結果である。図9(a)は図8(a)のニ
ューラルネットワークの解析結果、図9(b)は図8
(b)のニューラルネットワークの解析結果である。
【0048】図9(a)、図9(b)において、横軸は
入力層への入力値であり、電力(1週間前電力)、気
温、フラグ(特異日フラグ)、全結合の各々について、
0〜1の値に正規化したものを用いている。縦軸は、入
力値の変化(出力層)であり、各入力の変化に応じた中
間層素子出力(中間層から出力層への出力)の変化を示
すものである。図7で説明した通り、本学習で用いたデ
ータは、出力すなわち翌日の電力需要と入力との関係
は、1週間前の電力とは右肩上がりの関係、気温とは2
次の関係がある。また、平日(フラグ;0)は電力需要
が高く、土曜・休日(フラグ;1)は電力需要が低い関
係がある。
【0049】図9(a)、図9(b)を参照すると、両
方とも、出力(翌日の電力需要)と電力(1週間前電
力)とは右肩上がりの関係が見られる。また、フラグが
0に近いほど電力需要が高くなり、フラグが1に近いほ
ど電力需要が低いなる関係が見られる。
【0050】出力(翌日の電力需要)と気温との関係に
ついては、図9(a)を参照すれば分かるように、先出
願aの発明では、上記2次の関係が適切に抽出できてい
ない。一方、図9(b)を参照すれば分かるように、先
出願bの発明では、上記2次の関係が適切に抽出できて
いる。
【0051】図10には、上記先出願aと先出願bの発
明によって学習したニューラルネットワークによる予測
結果(ここでは1年間の電力需要予測を行った)を示
す。図示の通り、1年間の予測精度は、先出願aの発明
の方が良好であった。
【0052】尚、同図において「平均誤差」は毎日の%
誤差を単純平均したものであり、これは参考までに示し
ているだけである。一方、「絶対値平均誤差」は毎日の
%誤差の符号を取ったものの平均値であり、予測精度の
判断にはこの値が重要である。また、「標準偏差」は毎
日の%誤差の標準偏差である。
【0053】このように、先出願aの発明では、学習デ
ータの関係を適切に抽出できないことがある反面、予測
精度は良好である。一方、先出願bの発明は、先出願a
の発明よりも規則の抽出能力が高いが、予測精度が若干
劣る欠点がある。
【0054】尚、以上のことは、既に上記「発明が解決
しようとする課題」で説明してあることであり、それが
実際の実験により裏付けられていることを、ここで示し
ただけである。
【0055】次に、通常ニューロと積結合ニューロの予
測精度の差について比較する。2つのニューロの汎化能
力を単純に比較するため、解析可能なニューロ構造にせ
ず(疎結合を作っていない)、全ての素子が結合する従
来のニューラルネットワーク構造で学習した結果を比較
した。
【0056】予測精度は、図11に示す通りであり(上
記の通り特に「絶対値平均誤差」が重要)、本例のよう
に入力因子が多い場合には、積結合ニューロの予測精度
は通常ニューロよりも低い。
【0057】一般に、積結合ニューロは通常ニューロよ
りも学習能力が高いが、入力因子が多い場合には汎化能
力は低い傾向にある。これは、入力因子が多いと結合が
爆発的に増え、データのノイズまで学習してしまうため
である。尚、一方で、一般に、入出力関係に明らかな掛
け算成分が存在する場合及び入力因子が非常に少ない場
合には(例えばy=x12のような2入力1出力の掛け
算を学習させた場合等)、積結合ニューロの予測精度は
通常ニューロよりも高い傾向にある。
【0058】本例の電力需要予測のように入力因子が多
い場合には、積結合ニューロは、結合が爆発的に増える
ため、汎化能力が低下する(よって、予測精度が低下す
る)。つまり、積結合ニューロを先出願bに単純に適用
するだけでは、逆に予測精度が低下する恐れがある。ま
た、後述するが、積の関係のため、入出力特性が理解し
づらくなる欠点もある。
【0059】但し、以上の事は、一般的な通常ニューロ
と積結合ニューロについての比較結果であり、本例のよ
うに部分的に積結合を先出願bに適用した場合、以下に
述べる結果となる。
【0060】図12、図13は、春季電力需要の関係を
学習したニューラルネットワークの解析結果である。図
12(a)は、積結合を持たないネットワーク構造の解
析結果であり(先出願bのもの;図9(b)と同じも
の)、図7(a)に示した関係が適切に抽出されてい
る。
【0061】図12(b)は、図2に示す構造、すなわ
ち全結合部分にだけ積結合を持つ構造の解析結果であ
る。図示の通り、図12(a)と同様に良好な結果であ
る。図13(a)は、従来で説明した、単純に積結合を
適用した構造、すなわち全ての素子に積結合を持つ構造
の解析結果である。図示の通り、気温とフラグの掛け算
の関係が存在するために、気温と電力の2次の関係が理
解しづらい。
【0062】図13(b)、図13(c)は、各々、図
4、図5に示す構造の解析結果である。図13(b)の
場合も、図13(a)と同様、掛け算の成分により、理
解しづらい関係が抽出されている。
【0063】図13(c)では、気温の2次の関係が抽
出できており、一見理解しやすい規則が抽出できている
が、図7(a)の実データの形状と比較して異なり、適
切な規則抽出とはいえない。
【0064】本実施例が示すように、積結合を持つニュ
ーラルネットワークは学習能力が高い反面、さまざまな
結合形態が許されるために、単純に先出願bの発明を適
用するだけでは理解しづらい解析結果しか得られない。
本発明では、積の結合を制限することで、適切な解析結
果が得られる利点がある。
【0065】図14に、本発明(図2に示す構造)によ
る予測結果と先出願bの発明による予測結果とを、比較
して示す。図示の通り、本発明では、先出願bの発明よ
りも良好な結果を示した。
【0066】このように、本発明によればニューラルネ
ットワークの入出力特性を理解しやすい状態で学習・解
析することができるだけでなく、予測精度も非常に高い
という実験結果が得られた。
【0067】通常のニューラルネットワークは、内部構
造がブラックボックスと扱われ、入出力特性の解析は困
難である。ニューラルネットワークを解析する手法とし
て、先出願aの発明があるが、必ずしも学習データから
適切な関係が抽出できるとは限らなかった。先出願b
は、これを改善するための発明であり、規則の抽出能力
が高いが、予測・診断等の精度は先出願aで学習したニ
ューラルネットワークに劣ることが多い。
【0068】本発明によれば、先出願bと同様に理解し
やすい解析結果が得られるだけでなく、高い予測能力が
得られる。図15は、上述したニューラルネットワーク
装置の一実現形態である情報処理装置のハードウェア構
成図である。
【0069】同図に示す情報処理装置30は、CPU3
1、記憶装置32、入力装置33、出力装置34、媒体
駆動装置35、ネットワーク接続装置36等を有し、こ
れらがバス37に接続された構成となっている。同図に
示す構成は一例であり、これに限るものではない。
【0070】CPU31は、当該情報処理装置30全体
を制御する中央処理装置であり、後述する記憶装置32
等に格納されるデータ/プログラムに基づいて、上述し
た各種処理を実行する。
【0071】記憶装置32は、例えばHDDや、ROM
/RAM/フラッシュメモリ等のメモリであり、ニュー
ラルネットワークのデータベース構造(入力層/中間層
/出力層素子の数、重みの大きさ)等が格納される。ま
た、上述した各種処理をCPU31で実行させるプログ
ラムを格納している。
【0072】入力装置33は、例えば、キーボード、マ
ウス等である。出力装置34は、ディスプレイ等であ
り、上述したニューラルネットワークの演算結果等を表
示する。
【0073】媒体駆動装置35は、可搬記憶媒体38に
記憶されているプログラム/データ等を読み出す。可搬
記憶媒体38は、例えば、FD(フロッピー(登録商
標)ディスク)38a、CD−ROM38b、その他、
DVD、光磁気ディスク等である。上記記憶装置32に
格納されるプログラム/データは、可搬記憶媒体38に
記憶されているものであってもよい。すなわち、上述し
た各種処理は、この可搬記憶媒体38に記憶されている
プログラム/データ等を、媒体駆動装置35を介して情
報処理装置30側にロードして実行するものであっても
よい。
【0074】ネットワーク接続装置36は、ネットワー
クに接続して、外部の情報処理装置等とプログラム/デ
ータ等の送受信を可能にする構成である。また、上記プ
ログラム/データは、ネットワーク接続装置36により
接続しているネットワーク(インターネット等)を介し
て、外部の情報提供者側の装置の記憶装置に記憶されて
いるプログラム/データをダウンロードするものであっ
てもよい。
【0075】本発明は、上記プログラム/データを格納
した記憶媒体(可搬記憶媒体38等)自体として構成す
ることもできるし、プログラム自体として構成すること
もできる。
【0076】
【発明の効果】以上、詳細に説明したように、本発明の
ニューラルネットワーク、その学習方法によれば、理解
しやすい解析結果が得られるだけでなく、高い予測能力
が得られる。
【図面の簡単な説明】
【図1】本例によるニューラルネットワークの学習方法
について説明する為のフローチャート図である。
【図2】本例によるニューラルネットワーク構造の一例
を示す図(その1)である(但し、積結合以外の結合は
省略)。
【図3】本例によるニューラルネットワーク構造の一例
を示す図(その2)である(但し、積結合以外の結合は
省略)。
【図4】本例によるニューラルネットワーク構造の一例
を示す図(その3)である(但し、積結合以外の結合は
省略)。
【図5】本例によるニューラルネットワーク構造の一例
を示す図(その4)である(但し、積結合以外の結合は
省略)。
【図6】(a)はニューラルネットワークの入出力デー
タ、(b)は学習条件を示す図である。
【図7】本例で用いた学習データの特徴を示す図であ
り、(a)は気温と翌日の電力需要との間の関係、
(b)は1週間前の電力と翌日の電力需要との間の関係
を示す図である。
【図8】(a)、(b)は、先出願aと先出願bの発明
の各々の学習により得られたニューラルネットワークの
構造である。
【図9】先出願aと先出願bの発明によって学習したニ
ューラルネットワークの解析結果を示す図である。
【図10】先出願aと先出願bの発明によって学習した
ニューラルネットワークによる予測結果を示す図であ
る。
【図11】通常ニューロと積結合ニューロの予測精度を
示す図である。
【図12】電力需要の関係を学習したニューラルネット
ワークの解析結果(その1)である。
【図13】電力需要の関係を学習したニューラルネット
ワークの解析結果(その2)である。
【図14】本例による予測精度と先出願bの発明による
予測精度とを示す図である。
【図15】ニューラルネットワーク装置の一実現形態で
ある情報処理装置のハードウェア構成図である。
【図16】一般的な階層型ニューラルネットワーク(3
階層型)を示す図である。
【図17】先出願のニューラルネットワーク構造を示す
図である。
【図18】(a)〜(e)は、先出願aにおける学習方
法を説明する為の図である。
【図19】(a)〜(e)は、先出願bにおける学習方
法を説明する為の図である。
【図20】積結合を持つニューラルネットワーク構造の
一例を示す図である。
【図21】積結合を持つニューラルネットワークに先出
願bを単純に適用した例を示す図である(但し、積結合
以外の結合(図16に示す結合)は省略)。
【符号の説明】
10 疎結合部分 20 全結合部分 30 情報処理装置 31 CPU 32 記憶装置 33 入力装置 34 出力装置 35 媒体駆動装置 36 ネットワーク接続装置 37 バス 38 可搬記憶媒体 38a FD(フロッピーディスク) 38b CD−ROM

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 階層型構造のニューラルネットワークに
    おいて、 一部の入力層素子と一部の中間層素子が結合する疎結合
    部分を複数有し、 部分的に積の結合を持つことを特徴とするニューラルネ
    ットワーク。
  2. 【請求項2】 階層型構造のニューラルネットワークに
    おいて、 一部の入力層素子と一部の中間層素子が結合する複数の
    疎結合部分と、全ての入力層素子が特定の中間層素子と
    結合する全結合部分とを有し、 部分的に積の結合を持つことを特徴とするニューラルネ
    ットワーク。
  3. 【請求項3】 前記部分的な積の結合は、前記全結合部
    分に対する積の結合であることを特徴とする請求項2記
    載のニューラルネットワーク。
  4. 【請求項4】 各疎結合部分毎に各々独立して学習を行
    わせ、 該学習済みの全ての疎結合部分を結合して第1のネット
    ワークを生成し、 該第1のネットワークに学習を行わせて第2のネットワ
    ークを生成し、 該第2のネットワークに全結合部分を結合して第3のネ
    ットワークを生成して学習を行わせる際に、一部に積成
    分を付加することを特徴とするニューラルネットワーク
    の学習方法。
JP2001210780A 2001-07-11 2001-07-11 ニューラルネットワーク、その学習方法 Pending JP2003030622A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001210780A JP2003030622A (ja) 2001-07-11 2001-07-11 ニューラルネットワーク、その学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001210780A JP2003030622A (ja) 2001-07-11 2001-07-11 ニューラルネットワーク、その学習方法

Publications (1)

Publication Number Publication Date
JP2003030622A true JP2003030622A (ja) 2003-01-31

Family

ID=19046197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001210780A Pending JP2003030622A (ja) 2001-07-11 2001-07-11 ニューラルネットワーク、その学習方法

Country Status (1)

Country Link
JP (1) JP2003030622A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023012863A1 (ja) * 2021-08-02 2023-02-09 富美男 大庭 ニューラルネットワーク演算方法及びデータ分類システム
JP7493699B2 (ja) 2021-08-02 2024-06-03 富美男 大庭 ニューラルネットワーク演算方法及びデータ分類システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042107A (ja) * 2000-07-31 2002-02-08 Fuji Electric Co Ltd ニューラルネットワークの学習方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042107A (ja) * 2000-07-31 2002-02-08 Fuji Electric Co Ltd ニューラルネットワークの学習方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023012863A1 (ja) * 2021-08-02 2023-02-09 富美男 大庭 ニューラルネットワーク演算方法及びデータ分類システム
JP7493699B2 (ja) 2021-08-02 2024-06-03 富美男 大庭 ニューラルネットワーク演算方法及びデータ分類システム

Similar Documents

Publication Publication Date Title
Banabilah et al. Federated learning review: Fundamentals, enabling technologies, and future applications
Albayrak et al. Development a new mutation operator to solve the traveling salesman problem by aid of genetic algorithms
Gotmare et al. Swarm and evolutionary computing algorithms for system identification and filter design: A comprehensive review
TW202032422A (zh) 用於分析關係網路圖的神經網路系統和方法
CN112035746A (zh) 一种基于时空序列图卷积网络的会话推荐方法
JP2002251597A (ja) 最適解探索装置、最適化アルゴリズムによる制御対象の制御装置及び最適解探索プログラム
CN111160217B (zh) 一种行人重识别系统对抗样本生成方法及系统
CN108717654B (zh) 一种基于聚类特征迁移的多电商交叉推荐方法
CN114064627A (zh) 一种针对多重关系的知识图谱链接补全方法及系统
Song et al. Multivariate electricity consumption prediction with extreme learning machine
CN117520995B (zh) 一种网络信息平台中异常用户检测方法及系统
Yu et al. Ensemble based on GA wrapper feature selection
CN114708479A (zh) 一种基于图结构和特征的自适应防御方法
JP2003030622A (ja) ニューラルネットワーク、その学習方法
Wang et al. Dynamic attributed graph prediction with conditional normalizing flows
Lu et al. Feature pyramid-based graph convolutional neural network for graph classification
Sampaio et al. Comparison of Response Surface Methodology and Artificial Neural Network for Modeling Xylose‐to‐Xylitol Bioconversion
CN112528556A (zh) 一种基于集成模型辅助社会学习粒子群算法的微机电系统设计优化方法
CN116976781A (zh) 时间位置依赖型多目标绿色车辆路径问题求解方法与装置
CN115713966A (zh) 一种基于多模态网络和宽度学习的药物相互作用预测方法
CN116304773A (zh) 基于图神经网络的社区发现方法
CN113822294A (zh) 图数据分类模型训练方法、装置、设备及存储介质
CN115102868A (zh) 一种基于SOM聚类与深度自编码器的web服务QoS预测方法
JP2002042107A (ja) ニューラルネットワークの学習方法
CN114254738A (zh) 双层演化的动态图卷积神经网络模型构建方法及应用

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100316