JPH05189397A - ニューラル・ネットワークの学習方法および情報処理システム - Google Patents

ニューラル・ネットワークの学習方法および情報処理システム

Info

Publication number
JPH05189397A
JPH05189397A JP4003677A JP367792A JPH05189397A JP H05189397 A JPH05189397 A JP H05189397A JP 4003677 A JP4003677 A JP 4003677A JP 367792 A JP367792 A JP 367792A JP H05189397 A JPH05189397 A JP H05189397A
Authority
JP
Japan
Prior art keywords
neural network
input
output
learning
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4003677A
Other languages
English (en)
Inventor
Yoji Taniguchi
洋司 谷口
Tadashi Hirose
正 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4003677A priority Critical patent/JPH05189397A/ja
Publication of JPH05189397A publication Critical patent/JPH05189397A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 【構成】少なくとも一つのノードから成る入力層と、少
なくとも一つのノードから成る一つ以上の中間層と、少
なくとも一つのノードから成る出力層によって構成され
る階層型ニューラル・ネットワーク(1)、入力値と出
力値の組から成る学習データ(2)、ニューラル・ネッ
トワークの出力値と学習データを比較する比較部
(3)、バック・プロパゲーション・アルゴリズムによ
ってニューラル・ネットワークのパラメータを修正する
パラメータ修正部(4)、重みが制約条件を満たすかど
うか監視し、満たさない場合に重みを修正する重み監視
部(5)から構成される。 【効果】ニューラル・ネットワークの学習に関して、教
師データの質や量が期待出来ない場合であっても、対象
領域特有の常識や知識を制約条件という形で導入するこ
とにより、提示された入力に対して適切な出力が得られ
るニューラル・ネットワークを生成することができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、階層型ニューラル・ネ
ットワークの学習方法およびそれを用いた情報処理シス
テムに関する。
【0002】
【従来の技術】従来の階層型ニューラル・ネットワーク
の学習方法は、例えば、特開平3−149646号に開
示されているように、バック・プロパゲーション・アル
ゴリズムを用いた学習の際、入出力データの組から成る
学習データに、効率良く合致させる方法を提供してい
る。
【0003】
【発明が解決しようとする課題】上述の従来技術におい
ては、対象領域の入出力値の組からなる学習データをよ
り多く収集し、ニューラル・ネットワークを、学習デー
タにいかに効率良く合致させるかということが目的とさ
れている。しかし、データにノイズが乗っていたり、数
少ないデータしか得られない場合に、望ましいネットワ
ークを生成することは非常に困難であった。
【0004】データの質や量が期待できない場合、対象
領域特有の常識や知識があれば、ニューラル・ネットワ
ークの学習に取り入れるべきである。
【0005】本発明の目的は、このような従来の課題を
解決し、対象領域に関する知識を制約条件という形で導
入することにより、データの質や量が期待できない場合
にも、提示された入力に対して適切な出力が得られるニ
ューラル・ネットワークを生成できる学習方法およびそ
れを用いた情報処理システムを提供することにある。
【0006】
【課題を解決するための手段】上記目的を達成するため
に、本発明は次のように構成される。(イ)階層型ニュ
ーラル・ネットワークの入出力の依存関係を制約条件と
して与える。また、(ロ)ノード間を結合しているシナ
プスの重みの値域に制限を与える。また、(ハ)上記の
入出力の依存関係が、入力値に応じた出力値の範囲の限
定である。また、(ニ)上記の入出力の依存関係が、入
力値の変化率に応じた出力値の変化率の範囲の限定であ
る。さらに、(ホ)ノード間を結合しているシナプスの
重みとしきい値の初期値をランダムに与え、入力値と出
力値の組から成る学習データの入力値を一つずつニュー
ラルネットワークに入力し、その際のニューラル・ネッ
トワークの出力値と対応する学習データの出力値を比較
して誤差を求め、誤差に応じてネットワーク中の各シナ
プスの重みとしきい値を修正し、重みに対して事前に与
えられた制限値域を逸脱していないか監視し、逸脱した
場合には制限値域内に戻す。また、本発明の情報処理シ
ステムとしての実施態様は、(ヘ)階層型ニューラル・
ネットワークを用いて、提示された入力値から適切な出
力値を得るための学習を行う手段と、ニューラル・ネッ
トワークに任意の値を入力し出力値を得る手段と、この
入出力値の関係を複数の手段で表示する手段を有する。
【0007】
【作用】本発明の望ましい実施態様によれば、(1)ニ
ューラル・ネットワークは、学習データと、ネットワー
クの入出力の依存関係を表す制約条件を用いて学習され
る。また、(2)ノード間を結合しているシナプスの重
みの値域に制限を与えられ、入出力に依存関係のあるニ
ューラル・ネットワークが構築される。
【0008】これにより、学習データの学習データの質
や量が期待出来ない場合であっても、対象領域特有の常
識や知識を制約条件という形で導入することにより、提
示された入力に対して適切な出力が得られるニューラル
・ネットワークを生成することができる。
【0009】
【実施例】以下、本発明の実施例を図1〜図7を用いて
詳細に説明する。
【0010】図1は、本発明の第1の実施例を示すニュ
ーラル・ネットワークの学習方式のブロック図であり、
階層型ニューラル・ネットワーク1、入力値と出力値の
組から成る学習データ2、ニューラル・ネットワーク1
の出力値と学習データを比較する比較部3、パラメータ
修正部4、重み監視部5から構成される。
【0011】まず、階層型ニューラル・ネットワーク1
のパラメータを初期化する。学習データ2の入力値を一
組ずつニューラル・ネットワーク1に入力する。その
際、出力された値と学習データ2の出力値を比較部3で
比較し、バック・プロパゲーション・アルゴリズムに基
づき、パラメータ修正部4でニューラル・ネットワーク
1のパラメータを修正する。重み監視部5は、パラメー
タ中の特に重みについて監視し、重みが制約条件を満た
さない場合、それを制約条件を満たすように修正する。
この入力・比較・修正・監視の過程を学習に必要な回数
分繰り返す。
【0012】図2、図3により、本発明の第1の実施例
をある高級な商品の関心度調査を例として説明する。
【0013】図2はこの商品の関心度調査データの例で
あり、調査番号21、年齢22、年収23、関心度24
からなり、年齢22、年収23を学習データ2の入力と
し、関心度24を出力とする。
【0014】ここで、年齢、年収共に高ければ高いほど
関心度は増加すると仮定し、これをこの商品の関心度に
関する知識とすると、年齢22と関心度24、そして年
収23と関心度24の間には、単調増加という関係があ
るということになる。この関係をニューラル・ネットワ
ーク1で実現するには、パラメータの一つである重みを
非負にすればよいことになる。
【0015】図3はこの例の処理手順を表すフローチャ
ートである。まず、パラメータ初期化の際、重みは非負
の乱数に設定する(301)。学習データ2の入力値で
あるテレビ放送費22とラジオ放送費23の組を一組ず
つニューラル・ネットワーク1に入力(302)して、
得られた出力値と学習データ2の出力値である知名度2
4を比較部3で比較(303)し、バック・プロパゲー
ション・アルゴリズムによりニューラル・ネットワーク
1のパラメータをパラメータ修正部4で修正する(30
4)。重み監視部5で重みについて監視(305)し、
重みが負なら重みに0を代入(306)し、重みが非負
ならステップ307に進む。ステップ307で全学習デ
ータについて終了したかどうかをチェックし、終了して
いなければステップ302に戻る。全学習データについ
て終了していれば、学習終了かどうかチェック(30
8)し、学習終了でなければステップ302に戻り、学
習終了なら処理を終了する。学習終了の基準としては、
例えば、学習データ2とニューラル・ネットワーク1の
出力との誤差の二乗和が許容範囲に達したこと、学習回
数が予定に達したことが挙げられる。
【0016】ある高級商品の関心度調査の例では、学習
データだけでニューラル・ネットワーク1を学習させる
と、年齢、年収共に高ければ高いほど関心度は増加する
という知識の示す単調増加性がニューラル・ネットワー
ク上に実現されない可能性がある。ニューラル・ネット
ワーク1の重みを非負に制限することにより、単調増加
性をニューラル・ネットワーク1に反映でき、よりイメ
ージに合ったモデリングができるという効果がある。
【0017】第1の実施例の変形例は次の通りである。
ある高級商品に関して、年齢・年収が最大限に高くても
関心度は100を超えないと仮定し、これを知識として
ニューラル・ネットワーク1に反映させる。そのため
に、年齢・年収を共に最大限、関心度を100としたデ
ータを学習データに追加するのである。
【0018】これにより、元の学習データが少なく、そ
のままでは対象領域全体として、十分なモデリングがで
きなかった場合の学習も可能となる。
【0019】次に、図4〜図7を用いて、本発明の第2
の実施例を説明する。本実施例は、学習後のニューラル
・ネットワーク1の状態を3次元CG(コンピュータ・
グラフィックス)で表示することにより、ニューラル・
ネットワーク・モデルの特性を明らかにしようとするも
のである。
【0020】図4は、本発明の第2の実施例を示す情報
処理システムのブロック図であり、階層型ニューラル・
ネットワーク1、入力値と出力値の組から成る学習デー
タ2、学習データ2を用いてニューラル・ネットワーク
1を学習させるネットワーク学習手段6、指定される表
示内容に必要な入力データを生成し学習後のニューラル
・ネットワーク1を用いてシミュレーションすることに
より入出力関係データを獲得する手段7、獲得された入
出力関係データを3次元CGとして表示可能なデータに
変換する3次元CG表示手段8、3次元CGを表示する
表示装置9から構成される。
【0021】図5は、本発明の第2の実施例を示す情報
処理システムの動作フローチャートである。まず、ネッ
トワーク学習手段6が、ニューラル・ネットワーク1の
パラメータを初期化(501)し、ネットワーク学習手
段6が全ての学習データ2を用いてニューラル・ネット
ワーク1をバック・プロパゲーション・アルゴリズムに
基づき学習させる(502)。事前に指定された学習終
了条件、例えば学習データ2とニューラル・ネットワー
ク1の出力との誤差の二乗和が許容範囲に達したこと、
学習回数が予定に達したこと、などが成立したかどうか
チェック(503)し、成立していなければステップ5
02に戻り、成立していれば、ユーザが表示内容を指定
する(504)。この指定内容に従って、入出力関係デ
ータ獲得手段7が、入力用データを作成し、学習後のニ
ューラル・ネットワーク1を用いてシミュレーションす
ることにより入出力関係データを獲得する(505)。
3次元CG表示手段8が、獲得された入出力関係データ
を3次元CGとして表示可能なデータに変換し、表示装
置9が3次元CGを表示(506)して、処理を終了す
る。
【0022】図6は、ユーザが指定する3次元表示内容
の例である。3次元のx軸は年齢、y軸は年収、z軸は
関心度であり、年齢は15才〜56才の範囲で8才間
隔、年収は0円〜70,000,000円の範囲で1
0,000,000円間隔の全ての組み合わせを学習後
ニューラル・ネットワーク1に入力してシミュレーショ
ンし、出力値として関心度を獲得することを表してい
る。
【0023】図7は、表示装置9に表示される3次元C
Gの例である。年齢、年収、関心度を3軸としたニュー
ラル・ネットワークの入出力関係を表す曲面が表示され
ている。
【0024】第2の実施例の効果は次の通りである。従
来、学習後のニューラル・ネットワーク・モデルの特性
を知るために、共通の入力値に対する検証用の実データ
の出力値とニューラル・ネットワーク出力値とを比較し
て評価していた。しかし、実データで網羅されていない
入力に対する学習後のニューラル・ネットワークの出力
特性に関しては、評価する基準がなかった。本実施例に
よれば、学習後のニューラル・ネットワーク1の状態を
人間のイメージしやすい3次元CGの曲面で表示するこ
とにより、実データで網羅されていない入力値の範囲に
おけるニューラル・ネットワーク・モデルの特性を明ら
かにすることができる。また、ニューラル・ネットワー
ク1の構築者が、3次元CGを見て、ニューラル・ネッ
トワーク・モデルの特性を明らかにすることにより、モ
デル修正作業の効率化が図れる。
【0025】
【発明の効果】ニューラル・ネットワークの学習に関し
て、教師データの質や量が期待出来ない場合であって
も、対象領域特有の常識や知識を制約条件という形で導
入することにより、提示された入力に対して適切な出力
が得られるニューラル・ネットワークを生成することが
できる。
【図面の簡単な説明】
【図1】本発明の第1の実施例を示すニューラル・ネッ
トワークの学習方式のブロック図である。
【図2】ある高級商品の関心度調査データの例である。
【図3】図2の例の処理手順を表すフローチャートであ
る。
【図4】本発明の第2の実施例を示す情報処理システム
のブロック図である。
【図5】本発明の第2の実施例を示す情報処理システム
の動作フローチャートである。
【図6】ユーザが指定する3次元表示内容の例である。
【図7】表示装置9に表示される3次元CGの例であ
る。
【符号の説明】
1・・階層型ニューラル・ネットワーク、2・・入力値
と出力値の組から成る学習データ、3・・ニューラル・
ネットワーク1の出力値と学習データとを比較する比較
部、4・・パラメータ修正部、5・・重み監視部。

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】少なくとも一つのノードから成る入力層
    と、少なくとも一つのノードから成る一つ以上の中間層
    と、少なくとも一つのノードから成る出力層によって構
    成される階層型ニューラル・ネットワークを用いて、提
    示された入力値から適切な出力値を得るための学習にお
    いて、 上記ネットワークの入出力の依存関係を制約条件として
    与えることを特徴とするニューラル・ネットワークの学
    習方法。
  2. 【請求項2】少なくとも一つのノードから成る入力層
    と、少なくとも一つのノードから成る一つ以上の中間層
    と、少なくとも一つのノードから成る出力層によって構
    成される階層型ニューラル・ネットワークを用いて、提
    示された入力値から適切な出力値を得るための学習にお
    いて、 ノード間を結合しているシナプスの重みの値域に制限を
    与えることを特徴とするニューラル・ネットワークの学
    習方法。
  3. 【請求項3】上記請求項1の学習方法の入出力の依存関
    係が、入力値に応じた出力値の範囲の限定であることを
    特徴とするニューラル・ネットワークの学習方法。
  4. 【請求項4】上記請求項1の学習方法の入出力の依存関
    係が、入力値の変化率に応じた出力値の変化率の範囲の
    限定であることを特徴とするニューラル・ネットワーク
    の学習方法。
  5. 【請求項5】少なくとも一つのノードから成る入力層
    と、少なくとも一つのノードから成る一つ以上の中間層
    と、少なくとも一つのノードから成る出力層によって構
    成される階層型ニューラル・ネットワークを用いて、提
    示された入力値から適切な出力値を得るための学習にお
    いて、 ノード間を結合しているシナプスの重みとしきい値の初
    期値をランダムに与え、入力値と出力値の組から成る学
    習データの入力値を一つずつ上記ネットワークに入力
    し、該ネットワークの出力値と該学習データの出力値を
    比較して誤差を求め、該誤差に応じて該ネットワーク中
    の各シナプスの重みとしきい値を修正し、重みに対して
    事前に与えられた制限値域を逸脱していないか監視し、
    逸脱した場合には制限値域内に戻すことを特徴とするニ
    ューラル・ネットワークの学習方法。
  6. 【請求項6】少なくとも一つのノードから成る入力層
    と、少なくとも一つのノードから成る一つ以上の中間層
    と、少なくとも一つのノードから成る出力層によって構
    成される階層型ニューラル・ネットワークを用いて、提
    示された入力値から適切な出力値を得るための学習を行
    う手段と、該学習後ニューラル・ネットワークに任意の
    値を入力し出力値を得る手段と、該入出力値の関係を複
    数の手段で表示する手段、を有することを特徴とする情
    報処理システム。
JP4003677A 1992-01-13 1992-01-13 ニューラル・ネットワークの学習方法および情報処理システム Pending JPH05189397A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4003677A JPH05189397A (ja) 1992-01-13 1992-01-13 ニューラル・ネットワークの学習方法および情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4003677A JPH05189397A (ja) 1992-01-13 1992-01-13 ニューラル・ネットワークの学習方法および情報処理システム

Publications (1)

Publication Number Publication Date
JPH05189397A true JPH05189397A (ja) 1993-07-30

Family

ID=11564051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4003677A Pending JPH05189397A (ja) 1992-01-13 1992-01-13 ニューラル・ネットワークの学習方法および情報処理システム

Country Status (1)

Country Link
JP (1) JPH05189397A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296697A (ja) * 1998-04-10 1999-10-29 Toyota Motor Corp 曲面生成方法
KR100442287B1 (ko) * 1997-02-26 2005-01-15 주식회사 하이닉스반도체 신경망(NeuralNetwork)학습기
WO2019168129A1 (ja) * 2018-03-01 2019-09-06 国立大学法人 東京大学 情報処理装置、及び機械学習データの製造方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100442287B1 (ko) * 1997-02-26 2005-01-15 주식회사 하이닉스반도체 신경망(NeuralNetwork)학습기
JPH11296697A (ja) * 1998-04-10 1999-10-29 Toyota Motor Corp 曲面生成方法
WO2019168129A1 (ja) * 2018-03-01 2019-09-06 国立大学法人 東京大学 情報処理装置、及び機械学習データの製造方法
JP2019152977A (ja) * 2018-03-01 2019-09-12 国立大学法人 東京大学 情報処理装置、機械学習データの製造方法、及びプログラム

Similar Documents

Publication Publication Date Title
Khan et al. Group decision support using fuzzy cognitive maps for causal reasoning
Suh et al. Nested logit models for multiple-choice item response data
Pathak et al. How well do structural demand models work? Counterfactual predictions in school choice
Capuano et al. A fuzzy group decision making model for ordinal peer assessment
JP2001236337A (ja) ニューラルネットワークによる予測装置
US7010159B2 (en) Apparatus and method for combining random set of video features in a non-linear scheme to best describe perceptual quality of video sequences using heuristic search methodology
US20080104000A1 (en) Determining Utility Functions from Ordinal Rankings
CN110222830B (zh) 一种基于自适应遗传算法优化的深度前馈网络故障诊断方法
CN112416986A (zh) 基于分层个性化联邦学习的用户画像实现方法及系统
US20190385704A1 (en) Apparatus and method for utilizing a parameter genome characterizing neural network connections as a building block to construct a neural network with feedforward and feedback paths
US20180068323A1 (en) Automated method for learning the responsiveness of potential consumers to different stimuli in a marketplace
CN115114421A (zh) 一种问答模型训练方法
de Landgraaf et al. Parameter calibration using meta-algorithms
CN115114128A (zh) 一种卫星健康状态评估系统及评估方法
Xu et al. A class of multiobjective linear programming models with random rough coefficients
Raunak et al. Metamorphic testing on the continuum of verification and validation of simulation models
JPH0721029A (ja) 推論装置
JP3638310B2 (ja) 事例推論支援装置
JPH05189397A (ja) ニューラル・ネットワークの学習方法および情報処理システム
Sidajaya et al. Neural network approach to the simulation of entangled states with one bit of communication
CN116187852A (zh) 一种基于社区关联和行为特征学习的在线课程推荐方法
JP3287738B2 (ja) 関係関数探索装置
JPH0561848A (ja) 最適アルゴリズムの選定及び実行のための装置及び方法
Liu et al. Inductive Cognitive Diagnosis for Fast Student Learning in Web-Based Intelligent Education Systems
Haghshenas Gorgani et al. A two-phase hybrid product design algorithm using learning vector quantization, design of experiments, and adaptive neuro-fuzzy interface systems to optimize geometric form in view of customers’ opinions