JPH10198645A - ニューラルネット学習方法及び装置 - Google Patents

ニューラルネット学習方法及び装置

Info

Publication number
JPH10198645A
JPH10198645A JP97097A JP97097A JPH10198645A JP H10198645 A JPH10198645 A JP H10198645A JP 97097 A JP97097 A JP 97097A JP 97097 A JP97097 A JP 97097A JP H10198645 A JPH10198645 A JP H10198645A
Authority
JP
Japan
Prior art keywords
learning
neural network
connection weight
vector
output value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP97097A
Other languages
English (en)
Inventor
Kazumi Saito
和巳 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP97097A priority Critical patent/JPH10198645A/ja
Publication of JPH10198645A publication Critical patent/JPH10198645A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

(57)【要約】 【課題】 訓練事例のみならず、未知の事例に対しても
信頼性の高い出力を可能とするニューラルネットの学習
を自動的に実行することが可能な最小記述長原理に基づ
くニューラルネット学習方法及びシステムを提供する。 【解決手段】 本発明は、 各事例における目標出力値
とニューラルネットの出力値の自乗誤差の和を最小にす
る結合重みベクトルを、2次学習法を用いて求め、全事
例の目標出力値を符号化したときの記述長を最小化する
ように結合重みベクトルの精度を丸めるとき、丸め結合
重みバクトルを連続近似させ、最小化問題を正規化項付
きニューラルネットの学習問題として目的関数を設定
し、目的関数を2次学習法を用いて学習する第3の過程
からなる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、最小記述長原理に
基づくニューラルネット学習方法及び装置に係り、特
に、音声処理、画像処理、または、運動制御等の広い分
野において必要となる関数近似問題において、訓練事例
だけでなく、未知の事例に対しても信頼性の高い出力を
可能とする(高い汎化能力を有する)ニューラルネット
の学習を実行するための最小記述長原理に基づくニュー
ラルネット学習方法及び装置に関する。
【0002】
【従来の技術】従来において、ニューラルネットの学習
結果の汎化能力を向上させるための方法として、例え
ば、正規化項を用いる方法として『C.M. Bishop: "Neur
al networks for pattern recognition", Clarendon Pr
ess (1995)』がある。これは、学習目的関数に、訓練事
例に関する誤差項だけでなく、結合重みの値が大きくな
ることを抑制するペナリティを付加する方法であり、多
くの場合、汎化能力の高いニューラルネットを得られる
ことが観測されているが、ペナルティの強さを制御する
正規化係数を適切に設定しなければならない。その正規
化係数の決定には、交差検証法『M.Stone:"Cross-valid
ation: A review", Operationsforsch, Statist, Ser.
Statistics B 9(1):111-147 (1978)』または、ベイズ学
習法『D.J.C.MacKay:"Bayesian interpolation", Neura
l Computation 4(3):415-447(1992)』が用いられてい
る。交差検証法は、予め正規化係数の候補を複数用意
し、訓練事例の一部を学習に用いずテストに用いてその
誤差が最小になる正規化係数を選択する方法である。ベ
イズ学習法は、結合重みに関する事前分布を仮定し、こ
の分布を用いた事後確率を最大にすることにより、正規
化係数を求める。
【0003】
【発明が解決しようとする課題】しかしながら、上記の
方法には、以下のような問題がある。一般の問題におい
て、望ましい学習結果を効率良く得ることは困難であ
る。即ち、交差検証法による正規化係数の決定には、多
数のニューラルネットの学習が必要であり、問題の規模
がある程度大きくなれば、現実的な計算時間で結果を得
ることは困難になる。
【0004】一方、ベイズ学習法では、結合重みに関す
る事例分布を仮定することにより、正規化係数を自動決
定可能であるが、一般の問題において、その事前分布を
予め知ることができないという問題がある。本発明は、
上記の点に鑑みなされたもので、上記従来の問題点を解
決し、訓練事例のみならず、未知の事例に対しても信頼
性の高い出力を可能とするニューラルネットの学習を自
動的に実行することが可能な最小記述長原理に基づくニ
ューラルネット学習方法及び装置を提供することを目的
とする。
【0005】
【課題を解決するための手段】図1は、本発明の原理を
説明するための図である。本発明は、入力ベクトルと目
標出力値からなる事例集合に対して、該入力ベクトルか
ら該目標出力値を出力可能とするニューラルネット学習
方法において、各事例における目標出力値とニューラル
ネットの出力値の自乗誤差の和を最小にする結合重みベ
クトルを、2次学習法を用いて求め(ステップ1)、全
事例の目標出力値を符号化したときの記述長を最小化す
るように結合重みベクトルの精度を丸めるとき、丸め結
合重みバクトルを連続近似させ、最小化問題を正規化項
付きニューラルネットの学習問題として目的関数を設定
し(ステップ2)、目的関数を2次学習法を用いて学習
する第3の過程からなる(ステップ3)。
【0006】また、本発明は、上記のステップ1とステ
ップ3において、2次学習法として、準ニュートン法に
基づいて、該準ニュートン法の探索方向を、ユーザが定
義する局部性パラメータに比例した記憶容量で計算し、
該ニュートン法の探索幅を、探索幅に対する勾配(1次
微分)と曲率(2次微分)からなる学習目的関数の2次
近似式の最小点として求める。
【0007】図2は、本発明の原理構成図である。本発
明は、入力ベクトルと目標出力値からなる事例の集合
と、該入力ベクトルから該目標出力値を出力可能とする
学習手段とを有するニューラルネット学習装置であっ
て、事例の集合中の各事例における目標出力値とニュー
ラルネットの出力値の自乗誤差の和を最小にする最尤結
合重みベクトルを、2次学習法を用いて求める第1の学
習手段10と、事例の集合の全事例の目標出力値を符号
化したときの記述長を最小にするように結合重みベクト
ルの精度を丸めるとき、丸め結合重みベクトルを連続近
似させて、最小化問題を正規化項付きニューラルネット
の学習問題として目的関数を設定する目的関数設定手段
20と、目的関数を2次学習法を用いて学習し、最終的
な結合重みベクトルを取得する第2の学習手段30とを
有する。
【0008】また、上記の第1の学習手段10及び第2
の学習手段30は、2次学習法として、準ニュートン法
に基づいて、該ニュートン法の探索方向を、ユーザが定
義する局部性パラメータに比例した記憶容量で計算する
探索方向計算手段と、準ニュートン法の探索幅を探索幅
に対する勾配(1次微分)と曲率(2次微分)からなる
該学習目的関数の2次近似式の最小点として求める探索
幅計算手段と、探索方向計算手段と、探索幅計算手段に
より取得した値に基づいて結合重みを更新する結合重み
更新手段を含む。
【0009】このように、上記の第1の学習手段では、
準ニュートン法に基づいた2次学習法を用いることによ
り、目標出力値とニューラルネットの出力値の自乗誤差
の和を最小にした最尤結合重みベクトルを取得すること
が可能である。これにより、少ない計算量と妥当な記憶
容量で高品質の解が得られることである。
【0010】さらに、目的関数設定手段では、丸め結合
重みベクトルを連続近似させて、最小化問題を正規化項
付きニューラルネットの学習問題として目的関数を設定
することにより、最少化問題を記述長最小化評価尺度を
用いて目的関数を得ることが可能となる。これにより、
多数のニューラルネットの学習が不要となり、かつ、結
合重みに関する事前分布を仮定することなしに、正規化
係数が求まることである。
【0011】そして、第2の学習手段において、目的関
数設定手段により得られた目的関数を用いて2次学習を
行うことにより、2次学習の探索方向を準ニュートン法
におけるユーザが定義する局部性パラメータに比例した
記憶容量で計算し、探索幅を学習目的関数の2次近似式
の最小点として求めることにより、探索方向と探索幅か
ら丸め結合重みベクトルを求める。これにより、第1の
学習手段と同様に、少ない計算量と妥当な記憶容量で高
品質の解が得られる。
【0012】このようにして、求められた結合重みベク
トルは、最尤結合重みベクトルよりかなり高い汎化結果
を得ることができる。
【0013】
【発明の実施の形態】図3は、本発明のニューラルネッ
ト学習装置の構成を示す。同図に示すニューラルネット
学習装置は、学習部10と定式化部20から構成され
る。学習部10は、探索方向計算部13と探索幅計算部
14から構成され、準ニュートン法に基づいて学習を行
う。定式化部20は、最小記述長原理に基づいて、結合
重みベクトルの精度を丸めるとき、丸め結合重みバクト
ルを連続近似させ、最小化問題を正規化項付きニューラ
ルネットの学習問題として目的関数を設定し、学習部1
0にフィードバックする。
【0014】学習部10における学習目的関数の設定に
ついて説明する。学習目的関数を設定において、まず、
問題の枠組について説明する。 {(x1 ,y1 ),…,(xm ,ym )} を事例集合とし、そのうち、xi をニューラルネットへ
のn次元入力ベクトルとし、yi をニューラルネットか
らの目標出力値とする。また、3層ニューラルネットに
おいて、hを中間ユニット数、wj (j=1,…,h)
を全入力ユニットから中間ユニットへの結合重み、w0
=(w00,…,w0hT を全中間ユニットから出力ユニ
ットへの結合重みとする。ここで、wj0はバイアスであ
り、xt0=1とする。但し、aT は、ベクトルaの転置
ベクトルを表す。以下では、全結合重み(w0 ,…,w
h )をΦ=(φ1 ,…,φN T で表し、Φの次元を N(=h(n+2)+1) とする。このとき、3層ニューラルネットの出力は以下
となる。
【0015】
【数1】
【0016】いま、各目標出力値yは、平均0と未知の
標準偏差σに従うガウスノイズが含まれていると仮定す
る。このとき、ニューラルネットの学習は、以下の対数
尤度を最大化する最尤推定問題として定式化できる。
【0017】
【数2】
【0018】ここで、式(2)を最大にする最尤結合重
みベクトル
【0019】
【数3】
【0020】は、目標出力値とニューラルネットの出力
値の自乗誤差の和を最小にする。これにより、2次学習
法を用いて目標出力値とニューラルネットの出力値の自
乗誤差の和を最小にする結合重みベクトルを求めること
ができる。学習部10は、この最尤結合重みベクトルを
定式化部20に渡す。
【0021】次に、定式化部20における最小記述長原
理に基づく正規化法について説明する。最小記述長原理
の直感的な考え方は、送信者が最小記述長で受信者にメ
ッセージを送る通信問題として説明できる。但し、関数
近似問題は与えられた入力データから出力データを推定
する問題なので、受信者は、既に入力データを得ている
と仮定し、出力データだけの送信について考える。
【0022】いま、まず学習後の結合重みベクトルを送
るとすれば、受信者は出力データの近似データを知るこ
とができる。よって、近似データと出力データの差分値
ベクトルを送るだけで、受信者は完全な出力データを受
信することができる。最尤結合重みベクトル
【0023】
【数4】
【0024】を用いれば、差分値ベクトルは、
【0025】
【数5】
【0026】のメッセージ長で最適に符号化できるが、
一方、最尤結合重みベクトルを符号化するメッセージに
は多くのビット数が必要となる。これら2つのメッセー
ジ長の妥協点を得るため、最尤結合重みベクトル
【0027】
【数6】
【0028】に対して丸め結合重みベクトル
【0029】
【数7】
【0030】を用いた、以下の記述長最小化評価尺度が
提案されている。
【0031】
【数8】
【0032】実際、より丸めた結合重みベクトルを用い
れば、第2項の値は小さくなるが、一方、丸め結合重み
ベクトルと最尤結合重みベクトルの違いが大きくなるの
で、第1項の値は一般に大きくなる。以下では、前述の
記述長最小化評価尺度の式(3)に基づいて、新たな正
規化技術を提案する。任意の丸め結合ベクトル
【0033】
【数9】
【0034】に対して、あるN次元ベクトル u=(u1 ,…,uN T が存在して、
【0035】
【数10】
【0036】が成立する。ここで、f(uk )はシグモ
イド関数
【0037】
【数11】
【0038】を表し、0<f(uk )<1である。逆
に、任意のベクトルuに対して
【0039】
【数12】
【0040】は、適当な丸め結合ベクトル
【0041】
【数13】
【0042】の1つの近似を与える。よって、以下の評
価尺度は式(3)の連続近似となる。
【0043】
【数14】
【0044】但し、第4項
【0045】
【数15】
【0046】は、定数であり、最小化とは無関係であ
る。なお、直接式(3)を
【0047】
【数16】
【0048】について最小化するためには、常に
【0049】
【数17】
【0050】が、
【0051】
【数18】
【0052】の丸めベクトルとなることを保証しなけれ
ばならないので、解くことが困難な制約付き最小化問題
になると考えられる。式(4)で定義した最小化問題に
は、2種類のパラメータuとσ2 が存在するので、座標
降下(coordinate descent) 法を採用する。即ち、uを
固定して、式(4)をσ2 について微分して0とおけ
ば、最小値を与えるσ2 の値は以下のようになる。
【0053】
【数19】
【0054】逆に、σ2 を固定して、最小化と独立な項
を無視してσ2 を乗ずれば式(4)は、以下の目的関数
の最少化問題に変形できる。
【0055】
【数20】
【0056】但し、
【0057】
【数21】
【0058】ここで、F2 (u)のui についての2回
微分は常に正となることは以下よりわかる。
【0059】
【数22】
【0060】従って、式(6)の第2項は、正規化項と
見なすことができる。ここで、正規化係数は(5)で自
動的に決定される。次に、定式化部20からのフィード
バック情報に基づいて実行される学習部10における準
ニュートン法に基づく2次学習アルゴリズムについて説
明する。
【0061】前述の式(6)で定義した目的関数を最小
化するために、本発明では、準ニュートン法に基づく2
次学習アルゴリズムBPQを用いる。BPQは、探索方
向ベクトルΔuを小記憶BFGS法で計算し、妥当な精
度の探索幅λを目的関数の2次近似の最小点として計算
する。
【0062】まず、探索方向ベクトルは、勾配ベクトル
より、小記憶BFGS法を直接適応して計算できる。こ
こで、式(6)のui についての微分は以下の式で計算
できる。
【0063】
【数23】
【0064】但し、
【0065】
【数24】
【0066】は、標準的なバックプロパゲーション法で
計算できる。探索幅計算法を説明するために、次式で定
義される“Pearlmutter ”のオペレータを用いる。
【0067】
【数25】
【0068】このとき、
【0069】
【数26】
【0070】ならば、目的関数の2次近似に対する最小
点は、
【0071】
【数27】
【0072】で計算できる。式(6)で定義された目的
関数では、以下のようにして1次微分を計算できる。
【0073】
【数28】
【0074】一方、2次微分は以下のように計算でき
る。
【0075】
【数29】
【0076】ここで、
【0077】
【数30】
【0078】を探索方向と見なすことにより、
【0079】
【数31】
【0080】は標準的なニューラルネットの2次部分と
して計算できる。従って、以下の値を用いて、探索幅を
2次近似の最小点として効率良く計算できることが分か
る。
【0081】
【数32】
【0082】上述の座標項化法では、式(6)で定義し
た目的関数の最小化過程の任意の時点で、式(5)によ
るσ2 の更新を実行することができる。しかし、BPQ
は準ニュートン法に基づいているので、最も良い機会
は、探索過程で得た探索情報を捨て、ヘス(Hess)逆行
列の更新を再開始するときであると考えられる。以下、
sを小記憶BFGS法で用いる局部性パラメータとす
る。
【0083】
【実施例】以下、本発明の実施例を図面と共に説明す
る。図4は、本発明の一実施例のニューラルネット学習
装置の構成を示す。前述の図3の構成においては、1つ
の学習部10で最尤結合重みベクトルと最終結果の結合
重みベクトルの双方を求めるような構成を示している
が、説明の明瞭化のため、本実施例では、最尤結合重み
ベクトルを得るための学習を行う第1の学習部10と最
終結果の結合重みベクトルを得るための学習を行う第2
の学習部30に分けて説明する。
【0084】同図に示すニューラルネット学習装置は、
第1の学習部10、定式化部20及び第3の学習部30
から構成される。第1の学習部10は、事例を読み込み
結合重みの初期化を行う第1の初期化部11、所定の条
件を満たせば学習のループを停止させ、求められた最尤
結合重みベクトルを定式化部20に送る第1の停止条件
判定部12、結合重みの修正方向を計算する第1の探索
方向計算部13、結合重みの修正幅を計算する第1の探
索幅計算部14及び結合重みを更新する第1の結合重み
更新部15より構成される。
【0085】定式化部20は、第1の学習部10から取
得した最尤結合重みベクトルに対する最小記述長原理に
基づく学習目的関数を設定する。第2の学習部30は、
丸めベクトルの初期化を行う第2の初期化部31、所定
の条件を満たせば学習のループを停止させ、結果を出力
する第2の停止条件判定部32、丸めベクトルの修正方
向を計算する第2の探索方向計算部33、丸めベクトル
の修正幅を計算する第2の探索幅計算部34、丸めベク
トルを更新する第2の結合重み計算部35及び所定の条
件に基づいて分散を更新する分散更新部36から構成さ
れる。
【0086】図5は、本発明の一実施例のニューラルネ
ット学習の動作のフローチャートである。 ステップ101) 第1の学習部10の第1の初期化部
11は、入力ベクトルと目標出力値からなる事例集合が
入力されると、最尤結合重みベクトルのパラメータΦを
初期化する。
【0087】ステップ102) 第1の停止条件判定部
12は、停止条件(所定の勾配ベクトル)を満たす場合
には、ステップ106に移行する。 ステップ103) 第1の探索方向計算部13は、探索
方向ベクトルをユーザが定義する局部性パラメータに比
例した記憶容量で計算する。
【0088】ステップ104) 第1の探索幅計算部1
4は、第1の探索方向計算部13で求められた探索方向
ベクトルと、探索幅に対する勾配(1次微分)と曲率
(2次微分)からなる学習目的関数の2次近似式の最小
点としての探索幅を求める。 ステップ105) 第1の結合重み更新部15は、第1
の探索方向計算部13により求められた探索方向と第1
の探索幅計算部14で求められた探索幅と前回までの学
習の更新前の結合重みを用いて結合重みを更新する。
【0089】ステップ106) 定式化部20は、最小
記述長原理に基づいて、全事例の目標出力値を符号化し
たときの記述長を最小化するように結合重みベクトルの
精度を丸めるとき、丸め結合重みベクトルを連続近似し
て最小化問題を正規化項付きニューラルネットニューラ
ルネットの学習問題として目的関数を設定して、第2の
学習部30に渡す。
【0090】ステップ107) 第2の学習部30の第
2の初期化部31は、パラメータuを初期化する。 ステップ108) 第2の停止条件判定部32は、停止
条件(勾配ベクトルの大きさが十分小さく、かつ分散の
修正量が十分小さい)を満たせば学習処理のループを終
了し、結果を出力する。
【0091】ステップ109) 第2の探索方向計算部
33は、勾配ベクトルと過去の探索情報より丸めベクト
ルの修正方向を計算する。 ステップ110) 第2の探索幅計算部34は、第2の
探索方向計算部33で求められた修正方向とニューラル
ネットの各ユニットの出力値より探索幅を計算する。
【0092】ステップ111) 第2の結合重み更新部
35は、探索時方向と探索幅を用いて丸めベクトルを更
新する。 ステップ112) 第2の結合重み更新部35におい
て、k≡0(mod s)であれば、分散更新部36は分散
の値を更新する。
【0093】なお、図5のフローチャート中において、
ステップ104とステップ110において、求めてられ
ている探索幅λは、ステップ104においては、探索方
向ベクトルΔΦと、探索幅に対する勾配(1次微分)と
曲率(2次微分)からなる学習目的関数の2次近似式の
最小点としての探索幅を意味しており、ステップ110
において求められている探索幅λは、修正方向である探
索方向ベクトルΔuと、ニューラルネットの各ユニット
の出力値より求められるものであり、その値は、異な
る。
【0094】以下、本発明の実施例を詳細に説明する。
本発明の評価のため、 y=(1−x+2x2 )e-0.5x2 を学習する問題を用いる。事例については、入力変数x
には、[−4,4]の範囲でランダムな値を与え、対応
するyの値をxより計算した。但し、各yの値には、平
均0、標準偏差0.2の正規分布に基づく独立なノイズ
を与えた。また、事例の総数は30とし、中間ユニット
数は5に設定した。
【0095】図6は、本発明の一実施例の学習結果を示
す。同図(A)は、訓練事例、真の関数及び最尤結合重
みベクトルの学習結果を示す。同図に示す学習結果は、
訓練事例にある程度過剰適合していることが分かる。一
方同図(B)は、最終学習結果を示し、この学習結果
は、明らかに最尤結合重みベクトルより、真の関数に近
づいていることが分かる。
【0096】適用例では、まず、第1の学習部10にお
いて、最尤結合重みベクトルを得るための学習を行う。
即ち、まず、第1の初期化部11において、事例を読み
込み、各結合重みの初期値を平均0、標準偏差0.1の
正規分布に基づいて独立に生成する。また、第1の停止
条件判定部12では、勾配ベクトルの大きさが十分小さ
いとき、
【0097】
【数33】
【0098】アルゴリズムの反復を終了させる。各反復
においては、まず、結合重みの修正方向を計算する第1
の探索方向計算部13では、勾配ベクトルと過去の探索
情報より、探索方向を計算する。次いで、結合重みの修
正幅を計算する第1の探索幅計算部14では、探索方向
ベクトルとニューラルネットの各ユニットの出力値よ
り、探索幅を計算する。そして、第1の結合重みの更新
部15では、第1の探索方向計算部13と第1の探索幅
計算部14の結果を用いて、結合重みを更新する。
【0099】次に、定式化部20は、最小記述長原理に
基づく学習目的関数を設定する。その後、第2の学習部
30は、最終結果の結合重みベクトルを得るための学習
を行う。即ち、まず、第2の初期化部31において、丸
めベクトルの各要素の初期値を、f(uk )=0.9と
なるように設定する。また、第2の停止条件判定部32
では、勾配ベクトルの大きさが十分小さいとき、かつ、
分散の修正量が十分小さいとき、 ‖σ2 −F1 (u)/m‖<10-4σ4 , アルゴリズムの反復を終了し、結果を出力する。各反復
においては、まず、丸めベクトルの修正方向を計算する
第2の探索方向計算部33では、勾配ベクトルの過去の
探索情報より、探索方向を計算する。次いで、丸めベク
トルの修正幅を計算する第2の探索幅計算部34では、
探索方向ベクトルとニューラルネットの各ユニットの出
力値より、探索幅を計算する。そして、丸めベクトルの
第2の結合重み更新部35では、第2の探索方向計算部
33と第2の探索幅計算部34の結果を用いて、丸めベ
クトルを更新する。但し、もしk≡0(mod s)なら
ば、分散更新部36の値を更新する。
【0100】図7(A)に10回の試行における最尤結
合重みベクトルと最終結果の結合重みベクトルの汎化能
力を比較する。但し、汎化誤差は、訓練事例と独立な5
000のテスト事例に対する平均RMSE(root mean s
quared error) を用いて評価した。なお、テスト事例に
も訓練事例と同じ量のノイズを与えているので、可能な
汎化誤差の下限は0.2である。同図より、最終結果の
結合重みベクトルを用いれば、最尤結合重みベクトルよ
りかなり高い汎化結果を得られることが分かる。さら
に、最終結果の汎化誤差の分散はかなり小さく、本発明
は、最尤結合重みベクトルの変化に対して、ある程度頑
健であることが分かる。図7(B)に学習に要した反復
回数を比較する。最終結果を得るための反復回数はあま
り多くないことが分かる。
【0101】本発明の結果をさらに評価するため、自乗
値正規化項、即ち、
【0102】
【数34】
【0103】を誤差項に加えて学習する方法との比較を
行った。実験では、正規化係数μの初期値を40 とし、
-1を乗じて4-9まで変化させ、各正規化係数に対して
10回の試行を行った。図8に、それぞれの汎化能力を
比較する。同図より、正規化係数値が適切でなければ、
自乗値正規化法の性能はかなり悪いことがわかる。ここ
で、一般の問題において、正規化係数値の適切な設定は
困難なので、このような定数のないケースに対して、本
発明は特に効果を奏する。
【0104】なお、本発明は、上記の実施例に限定され
ることなく、特許請求の範囲内で種々変更・応用が可能
である。
【0105】
【発明の効果】上述のように、本発明のニューラルネッ
ト学習方法及び装置によれば、入力ベクトルと目標出力
値からなる事例の集合に対して、当該入力ベクトルから
目標出力値を出力可能とするニューラルネットの学習に
おいて、まず、各事例における目標出力値とニューラル
ネットの出力値の自乗誤差の和を最小にする結合重みベ
クトルを2次学習法を用いて求め、次に、全事例の目標
出力値を符号化した時の記述長を最小化するように、結
合重みベクトルの精度を丸めるとき、丸め結合重みベク
トルを連続近似させて、最小化問題を正規化項付きニュ
ーラルネットの学習問題として目的関数を設定し、その
目的関数を2次学習法を用いて学習し、ニューラルネッ
トの学習には、準ニュートン法の探索方向を、ユーザが
定義する局部性パラメータに比例した記憶容量で計算
し、準ニュートン法の探索幅を探索幅に対する勾配(1
次微分)と曲率(2次微分)からなる学習目的関数の2
次近似式の最小点として求め、訓練事例だけでなく、未
知の事例に対しても信頼性の高い出力を可能とする(高
い汎化能力を有する)ニューラルネットの学習を自動的
に実行することが可能となる。
【図面の簡単な説明】
【図1】本発明の原理を説明するための図である。
【図2】本発明の原理構成図である。
【図3】本発明のニューラルネット学習装置の構成図で
ある。
【図4】本発明の一実施例のニューラルネット学習装置
の構成図である。
【図5】本発明の一実施例のニューラルネット学習動作
のフローチャートである。
【図6】本発明の一実施例の学習結果である。
【図7】本発明の一実施例の学習結果の性能を示す図で
ある。
【図8】本発明の一実施例の自乗値正規化法との比較を
示す図である。
【符号の説明】
10 学習部、第1の学習手段 11 第1の初期化部 12 第1の停止条件判定部 13 探索方向計算部、第1の探索方向計算部 14 探索幅計算部、第1の探索幅計算部 15 第1の結合重み更新部 20 定式化部、目的関数設定手段 30 第2の学習部、第2の学習手段 31 第2の初期化部 32 第2の停止条件判定部 33 第2の探索方向計算部 34 第2の探索幅計算部 35 第2の結合重み更新部 36 分散更新部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 入力ベクトルと目標出力値からなる事例
    集合に対して、該入力ベクトルから該目標出力値を出力
    可能とするニューラルネット学習方法において、 各事例における目標出力値とニューラルネットの出力値
    の自乗誤差の和を最小にする結合重みベクトルを、2次
    学習法を用いて求める第1の過程と、 全事例の目標出力値を符号化したときの記述長を最小化
    するように前記結合重みベクトルの精度を丸めるとき、
    丸め結合重みバクトルを連続近似させ、最小化問題を正
    規化項付きニューラルネットの学習問題として目的関数
    を設定する第2の過程と、 前記目的関数を2次学習法を用いて学習する第3の過程
    からなることを特徴とするニューラルネット学習方法。
  2. 【請求項2】 前記第1及び前記第3の過程において、 前記2次学習法として、準ニュートン法に基づいて、該
    準ニュートン法の探索方向を、ユーザが定義する局部性
    パラメータに比例した記憶容量で計算し、該ニュートン
    法の探索幅を、探索幅に対する勾配(1次微分)と曲率
    (2次微分)からなる前記学習目的関数の2次近似式の
    最小点として求める請求項1記載のニューラルネット学
    習方法。
  3. 【請求項3】 入力ベクトルと目標出力値からなる事例
    の集合と、該入力ベクトルから該目標出力値を出力可能
    とする学習手段とを有するニューラルネット学習装置で
    あって、 前記事例の集合中の各事例における目標出力値とニュー
    ラルネットの出力値の自乗誤差の和を最小にする最尤結
    合重みベクトルを、2次学習法を用いて求める第1の学
    習手段と、 前記事例の集合の全事例の目標出力値を符号化したとき
    の記述長を最小にするように前記結合重みベクトルの精
    度を丸めるとき、丸め結合重みベクトルを連続近似させ
    て、最小化問題を正規化項付きニューラルネットの学習
    問題として目的関数を設定する目的関数設定手段と、 前記目的関数を前記2次学習法を用いて学習し、最終的
    な結合重みベクトルを取得する第2の学習手段とを有す
    ることを特徴とするニューラルネット学習装置。
  4. 【請求項4】 前記第1の学習手段及び前記第2の学習
    手段は、 前記2次学習法として、準ニュートン法に基づいて、該
    ニュートン法の探索方向を、ユーザが定義する局部性パ
    ラメータに比例した記憶容量で計算する探索方向計算手
    段と、 前記準ニュートン法の探索幅を探索幅に対する勾配(1
    次微分)と曲率(2次微分)からなる該学習目的関数の
    2次近似式の最小点として求める探索幅計算手段と、 前記探索方向計算手段と、前記探索幅計算手段により取
    得した値に基づいて結合重みを更新する結合重み更新手
    段を含む請求項3記載のニューラルネット学習装置。
JP97097A 1997-01-07 1997-01-07 ニューラルネット学習方法及び装置 Pending JPH10198645A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP97097A JPH10198645A (ja) 1997-01-07 1997-01-07 ニューラルネット学習方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP97097A JPH10198645A (ja) 1997-01-07 1997-01-07 ニューラルネット学習方法及び装置

Publications (1)

Publication Number Publication Date
JPH10198645A true JPH10198645A (ja) 1998-07-31

Family

ID=11488492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP97097A Pending JPH10198645A (ja) 1997-01-07 1997-01-07 ニューラルネット学習方法及び装置

Country Status (1)

Country Link
JP (1) JPH10198645A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558900A (zh) * 2018-11-16 2019-04-02 佛山科学技术学院 一种基于神经网络的供水管爆裂时间预测方法及装置
CN110570486A (zh) * 2019-08-23 2019-12-13 清华大学深圳研究生院 一种基于深度学习的欠采样核磁共振图像重建方法
US10839288B2 (en) 2015-09-15 2020-11-17 Kabushiki Kaisha Toshiba Training device, speech detection device, training method, and computer program product
EP4148630A1 (en) 2021-09-10 2023-03-15 Fujitsu Limited Speed-up program, speed-up method, and information processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839288B2 (en) 2015-09-15 2020-11-17 Kabushiki Kaisha Toshiba Training device, speech detection device, training method, and computer program product
CN109558900A (zh) * 2018-11-16 2019-04-02 佛山科学技术学院 一种基于神经网络的供水管爆裂时间预测方法及装置
CN109558900B (zh) * 2018-11-16 2023-11-03 佛山科学技术学院 一种基于神经网络的供水管爆裂时间预测方法及装置
CN110570486A (zh) * 2019-08-23 2019-12-13 清华大学深圳研究生院 一种基于深度学习的欠采样核磁共振图像重建方法
EP4148630A1 (en) 2021-09-10 2023-03-15 Fujitsu Limited Speed-up program, speed-up method, and information processing device

Similar Documents

Publication Publication Date Title
Grnarova et al. An online learning approach to generative adversarial networks
US20230116117A1 (en) Federated learning method and apparatus, and chip
US20110288835A1 (en) Data processing device, data processing method and program
CN112149797B (zh) 神经网络结构优化方法和装置、电子设备
JP2001236337A (ja) ニューラルネットワークによる予測装置
CN115952832A (zh) 自适应模型量化方法及装置、存储介质及电子装置
CN114760308B (zh) 边缘计算卸载方法及装置
US7529651B2 (en) Accurate linear parameter estimation with noisy inputs
JP7315007B2 (ja) 学習装置、学習方法および学習プログラム
CN113347125B (zh) 针对mimo-ofdm通信系统的贝叶斯神经网络信道估计方法和装置
JPH10198645A (ja) ニューラルネット学習方法及び装置
JPH10255043A (ja) 顔動画像からの表情認識方法
CN113205181A (zh) 一种基于图深度学习的图组合优化问题求解方法
WO2020161935A1 (ja) 学習装置、学習方法、及び、プログラム
CN112836629B (zh) 一种图像分类方法
CN111290756B (zh) 一种基于对偶强化学习的代码-注释转换方法
JPH08221378A (ja) 学習機械
CN116472538A (zh) 用于量化神经网络的方法和系统
CN113688875A (zh) 工业系统故障识别方法及装置
JPH10134018A (ja) 法則発見方法と装置及び法則発見プログラムを格納した記憶媒体、及びニューラルネット学習方法と装置及びニューラルネット学習プログラムを格納した記憶媒体
US20240077342A1 (en) Method for calibrating a sensor, processing unit and sensor system
CN110572875A (zh) 一种基于改进的机器学习算法的无线定位方法
JP2008533893A (ja) Cdma干渉除去のために反復信号処理し、パーセプトロンを使用する方法
US20240086678A1 (en) Method and information processing apparatus for performing transfer learning while suppressing occurrence of catastrophic forgetting
JPH0962645A (ja) 専門家の階層混合モデルの構築的学習方法