JP3618007B2 - ニューラルネットワークの学習装置及び学習方法 - Google Patents

ニューラルネットワークの学習装置及び学習方法 Download PDF

Info

Publication number
JP3618007B2
JP3618007B2 JP01181195A JP1181195A JP3618007B2 JP 3618007 B2 JP3618007 B2 JP 3618007B2 JP 01181195 A JP01181195 A JP 01181195A JP 1181195 A JP1181195 A JP 1181195A JP 3618007 B2 JP3618007 B2 JP 3618007B2
Authority
JP
Japan
Prior art keywords
data
neural network
learning
parameter
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01181195A
Other languages
English (en)
Other versions
JPH08202674A (ja
Inventor
澄夫 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP01181195A priority Critical patent/JP3618007B2/ja
Publication of JPH08202674A publication Critical patent/JPH08202674A/ja
Application granted granted Critical
Publication of JP3618007B2 publication Critical patent/JP3618007B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、ニューラルネットワークの学習装置及び学習方法に関する。
【0002】
【従来の技術】
現在、画像認識、画像分類、音声認識、音声分類、運動制御、システム制御、知能システムなど、フォンノイマンコンピュータでは困難な信号処理を実行するため、ニューラルネットワークを利用することが提案されている。このようなニューラルネットワークは、多数のニューロンをシナプスにより結合してネットワークを形成したもので、学習する機能を有する。
【0003】
ニューラルネットワークの学習方法としては、各種方法が提案されているが、その一つとして損失関数を最小化させる方法がある。例えば、ニューラルネットワークが“x”の入力に対して“y”を出力する場合、これは“θ”なるパラメータを有する“f”なる関数により“y=f(θ:x)”として表現される。そこで、適正な組み合わせのn個の学習データ“x ,y ”(i=1〜n)を用意し、学習データ“x ”をニューラルネットワークに入力し、このニューラルネットワークから出力されるデータ“y”と学習データ“y ”とを比較し、この隔たりを示す損失関数
【0004】
【数9】
Figure 0003618007
【0005】
が最小化されるようパラメータ“θ”を修正する。このようにニューラルネットワークのパラメータ“θ”を修正することにより、このパラメータ“θ”を真のパラメータに収束させることができるので、データ“x”の入力に対して適正なデータ“y”を出力するようにニューラルネットワークを学習させることができる。
【0006】
現在、このような損失関数によるニューラルネットワークの学習方法の改良案として、損失関数に適当な正則化項を付加することが知られている。この場合、損失関数に正則化項“λQ(θ)”を付加した関数
【0007】
【数10】
Figure 0003618007
【0008】
を想定し、これが最小化されるようニューラルネットワークのパラメータ“θ”を修正する。なお、以下の説明では、損失関数に正則化項を付加した関数を付加損失関数と呼称する。
【0009】
【発明が解決しようとする課題】
上述のように付加損失関数により、さらに良好にニューラルネットワークを学習させることができる。
【0010】
しかし、上述のような付加損失関数を利用したニューラルネットワークの学習方法は、真のパラメータ“θ”が一つの場合には有効であるが、真のパラメータ“θ”が複数の場合には、その限りでない。
【0011】
請求項1記載の発明は、パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習装置において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
【数11】
Figure 0003618007
と正規化項“λQ(θ)”とからなる関数
【数12】
Figure 0003618007
が最小化されるようパラメータθを修正する際に、
正則化項の係数“λ”が、
λ=−α n /n
0<α n <n
を満足する。
【0016】
請求項2記載の発明は、パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習装置において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
【数13】
Figure 0003618007
と正規化項“λQ(θ)”とからなる関数
【数14】
Figure 0003618007
が最小化されるようパラメータθを修正する際に、
正則化項の係数“λ”が、
λ=−α n /n
0<α n <√n
を満足する。
【0021】
請求項3記載の発明は、請求項1又は2記載の発明において、正則化項をパラメータの個数が少ない数式により設定した。
【0022】
請求項4記載の発明は、パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習方法において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
【数15】
Figure 0003618007
と正規化項“λQ(θ)”とからなる関数
【数16】
Figure 0003618007
が最小化されるようパラメータθを修正する際に、
正則化項の係数“λ”が、
λ=−α n /n
0<α n <n
を満足する。
【0027】
請求項5記載の発明は、パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習方法において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
【数17】
Figure 0003618007
と正規化項“λQ(θ)”とからなる関数
【数18】
Figure 0003618007
が最小化されるようパラメータθを修正する際に、
正則化項の係数“λ”が、
λ=−α n /n
0<α n <√n
を満足する。
【0032】
請求項6記載の発明は、請求項4又は5記載の発明において、正則化項をパラメータの個数が少ない数式により設定した。
【0033】
【作用】
請求項1及び4記載の発明では、損失関数に付加する正則化項の係数“λ”が、
λ=−α /n
0<α <n
を満足するので、ニューラルネットワークのパラメータ“θ”が真のパラメータの任意の一つに収束される。
【0034】
請求項2及び5記載の発明では、損失関数に付加する正則化項の係数“λ”が、
λ=−α /n
0<α <√n
を満足するので、ニューラルネットワークのパラメータ“θ”が複数の真のパラメータの特定の一つに収束される。
【0035】
請求項3及び6記載の発明では、正則化項の数式のパラメータの個数が少ないので、ニューラルネットワークのパラメータ“θ”が、複数の真のパラメータのうち結合荷重のパラメータの個数が少ないものに収束される。
【0036】
【実施例】
本発明の一実施例を図1及び図2に基づいて以下に説明する。まず、本実施例の学習装置1は、図1に示すように、データ記憶手段2、データ入力手段3、データ比較手段4、パラメータ修正手段5、を有しており、ニューラルネットワーク6に接続されている。
【0037】
このニューラルネットワーク6は、可変自在なパラメータ“θ”を有する関数“f”が設定された多層パーセプトロンからなり、データ“x”の入力に対してデータ“y”を出力する。
【0038】
そして、前記データ記憶手段2には、ニューラルネットワーク6の学習に適正な組み合わせの学習データ“x ,y ”が予め設定されている。前記データ入力手段3は、前記データ記憶手段2から一つの学習データ“x ”を読み出して前記ニューラルネットワーク6に入力し、前記データ比較手段4は、前記ニューラルネットワーク6から出力されるデータ“y”と前記データ記憶手段2から読み出した学習データ“y ”とを比較する。前記パラメータ修正手段5は、“y”と“y ”との隔たりを示す付加損失関数が予め設定されており、この付加損失関数が最小化されるよう前記ニューラルネットワーク6のパラメータ“θ”を設定する。
【0039】
そして、本実施例の学習装置1では、損失関数
【0040】
【数19】
Figure 0003618007
【0041】
と正則化項“λQ(θ)”とからなる関数である付加損失関数が
【0042】
【数20】
Figure 0003618007
【0043】
として設定されており、
λ=−α /n
0<α <n
を満足する。なお、付加損失関数“Ln(θ)”の正則化項“λQ(θ)”は、
【0044】
【数21】
Figure 0003618007
【0045】
として、パラメータの個数が少ない数式により設定されている。
【0046】
このような構成において、本実施例の学習装置1におけるニューラルネットワーク6の学習方法を、図2に基づいて以下に説明する。
【0047】
まず、パラメータ修正手段5によりニューラルネットワーク6のパラメータ“θ”をランダムに初期化し、データ入力手段3によりデータ記憶手段2から一つの学習データ“x ”を読み出してニューラルネットワーク6に入力する。すると、このニューラルネットワーク6は、パラメータ“θ”を有する関数“f”により、学習データ“x ”の入力に対応してデータ“y”を出力する。この時、データ比較手段4は、学習データ“x ”に対応した学習データ“y ”をデータ記憶手段2から読み出しており、この学習データ“y ”とニューラルネットワーク6の出力データ“y”とを比較する。
【0048】
そこで、パラメータ修正手段5は、比較結果を評価してニューラルネットワーク6のパラメータ“θ”を修正し、この“θ”で付加損失関数“Ln(θ)”を計算する。つぎに、この付加損失関数“Ln(θ)”を充分に小さな閾値“ε”と比較し、この閾値“ε”より付加損失関数“Ln(θ)”が小さい場合は処理を終了する。なお、閾値“ε”より付加損失関数“Ln(θ)”が大きい場合は、データ入力手段3によりデータ記憶手段2から次の学習データ“x ”が読み出されて処理が繰り返される。
【0049】
上述のように学習をn個の学習データにより順次繰り返すことにより、付加損失関数“Ln(θ)”が最小化されるよう、ニューラルネットワーク6のパラメータ“θ”が設定されるので、これは真のパラメータに確率収束される。この時、本実施例の学習装置1では、付加損失関数“Ln(θ)”が
【0050】
【数22】
Figure 0003618007
【0051】
として設定されており、
0<α <n
を満足するので、真のパラメータが複数の場合でも、ニューラルネットワーク6のパラメータ“θ”は真のパラメータの一つに確率収束される。しかも、正則化項“λQ(θ)”が、
【0052】
【数23】
Figure 0003618007
【0053】
として、パラメータの個数が少ない数式により設定されているので、学習データ“x ,y ”の個数が増大すると、ニューラルネットワーク6のパラメータ“θ”は、真のパラメータの集合のうち個数が最小のものに確率収束される。
【0054】
そこで、このことを以下に順次説明する。なお、より詳細には、本発明者が発表した“「縮退したFisher 情報行列を持つ系の学習について」信学技報 NC94−56(1994−12)P41〜P48 ”に開示されている。また、以下の説明では、最適な組み合わせの学習データ“x,y”を一つの学習データ“x”として表現する。
【0055】
まず、推定するパラメータ“θ”の確率密度“P(x|θ)”により、付加損失関数
【0056】
【数24】
Figure 0003618007
【0057】
を設定する。真のパラメータの集合“Θ”が一点ではなく多様体であると想定し、ここでは“θ=(θ ,θ)(θ ∈Θ)”と表現する(なお、“θ ”は“θ ”毎に局所座標に従って“δθ ”にユークリッドの意味で直角になるようにとる)。すると、付加損失関数は、
【0058】
【数25】
Figure 0003618007
【0059】
となるので、一般的な一致性として“θ →Θ”を仮定すると、“θ →0”となる。つまり、
【0060】
【数26】
Figure 0003618007
【0061】
となる。なお、
R=O(θ )+(α /n)O(θ
である。
【0062】
この場合、第一項は、“θ”によらない定数であり、第二項は、中心極限定理により平均が“0”で共分散行列が“F(θ)/√n”であるような正規分布に従う。なお、
【0063】
【数27】
Figure 0003618007
【0064】
であり、第三項は、大数の定理により、
−(1/2)F(θ)θθ
に収束される。
【0065】
以上のことより、“v”を“N(0,I)に従う確率変数とすると(“I”は“F(θ)”次の単位行列)、
【0066】
【数28】
Figure 0003618007
【0067】
となる。なお、“R′”は、
R′=O(θ )+O(1/√n)O(θ )+O(1/n)O(θ)+(α/n)O(θ
であるので、平方完成すると、
【0068】
【数29】
Figure 0003618007
【0069】
となる。この場合、“F(θ)>0”とすると、第一項を“0”にするような“θ ”をとることができる(但し、α = o(√n)の仮定は必要)。この時、第二項の大きさは“α /n+‖v‖ /2n”となるが、“‖v‖ ”について学習データの出方の平均をとると“rankF(θ)”となる。
【0070】
従って、“θ ”が“θ(これは“Q(θ,0)”を最大にする“θ ”である)”に収束される十分条件は、付加損失関数が
【0071】
【数30】
Figure 0003618007
【0072】
の場合に、正則化項の係数“λ”が、
λ=−α /n
0<α <n
を満足することである。この条件を満足した場合、
【0073】
【数31】
Figure 0003618007
【0074】
となり、その分布は、
【0075】
【数32】
Figure 0003618007
【0076】
である。なお、
【0077】
【数33】
Figure 0003618007
【0078】
である。
【0079】
しかも、本実施例の学習装置1の学習方法では、付加損失関数“Ln(θ)”の正則化項“λQ(θ)”が、
【0080】
【数34】
Figure 0003618007
【0081】
として、パラメータ“θ”の個数が少ない数式により設定されているので、ニューラルネットワーク6のパラメータ“θ”は、複数の真のパラメータのうち結合荷重のパラメータの個数が少ないものに収束される。このようにパラメータ“θ”の個数が少ない数式は、
【0082】
【数35】
Figure 0003618007
【0083】
など、
【0084】
【数36】
Figure 0003618007
【0085】
の形であれば良い。
【0086】
なお、本実施例では付加損失関数“Ln(θ)”の正則化項“λQ(θ)”の係数が“−α /n”の場合に“0<α <n”を満足することにより、ニューラルネットワーク6のパラメータ“θ”を、真のパラメータの任意の一つに確率収束させることを例示した。しかし、本発明は上記実施例に限定されるものではなく、“0<α <√n”を満足することにより、ニューラルネットワーク6のパラメータ“θ”を、真のパラメータのうち正則化項“λQ(θ)”を最大とする特定の一つに確率収束させることも可能である。
【0087】
また、本実施例の学習装置1では、付加損失関数“Ln(θ)”の正則化項“λQ(θ)”の係数が“−α /n”の場合に、“0<α <n”か“0<α <√n”かを満足することを例示したが、これを“1<α <n”や“1<α <√n”とすることにより、より良好にパラメータを確率収束させることも可能である。さらに、本実施例では、ニューラルネットワーク6が多層パーセプトロンからなることを例示したが、本発明は上記実施例に限定されるものではなく、ボルツマンマシンなどのニューラルネットワークにも適用可能である。
【0088】
【発明の効果】
請求項1及び4記載の発明は、損失関数に付加する正則化項の係数“λ”が、
λ=−α /n
0<α <n
を満足することにより、ニューラルネットワークのパラメータ“θ”を真のパラメータの一つに収束させることができる。
【0089】
請求項2及び5記載の発明は、損失関数に付加する正則化項の係数“λ”が、
λ=−α /n
0<α <√n
を満足することにより、ニューラルネットワークのパラメータ“θ”を、真のパラメータのうち正則化項“λQ(θ)”を最大とする特定の一つに収束させることができる。
【0090】
請求項3及び6記載の発明では、正則化項の数式のパラメータの個数が少ないことにより、ニューラルネットワークのパラメータ“θ”を、複数の真のパラメータのうち結合荷重のパラメータの個数が少ないものに収束させることができる。
【図面の簡単な説明】
【図1】本発明の一実施例のニューラルネットワークの学習装置を示すブロック図である。
【図2】ニューラルネットワークの学習方法を示すフローチャートである。
【符号の説明】
1 学習装置
3 データ入力手段
4 データ比較手段
5 パラメータ修正手段
6 ニューラルネットワーク

Claims (6)

  1. パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
    ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
    前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
    前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
    前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
    を接続したニューラルネットワークの学習装置において、
    前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
    Figure 0003618007
    と正規化項“λQ(θ)”とからなる関数
    Figure 0003618007
    が最小化されるようパラメータθを修正する際に、
    正則化項の係数“λ”が、
    λ=−αn/n
    0<αn<n
    を満足することを特徴とするニューラルネットワークの学習装置。
  2. パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
    ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
    前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
    前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
    前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
    を接続したニューラルネットワークの学習装置において、
    前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
    Figure 0003618007
    と正規化項“λQ(θ)”とからなる関数
    Figure 0003618007
    が最小化されるようパラメータθを修正する際に、
    正則化項の係数“λ”が、
    λ=−αn/n
    0<αn<√n
    を満足することを特徴とするニューラルネットワークの学習装置。
  3. 正則化項をパラメータの個数が少ない数式により設定したことを特徴とする請求項1又は2記載のニューラルネットワークの学習装置。
  4. パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
    ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
    前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
    前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
    前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
    を接続したニューラルネットワークの学習方法において、
    前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
    Figure 0003618007
    と正規化項“λQ(θ)”とからなる関数
    Figure 0003618007
    が最小化されるようパラメータθを修正する際に、
    正則化項の係数“λ”が、
    λ=−αn/n
    0<αn<n
    を満足することを特徴とするニューラルネットワークの学習方法。
  5. パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
    ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
    前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
    前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
    前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
    を接続したニューラルネットワークの学習方法において、
    前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
    Figure 0003618007
    と正規化項“λQ(θ)”とからなる関数
    Figure 0003618007
    が最小化されるようパラメータθを修正する際に、
    正則化項の係数“λ”が、
    λ=−αn/n
    0<αn<√n
    を満足することを特徴とするニューラルネットワークの学習方法。
  6. 正則化項をパラメータの個数が少ない数式により設定したことを特徴とする請求項4又は5記載のニューラルネットワークの学習方法。
JP01181195A 1995-01-27 1995-01-27 ニューラルネットワークの学習装置及び学習方法 Expired - Fee Related JP3618007B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01181195A JP3618007B2 (ja) 1995-01-27 1995-01-27 ニューラルネットワークの学習装置及び学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01181195A JP3618007B2 (ja) 1995-01-27 1995-01-27 ニューラルネットワークの学習装置及び学習方法

Publications (2)

Publication Number Publication Date
JPH08202674A JPH08202674A (ja) 1996-08-09
JP3618007B2 true JP3618007B2 (ja) 2005-02-09

Family

ID=11788208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01181195A Expired - Fee Related JP3618007B2 (ja) 1995-01-27 1995-01-27 ニューラルネットワークの学習装置及び学習方法

Country Status (1)

Country Link
JP (1) JP3618007B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11586925B2 (en) 2017-09-29 2023-02-21 Samsung Electronics Co., Ltd. Neural network recogntion and training method and apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6729676B2 (ja) 2016-02-24 2020-07-22 日本電気株式会社 ニューラルネットワーク学習装置、ニューラルネットワーク学習方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11586925B2 (en) 2017-09-29 2023-02-21 Samsung Electronics Co., Ltd. Neural network recogntion and training method and apparatus

Also Published As

Publication number Publication date
JPH08202674A (ja) 1996-08-09

Similar Documents

Publication Publication Date Title
Suykens et al. Least squares support vector machine classifiers
US4979126A (en) Neural network with non-linear transformations
Bruske et al. Dynamic cell structure learns perfectly topology preserving map
JP7310351B2 (ja) 情報処理方法及び情報処理装置
Song et al. A self-organizing neural tree for large-set pattern classification
CN111583263A (zh) 一种基于联合动态图卷积的点云分割方法
WO2005083632A1 (ja) 参照データ最適化学習方法とパターン認識システム
CN115731441A (zh) 基于数据跨模态迁移学习的目标检测和姿态估计方法
US5317675A (en) Neural network pattern recognition learning method
JP3618007B2 (ja) ニューラルネットワークの学習装置及び学習方法
CN113706524B (zh) 基于持续学习方法改进的卷积神经网络翻拍图像检测系统
JP3035106B2 (ja) 大規模情報認識回路
Banik et al. Offline signature authentication: A back propagation-neural network approach
Shokri et al. Q (/spl Lambda/)-based image thresholding
Brouwer A fuzzy recurrent artificial neural network (frann) for pattern classification
JPH0991264A (ja) ニューラルネットワーク構造最適化装置ならびに方法
CN109784477B (zh) 一种用于对比神经网络训练的采样的方法及系统
Li et al. A Novel Method to Fix Numbers of Hidden Neurons in Deep Neural Networks
Jodogne et al. Approximate policy iteration for closed-loop learning of visual tasks
CN116050503B (zh) 一种通用化的神经网络前向训练方法
JPH04311254A (ja) ニューラル・ネットワーク及びその制御方法及びニューラル・ネットワーク用演算装置
Tagliaferri et al. A supervised fuzzy clustering for radial basis function neural networks training
Pal et al. A multilayer self-organizing model for convex-hull computation
Herpers et al. Evaluation of local image structures applying a DCS network
JP3027874B2 (ja) 神経回路網及びそのパターン認識装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041108

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071119

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101119

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees