JP3618007B2 - ニューラルネットワークの学習装置及び学習方法 - Google Patents
ニューラルネットワークの学習装置及び学習方法 Download PDFInfo
- Publication number
- JP3618007B2 JP3618007B2 JP01181195A JP1181195A JP3618007B2 JP 3618007 B2 JP3618007 B2 JP 3618007B2 JP 01181195 A JP01181195 A JP 01181195A JP 1181195 A JP1181195 A JP 1181195A JP 3618007 B2 JP3618007 B2 JP 3618007B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- neural network
- learning
- parameter
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Feedback Control In General (AREA)
Description
【産業上の利用分野】
本発明は、ニューラルネットワークの学習装置及び学習方法に関する。
【0002】
【従来の技術】
現在、画像認識、画像分類、音声認識、音声分類、運動制御、システム制御、知能システムなど、フォンノイマンコンピュータでは困難な信号処理を実行するため、ニューラルネットワークを利用することが提案されている。このようなニューラルネットワークは、多数のニューロンをシナプスにより結合してネットワークを形成したもので、学習する機能を有する。
【0003】
ニューラルネットワークの学習方法としては、各種方法が提案されているが、その一つとして損失関数を最小化させる方法がある。例えば、ニューラルネットワークが“x”の入力に対して“y”を出力する場合、これは“θ”なるパラメータを有する“f”なる関数により“y=f(θ:x)”として表現される。そこで、適正な組み合わせのn個の学習データ“xi ,yi ”(i=1〜n)を用意し、学習データ“xi ”をニューラルネットワークに入力し、このニューラルネットワークから出力されるデータ“y”と学習データ“yi ”とを比較し、この隔たりを示す損失関数
【0004】
【数9】
【0005】
が最小化されるようパラメータ“θ”を修正する。このようにニューラルネットワークのパラメータ“θ”を修正することにより、このパラメータ“θ”を真のパラメータに収束させることができるので、データ“x”の入力に対して適正なデータ“y”を出力するようにニューラルネットワークを学習させることができる。
【0006】
現在、このような損失関数によるニューラルネットワークの学習方法の改良案として、損失関数に適当な正則化項を付加することが知られている。この場合、損失関数に正則化項“λQ(θ)”を付加した関数
【0007】
【数10】
【0008】
を想定し、これが最小化されるようニューラルネットワークのパラメータ“θ”を修正する。なお、以下の説明では、損失関数に正則化項を付加した関数を付加損失関数と呼称する。
【0009】
【発明が解決しようとする課題】
上述のように付加損失関数により、さらに良好にニューラルネットワークを学習させることができる。
【0010】
しかし、上述のような付加損失関数を利用したニューラルネットワークの学習方法は、真のパラメータ“θ”が一つの場合には有効であるが、真のパラメータ“θ”が複数の場合には、その限りでない。
【0011】
請求項1記載の発明は、パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習装置において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
【数11】
と正規化項“λQ(θ)”とからなる関数
【数12】
が最小化されるようパラメータθを修正する際に、
正則化項の係数“λ”が、
λ=−α n /n
0<α n <n
を満足する。
【0016】
請求項2記載の発明は、パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習装置において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
【数13】
と正規化項“λQ(θ)”とからなる関数
【数14】
が最小化されるようパラメータθを修正する際に、
正則化項の係数“λ”が、
λ=−α n /n
0<α n <√n
を満足する。
【0021】
請求項3記載の発明は、請求項1又は2記載の発明において、正則化項をパラメータの個数が少ない数式により設定した。
【0022】
請求項4記載の発明は、パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習方法において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
【数15】
と正規化項“λQ(θ)”とからなる関数
【数16】
が最小化されるようパラメータθを修正する際に、
正則化項の係数“λ”が、
λ=−α n /n
0<α n <n
を満足する。
【0027】
請求項5記載の発明は、パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習方法において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
【数17】
と正規化項“λQ(θ)”とからなる関数
【数18】
が最小化されるようパラメータθを修正する際に、
正則化項の係数“λ”が、
λ=−α n /n
0<α n <√n
を満足する。
【0032】
請求項6記載の発明は、請求項4又は5記載の発明において、正則化項をパラメータの個数が少ない数式により設定した。
【0033】
【作用】
請求項1及び4記載の発明では、損失関数に付加する正則化項の係数“λ”が、
λ=−αn /n
0<αn <n
を満足するので、ニューラルネットワークのパラメータ“θ”が真のパラメータの任意の一つに収束される。
【0034】
請求項2及び5記載の発明では、損失関数に付加する正則化項の係数“λ”が、
λ=−αn /n
0<αn <√n
を満足するので、ニューラルネットワークのパラメータ“θ”が複数の真のパラメータの特定の一つに収束される。
【0035】
請求項3及び6記載の発明では、正則化項の数式のパラメータの個数が少ないので、ニューラルネットワークのパラメータ“θ”が、複数の真のパラメータのうち結合荷重のパラメータの個数が少ないものに収束される。
【0036】
【実施例】
本発明の一実施例を図1及び図2に基づいて以下に説明する。まず、本実施例の学習装置1は、図1に示すように、データ記憶手段2、データ入力手段3、データ比較手段4、パラメータ修正手段5、を有しており、ニューラルネットワーク6に接続されている。
【0037】
このニューラルネットワーク6は、可変自在なパラメータ“θ”を有する関数“f”が設定された多層パーセプトロンからなり、データ“x”の入力に対してデータ“y”を出力する。
【0038】
そして、前記データ記憶手段2には、ニューラルネットワーク6の学習に適正な組み合わせの学習データ“xi ,yi ”が予め設定されている。前記データ入力手段3は、前記データ記憶手段2から一つの学習データ“xi ”を読み出して前記ニューラルネットワーク6に入力し、前記データ比較手段4は、前記ニューラルネットワーク6から出力されるデータ“y”と前記データ記憶手段2から読み出した学習データ“yi ”とを比較する。前記パラメータ修正手段5は、“y”と“yi ”との隔たりを示す付加損失関数が予め設定されており、この付加損失関数が最小化されるよう前記ニューラルネットワーク6のパラメータ“θ”を設定する。
【0039】
そして、本実施例の学習装置1では、損失関数
【0040】
【数19】
【0041】
と正則化項“λQ(θ)”とからなる関数である付加損失関数が
【0042】
【数20】
【0043】
として設定されており、
λ=−αn /n
0<αn <n
を満足する。なお、付加損失関数“Ln(θ)”の正則化項“λQ(θ)”は、
【0044】
【数21】
【0045】
として、パラメータの個数が少ない数式により設定されている。
【0046】
このような構成において、本実施例の学習装置1におけるニューラルネットワーク6の学習方法を、図2に基づいて以下に説明する。
【0047】
まず、パラメータ修正手段5によりニューラルネットワーク6のパラメータ“θ”をランダムに初期化し、データ入力手段3によりデータ記憶手段2から一つの学習データ“xi ”を読み出してニューラルネットワーク6に入力する。すると、このニューラルネットワーク6は、パラメータ“θ”を有する関数“f”により、学習データ“xi ”の入力に対応してデータ“y”を出力する。この時、データ比較手段4は、学習データ“xi ”に対応した学習データ“yi ”をデータ記憶手段2から読み出しており、この学習データ“yi ”とニューラルネットワーク6の出力データ“y”とを比較する。
【0048】
そこで、パラメータ修正手段5は、比較結果を評価してニューラルネットワーク6のパラメータ“θ”を修正し、この“θ”で付加損失関数“Ln(θ)”を計算する。つぎに、この付加損失関数“Ln(θ)”を充分に小さな閾値“ε”と比較し、この閾値“ε”より付加損失関数“Ln(θ)”が小さい場合は処理を終了する。なお、閾値“ε”より付加損失関数“Ln(θ)”が大きい場合は、データ入力手段3によりデータ記憶手段2から次の学習データ“xi ”が読み出されて処理が繰り返される。
【0049】
上述のように学習をn個の学習データにより順次繰り返すことにより、付加損失関数“Ln(θ)”が最小化されるよう、ニューラルネットワーク6のパラメータ“θ”が設定されるので、これは真のパラメータに確率収束される。この時、本実施例の学習装置1では、付加損失関数“Ln(θ)”が
【0050】
【数22】
【0051】
として設定されており、
0<αn <n
を満足するので、真のパラメータが複数の場合でも、ニューラルネットワーク6のパラメータ“θ”は真のパラメータの一つに確率収束される。しかも、正則化項“λQ(θ)”が、
【0052】
【数23】
【0053】
として、パラメータの個数が少ない数式により設定されているので、学習データ“xi ,yi ”の個数が増大すると、ニューラルネットワーク6のパラメータ“θ”は、真のパラメータの集合のうち個数が最小のものに確率収束される。
【0054】
そこで、このことを以下に順次説明する。なお、より詳細には、本発明者が発表した“「縮退したFisher 情報行列を持つ系の学習について」信学技報 NC94−56(1994−12)P41〜P48 ”に開示されている。また、以下の説明では、最適な組み合わせの学習データ“x,y”を一つの学習データ“x”として表現する。
【0055】
まず、推定するパラメータ“θ”の確率密度“P(x|θ)”により、付加損失関数
【0056】
【数24】
【0057】
を設定する。真のパラメータの集合“Θ”が一点ではなく多様体であると想定し、ここでは“θ=(θ1 ,θ2)(θ1 ∈Θ)”と表現する(なお、“θ2 ”は“θ1 ”毎に局所座標に従って“δθ 1”にユークリッドの意味で直角になるようにとる)。すると、付加損失関数は、
【0058】
【数25】
【0059】
となるので、一般的な一致性として“θ1 →Θ”を仮定すると、“θ2 →0”となる。つまり、
【0060】
【数26】
【0061】
となる。なお、
R=O(θ2 3)+(αn /n)O(θ2 2)
である。
【0062】
この場合、第一項は、“θ”によらない定数であり、第二項は、中心極限定理により平均が“0”で共分散行列が“F(θ1)/√n”であるような正規分布に従う。なお、
【0063】
【数27】
【0064】
であり、第三項は、大数の定理により、
−(1/2)F(θ1)θ2θ2′
に収束される。
【0065】
以上のことより、“v”を“N(0,I)に従う確率変数とすると(“I”は“F(θ1)”次の単位行列)、
【0066】
【数28】
【0067】
となる。なお、“R′”は、
R′=O(θ2 3)+O(1/√n)O(θ2 2)+O(1/n)O(θ2)+(αn/n)O(θ2 2)
であるので、平方完成すると、
【0068】
【数29】
【0069】
となる。この場合、“F(θ1)>0”とすると、第一項を“0”にするような“θ2 ”をとることができる(但し、αn = o(√n)の仮定は必要)。この時、第二項の大きさは“αn /n+‖v‖2 /2n”となるが、“‖v‖2 ”について学習データの出方の平均をとると“rankF(θ1)”となる。
【0070】
従って、“θ1 ”が“θ0(これは“Q(θ1,0)”を最大にする“θ1 ”である)”に収束される十分条件は、付加損失関数が
【0071】
【数30】
【0072】
の場合に、正則化項の係数“λ”が、
λ=−αn /n
0<αn <n
を満足することである。この条件を満足した場合、
【0073】
【数31】
【0074】
となり、その分布は、
【0075】
【数32】
【0076】
である。なお、
【0077】
【数33】
【0078】
である。
【0079】
しかも、本実施例の学習装置1の学習方法では、付加損失関数“Ln(θ)”の正則化項“λQ(θ)”が、
【0080】
【数34】
【0081】
として、パラメータ“θ”の個数が少ない数式により設定されているので、ニューラルネットワーク6のパラメータ“θ”は、複数の真のパラメータのうち結合荷重のパラメータの個数が少ないものに収束される。このようにパラメータ“θ”の個数が少ない数式は、
【0082】
【数35】
【0083】
など、
【0084】
【数36】
【0085】
の形であれば良い。
【0086】
なお、本実施例では付加損失関数“Ln(θ)”の正則化項“λQ(θ)”の係数が“−αn /n”の場合に“0<αn <n”を満足することにより、ニューラルネットワーク6のパラメータ“θ”を、真のパラメータの任意の一つに確率収束させることを例示した。しかし、本発明は上記実施例に限定されるものではなく、“0<αn <√n”を満足することにより、ニューラルネットワーク6のパラメータ“θ”を、真のパラメータのうち正則化項“λQ(θ)”を最大とする特定の一つに確率収束させることも可能である。
【0087】
また、本実施例の学習装置1では、付加損失関数“Ln(θ)”の正則化項“λQ(θ)”の係数が“−αn /n”の場合に、“0<αn <n”か“0<αn <√n”かを満足することを例示したが、これを“1<αn <n”や“1<αn <√n”とすることにより、より良好にパラメータを確率収束させることも可能である。さらに、本実施例では、ニューラルネットワーク6が多層パーセプトロンからなることを例示したが、本発明は上記実施例に限定されるものではなく、ボルツマンマシンなどのニューラルネットワークにも適用可能である。
【0088】
【発明の効果】
請求項1及び4記載の発明は、損失関数に付加する正則化項の係数“λ”が、
λ=−αn /n
0<αn <n
を満足することにより、ニューラルネットワークのパラメータ“θ”を真のパラメータの一つに収束させることができる。
【0089】
請求項2及び5記載の発明は、損失関数に付加する正則化項の係数“λ”が、
λ=−αn /n
0<αn <√n
を満足することにより、ニューラルネットワークのパラメータ“θ”を、真のパラメータのうち正則化項“λQ(θ)”を最大とする特定の一つに収束させることができる。
【0090】
請求項3及び6記載の発明では、正則化項の数式のパラメータの個数が少ないことにより、ニューラルネットワークのパラメータ“θ”を、複数の真のパラメータのうち結合荷重のパラメータの個数が少ないものに収束させることができる。
【図面の簡単な説明】
【図1】本発明の一実施例のニューラルネットワークの学習装置を示すブロック図である。
【図2】ニューラルネットワークの学習方法を示すフローチャートである。
【符号の説明】
1 学習装置
3 データ入力手段
4 データ比較手段
5 パラメータ修正手段
6 ニューラルネットワーク
Claims (6)
- パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習装置において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
正則化項の係数“λ”が、
λ=−αn/n
0<αn<n
を満足することを特徴とするニューラルネットワークの学習装置。 - パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習装置において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
正則化項の係数“λ”が、
λ=−αn/n
0<αn<√n
を満足することを特徴とするニューラルネットワークの学習装置。 - 正則化項をパラメータの個数が少ない数式により設定したことを特徴とする請求項1又は2記載のニューラルネットワークの学習装置。
- パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習方法において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
正則化項の係数“λ”が、
λ=−αn/n
0<αn<n
を満足することを特徴とするニューラルネットワークの学習方法。 - パラメータを有する関数“f”によりデータ“x”の入力に対してデータ“y”を出力するニューラルネットワークを利用し、
ニューラルネットワークの学習に適正な組み合わせのn個の学習データ“x i ,y i ”(i=1〜n)が予め設定されたデータ記憶手段と、
前記データ記憶手段から一の学習データ“x i ”を読み出し前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークによって出力された“y”と前記データ記憶手段から前記データ入力手段に読み出された学習データ“x i ”に対応する“y i ”を前記データ記憶手段から読み出して比較するデータ比較手段と、
前記データ比較手段によって比較された“y”と“y i ”の隔たりからパラメータθを修正するパラメータ修正手段と、
を接続したニューラルネットワークの学習方法において、
前記データ比較手段が前記データ入力手段により学習データ“x i ”を前記ニューラルネットワークに入力して出力されるデータ“y”と学習データ“y i ”とを比較し、前記パラメータ修正手段がこの隔たりを示す損失関数
正則化項の係数“λ”が、
λ=−αn/n
0<αn<√n
を満足することを特徴とするニューラルネットワークの学習方法。 - 正則化項をパラメータの個数が少ない数式により設定したことを特徴とする請求項4又は5記載のニューラルネットワークの学習方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01181195A JP3618007B2 (ja) | 1995-01-27 | 1995-01-27 | ニューラルネットワークの学習装置及び学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01181195A JP3618007B2 (ja) | 1995-01-27 | 1995-01-27 | ニューラルネットワークの学習装置及び学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08202674A JPH08202674A (ja) | 1996-08-09 |
JP3618007B2 true JP3618007B2 (ja) | 2005-02-09 |
Family
ID=11788208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01181195A Expired - Fee Related JP3618007B2 (ja) | 1995-01-27 | 1995-01-27 | ニューラルネットワークの学習装置及び学習方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3618007B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11586925B2 (en) | 2017-09-29 | 2023-02-21 | Samsung Electronics Co., Ltd. | Neural network recogntion and training method and apparatus |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6729676B2 (ja) | 2016-02-24 | 2020-07-22 | 日本電気株式会社 | ニューラルネットワーク学習装置、ニューラルネットワーク学習方法及びプログラム |
-
1995
- 1995-01-27 JP JP01181195A patent/JP3618007B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11586925B2 (en) | 2017-09-29 | 2023-02-21 | Samsung Electronics Co., Ltd. | Neural network recogntion and training method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
JPH08202674A (ja) | 1996-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Suykens et al. | Least squares support vector machine classifiers | |
US4979126A (en) | Neural network with non-linear transformations | |
Bruske et al. | Dynamic cell structure learns perfectly topology preserving map | |
JP7310351B2 (ja) | 情報処理方法及び情報処理装置 | |
Song et al. | A self-organizing neural tree for large-set pattern classification | |
CN111583263A (zh) | 一种基于联合动态图卷积的点云分割方法 | |
WO2005083632A1 (ja) | 参照データ最適化学習方法とパターン認識システム | |
CN115731441A (zh) | 基于数据跨模态迁移学习的目标检测和姿态估计方法 | |
US5317675A (en) | Neural network pattern recognition learning method | |
JP3618007B2 (ja) | ニューラルネットワークの学習装置及び学習方法 | |
CN113706524B (zh) | 基于持续学习方法改进的卷积神经网络翻拍图像检测系统 | |
JP3035106B2 (ja) | 大規模情報認識回路 | |
Banik et al. | Offline signature authentication: A back propagation-neural network approach | |
Shokri et al. | Q (/spl Lambda/)-based image thresholding | |
Brouwer | A fuzzy recurrent artificial neural network (frann) for pattern classification | |
JPH0991264A (ja) | ニューラルネットワーク構造最適化装置ならびに方法 | |
CN109784477B (zh) | 一种用于对比神经网络训练的采样的方法及系统 | |
Li et al. | A Novel Method to Fix Numbers of Hidden Neurons in Deep Neural Networks | |
Jodogne et al. | Approximate policy iteration for closed-loop learning of visual tasks | |
CN116050503B (zh) | 一种通用化的神经网络前向训练方法 | |
JPH04311254A (ja) | ニューラル・ネットワーク及びその制御方法及びニューラル・ネットワーク用演算装置 | |
Tagliaferri et al. | A supervised fuzzy clustering for radial basis function neural networks training | |
Pal et al. | A multilayer self-organizing model for convex-hull computation | |
Herpers et al. | Evaluation of local image structures applying a DCS network | |
JP3027874B2 (ja) | 神経回路網及びそのパターン認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040630 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041108 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071119 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081119 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081119 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091119 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101119 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |