JP2022108332A - 機械学習装置、機械学習方法、および機械学習プログラム - Google Patents
機械学習装置、機械学習方法、および機械学習プログラム Download PDFInfo
- Publication number
- JP2022108332A JP2022108332A JP2021003241A JP2021003241A JP2022108332A JP 2022108332 A JP2022108332 A JP 2022108332A JP 2021003241 A JP2021003241 A JP 2021003241A JP 2021003241 A JP2021003241 A JP 2021003241A JP 2022108332 A JP2022108332 A JP 2022108332A
- Authority
- JP
- Japan
- Prior art keywords
- filter
- task
- learning
- filters
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 25
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 abstract description 31
- 239000000284 extract Substances 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
Description
本発明は、機械学習技術に関する。
人間は長期にわたる経験を通して新しい知識を学習することができ、昔の知識を忘れないように維持することができる。一方、畳み込みニューラルネットワーク(Convolutional Neural Network(CNN))の知識は学習に使用したデータセットに依存しており、データ分布の変化に適応するためにはデータセット全体に対してCNNのパラメータの再学習が必要となる。CNNでは、新しいタスクについて学習していくにつれて、昔のタスクに対する推定精度は低下していく。このようにCNNでは連続学習を行うと新しいタスクの学習中に昔のタスクの学習結果を忘れてしまう致命的忘却(catastrophic forgetting)が避けられない。
致命的忘却を回避する手法として、継続学習(incremental learningまたはcontinual learning)が提案されている。継続学習の一つの手法としてPackNetがある。
特許文献1には、複数の学習モジュールが更新したモデルパラメータを2以上の学習モジュールに共有させる学習装置が開示されている。
継続学習の一つの手法であるPackNetは、致命的忘却問題を回避することができる。しかし、PackNetでは、モデルのフィルタ数に限りがあり、新しいタスクを学習していくと、フィルタが飽和するため、学習可能なタスク数に制限があるという問題があった。
本発明はこうした状況に鑑みてなされたものであり、その目的は、フィルタの飽和を緩和することができる機械学習技術を提供することにある。
上記課題を解決するために、本発明のある態様の機械学習装置は、タスクの特徴検出に用いられる複数のフィルタの重みを記憶する重み記憶部と、入力されるタスクに対して前記複数のフィルタの重みを継続学習する継続学習部と、所定のエポック数の前記継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出するフィルタ制御部とを含む。
本発明の別の態様は、機械学習方法である。この方法は、入力されるタスクに対して、タスクの特徴検出に用いられる複数のフィルタの重みを継続学習する継続学習ステップと、所定のエポック数の前記継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出するステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、フィルタの飽和を緩和することができる機械学習技術を提供することができる。
図1(a)~図1(e)は、前提技術となるPackNetによる継続学習を説明する図である。PackNetでは与えられたタスクに対してモデルの複数のフィルタの重みが学習される。ここでは、畳み込みニューラルネットワークの各層の複数のフィルタを格子状に並べて図示する。
PackNetの学習プロセスは下記の(A)~(E)のステップで進められる。
(A)モデルがタスク1を学習する。図1(a)は、タスク1の学習後のフィルタの初期状態を示す。すべてのフィルタはタスク1を学習済みで、色が黒で示される。
(B)各フィルタの重みの値の大きい順にフィルタを並べ、重みの値が小さいフィルタから順に全体の60%のフィルタの値を初期化する。図1(b)は、タスク1の学習後のフィルタの最終状態を示す。初期化されたフィルタは色が白で示される。
(C)次に、タスク2を学習する。このステップにおいて、図1(b)の黒色のフィルタの重みの値がロックされ、重みの値を変更できるのは白色のフィルタだけである。図1(c)は、タスク2の学習後のフィルタの初期状態を示す。図1(b)の白で示されたフィルタのすべてはタスク2を学習済みで、図1(c)において斜線で示される。
(D)ステップ(B)と同様に、タスク2を学習した斜線のフィルタの重みの値の大きい順にフィルタを並べ、重みの値が小さいフィルタから順に全体の60%のフィルタの値を初期化する。図1(d)は、タスク2の学習後のフィルタの最終状態を示す。初期化されたフィルタは色が白で示される。
(E)さらに、タスク3を学習する。このステップにおいて、図1(d)の黒色と斜線のフィルタの重みの値がロックされ、重みの値を変更できるのは白色のフィルタだけである。図1(e)は、タスク3の学習後のフィルタの初期状態を示す。図1(d)の白で示されたフィルタのすべてはタスク3を学習済みで、図1(e)において横縞で示される。
このようにPackNetの学習プロセスによると、このままタスクNまで学習していくと、初期化された白のフィルタの数がどんどん少なくなり、飽和する。フィルタが飽和すると、新しいタスクを学習できなくなる。
PackNetのフィルタがいつか飽和することは回避することができない。しかし、フィルタが飽和するスピードを緩めることはできる。そこで、本実施の形態では、現在のタスクを学習する過程で、重みの類似度が高い重複フィルタをタスク間の共用フィルタとして抽出し、重複フィルタの内、一つのフィルタを共用フィルタとして残し、共用フィルタ以外のフィルタの重みを0に初期化し、現在のタスクの学習対象から除外する。これにより、新しいタスクで学習できるフィルタを増やし、フィルタの飽和速度を緩和し、学習できるタスクの数を増やすことができる。
図2は、実施の形態に係る機械学習装置100の構成図である。機械学習装置100は、入力部10、継続学習部20、フィルタ処理部30、フィルタ制御部40、重み記憶部50、推論部60、および出力部70を含む。
入力部10は、教師付きのタスクを継続学習部20に供給し、未知タスクを推論部60に供給する。ここでは、一例としてタスクは画像認識である。たとえば、タスク1は猫の認識、タスク2は犬の認識といった画像における特定の物体の認識である。
重み記憶部50は、タスクの特徴検出に用いられる複数のフィルタの重みを記憶する。画像をいくつものフィルタに通すことで、その画像の特徴を捉えることができる。
継続学習部20は、入力される教師付きタスクに対して重み記憶部50の複数のフィルタの重みを継続学習し、更新されたフィルタの重みを重み記憶部50に保存する。
継続学習部20が現在のタスクの学習を所定のエポック数だけ行った後、フィルタ制御部40は、現在のタスクを学習中の複数のフィルタの重みと過去のタスクを学習後の複数のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出する。モデルは多層の畳み込みニューラルネットワークであるため、各層において複数のフィルタの重みの類似度を算出する。フィルタ制御部40は、重複フィルタの内、一つのフィルタを共用フィルタとして残し、共用フィルタ以外のフィルタの重みを初期化し、重み記憶部50に保存する。重みが初期化された重複フィルタは、現在のタスクの学習対象から除外され、次のタスクの学習対象として利用される。
ここで、所定のエポック数は、たとえば10回である。学習がある程度安定してから、フィルタ制御部40が類似するフィルタを初期化することが望ましい。学習が安定するまでの回数や時間は、タスクによって異なる。そのため、損失(Loss)と正確さ(Accuracy)の関係からエポック数を調整することが好ましい。ここで、損失は、ニューラルネットワークによる出力値と教師データの与える正解との誤差であり、正確さは、ニューラルネットワークによる出力値の正答率である。
たとえば、学習が安定していることを、下記いずれかの条件を用いて判断し、所定のエポック数を調整する。
(1)損失が一定以下である(たとえば0.75以下)
(2)正確さが一定以上である(たとえば0.75以上)
(3)上記の(1)および(2)の両方の条件を満たす
(1)損失が一定以下である(たとえば0.75以下)
(2)正確さが一定以上である(たとえば0.75以上)
(3)上記の(1)および(2)の両方の条件を満たす
フィルタ処理部30は、1つのタスクを学習後の複数のフィルタの内、所定の割合のフィルタを別のタスクの学習で用いないように重みをロックし、それ以外のフィルタを別のタスクの学習で用いるために重みを初期化する。たとえば、フィルタの重みの大きい順にフィルタを並べ、重みの大きい方から40%のフィルタの重みをロックし、残りの60%のフィルタを別のタスクの学習で用いるために重みを初期化する。
継続学習部20は、新しいタスクに対してフィルタの初期化された重みを継続学習する。
推論部60は、重み記憶部50に保存されたフィルタの重みを用いて、入力された未知タスクに対して推論する。出力部70は、推論部60による推論結果を出力する。
図3(a)~図3(e)は、図2の機械学習装置100による継続学習を説明する図である。畳み込みニューラルネットワークの各層の複数のフィルタを格子状に並べて図示しており、(i,j)は、第i行、第j列のフィルタを指す。
機械学習装置100の学習プロセスは下記の(A)~(E)のステップで進められる。
(A)モデルがタスク1を学習する。図3(a)は、タスク1の学習後のフィルタの初期状態を示す。すべてのフィルタはタスク1を学習済みで、色が黒で示される。
(B)各フィルタの重みの値の大きい順にフィルタを並べ、重みの値が小さいフィルタから順に全体の60%のフィルタの値を初期化する。図3(b)は、タスク1の学習後のフィルタの最終状態を示す。初期化されたフィルタは色が白で示される。
(C)次に、タスク2を学習する。このステップにおいて、図3(b)の黒色のフィルタの重みの値がロックされ、重みの値を変更できるのは白色のフィルタだけである。タスク2の学習過程で、フィルタ制御部40は、タスク2で使用するフィルタがタスク1を学習済みのフィルタ(黒色)と類似するフィルタであった場合、そのフィルタを初期化して、タスク2の学習対象から除外するように制御する。図3(c)は、タスク2の学習後のフィルタの初期状態を示す。図3(b)の白で示されたフィルタの内、タスク2を学習済みのフィルタは、図3(c)において斜線で示される。図3(b)の白で示されたフィルタの内、タスク2の学習過程で初期化され、学習対象から除外されたフィルタは、図3(c)において白で示される。ここでは、(1,1)フィルタ、(1,5)フィルタがタスク2の学習過程で初期化され、それ以降の新しいタスクで利用可能となる。
(D)ステップ(B)と同様に、タスク2を学習した斜線のフィルタの重みの値の大きい順にフィルタを並べ、重みの値が小さいフィルタから順に全体の60%のフィルタの値を初期化する。図3(d)は、タスク2の学習後のフィルタの最終状態を示す。初期化されたフィルタは色が白で示される。
(E)さらに、タスク3を学習する。このステップにおいて、図3(d)の黒色および斜線のフィルタの重みの値がロックされ、重みの値を変更できるのは白色のフィルタだけである。タスク3の学習過程で、フィルタ制御部40は、タスク3で使用するフィルタがタスク1を学習済みのフィルタ(黒色)またはタスク2を学習済みのフィルタ(斜線)と類似するフィルタであった場合、そのフィルタを初期化して、タスク3の学習対象から除外するように制御する。図3(e)は、タスク3の学習後のフィルタの初期状態を示す。図3(d)の白で示されたフィルタの内、タスク3を学習済みのフィルタは、図3(e)において横縞で示される。図3(d)の白で示されたフィルタの内、タスク3の学習過程で初期化され、学習対象から除外されたフィルタは、図3(e)において白で示される。ここでは、(1,1)フィルタ、(1,5)フィルタ、(2,2)フィルタがタスク3の学習過程で初期化され、それ以降の新しいタスクで利用可能となる。
以降、タスクNまで同様の学習プロセスを実行することで、学習過程においてタスク間のフィルタの重複を解消し、フィルタの飽和を緩和し、学習可能なタスク数を増やすことができる。
図4は、図2の機械学習装置100のフィルタ制御部40の動作を説明する図である。
フィルタ制御部40は、ニューラルネットワークの教師付き学習方法であるバックプロパゲーション(誤差逆伝搬法)におけるフィルタの重みの学習時に、現在学習中で所定のエポック数を学習済みのタスクのフィルタの重みを学習済タスクのフィルタの重みと比較し、類似する場合、現在学習中のタスクのフィルタの重みを初期化し、現在のタスクの学習対象から除外する。
モデルには複数のレイヤがあるため、比較は各レイヤ内で行う。例えば、一つのレイヤにフィルタが128個ある。この中に、タスク1を学習済みのフィルタが51個、タスク2を学習中のフィルタが30個、残りのフィルタは初期化されている場合、タスク1の51個のフィルタとタスク2の30個のフィルタの類似度を算出する。
類似度は、フィルタの重みの値の絶対値を比較することによって算出する。たとえば、3×3のフィルタの場合、9個の重みの絶対値を比較する。ここで、閾値を設定する。類似度が閾値を上回ると、二つのフィルタは重複していると判定され、タスク2のフィルタの重みを0に初期化し、以降のタスク2の学習対象から除外する。
フィルタAの各要素をaij、フィルタBの各要素をbijとした場合、二つのフィルタA、B間で同じ位置にある値の絶対値の差を、たとえば次式のd1(A,B)、d2(A,B)、d∞(A,B)、dm(A,B)のように計算する。
上記の説明では、フィルタの類似度は、二つのフィルタ間で同じ位置にある値の絶対値の差を計算することによって算出したが、これ以外の方法で類似度を算出してもよい。たとえば、各フィルタについて、フィルタ絶対差分和SADを水平方向絶対差分和SAD_Hと垂直方向絶対差分和SAD_Vの和として、SAD=SAD_H+SAD_Vにより求める。フィルタAのフィルタ絶対差分和SAD_AとフィルタBのフィルタ絶対差分和SAD_Bの差が閾値より小さいなら、フィルタAとフィルタBは重複していると判定してもよい。ここで、3×3のフィルタの第1行の要素をa1、a2、a3、第2行の要素をa4、a5、a6、第3行の要素をa7、a8、a9とした場合、水平方向絶対差分和SAD_Hと垂直方向絶対差分和SAD_Vは次式で与えられる。
SAD_H=|a1-a2|+|a2-a3|+|a4-a5|+|a5-a6|+|a7-a8|+|a8-a9|
SAD_V=|a1-a4|+|a2-a5|+|a3-a6|+|a4-a7|+|a5-a8|+|a6-a9|
また、別の類似度の算出方法として、ユークリッド距離やコサイン距離の比較を用いてもよい。
SAD_H=|a1-a2|+|a2-a3|+|a4-a5|+|a5-a6|+|a7-a8|+|a8-a9|
SAD_V=|a1-a4|+|a2-a5|+|a3-a6|+|a4-a7|+|a5-a8|+|a6-a9|
また、別の類似度の算出方法として、ユークリッド距離やコサイン距離の比較を用いてもよい。
フィルタの重みの類似度が高ければ、そのフィルタはタスク間において特徴が同じか差がないということになり、重複フィルタを保持する必要はない。そこで片方のフィルタについては初期化して、別のタスクの学習に用いる。なお、ここでは、重みをフィルタの中にある1要素、図4の3×3のフィルタの場合、マトリクスのうちの1つのセルであるとして説明したが、フィルタ単位、つまりマトリクスの単位で重みを捉えてもよい。
より一般的には、タスクNの性能を最大限に維持するため、学習済みタスクNと学習中タスクN+1の間に重複したフィルタがある場合、学習中タスクN+1のフィルタの重みを0に初期化する。これにより、限られたフィルタを最大限に利用することができる。
図5は、図2の機械学習装置100による継続学習手順を説明するフローチャートである。
入力部10は、現在の教師付きタスクを継続学習部20に入力する(S10)。
継続学習部20は、所定のエポック数だけ現在のタスクに対して複数のフィルタの重みを継続学習する(S20)。
フィルタ制御部40は、現在のタスクを学習中のフィルタと、過去のタスクを学習済みのフィルタとを比較し、重みの類似度を算出する(S30)。
フィルタ制御部40は、過去のタスクの学習済みのフィルタと類似度が高い現在のタスクの学習中のフィルタを初期化する(S40)。
現在のタスクの学習が終了すると(S50のY)、ステップS60に進み、現在のタスクの学習を引き続き行う場合(S50のN)、ステップS20に戻る。
フィルタ処理部30は、現在のタスクを学習した複数のフィルタの重みの小さいものから順に所定の割合のフィルタを初期化する(S60)。
まだタスクがある場合、ステップS10に戻り、次のタスクを入力する(S70のN)。次のタスクがない場合、継続学習を終了する(S70のY)。
以上説明した機械学習装置100の各種の処理は、CPUやメモリ等のハードウェアを用いた装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバと送受信することも、地上波あるいは衛星ディジタル放送のデータ放送として送受信することも可能である。
以上述べたように、本実施の形態の機械学習装置100によれば、継続学習モデルのフィルタの飽和速度を緩和し、フィルタを効率的に利用してより多くのタスクを学習することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 入力部、 20 継続学習部、 30 フィルタ処理部、 40 フィルタ制御部、 50 重み記憶部、 60 推論部、 70 出力部、 100 機械学習装置。
Claims (6)
- タスクの特徴検出に用いられる複数のフィルタの重みを記憶する重み記憶部と、
入力されるタスクに対して前記複数のフィルタの重みを継続学習する継続学習部と、
所定のエポック数の前記継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出するフィルタ制御部とを含むことを特徴とする機械学習装置。 - 前記フィルタ制御部は、前記重複フィルタの内、一つのフィルタを前記共用フィルタとして残し、前記共用フィルタ以外のフィルタの重みを初期化することを特徴とする請求項1に記載の機械学習装置。
- 前記継続学習部は、別のタスクに対して前記共用フィルタ以外のフィルタの初期化された重みを継続学習することを特徴とする請求項2に記載の機械学習装置。
- 前記所定のエポック数は、学習モデルの出力値と教師データの与える正解の誤差である損失の変化率または学習モデルの出力値の正答率である正確さの変化率に関する条件にもとづいて決定されることを特徴とする請求項1から3のいずれかに記載の機械学習装置。
- 入力されるタスクに対して、タスクの特徴検出に用いられる複数のフィルタの重みを継続学習する継続学習ステップと、
所定のエポック数の前記継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出するステップとを含むことを特徴とする機械学習方法。 - 入力されるタスクに対して、タスクの特徴検出に用いられる複数のフィルタの重みを継続学習する継続学習ステップと、
所定のエポック数の前記継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出するステップとをコンピュータに実行させることを特徴とする機械学習プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021003241A JP2022108332A (ja) | 2021-01-13 | 2021-01-13 | 機械学習装置、機械学習方法、および機械学習プログラム |
EP21919628.4A EP4280115A1 (en) | 2021-01-13 | 2021-12-09 | Machine learning device, machine learning method, and machine learning program |
CN202180074116.8A CN116806341A (zh) | 2021-01-13 | 2021-12-09 | 机器学习装置、机器学习方法以及机器学习程序 |
PCT/JP2021/045340 WO2022153739A1 (ja) | 2021-01-13 | 2021-12-09 | 機械学習装置、機械学習方法、および機械学習プログラム |
US18/349,195 US20230376763A1 (en) | 2021-01-13 | 2023-07-10 | Machine learning device, machine learning method, and non-transitory computer-readable recording medium having embodied thereon a machine learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021003241A JP2022108332A (ja) | 2021-01-13 | 2021-01-13 | 機械学習装置、機械学習方法、および機械学習プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022108332A true JP2022108332A (ja) | 2022-07-26 |
Family
ID=82448344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021003241A Pending JP2022108332A (ja) | 2021-01-13 | 2021-01-13 | 機械学習装置、機械学習方法、および機械学習プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230376763A1 (ja) |
EP (1) | EP4280115A1 (ja) |
JP (1) | JP2022108332A (ja) |
CN (1) | CN116806341A (ja) |
WO (1) | WO2022153739A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4710933B2 (ja) | 2008-07-09 | 2011-06-29 | ソニー株式会社 | 学習装置、学習方法、およびプログラム |
JP6287999B2 (ja) * | 2015-08-07 | 2018-03-07 | トヨタ自動車株式会社 | ニューラルネットワーク学習装置 |
JP2018055259A (ja) * | 2016-09-27 | 2018-04-05 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2021
- 2021-01-13 JP JP2021003241A patent/JP2022108332A/ja active Pending
- 2021-12-09 CN CN202180074116.8A patent/CN116806341A/zh active Pending
- 2021-12-09 EP EP21919628.4A patent/EP4280115A1/en active Pending
- 2021-12-09 WO PCT/JP2021/045340 patent/WO2022153739A1/ja active Application Filing
-
2023
- 2023-07-10 US US18/349,195 patent/US20230376763A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4280115A1 (en) | 2023-11-22 |
US20230376763A1 (en) | 2023-11-23 |
WO2022153739A1 (ja) | 2022-07-21 |
CN116806341A (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | LGM-Net: Learning to generate matching networks for few-shot learning | |
US8015130B2 (en) | Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method | |
US20190378017A1 (en) | System and method for implementing a neural network | |
Konar et al. | Comparison of various learning rate scheduling techniques on convolutional neural network | |
Dai et al. | Incremental learning using a grow-and-prune paradigm with efficient neural networks | |
US11113597B2 (en) | Artificial neural network and method of training an artificial neural network with epigenetic neurogenesis | |
Osogami et al. | Learning dynamic Boltzmann machines with spike-timing dependent plasticity | |
Lopes et al. | Deep belief networks (DBNs) | |
Henderson et al. | Spike event based learning in neural networks | |
Bauer et al. | Exodus: Stable and efficient training of spiking neural networks | |
Oland et al. | Be careful what you backpropagate: A case for linear output activations & gradient boosting | |
JP2022108332A (ja) | 機械学習装置、機械学習方法、および機械学習プログラム | |
JP2022108331A (ja) | 機械学習装置、機械学習方法、および機械学習プログラム | |
Chhabra et al. | Hybrid particle swarm training for convolution neural network (CNN) | |
US11645519B2 (en) | Filtering data in orthogonal directions through a convolutional neural network | |
US20240161245A1 (en) | Image optimization | |
US20240160944A1 (en) | Rapid learning with high localized synaptic plasticity | |
KR102539876B1 (ko) | 인공지능 기술을 이용한 적층형 저항 변화 메모리 소자의 계층 최적화 시스템 및 그 방법 | |
JP6741159B1 (ja) | 推論装置及び推論方法 | |
JP2022114065A (ja) | 機械学習装置、機械学習方法、および機械学習プログラム | |
US20230259775A1 (en) | Method and apparatus with pruning | |
Lo et al. | Training deep neural networks with gradual deconvexification | |
US20220101117A1 (en) | Neural network systems for abstract reasoning | |
JP6942204B2 (ja) | データ処理システムおよびデータ処理方法 | |
Suri et al. | Methods for maintenance of neural networks in continual learning scenarios |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231228 |