JP2022108332A - 機械学習装置、機械学習方法、および機械学習プログラム - Google Patents

機械学習装置、機械学習方法、および機械学習プログラム Download PDF

Info

Publication number
JP2022108332A
JP2022108332A JP2021003241A JP2021003241A JP2022108332A JP 2022108332 A JP2022108332 A JP 2022108332A JP 2021003241 A JP2021003241 A JP 2021003241A JP 2021003241 A JP2021003241 A JP 2021003241A JP 2022108332 A JP2022108332 A JP 2022108332A
Authority
JP
Japan
Prior art keywords
filter
task
learning
filters
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021003241A
Other languages
English (en)
Inventor
晋吾 木田
Shingo Kida
英樹 竹原
Hideki Takehara
尹誠 楊
Yincheng Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2021003241A priority Critical patent/JP2022108332A/ja
Priority to EP21919628.4A priority patent/EP4280115A1/en
Priority to CN202180074116.8A priority patent/CN116806341A/zh
Priority to PCT/JP2021/045340 priority patent/WO2022153739A1/ja
Publication of JP2022108332A publication Critical patent/JP2022108332A/ja
Priority to US18/349,195 priority patent/US20230376763A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

Figure 2022108332000001
【課題】フィルタの飽和を緩和することができる機械学習技術を提供する。
【解決手段】重み記憶部50は、タスクの特徴検出に用いられる複数のフィルタの重みを記憶する。継続学習部20は、入力されるタスクに対して複数のフィルタの重みを継続学習する。フィルタ制御部40は、所定のエポック数の継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出し、重複フィルタの内、一つのフィルタを共用フィルタとして残し、共用フィルタ以外のフィルタの重みを初期化する。
【選択図】図2

Description

本発明は、機械学習技術に関する。
人間は長期にわたる経験を通して新しい知識を学習することができ、昔の知識を忘れないように維持することができる。一方、畳み込みニューラルネットワーク(Convolutional Neural Network(CNN))の知識は学習に使用したデータセットに依存しており、データ分布の変化に適応するためにはデータセット全体に対してCNNのパラメータの再学習が必要となる。CNNでは、新しいタスクについて学習していくにつれて、昔のタスクに対する推定精度は低下していく。このようにCNNでは連続学習を行うと新しいタスクの学習中に昔のタスクの学習結果を忘れてしまう致命的忘却(catastrophic forgetting)が避けられない。
致命的忘却を回避する手法として、継続学習(incremental learningまたはcontinual learning)が提案されている。継続学習の一つの手法としてPackNetがある。
特許文献1には、複数の学習モジュールが更新したモデルパラメータを2以上の学習モジュールに共有させる学習装置が開示されている。
特開2010-20446号公報
継続学習の一つの手法であるPackNetは、致命的忘却問題を回避することができる。しかし、PackNetでは、モデルのフィルタ数に限りがあり、新しいタスクを学習していくと、フィルタが飽和するため、学習可能なタスク数に制限があるという問題があった。
本発明はこうした状況に鑑みてなされたものであり、その目的は、フィルタの飽和を緩和することができる機械学習技術を提供することにある。
上記課題を解決するために、本発明のある態様の機械学習装置は、タスクの特徴検出に用いられる複数のフィルタの重みを記憶する重み記憶部と、入力されるタスクに対して前記複数のフィルタの重みを継続学習する継続学習部と、所定のエポック数の前記継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出するフィルタ制御部とを含む。
本発明の別の態様は、機械学習方法である。この方法は、入力されるタスクに対して、タスクの特徴検出に用いられる複数のフィルタの重みを継続学習する継続学習ステップと、所定のエポック数の前記継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出するステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、フィルタの飽和を緩和することができる機械学習技術を提供することができる。
図1(a)~図1(e)は、前提技術となる継続学習を説明する図である。 実施の形態に係る機械学習装置の構成図である。 図3(a)~図3(e)は、図2の機械学習装置による継続学習を説明する図である。 図2の機械学習装置のフィルタ制御部の動作を説明する図である。 図2の機械学習装置による継続学習手順を説明するフローチャートである。
図1(a)~図1(e)は、前提技術となるPackNetによる継続学習を説明する図である。PackNetでは与えられたタスクに対してモデルの複数のフィルタの重みが学習される。ここでは、畳み込みニューラルネットワークの各層の複数のフィルタを格子状に並べて図示する。
PackNetの学習プロセスは下記の(A)~(E)のステップで進められる。
(A)モデルがタスク1を学習する。図1(a)は、タスク1の学習後のフィルタの初期状態を示す。すべてのフィルタはタスク1を学習済みで、色が黒で示される。
(B)各フィルタの重みの値の大きい順にフィルタを並べ、重みの値が小さいフィルタから順に全体の60%のフィルタの値を初期化する。図1(b)は、タスク1の学習後のフィルタの最終状態を示す。初期化されたフィルタは色が白で示される。
(C)次に、タスク2を学習する。このステップにおいて、図1(b)の黒色のフィルタの重みの値がロックされ、重みの値を変更できるのは白色のフィルタだけである。図1(c)は、タスク2の学習後のフィルタの初期状態を示す。図1(b)の白で示されたフィルタのすべてはタスク2を学習済みで、図1(c)において斜線で示される。
(D)ステップ(B)と同様に、タスク2を学習した斜線のフィルタの重みの値の大きい順にフィルタを並べ、重みの値が小さいフィルタから順に全体の60%のフィルタの値を初期化する。図1(d)は、タスク2の学習後のフィルタの最終状態を示す。初期化されたフィルタは色が白で示される。
(E)さらに、タスク3を学習する。このステップにおいて、図1(d)の黒色と斜線のフィルタの重みの値がロックされ、重みの値を変更できるのは白色のフィルタだけである。図1(e)は、タスク3の学習後のフィルタの初期状態を示す。図1(d)の白で示されたフィルタのすべてはタスク3を学習済みで、図1(e)において横縞で示される。
このようにPackNetの学習プロセスによると、このままタスクNまで学習していくと、初期化された白のフィルタの数がどんどん少なくなり、飽和する。フィルタが飽和すると、新しいタスクを学習できなくなる。
PackNetのフィルタがいつか飽和することは回避することができない。しかし、フィルタが飽和するスピードを緩めることはできる。そこで、本実施の形態では、現在のタスクを学習する過程で、重みの類似度が高い重複フィルタをタスク間の共用フィルタとして抽出し、重複フィルタの内、一つのフィルタを共用フィルタとして残し、共用フィルタ以外のフィルタの重みを0に初期化し、現在のタスクの学習対象から除外する。これにより、新しいタスクで学習できるフィルタを増やし、フィルタの飽和速度を緩和し、学習できるタスクの数を増やすことができる。
図2は、実施の形態に係る機械学習装置100の構成図である。機械学習装置100は、入力部10、継続学習部20、フィルタ処理部30、フィルタ制御部40、重み記憶部50、推論部60、および出力部70を含む。
入力部10は、教師付きのタスクを継続学習部20に供給し、未知タスクを推論部60に供給する。ここでは、一例としてタスクは画像認識である。たとえば、タスク1は猫の認識、タスク2は犬の認識といった画像における特定の物体の認識である。
重み記憶部50は、タスクの特徴検出に用いられる複数のフィルタの重みを記憶する。画像をいくつものフィルタに通すことで、その画像の特徴を捉えることができる。
継続学習部20は、入力される教師付きタスクに対して重み記憶部50の複数のフィルタの重みを継続学習し、更新されたフィルタの重みを重み記憶部50に保存する。
継続学習部20が現在のタスクの学習を所定のエポック数だけ行った後、フィルタ制御部40は、現在のタスクを学習中の複数のフィルタの重みと過去のタスクを学習後の複数のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出する。モデルは多層の畳み込みニューラルネットワークであるため、各層において複数のフィルタの重みの類似度を算出する。フィルタ制御部40は、重複フィルタの内、一つのフィルタを共用フィルタとして残し、共用フィルタ以外のフィルタの重みを初期化し、重み記憶部50に保存する。重みが初期化された重複フィルタは、現在のタスクの学習対象から除外され、次のタスクの学習対象として利用される。
ここで、所定のエポック数は、たとえば10回である。学習がある程度安定してから、フィルタ制御部40が類似するフィルタを初期化することが望ましい。学習が安定するまでの回数や時間は、タスクによって異なる。そのため、損失(Loss)と正確さ(Accuracy)の関係からエポック数を調整することが好ましい。ここで、損失は、ニューラルネットワークによる出力値と教師データの与える正解との誤差であり、正確さは、ニューラルネットワークによる出力値の正答率である。
たとえば、学習が安定していることを、下記いずれかの条件を用いて判断し、所定のエポック数を調整する。
(1)損失が一定以下である(たとえば0.75以下)
(2)正確さが一定以上である(たとえば0.75以上)
(3)上記の(1)および(2)の両方の条件を満たす
フィルタ処理部30は、1つのタスクを学習後の複数のフィルタの内、所定の割合のフィルタを別のタスクの学習で用いないように重みをロックし、それ以外のフィルタを別のタスクの学習で用いるために重みを初期化する。たとえば、フィルタの重みの大きい順にフィルタを並べ、重みの大きい方から40%のフィルタの重みをロックし、残りの60%のフィルタを別のタスクの学習で用いるために重みを初期化する。
継続学習部20は、新しいタスクに対してフィルタの初期化された重みを継続学習する。
推論部60は、重み記憶部50に保存されたフィルタの重みを用いて、入力された未知タスクに対して推論する。出力部70は、推論部60による推論結果を出力する。
図3(a)~図3(e)は、図2の機械学習装置100による継続学習を説明する図である。畳み込みニューラルネットワークの各層の複数のフィルタを格子状に並べて図示しており、(i,j)は、第i行、第j列のフィルタを指す。
機械学習装置100の学習プロセスは下記の(A)~(E)のステップで進められる。
(A)モデルがタスク1を学習する。図3(a)は、タスク1の学習後のフィルタの初期状態を示す。すべてのフィルタはタスク1を学習済みで、色が黒で示される。
(B)各フィルタの重みの値の大きい順にフィルタを並べ、重みの値が小さいフィルタから順に全体の60%のフィルタの値を初期化する。図3(b)は、タスク1の学習後のフィルタの最終状態を示す。初期化されたフィルタは色が白で示される。
(C)次に、タスク2を学習する。このステップにおいて、図3(b)の黒色のフィルタの重みの値がロックされ、重みの値を変更できるのは白色のフィルタだけである。タスク2の学習過程で、フィルタ制御部40は、タスク2で使用するフィルタがタスク1を学習済みのフィルタ(黒色)と類似するフィルタであった場合、そのフィルタを初期化して、タスク2の学習対象から除外するように制御する。図3(c)は、タスク2の学習後のフィルタの初期状態を示す。図3(b)の白で示されたフィルタの内、タスク2を学習済みのフィルタは、図3(c)において斜線で示される。図3(b)の白で示されたフィルタの内、タスク2の学習過程で初期化され、学習対象から除外されたフィルタは、図3(c)において白で示される。ここでは、(1,1)フィルタ、(1,5)フィルタがタスク2の学習過程で初期化され、それ以降の新しいタスクで利用可能となる。
(D)ステップ(B)と同様に、タスク2を学習した斜線のフィルタの重みの値の大きい順にフィルタを並べ、重みの値が小さいフィルタから順に全体の60%のフィルタの値を初期化する。図3(d)は、タスク2の学習後のフィルタの最終状態を示す。初期化されたフィルタは色が白で示される。
(E)さらに、タスク3を学習する。このステップにおいて、図3(d)の黒色および斜線のフィルタの重みの値がロックされ、重みの値を変更できるのは白色のフィルタだけである。タスク3の学習過程で、フィルタ制御部40は、タスク3で使用するフィルタがタスク1を学習済みのフィルタ(黒色)またはタスク2を学習済みのフィルタ(斜線)と類似するフィルタであった場合、そのフィルタを初期化して、タスク3の学習対象から除外するように制御する。図3(e)は、タスク3の学習後のフィルタの初期状態を示す。図3(d)の白で示されたフィルタの内、タスク3を学習済みのフィルタは、図3(e)において横縞で示される。図3(d)の白で示されたフィルタの内、タスク3の学習過程で初期化され、学習対象から除外されたフィルタは、図3(e)において白で示される。ここでは、(1,1)フィルタ、(1,5)フィルタ、(2,2)フィルタがタスク3の学習過程で初期化され、それ以降の新しいタスクで利用可能となる。
以降、タスクNまで同様の学習プロセスを実行することで、学習過程においてタスク間のフィルタの重複を解消し、フィルタの飽和を緩和し、学習可能なタスク数を増やすことができる。
図4は、図2の機械学習装置100のフィルタ制御部40の動作を説明する図である。
フィルタ制御部40は、ニューラルネットワークの教師付き学習方法であるバックプロパゲーション(誤差逆伝搬法)におけるフィルタの重みの学習時に、現在学習中で所定のエポック数を学習済みのタスクのフィルタの重みを学習済タスクのフィルタの重みと比較し、類似する場合、現在学習中のタスクのフィルタの重みを初期化し、現在のタスクの学習対象から除外する。
モデルには複数のレイヤがあるため、比較は各レイヤ内で行う。例えば、一つのレイヤにフィルタが128個ある。この中に、タスク1を学習済みのフィルタが51個、タスク2を学習中のフィルタが30個、残りのフィルタは初期化されている場合、タスク1の51個のフィルタとタスク2の30個のフィルタの類似度を算出する。
類似度は、フィルタの重みの値の絶対値を比較することによって算出する。たとえば、3×3のフィルタの場合、9個の重みの絶対値を比較する。ここで、閾値を設定する。類似度が閾値を上回ると、二つのフィルタは重複していると判定され、タスク2のフィルタの重みを0に初期化し、以降のタスク2の学習対象から除外する。
フィルタAの各要素をaij、フィルタBの各要素をbijとした場合、二つのフィルタA、B間で同じ位置にある値の絶対値の差を、たとえば次式のd(A,B)、d(A,B)、d(A,B)、d(A,B)のように計算する。
Figure 2022108332000002
上記の説明では、フィルタの類似度は、二つのフィルタ間で同じ位置にある値の絶対値の差を計算することによって算出したが、これ以外の方法で類似度を算出してもよい。たとえば、各フィルタについて、フィルタ絶対差分和SADを水平方向絶対差分和SAD_Hと垂直方向絶対差分和SAD_Vの和として、SAD=SAD_H+SAD_Vにより求める。フィルタAのフィルタ絶対差分和SAD_AとフィルタBのフィルタ絶対差分和SAD_Bの差が閾値より小さいなら、フィルタAとフィルタBは重複していると判定してもよい。ここで、3×3のフィルタの第1行の要素をa1、a2、a3、第2行の要素をa4、a5、a6、第3行の要素をa7、a8、a9とした場合、水平方向絶対差分和SAD_Hと垂直方向絶対差分和SAD_Vは次式で与えられる。
SAD_H=|a1-a2|+|a2-a3|+|a4-a5|+|a5-a6|+|a7-a8|+|a8-a9|
SAD_V=|a1-a4|+|a2-a5|+|a3-a6|+|a4-a7|+|a5-a8|+|a6-a9|
また、別の類似度の算出方法として、ユークリッド距離やコサイン距離の比較を用いてもよい。
フィルタの重みの類似度が高ければ、そのフィルタはタスク間において特徴が同じか差がないということになり、重複フィルタを保持する必要はない。そこで片方のフィルタについては初期化して、別のタスクの学習に用いる。なお、ここでは、重みをフィルタの中にある1要素、図4の3×3のフィルタの場合、マトリクスのうちの1つのセルであるとして説明したが、フィルタ単位、つまりマトリクスの単位で重みを捉えてもよい。
より一般的には、タスクNの性能を最大限に維持するため、学習済みタスクNと学習中タスクN+1の間に重複したフィルタがある場合、学習中タスクN+1のフィルタの重みを0に初期化する。これにより、限られたフィルタを最大限に利用することができる。
図5は、図2の機械学習装置100による継続学習手順を説明するフローチャートである。
入力部10は、現在の教師付きタスクを継続学習部20に入力する(S10)。
継続学習部20は、所定のエポック数だけ現在のタスクに対して複数のフィルタの重みを継続学習する(S20)。
フィルタ制御部40は、現在のタスクを学習中のフィルタと、過去のタスクを学習済みのフィルタとを比較し、重みの類似度を算出する(S30)。
フィルタ制御部40は、過去のタスクの学習済みのフィルタと類似度が高い現在のタスクの学習中のフィルタを初期化する(S40)。
現在のタスクの学習が終了すると(S50のY)、ステップS60に進み、現在のタスクの学習を引き続き行う場合(S50のN)、ステップS20に戻る。
フィルタ処理部30は、現在のタスクを学習した複数のフィルタの重みの小さいものから順に所定の割合のフィルタを初期化する(S60)。
まだタスクがある場合、ステップS10に戻り、次のタスクを入力する(S70のN)。次のタスクがない場合、継続学習を終了する(S70のY)。
以上説明した機械学習装置100の各種の処理は、CPUやメモリ等のハードウェアを用いた装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバと送受信することも、地上波あるいは衛星ディジタル放送のデータ放送として送受信することも可能である。
以上述べたように、本実施の形態の機械学習装置100によれば、継続学習モデルのフィルタの飽和速度を緩和し、フィルタを効率的に利用してより多くのタスクを学習することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 入力部、 20 継続学習部、 30 フィルタ処理部、 40 フィルタ制御部、 50 重み記憶部、 60 推論部、 70 出力部、 100 機械学習装置。

Claims (6)

  1. タスクの特徴検出に用いられる複数のフィルタの重みを記憶する重み記憶部と、
    入力されるタスクに対して前記複数のフィルタの重みを継続学習する継続学習部と、
    所定のエポック数の前記継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出するフィルタ制御部とを含むことを特徴とする機械学習装置。
  2. 前記フィルタ制御部は、前記重複フィルタの内、一つのフィルタを前記共用フィルタとして残し、前記共用フィルタ以外のフィルタの重みを初期化することを特徴とする請求項1に記載の機械学習装置。
  3. 前記継続学習部は、別のタスクに対して前記共用フィルタ以外のフィルタの初期化された重みを継続学習することを特徴とする請求項2に記載の機械学習装置。
  4. 前記所定のエポック数は、学習モデルの出力値と教師データの与える正解の誤差である損失の変化率または学習モデルの出力値の正答率である正確さの変化率に関する条件にもとづいて決定されることを特徴とする請求項1から3のいずれかに記載の機械学習装置。
  5. 入力されるタスクに対して、タスクの特徴検出に用いられる複数のフィルタの重みを継続学習する継続学習ステップと、
    所定のエポック数の前記継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出するステップとを含むことを特徴とする機械学習方法。
  6. 入力されるタスクに対して、タスクの特徴検出に用いられる複数のフィルタの重みを継続学習する継続学習ステップと、
    所定のエポック数の前記継続学習の後、タスクを学習済みのフィルタの重みとタスクを学習中のフィルタの重みを比較し、重みの類似度が所定の閾値以上である重複フィルタをタスク間の共用フィルタとして抽出するステップとをコンピュータに実行させることを特徴とする機械学習プログラム。
JP2021003241A 2021-01-13 2021-01-13 機械学習装置、機械学習方法、および機械学習プログラム Pending JP2022108332A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021003241A JP2022108332A (ja) 2021-01-13 2021-01-13 機械学習装置、機械学習方法、および機械学習プログラム
EP21919628.4A EP4280115A1 (en) 2021-01-13 2021-12-09 Machine learning device, machine learning method, and machine learning program
CN202180074116.8A CN116806341A (zh) 2021-01-13 2021-12-09 机器学习装置、机器学习方法以及机器学习程序
PCT/JP2021/045340 WO2022153739A1 (ja) 2021-01-13 2021-12-09 機械学習装置、機械学習方法、および機械学習プログラム
US18/349,195 US20230376763A1 (en) 2021-01-13 2023-07-10 Machine learning device, machine learning method, and non-transitory computer-readable recording medium having embodied thereon a machine learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021003241A JP2022108332A (ja) 2021-01-13 2021-01-13 機械学習装置、機械学習方法、および機械学習プログラム

Publications (1)

Publication Number Publication Date
JP2022108332A true JP2022108332A (ja) 2022-07-26

Family

ID=82448344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021003241A Pending JP2022108332A (ja) 2021-01-13 2021-01-13 機械学習装置、機械学習方法、および機械学習プログラム

Country Status (5)

Country Link
US (1) US20230376763A1 (ja)
EP (1) EP4280115A1 (ja)
JP (1) JP2022108332A (ja)
CN (1) CN116806341A (ja)
WO (1) WO2022153739A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4710933B2 (ja) 2008-07-09 2011-06-29 ソニー株式会社 学習装置、学習方法、およびプログラム
JP6287999B2 (ja) * 2015-08-07 2018-03-07 トヨタ自動車株式会社 ニューラルネットワーク学習装置
JP2018055259A (ja) * 2016-09-27 2018-04-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
EP4280115A1 (en) 2023-11-22
US20230376763A1 (en) 2023-11-23
WO2022153739A1 (ja) 2022-07-21
CN116806341A (zh) 2023-09-26

Similar Documents

Publication Publication Date Title
Li et al. LGM-Net: Learning to generate matching networks for few-shot learning
US8015130B2 (en) Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method
US20190378017A1 (en) System and method for implementing a neural network
Konar et al. Comparison of various learning rate scheduling techniques on convolutional neural network
Dai et al. Incremental learning using a grow-and-prune paradigm with efficient neural networks
US11113597B2 (en) Artificial neural network and method of training an artificial neural network with epigenetic neurogenesis
Osogami et al. Learning dynamic Boltzmann machines with spike-timing dependent plasticity
Lopes et al. Deep belief networks (DBNs)
Henderson et al. Spike event based learning in neural networks
Bauer et al. Exodus: Stable and efficient training of spiking neural networks
Oland et al. Be careful what you backpropagate: A case for linear output activations & gradient boosting
JP2022108332A (ja) 機械学習装置、機械学習方法、および機械学習プログラム
JP2022108331A (ja) 機械学習装置、機械学習方法、および機械学習プログラム
Chhabra et al. Hybrid particle swarm training for convolution neural network (CNN)
US11645519B2 (en) Filtering data in orthogonal directions through a convolutional neural network
US20240161245A1 (en) Image optimization
US20240160944A1 (en) Rapid learning with high localized synaptic plasticity
KR102539876B1 (ko) 인공지능 기술을 이용한 적층형 저항 변화 메모리 소자의 계층 최적화 시스템 및 그 방법
JP6741159B1 (ja) 推論装置及び推論方法
JP2022114065A (ja) 機械学習装置、機械学習方法、および機械学習プログラム
US20230259775A1 (en) Method and apparatus with pruning
Lo et al. Training deep neural networks with gradual deconvexification
US20220101117A1 (en) Neural network systems for abstract reasoning
JP6942204B2 (ja) データ処理システムおよびデータ処理方法
Suri et al. Methods for maintenance of neural networks in continual learning scenarios

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231228