JP7412632B2 - 再学習システム及び再学習方法 - Google Patents

再学習システム及び再学習方法 Download PDF

Info

Publication number
JP7412632B2
JP7412632B2 JP2023508404A JP2023508404A JP7412632B2 JP 7412632 B2 JP7412632 B2 JP 7412632B2 JP 2023508404 A JP2023508404 A JP 2023508404A JP 2023508404 A JP2023508404 A JP 2023508404A JP 7412632 B2 JP7412632 B2 JP 7412632B2
Authority
JP
Japan
Prior art keywords
recognition
model
relearning
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023508404A
Other languages
English (en)
Other versions
JPWO2022201534A1 (ja
Inventor
良枝 今井
政人 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022201534A1 publication Critical patent/JPWO2022201534A1/ja
Application granted granted Critical
Publication of JP7412632B2 publication Critical patent/JP7412632B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本開示は、再学習システム及び再学習方法に関する。
近年、データ認識の分野では、知識蒸留が行われている。知識蒸留では、教師モデルとして事前に学習した、大きく、複雑な学習済ニューラルネットワークと、アプリケーション側に配置される生徒モデルとして、より小さく簡素なニューラルネットワークとを用意して、生徒モデルの出力データが教師モデルの出力データに近づくように生徒モデルの学習が行われる。
例えば、特許文献1では、教師モデルに対応する生徒モデルを訓練する方法が記載されている。
特開2020-71883号公報
しかしながら、知識蒸留では、生徒モデルの認識性能は、教師モデルよりも劣り、知識が適切に転移されていない場合がある。
そこで、本開示の一又は複数の態様は、転移されていない知識を適切に再学習できるようにすることを目的とする。
本開示の一態様に係る再学習システムは、教師モデルとして使用される第一のニューラルネットワークによる認識結果に、生徒モデルとして使用される第二のニューラルネットワークの認識結果が近づくように学習された前記第二のニューラルネットワークを記憶するモデル記憶部と、前記第二のニューラルネットワークを用いて、認識対象を示す認識対象データに対して推論を行うことで、前記認識対象の認識を行う認識部と、前記認識の確からしさが中程度であるか否かを判断する判断部と、前記認識の確からしさが中程度である場合に、前記認識の確からしさが中程度であると判断された前記認識対象データを、再学習用データとして蓄積する蓄積部と、前記再学習用データを用いて、前記教師モデルの認識結果に、前記生徒モデルの認識結果が近づくように、前記生徒モデルを再学習するモデル学習部と、を備え、前記判断部は、前記認識の確からしさを示す指標が、前記認識の確からしさを示す指標として想定される最大値よりも小さい第一の閾値と、前記認識の確からしさを示す指標として想定される最小値よりも大きく、前記第一の閾値よりも小さい第二の閾値との間にある場合に、前記認識の確からしさが中程度であると判断することを特徴とする。
本開示の一態様に係る再学習方法は、認識部が、教師モデルとして使用される第一のニューラルネットワークによる認識結果に、生徒モデルとして使用される第二のニューラルネットワークの認識結果が近づくように学習された前記第二のニューラルネットワークを用いて、認識対象を示す認識対象データに対して推論を行うことで、前記認識対象の認識を行い、判断部が、前記認識の確からしさが中程度であるか否かを判断し、蓄積部が、前記認識の確からしさが中程度である場合に、前記認識の確からしさが中程度であると判断された前記認識対象データを、再学習用データとして蓄積し、モデル学習部が、前記再学習用データを用いて、前記教師モデルの認識結果に、前記生徒モデルの認識結果が近づくように、前記生徒モデルを再学習し、前記判断部は、前記認識の確からしさを示す指標が、前記認識の確からしさを示す指標として想定される最大値よりも小さい第一の閾値と、前記認識の確からしさを示す指標として想定される最小値よりも大きく、前記第一の閾値よりも小さい第二の閾値との間にある場合に、前記認識の確からしさが中程度であると判断することを特徴とする。
本開示の一又は複数の態様によれば、転移されていない知識を適切に再学習することができる。
実施の形態1に係る再学習システムの構成を概略的に示すブロック図である。 コンピュータの構成を概略的に示すブロック図である。 実施の形態1におけるデータ認識装置での動作を示すフローチャートである。 実施の形態1における学習装置での動作を示すフローチャートである。 実施の形態2に係る再学習システムの構成を概略的に示すブロック図である。
実施の形態1.
図1は、実施の形態1に係る再学習システム100の構成を概略的に示すブロック図である。
再学習システム100は、データ認識装置110と、学習装置130とを備える。
例えば、データ認識装置110と、学習装置130とは、インターネット等のネットワーク101を介して通信することができる。
なお、再学習システム100では、学習装置130は、教師モデルによる認識結果に、生徒モデルの認識結果が近づくように、その生徒モデルを学習する。ここで、教師モデルとして利用されるニューラルネットワークを第一のニューラルネットワークともいい、第一のニューラルネットワークで学習され、生徒モデルとして使用されるニューラルネットワークを第二のニューラルネットワークともいう。
データ認識装置110は、通信部111と、データ取得部112と、モデル記憶部113と、認識部114と、認識結果出力部115と、蓄積判断部116と、蓄積部117とを備える。
通信部111は、通信を行う。ここでは、通信部111は、学習装置130と通信を行う。
データ取得部112は、認識対象を示すデータである認識対象データを取得する。例えば、データ取得部112は、通信部111を介して、図示しない他の装置から認識対象データを取得する。ここで、認識対象は、画像、文字又は音等、どのようなものであってもよい。
モデル記憶部113は、認識対象データで示される認識対象を認識するためのニューラルネットである生徒モデルを記憶する。例えば、通信部111は、学習装置130からの生徒モデルを受信して、モデル記憶部113は、その生徒モデルを記憶する。
認識部114は、モデル記憶部113に記憶されている生徒モデルを用いて認識対象データに対して推論を行うことで、認識対象データで示される認識対象の認識を行う。認識部114は、認識結果を認識結果出力部115に与え、認識に使用した認識対象データ及び認識結果の確からしさを示す指標を蓄積判断部116に与える。その指標は、例えば、スコア、信頼度又は尤度等といわれているものである。
認識結果出力部115は、認識部114で認識された認識結果を出力する。
蓄積判断部116は、認識対象の認識の確からしさが中程度であるか否かを判断する判断部である。
例えば、蓄積判断部116は、認識対象の認識の確からしさを示す指標が、その指標として想定される最大値よりも小さい上限閾値である第一の閾値と、その指標として想定される最小値よりも大きく、第一の閾値よりも小さい下限閾値である第二の閾値との間にある場合に、認識の確からしさが中程度であると判断する。最大値は、その指標がとり得る最大の値であり、最小値は、その指標がとり得る最小の値である。
具体的には、認識結果の確からしさを示す指標は、通常、0~1の間の値となるため、上限閾値は、1よりも小さい値、下限閾値は、0よりも大きい値で、上限閾値よりも小さい値とすればよい。
そして、蓄積判断部116は、認識の確からしさが中程度である場合には、認識部114からの認識対象データを再学習用データとして蓄積部117に蓄積する。
上限閾値及び下限閾値は、予め定められていてもよく、例えば、認識部114から与えられる認識対象データ、又は、蓄積部117に蓄積される再学習用データに応じて変えられてもよい。
例えば、蓄積判断部116は、上限閾値及び下限閾値の少なくとも何れか一方を、蓄積部117に蓄積されている再学習用データで示される認識の確からしさを示す指標の偏りに応じて変えてもよい。
具体的には、蓄積判断部116は、上限閾値及び下限閾値の初期値が予め設定されており、予め定められた期間における、認識部114から与えられる認識対象データ、又は、蓄積部117に蓄積された再学習用データの中央値、平均値又は最頻値といった代表値に応じて、上限閾値及び下限閾値の少なくとも何れか一方を変更してもよい。例えば、蓄積判断部116は、その代表値が、上限閾値及び下限閾値の間に含まれるように、上限閾値及び下限閾値の少なくとも何れか一方を変更してもよい。具体的には、蓄積判断部116は、その代表値から予め定められた値だけ大きい値を上限閾値とし、その代表値から予め定められた値だけ小さい値を下限閾値としてもよい。また、蓄積判断部116は、その代表値が、上限閾値及び下限閾値の平均値となるように、上限閾値及び下限閾値の少なくとも何れか一方を変更してもよい。さらに、蓄積判断部116は、その代表値が、上限閾値及び下限閾値の平均値よりも大きい場合には、上限閾値及び下限閾値の少なくとも何れか一方を、予め定められた値だけ大きくし、その代表値が、上限閾値及び下限閾値の平均値よりも小さい場合には、上限閾値及び下限閾値の少なくとも何れか一方を、予め定められた値だけ小さくしてもよい。
また、蓄積判断部116は、再学習のタイミングで、蓄積部117に蓄積されている再学習用データを、通信部111を介して、学習装置130に送る。
再学習のタイミングは、例えば、蓄積部117に蓄積されている認識対象データの量が予め定められた量に達した場合であってもよい。
ここで、再学習のタイミングに用いられる、蓄積部117に蓄積されている認識対象データの量については、学習装置130とデータ認識装置110との間の通信トラフィックに応じて定められてもよい。例えば、その通信トラフィックが大きいほど、そのデータ量が小さくなるようにすればよい。
また、再学習のタイミングは、予め定められた期間が経過する毎であってもよい。
さらに、再学習のタイミングは、予め定められた一連の動作が終了したタイミングであってもよい。例えば、再学習のタイミングは、ある種類の認識対象の認識が終了して、別の種類の認識対象の認識を開始するタイミングであってもよい。この場合、データ取得部112が取得する認識対象データで示される認識対象の種類が変化することになる。例えば、認識対象としての製品のロットが変わる場合等に、認識対象の種類が変化する。
蓄積部117は、蓄積判断部116からの認識対象データを再学習用データとして蓄積する。
以上に記載されたデータ認識装置110は、図2に示されているようなコンピュータ150で実現することができる。
コンピュータ150は、不揮発性メモリ151と、揮発性メモリ152と、NIC(Network Interface Card)153と、プロセッサ154とを備える。
不揮発性メモリ151は、コンピュータ150の処理に必要なデータ及びプログラムを記憶する補助記憶装置である。例えば、不揮発性メモリ151は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)である。
揮発性メモリ152は、プロセッサ154に作業領域を提供する主記憶装置である。例えば、揮発性メモリ152は、RAM(Random Access Memory)である。
NIC153は、他の装置と通信するための通信インターフェースである。
プロセッサ154は、コンピュータ150での処理を制御する。例えば、プロセッサ154は、CPU(Central Processing Unit)又はFPGA(Field Programmable Gate Array)等である。プロセッサ154は、マルチプロセッサでもよい。
例えば、データ取得部112、認識部114、認識結果出力部115及び蓄積判断部116は、プロセッサ154が不揮発性メモリ151に記憶されているプログラムを揮発性メモリ152に読み出して、そのプログラムを実行することで実現することができる。
モデル記憶部113及び蓄積部117は、不揮発性メモリ151により実現することができる。
通信部111は、NIC153により実現することができる。
なお、このようなプログラムは、ネットワーク101を通じて提供されてもよく、また、記録媒体に記録されて提供されてもよい。即ち、このようなプログラムは、例えば、プログラムプロダクトとして提供されてもよい。
図1に戻り、学習装置130は、通信部131と、記憶部132と、モデル学習部133とを備える。
通信部131は、通信を行う。ここでは、通信部131は、データ認識装置110と通信を行う。例えば、通信部131は、データ認識装置110からの再学習用データを受信し、そのデータを記憶部132に送る。
記憶部132は、データ認識装置110からの再学習用データを記憶する。
さらに、記憶部132は、データ認識装置110が記憶している生徒モデルと同一の構成を有するモデルである更新対象生徒モデルと、その生徒モデルの教師モデルを記憶している。この場合、記憶部132は、教師モデル記憶部として機能する。
更新対象生徒モデルは、例えば、学習装置130において、教師モデルを用いて、生徒モデルを生成した際に、その生徒モデルをデータ認識装置110に送信するともに、その生徒モデルと同一のモデルを更新対象生徒モデルとして、記憶部132に記憶されたものであってもよい。
また、更新対象生徒モデルは、生徒モデルの再学習のタイミングで、データ認識装置110から通信部131を介して取得された生徒モデルであってもよい。
モデル学習部133は、記憶部132に記憶されている再学習用データを用いて、記憶部132に記憶されている教師モデルの認識結果に、生徒モデルの認識結果が近づくように、その生徒モデルを再学習する。
例えば、モデル学習部133は、記憶部132に記憶された再学習用データを用いて、記憶部132に記憶されている教師モデルの出力を使用して、生徒モデルを再学習する。
具体的には、モデル学習部133は、記憶部132に記憶されている更新対象生徒モデルに対してファインチューニングを行うことで、生徒モデルを再学習する。なお、更新対象生徒モデルは、データ認識装置110のモデル記憶部113に記憶されている第二のニューラルネットワークモデルと同一のモデルであるため、ここでは、第二のニューラルネットワークモデルに対してファインチューニングが行われていることとなる。
そして、モデル学習部133は、再学習後の更新対象生徒モデルを、生徒モデルとして、通信部131を介して、データ認識装置110に送る。生徒モデルを受信したデータ認識装置110では、受信した生徒モデルをモデル記憶部113に記憶させて、以後、記憶された生徒モデルを用いて、認識対象の認識を行う。
ここで、モデル学習部133は、記憶部132に記憶された再学習用データのみを用いて更新対象生徒モデルを再学習してもよいが、生徒モデルが生成された際の学習用データの少なくとも一部も加えて、再学習を行ってもよい。このようにすることにより、いわゆる致命的忘却が起きないようにすることができる。この場合、記憶部132は、生徒モデルが生成された際の学習用データを記憶しているものとする。この場合、記憶部132は、学習用データを記憶する学習用データ記憶部として機能する。
なお、認識対象データ及び学習用データの両方を用いる場合には、モデル学習部133は、再学習用データ及び学習用データの少なくとも何れか一方に重みを付けて再学習を行ってもよい。
ここで、モデル学習部133は、学習用データの少なくとも一部への重みと、再学習用データへの重みとを変えて、生徒モデルを再学習してもよい。この場合、モデル学習部133は、例えば、学習用データの重みを、再学習用データの重みよりも軽くしてもよい。
また、モデル学習部133は、再学習用データを入力した際における、生徒モデルでの指標の値と、教師モデルでの指標の値との差に応じて、再学習用データへの重みを変えてもよい。例えば、その差が大きい場合に、再学習用データへの重みを大きくすることで、再学習の効果を大きくすることができる。一方、その差が大きい場合に、再学習用データへの重みを大きくすることで、生徒モデルへの影響を少なくすることもできる。
以上に記載された学習装置130も、図2に示されているようなコンピュータ150で実現することができる。
例えば、モデル学習部133は、プロセッサ154が不揮発性メモリ151に記憶されているプログラムを揮発性メモリ152に読み出して、そのプログラムを実行することで実現することができる。
記憶部132は、不揮発性メモリ151により実現することができる。
通信部131は、NIC153により実現することができる。
図3は、実施の形態1におけるデータ認識装置110での動作を示すフローチャートである。
まず、データ取得部112は、認識対象データを取得する(S10)。取得された認識対象データは、認識部114に与えられる。
認識部114は、モデル記憶部113に記憶されている生徒モデルを参照して推論を行うことで、認識対象データで示される認識対象を認識する(S11)。認識部114での認識結果は、認識結果出力部115に与えられる。また、認識部114での認識に使用された認識対象データ及び認識結果の確からしさを示す指標は、蓄積判断部116に与えられる。
認識結果出力部115は、認識結果を出力する(S12)。
蓄積判断部116は、認識結果の確からしさを示す指標が、認識結果の確からしさとして中程度を示しているか否かを判断する(S13)。認識結果の確からしさを示す指標が中程度を示している場合(S13でYes)には、処理はステップS14に進む。認識結果の確からしさを示す指標が中程度を示していない場合(S13でNo)には、蓄積判断部116は、与えられた認識対象データを削除して、処理をステップS15に進める。
ステップS14では、蓄積判断部116は、認識対象データを再学習用データとして蓄積部117に記憶させることで、そのデータを蓄積する。そして、処理はステップS15に進む。
ステップS15では、蓄積判断部116は、再学習のタイミングであるか否かを判断する。再学習のタイミングである場合(S15でYes)には、処理はステップS16に進み、再学習のタイミングではない場合(S15でNo)には、処理は終了する。
ステップS16では、蓄積判断部116は、蓄積部117に記憶されている再学習用データを読み出して、その再学習用データを、通信部111を介して、学習装置130に送る。
図4は、実施の形態1における学習装置130での動作を示すフローチャートである。
まず、通信部131は、データ認識装置110からの再学習用データを受信する(S20)。受信された再学習用データは、記憶部132に送られ、記憶部132は、その再学習用データを記憶する。
次に、モデル学習部133は、記憶部132に記憶された再学習用データを用いて、記憶部132に記憶されている教師モデルの出力を使用して、生徒モデルを再学習する(S21)。
次に、モデル学習部133は、再学習後の生徒モデルを、通信部131を介して、データ認識装置110に送る(S22)。再学習された生徒モデルを受信したデータ認識装置110では、受信された生徒モデルがモデル記憶部113に記憶されて、以後、記憶された生徒モデルを用いて、データの認識が行われる。
以上のように、実施の形態1では、生徒モデルを使用した認識の確からしさが中程度の認識対象データに基づいて、生徒モデルが再学習されるため、教師モデルから生徒モデルに転移されていない知識を適切に再学習することができる。このため、生徒モデルの汎化性能及び精度を向上させることができる。
なお、認識の確からしさが中程度の認識対象データを用いて再学習を行う理由は以下の通りである。
認識の確からしさが高い認識対象データについては、学習が適切に行われていると考えられるため、そのような認識対象データを用いた再学習は不要である。
認識の確からしさが低い認識対象データについても、「認識対象ではない」という学習が適切に行われていると考えられるため、そのような認識対象データを用いた再学習は不要である。
認識の確からしさが中程度の認識対象データのみを蓄積することで、蓄積するデータ量を少なくすることができる。
実施の形態2.
図5は、実施の形態2に係る再学習システム200の構成を概略的に示すブロック図である。
再学習システム200は、データ認識装置210と、学習装置230とを備える。
例えば、データ認識装置210と、学習装置230とは、インターネット等のネットワーク101を介して通信することができるものとする。
データ認識装置210は、通信部111と、データ取得部112と、モデル記憶部113と、認識部114と、認識結果出力部115と、蓄積判断部216とを備える。
実施の形態2におけるデータ認識装置210の通信部111、データ取得部112、モデル記憶部113、認識部114及び認識結果出力部115は、実施の形態1におけるデータ認識装置110の通信部111、データ取得部112、モデル記憶部113、認識部114及び認識結果出力部115と同様である。
また、実施の形態2におけるデータ認識装置210は、実施の形態1におけるデータ認識装置110の蓄積部117を備えていない。
蓄積判断部216は、認識部114からの指標が中程度を示す場合には、認識部114からの認識対象データを再学習用データとして、通信部111を介して、学習装置230に送る。
学習装置230は、通信部131と、記憶部232と、モデル学習部233と、蓄積部234とを備える。
実施の形態2における学習装置230の通信部131は、実施の形態1における学習装置130の通信部131と同様である。
但し、実施の形態2における通信部131は、データ認識装置210からの再学習用データを受信して、そのデータを蓄積部234に与える。
蓄積部234は、データ認識装置110からの再学習用データを記憶することで、そのデータを蓄積する。
記憶部232は、データ認識装置110が記憶している生徒モデルと同一の構成を有するモデルである更新対象生徒モデルと、その生徒モデルの教師モデルを記憶する。
なお、実施の形態2では、蓄積部234が設けられているため、記憶部232は、データ認識装置210からの再学習用データを記憶しない。なお、記憶部232は、生徒モデルが生成された際の学習用データを記憶していてもよい。
モデル学習部233は、再学習のタイミングで、蓄積部234に記憶された再学習用データを用いて、記憶部232に記憶されている教師モデルの出力を使用して、生徒モデルを再学習する。ここでは、モデル学習部233は、記憶部232に記憶されている更新対象生徒モデルに対してファインチューニングを行うことで、生徒モデルの再学習を行う。
そして、モデル学習部233は、再学習後の更新対象生徒モデルを、生徒モデルとして、通信部131を介して、データ認識装置210に送る。生徒モデルを受信したデータ認識装置210では、受信した生徒モデルをモデル記憶部113に記憶させて、以後、記憶された生徒モデルを用いて、データの認識を行う。
以上に記載された学習装置230も、図2に示されているようなコンピュータ150で実現することができる。
具体的には、蓄積部234も不揮発性メモリ151により実現することができる。
なお、実施の形態2では、モデル学習部233が再学習のタイミングであるか否かを判断しているが、実施の形態2は、このような例に限定されない。例えば、実施の形態1と同様に、蓄積判断部216が再学習のタイミングであるか否かを判断してもよい。この場合、蓄積判断部216は、再学習のタイミングである場合に、通信部111を介して学習装置230に、再学習の指示を送ればよい。そして、このような指示を受けた学習装置230のモデル学習部233が、生徒モデルの再学習を行えばよい。
なお、以上に記載された実施の形態1及び2では、モデル学習部133、233は、更新対象生徒モデルを更新すること、言い換えると、更新対象生徒モデルに対してファインチューニングを行うことで、生徒モデルの再学習を行っているが、実施の形態1及び2は、このような例に限定されない。例えば、モデル学習部133、233は、生徒モデルを生成した際の学習用データに、再学習用データを追加して、新たなニューラルネットワークを生成することで、生徒モデルを再学習してもよい。ここで生成されるニューラルネットワークを、既に生徒モデルとして使用されている第二のニューラルネットワークと区別するために、第三のニューラルネットワークともいう。この場合にも、モデル学習部133、233は、学習用データへの重みと、再学習用データへの重みとを変えて、生徒モデルを再学習してもよい。
なお、以上に記載された実施の形態1及び2では、データ認識装置110、210がモデル記憶部113を備えているが、実施の形態1及び2は、このような例に限定されない。例えば、モデル記憶部113は、ネットワーク101に接続されている学習装置230又は他の装置に備えられていてもよい。
また、以上に記載された実施の形態2では、学習装置230が蓄積部234を備えているが、実施の形態2は、このような例に限定されない。例えば、蓄積部234は、データ認識装置210及び学習装置230以外の、ネットワーク101に接続されている他の装置に備えられていてもよい。また、記憶部132、232についても、データ認識装置210及び学習装置230以外の、ネットワーク101に接続されている他の装置に備えられていてもよい。
さらに、教師モデルとして使用される第一のニューラルネットワークは、生徒モデルとして使用される第二のニューラルネットワークよりも、規模が大きく、かつ、複雑なニューラルネットワークでもよく、第一のニューラルネットワークは、第二のニューラルネットワークと同一のニューラルネットワークであってもよい。
100 再学習システム、 110 データ認識装置、 111 通信部、 112 データ取得部、 113 モデル記憶部、 114 認識部、 115 認識結果出力部、 116 蓄積判断部、 117 蓄積部、 130 学習装置、 131 通信部、 132 記憶部、 133 モデル学習部。

Claims (11)

  1. 教師モデルとして使用される第一のニューラルネットワークによる認識結果に、生徒モデルとして使用される第二のニューラルネットワークの認識結果が近づくように学習された前記第二のニューラルネットワークを記憶するモデル記憶部と、
    前記第二のニューラルネットワークを用いて、認識対象を示す認識対象データに対して推論を行うことで、前記認識対象の認識を行う認識部と、
    前記認識の確からしさが中程度であるか否かを判断する判断部と、
    前記認識の確からしさが中程度である場合に、前記認識の確からしさが中程度であると判断された前記認識対象データを、再学習用データとして蓄積する蓄積部と、
    前記再学習用データを用いて、前記教師モデルの認識結果に、前記生徒モデルの認識結果が近づくように、前記生徒モデルを再学習するモデル学習部と、を備え
    前記判断部は、前記認識の確からしさを示す指標が、前記認識の確からしさを示す指標として想定される最大値よりも小さい第一の閾値と、前記認識の確からしさを示す指標として想定される最小値よりも大きく、前記第一の閾値よりも小さい第二の閾値との間にある場合に、前記認識の確からしさが中程度であると判断すること
    を特徴とする再学習システム。
  2. 前記判断部は、前記第一の閾値及び前記第二の閾値の少なくとも何れか一方を、前記再学習用データで示される前記認識の確からしさを示す指標の偏りに応じて変えること
    を特徴とする請求項に記載の再学習システム。
  3. 前記モデル学習部は、前記蓄積部に蓄積されている前記再学習用データの量が、予め定められた量に達した場合に、前記生徒モデルの再学習を行うこと
    を特徴とする請求項1又は2に記載の再学習システム。
  4. 前記モデル学習部は、予め定められた期間が経過する毎に、前記生徒モデルの再学習を行うこと
    を特徴とする請求項1又は2に記載の再学習システム。
  5. 前記モデル学習部は、予め定められた一連の動作が終了した場合に、前記生徒モデルの再学習を行うこと
    を特徴とする請求項1又は2に記載の再学習システム。
  6. 前記モデル学習部は、前記第二のニューラルネットワークに対してファインチューニングを行うことで、前記生徒モデルを再学習すること
    を特徴とする請求項1からの何れか一項に記載の再学習システム。
  7. 前記第二のニューラルネットワークを学習する際に使用された学習用データを記憶する記憶部をさらに備え、
    前記モデル学習部は、前記学習用データの少なくとも一部及び前記再学習用データを用いて、前記ファインチューニングを行うこと
    を特徴とする請求項に記載の再学習システム。
  8. 前記モデル学習部は、前記学習用データの少なくとも一部への重みと、前記再学習用データへの重みとを変えて、前記生徒モデルを再学習すること
    を特徴とする請求項に記載の再学習システム。
  9. 前記第二のニューラルネットワークを学習する際に使用された学習用データを記憶する記憶部をさらに備え、
    前記モデル学習部は、前記学習用データ及び前記再学習用データを用いて、前記生徒モデルとして使用される第三のニューラルネットワークを新たに学習することで、前記生徒モデルを再学習すること
    を特徴とする請求項1からの何れか一項に記載の再学習システム。
  10. 前記モデル学習部は、前記学習用データへの重みと、前記再学習用データへの重みとを変えて、前記生徒モデルを再学習すること
    を特徴とする請求項に記載の再学習システム。
  11. 認識部が、教師モデルとして使用される第一のニューラルネットワークによる認識結果に、生徒モデルとして使用される第二のニューラルネットワークの認識結果が近づくように学習された前記第二のニューラルネットワークを用いて、認識対象を示す認識対象データに対して推論を行うことで、前記認識対象の認識を行い、
    判断部が、前記認識の確からしさが中程度であるか否かを判断し、
    蓄積部が、前記認識の確からしさが中程度である場合に、前記認識の確からしさが中程度であると判断された前記認識対象データを、再学習用データとして蓄積し、
    モデル学習部が、前記再学習用データを用いて、前記教師モデルの認識結果に、前記生徒モデルの認識結果が近づくように、前記生徒モデルを再学習し、
    前記判断部は、前記認識の確からしさを示す指標が、前記認識の確からしさを示す指標として想定される最大値よりも小さい第一の閾値と、前記認識の確からしさを示す指標として想定される最小値よりも大きく、前記第一の閾値よりも小さい第二の閾値との間にある場合に、前記認識の確からしさが中程度であると判断すること
    を特徴とする再学習方法。
JP2023508404A 2021-03-26 2021-03-26 再学習システム及び再学習方法 Active JP7412632B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/013073 WO2022201534A1 (ja) 2021-03-26 2021-03-26 再学習システム及び再学習方法

Publications (2)

Publication Number Publication Date
JPWO2022201534A1 JPWO2022201534A1 (ja) 2022-09-29
JP7412632B2 true JP7412632B2 (ja) 2024-01-12

Family

ID=83396713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023508404A Active JP7412632B2 (ja) 2021-03-26 2021-03-26 再学習システム及び再学習方法

Country Status (5)

Country Link
US (1) US20240005171A1 (ja)
EP (1) EP4296905A4 (ja)
JP (1) JP7412632B2 (ja)
CN (1) CN117099098A (ja)
WO (1) WO2022201534A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145960A1 (ja) 2016-02-24 2017-08-31 日本電気株式会社 学習装置、学習方法および記録媒体
JP2018045369A (ja) 2016-09-13 2018-03-22 株式会社東芝 認識装置、認識システム、認識方法およびプログラム
WO2021044591A1 (ja) 2019-09-05 2021-03-11 日本電気株式会社 モデル生成装置、モデル生成方法、及び、記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111105008A (zh) 2018-10-29 2020-05-05 富士通株式会社 模型训练方法、数据识别方法和数据识别装置
KR20200128938A (ko) * 2019-05-07 2020-11-17 삼성전자주식회사 모델 학습 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145960A1 (ja) 2016-02-24 2017-08-31 日本電気株式会社 学習装置、学習方法および記録媒体
JP2018045369A (ja) 2016-09-13 2018-03-22 株式会社東芝 認識装置、認識システム、認識方法およびプログラム
WO2021044591A1 (ja) 2019-09-05 2021-03-11 日本電気株式会社 モデル生成装置、モデル生成方法、及び、記録媒体

Also Published As

Publication number Publication date
CN117099098A (zh) 2023-11-21
JPWO2022201534A1 (ja) 2022-09-29
WO2022201534A1 (ja) 2022-09-29
US20240005171A1 (en) 2024-01-04
EP4296905A4 (en) 2024-04-24
EP4296905A1 (en) 2023-12-27

Similar Documents

Publication Publication Date Title
US11966831B2 (en) Feedback mechanisms in sequence learning systems with temporal processing capability
KR20210032140A (ko) 뉴럴 네트워크에 대한 프루닝을 수행하는 방법 및 장치
TWI717826B (zh) 通過強化學習提取主幹詞的方法及裝置
US20200250529A1 (en) Arithmetic device
US20140236871A1 (en) Sparse variable optimization device, sparse variable optimization method, and sparse variable optimization program
KR102460485B1 (ko) 정책 벡터 기반 인공신경망 탐색 장치 및 방법
CN111105442B (zh) 切换式目标跟踪方法
JP6325762B1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP6230987B2 (ja) 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体
JP6970949B2 (ja) 行動学習装置
JP7412632B2 (ja) 再学習システム及び再学習方法
US20230297659A1 (en) Identity authentication method and system
CN117454187A (zh) 一种基于频域限制目标攻击的集成模型训练方法
JP2007213441A (ja) 多変数決定木構築システム、多変数決定木構築方法および多変数決定木を構築するためのプログラム
JPH08202388A (ja) 音声認識装置及び音声認識方法
WO2021192133A1 (ja) 物体認識装置、物体認識方法、及び、記録媒体
KR20220014744A (ko) 강화 학습을 기반으로 한 데이터 전처리 시스템 및 방법
WO2023047565A1 (ja) 機械学習説明プログラム、装置、及び方法
WO2023188182A1 (ja) 部分グラフ構造選択プログラム、装置、及び方法
JP2001256212A (ja) ニューラルネットワークの最適化学習方法
JP7287499B2 (ja) ジョブ予測プログラム、システム、及び方法
Browne The development of an industrial learning classifier system for data-mining in a steel hop strip mill
KR102533235B1 (ko) 컨볼루션 신경망 기반의 입력 분류 장치 및 방법
CN113793604B (zh) 语音识别系统优化方法和装置
WO2023073837A1 (ja) データ修正プログラム、装置、及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230309

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231226

R150 Certificate of patent or registration of utility model

Ref document number: 7412632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150