JP7412632B2 - 再学習システム及び再学習方法 - Google Patents
再学習システム及び再学習方法 Download PDFInfo
- Publication number
- JP7412632B2 JP7412632B2 JP2023508404A JP2023508404A JP7412632B2 JP 7412632 B2 JP7412632 B2 JP 7412632B2 JP 2023508404 A JP2023508404 A JP 2023508404A JP 2023508404 A JP2023508404 A JP 2023508404A JP 7412632 B2 JP7412632 B2 JP 7412632B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- model
- relearning
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 34
- 238000009825 accumulation Methods 0.000 claims description 28
- 238000013459 approach Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 5
- 238000013140 knowledge distillation Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
図1は、実施の形態1に係る再学習システム100の構成を概略的に示すブロック図である。
再学習システム100は、データ認識装置110と、学習装置130とを備える。
例えば、データ認識装置110と、学習装置130とは、インターネット等のネットワーク101を介して通信することができる。
例えば、蓄積判断部116は、認識対象の認識の確からしさを示す指標が、その指標として想定される最大値よりも小さい上限閾値である第一の閾値と、その指標として想定される最小値よりも大きく、第一の閾値よりも小さい下限閾値である第二の閾値との間にある場合に、認識の確からしさが中程度であると判断する。最大値は、その指標がとり得る最大の値であり、最小値は、その指標がとり得る最小の値である。
そして、蓄積判断部116は、認識の確からしさが中程度である場合には、認識部114からの認識対象データを再学習用データとして蓄積部117に蓄積する。
例えば、蓄積判断部116は、上限閾値及び下限閾値の少なくとも何れか一方を、蓄積部117に蓄積されている再学習用データで示される認識の確からしさを示す指標の偏りに応じて変えてもよい。
ここで、再学習のタイミングに用いられる、蓄積部117に蓄積されている認識対象データの量については、学習装置130とデータ認識装置110との間の通信トラフィックに応じて定められてもよい。例えば、その通信トラフィックが大きいほど、そのデータ量が小さくなるようにすればよい。
さらに、再学習のタイミングは、予め定められた一連の動作が終了したタイミングであってもよい。例えば、再学習のタイミングは、ある種類の認識対象の認識が終了して、別の種類の認識対象の認識を開始するタイミングであってもよい。この場合、データ取得部112が取得する認識対象データで示される認識対象の種類が変化することになる。例えば、認識対象としての製品のロットが変わる場合等に、認識対象の種類が変化する。
コンピュータ150は、不揮発性メモリ151と、揮発性メモリ152と、NIC(Network Interface Card)153と、プロセッサ154とを備える。
モデル記憶部113及び蓄積部117は、不揮発性メモリ151により実現することができる。
通信部111は、NIC153により実現することができる。
さらに、記憶部132は、データ認識装置110が記憶している生徒モデルと同一の構成を有するモデルである更新対象生徒モデルと、その生徒モデルの教師モデルを記憶している。この場合、記憶部132は、教師モデル記憶部として機能する。
また、更新対象生徒モデルは、生徒モデルの再学習のタイミングで、データ認識装置110から通信部131を介して取得された生徒モデルであってもよい。
具体的には、モデル学習部133は、記憶部132に記憶されている更新対象生徒モデルに対してファインチューニングを行うことで、生徒モデルを再学習する。なお、更新対象生徒モデルは、データ認識装置110のモデル記憶部113に記憶されている第二のニューラルネットワークモデルと同一のモデルであるため、ここでは、第二のニューラルネットワークモデルに対してファインチューニングが行われていることとなる。
ここで、モデル学習部133は、学習用データの少なくとも一部への重みと、再学習用データへの重みとを変えて、生徒モデルを再学習してもよい。この場合、モデル学習部133は、例えば、学習用データの重みを、再学習用データの重みよりも軽くしてもよい。
記憶部132は、不揮発性メモリ151により実現することができる。
通信部131は、NIC153により実現することができる。
まず、データ取得部112は、認識対象データを取得する(S10)。取得された認識対象データは、認識部114に与えられる。
まず、通信部131は、データ認識装置110からの再学習用データを受信する(S20)。受信された再学習用データは、記憶部132に送られ、記憶部132は、その再学習用データを記憶する。
認識の確からしさが高い認識対象データについては、学習が適切に行われていると考えられるため、そのような認識対象データを用いた再学習は不要である。
認識の確からしさが低い認識対象データについても、「認識対象ではない」という学習が適切に行われていると考えられるため、そのような認識対象データを用いた再学習は不要である。
認識の確からしさが中程度の認識対象データのみを蓄積することで、蓄積するデータ量を少なくすることができる。
図5は、実施の形態2に係る再学習システム200の構成を概略的に示すブロック図である。
再学習システム200は、データ認識装置210と、学習装置230とを備える。
例えば、データ認識装置210と、学習装置230とは、インターネット等のネットワーク101を介して通信することができるものとする。
実施の形態2におけるデータ認識装置210の通信部111、データ取得部112、モデル記憶部113、認識部114及び認識結果出力部115は、実施の形態1におけるデータ認識装置110の通信部111、データ取得部112、モデル記憶部113、認識部114及び認識結果出力部115と同様である。
また、実施の形態2におけるデータ認識装置210は、実施の形態1におけるデータ認識装置110の蓄積部117を備えていない。
実施の形態2における学習装置230の通信部131は、実施の形態1における学習装置130の通信部131と同様である。
但し、実施の形態2における通信部131は、データ認識装置210からの再学習用データを受信して、そのデータを蓄積部234に与える。
なお、実施の形態2では、蓄積部234が設けられているため、記憶部232は、データ認識装置210からの再学習用データを記憶しない。なお、記憶部232は、生徒モデルが生成された際の学習用データを記憶していてもよい。
具体的には、蓄積部234も不揮発性メモリ151により実現することができる。
Claims (11)
- 教師モデルとして使用される第一のニューラルネットワークによる認識結果に、生徒モデルとして使用される第二のニューラルネットワークの認識結果が近づくように学習された前記第二のニューラルネットワークを記憶するモデル記憶部と、
前記第二のニューラルネットワークを用いて、認識対象を示す認識対象データに対して推論を行うことで、前記認識対象の認識を行う認識部と、
前記認識の確からしさが中程度であるか否かを判断する判断部と、
前記認識の確からしさが中程度である場合に、前記認識の確からしさが中程度であると判断された前記認識対象データを、再学習用データとして蓄積する蓄積部と、
前記再学習用データを用いて、前記教師モデルの認識結果に、前記生徒モデルの認識結果が近づくように、前記生徒モデルを再学習するモデル学習部と、を備え、
前記判断部は、前記認識の確からしさを示す指標が、前記認識の確からしさを示す指標として想定される最大値よりも小さい第一の閾値と、前記認識の確からしさを示す指標として想定される最小値よりも大きく、前記第一の閾値よりも小さい第二の閾値との間にある場合に、前記認識の確からしさが中程度であると判断すること
を特徴とする再学習システム。 - 前記判断部は、前記第一の閾値及び前記第二の閾値の少なくとも何れか一方を、前記再学習用データで示される前記認識の確からしさを示す指標の偏りに応じて変えること
を特徴とする請求項1に記載の再学習システム。 - 前記モデル学習部は、前記蓄積部に蓄積されている前記再学習用データの量が、予め定められた量に達した場合に、前記生徒モデルの再学習を行うこと
を特徴とする請求項1又は2に記載の再学習システム。 - 前記モデル学習部は、予め定められた期間が経過する毎に、前記生徒モデルの再学習を行うこと
を特徴とする請求項1又は2に記載の再学習システム。 - 前記モデル学習部は、予め定められた一連の動作が終了した場合に、前記生徒モデルの再学習を行うこと
を特徴とする請求項1又は2に記載の再学習システム。 - 前記モデル学習部は、前記第二のニューラルネットワークに対してファインチューニングを行うことで、前記生徒モデルを再学習すること
を特徴とする請求項1から5の何れか一項に記載の再学習システム。 - 前記第二のニューラルネットワークを学習する際に使用された学習用データを記憶する記憶部をさらに備え、
前記モデル学習部は、前記学習用データの少なくとも一部及び前記再学習用データを用いて、前記ファインチューニングを行うこと
を特徴とする請求項6に記載の再学習システム。 - 前記モデル学習部は、前記学習用データの少なくとも一部への重みと、前記再学習用データへの重みとを変えて、前記生徒モデルを再学習すること
を特徴とする請求項7に記載の再学習システム。 - 前記第二のニューラルネットワークを学習する際に使用された学習用データを記憶する記憶部をさらに備え、
前記モデル学習部は、前記学習用データ及び前記再学習用データを用いて、前記生徒モデルとして使用される第三のニューラルネットワークを新たに学習することで、前記生徒モデルを再学習すること
を特徴とする請求項1から5の何れか一項に記載の再学習システム。 - 前記モデル学習部は、前記学習用データへの重みと、前記再学習用データへの重みとを変えて、前記生徒モデルを再学習すること
を特徴とする請求項9に記載の再学習システム。 - 認識部が、教師モデルとして使用される第一のニューラルネットワークによる認識結果に、生徒モデルとして使用される第二のニューラルネットワークの認識結果が近づくように学習された前記第二のニューラルネットワークを用いて、認識対象を示す認識対象データに対して推論を行うことで、前記認識対象の認識を行い、
判断部が、前記認識の確からしさが中程度であるか否かを判断し、
蓄積部が、前記認識の確からしさが中程度である場合に、前記認識の確からしさが中程度であると判断された前記認識対象データを、再学習用データとして蓄積し、
モデル学習部が、前記再学習用データを用いて、前記教師モデルの認識結果に、前記生徒モデルの認識結果が近づくように、前記生徒モデルを再学習し、
前記判断部は、前記認識の確からしさを示す指標が、前記認識の確からしさを示す指標として想定される最大値よりも小さい第一の閾値と、前記認識の確からしさを示す指標として想定される最小値よりも大きく、前記第一の閾値よりも小さい第二の閾値との間にある場合に、前記認識の確からしさが中程度であると判断すること
を特徴とする再学習方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/013073 WO2022201534A1 (ja) | 2021-03-26 | 2021-03-26 | 再学習システム及び再学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022201534A1 JPWO2022201534A1 (ja) | 2022-09-29 |
JP7412632B2 true JP7412632B2 (ja) | 2024-01-12 |
Family
ID=83396713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023508404A Active JP7412632B2 (ja) | 2021-03-26 | 2021-03-26 | 再学習システム及び再学習方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240005171A1 (ja) |
EP (1) | EP4296905A4 (ja) |
JP (1) | JP7412632B2 (ja) |
CN (1) | CN117099098A (ja) |
WO (1) | WO2022201534A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017145960A1 (ja) | 2016-02-24 | 2017-08-31 | 日本電気株式会社 | 学習装置、学習方法および記録媒体 |
JP2018045369A (ja) | 2016-09-13 | 2018-03-22 | 株式会社東芝 | 認識装置、認識システム、認識方法およびプログラム |
WO2021044591A1 (ja) | 2019-09-05 | 2021-03-11 | 日本電気株式会社 | モデル生成装置、モデル生成方法、及び、記録媒体 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105008A (zh) | 2018-10-29 | 2020-05-05 | 富士通株式会社 | 模型训练方法、数据识别方法和数据识别装置 |
KR20200128938A (ko) * | 2019-05-07 | 2020-11-17 | 삼성전자주식회사 | 모델 학습 방법 및 장치 |
-
2021
- 2021-03-26 EP EP21933137.8A patent/EP4296905A4/en active Pending
- 2021-03-26 JP JP2023508404A patent/JP7412632B2/ja active Active
- 2021-03-26 CN CN202180095917.2A patent/CN117099098A/zh active Pending
- 2021-03-26 WO PCT/JP2021/013073 patent/WO2022201534A1/ja active Application Filing
-
2023
- 2023-09-13 US US18/367,531 patent/US20240005171A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017145960A1 (ja) | 2016-02-24 | 2017-08-31 | 日本電気株式会社 | 学習装置、学習方法および記録媒体 |
JP2018045369A (ja) | 2016-09-13 | 2018-03-22 | 株式会社東芝 | 認識装置、認識システム、認識方法およびプログラム |
WO2021044591A1 (ja) | 2019-09-05 | 2021-03-11 | 日本電気株式会社 | モデル生成装置、モデル生成方法、及び、記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN117099098A (zh) | 2023-11-21 |
JPWO2022201534A1 (ja) | 2022-09-29 |
WO2022201534A1 (ja) | 2022-09-29 |
US20240005171A1 (en) | 2024-01-04 |
EP4296905A4 (en) | 2024-04-24 |
EP4296905A1 (en) | 2023-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11966831B2 (en) | Feedback mechanisms in sequence learning systems with temporal processing capability | |
KR20210032140A (ko) | 뉴럴 네트워크에 대한 프루닝을 수행하는 방법 및 장치 | |
TWI717826B (zh) | 通過強化學習提取主幹詞的方法及裝置 | |
US20200250529A1 (en) | Arithmetic device | |
US20140236871A1 (en) | Sparse variable optimization device, sparse variable optimization method, and sparse variable optimization program | |
KR102460485B1 (ko) | 정책 벡터 기반 인공신경망 탐색 장치 및 방법 | |
CN111105442B (zh) | 切换式目标跟踪方法 | |
JP6325762B1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
JP6230987B2 (ja) | 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体 | |
JP6970949B2 (ja) | 行動学習装置 | |
JP7412632B2 (ja) | 再学習システム及び再学習方法 | |
US20230297659A1 (en) | Identity authentication method and system | |
CN117454187A (zh) | 一种基于频域限制目标攻击的集成模型训练方法 | |
JP2007213441A (ja) | 多変数決定木構築システム、多変数決定木構築方法および多変数決定木を構築するためのプログラム | |
JPH08202388A (ja) | 音声認識装置及び音声認識方法 | |
WO2021192133A1 (ja) | 物体認識装置、物体認識方法、及び、記録媒体 | |
KR20220014744A (ko) | 강화 학습을 기반으로 한 데이터 전처리 시스템 및 방법 | |
WO2023047565A1 (ja) | 機械学習説明プログラム、装置、及び方法 | |
WO2023188182A1 (ja) | 部分グラフ構造選択プログラム、装置、及び方法 | |
JP2001256212A (ja) | ニューラルネットワークの最適化学習方法 | |
JP7287499B2 (ja) | ジョブ予測プログラム、システム、及び方法 | |
Browne | The development of an industrial learning classifier system for data-mining in a steel hop strip mill | |
KR102533235B1 (ko) | 컨볼루션 신경망 기반의 입력 분류 장치 및 방법 | |
CN113793604B (zh) | 语音识别系统优化方法和装置 | |
WO2023073837A1 (ja) | データ修正プログラム、装置、及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230309 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7412632 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |