JP7405148B2 - 情報処理装置、学習方法、及び、プログラム - Google Patents
情報処理装置、学習方法、及び、プログラム Download PDFInfo
- Publication number
- JP7405148B2 JP7405148B2 JP2021555691A JP2021555691A JP7405148B2 JP 7405148 B2 JP7405148 B2 JP 7405148B2 JP 2021555691 A JP2021555691 A JP 2021555691A JP 2021555691 A JP2021555691 A JP 2021555691A JP 7405148 B2 JP7405148 B2 JP 7405148B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- label
- learning
- model
- teacher model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 25
- 238000000034 method Methods 0.000 title claims description 21
- 238000009826 distribution Methods 0.000 claims description 46
- 238000004821 distillation Methods 0.000 claims description 29
- 230000001186 cumulative effect Effects 0.000 claims description 20
- 238000013528 artificial neural network Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 230000015654 memory Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000013140 knowledge distillation Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7792—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being an automated module, e.g. "intelligent oracle"
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Description
未知データに対する任意ラベルを出力するラベル分布決定手段と、
前記任意ラベルと前記未知データとを入力として、新たな生成データを出力するデータ
生成手段と、
前記生成データを入力とし、教師モデルを用いて生徒モデルの蒸留学習を行う蒸留学習
手段と、
を備え、
前記未知データは、前記教師モデルの学習に利用したデータとは異なるデータである。
未知データに対する任意ラベルを出力し、
前記任意ラベルと前記未知データとを入力として、新たな生成データを出力し、
前記生成データを入力とし、教師モデルを用いて生徒モデルの蒸留学習を行い、
前記未知データは、前記教師モデルの学習に利用したデータとは異なるデータである。
未知データに対する任意ラベルを出力し、
前記任意ラベルと前記未知データとを入力として、新たな生成データを出力し、
前記生成データを入力とし、教師モデルを用いて生徒モデルの蒸留学習を行う処理をコンピュータに実行させ、
前記未知データは、前記教師モデルの学習に利用したデータとは異なるデータである。
(ハードウェア構成)
図1は、本発明の情報処理装置の実施形態に係る学習装置のハードウェア構成を示すブロック図である。図示のように、学習装置10は、インタフェース(I/F)12と、プロセッサ13と、メモリ14と、記録媒体15と、データベース(DB)16と、を備える。
次に、学習装置10の機能構成について説明する。図2は、第1実施形態に係る学習装置10の機能構成を示すブロック図である。図示のように、学習装置10は、データ生成部20と、ラベル分布決定部30と、蒸留学習部40と、を備える。蒸留学習部40は、教師モデル41と、生徒モデル42とを備える。
次に、学習処理について説明する。図3は、学習装置10による学習処理のフローチャートである。この処理は、図1に示すプロセッサ13が、予め用意されたプログラムを実行し、図2に示す要素として機能することにより実現される。
次に、本実施形態の実施例について説明する。以下の実施例では、教師モデルは画像を入力とし、画像内の物体を100種類のクラスに分類するディープニューラルネットワークとする。また、教師モデルは100クラスに分類された画像群を用いて事前に学習済みとする。学習対象である生徒モデルは、教師モデルと同様に100クラスの分類を行うディープニューラルネットワークであるが、ニューロンの数は教師モデルと同等または少ないものとする。未知データは、教師モデルの学習に用いた画像群とは異なり、写っている対象も異なる10クラスに分類された画像群とする。つまり、未知データの各々は、10クラスのいずれかを示す番号を真のラベルとしてもつが、そのラベルは教師モデルが対象とする100クラスのラベルとは一致していない。未知データの枚数は100クラスの画像群と同等以上でもよいし、それより少量でもよい。
以上の通り、本実施形態によれば、教師モデルの学習データが利用できない状況下で、さらに未知データと学習データの分布が異なっていても、未知データを用いて生徒モデルの蒸留学習を実現できる。その理由は、以下の通りである。
本実施形態は、上述した例に限定されるものではない。本実施形態は、上述した例に対して、いわゆる当業者が理解し得る多様な変更を適用することが可能である。例えば、本実施の形態は、以下の変形例に示す形態によっても実施可能である。
次に、本発明の第2実施形態について説明する。図5は、第2実施形態に係る情報処理装置50の機能構成を示す。なお、情報処理装置50のハードウェア構成は、図1に示すものと同様である。
未知データに対する任意ラベルを出力するラベル分布決定部と、
前記任意ラベルと前記未知データとを入力として、新たな生成データを出力するデータ生成部と、
前記生成データを入力として、教師モデルを用いて生徒モデルの蒸留学習を行う蒸留学習部と、
を備える情報処理装置。
前記ラベル分布決定部は、前記未知データに対する前記教師モデルの予測ラベルの累積確率密度を求め、当該累積確率密度に基づいて前記任意ラベルを決定する付記1に記載の情報処理装置。
前記ラベル分布決定部は、前記教師モデルの予測ラベルの各クラスの累積確率密度が均等になるように前記任意ラベルを決定する付記2に記載の情報処理装置。
前記ラベル分布決定部は、前記教師モデルの予測ラベルの各クラスの累積確率密度が均等になるように各クラスに対する重みを算出し、当該重みを前記教師モデルの予測ラベルに乗算して前記任意ラベルを決定する付記3に記載の情報処理装置。
前記データ生成部は、前記未知データを前記生成データの初期値として使用し、前記生成データを前記教師モデルに入力して得られる予測ラベルと前記任意ラベルとの誤差を最小化する新たな生成データを生成する付記1乃至4のいずれか一項に記載の情報処理装置。
前記データ生成部は、ランダムノイズを前記生成データの初期値として使用し、前記生成データを前記教師モデルに入力して得られる予測ラベルと前記任意ラベルとの誤差を最小化する新たな生成データを生成する付記1乃至4のいずれか一項に記載の情報処理装置。
前記未知データは、前記教師モデルの学習に利用したデータとは異なるデータである付記1乃至6のいずれか一項に記載の情報処理装置。
前記未知データの情報量は、前記教師モデルの学習に利用したデータの情報量よりも少ない付記1乃至7のいずれか一項に記載の情報処理装置。
未知データに対する任意ラベルを出力し、
前記任意ラベルと前記未知データとを入力として、新たな生成データを出力し、
前記生成データを入力とし、教師モデルを用いて生徒モデルの蒸留学習を行う学習方法。
未知データに対する任意ラベルを出力し、
前記任意ラベルと前記未知データとを入力として、新たな生成データを出力し、
前記生成データを入力とし、教師モデルを用いて生徒モデルの蒸留学習を行う処理をコンピュータに実行させるプログラムを記録した記録媒体。
20 データ生成部
30 ラベル分布決定部
40 蒸留学習部
41 教師モデル
42 生徒モデル
50 情報処理装置
Claims (9)
- 未知データに対する任意ラベルを出力するラベル分布決定手段と、
前記任意ラベルと前記未知データとを入力として、新たな生成データを出力するデータ生成手段と、
前記生成データを入力とし、教師モデルを用いて生徒モデルの蒸留学習を行う蒸留学習手段と、
を備え、
前記未知データは、前記教師モデルの学習に利用したデータとは異なるデータである情報処理装置。 - 前記ラベル分布決定手段は、前記未知データに対する前記教師モデルの予測ラベルの累積確率密度を求め、当該累積確率密度に基づいて前記任意ラベルを決定する請求項1に記載の情報処理装置。
- 前記ラベル分布決定手段は、前記教師モデルの予測ラベルの各クラスの累積確率密度が均等になるように前記任意ラベルを決定する請求項2に記載の情報処理装置。
- 前記ラベル分布決定手段は、前記教師モデルの予測ラベルの各クラスの累積確率密度が均等になるように各クラスに対する重みを算出し、当該重みを前記教師モデルの予測ラベルに乗算して前記任意ラベルを決定する請求項3に記載の情報処理装置。
- 前記データ生成手段は、前記未知データを前記生成データの初期値として使用し、前記生成データを前記教師モデルに入力して得られる予測ラベルと前記任意ラベルとの誤差を最小化する新たな生成データを生成する請求項1乃至4のいずれか一項に記載の情報処理装置。
- 前記データ生成手段は、ランダムノイズを前記生成データの初期値として使用し、前記生成データを前記教師モデルに入力して得られる予測ラベルと前記任意ラベルとの誤差を最小化する新たな生成データを生成する請求項1乃至4のいずれか一項に記載の情報処理装置。
- 前記未知データの情報量は、前記教師モデルの学習に利用したデータの情報量よりも少ない請求項1乃至6のいずれか一項に記載の情報処理装置。
- 未知データに対する任意ラベルを出力し、
前記任意ラベルと前記未知データとを入力として、新たな生成データを出力し、
前記生成データを入力とし、教師モデルを用いて生徒モデルの蒸留学習を行い、
前記未知データは、前記教師モデルの学習に利用したデータとは異なるデータである学習方法。 - 未知データに対する任意ラベルを出力し、
前記任意ラベルと前記未知データとを入力として、新たな生成データを出力し、
前記生成データを入力とし、教師モデルを用いて生徒モデルの蒸留学習を行う処理をコンピュータに実行させ、
前記未知データは、前記教師モデルの学習に利用したデータとは異なるデータであるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/044527 WO2021095160A1 (ja) | 2019-11-13 | 2019-11-13 | 情報処理装置、学習方法、及び、記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021095160A1 JPWO2021095160A1 (ja) | 2021-05-20 |
JPWO2021095160A5 JPWO2021095160A5 (ja) | 2022-07-06 |
JP7405148B2 true JP7405148B2 (ja) | 2023-12-26 |
Family
ID=75911930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021555691A Active JP7405148B2 (ja) | 2019-11-13 | 2019-11-13 | 情報処理装置、学習方法、及び、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220398833A1 (ja) |
JP (1) | JP7405148B2 (ja) |
WO (1) | WO2021095160A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130097103A1 (en) | 2011-10-14 | 2013-04-18 | International Business Machines Corporation | Techniques for Generating Balanced and Class-Independent Training Data From Unlabeled Data Set |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS628552U (ja) * | 1985-06-26 | 1987-01-19 | ||
JPH0973440A (ja) * | 1995-09-06 | 1997-03-18 | Fujitsu Ltd | コラム構造の再帰型ニューラルネットワークによる時系列トレンド推定システムおよび方法 |
JP6208552B2 (ja) * | 2013-11-14 | 2017-10-04 | 株式会社デンソーアイティーラボラトリ | 識別器、識別プログラム、及び識別方法 |
US10643602B2 (en) * | 2018-03-16 | 2020-05-05 | Microsoft Technology Licensing, Llc | Adversarial teacher-student learning for unsupervised domain adaptation |
US11487997B2 (en) * | 2018-10-04 | 2022-11-01 | Visa International Service Association | Method, system, and computer program product for local approximation of a predictive model |
US11494637B2 (en) * | 2019-03-28 | 2022-11-08 | International Business Machines Corporation | Layer-wise distillation for protecting pre-trained neural network models |
EP3987444A1 (en) * | 2019-06-24 | 2022-04-27 | Telefonaktiebolaget LM Ericsson (publ) | Method for detecting uncommon input |
EP3757895B1 (en) * | 2019-06-28 | 2024-09-04 | Robert Bosch GmbH | Method for estimating a global uncertainty of a neural network |
-
2019
- 2019-11-13 US US17/775,607 patent/US20220398833A1/en active Pending
- 2019-11-13 WO PCT/JP2019/044527 patent/WO2021095160A1/ja active Application Filing
- 2019-11-13 JP JP2021555691A patent/JP7405148B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130097103A1 (en) | 2011-10-14 | 2013-04-18 | International Business Machines Corporation | Techniques for Generating Balanced and Class-Independent Training Data From Unlabeled Data Set |
Non-Patent Citations (3)
Title |
---|
CHEN, Hanting et al.,Data-Free Learning of Student Networks,arXiv.org [online],arXiv:1904.01186v3,米国,Cornell University,2019年09月05日,[検索日 2020.01.31], インターネット:<https://arxiv.org/pdf/1904.01186v3.pdf> |
NAYAK, Gaurav Kumar et al.,"Zero-Shot Knowledge Distillation in Deep Networks",arXiv.org [online],arXiv:1905.08114v1,米国,Cornell University,2019年05月20日,[検索日 2020.01.31], インターネット:<URL: https://arxiv.org/pdf/1905.08114v1.pdf> |
河野 晋策 ほか,「モデル圧縮におけるクラス不均衡に着目した疑似データ生成手法の提案」,情報処理学会論文誌データベース(TOD) [online],情報処理学会,2018年07月11日,第11巻, 第2号,pp.7-15,[検索日 2018.07.18], インターネット:<URL: https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=190375&file_id=1&file_no=1>,ISSN:1882-7799 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021095160A1 (ja) | 2021-05-20 |
US20220398833A1 (en) | 2022-12-15 |
WO2021095160A1 (ja) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Schuman et al. | Evolutionary optimization for neuromorphic systems | |
JP7059458B2 (ja) | 生成的敵対神経網ベースの分類システム及び方法 | |
JP7047498B2 (ja) | 学習プログラム、学習方法および学習装置 | |
TWI773962B (zh) | 模型訓練裝置及方法 | |
EP3382609A1 (en) | Risk assessment method, risk assessment program, and information processing device | |
CN113255842B (zh) | 车辆置换预测方法、装置、设备及存储介质 | |
CN112651418B (zh) | 数据分类方法、分类器训练方法及系统 | |
KR102142943B1 (ko) | 클라우드 기반의 인공지능 연산 서비스 방법 및 이를 수행하는 장치 | |
Devi et al. | A Comparative Study on Handwritten Digit Recognizer using Machine Learning Technique | |
WO2020075462A1 (ja) | 学習器推定装置、学習器推定方法、リスク評価装置、リスク評価方法、プログラム | |
Huang et al. | Deep prototypical networks for imbalanced time series classification under data scarcity | |
JP2022181204A (ja) | ニューラルネットワークをトレーニングするためのコンピュータプログラムおよびコンピュータで実装される方法(混合された拡張済みデータセットを用いる音声異常検出) | |
Krawczyk et al. | Incremental weighted one-class classifier for mining stationary data streams | |
CN112819151A (zh) | 用于识别图像的方法和设备以及训练方法 | |
WO2020255414A1 (ja) | 学習支援装置、学習支援方法、及びコンピュータ読み取り可能な記録媒体 | |
CN110199300A (zh) | 用于自动编码器的模糊输入 | |
Renström et al. | Fraud Detection on Unlabeled Data with Unsupervised Machine Learning | |
JP7405148B2 (ja) | 情報処理装置、学習方法、及び、プログラム | |
JP7563495B2 (ja) | 学習装置、学習方法、及び、プログラム | |
Hemkiran et al. | Design of Automatic Credit Card Approval System Using Machine Learning | |
Kamel et al. | AdaBoost ensemble learning technique for optimal feature subset selection | |
KR102497387B1 (ko) | 교차-엔트로피 샤플리를 이용한 서로게이트 랜덤 포레스트 모델의 경량화 방법 및 장치 | |
KR20200002248A (ko) | 뉴럴 네트워크 하드웨어 | |
JP7468681B2 (ja) | 学習方法、学習装置、及びプログラム | |
KR20200002245A (ko) | 뉴럴 네트워크 하드웨어 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220502 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231127 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7405148 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |