JP2021015425A - 学習方法、学習プログラム及び学習装置 - Google Patents
学習方法、学習プログラム及び学習装置 Download PDFInfo
- Publication number
- JP2021015425A JP2021015425A JP2019129414A JP2019129414A JP2021015425A JP 2021015425 A JP2021015425 A JP 2021015425A JP 2019129414 A JP2019129414 A JP 2019129414A JP 2019129414 A JP2019129414 A JP 2019129414A JP 2021015425 A JP2021015425 A JP 2021015425A
- Authority
- JP
- Japan
- Prior art keywords
- distribution
- data
- loss function
- model
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 53
- 238000009826 distribution Methods 0.000 claims abstract description 127
- 230000006870 function Effects 0.000 claims abstract description 70
- 238000004364 calculation method Methods 0.000 claims description 27
- 230000004913 activation Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 abstract 2
- 238000012549 training Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 12
- 239000000203 mixture Substances 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 241000282326 Felis catus Species 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
図1を用いて、実施例に係る学習装置の機能構成について説明する。図1は、実施例に係る学習装置の機能構成の一例を示す図である。図1に示すように、学習装置10は、インタフェース部11、記憶部12及び制御部13を有する。
図4を用いて、学習装置10による学習処理の流れを説明する。図4は、実施例1に係る学習処理の流れを示すフローチャートである。図4に示すように、まず、学習装置10は、画像データから特徴量を入力データ121aとして抽出する(ステップS101)。次に、学習装置10は、入力データ121aをモデルの入力層に入力する(ステップS102)。
上述したように、学習装置10は、入力層、中間層及び出力層を有するモデルの入力層に第1のデータを入力した際に中間層から出力される特徴量の分布である第1の分布と、あらかじめ設定された第2の分布とを基に第1の損失関数を計算する。学習装置10は、モデルの入力層に第1のデータを入力した際に出力層から出力される第2のデータと、第1のデータに対応する正解データとを基に第2の損失関数を計算する。学習装置10は、第1の損失関数及び第2の損失関数の両方に基づいて、モデルを学習する。このように、学習装置10は、中間層から出力される特徴量の分布を目標分布に近付けることで過学習を防止している。このため、実施例1によれば、モデルの表現能力の低下を抑え、汎化性能を高めることができる。
図11を用いて、学習装置10による学習処理の流れを説明する。図11は、実施例2に係る学習処理の流れを示すフローチャートである。図11に示すように、まず、学習装置10は、画像データから特徴量を入力データ121aとして抽出する(ステップS201)。次に、学習装置10は、入力データ121aをモデルの入力層に入力する(ステップS202)。
図12を用いて、学習装置10による学習処理の流れを説明する。図12は、実施例3に係る学習処理の流れを示すフローチャートである。図12に示すように、まず、学習装置10は、画像データから特徴量を入力データ121aとして抽出する(ステップS301)。次に、学習装置10は、入力データ121aをモデルの入力層に入力する(ステップS302)。
上述したように、学習装置10は、第1のデータに対応する正解データが存在しない場合、第1の損失関数のみに基づいてモデルを学習する。一般的に、ラベルなしの訓練データは、ラベルありの訓練データに比べると収集が容易である。実施例3によれば、訓練データにラベルがない場合であっても、モデルの汎化性能を向上させるような学習を行うことができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値等は、あくまで一例であり、任意に変更することができる。
図13は、ハードウェア構成例を説明する図である。図13に示すように、学習装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図13に示した各部は、バス等で相互に接続される。
11 インタフェース部
12 記憶部
13 制御部
121 訓練データ
121a 入力データ
121b ラベルデータ
122 モデル情報
122a モデル
122b 出力データ
123 目標分布情報
131 抽出部
132 第1の計算部
133 第2の計算部
134 学習部
Claims (7)
- 入力層、中間層及び出力層を有するモデルの前記入力層に第1のデータを入力した際に前記中間層から出力される特徴量の分布である第1の分布と、あらかじめ設定された第2の分布とを基に第1の損失関数を計算し、
前記モデルの前記入力層に前記第1のデータを入力した際に前記出力層から出力される第2のデータと、前記第1のデータに対応する正解データとを基に第2の損失関数を計算し、
前記第1の損失関数及び前記第2の損失関数の両方に基づいて、前記モデルを学習する
処理をコンピュータが実行することを特徴とする学習方法。 - 前記第1の損失関数を計算する処理は、前記第1の分布と前記第2の分布との間の距離を前記第1の損失関数として計算することを特徴とする請求項1に記載の学習方法。
- 前記第1の損失関数を計算する処理は、入力層、複数の中間層、及び所定の活性化関数である出力層を有するニューラルネットワークに前記第1のデータを入力した際に前記複数の中間層のうち、前記出力層に最も近い層から出力される特徴量の分布である第1の分布と、前記第2の分布とを基に前記第1の損失関数を計算し、
前記学習する処理は、前記第1の損失関数と前記第2の損失関数を足して得られる損失関数を基に、誤差逆伝播法により前記モデルを学習することを特徴とする請求項1又は2に記載の学習方法。 - 前記第1の損失関数を計算する処理は、前記第1の分布と、複数の正解データのそれぞれに対してあらかじめ設定された分布のうち、前記第1のデータに対応する正解データに対して設定された第2の分布とを基に前記第1の損失関数を計算することを特徴とする請求項1又は2に記載の学習方法。
- 前記学習する処理は、前記第1のデータに対応する正解データが存在しない場合、前記第1の損失関数のみに基づいて前記モデルを学習することを特徴とする請求項1から4のいずれか1項に記載の学習方法。
- コンピュータに、
入力層、中間層及び出力層を有するモデルに第1のデータを入力した際に前記中間層から出力される特徴量の分布である第1の分布と、あらかじめ設定された第2の分布とを基に第1の損失関数を計算し、
前記モデルに前記第1のデータを入力した際に前記出力層から出力される第2のデータと、前記第1のデータに対応する正解データとを基に第2の損失関数を計算し、
前記第1の損失関数及び前記第2の損失関数の両方に基づいて、前記モデルを学習する
処理を実行させることを特徴とする学習プログラム。 - 入力層、中間層及び出力層を有するモデルに第1のデータを入力した際に前記中間層から出力される特徴量の分布である第1の分布と、あらかじめ設定された第2の分布とを基に第1の損失関数を計算する第1の計算部と、
前記モデルに前記第1のデータを入力した際に前記出力層から出力される第2のデータと、前記第1のデータに対応する正解データとを基に第2の損失関数を計算する第2の計算部と、
前記第1の損失関数及び前記第2の損失関数の両方に基づいて、前記モデルを学習する学習部と、
を有することを特徴とする学習装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019129414A JP2021015425A (ja) | 2019-07-11 | 2019-07-11 | 学習方法、学習プログラム及び学習装置 |
EP20184191.3A EP3767552A1 (en) | 2019-07-11 | 2020-07-06 | Machine learning method, program, and machine learning device |
CN202010646438.2A CN112215341A (zh) | 2019-07-11 | 2020-07-07 | 非暂态计算机可读记录介质、机器学习方法和装置 |
US16/921,944 US20210012193A1 (en) | 2019-07-11 | 2020-07-07 | Machine learning method and machine learning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019129414A JP2021015425A (ja) | 2019-07-11 | 2019-07-11 | 学習方法、学習プログラム及び学習装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021015425A true JP2021015425A (ja) | 2021-02-12 |
Family
ID=71515051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019129414A Pending JP2021015425A (ja) | 2019-07-11 | 2019-07-11 | 学習方法、学習プログラム及び学習装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210012193A1 (ja) |
EP (1) | EP3767552A1 (ja) |
JP (1) | JP2021015425A (ja) |
CN (1) | CN112215341A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7050006B2 (ja) * | 2017-06-28 | 2022-04-07 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 移動体制御装置、移動体制御方法、及び学習方法 |
US11704772B2 (en) * | 2020-11-19 | 2023-07-18 | Raytheon Company | Image classification system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170011738A1 (en) * | 2015-07-09 | 2017-01-12 | Google Inc. | Generating acoustic models |
WO2019073923A1 (ja) * | 2017-10-10 | 2019-04-18 | 国立大学法人岐阜大学 | 異常品判定方法 |
US20190156204A1 (en) * | 2017-11-20 | 2019-05-23 | Koninklijke Philips N.V. | Training a neural network model |
US20190199743A1 (en) * | 2017-12-22 | 2019-06-27 | Robert Bosch Gmbh | Method and device for recognizing anomalies in a data stream of a communication network |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02307153A (ja) | 1989-05-22 | 1990-12-20 | Canon Inc | ニューラルネットワーク |
JPH05197701A (ja) | 1992-01-21 | 1993-08-06 | Fujitsu Ltd | ニューラルネットワークを用いた情報処理装置 |
US20160321522A1 (en) * | 2015-04-30 | 2016-11-03 | Canon Kabushiki Kaisha | Devices, systems, and methods for pairwise multi-task feature learning |
CN115115029A (zh) * | 2015-11-06 | 2022-09-27 | 谷歌有限责任公司 | 训练神经网络的方法、系统及存储介质 |
JP2017097585A (ja) | 2015-11-24 | 2017-06-01 | 株式会社リコー | 学習装置、プログラム及び学習方法 |
US20170293696A1 (en) * | 2016-04-11 | 2017-10-12 | Google Inc. | Related entity discovery |
US9965863B2 (en) * | 2016-08-26 | 2018-05-08 | Elekta, Inc. | System and methods for image segmentation using convolutional neural network |
KR102602117B1 (ko) * | 2017-10-26 | 2023-11-13 | 매직 립, 인코포레이티드 | 딥 멀티태스크 네트워크들에서 적응적 손실 밸런싱을 위한 그라디언트 정규화 시스템들 및 방법들 |
US20190213470A1 (en) * | 2018-01-09 | 2019-07-11 | NEC Laboratories Europe GmbH | Zero injection for distributed deep learning |
-
2019
- 2019-07-11 JP JP2019129414A patent/JP2021015425A/ja active Pending
-
2020
- 2020-07-06 EP EP20184191.3A patent/EP3767552A1/en not_active Withdrawn
- 2020-07-07 CN CN202010646438.2A patent/CN112215341A/zh active Pending
- 2020-07-07 US US16/921,944 patent/US20210012193A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170011738A1 (en) * | 2015-07-09 | 2017-01-12 | Google Inc. | Generating acoustic models |
WO2019073923A1 (ja) * | 2017-10-10 | 2019-04-18 | 国立大学法人岐阜大学 | 異常品判定方法 |
US20190156204A1 (en) * | 2017-11-20 | 2019-05-23 | Koninklijke Philips N.V. | Training a neural network model |
US20190199743A1 (en) * | 2017-12-22 | 2019-06-27 | Robert Bosch Gmbh | Method and device for recognizing anomalies in a data stream of a communication network |
Also Published As
Publication number | Publication date |
---|---|
US20210012193A1 (en) | 2021-01-14 |
EP3767552A1 (en) | 2021-01-20 |
CN112215341A (zh) | 2021-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Brain tumor diagnosis based on metaheuristics and deep learning | |
CN104067314B (zh) | 人形图像分割方法 | |
KR102114357B1 (ko) | 풀링 타입에 대한 정보를 포함하는 테이블을 작성하기 위한 방법, 장치 및 이를 이용한 테스팅 방법, 테스팅 장치 | |
KR20180136720A (ko) | 다채널 특징맵을 이용하는 영상 처리 장치 및 방법 | |
US11003990B2 (en) | Controlling memory area for training a neural network | |
US20210192343A1 (en) | Method and device for training generative adversarial network for converting between heterogeneous domain data | |
JP2018181187A (ja) | データ分析装置、データ分析方法、およびデータ分析プログラム | |
JP2018018350A (ja) | 画像認識装置、画像認識プログラム、画像認識方法および認識装置 | |
JP2021015425A (ja) | 学習方法、学習プログラム及び学習装置 | |
US20210150679A1 (en) | Using imager with on-purpose controlled distortion for inference or training of an artificial intelligence neural network | |
JP6832252B2 (ja) | 超解像装置およびプログラム | |
JP7106486B2 (ja) | 学習装置、学習方法、プログラムおよび情報処理システム | |
US20190287016A1 (en) | Computer-readable recording medium, learning method, and learning device | |
JP2019191635A (ja) | データ分析システム、方法、及びプログラム | |
Rafati Fard et al. | Incorporating instantaneous reaction delay in car-following models: a hybrid approach | |
CN113490955A (zh) | 用于产生金字塔层的架构的系统和方法 | |
WO2019208564A1 (ja) | ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、プログラム | |
JP7264272B2 (ja) | 検出方法、検出プログラム及び検出装置 | |
US20210312272A1 (en) | Neuromorphic circuit, neuromorphic array learning method, and program | |
KR102597184B1 (ko) | 가지치기 기반 심층 신경망 경량화에 특화된 지식 증류 방법 및 시스템 | |
EP1837807A1 (en) | Pattern recognition method | |
JP2023176667A (ja) | 判定プログラム、判定装置、および判定方法 | |
JP7250643B2 (ja) | 計算機システム及びモデル学習方法 | |
JP2021177386A (ja) | 差分に予測可能に応答する機能のトレーニング | |
JP7414531B2 (ja) | 学習装置、学習方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220407 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230320 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230425 |