JPWO2020137090A1 - ニューラルネットワーク学習装置、方法およびプログラム - Google Patents
ニューラルネットワーク学習装置、方法およびプログラム Download PDFInfo
- Publication number
- JPWO2020137090A1 JPWO2020137090A1 JP2020562380A JP2020562380A JPWO2020137090A1 JP WO2020137090 A1 JPWO2020137090 A1 JP WO2020137090A1 JP 2020562380 A JP2020562380 A JP 2020562380A JP 2020562380 A JP2020562380 A JP 2020562380A JP WO2020137090 A1 JPWO2020137090 A1 JP WO2020137090A1
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- learning
- linearization
- amount
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
Description
図1は、本発明によるニューラルネットワーク学習装置の第一の実施形態の構成例を示すブロック図である。本発明におけるニューラルネットワーク学習装置100は、学習データ記憶部10と、学習データ決定部20と、学習部30と、線形化量決定部40と、集約部50とを備えている。
次に、本発明によるニューラルネットワーク学習装置の第二の実施形態を説明する。第一の実施形態では、学習部40が評価値として算出した誤差に基づいて線形化量を増加または減少させる方法を説明した。本実施形態では、評価値として検証データによる出力の判定精度を用いて線形化量を変更する方法を説明する。
次に、本発明によるニューラルネットワーク学習装置の第三の実施形態を説明する。第一の実施形態および第二の実施形態では、誤差や判定精度に基づいて線形化量を変更させていた。一方、線形化量を変更することにより活性化関数を更新した場合、線形分離できないデータの影響によって、誤差の増大や判定精度の低下が想定される。
次に、本発明によるニューラルネットワーク学習装置の第四の実施形態を説明する。上記実施形態では、活性化関数を非線形関数から線形関数に近似するように線形化量を増加または減少させる方法を説明した。本実施形態では、予め線形関数に近似可能な値に線形化量を設定し、線形性の有無を判定しながら学習を行う方法を説明する。
次に、本発明によるニューラルネットワーク学習装置の第五の実施形態を説明する。第四の実施形態では、線形化量決定部44が、判定精度が線形性を表わす所定の基準を満たすと判定した場合、線形化量を維持したまま学習部32による学習を継続させる場合について説明した。本実施形態では、第四の実施形態において、線形性を表わす所定の基準を満たすと判定された場合、モデルを再構築する方法を説明する。
次に、本発明によるニューラルネットワーク学習装置の第六の実施形態を説明する。第五の実施形態では、判定精度が線形性を表わす所定の基準を満たすと判断された場合にモデルを再構築する方法を説明した。本実施形態では、第五の実施形態において、線形性を表わす所定の基準を満たすと判定された場合に、線形性を有する部分と非線形性が残る部分とを特定してモデルを再構成する方法を説明する。
12 テストデータ記憶部
14 第一重み記憶部
16 第二重み記憶部
20 学習データ決定部
22 テストデータ決定部
30,32,34 学習部
40,42,44 線形量決定部
50 集約部
60 入力次元追加部
70 モデル再構築部
72 線形・非線形分離再構成部
100,200,300,400,500,600 ニューラルネットワーク学習装置
Claims (13)
- ニューラルネットワークを学習する学習部と、
前記ニューラルネットワークで用いられる活性化関数に含まれるパラメータであって、増加または減少させることにより当該活性化関数を線形関数に近づけるパラメータである線形化量を決定する線形化量決定部と、
前記線形化量を増加または減少させることにより線形関数に収束すると判断される前記活性化関数を当該線形関数に置き換えて、置き換えた線形関数を用いる層間の重みを集約する集約部とを備え、
前記学習部は、前記ニューラルネットワークの学習において、当該ニューラルネットワークによる出力に基づく評価値を算出し、
前記線形化量決定部は、前記評価値が予め定められた基準を満たす場合に、前記線形化量を変化させる
ことを特徴とするニューラルネットワーク学習装置。 - 学習部は、ニューラルネットワークに、正解ラベル付のテストデータを入力した際の判定精度を算出し、
線形化量決定部は、前記判定精度の増加に応じて線形化量を増加または減少させる
請求項1記載のニューラルネットワーク学習装置。 - 線形化量決定部は、学習部による学習の開始前に、活性化関数を線形関数に近似可能な値に線形化量を設定し、前記学習の結果、判定精度が線形性を表わす所定の基準を満たさないと判定した場合、活性化関数が非線形関数を表わすように線形化量を変更し、前記基準を満たすと判定した場合、線形化量を維持したまま学習部による学習を継続させる
請求項2記載のニューラルネットワーク学習装置。 - 判定精度が線形性を表わす所定の基準を満たすと判断された場合、学習中のニューラルネットワークから中間層をすべて削除し、入力層と出力層とを線形関数を表わす活性化関数で接続するモデルへ再構築するモデル再構築部を備え、
学習部は、再構築されたモデルを用いてニューラルネットワークを学習する
請求項3記載のニューラルネットワーク学習装置。 - 学習部は、ニューラルネットワークの学習において、学習データと当該ニューラルネットワークによる出力との誤差を算出し、
線形化量決定部は、前記誤差の減少に応じて線形化量を増加または減少させる
請求項1記載のニューラルネットワーク学習装置。 - 線形化量が変更されたあとで評価値が悪化した場合、次元数を増加させるように学習データの値を追加し、ニューラルネットワークの入力層の次元数を増加させるようにニューラルネットワークの構造を変更する入力次元追加部を備えた
請求項1から請求項5のうちのいずれか1項に記載のニューラルネットワーク学習装置。 - ニューラルネットワークの構造を再構成する線形・非線形分離再構成部を備え、
線形化量決定部は、学習部による学習の開始前に、活性化関数を線形関数に近似可能な値に線形化量を設定し、学習の結果、判定精度が線形性を表わす所定の基準を満たすと判断した場合第一の重みを保存し、
学習部は、活性化関数が非線形関数を示す値に線形化量を設定して学習し、学習の結果を第二の重みとして保存し、
前記線形・非線形分離再構成部は、前記第一重みと前記第二重みで対応する重みの差異が予め定めた基準よりも小さい層を線形性を有する層として削除するようにニューラルネットワークを再構成する
請求項1から請求項6のうちのいずれか1項に記載のニューラルネットワーク学習装置。 - ニューラルネットワークを学習し、
前記ニューラルネットワークの学習において、当該ニューラルネットワークによる出力に基づく評価値を算出し、
前記ニューラルネットワークで用いられる活性化関数に含まれるパラメータであって、増加または減少させることにより当該活性化関数を線形関数に近づけるパラメータである線形化量を決定し、
前記評価値が予め定められた基準を満たす場合に、前記線形化量を変化させ、
前記線形化量を増加または減少させることにより線形関数に収束すると判断される前記活性化関数を当該線形関数に置き換えて、置き換えた線形関数を用いる層間の重みを集約する
ことを特徴とするニューラルネットワーク学習方法。 - ニューラルネットワークに、正解ラベル付のテストデータを入力した際の判定精度を算出し、
前記判定精度の増加に応じて線形化量を増加または減少させる
請求項8記載のニューラルネットワーク学習方法。 - ニューラルネットワークの学習において、学習データと当該ニューラルネットワークによる出力との誤差を算出し、
前記誤差の減少に応じて線形化量を増加または減少させる
請求項8記載のニューラルネットワーク学習方法。 - コンピュータに、
ニューラルネットワークを学習する学習処理、
前記ニューラルネットワークで用いられる活性化関数に含まれるパラメータであって、増加または減少させることにより当該活性化関数を線形関数に近づけるパラメータである線形化量を決定する線形化量決定処理、および、
前記線形化量を増加または減少させることにより線形関数に収束すると判断される前記活性化関数を当該線形関数に置き換えて、置き換えた線形関数を用いる層間の重みを集約する集約処理を実行させ、
前記学習処理で、前記ニューラルネットワークの学習において、当該ニューラルネットワークによる出力に基づく評価値を算出させ、
前記線形化量決定処理で、前記評価値が予め定められた基準を満たす場合に、前記線形化量を変化させる
ためのニューラルネットワーク学習プログラム。 - コンピュータに、
学習処理で、ニューラルネットワークに、正解ラベル付のテストデータを入力した際の判定精度を算出させ、
線形化量決定処理で、前記判定精度の増加に応じて線形化量を増加または減少させる
請求項11記載のニューラルネットワーク学習プログラム。 - コンピュータに、
学習処理で、ニューラルネットワークの学習において、学習データと当該ニューラルネットワークによる出力との誤差を算出させ、
線形化量決定処理で、前記誤差の減少に応じて線形化量を増加または減少させる
請求項11記載のニューラルネットワーク学習プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018247337 | 2018-12-28 | ||
JP2018247337 | 2018-12-28 | ||
PCT/JP2019/040179 WO2020137090A1 (ja) | 2018-12-28 | 2019-10-11 | ニューラルネットワーク学習装置、方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020137090A1 true JPWO2020137090A1 (ja) | 2021-10-28 |
JP7151788B2 JP7151788B2 (ja) | 2022-10-12 |
Family
ID=71126255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020562380A Active JP7151788B2 (ja) | 2018-12-28 | 2019-10-11 | ニューラルネットワーク学習装置、方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220076125A1 (ja) |
JP (1) | JP7151788B2 (ja) |
WO (1) | WO2020137090A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11676033B1 (en) * | 2020-03-06 | 2023-06-13 | Google Llc | Training machine learning models to be robust against label noise |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006163808A (ja) * | 2004-12-07 | 2006-06-22 | Fuji Electric Holdings Co Ltd | ニューラルネットワークの構造 |
JP2017182319A (ja) * | 2016-03-29 | 2017-10-05 | 株式会社メガチップス | 機械学習装置 |
JP2018206382A (ja) * | 2017-06-01 | 2018-12-27 | 株式会社東芝 | 画像処理システム及び医用情報処理システム |
-
2019
- 2019-10-11 JP JP2020562380A patent/JP7151788B2/ja active Active
- 2019-10-11 US US17/418,007 patent/US20220076125A1/en active Pending
- 2019-10-11 WO PCT/JP2019/040179 patent/WO2020137090A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006163808A (ja) * | 2004-12-07 | 2006-06-22 | Fuji Electric Holdings Co Ltd | ニューラルネットワークの構造 |
JP2017182319A (ja) * | 2016-03-29 | 2017-10-05 | 株式会社メガチップス | 機械学習装置 |
JP2018206382A (ja) * | 2017-06-01 | 2018-12-27 | 株式会社東芝 | 画像処理システム及び医用情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
WO2020137090A1 (ja) | 2020-07-02 |
US20220076125A1 (en) | 2022-03-10 |
JP7151788B2 (ja) | 2022-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3295382B1 (en) | Bit width selection for fixed point neural networks | |
KR102570706B1 (ko) | 분류를 위한 강제된 희소성 | |
JP7240657B2 (ja) | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム | |
US20160328646A1 (en) | Fixed point neural network based on floating point neural network quantization | |
CN110692067A (zh) | 量子神经网络 | |
WO2020092143A1 (en) | Self-attentive attributed network embedding | |
JP6865889B2 (ja) | 学習装置、方法及びプログラム | |
US11568212B2 (en) | Techniques for understanding how trained neural networks operate | |
TW201743245A (zh) | 人造神經網路之簡化裝置和簡化方法以及應用於簡化人造神經網路之非暫態電腦可讀取儲存媒體 | |
JP6506360B2 (ja) | 教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラム | |
CN114930336A (zh) | 用于估计仿真的计算成本的方法和系统 | |
WO2020009881A1 (en) | Analyzing and correcting vulnerabillites in neural networks | |
CN112529069A (zh) | 一种半监督节点分类方法、系统、计算机设备和存储介质 | |
CN112257751A (zh) | 神经网络剪枝方法 | |
JPWO2020137090A1 (ja) | ニューラルネットワーク学習装置、方法およびプログラム | |
Yu et al. | Efficient and reliable training of neural networks | |
US20210110268A1 (en) | Learned threshold pruning for deep neural networks | |
EP3614314A1 (en) | Method and apparatus for generating chemical structure using neural network | |
KR102105951B1 (ko) | 추론을 위한 제한된 볼츠만 머신 구축 방법 및 추론을 위한 제한된 볼츠만 머신을 탑재한 컴퓨터 장치 | |
US20220284545A1 (en) | Image processing device and operating method thereof | |
CN110852361B (zh) | 基于改进深度神经网络的图像分类方法、装置与电子设备 | |
WO2020054402A1 (ja) | ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法 | |
CN114365155A (zh) | 具有快速逐点卷积的高效推断 | |
JP2022000940A (ja) | データ圧縮評価システム、データ圧縮システム、及びデータ圧縮評価方法 | |
JPWO2020105144A1 (ja) | 画像生成装置及び画像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210616 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220912 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7151788 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |