JP6942203B2 - データ処理システムおよびデータ処理方法 - Google Patents
データ処理システムおよびデータ処理方法 Download PDFInfo
- Publication number
- JP6942203B2 JP6942203B2 JP2019566013A JP2019566013A JP6942203B2 JP 6942203 B2 JP6942203 B2 JP 6942203B2 JP 2019566013 A JP2019566013 A JP 2019566013A JP 2019566013 A JP2019566013 A JP 2019566013A JP 6942203 B2 JP6942203 B2 JP 6942203B2
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- value
- output
- neural network
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
学習部140は、ニューラルネットワークの目的関数εの中心値パラメータCcついての勾配と幅パラメータWcついての勾配をそれぞれ、勾配逆伝搬法に基づき、以下の式(2)、(3)で算出する。
μ:モーメンタム
η:学習率
である。
例えば、μ=0.9、η=0.1に設定する。
図2は、データ処理システム100による学習処理のフローチャートを示す。取得部110は、複数枚の学習用の画像を取得する(S10)。ニューラルネットワーク処理部130は、取得部110が取得した複数枚の学習用の画像のそれぞれに対して、ニューラルネットワークにしたがった処理を実行し、それぞれについての出力データを出力する(S12)。学習部140は、複数枚の学習用の画像のそれぞれについての出力データと、それぞれについての正解値とに基づいて、パラメータを更新する(S14)。このパラメータの更新では、重み付け係数やバイアスに加えて、中心値パラメータCcおよび幅パラメータWcも最適化対象パラメータとして更新する。学習部140は、終了条件が満たされるか否かを判定する(S16)。終了条件が満たされない場合(S16のN)、処理はS10に戻される。終了条件が満たされる場合(S16のY)、処理は終了する。
実施の形態では、活性化関数が式(1)で与えられる場合について説明したが、これに限られない。活性化関数は、入力値に対する出力値がC±Wの範囲内の値を連続的にとり、入力値に対する出力値が一意に決まり、そのグラフがf(x)=Cに対応する点について点対称であればよい。活性化関数は例えば、式(1)の代わりに、以下の式(9)により与えられてもよい。
実施の形態では特に言及しなかったが、あるコンポーネントの活性化関数の幅パラメータWが所定の閾値以下となり、その活性化関数による出力値が比較的小さくなった場合、その出力は、適用処理に影響を与えないものと考えられる。したがって、あるコンポーネントの活性化関数の幅パラメータWが所定の閾値以下となった場合、その活性化関数による出力のみに影響する演算処理を実行しなくてもよい。つまり、その活性化関数による演算処理や、そのコンポーネントのみに出力するための演算処理を実行しなくてもよい。例えば、それらの演算処理のみを実行するコンポーネントを、コンポーネントごと削除してもよい。この場合、不要な演算処理が実行されなくなるため、処理の高速化や消費メモリの削減を実現できる。
Claims (8)
- 学習データに対してニューラルネットワークにしたがった処理を実行することにより出力される出力データと、その学習データに対する理想的な出力データとの比較に基づいて、前記ニューラルネットワークの最適化対象パラメータを最適化する学習部を備え、
前記ニューラルネットワークの活性化関数f(x)は、第1のパラメータをC、非負の値をとる第2のパラメータをWとするとき、入力値に対する出力値がC±Wの範囲内の値を連続的にとり、入力値に対する出力値が一意に決まり、そのグラフがf(x)=Cに対応する点について点対称である関数であり、
前記学習部は、前記第1のパラメータの初期値として0を設定し、前記第1のパラメータおよび前記第2のパラメータを、最適化パラメータのひとつとして最適化することを特徴とするデータ処理システム。 - 前記ニューラルネットワークは、畳み込みニューラルネットワークであり、コンポーネントごとに独立した、前記第1のパラメータおよび前記第2のパラメータを有することを特徴とする請求項1から3のいずれかに記載のデータ処理システム。
- 前記コンポーネントはチャンネルであることを特徴とする請求項4に記載のデータ処理システム。
- 前記学習部は、前記第2のパラメータが所定の閾値以下となった場合、その活性化関数による出力のみに影響する演算処理を実行しないことを特徴とする請求項1から5のいずれかに記載のデータ処理システム。
- データ処理システムにより実行されるデータ処理方法であって、
学習データに対してニューラルネットワークにしたがった処理を実行することにより学習データに対応する出力データを出力するステップと、
学習データに対応する出力データと、その学習データに対する理想的な出力データとの比較に基づいて、前記ニューラルネットワークの最適化対象パラメータを最適化するステップと、を備え、
前記ニューラルネットワークの活性化関数f(x)は、第1のパラメータをC、非負の値をとる第2のパラメータをWとするとき、入力値に対する出力値がC±Wの範囲内の値を連続的にとり、入力値に対する出力値が一意に決まり、そのグラフがf(x)=Cに対応する点について点対称である関数であり、
前記第1のパラメータの初期値として0が設定され、
前記最適化対象パラメータを最適化するステップでは、前記第1のパラメータおよび前記第2のパラメータを、最適化パラメータのひとつとして最適化することを特徴とするデータ処理方法。 - 学習データに対してニューラルネットワークにしたがった処理を実行することにより出力される出力データと、その学習データに対する理想的な出力データとの比較に基づいて、前記ニューラルネットワークの最適化対象パラメータを最適化する機能をコンピュータに実現させるためのプログラムであって、
前記ニューラルネットワークの活性化関数f(x)は、第1のパラメータをC、非負の値をとる第2のパラメータをWとするとき、入力値に対する出力値がC±Wの範囲内の値を連続的にとり、入力値に対する出力値が一意に決まり、そのグラフがf(x)=Cに対応する点について点対称である関数であり、
前記最適化対象パラメータを最適化する機能は、前記第1のパラメータの初期値として0を設定し、前記第1のパラメータおよび前記第2のパラメータを、最適化パラメータのひとつとして最適化することを特徴とするプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/001051 WO2019142241A1 (ja) | 2018-01-16 | 2018-01-16 | データ処理システムおよびデータ処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019142241A1 JPWO2019142241A1 (ja) | 2020-11-19 |
JP6942203B2 true JP6942203B2 (ja) | 2021-09-29 |
Family
ID=67302103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019566013A Active JP6942203B2 (ja) | 2018-01-16 | 2018-01-16 | データ処理システムおよびデータ処理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200349444A1 (ja) |
JP (1) | JP6942203B2 (ja) |
CN (1) | CN111630530B (ja) |
WO (1) | WO2019142241A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10943353B1 (en) | 2019-09-11 | 2021-03-09 | International Business Machines Corporation | Handling untrainable conditions in a network architecture search |
US11023783B2 (en) * | 2019-09-11 | 2021-06-01 | International Business Machines Corporation | Network architecture search with global optimization |
CN112598107A (zh) * | 2019-10-01 | 2021-04-02 | 创鑫智慧股份有限公司 | 数据处理系统及其数据处理方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5271090A (en) * | 1990-03-21 | 1993-12-14 | At&T Bell Laboratories | Operational speed improvement for neural network |
JP2859377B2 (ja) * | 1990-06-14 | 1999-02-17 | キヤノン株式会社 | ニューラルネットを用いた画像処理方法および画像処理装置 |
DE4228703A1 (de) * | 1992-08-28 | 1994-03-03 | Siemens Ag | Verfahren zum Entwurf eines neuronalen Netzes |
JP2002222409A (ja) * | 2001-01-26 | 2002-08-09 | Fuji Electric Co Ltd | ニューラルネットワークの最適化学習方法 |
US6941289B2 (en) * | 2001-04-06 | 2005-09-06 | Sas Institute Inc. | Hybrid neural network generation system and method |
US10410118B2 (en) * | 2015-03-13 | 2019-09-10 | Deep Genomics Incorporated | System and method for training neural networks |
CN105550744A (zh) * | 2015-12-06 | 2016-05-04 | 北京工业大学 | 一种基于迭代的神经网络聚类方法 |
CN106682735B (zh) * | 2017-01-06 | 2019-01-18 | 杭州创族科技有限公司 | 基于pid调节的bp神经网络算法 |
-
2018
- 2018-01-16 WO PCT/JP2018/001051 patent/WO2019142241A1/ja active Application Filing
- 2018-01-16 JP JP2019566013A patent/JP6942203B2/ja active Active
- 2018-01-16 CN CN201880085993.3A patent/CN111630530B/zh active Active
-
2020
- 2020-07-15 US US16/929,746 patent/US20200349444A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2019142241A1 (ja) | 2019-07-25 |
CN111630530A (zh) | 2020-09-04 |
JPWO2019142241A1 (ja) | 2020-11-19 |
US20200349444A1 (en) | 2020-11-05 |
CN111630530B (zh) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Luketina et al. | Scalable gradient-based tuning of continuous regularization hyperparameters | |
Roth et al. | Stabilizing training of generative adversarial networks through regularization | |
US11657254B2 (en) | Computation method and device used in a convolutional neural network | |
US20210019630A1 (en) | Loss-error-aware quantization of a low-bit neural network | |
Kohler et al. | Towards a theoretical understanding of batch normalization | |
US11562250B2 (en) | Information processing apparatus and method | |
JP6942203B2 (ja) | データ処理システムおよびデータ処理方法 | |
Smelyakov et al. | The neural network technologies effectiveness for face detection | |
CN111062465A (zh) | 一种神经网络结构自调整的图像识别模型及方法 | |
US20220222534A1 (en) | System and method for incremental learning using a grow-and-prune paradigm with neural networks | |
US20220335298A1 (en) | Robust learning device, robust learning method, program, and storage device | |
Lam et al. | Gaussian Process Neural Networks for Speech Recognition. | |
US20230306255A1 (en) | Method and system for smooth training of a quantized neural network | |
US7933449B2 (en) | Pattern recognition method | |
JP6942204B2 (ja) | データ処理システムおよびデータ処理方法 | |
JP7310927B2 (ja) | 物体追跡装置、物体追跡方法及び記録媒体 | |
JP4887661B2 (ja) | 学習装置及び学習方法、並びにコンピュータ・プログラム | |
JP7055211B2 (ja) | データ処理システムおよびデータ処理方法 | |
WO2022201399A1 (ja) | 推論装置、推論方法および推論プログラム | |
US11989653B2 (en) | Pseudo-rounding in artificial neural networks | |
Borycki et al. | Hypernetwork approach to Bayesian maml | |
WO2024024217A1 (ja) | 機械学習装置、機械学習方法、および機械学習プログラム | |
WO2020003450A1 (ja) | データ処理システムおよびデータ処理方法 | |
WO2020044566A1 (ja) | データ処理システムおよびデータ処理方法 | |
Lo et al. | Training deep neural networks with gradual deconvexification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210907 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6942203 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |