JP2022540171A - 人工ニューラルネットワークのよりロバストなトレーニング - Google Patents
人工ニューラルネットワークのよりロバストなトレーニング Download PDFInfo
- Publication number
- JP2022540171A JP2022540171A JP2022501013A JP2022501013A JP2022540171A JP 2022540171 A JP2022540171 A JP 2022540171A JP 2022501013 A JP2022501013 A JP 2022501013A JP 2022501013 A JP2022501013 A JP 2022501013A JP 2022540171 A JP2022540171 A JP 2022540171A
- Authority
- JP
- Japan
- Prior art keywords
- knn
- training
- random
- quantity values
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 78
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 39
- 230000003247 decreasing effect Effects 0.000 claims abstract 2
- 230000008569 process Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000002059 diagnostic imaging Methods 0.000 claims description 4
- 238000005315 distribution function Methods 0.000 claims description 4
- 238000004088 simulation Methods 0.000 claims description 4
- 238000003908 quality control method Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 3
- 238000000053 physical method Methods 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 abstract description 29
- 230000006399 behavior Effects 0.000 abstract description 13
- 238000013507 mapping Methods 0.000 abstract description 4
- 238000012795 verification Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 230000001629 suppression Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010224 classification analysis Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
人工ニューラルネットワークKNN(英略号:ANN)は、パラメータセットによって設定された挙動プロトコルに従って入力量値を出力量値へマッピングするように構成されている。挙動プロトコルは、言語規則の形態ではなく、パラメータセット内のパラメータの数値によって定められている。パラメータは、KNNのトレーニングの際に、KNNが学習入力量値を可能な限り良好に対応する学習出力量値へマッピングするように最適化される。以降、KNNにおいては、トレーニングの際に獲得された知識が適当に一般化されることが期待される。よって、入力量値は、その後トレーニングにおいて発生しなかった未知の状況に関連する場合にも、それぞれの用途に必要な出力量値へマッピングされなければならない。
本発明の範囲において、人工ニューラルネットワークKNN(英略号:ANN)を訓練するための方法が開発されている。当該KNNは、例えば、KNNのニューロンに対応し得る複数の処理ユニットを含む。当該KNNは、入力量値をそれぞれの用途の意味において有意な出力量値へマッピングするために用いられる。
図1は、KNN1を訓練するための方法100の一実施例のフローチャートである。ステップ110において、アーキテクチャにおいて定められたKNN1のパラメータ12が、学習入力量値11aをコスト関数16に従って可能な限り良好に学習出力量値13aにマッピングする目的で最適化される。結果として、KNN1は、最適化されたパラメータ12*によって特徴付けられる訓練された状態1*へ移行する。
Claims (14)
- 複数の処理ユニット(2)を含む人工ニューラルネットワークKNN(1)を訓練するための方法(100)であって、
前記KNN(1)が学習入力量値(11a)をコスト関数(16)に従って可能な限り良好に対応する学習出力量値(13a)へマッピングする目的で、前記KNN(1)の挙動を特徴付けるパラメータ(12)を最適化し(110)、
少なくとも1つの処理ユニット(2)の出力(2b)にランダム値xを乗算し(112)、続いて少なくとも1つの他の処理ユニット(2’)に入力(2a)として供給し(113)、
前記ランダム値xは、予め定められた確率密度関数(4a)によって確率変数(4)から取り出され(111)、
前記確率密度関数(4a)は、|x-q|の増加につれて減少する、|x-q|の指数関数に比例し、ここで、qは、任意に選択可能な位置パラメータであり、指数関数の引数における|x-q|は、k≦1として、冪乗|x-q|kに含まれる、
方法(100)。 - 前記確率密度関数(4a)は、ラプラス分布関数である、
請求項1に記載の方法(100)。 - 前記KNNは、複数のレイヤ(3a~3c)から構築されており、少なくとも1つのレイヤ(3a~3c)における前記処理ユニット(2)に対して、前記ランダム値xは、同一の確率変数(4)から取り出される(111a)、
請求項1乃至3のいずれか一項に記載の方法(100)。 - ・トレーニング後、訓練されたKNN(1*)が検証入力量値(11b)を対応する検証出力量値(13b)へマッピングする際の精度(14)を算定し(120)、
・前記パラメータ(12)のそれぞれランダムな初期化(12a)によってトレーニングを複数回反復し(130)、
・個々のトレーニング後にそれぞれ算定された精度(14)にわたる分散度を当該トレーニングのロバストネス(15)の尺度として算定する(140)、
請求項1乃至4のいずれか一項に記載の方法(100)。 - 前記指数関数における|x-q|の最大冪k又は前記ラプラス確率密度Lb(x)の値pは、トレーニングのロバストネス(15)を改善する目的で最適化される(150)、
請求項5に記載の方法(100)。 - 前記KNN(1)のアーキテクチャを特徴付ける少なくとも1つのハイパーパラメータが、トレーニングのロバストネス(15)を改善する目的で最適化される(160)、
請求項5又は6に記載の方法(100)。 - 前記ランダム値xは、前記KNN(1)のトレーニングステップ中はそれぞれ一定に維持され(111b)、各トレーニングステップ間に新たに前記確率変数(4)から取り出される(111c)、
請求項1乃至7のいずれか一項に記載の方法(100)。 - 前記KNN(1)は、分類器及び/又は回帰分析器として構成されている、
請求項1乃至8のいずれか一項に記載の方法(100)。 - 人工ニューラルネットワークKNN(1)を訓練して動作させる方法(200)であって、
・前記KNN(1)を、請求項1乃至9のいずれか一項に記載の方法(100)によって訓練し(210)、
・物理的な測定プロセスによって及び/又は前記測定プロセスの部分的な若しくは完全なシミュレーションによって及び/又は前記測定プロセスによって監視可能な技術システムの部分的な若しくは完全なシミュレーションによって得られた測定データを、訓練されたKNN(1*)に入力量値(11)として供給し(220)、
・前記訓練されたKNN(1*)から送出された出力量値(13)に依存して、駆動制御信号(5)を形成し、
・車両(50)及び/又は分類システム(60)及び/又は大量生産される製品の品質管理システム(70)及び/又は医用撮像システム(80)を、駆動制御信号(5)によって駆動制御する(230)、
方法(200)。 - KNN(1)の挙動を特徴付けるパラメータ(12)を含むパラメータセットであって、請求項1乃至9のいずれか一項に記載の方法(100)によって得られるパラメータセット。
- 1つ又は複数のコンピュータによって実行されるときに、前記1つ又は複数のコンピュータに、請求項1乃至10のいずれか一項に記載の方法(100,200)を実施させるための機械可読命令を含むコンピュータプログラム。
- 請求項11に記載のパラメータセット及び/又は請求項12に記載のコンピュータプログラムを含む機械可読データ担体及び/又はダウンロード製品。
- 請求項11に記載のパラメータセット、請求項12に記載のコンピュータプログラム、及び/又は、請求項13に記載の機械可読データ担体及び/又はダウンロード製品を含むコンピュータ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019210167.4A DE102019210167A1 (de) | 2019-07-10 | 2019-07-10 | Robusteres Training für künstliche neuronale Netzwerke |
DE102019210167.4 | 2019-07-10 | ||
PCT/EP2020/066772 WO2021004741A1 (de) | 2019-07-10 | 2020-06-17 | Robusteres training für künstliche neuronale netzwerke |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022540171A true JP2022540171A (ja) | 2022-09-14 |
JP7314388B2 JP7314388B2 (ja) | 2023-07-25 |
Family
ID=71108601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022501013A Active JP7314388B2 (ja) | 2019-07-10 | 2020-06-17 | 人工ニューラルネットワークのよりロバストなトレーニング |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220261638A1 (ja) |
JP (1) | JP7314388B2 (ja) |
KR (1) | KR20220031099A (ja) |
CN (1) | CN114072815A (ja) |
DE (1) | DE102019210167A1 (ja) |
WO (1) | WO2021004741A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021109168A1 (de) | 2021-04-13 | 2022-10-13 | Robert Bosch Gesellschaft mit beschränkter Haftung | Robusteres Training für künstliche neuronale Netzwerke |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08235146A (ja) * | 1995-03-01 | 1996-09-13 | Nippon Telegr & Teleph Corp <Ntt> | 確率的非巡回神経回路網の学習法 |
US20160307096A1 (en) * | 2015-04-19 | 2016-10-20 | International Business Machines Corporation | Annealed dropout training of neural networks |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017125256A1 (de) * | 2016-10-28 | 2018-05-03 | Google Llc | Suche nach einer neuronalen Architektur |
-
2019
- 2019-07-10 DE DE102019210167.4A patent/DE102019210167A1/de active Pending
-
2020
- 2020-06-17 JP JP2022501013A patent/JP7314388B2/ja active Active
- 2020-06-17 US US17/625,286 patent/US20220261638A1/en active Pending
- 2020-06-17 WO PCT/EP2020/066772 patent/WO2021004741A1/de active Application Filing
- 2020-06-17 KR KR1020227004453A patent/KR20220031099A/ko unknown
- 2020-06-17 CN CN202080049721.5A patent/CN114072815A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08235146A (ja) * | 1995-03-01 | 1996-09-13 | Nippon Telegr & Teleph Corp <Ntt> | 確率的非巡回神経回路網の学習法 |
US20160307096A1 (en) * | 2015-04-19 | 2016-10-20 | International Business Machines Corporation | Annealed dropout training of neural networks |
Also Published As
Publication number | Publication date |
---|---|
CN114072815A (zh) | 2022-02-18 |
DE102019210167A1 (de) | 2021-01-14 |
KR20220031099A (ko) | 2022-03-11 |
US20220261638A1 (en) | 2022-08-18 |
WO2021004741A1 (de) | 2021-01-14 |
JP7314388B2 (ja) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111226232B (zh) | 混合生成器模型 | |
KR102641116B1 (ko) | 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치 | |
KR102166105B1 (ko) | 신경망 및 신경망 트레이닝의 방법 | |
US10769261B2 (en) | User image verification | |
US11593627B2 (en) | Artificial neural network architectures based on synaptic connectivity graphs | |
US11625611B2 (en) | Training artificial neural networks based on synaptic connectivity graphs | |
US11568201B2 (en) | Predicting neuron types based on synaptic connectivity graphs | |
US11593617B2 (en) | Reservoir computing neural networks based on synaptic connectivity graphs | |
WO2021138083A1 (en) | Neural architecture search based on synaptic connectivity graphs | |
CN116635866A (zh) | 用于挖掘少数类数据样本以训练神经网络的方法和系统 | |
Pfeiffer et al. | Reward-modulated Hebbian learning of decision making | |
Nam et al. | Predicting trust in human control of swarms via inverse reinforcement learning | |
EP3745309A1 (en) | Training a generative adversarial network | |
EP3901830A1 (en) | Determining an explanation of a classification | |
US11631000B2 (en) | Training artificial neural networks based on synaptic connectivity graphs | |
EP3913538A1 (en) | Classification model calibration | |
Pandey et al. | Car’s selling price prediction using random forest machine learning algorithm | |
Easom-Mccaldin et al. | On depth, robustness and performance using the data re-uploading single-qubit classifier | |
JP7314388B2 (ja) | 人工ニューラルネットワークのよりロバストなトレーニング | |
WO2021200392A1 (ja) | データ調整システム、データ調整装置、データ調整方法、端末装置及び情報処理装置 | |
US20220327387A1 (en) | More robust training for artificial neural networks | |
Guidotti et al. | Repair of Convolutional Neural Networks using Convex Optimization: Preliminary Experiments. | |
US11289175B1 (en) | Method of modeling functions of orientation and adaptation on visual cortex | |
EP4145350A1 (en) | Neural network for analyzing graphs | |
Morgado et al. | Continual Learning in an Industrial Scenario: Equipment Classification on Edge Devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220304 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230712 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7314388 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |