JP6931624B2 - 学習支援装置および学習支援方法 - Google Patents
学習支援装置および学習支援方法 Download PDFInfo
- Publication number
- JP6931624B2 JP6931624B2 JP2018097591A JP2018097591A JP6931624B2 JP 6931624 B2 JP6931624 B2 JP 6931624B2 JP 2018097591 A JP2018097591 A JP 2018097591A JP 2018097591 A JP2018097591 A JP 2018097591A JP 6931624 B2 JP6931624 B2 JP 6931624B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- output value
- influence
- update
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
- Machine Translation (AREA)
Description
ム(モデルと呼ぶ)の有効性が注目されている。
そこで本発明の目的は、機械学習により生成したモデルの更新に際し、当該モデルの改悪を低減し、迅速なモデル更新を可能とする技術を提供することにある。
合に、前記期待出力値とは異なる出力値を所定ルールで教師出力値として生成し、前記教師出力値と前記実行出力値との差分に基づいて損失関数を生成し、前記ニューラルネットワークにおけるパラメータごとに前記損失関数の変化を表す変化値を生成し、所定の学習によって得られた前記パラメータの更新値が、前記変化値に与える影響を計算することで当該学習の影響度を算定し、前記影響度に基づいて前記更新値の採否を決定する、演算装置と、を備えることを特徴とする。
可能とするコンピュータ装置である。なお、本実施形態では上述のモデルを、機械学習プログラムたるDNNプログラムと称して説明するものとする。
これらは、学習支援装置100が備えるプログラムおよびハードウェアを協働させ実装される機能部である。
また、期待出力値保持部114は、上述の期待出力値1141を保持している。この期待出力値1141の詳細は後述する(図5)。
トル)との内積の算定値(良影響値)を差し引きした値を、影響度とするとできる。こうして得た影響度は、入力値ごとの影響値保持部122に格納するものとする。
また、本実施形態の学習支援装置100のハードウェア構成は以下の如くとなる。図2に、本実施形態の学習支援装置100のハードウェア構成例を示す。
また、メモリ103は、RAMなど揮発性記憶素子で構成される記憶手段である。
03に読み出すなどして実行し装置自体の統括制御を行なうとともに各種判定、演算及び制御処理を行なう演算装置である。
また、入力装置105は、DNNプログラム1121の更新管理等の担当者など適宜なユーザからのキー入力や音声入力を受け付ける入力デバイスである。
また、出力装置106は、処理データの表示を行うディスプレイ等の表示デバイスである。
−−−データ構造例−−−
続いて、本実施形態の学習支援装置100が用いる各種情報について説明する。図3および図4に、本実施形態における出力値の例をそれぞれ示す。
−−−フロー例1−−−
121におけるパラメータを調整し、当該訓練を通じて得たパラメータ(学習係数ηと勾配ベクトル∇P)を更新値1231とし、これを重み・バイアス更新値保持部123に格納済みであるとする。なお、学習係数ηは定数値である。
正答であった場合(s102:y)、逆勾配ベクトル作成部118は、誤答教師出力値を作成し(s106)、これに基づき逆損失関数を作成する(s107)。
−−−フロー例2−−−
続いて、影響計算部121によるフローについて説明する。図12は、本実施形態における学習支援方法のフロー例2を示す図である。
上述の判定の結果、誤答数が基準を超えないものであった場合(s307:n)、回帰テスト実行部125は、処理を終了する。
こうした本実施形態によれば、機械学習により生成したモデルの更新に際し、当該モデルの改悪を低減し、迅速なモデル更新が可能となる。
更新値による影響が小さくなり、更新値の採否も厳格に行うべき状況となる事象に対応することが可能となる。ひいては、機械学習により生成したモデルの更新に際し、当該モデルの改悪をさらに低減し、迅速なモデル更新が可能となる。
101 外部記憶装置
102 プログラム
103 メモリ
104 CPU(演算装置)
105 入力装置
106 表示装置
107 外部媒体入出力装置
110 入力値保持部
111 DNNプログラム実行部
112 DNNプログラム保持部
1121 DNNプログラム
113 出力値保持部
1131 出力値
114 期待出力値保持部
1141 期待出力値
115 訓練入力値保持部
116 訓練出力値保持部
117 DNNプログラム訓練部
118 逆勾配ベクトル作成部
119 勾配ベクトル保持部
1191 勾配ベクトル
120 逆勾配ベクトル保持部
1201 逆勾配ベクトル
121 影響計算部
122 入力値ごとの影響値保持部
1221 影響値
123 重み・バイアス更新値保持部
1231 更新値
124 DNNプログラム更新部
125 回帰テスト実行部
Claims (9)
- ニューラルネットワークのアルゴリズムに従って動作する機械学習プログラムの、入力値、その実行結果である実行出力値、および、前記入力値に関して期待される出力値である期待出力値、の組を実行情報として保持する記憶装置と、
所定の入力値に対する前記実行出力値と前記期待出力値とが一致する場合に、前記期待出力値とは異なる出力値を所定ルールで教師出力値として生成し、前記教師出力値と前記実行出力値との差分に基づいて損失関数を生成し、前記ニューラルネットワークにおけるパラメータごとに前記損失関数の変化を表す変化値を生成し、所定の学習によって得られた前記パラメータの更新値が、前記変化値に与える影響を計算することで当該学習の影響度を算定し、前記影響度に基づいて前記更新値の採否を決定する、演算装置と、
を備えることを特徴とする学習支援装置。 - 前記演算装置は、
前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記変化値のベクトルとの内積を算定して前記影響度を算定するものである、
ことを特徴とする請求項1に記載の学習支援装置。 - 前記演算装置は、
前記影響度の算定に際し、前記実行情報の重要度に応じて予め定められた重み値を、対応するパラメータの更新値に関する前記内積に乗じ、前記影響度を算定するものである、
ことを特徴とする請求項2に記載の学習支援装置。 - 前記演算装置は、
前記損失関数の生成に際し、所定の入力値に対する前記実行出力値と前記期待出力値とが一致する場合の前記教師出力値を誤答教師出力値として生成し、前記誤答教師出力値と前記実行出力値との差分に基づいて逆損失関数を生成するとともに、所定の入力値に対する前記実行出力値と前記期待出力値とが不一致の場合、前記期待出力値を正答教師出力値として生成し、前記正答教師出力値と前記実行出力値との差分に基づいて損失関数を生成するものであり、
前記変化値の生成に際し、前記逆損失関数および前記損失関数のそれぞれについて、その変化を表す変化値を生成し、
前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記逆損失関数の変化値のベクトルとの内積の算定値から、前記パラメータの更新値のベクトルと当該パラメータの前記損失関数の変化値のベクトルとの内積の算定値を差し引きした値を、前記影響度とするものである、
ことを特徴とする請求項2に記載の学習支援装置。 - 前記演算装置は、
前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記逆損失関数の変化値のベクトルとの内積の算定値、および、前記パラメータの更新値のベクトルと当該パラメータの前記損失関数の変化値のベクトルとの内積の算定値、をそれぞれべき乗した上で前記差し引きを行って前記影響度を算定するものである、
ことを特徴とする請求項4に記載の学習支援装置。 - 前記演算装置は、
前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記逆損失関数の変化値のベクトルとの内積の算定値に、当該逆損失関数の生成対象となった実行情報の数を乗算した値から、前記パラメータの更新値のベクトルと当該パラメータの前記損失関数の変化値のベクトルとの内積の算定値に、当該損失関数の生成対象となった
実行情報の数を乗算した値を差し引きして前記影響度を算定するものである、
ことを特徴とする請求項4に記載の学習支援装置。 - 前記演算装置は、
前記影響度が所定の閾値以下である場合に前記更新値の採用を決定し、前記採用を決定した前記更新値による前記機械学習プログラムの更新後、前記閾値を所定程度低減するものである、
ことを特徴とする請求項1に記載の学習支援装置。 - 前記演算装置は、
前記更新値の採用を決定し、当該採用を決定した前記更新値による前記機械学習プログラムの更新後、前記機械学習プログラムに関する回帰テストを実行するに際し、その入力値として、前記パラメータの更新値のベクトルと当該パラメータの前記変化値のベクトルとの内積を算定して得た前記影響度が大きいものから順に選択して回帰テストを実行し、そのテスト結果が、当該入力値に対する実行出力値と前記期待出力値とが一致しない誤答であった場合の数をカウントし、当該カウントした値が所定基準を超えるものであった場合、前記更新をロールバックするものである、
ことを特徴とする請求項1に記載の学習支援装置。 - ニューラルネットワークのアルゴリズムに従って動作する機械学習プログラムの、入力値、その実行結果である実行出力値、および、前記入力値に関して期待される出力値である期待出力値、の組を実行情報として保持する記憶装置を備えた情報処理装置が、
所定の入力値に対する前記実行出力値と前記期待出力値とが一致する場合に、前記期待出力値とは異なる出力値を所定ルールで教師出力値として生成し、前記教師出力値と前記実行出力値との差分に基づいて損失関数を生成し、前記ニューラルネットワークにおけるパラメータごとに前記損失関数の変化を表す変化値を生成し、所定の学習によって得られた前記パラメータの更新値が、前記変化値に与える影響を計算することで当該学習の影響度を算定し、前記影響度に基づいて前記更新値の採否を決定する、
ことを特徴とする学習支援装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018097591A JP6931624B2 (ja) | 2018-05-22 | 2018-05-22 | 学習支援装置および学習支援方法 |
US16/412,559 US11494638B2 (en) | 2018-05-22 | 2019-05-15 | Learning support device and learning support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018097591A JP6931624B2 (ja) | 2018-05-22 | 2018-05-22 | 学習支援装置および学習支援方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019204190A JP2019204190A (ja) | 2019-11-28 |
JP6931624B2 true JP6931624B2 (ja) | 2021-09-08 |
Family
ID=68614651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018097591A Active JP6931624B2 (ja) | 2018-05-22 | 2018-05-22 | 学習支援装置および学習支援方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11494638B2 (ja) |
JP (1) | JP6931624B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7293988B2 (ja) * | 2019-08-27 | 2023-06-20 | 富士通株式会社 | 学習プログラム、判定処理プログラム、学習装置、判定処理装置、学習方法および判定処理方法 |
CN112287476B (zh) * | 2020-10-13 | 2021-11-23 | 西安电子科技大学 | 一种知识驱动的电子设备机箱参数化模型自动生成方法 |
CN112396003A (zh) * | 2020-11-20 | 2021-02-23 | 平安科技(深圳)有限公司 | 模型训练方法、识别方法、装置、设备及存储介质 |
CN112965703B (zh) * | 2021-03-02 | 2022-04-01 | 华南师范大学 | 克服多头领导的教师主导人工智能教育机器人 |
CN113240079A (zh) * | 2021-04-29 | 2021-08-10 | 华为技术有限公司 | 一种模型训练方法及装置 |
US11693765B2 (en) * | 2021-10-11 | 2023-07-04 | Sap Se | Unified regression platform for regression testing |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10885438B2 (en) * | 2015-12-28 | 2021-01-05 | Microsoft Technology Licensing, Llc | Self-stabilized deep neural network |
US20180174042A1 (en) * | 2016-12-20 | 2018-06-21 | Intel Corporation | Supervised training and pattern matching techniques for neural networks |
US10657259B2 (en) * | 2017-11-01 | 2020-05-19 | International Business Machines Corporation | Protecting cognitive systems from gradient based attacks through the use of deceiving gradients |
US11443178B2 (en) * | 2017-12-15 | 2022-09-13 | Interntional Business Machines Corporation | Deep neural network hardening framework |
-
2018
- 2018-05-22 JP JP2018097591A patent/JP6931624B2/ja active Active
-
2019
- 2019-05-15 US US16/412,559 patent/US11494638B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019204190A (ja) | 2019-11-28 |
US11494638B2 (en) | 2022-11-08 |
US20190362228A1 (en) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6931624B2 (ja) | 学習支援装置および学習支援方法 | |
JP6382354B2 (ja) | ニューラルネットワーク及びニューラルネットワークのトレーニング方法 | |
CN110663049B (zh) | 神经网络优化器搜索 | |
US10395646B2 (en) | Two-stage training of a spoken dialogue system | |
JP6718500B2 (ja) | 生産システムにおける出力効率の最適化 | |
JP2017129896A (ja) | 機械学習装置、機械学習方法及び機械学習プログラム | |
Alhindi et al. | MOEA/D with tabu search for multiobjective permutation flow shop scheduling problems | |
JP2014102578A (ja) | 情報処理装置、制御方法、プログラム、及び記録媒体 | |
US20110173145A1 (en) | Classification of a document according to a weighted search tree created by genetic algorithms | |
US20180052441A1 (en) | Simulation system, simulation method, and simulation program | |
CN110991621A (zh) | 一种基于通道数搜索卷积神经网络的方法 | |
JP2019159888A (ja) | 機械学習システム | |
CN116401954A (zh) | 一种锂电池循环寿命的预测方法、预测装置、设备及介质 | |
Lu et al. | Adaptive online data-driven closed-loop parameter control strategy for swarm intelligence algorithm | |
JP2014160457A (ja) | 対話的変数選択装置、対話的変数選択方法および対話的変数選択プログラム | |
JP7111966B2 (ja) | 最適化装置及び最適化装置の制御方法 | |
JP4498666B2 (ja) | 予測装置、予測プログラム、および記録媒体 | |
WO2022244260A1 (ja) | 方策推定装置、方策推定方法、およびプログラム | |
CN115345303A (zh) | 卷积神经网络权重调优方法、装置、存储介质和电子设备 | |
CN112416709B (zh) | 芯片动态功耗估计方法、装置、处理器芯片及服务器 | |
CN110959172A (zh) | 演奏解析方法及程序 | |
CN111027709B (zh) | 信息推荐方法、装置、服务器及存储介质 | |
Araújo et al. | Towards understanding the role of learning models in the dynamics of the minority game | |
CN114330090A (zh) | 一种缺陷检测方法、装置、计算机设备和存储介质 | |
JP2021015420A (ja) | 演算処理装置、制御プログラム、及び制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200828 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210729 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6931624 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |