JP7487556B2 - モデル生成プログラム、モデル生成装置、及びモデル生成方法 - Google Patents
モデル生成プログラム、モデル生成装置、及びモデル生成方法 Download PDFInfo
- Publication number
- JP7487556B2 JP7487556B2 JP2020090065A JP2020090065A JP7487556B2 JP 7487556 B2 JP7487556 B2 JP 7487556B2 JP 2020090065 A JP2020090065 A JP 2020090065A JP 2020090065 A JP2020090065 A JP 2020090065A JP 7487556 B2 JP7487556 B2 JP 7487556B2
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- model
- learning
- update
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 62
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000010801 machine learning Methods 0.000 claims description 76
- 238000012549 training Methods 0.000 claims description 38
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 239000013598 vector Substances 0.000 claims description 9
- 230000015654 memory Effects 0.000 description 24
- 238000012545 processing Methods 0.000 description 9
- 230000010365 information processing Effects 0.000 description 8
- JXSJBGJIGXNWCI-UHFFFAOYSA-N diethyl 2-[(dimethoxyphosphorothioyl)thio]succinate Chemical compound CCOC(=O)CC(SP(=S)(OC)OC)C(=O)OCC JXSJBGJIGXNWCI-UHFFFAOYSA-N 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 235000019219 chocolate Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Description
θ=θ-(α/(v1/2+ε))g(θ) (2)
θ=θ-(α/(v1/2+ε))g(θ) (4)
v2=exp(λ|θ1-θ|) (6)
θ=θ-(α/(v11/2+v21/2+ε))g(θ) (7)
(付記1)
複数の訓練データを利用した第1機械学習により生成された学習モデルに対して、特定の条件を満たす訓練データを利用した第2機械学習を実行することで、前記学習モデルのパラメータを更新し、
前記第2機械学習が開始される前における前記パラメータの値と、前記第2機械学習により更新された前記パラメータの更新後の値との差分が増加するほど、前記第2機械学習における前記特定の条件を満たす訓練データの前記パラメータの更新に対する影響の度合いを減少させる、
処理をコンピュータに実行させるためのモデル生成プログラム。
(付記2)
前記影響の度合いを減少させる処理は、前記第2機械学習が開始される前における前記パラメータの値と、前記更新後の値との差分を用いて、前記第2機械学習における前記パラメータの更新量を計算する処理を含み、
前記学習モデルのパラメータを更新する処理は、前記更新量を用いて前記更新後の値をさらに更新する処理を含む、
ことを特徴とする付記1記載のモデル生成プログラム。
(付記3)
前記学習モデルはニューラルネットワークであり、前記ニューラルネットワークの中間層の出力は、単語埋め込みにおける単語ベクトルの生成に用いられることを特徴とする付記1又は2記載のモデル生成プログラム。
(付記4)
複数の訓練データを利用した第1機械学習により生成された学習モデルを記憶する記憶部と、
前記学習モデルに対して、特定の条件を満たす訓練データを利用した第2機械学習を実行することで、前記学習モデルのパラメータを更新し、前記第2機械学習が開始される前における前記パラメータの値と、前記第2機械学習により更新された前記パラメータの更新後の値との差分が増加するほど、前記第2機械学習における前記特定の条件を満たす訓練データの前記パラメータの更新に対する影響の度合いを減少させる更新部と、
を備えることを特徴とするモデル生成装置。
(付記5)
前記更新部は、前記第2機械学習が開始される前における前記パラメータの値と、前記更新後の値との差分を用いて、前記第2機械学習における前記パラメータの更新量を計算し、前記更新量を用いて前記更新後の値をさらに更新することを特徴とする付記4記載のモデル生成装置。
(付記6)
前記学習モデルはニューラルネットワークであり、前記ニューラルネットワークの中間層の出力は、単語埋め込みにおける単語ベクトルの生成に用いられることを特徴とする付記4又は5記載のモデル生成装置。
(付記7)
複数の訓練データを利用した第1機械学習により生成された学習モデルに対して、特定の条件を満たす訓練データを利用した第2機械学習を実行することで、前記学習モデルのパラメータを更新し、
前記第2機械学習が開始される前における前記パラメータの値と、前記第2機械学習により更新された前記パラメータの更新後の値との差分が増加するほど、前記第2機械学習における前記特定の条件を満たす訓練データの前記パラメータの更新に対する影響の度合いを減少させる、
処理をコンピュータが実行することを特徴とするモデル生成方法。
(付記8)
前記影響の度合いを減少させる処理は、前記第2機械学習が開始される前における前記パラメータの値と、前記更新後の値との差分を用いて、前記第2機械学習における前記パラメータの更新量を計算する処理を含み、
前記学習モデルのパラメータを更新する処理は、前記更新量を用いて前記更新後の値をさらに更新する処理を含む、
ことを特徴とする付記7記載のモデル生成方法。
(付記9)
前記学習モデルはニューラルネットワークであり、前記ニューラルネットワークの中間層の出力は、単語埋め込みにおける単語ベクトルの生成に用いられることを特徴とする付記7又は8記載のモデル生成方法。
111、311 記憶部
112、313 更新部
121 学習モデル
312 学習部
314 生成部
315 出力部
321 第1データ集合
322 第2データ集合
323 第1学習モデル
324 第2学習モデル
325 単語埋め込みモデル
701 CPU
702 メモリ
703 入力装置
704 出力装置
705 補助記憶装置
706 媒体駆動装置
707 ネットワーク接続装置
708 バス
709 可搬型記録媒体
Claims (4)
- 複数の訓練データを利用した第1機械学習により生成された学習モデルに対して、特定の条件を満たす訓練データを利用した第2機械学習を実行することで、前記学習モデルのパラメータを更新し、
前記第2機械学習が開始される前における前記パラメータの値と、前記第2機械学習により更新された前記パラメータの更新後の値との差分が増加するほど、前記第2機械学習における前記特定の条件を満たす訓練データの前記パラメータの更新に対する影響の度合いを減少させる、
処理をコンピュータに実行させ、
前記影響の度合いを減少させる処理は、前記第2機械学習が開始される前における前記パラメータの値と、前記更新後の値との差分を用いて、前記第2機械学習における前記パラメータの更新量を計算する処理を含み、
前記学習モデルのパラメータを更新する処理は、前記更新量を用いて前記更新後の値をさらに更新する処理を含むことを特徴とするモデル生成プログラム。 - 前記学習モデルはニューラルネットワークであり、前記ニューラルネットワークの中間層の出力は、単語埋め込みにおける単語ベクトルの生成に用いられることを特徴とする請求項1記載のモデル生成プログラム。
- 複数の訓練データを利用した第1機械学習により生成された学習モデルを記憶する記憶部と、
前記学習モデルに対して、特定の条件を満たす訓練データを利用した第2機械学習を実行することで、前記学習モデルのパラメータを更新し、前記第2機械学習が開始される前における前記パラメータの値と、前記第2機械学習により更新された前記パラメータの更新後の値との差分が増加するほど、前記第2機械学習における前記特定の条件を満たす訓練データの前記パラメータの更新に対する影響の度合いを減少させる更新部と、
を備え、
前記更新部は、前記第2機械学習が開始される前における前記パラメータの値と、前記更新後の値との差分を用いて、前記第2機械学習における前記パラメータの更新量を計算し、前記更新量を用いて前記更新後の値をさらに更新することを特徴とするモデル生成装置。 - 複数の訓練データを利用した第1機械学習により生成された学習モデルに対して、特定の条件を満たす訓練データを利用した第2機械学習を実行することで、前記学習モデルのパラメータを更新し、
前記第2機械学習が開始される前における前記パラメータの値と、前記第2機械学習により更新された前記パラメータの更新後の値との差分が増加するほど、前記第2機械学習における前記特定の条件を満たす訓練データの前記パラメータの更新に対する影響の度合いを減少させる、
処理をコンピュータが実行し、
前記影響の度合いを減少させる処理は、前記第2機械学習が開始される前における前記パラメータの値と、前記更新後の値との差分を用いて、前記第2機械学習における前記パラメータの更新量を計算する処理を含み、
前記学習モデルのパラメータを更新する処理は、前記更新量を用いて前記更新後の値をさらに更新する処理を含むことを特徴とするモデル生成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020090065A JP7487556B2 (ja) | 2020-05-22 | 2020-05-22 | モデル生成プログラム、モデル生成装置、及びモデル生成方法 |
US17/207,746 US20210365780A1 (en) | 2020-05-22 | 2021-03-22 | Method of generating model and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020090065A JP7487556B2 (ja) | 2020-05-22 | 2020-05-22 | モデル生成プログラム、モデル生成装置、及びモデル生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021184217A JP2021184217A (ja) | 2021-12-02 |
JP7487556B2 true JP7487556B2 (ja) | 2024-05-21 |
Family
ID=78608254
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020090065A Active JP7487556B2 (ja) | 2020-05-22 | 2020-05-22 | モデル生成プログラム、モデル生成装置、及びモデル生成方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210365780A1 (ja) |
JP (1) | JP7487556B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11816636B2 (en) * | 2021-08-26 | 2023-11-14 | Microsoft Technology Licensing, Llc | Mining training data for training dependency model |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018022473A (ja) | 2016-07-21 | 2018-02-08 | パナソニックIpマネジメント株式会社 | 学習装置、識別装置、学習識別システム、及び、プログラム |
US20180336482A1 (en) | 2015-04-13 | 2018-11-22 | Xiao-Feng YU | Social prediction |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10339631B2 (en) * | 2017-01-11 | 2019-07-02 | Microsoft Technology Licensing, Llc | Image demosaicing for hybrid optical sensor arrays |
JP6925911B2 (ja) * | 2017-08-30 | 2021-08-25 | 株式会社日立製作所 | 機械学習装置及び機械学習方法 |
US11321614B2 (en) * | 2017-09-29 | 2022-05-03 | Oracle International Corporation | Directed trajectories through communication decision tree using iterative artificial intelligence |
US20200034665A1 (en) * | 2018-07-30 | 2020-01-30 | DataRobot, Inc. | Determining validity of machine learning algorithms for datasets |
US11416760B2 (en) * | 2018-11-29 | 2022-08-16 | Sap Se | Machine learning based user interface controller |
US11573991B2 (en) * | 2018-11-30 | 2023-02-07 | Samsung Electronics Co., Ltd. | Deep reinforcement learning-based multi-step question answering systems |
US11460982B1 (en) * | 2020-12-23 | 2022-10-04 | Beijing Didi Infinity Technology And Development Co., Ltd. | Number embedding application system |
US11840265B1 (en) * | 2023-05-02 | 2023-12-12 | Plusai, Inc. | Variable safe steering hands-off time and warning |
-
2020
- 2020-05-22 JP JP2020090065A patent/JP7487556B2/ja active Active
-
2021
- 2021-03-22 US US17/207,746 patent/US20210365780A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180336482A1 (en) | 2015-04-13 | 2018-11-22 | Xiao-Feng YU | Social prediction |
JP2018022473A (ja) | 2016-07-21 | 2018-02-08 | パナソニックIpマネジメント株式会社 | 学習装置、識別装置、学習識別システム、及び、プログラム |
Non-Patent Citations (1)
Title |
---|
PIOTROWSKI, P. Adam et al.,A comparison of methods to avoid overfitting in neural networks training in the case of catchment runoff modelling,Journal of Hydrology [online],Volume 476,2013年,pp. 97-111,[検索日:2023.11.27],インターネット:<URL:https://www.sciencedirect.com/science/article/abs/pii/S0022169412008931> |
Also Published As
Publication number | Publication date |
---|---|
JP2021184217A (ja) | 2021-12-02 |
US20210365780A1 (en) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368996B (zh) | 可传递自然语言表示的重新训练投影网络 | |
US20210027023A1 (en) | Multi-turn dialogue response generation via mutual information maximization | |
US11755909B2 (en) | Method of and system for training machine learning algorithm to generate text summary | |
WO2020088330A1 (en) | Latent space and text-based generative adversarial networks (latext-gans) for text generation | |
CN108460028B (zh) | 将句子权重融入神经机器翻译的领域适应方法 | |
JP5982297B2 (ja) | 音声認識装置、音響モデル学習装置、その方法及びプログラム | |
JP7070653B2 (ja) | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム | |
Behzadan et al. | Mitigation of policy manipulation attacks on deep q-networks with parameter-space noise | |
US20210232753A1 (en) | Ml using n-gram induced input representation | |
Li et al. | Speaker verification using simplified and supervised i-vector modeling | |
Vaněk et al. | A regularization post layer: An additional way how to make deep neural networks robust | |
JP6230987B2 (ja) | 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体 | |
JP7487556B2 (ja) | モデル生成プログラム、モデル生成装置、及びモデル生成方法 | |
Chen et al. | Deep reinforcement learning for on-line dialogue state tracking | |
US11574190B2 (en) | Method and apparatus for determining output token | |
JP2017097317A (ja) | 識別装置、ロボットおよび識別方法 | |
Stahlberg et al. | Unfolding and shrinking neural machine translation ensembles | |
JP6691501B2 (ja) | 音響モデル学習装置、モデル学習装置、モデル学習方法、およびプログラム | |
US20240127586A1 (en) | Neural networks with adaptive gradient clipping | |
WO2023059831A1 (en) | Using memory to augment self-attention in neural networks | |
JP7452623B2 (ja) | 学習装置、情報処理装置、学習方法、情報処理方法及びプログラム | |
WO2021234610A1 (en) | Method of and system for training machine learning algorithm to generate text summary | |
JP7489501B1 (ja) | テキスト生成装置、テキスト生成方法、およびプログラム | |
Francis et al. | Gated recurrent capsules for visual word embeddings | |
WO2024147226A1 (ja) | アテンション生成装置、アテンション生成方法および記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230209 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20231024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240422 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7487556 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |