JP7226514B2 - 事前訓練言語モデル、装置及びコンピュータ読み取り可能な記憶媒体 - Google Patents
事前訓練言語モデル、装置及びコンピュータ読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP7226514B2 JP7226514B2 JP2021207561A JP2021207561A JP7226514B2 JP 7226514 B2 JP7226514 B2 JP 7226514B2 JP 2021207561 A JP2021207561 A JP 2021207561A JP 2021207561 A JP2021207561 A JP 2021207561A JP 7226514 B2 JP7226514 B2 JP 7226514B2
- Authority
- JP
- Japan
- Prior art keywords
- coding
- gradient
- model
- coding layers
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Machine Translation (AREA)
Description
事前に訓練された事前訓練言語モデルを取得し、前記事前訓練言語モデルにおける各符号化層の勾配閾値を決定するステップと、
前記事前訓練言語モデルを訓練し、且つ前記訓練中に毎回いずれかの符号化層のモデルパラメータを更新する前に、前記いずれかの符号化層の勾配ノルムを算出するステップと、
前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満である場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要があると決定し、前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満でない場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要がないと決定するステップと、
を含む事前訓練言語モデルの微調整方法を提供する。
今回前記いずれかの符号化層のモデルパラメータを更新する必要があると決定した場合は、前記いずれかの符号化層のモデルパラメータの勾配に基づき、前記いずれかの符号化層のモデルパラメータを更新するステップと、
今回前記いずれかの符号化層のモデルパラメータを更新する必要がないと決定した場合は、前記いずれかの符号化層のモデルパラメータの更新を拒否するステップと、
をさらに含んでもよい。
前記いずれかの符号化層の各モデルパラメータの勾配の二乗和を算出し、前記いずれかの符号化層の勾配ノルムを得ることと、
前記いずれかの符号化層の各モデルパラメータの絶対値の和を算出し、前記いずれかの符号化層の勾配ノルムを得ることと、
前記いずれかの符号化層の各モデルパラメータの絶対値のうちの最大値を前記いずれかの符号化層の勾配ノルムとして決定すること、
のいずれかの方式によって行われてもよい。
予め設定された閾値関数に基づき、各符号化層の勾配閾値を算出することを含み、前記閾値関数の入力が、符号化層のシーケンス番号であり、前記閾値関数の出力が、前記符号化層の勾配閾値であってもよい。
事前に訓練された事前訓練言語モデルを取得し、前記事前訓練言語モデルにおける各符号化層の勾配閾値を決定する決定モジュールと、
前記事前訓練言語モデルを訓練し、且つ前記訓練中に毎回いずれかの符号化層のモデルパラメータを更新する前に、前記いずれかの符号化層の勾配ノルムを算出する算出モジュールと、
前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満である場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要があると決定し、前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満でない場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要がないと決定する判断モジュールと、
を含む事前訓練言語モデルの微調整装置を提供する。
前記判断モジュールにより、今回前記いずれかの符号化層のモデルパラメータを更新する必要があると決定した場合、前記いずれかの符号化層のモデルパラメータの勾配に基づき、前記いずれかの符号化層のモデルパラメータを更新し、前記判断モジュールにより、今回前記いずれかの符号化層のモデルパラメータを更新する必要がないと決定した場合は、前記いずれかの符号化層のモデルパラメータの更新を拒否する更新モジュールと、
をさらに含んでもよい。
前記いずれかの符号化層の各モデルパラメータの勾配の二乗和を算出し、前記いずれかの符号化層の勾配ノルムを得ることと、
前記いずれかの符号化層の各モデルパラメータの絶対値の和を算出し、前記いずれかの符号化層の勾配ノルムを得ることと、
前記いずれかの符号化層の各モデルパラメータの絶対値のうちの最大値を、前記いずれかの符号化層の勾配ノルムとして決定すること、
のいずれかの方式によって、前記いずれかの符号化層の勾配ノルムを算出するようにしてもよい。
プロセッサと、
コンピュータプログラム命令が記憶されているメモリと、を有し、
前記コンピュータプログラム命令が前記プロセッサにより実行される時、前記プロセッサに、
事前に訓練された事前訓練言語モデルを取得し、前記事前訓練言語モデルにおける各符号化層の勾配閾値を決定するステップと、
前記事前訓練言語モデルを訓練し、且つ前記訓練中に毎回いずれかの符号化層のモデルパラメータを更新する前に、前記いずれかの符号化層の勾配ノルムを算出するステップと、
前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満である場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要があると決定し、前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満でない場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要がないと決定するステップを実施させる、
事前訓練言語モデルの微調整装置を提供する。
前記プロセッサにより実行される時に、前記事前訓練言語モデルの微調整方法のステップを実施するコンピュータプログラムが記憶されたことを特徴とするコンピュータ読み取り可能な記憶媒体を提供する。
事前に訓練された事前訓練言語モデルを取得し、前記事前訓練言語モデルにおける各符号化層の勾配閾値を決定するステップと、
前記事前訓練言語モデルを訓練し、且つ前記訓練中に毎回いずれかの符号化層のモデルパラメータを更新する前に、前記いずれかの符号化層の勾配ノルムを算出するステップと、
前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満である場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要があると決定し、前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満でない場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要がないと決定するステップ、を実施する。
Claims (15)
- 事前に訓練された事前訓練言語モデルを取得し、前記事前訓練言語モデルにおける各符号化層の勾配閾値を決定するステップと、
前記事前訓練言語モデルに対して訓練を行い、且つ前記訓練中に毎回いずれかの符号化層のモデルパラメータを更新する前に、前記いずれかの符号化層の勾配ノルムを算出するステップと、
前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満である場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要があると決定し、前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満でない場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要がないと決定するステップと、
を含む、ことを特徴とする事前訓練言語モデルの微調整方法。 - 今回前記いずれかの符号化層のモデルパラメータを更新する必要があると決定した場合は、前記いずれかの符号化層のモデルパラメータの勾配に基づき、前記いずれかの符号化層のモデルパラメータを更新するステップと、
今回前記いずれかの符号化層のモデルパラメータを更新する必要がないと決定した場合は、前記いずれかの符号化層のモデルパラメータの更新を拒否するステップと、
をさらに含む、ことを特徴とする請求項1に記載の微調整方法。 - 前記いずれかの符号化層の各モデルパラメータの勾配の二乗和を算出し、前記いずれかの符号化層の勾配ノルムを得ることと、
前記いずれかの符号化層の各モデルパラメータの絶対値の和を算出し、前記いずれかの符号化層の勾配ノルムを得ることと、
前記いずれかの符号化層の各モデルパラメータの絶対値のうちの最大値を前記いずれかの符号化層の勾配ノルムとして決定することと、
のいずれかの方式により、前記いずれかの符号化層の勾配ノルムを算出する、ことを特徴とする請求項1に記載の微調整方法。 - 前記事前訓練言語モデルにおける各符号化層の勾配閾値を決定することが、
予め設定された閾値関数に基づき、各符号化層の勾配閾値を算出することを含み、前記閾値関数の入力が、符号化層のシーケンス番号であり、前記閾値関数の出力が、前記符号化層の勾配閾値である、
ことを特徴とする請求項1に記載の事前訓練言語モデルの微調整方法。 - 前記符号化層のシーケンス番号が、前記事前訓練言語モデルの入力層から出力層までの方向順に番号付けされ、前記閾値関数の出力は、前記閾値関数の入力と正の相関がある、
ことを特徴とする請求項4に記載の事前訓練言語モデルの微調整方法。 - 前記勾配ノルムが非負の値である、
ことを特徴とする請求項1から5のいずれか一項に記載の微調整方法。 - 事前に訓練された事前訓練言語モデルを取得し、前記事前訓練言語モデルにおける各符号化層の勾配閾値を決定する決定モジュールと、
前記事前訓練言語モデルに対して訓練を行い、且つ前記訓練中に毎回いずれかの符号化層のモデルパラメータを更新する前に、前記いずれかの符号化層の勾配ノルムを算出する算出モジュールと、
前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満である場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要があると決定し、前記いずれかの符号化層の勾配ノルムが前記いずれかの符号化層の勾配閾値未満でない場合は、今回前記いずれかの符号化層のモデルパラメータを更新する必要がないと決定する判断モジュールと、
を含む、ことを特徴とする事前訓練言語モデルの微調整装置。 - 前記判断モジュールにより、今回前記いずれかの符号化層のモデルパラメータを更新する必要があると決定した場合、前記いずれかの符号化層のモデルパラメータの勾配に基づき、前記いずれかの符号化層のモデルパラメータを更新し、前記判断モジュールにより、今回前記いずれかの符号化層のモデルパラメータを更新する必要がないと決定した場合は、前記いずれかの符号化層のモデルパラメータの更新を拒否する更新モジュールと、
をさらに含む、ことを特徴とする請求項7に記載の微調整装置。 - 前記算出モジュールは、
前記いずれかの符号化層の各モデルパラメータの勾配の二乗和を算出し、前記いずれかの符号化層の勾配ノルムを得ることと、
前記いずれかの符号化層の各モデルパラメータの絶対値の和を算出し、前記いずれかの符号化層の勾配ノルムを得ることと、
前記いずれかの符号化層の各モデルパラメータの絶対値のうちの最大値を、前記いずれかの符号化層の勾配ノルムとして決定することと、
のいずれかの方式によって、前記いずれかの符号化層の勾配ノルムを算出する、ことを特徴とする請求項7に記載の微調整装置。 - 前記決定モジュールは、さらに、予め設定された閾値関数に基づき、各符号化層の勾配閾値を算出し、前記閾値関数の入力が、符号化層のシーケンス番号であり、前記閾値関数の出力が、前記符号化層の勾配閾値である、
ことを特徴とする請求項7に記載の微調整装置。 - 前記符号化層のシーケンス番号は、前記事前訓練言語モデルの入力層から出力層までの方向順に番号付けされ、前記閾値関数の出力は、前記閾値関数の入力と正の相関がある、
ことを特徴とする請求項10に記載の微調整装置。 - 前記勾配ノルムが非負の値である、
ことを特徴とする請求項7から11のいずれか一項に記載の微調整装置。 - プロセッサと、
前記プロセッサに接続され、且つコンピュータプログラムが記憶されているメモリと、を有し、
前記プロセッサは、前記コンピュータプログラムを実行することによって、請求項1から6のいずれか一項に記載の事前訓練言語モデルの微調整方法を実現するように構成される、事前訓練言語モデルの微調整装置。 - コンピュータに、請求項1から6のいずれか一項に記載の事前訓練言語モデルの微調整方法を実行させるためのプログラム。
- 請求項14に記載のプログラムを記憶しているコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011529711.X | 2020-12-22 | ||
CN202011529711.XA CN114723064A (zh) | 2020-12-22 | 2020-12-22 | 预训练语言模型的微调方法、装置及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022099327A JP2022099327A (ja) | 2022-07-04 |
JP7226514B2 true JP7226514B2 (ja) | 2023-02-21 |
Family
ID=78829342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021207561A Active JP7226514B2 (ja) | 2020-12-22 | 2021-12-21 | 事前訓練言語モデル、装置及びコンピュータ読み取り可能な記憶媒体 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4020305A1 (ja) |
JP (1) | JP7226514B2 (ja) |
CN (1) | CN114723064A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115438176B (zh) * | 2022-11-08 | 2023-04-07 | 阿里巴巴达摩院(杭州)科技有限公司 | 下游任务模型生成及任务执行的方法和设备 |
CN115906918B (zh) * | 2022-11-28 | 2024-05-17 | 北京百度网讯科技有限公司 | 预训练模型的微调方法及其装置 |
CN116186534B (zh) * | 2022-12-23 | 2024-02-23 | 北京百度网讯科技有限公司 | 预训练模型的更新方法、装置及电子设备 |
CN117852627A (zh) * | 2024-03-05 | 2024-04-09 | 湘江实验室 | 一种预训练模型微调方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019080232A (ja) | 2017-10-26 | 2019-05-23 | 株式会社Preferred Networks | 勾配圧縮装置、勾配圧縮方法及びプログラム |
WO2020250451A1 (en) | 2019-06-14 | 2020-12-17 | Nec Corporation | Transfer learning apparatus, transfer learning system, method of transfer learning, and storage medium |
-
2020
- 2020-12-22 CN CN202011529711.XA patent/CN114723064A/zh active Pending
-
2021
- 2021-12-10 EP EP21213827.5A patent/EP4020305A1/en active Pending
- 2021-12-21 JP JP2021207561A patent/JP7226514B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019080232A (ja) | 2017-10-26 | 2019-05-23 | 株式会社Preferred Networks | 勾配圧縮装置、勾配圧縮方法及びプログラム |
WO2020250451A1 (en) | 2019-06-14 | 2020-12-17 | Nec Corporation | Transfer learning apparatus, transfer learning system, method of transfer learning, and storage medium |
Non-Patent Citations (1)
Title |
---|
HOWARD, Jeremy, et al.,Universal Language Model Fine-tuning for Text Classification,arXiv,2018年05月23日 |
Also Published As
Publication number | Publication date |
---|---|
JP2022099327A (ja) | 2022-07-04 |
EP4020305A1 (en) | 2022-06-29 |
CN114723064A (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7226514B2 (ja) | 事前訓練言語モデル、装置及びコンピュータ読み取り可能な記憶媒体 | |
US20230206005A1 (en) | Multi-turn dialogue response generation with autoregressive transformer models | |
CN113239705B (zh) | 语义表示模型的预训练方法、装置、电子设备和存储介质 | |
CN109753615B (zh) | 预加载网页的方法和装置,存储介质和电子设备 | |
CN110347873A (zh) | 视频分类方法、装置、电子设备及存储介质 | |
JP7079311B2 (ja) | 機械読解モデルのトレーニング方法、装置、電子機器及び記憶媒体 | |
JP6965951B2 (ja) | ニューラル機械翻訳モデルの訓練方法、装置及び記憶媒体 | |
CN112528655B (zh) | 关键词生成方法、装置、设备及存储介质 | |
JP2020522774A (ja) | サーバ、金融時系列データの処理方法及び記憶媒体 | |
US11113596B2 (en) | Select one of plurality of neural networks | |
CN111597326B (zh) | 生成商品描述文本的方法及装置 | |
JP2020004382A (ja) | 音声対話方法及び装置 | |
CN111626065A (zh) | 神经机器翻译模型的训练方法、装置及存储介质 | |
CN114420102B (zh) | 语音断句方法、装置、电子设备及存储介质 | |
CN113626608B (zh) | 增强语义的关系抽取方法、装置、计算机设备及存储介质 | |
CN109727187B (zh) | 用于调整多个感兴趣区域数据的存储位置的方法和装置 | |
WO2021208715A1 (zh) | 模型推理加速方法、装置、计算机设备及存储介质 | |
CN113408070A (zh) | 发动机参数的确定方法、装置、设备及存储介质 | |
CN116975635A (zh) | 参数预测模型的训练方法、参数预测方法和装置 | |
CN117173269A (zh) | 一种人脸图像生成方法、装置、电子设备和存储介质 | |
CN116822629A (zh) | 文本推理任务处理的方法、装置、设备以及存储介质 | |
CN113468357B (zh) | 一种图像描述文本生成方法及装置 | |
CN114462679A (zh) | 基于深度学习的网络流量预测方法、装置、设备及介质 | |
CN114117051A (zh) | 词性标注模型的训练方法、词性标注方法及电子设备 | |
CN109377980B (zh) | 一种音节切分方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230123 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7226514 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |