JP7297038B2 - ニューラルネットワークモデルの事前トレーニング方法、装置、電子機器及び媒体 - Google Patents
ニューラルネットワークモデルの事前トレーニング方法、装置、電子機器及び媒体 Download PDFInfo
- Publication number
- JP7297038B2 JP7297038B2 JP2021197896A JP2021197896A JP7297038B2 JP 7297038 B2 JP7297038 B2 JP 7297038B2 JP 2021197896 A JP2021197896 A JP 2021197896A JP 2021197896 A JP2021197896 A JP 2021197896A JP 7297038 B2 JP7297038 B2 JP 7297038B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- neural network
- network model
- initial neural
- hidden layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Description
Claims (13)
- コンピュータによって実行されるニューラルネットワークモデルの事前トレーニング方法であって、
事前トレーニングデータを取得するステップと、
前記事前トレーニングデータを初期ニューラルネットワークモデルに入力し、第1トレーニング方式で前記初期ニューラルネットワークモデルを事前にトレーニングするステップであって、前記第1トレーニング方式では多層隠れ層が1つの隠れ層パラメータを共有するステップと、
前記初期ニューラルネットワークモデルの損失値を取得するステップと、
前記初期ニューラルネットワークモデルの損失値が予め設定された閾値未満である場合、第2トレーニング方式で前記初期ニューラルネットワークモデルの事前トレーニングを続けるステップであって、前記第2トレーニング方式では多層隠れ層の各層がそれぞれ1つの隠れ層パラメータを有するステップと、を含む、
ことを特徴とするニューラルネットワークモデルの事前トレーニング方法。 - 前記第1トレーニング方式で前記初期ニューラルネットワークモデルを事前にトレーニングするステップは、
前記隠れ層の層数を取得するステップと、
前記隠れ層の層数に基づいて、前記第1トレーニング方式で循環する循環回数を生成するステップと、
前記循環回数に基づいて、第1トレーニング方式で前記初期ニューラルネットワークモデルに対して循環事前トレーニングを行うステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記循環回数は前記隠れ層の層数である、
ことを特徴とする請求項2に記載の方法。 - 前記各層の隠れ層が、自体で生成された勾配値を前記共有の隠れ層パラメータに累算する、
ことを特徴とする請求項1に記載の方法。 - 前記初期ニューラルネットワークモデルの損失値を取得するステップは、
前記事前トレーニングデータの一部のデータをマスクするステップと、
マスクされた前記事前トレーニングデータを前記初期ニューラルネットワークモデルに入力して予測して、予測値を生成するステップと、
前記予測値とマスク位置の初期値を比較して、前記損失値を生成するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - ニューラルネットワークモデルの事前トレーニング装置であって、
事前トレーニングデータを取得するための第1取得モジュールと、
前記事前トレーニングデータを初期ニューラルネットワークモデルに入力し、第1トレーニング方式で前記初期ニューラルネットワークモデルを事前にトレーニングするための第1トレーニングモジュールであって、前記第1トレーニング方式では多層隠れ層が1つの隠れ層パラメータを共有する第1トレーニングモジュールと、
前記初期ニューラルネットワークモデルの損失値を取得するための第2取得モジュールと、
前記初期ニューラルネットワークモデルの損失値が予め設定された閾値未満である場合、第2トレーニング方式で前記初期ニューラルネットワークモデルの事前トレーニングを続けるための第2トレーニングモジュールであって、前記第2トレーニング方式では多層隠れ層の各層がそれぞれ1つの隠れ層パラメータを有する第2トレーニングモジュールと、を含む、
ことを特徴とするニューラルネットワークモデルの事前トレーニング装置。 - 前記第1トレーニングモジュールが、
前記隠れ層の層数を取得し、
前記隠れ層の層数に基づいて、前記第1トレーニング方式で循環する循環回数を生成し、
前記循環回数に基づいて、第1トレーニング方式で前記初期ニューラルネットワークモデルに対して循環事前トレーニングを行う、
ことを特徴とする請求項6に記載の装置。 - 前記循環回数は前記隠れ層の層数である、
ことを特徴とする請求項7に記載の装置。 - 前記各層の隠れ層が、自体で生成された勾配値を前記共有の隠れ層パラメータに累算する、
ことを特徴とする請求項6に記載の装置。 - 前記第2取得モジュールが、
前記事前トレーニングデータの一部のデータをマスクし、
マスクされた前記事前トレーニングデータを前記初期ニューラルネットワークモデルに入力して予測して、予測値を生成し、
前記予測値とマスク位置の初期値を比較して、前記損失値を生成する、
ことを特徴とする請求項6に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~5のいずれかに記載のニューラルネットワークモデルの事前トレーニング方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~5のいずれかに記載のニューラルネットワークモデルの事前トレーニング方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサによって実行される場合、請求項1~5のいずれかに記載のニューラルネットワークモデルの事前トレーニング方法を実現する、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110242141.4A CN113033801A (zh) | 2021-03-04 | 2021-03-04 | 神经网络模型的预训练方法、装置、电子设备和介质 |
CN202110242141.4 | 2021-03-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022020006A JP2022020006A (ja) | 2022-01-27 |
JP7297038B2 true JP7297038B2 (ja) | 2023-06-23 |
Family
ID=76467676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021197896A Active JP7297038B2 (ja) | 2021-03-04 | 2021-12-06 | ニューラルネットワークモデルの事前トレーニング方法、装置、電子機器及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220129753A1 (ja) |
EP (1) | EP4033415A1 (ja) |
JP (1) | JP7297038B2 (ja) |
KR (1) | KR102635800B1 (ja) |
CN (1) | CN113033801A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113553864B (zh) * | 2021-06-30 | 2023-04-07 | 北京百度网讯科技有限公司 | 翻译模型的训练方法、装置、电子设备及存储介质 |
CN113554280B (zh) * | 2021-06-30 | 2023-06-16 | 北京百度网讯科技有限公司 | 电网系统调度模型的训练方法、装置、设备和存储介质 |
CN113408638A (zh) * | 2021-06-30 | 2021-09-17 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备和计算机存储介质 |
CN115186771A (zh) * | 2022-09-09 | 2022-10-14 | 西安热工研究院有限公司 | 基于dbn-elm的设备耗电特征分类方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159694A (ja) | 2018-03-12 | 2019-09-19 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20200110994A1 (en) | 2018-10-04 | 2020-04-09 | International Business Machines Corporation | Neural networks using intra-loop data augmentation during network training |
JP2020154076A (ja) | 2019-03-19 | 2020-09-24 | 国立研究開発法人情報通信研究機構 | 推論器、学習方法および学習プログラム |
CN111709248A (zh) | 2020-05-28 | 2020-09-25 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、装置及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11074495B2 (en) * | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
CN111310905B (zh) * | 2020-05-11 | 2020-08-18 | 创新奇智(南京)科技有限公司 | 神经网络模型训练方法、装置及暖通系统能效优化方法 |
CN112364160A (zh) * | 2020-06-02 | 2021-02-12 | 湖北大学 | 一种结合ALBERT和BiGRU的专利文本分类方法 |
CN111667069B (zh) * | 2020-06-10 | 2023-08-04 | 中国工商银行股份有限公司 | 预训练模型压缩方法、装置和电子设备 |
CN111539227B (zh) * | 2020-07-06 | 2020-12-18 | 北京百度网讯科技有限公司 | 训练语义表示模型的方法、装置、设备和计算机存储介质 |
-
2021
- 2021-03-04 CN CN202110242141.4A patent/CN113033801A/zh active Pending
- 2021-10-14 KR KR1020210136508A patent/KR102635800B1/ko active IP Right Grant
- 2021-12-06 JP JP2021197896A patent/JP7297038B2/ja active Active
-
2022
- 2022-01-11 EP EP22150836.9A patent/EP4033415A1/en not_active Withdrawn
- 2022-01-11 US US17/572,921 patent/US20220129753A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159694A (ja) | 2018-03-12 | 2019-09-19 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20200110994A1 (en) | 2018-10-04 | 2020-04-09 | International Business Machines Corporation | Neural networks using intra-loop data augmentation during network training |
JP2020154076A (ja) | 2019-03-19 | 2020-09-24 | 国立研究開発法人情報通信研究機構 | 推論器、学習方法および学習プログラム |
CN111709248A (zh) | 2020-05-28 | 2020-09-25 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、装置及电子设备 |
Non-Patent Citations (1)
Title |
---|
川崎 拳人,非構造化データの構造化における情報抽出,情報処理学会 研究報告 音声言語情報処理(SLP) 2020-SLP-134 [online] ,日本,情報処理学会,2020年11月25日,第1頁-第6頁,ISSN:2188-8663 |
Also Published As
Publication number | Publication date |
---|---|
KR102635800B1 (ko) | 2024-02-13 |
US20220129753A1 (en) | 2022-04-28 |
JP2022020006A (ja) | 2022-01-27 |
KR20210131923A (ko) | 2021-11-03 |
EP4033415A1 (en) | 2022-07-27 |
CN113033801A (zh) | 2021-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7297038B2 (ja) | ニューラルネットワークモデルの事前トレーニング方法、装置、電子機器及び媒体 | |
US20220004892A1 (en) | Method for training multivariate relationship generation model, electronic device and medium | |
JP7283009B2 (ja) | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 | |
EP3937060A1 (en) | Method and apparatus for training semantic representation model, device and computer storage medium | |
JP7331975B2 (ja) | クロスモーダル検索モデルのトレーニング方法、装置、機器、および記憶媒体 | |
JP7358698B2 (ja) | 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 | |
KR20210124938A (ko) | 이벤트 추출 방법, 장치, 전자 기기 및 저장 매체 | |
JP7262571B2 (ja) | 知識グラフのベクトル表現生成方法、装置及び電子機器 | |
JP2022018095A (ja) | マルチモーダル事前訓練モデル取得方法、装置、電子デバイス及び記憶媒体 | |
EP3971761A1 (en) | Method and apparatus for generating summary, electronic device and storage medium thereof | |
JP2023039889A (ja) | モデルトレーニング方法および字庫作成方法、デバイス、設備ならびに記憶媒体 | |
JP7044839B2 (ja) | エンドツーエンドモデルのトレーニング方法および装置 | |
JP2022151649A (ja) | 音声認識モデルのトレーニング方法、装置、機器、および記憶媒体 | |
JP7414907B2 (ja) | 事前訓練済みモデルの決定方法及びその決定装置、電子機器並びに記憶媒体 | |
JP7230304B2 (ja) | 対話生成方法、装置、電子機器、プログラム及び記憶媒体 | |
JP2023039888A (ja) | モデルトレーニング及び字庫作成の方法、装置、機器、及び記憶媒体 | |
JP2022003537A (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
CN113963110B (zh) | 纹理图生成方法、装置、电子设备及存储介质 | |
JP7279138B2 (ja) | 多言語モデルの訓練方法、装置、電子デバイス及び可読記憶媒体 | |
JP7337979B2 (ja) | モデル訓練方法および装置、テキスト予測方法および装置、電子デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラム | |
CN113641830B (zh) | 模型预训练方法、装置、电子设备和存储介质 | |
JP7357114B2 (ja) | 生体検出モデルのトレーニング方法、装置、電子機器および記憶媒体 | |
JP2023533404A (ja) | 駆動可能3dキャラクター生成方法、装置、電子機器、及び記憶媒体 | |
JP2023025126A (ja) | 深層学習モデルのトレーニング方法及び装置、テキストデータ処理方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
CN112949433B (zh) | 视频分类模型的生成方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230613 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7297038 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |