JP2022118263A - 自然言語処理モデルの訓練方法、自然言語処理方法、装置、電子機器、記憶媒体及びプログラム - Google Patents
自然言語処理モデルの訓練方法、自然言語処理方法、装置、電子機器、記憶媒体及びプログラム Download PDFInfo
- Publication number
- JP2022118263A JP2022118263A JP2022102621A JP2022102621A JP2022118263A JP 2022118263 A JP2022118263 A JP 2022118263A JP 2022102621 A JP2022102621 A JP 2022102621A JP 2022102621 A JP2022102621 A JP 2022102621A JP 2022118263 A JP2022118263 A JP 2022118263A
- Authority
- JP
- Japan
- Prior art keywords
- task
- semantic
- branch
- output result
- natural language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003058 natural language processing Methods 0.000 title claims abstract description 117
- 238000000034 method Methods 0.000 title claims abstract description 75
- 238000012549 training Methods 0.000 title abstract description 101
- 238000012545 processing Methods 0.000 claims description 32
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 26
- 238000004891 communication Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
Description
図1Aに示すように、統一予備訓練言語モデル(例えばUNLM)は、埋め込み層111及びTransformer層112を含むことができる。例えば、X1、X2……X5を入力テキストとし、埋め込み層111は、入力テキストに特徴抽出及び特徴のベクトル化表現を行い、入力テキストの特徴ベクトルを出力することに用いられる。Transformer層112は、入力テキストの特徴ベクトルに基づいて語意学習を行い、語意特徴h1、h2…h5を出力することに用いられる。
図6に示すように、該自然言語処理方法600は操作S610~S620を含む。
図7に示すように、該自然言語処理モデルの訓練装置700は、語意学習モジュール701、特徴学習モジュール702、損失計算モジュール703及びパラメータ調整モジュール704を含むことができる。
本開示の実施例によれば、マルチタスクは、言語を生成するための第2の分岐タスクを含み、決定モジュールは、入力テキストにおける各字に対して、語意特徴に基づいて字の後文情報を予測し、第2の分岐タスクに対する第2の出力結果とするために用いられる。
図8に示すように、該自然言語処理800は、取得モジュール801及び処理モジュール802を含むことができる。
Claims (23)
- 入力テキストに対して、複数の分岐タスクを含むマルチタスクに対する語意学習を行い、マルチタスクに対する語意特徴を取得することと、
前記語意特徴に基づいて各分岐タスクに対する特徴学習をそれぞれ行い、各分岐タスクに対する第1の出力結果を得ることと、
各分岐タスクに対する第1の出力結果に基づいて、各分岐タスクに対する損失を計算することと、
各分岐タスクに対する損失に基づいて、前記自然言語処理モデルのパラメータを調整することと、を含む
自然言語処理モデルの訓練方法。 - 前記マルチタスクは、語意理解のための第1の分岐タスクを含み、
前記語意特徴に基づいて各分岐タスクに対する特徴学習をそれぞれ行い、各分岐タスクに対する第1の出力結果を得ることは、
前記入力テキストにおける各字に対して、前記語意特徴に基づいて前記字の前に位置する前文情報及び前記字の後に位置する後文情報を決定することと、
前記前文情報及び後文情報に基づいて、前記入力テキストの語意理解情報を決定し、前記第1の分岐タスクに対する第1の出力結果とすることと、を含む
請求項1に記載の方法。 - 前記前文情報及び後文情報に基づいて、前記入力テキストにおける複数の語句間の論理距離を計算し、第1の分岐タスクに対する第1の出力結果とすることをさらに含む
請求項2に記載の方法。 - 前記前文情報及び後文情報に基づいて、前記入力テキストにおける複数の語句間の論理順序を決定し、第1の分岐タスクに対する第1の出力結果とすることをさらに含む
請求項2に記載の方法。 - 前記マルチタスクは、言語生成のための第2の分岐タスクを含み、
前記語意特徴に基づいて各分岐タスクに対する特徴学習をそれぞれ行い、各分岐タスクに対する第1の出力結果を得ることは、前記入力テキストにおける各字に対して、
前記語意特徴に基づいて前記字の前に位置する前文情報を決定することと、
前記前文情報に基づいて、前記字の後に位置する後文情報を予測し、第2の分岐タスクに対する第1の出力結果とすることと、を含む
請求項1に記載の方法。 - 前記語意特徴に基づいて各分岐タスクに対する第2の出力結果をそれぞれ決定することをさらに含む
請求項1に記載の方法。 - 各分岐タスクに対する第1の出力結果に基づいて、各分岐タスクに対する損失を計算することは、
前記各分岐タスクに対する第1の出力結果及び第2の出力結果に基づいて、各分岐タスクに対する損失を計算することを含む
請求項6に記載の方法。 - 前記マルチタスクは、語意理解のための第1の分岐タスクを含み、
前記語意特徴に基づいて各分岐タスクに対する第2の出力結果をそれぞれ決定することは、
前記語意特徴に基づいて、前記入力テキストの語意理解情報を決定し、第1の分岐タスクに対する第2の出力結果とすることと、
前記語意特徴に基づいて、前記入力テキストにおける複数の語句間の論理距離を計算し、第1の分岐タスクに対する第2の出力結果とすることと、
前記語意特徴に基づいて、前記入力テキストにおける複数の語句間の論理順序を決定し、第1の分岐タスクに対する第2の出力結果とすること、のうちの1つを含む
請求項6に記載の方法。 - 前記マルチタスクは、言語生成のための第2の分岐タスクを含み、
前記語意特徴に基づいて各分岐タスクに対する第2の出力結果をそれぞれ決定することは、
前記入力テキストにおける各字に対して、前記語意特徴に基づいて前記字の後文情報を予測し、第2の分岐タスクに対する第2の出力結果とすることを含む
請求項6に記載の方法。 - 予め設定された分岐タスクに対する処理すべきテキストを取得することと、
自然言語処理モデルを使用して前記処理すべきテキストに対してマルチタスクに対する語意学習を行い、前記マルチタスクに対する語意特徴を取得し、前記語意特徴に基づいて前記予め設定された分岐タスクに対する特徴学習を行い、前記予め設定された分岐タスクに対する処理結果を取得することと、を含み、
ここで、前記マルチタスクは、前記予め設定された分岐タスクを含み、前記自然言語処理モデルは、請求項1~9のいずれか一項に記載の方法によって訓練される
自然言語処理方法。 - 入力テキストに対して、複数の分岐タスクを含むマルチタスクに対する語意学習を行い、マルチタスクに対する語意特徴を取得する語意学習モジュールと、
前記語意特徴に基づいて各分岐タスクに対する特徴学習をそれぞれ行い、各分岐タスクに対する第1の出力結果を得る特徴学習モジュールと、
各分岐タスクに対する第1の出力結果に基づいて、各分岐タスクに対する損失を計算する損失計算モジュールと、
各分岐タスクに対する損失に基づいて、前記自然言語処理モデルのパラメータを調整するパラメータ調整モジュールと、を含む
自然言語処理モデルの訓練装置。 - 前記マルチタスクは、語意理解のための第1の分岐タスクを含み、
前記特徴学習モジュールは、
前記入力テキストにおける各字に対して、前記語意特徴に基づいて前記字の前に位置する前文情報及び前記字の後に位置する後文情報を決定する第1の決定ユニットと、
前記前文情報及び後文情報に基づいて、前記入力テキストの語意理解情報を決定し、前記第1の分岐タスクに対する第1の出力結果とする第2の決定ユニットと、を含む
請求項11に記載の装置。 - 前記特徴学習モジュールは、
前記前文情報及び後文情報に基づいて、前記入力テキストにおける複数の語句間の論理距離を計算し、第1の分岐タスクに対する第1の出力結果とする第1の計算ユニットをさらに含む
請求項12に記載の装置。 - 前記特徴学習モジュールは、
前記前文情報及び後文情報に基づいて、前記入力テキストにおける複数の語句間の論理順序を決定し、第1の分岐タスクに対する第1の出力結果とする第3の決定ユニットをさらに含む
請求項12に記載の装置。 - 前記マルチタスクは、言語生成のための第2の分岐タスクを含み、
前記特徴学習モジュールは、
前記入力テキストにおける各字に対して、前記語意特徴に基づいて前記字の前に位置する前文情報を決定する第4の決定ユニットと、
前記前文情報に基づいて、前記字の後に位置する後文情報を予測し、第2の分岐タスクに対する第1の出力結果とする予測ユニットと、を含む
請求項11に記載の装置。 - 前記語意特徴に基づいて各分岐タスクに対する第2の出力結果をそれぞれ決定する決定モジュールをさらに含む
請求項11に記載の装置。 - 前記損失計算モジュールは、前記各分岐タスクに対する第1の出力結果及び第2の出力結果に基づいて、各分岐タスクに対する損失を計算する
請求項16に記載の装置。 - 前記マルチタスクは、語意理解のための第1の分岐タスクを含み、
前記決定モジュールは、
前記語意特徴に基づいて、前記入力テキストの語意理解情報を決定し、第1の分岐タスクに対する第2の出力結果とすることと、
前記語意特徴に基づいて、前記入力テキストにおける複数の語句間の論理距離を計算し、第1の分岐タスクに対する第2の出力結果とすることと、
前記語意特徴に基づいて、前記入力テキストにおける複数の語句間の論理順序を決定し、第1の分岐タスクに対する第2の出力結果とすること、のうちの1つを実行する
請求項16に記載の装置。 - 前記マルチタスクは、言語生成のための第2の分岐タスクを含み、
前記決定モジュールは、前記入力テキストにおける各字に対して、前記語意特徴に基づいて前記字の後文情報を予測し、第2の分岐タスクに対する第2の出力結果とする
請求項16に記載の装置。 - 予め設定された分岐タスクに対する処理すべきテキストを取得する取得モジュールと、
自然言語処理モデルを使用して前記処理すべきテキストに対してマルチタスクに対する語意学習を行い、前記マルチタスクに対する語意特徴を取得し、前記語意特徴に基づいて前記予め設定された分岐タスクに対する特徴学習を行い、前記予め設定された分岐タスクに対する処理結果を取得する処理モジュールと、を含み、
ここで、前記マルチタスクは、前記予め設定された分岐タスクを含み、前記自然言語処理モデルは、請求項1~9のいずれか一項に記載の方法によって訓練される
自然言語処理装置。 - 少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサと通信接続されたメモリと、を含み、
前記メモリは、前記少なくとも一つのプロセッサにより実行可能な命令を記憶し、前記命令は前記少なくとも一つのプロセッサにより実行されることにより、前記少なくとも一つのプロセッサが請求項1~10のいずれか一項に記載の方法を実行することができる
電子機器。 - コンピュータ命令が、前記コンピュータに請求項1~10のいずれか一項に記載の方法を実行させるために用いられる
コンピュータ命令を記憶した非一時的なコンピュータ可読記憶媒体。 - プロセッサにより実行される時に請求項1~10のいずれか一項に記載の方法を実現する
コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110747046.XA CN113361285B (zh) | 2021-06-30 | 2021-06-30 | 自然语言处理模型的训练方法、自然语言处理方法及装置 |
CN202110747046.X | 2021-06-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022118263A true JP2022118263A (ja) | 2022-08-12 |
Family
ID=77537968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022102621A Pending JP2022118263A (ja) | 2021-06-30 | 2022-06-27 | 自然言語処理モデルの訓練方法、自然言語処理方法、装置、電子機器、記憶媒体及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220293092A1 (ja) |
JP (1) | JP2022118263A (ja) |
CN (1) | CN113361285B (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113836901B (zh) * | 2021-09-14 | 2023-11-14 | 灵犀量子(北京)医疗科技有限公司 | 一种中英文医学同义词数据清洗方法及系统 |
GB2624839A (en) * | 2021-10-05 | 2024-05-29 | Pieces Tech Inc | Creating multiple prioritized clinical summaries using artificial intelligence |
CN114372499A (zh) * | 2021-11-11 | 2022-04-19 | 万里云医疗信息科技(北京)有限公司 | 一种自然语言处理方法、装置、设备和计算机可读存储介质 |
CN114065952A (zh) * | 2021-11-29 | 2022-02-18 | 腾讯科技(深圳)有限公司 | 模型训练的方法和装置 |
CN114691858B (zh) * | 2022-03-15 | 2023-10-03 | 电子科技大学 | 一种基于改进的unilm摘要生成方法 |
US11646014B1 (en) | 2022-07-25 | 2023-05-09 | Intuit Inc. | Ensemble of machine learning models for real-time predictions in expert electronic chats |
CN115810351B (zh) * | 2023-02-09 | 2023-04-25 | 四川大学 | 一种基于视听融合的管制员语音识别方法及装置 |
CN116822629A (zh) * | 2023-05-19 | 2023-09-29 | 北京百度网讯科技有限公司 | 文本推理任务处理的方法、装置、设备以及存储介质 |
CN116860978B (zh) * | 2023-08-31 | 2023-11-21 | 南京云创大数据科技股份有限公司 | 基于知识图谱和大模型的小学语文个性化学习系统 |
CN118194881A (zh) * | 2024-04-16 | 2024-06-14 | 摩尔线程智能科技(北京)有限责任公司 | 文本生成系统及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188358A (zh) * | 2019-05-31 | 2019-08-30 | 北京神州泰岳软件股份有限公司 | 自然语言处理模型的训练方法及装置 |
JP2020140673A (ja) * | 2019-03-01 | 2020-09-03 | 富士ゼロックス株式会社 | 学習装置、情報出力装置、及びプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11526676B2 (en) * | 2019-05-17 | 2022-12-13 | Naver Corporation | Implicit discourse relation classification with contextualized word representation |
CN110222188B (zh) * | 2019-06-18 | 2023-04-18 | 深圳司南数据服务有限公司 | 一种多任务学习的公司公告处理方法及服务端 |
US11704602B2 (en) * | 2020-01-02 | 2023-07-18 | Intuit Inc. | Method for serving parameter efficient NLP models through adaptive architectures |
CN111324695B (zh) * | 2020-02-06 | 2022-12-16 | 鼎富智能科技有限公司 | 一种多任务学习方法及装置 |
CN112417884A (zh) * | 2020-11-05 | 2021-02-26 | 广州平云信息科技有限公司 | 一种基于知识增强和知识迁移的句子语义相关度判断方法 |
CN112699686B (zh) * | 2021-01-05 | 2024-03-08 | 浙江诺诺网络科技有限公司 | 基于任务型对话系统的语义理解方法、装置、设备及介质 |
CN113704388A (zh) * | 2021-03-05 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 多任务预训练模型的训练方法、装置、电子设备和介质 |
CN112988785B (zh) * | 2021-05-10 | 2021-08-20 | 浙江大学 | 基于语言模型编码和多任务解码的sql转换方法及系统 |
-
2021
- 2021-06-30 CN CN202110747046.XA patent/CN113361285B/zh active Active
-
2022
- 2022-05-31 US US17/828,773 patent/US20220293092A1/en active Pending
- 2022-06-27 JP JP2022102621A patent/JP2022118263A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020140673A (ja) * | 2019-03-01 | 2020-09-03 | 富士ゼロックス株式会社 | 学習装置、情報出力装置、及びプログラム |
CN110188358A (zh) * | 2019-05-31 | 2019-08-30 | 北京神州泰岳软件股份有限公司 | 自然语言处理模型的训练方法及装置 |
Non-Patent Citations (1)
Title |
---|
LI DONG 他8名: "Unified Language Model Pre-training for Natural Language Understanding and Generation", ARXIV, JPN6023031283, 15 October 2019 (2019-10-15), ISSN: 0005119836 * |
Also Published As
Publication number | Publication date |
---|---|
US20220293092A1 (en) | 2022-09-15 |
CN113361285A (zh) | 2021-09-07 |
CN113361285B (zh) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022118263A (ja) | 自然言語処理モデルの訓練方法、自然言語処理方法、装置、電子機器、記憶媒体及びプログラム | |
JP7273108B2 (ja) | モデルトレーニング方法、装置、電子デバイス、記憶媒体、プログラム | |
US10679148B2 (en) | Implicit bridging of machine learning tasks | |
US20220350965A1 (en) | Method for generating pre-trained language model, electronic device and storage medium | |
EP3913543A2 (en) | Method and apparatus for training multivariate relationship generation model, electronic device and medium | |
KR102565275B1 (ko) | 병렬 처리에 기초한 번역 방법 및 장치 | |
US20210342549A1 (en) | Method for training semantic analysis model, electronic device and storage medium | |
JP7331975B2 (ja) | クロスモーダル検索モデルのトレーニング方法、装置、機器、および記憶媒体 | |
JP2022177220A (ja) | テキスト認識モデルの訓練方法、テキスト認識方法及び装置 | |
CN111344779A (zh) | 训练和/或使用编码器模型确定自然语言输入的响应动作 | |
US20210232948A1 (en) | Question responding apparatus, question responding method and program | |
CN112084789B (zh) | 文本处理方法、装置、设备及存储介质 | |
US20220300718A1 (en) | Method, system, electronic device and storage medium for clarification question generation | |
CN114970522B (zh) | 语言模型的预训练方法、装置、设备、存储介质 | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
JP2021106016A (ja) | 対話生成方法、装置、電子機器及び媒体 | |
US20220129753A1 (en) | Pre-training method of neural network model, electronic device and medium | |
EP3855341A1 (en) | Language generation method and apparatus, electronic device and storage medium | |
JP2022059021A (ja) | モデル訓練方法および装置、テキスト予測方法および装置、電子デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラム | |
EP3920074A2 (en) | Method for industry text increment, related apparatus, and computer program product | |
CN113689868B (zh) | 一种语音转换模型的训练方法、装置、电子设备及介质 | |
CN111667069A (zh) | 预训练模型压缩方法、装置和电子设备 | |
CN117153142A (zh) | 一种语音信号合成方法、装置、电子设备及存储介质 | |
US20230317058A1 (en) | Spoken language processing method and apparatus, and storage medium | |
CN113191140B (zh) | 文本处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220627 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231019 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240402 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240409 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20240802 |