JP7122365B2 - テキスト認識処理方法、装置、電子機器及び記憶媒体 - Google Patents
テキスト認識処理方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP7122365B2 JP7122365B2 JP2020217584A JP2020217584A JP7122365B2 JP 7122365 B2 JP7122365 B2 JP 7122365B2 JP 2020217584 A JP2020217584 A JP 2020217584A JP 2020217584 A JP2020217584 A JP 2020217584A JP 7122365 B2 JP7122365 B2 JP 7122365B2
- Authority
- JP
- Japan
- Prior art keywords
- text
- language model
- model
- computer
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Machine Translation (AREA)
Description
N個のフラグメントシーケンスを取得するステップであって、ここで、少なくとも1つのフラグメントにマスクがあるステップと、
前記N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力して、前記N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得するステップと、
各前記フラグメントシーケンスを順次前記初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個の前記フラグメントシーケンスに対応する第2のテキストベクトル情報を取得するステップと、
前記現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、前記第2のテキストベクトル情報及び前記第1のテキストベクトル情報に応じて、前記マスクを予測し、前記マスクに対応する目標位置の予測ワードを取得するステップと、
前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに応じて、前記初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成し、前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するステップと、を含む。
N個のフラグメントシーケンスを取得するための第1の取得モジュールであって、ここで、少なくとも1つのフラグメントにマスクがある第1の取得モジュールと、
前記N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力して、前記N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得するための第2の取得モジュールと、
各前記フラグメントシーケンスを順次前記初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個の前記フラグメントシーケンスに対応する第2のテキストベクトル情報を取得するための第3の取得モジュールと、
前記現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、前記第2のテキストベクトル情報及び前記第1のテキストベクトル情報に応じて、前記マスクを予測し、前記マスクに対応する目標位置の予測ワードを取得するための予測モジュールと、
前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに応じて、前記初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成するためのトレーニングモジュールと、
前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するための認識処理モジュールと、を含む。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが第1態様に記載のテキスト認識処理方法を実行する。
Claims (13)
- テキスト認識処理方法であって、
コンピュータが、N個のフラグメントシーケンスを取得するステップであって、少なくとも1つのフラグメントにマスクがあるステップと、
コンピュータが、前記N個のフラグメントシーケンスを順次予め設定された、フラグメント間で情報を転送可能な初期言語モデルに入力して、前記N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得するステップと、
コンピュータが、各前記フラグメントシーケンスを順次前記初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個の前記フラグメントシーケンスに対応する第2のテキストベクトル情報を取得するステップと、
コンピュータが、前記現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、前記第2のテキストベクトル情報及び前記第1のテキストベクトル情報に応じて、前記マスクを予測し、前記マスクに対応する目標位置の予測ワードを取得するステップと、
コンピュータが、前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに応じて、前記初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成し、前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するステップと、を含む、
ことを特徴とするテキスト認識処理方法。 - コンピュータが、N個のフラグメントシーケンスを取得するステップであって、少なくとも1つのフラグメントにマスクがあるステップは、
コンピュータが、長いテキスト言語データを取得し、前記長いテキスト言語データの複数の位置にあるオリジナルワードをそれぞれマスクに置き換えて、長いテキスト隠蔽言語データを取得するステップと、
コンピュータが、予め設定された目標長さに従って前記長いテキスト隠蔽言語データを分割してN個のフラグメントシーケンスを取得するステップと、を含む、
ことを特徴とする請求項1に記載のテキスト認識処理方法。 - コンピュータが、前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに応じて、前記初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成するステップは、
コンピュータが、予め設定されたアルゴリズムに従って前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに対して第1の損失値を生成するステップと、
コンピュータが、前記第1の損失値及び予め設定された目標関数に応じて前記初期言語モデルをトレーニングし、モデルパラメータを取得して長いテキスト言語モデルを生成するステップと、を含む、
ことを特徴とする請求項1に記載のテキスト認識処理方法。 - コンピュータが、前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するステップは、
コンピュータが、前記目標タスクが分類タスクであると検出された場合、複数のサンプル言語データに対して対応するカテゴリマークを行うステップであって、前記カテゴリマークは、テキスト全体の意味表現を生成するためのマークである、ステップと、
コンピュータが、前記複数のサンプル言語データ及び対応するカテゴリマークを前記長いテキスト言語モデルに入力してトレーニングし、前記モデルパラメータを調整し、前記分類タスクに対応する長いテキスト言語モデルを取得するステップと、
コンピュータが、前記分類タスクに対応する長いテキスト言語モデルに応じて前記入力テキストを認識し、前記入力テキストに対応する目標タイプを取得するステップと、を含む、
ことを特徴とする請求項1に記載のテキスト認識処理方法。 - コンピュータが、前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するステップは、
コンピュータが、前記目標タスクがテキスト要約生成タスクであると検出された場合、複数のサンプル言語データに対して対応する要約マークを行うステップであって、前記要約マークは、要約テキストを生成するためのマークである、ステップと、
コンピュータが、前記複数のサンプル言語データ及び対応する要約マークを前記長いテキスト言語モデルに入力してトレーニングし、前記モデルパラメータを調整し、前記テキスト要約生成タスクに対応する長いテキスト言語モデルを取得するステップと、
コンピュータが、前記分類タスクに対応する長いテキスト言語モデルに応じて前記入力テキストを認識し、前記入力テキストに対応するテキスト要約を取得するステップと、を含む、
ことを特徴とする請求項1に記載のテキスト認識処理方法。 - テキスト認識処理装置であって、
N個のフラグメントシーケンスを取得するための第1の取得モジュールであって、少なくとも1つのフラグメントにマスクがある第1の取得モジュールと、
前記N個のフラグメントシーケンスを順次予め設定された、フラグメント間で情報を転送可能な初期言語モデルに入力して、前記N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得するための第2の取得モジュールと、
各前記フラグメントシーケンスを順次前記初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個の前記フラグメントシーケンスに対応する第2のテキストベクトル情報を取得するための第3の取得モジュールと、
前記現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、前記第2のテキストベクトル情報及び前記第1のテキストベクトル情報に応じて、前記マスクを予測し、前記マスクに対応する目標位置の予測ワードを取得するための予測モジュールと、
前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに応じて、前記初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成するためのトレーニングモジュールと、
前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するための認識処理モジュールと、を含む、
ことを特徴とするテキスト認識処理装置。 - 前記第1の取得モジュールは、具体的に、
長いテキスト言語データを取得し、前記長いテキスト言語データの複数の位置にあるオリジナルワードをそれぞれマスクに置き換えて、長いテキスト隠蔽言語データを取得し、
予め設定された目標長さに従って前記長いテキスト隠蔽言語データを分割してN個のフラグメントシーケンスを取得することに用いられる、
ことを特徴とする請求項6に記載のテキスト認識処理装置。 - 前記トレーニングモジュールは、具体的に、
予め設定されたアルゴリズムに従って前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに対して第1の損失値を生成し、
前記第1の損失値及び予め設定された目標関数に応じて前記初期言語モデルをトレーニングし、モデルパラメータを取得して長いテキスト言語モデルを生成することに用いられる、
ことを特徴とする請求項6に記載のテキスト認識処理装置。 - 前記認識処理モジュールは、具体的に、
前記目標タスクが分類タスクであると検出された場合、複数のサンプル言語データに対して対応するカテゴリマークを行い、
前記複数のサンプル言語データ及び対応するカテゴリマークを前記長いテキスト言語モデルに入力してトレーニングし、前記モデルパラメータを調整し、前記分類タスクに対応する長いテキスト言語モデルを取得し、前記カテゴリマークは、テキスト全体の意味表現を生成するためのマークであり、
前記分類タスクに対応する長いテキスト言語モデルに応じて前記入力テキストを認識し、前記入力テキストに対応する目標タイプを取得することに用いられる、
ことを特徴とする請求項6に記載のテキスト認識処理装置。 - 前記認識処理モジュールは、具体的に、
前記目標タスクがテキスト要約生成タスクであると検出された場合、複数のサンプル言語データに対して対応する要約マークを行い、
前記複数のサンプル言語データ及び対応する要約マークを前記長いテキスト言語モデルに入力してトレーニングし、前記モデルパラメータを調整し、前記テキスト要約生成タスクに対応する長いテキスト言語モデルを取得し、前記要約マークは、要約テキストを生成するためのマークであり、
前記分類タスクに対応する長いテキスト言語モデルに応じて前記入力テキストを認識し、前記入力テキストに対応するテキスト要約を取得することに用いられる、
ことを特徴とする請求項6に記載のテキスト認識処理装置。 - 電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが請求項1~5のいずれかに記載のテキスト認識処理方法を実行する、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに請求項1~5のいずれかに記載のテキスト認識処理方法を実行させることに用いられる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータ上で動作しているときに、請求項1~5のいずれかに記載のテキスト認識処理方法を前記コンピュータに実行させる、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010494419.2A CN111832292B (zh) | 2020-06-03 | 2020-06-03 | 文本识别处理方法、装置、电子设备和存储介质 |
CN202010494419.2 | 2020-06-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021190087A JP2021190087A (ja) | 2021-12-13 |
JP7122365B2 true JP7122365B2 (ja) | 2022-08-19 |
Family
ID=72897957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020217584A Active JP7122365B2 (ja) | 2020-06-03 | 2020-12-25 | テキスト認識処理方法、装置、電子機器及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11663404B2 (ja) |
EP (1) | EP3920075A1 (ja) |
JP (1) | JP7122365B2 (ja) |
KR (1) | KR102497945B1 (ja) |
CN (1) | CN111832292B (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11687709B2 (en) * | 2020-10-22 | 2023-06-27 | International Business Machines Corporation | Domain knowledge based feature extraction for enhanced text representation |
CN112364634B (zh) * | 2020-11-02 | 2024-07-26 | 成都不问科技有限公司 | 一种基于问句的同义词匹配方法 |
CN112765444A (zh) * | 2021-01-08 | 2021-05-07 | 深圳前海微众银行股份有限公司 | 提取目标文本片段的方法、装置、设备及存储介质 |
US20220237373A1 (en) * | 2021-01-28 | 2022-07-28 | Accenture Global Solutions Limited | Automated categorization and summarization of documents using machine learning |
CN113807095B (zh) * | 2021-03-03 | 2024-05-17 | 京东科技控股股份有限公司 | 实体词提取模型的训练方法、装置、设备和存储介质 |
CN112862662A (zh) * | 2021-03-12 | 2021-05-28 | 云知声智能科技股份有限公司 | 一种分布式训练transformer-xl语言模型的方法和设备 |
CN113434632B (zh) * | 2021-06-25 | 2024-10-18 | 平安科技(深圳)有限公司 | 基于语言模型的文本补全方法、装置、设备及存储介质 |
US20230008868A1 (en) * | 2021-07-08 | 2023-01-12 | Nippon Telegraph And Telephone Corporation | User authentication device, user authentication method, and user authentication computer program |
CN113705187B (zh) * | 2021-08-13 | 2023-08-01 | 北京百度网讯科技有限公司 | 预训练语言模型的生成方法、装置、电子设备和存储介质 |
CN113705203B (zh) * | 2021-09-02 | 2024-07-26 | 上海极链科技发展集团有限公司 | 文本纠错方法、装置、电子设备及计算机可读存储介质 |
CN113868394A (zh) * | 2021-10-09 | 2021-12-31 | 维沃移动通信有限公司 | 操作执行方法、装置、电子设备和存储介质 |
CN116089602B (zh) * | 2021-11-04 | 2024-05-03 | 腾讯科技(深圳)有限公司 | 信息处理方法、装置、电子设备、存储介质和程序产品 |
CN114169295A (zh) * | 2021-12-03 | 2022-03-11 | 阿里巴巴达摩院(杭州)科技有限公司 | 模型训练和文本生成方法、装置、电子设备和存储介质 |
CN114330512B (zh) * | 2021-12-13 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备及计算机可读存储介质 |
CN114416974A (zh) * | 2021-12-17 | 2022-04-29 | 北京百度网讯科技有限公司 | 模型训练方法、装置、电子设备及存储介质 |
CN114416984A (zh) * | 2022-01-12 | 2022-04-29 | 平安科技(深圳)有限公司 | 基于人工智能的文本分类方法、装置、设备及存储介质 |
CN114443845A (zh) * | 2022-01-20 | 2022-05-06 | 序跋网络科技(上海)有限公司 | 一种基于bert的多特征细粒度中文短文本情感分类方法 |
CN114550177B (zh) * | 2022-02-25 | 2023-06-20 | 北京百度网讯科技有限公司 | 图像处理的方法、文本识别方法及装置 |
CN114549935B (zh) * | 2022-02-25 | 2024-05-07 | 北京百度网讯科技有限公司 | 信息生成方法和装置 |
CN114547270B (zh) * | 2022-02-25 | 2023-04-21 | 北京百度网讯科技有限公司 | 文本处理方法、文本处理模型的训练方法、装置和设备 |
CN114693814B (zh) * | 2022-03-31 | 2024-04-30 | 北京字节跳动网络技术有限公司 | 模型的解码方法、文本识别方法、装置、介质及设备 |
CN115130473B (zh) * | 2022-04-20 | 2023-08-25 | 北京百度网讯科技有限公司 | 关键信息抽取方法、模型训练方法、相关装置及电子设备 |
CN114860873A (zh) * | 2022-04-22 | 2022-08-05 | 北京北大软件工程股份有限公司 | 一种生成文本摘要的方法、装置及存储介质 |
CN114579608B (zh) * | 2022-04-26 | 2022-08-02 | 阿里巴巴达摩院(杭州)科技有限公司 | 基于表格数据的人机交互方法、装置及设备 |
US20230409832A1 (en) * | 2022-06-16 | 2023-12-21 | International Business Machines Corporation | System and method for generating contrastive explanations for text guided by attributes |
CN115630142B (zh) * | 2022-12-08 | 2023-03-14 | 中国传媒大学 | 一种多语言长文本相似性检索与分类工具 |
CN116757254B (zh) * | 2023-08-16 | 2023-11-14 | 阿里巴巴(中国)有限公司 | 任务处理方法、电子设备及存储介质 |
US12008332B1 (en) | 2023-08-18 | 2024-06-11 | Anzer, Inc. | Systems for controllable summarization of content |
CN117094283B (zh) * | 2023-10-13 | 2024-02-13 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、电子设备、存储介质和程序产品 |
CN118132685B (zh) * | 2024-05-07 | 2024-08-20 | 恒生电子股份有限公司 | 文本处理模型训练方法及装置、文本处理方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8649600B2 (en) * | 2009-07-10 | 2014-02-11 | Palo Alto Research Center Incorporated | System and method for segmenting text lines in documents |
US9672814B2 (en) | 2015-05-08 | 2017-06-06 | International Business Machines Corporation | Semi-supervised learning of word embeddings |
WO2017061027A1 (ja) | 2015-10-09 | 2017-04-13 | 三菱電機株式会社 | 言語モデル生成装置、言語モデル生成方法とそのプログラム、音声認識装置、および音声認識方法とそのプログラム |
KR101897060B1 (ko) | 2016-10-24 | 2018-09-12 | 가천대학교 산학협력단 | 개체명 인식 모델 생성 장치 및 방법 |
CN108804512B (zh) * | 2018-04-20 | 2020-11-24 | 平安科技(深圳)有限公司 | 文本分类模型的生成装置、方法及计算机可读存储介质 |
US10963645B2 (en) * | 2019-02-07 | 2021-03-30 | Sap Se | Bi-directional contextualized text description |
CN110941945B (zh) * | 2019-12-02 | 2021-03-23 | 百度在线网络技术(北京)有限公司 | 语言模型预训练方法和装置 |
-
2020
- 2020-06-03 CN CN202010494419.2A patent/CN111832292B/zh active Active
- 2020-11-23 US US17/101,789 patent/US11663404B2/en active Active
- 2020-12-25 JP JP2020217584A patent/JP7122365B2/ja active Active
- 2020-12-28 EP EP20217428.0A patent/EP3920075A1/en active Pending
-
2021
- 2021-03-24 KR KR1020210037744A patent/KR102497945B1/ko active IP Right Grant
Non-Patent Citations (2)
Title |
---|
BERT-AL: BERT FOR ARBITRARILY LONG DOCUMENT UNDERSTANDING,2019年09月26日,[令和04年02月24日検索],インターネット<URL:https://openreview.net/forum?id=SklnVAEFDB> |
Transformer-XLを理解する,2020年04月11日,[令和04年02月21日検索],インターネット<URL:https://data-analytics.fun/2020/04/11/understanding-transformer-xl/> |
Also Published As
Publication number | Publication date |
---|---|
EP3920075A1 (en) | 2021-12-08 |
US20210383064A1 (en) | 2021-12-09 |
KR20210040851A (ko) | 2021-04-14 |
CN111832292B (zh) | 2024-02-02 |
US11663404B2 (en) | 2023-05-30 |
JP2021190087A (ja) | 2021-12-13 |
CN111832292A (zh) | 2020-10-27 |
KR102497945B1 (ko) | 2023-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7122365B2 (ja) | テキスト認識処理方法、装置、電子機器及び記憶媒体 | |
JP7194150B2 (ja) | ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器 | |
KR102350543B1 (ko) | 시맨틱 표현 모델의 처리 방법, 장치, 전자 기기 및 저장 매체 | |
KR102448129B1 (ko) | 엔티티 연결 방법, 장치, 기기 및 저장 매체 | |
EP3916611A1 (en) | Method, apparatus, computer program, and storage medium for training text generation model | |
JP2022013602A (ja) | テキスト中のイベント抽出方法、装置、電子機器及び記憶媒体 | |
JP7309798B2 (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
CN111274764B (zh) | 语言生成方法、装置、计算机设备及存储介质 | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
KR102541053B1 (ko) | 언어 모델에 기반한 단어 벡터 획득 방법, 장치, 기기 및 기록매체 | |
JP2021111416A (ja) | コアエンティティのタグ付け方法、コアエンティティのタグ付け装置、電子機器、記憶媒体及びコンピュータプログラム | |
US11537792B2 (en) | Pre-training method for sentiment analysis model, and electronic device | |
JP7096919B2 (ja) | エンティティワードの認識方法と装置 | |
CN114970522B (zh) | 语言模型的预训练方法、装置、设备、存储介质 | |
CN111709249B (zh) | 多语种模型的训练方法、装置、电子设备和存储介质 | |
CN111950292A (zh) | 文本纠错模型的训练方法、文本纠错处理方法和装置 | |
JP2021197131A (ja) | 機械翻訳におけるモデルトレーニング方法、装置、電子機器、プログラム及び記憶媒体 | |
CN112000792A (zh) | 自然灾害事件的抽取方法、装置、设备以及存储介质 | |
CN111831814A (zh) | 摘要生成模型的预训练方法、装置、电子设备和存储介质 | |
CN111666751B (zh) | 训练文本扩充方法、装置、设备以及存储介质 | |
CN112507101A (zh) | 一种建立预训练语言模型的方法和装置 | |
CN111126061B (zh) | 对联信息生成方法和装置 | |
JP7262519B2 (ja) | 質問の答えの決定方法、装置、機器及び記憶媒体 | |
CN111950293A (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN113902005A (zh) | 语言模型的预训练方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220808 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7122365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |