JP7121791B2 - 言語生成方法、装置及び電子機器 - Google Patents
言語生成方法、装置及び電子機器 Download PDFInfo
- Publication number
- JP7121791B2 JP7121791B2 JP2020215548A JP2020215548A JP7121791B2 JP 7121791 B2 JP7121791 B2 JP 7121791B2 JP 2020215548 A JP2020215548 A JP 2020215548A JP 2020215548 A JP2020215548 A JP 2020215548A JP 7121791 B2 JP7121791 B2 JP 7121791B2
- Authority
- JP
- Japan
- Prior art keywords
- target fragment
- vector
- target
- fragment
- language generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本出願の更なる態様の実施例は、コンピュータプログラムを提供し、前記コンピュータプログラムにおける命令が実行された場合に、本出願の実施例の言語生成方法が実行される。
ステップ101:事前設定されたエンコーダを使用して、入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成する。
入力シーケンスに対応する隠れた状態ベクトルは、入力シーケンスのベクトル表示を指す。
第1ターゲットフラグメントは、本出願の実施例に係るデコーダを使用して、入力シーケンスの隠れた状態ベクトルに基づいて、予測された入力シーケンス内のフラグメントを指す。
第2ターゲットフラグメントは、現在予測する必要がある入力シーケンス内のフラグメントを指す。
第2ターゲットフラグメントの粒度カテゴリは、文字やフレーズなどのカテゴリを含んでもよい。第2ターゲットフラグメントの粒度カテゴリが異なる場合、異なるデコーダを使用して第2ターゲットフラグメントを予測できることに留意されたい。
第1ターゲットフラグメントの位置ベクトルは、入力シーケンス内の第1ターゲットフラグメントの位置特徴のベクトル表示を指す。
第1位置は、第2ターゲットフラグメント内の1番目の文字の位置を指し、第2位置は、第2ターゲットフラグメント内の2番目の文字の位置を指す。
事前設定されたプレースホルダーベクトルを取得する。
同様に、上記ステップ103は、N個のデコーダを使用して、事前設定されたプレースホルダーベクトル、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するステップを含んでもよい。
図4は、本出願の実施例によって提供される別の言語生成方法の概略フローチャートである。
ステップ201:事前設定されたエンコーダを使用して、入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成する。
ステップ202:事前設定された分類器を使用して、隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定する。
ステップ203:第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成し、Nは、1を超えた整数である。
設定された言語生成シナリオに基づいて、対応する教師ありトレーニングサンプルを取得するステップと、教師ありトレーニングサンプルを使用して、更新後に生成された言語生成モデルに対し、パラメータ調整を行うステップと、パラメータ調整後の言語生成モデルに基づいて、設定された言語生成シナリオで言語生成を行うステップとを含む。
図5は、本出願の実施例によって提供される言語生成装置の概略構成図である。
Claims (19)
- 第1生成モジュールが事前設定されたエンコーダを使用して入力シーケンスをエンコードし、前記入力シーケンスに対応する隠れた状態ベクトルを生成するステップと、
第1決定モジュールが事前設定された分類器を使用して、前記隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定するステップと、
前記第2ターゲットフラグメントがフレーズである場合、第2生成モジュールがN個のデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するステップであって、Nは、1を超えた整数であるステップと、
第2決定モジュールがそれぞれ前記N個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定するステップと、
言語生成モジュールが前記損失値に基づいて、前記事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して、言語生成を行うステップと、を含む、
ことを特徴とする言語生成方法。 - 前記第2ターゲットフラグメントには、2つの文字が含まれ、前記N個のデコーダには、少なくとも第1デコーダ及び第2デコーダが含まれ、
第2生成モジュールが前記のN個のデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するステップは、
第2生成モジュールが前記第1デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する第1位置ベクトルをデコードし、第1位置にある第1候補文字を生成するステップと、
第2生成モジュールが前記第1デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記第1候補文字に対応するベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する第2位置ベクトルをデコードし、第2位置にある第1候補文字を生成するステップと、
第2生成モジュールが前記第1位置にある第1候補文字及び前記第2位置にある第1候補文字に基づいて、1番目の第2ターゲットフラグメントを生成するステップと、
第2生成モジュールが前記第2デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第1位置ベクトルをデコードし、前記第1位置にある第2候補文字を生成するステップと、
第2生成モジュールが前記第2デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2位置ベクトルをデコードし、前記第2位置にある第2候補文字を生成するステップと、
第2生成モジュールが前記第1位置にある第2候補文字及び前記第2位置にある第2候補文字に基づいて、2番目の第2ターゲットフラグメントを生成するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記第2ターゲットフラグメントに対応する第1位置ベクトルは、第1ターゲットフラグメントの位置ベクトルであり、前記第2ターゲットフラグメントに対応する第2位置ベクトルは、前記第1ターゲットフラグメントの位置ベクトル及び前記第2ターゲットフラグメントにおける1番目の文字の位置ベクトルである、
ことを特徴とする請求項2に記載の方法。 - 前記第2ターゲットフラグメントに対応する第1位置ベクトルは、前記第2ターゲットフラグメントにおける1番目の文字の位置ベクトルであり、前記第2ターゲットフラグメントに対応する第2位置ベクトルは、前記第2ターゲットフラグメントにおける2番目の文字の位置ベクトルであり、
前記N個の第2ターゲットフラグメントを生成する前に、
取得モジュールが事前設定されたプレースホルダーベクトルを取得するステップをさらに含み、
第2生成モジュールが前記のN個の第2ターゲットフラグメントを生成するステップは、
第2生成モジュールがN個のデコーダを使用して、前記事前設定されたプレースホルダーベクトル、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するステップを含む、
ことを特徴とする請求項2に記載の方法。 - 前記の予測対象の第2ターゲットフラグメントの粒度カテゴリを決定した後に、
前記第2ターゲットフラグメントが文字である場合、第3生成モジュールが前記文字に対応するデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び第1ターゲットフラグメントの位置ベクトルをデコードし、前記第2ターゲットフラグメントを生成するステップをさらに含む、
ことを特徴とする請求項1に記載の方法。 - 第2決定モジュールがそれぞれ前記N個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定するステップは、
第2決定モジュールが各第2ターゲットフラグメントと前記第2ターゲットタギングフラグメントとの間の差に基づいて、各損失基準値を決定するステップと、
第2決定モジュールが各損失基準値及び事前設定された重みに基づいて、前記損失値を決定するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 言語生成モジュールが前記の更新後に生成された言語生成モデルを使用して、言語生成を行うステップは、
言語生成モジュールが設定された言語生成シナリオに基づいて、対応する教師ありトレーニングサンプルを取得するステップと、
言語生成モジュールが前記教師ありトレーニングサンプルを使用して、前記更新後に生成された言語生成モデルのパラメータを調整するステップと、
言語生成モジュールがパラメータ調整後の言語生成モデルに従い、前記設定された言語生成シナリオで言語生成を行うステップとを含む、
ことを特徴とする請求項6に記載の方法。 - 前記設定された言語生成シナリオは、対話生成、機械翻訳、質問回答シナリオ及び要約生成の1つ又は複数の組み合わせを含む、
ことを特徴とする請求項7に記載の方法。 - 事前設定されたエンコーダを使用して、入力シーケンスをエンコードし、前記入力シーケンスに対応する隠れた状態ベクトルを生成するための第1生成モジュールと、
事前設定された分類器を使用して、前記隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定するための第1決定モジュールと、
前記第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するための第2生成モジュールであって、Nは、1を超えた整数である、第2生成モジュールと、
それぞれ前記N個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定するための第2決定モジュールと、
前記損失値に基づいて、前記事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して、言語生成を行うための言語生成モジュールと、を含む、
ことを特徴とする言語生成装置。 - 前記第2ターゲットフラグメントには、2つの文字が含まれ、前記N個のデコーダには、少なくとも第1デコーダ及び第2デコーダが含まれ、
前記第2生成モジュールは、具体的には、次の目的で使用され、
前記第1デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する第1位置ベクトルをデコードし、第1位置にある第1候補文字を生成し、
前記第1デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記第1候補文字に対応するベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する第2位置ベクトルをデコードし、第2位置にある第1候補文字を生成し、
前記第1位置にある第1候補文字及び前記第2位置にある第1候補文字に基づいて、1番目の第2ターゲットフラグメントを生成し、
前記第2デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第1位置ベクトルをデコードし、前記第1位置にある第2候補文字を生成し、
前記第2デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2位置ベクトルをデコードし、前記第2位置にある第2候補文字を生成し、
前記第1位置にある第2候補文字及び前記第2位置にある第2候補文字に基づいて、2番目の第2ターゲットフラグメントを生成する、
ことを特徴とする請求項9に記載の装置。 - 前記第2ターゲットフラグメントに対応する第1位置ベクトルは、第1ターゲットフラグメントの位置ベクトルであり、前記第2ターゲットフラグメントに対応する第2位置ベクトルは、前記第1ターゲットフラグメントの位置ベクトル及び前記第2ターゲットフラグメントにおける1番目の文字の位置ベクトルである、
ことを特徴とする請求項10に記載の装置。 - 前記第2ターゲットフラグメントに対応する第1位置ベクトルは、前記第2ターゲットフラグメントにおける1番目の文字の位置ベクトルであり、前記第2ターゲットフラグメントに対応する第2位置ベクトルは、前記第2ターゲットフラグメントにおける2番目の文字の位置ベクトルであり、
前記装置は、
事前設定されたプレースホルダーベクトルを取得するための取得モジュールと、
N個のデコーダを使用して、前記事前設定されたプレースホルダーベクトル、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するための前記第2生成モジュールと、をさらに含む、
ことを特徴とする請求項10に記載の装置。 - 前記第2ターゲットフラグメントが文字である場合、前記文字に対応するデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び第1ターゲットフラグメントの位置ベクトルをデコードし、前記第2ターゲットフラグメントを生成するための第3生成モジュールをさらに含む、
ことを特徴とする請求項9~12のいずれかに記載の装置。 - 前記第2決定モジュールは、具体的に、
各第2ターゲットフラグメントと前記第2ターゲットタギングフラグメントとの間の差に基づいて、各損失基準値を決定し、
各損失基準値及び事前設定された重みに基づいて、前記損失値を決定する、
ことを特徴とする請求項9~12のいずれかに記載の装置。 - 前記言語生成モジュールは、具体的に、
設定された言語生成シナリオに基づいて、対応する教師ありトレーニングサンプルを取得し、
前記教師ありトレーニングサンプルを使用して、前記更新後に生成された言語生成モデルのパラメータを調整し、
パラメータ調整後の言語生成モデルに従い、前記設定された言語生成シナリオで言語生成を行う
ことを特徴とする請求項14に記載の装置。 - 前記設定された言語生成シナリオは、対話生成、機械翻訳、質問回答シナリオ及び要約生成の1つ又は複数の組み合わせを含む、
ことを特徴とする請求項15に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を備え、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが、請求項1~8のいずれかに記載の方法を実行可能である、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~8のいずれかに記載の方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムにおける命令が実行された場合に、請求項1~8のいずれかに記載の方法が実行される、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010076479.2A CN111325000B (zh) | 2020-01-23 | 2020-01-23 | 语言生成方法、装置及电子设备 |
CN202010076479.2 | 2020-01-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021117989A JP2021117989A (ja) | 2021-08-10 |
JP7121791B2 true JP7121791B2 (ja) | 2022-08-18 |
Family
ID=71167031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020215548A Active JP7121791B2 (ja) | 2020-01-23 | 2020-12-24 | 言語生成方法、装置及び電子機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11562150B2 (ja) |
EP (1) | EP3855341A1 (ja) |
JP (1) | JP7121791B2 (ja) |
KR (1) | KR102517927B1 (ja) |
CN (1) | CN111325000B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539226B (zh) * | 2020-06-25 | 2023-07-04 | 北京百度网讯科技有限公司 | 语义理解框架结构的搜索方法和装置 |
CN111539225B (zh) * | 2020-06-25 | 2023-07-21 | 北京百度网讯科技有限公司 | 语义理解框架结构的搜索方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018132969A (ja) | 2017-02-16 | 2018-08-23 | 株式会社日立製作所 | 文章作成装置 |
JP2019537096A (ja) | 2016-09-26 | 2019-12-19 | グーグル エルエルシー | ニューラル機械翻訳システム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2488963A1 (en) * | 2009-10-15 | 2012-08-22 | Rogers Communications Inc. | System and method for phrase identification |
BR122020015657B1 (pt) * | 2011-03-09 | 2023-04-11 | Nec Corporation | Dispositivo de decodificação de vídeo e método de decodificação de vídeo |
CN106462579B (zh) * | 2014-10-15 | 2019-09-27 | 微软技术许可有限责任公司 | 为选定上下文构造词典 |
US9606980B2 (en) * | 2014-12-16 | 2017-03-28 | International Business Machines Corporation | Generating natural language text sentences as test cases for NLP annotators with combinatorial test design |
EP3520036B1 (en) * | 2016-10-03 | 2020-07-29 | Google LLC | Processing text sequences using neural networks |
US10380236B1 (en) | 2017-09-22 | 2019-08-13 | Amazon Technologies, Inc. | Machine learning system for annotating unstructured text |
CN107705784B (zh) * | 2017-09-28 | 2020-09-29 | 百度在线网络技术(北京)有限公司 | 文本正则化模型训练方法和装置、文本正则化方法和装置 |
CN107844480B (zh) * | 2017-10-21 | 2021-04-30 | 科大讯飞股份有限公司 | 将书面文本转换为口语文本的方法及系统 |
US11651166B2 (en) * | 2018-03-02 | 2023-05-16 | Nippon Telegraph And Telephone Corporation | Learning device of phrase generation model, phrase generation device, method, and program |
CN109086408B (zh) * | 2018-08-02 | 2022-10-28 | 腾讯科技(深圳)有限公司 | 文本生成方法、装置、电子设备及计算机可读介质 |
CN109858032A (zh) * | 2019-02-14 | 2019-06-07 | 程淑玉 | 融合Attention机制的多粒度句子交互自然语言推理模型 |
CN110209801B (zh) * | 2019-05-15 | 2021-05-14 | 华南理工大学 | 一种基于自注意力网络的文本摘要自动生成方法 |
CN110209817B (zh) | 2019-05-31 | 2023-06-09 | 安徽省泰岳祥升软件有限公司 | 文本处理模型的训练方法、装置和文本处理方法 |
CN110619034A (zh) * | 2019-06-27 | 2019-12-27 | 中山大学 | 基于Transformer模型的文本关键词生成方法 |
CN110717431B (zh) * | 2019-09-27 | 2023-03-24 | 华侨大学 | 一种结合多视角注意力机制的细粒度视觉问答方法 |
US11875116B2 (en) * | 2019-12-20 | 2024-01-16 | Intuit Inc. | Machine learning models with improved semantic awareness |
-
2020
- 2020-01-23 CN CN202010076479.2A patent/CN111325000B/zh active Active
- 2020-09-24 US US17/031,569 patent/US11562150B2/en active Active
- 2020-12-22 EP EP20216667.4A patent/EP3855341A1/en not_active Withdrawn
- 2020-12-24 JP JP2020215548A patent/JP7121791B2/ja active Active
-
2021
- 2021-01-22 KR KR1020210009148A patent/KR102517927B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019537096A (ja) | 2016-09-26 | 2019-12-19 | グーグル エルエルシー | ニューラル機械翻訳システム |
JP2018132969A (ja) | 2017-02-16 | 2018-08-23 | 株式会社日立製作所 | 文章作成装置 |
Non-Patent Citations (1)
Title |
---|
ALLAMAR Jay,The Illustrated GPT-2 (Visualizing Transformer Language Models),米国,2019年08月12日,インターネット<https://web.archive.org/web/20190812070114/https://jalammar.github.io/illustrated-gpt2/> |
Also Published As
Publication number | Publication date |
---|---|
US11562150B2 (en) | 2023-01-24 |
CN111325000B (zh) | 2021-01-26 |
KR102517927B1 (ko) | 2023-04-04 |
CN111325000A (zh) | 2020-06-23 |
JP2021117989A (ja) | 2021-08-10 |
KR20210095811A (ko) | 2021-08-03 |
EP3855341A1 (en) | 2021-07-28 |
US20210232775A1 (en) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
US11574133B2 (en) | Method, electronic device, and storage medium for training text generation model | |
KR102541053B1 (ko) | 언어 모델에 기반한 단어 벡터 획득 방법, 장치, 기기 및 기록매체 | |
CN111078865B (zh) | 文本标题生成方法和装置 | |
CN111274764B (zh) | 语言生成方法、装置、计算机设备及存储介质 | |
JP7149993B2 (ja) | 感情分析モデルの事前トレーニング方法、装置及び電子機器 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
CN110807331B (zh) | 一种多音字读音预测方法、装置和电子设备 | |
KR102630243B1 (ko) | 구두점 예측 방법 및 장치 | |
CN111737954A (zh) | 文本相似度确定方法、装置、设备和介质 | |
CN110782871B (zh) | 一种韵律停顿预测方法、装置以及电子设备 | |
JP7121791B2 (ja) | 言語生成方法、装置及び電子機器 | |
CN111611808B (zh) | 用于生成自然语言模型的方法和装置 | |
CN110767212B (zh) | 一种语音处理方法、装置和电子设备 | |
CN112232089B (zh) | 语义表示模型的预训练方法、设备和存储介质 | |
CN112541342B (zh) | 文本纠错方法、装置、电子设备及存储介质 | |
US20220138435A1 (en) | Method and apparatus for generating a text, and storage medium | |
CN113361712B (zh) | 特征确定模型的训练方法、语义分析方法、装置及电子设备 | |
US20220028370A1 (en) | Method and apparatus for recognizing speech, electronic device and storage medium | |
CN115952790A (zh) | 信息抽取方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220805 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7121791 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |