JP7121791B2 - 言語生成方法、装置及び電子機器 - Google Patents

言語生成方法、装置及び電子機器 Download PDF

Info

Publication number
JP7121791B2
JP7121791B2 JP2020215548A JP2020215548A JP7121791B2 JP 7121791 B2 JP7121791 B2 JP 7121791B2 JP 2020215548 A JP2020215548 A JP 2020215548A JP 2020215548 A JP2020215548 A JP 2020215548A JP 7121791 B2 JP7121791 B2 JP 7121791B2
Authority
JP
Japan
Prior art keywords
target fragment
vector
target
fragment
language generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020215548A
Other languages
English (en)
Other versions
JP2021117989A (ja
Inventor
チャン,ハン
シャオ,ドンリン
リ,ウキン
ソン,ウ
ティアン,ハオ
ウ,ファ
ワン,ハイフェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021117989A publication Critical patent/JP2021117989A/ja
Application granted granted Critical
Publication of JP7121791B2 publication Critical patent/JP7121791B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本出願は、コンピュータ技術分野に関し、特に自然言語処理技術分野に関し、言語生成方法、装置及び電子機器を提供する。
自然言語生成技術では、ディープニューラルネットワークを使用して、大規模な教師なしデータに対して自己監視学習を実行して、事前トレーニングモデルを生成し、具体的な言語生成タスクでは、このタイプのタスクの教師ありトレーニングデータに基づいて、事前トレーニングモデルに対し、パラメータの微調整を実行し、事前トレーニングモデルで移行学習を実行して、このタイプのタスクの言語生成モデルを生成する。
関連する技術では、言語生成の事前トレーニング/微調整フレームワークに基づく言語生成技術は、セマンティック表現モデリングに依存しており、トランスフォーマーからの双方向エンコーダ表現(Bidirectional Encoder Representation from Transformers,BERTと略す)モデルなどのセマンティック表現モデルは、通常、単一の文字をデコード単位とし、単一の文字に含まれるセマンティック情報が十分に豊富でないため、セマンティック表現モデルは、完全なテキストの全体的なセマンティクスを学習できず、それにより、言語生成モデルの精度が低くなる。
本出願により提供される言語生成(language generation)方法、装置及び電子機器は、関連する技術では、言語生成の事前トレーニング/微調整フレームワークに基づく言語生成技術が、セマンティック表現モデリングに依存しているが、セマンティック表現モデルが、通常、単一の文字をデコード単位とし、単一の文字に含まれるセマンティック情報が十分に豊富でないため、セマンティック表現モデルが、完全なテキストの全体的なセマンティクスを学習できず、それにより、言語生成モデルの精度が低くなるという問題を解決する。
本出願の一態様の実施例によって提供される言語生成方法は、事前設定されたエンコーダを使用して入力シーケンスをエンコードし、前記入力シーケンスに対応する隠れた状態ベクトルを生成するステップと、事前設定された分類器を使用して、前記隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定するステップと、前記第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するステップであって、Nは、1を超えた整数であるステップと、それぞれ前記N個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定するステップと、前記損失値に基づいて、前記事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して言語生成を行うステップと、を含む。
本出願の別の態様の実施例によって提供される言語生成装置は、事前設定されたエンコーダを使用して、入力シーケンスをエンコードし、前記入力シーケンスに対応する隠れた状態ベクトルを生成するための第1生成モジュールと、事前設定された分類器を使用して、前記隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定するための第1決定モジュールと、前記第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するための第2生成モジュールであって、Nは、1を超えた整数である、第2生成モジュールと、それぞれ前記N個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定するための第2決定モジュールと、前記損失値に基づいて、前記事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して、言語生成を行うための言語生成モジュールと、を含む。
本出願の更なる態様の実施例によって提供される電子機器は、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を備え、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが、前述の言語生成方法を実行可能である。
本出願の更なる態様の実施例は、コンピュータプログラムを提供し、前記コンピュータプログラムにおける命令が実行された場合に、本出願の実施例の言語生成方法が実行される。
本出願のもう1つの態様の実施例によって提供され、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、前記コンピュータに前述の言語生成方法を実行させることを特徴とする。
上記出願の実施例のいずれにも、以下の利点又は有益な効果がある。言語生成モデルの事前トレーニングプロセス中に、入力シーケンスのオリジナル基本文字単位に基づいて、異なる粒度の言語フラグメントを柔軟に構築し、複数のエンコーダを使用してフレーズの粒度のターゲットフラグメントを予測することにより、入力シーケンスの全体的なセマンティクスの学習効果を向上させ、言語生成モデルの精度を向上させる。事前設定されたエンコーダを使用して入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成し、事前設定された分類器を使用して、隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定し、第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成し、ここで、Nが1を超えた整数であり、その後、それぞれN個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定し、損失値に基づいて、事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して言語生成を行う技術的手段を採用するため、セマンティック表現モデルが、通常、単一の文字をデコード単位として、完全なテキストの全体的なセマンティクスを学習できず、それにより、言語生成モデルの精度が低くなるという問題を克服し、入力シーケンスの全体的なセマンティクスの学習効果を改善し、言語生成モデルの精度を向上させるという技術的効果を達成した。
上記の任意の方法の他の効果は、具体的な実施例と併せて以下に記載される。
添付の図面は、本技術案がよりよく理解されるためのものであり、本出願を限定するものではない。
本出願の実施例によって提供される言語生成方法の概略フローチャートである。 文字に対応するデコーダによって、ターゲットフラグメントを予測する概略図である。 本出願の実施例によって提供される、プレースホルダーベクトルを導入してターゲットフラグメントを予測する概略図である。 本出願の実施例によって提供される別の言語生成方法の概略フローチャートである。 本出願の実施例によって提供される言語生成装置の概略構成図である。 本出願の実施例によって提供される電子機器の概略構成図である。
以下、本出願の例示的な実施例を図面を参照して説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細を含んでおり、それらは単なる例示するものと見なされるべきである。したがって、当業者は、本出願の範囲及び趣旨から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを理解すべきである。同様に、明確及び簡潔するために、以下の説明では、周知の機能及び構成の説明を省略する。
本出願の実施例は、関連する技術の中で、言語生成の事前トレーニング/微調整フレームワークに基づく言語生成技術が、セマンティック表現モデリングに依存しているが、セマンティック表現モデルが、通常、単一の文字をデコード単位とし、単一の文字に含まれるセマンティック情報が十分に豊富でないため、セマンティック表現モデルが、完全なテキストの全体的なセマンティクスを学習できず、それにより、言語生成モデルの精度が低くなるという問題に対処し、言語生成方法を提案する。
本出願によって提供する言語生成方法、装置、電子機器及び記憶媒体について、添付の図面を参照して以下に詳細に説明する。
本出願の実施例によって提供される言語生成方法について、図1を参照して以下に詳細に説明する。
図1は、本出願の実施例によって提供される言語生成方法の概略フローチャートである。
図1に示すように、該言語生成方法は、以下のステップを含む。
ステップ101:事前設定されたエンコーダを使用して、入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成する。
本出願の実施例に係る言語生成方法は、本出願の実施例に係る言語生成装置によって実行できることに留意されたい。本出願の実施例に係る言語生成装置は、本出願の実施例に限定されず、携帯電話、コンピュータ、パーソナルデジタルアシスタント、ヒューマンコンピュータインタラクション音声機器、スマートロボット、ウェアラブル装置などの任意の電子機器に配置されてもよい。
入力シーケンスは、言語生成モデルをトレーニングするためのトレーニングサンプルを指し、例えば、テキスト情報であってもよい。
入力シーケンスに対応する隠れた状態ベクトルは、入力シーケンスのベクトル表示を指す。
本出願の実施例において、事前設定されたエンコーダは、本出願の実施例に限定されず、自然な音声のベクトル表現が可能な任意のモデルであってもよい。言語生成モデルのトレーニングプロセスでは、トレーニングサンプルセットを予め作成し、トレーニングサンプルセット内の各トレーニングサンプルを入力シーケンスとして、事前設定されたエンコーダにそれぞれ入力することで、事前設定されたエンコーダを使用して入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成することができる。
ステップ102:事前設定された分類器を使用して、隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定する。
事前設定された分類器は、入力シーケンスにおける予測対象のフラグメントの粒度カテゴリを決定できる、事前にトレーニングされた分類モデルを指す。
第1ターゲットフラグメントは、本出願の実施例に係るデコーダを使用して、入力シーケンスの隠れた状態ベクトルに基づいて、予測された入力シーケンス内のフラグメントを指す。
第2ターゲットフラグメントは、現在予測する必要がある入力シーケンス内のフラグメントを指す。
第2ターゲットフラグメントの粒度カテゴリは、文字やフレーズなどのカテゴリを含んでもよい。第2ターゲットフラグメントの粒度カテゴリが異なる場合、異なるデコーダを使用して第2ターゲットフラグメントを予測できることに留意されたい。
本出願の実施例において、事前設定された分類器で入力シーケンスに対応する隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類処理し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定して出力することができ、例えば、事前設定された分類器の出力が「0」である場合、予測対象の第2ターゲットフラグメントの粒度カテゴリが文字であることを意味し、事前設定された分類器の出力が「1」である場合、予測対象の第2ターゲットフラグメントの粒度カテゴリがフレーズであることを意味する。入力シーケンスの初めての予測が現在実行されている場合、即ち、第2ターゲットフラグメントが入力シーケンス内の1番目のフラグメントである場合、生成された第1ターゲットフラグメントベクトルが空であってもよく、即ち、事前設定された分類器が、入力シーケンスに対応する隠れた状態ベクトルに基づいて、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定することができることに留意されたい。
さらに、第2ターゲットフラグメントの粒度カテゴリが文字であると決定された場合、その文字に対応するデコーダを使用して、第2ターゲットフラグメントを予測することができる。即ち、本出願の実施例の可能な実施形態において、上記のステップ102の後、以下のステップを含んでもよい。
第2ターゲットフラグメントが文字である場合、文字に対応するデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第1ターゲットフラグメントの位置ベクトルをデコードし、第2ターゲットフラグメントを生成する。
第1ターゲットフラグメントの位置ベクトルは、入力シーケンス内の第1ターゲットフラグメントの位置特徴のベクトル表示を指す。
例えば、図2に示すように、文字に対応するデコーダによって、ターゲットフラグメントを予測する概略図である。ここで、nは、入力シーケンスに含まれる文字数であり、第2ターゲットフラグメントがtの場合、第1ターゲットフラグメントがtであり、第1ターゲットフラグメントの位置ベクトルは、入力シーケンス内のtの位置特徴のベクトル表現を指し、第2ターゲットフラグメントがtの場合、第1ターゲットフラグメントがt及びtを含み、第1ターゲットフラグメントの位置ベクトルは、入力シーケンス内のt及びtの位置特徴のベクトル表示を指す。
本出願の実施例において、文字に対応するデコーダを事前にトレーニングすることができ、その結果、第2ターゲットフラグメントが文字であると決定された場合、文字に対応するデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル即ち第1ターゲットフラグメントの位置ベクトルをデコードし、第2ターゲットフラグメントを生成することができる。第2ターゲットフラグメントが文字である場合、第2ターゲットフラグメントの生成が入力シーケンスの隠れた状態ベクトル、及びその前に生成された全ての第1ターゲットフラグメントベクトル及び第1ターゲットフラグメントの位置ベクトルに依存することに留意されたい。
例えば、図2に示すように、第2ターゲットフラグメントがtである場合、文字に対応するデコーダで隠れた状態ベクトルをデコードし、第2ターゲットフラグメントtを生成することができ、第2ターゲットフラグメントがtである場合、文字に対応するデコーダで隠れた状態ベクトル、第1ターゲットフラグメントtのベクトル、第1ターゲットフラグメントtの位置ベクトルをデコードし、第2ターゲットフラグメントtを生成することができ、第2ターゲットフラグメントがtである場合、文字に対応するデコーダで、隠れた状態ベクトル、第1ターゲットフラグメントt及びtのベクトル、第1ターゲットフラグメントt及びtの位置ベクトルをデコードして、第2ターゲットフラグメントtを生成することができ、類推により、入力シーケンス内の各文字粒度のフラグメントを順次予測できる。
ステップ103:第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成し、Nは、1を超えた整数である。
第2ターゲットフラグメントがフレーズである場合、第2ターゲットフラグメントに含まれる各文字を予測し、予測された各文字を使用して、ターゲットフラグメントを生成することに留意されたい。
第2ターゲットフラグメントに対応する位置ベクトルは、第2ターゲットフラグメント内の現在予測されている文字の位置に関連している。具体的には、現在予測されている文字が第2ターゲットフラグメントにおける初めての文字である場合、第2ターゲットフラグメントに対応する位置ベクトルは、第1ターゲットフラグメントの位置ベクトルであり、現在予測されている文字が第2ターゲットフラグメント内の初めての文字でない場合、第2ターゲットフラグメントに対応する位置ベクトルには、第1ターゲットフラグメントの位置ベクトルと、現在予測されている文字の前の第2ターゲットフラグメント内の各文字の位置ベクトルとが含まれている。
本出願の実施例において、フレーズ予測の精度を改善するために、フレーズを予測するための複数のデコーダを事前にトレーニングして、異なる粒度からフレーズを予測することができる。したがって、第2ターゲットフラグメントがフレーズであると決定された場合、N個のデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをデコードできる。 各デコーダは、それぞれ1つの第2ターゲットフラグメントを生成することができ、それによってN個の第2ターゲットフラグメントを生成する。
可能な実装方法として、2つのデコーダを使用して、2つの粒度からフレーズの粒度の第2ターゲットフラグメントをそれぞれ予測することができる。第2ターゲットフラグメントには、2つの文字が含まれ、N個のデコーダが少なくとも第1デコーダ及び第2デコーダを含む場合について、以下に詳細に説明する。即ち、本出願の実施例の可能な実施形態において、上記ステップ103は、以下のステップを含んでもよい。
第1デコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する第1位置ベクトルをデコードし、第1位置にある第1候補文字を生成し、第1デコーダを使用して、第1ターゲットフラグメントベクトル、第1候補文字に対応するベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する第2位置ベクトルをデコードし、第2位置にある第1候補文字を生成し、第1位置にある第1候補文字及び第2位置にある第1候補文字に基づいて、1番目の第2ターゲットフラグメントを生成し、第2デコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第1位置ベクトルをデコードし、第1位置にある第2候補文字を生成し、第2デコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2位置ベクトルをデコードし、第2位置にある第2候補文字を生成し、第1位置にある第2候補文字及び第2位置にある第2候補文字に基づいて、2番目の第2ターゲットフラグメントを生成する。
第2ターゲットフラグメントに対応する第1位置ベクトルは、第1ターゲットフラグメントの位置ベクトルであり、第2ターゲットフラグメントに対応する第2位置ベクトルは、第1ターゲットフラグメントの位置ベクトル及び第2ターゲットフラグメントにおける1番目の文字の位置ベクトルである。
第1位置は、第2ターゲットフラグメント内の1番目の文字の位置を指し、第2位置は、第2ターゲットフラグメント内の2番目の文字の位置を指す。
本出願の実施例において、第1デコーダは、文字粒度からフレーズ粒度の第2ターゲットフラグメントを予測でき、第1デコーダを使用して第2ターゲットフラグメントにおける1番目の文字を予測するとき、第1デコーダは、生成された第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第1ターゲットフラグメントの位置ベクトルをデコードし、第2ターゲットフラグメントの第2位置にある第1候補文字、即ち第2ターゲットフラグメントにおける1番目の文字を生成する。つまり、第1デコーダを使用して第2ターゲットフラグメントにおける1番目の文字を予測するとき、入力シーケンスの隠れた状態ベクトル、及びその前に生成された全ての第1ターゲットフラグメントベクトル及び第1ターゲットフラグメントの位置ベクトルに依存する。
同様に、第2ターゲットフラグメントにおける1番目の文字を予測完了した後、第1デコーダを使用して第2ターゲットフラグメントにおける2番目の文字を予測でき、第1デコーダを使用して、生成された第1ターゲットフラグメントベクトル、第1候補文字に対応するベクトル、隠れた状態ベクトル、第1ターゲットフラグメントの位置ベクトル及び第2ターゲットフラグメントにおける1番目の文字の位置ベクトルをデコードし、第2ターゲットフラグメントにおける第2位置にある第1候補文字、即ち、第2ターゲットフラグメントにおける2番目の文字を生成する。つまり、第1デコーダを使用して第2ターゲットフラグメントにおける2番目の文字を予測するとき、入力シーケンスの隠れた状態ベクトル、及びその前に生成された全ての第1ターゲットフラグメントベクトル及び第1ターゲットフラグメントの位置ベクトルに依存するだけでなく、第2ターゲットフラグメントにおける1番目の文字に対応するベクトル及び位置ベクトルにも依存する。
第1デコーダを使用して、第1位置にある第1候補文字及び第2位置にある第1候補文字を決定した後、これらの第1候補文字を使用して、1番目の第2ターゲットフラグメントを構成することができる。
本出願の実施例において、第2デコーダは、フレーズ粒度からフレーズ粒度の第2ターゲットフラグメントを予測でき、第2デコーダを使用して第2ターゲットフラグメントにおける1番目の文字を予測するとき、第2デコーダは、生成された第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第1ターゲットフラグメントの位置ベクトルをデコードして、第2ターゲットフラグメントの第2位置にある第2候補文字、即ち、第2ターゲットフラグメントにおける1番目の文字を生成することができる。つまり、第2デコーダを使用して第2ターゲットフラグメントにおける1番目の文字を予測するとき、入力シーケンスの隠れた状態ベクトル、及びその前に生成された全ての第1ターゲットフラグメントベクトル及び第1ターゲットフラグメントの位置ベクトルに依存する。
同様に、第2ターゲットフラグメントにおける1番目の文字を予測完了した後、第2デコーダを使用して第2ターゲットフラグメントにおける2番目の文字を予測でき、第2デコーダを使用して、生成された第1ターゲットフラグメントベクトル、隠れた状態ベクトル、第1ターゲットフラグメントの位置ベクトル及び第2ターゲットフラグメントにおける1番目の文字の位置ベクトルをデコードして、第2ターゲットフラグメントの第2位置にある第2候補文字、即ち、第2ターゲットフラグメントにおける2番目の文字を生成することができる。つまり、第2デコーダを使用して第2ターゲットフラグメントにおける2番目の文字を予測するとき、入力シーケンスの隠れた状態ベクトル、及びその前に生成された全ての第1ターゲットフラグメントベクトル及び第1ターゲットフラグメントの位置ベクトルだけでなく、第2ターゲットフラグメントにおける1番目の文字の位置ベクトルにも依存するが、1番目の文字のベクトル、即ち1番目の文字のセマンティクスに依存しない。
第2デコーダを使用して、第1位置にある第2候補文字及び第2位置にある第2候補文字を決定した後、第1位置にある第2候補文字及び第2位置にある第2候補文字を使用して、2番目の第2ターゲットフラグメントを構成することができる。
さらに、第2ターゲットフラグメントにおける各文字を予測するとき、現在予測している文字の位置特徴を導入でき、予測の精度をさらに向上させる。即ち、本出願の実施例の可能な実施形態において、前述のステップ103の前に、以下のステップを含んでもよい。
事前設定されたプレースホルダーベクトルを取得する。
同様に、上記ステップ103は、N個のデコーダを使用して、事前設定されたプレースホルダーベクトル、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するステップを含んでもよい。
第2ターゲットフラグメントにおける各文字を予測するとき、第2ターゲットフラグメントの予測精度を向上させるために、現在予測されている文字の位置ベクトルを導入する必要があることに留意されたい。ただし、文字を予測する前に該文字の位置ベクトルを知ることはできないというデコーダの特性で、入力シーケンスの各文字の後に、事前設定されたプレースホルダーベクトルを導入し、プレースホルダーベクトル及び生成された第1ターゲットフラグメントの位置ベクトルに基づいて、現在予測されている文字の位置ベクトルを決定することができる。以下、第2ターゲットフラグメントには2つの文字が含まれ、N個のデコーダには、第1デコーダ及び第2デコーダが含まれる例として、具体的に説明する。
本出願の実施例において、第1デコーダは、文字粒度からフレーズ粒度の第2ターゲットフラグメントを予測でき、第1デコーダを使用して第2ターゲットフラグメントにおける1番目の文字を予測するとき、第1デコーダは、まず第2ターゲットフラグメントに対応する事前設定されたプレースホルダーベクトル及び第2ターゲットフラグメントに対応する位置ベクトル(即ち、第1ターゲットフラグメントの位置ベクトル)に基づいて、第2ターゲットフラグメントに対応する第1位置ベクトル(即ち、第2ターゲットフラグメントにおける1番目の文字の位置ベクトル)及び第2位置ベクトル(即ち、第2ターゲットフラグメントにおける2番目の文字の位置ベクトル)を決定可能であり、その後、第1エンコーダは、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントにおける1番目の文字の位置ベクトルをデコードして、第1位置にある第1候補文字を生成でき、第1デコーダは、第1ターゲットフラグメントベクトル、第1候補文字に対応するベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントにおける2番目の文字の位置ベクトルをデコードし、第2位置にある第1候補文字を生成し、第1位置にある第1候補文字及び第2位置にある第1候補文字に基づいて、1番目の第2ターゲット候補フラグメントを生成する。
同様に、第2デコーダは、フレーズ粒度からフレーズ粒度の第2ターゲットフラグメントを予測でき、第2デコーダを使用して第2ターゲットフラグメントにおける1番目の文字を予測するとき、第2デコーダは、まず第2ターゲットフラグメントに対応する事前設定されたプレースホルダーベクトル及び第2ターゲットフラグメントに対応する位置ベクトル(即ち、第1ターゲットフラグメントの位置ベクトル)に基づいて、第2ターゲットフラグメントに対応する第1位置ベクトル(即ち、第2ターゲットフラグメントにおける1番目の文字の位置ベクトル)及び第2位置ベクトル(即ち、第2ターゲットフラグメントにおける2番目の文字の位置ベクトル)を決定し、その後、第2デコーダは、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントにおける1番目の文字の位置ベクトルをデコードして、第1位置にある第2候補文字を生成でき、そして、第2デコーダは、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントにおける2番目の文字の位置ベクトルをデコードして、第2位置にある第2候補文字を生成し、第1位置にある第2候補文字及び第2位置にある第2候補文字に基づいて、2番目の第2ターゲット候補フラグメントを生成する。
例えば、図3に示すように、[A]は、事前設定されたプレースホルダーベクトルであり、第2ターゲットフラグメントがt及びtからなるフレーズである場合、tを予測するとき、第1デコーダは、まず、第2ターゲットフラグメントに対応する事前設定されたプレースホルダーベクトル及びtの位置ベクトルに基づいて、tの位置ベクトル及びtの位置ベクトルを決定し、その後、第1デコーダは、第1ターゲットフラグメントtのベクトル、隠れた状態ベクトル及びtの位置ベクトルをデコードして、t位置にある第1候補文字を生成し、第1デコーダは、第1ターゲットフラグメントベクトル、第1候補文字tのベクトル、隠れた状態ベクトル及びtの位置ベクトルをデコードして、t位置にある第1候補文字を生成し、t位置にある第1候補文字及びt位置にある第1候補文字に基づいて、1番目の第2ターゲット候補フラグメントを生成する。
同様に、第2デコーダは、まず、第2ターゲットフラグメントに対応する事前設定されたプレースホルダーベクトル及びtの位置ベクトルに基づいて、tの位置ベクトル及びtの位置ベクトルを決定し、その後、第2デコーダは、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及びtの位置ベクトルをデコードして、t位置にある第2候補文字を生成でき、第2デコーダは、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及びtの位置ベクトルをデコードして、t位置にある第2候補文字を生成し、t位置にある第2候補文字及びt位置にある第2候補文字に基づいて、2番目の第2ターゲット候補フラグメントを生成する。
ステップ104:それぞれN個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定する。
第2ターゲットタギングフラグメントは、入力シーケンス内の第2ターゲットフラグメントの対応する位置にあるオリジナル言語フラグメントであってもよく、入力シーケンス内の第2ターゲットフラグメントの対応する位置にあるタギングデータであってもよい。
第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差は、第2ターゲットフラグメントベクトルと第2ターゲットタギングフラグメントベクトルとの間のベクトル距離によって測定することができ、本出願の実施例に限定されない。
具体的には、第2ターゲットフラグメントベクトルと第2ターゲットタギングフラグメントベクトルとの間のベクトル距離が大きいほど、該第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差が大きくなり、したがって該第2ターゲットフラグメントに対応する損失値が大きくなり、逆に、第2ターゲットフラグメントベクトルと第2ターゲットタギングフラグメントベクトルとの間のベクトル距離が小さいほど、該第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差が小さくなり、該第2ターゲットフラグメントに対応する損失値が小さくなる。
本出願の実施例において、第2ターゲットタギングフラグメントを使用して最適な予測結果を示すことができるため、予測された各第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差を使用して、モデル予測精度を測定でき、それぞれN個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差を使用して、損失値を決定することができる。
必要に応じて、N個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差の合計を損失値として決定することができる。
ステップ105:損失値に基づいて、事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して、言語生成を行う。
本出願の実施例において、損失値を決定した後、損失値を逆方向に渡すことができ、事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダのパフォーマンスを改善するために、事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダのパラメータを勾配降下最適化アルゴリズムによって更新させ、更新後の事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダを使用して、入力シーケンスを予測することによって得られる損失値が損失値の閾値を下回るまで、更新されたモデルがパフォーマンス要件を満たしていると判断でき、更新後の事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダを使用して、言語生成用の言語生成モデルを生成できる。
本出願の実施例の技術的解決手段によれば、事前設定されたエンコーダを使用して入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成し、事前設定された分類器を使用して、隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定し、第2ターゲットフラグメントの粒度カテゴリがフレーズである場合、N個のデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成し、Nが1を超えた整数であり、それぞれN個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定し、損失値に基づいて、前記事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して言語生成を行う。したがって、言語生成モデルの事前トレーニングプロセス中に、入力シーケンスのオリジナル基本文字単位に基づいて、異なる粒度の言語フラグメントを柔軟に構築し、複数のエンコーダを使用してフレーズ粒度のターゲットフラグメントを予測することにより、入力シーケンスの全体的なセマンティクスの学習効果を向上させ、言語生成モデルの精度を向上させる。
本出願の可能な実施形態において、N個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差を、事前設定された重みでマージして損失値を生成し、損失値の信頼性をさらに向上することができる。
以下、本出願の実施例によって提供される言語生成方法を、図4と併せてさらに説明する。
図4は、本出願の実施例によって提供される別の言語生成方法の概略フローチャートである。
図4に示すように、該言語生成方法は、以下のステップを含む。
ステップ201:事前設定されたエンコーダを使用して、入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成する。
ステップ202:事前設定された分類器を使用して、隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定する。
ステップ203:第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成し、Nは、1を超えた整数である。
上記ステップ201~203の具体的な実施プロセス及び原理については、上記実施例の詳細な説明を参照することができ、ここでは説明を繰り返さない。
ステップ204:各第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、各損失基準値を決定する。
本出願の実施例において、第2ターゲットフラグメントベクトルと第2ターゲットタギングフラグメントベクトルとの間のベクトル距離を使用して、第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差を測定でき、これは本出願の実施例に限定されない。
具体的には、第2ターゲットフラグメントベクトルと第2ターゲットタギングフラグメントベクトルとの間のベクトル距離が大きいほど、該第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差が大きくなり、したがって該第2ターゲットフラグメントに対応する損失基準値が大きくなり、逆に、第2ターゲットフラグメントベクトルと第2ターゲットタギングフラグメントベクトルとの間のベクトル距離が小さいほど、該第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差が小さくなり、該第2ターゲットフラグメントに対応する損失基準値が小さくなる。
ステップ205:各損失基準値及び事前設定された重みに基づいて、損失値を決定する。
本出願の実施例において、各デコーダは、モデルトレーニングプロセスで異なる役割を果たす可能性があるため、各デコーダの予測結果の損失基準値をマージする場合、異なるデコーダに対して異なる重みを事前に設定できるため、最終的に得られた損失値は、各デコーダの予測結果の損失基準値をマージするだけでなく、モデルトレーニングプロセスにおける各デコーダの重要性もマージするため、最終的に決定された損失値の信頼性が高くなり、更新されたモデルパフォーマンスも向上された。
可能な実施形態として、各第2ターゲットフラグメントに対応する損失基準値を決定した後、各損失基準値に対応する事前設定された重みに従って、各損失基準値の加重和を決定してもよく、各損失基準値の加重和を損失値として決定する。
例えば、N個のデコーダは、第1デコーダ及び第2デコーダを含み、第1デコーダに対応する事前設定された重みがλで、第2デコーダに対応する重みが1-λで、第1デコーダにより予測された第2ターゲットフラグメントに対応する損失基準値がLossであり、第2デコーダにより予測された第2ターゲットフラグメントに対応する損失基準値がLossであり、決定した損失値がLosstotal=λLoss+(1-λ)Lossである。
ステップ206:損失値に基づいて、事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して言語生成を行う。
本出願の実施例において、損失値を決定した後、損失値を逆方向に渡すことができ、事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダのパフォーマンスを改善するために、事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダのパラメータを勾配降下最適化アルゴリズムによって更新させ、更新後の事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダを使用して、入力シーケンスを予測することによって得られる損失値が損失値の閾値を下回るまで、更新されたモデルがパフォーマンス要件を満たしていると判断でき、更新後の事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダを使用して、言語生成用の言語生成モデルを生成できる。
さらに、異なる言語生成シナリオでは、異なる教師ありサンプルを使用して言語生成モデルのパラメータを調整し、該言語生成シナリオに適した言語生成モジュールを生成できる。即ち、本出願の実施例の可能な実施形態において、上記ステップ206は、以下を含んでもよい。
設定された言語生成シナリオに基づいて、対応する教師ありトレーニングサンプルを取得するステップと、教師ありトレーニングサンプルを使用して、更新後に生成された言語生成モデルに対し、パラメータ調整を行うステップと、パラメータ調整後の言語生成モデルに基づいて、設定された言語生成シナリオで言語生成を行うステップとを含む。
設定された言語生成シナリオは、対話生成、機械翻訳、質問回答シナリオ及び要約生成の1つ又は複数の組み合わせを含んでもよい。
本出願の実施例において、異なる言語生成シナリオには言語生成モデルの異なるパフォーマンス要件があるため、対応する教師ありトレーニングサンプルを異なる言語生成シナリオに設定して、教師ありトレーニングサンプルに従って更新された言語生成モデルを微調整できる。したがって、本出願の実施例において、言語生成モデルを更新した後、現在設定された言語生成シナリオに基づいて、対応する教師ありトレーニングサンプルを取得し、教師ありトレーニングサンプルを更新された言語生成モデルに入力し、更新された言語生成モデルによる教師ありトレーニングサンプルの予測結果と、教師ありトレーニングサンプルのタギングデータとはかなり異なる場合、パラメータ調整された言語生成モデルによる、教師ありトレーニングサンプルの予測結果がパフォーマンス要件を満たすまで、更新後に生成された言語生成モデルに対し、パラメータ調整を行い、そしてパラメータ調整された言語生成モデルを言語生成に使用できる。
本出願の実施例の技術的解決手段によれば、事前設定されたエンコーダを使用して入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成し、事前設定された分類器を使用して、隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定し、第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成し、Nが1を超えた整数であり、各第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、各損失基準値を決定し、各損失基準値及び事前設定された重みに基づいて、損失値を決定し、損失値に基づいて、前記事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して言語生成を行う。したがって、言語生成モデルの事前トレーニングプロセス中に、入力シーケンスのオリジナル基本文字単位に基づいて、異なる粒度の言語フラグメントを柔軟に構築し、複数のエンコーダを使用してフレーズ粒度のターゲットフラグメントを予測することにより、入力シーケンスの全体的なセマンティクスの学習効果を向上させ、言語生成モデルの精度及び汎用性を向上させる。
上記の実施例を実現するために、本出願は、言語生成装置をさらに提案する。
図5は、本出願の実施例によって提供される言語生成装置の概略構成図である。
図5に示すように、該言語生成装置30は、事前設定されたエンコーダを使用して、入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成するための第1生成モジュール31と、事前設定された分類器を使用して、隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定するための第1決定モジュール32と、第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するための第2生成モジュール33において、Nは、1を超えた整数である、第2生成モジュール33と、それぞれN個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定するための第2決定モジュール34と、損失値に基づいて、事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して、言語生成を行うための言語生成モジュール35と、を含む。
実際の使用において、本出願の実施例によって提供される言語生成装置は、前述の言語生成方法を実行するために、任意の電子機器に配置されてもよい。
本出願の実施例の技術的手段によれば、事前設定されたエンコーダを使用して入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成し、事前設定された分類器を使用して、隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定し、第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成し、Nが1を超えた整数であり、それぞれN個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定し、損失値に基づいて、前記事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して言語生成を行う。したがって、言語生成モデルの事前トレーニングプロセス中に、入力シーケンスのオリジナル基本文字単位に基づいて、異なる粒度の言語フラグメントを柔軟に構築し、複数のエンコーダを使用してフレーズ粒度のターゲットフラグメントを予測することにより、入力シーケンスの全体的なセマンティクスの学習効果を向上させ、言語生成モデルの精度を向上させる。
本出願の可能な実施形態において、上記第2ターゲットフラグメントには2つの文字が含まれ、上記N個のデコーダは、少なくとも第1デコーダ及び第2デコーダを含み、同様に、上記第2生成モジュール33は、具体的には、次の目的で使用され、第1デコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する第1位置ベクトルをデコードし、第1位置にある第1候補文字を生成し、第1デコーダを使用して、第1ターゲットフラグメントベクトル、第1候補文字に対応するベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する第2位置ベクトルをデコードし、第2位置にある第1候補文字を生成し、第1位置にある第1候補文字及び第2位置にある第1候補文字に基づいて、1番目の第2ターゲットフラグメントを生成し、第2デコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第1位置ベクトルをデコードし、第1位置にある第2候補文字を生成し、第2デコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2位置ベクトルをデコードし、第2位置にある第2候補文字を生成し、第1位置にある第2候補文字及び第2位置にある第2候補文字に基づいて、2番目の第2ターゲットフラグメントを生成する。
さらに、本出願の別の可能な実施形態において、上記第2ターゲットフラグメントに対応する第1位置ベクトルは、第1ターゲットフラグメントの位置ベクトルであり、第2ターゲットフラグメントに対応する第2位置ベクトルは、第1ターゲットフラグメントの位置ベクトル及び第2ターゲットフラグメントにおける1番目の文字の位置ベクトルである。
さらに、本出願の更なる別の可能な実施形態において、上記第2ターゲットフラグメントに対応する第1位置ベクトルは、第2ターゲットフラグメントにおける1番目の文字の位置ベクトルであり、第2ターゲットフラグメントに対応する第2位置ベクトルは、第2ターゲットフラグメントにおける2番目の文字の位置ベクトルであり、同様に、上記言語生成装置30は、事前設定されたプレースホルダーベクトルを取得するための取得モジュールをさらに含み、同様に、上記第2生成モジュール33は、また、N個のデコーダを使用して、事前設定されたプレースホルダーベクトル、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するために使用される。
さらに、本出願の別の可能な実施形態において、上記言語生成装置30は、第2ターゲットフラグメントが文字である場合、文字に対応するデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及第1ターゲットフラグメントの位置ベクトルをデコードして、第2ターゲットフラグメントを生成するための第3生成モジュールを、さらに含む。
本出願の可能な実施形態において、上記第2決定モジュール34は、具体的には、次の目的で使用され、各第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、各損失基準値を決定し、各損失基準値及び事前設定された重みに基づいて、損失値を決定する。
本出願の可能な実施形態において、上記言語生成モジュール35、具体的には、次の目的で使用され、設定された言語生成シナリオに基づいて、対応する教師ありトレーニングサンプルを取得し、教師ありトレーニングサンプルを使用して、更新後に生成された言語生成モデルに対して、パラメータ調整を行い、パラメータ調整された言語生成モデルをに基づいて、設定された言語生成シナリオで言語生成を行う。
さらに、本出願の別の可能な実施形態において、上記設定された言語生成シナリオは、対話生成、機械翻訳、質問回答シナリオ及び要約生成の1つ又は複数の組み合わせを含む。
図1、図4に示される言語生成方法の実施例の前述の説明は、該実施例の言語生成装置30にも適用可能であり、ここでは説明を繰り返されないことに留意されたい。
本出願の実施例の技術的手段によれば、事前設定されたエンコーダを使用して入力シーケンスをエンコードし、入力シーケンスに対応する隠れた状態ベクトルを生成し、事前設定された分類器を使用して、隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定し、第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、第1ターゲットフラグメントベクトル、隠れた状態ベクトル及び第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成し、Nが1を超えた整数であり、各第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、各損失基準値を決定し、各損失基準値及び事前設定された重みに基づいて、損失値を決定し、損失値に基づいて、前記事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して言語生成を行う。したがって、言語生成モデルの事前トレーニングプロセス中に、入力シーケンスのオリジナル基本文字単位に基づいて、異なる粒度の言語フラグメントを柔軟に構築し、複数のエンコーダを使用してフレーズの粒度のターゲットフラグメントを予測することにより、入力シーケンスの全体的なセマンティクスの学習効果を向上させ、言語生成モデルの精度及び汎用性を向上させる。
本出願の実施例によれば、本出願は、電子機器及び読取可能な記憶媒体をさらに提供する。本出願の実施例によれば、コンピュータプログラムが提供される。当該コンピュータプログラムにおける命令が実行された場合に、上記言語生成方法が実行される。
図6に示すように、本出願の実施例の言語生成方法に係る電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバー、ブレードサーバー、メインフレームコンピュータ、その他の適切なコンピュータなど、様々なな形式のデジタルコンピュータを表すことを目的としている。電子機器は、パーソナルデジタル処理、セルラー、スマートフォン、ウェアラブルデバイス、及びその他の同様のコンピューティングデバイスなど、様々な形式のモバイルデバイスを表すこともできる。ここに示されている部材、それらの接続と関係、及びそれらの機能は、単なる例であり、ここで説明及び/又は必要とされる本出願の実現を制限することを意図したものではない。
図6に示すように、該電子機器には、1つ又は複数のプロセッサ401、メモリ402、及び、高速インターフェースと低速インターフェースを含む各部材を接続するためのインターフェースが含まれる。各部材は、異なるバスで相互に接続されており、共通のマザーボードに取り付けられてもよいか、又は、必要に応じて他の方法で取り付けられてもよい。プロセッサは、電子機器内に実行された命令を処理可能であり、該命令は、メモリ内又はメモリ上に記憶され、外部入力/出力装置(例えば、インターフェースに結合された表示デバイスなど)にGUIグラフィック情報を表示する命令を含む。他の実施形態では、複数のプロセッサ及び/又は複数のバスを、必要に応じて、複数のメモリとともに使用することができる。同様に、複数の電子機器を接続してもよく、各電子機器は、いくつかの必要な操作(例えば、サーバーアレイ、ブレードサーバーのグループ、又はマルチプロセッサシステムとして)を提供する。図6において、プロセッサ401を例とする。
メモリ402は、本出願によって提供される非一時的なコンピュータ読み取り可能な記憶媒体である。ここで、前記メモリには、少なくとも1つのプロセッサによって実行可能な命令が記憶され、それにより、前記少なくとも1つのプロセッサに、本出願によって提供される言語生成方法を実行させる。本出願の非一時的なコンピュータ読み取り可能な記憶媒体は、コンピュータ命令を記憶し、該コンピュータ命令がコンピュータに本出願によって提供される言語生成方法を実行させる。
非一時的なコンピュータ読み取り可能な記憶媒体として、メモリ402は、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム、及び本出願の実施例における言語生成方法に対応するプログラム命令/モジュール(例えば、図5に示される第1生成モジュール31、第1決定モジュール32、第2生成モジュール33、第2決定モジュール34及び言語生成モジュール35)などのモジュールを記憶することができる。プロセッサ401は、メモリ402に記憶された非一時的なソフトウェアプログラム、命令、及びモジュールを実行することによって、サーバーの様々な機能的アプリケーション及びデータ処理を実行し、即ち、上記方法の実施例における言語生成方法を実現する。
メモリ402は、記憶プログラム領域及び記憶データ領域を含んでもよい。記憶プログラム領域は、オペレーティングシステム、及び少なくとも1つの機能に必要とされるアプリケーションプログラムを記憶することができ、記憶データ領域は、言語生成方法に基づく電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ602は、高速ランダムアクセスメモリを含んでもよく、また、少なくとも1つの磁気ディスク記憶装置、フラッシュ記憶装置、又は他の非一時的な固体記憶装置などの非一時的なメモリを含んでもよい。いくつかの実施例では、メモリ402は、必要に応じて、プロセッサ401に対して遠隔設定されたメモリを含んでもよく、これらの遠隔メモリが、ネットワークを介して言語生成方法の電子機器に接続されてもよい。上記のネットワークの例には、インターネット、企業イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせが含まれるが、これらに限定されない。
言語生成方法の電子機器は、入力装置403及び出力装置404をさらに含んでもよい。プロセッサ401、メモリ402、入力装置403、及び出力装置404は、バス又は他の方法を介して接続することができる。図6では、バスを介した接続を例として取り上げている。
入力装置403は、入力された数値又は文字情報を受信し、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、インジケータスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置などの言語生成方法に係る電子機器のユーザ設定及び機能制御に関連するキー信号入力を生成することができる。出力装置404は、表示装置、補助照明装置(例えば、LED)、触覚フィードバック装置(例えば、振動モーター)などを含んでもよい。該表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含んでもよいが、これらに限定されない。いくつかの実施形態では、表示装置は、タッチスクリーンであってもよい。
本明細書に記載のシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、専用ASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、以下を含んでもよい:1つ又は複数のコンピュータプログラムに実装され、該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステム上で実行及び/又は解釈されてもよく、該プログラム可能なプロセッサは、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータと命令を受信し、データと命令を該記憶システム、少なくとも1つの該入力装置、及び少なくとも1つの該出力装置に伝送可能な専用又は汎用のプログラム可能なプロセッサであってもよい。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)には、プログラム可能なプロセッサの機械命令が含まれ、高水準及び/又はオブジェクト指向のプログラミング言語、及び/又はアセンブリ/機械言語を使用して、これらのコンピューティングプログラムを実装できる。本明細書に使用されるように、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータを、プログラム可能なプロセッサに提供するための、任意のコンピュータプログラム製品、デバイス、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラム可能なロジックデバイス(PLD))を指し、それはまた、機械命令を機械読み取り可能な信号として受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令及び/又はデータを、プログラム可能なプロセッサに提供するために使用される任意の信号を指す。
ユーザーとのインタラクションを提供するために、ここで説明するシステムと技術をコンピュータに実装でき、該コンピュータは、ユーザーに情報を表示するための表示装置(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニター)、及び、ユーザーによってコンピュータに入力を提供できるキーボードとポインティングデバイス(例えば、マウス又はトラックボール)を備える。他のタイプの装置を使用して、ユーザーとのインタラクションを提供することもでき、例えば、ユーザーに提供されるフィードバックは、任意の形式の感覚フィードバック(例えば、視覚的フィードバック、聴覚的フィードバック、又は触覚的フィードバック)であってもよく、任意の形式(音響入力、音声入力、又は触覚入力を含む)でユーザーからの入力を受け取ってもよい。
ここで説明するシステムと技術を、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバーとして)、ミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザーインターフェース又はインターネットブラウザを備えたユーザーコンピュータであり、該グラフィカルユーザーインターフェース又は該インターネットブラウザを介して、ユーザーがここで説明するシステム及び技術の実施形態とインタラクションを行うことができる)、又はそのようなバックエンドコンポーネント、ミドルウェアコンポーネント、又は、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムに実装できる。システムのコンポーネントを、任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を介して相互に接続できる。通信ネットワークの例には、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及びインターネットが含まれる。
コンピュータシステムは、クライアントとサーバーを含んでもよい。クライアントとサーバーは、通常、互いに遠く離れており、通信ネットワークを介してインタラクションを行う。互いにクライアント-サーバー関係を持つコンピュータプログラムを、対応するコンピュータ上で実行することにより、クライアントとサーバーの関係を生成する。
本出願の実施例の技術的手段によれば、与えられたシード感情辞書に基づいて、トレーニングコーパス内の各トレーニング言語資料に対して感情知識検出を実行し、各トレーニング言語資料に含まれる検出された感情ワードと検出されたワードペアを決定し、事前設定されたマスク処理ルールに従って、各トレーニング言語資料で検出された感情ワードと検出されたワードペアをマスクして、マスクされた言語資料を生成し、事前設定されたエンコーダを使用してマスクされた言語資料をエンコードし、各トレーニング言語資料に対応する特徴ベクトルを生成し、次に、事前設定されたデコーダを使用して、特徴ベクトルをデコードし、各トレーニング言語資料に含まれる予測された感情ワードと予測されたワードペアを決定し、予測された感情ワードと検出された感情ワードの違い、及び予測されたワードペアと前記検出されたワードペアの違いに応じて、事前設定されたエンコーダと事前設定されたデコーダを更新する。したがって、統計計算の感情的な知識を、モデルの事前トレーニングプロセスに組み込むことにより、事前トレーニングモデルは、感情分析方向のデータをより適切に表すことができ、感情分析の効果を向上させる。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案が所望の結果を達成することができれば、本明細書では限定されない。
上記の具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者は、設計要件及び他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び置換を行うことができる。任意の本出願の精神と原則内で行われる修正、同等の置換、及び改良などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (19)

  1. 第1生成モジュールが事前設定されたエンコーダを使用して入力シーケンスをエンコードし、前記入力シーケンスに対応する隠れた状態ベクトルを生成するステップと、
    第1決定モジュールが事前設定された分類器を使用して、前記隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定するステップと、
    前記第2ターゲットフラグメントがフレーズである場合、第2生成モジュールがN個のデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するステップであって、Nは、1を超えた整数であるステップと、
    第2決定モジュールがそれぞれ前記N個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定するステップと、
    言語生成モジュールが前記損失値に基づいて、前記事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して、言語生成を行うステップと、を含む、
    ことを特徴とする言語生成方法。
  2. 前記第2ターゲットフラグメントには、2つの文字が含まれ、前記N個のデコーダには、少なくとも第1デコーダ及び第2デコーダが含まれ、
    第2生成モジュールが前記のN個のデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するステップは、
    第2生成モジュールが前記第1デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する第1位置ベクトルをデコードし、第1位置にある第1候補文字を生成するステップと、
    第2生成モジュールが前記第1デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記第1候補文字に対応するベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する第2位置ベクトルをデコードし、第2位置にある第1候補文字を生成するステップと、
    第2生成モジュールが前記第1位置にある第1候補文字及び前記第2位置にある第1候補文字に基づいて、1番目の第2ターゲットフラグメントを生成するステップと、
    第2生成モジュールが前記第2デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第1位置ベクトルをデコードし、前記第1位置にある第2候補文字を生成するステップと、
    第2生成モジュールが前記第2デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2位置ベクトルをデコードし、前記第2位置にある第2候補文字を生成するステップと、
    第2生成モジュールが前記第1位置にある第2候補文字及び前記第2位置にある第2候補文字に基づいて、2番目の第2ターゲットフラグメントを生成するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記第2ターゲットフラグメントに対応する第1位置ベクトルは、第1ターゲットフラグメントの位置ベクトルであり、前記第2ターゲットフラグメントに対応する第2位置ベクトルは、前記第1ターゲットフラグメントの位置ベクトル及び前記第2ターゲットフラグメントにおける1番目の文字の位置ベクトルである、
    ことを特徴とする請求項2に記載の方法。
  4. 前記第2ターゲットフラグメントに対応する第1位置ベクトルは、前記第2ターゲットフラグメントにおける1番目の文字の位置ベクトルであり、前記第2ターゲットフラグメントに対応する第2位置ベクトルは、前記第2ターゲットフラグメントにおける2番目の文字の位置ベクトルであり、
    前記N個の第2ターゲットフラグメントを生成する前に、
    取得モジュールが事前設定されたプレースホルダーベクトルを取得するステップをさらに含み、
    第2生成モジュールが前記のN個の第2ターゲットフラグメントを生成するステップは、
    第2生成モジュールがN個のデコーダを使用して、前記事前設定されたプレースホルダーベクトル、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するステップを含む、
    ことを特徴とする請求項2に記載の方法。
  5. 前記の予測対象の第2ターゲットフラグメントの粒度カテゴリを決定した後に、
    前記第2ターゲットフラグメントが文字である場合、第3生成モジュールが前記文字に対応するデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び第1ターゲットフラグメントの位置ベクトルをデコードし、前記第2ターゲットフラグメントを生成するステップをさらに含む、
    ことを特徴とする請求項1に記載の方法。
  6. 第2決定モジュールがそれぞれ前記N個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定するステップは、
    第2決定モジュールが各第2ターゲットフラグメントと前記第2ターゲットタギングフラグメントとの間の差に基づいて、各損失基準値を決定するステップと、
    第2決定モジュールが各損失基準値及び事前設定された重みに基づいて、前記損失値を決定するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  7. 言語生成モジュールが前記の更新後に生成された言語生成モデルを使用して、言語生成を行うステップは、
    言語生成モジュールが設定された言語生成シナリオに基づいて、対応する教師ありトレーニングサンプルを取得するステップと、
    言語生成モジュールが前記教師ありトレーニングサンプルを使用して、前記更新後に生成された言語生成モデルのパラメータを調整するステップと、
    言語生成モジュールがパラメータ調整後の言語生成モデルに従い、前記設定された言語生成シナリオで言語生成を行うステップとを含む、
    ことを特徴とする請求項6に記載の方法。
  8. 前記設定された言語生成シナリオは、対話生成、機械翻訳、質問回答シナリオ及び要約生成の1つ又は複数の組み合わせを含む、
    ことを特徴とする請求項7に記載の方法。
  9. 事前設定されたエンコーダを使用して、入力シーケンスをエンコードし、前記入力シーケンスに対応する隠れた状態ベクトルを生成するための第1生成モジュールと、
    事前設定された分類器を使用して、前記隠れた状態ベクトル及び生成された第1ターゲットフラグメントベクトルを分類し、予測対象の第2ターゲットフラグメントの粒度カテゴリを決定するための第1決定モジュールと、
    前記第2ターゲットフラグメントがフレーズである場合、N個のデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するための第2生成モジュールであって、Nは、1を超えた整数である、第2生成モジュールと、
    それぞれ前記N個の第2ターゲットフラグメントと第2ターゲットタギングフラグメントとの間の差に基づいて、損失値を決定するための第2決定モジュールと、
    前記損失値に基づいて、前記事前設定されたエンコーダ、事前設定された分類器及びN個のデコーダに対し、パラメータの更新を行い、更新後に生成された言語生成モデルを使用して、言語生成を行うための言語生成モジュールと、を含む、
    ことを特徴とする言語生成装置。
  10. 前記第2ターゲットフラグメントには、2つの文字が含まれ、前記N個のデコーダには、少なくとも第1デコーダ及び第2デコーダが含まれ、
    前記第2生成モジュールは、具体的には、次の目的で使用され、
    前記第1デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する第1位置ベクトルをデコードし、第1位置にある第1候補文字を生成し、
    前記第1デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記第1候補文字に対応するベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する第2位置ベクトルをデコードし、第2位置にある第1候補文字を生成し、
    前記第1位置にある第1候補文字及び前記第2位置にある第1候補文字に基づいて、1番目の第2ターゲットフラグメントを生成し、
    前記第2デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第1位置ベクトルをデコードし、前記第1位置にある第2候補文字を生成し、
    前記第2デコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2位置ベクトルをデコードし、前記第2位置にある第2候補文字を生成し、
    前記第1位置にある第2候補文字及び前記第2位置にある第2候補文字に基づいて、2番目の第2ターゲットフラグメントを生成する、
    ことを特徴とする請求項9に記載の装置。
  11. 前記第2ターゲットフラグメントに対応する第1位置ベクトルは、第1ターゲットフラグメントの位置ベクトルであり、前記第2ターゲットフラグメントに対応する第2位置ベクトルは、前記第1ターゲットフラグメントの位置ベクトル及び前記第2ターゲットフラグメントにおける1番目の文字の位置ベクトルである、
    ことを特徴とする請求項10に記載の装置。
  12. 前記第2ターゲットフラグメントに対応する第1位置ベクトルは、前記第2ターゲットフラグメントにおける1番目の文字の位置ベクトルであり、前記第2ターゲットフラグメントに対応する第2位置ベクトルは、前記第2ターゲットフラグメントにおける2番目の文字の位置ベクトルであり、
    前記装置は、
    事前設定されたプレースホルダーベクトルを取得するための取得モジュールと、
    N個のデコーダを使用して、前記事前設定されたプレースホルダーベクトル、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び前記第2ターゲットフラグメントに対応する位置ベクトルをそれぞれデコードし、N個の第2ターゲットフラグメントを生成するための前記第2生成モジュールと、をさらに含む、
    ことを特徴とする請求項10に記載の装置。
  13. 前記第2ターゲットフラグメントが文字である場合、前記文字に対応するデコーダを使用して、前記第1ターゲットフラグメントベクトル、前記隠れた状態ベクトル及び第1ターゲットフラグメントの位置ベクトルをデコードし、前記第2ターゲットフラグメントを生成するための第3生成モジュールをさらに含む、
    ことを特徴とする請求項9~12のいずれかに記載の装置。
  14. 前記第2決定モジュールは、具体的に、
    各第2ターゲットフラグメントと前記第2ターゲットタギングフラグメントとの間の差に基づいて、各損失基準値を決定し、
    各損失基準値及び事前設定された重みに基づいて、前記損失値を決定する、
    ことを特徴とする請求項9~12のいずれかに記載の装置。
  15. 前記言語生成モジュールは、具体的に、
    設定された言語生成シナリオに基づいて、対応する教師ありトレーニングサンプルを取得し、
    前記教師ありトレーニングサンプルを使用して、前記更新後に生成された言語生成モデルのパラメータを調整し、
    パラメータ調整後の言語生成モデルに従い、前記設定された言語生成シナリオで言語生成を行う
    ことを特徴とする請求項14に記載の装置。
  16. 前記設定された言語生成シナリオは、対話生成、機械翻訳、質問回答シナリオ及び要約生成の1つ又は複数の組み合わせを含む、
    ことを特徴とする請求項15に記載の装置。
  17. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが、請求項1~8のいずれかに記載の方法を実行可能である、
    ことを特徴とする電子機器。
  18. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、コンピュータに請求項1~8のいずれかに記載の方法を実行させる、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  19. コンピュータプログラムであって、
    前記コンピュータプログラムにおける命令が実行された場合に、請求項1~8のいずれかに記載の方法が実行される、
    ことを特徴とするコンピュータプログラム。
JP2020215548A 2020-01-23 2020-12-24 言語生成方法、装置及び電子機器 Active JP7121791B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010076479.2A CN111325000B (zh) 2020-01-23 2020-01-23 语言生成方法、装置及电子设备
CN202010076479.2 2020-01-23

Publications (2)

Publication Number Publication Date
JP2021117989A JP2021117989A (ja) 2021-08-10
JP7121791B2 true JP7121791B2 (ja) 2022-08-18

Family

ID=71167031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020215548A Active JP7121791B2 (ja) 2020-01-23 2020-12-24 言語生成方法、装置及び電子機器

Country Status (5)

Country Link
US (1) US11562150B2 (ja)
EP (1) EP3855341A1 (ja)
JP (1) JP7121791B2 (ja)
KR (1) KR102517927B1 (ja)
CN (1) CN111325000B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539226B (zh) * 2020-06-25 2023-07-04 北京百度网讯科技有限公司 语义理解框架结构的搜索方法和装置
CN111539225B (zh) * 2020-06-25 2023-07-21 北京百度网讯科技有限公司 语义理解框架结构的搜索方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018132969A (ja) 2017-02-16 2018-08-23 株式会社日立製作所 文章作成装置
JP2019537096A (ja) 2016-09-26 2019-12-19 グーグル エルエルシー ニューラル機械翻訳システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2488963A1 (en) * 2009-10-15 2012-08-22 Rogers Communications Inc. System and method for phrase identification
BR122020015657B1 (pt) * 2011-03-09 2023-04-11 Nec Corporation Dispositivo de decodificação de vídeo e método de decodificação de vídeo
CN106462579B (zh) * 2014-10-15 2019-09-27 微软技术许可有限责任公司 为选定上下文构造词典
US9606980B2 (en) * 2014-12-16 2017-03-28 International Business Machines Corporation Generating natural language text sentences as test cases for NLP annotators with combinatorial test design
EP3520036B1 (en) * 2016-10-03 2020-07-29 Google LLC Processing text sequences using neural networks
US10380236B1 (en) 2017-09-22 2019-08-13 Amazon Technologies, Inc. Machine learning system for annotating unstructured text
CN107705784B (zh) * 2017-09-28 2020-09-29 百度在线网络技术(北京)有限公司 文本正则化模型训练方法和装置、文本正则化方法和装置
CN107844480B (zh) * 2017-10-21 2021-04-30 科大讯飞股份有限公司 将书面文本转换为口语文本的方法及系统
US11651166B2 (en) * 2018-03-02 2023-05-16 Nippon Telegraph And Telephone Corporation Learning device of phrase generation model, phrase generation device, method, and program
CN109086408B (zh) * 2018-08-02 2022-10-28 腾讯科技(深圳)有限公司 文本生成方法、装置、电子设备及计算机可读介质
CN109858032A (zh) * 2019-02-14 2019-06-07 程淑玉 融合Attention机制的多粒度句子交互自然语言推理模型
CN110209801B (zh) * 2019-05-15 2021-05-14 华南理工大学 一种基于自注意力网络的文本摘要自动生成方法
CN110209817B (zh) 2019-05-31 2023-06-09 安徽省泰岳祥升软件有限公司 文本处理模型的训练方法、装置和文本处理方法
CN110619034A (zh) * 2019-06-27 2019-12-27 中山大学 基于Transformer模型的文本关键词生成方法
CN110717431B (zh) * 2019-09-27 2023-03-24 华侨大学 一种结合多视角注意力机制的细粒度视觉问答方法
US11875116B2 (en) * 2019-12-20 2024-01-16 Intuit Inc. Machine learning models with improved semantic awareness

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019537096A (ja) 2016-09-26 2019-12-19 グーグル エルエルシー ニューラル機械翻訳システム
JP2018132969A (ja) 2017-02-16 2018-08-23 株式会社日立製作所 文章作成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ALLAMAR Jay,The Illustrated GPT-2 (Visualizing Transformer Language Models),米国,2019年08月12日,インターネット<https://web.archive.org/web/20190812070114/https://jalammar.github.io/illustrated-gpt2/>

Also Published As

Publication number Publication date
US11562150B2 (en) 2023-01-24
CN111325000B (zh) 2021-01-26
KR102517927B1 (ko) 2023-04-04
CN111325000A (zh) 2020-06-23
JP2021117989A (ja) 2021-08-10
KR20210095811A (ko) 2021-08-03
EP3855341A1 (en) 2021-07-28
US20210232775A1 (en) 2021-07-29

Similar Documents

Publication Publication Date Title
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
US11574133B2 (en) Method, electronic device, and storage medium for training text generation model
KR102541053B1 (ko) 언어 모델에 기반한 단어 벡터 획득 방법, 장치, 기기 및 기록매체
CN111078865B (zh) 文本标题生成方法和装置
CN111274764B (zh) 语言生成方法、装置、计算机设备及存储介质
JP7149993B2 (ja) 感情分析モデルの事前トレーニング方法、装置及び電子機器
CN111079945B (zh) 端到端模型的训练方法及装置
CN110807331B (zh) 一种多音字读音预测方法、装置和电子设备
KR102630243B1 (ko) 구두점 예측 방법 및 장치
CN111737954A (zh) 文本相似度确定方法、装置、设备和介质
CN110782871B (zh) 一种韵律停顿预测方法、装置以及电子设备
JP7121791B2 (ja) 言語生成方法、装置及び電子機器
CN111611808B (zh) 用于生成自然语言模型的方法和装置
CN110767212B (zh) 一种语音处理方法、装置和电子设备
CN112232089B (zh) 语义表示模型的预训练方法、设备和存储介质
CN112541342B (zh) 文本纠错方法、装置、电子设备及存储介质
US20220138435A1 (en) Method and apparatus for generating a text, and storage medium
CN113361712B (zh) 特征确定模型的训练方法、语义分析方法、装置及电子设备
US20220028370A1 (en) Method and apparatus for recognizing speech, electronic device and storage medium
CN115952790A (zh) 信息抽取方法及其装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220805

R150 Certificate of patent or registration of utility model

Ref document number: 7121791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150