JP2021121967A - テキスト生成方法、装置、機器及び媒体 - Google Patents

テキスト生成方法、装置、機器及び媒体 Download PDF

Info

Publication number
JP2021121967A
JP2021121967A JP2021086013A JP2021086013A JP2021121967A JP 2021121967 A JP2021121967 A JP 2021121967A JP 2021086013 A JP2021086013 A JP 2021086013A JP 2021086013 A JP2021086013 A JP 2021086013A JP 2021121967 A JP2021121967 A JP 2021121967A
Authority
JP
Japan
Prior art keywords
text
target
task
attribute
text generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021086013A
Other languages
English (en)
Inventor
リウ ジアチェン
Jiachen Liu
リウ ジアチェン
ホゥ ジョーァ
Zhe Hu
ホゥ ジョーァ
シヤオ シンイエン
Xinyan Xiao
シヤオ シンイエン
ウー ホワ
Hua Wu
ウー ホワ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021121967A publication Critical patent/JP2021121967A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/117Tagging; Marking up; Designating a block; Setting of attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】訓練コーパス数への依存性を大幅に低減し、さまざまなタスクの特定ニーズを満たすことが可能なテキスト生成方法、装置、機器及び媒体を提供する。【解決手段】方法は、事前訓練された汎用生成モデルによってサポートされる複数タスクの中から、ターゲットタスクを決定することと、ターゲットタスクの出力テキストに対する要求に基づいて、汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、ターゲットタスクに対する第1のターゲット出力テキスト属性を決定することと、ターゲットタスクに対するタスク指示情報と、第1のターゲット出力テキスト属性に対する第1の属性指示情報とを汎用生成モデルの入力の少なくとも一部とすることにより、ターゲットタスクに関連付けられたターゲット訓練データセットに基づいて汎用モデルを調整して、タスク特定モデルを取得することと、を含む。【選択図】図5

Description

本開示は、一般には、人工知能の分野、特に自然言語処理技術に関する。
テキスト自動生成は自然言語処理の分野における重要な研究方向である。テキスト生成とは、モデルを使用して、入力テキストが与えられた場合に所望の出力テキストを生成することである。テキスト生成の1つの適用例として、ある言語のテキストを別の言語のテキストに翻訳し得る機械翻訳が含まれる。他のテキスト生成タスクの適用としては、自動インタラクション、要約生成などが含まれる。テキスト生成アルゴリズムの研究開発は著しく進展しているが、テキスト生成は、訓練コーパスへの依存性が高いことやモデルの汎用性が低いことなど、いくつかの課題に直面している。このため、テキスト生成プロセスのさらなる改善が期待される。
本開示の実施例によれば、テキスト生成方法、装置、機器、及び記憶媒体を提供する。
本開示の第1の態様によれば、テキスト生成方法を提供する。該方法は、
事前訓練された汎用テキスト生成モデルによってサポートされる複数のタスクタイプの中から、ターゲットテキスト生成タスクのターゲットタスクタイプを決定することと、
ターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、ターゲットテキスト生成タスクに対する少なくとも1つの第1のターゲット出力テキスト属性を決定することと、
ターゲットタスクタイプに対するタスク指示情報と、少なくとも1つの第1のターゲット出力テキスト属性に対する第1の属性指示情報とを、汎用テキスト生成モデルの入力の少なくとも一部とすることにより、ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて汎用テキスト生成モデルを調整して、ターゲットテキスト生成タスクに対するタスク特定テキスト生成モデルを取得することとを含む。
本開示の第2の態様によれば、テキスト生成装置を提供する。該装置は、
事前訓練された汎用テキスト生成モデルによってサポートされる複数のタスクタイプの中から、ターゲットテキスト生成タスクのターゲットタスクタイプを決定するように構成されるタスクタイプ決定モジュールと、
前記ターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、前記汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、前記ターゲットテキスト生成タスクに対する少なくとも1つの第1のターゲット出力テキスト属性を決定するように構成される第1の属性決定モジュールと、
前記ターゲットタスクタイプに対するタスク指示情報と、前記少なくとも1つの第1のターゲット出力テキスト属性に対する第1の属性指示情報とを、前記汎用テキスト生成モデルの入力の少なくとも一部とすることにより、前記ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整して、前記ターゲットテキスト生成タスクに対するタスク特定テキスト生成モデルを取得するように構成されるモデル調整モジュールとを含む。
本開示の第3の態様によれば、電子機器を提供する。該電子機器は、少なくとも1つのプロセッサと、少なくとも1つのプロセッサに通信可能に接続されたメモリとを含む。少なくとも1つのプロセッサにより実行されると、第1の態様の方法を少なくとも1つのプロセッサに実行させる、少なくとも1つのプロセッサによって実行可能な命令がメモリに記憶されている。
本開示の第4の態様によれば、コンピュータ命令が記憶されているコンピュータ読み取り可能な記憶媒体を提供する。コンピュータ命令は、第1の態様の方法をコンピュータに実行させる。
本開示の第5の態様によれば、コンピュータプログラム製品を提供する。コンピュータプログラム製品は、プロセッサによって実行されると、第1の態様の方法を実現するコンピュータプログラムを含む。
本開示の実施例によれば、複数のタスクタイプ及び複数の出力テキストシーケンスをサポートする事前訓練された汎用テキスト生成モデルを提供することにより、様々なテキスト生成タスクにおける訓練コーパスの数への依存性を大幅に低減し、さまざまなテキスト生成タスクの特定のニーズを満たすことができる。
なお、本部分で説明される内容は、本開示の実施例の重要な又はキーとなる特徴を識別することを意図しておらず、本開示の範囲を制限することも意図していない。本開示の他の特徴は、以下の明細書によって容易に理解される。
本開示の様々な実施例の上記及び他の特徴、利点、及び態様は、図面をもって、以下の詳細な説明を参照することにより、より明らかになる。図面において、同一又は類似の図面の符号は、同一又は類似の要素を表す。
本開示の複数の実施例が適用され得る環境の概略図を示す。 本開示のいくつかの実施例による汎用テキスト生成モデル及びそれに基づいて生成されたタスク特定テキスト生成モデルの構造ブロック図を示す。 本開示の別の実施例による汎用テキスト生成モデル及びそれに基づいて生成されたタスク特定テキスト生成モデルの構造ブロック図を示す。 本開示のさらに別の実施例による汎用テキスト生成モデル及びそれに基づいて生成されたタスク特定テキスト生成モデルの構造ブロック図を示す。 本開示のいくつかの実施例によるテキスト生成方法のフローチャートを示す。 本開示のいくつかの実施例によるテキスト生成装置のブロック図を示す。 本開示の複数の実施例を実施できる電子機器のブロック図を示す。
以下、図面を参照して本開示の例示的な実施例を説明するが、以下の説明には、理解を容易にするために本開示の実施例の様々な詳細が含まれるが、このような詳細は単に例示的なものとみなされるべきである。したがって、当業者にとって自明なように、本開示の範囲及び精神から逸脱することなく、ここで記載された実施例に様々な変更及び修正が可能である。同様に、以下の説明では、周知の機能及び構造については、明確化及び簡明化のために説明を省略する。
本開示の実施例の説明において、用語「含む」及びその類似の用語は、オープンな包含、すなわち「含むが、これらに限定されない」と理解されるべきである。用語「基づく」は、「少なくとも部分的に基づく」と理解されるべきである。用語「1つの実施例」又は「該実施例」は、「少なくとも1つの実施例」と理解されるべきである。用語「第1の」、「第2の」等は、異なる又は同じ対象を指すことができる。以下には、他の明示的及び暗黙的な定義を含む場合もある。
本明細書で使用される場合、用語「モデル」は、訓練データから対応する入力と出力との間の関連を学習することで、訓練完了後、与えられた入力に対応する出力を生成することができる。モデルの生成は機械学習技術に基づくことができる。深層学習(DL)は、多層処理ユニットを使用して入力を処理し、対応する出力を提供する機械学習アルゴリズムである。ニューラルネットワーク(NN)モデルは深層学習に基づくモデルの一例である。本明細書では、「モデル」は、「機械学習モデル」、「学習モデル」、「機械学習ネットワーク」、又は「学習ネットワーク」とも呼ばれ、これらの用語は、本明細書で交換可能に使用される。
通常、機械学習又は深層学習は、訓練段階、テスト段階、及び使用段階(推論段階とも呼ばれる)の3つの段階を大まかに含むことができる。訓練段階では、与えられたモデルは大量の訓練データを使用して訓練し、一致して人知でできる推論と類似した推論を訓練データから得ることができるまで反復することができる。モデルは、訓練により、入力から出力への関連(入力から出力へのマッピングとも呼ばれる)を訓練データから学習できると考えられる。訓練されたモデルのパラメータ値が決定される。テスト段階では、訓練されたモデルにテスト入力を適用し、モデルが正しい出力を提供できるか否かをテストし、これによって、モデルの性能が決定される。使用段階では、モデルは、訓練によって得られたパラメータ値に基づいて、実際の入力を処理し、対応する出力を決定することに使用され得る。
上記のように、現在のテキスト生成の分野では、訓練コーパスへの依存性が高いことやモデルの汎用性が低いなどの問題に直面している。通常、テキスト自動生成の適用では、訓練コーパスを用いてテキスト生成モデルを訓練する。テキスト生成モデルの性能は、モデルが受ける拘束に左右され、これらの拘束は訓練プロセスによって訓練コーパスから学習されたものである。
一方、現在のテキスト生成モデルは、モデルが十分な拘束を学習できるように、大規模な訓練コーパス(「平行コーパス」とも呼ばれる)に依存している。たとえば、機械翻訳タスクの場合、2言語での大量の対応文、自動インタラクションタスクの場合、インタラクションシーンでの複数回のインタラクションテキスト、要約生成タスクの場合、大量の文章と文章の要約が必要とされる。
しかしながら、多くの実用的な適用では、特にテキスト生成タスクに特別な要件がある場合では、適切な大規模なコーパスを取得することは現実的ではない。たとえば、要約生成タスクの場合、テキスト生成タスクのニーズが「ソーシャルメディアの画像や文章に対して、長さ50字以内の、情緒的に前向きである要約を生成する」ことであれば、実際には、大量の「ソーシャルメディアの画像や文章」とそれに対応する「長さ50字以内の情緒的に前向きな要約」を訓練コーパスとしてモデルを訓練することは困難である可能性がある。訓練コーパスが不十分であると、モデルの訓練が失敗したり、要件に合致する結果を生成できるようにモデルを拘束するのに十分でない可能性がある。
一方、特定のタスクに対してテキスト生成モデルを訓練すると、モデルには汎用性がない。要件が異なる別のテキスト生成タスクの場合は、モデルの再構築と訓練が必要となる。たとえば、「ソーシャルメディアの画像や文章に対して、長さ50字以内の、情緒的に前向きで魅力的な要約を生成する」という新たなタスクでは、「魅力的」という新たな要件の導入により、訓練コーパスを再選別してモデルを構築する必要があるが、このプロセスの効果が低く、コーパス規模の低下によって効果が影響を受ける可能性もある。
従来のテキスト生成モデルの訓練手法では、特定のテキスト生成タスクに対して特定の制御を行うことが提案されており、たとえば、文章の要約を生成するタスクの場合、要約のスタイル(たとえば、ユーモア、クリックを引き付けること、ロマンチック)を制御する。別の手法では、テキスト生成モデルの出力テキスト属性を制御することが提案されている。たとえば、インタラクション生成タスクの場合、出力テキストの構文(たとえば疑問文)を制御することで、人手による評価におけるインタラクション生成タスクの効果を高めることができる。しかしながら、これらの手法では、訓練コーパスの不足やモデルの汎用性の悪さの問題を解決できない。
本開示の実施例は、改良されたテキスト生成手法を提案する。この手法は、複数のタスクタイプ及び複数の出力テキスト属性をサポートするように事前訓練された汎用テキスト生成モデルを事前訓練方式により提供する。汎用テキスト生成モデルは、異なるターゲットテキスト生成タスクについてさらに調整することができる。複数のタスクタイプ及び複数の出力テキスト属性の複数の組み合わせにより、タスクタイプ及び出力テキストに対する異なるターゲットテキスト生成タスクのそれぞれの要件を満たす。特定のターゲットテキスト生成タスクに対しては、ターゲットテキスト生成タスクのターゲットタスクタイプ及び要求される1つ以上のターゲット出力テキスト属性が、複数のタスクタイプ及び複数の出力テキスト属性の中からそれぞれ決定された後、ターゲットテキスト生成タスクに関連付けられた訓練データセットを用いて汎用テキスト生成モデルを微調整(fine tune)する。ターゲットタスクタイプ及びターゲット出力テキスト属性に対する指示情報は、汎用テキスト生成モデルの入力の少なくとも一部として提供される。
汎用テキスト生成モデルは、事前訓練した上で、タスクに関連付けられた訓練データセットを利用して調整することにより、ターゲットテキスト生成タスクを実行することができる。汎用テキスト生成モデルが少なくともターゲットタスクタイプ及びターゲット出力テキスト属性の拘束を満たすことができるように事前訓練されているので、調整段階では、汎用テキスト生成モデルを少量の訓練データで訓練することにより、特定のターゲットテキスト生成タスクを実行可能なタスク特定テキスト生成モデルとすることができる。これにより、様々なテキスト生成タスクにおける訓練コーパスの数への依存性を大幅に低減し、さまざまなテキスト生成タスクの特定のニーズを満たすことができる。
以下、図面を参照して、本開示のいくつかの例示的な実施例を詳細に説明する。
図1は、本開示の複数の実施例が適用され得る環境100の概略図を示す。図1に示すように、例示的な環境100は、汎用テキスト生成モデル120を事前訓練するように構成される電子機器110を含む。汎用テキスト生成モデル120は、入力テキスト121に対して出力テキスト122を生成するテキスト自動生成モデルとして構成される。事前訓練された汎用テキスト生成モデル120は、電子機器130に提供される。
電子機器130は、特定のターゲットテキスト生成タスクに対して、汎用テキスト生成モデル120を調整してタスク特定テキスト生成モデル140を取得するように構成される。タスク特定テキスト生成モデル140は、調整後に、ターゲットテキスト生成タスクを実行できるようになる。具体的には、タスク特定テキスト生成モデル140は、ターゲットテキスト生成タスクに対するターゲット入力テキスト141を処理し、ターゲットテキスト生成タスクの要件を満たすターゲット出力テキスト142を生成することができる。
図1の電子機器110及び/又は130は、コンピューティング能力を有する様々な機器であってもよい。たとえば、電子機器110及び/又は130は、サーバ機器又は端末機器であってもよい。サーバ機器は、たとえば、集中型サーバ、分散型サーバ、メインフレーム、エッジコンピューティング機器、クラウドなどであってもよい。端末機器は、たとえば、スマートフォン、タブレットコンピュータ、デスクトップコンピュータ、ノートパソコン、車載機器、ナビゲーション機器、マルチメディアプレーヤー機器、スマートスピーカー、スマートウェアラブル機器等のような様々な携帯端末又は固定端末であってもよい。なお、図1では分離して示されているが、場合によっては、電子機器110及び/又は130の機能が単一の物理機器/システムによって実現されてもよい。つまり、単一の物理機器/システムは、モデルの事前訓練、訓練、及び使用を実行するように構成されてもよい。本開示の実施例はこれについて限定されない。
本開示の実施例では、テキスト生成タスクを実現するためのモデリングプロセスにおける訓練コーパスの数への依存性を低減し、モデルの汎用性を向上させるために、事前訓練された汎用テキスト生成モデルのアーキテクチャが提案される。この事前訓練アーキテクチャに基づいて、モデルの入力を制御し、調整プロセスを実行することにより、さまざまなテキスト生成のニーズを満たすテキスト生成モデルを生成して使用することができる。以下、本開示の例示的な実施例の汎用テキスト生成モデルのアーキテクチャ及びその調整されたモデルについて、図2〜図4を参照して詳細に説明する。
図2は、本開示のいくつかの実施例による汎用テキスト生成モデル120及びそれに基づいて生成されたタスク特定テキスト生成モデル140の構造ブロック図を示す。汎用テキスト生成モデル120は、テキスト自動生成を実現し得る任意のモデル構造として構成することができる。図2は、エンコーダ‐デコーダ構造の一例を示し、汎用テキスト生成モデル120がエンコーダ210とデコーダ220とを含む。エンコーダ210は、入力テキスト121などのモデル入力を受信して処理して、中間特徴表現を生成するように構成される。中間特徴表現は、デコーダ220に提供される。デコーダ220は、中間特徴表現に基づいて、出力テキスト122などのモデル出力を生成する。エンコーダ‐デコーダ構造に加えて、汎用テキスト生成モデル120は、テキスト自動生成を実現し得る他のモデル構造として構成されてもよく、本開示の実施例はこれについて限定されない。
本開示の実施例では、汎用テキスト生成モデル120は、事前訓練段階において、タスクタイプ232‐1、タスクタイプ232‐2……タスクタイプ232‐Nなどを含む制御可能なテキストタスクタイプセット230の中の複数(たとえばN個)のテキストタスクタイプをサポートするように事前訓練される。後述の説明を容易にするために、これらのタスクタイプは、まとめて又は個別にタスクタイプ232と呼ばれる。汎用テキスト生成モデル120は、事前訓練段階において、出力テキスト属性242‐1、出力テキスト属性242‐2……出力テキスト属性242‐M等を含む制御可能な出力テキスト属性セット240の中の複数(たとえばM個)の出力テキスト属性をサポートするように事前訓練される。したがって、汎用テキスト生成モデル120は、汎用制御可能なテキスト生成モデルとも呼ばれる。
複数のテキストタスクタイプ232は、異なるタイプのテキスト生成タスクを示す。いわゆる「テキスト生成タスク」は、入力テキストに対してどのような処理を実行して出力テキストを与えるかを示す。テキストタスクタイプの例としては、入力テキストから重要な情報を抽出して出力テキストとすることを要求する要約生成タスクと、入力テキストの意味を変更することなく、字面的に異なるテキストを出力することを要求するテキスト書き換えタスクと、入力テキストと論理的に一貫したスムーズな出力テキストを生成することを要求するテキスト続きタスクと、入力テキストに基づいてインタラクティブ内容を出力テキストとして生成することを要求する自動インタラクションタスクとが含まれるが、これらに制限されない。他のテキストタスクタイプも可能である。汎用テキスト生成モデル120によってサポートされる複数のテキストタスクタイプ232は、予め設定されてもよく、これらのタイプのテキスト生成タスクがどのように実行されるかを事前訓練プロセスによって学習する。事前訓練プロセスについては、以下で詳細に説明する。
複数の出力テキスト属性242は、汎用テキスト生成モデル120の出力テキストが異なる点の属性を満たすべきことを指す。出力テキスト属性242は、大量のテキスト生成適用において所望の出力テキストに満たされる異なる要件によって予め決定され得る。出力テキスト属性242の例としては、出力テキストの長さ、構文、スタイル属性、感情的傾向などが含まれるが、これらに限定されない。各出力テキスト属性242は、1つ以上の属性値を有することができる。たとえば、「長さ」属性の場合、出力テキストの異なる長さオプションを指定することができ、「構文」の場合、平叙文、疑問文、反問文、感嘆文などの構文構造を指定することができ、「スタイル属性」の場合、たとえば、誇張、魅力的、平凡、正式など、出力テキストの異なる言語スタイルを指定することができ、「感情的傾向」の場合、出力テキストのポジティブな傾向及びネガティブな感情的傾向を含むことができる。
複数のタスクタイプ232及び複数の出力テキスト属性242の制御可能性は、自己教師付き学習によって、事前訓練データを用いて汎用テキスト生成モデル120に対して事前訓練を実行することで達成され得る。事前訓練の目的は、汎用テキスト生成モデル120が、各出力テキスト属性242の異なる属性値を区別しながら、複数のタスクタイプ232に対応するテキスト生成タスクを入力テキストに対してどのように実行するかを学習できるようにし、出力テキストがこれらの属性を満足できるようにすることである。
複数のタスクタイプ232を実行する目的を学習により達成するために、汎用テキスト生成モデル120の事前訓練データは、それぞれが1つのタスクタイプ232に関連付けられた訓練入力テキスト及び訓練出力テキストを含む複数の事前訓練データセットを含む。たとえば、「要約生成タスク」を示すタスクタイプ232については、その事前訓練データセットは、訓練入力テキストとして複数の文章又は段落等を含み、複数の文章又は段落のそれぞれの要約も含む。同様に、他のタスクタイプ232についても、そのタスクタイプに適合する訓練入力テキスト及び訓練出力テキストを事前訓練データセットとして提供することができる。
事前訓練段階では、汎用テキスト生成モデル120に対して異なる事前訓練データセットを用いてそれぞれ訓練を実行する。事前訓練段階では、あるタスクタイプ232に関連付けられた事前訓練データセットの訓練入力テキストを汎用テキスト生成モデル120(たとえばエンコーダ210)に提供する際に、そのタスクタイプ232を示すタスク指示情報も同時に入力としてエンコーダ210に提供する。このタスク指示情報は、汎用テキスト生成モデル120が現在どのタスクタイプについて学習するかを識別するのに役立つ。タスク指示情報は、複数のタスクタイプ232のうちの特定のタスクタイプをラベル付けすることができる任意の情報であってもよい。たとえば、N個のタスクタイプが存在する場合、タスク指示情報は、異なるタスクタイプがバイナリシーケンス内の対応するフラグビットに対応するN次元のバイナリシーケンスとして決定することができる。
各タスクタイプ232に関連付けられた事前訓練データセットを用いて汎用テキスト生成モデル120を訓練する場合、汎用テキスト生成モデル120の訓練の目的は、入力テキストに基づいてタスクの要件を満たす出力テキストを生成することである。汎用テキスト生成モデル120は、複数のタスクタイプ232に関連付けられた事前訓練データセット及びそれぞれのタスク指示情報によって、マルチタスク処理の能力を学習することができる。
複数の出力テキスト属性242については、類似の方式を利用して、入力テキスト及び異なる出力テキスト属性242を有する出力テキストを含む1つ以上の事前訓練データセットによって、汎用テキスト生成モデル120を事前訓練することもできる。マルチタスクタイプの学習のように互いに独立して実行する必要があるのとは異なり、汎用テキスト生成モデル120は、2つ以上の出力テキスト属性242を同時に学習することができる。たとえば、事前訓練データセットの訓練出力テキストは、2つ以上の出力テキスト属性242を有するようにラベル付けすることができ、これにより、この事前訓練データセットに基づく事前訓練は、汎用テキスト生成モデル120が、これらの出力テキスト属性242を満たす出力テキストをどのように出力するかを同時に学習することを可能にする。これにより、事前訓練プロセスを高速化することができる。
複数のタスクタイプ232の事前訓練と同様に、1つ以上の出力テキスト属性242に関連付けられた事前訓練データセットの訓練入力テキストを汎用テキスト生成モデル120(たとえば、エンコーダ210)に提供する際に、出力テキスト属性242を示す属性指示情報も同時に入力としてエンコーダ210に提供し、汎用テキスト生成モデル120が現在どのありいはどちらの出力テキスト属性242について学習されているかを識別するのに役立つ。属性指示情報は、複数の出力テキスト属性242のうちの特定の出力テキスト属性をラベル付けすることができる任意の情報であってもよい。たとえば、M個の出力テキスト属性が存在する場合、属性指示情報は、異なる出力テキスト属性242がバイナリシーケンス内の対応するフラグビットに対応するM次元のバイナリシーケンスとして決定することができる。汎用テキスト生成モデル120は、複数の出力テキスト属性242に関連付けられた事前訓練データセット及びそれぞれの属性指示情報によって、1つ以上の出力テキスト属性を有する出力テキストを出力する能力を学習することができる。
1つ以上の出力テキスト属性242に関連付けられた事前訓練データセットを用いて汎用テキスト生成モデル120を訓練する場合、汎用テキスト生成モデル120の訓練の目的は、入力テキストに基づいて1つ以上の出力テキスト属性242の所望の属性値を満たす出力テキストを生成することである。汎用テキスト生成モデル120は、複数の出力テキスト属性242に関連付けられた事前訓練データセット及びそれぞれの属性指示情報によって、マルチタスク処理の能力を学習することができる。
いくつかの実施例では、事前訓練をさらに高速化するために、1つ以上のタスクタイプ232に対応するテキスト生成タスクを実行するように汎用テキスト生成モデル120を訓練する際に、1つ以上の出力テキスト属性242に対する拘束を追加することもできる。この場合、タスクタイプ232に関連付けられた事前訓練データセットについては、その訓練出力テキストは、1つ以上の出力テキスト属性242の異なる属性値としてラベル付けされ得る。たとえば、要約生成タスクの事前訓練データセットについては、各訓練出力テキスト(すなわち、要約)の長さ、構文やスタイル属性などを具体的にラベル付けすることができる。これらの訓練出力テキスト(すなわち、要約)は、学習すべき長さ、構文やスタイル属性などの属性を持つ各属性値として選択される。このような事前訓練データセットを用いて汎用テキスト生成モデル120を訓練する場合、汎用テキスト生成モデル120の訓練の目的は、入力テキストの要約を生成することであり、出力される要約は、所望の長さ、構文及びスタイル属性を有するものである。
このような事前訓練データセットを用いて汎用テキスト生成モデル120を訓練すると、この汎用テキスト生成モデル120は、要約をどのように生成するかだけでなく、所望の長さ、構文及びスタイル属性を有するように要約を生成することを学習することができる。他のタスクタイプ232及び出力テキスト属性242についても、関連付けられた事前訓練データセットを用いて同様の事前訓練を実行することができる。
事前訓練により、汎用テキスト生成モデル120は、異なるタスクタイプ及び異なる出力テキスト属性をサポートすることができる。このような汎用テキスト生成モデル120は、対応するテキスト生成タスクを実行できるように、特定のテキスト生成タスクに対してさらに調整することができる。図1に説明されるように、汎用テキスト生成モデル120の事前訓練は、電子機器110によって実行されてもよく、事前訓練された汎用テキスト生成モデル120は、特定のテキスト生成タスクに対して調整するように、電子機器130に提供されてもよい。
調整を実行する際に、ユーザはターゲットテキスト生成タスクを実行できるテキスト生成モデルを取得することを望む場合がある。汎用テキスト生成モデル120のタスクタイプ及び出力テキスト属性を制御し、これに基づいてモデルを調整することにより、タスク特定テキスト生成モデル140を生成することができる。
具体的には、ターゲットテキスト生成タスクが与えられた場合、ターゲットテキスト生成タスクのタスクタイプが、汎用テキスト生成モデル120によってサポートされる複数のタスクタイプ232に含まれるか否かを判定し、ターゲットテキスト生成タスクの出力テキストに対する要求が、複数の出力テキスト属性242によって満たされるか否かを判定する。複数のタスクタイプ232の中からターゲットテキスト生成タスクのターゲットタスクタイプ250を決定でき、そして、複数の出力テキスト属性242の中から、1つ以上のターゲット出力テキスト属性260が、ターゲットテキスト生成タスクの出力テキストに対する要求を満たすことができると判定された場合、対応するターゲットタスクタイプ250及び1つ以上のターゲット出力テキスト属性260を選択し、その後のモデル調整を実行する。
たとえば、ターゲットテキスト生成タスクが「入力された文章に対して、長さが50文字未満で魅力的な要約を生成する」である場合、そのターゲットテキスト生成タスクのタスクタイプは「要約生成タスク」に対応し、出力テキストの「長さ」(たとえば、50文字未満)と「スタイル属性」(たとえば、魅力的)の両方が要求される。これらのタスクタイプ及び出力テキスト属性は、事前訓練された汎用テキスト生成モデル120によって満たされる。
ターゲットタスクタイプ250及び1つ以上のターゲット出力テキスト属性260が選択された後、ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットを用いて汎用テキスト生成モデル120を調整する。調整プロセスでは、ターゲットタスクタイプ250に対するタスク指示情報252と、1つ以上のターゲット出力テキスト属性260に対する属性指示情報262(第1の属性指示情報とも呼ばれることがある)とが、汎用テキスト生成モデル120の入力の一部として機能する。すなわち、ターゲット訓練データセットの訓練入力テキストが汎用テキスト生成モデル120(たとえばエンコーダ210)に入力されると同時に、タスク指示情報252及び属性指示情報262も入力される。これにより、汎用テキスト生成モデル120は、現在学習すべきタスクタイプと出力テキスト属性とを区別することができる。
ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットは、ターゲットテキスト生成タスクによって要求される訓練入力テキスト及び訓練出力テキストを含む。たとえば、「入力された文章に対して、長さが50文字未満で魅力的な要約を生成する」ターゲットテキスト生成タスクに対して、訓練入力テキストは文章であり、訓練出力テキストはその文章に対応する「長さが50文字未満で魅力的な要約」である。汎用テキスト生成モデル120は、「要約生成タスク」及び「長さ」や「スタイル属性」などの属性に関してある程度の訓練(すなわち、事前訓練段階)を経ているので、調整の際に、ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットは、大量の訓練入力テキスト及び訓練出力テキストを提供することなく、ターゲットテキスト生成タスクを良好に実行できるように汎用テキスト生成モデル120を迅速に収束させることができる。
調整後、汎用テキスト生成モデル120は、タスク特定テキスト生成モデル140として訓練することができる。図2に示すように、タスク特定テキスト生成モデル140のタスクタイプ(すなわち、ターゲットタスクタイプ250)及び出力テキスト属性(すなわち、ターゲット出力テキスト属性260)は、ターゲットテキスト生成タスクに対する調整によって固定され、対応するタスク指示情報252及び属性指示情報262は、モデル入力の一部としてエンコーダ210に提供される。
ターゲットテキスト生成タスクを実行する際に、ターゲットテキスト生成タスクに関連付けられたターゲット入力テキスト141を取得し、このターゲット入力テキスト141は、タスク指示情報252及び属性指示情報262とともに、タスク特定テキスト生成モデル140の入力として、たとえばエンコーダ210に入力する。このタスク特定テキスト生成モデル140を実行することにより、このタスク特定テキスト生成モデル140によって入力を処理し、たとえばデコーダ220によって出力を提供することができる。この出力は、ターゲットテキスト生成タスクのターゲット出力テキスト142である。ターゲットテキスト生成タスクの実行は、端末機器又はサーバ機器を含む任意の電子機器によって実現され得る。たとえば、ターゲットテキスト生成タスクの実行は、電子機器130によって実現されてもよく、電子機器130以外の他の機器によって実現されてもよい。
汎用テキスト生成モデル120の汎用性により、より多くのターゲットテキスト生成タスクに対して異なるタスク特定テキスト生成モデルを生成することもできる。各タスク特定テキスト生成モデルの調整プロセスは、すべて上記と同様である。汎用テキスト生成モデル120によってサポートされる複数のタスクタイプ232及び複数の出力テキスト属性242は制御可能であるので、これらのタスクタイプ及び出力テキスト属性の様々な組み合わせは、様々なテキスト生成タスクの特定のニーズを満たすことができる。
図2に示す汎用テキスト生成モデル120による制御可能なタスクタイプ232及び出力テキスト属性242のサポートは、事前訓練データセットによってモデル全体の目的関数を構築することによって達成される。一部の実施例では、汎用テキスト生成モデル120は1つ以上の出力テキスト属性をサポートすることもでき、これらの出力テキスト属性に対するサポートは、汎用テキスト生成モデル120のデコーダ220を改造することによって達成される。図3は、そのような例示的な実施例を示す。
図3において、汎用テキスト生成モデル120は、出力テキスト属性322‐1、出力テキスト属性322‐2……出力テキスト属性322‐Pなどの1つ以上の出力テキスト属性を含む、制御可能な別の出力テキスト属性セット320を汎用テキスト生成モデル120にサポートさせるためのデコーダ220をさらに含む。検討を容易にするために、これらの出力テキスト属性は、まとめて又は個別に出力テキスト属性322と呼ばれる。図において複数として示されているが、出力テキスト属性322は単一であってもよい。
出力テキスト属性322は、汎用テキスト生成モデル120の出力テキストにおけるローカル内容の有無を制御することに用いられてもよい。いくつかの実施例では、出力テキスト属性322は、指定された単語、句、及び/又は記号が出力テキストに含まれることを要求する。いくつかの実施例では、出力テキスト属性322は、指定された単語、句、及び/又は記号が出力テキストに含まれていないことを要求する。そのような出力テキスト属性322の具体的な属性値(たとえば、含まれるか含まれない単語、句、及び/又は記号)は、通常、ユーザによって指定され得る。
汎用テキスト生成モデル120を事前訓練する際に、複数のタスクタイプ232及び複数の出力テキスト属性322について上述した事前訓練に加えて、出力テキスト属性322についても事前訓練が実行される。特定の出力テキスト属性322に対する属性指示情報は、エンコーダ310の入力として提供される。エンコーダ310は、特定の出力テキスト属性322の属性指示情報を処理し、中間出力をデコーダ220に提供し、出力テキスト属性322に適合する出力テキストを生成するようにデコーダ220に促す。エンコーダ310の中間出力は、デコーダ220の復号結果に影響を与えることができる。たとえば、デコーダ220がビームサーチ(beam search)に基づいて出力テキスト中の個々の文字を決定する場合、エンコーダ310の中間出力を使用して、デコーダ220がビームサーチにおいて選択する文字を制御し、出力テキスト属性322を満たすように出力テキストを制御することができる。別の例では、エンコーダ310の中間出力は、出力テキスト属性322によって指定された単語、句、及び/又は記号から復号を開始するように、デコーダ220の復号順序を制御し、出力テキストが既知の指定された単語、句、及び/又は記号を含むか、又は含まないかを確保することもできる。
出力テキスト属性322は、汎用テキスト生成モデル120の出力テキストに対してより強力な制御能力を有し、厳密に満たす必要がある出力テキスト属性を展開するのに適している。ターゲットテキスト生成タスクに対して汎用テキスト生成モデル120を調整する際に、ターゲットテキスト生成タスクによって要求されたターゲット出力テキスト属性が制御可能な出力テキスト属性セット320に含まれると仮定する。調整プロセスでは、ターゲットテキスト生成タスクによって要求される1つ以上の出力テキスト属性322が、制御可能な出力テキスト属性セット320から決定される。1つ以上のターゲット出力テキスト属性322に対する属性指示情報は、エンコーダ310の入力として適用される。属性指示情報は、出力テキスト属性322によって指定される内容の埋め込み表現又はベクトル化表現、たとえば、特定の単語又は文が変換されたベクトル化表現を含むことができる。
一例として、ターゲットテキスト生成タスクが、「入力された文章に対して、文章タイトルにおける人名を含む長さ50文字未満の魅力的な要約を生成する」であると仮定する。このターゲットテキスト生成タスクでは、「文章タイトルにおける人名を含む」は出力テキスト中の特定の内容に対する指示であり、生成される要約には特定の人名が含まれていなければならないことが要求される。したがって、汎用テキスト生成モデル120を調整するプロセスでは、出力テキストが特定の単語を含むべき出力テキスト属性322を指定し、出力テキスト属性322に対する属性指示情報も汎用テキスト生成モデル120の入力としてエンコーダ310に適用される。
たとえば、「文章タイトルにおける人名を含む」という出力テキスト属性については、調整時にターゲット訓練データセットの訓練入力テキスト(たとえば文章)のタイトルにおける人名を決定し、その人名を属性指示情報としてベクトル化表現に変換する。ある文章を用いて汎用テキスト生成モデル120を訓練する場合、その文章のタイトルにおける人名を示すベクトル化表現は同時にエンコーダ310に入力される。訓練データセットによる訓練によって、汎用テキスト生成モデル120は、出力テキストがエンコーダ310によって受信された入力によって指定された属性を満たすように学習することができる。
調整後、タスク特定テキスト生成モデル140を得る。タスク特定テキスト生成モデル140の入力は、調整段階における汎用テキスト生成モデル120の入力と同じである。図3に示すように、ターゲット出力テキスト属性330を示す属性指示情報332(第2の属性指示情報とも呼ばれる)は、タスク指示情報252及び属性指示情報262とともにタスク特定テキスト生成モデル140に入力され、属性指示情報332はエンコーダ310に、タスク指示情報252及び属性指示情報262はエンコーダ210に入力される。タスク特定テキスト生成モデル140の適用では、属性指示情報332は、ターゲット出力テキスト属性330について指定された特定の内容(たとえば、具体的に指定された単語、句、及び/又は記号)に基づいて決定される。
上述した例示的な実施例では、汎用テキスト生成モデル120によってサポートされるタスクタイプ232、出力テキスト属性242、及び出力テキスト属性322はすべて事前訓練段階において予め指定される。しかしながら、実際の適用では、テキスト生成タスクに対するニーズは多様であり、一部のニーズは、予め指定されたタスクタイプ232、出力テキスト属性242、及び出力テキスト属性322によってカバーされ得ない場合がある。いくつかの実施例では、調整段階における汎用テキスト生成モデル120の拡張も提案されている。図4は、そのような例の実現を示す。なお、図3の実施例に基づくタスク特定テキスト生成モデル140は、図4に示されている。他の実施例では、図2に示されるタスク特定テキスト生成モデル140に基づいて拡張することもできる。
図4に示すように、調整段階では、拡張可能なターゲット出力テキスト属性410を追加することにより、タスク特定テキスト生成モデル140を生成することができる。ターゲット出力テキスト属性410は、特定のターゲットテキスト生成タスクによって要求された、出力テキストが満たす属性であってもよいが、この属性は、汎用テキスト生成モデル120によってサポートされる出力テキスト属性242及び322に含まれない。この場合、汎用テキスト生成モデル120の構造に属性制御モデル420を導入することができる。
いくつかの実施例では、属性制御モデル420が導入されると、ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて、属性制御モデル420及び汎用テキスト生成モデル120を組み合わせて調整することによって、タスク特定テキスト生成モデル140を決定する。
属性制御モデル420は、現在のターゲットテキスト生成タスクのターゲット出力テキストに対する要求を満たすように、ターゲット出力テキスト属性410を有する出力テキストを出力できるようにデコーダ220を制御するように構成される。たとえば、ターゲットテキスト生成タスクが、「入力された文章に対して、文章タイトルにおける人名を含む50文字未満の長さを有する魅力的で感情的に前向きな要約を生成する」ことであると仮定すると、出力要約の感情的傾向(すなわち、「感情的に前向き」)に対する要求は、図3に示す制御可能な出力テキスト属性セット240又は320によって満たされない。この場合、出力テキストの感情的傾向の属性を満たすことができる属性制御モデル420を導入することが望ましい。
属性制御モデル420は、ターゲット出力テキスト属性410を有するテキスト生成タスクの出力を案内できるように事前訓練されてもよい。属性制御モデル420の入力は、エンコーダ210の中間出力であってもよい。属性制御モデル420は、エンコーダ210からの中間出力を処理し、処理結果に基づいてデコーダ220の復号処理を制御することで、ターゲット出力テキスト属性410を満たすターゲット出力テキスト142を出力することができる。
いくつかの実施例では、属性制御モデル420は、エンコーダ210(いくつかの実施例ではエンコーダ310も含む)の中間出力に基づいて、ターゲット出力テキスト属性410を有するターゲット出力テキスト142を生成するようにデコーダ220を案内するための案内情報を決定できる属性分類器として構成されてもよい。案内情報は、ターゲット出力テキスト属性410の異なる属性値を示す分類情報である。案内情報は、ターゲット出力テキスト142が特定のターゲット出力テキスト属性410を満たすように、出力テキストをデコードする際にデコーダ220によって使用することができる。たとえば、案内情報は、ターゲット出力テキスト142が「前向き」な感情的傾向を有するように、デコーダ220によるターゲット出力テキスト142中の単語の選択を案内するために使用されてもよい。
いくつかの実施例では、属性制御モデル420は、ターゲット出力テキスト属性410に対応する言語モデルとして構成されてもよい。デコーダ220は本質的には言語モデルであるので、属性制御モデル420は、デコーダと協働してエンコーダの中間出力を復号し、ターゲット出力テキスト属性410を有するターゲット出力テキスト142を生成することができる。たとえば、属性制御モデル420のパラメータをデコーダ220のパラメータと融合し、融合されたパラメータに基づいてエンコーダ210(及びエンコーダ310)の中間出力を復号することができる。
いくつかの実施例では、ターゲットテキスト生成タスクの要件に応じて、汎用テキスト生成モデル120によってサポートされない複数のターゲット出力テキスト属性に対応する属性制御モデルを導入することができる。図4によって提供される属性拡張は、汎用テキスト生成モデル120がより多くのテキスト生成タスクのニーズに対応できるようにする。
本開示の例示的な実施形態によれば、テキスト生成方法及び装置を提供する。
図5は、本開示のいくつかの実施例によるテキスト生成方法500のフローチャートを示す。方法500は、図1の電子機器130によって実現することができる。
ブロック510において、電子機器130は、汎用テキスト生成モデルによってサポートされる複数のタスクタイプの中から、ターゲットテキスト生成タスクのターゲットタスクタイプを決定する。汎用テキスト生成モデルは事前訓練されている。
ブロック520において、電子機器130は、ターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、ターゲットテキスト生成タスクに対する少なくとも1つの第1のターゲット出力テキスト属性を決定する。
ブロック530において、電子機器130は、ターゲットタスクタイプに対するタスク指示情報と、少なくとも1つの第1のターゲット出力テキスト属性に対する第1の属性指示情報とを、汎用テキスト生成モデルの入力の少なくとも一部とすることにより、ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて汎用テキスト生成モデルを調整して、ターゲットテキスト生成タスクに対するタスク特定テキスト生成モデルを取得する。
いくつかの実施例では、汎用テキスト生成モデルは、それぞれが複数のタスクタイプのうち対応するタスクタイプに関連付けられた訓練入力テキスト及び訓練出力テキストを含む複数の事前訓練データセットに基づいて事前訓練される。
いくつかの実施例では、複数の事前訓練データセットのうちの少なくとも1つの事前訓練データセットの訓練出力テキストは、複数の出力テキスト属性のうちの少なくとも1つの出力テキスト属性の異なる属性値がラベル付けされている。
いくつかの実施例では、汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、出力テキストを生成するデコーダとを少なくとも含み、タスク指示情報及び第1の属性指示情報は、第1のエンコーダに入力される。いくつかの実施例では、汎用テキスト生成モデルを調整することは、ターゲットテキスト生成タスクに対する第2のターゲット出力テキスト属性を示す第2の属性指示情報を決定することと、第2の属性指示情報を汎用テキスト生成モデルの第2のエンコーダの入力として適用することにより、ターゲット訓練データセットに基づいて汎用テキスト生成モデルを調整することとをさらに含む。
いくつかの実施例では、汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、第1のエンコーダの中間出力に基づいて出力テキストを生成するデコーダとを少なくとも含み、タスク指示情報及び第1の属性指示情報は、第1のエンコーダに入力される。いくつかの実施例では、汎用テキスト生成モデルを調整することは、第1のエンコーダの中間出力に基づいて、複数の出力テキスト属性に含まれない第3のターゲット出力テキスト属性を有するターゲット出力テキストを出力するようにデコーダを制御するように構成される属性制御モデルを取得することと、属性制御モデルと汎用テキスト生成モデルとを組み合わせて調整することとをさらに含む。
いくつかの実施例では、属性制御モデルは、第1のエンコーダの中間出力に基づいて、第3のターゲット出力テキスト属性の異なる属性値を示す案内情報を決定することによって、第3のターゲット出力テキスト属性を有するターゲット出力テキストを生成するようにデコーダを案内するように構成される属性分類モデルと、デコーダと協働して第1のエンコーダの中間出力を復号して、第3のターゲット出力テキスト属性を有するターゲット出力テキストを生成するように構成される言語モデルとのうちの少なくとも1つを含む。
いくつかの実施例では、ターゲットテキスト生成タスクは、第1のターゲットテキスト生成タスクであり、方法は、複数のタスクタイプの中から、第2のターゲットテキスト生成タスクの第2のターゲットタスクタイプを決定することと、第2のターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、複数の出力テキスト属性の中から、第2のターゲットテキスト生成タスクに対する別のターゲット出力テキスト属性を決定することと、第2のターゲットタスクタイプに対する第2のタスク指示情報と、別のターゲット出力テキスト属性に対する別の属性指示情報とを、汎用テキスト生成モデルの入力の少なくとも一部とすることにより、第2のターゲットテキスト生成タスクに関連付けられた第2のターゲット訓練データセットに基づいて汎用テキスト生成モデルを調整して、第2のターゲットテキスト生成タスクに対する別のタスク特定テキスト生成モデルを取得することとをさらに含む。
いくつかの実施例では、方法500は、ターゲットテキスト生成タスクに対するターゲット入力テキストを取得することと、ターゲット入力テキスト、タスク指示情報、及び第1の属性指示情報をタスク特定テキスト生成モデルの入力として適用することと、タスク特定テキスト生成モデルを実行して、タスク特定テキスト生成モデルの出力をターゲットテキスト生成タスクのターゲット出力テキストとして取得することとをさらに含む。
図6は、本開示のいくつかの実施例によるテキスト生成装置600の概略ブロック図を示す。装置600は、図1の電子機器130に含まれてもよく、又は、図1の電子機器130として実現されてもよい。
図6に示すように、装置600は、事前訓練された汎用テキスト生成モデルによってサポートされる複数のタスクタイプの中から、ターゲットテキスト生成タスクのターゲットタスクタイプを決定するように構成されるタスクタイプ決定モジュール610を含む。装置600は、ターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、ターゲットテキスト生成タスクに対する少なくとも1つの第1のターゲット出力テキスト属性を決定するように構成される第1の属性決定モジュール620をさらに含む。装置600は、ターゲットタスクタイプに対するタスク指示情報と、少なくとも1つの第1のターゲット出力テキスト属性に対する第1の属性指示情報とを、汎用テキスト生成モデルの入力の少なくとも一部とすることにより、ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて汎用テキスト生成モデルを調整して、ターゲットテキスト生成タスクに対するタスク特定テキスト生成モデルを取得するように構成されるモデル調整モジュール630をさらに含む。
いくつかの実施例では、汎用テキスト生成モデルは、それぞれが複数のタスクタイプのうち対応するタスクタイプに関連付けられた訓練入力テキスト及び訓練出力テキストを含む複数の事前訓練データセットに基づいて事前訓練される。
いくつかの実施例では、複数の事前訓練データセットのうちの少なくとも1つの事前訓練データセットの訓練出力テキストは、複数の出力テキスト属性のうちの少なくとも1つの出力テキスト属性の異なる属性値がラベル付けされている。
いくつかの実施例では、汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、出力テキストを生成するデコーダとを少なくとも含み、タスク指示情報及び第1の属性指示情報は、第1のエンコーダに入力される。装置600は、ターゲットテキスト生成タスクに対する第2のターゲット出力テキスト属性を示す第2の属性指示情報を決定するように構成される第2の属性決定モジュールを含む。モデル調整モジュール630は、第2の属性指示情報を汎用テキスト生成モデルの第2のエンコーダの入力として適用することにより、ターゲット訓練データセットに基づいて汎用テキスト生成モデルを調整するように構成される再調整モジュールを含む。
いくつかの実施例では、汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、第1のエンコーダの中間出力に基づいて出力テキストを生成するデコーダとを少なくとも含み、タスク指示情報及び第1の属性指示情報は、第1のエンコーダに入力される。いくつかの実施例では、モデル調整モジュール630は、第1のエンコーダの中間出力に基づいて、複数の出力テキスト属性に含まれない第3のターゲット出力テキスト属性を有するターゲット出力テキストを出力するようにデコーダを制御するように構成される属性制御モデルを取得するように構成される拡張属性制御モジュールと、属性制御モデルと汎用テキスト生成モデルとを組み合わせて調整するように構成される組み合わせ調整モジュールとを含む。
いくつかの実施例では、属性制御モデルは、第1のエンコーダの中間出力に基づいて、第3のターゲット出力テキスト属性の異なる属性値を示す案内情報を決定することによって、第3のターゲット出力テキスト属性を有するターゲット出力テキストを生成するようにデコーダを案内するように構成される属性分類モデルと、デコーダと協働して第1のエンコーダの中間出力を復号して、第3のターゲット出力テキスト属性を有するターゲット出力テキストを生成するように構成される言語モデルとのうちの少なくとも1つを含む。
いくつかの実施例では、ターゲットテキスト生成タスクは、第1のターゲットテキスト生成タスクである。装置600は、複数のタスクタイプの中から、第2のターゲットテキスト生成タスクの第2のターゲットタスクタイプを決定するように構成される別のタスクタイプ決定モジュールと、第2のターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、複数の出力テキスト属性の中から、第2のターゲットテキスト生成タスクに対する別のターゲット出力テキスト属性を決定するように構成される別の属性決定モジュールと、第2のターゲットタスクタイプに対する第2のタスク指示情報と、別のターゲット出力テキスト属性に対する別の属性指示情報とを、汎用テキスト生成モデルの入力の少なくとも一部とすることにより、第2のターゲットテキスト生成タスクに関連付けられた第2のターゲット訓練データセットに基づいて汎用テキスト生成モデルを調整して、第2のターゲットテキスト生成タスクに対する別のタスク特定テキスト生成モデルを取得するように構成される別のモデル調整モジュールとをさらに含む。
いくつかの実施例では、装置600は、ターゲットテキスト生成タスクに対するターゲット入力テキストを取得するように構成されるテキスト取得モジュールと、ターゲット入力テキスト、タスク指示情報、及び第1の属性指示情報をタスク特定テキスト生成モデルの入力として適用するように構成される入力適用モジュールと、タスク特定テキスト生成モデルを実行して、タスク特定テキスト生成モデルの出力をターゲットテキスト生成タスクのターゲット出力テキストとして取得するように構成されるモデル実行モジュールとをさらに含む。
本開示の例示的な実施形態によれば、電子機器及び読み取り可能な記憶媒体をさらに提供する。
図7は、本開示の実施例を実施するための例示的な電子機器700の概略ブロック図を示す。電子機器700は、図1の電子機器110又は電子機器130として実現されてもよく、又は図1の電子機器110又は電子機器130に含まれてもよい。
図示されるように、電子機器700は、読出し専用メモリ(ROM)702に記憶されたコンピュータプログラム命令又は記憶ユニット708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラム命令に従って、様々な適切な動作及び処理を実行することができるコンピューティングユニット701を含む。RAM703には、電子機器700の動作に必要な様々なプログラム及びデータが記憶されてもよい。コンピューティングユニット701、ROM 702及びRAM 703は、バス704を介して互いに接続されている。入力/出力(I/O)インターフェース705もバス704に接続されている。なお、電子機器700の様々なコンポーネントは、バスに加えて他の方式で接続されてもよい。
電子機器700の複数のコンポーネントは、I/Oインターフェース705に接続される。これらのコンポーネントは、タッチスクリーン、キーパッド、マウス、トラックボード、タッチパッド、ポインティングスティック、1つ以上のマウスボタン、トラックボール、ジョイスティックなどの入力装置などの入力ユニット706と、各種ディスプレイ機器(たとえば、タッチスクリーンであってもよい)、スピーカ、補助照明装置(たとえば、LED)、触覚フィードバック装置(たとえば、振動モータ)などの出力ユニット707と、磁気ディスク、光ディスク等の記憶ユニット708と、ネットワークカード、モデム、無線通信トランシーバなどの通信ユニット709とを含む。通信ユニット709は、インターネットなどのコンピュータネットワーク及び/又は様々な電気通信ネットワークを介して、電子機器700が他の機器と情報/データを交換することを可能にする。
コンピューティングユニット701は、処理能力及びコンピューティング能力を有する様々な汎用及び/又は専用の処理構成要素であってもよい。コンピューティングユニット701のいくつかの例には、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、様々な専用人工知能(AI)コンピューティングチップ、機械学習モデルアルゴリズムを実行する様々なコンピューティングユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどが含まれるが、これらに限定されるものではない。コンピューティングユニット701は、上述した様々な方法及び処理、たとえば、方法500を実行する。たとえば、いくつかの実施例では、方法500は、記憶ユニット708などの機械読み取り可能な媒体に物理的に含まれるコンピュータソフトウェアプログラムとして実現されてもよい。いくつかの実施例では、コンピュータプログラムの一部又は全部を、ROM 702及び/又は通信ユニット709を介して電子機器700にロード及び/又はインストールすることができる。コンピュータプログラムがRAM 703にロードされ、コンピューティングユニット701によって実行されると、上述した方法500の1つ以上のステップを実行することができる。オプションとして、他の実施例では、コンピューティングユニット701は、他の任意の適切な方式で(たとえば、ファームウェアによって)方法500を実行するように構成されてもよい。
本開示の例示的な実現方式によれば、コンピュータ実行可能な命令が記憶されたコンピュータ読み取り可能な記憶媒体を提供し、コンピュータ実行可能な命令は、プロセッサによって実行され、上述した方法を実現する。本開示の例示的な実現方式によれば、プロセッサによって実行されて上述した方法を実現するコンピュータプログラム/コンピュータ実行可能な命令を含むコンピュータプログラム製品をさらに提供する。いくつかの形態では、コンピュータプログラム製品は、非一時的なコンピュータ読み取り可能な媒体に物理的に記憶されてもよい。
ここで記載されたシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、専用ASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はこれらの組み合わせにおいて実現されてもよい。これらの様々な実施形態は、1つ以上のコンピュータプログラムで実装することを含み、この1つ以上のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行及び/又は解釈することができ、このプログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、該記憶システム、該少なくとも1つの入力装置、及び該少なくとも1つの出力装置にデータ及び命令を転送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、高度なプロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブル/機械語を使用して実装されてもよい。本明細書に使用される場合、用語「コンピュータ読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブル論理装置(PLD))を指し、機械読み取り可能な信号としての機械命令を受信するコンピュータ読み取り可能な媒体を含む。用語「機械読み取り可能な信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、ここで記載されたシステム及び技術はコンピュータ上で実施してもよく、このコンピュータは、ユーザに情報を表示するためのディスプレイ装置(たとえば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、ユーザがコンピュータに入力を提供するキーボード及びポインティング装置(たとえば、マウス又はトラックボール)とを含む。他の種類の装置は、ユーザとのインタラクションを提供するためにも使用され得、たとえば、ユーザに提供されるフィードバックは、任意の形態の感知フィードバック(たとえば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、ユーザからの入力は、任意の形式(音声入力、音声入力、又は触覚入力を含む)で受信することができる。
ここで記載されたシステム及び技術は、バックグラウンドコンポーネントを含むコンピューティングシステム(たとえば、データサーバとして)、又はミドルウェアコンポーネントを含むコンピューティングシステム(たとえば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(たとえば、ユーザがここで記載されたシステム及び技術の実施形態とインタラクションできるグラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ)、又はそのようなバックグラウンドコンポーネント、ミドルウェアコンポーネント、又はフロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムにおいて実現され得る。システムのコンポーネントは、任意の形式又は媒体のデジタルデータ通信(たとえば、通信ネットワーク)を介して相互に接続することができる。通信ネットワークの例には、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及びインターネットが含まれる。
コンピュータシステムは、クライアント及びサーバを含むことができる。クライアント及びサーバは、一般的に互いに離れており、通常、通信ネットワークを介してインタラクションする。クライアントとサーバの関係は、対応するコンピュータ上で実行され、互いにクライアント‐サーバ関係を有するコンピュータプログラムによって生成される。
本開示の方法を実施するためのプログラムコードは、1つ以上のプログラミング言語の任意の組み合わせを用いてプログラミングすることができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されて、プロセッサ又はコントローラによって実行されると、プログラムコードがフローチャート及び/又はブロック図に指定された機能/動作を実施するようにしてもよい。プログラムコードは、完全にマシン上で実行されてもよく、部分的にマシン上で実行されてもよく、スタンドアロンパッケージとして一部がマシン上で実行され且つ一部がリモートマシン上で実行されてもよく、又は完全にリモートマシン又はサーバ上で実行されてもよい。
本開示の文脈では、コンピュータ読み取り可能な媒体は、命令実行システム、装置、又は機器によって使用されるために、又は命令実行システム、装置、又は機器とともに使用されるためのプログラムを含み、又は格納することができる有形媒体とすることができる。コンピュータ読み取り可能な媒体は、機械読み取り可能な信号媒体又は機械読み取り可能な記憶媒体であってもよい。コンピュータ読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体的なシステム、装置又は機器、あるいはこれらの任意の適切な組み合わせを含むことができるが、これらに限定されるものではない。機械読み取り可能な記憶媒体のより具体的な例は、1つ以上のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルのコンパクトディスク読み取り専用メモリ(CD‐ROM)、光学記憶機器、磁気記憶機器、又はこれらの任意の適切な組み合わせを含む。
なお、上記の様々な形態のプロセスを使用して、ステップを並べ替えたり、追加したり、削除したりすることができる。たとえば、本出願に記載された各ステップは、本開示に開示された技術案によって期待される結果を達成できる限り、並行して実行されてもよいし、連続的に実行されてもよいし、異なる順序で実行されてもよく、本明細書において限定しない。
上記の具体的な実施形態は、本開示の特許範囲に対する制限を構成しない。当業者が理解できるように、設計要件及びその他の要素に応じて、様々な修正、組み合わせ、サブ組み合わせ及び代替が可能である。本開示の精神及び原則の範囲内で行われたいかなる修正、同等の置換や改良も、本開示の特許範囲に含まれるべきである。

Claims (19)

  1. 事前に訓練された汎用テキスト生成モデルによってサポートされる複数のタスクタイプの中から、ターゲットテキスト生成タスクのターゲットタスクタイプを決定することと、
    前記ターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、前記汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、前記ターゲットテキスト生成タスクに対する少なくとも1つの第1のターゲット出力テキスト属性を決定することと、
    前記ターゲットタスクタイプに対するタスク指示情報と、前記少なくとも1つの第1のターゲット出力テキスト属性に対する第1の属性指示情報とを、前記汎用テキスト生成モデルの入力の少なくとも一部とすることにより、前記ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整して、前記ターゲットテキスト生成タスクに対するタスク特定テキスト生成モデルを取得することとを含む、テキスト生成方法。
  2. 前記汎用テキスト生成モデルは、前記複数のタスクタイプのうちの対応するタスクタイプに関連付けられた訓練入力テキスト及び訓練出力テキストをそれぞれ含む複数の事前訓練データセットに基づいて事前に訓練される、請求項1に記載の方法。
  3. 前記複数の事前訓練データセットのうちの少なくとも1つの事前訓練データセットの訓練出力テキストは、前記複数の出力テキスト属性のうちの少なくとも1つの出力テキスト属性の異なる属性値がラベル付けされている、請求項2に記載の方法。
  4. 前記汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、出力テキストを生成するデコーダとを少なくとも含み、前記タスク指示情報及び前記第1の属性指示情報は、前記第1のエンコーダに入力され、
    前記汎用テキスト生成モデルを調整することは、
    前記ターゲットテキスト生成タスクに対する第2のターゲット出力テキスト属性を示す第2の属性指示情報を決定することと、
    前記第2の属性指示情報を前記汎用テキスト生成モデルの第2のエンコーダの入力として適用することにより、前記ターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整することとをさらに含む、請求項1に記載の方法。
  5. 前記汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、前記第1のエンコーダの中間出力に基づいて出力テキストを生成するデコーダとを少なくとも含み、前記タスク指示情報及び前記第1の属性指示情報は、前記第1のエンコーダに入力され、
    前記汎用テキスト生成モデルを調整することは、
    前記第1のエンコーダの前記中間出力に基づいて、前記複数の出力テキスト属性に含まれない第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを出力するように前記デコーダを制御するように構成される属性制御モデルを取得することと、
    前記属性制御モデルと前記汎用テキスト生成モデルとを組み合わせて調整することとをさらに含む、請求項1に記載の方法。
  6. 前記属性制御モデルは、
    前記第1のエンコーダの前記中間出力に基づいて、前記第3のターゲット出力テキスト属性の異なる属性値を示す案内情報を決定することによって、前記第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを生成するように前記デコーダを案内するように構成される属性分類モデルと、
    前記デコーダと協働して前記第1のエンコーダの前記中間出力を復号して、前記第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを生成するように構成される言語モデルとのうちの少なくとも1つを含む、請求項5に記載の方法。
  7. 前記ターゲットテキスト生成タスクは、第1のターゲットテキスト生成タスクであり、
    前記複数のタスクタイプの中から、第2のターゲットテキスト生成タスクの第2のターゲットタスクタイプを決定することと、
    前記第2のターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、前記複数の出力テキスト属性の中から、前記第2のターゲットテキスト生成タスクに対する別のターゲット出力テキスト属性を決定することと、
    前記第2のターゲットタスクタイプに対する第2のタスク指示情報と、前記別のターゲット出力テキスト属性に対する別の属性指示情報とを、前記汎用テキスト生成モデルの入力の少なくとも一部とすることにより、前記第2のターゲットテキスト生成タスクに関連付けられた第2のターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整して、前記第2のターゲットテキスト生成タスクに対する別のタスク特定テキスト生成モデルを取得することとをさらに含む、請求項1に記載の方法。
  8. 前記ターゲットテキスト生成タスクに対するターゲット入力テキストを取得することと、
    前記ターゲット入力テキスト、前記タスク指示情報、及び前記第1の属性指示情報を前記タスク特定テキスト生成モデルの入力として適用することと、
    前記タスク特定テキスト生成モデルを実行して、前記タスク特定テキスト生成モデルの出力を前記ターゲットテキスト生成タスクの前記ターゲット出力テキストとして取得することとをさらに含む、請求項1に記載の方法。
  9. 事前に訓練された汎用テキスト生成モデルによってサポートされる複数のタスクタイプの中から、ターゲットテキスト生成タスクのターゲットタスクタイプを決定するタスクタイプ決定モジュールと、
    前記ターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、前記汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、前記ターゲットテキスト生成タスクに対する少なくとも1つの第1のターゲット出力テキスト属性を決定する第1の属性決定モジュールと、
    前記ターゲットタスクタイプに対するタスク指示情報と、前記少なくとも1つの第1のターゲット出力テキスト属性に対する第1の属性指示情報とを、前記汎用テキスト生成モデルの入力の少なくとも一部とすることにより、前記ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整して、前記ターゲットテキスト生成タスクに対するタスク特定テキスト生成モデルを取得するモデル調整モジュールとを含む、テキスト生成装置。
  10. 前記汎用テキスト生成モデルは、前記複数のタスクタイプのうちの対応するタスクタイプに関連付けられた訓練入力テキスト及び訓練出力テキストをそれぞれ含む複数の事前訓練データセットに基づいて事前に訓練される、請求項9に記載の装置。
  11. 前記複数の事前訓練データセットのうちの少なくとも1つの事前訓練データセットの訓練出力テキストは、前記複数の出力テキスト属性のうちの少なくとも1つの出力テキスト属性の異なる属性値がラベル付けされている、請求項10に記載の装置。
  12. 前記汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、出力テキストを生成するデコーダとを少なくとも含み、前記タスク指示情報及び前記第1の属性指示情報は、前記第1のエンコーダに入力され、
    前記ターゲットテキスト生成タスクに対する第2のターゲット出力テキスト属性を示す第2の属性指示情報を決定する第2の属性決定モジュールをさらに含み、
    前記モデル調整モジュールは、
    前記第2の属性指示情報を前記汎用テキスト生成モデルの第2のエンコーダの入力として適用することにより、前記ターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整する再調整モジュールを含む、請求項9に記載の装置。
  13. 前記汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、前記第1のエンコーダの中間出力に基づいて出力テキストを生成するデコーダとを少なくとも含み、前記タスク指示情報及び前記第1の属性指示情報は、前記第1のエンコーダに入力され、
    前記モデル調整モジュールは、
    前記第1のエンコーダの前記中間出力に基づいて、前記複数の出力テキスト属性に含まれない第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを出力するように前記デコーダを制御するように構成される属性制御モデルを取得する拡張属性制御モジュールと、
    前記属性制御モデルと前記汎用テキスト生成モデルとを組み合わせて調整する組み合わせ調整モジュールとを含む、請求項9に記載の装置。
  14. 前記属性制御モデルは、
    前記第1のエンコーダの前記中間出力に基づいて、前記第3のターゲット出力テキスト属性の異なる属性値を示す案内情報を決定することによって、前記第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを生成するように前記デコーダを案内するように構成される属性分類モデルと、
    前記デコーダと協働して前記第1のエンコーダの前記中間出力を復号して、前記第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを生成するように構成される言語モデルとのうちの少なくとも1つを含む、請求項13に記載の装置。
  15. 前記ターゲットテキスト生成タスクは、第1のターゲットテキスト生成タスクであり、
    前記複数のタスクタイプの中から、第2のターゲットテキスト生成タスクの第2のターゲットタスクタイプを決定する別のタスクタイプ決定モジュールと、
    前記第2のターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、前記複数の出力テキスト属性の中から、前記第2のターゲットテキスト生成タスクに対する別のターゲット出力テキスト属性を決定する別の属性決定モジュールと、
    前記第2のターゲットタスクタイプに対する第2のタスク指示情報と、前記別のターゲット出力テキスト属性に対する別の属性指示情報とを、前記汎用テキスト生成モデルの入力の少なくとも一部とすることにより、前記第2のターゲットテキスト生成タスクに関連付けられた第2のターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整して、前記第2のターゲットテキスト生成タスクに対する別のタスク特定テキスト生成モデルを取得する別のモデル調整モジュールとを含む、請求項9に記載の装置。
  16. 前記ターゲットテキスト生成タスクに対するターゲット入力テキストを取得するテキスト取得モジュールと、
    前記ターゲット入力テキスト、前記タスク指示情報、及び前記第1の属性指示情報を前記タスク特定テキスト生成モデルの入力として適用する入力適用モジュールと、
    前記タスク特定テキスト生成モデルを実行して、前記タスク特定テキスト生成モデルの出力を前記ターゲットテキスト生成タスクの前記ターゲット出力テキストとして取得するモデル実行モジュールとをさらに含む、請求項9に記載の装置。
  17. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されたメモリとを含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサにより実行される際に、請求項1〜8のいずれか1項に記載の方法を前記少なくとも1つのプロセッサに実行させる、電子機器。
  18. 請求項1〜8のいずれか1項に記載の方法をコンピュータに実行させるためのコンピュータ命令が記憶されているコンピュータ読み取り可能な記憶媒体。
  19. プロセッサによって実行される際に、請求項1〜8のいずれか1項に記載の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品。
JP2021086013A 2020-12-22 2021-05-21 テキスト生成方法、装置、機器及び媒体 Pending JP2021121967A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011523936.4A CN112257393B (zh) 2020-12-22 2020-12-22 实现文本生成的方法、装置、设备和介质
CN202011523936.4 2020-12-22

Publications (1)

Publication Number Publication Date
JP2021121967A true JP2021121967A (ja) 2021-08-26

Family

ID=74225842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021086013A Pending JP2021121967A (ja) 2020-12-22 2021-05-21 テキスト生成方法、装置、機器及び媒体

Country Status (3)

Country Link
US (1) US11675983B2 (ja)
JP (1) JP2021121967A (ja)
CN (1) CN112257393B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113988027A (zh) * 2021-09-23 2022-01-28 阿里巴巴达摩院(杭州)科技有限公司 文本生成方法、装置、设备及存储介质
CN114416948A (zh) * 2022-01-18 2022-04-29 重庆邮电大学 一种基于语义感知的一对多对话生成方法及装置
CN114997164A (zh) * 2022-05-31 2022-09-02 北京深言科技有限责任公司 文本生成方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190251431A1 (en) * 2018-02-09 2019-08-15 Salesforce.Com, Inc. Multitask Learning As Question Answering
JP2020140628A (ja) * 2019-03-01 2020-09-03 日本電信電話株式会社 文生成装置、文生成方法、文生成学習装置、文生成学習方法及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133224B (zh) * 2017-04-25 2020-11-03 中国人民大学 一种基于主题词的语言生成方法
CN107680580B (zh) * 2017-09-28 2020-08-18 百度在线网络技术(北京)有限公司 文本转换模型训练方法和装置、文本转换方法和装置
US20190287012A1 (en) * 2018-03-16 2019-09-19 Microsoft Technology Licensing, Llc Encoder-decoder network with intercommunicating encoder agents
US11651163B2 (en) * 2019-07-22 2023-05-16 Capital One Services, Llc Multi-turn dialogue response generation with persona modeling
US11893060B2 (en) * 2020-02-06 2024-02-06 Naver Corporation Latent question reformulation and information accumulation for multi-hop machine reading
CN111460833B (zh) 2020-04-01 2023-08-25 合肥讯飞数码科技有限公司 文本生成方法、装置和设备
US11710070B2 (en) * 2020-04-20 2023-07-25 Microsoft Technology Licensing, Llc Machine learned model framework for screening question generation
CN111523304B (zh) * 2020-04-27 2022-08-02 华东师范大学 一种基于预训练模型的产品描述文本的自动生成方法
CN111563390B (zh) * 2020-04-28 2022-03-15 北京字节跳动网络技术有限公司 文本生成方法、装置和电子设备
CN111639163A (zh) 2020-04-29 2020-09-08 深圳壹账通智能科技有限公司 问题生成模型的训练方法、问题生成方法及其相关设备
CN111625645B (zh) * 2020-05-14 2023-05-23 北京字节跳动网络技术有限公司 文本生成模型的训练方法、装置和电子设备
CN111709248B (zh) 2020-05-28 2023-07-11 北京百度网讯科技有限公司 文本生成模型的训练方法、装置及电子设备
CN112100375A (zh) * 2020-09-10 2020-12-18 清华大学 文本信息生成方法、装置、存储介质及设备
CN112232057B (zh) * 2020-09-21 2024-03-01 清华大学 基于文本扩展的对抗样本生成方法、装置、介质和设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190251431A1 (en) * 2018-02-09 2019-08-15 Salesforce.Com, Inc. Multitask Learning As Question Answering
JP2020140628A (ja) * 2019-03-01 2020-09-03 日本電信電話株式会社 文生成装置、文生成方法、文生成学習装置、文生成学習方法及びプログラム

Also Published As

Publication number Publication date
US20210286934A1 (en) 2021-09-16
CN112257393B (zh) 2021-04-13
CN112257393A (zh) 2021-01-22
US11675983B2 (en) 2023-06-13

Similar Documents

Publication Publication Date Title
KR102577514B1 (ko) 텍스트 창작 방법, 텍스트 창작 장치, 전자 기기 및 저장 매체
JP7398402B2 (ja) 実体リンキング方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP2021121967A (ja) テキスト生成方法、装置、機器及び媒体
EP3916611A1 (en) Method, apparatus, computer program, and storage medium for training text generation model
JP2021190087A (ja) テキスト認識処理方法、装置、電子機器及び記憶媒体
JP2021099774A (ja) ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器
CN112789591A (zh) 自动内容编辑器
JP7301922B2 (ja) 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム
KR20210148872A (ko) 복수 종류의 단어 벡터에 기반하여 언어 모델을 트레이닝하는 방법, 장치, 기기 및 기록 매체
JP2021152963A (ja) 語義特徴の生成方法、モデルトレーニング方法、装置、機器、媒体及びプログラム
CN114970522B (zh) 语言模型的预训练方法、装置、设备、存储介质
US20230023789A1 (en) Method for identifying noise samples, electronic device, and storage medium
JP7413630B2 (ja) 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体
KR20210056961A (ko) 의미 처리 방법, 장치, 전자 기기 및 매체
JP2023039888A (ja) モデルトレーニング及び字庫作成の方法、装置、機器、及び記憶媒体
US11562144B2 (en) Generative text summarization system and method
CN116012481B (zh) 图像生成处理方法、装置、电子设备及存储介质
JP2021170310A (ja) 対話生成方法、装置、電子機器、プログラム及び記憶媒体
CN116595138A (zh) 知识问答方法、装置、设备及存储介质
CN114444462A (zh) 模型训练方法及人机交互方法、装置
CN114298031A (zh) 文本处理方法、计算机设备及存储介质
CN117539975A (zh) 大语言模型的提示词信息的生成方法、装置、设备及介质
JP2019200756A (ja) 人工知能プログラミングサーバおよびそのプログラム
US20200279024A1 (en) Non-transitory computer readable medium
CN111651988B (zh) 用于训练模型的方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221220