JP2021121967A - テキスト生成方法、装置、機器及び媒体 - Google Patents
テキスト生成方法、装置、機器及び媒体 Download PDFInfo
- Publication number
- JP2021121967A JP2021121967A JP2021086013A JP2021086013A JP2021121967A JP 2021121967 A JP2021121967 A JP 2021121967A JP 2021086013 A JP2021086013 A JP 2021086013A JP 2021086013 A JP2021086013 A JP 2021086013A JP 2021121967 A JP2021121967 A JP 2021121967A
- Authority
- JP
- Japan
- Prior art keywords
- text
- target
- task
- attribute
- text generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/117—Tagging; Marking up; Designating a block; Setting of attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
事前訓練された汎用テキスト生成モデルによってサポートされる複数のタスクタイプの中から、ターゲットテキスト生成タスクのターゲットタスクタイプを決定することと、
ターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、ターゲットテキスト生成タスクに対する少なくとも1つの第1のターゲット出力テキスト属性を決定することと、
ターゲットタスクタイプに対するタスク指示情報と、少なくとも1つの第1のターゲット出力テキスト属性に対する第1の属性指示情報とを、汎用テキスト生成モデルの入力の少なくとも一部とすることにより、ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて汎用テキスト生成モデルを調整して、ターゲットテキスト生成タスクに対するタスク特定テキスト生成モデルを取得することとを含む。
事前訓練された汎用テキスト生成モデルによってサポートされる複数のタスクタイプの中から、ターゲットテキスト生成タスクのターゲットタスクタイプを決定するように構成されるタスクタイプ決定モジュールと、
前記ターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、前記汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、前記ターゲットテキスト生成タスクに対する少なくとも1つの第1のターゲット出力テキスト属性を決定するように構成される第1の属性決定モジュールと、
前記ターゲットタスクタイプに対するタスク指示情報と、前記少なくとも1つの第1のターゲット出力テキスト属性に対する第1の属性指示情報とを、前記汎用テキスト生成モデルの入力の少なくとも一部とすることにより、前記ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整して、前記ターゲットテキスト生成タスクに対するタスク特定テキスト生成モデルを取得するように構成されるモデル調整モジュールとを含む。
Claims (19)
- 事前に訓練された汎用テキスト生成モデルによってサポートされる複数のタスクタイプの中から、ターゲットテキスト生成タスクのターゲットタスクタイプを決定することと、
前記ターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、前記汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、前記ターゲットテキスト生成タスクに対する少なくとも1つの第1のターゲット出力テキスト属性を決定することと、
前記ターゲットタスクタイプに対するタスク指示情報と、前記少なくとも1つの第1のターゲット出力テキスト属性に対する第1の属性指示情報とを、前記汎用テキスト生成モデルの入力の少なくとも一部とすることにより、前記ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整して、前記ターゲットテキスト生成タスクに対するタスク特定テキスト生成モデルを取得することとを含む、テキスト生成方法。 - 前記汎用テキスト生成モデルは、前記複数のタスクタイプのうちの対応するタスクタイプに関連付けられた訓練入力テキスト及び訓練出力テキストをそれぞれ含む複数の事前訓練データセットに基づいて事前に訓練される、請求項1に記載の方法。
- 前記複数の事前訓練データセットのうちの少なくとも1つの事前訓練データセットの訓練出力テキストは、前記複数の出力テキスト属性のうちの少なくとも1つの出力テキスト属性の異なる属性値がラベル付けされている、請求項2に記載の方法。
- 前記汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、出力テキストを生成するデコーダとを少なくとも含み、前記タスク指示情報及び前記第1の属性指示情報は、前記第1のエンコーダに入力され、
前記汎用テキスト生成モデルを調整することは、
前記ターゲットテキスト生成タスクに対する第2のターゲット出力テキスト属性を示す第2の属性指示情報を決定することと、
前記第2の属性指示情報を前記汎用テキスト生成モデルの第2のエンコーダの入力として適用することにより、前記ターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整することとをさらに含む、請求項1に記載の方法。 - 前記汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、前記第1のエンコーダの中間出力に基づいて出力テキストを生成するデコーダとを少なくとも含み、前記タスク指示情報及び前記第1の属性指示情報は、前記第1のエンコーダに入力され、
前記汎用テキスト生成モデルを調整することは、
前記第1のエンコーダの前記中間出力に基づいて、前記複数の出力テキスト属性に含まれない第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを出力するように前記デコーダを制御するように構成される属性制御モデルを取得することと、
前記属性制御モデルと前記汎用テキスト生成モデルとを組み合わせて調整することとをさらに含む、請求項1に記載の方法。 - 前記属性制御モデルは、
前記第1のエンコーダの前記中間出力に基づいて、前記第3のターゲット出力テキスト属性の異なる属性値を示す案内情報を決定することによって、前記第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを生成するように前記デコーダを案内するように構成される属性分類モデルと、
前記デコーダと協働して前記第1のエンコーダの前記中間出力を復号して、前記第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを生成するように構成される言語モデルとのうちの少なくとも1つを含む、請求項5に記載の方法。 - 前記ターゲットテキスト生成タスクは、第1のターゲットテキスト生成タスクであり、
前記複数のタスクタイプの中から、第2のターゲットテキスト生成タスクの第2のターゲットタスクタイプを決定することと、
前記第2のターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、前記複数の出力テキスト属性の中から、前記第2のターゲットテキスト生成タスクに対する別のターゲット出力テキスト属性を決定することと、
前記第2のターゲットタスクタイプに対する第2のタスク指示情報と、前記別のターゲット出力テキスト属性に対する別の属性指示情報とを、前記汎用テキスト生成モデルの入力の少なくとも一部とすることにより、前記第2のターゲットテキスト生成タスクに関連付けられた第2のターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整して、前記第2のターゲットテキスト生成タスクに対する別のタスク特定テキスト生成モデルを取得することとをさらに含む、請求項1に記載の方法。 - 前記ターゲットテキスト生成タスクに対するターゲット入力テキストを取得することと、
前記ターゲット入力テキスト、前記タスク指示情報、及び前記第1の属性指示情報を前記タスク特定テキスト生成モデルの入力として適用することと、
前記タスク特定テキスト生成モデルを実行して、前記タスク特定テキスト生成モデルの出力を前記ターゲットテキスト生成タスクの前記ターゲット出力テキストとして取得することとをさらに含む、請求項1に記載の方法。 - 事前に訓練された汎用テキスト生成モデルによってサポートされる複数のタスクタイプの中から、ターゲットテキスト生成タスクのターゲットタスクタイプを決定するタスクタイプ決定モジュールと、
前記ターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、前記汎用テキスト生成モデルによってサポートされる複数の出力テキスト属性の中から、前記ターゲットテキスト生成タスクに対する少なくとも1つの第1のターゲット出力テキスト属性を決定する第1の属性決定モジュールと、
前記ターゲットタスクタイプに対するタスク指示情報と、前記少なくとも1つの第1のターゲット出力テキスト属性に対する第1の属性指示情報とを、前記汎用テキスト生成モデルの入力の少なくとも一部とすることにより、前記ターゲットテキスト生成タスクに関連付けられたターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整して、前記ターゲットテキスト生成タスクに対するタスク特定テキスト生成モデルを取得するモデル調整モジュールとを含む、テキスト生成装置。 - 前記汎用テキスト生成モデルは、前記複数のタスクタイプのうちの対応するタスクタイプに関連付けられた訓練入力テキスト及び訓練出力テキストをそれぞれ含む複数の事前訓練データセットに基づいて事前に訓練される、請求項9に記載の装置。
- 前記複数の事前訓練データセットのうちの少なくとも1つの事前訓練データセットの訓練出力テキストは、前記複数の出力テキスト属性のうちの少なくとも1つの出力テキスト属性の異なる属性値がラベル付けされている、請求項10に記載の装置。
- 前記汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、出力テキストを生成するデコーダとを少なくとも含み、前記タスク指示情報及び前記第1の属性指示情報は、前記第1のエンコーダに入力され、
前記ターゲットテキスト生成タスクに対する第2のターゲット出力テキスト属性を示す第2の属性指示情報を決定する第2の属性決定モジュールをさらに含み、
前記モデル調整モジュールは、
前記第2の属性指示情報を前記汎用テキスト生成モデルの第2のエンコーダの入力として適用することにより、前記ターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整する再調整モジュールを含む、請求項9に記載の装置。 - 前記汎用テキスト生成モデルは、入力テキストを受信する第1のエンコーダと、前記第1のエンコーダの中間出力に基づいて出力テキストを生成するデコーダとを少なくとも含み、前記タスク指示情報及び前記第1の属性指示情報は、前記第1のエンコーダに入力され、
前記モデル調整モジュールは、
前記第1のエンコーダの前記中間出力に基づいて、前記複数の出力テキスト属性に含まれない第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを出力するように前記デコーダを制御するように構成される属性制御モデルを取得する拡張属性制御モジュールと、
前記属性制御モデルと前記汎用テキスト生成モデルとを組み合わせて調整する組み合わせ調整モジュールとを含む、請求項9に記載の装置。 - 前記属性制御モデルは、
前記第1のエンコーダの前記中間出力に基づいて、前記第3のターゲット出力テキスト属性の異なる属性値を示す案内情報を決定することによって、前記第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを生成するように前記デコーダを案内するように構成される属性分類モデルと、
前記デコーダと協働して前記第1のエンコーダの前記中間出力を復号して、前記第3のターゲット出力テキスト属性を有する前記ターゲット出力テキストを生成するように構成される言語モデルとのうちの少なくとも1つを含む、請求項13に記載の装置。 - 前記ターゲットテキスト生成タスクは、第1のターゲットテキスト生成タスクであり、
前記複数のタスクタイプの中から、第2のターゲットテキスト生成タスクの第2のターゲットタスクタイプを決定する別のタスクタイプ決定モジュールと、
前記第2のターゲットテキスト生成タスクのターゲット出力テキストに対する要求に基づいて、前記複数の出力テキスト属性の中から、前記第2のターゲットテキスト生成タスクに対する別のターゲット出力テキスト属性を決定する別の属性決定モジュールと、
前記第2のターゲットタスクタイプに対する第2のタスク指示情報と、前記別のターゲット出力テキスト属性に対する別の属性指示情報とを、前記汎用テキスト生成モデルの入力の少なくとも一部とすることにより、前記第2のターゲットテキスト生成タスクに関連付けられた第2のターゲット訓練データセットに基づいて前記汎用テキスト生成モデルを調整して、前記第2のターゲットテキスト生成タスクに対する別のタスク特定テキスト生成モデルを取得する別のモデル調整モジュールとを含む、請求項9に記載の装置。 - 前記ターゲットテキスト生成タスクに対するターゲット入力テキストを取得するテキスト取得モジュールと、
前記ターゲット入力テキスト、前記タスク指示情報、及び前記第1の属性指示情報を前記タスク特定テキスト生成モデルの入力として適用する入力適用モジュールと、
前記タスク特定テキスト生成モデルを実行して、前記タスク特定テキスト生成モデルの出力を前記ターゲットテキスト生成タスクの前記ターゲット出力テキストとして取得するモデル実行モジュールとをさらに含む、請求項9に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリとを含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサにより実行される際に、請求項1〜8のいずれか1項に記載の方法を前記少なくとも1つのプロセッサに実行させる、電子機器。 - 請求項1〜8のいずれか1項に記載の方法をコンピュータに実行させるためのコンピュータ命令が記憶されているコンピュータ読み取り可能な記憶媒体。
- プロセッサによって実行される際に、請求項1〜8のいずれか1項に記載の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011523936.4A CN112257393B (zh) | 2020-12-22 | 2020-12-22 | 实现文本生成的方法、装置、设备和介质 |
CN202011523936.4 | 2020-12-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021121967A true JP2021121967A (ja) | 2021-08-26 |
Family
ID=74225842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021086013A Pending JP2021121967A (ja) | 2020-12-22 | 2021-05-21 | テキスト生成方法、装置、機器及び媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11675983B2 (ja) |
JP (1) | JP2021121967A (ja) |
CN (1) | CN112257393B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113988027A (zh) * | 2021-09-23 | 2022-01-28 | 阿里巴巴达摩院(杭州)科技有限公司 | 文本生成方法、装置、设备及存储介质 |
CN114416948A (zh) * | 2022-01-18 | 2022-04-29 | 重庆邮电大学 | 一种基于语义感知的一对多对话生成方法及装置 |
CN114997164A (zh) * | 2022-05-31 | 2022-09-02 | 北京深言科技有限责任公司 | 文本生成方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190251431A1 (en) * | 2018-02-09 | 2019-08-15 | Salesforce.Com, Inc. | Multitask Learning As Question Answering |
JP2020140628A (ja) * | 2019-03-01 | 2020-09-03 | 日本電信電話株式会社 | 文生成装置、文生成方法、文生成学習装置、文生成学習方法及びプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133224B (zh) * | 2017-04-25 | 2020-11-03 | 中国人民大学 | 一种基于主题词的语言生成方法 |
CN107680580B (zh) * | 2017-09-28 | 2020-08-18 | 百度在线网络技术(北京)有限公司 | 文本转换模型训练方法和装置、文本转换方法和装置 |
US20190287012A1 (en) * | 2018-03-16 | 2019-09-19 | Microsoft Technology Licensing, Llc | Encoder-decoder network with intercommunicating encoder agents |
US11651163B2 (en) * | 2019-07-22 | 2023-05-16 | Capital One Services, Llc | Multi-turn dialogue response generation with persona modeling |
US11893060B2 (en) * | 2020-02-06 | 2024-02-06 | Naver Corporation | Latent question reformulation and information accumulation for multi-hop machine reading |
CN111460833B (zh) | 2020-04-01 | 2023-08-25 | 合肥讯飞数码科技有限公司 | 文本生成方法、装置和设备 |
US11710070B2 (en) * | 2020-04-20 | 2023-07-25 | Microsoft Technology Licensing, Llc | Machine learned model framework for screening question generation |
CN111523304B (zh) * | 2020-04-27 | 2022-08-02 | 华东师范大学 | 一种基于预训练模型的产品描述文本的自动生成方法 |
CN111563390B (zh) * | 2020-04-28 | 2022-03-15 | 北京字节跳动网络技术有限公司 | 文本生成方法、装置和电子设备 |
CN111639163A (zh) | 2020-04-29 | 2020-09-08 | 深圳壹账通智能科技有限公司 | 问题生成模型的训练方法、问题生成方法及其相关设备 |
CN111625645B (zh) * | 2020-05-14 | 2023-05-23 | 北京字节跳动网络技术有限公司 | 文本生成模型的训练方法、装置和电子设备 |
CN111709248B (zh) | 2020-05-28 | 2023-07-11 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、装置及电子设备 |
CN112100375A (zh) * | 2020-09-10 | 2020-12-18 | 清华大学 | 文本信息生成方法、装置、存储介质及设备 |
CN112232057B (zh) * | 2020-09-21 | 2024-03-01 | 清华大学 | 基于文本扩展的对抗样本生成方法、装置、介质和设备 |
-
2020
- 2020-12-22 CN CN202011523936.4A patent/CN112257393B/zh active Active
-
2021
- 2021-05-21 JP JP2021086013A patent/JP2021121967A/ja active Pending
- 2021-05-26 US US17/331,526 patent/US11675983B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190251431A1 (en) * | 2018-02-09 | 2019-08-15 | Salesforce.Com, Inc. | Multitask Learning As Question Answering |
JP2020140628A (ja) * | 2019-03-01 | 2020-09-03 | 日本電信電話株式会社 | 文生成装置、文生成方法、文生成学習装置、文生成学習方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210286934A1 (en) | 2021-09-16 |
CN112257393B (zh) | 2021-04-13 |
CN112257393A (zh) | 2021-01-22 |
US11675983B2 (en) | 2023-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102577514B1 (ko) | 텍스트 창작 방법, 텍스트 창작 장치, 전자 기기 및 저장 매체 | |
JP7398402B2 (ja) | 実体リンキング方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP2021121967A (ja) | テキスト生成方法、装置、機器及び媒体 | |
EP3916611A1 (en) | Method, apparatus, computer program, and storage medium for training text generation model | |
JP2021190087A (ja) | テキスト認識処理方法、装置、電子機器及び記憶媒体 | |
JP2021099774A (ja) | ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器 | |
CN112789591A (zh) | 自动内容编辑器 | |
JP7301922B2 (ja) | 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
KR20210148872A (ko) | 복수 종류의 단어 벡터에 기반하여 언어 모델을 트레이닝하는 방법, 장치, 기기 및 기록 매체 | |
JP2021152963A (ja) | 語義特徴の生成方法、モデルトレーニング方法、装置、機器、媒体及びプログラム | |
CN114970522B (zh) | 语言模型的预训练方法、装置、设备、存储介质 | |
US20230023789A1 (en) | Method for identifying noise samples, electronic device, and storage medium | |
JP7413630B2 (ja) | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 | |
KR20210056961A (ko) | 의미 처리 방법, 장치, 전자 기기 및 매체 | |
JP2023039888A (ja) | モデルトレーニング及び字庫作成の方法、装置、機器、及び記憶媒体 | |
US11562144B2 (en) | Generative text summarization system and method | |
CN116012481B (zh) | 图像生成处理方法、装置、电子设备及存储介质 | |
JP2021170310A (ja) | 対話生成方法、装置、電子機器、プログラム及び記憶媒体 | |
CN116595138A (zh) | 知识问答方法、装置、设备及存储介质 | |
CN114444462A (zh) | 模型训练方法及人机交互方法、装置 | |
CN114298031A (zh) | 文本处理方法、计算机设备及存储介质 | |
CN117539975A (zh) | 大语言模型的提示词信息的生成方法、装置、设备及介质 | |
JP2019200756A (ja) | 人工知能プログラミングサーバおよびそのプログラム | |
US20200279024A1 (en) | Non-transitory computer readable medium | |
CN111651988B (zh) | 用于训练模型的方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210521 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221003 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221220 |