JP7421604B2 - モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム - Google Patents
モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム Download PDFInfo
- Publication number
- JP7421604B2 JP7421604B2 JP2022111132A JP2022111132A JP7421604B2 JP 7421604 B2 JP7421604 B2 JP 7421604B2 JP 2022111132 A JP2022111132 A JP 2022111132A JP 2022111132 A JP2022111132 A JP 2022111132A JP 7421604 B2 JP7421604 B2 JP 7421604B2
- Authority
- JP
- Japan
- Prior art keywords
- natural language
- sample
- prompts
- model
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 78
- 238000012549 training Methods 0.000 title claims description 76
- 238000003860 storage Methods 0.000 title claims description 19
- 238000004590 computer program Methods 0.000 title claims description 11
- 239000012634 fragment Substances 0.000 claims description 36
- 230000008451 emotion Effects 0.000 claims description 27
- 238000005070 sampling Methods 0.000 claims description 14
- 238000013145 classification model Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 238000005520 cutting process Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 9
- 238000009826 distribution Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000035935 pregnancy Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
ステップ201では、サンプル自然言語テキストを取得する。
ここで、プレフィックス・テキスト・フラグメントは、任意の不完全なテキストフラグメントであってもよい。少なくとも1タイプのプロンプトは、ユーザが生成ニーズに応じて入力したプロンプトであってもよい。ユーザは、1タイプのプロンプトを入力してもよいし、複数タイプのプロンプトを入力してもよい。予測段階では、ユーザはあるタイプのプロンプトを使用するか否かをより多様に選択することができる。ここで、プレフィックス・テキスト・フラグメントと少なくとも1タイプのプロンプトとに基づいて、関連する完全な自然言語テキストを生成する必要がある。
Claims (22)
- モデル事前訓練装置により実行されるモデル事前訓練方法であって、
サンプル自然言語テキストを取得するステップと、
前記サンプル自然言語テキストに基づいて、N(ただし、Nは正の整数である)タイプのプロンプトを生成するステップと、
前記サンプル自然言語テキストおよび前記Nタイプのプロンプトに基づいて、サンプル入力データを生成するステップと、
前記サンプル入力データに基づいて初期言語モデルを訓練して、事前訓練言語モデルを得るステップと、
を含み、
前記サンプル自然言語テキストおよび前記Nタイプのプロンプトに基づいて、サンプル入力データを生成するステップは、
前記Nタイプのプロンプトのランダムサンプリング確率をそれぞれ生成するステップと、
前記Nタイプのプロンプトの中から、ランダムサンプリング確率が予め設定された確率閾値よりも大きいプロンプトを選択するステップと、
前記サンプル自然言語テキストから、サンプル・プレフィックス・テキスト・フラグメントを切り出すステップと、
選択されたプロンプトと前記サンプル・プレフィックス・テキスト・フラグメントとをスプライシングして、前記サンプル入力データを生成するステップと、
を含む、モデル事前訓練方法。 - プロンプトにはタスクタイプのプロンプトが含まれ、
前記サンプル自然言語テキストに基づいて、Nタイプのプロンプトを生成するステップは、
前記サンプル自然言語テキストの目標タスクタイプを確定するステップと、
前記目標タスクタイプに関連付けられた連続的なプロンプト語彙リストを取得するステップであって、1タスクタイプに1つの連続的なプロンプト語彙リストが関連付けられる、ステップと、
前記目標タスクタイプに関連付けられた連続的なプロンプト語彙リストからランダムな長さの連続的なプロンプトを取得して前記サンプル自然言語テキストのタスクタイプのプロンプトとするステップと、
を含む請求項1に記載のモデル事前訓練方法。 - プロンプトにはトピックタイプのプロンプトが含まれ、
前記サンプル自然言語テキストに基づいて、Nタイプのプロンプトを生成するステップは、
前記サンプル自然言語テキストを事前訓練されたトピック分類モデルに入力して、前記サンプル自然言語テキストのトピックタイプのプロンプトを取得するステップを含む、請求項1に記載のモデル事前訓練方法。 - プロンプトには注目点タイプのプロンプトが含まれ、
前記サンプル自然言語テキストに基づいて、Nタイプのプロンプトを生成するステップは、
前記サンプル自然言語テキストを事前訓練された注目点抽出モデルに入力して、前記サンプル自然言語テキストの注目点タイプのプロンプトを取得するステップを含む、請求項1に記載のモデル事前訓練方法。 - プロンプトには感情タイプのプロンプトが含まれ、
前記サンプル自然言語テキストに基づいて、Nタイプのプロンプトを生成するステップは、
前記サンプル自然言語テキストを事前訓練された感情解析モデルに入力して、前記サンプル自然言語テキストの感情タイプのプロンプトを取得するステップを含む、請求項1に記載のモデル事前訓練方法。 - プロンプトには生成長さタイプのプロンプトが含まれ、
前記サンプル自然言語テキストに基づいて、Nタイプのプロンプトを生成するステップは、
前記サンプル自然言語テキストの長さを、前記サンプル自然言語テキストの生成長さタイプのプロンプトとするステップを含む、請求項1に記載のモデル事前訓練方法。 - 前記サンプル入力データに基づいて初期言語モデルを訓練して、事前訓練言語モデルを得るステップは、
前記サンプル入力データを初期言語モデルに入力して、サンプル擬似自然言語テキストを得るステップと、
前記サンプル擬似自然言語テキストと前記サンプル自然言語テキストとの差異に基づいて、前記初期言語モデルのパラメータを調整して、前記事前訓練言語モデルを得るステップと、
を含む、請求項1に記載のモデル事前訓練方法。 - テキスト生成装置により実行されるテキスト生成方法であって、
プレフィックス・テキスト・フラグメントおよび少なくとも1タイプのプロンプトを取得するステップと、
前記プレフィックス・テキスト・フラグメントと前記少なくとも1タイプのプロンプトとをスプライシングして入力データを生成するステップと、
請求項1~7のいずれか1項に記載のモデル事前訓練方法により訓練された事前訓練言語モデルに前記入力データを入力し、擬似自然言語テキストを生成するステップと、
を含むテキスト生成方法。 - サンプル自然言語テキストを取得するように構成される取得モジュールと、
前記サンプル自然言語テキストに基づいて、N(ただし、Nは正の整数である)タイプのプロンプトを生成するように構成される第1の生成モジュールと、
前記サンプル自然言語テキストおよび前記Nタイプのプロンプトに基づいて、サンプル入力データを生成するように構成される第2の生成モジュールと、
前記サンプル入力データに基づいて初期言語モデルを訓練して、事前訓練言語モデルを得るように構成される訓練モジュールと、
を備え、
前記第2の生成モジュールは、
前記Nタイプのプロンプトのランダムサンプリング確率をそれぞれ生成するステップと、
前記Nタイプのプロンプトの中から、ランダムサンプリング確率が予め設定された確率閾値よりも大きいプロンプトを選択するステップと、
前記サンプル自然言語テキストから、サンプル・プレフィックス・テキスト・フラグメントを切り出すステップと、
選択されたプロンプトと前記サンプル・プレフィックス・テキスト・フラグメントとをスプライシングして、前記サンプル入力データを生成するステップと、
を行うようにさらに構成される、モデル事前訓練装置。 - プロンプトにはタスクタイプのプロンプトが含まれ、
前記第1の生成モジュールは、
前記サンプル自然言語テキストの目標タスクタイプを確定するステップと、
前記目標タスクタイプに関連付けられた連続的なプロンプト語彙リストを取得するステップであって、1タスクタイプに1つの連続的なプロンプト語彙リストが関連付けられる、ステップと、
前記目標タスクタイプに関連付けられた連続的なプロンプト語彙リストからランダムな長さの連続的なプロンプトを取得して前記サンプル自然言語テキストのタスクタイプのプロンプトとするステップと、
を行うようにさらに構成される請求項9に記載のモデル事前訓練装置。 - プロンプトにはトピックタイプのプロンプトが含まれ、
前記第1の生成モジュールは、
前記サンプル自然言語テキストを事前訓練されたトピック分類モデルに入力して、前記サンプル自然言語テキストのトピックタイプのプロンプトを取得するようにさらに構成される請求項9に記載のモデル事前訓練装置。 - プロンプトには注目点タイプのプロンプトが含まれ、
前記第1の生成モジュールは、
前記サンプル自然言語テキストを事前訓練された注目点抽出モデルに入力して、前記サンプル自然言語テキストの注目点タイプのプロンプトを取得するようにさらに構成される請求項9に記載のモデル事前訓練装置。 - プロンプトにはトピックタイプのプロンプトが含まれ、
前記第1の生成モジュールは、
前記サンプル自然言語テキストを事前訓練された感情解析モデルに入力して、前記サンプル自然言語テキストの感情タイプのプロンプトを取得するようにさらに構成される請求項9に記載のモデル事前訓練装置。 - プロンプトには生成長さタイプのプロンプトが含まれ、
前記第1の生成モジュールは、
前記サンプル自然言語テキストの長さを、前記サンプル自然言語テキストの生成長さタイプのプロンプトとするようにさらに構成される請求項9に記載のモデル事前訓練装置。 - 前記訓練モジュールは、
前記サンプル入力データを初期言語モデルに入力して、サンプル擬似自然言語テキストを得るステップと、
前記サンプル擬似自然言語テキストと前記サンプル自然言語テキストとの差異に基づいて、前記初期言語モデルのパラメータを調整して、前記事前訓練言語モデルを得るステップと、
を行うようにさらに構成される、請求項9に記載のモデル事前訓練装置。 - プレフィックス・テキスト・フラグメントおよび少なくとも1タイプのプロンプトを取得するように構成される取得モジュールと、
前記プレフィックス・テキスト・フラグメントと前記少なくとも1タイプのプロンプトとをスプライシングして入力データを生成するように構成されるスプライシングモジュールと、
請求項9~15のいずれか1項に記載のモデル事前訓練装置を用いて訓練された事前訓練言語モデルに前記入力データを入力し、擬似自然言語テキストを生成するように構成される生成モジュールと、
を備えるテキスト生成装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な指令が格納され、前記指令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに請求項1~7のいずれか1項に記載のモデル事前訓練方法を実行させる、電子機器。 - コンピュータ指令が格納されている非一時的コンピュータ可読記憶媒体であって、
前記コンピュータ指令はコンピュータに請求項1~7のいずれか1項に記載のモデル事前訓練方法を実行させるために用いられる非一時的コンピュータ可読記憶媒体。 - プロセッサによって実行されると、請求項1~7のいずれか1項に記載のモデル事前訓練方法が実現されるコンピュータプログラム。
- 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な指令が格納され、前記指令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに請求項8に記載のテキスト生成方法を実行させる、電子機器。 - コンピュータ指令が格納されている非一時的コンピュータ可読記憶媒体であって、
前記コンピュータ指令はコンピュータに請求項8に記載のテキスト生成方法を実行させるために用いられる非一時的コンピュータ可読記憶媒体。 - プロセッサによって実行されると、請求項8に記載のテキスト生成方法が実現されるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111260446.4A CN113962315B (zh) | 2021-10-28 | 2021-10-28 | 模型预训练方法、装置、设备、存储介质以及程序产品 |
CN202111260446.4 | 2021-10-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022153441A JP2022153441A (ja) | 2022-10-12 |
JP7421604B2 true JP7421604B2 (ja) | 2024-01-24 |
Family
ID=79467904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022111132A Active JP7421604B2 (ja) | 2021-10-28 | 2022-07-11 | モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230040095A1 (ja) |
EP (1) | EP4174715A1 (ja) |
JP (1) | JP7421604B2 (ja) |
CN (1) | CN113962315B (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113962315B (zh) * | 2021-10-28 | 2023-12-22 | 北京百度网讯科技有限公司 | 模型预训练方法、装置、设备、存储介质以及程序产品 |
CN114943211A (zh) * | 2022-07-25 | 2022-08-26 | 北京澜舟科技有限公司 | 一种基于前缀的文本生成方法、系统及计算机可读存储介质 |
US20240054282A1 (en) * | 2022-08-15 | 2024-02-15 | International Business Machines Corporation | Elucidated natural language artifact recombination with contextual awareness |
CN116127020A (zh) * | 2023-03-03 | 2023-05-16 | 北京百度网讯科技有限公司 | 生成式大语言模型训练方法以及基于模型的搜索方法 |
CN116204642B (zh) * | 2023-03-06 | 2023-10-27 | 上海阅文信息技术有限公司 | 数字阅读中角色隐式属性智能识别分析方法、系统和应用 |
CN116383652B (zh) * | 2023-04-03 | 2024-02-06 | 华院计算技术(上海)股份有限公司 | 模型训练方法、可控文本的生成方法、系统、设备及介质 |
CN116151194B (zh) * | 2023-04-04 | 2023-07-07 | 上海燧原科技有限公司 | 中文通用语言的生成方法、装置、设备及存储介质 |
CN116386800B (zh) * | 2023-06-06 | 2023-08-18 | 神州医疗科技股份有限公司 | 基于预训练语言模型的医疗病历数据分割方法和系统 |
CN116402166B (zh) * | 2023-06-09 | 2023-09-01 | 天津市津能工程管理有限公司 | 一种预测模型的训练方法、装置、电子设备及存储介质 |
CN116737935B (zh) * | 2023-06-20 | 2024-05-03 | 青海师范大学 | 基于提示学习的藏文文本分类方法、装置及存储介质 |
CN116541752B (zh) * | 2023-07-06 | 2023-09-15 | 杭州美创科技股份有限公司 | 元数据管理方法、装置、计算机设备及存储介质 |
CN116644145B (zh) * | 2023-07-26 | 2023-10-13 | 北京仁科互动网络技术有限公司 | 会话数据处理方法、装置、设备和存储介质 |
CN117216193B (zh) * | 2023-09-26 | 2024-02-27 | 人民网股份有限公司 | 基于大语言模型的可控文本生成方法及装置 |
CN117390497B (zh) * | 2023-12-08 | 2024-03-22 | 浙江口碑网络技术有限公司 | 基于大语言模型的类目预测方法、装置和设备 |
CN117744754B (zh) * | 2024-02-19 | 2024-05-10 | 浙江同花顺智能科技有限公司 | 大语言模型任务处理方法、装置、设备及介质 |
CN117744753B (zh) * | 2024-02-19 | 2024-05-03 | 浙江同花顺智能科技有限公司 | 大语言模型的提示词确定方法、装置、设备及介质 |
CN117743315B (zh) * | 2024-02-20 | 2024-05-14 | 浪潮软件科技有限公司 | 一种为多模态大模型系统提供高质量数据的方法 |
CN117744661B (zh) * | 2024-02-21 | 2024-05-17 | 中国铁道科学研究院集团有限公司电子计算技术研究所 | 基于提示词工程的文本生成模型训练方法和文本生成方法 |
CN117787422B (zh) * | 2024-02-27 | 2024-04-26 | 四川金信石信息技术有限公司 | 一种倒闸操作任务提取方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003263441A (ja) | 2002-03-08 | 2003-09-19 | Nippon Telegr & Teleph Corp <Ntt> | キーワード決定データベース作成方法、キーワード決定方法、装置、プログラム、および記録媒体 |
JP2015170241A (ja) | 2014-03-10 | 2015-09-28 | 富士ゼロックス株式会社 | 多言語文書分類プログラム及び情報処理装置 |
JP2016091078A (ja) | 2014-10-30 | 2016-05-23 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 生成装置、生成方法、およびプログラム |
WO2018126213A1 (en) | 2016-12-30 | 2018-07-05 | Google Llc | Multi-task learning using knowledge distillation |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263158B (zh) * | 2019-05-24 | 2023-08-01 | 创新先进技术有限公司 | 一种数据的处理方法、装置及设备 |
CN112183091A (zh) * | 2020-10-12 | 2021-01-05 | 深圳壹账通智能科技有限公司 | 问答对生成方法、装置、电子设备及可读存储介质 |
CN113901191A (zh) * | 2021-06-16 | 2022-01-07 | 北京金山数字娱乐科技有限公司 | 问答模型的训练方法及装置 |
CN113468877A (zh) * | 2021-07-09 | 2021-10-01 | 浙江大学 | 语言模型的微调方法、装置、计算设备和存储介质 |
CN113962315B (zh) * | 2021-10-28 | 2023-12-22 | 北京百度网讯科技有限公司 | 模型预训练方法、装置、设备、存储介质以及程序产品 |
-
2021
- 2021-10-28 CN CN202111260446.4A patent/CN113962315B/zh active Active
-
2022
- 2022-07-11 JP JP2022111132A patent/JP7421604B2/ja active Active
- 2022-08-16 EP EP22190600.1A patent/EP4174715A1/en not_active Withdrawn
- 2022-08-16 US US17/889,218 patent/US20230040095A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003263441A (ja) | 2002-03-08 | 2003-09-19 | Nippon Telegr & Teleph Corp <Ntt> | キーワード決定データベース作成方法、キーワード決定方法、装置、プログラム、および記録媒体 |
JP2015170241A (ja) | 2014-03-10 | 2015-09-28 | 富士ゼロックス株式会社 | 多言語文書分類プログラム及び情報処理装置 |
JP2016091078A (ja) | 2014-10-30 | 2016-05-23 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 生成装置、生成方法、およびプログラム |
WO2018126213A1 (en) | 2016-12-30 | 2018-07-05 | Google Llc | Multi-task learning using knowledge distillation |
Also Published As
Publication number | Publication date |
---|---|
JP2022153441A (ja) | 2022-10-12 |
CN113962315B (zh) | 2023-12-22 |
CN113962315A (zh) | 2022-01-21 |
EP4174715A1 (en) | 2023-05-03 |
US20230040095A1 (en) | 2023-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7421604B2 (ja) | モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム | |
Chen et al. | A survey on dialogue systems: Recent advances and new frontiers | |
US20190266250A1 (en) | Systems and Methods for Generating Jokes | |
TW202009749A (zh) | 人機對話方法、裝置、電子設備及電腦可讀媒體 | |
CN112214591B (zh) | 一种对话预测的方法及装置 | |
US11455335B2 (en) | Image retrieval using interactive natural language dialog | |
US10157203B2 (en) | Question transformation in question answer systems | |
JP7309798B2 (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
JP6529761B2 (ja) | 話題提供システム、及び会話制御端末装置 | |
KR20210081309A (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
US20220100756A1 (en) | Navigation agent for a search interface | |
US20240028893A1 (en) | Generating neural network outputs using insertion commands | |
WO2020052061A1 (zh) | 用于处理信息的方法和装置 | |
US20230306205A1 (en) | System and method for personalized conversational agents travelling through space and time | |
CN112528654A (zh) | 自然语言处理方法、装置及电子设备 | |
CN111382563B (zh) | 文本相关性的确定方法及装置 | |
JP2023182707A (ja) | 深層学習モデルに基づくデータ生成方法、トレーニング方法及び装置 | |
US11481609B2 (en) | Computationally efficient expressive output layers for neural networks | |
CN112562678A (zh) | 基于客服录音的智能对话方法、系统、设备及存储介质 | |
EP4254256A1 (en) | Spoken language processing method and apparatus, electronic device, and storage medium | |
CN109002498B (zh) | 人机对话方法、装置、设备及存储介质 | |
CN112464654B (zh) | 关键词生成方法、装置、电子设备和计算机可读介质 | |
JP2022088540A (ja) | ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体 | |
WO2022251720A1 (en) | Character-level attention neural networks | |
JP2022106980A (ja) | クエリ文の生成方法、装置、電子機器及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220712 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220712 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7421604 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |