JP2022153441A - モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム - Google Patents
モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム Download PDFInfo
- Publication number
- JP2022153441A JP2022153441A JP2022111132A JP2022111132A JP2022153441A JP 2022153441 A JP2022153441 A JP 2022153441A JP 2022111132 A JP2022111132 A JP 2022111132A JP 2022111132 A JP2022111132 A JP 2022111132A JP 2022153441 A JP2022153441 A JP 2022153441A
- Authority
- JP
- Japan
- Prior art keywords
- sample
- natural language
- prompts
- model
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 78
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000003860 storage Methods 0.000 title claims abstract description 18
- 238000004590 computer program Methods 0.000 title claims abstract description 11
- 239000012634 fragment Substances 0.000 claims description 37
- 230000008451 emotion Effects 0.000 claims description 26
- 238000005070 sampling Methods 0.000 claims description 14
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000013145 classification model Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 239000003795 chemical substances by application Substances 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000035935 pregnancy Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000009738 saturating Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
ステップ201では、サンプル自然言語テキストを取得する。
ここで、プレフィックス・テキスト・フラグメントは、任意の不完全なテキストフラグメントであってもよい。少なくとも1タイプのプロンプトは、ユーザが生成ニーズに応じて入力したプロンプトであってもよい。ユーザは、1タイプのプロンプトを入力してもよいし、複数タイプのプロンプトを入力してもよい。予測段階では、ユーザはあるタイプのプロンプトを使用するか否かをより多様に選択することができる。ここで、プレフィックス・テキスト・フラグメントと少なくとも1タイプのプロンプトとに基づいて、関連する完全な自然言語テキストを生成する必要がある。
Claims (21)
- サンプル自然言語テキストを取得するステップと、
前記サンプル自然言語テキストに基づいて、N(ただし、Nは正の整数である)タイプのプロンプトを生成するステップと、
前記サンプル自然言語テキストおよび前記Nタイプのプロンプトに基づいて、サンプル入力データを生成するステップと、
前記サンプル入力データに基づいて初期言語モデルを訓練して、事前訓練言語モデルを得るステップと、
を含むモデル事前訓練方法。 - プロンプトにはタスクタイプのプロンプトが含まれ、
前記サンプル自然言語テキストに基づいて、Nタイプのプロンプトを生成するステップは、
前記サンプル自然言語テキストの目標タスクタイプを確定するステップと、
前記目標タスクタイプに関連付けられた連続的なプロンプト語彙リストを取得するステップであって、1タスクタイプに1つの連続的なプロンプト語彙リストが関連付けられる、ステップと、
前記目標タスクタイプに関連付けられた連続的なプロンプト語彙リストからランダムな長さの連続的なプロンプトを取得して前記サンプル自然言語テキストのタスクタイプのプロンプトとするステップと、
を含む請求項1に記載のモデル事前訓練方法。 - プロンプトにはトピックタイプのプロンプトが含まれ、
前記サンプル自然言語テキストに基づいて、Nタイプのプロンプトを生成するステップは、
前記サンプル自然言語テキストを事前訓練されたトピック分類モデルに入力して、前記サンプル自然言語テキストのトピックタイプのプロンプトを取得するステップを含む、請求項1に記載のモデル事前訓練方法。 - プロンプトには注目点タイプのプロンプトが含まれ、
前記サンプル自然言語テキストに基づいて、Nタイプのプロンプトを生成するステップは、
前記サンプル自然言語テキストを事前訓練された注目点抽出モデルに入力して、前記サンプル自然言語テキストの注目点タイプのプロンプトを取得するステップを含む、請求項1に記載のモデル事前訓練方法。 - プロンプトには感情タイプのプロンプトが含まれ、
前記サンプル自然言語テキストに基づいて、Nタイプのプロンプトを生成するステップは、
前記サンプル自然言語テキストを事前訓練された感情解析モデルに入力して、前記サンプル自然言語テキストの感情タイプのプロンプトを取得するステップを含む、請求項1に記載のモデル事前訓練方法。 - プロンプトには生成長さタイプのプロンプトが含まれ、
前記サンプル自然言語テキストに基づいて、Nタイプのプロンプトを生成するステップは、
前記サンプル自然言語テキストの長さを、前記サンプル自然言語テキストの生成長さタイプのプロンプトとするステップを含む、請求項1に記載のモデル事前訓練方法。 - 前記サンプル自然言語テキストおよび前記Nタイプのプロンプトに基づいて、サンプル入力データを生成するステップは、
前記Nタイプのプロンプトのランダムサンプリング確率をそれぞれ生成するステップと、
前記Nタイプのプロンプトの中から、ランダムサンプリング確率が予め設定された確率閾値よりも大きいプロンプトを選択するステップと、
前記サンプル自然言語テキストから、サンプル・プレフィックス・テキスト・フラグメントを切り出すステップと、
選択されたプロンプトと前記サンプル・プレフィックス・テキスト・フラグメントとをスプライシングして、前記サンプル入力データを生成するステップと、
を含む、請求項1に記載のモデル事前訓練方法。 - 前記サンプル入力データに基づいて初期言語モデルを訓練して、事前訓練言語モデルを得るステップは、
前記サンプル入力データを初期言語モデルに入力して、サンプル擬似自然言語テキストを得るステップと、
前記サンプル擬似自然言語テキストと前記サンプル自然言語テキストとの差異に基づいて、前記初期言語モデルのパラメータを調整して、前記事前訓練言語モデルを得るステップと、
を含む、請求項1に記載のモデル事前訓練方法。 - プレフィックス・テキスト・フラグメントおよび少なくとも1タイプのプロンプトを取得するステップと、
前記プレフィックス・テキスト・フラグメントと前記少なくとも1タイプのプロンプトとをスプライシングして入力データを生成するステップと、
請求項1~8のいずれか1項に記載の方法により訓練された事前訓練言語モデルに前記入力データを入力し、擬似自然言語テキストを生成するステップと、
を含むテキスト生成方法。 - サンプル自然言語テキストを取得するように構成される取得モジュールと、
前記サンプル自然言語テキストに基づいて、N(ただし、Nは正の整数である)タイプのプロンプトを生成するように構成される第1の生成モジュールと、
前記サンプル自然言語テキストおよび前記Nタイプのプロンプトに基づいて、サンプル入力データを生成するように構成される第2の生成モジュールと、
前記サンプル入力データに基づいて初期言語モデルを訓練して、事前訓練言語モデルを得るように構成される訓練モジュールと、
を備えるモデル事前訓練装置。 - プロンプトにはタスクタイプのプロンプトが含まれ、
前記第1の生成モジュールは、
前記サンプル自然言語テキストの目標タスクタイプを確定するステップと、
前記目標タスクタイプに関連付けられた連続的なプロンプト語彙リストを取得するステップであって、1タスクタイプに1つの連続的なプロンプト語彙リストが関連付けられる、ステップと、
前記目標タスクタイプに関連付けられた連続的なプロンプト語彙リストからランダムな長さの連続的なプロンプトを取得して前記サンプル自然言語テキストのタスクタイプのプロンプトとするステップと、
を行うようにさらに構成される請求項10に記載のモデル事前訓練装置。 - プロンプトにはトピックタイプのプロンプトが含まれ、
前記第1の生成モジュールは、
前記サンプル自然言語テキストを事前訓練されたトピック分類モデルに入力して、前記サンプル自然言語テキストのトピックタイプのプロンプトを取得するようにさらに構成される請求項10に記載のモデル事前訓練装置。 - プロンプトには注目点タイプのプロンプトが含まれ、
前記第1の生成モジュールは、
前記サンプル自然言語テキストを事前訓練された注目点抽出モデルに入力して、前記サンプル自然言語テキストの注目点タイプのプロンプトを取得するようにさらに構成される請求項10に記載のモデル事前訓練装置。 - プロンプトにはトピックタイプのプロンプトが含まれ、
前記第1の生成モジュールは、
前記サンプル自然言語テキストを事前訓練された感情解析モデルに入力して、前記サンプル自然言語テキストの感情タイプのプロンプトを取得するようにさらに構成される請求項10に記載のモデル事前訓練装置。 - プロンプトには生成長さタイプのプロンプトが含まれ、
前記第1の生成モジュールは、
前記サンプル自然言語テキストの長さを、前記サンプル自然言語テキストの生成長さタイプのプロンプトとするようにさらに構成される請求項10に記載のモデル事前訓練装置。 - 前記第2の生成モジュールは、
前記Nタイプのプロンプトのランダムサンプリング確率をそれぞれ生成するステップと、
前記Nタイプのプロンプトの中から、ランダムサンプリング確率が予め設定された確率閾値よりも大きいプロンプトを選択するステップと、
前記サンプル自然言語テキストから、サンプル・プレフィックス・テキスト・フラグメントを切り出すステップと、
選択されたプロンプトと前記サンプル・プレフィックス・テキスト・フラグメントとをスプライシングして、前記サンプル入力データを生成するステップと、
を行うようにさらに構成される、請求項10に記載のモデル事前訓練装置。 - 前記訓練モジュールは、
前記サンプル入力データを初期言語モデルに入力して、サンプル擬似自然言語テキストを得るステップと、
前記サンプル擬似自然言語テキストと前記サンプル自然言語テキストとの差異に基づいて、前記初期言語モデルのパラメータを調整して、前記事前訓練言語モデルを得るステップと、
を行うようにさらに構成される、請求項10に記載のモデル事前訓練装置。 - プレフィックス・テキスト・フラグメントおよび少なくとも1タイプのプロンプトを取得するように構成される取得モジュールと、
前記プレフィックス・テキスト・フラグメントと前記少なくとも1タイプのプロンプトとをスプライシングして入力データを生成するように構成されるスプライシングモジュールと、
請求項10~17のいずれか1項に記載のモデル事前訓練装置を用いて訓練された事前訓練言語モデルに前記入力データを入力し、擬似自然言語テキストを生成するように構成される生成モジュールと、
を備えるテキスト生成装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な指令が格納され、前記指令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに請求項1~8のいずれか1項に記載のモデル事前訓練方法または請求項9に記載のテキスト生成方法を実行させる、電子機器。 - コンピュータ指令が格納されている非一時的コンピュータ可読記憶媒体であって、
前記コンピュータ指令はコンピュータに請求項1~8のいずれか1項に記載のモデル事前訓練方法または請求項9に記載のテキスト生成方法を実行させるために用いられる非一時的コンピュータ可読記憶媒体。 - プロセッサによって実行されると、請求項1~8のいずれか1項に記載のモデル事前訓練方法または請求項9に記載のテキスト生成方法が実現されるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111260446.4A CN113962315B (zh) | 2021-10-28 | 2021-10-28 | 模型预训练方法、装置、设备、存储介质以及程序产品 |
CN202111260446.4 | 2021-10-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022153441A true JP2022153441A (ja) | 2022-10-12 |
JP7421604B2 JP7421604B2 (ja) | 2024-01-24 |
Family
ID=79467904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022111132A Active JP7421604B2 (ja) | 2021-10-28 | 2022-07-11 | モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230040095A1 (ja) |
EP (1) | EP4174715A1 (ja) |
JP (1) | JP7421604B2 (ja) |
CN (1) | CN113962315B (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116204642A (zh) * | 2023-03-06 | 2023-06-02 | 上海阅文信息技术有限公司 | 数字阅读中角色隐式属性智能识别分析方法、系统和应用 |
CN117744754A (zh) * | 2024-02-19 | 2024-03-22 | 浙江同花顺智能科技有限公司 | 大语言模型任务处理方法、装置、设备及介质 |
CN117743315A (zh) * | 2024-02-20 | 2024-03-22 | 浪潮软件科技有限公司 | 一种为多模态大模型系统提供高质量数据的方法 |
CN117993382A (zh) * | 2024-03-08 | 2024-05-07 | 上海数中科技有限公司 | 基于大语言模型的提示词管理方法、系统及计算机设备 |
CN118170686A (zh) * | 2024-05-13 | 2024-06-11 | 浪潮通用软件有限公司 | 一种ui自动化测试脚本的生成方法、设备及介质 |
CN118429897A (zh) * | 2024-07-03 | 2024-08-02 | 杭州海康威视数字技术股份有限公司 | 群体检测方法、装置、存储介质和电子设备 |
CN118503715A (zh) * | 2024-07-18 | 2024-08-16 | 浪潮电子信息产业股份有限公司 | 文本扩充方法、设备、存储介质及计算机程序产品 |
CN118569214A (zh) * | 2024-07-31 | 2024-08-30 | 中国人民解放军国防科技大学 | 基于大语言模型的表格-文本数据生成方法及装置 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113962315B (zh) * | 2021-10-28 | 2023-12-22 | 北京百度网讯科技有限公司 | 模型预训练方法、装置、设备、存储介质以及程序产品 |
CN114943211A (zh) * | 2022-07-25 | 2022-08-26 | 北京澜舟科技有限公司 | 一种基于前缀的文本生成方法、系统及计算机可读存储介质 |
US20240054282A1 (en) * | 2022-08-15 | 2024-02-15 | International Business Machines Corporation | Elucidated natural language artifact recombination with contextual awareness |
CN118278408A (zh) * | 2022-12-29 | 2024-07-02 | 深圳云天励飞技术股份有限公司 | 数据构建方法、模型训练方法、装置、设备及介质 |
CN116383652B (zh) * | 2023-04-03 | 2024-02-06 | 华院计算技术(上海)股份有限公司 | 模型训练方法、可控文本的生成方法、系统、设备及介质 |
CN116151194B (zh) * | 2023-04-04 | 2023-07-07 | 上海燧原科技有限公司 | 中文通用语言的生成方法、装置、设备及存储介质 |
CN116386800B (zh) * | 2023-06-06 | 2023-08-18 | 神州医疗科技股份有限公司 | 基于预训练语言模型的医疗病历数据分割方法和系统 |
CN116402166B (zh) * | 2023-06-09 | 2023-09-01 | 天津市津能工程管理有限公司 | 一种预测模型的训练方法、装置、电子设备及存储介质 |
CN116737935B (zh) * | 2023-06-20 | 2024-05-03 | 青海师范大学 | 基于提示学习的藏文文本分类方法、装置及存储介质 |
CN116541752B (zh) * | 2023-07-06 | 2023-09-15 | 杭州美创科技股份有限公司 | 元数据管理方法、装置、计算机设备及存储介质 |
CN116644145B (zh) * | 2023-07-26 | 2023-10-13 | 北京仁科互动网络技术有限公司 | 会话数据处理方法、装置、设备和存储介质 |
CN117371428A (zh) * | 2023-09-25 | 2024-01-09 | 百度国际科技(深圳)有限公司 | 基于大语言模型的文本处理方法与装置 |
CN117216193B (zh) * | 2023-09-26 | 2024-02-27 | 人民网股份有限公司 | 基于大语言模型的可控文本生成方法及装置 |
CN117666812B (zh) * | 2023-10-16 | 2024-09-10 | 百度时代网络技术(北京)有限公司 | 提示词处理方法、装置、电子设备及存储介质 |
CN117390497B (zh) * | 2023-12-08 | 2024-03-22 | 浙江口碑网络技术有限公司 | 基于大语言模型的类目预测方法、装置和设备 |
CN117744753B (zh) * | 2024-02-19 | 2024-05-03 | 浙江同花顺智能科技有限公司 | 大语言模型的提示词确定方法、装置、设备及介质 |
CN117744661B (zh) * | 2024-02-21 | 2024-05-17 | 中国铁道科学研究院集团有限公司电子计算技术研究所 | 基于提示词工程的文本生成模型训练方法和文本生成方法 |
CN117787422B (zh) * | 2024-02-27 | 2024-04-26 | 四川金信石信息技术有限公司 | 一种倒闸操作任务提取方法及系统 |
CN118013021B (zh) * | 2024-04-08 | 2024-09-06 | 浙江口碑网络技术有限公司 | 基于大语言模型的医药解答方法、装置、设备及介质 |
CN118034659B (zh) * | 2024-04-10 | 2024-07-05 | 北京云庐科技有限公司 | 自动生成cae仿真程序的方法、系统和介质 |
CN118095269B (zh) * | 2024-04-24 | 2024-07-05 | 腾讯科技(深圳)有限公司 | 对话的信息抽取方法、装置、设备、介质和程序产品 |
CN118196567B (zh) * | 2024-05-16 | 2024-08-06 | 武汉大学 | 基于大语言模型的数据评价方法、装置、设备及存储介质 |
CN118333021B (zh) * | 2024-06-14 | 2024-08-30 | 山东浪潮科学研究院有限公司 | 一种面向长文档的自动化提示生成方法、装置及存储介质 |
CN118378618B (zh) * | 2024-06-26 | 2024-08-30 | 腾讯科技(深圳)有限公司 | 基于人工智能的文本处理方法、电子设备及相关装置 |
CN118394890B (zh) * | 2024-06-28 | 2024-09-13 | 宏景科技股份有限公司 | 一种基于大语言模型的知识检索增强生成方法及其系统 |
CN118643393A (zh) * | 2024-08-09 | 2024-09-13 | 中国电信股份有限公司 | 模型识别方法、装置、设备、介质和产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003263441A (ja) * | 2002-03-08 | 2003-09-19 | Nippon Telegr & Teleph Corp <Ntt> | キーワード決定データベース作成方法、キーワード決定方法、装置、プログラム、および記録媒体 |
JP2015170241A (ja) * | 2014-03-10 | 2015-09-28 | 富士ゼロックス株式会社 | 多言語文書分類プログラム及び情報処理装置 |
JP2016091078A (ja) * | 2014-10-30 | 2016-05-23 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 生成装置、生成方法、およびプログラム |
WO2018126213A1 (en) * | 2016-12-30 | 2018-07-05 | Google Llc | Multi-task learning using knowledge distillation |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263158B (zh) * | 2019-05-24 | 2023-08-01 | 创新先进技术有限公司 | 一种数据的处理方法、装置及设备 |
CN112183091A (zh) * | 2020-10-12 | 2021-01-05 | 深圳壹账通智能科技有限公司 | 问答对生成方法、装置、电子设备及可读存储介质 |
CN113901191A (zh) * | 2021-06-16 | 2022-01-07 | 北京金山数字娱乐科技有限公司 | 问答模型的训练方法及装置 |
CN113468877A (zh) * | 2021-07-09 | 2021-10-01 | 浙江大学 | 语言模型的微调方法、装置、计算设备和存储介质 |
CN113962315B (zh) * | 2021-10-28 | 2023-12-22 | 北京百度网讯科技有限公司 | 模型预训练方法、装置、设备、存储介质以及程序产品 |
-
2021
- 2021-10-28 CN CN202111260446.4A patent/CN113962315B/zh active Active
-
2022
- 2022-07-11 JP JP2022111132A patent/JP7421604B2/ja active Active
- 2022-08-16 US US17/889,218 patent/US20230040095A1/en active Pending
- 2022-08-16 EP EP22190600.1A patent/EP4174715A1/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003263441A (ja) * | 2002-03-08 | 2003-09-19 | Nippon Telegr & Teleph Corp <Ntt> | キーワード決定データベース作成方法、キーワード決定方法、装置、プログラム、および記録媒体 |
JP2015170241A (ja) * | 2014-03-10 | 2015-09-28 | 富士ゼロックス株式会社 | 多言語文書分類プログラム及び情報処理装置 |
JP2016091078A (ja) * | 2014-10-30 | 2016-05-23 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 生成装置、生成方法、およびプログラム |
WO2018126213A1 (en) * | 2016-12-30 | 2018-07-05 | Google Llc | Multi-task learning using knowledge distillation |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116204642A (zh) * | 2023-03-06 | 2023-06-02 | 上海阅文信息技术有限公司 | 数字阅读中角色隐式属性智能识别分析方法、系统和应用 |
CN116204642B (zh) * | 2023-03-06 | 2023-10-27 | 上海阅文信息技术有限公司 | 数字阅读中角色隐式属性智能识别分析方法、系统和应用 |
CN117744754A (zh) * | 2024-02-19 | 2024-03-22 | 浙江同花顺智能科技有限公司 | 大语言模型任务处理方法、装置、设备及介质 |
CN117744754B (zh) * | 2024-02-19 | 2024-05-10 | 浙江同花顺智能科技有限公司 | 大语言模型任务处理方法、装置、设备及介质 |
CN117743315A (zh) * | 2024-02-20 | 2024-03-22 | 浪潮软件科技有限公司 | 一种为多模态大模型系统提供高质量数据的方法 |
CN117743315B (zh) * | 2024-02-20 | 2024-05-14 | 浪潮软件科技有限公司 | 一种为多模态大模型系统提供高质量数据的方法 |
CN117993382A (zh) * | 2024-03-08 | 2024-05-07 | 上海数中科技有限公司 | 基于大语言模型的提示词管理方法、系统及计算机设备 |
CN118170686A (zh) * | 2024-05-13 | 2024-06-11 | 浪潮通用软件有限公司 | 一种ui自动化测试脚本的生成方法、设备及介质 |
CN118429897A (zh) * | 2024-07-03 | 2024-08-02 | 杭州海康威视数字技术股份有限公司 | 群体检测方法、装置、存储介质和电子设备 |
CN118503715A (zh) * | 2024-07-18 | 2024-08-16 | 浪潮电子信息产业股份有限公司 | 文本扩充方法、设备、存储介质及计算机程序产品 |
CN118569214A (zh) * | 2024-07-31 | 2024-08-30 | 中国人民解放军国防科技大学 | 基于大语言模型的表格-文本数据生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7421604B2 (ja) | 2024-01-24 |
CN113962315B (zh) | 2023-12-22 |
CN113962315A (zh) | 2022-01-21 |
EP4174715A1 (en) | 2023-05-03 |
US20230040095A1 (en) | 2023-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7421604B2 (ja) | モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム | |
Uc-Cetina et al. | Survey on reinforcement learning for language processing | |
TWI684881B (zh) | 基於機器翻譯的自動生成重述以產生一對話式代理人的方法、系統及非暫態機器可讀取媒體 | |
US9373075B2 (en) | Applying a genetic algorithm to compositional semantics sentiment analysis to improve performance and accelerate domain adaptation | |
CN112214591B (zh) | 一种对话预测的方法及装置 | |
WO2018165932A1 (en) | Generating responses in automated chatting | |
US10104232B2 (en) | System and method for a cognitive system plug-in answering subject matter expert questions | |
US20180309874A1 (en) | System and method for a cognitive system plug-in answering subject matter expert questions | |
CN111428010A (zh) | 人机智能问答的方法和装置 | |
WO2020052061A1 (zh) | 用于处理信息的方法和装置 | |
US9953027B2 (en) | System and method for automatic, unsupervised paraphrase generation using a novel framework that learns syntactic construct while retaining semantic meaning | |
KR20240116864A (ko) | 검색 엔진 결과를 사용하여 기계 학습 언어 모델 강화 | |
CN112287085B (zh) | 语义匹配方法、系统、设备及存储介质 | |
CN114329256A (zh) | 搜索界面的导航代理 | |
CN112528654A (zh) | 自然语言处理方法、装置及电子设备 | |
CN111382563B (zh) | 文本相关性的确定方法及装置 | |
CN113392197A (zh) | 问答推理方法、装置、存储介质及电子设备 | |
CN117371428A (zh) | 基于大语言模型的文本处理方法与装置 | |
US9984063B2 (en) | System and method for automatic, unsupervised paraphrase generation using a novel framework that learns syntactic construct while retaining semantic meaning | |
JP2022088540A (ja) | ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体 | |
US11657277B2 (en) | Generating neural network outputs using insertion commands | |
US20190318220A1 (en) | Dispersed template-based batch interaction with a question answering system | |
CN116991976A (zh) | 模型训练方法、装置、电子设备及可读存储介质 | |
EP4254256A1 (en) | Spoken language processing method and apparatus, electronic device, and storage medium | |
CN118715523A (zh) | 使用语言模型神经网络生成具有内联证据的输出序列 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220712 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220712 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7421604 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |