CN117094383A - 一种语言模型的联合训练方法、系统、设备及存储介质 - Google Patents
一种语言模型的联合训练方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN117094383A CN117094383A CN202311352530.8A CN202311352530A CN117094383A CN 117094383 A CN117094383 A CN 117094383A CN 202311352530 A CN202311352530 A CN 202311352530A CN 117094383 A CN117094383 A CN 117094383A
- Authority
- CN
- China
- Prior art keywords
- training
- sample
- sample library
- downstream task
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 229
- 238000000034 method Methods 0.000 title claims abstract description 105
- 230000008569 process Effects 0.000 claims abstract description 56
- 230000008451 emotion Effects 0.000 claims description 39
- 238000004364 calculation method Methods 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 20
- 238000004458 analytical method Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000012512 characterization method Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 2
- 238000003058 natural language processing Methods 0.000 abstract description 13
- 238000000605 extraction Methods 0.000 description 19
- 230000014509 gene expression Effects 0.000 description 11
- 230000000873 masking effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 235000015243 ice cream Nutrition 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 206010027175 memory impairment Diseases 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种语言模型的联合训练方法、系统、设备及存储介质,涉及自然语言处理领域,所述方法流程为:基于领域语料库和下游任务样本库构建多维的相似性字典;基于预训练样本库和下游任务样本库进行语言模型的联合训练;在进行语言模型联合训练的过程中,基于下游任务样本库构建难分样本库,并且基于难分样本库和多维的相似性字典重构预训练样本库;基于迭代重构的预训练样本库重复进行语言模型的预训练。本发明采用使用基于数据增强的联合训练方式,可以自动过滤更小、更高质量的预训练样本库,而无需对领域语料库进行任何预处理,提高语言模型对特定下游任务的适应性,有效解决下游任务微调过程中产生的灾难性遗忘问题。
Description
技术领域
本发明涉及自然语言处理领域,具体而言,涉及一种语言模型的联合训练方法、系统、设备及存储介质。
背景技术
自然语言处理(Natural Language Processing,NLP)领域,尤其是涉及预训练技术领域,主要运用迁移学习的思想,将在源领域数据集中学习到的先验知识,迁移到目标领域,以改进不同目标任务的学习效果。
近年来,随着人工智能领域快速发展,特别是在深度学习技术的支持下,NLP在各项任务中都取得了巨大进展。在这些任务中,预训练技术的发展起到了至关重要的作用。预训练模型为解决深度神经网络中大规模参数学习问题提供了一种有效的方案,这种方案最早使用在计算机视觉(Computer Vision,CV)领域,其核心思想是先在大数据集上对深度神经网络进行预训练得到模型参数,然后将训练好的模型应用到各种具体的下游任务,以避免从头开始训练并减少对标注数据的过度依赖,结果表明,模型的性能得到了显著提高。随着NLP领域研究的不断深入,在大型语料库上进行预训练将有助于解决下游任务。
预训练与预训练应用往往有两个阶段:1)领域自适应预训练阶段,2)下游任务微调阶段,采用“预训练-微调”的主流预训练方法通常需要在两个不同的语料库上进行,旨在提高预训练模型的鲁棒性和泛化能力。由于所需的语料库非常庞大,在预训练过程中计算资源消耗很大。因此,为了提高预训练模型的有效性,为不同的任务选择语料库是一个重要的研究课题。
传统的预训练方法往往将预训练和下游任务分开,使得预训练过程在很大程度上依赖于预训练样本库。这导致只要预训练样本库中存在脏数据或噪声,预训练过程将学习到大量错误的表达或与领域无关的表达。因此,现有的预训练过程通常需要在预训练之前对预训练样本库进行数据分析和数据处理,而这项工作强烈依赖于经验知识,预训练过程存在成本过高问题。同时,现有的模型方法中,在下游任务微调阶段还存在灾难性遗忘等问题。
发明内容
本发明提供一种语言模型的联合训练方法、系统、设备及存储介质,在降低预训练成本的基础上,解决现有技术在下游任务微调过程中产生的灾难性遗忘问题。
在第一方面,本发明实施例中提供一种语言模型的联合训练方法,所述方法流程如下:
基于领域语料库和下游任务样本库构建多维的相似性字典;
基于预训练样本库和下游任务样本库进行语言模型的联合训练;
在进行语言模型联合训练的过程中,基于下游任务样本库构建难分样本库,并且基于难分样本库和多维的相似性字典重构预训练样本库;
基于迭代重构的预训练样本库重复进行语言模型的预训练。
于上述实施例中,采用基于数据增强的联合训练方式,可以自动过滤更小、更高质量的预训练样本库,而无需对领域语料库进行任何预处理,提高语言模型对特定下游任务的适应性,有效解决下游任务微调过程中产生的灾难性遗忘问题。
作为本申请一些可选实施方式,基于领域语料库和下游任务样本库构建多维的相似性字典的流程如下:
对领域语料库中每个领域语料样本和下游任务样本库中每个下游任务样本进行多维相似度计算,以获取每个下游任务样本和每个领域语料样本的多维相似度值;
基于多维相似度值从领域语料库中选取和每个下游任务样本相似的领域语料样本;
基于每个下游任务样本和相似的领域语料样本构建多维的相似性字典。
于上述实施例中,为了对重构的预训练样本库进行数据增强,建立领域语料库与下游任务样本库之间的相似性字典是一个非常重要的环节。通过从多个维度衡量文本之间的相似程度,从而筛选出与语言模型错误文本相似的文本构建预训练样本库,实现数据增强。
作为本申请一些可选实施方式,所述多维相似度值包括情感相似度值、主题相似度值、传统相似度值的综合计算。
于上述实施例中,文本之间的相似度往往涉及多个维度,例如情感、主题、文本风格等,通过从多维度衡量文本之间的相似程度,能够更全面的建立领域语料库与下游任务样本库之间的相似性字典。
作为本申请一些可选实施方式,所述情感相似度值的计算流程如下:
对所有领域语料样本和所有下游任务样本进行情感极性分析,以获取对应的情感极性值;
基于情感极性值对每个领域语料样本和每个下游任务样本进行情感相似度计算,以获取对应的情感相似度值。
作为本申请一些可选实施方式,所述主题相似度值的计算流程如下:
将所有领域语料样本和所有下游任务样本相结合,以形成对应的文本文档集合;
对文本文档集合中领域语料样本和下游任务样本进行独立单元拆分,以获取下游任务样本和领域语料样本的若干独立单元;
计算每个独立单元在当前的下游任务样本或领域语料样本中的词频值以及在文本文档集合中的逆文档频率值;
基于词频值和逆文档频率值进行每个独立单元的重要性分析,以获取每个独立单元的重要性值,并且将所有独立单元的重要性值组合成一个主题特征向量;
基于主题特征向量对每个领域语料样本和每个下游任务样本进行主题相似度计算,以获取对应的主题相似度值。
作为本申请一些可选实施方式,所述传统相似度值的计算流程如下:
将每个领域语料样本和每个下游任务样本输入神经网络模型进行文本转化,以获取对应的两个表征向量;
基于两个表征向量对每个领域语料样本和每个下游任务样本进行传统相似度计算,以获取对应的传统相似度值。
作为本申请一些可选实施方式,所述多维相似度值的综合计算流程如下:
预设情感相似度值、主题相似度值以及传统相似度值对应的权重值;
基于情感相似度值、主题相似度值以及传统相似度值对应的权重值进行多维相似度计算,以得到多维相似度值。
于上述实施例中,通过调整相似度对应的权重值能够调整语言模型对不同类型文本的特征提取能力,使得语言模型的适应性和准确性更强。
作为本申请一些可选实施方式,基于预训练样本库和下游任务样本库进行语言模型的联合训练的流程如下:
对预训练样本库中所有预训练样本进行预处理和随机掩盖;
基于预处理和随机掩盖后的预训练样本进行语言模型的预训练,并且使用损失函数来更新模型的参数;
基于下游任务样本库中所有下游任务样本进行模型微调训练和判断,并且使用损失函数来微调模型的参数。
于上述实施例中,将预训练阶段和下游微调阶段联合训练,在下游微调的同时,不断重复学习预训练样本库中的知识,这可以扩展语言模型的泛化能力,避免其陷入局部最优,出现灾难性遗忘问题。
作为本申请一些可选实施方式,在进行语言模型联合训练的过程中,基于下游任务样本库构建难分样本库的流程如下:
在基于下游任务样本库中所有下游任务样本进行模型微调训练和判断的过程中,如果语言模型分类错误,则将对应的下游任务样本作为难分样本;
遍历下游任务样本库中所有下游任务样本,以得到对应的难分样本库。
作为本申请一些可选实施方式,基于难分样本库和多维的相似性字典重构预训练样本库的流程如下:
基于多维的相似性字典,遍历难分样本库中所有难分样本,以筛选和每个难分样本相似的领域语料样本;
基于筛选后的领域语料样本重构预训练样本库。
于上述实施例中,经过多联合轮训练后,语言模型能够自动化完语料选择、领域预训练、模型微调过程,并提高原始预训练大模型在下游任务的表现能力。
作为本申请一些可选实施方式,所述语言模型为BERT模型。
在第二方面,本发明提供一种语言模型的联合训练系统,相似性字典构建单元,所述相似性字典构建单元基于领域语料库和下游任务样本库构建多维的相似性字典;
联合训练单元,所述联合训练单元基于预训练样本库和下游任务样本库进行语言模型的联合训练;
预训练样本库重构单元,所述预训练样本库重构单元在进行语言模型联合训练的过程中,基于下游任务样本库构建难分样本库,并且基于难分样本库和多维的相似性字典重构预训练样本库;
预训练单元,所述预训练单元基于迭代重构的预训练样本库重复进行语言模型的预训练。
在第三方面,本发明提供一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行计算机程序时实现所述一种语言模型的联合训练方法。
在第四方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述一种语言模型的联合训练方法。
本发明的有益效果如下:
本发明采用联合训练策略,通过对领域语料样本的预训练学习,不断复习领域中的知识,以缓解传统在下游微调过程中产生的灾难性遗忘问题。
本发明在联合训练策略的基础上,通过对预训练样本库的数据增强,提高语言模型对难分样本的特征提取能力,使得预训练过程更加自动化,避免繁琐的数据分析和数据处理过程。
本发明在数据增强的基础上,通过多维的相似性字典从多维度补充语言模型缺乏的信息,从而更好的完成下游任务。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本邻域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明的实施例所述硬件运行环境的计算机设备结构示意图;
图2是本发明的实施例所述语言模型的联合训练方法的流程图;
图3是本发明的实施例所述BERT模型提取文本特征的流程图;
图4是本发明的实施例所述语言模型的联合训练系统的框图。
实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
为了降低预训练成本,解决灾难性遗忘问题,本发明提供一种语言模型的联合训练方法、系统、设备及存储介质,在介绍本申请的具体技术方案之前,先介绍下本申请实施例方案涉及的硬件运行环境。
请参阅图1,图1为本申请实施例方案涉及的硬件运行环境的计算机设备结构示意图。
如图1所示,该计算机设备可以包括:处理器,例如中央处理器(CentralProcessing Unit,CPU),通信总线、用户接口,网络接口,存储器。其中, 通信总线用于实现这些组件之间的连接通信。用户接口可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选的,用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如无线保真接口)。存储器可以是高速的随机存取存储器(Random Access Memory,RAM)存储器,也可以是稳定的非易失性存储(Non-VolatileMemory,NVM),例如磁盘存储器,存储器可选的还可以是独立于前述处理器的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器中可以包括操作系统、网络通信模块、用户接口模块以及软件程序的存储模块。
在图1所示的计算机设备中,网络接口主要用于与网络服务器进行数据通信;用户接口主要用于与用户进行数据交互;本申请计算机设备中的处理器、存储器可以设置在计算机设备中,所述计算机设备通过处理器调用存储器中存储的语言模型的联合训练系统,并执行本申请实施例提供的语言模型的联合训练方法。
基于前述实施例的硬件环境,本申请的实施例提供了一种语言模型的联合训练方法,请参阅图2,图2为语言模型的联合训练方法的流程图,所述方法包括以下步骤:
(1)基于领域语料库和下游任务样本库构建多维的相似性字典;
通常情况下,传统相似度计算只考虑了文本之间的语义和词汇信息;但在实际情况下,文本之间的相似度往往涉及多个维度,例如情感、主题、文本风格等。并且,BERT模型对于不同领域文本的不同维度的特征提取能力有所不同,例如BERT对于新闻文本的主题特征的提取能力强,而对于论文文本的文本风格特征的提取能力相对较弱,因此,需要增强BERT模型对论文文本的文本风格特征的提取能力。
为了更好地重构预训练样本库,本发明实施例采样了一个“领域-下游任务”的多维相似度计算方式,该多维相似度计算方式可以更准确地反映文本之间的相似度。
请参阅图3,图3为BERT模型提取文本特征的流程图,为了构建领域语料库与下游任务样本库之间的多维的相似性字典,首先需要针对领域语料样本s1与下游任务样本s2,计算这两个样本的多维相似度值score(s1,s2),其中,所述多维相似度值score(s1,s2)包括情感相似度值scoreSA(s1,s2)、主题相似度值scoreTA(s1,s2)、传统相似度值scoreBERT(s1,s2)的综合计算。
于本发明实施例中,情感相似度值scoreSA(s1,s2)是指文本之间情感极性值的相似度值。情感极性分析可以将文本分为负面情感、正面情感等,因此可以通过计算情感极性值的相似度值评估文本之间的相似程度。
具体的,本发明实施例可以选择文本处理方法对文本之间的情感极性进行分析。其中,文本处理方法提供了一个简单的应用程序接口(API)来执行常见的自然语言处理任务,包括情感分析;其使用自然语言处理工作包(NLTK库)进行情感极性分析,并返回一个介于-1和1之间的情感极性值,-1表示负面情感,1表示正面情感,至此,可以得到领域语料样本s1与下游任务样本s2之间的情感相似度值为scoreSA(s1,s2)。
于本发明实施例中,主题相似度值scoreTA(s1,s2)是指文本之间文本主题的相似度值。在自然语言处理和文本挖掘中,文本主题是指文本中涉及的重要特征或主要话题,与文本中的单词、短语和句子密切相关。因此,在主题相似度值计算过程中,通常会考虑文本中出现的单词、短语和句子等因素,从而确定两个文本在主题上的相似程度。
具体的,所述主题相似度值scoreTA(s1,s2)的计算流程如下:
①为了计算文本中单词的出现次数,将所有领域语料样本s1和所有下游任务样本s2相结合,以形成对应的文本文档集合;
②针对中文文本,需要对文本进行分词处理,将文本拆分为若干独立单元(token);而针对英文文本,需要将空格作为分隔符,每个单词为一个token;
③计算每个token在对应文本中的词频值(TF,Term Frequency),即该token在当前文本中出现次数的倒数;以及在所有文本中的逆文档频率值(IDF,Inverse DocumentFrequency),即该token在整个领域语料库和下游任务样本库中出现次数的倒数;
④将每个token的词频值TF和逆文档频率值IDF相乘,以获取每个token的重要性值,并且将所有token的重要性值组合成一个主题特征向量;
⑤对于领域语料样本s1与下游任务样本s2分别计算其主题特征向量,然后计算主题特征之间的相似度,用于表示领域语料样本s1与下游任务样本s2之间的主题相似度值scoreTA(s1,s2)。
于本发明实施例中,传统相似度值scoreBERT(s1,s2)通常使用BERT模型将领域语料样本s1与下游任务样本s2转化为一个向量,并且使欧式距离衡量两个文本所对应的向量之间的相似度值。
具体的,所述传统相似度值scoreBERT(s1,s2)的计算流程如下:
①将领域语料样本s1与下游任务样本s2输入BERT模型进行文本转化,经过BERT模型特征提取后,可以得到文本的词表征(Token Embedding)、段表征(Segment Embedding)和位置表征(Position Embedding),并且将三类表征对位相加,以得到领域语料样本s1的表征向量E1以及下游任务样本s2的表征向量E2;
②采用欧式距离衡量这两个表征向量E1和E2的相似度值,以作为传统相似度值scoreBERT(s1,s2),计算公式如下:scoreBERT(s1,s2)=||E1-E2||2 。
于本发明实施例中,多维相似度值score(s1,s2)经过对文本之间的情感相似度值scoreSA(s1,s2)、主题相似度值scoreTA(s1,s2)和传统相似度值scoreBERT(s1,s2)计算后,从多维评估两个文本之间的相似度,从而得到一个综合的相似度值,计算公式如下:
score(s1,s2)=α1·scoreSA(s1,s2)+α2·scoreTA(s1,s2)+α3·scoreBERT(s1,s2) ;
其中,α1、α2、α3为文本相似侧重的权重,若α1偏高,则侧重于增强BERT模型在文本情感表达方向的特征提取能力;若α2偏高,则侧重于增强BERT模型在文本主题方向的特征提取能力;更一般的情况,基于BERT模型的传统相似度更为重要和全面,因此一般情况下选择较大α3。
为了构建特定的领域语料库与下游任务样本库的多维的相似性字典,需要计算每个领域语料样本s1与下游任务样本s2之间多维的相似度。下游任务样本库的文本数量远远小于领域语料库的文本数量,因此针对每个下游任务样本s2从领域语料库中选取领域语料样本s1计算两个文本的多维相似度score(s1,s2);得到下游任务样本s2的相似分数数组,并且将相似分数数组排序。
为了构建特定的领域语料库与下游任务样本库的多维的相似性字典,从相似分数数组排序中选取前K个对应文本作为与s2最相似的语料文本构建相似索引字典;其中,参数K根据实际情况进行设置,本发明实施例对此不做限制。
(2)基于预训练样本库和下游任务样本库进行BERT模型的联合训练;
由于传统预训练方法通常将预训练阶段与下游微调阶段分开,因此,当在下游微调任务中通过忘记模型在领域语料库中学习知识时,将导致微调过程出现灾难性的遗忘问题,因此需要将预训练过程和下游微调过程联合训练,在下游微调过程的同时,不断重复学习预训练样本库中的知识,这可以扩展BERT模型的泛化能力,避免其陷入局部最优,出现灾难性遗忘问题。但是单纯使用联合训练是不可行的,这是由于预训练样本库往往很大,是下游任务样本库的几万倍,单纯的联合训练不仅会加大计算资源的需求,还会增加BERT模型计算复杂度。
因此,本发明实施例为了解决下游微调过程中出现的灾难性遗忘问题。首先基于基础的联合训练策略进行联合训练,旨在学习特定任务的同时,通过对领域语料库的重复加深学习,捕捉领域语料库特有的语法规则;然后在相似性字典重构的预训练样本库的基础上进行预训练,将极大缩小预训练所需的数据规模,从而使得联合训练具有可行性。
于本发明实施例中,BERT模型的联合训练流程如下:
(2.1)对预训练样本库中所有预训练样本进行预处理和随机掩盖;
具体的,对预训练样本进行预处理和随机掩盖的流程如下:
①对预训练样本进行分词处理,以得到若干独立单元(token),并且将token转化为表征向量,例如使用word2vec将每个token转换为一个向量,其中,word2vec是NLP领域的一项技术,可以将token转化为可计算的向量的过程;
②采用特殊token添加的方式构建BERT模型的输入数据,其中,添加一些特殊的token,包括[CLS](表示句子开始)、[SEP](表示句子分割)和[PAD](用于填充)。通常情况下,在第一个句子的开头插入 [CLS] 标记,在每个句子的末尾插入 [SEP] 标记。例如,对于两个句子“我喜欢吃冰淇淋”和“你呢?”,输入数据可以表示为“[CLS] 我喜欢吃冰淇淋[SEP] ”和“你呢? [SEP] [PAD] [PAD] [PAD] [PAD] ”这两种输入格式;其中,为了保持语句长度一致,增加4个[PAD]符,以得到一个文本序列tokens;
③预训练样本输入BERT模型进行文本转化,经过BERT模型特征提取后,可以得到文本的词表征(Token Embedding)、段表征(Segment Embedding)和位置表征(PositionEmbedding),并且将三类表征对位相加,以得到预训练样本的表征向量ES;
④BERT模型采用了两个预训练任务:掩蔽语言模型(Masked Language Model,MLM)和下游任务(Next Sentence Prediction,NSP);掩蔽语言模型任务是指将输入文本中的某些token随机遮盖,然后让BERT模型预测被掩盖位置的token;下游任务是指给定两个句子,判断其是否是连续的;这两个句子都可以帮助模型学习上下文相关的信息和语义关系,由于很多研究对BERT模型中下游任务的效果提出了质疑,因此发明实施例只采取掩蔽语言模型作为预训练任务,掩蔽语言模型以序列中的所有其他单词为条件来预测掩蔽单词。
给定一个文本序列tokens,当训练掩蔽语言模型时,使用特殊 [MASK]随机选择要屏蔽的单词,或者用随机token替换,训练目标是在掩蔽位置恢复原始token。
(2.2)基于预处理和随机掩盖后的预训练样本进行BERT模型的预训练,并且使用损失函数来更新模型的参数;
即将经过预处理和随机屏蔽的文本tokens来训练BERT模型;训练期间,BERT模型使用随机梯度下降(SGD)等优化算法来最小化损失函数LMLM。
(2.3)基于下游任务样本库中所有下游任务样本进行BERT模型的微调训练和判断,并且使用损失函数来微调模型的参数。
在预训练过程中,通常会使用大量的未标记数据训练模型。但是,最终目标是将模型应用于某些下游任务,这些任务通常需要标记数据来进行训练。因此,预训练过程的下一步是使用标记数据来微调模型,以使其更好地适应下游任务。在自然语言处理(NLP)中,下游任务有很多种,一般来说包括:
①文本分类:将一段文本分类到一个或多个类别中;
②命名实体识别:从文本中识别出命名实体(例如人名、地名、组织机构名称等);
③问答:给出给定问题的答案,通常涉及对文本的理解和推理;
④机器翻译:将一种语言的文本翻译成另一种语言的文本;
⑤文本生成:生成与给定文本相关的文本,例如摘要、对话、故事等;
⑥文本匹配:判断两个文本是否具有相似性或匹配程度;
⑦情感分析:对一段文本进行情感分类,例如积极、消极等。
当完成下游任务选择后,下游微调阶段通过计算下游任务样本库中每个下游任务样本的损失Ltask来微调整个预训练模型的参数。
当前常规方法由于预训练所需数据非常庞大,无法将预训练阶段与下游任务阶段进行联合训练;而本发明实施例利用多维的相似字典重构方的方式,将极大缩小预训练阶段所需的数据规模,从而使得联合训练具有可行性。该策略首先将预训练样本库和下游任务样本库同时加载到存储器中。在每个训练事件中,通过计算预训练样本库中每个样本的MLM损失函数LMLM来完成模型中BERT参数的更新;在学习了所有预训练样本之后,下游微调阶段通过计算下游任务样本库的每个下游任务样本的损失Ltask来微调整个预训练模型的参数。因此,预训练阶段的语言模型被用作信息增强的目标函数,与特定任务的优化函数相结合,以获得联合训练损失函数,表示为:L=∑LMLM+∑Ltask;
(3)在进行BERT模型联合训练的过程中,基于下游任务样本库构建难分样本库,并且基于难分样本库和多维的相似性字典重构预训练样本库;
该步骤通过数据增强策略,重构预训练语料,选取适合的文本作为“补充知识”,完成语料选择过程。基于选择出的预训练样本,采用数据增强策略,完成“预训练-微调”的联合训练方式,从而得到更适配下游任务的预训练阶段。
传统的预训练方式往往将预训练和下游任务分开,使得预训练过程在很大程度上依赖于预训练样本库。这导致只要预训练样本库中存在脏数据或噪声,预训练过程将学习到错误的表达或领域无关的表达。因此,现有的预训练过程通常需要在预训练之前对领域语料库进行数据分析和数据处理,而这项工作强烈依赖于经验知识。
预训练与下游任务联合训练是一种可以有效缓解灾难性遗忘问题。然而,由于预训练语料库的规模很大,需要大量的计算资源和时间,使得联合训练不可行。因此,本发明实施例在联合训练过程中,针对下游任务中判断错误的文本,重构预训练过程中的文本。重建的预训练样本库中的文本与任务文本具有相似的表达方式(特殊的语序、语言描述逻辑等),在这样的预训练样本库上进行预训练将加深BERT模型对这些特殊表达的理解,增强其特征提取能力。
例如,如果BERT模型无法识别论文实验结论中描述的表达式:“我们观察到SCIBERT在生物医学任务上优于BERT Base(带微调的+1.92 F1和不带微调的+3.59 F1)”。这表明,当前的BERT模型缺乏对数值型实验结论文本的特征提取能力。此时,从领域语料库中选择与该数字类型文本相似的语料库文本,并重建预训练样本库。在该预训练样本库下继续进行的BERT预训练可以加强BERT模型与该类文本的特征提取能力的相关性,可以补充BERT模型对该领域下表达的理解能力。
在每一轮下游任务微调期间,通过标记当前BERT模型在当前下任务文本集中无法正确分类的样本,获得一组难分样本。随后,使用预先建立的多维的相似性字典,可以获得前K相似的领域样本,其具有与每个难分样本相似的表达和文本。通过聚合所有难分样本的前K个领域样本,可以获得更小、更高质量的预训练样本库。这种方式一方面使预训练和微调的联合训练变得可行,另一方面减少了预训练中不相关样本和噪声对BERT模型的影响。
(4)基于迭代重构的预训练样本库重复进行语言模型的预训练,以实现模型优化,具体的,优化阶段使用随机梯度下降(SGD)等优化算法来最小化损失函数L;并且在待训练结束,重新读取完整BERT模型,对待测试文本进行下游任务进行测试。
综上,本发明将预训练过程与下游微调过程相结合,以缓解微调阶段产生的灾难性遗忘问题,并且在联合训练过程中,通过标记BERT模型判断为错误的下游任务样本,从领域语料库中选择相似的语料库文本重建预训练样本库。其中,BERT模型无法正确分类下游任务样本,说明BERT模型对该样本的某个自然语言特征无法识别。传统预训练方法库中,类似的特定表达样本量较少。因此,重采样后的预训练样本与上述错误样本有相似的特征,通过重复预训练,能加强模型对这类特征的提取能力。而在这样的语料上进行预训练任务,会加深BERT模型对这些特殊表达的理解,增强其特征提取能力。因此,通过使用基于数据增强的联合训练方式,可以自动过滤更小、更高质量的预训文本集,而无需对领域语料库进行任何预处理,这可以提高模型对特定任务的适应性,有效缓解灾难性遗忘问题。
其中,为了能够重构预训练样本库、进行数据增强,建立领域语料样本与下游任务样本之间相似性字典是一个非常重要的环节。通常情况下,传统的文本相似度计算只考虑文本之间的语义和词汇信息。但在实际情况下,文本之间的相似度往往涉及多个维度,例如情感、主题、文本风格等。因此,本发明实施例从多个维度衡量文本之间的相似程度,从而筛选出与BERT模型错误文本相似的文本构建预训练样本库,通过进一步学习这些文本,增强预训练模型对这类文本特征提取能力,更好的完成指定的下游任务。
本发明实施例中,为了构建领域语料库与下游任务样本库之间的相似性字典,设计了一个新的“领域-下游任务”的多维相似度计算方式。并且基于“预训练-微调”的联合训练重构预训练语料,从而实现数据增强。以提升原始BERT模型对无法识别文本特征的提取能力。经过多轮训练后,本发明实施例提出的方法能自动化完成“语料选择-领域预训练-模型微调”过程,并提高原始预训练大模型在下游任务的表现能力。
此外,在一种实施例中,基于与前述实施例相同的发明思路,本发明实施例提供了一种数据结构转化的系统,所述系统与实施例1的所述方法一一对应,请参阅图4,图4为语言模型的联合训练系统的结构框图,所述系统包括:
相似性字典构建单元,所述相似性字典构建单元基于领域语料库和下游任务样本库构建多维的相似性字典;
联合训练单元,所述联合训练单元基于预训练样本库和下游任务样本库进行语言模型的联合训练;
预训练样本库重构单元,所述预训练样本库重构单元在进行语言模型联合训练的过程中,基于下游任务样本库构建难分样本库,并且基于难分样本库和多维的相似性字典重构预训练样本库;
预训练单元,所述预训练单元基于迭代重构的预训练样本库重复进行语言模型的预训练。
需要说明的是,本实施例中语言模型的联合训练系统中各单元是与前述实施例中的语言模型的联合训练方法中的各步骤一一对应,因此,本实施例的具体实施方式和达到的技术效果可参照前述语言模型的联合训练方法的实施方式,这里不再赘述。
此外,在一种实施例中,本申请还提供一种计算机设备,所述计算机设备包括处理器,存储器以及存储在所述存储器中的计算机程序,所述计算机程序被处理器运行时实现前述实施例中方法。
此外,在一种实施例中,本申请还提供一种计算机存储介质,所述计算机存储介质上存储有计算机程序,所述计算机程序被处理器运行时实现前述实施例中方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。计算机可以是包括智能终端和服务器在内的各种计算设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器/随机存取存储器、磁碟、光盘)中,包括若干指令用以使得一台多媒体终端设备(可以是手机,计算机,电视接收机,或者网络设备等)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (14)
1.一种语言模型的联合训练方法,其特征在于,所述方法流程如下:
基于领域语料库和下游任务样本库构建多维的相似性字典;
基于预训练样本库和下游任务样本库进行语言模型的联合训练;
在进行语言模型联合训练的过程中,基于下游任务样本库构建难分样本库,并且基于难分样本库和多维的相似性字典重构预训练样本库;
基于迭代重构的预训练样本库重复进行语言模型的预训练。
2.根据权利要求1所述的一种语言模型的联合训练方法,其特征在于,基于领域语料库和下游任务样本库构建多维的相似性字典的流程如下:
对领域语料库中每个领域语料样本和下游任务样本库中每个下游任务样本进行多维相似度计算,以获取每个下游任务样本和每个领域语料样本的多维相似度值;
基于多维相似度值从领域语料库中选取和每个下游任务样本相似的领域语料样本;
基于每个下游任务样本和相似的领域语料样本构建多维的相似性字典。
3.根据权利要求2所述的一种语言模型的联合训练方法,其特征在于,所述多维相似度值包括情感相似度值、主题相似度值、传统相似度值的综合计算。
4.根据权利要求3所述的一种语言模型的联合训练方法,其特征在于,所述情感相似度值的计算流程如下:
对所有领域语料样本和所有下游任务样本进行情感极性分析,以获取对应的情感极性值;
基于情感极性值对每个领域语料样本和每个下游任务样本进行情感相似度计算,以获取对应的情感相似度值。
5.根据权利要求3所述的一种语言模型的联合训练方法,其特征在于,所述主题相似度值的计算流程如下:
将所有领域语料样本和所有下游任务样本相结合,以形成对应的文本文档集合;
对文本文档集合中领域语料样本和下游任务样本进行独立单元拆分,以获取下游任务样本和领域语料样本的若干独立单元;
计算每个独立单元在当前的下游任务样本或领域语料样本中的词频值以及在文本文档集合中的逆文档频率值;
基于词频值和逆文档频率值进行每个独立单元的重要性分析,以获取每个独立单元的重要性值,并且将所有独立单元的重要性值组合成一个主题特征向量;
基于主题特征向量对每个领域语料样本和每个下游任务样本进行主题相似度计算,以获取对应的主题相似度值。
6.根据权利要求3所述的一种语言模型的联合训练方法,其特征在于,所述传统相似度值的计算流程如下:
将每个领域语料样本和每个下游任务样本输入神经网络模型进行文本转化,以获取对应的两个表征向量;
基于两个表征向量对每个领域语料样本和每个下游任务样本进行传统相似度计算,以获取对应的传统相似度值。
7.根据权利要求3所述的一种语言模型的联合训练方法,其特征在于,所述多维相似度值的综合计算流程如下:
预设情感相似度值、主题相似度值以及传统相似度值对应的权重值;
基于情感相似度值、主题相似度值以及传统相似度值对应的权重值进行多维相似度计算,以得到多维相似度值。
8.根据权利要求1所述的一种语言模型的联合训练方法,其特征在于,基于预训练样本库和下游任务样本库进行语言模型的联合训练的流程如下:
对预训练样本库中所有预训练样本进行预处理和随机掩盖;
基于预处理和随机掩盖后的预训练样本进行语言模型的预训练,并且使用损失函数来更新模型的参数;
基于下游任务样本库中所有下游任务样本进行模型微调训练和判断,并且使用损失函数来微调模型的参数。
9.根据权利要求8所述的一种语言模型的联合训练方法,其特征在于,在进行语言模型联合训练的过程中,基于下游任务样本库构建难分样本库的流程如下:
在基于下游任务样本库中所有下游任务样本进行模型微调训练和判断的过程中,如果语言模型分类错误,则将对应的下游任务样本作为难分样本;
遍历下游任务样本库中所有下游任务样本,以得到对应的难分样本库。
10.根据权利要求9所述的一种语言模型的联合训练方法,其特征在于,基于难分样本库和多维的相似性字典重构预训练样本库的流程如下:
基于多维的相似性字典,遍历难分样本库中所有难分样本,以筛选和每个难分样本相似的领域语料样本;
基于筛选后的领域语料样本重构预训练样本库。
11.根据权利要求1所述的一种语言模型的联合训练方法,其特征在于,所述语言模型为BERT模型。
12.一种语言模型的联合训练系统,其特征在于,所述系统包括:
相似性字典构建单元,所述相似性字典构建单元基于领域语料库和下游任务样本库构建多维的相似性字典;
联合训练单元,所述联合训练单元基于预训练样本库和下游任务样本库进行语言模型的联合训练;
预训练样本库重构单元,所述预训练样本库重构单元在进行语言模型联合训练的过程中,基于下游任务样本库构建难分样本库,并且基于难分样本库和多维的相似性字典重构预训练样本库;
预训练单元,所述预训练单元基于迭代重构的预训练样本库重复进行语言模型的预训练。
13.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于:所述处理器执行计算机程序时实现权利要求1-11中任一项所述一种语言模型的联合训练方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-11中任一项所述一种语言模型的联合训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311352530.8A CN117094383B (zh) | 2023-10-19 | 2023-10-19 | 一种语言模型的联合训练方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311352530.8A CN117094383B (zh) | 2023-10-19 | 2023-10-19 | 一种语言模型的联合训练方法、系统、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117094383A true CN117094383A (zh) | 2023-11-21 |
CN117094383B CN117094383B (zh) | 2024-02-02 |
Family
ID=88783237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311352530.8A Active CN117094383B (zh) | 2023-10-19 | 2023-10-19 | 一种语言模型的联合训练方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117094383B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117494717A (zh) * | 2023-12-27 | 2024-02-02 | 卓世科技(海南)有限公司 | 基于ai大语言模型的上下文构造方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110046350A (zh) * | 2019-04-12 | 2019-07-23 | 百度在线网络技术(北京)有限公司 | 文法错误识别方法、装置、计算机设备及存储介质 |
CN112820299A (zh) * | 2020-12-29 | 2021-05-18 | 马上消费金融股份有限公司 | 声纹识别模型训练方法、装置及相关设备 |
CN113408277A (zh) * | 2021-06-18 | 2021-09-17 | 华东理工大学 | 一种基于电子病历文本的可迁移语言模型 |
CN113761868A (zh) * | 2021-04-20 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、电子设备及可读存储介质 |
CN113988195A (zh) * | 2021-10-28 | 2022-01-28 | 广州小鹏汽车科技有限公司 | 一种私域流量线索挖掘方法、装置、车辆、可读介质 |
CN114298042A (zh) * | 2021-11-30 | 2022-04-08 | 清华大学 | 实体链接方法、实体链接模型训练方法及电子设备 |
US20220129448A1 (en) * | 2021-06-30 | 2022-04-28 | Beijing Baidu Netcom Science Technology Co., Ltd. | Intelligent dialogue method and apparatus, and storage medium |
CN114528919A (zh) * | 2022-01-14 | 2022-05-24 | 北京健康之家科技有限公司 | 自然语言处理方法、装置及计算机设备 |
CN115578501A (zh) * | 2022-10-31 | 2023-01-06 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN115952292A (zh) * | 2023-03-14 | 2023-04-11 | 中国医学科学院医学信息研究所 | 多标签分类方法、装置及计算机可读介质 |
-
2023
- 2023-10-19 CN CN202311352530.8A patent/CN117094383B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110046350A (zh) * | 2019-04-12 | 2019-07-23 | 百度在线网络技术(北京)有限公司 | 文法错误识别方法、装置、计算机设备及存储介质 |
CN112820299A (zh) * | 2020-12-29 | 2021-05-18 | 马上消费金融股份有限公司 | 声纹识别模型训练方法、装置及相关设备 |
CN113761868A (zh) * | 2021-04-20 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、电子设备及可读存储介质 |
CN113408277A (zh) * | 2021-06-18 | 2021-09-17 | 华东理工大学 | 一种基于电子病历文本的可迁移语言模型 |
US20220129448A1 (en) * | 2021-06-30 | 2022-04-28 | Beijing Baidu Netcom Science Technology Co., Ltd. | Intelligent dialogue method and apparatus, and storage medium |
CN113988195A (zh) * | 2021-10-28 | 2022-01-28 | 广州小鹏汽车科技有限公司 | 一种私域流量线索挖掘方法、装置、车辆、可读介质 |
CN114298042A (zh) * | 2021-11-30 | 2022-04-08 | 清华大学 | 实体链接方法、实体链接模型训练方法及电子设备 |
CN114528919A (zh) * | 2022-01-14 | 2022-05-24 | 北京健康之家科技有限公司 | 自然语言处理方法、装置及计算机设备 |
CN115578501A (zh) * | 2022-10-31 | 2023-01-06 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN115952292A (zh) * | 2023-03-14 | 2023-04-11 | 中国医学科学院医学信息研究所 | 多标签分类方法、装置及计算机可读介质 |
Non-Patent Citations (3)
Title |
---|
XINSHUAI DONG等: "How Should Pre-Trained Language Models Be Fine-Tuned Towards Adversarial Robustness?", 《ARXIV》, pages 1 - 16 * |
马小蕾: "基于语义增强的生物医学文本信息抽取方法研究", 《中国博士学位论文全文数据库基础科学辑》, no. 01, pages 006 - 136 * |
黄明彤: "面向云ERP生态社区的知识库检索生成式智能问答方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 01, pages 138 - 3942 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117494717A (zh) * | 2023-12-27 | 2024-02-02 | 卓世科技(海南)有限公司 | 基于ai大语言模型的上下文构造方法及系统 |
CN117494717B (zh) * | 2023-12-27 | 2024-03-19 | 卓世科技(海南)有限公司 | 基于ai大语言模型的上下文构造方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117094383B (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108363790B (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
CN111709243B (zh) | 一种基于深度学习的知识抽取方法与装置 | |
Sojasingarayar | Seq2seq ai chatbot with attention mechanism | |
CN111966812B (zh) | 一种基于动态词向量的自动问答方法和存储介质 | |
CN111125333B (zh) | 一种基于表示学习与多层覆盖机制的生成式知识问答方法 | |
CN110879938A (zh) | 文本情感分类方法、装置、设备和存储介质 | |
CN117094383B (zh) | 一种语言模型的联合训练方法、系统、设备及存储介质 | |
CN110968725B (zh) | 图像内容描述信息生成方法、电子设备及存储介质 | |
CN113239169A (zh) | 基于人工智能的回答生成方法、装置、设备及存储介质 | |
CN110516240B (zh) | 一种基于Transformer的语义相似度计算模型DSSM技术 | |
CN115662435B (zh) | 一种虚拟教师拟真化语音的生成方法及终端 | |
CN109614611B (zh) | 一种融合生成非对抗网络与卷积神经网络的情感分析方法 | |
CN112860896A (zh) | 语料泛化方法及用于工业领域的人机对话情感分析方法 | |
CN110852071B (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN110969005B (zh) | 一种确定实体语料之间的相似性的方法及装置 | |
KR102418260B1 (ko) | 고객 상담 기록 분석 방법 | |
CN116910251A (zh) | 基于bert模型的文本分类方法、装置、设备及介质 | |
CN114757310B (zh) | 情感识别模型及其训练方法、装置、设备及可读存储介质 | |
CN114239555A (zh) | 一种关键词提取模型的训练方法及相关装置 | |
CN115905500B (zh) | 问答对数据的生成方法及装置 | |
CN110427613B (zh) | 一种近义词发现方法及其系统、计算机可读存储介质 | |
CN116227484B (zh) | 模型训练方法、装置、设备、存储介质和计算机程序产品 | |
CN113268651B (zh) | 一种搜索信息的摘要自动生成方法及装置 | |
CN117312864A (zh) | 基于多模态信息的变形词生成模型的训练方法及装置 | |
CN117851543A (zh) | 文本情绪识别模型的训练方法、情绪识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |