CN116450839A - 知识增强预训练语言模型知识注入和训练方法及系统 - Google Patents
知识增强预训练语言模型知识注入和训练方法及系统 Download PDFInfo
- Publication number
- CN116450839A CN116450839A CN202310277777.1A CN202310277777A CN116450839A CN 116450839 A CN116450839 A CN 116450839A CN 202310277777 A CN202310277777 A CN 202310277777A CN 116450839 A CN116450839 A CN 116450839A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- training
- language model
- important
- enhanced
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 247
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000002347 injection Methods 0.000 title claims abstract description 38
- 239000007924 injection Substances 0.000 title claims abstract description 38
- 210000002569 neuron Anatomy 0.000 claims abstract description 86
- 230000006870 function Effects 0.000 claims abstract description 37
- 238000011156 evaluation Methods 0.000 claims abstract description 16
- 230000015654 memory Effects 0.000 claims description 65
- 238000012545 processing Methods 0.000 claims description 13
- 238000012512 characterization method Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 9
- 238000013461 design Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Animal Behavior & Ethology (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种知识增强预训练语言模型知识注入和训练方法及系统。该方法包括:基于领域知识图谱,识别预训练语句中的重要元素,将重要元素注入预训练语言模型的训练数据中,得到知识增强的训练数据,将知识增强的训练数据输入预训练语言模型中,针对每一层前馈网络,根据输入的训练数据和知识评估目标,确定对知识评估目标生成正确答案的概率,根据概率确定每个神经元的知识归因分数;将每一层中知识归因分数符合预设条件的神经元作为知识神经元,生成包括知识神经元的知识路径;基于预设的损失函数更新知识路径的参数。通过对注入的知识有侧重的学习来减少知识噪声,鲁棒性强,且能够识别知识路径减少更新的系统参数,降低资源消耗。
Description
技术领域
本发明涉及机器学习技术领域,特别涉及一种知识增强预训练语言模型知识注入和训练方法及系统。
背景技术
预训练语言模型(Pre-trained Language Models,PLM)可以从海量数据中学习句子词语的表征,以提升语言模型在下游任务中的表现。尽管PLM已经取得了很好的结果,并在许多自然语言处理(Natural Language Processing,NLP)任务中发挥着作用,但忽略了将知识融入到语言理解中去。为了更好地将PLM应用于知识驱动和语义理解任务,提出了通过注入丰富的外部知识以提高语言理解能力的PLM,即知识增强预训练模型(Knowledge-Enhanced Pre-trained Language Model,KEPLM)。KEPLM通过从知识图谱(KnowledgeGraph,KG)注入外部知识三元组来提高PLM的性能,为了从注入的知识三元组的学习知识,KEPLM设计了知识相关的预训练任务,迫使模型学习注入的知识。已有的知识增强预训练语言模型,例如ERNIE、K-Bert、KEPLER、CoLAKE等,都是将三元组或预训练的知识注入到语料库句子中的每个实体,来实现知识学习和训练的。
发明内容
本申请发明人发现,目前的KEPLM存在以下两个重要的问题:
以前的KEPLM对知识注入没有侧重,这会引入知识噪声降低模型性能。知识噪声包括冗余和无关的知识,例如在一句话中出现多次的实体等,这些冗余知识会带来重复信息。此外,涉及某些实体或实体对应子图的无关知识与整个句子的语义几乎没有关联,因此无关实体对最终任务的评价指标是没有贡献的。由于对知识三元组没有侧重的学习导致的知识噪声的存在,使系统的鲁棒性比较差。
以前的KEPLM使用额外的知识编码器修改模型的结构,使其的应用范围受限。此外,KEPLM设计了知识相关的任务来迫使模型学习到知识三元组中的信息,在进行系统参数更新时要更新系统的所有参数,这样的方式对计算资源的消耗很大,也增加了训练KEPLM的成本开销。
因此,怎么对知识三元组进行有重点的学习增强模型的鲁棒性,并且降低KEPLM的训练成本是具有挑战且拥有现实应用意义的任务。
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种知识增强预训练语言模型知识注入和训练方法及系统。
本发明实施例提供一种知识增强预训练语言模型训练方法,包括:
基于领域知识图谱,识别预训练语句中的重要元素,所述重要元素包括通过语义相关方法检测出的重要实体和/或通过出现频率检测出的长尾词;
将所述重要元素注入预训练语言模型的训练数据中,得到知识增强的训练数据作为模型的输入数据。
在一些可选的实施例中,所述基于领域知识图谱,识别预训练语句中的重要元素,包括:
基于领域知识图谱中的三元组,检测预训练语句中的实体,通过预训练语句与对检测到的实体进行实体替换后的替换语句的语义相关性,检测出预训练语句中的重要实体;所述三元组包括实体、关系、实体;
根据预训练语料中的词出现频率,检测出所述预训练语句中的长尾词。
在一些可选的实施例中,所述通过预训练语句与对检测到的实体进行实体替换后的替换语句的语义相关性,检测出预训练语句中的重要实体,包括:
对所述预训练语句中的实体进行实体替换,得到包括替换实体的替换语句;
基于层归一化函数,获得预训练语句的嵌入表征和替换预句的嵌入表征,根据所述预训练语句的嵌入表征和替换预句的嵌入表征,确定预训练语句和替换语句的语义相关性,
将语义相关性符合预设条件的实体,确定为重要实体。
在一些可选的实施例中,上述方法还包括:
将检测出的重要元素的嵌入表征存储到预先建立的记忆库中,所述记忆库包括用于存储重要实体嵌入表征的实体库和用来存储长尾词嵌入表征的词库;或基于检测出的重要元素的嵌入表征更新记忆库中存储的该重要元素的嵌入表征;
相应的,将所述重要元素注入预训练语言模型的训练数据中,包括:将记忆库中存储的所述重要元素的嵌入表征注入预训练语言模型的训练数据中。
在一些可选的实施例中,所述基于检测出的重要元素的嵌入表征更新记忆库中存储的该重要元素的嵌入表征,包括:
获取检测出的重要元素的嵌入表征在记忆库中的存储位置;
将所述存储位置处该重要元素的存储嵌入表征和本次检测到该重要元素后获得的新嵌入表征进行求和,得到该重要元素更新后的嵌入表征。
本发明实施例一种知识增强预训练语言模型训练方法,包括:
将知识增强的训练数据输入知识增强预训练语言模型中;所述知识增强的训练数据是使用上述的知识增强预训练语言模型知识注入方法得到的;
针对所述预训练语言模型的每一层前馈网络,根据输入的训练数据和知识评估目标,确定对知识评估目标生成正确答案的概率,根据所述概率确定每个神经元的知识归因分数;
将每一层中所述知识归因分数符合预设条件的神经元作为知识神经元,生成包括所述知识神经元的知识路径;
基于预设的损失函数更新所述知识路径的参数。
在一些可选的实施例中,所述根据输入的训练数据和知识评估目标,确定对知识评估目标生成正确答案的概率,根据所述概率确定每个神经元的知识归因分数,包括:
采用归一化指数函数,获取训练数据的输入序列对应的对知识评估目标生成正确答案的概率;
针对每个神经元,根据所述对知识评估目标生成正确答案的概率的梯度,确定所述神经元的知识归因分数。
在一些可选的实施例中,所述将每一层中所述知识归因分数符合预设条件的神经元作为知识神经元,生成包括所述知识神经元的知识路径,包括:
将每一层中知识归因分数最高的神经元确定为该层的知识神经元,通过路径连接每层的知识神经元,生成知识路径。
在一些可选的实施例中,所述基于预设的损失函数更新所述知识路径的参数,包括:
针对训练语句中包括的实体经Transformer编码器处理得到的嵌入表征,采用对比学习的方式,确定对比学习的损失函数,所述损失函数使得所述模型输出的预测正确答案与真实值相似度最大化,与替换实体对应的伪造答案的相似度最小化;
根据损失函数计算模型参数的梯度,更新所述知识路径的梯度。
本发明实施例一种知识增强预训练语言模型知识注入系统,包括:
Transformer编码器,用于基于领域知识图谱,识别预训练语句中的重要元素,所述重要元素包括通过语义相关方法检测出的重要实体和/或通过出现频率检测出的长尾词;将所述重要元素注入预训练语言模型的训练数据中;
记忆库,用于存储重要元素的嵌入表征。
本发明实施例一种知识增强预训练语言模型训练系统,包括:
Transformer编码器,基于领域知识图谱,识别预训练语句中的重要元素,所述重要元素包括通过语义相关方法检测出的重要实体和通过出现频率检测出的长尾词;将所述重要元素注入预训练语言模型的训练数据中,其中设有动态路由模块,用于将知识增强的训练数据输入知识增强预训练语言模型中;针对所述预训练语言模型的每一层前馈网络,根据输入的训练数据和知识评估目标,确定对知识评估目标生成正确答案的概率,根据所述概率确定每个神经元的知识归因分数;将每一层中所述知识归因分数符合预设条件的神经元作为知识神经元,生成包括所述知识神经元的知识路径;基于预设的损失函数更新所述知识路径的参数;
记忆库,用于存储重要元素的嵌入表征。
本发明实施例提供一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现上述的知识增强预训练语言模型知识注入方法和/或上述的知识增强预训练语言模型训练方法。
本发明实施例提供一种电子设备,包括:存储器、处理器及存储于存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的知识增强预训练语言模型知识注入方法和/或上述的知识增强预训练语言模型训练方法。
本发明实施例提供的上述技术方案的有益效果至少包括:
本发明实施例提供的知识增强预训练语言模型知识注入方法,基于领域知识图谱,识别预训练语句中的重要元素,例如重要实体和长尾词,将识别出的重要元素注入预训练语言模型的训练数据中,得到知识增强的训练数据作为模型的输入数据,从而能够在知识注入学习过程中实现有侧重的学习,减少冗余知识和无关知识带来的知识噪声,提高系统的鲁棒性。
本发明实施例提供的知识增强预训练语言模型训练方法,通过对重要元素的识别,减少知识噪声,提高系统的鲁棒性,通过对比学习实现对神经元中知识神经元的识别,针对知识神经元组成的知识路径进行模型参数更新,而不必更新全部的系统参数,减少参数更新的数据处理量,降低资源开销,提高更新处理的速度和效率,也降低了硬件成本。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中知识增强预训练语言模型知识训练模型示意图;
图2为本发明实施例一中知识增强预训练语言模型知识注入方法的流程图;
图3为本发明实施例中知识增强预训练语言模型知识训练方法的原理示意图;
图4为本发明实施例二中知识增强预训练语言模型知识训练方法的流程图;
图5为本发明实施例中知识增强预训练语言模型知识注入装置的结构示意图;
图6为本发明实施例中知识增强预训练语言模型知识训练装置的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
由于现有的KEPLM对知识注入没有侧重,且在进行系统参数更新时要更新系统的所有参数,使KEPLM系统存在鲁棒性差、资源开销大、成本高等问题。
例如:信息实体增强的语言表示模型(Enhanced Language Representation withInformative Entities,ERNIE)引入了新的实体编码器(Entity Encoder)用于捕获实体与句子间的语义关联,然后使用降噪自动编码器(denoising entity auto-encoder,DEA)随机掩藏(mask)掉一部分实体后来预测被mask掉的实体是什么。然而引入了新的EntityEncoder意味着引入了新的参数,并且修改了模型结构不利于它的泛用性。
知识嵌入和预训练语言表示的统一模型(A Unified Model for KnowledgeEmbedding and Pre-trained Language Representation,KEPLER)使用同一个编码器(Transformer)将文本和实体编码到统一的语义空间中。对于实体,将实体与其描述文本一起输入Transformer中,并使用TransE的编码方式减小头实体、关系、尾实体之间的距离。但其对全部实体的注入并没有考虑到实体中隐藏的噪声会对模型产生不利影响。
可分解的利用知识增强的预训练语言模型(Decomposable Knowledge-enhancedPre-trained Language Model for Natural Language Understanding,DKPLM)通过检测知识感知长尾实体作为知识注入的目标,增强KEPLM的语义理解能力,避免注入冗余信息。长尾实体的嵌入被相关知识三元组形成的“伪表示”所取代,并设计了用于预训练的关系知识解码任务,以通过关系重构迫使模型真正理解注入的知识。但是关系知识解码任务引入需要模型计算损失并更新模型全部参数,计算量大。
因此,为了对知识三元组(Knowledge Triples)中的实体有侧重的学习并加速知识增强预训练语言模型的训练,本发明提出了一种REALM的新型KEPLM训练方法,参见图1所示的PLM、KEPLM和REALM之间的差异,PLM通常使用掩码语言建模作为预训练对象,通过Transformer编码器(Transformer Encoder)对输入表征进行处理。KEPLM利用了外部知识源,例如KG,并设计需要额外知识编码器的知识感知任务,通过Transformer编码器对输入表征进行处理,通过知识编码器对输入实体进行处理,通过融合模块融合两者的处理结果。REALM增加了记忆库(Memory Bank)来记忆重要实体和长尾词等重要元素的表征,对于Transformer编码器增加了知识路径识别功能,REALM在预训练期间使用共享编码器和知识增强记忆库来注入事实知识,且只需要使用动态知识路由方法更新Transformer模块中的部分FFN参数,以减少更新的参数数量,减少资源消耗。
本发明提供的新型KEPLM训练方法能够更稳健和高效地训练KEPLM,是一种鲁棒优化的BERT预训练方法(A Robustly optimized BERT pretraining approach,RoBERTa)。为了减少引入过多的知识噪声,通过计算语义重要性来检测重要实体和长尾词作为知识注入的目标。构建了一个知识增强记忆网络(Knowledge-augmented Memory Bank,KMB)来促进学习重要实体和长尾词的表示,它可以引导预训练过程中对实体的学习并加速网络收敛。此外,为了减少计算资源的消耗,通过动态知识路由(Dynamic Knowledge Routing,DKR)选择性地更新Transformer模块中的参数。具体来说,通过知识相关的任务来识别储存知识的神经元(Knowledge Neurons,KN)和知识神经元组成的知识路径,从而能够选择性地更新模型参数来加速模型训练。
实施例一
本发明实施例一提供一种知识增强预训练语言模型知识注入方法,其流程如图2所示,其原理参见图3所示,该方法包括如下步骤:
步骤S101:基于领域知识图谱,识别预训练语句中的重要元素,其中,重要元素包括通过语义相关方法检测出的重要实体和/或通过出现频率检测出的长尾词。
步骤S102:将重要元素注入预训练语言模型的训练数据中,得到知识增强的训练数据作为模型的输入数据。
上述步骤S101中,基于领域知识图谱,识别预训练语句中的重要元素,包括重要实体的检测和长尾词的检测,当然也可以包括其他重要元素的检测,可以根据模型训练的需选择要检测的重要元素。
对于重要实体的检测,基于领域知识图谱中的三元组,检测预训练语句中的实体,通过预训练语句与对检测到的实体进行实体替换后的替换语句的语义相关性,检测出预训练语句中的重要实体;其中三元组包括实体、关系、实体。
可选的,检测重要实体的过程包括:对预训练语句中的实体进行实体替换,得到包括替换实体的替换语句;基于层归一化函数,获得预训练语句的嵌入表征和替换预句的嵌入表征,根据所述预训练语句的嵌入表征和替换预句的嵌入表征,确定预训练语句和替换语句的语义相关性,将语义相关性符合预设条件的实体,确定为重要实体。
对于长尾词的检测,根据预训练语料中的词出现频率,检测出预训练语句中的长尾词。
可选的,对于检测出的重要元素,可以通过设置的记忆网络进行记忆,并用于后续的模型训练过程中。即上述方法还包括:
将检测出的重要元素的嵌入表征存储到预先建立的记忆库中,记忆库可以包括用于存储重要实体嵌入表征的实体库和用来存储长尾词嵌入表征的词库;或基于检测出的重要元素的嵌入表征更新记忆库中存储的该重要元素的嵌入表征。
在从预训练语料库的预训练语句中第一次检测到一个重要元素时,将其嵌入表征存储到记忆库,当再次检测到该重要元素时,根据再次检测到该重要元素时获得的新的嵌入表征,对记忆库中存储的该重要元素的嵌入表征进行更新,将新的嵌入表征和存储的嵌入表征相加后得到更新后的嵌入表征。
在对记忆库中的重要元素进行更新时,根据重要元素的存储位置进行更新。获取检测出的重要元素的嵌入表征在记忆库中的存储位置;将存储位置处该重要元素的存储嵌入表征和本次检测到该重要元素后获得的新嵌入表征进行求和,得到该重要元素更新后的嵌入表征。
相应的,将重要元素注入预训练语言模型的训练数据中,包括:将记忆库中存储的重要元素的嵌入表征注入预训练语言模型的训练数据中。
本实施例的上述方法中,基于领域知识图谱,识别预训练语句中的重要元素,例如重要实体和长尾词,将识别出的重要元素注入预训练语言模型已有的训练数据中,得到知识增强的训练数据作为模型的输入数据,从而能够在知识注入学习过程中实现有侧重的学习,减少冗余知识和无关知识带来的知识噪声,提高系统的鲁棒性。
实施例二
本发明实施例二提供一种知识增强预训练语言模型训练方法,其流程如图4所示,包括如下步骤:
步骤S201:基于领域知识图谱,识别预训练语句中的重要元素。
步骤S202:将重要元素注入预训练语言模型的训练数据中,得到知识增强的训练数据作为模型的输入数据。
步骤S203:将知识增强的训练数据输入知识增强预训练语言模型中。
步骤S204:针对预训练语言模型的每一层前馈网络,根据输入的训练数据和知识评估目标,确定对知识评估目标生成正确答案的概率,根据对知识评估目标生成正确答案的概率确定每个神经元的知识归因分数。
针对预训练语言模型的每一层前馈网络,比如FFN中的输入层、中间层、输出层等,对每一层中的每一个神经元确定其知识归因分数,以便根据知识归因分数确定出每一层中的知识神经元。
在确定知识归因分数时,采用归一化指数函数,获取训练数据的输入序列对应的对知识评估目标生成正确答案的概率;针对每个神经元,根据知识评估目标生成正确答案的概率的梯度,确定神经元的知识归因分数。
步骤S205:将每一层中知识归因分数符合预设条件的神经元作为知识神经元,生成包括知识神经元的知识路径。
本步骤中,将每一层中知识归因分数最高的神经元确定为该层的知识神经元,通过路径连接每层的知识神经元,生成知识路径。一层中识别出一个知识归因分数最高的神经元作为知识神经元,可选的,也可以设置识别条件,识别出每一层中符合条件的神经元作为知识神经元,连接每一层知识神经元即可生成知识路径,以便对知识路径的参数进行更新。
步骤S206:基于预设的损失函数更新知识路径的参数。
针对训练语句中包括的实体经Transformer编码器处理得到的嵌入表征,采用对比学习的方式,确定对比学习的损失函数,损失函数使得模型输出的预测正确答案与真实值相似度最大化,与替换实体对应的伪造答案的相似度最小化;根据损失函数计算模型参数的梯度,更新知识路径的梯度。
本实施例中,通过对重要元素的识别,减少知识噪声,提高系统的鲁棒性,通过对比学习实现对神经元中知识神经元的识别,针对知识神经元组成的知识路径进行模型参数更新,而不必更新全部的系统参数,减少参数更新的数据处理量,降低资源开销,提高更新处理的速度和效率,也降低了硬件成本。
实施例三
本发明实施例三提供一种知识增强预训练语言模型知识注入和训练方法的一种具体过程,该方法是一种训练KEPLM的新框架,其中,设计了两种创新机制来加速将知识信息注入PLM,而无需额外的参数:(1)考虑重要实体注入的知识增强记忆网络。(2)通过动态知识路由方法,更新与事实知识相关的知识路径,加快PLM的训练,并增强模型的语言理解能力。实验表明,KEPLM的模型在知识探测任务和知识感知语言理解任务上达到了较优的性能。
参见图3所示的,本发明实施例三提供的知识增强预训练语言模型注入和训练方法,包括三个阶段:输入阶段、前向传播阶段和反向传播阶段。
输入阶段:
通过语义相关性检测重要实体、通过出现频次检测长尾词,将包括重要实体和长尾词等的重要元素注入到输入文本中作为模型的输入,减小所有实体注入带来的知识噪声。
如图3所示的,知识图谱中包括知识三元组,知识三元组可以包括实体、关系、实体。例如可以是头实体、关系、尾实体。对于重要实体的检测,以预训练语料库中的预训练语句“the Walt Disney Company,commonly known as Disney,is an Americanmultinational mass media and entertainment conglomerate headquartered at theWalt Disney Studios complex in Burbank,California.(华特迪士尼公司,通常被称为迪斯尼,是一家美国跨国大众媒体和娱乐集团,总部位于加利福尼亚州伯班克的华特迪士尼影城)”为例。根据知识图谱中的知识三元组,检测出的重要实体有“the Walt DisneyCompany(华特迪士尼公司)”和“mass media(大众传媒)”,检测出的长尾词有“conglomerate(企业集团)”。
重要实体是指预训练语句中的某个实体被替换为其他实体后,语句的意思就变了,这样的实体就是重要实体,如果替换后语句的意思没发生变化,则不是重要实体。
对重要实体的检测,使用语义相关性SI(e)来衡量,基于知识三元组构造用于替换重要元素的实体的嵌入表征时,在重要元素是知识三元组的头实体时,嵌入表征包括尾实体嵌入表征减去关系词嵌入表征;在重要元素是知识三元组的尾实体时,嵌入表征包括头实体嵌入表征加上关系词嵌入表征。
语义相关性SI(e)表示如下:其中ho是原始语句的表征,hrep是替换了实体后的替换语句的表征:
如果语句中的实体是知识三元组中的头部实体eh,则eh的表征由替换;如果句子中的实体是知识三元组中的尾部实体et,则et的表征由/>替换。
其中,
是层归一化(Layernorm)函数,/>是将头实体eh的token输入到PLM中最后一层输出的句子表示<cls>,/>可以采用类似的方法得到,/>Wr是训练的参数。
长尾词是指出现频率比较低的词,或者说稀有词,这些稀有词的稀有性导致模型学不到这个词的好的表征(Embedding),导致遇到该词时模型理解不了。
如果是第一次检测到该重要元素,将检测到的重要元素的嵌入表征存入记忆库中,如果不是第一次检测到该重要元素,将检测到的重要元素的嵌入表征(tokenembedding)与记忆库中存储的该重要实体的嵌入表征进行合并,即将存储值(storedvalue)和新值(new value)相加,得到替换表征(replaced embedding),将该重要元素新的嵌入表征存储到记忆库中。
在本实施例中,可选的,记忆库可以包括两个库,一个是词库,其中存储有长尾词的Embedding,一个是实体库,其中存储有重要实体的Embedding。
通过知识增强的记忆网络或说记忆库,可以加深模型对重要元素的认知,如果e是一个长尾实体,那么记忆库中对于e的“记忆”可以表示为:
其中hi∈Rd1是位置i上Transformer编码器的输出,并用作x的上下文表示,x表示输入序列。l和r是实体e的起始和结束位置,k是窗口的大小,以控制周围令牌的数量,即控制记忆网络中保存实体e周围的信息多少。由于实体e可能在预训练语料库中出现多次,KMB中实体e的“记忆”表示为经常使用获得的每个M(e,x)的移动平均值进行更新。知识增强的记忆网络/>中的值可以按以下公式更新,γ是超参数,实现中选取为γ∈(0,1):
当位置p的嵌入表征是长尾词或重要实体等重要元素时,对于第p个位置的最终嵌入表征可以通过以下公式得到:
其中εp是第p个位置的嵌入表征(token embedding),是ej的embedding,λ是控制对记忆网络的依赖程度。
前向传播阶段:
在每一次前向传播过程中,记忆库中的重要元素可以通过公式(3)更新,公式(3)中的M(e,x)通过公式(2)得到。
为了使模型理解注入的知识,在掩码语言模型任务(masked language modeltask)基础上设计了知识感知任务(knowledge-aware task),即对比学习知识任务。将表示为Transformer编码器最后一层eh中对应的表征,给定/>和hr,若想要预测尾部实体的第i个嵌入表征/>{hdi}可以通过以下方式迭代生成,其中δd是缩放系数,Wd是可学习参数,而初始化为/>
对于嵌入表征使用对比学习来强制模型捕获知识,/>是/>目标之间的匹配函数。token层面的对比学习损失函数如下:
其中,yi是真实值,比如前边例子中的加利福尼亚,y′i是通过负采样得到的负例,比如替换语句中随机替换成了上海或者北京。通过损失函数让模型输出的预测正确答案和真实值的相似度最大化,与替换后的伪造答案的相似度最小化。
对比学习损失函数通过灵活定义正样本负样本,可以让正样本的得分远大于负样本。在前向传播阶段计算损失函数,以便在反向传播阶段根据损失函数调整模型参数。
为了获得知识路径,需要在前向传播中寻找知识神经元。动态知识路由(DynamicKnowledge Routing,DKR)通过知识归因寻找FFN中的知识神经元以及知识路径,实现有选择的更新模型参数。
在每个FFN层中,通过知识评估任务计算神经元的归因分数,基于归因分数,筛选出知识神经元并获得知识路径。在前向传播之后,可以用最后一个Transformer层的输出来更新存储在知识增强记忆网络(Knowledge-augmented Memory Bank)的重要元素的嵌入表征。
对于给定输入序列x,将定义为对知识评估目标生成正确答案的概率:
其中p表示softmax函数,y*表示正确答案,表示第l个FFN中的第i个神经元,为/>的给定值。
对于FFN网络中的神经元,以第l层FFN中第i个神经元为例,可以通过的梯度来获得/>的归因分数,其归因分数可以通过以下公式计算得到:
当α从0变为1时,表示由/>使用积分梯度引起的输出概率的变化。由于连续积分很难直接计算。在实践中,可以使用使用黎曼近似后的公式(7),并根据经验设置m的值,例如设置m的值为20:
根据归因分数可以找到每一层的知识神经元,例如将每一层归因分数最高的神经元作为知识神经元,连接各层的(例如输入层、中间层、输出层等)的知识神经元,可以获得知识路径:
用表示第/>层FFN的输入层的第i个节点,/>表示第/>层FFN的中间层的第j个节点,/>表示第/>层FFN的输出层的第k个节点。那么根据每层的知识神经元获得的知识路径可以用/>表示,更新这部分与知识相关的知识路径就可以达到更新网络中部分参数而加速网络训练的效果。
反向传播阶段:
本实施例中,在反向传播阶段只更新模型的部分参数,在前向传播阶段找到知识路径后,更新前向传播中找到的知识路径对应的参数来加速训练。在进行参数更新时可以根据损失函数计算梯度w,更新属于知识路径的梯度w。/>可以根据公式(5)得到,也可以根据公式(5)计算不同实体的损失后,基于设置的超参数加权求和获得/>
针对加速知识增强的语言模型训练并具有更高的鲁棒性,利用重要实体注入的知识增强记忆网络对知识有侧重的注入。并且通过动态知识路由方法,通过计算网络中神经元的归因值找到知识神经元和知识路径,更新与事实知识相关的知识路径,加快PLM的训练并增强模型的语言理解能力。实验表明,REALM的模型在知识探测任务和知识感知语言理解任务上达到了较优的性能。
基于同一发明构思,本发明实施例还提供一种知识增强预训练语言模型知识注入系统,参见图1所示的,包括:
Transformer编码器,用于基于领域知识图谱,识别预训练语句中的重要元素,所述重要元素包括通过语义相关方法检测出的重要实体和通过出现频率检测出的长尾词;将所述重要元素注入预训练语言模型的训练数据中。
记忆库,用于存储重要元素的嵌入表征。
基于同一发明构思,本发明实施例还提供一种知识增强预训练语言模型训练系统,参见图1所示的,包括:
Transformer编码器,基于领域知识图谱,识别预训练语句中的重要元素,所述重要元素包括通过语义相关方法检测出的重要实体和通过出现频率检测出的长尾词;将所述重要元素注入预训练语言模型的训练数据中,其中设有动态路由模块,用于将知识增强的训练数据输入知识增强预训练语言模型中;针对所述预训练语言模型的每一层前馈网络,根据输入的训练数据和知识评估目标,确定对知识评估目标生成正确答案的概率,根据所述概率确定每个神经元的知识归因分数;将每一层中所述知识归因分数符合预设条件的神经元作为知识神经元,生成包括所述知识神经元的知识路径;基于预设的损失函数更新所述知识路径的参数。
记忆库,用于存储重要元素的嵌入表征。
基于同一发明构思,本发明实施例还提供一种知识增强预训练语言模型注入装置,该装置可以设置在电子设备中,该装置的结构如图5所示,包括:
识别模块11,用于基于领域知识图谱,识别预训练语句中的重要元素,所述重要元素包括通过语义相关方法检测出的重要实体和通过出现频率检测出的长尾词;
注入模块12,用于将所述重要元素注入预训练语言模型的训练数据中,得到知识增强的训练数据作为模型的输入数据。
基于同一发明构思,本发明实施例还提供一种知识增强预训练语言模型训练装置,该装置可以设置在电子设备中,该装置的结构如图6所示,包括:
输入模块21,用于将知识增强的训练数据输入知识增强预训练语言模型中;
动态路由模块22,用于针对所述预训练语言模型的每一层前馈网络,根据输入的训练数据和知识评估目标,确定对知识评估目标生成正确答案的概率,根据所述概率确定每个神经元的知识归因分数;将每一层中所述知识归因分数符合预设条件的神经元作为知识神经元,生成包括所述知识神经元的知识路径;
参数更新模块23,用于基于预设的损失函数更新所述知识路径的参数。
本发明实施例还提供一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现上述的知识增强预训练语言模型知识注入方法和/或上述的知识增强预训练语言模型训练方法。
本发明实施例还提供一种电子设备,包括:存储器、处理器及存储于存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的知识增强预训练语言模型知识注入方法和/或上述的知识增强预训练语言模型训练方法。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本发明实施例的上述方法和装置,可以集成在NLP算法框架的开源代码库中。
本发明实施例提供的上述方法,是一种面向知识增强的预训练语言模型的鲁棒性知识注入和训练加速算法,是一种能够更鲁棒、更有效的学习知识的模型框架。由于语料库中的词和实体遵循长尾分布,其中一些通常没有被语言模型很好的学习,并减缓了预训练过程。通过更鲁棒地注入知识三元组并使用知识增强的记忆网络(Knowledge-augmentedMemory Bank)来捕获有用的知识来解决这个问题。此外,在反向传播中仅更新前馈网络(FFN)中存储事实知识的一小部分神经元是一种效率更高的训练方式。具体来说,通过动态知识路由(Dynamic Knowledge Routing)来识别前馈网络中的知识路径,并在预训练期间选择性地更新着部分参数。实验结果表明,本方案减少了至少50%的预训练时间,并且在知识探测任务(Knowledge Probing)和多个知识感知语言理解(Knowledge-aware LanguageUnderstanding)任务的效果优于其他知识增强预训练语言模型。
除非另外具体陈述,术语比如处理、计算、运算、确定、显示等等可以指一个或更多个处理或者计算系统、或类似设备的动作和/或过程,所述动作和/或过程将表示为处理系统的寄存器或存储器内的物理(如电子)量的数据操作和转换成为类似地表示为处理系统的存储器、寄存器或者其他此类信息存储、发射或者显示设备内的物理量的其他数据。信息和信号可以使用多种不同的技术和方法中的任何一种来表示。例如,在贯穿上面的描述中提及的数据、指令、命令、信息、信号、比特、符号和码片可以用电压、电流、电磁波、磁场或粒子、光场或粒子或者其任意组合来表示。
应该明白,公开的过程中的步骤的特定顺序或层次是示例性方法的实例。基于设计偏好,应该理解,过程中的步骤的特定顺序或层次可以在不脱离本公开的保护范围的情况下得到重新安排。所附的方法权利要求以示例性的顺序给出了各种步骤的要素,并且不是要限于所述的特定顺序或层次。
在上述的详细描述中,各种特征一起组合在单个的实施方案中,以简化本公开。不应该将这种公开方法解释为反映了这样的意图,即,所要求保护的主题的实施方案需要清楚地在每个权利要求中所陈述的特征更多的特征。相反,如所附的权利要求书所反映的那样,本发明处于比所公开的单个实施方案的全部特征少的状态。因此,所附的权利要求书特此清楚地被并入详细描述中,其中每项权利要求独自作为本发明单独的优选实施方案。
本领域技术人员还应当理解,结合本文的实施例描述的各种说明性的逻辑框、模块、电路和算法步骤均可以实现成电子硬件、计算机软件或其组合。为了清楚地说明硬件和软件之间的可交换性,上面对各种说明性的部件、框、模块、电路和步骤均围绕其功能进行了一般地描述。至于这种功能是实现成硬件还是实现成软件,取决于特定的应用和对整个系统所施加的设计约束条件。熟练的技术人员可以针对每个特定应用,以变通的方式实现所描述的功能,但是,这种实现决策不应解释为背离本公开的保护范围。
结合本文的实施例所描述的方法或者算法的步骤可直接体现为硬件、由处理器执行的软件模块或其组合。软件模块可以位于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、移动磁盘、CD-ROM或者本领域熟知的任何其它形式的存储介质中。一种示例性的存储介质连接至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。该ASIC可以位于用户终端中。当然,处理器和存储介质也可以作为分立组件存在于用户终端中。
对于软件实现,本申请中描述的技术可用执行本申请所述功能的模块(例如,过程、函数等)来实现。这些软件代码可以存储在存储器单元并由处理器执行。存储器单元可以实现在处理器内,也可以实现在处理器外,在后一种情况下,它经由各种手段以通信方式耦合到处理器,这些都是本领域中所公知的。
上文的描述包括一个或多个实施例的举例。当然,为了描述上述实施例而描述部件或方法的所有可能的结合是不可能的,但是本领域普通技术人员应该认识到,各个实施例可以做进一步的组合和排列。因此,本文中描述的实施例旨在涵盖落入所附权利要求书的保护范围内的所有这样的改变、修改和变型。此外,就说明书或权利要求书中使用的术语“包含”,该词的涵盖方式类似于术语“包括”,就如同“包括,”在权利要求中用作衔接词所解释的那样。此外,使用在权利要求书的说明书中的任何一个术语“或者”是要表示“非排它性的或者”。
Claims (13)
1.一种知识增强预训练语言模型知识注入方法,其特征在于,包括:
基于领域知识图谱,识别预训练语句中的重要元素,所述重要元素包括通过语义相关方法检测出的重要实体和/或通过出现频率检测出的长尾词;
将所述重要元素注入预训练语言模型的训练数据中,得到知识增强的训练数据作为模型的输入数据。
2.如权利要求1所述的方法,其特征在于,所述基于领域知识图谱,识别预训练语句中的重要元素,包括:
基于领域知识图谱中的三元组,检测预训练语句中的实体,通过预训练语句与对检测到的实体进行实体替换后的替换语句的语义相关性,检测出预训练语句中的重要实体;所述三元组包括实体、关系、实体;
根据预训练语料中的词出现频率,检测出所述预训练语句中的长尾词。
3.如权利要求2所述的方法,其特征在于,所述通过预训练语句与对检测到的实体进行实体替换后的替换语句的语义相关性,检测出预训练语句中的重要实体,包括:
对所述预训练语句中的实体进行实体替换,得到包括替换实体的替换语句;
基于层归一化函数,获得预训练语句的嵌入表征和替换预句的嵌入表征,根据所述预训练语句的嵌入表征和替换预句的嵌入表征,确定预训练语句和替换语句的语义相关性,
将语义相关性符合预设条件的实体,确定为重要实体。
4.权利要求1-3任一项所述的方法,其特征在于,还包括:
将检测出的重要元素的嵌入表征存储到预先建立的记忆库中,所述记忆库包括用于存储重要实体嵌入表征的实体库和用来存储长尾词嵌入表征的词库;或基于检测出的重要元素的嵌入表征更新记忆库中存储的该重要元素的嵌入表征;
相应的,将所述重要元素注入预训练语言模型的训练数据中,包括:将记忆库中存储的所述重要元素的嵌入表征注入预训练语言模型的训练数据中。
5.权利要求1-3任一项所述的方法,其特征在于,所述基于检测出的重要元素的嵌入表征更新记忆库中存储的该重要元素的嵌入表征,包括:
获取检测出的重要元素的嵌入表征在记忆库中的存储位置;
将所述存储位置处该重要元素的存储嵌入表征和本次检测到该重要元素后获得的新嵌入表征进行求和,得到该重要元素更新后的嵌入表征。
6.一种知识增强预训练语言模型训练方法,其特征在于,包括:
将知识增强的训练数据输入知识增强预训练语言模型中;所述知识增强的训练数据是使用权利要求1-5任一所述的知识增强预训练语言模型知识注入方法得到的;
针对所述预训练语言模型的每一层前馈网络,根据输入的训练数据和知识评估目标,确定对知识评估目标生成正确答案的概率,根据所述概率确定每个神经元的知识归因分数;
将每一层中所述知识归因分数符合预设条件的神经元作为知识神经元,生成包括所述知识神经元的知识路径;
基于预设的损失函数更新所述知识路径的参数。
7.如权利要求6所述的方法,其特征在于,所述根据输入的训练数据和知识评估目标,确定对知识评估目标生成正确答案的概率,根据所述概率确定每个神经元的知识归因分数,包括:
采用归一化指数函数,获取训练数据的输入序列对应的对知识评估目标生成正确答案的概率;
针对每个神经元,根据所述对知识评估目标生成正确答案的概率的梯度,确定所述神经元的知识归因分数。
8.如权利要求6所述的方法,其特征在于,所述将每一层中所述知识归因分数符合预设条件的神经元作为知识神经元,生成包括所述知识神经元的知识路径,包括:
将每一层中知识归因分数最高的神经元确定为该层的知识神经元,通过路径连接每层的知识神经元,生成知识路径。
9.如权利要求6-8任一所述的方法,其特征在于,所述基于预设的损失函数更新所述知识路径的参数,包括:
针对训练语句中包括的实体经Transformer编码器处理得到的嵌入表征,采用对比学习的方式,确定对比学习的损失函数,所述损失函数使得所述模型输出的预测正确答案与真实值相似度最大化,与替换实体对应的伪造答案的相似度最小化;
根据损失函数计算模型参数的梯度,更新所述知识路径的梯度。
10.一种知识增强预训练语言模型知识注入系统,其特征在于,包括:
Transformer编码器,用于基于领域知识图谱,识别预训练语句中的重要元素,所述重要元素包括通过语义相关方法检测出的重要实体和/或通过出现频率检测出的长尾词;将所述重要元素注入预训练语言模型的训练数据中;
记忆库,用于存储重要元素的嵌入表征。
11.一种知识增强预训练语言模型训练系统,其特征在于,包括:
Transformer编码器,用于基于领域知识图谱,识别预训练语句中的重要元素,所述重要元素包括通过语义相关方法检测出的重要实体和通过出现频率检测出的长尾词;将所述重要元素注入预训练语言模型的训练数据中,其中设有动态路由模块,用于将知识增强的训练数据输入知识增强预训练语言模型中;针对所述预训练语言模型的每一层前馈网络,根据输入的训练数据和知识评估目标,确定对知识评估目标生成正确答案的概率,根据所述概率确定每个神经元的知识归因分数;将每一层中所述知识归因分数符合预设条件的神经元作为知识神经元,生成包括所述知识神经元的知识路径;基于预设的损失函数更新所述知识路径的参数;
记忆库,用于存储重要元素的嵌入表征。
12.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现权利要求1-5任一所述的知识增强预训练语言模型知识注入方法和/或权利要求6-9任一所述的知识增强预训练语言模型训练方法。
13.一种电子设备,其特征在于,包括:存储器、处理器及存储于存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1-5任一所述的知识增强预训练语言模型知识注入方法和/或权利要求6-9任一所述的知识增强预训练语言模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310277777.1A CN116450839A (zh) | 2023-03-20 | 2023-03-20 | 知识增强预训练语言模型知识注入和训练方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310277777.1A CN116450839A (zh) | 2023-03-20 | 2023-03-20 | 知识增强预训练语言模型知识注入和训练方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116450839A true CN116450839A (zh) | 2023-07-18 |
Family
ID=87126398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310277777.1A Pending CN116450839A (zh) | 2023-03-20 | 2023-03-20 | 知识增强预训练语言模型知识注入和训练方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116450839A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116720786A (zh) * | 2023-08-01 | 2023-09-08 | 中国科学院工程热物理研究所 | 一种融合kg和plm的装配质量稳定性预测方法、系统及介质 |
-
2023
- 2023-03-20 CN CN202310277777.1A patent/CN116450839A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116720786A (zh) * | 2023-08-01 | 2023-09-08 | 中国科学院工程热物理研究所 | 一种融合kg和plm的装配质量稳定性预测方法、系统及介质 |
CN116720786B (zh) * | 2023-08-01 | 2023-10-03 | 中国科学院工程热物理研究所 | 一种融合kg和plm的装配质量稳定性预测方法、系统及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN111241287A (zh) | 用于生成对抗文本的生成模型的训练方法及装置 | |
CN117521675A (zh) | 基于大语言模型的信息处理方法、装置、设备及存储介质 | |
CN112115687B (zh) | 一种结合知识库中的三元组和实体类型的生成问题方法 | |
CN110648659B (zh) | 基于多任务模型的语音识别与关键词检测装置和方法 | |
CN113987179A (zh) | 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质 | |
CN109637527B (zh) | 对话语句的语义解析方法及系统 | |
CN111814489A (zh) | 口语语义理解方法及系统 | |
CN111145914B (zh) | 一种确定肺癌临床病种库文本实体的方法及装置 | |
CN116127953A (zh) | 一种基于对比学习的中文拼写纠错方法、装置和介质 | |
CN110717027A (zh) | 多轮智能问答方法、系统以及控制器和介质 | |
CN111882042B (zh) | 用于液体状态机的神经网络架构自动搜索方法、系统及介质 | |
CN116547681A (zh) | 用于持续演进内容的动态语言模型 | |
CN111444328B (zh) | 一种带有解释生成的自然语言自动预测推断方法 | |
CN116450839A (zh) | 知识增强预训练语言模型知识注入和训练方法及系统 | |
Yi et al. | Exploiting language model for efficient linguistic steganalysis | |
KR102131641B1 (ko) | 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법, 이를 수행하기 위한 기록매체 및 장치 | |
CN117980915A (zh) | 用于端到端自监督预训练的对比学习和掩蔽建模 | |
Kwon et al. | Audio adversarial detection through classification score on speech recognition systems | |
CN112463935B (zh) | 一种带有强泛化知识选择的开放域对话生成方法及系统 | |
CN117558270A (zh) | 语音识别方法、装置、关键词检测模型的训练方法和装置 | |
Yang et al. | An Effective Mixture-Of-Experts Approach For Code-Switching Speech Recognition Leveraging Encoder Disentanglement | |
Zhang et al. | RL-EMO: A Reinforcement Learning Framework for Multimodal Emotion Recognition | |
WO2024193382A1 (zh) | 知识增强预训练语言模型知识注入和训练方法及系统 | |
Harichandana et al. | Adaptive Beam Search to Enhance On-device Abstractive Summarization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |