CN115249065A - 一种注意力机制模型的训练方法、装置、设备及存储介质 - Google Patents
一种注意力机制模型的训练方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN115249065A CN115249065A CN202210228371.XA CN202210228371A CN115249065A CN 115249065 A CN115249065 A CN 115249065A CN 202210228371 A CN202210228371 A CN 202210228371A CN 115249065 A CN115249065 A CN 115249065A
- Authority
- CN
- China
- Prior art keywords
- word
- word vectors
- hidden
- attention mechanism
- mechanism model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007246 mechanism Effects 0.000 title claims abstract description 122
- 238000012549 training Methods 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title claims abstract description 59
- 239000013598 vector Substances 0.000 claims abstract description 338
- 238000012545 processing Methods 0.000 claims description 49
- 230000015654 memory Effects 0.000 claims description 37
- 238000012360 testing method Methods 0.000 claims description 31
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000000306 recurrent effect Effects 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010922 spray-dried dispersion Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004580 weight loss Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了人工智能领域中的一种注意力机制模型的训练方法、装置、设备及存储介质,一种注意力机制模型的训练方法包括:获取多个词向量;确定多个词向量之间的依赖关系;基于多个词向量之间的依赖关系,对注意力机制模型进行训练,获得经训练的注意力机制模型。采用本申请的注意力机制模型的训练方法,能够增加句子中词语之间的表达关系,提高注意力机制模型的准确率。
Description
技术领域
本申请涉及自然语言处理领域,尤其涉及一种注意力机制模型的训练方法、装置、设备及存储介质。
背景技术
人工智能(artificial intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能可以应用在自然语言处理(natural language processing,NLP)中,比如对句子进行翻译时,待翻译的句子中任一个单词对于生成某个目标单词来说,影响力都应是不同的。例如,待翻译的句子为“Tom Chase Jerry”,翻译后的目标句子应为“汤姆追逐杰瑞”,输入的每一个单词“Tom”、“Chase”和“Jerry”对于生成目标句子中的单词“杰瑞”来说,影响力都应是不同的。因此通常在模型中引入注意力机制(attention mechanism,AM),以使各个输入单词对生成每一个输出单词的影响力都不同。
但是,目前传统的注意力机制模型在自然语言处理中,对于句子中相距较远的词语,关系表达比较弱,处理结果准确率较低。
发明内容
本申请公开了一种人工智能领域中的注意力机制模型的训练方法、装置、设备及存储介质,所述注意力机制模型的训练方法克服了对于句子中相距较远的词语关系表达比较弱的缺陷,提高了注意力机制模型输出结果的准确率。
第一方面,本申请公开了一种注意力机制模型的训练方法,包括:获取多个词向量;确定所述多个词向量之间的依赖关系;基于所述多个词向量之间的依赖关系,对所述注意力机制模型进行训练,获得经训练的注意力机制模型。
可以看到,在获取多个词向量后,确定了多个词向量之间的依赖关系,然后,基于多个词向量之间的依赖关系对注意力机制模型进行训练,最终获得经训练的注意力机制模型。相对于传统的注意力机制模型的训练方法,本申请中,在训练注意力机制模型时考虑了多个词向量之间的依赖关系,也就是说,注意力机制模型是基于多个词向量之间的依赖关系训练获得的,因此,避免了对于句子中相距较远的词语来说关系表达比较弱的弊端,提高了模型的精准度。
基于第一方面,在可能的实现方式中,所述多个词向量组成至少一个短语或至少一个句子;所述确定所述多个词向量之间的依赖关系,包括:根据依存句法关系,确定所述多个词向量中每个词向量在所述至少一个短语或所述至少一个句子中的结构成分;根据所述结构成分之间的依赖关系,确定所述多个词向量之间的依赖关系。
可以理解,多个词向量可以是组成至少一个短语,也可以是组成至少一个句子,可以根据依存句法关系,确定多个词向量中的每个词向量在至少一个短语或至少一个句子中的结构成分,并根据结构成分之间的依赖关系确定多个词向量之间的依赖关系。本申请,充分利用句子结构方面的先验知识,将句法结构信息融入词向量的计算中,增强了词向量之间的关系表达,使得注意力机制模型的训练结果更加准确。
基于第一方面,在可能的实现方式中,所述确定所述多个词向量之间的依赖关系,包括:从知识图谱中获取所述多个词向量之间的依赖关系;所述知识图谱中记录了所述多个词向量之间的依赖关系。
可以理解,还可以通过知识图谱获得多个词向量之间的依赖关系,其中知识图谱中记录了所述多个词向量之间的依赖关系。从知识图谱中直接获得多个词向量之间的依赖关系,无需计算,节省时间、节省计算资源、便于操作。
基于第一方面,在可能的实现方式中,所述基于所述多个词向量之间的依赖关系,对所述注意力机制模型进行训练,获得经训练的注意力机制模型,包括:根据所述多个词向量之间的依赖关系,确定所述多个词向量对应的多个隐藏层的状态之间的依赖关系;根据所述多个词向量对应的多个隐藏层的状态之间的依赖关系,确定所述注意力机制模型中的各个隐藏层的状态;根据所述各个隐藏层的状态,对所述注意力机制模型进行训练,获得所述经训练的注意力机制模型。
可以理解,在注意力机制模型的训练中,多个词向量之间的依赖关系的表达体现在多个词向量对应的隐藏层的状态之间的依赖关系的表达。利用多个词向量对应的隐藏层的状态之间的依赖关系,求解各个隐藏层的状态,进而根据各个隐藏层的状态对注意力机制模型进行训练,提高注意力机制模型输出结果的准确率。
基于第一方面,在可能的实现方式中,在所述多个词向量包括第一词向量、第二词向量和第三词向量,所述多个词向量之间的依赖关系包括:所述第一词向量依赖于所述第二词向量和所述第三词向量,且所述第一词向量对所述第二词向量的依赖程度大于所述第一词向量对所述第三词向量的依赖程度的情况下,第一隐状态对第二隐状态的依赖程度大于所述第一隐状态对第三隐状态的依赖程度;其中,所述第一隐状态指的是所述第一词向量对应的隐藏层的状态,所述第二隐状态指的是所述第二词向量对应的隐藏层的状态,所述第三隐状态指的是所述第三词向量对应的隐藏层的状态。
可以看到,多个词向量所对应的隐藏层的状态之间的依赖关系与多个词向量之间的依赖关系相同,且,词向量之间依赖程度强的,词向量对应的隐藏层的状态之间的依赖程度也强,词向量之间依赖程度弱的,词向量对应的隐藏层的状态之间的依赖程度也弱。
基于第一方面,在可能的实现方式中,所述根据所述多个词向量对应的多个隐藏层的状态之间的依赖关系,确定所述注意力机制模型中的各个隐藏层的状态,包括:所述第一隐状态为所述第二隐状态与加权系数w1的乘积和所述第三隐状态与加权系数w2的乘积之和;其中,所述加权系数w1表示所述第一隐状态对所述第二隐状态的依赖程度,所述加权系数w2表示所述第一隐状态对所述第三隐状态的依赖程度。
可以理解,某一隐状态等于该隐状态所依赖的隐状态与其对应的加权系数乘积之和。也就是,在计算某一隐状态时,考虑到了该隐状态所依赖的其他隐状态,这样再利用计算出的隐状态值训练注意力机制模型,获得的输出结果更加准确。
基于第一方面,在可能的实现方式中,所述方法还包括:获取多个测试词向量;使用所述经训练的注意力机制模型对所述多个测试词向量进行处理,获得处理结果。
可以理解,使用经训练的注意力机制模型对多个测试词向量进行处理,能够增加处理结果的准确度。
第二方面,本申请提供了一种注意力机制模型的训练装置,包括:获取单元,用于获取多个词向量;确定单元,用于确定所述多个词向量之间的依赖关系;训练单元,用于基于所述多个词向量之间的依赖关系,对所述注意力机制模型进行训练,获得经训练的注意力机制模型。
基于第二方面,在可能的实现方式中,所述多个词向量组成至少一个短语或至少一个句子;所述确定单元用于:根据依存句法关系,确定所述多个词向量中每个词向量在所述至少一个短语或所述至少一个句子中的结构成分;根据所述结构成分之间的依赖关系,确定所述多个词向量之间的依赖关系。
基于第二方面,在可能的实现方式中,所述确定单元用于:从知识图谱中获取所述多个词向量之间的依赖关系;所述知识图谱中记录了所述多个词向量之间的依赖关系。
基于第二方面,在可能的实现方式中,所述训练单元用于:根据所述多个词向量之间的依赖关系,确定所述多个词向量对应的多个隐藏层的状态之间的依赖关系;根据所述多个词向量对应的多个隐藏层的状态之间的依赖关系,确定所述注意力机制模型中的各个隐藏层的状态;根据所述各个隐藏层的状态,对所述注意力机制模型进行训练,获得所述经训练的注意力机制模型。
基于第二方面,在可能的实现方式中,在所述多个词向量包括第一词向量、第二词向量和第三词向量,所述多个词向量之间的依赖关系包括:所述第一词向量依赖于所述第二词向量和所述第三词向量,且所述第一词向量对所述第二词向量的依赖程度大于所述第一词向量对所述第三词向量的依赖程度的情况下,所述第一隐状态对所述第二隐状态的依赖程度大于所述第一隐状态对所述第三隐状态的依赖程度;其中,所述第一隐状态指的是所述第一词向量对应的隐藏层的状态,所述第二隐状态指的是所述第二词向量对应的隐藏层的状态,所述第三隐状态指的是所述第三词向量对应的隐藏层的状态。
基于第二方面,在可能的实现方式中,所述第一隐状态为所述第二隐状态与加权系数w1的乘积和所述第三隐状态与加权系数w2的乘积之和;其中,所述加权系数w1表示所述第一隐状态对所述第二隐状态的依赖程度,所述加权系数w2表示所述第一隐状态对所述第三隐状态的依赖程度。
基于第二方面,在可能的实现方式中,所述获取单元还用于,获取多个测试词向量;所述装置还包括处理单元,所述处理单元用于,使用所述经训练的注意力机制模型对所述多个测试词向量进行处理,获得处理结果。
上述第二方面装置中的各个功能单元具体用于实现第一方面及第一方面的任意实现方式中所述的方法。
第三方面,本申请提供了一种注意力机制模型的训练设备,包括存储器和处理器,所述存储器用于存储指令,所述处理器用于调用所述存储器中存储的指令,执行上述第一方面及第一方面的任一实现方式中所述的方法。
第四方面,本申请提供了一种计算机可读存储介质,包括程序指令,当所述程序指令在计算机上运行时,使得所述计算机执行上述第一方面及第一方面的任一实现方式中所述的方法。
第五方面,本申请提供了一种计算机程序产品,所述计算机程序产品包括计算机程序代码,在所述计算机程序代码被注意力机制模型的训练设备执行时,所述注意力机制模型的训练设备执行前述第一方面或第一方面的任意可能的实现中提供的方法。该计算机程序产品可以为一个软件安装包,在需要使用前述第一方面或第一方面的任意可能的实现中提供的方法的情况下,可以下载该计算机程序产品并在注意力机制模型的训练设备上执行该计算机程序产品。
可以看到,首先获取多个词向量,多个词向量组成至少一个短语或至少一个句子,然后根据依存句法关系确定多个词向量之间的依赖关系,其次,基于多个词向量之间的依赖关系对注意力机制模型进行训练,最终获得经训练的注意力机制模型。本申请,充分利用句子结构方面的先验知识,将句法结构融入词向量的计算中,增强了词向量之间关系的表达,使得训练得到的注意力机制模型更加精准,使用经训练的注意力机制模型对测试词向量进行处理时,提高了注意力机制模型输出结果的准确率。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。
图1为本申请提供的一种系统架构示意图;
图2为本申请提供的又一种系统架构示意图;
图3为本申请提供的一种注意力机制模型示意图;
图4为本申请提供的又一种注意力机制模型示意图;
图5为本申请提供的一种注意力机制模型的训练方法的流程示意图;
图6为本申请提供的一种多个词向量之间依赖关系的示意图;
图7为本申请提供的一种多个词向量之间依赖关系的示例图;
图8为本申请提供的一种注意力机制模型的测试方法的流程示意图;
图9为本申请提供的一种注意力机制模型的训练装置的结构示意图;
图10为本申请提供的一种注意力机制模型的训练设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,图1为本申请提供的一种系统架构示意图,该系统包括终端设备和数据处理设备。
终端设备可以是手机、个人电脑、计算机或可穿戴的电子设备等中的任意一个等。
数据处理设备可以是云服务器、网络服务器、应用服务器以及管理服务器等具有数据处理功能的设备或服务器。数据处理设备通过交互接口接收来自终端设备的短语/句子/段落/篇章等,再通过存储数据的存储器以及数据处理的处理器环节进行机器学习,从而实现数据的处理。存储器可以是一个统称,包括本地存储以及存储历史数据的数据库,数据库可以再数据处理设备上,也可以在其它网络服务器上。
比如,终端设备可以是个人电脑,数据处理设备为服务器,服务器通过机器学习等训练方式,具有语言翻译功能。用户可通过终端设备将多个段落的文字上传或输入至数据处理设备中,数据处理设备对输入的文字进行翻译,并将翻译结果发送或输出至终端设备。或者,用户将多个段落的文字输入或发送至终端设备,终端设备先对文字进行处理,将文字转化为数据处理设备可支持的格式,再输入或上传至数据处理设备,由数据处理设备进行处理,并将处理结果发送至终端设备,经终端设备进行格式转化,最终获得翻译后的结果。
参见图2,图2为本申请提供的一种系统200架构示意图,下面对该系统200进行介绍。
数据采集设备260用于采集训练数据,本申请实施例中的训练数据包括多个词向量,其中,多个词向量可以是构成多个短语的各个词语对应的多个词向量,也可以是构成多个句子或多个段落或多个篇章的各个词语对应的多个词向量。其中,所谓词向量(wordvector,WV),指的是自然语言处理中的一组语言建模和特征学习技术的统称,其中来自词汇表的单词或短语可以被映射到实数的向量(a vector of real numbers)。
在采集到训练数据之后,数据采集设备260将采集的训练数据存入数据库230中,训练设备220基于数据库230中维护的训练数据训练得到注意力机制模型213。
上述经训练的注意力机制模型213可以用于对句子或短语进行翻译,也可以用于提取段落或篇章中的关键词,还可以用于对段落或篇章进行情感分析。例如,数据采集设备260采集多个测试词向量,存入数据库230中,然后数据库中的多个测试词向量通过I/O接口212输入经训练的注意力机制模型213中,经训练的注意力机制模型213对多个测试词向量进行处理,获得处理结果,并通过I/O接口212将处理结果输出。其中,计算模块211用于使用注意力机制模型中的计算规则对输入的多个测试词向量进行处理。
可选的,关联功能模块214还可以对处理结果进一步进行操作,并通过I/O接口212将操作结果输出。比如,经训练的注意力机制模型213输出的是翻译后的词向量或关键词语对应的词向量,关联功能模块214可以将翻译后的词向量或关键词语对应的词向量转化为翻译后的词语或关键词语,翻译后的词语或关键词语通过I/O接口212输出。
训练设备220训练得到的注意力机制模型213可以应用于不同的系统或设备中,如应用于图2所示的执行设备210,所述执行设备210可以是应用服务器或云服务器集群中的服务器,在图2中,执行设备210配置输入/输出(input/output,I/O)接口212,用于与外部设备进行数据交互,外部设备240通过I/O接口212输入数据,也可以通过I/O接口接收输出数据。
在执行设备210对输入数据进行处理,或者在执行设备210的计算模块211执行计算等相关的处理过程中,执行设备210可以调用数据存储系统250中的数据、代码等以用于相应的处理,也可以将相应处理得到的数据、指令等存入数据存储系统250中。
需要说明的是,训练设备220可以针对不同的目标或不同的任务,基于不同的训练数据生成相应的注意力机制模型213,该相应的注意力机制模型213可以用于实现上述目标或完成上述任务,从而为用户提供所需的结果。
下面介绍一下注意力机制模型,参见图3,图3为本申请提供的一种基于编解码架构的注意力机制模型的结构示意图,该注意力机制模型可位于图1系统中的数据处理设备上,也可位于图2系统中的执行设备210上。图3中,X1、X2、…Xm表示输入的词向量,Y1、Y2、…Yn表示输出的词向量,C1、C2、…Cn表示的是X1、X2、…Xm的语义表示。
将词向量X1、X2、…Xm输入模型中,模型中的编码部分(编码器)分别对X1、X2、…Xm进行编码,获得各个词向量的中间矢量,再利用模型的不同注意力权值矢量对各个词向量的中间矢量进行加权,分别获得语义编码C1、C2、…Cn,则,
C1=g(a1*f1(X1),b1*f1(X2),…m1*f1(Xm))
C2=g(a2*f1(X1),b2*f1(X2),…m2*f1(Xm))
…
Cn=g(an*f1(X1),bn*f1(X2),…mn*f1(Xm)) (1)
其中,f1表示编码部分对词向量的变换函数,[a1,b1,…m1]、[a2,b2,…m2]、,…[an,bn,…mn]表示多个注意力权值失量,每个注意力权值矢量中的每个注意力权值表示所对应的输入词向量对所对应的输出词向量的影响力,g表示编码部分对中间矢量的变换函数,通常情况下,g函数为加权求和函数,即,
C1=a1*f1(X1)+b1*f1(X2)+…+m1*f1(Xm)
C2=a2*f1(X1)+b2*f1(X2)+…+m2*f1(Xm)
…
Cn=an*f1(X1)+bn*f1(X2)+…+mn*f1(Xm) (2)
解码部分(解码器)根据语义编码和已经生成的历史信息(对于非第一次迭代来说)生成此时刻的输出,即,
Y1=f2(C1)
Y2=f2(C2,Y1)
…
Yn=f2(Cn,Y1,Y2,…Y(n-1)) (3)
其中,Y1是根据语义编码C1生成的,Y2是根据语义编码C2及Y1生成的,…Yn是根据语义编码Cn及Y(n-1)生成的。
注意力机制模型可以采用多种算法来实现,下面介绍一种常用的算法,采用循环神经网络(recurrent neural network,RNN)实现的注意力机制模型。在介绍注意力机制模型之前,先描述一下RNN的相关概念及原理。
RNN是用来处理序列数据的。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的,但是这种普通的神经网络对于很多问题却无能无力。例如,若要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关,具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。理论上,RNN能够对任何长度的序列数据进行处理。
对于RNN的训练和对传统的人工神经网络ANN训练一样,同样使用BP误差反向传播算法,所不同的是,如果将RNN进行网络展开,那么隐藏层的参数是共享的,而传统神经网络却不是的,并且在使用梯度下降算法中,每一步的输出不仅依赖当前步的网络,并且还依赖前面若干步网络的状态。比如,在t=4时,还需要向后传递三步,已经后面的三步都需要加上各种的梯度。该学习算法称为基于时间的反向传播算法(back propagation throughtime,BPTT)。
无论是卷积神经网络,还是人工神经网络,他们的前提假设都是:元素之间是相互独立的,输入与输出也是独立的。但现实世界中,很多元素都是相互连接的,比如股票随着时间而变化,比如,一个人说:我喜欢旅游,其中最喜欢的地方是喜马拉雅山,以后有机会一定要去__________,这里填空,人类应该都知道是填“喜马拉雅山”。因为人类是根据上下文的内容推断出来的,但机器要做到这一步就相当得难了。因此就有了循环神经网络,循环神经网络的本质是:像人类一样拥有记忆的能力。因此,循环神经网络的输出依赖于当前的输入和记忆。
RNN是一个序列到序列的模型,是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络。下面以RNN为例详细介绍一下注意力机制模型的训练过程。参见图4,图4为本申请提供的一种基于RNN的注意力机制模型的结构示意图。注意力机制模型的训练过程如下。
1)求解基于RNN的注意力机制模型中编码部分和解码部分各隐藏层的状态(为了便于描述,将隐藏层的状态(the state of the hidden layer)简称为隐状态(hiddenstate))。
将词向量X1、X2、…Xj…输入基于RNN的注意力机制模型中,首先,求解各个输入词向量的隐状态,其中,求解Xj的隐状态hj时,需要依赖前一时刻的隐状态以及此时刻的输入,例如,在求解X2的隐状态h2时,需要依赖隐状态h1的值和此时刻的输入X2。然后,根据初始注意力权值矢量以及各个输入词向量的隐状态求解获得语义编码矢量C。其次,对语义编码矢量C进行解码,获得此时刻的隐状态H(i-1)、H(i)…,其中,在求解隐状态H(i)时,需要依赖前一层的隐状态H(i-1)以及此时刻的输入Y(i-1),而此时刻的输入Y(i-1)也是前一层的输出(图中未示出)。
2)根据编码部分中的各隐状态与解码部分中的各隐状态,计算输出值与输入值对齐的概率。
根据编码部分各个词向量的隐状态与解码部分的各个隐状态,计算输出值与输入值对齐的概率,比如,可以利用如下公式计算获得输出值与输入值对齐的概率。
F=ei,j=wTTanh(WH(i-1)+Vh(j)+b) (6)
其中,Tanh表示状态函数,取值范围为[-1,1],w、b为已知的辅助矢量,W、V为已知的辅助矩阵。
例如,将输入词向量X1、X2、X3输入模型中,求解获得X1的隐状态为h1,X2的隐状态为h2,X3的隐状态为h3,解码部分的隐状态包括H1、H2、H3,对隐状态H1、H2、H3解码获得的输出包括Y1、Y2、Y3,则将h1和H1代入公式(6)中进行计算,获得输入X1与输出Y1对齐的概率,将h2和H1代入公式(6)中进行计算,获得输入X2与输出Y1对齐的概率,将h3和H1代入公式(6)中进行计算,获得输入X1与输出Y1对齐的概率;同理,可以分别获得h1、h2、h3与输出Y2对齐的概率,以及h1、h2、h3与输出Y3对齐的概率。
3)对输出值与输入值对齐的概率进行归一化,获得注意力权值矢量。
对每一个输出值与输入值对齐的概率通过softmax函数进行归一化,获得符合概率分布取值区间的注意力权值,其中概率分布取值区间为[0,1],多个注意力权值构成注意力权值矢量。例如softmax函数可以是,
其中,ei,j表示输出值与输入值对齐的概率,公式(7)中TX为编码部分隐状态中j的最大值。
将获得的注意力权值矢量代替初始注意力权值矢量,再次计算语义编码C,然后根据语义编码C计算解码部分的各个隐状态,其次,根据编码部分的各个隐状态与解码部分的各个隐状态,再次计算本次输出值与输入值对齐的概率,将本次输出值与输入值对齐的概率进行归一化,获得本次的注意力权值矢量,…如此循环多次,直至获得的注意力权值矢量收敛,基于RNN的注意力机制模型训练结束,获得训练好的RNN的注意力机制模型。
训练好的基于RNN的注意力机制模型,可以用于对句子进行翻译,比如汉译英、英译汉等,还可以用于对句子进行情感分析,情感比如喜欢、不喜欢、中立态度等,还可以用于根据篇章获得摘要等等用途。
但是,使用训练好的注意力机制模型(包括上述训练好的基于RNN的注意力机制模型),对句子、短语进行翻译或情感分析时,对于句子或短语中距离较远的词语,例如,主语后存在多个定语或多个状语,导致主语和谓语之间相距较远,在计算中,距离较远的词语所对应的词向量之间的关系表达比较弱,因此得到的翻译结果或分析结果准确率不高。
本申请提供了一种注意力机制模型的训练方法,参见图5,图5为本申请提供的一种注意力机制模型的训练方法的流程示意图,所述方法包括但不限于以下内容的描述。
S101、获取多个词向量。
多个词向量组成一个句子或多个句子或一个短语或多个短语,例如多个词向量分别可以是Tom所对应的实数的向量、Chase所对应的实数的向量和Jerry所对应的实数的向量,多个词向量组成的一个句子为Tom Chase Jerry。
多个词向量,可以是通过查询词汇表的单词或短语而获得的实数的向量,也可以是根据某算法设置的编码规则进行编码后获得的实数的向量。
S102、确定多个词向量之间的依赖关系。
可选的,确定多个词向量之间的依赖关系的方式可以是,首先根据依存句法关系,确定每个词向量在句子或短语中的结构成分,然后根据结构成分之间的依赖关系,确定多个词向量之间的依赖关系。例如,若多个词向量包括第一词向量、第二词向量和第三词向量,根据依存句法关系,确定第一词向量在由第一词向量、第二词向量和第三词向量组成的句子中作宾语,第二词向量在由第一词向量、第二词向量和第三词向量组成的句子中作主语,第三词向量在由第一词向量、第二词向量和第三词向量组成的句子中作谓语,则由依存句法关系中宾语依赖于主语和谓语、谓语依赖于主语,可确定多个词向量之间的依赖关系包括:第一词向量依赖于第二词向量和第三词向量,第三词向量依赖于第二词向量。
可选的,可以根据多个词向量之间的依赖关系,生成一条或多条依赖路径,比如,第三词向量→第二词向量,第一词向量→第二词向量、第三词向量,其中符号“→”表示依赖。例如,多个词向量包括:Tom、Chase、Jerry,根据依存句法关系,确定词向量Chase依赖Tom,词向量Jerry依赖Tom和Chase,依赖路径为:Chase→Tom,Jerry→Tom、Chase。
可选的,多个词向量之间的依赖关系,还可以表示为图6所示的示意图,由图6可知,第一词向量依赖于第二词向量和第三词向量,第三词向量依赖于第二词向量,具体的多个词向量Tom、Chase、Jerry之间的依赖关系如图7所示,由图7可知,Chase依赖于Tom,Jerry依赖于Tom和Chase。
可选的,也可以从知识图谱中获取多个词向量之间的依赖关系,其中知识图谱中建立/保存了多个词向量之间的依赖关系。例如,句子为“A create B”,多个词向量包括A对应的词向量、create对应的词向量和B对应的词向量,知识图谱中建立/保存了A对应的词向量和B对应的词向量之间的依赖关系为B对应的词向量依赖于A对应的词向量,则可以确定A对应的词向量和B对应的词向量之间的依赖关系为B对应的词向量依赖于A对应的词向量。
S103、基于多个词向量之间的依赖关系,对注意力机制模型进行训练,获得经训练的注意力机制模型。
基于多个词向量之间的依赖关系,对注意力机制模型进行训练,获得经训练的注意力机制模型,包括但不限于如下A1、A2、A3几个步骤。
A1、根据多个词向量之间的依赖关系,确定各个词向量对应的隐状态之间的依赖关系。
比如,第一词向量、第二词向量和第三词向量之间的依赖关系如图6所示,若第一词向量所对应的隐状态为h3,第二词向量所对应的隐状态为h2,第三词向量所对应的隐状态为h1,则可以确定隐状态h1、h2、h3之间的依赖关系如下:h2→h1,h3→h1、h2。
例如,多个词向量Tom、Chase、Jerry之间的依赖关系如图7所示,则Tom所对应的隐状态、Chase所对应的隐状态、Jerry所对应的隐状态之间的依赖关系可以表示为:Chase所对应的隐状态→Tom所对应的隐状态,Jerry所对应的隐状态→Tom所对应的隐状态、Chase所对应的隐状态。
当然,隐状态h1、h2、h3之间的依赖关系也可以类似图6或图7所示的示意图表示,在此不再详述。
若第一词向量对第二词向量依赖关系强,对第三词向量依赖关系弱,则第一词向量对应的隐状态h3对第二词向量对应的隐状态h2依赖关系强,对第三词向量对应的隐状态h1依赖关系弱。比如,若Jerry对Chase依赖关系强,对Tom依赖关系弱,则Jerry对应的隐状态对Chase对应的隐状态依赖关系强,对Tom对应的隐状态依赖关系弱。
A2、根据各个词向量对应的隐状态之间的依赖关系,确定各个隐状态。
首先,根据各个词向量对应的隐状态之间的依赖关系,确定各个词向量对应的隐状态。比如,假设隐状态hj依赖于隐状态hk1、hk2、…hkn(隐状态hk1、hk2、…hkn中不包括前一层的隐状态),在采用RNN的注意力机制模型中,隐状态hj还依赖于前一层的隐状态h(j-1)以及此时刻的输入,则有
hj=ω0h(j-1)+ω1hk1+ω2hk2+…+ωnhkn+f1 (8)
其中,h(j-1)表示hj前一层的隐状态,ω0、ω1、ω2、…ωn表示各个隐状态的加权系数,也表示hj对各个隐状态的依赖程度,加权系数越大,依赖程度越强,加权系数越小,依赖程度越弱,且ω0+ω1+ω2+…+ωn=1。函数f1表示模型编码部分对此时刻输入词向量的变换函数。
若要获得隐状态hj,则需要知道各个加权系数的值。在一种示例中,ω0=0.5,ω1+ω2+…+ωn=0.5,可以采用递减法确定ω1、ω2、…ωn的值,比如,若hj对隐状态hk1、hk2、…hkn的依赖程度逐渐减弱,令ω1为ω,递减系数为s=0.9,则ω2=ωs,ωn=ωsn-1,可以通过解ω1+ω2+…+ωn=ω+ωs+…ωsn-1=0.5求得ω的值,从而获得ω1、ω2、…ωn的值,也就获得各个词向量对应的隐状态。实际应用中,可以根据实际情况来调整或设置ω0的值以及递减系数等,这里仅仅用于举例,本申请对各个加权系数的求解方法不做具体限定。
根据初始注意力权值矢量和各个词向量对应的隐状态求解获得语义编码C,根据语义编码C及解码函数,获得解码部分各个隐状态的输出,从而确定出模型中的各个隐状态。
A3、根据各个隐状态对模型进行训练,获得经训练的注意力机制模型。
在获得各个隐状态后,根据各个隐状态对模型进行训练,获得经训练的注意力机制模型,具体内容可参考图4实施例中2)、3)步骤的描述,为了说明书的简洁,在此不再赘述。
本申请不仅适用于采用了RNN的注意力机制模型,还适用于其他的引用了注意力机制的模型,比如transform模型。
可以看到,首先,通过句法依存关系确定多个词向量之间的依赖关系,或者从知识图谱中直接获得多个词向量之间的依赖关系,然后根据多个词向量之间的依赖关系确定多个词向量对应的隐状态之间的依赖关系,进一步求解获得各个隐状态的值,最后,对注意力机制模型进行多次迭代训练,获得经训练的注意力机制模型。本申请中,充分利用句子结构方面的先验知识,将句法结构融入词向量的计算中,增强了词向量之间关系的表达,使得训练得到的注意力机制模型更加精准。
本申请还提供了一种注意力机制模型的测试方法,参见图8,图8为本申请提供的一种注意力机制模型的测试方法的流程示意图,该方法包括但不限于以下内容的描述。
S201、获取多个测试词向量。
获取多个测试词向量,其中多个测试词向量可以是一个句子或至少一个短语中的多个单词或多个词语对应的词向量,也可以是段落、篇章中的多个单词或多个词语对应的词向量。
S202、使用经训练的注意力机制模型对多个测试词向量进行处理,获得处理结果。
将多个测试词向量输入经训练的注意力机制模型中,对多个测试词向量进行处理,获得处理结果,其中,处理结果可以是对多个测试词向量翻译后的结果,也可以是从多个测试词向量中提取关键字获得的结果,也可以是根据多个测试词向量进行情感分析的结果。
可以看到,使用基于多个词向量之间的依赖关系训练得到的注意力机制模型对测试词向量进行处理,有助于提高结果的准确率。
参见图9,图9为本申请提供的一种注意力机制模型的训练装置800的示意图,该装置包括:获取单元801,用于获取多个词向量;确定单元802,用于确定多个词向量之间的依赖关系;训练单元803,用于基于多个词向量之间的依赖关系,对注意力机制模型进行训练,获得经训练的注意力机制模型。
在可能的实现方式中,多个词向量组成至少一个短语或至少一个句子;确定单元802用于:根据依存句法关系,确定多个词向量中每个词向量在至少一个短语或至少一个句子中的结构成分;根据结构成分之间的依赖关系,确定多个词向量之间的依赖关系。
在可能的实现方式中,确定单元802用于:从知识图谱中获取多个词向量之间的依赖关系;知识图谱中记录了多个词向量之间的依赖关系。
在可能的实现方式中,训练单元803用于:根据多个词向量之间的依赖关系,确定多个词向量对应的多个隐藏层的状态之间的依赖关系;根据多个词向量对应的多个隐藏层的状态之间的依赖关系,确定注意力机制模型中的各个隐藏层的状态;根据各个隐藏层的状态,对注意力机制模型进行训练,获得经训练的注意力机制模型。
在可能的实现方式中,在多个词向量包括第一词向量、第二词向量和第三词向量,多个词向量之间的依赖关系包括:第一词向量依赖于第二词向量和第三词向量,且第一词向量对第二词向量的依赖程度大于第一词向量对第三词向量的依赖程度的情况下,第一隐状态对第二隐状态的依赖程度大于第一隐状态对第三隐状态的依赖程度;其中,第一隐状态指的是第一词向量对应的隐藏层的状态,第二隐状态指的是第二词向量对应的隐藏层的状态,第三隐状态指的是第三词向量对应的隐藏层的状态。
在可能的实现方式中,第一隐状态为第二隐状态与加权系数w1的乘积和第三隐状态与加权系数w2的乘积之和;其中,加权系数w1表示第一隐状态对第二隐状态的依赖程度,加权系数w2表示第一隐状态对第三隐状态的依赖程度。
可选的,在可能的实现方式中,获取单元801还用于,获取多个测试词向量;装置还包括处理单元804,处理单元804用于,使用经训练的注意力机制模型对多个测试词向量进行处理,获得处理结果。
上述装置800的各功能模块用于实现图5或图8实施例所描述的方法,具体内容可参考图5或图8实施例的相关内容中的描述,为了说明书的简洁,这里不再赘述。
参见图10,本申请提供了一种注意力机制模型的训练设备900的结构示意图,该设备可以在云服务集群中实现,至少包括:包括至少一个计算节点910以及至少一个存储节点920。其中,
计算节点910包括一个或多个处理器911、收发器912和存储器913,处理器911、收发器912和存储器913之间可以通过总线914连接。
处理器911包括一个或者多个通用处理器,通过调用存储器913中的程序代码,用于运行图9中的获取单元801、确定单元802、训练单元803、处理单元804。其中,通用处理器可以是能够处理电子指令的任何类型的设备,包括中央处理器(Central ProcessingUnit,CPU)、微处理器、微控制器、主处理器、控制器以及ASIC(Application SpecificIntegrated Circuit,专用集成电路)等等。它能够是仅用于计算节点910的专用处理器或者能够与其它计算节点910共享。处理器911读取存储器913中存储的程序代码,与收发器912配合执行本申请上述实施例中一种界面数据的回放装置90执行的方法的部分或者全部步骤。
收发器912可以为有线接口(例如以太网接口),用于与其他计算节点或用户进行通信。当收发器912为有线接口时,收发器912可以采用TCP/IP之上的协议族,例如,RAAS协议、远程函数调用(Remote Function Call,RFC)协议、简单对象访问协议(Simple ObjectAccess Protocol,SOAP)协议、简单网络管理协议(Simple Network ManagementProtocol,SNMP)协议、公共对象请求代理体系结构(Common Object Request BrokerArchitecture,CORBA)协议以及分布式协议等等。
存储器913可以包括易失性存储器(Volatile Memory),例如随机存取存储器(Random Access Memory,RAM);存储器也可以包括非易失性存储器(Non-VolatileMemory),例如只读存储器(Read-Only Memory,ROM)、快闪存储器(Flash Memory)、硬盘(Hard Disk Drive,HDD)或固态硬盘(Solid-State Drive,SSD)存储器还可以包括上述种类的存储器的组合。
存储节点920包括一个或多个存储控制器921、存储阵列922。其中,存储控制器921和存储阵列922之间可以通过总线923连接。
存储控制器921包括一个或者多个通用处理器,其中,通用处理器可以是能够处理电子指令的任何类型的设备,包括CPU、微处理器、微控制器、主处理器、控制器以及ASIC等等。它能够是仅用于单个存储节点920的专用处理器或者能够与计算节点900或者其它存储节点920共享。可以理解,在本实施例中,每个存储节点包括一个存储控制器,在其他的实施例中,也可以多个存储节点共享一个存储控制器,此处不作具体限定。
存储器阵列922可以包括多个存储器。存储器可以是非易失性存储器,例如ROM、快闪存储器、HDD或SSD存储器还可以包括上述种类的存储器的组合。例如,存储阵列可以是由多个HDD或者多个SDD组成,或者,存储阵列可以是由HDD以及SDD组成。其中,多个存储器在存储控制器921的协助下按不同的方式组合起来形成存储器组。可选地,存储器阵列922可以包括一个或者多个数据中心。多个数据中心可以设置在同一个地点,或者,分别在不同的地点,此处不作具体限定。存储器阵列922可以存储有程序代码以及程序数据。其中,程序代码包括获取单元801的代码、确定单元802的代码、训练单元803的代码、处理单元804的代码。程序数据包括:词向量、测试词向量、隐状态、注意力权值等等。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,计算机程序被硬件(例如处理器等)执行,以实现本申请实施例中一种注意力机制模型的训练装置执行的任意一种方法的部分或者全部步骤。
本申请实施例还提供一种计算机程序产品,当计算机程序产品被计算机读取并执行时,使得注意力机制模型的训练装置执行本申请实施例中任意一种注意力机制模型的训练方法的部分或全部步骤。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、存储盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态存储盘SolidState Disk,SSD))等。在所述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,也可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本申请实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (16)
1.一种注意力机制模型的训练方法,其特征在于,包括:
获取多个词向量;
确定所述多个词向量之间的依赖关系;
基于所述多个词向量之间的依赖关系,对所述注意力机制模型进行训练,获得经训练的注意力机制模型。
2.根据权利要求1所述的方法,其特征在于,所述多个词向量组成至少一个短语或至少一个句子;
所述确定所述多个词向量之间的依赖关系,包括:
根据依存句法关系,确定所述多个词向量中每个词向量在所述至少一个短语或所述至少一个句子中的结构成分;
根据所述结构成分之间的依赖关系,确定所述多个词向量之间的依赖关系。
3.根据权利要求1所述的方法,其特征在于,所述确定所述多个词向量之间的依赖关系,包括:
从知识图谱中获取所述多个词向量之间的依赖关系;所述知识图谱中记录了所述多个词向量之间的依赖关系。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述基于所述多个词向量之间的依赖关系,对所述注意力机制模型进行训练,获得经训练的注意力机制模型,包括:
根据所述多个词向量之间的依赖关系,确定所述多个词向量对应的多个隐藏层的状态之间的依赖关系;
根据所述多个词向量对应的多个隐藏层的状态之间的依赖关系,确定所述注意力机制模型中的各个隐藏层的状态;
根据所述各个隐藏层的状态,对所述注意力机制模型进行训练,获得所述经训练的注意力机制模型。
5.根据权利要求4所述的方法,其特征在于,在所述多个词向量包括第一词向量、第二词向量和第三词向量,所述多个词向量之间的依赖关系包括:所述第一词向量依赖于所述第二词向量和所述第三词向量,且所述第一词向量对所述第二词向量的依赖程度大于所述第一词向量对所述第三词向量的依赖程度的情况下,
第一隐状态对第二隐状态的依赖程度大于所述第一隐状态对第三隐状态的依赖程度;其中,所述第一隐状态指的是所述第一词向量对应的隐藏层的状态,所述第二隐状态指的是所述第二词向量对应的隐藏层的状态,所述第三隐状态指的是所述第三词向量对应的隐藏层的状态。
6.根据权利要求5所述的方法,其特征在于,所述根据所述多个词向量对应的多个隐藏层的状态之间的依赖关系,确定所述注意力机制模型中的各个隐藏层的状态,包括:
所述第一隐状态为所述第二隐状态与加权系数w1的乘积和所述第三隐状态与加权系数w2的乘积之和;
其中,所述加权系数w1表示所述第一隐状态对所述第二隐状态的依赖程度,所述加权系数w2表示所述第一隐状态对所述第三隐状态的依赖程度。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述方法还包括:
获取多个测试词向量;
使用所述经训练的注意力机制模型对所述多个测试词向量进行处理,获得处理结果。
8.一种注意力机制模型的训练装置,其特征在于,包括:
获取单元,用于获取多个词向量;
确定单元,用于确定所述多个词向量之间的依赖关系;
训练单元,用于基于所述多个词向量之间的依赖关系,对所述注意力机制模型进行训练,获得经训练的注意力机制模型。
9.根据权利要求8所述的装置,其特征在于,所述多个词向量组成至少一个短语或至少一个句子;
所述确定单元用于:根据依存句法关系,确定所述多个词向量中每个词向量在所述至少一个短语或所述至少一个句子中的结构成分;根据所述结构成分之间的依赖关系,确定所述多个词向量之间的依赖关系。
10.根据权利要求8所述的装置,其特征在于,所述确定单元用于:
从知识图谱中获取所述多个词向量之间的依赖关系;所述知识图谱中记录了所述多个词向量之间的依赖关系。
11.根据权利要求8-10任一项所述的装置,其特征在于,所述训练单元用于:
根据所述多个词向量之间的依赖关系,确定所述多个词向量对应的多个隐藏层的状态之间的依赖关系;
根据所述多个词向量对应的多个隐藏层的状态之间的依赖关系,确定所述注意力机制模型中的各个隐藏层的状态;
根据所述各个隐藏层的状态,对所述注意力机制模型进行训练,获得所述经训练的注意力机制模型。
12.根据权利要求11所述的装置,其特征在于,在所述多个词向量包括第一词向量、第二词向量和第三词向量,所述多个词向量之间的依赖关系包括:所述第一词向量依赖于所述第二词向量和所述第三词向量,且所述第一词向量对所述第二词向量的依赖程度大于所述第一词向量对所述第三词向量的依赖程度的情况下,
第一隐状态对第二隐状态的依赖程度大于所述第一隐状态对第三隐状态的依赖程度;其中,所述第一隐状态指的是所述第一词向量对应的隐藏层的状态,所述第二隐状态指的是所述第二词向量对应的隐藏层的状态,所述第三隐状态指的是所述第三词向量对应的隐藏层的状态。
13.根据权利要求12所述的装置,其特征在于,所述第一隐状态为所述第二隐状态与加权系数w1的乘积和所述第三隐状态与加权系数w2的乘积之和;
其中,所述加权系数w1表示所述第一隐状态对所述第二隐状态的依赖程度,所述加权系数w2表示所述第一隐状态对所述第三隐状态的依赖程度。
14.根据权利要求8-13任一项所述的装置,其特征在于,所述获取单元还用于,获取多个测试词向量;
所述装置还包括处理单元,所述处理单元用于,使用所述经训练的注意力机制模型对所述多个测试词向量进行处理,获得处理结果。
15.一种注意力机制模型的训练设备,其特征在于,包括存储器和处理器,所述存储器用于存储指令,所述处理器用于调用所述存储器中存储的指令执行如权利要求1-7任一项所述的方法。
16.一种计算机可读存储介质,其特征在于,包括程序指令,当所述程序指令在计算机上运行时,使得所述计算机执行如权利要求1-7任一项所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110456684 | 2021-04-26 | ||
CN2021104566846 | 2021-04-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115249065A true CN115249065A (zh) | 2022-10-28 |
Family
ID=83699094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210228371.XA Pending CN115249065A (zh) | 2021-04-26 | 2022-03-10 | 一种注意力机制模型的训练方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115249065A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024174561A1 (en) * | 2023-02-24 | 2024-08-29 | Huawei Technologies Co., Ltd. | M2m with generative pretrained models |
-
2022
- 2022-03-10 CN CN202210228371.XA patent/CN115249065A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024174561A1 (en) * | 2023-02-24 | 2024-08-29 | Huawei Technologies Co., Ltd. | M2m with generative pretrained models |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109033068B (zh) | 基于注意力机制的用于阅读理解的方法、装置和电子设备 | |
CN112633010B (zh) | 基于多头注意力和图卷积网络的方面级情感分析方法及系统 | |
CN110472242B (zh) | 一种文本处理方法、装置和计算机可读存储介质 | |
CN112487182A (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN112580369B (zh) | 语句复述方法、训练语句复述模型的方法及其装置 | |
CN116415654A (zh) | 一种数据处理方法及相关设备 | |
CN110234018B (zh) | 多媒体内容描述生成方法、训练方法、装置、设备及介质 | |
CN110457718B (zh) | 一种文本生成方法、装置、计算机设备及存储介质 | |
CN110069612B (zh) | 一种回复生成方法及装置 | |
CN110705273B (zh) | 基于神经网络的信息处理方法及装置、介质和电子设备 | |
CN112883149A (zh) | 一种自然语言处理方法以及装置 | |
CN112733043B (zh) | 评论推荐方法及装置 | |
CN110852066B (zh) | 一种基于对抗训练机制的多语言实体关系抽取方法及系统 | |
CN115803806A (zh) | 用于训练双模式机器学习言语识别模型的系统和方法 | |
CN117648950A (zh) | 神经网络模型的训练方法、装置、电子设备及存储介质 | |
CN110955765A (zh) | 智能助理的语料构建方法、装置、计算机设备和存储介质 | |
CN115249065A (zh) | 一种注意力机制模型的训练方法、装置、设备及存储介质 | |
CN114492451A (zh) | 文本匹配方法、装置、电子设备及计算机可读存储介质 | |
CN112214592B (zh) | 一种回复对话评分模型训练方法、对话回复方法及其装置 | |
CN115525263A (zh) | 代码补全模型的训练方法、代码补全方法和装置 | |
JP7120064B2 (ja) | 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 | |
CN116821339A (zh) | 滥用语言检测方法、装置及存储介质 | |
CN116644180A (zh) | 文本匹配模型的训练方法、训练系统和文本标签确定方法 | |
CN114792097B (zh) | 预训练模型提示向量的确定方法、装置及电子设备 | |
CN115470327A (zh) | 基于知识图谱的医疗问答方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |