CN115408494A - 一种融合多头注意力对齐的文本匹配方法 - Google Patents
一种融合多头注意力对齐的文本匹配方法 Download PDFInfo
- Publication number
- CN115408494A CN115408494A CN202210875264.6A CN202210875264A CN115408494A CN 115408494 A CN115408494 A CN 115408494A CN 202210875264 A CN202210875264 A CN 202210875264A CN 115408494 A CN115408494 A CN 115408494A
- Authority
- CN
- China
- Prior art keywords
- sentence
- layer
- vector
- interactive
- sentences
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Abstract
本发明公开一种融合多头注意力对齐的文本匹配方法。该方法包括:构建文本匹配模型,包括输入层、BERT编码层、交互式句子表示层、融合层和全连接层;基于设定的损失函数训练文本匹配模型;利用经训练的文本匹配模型估计目标文本间的匹配程度。其中输入层以第一句子和第二句子两个句子作为输入;BERT编码层以对应句子的字符级向量、位置向量和分段向量的叠加向量作为输入,提取具有语义信息的隐藏层向量;交互式句子表示层基于隐藏层向量进行句向量间的注意力交互,以分别提取两个句子的交互特征;融合层对两个句子的交互特征进行融合,得到特征融合向量;全连接层基于特征融合向量,获得句子间的匹配结果。本发明能提高文本匹配的准确性。
Description
技术领域
本发明涉及自然语言处理,更具体地,涉及一种融合多头注意力对齐的文本匹配方法。
背景技术
文本匹配任务是自然语言处理领域的一项基础任务,旨在判定两个语句是否表达相同的语义信息。
目前,文本匹配领域最为流行的预训练语言模型是Sentence-BERT(SBERT)。经典孪生网络SBERT模型是Nils Reimers在2019年为了克服BERT模型不适用于聚类以及句子回归等无监督训练任务而提出,在Nils的论文中提到直接使用BERT最后一层的结果作为句向量的效果甚至比词向量更差,直接使用[CLS]的效果最差。因此,可以认为BERT模型只适用于特定任务下的微调,然后使用BERT微调模型进行预测,以获得最佳效果。SBERT原文中采用孪生和三元网络结构对BERT预训练模型进行微调,从而得出具备语义信息的句子嵌入来计算相似度。这种结构通过对每句话单独编码极大提高了计算效率。例如,在从10000条文本中检测出最相似的两条文本的任务中,单纯使用BERT将造成巨大的计算开销,模型将运算n*(n-1)/2=49995000次(约为65小时),这极消耗时间。而在同等条件下,SBERT仅需运算10000次(约为5s)获取句子向量表示后,再进行后续的运算,极大的提高了效率。
综上,目前流行的文本匹配模型SBERT作为一种基于表示型的模型,具有只能提取文本句子级别的表示向量,未能考虑到文本对之间在词级别的交互信息,影响了文本匹配的准确性。
发明内容
本发明的目的是克服上述现有技术的缺陷,提供一种融合多头注意力对齐的文本匹配方法,该方法包括:
利于语言模型SBERT构建文本匹配模型,该文本匹配模型依次包括输入层、BERT编码层、交互式句子表示层、融合层和全连接层;
基于设定的损失函数训练所述文本匹配模型;
利用经训练的所述文本匹配模型估计目标文本间的匹配程度;
其中:
输入层以第一句子和第二句子两个句子作为输入,并采用字符级向量、位置向量和分段向量对句子进行表征;
BERT编码层以对应句子的字符级向量、位置向量和分段向量的叠加向量作为输入,提取具有语义信息的隐藏层向量;
交互式句子表示层基于所述隐藏层向量进行句向量间的注意力交互,以分别提取两个句子的交互特征;
融合层通过计算第一句子与第二句子的交互特征向量之间的差和乘积进行拼接,得到特征融合向量;
全连接层基于所述特征融合向量,获得句子间的匹配结果。
与现有技术相比,本发明的优点在于,利用深度学习技术来提高文本匹配的准确性,通过引入多头注意力对齐的机制将基于表示的模型和基于交互的模型进行融合,所改进的模型能够更好地捕捉到原始文本中不同层次的信息,提高文本匹配的准确性。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1是根据本发明一个实施例的融合多头注意力对齐的文本匹配方法的流程图;
图2是根据本发明一个实施例的文本匹配模型的结构图;
附图中,Output-输出;Fusion-融合;Interactive Sentence Representation-交互式句子表示;Mean-Pooling-平均池化;Last Hidden Vector-最后的隐藏向量;Prediction-预测;Sentence A-句子A;Sentence B-句子B。Sub-减法;Mul-乘法。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
参见图1所示,所提供的融合多头注意力对齐的文本匹配方法包括以下步骤:
步骤S110,利用语言模型SBERT构建文本匹配模型,该模型考虑文本对之间在词级别的交互信息。
在一个实施例中,提出了一种结合多头注意力对齐机制的SBERT改进模型,或称为SBMAA(Improved SBert algorithm integrating Multiple Attention Alignmentmechanism)。参见图2所示,SBMAA模型整体上包括输入层、BERT编码层、交互式句子表示层(Interactive Sentence Representation)、融合层(Fusion)、全连接层及输出层。BERT编码层和交互式句子表示层是孪生网络架构。
在下文中,将重点介绍BERT编码层、交互式句子表示层和融合层的实施例。
1)输入层和BERT编码层
例如,输入层有两个句子A和B,根据BERT模型输入特点,输入层由字符级向量(Token_Embeddings)、位置向量(Position_Embeddings)和分段向量(SegmentEmbeddings)组成,并将这三个向量相加后输入BERT的编码层。
字符级向量(Token_Embeddings)是文本中每个字对应的向量,位置向量(Position_Embeddings)包含文本中每个字的时序信息,分段向量(Segment Embeddings)则是将文本按句分段,并对文本做段定位,用标记符号[CLS]和[SEP]区分不同的句子,[CLS]表示分类输出的特殊符号,[SEP]表示分隔非连续token序列的特殊符号,同时保存每个句子的位置信息。叠加三层向量后,将其引入Transformer编码器中,对每个字用双向编码表示。Transformer编码器以字符级向量叠加作为输入,依次经过自注意层、残差层、归一化层和前馈神经网络层,最终得到具有语义信息的隐层向量。
2)交互式句子表示层
在获取到隐藏层向量后进行句向量间的注意力交互,例如,首先计算相似度矩阵,得到两个句子之间的相似度,然后使用注意力机制分别对每个句子进行编码,具体公式如下:
其中,eij为两个隐藏层向量的相似度矩阵,为句子A经过BERT后的隐藏层语义向量的转置,为句子B经过BERT后的隐藏层语义向量,因此eij表示句子A中第i个词和句子B中第j个词的相似度,表示经过注意力交互后提取出的句A与句B的相似性信息,表示经过注意力交互后提取出的句B与句A的相似性信息。获取到用于预测的重要特征和后,再分别进行平均池化得到特征u和v,la表示句子A中包含的词的数量,lb表示句子B包含的词的数量,eik表示句子A中第i个词和整个句子B的相似度,ekj表示句子B中第j个词和整个句子A的相似度。
在该步骤中,交互式句子表示层基于隐藏层向量进行句向量间的注意力交互,以分别提取两个句子的交互特征,其中因为考虑到输出的两个隐藏层向量之间的融合,使用点积的方式计算两者之间的attention权重。相对于其他的权重计算方式,本发明采用点积方式计算两个隐藏层之间的交互表示,能够提高计算效率,并且由于序列长度的影响,后续可采取平均池化的方式使结果为固定的长度向量。
3)融合层、全连接层及输出层
交互式句子表示层提取每个句子中的交互特征u和v,融合层通过计算第一个句子与第二个句子的交互特征向量之间的差和乘积进行拼接来增强局部推理信息,即融合层用于对两个句子的交互特征进行融合,得到特征融合向量。
具体地,融合层根据以下公式(4)将两部分交互特征进行融合:
f=[u-v;u·v] (4)
其中u·v是向量间的减法操作,其目的是获取差异特征;u·v是向量矩阵相乘操作,目的是获取交互特征。然后,将减法和乘法操作的结果进行向量拼接,得到特征融合向量f。最后,将f输入到一个全连接网络,调整特征的权重,使用例如SoftMax函数预测分类的结果。全连接层的计算公式表示如下:
在上述步骤中,由于需要综合所有的信息,做全局的分析,因此将所有信息储存在一个序列中,也就是融合特征向量,放入全连接层分类器中进行分类,其中激活函数可采用tan函数,得到的结果送入softmax层,最终获得句子间的匹配结果。
综上,本发明实施例利用SBERT实现文本向量化表示,在孪生网络架构的基础上引入多头注意力的对齐,增加了句向量的交互,再拼接了一个融合层,使得模型自身拥有获取交互信息的能力。
步骤S120,利用设定的损失函数预训练文本匹配模型。
损失函数可使用交叉熵损失函数或其他类型的损失函数(如MSE损失函数)。训练数据集可采用ATEC2018 NLP或其他数据集。预训练后,即可获得模型的权重和偏置等优化参数。
步骤S130,对于待匹配的目标文本,利用经训练的文本匹配模型获得匹配结果。
在本文中,文本匹配可包括预测目标文本之间的相似程度,应用于多种场景,如信息检索、问答系统、复述问题、对话系统、机器翻译等。
为了进一步验证本发明效果,进行了对比试验。基于同一数据集,选取其他5种经典的文本匹配模型:ESIM、SBERT、ConSERT、Bert-Whitening、SimCSE进行实验对比。其中ESIM是基于BiLSTM和tree-LSTM的模型,是一种专为自然语言推理而设计的加强版LSTM;ConSERT是采用无监督和数据增强方式来微调BERT以进行对比学习的模型;Bert-Whitening是通过简单的白化操作,将嵌入向量转化为各向同性的文本匹配模型;任务中效果可媲美Bert-flow;SimCSE是使用对比学习优化目标函数进行模型微调获取文本向量表示的文本匹配模型。
下表1列出了6种不同的深度学习模型在ATEC2018 NLP数据集上的实验结果。
表1在ATEC2018数据集上的实验结果统计
由表1可以看出,本发明提出的SBMAA模型的F1值可达到84.7%,召回率可达到92.6%,整体效果优于其他模型,相比基线模型SBERT在F1值上有18.6%的提升。这是因为,本发明在SBERT模型基础上增加了句向量间的交互,使得相比于直接捕获句子之间的相似性信息,可以捕获更细粒度上的语义信息。
综上所述,Sentence-BER作为一种预训练语言模型,基于BERT分别获取了两个句子的语义表示进行对比,取得了较好的效果。但由于模型的架构方式不同,它也属于基于表示型的文本匹配算法,此类算法的主要思想是提取两个句子的主语义,在同一向量空间中编码,然后对两个文本的语义进行建模,最后计算相似度。此类方法的缺点是只提取文本句子级别的表示向量,未考虑文本对之间在词级别的交互信息,从而失去了语义焦点,容易产生语义上的偏差,并且很难在上下文中度量单个单词的含义。而本发明提出的SBMAA模型通过将SBERT的12层transformer的encoder模块中Multi-Head Attention(多头注意力)部分产生的隐藏层向量进行alignment(交互)获取交互特征进行融合,加强了文本间的交互,从而有效提升了文本信息匹配的效果。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++、Python等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (9)
1.一种融合多头注意力对齐的文本匹配方法,包括以下步骤:
利于语言模型SBERT构建文本匹配模型,该文本匹配模型依次包括输入层、BERT编码层、交互式句子表示层、融合层和全连接层;
基于设定的损失函数训练所述文本匹配模型;
利用经训练的所述文本匹配模型估计目标文本间的匹配程度;
其中:
输入层以第一句子和第二句子两个句子作为输入,并采用字符级向量、位置向量和分段向量对句子进行表征;
BERT编码层以对应句子的字符级向量、位置向量和分段向量的叠加向量作为输入,提取具有语义信息的隐藏层向量;
交互式句子表示层基于所述隐藏层向量进行句向量间的注意力交互,以分别提取两个句子的交互特征;
融合层通过计算第一句子与第二句子的交互特征向量之间的差和乘积进行拼接,得到特征融合向量;
全连接层基于所述特征融合向量,获得句子间的匹配结果。
2.根据权利要求1所述的方法,其特征在于,所述交互式句子表示层首先计算两个句子之间的相似度,并使用注意力机制分别对每个句子进行编码,表示为:
3.根据权利要求1所述的方法,其特征在于,所述融合层对两个句子的交互特征进行融合,获得特征融合向量,表示为:
f=[u-v;u·v]
其中,u表示第一句子的交互特征向量,v表示第二句子的交互特征向量,u-v是向量间的减法操作,用于获取差异特征;u·v是向量矩阵相乘操作,用于获取交互特征,将减法操作和乘法操作的结果进行向量拼接,得到特征融合向量f。
5.根据权利要求1所述的方法,其特征在于,所述字符级向量是文本中每个字对应的向量,所述位置向量包含文本中每个字的时序信息,所述分段向量是将文本按句分段,并对文本做段定位,并且对于不同句子,采用设定的标记符号进行区分。
6.根据权利要求1所述的方法,其特征在于,所述BERT编码层依次包含Transformer编码器、自注意层、残差层、归一化层和前馈神经网络层,Transformer编码器以字符级向量叠加作为输入,并对每个字进行双向编码。
7.根据权利要求1所述的方法,其特征在于,所述损失函数是交叉熵损失函数。
8.一种计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被处理器执行时实现根据权利要求1至7中任一项所述方法的步骤。
9.一种计算机设备,包括存储器和处理器,在所述存储器上存储有能够在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210875264.6A CN115408494A (zh) | 2022-07-25 | 2022-07-25 | 一种融合多头注意力对齐的文本匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210875264.6A CN115408494A (zh) | 2022-07-25 | 2022-07-25 | 一种融合多头注意力对齐的文本匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115408494A true CN115408494A (zh) | 2022-11-29 |
Family
ID=84158489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210875264.6A Pending CN115408494A (zh) | 2022-07-25 | 2022-07-25 | 一种融合多头注意力对齐的文本匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115408494A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116522165A (zh) * | 2023-06-27 | 2023-08-01 | 武汉爱科软件技术股份有限公司 | 一种基于孪生结构的舆情文本匹配系统及方法 |
-
2022
- 2022-07-25 CN CN202210875264.6A patent/CN115408494A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116522165A (zh) * | 2023-06-27 | 2023-08-01 | 武汉爱科软件技术股份有限公司 | 一种基于孪生结构的舆情文本匹配系统及方法 |
CN116522165B (zh) * | 2023-06-27 | 2024-04-02 | 武汉爱科软件技术股份有限公司 | 一种基于孪生结构的舆情文本匹配系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135457B (zh) | 基于自编码器融合文档信息的事件触发词抽取方法及系统 | |
CN106502985B (zh) | 一种用于生成标题的神经网络建模方法及装置 | |
CN110516253B (zh) | 中文口语语义理解方法及系统 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN110196982B (zh) | 上下位关系抽取方法、装置及计算机设备 | |
CN111916067A (zh) | 语音识别模型的训练方法、装置、电子设备及存储介质 | |
CN111274394A (zh) | 一种实体关系的抽取方法、装置、设备及存储介质 | |
CN112668559B (zh) | 一种多模态信息融合的短视频情感判定装置及方法 | |
JP2010250814A (ja) | 品詞タグ付けシステム、品詞タグ付けモデルのトレーニング装置および方法 | |
CN111460833A (zh) | 文本生成方法、装置和设备 | |
CN116127953B (zh) | 一种基于对比学习的中文拼写纠错方法、装置和介质 | |
CN114911958B (zh) | 一种基于语义偏好的快速图像检索方法 | |
CN111611346A (zh) | 一种基于动态语义编码和双注意力的文本匹配方法及装置 | |
CN115831102A (zh) | 基于预训练特征表示的语音识别方法、装置及电子设备 | |
CN115964638A (zh) | 多模态社交数据情感分类方法、系统、终端、设备及应用 | |
CN114662476A (zh) | 一种融合词典与字符特征的字符序列识别方法 | |
CN113240115A (zh) | 一种生成人脸变化图像模型的训练方法及相关装置 | |
CN115408488A (zh) | 用于小说场景文本的分割方法及系统 | |
CN115408494A (zh) | 一种融合多头注意力对齐的文本匹配方法 | |
CN113160820B (zh) | 语音识别的方法、语音识别模型的训练方法、装置及设备 | |
CN112434514B (zh) | 基于多粒度多通道的神经网络的语义匹配方法、装置及计算机设备 | |
CN112732862B (zh) | 一种基于神经网络的双向多段落阅读零样本实体链接方法和装置 | |
Hori et al. | Adversarial training and decoding strategies for end-to-end neural conversation models | |
CN117093864A (zh) | 文本生成模型训练方法以及装置 | |
CN112668346A (zh) | 翻译方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |