CN108132931B - 一种文本语义匹配的方法及装置 - Google Patents

一种文本语义匹配的方法及装置 Download PDF

Info

Publication number
CN108132931B
CN108132931B CN201810031623.3A CN201810031623A CN108132931B CN 108132931 B CN108132931 B CN 108132931B CN 201810031623 A CN201810031623 A CN 201810031623A CN 108132931 B CN108132931 B CN 108132931B
Authority
CN
China
Prior art keywords
vector
target
basic
local information
information average
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810031623.3A
Other languages
English (en)
Other versions
CN108132931A (zh
Inventor
蒋宏飞
赵红红
晋耀红
杨凯程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Science and Technology (Beijing) Co., Ltd.
Original Assignee
Dingfu Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dingfu Intelligent Technology Co Ltd filed Critical Dingfu Intelligent Technology Co Ltd
Priority to CN201810031623.3A priority Critical patent/CN108132931B/zh
Publication of CN108132931A publication Critical patent/CN108132931A/zh
Application granted granted Critical
Publication of CN108132931B publication Critical patent/CN108132931B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本申请提供一种文本语义匹配方法,该方法使用由待处理文本中词和字对应的词向量和字向量获得总向量,再对所述总向量进行卷积处理、平均化处理以及双向LSTM处理,其中,在处理基础文本时采用不具有注意力机制的LSTM方法,而处理目标文本时,采用具有注意力机制的LSTM方法,分别获得池化向量,再用两个池化向量的相似度作为两篇文本的相似度,该方法不仅考虑了文本中词之间的语义联系,还考虑了字之间的语义联系,不仅考虑了字、词之间正向的语义联系,还考虑了字、词之间反向的语义联系,并且综合应用了多种文本匹配模型,使文本上下文之间的特征信息表达得更为全面、准确和充分,增加了文本匹配的准确度。

Description

一种文本语义匹配的方法及装置
技术领域
本申请属于自然语言处理领域,特别涉及一种文本语义匹配的方法及装置。
背景技术
文本匹配用于获取两篇文本的相关或者相似程度,是自然语言处理领域的一个核心技术,能够有效表示和抽取文本的语义信息,在信息检索、信息抽取、自动问答等领域都有重要的意义。
现有的文本匹配技术主要是通过将两篇文本分别转化为向量的形式,再通过余弦、欧式距离等方法计算两个向量的相似度,用得到的相似度表示对两篇文本进行文本匹配的结果。
随着深度学习神经网络的兴起,产生了CNN(Convolutional Neural Networks,卷积神经网络)、RNN(Recurrent neural Network,循环神经网络)和LSTM(Long Short-TermMemory,长短期记忆网络)等计算两个相似文本相似度的计算模型。通常,使用CNN、RNN或者LSTM中的一种模型对多篇文本进行文本匹配。
CNN首先对待处理文本进行分词处理,得到多个词,即多个字段,每个字段对应一个向量,拼接所有所述向量,获得一个总向量,再利用预设的卷积核对所述总向量进行卷积处理,获得局部信息向量。由于CNN无法充分考虑文本中字段的序列信息,序列信息是指文本中词/字出现的顺序关系,比如“我爱你”和“你爱我”表示的是不同的意思,但是CNN无法得到这种顺序信息,因此,CNN会认为这两个文本表示的是同样的意思。
RNN经常被用来处理序列化数据。RNN通过建立一条单向的链式神经网络,将序列化数据中的信息流从链式神经网络的一侧传递到另外一侧。因此,相比其他神经网络而言,循环神经网络能够更好地处理序列化数据。然而,朴素的循环神经网络通常会存在梯度消失或者梯度爆炸的问题。
在RNN训练过程中是根据梯度来更新网络参数的,梯度消失和梯度爆炸使梯度的计算和更新变得非常困难,因此导致训练的网络效果差。
发明内容
本申请提供一种文本语义匹配的方法及装置,有机结合多种文本表示以及文本语义匹配的方法,以解决传统文本语义匹配方法缺少序列信息、梯度消失或者梯度爆炸的问题。
本申请提供的方法包括:
一种文本语义匹配的方法,其特征在于,包括:
获取基础文本中的基础词和基础字符,所述基础文本包括至少一个基础词,每个基础词包括至少一个基础字符;
根据所述基础词和基础字符获取基础输入向量;
对所述基础输入向量进行卷积处理,获得至少一个基础局部信息向量;
根据所述基础局部信息向量获取基础局部信息平均向量;
对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理,得到基础池化向量;
获取目标文本中的目标词和目标字符,所述目标文本包括至少一个目标词,每个目标词包括至少一个目标字符;
根据所述目标词和目标字符获取目标输入向量;
对所述目标输入向量进行卷积处理,获得至少一个目标局部信息向量;
根据所述目标局部信息向量获取目标局部信息平均向量;
使用所述基础池化向量对所述目标局部信息平均向量进行具有注意力机制的双向LSTM处理,获得目标池化向量;
计算所述基础池化向量和所述目标池化向量的相似度;
如果所述相似度大于预设值,则确定所述目标文本的语义与所述基础文本的语义匹配。
本申请提供的文本语义匹配的方法不仅考虑了文本中词之间的语义联系,还考虑了字之间的语义联系,不仅考虑了字、词之间正向的语义联系,还考虑了字、词之间反向的语义联系,并且综合应用了多种文本匹配模型,使文本上下文之间的特征信息表达得更为全面、准确和充分,增加了文本匹配的准确度。
在一种可实现的方式中,所述根据所述基础词和基础字符获取基础输入向量包括:
获取所有所述基础词对应的基础词向量和所有所述基础字符对应的基础字向量;
拼接所有所述基础词向量和所有所述基础字向量,得到基础输入向量。
在一种可实现的方式中,所述根据所述基础局部信息向量获取基础局部信息平均向量包括:
拼接所有所述基础局部信息向量生成基础局部信息总向量;
均分所述基础局部信息总向量,得到基础局部信息平均向量。
在一种可实现的方式中,所述对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理,得到基础池化向量包括:
按照所述基础局部信息平均向量的正向顺序,根据不具有注意力机制的LSTM模型依次获取每个所述基础局部信息平均向量的基础正向隐向量;
按照所述基础局部信息平均向量的反向顺序,根据不具有注意力机制的LSTM模型依次获取每个所述基础局部信息平均向量的基础反向隐向量;
拼接每个所述基础局部信息平均向量的所述基础正向隐向量和所述基础反向隐向量,得到每个所述基础局部信息平均向量的基础拼接隐向量;
对所有所述基础拼接隐向量进行Max-pooling处理,得到所述基础池化向量。
在一种可实现的方式中,所述使用所述基础池化向量对所述目标局部信息平均向量进行具有注意力机制的双向LSTM处理,获得目标池化向量包括:
按照所述目标局部信息平均向量的正向顺序,根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标正向隐向量;
按照所述目标局部信息平均向量的反向顺序,使用所述基础池化向量根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标反向隐向量;
拼接每个所述目标局部信息平均向量的所述目标正向隐向量和所述目标反向隐向量,得到每个目标局部信息平均向量的目标拼接隐向量;
根据所述基础池化向量对每个所述目标局部信息平均向量的目标拼接隐向量进行注意力机制操作,得到每个目标局部信息平均向量的权重;
使用所述目标局部信息平均向量的权重与对应的所述目标拼接隐向量得到具有注意力机制的目标拼接隐向量;
对所述具有注意力机制的目标拼接隐向量进行Max-pooling处理,获得所述目标池化向量。
在一种可实现的方式中,所述按照所述目标局部信息向量的正向顺序,根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量对应的目标正向隐向量包括:
根据首个目标局部信息平均向量的预设隐向量和所述基础池化向量生成首个目标局部信息平均向量的目标正向隐向量;
生成第(i-1)个目标局部信息平均向量的目标正向隐向量后,根据第(i-1)个目标正向隐向量和所述基础池化向量生成第i个目标正向隐向量,所述i=2,3,……n,其中n为所述目标局部信息平均向量的个数。
本申请提供的方法使用由待处理文本中词和字对应的词向量和字向量获得总向量,再对所述总向量进行卷积处理、平均化处理以及双向LSTM处理,其中,在处理基础文本时采用不具有注意力机制的LSTM方法,而处理目标文本时,采用具有注意力机制的LSTM方法,分别获得池化向量,再用两个池化向量的相似度作为两篇文本的相似度,再利用所述相似度判断两篇文本是否匹配。该方法不仅考虑了文本中词之间的语义联系,还考虑了字之间的语义联系,不仅考虑了字、词之间正向的语义联系,还考虑了字、词之间反向的语义联系,并且,本申请提供的方法使用多尺度卷积神经网络进行卷积处理,能够以不同尺度提取总向量的局部信息,而且,所用的LSTM方法能够通过记忆单元控制文本中前序字符对后续字符的信息传递阈值,即控制信息在文本中的流动,从而解决文本长短时依赖的问题。此外,采用的双向LSTM模型能够从文本的正向和逆向两个方向提取信息,减少了从单一方向提取信息带来的误差。而且,本方法还融合了CNN和LSTM的优点,既能提取多个不同尺度的局部信息,又能够提取正反方向的序列全局信息,使用注意力机制,更好地利用文本中的语义信息,增加文本中相近词的权重。本申请提供的方法综合应用了多种文本匹配模型,使文本上下文之间的特征信息表达得更为全面、准确和充分,增加了文本匹配的准确度。
本申请还提供一种文本语义匹配装置,所述装置包括:
文本获取模块,用于获取基础文本中的基础词和基础字符,所述基础文本包括至少一个基础词,每个基础词包括至少一个基础字符;
输入向量获取模块,用于根据所述基础词和基础字符获取基础输入向量;卷积处理模块,用于对所述基础输入向量进行卷积处理,获得至少一个基础局部信息向量;
局部信息平均向量获取模块,用于根据所述基础局部信息向量获取基础局部信息平均向量;基础池化向量获取模块,用于对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理,得到基础池化向量;
文本获取模块,还用于获取目标文本中的目标词和目标字符,所述目标文本包括至少一个目标词,每个目标词包括至少一个目标字符;
输入向量获取模块,还用于根据所述目标词和目标字符获取目标输入向量;卷积处理模块,还用于对所述目标输入向量进行卷积处理,获得至少一个目标局部信息向量;
局部信息平均向量获取模块,还用于根据所述目标局部信息向量获取目标局部信息平均向量;目标池化向量获取模块,用于使用所述基础池化向量对所述目标局部信息平均向量进行具有注意力机制的双向LSTM处理,获得目标池化向量;
相似度获取模块,用于计算所述基础池化向量和所述目标池化向量的相似度;
语义匹配模块,用于如果所述相似度大于或者等于预设值,则确定所述目标文本的语义与所述基础文本的语义匹配。
在一种可实现的方式中,所述基础池化向量获取模块包括:
基础正向隐向量获取子模块,用于按照所述基础局部信息平均向量的正向顺序,根据不具有注意力机制的LSTM模型依次获取每个基础局部信息平均向量的基础正向隐向量;
基础反向隐向量获取子模块,用于按照所述基础局部信息平均向量的反向顺序,根据不具有注意力机制的LSTM模型依次获取每个基础局部信息平均向量的基础反向隐向量;
基础拼接隐向量获取子模块,用于拼接每个所述基础局部信息平均向量的所述基础正向隐向量和所述基础反向隐向量,得到每个基础局部信息平均向量的基础拼接隐向量;
基础池化向量获取子模块,用于对所有所述基础拼接隐向量进行Max-pooling处理,得到所述基础池化向量。
在一种可实现的方式中,目标池化向量获取模块包括:
目标正向隐向量获取子模块,用于按照所述目标局部信息平均向量的正向顺序,根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标正向隐向量;
目标反向隐向量获取子模块,用于按照所述目标局部信息平均向量的反向顺序,使用所述基础池化向量根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标反向隐向量;
向量拼接子模块,用于拼接每个所述目标局部信息平均向量的所述目标正向隐向量和所述目标反向隐向量,得到每个目标局部信息平均向量的目标拼接隐向量;
权重获取子模块,用于根据基础池化向量对每个目标局部信息平均向量的目标拼接隐向量进行注意力机制操作,得到每个目标局部信息平均向量的权重;
目标拼接隐向量获取子模块,用于使用所述目标局部信息平均向量的权重与对应的目标拼接隐向量得到具有注意力机制的目标拼接隐向量;
目标池化向量获取子模块,用于对所述具有注意力机制的目标拼接隐向量进行Max-pooling处理,获得所述目标池化向量;
语义匹配模块,用于如果所述相似度大于或者等于预设值,则确定所述目标文本的语义与所述基础文本的语义匹配。
在一种可实现的方式中,所述目标正向隐向量获取子模块包括:
首个目标正向隐向量获取单元,用于根据首个目标局部信息平均向量的预设隐向量和所述基础池化向量生成首个目标局部信息平均向量的目标正向隐向量;
第i个目标正向隐向量获取单元,用于生成第(i-1)个目标局部信息平均向量的目标正向隐向量后,根据第(i-1)个目标正向隐向量和所述基础池化向量生成第i个目标正向隐向量,所述i=2,3,……n,其中n为所述目标局部信息平均向量的个数。
本申请还提供一种存储设备,所述存储设备存储有多条指令,所述指令用于由处理器加载并执行:
获取基础文本中的基础词和基础字符,所述基础文本包括至少一个基础词,每个基础词包括至少一个基础字符;
根据所述基础词和基础字符获取基础输入向量;
对所述基础输入向量进行卷积处理,获得至少一个基础局部信息向量;
根据所述基础局部信息向量获取基础局部信息平均向量;
对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理,得到基础池化向量;
获取目标文本中的目标词和目标字符,所述目标文本包括至少一个目标词,每个目标词包括至少一个目标字符;
根据所述目标词和目标字符获取目标输入向量;
对所述目标输入向量进行卷积处理,获得至少一个目标局部信息向量;
根据所述目标局部信息向量获取目标局部信息平均向量;
使用所述基础池化向量对所述目标局部信息平均向量进行具有注意力机制的双向LSTM处理,获得目标池化向量;
计算所述基础池化向量和所述目标池化向量的相似度;
如果所述相似度大于或者等于预设值,则确定所述目标文本的语义与所述基础文本的语义匹配。
附图说明
图1为本申请提供的一种文本语义匹配方法的模型示意图;
图2为本申请提供的一种文本语义匹配方法的一种实施例的流程图;
图3为本申请提供的一种获取基础输入向量的流程图;
图4为本申请提供的一种卷积处理流程示意图;
图5为本申请提供的另一种卷积处理流程示意图;
图6为本申请提供的一种获取局部信息流程示意图;
图7为本申请提供的一种双向LSTM处理的流程图;
图8为本申请提供的一种文本特征表示的流程示意图;
图9为本申请提供的另一种双向LSTM处理流程图;
图10为本申请提供的一种文本语义匹配装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明的保护范围。
本申请的方案部分基于CNN、RNN或者LSTM文本相似度的计算模型来计算两篇相似文本的相似度。
在本申请中,作为标准的文本为基础文本,用于与基础文本进行比较的文本为目标文本。
图1为本申请提供的一种文本语义匹配方法的模型示意图,图2为本申请提供的一种文本语义匹配方法的一种实施例的流程图,结合图1和图2,本申请提供一种文本语义匹配的方法,包括:
S101,获取基础文本中的基础词和基础字符,所述基础文本包括至少一个基础词,每个基础词包括至少一个基础字符。
在一种可实现的方式中,可以通过现有技术中任意一种分词处理方法对基础文本进行分词处理来获得具有顺序的多个基础词,例如:CRF、HMM等方法。
在一种可实现的方式中,可以通过现有技术中任意一种分字处理方法对基础文本进行分字处理来获得具有顺序的多个基础字符。
S102,根据所述基础词和基础字符获取基础输入向量。
图3为本申请提供的一种获取基础输入向量的流程图,结合图3,在一种可实现的方式中,所述根据所述基础词和基础字符获取基础输入向量包括:
S121,获取所有所述基础词对应的基础词向量和所有所述基础字符对应的基础字向量。
在一种可实现的方式中,所述基础词对应的基础词向量可以是预设的。不同的基础词对应的基础词向量可以相同,也可以不同。
所述基础字的字向量也可以是预设的。不同基础字对应的基础字向量可以相同,也可以不同。
S122,由拼接所有所述基础词向量和所有所述基础字向量,得到基础输入向量。
在一种可能的实现方式中,可以按照步骤S101中的顺序来拼接所述基础词向量和所述基础字向量,获得基础输入向量A。
具体地,可以先分别拼接所有基础词向量和所有基础字向量,获得基础词总向量和基础字总向量,再按照基础词总向量-基础字总向量的顺序进行拼接,或者按照基础字总向量-基础词总向量的顺序进行拼接,本实施例对于基础词向量的拼接、基础字向量的拼接,以及基础词总向量和基础字总向量的拼接中的拼接顺序不做具体限定,所有拼接顺序均在本申请保护范围内。
其中,基础词总向量通过将所有基础词向量按照S101中所有基础词的顺序依次拼接而得,基础字总向量通过将所有基础字向量按照S101中所有基础字符的顺序依次拼接而得。
例如,基础文本为“姚明的身高是2.26m”,对其进行分词处理,得到的基础词为:“姚明”、“的”、“身高”、“是”、“2.26m”,再对所述基础文本进行分字处理,得到的基础字符为:“姚”、“明”、“的”、“身”、“高”、“是”、“2.26m”。分别找出所述基础词对应的基础词向量和所述基础字符对应的基础字向量,“姚明”-(0.1,0.2,0.1,0.2,0.1)、“的”-(0.3,0.4,0.3,0.4,0.3)、“身高”-(0.5,0.6,0.5,0.6,0.5)、“是”-(0.7,0.8,0.7,0.8,0.7)、“2.26m”-(0.9,0.8,0.9,0.8,0.9);“姚”-(0.01,0.01,0.01,0.01,0.01)、“明”-(0.02,0.02,0.02,0.02,0.02)、“的”-(0.03,0.03,0.03,0.03,0.03)、“身”-(0.04,0.04,0.04,0.04,0.04)、“高”-(0.05,0.05,0.05,0.05,0.05)、“是”-(0.06,0.06,0.06,0.06,0.06)、“2.26m”-(0.07,0.07,0.07,0.07,0.07),则基础词总向量为(0.1,0.2,0.1,0.2,0.1,0.3,0.4,0.3,0.4,0.3,0.5,0.6,0.5,0.6,0.5,0.7,0.8,0.7,0.8,0.7,0.9,0.8,0.9,0.8,0.9),基础字总向量为(0.01,0.01,0.01,0.01,0.01,0.02,0.02,0.02,0.02,0.02,0.03,0.03,0.03,0.03,0.03,0.04,0.04,0.04,0.04,0.04,0.05,0.05,0.05,0.05,0.05,0.06,0.06,0.06,0.06,0.06,0.07,0.07,0.07,0.07,0.07),进一步地,基础输入向量可以为(0.1,0.2,0.1,0.2,0.1,0.3,0.4,0.3,0.4,0.3,0.5,0.6,0.5,0.6,0.5,0.7,0.8,0.7,0.8,0.7,0.9,0.8,0.9,0.8,0.9,0.01,0.01,0.01,0.01,0.01,0.02,0.02,0.02,0.02,0.02,0.03,0.03,0.03,0.03,0.03,0.04,0.04,0.04,0.04,0.04,0.05,0.05,0.05,0.05,0.05,0.06,0.06,0.06,0.06,0.06,0.07,0.07,0.07,0.07,0.07)。以上仅为示例性说明。
S103,对所述基础输入向量进行卷积处理,获得至少一个基础局部信息向量。
在本申请中,可以使用现有技术中任意一种对向量进行卷积处理的方法对所述基础输入向量进行卷积处理。
在一种可能的实现方式中,对所述基础输入向量进行卷积处理后获得的基础局部信息向量C中元素的个数与基础输入向量中元素的个数相等,并且,所述基础局部信息向量C为一维向量。
图4为本申请提供的一种卷积处理流程示意图,具体描述对所述基础输入向量进行卷积处理的一种可实现方式,结合图4,所述基础输入向量A也可以为矩阵式向量,例如图4中所示的6行5列的矩阵式向量,或者,示例性地,所述基础输入向量A具体可以为:
Figure BDA0001546683810000071
图5为本申请提供的一种卷积处理流程图,具体描述对基础输入向量进行卷积处理的流程,如图4所示,所述基础输入向量为五维六元素的矩阵式向量。结合图4和图5,在一种可实现的方式中,对所述基础输入向量进行卷积处理,获得至少一个基础局部信息向量包括S131和S132,具体如下:
S131,获取至少一个卷积核。
在本申请中,卷积核B用于获取所述基础输入向量的局部信息,所述卷积核B为包括至少一行的多维向量,即,所述卷积核B可以为m行×p列的矩阵式向量,其中,m≥1,p>1,所述卷积核B为根据卷积的需求而选取的,例如:文本中的nGram信息。
在一种可实现的方式中,所述卷积核B的维度与所述基础输入向量A的维度相同。
在一种可实现的方式中,不同的卷积核中元素的数量可以相同也可以不同。不同卷积核中参数不同。
例如,第一个卷积核可以为如图4所示的第一个卷积核,为4行5列的矩阵式向量,或者,示例性地,所述第一个卷积核具体可以为:
Figure BDA0001546683810000072
第二个卷积核可以为如图4所示的第二个卷积核,为2行5列的矩阵式向量。
S132,用所述卷积核依次与所述基础输入向量进行卷积处理,获得基础局部信息向量。
在一种可能的实现方式中,所述卷积操作包括:
将所述卷积核覆盖于所述基础输入向量上,所述卷积核的第一行与所述基础输入向量重合;
将所述基础输入向量中第一行第一个元素与所述卷积核中相应位置的元素相乘,所有乘积之和为所述局部信息向量的第一个元素;
将所述卷积核向下移动一行,将所述基础输入向量中第二行第一个元素与所述卷积核中相应位置的元素相乘,所有乘积之和为所述局部信息向量的第二个元素;
依次计算所述基础局部信息向量中的元素;
如果所述卷积核的最后一行与所述基础输入向量的最后一行重合,则输出基础局部信息向量,所述基础局部信息向量中最后一个元素为将所述卷积核覆盖于所述基础输入向量上,所述卷积核的最后一行与所述基础输入向量的最后一行重合,将所述基础输入向量中与所述卷积核中相应位置的元素相乘的乘积之和。
请结合图4,以图4中第一个卷积核为例,用该卷积核进行卷积处理获得的局部信息向量为(c11,c12,c13),其中,
c11=a11*b11+a12*b12+a13*b13+a14*b14+a15*b15+a21*b21+a22*b22+a23*b23+a24*b24+a25*b25+a31*b31+a32*b32+a33*b33+a34*b34+a35*b35+a41*b41+a42*b42+a43*b43+a44*b44+a45*b45
c12=a21*b11+a22*b12+a23*b13+a24*b14+a25*b15+a31*b21+a32*b22+a33*b23+a34*b24+a35*b25+a41*b31+a42*b32+a43*b33+a44*b34+a45*b35+a51*b41+a52*b42+a53*b43+a54*b44+a55*b45
c13=a31*b11+a32*b12+a33*b13+a34*b14+a35*b15+a41*b21+a42*b22+a43*b23+a44*b24+a45*b25+a51*b31+a52*b32+a53*b33+a54*b34+a55*b35+a61*b41+a62*b42+a63*b43+a64*b44+a65*b45
S104,根据所述基础局部信息向量获取基础局部信息平均向量。
图6为本申请提供的一种获取局部信息流程示意图,具体描述根据所述基础局部信息向量获取基础局部信息平均向量,结合图6,在一种可实现的方式中,所述根据所述基础局部信息向量获取基础局部信息平均向量包括S141和S142,具体如下:
S141,拼接所述基础局部信息向量,生成基础局部信息总向量。
请结合图4,图4所示的卷积处理使用两个卷积核,第一个卷积核为四维卷积核,获得的基础局部信息向量为三维向量(c11,c12,c13),第二个卷积核为二维卷积核(参数未示出),获得的基础局部信息向量为五维向量(c21,c22,c23,c24,c25)。
本步骤的具体实现方式可以参见本申请步骤S103,在图4所示的示例中,获得的基础局部信息总向量为(c11,c12,c13,c21,c22,c23,c24,c25)。
S142,均分所述基础局部信息总向量,得到基础局部信息平均向量C’。
根据需求,将所述基础局部信息总向量均分为多个基础局部信息平均向量,所述均分是指平均拆分,而拆分是拼接的逆操作,而平均拆分是指拆分得到的各个向量中元素的个数相等,例如,将步骤S141获得的基础信息总向量均分为两个基础局部信息平均向量,则这两个基础局部信息平均向量分别为(c11,c12,c13,c21)和(c22,c23,c24,c25)。
S105,对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理,得到基础池化向量。
LSTM是在RNN的基础上增加了记忆门,遗忘门等机制的神经网络,该神经网络能够控制LSTM两侧信息流的比例,从而能够消除RNN中存在的梯度消失或者梯度爆炸的问题,对所述基础局部信息平均向量进行双向LSTM处理后,获得的基础池化向量能够更为全面地表征所述基础文本中的特征信息。
图7为本申请提供的一种双向LSTM处理的流程图,具体描述对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理的一种可实现方式,结合图7,在一种可实现的方式中,对所述基础局部信息平均向量C’进行不具有注意力机制的双向LSTM处理包括:
S151,按照所述基础局部信息平均向量C’的正向顺序,根据不具有注意力机制的LSTM模型依次获取每个所述所述基础局部信息平均向量C’的基础正向隐向量c+
在一种可实现的方式中,所述按照所述基础局部信息平均向量C’的正向顺序,根据不具有注意力机制的LSTM模型依次获取每个所述基础局部信息平均向量C’的基础正向隐向量包括:
根据首个基础局部信息平均向量的预设隐向量生成首个基础局部信息平均向量的基础正向隐向量;
生成第(k-1)个基础局部信息平均向量的基础正向隐向量后,根据第(k-1)个基础正向隐向量和第(k-1)个基础局部信息平均向量生成第k个基础正向隐向量,所述k=2,3,……,m,其中m为所述基础局部信息平均向量的个数。
图8为本申请提供的一种文本特征表示的流程示意图,具体描述对图4中各个基础局部信息平均向量进行文本特征表示的一种可实现方式,结合图8,所述基础局部信息平均向量的基础正向隐向量为c1 +,c2 +
S152,按照所述基础局部信息平均向量的反向顺序,根据不具有注意力机制的LSTM模型依次获取每个所述基础局部信息平均向量的基础反向隐向量c-
在一种可实现的方式中,所述按照所述基础局部信息平均向量的反向顺序,根据不具有注意力机制的LSTM模型依次获取每个所述基础局部信息平均向量的基础反向隐向量的具体方法可以参见S151,区别仅在于本步骤是按照所述基础局部信息平均向量的反向顺序依次生成所述基础局部信息平均向量的基础反向隐向量,即,从所述基础局部信息平均向量中最末一个开始,根据末个基础局部信息平均向量对应的预设隐向量生成末个基础局部信息平均向量对应的第一基础反向隐向量,再根据所述第一基础反向隐向量生成倒数第二基础局部信息平均向量对应的第二基础反向隐向量,依次类推,直至生成首个基础局部信息平均向量对应的第m基础反向隐向量。
结合图8,所述基础局部信息平均向量的基础反向隐向量为c1 -和c2 -
S153,拼接每个所述基础局部信息平均向量的所述基础正向隐向量和所述基础反向隐向量,得到每个所述基础局部信息平均向量的基础拼接隐向量c&
在一种可实现的方式中,所述拼接每个所述基础局部信息平均向量的所述基础正向隐向量和所述基础反向隐向量为将所述基础正向隐向量中的元素和所述基础反向隐向量中的元素连接在一起,例如,所述基础正向隐向量c+为(0.1,0.2,0.3),所述基础反向隐向量c-为(0.4,0.5,0.6),则所述基础拼接隐向量c&为(0.1,0.2,0.3,0.4,0.5,0.6)。
在本实施例中,所述拼接每个所述基础局部信息平均向量的所述基础正向隐向量和所述基础反向隐向量可以按照基础正向隐向量-基础反向隐向量的顺序进行拼接,也可以按照基础反向隐向量-基础正向隐向量的顺序进行拼接,但是在处理同一个文本时,对所有基础局部信息平均向量来说要按照相同的顺序进行拼接。
S154,对所有所述基础拼接隐向量c&进行Max-pooling处理,得到所述基础局部信息平均向量的基础池化向量D。在本步骤中,Max-pooling处理是指从每个所述基础拼接隐向量c&中选取一个数值最大的元素,拼接这些元素获得一个向量,所获得的向量即为基础池化向量D。
在一种可实现的方式中,每个基础局部信息平均向量C都存在一个对应的基础拼接隐向量c&,而且,所述基础拼接向量c&包括多个元素。
对所有所述基础拼接隐向量c&进行Max-pooling处理,能够防止过拟合,提高模型泛化能力。
在本申请中,所述对所有所述基础拼接隐向量c&进行Max-pooling处理是从每个所述基础拼接隐向量c&的多个元素中选取一个最大的元素,再将这些最大的元素拼接成一个新的向量—基础池化向量D。例如:
所述所有基础拼接隐向量为(0.1,0.2,0.3,0.4,0.5,0.6)、(0.3,0.2,0.5,0.4,0.8,0.1),则基础池化向量为(0.6,0.8)。
S106,获取目标文本中的目标词和目标字符,所述目标文本包括至少一个目标词,每个目标词包括至少一个目标字符。
本步骤的具体实现方式可以参见本申请步骤S101中的相关描述,处理过程类似。
S107,根据所述目标词和目标字符获取目标输入向量。
本步骤的具体实现方式可以参见本申请步骤S102中的相关描述,处理过程类似。
需要说明的是,本步骤中目标词向量与目标字向量的拼接顺序与步骤S102中基础词向量与基础字向量的拼接顺序相同。
S108,对所述目标输入向量进行卷积处理,获得至少一个目标局部信息向量。
本步骤的具体实现方式可以参见本申请步骤S103。
S109,根据所述目标局部信息向量获取目标局部信息平均向量E。
本步骤的具体实现方式可以参见本申请步骤S104。
S110,使用所述基础池化向量对所述目标局部信息平均向量进行具有注意力机制的双向LSTM处理,获得目标池化向量。
图9为本申请提供的另一种双向LSTM处理流程图,具体描述使用所述基础池化向量对所述目标局部信息向量进行具有注意力机制的双向LSTM处理的一种可实现方式,结合图9,在一种可实现的方式中,所述使用所述基础池化向量对所述目标局部信息向量进行具有注意力机制的双向LSTM处理包括:
S1101,按照所述目标局部信息平均向量的正向顺序,根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标正向隐向量e+
具体地,请结合图8,所述按照所述目标局部信息平均向量的正向顺序,根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标正向隐向量包括:
根据首个目标局部信息平均向量的预设隐向量和所述基础池化向量D生成首个目标局部信息平均向量的目标正向隐向量e1 +
生成第(i-1)个目标局部信息平均向量的目标正向隐向量后,根据第(i-1)个目标正向隐向量ei +和所述基础池化向量D生成第i个目标正向隐向量,所述i=2,3,……,n,其中n为所述目标局部信息平均向量的个数。
请结合图8,所述目标局部信息平均向量的基础正向隐向量为e1 +,e2 +
S1102,按照所述目标局部信息平均向量的反向顺序,使用所述基础池化向量根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标反向隐向量。
在一种可实现的方式中,本步骤的具体实现方式可以参见本申请步骤S1101,区别仅在于本步骤是按照所述目标局部信息平均向量的反向顺序依次生成所述目标局部信息平均向量的目标反向隐向量,即,从所述目标局部信息平均向量中最末一个开始,根据第m个目标局部信息平均向量的预设隐向量生成第m个目标局部信息平均向量对应的第m目标反向隐向量,再根据所述第m目标反向隐向量生成倒数第二个目标局部信息平均向量对应的第(m-1)目标反向隐向量,依次类推,直至生成首个目标局部信息平均向量对应的第1目标反向隐向量。
请结合图8,所述目标局部信息平均向量的基础反向隐向量为e1 -,e2 -
S1103,拼接每个所述目标局部信息平均向量的所述目标正向隐向量和所述目标反向隐向量,得到每个目标局部信息平均向量的目标拼接隐向量。
在一种可实现的方式中,本步骤的具体实现方式可以参见本申请步骤S153。
S1104,根据所述基础池化向量对每个所述目标局部信息平均向量的目标拼接隐向量进行注意力机制操作,得到每个目标局部信息平均向量的权重。
在一种可实现的方式中,所述根据基础池化向量对每个目标局部信息平均向量的目标拼接隐向量进行注意力机制操作可以加大相似词的权值,降低不相似词的权值,从而加强匹配效果。
S1105,使用所述目标局部信息平均向量的权重与对应的目标拼接隐向量得到具有注意力机制的目标拼接隐向量。
在一种可实现的方式中,所述使用所述目标局部信息平均向量的权重与对应的目标拼接隐向量得到具有注意力机制的目标拼接隐向量可以为使用所述目标局部信息平均向量的权重与对应的目标拼接隐向量相乘得到具有注意力机制的目标拼接隐向量。
S1106,对所述具有注意力机制的目标拼接隐向量进行Max-pooling处理,获得所述目标池化向量。
在一种可实现的方式中,所述对所述具有注意力机制的目标拼接隐向量进行Max-pooling处理可以为从每个所述具有注意力机制的目标拼接隐向量的多个元素中选取数值最大的一个组成新的向量—目标池化向量。
S111,计算所述基础输出向量和所述目标输出向量的相似度。
在一种可实现的方式中,所述计算所述基础输出向量和所述目标输出向量的相似度的方法可以使用现有技术中任意一种计算两个向量相似度的方法,如余弦相似度,欧式距离等。
S112,如果所述相似度大于或者等于预设值,则确定所述目标文本的语义与所述基础文本的语义匹配。
在一种可实现的方式中,如果步骤S111获得的相似度大于或者等于预设值,则判断所述目标文本的语义与所述基础文本的语义是匹配的,否则判断所述目标文本的语义与所述基础文本的语义是不匹配的。
在本申请的实施例中,所述预设值可以为根据经验人为设定的预设值,也可以为根据其它条件设定的预设值。
本申请提供的文本语义匹配的方法不仅考虑了词之间的语义联系,还考虑了字之间的语义联系,不仅考虑了字、词之间正向的语义联系,还考虑了字、词之间反向的语义联系,并且综合应用了多种文本匹配模型,使文本上下文之间的特征信息表达得更为全面、准确和充分,增加了文本匹配的准确度。
本申请还提供一种文本语义匹配装置,图10为本申请提供的一种文本语义匹配装置的结构示意图,结合图10,所述装置包括:
文本获取模块101,用于获取基础文本中的基础词和基础字符,所述基础文本包括至少一个基础词,每个基础词包括至少一个基础字符;
输入向量获取模块102,用于根据所述基础词和基础字符获取基础输入向量
卷积处理模块103,用于对所述基础输入向量进行卷积处理,获得至少一个基础局部信息向量;
局部信息平均向量获取模块104,用于根据所述基础局部信息向量获取基础局部信息平均向量;
基础池化向量获取模块105,用于对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理,得到基础池化向量;
文本获取模块101,还用于获取目标文本中的目标词和目标字符,所述目标文本包括至少一个目标词,每个目标词包括至少一个目标字符;
输入向量获取模块102,还用于根据所述目标词和目标字符获取目标输入向量
卷积处理模块103,还用于对所述目标输入向量进行卷积处理,获得至少一个目标局部信息向量;
局部信息平均向量获取模块104,还用于根据所述目标局部信息向量获取目标局部信息平均向量;
目标池化向量获取模块106,用于使用所述基础池化向量对所述目标局部信息平均向量进行具有注意力机制的双向LSTM处理,获得目标池化向量;
相似度获取模块107,用于计算所述基础池化向量和所述目标池化向量的相似度;
语义匹配模块108,用于如果所述相似度大于或者等于预设值,则确定所述目标文本的语义与所述基础文本的语义匹配。
在一种可实现的方式中,所述装置还包括:
子向量获取模块,用于获取所有所述基础词对应的基础词向量和所有所述基础字符对应的基础字向量;
向量拼接模块,用于拼接所有所述基础词向量和所有所述基础字向量,获得基础输入向量;
向量拼接模块,还用于拼接所述基础局部信息向量,获得基础局部信息总向量;
向量均分模块,用于将所述基础局部信息总向量均分为多个基础局部信息平均向量;
子向量获取模块,还用于获取所有所述目标词对应的目标词向量和所有所述目标字符对应的目标字向量;
向量拼接模块,还用于拼接所有所述目标词向量和所有所述目标字向量,获得目标输入向量;
向量拼接模块,还用于拼接所述目标局部信息向量,获得目标局部信息总向量;
向量均分模块,还用于将所述目标局部信息总向量均分为多个目标局部信息平均向量。
在一种可能的实现方式中,所述基础池化向量获取模块105包括:
基础正向隐向量获取子模块,用于按照所述基础局部信息平均向量的正向顺序,根据不具有注意力机制的LSTM模型依次获取每个基础局部信息平均向量的基础正向隐向量;
基础反向隐向量获取子模块,用于按照所述基础局部信息平均向量的反向顺序,根据不具有注意力机制的LSTM模型依次获取每个基础局部信息平均向量的基础反向隐向量;
基础拼接隐向量获取子模块,用于拼接每个所述基础局部信息平均向量的所述基础正向隐向量和所述基础反向隐向量,得到每个基础局部信息平均向量的基础拼接隐向量;
基础池化向量获取子模块,用于对所有所述基础拼接隐向量进行Max-pooling处理,得到所述基础池化向量。
在一种可能的实现方式中,目标池化向量获取模块106包括:
目标正向隐向量获取子模块,用于按照所述目标局部信息平均向量的正向顺序,根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标正向隐向量;
目标反向隐向量获取子模块,用于按照所述目标局部信息平均向量的反向顺序,使用所述基础池化向量根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标反向隐向量;
向量拼接子模块,用于拼接每个所述目标局部信息平均向量的所述目标正向隐向量和所述目标反向隐向量,得到每个目标局部信息平均向量的目标拼接隐向量;
权重获取子模块,用于根据基础池化向量对每个目标局部信息平均向量的目标拼接隐向量进行注意力机制操作,得到每个目标局部信息平均向量的权重;
目标拼接隐向量获取子模块,用于使用所述目标局部信息平均向量的权重与对应的目标拼接隐向量得到具有注意力机制的目标拼接隐向量;
目标池化向量获取子模块,用于对所述具有注意力机制的目标拼接隐向量进行Max-pooling处理,获得所述目标池化向量。在一种可能的实现方式中,所述目标正向隐向量获取子模块包括:
首个目标正向隐向量获取单元,用于根据首个目标局部信息平均向量的预设隐向量和所述基础池化向量生成首个目标局部信息平均向量的目标正向隐向量;
第i个目标正向隐向量获取单元,用于生成第(i-1)个目标局部信息平均向量的目标正向隐向量后,根据第(i-1)个目标正向隐向量和所述基础池化向量生成第i个目标正向隐向量,所述i=2,3,……,n,其中n为所述目标局部信息平均向量的个数。
本申请还提供一种存储设备,其特征在于,所述存储设备存储有多条指令,所述指令用于由处理器加载并执行:
获取基础文本,所述基础文本包括至少一个基础词,每个基础词包括至少一个基础字符;
获取所有所述基础词对应的基础词向量和所述基础文本中所有所述基础字符对应的基础字向量;
拼接所有所述基础词向量和所有所述基础字向量,获得基础输入向量;
对所述基础输入向量进行卷积处理,获得至少一个基础局部信息向量;
拼接所述基础局部信息向量,获得基础局部信息总向量;
将所述基础局部信息总向量均分为多个基础局部信息平均向量;
对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理,得到基础池化向量;
获取目标文本,所述目标文本包括至少一个目标词,每个目标词包括至少一个目标字符;
获取所有所述目标词对应的目标词向量和所有待处理文本中所有所述目标字符对应的目标字向量;
拼接所有所述目标词向量和所有所述目标字向量,获得目标输入向量;
对所述目标输入向量进行卷积处理,获得至少一个目标局部信息向量;
拼接所述目标局部信息向量,获得目标局部信息总向量;
将所述目标局部信息总向量均分为多个目标局部信息平均向量;
使用所述基础池化向量对所述目标局部信息平均向量进行具有注意力机制的双向LSTM处理,获得目标池化向量;
计算所述基础池化向量和所述目标池化向量的相似度;
如果所述相似度大于或者等于预设值,则确定所述目标文本的语义与所述基础文本的语义匹配。
本申请还提供一种移动终端,其特征在于,包括:
处理器,用于执行各条指令;
前述存储设备。
以上结合具体实施方式和范例性实例对本申请进行了详细说明,不过这些说明并不能理解为对本申请的限制。本领域技术人员理解,在不偏离本申请精神和范围的情况下,可以对本申请技术方案及其实施方式进行多种等价替换、修饰或改进,这些均落入本申请的范围内。本申请的保护范围以所附权利要求为准。

Claims (4)

1.一种文本语义匹配的方法,其特征在于,包括:
获取基础文本中的基础词和基础字符,所述基础文本包括至少一个基础词,每个基础词包括至少一个基础字符;
根据所述基础词和基础字符获取基础输入向量;
对所述基础输入向量进行卷积处理,获得至少一个基础局部信息向量;
根据所述基础局部信息向量获取基础局部信息平均向量;
对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理,得到基础池化向量;
获取目标文本中的目标词和目标字符,所述目标文本包括至少一个目标词,每个目标词包括至少一个目标字符;
根据所述目标词和目标字符获取目标输入向量;
对所述目标输入向量进行卷积处理,获得至少一个目标局部信息向量;
根据所述目标局部信息向量获取目标局部信息平均向量;
使用所述基础池化向量对所述目标局部信息平均向量进行具有注意力机制的双向LSTM处理,获得目标池化向量;
计算所述基础池化向量和所述目标池化向量的相似度;
如果所述相似度大于或者等于预设值,则确定所述目标文本的语义与所述基础文本的语义匹配,其中,
所述对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理,得到基础池化向量包括:
按照所述基础局部信息平均向量的正向顺序,根据不具有注意力机制的LSTM模型依次获取每个所述基础局部信息平均向量的基础正向隐向量;
按照所述基础局部信息平均向量的反向顺序,根据不具有注意力机制的LSTM模型依次获取每个所述基础局部信息平均向量的基础反向隐向量;
拼接每个所述基础局部信息平均向量的所述基础正向隐向量和所述基础反向隐向量,得到每个所述基础局部信息平均向量的基础拼接隐向量;
对所有所述基础拼接隐向量进行Max-pooling处理,得到所述基础池化向量;
所述使用所述基础池化向量对所述目标局部信息平均向量进行具有注意力机制的双向LSTM处理,获得目标池化向量包括:
按照所述目标局部信息平均向量的正向顺序,根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标正向隐向量;
按照所述目标局部信息平均向量的反向顺序,使用所述基础池化向量根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标反向隐向量;
拼接每个所述目标局部信息平均向量的所述目标正向隐向量和所述目标反向隐向量,得到每个目标局部信息平均向量的目标拼接隐向量;
根据所述基础池化向量对每个所述目标局部信息平均向量的目标拼接隐向量进行注意力机制操作,得到每个目标局部信息平均向量的权重;
使用所述目标局部信息平均向量的权重与对应的所述目标拼接隐向量得到具有注意力机制的目标拼接隐向量;
对所述具有注意力机制的目标拼接隐向量进行Max-pooling处理,获得所述目标池化向量;
进一步地,所述按照所述目标局部信息向量的正向顺序,根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量对应的目标正向隐向量包括:
根据首个目标局部信息平均向量的预设隐向量和所述基础池化向量生成首个目标局部信息平均向量的目标正向隐向量;
生成第(i-1)个目标局部信息平均向量的目标正向隐向量后,根据第(i-1)个目标正向隐向量和所述基础池化向量生成第i个目标正向隐向量,所述i=2,3,……n,其中n为所述目标局部信息平均向量的个数。
2.根据权利要求1所述的方法,其特征在于,所述根据所述基础词和基础字符获取基础输入向量包括:
获取所有所述基础词对应的基础词向量和所有所述基础字符对应的基础字向量;
拼接所有所述基础词向量和所有所述基础字向量,得到基础输入向量。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述基础局部信息向量获取基础局部信息平均向量包括:
拼接所有所述基础局部信息向量,生成基础局部信息总向量;
均分所述基础局部信息总向量,得到基础局部信息平均向量。
4.一种文本语义匹配装置,其特征在于,所述装置包括:
文本获取模块,用于获取基础文本中的基础词和基础字符,所述基础文本包括至少一个基础词,每个基础词包括至少一个基础字符;
输入向量获取模块,用于根据所述基础词和基础字符获取基础输入向量;
卷积处理模块,用于对所述基础输入向量进行卷积处理,获得至少一个基础局部信息向量;
局部信息平均向量获取模块,用于根据所述基础局部信息向量获取基础局部信息平均向量;
基础池化向量获取模块,用于对所述基础局部信息平均向量进行不具有注意力机制的双向LSTM处理,得到基础池化向量;
文本获取模块,还用于获取目标文本中的目标词和目标字符,所述目标文本包括至少一个目标词,每个目标词包括至少一个目标字符;
输入向量获取模块,还用于根据所述目标词和目标字符获取目标输入向量;
卷积处理模块,还用于对所述目标输入向量进行卷积处理,获得至少一个目标局部信息向量;
局部信息平均向量获取模块,还用于根据所述目标局部信息向量获取目标局部信息平均向量;
目标池化向量获取模块,用于使用所述基础池化向量对所述目标局部信息平均向量进行具有注意力机制的双向LSTM处理,获得目标池化向量;
相似度获取模块,用于计算所述基础池化向量和所述目标池化向量的相似度;
语义匹配模块,用于如果所述相似度大于或者等于预设值,则确定所述目标文本的语义与所述基础文本的语义匹配,其中,
所述基础池化向量获取模块包括:
基础正向隐向量获取子模块,用于按照所述基础局部信息平均向量的正向顺序,根据不具有注意力机制的LSTM模型依次获取每个基础局部信息平均向量的基础正向隐向量;
基础反向隐向量获取子模块,用于按照所述基础局部信息平均向量的反向顺序,根据不具有注意力机制的LSTM模型依次获取每个基础局部信息平均向量的基础反向隐向量;
基础拼接隐向量获取子模块,用于拼接每个所述基础局部信息平均向量的所述基础正向隐向量和所述基础反向隐向量,得到每个基础局部信息平均向量的基础拼接隐向量;
基础池化向量获取子模块,用于对所有所述基础拼接隐向量进行Max-pooling处理,得到所述基础池化向量;
所述目标池化向量获取模块包括:
目标正向隐向量获取子模块,用于按照所述目标局部信息平均向量的正向顺序,根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标正向隐向量;
目标反向隐向量获取子模块,用于按照所述目标局部信息平均向量的反向顺序,使用所述基础池化向量根据具有注意力机制的LSTM模型获取每个所述目标局部信息平均向量的目标反向隐向量;
向量拼接子模块,用于拼接每个所述目标局部信息平均向量的所述目标正向隐向量和所述目标反向隐向量,得到每个目标局部信息平均向量的目标拼接隐向量;
权重获取子模块,用于根据基础池化向量对每个目标局部信息平均向量的目标拼接隐向量进行注意力机制操作,得到每个目标局部信息平均向量的权重;
目标拼接隐向量获取子模块,用于使用所述目标局部信息平均向量的权重与对应的目标拼接隐向量得到具有注意力机制的目标拼接隐向量;
目标池化向量获取子模块,用于对所述具有注意力机制的目标拼接隐向量进行Max-pooling处理,获得所述目标池化向量;
进一步地,所述目标正向隐向量获取子模块包括:
首个目标正向隐向量获取单元,用于根据首个目标局部信息平均向量的预设隐向量和所述基础池化向量生成首个目标局部信息平均向量的目标正向隐向量;
第i个目标正向隐向量获取单元,用于生成第(i-1)个目标局部信息平均向量的目标正向隐向量后,根据第(i-1)个目标正向隐向量和所述基础池化向量生成第i个目标正向隐向量,所述i=2,3,……n,其中n为所述目标局部信息平均向量的个数。
CN201810031623.3A 2018-01-12 2018-01-12 一种文本语义匹配的方法及装置 Active CN108132931B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810031623.3A CN108132931B (zh) 2018-01-12 2018-01-12 一种文本语义匹配的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810031623.3A CN108132931B (zh) 2018-01-12 2018-01-12 一种文本语义匹配的方法及装置

Publications (2)

Publication Number Publication Date
CN108132931A CN108132931A (zh) 2018-06-08
CN108132931B true CN108132931B (zh) 2021-06-25

Family

ID=62399547

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810031623.3A Active CN108132931B (zh) 2018-01-12 2018-01-12 一种文本语义匹配的方法及装置

Country Status (1)

Country Link
CN (1) CN108132931B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108932342A (zh) * 2018-07-18 2018-12-04 腾讯科技(深圳)有限公司 一种语义匹配的方法、模型的学习方法及服务器
CN109145290B (zh) * 2018-07-25 2020-07-07 东北大学 基于字向量与自注意力机制的语义相似度计算方法
CN109086423A (zh) * 2018-08-08 2018-12-25 北京神州泰岳软件股份有限公司 一种文本匹配方法及装置
CN109145103A (zh) * 2018-09-10 2019-01-04 苏州亭云智能科技有限公司 一种基于双通道rnn的人机交互意图判断方法
CN109376222B (zh) * 2018-09-27 2021-05-25 国信优易数据股份有限公司 问答匹配度计算方法、问答自动匹配方法及装置
CN109543009B (zh) * 2018-10-17 2019-10-25 龙马智芯(珠海横琴)科技有限公司 文本相似度评估系统及文本相似度评估方法
CN109635947B (zh) * 2018-12-14 2020-11-03 安徽省泰岳祥升软件有限公司 基于答案采样的机器阅读理解模型训练方法及装置
CN110232184B (zh) * 2018-12-14 2022-12-27 太原理工大学 一种云制造模式下机械加工服务供需双向语义匹配方法
CN109815484B (zh) * 2018-12-21 2022-03-15 平安科技(深圳)有限公司 基于交叉注意力机制的语义相似度匹配方法及其匹配装置
CN111382249B (zh) * 2018-12-29 2023-10-10 深圳市优必选科技有限公司 聊天语料的清洗方法、装置、计算机设备和存储介质
CN109766424B (zh) * 2018-12-29 2021-11-19 安徽省泰岳祥升软件有限公司 一种阅读理解模型训练数据的过滤方法及装置
CN109740126B (zh) * 2019-01-04 2023-11-21 平安科技(深圳)有限公司 文本匹配方法、装置及存储介质、计算机设备
CN111478877B (zh) * 2019-01-24 2022-08-02 安碁资讯股份有限公司 网域名称识别方法及网域名称识别装置
CN110298035B (zh) * 2019-06-04 2023-12-01 平安科技(深圳)有限公司 基于人工智能的字向量定义方法、装置、设备及存储介质
CN110276082B (zh) * 2019-06-06 2023-06-30 百度在线网络技术(北京)有限公司 基于动态窗口的翻译处理方法和装置
CN110362681B (zh) * 2019-06-19 2023-09-22 平安科技(深圳)有限公司 问答系统重复问题识别方法、装置及存储介质
CN110390005A (zh) * 2019-07-23 2019-10-29 北京香侬慧语科技有限责任公司 一种数据处理方法和装置
CN110598206B (zh) * 2019-08-13 2023-04-07 平安国际智慧城市科技股份有限公司 文本语义识别方法、装置、计算机设备和存储介质
CN111198939B (zh) * 2019-12-27 2021-11-23 北京健康之家科技有限公司 语句相似度的分析方法、装置及计算机设备
CN111797204A (zh) * 2020-07-01 2020-10-20 北京三快在线科技有限公司 文本匹配方法、装置、计算机设备及存储介质
CN113779996B (zh) * 2021-08-31 2023-10-10 中国中医科学院中医药信息研究所 基于BiLSTM模型的标准实体文本确定方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107145484A (zh) * 2017-04-24 2017-09-08 北京邮电大学 一种基于隐多粒度局部特征的中文分词方法
CN107291699A (zh) * 2017-07-04 2017-10-24 湖南星汉数智科技有限公司 一种句子语义相似度计算方法
CN107562792A (zh) * 2017-07-31 2018-01-09 同济大学 一种基于深度学习的问答匹配方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107145484A (zh) * 2017-04-24 2017-09-08 北京邮电大学 一种基于隐多粒度局部特征的中文分词方法
CN107291699A (zh) * 2017-07-04 2017-10-24 湖南星汉数智科技有限公司 一种句子语义相似度计算方法
CN107562792A (zh) * 2017-07-31 2018-01-09 同济大学 一种基于深度学习的问答匹配方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Multi-Channel Lexicon Integrated CNN-BiLSTM Models for Sentiment Analysis";Joosung Yoon等;《Proceedings of the 29th Conference on Computational Linguistics and Speech Processing》;20171101;第3.1、3.2节,图2 *
"关于社区问答中答案选择的研究";胡珅健;《现代计算机》;20171115;全文 *
"基于Valence_Arousal空间的中文文本情感分析方法研究";王津;《中国博士学位论文全文数据库信息科技辑》;20170115;全文 *

Also Published As

Publication number Publication date
CN108132931A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
CN108132931B (zh) 一种文本语义匹配的方法及装置
US10410351B2 (en) Automatically segmenting images based on natural language phrases
CN108875074B (zh) 基于交叉注意力神经网络的答案选择方法、装置和电子设备
US10423874B2 (en) Intelligent image captioning
WO2019084867A1 (zh) 自动回答方法、装置、存储介质及电子设备
WO2019100724A1 (zh) 训练多标签分类模型的方法和装置
CN111160375A (zh) 三维关键点预测及深度学习模型训练方法、装置及设备
KR20200000216A (ko) 단어자질을 강화한 음성 대화 방법 및 시스템
CN110874401B (zh) 信息处理方法、模型训练方法、装置、终端及计算设备
CN110866095A (zh) 一种文本相似度的确定方法及相关设备
CN112819050B (zh) 知识蒸馏和图像处理方法、装置、电子设备和存储介质
CN111738270B (zh) 模型生成方法、装置、设备和可读存储介质
CN112183111A (zh) 长文本语义相似度匹配方法、装置、电子设备及存储介质
CN114358203A (zh) 图像描述语句生成模块的训练方法及装置、电子设备
CN113326383A (zh) 一种短文本实体链接方法、装置、计算设备与存储介质
CN113011532A (zh) 分类模型训练方法、装置、计算设备及存储介质
CN110555099B (zh) 计算机执行的、利用神经网络进行语言处理的方法及装置
CN114707518B (zh) 面向语义片段的目标情感分析方法、装置、设备及介质
CN116433722A (zh) 目标跟踪方法、电子设备、存储介质及程序产品
CN116150311A (zh) 文本匹配模型的训练方法、意图识别方法及装置
JP6427480B2 (ja) 画像検索装置、方法、及びプログラム
CN114117028A (zh) 一种信息推荐方法、装置、存储介质及电子设备
CN117057443B (zh) 视觉语言模型的提示学习方法及电子设备
CN114969291B (zh) 一种自动问答方法及装置
CN114896965B (zh) 文本纠正模型训练方法及装置、文本纠正方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190905

Address after: Room 630, 6th floor, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant after: China Science and Technology (Beijing) Co., Ltd.

Address before: Room 601, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant before: Beijing Shenzhou Taiyue Software Co., Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: 230000 zone B, 19th floor, building A1, 3333 Xiyou Road, hi tech Zone, Hefei City, Anhui Province

Applicant after: Dingfu Intelligent Technology Co., Ltd

Address before: Room 630, 6th floor, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant before: DINFO (BEIJING) SCIENCE DEVELOPMENT Co.,Ltd.

GR01 Patent grant
GR01 Patent grant