CN110633360B - 一种语义匹配的方法以及相关装置 - Google Patents

一种语义匹配的方法以及相关装置 Download PDF

Info

Publication number
CN110633360B
CN110633360B CN201910871549.0A CN201910871549A CN110633360B CN 110633360 B CN110633360 B CN 110633360B CN 201910871549 A CN201910871549 A CN 201910871549A CN 110633360 B CN110633360 B CN 110633360B
Authority
CN
China
Prior art keywords
vector
sequence
granularity
external
internal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910871549.0A
Other languages
English (en)
Other versions
CN110633360A (zh
Inventor
陈华栋
徐广庆
陈健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shanghai Co Ltd
Original Assignee
Tencent Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shanghai Co Ltd filed Critical Tencent Technology Shanghai Co Ltd
Priority to CN201910871549.0A priority Critical patent/CN110633360B/zh
Publication of CN110633360A publication Critical patent/CN110633360A/zh
Application granted granted Critical
Publication of CN110633360B publication Critical patent/CN110633360B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本申请公开了一种语义匹配的方法以及相关装置,通过融合了不同粒度的语义表达信息,提高句子语义匹配的准确性;具体包括:基于第一粒度分割待检测语句对,以获取第一序列;将第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;基于第二粒度分割第一序列,以获取第二序列;然后根据注意力机制对初始向量进行计算,以得到第一外部向量和第一内部向量;将初始向量、第一外部向量和第一内部向量输入第二深度神经网络进行学习,以得到待检测语句对的相似度,并得到语义匹配的结果。

Description

一种语义匹配的方法以及相关装置
技术领域
本申请涉及计算机技术领域,尤其涉及一种语义匹配的方法以及相关装置。
背景技术
随着人工智能技术的发展,越来越多的智能设备出现在人们的生活中,特别是机器人相关的设备已经出现在了日常的服务工作中,在实际场景中客服机器人收到用户提问时,可以识别用户说出的语句,然后通过语义匹配在知识库的问答对中寻找最相似的问题来找到对应问题的答案。
一般,对于语义匹配的过程是基于句子的单个粒度信息学习句子语义表达,并通过神经网络模型得到句子的语义匹配概率。
但是,仅基于单个句子粒度学习句子语义,例如词粒度表示或者字粒度表示,往往需要大量的实验确定哪种粒度是更好的选择,而且在实际使用场景中,存在海量的语义数据需要处理,使得语义匹配的过程无法正常的运行,进而影响语义匹配的精确度。
发明内容
有鉴于此,本申请第一方面提供一种语义匹配的方法,可应用于静态数据库的系统或程序过程中,具体包括:基于第一粒度分割待检测语句对,以获取第一序列;
将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;
基于第二粒度分割所述第一序列,以获取第二序列,所述第二粒度的划分单元大小小于所述第一粒度的划分单元大小,所述第二序列中的元素与所述第一序列中的元素具有对应关系;
根据第一预设算法对所述初始向量进行计算,以得到第一外部向量和第一内部向量,所述第一预设算法包括采用所述第二序列中的元素作为分隔点切割所述第一序列,所述第一预设算法基于所述初始向量与所述第二序列中的元素向量的相似性设定,所述第一内部向量基于所述分隔点计算所得,所述第一外部向量基于与所述分隔点相邻的元素计算所得;
将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,所述待检测语句对的相似度用于指示语义匹配的结果。
优选的,在本申请一些可能的实现方式中,所述根据第一预设算法对所述初始向量进行计算,以得到第一外部向量和第一内部向量,包括:
根据所述初始向量与所述第二序列中的元素向量的相似性比值分别确定所述第一外部向量的权重信息和所述第一内部向量的权重信息;
将所述第一外部向量的权重信息和所述第一内部向量的权重信息输入所述第一预设算法,以分别计算得到所述第一外部向量和所述第一内部向量。
优选的,在本申请一些可能的实现方式中,所述基于第二粒度分割所述第一序列,以获取第二序列,包括:
确定所述第一序列中的多个元素;
确定所述第二粒度指示的划分单元大小;
根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列。
优选的,在本申请一些可能的实现方式中,所述确定所述第一序列中的多个元素,包括:
获取预设的特征元素集合;
根据所述特征元素集合在所述第一序列中进行遍历,以标记出特征元素;
所述根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列,包括:
根据所述第二粒度指示的划分单元大小对所述特征元素进行分割,以获取第二序列。
优选的,在本申请一些可能的实现方式中,根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列,包括:
确定所述第一序列中用于指示虚词的元素位置;
根据所述第二粒度指示的划分单元大小对所述第一序列的非虚词部分进行分割,以获取第二序列,所述非虚词部分为除去所述指示虚词的元素的部分。
优选的,在本申请一些可能的实现方式中,所述将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,包括:
利用连接函数组合所述初始向量、所述第一外部向量和所述第一内部向量,以得到所述待检测语句对的多粒度向量表示;
将所述多粒度向量表示输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
优选的,在本申请一些可能的实现方式中,所述根据第一预设算法对所述初始向量进行计算,以得到第一外部向量和第一内部向量之后,所述方法还包括:
根据预设规则获取第三粒度,所述预设规则基于语义的划分规则设定;
基于所述第三粒度分割所述第一序列,以获取第三序列,所述第三粒度的划分单元大小小于所述第一粒度的划分单元大小;
采用所述第三序列中的元素作为分隔点切割所述第一序列,以得到第二外部向量和第二内部向量;
根据第二预设算法分别计算所述第二外部向量和所述第二内部向量,所述第二预设算法基于所述初始向量与所述第三序列中的元素的相似性设定;
所述利用连接函数组合所述初始向量、所述第一外部向量和所述第一内部向量,以得到所述待检测语句对的多粒度向量表示,包括:
利用连接函数组合所述初始向量、所述第一外部向量、所述第一内部向量、所述第二外部向量和所述第二内部向量,以得到所述待检测语句对的多粒度向量表示;
所述将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,包括:
所述将所述初始向量、所述第二外部向量、所述第二内部向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
优选的,在本申请一些可能的实现方式中,所述语义匹配的方法应用于终端设备,所述终端设备为区块链节点中的区块节点设备。
本申请第二方面提供一种语义匹配的装置,包括:分割单元,用于基于第一粒度分割待检测语句对,以获取第一序列;
匹配单元,用于将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;
所述分割单元,还用于基于第二粒度分割所述第一序列,以获取第二序列,所述第二粒度的划分单元大小小于所述第一粒度的划分单元大小,所述第二序列中的元素与所述第一序列中的元素具有对应关系;
计算单元,用于根据第一预设算法对所述初始向量进行计算,以得到第一外部向量和第一内部向量,所述第一预设算法包括采用所述第二序列中的元素作为分隔点切割所述第一序列,所述第一预设算法基于所述初始向量与所述第二序列中的元素向量的相似性设定,所述第一内部向量基于所述分隔点计算所得,所述第一外部向量基于与所述分隔点相邻的元素计算所得;
所述匹配单元,还用于将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,所述待检测语句对的相似度用于指示语义匹配的结果。
优选的,在本申请一些可能的实现方式中,所述计算单元,具体用于根据所述初始向量与所述第二序列中的元素向量的相似性比值分别确定所述第一外部向量的权重信息和所述第一内部向量的权重信息;
所述计算单元,具体用于将所述第一外部向量的权重信息和所述第一内部向量的权重信息输入所述第一预设算法,以分别计算得到所述第一外部向量和所述第一内部向量。
优选的,在本申请一些可能的实现方式中,所述分割单元,具体用于确定所述第一序列中的多个元素;
所述分割单元,具体用于确定所述第二粒度指示的划分单元大小;
所述分割单元,具体用于根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列。
优选的,在本申请一些可能的实现方式中,所述分割单元,具体用于获取预设的特征元素集合;
所述分割单元,具体用于根据所述特征元素集合在所述第一序列中进行遍历,以标记出特征元素;
所述分割单元,具体用于所述根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列,包括:
所述分割单元,具体用于根据所述第二粒度指示的划分单元大小对所述特征元素进行分割,以获取第二序列。
优选的,在本申请一些可能的实现方式中,所述分割单元,具体用于确定所述第一序列中用于指示虚词的元素位置;
所述分割单元,具体用于根据所述第二粒度指示的划分单元大小对所述第一序列的非虚词部分进行分割,以获取第二序列,所述非虚词部分为除去所述指示虚词的元素的部分。
优选的,在本申请一些可能的实现方式中,所述匹配单元,具体用于利用连接函数组合所述初始向量、所述第一外部向量和所述第一内部向量,以得到所述待检测语句对的多粒度向量表示;
所述匹配单元,具体用于将所述多粒度向量表示输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
优选的,在本申请一些可能的实现方式中,所述匹配单元,还用于根据预设规则获取第三粒度,所述预设规则基于语义的划分规则设定;
所述匹配单元,还用于基于所述第三粒度分割所述第一序列,以获取第三序列,所述第三粒度的划分单元大小小于所述第一粒度的划分单元大小;
所述匹配单元,还用于采用所述第三序列中的元素作为分隔点切割所述第一序列,以得到第二外部向量和第二内部向量;
所述匹配单元,还用于根据第二预设算法分别计算所述第二外部向量和所述第二内部向量,所述第二预设算法基于所述初始向量与所述第三序列中的元素的相似性设定;
所述匹配单元,还用于利用连接函数组合所述初始向量、所述第一外部向量、所述第一内部向量、所述第二外部向量和所述第二内部向量,以得到所述待检测语句对的多粒度向量表示;
所述匹配单元,还用于所述将所述初始向量、所述第二外部向量、所述第二内部向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
本申请第三方面提供一种计算机设备,包括:存储器、处理器以及总线系统;所述存储器用于存储程序代码;所述处理器用于根据所述程序代码中的指令执行上述第一方面或第一方面任一项所述的语义匹配的的方法。
本申请第四方面提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面或第一方面任一项所述的语义匹配的的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
通过基于第一粒度分割待检测语句对,以获取第一序列;将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;基于第二粒度分割所述第一序列,以获取第二序列;然后根据注意力机制对所述初始向量进行计算,以得到第一外部向量和第一内部向量;将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,并得到语义匹配的结果。由于融合了不同粒度的语义表达信息,不需要分别对各个粒度下的语义进行计算,节省了计算资源,而且不同粒度的语义表达信息能够更全面的表示句子的语义,进一步地提高句子语义匹配的准确性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为语义匹配系统运行的网络架构图;
图2为一种语义匹配的流程架构图;
图3为本申请实施例提供的一种语义匹配的方法的流程图;
图4为本申请实施例提供的另一种语义匹配的方法的流程图;
图5为本申请实施例提供的一种语义匹配的界面显示示意图;
图6为本申请实施例提供的语义匹配装置的结构示意图;
图7为本申请实施例提供的另一种语义匹配装置的结构示意图;
图8A为本申请实施例提供的一种数据共享系统示意图;
图8B为本申请实施例提供的数据共享系统中的区块组成示意图;
图8C为本申请实施例提供的区块链节点的数据传输响应示意图。
具体实施方式
本申请实施例提供了一种语义匹配的方法以及相关装置,可以应用于机器人问答系统或其他应用语义匹配的应用的运行过程中,具体通过基于第一粒度分割待检测语句对,以获取第一序列;将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;基于第二粒度分割所述第一序列,以获取第二序列;然后根据注意力机制对所述初始向量进行计算,以得到第一外部向量和第一内部向量;将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,并得到语义匹配的结果。由于融合了不同粒度的语义表达信息,不需要分别对各个粒度下的语义进行计算,节省了计算资源,而且不同粒度的语义表达信息能够更全面的表示句子的语义,进一步地提高句子语义匹配的准确性。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“对应于”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应理解,本申请提供的语义匹配方法可以应用于可应用于语义匹配系统的运行过程中,具体的,语义匹配系统可以运行于如图1所示的网络架构中,如图1所示,是语义匹配系统运行的网络架构图,如图可知,语义匹配系统可以提供与多个信息源的语义匹配,通过匹配语句数据库获取静态资源,根据本申请提出的语义匹配方法对上述语句进行处理,并输入深度神经网络(deep neural networks,DNN)模型以得到相似度,从而判断语义匹配结果,可以理解的是,图1中示出了三种应用程序,具体的,可以通过用户的语音识别作为信息源,可以识别文本信息中的语句作为信息源,还可以识别终端程序输出的相关语句作为信息源,在实际场景中可以有更多或更少的应用程序参与到数据调取的过程中,具体数量和种类因实际场景而定,此处不做限定;另外,图1中示出了一个匹配语句数据库,但在实际场景中,也可以有多个匹配语句数据库的参与,特别是在多应用数据交互的场景中,具体匹配语句数据库数量因实际场景而定。
可以理解的是,上述语义匹配系统可以运行于个人移动终端,也可以运行于服务器,还可以作为运行于第三方设备以提供语义匹配,以得到信息源语义的匹配结果,例如:在实际场景中,语义匹配系统运行于客服机器人中,当客服机器人收到用户提问时,可以通过本申请的语义匹配方法在知识库问答对中寻找最相似的问题来找到对应问题的答案;具体的语义匹配系统可以是以一种程序的形式在上述设备中运行,也可以作为上述设备中的系统部件进行运行,还可以作为云端服务程序的一种,具体运作模式因实际场景而定,此处不做限定。
随着人工智能技术的发展,越来越多的智能设备出现在人们的生活中,特别是机器人相关的设备已经出现在了日常的服务工作中,在实际场景中客服机器人收到用户提问时,可以识别用户说出的语句,然后通过语义匹配在知识库的问答对中寻找最相似的问题来找到对应问题的答案。
一般,对于语义匹配的过程是基于句子的单个粒度信息学习句子语义表达,并通过神经网络模型得到句子的语义匹配概率。
但是,仅基于单个句子粒度学习句子语义,例如词粒度表示或者字粒度表示,往往需要大量的实验确定哪种粒度是更好的选择,而且在实际使用场景中,存在海量的语义数据需要处理,使得语义匹配的过程无法正常的运行,进而影响语义匹配的精确度。
为了解决上述问题,本申请提出了一种语义匹配的方法,该方法应用于图2所示的语义匹配的流程框架中,如图2所示,是一种语义匹配的流程架构图,图中包括输入端、多粒度配置、深度神经网络以及匹配结果;其中,输入端接收用户设定的匹配策略,例如:多粒度的配置信息,语句的筛选信息等;如图配置了3种粒度,即子粒度、词粒度以及子词粒度,通过本申请提供的语义匹配的方法将上述3种粒度进行多粒度的向量表示并输入DNN中进行学习匹配,从而得到相关语句的相似度,并得到匹配结果。
可以理解的是,此处以子粒度、词粒度以及子词粒度为例进行说明,具体的也可以是基于其他语法结构对语句进行的分割结果,具体的粒度分割形式因实际场景而定,此处不做限定。
可以理解的是,本申请所提供的方法可以为一种程序的写入,以作为硬件系统中的一种处理逻辑,也可以作为一种语义匹配装置,采用集成或外接的方式实现上述处理逻辑。作为一种实现方式,该语义匹配装置通过基于第一粒度分割待检测语句对,以获取第一序列;将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;基于第二粒度分割所述第一序列,以获取第二序列;然后根据注意力机制对所述初始向量进行计算,以得到第一外部向量和第一内部向量;将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,并得到语义匹配的结果。由于融合了不同粒度的语义表达信息,不需要分别对各个粒度下的语义进行计算,节省了计算资源,而且不同粒度的语义表达信息能够更全面的表示句子的语义,进一步地提高句子语义匹配的准确性。
结合上述流程架构,下面将对本申请中语义匹配的方法进行介绍,请参阅图3,图3为本申请实施例提供的一种语义匹配的方法的流程图,本申请实施例至少包括以下步骤:
301、基于第一粒度分割待检测语句对,以获取第一序列。
本实施例中,待检测语句对可以是信息源收集的语句和匹配语句数据库中对应的语句组成,在一种可能的场景中,一个信息源语句可能对应多个匹配语句数据库中的语句,此时,可以分别取对进行本实施例提供的方法,然后根据相似度比较进行判断。
具体的,第一粒度可以是词粒度,对应的第一序列即为通过分词工具将句子分割为的词序列,第一粒度也可以是其他粒度,具体分割方法应实际场景而定。
302、将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量。
本实施例中,首先将句子的词向量序列w0,w1,…,wn输入到DNN中,其中n为词序列的长度,输出的词wi表示为初步向量表示
Figure BDA0002202956390000101
例如:对于词汇“我们”可以对应的向量表示为[0.01,0.12,…,0.35]。
303、基于第二粒度分割所述第一序列,以获取第二序列。
本实施例中,第二粒度的划分单元大小小于所述第一粒度的划分单元大小,所述第二序列中的元素与所述第一序列中的元素具有对应关系;例如:若第一粒度为词粒度,则第二粒度则可以为字粒度。
可选的,对于第一序列的分割过程可以参照如下步骤:
Step1、确定所述第一序列中的多个元素;
可以理解是的,第一序列中的多个元素可以是第一序列中的所有元素,即对于所有元素基于第二粒度进行切割;多个元素也可以通过特征元素的集合确定,即对于一些具有特定含义的词汇或容易产生多种语义的词汇进行第二粒度的切割,具体的,首先获取预设的特征元素集合;然后根据所述特征元素集合在所述第一序列中进行遍历,以标记出特征元素,例如:特征元素指示的是动作词汇,则在语句中遍历指示动作的词汇并进行标记。
Step2、确定所述第二粒度指示的划分单元大小。
可以理解是的,由于第二粒度指示的划分单元大小小于第一粒度,则需要根据第一粒度指示的划分单元大小进行设置,例如第一粒度指示的划分单元大小为两个字符,则第二粒度指示的划分单元大小可以为一个字符。
Step3、根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列。
具体的,若第一序列为词序列,则第二粒度指示的划分单元大小可以为字,然后将词序列逐字进行分割,得到第二序列。
可选的,由于语句中可能存在一些没有实际含义的虚词,可以将这些词汇标记出之后对其他的词汇进行处理,具体的,首先确定所述第一序列中用于指示虚词的元素位置;然后根据所述第二粒度指示的划分单元大小对所述第一序列的非虚词部分进行分割,以获取第二序列,所述非虚词部分为除去所述指示虚词的元素的部分。
304、根据第一预设算法对所述初始向量进行计算,以得到第一外部向量和第一内部向量。
本实施例中,所述第一预设算法包括采用所述第二序列中的元素作为分隔点切割所述第一序列,所述第一预设算法基于所述初始向量与所述第二序列中的元素向量的相似性设定,所述第一内部向量基于所述分隔点计算所得,所述第一外部向量基于与所述分隔点相邻的元素计算所得。
可选的,还可以在第一预设算法中设置权重信息,具体的,首先根据所述初始向量与所述第二序列中的元素向量的相似性比值分别确定所述第一外部向量的权重信息和所述第一内部向量的权重信息;然后将所述第一外部向量的权重信息和所述第一内部向量的权重信息输入所述第一预设算法,以分别计算得到所述第一外部向量和所述第一内部向量。
在一种可能的数学表达式中,上述步骤可以表示为:首先,第一预设算法可以参照注意力机制,即通过注意力机制获取字粒度信息,将句子字序列的向量表示为c0,c1,…,cp-1,cp,…,cq,cq-1,…,cm,其中m为字序列长度,对于词wi,cp,…,cq为词内部的字向量序列,c0,…,cp-1和cq+1,…,cm为词wi的外部字序列,使用词初步表示向量
Figure BDA0002202956390000121
通过两个参数不一样的注意力机制分别获取内部词表示和外部词表示/>
Figure BDA0002202956390000122
Figure BDA0002202956390000123
Figure BDA0002202956390000124
Figure BDA0002202956390000125
其中I,O分别代表词内部和词外部,vI,WI,UI,vO,WO,UO分别是内部字注意力机制和外部注意力机制的可学习的模型参数,
Figure BDA0002202956390000126
是对词wi内部字向量的注意力权重,/>
Figure BDA0002202956390000127
是对词wi外部字向量的注意力权重。
具体的,
Figure BDA0002202956390000128
是为了计算向量/>
Figure BDA0002202956390000129
和cj之间的相似度,即字语义和词语义的相关程度;/>
Figure BDA00022029563900001210
则是对所有参与计算的字做一个相关程度的归一化,使值的范围在[0,1];/>
Figure BDA00022029563900001211
根据相似度获取每个字的语义表示,即内部向量;同理可得外部向量。
305、将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
本实施例中,待检测语句对的相似度用于指示语义匹配的结果,即相似度高的匹配语句即为匹配结果。
可选的,可以利用连接函数组合所述初始向量、所述第一外部向量和所述第一内部向量,以得到所述待检测语句对的多粒度向量表示;然后将所述多粒度向量表示输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
上述步骤可以用数学方式表达为,组合
Figure BDA00022029563900001212
得到词wi的最终包含多粒度信息的向量表示/>
Figure BDA00022029563900001213
即:
Figure BDA0002202956390000131
可以理解为直接将向量
Figure BDA0002202956390000132
拼接为一个新的向量,然后输入到第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
结合上述实施例可知,通过基于第一粒度分割待检测语句对,以获取第一序列;将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;基于第二粒度分割所述第一序列,以获取第二序列;然后根据注意力机制对所述初始向量进行计算,以得到第一外部向量和第一内部向量;将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,并得到语义匹配的结果。由于融合了不同粒度的语义表达信息,不需要分别对各个粒度下的语义进行计算,节省了计算资源,而且不同粒度的语义表达信息能够更全面的表示句子的语义,进一步地提高句子语义匹配的准确性。
上述实施例介绍了两种粒度的结合过程,但在实际应用中还可以是更多的粒度的结合,下面对该场景进行说明,如图4所示,图4为本申请实施例提供的另一种语义匹配的方法的流程图,本申请实施例至少包括以下步骤:
401、基于第一粒度分割待检测语句对,以获取第一序列;
402、将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;
本实施例中,步骤401-402与图3中的步骤301-302相似,相关的特征描述可以进行参照,此处不做赘述。
403、获取多粒度信息。
本实施例中,多粒度信息可以包括字粒度、词粒度或子词粒度,其中,子词粒度为在词粒度序列的基础上通过字节对编码(byte pair encoder,BPE)或者wordpiece算法将句子分割为子词序列,例如英文中的词根,词缀等。
可选的,对于子词粒度的确定过程可以基于预设规则进行确定,即具体的语义的划分规则。
可以理解的是,对于上述粒度信息还可以包括基于其他语法分割规则的粒度信息,此处不做限定。
404、根据第一预设算法对所述初始向量进行计算,分别得到基于不同粒度信息下的外部向量和内部向量。
本实施例中,以词粒度作为第一粒度,对字粒度下的内/外部向量,可以参照图3中步骤304的相关描述,此处不做赘述。
对于子词粒度下的内/外部向量,可以对词内部子词sp,…,sq和外部子词s0,…,sp-1和sq+1,…,sm使用注意力机制获得词的子词粒度的内部和外部表示
Figure BDA0002202956390000141
和/>
Figure BDA0002202956390000142
具体的计算公式可以为:
Figure BDA0002202956390000143
Figure BDA0002202956390000144
Figure BDA0002202956390000145
405、组合初始向量和各个粒度下的内/外部向量。
本实施例中,组合
Figure BDA0002202956390000146
得到词wi的最终包含多粒度信息的向量表示
Figure BDA0002202956390000147
即:
Figure BDA0002202956390000148
可以理解为直接将向量
Figure BDA0002202956390000149
拼接为一个新的向量,例如若a=[0.1,0.3,0.2],b=[0.4,0.6],那么concat(a,b)就是[0.1,0.3,0.2,0.4,0.6]。
406、输入至第二深度神经网络以得到相似度。
上述实施例介绍了三种粒度下的语义匹配过程,可以理解的是,对于更多的粒度表示依然可以采用上述方法实现,此处不做赘述。
在一种可能的场景中,对于不同粒度下的语句精确度进行统计,得到图表1所示的数据。
表1不同粒度下的语义精确度
模型 精确度
基于字 78.14%
基于词 78.54%
基于子词 81.40%
基于多粒度 86.32%
可见,通过在语义匹配模型中融合句子的多语义粒度表示信息,提高相似句匹配的准确性。具体的,自然语言语句具有层次结构,可以表示为不同粒度的序列,比如,字序列,子词序列,词序列等,基于不同的序列我们可以利用神经网络模型编码出不同的句子语义表达。对于特定的任务,往往难以决定何种粒度是更好的,例如:细粒度的语义表达更容易捕获句子局部的语义信息,粗粒度的语义表达更容易捕获句子的全局信息。通过融合不同粒度的语义表达信息,能够更全面的表示句子的语义,进一步地提高句子语义匹配的准确性。
在一种可能的显示方式中,可以采用如图5所述的显示方式,图5为本申请实施例提供的一种语义匹配的界面显示示意图。该界面可以包括多个句子的匹配过程,以及相应的匹配结果和相似度;用户可以点击详情知晓具体的多种粒度下的相似度计算结果,可见多粒度下的匹配结果具有一定的可信度。
可以理解的是,上述实施例中设计的参数或步骤均可在该界面中进行显示,此处不做限定。
为了更好的实施本申请实施例的上述方案,下面还提供用于实施上述方案的相关装置。请参阅图6,图6为本申请实施例提供的语义匹配装置的结构示意图,语义匹配装置600包括:
分割单元601,用于基于第一粒度分割待检测语句对,以获取第一序列;
匹配单元602,用于将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;
所述分割单元601,还用于基于第二粒度分割所述第一序列,以获取第二序列,所述第二粒度的划分单元大小小于所述第一粒度的划分单元大小,所述第二序列中的元素与所述第一序列中的元素具有对应关系;
计算单元603,用于根据第一预设算法对所述初始向量进行计算,以得到第一外部向量和第一内部向量,所述第一预设算法包括采用所述第二序列中的元素作为分隔点切割所述第一序列,所述第一预设算法基于所述初始向量与所述第二序列中的元素向量的相似性设定,所述第一内部向量基于所述分隔点计算所得,所述第一外部向量基于与所述分隔点相邻的元素计算所得;
所述匹配单元602,还用于将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,所述待检测语句对的相似度用于指示语义匹配的结果。
优选的,在本申请一些可能的实现方式中,所述计算单元603,具体用于根据所述初始向量与所述第二序列中的元素向量的相似性比值分别确定所述第一外部向量的权重信息和所述第一内部向量的权重信息;
所述计算单元603,具体用于将所述第一外部向量的权重信息和所述第一内部向量的权重信息输入所述第一预设算法,以分别计算得到所述第一外部向量和所述第一内部向量。
优选的,在本申请一些可能的实现方式中,所述分割单元601,具体用于确定所述第一序列中的多个元素;
所述分割单元601,具体用于确定所述第二粒度指示的划分单元大小;
所述分割单元601,具体用于根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列。
优选的,在本申请一些可能的实现方式中,所述分割单元601,具体用于获取预设的特征元素集合;
所述分割单元601,具体用于根据所述特征元素集合在所述第一序列中进行遍历,以标记出特征元素;
所述分割单元601,具体用于所述根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列,包括:
所述分割单元601,具体用于根据所述第二粒度指示的划分单元大小对所述特征元素进行分割,以获取第二序列。
优选的,在本申请一些可能的实现方式中,所述分割单元601,具体用于确定所述第一序列中用于指示虚词的元素位置;
所述分割单元601,具体用于根据所述第二粒度指示的划分单元大小对所述第一序列的非虚词部分进行分割,以获取第二序列,所述非虚词部分为除去所述指示虚词的元素的部分。
优选的,在本申请一些可能的实现方式中,所述匹配单元602,具体用于利用连接函数组合所述初始向量、所述第一外部向量和所述第一内部向量,以得到所述待检测语句对的多粒度向量表示;
所述匹配单元602,具体用于将所述多粒度向量表示输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
优选的,在本申请一些可能的实现方式中,所述匹配单元602,还用于根据预设规则获取第三粒度,所述预设规则基于语义的划分规则设定;
所述匹配单元602,还用于基于所述第三粒度分割所述第一序列,以获取第三序列,所述第三粒度的划分单元大小小于所述第一粒度的划分单元大小;
所述匹配单元602,还用于采用所述第三序列中的元素作为分隔点切割所述第一序列,以得到第二外部向量和第二内部向量;
所述匹配单元602,还用于根据第二预设算法分别计算所述第二外部向量和所述第二内部向量,所述第二预设算法基于所述初始向量与所述第三序列中的元素的相似性设定;
所述匹配单元602,还用于利用连接函数组合所述初始向量、所述第一外部向量、所述第一内部向量、所述第二外部向量和所述第二内部向量,以得到所述待检测语句对的多粒度向量表示;
所述匹配单元602,还用于所述将所述初始向量、所述第二外部向量、所述第二内部向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
通过基于第一粒度分割待检测语句对,以获取第一序列;将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;基于第二粒度分割所述第一序列,以获取第二序列;然后根据注意力机制对所述初始向量进行计算,以得到第一外部向量和第一内部向量;将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,并得到语义匹配的结果。由于融合了不同粒度的语义表达信息,不需要分别对各个粒度下的语义进行计算,节省了计算资源,而且不同粒度的语义表达信息能够更全面的表示句子的语义,进一步地提高句子语义匹配的准确性。
本申请实施例还提供了一种语义匹配装置,请参阅图7,图7是本申请实施例提供的另一种语义匹配装置的结构示意图,该语义匹配装置700可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)722(例如,一个或一个以上处理器)和存储器732,一个或一个以上存储应用程序742或数据744的存储介质730(例如一个或一个以上海量存储设备)。其中,存储器732和存储介质730可以是短暂存储或持久存储。存储在存储介质730的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对语义匹配装置中的一系列指令操作。更进一步地,中央处理器722可以设置为与存储介质730通信,在语义匹配装置700上执行存储介质730中的一系列指令操作。
语义匹配装置700还可以包括一个或一个以上电源726,一个或一个以上有线或无线网络接口750,一个或一个以上输入输出接口758,和/或,一个或一个以上操作系统741,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由语义匹配装置所执行的步骤可以基于该图7所示的语义匹配装置结构。
本申请实施例中还提供一种计算机可读存储介质,该计算机可读存储介质中存储有语义匹配指令,当其在计算机上运行时,使得计算机执行如前述图2至图5所示实施例描述的方法中语义匹配装置所执行的步骤。
本申请实施例中还提供一种包括语义匹配指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如前述图2至图5所示实施例描述的方法中语义匹配装置所执行的步骤。
本申请实施例还提供了一种语义匹配系统,所述语义匹配系统可以包含图6所描述实施例中的语义匹配装置,或者图7所描述的语义匹配装置。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,语义匹配装置,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-onlymemory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
另外,上述语义匹配的方法和装置还可以应用于数据共享系统中,参见图8A所示的数据共享系统,数据共享系统800是指用于进行节点与节点之间数据共享的系统,该数据共享系统中可以包括多个节点801,多个节点801可以是指数据共享系统中各个客户端,其中,每个客户端运行于基于本申请方法对应的终端设备上。每个节点801在进行正常工作可以接收到输入信息,并基于接收到的输入信息维护该数据共享系统内的共享数据。为了保证数据共享系统内的信息互通,数据共享系统中的每个节点之间可以存在信息连接,节点之间可以通过上述信息连接进行信息传输。例如,当数据共享系统中的任意节点接收到输入信息时,数据共享系统中的其他节点便根据共识算法获取该输入信息,将该输入信息作为共享数据中的数据进行存储,使得数据共享系统中全部节点上存储的数据均一致。
对于数据共享系统中的每个节点,均具有与其对应的节点标识,而且数据共享系统中的每个节点均可以存储有数据共享系统中其他节点的节点标识,以便后续根据其他节点的节点标识,将生成的区块广播至数据共享系统中的其他节点。每个节点中可维护一个如下表所示的节点标识列表,将节点名称和节点标识对应存储至该节点标识列表中。其中,节点标识可为IP(Internet Protocol,网络之间互联的协议)地址以及其他任一种能够用于标识该节点的信息,表2中仅以IP地址为例进行说明。
表2节点与节点标识对应关系
节点名称 节点标识
节点1 117.114.151.174
节点2 117.116.189.145
节点N 119.123.789.258
数据共享系统中的每个节点均存储一条相同的区块链。区块链由多个区块组成,参见图8B,区块链由多个区块组成,创始块中包括区块头和区块主体,区块头中存储有输入信息特征值、版本号、时间戳和难度值,区块主体中存储有输入信息;创始块的下一区块以创始块为父区块,下一区块中同样包括区块头和区块主体,区块头中存储有当前区块的输入信息特征值、父区块的区块头特征值、版本号、时间戳和难度值,并以此类推,使得区块链中每个区块中存储的区块数据均与父区块中存储的区块数据存在关联,保证了区块中输入信息的安全性。
在生成区块链中的各个区块时,参见图8C,区块链所在的节点在接收到输入信息时,对输入信息进行校验,完成校验后,将输入信息存储至内存池中,并更新其用于记录输入信息的哈希树;之后,将更新时间戳更新为接收到输入信息的时间,并尝试不同的随机数,多次进行特征值计算,使得计算得到的特征值可以满足下述公式:
SHA256(SHA256(version+prev_hash+merkle_root+ntime+nbits+x))<TARGET
其中,SHA256为计算特征值所用的特征值算法;version(版本号)为区块链中相关区块协议的版本信息;prev_hash为当前区块的父区块的区块头特征值;merkle_root为输入信息的特征值;ntime为更新时间戳的更新时间;nbits为当前难度,在一段时间内为定值,并在超出固定时间段后再次进行确定;x为随机数;TARGET为特征值阈值,该特征值阈值可以根据nbits确定得到。
这样,当计算得到满足上述公式的随机数时,便可将信息对应存储,生成区块头和区块主体,得到当前区块。随后,区块链所在节点根据数据共享系统中其他节点的节点标识,将新生成的区块分别发送给其所在的数据共享系统中的其他节点,由其他节点对新生成的区块进行校验,并在完成校验后将新生成的区块添加至其存储的区块链中。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (9)

1.一种语义匹配的方法,其特征在于,包括:
基于第一粒度分割待检测语句对,以获取第一序列;
将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;
基于第二粒度分割所述第一序列,以获取第二序列,所述第二粒度的划分单元大小小于所述第一粒度的划分单元大小,所述第二序列中的元素与所述第一序列中的元素具有对应关系;
根据第一预设算法对所述初始向量进行计算,以得到第一外部向量和第一内部向量,所述第一预设算法包括采用所述第二序列中的元素作为分隔点切割所述第一序列,所述第一预设算法基于所述初始向量与所述第二序列中的元素向量的相似性设定,所述第一内部向量基于所述分隔点计算所得,所述第一外部向量基于与所述分隔点相邻的元素计算所得,所述第一预设算法的计算过程基于所述第一外部向量的权重信息和所述第一内部向量的权重信息进行;
将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,所述待检测语句对的相似度用于指示语义匹配的结果;
所述将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,包括:
利用连接函数组合所述初始向量、所述第一外部向量和所述第一内部向量,以得到所述待检测语句对的多粒度向量表示;
将所述多粒度向量表示输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
2.根据权利要求1所述的方法,其特征在于,所述根据第一预设算法对所述初始向量进行计算,以得到第一外部向量和第一内部向量,包括:
根据所述初始向量与所述第二序列中的元素向量的相似性比值分别确定所述第一外部向量的权重信息和所述第一内部向量的权重信息;
将所述第一外部向量的权重信息和所述第一内部向量的权重信息输入所述第一预设算法,以分别计算得到所述第一外部向量和所述第一内部向量。
3.根据权利要求1所述的方法,其特征在于,所述基于第二粒度分割所述第一序列,以获取第二序列,包括:
确定所述第一序列中的多个元素;
确定所述第二粒度指示的划分单元大小;
根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列。
4.根据权利要求3所述的方法,其特征在于,所述确定所述第一序列中的多个元素,包括:
获取预设的特征元素集合;
根据所述特征元素集合在所述第一序列中进行遍历,以标记出特征元素;
所述根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列,包括:
根据所述第二粒度指示的划分单元大小对所述特征元素进行分割,以获取第二序列。
5.根据权利要求3所述的方法,其特征在于,所述根据所述第二粒度指示的划分单元大小对所述第一序列的多个元素进行分割,以获取第二序列,包括:
确定所述第一序列中用于指示虚词的元素位置;
根据所述第二粒度指示的划分单元大小对所述第一序列的非虚词部分进行分割,以获取第二序列,所述非虚词部分为除去所述指示虚词的元素的部分。
6.根据权利要求1所述的方法,其特征在于,所述根据第一预设算法对所述初始向量进行计算,以得到第一外部向量和第一内部向量之后,所述方法还包括:
根据预设规则获取第三粒度,所述预设规则基于语义的划分规则设定;
基于所述第三粒度分割所述第一序列,以获取第三序列,所述第三粒度的划分单元大小小于所述第一粒度的划分单元大小;
采用所述第三序列中的元素作为分隔点切割所述第一序列,以得到第二外部向量和第二内部向量;
根据第二预设算法分别计算所述第二外部向量和所述第二内部向量,所述第二预设算法基于所述初始向量与所述第三序列中的元素的相似性设定;
所述利用连接函数组合所述初始向量、所述第一外部向量和所述第一内部向量,以得到所述待检测语句对的多粒度向量表示,包括:
利用连接函数组合所述初始向量、所述第一外部向量、所述第一内部向量、所述第二外部向量和所述第二内部向量,以得到所述待检测语句对的多粒度向量表示;
所述将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,包括:
将所述初始向量、所述第二外部向量、所述第二内部向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
7.根据权利要求1所述的方法,其特征在于,所述语义匹配的方法应用于终端设备,所述终端设备为区块链节点中的区块节点设备。
8.一种语义匹配的装置,其特征在于,包括:
分割单元,用于基于第一粒度分割待检测语句对,以获取第一序列;
匹配单元,用于将所述第一序列转化为向量表示并输入第一深度神经网络,以得到初始向量;
所述分割单元,还用于基于第二粒度分割所述第一序列,以获取第二序列,所述第二粒度的划分单元大小小于所述第一粒度的划分单元大小,所述第二序列中的元素与所述第一序列中的元素具有对应关系;
计算单元,用于根据第一预设算法对所述初始向量进行计算,以得到第一外部向量和第一内部向量,所述第一预设算法包括采用所述第二序列中的元素作为分隔点切割所述第一序列,所述第一预设算法基于所述初始向量与所述第二序列中的元素向量的相似性设定,所述第一内部向量基于所述分隔点计算所得,所述第一外部向量基于与所述分隔点相邻的元素计算所得,所述第一预设算法的计算过程基于所述第一外部向量的权重信息和所述第一内部向量的权重信息进行;
所述匹配单元,还用于将所述初始向量、所述第一外部向量和所述第一内部向量输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度,所述待检测语句对的相似度用于指示语义匹配的结果;
所述匹配单元,还用于利用连接函数组合所述初始向量、所述第一外部向量和所述第一内部向量,以得到所述待检测语句对的多粒度向量表示;
将所述多粒度向量表示输入第二深度神经网络进行学习,以得到所述待检测语句对的相似度。
9.一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述权利要求1至7任一项所述的语义匹配方法。
CN201910871549.0A 2019-09-16 2019-09-16 一种语义匹配的方法以及相关装置 Active CN110633360B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910871549.0A CN110633360B (zh) 2019-09-16 2019-09-16 一种语义匹配的方法以及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910871549.0A CN110633360B (zh) 2019-09-16 2019-09-16 一种语义匹配的方法以及相关装置

Publications (2)

Publication Number Publication Date
CN110633360A CN110633360A (zh) 2019-12-31
CN110633360B true CN110633360B (zh) 2023-06-20

Family

ID=68971378

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910871549.0A Active CN110633360B (zh) 2019-09-16 2019-09-16 一种语义匹配的方法以及相关装置

Country Status (1)

Country Link
CN (1) CN110633360B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111859909B (zh) * 2020-07-10 2022-05-31 山西大学 一种语义场景一致性识别阅读机器人
CN112434514B (zh) * 2020-11-25 2022-06-21 重庆邮电大学 基于多粒度多通道的神经网络的语义匹配方法、装置及计算机设备
CN113695058B (zh) * 2021-10-28 2022-03-15 南通金驰机电有限公司 换热器生产用智能废料破碎装置自保护方法
CN114201955A (zh) * 2021-11-29 2022-03-18 北京智美互联科技有限公司 互联网流量平台监测方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299262A (zh) * 2018-10-09 2019-02-01 中山大学 一种融合多粒度信息的文本蕴含关系识别方法
WO2019072166A1 (zh) * 2017-10-10 2019-04-18 腾讯科技(深圳)有限公司 语义分析方法、装置和存储介质
CN109670177A (zh) * 2018-12-20 2019-04-23 翼健(上海)信息科技有限公司 一种基于lstm实现医学语义归一化的控制方法及控制装置
CN109857844A (zh) * 2018-12-29 2019-06-07 北京三快在线科技有限公司 基于点餐对话文本的意图识别方法、装置、电子设备
CN109947919A (zh) * 2019-03-12 2019-06-28 北京字节跳动网络技术有限公司 用于生成文本匹配模型的方法和装置
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019072166A1 (zh) * 2017-10-10 2019-04-18 腾讯科技(深圳)有限公司 语义分析方法、装置和存储介质
CN109299262A (zh) * 2018-10-09 2019-02-01 中山大学 一种融合多粒度信息的文本蕴含关系识别方法
CN109670177A (zh) * 2018-12-20 2019-04-23 翼健(上海)信息科技有限公司 一种基于lstm实现医学语义归一化的控制方法及控制装置
CN109857844A (zh) * 2018-12-29 2019-06-07 北京三快在线科技有限公司 基于点餐对话文本的意图识别方法、装置、电子设备
CN109947919A (zh) * 2019-03-12 2019-06-28 北京字节跳动网络技术有限公司 用于生成文本匹配模型的方法和装置
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
融合Attention多粒度句子交互自然语言推理研究;程淑玉;郭泽颖;刘威;印鉴;;小型微型计算机系统(第06期);全文 *

Also Published As

Publication number Publication date
CN110633360A (zh) 2019-12-31

Similar Documents

Publication Publication Date Title
CN110633360B (zh) 一种语义匹配的方法以及相关装置
CN108363790B (zh) 用于对评论进行评估的方法、装置、设备和存储介质
CN113094200B (zh) 一种应用程序的故障预测方法和装置
CN107729322B (zh) 分词方法及装置、建立句子向量生成模型方法及装置
CN110472090B (zh) 基于语义标签的图像检索方法以及相关装置、存储介质
CN109376222B (zh) 问答匹配度计算方法、问答自动匹配方法及装置
CN113011189A (zh) 开放式实体关系的抽取方法、装置、设备及存储介质
CN110795911A (zh) 在线文本标签的实时添加方法、装置及相关设备
CN113032528B (zh) 案件分析方法、装置、设备及存储介质
EP4113357A1 (en) Method and apparatus for recognizing entity, electronic device and storage medium
US11461317B2 (en) Method, apparatus, system, device, and storage medium for answering knowledge questions
CN113656547B (zh) 文本匹配方法、装置、设备及存储介质
CN113283675B (zh) 指标数据分析方法、装置、设备及存储介质
CN110866119A (zh) 一种文章质量的确定方法、装置、电子设备及存储介质
CN113435196B (zh) 意图识别方法、装置、设备及存储介质
CN111813923A (zh) 文本摘要方法、电子设备及存储介质
CN114090735A (zh) 一种文本匹配方法、装置、设备及存储介质
CN113792153A (zh) 问答推荐方法及其装置
CN113343692B (zh) 搜索意图的识别方法、模型训练方法、装置、介质及设备
CN111368066B (zh) 获取对话摘要的方法、装置和计算机可读存储介质
CN113268597B (zh) 文本分类方法、装置、设备及存储介质
CN110659392A (zh) 检索方法及装置、存储介质
CN116601648A (zh) 备选软标签生成
CN111783425B (zh) 基于句法分析模型的意图识别方法及相关装置
CN113420545B (zh) 摘要生成方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210128

Address after: 201200 5th floor, area C, 1801 Hongmei Road, Minhang District, Shanghai

Applicant after: Tencent Technology (Shanghai) Co.,Ltd.

Address before: 518057 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 floors

Applicant before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd.

GR01 Patent grant
GR01 Patent grant