CN111639502A - 文本语义匹配方法、装置、计算机设备及存储介质 - Google Patents
文本语义匹配方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN111639502A CN111639502A CN202010456498.8A CN202010456498A CN111639502A CN 111639502 A CN111639502 A CN 111639502A CN 202010456498 A CN202010456498 A CN 202010456498A CN 111639502 A CN111639502 A CN 111639502A
- Authority
- CN
- China
- Prior art keywords
- semantic vector
- vector
- semantic
- text data
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了文本语义匹配方法、装置、计算机设备及存储介质,涉及语义解析技术领域,包括获取与接收的待回答文本数据对应的当前语义向量;获取各提问文本数据分别对应的语义向量以组成语义向量集合,获取当前语义向量与语义向量集合中各语义向量的相似度;若语义向量集合中各语义向量与当前语义向量的相似度中无超出相似度阈值对应的目标语义向量,获取待回答文本数据对应的待编码向量以输入至编码器得到编码向量;获取编码向量与语义向量集合中各语义向量的相似度,以获取相似度为最大值对应的第一最佳候选语义向量,获取对应的第一答复文本数据。该方法实现了对文本语义的准确获取,且由于事先将文本转化为语义向量,提高了文本的匹配效率。
Description
技术领域
本发明涉及语义解析技术领域,尤其涉及一种文本语义匹配方法、装置、计算机设备及存储介质。
背景技术
在智能问答系统中,文本匹配(TextMatching)模块是其重要的组成构件之一。现有的技术方案主要包括基于特征的文本匹配、基于表示型(Representation-Based)的文本匹配和基于交互型(Interaction-Based)的文本匹配。
目前,基于特征的文本匹配方法主要是利用TF-IDF(即词频-逆文本频率指数)、BM25(基于概率检索模型提出的算法)、LDA(是一种文档主题生成模型)等方法,提取文本对中的关键词特征,并映射为同一语义空间中的两个向量,然后采用向量距离、余弦相似度、或者通过简单的线性模型来计算文本对(在问答系统中一般是Q-Q对)匹配程度。该方法其本质是基于字面的匹配,当文本中存在语言多义同义时,则文本匹配结果准确率低。
基于表示型的文本匹配,分别对两个句子进行编码,无需考虑两个句子之间词和词的关系,如微软公司提出的DSSM模型等,由于其编码了一些与文本意义不相关的信息,存在信息冗余和语义偏移问题。
基于交互型的文本匹配不直接学习问题对(Q-Q Pair)的语义表示,而是直接对句间的匹配模式进行建模,在一定程度上解决了语义偏移问题,但是需要进行实时计算,存在计算性能上的问题,在线计算代价大,而且此类模型忽略了句法、句间对照等全局信息,无法由局部匹配信息刻画全局匹配信息。
发明内容
本发明实施例提供了一种文本语义匹配方法、装置、计算机设备及存储介质,旨在解决现有技术的智能问答系统中采用基于特征的文本匹配、基于表示型的文本匹配或基于交互型的文本匹配时,对所咨询问题的文本进行答案匹配时,匹配效率低下,且匹配结果准确率低的问题。
第一方面,本发明实施例提供了一种文本语义匹配方法,其包括:
判断是否接收到用户端发送的待回答文本数据;
若接收到所述待回答文本数据,获取与所述待回答文本数据对应的当前语义向量;
获取已存储知识库中的各提问文本数据分别对应的语义向量,以组成语义向量集合,获取所述当前语义向量与所述语义向量集合中各语义向量的相似度;
判断所述语义向量集合中各语义向量与所述当前语义向量的相似度中是否有超出预先设置的相似度阈值对应的目标语义向量;
若所述语义向量集合中各语义向量与所述当前语义向量的相似度中无超出所述相似度阈值对应的目标语义向量,获取所述待回答文本数据对应的待编码向量,以输入至基于多头注意力机制的编码器得到编码向量;以及
获取所述编码向量与所述语义向量集合中各语义向量的相似度,以获取所述语义向量集合中各语义向量与所述编码向量之间的相似度为最大值对应的第一最佳候选语义向量,获取与所述第一最佳候选语义向量对应的第一答复文本数据并发送至用户端。
第二方面,本发明实施例提供了一种文本语义匹配装置,其包括:
文本数据接收判断单元,用于判断是否接收到用户端发送的待回答文本数据;
当前语义向量获取单元,用于若接收到所述待回答文本数据,获取与所述待回答文本数据对应的当前语义向量;
向量相似度计算单元,用于获取已存储知识库中的各提问文本数据分别对应的语义向量,以组成语义向量集合,获取所述当前语义向量与所述语义向量集合中各语义向量的相似度;
目标语义向量判断单元,用于判断所述语义向量集合中各语义向量与所述当前语义向量的相似度中是否有超出预先设置的相似度阈值对应的目标语义向量;
编码向量获取单元,用于若所述语义向量集合中各语义向量与所述当前语义向量的相似度中无超出所述相似度阈值对应的目标语义向量,获取所述待回答文本数据对应的待编码向量,以输入至基于多头注意力机制的编码器得到编码向量;以及
第一数据获取单元,用于获取所述编码向量与所述语义向量集合中各语义向量的相似度,以获取所述语义向量集合中各语义向量与所述编码向量之间的相似度为最大值对应的第一最佳候选语义向量,获取与所述第一最佳候选语义向量对应的第一答复文本数据并发送至用户端。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的文本语义匹配方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的文本语义匹配方法。
本发明实施例提供了一种文本语义匹配方法、装置、计算机设备及存储介质,包括判断是否接收到用户端发送的待回答文本数据;若接收到所述待回答文本数据,获取与所述待回答文本数据对应的当前语义向量;获取已存储知识库中的各提问文本数据分别对应的语义向量,以组成语义向量集合,获取所述当前语义向量与所述语义向量集合中各语义向量的相似度;判断所述语义向量集合中各语义向量与所述当前语义向量的相似度中是否有超出预先设置的相似度阈值对应的目标语义向量;若所述语义向量集合中各语义向量与所述当前语义向量的相似度中无超出所述相似度阈值对应的目标语义向量,获取所述待回答文本数据对应的待编码向量,以输入至基于多头注意力机制的编码器得到编码向量;以及获取所述编码向量与所述语义向量集合中各语义向量的相似度,以获取所述语义向量集合中各语义向量与所述编码向量之间的相似度为最大值对应的第一最佳候选语义向量,获取与所述第一最佳候选语义向量对应的第一答复文本数据并发送至用户端。该方法实现了对文本语义的准确获取,而且由于事先将文本都转化为语义向量,提高了文本的匹配效率。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的文本语义匹配方法的应用场景示意图;
图2为本发明实施例提供的文本语义匹配方法的流程示意图;
图3为本发明实施例提供的文本语义匹配方法的子流程示意图;
图4为本发明实施例提供的文本语义匹配方法的另一子流程示意图;
图5为本发明实施例提供的文本语义匹配方法的另一子流程示意图;
图6为本发明实施例提供的文本语义匹配装置的示意性框图;
图7为本发明实施例提供的文本语义匹配装置的子单元示意性框图;
图8为本发明实施例提供的文本语义匹配装置的另一子单元示意性框图;
图9为本发明实施例提供的文本语义匹配装置的另一子单元示意性框图;
图10为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的文本语义匹配方法的应用场景示意图;图2为本发明实施例提供的文本语义匹配方法的流程示意图,该文本语义匹配方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S110~S160。
S110、判断是否接收到用户端发送的待回答文本数据。
在本实施例中,服务器可以向各用户端提供智能问答服务,一般是用户端与服务器建立连接后,用户端在与服务器对应的用户交互界面上,可以输入待咨询的问题(这一场景就是智能机器人问答的场景),之后服务器根据待咨询的问题得到对应的答复文本后,反馈至用户端的用户交互界面上。
S120、若接收到所述待回答文本数据,获取与所述待回答文本数据对应的当前语义向量。
在本实施例中,服务器接收到了待回答文本数据时,一般是原始的问题对应的各字符组成的文本数据,此时一般是将所述待回答文本数据转化为语义向量。通过这一转换,便于后续在系统中进行语义匹配。
若服务器未接收到用户端发送的待回答文本数据,则在预设的延迟时间(如10s)后继续返回执行步骤S110即可。
在一实施例中,如图3所示,步骤S120包括:
S121、将所述待回答文本数据通过基于概率统计分词模型进行分词,得到与所述待回答文本数据对应的分词结果;
S122、通过词频-逆文本频率指数模型,抽取所述分词结果按词频-逆文本频率指数降序排序后未超出预设的排名阈值的关键词,以组成分词关键词集合;
S123、通过Word2Vec模型获取所述分词关键词集合中各关键词对应的词向量,以由所述分词关键词集合中各关键词对应的词向量及各词向量对应的权重,获取与所述待回答文本数据对应的当前语义向量。
在本实施例中,通过基于概率统计分词模型进行分词时,例如令C=C1C2...Cm,C是待切分的汉字串,令W=W1W2...Wn,W是切分的结果,Wa,Wb,……,Wk是C的所有可能的切分方案。那么,基于概率统计分词模型就是能够找到目的词串W,使得W满足:P(W|C)=MAX(P(Wa|C),P(Wb|C)...P(Wk|C))的分词模型,上述分词模型得到的词串W即估计概率为最大之词串。通过基于概率统计分词模型即可对所述待回答文本数据进行分词,从而得到与所述待回答文本数据对应的分词结果。
之后使用词频-逆文本频率指数模型抽取分词结果中的关键词,其中词频-逆文本频率指数模型即TF-IDF模型,TF-IDF是Term Frequency–Inverse Document Frequency的简写。抽取所述分词结果按词频-逆文本频率指数降序排序后位于预设的排名值之前的关键词,以组成关键词集合。通过词频-逆文本频率指数模型能准确提取文本中的核心关键词,无需人工阅读后提取。
最后通过Word2Vec模型获取所述分词关键词集合中各关键词对应的词向量,Word2Vec是从大量文本语料中以无监督的方式学习语义知识的一种模型。将所述分词关键词集合中各关键词转化成对应的词向量后,根据各词向量对应的权重,即可将所述分词关键词集合中各关键词对应的词向量进行加权求和而得到与所述待回答文本数据对应的当前语义向量。通过上述过程即可将所述待回答文本数据转化为一个多维行向量或多维列向量,实现了对所述待回答文本数据的量化转化。
S130、获取已存储知识库中的各提问文本数据分别对应的语义向量,以组成语义向量集合,获取所述当前语义向量与所述语义向量集合中各语义向量的相似度。
在本实施例中,为了提高获取近似语义向量的速度,可将在服务器中存储的各提问文本数据均事先转化为语义向量,此时一旦获取了当前语义向量,则可与服务器中已存储的语义向量集合中各语义向量进行相似度的计算。在具体的问答场景下,一旦获取了当前语义向量后,后续直接进行向量的运算得到相似度,这样避免了句向量实时生成的开销,大大缩短了问答系统的响应时间。
其中,计算两个向量之间的相似度可采用向量间欧式距离、余弦相似度、皮尔逊相关系数。上述几种相似度的计算过程均为现有技术,此处不展开论述。通过计算上述参数,即可快速获取两个向量之间的相似度,以判断两者是否为近似语义。
S140、判断所述语义向量集合中各语义向量与所述当前语义向量的相似度中是否有超出预先设置的相似度阈值对应的目标语义向量。
在本实施例中,为了更精准的获取与当前语义向量最接近的目标语义向量,此时需先设置一个相似度阈值。例如,采用向量间欧式距离来作为两个语义向量之间相似度的计算方法,此时可以设置相似度阈值为0.8。此时,即判断所述语义向量集合中各语义向量与所述当前语义向量的相似度中是否有超出0.8对应的目标语义向量。两个语义向量之间的相似度超过0.8,表示两者语义近似。
S150、若所述语义向量集合中各语义向量与所述当前语义向量的相似度中无超出所述相似度阈值对应的目标语义向量,获取所述待回答文本数据对应的待编码向量,以输入至基于多头注意力机制的编码器得到编码向量。
在本实施例中,若所述语义向量集合中各语义向量与所述当前语义向量的相似度中无超出所述相似度阈值对应的目标语义向量,表示所述语义向量集合中各语义向量与所述当前语义向量均不接近,此时为了更精准的理解待回答文本数据,下面结合位置编码来进行。由位置编码和词向量结合作为所述待回答文本数据对应的待编码向量,从而输入至所述编码器,得到与所述待回答文本数据对应的编码向量。
在一实施例中,如图4所示,步骤S150包括:
S151、获取所述待回答文本数据进行关键词抽取对应得到的当前关键词集合;
S152、获取所述关键词集合中各关键词对应的位置编码和词向量,以由各关键词对应的位置编码和词向量组成与各关键词对应的待编码向量;
S153、将所述关键词集合中各关键词对应的待编码向量输入至所述编码器,得到与所述待回答文本数据对应的编码向量。
在本实施例中,当需使用翻译模型(即Transformer模型)中的编码器对所述待回答文本数据进行编码得到语义特征向量时,需要构造一个跟当前语义向量或者是所述关键词集合中各关键词对应的词向量维度一样的位置编码向量。由于翻译模型中的编码器中使用的注意力机制是不会保留各关键词的位置信息,此时为了更综合的考虑关键词位置对获取待回答文本数据对应的语义特征向量,可以获取所述关键词集合中各关键词对应的位置编码。
在一实施例中,步骤S152包括:
通过正余弦位置编码来获取所述关键词集合中各关键词对应的位置编码。
其中,通过正余弦位置编码来获取所述关键词集合中各关键词对应的位置编码时参考以下公式:
上述式子中,PE为二维矩阵,大小跟输入词向量的维度一样,行表示词语,列表示词向量;pos表示词语在句子中的位置;dmodel表示词向量的维度;i表示词向量的位置。因此,上述公式表示在每个词语的词向量的偶数位置添加sin变量,奇数位置添加cos变量,以此来填满整个PE矩阵,然后与所述关键词集合中各关键词对应的词向量相结合,这样便完成位置编码的引入。
具体计算所述关键词集合中各关键词对应的词向量后,同时也得到了个关键词对应的位置编码,将各关键词对应的词向量与位置编码进行向量相加,及得到了与各关键词对应的待编码向量。
当获取了所述关键词集合中各关键词对应的待编码向量后,输入至基于多头注意力机制的编码器,得到与所述待回答文本数据对应的编码向量。
在一实施例中,如图5所示,步骤S153包括:
S1531、获取所述关键词集合中各关键词对应的待编码向量分别对应的自注意力向量;
S1532、将所述关键词集合中各关键词对应的待编码向量对应的自注意力向量进行求和后进行归一化,得到与各待编码向量对应的归一化编码向量;
S1533、将与各待编码向量对应的归一化编码向量均输入至前馈神经网络,得到与各归一化编码向量对应的编码数据向量;
S1534、将各归一化编码向量对应的编码数据向量进行求和后进行归一化,得到对应的编码向量。
在本实施例中,计算自注意力向量的第一步就是从每个编码器的输入向量(每个关键词的词向量)中生成三个向量。也就是说对于每个关键词,均创造一个查询向量、一个键向量和一个值向量。这三个向量是通过词嵌入与三个权重矩阵后相乘创建的。其中,自注意力机制采用的是基于多头注意力机制。
通过上述处理过程,即充分考虑到每个词向量的具体位置关系对语义理解的影响,所得到编码向量与所述待回答文本数据相对应,其可以理解结合了词的位置关系的一种语义向量。采用自注意力机制和多头注意力机制,抽取句子内部的多方面的语义特征信息,相比于LSTM模型(即长短期记忆网络),注意力机制可对句子中的关键信息进行加权,从而在一定程度上减少了对无关信息的编码。
S160、获取所述编码向量与所述语义向量集合中各语义向量的相似度,以获取所述语义向量集合中各语义向量与所述编码向量之间的相似度为最大值对应的第一最佳候选语义向量,获取与所述第一最佳候选语义向量对应的第一答复文本数据并发送至用户端。
在本实施例中,当获取了所述待回答文本数据相对应的编码向量,此时再计算获取所述编码向量与所述语义向量集合中各语义向量的相似度。同样的,计算向量间的相似度,可以采用向量间欧式距离、余弦相似度、皮尔逊相关系数。此时,直接获取所述语义向量集合中各语义向量与所述编码向量之间的相似度为最大值对应的第一最佳候选语义向量,以第一最佳候选语义向量对应的第一答复文本数据作为所述待回答文本数据相对应的答复文本数据。通过上述方式,能更精确的获取文本的语义,从而推荐更为精准的答复文本数据。
在一实施例中,如图2所示,步骤S140之后还包括:
S170、若所述语义向量集合中各语义向量与所述当前语义向量的相似度中有超出所述相似度阈值对应的目标语义向量,获取对应的目标语义向量以组成目标语义向量集合;
S180、获取所述目标语义向量集合中各语义向量与所述当前语义向量的相似度为最大值对应的语义向量,以作为第二最佳候选语义向量,获取与所述第二最佳候选语义向量对应的第二答复文本数据并发送至用户端。
在本实施例中,在所述语义向量集合中各语义向量与所述当前语义向量的相似度中有超出所述相似度阈值对应的目标语义向量,表示语义向量集合中已经有与所述当前语义向量十分接近的向量,此时选取满足条件的目标语义向量组成一个目标语义向量集合。此时满足上述条件时,无需执行步骤S150-S160,通过执行步骤S180即可。
其中,一般选取目标语义向量集合中与所述当前语义向量的相似度为最大值对应的语义向量,作为第二最佳候选语义向量,以第二最佳候选语义向量对应的第二答复文本数据作为所述待回答文本数据相对应的答复文本数据。
该方法实现了对文本语义的准确获取,而且由于事先将文本都转化为语义向量,提高了文本的匹配效率。
本发明实施例还提供一种文本语义匹配装置,该文本语义匹配装置用于执行前述文本语义匹配方法的任一实施例。具体地,请参阅图6,图6是本发明实施例提供的文本语义匹配装置的示意性框图。该文本语义匹配装置100可以配置于服务器中。
如图6所示,文本语义匹配装置100包括:文本数据接收判断单元110、当前语义向量获取单元120、向量相似度计算单元130、目标语义向量判断单元140、编码向量获取单元150、第一数据获取单元160。
文本数据接收判断单元110,用于判断是否接收到用户端发送的待回答文本数据。
在本实施例中,服务器可以向各用户端提供智能问答服务,一般是用户端与服务器建立连接后,用户端在与服务器对应的用户交互界面上,可以输入待咨询的问题(这一场景就是智能机器人问答的场景),之后服务器根据待咨询的问题得到对应的答复文本后,反馈至用户端的用户交互界面上。
当前语义向量获取单元120,用于若接收到所述待回答文本数据,获取与所述待回答文本数据对应的当前语义向量。
在本实施例中,服务器接收到了待回答文本数据时,一般是原始的问题对应的各字符组成的文本数据,此时一般是将所述待回答文本数据转化为语义向量。通过这一转换,便于后续在系统中进行语义匹配。
在一实施例中,如图7所示,当前语义向量获取单元120包括:
分词单元121,用于将所述待回答文本数据通过基于概率统计分词模型进行分词,得到与所述待回答文本数据对应的分词结果;
分词关键词集合获取单元122,用于通过词频-逆文本频率指数模型,抽取所述分词结果按词频-逆文本频率指数降序排序后未超出预设的排名阈值的关键词,以组成分词关键词集合;
语义向量计算单元123,用于通过Word2Vec模型获取所述分词关键词集合中各关键词对应的词向量,以由所述分词关键词集合中各关键词对应的词向量及各词向量对应的权重,获取与所述待回答文本数据对应的当前语义向量。
在本实施例中,通过基于概率统计分词模型进行分词时,例如令C=C1C2...Cm,C是待切分的汉字串,令W=W1W2...Wn,W是切分的结果,Wa,Wb,……,Wk是C的所有可能的切分方案。那么,基于概率统计分词模型就是能够找到目的词串W,使得W满足:P(W|C)=MAX(P(Wa|C),P(Wb|C)...P(Wk|C))的分词模型,上述分词模型得到的词串W即估计概率为最大之词串。通过基于概率统计分词模型即可对所述待回答文本数据进行分词,从而得到与所述待回答文本数据对应的分词结果。
之后使用词频-逆文本频率指数模型抽取分词结果中的关键词,其中词频-逆文本频率指数模型即TF-IDF模型,TF-IDF是Term Frequency–Inverse Document Frequency的简写。抽取所述分词结果按词频-逆文本频率指数降序排序后位于预设的排名值之前的关键词,以组成关键词集合。通过词频-逆文本频率指数模型能准确提取文本中的核心关键词,无需人工阅读后提取。
最后通过Word2Vec模型获取所述分词关键词集合中各关键词对应的词向量,Word2Vec是从大量文本语料中以无监督的方式学习语义知识的一种模型。将所述分词关键词集合中各关键词转化成对应的词向量后,根据各词向量对应的权重,即可将所述分词关键词集合中各关键词对应的词向量进行加权求和而得到与所述待回答文本数据对应的当前语义向量。通过上述过程即可将所述待回答文本数据转化为一个多维行向量或多维列向量,实现了对所述待回答文本数据的量化转化。
向量相似度计算单元130,用于获取已存储知识库中的各提问文本数据分别对应的语义向量,以组成语义向量集合,获取所述当前语义向量与所述语义向量集合中各语义向量的相似度。
在本实施例中,为了提高获取近似语义向量的速度,可将在服务器中存储的各提问文本数据均事先转化为语义向量,此时一旦获取了当前语义向量,则可与服务器中已存储的语义向量集合中各语义向量进行相似度的计算。在具体的问答场景下,一旦获取了当前语义向量后,后续直接进行向量的运算得到相似度,这样避免了句向量实时生成的开销,大大缩短了问答系统的响应时间。
其中,计算两个向量之间的相似度可采用向量间欧式距离、余弦相似度、皮尔逊相关系数。上述几种相似度的计算过程均为现有技术,此处不展开论述。通过计算上述参数,即可快速获取两个向量之间的相似度,以判断两者是否为近似语义。
目标语义向量判断单元140,用于判断所述语义向量集合中各语义向量与所述当前语义向量的相似度中是否有超出预先设置的相似度阈值对应的目标语义向量。
在本实施例中,为了更精准的获取与当前语义向量最接近的目标语义向量,此时需先设置一个相似度阈值。例如,采用向量间欧式距离来作为两个语义向量之间相似度的计算方法,此时可以设置相似度阈值为0.8。此时,即判断所述语义向量集合中各语义向量与所述当前语义向量的相似度中是否有超出0.8对应的目标语义向量。两个语义向量之间的相似度超过0.8,表示两者语义近似。
编码向量获取单元150,用于若所述语义向量集合中各语义向量与所述当前语义向量的相似度中无超出所述相似度阈值对应的目标语义向量,获取所述待回答文本数据对应的待编码向量,以输入至基于多头注意力机制的编码器得到编码向量。
在本实施例中,若所述语义向量集合中各语义向量与所述当前语义向量的相似度中无超出所述相似度阈值对应的目标语义向量,表示所述语义向量集合中各语义向量与所述当前语义向量均不接近,此时为了更精准的理解待回答文本数据,下面结合位置编码来进行。由位置编码和词向量结合作为所述待回答文本数据对应的待编码向量,从而输入至所述编码器,得到与所述待回答文本数据对应的编码向量。
在一实施例中,如图8所示,编码向量获取单元150包括:
当前关键词集合获取单元151,用于获取所述待回答文本数据进行关键词抽取对应得到的当前关键词集合;
待编码向量获取单元152,用于获取所述关键词集合中各关键词对应的位置编码和词向量,以由各关键词对应的位置编码和词向量组成与各关键词对应的待编码向量;
编码单元153、将所述关键词集合中各关键词对应的待编码向量输入至所述编码器,得到与所述待回答文本数据对应的编码向量。
在本实施例中,当需使用翻译模型(即Transformer模型)中的编码器对所述待回答文本数据进行编码得到语义特征向量时,需要构造一个跟当前语义向量或者是所述关键词集合中各关键词对应的词向量维度一样的位置编码向量。由于翻译模型中的编码器中使用的注意力机制是不会保留各关键词的位置信息,此时为了更综合的考虑关键词位置对获取待回答文本数据对应的语义特征向量,可以获取所述关键词集合中各关键词对应的位置编码。
在一实施例中,待编码向量获取单元152还用于:
通过正余弦位置编码来获取所述关键词集合中各关键词对应的位置编码。
其中,通过正余弦位置编码来获取所述关键词集合中各关键词对应的位置编码时参考以下公式:
上述式子中,PE为二维矩阵,大小跟输入词向量的维度一样,行表示词语,列表示词向量;pos表示词语在句子中的位置;dmodel表示词向量的维度;i表示词向量的位置。因此,上述公式表示在每个词语的词向量的偶数位置添加sin变量,奇数位置添加cos变量,以此来填满整个PE矩阵,然后与所述关键词集合中各关键词对应的词向量相结合,这样便完成位置编码的引入。
具体计算所述关键词集合中各关键词对应的词向量后,同时也得到了个关键词对应的位置编码,将各关键词对应的词向量与位置编码进行向量相加,及得到了与各关键词对应的待编码向量。
当获取了所述关键词集合中各关键词对应的待编码向量后,输入至基于多头注意力机制的编码器,得到与所述待回答文本数据对应的编码向量。
在一实施例中,如图9所示,编码单元153包括:
自注意力向量获取单元1531,用于获取所述关键词集合中各关键词对应的待编码向量分别对应的自注意力向量;
向量归一化单元1532,用于将所述关键词集合中各关键词对应的待编码向量对应的自注意力向量进行求和后进行归一化,得到与各待编码向量对应的归一化编码向量;
编码数据向量获取单元1533,用于将与各待编码向量对应的归一化编码向量均输入至前馈神经网络,得到与各归一化编码向量对应的编码数据向量;
编码数据向量求和单元1534,用于将各归一化编码向量对应的编码数据向量进行求和后进行归一化,得到对应的编码向量。
在本实施例中,计算自注意力向量的第一步就是从每个编码器的输入向量(每个关键词的词向量)中生成三个向量。也就是说对于每个关键词,均创造一个查询向量、一个键向量和一个值向量。这三个向量是通过词嵌入与三个权重矩阵后相乘创建的。其中,自注意力机制采用的是基于多头注意力机制。
通过上述处理过程,即充分考虑到每个词向量的具体位置关系对语义理解的影响,所得到编码向量与所述待回答文本数据相对应,其可以理解结合了词的位置关系的一种语义向量。采用自注意力机制和多头注意力机制,抽取句子内部的多方面的语义特征信息,相比于LSTM模型(即长短期记忆网络),注意力机制可对句子中的关键信息进行加权,从而在一定程度上减少了对无关信息的编码。
第一数据获取单元160,用于获取所述编码向量与所述语义向量集合中各语义向量的相似度,以获取所述语义向量集合中各语义向量与所述编码向量之间的相似度为最大值对应的第一最佳候选语义向量,获取与所述第一最佳候选语义向量对应的第一答复文本数据并发送至用户端。
在本实施例中,当获取了所述待回答文本数据相对应的编码向量,此时再计算获取所述编码向量与所述语义向量集合中各语义向量的相似度。同样的,计算向量间的相似度,可以采用向量间欧式距离、余弦相似度、皮尔逊相关系数。此时,直接获取所述语义向量集合中各语义向量与所述编码向量之间的相似度为最大值对应的第一最佳候选语义向量,以第一最佳候选语义向量对应的第一答复文本数据作为所述待回答文本数据相对应的答复文本数据。通过上述方式,能更精确的获取文本的语义,从而推荐更为精准的答复文本数据。
在一实施例中,如图6所示,文本语义匹配装置100还包括:
目标语义向量集合获取单元170,用于若所述语义向量集合中各语义向量与所述当前语义向量的相似度中有超出所述相似度阈值对应的目标语义向量,获取对应的目标语义向量以组成目标语义向量集合;
第二数据获取单元180,用于获取所述目标语义向量集合中各语义向量与所述当前语义向量的相似度为最大值对应的语义向量,以作为第二最佳候选语义向量,获取与所述第二最佳候选语义向量对应的第二答复文本数据并发送至用户端。
在本实施例中,在所述语义向量集合中各语义向量与所述当前语义向量的相似度中有超出所述相似度阈值对应的目标语义向量,表示语义向量集合中已经有与所述当前语义向量十分接近的向量,此时选取满足条件的目标语义向量组成一个目标语义向量集合。
其中,一般选取目标语义向量集合中与所述当前语义向量的相似度为最大值对应的语义向量,作为第二最佳候选语义向量,以第二最佳候选语义向量对应的第二答复文本数据作为所述待回答文本数据相对应的答复文本数据。
该装置实现了对文本语义的准确获取,而且由于事先将文本都转化为语义向量,提高了文本的匹配效率。
上述文本语义匹配装置可以实现为计算机程序的形式,该计算机程序可以在如图10所示的计算机设备上运行。
请参阅图10,图10是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图10,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行文本语义匹配方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行文本语义匹配方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图10中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现本发明实施例公开的文本语义匹配方法。
本领域技术人员可以理解,图10中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图10所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现本发明实施例公开的文本语义匹配方法。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种文本语义匹配方法,其特征在于,包括:
判断是否接收到用户端发送的待回答文本数据;
若接收到所述待回答文本数据,获取与所述待回答文本数据对应的当前语义向量;
获取已存储知识库中的各提问文本数据分别对应的语义向量,以组成语义向量集合,获取所述当前语义向量与所述语义向量集合中各语义向量的相似度;
判断所述语义向量集合中各语义向量与所述当前语义向量的相似度中是否有超出预先设置的相似度阈值对应的目标语义向量;
若所述语义向量集合中各语义向量与所述当前语义向量的相似度中无超出所述相似度阈值对应的目标语义向量,获取所述待回答文本数据对应的待编码向量,以输入至基于多头注意力机制的编码器得到编码向量;以及
获取所述编码向量与所述语义向量集合中各语义向量的相似度,以获取所述语义向量集合中各语义向量与所述编码向量之间的相似度为最大值对应的第一最佳候选语义向量,获取与所述第一最佳候选语义向量对应的第一答复文本数据并发送至用户端。
2.根据权利要求1所述的文本语义匹配方法,其特征在于,所述获取所述待回答文本数据对应的待编码向量,以输入至基于多头注意力机制的编码器得到编码向量,包括:
获取所述待回答文本数据进行关键词抽取对应得到的当前关键词集合;
获取所述关键词集合中各关键词对应的位置编码和词向量,以由各关键词对应的位置编码和词向量组成与各关键词对应的待编码向量;
将所述关键词集合中各关键词对应的待编码向量输入至所述编码器,得到与所述待回答文本数据对应的编码向量。
3.根据权利要求1所述的文本语义匹配方法,其特征在于,所述判断所述语义向量集合中各语义向量与所述当前语义向量的相似度中是否有超出预先设置的相似度阈值对应的目标语义向量之后,还包括:
若所述语义向量集合中各语义向量与所述当前语义向量的相似度中有超出所述相似度阈值对应的目标语义向量,获取对应的目标语义向量以组成目标语义向量集合;
获取所述目标语义向量集合中各语义向量与所述当前语义向量的相似度为最大值对应的语义向量,以作为第二最佳候选语义向量,获取与所述第二最佳候选语义向量对应的第二答复文本数据并发送至用户端。
4.根据权利要求1所述的文本语义匹配方法,其特征在于,所述获取与所述待回答文本数据对应的当前语义向量,包括:
将所述待回答文本数据通过基于概率统计分词模型进行分词,得到与所述待回答文本数据对应的分词结果;
通过词频-逆文本频率指数模型,抽取所述分词结果按词频-逆文本频率指数降序排序后未超出预设的排名阈值的关键词,以组成分词关键词集合;
通过Word2Vec模型获取所述分词关键词集合中各关键词对应的词向量,以由所述分词关键词集合中各关键词对应的词向量及各词向量对应的权重,获取与所述待回答文本数据对应的当前语义向量。
5.根据权利要求2所述的文本语义匹配方法,其特征在于,所述获取所述关键词集合中各关键词对应的位置编码和词向量,包括:
通过正余弦位置编码来获取所述关键词集合中各关键词对应的位置编码。
6.根据权利要求2所述的文本语义匹配方法,其特征在于,所述将所述关键词集合中各关键词对应的待编码向量输入至所述编码器,得到与所述待回答文本数据对应的编码向量,包括:
获取所述关键词集合中各关键词对应的待编码向量分别对应的自注意力向量;
将所述关键词集合中各关键词对应的待编码向量对应的自注意力向量进行求和后进行归一化,得到与各待编码向量对应的归一化编码向量;
将与各待编码向量对应的归一化编码向量均输入至前馈神经网络,得到与各归一化编码向量对应的编码数据向量;
将各归一化编码向量对应的编码数据向量进行求和后进行归一化,得到对应的编码向量。
7.一种文本语义匹配装置,其特征在于,包括:
文本数据接收判断单元,用于判断是否接收到用户端发送的待回答文本数据;
当前语义向量获取单元,用于若接收到所述待回答文本数据,获取与所述待回答文本数据对应的当前语义向量;
向量相似度计算单元,用于获取已存储知识库中的各提问文本数据分别对应的语义向量,以组成语义向量集合,获取所述当前语义向量与所述语义向量集合中各语义向量的相似度;
目标语义向量判断单元,用于判断所述语义向量集合中各语义向量与所述当前语义向量的相似度中是否有超出预先设置的相似度阈值对应的目标语义向量;
编码向量获取单元,用于若所述语义向量集合中各语义向量与所述当前语义向量的相似度中无超出所述相似度阈值对应的目标语义向量,获取所述待回答文本数据对应的待编码向量,以输入至基于多头注意力机制的编码器得到编码向量;以及
第一数据获取单元,用于获取所述编码向量与所述语义向量集合中各语义向量的相似度,以获取所述语义向量集合中各语义向量与所述编码向量之间的相似度为最大值对应的第一最佳候选语义向量,获取与所述第一最佳候选语义向量对应的第一答复文本数据并发送至用户端。
8.根据权利要求7所述的文本语义匹配装置,其特征在于,还包括:
目标语义向量集合获取单元,用于若所述语义向量集合中各语义向量与所述当前语义向量的相似度中有超出所述相似度阈值对应的目标语义向量,获取对应的目标语义向量以组成目标语义向量集合;
第二数据获取单元,用于获取所述目标语义向量集合中各语义向量与所述当前语义向量的相似度为最大值对应的语义向量,以作为第二最佳候选语义向量,获取与所述第二最佳候选语义向量对应的第二答复文本数据并发送至用户端。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的文本语义匹配方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至6任一项所述的文本语义匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010456498.8A CN111639502A (zh) | 2020-05-26 | 2020-05-26 | 文本语义匹配方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010456498.8A CN111639502A (zh) | 2020-05-26 | 2020-05-26 | 文本语义匹配方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111639502A true CN111639502A (zh) | 2020-09-08 |
Family
ID=72330900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010456498.8A Pending CN111639502A (zh) | 2020-05-26 | 2020-05-26 | 文本语义匹配方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111639502A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112163083A (zh) * | 2020-10-20 | 2021-01-01 | 珠海格力电器股份有限公司 | 智能问答方法、装置、电子设备和存储介质 |
CN112380869A (zh) * | 2020-11-12 | 2021-02-19 | 平安科技(深圳)有限公司 | 晶体信息检索方法、装置、电子设备及存储介质 |
CN112632910A (zh) * | 2020-12-21 | 2021-04-09 | 北京惠及智医科技有限公司 | 手术编码方法以及电子设备、存储装置 |
CN112926339A (zh) * | 2021-03-09 | 2021-06-08 | 北京小米移动软件有限公司 | 文本相似度确定方法、系统、存储介质以及电子设备 |
CN112989815A (zh) * | 2021-03-23 | 2021-06-18 | 平安国际智慧城市科技股份有限公司 | 基于信息交互的文本相似度识别方法、装置、设备及介质 |
CN113255780A (zh) * | 2021-05-28 | 2021-08-13 | 润联软件系统(深圳)有限公司 | 一种减速箱故障预测方法、装置、计算机设备及存储介质 |
CN113535918A (zh) * | 2021-07-14 | 2021-10-22 | 梁晨 | 预训练对偶注意力神经网络语义推断对话检索方法及系统、检索设备、存储介质 |
CN113988011A (zh) * | 2021-08-19 | 2022-01-28 | 中核核电运行管理有限公司 | 文档内容识别方法及装置 |
CN114461782A (zh) * | 2022-01-13 | 2022-05-10 | 重庆邮电大学 | 一种多特征匹配的文本匹配方法、终端及可读存储介质 |
WO2022121171A1 (zh) * | 2020-12-10 | 2022-06-16 | 平安科技(深圳)有限公司 | 相似文本匹配方法、装置、电子设备及计算机存储介质 |
-
2020
- 2020-05-26 CN CN202010456498.8A patent/CN111639502A/zh active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112163083A (zh) * | 2020-10-20 | 2021-01-01 | 珠海格力电器股份有限公司 | 智能问答方法、装置、电子设备和存储介质 |
CN112163083B (zh) * | 2020-10-20 | 2023-11-03 | 珠海格力电器股份有限公司 | 智能问答方法、装置、电子设备和存储介质 |
CN112380869A (zh) * | 2020-11-12 | 2021-02-19 | 平安科技(深圳)有限公司 | 晶体信息检索方法、装置、电子设备及存储介质 |
WO2022121171A1 (zh) * | 2020-12-10 | 2022-06-16 | 平安科技(深圳)有限公司 | 相似文本匹配方法、装置、电子设备及计算机存储介质 |
CN112632910A (zh) * | 2020-12-21 | 2021-04-09 | 北京惠及智医科技有限公司 | 手术编码方法以及电子设备、存储装置 |
CN112926339A (zh) * | 2021-03-09 | 2021-06-08 | 北京小米移动软件有限公司 | 文本相似度确定方法、系统、存储介质以及电子设备 |
CN112926339B (zh) * | 2021-03-09 | 2024-02-09 | 北京小米移动软件有限公司 | 文本相似度确定方法、系统、存储介质以及电子设备 |
CN112989815A (zh) * | 2021-03-23 | 2021-06-18 | 平安国际智慧城市科技股份有限公司 | 基于信息交互的文本相似度识别方法、装置、设备及介质 |
CN113255780A (zh) * | 2021-05-28 | 2021-08-13 | 润联软件系统(深圳)有限公司 | 一种减速箱故障预测方法、装置、计算机设备及存储介质 |
CN113255780B (zh) * | 2021-05-28 | 2024-05-03 | 润联智能科技股份有限公司 | 一种减速箱故障预测方法、装置、计算机设备及存储介质 |
CN113535918A (zh) * | 2021-07-14 | 2021-10-22 | 梁晨 | 预训练对偶注意力神经网络语义推断对话检索方法及系统、检索设备、存储介质 |
CN113988011A (zh) * | 2021-08-19 | 2022-01-28 | 中核核电运行管理有限公司 | 文档内容识别方法及装置 |
CN114461782A (zh) * | 2022-01-13 | 2022-05-10 | 重庆邮电大学 | 一种多特征匹配的文本匹配方法、终端及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111639502A (zh) | 文本语义匹配方法、装置、计算机设备及存储介质 | |
WO2021143800A1 (en) | System and method for semantic analysis of multimedia data using attention-based fusion network | |
CN109783655B (zh) | 一种跨模态检索方法、装置、计算机设备和存储介质 | |
US20190057164A1 (en) | Search method and apparatus based on artificial intelligence | |
US20220398384A1 (en) | Text extraction method and device, computer readable storage medium and electronic device | |
CN111931517B (zh) | 文本翻译方法、装置、电子设备以及存储介质 | |
CN110532368B (zh) | 问答方法、电子设备及计算机可读存储介质 | |
CN110390049B (zh) | 一种面向软件开发问题的答案自动生成方法 | |
CN113239169A (zh) | 基于人工智能的回答生成方法、装置、设备及存储介质 | |
CN111339424B (zh) | 基于关键词进行搜索的方法、装置、设备及存储介质 | |
CN115470338B (zh) | 一种基于多路召回的多场景智能问答方法和系统 | |
JP2022169743A (ja) | 情報抽出方法、装置、電子機器及び記憶媒体 | |
CN111783478B (zh) | 机器翻译质量估计方法、装置、设备及存储介质 | |
CN115885274A (zh) | 跨模态检索方法、跨模态检索模型的训练方法及相关设备 | |
CN114003682A (zh) | 一种文本分类方法、装置、设备及存储介质 | |
CN113849623A (zh) | 文本视觉问答方法和装置 | |
CN117332112A (zh) | 多模态检索模型训练以及多模态检索方法、电子设备及存储介质 | |
CN111507108B (zh) | 别名生成方法、装置、电子设备及计算机可读存储介质 | |
CN115114493A (zh) | 基于问题匹配的智能问答系统实现方法及装置 | |
CN117194616A (zh) | 一种垂域知识图谱的知识查询方法、装置、计算机设备和存储介质 | |
CN110413750B (zh) | 根据用户问句召回标准问句的方法和装置 | |
CN112632255A (zh) | 一种获取问答结果的方法及装置 | |
CN117009456A (zh) | 医疗查询文本的处理方法、装置、设备、介质和电子产品 | |
CN114510561A (zh) | 答案选择方法、装置、设备及存储介质 | |
CN113468295B (zh) | 主宾对应关系的确定方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |