CN111767375A - 语义召回方法、装置、计算机设备及存储介质 - Google Patents
语义召回方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN111767375A CN111767375A CN202010402690.9A CN202010402690A CN111767375A CN 111767375 A CN111767375 A CN 111767375A CN 202010402690 A CN202010402690 A CN 202010402690A CN 111767375 A CN111767375 A CN 111767375A
- Authority
- CN
- China
- Prior art keywords
- sentence
- candidate
- vector
- vectors
- query data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 239000013598 vector Substances 0.000 claims abstract description 433
- 238000012545 processing Methods 0.000 claims abstract description 66
- 238000005259 measurement Methods 0.000 claims description 24
- 238000013527 convolutional neural network Methods 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 5
- 238000013136 deep learning model Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 206010012601 diabetes mellitus Diseases 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例属于人工智能领域,涉及一种语义召回方法,包括在接收到线上查询数据时,基于句向量生成器获取所述线上查询数据对应的线上句向量;获取存储的候选句向量;基于句向量拼接器匹配所述线上句向量和所述候选句向量,得到所述线上句向量和所述候选句向量的相似度;根据所述相似度对所述候选句向量进行降序排序,并返回排序第一的候选句向量对应的候选问题的答案作为正确答案。本申请还提供一种语义召回装置、计算机设备及存储介质。本申请实现了在不改变原有模型的精度下,将传统模型的表征层和输出层拆分开分别作为句向量生成器和拼接器,提高了模型处理的并发量,提高了模型在处理语料资料时的处理效率及问答匹配的准确率。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种语义召回方法、装置、计算机设备及存储介质。
背景技术
目前,语义召回模型被广泛地应用于AI问答系统中,随着科技的发展,越来越多的地方以AI问答系统来代替人工问答,以提高认为处理效率。其中,语义召回模型主要以传统深度学习模型为主,如CNN、LSTM、ESTM模型等。
然而,随着信息时代的高速发展,模型需要处理的语料数据也越来越庞大,精度也越来越高,覆盖面也越来越广。当前的语义召回模型在处理大量语料数据时,并不能高效处理大量的语料数据,其训练速度慢、收敛时间长并且内存占用大,由此导致语义召回模型在处理语料数据时效率低下的技术问题。
发明内容
本申请实施例的目的在于提出一种语义召回方法、装置、计算机设备及存储介质,旨在解决语义召回模型处理语料数据效率低下的技术问题。
为了解决上述技术问题,本申请实施例提供一种语义召回方法,采用了如下所述的技术方案:
一种语义召回方法,包括以下步骤:
在接收到线上查询数据时,基于句向量生成器获取所述线上查询数据对应的线上句向量;
获取存储的候选句向量;
基于句向量拼接器匹配所述线上句向量和所述候选句向量,得到所述线上句向量和所述候选句向量的相似度;
根据所述相似度对所述候选句向量进行降序排序,并返回排序第一的候选句向量对应的候选问题的答案作为正确答案。
进一步的,所述基于句向量生成器获取所述线上查询数据对应的线上句向量的步骤包括:
基于句向量生成器,获取所述线上查询数据的字向量;
对所述字向量进行多层卷积处理,得到所述线上查询数据的线上句向量。
进一步的,所述基于句向量生成器,获取所述线上查询数据的字向量的步骤包括:
基于句向量生成器的标记解析层对所述线上查询数据中的每个字进行ID化处理,得到所述线上查询数据中的每个字对应的ID;
基于所述句向量生成器的嵌入层对所述ID进行特征编码,得到所述线上查询数据中每个字对应的字向量。
进一步的,所述对所述字向量进行多层卷积处理,得到所述线上查询数据的线上句向量的步骤包括:
基于卷积神经网络对所述字向量进行多层卷积处理,得到所述线上查询数据对应的语义特征;
将每次得到的所述语义特征拼接在一起,得到所述线上查询数据的线上句向量。
进一步的,所述获取存储的候选句向量的步骤包括:
获取问题库中存储的候选问题;
基于所述句向量生成器对所述候选问题进行离线计算,得到所述候选问题对应的候选句向量。
进一步的,所述基于所述句向量生成器对所述候选问题进行离线计算,得到所述候选问题对应的候选句向量的步骤之后,还包括:
获取每个所述候选句向量对应的唯一标识信息;
根据所述标识信息,将所述候选句向量以字典的形式,与所述候选问题关联存储至数据库中。
进一步的,所述基于句向量拼接器匹配所述线上句向量和所述候选句向量,得到所述线上句向量和所述候选句向量的相似度的步骤包括:
计算所述线上句向量和所述候选句向量在乘法、减法和最大值三个衡量维度上的差异特征向量;
将所述三个衡量维度上的差异特征向量拼接在一起,得到最终的差异特征向量;
对所述最终的差异特征向量进行正则化处理,得到处理结果;
对所述处理结果进行函数处理,得到所述线上句向量和所述候选句向量之间的相似度。
为了解决上述技术问题,本申请实施例还提供一种语义召回装置,采用了如下所述的技术方案:
第一获取模块,用于在接收到线上查询数据时,基于句向量生成器获取所述线上查询数据对应的线上句向量;
第二获取模块,用于获取存储的候选句向量;
拼接模块,用于基于句向量拼接器匹配所述线上句向量和所述候选句向量,得到所述线上句向量和所述候选句向量的相似度;
排序模块,用于根据所述相似度对所述候选句向量进行降序排序,并返回排序第一的候选句向量对应的候选问题的答案作为正确答案。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,包括存储器和处理器,以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述语义召回方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述语义召回方法的步骤。
上述语义召回方法、装置、计算机设备及存储介质,通过在接收到线上查询数据时,该线上查询数据即为输入的句子,基于句向量生成器获取所述线上查询数据对应的线上句向量,该线上句向量即为该线上查询数据对应的向量形式数据;获取存储的候选句向量,其中,该候选句向量为预先存储于数据库中候选问题对应的句向量;基于句向量拼接器匹配所述线上句向量和所述候选句向量,得到所述线上句向量和所述候选句向量的相似度;根据相似度即可对候选句向量进行筛选,从而筛选出与该线上句向量最为匹配的候选句向量。具体地,根据所述相似度对候选句向量进行降序排序,并返回排序第一的候选句向量对应的候选问题的答案作为正确答案。由此,则解决了语义召回模型处理语料数据效率低下技术问题。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2为语义召回方法的一个实施例的流程图;
图3为一个句向量生成器的示意图;
图4为一个句向量拼接器的示意图;
图5是根据本申请的语义召回装置的一个实施例的结构示意图;
图6是根据本申请的计算机设备的一个实施例的结构示意图。
附图标记:语义召回装置600,第一获取模块610,第二获取模块620,拼接模块630,排序模块640。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本申请的目的、技术方案及优点更加清楚明白,下面结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的语义召回方法一般由服务端/终端执行,相应地,语义召回装置一般设置于服务端/终端设备中。
应该理解,图1中的终端、网络和服务端的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的语义召回方法的一个实施例的流程图。所述语义召回方法,包括以下步骤:
步骤S200,在接收到线上查询数据时,基于句向量生成器获取所述线上查询数据对应的线上句向量;
线上查询数据为在线接收到的实时查询数据。在接收到该线上查询数据时,则基于句向量生成器获取该线上查询数据对应的线上句向量。其中,得到的该线上句向量即为该线上查询数据对应的句向量。具体地,在接收到线上查询数据时,该线上查询数据为一个句子,将该句子输入至句向量生成器中的tokenizer层,基于该tokenizer层对该线上查询数据中的字进行id化,即将句子中的每个字转化为ID的格式。而后将该ID通过embedding(嵌入)层,即可得到该线上查询数据中每个字对应的字向量。在得到该字向量时,对该字向量进行卷积处理则可以得到当前该线上查询数据对应的线上句向量。
句向量生成器为对线上查询数据进行处理的独立模型结构,传统的深度学习模型通常包括表征层和输出层,将传统深度学习模型的表征层和输出层拆分开,将表征层的部分作为句向量生成器,即得到对应的句向量生成器。以CNN模型为例,在该CNN模型中,该句向量生成器如图3所示。
由图3可知,该模型中,q1(char)表示语句的输入层q1,即线上查询数据,而后经过embedding嵌入层得到该线上查询数据中每个字对应的字向量,该字向量通过(Conv+GlobalMaxPooling)*3,即三层卷积神经网络进行卷积处理,得到卷积结果,其中,conv为卷积,GlobalMaxPooling为全局池化。Concat对得到的卷积结果进行拼接,output输出拼接后的结果,即可得到该线上查询数据对应的线上句向量。其中,由于进行了三层卷积,则要对每层卷积的结果进行拼接,多层卷积的目的是使得到的数据更精确,因此,其他模型不一定包括concat。
步骤S300,获取存储的候选句向量;
候选句向量被预先存储在数据库中,候选句向量为候选问题通过句向量生成器预先得到并存储。在问答系统中,预先获取候选问题,并通过线下的句向量生成器对候选问题的句向量进行离线生成,在得到该候选问题对应的候选句向量时,则将该候选句向量存储在数据库中。
步骤S400,基于句向量拼接器匹配所述线上句向量和所述候选句向量,得到所述线上句向量和所述候选句向量的相似度;
在获取到候选句向量与线上句向量时,基于向量拼接器对该候选句向量和线上句向量的相似度进行计算。具体地,计算该候选句向量和线上句向量在不同衡量维度上的差异特征向量,最后组合拼接不同衡量维度上的差异特征向量,即可得到该候选句向量和线上句向量最终的差异特征向量。在得到该最终的差异特征向量时,对该差异特征向量进行正则化处理,即可得到线上句向量和候选句向量的相似度。
以CNN模型为例,在该CNN模型中,该句向量拼接器如图4所示。由图4可知,该模型中,q1(实时)表示线上句向量,q2(离线)表示候选句向量,在获取到线上句向量及候选句向量时,将该线上句向量及候选句向量输入至Diff+Mul+Max;Diff+Mul+Max则对该线上句向量及候选句向量,从减法、乘法和最大值三个衡量维度进行差异特征向量计算,由此得到该线上句向量及候选句向量在三个维度的差异特征向量;concat对在该三个衡量维度计算得到的差异特征向量进行拼接,得到最终的差异特征向量;将该最终的差异特征向量输入至3*(Dense+BatchNormalization+Relu+Dropout),使其对拼接得到的最终的差异特征向量进行正则化处理。而后将该正则化处理的结果输入至Sigmoid,Sigmoid为激活函数,用表示,将该正则化处理的结果通过该激活函数,即可得到该线上句向量和候选句向量的相似度。
步骤S500,根据所述相似度对所述候选句向量进行降序排序,并返回排序第一的候选句向量对应的候选问题的答案作为正确答案。
在确定该线上句向量与候选句向量之间的相似度时,根据该相似度对候选句向量对应的候选问题进行降序排序,即从大到小排列。选取问题库中与该线上句向量相似度最高的候选句向量对应的候选问题的答案为正确答案。将该正确答案作为线上查询数据的正确答案,推送至用户界面。
在本实施例中,实现了在不改变原有模型的精度下,将传统模型的表征层和输出层拆分开分别作为句向量生成器和拼接器,在获取句向量时,只需要通过单个的句向量生成器对数据进行处理,再通过句向量拼接器对处理得到的数据与候选句向量进行拼接,而不需要整体的模型结构,提高了模型处理的并发量,提高了模型在处理语料资料时的处理效率及问答匹配的准确率。并且可以被应用于各种不同类型的模型上,具有迁移性,可拓展性高,
在本申请的一些实施例中,步骤S200,包括:
基于句向量生成器,获取所述线上查询数据的字向量;
对所述字向量进行多层卷积处理,得到所述线上查询数据的线上句向量。
线上查询数据为单个的句子,其中,字向量即为该单个的句子中每个字对应的向量。在接收到该线上查询数据时,根据该线上查询数据中的词频、TF-IDF(term frequency–inverse document frequency)等特征对该线上查询数据中的每个字进行id化,得到该线上查询数据中每个字对应的ID。而后基于mbedding(嵌入)层获取该线上查询数据中每个ID对应的字向量,在该embedding层中ID与字向量之间为映射关系,在得到每个字的ID时,通过该embedding层即可得到该线上查询数据中每个字对应的字向量。
在得到线上查询数据中每个字对应的字向量时,将该线上查询数据所包括的所有字向量输入至卷积神经网络,基于该卷积神经网络对该字向量进行处理得到卷积结果,该卷积结果即为该线上查询数据对应的一组句向量。然而,一组句向量并不能完全反应当前该线上查询数据的特征信息,因此,对该线上查询数据中得到的所有字向量进行多层卷积处理,得到多组卷积结果。将得到的多组卷积结果拼接在一起,得到的最终结果即为该线上查询数据对应的线上句向量。
在本实施例中,实现了根据字向量对线上查询数据的线上句向量的获取,不需要完整的模型结构,只需要句向量生成器即可获取到对应的线上句向量,提高了模型对语料数据的处理效率,并进一步地提高了模型处理的并发量。
在本申请的一些实施例中,上述基于句向量生成器,获取所述线上查询数据的字向量包括:
基于句向量生成器的标记解析层对所述线上查询数据中的每个字进行ID化处理,得到所述线上查询数据中的每个字对应的ID;
基于所述句向量生成器的嵌入层对所述ID进行特征编码,得到所述线上查询数据中每个字对应的字向量。
标记解析层即tokenizer层,根据该tokenizer层即可对接收到的线上查询数据中的每个字进行ID化。具体地,在接收到线上查询数据时,获取该线上查询数据的词频、tfidf等特征,tokenizer层基于该特征,即可对该线上查询数据中的每个字进行id化,例如将词频为5的字划分ID为001。在tokenizer层对该线上查询数据中的每个字的id化处理完成后,将得到的每个字的ID输入至嵌入层,即embedding层。Embedding层则根据该ID确定每个字对应的字向量,即基于该embedding层对每个字的ID进行特征编码,确定每个字与多维空间的映射,由此得到当前输入的线上查询数据中每个字对应的字向量。
在本实施例中,实现了根据标记解析层及嵌入层对线上查询数据的解析提取,提高了对线上查询数据的解析效率及准确率,进一步提高了对线上查询数据获取对应匹配数据(即正确答案)的效率及准确率。
在本申请的一些实施例中,上述对所述字向量进行多层卷积处理,得到所述线上查询数据的线上句向量包括:
基于卷积神经网络对所述字向量进行多层卷积处理,得到所述线上查询数据对应的语义特征;
将每次得到的所述语义特征拼接在一起,得到所述线上查询数据的线上句向量。
在得到线上查询数据中每个字对应的字向量时,确定该线上查询数据基于字的语义特征,该语义特征即为该线上查询数据中基于字的逻辑表示。通过卷积神经网络(如CNN三层卷积神经网络),可以基于得到的字向量,对该线上查询数据的语义特征进行提取。具体地,将线上查询数据中每个字的字向量经过该卷积神经网络进行卷积处理,所得到的卷积结果即为该线上查询数据基于字的语义特征,该语义特征亦为一组向量。通过卷积神经网络对该字向量进行多层卷积,将每次得到的语义特征拼接在一起,即可得到该线上查询数据对应的线上句向量。如通过一个三层卷积神经网络对该线上查询数据中的所有字向量进行三层卷积,将该三层卷积后的结果,即语义特征,拼接在一起,输出即为该线上查询数据对应的线上句向量。
在本实施例中,实现了根据语义特征拼接得到线上查询数据对应的线上句向量,提高了对线上查询数据对应线上句向量获取的准确性,进一步提高了在根据该线上句向量进行匹配得到正确答案的准确率。
在本申请的一些实施例中,步骤S300,包括:
获取问题库中存储的候选问题;
基于所述句向量生成器对所述候选问题进行离线计算,得到所述候选问题对应的候选句向量。
候选问题为预先收集的问题,该候选问题被预先存储于问题库中。在得到该候选问题时,对该问题库中的所有的候选问题一一进行候选句向量的计算。具体地,在获取到候选问题时,基于句向量生成器对候选问题进行线下计算,其计算过程与线上句向量的计算方式相同。但候选句向量在无需网络连接下亦可基于该句向量生成器离线计算;而对于线上句向量,该句向量生成器只对接收到的线上问题进行实时的计算。例如,{糖尿病是怎么形成呢:[0.76,0.54,0.77,…,0.65,0.23,0.13],糖尿病应该怎么治疗:[0.12,0.25,0.65,…,0.11,0.86,0.92]},其中,“糖尿病是怎么形成呢”“糖尿病应该怎么治疗”后面的数字即为这两句话分别对应的句向量表示。在该两个问题为候选问题时,则将该问题以候选句向量的形式进行存储。
在本实施例中,实现了对候选问题的候选句向量的计算,并通过对候选句向量的预先计算及存储,节省了在问答匹配时的匹配时长,提高了对答案的获取效率。
在本申请的一些实施例中,上述基于所述句向量生成器对所述候选问题进行离线计算,得到所述候选问题对应的候选句向量的步骤之后,还包括:
获取每个所述候选句向量对应的唯一标识信息;
根据所述标识信息,将所述候选句向量以字典的形式,与所述候选问题关联存储至数据库中。
在得到该候选句向量时,则以字典的形式对该候选句向量进行存储。具体地,每个候选句向量对应有唯一的标识信息,根据该标识信息对候选句向量和其对应的候选问题进行关联存储。在对候选句向量及对应的候选问题进行提取时,根据该标识信息即可直接进行提取。
在本实施例中,实现了对候选句向量通过字典的形式进行预存储,进一步地提高了在匹配时对候选句向量的提取效率,节省了问答匹配时长。
在本申请的一些实施例中,所述语义召回方法还包括:
计算所述线上句向量和所述候选句向量在乘法、减法和最大值三个衡量维度上的差异特征向量;
将所述三个衡量维度上的差异特征向量拼接在一起,得到最终的差异特征向量;
对所述最终的差异特征向量进行正则化处理,得到处理结果;
对所述处理结果进行函数处理,得到所述线上句向量和所述候选句向量之间的相似度。
在获取到线上句向量和候选句向量时,分别计算该线上句向量和候选句向量在乘法、减法和最大值三个衡量维度上的差异特征向量。其中,该乘法即将该线上句向量和候选句向量进行点乘,得到的结果即为该线上句向量和候选句向量在乘法衡量维度上的差异特征向量;减法即为将该线上句向量和候选句向量进行减法运算,得到的结果即为该线上句向量和候选句向量在减法衡量维度上的差异特征向量;最大值即为将该线上句向量和候选句向量取最大值,得到的最大值即为该线上句向量和候选句向量在最大值衡量维度上的差异特征向量。将该乘法、减法和最大值三个衡量维度上分别对应的差异特征值拼接在一起,得到该线上句向量和候选句向量最终的差异特征向量。其中,该衡量维度包括但不限于乘法、减法和最大值三个衡量维度,还可以包括最小值等衡量维度。
在得到该最终的差异特征向量时,对该差异特征向量进行正则化,经过dense层降维和激活函数sigmoid处理,其中,通过sigmoid函数可以将变量映射到0到1之间,由此即可得到一个输出结果为0至1的概率值。根据该概率值来衡量线上句向量与候选句向量之间的相似度;如在概率大于0.5时,确定线上句向量和候选句向量相似,否则,则不相似。
在本实施例中,实现了对线上句向量及候选句向量的拼接匹配,同样无需整个模型的处理,提高了模型的处理效率,并通过相似度输出确定匹配度最高的候选句向量,进一步地提高了对问题答案获取的准确率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图5,作为对上述图2所示方法的实现,本申请提供了一种语义召回装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例所述的语义召回装置600包括:
第一获取模块610,用于在接收到线上查询数据时,基于句向量生成器获取所述线上查询数据对应的线上句向量;
其中,所述第一获取模块610包括:
第一获取单元,用于基于句向量生成器,获取所述线上查询数据的字向量;
第一处理单元,用于对所述字向量进行多层卷积处理,得到所述线上查询数据的线上句向量。
所述第一获取单元还包括:
第二处理单元,用于基于句向量生成器的标记解析层对所述线上查询数据中的每个字进行ID化处理,得到所述线上查询数据中的每个字对应的ID;
第三处理单元,用于基于所述句向量生成器的嵌入层对所述ID进行特征编码,得到所述线上查询数据中每个字对应的字向量。
所述第一处理单元还包括:
第四处理单元,用于基于卷积神经网络对所述字向量进行多层卷积处理,得到所述线上查询数据对应的语义特征;
第一拼接单元,用于将每次得到的所述语义特征拼接在一起,得到所述线上查询数据的线上句向量。
线上查询数据为在线接收到的实时查询数据。在接收到该线上查询数据时,则基于句向量生成器获取该线上查询数据对应的线上句向量。其中,得到的该线上句向量即为该线上查询数据对应的句向量。具体地,在接收到线上查询数据时,该线上查询数据为一个句子,将该句子输入至句向量生成器中的tokenizer层,基于该tokenizer层对该线上查询数据中的字进行id化,即将句子中的每个字转化为ID的格式。而后将该ID通过embedding(嵌入)层,即可得到该线上查询数据中每个字对应的字向量。在得到该字向量时,对该字向量进行卷积处理则可以得到当前该线上查询数据对应的线上句向量。
句向量生成器为对线上查询数据进行处理的独立模型结构,传统的深度学习模型通常包括表征层和输出层,将传统深度学习模型的表征层和输出层拆分开,将表征层的部分作为句向量生成器,即得到对应的句向量生成器。以CNN模型为例,在该CNN模型中,该句向量生成器如图3所示。
由图3可知,该模型中,q1(char)表示输入的语句q1,即线上查询数据,而后经过embedding嵌入层得到该线上查询数据中每个字对应的字向量,该字向量通过(Conv+GlobalMaxPooling)*3,即三层卷积神经网络进行卷积处理,得到卷积结果,其中,conv为卷积,GlobalMaxPooling为全局池化。Concat对得到的卷积结果进行拼接,output输出拼接后的结果,即可得到该线上查询数据对应的线上句向量。其中,由于进行了三层卷积,则要对每层卷积的结果进行拼接,多层卷积的目的是使得到的数据更精确,因此,其他模型不一定包括concat。
第二获取模块620,用于获取存储的候选句向量;
其中,所述第二获取模块620包括:
第二获取单元,用于获取问题库中存储的候选问题;
第一计算单元,用于基于所述句向量生成器对所述候选问题进行离线计算,得到所述候选问题对应的候选句向量。
第三获取单元,用于获取每个所述候选句向量对应的唯一标识信息;
存储单元,用于根据所述标识信息,将所述候选句向量以字典的形式,与所述候选问题关联存储至数据库中。
候选句向量被预先存储在数据库中,候选句向量为候选问题通过句向量生成器预先得到并存储。在问答系统中,预先获取候选问题,并通过线下的句向量生成器对候选问题的句向量进行离线生成,在得到该候选问题对应的候选句向量时,则将该候选句向量存储在数据库中。
拼接模块630,用于基于句向量拼接器匹配所述线上句向量和所述候选句向量,得到所述线上句向量和所述候选句向量的相似度;
其中,所述拼接模块包括:
第二计算单元,用于计算所述线上句向量和所述候选句向量在乘法、减法和最大值三个衡量维度上的差异特征向量;
第二拼接单元,用于将所述三个衡量维度上的差异特征向量拼接在一起,得到最终的差异特征向量;
第五处理单元,用于对所述最终的差异特征向量进行正则化处理,得到处理结果;
第六处理单元,用于对所述处理结果进行函数处理,得到所述线上句向量和所述候选句向量之间的相似度。
在获取到候选句向量与线上句向量时,基于向量拼接器对该候选句向量和线上句向量的相似度进行计算。具体地,计算该候选句向量和线上句向量在不同衡量维度上的差异特征向量,最后组合拼接不同衡量维度上的差异特征向量,即可得到该候选句向量和线上句向量最终的差异特征向量。在得到该最终的差异特征向量时,对该差异特征向量进行正则化处理,即可得到线上句向量和候选句向量的相似度。
以CNN模型为例,在该CNN模型中,该句向量拼接器如图4所示。由图4可知,该模型中,q1(实时)表示线上句向量,q2(离线)表示候选句向量,在获取到线上句向量及候选句向量时,将该线上句向量及候选句向量输入至Diff+Mul+Max;Diff+Mul+Max则对该线上句向量及候选句向量,从减法、乘法和最大值三个衡量维度进行差异特征向量计算,由此得到该线上句向量及候选句向量在三个维度的差异特征向量;concat对在该三个衡量维度计算得到的差异特征向量进行拼接,得到最终的差异特征向量;将该最终的差异特征向量输入至3*(Dense+BatchNormalization+Relu+Dropout),使其对拼接得到的最终的差异特征向量进行正则化处理。而后将该正则化处理的结果输入至Sigmoid,Sigmoid为激活函数,用表示,将该正则化处理的结果通过该激活函数,即可得到该线上句向量和候选句向量的相似度。
排序模块640,用于根据所述相似度对所述候选句向量进行降序排序,并返回排序第一的候选句向量对应的候选问题的答案作为正确答案。
在确定该线上句向量与候选句向量之间的相似度时,根据该相似度对候选句向量对应的候选问题进行降序排序,即从大到小排列。选取问题库中与该线上句向量相似度最高的候选句向量对应的候选问题的答案为正确答案。将该正确答案作为线上查询数据的正确答案,推送至用户界面。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图6,图6为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过系统总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作系统和各类应用软件,例如语义召回方法的程序代码等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器62在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的程序代码或者处理数据,例如运行所述语义召回方法的程序代码。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
在本实施例中,所述计算机设备,实现了在不改变原有模型的精度下,将传统模型的表征层和输出层拆分开分别作为句向量生成器和拼接器,在获取句向量时,只需要通过单个的句向量生成器对数据进行处理,再通过句向量拼接器对处理得到的数据与候选句向量进行拼接,而不需要整体的模型结构,提高了模型处理的并发量,提高了模型在处理语料资料时的处理效率及问答匹配的准确率。并且可以被应用于各种不同类型的模型上,具有迁移性,可拓展性高。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有语义召回程序,所述语义召回程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的语义召回方法的步骤。
在本实施例中,所述计算机可读存储介质,实现了在不改变原有模型的精度下,将传统模型的表征层和输出层拆分开分别作为句向量生成器和拼接器,在获取句向量时,只需要通过单个的句向量生成器对数据进行处理,再通过句向量拼接器对处理得到的数据与候选句向量进行拼接,而不需要整体的模型结构,提高了模型处理的并发量,提高了模型在处理语料资料时的处理效率及问答匹配的准确率。并且可以被应用于各种不同类型的模型上,具有迁移性,可拓展性高。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种语义召回方法,其特征在于,包括下述步骤:
在接收到线上查询数据时,基于句向量生成器获取所述线上查询数据对应的线上句向量;
获取存储的候选句向量;
基于句向量拼接器匹配所述线上句向量和所述候选句向量,得到所述线上句向量和所述候选句向量的相似度;
根据所述相似度对所述候选句向量进行降序排序,并返回排序第一的候选句向量对应的候选问题的答案作为正确答案。
2.根据权利要求1所述的语义召回方法,其特征在于,所述基于句向量生成器获取所述线上查询数据对应的线上句向量的步骤包括:
基于句向量生成器,获取所述线上查询数据的字向量;
对所述字向量进行多层卷积处理,得到所述线上查询数据的线上句向量。
3.根据权利要求2所述的语义召回方法,其特征在于,所述基于句向量生成器,获取所述线上查询数据的字向量的步骤包括:
基于句向量生成器的标记解析层对所述线上查询数据中的每个字进行ID化处理,得到所述线上查询数据中的每个字对应的ID;
基于所述句向量生成器的嵌入层对所述ID进行特征编码,得到所述线上查询数据中每个字对应的字向量。
4.根据权利要求2所述的语义召回方法,其特征在于,所述对所述字向量进行多层卷积处理,得到所述线上查询数据的线上句向量的步骤包括:
基于卷积神经网络对所述字向量进行多层卷积处理,得到所述线上查询数据对应的语义特征;
将每次得到的所述语义特征拼接在一起,得到所述线上查询数据的线上句向量。
5.根据权利要求1所述的语义召回方法,其特征在于,所述获取存储的候选句向量的步骤包括:
获取问题库中存储的候选问题;
基于所述句向量生成器对所述候选问题进行离线计算,得到所述候选问题对应的候选句向量。
6.根据权利要求5所述的语义召回方法,其特征在于,所述基于所述句向量生成器对所述候选问题进行离线计算,得到所述候选问题对应的候选句向量的步骤之后,还包括:
获取每个所述候选句向量对应的唯一标识信息;
根据所述标识信息,将所述候选句向量以字典的形式,与所述候选问题关联存储至数据库中。
7.根据权利要求1至6任意一项所述的语义召回方法,其特征在于,所述基于句向量拼接器匹配所述线上句向量和所述候选句向量,得到所述线上句向量和所述候选句向量的相似度的步骤包括:
计算所述线上句向量和所述候选句向量在乘法、减法和最大值三个衡量维度上的差异特征向量;
将所述三个衡量维度上的差异特征向量拼接在一起,得到最终的差异特征向量;
对所述最终的差异特征向量进行正则化处理,得到处理结果;
对所述处理结果进行函数处理,得到所述线上句向量和所述候选句向量之间的相似度。
8.一种语义召回装置,其特征在于,包括:
第一获取模块,用于在接收到线上查询数据时,基于句向量生成器获取所述线上查询数据对应的线上句向量;
第二获取模块,用于获取存储的候选句向量;
拼接模块,用于基于句向量拼接器匹配所述线上句向量和所述候选句向量,得到所述线上句向量和所述候选句向量的相似度;
排序模块,用于根据所述相似度对所述候选句向量进行降序排序,并返回排序第一的候选句向量对应的候选问题的答案作为正确答案。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的语义召回方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的语义召回方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010402690.9A CN111767375A (zh) | 2020-05-13 | 2020-05-13 | 语义召回方法、装置、计算机设备及存储介质 |
PCT/CN2020/118454 WO2021135455A1 (zh) | 2020-05-13 | 2020-09-28 | 语义召回方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010402690.9A CN111767375A (zh) | 2020-05-13 | 2020-05-13 | 语义召回方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111767375A true CN111767375A (zh) | 2020-10-13 |
Family
ID=72719086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010402690.9A Pending CN111767375A (zh) | 2020-05-13 | 2020-05-13 | 语义召回方法、装置、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111767375A (zh) |
WO (1) | WO2021135455A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597208A (zh) * | 2020-12-29 | 2021-04-02 | 深圳价值在线信息科技股份有限公司 | 企业名称检索方法、企业名称检索装置及终端设备 |
CN113254620A (zh) * | 2021-06-21 | 2021-08-13 | 中国平安人寿保险股份有限公司 | 基于图神经网络的应答方法、装置、设备及存储介质 |
CN114064820A (zh) * | 2021-11-29 | 2022-02-18 | 上证所信息网络有限公司 | 一种基于混合架构的表格语义查询粗排方法 |
CN114328908A (zh) * | 2021-11-08 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 一种问答语句质检方法、装置及相关产品 |
CN114969486A (zh) * | 2022-08-02 | 2022-08-30 | 平安科技(深圳)有限公司 | 语料推荐方法、装置、设备及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837307A (zh) * | 2021-09-29 | 2021-12-24 | 平安科技(深圳)有限公司 | 数据相似度计算方法、装置、可读介质及电子设备 |
CN115952270B (zh) * | 2023-03-03 | 2023-05-30 | 中国海洋大学 | 冰箱的智能问答方法、装置和存储介质 |
CN118312524B (zh) * | 2024-06-07 | 2024-09-27 | 朗新科技集团股份有限公司 | 表召回方法、装置、电子设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021555A (zh) * | 2017-11-21 | 2018-05-11 | 浪潮金融信息技术有限公司 | 一种基于深度卷积神经网络的问句相似度度量方法 |
CN109145290A (zh) * | 2018-07-25 | 2019-01-04 | 东北大学 | 基于字向量与自注意力机制的语义相似度计算方法 |
CN110569500A (zh) * | 2019-07-23 | 2019-12-13 | 平安国际智慧城市科技股份有限公司 | 文本语义识别方法、装置、计算机设备和存储介质 |
CN111046147A (zh) * | 2018-10-11 | 2020-04-21 | 马上消费金融股份有限公司 | 一种问答方法、装置及终端设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110020009B (zh) * | 2017-09-29 | 2023-03-21 | 阿里巴巴集团控股有限公司 | 在线问答方法、装置及系统 |
CN109086386B (zh) * | 2018-07-26 | 2023-04-28 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN109815318B (zh) * | 2018-12-24 | 2024-07-05 | 平安科技(深圳)有限公司 | 问答系统中的问题答案查询方法、系统及计算机设备 |
CN110347807B (zh) * | 2019-05-20 | 2023-08-08 | 平安科技(深圳)有限公司 | 问题信息处理方法及装置 |
CN110287296A (zh) * | 2019-05-21 | 2019-09-27 | 平安科技(深圳)有限公司 | 一种问题答案选取方法、装置、计算机设备及存储介质 |
CN110704587B (zh) * | 2019-08-22 | 2023-10-20 | 平安科技(深圳)有限公司 | 文本答案的查找方法及装置 |
-
2020
- 2020-05-13 CN CN202010402690.9A patent/CN111767375A/zh active Pending
- 2020-09-28 WO PCT/CN2020/118454 patent/WO2021135455A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021555A (zh) * | 2017-11-21 | 2018-05-11 | 浪潮金融信息技术有限公司 | 一种基于深度卷积神经网络的问句相似度度量方法 |
CN109145290A (zh) * | 2018-07-25 | 2019-01-04 | 东北大学 | 基于字向量与自注意力机制的语义相似度计算方法 |
CN111046147A (zh) * | 2018-10-11 | 2020-04-21 | 马上消费金融股份有限公司 | 一种问答方法、装置及终端设备 |
CN110569500A (zh) * | 2019-07-23 | 2019-12-13 | 平安国际智慧城市科技股份有限公司 | 文本语义识别方法、装置、计算机设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
纪明宇等: "面向智能客服的句子相似度计算方法", 计算机工程与应用, vol. 55, no. 13, 1 July 2019 (2019-07-01), pages 123 - 128 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597208A (zh) * | 2020-12-29 | 2021-04-02 | 深圳价值在线信息科技股份有限公司 | 企业名称检索方法、企业名称检索装置及终端设备 |
CN113254620A (zh) * | 2021-06-21 | 2021-08-13 | 中国平安人寿保险股份有限公司 | 基于图神经网络的应答方法、装置、设备及存储介质 |
CN113254620B (zh) * | 2021-06-21 | 2022-08-30 | 中国平安人寿保险股份有限公司 | 基于图神经网络的应答方法、装置、设备及存储介质 |
CN114328908A (zh) * | 2021-11-08 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 一种问答语句质检方法、装置及相关产品 |
CN114064820A (zh) * | 2021-11-29 | 2022-02-18 | 上证所信息网络有限公司 | 一种基于混合架构的表格语义查询粗排方法 |
CN114064820B (zh) * | 2021-11-29 | 2023-11-24 | 上证所信息网络有限公司 | 一种基于混合架构的表格语义查询粗排方法 |
CN114969486A (zh) * | 2022-08-02 | 2022-08-30 | 平安科技(深圳)有限公司 | 语料推荐方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021135455A1 (zh) | 2021-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111767375A (zh) | 语义召回方法、装置、计算机设备及存储介质 | |
WO2021135469A1 (zh) | 基于机器学习的信息抽取方法、装置、计算机设备及介质 | |
CN108170684A (zh) | 文本相似度计算方法及系统、数据查询系统和计算机产品 | |
CN112000805A (zh) | 基于预训练模型的文本匹配方法、装置、终端及存储介质 | |
CN111475617A (zh) | 事件主体抽取方法、装置及存储介质 | |
CN112231569A (zh) | 新闻推荐方法、装置、计算机设备及存储介质 | |
CN110852106A (zh) | 基于人工智能的命名实体处理方法、装置及电子设备 | |
CN111144120A (zh) | 一种训练语句的获取方法、装置、存储介质及电子设备 | |
CN112085091B (zh) | 基于人工智能的短文本匹配方法、装置、设备及存储介质 | |
CN113722438B (zh) | 基于句向量模型的句向量生成方法、装置及计算机设备 | |
CN113901836B (zh) | 基于上下文语义的词义消歧方法、装置及相关设备 | |
CN113627797A (zh) | 入职员工画像生成方法、装置、计算机设备及存储介质 | |
CN112836521A (zh) | 问答匹配方法、装置、计算机设备及存储介质 | |
CN110222144B (zh) | 文本内容提取方法、装置、电子设备及存储介质 | |
CN113486659B (zh) | 文本匹配方法、装置、计算机设备及存储介质 | |
CN113505595A (zh) | 文本短语抽取方法、装置、计算机设备及存储介质 | |
CN116701593A (zh) | 基于GraphQL的中文问答模型训练方法及其相关设备 | |
CN116796729A (zh) | 基于特征强化的文本推荐方法、装置、设备及存储介质 | |
CN114742058B (zh) | 一种命名实体抽取方法、装置、计算机设备及存储介质 | |
CN115238077A (zh) | 基于人工智能的文本分析方法、装置、设备及存储介质 | |
CN115062136A (zh) | 基于图神经网络的事件消歧方法及其相关设备 | |
CN115129863A (zh) | 意图识别方法、装置、设备、存储介质和计算机程序产品 | |
CN114548114A (zh) | 文本情绪识别方法、装置、设备及存储介质 | |
CN113657104A (zh) | 文本抽取方法、装置、计算机设备及存储介质 | |
CN113807920A (zh) | 基于人工智能的产品推荐方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |