CN112860848B - 信息检索方法、装置、设备及介质 - Google Patents
信息检索方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN112860848B CN112860848B CN202110076199.6A CN202110076199A CN112860848B CN 112860848 B CN112860848 B CN 112860848B CN 202110076199 A CN202110076199 A CN 202110076199A CN 112860848 B CN112860848 B CN 112860848B
- Authority
- CN
- China
- Prior art keywords
- data
- training
- information retrieval
- document
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及人工智能领域,提供一种信息检索方法、装置、设备及介质,能够基于Pointwise和Pairwise相结合的LTR排序模型,并使用BERT深度学习和三元组TripleLoss损失函数等对召回结果做更精细化的排序,通过计算查询问题与召回的所有文档之间的相关性对文档进行排序,以返回给用户更优的排序结果。此外,本发明还涉及区块链技术,目标模型可存储于区块链节点中。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种信息检索方法、装置、设备及介质。
背景技术
信息检索领域中,在基于机器学习排序模型(Learning to Rank,LTR)来解决文档排序问题时,主要依赖复杂的手工特征构建过程。
针对上述问题,目前搜索、推荐和广告算法等相关业务中都开始引入BERT模型来实现排序任务,将问题和文档的表示映射到向量空间中,通过神经网络来计算相似度,从而避免了复杂的手工特征构建过程。
然而,原生态的BERT模型本身对句子的表征能力不强,并且,在计算文本语义相似度时,原生态BERT需要输入两个句子,导致句对回归计算开销大,同时,采用单独学习排序特征的方式,排序效果也有待提高。
发明内容
鉴于以上内容,有必要提供一种信息检索方法、装置、设备及介质,能够基于Pointwise和Pairwise相结合的LTR排序模型,并使用BERT深度学习和三元组TripleLoss损失函数等对召回结果做更精细化的排序,通过计算查询问题与召回的所有文档之间的相关性对文档进行排序,以返回给用户更优的排序结果。
一种信息检索方法,所述信息检索方法包括:
响应于信息检索指令,根据所述信息检索指令获取训练数据;
从所述训练数据中识别问题数据及文档数据,并对所述问题数据及所述文档数据进行拼接处理,得到样本序列;
调用初始网络,并根据所述样本序列对所述初始网络进行预训练,得到中间模型;
计算所述文档数据与所述问题数据间的相似度,根据所述文档数据与所述问题数据间的相似度将所述文档数据拆分为正样本及负样本;
根据所述问题数据、所述正样本及所述负样本构建三元组;
构建目标损失函数;
根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型;
当接收到待查询问题及对应的至少一个查询文档时,将所述待查询问题及所述至少一个查询文档输入至所述目标模型,得到所述至少一个查询文档的排序结果,并将所述排序结果确定为所述待查询问题的查询结果。
根据本发明优选实施例,所述根据所述信息检索指令获取训练数据包括:
解析所述信息检索指令的方法体,得到所述信息检索指令所携带的信息;
获取与领域对应的预设标签;
根据所述预设标签构建正则表达式;
利用所述正则表达式在所述信息检索指令所携带的信息中进行遍历,并将遍历到的数据确定为目标领域;
连接配置数据库,并从所述配置数据库中搜索与所述目标领域对应的数据作为所述训练数据。
根据本发明优选实施例,采用下述公式对所述问题数据及所述文档数据进行拼接处理,得到样本序列:
Xi=[<CLS>,Qm,<SEP>,Dj,<SEP>]
其中,Xi表示第i个样本序列;<CLS>及<SEP>为标志,<CLS>用于标记首句句首,<SEP>用于分开两个句子,并标记尾句句尾;Qm表示第m个问题数据,Dj表示对应于Qm的第j个文档数据;i、m、j为正整数。
根据本发明优选实施例,所述根据所述样本序列对所述初始网络进行预训练,得到中间模型包括:
将所述样本序列输入至所述初始网络的Bert层进行Embedding编码,得到嵌入向量;
将所述嵌入向量输入至所述初始网络的Pooling层进行池化处理,得到池化特征;
将所述池化特征输入至所述初始网络的Softmax层,得到输出值;
根据所述输出值,采用交叉熵损失函数优化所述初始网络,直至所述交叉熵损失函数的取值不再降低,停止训练,得到所述中间模型。
根据本发明优选实施例,采用下述公式根据所述问题数据、所述正样本及所述负样本构建三元组:
Im=(Qm,Pa,Nb)
其中,Im表示第m个三元组;Pa表示对应于Qm的第a个正样本;Pb表示对应于Qm的第b个负样本;a、b为正整数。
根据本发明优选实施例,采用构建目标损失函数:
L=max(||Squery-Spositive||-||Squery-Snegative||+Margin,0)
其中,L表示所述目标损失函数,Squery表示所述问题数据对应的句向量,Spositive表示所述正样本对应的句向量,Snegative表示所述负样本对应的句向量,Margin表示安全系数。
根据本发明优选实施例,所述根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型包括:
将所述三元组作为训练样本训练所述中间模型;
在训练过程中,监测所述目标损失函数的函数值;
当所述函数值不再减小时,停止训练,得到所述目标模型。
一种信息检索装置,所述信息检索装置包括:
获取单元,用于响应于信息检索指令,根据所述信息检索指令获取训练数据;
拼接单元,用于从所述训练数据中识别问题数据及文档数据,并对所述问题数据及所述文档数据进行拼接处理,得到样本序列;
预训练单元,用于调用初始网络,并根据所述样本序列对所述初始网络进行预训练,得到中间模型;
拆分单元,用于计算所述文档数据与所述问题数据间的相似度,根据所述文档数据与所述问题数据间的相似度将所述文档数据拆分为正样本及负样本;
构建单元,用于根据所述问题数据、所述正样本及所述负样本构建三元组;
所述构建单元,还用于构建目标损失函数;
训练单元,用于根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型;
确定单元,用于当接收到待查询问题及对应的至少一个查询文档时,将所述待查询问题及所述至少一个查询文档输入至所述目标模型,得到所述至少一个查询文档的排序结果,并将所述排序结果确定为所述待查询问题的查询结果。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述信息检索方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述信息检索方法。
由以上技术方案可以看出,本发明能够响应于信息检索指令,根据所述信息检索指令获取训练数据,从所述训练数据中识别问题数据及文档数据,并对所述问题数据及所述文档数据进行拼接处理,得到样本序列,调用初始网络,并根据所述样本序列对所述初始网络进行预训练,得到中间模型,通过基于孪生网络的Pointwise训练出一个SentenceBERT模型,即所述中间模型,学习问题数据和文档数据间的相关性特征,解决BERT模型对句子的表征能力不强和计算开销大的问题,并保证有质量更好的数据来监督第二阶段的精调排序模型,计算所述文档数据与所述问题数据间的相似度,根据所述文档数据与所述问题数据间的相似度将所述文档数据拆分为正样本及负样本,根据所述问题数据、所述正样本及所述负样本构建三元组,构建目标损失函数,根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型,采用基于三元组TripleLoss的Pairwise学习文档数据之间排序的特征,相比于以往直接单独学习排序特征效果要好,并最终提升了整个搜索的排序质量,以便提升用户的满意度,当接收到待查询问题及对应的至少一个查询文档时,将所述待查询问题及所述至少一个查询文档输入至所述目标模型,得到所述至少一个查询文档的排序结果,并将所述排序结果确定为所述待查询问题的查询结果,基于Pointwise和Pairwise相结合的LTR排序模型,并使用BERT深度学习和三元组TripleLoss损失函数等对召回结果做更精细化的排序,通过计算查询问题与召回的所有文档之间的相关性对文档进行排序,以返回给用户更优的排序结果。
附图说明
图1是本发明信息检索方法的较佳实施例的流程图。
图2是本发明信息检索装置的较佳实施例的功能模块图。
图3是本发明实现信息检索方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明信息检索方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述信息检索方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital SignalProcessor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,响应于信息检索指令,根据所述信息检索指令获取训练数据。
在本实施例中,所述信息检索指令可以由相关工作人员触发,也可以配置为检测到有检索需求时自动触发,本发明不限制。
需要说明的是,本实施例可以应用于各个领域,用于对领域内各种信息的检索。
例如:对于保险领域,可以用于辅助用户检索保险产品,以帮助用户进行选择性投保;对于金融领域,可以辅助用户检索需要的理财产品,帮助用户选择产品进行投资。
在本发明的至少一个实施例中,所述根据所述信息检索指令获取训练数据包括:
解析所述信息检索指令的方法体,得到所述信息检索指令所携带的信息;
获取与领域对应的预设标签;
根据所述预设标签构建正则表达式;
利用所述正则表达式在所述信息检索指令所携带的信息中进行遍历,并将遍历到的数据确定为目标领域;
连接配置数据库,并从所述配置数据库中搜索与所述目标领域对应的数据作为所述训练数据。
其中,所述信息检索指令所携带的信息可以包括,但不限于:触发所述信息检索指令的终端设备标识、领域、用户名等。
其中,所述信息检索指令实质上是一条代码,在所述信息检索指令中,根据代码的编写原则,{}之间的内容被称之为所述方法体。
所述预设标签与领域相对应,所述领域为信息检索的领域,所述领域可以包括,但不限于:金融领域、保险领域等。
所述预设标签可以进行自定义配置,所述预设标签与领域具有一一对应的关系,例如:所述预设标签可以被配置为Area,进一步以所述预设标签建立正则表达式Area(),并以Area()进行遍历,以获取到所述目标领域。
所述预设标签的配置是为了从所述信息检索指令所携带的信息中检索到需要进行信息检索的目标领域,以供后续获取所述目标领域内的数据构建样本。例如:当要检索理财产品时,所述目标领域可以为金融领域。
通过上实施方式,能够基于正则表达式及预设标签快速确定目标领域,并进一步利用所述目标领域在配置数据库中搜索相关数据,不仅效率高,由于标签的唯一性,获取到的数据准确度也较高。
在本实施例中,当所述目标领域内有充足的数据供训练使用时,在所述目标数据内获取全部训练数据;或者当所述目标领域内没有充足的数据供训练使用时,可以在所述目标领域的垂直领域内获取数据作为训练数据,以保证具有充足的数据进行训练,使模型的训练效果更好。
S11,从所述训练数据中识别问题数据及文档数据,并对所述问题数据及所述文档数据进行拼接处理,得到样本序列。
其中,所述问题数据是指需要检索的问题,所述文档数据是指根据所述问题数据进行检索后获得的文档。
具体地,所述问题数据与所述文档数据可以根据唯一性标识进行识别,也可以采用其他方式进行识别,本发明不限制。
在本发明的至少一个实施例中,采用下述公式对所述问题数据及所述文档数据进行拼接处理,得到样本序列:
Xi=[<CLS>,Qm,<SEP>,Dj,<SEP>]
其中,Xi表示第i个样本序列;<CLS>及<SEP>为标志,<CLS>用于标记首句句首,<SEP>用于分开两个句子,并标记尾句句尾;Qm表示第m个问题数据,Dj表示对应于Qm的第j个文档数据;i、m、j为正整数。
在上述实施方式构建的样本序列中,根据孪生网络和LTR(Learning to Rank)Pointwise相结合的排序策略构建样本,问题数据与文档数据相互独立,便于后续训练得到问题与文档间的关系。
S12,调用初始网络,并根据所述样本序列对所述初始网络进行预训练,得到中间模型。
其中,所述初始网络由Bert(Bidirectional Encoder Representation fromTransformers)层、Pooling层及Softmax层组成。
在本发明的至少一个实施例中,所述根据所述样本序列对所述初始网络进行预训练,得到中间模型包括:
将所述样本序列输入至所述初始网络的Bert层进行Embedding编码,得到嵌入向量;
将所述嵌入向量输入至所述初始网络的Pooling层进行池化处理,得到池化特征;
将所述池化特征输入至所述初始网络的Softmax层,得到输出值;
根据所述输出值,采用交叉熵损失函数优化所述初始网络,直至所述交叉熵损失函数的取值不再降低,停止训练,得到所述中间模型。
在上述实施方式中,进行的是模型的第一阶段训练,通过基于孪生网络的Pointwise训练出句子级BERT模型(即所述中间模型),学习问题和文档的相关性特征,解决了BERT模型对句子的表征能力不强和计算开销大的问题,以保证有质量更好的数据来监督第二阶段的精调排序模型。
S13,计算所述文档数据与所述问题数据间的相似度,根据所述文档数据与所述问题数据间的相似度将所述文档数据拆分为正样本及负样本。
其中,可以基于欧氏距离计算所述文档数据与所述问题数据间的相似度,本发明不限制。
具体地,将欧氏距离大于或者等于预设阈值的文档数据划分为一类,作为所述正样本,并且,将欧氏距离小于所述预设阈值的文档数据划分为一类,作为所述负样本。
当然,在其他实施方式中,还可以通过人为标注的方式。
例如:根据标注人员标注的结果划分正负样本,标注可以包括0,1,2,3四个等级,3表示文档和问题最相似,0表示文档和问题最不相似;3可以被划分为正样本,0,1,2可以被划分为负样本;或者2为正样本,0,1作为负样本;或者1为正样本,0作为负样本,具体可以根据实际需求确定,本发明不限制。
S14,根据所述问题数据、所述正样本及所述负样本构建三元组。
在本发明的至少一个实施例中,采用下述公式根据所述问题数据、所述正样本及所述负样本构建三元组:
Im=(Qm,Pa,Nb)
其中,Im表示第m个三元组;Pa表示对应于Qm的第a个正样本;Pb表示对应于Qm的第b个负样本;a、b为正整数。
可以理解的是,在模型的第一阶段训练中,没有考虑数据间的比较关系,因此,在模型的第二阶段训练中将进一步关注数据间的比较,以完善模型。
S15,构建目标损失函数。
在本发明的至少一个实施例中,采用构建目标损失函数:
L=max(||Squery-Spositive||-||Squery-Snegative||+Margin,0)
其中,L表示所述目标损失函数,Squery表示所述问题数据对应的句向量,Spositiv表示所述正样本对应的句向量,Snegative表示所述负样本对应的句向量,Margin表示安全系数。
具体地,所述Margin使正确预测的得分高于错误预测的得分,进而能够使训练出的模型有更大的把握进行正确分类。例如:所述Margin可以配置为1。
上述构建的TripleLoss损失函数能够使模型直接学习不同文档数据之间的比较关系,提升了模型的整体排序效果。
S16,根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型。
在本发明的至少一个实施例中,所述根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型包括:
将所述三元组作为训练样本训练所述中间模型;
在训练过程中,监测所述目标损失函数的函数值;
当所述函数值不再减小时,停止训练,得到所述目标模型。
具体地,在训练过程中,使所述正样本与所述问题数据间的距离小于所述负样本与所述问题数据间的距离,并据此不断优化模型,使模型的损失函数达到最小。
上述实施方式中,在第一阶段训练得到的中间模型的基础上,再继续进行第二阶段的训练,采用Pairwise的思想,将排序问题转换为对两两文档的比较,即将问题数据和文档数据采用三元组形式表示,以第一阶段训练得出的中间模型作为预训练模型,对三元组进行向量化,经过微调后,训练出的目标模型可以学习到不同文档数据之间的相对关系,从而能够获得更具有排序表征能力的语义向量,更好实现对句子的表达。
S17,当接收到待查询问题及对应的至少一个查询文档时,将所述待查询问题及所述至少一个查询文档输入至所述目标模型,得到所述至少一个查询文档的排序结果,并将所述排序结果确定为所述待查询问题的查询结果。
例如:当所述待查询问题为“理财产品有哪些”时,将查询到的所有理财产品按照模型输出的顺序显示给用户,以供用户择优选择。
在本实施例中,所述待查询数据可以由任意用户上传,本发明不限制。
所述目标模型融入了基于Pointwise和Pairwise相结合的LTR排序模型,并使用BERT深度学习和三元组TripleLoss损失函数等技术,对召回结果做更精细化的排序,通过计算查询问题与召回的所有文档之间的相关性对文档进行排序,以返回给用户更优的排序结果。
具体地,所述目标模型经过了两阶段的训练:
第一阶段,通过基于孪生网络的Pointwise训练出一个Sentence BERT模型,即所述中间模型,学习问题数据和文档数据间的相关性特征,解决BERT模型对句子的表征能力不强和计算开销大的问题,并保证有质量更好的数据来监督第二阶段的精调排序模型;
第二阶段,采用基于三元组TripleLoss的Pairwise学习文档数据之间排序的特征,相比于以往直接单独学习排序特征效果要好,并最终提升了整个搜索的排序质量,以便提升用户的满意度。
需要说明的是,为了进一步保证数据的安全性,可以将目标模型部署于区块链,以避免数据被恶意篡改。
由以上技术方案可以看出,本发明能够响应于信息检索指令,根据所述信息检索指令获取训练数据,从所述训练数据中识别问题数据及文档数据,并对所述问题数据及所述文档数据进行拼接处理,得到样本序列,调用初始网络,并根据所述样本序列对所述初始网络进行预训练,得到中间模型,通过基于孪生网络的Pointwise训练出一个SentenceBERT模型,即所述中间模型,学习问题数据和文档数据间的相关性特征,解决BERT模型对句子的表征能力不强和计算开销大的问题,并保证有质量更好的数据来监督第二阶段的精调排序模型,计算所述文档数据与所述问题数据间的相似度,根据所述文档数据与所述问题数据间的相似度将所述文档数据拆分为正样本及负样本,根据所述问题数据、所述正样本及所述负样本构建三元组,构建目标损失函数,根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型,采用基于三元组TripleLoss的Pairwise学习文档数据之间排序的特征,相比于以往直接单独学习排序特征效果要好,并最终提升了整个搜索的排序质量,以便提升用户的满意度,当接收到待查询问题及对应的至少一个查询文档时,将所述待查询问题及所述至少一个查询文档输入至所述目标模型,得到所述至少一个查询文档的排序结果,并将所述排序结果确定为所述待查询问题的查询结果,基于Pointwise和Pairwise相结合的LTR排序模型,并使用BERT深度学习和三元组TripleLoss损失函数等对召回结果做更精细化的排序,通过计算查询问题与召回的所有文档之间的相关性对文档进行排序,以返回给用户更优的排序结果。
如图2所示,是本发明信息检索装置的较佳实施例的功能模块图。所述信息检索装置11包括获取单元110、拼接单元111、预训练单元112、拆分单元113、构建单元114、训练单元115、确定单元116。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
响应于信息检索指令,获取单元110根据所述信息检索指令获取训练数据。
在本实施例中,所述信息检索指令可以由相关工作人员触发,也可以配置为检测到有检索需求时自动触发,本发明不限制。
需要说明的是,本实施例可以应用于各个领域,用于对领域内各种信息的检索。
例如:对于保险领域,可以用于辅助用户检索保险产品,以帮助用户进行选择性投保;对于金融领域,可以辅助用户检索需要的理财产品,帮助用户选择产品进行投资。
在本发明的至少一个实施例中,所述获取单元110根据所述信息检索指令获取训练数据包括:
解析所述信息检索指令的方法体,得到所述信息检索指令所携带的信息;
获取与领域对应的预设标签;
根据所述预设标签构建正则表达式;
利用所述正则表达式在所述信息检索指令所携带的信息中进行遍历,并将遍历到的数据确定为目标领域;
连接配置数据库,并从所述配置数据库中搜索与所述目标领域对应的数据作为所述训练数据。
其中,所述信息检索指令所携带的信息可以包括,但不限于:触发所述信息检索指令的终端设备标识、领域、用户名等。
其中,所述信息检索指令实质上是一条代码,在所述信息检索指令中,根据代码的编写原则,{}之间的内容被称之为所述方法体。
所述预设标签与领域相对应,所述领域为信息检索的领域,所述领域可以包括,但不限于:金融领域、保险领域等。
所述预设标签可以进行自定义配置,所述预设标签与领域具有一一对应的关系,例如:所述预设标签可以被配置为Area,进一步以所述预设标签建立正则表达式Area(),并以Area()进行遍历,以获取到所述目标领域。
所述预设标签的配置是为了从所述信息检索指令所携带的信息中检索到需要进行信息检索的目标领域,以供后续获取所述目标领域内的数据构建样本。例如:当要检索理财产品时,所述目标领域可以为金融领域。
通过上实施方式,能够基于正则表达式及预设标签快速确定目标领域,并进一步利用所述目标领域在配置数据库中搜索相关数据,不仅效率高,由于标签的唯一性,获取到的数据准确度也较高。
在本实施例中,当所述目标领域内有充足的数据供训练使用时,在所述目标数据内获取全部训练数据;或者当所述目标领域内没有充足的数据供训练使用时,可以在所述目标领域的垂直领域内获取数据作为训练数据,以保证具有充足的数据进行训练,使模型的训练效果更好。
拼接单元111从所述训练数据中识别问题数据及文档数据,并对所述问题数据及所述文档数据进行拼接处理,得到样本序列。
其中,所述问题数据是指需要检索的问题,所述文档数据是指根据所述问题数据进行检索后获得的文档。
具体地,所述问题数据与所述文档数据可以根据唯一性标识进行识别,也可以采用其他方式进行识别,本发明不限制。
在本发明的至少一个实施例中,所述拼接单元111采用下述公式对所述问题数据及所述文档数据进行拼接处理,得到样本序列:
Xi=[<CLS>,Qm,<SEP>,Dj,<SEP>]
其中,Xi表示第i个样本序列;<CLS>及<SEP>为标志,<CLS>用于标记首句句首,<SEP>用于分开两个句子,并标记尾句句尾;Qm表示第m个问题数据,Dj表示对应于Qm的第j个文档数据;i、m、j为正整数。
在上述实施方式构建的样本序列中,根据孪生网络和LTR(Learning to Rank)Pointwise相结合的排序策略构建样本,问题数据与文档数据相互独立,便于后续训练得到问题与文档间的关系。
预训练单元112调用初始网络,并根据所述样本序列对所述初始网络进行预训练,得到中间模型。
其中,所述初始网络由Bert(Bidirectional Encoder Representation fromTransformers)层、Pooling层及Softmax层组成。
在本发明的至少一个实施例中,所述预训练单元112根据所述样本序列对所述初始网络进行预训练,得到中间模型包括:
将所述样本序列输入至所述初始网络的Bert层进行Embedding编码,得到嵌入向量;
将所述嵌入向量输入至所述初始网络的Pooling层进行池化处理,得到池化特征;
将所述池化特征输入至所述初始网络的Softmax层,得到输出值;
根据所述输出值,采用交叉熵损失函数优化所述初始网络,直至所述交叉熵损失函数的取值不再降低,停止训练,得到所述中间模型。
在上述实施方式中,进行的是模型的第一阶段训练,通过基于孪生网络的Pointwise训练出句子级BERT模型(即所述中间模型),学习问题和文档的相关性特征,解决了BERT模型对句子的表征能力不强和计算开销大的问题,以保证有质量更好的数据来监督第二阶段的精调排序模型。
拆分单元113计算所述文档数据与所述问题数据间的相似度,根据所述文档数据与所述问题数据间的相似度将所述文档数据拆分为正样本及负样本。
其中,可以基于欧氏距离计算所述文档数据与所述问题数据间的相似度,本发明不限制。
具体地,将欧氏距离大于或者等于预设阈值的文档数据划分为一类,作为所述正样本,并且,将欧氏距离小于所述预设阈值的文档数据划分为一类,作为所述负样本。
当然,在其他实施方式中,还可以通过人为标注的方式。
例如:根据标注人员标注的结果划分正负样本,标注可以包括0,1,2,3四个等级,3表示文档和问题最相似,0表示文档和问题最不相似;3可以被划分为正样本,0,1,2可以被划分为负样本;或者2为正样本,0,1作为负样本;或者1为正样本,0作为负样本,具体可以根据实际需求确定,本发明不限制。
构建单元114根据所述问题数据、所述正样本及所述负样本构建三元组。
在本发明的至少一个实施例中,所述构建单元114采用下述公式根据所述问题数据、所述正样本及所述负样本构建三元组:
Im=(Qm,Pa,Nb)
其中,Im表示第m个三元组;Pa表示对应于Qm的第a个正样本;Pb表示对应于Qm的第b个负样本;a、b为正整数。
可以理解的是,在模型的第一阶段训练中,没有考虑数据间的比较关系,因此,在模型的第二阶段训练中将进一步关注数据间的比较,以完善模型。
所述构建单元114构建目标损失函数。
在本发明的至少一个实施例中,所述构建单元114采用构建目标损失函数:
L=max(||Squery-Spositive||-||Squery-Snegative||+Margin,0)
其中,L表示所述目标损失函数,Squery表示所述问题数据对应的句向量,Spositive表示所述正样本对应的句向量,Snegative表示所述负样本对应的句向量,Margin表示安全系数。
具体地,所述Margin使正确预测的得分高于错误预测的得分,进而能够使训练出的模型有更大的把握进行正确分类。例如:所述Margin可以配置为1。
上述构建的TripleLoss损失函数能够使模型直接学习不同文档数据之间的比较关系,提升了模型的整体排序效果。
训练单元115根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型。
在本发明的至少一个实施例中,所述训练单元115根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型包括:
将所述三元组作为训练样本训练所述中间模型;
在训练过程中,监测所述目标损失函数的函数值;
当所述函数值不再减小时,停止训练,得到所述目标模型。
具体地,在训练过程中,使所述正样本与所述问题数据间的距离小于所述负样本与所述问题数据间的距离,并据此不断优化模型,使模型的损失函数达到最小。
上述实施方式中,在第一阶段训练得到的中间模型的基础上,再继续进行第二阶段的训练,采用Pairwise的思想,将排序问题转换为对两两文档的比较,即将问题数据和文档数据采用三元组形式表示,以第一阶段训练得出的中间模型作为预训练模型,对三元组进行向量化,经过微调后,训练出的目标模型可以学习到不同文档数据之间的相对关系,从而能够获得更具有排序表征能力的语义向量,更好实现对句子的表达。
当接收到待查询问题及对应的至少一个查询文档时,确定单元116将所述待查询问题及所述至少一个查询文档输入至所述目标模型,得到所述至少一个查询文档的排序结果,并将所述排序结果确定为所述待查询问题的查询结果。
例如:当所述待查询问题为“理财产品有哪些”时,将查询到的所有理财产品按照模型输出的顺序显示给用户,以供用户择优选择。
在本实施例中,所述待查询数据可以由任意用户上传,本发明不限制。
所述目标模型融入了基于Pointwise和Pairwise相结合的LTR排序模型,并使用BERT深度学习和三元组TripleLoss损失函数等技术,对召回结果做更精细化的排序,通过计算查询问题与召回的所有文档之间的相关性对文档进行排序,以返回给用户更优的排序结果。
具体地,所述目标模型经过了两阶段的训练:
第一阶段,通过基于孪生网络的Pointwise训练出一个Sentence BERT模型,即所述中间模型,学习问题数据和文档数据间的相关性特征,解决BERT模型对句子的表征能力不强和计算开销大的问题,并保证有质量更好的数据来监督第二阶段的精调排序模型;
第二阶段,采用基于三元组TripleLoss的Pairwise学习文档数据之间排序的特征,相比于以往直接单独学习排序特征效果要好,并最终提升了整个搜索的排序质量,以便提升用户的满意度。
需要说明的是,为了进一步保证数据的安全性,可以将目标模型部署于区块链,以避免数据被恶意篡改。
由以上技术方案可以看出,本发明能够响应于信息检索指令,根据所述信息检索指令获取训练数据,从所述训练数据中识别问题数据及文档数据,并对所述问题数据及所述文档数据进行拼接处理,得到样本序列,调用初始网络,并根据所述样本序列对所述初始网络进行预训练,得到中间模型,通过基于孪生网络的Pointwise训练出一个SentenceBERT模型,即所述中间模型,学习问题数据和文档数据间的相关性特征,解决BERT模型对句子的表征能力不强和计算开销大的问题,并保证有质量更好的数据来监督第二阶段的精调排序模型,计算所述文档数据与所述问题数据间的相似度,根据所述文档数据与所述问题数据间的相似度将所述文档数据拆分为正样本及负样本,根据所述问题数据、所述正样本及所述负样本构建三元组,构建目标损失函数,根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型,采用基于三元组TripleLoss的Pairwise学习文档数据之间排序的特征,相比于以往直接单独学习排序特征效果要好,并最终提升了整个搜索的排序质量,以便提升用户的满意度,当接收到待查询问题及对应的至少一个查询文档时,将所述待查询问题及所述至少一个查询文档输入至所述目标模型,得到所述至少一个查询文档的排序结果,并将所述排序结果确定为所述待查询问题的查询结果,基于Pointwise和Pairwise相结合的LTR排序模型,并使用BERT深度学习和三元组TripleLoss损失函数等对召回结果做更精细化的排序,通过计算查询问题与召回的所有文档之间的相关性对文档进行排序,以返回给用户更优的排序结果。
如图3所示,是本发明实现信息检索方法的较佳实施例的电子设备的结构示意图。
所述电子设备1可以包括存储器12、处理器13和总线,还可以包括存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如信息检索程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,所述电子设备1既可以是总线型结构,也可以是星形结构,所述电子设备1还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置,例如所述电子设备1还可以包括输入输出设备、网络接入设备等。
需要说明的是,所述电子设备1仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
其中,存储器12至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器12在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。存储器12在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器12还可以既包括电子设备1的内部存储单元也包括外部存储设备。存储器12不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如信息检索程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器13在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。处理器13是所述电子设备1的控制核心(Control Unit),利用各种接口和线路连接整个电子设备1的各个部件,通过运行或执行存储在所述存储器12内的程序或者模块(例如执行信息检索程序等),以及调用存储在所述存储器12内的数据,以执行电子设备1的各种功能和处理数据。
所述处理器13执行所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个信息检索方法实施例中的步骤,例如图1所示的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的执行过程。例如,所述计算机程序可以被分割成获取单元110、拼接单元111、预训练单元112、拆分单元113、构建单元114、训练单元115、确定单元116。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、计算机设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述信息检索方法的部分。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指示相关的硬件设备来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器等。
进一步地,计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,在图3中仅用一根箭头表示,但并不表示仅有一根总线或一种类型的总线。所述总线被设置为实现所述存储器12以及至少一个处理器13等之间的连接通信。
尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器13逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
图3仅示出了具有组件12-13的电子设备1,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种信息检索方法,所述处理器13可执行所述多个指令从而实现:
响应于信息检索指令,根据所述信息检索指令获取训练数据;
从所述训练数据中识别问题数据及文档数据,并对所述问题数据及所述文档数据进行拼接处理,得到样本序列;
调用初始网络,并根据所述样本序列对所述初始网络进行预训练,得到中间模型;
计算所述文档数据与所述问题数据间的相似度,根据所述文档数据与所述问题数据间的相似度将所述文档数据拆分为正样本及负样本;
根据所述问题数据、所述正样本及所述负样本构建三元组;
构建目标损失函数;
根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型;
当接收到待查询问题及对应的至少一个查询文档时,将所述待查询问题及所述至少一个查询文档输入至所述目标模型,得到所述至少一个查询文档的排序结果,并将所述排序结果确定为所述待查询问题的查询结果。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统实施例中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种信息检索方法,其特征在于,所述信息检索方法包括:
响应于信息检索指令,根据所述信息检索指令获取训练数据;
从所述训练数据中识别问题数据及文档数据,并对所述问题数据及所述文档数据进行拼接处理,得到样本序列,所述问题数据包括需要检索的问题,所述文档数据包括根据所述问题数据进行检索后获得的文档;
调用初始网络,并根据所述样本序列对所述初始网络进行预训练,得到中间模型;
计算所述文档数据与所述问题数据间的相似度,根据所述文档数据与所述问题数据间的相似度将所述文档数据拆分为正样本及负样本;
根据所述问题数据、所述正样本及所述负样本构建三元组;
构建目标损失函数;
根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型;
当接收到待查询问题及对应的至少一个查询文档时,将所述待查询问题及所述至少一个查询文档输入至所述目标模型,得到所述至少一个查询文档的排序结果,并将所述排序结果确定为所述待查询问题的查询结果。
2.如权利要求1所述的信息检索方法,其特征在于,所述根据所述信息检索指令获取训练数据包括:
解析所述信息检索指令的方法体,得到所述信息检索指令所携带的信息;
获取与领域对应的预设标签;
根据所述预设标签构建正则表达式;
利用所述正则表达式在所述信息检索指令所携带的信息中进行遍历,并将遍历到的数据确定为目标领域;
连接配置数据库,并从所述配置数据库中搜索与所述目标领域对应的数据作为所述训练数据。
3.如权利要求1所述的信息检索方法,其特征在于,采用下述公式对所述问题数据及所述文档数据进行拼接处理,得到样本序列:
Xi=[<CLS>,Qm,<SEP>,Dj,<SEP>]
其中,Xi表示第i个样本序列;<CLS>及<SEP>为标志,<CLS>用于标记首句句首,<SEP>用于分开两个句子,并标记尾句句尾;Qm表示第m个问题数据,Dj表示对应于Qm的第j个文档数据;i、m、j为正整数。
4.如权利要求1所述的信息检索方法,其特征在于,所述根据所述样本序列对所述初始网络进行预训练,得到中间模型包括:
将所述样本序列输入至所述初始网络的Bert层进行Embedding编码,得到嵌入向量;
将所述嵌入向量输入至所述初始网络的Pooling层进行池化处理,得到池化特征;
将所述池化特征输入至所述初始网络的Softmax层,得到输出值;
根据所述输出值,采用交叉熵损失函数优化所述初始网络,直至所述交叉熵损失函数的取值不再降低,停止训练,得到所述中间模型。
5.如权利要求3所述的信息检索方法,其特征在于,采用下述公式根据所述问题数据、所述正样本及所述负样本构建三元组:
Im=(Qm,Pa,Nb)
其中,Im表示第m个三元组;Pa表示对应于Qm的第a个正样本;Pb表示对应于Qm的第b个负样本;a、b为正整数。
6.如权利要求1所述的信息检索方法,其特征在于,采用构建目标损失函数:
L=max(||Squery-Spositive||-||Squery-Snegative||+Margin,0)
其中,L表示所述目标损失函数,Squery表示所述问题数据对应的句向量,Spositive表示所述正样本对应的句向量,Snegative表示所述负样本对应的句向量,Margin表示安全系数。
7.如权利要求1所述的信息检索方法,其特征在于,所述根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型包括:
将所述三元组作为训练样本训练所述中间模型;
在训练过程中,监测所述目标损失函数的函数值;
当所述函数值不再减小时,停止训练,得到所述目标模型。
8.一种信息检索装置,其特征在于,所述信息检索装置包括:
获取单元,用于响应于信息检索指令,根据所述信息检索指令获取训练数据;
拼接单元,用于从所述训练数据中识别问题数据及文档数据,并对所述问题数据及所述文档数据进行拼接处理,得到样本序列,所述问题数据包括需要检索的问题,所述文档数据包括根据所述问题数据进行检索后获得的文档;
预训练单元,用于调用初始网络,并根据所述样本序列对所述初始网络进行预训练,得到中间模型;
拆分单元,用于计算所述文档数据与所述问题数据间的相似度,根据所述文档数据与所述问题数据间的相似度将所述文档数据拆分为正样本及负样本;
构建单元,用于根据所述问题数据、所述正样本及所述负样本构建三元组;
所述构建单元,还用于构建目标损失函数;
训练单元,用于根据所述三元组及所述目标损失函数训练所述中间模型,得到目标模型;
确定单元,用于当接收到待查询问题及对应的至少一个查询文档时,将所述待查询问题及所述至少一个查询文档输入至所述目标模型,得到所述至少一个查询文档的排序结果,并将所述排序结果确定为所述待查询问题的查询结果。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的信息检索方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的信息检索方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110076199.6A CN112860848B (zh) | 2021-01-20 | 2021-01-20 | 信息检索方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110076199.6A CN112860848B (zh) | 2021-01-20 | 2021-01-20 | 信息检索方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112860848A CN112860848A (zh) | 2021-05-28 |
CN112860848B true CN112860848B (zh) | 2022-03-25 |
Family
ID=76007746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110076199.6A Active CN112860848B (zh) | 2021-01-20 | 2021-01-20 | 信息检索方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112860848B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113407814B (zh) * | 2021-06-29 | 2023-06-16 | 抖音视界有限公司 | 文本搜索方法、装置、可读介质及电子设备 |
CN113515620A (zh) * | 2021-07-20 | 2021-10-19 | 云知声智能科技股份有限公司 | 电力设备技术标准文档排序方法、装置、电子设备和介质 |
CN114020887B (zh) * | 2021-10-29 | 2023-11-07 | 北京有竹居网络技术有限公司 | 用于确定响应语句的方法、设备、装置和介质 |
CN114969486B (zh) * | 2022-08-02 | 2022-11-04 | 平安科技(深圳)有限公司 | 语料推荐方法、装置、设备及存储介质 |
CN118013020B (zh) * | 2024-04-09 | 2024-06-18 | 北京知呱呱科技有限公司 | 一种基于检索生成联合式训练的专利查询方法及系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7853599B2 (en) * | 2008-01-21 | 2010-12-14 | Microsoft Corporation | Feature selection for ranking |
CN110633407B (zh) * | 2018-06-20 | 2022-05-24 | 百度在线网络技术(北京)有限公司 | 信息检索方法、装置、设备及计算机可读介质 |
CN110377714A (zh) * | 2019-07-18 | 2019-10-25 | 泰康保险集团股份有限公司 | 基于迁移学习的文本匹配方法、装置、介质及设备 |
CN110717339B (zh) * | 2019-12-12 | 2020-06-30 | 北京百度网讯科技有限公司 | 语义表示模型的处理方法、装置、电子设备及存储介质 |
CN111814058A (zh) * | 2020-08-20 | 2020-10-23 | 深圳市欢太科技有限公司 | 基于用户意图的推送方法、装置、电子设备及存储介质 |
-
2021
- 2021-01-20 CN CN202110076199.6A patent/CN112860848B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112860848A (zh) | 2021-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112860848B (zh) | 信息检索方法、装置、设备及介质 | |
CN111428488A (zh) | 简历数据信息解析及匹配方法、装置、电子设备及介质 | |
CN111984793A (zh) | 文本情感分类模型训练方法、装置、计算机设备及介质 | |
CN111666415A (zh) | 话题聚类方法、装置、电子设备及存储介质 | |
CN111985241B (zh) | 医学信息查询方法、装置、电子设备及介质 | |
CN111798123A (zh) | 基于人工智能的合规性评价方法、装置、设备及介质 | |
WO2023279692A1 (zh) | 基于问答平台的数据处理方法、装置及相关设备 | |
CN111753089A (zh) | 话题聚类方法、装置、电子设备及存储介质 | |
CN115081538A (zh) | 基于机器学习的客户关系识别方法、装置、设备及介质 | |
CN113704410A (zh) | 情绪波动检测方法、装置、电子设备及存储介质 | |
CN114416939A (zh) | 智能问答方法、装置、设备及存储介质 | |
CN113204698B (zh) | 新闻主题词生成方法、装置、设备及介质 | |
CN113157739B (zh) | 跨模态检索方法、装置、电子设备及存储介质 | |
CN112651782B (zh) | 基于缩放点积注意力的行为预测方法、装置、设备及介质 | |
CN112052409B (zh) | 地址解析方法、装置、设备及介质 | |
CN113254814A (zh) | 网络课程视频打标签方法、装置、电子设备及介质 | |
CN112364068A (zh) | 课程标签生成方法、装置、设备及介质 | |
CN112632264A (zh) | 智能问答方法、装置、电子设备及存储介质 | |
CN116737933A (zh) | 文本分类方法、装置、电子设备及计算机可读存储介质 | |
CN116628162A (zh) | 语义问答方法、装置、设备及存储介质 | |
CN116450829A (zh) | 医疗文本分类方法、装置、设备及介质 | |
CN115346095A (zh) | 视觉问答方法、装置、设备及存储介质 | |
CN113590845B (zh) | 基于知识图谱的文献检索方法、装置、电子设备及介质 | |
CN115510219A (zh) | 话术推荐方法、装置、电子设备及存储介质 | |
CN114595321A (zh) | 问题标注方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |