CN116662488A - 业务文档检索方法、装置、设备及存储介质 - Google Patents
业务文档检索方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116662488A CN116662488A CN202310695053.9A CN202310695053A CN116662488A CN 116662488 A CN116662488 A CN 116662488A CN 202310695053 A CN202310695053 A CN 202310695053A CN 116662488 A CN116662488 A CN 116662488A
- Authority
- CN
- China
- Prior art keywords
- document
- model
- query
- original
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 239000013598 vector Substances 0.000 claims abstract description 199
- 238000012549 training Methods 0.000 claims abstract description 137
- 238000000605 extraction Methods 0.000 claims abstract description 44
- 230000003993 interaction Effects 0.000 claims description 44
- 238000004364 calculation method Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 14
- 230000002452 interceptive effect Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 abstract description 16
- 238000013473 artificial intelligence Methods 0.000 abstract description 8
- 238000012545 processing Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000007726 management method Methods 0.000 description 5
- 238000012512 characterization method Methods 0.000 description 4
- 230000009193 crawling Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Library & Information Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及金融科技领域的人工智能技术,揭露了一种业务文档检索方法,包括:对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型,利用原始文档训练集合对原始双塔模型进行对比学习训练,得到包括标准查询模型及标准文档模型的标准双塔模型,利用标准文档模型对待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合,利用标准查询模型对用户查询信息进行向量编码,得到查询向量,基于查询向量对稠密向量集合进行文档检索,得到文档检索结果。本发明还涉及区块链技术,所述文档检索结果可存储在区块链的节点中。本发明还提出一种业务文档检索装置、电子设备以及可读存储介质。本发明可以提高文档检索的效率及准确率。
Description
技术领域
本发明涉及金融科技及人工智能技术领域,尤其涉及一种业务文档检索方法、装置、电子设备及可读存储介质。
背景技术
随着科技的发展,非结构化数据的查询检索变的越来越重要,文档检索主要通过稠密向量检索来进行,例如,金融类业务文档的检索。稠密向量检索是指将海量的非结构化数据或半结构化数据通过AI模型转换成向量化数据进行存储,并构建索引来检索。
随着大型深度学习模型的快速发展,稠密向量检索的解决方案主要集中在三个方向,即表示型、全交互型和半交互型。其中:1、表示型的解决方案也被称为双塔模型,通常是指基于两个结构相似的深度学习模型分别对query和待检索的document进行编码,然后计算query编码向量与所有待检索document编码向量的相似度距离,按相似度高低来召回相关document,双塔模型的优势是可以离线提前计算好所有的document编码向量,线上推理阶段只需要计算query编码向量,并与提前计算好的document向量进行相似度计算即可,这样的检索方案效率最快,但由于query和document在模型训练阶段缺少交互,检索准确率完全依赖于独立深度学习模型的编码能力,然而在金融领域,将复杂多变的金融检索信息映射到固定长度的向量中是非常困难的,所以表示型方案的检索准确率往往较低;2、在全交互型方案中,query和document会作为一个整体贯穿模型训练阶段和线上推理阶段,同一个document根据搭配query的不同,会有不同的向量表示并蕴含特定的相关性信息,这样大大提高了检索的准确率,但全交互式方案不可忽视的缺点是线上检索效率极低,由于query和document是结合在一起进行编码,无法对海量的document提前进行编码计算,例如,每一次金融文档线上检索都需要临时计算所有的待检索向量,检索效率低下;3、半交互型方案是指在模型训练阶段进行一定的交互式对比学习,在模型推理阶段(线上检索)简化为双塔模型,如借鉴模型蒸馏技术,将交互式模型作为老师模型,将其能力蒸馏到双塔学生模型中去,通过这种方式来针对性地增强双塔模型的向量表征能力,这样既保留了一部分交互式模型的检索能力,又能维持双塔模型的检索效率,缺点是训练阶段的测试效果无法反映线上的实际效果,检索准确率较低。
综上所述,现有的业务文档检索方法均存在检索效率低或准确率较低的问题。
发明内容
本发明提供一种业务文档检索方法、装置、电子设备及可读存储介质,其主要目的在于提高文档检索的效率及准确率。
为实现上述目的,本发明提供的一种业务文档检索方法,包括:
对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型;
获取原始文档训练集合,利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,其中,所述标准双塔模型包括标准查询模型及标准文档模型;
获取待检索文档集合,利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合;
获取用户查询信息,利用所述标准查询模型对所述用户查询信息进行向量编码,得到查询向量;
基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果。
可选地,所述获取包含通用领域文档数据的第一文档训练集合,利用所述第一文档训练集合对所述信息抽取模型进行模型训练,得到通用信息抽取模型;
获取包含特定领域文档数据的第二文档训练集合,利用所述第二文档训练集合对所述通用信息抽取模型进行模型训练,得到特定信息抽取模型;
将所述特定信息抽取模型作为原始查询模型,以及将同样方法训练的特定信息抽取模型作为原始文档模型,将所述原始查询模型及原始文档模型进行并联,并在并联模型后构建交互层,得到所述原始双塔模型。
可选地,所述利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,包括:
基于所述原始文档训练集合中的原始查询数据及原始文档数据构造正样本对及负样本对;
利用所述原始双塔模型的原始查询模型提取所述正样本对及负样本对中的查询向量,以及利用原始双塔模型的原始文档模型提取所述正样本对及负样本对中的文档向量;
利用所述原始双塔模型的交互层对所述查询向量及所述文档向量进行交互计算,得到交互损失,在所述交互损失大于预设的交互阈值时,调整所述原始双塔模型的模型参数,直至所述交互损失小于等于所述交互阈值时,停止训练,得到包含标准查询模型及标准文档模型的标准双塔模型。
可选地,利用下述Loss函数计算所述交互损失:
其中,Loss表示交互损失,L表示原始文档训练集合的大小,λ表示温度参数,(Qj,Pj)表示正样本对,Qj表示第j个查询向量,Pj表示第j个文档向量,(Qj,Ni)表示负样本对,Ni表示第i个文档向量。
可选地,所述基于所述原始文档训练集合中的原始查询数据及原始文档数据构造正样本对及负样本对,包括:
从所述原始文档训练集合中随机选择一个原始查询数据作为目标查询数据,为所述目标查询数据随机配置一个原始文档数据,得到查询-文档对并作为正样本对;
将所述原始文档训练集合中未配置的原始文档数据作为所述目标查询数据的负样本,并组成负样本对;
返回所述从所述原始文档训练集合中随机选择一个原始查询数据作为目标查询数据的步骤,直至所有原始查询数据被选为目标查询数据,汇总所有的正样本对及负样本对作为训练数据。
可选地,所述利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合,包括:
利用所述标准文档模型对所述待检索文档集合中的文档进行向量编码,得到编码向量;
利用预设数量的参数向量矩阵对所述编码向量进行多注意力机制计算,得到所述稠密向量集合。
可选地,所述基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果,包括:
分别对所述查询向量及所述稠密向量集合中的稠密向量进行正则化处理;
对正则化处理后的向量进行相似度计算,得到相似度结果集合,对所述相似度结果集合进行去重处理,并选取相似度最大的稠密向量对应的文档数据作为文档检索结果。
为了解决上述问题,本发明还提供一种业务文档检索装置,所述装置包括:
模型训练模块,用于对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型,获取原始文档训练集合,利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,其中,所述标准双塔模型包括标准查询模型及标准文档模型;
稠密向量编码模块,用于获取待检索文档集合,利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合;
文档检索模块,用于获取用户查询信息,利用所述标准查询模型对所述用户查询信息进行向量编码,得到查询向量,基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的业务文档检索方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的业务文档检索方法。
本发明基于双塔模型架构,在模型训练时进行交互学习,保留了半交互式模型训练阶段的匹配能力,并且基于多注意力机制对金融领域真实业务中的待检索文档集合进行向量编码,可以丰富双塔模型的向量表征能力,提高文档检索的准确率。由于本发明百分之百保留了半交互式模型训练阶段的交互训练能力,例如在金融领域可以使得单一的document能够更好的匹配不同的query,可以提高金融文档检索的准确率,同时也保留了传统双塔模型的检索能力,提高了文档检索的效率。因此本发明提出的业务文档检索方法、装置、电子设备及计算机可读存储介质,可以提高文档检索的效率及准确率。
附图说明
图1为本发明一实施例提供的业务文档检索方法的流程示意图;
图2为本发明一实施例提供的业务文档检索装置的功能模块图;
图3为本发明一实施例提供的实现所述业务文档检索方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种业务文档检索方法。所述业务文档检索方法的执行主体包括但不限于服务端、终端等能够被配置为执行本发明实施例提供的该方法的电子设备中的至少一种。换言之,所述业务文档检索方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的业务文档检索方法的流程示意图。在本实施例中,所述业务文档检索方法包括以下步骤S1-S5:
S1、对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型。
本发明实施例中,所述预构建的信息抽取模型可以为transformer模型。所述多阶段通用训练是指基于开源数据集合(可基于维基百科、百度百科等获取)对transformer模型进行训练,从而得到具有基本信息抽取能力的transformer模型,再将该模型作为底层模型构造原始双塔模型,从而提高数据处理能力。
详细地,所述对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型,包括:
获取包含通用领域文档数据的第一文档训练集合,利用所述第一文档训练集合对所述信息抽取模型进行模型训练,得到通用信息抽取模型;
获取包含特定领域文档数据的第二文档训练集合,利用所述第二文档训练集合对所述通用信息抽取模型进行模型训练,得到特定信息抽取模型;
将所述特定信息抽取模型作为原始查询模型,以及将同样方法训练的特定信息抽取模型作为原始文档模型,将所述原始查询模型及原始文档模型进行并联,并在并联模型后构建交互层,得到所述原始双塔模型。
本发明一可选实施例中,所述通用领域文档数据是指不同领域的文档通用语料,例如,利用数据爬取工具从不同领域的门户网站及专业网站(维基百科等)爬取通用领域文档数据,可以包括:金融类、法律类、医疗类、教育类、娱乐类、体育类等。通过半监督或无监督的训练方式训练transformer模型,得到通用信息抽取模型,再基于特定检索场景的垂直领域语料(例如特定领域文档数据为金融类文档数据,包括基金文档、保险文档等),重复之前的训练方式来得到一个更加适配该垂直领域的transformer模型,即特定信息抽取模型。
本发明一可选实施例中,所述交互层用于对原始查询模型及原始文档模型输出的向量先进行L2正则化处理,然后进行cosine相似度计算,从而对两种向量进行交互,最后通过max pooling得到交互结果。
S2、获取原始文档训练集合,利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,其中,所述标准双塔模型包括标准查询模型及标准文档模型。
本发明实施例中,所述原始文档训练集合是指某一业务中的历史真实数据(例如保险的查询购买记录),包括原始查询数据(query)及原始文档数据(document)。例如,金融领域中,通过对日志埋点得到用户在金融APP、网页中的用户点击数据(原始查询数据)和购买数据(原始文档数据)等。
详细地,所述利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,包括:
基于所述原始文档训练集合中的原始查询数据及原始文档数据构造正样本对及负样本对;
利用所述原始双塔模型的原始查询模型提取所述正样本对及负样本对中的查询向量,以及利用原始双塔模型的原始文档模型提取所述正样本对及负样本对中的文档向量;
利用所述原始双塔模型的交互层对所述查询向量及所述文档向量进行交互计算,得到交互损失,在所述交互损失大于预设的交互阈值时,调整所述原始双塔模型的模型参数,直至所述交互损失小于等于所述交互阈值时,停止训练,得到包含标准查询模型及标准文档模型的标准双塔模型。
本发明一可选实施例中,利用下述Loss函数计算所述交互损失:
其中,Loss表示交互损失,L表示原始文档训练集合的大小,λ表示温度参数,(Qj,Pj)表示正样本对,Qj表示第j个查询向量,Pj表示第j个文档向量,(Qj,Ni)表示负样本对,Ni表示第i个文档向量。
详细地,所述基于所述原始文档训练集合中的原始查询数据及原始文档数据构造正样本对及负样本对,包括:
从所述原始文档训练集合中随机选择一个原始查询数据作为目标查询数据,为所述目标查询数据随机配置一个原始文档数据,得到查询-文档对并作为正样本对;
将所述原始文档训练集合中未配置的原始文档数据作为所述目标查询数据的负样本,并组成负样本对;
返回所述从所述原始文档训练集合中随机选择一个原始查询数据作为目标查询数据的步骤,直至所有原始查询数据被选为目标查询数据,汇总所有的正样本对及负样本对作为训练数据。
本发明一可选实施例中,对原始文档训练集合batch中的一个原始查询数据query配置一个原始文档数据document作为正样本,例如,一个原始文档训练集合内包含了L个query和L个document,对于一个query,配置一个document组成正样本对,其余L-1个document与query组成负样本对,这样对于每一个query,一个原始文档训练集合batch内有一个正样本(正样本对)和L-1个负样本(负样本对),即存在L个query-document正样本对;同时,为了将正样本更好地与负样本区分开,需要通过对比学习将正样本的相似度最大化,即正样本对的相似度要大于任意一个负样本对,但由于batch是随机组合的,其中可能含有与正样本弱相关甚至相似的负样本,为了避免过度学习使得模型强行区分这些相似样本,所述Loss函数需要考虑到正样本对相似度仅仅大于负样本对即可,至于大多少由模型决定,而不是将正样本对相似度向1逼近,负样本对相似度向0或-1逼近,从而提高识别的准确率。通过交互训练,原始文档模型会将单一的document映射到高维向量空间的多个位置中去,使得单一的document能够更好的匹配不同的query,提高查询准确率。
S3、获取待检索文档集合,利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合。
本发明实施例中,所述利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合,包括:
利用所述标准文档模型对所述待检索文档集合中的文档进行向量编码,得到编码向量;
利用预设数量的参数向量矩阵对所述编码向量进行多注意力机制计算,得到所述稠密向量集合。
本发明一可选实施例中,利用标准文档模型transformer将待检索文档集合中的文档进行向量编码,输出编码向量并连接若干个初始化的参数向量矩阵,这些初始化矩阵分别与transformer输出的编码做attention计算,将若干个attention计算结果(即稠密向量)作为该文档在不同语义场景下的强化表示。同时将计算好的稠密向量储存在预设的向量引擎或者内存中,方便在线检索时这些数据可以被快速重复使用,从而提高检索效率。
在金融领域中,由于标准文档模型先通过通用领域训练,再经过特定金融领域文档数据训练,使得金融文档数据向量编码更加准确,可以提高金融文档检索的准确性。
S4、获取用户查询信息,利用所述标准查询模型对所述用户查询信息进行向量编码,得到查询向量。
本发明实施例中,在线检索时只需要通过标准查询模型对用户输入的用户查询信息进行编码计算,即可得到查询向量,即标准查询模型transformer将用户查询信息进行向量编码,输出编码后的查询向量。
S5、基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果。
本发明实施例中,所述基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果,包括:
分别对所述查询向量及所述稠密向量集合中的稠密向量进行正则化处理;
对正则化处理后的向量进行相似度计算,得到相似度结果集合,对所述相似度结果集合进行去重处理,并选取相似度最大的稠密向量对应的文档数据作为文档检索结果。
本发明一可选实施例中,通过下述公式计算文档检索结果:
其中,f(q,d)表示文档检索结果,q表示用户查询信息,d表示稠密向量集合,Di表示第i个稠密向量,Q表示查询向量,cosine表示相似度计算。
本发明一可选实施例中,直接将标准查询模型transformer输出的查询向量与若干个attention结果(即稠密向量)先进行L2正则化处理,然后进行cosine相似度计算,取相似度最高的attention结果对应的文档数据作为文档检索结果。同时,由于单个文档被编码成了若干个稠密向量,获取Top-K相似度的文档集合时,可以根据document id对稠密向量集合进行去重,从而避免召回重复的文档数据。
本发明另一可选实施例中,由于文档信息检索数量被放大了若干倍,对于常数阶的数据量扩展,可以通过设置合适的索引来降低检索延迟,从而提高检索效率。
本发明基于双塔模型架构,在模型训练时进行交互学习,保留了半交互式模型训练阶段的匹配能力,并且基于多注意力机制对金融领域真实业务中的待检索文档集合进行向量编码,可以丰富双塔模型的向量表征能力,提高文档检索的准确率。由于本发明百分之百保留了半交互式模型训练阶段的交互训练能力,例如在金融领域可以使得单一的document能够更好的匹配不同的query,可以提高金融文档检索的准确率,同时也保留了传统双塔模型的检索能力,提高了文档检索的效率。因此本发明提出的业务文档检索方法,可以提高文档检索的效率及准确率。
如图2所示,是本发明一实施例提供的业务文档检索装置的功能模块图。
本发明所述业务文档检索装置100可以安装于电子设备中。根据实现的功能,所述业务文档检索装置100可以包括模型训练模块101、稠密向量编码模块102及文档检索模块103。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述模型训练模块101,用于对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型,获取原始文档训练集合,利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,其中,所述标准双塔模型包括标准查询模型及标准文档模型;
所述稠密向量编码模块102,用于获取待检索文档集合,利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合;
所述文档检索模块103,用于获取用户查询信息,利用所述标准查询模型对所述用户查询信息进行向量编码,得到查询向量,基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果。
详细地,所述业务文档检索装置100各模块的具体实施方式如下:
步骤一、对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型。
本发明实施例中,所述预构建的信息抽取模型可以为transformer模型。所述多阶段通用训练是指基于开源数据集合(可基于维基百科、百度百科等获取)对transformer模型进行训练,从而得到具有基本信息抽取能力的transformer模型,再将该模型作为底层模型构造原始双塔模型,从而提高数据处理能力。
详细地,所述对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型,包括:
获取包含通用领域文档数据的第一文档训练集合,利用所述第一文档训练集合对所述信息抽取模型进行模型训练,得到通用信息抽取模型;
获取包含特定领域文档数据的第二文档训练集合,利用所述第二文档训练集合对所述通用信息抽取模型进行模型训练,得到特定信息抽取模型;
将所述特定信息抽取模型作为原始查询模型,以及将同样方法训练的特定信息抽取模型作为原始文档模型,将所述原始查询模型及原始文档模型进行并联,并在并联模型后构建交互层,得到所述原始双塔模型。
本发明一可选实施例中,所述通用领域文档数据是指不同领域的文档通用语料,例如,利用数据爬取工具从不同领域的门户网站及专业网站(维基百科等)爬取通用领域文档数据,可以包括:金融类、法律类、医疗类、教育类、娱乐类、体育类等。通过半监督或无监督的训练方式训练transformer模型,得到通用信息抽取模型,再基于特定检索场景的垂直领域语料(例如特定领域文档数据为金融类文档数据,包括基金文档、保险文档等),重复之前的训练方式来得到一个更加适配该垂直领域的transformer模型,即特定信息抽取模型。
本发明一可选实施例中,所述交互层用于对原始查询模型及原始文档模型输出的向量先进行L2正则化处理,然后进行cosine相似度计算,从而对两种向量进行交互,最后通过max pooling得到交互结果。
步骤二、获取原始文档训练集合,利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,其中,所述标准双塔模型包括标准查询模型及标准文档模型。
本发明实施例中,所述原始文档训练集合是指某一业务中的历史真实数据(例如保险的查询购买记录),包括原始查询数据(query)及原始文档数据(document)。例如,金融领域中,通过对日志埋点得到用户在金融APP、网页中的用户点击数据(原始查询数据)和购买数据(原始文档数据)等。
详细地,所述利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,包括:
基于所述原始文档训练集合中的原始查询数据及原始文档数据构造正样本对及负样本对;
利用所述原始双塔模型的原始查询模型提取所述正样本对及负样本对中的查询向量,以及利用原始双塔模型的原始文档模型提取所述正样本对及负样本对中的文档向量;
利用所述原始双塔模型的交互层对所述查询向量及所述文档向量进行交互计算,得到交互损失,在所述交互损失大于预设的交互阈值时,调整所述原始双塔模型的模型参数,直至所述交互损失小于等于所述交互阈值时,停止训练,得到包含标准查询模型及标准文档模型的标准双塔模型。
本发明一可选实施例中,利用下述Loss函数计算所述交互损失:
其中,Loss表示交互损失,L表示原始文档训练集合的大小,λ表示温度参数,(Qj,Pj)表示正样本对,Qj表示第j个查询向量,Pj表示第j个文档向量,(Qj,Ni)表示负样本对,Ni表示第i个文档向量。
详细地,所述基于所述原始文档训练集合中的原始查询数据及原始文档数据构造正样本对及负样本对,包括:
从所述原始文档训练集合中随机选择一个原始查询数据作为目标查询数据,为所述目标查询数据随机配置一个原始文档数据,得到查询-文档对并作为正样本对;
将所述原始文档训练集合中未配置的原始文档数据作为所述目标查询数据的负样本,并组成负样本对;
返回所述从所述原始文档训练集合中随机选择一个原始查询数据作为目标查询数据的步骤,直至所有原始查询数据被选为目标查询数据,汇总所有的正样本对及负样本对作为训练数据。
本发明一可选实施例中,对原始文档训练集合batch中的一个原始查询数据query配置一个原始文档数据document作为正样本,例如,一个原始文档训练集合内包含了L个query和L个document,对于一个query,配置一个document组成正样本对,其余L-1个document与query组成负样本对,这样对于每一个query,一个原始文档训练集合batch内有一个正样本(正样本对)和L-1个负样本(负样本对),即存在L个query-document正样本对;同时,为了将正样本更好地与负样本区分开,需要通过对比学习将正样本的相似度最大化,即正样本对的相似度要大于任意一个负样本对,但由于batch是随机组合的,其中可能含有与正样本弱相关甚至相似的负样本,为了避免过度学习使得模型强行区分这些相似样本,所述Loss函数需要考虑到正样本对相似度仅仅大于负样本对即可,至于大多少由模型决定,而不是将正样本对相似度向1逼近,负样本对相似度向0或-1逼近,从而提高识别的准确率。通过交互训练,原始文档模型会将单一的document映射到高维向量空间的多个位置中去,使得单一的document能够更好的匹配不同的query,提高查询准确率。
步骤三、获取待检索文档集合,利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合。
本发明实施例中,所述利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合,包括:
利用所述标准文档模型对所述待检索文档集合中的文档进行向量编码,得到编码向量;
利用预设数量的参数向量矩阵对所述编码向量进行多注意力机制计算,得到所述稠密向量集合。
本发明一可选实施例中,利用标准文档模型transformer将待检索文档集合中的文档进行向量编码,输出编码向量并连接若干个初始化的参数向量矩阵,这些初始化矩阵分别与transformer输出的编码做attention计算,将若干个attention计算结果(即稠密向量)作为该文档在不同语义场景下的强化表示。同时将计算好的稠密向量储存在预设的向量引擎或者内存中,方便在线检索时这些数据可以被快速重复使用,从而提高检索效率。
在金融领域中,由于标准文档模型先通过通用领域训练,再经过特定金融领域文档数据训练,使得金融文档数据向量编码更加准确,可以提高金融文档检索的准确性。
步骤四、获取用户查询信息,利用所述标准查询模型对所述用户查询信息进行向量编码,得到查询向量。
本发明实施例中,在线检索时只需要通过标准查询模型对用户输入的用户查询信息进行编码计算,即可得到查询向量,即标准查询模型transformer将用户查询信息进行向量编码,输出编码后的查询向量。
步骤五、基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果。
本发明实施例中,所述基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果,包括:
分别对所述查询向量及所述稠密向量集合中的稠密向量进行正则化处理;
对正则化处理后的向量进行相似度计算,得到相似度结果集合,对所述相似度结果集合进行去重处理,并选取相似度最大的稠密向量对应的文档数据作为文档检索结果。
本发明一可选实施例中,通过下述公式计算文档检索结果:
其中,f(q,d)表示文档检索结果,q表示用户查询信息,d表示稠密向量集合,Di表示第i个稠密向量,Q表示查询向量,cosine表示相似度计算。
本发明一可选实施例中,直接将标准查询模型transformer输出的查询向量与若干个attention结果(即稠密向量)先进行L2正则化处理,然后进行cosine相似度计算,取相似度最高的attention结果对应的文档数据作为文档检索结果。同时,由于单个文档被编码成了若干个稠密向量,获取Top-K相似度的文档集合时,可以根据document id对稠密向量集合进行去重,从而避免召回重复的文档数据。
本发明另一可选实施例中,由于文档信息检索数量被放大了若干倍,对于常数阶的数据量扩展,可以通过设置合适的索引来降低检索延迟,从而提高检索效率。
本发明基于双塔模型架构,在模型训练时进行交互学习,保留了半交互式模型训练阶段的匹配能力,并且基于多注意力机制对金融领域真实业务中的待检索文档集合进行向量编码,可以丰富双塔模型的向量表征能力,提高文档检索的准确率。由于本发明百分之百保留了半交互式模型训练阶段的交互训练能力,例如在金融领域可以使得单一的document能够更好的匹配不同的query,可以提高金融文档检索的准确率,同时也保留了传统双塔模型的检索能力,提高了文档检索的效率。因此本发明提出的业务文档检索装置,可以提高文档检索的效率及准确率。
如图3所示,是本发明一实施例提供的实现所述业务文档检索方法的电子设备的结构示意图。
所述电子设备可以包括处理器10、存储器11、通信接口12和总线13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如业务文档检索程序。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如业务文档检索程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如业务文档检索程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述通信接口12用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
所述总线13可以是外设部件互连标准(Peripheral Component Interconnect,简称PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,简称EISA)总线等。该总线13可以分为地址总线、数据总线、控制总线等。所述总线13被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。
可选地,该电子设备还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备中的所述存储器11存储的业务文档检索程序是多个指令的组合,在所述处理器10中运行时,可以实现:
对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型;
获取原始文档训练集合,利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,其中,所述标准双塔模型包括标准查询模型及标准文档模型;
获取待检索文档集合,利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合;
获取用户查询信息,利用所述标准查询模型对所述用户查询信息进行向量编码,得到查询向量;
基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型;
获取原始文档训练集合,利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,其中,所述标准双塔模型包括标准查询模型及标准文档模型;
获取待检索文档集合,利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合;
获取用户查询信息,利用所述标准查询模型对所述用户查询信息进行向量编码,得到查询向量;
基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种业务文档检索方法,其特征在于,所述方法包括:
对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型;
获取原始文档训练集合,利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,其中,所述标准双塔模型包括标准查询模型及标准文档模型;
获取待检索文档集合,利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合;
获取用户查询信息,利用所述标准查询模型对所述用户查询信息进行向量编码,得到查询向量;
基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果。
2.如权利要求1所述的业务文档检索方法,其特征在于,所述获取包含通用领域文档数据的第一文档训练集合,利用所述第一文档训练集合对所述信息抽取模型进行模型训练,得到通用信息抽取模型;
获取包含特定领域文档数据的第二文档训练集合,利用所述第二文档训练集合对所述通用信息抽取模型进行模型训练,得到特定信息抽取模型;
将所述特定信息抽取模型作为原始查询模型,以及将同样方法训练的特定信息抽取模型作为原始文档模型,将所述原始查询模型及原始文档模型进行并联,并在并联模型后构建交互层,得到所述原始双塔模型。
3.如权利要求1中所述的业务文档检索方法,其特征在于,所述利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,包括:
基于所述原始文档训练集合中的原始查询数据及原始文档数据构造正样本对及负样本对;
利用所述原始双塔模型的原始查询模型提取所述正样本对及负样本对中的查询向量,以及利用原始双塔模型的原始文档模型提取所述正样本对及负样本对中的文档向量;
利用所述原始双塔模型的交互层对所述查询向量及所述文档向量进行交互计算,得到交互损失,在所述交互损失大于预设的交互阈值时,调整所述原始双塔模型的模型参数,直至所述交互损失小于等于所述交互阈值时,停止训练,得到包含标准查询模型及标准文档模型的标准双塔模型。
4.如权利要求3所述的业务文档检索方法,其特征在于,利用下述Loss函数计算所述交互损失:
其中,Loss表示交互损失,L表示原始文档训练集合的大小,λ表示温度参数,(Qj,Pj)表示正样本对,Qj表示第j个查询向量,Pj表示第j个文档向量,(Qj,Ni)表示负样本对,Ni表示第i个文档向量。
5.如权利要求4所述的业务文档检索方法,其特征在于,所述基于所述原始文档训练集合中的原始查询数据及原始文档数据构造正样本对及负样本对,包括:
从所述原始文档训练集合中随机选择一个原始查询数据作为目标查询数据,为所述目标查询数据随机配置一个原始文档数据,得到查询-文档对并作为正样本对;
将所述原始文档训练集合中未配置的原始文档数据作为所述目标查询数据的负样本,并组成负样本对;
返回所述从所述原始文档训练集合中随机选择一个原始查询数据作为目标查询数据的步骤,直至所有原始查询数据被选为目标查询数据,汇总所有的正样本对及负样本对作为训练数据。
6.如权利要求1所述的业务文档检索方法,其特征在于,所述利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合,包括:
利用所述标准文档模型对所述待检索文档集合中的文档进行向量编码,得到编码向量;
利用预设数量的参数向量矩阵对所述编码向量进行多注意力机制计算,得到所述稠密向量集合。
7.如权利要求1所述的业务文档检索方法,其特征在于,所述基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果,包括:
分别对所述查询向量及所述稠密向量集合中的稠密向量进行正则化处理;
对正则化处理后的向量进行相似度计算,得到相似度结果集合,对所述相似度结果集合进行去重处理,并选取相似度最大的稠密向量对应的文档数据作为文档检索结果。
8.一种业务文档检索装置,其特征在于,所述装置包括:
模型训练模块,用于对预构建的信息抽取模型进行多阶段通用训练,得到原始双塔模型,获取原始文档训练集合,利用所述原始文档训练集合对所述原始双塔模型进行对比学习训练,得到标准双塔模型,其中,所述标准双塔模型包括标准查询模型及标准文档模型;
稠密向量编码模块,用于获取待检索文档集合,利用所述标准文档模型对所述待检索文档集合进行多注意力稠密向量编码,得到稠密向量集合;
文档检索模块,用于获取用户查询信息,利用所述标准查询模型对所述用户查询信息进行向量编码,得到查询向量,基于所述查询向量对所述稠密向量集合进行文档检索,得到文档检索结果。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的业务文档检索方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的业务文档检索方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310695053.9A CN116662488A (zh) | 2023-06-12 | 2023-06-12 | 业务文档检索方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310695053.9A CN116662488A (zh) | 2023-06-12 | 2023-06-12 | 业务文档检索方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116662488A true CN116662488A (zh) | 2023-08-29 |
Family
ID=87725997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310695053.9A Pending CN116662488A (zh) | 2023-06-12 | 2023-06-12 | 业务文档检索方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116662488A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117290491A (zh) * | 2023-11-27 | 2023-12-26 | 语仓科技(北京)有限公司 | 基于聚合检索增强的大模型多轮对话方法、系统及设备 |
CN117910980A (zh) * | 2024-03-19 | 2024-04-19 | 国网山东省电力公司信息通信公司 | 一种电力档案数据治理方法、系统、设备及介质 |
CN118069814A (zh) * | 2024-04-16 | 2024-05-24 | 苏州元脑智能科技有限公司 | 文本处理方法、装置、电子设备及存储介质 |
CN118133046A (zh) * | 2024-04-30 | 2024-06-04 | 江苏中天互联科技有限公司 | 产业数据匹配方法及相关设备 |
-
2023
- 2023-06-12 CN CN202310695053.9A patent/CN116662488A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117290491A (zh) * | 2023-11-27 | 2023-12-26 | 语仓科技(北京)有限公司 | 基于聚合检索增强的大模型多轮对话方法、系统及设备 |
CN117910980A (zh) * | 2024-03-19 | 2024-04-19 | 国网山东省电力公司信息通信公司 | 一种电力档案数据治理方法、系统、设备及介质 |
CN117910980B (zh) * | 2024-03-19 | 2024-06-11 | 国网山东省电力公司信息通信公司 | 一种电力档案数据治理方法、系统、设备及介质 |
CN118069814A (zh) * | 2024-04-16 | 2024-05-24 | 苏州元脑智能科技有限公司 | 文本处理方法、装置、电子设备及存储介质 |
CN118133046A (zh) * | 2024-04-30 | 2024-06-04 | 江苏中天互联科技有限公司 | 产业数据匹配方法及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116662488A (zh) | 业务文档检索方法、装置、设备及存储介质 | |
CN111444340A (zh) | 文本分类和推荐方法、装置、设备及存储介质 | |
CN112287069B (zh) | 基于语音语义的信息检索方法、装置及计算机设备 | |
CN113821622B (zh) | 基于人工智能的答案检索方法、装置、电子设备及介质 | |
CN112085091B (zh) | 基于人工智能的短文本匹配方法、装置、设备及存储介质 | |
CN113378970B (zh) | 语句相似性检测方法、装置、电子设备及存储介质 | |
CN113656547B (zh) | 文本匹配方法、装置、设备及存储介质 | |
CN115238670B (zh) | 信息文本抽取方法、装置、设备及存储介质 | |
CN114077841A (zh) | 基于人工智能的语义提取方法、装置、电子设备及介质 | |
CN116821373A (zh) | 基于图谱的prompt推荐方法、装置、设备及介质 | |
CN114282059A (zh) | 视频检索的方法、装置、设备及存储介质 | |
CN113761220A (zh) | 信息获取方法、装置、设备及存储介质 | |
CN111444339B (zh) | 文本题目难度标注方法、装置及计算机可读存储介质 | |
CN114880449B (zh) | 智能问答的答复生成方法、装置、电子设备及存储介质 | |
CN113704393A (zh) | 关键词提取方法、装置、设备及介质 | |
CN116450829A (zh) | 医疗文本分类方法、装置、设备及介质 | |
CN115309865A (zh) | 基于双塔模型的交互式检索方法、装置、设备及存储介质 | |
CN114840684A (zh) | 基于医疗实体的图谱构建方法、装置、设备及存储介质 | |
CN113918704A (zh) | 基于机器学习的问答方法、装置、电子设备及介质 | |
CN113569018A (zh) | 问答对挖掘方法及装置 | |
CN116628162A (zh) | 语义问答方法、装置、设备及存储介质 | |
CN116522944A (zh) | 基于多头注意力的图片生成方法、装置、设备及介质 | |
CN116741358A (zh) | 问诊挂号推荐方法、装置、设备及存储介质 | |
CN114581177B (zh) | 产品推荐方法、装置、设备及存储介质 | |
CN115346095A (zh) | 视觉问答方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |