CN117112754A - 信息处理方法、装置、电子设备及存储介质 - Google Patents

信息处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN117112754A
CN117112754A CN202311055282.0A CN202311055282A CN117112754A CN 117112754 A CN117112754 A CN 117112754A CN 202311055282 A CN202311055282 A CN 202311055282A CN 117112754 A CN117112754 A CN 117112754A
Authority
CN
China
Prior art keywords
paragraph
query
candidate
question
paragraphs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311055282.0A
Other languages
English (en)
Inventor
吴高升
贺思俊
方泽阳
陈泽裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202311055282.0A priority Critical patent/CN117112754A/zh
Publication of CN117112754A publication Critical patent/CN117112754A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种信息处理方法、装置、电子设备及存储介质,涉及人工智能技术领域,具体涉及深度学习技术领域。具体实施方案为:接收第一查询问题,并对第一查询问题进行分解,得到多个第二查询问题;获取第二查询问题的第一向量,并基于第一向量,获取第一查询问题对应的第一段落集合,第一段落集合包括排序的第一候选段落;基于第一段落集合和大语言模型LLM,得到第一查询问题的查询答案。由此,本方案通过分解第一查询问题,得到多个第二查询问题,可以提升大语言模型LLM对查询问题的处理能力。基于第二查询问题的第一向量,确定第一查询问题对应的第一段落集合,得到第一查询问题的查询答案,提高了查询答案的连贯性。

Description

信息处理方法、装置、电子设备及存储介质
技术领域
本公开涉及人工智能技术领域,具体涉及深度学习技术领域,尤其涉及一种信息处理方法、装置、电子设备及存储介质。
背景技术
在当前使用大语言模型进行文档问答的过程中,只能回答简单的问题,且通过对有明显的段落划分的文档进行检索得到答案,而对于复杂抽象的问题和数据量大的文档来说,大语言模型检索不到相应的文档,无法生成合理的查询答案。
发明内容
本公开提供了一种用于信息处理方法、装置、电子设备及存储介质。
根据本公开的一方面,提供了一种信息处理方法,包括:接收第一查询问题,并对所述第一查询问题进行分解,得到多个第二查询问题;获取所述第二查询问题的第一向量,并基于所述第一向量,获取所述第一查询问题对应的第一段落集合,所述第一段落集合包括排序的第一候选段落;基于所述第一段落集合和大语言模型LLM,得到所述第一查询问题的查询答案。
根据本公开的另一方面,提供了一种信息处理装置,包括:分解模块,用于接收第一查询问题,并对所述第一查询问题进行分解,得到多个第二查询问题;获取模块,用于获取所述第二查询问题的第一向量,并基于所述第一向量,获取所述第一查询问题对应的第一段落集合,所述第一段落集合包括排序的第一候选段落;生成模块,用于基于所述第一段落集合和大语言模型LLM,得到所述第一查询问题的查询答案。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述一方面实施例所述的信息处理方法。
根据本公开另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其上存储有计算机程序/指令,所述计算机指令用于使所述计算机执行上述一方面实施例所述的信息处理方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现上述一方面实施例所述的信息处理方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开实施例提供的一种信息处理方法的流程示意图;
图2为本公开实施例提供的另一种信息处理方法的流程示意图;
图3为本公开实施例提供的另一种信息处理方法的流程示意图;
图4为本公开实施例提供的引导提示模板的示意图;
图5为本公开实施例提供的另一种信息处理方法的流程示意图;
图6为本公开实施例提供的确定查询答案的流程示意图;
图7为本公开实施例提供的一种信息处理方法中训练目标向量编码模型的流程示意图;
图8为本公开实施例提供的对向量编码模型进行训练的流程示意图;
图9为本公开实施例提供的另一种信息处理方法的流程示意图;
图10为本公开实施例提供的一种信息处理装置的结构示意图;
图11为用来实现本公开实施例的信息处理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本公开实施例的信息处理方法、装置和电子设备。
人工智能(Artificial Intelligence,简称AI),是研究使计算机来模拟人生的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术,也有软件层面的技术。人工智能硬件技术一般包括计算机视觉技术、语音识别技术、自然语言处理技术以及及其学习/深度学习、大数据处理技术、知识图谱技术等几大方面。
自然语言处理(Natural Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。自然语言处理主要应用于机器翻译、舆情监测、自动摘要、观点提取、文本分类、问题回答、文本语义对比、语音识别等方面。
深度学习(Deep Learning,简称DL),是机器学习(Machine Learning,简称ML)领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能。深度学习是学习样本数据的内在律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。
智能搜索是结合了人工智能技术的新一代搜索引擎。他除了能提供传统的快速检索、相关度排序等功能,还能提供用户角色登记、用户兴趣自动识别、内容的语义理解、智能信息化过滤和推送等功能。
机器翻译(machine translation),又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的目标之一。
图1为本公开实施例提供的一种信息处理方法的流程示意图。
如图1所示,该信息处理方法,可包括:
S101,接收第一查询问题,并对第一查询问题进行分解,得到多个第二查询问题。
需要说明的是,本公开实施例中信息处理方法的执行主体可为具有数据信息处理能力的硬件设备和/或驱动该硬件设备工作所需必要的软件。可选地,执行主体可包括服务器、计算机、用户终端及其他智能设备。可选地,用户终端包括但不限于手机、电脑、智能语音交互设备等。可选地,服务器包括但不限于网络服务器、应用服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器等。
可以理解的是,第一查询问题的形式为自然语言文本,其中,自然语言包括但不限于:中文、英文、日文等语言,本公开实施例对语言类型不作限定。
可选地,可以通过接收用户直接输入的文本问题,并将其作为第一查询问题。可选地,还可以将用户输入的语音信息转换为文本信息,将其作为第一查询问题。例如,用户输入“什么是人工智能?”,则该问题为第一查询问题。
在一些实现中,第一查询问题可能包括多个不同的方面和多个细节,为了更好的理解第一查询问题,可以将第一查询问题分解成多个第二查询问题,以便获得更准确的查询答案。可选地,可以根据第一查询问题关键词,将第一查询问题分解成多个第二查询问题。
示例性说明,第一查询问题为“什么是人工智能?”,其关键词为人工智能,可以将其分解为“人工智能有哪些应用的领域?”、“人工智能的工作原理?”、“人工智能的发展进程?”、“人工智能存在哪些挑战和风险?”等第二查询问题。
S102,获取第二查询问题的第一向量,并基于第一向量,获取第一查询问题对应的第一段落集合,第一段落集合包括排序的第一候选段落。
在一些实现中,可以通过对第二查询问题进行编码,得到第二查询问题的第一向量。可选地,可以使用预先训练的目标向量编码模型,对第二查询问题进行向量编码得到第一向量。
进一步地,可以基于向量之间的相似度,确定第一查询问题对应的第一段落集合。可选地,通过对向量库进行遍历,确定向量库中候选段落的向量与每个第一向量的相似度,将相似度高的多个候选段落作为第一候选段落,并形成一个集合,得到第一段落集合。
可以理解的是,每个第一向量对应多个第一候选段落,第一查询问题对应多个第一向量。也就是说,第一查询问题对应多个第一候选段落,通过将第一候选段落进行聚合和排序,可以得到第一段落集合。其中,第一段落集合包括排序的第一候选段落。
可选地,可以根据第一候选段落出现的频次和相对位置,对第一候选段落进行排序,得到第一段落集合。
S103,基于第一段落集合和大语言模型LLM,得到第一查询问题的查询答案。
在一些实现中,将第一段落集合输入至大语言模型(Large Language Model,LLM)中,由大语言模型LLM确定第一段落集合中的目标段落,以及目标段落的上下文。进而根据第一查询问题和目标段落及其上下文关系,生成第一查询问题的查询答案。
可选地,可以基于第一候选段落的顺序,生成约束提示词,大语言模型LLM根据约束提示词确定第一段落集合中的目标段落,以及目标段落的上下文。例如,基于第一候选段落的顺序生成的约束提示词为“基于当前的排序结果与逻辑关系,对第一段落集合中的第一候选段落进行顺序调整”,则大语言模型LLM可以在约束提示词的约束下,调整第一候选段落的排序,进而确定第一段落集合中的目标段落,以及目标段落的上下文。
根据本公开实施例的信息处理方法,通过将第一查询问题进行分解,得到多个第二查询问题,可以帮助更好的理解第一查询问题,以便获得更准确的查询答案。通过将第二查询问题进行编码得到第一向量,并基于第一向量,确定第一查询问题对应的第一段落集合。进而将第一段落集合输入至大语言模型LLM中,可以得到第一查询问题的查询答案,可以提升大语言模型LLM对复杂查询问题的处理能力。根据第一候选段落的顺序生成查询答案,能够减少生成的查询答案的上下文噪声冗余,生成合乎语言逻辑的查询答案,一定程度上缓解了大语言模型的幻觉,避免生成胡言乱语的查询答案。
图2为本公开实施例提供的一种信息处理方法的流程示意图。
如图2所示,该信息处理方法,可包括:
S201,接收第一查询问题,并对第一查询问题进行分解,得到多个第二查询问题。
S202,获取第二查询问题的第一向量。
步骤S201-S202的相关内容可参见上述实施例,这里不再赘述。
S203,针对每个第一向量,将第一向量与向量库中候选段落的第二向量进行相似度检索,得到第二查询问题对应的第二段落集合,第二段落集合包括排序的第二候选段落。
在一些实现中,可以基于近似最邻近(Approximate Nearest Neighbor,ANN),计算每个第一向量与向量库中候选段落的第二向量之间的相似度,确定第一向量对应的第二候选段落,并将选取前K个第二候选段落,得到将第二候选段落排序的第二段落集合。其中,K为大于1的整数。
可选地,可以基于相似度阈值,确定第一向量对应的第二候选段落。若第一向量与第二向量之间的相似度大于相似度阈值,确定该候选段落为第二候选段落。例如,设相似度阈值为95%,则相似度大于95%的候选段落为第二候选段落,选取前K个第二候选段落,得到第二段落集合。其中,K为大于1的整数。
S204,对每个第二查询问题的第二段落集合进行段落聚合,得到第三段落集合。
在一些实现中,可以通过删除第二段落集合中重复的第二候选段落,以对每个第二查询问题对应的第二段落集合进行段落聚合,得到第三段落集合。
可选地,通过获取第二段落集合中重复的第二候选段落,对重复的第二候选段落进行去重,得到第三段落集合,以提升查询答案的质量和专业性,避免出现内容上的混淆。其中,将第二段落集合中存在两个或两个以上的第二候选段落视为重复。
可选地,保留重复的两个及两个以上的第二候选段落中其中一个第二候选段落,并删除剩余的重复的第二候选段落,达到对重复的第二候选段落进行去重,得到第三段落集合。
S205,对第三段落集合包括的第二候选段落进行排序,得到第一段落集合。
在一些实现中,可以基于每个第二候选段落出现的频次以及第二候选段落的排序位置,对第三段落集合包括的第二候选段落进行排序,进而得到第一候选段落。
在一些实现中,针对每个第二候选段落,统计第二候选段落在第二段落集合中出现的出现频次,并获取第二候选段落的第一排序位置。进而基于出现频次和第一排序位置,确定第二候选段落在第一候选段落中的第二排序位置。
在一些实现中,可以根据第二候选段落在其所隶属的第二段落集合中的排序位置,确定第二候选段落的第一排序位置。
可选地,若第二候选段落隶属于一个第二段落集合,获取第二候选段落在所隶属的第二段落集合中的排序位置,作为第二候选段落的第一排序位置。可选地,若第二候选段落隶属于两个或两个以上的第二段落集合,获取第二候选段落在所隶属的每个第二段落集合中的排序位置,并选取排序最前的排序位置,作为第二候选段落的第一排序位置。通过确定第一排序位置可以确保第二候选段落之间的逻辑连贯性,以增强查询答案的可读性。
在一些实现中,确定第二排序位置的公式如下所示:
rankscore=freq*1/rank (1)
其中,rankscore为排序得分,分值越大,排序位置越靠前,freq为出现频次,rank为第一位置。
可选地,可以根据排序得分,确定第二候选段落在第一候选段落中的第二排序位置。例如,第三段落集合中存在5个第二候选段落包括段落A、段落B、段落C、段落D、段落E,段落A的排序得分为86,段落B的排序得分为90,段落C的排序得分为89,段落D的排序得分为95,段落E的排序得分为99,则段落E的第二排序位置为1,段落D的第二排序位置为2,段落B的第二排序位置为3,段落C的第二排序位置为4,段落A的第二排序位置为5。
进一步地,基于第二候选段落在第一段落集合中的第二排序位置,对第二候选段落进行排序,得到第一段落集合,以实现自动对第二候选段落进行排序,使用户获得具有合理段落布局的查询答案。
S206,基于第一段落集合和大语言模型LLM,得到第一查询问题的查询答案。
步骤S206的相关内容可参见上述实施例,这里不再赘述。
根据本公开实施例的信息处理方法,通过将第一查询问题进行分解,得到多个第二查询问题,可以帮助更好的理解第一查询问题,以便获得更准确的查询答案。通过将第二查询问题进行编码得到第一向量,并基于第一向量,从向量库中确定与第二查询问题对应的第二段落集合,通过将第二段落集合进行聚合和排序,得到第一段落集合。进而将第一段落集合输入至大语言模型LLM中,可以得到第一查询问题的查询答案,可以提升大语言模型LLM对复杂查询问题的处理能力。根据第一候选段落的顺序生成查询答案,能够减少生成的查询答案的上下文噪声冗余,生成合乎语言逻辑的查询答案,一定程度上缓解了大语言模型的幻觉,避免生成胡言乱语的查询答案。
图3为本公开实施例提供的一种信息处理方法的流程示意图。
如图3所示,该信息处理方法,可包括:
S301,对参考文档进行段落划分,得到多个候选段落,并获取候选段落的第二向量。
在一些实现中,为了获得易于理解的候选段落,可以将参考段落输入大语言模型LLM中,由大语言模型LLM确定对参考段落预处理,得到候选段落以及确定候选段落的第二向量。
可选地,可以通过获取大语言模型LLM的最大长度限制,在最大长度限制的约束下对参考文档进行段落划分,得到多个初始段落。可选地,可以基于最大长度限制设置段落划分的约束指令,基于该约束指令对参考文档进行划分,得到多个初始段落。例如,约束指令可以指示划分候选段落的字数长度不超过最大长度限制,或者,约束指令可以指示划分候选段落的字数长度为最大长度限制的3/4等。
在一些实现中,基于大语言模型LLM的最大长度限制,对初始段落进行划分时,需要考虑引导模板(prompt)的长度,可选地,基于最大长度限制和prompt的长度,确定候选段落的长度。示例性说明,大语言模型LLM的最大长度限制为10000字,候选段落的字数占用最大长度限制字数的90%,则prompt的字数占用最大长度限制字数的10%。约束在最大长度限制下对参考文档进行段落划分,得到多个字数为9000字的初始段落。
进一步地,将每个初始段落输入大语言模型LLM中,由大语言模型LLM按照语义理解进行段落划分,得到多个候选段落,并获取候选段落的第二向量。
示例性说明,prompt为“请把下面的文章分成几个段落,每个段落不超过300个字符”则最大长度限制为300字符与prompt的字符数。文章如下所示;
“甲虽然在自己的主场丢了-场比赛,但前往A地的G3之战他们迅速找回状态,除了乙依旧稳定爆砍创纪录的32+21+10的数据外,丙的爆发给他提供了很大的帮助,这-场比赛丙同样砍下34分的同时贡献三双数据。与此同时替补席的一年级新秀丁成为奇兵,最近7场季后赛总计才拿到15分的他在上一场8投7中砍下15分,他的爆发也弥补了戊的低迷发挥。”
将文章输入大语言模型LLM中,大语言模型LLM对文章进行语义理解,按照prompt的约束,对文章进行划分,得到每个段落不超过300字符的3个段落,分别为:
第一段落:“甲在主场失利后,前往A地的G3之战找回状态。乙稳定发挥,创纪录地砍下32+21+10的三双数据。”
第二段落:“丙的爆发为甲提供了重要帮助,他在这场比赛中贡献了34分和三双数据。”
第三段落:“新秀丁成为替补席上的奇兵,他在最近的7场季后赛中总计只拿到15分。然而,在上一场比赛中,他8投7中,砍下15分。丁的爆发弥补了戊的表现低迷。”
S302,接收第一查询问题,并对第一查询问题进行分解,得到多个第二查询问题。
S303,获取第二查询问题的第一向量,并基于第一向量,获取第一查询问题对应的第一段落集合,第一段落集合包括排序的第一候选段落。
步骤S302-S303的相关内容可参见上述实施例,这里不再赘述。
S304,基于第一段落集合中第一候选段落的排序结果,生成约束提示词。
在一些实现中,为了指导大语言模型LLM正确理解段落之间的关系,从而生成更准确的回复,可以通过约束提示词,约束大语言模型LLM生成的查询答案。其中,约束提示词基于第一候选段落的排序结果生成。
可选地,可以根据第一候选段落的排序结果,确定段落之间的逻辑关系,进而生成约束提示词。例如,约束提示词可以是“基于当前的排序结果与逻辑关系,对第一段落集合中的第一候选段落进行顺序调整”。
可以理解的是,大语言模型基于约束提示词不会将第一候选段落的顺序打乱,而是调整个别第一候选段落的顺序,或者将与第一查询问题无关的第一候选段落删除。
S305,将第一段落集合和约束提示词输入大语言模型LLM中,由大语言模型LLM基于约束提示词,从第一段落集合中确定目标段落和目标段落的上下文关系。
在一些实现中,通过将第一段落集合和约束提示词输入大语言模型LLM中,大语言模型LLM可以根据输入的约束提示词,对第一候选段落进行分析,理解第一候选段落的关键信息和逻辑关系,进而对第一候选段落的排序结果进行调整,得到调整后的目标段落,以及目标段落的上下文关系。
示例性说明,第一段落集合中排序好的第一候选段落分别为段落A、段落B、段落C、段落D、段落E,约束提示词为“基于当前的排序结果与逻辑关系,调整第一段落集合”。大语言模型LLM根据约束提示词,确定调整段落A,以及删除与第一查询问题无关的段落E,进而确定段落A的上文是段落B,下文是段落C,段落C的下文是段落D。
S306,将第一查询问题和目标段落,按照上下文关系和引导提示模板进行模板格式处理,得到第一查询问题的查询答案。
在一些实现中,大语言模型LLM将第一查询问题和目标段落,按照目标段落的上下文关系和引导提示模板,对第一查询问题和目标段落进行模板格式处理,也就是将第一查询问题和目标段落以模板的格式输出。
示例性说明,如图4a所示的引导提示模板为问题:“请生成最终的答案”,答案:“第一段落、第二段落、第三段落”。将第一查询问题、目标段落,按照段落A的上文是段落B,下文是段落C的上下文关系,以及引导提示模板进行模板格式处理,得到图4b所示的模板格式化后的第一查询问题和目标段落。
进一步地,大语言模型LLM可以对模板格式化后的第一查询问题和目标段落进行语义分析和理解,从目标段落中提取答案,最终输出第一查询问题的查询答案。
根据本公开实施例的信息处理方法,通过将第一查询问题进行分解,得到多个第二查询问题,可以帮助更好的理解第一查询问题,以便获得更准确的查询答案。通过将第二查询问题进行编码得到第一向量,并基于第一向量,确定第一查询问题对应的第一段落集合。根据第一段落集合生成约束提示词,将第一段落集合和约束提示词输入至大语言模型LLM中,可以得到第一查询问题的查询答案,提升大语言模型LLM对复杂查询问题的处理能力。根据约束提示词生成查询答案,能够减少生成的查询答案的上下文噪声冗余,提高查询答案的连贯性,生成合乎语言逻辑的查询答案,一定程度上缓解了大语言模型的幻觉,避免生成胡言乱语的查询答案。
图5为本公开实施例提供的一种信息处理方法的流程示意图。
如图5所示,该信息处理方法,可包括:
S501,接收第一查询问题,并基于第一查询问题生成问题分解提示词。
S502,将问题分解提示词输入代理语言模型中,由代理语言模型对第一查询问题进行分解识别。
在一些实现中,可以通过接收第一查询问题,并分析第一查询问题的关键信息,基于关键信息确定问题分解提示词。可选地,可以根据关键信息确定第一查询问题涉及到不同层面,进而确定问题分解提示词。例如,特点、逻辑、简单问题、不含歧义等,都可以是问题分解提示词。
进一步地,代理语言模型可以对第一查询问题进行分解识别,判断第一查询问题是否需要分解。可选地,可以根据通过判断第一问题是否复杂,进而判断第一查询问题是否需要分解。例如,若第一查询问题中包含区别、因素、角度等词语,确定第一查询问题为复杂问题,确定第一查询问题需要分解。
S503,响应于识别第一查询问题需要分解,对第一查询问题进行分解,得到多个第二查询问题。
在一些实现中,代理语言模型基于输入的问题分解提示词,对确定需要分解的第一查询问题进行分解,得到多个第二查询问题。根据多个第二查询问题的答案可以回答第一查询问题。
示例性说明,若询问某人的年龄,则第一查询问题是“A的妻子今年多少岁?”,代理语言模型确定第一查询问题可以直接回答,不需要分解,根据第一查询问题,回答A妻子的年龄。
若比较两个平台的区别,则第一查询问题是“A平台和B平台的区别是什么?”,代理语言模型确定第一查询问题需要分解,基于问题分解提示词,如特点、不含歧义等,对第一查询问题进行分解,得到多个第二查询问题。如“A平台的特点是什么?”、“B平台的特点什么?”、“A平台和B平台在底层架构上有何不同?”、“A平台和B平台在编辑模型上有何不同?”、“A平台和B平台在可扩展性方面有何不同?”、“A平台和B平台在性能表现上有何不同?”、“A平台和B平台在社区生态和支持方面有何不同?”、“A平台和B平台在应用领域上有何不同?”、“A平台和B平台的学习曲线和文档资源有何不同?”等第二查询问题。回答这些第二查询问题,可以得到关于A平台和B平台区别的综合回答。
S504,获取第二查询问题的第一向量,并基于第一向量,获取第一查询问题对应的第一段落集合,第一段落集合包括排序的第一候选段落。
可以理解的是,可以通过预训练的目标向量编码模型对第二查询问题进行向量编码,得到第一向量。通过目标向量编码模型对候选段落进行向量编码,得到第二向量。
S505,基于第一段落集合和大语言模型LLM,得到第一查询问题的查询答案。
步骤S504-S505的相关内容可参见上述实施例,这里不再赘述。
根据本公开实施例的信息处理方法,根据分解提示词将第一查询问题进行分解,得到多个第二查询问题,可以帮助更好的理解第一查询问题,以便获得更准确的查询答案。通过将第二查询问题进行编码得到第一向量,并基于第一向量,确定第一查询问题对应的第一段落集合。进而将第一段落集合输入至大语言模型LLM中,可以得到第一查询问题的查询答案,可以提升大语言模型LLM对复杂查询问题的处理能力。根据第一候选段落的顺序生成查询答案,能够减少生成的查询答案的上下文噪声冗余,生成合乎语言逻辑的查询答案,一定程度上缓解了大语言模型的幻觉,避免生成胡言乱语的查询答案。
如图6所示的确定查询答案的流程示意图。通过对参考文档进行粗分,也就是在最大长度限制的约束下,对参考文档进行段落划分,得到多个初始段落。进而按照语义理解对初始段落进行细分,得到多个候选段落,通过对候选段落进行编码,得到候选段落的第二向量和包含候选段落的第二向量的向量库。
通过对第二查询问题进行分解,可以得到多个第二查询问题,并对第二查询问题进行编码,得到第二查询问题的第一向量。将第一向量与向量库中的第二向量进行相似度计算,确定第二查询问题对应的第二段落集合,通过对第二段落进行段落聚合和排序,得到第一查询问题对应的第一段落集合。进而获取第一段落集合的约束提示词,由大语言模型LLM确定目标段落和目标段落的上下文关系,并进行模板格式化处理,最终输出第一查询问题的查询答案。
在上述实施例的基础上,本公开实施例可以对训练目标向量编码模型的过程进行解释说明。图7为本公开实施例提供的一种信息处理方法中训练目标向量编码模型的流程示意图。
如图7所示,该信息处理方法,可包括:
S701,获取样本候选段落,并由大语言模型LLM基于样本候选段落,生成第一样本查询问题。
在一些实现中,大语言模型LLM可以从文档数据库中选择任意段落作为样本候选段落。其中,样本候选段落满足大语言模型LLM在最大长度限制的约束。
进一步地,大语言模型LLM基于样本候选段落,确定样本候选段落的关键信息、上下文关系,对样本候选段落进行语义理解,生成样本候选段落对应的第一样本查询问题。
S702,基于样本候选段落和第一样本查询问题,获取问题-段落对。
在一些实现中,大语言模型LLM可以将样本候选段落与第一样本查询问题组成第一问题-段落对。为了训练向量编码模型学习更广泛的样本数据,改善向量编码模型的编码能力,大语言模型LLM可以对第一样本查询问题进行扩充改写,并将样本候选段落与改写后的样本查询问题组成第二问题-段落对,则问题-段落对包括第一问题-段落对与第二问题-段落对。
在一些实现中,可以基于问题改写提示词,对第一样本查询问题进行改写,得到第二样本查询问题。进而对第一样本查询问题与样本候选段落进行配对,以及对第二样本查询问题与样本候选段落进行配对,获取问题-段落对。
可选地,基于第一样本查询问题,生成问题改写提示词。从问题改写提示词获取第一样本查询问题的一个或多个改写模式。进而按照改写模式对第一样本查询问题进行改写,并通过正则表达式进行规则处理,得到第二样本查询问题。
可以理解的是,正则表达式是一种用于处理文本模式的工具,可以将文本中的特定内容替换为其他内容,实现批量替换的操作。
示例性说明,问题改写提示词可以是语气,关于语气的多种改写模式包括但不限于:感叹语气、疑问语气、命令语气、祈使语气、感叹疑问语气、强调语气等,大语言模型LLM按照改写模式对第一样本查询问题进行改写,通过正则表达式进行规则处理,生成多个第二样本查询问题。
比方,根据多种语气改写模式,将“什么因素会影响人的睡眠?”进行改写,得到感叹语气:“哇!什么因素会影响人的睡眠呢?”、疑问语气:“什么因素会影响人的睡眠呢?”、命令语气:“列举出影响人睡眠的因素!”、祈使语气:“请告诉我有哪些因素会影响人的睡眠。”、感叹疑问语气:“什么因素会影响人的睡眠呢?这真是令人困惑啊!”、强调语气:“无论如何,你必须了解影响人睡眠的因素是什么!”等等。
再比方,问题改写提示词为语气,还可以确定不同职业对问题的不同语气,也就是以不同职业角色的口吻确定多种改写模式,如教师口吻、医生口吻、司机口吻等模式,进而对第一样本查询问题进行改写,生成第二样本查询问题。如教师口吻;“请告诉老师哪些因素影响了人的睡眠?”、医生口吻:“请说说影响了人睡眠的因素。”、司机口吻:“乘客你说有哪些因素影响了人的睡眠?”等等。
S703,基于问题-段落对,对初始的向量编码模型进行训练,直至训练结束得到目标向量编码模型。
在一些实现中,可以使用对比学习(contrastive learning)的训练方法,基于问题-段落对,对初始的向量编码模型进行训练。
可以理解的是,大语言模型LLM确定用于向量编码模型训练的问题-段落对,对比学习可以基于问题-段落对,通过比较不同问题-段落对之间的特征,学习问题-段落对之间的关系,从而学习到更具有语义意义的向量表示。
在一些实现中,将问题与段落分别输入至初始的向量编码模型中,输出问题的第一样本向量和段落的第二样本向量。通过比较第一样本向量和第二样本向量之间的相似性,若相似度越高说明向量编码模型的损失越小,也就是问题与段落之间被正确的匹配。进而计算向量编码模型的损失函数,如均方误差、交叉熵误差,基于损失函数对初始的向量编码模型进行修正,并继续训练,资质训练结束得到目标向量编码模型。
可选地,可以计算第一样本向量和第二样本向量之间的余弦相似度,确定第一样本向量和第二样本向量之间的相似性。若向量在空间中靠得越近(夹角越小),两个向量越相似。当夹角接近0时,说明问题与段落之间被正确的匹配。
可选地,可以将向量编码模型的训练时长到达设定值视为训练结束。还可以将向量编码模型的损失值达到最小损失阈值,视为训练结束。
根据本公开实施例的信息处理方法,基于样本候选段落,生成与之对应的第一样本查询问题。通过对第一样本查询问题进行扩充改写,获得多个第二样本查询问题,并将第一样本查询问题与样本候选段落进行配对,以及将第二样本查询问题与样本候选段落进行配对,获取问题-段落对,以提升向量编码模型的泛化能力,提高模型处理多种问题的能力。进而基于问题-段落对,对初始的向量编码模型进行训练,以帮助目标向量编码模型正确捕捉语义信息,提升目标向量编码模型的编码性能。
如图8所示的对向量编码模型进行训练的流程图。大语言模型LLM获取样本候选段落,生成对应的第一样本查询问题,对第一样本查询问题与样本候选段落进行配对,得到第一问题-段落对。并对第一样本查询问题进行扩充改写,得到第二样本查询问题,对第二样本查询问题与样本候选段落进行配对,得到第二问题-段落对。其中,第一问题-段落对与第二问题-段落组成问题-段落对。进而将问题-段落对输入初始的向量编码模型进行训练,直至训练结束得到目标向量编码模型。
图9为本公开实施例提供的一种信息处理方法的流程示意图。
如图9所示,该信息处理方法,可包括:
S901,获取大语言模型LLM的最大长度限制。
S902,基于在最大长度限制的约束下对参考文档进行段落划分,得到多个初始段落。
S903,将每个初始段落输入大语言模型LLM中,由大语言模型LLM按照语义理解进行段落划分,得到多个候选段落,并获取候选段落的第二向量。
S904,接收第一查询问题,并对第一查询问题进行分解,得到多个第二查询问题。
S905,通过预训练的目标向量编码模型对第二查询问题进行向量编码,得到第一向量。
S906,针对每个第一向量,将第一向量与向量库中候选段落的第二向量进行相似度检索,得到第二查询问题对应的第二段落集合,第二段落集合包括排序的第二候选段落。
S907,对每个第二查询问题的第二段落集合进行段落聚合,得到第三段落集合。
S908,对第三段落集合包括的第二候选段落进行排序,得到第一段落集合。
S909,基于第一段落集合中第一候选段落的排序结果,生成约束提示词。
S910,将第一段落集合和约束提示词输入大语言模型LLM中,由大语言模型LLM基于约束提示词,从第一段落集合中确定目标段落和目标段落的上下文关系。
S911,将第一查询问题和目标段落,按照上下文关系和引导提示模板进行模板格式处理,得到第一查询问题的查询答案。
根据本公开实施例的信息处理方法,通过将第一查询问题进行分解,得到多个第二查询问题,可以帮助更好的理解第一查询问题,以便获得更准确的查询答案。通过将第二查询问题进行编码得到第一向量,并基于第一向量,确定第一查询问题对应的第一段落集合。进而将第一段落集合输入至大语言模型LLM中,可以得到第一查询问题的查询答案,可以提升大语言模型LLM对复杂查询问题的处理能力。根据第一候选段落的顺序生成查询答案,能够减少生成的查询答案的上下文噪声冗余,一定程度上缓解了大语言模型的幻觉,避免生成胡言乱语的查询答案。
与上述几种实施例提供的信息处理方法相对应,本公开的一个实施例还提供了一种信息处理装置,由于本公开实施例提供的信息处理装置与上述几种实施例提供的信息处理方法相对应,因此上述信息处理方法的实施方式也适用于本公开实施例提供的信息处理装置,在下述实施例中不再详细描述。
图10为本公开实施例提供的一种信息处理装置的结构示意图。
如图10所示,本公开实施例的信息处理装置1000,包括分解模块1001、获取模块1002和生成模块1003。
分解模块1001,用于接收第一查询问题,并对所述第一查询问题进行分解,得到多个第二查询问题。
获取模块1002,用于获取所述第二查询问题的第一向量,并基于所述第一向量,获取所述第一查询问题对应的第一段落集合,所述第一段落集合包括排序的第一候选段落。
生成模块1003,用于基于所述第一段落集合和大语言模型LLM,得到所述第一查询问题的查询答案。
在本公开的一个实施例中,所述获取模块1002,还用于:针对每个所述第一向量,将所述第一向量与向量库中候选段落的第二向量进行相似度检索,得到所述第二查询问题对应的第二段落集合,所述第二段落集合包括排序的第二候选段落;对每个所述第二查询问题的第二段落集合进行段落聚合,得到第三段落集合;对所述第三段落集合包括的第二候选段落进行排序,得到所述第一段落集合。
在本公开的一个实施例中,所述获取模块1002,还用于:针对每个所述第二候选段落,统计所述第二候选段落在所述第二段落集合中出现的出现频次;获取所述第二候选段落的第一排序位置;基于所述出现频次和所述第一排序位置,确定所述第二候选段落在所述第一候选段落中的第二排序位置。
在本公开的一个实施例中,所述获取模块1002,还用于:若所述第二候选段落隶属于一个所述第二段落集合,获取所述第二候选段落在所隶属的所述第二段落集合中的排序位置,作为所述第二候选段落的第一排序位置;或者,若所述第二候选段落隶属于两个或两个以上的所述第二段落集合,获取所述第二候选段落在所隶属的每个所述第二段落集合中的排序位置,并选取排序最前的排序位置,作为所述第二候选段落的第一排序位置。
在本公开的一个实施例中,所述获取模块1002,还用于:获取所述第二段落集合中重复的第二候选段落,对所述重复的第二候选段落进行去重,得到所述第三段落集合。
在本公开的一个实施例中,所述生成模块1003,还用于:基于所述第一段落集合中所述第一候选段落的排序结果,生成约束提示词;将所述第一段落集合和所述约束提示词输入所述大语言模型LLM中,由所述大语言模型LLM基于所述约束提示词,从所述第一段落集合中确定目标段落和所述目标段落的上下文关系;将所述第一查询问题和所述目标段落,按照所述上下文关系和引导提示模板进行模板格式处理,得到所述第一查询问题的查询答案。
在本公开的一个实施例中,所述分解模块1001,还用于:获取所述大语言模型LLM的最大长度限制;在所述最大长度限制的约束下对参考文档进行段落划分,得到多个初始段落;将每个所述初始段落输入所述大语言模型LLM中,由所述大语言模型LLM按照语义理解进行段落划分,得到多个候选段落,并获取所述候选段落的第二向量。
在本公开的一个实施例中,所述分解模块1001,还用于:接收所述第一查询问题,并基于所述第一查询问题生成问题分解提示词;将所述问题分解提示词输入代理语言模型中,由所述代理语言模型对所述第一查询问题进行分解识别;响应于识别所述第一查询问题需要分解,对所述第一查询问题进行分解,得到所述多个第二查询问题。
在本公开的一个实施例中,所述装置还包括:通过预训练的目标向量编码模型对所述第二查询问题进行向量编码,得到所述第一向量;通过所述目标向量编码模型对所述候选段落进行向量编码,得到所述第二向量。
在本公开的一个实施例中,所述获取模块1002,还用于:获取样本候选段落,并由所述大语言模型LLM基于所述样本候选段落,生成第一样本查询问题;基于所述样本候选段落和所述第一样本查询问题,获取问题-段落对;基于所述问题-段落对,对初始的向量编码模型进行训练,直至训练结束得到所述目标向量编码模型。
在本公开的一个实施例中,所述获取模块1002,还用于:对所述第一样本查询问题进行改写,得到第二样本查询问题;对所述第一样本查询问题与所述样本候选段落进行配对,以及对所述第二样本查询问题与所述样本候选段落进行配对,获取所述问题-段落对。
在本公开的一个实施例中,所述获取模块1002,还用于:基于所述第一样本查询问题,生成问题改写提示词;从所述问题改写提示词获取所述第一样本查询问题的一个或多个改写模式;按照所述改写模式对所述第一样本查询问题进行改写,并通过正则表达式进行规则处理,得到所述第二样本查询问题。
根据本公开实施例的信息处理方法,通过将第一查询问题进行分解,得到多个第二查询问题,可以帮助更好的理解第一查询问题,以便获得更准确的查询答案。通过将第二查询问题进行编码得到第一向量,并基于第一向量,确定第一查询问题对应的第一段落集合。进而将第一段落集合输入至大语言模型LLM中,可以得到第一查询问题的查询答案,可以提升大语言模型LLM对复杂查询问题的处理能力。根据第一候选段落的顺序生成查询答案,能够减少生成的查询答案的上下文噪声冗余,生成合乎语言逻辑的查询答案,一定程度上缓解了大语言模型的幻觉,避免生成胡言乱语的查询答案。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图11示出了可以用来实施本公开的实施例的示例电子设备1100的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图11所示,设备1100包括计算单元1101,其可以根据存储在只读存储器(ROM)1102中的计算机程序/指令或者从存储单元1106载到随机访问存储器(RAM)1103中的计算机程序/指令,来执行各种适当的动作和处理。在RAM 1103中,还可存储设备1100操作所需的各种程序和数据。计算单元1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
设备1100中的多个部件连接至I/O接口1105,包括:输入单元1106如键盘、鼠标等;输出单元1107,例如各种类型的显示器、扬声器等;存储单元1108,例如磁盘、光盘等;以及通信单元1109,例如网卡、调制解调器、无线通信收发机等。通信单元1109允许设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的各个方法和处理,例如信息处理方法。例如,在一些实施例中,信息处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1106些实施例中,计算机程序/指令的部分或者全部可以经由ROM 1102和/或通信单元1109而被载入和/或安装到设备1100上。当计算机程序/指令加载到RAM 1103并由计算单元1101执行时,可以执行上文描述的信息处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行信息处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序/指令中,该一个或者多个计算机程序/指令可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序/指令来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (27)

1.一种信息处理方法,其中,所述方法包括:
接收第一查询问题,并对所述第一查询问题进行分解,得到多个第二查询问题;
获取所述第二查询问题的第一向量,并基于所述第一向量,获取所述第一查询问题对应的第一段落集合,所述第一段落集合包括排序的第一候选段落;
基于所述第一段落集合和大语言模型LLM,得到所述第一查询问题的查询答案。
2.根据权利要求1所述的方法,其中,所述基于所述第一向量,获取所述第一查询问题对应的第一段落集合,包括:
针对每个所述第一向量,将所述第一向量与向量库中候选段落的第二向量进行相似度检索,得到所述第二查询问题对应的第二段落集合,所述第二段落集合包括排序的第二候选段落;
对每个所述第二查询问题的第二段落集合进行段落聚合,得到第三段落集合;
对所述第三段落集合包括的第二候选段落进行排序,得到所述第一段落集合。
3.根据权利要求2所述的方法,其中,所述对所述第三段落集合包括的第二候选段落进行排序,得到所述第一段落集合,包括:
针对每个所述第二候选段落,统计所述第二候选段落在所述第二段落集合中出现的出现频次;
获取所述第二候选段落的第一排序位置;
基于所述出现频次和所述第一排序位置,确定所述第二候选段落在所述第一候选段落中的第二排序位置。
4.根据权利要求3所述的方法,其中,所述获取所述第二候选段落的第一排序位置,包括:
若所述第二候选段落隶属于一个所述第二段落集合,获取所述第二候选段落在所隶属的所述第二段落集合中的排序位置,作为所述第二候选段落的第一排序位置;或者,
若所述第二候选段落隶属于两个或两个以上的所述第二段落集合,获取所述第二候选段落在所隶属的每个所述第二段落集合中的排序位置,并选取排序最前的排序位置,作为所述第二候选段落的第一排序位置。
5.根据权利要求3所述的方法,其中,所述对每个所述第二查询问题的第二段落集合进行段落聚合,得到第三段落集合,包括:
获取所述第二段落集合中重复的第二候选段落,对所述重复的第二候选段落进行去重,得到所述第三段落集合。
6.根据权利要求1所述的方法,其中,所述基于所述第一段落集合和大语言模型LLM,得到所述第一查询问题的查询答案,包括:
基于所述第一段落集合中所述第一候选段落的排序结果,生成约束提示词;
将所述第一段落集合和所述约束提示词输入所述大语言模型LLM中,由所述大语言模型LLM基于所述约束提示词,从所述第一段落集合中确定目标段落和所述目标段落的上下文关系;
将所述第一查询问题和所述目标段落,按照所述上下文关系和引导提示模板进行模板格式处理,得到所述第一查询问题的查询答案。
7.根据权利要求1-6中任一项所述的方法,其中,所述接收第一查询问题之前,还包括:
获取所述大语言模型LLM的最大长度限制;
在所述最大长度限制的约束下对参考文档进行段落划分,得到多个初始段落;
将每个所述初始段落输入所述大语言模型LLM中,由所述大语言模型LLM按照语义理解进行段落划分,得到多个候选段落,并获取所述候选段落的第二向量。
8.根据权利要求1-7中任一项所述的方法,其中,所述接收第一查询问题,并对所述第一查询问题进行分解,得到多个第二查询问题,包括:
接收所述第一查询问题,并基于所述第一查询问题生成问题分解提示词;
将所述问题分解提示词输入代理语言模型中,由所述代理语言模型对所述第一查询问题进行分解识别;
响应于识别所述第一查询问题需要分解,对所述第一查询问题进行分解,得到所述多个第二查询问题。
9.根据权利要求8所述的方法,其中,所述方法还包括:
通过预训练的目标向量编码模型对所述第二查询问题进行向量编码,得到所述第一向量;
通过所述目标向量编码模型对所述候选段落进行向量编码,得到所述第二向量。
10.根据权利要求9所述的方法,其中,所述目标向量编码模型的训练过程,包括:
获取样本候选段落,并由所述大语言模型LLM基于所述样本候选段落,生成第一样本查询问题;
基于所述样本候选段落和所述第一样本查询问题,获取问题-段落对;
基于所述问题-段落对,对初始的向量编码模型进行训练,直至训练结束得到所述目标向量编码模型。
11.根据权利要求10所述的方法,其中,所述基于所述样本候选段落和所述第一样本查询问题,获取问题-段落对,包括:
对所述第一样本查询问题进行改写,得到第二样本查询问题;
对所述第一样本查询问题与所述样本候选段落进行配对,以及对所述第二样本查询问题与所述样本候选段落进行配对,获取所述问题-段落对。
12.根据权利要求11所述的方法,其中,所述对所述第一样本查询问题进行改写,得到第二样本查询问题,包括:
基于所述第一样本查询问题,生成问题改写提示词;
从所述问题改写提示词获取所述第一样本查询问题的一个或多个改写模式;
按照所述改写模式对所述第一样本查询问题进行改写,并通过正则表达式进行规则处理,得到所述第二样本查询问题。
13.一种信息处理装置,其中,所述装置包括:
分解模块,用于接收第一查询问题,并对所述第一查询问题进行分解,得到多个第二查询问题;
获取模块,用于获取所述第二查询问题的第一向量,并基于所述第一向量,获取所述第一查询问题对应的第一段落集合,所述第一段落集合包括排序的第一候选段落;
生成模块,用于基于所述第一段落集合和大语言模型LLM,得到所述第一查询问题的查询答案。
14.根据权利要求13所述的装置,其中,所述获取模块,还用于:
针对每个所述第一向量,将所述第一向量与向量库中候选段落的第二向量进行相似度检索,得到所述第二查询问题对应的第二段落集合,所述第二段落集合包括排序的第二候选段落;
对每个所述第二查询问题的第二段落集合进行段落聚合,得到第三段落集合;
对所述第三段落集合包括的第二候选段落进行排序,得到所述第一段落集合。
15.根据权利要求14所述的装置,其中,所述获取模块,还用于:
针对每个所述第二候选段落,统计所述第二候选段落在所述第二段落集合中出现的出现频次;
获取所述第二候选段落的第一排序位置;
基于所述出现频次和所述第一排序位置,确定所述第二候选段落在所述第一候选段落中的第二排序位置。
16.根据权利要求15所述的装置,其中,所述获取模块,还用于:
若所述第二候选段落隶属于一个所述第二段落集合,获取所述第二候选段落在所隶属的所述第二段落集合中的排序位置,作为所述第二候选段落的第一排序位置;或者,
若所述第二候选段落隶属于两个或两个以上的所述第二段落集合,获取所述第二候选段落在所隶属的每个所述第二段落集合中的排序位置,并选取排序最前的排序位置,作为所述第二候选段落的第一排序位置。
17.根据权利要求15所述的装置,其中,所述获取模块,还用于:
获取所述第二段落集合中重复的第二候选段落,对所述重复的第二候选段落进行去重,得到所述第三段落集合。
18.根据权利要求13所述的装置,其中,所述生成模块,还用于:
基于所述第一段落集合中所述第一候选段落的排序结果,生成约束提示词;
将所述第一段落集合和所述约束提示词输入所述大语言模型LLM中,由所述大语言模型LLM基于所述约束提示词,从所述第一段落集合中确定目标段落和所述目标段落的上下文关系;
将所述第一查询问题和所述目标段落,按照所述上下文关系和引导提示模板进行模板格式处理,得到所述第一查询问题的查询答案。
19.根据权利要求13-18中任一项所述的装置,其中,所述分解模块,还用于:
获取所述大语言模型LLM的最大长度限制;
在所述最大长度限制的约束下对参考文档进行段落划分,得到多个初始段落;
将每个所述初始段落输入所述大语言模型LLM中,由所述大语言模型LLM按照语义理解进行段落划分,得到多个候选段落,并获取所述候选段落的第二向量。
20.根据权利要求13-19中任一项所述的装置,其中,所述分解模块,还用于:
接收所述第一查询问题,并基于所述第一查询问题生成问题分解提示词;
将所述问题分解提示词输入代理语言模型中,由所述代理语言模型对所述第一查询问题进行分解识别;
响应于识别所述第一查询问题需要分解,对所述第一查询问题进行分解,得到所述多个第二查询问题。
21.根据权利要求20所述的装置,其中,所述装置还包括:
通过预训练的目标向量编码模型对所述第二查询问题进行向量编码,得到所述第一向量;
通过所述目标向量编码模型对所述候选段落进行向量编码,得到所述第二向量。
22.根据权利要求21所述的装置,其中,所述获取模块,还用于:
获取样本候选段落,并由所述大语言模型LLM基于所述样本候选段落,生成第一样本查询问题;
基于所述样本候选段落和所述第一样本查询问题,获取问题-段落对;
基于所述问题-段落对,对初始的向量编码模型进行训练,直至训练结束得到所述目标向量编码模型。
23.根据权利要求22所述的装置,其中,所述获取模块,还用于:
对所述第一样本查询问题进行改写,得到第二样本查询问题;
对所述第一样本查询问题与所述样本候选段落进行配对,以及对所述第二样本查询问题与所述样本候选段落进行配对,获取所述问题-段落对。
24.根据权利要求23所述的装置,其中,所述获取模块,还用于:
基于所述第一样本查询问题,生成问题改写提示词;
从所述问题改写提示词获取所述第一样本查询问题的一个或多个改写模式;
按照所述改写模式对所述第一样本查询问题进行改写,并通过正则表达式进行规则处理,得到所述第二样本查询问题。
25.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-12中任一项所述的方法。
26.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-12中任一项所述的方法。
27.一种计算机程序产品,包括计算机程序/指令,其特征在于,该计算机程序/指令被处理器执行时实现权利要求1-12中任一项所述的方法步骤。
CN202311055282.0A 2023-08-21 2023-08-21 信息处理方法、装置、电子设备及存储介质 Pending CN117112754A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311055282.0A CN117112754A (zh) 2023-08-21 2023-08-21 信息处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311055282.0A CN117112754A (zh) 2023-08-21 2023-08-21 信息处理方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN117112754A true CN117112754A (zh) 2023-11-24

Family

ID=88797724

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311055282.0A Pending CN117112754A (zh) 2023-08-21 2023-08-21 信息处理方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN117112754A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117744754A (zh) * 2024-02-19 2024-03-22 浙江同花顺智能科技有限公司 大语言模型任务处理方法、装置、设备及介质
CN117828050A (zh) * 2023-12-29 2024-04-05 北京智谱华章科技有限公司 基于长文档检索增强生成的中医问答方法、设备及介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117828050A (zh) * 2023-12-29 2024-04-05 北京智谱华章科技有限公司 基于长文档检索增强生成的中医问答方法、设备及介质
CN117744754A (zh) * 2024-02-19 2024-03-22 浙江同花顺智能科技有限公司 大语言模型任务处理方法、装置、设备及介质
CN117744754B (zh) * 2024-02-19 2024-05-10 浙江同花顺智能科技有限公司 大语言模型任务处理方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
US11222167B2 (en) Generating structured text summaries of digital documents using interactive collaboration
EP4060565A1 (en) Method and apparatus for acquiring pre-trained model
US11327978B2 (en) Content authoring
US10942958B2 (en) User interface for a query answering system
CN108647205B (zh) 细粒度情感分析模型构建方法、设备及可读存储介质
US10831796B2 (en) Tone optimization for digital content
CN110096567B (zh) 基于qa知识库推理的多轮对话回复选择方法、系统
CN112270196B (zh) 实体关系的识别方法、装置及电子设备
CN111475623A (zh) 基于知识图谱的案件信息语义检索方法及装置
US20140351228A1 (en) Dialog system, redundant message removal method and redundant message removal program
CN112800170A (zh) 问题的匹配方法及装置、问题的回复方法及装置
CN117112754A (zh) 信息处理方法、装置、电子设备及存储介质
JP7335300B2 (ja) 知識事前訓練モデルの訓練方法、装置及び電子機器
US20230094730A1 (en) Model training method and method for human-machine interaction
CN116561538A (zh) 问答评分方法、问答评分装置、电子设备及存储介质
CN116737908A (zh) 知识问答方法、装置、设备和存储介质
CN113282701A (zh) 作文素材生成方法、装置、电子设备及可读存储介质
CN115470313A (zh) 信息检索及模型训练方法、装置、设备和存储介质
CN110795544A (zh) 内容搜索方法、装置、设备和存储介质
CN114141384A (zh) 用于检索医学数据的方法、设备和介质
CN113569018A (zh) 问答对挖掘方法及装置
CN112287077A (zh) 用于文档的结合rpa和ai的语句提取方法、装置、存储介质及电子设备
CN111680146A (zh) 确定新词的方法、装置、电子设备及可读存储介质
CN111428487A (zh) 模型训练方法、歌词生成方法、装置、电子设备及介质
CN114490969B (zh) 基于表格的问答方法、装置以及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination