CN118133971A - 基于大语言模型的医疗问答方法和装置 - Google Patents
基于大语言模型的医疗问答方法和装置 Download PDFInfo
- Publication number
- CN118133971A CN118133971A CN202410552577.7A CN202410552577A CN118133971A CN 118133971 A CN118133971 A CN 118133971A CN 202410552577 A CN202410552577 A CN 202410552577A CN 118133971 A CN118133971 A CN 118133971A
- Authority
- CN
- China
- Prior art keywords
- text
- query
- record
- language model
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 239000013598 vector Substances 0.000 claims abstract description 152
- 238000000605 extraction Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims description 12
- 239000012634 fragment Substances 0.000 claims description 10
- 238000004904 shortening Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 21
- 230000004044 response Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 230000003068 static effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 229940079593 drug Drugs 0.000 description 3
- 239000003814 drug Substances 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 238000004159 blood analysis Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 210000002700 urine Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请一个或多个实施例提供一种基于大语言模型的医疗问答方法和装置,该方法包括:获取用户输入的查询文本,并针对查询文本进行特征提取,得到与查询文本对应的特征向量;获取针对外部知识库中的各条文本记录进行特征提取,得到的与各条文本记录对应的特征向量;计算与各条文本记录对应的特征向量和与查询文本对应的特征向量之间的向量相似度,并基于向量相似度,从外部知识库包含的文本记录中抽取与查询文本相关的至少一条第一类文本记录;将查询文本和至少一条第一类文本记录输入第一大语言模型,由第一大语言模型基于查询文本和至少一条第一类文本记录进行推理以生成答案文本,并将答案文本向该用户进行输出。
Description
技术领域
本申请一个或多个实施例涉及人工智能技术领域,尤其涉及一种基于大语言模型的医疗问答方法和装置。
背景技术
现如今,智能对话系统(Intelligent Dialogue System)在客户服务、法律援助、在线教育、医疗咨询等众多领域都有着广泛的应用。以快速发展的医疗咨询领域为例,智能对话系统已成为提高医疗服务质量和效率的关键工具,智能对话系统通过模拟人类的交流方式,为患者提供咨询服务,包括病情诊断、治疗建议、药物说明等。
智能对话系统是一种利用人工智能技术开发的交互系统,它旨在理解和解答用户以自然语言形式提出的问题,并能生成简洁明了的答案。智能对话系统通常以大语言模型(Large Language Model,LLM)为基础,由大语言模型针对用户提出的问题进行理解和解答,并生成相应的答案。医疗咨询领域的智能对话系统主要依赖于其中的大语言模型在训练过程中通过学习静态的医疗相关语料获得的知识,由于这些知识具有局限性,系统在回答复杂或特定的医疗问题时可能会显得不够准确和可靠。也即,这种对静态语料的依赖限制了智能对话系统的适应性和响应准确度。
发明内容
本申请一个或多个实施例提供技术方案如下:
本申请提供一种基于大语言模型的问答方法,所述方法包括:
获取用户输入的查询文本,并针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量;
获取针对外部知识库中的各条文本记录进行特征提取,得到的与所述各条文本记录对应的特征向量;
计算与所述各条文本记录对应的特征向量和与所述查询文本对应的特征向量之间的向量相似度,并基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录;
将所述查询文本和所述至少一条第一类文本记录输入第一大语言模型,由所述第一大语言模型基于所述查询文本和所述至少一条第一类文本记录进行推理以生成答案文本,并将所述答案文本向所述用户进行输出。
本申请还提供一种基于大语言模型的问答装置,所述装置包括:
第一获取模块,获取用户输入的查询文本,并针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量;
第二获取模块,获取针对外部知识库中的各条文本记录进行特征提取,得到的与所述各条文本记录对应的特征向量;
抽取模块,计算与所述各条文本记录对应的特征向量和与所述查询文本对应的特征向量之间的向量相似度,并基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录;
生成模块,将所述查询文本和所述至少一条第一类文本记录输入第一大语言模型,由所述第一大语言模型基于所述查询文本和所述至少一条第一类文本记录进行推理以生成答案文本,并将所述答案文本向所述用户进行输出。
本申请还提供一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过运行所述可执行指令以实现如上述任一项所述方法的步骤。
本申请还提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如上述任一项所述方法的步骤。
在上述技术方案中,对于智能对话系统而言,在获取到用户输入的查询文本时,一方面可以通过针对该查询文本进行特征提取,得到与该查询文本对应的特征向量,另一方面可以获取已通过针对外部知识库中的各条文本记录进行特征提取,得到的与这各条文本记录对应的特征向量,后续可以计算与这各条文本记录对应的特征向量和与该查询文本对应的特征向量之间的向量相似度,并基于计算出的向量相似度,从该外部知识库包含的文本记录中抽取与该查询文本相关的文本记录,从而可以将该查询文本和抽取出的与该查询文本相关的文本记录输入大语言模型,由该大语言模型基于该查询文本和抽取出的与该查询文本相关的文本记录进行推理以生成答案文本,并将所生成的答案文本向该用户进行输出。
采用这样的方式,使得智能对话系统在回答用户提出的问题时,可以不再仅依赖于其中的大语言模型在训练过程中通过学习静态语料获得的知识,而是还可以结合在外部知识库中检索到的知识,因此可以提高智能对话系统的适应性和响应准确度。
附图说明
下面将对示例性实施例的描述中所需要使用的附图进行说明,其中:
图1是本申请一示例性实施例示出的一种智能对话系统的示意图。
图2是本申请一示例性实施例示出的一种基于大语言模型的问答流程的示意图。
图3是本申请一示例性实施例示出的一种基于大语言模型的问答方法的流程图。
图4是本申请一示例性实施例示出的另一种基于大语言模型的问答方法的流程图。
图5是本申请一示例性实施例示出的一种设备的结构示意图。
图6是本申请一示例性实施例示出的一种基于大语言模型的问答装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或者相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请一个或多个实施例相一致的所有实施方式。相反,它们仅是与本申请一个或多个实施例的一些方面相一致的例子。
需要说明的是,在其他实施例中并不一定按照本申请示出和描述的顺序来执行相应方法的步骤。在一些其他实施例中,其方法所包括的步骤可以比本申请所描述的更多或者更少。此外,本申请中所描述的单个步骤,在其他实施例中可能被分解为多个步骤进行描述;而本申请中所描述的多个步骤,在其他实施例中也可能被合并为单个步骤进行描述。
在医疗咨询领域,智能对话系统已成为提高医疗服务质量和效率的关键工具,智能对话系统通过模拟人类的交流方式,为患者提供咨询服务,包括病情诊断、治疗建议、药物说明等。
智能对话系统是一种利用人工智能技术开发的交互系统,它旨在理解和解答用户以自然语言形式提出的问题,并能生成简洁明了的答案。智能对话系统通常以大语言模型(Large Language Model,LLM)为基础,由大语言模型针对用户提出的问题进行理解和解答,并生成相应的答案。
大语言模型是指使用大量文本数据训练的深度学习模型,可以用于生成自然语言文本或者理解自然语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、命名实体识别、问答、对话等,是通向人工智能的一条重要途径。
在自然语言处理领域,大规模的文本数据集通常被称为语料库(Corpus)。语料库可以包含各种类型的文本数据,例如:文学作品、学术论文、法律文件、新闻报道、日常对话、电子邮件、网络论坛发帖等。通过学习语料库中的文本数据,大语言模型可以获取并理解自然语言的规律和模式,进而实现对人类语言的有效处理和生成。
大语言模型通常采用Transformer架构,即大语言模型通常是基于Transformer架构的深度学习模型。基于Transformer架构的深度学习模型是一类采用Transformer架构的神经网络模型,这种模型在自然语言处理等领域中表现出色。
Transformer是一种用于序列到序列(Sequence-to-Sequence)建模的神经网络模型。Transformer不需要依赖递归结构,能够并行化训练和推理,加快了模型处理速度。在基于Transformer架构的深度学习模型中,通常使用多层的Transformer编码器来从输入序列中提取特征,并使用一个Transformer解码器来将提取出的特征转换为输出序列。同时,这类模型通常还采用自注意力机制(Self-Attention Mechanism)来捕获输入序列中的长距离依赖关系,以及采用残差连接(Residual Connection)和正则化方法(NormalizationMethod)来加速训练和提高模型性能。
预训练模型是在大规模的无标签文本数据上进行预训练的大语言模型。预训练模型是通用的模型,它不针对特定任务进行设计和优化。为了使预训练模型适应具体的应用场景和任务需求,需要进行微调,以提高模型在特定任务上的性能。最终投入使用的大语言模型则通常是在预训练模型的基础上进行进一步的微调,基于有标签文本数据进行有监督学习的模型。预训练和微调是相互补充的过程,预训练使模型能够具备广泛的语言理解能力,微调则使模型在具体的任务上变得更加专业和精准。
也即,大语言模型的训练过程可以分为两个阶段:预训练(Pre-training)和微调(Fine-tuning)。在预训练阶段中,可以采用无监督学习(例如:自监督学习)的方式,在大规模、无标签的文本数据集(例如:网络百科、网络文章、书籍等)上进行预训练,具体可以根据上下文来预测缺失的部分或下一个词语,学习语义、句法等统计规律和语言结构,并通过反向传播和优化算法(例如:梯度下降法)最小化预测损失,迭代更新模型参数,逐渐改进模型对语言的理解能力。在微调阶段中,可以根据具体的应用场景和任务需求,选择相应的有监督学习任务(例如:文本分类、命名实体识别、问答系统、对话系统等),并准备任务特定的文本数据集,从而可以将预训练完成的模型作为微调的起点,采用有监督学习的方式,在任务特定的文本数据集上进行微调训练,具体可以基于该文本数据集执行该任务,并通过反向传播和优化算法(例如:梯度下降法)最小化用于衡量模型在处理特定任务时的性能好坏的损失,迭代更新模型参数,使得模型在特定任务上的表现逐步提升。
需要说明的是,通常将预训练完成的大语言模型称为大语言模型的基础模型,并将微调完成的大语言模型称为大语言的服务模型。大语言模型在预训练阶段和微调阶段中学习到的语言理解能力,使得大语言模型在面对复杂问题或任务时,能够通过理解、分析和综合文本信息,进行逻辑推断、知识推理或解决问题的能力,这种能力通常被称为大语言模型的推理能力。
大语言模型通常在提示文本(可称为Prompt)的引导下执行特定任务。提示文本是向大语言模型提供的一个初始文本或文本片段,旨在激发模型产生相应的输出。通过提示文本,可以明确告诉大语言模型期望它执行什么任务,例如:回答一个问题、模拟对话、撰写一篇文章、翻译文本等。同时,提示文本可以为大语言模型提供必要的背景信息和上下文,使大语言模型能够理解在产生内容时应当遵循的逻辑、风格、主题或立场。此外,提示文本还可以激发大语言模型展现其内在的知识储备或特定的语言能力,例如:解释复杂概念、引用法规、模仿特定作家的写作风格等。
医疗咨询领域的智能对话系统主要依赖于其中的大语言模型在训练过程中通过学习静态的医疗相关语料获得的知识,由于这些知识具有局限性,系统在回答复杂或特定的医疗问题时可能会显得不够准确和可靠,即可能出现幻觉问题。其中,幻觉问题指的是大语言模型产生的内容看起来非常合理、连贯,甚至有时候能够模仿人类的情感和思维方式,造成一种“理解”了输入内容的错觉,但是实际上这些内容是不准确或具有误导性的。也即,这种对静态语料的依赖限制了智能对话系统的适应性和响应准确度。
为了降低智能对话系统中的大语言模型的幻觉,提高智能对话系统的适应性和响应准确度,可以将大规模的外部文本数据与大语言模型相结合,在大语言模型的预测或生成过程中,实时地从这些外部资源中检索相关信息以辅助模型做出更准确、更全面的回答或决策。
本申请提供一种实现基于大语言模型的问答的技术方案,在该技术方案中,对于智能对话系统而言,在获取到用户输入的查询文本时,一方面可以通过针对该查询文本进行特征提取,得到与该查询文本对应的特征向量,另一方面可以获取已通过针对外部知识库中的各条文本记录进行特征提取,得到的与这各条文本记录对应的特征向量,后续可以计算与这各条文本记录对应的特征向量和与该查询文本对应的特征向量之间的向量相似度,并基于计算出的向量相似度,从该外部知识库包含的文本记录中抽取与该查询文本相关的文本记录,从而可以将该查询文本和抽取出的与该查询文本相关的文本记录输入大语言模型,由该大语言模型基于该查询文本和抽取出的与该查询文本相关的文本记录进行推理以生成答案文本,并将所生成的答案文本向该用户进行输出。
采用这样的方式,使得智能对话系统在回答用户提出的问题时,可以不再仅依赖于其中的大语言模型在训练过程中通过学习静态语料获得的知识,而是还可以结合在外部知识库中检索到的知识,因此可以提高智能对话系统的适应性和响应准确度。
请参考图1,图1是本申请一示例性实施例示出的一种智能对话系统的示意图。
如图1所示,上述智能对话系统可以包括服务端,以及通过任一类型的有线或者无线网络接入该服务端的至少一个客户端。
其中,上述服务端可以对应于包含一台独立的物理主机的服务器,也可以是由多台互相独立的物理主机构成的服务器集群;或者,可以对应于由主机集群承载的虚拟服务器、云服务器等。
上述客户端可以对应于智能手机、平板电脑、笔记本电脑、台式计算机、PC(Personal Computer,个人电脑)、掌上电脑(Personal Digital Assistants,PDAs)、可穿戴设备(例如:智能眼镜、智能手表等)、智能车载设备或游戏机等终端设备。
用户可以通过上述客户端使用上述智能对话系统提供的智能问答服务;上述客户端和上述服务端可以通过彼此之间的数据交互实现面向用户的智能问答服务。
例如,客户端可以向用户输出相应的用户界面,从而使用户可以通过在该用户界面中执行输入查询文本(可称为Query)、上传用于辅助查询的文档或图片等操作,以向智能对话系统提出问题,使用智能对话系统提供的智能问答服务。客户端可以将用户输入的查询文本发送给服务端,由服务端针对该查询文本生成对应的答案文本(可称为Answer),并将该答案文本向用户进行输出,即将该答案文本返回给客户端,由客户端通过该用户界面将该答案文本展示给用户,以供用户查看智能对话系统生成的相应的答案,由此实现面向用户的智能问答服务。
具体而言,上述服务端上可以搭载大语言模型的服务模型,而上述智能对话系统则可以以该大语言模型的服务模型为基础,由该大语言模型的服务模型针对用户输入的查询文本进行理解和解答,并生成与该查询文本对应的答案文本。
此外,上述服务端上还可以搭载其他功能组件或功能子系统,例如:特征提取组件、知识库检索组件、提示文本生成组件等。这些组件或子系统可以与服务端上搭载的大语言模型的服务模型进行协同工作,共同实现生成与用户输入的查询文本对应的答案文本。
为了提高智能对话系统的适应性和响应准确度,上述服务端上还可以搭载知识库。其中,该知识库相对于服务端上搭载的大语言模型的服务模型而言是外部知识库,即该外部知识库中的数据不是该大语言模型在训练过程中通过学习获得的知识,而是作为该大语言模型的服务模型的推理过程中的辅助数据,辅助该大语言模型的服务模型生成与用户输入的查询文本对应的答案文本。
请结合图1,参考图2,图2是本申请一示例性实施例示出的一种基于大语言模型的问答流程的示意图。
在本实施例中,对于智能对话系统而言,在获取到用户输入的查询文本的情况下,一方面,可以针对该查询文本进行特征提取,得到与该查询文本对应的特征向量。需要说明的是,用户输入的查询文本可以是用户撰写的用于描述需要解答的问题的文本,也可以是用户上传的需要解释或解读的文档包含的文本,等等。
另一方面,可以获取针对用于辅助大语言模型的服务模型进行推理的外部知识库中的各条文本记录进行特征提取,得到的与这各条文本记录对应的特征向量。在实际应用中,一条文本记录可以是一个文档、一个段落、一个句子或一个命名实体等,本申请对此不作特殊限制。需要说明的是,可以采用离线计算的方式,预先针对上述外部知识库中的各条文本记录进行特征提取,得到与这各条文本记录对应的特征向量,并将得到的特征向量与这各条文本记录进行对应存储,后续可以直接获取所存储的与这各条文本记录对应的特征向量。或者,可以采用在线计算的方式,在获取到用户输入的查询文本后,实时地针对上述外部知识库中的各条文本记录进行特征提取,得到与这各条文本记录对应的特征向量。
然后,可以计算与上述各条文本记录对应的特征向量和与上述查询文本对应的特征向量之间的向量相似度,并基于这些向量相似度,从上述外部知识库包含的文本记录中抽取与该查询文本相关的文本记录。需要说明的是,与该查询文本相关的文本记录,可以是对应的特征向量和与该查询文本对应的特征向量之间的向量相似度较高的文本记录。
最后,可以将上述查询文本和从上述外部知识库中抽取出的与该查询文本相关的文本记录输入上述大语言模型的服务模型,由该大语言模型的服务模型针对该输入进行响应并输出响应内容,即基于该查询文本和与该查询文本相关的文本记录进行推理以生成与该查询文本对应的答案文本,并将该答案文本向所述用户进行输出。
在实际应用中,在从上述外部知识库中抽取出的与上述查询文本相关的文本记录后,可以进一步地从与该查询文本相关的文本记录中抽取可用于生成与该查询文本对应的答案文本的文本记录。需要说明的是,可用于生成与该查询文本对应的答案文本的文本记录,可以是对回答由该查询文本描述的问题有用的文本记录。在这种情况下,可以将该查询文本和抽取出的可用于生成与该查询文本对应的答案文本的文本记录输入上述大语言模型的服务模型,由该大语言模型的服务模型基于该查询文本和可用于生成与该查询文本对应的答案文本的文本记录进行推理以生成与该查询文本对应的答案文本,并将该答案文本向所述用户进行输出。
下面对如图2所示的基于大语言模型的问答流程进行详细描述。
请参考图3,图3是本申请一示例性实施例示出的一种基于大语言模型的问答方法的流程图。
如图3所示,上述基于大语言模型的问答方法可以包括以下步骤:
步骤302:获取用户输入的查询文本,并针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量。
在本实施例中,在获取到用户输入的查询文本的情况下,可以针对该查询文本进行特征提取,得到与该查询文本对应的特征向量。
特征提取指的是从原始数据中提炼出具有代表性和区分性的信息,将其转化为机器学习算法能够理解和处理的形式,即特征向量。在针对上述查询文本进行特征提取时,具体可以采用Word2Vec算法生成与该查询文本对应的词嵌入(Word Embedding),作为与该查询文本对应的特征向量;或者,可以将该查询文本输入可用于文本特征提取的机器学习模型,由该机器学习模型针对该查询文本进行特征提取,得到与所述查询文本对应的特征向量。其中,可用于文本特征提取的机器学习模型可以是卷积神经网络(ConvolutionalNeural Networks,CNN),或者可以是大语言模型的基础模型或服务模型,本申请对此不进行特殊限制。
也即,在一些实施例中,可以将上述查询文本输入大语言模型(可称为第二大语言模型),由第二大语言模型针对该查询文本进行特征提取,得到与该查询文本对应的特征向量。需要说明的是,此时的第二大语言模型可以指代第二大语言模型的基础模型,也可以指代大语言模型的服务模型。
步骤304:获取针对外部知识库中的各条文本记录进行特征提取,得到的与所述各条文本记录对应的特征向量。
在本实施例中,在获取到用户输入的查询文本的情况下,还可以获取针对用于辅助大语言模型的服务模型进行推理的外部知识库中的各条文本记录进行特征提取,得到的与这各条文本记录对应的特征向量。
在实际应用中,一条文本记录可以是一个文档、一个段落、一个句子或一个命名实体等,本申请对此不作特殊限制。
在一些实施例中,上述外部知识库可以是用于存储医疗知识的外部知识库。在这种情况下,该外部知识库中一条文本记录可以是一本医疗专业书籍、一篇医疗学术论文、一篇疾病诊断指南、一份患者的医疗报告、一份医生的临床诊疗记录等。与之相应地,上述查询文本可以是与医疗问询场景相关的医疗问询文本,而与该查询文本对应的答案文本则可以是医疗问询结果。其中,医疗问询场景可以包括医疗问诊、病例分析、用药建议等多种与医疗相关的问询场景;该查询文本可以是用户撰写的用于描述需要解答的医疗问题的文本,也可以是用户上传的需要解读的医疗报告(例如:体检报告、血检报告、尿检报告、放射学检查报告等)包含的文本,等等。
需要说明的是,可以采用离线计算的方式,预先针对上述外部知识库中的各条文本记录进行特征提取,得到与这各条文本记录对应的特征向量,并将得到的特征向量与这各条文本记录进行对应存储,后续可以直接获取所存储的与这各条文本记录对应的特征向量。或者,可以采用在线计算的方式,在获取到用户输入的查询文本后,实时地针对上述外部知识库中的各条文本记录进行特征提取,得到与这各条文本记录对应的特征向量。
在一些实施例中,上述外部知识库可以是动态更新的外部知识库。通过持续更新该外部知识库中的内容,可以保证智能对话系统能够适应医疗领域的新发现和变化,所生成的与用户提出的问题对应的答案能够反映最新的医疗知识,从而增加了智能对话系统提供的与医疗相关的智能问答服务的时效性和专业性。
在一些实施例中,在由上述第二大语言模型针对上述查询文本进行特征提取,得到与该查询文本对应的特征向量的情况下,为了保证所得到的特征向量的统一性,提高向量相似度计算的准确度,可以将上述外部知识库中的各条文本记录输入第二大语言模型,由第二大语言模型针对这各条文本记录进行特征提取,得到与这各条文本记录对应的特征向量。
步骤306:计算与所述各条文本记录对应的特征向量和与所述查询文本对应的特征向量之间的向量相似度,并基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录。
在本实施例中,可以计算与上述各条文本记录对应的特征向量和与上述查询文本对应的特征向量之间的向量相似度,并基于这些向量相似度,从上述外部知识库包含的文本记录中抽取与该查询文本相关的至少一条文本记录(可称为第一类文本记录)。需要说明的是,与该查询文本相关的文本记录,可以是对应的特征向量和与该查询文本对应的特征向量之间的向量相似度较高的文本记录。
从上述外部知识库包含的文本记录中抽取与上述查询文本相关的至少一条第一文本记录的过程,本质上就是在该外部知识库中检索与该查询文本相关的至少一条第一文本记录的过程。
在一些实施例中,在基于与上述各条文本记录对应的特征向量和与上述查询文本对应的特征向量之间的向量相似度,从上述外部知识库包含的文本记录中抽取与该查询文本相关的至少一条第一类文本记录时,具体可以从该外部知识库包含的文本记录中抽取对应的特征向量和与该查询文本对应的特征向量之间的向量相似度大于预设的阈值(可称为第一阈值)的文本记录,作为与该查询文本相关的至少一条第一类文本记录。
在一些实施例中,在基于与上述各条文本记录对应的特征向量和与上述查询文本对应的特征向量之间的向量相似度,从上述外部知识库包含的文本记录中抽取与该查询文本相关的至少一条第一类文本记录时,具体可以从该外部知识库包含的文本记录中抽取对应的特征向量和与该查询文本对应的特征向量之间的向量相似度最大的预设数量(即TopN,N为该预设数量)的文本记录,作为与该查询文本相关的至少一条第一类文本记录。
在一些实施例中,也可以使用可提供知识库检索功能的大语言模型的服务模型,由该大语言模型的服务模型计算与上述各条文本记录对应的特征向量和与上述查询文本对应的特征向量之间的向量相似度,并基于这些向量相似度,从上述外部知识库包含的文本记录中抽取与该查询文本相关的至少一条第一类文本记录。
步骤308:将所述查询文本和所述至少一条第一类文本记录输入第一大语言模型,由所述第一大语言模型基于所述查询文本和所述至少一条第一类文本记录进行推理以生成答案文本,并将所述答案文本向所述用户进行输出。
在本实施例中,在从上述外部知识库中抽取出与上述查询文本相关的至少一条第一类文本记录的情况下,可以将该查询文本和这至少一条第一类文本记录输入大语言模型(可称为第一大语言模型),由第一大语言模型针对该输入进行响应并输出响应内容,即基于该查询文本和这至少一条第一类文本记录进行推理以生成与该查询文本对应的答案文本,并将该答案文本向输入该查询文本的用户进行输出。需要说明的是,此时的第一大语言模型可以指代第一大语言模型的服务模型。
在实际应用中,可以针对所构建的第一大语言模型,采用无监督学习的方式,在大规模、无标签的文本数据集上进行预训练,得到第一大语言模型的基础模型;进一步地,可以将问答任务作为微调训练时的有监督学习任务,并准备问答任务特定的文本数据集,从而可以将第一大语言模型的基础模型作为微调的起点,采用有监督学习的方式,在问答任务特定的数据集上进行微调训练,得到第一大语言模型的服务模型。
也即,从上述外部知识库中抽取出与上述查询文本相关的至少一条第一类文本记录可以被融入到上述第一大语言模型的输入中,使得第一大语言模型在生成与所输入的查询文本对应的答案文本时可以同时考虑其内在的泛化知识和从外部知识库中获取的特定知识。
在一些实施例中,上述第一大语言模型在生成答案文本时,不仅可以利用上述查询文本和上述至少一条第一类文本记录,还可以利用额外上下文。也即,第一大语言模型可以基于该查询文本、这至少一条第一类文本记录和额外上下文进行推理,以生成与该查询文本对应的答案文本。
其中,上述额外上下文可以指除直接与上述查询文本相关的文字信息之外,有助于更全面、准确地理解和回答该查询的所有相关背景知识、环境信息、语境线索以及附加说明。这些额外上下文可以帮助上述第一大语言模型在生成答案文本时更好地遵循意图、满足需求,并确保回答的准确性和连贯性。在实际应用中,这些额外上下文可以是查询文档上下文、历史问答记录、用户个人信息、由用户显式提供的附加信息、领域知识、时空背景、隐含的社会文化常识等。
在上述技术方案中,对于智能对话系统而言,在获取到用户输入的查询文本时,一方面可以通过针对该查询文本进行特征提取,得到与该查询文本对应的特征向量,另一方面可以获取已通过针对外部知识库中的各条文本记录进行特征提取,得到的与这各条文本记录对应的特征向量,后续可以计算与这各条文本记录对应的特征向量和与该查询文本对应的特征向量之间的向量相似度,并基于计算出的向量相似度,从该外部知识库包含的文本记录中抽取与该查询文本相关的文本记录,从而可以将该查询文本和抽取出的与该查询文本相关的文本记录输入大语言模型,由该大语言模型基于该查询文本和抽取出的与该查询文本相关的文本记录进行推理以生成答案文本,并将所生成的答案文本向该用户进行输出。
采用这样的方式,使得智能对话系统在回答用户提出的问题时,可以不再仅依赖于其中的大语言模型在训练过程中通过学习静态语料获得的知识,而是还可以结合在外部知识库中检索到的知识,因此可以提高智能对话系统的适应性和响应准确度。
为了减少输入大语言模型的数据量,从而减轻大语言模型的计算压力,提高大语言模型的计算效率,请在图3的基础上,参考图4,图4是本申请一示例性实施例示出的另一种基于大语言模型的问答方法的流程图。
如图4所示,上述基于大语言模型的问答方法可以包括以下步骤:
步骤402:获取用户输入的查询文本,并针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量。
步骤404:获取针对外部知识库中的各条文本记录进行特征提取,得到的与所述各条文本记录对应的特征向量。
步骤406:计算与所述各条文本记录对应的特征向量和与所述查询文本对应的特征向量之间的向量相似度,并基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录。
步骤402至406的具体实现可以参考如图3所示的步骤302至306,本申请在此不再进行赘述。
步骤408:从所述至少一条第一类文本记录中进一步抽取用于生成与所述查询文本对应的答案文本的至少一条第二类文本记录。
在本实施例中,在从上述外部知识库中抽取出与上述查询文本相关的至少一条第一类文本记录的情况下,可以从这至少一条第一类文本记录中进一步抽取可用于生成与该查询文本对应的答案文本的至少一条文本记录(可称为第二类文本记录)。需要说明的是,可用于生成与该查询文本对应的答案文本的文本记录,可以是对回答由该查询文本描述的问题有用的文本记录。
在一些实施例中,在从上述至少一条第一类文本记录中进一步抽取用于生成与上述查询文本对应的答案文本的至少一条第二类文本记录时,具体可以针对这至少一条第一类文本记录中的各条目标第一类文本记录(即将这至少一条第一类文本记录逐条作为目标第一类文本记录),将目标第一类文本记录和该查询文本输入大语言模型(可称为第三大语言模型),由第三大语言模型基于该查询文本和目标第一类文本记录进行推理,以判断目标第一类文本记录是否可用于生成与该查询文本对应的答案文本,从而可以根据第三大语言模型输出的判断结果,从这至少一条第一类文本记录中进一步抽取可用于生成与该查询文本对应的答案文本的至少一条第二类文本记录。需要说明的是,此时的第三大语言模型可以指代第三大语言模型的服务模型。
在实际应用中,可以针对所构建的第三大语言模型,采用无监督学习的方式,在大规模、无标签的文本数据集上进行预训练,得到第三大语言模型的基础模型;进一步地,可以将判断文本记录是否可用于生成与查询文本对应的答案文本作为微调训练时的有监督学习任务,并准备判断任务特定的文本数据集(例如:该文本数据集中的一个样本可以包括一个查询文本和一条文本记录,并且这个样本被标注了用于指示这条文本记录是否可用于生成与这个查询文本对应的答案文本的标签),从而可以将第一大语言模型的基础模型作为微调的起点,采用有监督学习的方式,在判断任务特定的数据集上进行微调训练,得到第三大语言模型的服务模型。
在一些实施例中,由于输入文本过长会影响大语言模型的性能,为了保证上述第三大语言模型的判断准确度,在将上述至少一条第一类文本记录中的各条目标第一类文本记录和上述查询文本输入第三大语言模型,由第三大语言模型判断目标第一类文本记录是否用于生成与该查询文本对应的答案文本时,具体可以针对这至少一条第一类文本记录中的各条目标第一类文本记录,先确定目标第一类文本记录的文本长度是否超过预设的阈值(可称为第二阈值)。
如果上述目标第一类文本记录的文本长度未超过上述第二阈值,则可以直接将目标第一类文本记录和上述查询文本输入上述第三大语言模型,由第三大语言模型判断目标第一类文本记录是否用于生成与该查询文本对应的答案文本。
如果上述目标第一类文本记录的文本长度超过上述第二阈值,则可以先将目标第一类文本记录切分为多个文本片段,再从这多个文本片段中确定出与上述查询文本相关的至少一个文本片段,最后将这至少一个文本片段和该查询文本输入上述第三大语言模型,由第三大语言模型判断这至少一个文本片段是否用于生成与该查询文本对应的答案文本。此时,如果判断出这至少一个文本片段可用于生成与该查询文本对应的答案文本,则可以认为目标第一类文本记录可用于生成与该查询文本对应的答案文本。
在一些实施例中,可以对目标第一类文本记录进行文本切分(TextSegmentation)处理,以将目标第一类文本记录切分为多个文本片段,其中文本切分指的是将文本按照某种规则或标准划分为如句子、词语、短语或符号等的更小的单元。
在一些实施例中,在从上述多个文本片段中确定出与上述查询文本相关的至少一个文本片段时,与前述从上述外部知识库包含的文本记录中抽取与该查询文本相关的至少一条第一类文本记录类似,具体可以针对这多个文本片段中的各个文本片段进行特征提取,得到与这各个文本片段对应的特征向量,从而可以计算与这各个文本片段对应的特征向量和与该查询文本对应的特征向量之间的向量相似度,并基于这些向量相似度,从这多个文本片段中确定出与该查询文本相关的至少一个文本片段。同理,具体可以从这多个文本片段中确定出对应的特征向量和与该查询文本对应的特征向量之间的向量相似度大于预设的阈值(可称为第四阈值)的文本片段,作为与该查询文本相关的至少一个文本片段;或者,可以从这多个文本片段中确定出对应的特征向量和与该查询文本对应的特征向量之间的向量相似度最大的预设数量的文本片段,作为与该查询文本相关的至少一个文本片段。
步骤410:将所述查询文本和所述至少一条第二类文本记录输入第一大语言模型,由所述第一大语言模型基于所述查询文本和所述至少一条第二类文本记录进行推理以生成答案文本,并将所述答案文本向所述用户进行输出。
在本实施例中,在抽取出可用于生成与上述查询文本对应的答案文本的至少一条第二类文本记录的情况下,可以将该查询文本和这至少一条第二类文本记录输入上述第一大语言模型,由第一大语言模型基于该查询文本和这至少一条第二类文本记录进行推理以生成与该查询文本对应的答案文本,并将该答案文本向该用户进行输出。
在一些实施例中,为了进一步减少输入大语言模型的数据量,从而减轻大语言模型的计算压力,提高大语言模型的计算效率,在将上述查询文本和上述至少一条第二类文本记录输入上述第一大语言模型之前,可以先确定这至少一条第二类文本记录中的各条第二类文本记录的文本长度是否超过预设的阈值(可称为第三阈值),以对这至少一条第二类文本记录中文本长度超过第三阈值的第二类文本记录进行文本缩短处理,再将该查询文本和文本缩短处理后的这至少一条第二类文本记录输入第一大语言模型,由第一大语言模型基于该查询文本和文本缩短处理后的这至少一条第二类文本记录进行推理以生成与该查询文本对应的答案文本,并将该答案文本向该用户进行输出。其中,文本缩短处理具体可以指生成对应的文本摘要,例如:生成简短的概括性摘要,通常保留原文的主要观点或关键信息,而不必包括所有细节;或者,生成更加详尽的摘要,包含更多原文内容,但仍比原文短。
在上述技术方案中,智能对话系统在回答用户提出的问题时,可以不再仅依赖于其中的大语言模型在训练过程中通过学习静态语料获得的知识,而是还可以结合在外部知识库中检索到的知识,因此可以提高智能对话系统的适应性和响应准确度。
此外,由于从外部知识库中抽取出与用户提出的问题相关的知识之后,进一步从与用户提出的问题相关的知识中二次抽取出了对回答用户提出的问题有用的知识,用于辅助大语言模型回答用户提出的问题,就可以减少输入大语言模型的数据量,从而减轻大语言模型的计算压力,提高大语言模型的计算效率。
需要说明的是,上述第一大语言模型、上述第二大语言模型、上述第三大语言模型等大语言模型可以是同一个大语言模型,也可以是不同的大语言模型。
与前述方法的实施例相对应,本申请还提供了装置的实施例。
请参考图5,图5是本申请一示例性实施例示出的一种设备的结构示意图。在硬件层面,该设备包括处理器502、内部总线504、网络接口506、内存508以及非易失性存储器510,当然还可能包括所需要的其他硬件。本申请一个或多个实施例可以基于软件方式来实现,比如由处理器502从非易失性存储器510中读取对应的计算机程序到内存508中然后运行。当然,除了软件实现方式之外,本申请一个或多个实施例并不排除其他实现方式,比如逻辑器件或者软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑模块,也可以是硬件或者逻辑器件。
请参考图6,图6是本申请一示例性实施例示出的一种基于大语言模型的问答装置的框图。
上述基于大语言模型的问答装置可以应用于图5所示的设备,以实现本申请的技术方案。所述装置包括:
第一获取模块602,获取用户输入的查询文本,并针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量;
第二获取模块604,获取针对外部知识库中的各条文本记录进行特征提取,得到的与所述各条文本记录对应的特征向量;
抽取模块606,计算与所述各条文本记录对应的特征向量和与所述查询文本对应的特征向量之间的向量相似度,并基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录;
生成模块608,将所述查询文本和所述至少一条第一类文本记录输入第一大语言模型,由所述第一大语言模型基于所述查询文本和所述至少一条第一类文本记录进行推理以生成答案文本,并将所述答案文本向所述用户进行输出。
在一些实施例中,所述外部知识库为动态更新的外部知识库。
在一些实施例中,所述外部知识库为用于存储医疗知识的外部知识库;所述查询文本为与医疗问询场景相关的医疗问询文本;所述答案文本为医疗问询结果。
在一些实施例中,所述针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量,包括:
将所述查询文本输入第二大语言模型,由所述第二大语言模型针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量;
所述装置还包括:
特征提取模块,将所述外部知识库中的各条文本记录输入所述第二大语言模型,由所述第二大语言模型针对所述各条文本记录进行特征提取,得到与所述各条文本记录对应的特征向量。
在一些实施例中,所述基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录,包括:
从所述外部知识库包含的文本记录中抽取所述向量相似度大于预设的第一阈值的文本记录,作为与所述查询文本相关的至少一条第一类文本记录。
在一些实施例中,所述基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录,包括:
从所述外部知识库包含的文本记录中抽取所述向量相似度最大的预设数量的文本记录,作为与所述查询文本相关的至少一条第一类文本记录。
在一些实施例中,所述将所述查询文本和所述至少一条第一类文本记录输入第一大语言模型,由所述第一大语言模型基于所述查询文本和所述至少一条第一类文本记录进行推理以生成答案文本,并将所述答案文本向所述用户进行输出,包括:
从所述至少一条第一类文本记录中进一步抽取用于生成与所述查询文本对应的答案文本的至少一条第二类文本记录;
将所述查询文本和所述至少一条第二类文本记录输入第一大语言模型,由所述第一大语言模型基于所述查询文本和所述至少一条第二类文本记录进行推理以生成答案文本,并将所述答案文本向所述用户进行输出。
在一些实施例中,所述从所述至少一条第一类文本记录中进一步抽取用于生成与所述查询文本对应的答案文本的至少一条第二类文本记录,包括:
将所述至少一条第一类文本记录中的各条目标第一类文本记录和所述查询文本输入第三大语言模型,由所述第三大语言模型判断所述目标第一类文本记录是否用于生成与所述查询文本对应的答案文本;
根据所述第三大语言模型输出的判断结果,从所述至少一条第一类文本记录中进一步抽取用于生成与所述查询文本对应的答案文本的至少一条第二类文本记录。
在一些实施例中,所述将所述至少一条第一类文本记录中的各条目标第一类文本记录和所述查询文本输入第三大语言模型,由所述第三大语言模型判断所述目标第一类文本记录是否用于生成与所述查询文本对应的答案文本,包括:
确定所述至少一条第一类文本记录中的各条目标第一类文本记录的文本长度是否超过预设的第二阈值;
如果所述目标第一类文本记录的文本长度未超过所述第二阈值,将所述目标第一类文本记录和所述查询文本输入第三大语言模型,由所述第三大语言模型判断所述目标第一类文本记录是否用于生成与所述查询文本对应的答案文本;
如果所述目标第一类文本记录的文本长度超过所述第二阈值,将所述目标第一类文本记录切分为多个文本片段,并从所述多个文本片段中确定出与所述查询文本相关的至少一个文本片段,以及将所述至少一个文本片段和所述查询文本输入所述第三大语言模型,由所述第三大语言模型判断所述至少一个文本片段是否用于生成与所述查询文本对应的答案文本。
在一些实施例中,所述从所述多个文本片段中确定出与所述查询文本相关的至少一个文本片段,包括:
针对所述多个文本片段中的各个文本片段进行特征提取,得到与所述各个文本片段对应的特征向量;
计算与所述各个文本片段对应的特征向量和与所述查询文本对应的特征向量之间的向量相似度,并基于所述向量相似度,从所述多个文本片段中确定出与所述查询文本相关的至少一个文本片段。
在一些实施例中,在将所述查询文本和所述至少一条第二类文本记录输入第一大语言模型之前,所述方法还包括:
对所述至少一条第二类文本记录中文本长度超过预设的第三阈值的第二类文本记录进行文本缩短处理,并将所述查询文本和文本缩短处理后的所述至少一条第二类文本记录输入第一大语言模型。
对于装置实施例而言,其基本对应于方法实施例,因此相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请的技术方案的目的。
上述实施例阐明的系统、装置、模块或者单元,具体可以由计算机芯片或者实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
在一个典型的配置中,计算机包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或者闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或者技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或者其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或者其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或者其他光学存储、磁盒式磁带、磁盘存储、量子存储器、基于石墨烯的存储介质或者其他磁性存储设备或者任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
上述对本申请特定实施例进行了描述。其他实施例在本申请的范围内。在一些情况下,在本申请中记载的动作或者步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在本申请一个或多个实施例中所使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请一个或多个实施例。单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。术语“和/或”是指并包含一个或多个相关联的列出项目的任何或者所有可能组合。
在本申请一个或多个实施例中所使用的术语“一个实施例”、“一些实施例”、“示例”、“具体示例”或者“一种实施方式”等的描述意指结合该实施例所描述的具体特征或者特点包含于本申请的至少一个实施例中。对这些术语的示意性描述不必须针对相同的实施例。而且,所描述的具体特征或者特点可以在本申请一个或多个实施例中以合适的方式结合。此外,在不相互矛盾的情况下,可以将不同的实施例以及不同实施例中的具体特征或者特点进行结合。
应当理解,尽管在本申请一个或多个实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或者“当……时”或者“响应于确定”。
以上所述仅为本申请一个或多个实施例的较佳实施例而已,并不用以限制本申请一个或多个实施例,凡在本申请一个或多个实施例的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请一个或多个实施例保护的范围之内。
本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
Claims (13)
1.一种基于大语言模型的问答方法,所述方法包括:
获取用户输入的查询文本,并针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量;
获取针对外部知识库中的各条文本记录进行特征提取,得到的与所述各条文本记录对应的特征向量;
计算与所述各条文本记录对应的特征向量和与所述查询文本对应的特征向量之间的向量相似度,并基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录;
从所述至少一条第一类文本记录中进一步抽取用于生成与所述查询文本对应的答案文本的至少一条第二类文本记录;
将所述查询文本和所述至少一条第二类文本记录输入第一大语言模型,由所述第一大语言模型基于所述查询文本和所述至少一条第二类文本记录进行推理以生成答案文本,并将所述答案文本向所述用户进行输出。
2.根据权利要求1所述的方法,所述外部知识库为动态更新的外部知识库。
3.根据权利要求1所述的方法,所述外部知识库为用于存储医疗知识的外部知识库;所述查询文本为与医疗问询场景相关的医疗问询文本;所述答案文本为医疗问询结果。
4.根据权利要求1所述的方法,所述针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量,包括:
将所述查询文本输入第二大语言模型,由所述第二大语言模型针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量;
所述方法还包括:
将所述外部知识库中的各条文本记录输入所述第二大语言模型,由所述第二大语言模型针对所述各条文本记录进行特征提取,得到与所述各条文本记录对应的特征向量。
5.根据权利要求1所述的方法,所述基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录,包括:
从所述外部知识库包含的文本记录中抽取所述向量相似度大于预设的第一阈值的文本记录,作为与所述查询文本相关的至少一条第一类文本记录。
6.根据权利要求1所述的方法,所述基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录,包括:
从所述外部知识库包含的文本记录中抽取所述向量相似度最大的预设数量的文本记录,作为与所述查询文本相关的至少一条第一类文本记录。
7.根据权利要求1所述的方法,所述从所述至少一条第一类文本记录中进一步抽取用于生成与所述查询文本对应的答案文本的至少一条第二类文本记录,包括:
将所述至少一条第一类文本记录中的各条目标第一类文本记录和所述查询文本输入第三大语言模型,由所述第三大语言模型判断所述目标第一类文本记录是否用于生成与所述查询文本对应的答案文本;
根据所述第三大语言模型输出的判断结果,从所述至少一条第一类文本记录中进一步抽取用于生成与所述查询文本对应的答案文本的至少一条第二类文本记录。
8.根据权利要求7所述的方法,所述将所述至少一条第一类文本记录中的各条目标第一类文本记录和所述查询文本输入第三大语言模型,由所述第三大语言模型判断所述目标第一类文本记录是否用于生成与所述查询文本对应的答案文本,包括:
确定所述至少一条第一类文本记录中的各条目标第一类文本记录的文本长度是否超过预设的第二阈值;
如果所述目标第一类文本记录的文本长度未超过所述第二阈值,将所述目标第一类文本记录和所述查询文本输入第三大语言模型,由所述第三大语言模型判断所述目标第一类文本记录是否用于生成与所述查询文本对应的答案文本;
如果所述目标第一类文本记录的文本长度超过所述第二阈值,将所述目标第一类文本记录切分为多个文本片段,并从所述多个文本片段中确定出与所述查询文本相关的至少一个文本片段,以及将所述至少一个文本片段和所述查询文本输入所述第三大语言模型,由所述第三大语言模型判断所述至少一个文本片段是否用于生成与所述查询文本对应的答案文本。
9.根据权利要求8所述的方法,所述从所述多个文本片段中确定出与所述查询文本相关的至少一个文本片段,包括:
针对所述多个文本片段中的各个文本片段进行特征提取,得到与所述各个文本片段对应的特征向量;
计算与所述各个文本片段对应的特征向量和与所述查询文本对应的特征向量之间的向量相似度,并基于所述向量相似度,从所述多个文本片段中确定出与所述查询文本相关的至少一个文本片段。
10.根据权利要求7所述的方法,在将所述查询文本和所述至少一条第二类文本记录输入第一大语言模型之前,所述方法还包括:
对所述至少一条第二类文本记录中文本长度超过预设的第三阈值的第二类文本记录进行文本缩短处理,并将所述查询文本和文本缩短处理后的所述至少一条第二类文本记录输入第一大语言模型。
11.一种基于大语言模型的问答装置,所述装置包括:
第一获取模块,获取用户输入的查询文本,并针对所述查询文本进行特征提取,得到与所述查询文本对应的特征向量;
第二获取模块,获取针对外部知识库中的各条文本记录进行特征提取,得到的与所述各条文本记录对应的特征向量;
抽取模块,计算与所述各条文本记录对应的特征向量和与所述查询文本对应的特征向量之间的向量相似度,并基于所述向量相似度,从所述外部知识库包含的文本记录中抽取与所述查询文本相关的至少一条第一类文本记录;
生成模块,将所述查询文本和所述至少一条第一类文本记录输入第一大语言模型,由所述第一大语言模型基于所述查询文本和所述至少一条第一类文本记录进行推理以生成答案文本,并将所述答案文本向所述用户进行输出。
12.一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过运行所述可执行指令以实现如权利要求1至10中任一项所述的方法。
13.一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如权利要求1至10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410552577.7A CN118133971A (zh) | 2024-05-06 | 2024-05-06 | 基于大语言模型的医疗问答方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410552577.7A CN118133971A (zh) | 2024-05-06 | 2024-05-06 | 基于大语言模型的医疗问答方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118133971A true CN118133971A (zh) | 2024-06-04 |
Family
ID=91233007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410552577.7A Pending CN118133971A (zh) | 2024-05-06 | 2024-05-06 | 基于大语言模型的医疗问答方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118133971A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118315012A (zh) * | 2024-06-05 | 2024-07-09 | 支付宝(杭州)信息技术有限公司 | 基于大语言模型的医疗检查结论生成方法和装置 |
CN118410156A (zh) * | 2024-07-03 | 2024-07-30 | 支付宝(杭州)信息技术有限公司 | 基于大语言模型的医疗问答方法和装置 |
CN118643842A (zh) * | 2024-08-15 | 2024-09-13 | 山东大学 | 基于大模型的无监督多样性观点摘要生成方法与装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117235226A (zh) * | 2023-09-21 | 2023-12-15 | 支付宝(杭州)信息技术有限公司 | 一种基于大语言模型的问题应答方法及装置 |
KR20230171234A (ko) * | 2022-06-13 | 2023-12-20 | 에스케이텔레콤 주식회사 | 사용자 참여 기반의 질의응답 서비스 제공방법 및 이를 위한 장치 |
CN117313859A (zh) * | 2023-09-25 | 2023-12-29 | 广州昂宝电子有限公司 | 基于LangChain和大语言模型的问答方法和系统 |
CN117539990A (zh) * | 2023-11-03 | 2024-02-09 | 重庆数智逻辑科技有限公司 | 一种问题处理方法、装置、电子设备和存储介质 |
CN117972038A (zh) * | 2023-12-27 | 2024-05-03 | 杭州蜂工场信息技术有限公司 | 一种智能问答方法、装置及计算机可读介质 |
-
2024
- 2024-05-06 CN CN202410552577.7A patent/CN118133971A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230171234A (ko) * | 2022-06-13 | 2023-12-20 | 에스케이텔레콤 주식회사 | 사용자 참여 기반의 질의응답 서비스 제공방법 및 이를 위한 장치 |
CN117235226A (zh) * | 2023-09-21 | 2023-12-15 | 支付宝(杭州)信息技术有限公司 | 一种基于大语言模型的问题应答方法及装置 |
CN117313859A (zh) * | 2023-09-25 | 2023-12-29 | 广州昂宝电子有限公司 | 基于LangChain和大语言模型的问答方法和系统 |
CN117539990A (zh) * | 2023-11-03 | 2024-02-09 | 重庆数智逻辑科技有限公司 | 一种问题处理方法、装置、电子设备和存储介质 |
CN117972038A (zh) * | 2023-12-27 | 2024-05-03 | 杭州蜂工场信息技术有限公司 | 一种智能问答方法、装置及计算机可读介质 |
Non-Patent Citations (1)
Title |
---|
马满福;刘元喆;李勇;王霞;贾海;史彦斌;张小康;: "基于LCN的医疗知识问答模型", 西南大学学报(自然科学版), no. 10, 20 October 2020 (2020-10-20) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118315012A (zh) * | 2024-06-05 | 2024-07-09 | 支付宝(杭州)信息技术有限公司 | 基于大语言模型的医疗检查结论生成方法和装置 |
CN118410156A (zh) * | 2024-07-03 | 2024-07-30 | 支付宝(杭州)信息技术有限公司 | 基于大语言模型的医疗问答方法和装置 |
CN118643842A (zh) * | 2024-08-15 | 2024-09-13 | 山东大学 | 基于大模型的无监督多样性观点摘要生成方法与装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2018214675B2 (en) | Systems and methods for automatic semantic token tagging | |
WO2022007823A1 (zh) | 一种文本数据处理方法及装置 | |
CN112131366B (zh) | 训练文本分类模型及文本分类的方法、装置及存储介质 | |
CN110427461B (zh) | 智能问答信息处理方法、电子设备及计算机可读存储介质 | |
CN112131350B (zh) | 文本标签确定方法、装置、终端及可读存储介质 | |
WO2021211207A1 (en) | Adversarial pretraining of machine learning models | |
CN114398961A (zh) | 一种基于多模态深度特征融合的视觉问答方法及其模型 | |
CN112287089B (zh) | 用于自动问答系统的分类模型训练、自动问答方法及装置 | |
CN112131883B (zh) | 语言模型训练方法、装置、计算机设备和存储介质 | |
CN118133971A (zh) | 基于大语言模型的医疗问答方法和装置 | |
CN112101042B (zh) | 文本情绪识别方法、装置、终端设备和存储介质 | |
US20240152770A1 (en) | Neural network search method and related device | |
US11880664B2 (en) | Identifying and transforming text difficult to understand by user | |
WO2021001517A1 (en) | Question answering systems | |
CN118114675B (zh) | 基于大语言模型的医疗命名实体识别方法和装置 | |
CN116662502A (zh) | 基于检索增强的金融问答文本生成方法、设备及存储介质 | |
CN112883736A (zh) | 医疗实体关系抽取方法和装置 | |
CN113722507B (zh) | 基于知识图谱的住院费用预测方法、装置及计算机设备 | |
Feng et al. | Ontology semantic integration based on convolutional neural network | |
CN111783473B (zh) | 医疗问答中最佳答案的识别方法、装置和计算机设备 | |
CN112307738B (zh) | 用于处理文本的方法和装置 | |
CN108984475A (zh) | 基于全息神经网络的答案选择方法、装置和电子设备 | |
CN117541853A (zh) | 一种基于类别解耦的分类知识蒸馏模型训练方法和装置 | |
CN113569094A (zh) | 视频推荐方法、装置、电子设备及存储介质 | |
CN116956934A (zh) | 任务处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |