CN117290490A - 一种模型训练的处理、信息处理方法、装置、设备及介质 - Google Patents

一种模型训练的处理、信息处理方法、装置、设备及介质 Download PDF

Info

Publication number
CN117290490A
CN117290490A CN202311580839.2A CN202311580839A CN117290490A CN 117290490 A CN117290490 A CN 117290490A CN 202311580839 A CN202311580839 A CN 202311580839A CN 117290490 A CN117290490 A CN 117290490A
Authority
CN
China
Prior art keywords
information
question
model
answer
prompt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311580839.2A
Other languages
English (en)
Inventor
王明辉
马伟
李丽欣
张广奎
孙利辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinhuasan Artificial Intelligence Technology Co ltd
Original Assignee
Xinhuasan Artificial Intelligence Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinhuasan Artificial Intelligence Technology Co ltd filed Critical Xinhuasan Artificial Intelligence Technology Co ltd
Priority to CN202311580839.2A priority Critical patent/CN117290490A/zh
Publication of CN117290490A publication Critical patent/CN117290490A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/10Pre-processing; Data cleansing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Abstract

本申请实施例提供了一种模型训练的处理、信息处理方法、装置、设备及介质,涉及计算机技术领域,该方法包括:构造问题模板,并获取问题模板对应的填充内容;将填充内容填充至问题模板,得到第一问题;获取第一问题对应的第一提示信息;将第一提示信息输入预先训练得到的闭源问答模型,得到第一问题的第一答案;利用输入信息和第一答案,对预先训练得到的开源问答模型的模型参数进行微调,得到目标问答模型,输入信息为第一问题或第一提示信息。应用本申请实施例提供的方案,提高了安全性,提高了回答问题的准确性。

Description

一种模型训练的处理、信息处理方法、装置、设备及介质
技术领域
本申请涉及计算机技术领域,特别是涉及一种模型训练的处理、信息处理方法、装置、设备及介质。
背景技术
LLM(Large Language Model,大语言模型)是一种人工智能模型,旨在理解和生成人类语言,可以用于智能问答。
目前,LLM分为闭源问答模型和开源问答模型。闭源问答模型回答问题的准确性较高,但闭源问答模型涉及私域数据,存在信息泄露的风险,安全性较低。开源问答模型不涉及私域数据,安全性较高,但回答问题的准确性较低。
基于此,如何提供一种安全性高、且回答问题的准确性高的问答模型,称为一种亟待解决的问题。
发明内容
本申请实施例的目的在于提供一种模型训练的处理、信息处理方法、装置、设备及介质,以提高安全性,提高回答问题的准确性。具体技术方案如下:
第一方面,本申请实施例提供了一种模型训练的处理方法,所述方法包括:
构造问题模板,并获取所述问题模板对应的填充内容;
将所述填充内容填充至所述问题模板,得到第一问题;
获取所述第一问题对应的第一提示信息;
将所述第一提示信息输入预先训练得到的闭源问答模型,得到所述第一问题的第一答案;
利用输入信息和所述第一答案,对预先训练得到的开源问答模型的模型参数进行微调 ,得到目标问答模型,所述输入信息为所述第一问题或所述第一提示信息。
在一些实施例中,所述获取所述第一问题对应的第一提示信息的步骤,包括:
将所述第一问题在第一预设知识库中进行检索,得到所述第一问题对应的第一已知信息;
将所述第一问题和所述第一已知信息填充至提示模板,得到所述第一问题对应的第一提示信息。
在一些实施例中,所述获取所述第一问题对应的第一提示信息的步骤,包括:
获取所述第一问题对应的第一原始已知信息;
对所述第一原始已知信息进行清洗,得到第一已知信息;
将所述第一问题和所述第一已知信息填充至提示模板,得到所述第一问题对应的第一提示信息。
在一些实施例中,所述第一原始已知信息包括表格信息;
所述对所述第一原始已知信息进行清洗,得到第一已知信息的步骤,包括:
将所述表格信息的表头信息作为每一行表项信息的注释信息,并在相邻两行表项信息之间增加预设符号,得到第一已知信息。
在一些实施例中,所述第一原始已知信息包括图片信息;
所述对所述第一原始已知信息进行清洗,得到第一已知信息的步骤,包括:
去除所述图片信息,得到第一已知信息。
第二方面,本申请实施例提供了一种信息处理方法,所述方法包括:
获取第二问题;
获取所述第二问题对应的第二提示信息;
将所述第二提示信息输入目标问答模型,得到第二答案,所述目标问答模型为根据上述第一方面所述方法得到的模型。
在一些实施例中,所述获取所述第二问题对应的第二提示信息的步骤,包括:
将所述第二问题在第二预设知识库中进行检索,得到所述第二问题对应的第二原始已知信息;
从所述第二原始已知信息中选择第二已知信息;
将所述第二问题和所述第二已知信息填充至提示模板,得到所述第二问题对应的第二提示信息。
第三方面,本申请实施例提供了一种模型训练的处理装置,所述装置包括:
第一获取模块,用于构造问题模板,并获取所述问题模板对应的填充内容;将所述填充内容填充至所述问题模板,得到第一问题;获取所述第一问题对应的第一提示信息;
第一得到模块,用于将所述第一提示信息输入预先训练得到的闭源问答模型,得到所述第一问题的第一答案;
微调模块,用于利用输入信息和所述第一答案,对预先训练得到的开源问答模型的模型参数进行微调,得到目标问答模型,所述输入信息为所述第一问题或所述第一提示信息。
在一些实施例中,所述第一获取模块,具体用于:
将所述第一问题在第一预设知识库中进行检索,得到所述第一问题对应的第一已知信息;
将所述第一问题和所述第一已知信息填充至提示模板,得到所述第一问题对应的第一提示信息。
在一些实施例中,所述第一获取模块,具体用于:
获取第一问题对应的第一原始已知信息;
对所述第一原始已知信息进行清洗,得到第一已知信息;
将所述第一问题和所述第一已知信息填充至提示模板,得到所述第一问题对应的第一提示信息。
在一些实施例中,所述第一原始已知信息包括表格信息;所述第一获取模块,具体用于:
将所述表格信息的表头信息作为每一行表项信息的注释信息,并在相邻两行表项信息之间增加预设符号,得到第一已知信息。
在一些实施例中,所述第一原始已知信息包括图片信息;所述第一获取模块,具体用于:
去除所述图片信息,得到第一已知信息。
第四方面,本申请实施例提供了一种信息处理装置,所述装置包括:
第二获取模块,用于获取第二问题;
第三获取模块,用于获取所述第二问题对应的第二提示信息;
第二得到模块,用于将所述第二提示信息输入目标问答模型,得到第二答案,所述目标问答模型为根据上述第三方面所述装置得到的模型。
在一些实施例中,所述第三获取模块,具体用于:
将所述第二问题在第二预设知识库中进行检索,得到所述第二问题对应的第二原始已知信息;
从所述第二原始已知信息中选择第二已知信息;
将所述第二问题和所述第二已知信息填充至提示模板,得到所述第二问题对应的第二提示信息。
第五方面,本申请实施例提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信,
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面所述的方法步骤。
第六方面,本申请实施例提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信,
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第二方面所述的方法步骤。
第七方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面或第二方面所述的方法步骤。
本申请实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面或第二方面所述的方法步骤。
本申请实施例有益效果:
本申请实施例提供的技术方案中,在预先训练得到的闭源问答模型和开源问答模型的基础上,利用闭源问答模型来回答问题,得到答案,并利用由闭源问答模型得到的答案,对开源问答模型的模型参数进行微调,使得开源问答模型可以有效学习到回答问题的准确度高的闭源问答模型的处理方式,提高了微调开源问答模型所得到的目标问答模型回答问题的准确性,在结合开源问答模型本身所具有的安全性高的特性,微调开源问答模型所得到的目标问答模型具有安全性高、回答问题准确性高的特性,利用目标问答模型进行问答,提高了安全性以及回答问题的准确性。
当然,实施本申请的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的实施例。
图1为LangChain-ChatGLM的架构示意图;
图2为本申请实施例提供的模型训练的处理方法的第一种流程示意图;
图3为本申请实施例提供的模型训练的处理方法的第二种流程示意图;
图4为本申请实施例提供的信息处理方法的一种流程示意图;
图5为本申请实施例提供的模型训练的处理装置的一种结构示意图;
图6为本申请实施例提供的信息处理装置的一种结构示意图;
图7为本申请实施例提供的电子设备的第一种结构示意图;
图8为本申请实施例提供的电子设备的第二种结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本申请保护的范围。
LLM(Large Language Model,大语言模型)是一种人工智能模型,旨在理解和生成人类语言,可以用于智能问答。LLM包括ChatGPT(Chat Generative Pre-TrainedTransformer,聊天生成式预训练大模型)、ChatGLM(Chat General Language ModelPretraining with Autoregressive Blank Infilling,聊天自回归空白填充的通用语言模型)等。
ChatGPT是一种基于自然语言处理和机器学习技术的智能对话系统,可以模拟人类的语言交流,实现与用户的智能对话。它的影响非常大,已经广泛应用于智能客服、聊天机器人、语音助手等领域,为人们提供了更方便、快捷和智能化的服务。自推出以来,引发了大语言模型研究的热潮,被称为可以媲美因特网的重大事件。
自从ChatGPT发布并持续火爆以来,各种LLM相继被发布,完全开源的有ChatGLM、BLOOM(BigScience Large Open-science Open-access Multilingual Language Model,大科学大型开放科学开放存取多语言)、LlaMA(Large Language Model Meta ArtificialIntelligent,元人工智能大语言模型)等。但是这些LLM学到的知识是滞后的,并且这些知识是通用领域的。在实际应用场景中,大多数LLM是为了完成特定任务的,比如数字人虚拟主播、智能客服等问答机器人都需要围绕具体的业务来进行问答。如何将具体业务知识融合到LLM里,是问答机器人落地应用需要考虑的一个重要问题。问答机器人即为运行问答模型的电子设备。
此外,ChatGPT等LLM的知识延迟和幻想一直是非常难以解决的问题,而其背后的技术选型导致了这两个问题必然会存在。
1)知识延迟。由于LLM学到的知识来自于训练时喂给它的训练数据,且LLM很难做到实时更新,一般更新一次也得花上好几个月,所有它能接收到的数据必然是延迟的。
2)幻想(偏离事实情况或包含捏造的信息)。由于LLM采用的是概率模型,即预测生成下一个字符概率是多少,所有LLM在生成结果的时候都有一定的可能出现错误。
目前解决上述问题的比较好方式就是利用LLM极强的语义理解能力,给LLM外挂知识库或者搜索引擎。常见的知识库问答系统可以基于LangChain(长链)技术,为各类行业或领域知识问答应用提供了文档清洗/上传、知识库构建、知识库检索、LLM问答等相关实现支持。
LangChain是一个用于开发LLM应用程序的框架,支持以下特性:数据感知(将语言模型连接到其他数据源)和代理功能(允许语言模型与其环境交互)。
LangChain自身并不开发LLMs,其核心理念是为各种LLMs实现通用的接口,把LLMs相关的组件“链接”在一起,简化LLMs应用的开发难度,方便开发者快速地开发复杂的LLMs应用。实现过程包括:加载文件(即本地知识文件,如txt/json/doc/pdf/表格/网页等)->读取文本->文本分割(如按换行符切分)->构成文本(documents)->文本向量化(即在向量层将文本字符串向量化,得到每个文本的向量)->问题向量化(即在向量层将输入的问题字符串向量化,得到问题的向量)->在文本向量中匹配出与问题向量最相似的k个文本向量(即用本地知识构建索引,进行搜索,得到k个相关的文本)->匹配出的文本作为上下文和问题一起添加到提示模板(prompt template)中,得到提示信息(即将文本拼接得到上下文,用上下文和问题填充提示模板,得到提示信息)->将提示信息提交给LLM生成回答(即得到回答)。LangChain-ChatGLM的架构如图1所示。
外挂知识库系统的准确率是一个重要指标,它受到多方面的影响:如何有效处理文档文件、文件拆分方式、相似度查找算法、选用合适的提示模板、LLM如何更好地输出答案、如何减轻LLM幻想问题等等。一个普通的LLM知识库问答系统能够达到60-70%的准确度已经不错了,但对于医疗、法律等领域显然是远远不够的,而对于网络产品及运维知识库也要求至少90%的准确率才是可以接受的。
目前,LLM分为闭源问答模型和开源问答模型。闭源问答模型回答问题的准确性较高,各项性能遥遥领先,但ChatGpt/GPT4(Generative Pre-trained Transformer 4,生成式预训练大模型4)等闭源问答模型涉及私域数据,存在信息泄露的风险,安全性较低。开源问答模型不涉及私域数据,安全性较高,但回答问题的准确性较低,相对ChatGpt在性能、回答效果上还存在较大差距。基于此,如何提供一种安全性高、且回答问题的准确性高的问答模型,称为一种亟待解决的问题。
为了解决上述问题,本申请实施例提供了一种模型训练的处理方法,参见图2,该方法应用于计算机、服务器、集群等可以进行模型训练处理的电子设备。为便于描述,下面以电子设备为执行主体进行说明,并不起限定作用。该模型训练的处理方法包括如下步骤。
步骤S21,构造问题模板,获取问题模板对应的填充内容,将填充内容填充至问题模板,得到第一问题,获取第一问题对应的第一提示信息。
步骤S22,将第一提示信息输入预先训练得到的闭源问答模型,得到第一问题的第一答案。
步骤S23,利用输入信息和第一答案,对预先训练得到的开源问答模型的模型参数进行微调,得到目标问答模型,输入信息为第一问题或第一提示信息。
本申请实施例提供的技术方案中,在预先训练得到的闭源问答模型和开源问答模型的基础上,利用闭源问答模型来回答问题,得到答案,并利用由闭源问答模型得到的答案,对开源问答模型的模型参数进行微调,使得开源问答模型可以有效学习到回答问题的准确度高的闭源问答模型的处理方式,提高了微调开源问答模型所得到的目标问答模型回答问题的准确性,在结合开源问答模型本身所具有的安全性高的特性,微调开源问答模型所得到的目标问答模型具有安全性高、回答问题准确性高的特性,利用目标问答模型进行问答,提高了安全性以及回答问题的准确性。
上述步骤S21中,第一问题可以为以任一提问方式提出的任一领域的问题。问题模板可以从用户常见问题中提取,例如,问题模板可以为“请描述一下XXX技术”、“请对比XX技术与YY技术的差异”、“请举例如何配置XX协议”等,不同领域构造的问题模板可能不同,在此对问题模板的形式、内容不作限定。
电子设备构造问题模板后,可以根据问题模板所属的领域,获取对应的填充内容。填充内容可以包括具体的技术、协议、产品等,对此不作限定。进而,电子设备通过将填充内容填充至问题模板,得到第一问题。电子设备可以构造多个问题模板,向各个问题模板中填充多种填充内容,得到多个第一问题,例如,电子设备可以构造50个问题模板,通过向每个问题模板中填充不同的填充内容,每个问题模板可以得到100个具体的问题,进而得到包括5000个第一问题的问题集合,在此对问题模板数量、每个问题模板得到的第一问题的数量不作限定。通过问题模板,可以构建得到不同领域、不同数量的第一问题,从多方面对问答模型进行训练,提高目标问答模型的准确度。
本申请实施例中,电子设备根据开源数据构造问题模板、获取填充内容,使得到的第一问题不涉及私域数据,保证在模型训练的处理过程中私域数据不会泄露,提高安全性。
本申请实施例中,第一提示信息与第一问题对应,为LLM回答第一问题所需要的信息。第一提示信息可以包括第一问题,还可以包括对第一问题的描述、第一问题所属领域的基础信息等与第一问题相关的信息,对此不作限定。电子设备获取第一问题以及第一问题对应的第一提示信息,当获取到多个第一问题时,电子设备获取每一第一问题对应的第一提示信息,对获取的第一问题的数量不作限定。
上述步骤S22中,闭源问答模型是预先训练好的、可以进行问答的任一闭源LLM,例如,闭源问答模型可以为ChatGpt、Gpt4等。闭源问答模型也可以是其他准确度高的问答模型,对此不作限定。第一答案为闭源问答模型对第一问题回答得到的答案。电子设备将第一提示信息输入闭源问答模型,使得闭源问答模型可以根据第一提示信息,对第一问题进行回答,进而得到第一问题的第一答案。本申请实施例中,以闭源问答模型为ChatGpt为例,当电子设备获取多个第一问题对应的多个第一提示信息时,电子设备可以将ChatGpt的会话设置为单轮模式,依次将多个第一提示信息作为提问,输入给ChatGpt,并记录ChatGpt的回答,得到多个第一问题对应的多个第一答案。
上述步骤S23中,开源问答模型是预先训练好的、可以进行问答的任一开源LLM,例如,开源问答模型可以为ChatGLM、LlaMA等。开源问答模型也可以为其他需要提高准确度的模型,对此不作限定。目标问答模型是在实际应用中进行问答的模型,例如,目标问答模型可以为用户提供问答服务,也可以用于其他模型训练,对此不作限定。电子设备将输入信息以及第一答案输入开源问答模型,利用输入信息以及第一答案(即准确度更高的闭源问答模型得到的第一问题对应的回答信息),对开源问答模型的模型参数进行微调,得到目标问答模型。
本申请实施例中,输入信息可以为第一问题,此时,电子设备可以从第一预设知识库(即挂载在闭源问答模型下的知识库)或第二预设知识库(即挂载在开源问答模型下的知识库)中获取与第一问题相关的信息,将该信息与第一问题构成当前提示信息,将当前提示信息输入开源问答模型,得到预测答案,基于预测答案与第一答案确定的损失值,对开源问答模型的模型参数进行微调。电子设备可以采用全参方式、LoRA(Low-Rank Adaptation,低秩适应)方式等微调开源问答模型的模型参数,对此电子设备进行模型微调的方式不作限定。
本申请实施例中,为了提高模型训练联系,输入信息可以为第一提示信息,此时,电子设备可以将第一提示信息直接输入开源问答模型,得到预测答案,基于预测答案与第一答案确定的损失值,对开源问答模型的模型参数进行微调。
本申请实施例中,电子设备在得到第一答案后,可以构造包括第一问题、第一提示信息以及第一答案的指令数据,使得电子设备通过将指令数据输入开源问答模型,实现开源问答模型的微调。电子设备可以按照预设的构造模板构造指令数据,如构造模板可以为{指令(instruct):‘第一提示信息’;输入(input):‘’;输出(output):‘第一答案’},第一提示信息中包括第一问题,指令与输入、输入与输出之间可以通过回车、空格等符号隔开,在此对构造模板的形式不作限定。电子设备通过将第一问题对应的第一提示信息以及第一答案填充至构造模板的相应位置,得到第一问题对应的指令数据。当电子设备得到多个第一答案时,电子设备可以构造得到多个指令数据,组成指令数据集,以提高进行模型微调的样本数量,利用指令数据集对开源问答模型进行微调,提高了目标问答模型的准确度和训练效率。
在一些实施例中,参见图3,为本申请实施例提供的模型训练的处理方法的第二种流程示意图,可以包括如下步骤。
步骤S31,构造问题模板,获取问题模板对应的填充内容,将填充内容填充至问题模板,得到第一问题。与上述步骤S21中得到第一问题的步骤相同。
步骤S32,将第一问题在第一预设知识库中进行检索,得到第一问题对应的第一已知信息。
步骤S33,将第一问题和第一已知信息填充至提示模板,得到第一问题对应的第一提示信息。
步骤S34,将第一提示信息输入预先训练得到的闭源问答模型,得到第一问题的第一答案。与上述步骤S22相同。
步骤S35,利用输入信息和第一答案,对预先训练得到的开源问答模型的模型参数进行微调,得到目标问答模型,输入信息为第一问题或第一提示信息。与上述步骤S23相同。
本申请实施例提供的技术方案中,将第一问题在第一预设知识库中进行检索,得到与第一问题相关的第一已知信息,通过提示模板构建第一提示信息,使得闭源问答模型和开源问答模型可以根据第一预设知识库中检索到的第一已知信息回答第一问题,提高问答模型的准确率。
上述步骤S32中,第一预设知识库为挂载在闭源问答模型下的知识库,包括进行问答所需的信息,可以包括文本信息、图片信息、表格信息等,也可以包括用户自行上传的数据信息、公开获取的其他信息等,对此不作限定。第一已知信息为第一预设知识库中与第一问题相关的信息。电子设备根据获取的第一问题,在第一预设知识库中检索与第一问题相关的信息,得到第一已知信息。本申请实施例中,第一预设知识库中的信息可以通过向量表示,电子设备可以将第一问题转换为向量,将第一问题对应的向量在第一预设知识库中进行相似度计算,得到相似度高的m个向量,进而得到第一已知信息,具体可参见上述图1中得到上下文的方式。
上述步骤S33,提示模板为用于构造提示信息的、预设的模板,如提示模板可以为{已知信息:‘第一已知信息’;问题:‘第一问题’},已知信息与问题信息可以通过回车、空格等符号隔开,在已知信息前还可以包括场景等描述信息,如“请记住你的名字是x”,在已知信息后还可以包括问答要求信息等,如“请根据上述已知信息,简洁和专业地回答用户的问题”、“不允许在答案中添加编造成分,答案请使用中文”等,在此对提示模板的形式不作限定。电子设备通过将第一问题以及第一问题对应的第一已知信息填充至提示模板的相应位置,得到第一问题对应的第一提示信息。当有多个第一问题时,电子设备可以从第一预设知识库中检索得到多个第一问题对应的多个第一已知信息,并填充提示模板得到多个第一提示信息。
本申请实施例中,第一问题对应的第一提示信息还可以是提前预设的,电子设备获取第一问题后,可以根据问题与提示信息的对应关系,从预设好的提示信息中,得到第一问题对应的第一提示信息,而不需要重新构造第一提示信息,可以提高模型训练的处理效率。
在一些实施例中,电子设备可以对信息进行清洗,则上述步骤S21可以包括如下步骤:获取第一问题对应的第一原始已知信息;对第一原始已知信息进行清洗,得到第一已知信息;将第一问题和第一已知信息填充至提示模板,得到第一问题对应的第一提示信息。第一原始已知信息为与第一问题相关的信息,且未经过清洗,可以包括文本信息、表格信息、图片信息等信息中的一种或多种。电子设备获取第一原始已知信息后,可以根据第一原始已知信息包括的信息的类型进行清洗,将清洗后的信息作为第一已知信息,并得到第一提示信息,电子设备根据第一已知信息得到第一提示信息的方式具体可参见对上述步骤S33的描述。通过对信息进行清洗,使得不同信息在格式上更加清晰明了,便于LLM理解,减少错误信息,降低对问答模型的影响。
电子设备根据第一原始已知信息包括的信息的类型,可以通过不同方式对第一原始已知信息进行清洗。
1)第一原始已知信息包括表格信息。对于第一原始已知信息中的表格信息,电子设备将表格信息的表头信息作为每一行表项信息的注释信息,并在相邻两行表项信息之间增加预设符号,得到第一已知信息。表格信息中包括多行表项信息,对于每一行表项信息,电子设备在将表项信息中的某一列内容转换为文本信息时,可以在表项信息中的该列内容前或后,添加该列的表头信息作为注释,如添加至()、{}、[]等括号中,表示括号中的信息为注释信息,在同一行表项信息的不同列内容之间,还可以添加空格等符号。电子设备在相邻的两行表项信息对应的文本信息之间,可以增加预设符号以区分不同行的表项信息,得到第一已知信息。预设符号可以根据实际情况进行设定,例如,预设符号可以为分号(;)、顿号(、)、逗号(,)等,对此不作限定。另外,在多行表项信息之前,电子设备还可以添加这多行表项信息的类型信息,并在类型信息与第一行表项信息之间添加冒号(:)、竖线(|)等符号,在不同类型的多行表项信息之间,电子设备还可以添加回车等符号,对此不作限定。通过上述方式,电子设备可以对表格信息进行清洗,使得转换为的文本信息在格式上更加清晰,减少混乱,有助于LLM提高理解能力,提高问答准确度。
本申请实施例中,参见表1,为表格信息的一个示例。表1中表头信息、表项信息的数量和内容,对表1进行清洗的方式仅为示例,并不起限定作用。
表1
表1中,第一行是表头信息,包括第一列至第三列的表头,第二行是类型信息,表示第三行与第四行的表项信息所属的类型,第五行是类型信息,表示第六行与第七行的表项信息所属的类型。电子设备对表1进行清洗,如对于第三行表项,在第三行中的第一列内容前,将第一列的表头信息添加至括号内,得到(部件编码)0231A5L9,并依次将第二列内容、第三列内容转换为(部件名称)LSXM1SUPH1、(描述)H3C S12500X-AF 主控制引擎模块,得到第三行表项清洗后的结果,如双引号中的内容“(部件编码)0231A5L9 (部件名称)LSXM1SUPH1 (描述)H3C S12500X-AF 主控制引擎模块”。同理,可以得到主控板类型的表项信息的清洗结果,如双引号中的内容“主控板:(部件编码)0231A5L9 (部件名称)LSXM1SUPH1 (描述)H3C S12500X-AF 主控制引擎模块;(部件编码)0231A8C3 (部件名称)LSXM2SUPT1 (描述)H3C S12500X-AF 主控制引擎模块”。同理,可以得到网板类型的表项信息的清洗结果,在此不再赘述。
2)第一原始已知信息包括图片信息。对于第一原始已知信息中的图片信息,电子设备去除图片信息,得到第一已知信息。由于文本类LLM无法处理图片信息,因此电子设备可以将第一原始已知信息中的与图片相关的内容和表述全部去除,以便于LLM理解,提高LLM进行问答的效率。
本申请实施例中,当电子设备通过第一预设知识库获取第一已知信息时,电子设备还可以对第一预设知识库中的信息进行清洗,如第一预设知识库包括表格信息,则电子设备可以通过上述1)的方式对表格信息进行清洗,又如第一预设知识库包括图片信息,则电子设备可以通过上述2)的方式对图片信息进行清洗。电子设备在对第一预设知识库进行清洗后,可以将第一问题在清洗后的第一预设知识库中进行检索,得到第一问题对应的第一已知信息,具体方式可参见上述步骤S32的相关描述。
下面对本申请实施例提供的模型训练的处理方法进行详细描述,以闭源问答模型是ChatGPT为例进行说明,并不起限定作用。
步骤A1,构造问题模板。
步骤A2,根据问题模板,随机选择具体的技术、协议、产品等内容(即填充内容)填充,可以自动得到大量的用户问题(即第一问题)。
步骤A3,将这些问题在知识库(即第一预设知识库)中检索,将检索得到的文本作为“已知信息”(即第一已知信息),构造下一步的输入提示信息(即第一提示信息)。
步骤A4,将这些问题对应的提示信息输入给ChatGPT(即闭源问答模型),并记录ChatGPT的回答信息(即第一答案),由此构造指令数据,所有这些指令数据组成指令数据集。
步骤A5,使用上述指令数据集微调LLM。
本申请实施例中,步骤A1-步骤A2可参见上述获取第一问题的相关描述,步骤A5可参见上述对步骤S23的相关描述。
上述步骤A3中,电子设备构造包括已知信息的提示信息,如下是一个所得提示信息的示例:
请记住你的名字是x,你是由y创建的。
已知信息:{……}(即第一已知信息)
请根据上述已知信息,简洁和专业地回答用户的问题。不允许在答案中添加编造成分,答案请使用中文。
问题是:生成树(Spanning-Tree Protocol,STP)协议的缺省工作模式是什么?(即第一问题)
上述步骤A4中,电子设备将ChatGPT的会话设置为单轮模式,将上述包含了“已知信息”的提示信息作为给ChatGPT的提问,记录ChatGPT的回答,将这个单轮会话信息整理为指令数据格式,如下是一个所得指令数据的示例:
{
指令(Instruct):请记住你的名字是x,你是由y创建的。
已知信息:{……}(即第一已知信息)
请根据上述已知信息,简洁和专业地回答用户的问题。不允许在答案中添加编造成分,答案请使用中文。
问题是:生成树协议的缺省工作模式是什么?(即第一问题)
输入(Input):Null
输出(Output):生成树协议的缺省工作模式是MSTP模式(Multiple Spanningtree Algorithm and protocol,多生成树技术)。(即第一答案)
}
上述提示信息和指令数据中各项内容仅为示例,并不起限定作用。
与上述模型训练的处理方法对应,本申请实施例还提供了一种信息处理方法,参见图4,为本申请实施例提供的信息处理方法的一种流程示意图,该方法应用于计算机、服务器等可以进行信息处理的电子设备。上述信息处理方法包括如下步骤。
步骤S41,获取第二问题。
步骤S42,获取第二问题对应的第二提示信息。
步骤S43,将第二提示信息输入目标问答模型,得到第二答案,目标问答模型根据图2-图3任一模型训练的处理方法得到。
本申请实施例提供的技术方案中,在目标问答模型应用过程中,获取第二问题以及对应的第二提示信息,采用目标问答模型回答第二问题,由于目标问答模型是开源的,且采用了准确度更高的闭源问答模型进行微调,使得目标问答模型有效学习到了闭源问答模型的处理方式,提高了信息处理的准确度,进而提高了用户进行问答时的准确度和简洁度。
上述步骤S41中,第二问题可以是用户提出的任意问题,电子设备获取用户的提问,作为第二问题。本申请实施例中,用户的提问可能会有口语化严重、缩写及术语不标准等问题,因此,电子设备可以对用户的提问做标准化处理,使得提问更加清晰准确,将处理后的提问作为第二问题。
上述步骤S42中,第二提示信息与第二问题对应,为目标问答模型回答第二问题所需要的信息,具体可参见上述步骤S21中对第一提示信息的描述。
上述步骤S43中,电子设备将第二提示信息输入目标问答模型,使得目标问答模型可以根据第二提示信息,对第二问题进行回答,得到的答案即为目标问答模型对第二问题的第二答案,进而,电子设备可以将第二答案反馈给用户。
在一些实施例中,电子设备可以通过如下步骤实现上述步骤S42:将第二问题在第二预设知识库中进行检索,得到第二问题对应的第二原始已知信息;从第二原始已知信息中选择第二已知信息;将第二问题和第二已知信息填充至提示模板,得到第二问题对应的第二提示信息。第二预设知识库为挂载在开源问答模型下的知识库,也就是用户进行问答所采用的知识库,电子设备可以预先对第二预设知识库进行清洗,具体可参见上述清洗信息的相关描述。电子设备根据获取的第二问题,在第二预设知识库中检索与第二问题相关的信息,得到第二原始已知信息(即召回信息),该第二原始已知信息可以为经过清洗的信息,电子设备得到第二原始已知信息的方式具体可参见上述对得到第一已知信息的描述。
电子设备可以根据第二原始已知信息的置信度,从第二原始已知信息中选择置信度高的第二已知信息,如选择置信度大于预设值的信息作为第二已知信息,或选择前n个置信度较高的信息作为第二已知信息,对此不作限定。电子设备还可以将第二原始已知信息反馈给用户,由用户检查召回信息,并根据召回信息包括的具体信息描述等,从中选择合适的作为下一步处理的“已知信息”(即第二已知信息),而未被选择的部分则直接丢弃。
得到第二已知信息后,电子设备根据提示模板,得到第二提示信息,具体可参见上述对提示模板、得到第一提示信息的相关描述。
应用本申请实施例提供的方案,可以提高第二已知信息的准确性和正确性,增强大模型的可解释性,减轻幻想问题;针对重要问题,可以增加用户介入环节,由用户进行判别处理,以提高用户对系统回答有效性的信心,从而提高系统的可用性。
通过上述措施,可以大大提高LLM外挂知识库系统的准确性,应用于开源的LLM系统后,系统准确性由60%提升到90%以上,取得了良好的效果,有利地支撑了相关模型应用,将大大提高了AIGC(Artificial Intelligent Genitive Content,生成式人工智能)领域的竞争力。
与上述模型训练的处理方法对应,本申请实施例还提供了一种模型训练的处理装置,参见图5,为本申请实施例提供的模型训练的处理装置的一种结构示意图,上述装置包括:
第一获取模块51,用于构造问题模板,并获取所述问题模板对应的填充内容;将所述填充内容填充至所述问题模板,得到第一问题;获取所述第一问题对应的第一提示信息;
第一得到模块52,用于将所述第一提示信息输入预先训练得到的闭源问答模型,得到所述第一问题的第一答案;
微调模块53,用于利用输入信息和所述第一答案,对预先训练得到的开源问答模型的模型参数进行微调,得到目标问答模型,所述输入信息为所述第一问题或所述第一提示信息。
在一些实施例中,所述第一获取模块51,具体用于:
将所述第一问题在第一预设知识库中进行检索,得到所述第一问题对应的第一已知信息;
将所述第一问题和所述第一已知信息填充至提示模板,得到所述第一问题对应的第一提示信息。
在一些实施例中,所述第一获取模块51,具体用于:
获取第一问题对应的第一原始已知信息;
对所述第一原始已知信息进行清洗,得到第一已知信息;
将所述第一问题和所述第一已知信息填充至提示模板,得到所述第一问题对应的第一提示信息。
在一些实施例中,所述第一原始已知信息包括表格信息;所述第一获取模块51,具体用于:
将所述表格信息的表头信息作为每一行表项信息的注释信息,并在相邻两行表项信息之间增加预设符号,得到第一已知信息。
在一些实施例中,所述第一原始已知信息包括图片信息;所述第一获取模块51,具体用于:
去除所述图片信息,得到第一已知信息。
本申请实施例提供的技术方案中,在预先训练得到的闭源问答模型和开源问答模型的基础上,利用闭源问答模型来回答问题,得到答案,并利用由闭源问答模型得到的答案,对开源问答模型的模型参数进行微调,使得开源问答模型可以有效学习到回答问题的准确度高的闭源问答模型的处理方式,提高了微调开源问答模型所得到的目标问答模型回答问题的准确性,在结合开源问答模型本身所具有的安全性高的特性,微调开源问答模型所得到的目标问答模型具有安全性高、回答问题准确性高的特性,利用目标问答模型进行问答,提高了安全性以及回答问题的准确性。
与上述信息处理方法对应,本申请实施例还提供了一种信息处理装置,参见图6,为本申请实施例提供的信息处理的一种结构示意图,上述装置包括:
第二获取模块61,用于获取第二问题;
第三获取模块62,用于获取所述第二问题对应的第二提示信息;
第二得到模块63,用于将所述第二提示信息输入目标问答模型,得到第二答案,所述目标问答模型为根据图5所述装置得到的模型。
在一些实施例中,所述第三获取模块62,具体用于:
将所述第二问题在第二预设知识库中进行检索,得到所述第二问题对应的第二原始已知信息;
从所述第二原始已知信息中选择第二已知信息;
将所述第二问题和所述第二已知信息填充至提示模板,得到所述第二问题对应的第二提示信息。
本申请实施例提供的技术方案中,在目标问答模型应用过程中,获取第二问题以及对应的第二提示信息,采用目标问答模型回答第二问题,由于目标问答模型是开源的,且采用了准确度更高的闭源问答模型进行微调,使得目标问答模型有效学习到了闭源问答模型的处理方式,提高了信息处理的准确度,进而提高了用户进行问答时的准确度和简洁度。
本申请实施例还提供了一种电子设备,如图7所示,包括处理器71、通信接口72、存储器73和通信总线74,其中,处理器71,通信接口72,存储器73通过通信总线74完成相互间的通信,
存储器73,用于存放计算机程序;
处理器71,用于执行存储器73上所存放的程序时,实现上述任一模型训练的处理方法的步骤。
本申请实施例还提供了一种电子设备,如图8所示,包括处理器81、通信接口82、存储器83和通信总线84,其中,处理器81,通信接口82,存储器83通过通信总线84完成相互间的通信,
存储器83,用于存放计算机程序;
处理器81,用于执行存储器83上所存放的程序时,实现上述任一信息处理方法的步骤。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一模型训练的处理方法或信息处理方法的步骤。
在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一模型训练的处理方法或信息处理方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk (SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于模型训练的处理装置、信息处理装置、电子设备、计算机可读存储介质和计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。

Claims (9)

1.一种模型训练的处理方法,其特征在于,所述方法包括:
构造问题模板,并获取所述问题模板对应的填充内容;
将所述填充内容填充至所述问题模板,得到第一问题;
获取所述第一问题对应的第一提示信息;
将所述第一提示信息输入预先训练得到的闭源问答模型,得到所述第一问题的第一答案;
利用输入信息和所述第一答案,对预先训练得到的开源问答模型的模型参数进行微调,得到目标问答模型,所述输入信息为所述第一问题或所述第一提示信息。
2.根据权利要求1所述的方法,其特征在于,所述获取所述第一问题对应的第一提示信息的步骤,包括:
将所述第一问题在第一预设知识库中进行检索,得到所述第一问题对应的第一已知信息;
将所述第一问题和所述第一已知信息填充至提示模板,得到所述第一问题对应的第一提示信息。
3.根据权利要求1所述的方法,其特征在于,所述获取所述第一问题对应的第一提示信息的步骤,包括:
获取所述第一问题对应的第一原始已知信息;
对所述第一原始已知信息进行清洗,得到第一已知信息;
将所述第一问题和所述第一已知信息填充至提示模板,得到所述第一问题对应的第一提示信息。
4.根据权利要求3所述的方法,其特征在于,所述第一原始已知信息包括表格信息;
所述对所述第一原始已知信息进行清洗,得到第一已知信息的步骤,包括:
将所述表格信息的表头信息作为每一行表项信息的注释信息,并在相邻两行表项信息之间增加预设符号,得到第一已知信息。
5.根据权利要求3所述的方法,其特征在于,所述第一原始已知信息包括图片信息;
所述对所述第一原始已知信息进行清洗,得到第一已知信息的步骤,包括:
去除所述图片信息,得到第一已知信息。
6.一种信息处理方法,其特征在于,所述方法包括:
获取第二问题;
获取所述第二问题对应的第二提示信息;
将所述第二提示信息输入目标问答模型,得到第二答案,所述目标问答模型为根据权利要求1-5任一项所述方法得到的模型。
7.根据权利要求6所述的方法,其特征在于,所述获取所述第二问题对应的第二提示信息的步骤,包括:
将所述第二问题在第二预设知识库中进行检索,得到所述第二问题对应的第二原始已知信息 ;
从所述第二原始已知信息中选择第二已知信息;
将所述第二问题和所述第二已知信息填充至提示模板,得到所述第二问题对应的第二提示信息。
8.一种模型训练的处理装置,其特征在于,所述装置包括:
第一获取模块,用于构造问题模板,并获取所述问题模板对应的填充内容;将所述填充内容填充至所述问题模板,得到第一问题;获取所述第一问题对应的第一提示信息;
第一得到模块,用于将所述第一提示信息输入预先训练得到的闭源问答模型,得到所述第一问题的第一答案;
微调模块,用于利用输入信息和所述第一答案,对预先训练得到的开源问答模型的模型参数进行微调,得到目标问答模型,所述输入信息为所述第一问题或所述第一提示信息。
9.一种信息处理装置,其特征在于,所述装置包括:
第二获取模块,用于获取第二问题;
第三获取模块,用于获取所述第二问题对应的第二提示信息;
第二得到模块,用于将所述第二提示信息输入目标问答模型,得到第二答案,所述目标问答模型为根据权利要求8所述装置得到的模型。
CN202311580839.2A 2023-11-24 2023-11-24 一种模型训练的处理、信息处理方法、装置、设备及介质 Pending CN117290490A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311580839.2A CN117290490A (zh) 2023-11-24 2023-11-24 一种模型训练的处理、信息处理方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311580839.2A CN117290490A (zh) 2023-11-24 2023-11-24 一种模型训练的处理、信息处理方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN117290490A true CN117290490A (zh) 2023-12-26

Family

ID=89248411

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311580839.2A Pending CN117290490A (zh) 2023-11-24 2023-11-24 一种模型训练的处理、信息处理方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN117290490A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160125751A1 (en) * 2014-11-05 2016-05-05 International Business Machines Corporation Answer management in a question-answering environment
CN116860922A (zh) * 2023-04-28 2023-10-10 广州新华学院 一种基于指令引导大语言模型的自纠正智能教学辅助方法
CN116881470A (zh) * 2023-07-07 2023-10-13 深圳智现未来工业软件有限公司 一种生成问答对的方法及装置
CN116932717A (zh) * 2023-07-13 2023-10-24 山东浪潮科学研究院有限公司 基于大语言模型自评估和自反馈的知识库检索方法和装置
CN117009490A (zh) * 2023-08-31 2023-11-07 之江实验室 基于知识库反馈的生成式大语言模型的训练方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160125751A1 (en) * 2014-11-05 2016-05-05 International Business Machines Corporation Answer management in a question-answering environment
CN116860922A (zh) * 2023-04-28 2023-10-10 广州新华学院 一种基于指令引导大语言模型的自纠正智能教学辅助方法
CN116881470A (zh) * 2023-07-07 2023-10-13 深圳智现未来工业软件有限公司 一种生成问答对的方法及装置
CN116932717A (zh) * 2023-07-13 2023-10-24 山东浪潮科学研究院有限公司 基于大语言模型自评估和自反馈的知识库检索方法和装置
CN117009490A (zh) * 2023-08-31 2023-11-07 之江实验室 基于知识库反馈的生成式大语言模型的训练方法和装置

Similar Documents

Publication Publication Date Title
US20240078386A1 (en) Methods and systems for language-agnostic machine learning in natural language processing using feature extraction
US11487986B2 (en) Providing a response in a session
US10503834B2 (en) Template generation for a conversational agent
US11544474B2 (en) Generation of text from structured data
US11729120B2 (en) Generating responses in automated chatting
US20190103111A1 (en) Natural Language Processing Systems and Methods
US20190243886A1 (en) Methods and systems for improving machine learning performance
US10832004B2 (en) Method, system, and computer program for artificial intelligence answer
US20190303768A1 (en) Community Question Answering-Based Article Recommendation Method, System, and User Device
US20140122407A1 (en) Chatbot system and method having auto-select input message with quality response
CN109635094B (zh) 用于生成答案的方法和装置
CN109543165B (zh) 基于循环卷积注意力模型的文本生成方法及装置
WO2022052484A1 (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN112287085B (zh) 语义匹配方法、系统、设备及存储介质
CN109978139B (zh) 图片自动生成描述的方法、系统、电子装置及存储介质
WO2019228137A1 (zh) 消息摘要的生成方法和装置、电子设备及存储介质
US11379527B2 (en) Sibling search queries
US20220058349A1 (en) Data processing method, device, and storage medium
CN110895656A (zh) 一种文本相似度计算方法、装置、电子设备及存储介质
CN117290490A (zh) 一种模型训练的处理、信息处理方法、装置、设备及介质
JP2016194684A (ja) キュレーション学習における課題指導
US11847416B2 (en) Systems and methods for converting an input content item based on contexts
CN112347196B (zh) 基于神经网络的实体关系抽取方法及装置
CN117891927A (zh) 基于大语言模型的问答方法、装置、电子设备及存储介质
CN118035413A (zh) 问答方法及装置、存储介质、计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination