CN117290483A - 答案确定方法、模型训练方法、装置及电子设备 - Google Patents
答案确定方法、模型训练方法、装置及电子设备 Download PDFInfo
- Publication number
- CN117290483A CN117290483A CN202311301437.4A CN202311301437A CN117290483A CN 117290483 A CN117290483 A CN 117290483A CN 202311301437 A CN202311301437 A CN 202311301437A CN 117290483 A CN117290483 A CN 117290483A
- Authority
- CN
- China
- Prior art keywords
- sample
- model
- paragraph
- training
- sample related
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 112
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000012545 processing Methods 0.000 claims abstract description 42
- 238000002372 labelling Methods 0.000 claims abstract description 34
- 238000004458 analytical method Methods 0.000 claims abstract description 10
- 239000013598 vector Substances 0.000 claims description 84
- 239000010410 layer Substances 0.000 claims description 61
- 238000003062 neural network model Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 15
- 238000010606 normalization Methods 0.000 claims description 14
- 230000011218 segmentation Effects 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 9
- 239000002356 single layer Substances 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 239000000243 solution Substances 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000002347 injection Methods 0.000 description 5
- 239000007924 injection Substances 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 239000002893 slag Substances 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004816 latex Substances 0.000 description 1
- 229920000126 latex Polymers 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本申请提供一种答案确定方法、模型训练方法、装置及电子设备,所述答案确定方法包括:获取问题;从知识库中确定所述问题对应的相关段落;将所述问题和所述相关段落输入阅读理解模型,通过所述阅读理解模型从所述相关段落中确定所述问题的答案;其中,所述阅读理解模型是以样本问题、样本相关段落和所述样本相关段落对应的标记结果作为模型训练样本训练得到的,所述标记结果通过根据PDCA循环对所述样本相关段落进行标记确定,所述标记结果包括:规划标签、执行标签、检查标签和处理标签。该答案确定方法对文本进行PDCA标注,从而高效、准确地根据用户输入的问题从文本中确定答案。
Description
技术领域
本申请涉及数据处理领域,具体而言,涉及一种答案确定方法、模型训练方法、装置及电子设备。
背景技术
随着大数据的日益增长和项目目标管理的日益复杂化,在项目目标管理过程中存在大量信息。当工作人员进行项目目标管理时,需要阅读各种长篇的项目资料,从庞大冗杂的项目资料中筛选出需要的信息,耗时耗力,不利于项目的推进和开展。
发明内容
本申请实施例的目的在于提供一种答案确定方法、模型训练方法、装置及电子设备,用以高效、准确地根据用户输入的问题从文本中确定答案。
第一方面,本申请提供一种答案确定方法,包括:获取问题;从知识库中确定所述问题对应的相关段落;将所述问题和所述相关段落输入阅读理解模型,通过所述阅读理解模型从所述相关段落中确定所述问题的答案;其中,所述阅读理解模型是以样本问题、样本相关段落和所述样本相关段落对应的标记结果作为模型训练样本训练得到的,所述标记结果通过根据PDCA循环对所述样本相关段落进行标记确定,所述标记结果包括:规划标签、执行标签、检查标签和处理标签。
在本申请实施例中,采用的阅读理解模型是以样本问题、样本相关段落和样本相关段落对应的标记结果作为模型训练样本训练得到的,标记结果通过根据PDCA循环对样本相关段落进行标记确定,将PDCA循环与阅读理解模型相结合,PDCA循环可以使得阅读理解模型能更好地学习到样本问题、样本相关段落和标记结果之间的关联关系,从而使得阅读理解模型能更高效、准确地根据用户输入的问题从文本中确定答案。
在可选的实施方式中,所述从知识库中确定所述问题对应的相关段落,包括:对所述问题进行编码处理,得到问题向量;将所述问题向量与所述知识库中的知识向量进行匹配,确定知识向量;其中,所述知识向量对应的文本段落为所述相关段落;相应地,所述将所述问题和所述相关段落输入经过训练的阅读理解模型,通过所述阅读理解模型从所述相关段落中确定所述问题的答案,包括:将所述问题向量和所述知识向量输入经过训练的阅读理解模型,通过所述阅读理解模型从所述知识向量中确定所述问题的答案。
在本申请实施例中,问题通常是自然语言文本,由于对自然语言文本进行匹配处理的效率较低,通过上述方式,将自然语言文本形式的问题编码转换为问题向量,提高从知识库中确定相关段落的效率。此外,由于阅读理解模型对自然语言文本进行处理的效率较低,将问题向量和知识向量作为阅读理解模型的输入,可以有效提高阅读理解模型的处理效率。
在可选的实施方式中,在所述从知识库中确定所述问题对应的相关段落之前,所述方法还包括:获取资料文档;对所述资料文档进行分段处理,确定多个段落;将所述多个段落进行编码处理,得到多个知识向量,并将所述多个知识向量保存在所述知识库中。
在本申请实施例中,在用户需要从资料文档中确定信息的情况下,将资料文档通过上述方式配置到知识库中,用户在提出与资料文档相关的问题时,可以从知识库中确定相似度较高的知识向量,以便后续阅读理解模型能根据相似度较高的知识向量生成更准确的答案。
在可选的实施方式中,通过以下步骤训练所述阅读理解模型:
获取用于训练所述阅读理解模型的第一样本相关段落和所述第一样本相关段落对应的第一标记结果;其中,所述第一标记结果通过根据PDCA循环对所述第一样本相关段落进行标记确定;将所述第一样本相关段落和所述第一标记结果输入问题生成模型,通过所述问题生成模型生成与所述第一样本相关段落对应的第一样本问题;根据所述第一样本问题、第一样本相关段落和所述第一标记结果对神经网络模型进行训练,得到所述阅读理解模型。
在本申请实施例中,由于训练阅读理解模型需要大量训练数据,第一样本相关段落和第一标记结果可以直接从样本文档中提取,然而第一样本问题通常需要人工根据第一样本相关段落和第一标记结果确定,从而导致准备训练阅读理解模型所需的训练数据时需要耗费大量人力物力。因此,通过训练问题生成模型,由问题生成模型根据输入的第一样本相关段落和第一标记结果,直接输出第一样本问题,提高获取用于训练阅读理解模型的训练数据的效率。
在可选的实施方式中,在所述获取用于模型训练的样本相关段落之前,所述方法还包括:获取用于训练问题生成模型的第二样本相关段落、所述第二样本相关段落对应的第二标记结果和所述第二样本相关段落对应的第二样本问题;其中,所述第二标记结果通过根据PDCA循环对所述第二样本相关段落进行标记确定;通过所述第二样本相关段落、所述第二标记结果和所述第二样本问题对神经网络模型进行训练,得到所述问题生成模型。
在可选的实施方式中,所述阅读理解模型依次包括残差连接层、归一化层、高斯误差线性单元激活函数、单层线性层、预测层和输出层。
在本申请实施例中,残差连接层设置在归一化层之前,可以使得信息在神经网络中更好地传递,减少出现梯度消失或爆炸的情况。采用高斯误差线性单元激活函数使得在训练深度神经网络时可以更容易地传播梯度,有助于加速模型的收敛速度,并提高阅读理解模型的表达能力和适应性。
第二方面,本申请提供一种模型训练方法,包括:获取用于训练阅读理解模型的第一样本相关段落和所述第一样本相关段落对应的第一标记结果;其中,所述第一标记结果通过根据PDCA循环对所述第一样本相关段落进行标记确定;将所述第一样本相关段落和所述第一标记结果输入问题生成模型,通过所述问题生成模型生成与所述第一样本相关段落对应的第一样本问题;根据所述第一样本问题、第一样本相关段落和所述第一标记结果对神经网络模型进行训练,得到所述阅读理解模型;其中,所述阅读理解模型用于根据输入的问题和相关段落从所述相关段落中确定所述问题的答案。
在可选的实施方式中,在所述获取用于模型训练的样本相关段落之前,所述方法还包括:获取用于训练问题生成模型的第二样本相关段落、所述第二样本相关段落对应的第二标记结果和所述第二样本相关段落对应的第二样本问题;其中,所述第二标记结果通过根据PDCA循环对所述第二样本相关段落进行标记确定;根据所述第二样本相关段落、所述第二标记结果和所述第二样本问题对神经网络模型进行训练,得到所述问题生成模型。
在可选的实施方式中,所述阅读理解模型依次包括残差连接层、归一化层、高斯误差线性单元激活函数、单层线性层、预测层和输出层。
第三方面,本申请提供一种答案确定装置,包括:问题获取模块,用于获取问题;相关段落确定模块,用于从知识库中确定所述问题对应的相关段落;答案确定模块,用于将所述问题和所述相关段落输入阅读理解模型,通过所述阅读理解模型从所述相关段落中确定所述问题的答案;其中,所述阅读理解模型是以样本问题、样本相关段落和所述样本相关段落对应的标记结果作为模型训练样本训练得到的,所述标记结果通过根据PDCA循环对所述样本相关段落进行标记确定,所述标记结果包括:规划标签、执行标签、检查标签和处理标签。
在可选的实施方式中,所述相关段落确定模块具体用于对所述问题进行编码处理,得到问题向量;将所述问题向量与所述知识库中的知识向量进行匹配,确定知识向量;其中,所述知识向量对应的文本段落为所述相关段落;相应地,所述答案确定模块具体用于将所述问题向量和所述知识向量输入经过训练的阅读理解模型,通过所述阅读理解模型从所述知识向量中确定所述问题的答案。
在可选的实施方式中,所述答案确定装置还包括知识库生成模块,用于获取资料文档;对所述资料文档进行分段处理,确定多个段落;将所述多个段落进行编码处理,得到多个知识向量,并将所述多个知识向量保存在所述知识库中。
在可选的实施方式中,所述答案确定装置还包括样本获取模块,用于获取用于训练所述阅读理解模型的第一样本相关段落和所述第一样本相关段落对应的第一标记结果;其中,所述第一标记结果通过根据PDCA循环对所述第一样本相关段落进行标记确定;问题生成模块,用于将所述第一样本相关段落和所述第一标记结果输入问题生成模型,通过所述问题生成模型生成与所述第一样本相关段落对应的第一样本问题;训练模块,用于根据所述第一样本问题、第一样本相关段落和所述第一标记结果对神经网络模型进行训练,得到所述阅读理解模型。
在可选的实施方式中,所述样本获取模块还用于获取用于训练问题生成模型的第二样本相关段落、所述第二样本相关段落对应的第二标记结果和所述第二样本相关段落对应的第二样本问题;其中,所述第二标记结果通过根据PDCA循环对所述第二样本相关段落进行标记确定;所述训练模块还用于根据所述第二样本相关段落、所述第二标记结果和所述第二样本问题对神经网络模型进行训练,得到所述问题生成模型。
在可选的实施方式中,所述阅读理解模型依次包括残差连接层、归一化层、高斯误差线性单元激活函数、单层线性层、预测层和输出层。
第四方面,本申请提供一种模型训练装置,包括:样本获取模块,用于获取用于训练阅读理解模型的第一样本相关段落和所述第一样本相关段落对应的第一标记结果;其中,所述第一标记结果通过根据PDCA循环对所述第一样本相关段落进行标记确定;问题生成模块,用于将所述第一样本相关段落和所述第一标记结果输入问题生成模型,通过所述问题生成模型生成与所述第一样本相关段落对应的第一样本问题;训练模块,用于根据所述第一样本问题、第一样本相关段落和所述第一标记结果对神经网络模型进行训练,得到所述阅读理解模型;其中,所述阅读理解模型用于根据输入的问题和相关段落从所述相关段落中确定所述问题的答案。
在可选的实施方式中,所述样本获取模块还用于获取用于训练问题生成模型的第二样本相关段落、所述第二样本相关段落对应的第二标记结果和所述第二样本相关段落对应的第二样本问题;其中,所述第二标记结果通过根据PDCA循环对所述第二样本相关段落进行标记确定;所述训练模块还用于根据所述第二样本相关段落、所述第二标记结果和所述第二样本问题对神经网络模型进行训练,得到所述问题生成模型。
第五方面,本申请提供一种电子设备,包括:处理器、存储器和总线;所述处理器和所述存储器通过所述总线完成相互间的通信;所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行上述的答案确定方法,或执行上述的模型训练方法。
第六方面,本申请提供一种存储介质,所述存储介质上存储有计算机程序指令,所述计算机程序指令被计算机读取并运行时,执行上述的答案确定方法,或执行上述的模型训练方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种答案确定方法的流程图;
图2为本申请实施例提供的一种阅读理解模型的结构示意图;
图3为本申请实施例提供的一种答案确定方法的实施过程图;
图4为本申请实施例提供的一种答案确定装置的结构框图;
图5为本申请实施例提供的一种模型训练装置的结构框图;
图6为本申请实施例的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
随着大数据的日益增长和项目目标管理的日益复杂化,在项目推进的每个阶段,项目执行层对项目的推进过程进行记录,生成大量项目相关资料文档。项目管理层对项目目标进行管理时,需要阅读大量项目相关资料文档,从庞大冗杂的项目资料文档中筛选出需要的信息,以了解项目当前的进度,这一过程耗时耗力,不利于项目的高效推进和开展。
基于此,本申请实施例提供一种答案确定方法、模型训练方法、装置及电子设备,对文本进行PDCA标注,从而高效、准确地根据用户输入的问题从文本中确定答案。
下面将针对本申请所提供的答案确定方法进行介绍。
请参阅图1,图1为本申请实施例提供的一种答案确定方法的流程图,该答案确定方法可以包括如下步骤:
S101:获取问题。
S102:从知识库中确定问题对应的相关段落。
S103:将问题和相关段落输入阅读理解模型,通过阅读理解模型从相关段落中确定问题的答案。
本申请实施例中,首先获取用户输入的问题,将问题与知识库中的段落进行相似度匹配,确定问题对应的相关段落。然后将问题和相关段落输入预先训练好的阅读理解模型,由阅读理解模型从相关段落中确定出问题的答案。
阅读理解模型是以样本问题、样本相关段落和样本相关段落对应的标记结果作为模型训练样本训练得到的,标记结果通过根据PDCA循环对样本相关段落进行标记确定,标记结果包括:规划标签、执行标签、检查标签和处理标签。阅读理解模型的功能为根据输入的问题和问题对应的相关段落,输出问题的答案。
为了便于对本方案的理解,在介绍S101之前,先介绍阅读理解模型的训练过程。
作为一种可选的实施方式,本申请提供的阅读理解模型可以通过以下步骤构建:
步骤A1:获取用于训练阅读理解模型的第一样本相关段落和第一样本相关段落对应的第一标记结果。
本申请实施例中,第一样本相关段落中包括PDCA信息。
获取第一样本相关段落的方式有多种。在一些实施例中,从外部服务器或其他存储介质中直接获取第一样本相关段落。
本申请实施例中,外部服务器或其他存储介质中预先存储有第一样本相关段落,在训练阅读理解模型时,直接从外部服务器或其他存储介质中获取第一样本相关段落。
在另一些实施例中,选择包含PDCA信息的文档作为样本文档,对样本文档进行预处理,得到第一样本相关段落。由于一个样本文档中可能存在多个PDCA信息,且阅读训练模型的输入字数存在限制,因此,对样本文档进行预处理,将样本文档分割为多个样本相关段落。
本实施例中,对样本文档进行预处理,得到多个样本相关段落的方式有多种。
可选的,通过文本分割器对样本文档进行分段处理。
文本分割器可以为:CharacterTextSplitter、LatexTextSplitter、MarkdownTextSplitter等。其中,CharacterTextSplitter按照指定的分隔符(默认“\n\n”)进行分割;LatexTextSplitter沿着Latex标题、标题、枚举等分割文本;MarkdownTextSplitter沿着Markdown的标题、代码块或水平规则来分割文本。本申请对文本分割器的类型不做具体限定。
可选的,根据样本文档的自然段落对样本文档进行分段处理。
通常不同的PDCA信息在样本文档的不同段落中,按照自然段落的形式将样本文档分割为多个第一样本相关段落,使得每个第一样本相关段落对应一个PDCA信息。
需要说明的是,本申请对分段处理的方式不做具体限定,上述对样本文档进行分段处理的方式仅为本申请实施例提供的示例,本申请实施例在进行分段处理时,可以采用任何能将样本文档分割为多个第一样本相关段落,且每个第一样本相关段落对应一个PDCA信息的分段处理方式。
第一标记结果为第一样本相关段落对应的标签。第一标记结果通过根据PDCA循环对第一样本相关段落进行标记确定。第一标记结果包括规划标签、执行标签、检查标签和处理标签。
PDCA循环的含义是将质量管理分为四个阶段,即Plan(规划)、Do(执行)、Check(检查)和Act(处理)。在本申请实施例中,根据PDCA循环对第一样本相关段落进行标记,每个第一样本相关段落对应一个第一标记结果。
具体地,对第一样本相关段落的内容进行分析,在第一样本相关段落对应PDCA循环的Plan(规划)阶段时,确定第一样本相关段落对应的第一标记结果为规划标签;在第一样本相关段落对应PDCA循环的Do(执行)阶段时,确定第一样本相关段落对应的第一标记结果为执行标签;在第一样本相关段落对应PDCA循环的Check(检查)阶段时,确定第一样本相关段落对应的第一标记结果为检查标签;在第一样本相关段落对应PDCA循环的Act(处理)阶段时,确定第一样本相关段落对应的第一标记结果为处理标签。
举例来说,某一个第一样本相关段落为:“会议要求,由工作人员A牵头,B局负责,采取企业先行垫付建设的方式,协调相关部门开展选址、立项、建设等事宜,全力推进C区新建渣场建设。D、E、F等相关部门要积极协助企业办理相关手续,争取项目早日完工投产。”根据PDCA循环可知,“采取企业先行垫付建设的方式,协调相关部门开展选址、立项、建设等事宜,全力推进C区新建渣场建设。”为Do(执行)阶段。因此,确定该第一样本相关段落对应的第一标记结果为执行标签。
获取第一样本相关段落对应的第一标记结果的方式有多种。
在一些实施例中,从外部服务器或其他存储介质中直接获取第一样本相关段落对应的第一标记结果。
本申请实施例中,与前述直接从外部服务器或其他存储介质中获取第一样本相关段落对应,外部服务器或其他存储介质中预先存储有第一样本相关段落对应的第一标记结果,直接从外部服务器或其他存储介质中获取第一样本相关段落对应的第一标记结果。
在另一些实施例中,人工对每个第一样本相关段落进行分析,确定第一样本相关段落对应的第一标记结果。
进一步地,第一样本相关段落和第一样本相关段落对应的第一标记结果可以采用JSON格式保存,数据分为两列:text和label;其中,text列代表第一样本相关段落,label列代表第一标记结果。
举例来说,第一样本相关段落和第一标记结果的数据格式如下:
{"text":"会议要求,由工作人员A牵头,B局负责,采取企业先行垫付建设的方式,协调相关部门开展选址、立项、建设等事宜,全力推进C区新建渣场建设。D、E、F等相关部门要积极协助企业办理相关手续,争取项目早日完工投产。","label":{"Do":{"采取企业先行垫付建设的方式,协调相关部门开展选址、立项、建设等事宜,全力推进C区新建渣场建设。"}}}
其中,Do代表执行标签。
步骤A2:将第一样本相关段落和第一标记结果输入问题生成模型,通过问题生成模型生成与第一样本相关段落对应的第一样本问题。
本申请实施例中,问题生成模型的输入为第一样本相关段落和第一标记结果,输出为第一样本问题。每个第一样本相关段落对应一个第一样本问题,第一样本问题的答案即为第一标记结果在第一样本相关段落中对应的内容。
以下对训练问题生成模型的方式进行介绍。
作为一种可选的实施方式,在步骤A2之前,本申请实施例提供的答案确定方法还包括:
获取用于训练问题生成模型的第二样本相关段落、第二样本相关段落对应的第二标记结果和第二样本相关段落对应的第二样本问题;其中,第二标记结果通过根据PDCA循环对第二样本相关段落进行标记确定;根据第二样本相关段落、第二标记结果和第二样本问题对神经网络模型进行训练,得到问题生成模型。
本申请实施例中,问题生成模型的功能为根据输入的第一样本相关段落和第一标记结果,输出第一样本问题。训练问题生成模型的训练数据为多个三元组信息。每个三元组信息包括:第二样本相关段落、第二标记结果和第二样本问题,三元组信息中第二样本相关段落和第二标记结果为训练样本,第二样本问题为训练标签。
需要说明的是,第一样本相关段落和第二样本相关段落为相同类型的段落,确定方式相同,区别在于第一样本相关段落用于训练阅读理解模型,第二样本相关段落用于训练问题生成模型。第一标记结果和第二标记结果的确定方式相同,区别在于第一标记结果用于训练阅读理解模型,第二标记结果用于训练问题生成模型。第一样本问题用于训练阅读理解模型,第二样本问题用于训练问题生成模型,第一样本问题通过问题生成模型确定,第二样本问题可以为预先通过对第二样本相关段落和第二标记结果分析确定的问题,第二样本问题的答案为第二标记结果在第二样本相关段落中对应的内容。
作为一种可选的实施方式,问题生成模型可以为预训练语言模型UNIMO-Text。训练该模型的训练数据格式如下:
{
"context":<context_text>,
"answer":<answer_text>,
"question":<question_text>,
}
其中<context_text>为第二样本相关段落,<answer_text>为第二标记结果,<question_text>为第二样本问题。
举例来说,训练预训练语言模型UNIMO-Text的训练数据如下所示:
{
"context":"项目的目标是地区生成总值增长率,具体举措是要统筹规划纲要、专项计划实施,对标高质量发展综合绩效评价和重点工作完成情况评价指标体系,坚持经济运行分析调度机制,推行目标任务落实",
"answer":执行标签,"统筹规划纲要、专项计划实施,对标高质量发展综合绩效评价和重点工作完成情况评价指标体系,坚持经济运行分析调度机制,推行目标任务落实制度",
"question":"为了提高地区生成总值增长率,具体有哪些办法?"
}
由于训练阅读理解模型需要大量训练数据,第一样本相关段落和第一标记结果可以直接从样本文档中提取,然而第一样本问题通常需要人工根据第一样本相关段落和第一标记结果确定,从而导致准备训练阅读理解模型所需的训练数据时需要耗费大量人力物力。因此,通过训练问题生成模型,由问题生成模型根据输入的第一样本相关段落和第一标记结果,直接输出第一样本问题,提高获取用于训练阅读理解模型的训练数据的效率。
进一步地,采用低参有监督训练方式训练问题生成模型。
本申请实施例中,在训练问题生成模型时,采用低参有监督训练方式进行模型训练,在不改变原模型(问题生成模型)结构的情况下,在旁边增加一个降维和升维操作来模拟训练真正能影响模型效果的那些参数,从而达到和全参数几乎一样的效果,训练时冻结原模型参数,只微调旁路模型参数,从而加快训练问题生成模型的效率、降低训练成本。
步骤A3:根据第一样本问题、第一样本相关段落和第一标记结果对神经网络模型进行训练,得到阅读理解模型。
本申请实施例中,将第一样本相关段落和第一标记结果输入问题生成模型,得到与第一样本相关段落对应的第一样本问题后,采用第一样本问题、第一样本相关段落和第一标记结果对神经网络模型进行训练,得到阅读理解模型。
阅读理解模型的功能为根据输入的问题和问题对应的相关段落,输出问题的答案。训练阅读理解模型的训练数据为多个三元组信息。每个三元组信息包括:第一样本相关段落、第一标记结果和第一样本问题,三元组信息中第一样本相关段落和第一样本问题为训练样本,第一标记结果为训练标签。
进一步地,请参阅图2,图2为本申请实施例提供的一种阅读理解模型的结构示意图。如图2所示,阅读理解模型依次包括残差连接层、归一化层、高斯误差线性单元激活函数、单层线性层、预测层和输出层。
本申请实施例中,阅读理解模型为一个Transformer解码器,Transformer解码器是一种多头注意力机制和前馈神经网络的组合,用于生成输出序列。输入序列(输入的问题和问题对应的相关段落)首先输入残差连接层(Residual Connection Layer),进行残差连接,然后输入归一化层(Normalization Layer)。归一化层用于在每一层的输入上进行归一化操作,以缓解训练过程中的内部协变量偏移问题,提高模型的稳定性和泛化能力。
输入序列先输入到残差连接层进行残差连接后再输入归一化层进行归一化操作,可以使得信息在神经网络中更好地传递,减少出现梯度消失或爆炸的情况。
经过归一化层处理后,采用高斯误差线性单元激活函数(GeLU Activation)引入非线性属性,GELU函数的导数是连续的,这使得在训练深度神经网络时可以更容易地传播梯度,从而使得GELU函数的输出落在一个更广的范围内,有助于加速模型的收敛速度,并提高阅读理解模型的表达能力和适应性。
经过高斯误差线性单元激活函数处理后,单层线性层(Single Linear Layer)为一个线性变化层,用于将输出向量映射到预测token。相较于采用全连接层预测输出token,采用单层线性层可以简化神经网络模型的结构。
预测层(Predicted Token Layer)用于根据输入序列生成的下一个token的预测值。
输出层(Output Layer)为用于最终生成输出结果,输出结果的形式可以根据实际需求进行调整,输出结果的形式可以为token序列,句子或是其他类型的信息,本申请实施例对输出结果的形式不做限定。
进一步地,本申请实施例提供的阅读理解模型还可以包括嵌入层,嵌入层设置在残差连接层之前,用于将输入的序列转化为向量。
本申请实施例中,在残差连接层之前设置一个嵌入层(Embedding Layer),将输入的token序列转换为连续的向量表示形式。需要说明的是,在输入的token序列为问题和相关段落。通过设置嵌入层,将输入的token序列转换为向量表示形式,可以帮助阅读理解模型更好地捕捉到token序列之间的语义关系,从而提高阅读理解模型输出的答案的准确度。
下面将结合示例对上述S101至S103进行详细说明。
S101:获取问题。
本申请实施例提供的答案确定方法可以应用于一个知识注入模型,知识注入模型提供一个交互界面,在实际应用过程中,当用户需要了解信息时,用户可以在交互界面中输入问题。
S102:从知识库中确定问题对应的相关段落。
知识注入模型中配置知识库,知识库中存储文档知识,获取用户输入的问题后,将知识库中的文档知识与问题进行相似度匹配。设置一个相似度阈值,若知识库中存在文档知识与问题的相似度大于阈值,选择相似度最高文档知识作为该问题对应的相关段落;若知识库中存在文档知识与问题的相似度小于阈值,则表示根据知识库中存储的文档知识无法确定问题的答案,不再执行后续步骤。
进一步地,作为一种可选的实施方式,若知识库中存在文档知识与问题的相似度小于阈值,输出预先配置的话术。
预先配置的话术用于提示用户当前知识库中的文档知识无法确定问题的答案,需要用户提供与问题相关的文档资料,才能确定问题的答案。
举例来说,预先配置的话术可以为:“根据您提供的信息暂不能提供该问题精准的答案,请提供更详细的相关信息。”
在一些实施例中,在知识库中预先配置有各种文档知识,获取问题后,将知识库中的文档知识与问题进行相似度匹配。
在另一些实施例中,在S102之前,本申请实施例提供的答案确定方法还包括:获取资料文档;对所述资料文档进行分段处理,确定多个段落;将所述多个段落进行编码处理,得到多个知识向量,并将多个知识向量保存在所述知识库中。
本申请实施例中,在用户需要从资料文档中确定信息的情况下,用户可以通过交互界面将资料文档输入知识注入模型。知识注入模型获取用户输入的资料文档后,对资料文档进行分段处理,确定多个段落。将各个段落进行编码处理,得到多个知识向量。通过上述方式,用户将资料文档配置到知识库中,用户在提出与资料文档相关的问题时,可以从知识库中确定相似度较高的知识向量,以便后续阅读理解模型能根据相似度较高的知识向量生成更准确的答案。
需要说明的是,对资料文档进行分段处理的方式与前述对样本文档进行分段处理的方式相同,为使说明书简洁,在此不做赘述。
S103:将问题和相关段落输入阅读理解模型,通过阅读理解模型从相关段落中确定问题的答案。
本申请实施例中,将问题与知识库匹配确定相关段落后,将问题和相关段落输入到阅读理解模型中,根据前述对阅读理解模型的说明可知,阅读理解模型输出问题的答案。
进一步地,作为一种可选的实施方式,S102可以包括以下内容:对问题进行编码处理,得到问题向量;将问题向量与知识库中的知识向量进行匹配,确定知识向量;其中,知识向量对应的文本段落为相关段落。
相应地,S103可以包括以下内容:将问题向量和知识向量输入经过训练的阅读理解模型,通过阅读理解模型从知识向量中确定问题的答案。
本申请实施例中,问题通常是自然语言文本,对问题进行编码处理,将自然语言文本形式的问题编码为问题向量,然后将问题向量与知识库中的知识向量进行匹配,确定知识向量。由于对自然语言文本进行匹配处理的效率较低,通过上述方式,将自然语言文本形式的问题编码转换为问题向量,提高从知识库中确定相关段落的效率。
此外,由于阅读理解模型对自然语言文本进行处理的效率较低,将问题向量和知识向量作为阅读理解模型的输入,可以有效提高阅读理解模型的处理效率。
在一些实施例中,可以通过Embeddings嵌入模型对问题进行编码处理,得到问题向量。知识库中的段落也可以采用Embeddings嵌入模型进行编码处理,得到知识向量。其中,Embeddings嵌入模型将输入的文本信息转化由一维的浮点数构成的数组,形成向量。
可以理解的是,若阅读理解模型中没有设置嵌入层,在确定问题和相关段落后,采用上述Embeddings嵌入模型将问题和相关段落分别转化为问题向量和知识向量。若阅读理解模型中有设置嵌入层,则可以直接问题和相关段落输入到阅读理解模型中,由阅读理解模型将问题和相关段落分别转化为问题向量和知识向量。
以下结合一个具体示例,对本申请实施例提供的答案确定方法进行介绍。
如图3所示,将资料文档输入到知识注入模型中,对资料文档进行分段处理,并将分段后的多个段落通过Embeddings嵌入模型进行编码处理,得到知识向量,存入知识库中。获取用户输入的问题,将问题通过Embeddings嵌入模型进行编码处理,得到问题向量。将问题向量与知识库中的知识向量进行匹配,当相似度小于阈值时,输出预制话术。当相似度大于阈值时,确定相似度最高的知识向量。然后将问题向量和知识向量输入阅读理解模型,由阅读理解模型输出答案。
本申请实施例还提供一种答案确定装置。请参阅图4,图4为本申请实施例提供的一种答案确定装置的结构框图,该答案确定装置400可以包括:
问题获取模块401,用于获取问题;
相关段落确定模块402,用于从知识库中确定所述问题对应的相关段落;
答案确定模块403,用于将所述问题和所述相关段落输入阅读理解模型,通过所述阅读理解模型从所述相关段落中确定所述问题的答案;
其中,所述阅读理解模型是以样本问题、样本相关段落和所述样本相关段落对应的标记结果作为模型训练样本训练得到的,所述标记结果通过根据PDCA循环对所述样本相关段落进行标记确定,所述标记结果包括:规划标签、执行标签、检查标签和处理标签。
在可选的实施方式中,所述相关段落确定模块402具体用于对所述问题进行编码处理,得到问题向量;将所述问题向量与所述知识库中的知识向量进行匹配,确定知识向量;其中,所述知识向量对应的文本段落为所述相关段落;
相应地,所述答案确定模块403具体用于将所述问题向量和所述知识向量输入经过训练的阅读理解模型,通过所述阅读理解模型从所述知识向量中确定所述问题的答案。
在可选的实施方式中,所述答案确定装置还包括知识库生成模块404,用于获取资料文档;对所述资料文档进行分段处理,确定多个段落;将所述多个段落进行编码处理,得到多个知识向量,并将所述多个知识向量保存在所述知识库中。
在可选的实施方式中,所述答案确定装置还包括样本获取模块405,用于获取用于训练所述阅读理解模型的第一样本相关段落和所述第一样本相关段落对应的第一标记结果;其中,所述第一标记结果通过根据PDCA循环对所述第一样本相关段落进行标记确定;
问题生成模块406,用于将所述第一样本相关段落和所述第一标记结果输入问题生成模型,通过所述问题生成模型生成与所述第一样本相关段落对应的第一样本问题;
训练模块407,用于根据所述第一样本问题、第一样本相关段落和所述第一标记结果对神经网络模型进行训练,得到所述阅读理解模型。
在可选的实施方式中,所述样本获取模块405还用于获取用于训练问题生成模型的第二样本相关段落、所述第二样本相关段落对应的第二标记结果和所述第二样本相关段落对应的第二样本问题;其中,所述第二标记结果通过根据PDCA循环对所述第二样本相关段落进行标记确定;
所述训练模块407还用于根据所述第二样本相关段落、所述第二标记结果和所述第二样本问题对神经网络模型进行训练,得到所述问题生成模型。
在可选的实施方式中,所述阅读理解模型依次包括残差连接层、归一化层、高斯误差线性单元激活函数、单层线性层、预测层和输出层。
请参阅图5,本申请实施例还提供一种模型训练装置。图5为本申请实施例提供的一种模型训练装置的结构框图,该模型训练装置500可以包括:
样本获取模块501,用于获取用于训练阅读理解模型的第一样本相关段落和所述第一样本相关段落对应的第一标记结果;其中,所述第一标记结果通过根据PDCA循环对所述第一样本相关段落进行标记确定;
问题生成模块502,用于将所述第一样本相关段落和所述第一标记结果输入问题生成模型,通过所述问题生成模型生成与所述第一样本相关段落对应的第一样本问题;
训练模块503,用于根据所述第一样本问题、第一样本相关段落和所述第一标记结果对神经网络模型进行训练,得到所述阅读理解模型;其中,所述阅读理解模型用于根据输入的问题和相关段落从所述相关段落中确定所述问题的答案。
在可选的实施方式中,所述样本获取模块501还用于获取用于训练问题生成模型的第二样本相关段落、所述第二样本相关段落对应的第二标记结果和所述第二样本相关段落对应的第二样本问题;其中,所述第二标记结果通过根据PDCA循环对所述第二样本相关段落进行标记确定;
所述训练模块503还用于根据所述第二样本相关段落、所述第二标记结果和所述第二样本问题对神经网络模型进行训练,得到所述问题生成模型。
请参阅图6,图6为本申请实施例的电子设备600的结构示意图,该电子设备600包括:至少一个处理器601,至少一个通信接口602,至少一个存储器603和至少一个总线604。其中,总线604用于实现这些组件直接的连接通信,通信接口602用于与其他节点设备进行信令或数据的通信,存储器603存储有处理器601可执行的机器可读指令。当电子设备600运行时,处理器601与存储器603之间通过总线604通信,机器可读指令被处理器601调用时执行如上述实施例中的答案确定方法、模型训练方法。
处理器601可以是一种集成电路芯片,具有信号处理能力。上述处理器601可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。其可以实现或者执行本申请实施例中公开的各种方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器603可以包括但不限于随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
可以理解,图6所示的结构仅为示意,电子设备600还可包括比图6中所示更多或者更少的组件,或者具有与图6所示不同的配置。图6中所示的各组件可以采用硬件、软件或其组合实现。于本申请实施例中,电子设备600可以是,但不限于台式机、笔记本电脑、智能手机、智能穿戴设备、车载设备等实体设备,还可以是虚拟机等虚拟设备。另外,电子设备600也不一定是单台设备,还可以是多台设备的组合,例如服务器集群,等等。
此外,本申请实施例还提供一种计算机存储介质,该计算机存储介质上存储有计算机程序,该计算机程序被计算机运行时,使得计算机执行如上述实施例中的答案确定方法、模型训练方法。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
再者,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
需要说明的是,功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (12)
1.一种答案确定方法,其特征在于,包括:
获取问题;
从知识库中确定所述问题对应的相关段落;
将所述问题和所述相关段落输入阅读理解模型,通过所述阅读理解模型从所述相关段落中确定所述问题的答案;
其中,所述阅读理解模型是以样本问题、样本相关段落和所述样本相关段落对应的标记结果作为模型训练样本训练得到的,所述标记结果通过根据PDCA循环对所述样本相关段落进行标记确定,所述标记结果包括:规划标签、执行标签、检查标签和处理标签。
2.根据权利要求1所述的答案确定方法,其特征在于,所述从知识库中确定所述问题对应的相关段落,包括:
对所述问题进行编码处理,得到问题向量;
将所述问题向量与所述知识库中的知识向量进行匹配,确定知识向量;其中,所述知识向量对应的文本段落为所述相关段落;
相应地,所述将所述问题和所述相关段落输入经过训练的阅读理解模型,通过所述阅读理解模型从所述相关段落中确定所述问题的答案,包括:
将所述问题向量和所述知识向量输入经过训练的阅读理解模型,通过所述阅读理解模型从所述知识向量中确定所述问题的答案。
3.根据权利要求1所述的答案确定方法,其特征在于,在所述从知识库中确定所述问题对应的相关段落之前,所述方法还包括:
获取资料文档;
对所述资料文档进行分段处理,确定多个段落;
将所述多个段落进行编码处理,得到多个知识向量,并将所述多个知识向量保存在所述知识库中。
4.根据权利要求1-3任一项所述的答案确定方法,其特征在于,通过以下步骤训练所述阅读理解模型:
获取用于训练所述阅读理解模型的第一样本相关段落和所述第一样本相关段落对应的第一标记结果;其中,所述第一标记结果通过根据PDCA循环对所述第一样本相关段落进行标记确定;
将所述第一样本相关段落和所述第一标记结果输入问题生成模型,通过所述问题生成模型生成与所述第一样本相关段落对应的第一样本问题;
根据所述第一样本问题、第一样本相关段落和所述第一标记结果对神经网络模型进行训练,得到所述阅读理解模型。
5.根据权利要求4所述的答案确定方法,其特征在于,在所述将所述第一样本相关段落和所述第一标记结果输入问题生成模型之前,所述方法还包括:
获取用于训练问题生成模型的第二样本相关段落、所述第二样本相关段落对应的第二标记结果和所述第二样本相关段落对应的第二样本问题;其中,所述第二标记结果通过根据PDCA循环对所述第二样本相关段落进行标记确定;
根据所述第二样本相关段落、所述第二标记结果和所述第二样本问题对神经网络模型进行训练,得到所述问题生成模型。
6.根据权利要求4所述的答案确定方法,其特征在于,所述阅读理解模型依次包括残差连接层、归一化层、高斯误差线性单元激活函数、单层线性层、预测层和输出层。
7.一种模型训练方法,其特征在于,包括:
获取用于训练阅读理解模型的第一样本相关段落和所述第一样本相关段落对应的第一标记结果;其中,所述第一标记结果通过根据PDCA循环对所述第一样本相关段落进行标记确定;
将所述第一样本相关段落和所述第一标记结果输入问题生成模型,通过所述问题生成模型生成与所述第一样本相关段落对应的第一样本问题;
根据所述第一样本问题、第一样本相关段落和所述第一标记结果对神经网络模型进行训练,得到所述阅读理解模型;其中,所述阅读理解模型用于根据输入的问题和相关段落从所述相关段落中确定所述问题的答案。
8.根据权利要求7所述的模型训练方法,其特征在于,在所述获取用于模型训练的样本相关段落之前,所述方法还包括:
获取用于训练问题生成模型的第二样本相关段落、所述第二样本相关段落对应的第二标记结果和所述第二样本相关段落对应的第二样本问题;其中,所述第二标记结果通过根据PDCA循环对所述第二样本相关段落进行标记确定;
根据所述第二样本相关段落、所述第二标记结果和所述第二样本问题对神经网络模型进行训练,得到所述问题生成模型。
9.一种答案确定装置,其特征在于,包括:
问题获取模块,用于获取问题;
相关段落确定模块,用于从知识库中确定所述问题对应的相关段落;
答案确定模块,用于将所述问题和所述相关段落输入阅读理解模型,通过所述阅读理解模型从所述相关段落中确定所述问题的答案;
其中,所述阅读理解模型是以样本问题、样本相关段落和所述样本相关段落对应的标记结果作为模型训练样本训练得到的,所述标记结果通过根据PDCA循环对所述样本相关段落进行标记确定,所述标记结果包括:规划标签、执行标签、检查标签和处理标签。
10.一种模型训练装置,其特征在于,包括:
样本获取模块,用于获取用于训练阅读理解模型的第一样本相关段落;
标记模块,用于根据PDCA循环对所述第一样本相关段落进行标记,确定第一标记结果;
问题生成模块,用于将所述第一样本相关段落和所述第一标记结果输入问题生成模型,通过所述问题生成模型生成与所述第一样本相关段落对应的第一样本问题;
训练模块,用于根据所述第一样本问题、第一样本相关段落和所述第一标记结果对神经网络模型进行训练,得到所述阅读理解模型;其中,所述阅读理解模型用于根据输入的问题和相关段落从所述相关段落中确定所述问题的答案。
11.一种电子设备,其特征在于,包括:处理器、存储器和总线;所述处理器和所述存储器通过所述总线完成相互间的通信;所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1-6任一项所述的方法,或执行如权利要求7或8所述的方法。
12.一种存储介质,其特征在于,所述存储介质上存储有计算机程序指令,所述计算机程序指令被计算机读取并运行时,执行如权利要求1-6任一项所述的方法,或执行如权利要求7或8所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311301437.4A CN117290483B (zh) | 2023-10-09 | 2023-10-09 | 答案确定方法、模型训练方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311301437.4A CN117290483B (zh) | 2023-10-09 | 2023-10-09 | 答案确定方法、模型训练方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117290483A true CN117290483A (zh) | 2023-12-26 |
CN117290483B CN117290483B (zh) | 2024-08-30 |
Family
ID=89238791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311301437.4A Active CN117290483B (zh) | 2023-10-09 | 2023-10-09 | 答案确定方法、模型训练方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117290483B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492086A (zh) * | 2018-11-26 | 2019-03-19 | 北京羽扇智信息科技有限公司 | 一种答案输出方法、装置、电子设备及存储介质 |
CN109857831A (zh) * | 2019-02-20 | 2019-06-07 | 云南电网有限责任公司信息中心 | 一种基于大数据技术的电力设备画像标签体系建设方法 |
WO2021068352A1 (zh) * | 2019-10-12 | 2021-04-15 | 平安科技(深圳)有限公司 | Faq问答对自动构建方法、装置、计算机设备及存储介质 |
WO2021082953A1 (zh) * | 2019-10-29 | 2021-05-06 | 平安科技(深圳)有限公司 | 机器阅读理解方法、设备、存储介质及装置 |
CN113204611A (zh) * | 2021-04-06 | 2021-08-03 | 北京百度网讯科技有限公司 | 建立阅读理解模型的方法、阅读理解方法及对应装置 |
CN113435213A (zh) * | 2021-07-09 | 2021-09-24 | 支付宝(杭州)信息技术有限公司 | 针对用户问题和知识库返回答案的方法和装置 |
CN113536801A (zh) * | 2020-04-16 | 2021-10-22 | 北京金山数字娱乐科技有限公司 | 阅读理解模型的训练方法及装置、阅读理解方法及装置 |
JP2022067234A (ja) * | 2020-10-20 | 2022-05-06 | 国立研究開発法人情報通信研究機構 | 回答特定用テキスト分類器及び背景知識表現ジェネレータ及びその訓練装置、並びにコンピュータプログラム |
CN115905459A (zh) * | 2022-03-07 | 2023-04-04 | 北京有限元科技有限公司 | 问题答案的预测方法、装置及存储介质 |
-
2023
- 2023-10-09 CN CN202311301437.4A patent/CN117290483B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492086A (zh) * | 2018-11-26 | 2019-03-19 | 北京羽扇智信息科技有限公司 | 一种答案输出方法、装置、电子设备及存储介质 |
CN109857831A (zh) * | 2019-02-20 | 2019-06-07 | 云南电网有限责任公司信息中心 | 一种基于大数据技术的电力设备画像标签体系建设方法 |
WO2021068352A1 (zh) * | 2019-10-12 | 2021-04-15 | 平安科技(深圳)有限公司 | Faq问答对自动构建方法、装置、计算机设备及存储介质 |
WO2021082953A1 (zh) * | 2019-10-29 | 2021-05-06 | 平安科技(深圳)有限公司 | 机器阅读理解方法、设备、存储介质及装置 |
CN113536801A (zh) * | 2020-04-16 | 2021-10-22 | 北京金山数字娱乐科技有限公司 | 阅读理解模型的训练方法及装置、阅读理解方法及装置 |
JP2022067234A (ja) * | 2020-10-20 | 2022-05-06 | 国立研究開発法人情報通信研究機構 | 回答特定用テキスト分類器及び背景知識表現ジェネレータ及びその訓練装置、並びにコンピュータプログラム |
CN113204611A (zh) * | 2021-04-06 | 2021-08-03 | 北京百度网讯科技有限公司 | 建立阅读理解模型的方法、阅读理解方法及对应装置 |
CN113435213A (zh) * | 2021-07-09 | 2021-09-24 | 支付宝(杭州)信息技术有限公司 | 针对用户问题和知识库返回答案的方法和装置 |
CN115905459A (zh) * | 2022-03-07 | 2023-04-04 | 北京有限元科技有限公司 | 问题答案的预测方法、装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
王霞 等: "基于段落内部推理和联合问题答案匹配的选择型阅读理解模型", 《四川大学学报(自然科学版)》, vol. 56, no. 03, 13 May 2019 (2019-05-13), pages 423 - 430 * |
Also Published As
Publication number | Publication date |
---|---|
CN117290483B (zh) | 2024-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110379409B (zh) | 语音合成方法、系统、终端设备和可读存储介质 | |
CN115828112B (zh) | 一种故障事件的响应方法、装置、电子设备及存储介质 | |
CN114648392B (zh) | 基于用户画像的产品推荐方法、装置、电子设备及介质 | |
CN114580424B (zh) | 一种用于法律文书的命名实体识别的标注方法和装置 | |
CN116415017B (zh) | 基于人工智能的广告敏感内容审核方法及系统 | |
CN113435499B (zh) | 标签分类方法、装置、电子设备和存储介质 | |
CN112712005B (zh) | 识别模型的训练方法、目标识别方法及终端设备 | |
CN113703773B (zh) | 一种基于nlp的二进制代码相似性比对方法 | |
CN111190946A (zh) | 报告生成方法、装置、计算机设备和存储介质 | |
CN113205814A (zh) | 语音数据标注方法、装置、电子设备及存储介质 | |
CN116453125A (zh) | 基于人工智能的数据录入方法、装置、设备及存储介质 | |
CN115510188A (zh) | 文本关键词关联方法、装置、设备及存储介质 | |
CN113570416B (zh) | 投放内容确定方法、装置、电子设备及存储介质 | |
CN117112829B (zh) | 医疗数据跨模态检索方法、装置和相关设备 | |
CN117932009A (zh) | 基于ChatGLM模型的保险客服对话生成方法、装置、设备及介质 | |
CN117275005A (zh) | 文本检测、文本检测模型优化、数据标注的方法、装置 | |
CN117290483B (zh) | 答案确定方法、模型训练方法、装置及电子设备 | |
CN111191238A (zh) | 一种webshell检测方法、终端设备及存储介质 | |
CN116166858A (zh) | 基于人工智能的信息推荐方法、装置、设备及存储介质 | |
CN115422884A (zh) | 一种标讯数据处理方法、系统、设备及存储介质 | |
CN114943306A (zh) | 意图分类方法、装置、设备及存储介质 | |
CN115129902A (zh) | 媒体数据处理方法、装置、设备及存储介质 | |
CN113569741A (zh) | 图像试题的答案生成方法、装置、电子设备及可读介质 | |
CN113706207A (zh) | 基于语义解析的订单成交率分析方法、装置、设备及介质 | |
CN113887724A (zh) | 一种基于深度学习的文本训练增强方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |