CN113987156B - 一种长文本生成方法、装置及电子设备 - Google Patents
一种长文本生成方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113987156B CN113987156B CN202111565703.5A CN202111565703A CN113987156B CN 113987156 B CN113987156 B CN 113987156B CN 202111565703 A CN202111565703 A CN 202111565703A CN 113987156 B CN113987156 B CN 113987156B
- Authority
- CN
- China
- Prior art keywords
- text
- sentence
- training
- question
- reply
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供了一种长文本生成方法、装置及电子设备,属于文本处理技术领域。该方法包括:对于用户提出的目标问题,可以检索与目标问题相关的专业文章,并确定文章中每个句子的文章内重要性参数、文章间重要性参数以及应出现在答复长文本的概率参数,然后可以根据上述参数,从文章的句子中,选出应出现在答复长文本的目标句子,进而将选出的目标句子输入训练后的第二模型,从而可以自动生成针对目标问题的答复长文本。该答复长文本是将针对目标问题搜索到的专业性句子进行合理化整合得到的,因而具有较强的专业性及逻辑性。本发明实施例中,无需人工生产答复长文本,提高了自动答复的效率,节约了人力和成本。
Description
技术领域
本发明涉及文本处理技术领域,特别是涉及一种长文本生成方法、装置及电子设备。
背景技术
自动问答系统可以根据用户的问题,自动找到答案反馈给用户,可以应用于诸多场景,例如自动客服替代人工解答客户疑问的场景,在语音助手回答百科知识等问题的场景等,自动问答系统能够提升用户查找知识的效率。
然而,目前的一些自动问答系统基本只能够回复短文本,最多是从文章中摘取一段文本回复。而在医学科普、儿童教育等领域的实际应用中,短文本所包含的信息量极其有限,实际场景往往需要根据用户提问,产生一篇数百字以上的、具有条理结构的解答文章。解答文章的内容不仅回答用户的问题,还需要补充相应的背景知识,以便用户理解解答文章的内容。实际应用中,这类解答文章仍需依赖领域专家人工进行生产,效率低,人力成本高。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的一种长文本生成方法、装置及电子设备。
根据本发明的第一方面,提供了一种长文本生成方法,所述方法包括:
获取目标问题文本;
从预设文章数据库中,检索所述目标问题文本的相关文本;所述相关文本中包括至少一个候选句子;
确定所述候选句子在所述相关文本中的文本内重要性参数;
从所述预设文章数据库中,确定所述相关文本的关联文本;
确定所述候选句子出现在所述关联文本中的文本间重要性参数;
将所述候选句子作为输入,通过训练后的第一模型,输出所述候选句子应出现在答复长文本的概率参数;
根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数和所述概率参数,从所有的所述候选句子中,选出应出现在答复长文本的目标句子;
将选出的所述目标句子作为输入,通过训练后的第二模型,输出针对所述目标问题文本的答复长文本。
可选地,所述根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数和所述概率参数,从所有的所述候选句子中,选出应出现在答复长文本的目标句子之前,还包括:
确定每个所述候选句子在所述相关文本中的出现位置;
确定每个所述候选句子在所述相关文本中与上下文的关系;
相应的,所述根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数和所述概率参数,从所有的所述候选句子中,选出应出现在答复长文本的目标句子,包括:
根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数、所述概率参数、所述出现位置和所述与上下文的关系,从所有的所述候选句子中,选出应出现在答复长文本的目标句子。
可选地,所述方法还包括:
获取用于训练所述第一模型的多个第一问题训练文本,以及所述第一问题训练文本对应的第一人工答复文本;所述第一人工答复文本中包括至少一个第二句子;
从所述预设文章数据库中,检索每个所述第一问题训练文本的第一相关训练文本;所述第一相关训练文本中包括至少一个第一句子;
对于针对同一所述第一问题训练文本的所述第一相关训练文本和所述第一人工答复文本,确定每个所述第一句子分别与每个所述第二句子之间的语义相似度;
根据所述语义相似度,确定与每个所述第二句子相似的第一句子;
将与每个所述第二句子相似的第一句子作为正例,将所述第一相关训练文本中的其余第一句子作为负例,获得第一训练集;
通过所述第一训练集,对所述第一模型进行训练,得到训练后的第一模型。
可选地,所述将与每个所述第二句子相似的第一句子作为正例,将所述第一相关训练文本中的其余第一句子作为负例,获得第一训练集,包括:
对每个所述第一句子分别进行特征提取,得到每个所述第一句子的特征向量;
将与每个所述第二句子相似的第一句子的特征向量作为正例的输入,将1作为所述正例的输出,将所述第一相关训练文本中的其余第一句子的特征向量作为负例的输入,将1作为所述负例的输出,获得第一训练集。
可选地,所述第一句子的特征向量包括所述第一句子的句子向量、句子长度、句子与对应的所述第一问题训练文本之间的相似度,以及句子在所在段落中的位置中的至少一种。
可选地,所述方法还包括:
获取用于训练所述第二模型的多个第二问题训练文本,以及所述第二问题训练文本对应的第二人工答复文本;
从所述预设文章数据库中,检索所述第二问题训练文本的第二相关训练文本;所述第二相关训练文本中包括至少一个第三句子;
确定所述第三句子在所述第二相关训练文本中的文本内重要性参数;
从所述预设文章数据库中,确定所述第二相关训练文本的关联训练文本;
确定所述第三句子出现在所述关联训练文本中的文本间关联性参数;
将所述第三句子作为输入,通过所述训练后的第一模型,输出所述第三句子应出现在答复长文本的概率参数;
根据每个所述第三句子对应的所述文本内重要性参数、所述文本间关联性参数和所述概率参数,从所有的所述第三句子中,选出应出现在答复长文本的参考句子;
对于每个所述第二问题训练文本,将针对所述第二问题训练文本所选出的所述参考句子作为输入,将所述第二问题训练文本对应的所述第二人工答复文本作为输出,获得第二训练集;
通过所述第二训练集,对所述第二模型进行训练,得到训练后的第二模型。
可选地,所述获取目标问题文本,包括:
展示问答页面;所述问答页面中包括问题输入框;
通过所述问题输入框,接收用户输入的目标问题文本;
相应的,所述将选出的所述目标句子作为输入,通过训练后的第二模型,输出针对所述目标问题文本的答复长文本之后,还包括:
在所述问答页面展示针对所述目标问题文本的答复长文本。
可选地,所述第一模型为分类器模型。
可选地,所述第二模型为指针网络模型。
根据本发明的第二方面,提供了一种长文本生成装置,所述装置包括:
第一获取模块,用于获取目标问题文本;
第一检索模块,用于从预设文章数据库中,检索所述目标问题文本的相关文本;所述相关文本中包括至少一个候选句子;
第一确定模块,用于确定所述候选句子在所述相关文本中的文本内重要性参数;
第二确定模块,用于从所述预设文章数据库中,确定所述相关文本的关联文本;
第三确定模块,用于确定所述候选句子出现在所述关联文本中的文本间重要性参数;
第一输出模块,用于将所述候选句子作为输入,通过训练后的第一模型,输出所述候选句子应出现在答复长文本的概率参数;
第一选出模块,用于根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数和所述概率参数,从所有的所述候选句子中,选出应出现在答复长文本的目标句子;
第二输出模块,用于将选出的所述目标句子作为输入,通过训练后的第二模型,输出针对所述目标问题文本的答复长文本。
可选地,所述装置还包括:
第四确定模块,用于确定每个所述候选句子在所述相关文本中的出现位置;
第五确定模块,用于确定每个所述候选句子在所述相关文本中与上下文的关系;
相应的,所述第一选出模块具体用于:
根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数、所述概率参数、所述出现位置和所述与上下文的关系,从所有的所述候选句子中,选出应出现在答复长文本的目标句子。
可选地,所述装置还包括:
第二获取模块,用于获取用于训练所述第一模型的多个第一问题训练文本,以及所述第一问题训练文本对应的第一人工答复文本;所述第一人工答复文本中包括至少一个第二句子;
第二检索模块,用于从所述预设文章数据库中,检索每个所述第一问题训练文本的第一相关训练文本;所述第一相关训练文本中包括至少一个第一句子;
第六确定模块,用于对于针对同一所述第一问题训练文本的所述第一相关训练文本和所述第一人工答复文本,确定每个所述第一句子分别与每个所述第二句子之间的语义相似度;
第七确定模块,用于对于同一所述第一问题训练文本,根据所述语义相似度,确定与每个所述第二句子相似的第一句子;
第一获得模块,用于将与每个所述第二句子相似的第一句子作为正例,将所述第一相关训练文本中的其余第一句子作为负例,获得第一训练集;
第一训练模块,用于通过所述第一训练集,对所述第一模型进行训练,得到训练后的第一模型。
可选地,所述第一获得模块具体用于:
对每个所述第一句子分别进行特征提取,得到每个所述第一句子的特征向量;
将与每个所述第二句子相似的第一句子的特征向量作为正例的输入,将1作为所述正例的输出,将所述第一相关训练文本中的其余第一句子的特征向量作为负例的输入,将1作为所述负例的输出,获得第一训练集。
可选地,所述第一句子的特征向量包括所述第一句子的句子向量、句子长度、句子与对应的所述第一问题训练文本之间的相似度,以及句子在所在段落中的位置中的至少一种。
可选地,所述装置还包括:
第三获取模块,用于获取用于训练所述第二模型的多个第二问题训练文本,以及所述第二问题训练文本对应的第二人工答复文本;
第三检索模块,用于从所述预设文章数据库中,检索每个所述第二问题训练文本的第二相关训练文本;所述第二相关训练文本中包括至少一个第三句子;
第八确定模块,用于确定所述第三句子在所述第二相关训练文本中的文本内重要性参数;
第九确定模块,用于从所述预设文章数据库中,确定所述第二相关训练文本的关联训练文本;
第十确定模块,用于确定所述第三句子出现在所述关联训练文本中的文本间关联性参数;
第三输出模块,用于将所述第三句子作为输入,通过所述训练后的第一模型,输出所述第三句子应出现在答复长文本的概率参数;
第二选出模块,用于根据每个所述第三句子对应的所述文本内重要性参数、所述文本间关联性参数和所述概率参数,从所有的所述第三句子中,选出应出现在答复长文本的参考句子;
第二获得模块,用于对于每个所述第二问题训练文本,将针对所述第二问题训练文本所选出的所述参考句子作为输入,将所述第二问题训练文本对应的所述第二人工答复文本作为输出,获得第二训练集;
第二训练模块,用于通过所述第二训练集,对所述第二模型进行训练,得到训练后的第二模型。
可选地,所述第一获取模块具体用于:
展示问答页面;所述问答页面中包括问题输入框;
通过所述问题输入框,接收用户输入的目标问题文本;
相应的,所述装置还包括:
展示模块,用于在所述问答页面展示针对所述目标问题文本的答复长文本。
可选地,所述第一模型为分类器模型。
可选地,所述第二模型为指针网络模型。
根据本发明的第三方面,提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,所述处理器、所述通信接口以及所述存储器通过所述通信总线完成相互间的通信;
所述存储器,用于存放计算机程序;
所述处理器,用于执行存储器上所存放的程序时,实现如上所述的长文本生成方法。
在本发明实施例中,对于用户提出的目标问题,可以检索与目标问题相关的专业文章,并确定文章中每个句子的文章内重要性参数、文章间重要性参数以及应出现在答复长文本的概率参数,然后可以根据上述参数,从文章的句子中,选出应出现在答复长文本的目标句子,进而将选出的目标句子输入训练后的第二模型,从而可以自动生成针对目标问题的答复长文本,该答复长文本是将针对目标问题搜索到的专业性句子进行合理化整合得到的,因而具有较强的专业性及逻辑性。本发明实施例中,无需人工生产答复长文本,提高了自动答复的效率,节约了人力和成本。
附图说明
图1是本发明实施例提供的一种训练第一模型的流程图;
图2是本发明实施例提供的一种长文本生成方法的流程图;
图3是本发明实施例提供的另一种长文本生成方法的流程图;
图4是本发明实施例提供的一种长文本生成装置的框图;
图5是本发明实施例提供的一种电子设备的框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
本实施例提供一种长文本生成方法,可以根据用户提问的问题,生成一篇长文本的答复内容,长文本的生成可通过第一模型和第二模型实现,相应的,该方法可以包括模型训练过程和模型使用过程,其中,模型训练过程具体包括对第一模型的训练和对第二模型的训练。
一、模型训练过程:
(1)参照图1,对第一模型的训练过程包括以下步骤:
S11、获取用于训练第一模型的多个第一问题训练文本,以及第一问题训练文本对应的第一人工答复文本;第一人工答复文本中包括至少一个第二句子。
首先,可以获取大量的用户问题及对应的人工答复,构建问题-人工答复文本库,用于训练第一模型的第一问题训练文本及其对应的第一人工答复文本,可以从问题-人工答复文本库中抽取得到,第一人工答复文本是由后台对第一问题训练文本进行人工回答得到的。
S12、从预设文章数据库中,检索每个第一问题训练文本的第一相关训练文本;第一相关训练文本中包括至少一个第一句子。
文章检索:其中,预设文章数据库例如可以是一个电子书籍库,里面可以包含大量的文章、书籍、文献等,可以根据第一问题训练文本,从预设文章数据库中检索内容相关的文章或章节。在实际应用中,可以通过关键字检索的方式进行检索,也可以附加相关性模型进行后排序,可以利用排序模型将检索出来的不相关的文本删掉,留下比较相关的文本。
S13、对于针对同一第一问题训练文本的第一相关训练文本和第一人工答复文本,确定每个第一句子分别与每个第二句子之间的语义相似度。
语义相似度计算:在本步骤中,可以对比较相关的文本进行具体句子的语义相似度计算。具体地,在针对同一第一问题训练文本的第一人工答复文本(下文称A文本)与步骤S12检索到的第一相关训练文本(下文称B文本)之间,计算每两句话的语义相似度。在实际应用中,可以通过词向量平均值cos夹角、句向量cos夹角等方法计算。
人工生产的第一人工答复文本中的一句话,可能是书本里面多句话的总结,因此,从检索到的文本中,找出的与人工回答的句子最接近的一个或多个句子,都是专业化表达,并非人工的口语化表达。
S14、根据语义相似度,确定与每个第二句子相似的第一句子。
多对多句子对齐:根据上一步计算的语义相似度,通过贪心算法从B文本中找到与A文本中句子语义相似度最高的句子,可以由B文本中一句或多句对应A文本中一句或多句。
S15、将与每个第二句子相似的第一句子作为正例,将第一相关训练文本中的其余第一句子作为负例,获得第一训练集。
句子特征化:其中,步骤S15具体可以通过以下步骤实现:对每个第一句子分别进行特征提取,得到每个第一句子的特征向量;将与每个第二句子相似的第一句子的特征向量作为正例的输入,将1作为正例的输出,将第一相关训练文本中的其余第一句子的特征向量作为负例的输入,将1作为负例的输出,获得第一训练集。
将B文本中能与A文本中句子对应的句子作为正例,B文本中的其余句子作为负例,构造训练数据,训练数据的输入是一个句子的特征向量,输出是0或1。
其中,第一句子的特征向量包括第一句子的句子向量、句子长度、句子与对应的第一问题训练文本之间的相似度,以及句子在所在段落中的位置(例如段首、段中、段尾,位置不同,重要程度可能不一样)中的至少一种。
S16、通过第一训练集,对第一模型进行训练,得到训练后的第一模型。
训练第一模型:可以利用步骤S15构造的第一训练集,对第一模型进行训练,其中,第一模型可为分类器模型,例如决策树模型、CNN(Convolutional Neural Networks,卷积神经网络)模型等,分类器模型的作用是给定一个检索到的句子(由特征向量表示),判断它是否应该出现在最终生成的答复长文本中(分类器模型的输出为一个0-1之间的实数)。对第一模型训练完成后,还可以对训练后的第一模型进行评估,本实施例在此不再进行赘述。至此,对第一模型的训练完成。
(2)对第二模型的训练过程包括以下步骤:
S21、获取用于训练第二模型的多个第二问题训练文本,以及第二问题训练文本对应的第二人工答复文本。
首先,用于训练第二模型的第二问题训练文本及其对应的第二人工答复文本,可以从构建的问题-人工答复文本库中抽取得到,第二人工答复文本是由后台对第二问题训练文本进行人工回答得到的。
S22、从预设文章数据库中,检索第二问题训练文本的第二相关训练文本;第二相关训练文本中包括至少一个第三句子。
在本步骤中,可以根据第二问题训练文本,从预设文章数据库中检索内容相关的文章或章节,具体检索方式可参考步骤S12。
S23、确定第三句子在第二相关训练文本中的文本内重要性参数。
对于步骤S22所检索的文本中的每个第三句子,判断其在本文中的重要性。具体实现可以通过第三句子中的词被其下文段落覆盖比例衡量,覆盖度高代表该第三句子是总结下文的句子,因此重要。进而可以给出该第三句子的一个文本内重要性参数,也即该第三句子在所在文本内的重要性打分。
S24、从预设文章数据库中,确定第二相关训练文本的关联训练文本。
在本步骤中,还需要从预设文章数据库中,确定与第二相关训练文本的内容有所关联的关联训练文本,也即与第二相关训练文本内容相关的文章。
S25、确定第三句子出现在关联训练文本中的文本间关联性参数。
对于步骤S22所检索的文本中的每个第三句子,判断其在其他相关文章中出现的比例。具体实现可以通过计算第三句子在其他相关文章中语义相似度高于某预设阈值的句子数量决定,与该第三句子语义相似的句子越多,代表该第三句子所表达的语义在不同文章中都有提到,因此重要。进而可以给出该第三句子的一个文本间关联性参数,也即该第三句子在相关文本中的重要性打分。
S26、将第三句子作为输入,通过训练后的第一模型,输出第三句子应出现在答复长文本的概率参数。
在本步骤中,可以将第三句子输入训练后的第一模型,进而训练后的第一模型可以输出一个0-1之间的数值,该数值可表示该第三句子应出现在最终的答复长文本的可能性。
S27、根据每个第三句子对应的文本内重要性参数、文本间关联性参数和概率参数,从所有的第三句子中,选出应出现在答复长文本的参考句子。
在本步骤中,可以对每个第三句子对应的文本内重要性参数(步骤S23得到的结果)、文本间关联性参数(步骤S25得到的结果)和概率参数(步骤S26得到的结果)进行加权求和,得到每个第三句子的得分,进而从所有的第三句子中,选出得分靠前或得分超过一定阈值的第三句子,作为应出现在答复长文本的参考句子。
S28、对于每个第二问题训练文本,将针对第二问题训练文本所选出的参考句子作为输入,将第二问题训练文本对应的第二人工答复文本作为输出,获得第二训练集。
在本步骤中,可以将针对第二问题训练文本所选出的参考句子作为输入,将第二问题训练文本对应的第二人工答复文本作为输出,构建训练数据,得到用于训练第二模型的第二训练集。
S29、通过第二训练集,对第二模型进行训练,得到训练后的第二模型。
可以利用步骤S28构造的第二训练集,对第二模型进行训练,其中,第二模型为决策模型,具体可以是指针网络模型(Pointer Networks),指针网络模型的输出可以适应输入序列的长度变化,依赖于注意力矩阵来从输入序列中挑选合适的内容作为输出,很适合将不同长度的句子重组为长文本的场景。对第二模型训练完成后,还可以对训练后的第二模型进行评估,本实施例在此不再进行赘述。至此,对第二模型的训练完成。
在上述模型训练的过程中,以专业的人工答复文本作为训练数据,可以提高模型所输出的长文本的专业性及逻辑性。
二、模型使用过程:
参照图2,示出了一种长文本生成方法的流程图,该方法具体可以包括如下步骤:
步骤301:获取目标问题文本。
在一种可选的实施方式中,可以通过下述方式获取目标问题文本,包括:展示问答页面;问答页面中包括问题输入框;通过问题输入框,接收用户输入的目标问题文本。
其中,可以在自动问答系统中展示问答页面,问答页面中可以展示问题输入框,用户可以将需要提问的问题输入问题输入框中。
步骤302:从预设文章数据库中,检索目标问题文本的相关文本;相关文本中包括至少一个候选句子。
参照图3,可以从预设文章数据库(例如电子书籍库)中,检索与目标问题文本内容相关的文本。
步骤303:确定候选句子在相关文本中的文本内重要性参数。
本步骤的具体实现方式可以参考步骤S23。
步骤304:从预设文章数据库中,确定相关文本的关联文本。
在本步骤中,还需要从预设文章数据库中,确定与相关文本的内容有所关联的关联文本,也即与相关文本内容相关的文章。
步骤305:确定候选句子出现在关联文本中的文本间重要性参数。
本步骤的具体实现方式可以参考步骤S25。
步骤306:将候选句子作为输入,通过训练后的第一模型,输出候选句子应出现在答复长文本的概率参数。
本步骤的具体实现方式可以参考步骤S26。
步骤307:根据每个候选句子对应的文本内重要性参数、文本间重要性参数和概率参数,从所有的候选句子中,选出应出现在答复长文本的目标句子。
在本步骤中,可以对每个候选句子对应的文本内重要性参数(步骤303得到的结果)、文本间关联性参数(步骤305得到的结果)和概率参数(步骤306得到的结果)进行加权求和,得到每个候选句子的得分,进而从所有的候选句子中,选出得分靠前或得分超过一定阈值的候选句子,作为应出现在答复长文本的目标句子。
进一步地,在本步骤之前,还可以包括以下步骤:确定每个候选句子在相关文本中的出现位置;确定每个候选句子在相关文本中与上下文的关系。
相应的,本步骤具体可以包括:
根据每个候选句子对应的文本内重要性参数、文本间重要性参数、所述概率参数、出现位置和所述与上下文的关系,从所有的候选句子中,选出应出现在答复长文本的目标句子。
其中,可以根据步骤303、305、306的得分(加权求和),及每个候选句子在其所在文章中的顺序及上下文关系,综合选择应该出现在最终答复长文本中的句子。具体实现既可以通过基于人工定义的规则所实现的代码(可以是函数、插件、模块等形式,不作限定)进行选择,也可以通过训练好的模型(例如少量标注数据,训练决策树等模型)进行选择。
步骤308:将选出的目标句子作为输入,通过训练后的第二模型,输出针对目标问题文本的答复长文本。
在本步骤中,可以选出的目标句子输入训练后的第二模型,进而训练后的第二模型可以输出针对目标问题文本的答复长文本。该答复长文本是将针对目标问题文本搜索到的专业性句子进行合理化整合得到的,因而具有较强的专业性及逻辑性。
可选地,在实际应用中,对于自动生成的答复长文本,还可以增加人工审核机制,尤其在较为专业的领域,以保证内容的正确性和专业性。相较于完全由人工生产答复长文本,仅通过人工审核自动生成的答复长文本,仍能够提高答复效率,且仍能节约大量的人力和成本。
进一步地,在步骤308之后,还可以包括以下步骤:在问答页面展示针对目标问题文本的答复长文本。
其中,针对目标问题文本的答复长文本生成之后,可以在用户提问的问答页面展示该答复长文本,以便用户快速进行查看。
在本发明实施例中,对于用户提出的目标问题,可以检索与目标问题相关的专业文章,并确定文章中每个句子的文章内重要性参数、文章间重要性参数以及应出现在答复长文本的概率参数,然后可以根据上述参数,从文章的句子中,选出应出现在答复长文本的目标句子,进而将选出的目标句子输入训练后的第二模型,从而可以自动生成针对目标问题的答复长文本,该答复长文本是将针对目标问题搜索到的专业性句子进行合理化整合得到的,因而具有较强的专业性及逻辑性。本发明实施例中,无需人工生产答复长文本,提高了自动答复的效率,节约了人力和成本。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
实施例二
参照图4,示出了一种长文本生成装置400的框图,该装置具体可以包括:
第一获取模块401,用于获取目标问题文本;
第一检索模块402,用于从预设文章数据库中,检索所述目标问题文本的相关文本;所述相关文本中包括至少一个候选句子;
第一确定模块403,用于确定所述候选句子在所述相关文本中的文本内重要性参数;
第二确定模块404,用于从所述预设文章数据库中,确定所述相关文本的关联文本;
第三确定模块405,用于确定所述候选句子出现在所述关联文本中的文本间重要性参数;
第一输出模块406,用于将所述候选句子作为输入,通过训练后的第一模型,输出所述候选句子应出现在答复长文本的概率参数;
第一选出模块407,用于根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数和所述概率参数,从所有的所述候选句子中,选出应出现在答复长文本的目标句子;
第二输出模块408,用于将选出的所述目标句子作为输入,通过训练后的第二模型,输出针对所述目标问题文本的答复长文本。
可选地,所述装置还包括:
第四确定模块,用于确定每个所述候选句子在所述相关文本中的出现位置;
第五确定模块,用于确定每个所述候选句子在所述相关文本中与上下文的关系;
相应的,所述第一选出模块具体用于:
根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数、所述概率参数、所述出现位置和所述与上下文的关系,从所有的所述候选句子中,选出应出现在答复长文本的目标句子。
可选地,所述装置还包括:
第二获取模块,用于获取用于训练所述第一模型的多个第一问题训练文本,以及所述第一问题训练文本对应的第一人工答复文本;所述第一人工答复文本中包括至少一个第二句子;
第二检索模块,用于从所述预设文章数据库中,检索每个所述第一问题训练文本的第一相关训练文本;所述第一相关训练文本中包括至少一个第一句子;
第六确定模块,用于对于针对同一所述第一问题训练文本的所述第一相关训练文本和所述第一人工答复文本,确定每个所述第一句子分别与每个所述第二句子之间的语义相似度;
第七确定模块,用于对于同一所述第一问题训练文本,根据所述语义相似度,确定与每个所述第二句子相似的第一句子;
第一获得模块,用于将与每个所述第二句子相似的第一句子作为正例,将所述第一相关训练文本中的其余第一句子作为负例,获得第一训练集;
第一训练模块,用于通过所述第一训练集,对所述第一模型进行训练,得到训练后的第一模型。
可选地,所述第一获得模块具体用于:
对每个所述第一句子分别进行特征提取,得到每个所述第一句子的特征向量;
将与每个所述第二句子相似的第一句子的特征向量作为正例的输入,将1作为所述正例的输出,将所述第一相关训练文本中的其余第一句子的特征向量作为负例的输入,将1作为所述负例的输出,获得第一训练集。
可选地,所述第一句子的特征向量包括所述第一句子的句子向量、句子长度、句子与对应的所述第一问题训练文本之间的相似度,以及句子在所在段落中的位置中的至少一种。
可选地,所述装置还包括:
第三获取模块,用于获取用于训练所述第二模型的多个第二问题训练文本,以及所述第二问题训练文本对应的第二人工答复文本;
第三检索模块,用于从所述预设文章数据库中,检索每个所述第二问题训练文本的第二相关训练文本;所述第二相关训练文本中包括至少一个第三句子;
第八确定模块,用于确定所述第三句子在所述第二相关训练文本中的文本内重要性参数;
第九确定模块,用于从所述预设文章数据库中,确定所述第二相关训练文本的关联训练文本;
第十确定模块,用于确定所述第三句子出现在所述关联训练文本中的文本间关联性参数;
第三输出模块,用于将所述第三句子作为输入,通过所述训练后的第一模型,输出所述第三句子应出现在答复长文本的概率参数;
第二选出模块,用于根据每个所述第三句子对应的所述文本内重要性参数、所述文本间关联性参数和所述概率参数,从所有的所述第三句子中,选出应出现在答复长文本的参考句子;
第二获得模块,用于对于每个所述第二问题训练文本,将针对所述第二问题训练文本所选出的所述参考句子作为输入,将所述第二问题训练文本对应的所述第二人工答复文本作为输出,获得第二训练集;
第二训练模块,用于通过所述第二训练集,对所述第二模型进行训练,得到训练后的第二模型。
可选地,所述第一获取模块具体用于:
展示问答页面;所述问答页面中包括问题输入框;
通过所述问题输入框,接收用户输入的目标问题文本;
相应的,所述装置还包括:
展示模块,用于在所述问答页面展示针对所述目标问题文本的答复长文本。
可选地,所述第一模型为分类器模型。
可选地,所述第二模型为指针网络模型。
在本发明实施例中,对于用户提出的目标问题,可以检索与目标问题相关的专业文章,并确定文章中每个句子的文章内重要性参数、文章间重要性参数以及应出现在答复长文本的概率参数,然后可以根据上述参数,从文章的句子中,选出应出现在答复长文本的目标句子,进而将选出的目标句子输入训练后的第二模型,从而可以自动生成针对目标问题的答复长文本,该答复长文本是将针对目标问题搜索到的专业性句子进行合理化整合得到的,因而具有较强的专业性及逻辑性。本发明实施例中,无需人工生产答复长文本,提高了自动答复的效率,节约了人力和成本。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
另外,本发明实施例还提供一种电子设备,如图5所示,包括处理器501、通信接口502、存储器503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信;
存储器503,用于存放计算机程序;
处理器501,用于执行存储器503上所存放的程序时,实现如上述实施例中所述的长文本生成方法。
上述终端提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述终端与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
在一个典型的配置中,计算机设备包括一个或多个处理器 (CPU)、输入/输出接口、网络接口和内存。内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM) 和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器 (DRAM)、其他类型的随机存取存储器 (RAM)、只读存储器(ROM)、电可擦除可编程只读存储器 (EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非持续性的电脑可读媒体(transitory media),如调制的数据信号和载波。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种长文本生成方法、装置及电子设备,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (11)
1.一种长文本生成方法,其特征在于,所述方法包括:
获取目标问题文本;
从预设文章数据库中,检索所述目标问题文本的相关文本;所述相关文本中包括至少一个候选句子;
确定所述候选句子在所述相关文本中的文本内重要性参数;
从所述预设文章数据库中,确定所述相关文本的关联文本;
确定所述候选句子出现在所述关联文本中的文本间重要性参数;
将所述候选句子作为输入,通过训练后的第一模型,输出所述候选句子应出现在答复长文本的概率参数;
根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数和所述概率参数,从所有的所述候选句子中,选出应出现在答复长文本的目标句子;
将选出的所述目标句子作为输入,通过训练后的第二模型,输出针对所述目标问题文本的答复长文本。
2.根据权利要求1所述的方法,其特征在于,所述根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数和所述概率参数,从所有的所述候选句子中,选出应出现在答复长文本的目标句子之前,还包括:
确定每个所述候选句子在所述相关文本中的出现位置;
确定每个所述候选句子在所述相关文本中与上下文的关系;
相应的,所述根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数和所述概率参数,从所有的所述候选句子中,选出应出现在答复长文本的目标句子,包括:
根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数、所述概率参数、所述出现位置和所述与上下文的关系,从所有的所述候选句子中,选出应出现在答复长文本的目标句子。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取用于训练所述第一模型的多个第一问题训练文本,以及所述第一问题训练文本对应的第一人工答复文本;所述第一人工答复文本中包括至少一个第二句子;
从所述预设文章数据库中,检索每个所述第一问题训练文本的第一相关训练文本;所述第一相关训练文本中包括至少一个第一句子;
对于针对同一所述第一问题训练文本的所述第一相关训练文本和所述第一人工答复文本,确定每个所述第一句子分别与每个所述第二句子之间的语义相似度;
根据所述语义相似度,确定与每个所述第二句子相似的第一句子;
将与每个所述第二句子相似的第一句子作为正例,将所述第一相关训练文本中的其余第一句子作为负例,获得第一训练集;
通过所述第一训练集,对所述第一模型进行训练,得到训练后的第一模型。
4.根据权利要求3所述的方法,其特征在于,所述将与每个所述第二句子相似的第一句子作为正例,将所述第一相关训练文本中的其余第一句子作为负例,获得第一训练集,包括:
对每个所述第一句子分别进行特征提取,得到每个所述第一句子的特征向量;
将与每个所述第二句子相似的第一句子的特征向量作为正例的输入,将1作为所述正例的输出,将所述第一相关训练文本中的其余第一句子的特征向量作为负例的输入,将1作为所述负例的输出,获得第一训练集。
5.根据权利要求4所述的方法,其特征在于,所述第一句子的特征向量包括所述第一句子的句子向量、句子长度、句子与对应的所述第一问题训练文本之间的相似度,以及句子在所在段落中的位置中的至少一种。
6.根据权利要求3所述的方法,其特征在于,所述方法还包括:
获取用于训练所述第二模型的多个第二问题训练文本,以及所述第二问题训练文本对应的第二人工答复文本;
从所述预设文章数据库中,检索所述第二问题训练文本的第二相关训练文本;所述第二相关训练文本中包括至少一个第三句子;
确定所述第三句子在所述第二相关训练文本中的文本内重要性参数;
从所述预设文章数据库中,确定所述第二相关训练文本的关联训练文本;
确定所述第三句子出现在所述关联训练文本中的文本间关联性参数;
将所述第三句子作为输入,通过所述训练后的第一模型,输出所述第三句子应出现在答复长文本的概率参数;
根据每个所述第三句子对应的所述文本内重要性参数、所述文本间关联性参数和所述概率参数,从所有的所述第三句子中,选出应出现在答复长文本的参考句子;
对于每个所述第二问题训练文本,将针对所述第二问题训练文本所选出的所述参考句子作为输入,将所述第二问题训练文本对应的所述第二人工答复文本作为输出,获得第二训练集;
通过所述第二训练集,对所述第二模型进行训练,得到训练后的第二模型。
7.根据权利要求1所述的方法,其特征在于,所述获取目标问题文本,包括:
展示问答页面;所述问答页面中包括问题输入框;
通过所述问题输入框,接收用户输入的目标问题文本;
相应的,所述将选出的所述目标句子作为输入,通过训练后的第二模型,输出针对所述目标问题文本的答复长文本之后,还包括:
在所述问答页面展示针对所述目标问题文本的答复长文本。
8.根据权利要求1所述的方法,其特征在于,所述第一模型为分类器模型。
9.根据权利要求1所述的方法,其特征在于,所述第二模型为指针网络模型。
10.一种长文本生成装置,其特征在于,所述装置包括:
第一获取模块,用于获取目标问题文本;
第一检索模块,用于从预设文章数据库中,检索所述目标问题文本的相关文本;所述相关文本中包括至少一个候选句子;
第一确定模块,用于确定所述候选句子在所述相关文本中的文本内重要性参数;
第二确定模块,用于从所述预设文章数据库中,确定所述相关文本的关联文本;
第三确定模块,用于确定所述候选句子出现在所述关联文本中的文本间重要性参数;
第一输出模块,用于将所述候选句子作为输入,通过训练后的第一模型,输出所述候选句子应出现在答复长文本的概率参数;
第一选出模块,用于根据每个所述候选句子对应的所述文本内重要性参数、所述文本间重要性参数和所述概率参数,从所有的所述候选句子中,选出应出现在答复长文本的目标句子;
第二输出模块,用于将选出的所述目标句子作为输入,通过训练后的第二模型,输出针对所述目标问题文本的答复长文本。
11.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,所述处理器、所述通信接口以及所述存储器通过所述通信总线完成相互间的通信;
所述存储器,用于存放计算机程序;
所述处理器,用于执行存储器上所存放的程序时,实现如权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111565703.5A CN113987156B (zh) | 2021-12-21 | 2021-12-21 | 一种长文本生成方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111565703.5A CN113987156B (zh) | 2021-12-21 | 2021-12-21 | 一种长文本生成方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113987156A CN113987156A (zh) | 2022-01-28 |
CN113987156B true CN113987156B (zh) | 2022-03-22 |
Family
ID=79734042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111565703.5A Active CN113987156B (zh) | 2021-12-21 | 2021-12-21 | 一种长文本生成方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113987156B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110062A (zh) * | 2019-04-30 | 2019-08-09 | 贝壳技术有限公司 | 机器智能问答方法、装置与电子设备 |
CN111259127A (zh) * | 2020-01-15 | 2020-06-09 | 浙江大学 | 一种基于迁移学习句向量的长文本答案选择方法 |
CN111476038A (zh) * | 2020-05-06 | 2020-07-31 | 中国人民解放军国防科技大学 | 长文本生成方法、装置、计算机设备和存储介质 |
US10769374B1 (en) * | 2019-04-24 | 2020-09-08 | Honghui CHEN | Answer selection method for question answering system and the system |
CN112948546A (zh) * | 2021-01-15 | 2021-06-11 | 中国科学院空天信息创新研究院 | 面向多源异构数据源的智能问答方法及装置 |
CN113033180A (zh) * | 2021-03-02 | 2021-06-25 | 中央民族大学 | 一种面向小学藏语文阅读问题自动生成的服务系统 |
-
2021
- 2021-12-21 CN CN202111565703.5A patent/CN113987156B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10769374B1 (en) * | 2019-04-24 | 2020-09-08 | Honghui CHEN | Answer selection method for question answering system and the system |
CN110110062A (zh) * | 2019-04-30 | 2019-08-09 | 贝壳技术有限公司 | 机器智能问答方法、装置与电子设备 |
CN111259127A (zh) * | 2020-01-15 | 2020-06-09 | 浙江大学 | 一种基于迁移学习句向量的长文本答案选择方法 |
CN111476038A (zh) * | 2020-05-06 | 2020-07-31 | 中国人民解放军国防科技大学 | 长文本生成方法、装置、计算机设备和存储介质 |
CN112948546A (zh) * | 2021-01-15 | 2021-06-11 | 中国科学院空天信息创新研究院 | 面向多源异构数据源的智能问答方法及装置 |
CN113033180A (zh) * | 2021-03-02 | 2021-06-25 | 中央民族大学 | 一种面向小学藏语文阅读问题自动生成的服务系统 |
Non-Patent Citations (2)
Title |
---|
基于文本蕴含的选择类问题解答技术研究;王宝鑫 等;《北京大学学报(自然科学版)》;20160131;第52卷(第01期);134-140 * |
开放性问题的答案评估方法;俞奕斐;《中国优秀博硕士学位论文全文数据库(硕士)-信息科技辑》;20210115;1-66 * |
Also Published As
Publication number | Publication date |
---|---|
CN113987156A (zh) | 2022-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105989040B (zh) | 智能问答的方法、装置及系统 | |
US20200356729A1 (en) | Generation of text from structured data | |
CN106126524B (zh) | 信息推送方法和装置 | |
US11461613B2 (en) | Method and apparatus for multi-document question answering | |
CN110737756B (zh) | 确定针对用户输入数据的应答的方法、装置、设备和介质 | |
CN108763535A (zh) | 信息获取方法及装置 | |
CN110019669B (zh) | 一种文本检索方法及装置 | |
US20200364216A1 (en) | Method, apparatus and storage medium for updating model parameter | |
CN113342958B (zh) | 问答匹配方法、文本匹配模型的训练方法和相关设备 | |
CN113297410A (zh) | 一种图像检索方法、装置、计算机设备及存储介质 | |
CN110852071A (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN117077679B (zh) | 命名实体识别方法和装置 | |
CN116932730B (zh) | 基于多叉树和大规模语言模型的文档问答方法及相关设备 | |
CN117648418A (zh) | 多文档问答方法、装置、电子设备及存储介质 | |
JP6942759B2 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
CN113987156B (zh) | 一种长文本生成方法、装置及电子设备 | |
CN114691907B (zh) | 一种跨模态检索的方法、设备及介质 | |
CN116028626A (zh) | 文本匹配方法、装置、存储介质以及电子设备 | |
CN115836288A (zh) | 用于生成训练数据的方法以及装置 | |
CN110362735B (zh) | 判断陈述真实性的方法和装置、电子设备、可读介质 | |
CN113836296A (zh) | 一种佛学问答摘要的生成方法、装置、设备及存储介质 | |
CN111858895A (zh) | 排序模型确定方法、排序方法、装置及电子设备 | |
CN111522903A (zh) | 一种深度哈希检索方法、设备及介质 | |
CN117951274A (zh) | 一种基于融合向量和关键词检索的rag知识问答方法和装置 | |
CN112364146A (zh) | 查询文档排序方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |