CN113505219A - 文本处理方法、装置、电子设备及计算机可读存储介质 - Google Patents

文本处理方法、装置、电子设备及计算机可读存储介质 Download PDF

Info

Publication number
CN113505219A
CN113505219A CN202110663549.9A CN202110663549A CN113505219A CN 113505219 A CN113505219 A CN 113505219A CN 202110663549 A CN202110663549 A CN 202110663549A CN 113505219 A CN113505219 A CN 113505219A
Authority
CN
China
Prior art keywords
text
predefined
sample
question
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110663549.9A
Other languages
English (en)
Inventor
刘操
马兵
杨帆
蔡勋梁
万广鲁
陈见耸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202110663549.9A priority Critical patent/CN113505219A/zh
Publication of CN113505219A publication Critical patent/CN113505219A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例提出的文本处理方法、装置、电子设备及计算机可读存储介质,可以得到覆盖所有关键信息的摘要文本。所述方法包括:获得待处理文本和所述待处理文本所处领域的多个预定义问题;将所述待处理文本和所述多个预定义问题一对一组合而成的文本‑问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本;基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本;其中,所述文本处理模型是以携带标签的样本文本、针对所述样本文本的预定义样本问题为训练样本,对预设模型进行训练得到的,所述标签表征所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置。

Description

文本处理方法、装置、电子设备及计算机可读存储介质
技术领域
本申请实施例涉及信息处理领域,特别是涉及一种文本处理方法、装置、电子设备及计算机可读存储介质。
背景技术
在当前的会话系统(例如客服系统、会议系统等)中,每天都会产生大量的会话记录,对这些会话记录进行处理,将其转换成文字记录,并对会话内容进行分析以得到摘要内容,对数据存储以及数据分析都具有重大意义。
以客服系统为例,在客服系统中会产生大量的客服和用户之间的沟通记录,其中涉及到的关键点信息主要包括:用户的主要问题和客服给出的解决方案,对这两种关键点信息进行分析与收集可以提高客服系统的整体服务效率,还可以为智能问答系统提供数据支持。
然而,如何提取会话文本中的关键点内容以形成摘要是一个亟待解决的问题。
申请内容
本申请提供一种文本处理方法、装置、电子设备及计算机可读存储介质,能够通过预先设定预定义问题和预先训练的文本处理模型提取到当前会话系统所关注的所有关键点信息,将这些关键点信息进行组合可以得到覆盖所有关键信息的摘要文本。
为了解决上述问题,第一方面,本申请实施例提供了一种文本处理方法,所述方法包括:
获得待处理文本和所述待处理文本所处领域的多个预定义问题;
将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本;
基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本;
其中,所述文本处理模型是以携带标签的样本文本、针对所述样本文本的预定义样本问题为训练样本,对预设模型进行训练得到的,所述标签表征所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置。
可选地,所述获得待处理文本所处领域的多个预定义问题,包括:
对属于所述待处理文本的领域的多个文本进行分析,确定所述领域的多个关键信息;
基于所述多个关键信息,构建针对所述多个预定义问题。
可选的,将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本,包括:
将所述待处理文本包括的多个语句分别转换为对应的句向量,并将所述多个预定义问题分别转换为对应的句向量;
针对所述多个预定义问题中的每个预定义问题,将所述多个语句对应的句向量与该预定义问题对应的句向量一对一组合而形成的句向量组合,输入预先训练的第一文本处理模型,以从所述多个语句中确定包含该预定义问题的答案文本的语句;
其中,所述第一文本处理模型是按照以下步骤训练得到的:
根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,对样本文本包括的多个样本语句分别打第一标签,所述第一标签表征一个样本语句是否包含所述预定义样本问题的答案文本;
将多个携带第一标签的样本语句分别转换为对应的句向量,并将针对所述样本文本的预定义样本问题转换为对应的句向量;
将所述多个携带第一标签的样本语句对应的句向量与所述预定义样本问题对应的句向量一对一组合,得到多个句向量组合;
以所述多个句向量组合为训练样本,对第一预设模型进行训练,得到所述第一文本处理模型。
可选地,将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本,包括:
将与所述待处理文本包括的多个语句分别转换为对应的向量表示,并将所述多个预定义问题分别转换为对应的向量表示;
针对所述多个预定义问题中的每个预定义问题,执行以下步骤:
将所述多个语句对应的向量表示与该预定义问题对应的向量表示一对一组合而形成的向量表示组合,输入预先训练的第二文本处理模型,以确定所述多个语句对应的起始概率和终止概率,其中,一个语句对应的起始概率表征该语句的起始位置是该预定义问题的答案文本在所述待处理文本中的起始位置的概率,一个语句对应的终止概率表征该语句的终止位置是该预定义问题的答案文本在所述待处理文本中的终止位置的概率;
根据所述多个语句对应的起始概率和终止概率,从所述多个语句中确定包含该预定义问题的答案文本的语句;
其中,所述第二文本处理模型是按照以下步骤训练得到的:
根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,以及多个样本语句各自在所述样本文本中的位置,对样本文本包括的多个样本语句分别打第二标签,所述第二标签表征一个样本语句的起始位置是否是所述预定义样本问题的答案文本的起始位置,以及,该样本语句的终止位置是否是所述预定义样本问题的答案文本的终止位置;
将多个携带第二标签的样本语句对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,得到多个携带第二标签的向量表示组合;
以所述多个携带第二标签的向量表示组合为训练样本,对第二预设模型进行训练,得到所述第二文本处理模型。
可选地,将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本,包括:
将与所述待处理文本包括的多个语句分别转换为对应的向量表示,并将所述多个预定义问题分别转换为对应的向量表示;
针对所述多个预定义问题中的每个预定义问题,执行以下步骤:
将所述多个语句对应的向量表示与该预定义问题对应的向量表示一对一组合而形成的向量表示组合,输入预先训练的第三文本处理模型,以确定所述待处理文本包括的每个词语对应的起始概率和终止概率,其中,一个词语对应的起始概率表征该词语是该预定义问题的答案文本在所述待处理文本中的起始位置的概率,一个词语对应的终止概率表征该词语是该预定义问题的答案文本在所述待处理文本中的终止位置的概率;
根据所述待处理文本包括的每个词语对应的起始概率和终止概率,从所述待处理文本中提取该预定义问题的答案文本;
其中,所述第三文本处理模型是按照以下步骤训练得到的:
根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,以及所述样本文本包括的多个样本词语各自在所述样本文本中的位置,对所述多个样本词语分别打第三标签,所述第三标签表征一个样本词语是否是所述预定义样本问题的答案文本的起始位置或终止位置;
将多个携带第三标签的样本词语对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,得到多个携带第三标签的向量表示组合;
以所述多个携带第三标签的向量表示组合为训练样本,对第三预设模型进行训练,得到所述第三文本处理模型。
可选地,根据所述待处理文本包括的每个词语对应的起始概率和终止概率,从所述待处理文本中提取该预定义问题的答案文本,包括:
针对所述待处理文本包括的每个词语与位于该词语之后的其他词语组合,形成词语对;
根据多个词语对中在前词语对应的起始概率和在后词语对应的终止概率,确定总概率;
根据总概率大于第一预设阈值的词语对所对应的文本片段,确定该预定义问题的答案文本。
可选地,根据总概率大于第一预设阈值的词语对所对应的文本片段,确定该预定义问题的答案文本,包括:
将总概率大于第一预设阈值的词语对所对应的文本片段输入预先训练的语言模型,确定所述文本片段构成完整的语句或短语的概率;
将构成完整的语句或短语的概率大于第二预设阈值的文本片段,确定为该预定义问题的答案文本。
第二方面,本申请实施例提供了一种文本处理装置,所述装置包括:
问题获得模块,用于获得待处理文本和所述待处理文本所处领域的多个预定义问题;
答案提取模块,用于将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本;
拼接模块,用于基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本;
其中,所述文本处理模型是以携带标签的样本文本、针对所述样本文本的预定义样本问题为训练样本,对预设模型进行训练得到的,所述标签表征所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置。
可选地,所述问题获得模块,包括:
文本分析子模块,用于对属于所述待处理文本的领域的多个文本进行分析,确定所述领域的多个关键信息;
构建子模块,用于基于所述多个关键信息,构建针对所述多个预定义问题。
可选地,所述答案提取模块包括:
第一向量转换子模块,用于将所述待处理文本包括的多个语句分别转换为对应的句向量,并将所述多个预定义问题分别转换为对应的句向量;
第一答案文本确定子模块,用于针对所述多个预定义问题中的每个预定义问题,将所述多个语句对应的句向量与该预定义问题对应的句向量一对一组合而形成的句向量组合,输入预先训练的第一文本处理模型,以从所述多个语句中确定包含该预定义问题的答案文本的语句;
其中,所述第一文本处理模型是利用第一训练装置训练得到的,所述第一训练装置包括:
第一打标签模块,用于根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,对样本文本包括的多个样本语句分别打第一标签,所述第一标签表征一个样本语句是否包含所述预定义样本问题的答案文本;
第一向量转换模块,用于将多个携带第一标签的样本语句分别转换为对应的句向量,并将针对所述样本文本的预定义样本问题转换为对应的句向量;
第一向量组合模块,用于将所述多个携带第一标签的样本语句对应的句向量与所述预定义样本问题对应的句向量一对一组合,得到多个句向量组合;
第一训练模块,用于以所述多个句向量组合为训练样本,对第一预设模型进行训练,得到所述第一文本处理模型。
可选地,所述答案提取模块包括:
第二向量转换子模块,用于将与所述待处理文本包括的多个语句分别转换为对应的向量表示,并将所述多个预定义问题分别转换为对应的向量表示;
针对所述多个预定义问题中的每个预定义问题,利用以下子模块进行处理:
第二概率确定子模块,用于将所述多个语句对应的向量表示与该预定义问题对应的向量表示一对一组合而形成的向量表示组合,输入预先训练的第二文本处理模型,以确定所述多个语句对应的起始概率和终止概率,其中,一个语句对应的起始概率表征该语句的起始位置是该预定义问题的答案文本在所述待处理文本中的起始位置的概率,一个语句对应的终止概率表征该语句的终止位置是该预定义问题的答案文本在所述待处理文本中的终止位置的概率;
第二答案文本确定子模块,用于根据所述多个语句对应的起始概率和终止概率,从所述多个语句中确定包含该预定义问题的答案文本的语句;
其中,所述第二文本处理模型是利用第二训练装置训练得到的,所述第二训练装置包括:
第二打标签模块,用于根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,以及多个样本语句各自在所述样本文本中的位置,对样本文本包括的多个样本语句分别打第二标签,所述第二标签表征一个样本语句的起始位置是否是所述预定义样本问题的答案文本的起始位置,以及,该样本语句的终止位置是否是所述预定义样本问题的答案文本的终止位置;
第二向量组合模块,用于将多个携带第二标签的样本语句对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,得到多个携带第二标签的向量表示组合;
第二训练模块,用于以所述多个携带第二标签的向量表示组合为训练样本,对第二预设模型进行训练,得到所述第二文本处理模型。
可选地,所述答案提取模块包括:
第三向量提取模块,用于将与所述待处理文本包括的多个语句分别转换为对应的向量表示,并将所述多个预定义问题分别转换为对应的向量表示;
针对所述多个预定义问题中的每个预定义问题,利用以下子模块进行处理:
第三概率确定子模块,用于将所述多个语句对应的向量表示与该预定义问题对应的向量表示一对一组合而形成的向量表示组合,输入预先训练的第三文本处理模型,以确定所述待处理文本包括的每个词语对应的起始概率和终止概率,其中,一个词语对应的起始概率表征该词语是该预定义问题的答案文本在所述待处理文本中的起始位置的概率,一个词语对应的终止概率表征该词语是该预定义问题的答案文本在所述待处理文本中的终止位置的概率;
第三答案文本确定子模块,用于根据所述待处理文本包括的每个词语对应的起始概率和终止概率,从所述待处理文本中提取该预定义问题的答案文本;
其中,所述第三文本处理模型是利用第三训练装置训练得到的,所述第二训练装置包括:
第三打标签模块,用于根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,以及所述样本文本包括的多个样本词语各自在所述样本文本中的位置,对所述多个样本词语分别打第三标签,所述第三标签表征一个样本词语是否是所述预定义样本问题的答案文本的起始位置或终止位置;
第三向量组合模块,用于将多个携带第三标签的样本词语对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,得到多个携带第三标签的向量表示组合;
第三训练模块,用于以所述多个携带第三标签的向量表示组合为训练样本,对第三预设模型进行训练,得到所述第三文本处理模型。
可选地,第三答案文本确定子模块,包括:
词语对形成单元,用于针对所述待处理文本包括的每个词语与位于该词语之后的其他词语组合,形成词语对;
总概率确定单元,用于根据多个词语对中在前词语对应的起始概率和在后词语对应的终止概率,确定总概率;
答案文本确定单元,用于根据总概率大于第一预设阈值的词语对所对应的文本片段,确定该预定义问题的答案文本。
可选地,答案文本确定单元,包括:
完整语句确定子单元,用于将总概率大于第一预设阈值的词语对所对应的文本片段输入预先训练的语言模型,确定所述文本片段构成完整的语句或短语的概率;
答案文本确定子单元,用于将构成完整的语句或短语的概率大于第二预设阈值的文本片段,确定为该预定义问题的答案文本。
第三方面,本申请实施例还提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本申请实施例所提出的文本处理方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时本申请实施例提出的文本处理方法的步骤。
本申请实施例提出的文本处理方法,包括:获得待处理文本和所述待处理文本所处领域的多个预定义问题;将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本;基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本;其中,所述文本处理模型是以携带标签的样本文本、针对所述样本文本的预定义样本问题为训练样本,对预设模型进行训练得到的,所述标签表征所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置。
在本申请实施例中,文本处理模型是利用大量携带标签的样本文本、针对样本文本的预定义样本问题训练得到,从而本申请中的文本处理模型,可以从待处理文本中预测出针对预定义问题的答案文本所在的起始位置和终止位置。
在本申请实施例提出的文本处理方法中,通过预先设定多个预定义问题,利用文本处理模型,采用阅读理解的形式,从完整的待处理文本中获取到针对每一个预定义问题的答案文本,将得到的答案文本作为关键点信息,具体的,阅读理解可以理解为:根据问题在待处理文本中获取相应的答案。从而在本申请实施例中,得到的答案文本可以覆盖到待处理文本中的所有信息。此外,在本申请实施例中,可以罗列多个预定义问题,从而使得文本处理模型针对每一个预定义问题给出答案文本,最终将每一个预定义问题的答案文本进行拼接,得到摘要信息,使得摘要信息可以覆盖到所有的关键点信息。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种文本处理方法流程图;
图2是本申请实施例提供的一种文本处理方法流程图;
图3是本申请实施例提供的另一种文本处理方法流程图;
图4是本申请实施例提供的另一种文本处理方法流程图;
图5是本申请实施例提供的一种文本处理装置结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
相关技术中的摘要提取方法难以覆盖所有的关键信息,容易出现遗漏。例如,相关技术中的一种摘要提取方法为:在获得对话信息之后,首先分别确定参与方各自的对话摘要,然后再根据语义相似性从各方对话摘要中匹配相关的摘要内容,生成对话摘要组合作为最终的结果。这种摘要提取方法,无法全面地提取到对话中所有的关键点内容。
为此,本申请提出了一种文本处理方法,通过预先设定多个预定义问题,利用文本处理模型,采用阅读理解的形式,从完整的待处理文本中获取到针对每一个预定义问题的答案文本,将得到的答案文本作为关键点信息,具体的,阅读理解可以理解为:根据问题在待处理文本中获取相应的答案。从而在本申请实施例中,得到的答案文本可以覆盖到待处理文本中的所有信息。此外,在本申请实施例中,可以罗列多个预定义问题,从而使得文本处理模型针对每一个预定义问题给出答案文本,最终将每一个预定义问题的答案文本进行拼接,得到摘要信息,使得摘要信息可以覆盖到所有的关键点信息。
本申请实施例提出的一种文本处理方法流程图,如图1所示。所述文本处理方法包括:
步骤S110,获得待处理文本和所述待处理文本所处领域的多个预定义问题。
在本申请的各个实施例中,待处理文本可以通过对会话系统中产生的会话数据进行采集得到。多个预定义问题是根据待处理文本所处领域所关注的关键信息构建得到的。例如关键信息为“客服解决方案”则可以构建预定义问题“客服提供的解决方案是什么?”。
步骤S120,将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本。
在本申请的各个实施例中,将待处理文本和所有的预定义问题一一组合,输入到预先训练的文本处理模型,从而通过该文本处理模型从整个待处理文本中预测得到分别针对每个预定义问题的答案文本。
其中,所述文本处理模型是以携带标签的样本文本、针对所述样本文本的预定义样本问题为训练样本,对预设模型进行训练得到的,所述标签表征所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置。
在本申请的各个实施例中,样本文本来源于会话系统中产生的历史会话数据,预定义样本问题可以由技术人员根据当前会话系统的实际需求设定得到。针对每个样本文本,提取其针对每个预定义样本问题的答案文本,根据该答案文本在样本文本中的起始位置和终止位置为每个样本文本设置标签;然后利用携带标签的样本文本和对应的预定义样本问题对预设模型进行训练,以得到文本处理模型,其中,每个样本文本的标签和预定义问题是对应的。
示例地,样本文本为“我昨天在你们买的平台红包今天就过期了”,预定义样本问题为“客户的主要问题”,则答案文本为“红包今天就过期了”。根据该答案文本在样本文本中所处的起始位置和终止位置设置该样本文本的标签,再将该设置好标签的样本文本和对应的预定义样本问题作为训练样本以对预设模型进行训练。
在本申请实施例中,预设模型可以为二分类模型,例如:Logistic回归模型,也可以为其他模型,例如:BERT模型。
步骤S130,基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本。
在本申请的各个实施例中,在得到多个预定义问题的答案文本之后,可以按照预设模板对问题和答案进行拼接,最终生成摘要文本。
示例地,预定义问题为“客户的主要问题”,对应的答案文本为“红包今天就过期了”预定义问题为“客服提供的解决方案”,对应的答案文本为“补偿未使用红包金额的一半”。
则最终生成的摘要文本可以为:
“客户的主要问题:红包今天就过期了,
客服提供的解决方案:补偿未使用红包金额的一半。”
在本申请实施例中,文本处理模型是利用大量携带标签的样本文本、针对样本文本的预定义样本问题训练得到,从而本申请中的文本处理模型,可以从待处理文本中预测出针对预定义问题的答案文本所在的起始位置和终止位置。
在本申请实施例提出的文本处理方法中,通过预先设定多个预定义问题,利用文本处理模型,采用阅读理解的形式,从完整的待处理文本中获取到针对每一个预定义问题的答案文本,将得到的答案文本作为关键点信息,具体的,阅读理解可以理解为:根据问题在待处理文本中获取相应的答案。从而在本申请实施例中,得到的答案文本可以覆盖到待处理文本中的所有信息。此外,在本申请实施例中,可以罗列多个预定义问题,从而使得文本处理模型针对每一个预定义问题给出答案文本,最终将每一个预定义问题的答案文本进行拼接,得到摘要信息,使得摘要信息可以覆盖到所有的关键点信息。
参见图2,本申请实施例提出了一种文本处理方法流程图,所述文本处理方法包括:
步骤S210,获得待处理文本和所述待处理文本所处领域的多个预定义问题。
在本申请的各个实施例中,待处理文本所处领域的多个预定义问题是根据当前领域所关注的多个关键信息得到的。例如,在美团外卖客服平台上,所关注的关键信息可能有:外卖优惠信息、超时赔付信息等。
在本申请实施例可能的一种实施方式中,步骤S210包括:
子步骤S211,对属于所述待处理文本的领域的多个文本进行分析,确定所述领域的多个关键信息。
在本申请的各个实施例中,可以对待处理文本所属领域中的多个文本进行分析,以确定出当前领域的多个关键信息,在本申请实施例中,可以采用相关技术中的任意一种分析规则提取关键信息,例如,按照各个关键词的出现频率,或者根据经验人为确定当前领域所关注的关键信息。本申请对此不作限制。
子步骤S212,基于所述多个关键信息,构建针对所述多个预定义问题。
在本申请的各个实施例中,可以在获取到当前领域所关注的多个关键信息之后,针对各个关键信息分别构建针对该关键信息的预定义问题。例如,针对外卖领域的关键点信息“超时赔付信息”构建预定义问题“配送超时后如何赔付?”。针对电商领域的关键点信息“客服提供的解决方案”,构建预定义问题“客服提供的解决方案是什么?”
步骤S220,将所述待处理文本包括的多个语句分别转换为对应的句向量,并将所述多个预定义问题分别转换为对应的句向量。
在本申请实施例中,待处理文本是由会话系统中的会话数据得到,因此,待处理文本中包括多个语句,可以将这些语句分别转换为对应的句向量,例如:segment A。同时,将多个预定义问题也分别转换为对应的句向量,例如:segment B。从而使得模型可以对待处理文本和预定义问题进行区分。
在具体实施的过程中,可以将待处理文本中每一个分句作为一个句向量,也可以将两个说话人的一轮对话(例如:一问一答)作为一个句向量。
步骤S230,针对所述多个预定义问题中的每个预定义问题,将所述多个语句对应的句向量与该预定义问题对应的句向量一对一组合而形成的句向量组合,输入预先训练的第一文本处理模型,以从所述多个语句中确定包含该预定义问题的答案文本的语句。
在本申请实施例中,将每个预定义问题的句向量和待处理文本中的多个语句对应的句向量一对一组合成句向量组合,然后分别输入到第一文本处理模型,从而使得模型可以针对每个预定义问题分别预测得到待处理文本中包含对应的答案文本的语句。
其中,所述第一文本处理模型是按照以下步骤训练得到的:
步骤A1,根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,对样本文本包括的多个样本语句分别打第一标签,所述第一标签表征一个样本语句是否包含所述预定义样本问题的答案文本;
在本申请实施例中,已经确定针对预定义样本问题的答案文本在样本文本中的起始位置和终止位置,从而可以确定样本文本中的多个样本语句中是否包括答案文本,以对每个样本语句设置第一标签,以标签该样本语句中是否包含该预定义问题的答案文本。
示例地,样本文本为:“你好,我昨天在你们平台购买的红包今天就过期了,这也太离谱了吧,我要退款。”预定义样本问题为“客户的主要问题”,对应的答案文本为“购买的红包今天就过期了”,则可以确定样本语句“我昨天在你们平台购买的红包今天就过期了”的第一标签为“包含该预定义样本问题的答案文本”,其他样本语句“你好”、“这也太离谱了吧”、“我要退款”的第一标签为“不包含该预定义样本问题的答案文本”。
步骤B1,将多个携带第一标签的样本语句分别转换为对应的句向量,并将针对所述样本文本的预定义样本问题转换为对应的句向量。
步骤C1,将所述多个携带第一标签的样本语句对应的句向量与所述预定义样本问题对应的句向量一对一组合,得到多个句向量组合;
在本申请实施例中,在得到样本语句对应的句向量和对应的预定义样本问题的句向量后,可以将携带第一标签的样本语句对应的句向量与预定义样本问题对应的句向量一对一组合,得到多个句向量组合,从而利用多个句向量组合对预设的模型进行训练。
示例地,句向量组合可以表征为:样本语句“我昨天在你们平台购买的红包今天就过期了”-第一标签“包含答案”-样本预定义问题“客户的主要问题”。
步骤D1,以所述多个句向量组合为训练样本,对第一预设模型进行训练,得到所述第一文本处理模型。
在本申请实施例中,第一预设模型为二分类模型,利用训练得到的第一文本处理模型,可以预测待处理文本的各个语句中是否包含针对预定义问题的答案文本。
步骤S240,基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本。
该步骤与上述步骤S130类似,在此不再赘述。
在本申请实施例中,可以通过统计方法和实际需求获取到当前会话系统所关注的关键点信息,然后根据这些关键点信息构建对应的预定问题,从而通过第一文本处理模型在句向量层面采用阅读理解的形式提取待处理文本中包含答案文本的句子,从而提取得到当前会话系统实际所需的关键信息。
参见图3,本申请实施例提出了另一种文本处理方法流程图,所述文本处理方法包括:
步骤S310,获得待处理文本和所述待处理文本所处领域的多个预定义问题。
该步骤与上述步骤S210类似,在此不再赘述。
步骤S320,将与所述待处理文本包括的多个语句分别转换为对应的向量表示,并将所述多个预定义问题分别转换为对应的向量表示。
在本申请实施例中,待处理文本的多个语句对应的向量表示和预定义样本问题对应的向量表示可以为词向量表示或者字向量表示。每个向量表示包括该向量的自身特征、该向量所属语句、以及该向量在所述语句中的位置。
针对所述多个预定义问题中的每个预定义问题,执行以下步骤:
步骤S330,将所述多个语句对应的向量表示与该预定义问题对应的向量表示一对一组合而形成的向量表示组合,输入预先训练的第二文本处理模型,以确定所述多个语句对应的起始概率和终止概率,其中,一个语句对应的起始概率表征该语句的起始位置是该预定义问题的答案文本在所述待处理文本中的起始位置的概率,一个语句对应的终止概率表征该语句的终止位置是该预定义问题的答案文本在所述待处理文本中的终止位置的概率。
在本申请实施例中,将步骤S320得到的多个向量表示按照语句-预定义问题的形式组合成向量表示组合,例如“我昨天在你们平台购买的红包今天就过期了”-“客户的主要问题”可以得到一个向量表示组合。
将多个向量表示组合输入预先训练的第二文本处理模型可以预测各个语句的起始概率和终止概率,以确定该语句的起始位置是对应于预定义问题的答案文本的起始位置的概率,以及,该语句的终止位置是对应于预定义问题的答案文本的终止位置的概率。从而可以计算得到各个语句中包含答案文本的概率。
其中,所述第二文本处理模型是按照以下步骤训练得到的:
步骤A2,根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,以及多个样本语句各自在所述样本文本中的位置,对样本文本包括的多个样本语句分别打第二标签,所述第二标签表征一个样本语句的起始位置是否是所述预定义样本问题的答案文本的起始位置,以及,该样本语句的终止位置是否是所述预定义样本问题的答案文本的终止位置。
示例地,样本文本为:“你好,我昨天在你们平台购买的红包今天就过期了,这也太离谱了吧,我要退款。”预定义问题为“客户的主要问题”,对应的答案文本为“我昨天在你们平台购买的红包今天就过期了”,则可以确定样本语句“我昨天在你们平台购买的红包今天就过期了”的第二标签为“起始位置和终止位置分别是该预定义样本问题的答案文本的起始位置和终止位置”,其他样本语句“你好”、“这也太离谱了吧”、“我要退款”的第二标签为“起始位置和终止位置不是该预定义样本问题的答案文本的起始位置和终止位置”。
步骤B2,将多个携带第二标签的样本语句对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,得到多个携带第二标签的向量表示组合。
在本申请实施例中,在得到样本语句对应的向量表示和对应的预定义样本问题的向量表示后,可以将多个携带第二标签的样本语句对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,从而利用多个向量表示组合对预设的模型进行训练。
示例地,向量表示组合可以为:样本语句“我昨天在你们平台购买的红包今天就过期了”-第二标签“起始位置和终止位置分别是该预定义样本问题的答案文本的起始位置和终止位置”-样本预定义问题“客户的主要问题”。
步骤C2,以所述多个携带第二标签的向量表示组合为训练样本,对第二预设模型进行训练,得到所述第二文本处理模型。
将步骤B2中得到的多个向量表示组合作为训练样本对第二预设模型进行训练,在本申请实施例中,第二预设模型为阅读理解模型,例如BERT模型。
训练得到的第二文本处理模型可以预测得到各个语句对应于预定义问题的答案文本的起始概率和终止概率,以表征该语句中包含对应的答案文本的概率。
步骤S340,根据所述多个语句对应的起始概率和终止概率,从所述多个语句中确定包含该预定义问题的答案文本的语句。
在本申请实施例中,可以根据各个语句的起始概率和终止概率得到该语句中包含答案文本的概率,从而可以将概率最大的语句确定为包含对应于预定义问题的答案文本的语句。
步骤S350,基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本。
该步骤与上述步骤S130类似,在此不再赘述。
在本申请实施例中,可以通过统计方法和实际需求获取到当前会话系统所关注的关键点信息,然后根据这些关键点信息构建对应的预定问题,从而通过第二文本处理模型在句向量层面采用阅读理解的形式提取待处理文本中包含答案文本的句子,从而提取得到当前会话系统实际所需的关键信息。
参见图4示出了本申请实施例另外一种文本处理方法流程图,所述文本处理方法包括:
步骤S410,获得待处理文本和所述待处理文本所处领域的多个预定义问题。
该步骤与上述步骤S210类似,在此不再赘述。
步骤S420,将与所述待处理文本包括的多个语句分别转换为对应的向量表示,并将所述多个预定义问题分别转换为对应的向量表示。
该步骤与上述步骤S320类似,在此不再赘述。
针对所述多个预定义问题中的每个预定义问题,执行以下步骤:
步骤S430,将所述多个语句对应的向量表示与该预定义问题对应的向量表示一对一组合而形成的向量表示组合,输入预先训练的第三文本处理模型,以确定所述待处理文本包括的每个词语对应的起始概率和终止概率,其中,一个词语对应的起始概率表征该词语是该预定义问题的答案文本在所述待处理文本中的起始位置的概率,一个词语对应的终止概率表征该词语是该预定义问题的答案文本在所述待处理文本中的终止位置的概率。
在本申请实施例中,将步骤S420得到的多个向量表示按照语句-预定义问题的形式组合成向量表示组合。将多个向量表示组合输入预先训练的第三文本处理模型可以确定各个词语对应的起始概率和终止概率,以预测各个词语为答案文本的起始位置或终止位置的概率。在本申请实施例中,词语可以理解为单个字符,例如:“红”“包”,也可以理解为常用词语组合,例如“红包”。
其中,所述第三文本处理模型是按照以下步骤训练得到的:
步骤A3,根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,以及所述样本文本包括的多个样本词语各自在所述样本文本中的位置,对所述多个样本词语分别打第三标签,所述第三标签表征一个样本词语是否是所述预定义样本问题的答案文本的起始位置或终止位置。
在本申请实施例中,可以根据答案文本在样本文本中的起始位置和终止位置分别对样本文本中的多个词语设置第三标签,以表征该词语是否为该答案文本的起始文本或终止文本。
示例地,样本文本为“我昨天在你们平台购买的红包今天就过期了”对应于预定义问题“客户的主要问题”的答案文本为“购买的红包今天就过期”。则该样本文本中的样本词语“购买”的第三标签为“答案文本的起始位置”,“过期”的第三标签为“答案文本的终止位置”。
步骤B3,将多个携带第三标签的样本词语对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,得到多个携带第三标签的向量表示组合;
步骤C3,以所述多个携带第三标签的向量表示组合为训练样本,对第三预设模型进行训练,得到所述第三文本处理模型。
将上述步骤A3得到的多个携带第三标签的样本词语的向量表示和对应的样本问题的向量表示一对一组合,得到多个向量表示组合,将这些向量表示组合作为训练样本,对第三预设模型进行训练即可得到第三文本处理模型。其中,第三预设模型阅读理解模型,例如BERT模型。
步骤S440,根据所述待处理文本包括的每个词语对应的起始概率和中止终止概率,从所述待处理文本中提取该预定义问题的答案文本。
在本申请实施例中,可以将起始概率最高的词语和终止概率最高的词语之间的语句作为该预定义问题的答案文本。
示例的,待处理文本为“我昨天在你们平台购买的红包今天就过期了”,预定义问题为“客户的主要问题”,预测得到该待处理文本中的词向量“购买”对应的起始概率为1,词向量“过期”所对应的终止概率也为1。则可以确定“购买的红包今天过期”为答案文本。
其中,步骤S440包括:
子步骤S441,针对所述待处理文本包括的每个词语与位于该词语之后的其他词语组合,形成词语对。
在本申请实施例中,可以将待处理文本中包括的每个词语和位于该词语之后的其他词语组合,例如,将每个词语之后的两个词语与该词语进行组合以得到词语对,以避免最终得到的答案文本中存在语法语序不通顺的问题。
子步骤S442,根据多个词语对中在前词语对应的起始概率和在后词语对应的终止概率,确定总概率。
示例地,组合得到的词语对为“购买的红包”则,根据在前词语“购买”的起始概率和在后词语“红包”的终止概率,确定词语对“购买的红包”的总概率。
子步骤S443,根据总概率大于第一预设阈值的词语对所对应的文本片段,确定该预定义问题的答案文本。
在本申请实施例中,可以对多个词语对进行进一步组合得到文本片段,按照上述计算词语对的总概率的方法计算文本片段的总概率,将总概率大于第一预设阈值的文本片段确定针对该预定义问题的答案文本。
其中,子步骤S443进一步包括以下子步骤:
子步骤S4431,将总概率大于第一预设阈值的词语对所对应的文本片段输入预先训练的语言模型,确定所述文本片段构成完整的语句或短语的概率。
子步骤S4432,将构成完整的语句或短语的概率大于第二预设阈值的文本片段,确定为该预定义问题的答案文本。
其中,预先训练的语言模型,用于预测文本片段构成完整语句或短语的概率。该语言模型可以采用相关技术中的任意一种可以实现上述功能的语言模型,本申请对此不作特殊限制。
在本申请实施例中,可以利用语言模型确定文本片段构成完整语句的概率。从而得到符合常用语言习惯、语句通顺的答案文本。
步骤S450,基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本。
该步骤与上述步骤S130类似,在此不再赘述。
在本申请实施例中,可以通过统计方法和实际需求获取到当前会话系统所关注的关键点信息,然后根据这些关键点信息构建对应的预定问题,从而通过第一文本处理模型在句向量层面采用阅读理解的形式提取待处理文本中包含答案文本的句子,从而提取得到当前会话系统实际所需的关键信息。并且,本申请从字词向量层面得到的答案文本是小粒度文本,通过对小粒度文本进行重新组合和拼接可以得到更全面更准确的摘要结果。
参见图5,示出了本申请的一种文本处理装置500的结构框图,具体的,所述文本处理装置500可以包括如下模块:
问题获得模块501,用于获得待处理文本和所述待处理文本所处领域的多个预定义问题;
答案提取模块502,用于将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本;
拼接模块503,用于基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本;
其中,所述文本处理模型是以携带标签的样本文本、针对所述样本文本的预定义样本问题为训练样本,对预设模型进行训练得到的,所述标签表征所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置。
可选地,所述问题获得模块501,包括:
文本分析子模块,用于对属于所述待处理文本的领域的多个文本进行分析,确定所述领域的多个关键信息;
构建子模块,用于基于所述多个关键信息,构建针对所述多个预定义问题。
可选地,所述答案提取模块502包括:
第一向量转换子模块,用于将所述待处理文本包括的多个语句分别转换为对应的句向量,并将所述多个预定义问题分别转换为对应的句向量;
第一答案文本确定子模块,用于针对所述多个预定义问题中的每个预定义问题,将所述多个语句对应的句向量与该预定义问题对应的句向量一对一组合而形成的句向量组合,输入预先训练的第一文本处理模型,以从所述多个语句中确定包含该预定义问题的答案文本的语句;
其中,所述第一文本处理模型是利用第一训练装置训练得到的,所述第一训练装置包括:
第一打标签模块,用于根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,对样本文本包括的多个样本语句分别打第一标签,所述第一标签表征一个样本语句是否包含所述预定义样本问题的答案文本;
第一向量转换模块,用于将多个携带第一标签的样本语句分别转换为对应的句向量,并将针对所述样本文本的预定义样本问题转换为对应的句向量;
第一向量组合模块,用于将所述多个携带第一标签的样本语句对应的句向量与所述预定义样本问题对应的句向量一对一组合,得到多个句向量组合;
第一训练模块,用于以所述多个句向量组合为训练样本,对第一预设模型进行训练,得到所述第一文本处理模型。
可选地,所述答案提取模块包括:
第二向量转换子模块,用于将与所述待处理文本包括的多个语句分别转换为对应的向量表示,并将所述多个预定义问题分别转换为对应的向量表示;
针对所述多个预定义问题中的每个预定义问题,利用以下子模块进行处理:
第二概率确定子模块,用于将所述多个语句对应的向量表示与该预定义问题对应的向量表示一对一组合而形成的向量表示组合,输入预先训练的第二文本处理模型,以确定所述多个语句对应的起始概率和终止概率,其中,一个语句对应的起始概率表征该语句的起始位置是该预定义问题的答案文本在所述待处理文本中的起始位置的概率,一个语句对应的终止概率表征该语句的终止位置是该预定义问题的答案文本在所述待处理文本中的终止位置的概率;
第二答案文本确定子模块,用于根据所述多个语句对应的起始概率和终止概率,从所述多个语句中确定包含该预定义问题的答案文本的语句;
其中,所述第二文本处理模型是利用第二训练装置训练得到的,所述第二训练装置包括:
第二打标签模块,用于根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,以及多个样本语句各自在所述样本文本中的位置,对样本文本包括的多个样本语句分别打第二标签,所述第二标签表征一个样本语句的起始位置是否是所述预定义样本问题的答案文本的起始位置,以及,该样本语句的终止位置是否是所述预定义样本问题的答案文本的终止位置;
第二向量组合模块,用于将多个携带第二标签的样本语句对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,得到多个携带第二标签的向量表示组合;
第二训练模块,用于以所述多个携带第二标签的向量表示组合为训练样本,对第二预设模型进行训练,得到所述第二文本处理模型。
可选地,所述答案提取模块包括:
第三向量提取模块,用于将与所述待处理文本包括的多个语句分别转换为对应的向量表示,并将所述多个预定义问题分别转换为对应的向量表示;
针对所述多个预定义问题中的每个预定义问题,利用以下子模块进行处理:
第三概率确定子模块,用于将所述多个语句对应的向量表示与该预定义问题对应的向量表示一对一组合而形成的向量表示组合,输入预先训练的第三文本处理模型,以确定所述待处理文本包括的每个词语对应的起始概率和终止概率,其中,一个词语对应的起始概率表征该词语是该预定义问题的答案文本在所述待处理文本中的起始位置的概率,一个词语对应的终止概率表征该词语是该预定义问题的答案文本在所述待处理文本中的终止位置的概率;
第三答案文本确定子模块,用于根据所述待处理文本包括的每个词语对应的起始概率和终止概率,从所述待处理文本中提取该预定义问题的答案文本;
其中,所述第三文本处理模型是利用第三训练装置训练得到的,所述第二训练装置包括:
第三打标签模块,用于根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,以及所述样本文本包括的多个样本词语各自在所述样本文本中的位置,对所述多个样本词语分别打第三标签,所述第三标签表征一个样本词语是否是所述预定义样本问题的答案文本的起始位置或终止位置;
第三向量组合模块,用于将多个携带第三标签的样本词语对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,得到多个携带第三标签的向量表示组合;
第三训练模块,用于以所述多个携带第三标签的向量表示组合为训练样本,对第三预设模型进行训练,得到所述第三文本处理模型。
可选地,第三答案文本确定子模块,包括:
词语对形成单元,用于针对所述待处理文本包括的每个词语与位于该词语之后的其他词语组合,形成词语对;
总概率确定单元,用于根据多个词语对中在前词语对应的起始概率和在后词语对应的终止概率,确定总概率;
答案文本确定单元,用于根据总概率大于第一预设阈值的词语对所对应的文本片段,确定该预定义问题的答案文本。
可选地,答案文本确定单元,包括:
完整语句确定子单元,用于将总概率大于第一预设阈值的词语对所对应的文本片段输入预先训练的语言模型,确定所述文本片段构成完整的语句或短语的概率;
答案文本确定子单元,用于将构成完整的语句或短语的概率大于第二预设阈值的文本片段,确定为该预定义问题的答案文本。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
相应的,本申请还提出了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例所述的文本处理方法,且能达到相同的技术效果,为避免重复,这里不再赘述。所述电子设备可以为PC机、移动终端、个人数字助理、平板电脑等。
本申请还提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请实施例所述的文本处理方法的步骤,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,计算机可读存储介质,如只读存储器(Read-OnlyMemory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上对本申请提供的文本处理方法、装置、电子设备及计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件实现。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。

Claims (10)

1.一种文本处理方法,其特征在于,所述方法包括:
获得待处理文本和所述待处理文本所处领域的多个预定义问题;
将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本;
基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本;
其中,所述文本处理模型是以携带标签的样本文本、针对所述样本文本的预定义样本问题为训练样本,对预设模型进行训练得到的,所述标签表征所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置。
2.根据权利要求1所述的方法,其特征在于,所述获得待处理文本所处领域的多个预定义问题,包括:
对属于所述待处理文本的领域的多个文本进行分析,确定所述领域的多个关键信息;
基于所述多个关键信息,构建针对所述多个预定义问题。
3.根据权利要求1所述的方法,其特征在于,将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本,包括:
将所述待处理文本包括的多个语句分别转换为对应的句向量,并将所述多个预定义问题分别转换为对应的句向量;
针对所述多个预定义问题中的每个预定义问题,将所述多个语句对应的句向量与该预定义问题对应的句向量一对一组合而形成的句向量组合,输入预先训练的第一文本处理模型,以从所述多个语句中确定包含该预定义问题的答案文本的语句;
其中,所述第一文本处理模型是按照以下步骤训练得到的:
根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,对样本文本包括的多个样本语句分别打第一标签,所述第一标签表征一个样本语句是否包含所述预定义样本问题的答案文本;
将多个携带第一标签的样本语句分别转换为对应的句向量,并将针对所述样本文本的预定义样本问题转换为对应的句向量;
将所述多个携带第一标签的样本语句对应的句向量与所述预定义样本问题对应的句向量一对一组合,得到多个句向量组合;
以所述多个句向量组合为训练样本,对第一预设模型进行训练,得到所述第一文本处理模型。
4.根据权利要求1所述的方法,其特征在于,将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本,包括:
将与所述待处理文本包括的多个语句分别转换为对应的向量表示,并将所述多个预定义问题分别转换为对应的向量表示;
针对所述多个预定义问题中的每个预定义问题,执行以下步骤:
将所述多个语句对应的向量表示与该预定义问题对应的向量表示一对一组合而形成的向量表示组合,输入预先训练的第二文本处理模型,以确定所述多个语句对应的起始概率和终止概率,其中,一个语句对应的起始概率表征该语句的起始位置是该预定义问题的答案文本在所述待处理文本中的起始位置的概率,一个语句对应的终止概率表征该语句的终止位置是该预定义问题的答案文本在所述待处理文本中的终止位置的概率;
根据所述多个语句对应的起始概率和终止概率,从所述多个语句中确定包含该预定义问题的答案文本的语句;
其中,所述第二文本处理模型是按照以下步骤训练得到的:
根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,以及多个样本语句各自在所述样本文本中的位置,对样本文本包括的多个样本语句分别打第二标签,所述第二标签表征一个样本语句的起始位置是否是所述预定义样本问题的答案文本的起始位置,以及,该样本语句的终止位置是否是所述预定义样本问题的答案文本的终止位置;
将多个携带第二标签的样本语句对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,得到多个携带第二标签的向量表示组合;
以所述多个携带第二标签的向量表示组合为训练样本,对第二预设模型进行训练,得到所述第二文本处理模型。
5.根据权利要求1所述的方法,其特征在于,将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本,包括:
将与所述待处理文本包括的多个语句分别转换为对应的向量表示,并将所述多个预定义问题分别转换为对应的向量表示;
针对所述多个预定义问题中的每个预定义问题,执行以下步骤:
将所述多个语句对应的向量表示与该预定义问题对应的向量表示一对一组合而形成的向量表示组合,输入预先训练的第三文本处理模型,以确定所述待处理文本包括的每个词语对应的起始概率和终止概率,其中,一个词语对应的起始概率表征该词语是该预定义问题的答案文本在所述待处理文本中的起始位置的概率,一个词语对应的终止概率表征该词语是该预定义问题的答案文本在所述待处理文本中的终止位置的概率;
根据所述待处理文本包括的每个词语对应的起始概率和终止概率,从所述待处理文本中提取该预定义问题的答案文本;
其中,所述第三文本处理模型是按照以下步骤训练得到的:
根据所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置,以及所述样本文本包括的多个样本词语各自在所述样本文本中的位置,对所述多个样本词语分别打第三标签,所述第三标签表征一个样本词语是否是所述预定义样本问题的答案文本的起始位置或终止位置;
将多个携带第三标签的样本词语对应的向量表示与所述预定义样本问题对应的向量表示一对一组合,得到多个携带第三标签的向量表示组合;
以所述多个携带第三标签的向量表示组合为训练样本,对第三预设模型进行训练,得到所述第三文本处理模型。
6.根据权利要求5所述的方法,其特征在于,根据所述待处理文本包括的每个词语对应的起始概率和终止概率,从所述待处理文本中提取该预定义问题的答案文本,包括:
针对所述待处理文本包括的每个词语与位于该词语之后的其他词语组合,形成词语对;
根据多个词语对中在前词语对应的起始概率和在后词语对应的终止概率,确定总概率;
根据总概率大于第一预设阈值的词语对所对应的文本片段,确定该预定义问题的答案文本。
7.根据权利要求6所述的方法,其特征在于,根据总概率大于第一预设阈值的词语对所对应的文本片段,确定该预定义问题的答案文本,包括:
将总概率大于第一预设阈值的词语对所对应的文本片段输入预先训练的语言模型,确定所述文本片段构成完整的语句或短语的概率;
将构成完整的语句或短语的概率大于第二预设阈值的文本片段,确定为该预定义问题的答案文本。
8.一种文本处理装置,其特征在于,所述装置包括:
问题获得模块,用于获得待处理文本和所述待处理文本所处领域的多个预定义问题;
答案提取模块,用于将所述待处理文本和所述多个预定义问题一对一组合而成的文本-问题组合,输入预先训练的文本处理模型,以从所述待处理文本中提取所述多个预定义问题各自的答案文本;
拼接模块,用于基于预设模板,对所述多个预定义问题及其答案文本进行拼接,得到摘要文本;
其中,所述文本处理模型是以携带标签的样本文本、针对所述样本文本的预定义样本问题为训练样本,对预设模型进行训练得到的,所述标签表征所述预定义样本问题的答案文本在所述样本文本中的起始位置和终止位置。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7任意一项所述的文本处理方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至7任意一项所述的文本处理方法的步骤。
CN202110663549.9A 2021-06-15 2021-06-15 文本处理方法、装置、电子设备及计算机可读存储介质 Withdrawn CN113505219A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110663549.9A CN113505219A (zh) 2021-06-15 2021-06-15 文本处理方法、装置、电子设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110663549.9A CN113505219A (zh) 2021-06-15 2021-06-15 文本处理方法、装置、电子设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN113505219A true CN113505219A (zh) 2021-10-15

Family

ID=78010164

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110663549.9A Withdrawn CN113505219A (zh) 2021-06-15 2021-06-15 文本处理方法、装置、电子设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN113505219A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116501858A (zh) * 2023-06-21 2023-07-28 阿里巴巴(中国)有限公司 文本处理及数据查询方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108959396A (zh) * 2018-06-04 2018-12-07 众安信息技术服务有限公司 机器阅读模型训练方法及装置、问答方法及装置
CN109086303A (zh) * 2018-06-21 2018-12-25 深圳壹账通智能科技有限公司 基于机器阅读理解的智能对话方法、装置、终端
CN111309889A (zh) * 2020-02-27 2020-06-19 支付宝(杭州)信息技术有限公司 用于文本处理的方法和装置
CN112527992A (zh) * 2020-12-17 2021-03-19 科大讯飞股份有限公司 长文本处理方法、相关设备及可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108959396A (zh) * 2018-06-04 2018-12-07 众安信息技术服务有限公司 机器阅读模型训练方法及装置、问答方法及装置
CN109086303A (zh) * 2018-06-21 2018-12-25 深圳壹账通智能科技有限公司 基于机器阅读理解的智能对话方法、装置、终端
CN111309889A (zh) * 2020-02-27 2020-06-19 支付宝(杭州)信息技术有限公司 用于文本处理的方法和装置
CN112527992A (zh) * 2020-12-17 2021-03-19 科大讯飞股份有限公司 长文本处理方法、相关设备及可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116501858A (zh) * 2023-06-21 2023-07-28 阿里巴巴(中国)有限公司 文本处理及数据查询方法
CN116501858B (zh) * 2023-06-21 2023-11-14 阿里巴巴(中国)有限公司 文本处理及数据查询方法

Similar Documents

Publication Publication Date Title
CN109981910B (zh) 业务推荐方法及设备
CN110597952A (zh) 信息处理方法、服务器及计算机存储介质
CN110543552A (zh) 对话交互方法、装置及电子设备
JP2001273283A (ja) 言語を識別しかつ音声再生装置を制御する方法及び通信デバイス
CN112948534A (zh) 一种智能人机对话的交互方法、系统和电子设备
CN109979450B (zh) 信息处理方法、装置及电子设备
CN111858854B (zh) 一种基于历史对话信息的问答匹配方法及相关装置
CN110399473B (zh) 为用户问题确定答案的方法和装置
CN110738056B (zh) 用于生成信息的方法和装置
CN118277518A (zh) 问答方法、装置、设备及介质
CN113505219A (zh) 文本处理方法、装置、电子设备及计算机可读存储介质
CN116579351B (zh) 一种用户评价信息的分析方法及装置
CN117709336A (zh) 一种在线客服应答方法、装置以及终端设备
CN112069786A (zh) 文本信息处理方法、装置、电子设备及介质
CN113343645A (zh) 信息提取模型的建立方法及装置、存储介质及电子设备
EP3962073A1 (en) Online interview method and system
CN114202363B (zh) 基于人工智能的话术调用方法、装置、计算机设备及介质
CN115688769A (zh) 一种基于长文本的意图识别方法、装置、设备及存储介质
CN115691503A (zh) 语音识别方法、装置、电子设备和存储介质
CN113570324A (zh) 外呼流程编辑方法、装置、电子设备及存储介质
CN112632241A (zh) 智能会话的方法、装置、设备和计算机可读介质
CN110826313A (zh) 一种信息提取方法、电子设备及计算机可读存储介质
CN111949776A (zh) 一种用户标签评估的方法、装置和电子设备
CN112784034A (zh) 摘要生成方法、装置及计算机设备
CN111309990A (zh) 一种语句应答方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20211015