CN111666764B - 一种基于XLNet的自动摘要方法与装置 - Google Patents

一种基于XLNet的自动摘要方法与装置 Download PDF

Info

Publication number
CN111666764B
CN111666764B CN202010488757.5A CN202010488757A CN111666764B CN 111666764 B CN111666764 B CN 111666764B CN 202010488757 A CN202010488757 A CN 202010488757A CN 111666764 B CN111666764 B CN 111666764B
Authority
CN
China
Prior art keywords
model
sentence
sentences
xlnet
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010488757.5A
Other languages
English (en)
Other versions
CN111666764A (zh
Inventor
杨鹏
李文翰
杨浩然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Youhui Xin'an Technology Co ltd
Original Assignee
Nanjing Youhui Xin'an Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Youhui Xin'an Technology Co ltd filed Critical Nanjing Youhui Xin'an Technology Co ltd
Priority to CN202010488757.5A priority Critical patent/CN111666764B/zh
Publication of CN111666764A publication Critical patent/CN111666764A/zh
Application granted granted Critical
Publication of CN111666764B publication Critical patent/CN111666764B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于XLNet的自动摘要方法与装置。本发明首先进行数据预处理,将文本按句切分,将句子按词进行切分,在每个句子前增添显示的用于明确句子界限的占位符。然后构建摘要模型XLNetSum,该模型在XLNet基础上增加全局位置编码,将占位符对应的动态词向量和全局位置编码作为句子特征;利用训练数据和验证数据对模型进行训练后,通过训练好的模型得到测试数据中各个句子的评分,再通过后处理步骤选取若干句子作为摘要。本发明的摘要模型利用深度神经语言模型XLNet提取文本信息,挖掘词语和上下文句法结构的语义,且可以处理长度不定的文本序列,能够灵活准确地判断文本中各个句子的重要性,进而抽取出文本的摘要语句。

Description

一种基于XLNet的自动摘要方法与装置
技术领域
本发明属于信息处理技术领域,具体涉及一种基于XLNet模型的自动摘要方法与装置。
背景技术
随着互联网技术尤其是移动互联网技术的不断发展,人们的学习、工作、生活等方方面面都与网络密切相关。网络上的信息为人们带来了便利,但面对数量庞大的网络信息,人们难以从中挑选出对自己最有用的信息,文本自动摘要正是解决这一问题的关键技术之一。针对一篇文本或多篇相似的文本,利用文本摘要技术获取其核心、简明、自然的摘要信息,可以在一定程度上减轻读者搜集、阅读文档的繁重压力;此外,生成的摘要还可以被应用于搜索引擎、推荐系统等领域,使其更精确地获得文档的核心内容,从而提升性能。
自动摘要技术要求计算机能够为输入的文档生成一个包含其主要内容的短句,主要分为两种模式:生成式摘要(abstractive summarization)与抽取式摘要(extractivesummarization)。前者要求计算机在理解原文的基础上,自动地组织词句,生成出一个句子作为摘要;后者则是从原文中选取一些关键的语句作为摘要。相比较而言,生成式摘要不仅需要计算机“理解”文档,还要自己生成语句,受限于自然语言处理技术的发展,生成的摘要往往词不达意,同时包含大量的语法错误,让人难以理解;抽取式摘要的语句均来自原文,语法错误较少,更便于后续的使用。
近年来,已有许多方法被应用到自动摘要领域。早期的研究主要通过统计字词的分布规律,以及人工构造规则等方法来寻找文章的关键句作为摘要。例如通过统计文章所有词语的TFIDF值,结合句子在文章中的位置,句子的长度等信息,计算最终的得分并选取分数最高的句子作为摘要。这样的方法虽然形式简洁,易于理解,却忽略了词句自身的语义信息,往往要人工构造大量规则,费时费力且效果不佳。
随着深度学习的发展,通过多层人工神经网络提取语义信息的方法被广泛应用于自然语言处理领域。词嵌入技术通过在海量开放语料中的训练,得到词语的语义信息;循环神经网络(Recurrent Neural Network,RNN)与Transformer结构则被设计并用于理解词语序列构成的句子与篇章。将这两种方法结合,并辅以特殊的训练方法,可以得到能为文章中的每一个单词分别生成上下文相关词向量的神经语言模型(Neural Language Model,NLM),其中广为人知的模型包括BERT、XLNet等。其中XLNet采用计算得到词语的相对位置编码,理论上支持无限长的文档序列建模,但其未考虑句子在文档中的位置信息,可能对文档摘要任务带来不利影响。
发明内容
发明目的:本发明目的在于提出一种基于XLNet的自动摘要方法与装置,利用神经语言模型XLNet提取文本的语义信息,并引入绝对位置编码,克服传统方法对词语语义、句法结构信息提取不足的问题,且对输入文本的序列长度不做限制,能够灵活准确地从文本中提取摘要语句。
技术方案:为实现上述发明目的,本发明所述的一种基于XLNet的自动摘要方法,首先对文本文档进行预处理,按句切分,并将每句话按XLNet词表切分为词语序列。接着构建XLNetSum模型,并基于随机梯度下降算法在有标签的训练集数据上进行训练,并利用验证集评价模型是否训练完成。最后用训练好的模型对测试集文本的句子进行预测评分,并通过后处理得到各个文本的摘要。具体包括如下步骤:
(1)将文本按句进行切分,将句子按词进行切分,在每个句子前增添显示的用于明确句子界限的占位符;每个单独的句子将作为模型中的最小评分单元,以及摘要的最小组成单元;
(2)构建基于XLNet模型的XLNetSum模型,包括输入层、多层Transformer-XL、全局位置编码信息层和输出层;其中输入层将输入的词语序列转化为词嵌入向量与句序号;多层Transformer-XL用于从输入的词嵌入向量与句序号中获取文本的语义信息,为文本中的每一个词语生成上下文相关的动态词向量;全局位置编码信息层用于利用三角函数的周期性给出位置信息,并将每个句子中用于明确句子界限的占位符对应的动态词向量和全局位置编码拼接作为句子的特征向量;输出层将句子的特征向量转化为归一化的输出,表示对应的句子属于摘要内容的概率;
(3)将经步骤(1)处理后的训练集文本输入XLNetSum模型,得到模型对文本中各个句子的评分,通过损失函数计算当前模型在训练集上的误差,并利用随机梯度下降算法进行反向传播,更新XLNetSum模型的参数;通过验证集上的损失判断模型训练是否完成,并选取验证集损失最低的模型作为输出模型;
(4)将经由步骤(1)处理后的测试集文本输入训练完成的XLNetSum模型,得到文本中句子的评分,基于评分进行后处理,选择最为重要的若干句子作为摘要。
作为优选,所述步骤(1)中将句子切分为词序列时,首先统计模型词表中的所有词语,并为其构建前缀树;将每一个句子从首个字符开始,与前缀树进行最大长度匹配,通过贪心算法将句子切分为词语序列,作为模型的输入。
作为优选,所述步骤(2)中全局位置编码信息的计算方式为:
Figure GDA0004109032850000031
其中pos∈[0,L),是词语所处的位置,L是文本序列的总词语数,Q是大于L的常数,M是动态词向量的维度,Upos∈RM,维度与XLNet的动态词向量输出一致,Upos,r是Upos向量的第r项。
作为优选,所述步骤(3)中的损失函数基于标准交叉熵设计,计算方法为:
Figure GDA0004109032850000032
其中N为当前样本的语句总数,Labi和Outi分别为第i句话的标签和预测值。
作为优选,所述步骤(4)中在进行后处理时利用3-gram排除信息冗余的句子,并为每个文本选择最多3个句子作为摘要。
基于相同的发明构思,本发明所述的一种基于XLNet的自动摘要装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被加载至处理器时实现所述的基于XLNet的自动摘要方法。
基于相同的发明构思,本发明提供一种存储装置,存储有可在处理器上运行的计算机程序,所述计算机程序被加载至处理器时实现所述的基于XLNet的自动摘要方法。
有益效果:与现有技术相比,本发明具体有如下优点:
(1)基于神经语言模型XLNet,能够在极大程度上获取文本中词语、句法结构等语义信息,缓解了传统模型语义提取不足的缺点,有效地提高了模型对文本的理解能力。
(2)通过易于扩展的相对位置编码技术,XLNetSum模型受文本长度上限影响较小,能够灵活地处理超长文本的输入,为其抽取准确的摘要语句。
(3)标准XLNet忽略了语句在文本中的绝对位置信息,也就忽视了总起句、总结句等特殊位置的语句与普通语句的不同。XLNetSum模型引入绝对位置编码技术,缓解了这一问题。
附图说明
图1为本发明实施例中XLNetSum模型的结构图。
图2为本发明实施例中生成文档摘要的流程图。
图3为测试集中的一篇文章样例图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
在本实施例中,采用CNN/DailyMail数据集对本方法进行说明。该数据集是文本摘要领域数据量最大、应用最广的数据集,包括来自CNN的92579篇新闻和来自DailyMail的219506篇新闻,每篇新闻都附有对应的人工摘要语句。按照数据集推荐的划分方法,将其分为训练集、验证集和测试集(分别各287227、13368、11490篇文章),每个数据集的文本均预先通过贪心算法由人工摘要语句得到摘要标签。以下为本发明实施例公开的一种基于XLNet的自动摘要方法,具体实施步骤:
步骤1,数据预处理。对于数据集中的一篇文本,首先将其切分为不同的句子。句号、问号、感叹号、省略号、英文句点或换行符等字符均可视为一句话的结束,每个单独的句子将作为模型中的最小评分单元,以及摘要的最小组成单元。在本数据集中,每篇文本的句子间均以换行符分割。然后利用标准XLNet词表构建前缀树,以贪心算法对切分后的每一句话进行分词并将词语转化为对应的id,使其符合模型的输入要求,并在每句话前增添[sep]占位符的id,指明不同句子的界限。最后,考虑到此数据集中文章普遍较长,本实施例将设定模型输入最大长度为2048,对于超出长度的序列,直接截断后续词语,对于长度不足的序列,以0补齐。对于训练集和验证集,还要将其摘要标签转化为向量表示,便于模型计算损失。向量标签形如
Lab=[Lab1,Lab2,Lab3,...]
其中Lab∈RN,N是文本词语序列的句子数。Labi与词语序列中的每一个[sep]占位符对应,当对应语句属于摘要句时,Labi=1;否则Labi=0。
步骤2,构建XLNetSum模型。如图1所示,模型每次输入一个文本序列,最终得到文本中各个句子的评估结果(Out)。具体而言,该步骤的实施分为以下子步骤:
子步骤2-1,构建输入层,将输入的词语序列转化为词嵌入向量与句序号。其中词嵌入由文本的词语id转化而来,以固定的词向量表示文本序列中的每一个词语,可通过查表的方法获得。句序号与文本的句子相对应,属于相同句子的词语共享相同的句序号,以向模型指明不同句子的区别。词嵌入向量与句序号是标准XLNet的输入。
子步骤2-2,构建XLNet模型。标准XLNet是一个由多层Transformer-XL叠加而来的模型,可以从输入的词嵌入向量与句序号中获取文本的深层语义信息,并为文本中的每一个词语生成上下文相关的动态词向量。
子步骤2-3,构建全局位置编码信息层。标准XLNet中忽略了词语和句子在全文的位置,此设计对摘要抽取任务不利。因此需要重新构建全局位置编码信息,此处利用三角函数的周期性给出位置信息:
Figure GDA0004109032850000051
其中pos∈[0,L)是词语所处的位置,L是文本序列的总词语数。Q是一个远大于L的常数,本实施例中可取10000或以上整数。Upos,r是Upos向量的第r项,r∈[0,M),与动态词向量的维度M匹配。将每个句子中[sep]占位符对应的动态词向量和全局位置编码拼接,其中词向量在前,位置编码在后,形如
Epos=concat(Cpos,Upos)
其中Epos∈R2M是pos位置的拼接向量,Cpos∈RM与Upos∈RM分别是该位置的XLNet动态词向量输出与绝对位置编码。
子步骤2-4,构建输出层,将句子的特征向量转化为归一化的输出,表示对应的句子属于摘要内容的概率。具体而言,首先将特征向量由全连接层转化为标量,然后利用sigmoid函数归一化为概率。
步骤3,模型训练,通过训练集和验证集数据得到可用的XLNetSum模型。在在训练前,先从经过预训练的标准XLNet中加载对应神经网络层的参数,不属于XLNet的其余层则采用随机初始化的方法获取参数。在训练时,每批次中向XLNetSum模型提供训练集中的2个样本,得到样本中各个句子的输出Out,通过损失函数评价Out与数据集提供的标签Lab的差异,并求得损失函数对各个参数的梯度,利用基于随机梯度下降法的Adam优化器对模型参数进行更新。每隔5000个批次保存一次模型,并在验证集上计算模型的损失,直至验证集的损失不再下降为止,并以验证集损失最小的模型作为最终的模型。损失函数的计算方法为:
Figure GDA0004109032850000061
步骤4,模型预测,为测试集文本抽取摘要语句。如图2所示,首先将测试集的文本按步骤1所述切分;然后输入XLNetSum模型,得到每个句子属于摘要的概率评分,最后基于评分进行后处理,选择最为重要的若干句子作为摘要。本实施例中,在进行后处理时利用3-gram排除信息冗余的句子,并为每个文本选择最多3个句子作为摘要。具体而言,首先将所有句子按评分由大到小排列;然后逐个将评分最大的句子加入到摘要中,并在当前句与已选摘要有3-gram重复是跳过该句;最后在选够三句或处理完所有句子时停止挑选。所谓3-gram是指在文中连续出现的3个字(中文)或者3个单词(英语),表1给出了关于N-gram的两个具体的示例。
表1 N-gram示例
Figure GDA0004109032850000071
图3为测试集中的一篇文章样例,斜体部分为模型选择的摘要语句,加粗部分为数据集标签给出的摘要语句。可以看出二者完全吻合。
为进一步说明本发明所提方案的优秀性能,表2以Rouge-1、Rouge-2、Rouge-L的F1值为评价指标,列出了本发明所提方法与传统模型的结果对比。其中Rouge-1与Rouge-2是Rouge-N指标在N=2时的特例,计算方法为
Figure GDA0004109032850000072
Figure GDA0004109032850000073
Figure GDA0004109032850000074
其中X、S分别是抽取的摘要和数据集给出的人工摘要,Ngram是语句中长度为N的连续短语,countmatch(Ngram)指抽取结果与标准摘要中Ngram匹配的个数,count(Ngram)指摘要中Ngram的总个数。Rouge-L的计算方法为
Recall=LCS(S,X)/s
PreciSion=LCS(S,X)/x
Figure GDA0004109032850000075
LCS是两个句子间最长公共子序列的长度,s为标准摘要S的长度,x为抽取摘要X的长度,Recall是召回率,Precision是精确率。
Rouge-1与Rouge-2分别重点关注字和短语级别的信息复现,而Rouge-L则基于最大公共子序列,着重考虑整个摘要的完整性。采用F1而非单纯的精确率与召回率,则可以同时兼顾模型输出结果的准确性和完整性。
表2对比实验的结果
Figure GDA0004109032850000081
由表中结果可以看出,本发明所提方法在各项指标上均优于传统方法。
基于相同的发明构思,本发明实施例公开的基于XLNet的自动摘要装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,该计算机程序被加载至处理器时实现上述的基于XLNet的自动摘要方法。
基于相同的发明构思,本发明实施例公开的一种存储装置,存储有可在处理器上运行的计算机程序,该计算机程序被加载至处理器时实现所述的基于XLNet的自动摘要方法。

Claims (7)

1.一种基于XLNet的自动摘要方法,其特征在于,包括如下步骤:
(1)将文本按句进行切分,将句子按词进行切分,在每个句子前增添显示的用于明确句子界限的占位符;每个单独的句子将作为模型中的最小评分单元,以及摘要的最小组成单元;
(2)构建基于XLNet模型的XLNetSum模型,包括输入层、多层Transformer-XL、全局位置编码信息层和输出层;其中输入层将输入的词语序列转化为词嵌入向量与句序号;多层Transformer-XL用于从输入的词嵌入向量与句序号中获取文本的语义信息,为文本中的每一个词语生成上下文相关的动态词向量;全局位置编码信息层用于利用三角函数的周期性给出位置信息,并将每个句子中用于明确句子界限的占位符对应的动态词向量和全局位置编码拼接作为句子的特征向量;输出层将句子的特征向量转化为归一化的输出,表示对应的句子属于摘要内容的概率;
(3)将经步骤(1)处理后的训练集文本输入XLNetSum模型,得到模型对文本中各个句子的评分,通过损失函数计算当前模型在训练集上的误差,并利用随机梯度下降算法进行反向传播,更新XLNetSum模型的参数;通过验证集上的损失判断模型训练是否完成,并选取验证集损失最低的模型作为输出模型;
(4)将经由步骤(1)处理后的测试集文本输入训练完成的XLNetSum模型,得到文本中句子的评分,基于评分进行后处理,选择最为重要的若干句子作为摘要。
2.根据权利要求1所述的基于XLNet的自动摘要方法,其特征在于,所述步骤(1)中将句子切分为词序列时,首先统计模型词表中的所有词语,并为其构建前缀树;将每一个句子从首个字符开始,与前缀树进行最大长度匹配,通过贪心算法将句子切分为词语序列,作为模型的输入。
3.根据权利要求1所述的基于XLNet的自动摘要方法,其特征在于,所述步骤(2)中全局位置编码信息的计算方式为:
Figure FDA0002520238640000011
其中pos∈[0,L),是词语所处的位置,L是文本序列的总词语数,Q是大于L的常数,M是动态词向量的维度,Upos∈RM,维度与XLNet的动态词向量输出一致,Upos,r是Upos向量的第r项。
4.根据权利要求1所述的基于XLNet的自动摘要方法,其特征在于,所述步骤(3)中的损失函数基于标准交叉熵设计,计算方法为:
Figure FDA0002520238640000021
其中N为当前样本的语句总数,Labi和Outi分别为第i句话的标签和预测值。
5.根据权利要求1所述的基于XLNet的自动摘要方法,其特征在于,所述步骤(4)中在进行后处理时利用3-gram排除信息冗余的句子,并为每个文本选择最多3个句子作为摘要。
6.一种基于XLNet的自动摘要装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述计算机程序被加载至处理器时实现根据权利要求1-5任一项所述的基于XLNet的自动摘要方法。
7.一种存储装置,存储有可在处理器上运行的计算机程序,其特征在于,所述计算机程序被加载至处理器时实现根据权利要求1-5任一项所述的基于XLNet的自动摘要方法。
CN202010488757.5A 2020-06-02 2020-06-02 一种基于XLNet的自动摘要方法与装置 Active CN111666764B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010488757.5A CN111666764B (zh) 2020-06-02 2020-06-02 一种基于XLNet的自动摘要方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010488757.5A CN111666764B (zh) 2020-06-02 2020-06-02 一种基于XLNet的自动摘要方法与装置

Publications (2)

Publication Number Publication Date
CN111666764A CN111666764A (zh) 2020-09-15
CN111666764B true CN111666764B (zh) 2023-07-04

Family

ID=72385457

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010488757.5A Active CN111666764B (zh) 2020-06-02 2020-06-02 一种基于XLNet的自动摘要方法与装置

Country Status (1)

Country Link
CN (1) CN111666764B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112241631A (zh) * 2020-10-23 2021-01-19 平安科技(深圳)有限公司 文本语义识别方法、装置、电子设备及存储介质
CN112464657B (zh) * 2020-12-07 2022-07-08 上海交通大学 混合式文本摘要生成方法、系统、终端及存储介质
CN113051910B (zh) * 2021-03-19 2023-05-26 上海森宇文化传媒股份有限公司 一种用于预测人物角色情绪的方法和装置
CN113204956B (zh) * 2021-07-06 2021-10-08 深圳市北科瑞声科技股份有限公司 多模型训练方法、摘要分段方法、文本分段方法及装置
CN113626564B (zh) * 2021-10-09 2021-12-17 腾讯科技(深圳)有限公司 一种概念标签生成方法、装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871464A (zh) * 2019-01-17 2019-06-11 东南大学 一种基于ucl语义标引的视频推荐方法与装置
CN110909179A (zh) * 2019-11-29 2020-03-24 苏州思必驰信息科技有限公司 文本生成模型的优化方法及系统
CN111061861A (zh) * 2019-12-12 2020-04-24 西安艾尔洛曼数字科技有限公司 一种基于XLNet的文本摘要自动生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871464A (zh) * 2019-01-17 2019-06-11 东南大学 一种基于ucl语义标引的视频推荐方法与装置
CN110909179A (zh) * 2019-11-29 2020-03-24 苏州思必驰信息科技有限公司 文本生成模型的优化方法及系统
CN111061861A (zh) * 2019-12-12 2020-04-24 西安艾尔洛曼数字科技有限公司 一种基于XLNet的文本摘要自动生成方法

Also Published As

Publication number Publication date
CN111666764A (zh) 2020-09-15

Similar Documents

Publication Publication Date Title
CN111666764B (zh) 一种基于XLNet的自动摘要方法与装置
CN107315737B (zh) 一种语义逻辑处理方法及系统
CN108304372B (zh) 实体提取方法和装置、计算机设备和存储介质
US20080052262A1 (en) Method for personalized named entity recognition
CN113761890B (zh) 一种基于bert上下文感知的多层级语义信息检索方法
CN115759119B (zh) 一种金融文本情感分析方法、系统、介质和设备
CN116628186B (zh) 文本摘要生成方法及系统
CN111966810A (zh) 一种用于问答系统的问答对排序方法
CN113821593A (zh) 一种语料处理的方法、相关装置及设备
CN117093729A (zh) 一种基于医疗科研信息的检索方法、系统及检索终端
CN112447172B (zh) 一种语音识别文本的质量提升方法和装置
CN114064901B (zh) 一种基于知识图谱词义消歧的书评文本分类方法
CN113407711B (zh) 一种利用预训练模型的吉布斯受限文本摘要生成方法
CN112765977B (zh) 一种基于跨语言数据增强的分词方法及装置
CN116628173B (zh) 一种基于关键字提取的智能客服信息生成系统及生成方法
CN112597768B (zh) 文本审核方法、装置、电子设备、存储介质及程序产品
CN116089601A (zh) 对话摘要生成方法、装置、设备及介质
CN113486160B (zh) 基于跨语言知识的对话方法及系统
CN114154496A (zh) 基于深度学习bert模型的煤监类案对比方法及装置
CN114328894A (zh) 文档处理方法、装置、电子设备及介质
CN109960720B (zh) 针对半结构化文本的信息抽取方法
CN114692610A (zh) 关键词确定方法及装置
CN112541062A (zh) 平行语料对齐方法、装置、存储介质及电子设备
Qu English-Chinese name transliteration by latent analogy
CN116186211B (zh) 一种文本攻击性检测和转换的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant