CN110390009A - 生成文本内容的基于主题的概要 - Google Patents
生成文本内容的基于主题的概要 Download PDFInfo
- Publication number
- CN110390009A CN110390009A CN201910045134.8A CN201910045134A CN110390009A CN 110390009 A CN110390009 A CN 110390009A CN 201910045134 A CN201910045134 A CN 201910045134A CN 110390009 A CN110390009 A CN 110390009A
- Authority
- CN
- China
- Prior art keywords
- theme
- word
- text
- document
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 claims abstract description 70
- 238000010801 machine learning Methods 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims description 49
- 230000015654 memory Effects 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000012986 modification Methods 0.000 claims 2
- 230000004048 modification Effects 0.000 claims 2
- 230000032696 parturition Effects 0.000 claims 1
- 239000002609 medium Substances 0.000 description 26
- 230000006870 function Effects 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000012120 mounting media Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
词语生成模型获得文本内容和所请求的感兴趣主题,并生成被调整到感兴趣主题的文本内容的目标概要。为此,主题感知编码模型使用与感兴趣主题相对应的主题标签对文本内容进行编码,以生成主题感知编码文本。词语生成模型从主题感知编码文本中为基于主题的概要选择下一个词语。使用对训练数据的机器学习来训练词语生成模型以生成基于主题的概要,该训练数据包括多个文档、每个文档的相应概要、以及每个概要的相应主题。将所选择的下一个词语的反馈提供给词语生成模型。反馈使得词语生成模型基于下一个所选择的词语的反馈来为基于主题的概要选择后续词语。
Description
背景技术
通过提供可由用户快速阅读的文本内容(例如文档或文章)的概述,可以使用文本内容的自动概要来为最终用户节省时间。常规的提取概要技术从输入文本内容中提取关键短语,并且然后选择这些短语的子集以放置在概要中。然而,由这些传统的概要技术生成的概要通常不像人类那样。此外,当期望概要的长度很小时,这种提取方法不变得不足,因为这要求用于简洁地“改写”输入内容以最大化在概要中传达的信息而不是选择最“信息性”的句子的方式。
神经网络的最新进展已经导致递归神经网络的使用以通过改写文档来生成概要。然而,这些算法仅允许单个概要的生成。虽然概要应当包含文档中信息的必要部分,但被特征化为“必要”的内容因人而异。此外,许多文档包括与多于一个感兴趣主题有关的主题,诸如政治和商业。对于一些读者来说,商业可能是主要的兴趣领域,而另一些人可能对政治更感兴趣。在这种场景中,单个概要可能不适合所有读者的主题偏好。
发明内容
为了克服这些问题,在数字媒体环境中生成被调整到感兴趣主题的文本内容的基于主题的概要。词语生成模型获得文本内容和所请求的感兴趣主题,并生成被调整到感兴趣主题的文本内容的目标概要。为此,主题感知编码模型使用与感兴趣主题相对应的主题标签对文本内容进行编码,以生成主题感知编码文本。词语生成模型从主题感知编码文本中为基于主题的概要选择下一个词语。使用对训练数据的机器学习来训练词语生成模型以生成基于主题的概要,所述训练数据包括多个文档、每个文档的相应概要、以及每个概要的相应主题。将所选择的下一个词语的反馈提供给词语生成模型。反馈使得词语生成模型基于下一个选择的词语的反馈来为基于主题的概要选择后续词语。
本发明内容以简化的形式介绍了一些概念,这些概念将在下面的具体实施方式中进一步描述。因此,本发明内容不旨在标识所要求保护的主题的必要特征,也不旨在用于辅助确定所要求保护的主题的范围。
附图说明
参考附图描述了具体实施方式。
图1是示例实现中的数字媒体环境的图示,其可操作用于采用生成本文描述的文本内容的基于主题的概要的技术。
图2描绘了示例实现中的系统,其中主题向量是从文本内容的语料库中学习的。
图3示出了一种系统,其中通过将主题向量应用于包括具有对应概要的文档的文本内容的语料库来生成中间数据集合。
图4示出了人工生成训练数据的系统。
图5描绘了示例实现中的系统,其中图1的词语生成模型和主题感知编码模型生成调整到感兴趣主题的文本内容的基于主题的概要。
图6示出了根据一个或多个实现的被配置为神经编码器时的词语生成模型的示例。
图7描绘了人工生成训练数据以使用机器学习来训练主题感知编码模型和词语生成模型的示例过程。
图8描绘了使用主题感知编码模型和词语生成模型来生成文本内容的基于主题的概要的示例过程。
图9示出了包括示例计算设备的示例系统,该示例计算设备代表可以实现本文描述的各种技术的一个或多个计算系统和/或设备。
具体实施方式
概述
本文描述了用于在数字媒体环境中生成文本内容的基于主题的概要的技术。基于主题的概要模块利用具有主题感知编码模型的词语生成模型来生成文本内容的概要,其被调整到所请求的感兴趣主题。词语生成模型可以对应于机器学习或基于规则的概要模型(例如神经网络),其利用提取和/或抽象概要技术来生成文本内容的基于主题的概要。使用关于人工生成的训练数据的机器学习技术来训练词语生成模型和主题感知编码模型,以生成基于主题的概要。值得注意的是,词语生成模型和主题感知编码模型可用于生成针对单个文档的调整到感兴趣的不同请求主题的不同概要。因此,所描述的技术可以将概要生成调整到不同的兴趣主题以适应不同读者的主题偏好。
使用对训练数据的机器学习来训练主题感知编码模型和词语生成模型以生成调整到感兴趣主题的基于主题的概要,该训练数据包括多个数据集合,每个数据集合包括文档、文档的相应概要(例如人工生成的概要)、以及概要的相应主题。然而,概要模型需要大量的文本内容训练语料库来训练模型,并且难以找到包括标记有主题的文档和概要的大型文本内容数据集合。因此,在一个或多个实现中,所描述的技术人工地生成可用于训练主题感知编码模型和词语生成模型的训练数据。
为了人工生成训练数据,使用监督词语频率方案来从文档语料库中学习主题的特征(例如主题向量),其中每个文档用主题标记。然后应用所学习的主题特征来修改大的未标记的文档语料库和人类生成的概要。为此,将学习的特征应用于每个概要以确定每个概要的感兴趣主题。然后将所有所选择的文档及其相应的概要和确定的主题聚合到中间数据集合中。
最后,通过从中间数据集合随机选择具有相应的第一概要和第一主题的第一文档以及具有相应的第二概要和第二主题的第二文档来人工生成训练数据。然后将第一文档与第二文档合并以生成第一新文档,然后将其与训练数据中的第一概要和第一主题相关联。类似地,第二文档与第一文档合并以生成第二新文档,然后该第二新文档与训练数据中的第二概要和第二主题相关联。然后丢弃第一文档和第二文档,并重复这些步骤,直到中间数据集合中的所有文档都耗尽为止。然后,人工生成的训练数据用于训练词语生成模型和主题感知编码模型,以使用机器学习来生成基于主题的概要。
基于主题的概要模块使用经训练的主题感知编码模型和词语生成模型来生成基于主题的概要。为此,基于主题的概要模块接收用于生成调整到感兴趣主题的文本内容的基于主题的概要的请求。输入的文本内容的文本被提供给主题感知编码模型,主题感知编码模型基于所请求的请求的感兴趣主题,逐词语地将文本内容编码成主题感知的编码文本。因此,基于所请求的针对概要的感兴趣主题,文本内容的输入文本被不同地编码。为了基于感兴趣主题对文本内容进行编码,主题感知编码模型基于所请求的感兴趣主题来选择主题标签或主题向量(例如单热向量),并且然后将文本内容的每个词语映射到嵌入,并且将表示请求的感兴趣主题的所选择的主题向量附加到每个词语。然后将该整体级联向量传递通过主题感知编码模型的神经网络,该主题感知编码模型在每一步输出编码,从而导致一系列主题感知编码。
然后将文本内容的完全编码的文本提供给词语生成模型。词语生成模型的解码器通过处理基于主题的文本内容的编码来生成基于主题的概要。由于词语生成模型的解码器使用这些编码来生成概要,因此生成的概要进而依赖于所请求的感兴趣主题。为了生成基于主题的概要,词语生成模型生成文本内容中词语的关注分布。对于每个词语,关注分布指示选择概率值,该选择概率值指示对应词语被选择作为基于主题的概要的下一个生成词语的概率。用感兴趣主题编码文本内容鼓励通过训练来学习的感兴趣主题的最优选词语的选择。
词语生成模型基于输入的文本内容中的词语以及已经由词语生成模型生成的基于主题的概要的词语来确定选择概率值。所描述的技术在基于主题的概要的生成期间使用主题感知编码模型将由词语生成模型生成的词语调整为感兴趣主题。在使用词语生成模型和主题感知编码模型来生成每个词语之后,将关于所生成的词语的反馈提供回词语生成模型。词语生成模型可以使用反馈来调整概要的后续词语生成。值得注意的是,由于在生成概要期间利用感兴趣主题对输入的文本内容进行编码,因此基于利用感兴趣主题编码的输入文本和已生成的概要的词语两者来生成概要。这样,使用所描述的技术生成的概要生成被调整到所请求的感兴趣主题的文本内容的概要。
因此,所描述的技术利用概要算法来增强读者的阅读体验和文档消费。有鉴于此,这种主题调整的概要算法可以辅助提供更长文档的读者特定概要。由于遇到的文档的大小通常很大,因此文档中可能存在多个主题,并且这种方案可以帮助基于读者的主题兴趣来生成具有特定信息的概要。
在以下讨论中,首先描述可以采用本文描述的技术的示例环境。然后描述示例实现细节和过程,其可以在示例环境以及其他环境中执行。因此,示例过程的执行不限于示例环境,并且示例环境不限于示例过程的执行。
示例环境
图1是示例实现中的数字媒体环境100的图示,该数字媒体环境100可操作用于采用生成本文描述的文本内容的基于主题的概要的技术。所示环境100包括经由网络106通信地耦合的服务提供商系统102和客户端设备104。实现服务提供商系统102和客户端设备104的计算设备可以以各种方式配置。
例如计算设备可以被配置为台式计算机、膝上型计算机、移动设备(例如假设诸如平板计算机或移动电话的手持配置)等。因此,计算设备可以从具有大量存储器和处理器资源的全资源设备(例如个人计算机、游戏控制台)到具有有限存储器和/或处理资源的低资源设备(例如移动设备)的范围变化。另外,计算设备可以代表多个不同的设备,诸如企业用于“在云上”执行操作的多个服务器,如图9中所描述的。
客户端设备104被示为包括通信模块108,通信模块108代表经由网络106例如使用浏览器、支持网络的应用、操作系统等与服务提供商系统102进行通信的功能。例如通信模块108可以形成用于调整到感兴趣主题114的文本内容112的概要的请求110。如本文所述,文本内容112可以包括任意类型的文本内容,诸如文章、文字处理文档、网页上的文本、PDF等。如本文所述,感兴趣主题114可以包括任意类型的主题或类别,诸如商业、政治、体育、社交、军事、技术、教育、健康等。
可以经由网络106将请求110传送到服务提供商系统102。响应于请求110,服务提供商系统102生成并返回被调整到感兴趣主题114的输入文本内容112的基于主题的概要116。如本文所述,基于主题的概要116对应于输入文本内容112的简短简洁版本,其被调整到所请求的感兴趣主题114。尽管被示为远离客户端设备104实现,但是图示的服务提供商系统102的功能也可以全部或部分本地地在客户端设备104处实现。例如基于主题的概要模块118可以被实现为在从其接收到请求110的客户端设备104处本地地生成基于主题的概要116。
为了生成基于主题的概要116,服务提供者系统102采用基于主题的概要模块118,基于主题的概要模块118被配置为生成基于主题的概要116,基于主题的概要116被调整到所请求的感兴趣主题114。基于主题的概要模块118利用被配置为生成文本内容的概要的词语生成模型120,以及被训练为用所请求的感兴趣主题114对输入的文本内容112进行编码的主题感知编码模型122。词语生成模型120可以对应于可以生成文本内容概要的任意类型的词语生成模型或算法。在一些情况下,使用机器学习(例如神经网络)来训练词语生成模型120以生成文本内容的概要。例如词语生成模型120可以被实现为提取概要算法、抽象概要算法、序列到神经编码器的序列等。
服务提供商系统进一步示出为包括训练模块124,训练模块124生成包含形式(d,t,s)的多个实例的人工生成的训练数据126(“训练数据126”),其中d是输入的文档或文章,t是概要的期望主题,并且s是要生成的理想概要。然后,训练模块124使用人工生成的训练数据126来使用机器学习技术来训练主题感知编码模型122和词语生成模型120。
在一个或多个实现中,词语生成模型120使用“逐词语”概要过程来生成基于主题的概要116的词语。为了生成基于主题的概要116的每个“下一个词语”,词语生成模型120基于文本内容112的输入文本和已经生成的目标概要的文本的组合来计算概率分布。在生成基于主题的概要116的每个词语之后,词语生成模型120接收关于所生成的词语的反馈。该反馈由词语生成模型用于生成基于主题的概要116的后续词语。与现有词语生成技术不同,词语生成模型120基于输入文本内容112的上下文以及到目前为止已经生成的概要的词语两者来生成用于目标概要的词语。为了使基于主题的概要116被调整到感兴趣主题114,由词语生成模型120采用的逐词语生成过程由主题感知编码模型122约束,主题感知编码模型122用主题向量对输入的文本内容112进行编码。
可以实现基于主题的概要模块118以针对各种不同的用例提供基于主题的概要116。在一些实例中,基于主题的概要模块118可以由文本内容112的内容作者(例如文章、论文或书籍的内容作者)使用,以快速且自动地生成其文本内容112的概要。基于主题的概要模块118使内容作者能够将概要调整到不同的主题,这可以使作者能够将概要调整到多个不同的目标受众。例如内容作者可能希望基于频繁使用这些平台的不同受众在不同平台处提供不同的概要。在其他示例中,基于主题的概要模块118可以由文本内容的客户或最终消费者使用。在此上下文中,基于主题的概要模块118可以辅助提供较长文章或论文的、可以通过移动通知或在可穿戴设备上容易地消费的消费者特定概要。在这种情况下,可以实现基于主题的概要模块118以将概要调整到所请求的消费者感兴趣主题。
通常,可以在本节中描述的示例过程的上下文中采用关于以上和以下示例描述的功能、特征和概念。此外,关于本文档中的不同附图和示例描述的功能、特征和概念可以彼此互换,并且不限于在特定附图或过程的上下文中的实现。此外,与本文中的不同代表性过程和对应附图相关联的框可以一起应用和/或以不同方式组合。因此,关于本文中的不同示例环境、设备、组件、附图和过程描述的单独功能、特征和概念可以以任意合适的组合使用,并且不限于由本说明书中列举的示例所表示的特定组合。
图2描绘了示例实现中的系统200,其中从文本内容的语料库中学习主题向量。
训练模块124首先使用基于监督的基于词语频率的方案来学习主题的特征。在系统200中,训练模块124包括分组模块202,分组模块202接收文本内容204的语料库,其包括用主题标签208标记的文档206,主题标签208标识每个相应文档206的主题。例如主题标签208可以标识每个文档的主题,诸如“政治”、“体育”、“教育”等。
分组模块202基于主题标签208将文本内容204的语料库的每个文档206分组为基于主题的组210,使得具有主题“t”的每个文档206被包括在由集合St代表的基于主题的组210中。
频率模块212确定每个基于主题的组210中的词语的词语频率214(“n”)。词语频率214对应于基于主题的组210的文档206中的给定词语的出现次数。向量生成模块216获得主题组210和词语频率214,并为每个主题t生成主题向量218(et=(n1,n2...,nv)),其中v=\V\是在给定主题组210中的词语{w1,w2,...,wv}的词汇表V的大小,并且nt是在主题组St中出现词语wt的频率(例如次数)。在某些情况下,向量et被标准化。
图3示出了系统300,其中通过将主题向量应用于包括具有对应概要的文档的文本内容的语料库来生成中间数据集合。在系统300中,训练模块124被示为包括主题识别器302,主题识别器302被配置为生成中间数据集合304。为此,主题识别器302接收文本内容306的语料库,其包括具有对应的人类生成的概要310的文档308作为(文档,概要)对的集合。主题识别器302通过确定每个概要310的主题312来修改文本内容306的语料库以生成中间数据集合304。
为了确定概要310的主题312,主题识别器302将主题向量218应用于每个相应的概要310。例如主题识别器302计算摘要310(在其词袋表示中)与先前提取的主题向量218之间的点积。在这种情况下,<vs,etl>指示概要310和主题1的主题向量218之间的点积。主题识别器302然后选择具有最高计算点积的主题作为针对相应概要310的确定主题312。
可以基于最高计算点积与第二高点积的比较来确定所选择的主题312的置信度。例如如果<vs,eti>具有最高的点积值,并且<vs,etj>在点积的集合中具有第二高的点积值,然后将概要310分配给主题312(ti),具有由<vs,eti>/<vs,etj>给出的置信度。在一些情况下,如果置信度低于阈值,则从中间数据集合304中丢弃文档和相应概要。例如如果置信度小于给定置信度阈值(例如1.2),则这指示概要不具有兴趣的主导主题,并且因此从中间数据集合304中丢弃文档。这样做使得训练模块124能够生成中间数据集合304以仅包括在文本中具有确定主题312主导的那些概要用于训练。然后,训练模块124将所有所选择的文档及其相应概要310和确定的主题312聚合成用于中间数据集合304的三元组<文档,主题,概要>。
图4示出了其中训练数据是人为地生成的系统400。在系统400中,训练模块124获得中间数据集合304,并生成人工生成的训练数据126。为此,训练模块124的合并模块402从中间数据集304中随机选择具有第一主题408的第一文档404和对应的第一概要406,以及具有第二主题414的第二摘要412的第二文档410,其中第一主题408和第二主题414是不同的。
接下来,合并模块402通过合并来自第一文档404和第二文档410两者的文本来生成第一新文档416。在一个或多个实现中,合并模块402通过从第一文档404和第二文档410顺序地拾取文本行来生成第一新文档416。在一些情况下,通过随机选择第一文档404或第二文档410中的一个来提取新行来完成每个新行的添加。这样做确保来自第一文档404或第二文档410的文本行在第一新文档416中以与它们在每个相应原始文档中相同的顺序发生。在生成第一新文档416之后,将其与第一概要406和第一主题408分组,然后添加到人工生成的训练数据126。
接下来,合并模块402重复这些步骤以生成要与第二概要412和第二主题414一起被分组的第二新文档418。例如合并模块402通过合并来自第二文档410和第一文档404的文本来生成第二新文档418。在一个或多个实现中,合并模块402通过从第二文档410和第一文档404顺序地拾取文本行来生成第二新文档418。在一些情况下,通过随机选择第二文档410或第一文档404中的一个来提取新行来完成每个新行的添加。这样做确保来自第二文档410和第一文档404的文本行在第二新文档418中以与它们在每个相应原始文档中相同的顺序发生。在生成第二新文档418之后,其与第二概要412和第二主题414一起被分组,然后被添加到人工生成的训练数据126。
在一些情况下,训练模块124然后从中间数据集合304丢弃第一文档404、第一概要406、和第一主题408以及第二文档410、第二概要412、和第二主题414。这些步骤然后重复,直到中间数据集合304耗尽为止。然后,人工生成的训练数据126用于训练词语生成模型120和主题感知编码模型122,以使用机器学习来生成基于主题的概要116。
图5描绘了示例实现中的系统500,其中图1的词语生成模型120和主题感知编码模型122生成被调整到感兴趣主题114的文本内容112的基于主题的概要116。
在系统500中,基于主题的概要模块118接收用于生成被调整到感兴趣主题114的文本内容112的基于主题的概要116的请求110。在一些情况下,该请求可以从文本内容112的内容作者接收,诸如文章、书籍的作者等。替代地,可以从文本内容112的消费者接收请求,以便生成文本内容的概要。如全文所述,请求110可以包括文本内容112以及感兴趣主题114的指示。
基于主题的概要模块118将输入的文本内容112的文本提供给主题感知编码模型122。主题感知编码模型122通过基于请求110的感兴趣主题114将文本内容112逐词语编码成主题感知编码的序列来生成主题感知编码的文本502。换句话说,文本内容112的输入文本基于针对概要的期望的感兴趣主题114被不同地编码。为了基于感兴趣主题114来对文本内容112进行编码,主题感知编码模型基于所请求的感兴趣主题114来选择主题向量218(例如单热向量),然后将文本内容112的每个词语映射到嵌入,并且表示请求的感兴趣主题114的所选择的主题向量218被附加到每个词语。然后将该整体级联向量传递通过主题感知编码模型122的神经网络,其在每个步骤输出编码,导致一系列基于主题的编码。如上所述,主题向量218指示从基于监督词语频率的方案所学习的感兴趣主题的词语偏好。
然后,将文本内容112的主题感知编码文本502提供给词语生成模型120。词语生成模型120的关注解码器504接收文本内容112的主题感知编码文本502作为输入,并且生成在文本内容112中的词语508的关注分布506。关注分布506对于每个词语508指示选择概率值510。选择概率值510指示对应词语508被选择为用于基于主题的概要116的下一个生成词语的概率。关注解码器504基于输入的文本内容112中的词语以及已经由词语生成模型120生成的基于主题的概要116的词语来确定选择概率值510。
词语生成模型120进一步示出为包括选择模块512,选择模块512被配置为基于关注分布506为基于主题的概要116选择下一个生成的词语514,其由词语生成模型120的关注解码器504生成。如上所述,对文本内容进行编码以生成主题感知编码文本增加了通过机器学习训练所学习的感兴趣主题114的优选词语的选择概率值。因此,对输入文本进行编码鼓励针对概要的感兴趣主题114的最优选词语的选择。
在选择模块512选择下一个生成的词语514之后,将生成的词语添加到基于主题的概要116。此外,反馈模块516将所生成的词语反馈518提供给关注解码器504,关注解码器504可以使用所生成的词语反馈518以选择基于主题的概要116的后续词语,从而保持基于主题的概要116的词语生成的一致性。
图6示出了根据一个或多个实现的当被配置为神经编码器时的词语生成模型120的示例600。
在示例600中,词语生成模型120被实现为神经编码器,神经编码器可以被实现为将词语序列映射到另一个词语序列。例如通过对英语句子及其法语翻译的大语料库进行训练,词语生成模型120可以学习输出输入句子的法语翻译。该概念可以应用于配置词语生成模型120以生成文本内容的概要。为了确保概要的下一个生成的词语不仅仅依赖于先前生成的词语,词语生成模型120可以使用长短期存储器(LSTM)架构。LSTM架构使用门控机制,该门控机制将信息保留在存储器中,或丢弃先前的信息。
在示例600中,基于LSTM的编码器接收输入文本内容112的词语嵌入向量(“wi”)作为输入,并计算编码器隐藏状态序列602(“hi”)。最终的隐藏状态被传递到解码器,解码器还计算解码器隐藏状态604(“st”)并在每个解码时间步骤处生成目标词语的词语嵌入(“yt”)。
如全文所讨论的,主题感知编码模块122接收输入文本内容112作为词语序列w1w2...wn,并将输入词语映射到嵌入序列exe2...en。如果有k个主题(t1,t2,...,tk),则每个主题由大小为k的单热向量表示,而ti表示为(0,0,..1,0,0...)(例如第i个位置被设置为1,其余被设置为0)。因此,如果输入文本内容112是w1w2...wn,并且所请求的概要116的感兴趣主题114是t,则文本内容112的词语被映射到序列(e1,t),(e2,t),......,(en,t)。值得注意的是,主题t的向量被附加到每个词语嵌入。然后将编码的文本被馈送到主题感知编码模型的基于LSTM的编码器,其计算编码器隐藏状态序列602(“hi”)。基于LSTM的编码器的最终隐藏状态也被传递到解码器,该解码器还计算隐藏状态604(“st”)并在每个解码时间步骤处生成目标词语的词语嵌入(“yt”)。
在生成基于主题的概要116的词语时,词语生成模型120将更多的注意力集中在输入文本内容112的某些部分而不是其他部分。例如在示例系统600中,词语生成模型120正在为输入文本内容112生成基于主题的概要116:“Germany emerges victorious in a2-0winagainst Argentina”。词语生成模型120可以通过更高地关注词语“victorious”和“win”来学习生成词语“beat”。为此,词语生成模型120使用以下算法来计算文本内容112中的所有词语上的关注分布504:
at=softmax(et)
在上面的关注分布算法中,使用机器学习技术在文本内容的语料库上训练v、Wh、Ws和batt。如上所述,关注分布504可以被认为是输入文本内容112中的、从训练语料库中学习的词语上的概率分布。作为编码器隐藏状态602的加权和的该上下文向量用于基于已经在定义的“上下文”窗口内生成的词语来确定要生成的概要的下一个词语。
为了再现输入文本内容112的事实片段,可以扩展词语生成模型120以包括概率项以决定是否如前所述生成词语或从输入文本内容112中拾取以复制事实细节。在解码器的每个阶段,计算概率Pgen,其指示是否从词汇表生成词语,或者使用关注分布504从源文本内容112复制。可以使用以下算法计算该概率:
在上面的算法中,基于文本的训练语料库来训练和bgen。然后可以使用Pgen来确定算法给出的词汇表中词语的关注分布504:
第二项允许词语生成模型120使用关注分布504从输入文本内容112中选择要复制的词语。给定当前词语和上下文时,P(w)产生正在生成下一词语的概率。
示例过程
本部分描述用于生成文本内容的基于主题的概要的示例过程。过程的各方面可以用硬件、固件或软件或其组合来实现。这些过程被示为框集合,其指定由一个或多个设备执行的操作,并且不一定限于所示的用于执行相应框的操作的命令。
图7描绘了人工生成训练数据以使用机器学习来训练主题感知编码模型和词语生成模型的示例过程700。
通过至少一个计算设备获得包括文档和每个文档的相应概要的文本内容的语料库(框702)。举例来说,训练模块124的主题识别器302接收文本内容306的语料库,其包括具有对应的人生成的概要310的文档308作为(文档,概要)对的集合。
通过将主题向量应用于每个相应的概要来确定每个相应概要的主题(框704)。举例来说,训练模块124首先使用基于监督的词语频率的方案来学习主题的特征。为此,频率模块212确定每个基于主题的组210中的词语的词语频率214。词语频率214对应于基于主题的组210的文档206中的给定词语的出现次数。向量生成模块216获得主题组210和词语频率214,并为每个主题生成主题向量218。
为了确定概要310的主题312,主题识别器302将主题向量218应用于每个相应的概要310。例如主题识别器302计算概要310(在其词袋表示中)与先前提取的主题向量218之间的点积。在这种情况下,<vs,et1>指示概要310和主题1的主题向量218之间的点积。主题识别器302选择具有最高计算的点积的主题作为相应概要310的确定主题312。
生成中间数据集合以包括文本内容的语料库的文档、每个文档的相应概要、以及每个概要的确定的主题(框706)。例如训练模块124将所有所选择的文档及其相应的概要310和确定的主题312聚合成中间数据集合304的三元组<文档,主题,概要>。
通过合并来自中间数据集合的第一文档和第二文档的文本以生成第一新文档,并将第一新文档与训练数据中的第一文档的概要和主题相关联,并且合并来自中间数据集合的第二文档和第一文档的文本来生成第二新文档,并将第二新文档与训练数据中的第二文档的概要和主题相关联来人工生成训练数据,(框708)。例如训练模块124的合并模块402通过合并来自第一文档404和第二文档410的文本来生成第一新文档416。在一个或多个实现中,合并模块402通过从第一文档404和第二文档410顺序拾取文本行来生成第一新文档416。在一些情况下,通过随机选择第一文档404或第二文档410中的一个来提取新行来完成每个新文本行的添加。这样做确保来自第一文档404或第二文档410的文本行在第一新文档416中以与其在每个相应原始文档中相同的顺序发生。在生成第一新文档416之后,其与第一概要406和第一主题408一起被分组,然后被添加到人工生成的训练数据126。
接下来,合并模块402重复这些步骤以生成要与第二概要412和第二主题414一起被分组的第二新文档418。例如合并模块402通过合并来自第二文档410和第一文档404两者的文本来生成第二新文档418。在一个或多个实现中,合并模块402通过从第二文档410和第一文档404顺序地拾取文本行来生成第二新文档418。在生成第二新文档418之后,其与第二概要412和第二主题414一起被分组,然后被添加到人工生成的训练数据126。
丢弃第一文档和第二文档(框710)。例如训练模块124从中间数据集合304中丢弃第一文档404、第一概要406和第一主题408以及第二文档410、第二概要412和第二主题414。在丢弃第一文档和第二文档之后,步骤708和710的合并和丢弃分别被重复,直到中间被耗尽。
然后,人工生成的训练数据被用来训练主题感知编码模型和词语生成模型,以使用人工生成的训练数据和机器学习来生成基于主题的概要(框712)。例如训练模块124使用人工生成的训练数据126来训练词语生成模型120和主题感知编码模型122,以使用机器学习生成基于主题的概要116。
图8描绘了使用主题感知编码模型和词语生成模型来生成文本内容的基于主题的概要的示例过程800。
由至少一个计算设备接收用于生成调整到感兴趣主题的文本内容的基于主题的概要的请求(框802)。作为示例,基于主题的概要模块118接收用于生成被调整到感兴趣主题114的文本内容112的基于主题的概要116的请求110。在一些情况下,可以从文本内容112的内容作者接收请求,诸如文章、书籍的作者等。替代地,可以从文本内容112的消费者接收请求,以便生成文本内容的概要。如全文所述,请求110可以包括文本内容112以及感兴趣主题114的指示。
通过至少一个计算设备的主题感知编码模型将文本内容编码成主题感知编码文本(框804)。作为示例,主题感知编码模型122通过基于请求110的感兴趣主题114将文本内容112逐词语地编码为主题感知编码的序列来生成主题感知编码的文本502。换句话说,文本内容112的输入文本基于针对概要的期望的感兴趣主题114被不同地编码。为了基于感兴趣主题114对文本内容112进行编码,主题感知编码模型基于所请求的感兴趣主题114来选择主题向量218(例如单热向量),然后将文本内容112的每个词语映射到嵌入,并且将表示请求的感兴趣主题114的所选择的主题向量218附加到每个词语。然后将该整体级联向量传递通过主题感知编码模型122的神经网络,该神经网络在每个步骤输出编码,从而导致一系列基于主题的编码。
由至少一个计算设备的词语生成模型基于主题感知编码的文本生成包括来自文本内容的词语的关注分布和关注分布中的每个词语的选择概率值,选择概率值指示每个词语被选择作为文本内容的基于主题的概要的下一个词语的相应概率(框806)。例如词语生成模型120的关注解码器504接收文本内容112的主题感知编码文本502作为输入,并生成文本内容112中的词语508的关注分布506。关注分布506指示针对每个词语508的选择概率值510。选择概率值510指示对应词语508被选择作为基于主题的概要116的下一个生成词语的概率。关注解码器504基于输入的文本内容112中的词语以及已经由词语生成模型120生成的基于主题的概要116的词语来确定选择概率值510。
基于关注分布选择基于主题的概要的下一个词语(框808)。例如词语生成模型120的选择模块512基于由词语生成模型120的关注解码器504生成的关注分布506来为基于主题的概要116选择下一个生成的词语514。
向所述词语生成模型提供所选择的下一个词语的反馈,所述反馈使得词语生成模型基于下一个生成的词语的反馈来修改关注分布,以用于基于主题的概要的后续词语的选择(框810)。例如在由选择模块512选择下一个生成的词语514之后,将生成的词语添加到基于主题的概要116。此外,反馈模块516将所生成的词语反馈518提供给关注解码器504,关注解码器504可以使用生成的词语反馈518来选择基于主题的概要116的后续词语,从而保持基于主题的概要116的词语生成的一致性。
已经描述了根据一个或多个实现的示例过程,现在考虑可用于实现本文描述的各种技术的示例系统和设备。
示例系统和设备
图9示出了总体上在900处的示例系统,其包括示例计算设备902,示例计算设备902表示可以实现本文描述的各种技术的一个或多个计算系统和/或设备。这通过包括基于主题的概要模块118来说明。计算设备902可以是例如服务提供商的服务器、与客户端(例如客户端设备)相关联的设备、片上系统、和/或任意其他合适的计算设备或计算系统。
如图所示的示例计算设备902包括处理系统904、一个或多个计算机可读介质906、以及彼此通信地耦合的一个或多个I/O接口908。虽然未示出,但是计算设备902还可以包括系统总线或将各种组件彼此耦合的其他数据和命令传输系统。系统总线可以包括以下各项中的任意一个或组合:不同总线结构,诸如存储器总线或存储器控制器、外围总线、通用串行总线;和/或利用各种总线架构中的任意总线架构的处理器或本地总线。还构想了各种其他示例,诸如控制和数据线。
处理系统904表示使用硬件执行一个或多个操作的功能。因此,处理系统904被示为包括可被配置为处理器、功能块等的硬件元件910。这可以包括在硬件中实现为专用集成电路或使用一个或多个半导体形成的其他逻辑器件。硬件元件910不受形成它们的材料或其中采用的处理机制的限制。例如处理器可以包括半导体和/或晶体管(例如电子集成电路(IC))。在这样的上下文中,处理器可执行指令可以是电子可执行指令。
计算机可读存储介质906被示为包括存储器/存储装置912。存储器/存储装置912表示与一个或多个计算机可读介质相关联的存储器/存储容量。存储器/存储组件912可以包括易失性介质(诸如随机存取存储器(RAM))和/或非易失性介质(诸如只读存储器(ROM)、闪存、光盘、磁盘等)。存储器/存储组件912可以包括固定介质(例如RAM、ROM、固定硬盘驱动器等)以及可移动介质(例如闪存、可移动硬盘驱动器、光盘等)。计算机可读介质906可以以下面进一步描述的各种其他方式配置。
输入/输出接口908表示允许用户向计算设备902输入命令和信息,并且还允许使用各种输入/输出设备将信息呈现给用户和/或其他组件或设备的功能。输入设备的示例包括键盘、光标控制设备(例如鼠标)、麦克风、扫描仪、触摸功能(例如被配置为检测物理触摸的电容性传感器或其他传感器)、相机(例如可以采用可见或不可见的波长,诸如红外频率,用于将运动识别为不涉及触摸的手势)等等。输出设备的示例包括显示设备(例如监视器或投影仪)、扬声器、打印机、网卡、触觉响应设备等。因此,计算设备902可以以下面进一步描述的各种方式来被配置以支持读取器交互。
本文可以在软件、硬件元件或程序模块的一般上下文中描述各种技术。通常,这样的模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元素、组件、数据结构等。本文使用的术语“模块”、“功能”和“组件”通常表示软件、固件、硬件或其组合。本文描述的技术的特征是与平台无关的,意味着可以在具有各种处理器的各种商业计算平台上实现这些技术。
所描述的模块和技术的实现可以存储在某种形式的计算机可读介质上或通过某种形式的计算机可读介质发送。计算机可读介质可以包括可以由计算设备902访问的各种介质。作为示例而非限制,计算机可读介质可以包括“计算机可读存储介质”和“计算机可读信号介质”。
“计算机可读存储介质”可以指代与仅信号传输、载波或信号本身相比,能够实现信息的持久和/或非暂态存储的介质和/或设备。因此,计算机可读存储介质指的是非信号承载介质。计算机可读存储介质包括硬件,诸如易失性和非易失性、可移动和不可移动介质和/或以适于信息的存储的方法或技术实现的存储设备,诸如计算机可读指令、数据结构、程序模块、逻辑元件/电路或其他数据。计算机可读存储介质的示例可包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字通用盘(DVD)或其他光学存储器、硬盘、磁带盒、磁带、磁盘存储器或其他磁存储设备、或适于存储所需信息并且可由计算机访问的其他存储设备、有形介质或制品。
“计算机可读信号介质”可以指信号承载介质,其被配置为诸如经由网络将指令发送到计算设备902的硬件。信号介质通常可以体现计算机可读指令、数据结构、程序模块或调制数据信号中的其他数据,诸如载波、数据信号或其他传输机制。信号介质还包括任意信息传递介质。术语“已调制数据信号”表示以对信号中的信息进行编码的方式设置或改变其特征的一个或多个的信号。作为示例而非限制,通信介质包括诸如有线网络或直接有线连接的有线介质、以及诸如声学、RF、红外和其他无线介质的无线介质。
如前所述,硬件元件910和计算机可读介质906表示以硬件形式实现的模块、可编程设备逻辑和/或固定设备逻辑,其可以在一些实施例中被采用以实现本文描述的技术的至少一些方面,诸如执行一个或多个指令。硬件可以包括集成电路或片上系统的组件、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、复杂可编程逻辑器件(CPLD)以及硅或其他硬件的其他实现。在此上下文中,硬件可以作为处理设备操作,该处理设备执行由硬件以及用于存储用于执行的指令的硬件体现的指令和/或逻辑定义的程序任务,例如先前描述的计算机可读存储介质。
还可以采用前述的组合来实现本文描述的各种技术。因此,软件、硬件或可执行模块可以实现为在某种形式的计算机可读存储介质上和/或由一个或多个硬件元件910体现的一个或多个指令和/或逻辑。计算设备902可以被配置为实现与软件和/或硬件模块相对应的特定指令和/或功能。因此,可以由计算设备902执行的作为软件的模块的实现可以例如通过计算机可读存储介质和/或处理系统904的硬件元件910的使用来至少部分地以硬件实现。指令/或功能可以由一个或多个制品(例如一个或多个计算设备902和/或处理系统904)可执行/可操作,以实现本文描述的技术、模块和示例。
本文描述的技术可以由计算设备902的各种配置支持,并且不限于本文描述的技术的特定示例。该功能还可以全部或部分地通过分布式系统的使用来实现,诸如经由如下所述的平台916在“云”914上实现。
云914包括和/或代表用于资源918的平台916。平台916抽象出云914的硬件(例如服务器)和软件资源的底层功能。资源918可以包括应用和/或数据,其可以在远离计算设备902的服务器上执行计算机处理的同时被利用。资源918还可以包括通过因特网和/或通过诸如蜂窝网络或Wi-Fi网络的订户网络提供的服务。
平台916可以抽象资源和功能以将计算设备902与其他计算设备连接。平台916还可以用于抽象资源的缩放以提供对应的缩放级别以满足经由平台916实现的对资源918的需求。因此,在互连的设备实施例中,本文描述的功能的实现可以分布在整个系统900中。例如功能可以部分地在计算设备902上以及经由抽象云914的功能的平台916来实现。
结论
尽管已经用结构特征和/或方法动作专用的语言描述了本发明,但是应当理解,所附权利要求中限定的本发明不一定限于所描述的具体特征或动作。相反,具体特征和动作作为实现所要求保护的发明的示例形式被公开。
Claims (20)
1.一种在数字媒体环境中由至少一个计算设备实现的方法,所述数字媒体环境用于生成被调整到感兴趣主题的文本内容的基于主题的概要,所述方法包括:
由所述至少一个计算设备的主题感知编码模型用与所述感兴趣主题相对应的主题标签来对所述文本内容进行编码,以生成主题感知编码文本;
由所述至少一个计算设备的词语生成模型从所述主题感知编码文本中选择针对所述基于主题的概要的下一个词语,所述词语生成模型使用对训练数据的机器学习而被训练以生成基于主题的概要,所述训练数据包括多个文档、每个文档的相应概要、以及每个概要的相应主题;以及
将所选择的所述下一个词语的反馈提供给所述词语生成模型,所述反馈使得所述词语生成模型基于下一个选择的词语的所述反馈来为所述基于主题的概要选择后续词语。
2.根据权利要求1所述的方法,其中所述编码还包括通过将所述文本内容的每个词语映射到与所请求的所述感兴趣主题相对应的所述主题标签来生成所述主题感知编码文本。
3.根据权利要求2所述的方法,其中所述主题标签指示从基于监督词语频率的方案学习的所述感兴趣主题的词语偏好。
4.根据权利要求1所述的方法,其中编码所述文本内容以生成主题感知编码文本通过所述词语生成模型来增加所述文本内容中的所述感兴趣主题的优选词语的选择概率值。
5.根据权利要求1所述的方法,其中所述训练数据通过修改文档和相应概要的数据集合以包括每个概要的所述主题而被生成。
6.根据权利要求1所述的方法,其中所述主题感知编码模型和所述词语生成模型能够用于生成被调整到多个不同感兴趣主题的基于主题的概要。
7.根据权利要求1所述的方法,其中所述反馈在所述概要的生成期间被提供给所述词语生成模型。
8.根据权利要求1所述的方法,其中所述主题感知编码模型和所述词语生成模型包括神经网络。
9.一种在数字媒体环境中由至少一个计算设备实现的方法,所述方法包括:
获得中间数据集合,所述中间数据集合包括文档、针对每个文档的相应概要、和针对每个概要的主题;
通过以下各项来生成训练数据:
从所述中间数据集合选择第一文档和第二文档;
合并来自所述中间数据集合的第一文档和第二文档的文本以生成第一新文档,并将所述第一新文档与所述训练数据中的所述第一文档的对应概要和主题相关联,并且合并来自所述中间数据集合的所述第二文档和所述第一文档的文本以生成第二新文档,并将所述第二新文档与所述训练数据中的所述第二文档的对应概要和主题相关联;
丢弃所述第一文档和所述第二文档;以及
重复所述合并和丢弃,直到所述中间训练数据集合被耗尽;
以及
训练主题感知编码模型和词语生成模型,以使用所生成的训练数据和机器学习来生成基于主题的概要。
10.根据权利要求9所述的方法,还包括通过以下项来生成所述中间数据集合:
由所述至少一个计算设备获得包括所述文档和针对每个文档的所述相应概要的文本内容;以及
确定每个相应概要的所述主题。
11.根据权利要求10所述的方法,其中每个概要的所述主题通过将主题向量应用于每个相应概要而被确定,所述主题向量通过以下项生成:
由所述至少一个计算设备获得被标记有定义每个相应文档的主题的主题标签的文档;
基于所述主题标签将所述文档分组到基于主题的组中;
确定所述基于主题的组的所述文档中的词语的频率;
基于所述基于主题的组的所述文档中的词语的所述频率,针对每个基于主题的组来生成所述主题向量。
12.根据权利要求11所述的方法,其中通过将主题向量应用于每个相应概要来确定每个相应概要的所述主题还包括:
针对每个概要,计算所述概要和所述主题向量之间的点积;以及选择具有最高计算点积的所述主题作为所述相应概要的所确定的所述主题。
13.根据权利要求12所述的方法,还包括:
通过将所述最高计算点积除以第二高点积来计算所确定的所述主题的置信度值;以及
如果所述置信度值低于置信度阈值,则丢弃来自所述中间数据集合的所述文档和相应概要。
14.一种在数字媒体环境中实现的系统,所述数字媒体环境用于生成被调整到感兴趣主题的文本内容的基于主题的概要,所述系统包括:
至少一个处理器;
存储器,具有存储在其上的计算机可读指令,所述计算机可读指令由所述处理器可执行以实现基于主题的概要模块以执行包括以下项的操作:
由主题感知编码模型使用与所述感兴趣主题相对应的主题标签来对所述文本内容进行编码,以生成主题感知编码文本;
由所述至少一个计算设备的词语生成模型从所述主题感知编码文本中选择针对所述基于主题的概要的下一个词语,所述词语生成模型使用对训练数据的机器学习而被训练以生成基于主题的概要,所述训练数据包括多个文档、每个文档的相应概要、以及每个概要的相应主题;以及
将所选择的所述下一个词语的反馈提供给所述词语生成模型,所述反馈使得所述词语生成模型基于下一个选择的词语的所述反馈来为所述基于主题的概要选择后续词语。
15.根据权利要求14所述的系统,其中所述编码还包括通过将所述文本内容的每个词语映射到与所请求的所述感兴趣主题相对应的所述主题标签来生成所述主题感知编码文本。
16.根据权利要求15所述的系统,其中所述主题标签指示从基于监督词语频率的方案学习的所述感兴趣主题的词语偏好。
17.根据权利要求14所述的系统,其中编码所述文本内容以生成主题感知编码文本通过所述词语生成模型来增加所述文本内容中的所述感兴趣主题的优选词语的选择概率值。
18.根据权利要求14所述的系统,其中所述主题感知编码模型和所述词语生成模型使用对训练数据的机器学习而被训练以生成被调整到感兴趣主题的基于主题的概要,所述训练数据包括多个数据集合,每个所述数据集合包括文档、所述文档的相应概要、和所述概要的相应主题。
19.根据权利要求18所述的系统,其中所述训练数据通过修改文档和相应概要的数据集合以包括每个概要的所述主题而被生成。
20.根据权利要求14所述的系统,其中所述主题感知编码模型和所述词语生成模型能够用于生成被调整到多个不同感兴趣主题的基于主题的概要。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/960,505 US10685050B2 (en) | 2018-04-23 | 2018-04-23 | Generating a topic-based summary of textual content |
US15/960,505 | 2018-04-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110390009A true CN110390009A (zh) | 2019-10-29 |
Family
ID=65996867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910045134.8A Pending CN110390009A (zh) | 2018-04-23 | 2019-01-17 | 生成文本内容的基于主题的概要 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10685050B2 (zh) |
CN (1) | CN110390009A (zh) |
AU (1) | AU2019200746B2 (zh) |
DE (1) | DE102019000433A1 (zh) |
GB (1) | GB2573189A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414735A (zh) * | 2020-03-11 | 2020-07-14 | 北京明略软件系统有限公司 | 文本数据的生成方法和装置 |
CN111581455A (zh) * | 2020-04-28 | 2020-08-25 | 北京字节跳动网络技术有限公司 | 文本生成模型的生成方法、装置和电子设备 |
CN111666756A (zh) * | 2020-05-26 | 2020-09-15 | 湖北工业大学 | 一种基于主题融合的序列模型文本摘要生成方法 |
CN115795028A (zh) * | 2023-02-09 | 2023-03-14 | 山东政通科技发展有限公司 | 一种公文智能生成方法及系统 |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10909157B2 (en) * | 2018-05-22 | 2021-02-02 | Salesforce.Com, Inc. | Abstraction of text summarization |
US11017179B2 (en) | 2018-12-28 | 2021-05-25 | Open Text Sa Ulc | Real-time in-context smart summarizer |
US11062087B2 (en) | 2019-01-30 | 2021-07-13 | Adobe Inc. | Generating summary content tuned to a target characteristic using a word generation model |
US10891427B2 (en) * | 2019-02-07 | 2021-01-12 | Adobe Inc. | Machine learning techniques for generating document summaries targeted to affective tone |
US11416689B2 (en) * | 2019-03-28 | 2022-08-16 | Siemens Aktiengesellschaft | System and method for natural language processing with a multinominal topic model |
WO2020255219A1 (ja) * | 2019-06-17 | 2020-12-24 | 日本電信電話株式会社 | 分類装置、分類方法及び分類プログラム |
US11003840B2 (en) | 2019-06-27 | 2021-05-11 | Open Text Corporation | System and method for in-context document composition using subject metadata queries |
US11423114B2 (en) | 2019-11-07 | 2022-08-23 | Open Text Holdings, Inc. | Content management systems for providing automated generation of content suggestions |
US11216521B2 (en) | 2019-11-07 | 2022-01-04 | Open Text Holdings, Inc. | Content management methods for providing automated generation of content suggestions |
US11256735B2 (en) | 2019-11-07 | 2022-02-22 | Open Text Holdings, Inc. | Content management systems providing automated generation of content summaries |
US11620351B2 (en) | 2019-11-07 | 2023-04-04 | Open Text Holdings, Inc. | Content management methods for providing automated generation of content summaries |
US11409963B1 (en) * | 2019-11-08 | 2022-08-09 | Pivotal Software, Inc. | Generating concepts from text reports |
US11061951B2 (en) * | 2019-11-21 | 2021-07-13 | International Business Machines Corporation | Unsupervised attention based scientific document summarization |
US20230026110A1 (en) * | 2019-12-18 | 2023-01-26 | Nippon Telegraph And Telephone Corporation | Learning data generation method, learning data generation apparatus and program |
CN111325571B (zh) * | 2019-12-30 | 2023-08-18 | 北京航空航天大学 | 一种多任务学习的商品评论标签自动生成方法、装置及系统 |
US11483319B2 (en) * | 2020-03-05 | 2022-10-25 | International Business Machines Corporation | Security model |
US11042700B1 (en) * | 2020-04-16 | 2021-06-22 | Capital One Services, Llc | Conciseness reconstruction of a content presentation via natural language processing |
US10885436B1 (en) * | 2020-05-07 | 2021-01-05 | Google Llc | Training text summarization neural networks with an extracted segments prediction objective |
US11593556B2 (en) * | 2020-05-26 | 2023-02-28 | Mastercard International Incorporated | Methods and systems for generating domain-specific text summarizations |
EP4176388A1 (en) * | 2020-08-05 | 2023-05-10 | Siemens Aktiengesellschaft | Topicbert: decarbonizing bert with topics for efficient document classification |
CN111832275B (zh) * | 2020-09-21 | 2022-02-25 | 北京百度网讯科技有限公司 | 文本的创作方法、装置、设备以及存储介质 |
CN112307726B (zh) * | 2020-11-09 | 2023-08-04 | 浙江大学 | 因果去偏差模型指导的法院观点自动生成方法 |
CN114118076A (zh) * | 2021-01-15 | 2022-03-01 | 北京沃东天骏信息技术有限公司 | 文本生成方法、装置、电子设备和计算机可读介质 |
CN113779277A (zh) | 2021-01-22 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 用于生成文本的方法和装置 |
US11669686B2 (en) | 2021-05-20 | 2023-06-06 | International Business Machines Corporation | Semantic text comparison using artificial intelligence identified source document topics |
US11580982B1 (en) | 2021-05-25 | 2023-02-14 | Amazon Technologies, Inc. | Receiving voice samples from listeners of media programs |
KR102350745B1 (ko) * | 2021-05-31 | 2022-01-14 | 주식회사 틴토랩 | UX-bit를 이용한 자동 디자인 생성 인공신경망 장치 및 방법 |
US11586344B1 (en) | 2021-06-07 | 2023-02-21 | Amazon Technologies, Inc. | Synchronizing media content streams for live broadcasts and listener interactivity |
US11792143B1 (en) | 2021-06-21 | 2023-10-17 | Amazon Technologies, Inc. | Presenting relevant chat messages to listeners of media programs |
US11792467B1 (en) | 2021-06-22 | 2023-10-17 | Amazon Technologies, Inc. | Selecting media to complement group communication experiences |
US11947916B1 (en) * | 2021-08-19 | 2024-04-02 | Wells Fargo Bank, N.A. | Dynamic topic definition generator |
US11687576B1 (en) * | 2021-09-03 | 2023-06-27 | Amazon Technologies, Inc. | Summarizing content of live media programs |
US11785299B1 (en) | 2021-09-30 | 2023-10-10 | Amazon Technologies, Inc. | Selecting advertisements for media programs and establishing favorable conditions for advertisements |
US12033162B2 (en) * | 2021-10-13 | 2024-07-09 | Fmr Llc | Automated analysis of customer interaction text to generate customer intent information and hierarchy of customer issues |
US11785272B1 (en) | 2021-12-03 | 2023-10-10 | Amazon Technologies, Inc. | Selecting times or durations of advertisements during episodes of media programs |
US11916981B1 (en) * | 2021-12-08 | 2024-02-27 | Amazon Technologies, Inc. | Evaluating listeners who request to join a media program |
US11791920B1 (en) | 2021-12-10 | 2023-10-17 | Amazon Technologies, Inc. | Recommending media to listeners based on patterns of activity |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110060983A1 (en) * | 2009-09-08 | 2011-03-10 | Wei Jia Cai | Producing a visual summarization of text documents |
US20120303357A1 (en) * | 2010-02-03 | 2012-11-29 | Syed Yasin | Self-learning methods for automatically generating a summary of a document, knowledge extraction and contextual mapping |
US20150095770A1 (en) * | 2011-10-14 | 2015-04-02 | Yahoo! Inc. | Method and apparatus for automatically summarizing the contents of electronic documents |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7809548B2 (en) * | 2004-06-14 | 2010-10-05 | University Of North Texas | Graph-based ranking algorithms for text processing |
US9098489B2 (en) * | 2006-10-10 | 2015-08-04 | Abbyy Infopoisk Llc | Method and system for semantic searching |
US9633005B2 (en) * | 2006-10-10 | 2017-04-25 | Abbyy Infopoisk Llc | Exhaustive automatic processing of textual information |
US20100287162A1 (en) * | 2008-03-28 | 2010-11-11 | Sanika Shirwadkar | method and system for text summarization and summary based query answering |
US20100153318A1 (en) * | 2008-11-19 | 2010-06-17 | Massachusetts Institute Of Technology | Methods and systems for automatically summarizing semantic properties from documents with freeform textual annotations |
US20150112664A1 (en) * | 2010-12-09 | 2015-04-23 | Rage Frameworks, Inc. | System and method for generating a tractable semantic network for a concept |
GB201021867D0 (en) * | 2010-12-23 | 2011-02-02 | Mologen Ag | Non-coding immunomodulatory DNA construct |
US20120197630A1 (en) * | 2011-01-28 | 2012-08-02 | Lyons Kenton M | Methods and systems to summarize a source text as a function of contextual information |
US20130191735A1 (en) * | 2012-01-23 | 2013-07-25 | Formcept Technologies and Solutions Pvt Ltd | Advanced summarization on a plurality of sentiments based on intents |
US20140108308A1 (en) * | 2012-07-13 | 2014-04-17 | Social Data Technologies, LLC | System and method for combining data for identifying compatibility |
US10235681B2 (en) * | 2013-10-15 | 2019-03-19 | Adobe Inc. | Text extraction module for contextual analysis engine |
US9886501B2 (en) * | 2016-06-20 | 2018-02-06 | International Business Machines Corporation | Contextual content graph for automatic, unsupervised summarization of content |
US9881082B2 (en) * | 2016-06-20 | 2018-01-30 | International Business Machines Corporation | System and method for automatic, unsupervised contextualized content summarization of single and multiple documents |
US9715495B1 (en) * | 2016-12-15 | 2017-07-25 | Quid, Inc. | Topic-influenced document relationship graphs |
-
2018
- 2018-04-23 US US15/960,505 patent/US10685050B2/en active Active
-
2019
- 2019-01-17 CN CN201910045134.8A patent/CN110390009A/zh active Pending
- 2019-01-22 DE DE102019000433.7A patent/DE102019000433A1/de active Pending
- 2019-02-04 AU AU2019200746A patent/AU2019200746B2/en active Active
- 2019-02-04 GB GB1901522.1A patent/GB2573189A/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110060983A1 (en) * | 2009-09-08 | 2011-03-10 | Wei Jia Cai | Producing a visual summarization of text documents |
US20120303357A1 (en) * | 2010-02-03 | 2012-11-29 | Syed Yasin | Self-learning methods for automatically generating a summary of a document, knowledge extraction and contextual mapping |
US20150095770A1 (en) * | 2011-10-14 | 2015-04-02 | Yahoo! Inc. | Method and apparatus for automatically summarizing the contents of electronic documents |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414735A (zh) * | 2020-03-11 | 2020-07-14 | 北京明略软件系统有限公司 | 文本数据的生成方法和装置 |
CN111414735B (zh) * | 2020-03-11 | 2024-03-22 | 北京明略软件系统有限公司 | 文本数据的生成方法和装置 |
CN111581455A (zh) * | 2020-04-28 | 2020-08-25 | 北京字节跳动网络技术有限公司 | 文本生成模型的生成方法、装置和电子设备 |
CN111666756A (zh) * | 2020-05-26 | 2020-09-15 | 湖北工业大学 | 一种基于主题融合的序列模型文本摘要生成方法 |
CN111666756B (zh) * | 2020-05-26 | 2023-12-05 | 湖北工业大学 | 一种基于主题融合的序列模型文本摘要生成方法 |
CN115795028A (zh) * | 2023-02-09 | 2023-03-14 | 山东政通科技发展有限公司 | 一种公文智能生成方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
AU2019200746B2 (en) | 2021-07-29 |
US10685050B2 (en) | 2020-06-16 |
US20190325066A1 (en) | 2019-10-24 |
GB2573189A (en) | 2019-10-30 |
AU2019200746A1 (en) | 2019-11-07 |
GB201901522D0 (en) | 2019-03-27 |
DE102019000433A1 (de) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110390009A (zh) | 生成文本内容的基于主题的概要 | |
CN111291181B (zh) | 经由主题稀疏自编码器和实体嵌入的用于输入分类的表示学习 | |
CN112685565B (zh) | 基于多模态信息融合的文本分类方法、及其相关设备 | |
Choi et al. | Visualizing for the non‐visual: Enabling the visually impaired to use visualization | |
CN109815459A (zh) | 生成被调整到目标受众词汇的文本内容的目标概要 | |
CN110232689A (zh) | 语义类别定位数字环境 | |
US9734143B2 (en) | Multi-media context language processing | |
JP6596511B2 (ja) | デジタルグラフィックノベルの自動翻訳 | |
CN109313719B (zh) | 使用神经网络生成文本段的依存性解析 | |
CN109165384A (zh) | 一种命名实体识别方法及装置 | |
CN110245257B (zh) | 推送信息的生成方法及装置 | |
CN109933780A (zh) | 使用深度学习技术确定文档中的上下文阅读顺序 | |
US12032928B2 (en) | Natural solution language | |
CN108763384A (zh) | 用于文本分类的数据处理方法、数据处理装置和电子设备 | |
CN113611405A (zh) | 一种体检项目推荐方法、装置、设备及介质 | |
WO2023159755A1 (zh) | 虚假新闻检测方法、装置、设备及存储介质 | |
US20240086452A1 (en) | Tracking concepts within content in content management systems and adaptive learning systems | |
CN111522979A (zh) | 图片排序推荐方法、装置、电子设备、存储介质 | |
CN115271093A (zh) | 用于多任务用户界面建模的基于神经网络的多模态变换器 | |
CN113569068B (zh) | 描述内容生成方法、视觉内容的编码、解码方法、装置 | |
CN112132075B (zh) | 图文内容处理方法及介质 | |
KR20220069403A (ko) | 하이라이팅 기능이 포함된 감정 분석 서비스를 위한 방법 및 장치 | |
CN113822382B (zh) | 基于多模态特征表示的课程分类方法、装置、设备及介质 | |
WO2023032100A1 (ja) | 文書作成支援装置、文書作成支援方法、及びプログラム | |
Perez et al. | Recognition of Japanese handwritten characters with Machine learning techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |