CN108197294A - 一种基于深度学习的文本自动生成方法 - Google Patents
一种基于深度学习的文本自动生成方法 Download PDFInfo
- Publication number
- CN108197294A CN108197294A CN201810058680.0A CN201810058680A CN108197294A CN 108197294 A CN108197294 A CN 108197294A CN 201810058680 A CN201810058680 A CN 201810058680A CN 108197294 A CN108197294 A CN 108197294A
- Authority
- CN
- China
- Prior art keywords
- text
- model
- deep learning
- generation
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/151—Transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于深度学习的文本自动生成方法,包括获得文本生成模型和调用文本生成模型两个阶段。第一阶段包括数据预处理;深度学习算法模型构建;训练深度学习模型;获得文本生成模型。第二阶段包括:接受用户输入的文本;提取用户输入文本的特征信息;调用文本生成模型;生成与用户输入文本的特征信息相匹配的文本。第一阶段采用深度学习算法模型,使得训练过程更加自动化,免去了过多的人工干预,训练过程采用一系列训练策略,使得文本生成模型生成的文本可读性更强。第二阶段,对用户输入信息进行分类,识别用户意图,跟据用户的意图生成出用户想要的文本。本发明方法实现相对简单,应用性强,尤其在文章生成方面将会有很大的应用。
Description
技术领域
本发明属于计算机自然语言处理技术领域,具体涉及一种基于深度学习的文本自动生成方法。
背景技术
深度学习使近期人工智能研究取得了突破性的进展,它结束了人工智能长达十年未能有突破的局面,并迅速在工业界产生影响。深度学习有别于仅可以完成特定任务的狭隘的人工智能系统(面向特定任务的功能模拟),作为通用的人工智能技术,可以应对各种情况和问题,已在计算机视觉、语音识别等领域得到极其成果的应用,在自然语言处理领域也取得了一定的成效。深度学习是实现人工智能最有效,也是取得成效最大的实施方法。
文本自动生成技术是自然语言处理的核心技术,在自然语言处理研究中文本生成技术尤为重要。目前人工智能领域中研究最火的机器写作、机器翻译、对话系统、图像描述等都包含文本生成。文本自动生成被认为是当代机器智能的重要标志,因为人们在创作文字的时候需要极强的想象力,机器必须能够“学习”文章的行文方式并“模拟”人脑的创作能力,因此极为困难。传统的文本生成有两种方式,包括统计机器翻译概率模型(StatisticalMachine Translation,SMT)和神经网络模型(Neural Networks,NN)。
统计机器翻译概率模型SMT是利用机器对用户输入的待翻译语句进行翻译得到目标语句的技术。机器翻译是基于以下原理:将源语句到目标语句的翻译视为一个概率问题,任何一个目标语言句子都有可能是任何一个源语言句子的译文,机器翻译的任务为查找出概率最大的目标语句作为源语句的翻译结果。换句话说,SMT的首要任务是为语言的产生构造某种合理的统计模型,并在此统计的基础上,当数据与数据之间的关系难以用统计来描述时就无能为力了,此时可以利用神经网络模型NN来解决这一问题。
神经网络模型NN是由大量的、简单的处理单元(称为神经元)广泛地互相连接而形成的复杂网络系统,它反映了人脑功能的许多基本特征,是一个高度复杂的非线性动力学习系统。NN具有如下优点:1)并行分布处理;2)高度鲁棒性和容错能力;3)分布存储及学习能力;4)能充分逼近复杂的非线性关系。正是由于上述优点,NN在各个邻域得到广泛应用。
然而,在文本自动生成过程中,SMT和传统的NN均具有无法克服的缺陷。
在文本自动生成过程中,SMT是将文本生成看作由后一句对前一句的翻译过程,并逐步生成全部文本。该SMT机器学习方法具有如下缺点:1)下一句的生成只依赖于前一句的信息,无法保证生成文本的完整性,即高度依赖于文本中的局部信息,对输入的语句的全局信息考虑不周全;2)其是字词之间的映射概率,在语义的方面建模能力较差,且往往只被应用在语义信息相等或近似的情况下,即其仅仅考虑了字词的信息,在语义上考虑十分不全,导致生成的文本语义混乱且不一致。
在文本创作过程中,传统的NN是将用户所给的信息通过神经网络压缩成信息向量,将该信息向量作为初始状态,通过神经网络逐句生成整个文本。该传统的NN具有如下缺点:1)在传统的NN模型训练过程中过于注重语义信息;2)生成的每一个字都只考虑同样的全局信息。由此导致生成的文本单一且较易偏向错误的方向,即不能够根据已生成的信息进行调整使得主题容易产生偏差。
发明内容
在人工智能飞速发展的今天,本发明针对现有文本自动生成方法的缺陷,提供了一种基于深度学习的文本自动生成方法,其可以根据设计者需要训练出不同类别的文本生成模型,然后根据用户输入的需求调用文本生成模型生成出用户想要的文本。
为实现上述目的,本发明一种基于深度学习的文本自动生成方法,包括两个阶段:
阶段1:获得文本生成模型;
阶段2:调用文本生成模型。
阶段1所述获得文本生成模型,包括以下步骤:
步骤1.1:数据预处理;
步骤1.2:深度学习模型构建;
步骤1.3:训练深度学习模型;
步骤1.4:获得文本生成模型。
阶段2所述调用文本生成模型,包括以下步骤:
步骤2.1:接受用户输入的文本;
步骤2.2:提取用户输入文本的特征信息;
步骤2.3:调用文本生成模型;
步骤2.4:生成与用户输入文本的特征信息相匹配的文本。
本发明方法,阶段1步骤1.1所述数据预处理,包括四个过程,爬虫获取文本训练数据;读取文本并去噪处理;字符和数字之间进行映射;文本转码;分批处理。
本发明方法,阶段1步骤1.2所述深度学习模型构建,包括五个单元:输入单元、记忆单元、优化单元、输出单元。
所述输入单元,包括对汉字或者词语或者单词或者字符或者句子的向量化处理,包括将向量化的数据乘上一个参数(权重)输入到记忆单元;
所述记忆单元,包括利用循环神经网络(RNN)或长短时记忆网络(LSTM)或门循环单元(GRU)或双向循环神经网络(biRNN)或双向长短时记忆网络(biLSTM)构建单层或多层神经网络用于对输入信息的处理;
所述输出单元,包括使用softmax层对记忆单元的输出进行处理,softmax公式如下:
其中,zi为softmax层输入值,yi为经过softmax层的输出值,其中,0<yi<1,还包括使用交叉熵公式算出输出的数据分布与真实数据分布之间的差距,作为优化单元中的损失,因为文本数据是离散的,所以采用离散变量的交叉熵公式,公式如下:
其中,p(i)是真实数据的分布,q(i)为输出的数据分布,结果L(p,q)就是p(i)和q(i)分布之间的差值,也就是损失。
所述优化单元,包括使用梯度下降法对模型进行优化,梯度下降法公式如下:
其中,θ是神经网络(输入单元、记忆单元和输出单元)的参数,a是学习率是一个常数参数,为偏导数,J(θ)为损失函数,即对输出单元中的损失求平均构成的函数,学习率由经验给出一个小于1的值,通过梯度下降公式在每轮迭代的时候对神经网络的参数进行更新,直到损失达到最小,参数达到最优。
本发明方法,阶段1步骤1.3所述训练深度学习模型,包括根据经验设置合适的超参数,对模型进行多次迭代训练。
本发明方法,阶段1步骤1.4所述获得文本生成模型,包括将训练好的模型以文件的形式保存在计算机中,并通过改变模型训练数据,以获得多类型的文本生成模型。
本发明方法,阶段2步骤2.2所述提取所述文本的文本特征信息,包括对句子进行分词,然后分类处理并提取文本特征。
本发明方法,阶段2步骤2.3所述调用文本生成模型,包括调用阶段1的步骤1.4所述获得文本生成模型。
本发明方法的执行过程是先执行阶段1再执行阶段2,分阶段进行文本生成,使得方法实现相对简单,过程清晰明了、不冗余。在获得文本生成模型阶段采用先进的深度学习算法模型,模型训练过程更加自动化,免去了过多的人工干预,使得文本生成更加自动化,训练过程采用一系列训练策略,使得文本生成模型生成的文本可读性更强;在调用文本生成模型阶段,采用对用户输入信息进行分类,识别用户意图,调用不同类别的文本生成模型,根据用户的意图生成用户想要类别的文本,使得文本生成更加多样化。本发明提供的一种基于深度学习的文本自动生成方法能够自动生成用户所需要的文本,方法实现相对简单,不需要人为过多干预,应用性强,尤其在文章生成方面将会有很大的应用。
附图说明
图1是本发明一种基于深度学习的文本自动生成方法整体流程示意图;
图2是本发明数据预处理的流程示意图;
图3是本发明深度学习模型构建与模型训练框架示意图;
图4是本发明门循环单元单层结构简图;
图5是本发明调用文本生成模型整体功能示意图;
图6是本发明生成游记文章的流程图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,为本发明一种基于深度学习的文本自动生成方法整体流程示意图,包括两个阶段:
阶段1:获得文本生成模型;
阶段2:调用文本生成模型。
先进行阶段1的文本生成模型的训练,然后再进行阶段2调用文本生成模型。
其中阶段1获得文本生成模型阶段包括以下四个步骤:
步骤1.1:数据预处理;
步骤1.2:深度学习模型构建;
步骤1.3:训练深度学习模型;
步骤1.4:获得文本生成模型。
其中阶段2调用文本生成模型阶段包括以下四个步骤:
步骤2.1:接受用户输入的文本;
步骤2.2:提取用户输入文本的特征信息;
步骤2.3:调用文本生成模型;
步骤2.4:生成与用户输入文本的特征信息相匹配的文本。
如图2所示,为本发明阶段1步骤1.1所述数据预处理的流程示意图。数据预处理包括四个过程:利用网络爬虫获取文本训练数据;读取文本利用数据去噪技术对文本训练数据进行去噪处理;采用最基本的字符和数字之间进行映射;对文本训练数据进行文本转码数字化处理;最后对数字化后的文本训练数据进行分批处理。
爬虫获取文本训练数据过程是利用爬虫技术从网页中获取最原始的文本训练数据,爬取下来的数据一般是带有格式的,含有特殊字符的,不规整的文本数据,如小说、唐诗、宋词、游记、歌词等数据。
读取文本并去噪处理过程是读取爬取下来的最原始的文本数据,对其去噪处理,去除格式、特殊字符等,将原始文本处理成便于训练的规整的纯文本形式。
字符和数字之间进行映射过程是将文本中的所有不重复字符(一个字也叫一个字符)读取出来,每个字符打上数字标签,形成字符与数据的一一映射关系,如数字“1”代表“我”,数字“2”代表“你”。
文本转码过程是将经过去噪处理后的文本用数字表示。
分批处理是将文本转码后的数据进行分割,分割成许多批次,输入到模型中进行训练,模型每次训练执行一批数据。
如图3所示,为本发明深度学习模型构建与模型训练框架示意图。深度学习模型构建包括五个单元:输入单元、记忆单元、输出单元、优化单元。如图模型训练过程是A经过输入单元的处理,再经过记忆单元处理,再经过输出单元处理,输出单元通过比较生成的数据与真实数据分布的差距产生“损失”,将“损失”经过优化单元处理,通过反馈调节更新输入单元、记忆单元、输出单元的参数。如此重复,经过多轮迭代,使得“损失”最小,输入单元、记忆单元、输出单元的参数达到最优,记录下最优的参数,即完成了模型的训练过程,其中A为经过转码后的文本。模型训练完成后,再次调用模型自动生成文本数据时,即只需给定与A类似的数据,然后经过使用了最优参数的输入单元、记忆单元、输出单元的处理就可以直接生成与训练数据分布类似的文本信息,过程不再需要优化单元的处理,其中输出的B为生成的数据,此时B还是转码后的文本数据,将B转成可读的文本还需要解码然后进行采样调用词表生成可读文本。模型构建的五个单元输入单元、记忆单元、输出单元、优化单元,其中输入单元包括对输入的A进行单个字符向量化处理,再将向量化的数据乘上一个参数(权重)输入到记忆单元。其中记忆单元利用门循环单元(GRU)构建单层或多层神经网络用于对字符向量处理。其中输出单元包括使用softmax层对记忆单元的输出进行处理,softmax公式如下:
其中,zi为softmax层输入值,yi为经过softmax层的输出值,其中,0<yi<1,还包括使用交叉熵公式算出输出的数据分布与真实数据分布之间的差距,作为优化单元中的损失,因为文本数据是离散的,所以采用离散变量的交叉熵公式,公式如下:
其中,p(i)是真实数据的分布,q(i)为输出的数据分布,结果L(p,q)就是p(i)和q(i)分布之间的差值,也就是损失。
其中优化单元包括使用梯度下降法对模型进行优化,梯度下降法公式如下:
其中,θ是神经网络(输入单元、记忆单元和输出单元)的参数,a是学习率是一个常数参数,为偏导数,J(θ)为损失函数,即对输出单元中的损失求平均构成的函数,学习率由经验给出一个小于1的值,通过梯度下降公式在每轮迭代的时候对神经网络的参数进行更新,直到损失达到最小,参数达到最优。
为进一步说明模型构建与模型训练中的记忆单元,本发明实施例给出了图4本发明深度学习模型结构简图。图中展现了门循环单元(GRU)构建的部分单层神经网络,每层神经网络由多个记忆细胞组成,每个记忆细胞有三层组织结构,输入层,隐藏层,输出层,记忆细胞与记忆细胞之间通过隐藏层之间的信息传递实现记忆功能,每个记忆细胞输入一个字符,目标输出是这个字符的下一个字符。
阶段1中,可以改变训练数据的类别,通过重复模型构建和模型训练过程,可获得多种类别的文本生成模型,用来生成不同类别的文本。
如图5所示,为本发明调用文本生成模型整体功能示意图。本发明的功能是根据用户输入信息,生成出用户想要的文本,图5展示了此过程。在图5中被调用的模型,需要事先训练好,以文件的形式保存,模型的数量是N个,N≥1,每个模型对应于一个词表,词表中保存着能够组成训练数据的所有字符集合,词表具有多个类别,训练数据也具有多个类别,一个类别的训练数据只能训练一个类别的模型,一个类别的词表对应于一个类别的模型,图5中显示了三个类别的模型,模型1为游记类别,模型2为诗歌类别,模型3为小说类别,调用不同类别的模型,可以生成出对应类别的文本。如图5文本具体生成过程如下:首先用户输入信息,然后对用户输入信息进行分类并提取特征,在N个模型类别中匹配出对应的模型,然后调用此模型,根据特征和词表中的字符,生成出对应的文本。
为进一步说明根据用户信息生成对应文本的过程,本发明实施例给出图6本发明生成游记文章的流程图。游记类别仅为图5中N个类别中的一个。用户输入:生成关于“桂林山水”的5000字游记,然后对用户输入信息分词,提取出关键的类别信息和特征信息,类别信息为游记,特征信息包括内容为桂林山水,字数为5000字。然后调用对应游记类别的模型,将内容信息和字数信息输入到模型中,最后生成出关于“桂林山水”的5000字游记内容。
Claims (9)
1.一种基于深度学习的文本自动生成方法,其方法包括两个阶段:
阶段1:获得文本生成模型;
阶段2:调用文本生成模型。
2.如权利要求1一种基于深度学习的文本自动生成方法,其特征在于:阶段1所述获得文本生成模型,包括以下步骤:
步骤1.1:数据预处理;
步骤1.2:深度学习模型构建;
步骤1.3:训练深度学习模型;
步骤1.4:获得文本生成模型。
3.如权利要求1一种基于深度学习的文本自动生成方法,其特征在于:阶段2所述调用文本生成模型,包括以下步骤:
步骤2.1:接受用户输入的文本;
步骤2.2:提取用户输入文本的特征信息;
步骤2.3:调用文本生成模型;
步骤2.4:生成与用户输入文本的特征信息相匹配的文本。
4.如权利要求2一种基于深度学习的文本自动生成方法,其特征在于:步骤1.1所述数据预处理,包括四个过程,爬虫获取文本训练数据;读取文本并去噪处理;字符和数字之间进行映射;文本转码;分批处理。
5.如权利要求2一种基于深度学习的文本自动生成方法,其特征在于:步骤1.2所述深度学习模型构建,包括五个单元:输入单元、记忆单元、输出单元、优化单元;
所述输入单元,包括对汉字或者词语或者单词或者字符或者句子的向量化处理,包括将向量化的数据乘上一个参数输入到记忆单元;
所述记忆单元,包括利用循环神经网络(RNN)或长短时记忆网络(LSTM)或门循环单元(GRU)或双向循环神经网络(biRNN)或双向长短时记忆网络(biLSTM)构建单层或多层神经网络用于对输入信息的处理;
所述输出单元,包括使用softmax层对记忆单元的输出进行处理,softmax公式如下:
其中,zi为softmax层输入值,yi为经过softmax层的输出值,其中,0<yi<1,还包括使用交叉熵公式算出输出的数据分布与真实数据分布之间的差距,作为优化单元中的损失,因为文本数据是离散的,所以采用离散变量的交叉熵公式,公式如下:
其中,p(i)是真实数据的分布,q(i)为输出单元输出的数据分布,结果L(p,q)就是p(i)和q(i)分布之间的差值,也就是损失;
所述优化单元,包括使用梯度下降法对模型进行优化,梯度下降法公式如下:
其中,θ是神经网络的参数,a是学习率是一个常数参数,为偏导数,J(θ)为损失函数,即对输出单元中的损失求平均构成的函数,学习率由经验给出一个小于1的值,通过梯度下降公式在每轮迭代的时候对神经网络的参数进行更新,直到损失达到最小,参数达到最优。
6.如权利要求2一种基于深度学习的文本自动生成方法,其特征在于:步骤1.3所述训练深度学习模型,包括根据经验设置合适的超参数,对模型进行多次迭代训练。
7.如权利要求2一种基于深度学习的文本自动生成方法,其特征在于:步骤1.4所述获得文本生成模型,包括将训练好的模型以文件的形式保存在计算机中,并通过改变模型训练数据,以获得多类型的文本生成模型。
8.如权利要求3一种基于深度学习的文本自动生成方法,其特征在于:步骤2.2所述提取所述文本的文本特征信息,包括对句子进行分词,然后分类处理并提取文本特征。
9.如权利要求3一种基于深度学习的文本自动生成方法,其特征在于:步骤2.3所述调用文本生成模型,包括调用步骤1.4所述获得文本生成模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810058680.0A CN108197294B (zh) | 2018-01-22 | 2018-01-22 | 一种基于深度学习的文本自动生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810058680.0A CN108197294B (zh) | 2018-01-22 | 2018-01-22 | 一种基于深度学习的文本自动生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108197294A true CN108197294A (zh) | 2018-06-22 |
CN108197294B CN108197294B (zh) | 2021-10-22 |
Family
ID=62590159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810058680.0A Active CN108197294B (zh) | 2018-01-22 | 2018-01-22 | 一种基于深度学习的文本自动生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108197294B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299211A (zh) * | 2018-09-21 | 2019-02-01 | 广州大学 | 一种基于Char-RNN模型的文本自动生成方法 |
CN109376315A (zh) * | 2018-09-25 | 2019-02-22 | 海南民航凯亚有限公司 | 一种基于机器学习的民航旅客标签分析方法及处理终端 |
CN109522411A (zh) * | 2018-11-12 | 2019-03-26 | 南京德磐信息科技有限公司 | 一种基于神经网络的写作辅助方法 |
CN109800419A (zh) * | 2018-12-18 | 2019-05-24 | 武汉西山艺创文化有限公司 | 一种游戏对话台词生成方法和系统 |
CN109903771A (zh) * | 2019-01-30 | 2019-06-18 | 科讯嘉联信息技术有限公司 | 一种快递场景智能录入地址方法及系统 |
CN110110331A (zh) * | 2019-04-30 | 2019-08-09 | 清华大学 | 文本生成方法、装置、介质和计算设备 |
WO2020020084A1 (zh) * | 2018-07-27 | 2020-01-30 | 杭州海康威视数字技术股份有限公司 | 文本生成方法、装置及设备 |
CN110782886A (zh) * | 2018-07-30 | 2020-02-11 | 阿里巴巴集团控股有限公司 | 语音处理的系统、方法、电视、设备和介质 |
CN110941960A (zh) * | 2019-11-12 | 2020-03-31 | 广州爱学信息科技有限公司 | 一种基于关键词的儿童绘本故事生成方法、系统及设备 |
CN111128235A (zh) * | 2019-12-05 | 2020-05-08 | 厦门快商通科技股份有限公司 | 一种基于语音的年龄预测方法和装置以及设备 |
CN111310867A (zh) * | 2020-05-11 | 2020-06-19 | 北京金山数字娱乐科技有限公司 | 一种基于图片的文本生成方法及装置 |
CN111859887A (zh) * | 2020-07-21 | 2020-10-30 | 北京北斗天巡科技有限公司 | 一种基于深度学习的科技新闻自动写作系统 |
CN112435447A (zh) * | 2021-01-27 | 2021-03-02 | 南京满星数据科技有限公司 | 一种基于深度学习的气象灾害预警方案生成方法 |
CN113330441A (zh) * | 2019-05-31 | 2021-08-31 | 株式会社艾飒木兰 | 一种专利文章生成装置、专利文章生成方法以及专利文章生成程序 |
CN113435843A (zh) * | 2021-06-28 | 2021-09-24 | 平安信托有限责任公司 | 批复文件生成方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103268311A (zh) * | 2012-11-07 | 2013-08-28 | 上海大学 | 基于事件结构的中文语句分析方法 |
CN106503255A (zh) * | 2016-11-15 | 2017-03-15 | 科大讯飞股份有限公司 | 基于描述文本自动生成文章的方法及系统 |
US20170083929A1 (en) * | 2015-09-22 | 2017-03-23 | Adobe Systems Incorporated | Reinforcement machine learning for personalized intelligent alerting |
CN106682220A (zh) * | 2017-01-04 | 2017-05-17 | 华南理工大学 | 一种基于深度学习的在线中医文本命名实体识别方法 |
CN106980683A (zh) * | 2017-03-30 | 2017-07-25 | 中国科学技术大学苏州研究院 | 基于深度学习的博客文本摘要生成方法 |
-
2018
- 2018-01-22 CN CN201810058680.0A patent/CN108197294B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103268311A (zh) * | 2012-11-07 | 2013-08-28 | 上海大学 | 基于事件结构的中文语句分析方法 |
US20170083929A1 (en) * | 2015-09-22 | 2017-03-23 | Adobe Systems Incorporated | Reinforcement machine learning for personalized intelligent alerting |
CN106503255A (zh) * | 2016-11-15 | 2017-03-15 | 科大讯飞股份有限公司 | 基于描述文本自动生成文章的方法及系统 |
CN106682220A (zh) * | 2017-01-04 | 2017-05-17 | 华南理工大学 | 一种基于深度学习的在线中医文本命名实体识别方法 |
CN106980683A (zh) * | 2017-03-30 | 2017-07-25 | 中国科学技术大学苏州研究院 | 基于深度学习的博客文本摘要生成方法 |
Non-Patent Citations (1)
Title |
---|
王哲: "基于深度学习技术的中国传统诗歌生成方法研究", 《中国优秀硕士学位论文全文数据库·信息科技辑》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020020084A1 (zh) * | 2018-07-27 | 2020-01-30 | 杭州海康威视数字技术股份有限公司 | 文本生成方法、装置及设备 |
CN110782886A (zh) * | 2018-07-30 | 2020-02-11 | 阿里巴巴集团控股有限公司 | 语音处理的系统、方法、电视、设备和介质 |
CN109299211A (zh) * | 2018-09-21 | 2019-02-01 | 广州大学 | 一种基于Char-RNN模型的文本自动生成方法 |
CN109376315A (zh) * | 2018-09-25 | 2019-02-22 | 海南民航凯亚有限公司 | 一种基于机器学习的民航旅客标签分析方法及处理终端 |
CN109522411A (zh) * | 2018-11-12 | 2019-03-26 | 南京德磐信息科技有限公司 | 一种基于神经网络的写作辅助方法 |
CN109522411B (zh) * | 2018-11-12 | 2022-10-28 | 南京德磐信息科技有限公司 | 一种基于神经网络的写作辅助方法 |
CN109800419A (zh) * | 2018-12-18 | 2019-05-24 | 武汉西山艺创文化有限公司 | 一种游戏对话台词生成方法和系统 |
CN109903771B (zh) * | 2019-01-30 | 2021-06-18 | 科讯嘉联信息技术有限公司 | 一种快递场景智能录入地址方法及系统 |
CN109903771A (zh) * | 2019-01-30 | 2019-06-18 | 科讯嘉联信息技术有限公司 | 一种快递场景智能录入地址方法及系统 |
CN110110331A (zh) * | 2019-04-30 | 2019-08-09 | 清华大学 | 文本生成方法、装置、介质和计算设备 |
CN113330441A (zh) * | 2019-05-31 | 2021-08-31 | 株式会社艾飒木兰 | 一种专利文章生成装置、专利文章生成方法以及专利文章生成程序 |
CN110941960A (zh) * | 2019-11-12 | 2020-03-31 | 广州爱学信息科技有限公司 | 一种基于关键词的儿童绘本故事生成方法、系统及设备 |
CN111128235A (zh) * | 2019-12-05 | 2020-05-08 | 厦门快商通科技股份有限公司 | 一种基于语音的年龄预测方法和装置以及设备 |
CN111310867A (zh) * | 2020-05-11 | 2020-06-19 | 北京金山数字娱乐科技有限公司 | 一种基于图片的文本生成方法及装置 |
CN111859887A (zh) * | 2020-07-21 | 2020-10-30 | 北京北斗天巡科技有限公司 | 一种基于深度学习的科技新闻自动写作系统 |
CN112435447A (zh) * | 2021-01-27 | 2021-03-02 | 南京满星数据科技有限公司 | 一种基于深度学习的气象灾害预警方案生成方法 |
CN113435843A (zh) * | 2021-06-28 | 2021-09-24 | 平安信托有限责任公司 | 批复文件生成方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108197294B (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108197294A (zh) | 一种基于深度学习的文本自动生成方法 | |
CN106202010B (zh) | 基于深度神经网络构建法律文本语法树的方法和装置 | |
CN109992779B (zh) | 一种基于cnn的情感分析方法、装置、设备及存储介质 | |
CN112883738A (zh) | 基于神经网络和自注意力机制的医学实体关系抽取方法 | |
CN111274800B (zh) | 基于关系图卷积网络的推理型阅读理解方法 | |
CN107908671A (zh) | 基于法律数据的知识图谱构建方法及系统 | |
CN107832400A (zh) | 一种基于位置的lstm和cnn联合模型进行关系分类的方法 | |
CN110222163A (zh) | 一种融合cnn与双向lstm的智能问答方法及系统 | |
CN110263323A (zh) | 基于栅栏式长短时记忆神经网络的关键词抽取方法及系统 | |
CN110083700A (zh) | 一种基于卷积神经网络的企业舆情情感分类方法及系统 | |
CN113127624B (zh) | 问答模型的训练方法及装置 | |
CN111858932A (zh) | 基于Transformer的多重特征中英文情感分类方法及系统 | |
CN111753207B (zh) | 一种基于评论的神经图协同过滤方法 | |
CN110083710A (zh) | 一种基于循环神经网络与潜变量结构的词语定义生成方法 | |
CN109214001A (zh) | 一种中文语义匹配系统及方法 | |
CN111460833A (zh) | 文本生成方法、装置和设备 | |
CN113779220A (zh) | 一种基于三通道认知图谱和图注意力网络的蒙语多跳问答方法 | |
CN111966812A (zh) | 一种基于动态词向量的自动问答方法和存储介质 | |
CN110110800A (zh) | 自动图像标注方法、装置、设备及计算机可读存储介质 | |
CN105975497A (zh) | 微博话题自动推荐方法及装置 | |
CN113435211A (zh) | 一种结合外部知识的文本隐式情感分析方法 | |
CN111400494A (zh) | 一种基于GCN-Attention的情感分析方法 | |
CN107665356A (zh) | 一种图像标注方法 | |
CN108363685B (zh) | 基于递归变分自编码模型的自媒体数据文本表示方法 | |
CN112287106A (zh) | 一种基于双通道混合神经网络的在线评论情感分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20180622 Assignee: Guilin Hanchen Technology Co.,Ltd. Assignor: GUILIN University OF ELECTRONIC TECHNOLOGY Contract record no.: X2022450000390 Denomination of invention: An automatic text generation method based on deep learning Granted publication date: 20211022 License type: Common License Record date: 20221226 |