CN110619118A - 一种文本自动生成方法 - Google Patents
一种文本自动生成方法 Download PDFInfo
- Publication number
- CN110619118A CN110619118A CN201910243895.4A CN201910243895A CN110619118A CN 110619118 A CN110619118 A CN 110619118A CN 201910243895 A CN201910243895 A CN 201910243895A CN 110619118 A CN110619118 A CN 110619118A
- Authority
- CN
- China
- Prior art keywords
- text
- network
- real
- generating
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 53
- 230000006870 function Effects 0.000 claims description 16
- 238000009826 distribution Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 241000282414 Homo sapiens Species 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000019771 cognition Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种文本自动生成方法。该方法包括:步骤1、利用预训练好的自编码器得到待处理真实文本的隐藏空间向量;步骤2、利用训练好的生成网络生成所述隐藏空间向量的合成文本。针对现有技术中的基于自编码器的方法易于训练但生成文本逻辑性差的问题,或者基于生成对抗网络的方法生成文本语句通顺但稳定性差的问题,本发明能够加速生成网络的训练速度,增强训练稳定性,并在一定程度上增强合成文本的文本逻辑性。
Description
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种文本自动生成方法。
背景技术
高效生成类似于人类语言的合成文本是自然语言处理领域的一个重要研究方向,也是人工智能走向成熟的一个重要标志。目前,文本生成技术有很多的应用,例如:文本生成技术可以应用于智能问答与对话、机器翻译等系统,实现更加智能和自然的人机交互;文本生成系统也可以替代编辑实现新闻的自动撰写与发布,最终将有可能颠覆新闻出版行业;该项技术甚至可以用来帮助学者进行学术论文撰写,进而改变科研创作模式。因此,自动生成文本技术对于提升人类生产生活效率,提高人类生活水平具有重要意义。
目前,文本生成方法主要有两类方法。一是基于自编码器的文本生成方法,主要利用编码器输入的真实文本和解码器输出的真实文本的一致性约束条件来生成文本;二是基于对抗生成网络的文本生成方法,主要利用生成网络与判别网络的博弈对抗来生成文本。第一类方法训练方法简单,计算复杂度低,但是生成的文本逻辑性较差,不符合人类认知;第二类方法生成的文本逻辑性较强,语句通顺,符合人类认知,但是训练稳定性差,难度大。
中国专利CN108334497A公开了一种自动生成文本的方法和装置,该方法为提升文本生成效果,以循环神经网络作为基础,在上面融合了变分自编码器,并使用了生成对抗网络的思想,运用卷积神经网络作为判别器,使用强化学习来进行训练。但是,该方法将变分自编码器融入生成网络,使得生成对抗网络训练计算复杂度较高,难度较大。并且生成对抗网络采用的循环神经网络容易产生梯度爆炸问题,训练不稳定。
发明内容
针对现有文本生成方法中存在的生成的文本逻辑性较差或者生成的文本逻辑性较强但是训练过程复杂、稳定性差以及难度较大的问题,本发明提供一种文本自动生成方法。
本发明提供的一种文本自动生成方法,包括以下步骤:
步骤1、利用预训练好的自编码器得到待处理真实文本的隐藏空间向量;
步骤2、利用训练好的生成网络生成所述隐藏空间向量的合成文本。
进一步地,所述自编码器包括:编码器与解码器;相应地,所述自编码器的预训练过程包括:
步骤a1、利用编码器将真实数据集中的训练用真实文本映射到隐藏空间中得到隐藏向量;
步骤a2、利用解码器将编码器得到的隐藏向量映射到训练用真实文本;
步骤a3、将输入至编码器的训练用真实文本与解码器恢复的训练用真实文本进行一致性保持,得到真实数据集的隐藏空间BM。
进一步地,所述生成网络的训练过程包括:
步骤b1、随机初始化生成网络的参数θ和判别网络的参数φ;
步骤b2、从真实数据集随机抽取一训练用真实文本,利用预训练好的自编码器得到训练用真实文本的隐藏空间向量;
步骤b3、根据训练用真实文本的隐藏空间向量,利用生成网络生成训练用真实文本的合成文本;
步骤b4、从真实数据集再次随机抽取一训练用真实文本,将再次抽取的训练用真实文本和步骤b3中的合成文本输入到判别网络进行文本分类;
步骤b5、将判别网络的分类结果作为奖励值,依次更新判别网络与生成网络的模型参数;
步骤b6、重复步骤b2至步骤b5,直至生成网络与判别网络收敛,即得到训练好的生成网络。
进一步地,步骤b3中,所述生成网络生成合成文本的过程具体为:
步骤b3.1、分别按照式(1)和式(2)生成隐藏空间向量z的第一个单词y1和第t个单词yt:
其中,z∈Rd,d表示噪声向量的维度;C,V表示参数矩阵;w1表示第一个单词的单词概率分布向量;h1表示第一个单词的隐藏向量;p(w1|z)表示;We∈Rm×k表示单词的嵌入矩阵,m表示真实文本数据中的单词数目,k表示真实文本数据中单词的维度;分别表示第t个单词的输入门向量、遗忘门向量、输出门向量、记忆门向量、修正记忆门向量和隐藏向量;wt表示第t个单词的词概率分布向量;σ(·)表示sigmoid函数,⊙表示点乘;W{i,f,o,c},U{i,f,o,c},C{i,f,o,c},b{i,f,o,c}表示偏置;t≥2。
步骤b3.2、按照式(3)生成合成文本
其中,G(·)表示生成网络;T表示合成文本的单词数目,表示拼接操作。
进一步地,步骤b4中,所述判别网络进行文本分类的过程具体为:
步骤b4.1、在卷积层,每个句子的第i个单词的位置的输出为ci:
其中,ξ表示输入至判别网络的训练用真实文本和合成文本,ξ∈RT×k;w∈Rl×k表示窗口大小为l的卷积核,表示点乘后进行加和操作,b表示偏置,ρ表示Relu函数;
步骤b4.2、在池化层,采用最大池化策略,经过池化后的输出为
步骤b4.3、在分类层,采用基于softmax函数的方法进行分类,即yc=softmax(W(p)c+b(p))。
进一步地,步骤b5中,所述更新判别网络与生成网络的模型参数具体为:
步骤b5.1、设置最优化目标函数(5):
其中,x表示服从真实文本分布px采样的样本,z表示服从噪音空间分布pz采样的样本,表示判别网络对真实文本分类的分类结果的期望,表示判别网络对合成文本分类的分类结果的期望,Dφ表示参数设置为φ的判别网络,Gθ表示参数设置为θ的生成网络;
步骤b5.2、根据所述最优化目标函数,生成网络Gθ的参数θ的更新方式为式(6)和式(7):
其中,Y表示生成网络Gθ生成的合成文本;αh为生成网络Gθ第h步的学习率;
步骤b5.3、根据所述最优化目标函数,判别网络Dφ的参数φ的更新方式为式(9)和式(10):
其中,βh为判别网络Dφ第h步的学习率。
进一步地,步骤b5.2中,将生成网络Gθ生成的合成文本被判别网络Dφ判断为真实文本的概率作为奖励值,所述奖励值按照式(8)进行计算:
其中,表示当输入单词为s时,生成网络Gθ生成单词为a时的奖励值;表示在生成网络Gθ生成文本y1:t后,利用蒙特卡洛搜索方法推导出的第n条文本;表示在生成网络Gθ生成文本y1:t后,利用蒙特卡洛搜索方法推导出的N条文本的集合。
本发明的有益效果:
本发明提供的一种文本自动生成方法,首先通过利用预训练好的自编码器,得到待处理真实文本的隐藏空间向量,作为生成网络的输入,加速生成网络的训练速度,并且增强了训练稳定性;其次,把隐藏空间向量输入到预先训练好的稳定的生成网络,利用生成网络自动生成合成文本。另外,由于通过自编码器得到的隐藏空间分布与真实文本空间分布有交集,本发明生成的合成文本符合人类认知,可读性较强。
附图说明
图1为本发明实施例提供的一种文本自动生成方法的流程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供的一种文本自动生成方法,包括以下步骤:
S101、利用预训练好的自编码器得到待处理真实文本的隐藏空间向量;
S102、利用训练好的生成网络生成所述隐藏空间向量的合成文本。
在上述实施例的基础上,本发明又一实施例提供的文本自动生成方法,分为训练阶段和文本自动生成阶段。其中:
训练阶段包括以下步骤:
S201、预训练自编码器。所述自编码器包括:编码器与解码器。所述自编码器的预训练过程包括:
步骤a1、利用编码器将真实数据集中的训练用真实文本映射到隐藏空间中得到隐藏向量;
步骤a2、利用解码器将编码器得到的隐藏向量映射到训练用真实文本;
步骤a3、将输入至编码器的训练用真实文本与解码器恢复的训练用真实文本进行一致性保持,得到真实数据集的隐藏空间BM。
S202、训练生成网络G。所述生成网络的训练过程包括:
步骤b1、随机初始化生成网络的参数θ和判别网络的参数φ,记为生成网络Gθ和判别网络Dφ。
具体地,生成网络G的作用为:将隐藏空间向量z映射到文本空间中,得到合成文本G(z)。其中,G(z)∈RT×k,T表示合成文本的单词个数即文本长度,k表示真实文本的单词的向量维度。判别网络D的作用为:对给定的一对文本(即:一条真实文本s∈RT×k与一条合成文本进行分类,分类结果包括两种:一种是将合成文本判定为真实文本s;另一种则是将合成文本判定为合成文本。
步骤b2、从真实数据集随机抽取一训练用真实文本,利用步骤S201中预训练好的自编码器得到训练用真实文本的隐藏空间向量,记为z,z∈BM;
步骤b3、根据训练用真实文本的隐藏空间向量,利用生成网络生成训练用真实文本的合成文本;
具体地,生成网络生成合成文本的过程具体为:
步骤b3.1、分别按照式(1)和式(2)生成隐藏空间向量z的第一个单词y1和第t个单词yt:
其中,z∈Rd,d表示噪声向量的维度;C,V表示参数矩阵;w1表示第一个单词的单词概率分布向量;h1表示第一个单词的隐藏向量;p(w1|z)表示;We∈Rm×k表示单词的嵌入矩阵,m表示真实文本数据中的单词数目,k表示真实文本数据中单词的维度;分别表示第t个单词的输入门向量、遗忘门向量、输出门向量、记忆门向量、修正记忆门向量和隐藏向量;wt表示第t个单词的单词概率分布向量;σ(·)表示sigmoid函数,⊙表示点乘;W{i,f,o,c},U{i,f,o,c},C{i,f,o,c},b{i,f,o,c}表示偏置;t≥2。例如,[1 2]⊙[1 2]=[1*1 2*2]=[14]。
步骤b3.2、按照式(3)生成合成文本
其中,G(·)表示生成网络;T表示合成文本的单词数目,表示拼接操作。例如,
步骤b4、从真实数据集再次随机抽取一训练用真实文本,将再次抽取的训练用真实文本和步骤b3中的合成文本输入到判别网络进行文本分类;
具体地,判别网络进行文本分类的过程具体为:
步骤b4.1、在卷积层,每个句子的第i个单词的位置的输出为ci:
其中,ξ表示输入至判别网络的训练用真实文本和合成文本,ξ∈RT×k;w∈Rl×k表示窗口大小为l的卷积核,表示点乘后进行加和操作,b表示偏置,ρ表示Relu函数;例如,
步骤b4.2、在池化层,采用最大池化策略,经过池化后的输出为
步骤b4.3、在分类层,采用基于softmax函数的方法进行分类,即yc=softmax(W(p)c+b(p))。
步骤b5、将判别网络的分类结果作为奖励值,依次更新判别网络与生成网络的模型参数;
由于判别网络Dφ只能对完整的句子进行分类,不能对句子片段进行分类,因此参数更新只能在生成网络Gθ生成完整的句子之后进行。本发明实施例采用联合训练的方式,目标是得到最优化目标函数的零和博弈均衡点。具体包括以下子步骤:
步骤b5.1、设置最优化目标函数(5):
其中,x表示服从真实文本分布px采样的样本,z表示服从噪音空间分布pz采样的样本,表示判别网络对真实文本分类的分类结果的期望,表示判别网络对合成文本分类的分类结果的期望,Dφ表示参数设置为φ的判别网络,Gθ表示参数设置为θ的生成网络;
步骤b5.2、根据所述最优化目标函数,生成网络Gθ的参数θ的更新方式为式(6)和式(7):
其中,Y表示生成网络Gθ生成的合成文本;αh为生成网络Gθ第h步的学习率;
在该步骤中,本发明实施例将生成网络Gθ生成的合成文本被判别网络Dφ判断为真实文本的概率作为奖励值,所述奖励值按照式(8)进行计算:
其中,表示当输入单词为s时,生成网络Gθ生成单词为a时的奖励值;表示在生成网络Gθ生成文本y1:t后,利用蒙特卡洛搜索方法推导出的第n条文本;表示在生成网络Gθ生成文本y1:t后,利用蒙特卡洛搜索方法推导出的N条文本的集合。
本发明实施例中的生成网络之所以上述参数更新方式,主要是鉴于以下原因:生成网络Gθ生成完整句子时采取逐个单词的方式,该方式会产生比较大的累积误差,因此对于生成网络Gθ而言,生成网络Gθ参数θ的更新方式需要考虑每次生成一个单词的未来情况。而上述的生成网络Gθ参数θ的更新方式则充分考虑了生成每个单词后的未来情况,减少了累积误差。
步骤b5.3、根据所述最优化目标函数,判别网络Dφ的参数φ的更新方式为式(9)和式(10):
其中,βh为判别网络Dφ第h步的学习率。
步骤b6、重复步骤b2至步骤b5,直至生成网络与判别网络收敛,即得到稳定的生成网络。
文本自动生成阶段包括以下步骤:
S203、将待处理真实文本输入至该预训练好的自编码器,得到该待处理真实文本的隐藏空间向量,记为z',z'∈BM。
S204、将该隐藏空间向量z'输入至经步骤S202训练好的稳定的生成网络中,自动生成该待处理真实文本的合成文本。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (7)
1.一种文本自动生成方法,其特征在于,包括:
步骤1、利用预训练好的自编码器得到待处理真实文本的隐藏空间向量;
步骤2、利用训练好的生成网络生成所述隐藏空间向量的合成文本。
2.根据权利要求1所述的方法,其特征在于,所述自编码器包括:编码器与解码器;相应地,所述自编码器的预训练过程包括:
步骤a1、利用编码器将真实数据集中的训练用真实文本映射到隐藏空间中得到隐藏向量;
步骤a2、利用解码器将编码器得到的隐藏向量映射到训练用真实文本;
步骤a3、将输入至编码器的训练用真实文本与解码器恢复的训练用真实文本进行一致性保持,得到真实数据集的隐藏空间BM。
3.根据权利要求1所述的方法,其特征在于,所述生成网络的训练过程包括:
步骤b1、随机初始化生成网络的参数θ和判别网络的参数φ;
步骤b2、从真实数据集随机抽取一训练用真实文本,利用预训练好的自编码器得到训练用真实文本的隐藏空间向量;
步骤b3、根据训练用真实文本的隐藏空间向量,利用生成网络生成训练用真实文本的合成文本;
步骤b4、从真实数据集再次随机抽取一训练用真实文本,将再次抽取的训练用真实文本和步骤b3中的合成文本输入到判别网络进行文本分类;
步骤b5、将判别网络的分类结果作为奖励值,依次更新判别网络与生成网络的模型参数;
步骤b6、重复步骤b2至步骤b5,直至生成网络与判别网络收敛,即得到训练好的生成网络。
4.根据权利要求3所述的方法,其特征在于,步骤b3中,所述生成网络生成合成文本的过程具体为:
步骤b3.1、分别按照式(1)和式(2)生成隐藏空间向量z的第一个单词y1和第t个单词yt:
其中,z∈Rd,d表示噪声向量的维度;C,V表示参数矩阵;w1表示第一个单词的单词概率分布向量;h1表示第一个单词的隐藏向量;p(w1|z)表示;We∈Rm×k表示单词的嵌入矩阵,m表示真实文本数据中的单词数目,k表示真实文本数据中单词的维度;it,ft,ot,ct,ht分别表示第t个单词的输入门向量、遗忘门向量、输出门向量、记忆门向量、修正记忆门向量和隐藏向量;wt表示第t个单词的词概率分布向量;σ(·)表示sigmoid函数,⊙表示点乘;W{i,f,o,c},U{i,f,o,c},C{i,f,o,c},b{i,f,o,c}表示偏置;t≥2;
步骤b3.2、按照式(3)生成合成文本
其中,G(·)表示生成网络;T表示合成文本的单词数目,表示拼接操作。
5.根据权利要求3所述的方法,其特征在于,步骤b4中,所述判别网络进行文本分类的过程具体为:
步骤b4.1、在卷积层,每个句子的第i个单词的位置的输出为ci:
其中,ξ表示输入至判别网络的训练用真实文本和合成文本,ξ∈RT×k;w∈Rl×k表示窗口大小为l的卷积核,表示点乘后进行加和操作,b表示偏置,ρ表示Relu函数;
步骤b4.2、在池化层,采用最大池化策略,经过池化后的输出为
步骤b4.3、在分类层,采用基于softmax函数的方法进行分类,即yc=softmax(W(p)c+b(p))。
6.根据权利要求3所述的方法,其特征在于,步骤b5中,所述更新判别网络与生成网络的模型参数具体为:
步骤b5.1、设置最优化目标函数(5):
其中,x表示服从真实文本分布px采样的样本,z表示服从噪音空间分布pz采样的样本,表示判别网络对真实文本分类的分类结果的期望,表示判别网络对合成文本分类的分类结果的期望,Dφ表示参数设置为φ的判别网络,Gθ表示参数设置为θ的生成网络;
步骤b5.2、根据所述最优化目标函数,生成网络Gθ的参数θ的更新方式为式(6)和式(7):
其中,Y表示生成网络Gθ生成的合成文本;αh为生成网络Gθ第h步的学习率;
步骤b5.3、根据所述最优化目标函数,判别网络Dφ的参数φ的更新方式为式(9)和式(10):
其中,βh为判别网络Dφ第h步的学习率。
7.根据权利要求6所述的方法,其特征在于,步骤b5.2中,将生成网络Gθ生成的合成文本被判别网络Dφ判断为真实文本的概率作为奖励值,所述奖励值按照式(8)进行计算:
其中,表示当输入单词为s时,生成网络Gθ生成单词为a时的奖励值;表示在生成网络Gθ生成文本y1:t后,利用蒙特卡洛搜索方法推导出的第n条文本;表示在生成网络Gθ生成文本y1:t后,利用蒙特卡洛搜索方法推导出的N条文本的集合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910243895.4A CN110619118B (zh) | 2019-03-28 | 2019-03-28 | 一种文本自动生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910243895.4A CN110619118B (zh) | 2019-03-28 | 2019-03-28 | 一种文本自动生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110619118A true CN110619118A (zh) | 2019-12-27 |
CN110619118B CN110619118B (zh) | 2022-10-28 |
Family
ID=68921146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910243895.4A Active CN110619118B (zh) | 2019-03-28 | 2019-03-28 | 一种文本自动生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110619118B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021174827A1 (zh) * | 2020-03-02 | 2021-09-10 | 平安科技(深圳)有限公司 | 文本生成方法、装置、计算机设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334497A (zh) * | 2018-02-06 | 2018-07-27 | 北京航空航天大学 | 自动生成文本的方法和装置 |
US20180300400A1 (en) * | 2017-04-14 | 2018-10-18 | Salesforce.Com, Inc. | Deep Reinforced Model for Abstractive Summarization |
CN109522411A (zh) * | 2018-11-12 | 2019-03-26 | 南京德磐信息科技有限公司 | 一种基于神经网络的写作辅助方法 |
-
2019
- 2019-03-28 CN CN201910243895.4A patent/CN110619118B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180300400A1 (en) * | 2017-04-14 | 2018-10-18 | Salesforce.Com, Inc. | Deep Reinforced Model for Abstractive Summarization |
CN108334497A (zh) * | 2018-02-06 | 2018-07-27 | 北京航空航天大学 | 自动生成文本的方法和装置 |
CN109522411A (zh) * | 2018-11-12 | 2019-03-26 | 南京德磐信息科技有限公司 | 一种基于神经网络的写作辅助方法 |
Non-Patent Citations (1)
Title |
---|
张一珂等: "基于对抗训练策略的语言模型数据增强技术", 《自动化学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021174827A1 (zh) * | 2020-03-02 | 2021-09-10 | 平安科技(深圳)有限公司 | 文本生成方法、装置、计算机设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110619118B (zh) | 2022-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108984724B (zh) | 利用高维表示提高特定属性情感分类准确率方法 | |
Oord et al. | Parallel wavenet: Fast high-fidelity speech synthesis | |
CN107273355B (zh) | 一种基于字词联合训练的中文词向量生成方法 | |
Xiang et al. | A convolutional neural network-based linguistic steganalysis for synonym substitution steganography | |
CN111859978A (zh) | 一种基于深度学习的情感文本生成方法 | |
CN111881677A (zh) | 基于深度学习模型的地址匹配算法 | |
CN111160467A (zh) | 一种基于条件随机场和内部语义注意力的图像描述方法 | |
Pramanik et al. | Text normalization using memory augmented neural networks | |
JP2019159654A (ja) | 時系列情報の学習システム、方法およびニューラルネットワークモデル | |
Yoon et al. | TutorNet: Towards flexible knowledge distillation for end-to-end speech recognition | |
CN111581970B (zh) | 一种网络语境的文本识别方法、装置及存储介质 | |
CN112395417A (zh) | 基于深度学习的网络舆情演化仿真方法及系统 | |
CN110851601A (zh) | 基于分层注意力机制的跨领域情感分类系统及方法 | |
CN113780059A (zh) | 一种基于多特征点的连续手语识别方法 | |
CN113157919A (zh) | 语句文本方面级情感分类方法及系统 | |
CN115630156A (zh) | 一种融合Prompt和SRU的蒙古语情感分析方法与系统 | |
Elleuch et al. | The Effectiveness of Transfer Learning for Arabic Handwriting Recognition using Deep CNN. | |
CN117875395A (zh) | 多模态预训练模型的训练方法、装置及存储介质 | |
Zheng et al. | Named entity recognition: A comparative study of advanced pre-trained model | |
CN114492458A (zh) | 一种基于多头注意力和词共现的方面级情感分析方法 | |
CN114444481A (zh) | 一种新闻评论的情感分析与生成方法 | |
CN110619118B (zh) | 一种文本自动生成方法 | |
Zhao et al. | Tibetan Multi-Dialect Speech and Dialect Identity Recognition. | |
Zhao et al. | Tibetan multi-dialect speech recognition using latent regression Bayesian network and end-to-end mode | |
CN114239575B (zh) | 语句分析模型的构建方法、语句分析方法、装置、介质和计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |