CN108763191A - 一种文本摘要生成方法及系统 - Google Patents
一种文本摘要生成方法及系统 Download PDFInfo
- Publication number
- CN108763191A CN108763191A CN201810339302.XA CN201810339302A CN108763191A CN 108763191 A CN108763191 A CN 108763191A CN 201810339302 A CN201810339302 A CN 201810339302A CN 108763191 A CN108763191 A CN 108763191A
- Authority
- CN
- China
- Prior art keywords
- word
- text
- vector
- feature
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种文本摘要生成方法及系统,包括:获取文本信息,并将文本信息切分成多个词;将切分成的多个词分别输入到词嵌入模型中,获取每个词的词向量;获取组成每个词的所有字,并将组成同一个词的所有字依序输入到双向循环神经网络模型中,获取每个词的联合向量;将每个词的词向量和与其对应的联合向量分别输入到非线性模型中,获取每个词的融合特征;将每个词的融合特征组合形成新的输入文本,并将该新的输入文本输入到卷积神经网络中,获取表征文本的高层次特征;将表征文本的高层次特征输入到编码‑解码模型中,获取摘要。本发明可使原文本的重点信息得到增强,非重点信息得到衰减,进而使生成的文本摘要更能表征文本重要信息。
Description
技术领域
本发明涉及文本数据处理领域,特别是涉及一种文本摘要生成方法及系统。
背景技术
随着数据的爆炸性发展,尤其是文本数据的剧增,人们已经无法及时浏览和理解所有感兴趣的文本,但遗漏某些重要的文本数据又会造成很多组织和应用的损失,因此,文本摘要作为总结文本重要数据的信息,成为了人们关注的重点,而如何根据文本数据自动生成摘要也成为了热门研究的课题。
目前,现有的文本摘要自动生成方法,主要是使用机器学习中的编码-解码模型,具体的,该模型先使用循环神经网络(Recurrent Neural Networks,RNN)作为编码器,将原文本进行信息编码压缩和提取,然后使用带有注意力机制的解码器将编码器压缩的信息进行解码,进而生成原文本的摘要;其中,解码器的结构与编码器一致,也是由循环神经网络构成。
但是,通过编码-解码模型生成文本摘要时,循环神经网络是直接对原文本信息进行压缩和提取,而由于循环神经网络对原文本的特征提取有限,导致很多高层次的特征如表征原文本重点信息的特征无法识别和提取,而非重点信息又未能有效识别和排除,进而使生成的文本摘要中带有较多的杂质信息,从而使最终生成的摘要不能很好的表征文本重要信息。
发明内容
基于此,本发明的目的在于,提供一种文本摘要生成方法,其具有可使原文本的重点信息得到增强,非重点信息得到衰减,进而使生成的文本摘要更能表征文本重要信息的优点。
一种文本摘要生成方法,包括如下步骤:
获取文本信息,并将文本信息切分成多个词;
将切分成的多个词分别输入到词嵌入模型中,获取每个词的词向量;
获取组成每个词的所有字,并将组成同一个词的所有字依序输入到双向循环神经网络模型中,获取每个词的联合向量;
将每个词的词向量和与其对应的联合向量分别输入到非线性模型中,获得每个词的加权权重;再根据每个词各自的加权权重,将每个词的词向量和与其对应的联合向量加权求和,获取每个词的融合特征;
将每个词的融合特征组合形成新的输入文本,并将该新的输入文本输入到卷积神经网络中,获取表征文本的高层次特征;
将表征文本的高层次特征输入到编码-解码模型中,获取文本摘要。
相比于现有技术,本发明通过将词和组成该词的所有字进行融合,再通过卷积神经网络提取出可表征文本的高层次特征,最后再将高层次特征作为编码-解码模型的输入,从而可使原文本的重点信息得到增强,非重点信息得到衰减,进而使生成的文本摘要更能表征文本重要信息。
进一步地,所述每个词的联合向量的获取方式包括:获取组成同一个词的所有字的正向循环神经网络的隐藏层向量和反向循环神经网络的隐藏层向量,再将这两个隐藏层向量相加,以获得每个词的联合向量。此时,每个词就有两个向量表示,一个是词向量,另外一个则是联合向量,根据这两个向量生成摘要,可有效减少因仅仅对词分析而造成超出词表的问题;另外,还可以防止单纯使用字进行分析时,导致单个汉字很难表达完整的语义,造成摘要语义不清的问题。
进一步地,所述表征文本的高层次特征的获取方式包括:
在卷积神经网络中,设置多个大小各不相同的卷积核;
获取新的输入文本中所有位置在各个卷积核下的特征,并将新的输入文本中对应位置在各个卷积核下的特征相加联合,以获取表征文本的高层次特征。
通过设置多个大小各不相同的卷积核对新的输入文本进行卷积处理,可大大增强重点信息,衰减非重点信息,进而可获取充分表征文本的高层次特征,提高后续文本摘要的生成效果。
本发明还提供一种文本摘要生成系统,包括处理器,适于加载并执行各种指令;以及存储设备,适于存储多条指令,所述指令适于由所述处理器加载并执行:
获取文本信息,并将文本信息切分成多个词;
将切分成的多个词分别输入到词嵌入模型中,获取每个词的词向量;
获取组成每个词的所有字,并将组成同一个词的所有字依序输入到双向循环神经网络模型中,获取每个词的联合向量;
将每个词的词向量和与其对应的联合向量分别输入到非线性模型中,获得每个词的加权权重;再根据每个词各自的加权权重,将每个词的词向量和与其对应的联合向量加权求和,获取每个词的融合特征;
将每个词的融合特征组合形成新的输入文本,并将该新的输入文本输入到卷积神经网络中,获取表征文本的高层次特征;
将表征文本的高层次特征输入到编码-解码模型中,获取并显示文本摘要。
相比于现有技术,本发明通过将词和组成该词的所有字进行融合,再通过卷积神经网络提取出可表征文本的高层次特征,最后再将高层次特征作为编码-解码模型的输入,从而可使原文本的重点信息得到增强,非重点信息得到衰减,进而使生成的文本摘要更能表征文本重要信息。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本发明实施例中文本摘要生成方法的流程图。
具体实施方式
请参阅图1,其为本发明实施例中文本摘要生成方法的流程图。该文本摘要生成方法,包括如下步骤:
步骤S1:获取文本信息,并将文本信息切分成多个词。
本发明中,可以采用现有的分词器或者分词工具等方式将文本信息切分成多个词。
步骤S2:将切分成的多个词分别输入到词嵌入模型中,获得每个词的词向量。
本发明中,若第i个词的词向量用xi表示,则表征文本的词向量集合可表示为x={x1,x2,...,xi-1,xi};其中词嵌入模型中的词向量大小可设置为200,其中,此处的向量以及后面涉及的其他向量为用计算机可读的语言如0,1来表示的某个词或数据。
步骤S3:获取组成每个词的所有字,并将组成同一个词的所有字依序输入到双向循环神经网络模型中,获取每个词的联合向量。
在一个实施例中,所述每个词的联合向量的获取方式包括:获取组成同一个词的所有字的正向循环神经网络的隐藏层向量和反向循环神经网络的隐藏层向量,再将这两个隐藏层向量相加,以获得每个词的联合向量。
在双向循环神经网络模型中,包括输入层、隐藏层和输出层,其中,从隐藏层输出到输入层的数据为正向循环神经网络的隐藏层向量,从隐藏层输出到输入层的数据为反向循环神经网络的隐藏层向量。
本发明中,双向循环神经网络模型中的隐藏层节点设置为200。
此时,每个词就有两个向量表示,一个是词向量,另外一个则是联合向量。
步骤S4:将每个词的词向量和与其对应的联合向量分别输入到非线性模型中,获得每个词的加权权重;再根据每个词各自的加权权重,将每个词的词向量和与其对应的联合向量加权求和,获取每个词的融合特征。
在一个实施例中,所述每个词的融合特征的获取方式为:
gi=σ(tanh(W1xi+W2hi)+b)
ki=gxi+(1-gi)hi
其中,gi表示第i个词的权重;W1和W2分别表示两个不同权重矩阵;b表示偏置;xi为第i个词的词向量;hi为第i个词的联合向量;ki为第i个词的融合特征;tanh是双曲正切函数,其函数为σ是Sigmoid函数,其函数为其值范围是(0,1)。
步骤S5:将每个词的融合特征组合形成新的输入文本,并将该新的输入文本输入到卷积神经网络中,获取表征文本的高层次特征。
在一个实施例中,具体的,所述表征文本的高层次特征的获取方式包括:
步骤S51:在卷积神经网络中,设置多个大小各不相同的卷积核。
本发明中,卷积神经网络中卷积层的卷积核个数设置为100,卷积核大小可选取:1,3,5,9,卷积的步长可设置为1。
步骤S52:获取新的输入文本中所有位置在各个卷积核下的特征,并将新的输入文本中对应位置在各个卷积核下的特征相加联合,以获取表征文本的高层次特征。
具体的,所述表征文本的高层次特征的计算方式如下:
qs=f(W*Ks+b)
F=q1,s+q2,s+···+qj-1,s+qj,s
其中,qs代表卷积核在输入s处通过卷积操作得到的特征向量;f代表卷积核函数;W是变量矩阵;Ks表示s处的所有词的融合特征;b代表偏置量;j代表卷积核个数;F表示表征文本的高层次特征,F的计算公式表示将第j个卷积核在位置s处通过卷积操作得到的特征向量相加联合。
所述相加联合指将获取的qs特征向量(在神经网络中计算都是矩阵计算,获取的qs特征向量也是矩阵)按第0维进行拼接。如若计算出的两个特征向量为[[1,2,3],[4,5,6]]和[[7,8,9],[10,11,12]],则将这两个特征向量相加联合后即为[[1,2,3],[4,5,6],[7,8,9],[10,11,12]]。
步骤S6:将表征文本的高层次特征输入到编码-解码模型,获取文本摘要。
本发明中,编码-解码模型中的编码器和解码器的隐藏层节点个数均设置为200。
通过所述编码-解码模型提取摘要的方式为:使用循环神经网络(RecurrentNeural Networks,RNN)作为编码器,将表征文本的高层次特征进行信息编码压缩和提取,然后使用带有注意力机制的解码器将编码器压缩的信息进行解码,进而生成文本摘要;进一步地,再将获取的文本摘要显示出来。
本发明还提供一种文本摘要生成系统,包括处理器,适于加载并执行各种指令;以及存储设备,适于存储多条指令,所述指令适于由所述处理器加载并执行:
获取文本信息,并将文本信息切分成多个词。
将切分成的多个词分别输入到词嵌入模型中,获取每个词的词向量。
获取组成每个词的所有字,并将组成同一个词的所有字依序输入到双向循环神经网络模型中,获取每个词的联合向量。
将每个词的词向量和与其对应的联合向量分别输入到非线性模型中,获得每个词的加权权重;再根据每个词各自的加权权重,将每个词的词向量和与其对应的联合向量加权求和,获取每个词的融合特征。
将每个词的融合特征组合形成新的输入文本,并将该新的输入文本输入到卷积神经网络中,获取表征文本的高层次特征。
将表征文本的高层次特征输入到编码-解码模型中,获取文本摘要。
在一个实施例中,可以采用现有的分词器或者分词工具等方式将文本信息切分成多个词。
在一个实施例中,获取所述每个词的联合向量时,所述处理器加载并执行:获取组成同一个词的所有字的正向循环神经网络的隐藏层向量和反向循环神经网络的隐藏层向量,再将这两个向量相加,以获得每个词的联合向量。
在一个实施例中,获取所述每个词的融合特征时,所述处理器加载并执行如下公式:
gi=σ(tanh(W1xi+W2hi)+b)
ki=gxi+(1-gi)hi
其中,gi表示第i个词的权重;W1和W2分别表示两个不同权重矩阵;b表示偏置;xi为第i个词的词向量;hi为第i个词的联合向量;ki为第i个词的融合特征;tanh是双曲正切函数,其函数为σ是Sigmoid函数,其函数为其值范围是(0,1)。
在一个实施例中,获取高层次特征时,所述处理器加载并执行:获取所述表征文本的高层次特征时,所述处理器加载并执行:在卷积神经网络中,设置多个大小各不相同的卷积核;获取新的输入文本中所有位置在各个卷积核下的特征,并将新的输入文本中对应位置在各个卷积核下的特征相加联合,以获取表征文本的高层次特征。
所述表征文本的高层次特征的计算方式如下:
qs=f(W*Ks+b)
F=q1,s+q2,s+···+qj-1,s+qj,s
其中,qs代表卷积核在输入s处通过卷积操作得到的特征向量;f代表卷积核函数;W是变量矩阵;Ks表示s处的所有词的融合特征;b代表偏置量;j代表卷积核个数;F表示表征文本的高层次特征,F的计算公式表示将第j个卷积核在位置s处通过卷积操作得到的特征向量相加联合。
所述相加联合指将获取的qs特征向量(在神经网络中计算都是矩阵计算,获取的qs特征向量也是矩阵)按第0维进行拼接。如若计算出的两个特征向量为[[1,2,3],[4,5,6]]和[[7,8,9],[10,11,12]],则将这两个特征向量相加联合后即为[[1,2,3],[4,5,6],[7,8,9],[10,11,12]]。
相比于现有技术,本发明通过将词和组成该词的所有字进行融合,再通过卷积神经网络提取出可表征文本的高层次特征,最后再将高层次特征作为编码-解码模型的输入,从而可使原文本的重点信息得到增强,非重点信息得到衰减,进而使生成的文本摘要更能表征文本重要信息;进一步地,再将获取的文本摘要显示出来。
进一步地,通过将词和组成该词的所有字进行融合,还可在控制训练复杂度的情况下,有效减少因仅仅对词分析而造成超出词表的问题;另外,还可以防止单纯使用字进行分析时,导致单个汉字很难表达完整的语义,造成摘要语义不清的问题。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (8)
1.一种文本摘要生成方法,其特征在于,包括如下步骤:
获取文本信息,并将文本信息切分成多个词;
将切分成的多个词分别输入到词嵌入模型中,获取每个词的词向量;
获取组成每个词的所有字,并将组成同一个词的所有字依序输入到双向循环神经网络模型中,获取每个词的联合向量;
将每个词的词向量和与其对应的联合向量分别输入到非线性模型中,获得每个词的加权权重;再根据每个词各自的加权权重,将每个词的词向量和与其对应的联合向量加权求和,获取每个词的融合特征;
将每个词的融合特征组合形成新的输入文本,并将该新的输入文本输入到卷积神经网络中,获取表征文本的高层次特征;
将表征文本的高层次特征输入到编码-解码模型中,获取文本摘要。
2.根据权利要求1所述的文本摘要生成方法,其特征在于,所述每个词的联合向量的获取方式包括:获取组成同一个词的所有字的正向循环神经网络的隐藏层向量和反向循环神经网络的隐藏层向量,再将这两个隐藏层向量相加,以获得每个词的联合向量。
3.根据权利要求1所述的文本摘要生成方法,其特征在于,所述每个词的融合特征的计算方式为:
gi=σ(tanh(W1xi+W2hi)+b)
ki=gxi+(1-gi)hi
其中,gi表示第i个词的权重;W1和W2分别表示两个不同权重矩阵;b表示偏置;xi为第i个词的词向量;hi为第i个词的联合向量;ki为图图6特征;tanh是双曲正切函数,其函数为σ是Sigmoid函数,其函数为其值范围是(0,1)。
4.根据权利要求1所述的文本摘要生成方法,其特征在于,所述表征文本的高层次特征的获取方式包括:
在卷积神经网络中,设置多个大小各不相同的卷积核;
获取新的输入文本中所有位置在各个卷积核下的特征,并将新的输入文本中对应位置在各个卷积核下的特征相加联合,以获取表征文本的高层次特征。
5.根据权利要求4所述的文本摘要生成方法,其特征在于,所述表征文本的高层次特征的计算方式为:
qs=f(W*Ks+b)
F=q1,s+q2,s+...+qj-1,s+qj,s
其中,qs代表卷积核在输入s处通过卷积操作得到的特征向量;f代表卷积核函数;W是变量矩阵;Ks表示s处的所有词的融合特征;b代表偏置量;j代表卷积核个数;F表示表征文本的高层次特征,F的计算公式表示将第j个卷积核在位置s处通过卷积操作得到的特征向量相加联合。
6.一种文本摘要生成系统,其特征在于,包括处理器,适于加载并执行各种指令;以及存储设备,适于存储多条指令,所述指令适于由所述处理器加载并执行:
获取文本信息,并将文本信息切分成多个词;
将切分成的多个词分别输入到词嵌入模型中,获取每个词的词向量;
获取组成每个词的所有字,并将组成同一个词的所有字依序输入到双向循环神经网络模型中,获取每个词的联合向量;
将每个词的词向量和与其对应的联合向量分别输入到非线性模型中,获得每个词的加权权重;再根据每个词各自的加权权重,将每个词的词向量和与其对应的联合向量加权求和,获取每个词的融合特征;
将每个词的融合特征组合形成新的输入文本,并将该新的输入文本输入到卷积神经网络中,获取表征文本的高层次特征;
将表征文本的高层次特征输入到编码-解码模型中,获取文本摘要。
7.根据权利要求6所述的文本摘要生成系统,其特征在于,获取所述每个词的联合向量时,所述处理器加载并执行:获取组成同一个词的所有字的正向循环神经网络的隐藏层向量和反向循环神经网络的隐藏层向量,再将这两个向量相加,以获得每个词的联合向量。
8.根据权利要求6所述的文本摘要生成系统,其特征在于,获取所述表征文本的高层次特征时,所述处理器加载并执行:
在卷积神经网络中,设置多个大小各不相同的卷积核;
获取新的输入文本中所有位置在各个卷积核下的特征,并将新的输入文本中对应位置在各个卷积核下的特征相加联合,以获取表征文本的高层次特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810339302.XA CN108763191B (zh) | 2018-04-16 | 2018-04-16 | 一种文本摘要生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810339302.XA CN108763191B (zh) | 2018-04-16 | 2018-04-16 | 一种文本摘要生成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108763191A true CN108763191A (zh) | 2018-11-06 |
CN108763191B CN108763191B (zh) | 2022-02-11 |
Family
ID=64010674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810339302.XA Active CN108763191B (zh) | 2018-04-16 | 2018-04-16 | 一种文本摘要生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108763191B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657231A (zh) * | 2018-11-09 | 2019-04-19 | 广东电网有限责任公司 | 一种长短信精简方法及系统 |
CN109783603A (zh) * | 2018-12-13 | 2019-05-21 | 平安科技(深圳)有限公司 | 基于自编码神经网络的文本生成方法、装置、终端及介质 |
CN110442706A (zh) * | 2019-07-17 | 2019-11-12 | 华南师范大学 | 一种文本摘要生成的方法、系统、设备及存储介质 |
CN110674305A (zh) * | 2019-10-10 | 2020-01-10 | 天津师范大学 | 一种基于深层特征融合模型的商品信息分类方法 |
CN110716964A (zh) * | 2019-09-19 | 2020-01-21 | 卓尔智联(武汉)研究院有限公司 | 基于gru网络的新生儿取名方法、电子设备及存储介质 |
CN111291874A (zh) * | 2018-12-06 | 2020-06-16 | 黄朝宗 | 卷积神经网络处理器及其数据处理方法 |
CN111460109A (zh) * | 2019-01-22 | 2020-07-28 | 阿里巴巴集团控股有限公司 | 摘要及对话摘要生成方法和装置 |
CN112133279A (zh) * | 2019-06-06 | 2020-12-25 | Tcl集团股份有限公司 | 车载信息播报方法、装置及终端设备 |
CN113377997A (zh) * | 2021-06-30 | 2021-09-10 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种歌曲检索方法、电子设备及计算机可读存储介质 |
CN113590809A (zh) * | 2021-07-02 | 2021-11-02 | 华南师范大学 | 一种裁判文书摘要自动生成方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070061023A1 (en) * | 1991-12-23 | 2007-03-15 | Hoffberg Linda I | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
CN102054178A (zh) * | 2011-01-20 | 2011-05-11 | 北京联合大学 | 一种基于局部语义概念的国画图像识别方法 |
US20140324879A1 (en) * | 2013-04-27 | 2014-10-30 | DataFission Corporation | Content based search engine for processing unstructured digital data |
CN105930314A (zh) * | 2016-04-14 | 2016-09-07 | 清华大学 | 基于编码-解码深度神经网络的文本摘要生成系统及方法 |
CN107133213A (zh) * | 2017-05-06 | 2017-09-05 | 广东药科大学 | 一种基于算法的文本摘要自动提取方法与系统 |
CN107886109A (zh) * | 2017-10-13 | 2018-04-06 | 天津大学 | 一种基于有监督视频分割的视频摘要方法 |
-
2018
- 2018-04-16 CN CN201810339302.XA patent/CN108763191B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070061023A1 (en) * | 1991-12-23 | 2007-03-15 | Hoffberg Linda I | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
CN102054178A (zh) * | 2011-01-20 | 2011-05-11 | 北京联合大学 | 一种基于局部语义概念的国画图像识别方法 |
US20140324879A1 (en) * | 2013-04-27 | 2014-10-30 | DataFission Corporation | Content based search engine for processing unstructured digital data |
CN105930314A (zh) * | 2016-04-14 | 2016-09-07 | 清华大学 | 基于编码-解码深度神经网络的文本摘要生成系统及方法 |
CN107133213A (zh) * | 2017-05-06 | 2017-09-05 | 广东药科大学 | 一种基于算法的文本摘要自动提取方法与系统 |
CN107886109A (zh) * | 2017-10-13 | 2018-04-06 | 天津大学 | 一种基于有监督视频分割的视频摘要方法 |
Non-Patent Citations (2)
Title |
---|
LEE SLE 等: ""Spin in Randomised Clinical Trial Reports of Interventions for Obesity"", 《KOREAN JOURNAL OF ACUPUNCTURE》 * |
杜秀英: "" 基于聚类与语义相似分析的多文本自动摘要方法"", 《情报杂志》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657231A (zh) * | 2018-11-09 | 2019-04-19 | 广东电网有限责任公司 | 一种长短信精简方法及系统 |
CN111291874B (zh) * | 2018-12-06 | 2023-12-01 | 神盾股份有限公司 | 卷积神经网络处理器及其数据处理方法 |
CN111291874A (zh) * | 2018-12-06 | 2020-06-16 | 黄朝宗 | 卷积神经网络处理器及其数据处理方法 |
US11487952B2 (en) | 2018-12-13 | 2022-11-01 | Ping An Technology (Shenzhen) Co., Ltd. | Method and terminal for generating a text based on self-encoding neural network, and medium |
CN109783603A (zh) * | 2018-12-13 | 2019-05-21 | 平安科技(深圳)有限公司 | 基于自编码神经网络的文本生成方法、装置、终端及介质 |
CN109783603B (zh) * | 2018-12-13 | 2023-05-26 | 平安科技(深圳)有限公司 | 基于自编码神经网络的文本生成方法、装置、终端及介质 |
WO2020119069A1 (zh) * | 2018-12-13 | 2020-06-18 | 平安科技(深圳)有限公司 | 基于自编码神经网络的文本生成方法、装置、终端及介质 |
CN111460109B (zh) * | 2019-01-22 | 2023-12-26 | 阿里巴巴集团控股有限公司 | 摘要及对话摘要生成方法和装置 |
CN111460109A (zh) * | 2019-01-22 | 2020-07-28 | 阿里巴巴集团控股有限公司 | 摘要及对话摘要生成方法和装置 |
CN112133279A (zh) * | 2019-06-06 | 2020-12-25 | Tcl集团股份有限公司 | 车载信息播报方法、装置及终端设备 |
CN110442706B (zh) * | 2019-07-17 | 2023-02-03 | 华南师范大学 | 一种文本摘要生成的方法、系统、设备及存储介质 |
CN110442706A (zh) * | 2019-07-17 | 2019-11-12 | 华南师范大学 | 一种文本摘要生成的方法、系统、设备及存储介质 |
CN110716964A (zh) * | 2019-09-19 | 2020-01-21 | 卓尔智联(武汉)研究院有限公司 | 基于gru网络的新生儿取名方法、电子设备及存储介质 |
CN110674305B (zh) * | 2019-10-10 | 2023-05-12 | 天津师范大学 | 一种基于深层特征融合模型的商品信息分类方法 |
CN110674305A (zh) * | 2019-10-10 | 2020-01-10 | 天津师范大学 | 一种基于深层特征融合模型的商品信息分类方法 |
CN113377997A (zh) * | 2021-06-30 | 2021-09-10 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种歌曲检索方法、电子设备及计算机可读存储介质 |
CN113590809A (zh) * | 2021-07-02 | 2021-11-02 | 华南师范大学 | 一种裁判文书摘要自动生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108763191B (zh) | 2022-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108763191A (zh) | 一种文本摘要生成方法及系统 | |
CN107563498B (zh) | 基于视觉与语义注意力相结合策略的图像描述方法及系统 | |
CN105279495B (zh) | 一种基于深度学习和文本总结的视频描述方法 | |
Yi et al. | Text style transfer via learning style instance supported latent space | |
CN109992779B (zh) | 一种基于cnn的情感分析方法、装置、设备及存储介质 | |
CN111143576A (zh) | 一种面向事件的动态知识图谱构建方法和装置 | |
CN108829719A (zh) | 一种非事实类问答答案选择方法及系统 | |
WO2019012908A1 (ja) | ノン・ファクトイド型質問応答装置 | |
CN107918782A (zh) | 一种生成描述图像内容的自然语言的方法与系统 | |
CN107133211A (zh) | 一种基于注意力机制的作文评分方法 | |
CN108416065A (zh) | 基于层级神经网络的图像-句子描述生成系统及方法 | |
CN108549658A (zh) | 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统 | |
CN111325323A (zh) | 一种融合全局信息和局部信息的输变电场景描述自动生成方法 | |
CN108845990A (zh) | 基于双向注意力机制的答案选择方法、装置和电子设备 | |
CN110148400A (zh) | 发音类型的识别方法、模型的训练方法、装置及设备 | |
CN108628935A (zh) | 一种基于端到端记忆网络的问答方法 | |
CN112348911B (zh) | 基于语义约束的堆叠文本生成细粒度图像方法及系统 | |
CN107679225A (zh) | 一种基于关键词的回复生成方法 | |
DE112020003909T5 (de) | Verfahren zum multimodalen abrufen bzw. wiedergewinnen und clustern unter verwendung einer tiefen cca und aktiver paarweiser abfragen | |
CN113157919B (zh) | 语句文本方面级情感分类方法及系统 | |
Feng et al. | Dialogue discourse-aware graph convolutional networks for abstractive meeting summarization | |
CN112948505A (zh) | 一种实体关系分类的模型构建方法、设备及存储介质 | |
CN110083842A (zh) | 译文质量检测方法、装置、机器翻译系统和存储介质 | |
CN111445545B (zh) | 一种文本转贴图方法、装置、存储介质及电子设备 | |
Fan et al. | Long-term recurrent merge network model for image captioning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |