CN109522403B - 一种基于融合编码的摘要文本生成方法 - Google Patents
一种基于融合编码的摘要文本生成方法 Download PDFInfo
- Publication number
- CN109522403B CN109522403B CN201811308510.XA CN201811308510A CN109522403B CN 109522403 B CN109522403 B CN 109522403B CN 201811308510 A CN201811308510 A CN 201811308510A CN 109522403 B CN109522403 B CN 109522403B
- Authority
- CN
- China
- Prior art keywords
- word
- fusion
- abstract
- model
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 26
- 239000013598 vector Substances 0.000 claims abstract description 31
- 238000013507 mapping Methods 0.000 claims abstract description 10
- 230000007774 longterm Effects 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 125000004122 cyclic group Chemical group 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 238000012512 characterization method Methods 0.000 claims description 8
- 230000002457 bidirectional effect Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims description 2
- 238000012546 transfer Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于融合编码的摘要文本生成方法,包括以下步骤:确定输入句子,将句子中每个词进行映射得到词向量;将句子中每个词经Spacy工具集转换为相应词性特征,通过映射得到词性标注特征;构建生成式文本摘要模型,将词向量、词性标注特征导入模型中,得到摘要序列。本发明提供的一种基于融合编码的摘要文本生成方法,通过生成式文本摘要模型,融合词向量和词性标注特征作为模型输入,有效提升了模型性能;同时将局部信息与全局信息进行融合编码,有利于模型的梯度传递,保证了句子的长期依赖。
Description
技术领域
本发明涉及自然语言处理领域,更具体的,涉及一种基于融合编码的摘要文本生成方法。
背景技术
在知识爆炸的新时代,提升生成式自动文本摘要模型的性能具有重大意义,随着深度学习的发展以及注意力机制的提出,基于注意力机制的神经网络开始在生成式文本摘要方面得到广泛的应用。一般神经网络模型都由两部分组成:编码器与解码器,编码器使用卷积神经网络或循环神经网络产生具有上下文语义信息的文本表征,如果引入了选择机制,则将该文本表征再通过一层由神经网络的sigmoid函数控制的门,通过门筛选出重点信息;解码器根据编码信息以及当前生成的摘要词汇计算出注意力分数,通过分数用归一化指数函数再词库中计算出下一个摘要词汇的分数,最后输出最高分数对应的摘要词汇,直到生成终止符则停止解码。
传统的基于统计或规则的模型,通常需要人为制定大量规则,费时费力,且模型输出精度低,难以拟合数据。近年来的神经网络模型虽取得了长足的发展,但在编码方面仍然存在缺点,卷积神经网络的编码器只能捕捉句子的局部特征,使句子的位置信息严重缺失,捕获性能低;而循环神经网络的编码器虽能够有效捕捉句子的位置信息,但容易出现梯度消失问题,难以捕捉句子的长期依赖信息。
发明内容
本发明为克服上述现有技术在捕获文本摘要信息的时候存在捕获性能低,容易出现梯度消失问题,难以捕捉句子的长期依赖信息的技术问题,提供一种基于融合编码的摘要文本生成方法。
为解决上述技术问题,本发明的技术方案如下:
一种基于融合编码的摘要文本生成方法,包括以下步骤:
S1:确定输入句子,将句子中每个词进行映射得到词向量;
S2:将句子中每个词经Spacy工具集转换为相应词性特征,通过映射得到词性标注特征;
S3:构建生成式文本摘要模型,将词向量、词性标注特征导入模型中,得到摘要序列。
其中,在步骤S3中,所述的生成式文本摘要模型包括词嵌入层、融合模块、选择层和解码器;其中:
所述词嵌入层用于融合词向量、词性标注特征,得到融合模块的350维融合输入,其中,词向量设定为300维,词性标注特征设定为50维;
所述融合模块包括局部编码层、全局编码层和融合层;
其中,所述局部编码层由双向门控循环单位GRU组成,通过双向GRU获取融合输入信息的上下文局部表征H,其维度为300×m,m维输入句子的总词数;
所述全局编码层由多头自注意力层组成,通过6个线性变换将300维的上下文局部表征H映射维6个50维的子表征Qi,其中i=1,2,...,6,再使用放缩点积注意力计算每个子表征的长期依赖特征,最后通过矩阵拼接融合所有子表征的全局信息,得到上下文全局表征G,其维度为300×m;
所述融合层用于将上下文局部表征H与上下文全局表征G直接相加,获得融合编码;
所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息,将重点信息保留突出;
所述解码器通过门控循环单位GRU进行解码,最终得到摘要序列。
其中,所述词嵌入层通过矩阵拼接的方式融合词向量、词性标注特征。
其中,所述放缩点积注意力Attention计算公式具体为:
其中,dQi为子表征的维度,为50,其中i=1,2,...,6,为子表征的序号。
其中,所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息K,其具体计算公式为:
K=σ(WkG+bk)*G;
其中,Wk和bk是选择层的参数,在模型训练时优化更新,σ为sigmoid函数,*为哈达玛乘积。
其中,所述解码器通过门控循环单位GRU进行解码,其具体计算公式为:
st=GRU(yt-1,ct-1,st-1);
其中,yt-1是上一个解码得到的摘要词的词向量,ct-1是上一个解码状态中的注意力表征,st-1是上一个解码状态中的GRU状态,注意力表征ct的具体计算公式如下:
其中:
其中:
其中,为模型参数的转置矩阵,Wa,Ua均为模型参数,在训练过程中优化更新,ki为重要信息K矩阵的第i个向量,st-1是上一个解码状态中的GRU状态;由此,注意力表征能够学习到上一个解码状态中的GRU状态与当前第i个编码状态的关联;
通过线性转换将注意力表征ct、上一个解码得到的摘要词的词向量yt-1、当前GRU状态st进行融合,得到融合解码状态rt,具体计算公式如下:
rt=Wryt-1+Urct+Vrst;
其中,Wr,Ur,Vr为模型参数,在训练过程中优化更新;
最后对融合解码状态rt采用归一化指数函数变换,得到当前摘要位置t中出现某个词的概率,取最大概率的词作为该位置的摘要词Yt,最终得到摘要序列Y1,Y2,...,YT。
上述方案中,所述融合模块能够有效学习局部信息与全局信息,并将二者融合编码,大大提升了编码信息量。
上述方案中,所述的词嵌入层通过简单有效的方式,将词向量和词性标注特征有效地进行融合,有效地丰富了输入信息量,既提升了模型性能,又不会显著降低模型的训练速度。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供的一种基于融合编码的摘要文本生成方法,通过生成式文本摘要模型,融合词向量和词性标注特征作为模型输入,有效提升了模型性能;同时将局部信息与全局信息进行融合编码,有利于模型的梯度传递,保证了句子的长期依赖。
附图说明
图1为本发明方法流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种基于融合编码的摘要文本生成方法,包括以下步骤:
S1:确定输入句子,将句子中每个词进行映射得到词向量;
S2:将句子中每个词经Spacy工具集转换为相应词性特征,通过映射得到词性标注特征;
S3:构建生成式文本摘要模型,将词向量、词性标注特征导入模型中,得到摘要序列。
更具体的,在步骤S3中,所述的生成式文本摘要模型包括词嵌入层、融合模块、选择层和解码器;其中:
所述词嵌入层用于融合词向量、词性标注特征,得到融合模块的350维融合输入,其中,词向量设定为300维,词性标注特征设定为50维;
所述融合模块包括局部编码层、全局编码层和融合层;
其中,所述局部编码层由双向门控循环单位GRU组成,通过双向GRU获取融合输入信息的上下文局部表征H,其维度为300×m,m维输入句子的总词数;
所述全局编码层由多头自注意力层组成,通过6个线性变换将300维的上下文局部表征H映射维6个50维的子表征Qi,其中i=1,2,...,6,再使用放缩点积注意力计算每个子表征的长期依赖特征,最后通过矩阵拼接融合所有子表征的全局信息,得到上下文全局表征G,其维度为300×m;
所述融合层用于将上下文局部表征H与上下文全局表征G直接相加,获得融合编码;
所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息,将重点信息保留突出;
所述解码器通过门控循环单位GRU进行解码,最终得到摘要序列。
更具体的,所述词嵌入层通过矩阵拼接的方式融合词向量、词性标注特征。
更具体的,所述放缩点积注意力Attention计算公式具体为:
更具体的,所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息K,其具体计算公式为:
K=σ(WkG+bk)*G;
其中,Wk和bk是选择层的参数,在模型训练时优化更新,σ为sigmoid函数,*为哈达玛乘积。
其中,所述解码器通过门控循环单位GRU进行解码,其具体计算公式为:
st=GRU(yt-1,ct-1,st-1);
其中,yt-1是上一个解码得到的摘要词的词向量,ct-1是上一个解码状态中的注意力表征,st-1是上一个解码状态中的GRU状态,注意力表征ct的具体计算公式如下:
其中:
其中:
其中,为模型参数的转置矩阵,Wa,Ua均为模型参数,在训练过程中优化更新,ki为重要信息K矩阵的第i个向量,st-1是上一个解码状态中的GRU状态;由此,注意力表征能够学习到上一个解码状态中的GRU状态与当前第i个编码状态的关联;
通过线性转换将注意力表征ct、上一个解码得到的摘要词的词向量yt-1、当前GRU状态st进行融合,得到融合解码状态rt,具体计算公式如下:
rt=Wryt-1+Urct+Vrst;
其中,Wr,Ur,Vr为模型参数,在训练过程中优化更新;
最后对融合解码状态rt采用归一化指数函数变换,得到当前摘要位置t中出现某个词的概率,取最大概率的词作为该位置的摘要词Yt,最终得到摘要序列Y1,Y2,...,YT。
在具体实施过程中,所述融合模块能够有效学习局部信息与全局信息,并将二者融合编码,大大提升了编码信息量。
在具体实施过程中,所述的词嵌入层通过简单有效的方式,将词向量和词性标注特征有效地进行融合,有效地丰富了输入信息量,既提升了模型性能,又不会显著降低模型的训练速度。
在具体实施过程中,该方法通过生成式文本摘要模型,融合词向量和词性标注特征作为模型输入,有效提升了模型性能;同时将局部信息与全局信息进行融合编码,有利于模型的梯度传递,保证了句子的长期依赖。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (5)
1.一种基于融合编码的摘要文本生成方法,其特征在于,包括以下步骤:
S1:确定输入句子,将句子中每个词进行映射得到词向量;
S2:将句子中每个词经Spacy工具集转换为相应词性特征,通过映射得到词性标注特征;
S3:构建生成式文本摘要模型,将词向量、词性标注特征导入模型中,得到摘要序列;在步骤S3中,所述的生成式文本摘要模型包括词嵌入层、融合模块、选择层和解码器;其中:
所述词嵌入层用于融合词向量、词性标注特征,得到融合模块的350维融合输入,其中,词向量设定为300维,词性标注特征设定为50维;
所述融合模块包括局部编码层、全局编码层和融合层;
其中,所述局部编码层由双向门控循环单位GRU组成,通过双向GRU获取融合输入信息的上下文局部表征H,其维度为300×m,m维输入句子的总词数;
所述全局编码层由多头自注意力层组成,通过6个线性变换将300维的上下文局部表征H映射维6个50维的子表征Qi,其中i=1,2,...,6,再使用放缩点积注意力计算每个子表征的长期依赖特征,最后通过矩阵拼接融合所有子表征的全局信息,得到上下文全局表征G,其维度为300×m;
所述融合层用于将上下文局部表征H与上下文全局表征G直接相加,获得融合编码;
所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息,将重点信息保留突出;
所述解码器通过门控循环单位GRU进行解码,最终得到摘要序列。
2.根据权利要求1所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述词嵌入层通过矩阵拼接的方式融合词向量、词性标注特征。
4.根据权利要求2所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息K,其具体计算公式为:
K=σ(WkG+bk)*G;
其中,Wk和bk是选择层的参数,在模型训练时优化更新,σ为sigmoid函数,*为哈达玛乘积。
5.根据权利要求4所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述解码器通过门控循环单位GRU进行解码,其具体计算公式为:
st=GRU(yt-1,ct-1,st-1);
其中,yt-1是上一个解码得到的摘要词的词向量,ct-1是上一个解码状态中的注意力表征,st-1是上一个解码状态中的GRU状态,注意力表征ct的具体计算公式如下:
其中:
其中:
其中,为模型参数的转置矩阵,Wa,Ua均为模型参数,在训练过程中优化更新,ki为重要信息K矩阵的第i个向量,st-1是上一个解码状态中的GRU状态;由此,注意力表征能够学习到上一个解码状态中的GRU状态与当前第i个编码状态的关联;
通过线性转换将注意力表征ct、上一个解码得到的摘要词的词向量yt-1、当前GRU状态st进行融合,得到融合解码状态rt,具体计算公式如下:
rt=Wryt-1+Urct+Vrst;
其中,Wr,Ur,Vr为模型参数,在训练过程中优化更新;
最后对融合解码状态rt采用归一化指数函数变换,得到当前摘要位置t中出现某个词的概率,取最大概率的词作为该位置的摘要词Yt,最终得到摘要序列Y1,Y2,...,YT。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811308510.XA CN109522403B (zh) | 2018-11-05 | 2018-11-05 | 一种基于融合编码的摘要文本生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811308510.XA CN109522403B (zh) | 2018-11-05 | 2018-11-05 | 一种基于融合编码的摘要文本生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109522403A CN109522403A (zh) | 2019-03-26 |
CN109522403B true CN109522403B (zh) | 2023-04-21 |
Family
ID=65772755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811308510.XA Active CN109522403B (zh) | 2018-11-05 | 2018-11-05 | 一种基于融合编码的摘要文本生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109522403B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032638B (zh) * | 2019-04-19 | 2021-04-13 | 中山大学 | 一种基于编码器-解码器的生成式摘要提取方法 |
CN110209801B (zh) * | 2019-05-15 | 2021-05-14 | 华南理工大学 | 一种基于自注意力网络的文本摘要自动生成方法 |
CN110597979B (zh) * | 2019-06-13 | 2023-06-23 | 中山大学 | 一种基于自注意力的生成式文本摘要方法 |
CN110598212A (zh) * | 2019-09-05 | 2019-12-20 | 清华大学 | 一种快速命名体识别方法 |
CN110765264A (zh) * | 2019-10-16 | 2020-02-07 | 北京工业大学 | 一种增强语义相关性的文本摘要生成方法 |
CN111079998B (zh) * | 2019-12-03 | 2020-12-01 | 华东师范大学 | 基于长短时序相关性注意力机制模型的流量预测方法 |
CN111291534A (zh) * | 2020-02-03 | 2020-06-16 | 苏州科技大学 | 面向中文长文本自动摘要的全局编码方法 |
CN111708877B (zh) * | 2020-04-20 | 2023-05-09 | 中山大学 | 基于关键信息选择和变分潜在变量建模的文本摘要生成法 |
CN111709230B (zh) * | 2020-04-30 | 2023-04-07 | 昆明理工大学 | 基于词性软模板注意力机制的短文本自动摘要方法 |
CN112347150B (zh) * | 2020-11-23 | 2021-08-31 | 北京智谱华章科技有限公司 | 一种学者学术标签标注方法、装置和电子设备 |
CN113139468B (zh) * | 2021-04-24 | 2023-04-11 | 西安交通大学 | 融合局部目标特征与全局特征的视频摘要生成方法 |
CN113876354B (zh) * | 2021-09-30 | 2023-11-21 | 深圳信息职业技术学院 | 胎心率信号的处理方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104834735A (zh) * | 2015-05-18 | 2015-08-12 | 大连理工大学 | 一种基于词向量的文档摘要自动提取方法 |
CN106919646A (zh) * | 2017-01-18 | 2017-07-04 | 南京云思创智信息科技有限公司 | 中文文本摘要生成系统及方法 |
CN108153864A (zh) * | 2017-12-25 | 2018-06-12 | 北京牡丹电子集团有限责任公司数字电视技术中心 | 基于神经网络生成文本摘要的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6635307B2 (ja) * | 2016-10-20 | 2020-01-22 | 日本電信電話株式会社 | 要約生成装置、テキスト変換装置、方法、及びプログラム |
-
2018
- 2018-11-05 CN CN201811308510.XA patent/CN109522403B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104834735A (zh) * | 2015-05-18 | 2015-08-12 | 大连理工大学 | 一种基于词向量的文档摘要自动提取方法 |
CN106919646A (zh) * | 2017-01-18 | 2017-07-04 | 南京云思创智信息科技有限公司 | 中文文本摘要生成系统及方法 |
CN108153864A (zh) * | 2017-12-25 | 2018-06-12 | 北京牡丹电子集团有限责任公司数字电视技术中心 | 基于神经网络生成文本摘要的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109522403A (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109522403B (zh) | 一种基于融合编码的摘要文本生成方法 | |
CN110209801B (zh) | 一种基于自注意力网络的文本摘要自动生成方法 | |
CN109582789B (zh) | 基于语义单元信息的文本多标签分类方法 | |
Zhang et al. | Understanding subtitles by character-level sequence-to-sequence learning | |
CN111639175A (zh) | 一种自监督的对话文本摘要方法及系统 | |
CN110765772A (zh) | 拼音作为特征的中文语音识别后的文本神经网络纠错模型 | |
CN109492202A (zh) | 一种基于拼音的编码与解码模型的中文纠错方法 | |
CN113283244B (zh) | 一种基于预训练模型的招投标数据命名实体识别方法 | |
CN110837733A (zh) | 自重建方式的语言模型训练方法、系统及计算机可读介质 | |
CN111666756B (zh) | 一种基于主题融合的序列模型文本摘要生成方法 | |
CN110427605A (zh) | 面向短文本理解的省略恢复方法 | |
CN111401081A (zh) | 神经网络机器翻译方法、模型及模型形成方法 | |
CN116884391B (zh) | 基于扩散模型的多模态融合音频生成方法及装置 | |
CN110569505A (zh) | 一种文本输入方法及装置 | |
CN115906815B (zh) | 一种用于修改一种或多种类型错误句子的纠错方法及装置 | |
CN114691858B (zh) | 一种基于改进的unilm摘要生成方法 | |
CN113987129A (zh) | 基于变分自动编码器的数字媒体保护文本隐写方法 | |
CN115331073A (zh) | 一种基于TransUnet架构的影像自监督学习方法 | |
CN117236335B (zh) | 基于提示学习的两阶段命名实体识别方法 | |
CN117877460A (zh) | 语音合成方法、装置、语音合成模型训练方法、装置 | |
CN116821326A (zh) | 基于自注意力和相对位置编码的文本摘要生成方法及装置 | |
CN113239166B (zh) | 一种基于语义知识增强的自动化人机互动方法 | |
CN115270792A (zh) | 一种医疗实体识别方法及装置 | |
CN113947083A (zh) | 一种文档级别命名实体识别方法 | |
CN113077785A (zh) | 一种端到端的多语言连续语音流语音内容识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |