CN112069809B - 一种缺失文本生成方法及系统 - Google Patents

一种缺失文本生成方法及系统 Download PDF

Info

Publication number
CN112069809B
CN112069809B CN202010800708.0A CN202010800708A CN112069809B CN 112069809 B CN112069809 B CN 112069809B CN 202010800708 A CN202010800708 A CN 202010800708A CN 112069809 B CN112069809 B CN 112069809B
Authority
CN
China
Prior art keywords
vector
sample
missing
input sample
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010800708.0A
Other languages
English (en)
Other versions
CN112069809A (zh
Inventor
蔡晓东
郑淑婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202010800708.0A priority Critical patent/CN112069809B/zh
Publication of CN112069809A publication Critical patent/CN112069809A/zh
Application granted granted Critical
Publication of CN112069809B publication Critical patent/CN112069809B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种缺失文本生成方法及系统,方法包括:对输入样本的预处理得到缺失样本;通过embedding词嵌入算法分别对输入样本和缺失样本的词向量化处理得到输入样本句向量和缺失样本句向量;分别对输入样本和缺失样本的位置编码处理得到输入样本位置向量和缺失样本位置向量;根据输入样本句向量对缺失样本句向量、输入样本位置向量和缺失样本位置向量的增强句向量处理得到输入样本向量和缺失样本向量;对输入样本向量和缺失样本向量的模型训练得到完整文本。本发明网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量。

Description

一种缺失文本生成方法及系统
技术领域
本发明主要涉及语言处理技术领域,具体涉及一种缺失文本生成方法及系统。
背景技术
缺失文本生成旨在填充缺失的文本片段,适用于许多现实的自然语言生成场景,以往对缺失文本生成任务的研究一般限制在特定环境中,目前的缺失文本生成模型主要基于循环神经网络,它的序列特性很适合学习长距离文本上下文信息,但也排除了实例内的并行化,使训练和推理都很慢,对实时应用的部署带来很大挑战。
发明内容
本发明所要解决的技术问题是针对现有技术的不足,提供一种缺失文本生成方法及系统。
本发明解决上述技术问题的技术方案如下:一种缺失文本生成方法,包括如下步骤:
对输入样本进行预处理,得到缺失样本;
通过embedding词嵌入算法分别对所述输入样本和所述缺失样本进行词向量化处理,得到输入样本句向量和缺失样本句向量;
分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量;
根据所述输入样本句向量对所述缺失样本句向量、所述输入样本位置向量和所述缺失样本位置向量进行增强句向量处理,得到输入样本向量和缺失样本向量;
对所述输入样本向量和所述缺失样本向量进行模型训练,得到完整文本。
本发明解决上述技术问题的另一技术方案如下:一种文本填充系统,包括:
输入样本处理模块,用于对输入样本进行预处理,得到缺失样本;
词向量化处理处理模块,用于通过embedding词嵌入算法分别对所述输入样本和所述缺失样本进行词向量化处理,得到输入样本句向量和缺失样本句向量;
位置编码处理模块,用于分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量;
向量处理模块,用于根据所述输入样本句向量对所述缺失样本句向量、所述输入样本位置向量和所述缺失样本位置向量进行增强句向量处理,得到输入样本向量和缺失样本向量;
完整文本生成模块,用于对所述输入样本向量和所述缺失样本向量进行模型训练,得到完整文本。
本发明的有益效果是:通过对输入样本的预处理得到缺失样本,并通过embedding词嵌入算法分别对输入样本和缺失样本的词向量化处理得到输入样本句向量和缺失样本句向量,能够转化为网络能够识别的数据信息句向量,分别对输入样本和缺失样本的位置编码处理得到输入样本位置向量和缺失样本位置向量,准确地定位了缺失空白的位置,根据输入样本句向量对缺失样本句向量、输入样本位置向量和缺失样本位置向量的增强句向量处理得到输入样本向量和缺失样本向量,对输入样本向量和缺失样本向量的模型训练得到完整文本,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量,且网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题。
附图说明
图1为本发明一实施例提供的缺失文本生成方法的流程示意图;
图2为本发明一实施例提供的缺失文本生成系统的模块框图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
图1为本发明一实施例提供的缺失文本生成方法的流程示意图。
如图1所示,一种缺失文本生成方法,包括如下步骤:
对输入样本进行预处理,得到缺失样本;
通过embedding词嵌入算法分别对所述输入样本和所述缺失样本进行词向量化处理,得到输入样本句向量和缺失样本句向量;
分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量;
根据所述输入样本句向量对所述缺失样本句向量、所述输入样本位置向量和所述缺失样本位置向量进行增强句向量处理,得到输入样本向量和缺失样本向量;
对所述输入样本向量和所述缺失样本向量进行模型训练,得到完整文本。
应理解地,采用embedding词嵌入算法对所述输入样本和所述缺失样本进行词向量化表示,转化为网络能够识别的数据信息句向量。
上述实施例中,通过对输入样本的预处理得到缺失样本,并通过embedding词嵌入算法分别对输入样本和缺失样本的词向量化处理得到输入样本句向量和缺失样本句向量,能够转化为网络能够识别的数据信息句向量,分别对输入样本和缺失样本的位置编码处理得到输入样本位置向量和缺失样本位置向量,准确地定位了缺失空白的位置,根据输入样本句向量对缺失样本句向量、输入样本位置向量和缺失样本位置向量的增强句向量处理得到输入样本向量和缺失样本向量,对输入样本向量和缺失样本向量的模型训练得到完整文本,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量,且网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题。
可选地,作为本发明的一个实施例,所述对输入样本进行预处理,得到缺失样本的过程包括:
利用随机屏蔽算法对所述输入样本进行预处理,得到缺失样本,具体为:
通过预设第一占位符随机对所述输入样本中的词进行替换,得到第一缺失样本;
将预设第二占位符添加至所述第一缺失样本中所述预设第一占位符的开头,得到第二缺失样本;
将预设第三占位符添加至所述第二缺失样本中所述预设第一占位符的结尾,得到第三缺失样本;
将预设第四占位符添加至所述第三缺失样本的开头,得到第四缺失样本;
将预设第五占位符添加至所述第四缺失样本的结尾,得到缺失样本。
优选地,所述预设第一占位符可以为_m_占位符,所述预设第二占位符可以为<boa>,所述预设第三占位符可以为<eoa>,所述预设第四占位符可以为<EOS>,所述预设第五占位符可以为<BOS>。
应理解地,所述预设第一占位符、所述预设第二占位符和所述预设第三占位符均为多个。
具体地,采用随机屏蔽的方式,用_m_占位符表示空白,并随机替换所述输入样本中的词,其中每个空白缺失的词数是任意的,同时用<boa>和<eoa>分别表示每个空白的开头和结尾,用<EOS>和<BOS>分别作为每个缺失样本的开头和结尾,从而得到所述缺失样本。
应理解地,所述随机指的是随机替换所述输入样本中的词。
上述实施例中,利用预设的占位符对输入样本进行预处理,为之后的处理提供素材,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量,且网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题。
可选地,作为本发明的一个实施例,所述分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量的过程包括:
通过相对位置编码算法分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量,具体为:
通过第一式分别对所述输入样本和所述缺失样本进行计算,得到输入样本偶数位置向量和缺失样本偶数位置向量,所述第一式为:
Figure BDA0002627269080000051
其中,PE为二维矩阵,行为词语,列为词向量,pos为词语在句子中的位置;dmodel为词向量的维度;i为词向量的位置;
通过第二式分别对所述输入样本和所述缺失样本进行计算,得到输入样本奇数位置向量和缺失样本奇数位置向量,所述第二式为:
Figure BDA0002627269080000052
其中,PE为二维矩阵,行为词语,列为词向量,pos为词语在句子中的位置;dmodel为词向量的维度;i为词向量的位置;
根据所述输入样本偶数位置向量和所述输入样本奇数位置向量得到输入样本位置向量;
根据所述缺失样本偶数位置向量和所述缺失样本奇数位置向量得到缺失样本位置向量。
应理解地,在训练过程中,为了准确定位缺失空白的位置引入相对位置编码技术。
具体地,采用相对位置编码技术获取输入样本和缺失样本的位置向量;
Figure BDA0002627269080000061
Figure BDA0002627269080000062
其中,PE为二维矩阵,大小跟输入embedding的维度一样,行表示词语,列表示词向量;pos表示词语在句子中的位置;dmodel表示词向量的维度;i表示词向量的位置。因此,上述公式表示在每个词语的词向量的偶数位置添加sin变量,奇数位置添加cos变量,以此来填满整个PE矩阵。
上述实施例中,通过相对位置编码算法分别对所述输入样本和所述缺失样本的位置编码处理得到输入样本位置向量和缺失样本位置向量,为后续处理提供基础,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量,且网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题。
可选地,作为本发明的一个实施例,所述根据所述输入样本句向量对所述缺失样本句向量、所述输入样本位置向量和所述缺失样本位置向量进行增强句向量处理,得到输入样本向量和缺失样本向量的过程包括:
将所述输入样本句向量输入至预先构建的双向LSTM网络中提取隐藏信息处理,得到输入样本隐藏信息;
将所述输入样本句向量和所述样本隐藏信息输入至预先构建的信息增强网络中提取特征向量处理,得到输入样本特征向量;
将所述输入样本特征向量和所述输入样本位置向量进行相加计算,得到输入样本向量;
将所述缺失样本句向量和所述缺失样本位置向量进行相加计算,得到缺失样本向量。
应理解地,提取关键上下文语义信息,采用信息增强机制增强输入样本句向量上下文语义表示。
上述实施例中,将所述输入样本句向量输入至预先构建的双向LSTM网络中提取隐藏信息处理得到输入样本隐藏信息;将所述输入样本句向量和所述样本隐藏信息输入至预先构建的信息增强网络中提取特征向量处理得到输入样本特征向量;将所述输入样本特征向量和所述输入样本位置向量的相加计算得到输入样本向量;将所述缺失样本句向量和所述缺失样本位置向量的相加计算得到缺失样本向量,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量,且网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题。
可选地,作为本发明的一个实施例,所述将所述输入样本句向量输入至预先构建的双向LSTM网络中提取隐藏信息处理,得到输入样本隐藏信息的过程包括:
通过第三式对所述输入样本句向量进行隐藏信息提取计算,得到输入样本隐藏信息,所述第三式为:
Figure BDA0002627269080000071
其中,
Figure BDA0002627269080000072
其中,
Figure BDA0002627269080000073
为前向LSTM网络,
Figure BDA0002627269080000074
为后向LSTM网络,xi为前向LSTM网络输入的样本词向量,
Figure BDA0002627269080000075
为前一时刻的隐层信息,xi为后向LSTM网络输入的样本词向量,
Figure BDA0002627269080000076
为后一时刻的隐层信息,hi为输入样本隐藏信息。
上述实施例中,通过第三式对所述输入样本句向量的隐藏信息提取计算得到输入样本隐藏信息,为后续处理提供基础,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量,且网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题。
可选地,作为本发明的一个实施例,所述将所述输入样本句向量和所述样本隐藏信息输入至预先构建的信息增强网络中提取特征向量处理,得到输入样本特征向量的过程包括:
通过第四式对所述输入样本句向量和所述样本隐藏信息进行特征向量计算,得到输入样本特征向量,所述第四式为:
Figure BDA0002627269080000081
其中,rGatei=σ(WsE+Ushi+b),
其中,Ws为权重矩阵,Us为权重矩阵,b为偏置向量,σ为激活函数sigmoid,
Figure BDA0002627269080000082
为元素之间的点乘,E′i为输入样本特征向量,rGatei为信息增强系数,E为输入样本句向量,hi为样本隐藏信息。
应理解地,将所述输入样本句向量E和所述样本隐藏信息hi作为输入,计算所述信息增强系数rGatei,通过信息增强网络捕获关键的上下文语义信息,从而得到符合语义的输入句向量特征表示,如下式所示:
rGatei=σ(WsE+Ushi+b),
Figure BDA0002627269080000083
式中,Ws和Us分别为权重矩阵,b为偏置向量,σ激活函数sigmoid,
Figure BDA0002627269080000084
为元素之间的点乘,E′i表示为增加了关键上下文语义信息的输入样本s的特征向量。
上述实施例中,通过第四式对所述输入样本句向量和所述样本隐藏信息的特征向量计算得到输入样本特征向量,为后续处理提供基础,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量,且网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题。
可选地,作为本发明的一个实施例,所述将所述输入样本特征向量和所述输入样本位置向量进行相加计算,得到输入样本向量的过程包括:
通过第五式对所述输入样本特征向量和所述输入样本位置向量进行相加计算,得到输入样本向量,所述第五式为:
Semb=E′i+Epos
其中,Semb为输入样本向量,E′i为输入样本特征向量,Epos为输入样本位置向量。
上述实施例中,通过第五式对所述输入样本特征向量和所述输入样本位置向量的相加计算得到输入样本向量,为后续处理提供基础,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量,且网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题。
可选地,作为本发明的一个实施例,所述将所述缺失样本句向量和所述缺失样本位置向量进行相加计算,得到缺失样本向量的过程包括:
通过第六式对所述缺失样本句向量和所述缺失样本位置向量进行相加计算,得到缺失样本向量,所述第六式为:
S′emb=H+E′pos
其中,S′emb为缺失样本向量,H为缺失样本句向量,E′pos为缺失样本位置向量。
上述实施例中,通过第六式对所述缺失样本句向量和所述缺失样本位置向量的相加计算得到缺失样本向量,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量,且网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题。
可选地,作为本发明的一个实施例,所述对所述输入样本向量和所述缺失样本向量进行模型训练,得到完整文本的过程包括:
将所述输入样本向量和所述缺失样本向量输入预先构建的transformer模型进行训练,得到完整文本。
应理解地,将所述输入样本向量semb和所述缺失样本向量s'emb作为一组输入对被传入多头注意力模型中用来训练模型。
具体地,将所述输入样本向量semb和所述缺失样本向量s'emb作为一组输入对被传入多头注意力模型中用来训练模型,如下式所示:
Semb=E′i+Epos
S′emb=H+E′pos
其中,E′i、H分别为增加了关键上下文语义信息的输入样本s的特征向量和缺失样本stemplete的句向量,Epos、E'pos分别为输入样本s的位置编码和缺失样本stemplete的位置编码;
在填充过程中,解码器会逐一填补空白,对于每个片段的填充,解码器自动回归地填充缺失的标记,对stemplete和stemplete中已填充的内容进行调整更新,为了填充seg_id=i的空白,目标是最小化第七式的交叉熵损失,所述第七式为:
Figure BDA0002627269080000101
每个填充语句的损失L是每个填充空白的交叉熵损失的总和,如第八式所示,所述第八式为:
L=∑La,a∈m,
上述实施例中,将所述输入样本向量和所述缺失样本向量输入预先构建的transformer模型的训练得到完整文本,相对现有技术,能够在提升模型的训练和推理速率的同时显著提升缺失文本生成的质量,且网络结构简单,能够捕获文本的长距离依赖关系,并可以并行计算,解决了时效性的问题。
图2为本发明一实施例提供的文本填充系统的模块框图。
可选地,作为本发明的另一个实施例,如图2所示,一种缺失文本生成系统,包括:
输入样本处理模块,用于对输入样本进行预处理,得到缺失样本;
词向量化处理处理模块,用于通过embedding词嵌入算法分别对所述输入样本和所述缺失样本进行词向量化处理,得到输入样本句向量和缺失样本句向量;
位置编码处理模块,用于分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量;
向量处理模块,用于根据所述输入样本句向量对所述缺失样本句向量、所述输入样本位置向量和所述缺失样本位置向量进行增强句向量处理,得到输入样本向量和缺失样本向量;
完整文本生成模块,用于对所述输入样本向量和所述缺失样本向量进行模型训练,得到完整文本。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。用于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (7)

1.一种缺失文本生成方法,其特征在于,包括如下步骤:
对输入样本进行预处理,得到缺失样本;
通过embedding词嵌入算法分别对所述输入样本和所述缺失样本进行词向量化处理,得到输入样本句向量和缺失样本句向量;
分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量;
根据所述输入样本句向量对所述缺失样本句向量、所述输入样本位置向量和所述缺失样本位置向量进行增强句向量处理,得到输入样本向量和缺失样本向量;
对所述输入样本向量和所述缺失样本向量进行模型训练,得到完整文本;
所述分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量的过程包括:
通过相对位置编码算法分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量,具体为:
通过第一式分别对所述输入样本和所述缺失样本进行计算,得到输入样本偶数位置向量和缺失样本偶数位置向量,所述第一式为:
Figure FDA0003568118420000011
其中,PE为二维矩阵,行为词语,列为词向量,pos为词语在句子中的位置;dmodel为词向量的维度;i为词向量的位置;
通过第二式分别对所述输入样本和所述缺失样本进行计算,得到输入样本奇数位置向量和缺失样本奇数位置向量,所述第二式为:
Figure FDA0003568118420000012
其中,PE为二维矩阵,行为词语,列为词向量,pos为词语在句子中的位置;dmodel为词向量的维度;i为词向量的位置;
根据所述输入样本偶数位置向量和所述输入样本奇数位置向量得到输入样本位置向量;
根据所述缺失样本偶数位置向量和所述缺失样本奇数位置向量得到缺失样本位置向量;
所述根据所述输入样本句向量对所述缺失样本句向量、所述输入样本位置向量和所述缺失样本位置向量进行增强句向量处理,得到输入样本向量和缺失样本向量的过程包括:
将所述输入样本句向量输入至预先构建的双向LSTM网络中提取隐藏信息处理,得到输入样本隐藏信息;
将所述输入样本句向量和所述样本隐藏信息输入至预先构建的信息增强网络中提取特征向量处理,得到输入样本特征向量;
将所述输入样本特征向量和所述输入样本位置向量进行相加计算,得到输入样本向量;
将所述缺失样本句向量和所述缺失样本位置向量进行相加计算,得到缺失样本向量;
所述对所述输入样本向量和所述缺失样本向量进行模型训练,得到完整文本的过程包括:
将所述输入样本向量和所述缺失样本向量输入预先构建的transformer模型进行训练,得到完整文本。
2.根据权利要求1所述的缺失文本生成方法,其特征在于,所述对输入样本进行预处理,得到缺失样本的过程包括:
利用随机屏蔽算法对所述输入样本进行预处理,得到缺失样本,具体为:
通过预设第一占位符随机对所述输入样本中的词进行替换,得到第一缺失样本;
将预设第二占位符添加至所述第一缺失样本中所述预设第一占位符的开头,得到第二缺失样本;
将预设第三占位符添加至所述第二缺失样本中所述预设第一占位符的结尾,得到第三缺失样本;
将预设第四占位符添加至所述第三缺失样本的开头,得到第四缺失样本;
将预设第五占位符添加至所述第四缺失样本的结尾,得到缺失样本。
3.根据权利要求1所述的缺失文本生成方法,其特征在于,所述将所述输入样本句向量输入至预先构建的双向LSTM网络中提取隐藏信息处理,得到输入样本隐藏信息的过程包括:
通过第三式对所述输入样本句向量进行隐藏信息提取计算,得到输入样本隐藏信息,所述第三式为:
Figure FDA0003568118420000031
其中,
Figure FDA0003568118420000032
其中,
Figure FDA0003568118420000033
为前向LSTM网络,
Figure FDA0003568118420000034
为后向LSTM网络,xi为LSTM网络输入的样本词向量,
Figure FDA0003568118420000035
为前一时刻的隐层信息,
Figure FDA0003568118420000036
为后一时刻的隐层信息,hi为输入样本隐藏信息。
4.根据权利要求3所述的缺失文本生成方法,其特征在于,所述将所述输入样本句向量和所述样本隐藏信息输入至预先构建的信息增强网络中提取特征向量处理,得到输入样本特征向量的过程包括:
通过第四式对所述输入样本句向量和所述样本隐藏信息进行特征向量计算,得到输入样本特征向量,所述第四式为:
Figure FDA0003568118420000037
其中,rGatei=σ(WsE+Ushi+b),
其中,Ws为权重矩阵,Us为权重矩阵,b为偏置向量,σ为激活函数sigmoid,
Figure FDA0003568118420000038
为元素之间的点乘,Ei′为输入样本特征向量,rGatei为信息增强系数,E为输入样本句向量,hi为输入样本隐藏信息。
5.根据权利要求1或4所述的缺失文本生成方法,其特征在于,所述将所述输入样本特征向量和所述输入样本位置向量进行相加计算,得到输入样本向量的过程包括:
通过第五式对所述输入样本特征向量和所述输入样本位置向量进行相加计算,得到输入样本向量,所述第五式为:
Semb=E′i+Epos
其中,Semb为输入样本向量,Ei′为输入样本特征向量,Epos为输入样本位置向量。
6.根据权利要求1所述的缺失文本生成方法,其特征在于,所述将所述缺失样本句向量和所述缺失样本位置向量进行相加计算,得到缺失样本向量的过程包括:
通过第六式对所述缺失样本句向量和所述缺失样本位置向量进行相加计算,得到缺失样本向量,所述第六式为:
S′emb=H+E′pos
其中,S′emb为缺失样本向量,H为缺失样本句向量,E′pos为缺失样本位置向量。
7.一种缺失文本生成系统,其特征在于,包括:
输入样本处理模块,用于对输入样本进行预处理,得到缺失样本;
词向量化处理模块,用于通过embedding词嵌入算法分别对所述输入样本和所述缺失样本进行词向量化处理,得到输入样本句向量和缺失样本句向量;
位置编码处理模块,用于分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量;
向量处理模块,用于根据所述输入样本句向量对所述缺失样本句向量、所述输入样本位置向量和所述缺失样本位置向量进行增强句向量处理,得到输入样本向量和缺失样本向量;
完整文本生成模块,用于对所述输入样本向量和所述缺失样本向量进行模型训练,得到完整文本;
所述位置编码处理模块具体用于:
通过相对位置编码算法分别对所述输入样本和所述缺失样本进行位置编码处理,得到输入样本位置向量和缺失样本位置向量,具体为:
通过第一式分别对所述输入样本和所述缺失样本进行计算,得到输入样本偶数位置向量和缺失样本偶数位置向量,所述第一式为:
Figure FDA0003568118420000051
其中,PE为二维矩阵,行为词语,列为词向量,pos为词语在句子中的位置;dmodel为词向量的维度;i为词向量的位置;
通过第二式分别对所述输入样本和所述缺失样本进行计算,得到输入样本奇数位置向量和缺失样本奇数位置向量,所述第二式为:
Figure FDA0003568118420000052
其中,PE为二维矩阵,行为词语,列为词向量,pos为词语在句子中的位置;dmodel为词向量的维度;i为词向量的位置;
根据所述输入样本偶数位置向量和所述输入样本奇数位置向量得到输入样本位置向量;
根据所述缺失样本偶数位置向量和所述缺失样本奇数位置向量得到缺失样本位置向量;
所述向量处理模块具体用于:
将所述输入样本句向量输入至预先构建的双向LSTM网络中提取隐藏信息处理,得到输入样本隐藏信息;
将所述输入样本句向量和所述样本隐藏信息输入至预先构建的信息增强网络中提取特征向量处理,得到输入样本特征向量;
将所述输入样本特征向量和所述输入样本位置向量进行相加计算,得到输入样本向量;
将所述缺失样本句向量和所述缺失样本位置向量进行相加计算,得到缺失样本向量;
所述完整文本生成模块具体用于:
将所述输入样本向量和所述缺失样本向量输入预先构建的transformer模型进行训练,得到完整文本。
CN202010800708.0A 2020-08-11 2020-08-11 一种缺失文本生成方法及系统 Active CN112069809B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010800708.0A CN112069809B (zh) 2020-08-11 2020-08-11 一种缺失文本生成方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010800708.0A CN112069809B (zh) 2020-08-11 2020-08-11 一种缺失文本生成方法及系统

Publications (2)

Publication Number Publication Date
CN112069809A CN112069809A (zh) 2020-12-11
CN112069809B true CN112069809B (zh) 2022-05-24

Family

ID=73662725

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010800708.0A Active CN112069809B (zh) 2020-08-11 2020-08-11 一种缺失文本生成方法及系统

Country Status (1)

Country Link
CN (1) CN112069809B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114118637A (zh) * 2022-01-28 2022-03-01 树根互联股份有限公司 一种配件需求的预测模型构建方法、装置及计算机设备
CN115471840B (zh) * 2022-11-03 2023-04-18 北京百度网讯科技有限公司 生成、模型的训练、识别方法、装置、电子设备及介质
CN115618863A (zh) * 2022-12-20 2023-01-17 中国科学院自动化研究所 文本事件序列生成方法、装置、设备和存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2785189A (en) * 1987-11-16 1989-06-14 Intel Corporation Memory controller as for a video signal processor
KR20190019683A (ko) * 2017-08-18 2019-02-27 동아대학교 산학협력단 품사 분포와 양방향 LSTM CRFs를 이용한 음절 단위 형태소 분석기 및 분석 방법
CN109460466A (zh) * 2018-09-20 2019-03-12 电子科技大学 一种基于多任务双向长短时记忆网络的隐式句间关系分析方法
CN109492223A (zh) * 2018-11-06 2019-03-19 北京邮电大学 一种基于神经网络推理的中文缺失代词补全方法
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置
CN110110338A (zh) * 2019-05-13 2019-08-09 哈尔滨理工大学 一种基于lstm与槽填充的对话管理模型使用方法
CN110286778A (zh) * 2019-06-27 2019-09-27 北京金山安全软件有限公司 一种中文深度学习输入法、装置及电子设备
CN110348016A (zh) * 2019-07-15 2019-10-18 昆明理工大学 基于句子关联注意力机制的文本摘要生成方法
CN110765966A (zh) * 2019-10-30 2020-02-07 哈尔滨工业大学 一种面向手写文字的一阶段自动识别与翻译方法
CN110795535A (zh) * 2019-10-28 2020-02-14 桂林电子科技大学 一种深度可分离卷积残差块的阅读理解方法
CN111028884A (zh) * 2019-11-22 2020-04-17 中国科学院深圳先进技术研究院 基因型数据缺失的填充方法、装置及服务器

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2785189A (en) * 1987-11-16 1989-06-14 Intel Corporation Memory controller as for a video signal processor
KR20190019683A (ko) * 2017-08-18 2019-02-27 동아대학교 산학협력단 품사 분포와 양방향 LSTM CRFs를 이용한 음절 단위 형태소 분석기 및 분석 방법
CN109460466A (zh) * 2018-09-20 2019-03-12 电子科技大学 一种基于多任务双向长短时记忆网络的隐式句间关系分析方法
CN109492223A (zh) * 2018-11-06 2019-03-19 北京邮电大学 一种基于神经网络推理的中文缺失代词补全方法
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置
CN110110338A (zh) * 2019-05-13 2019-08-09 哈尔滨理工大学 一种基于lstm与槽填充的对话管理模型使用方法
CN110286778A (zh) * 2019-06-27 2019-09-27 北京金山安全软件有限公司 一种中文深度学习输入法、装置及电子设备
CN110348016A (zh) * 2019-07-15 2019-10-18 昆明理工大学 基于句子关联注意力机制的文本摘要生成方法
CN110795535A (zh) * 2019-10-28 2020-02-14 桂林电子科技大学 一种深度可分离卷积残差块的阅读理解方法
CN110765966A (zh) * 2019-10-30 2020-02-07 哈尔滨工业大学 一种面向手写文字的一阶段自动识别与翻译方法
CN111028884A (zh) * 2019-11-22 2020-04-17 中国科学院深圳先进技术研究院 基因型数据缺失的填充方法、装置及服务器

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Bidirectional beam search: Forward-backward inference in neural sequence models for fill-in-the-Blank image captioning;Sun Q. 等;《Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition》;20171231;6961-6969 *
Bidirectional LSTM-CRF Model and POS for Article Title Summarization;Cai Xiaofeng 等;《2018 International Conference on Network, Communication, Computer Engineering (NCCE 2018)》;20180531;371-375 *
NRTR: A No-Recurrence Sequence-to-Sequence Model For Scene Text Recognition;Sheng F. 等;《2019 International Conference on Document Analysis and Recognition (ICDAR)》;20200203;781-786 *
不完备信息系统的数据挖掘研究;田宏;《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》;20100915(第09期);I138-15 *
基于Sigmoid惯性权重自适应调整的粒子群优化算法;黄利 等;《计算机应用研究》;20120115;第29卷(第1期);32-34 *
基于弱监督与表示学习的关系抽取算法研究;刘玉明;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20180415(第04期);I138-3818 *

Also Published As

Publication number Publication date
CN112069809A (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
CN112069809B (zh) 一种缺失文本生成方法及系统
CN110134771B (zh) 一种基于多注意力机制融合网络问答系统的实现方法
CN111785261A (zh) 基于解纠缠和解释性表征的跨语种语音转换方法及系统
CN111061861B (zh) 一种基于XLNet的文本摘要自动生成方法
CN110570845B (zh) 一种基于域不变特征的语音识别方法
CN109740158B (zh) 一种文本语义解析方法及装置
CN112348911B (zh) 基于语义约束的堆叠文本生成细粒度图像方法及系统
CN111402365B (zh) 一种基于双向架构对抗生成网络的由文字生成图片的方法
CN111985243B (zh) 情感模型的训练方法、情感分析方法、装置及存储介质
CN111429893A (zh) 基于Transitive STARGAN的多对多说话人转换方法
Kišš et al. AT-ST: self-training adaptation strategy for OCR in domains with limited transcriptions
Savci et al. Comparison of pre-trained language models in terms of carbon emissions, time and accuracy in multi-label text classification using AutoML
Li et al. Is Synthetic Data From Diffusion Models Ready for Knowledge Distillation?
Li et al. HG-news: News headline generation based on a generative pre-training model
CN112069810A (zh) 一种文本填充方法及装置
Li et al. Towards cross-speaker reading style transfer on audiobook dataset
CN112949284A (zh) 一种基于Transformer模型的文本语义相似度预测方法
CN116663501A (zh) 一种基于多模态共享权重的中文变体文本转换方法
CN111460105B (zh) 基于短文本的主题挖掘方法、系统、设备及存储介质
CN112613282A (zh) 一种文本生成方法、装置及存储介质
Timofeev et al. DSS: Synthesizing long Digital Ink using Data augmentation, Style encoding and Split generation
Kasi et al. A Deep Learning Based Cross Model Text to Image Generation using DC-GAN
Allak et al. Toward an end-to-end voice to sign recognition for dialect moroccan language
CN113379875B (zh) 卡通角色动画的生成方法、装置、设备及存储介质
CN110990385A (zh) 一套基于Sequence2Sequence的自动生成新闻标题的软件

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant