CN113051897B - 一种基于Performer结构的GPT2文本自动生成方法 - Google Patents
一种基于Performer结构的GPT2文本自动生成方法 Download PDFInfo
- Publication number
- CN113051897B CN113051897B CN202110570781.8A CN202110570781A CN113051897B CN 113051897 B CN113051897 B CN 113051897B CN 202110570781 A CN202110570781 A CN 202110570781A CN 113051897 B CN113051897 B CN 113051897B
- Authority
- CN
- China
- Prior art keywords
- matrix
- text
- sample
- vector
- performer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于Performer结构的GPT2文本自动生成方法,包括如下步骤:步骤一,读取语料集合中的样本文本S并转化为向量IDS;步骤二,对于输入的语料集合基于步骤一的方法生成字向量矩阵V;步骤三,构建注意力矩阵A;步骤四,根据所述字向量矩阵V和注意力矩阵A计算样本矩阵P;步骤五,将所述样本矩阵P作为输入,进行多层Performer编码计算后得到矩阵PX;步骤六,基于步骤五的方法构建文本生成模型M;步骤七,利用所述文本生成模型M自动生成文本。本发明能够以更低的硬件成本,生成比GPT2和GPT3模型更优质的长文本信息,且文本生成的效率、准确性、逼真度都较高。
Description
技术领域
本发明涉及AI应答系统的文本自动生成技术领域,具体而言,涉及一种基于Performer结构的GPT2文本自动生成方法。
背景技术
随着NLP技术的不断发展,越来越多的人工智能(AI)系统采用了复杂的方法来实现人机交互。从过去的命令输入式、提问选择式、知识库检索式,到目前的语音输入式、自然语言输入式等。为了使用户在交互中对AI无感,对AI的应答系统提出了更高的技术要求,其中文本自动生成能力是核心。在机器学习领域,文本自动生成的常用方法可以基于以下模型:Word2Vec模型、ELMo模型、BERT模型、MT-DNN模型、Transformer XL模型、XLNet模型、GPT模型、GPT2模型、GPT3模型等。GPT全称Generative Pre-Training,出自2018年OpenAI发布的论文《Improving Language Understanding by Generative Pre-Training》,之后2019年,OpenAI对GPT进行了改进,提出了GPT2模型,将训练层数上调至48层,隐层的维度达到1600层,参数达到15亿个。之后在2020年,OpenAI又对GPT2进行了改进,提出了GPT3模型,进一步提高了训练的层数,同时增加了参数的个数,以提高文本生成的真实性。但由于GPT3对资源的要求过高,在实际应该过程中,很难在时间和效率中进行取舍;GPT2虽然对计算资源要求较少,但生成的文本长度有限,在一些特殊场合难以满足用户需求。在GPT2模型的基础上,对文本自动生成算法进行优化,能够在一定程度上解决模型的训练时间长、生成的文本长度短、文本场景的符合度低等问题。
发明内容
本发明旨在提供一种基于Performer结构的GPT2文本自动生成方法,以减少模型的训练周期、降低模型的训练资源、提高文本生成的长度、提高文本的场景符合度。
本发明提供的一种基于Performer结构的GPT2文本自动生成方法,包括如下步骤:
步骤一,读取语料集合中的样本文本S并转化为向量IDS;
步骤二,对于输入的语料集合基于步骤一的方法生成字向量矩阵V;
步骤三,构建注意力矩阵A;
步骤四,根据所述字向量矩阵V和注意力矩阵A计算样本矩阵P;
步骤五,将所述样本矩阵P作为输入,进行多层Performer编码计算后得到矩阵PX;
步骤六,基于步骤五的方法构建文本生成模型M;
步骤七,利用所述文本生成模型M自动生成文本。
进一步的,步骤一中所述读取语料集合中的样本文本S并转化为向量IDS的方法为:
读取语料集合中的一条样本文本S,该样本文本S包含N个字符,则有S={S1,S2,…,SN};
利用Token函数将所述样本文本S转化为N×1的向量IDS,该IDS={ID1,ID2,…,IDN}。
进一步的,步骤二中对于输入的语料集合基于步骤一的方法生成字向量矩阵V的方法为:
利用字嵌入算法Embedding,将输入的语料集合中每一个样本文本S基于步骤一的方法转化为向量IDS;
再通过查询字典表的方式,得到一个N×d的字向量矩阵V;其中,d表示字向量矩阵V的维数。
进一步的,步骤三中所述构建注意力矩阵A的方法为:注意力矩阵A近似分解为查询矩阵Q′=N×m和键值矩阵K′=m×N;初始查询矩阵Q′和键值矩阵K′的所有值随机生成,从而得到线性的注意力矩阵A。
进一步的,步骤四中所述根据所述字向量矩阵V和注意力矩阵A计算样本矩阵P的方法为:P=A×V=Q′×K′×V。
进一步的,步骤五中所述将所述样本矩阵P作为输入,进行多层Performer编码计算后得到矩阵PX的方法为:将样本矩阵P作为输入,导入第一层神经网络中进行计算,得到Performer结构的一次训练矩阵P1;然后经过X次迭代,最终得到矩阵PX=N×D,其中,D为字典矩阵。
进一步的,步骤六中所述基于步骤五的方法构建文本生成模型M的方法为:利用自回归机制,通过反向传播计算,逐层修改各层注意力矩阵A中的参数,即查询矩阵Q′和键值矩阵K′,然后基于步骤五的方法,通过对样本矩阵P的不断迭代训练,完成文本生成模型M的构建。
进一步的,步骤七中利用所述文本生成模型M自动生成文本的方法为:向所述文本生成模型M任意输入一个文本T1,经过文本生成模型M计算后,利用Linear函数与Softmax函数得到该文本T1的字典向量表R中所有字的概率,从该字典向量表R中取k个字作为备选字集合Topk,Topk={T11,T12,…,T1k};将备选字集合Topk再输入文本生成模型M得到新的备选字集合Topk′,如此循环C次后生成文本Tc。
进一步的,所述基于Performer结构的GPT2文本自动生成方法,还包括:
步骤八,对生成的文本进行完整性校验。
进一步的,步骤八中所述对生成的文本进行完整性校验的方法为:利用包括结束符、标点符和表情符的特殊标识作为判断依据,通过文本优化函数Topt()对生成的文本TC进行裁剪,使该生成的文本TC保持语句的完整性。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明在模型架构完成的前提下,能够以更低的硬件成本,生成比GPT2和GPT3模型更优质的长文本信息,且文本生成的效率、准确性、逼真度都较高,为整个NLP(自然语言处理)领域的文本生成技术提升带来契机。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例的基于Performer结构的GPT2文本自动生成方法的流程图。
图2为本发明实施例的具有Performer结构的GPT2模型结构示意图。
图3为Transformer结构与Performer结构的训练过程对比示意图。
图4为本发明实施例的自动生成文本及文本完整性校验的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
如图1所示,本实施例提出一种基于Performer结构的GPT2文本自动生成方法,包括如下步骤:
步骤一,读取语料集合中的样本文本S并转化为向量IDS;具体地:
读取语料集合中的一条样本文本S,该样本文本S包含N个字符,则有S={S1,S2,…,SN};
利用Token函数将所述样本文本S转化为N×1的向量IDS,该IDS={ID1,ID2,…,IDN}。
步骤二,对于输入的语料集合基于步骤一的方法生成字向量矩阵V;具体地:
利用字嵌入算法Embedding,将输入的语料集合中每一个样本文本S基于步骤一的方法转化为向量IDS;
再通过查询字典表的方式,得到一个N×d的字向量矩阵V;其中,d表示字向量矩阵V的维数,本实施例去d=768。
步骤三,构建注意力矩阵A;具体地:
注意力矩阵A近似分解为查询矩阵Q′=N×m和键值矩阵K′=m×N;初始查询矩阵Q′和键值矩阵K′的所有值随机生成,从而得到线性的注意力矩阵A。
步骤四,根据所述字向量矩阵V和注意力矩阵A计算样本矩阵P;具体地:P=A×V=Q′×K′×V。
步骤五,将所述样本矩阵P作为输入,进行多层Performer编码计算后得到矩阵PX;具体地:
将样本矩阵P作为输入,导入如图2所示的具有Performer结构的GPT2模型的第一层神经网络中进行计算,得到Performer结构的一次训练矩阵P1;然后经过X(一般取X=12)次迭代,最终得到矩阵PX=N×D,其中,D为字典矩阵,其大小为768×119547。另外,图2中Linear表示Linear函数,Softmax表示Softmax函数,Add&norm表示求和与归一化,即将上一层神经网络与下一层神经网络的内容进行求和后再进行归一化。矩阵PX的计算方法如下:
其中,具有Performer结构的GPT2模型是指将现有GPT2模型中的Transformer结构替换成Performer结构得到的GPT2模型。
步骤六,基于步骤五的方法构建文本生成模型M;具体地:利用自回归机制,通过反向传播计算,逐层修改各层注意力矩阵A中的参数,即查询矩阵Q′和键值矩阵K′,然后基于步骤五的方法,通过对样本矩阵P的不断迭代训练,完成文本生成模型M的构建。如图3所示,Transformer结构的注意力模块是由注意力矩阵A和字向量矩阵V进行矩阵乘法而得到,算法复杂度为O(N2d),而Performer结构的注意力矩阵A低秩分解得到解耦矩阵Q′和K′,并按照顺序进行矩阵乘法,算法复杂度为O(Nmd)。
步骤七,利用所述文本生成模型M自动生成文本。如图3所示,具体地:向所述文本生成模型M任意输入一个文本T1,经过文本生成模型M计算后,利用Linear函数与Softmax函数得到该文本T1的字典向量表R中所有字的概率,R=119547×1,从该字典向量表R中取k个字作为备选字集合Topk,Topk={T11,T12,…,T1k};将备选字集合Topk再输入文本生成模型M得到新的备选字集合Topk′,如此循环C次(一般取值范围为10~250次)后生成文本Tc。
在一些实施例中,如图4所示,所述基于Performer结构的GPT2文本自动生成方法还包括:
步骤八,对生成的文本进行完整性校验。具体地:利用结束符、标点符和表情符等特殊标识作为判定依据,通过文本优化函数Topt()对生成的文本TC进行裁剪,使该生成的文本TC保持语句的完整性,即TF=Topt(Tc)。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于Performer结构的GPT2文本自动生成方法,其特征在于,包括如下步骤:
步骤一,读取语料集合中的样本文本S并转化为向量IDS;
步骤二,对于输入的语料集合基于步骤一的方法生成字向量矩阵V;
步骤三,构建注意力矩阵A;
步骤四,根据所述字向量矩阵V和注意力矩阵A计算样本矩阵P;
步骤五,将所述样本矩阵P作为输入,进行多层Performer编码计算后得到矩阵PX;
步骤六,基于步骤五的方法构建文本生成模型M;
步骤七,利用所述文本生成模型M自动生成文本;
步骤一中所述读取语料集合中的样本文本S并转化为向量IDS的方法为:
读取语料集合中的一条样本文本S,该样本文本S包含N个字符,则有S={S1,S2,…,SN};
利用Token函数将所述样本文本S转化为N×1的向量IDS,该IDS={ID1,ID2,…,IDN};
步骤二中所述对于输入的语料集合基于步骤一的方法生成字向量矩阵V的方法为:
利用字嵌入算法Embedding,将输入的语料集合中每一个样本文本S基于步骤一的方法转化为向量IDS;
再通过查询字典表的方式,得到一个N×d的字向量矩阵V;其中,d表示字向量矩阵V的维数;
步骤三中所述构建注意力矩阵A的方法为:注意力矩阵A近似分解为查询矩阵Q′=N×m和键值矩阵K′=m×N;初始查询矩阵Q′和键值矩阵K′的所有值随机生成,从而得到线性的注意力矩阵A;
步骤四中所述根据所述字向量矩阵V和注意力矩阵A计算样本矩阵P的方法为:P=A×V=Q′×K′×V;
步骤五中所述将所述样本矩阵P作为输入,进行多层Performer编码计算后得到矩阵PX的方法为:将样本矩阵P作为输入,导入第一层神经网络中进行计算,得到Performer结构的一次训练矩阵P1;然后经过X次迭代,最终得到矩阵PX=N×D,其中,D为字典矩阵;
步骤六中所述基于步骤五的方法构建文本生成模型M的方法为:利用自回归机制,通过反向传播计算,逐层修改各层注意力矩阵A中的参数,即查询矩阵Q′和键值矩阵K′,然后基于步骤五的方法,通过对样本矩阵P的不断迭代训练,完成文本生成模型M的构建;
步骤七中利用所述文本生成模型M自动生成文本的方法为:向所述文本生成模型M任意输入一个文本T1,经过文本生成模型M计算后,利用Linear函数与Softmax函数得到该文本T1的字典向量表R中所有字的概率,从该字典向量表R中取k个字作为备选字集合Topk,Topk={T11,T12,…,T1k};将备选字集合Topk再输入文本生成模型M得到新的备选字集合Topk′,如此循环C次后生成文本Tc,其中,C取值范围为10~250次。
2.根据权利要求1所述的基于Performer结构的GPT2文本自动生成方法,其特征在于,还包括:
步骤八,对生成的文本进行完整性校验。
3.根据权利要求2所述的基于Performer结构的GPT2文本自动生成方法,其特征在于,步骤八中所述对生成的文本进行完整性校验的方法为:利用包括结束符、标点符和表情符的特殊标识作为判断依据,通过文本优化函数Topt()对生成的文本TC进行裁剪,使该生成的文本TC保持语句的完整性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110570781.8A CN113051897B (zh) | 2021-05-25 | 2021-05-25 | 一种基于Performer结构的GPT2文本自动生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110570781.8A CN113051897B (zh) | 2021-05-25 | 2021-05-25 | 一种基于Performer结构的GPT2文本自动生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113051897A CN113051897A (zh) | 2021-06-29 |
CN113051897B true CN113051897B (zh) | 2021-09-10 |
Family
ID=76518590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110570781.8A Active CN113051897B (zh) | 2021-05-25 | 2021-05-25 | 一种基于Performer结构的GPT2文本自动生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113051897B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116934024A (zh) * | 2023-07-18 | 2023-10-24 | 江苏德劭信息科技有限公司 | 一种基于行动策略生成的电力检修单兵装备工作方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110297889A (zh) * | 2019-06-28 | 2019-10-01 | 南京冰鉴信息科技有限公司 | 一种基于特征融合的企业情感倾向分析方法 |
CN110825845A (zh) * | 2019-10-23 | 2020-02-21 | 中南大学 | 一种基于字符与自注意力机制的层次文本分类方法及中文文本分类方法 |
CN110837733A (zh) * | 2019-10-31 | 2020-02-25 | 创新工场(广州)人工智能研究有限公司 | 自重建方式的语言模型训练方法、系统及计算机可读介质 |
CN110852086A (zh) * | 2019-09-18 | 2020-02-28 | 平安科技(深圳)有限公司 | 基于人工智能的古诗词生成方法、装置、设备及存储介质 |
CN111091839A (zh) * | 2020-03-20 | 2020-05-01 | 深圳市友杰智新科技有限公司 | 语音唤醒方法、装置、存储介质及智能设备 |
CN111556375A (zh) * | 2020-04-24 | 2020-08-18 | 西交利物浦大学 | 视频弹幕的生成方法、装置、计算机设备及存储介质 |
CN111651992A (zh) * | 2020-04-24 | 2020-09-11 | 平安科技(深圳)有限公司 | 命名实体标注方法、装置、计算机设备和存储介质 |
CN111858932A (zh) * | 2020-07-10 | 2020-10-30 | 暨南大学 | 基于Transformer的多重特征中英文情感分类方法及系统 |
CN111881260A (zh) * | 2020-07-31 | 2020-11-03 | 安徽农业大学 | 基于方面注意力和卷积记忆神经网络情感分析方法及装置 |
CN112487206A (zh) * | 2020-12-09 | 2021-03-12 | 中国电子科技集团公司第三十研究所 | 一种自动构建数据集的实体关系抽取方法 |
CN112487820A (zh) * | 2021-02-05 | 2021-03-12 | 南京邮电大学 | 一种中文医疗命名实体识别方法 |
CN112733498A (zh) * | 2020-11-06 | 2021-04-30 | 北京工业大学 | 一种改进中文自动文本摘要自注意力计算的方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109918635A (zh) * | 2017-12-12 | 2019-06-21 | 中兴通讯股份有限公司 | 一种合同文本风险检测方法、装置、设备及存储介质 |
CN108595590A (zh) * | 2018-04-19 | 2018-09-28 | 中国科学院电子学研究所苏州研究院 | 一种基于融合注意力模型的中文文本分类方法 |
CN109992668B (zh) * | 2019-04-04 | 2023-02-21 | 上海冰鉴信息科技有限公司 | 一种基于自注意力的企业舆情分析方法和装置 |
US11790171B2 (en) * | 2019-04-16 | 2023-10-17 | Covera Health | Computer-implemented natural language understanding of medical reports |
US20200409948A1 (en) * | 2019-06-26 | 2020-12-31 | International Business Machines Corporation | Adaptive Query Optimization Using Machine Learning |
CN110619034A (zh) * | 2019-06-27 | 2019-12-27 | 中山大学 | 基于Transformer模型的文本关键词生成方法 |
CN110717334B (zh) * | 2019-09-10 | 2023-10-10 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
CN111460807B (zh) * | 2020-03-13 | 2024-03-12 | 平安科技(深圳)有限公司 | 序列标注方法、装置、计算机设备和存储介质 |
CN111368087B (zh) * | 2020-03-23 | 2022-07-15 | 中南大学 | 基于多输入注意力网络的中文文本分类方法 |
CN112287106A (zh) * | 2020-10-28 | 2021-01-29 | 中国计量大学 | 一种基于双通道混合神经网络的在线评论情感分类方法 |
CN112559702B (zh) * | 2020-11-10 | 2022-09-30 | 西安理工大学 | 基于Transformer的土木建筑信息领域自然语言问题生成方法 |
CN112732993B (zh) * | 2020-12-31 | 2024-03-08 | 京东科技控股股份有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN112560503B (zh) * | 2021-02-19 | 2021-07-02 | 中国科学院自动化研究所 | 融合深度特征和时序模型的语义情感分析方法 |
-
2021
- 2021-05-25 CN CN202110570781.8A patent/CN113051897B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110297889A (zh) * | 2019-06-28 | 2019-10-01 | 南京冰鉴信息科技有限公司 | 一种基于特征融合的企业情感倾向分析方法 |
CN110852086A (zh) * | 2019-09-18 | 2020-02-28 | 平安科技(深圳)有限公司 | 基于人工智能的古诗词生成方法、装置、设备及存储介质 |
CN110825845A (zh) * | 2019-10-23 | 2020-02-21 | 中南大学 | 一种基于字符与自注意力机制的层次文本分类方法及中文文本分类方法 |
CN110837733A (zh) * | 2019-10-31 | 2020-02-25 | 创新工场(广州)人工智能研究有限公司 | 自重建方式的语言模型训练方法、系统及计算机可读介质 |
CN111091839A (zh) * | 2020-03-20 | 2020-05-01 | 深圳市友杰智新科技有限公司 | 语音唤醒方法、装置、存储介质及智能设备 |
CN111556375A (zh) * | 2020-04-24 | 2020-08-18 | 西交利物浦大学 | 视频弹幕的生成方法、装置、计算机设备及存储介质 |
CN111651992A (zh) * | 2020-04-24 | 2020-09-11 | 平安科技(深圳)有限公司 | 命名实体标注方法、装置、计算机设备和存储介质 |
CN111858932A (zh) * | 2020-07-10 | 2020-10-30 | 暨南大学 | 基于Transformer的多重特征中英文情感分类方法及系统 |
CN111881260A (zh) * | 2020-07-31 | 2020-11-03 | 安徽农业大学 | 基于方面注意力和卷积记忆神经网络情感分析方法及装置 |
CN112733498A (zh) * | 2020-11-06 | 2021-04-30 | 北京工业大学 | 一种改进中文自动文本摘要自注意力计算的方法 |
CN112487206A (zh) * | 2020-12-09 | 2021-03-12 | 中国电子科技集团公司第三十研究所 | 一种自动构建数据集的实体关系抽取方法 |
CN112487820A (zh) * | 2021-02-05 | 2021-03-12 | 南京邮电大学 | 一种中文医疗命名实体识别方法 |
Non-Patent Citations (5)
Title |
---|
Language models are unsupervised multitask learners;RADFORD A 等;《OpenAI Blog》;20191231;第1卷(第8期);9-32 * |
Natural Language Generation Using Deep Learning to Support MOOC Learners;Chenglu Li 等;《International Journal of Artificial Intelligence in Education》;20210119;第31卷;186-214 * |
Sub-Linear Memory: How to Make Performers SLiM;Valerii Likhosherstov 等;《Machine Learning》;20201221;1-16 * |
基于改进BiLSTM_CRF的汽车领域热点发现研究;范招娣;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20210215(第02期);C035-66 * |
基于深度学习的新闻文本分类与自动文摘系统设计与实现;潘袁湘;《中国优秀硕士学位论文全文数据库 信息科技辑》;20200715(第07期);I138-1398 * |
Also Published As
Publication number | Publication date |
---|---|
CN113051897A (zh) | 2021-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | Image captioning and visual question answering based on attributes and external knowledge | |
US20220147836A1 (en) | Method and device for text-enhanced knowledge graph joint representation learning | |
CN107832400B (zh) | 一种基于位置的lstm和cnn联合模型进行关系分类的方法 | |
Lv et al. | Do pre-trained models benefit knowledge graph completion? a reliable evaluation and a reasonable approach | |
CN111858932A (zh) | 基于Transformer的多重特征中英文情感分类方法及系统 | |
CN108304372A (zh) | 实体提取方法和装置、计算机设备和存储介质 | |
CN112101010B (zh) | 一种基于bert的电信行业oa办公自动化文稿审核的方法 | |
CN107679225A (zh) | 一种基于关键词的回复生成方法 | |
Cheng et al. | A syntax-augmented and headline-aware neural text summarization method | |
Jian et al. | [Retracted] LSTM‐Based Attentional Embedding for English Machine Translation | |
Zhao et al. | Synchronously improving multi-user English translation ability by using AI | |
CN115310551A (zh) | 文本分析模型训练方法、装置、电子设备和存储介质 | |
CN114238653A (zh) | 一种编程教育知识图谱构建、补全与智能问答的方法 | |
CN113012822A (zh) | 一种基于生成式对话技术的医疗问答系统 | |
CN115759119A (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
CN115687609A (zh) | 一种基于Prompt多模板融合的零样本关系抽取方法 | |
CN113051897B (zh) | 一种基于Performer结构的GPT2文本自动生成方法 | |
CN116956835A (zh) | 一种基于预训练语言模型的文书生成方法 | |
CN116541533A (zh) | 基于多源异构数据的风力发电机多模态工艺图谱建模方法 | |
CN115293168A (zh) | 基于预训练模型语义理解的多语言缩写消歧义算法 | |
CN115809322A (zh) | 一种基于gpt3的问答系统文本生成方法及装置 | |
CN115858736A (zh) | 一种基于情感提示微调的情感文本生成方法 | |
Juliet | A Comparative Study on Optimizers for Automatic Image Captioning | |
CN111767377B (zh) | 一种面向低资源环境的高效口语理解识别方法 | |
Peipei et al. | A Short Text Classification Model for Electrical Equipment Defects Based on Contextual Features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |