CN113742188A - 一种基于bert的非侵入式电脑行为监测方法及系统 - Google Patents

一种基于bert的非侵入式电脑行为监测方法及系统 Download PDF

Info

Publication number
CN113742188A
CN113742188A CN202110980228.1A CN202110980228A CN113742188A CN 113742188 A CN113742188 A CN 113742188A CN 202110980228 A CN202110980228 A CN 202110980228A CN 113742188 A CN113742188 A CN 113742188A
Authority
CN
China
Prior art keywords
bert
attention
behavior monitoring
data information
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110980228.1A
Other languages
English (en)
Inventor
江先亮
刘若愚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN202110980228.1A priority Critical patent/CN113742188A/zh
Publication of CN113742188A publication Critical patent/CN113742188A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3438Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment monitoring of user actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及用电设备行为监测技术领域,公开了一种基于BERT的非侵入式电脑行为监测方法及系统,本方法包括步骤:S1:通过卷积层提取特征数据信息,并增加一维输入序列的隐藏尺寸得到目标数据信息;S2:将步骤S1的目标数据信息与位置嵌入矩阵相加,得到序列位置编码;S3:将目标数据信息传输至Transformers层中进行预设处理,得到注意力模型输出数据。本方法使用了Transformer作为算法的主要框架并采用MLM和NSP的多任务训练目标,最后基于机器训练大规模的数据,使得BERT的输出结果达到了有效的应用。

Description

一种基于BERT的非侵入式电脑行为监测方法及系统
技术领域
本发明涉及用电设备行为监测技术领域,尤其涉及一种基于BERT的非侵入式电脑行为监测方法及系统。
背景技术
BERT是一种语言表示模型,BERT代表来自Transformer的双向编码器表示(Bidirectional Encoder Representations from Transformers)。BERT旨在通过联合调节所有层中的左右上下文来预训练深度双向表示。因此,只需要一个额外的输出层,就可以对预训练的BERT表示进行微调,从而为广泛的任务(比如回答问题和语言推断任务)创建最先进的模型,而无需对特定于任务进行大量模型结构的修改。
发明内容
针对上述现有技术的现状,本发明所要解决的技术问题在于提供了一种基于BERT的非侵入式电脑行为监测方法及系统,该方法使用了Transformer作为算法的主要框架并采用MLM(Mask Language Model)和NSP(Next Sentence Prediction)的多任务训练目标,最后基于机器训练大规模的数据,使得BERT的输出结果达到了有效的应用。
本发明一种基于BERT的非侵入式电脑行为监测方法及系统,具体的包括以下技术方案:
一种基于BERT的非侵入式电脑行为监测方法,包括步骤:
S1:通过卷积层提取特征数据信息,并增加一维输入序列的隐藏尺寸得到目标数据信息;
S2:将步骤S1的目标数据信息与位置嵌入矩阵相加,得到序列位置编码;
S3:将目标数据信息传输至Transformers层中进行预设处理,得到注意力模型输出数据;
S4:将步骤S3处理后的注意力模型输出数据输入MLP层,并转置卷积将注意力模型输出数据扩展到其原始长度;
S5:通过预设算法将输入的隐藏尺寸变为软件的分类。
进一步地,所述步骤S1包括:
S11:通过卷积操作增加特征数据的维度;
S12:通过L2norm池来保留特征数据信息,并减少输入序列的长度。
进一步地,所述步骤S2包括:
S21:其中,得到序列位置编码的等式为:
Embedding(X)=LPPooling(Conv(X))+Epose
其中,X表示输入数据,Conv表示卷积操作,LPPooling表示池化操作,Epose表示位置矩阵。
进一步地,所述步骤S3包括:
S31:通过对输入矩阵进行线性变换得到Q,K和V矩阵,转化为包含不同的子空间信息的注意输出;
其中,转化注意输出的等式为:
MultiHead(Q,K,V)=Concat(head1,head2,...,headh)WO
where·headi=Attention(QWi Q,KWi K,VWi V);
其中,Multihead表示多头注意力值,head表示注意力值,Q,K,V表示线性变换的参数。
进一步地,所述步骤S5包括:
S51:所述MLP层由一个反卷积层和两个线性层组成,并在两层MLP之间有Tanh激活;
其中,所述预设算法为:
Out(X)=Tanh(Deconv(X)W1+b1)W2+b2
其中,X表示输入数据,W1、b1、W2、b2表示神经网络学习使用的参数。
一种基于BERT的非侵入式电脑行为监测系统,包括:
提取模块:通过卷积层提取特征数据信息,并增加一维输入序列的隐藏尺寸得到目标数据信息;
相加模块:将提取模块中的目标数据信息与位置嵌入矩阵相加,得到序列位置编码;
处理模块:将目标数据信息传输至Transformers层中进行预设处理,得到注意力模型输出数据;
转置模块:将处理模块处理后的注意力模型输出数据输入MLP层,并转置卷积将注意力模型输出数据扩展到其原始长度;
计算模块:通过预设算法将输入的隐藏尺寸变为软件的分类。
进一步地,所述提取模块包括:
池化单元:通过卷积操作增加特征数据的维度;
保留特征单元:通过L2norm池来保留特征数据信息,并减少输入序列的长度。
进一步地,所述相加模块包括:
矩阵获取单元:其中,得到序列位置编码的等式为:
Embedding(X)=LPPooling(Conv(X))+Epose
其中,X表示输入数据,Conv表示卷积操作,LPPooling表示池化操作,Epose表示位置矩阵。
进一步地,所述处理模块包括:
变换单元:通过对输入矩阵进行线性变换得到Q,K和V矩阵,转化为包含不同的子空间信息的注意输出;
其中,转化注意输出的等式为:
MultiHead(Q,K,V)=Concat(head1,head2,...,headh)WO
where·headi=Attention(QWi Q,KWi K,VWi V);
其中,Multihead表示多头注意力值,head表示注意力值,Q,K,V表示线性变换的参数。
进一步地,所述计算模块包括:
激活单元:所述MLP层由一个反卷积层和两个线性层组成,并在两层MLP之间有Tanh激活;
其中,所述预设算法为:
Out(X)=Tanh(Deconv(X)W1+b1)W2+b2
其中,X表示输入数据,W1、b1、W2、b2表示神经网络学习使用的参数。
本发明采用上述技术方案至少包括以下有益效果:
本方法将BERT结构应用于行为监测领域,遵循序列到序列的学习模式。通过改进的损失函数和屏蔽训练,BERT在两个公开数据集UK-DALE和REDD上的各指标上优于其他的模型。
附图说明
图1为本发明实施例一提供的基于BERT的非侵入式电脑行为监测方法流程图一;
图2为本发明实施例一提供的基于BERT的非侵入式电脑行为监测方法流程图二;
图3为本发明实施例二提供的基于BERT的非侵入式电脑行为监测系统结构图一;
图4为本发明实施例二提供的基于BERT的非侵入式电脑行为监测系统结构图二。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
实施例一
本实施例提供了一种基于BERT的非侵入式电脑行为监测方法,如图1至图2所示,本方法包括步骤:
S1:通过卷积层提取特征数据信息,并增加一维输入序列的隐藏尺寸得到目标数据信息;
S2:将步骤S1的目标数据信息与位置嵌入矩阵相加,得到序列位置编码;
S3:将目标数据信息传输至Transformers层中进行预设处理,得到注意力模型输出数据;
S4:将步骤S3处理后的注意力模型输出数据输入MLP层,并转置卷积将注意力模型输出数据扩展到其原始长度;
S5:通过预设算法将输入的隐藏尺寸变为软件的分类。
具体的,在将输入数据传递给Transformers层之前,先要经过Embedding层处理,我们首先采用卷积层提取特征并增加一维输入序列的隐藏尺寸。通过L2norm池对数据池化来增加隐藏大小的卷积输出,即对输入序列应用均方池来保留特征,同时将长度减少一半。然后,池化后得到的数据与可位置嵌入矩阵(Learnable Positional Embedding Matrix)相加中,该矩阵捕获序列位置编码。
具体的,经由Embedding层处理过的数据将被数据到Transformers中。该双向Transformer层(bidirectional transformers)是由多层Transformer组成,其中每层Transformer由h注意头(attention heads)构成。single-head attention(scaled dot-product attention)可以用Q(Query)、K(Key)和V(Value)矩阵表示,这些矩阵是通过对输入矩阵进行线性变换得到。multi-head attention将隐藏空间划分为多个带有参数矩阵的子空间得到多个Q,K和V矩阵。它们每个都有一个单独的注意力,可以从不同的子空间获取信息。
具体的,将上述数据处理过程生成的数据输入MLP层,该层由一个反卷积层和两个线性层组成。反卷积层首先用转置卷积将输出扩展到其原始长度。随后,在两层MLP之间有Tanh激活,将输入隐藏尺寸变为软件的分类。
其中,步骤S1包括:S11:通过卷积操作增加特征数据的维度;
S12:通过L2norm池来保留特征数据信息,并减少输入序列的长度。
其中,所述步骤S2包括:S21:其中,得到序列位置编码的等式为:
Embedding(X)=LPPooling(Conv(X))+Epose
其中,X表示输入数据,Conv表示卷积操作,LPPooling表示池化操作,Epose表示位置矩阵。
其中,步骤S3包括:S31:通过对输入矩阵进行线性变换得到Q,K和V矩阵,转化为包含不同的子空间信息的注意输出;
其中,转化注意输出的等式为:
MultiHead(Q,K,V)=Concat(head1,head2,…,headh)WO
where·headi=Attention(QWi Q,KWi K,VWi V)。
其中,Multihead表示多头注意力值,head表示注意力值,Q,K,V表示线性变换的参数。
其中,步骤S5包括:S51:所述MLP层由一个反卷积层和两个线性层组成,并在两层MLP之间有Tanh激活;
其中,所述预设算法为:Out(X)=Tanh(Deconv(X)W1+b1)W2+b2
其中,X表示输入数据,W1、b1、W2、b2表示神经网络学习使用的参数。
本方法将BERT结构应用于行为监测领域,遵循序列到序列的学习模式。通过改进的损失函数和屏蔽训练,BERT在两个公开数据集UK-DALE和REDD上的各指标上优于其他的模型。
实施例二
本实施例提供了一种基于BERT的非侵入式电脑行为监测系统,如图3和图4所示,本系统包括:
提取模块:通过卷积层提取特征数据信息,并增加一维输入序列的隐藏尺寸得到目标数据信息;
相加模块:将提取模块中的目标数据信息与位置嵌入矩阵相加,得到序列位置编码;
处理模块:将目标数据信息传输至Transformers层中进行预设处理,得到注意力模型输出数据;
转置模块:将处理模块处理后的注意力模型输出数据输入MLP层,并转置卷积将注意力模型输出数据扩展到其原始长度;
计算模块:通过预设算法将输入的隐藏尺寸变为软件的分类。
其中,提取模块包括:
池化单元:通过卷积操作增加特征数据的维度;
保留特征单元:通过L2norm池来保留特征数据信息,并减少输入序列的长度。
其中,相加模块包括:
矩阵获取单元:其中,得到序列位置编码的等式为:
Embedding(X)=LPPooling(Conv(X))+Epose
其中,处理模块包括:变换单元:通过对输入矩阵进行线性变换得到Q,K和V矩阵,转化为包含不同的子空间信息的注意输出;
其中,转化注意输出的等式为:
MultiHead(Q,K,V)=Concat(head1,head2,...,headh)WO
where·headi=Attention(QWi Q,KWi K,VWi V)。
其中,Multihead表示多头注意力值,head表示注意力值,Q,K,V表示线性变换的参数。
多头Attention(Multi-head attention),Q(Query)、K(Key)和V(Value)经过一个线性变换,然后输入到放缩点积attention,做h次,将h次的放缩点积attention结果进行拼接,再进行一次线性变换得到的值作为多头attention的结果。多头attention允许模型同时注意来自不同位置的不同表示子空间的信息。
其中,计算模块包括:激活单元:所述MLP层由一个反卷积层和两个线性层组成,并在两层MLP之间有Tanh激活;
其中,所述预设算法为:Out(X)=Tanh(Deconv(X)W1+b1)W2+b2
其中,X表示输入数据,W1、b1、W2、b2表示神经网络学习使用的参数。
本系统将BERT结构应用于行为监测领域,遵循序列到序列的学习模式。通过改进的损失函数和屏蔽训练,BERT在两个公开数据集UK-DALE和REDD上的各指标上优于其他的模型。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (10)

1.一种基于BERT的非侵入式电脑行为监测方法,其特征在于,包括步骤:
S1:通过卷积层提取特征数据信息,并增加一维输入序列的隐藏尺寸得到目标数据信息;
S2:将步骤S1的目标数据信息与位置嵌入矩阵相加,得到序列位置编码;
S3:将目标数据信息传输至Transformers层中进行预设处理,得到注意力模型输出数据;
S4:将步骤S3处理后的注意力模型输出数据输入MLP层,并转置卷积将注意力模型输出数据扩展到其原始长度;
S5:通过预设算法将输入的隐藏尺寸变为软件的分类。
2.根据权利要求1所述的基于BERT的非侵入式电脑行为监测方法,其特征在于,所述步骤S1包括:
S11:通过卷积操作增加特征数据的维度;
S12:通过L2norm池来保留特征数据信息,并减少输入序列的长度。
3.根据权利要求1所述的基于BERT的非侵入式电脑行为监测方法,其特征在于,所述步骤S2包括:
S21:其中,得到序列位置编码的等式为:
Embedding(X)=LPPooling(Conv(X))+Epose
其中,X表示输入数据,Conv表示卷积操作,LPPooling表示池化操作,Epose表示位置矩阵。
4.根据权利要求1所述的基于BERT的非侵入式电脑行为监测方法,其特征在于,所述步骤S3包括:
S31:通过对输入矩阵进行线性变换得到Q,K和V矩阵,转化为包含不同的子空间信息的注意输出;
其中,转化注意输出的等式为:
MultiHead(Q,K,V)=Concat(head1,head2,…,headh)WO
where·headi=Attention(QWi Q,KWi K,VWi V);
其中,Multihead表示多头注意力值,head表示注意力值,Q,K,V表示线性变换的参数。
5.根据权利要求1所述的基于BERT的非侵入式电脑行为监测方法,其特征在于,所述步骤S5包括:
S51:所述MLP层由一个反卷积层和两个线性层组成,并在两层MLP之间有Tanh激活;
其中,所述预设算法为:
Out(X)=Tanh(Deconv(X)W1+b1)W2+b2
其中,X表示输入数据,W1、b1、W2、b2表示神经网络学习使用的参数。
6.一种基于BERT的非侵入式电脑行为监测系统,其特征在于,包括:
提取模块:通过卷积层提取特征数据信息,并增加一维输入序列的隐藏尺寸得到目标数据信息;
相加模块:将提取模块中的目标数据信息与位置嵌入矩阵相加,得到序列位置编码;
处理模块:将目标数据信息传输至Transformers层中进行预设处理,得到注意力模型输出数据;
转置模块:将处理模块处理后的注意力模型输出数据输入MLP层,并转置卷积将注意力模型输出数据扩展到其原始长度;
计算模块:通过预设算法将输入的隐藏尺寸变为软件的分类。
7.根据权利要求6所述的基于BERT的非侵入式电脑行为监测系统,其特征在于,所述提取模块包括:
池化单元:通过卷积操作增加特征数据的维度;
保留特征单元:通过L2norm池来保留特征数据信息,并减少输入序列的长度。
8.根据权利要求6所述的基于BERT的非侵入式电脑行为监测系统,其特征在于,所述相加模块包括:
矩阵获取单元:其中,得到序列位置编码的等式为:
Embedding(X)=LPPooling(Conv(X))+Epose
其中,X表示输入数据,Conv表示卷积操作,LPPooling表示池化操作,Epose表示位置矩阵。
9.根据权利要求6所述的基于BERT的非侵入式电脑行为监测系统,其特征在于,所述处理模块包括:
变换单元:通过对输入矩阵进行线性变换得到Q,K和V矩阵,转化为包含不同的子空间信息的注意输出;
其中,转化注意输出的等式为:
MultiHead(Q,K,V)=Concat(head1,head2,…,headh)WO
where·headi=Attention(QWi Q,KWi K,VWi V);
其中,Multihead表示多头注意力值,head表示注意力值,Q,K,V表示线性变换的参数。
10.根据权利要求6所述的基于BERT的非侵入式电脑行为监测系统,其特征在于,所述计算模块包括:
激活单元:所述MLP层由一个反卷积层和两个线性层组成,并在两层MLP之间有Tanh激活;
其中,所述预设算法为:
Out(X)=Tanh(Deconv(X)W1+b1)W2+b2
其中,X表示输入数据,W1、b1、W2、b2表示神经网络学习使用的参数。
CN202110980228.1A 2021-08-25 2021-08-25 一种基于bert的非侵入式电脑行为监测方法及系统 Pending CN113742188A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110980228.1A CN113742188A (zh) 2021-08-25 2021-08-25 一种基于bert的非侵入式电脑行为监测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110980228.1A CN113742188A (zh) 2021-08-25 2021-08-25 一种基于bert的非侵入式电脑行为监测方法及系统

Publications (1)

Publication Number Publication Date
CN113742188A true CN113742188A (zh) 2021-12-03

Family

ID=78732707

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110980228.1A Pending CN113742188A (zh) 2021-08-25 2021-08-25 一种基于bert的非侵入式电脑行为监测方法及系统

Country Status (1)

Country Link
CN (1) CN113742188A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019184657A1 (zh) * 2018-03-30 2019-10-03 腾讯科技(深圳)有限公司 图像识别方法、装置、电子设备及存储介质
CN110782008A (zh) * 2019-10-16 2020-02-11 北京百分点信息科技有限公司 深度学习模型的训练方法、预测方法和装置
WO2021051503A1 (zh) * 2019-09-19 2021-03-25 平安科技(深圳)有限公司 基于语义表征模型的文本分类方法、装置和计算机设备
CN112926303A (zh) * 2021-02-23 2021-06-08 南京邮电大学 一种基于BERT-BiGRU的恶意URL检测方法
CN113239698A (zh) * 2021-03-09 2021-08-10 北京来也网络科技有限公司 基于rpa及ai的信息提取方法、装置、设备及介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019184657A1 (zh) * 2018-03-30 2019-10-03 腾讯科技(深圳)有限公司 图像识别方法、装置、电子设备及存储介质
WO2021051503A1 (zh) * 2019-09-19 2021-03-25 平安科技(深圳)有限公司 基于语义表征模型的文本分类方法、装置和计算机设备
CN110782008A (zh) * 2019-10-16 2020-02-11 北京百分点信息科技有限公司 深度学习模型的训练方法、预测方法和装置
CN112926303A (zh) * 2021-02-23 2021-06-08 南京邮电大学 一种基于BERT-BiGRU的恶意URL检测方法
CN113239698A (zh) * 2021-03-09 2021-08-10 北京来也网络科技有限公司 基于rpa及ai的信息提取方法、装置、设备及介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHENRUI YUE 等: "BERT4NILM: A Bidirectional Transformer Model for Non-Intrusive Load Monitoring", 《NILM\'20: PROCEEDINGS OF THE 5TH INTERNATIONAL WORKSHOP ON NON-INTRUSIVE LOAD MONITORING》, pages 89 *
齐亮;贾廷纲;侍洪波;: "基于工业无线网络电机能效监测系统研究及应用", 电气自动化, no. 01 *

Similar Documents

Publication Publication Date Title
CN112464861B (zh) 用于智能人机交互的行为早期识别方法、系统及存储介质
CN109947912B (zh) 一种基于段落内部推理和联合问题答案匹配的模型方法
CN111259666A (zh) 一种结合多头自注意力机制的cnn文本分类方法
CN110490946B (zh) 基于跨模态相似度和生成对抗网络的文本生成图像方法
KR20220050758A (ko) 다차원 어텐션 메커니즘에 기반한 다방향 장면 텍스트 인식 방법 및 시스템
CN107480206A (zh) 一种基于多模态低秩双线性池化的图像内容问答方法
CN112801280B (zh) 视觉深度自适应神经网络的一维卷积位置编码方法
CN113887513A (zh) 一种基于并行CNN-Transformer神经网络的运动想象脑电信号分类方法
CN113516133B (zh) 一种多模态图像分类方法及系统
CN112587129B (zh) 一种人体动作识别方法及装置
CN111261223A (zh) 一种基于深度学习的crispr脱靶效应预测方法
CN114818889A (zh) 一种基于线性自注意力Transformer的图像分类方法
CN111274978A (zh) 一种微表情识别方法及装置
US20230394306A1 (en) Multi-Modal Machine Learning Models with Improved Computational Efficiency Via Adaptive Tokenization and Fusion
CN116188836A (zh) 基于空间与通道特征提取的遥感图像分类方法和装置
CN117409431B (zh) 一种多模态大型语言模型训练方法、电子设备及存储介质
CN117474800A (zh) 一种基于通道Transformer的全卷积解码器的图像去雾方法
CN113742188A (zh) 一种基于bert的非侵入式电脑行为监测方法及系统
Lee Nonlinear approaches to independent component analysis
CN112257464A (zh) 一种基于小型智能移动设备的机器翻译解码加速方法
CN116704506A (zh) 一种基于交叉环境注意力的指代图像分割方法
CN115086673B (zh) 一种多码率与快速熵模型计算的图像编解码方法及装置
CN114550159A (zh) 一种图像字幕生成方法、装置、设备及可读存储介质
CN113377907B (zh) 基于记忆掩码自注意力网络的端到端任务型对话系统
CN115270917A (zh) 一种两阶段处理多模态服装图像生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20211203