CN115169530B - 数据处理方法、装置、电子设备和可读存储介质 - Google Patents
数据处理方法、装置、电子设备和可读存储介质 Download PDFInfo
- Publication number
- CN115169530B CN115169530B CN202210759100.7A CN202210759100A CN115169530B CN 115169530 B CN115169530 B CN 115169530B CN 202210759100 A CN202210759100 A CN 202210759100A CN 115169530 B CN115169530 B CN 115169530B
- Authority
- CN
- China
- Prior art keywords
- matrix
- calculation
- initial
- branch
- query
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 239000011159 matrix material Substances 0.000 claims abstract description 549
- 238000004364 calculation method Methods 0.000 claims abstract description 372
- 239000013598 vector Substances 0.000 claims abstract description 90
- 238000012545 processing Methods 0.000 claims abstract description 56
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000003062 neural network model Methods 0.000 claims description 53
- 238000012549 training Methods 0.000 claims description 31
- 238000013145 classification model Methods 0.000 claims 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 230000004927 fusion Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000013507 mapping Methods 0.000 description 12
- 238000013519 translation Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000011423 initialization method Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种数据处理方法、装置、电子设备和可读存储介质,涉及人工智能技术领域,具体为深度学习、图像处理、自然语言处理、计算机视觉等技术领域。数据处理方法包括:获取待处理数据的向量序列;基于查询计算矩阵与查询计算分支矩阵,得到所述向量序列的目标查询矩阵;基于键计算矩阵与键计算分支矩阵,得到所述向量序列的目标键矩阵;基于值计算矩阵与值计算分支矩阵,得到所述向量序列的目标值矩阵;基于所述目标查询矩阵、所述目标键矩阵与所述目标值矩阵进行注意力计算,得到所述待处理数据的注意力计算结果。本公开能够提升注意力计算的准确性。
Description
技术领域
本公开涉及人工智能技术领域,具体为深度学习、图像处理、自然语言处理、计算机视觉等技术领域。提供了一种数据处理方法、装置、电子设备和可读存储介质。
背景技术
神经网络模型中的注意力机制(Attention),也被称为神经注意力或者注意力。注意力机制在各个领域中都有广泛的应用,例如机器翻译、图像分类等。
发明内容
根据本公开的第一方面,提供了一种数据处理方法,包括:获取待处理数据的向量序列;基于查询计算矩阵与查询计算分支矩阵,得到所述向量序列的目标查询矩阵;基于键计算矩阵与键计算分支矩阵,得到所述向量序列的目标键矩阵;基于值计算矩阵与值计算分支矩阵,得到所述向量序列的目标值矩阵;基于所述目标查询矩阵、所述目标键矩阵与所述目标值矩阵进行注意力计算,得到所述待处理数据的注意力计算结果。
根据本公开的第二方面,提供了一种数据处理装置,包括:获取单元,用于获取待处理数据的向量序列;第一处理单元,用于基于查询计算矩阵与查询计算分支矩阵,得到所述向量序列的目标查询矩阵;第二处理单元,用于基于键计算矩阵与键计算分支矩阵,得到所述向量序列的目标键矩阵;第三处理单元,用于基于值计算矩阵与值计算分支矩阵,得到所述向量序列的目标值矩阵;生成单元,用于基于所述目标查询矩阵、所述目标键矩阵与所述目标值矩阵进行注意力计算,得到所述待处理数据的注意力计算结果。
根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如上所述的方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方法。
由以上技术方案可以看出,本公开在进行待处理数据的注意力计算时,除了基于查询(Query)计算矩阵、键(Key)计算矩阵与值(Value)计算矩阵之外,还会额外设置与上述三种计算矩阵分别对应的计算分支矩阵,以共同得到用于注意力计算的查询矩阵、键矩阵与值矩阵,从而提升了注意力计算的准确性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第三实施例的示意图;
图4是根据本公开第四实施例的示意图;
图5是根据本公开第五实施例的示意图;
图6是用来实现本公开实施例的数据处理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和机构的描述。
图1是根据本公开第一实施例的示意图。如图1所示,本实施例的数据处理方法,具体包括如下步骤:
S101、获取待处理数据,得到所述待处理数据的向量序列;
S102、基于查询计算矩阵与查询计算分支矩阵,得到所述向量序列的目标查询矩阵;
S103、基于键计算矩阵与键计算分支矩阵,得到所述向量序列的目标键矩阵;
S104、基于值计算矩阵与值计算分支矩阵,得到所述向量序列的目标值矩阵;
S105、基于所述目标查询矩阵、所述目标键矩阵与所述目标值矩阵进行注意力计算,得到所述待处理数据的注意力计算结果。
本实施例的数据处理方法,在进行待处理数据的注意力计算时,除了基于查询(Query)计算矩阵、键(Key)计算矩阵与值(Value)计算矩阵之外,还会额外设置与上述三种计算矩阵分别对应的计算分支矩阵,以共同得到用于注意力计算的查询矩阵、键矩阵与值矩阵,从而提升了注意力计算的准确性。
本实施例在执行S101获取待处理数据时,可以将输入端输入的文本或者图像等数据作为待处理数据,也可以将输入端在相应页面上选择的文本或者图像作为待处理数据;本实施例对获取的待处理数据的数据类型不进行限定。
本实施例在执行S101得到待处理数据的向量序列时,可以采用的可选实现方式为:确定待处理数据的数据类型,本实施例中的数据类型可以为文本类型或者图像类型中的一种;使用与所确定的数据类型对应的提取方式,得到待处理数据的向量序列。
若待处理数据的数据类型为文本类型,本实施例在执行S101时,可以使用函数映射的方式,将与文本对应的词向量(例如通过Word Embedding的计算方式来获取)作为待处理数据的向量序列;若待处理数据的数据类型为图像类型,本实施例在执行S101时,可以先将图像划分为固定大小的图像块(Patch),然后将各个图像块的嵌入向量(例如通过PatchEmbedding的计算方式来获取)与位置向量(例如通过Position Embedding的计算方式来获取)进行拼接,将拼接结果作为待处理数据的向量序列。
也就是说,本实施例会预先设置与不同的数据类型对应的提取方式,来从待处理数据中提取向量序列,从而提升了所提取的向量序列的准确性。
本实施例在执行S101得到待处理数据的向量序列之后,分别执行S102基于查询计算矩阵与查询计算分支矩阵,得到向量序列的目标查询矩阵、执行S103基于键计算矩阵与键计算分支矩阵,得到向量序列的目标键矩阵、以及执行S104基于值计算矩阵与值计算分支矩阵,得到向量序列的目标值矩阵;本实施例对S102、S103与S104的执行顺序不进行限定。
其中,本实施例在执行S102、S103与S104时,所使用的与计算矩阵对应的计算分支矩阵的数量,可以为一个,也可以为多个;不同的计算矩阵,可以具有相同数量的计算分支矩阵,也可以具有不同数量的计算分支矩阵。
举例来说,本实施例在执行S102、S103与S104时,与不同的计算矩阵对应的计算分支矩阵的数量可以为三个,也可以为与查询计算矩阵对应的查询计算分支矩阵的数量为三个、与键计算矩阵对应的键计算分支矩阵的数量为两个、与值计算矩阵对应的值计算分支矩阵的数量为三个。
本实施例在执行S102基于查询计算矩阵与查询计算分支矩阵,得到向量序列的目标查询矩阵时,可以采用的可选实现方式为:基于查询计算矩阵与向量序列,得到初始查询矩阵;基于查询计算分支矩阵与初始查询矩阵,得到目标查询矩阵。
本实施例在执行S102基于查询计算矩阵与查询计算分支矩阵,得到向量序列的目标查询矩阵时,还可以采用以下方式:基于查询计算矩阵与查询计算分支矩阵,得到融合查询计算矩阵;基于融合查询计算矩阵与向量序列,得到目标查询矩阵。
本实施例在执行S103基于键计算矩阵与键计算分支矩阵,得到向量序列的目标键矩阵时,可以采用的可选实现方式为:基于键计算矩阵与向量序列,得到初始键矩阵;基于键计算分支矩阵与初始键矩阵,得到目标键矩阵。
本实施例在执行S103基于键计算矩阵与键计算分支矩阵,得到向量序列的目标键矩阵时,还可以采用以下方式:基于键计算矩阵与键计算分支矩阵,得到融合键计算矩阵;基于融合键计算矩阵与向量序列,得到目标键矩阵。
本实施例在执行S104基于值计算矩阵与值计算分支矩阵,得到向量序列的目标值矩阵时,可以采用的可选实现方式为:基于值计算矩阵与向量序列,得到初始值矩阵;基于值计算分支矩阵与初始值矩阵,得到目标值矩阵。
本实施例在执行S104基于值计算矩阵与值计算分支矩阵,得到向量序列的目标值矩阵时,还可以采用以下方式:基于值计算矩阵与值计算分支矩阵,得到融合值计算矩阵;基于融合值计算矩阵与向量序列,得到目标值矩阵。
举例来说,若本实施例执行S101得到的向量序列X的维度为n×dm,若查询计算矩阵Wq、键计算矩阵Wk与值计算矩阵Wv的维度为dm×dh,若查询计算分支矩阵、键计算分支矩阵与值计算分支矩阵的维度为dh×dh;本实施例在执行S102、S103与S104时,可以首先基于Wq、Wk、Wv,对X进行映射处理,分别得到维度为n×dh的初始查询矩阵Q、初始键矩阵K与初始值矩阵V,然后基于查询计算分支矩阵对初始查询矩阵Q进行映射处理,得到维度为n×dh的目标查询矩阵Q’,基于键计算分支矩阵对初始键矩阵K进行映射处理,得到维度为n×dh的目标键矩阵K’,基于值计算分支矩阵对初始值矩阵V进行映射处理,得到维度为n×dh的目标值矩阵V’。
也就是说,本实施例采用计算矩阵与计算分支矩阵对向量序列进行双重映射的方式,得到最终用于注意力计算的目标查询矩阵、目标键矩阵与目标值矩阵,通过引入更为丰富的矩阵计算参数,能够提升所得到的用于注意力计算的矩阵的准确性。
其中,本实施例在执行S102、S103与S104时,若与同一个计算矩阵对应的计算分支矩阵存在多个时,可以在获取每个计算分支矩阵处理同一个初始矩阵的映射结果之后,将多个映射结果进行相加,从而将相加结果作为目标矩阵。
举例来说,本实施例在执行S102时,若与查询计算矩阵对应的查询计算分支矩阵包含W1,q、W2,q与W3,q,基于W1,q对初始查询矩阵Q进行映射处理得到Q’1、基于W2,q对初始查询矩阵Q进行映射处理得到Q’2、基于W3,q对初始查询矩阵Q进行映射处理得到Q’3,将Q’1、Q’2与Q’3之间的相加结果作为目标查询矩阵Q’。
本实施例在执行S102、S103与S104时,可以通过将计算矩阵及其对应的计算分支矩阵进行矩阵相乘,将矩阵相乘结果作为融合计算矩阵;在计算分支矩阵存在多个的情况下,可以先将多个计算分支矩阵进行矩阵相加,然后将矩阵相加结果与计算矩阵进行矩阵相乘,将矩阵相乘结果作为融合计算矩阵。
也就是说,本实施例还可以将计算矩阵及其对应的计算分支矩阵进行融合,进而根据所得到的融合计算矩阵,分别得到与向量序列对应的目标查询矩阵、目标键矩阵与目标值矩阵,能够简化目标矩阵的计算步骤,提升在得到用于注意力计算的矩阵时的效率。
可以理解的是,本实施例执行S102、S103与S104时所使用的计算矩阵与计算分支矩阵,可以为经过训练所得到的优化参数,也可以为用户预先设置的参数,表明本实施例所使用的计算矩阵及其对应的计算分支矩阵均为准确的参数。
本实施例在执行S102、S103与S104分别得到目标查询矩阵、目标键矩阵与目标值矩阵之后,执行S105基于目标查询矩阵、目标键矩阵与目标值矩阵进行注意力计算,得到待处理数据的注意力计算结果。
本实施例执行S105得到的注意力计算结果,可以用于进行图像分类、文本翻译等;也就是说,本实施例提供的注意力计算方法可以适用于存在注意力计算过程的神经网络模型,该神经网络模型可以为进行不同的推理任务(图像分类任务、文本翻译任务等)的神经网络模型。
本实施例在执行S105基于目标查询矩阵、目标键矩阵与目标值矩阵进行注意力计算时,可以使用以下计算公式:
在上述计算公式中:Attention(Q',K',V')表示待处理数据的注意力计算结果;Q'表示目标查询矩阵;V'表示目标值矩阵;K'表示目标键矩阵;dh表示计算分支矩阵的维度。
图2是根据本公开第二实施例的示意图。如图2中所示,本实施例的数据处理方法,还可以包含以下内容:
S201、构建包含注意力层的神经网络模型,所述注意力层基于初始计算矩阵与初始计算分支矩阵进行注意力计算,所述初始计算矩阵包含初始查询计算矩阵、初始键计算矩阵与初始值计算矩阵中的至少一种,所述初始计算分支矩阵包含初始查询计算分支矩阵、初始键计算分支矩阵与初始值计算分支矩阵中的至少一种;
S202、获取样本集;
S203、基于所述样本集训练所述神经网络模型,对所述初始计算矩阵与初始计算分支矩阵进行更新,直至所述神经网络模型收敛;
S204、获取所述神经网络模型收敛时的所述初始计算矩阵作为计算矩阵、所述初始计算分支矩阵作为计算分支矩阵,所述计算矩阵为所述查询计算矩阵、所述键计算矩阵与所述值计算矩阵中的至少一种,所述计算分支矩阵为所述查询计算分支矩阵、所述键计算分支矩阵与所述值计算分支矩阵中的至少一种。
也就是说,本实施例设置包含计算分支矩阵的注意力层,并相应地构建包含该注意力层的神经网络模型,进而通过所获取的样本集对该神经网络模型进行训练,以对注意力层所使用的初始计算矩阵与初始计算分支矩阵进行更新,从而将神经网络模型收敛时的初始计算矩阵与初始计算分支矩阵,作为相应的计算矩阵与计算分支矩阵,能够提升本实施例在进行注意力计算时所使用的计算矩阵与计算分支矩阵的准确性。
本实施例执行S201构建的包含注意力层的神经网络模型,可以为用于图像分类的Transformer(转换)模型,也可以为用于文本翻译的Transformer模型;所构建的神经网络模型中可以包含多个注意力层,不同的注意力层可以位于不同的编码器块(EncoderBlock)和/或解码器块(Decoder Block)。
本实施例执行S201构建的神经网络模型中的注意力层,初始计算矩阵包含初始查询计算矩阵、初始键计算矩阵与初始值计算矩阵中的至少一种,初始计算分支矩阵包含初始查询计算分支矩阵、初始键计算分支矩阵与初始值计算分支矩阵中的至少一种;注意力层在基于计算矩阵与计算分支矩阵进行注意力计算的过程与上述实施例基于计算矩阵与计算分支矩阵进行注意力计算的过程相同,在此不进行赘述。
本实施例在执行S201构建包含注意力层的神经网络模型时,还可以包含以下内容:使用不同的初始化方式,对注意力层包含的初始计算矩阵和/或初始计算分支矩阵进行初始化;其中,本实施例在执行S201时,可以针对不同的矩阵使用不同的初始化方式,也可以针对初始计算矩阵使用一种初始化方式,针对初始计算分支矩阵使用一种初始化方式。
举例来说,本实施例在执行S201时,可以使用均匀初始化的初始化方式对查询计算分支矩阵进行初始化,使用正态初始化的初始化方式对键计算分支矩阵进行初始化,使用Xavier初始化的初始化方式对值计算分支矩阵进行初始化。
另外,在与同一个初始计算矩阵对应的初始计算分支矩阵存在多个时,例如初始查询计算分支矩阵包含查询分支1与查询分支2、初始键计算分支矩阵包含键分支1与键分支2时,本实施例在执行S201进行矩阵初始化时,可以使用均匀初始化的初始化方式对查询分支1与键分支1进行初始化,使用正态初始化的初始化方式对查询分支2与键分支2进行初始化。
也就是说,本实施例通过不同的初始化方式对不同的初始计算矩阵和/或初始计算分支矩阵进行初始化,能够增加矩阵参数的复杂化,进而提升训练得到的计算矩阵及与计算分支矩阵的准确性。
本实施例在执行S202获取样本集时,可以从服务器中获取预先存储的样本集;本实施例可以根据所构建的神经网络模型所要完成的推理任务,获取与推理任务对应的样本集。
其中,本实施例中与不同的推理任务对应的样本集中包含的样本数据也不同,例如与图像分类任务对应的样本集中,包含的是样本图像及其对应的类别标注信息,与文本翻译任务对应的样本集中,包含的是样本文本及其对应的翻译文本。
本实施例在执行S203基于样本集训练神经网络模型,对初始计算矩阵以及初始计算分支矩阵进行更新时,可以采用的可选实现方式为:针对每次更新,从初始计算矩阵中选取目标初始计算矩阵和/或从初始计算分支矩阵中选取目标初始计算分支矩阵,本实施例可以按照预设规则或者预设顺序来确定每次更新的目标初始矩阵;在本次更新时,对所选取的目标初始计算矩阵和/或目标初始计算分支矩阵进行更新。
也就是说,本实施例还可以在不同的参数更新过程中,对不同的初始计算矩阵和/或初始计算分支矩阵进行更新,从而实现对初始计算矩阵与初始计算分支矩阵进行交替优化的目的,提升所得到的计算矩阵与计算分支矩阵的准确性。
举例来说,在一次参数更新过程中,可以将初始查询计算分支矩阵作为目标初始计算分支矩阵进行更新,不对其他初始计算分支矩阵进行更新;在与同一个初始计算矩阵对应的初始计算分支矩阵存在多个时,例如不同的初始计算分支矩阵均包含分支1、分支2与分支3,在一次参数更新过程中,可以将每个初始计算分支矩阵中的分支1与分支2作为目标初始计算分支矩阵进行更新,不对分支3进行更新,在下一次参数更新过程中,则可以将每个初始计算分支矩阵中的分支2与分支3作为目标初始计算分支矩阵进行更新,不对分支3进行更新。
本实施例在执行S203完成对神经网络模型的训练之后,即认为对神经网络模型的注意力层中包含的初始计算矩阵与初始计算分支矩阵完成更新,执行S204将更新完成的初始计算矩阵与初始计算分支矩阵,作为相应的计算矩阵与计算分支矩阵;其中,本实施例执行S204中的初始计算矩阵为查询计算矩阵、键计算矩阵与值计算矩阵中的至少一种,初始计算分支矩阵为查询计算分支矩阵、键计算分支矩阵与值计算分支矩阵中的至少一种。
可以理解的是,本实施执行S203训练得到的神经网络模型,也可以直接用作执行相应推理任务的模型,例如将该神经网络模型直接用于图像分类任务、将该神经网络模型直接用于文本翻译任务等。
图3是根据本公开第三实施例的示意图。图3中示出了本实施例进行注意力计算的流程图:待处理数据的向量序列经过查询计算矩阵、键计算矩阵与值计算矩阵之后,分别得到初始查询矩阵、初始键矩阵与初始值矩阵;初始查询矩阵经过三个查询计算分支矩阵之后,得到目标查询矩阵;初始键矩阵经过三个键计算分支矩阵之后,得到目标键矩阵;初始值矩阵经过三个值计算分支矩阵之后,得到目标值矩阵;根据目标查询矩阵、目标键矩阵与目标值矩阵进行注意力计算。
图4是根据本公开第四实施例的示意图。图4中示出了应用上述实施例提供的注意力计算方法进行图像分类的流程图:将输入图像作为待处理数据,并得到输入图像的向量序列;将向量序列输入包含计算矩阵及其对应的计算分支矩阵的注意力计算模块,得到向量序列的注意力计算结果;将注意力计算结果输入分类模块进行图像分类,得到输入图像的分类结果;可以理解的是,本实施例中的注意力计算模块与分类模块可以为图像分类模型中的模块。
图5是根据本公开第四实施例的示意图。如图5所示,本实施例的数据处理装置500,包括:
获取单元501、用于获取待处理数据的向量序列;
第一处理单元502、用于基于查询计算矩阵与查询计算分支矩阵,得到所述向量序列的目标查询矩阵;
第二处理单元503、用于基于键计算矩阵与键计算分支矩阵,得到所述向量序列的目标键矩阵;
第三处理单元504,用于基于值计算矩阵与值计算分支矩阵,得到所述向量序列的目标值矩阵;
生成单元505、用于基于所述目标查询矩阵、所述目标键矩阵与所述目标值矩阵进行注意力计算,得到所述待处理数据的注意力计算结果。
获取单元501在获取待处理数据时,可以将输入端输入的文本或者图像等数据作为待处理数据,也可以将输入端在相应页面上选择的文本或者图像作为待处理数据;本实施例对获取的待处理数据的数据类型不进行限定。
获取单元501在得到待处理数据的向量序列时,可以采用的可选实现方式为:确定待处理数据的数据类型;使用与所确定的数据类型对应的提取方式,得到待处理数据的向量序列。
也就是说,获取单元501会预先设置与不同的数据类型对应的提取方式,来从待处理数据中提取向量序列,从而提升了所提取的向量序列的准确性。
本实施例在由获取单元501得到待处理数据的向量序列之后,分别由第一处理单元502基于查询计算矩阵与查询计算分支矩阵,得到向量序列的目标查询矩阵、由第二处理单元503基于查询计算矩阵与查询计算分支矩阵,得到向量序列的目标查询矩阵、以及由第三处理单元504基于值计算矩阵与值计算分支矩阵,得到向量序列的目标值矩阵。
其中,第一处理单元502、第二处理单元503与第三处理单元504所使用的与计算矩阵对应的计算分支矩阵的数量,可以为一个,也可以为多个;不同的计算矩阵,可以具有相同数量的计算分支矩阵,也可以具有不同数量的计算分支矩阵。
第一处理单元502在基于查询计算矩阵与查询计算分支矩阵,得到向量序列的目标查询矩阵时,可以采用的可选实现方式为:基于查询计算矩阵与向量序列,得到初始查询矩阵;基于查询计算分支矩阵与初始查询矩阵,得到目标查询矩阵。
第一处理单元502在基于查询计算矩阵与查询计算分支矩阵,得到向量序列的目标查询矩阵时,还可以采用以下方式:基于查询计算矩阵与查询计算分支矩阵,得到融合查询计算矩阵;基于融合查询计算矩阵与向量序列,得到目标查询矩阵。
第二处理单元503在基于键计算矩阵与键计算分支矩阵,得到向量序列的目标键矩阵时,可以采用的可选实现方式为:基于键计算矩阵与向量序列,得到初始键矩阵;基于键计算分支矩阵与初始键矩阵,得到目标键矩阵。
第二处理单元503在基于键计算矩阵与键计算分支矩阵,得到向量序列的目标键矩阵时,还可以采用以下方式:基于键计算矩阵与键计算分支矩阵,得到融合键计算矩阵;基于融合键计算矩阵与向量序列,得到目标键矩阵。
第三处理单元504在基于值计算矩阵与值计算分支矩阵,得到向量序列的目标值矩阵时,可以采用的可选实现方式为:基于值计算矩阵与向量序列,得到初始值矩阵;基于值计算分支矩阵与初始值矩阵,得到目标值矩阵。
第三处理单元504在基于值计算矩阵与值计算分支矩阵,得到向量序列的目标值矩阵时,还可以采用以下方式:基于值计算矩阵与值计算分支矩阵,得到融合值计算矩阵;基于融合值计算矩阵与向量序列,得到目标值矩阵。
也就是说,第一处理单元502、第二处理单元503与第三处理单元504采用计算矩阵与计算分支矩阵对向量序列进行双重映射的方式,得到最终用于注意力计算的目标查询矩阵、目标键矩阵与目标值矩阵,通过引入更为丰富的矩阵计算参数,能够提升所得到的用于注意力计算的矩阵的准确性。
其中,若与同一个计算矩阵对应的计算分支矩阵存在多个时,第一处理单元502、第二处理单元503与第三处理单元504可以在获取每个计算分支矩阵处理同一个初始矩阵的映射结果之后,将多个映射结果进行相加,从而将相加结果作为目标矩阵。
第一处理单元502、第二处理单元503与第三处理单元504可以通过将计算矩阵及其对应的计算分支矩阵进行矩阵相乘,将矩阵相乘结果作为融合计算矩阵;在计算分支矩阵存在多个的情况下,可以先将多个计算分支矩阵进行矩阵相加,然后将矩阵相加结果与计算矩阵进行矩阵相乘,将矩阵相乘结果作为融合计算矩阵。
也就是说,第一处理单元502、第二处理单元503与第三处理单元504还可以将计算矩阵及其对应的计算分支矩阵进行融合,进而根据所得到的融合计算矩阵,分别得到与向量序列对应的目标查询矩阵、目标键矩阵与目标值矩阵,能够简化目标矩阵的计算步骤,提升在得到用于注意力计算的矩阵时的效率。
可以理解的是,第一处理单元4502、第二处理单元503与第三处理单元504所使用的计算矩阵与计算分支矩阵,可以为经过训练所得到的优化参数,也可以为用户预先设置的参数,表明本实施例所使用的计算矩阵及其对应的计算分支矩阵均为准确的参数。
本实施例在由第一处理单元502、第二处理单元503与第三处理单元504分别得到目标查询矩阵、目标键矩阵与目标值矩阵之后,由生成单元505基于目标查询矩阵、目标键矩阵与目标值矩阵进行注意力计算,得到待处理数据的注意力计算结果。
生成单元505得到的注意力计算结果,可以用于进行图像分类、文本翻译等;也就是说,本实施例提供的注意力计算方法可以适用于存在注意力计算过程的神经网络模型,该神经网络模型可以为进行不同的推理任务(图像分类任务、文本翻译任务等)的神经网络模型。
生成单元505在基于目标查询矩阵、目标键矩阵与目标值矩阵进行注意力计算时,可以使用以下计算公式:
在上述计算公式中:Attention(Q',K',V')表示待处理数据的注意力计算结果;Q'表示目标查询矩阵;V'表示目标值矩阵;K'表示目标键矩阵;dh表示计算分支矩阵的维度。
本实施例的数据处理装置500,还可以包含训练单元506,用于执行以下内容:构建包含注意力层的神经网络模型,注意力层基于初始计算矩阵与初始计算分支矩阵进行注意力计算,初始计算矩阵包含初始查询计算矩阵、初始键计算矩阵与初始值计算矩阵中的至少一种,初始计算分支矩阵包含初始查询计算分支矩阵、初始键计算分支矩阵与初始值计算分支矩阵中的至少一种;获取样本集;基于样本集训练神经网络模型,对初始计算矩阵与初始计算分支矩阵进行更新,直至神经网络模型收敛;获取神经网络模型收敛时的初始计算矩阵作为计算矩阵初始计算分支矩阵作为计算分支矩阵,计算矩阵为查询计算矩阵、键计算矩阵与值计算矩阵中的至少一种,计算分支矩阵为查询计算分支矩阵、键计算分支矩阵与值计算分支矩阵中的至少一种。
也就是说,训练单元506设置包含计算分支矩阵的注意力层,并相应地构建包含该注意力层的神经网络模型,进而通过所获取的样本集对该神经网络模型进行训练,以对注意力层所使用的初始计算矩阵与初始计算分支矩阵进行更新,从而将神经网络模型收敛时的初始计算矩阵与初始计算分支矩阵,作为相应的计算矩阵与计算分支矩阵,能够提升本实施例在进行注意力计算时所使用的计算矩阵与计算分支矩阵的准确性。
训练单元506构建的包含注意力层的神经网络模型,可以为用于图像分类的Transformer(转换)模型,也可以为用于文本翻译的Transformer模型;所构建的神经网络模型中可以包含多个注意力层,不同的注意力层可以位于不同的编码器块(EncoderBlock)和/或解码器块(Decoder Block)。
训练单元506构建的神经网络模型中的注意力层,初始计算矩阵包含初始查询计算矩阵、初始键计算矩阵与初始值计算矩阵中的至少一种,初始计算分支矩阵包含初始查询计算分支矩阵、初始键计算分支矩阵与初始值计算分支矩阵中的至少一种;注意力层在基于计算矩阵与计算分支矩阵进行注意力计算的过程与上述实施例基于计算矩阵与计算分支矩阵进行注意力计算的过程相同,在此不进行赘述。
训练单元506在构建包含注意力层的神经网络模型时,还可以包含以下内容:使用不同的初始化方式,对注意力层包含的的初始计算矩阵和/或初始计算分支矩阵进行初始化;其中,训练单元506可以针对不同的矩阵使用不同的初始化方式,也可以针对初始计算矩阵使用一种初始化方式,针对初始计算分支矩阵使用一种初始化方式。
也就是说,训练单元506通过不同的初始化方式对不同的初始计算矩阵和/或初始计算分支矩阵进行初始化,能够增加矩阵参数的复杂化,进而提升训练得到的计算矩阵及与计算分支矩阵的准确性。
训练单元506在获取样本集时,可以从服务器中获取预先存储的样本集;训练单元506可以根据所构建的神经网络模型所要完成的推理任务,获取与推理任务对应的样本集。
训练单元506在基于样本集训练神经网络模型,对初始计算矩阵以及初始计算分支矩阵进行更新时,可以采用的可选实现方式为:针对每次更新,从初始计算矩阵中选取目标初始计算矩阵和/或从初始计算分支矩阵中选取目标初始计算分支矩阵,本实施例可以按照预设规则或者预设顺序来确定每次更新的目标初始矩阵;在本次更新时,对所选取的目标初始计算矩阵和/或目标初始计算分支矩阵进行更新。
也就是说,训练单元506还可以在每次不同的参数更新过程中,对不同的初始计算矩阵和/或初始计算分支矩阵进行更新,从而实现对初始计算矩阵与初始计算分支矩阵进行交替优化的目的,提升所得到的计算矩阵与计算分支矩阵的准确性。
训练单元506在完成对神经网络模型的训练之后,即认为对神经网络模型的注意力层中包含的初始计算矩阵与初始计算分支矩阵完成更新,将更新完成的初始计算矩阵与初始计算分支矩阵,作为相应的计算矩阵与计算分支矩阵。
可以理解的是,训练单元506训练得到的神经网络模型,也可以直接用作执行相应推理任务的模型,例如将该神经网络模型直接用于图像分类任务、将该神经网络模型直接用于文本翻译任务等。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图6所示,是根据本公开实施例的数据处理方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的展示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如数据处理方法。例如,在一些实施例中,数据处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。
在一些实施例中,计算机程序的部分或者全部可以经由ROM602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的数据处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行数据处理方法。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户展示信息的展示装置(例如,CRT(阴极射线管)或者LCD(液晶展示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(“Virtual Private Server”,或简称“VPS”)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (10)
1.一种数据处理方法,应用于图像分类模型中的注意力模块,包括:
获取待处理数据的向量序列,所述待处理数据为图像;所述获取待处理数据的向量序列包括:将所述待处理数据划分为固定大小的图像块;将各个图像块的嵌入向量与位置向量进行拼接,将拼接结果作为所述向量序列;
将多个查询计算分支矩阵的矩阵相加结果与查询计算矩阵相乘,根据矩阵相乘结果与所述向量序列,得到目标查询矩阵;
将多个键计算分支矩阵的矩阵相加结果与键计算矩阵相乘,根据矩阵相乘结果与所述向量序列,得到目标键矩阵;
将多个值计算分支矩阵的矩阵相加结果与值计算矩阵相乘,根据矩阵相乘结果与所述向量序列,得到目标值矩阵;
基于所述目标查询矩阵、所述目标键矩阵与所述目标值矩阵进行注意力计算,得到所述待处理数据的注意力计算结果,将所述注意力计算结果输入所述图像分类模型中的分类模块,得到所述待处理数据的分类结果。
2.根据权利要求1所述的方法,所述方法还包括,
构建包含注意力层的神经网络模型,所述注意力层基于初始计算矩阵与初始计算分支矩阵进行注意力计算,所述初始计算矩阵包含初始查询计算矩阵、初始键计算矩阵与初始值计算矩阵中的至少一种,所述初始计算分支矩阵包含初始查询计算分支矩阵、初始键计算分支矩阵与初始值计算分支矩阵中的至少一种;
获取样本集;
基于所述样本集训练所述神经网络模型,对所述初始计算矩阵与所述初始计算分支矩阵进行更新,直至所述神经网络模型收敛;
获取所述神经网络模型收敛时的所述初始计算矩阵作为计算矩阵、所述初始计算分支矩阵作为计算分支矩阵,所述计算矩阵为所述查询计算矩阵、所述键计算矩阵与所述值计算矩阵中的至少一种,所述计算分支矩阵为所述查询计算分支矩阵、所述键计算分支矩阵与所述值计算分支矩阵中的至少一种。
3.根据权利要求2所述的方法,其中,所述构建包含注意力层的神经网络模型包括:
使用不同的初始化方式,对所述注意力层包含的所述初始计算矩阵与所述初始计算分支矩阵进行初始化。
4.根据权利要求2所述的方法,其中,所述基于所述样本集对所述神经网络模型进行训练,对所述初始计算矩阵与所述初始计算分支矩阵进行更新包括:
针对每次更新,从所述初始计算矩阵中选取目标初始计算矩阵和/或从所述初始计算分支矩阵中选取目标初始计算分支矩阵;
在本次更新时,对所述目标初始计算矩阵和/或所述目标初始计算分支矩阵进行更新。
5.一种数据处理装置,应用于图像分类模型中的注意力模块,包括:
获取单元,用于获取待处理数据的向量序列,所述待处理数据为图像;所述获取待处理数据的向量序列包括:将所述待处理数据划分为固定大小的图像块;将各个图像块的嵌入向量与位置向量进行拼接,将拼接结果作为所述向量序列;
第一处理单元,用于将多个查询计算分支矩阵的矩阵相加结果与查询计算矩阵相乘,根据矩阵相乘结果与所述向量序列,得到目标查询矩阵;
第二处理单元,用于将多个键计算分支矩阵的矩阵相加结果与键计算矩阵相乘,根据矩阵相乘结果与所述向量序列,得到目标键矩阵;
第三处理单元,用于将多个值计算分支矩阵的矩阵相加结果与值计算矩阵相乘,根据矩阵相乘结果与所述向量序列,得到目标值矩阵;
生成单元,用于基于所述目标查询矩阵、所述目标键矩阵与所述目标值矩阵进行注意力计算,得到所述待处理数据的注意力计算结果,将所述注意力计算结果输入所述图像分类模型中的分类模块,得到所述待处理数据的分类结果。
6.根据权利要求5所述的装置,所述装置还包括训练单元,用于执行:
构建包含注意力层的神经网络模型,所述注意力层基于初始计算矩阵与初始计算分支矩阵进行注意力计算,所述初始计算矩阵包含初始查询计算矩阵、初始键计算矩阵与初始值计算矩阵中的至少一种,所述初始计算分支矩阵包含初始查询计算分支矩阵、初始键计算分支矩阵与初始值计算分支矩阵中的至少一种;
获取样本集;
基于所述样本集训练所述神经网络模型,对所述初始计算矩阵与所述初始计算分支矩阵进行更新,直至所述神经网络模型收敛;
获取所述神经网络模型收敛时的所述初始计算矩阵作为计算矩阵、所述初始计算分支矩阵作为计算分支矩阵,所述计算矩阵为所述查询计算矩阵、所述键计算矩阵与所述值计算矩阵中的至少一种,所述计算分支矩阵为所述查询计算分支矩阵、所述键计算分支矩阵与所述值计算分支矩阵中的至少一种。
7.根据权利要求6所述的装置,其中,所述训练单元在构建包含注意力层的神经网络模型时,具体执行:
使用不同的初始化方式,对所述注意力层包含的所述初始计算矩阵与所述初始计算分支矩阵进行初始化。
8.根据权利要求6所述的装置,其中,所述训练单元在基于所述样本集对所述神经网络模型进行训练,对所述初始计算矩阵与所述初始计算分支矩阵进行更新时,具体执行:
针对每次更新,从所述初始计算矩阵中选取目标初始计算矩阵和/或从所述初始计算分支矩阵中选取目标初始计算分支矩阵;
在本次更新时,对所述目标初始计算矩阵和/或所述目标初始计算分支矩阵进行更新。
9. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210759100.7A CN115169530B (zh) | 2022-06-29 | 2022-06-29 | 数据处理方法、装置、电子设备和可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210759100.7A CN115169530B (zh) | 2022-06-29 | 2022-06-29 | 数据处理方法、装置、电子设备和可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115169530A CN115169530A (zh) | 2022-10-11 |
CN115169530B true CN115169530B (zh) | 2023-09-26 |
Family
ID=83489342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210759100.7A Active CN115169530B (zh) | 2022-06-29 | 2022-06-29 | 数据处理方法、装置、电子设备和可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115169530B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111666406A (zh) * | 2020-04-13 | 2020-09-15 | 天津科技大学 | 基于自注意力的单词和标签联合的短文本分类预测方法 |
WO2021174922A1 (zh) * | 2020-03-02 | 2021-09-10 | 平安科技(深圳)有限公司 | 语句情感分类方法及相关设备 |
CN113705588A (zh) * | 2021-10-28 | 2021-11-26 | 南昌工程学院 | 基于卷积自注意力模块的孪生网络目标跟踪方法与系统 |
CN113836266A (zh) * | 2021-09-23 | 2021-12-24 | 中国平安人寿保险股份有限公司 | 基于bert的自然语言处理方法及相关设备 |
CN114463551A (zh) * | 2022-02-14 | 2022-05-10 | 北京百度网讯科技有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN114528928A (zh) * | 2022-02-11 | 2022-05-24 | 杭州慧看智能科技有限公司 | 一种基于Transformer的二训练图像分类算法 |
CN114626500A (zh) * | 2020-12-09 | 2022-06-14 | 华为技术有限公司 | 一种神经网络计算方法及相关设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020237188A1 (en) * | 2019-05-23 | 2020-11-26 | Google Llc | Fully attentional computer vision |
-
2022
- 2022-06-29 CN CN202210759100.7A patent/CN115169530B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021174922A1 (zh) * | 2020-03-02 | 2021-09-10 | 平安科技(深圳)有限公司 | 语句情感分类方法及相关设备 |
CN111666406A (zh) * | 2020-04-13 | 2020-09-15 | 天津科技大学 | 基于自注意力的单词和标签联合的短文本分类预测方法 |
CN114626500A (zh) * | 2020-12-09 | 2022-06-14 | 华为技术有限公司 | 一种神经网络计算方法及相关设备 |
CN113836266A (zh) * | 2021-09-23 | 2021-12-24 | 中国平安人寿保险股份有限公司 | 基于bert的自然语言处理方法及相关设备 |
CN113705588A (zh) * | 2021-10-28 | 2021-11-26 | 南昌工程学院 | 基于卷积自注意力模块的孪生网络目标跟踪方法与系统 |
CN114528928A (zh) * | 2022-02-11 | 2022-05-24 | 杭州慧看智能科技有限公司 | 一种基于Transformer的二训练图像分类算法 |
CN114463551A (zh) * | 2022-02-14 | 2022-05-10 | 北京百度网讯科技有限公司 | 图像处理方法、装置、存储介质及电子设备 |
Non-Patent Citations (1)
Title |
---|
"李宏毅学习笔记15.Transformer";oldmao_2000;《CSDN》;20200413;第1-27页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115169530A (zh) | 2022-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113393371B (zh) | 一种图像处理方法、装置及电子设备 | |
CN113011420B (zh) | 字符识别方法、模型训练方法、相关装置及电子设备 | |
JP7376006B2 (ja) | 駆動可能3dキャラクター生成方法、装置、電子機器、及び記憶媒体 | |
CN113407610B (zh) | 信息抽取方法、装置、电子设备和可读存储介质 | |
CN114564593A (zh) | 多模态知识图谱的补全方法、装置和电子设备 | |
CN112785493B (zh) | 模型的训练方法、风格迁移方法、装置、设备及存储介质 | |
CN115565177B (zh) | 文字识别模型训练、文字识别方法、装置、设备及介质 | |
CN115482395A (zh) | 模型训练方法、图像分类方法、装置、电子设备和介质 | |
CN113641829B (zh) | 图神经网络的训练与知识图谱的补全方法、装置 | |
CN114218931B (zh) | 信息抽取方法、装置、电子设备和可读存储介质 | |
CN113627536A (zh) | 模型训练、视频分类方法,装置,设备以及存储介质 | |
CN112580666A (zh) | 图像特征的提取方法、训练方法、装置、电子设备及介质 | |
CN114020950B (zh) | 图像检索模型的训练方法、装置、设备以及存储介质 | |
CN114792355A (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN115147680A (zh) | 目标检测模型的预训练方法、装置以及设备 | |
CN115169530B (zh) | 数据处理方法、装置、电子设备和可读存储介质 | |
CN114792097B (zh) | 预训练模型提示向量的确定方法、装置及电子设备 | |
CN113642654B (zh) | 图像特征的融合方法、装置、电子设备和存储介质 | |
CN114707638A (zh) | 模型训练、对象识别方法及装置、设备、介质和产品 | |
CN114463361A (zh) | 网络模型训练方法、装置、设备、介质及程序产品 | |
CN113344213A (zh) | 知识蒸馏方法、装置、电子设备及计算机可读存储介质 | |
CN114495236B (zh) | 图像分割方法、装置、设备、介质及程序产品 | |
CN116611477B (zh) | 数据剪枝方法和序列模型的训练方法、装置、设备和介质 | |
CN116257611B (zh) | 问答模型的训练方法、问答处理方法、装置及存储介质 | |
CN115510203B (zh) | 问题答案确定方法、装置、设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |