CN112308145A - 一种分类网络训练方法、分类方法、装置以及电子设备 - Google Patents
一种分类网络训练方法、分类方法、装置以及电子设备 Download PDFInfo
- Publication number
- CN112308145A CN112308145A CN202011197979.8A CN202011197979A CN112308145A CN 112308145 A CN112308145 A CN 112308145A CN 202011197979 A CN202011197979 A CN 202011197979A CN 112308145 A CN112308145 A CN 112308145A
- Authority
- CN
- China
- Prior art keywords
- layer
- convolution
- feature extraction
- output
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 109
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000000605 extraction Methods 0.000 claims abstract description 137
- 230000015654 memory Effects 0.000 claims description 19
- 238000010606 normalization Methods 0.000 claims description 17
- 230000004913 activation Effects 0.000 claims description 15
- 239000000126 substance Substances 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000011176 pooling Methods 0.000 description 33
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种分类网络训练方法、分类方法、装置以及电子设备等,涉及深度学习、计算机视觉等人工智能技术领域。实现方案为:获取第一训练集;基于第一训练集对初始分类网络进行训练,得到目标分类网络;其中,初始分类网络包括第一残差网络,第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。即待训练的初始分类网络不但包括第一残差网络,第一残差网络中包括第一卷积层和第二卷积层外,在第一卷积层和第二卷积层之间还添加了N个中间特征提取层,通过中间特征提取层可对第一卷积层的卷积输出结果可进行进一步的特征提取,然后将得到的结果输入至第二卷积层再进行处理。如此,可提高目标分类网络的表达能力。
Description
技术领域
本申请涉及计算机技术中的深度学习、计算机视觉等人工智能技术领域,尤其涉及一种分类网络训练方法、分类方法、装置以及电子设备。
背景技术
随着深度学习的发展,借助计算机视觉在各个场景落地,例如行人检测、无人驾驶、智慧零售等,都依赖深度学习模型来完成特定任务。
目前产业结合深度学习已是大势所趋,一方面能够提升效果,另一方面能够降低人工成本。目前基于深度学习的计算机视觉相关任务的基础是分类网络,一个好的分类网络结构,可以直接迁移到其他相关任务中,从而实现一系列任务的升级。一般来说,一个分类网络结构,可以迁移至众多下游任务中,如物体检测、物体分割、关键点检测等任务中。
目前,分类网络可基于残差网络,现有残差网络结构是一条由多个卷积层形成的直连结构,输入的特征会有一路直连,分类网络的全连接层通过残差网络的输出得到分类结果实现分类。
发明内容
本申请提供一种分类网络训练方法、分类方法、装置以及电子设备。
第一方面,本申请一个实施例提供一种分类网络训练方法,所述方法包括:
获取第一训练集;
基于所述第一训练集对初始分类网络进行训练,得到目标分类网络;其中,所述初始分类网络包括第一残差网络,所述第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
在本实施例的分类网络训练方法中,待训练的初始分类网络不但包括第一残差网络,第一残差网络中包括第一卷积层和第二卷积层外,在第一卷积层和第二卷积层之间还添加了N个中间特征提取层,通过中间特征提取层可对第一卷积层的卷积输出结果可进行进一步的特征提取,然后将得到的结果输入至第二卷积层再进行处理。如此,通过对包括上述第一残差网络的初始分类网络进行训练得到目标分类网络,可提高目标分类网络的性能。与此同时,可提高目标分类网络的表达能力。
第二方面,本申请一个实施例提供一种分类网络训练装置,所述装置包括:
第一获取模块,用于获取第一训练集;
训练模块,用于基于所述第一训练集对初始分类网络进行训练,得到目标分类网络;
其中,所述初始分类网络包括第一残差网络,所述第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
第三方面,本申请一个实施例提供一种分类方法,所述方法包括:
获取待分类对象;
将所述待分类对象输入目标分类网络,通过所述目标分类网络输出所述待分类对象的分类结果;
其中,所述目标分类网络基于初始分类网络训练得到,所述初始分类网络包括第一残差网络,所述第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
基于目标分类网络进行分类,得到待分类对象的分类结果,其中,目标分类网络基于初始分类网络训练得到,初始分类网络不但包括第一残差网络,第一残差网络中包括第一卷积层和第二卷积层外,在第一卷积层和第二卷积层之间还添加了N个中间特征提取层,通过中间特征提取层可对第一卷积层的卷积输出结果可进行进一步的特征提取,然后将得到的结果输入至第二卷积层再进行处理。如此,通过对包括上述第一残差网络的初始分类网络进行训练得到目标分类网络,可提高目标分类网络的性能,通过目标分类网络进行分类,可提高分类准确性。
第四方面,本申请一个实施例提供一种分类装置,所述装置包括:
第一获取模块,用于获取第一训练集;
训练模块,用于基于所述第一训练集对初始分类网络进行训练,得到目标分类网络;
其中,所述初始分类网络包括第一残差网络,所述第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
第五方面,本申请一个实施例还提供一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请各实施例提供的分类网络训练方法或分类方法。
第六方面,本申请一个实施例还提供一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请各实施例提供的分类网络训练方法或分类方法。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请提供的一个实施例的分类网络训练方法的流程示意图之一;
图2是本申请提供的一个实施例的第一残差网络的结构图;
图3是本申请提供的一个实施例的分类网络训练方法的流程示意图之二;
图4是本申请提供的一个实施例的分类方法的流程示意图;
图5是本申请提供的一个实施例的分类网络训练装置的结构图;
图6是本申请提供的一个实施例的分类装置的结构图;
图7是用来实现本申请实施例的分类网络训练方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
如图1所示,根据本申请的实施例,本申请提供一种分类网络训练方法,可用于电子设备,该方法包括:
步骤S101:获取第一训练集。
第一训练集可以包括多个训练对象,例如,训练对象可以是训练图像等,或者,第一训练集包括多个训练对象的第一特征,例如,训练对象为训练图像,训练对象的第一特征可以是训练对象经过卷积运算得到的特征等。
步骤S102:基于第一训练集对初始分类网络进行训练,得到目标分类网络;
其中,其中,初始分类网络包括第一残差网络,第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
可以理解,N个中间特征提取层连接在第一卷积层和第二卷积层之间,第一残差网络的输出为第二卷积层的输出与第一卷积层的输入之和。
在本实施例的分类网络训练方法中,待训练的初始分类网络不但包括第一残差网络,第一残差网络中包括第一卷积层和第二卷积层外,在第一卷积层和第二卷积层之间还添加了N个中间特征提取层,通过中间特征提取层可对第一卷积层的卷积输出结果可进行进一步的特征提取,然后将得到的结果输入至第二卷积层再进行处理。如此,通过对包括上述第一残差网络的初始分类网络进行训练得到目标分类网络,可提高目标分类网络的性能。与此同时,可提高目标分类网络的表达能力。
作为一个示例,相邻两个中间特征提取层之间还存在关联,例如,N个中间特征提取层除第1个中间特征提取层之外的其余中间特征提取层的每个中间提取层的输入包括与其相相邻的前一个中间特征提取层的一部分输出结果,第1个中间特征提取层的输入包括第一卷积层输出的一部分卷积结果,其余中间特征提取层的每个中间提取层的输入还包括第一卷积层输出的另一部分卷积结果中的部分。
在一个实施例中,第一卷积层的输出包括M个第一子卷积结果,第i个中间特征提取层的输入包括第i+1个第一子卷积结果和第i-1个中间特征提取层的一部分输出结果,i为整数,且2≤i≤N,第1个中间特征提取层的输入包括第2个第一子卷积结果,第二卷积层的输入包括第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果,第一残差网络的输出为第二卷积层的输出与第一卷积层的输入之和。
每个中间特征提取层的输出结果包括一部分输出结果和另一部分输出据诶过,前N-1个中间特征提取层中每个中间特征提取层的一部分输出结果均要输入到与其相邻的下一个中间特征提取层,且前N-1个中间特征提取层中每个中间特征提取层的另一部分输出结果输入到第二卷积层,第i-1个中间特征提取层的另一部分输出结果输入到第二卷阶层,2≤i≤N,即上述N-1个中间特征提取层的另一部分输出结果包括第1个到第N-1个中间特征提取层的另一部分输出结果,第N个中间特征提取层的输出结果全部输入到第二卷积层。上述M为整数,一个示例中,M的值可以为N+1。
作为一个示例,第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果融合后输入到第二卷积层,即可以理解,第二卷积层的输入包括第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果融合后的结果。上述融合可以理解为拼接,例如,N为3,第1个第一子卷积结果为10×10×5(可以理解为5个大小为10×10矩阵,5可以理解为通道数)维度形式的结果,第1个中间特征提取层的另一部分输出结果为10×10×5维度形式的结果,第2个中间特征提取层的另一部分输出结果为维度形式的结果的矩阵,第10个中间特征提取层的另一部分输出结果为10×10×10维度形式的结果,则融合后的结果为10×10×35维度形式的结果。
基于第一训练集对初始分类网络进行训练,得到目标分类网络,如此,目标分类网络可包括已训练的第一残差网络(初始分类网络中第一残差网络训练后的结果)。即训练得到的目标分类网络的结构与初始分类网络结构相同,不同之处在于训练后网络中参数的值不同,目标分类网络的参数的值是在训练过程中对初始分类网络中参数的初始值进行不断调整后的结果。
在本实施例的分类网络训练方法中,对包括第一残差网络的初始分类网络进行训练得到目标分类网络,由于本实施例中的第一残差网络是包括第一卷积层、N个中间特征提取层和第二卷积层,第一卷积层的输出包括M个第一子卷积结果,第i个中间特征提取层的输入包括第i+1个第一子卷积结果和第i-1个中间特征提取层的一部分输出结果,i为整数,且2≤i≤N,第1个中间特征提取层的输入包括第2个第一子卷积结果,第二卷积层的输入包括第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果,即前N-1个中间特征提取层的每个中间特征提取层的输出结果均分成两部分,一部分输出结果作为第二卷积层的输入,另一部分输出结果和第一子卷积结果输入到相邻的下一个中间特征提取层中继续进行处理,第二卷积层基于第二卷积层的输入得到第二卷积层的输出,如此,第一残差网络不再是卷积层的直连结构,而是在第一残差网络中添加了N个中间特征提取层,以及通过第一残差网络中N个中间特征提取层的结构,可将第一卷积层的输出结果通过不同的处理得到作为第二卷积层的输入,第二卷积层基于第二卷积层的输入得到第二卷积层的输出。如此,通过对包括上述结构的第一残差网络的初始分类网络进行训练,提高得到的目标分类网络的性能以及表达能力。
在一个实施例中,每个中间特征提取层包括依次连接的第三卷积层、归一化层和激活层。
需要说明的是,归一化层连接在第三卷积层和激活层之间,第三卷积层的输入包括第一卷积层输出的卷积结果的部分,归一化的输入包括第三卷积层的输出,激活层的输入包括归一化层的输出,激活层的输出为中间特征提取层的输出。通过上述包括依次连接的第三卷积层、归一化层和激活层的中间特征提取层可对第一卷积层输出的卷积结果的部分进行处理,然后进行归一化处理,激活层对归一化的结果再进行处理后输出,如此,可提高整个第一残差网络的表达能力和性能。
作为一个示例,初始分类网络还包括池化层和全连接层,即初始分类网络可包括依次连接的第一残差网络、池化层和全连接层,可以理解,第一残差网络连接池化层,池化层连接全连接层,池化层的输入包括第一残差网络的输出,全连接层的输入包括池化层的输出。在本实施例中,第一残差网络的输出为第二卷积层的输出与第一卷积层的输入之和,可以理解,第一残差网络还包括一个求和层,其输入包括第二卷积层的输出和第一卷积层的输入,求和层的输出即为第二卷积层的输出和第一卷积层的输入之和,第一残差网络的输出为求和层的输出。
基于第一训练集对初始分类网络进行训练,得到目标分类网络,如此,目标分类网络可包括依次连接的已训练的第一残差网络(初始分类网络中第一残差网络训练后的结果)、已训练的池化层(初始分类网络中池化层训练后的结果)和已训练的全连接层(初始分类网络中全连接层训练后的结果),已训练的池化层的输入包括已训练的第一残差网络的输出,已训练的全连接层的输入包括已训练的池化层的输出。即训练得到的目标分类网络的结构与初始分类网络结构相同,不同之处在于训练后网络中参数的值不同,目标分类网络的参数的值是在训练过程中对初始分类网络中参数的初始值进行不断调整后的结果。
在本示例中,第二卷积层基于第二卷积层的输入得到第二卷积层的输出,并传递到池化层,池化层的输出输入到全连接层,通过全连接层实现分类。
在一个实施例中,第一残差网络还包括加权层,加权层的输入包括第二卷积层的输出。
即在本实施例中,第一残差网络中添加了加权层,通过加权层对第二卷积层的输出进行加权,如此,可使第一残差网络的表达能力提升以及提高第一残差网络的性能。作为一个示例,第二卷积层的输出包括多个通道的输出,加权层可对每个通道的输出分别进行加权处理,得到加权结果。作为一个示例,所述求和层的输入包括所述加权层的输出和第一卷积层的输入之和,池化层的输入包括加权层的输出和第一卷积层的输入之和。
在一个实施例中,第一卷积层和第二卷积层的卷积核大小相同。
如此可提高第一卷积层和第二卷积层的一致性,以确保第一残差网络的性能。例如,第一卷积层和第二卷积层的卷积核大小可均为1×1等,在本申请实施中,第一卷积层和第二卷积层的卷积核大小可不作限定。
在一个实施例中,N个第三卷积层的卷积核大小相同。
如此可提高每个中间特征提取层的第三卷积层的一致性,以确保第一残差网络的性能。例如,第三卷积层的卷积核大小可均为3×3等,在本申请实施中,第三卷积层的卷积核大小可不作限定。
下面以有具体实施对上述分类网络训练方法过程加以具体说明。
首先,目前分类网络结构基本运算如下:
由于分类网络结构由各种基本运算,层层堆叠而成。因此只需要得到每层运算具体的预测耗时,通过简单的线性累加就可以准确估计出整个网络结构的预测耗时。
以下具体介绍分类网络结构的常见的几种基本运算,包括但是不限于这些基本运算:
(1)卷积运算:对应卷积层,卷积最先出现在信号与线性系统中,信号与线性系统中讨论的是信号经过一个线性系统以后发生的变化。由于现实情况中常常是一个信号的前一时刻的输出影响着这一时刻的输出,利用系统的单位响应与系统的输入求卷积,以求得系统的输出信号。
卷积是两个变量在某范围内相乘后求和的结果。卷积运算的定义如下公式所示:
本申请中提到的卷积为针对图像的卷积运算,输入数据和输出数据的维度形式为N×C×H×W,该形宽式表示数据为张量,共4个纬度,其中N表示数据的个数,C:表示数据的通道数,H表示数据的高,W表示数据的宽。其中卷积运算的预测耗时由多个参数控制,具体由以下参数控制:
输入通道数(Input_Channel):指卷积运算的输入数据的通道数,对应C维度;
输出通道数(Output_Channel):指经过卷积运算后输出数据的通道数,对应C维度;
输入特征图尺寸(Input_size):指卷积运算的输入数据的尺寸大小,对应H和W维度;
卷积核尺寸(Kernel_size):指进行卷积运算的卷积核的尺寸大小;
步长(Stride):指进行卷积运算的步长;
填充(Padding):指进行卷积运算的填充数;
分组数(Group):指进行卷积运算的分组数。
因此可以通过枚举常见参数数值来生成所有能用到的卷积运算。
(2)池化运算:对应池化层,是当前卷积神经网络中常用组件之一,也称之为下采样(Subsample)。池化层是模仿人的视觉系统对数据进行降维,用更高层次的特征表示图像。池化运算包括:最大值池化、均值池化、随机池化和中值池化等。其中池化运算的预测耗时由以下参数控制:
池化尺寸(Pooling size):指池化运算中池化的大小;
步长(Stride):指进行池化运算的步长;
填充(Padding):指进行池化运算的填充数;
因此可以通过枚举常见参数数值来生成所有能用到的池化运算。
(3)线性运算:也指全连接运算,对应全连接层,在整个卷积神经网络中起到“分类器”的作用。若卷积层、池化层和激活函数层等运算是将原始数据映射到隐层特征空间,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。其中线性运算的预测耗时由以下参数控制:
输入维度:指线性运算输入数据的维度;
输出维度:指线性运算输出数据的维度;
因此可以通过枚举常见参数数值来生成所有能用到的线性运算。
(4)激活函数:对应激活层,激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。常见的激活函数有:Relu、PRelu、Sigmoid、Tanh、Swish等。
(5)归一化运算:对应归一化层,可通过BatchNorm/LayerNorm/InstanceNorm等运算实现归一化,对于每个隐层神经元,把逐渐向非线性函数映射后向取值区间极限饱和区靠拢的输入分布,强制拉回到均值为0方差为1的比较标准的正态分布,使得非线性变换函数的输入值落入对输入比较敏感的区域,以此避免梯度消失问题。
然后,本申请实施例提供一种基于改进的第一残差网络的分类网络结构,如图2所示,为本申请一个实施例的第一残差网络的结构图,本申请实施例的分类网络的训练过程如下:
首先,构建初始分类网络,初始分类网络包括第一残差网络、池化层和全连接层,第一残差网络的结构如图2所示,在图2中,是以N为4,M为5为例进行说明的。
在第一残差网络中,输入到第一卷积层的第一输入数据经过第一卷积层处理后,得到第一卷积结果包括5个第一子卷积结果,可以理解第一卷积层的输出分成5份,即5个第一子卷积结果,分别为图2中的第1个第一子卷积结果X1、第2个第一子卷积结果X2、第3个第一子卷积结果X3、第4个第一子卷积结果X4和第5个第一子卷积结果X5。第1个第一子卷积结果X1作为第1个子输出Y1。第2个第一子卷积结果X2经过第1个中间特征提取层A1处理,第1个中间特征提取层A1的输出结果包括一部分输出结果X20和另一部分输出结果X21,第1个中间特征提取层A1的另一部分输出结果X21作为第2个子输出Y2。第3个第一子卷积结果X3和第1个中间特征提取层A1的一部分输出结果X20融合(例如,拼接)后作为第2个中间特征提取层A2的输入,经过第2个中间特征提取层A2处理,第2个中间特征提取层A2的输出结果包括一部分输出结果X30和另一部分输出结果X31,第2个中间特征提取层A2的另一部分输出结果X31作为第3个子输出Y3。第4个第一子卷积结果X4和第2个中间特征提取层A2的一部分输出结果X30融合后作为第3个中间特征提取层A3的输入,经过第3个中间特征提取层A3处理,第3个中间特征提取层A3的输出结果包括一部分输出结果X40和另一部分输出结果X41,第3个中间特征提取层A3的另一部分输出结果X41作为第4个子输出Y4。第5个第一子卷积结果X5和第3个中间特征提取层A3的一部分输出结果X40融合后作为第4个中间特征提取层A4的输入,经过第4个中间特征提取层A4处理,第4个中间特征提取层A4的输出结果作为第5个子输出Y5。如此,得到5个子输出,包括自输出Y1、Y2、Y3、Y4和Y5,可以理解N-1个中间特征提取层的另一部分输出结果包括X21、X31、X41。
上述Y1、Y2、Y3、Y4和Y5融合后作为第二卷积层的输入,第二卷积层的输出传递至加权层(SE Block)进行加权得到加权结果,加权结果与输入到第一卷积层的第一输入数据经过相加模块进行相加后得到第一残差网络的输出,第一残差网络的输出传递池化层,池化层接收第一残差网络的输出进行处理后,池化层的输出传递至全连接层。
然后,在构建的初始分类网络的基础上,对初始分类网络进行训练,训练过程如图3所示,将第一训练集输入初始分类网络进行训练,更新初始分类网络中的参数,将第一验证集(包括多个验证对象,例如验证图像,还包括每个验证对象的分类标识)输入网络,验证网络的性能,并判断是否达到训练迭代轮数阈值,若达到,训练结束,得到目标分类网络,若未达到,则更新迭代轮数,返回将第一训练集输入初始分类网络进行训练的步骤,继续进行训练,直到达到训练迭代轮数阈值。训练完成后得到目标分类网络,后续可利用目标分类网络进行分类。
本申请实施例的分类网络训练方法中,首先构建初始分类网络,初始分类网络中的第一残差网络中添加了多个中间特征提取层,第一残差网络中的第一卷积层的M个第一子卷积结果中一部分可直接作为第二卷积层的输入,另一部分中每个第一子卷积结果可通过不同的中间特征提取层进行处理,中间特征提取层之间还存在关联,例如,一个中间特征提取层的输入不但包括一个第一子卷积结果,还包括前一个中间特征提取层的一部分输出结果,初始分类网络包括上述结构的第一残差网络,对初始分类网络进行训练得到目标分类网络,可实现在形同模型大小和模型预测速度下,性能更优的目标分类网络,提高网络的表达能力。本实施例中的第一残差网络可应用在分类基础网络、检测模型的主干网络、分给模型的主干网络中。训练得到的目标分类网络可应用在目标检测、目标分割、关键点检测和网络结构搜索等场景中,仅需修改对应的主干网络或者搜索空间,可得到较大的性能收益。
如图4所示,根据本申请的实施例,本申请提供一种分类方法,方法包括:
步骤S401:获取待分类对象;
待分类对象可以包括待分类图像或待分类图像的第一特征,待分类图像的第一特征为待分类图像经过卷积运算后得到的特征。
步骤S402:将待分类对象输入目标分类网络,通过目标分类网络输出待分类对象的分类结果;
其中,目标分类网络基于初始分类网络训练得到,初始分类网络包括第一残差网络,第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
在本实施例的分类方法中,基于目标分类网络进行分类,得到待分类对象的分类结果,其中,目标分类网络基于初始分类网络训练得到,初始分类网络不但包括第一残差网络,第一残差网络中包括第一卷积层和第二卷积层外,在第一卷积层和第二卷积层之间还添加了N个中间特征提取层,通过中间特征提取层可对第一卷积层的卷积输出结果可进行进一步的特征提取,然后将得到的结果输入至第二卷积层再进行处理。如此,通过对包括上述第一残差网络的初始分类网络进行训练得到目标分类网络,可提高目标分类网络的性能,通过目标分类网络进行分类,可提高分类准确性。与此同时,可提高目标分类网络的表达能力。
需要说明的是,目标分类网络可以基于上述第一训练集对初始分类网络训练得到。
在一个实施例中,第一卷积层的输出包括M个第一子卷积结果,第i个中间特征提取层的输入包括第i+1个第一子卷积结果和第i-1个中间特征提取层的一部分输出结果,i为整数,且2≤i≤N,第1个中间特征提取层的输入包括第2个第一子卷积结果,第二卷积层的输入包括第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果,第一残差网络的输出为第二卷积层的输出与第一卷积层的输入之和。
在一个实施例中,每个中间特征提取层包括依次连接的第三卷积层、归一化层和激活层。
在一个实施例中,第一残差网络还包括加权层,加权层的输入包括第二卷积层的输出。
在一个实施例中,第一卷积层和第二卷积层的卷积核大小相同。
如此可提高第一卷积层和第二卷积层的一致性,以确保第一残差网络的性能。例如,第一卷积层和第二卷积层的卷积核大小可均为1×1等,在本申请实施中,第一卷积层和第二卷积层的卷积核大小可不作限定。
在一个实施例中,N个第三卷积层的卷积核大小相同。
如图5所示,根据本申请的实施例,本申请还提供一种分类网络训练装置500,装置包括:
第一获取模块501,用于获取第一训练集;
训练模块502,用于基于第一训练集对初始分类网络进行训练,得到目标分类网络;
其中,初始分类网络包括第一残差网络,第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
在一个实施例中,第一卷积层的输出包括M个第一子卷积结果,第i个中间特征提取层的输入包括第i+1个第一子卷积结果和第i-1个中间特征提取层的一部分输出结果,i为整数,且2≤i≤N,第1个中间特征提取层的输入包括第2个第一子卷积结果,第二卷积层的输入包括第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果,第一残差网络的输出为第二卷积层的输出与第一卷积层的输入之和。
在一个实施例中,每个中间特征提取层包括依次连接的第三卷积层、归一化层和激活层。
在一个实施例中,第一残差网络还包括加权层,加权层的输入包括第二卷积层的输出。
第一卷积层和第二卷积层的卷积核大小相同。
在一个实施例中,N个第三卷积层的卷积核大小相同。
上述各实施例的分类网络训练装置为实现上述各实施例的分类网络训练方法的装置,技术特征对应,技术效果对应,在此不再赘述。
如图6所示,根据本申请的实施例,本申请还提供一种分类装置600,装置包括:
第二获取模块601,用于获取待分类对象;
分类模块602,用于将待分类对象输入目标分类网络,通过目标分类网络输出待分类对象的分类结果;
其中,目标分类网络基于初始分类网络训练得到,初始分类网络包括第一残差网络,第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
在一个实施例中,第一卷积层的输出包括M个第一子卷积结果,第i个中间特征提取层的输入包括第i+1个第一子卷积结果和第i-1个中间特征提取层的一部分输出结果,i为整数,且2≤i≤N,第1个中间特征提取层的输入包括第2个第一子卷积结果,第二卷积层的输入包括第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果,第一残差网络的输出为第二卷积层的输出与第一卷积层的输入之和。
在一个实施例中,每个中间特征提取层包括依次连接的第三卷积层、归一化层和激活层。
在一个实施例中,第一残差网络还包括加权层,加权层的输入包括第二卷积层的输出。
在一个实施例中,第一卷积层和第二卷积层的卷积核大小相同。
在一个实施例中,N个第三卷积层的卷积核大小相同。
上述各实施例的分类装置为实现上述各实施例的分类方法的装置,技术特征对应,技术效果对应,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图7所示,是根据本申请实施例的分类网络训练方法或分类方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUM的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的分类网络训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的分类网络训练方法或分类方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的分类网络训练方法对应的程序指令/模块(例如,附图5所示的第一获取模块501、训练模块502),或者如本申请实施例中的分类方法对应的程序指令/模块(例如,附图7所示的第二获取模块601、分类模块602)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的分类网络训练方法或分类方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据键盘显示的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至键盘显示的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
分类网络训练方法或分类方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与键盘显示的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASMC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,待训练的初始分类网络不但包括第一残差网络,第一残差网络中包括第一卷积层和第二卷积层外,在第一卷积层和第二卷积层之间还添加了N个中间特征提取层,通过中间特征提取层可对第一卷积层的卷积输出结果可进行进一步的特征提取,然后将得到的结果输入至第二卷积层再进行处理。如此,通过对包括上述第一残差网络的初始分类网络进行训练得到目标分类网络,可提高目标分类网络的性能。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (16)
1.一种分类网络训练方法,所述方法包括:
获取第一训练集;
基于所述第一训练集对初始分类网络进行训练,得到目标分类网络;
其中,所述初始分类网络包括第一残差网络,所述第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
2.根据权利要求1所述的方法,所述第一卷积层的输出包括M个第一子卷积结果,第i个中间特征提取层的输入包括第i+1个第一子卷积结果和第i-1个中间特征提取层的一部分输出结果,i为整数,且2≤i≤N,第1个中间特征提取层的输入包括第2个第一子卷积结果,所述第二卷积层的输入包括所述第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果,所述第一残差网络的输出为所述第二卷积层的输出与所述第一卷积层的输入之和。
3.根据权利要求1所述的方法,每个中间特征提取层包括依次连接的第三卷积层、归一化层和激活层。
4.根据权利要求1所述的方法,所述第一残差网络还包括加权层,所述加权层的输入包括所述第二卷积层的输出。
5.一种分类方法,所述方法包括:
获取待分类对象;
将所述待分类对象输入目标分类网络,通过所述目标分类网络输出所述待分类对象的分类结果;
其中,所述目标分类网络基于初始分类网络训练得到,所述初始分类网络包括第一残差网络,所述第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
6.根据权利要求5所述的方法,所述第一卷积层的输出包括M个第一子卷积结果,第i个中间特征提取层的输入包括第i+1个第一子卷积结果和第i-1个中间特征提取层的一部分输出结果,i为整数,且2≤i≤N,第1个中间特征提取层的输入包括第2个第一子卷积结果,所述第二卷积层的输入包括所述第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果,所述第一残差网络的输出为所述第二卷积层的输出与所述第一卷积层的输入之和。
7.根据权利要求5所述的方法,每个中间特征提取层包括依次连接的第三卷积层、归一化层和激活层。
8.根据权利要求5所述的方法,所述第一残差网络还包括加权层,所述加权层的输入包括所述第二卷积层的输出。
9.一种分类网络训练装置,所述装置包括:
第一获取模块,用于获取第一训练集;
训练模块,用于基于所述第一训练集对初始分类网络进行训练,得到目标分类网络;
其中,所述初始分类网络包括第一残差网络,所述第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
10.根据权利要求9所述的装置,所述第一卷积层的输出包括M个第一子卷积结果,第i个中间特征提取层的输入包括第i+1个第一子卷积结果和第i-1个中间特征提取层的一部分输出结果,i为整数,且2≤i≤N,第1个中间特征提取层的输入包括第2个第一子卷积结果,所述第二卷积层的输入包括所述第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果,所述第一残差网络的输出为所述第二卷积层的输出与所述第一卷积层的输入之和。
11.根据权利要求9所述的装置,每个中间特征提取层包括依次连接的第三卷积层、归一化层和激活层。
12.一种分类装置,所述装置包括:
第二获取模块,用于获取待分类对象;
分类模块,用于将所述待分类对象输入目标分类网络,通过所述目标分类网络输出所述待分类对象的分类结果;
其中,所述目标分类网络基于初始分类网络训练得到,所述初始分类网络包括第一残差网络,所述第一残差网络包括第一卷积层、N个中间特征提取层和第二卷积层,N为整数。
13.根据权利要求12所述的装置,所述第一卷积层的输出包括M个第一子卷积结果,第i个中间特征提取层的输入包括第i+1个第一子卷积结果和第i-1个中间特征提取层的一部分输出结果,i为整数,且2≤i≤N,第1个中间特征提取层的输入包括第2个第一子卷积结果,所述第二卷积层的输入包括所述第1个第一子卷积结果、N-1个中间特征提取层的另一部分输出结果和第N个中间特征提取层的输出结果,所述第一残差网络的输出为所述第二卷积层的输出与所述第一卷积层的输入之和。
14.根据权利要求12所述的装置,每个中间特征提取层包括依次连接的第三卷积层、归一化层和激活层。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一所述的分类网络训练方法或权利要求5-8中任一所述分类方法。
16.存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-4中任一所述的分类网络训练方法或权利要求5-8中任一所述分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011197979.8A CN112308145A (zh) | 2020-10-30 | 2020-10-30 | 一种分类网络训练方法、分类方法、装置以及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011197979.8A CN112308145A (zh) | 2020-10-30 | 2020-10-30 | 一种分类网络训练方法、分类方法、装置以及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112308145A true CN112308145A (zh) | 2021-02-02 |
Family
ID=74332375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011197979.8A Pending CN112308145A (zh) | 2020-10-30 | 2020-10-30 | 一种分类网络训练方法、分类方法、装置以及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112308145A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113610857A (zh) * | 2021-08-24 | 2021-11-05 | 济南大学 | 一种基于残差网络的苹果分级方法及系统 |
CN116016223A (zh) * | 2022-12-09 | 2023-04-25 | 国网湖北省电力有限公司信息通信公司 | 一种数据中心网络数据传输优化方法 |
CN116954591A (zh) * | 2023-06-15 | 2023-10-27 | 天云融创数据科技(北京)有限公司 | 银行领域的广义线性模型训练方法、装置、设备和介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491765A (zh) * | 2018-03-05 | 2018-09-04 | 中国农业大学 | 一种蔬菜图像的分类识别方法及系统 |
WO2019233244A1 (zh) * | 2018-06-08 | 2019-12-12 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
-
2020
- 2020-10-30 CN CN202011197979.8A patent/CN112308145A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491765A (zh) * | 2018-03-05 | 2018-09-04 | 中国农业大学 | 一种蔬菜图像的分类识别方法及系统 |
WO2019233244A1 (zh) * | 2018-06-08 | 2019-12-12 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
Non-Patent Citations (2)
Title |
---|
XUEFENG LIU: "Feature Extraction and Classification of Hyperspectral Image Based on 3D- Convolution Neural Network", IEEE, 1 November 2018 (2018-11-01) * |
白洁;张金松;刘倩宇;: "基于卷积网络特征迁移的小样本物体图像识别", 计算机仿真, no. 05, 15 May 2020 (2020-05-15) * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113610857A (zh) * | 2021-08-24 | 2021-11-05 | 济南大学 | 一种基于残差网络的苹果分级方法及系统 |
CN113610857B (zh) * | 2021-08-24 | 2024-02-06 | 济南大学 | 一种基于残差网络的苹果分级方法及系统 |
CN116016223A (zh) * | 2022-12-09 | 2023-04-25 | 国网湖北省电力有限公司信息通信公司 | 一种数据中心网络数据传输优化方法 |
CN116016223B (zh) * | 2022-12-09 | 2024-02-02 | 国网湖北省电力有限公司信息通信公司 | 一种数据中心网络数据传输优化方法 |
CN116954591A (zh) * | 2023-06-15 | 2023-10-27 | 天云融创数据科技(北京)有限公司 | 银行领域的广义线性模型训练方法、装置、设备和介质 |
CN116954591B (zh) * | 2023-06-15 | 2024-02-23 | 天云融创数据科技(北京)有限公司 | 银行领域的广义线性模型训练方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7335274B2 (ja) | ジオロケーションの予測のためのシステムおよび方法 | |
US9911032B2 (en) | Tracking hand/body pose | |
Kim et al. | Beyond classification: Directly training spiking neural networks for semantic segmentation | |
CN112308145A (zh) | 一种分类网络训练方法、分类方法、装置以及电子设备 | |
CN111539514A (zh) | 用于生成神经网络的结构的方法和装置 | |
CN112528976B (zh) | 文本检测模型的生成方法和文本检测方法 | |
CN112241764A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN110795569B (zh) | 知识图谱的向量表示生成方法、装置及设备 | |
CN109934247A (zh) | 电子装置及其控制方法 | |
CN111563593B (zh) | 神经网络模型的训练方法和装置 | |
CN111275190A (zh) | 神经网络模型的压缩方法及装置、图像处理方法及处理器 | |
EP4088226A1 (en) | Radioactive data generation | |
CN113591573A (zh) | 多任务学习深度网络模型的训练及目标检测方法、装置 | |
CN114386503A (zh) | 用于训练模型的方法和装置 | |
CN111967297A (zh) | 图像的语义分割方法、装置、电子设备及介质 | |
JP2024511171A (ja) | 動作認識の方法および装置 | |
CN112150462A (zh) | 确定目标锚点的方法、装置、设备以及存储介质 | |
CN111626027A (zh) | 表格结构还原方法、装置、设备、系统和可读存储介质 | |
CN111914994A (zh) | 多层感知机的生成方法、装置、电子设备及存储介质 | |
CN111291643A (zh) | 视频的多标签分类方法、装置、电子设备与存储介质 | |
CN112561056A (zh) | 神经网络模型的训练方法、装置、电子设备和存储介质 | |
CN111523467B (zh) | 人脸跟踪方法和装置 | |
CN112529180B (zh) | 模型蒸馏的方法和装置 | |
CN112749701A (zh) | 车牌污损分类模型的生成方法和车牌污损分类方法 | |
CN112966592A (zh) | 手部关键点检测方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |