CN110827208A - 卷积神经网络的通用池化增强方法、装置、设备及介质 - Google Patents
卷积神经网络的通用池化增强方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN110827208A CN110827208A CN201910888542.XA CN201910888542A CN110827208A CN 110827208 A CN110827208 A CN 110827208A CN 201910888542 A CN201910888542 A CN 201910888542A CN 110827208 A CN110827208 A CN 110827208A
- Authority
- CN
- China
- Prior art keywords
- pooling
- feature map
- channel
- global
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011176 pooling Methods 0.000 title claims abstract description 196
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 39
- 238000010586 diagram Methods 0.000 claims abstract description 41
- 238000010606 normalization Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
Abstract
本申请公开了一种卷积神经网络的通用池化增强方法、装置、设备及介质,对输入的第一特征图分别进行第一池化处理和第二池化处理,得到对应的第一池化特征图和第二池化特征图;将第一池化特征图和第二池化特征图进行拼接,得到第二特征图;将第二特征图进行升维处理,得到与第一特征图通道维数相同的全局池化特征图;对全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图;将每个通道的池化权重图分别和第一特征图的对应通道相乘,得到第三特征图后输出。通过本方案,可以在卷积神经网络训练时动态学习池化权重参数,大大减少了参数量和计算量,进一步提高了卷积神经网络的性能。
Description
技术领域
本申请涉及计算机视觉技术领域,特别涉及一种卷积神经网络的通用池化增强方法、装置、设备及介质。
背景技术
近年来,卷积神经网络(Convolutional Neural Network,CNN)获得越来越多的关注。CNN通常由卷积层、池化层、全连接层堆叠所组成。除了卷积在CNN中扮演重要的作用外,池化也发挥了重要角色。池化不仅减小了特征图的尺寸,减少了神经网络计算量,增大了感受野,同时具有平移不变性,可以减少噪声的影响,对轻微的畸变也不敏感。
目前,主流的池化方法有平均池化、最大池化和步长池化,这些方法简单有效,但是没有考虑输入模式的多样性。后来的线性加权池化和自适应池化对上述池化方法进行了改进,然而上述所有的池化方法都假设训练时池化权重是固定的,没有考虑单个图像的特性,因此固定权重的池化约束条件使得CNN的性能有所下降。
现有的通用池化方法是对每个通道的池化块学习池化权重,然后对每个通道按池化块进行局部空域增强,最后得到相应的池化增强后的输出通道。而对每个通道学习池化权重导致训练时参数量过多,计算量增大,而且计算池化权重时需要先通过CNN模块处理每个通道的特征图,这一操作又增加了计算量。
发明内容
本申请的目的在于提供一种卷积神经网络的通用池化增强方法、装置、设备及存储介质,以减少卷积神经网络计算量,提高卷积神经网络的任务性能。
第一方面,本申请实施例提供了一种卷积神经网络的通用池化增强方法,包括:
对输入的第一特征图分别进行第一池化处理和第二池化处理,得到对应的第一池化特征图和第二池化特征图;
将第一池化特征图和第二池化特征图进行拼接,得到第二特征图;
将所述第二特征图进行升维处理,得到与所述第一特征图通道维数相同的全局池化特征图;
对所述全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图;
将每个通道的池化权重图分别和所述第一特征图的对应通道相乘,得到第三特征图后输出。
在一种可能的实现方式中,在本申请实施例提供的上述方法中,所述第一池化为全局平均池化,所述第二池化为全局最大池化。
在一种可能的实现方式中,在本申请实施例提供的上述方法中,所述将所述第二特征图进行升维处理,包括:
利用1×1卷积将所述第二特征图进行升维处理。
在一种可能的实现方式中,在本申请实施例提供的上述方法中,所述对所述全局池化特征图中每个通道的每个池化块进行归一化处理,包括:
利用SoftMax函数对所述全局池化特征图中每个通道的每个池化块进行归一化处理。
第二方面,本申请实施例提供了一种卷积神经网络的通用池化增强装置,包括:
池化模块,用于对输入的第一特征图分别进行第一池化处理和第二池化处理,得到对应的第一池化特征图和第二池化特征图;
拼接模块,用于将第一池化特征图和第二池化特征图进行拼接,得到第二特征图;
升维模块,用于将所述第二特征图进行升维处理,得到与所述第一特征图通道维数相同的全局池化特征图;
归一化模块,用于对所述全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图;
输出模块,用于将每个通道的池化权重图分别和所述第一特征图的对应通道相乘,得到第三特征图后输出。
在一种可能的实现方式中,在本申请实施例提供的上述装置中,所述第一池化为全局平均池化,所述第二池化为全局最大池化。
在一种可能的实现方式中,在本申请实施例提供的上述装置中,所述升维模块,具体用于:
利用1×1卷积将所述第二特征图进行升维处理。
在一种可能的实现方式中,在本申请实施例提供的上述装置中,所述归一化模块,具体用于:
利用SoftMax函数对所述全局池化特征图中每个通道的每个池化块进行归一化处理。
第三方面,本申请实施例提供了一种电子设备,包括:存储器和处理器;
所述存储器,用于存储计算机程序;
其中,所述处理器执行所述存储器中的计算机程序,以实现上述第一方面以及第一方面的各个实施方式中所述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现上述第一方面以及第一方面的各个实施方式中所述的方法。
与现有技术相比,本申请提供的卷积神经网络的通用池化增强方法、装置、设备及介质,对输入的第一特征图分别进行第一池化处理和第二池化处理,得到对应的第一池化特征图和第二池化特征图;将第一池化特征图和第二池化特征图进行拼接,得到第二特征图;将所述第二特征图进行升维处理,得到与所述第一特征图通道维数相同的全局池化特征图;对所述全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图;将每个通道的池化权重图分别和所述第一特征图的对应通道相乘,得到第三特征图后输出。通过本方案,可以在卷积神经网络训练时动态学习池化权重参数,不需要卷积神经网络处理每个通道的特征图,大大减少了参数量和计算量,进一步提高了卷积神经网络的性能。
附图说明
图1为本申请实施例一提供的卷积神经网络的通用池化增强方法的流程示意图;
图2为本申请实施例一提供的另一卷积神经网络的通用池化增强方法的流程示意图;
图3为本申请实施例二提供的卷积神经网络的通用池化增强装置的结构示意图;
图4为本申请实施例三提供的电子设备的结构示意图。
具体实施方式
下面结合附图,对本申请的具体实施方式进行详细描述,但应当理解本申请的保护范围并不受具体实施方式的限制。
除非另有其它明确表示,否则在整个说明书和权利要求书中,术语“包括”或其变换如“包含”或“包括有”等等将被理解为包括所陈述的元件或组成部分,而并未排除其它元件或其它组成部分。
图1为本申请实施例一提供的卷积神经网络的通用池化增强方法的流程示意图。图2为本申请实施例一提供的另一卷积神经网络的通用池化增强方法的流程示意图。实际应用中,本实施例的执行主体可以为卷积神经网络的通用池化增强装置,该卷积神经网络的通用池化增强装置可以通过虚拟装置实现,例如软件代码,也可以通过写入有相关执行代码的实体装置实现,例如U盘,再或者,也可以通过集成有相关执行代码的实体装置实现,例如,芯片、电脑等。
如图1所示,该方法包括以下步骤S101~S105:
S101、对输入的第一特征图分别进行第一池化处理和第二池化处理,得到对应的第一池化特征图和第二池化特征图。
本实施例中,如图2所示,第一特征图为输入特征图其中,C为特征图的通道数,H和W分别表示特征图的长和宽。首先对输入特征图沿着空域维进行第一池化和第二池化,第一池化和第二池化分别可以为任意一种池化方法,优选的,本实施例中的第一池化为全局平均池化,第二池化为全局最大池化。相应的,得到的第一池化特征图为全局平均池化特征图第二池化特征图为全局最大池化特征图
S102、将第一池化特征图和第二池化特征图进行拼接,得到第二特征图。
本实施例中,对上述得到的第一池化特征图和第二池化特征图进行拼接,得到一第二特征图,该第二特征图为拼接之后的特征图。
S103、将所述第二特征图进行升维处理,得到与所述第一特征图通道维数相同的全局池化特征图。
为了使拼接后得到的第二特征图的通道维数与输入的第一特征图匹配,本实施例中,对第二特征图进行升维处理。具体的,可以利用1×1卷积对所述第二特征图进行升维处理。升维处理后得到与第一特征图通道维数相同的全局池化特征图
S104、对所述全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图。
本实施例中,具体的,可以利用SoftMax函数对所述全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图进而得到全局池化信息,利用全局池化信息计算池化权重参数,增强了池化操作的性能。
S105、将每个通道的池化权重图分别和所述第一特征图的对应通道相乘,得到第三特征图后输出。
本实施例提供的卷积神经网络的通用池化增强方法,通过对输入的第一特征图分别进行第一池化处理和第二池化处理,得到对应的第一池化特征图和第二池化特征图;将第一池化特征图和第二池化特征图进行拼接,得到第二特征图;将所述第二特征图进行升维处理,得到与所述第一特征图通道维数相同的全局池化特征图;对所述全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图;将每个通道的池化权重图分别和所述第一特征图的对应通道相乘,得到第三特征图后输出。通过本方案,可以在卷积神经网络训练时动态学习池化权重参数,不需要卷积神经网络处理每个通道的特征图,大大减少了参数量和计算量,进一步提高了卷积神经网络的性能。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图3为本申请实施例二提供的卷积神经网络的通用池化增强装置的结构示意图,如图3所示,该装置可以包括:
池化模块301,用于对输入的第一特征图分别进行第一池化处理和第二池化处理,得到对应的第一池化特征图和第二池化特征图;
拼接模块302,用于将第一池化特征图和第二池化特征图进行拼接,得到第二特征图;
升维模块303,用于将所述第二特征图进行升维处理,得到与所述第一特征图通道维数相同的全局池化特征图;
归一化模块304,用于对所述全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图;
输出模块105,用于将每个通道的池化权重图分别和所述第一特征图的对应通道相乘,得到第三特征图后输出。
本实施例提供的卷积神经网络的通用池化增强装置,通过对输入的第一特征图分别进行第一池化处理和第二池化处理,得到对应的第一池化特征图和第二池化特征图;将第一池化特征图和第二池化特征图进行拼接,得到第二特征图;将所述第二特征图进行升维处理,得到与所述第一特征图通道维数相同的全局池化特征图;对所述全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图;将每个通道的池化权重图分别和所述第一特征图的对应通道相乘,得到第三特征图后输出。通过本方案,可以在卷积神经网络训练时动态学习池化权重参数,不需要卷积神经网络处理每个通道的特征图,大大减少了参数量和计算量,进一步提高了卷积神经网络的性能。
基于上述实施例,在本申请的一些实施方式中,所述第一池化为全局平均池化,所述第二池化为全局最大池化。
基于上述实施例,在本申请的一些实施方式中,所述升维模块103,具体用于:
利用1×1卷积将所述第二特征图进行升维处理。
基于上述实施例,在本申请的一些实施方式中,所述归一化模块104,具体用于:
利用SoftMax函数对所述全局池化特征图中每个通道的每个池化块进行归一化处理。
图4为本申请实施例三提供的电子设备的结构示意图,如图4所示,该设备包括:存储器401和处理器402;
存储器401,用于存储计算机程序;
其中,处理器402执行存储器401中的计算机程序,以实现如上所述各方法实施例所提供的方法。
在实施例中,以一电子设备对本申请提供的卷积神经网络的通用池化增强装置进行示例。处理器可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器可以包括一个或多个计算机程序产品,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器可以运行程序指令,以实现上文的本申请的各个实施例中的方法以及/或者其他期望的功能。在计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
本申请实施例四提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,该计算机程序被处理器执行时用于实现如上所述各方法实施例所提供的方法。
实际应用中,本实施例中的计算机程序可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
实际应用中,计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
前述对本申请的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本申请限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本申请的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本申请的各种不同的示例性实施方案以及各种不同的选择和改变。本申请的范围意在由权利要求书及其等同形式所限定。
Claims (10)
1.一种卷积神经网络的通用池化增强方法,其特征在于,包括:
对输入的第一特征图分别进行第一池化处理和第二池化处理,得到对应的第一池化特征图和第二池化特征图;
将第一池化特征图和第二池化特征图进行拼接,得到第二特征图;
将所述第二特征图进行升维处理,得到与所述第一特征图通道维数相同的全局池化特征图;
对所述全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图;
将每个通道的池化权重图分别和所述第一特征图的对应通道相乘,得到第三特征图后输出。
2.根据权利要求1所述的方法,其特征在于,所述第一池化为全局平均池化,所述第二池化为全局最大池化。
3.根据权利要求1所述的方法,其特征在于,所述将所述第二特征图进行升维处理,包括:
利用1×1卷积将所述第二特征图进行升维处理。
4.根据权利要求1所述的方法,其特征在于,所述对所述全局池化特征图中每个通道的每个池化块进行归一化处理,包括:
利用SoftMax函数对所述全局池化特征图中每个通道的每个池化块进行归一化处理。
5.一种卷积神经网络的通用池化增强装置,其特征在于,包括:
池化模块,用于对输入的第一特征图分别进行第一池化处理和第二池化处理,得到对应的第一池化特征图和第二池化特征图;
拼接模块,用于将第一池化特征图和第二池化特征图进行拼接,得到第二特征图;
升维模块,用于将所述第二特征图进行升维处理,得到与所述第一特征图通道维数相同的全局池化特征图;
归一化模块,用于对所述全局池化特征图中每个通道的每个池化块进行归一化处理,得到每个通道的池化权重图;
输出模块,用于将每个通道的池化权重图分别和所述第一特征图的对应通道相乘,得到第三特征图后输出。
6.根据权利要求5所述的装置,其特征在于,所述第一池化为全局平均池化,所述第二池化为全局最大池化。
7.根据权利要求5所述的装置,其特征在于,所述升维模块,具体用于:
利用1×1卷积将所述第二特征图进行升维处理。
8.根据权利要求5所述的装置,其特征在于,所述归一化模块,具体用于:
利用SoftMax函数对所述全局池化特征图中每个通道的每个池化块进行归一化处理。
9.一种电子设备,包括:存储器和处理器;
所述存储器,用于存储计算机程序;
其中,所述处理器执行所述存储器中的计算机程序,以实现如权利要求1-4中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现如权利要求1-4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910888542.XA CN110827208A (zh) | 2019-09-19 | 2019-09-19 | 卷积神经网络的通用池化增强方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910888542.XA CN110827208A (zh) | 2019-09-19 | 2019-09-19 | 卷积神经网络的通用池化增强方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110827208A true CN110827208A (zh) | 2020-02-21 |
Family
ID=69548169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910888542.XA Pending CN110827208A (zh) | 2019-09-19 | 2019-09-19 | 卷积神经网络的通用池化增强方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110827208A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461289A (zh) * | 2020-03-07 | 2020-07-28 | 咪咕文化科技有限公司 | 池化处理方法、系统及存储介质 |
CN111539325A (zh) * | 2020-04-23 | 2020-08-14 | 四川旅游学院 | 基于深度学习的森林火灾探测方法 |
CN111667058A (zh) * | 2020-06-23 | 2020-09-15 | 新疆爱华盈通信息技术有限公司 | 卷积神经网络的多尺度特征通道的动态选择方法 |
CN113033579A (zh) * | 2021-03-31 | 2021-06-25 | 北京有竹居网络技术有限公司 | 图像处理方法、装置、存储介质及电子设备 |
WO2022040963A1 (en) * | 2020-08-26 | 2022-03-03 | Intel Corporation | Methods and apparatus to dynamically normalize data in neural networks |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170046616A1 (en) * | 2015-08-15 | 2017-02-16 | Salesforce.Com, Inc. | Three-dimensional (3d) convolution with 3d batch normalization |
CN107657249A (zh) * | 2017-10-26 | 2018-02-02 | 珠海习悦信息技术有限公司 | 多尺度特征行人重识别的方法、装置、存储介质及处理器 |
CN107832794A (zh) * | 2017-11-09 | 2018-03-23 | 车智互联(北京)科技有限公司 | 一种卷积神经网络生成方法、车系识别方法及计算设备 |
CN109271878A (zh) * | 2018-08-24 | 2019-01-25 | 北京地平线机器人技术研发有限公司 | 图像识别方法、图像识别装置和电子设备 |
CN109902806A (zh) * | 2019-02-26 | 2019-06-18 | 清华大学 | 基于卷积神经网络的噪声图像目标边界框确定方法 |
CN109920012A (zh) * | 2019-02-25 | 2019-06-21 | 西南石油大学 | 基于卷积神经网络的图像着色系统及方法 |
CN109948526A (zh) * | 2019-03-18 | 2019-06-28 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、检测设备及存储介质 |
CN110009590A (zh) * | 2019-04-12 | 2019-07-12 | 北京理工大学 | 一种基于卷积神经网络的高质量彩色图像去马赛克方法 |
CN110084257A (zh) * | 2018-01-26 | 2019-08-02 | 北京京东尚科信息技术有限公司 | 用于检测目标的方法和装置 |
CN110222559A (zh) * | 2019-04-24 | 2019-09-10 | 深圳市微纳集成电路与系统应用研究院 | 基于卷积神经网络的烟雾图像检测方法及装置 |
-
2019
- 2019-09-19 CN CN201910888542.XA patent/CN110827208A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170046616A1 (en) * | 2015-08-15 | 2017-02-16 | Salesforce.Com, Inc. | Three-dimensional (3d) convolution with 3d batch normalization |
CN107657249A (zh) * | 2017-10-26 | 2018-02-02 | 珠海习悦信息技术有限公司 | 多尺度特征行人重识别的方法、装置、存储介质及处理器 |
CN107832794A (zh) * | 2017-11-09 | 2018-03-23 | 车智互联(北京)科技有限公司 | 一种卷积神经网络生成方法、车系识别方法及计算设备 |
CN110084257A (zh) * | 2018-01-26 | 2019-08-02 | 北京京东尚科信息技术有限公司 | 用于检测目标的方法和装置 |
CN109271878A (zh) * | 2018-08-24 | 2019-01-25 | 北京地平线机器人技术研发有限公司 | 图像识别方法、图像识别装置和电子设备 |
CN109920012A (zh) * | 2019-02-25 | 2019-06-21 | 西南石油大学 | 基于卷积神经网络的图像着色系统及方法 |
CN109902806A (zh) * | 2019-02-26 | 2019-06-18 | 清华大学 | 基于卷积神经网络的噪声图像目标边界框确定方法 |
CN109948526A (zh) * | 2019-03-18 | 2019-06-28 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、检测设备及存储介质 |
CN110009590A (zh) * | 2019-04-12 | 2019-07-12 | 北京理工大学 | 一种基于卷积神经网络的高质量彩色图像去马赛克方法 |
CN110222559A (zh) * | 2019-04-24 | 2019-09-10 | 深圳市微纳集成电路与系统应用研究院 | 基于卷积神经网络的烟雾图像检测方法及装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461289A (zh) * | 2020-03-07 | 2020-07-28 | 咪咕文化科技有限公司 | 池化处理方法、系统及存储介质 |
CN111461289B (zh) * | 2020-03-07 | 2024-04-12 | 咪咕文化科技有限公司 | 池化处理方法、系统及存储介质 |
CN111539325A (zh) * | 2020-04-23 | 2020-08-14 | 四川旅游学院 | 基于深度学习的森林火灾探测方法 |
CN111667058A (zh) * | 2020-06-23 | 2020-09-15 | 新疆爱华盈通信息技术有限公司 | 卷积神经网络的多尺度特征通道的动态选择方法 |
WO2022040963A1 (en) * | 2020-08-26 | 2022-03-03 | Intel Corporation | Methods and apparatus to dynamically normalize data in neural networks |
CN113033579A (zh) * | 2021-03-31 | 2021-06-25 | 北京有竹居网络技术有限公司 | 图像处理方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110827208A (zh) | 卷积神经网络的通用池化增强方法、装置、设备及介质 | |
CN110490813B (zh) | 卷积神经网络的特征图增强方法、装置、设备及介质 | |
CN111414987B (zh) | 神经网络的训练方法、训练装置和电子设备 | |
CN110781923B (zh) | 特征提取方法及装置 | |
TWI796286B (zh) | 一種機器學習系統的訓練方法和訓練系統 | |
CN110083834B (zh) | 语义匹配模型训练方法、装置、电子设备及存储介质 | |
CN109543029B (zh) | 基于卷积神经网络的文本分类方法、装置、介质和设备 | |
CN111695375A (zh) | 基于模型蒸馏的人脸识别模型压缩算法、介质及终端 | |
KR20200029351A (ko) | 샘플 처리 방법, 장치, 기기 및 저장 매체 | |
CN113326351A (zh) | 一种用户意图确定方法及装置 | |
CN116822651A (zh) | 基于增量学习的大模型参数微调方法、装置、设备及介质 | |
CN111340245A (zh) | 一种模型训练方法及系统 | |
CN114494814A (zh) | 基于注意力的模型训练方法、装置及电子设备 | |
CN117421639A (zh) | 多模态数据分类方法、终端设备及存储介质 | |
CN112397086A (zh) | 语音关键词检测方法、装置、终端设备和存储介质 | |
CN114239760B (zh) | 多模态模型训练以及图像识别方法、装置、电子设备 | |
CN113408702B (zh) | 音乐神经网络模型预训练方法及电子设备和存储介质 | |
CN113361621B (zh) | 用于训练模型的方法和装置 | |
CN111400484B (zh) | 一种关键词提取方法和系统 | |
CN115496734A (zh) | 视频内容的质量评价方法、网络训练方法和装置 | |
CN115049546A (zh) | 样本数据处理方法、装置、电子设备及存储介质 | |
CN111062477B (zh) | 一种数据处理方法、装置及存储介质 | |
CN111552652B (zh) | 基于人工智能芯片的数据处理方法、装置和存储介质 | |
CN114187465A (zh) | 分类模型的训练方法、装置、电子设备及存储介质 | |
CN117669738B (zh) | 引擎更新方法、处理方法、装置、设备、介质及机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200221 |