CN111914997A - 训练神经网络的方法、图像处理方法及装置 - Google Patents
训练神经网络的方法、图像处理方法及装置 Download PDFInfo
- Publication number
- CN111914997A CN111914997A CN202010616988.XA CN202010616988A CN111914997A CN 111914997 A CN111914997 A CN 111914997A CN 202010616988 A CN202010616988 A CN 202010616988A CN 111914997 A CN111914997 A CN 111914997A
- Authority
- CN
- China
- Prior art keywords
- feature map
- image
- neural network
- input
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 213
- 238000000034 method Methods 0.000 title claims abstract description 155
- 238000012549 training Methods 0.000 title claims abstract description 137
- 238000003672 processing method Methods 0.000 title claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 212
- 238000000605 extraction Methods 0.000 claims abstract description 123
- 230000006870 function Effects 0.000 claims description 130
- 230000004913 activation Effects 0.000 claims description 108
- 230000015654 memory Effects 0.000 claims description 69
- 238000010586 diagram Methods 0.000 claims description 43
- 238000003860 storage Methods 0.000 claims description 13
- 230000002708 enhancing effect Effects 0.000 claims description 10
- 230000000694 effects Effects 0.000 abstract description 24
- 238000003062 neural network model Methods 0.000 abstract description 17
- 238000005265 energy consumption Methods 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 63
- 239000000654 additive Substances 0.000 description 56
- 230000000996 additive effect Effects 0.000 description 56
- 230000008569 process Effects 0.000 description 52
- 238000013527 convolutional neural network Methods 0.000 description 38
- 238000011176 pooling Methods 0.000 description 34
- 239000013598 vector Substances 0.000 description 22
- 238000004891 communication Methods 0.000 description 20
- 238000001914 filtration Methods 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 17
- 101150064138 MAP1 gene Proteins 0.000 description 12
- 230000001537 neural effect Effects 0.000 description 11
- 210000002569 neuron Anatomy 0.000 description 10
- 238000013500 data storage Methods 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 9
- 101100400452 Caenorhabditis elegans map-2 gene Proteins 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000011056 performance test Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 101100365548 Caenorhabditis elegans set-14 gene Proteins 0.000 description 2
- MHABMANUFPZXEB-UHFFFAOYSA-N O-demethyl-aloesaponarin I Natural products O=C1C2=CC=CC(O)=C2C(=O)C2=C1C=C(O)C(C(O)=O)=C2C MHABMANUFPZXEB-UHFFFAOYSA-N 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000037361 pathway Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4015—Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请涉及人工智能领域中计算机视觉领域的图像处理技术,提供了一种训练神经网络的方法、图像处理方法及装置。该方法涉及人工智能领域,具体涉及计算机视觉领域,该方法包括:获取训练图像的输入特征图;使用神经网络的特征提取核,对所述输入特征图进行特征提取处理,得到第一候选特征图;将所述第一候选特征图与第二候选特征图相加,得到输出特征图,所述第二候选特征图为所述输入特征图中的每个元素对应的数值扩大N倍后得到的特征图,N大于0;根据所述输出特征图确定所述训练图像的图像处理结果;根据所述图像处理结果,调整所述神经网络的参数,该方法可以在不影响图像处理效果的同时,有效降低神经网络模型的能耗。
Description
技术领域
本申请涉及人工智能领域,并且更具体地,涉及一种训练神经网络的方法、图像处理方法及装置。
背景技术
计算机视觉是各个应用领域,如制造业、检验、文档分析、医疗诊断,和军事等领域中各种智能/自主系统中不可分割的一部分,它是一门关于如何运用照相机/摄像机和计算机来获取我们所需的,被拍摄对象的数据与信息的学问。形象地说,就是给计算机安装上眼睛(照相机/摄像机)和大脑(算法)用来代替人眼对目标进行识别、跟踪和测量等,从而使计算机能够感知环境。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。总的来说,计算机视觉就是用各种成象系统代替视觉器官获取输入信息,再由计算机来代替大脑对这些输入信息完成处理和解释。计算机视觉的最终研究目标就是使计算机能像人那样通过视觉观察和理解世界,具有自主适应环境的能力。
图像复原(image restoration,IR)是底层视觉任务中的重要问题,随着人工智能技术的快速发展,图像复原的效果得到了大幅提高,也使得图像复原在计算机视觉领域的应用越来越广泛。但是,随着图像复原效果的提升,进行图像复原的神经网络模型的计算量也越来越大。
因此,如何降低图像复原的运算开销成为一个亟需解决的问题。
发明内容
本申请提供一种训练神经网络的方法、图像处理方法及装置,能够降低图像复原的运算开销。
第一方面,提供了一种训练神经网络的方法,该方法包括:
获取训练图像的输入特征图;使用神经网络的特征提取核,对所述输入特征图进行特征提取处理,得到第一候选特征图,所述特征提取处理使得所述第一候选特征图中的每个元素为所述特征提取核与所述输入特征图中对应位置的数据的L1正则距离;将所述第一候选特征图与第二候选特征图相加,得到输出特征图,所述第二候选特征图为所述输入特征图中的每个元素对应的数值扩大N倍后得到的特征图,N大于0;根据所述输出特征图确定所述训练图像的图像处理结果;根据所述图像处理结果,调整所述神经网络的参数。
上述特征提取处理可以理解为加法神经网络(adder neural networks,AdderNet)中的加法滤波处理(或者,也可以称为特征提取处理),加法滤波处理本身的特点(加法滤波处理主要包括加法运算或减法运算、以及取绝对值运算)会降低神经网络模型的计算量,但也正是由于加法滤波处理的这些特点,可能会导致在特征提取处理(即加法滤波处理)的过程中损失输入特征图的特征信息。
在本申请实施例中,所述第二候选特征图为所述输入特征图中的每个元素扩大N倍后得到的特征图,将所述第一候选特征图与第二候选特征图相加后得到输出特征图,所述输出特征图包含所述输入特征图的特征信息,因此,可以避免在使用加法神经网络进行特征提取的过程中损失输入特征图的特征信息,从而可以在不影响图像处理效果的同时,有效降低神经网络模型的能耗。
可选地,所述L1正则距离也可以称为L1距离、L1范数距离、曼哈顿距离或出租车距离。
其中,所述第二候选特征图可以认为是:所述输入特征图中的每个元素对应的数值扩大N倍后得到的特征图。
例如,所述输入特征图为3×3的特征图,即所述输入特征图包括9个元素,则所述第二候选特征图可以指:将所述输入特征图中的9个元素对应的数值均扩大N倍后得到的特征图。
可选地,所述图像处理可以包括图像超分处理、图像去噪处理、图像去马赛克处理及图像去模糊处理中的至少一种。
结合第一方面,在第一方面的某些实现方式中,所述将所述第一候选特征图与第二候选特征图相加,得到输出特征图,包括:
使用激活函数对所述第一候选特征图进行处理,得到处理后的所述第一候选特征图;将处理后的所述第一候选特征图与所述第二候选特征图相加,得到输出特征图。
在本申请实施例中,使用激活函数对所述第一候选特征图进行处理,可以进一步提升图像处理的效果。
结合第一方面,在第一方面的某些实现方式中,所述使用激活函数对所述第一候选特征图进行处理,包括:
使用幂激活函数增强所述第一候选特征图的高频纹理信息,所述神经网络的参数包括所述幂激活函数的参数。
在本申请实施例中,使用幂激活函数增强所述第一候选特征图的高频纹理信息,可以进提升图像处理的效果。
同时,所述神经网络的参数包括所述幂激活函数的参数,也就是说,所述幂激活函数的参数是可学习的。通过该可学习的幂激活函数可以解决加法神经网络不能有效增强高频纹理信息的问题。
进一步地,通过训练该可学习的幂激活函数,有助于所述神经网络适应各种不同的任务和场景。
结合第一方面,在第一方面的某些实现方式中,所述根据所述输出特征图确定所述训练图像的图像处理结果,包括:
使用激活函数对所述输出特征图进行处理,得到处理后的所述输出特征图;根据处理后的所述输出特征图确定所述训练图像的图像处理结果。
在本申请实施例中,使用激活函数对所述输出特征图进行处理,可以进一步提升图像处理的效果。
结合第一方面,在第一方面的某些实现方式中,所述使用激活函数对所述输出特征图进行处理,包括:
使用幂激活函数增强所述输出特征图的高频纹理信息,所述神经网络的参数包括所述幂激活函数的参数。
在本申请实施例中,使用幂激活函数增强所述输出特征图的高频纹理信息,可以进提升图像处理的效果。
同时,所述神经网络的参数包括所述幂激活函数的参数,也就是说,所述幂激活函数的参数是可学习的。通过该可学习的幂激活函数可以解决加法神经网络不能有效增强高频纹理信息的问题。
进一步地,通过训练该可学习的幂激活函数,有助于所述神经网络适应各种不同的任务和场景。
结合第一方面,在第一方面的某些实现方式中,所述幂激活函数为:
其中,Y为输入所述幂激活函数的特征图,sign(·)是符号函数,|·|为绝对值运算,α为所述幂激活函数的参数,α>0。
第二方面,提供了一种图像处理方法,该方法包括:
获取待处理图像的输入特征图;使用预设的神经网络对所述输入特征图进行图像超分处理,得到所述待处理图像的图像超分处理结果;其中,所述神经网络是通过上述第一方面中的任意一种实现方式中的方法训练后得到的。
在本申请实施例中,所述神经网络是通过上述第一方面中的任意一种实现方式中的方法训练后得到的,因此,可以避免在使用加法神经网络进行特征提取的过程中损失输入特征图的特征信息,从而可以在不影响图像处理效果的同时,有效降低神经网络模型的能耗。
结合第二方面,在第二方面的某些实现方式中,所述图像处理包括图像超分处理、图像去噪处理、图像去马赛克处理及图像去模糊处理中的至少一种。
第三方面,提供了一种训练神经网络的装置,包括:
获取单元,用于获取训练图像的输入特征图;特征提取单元,用于使用神经网络的特征提取核,对所述输入特征图进行特征提取处理,得到第一候选特征图,所述特征提取处理使得所述第一候选特征图中的每个元素为所述特征提取核与所述输入特征图中对应位置的数据的L1正则距离;处理单元,用于将所述第一候选特征图与第二候选特征图相加,得到输出特征图,所述第二候选特征图为所述输入特征图中的每个元素对应的数值扩大N倍后得到的特征图,N大于0;图像处理单元,根据所述输出特征图确定所述训练图像的图像处理结果;调整单元,用于根据所述图像处理结果,调整所述神经网络的参数。
上述特征提取处理可以理解为加法神经网络(adder neural networks,AdderNet)中的加法滤波处理(或者,也可以称为特征提取处理),加法滤波处理本身的特点(加法滤波处理主要包括加法运算或减法运算、以及取绝对值运算)会降低神经网络模型的计算量,但也正是由于加法滤波处理的这些特点,可能会导致在特征提取处理(即加法滤波处理)的过程中损失输入特征图的特征信息。
在本申请实施例中,所述第二候选特征图为所述输入特征图中的每个元素扩大N倍后得到的特征图,将所述第一候选特征图与第二候选特征图相加后得到输出特征图,所述输出特征图包含所述输入特征图的特征信息,因此,可以避免在使用加法神经网络进行特征提取的过程中损失输入特征图的特征信息,从而可以在不影响图像处理效果的同时,有效降低神经网络模型的能耗。
可选地,所述L1正则距离也可以称为L1距离、L1范数距离、曼哈顿距离或出租车距离。
其中,所述第二候选特征图可以认为是:所述输入特征图中的每个元素对应的数值扩大N倍后得到的特征图。
例如,所述输入特征图为3×3的特征图,即所述输入特征图包括9个元素,则所述第二候选特征图可以指:将所述输入特征图中的9个元素对应的数值均扩大N倍后得到的特征图。
可选地,所述图像处理可以包括图像超分处理、图像去噪处理、图像去马赛克处理及图像去模糊处理中的至少一种。
结合第三方面,在第三方面的某些实现方式中,所述处理单元具体用于:
使用激活函数对所述第一候选特征图进行处理,得到处理后的所述第一候选特征图;将处理后的所述第一候选特征图与所述第二候选特征图相加,得到输出特征图。
在本申请实施例中,使用激活函数对所述第一候选特征图进行处理,可以进一步提升图像处理的效果。
结合第三方面,在第三方面的某些实现方式中,所述处理单元具体用于:
使用幂激活函数增强所述第一候选特征图的高频纹理信息,所述神经网络的参数包括所述幂激活函数的参数。
在本申请实施例中,使用幂激活函数增强所述第一候选特征图的高频纹理信息,可以进提升图像处理的效果。
同时,所述神经网络的参数包括所述幂激活函数的参数,也就是说,所述幂激活函数的参数是可学习的。通过该可学习的幂激活函数可以解决加法神经网络不能有效增强高频纹理信息的问题。
进一步地,通过训练该可学习的幂激活函数,有助于所述神经网络适应各种不同的任务和场景。
结合第三方面,在第三方面的某些实现方式中,所述图像处理单元具体用于:
使用激活函数对所述输出特征图进行处理,得到处理后的所述输出特征图;根据处理后的所述输出特征图确定所述训练图像的图像处理结果。
在本申请实施例中,使用激活函数对所述输出特征图进行处理,可以进一步提升图像处理的效果。
结合第三方面,在第三方面的某些实现方式中,所述图像处理单元具体用于:
使用幂激活函数增强所述输出特征图的高频纹理信息,所述神经网络的参数包括所述幂激活函数的参数。
在本申请实施例中,使用幂激活函数增强所述输出特征图的高频纹理信息,可以进提升图像处理的效果。
同时,所述神经网络的参数包括所述幂激活函数的参数,也就是说,所述幂激活函数的参数是可学习的。通过该可学习的幂激活函数可以解决加法神经网络不能有效增强高频纹理信息的问题。
进一步地,通过训练该可学习的幂激活函数,有助于所述神经网络适应各种不同的任务和场景。
结合第三方面,在第三方面的某些实现方式中,所述幂激活函数为:
其中,Y为输入所述幂激活函数的特征图,sign(·)是符号函数,|·|为绝对值运算,α为所述幂激活函数的参数,α>0。
第四方面,提供了一种图像处理装置,包括:
获取单元,用于获取待处理图像的输入特征图;图像处理单元,用于使用预设的神经网络对所述输入特征图进行图像处理,得到所述待处理图像的图像处理结果;其中,所述神经网络是通过上述第一方面中的任意一种实现方式中的方法训练后得到的。
在本申请实施例中,所述神经网络是通过上述第一方面中的任意一种实现方式中的方法训练后得到的,因此,可以避免在使用加法神经网络进行特征提取的过程中损失输入特征图的特征信息,从而可以在不影响图像处理效果的同时,有效降低神经网络模型的能耗。
结合第四方面,在第四方面的某些实现方式中,所述图像处理包括图像超分处理、图像去噪处理、图像去马赛克处理及图像去模糊处理中的至少一种。
第五方面,提供了一种训练神经网络的装置,该装置包括:存储器,用于存储程序;处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行第一方面中的任意一种实现方式中的方法。
上述第五方面中的处理器既可以是中央处理器(central processing unit,CPU),也可以是CPU与神经网络运算处理器的组合,这里的神经网络运算处理器可以包括图形处理器(graphics processing unit,GPU)、神经网络处理器(neural-networkprocessing unit,NPU)和张量处理器(tensor processing unit,TPU)等等。其中,TPU是谷歌(google)为机器学习全定制的人工智能加速器专用集成电路。
第六方面,提供了一种图像处理装置,该装置包括:存储器,用于存储程序;处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行第二方面中的任意一种实现方式中的方法。
上述第六方面中的处理器既可以是中央处理器(central processing unit,CPU),也可以是CPU与神经网络运算处理器的组合,这里的神经网络运算处理器可以包括图形处理器(graphics processing unit,GPU)、神经网络处理器(neural-networkprocessing unit,NPU)和张量处理器(tensor processing unit,TPU)等等。其中,TPU是谷歌(google)为机器学习全定制的人工智能加速器专用集成电路。
第七方面,提供一种计算机可读介质,该计算机可读介质存储用于设备执行的程序代码,该程序代码包括用于执行第一方面或第二方面中的任意一种实现方式中的方法。
第八方面,提供一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述第一方面或第二方面中的任意一种实现方式中的方法。
第九方面,提供一种芯片,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,执行上述第一方面或第二方面中的任意一种实现方式中的方法。
可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行第一方面或第二方面中的任意一种实现方式中的方法。
上述芯片具体可以是现场可编程门阵列(field-programmable gate array,FPGA)或者专用集成电路(application-specific integrated circuit,ASIC)。
本申请实施例中的特征提取处理可以理解为加法神经网络(adder neuralnetworks,AdderNet)中的加法滤波处理(或者,也可以称为特征提取处理),加法滤波处理本身的特点(加法滤波处理主要包括加法运算或减法运算、以及取绝对值运算)会降低神经网络模型的计算量,但也正是由于加法滤波处理的这些特点,可能会导致在特征提取处理(即加法滤波处理)的过程中损失输入特征图的特征信息。
在本申请实施例中,所述第二候选特征图为所述输入特征图中的每个元素扩大N倍后得到的特征图,将所述第一候选特征图与第二候选特征图相加后得到输出特征图,所述输出特征图包含所述输入特征图的特征信息,因此,可以避免在使用加法神经网络进行特征提取的过程中损失输入特征图的特征信息,从而可以在不影响图像处理效果的同时,有效降低神经网络模型的能耗。
附图说明
图1是本申请实施例提供的一种系统架构的结构示意图。
图2是本申请实施例提供的一种神经网络的结构示意图。
图3是本申请实施例提供的一种芯片硬件结构示意图。
图4是本申请实施例提供的另一种系统架构的结构示意图。
图5是本申请一个实施例提供的训练神经网络的方法的示意性流程图。
图6是本申请一个实施例提供的特征提取操作的示意图。
图7是本申请另一个实施例提供的特征提取操作的示意图。
图8是本申请实施例提供的神经网络模型的示意性框图。
图9是本申请实施例提供的自连接加法单元的示意性框图。
图10是本申请一个实施例提供的图像处理方法的示意性流程图。
图11是本申请一个实施例提供的训练神经网络的装置的示意性框图。
图12是本申请一个实施例提供的图像处理装置的示意性框图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
本申请实施例可以应用在拍照、录像、平安城市、人机交互以及其他需要进行图像处理的场景,例如,图像分类、图像分割、图像识别,图像复原等。
应理解,本申请实施例中的图像可以为静态图像(或称为静态画面)或动态图像(或称为动态画面),例如,本申请中的图像可以为视频或动态图片,或者,本申请中的图像也可以为静态图片或照片。为了便于描述,本申请在下述实施例中将静态图像或动态图像统一称为图像。
本申请实施例的方法可以具体应用到拍照和图像识别场景中,下面对这两种场景进行详细的介绍。
拍照:
用户利用手机等终端进行拍照时,手机直接获取的图像原始数据(RAW)包含噪声而且每个像素只包含一个颜色,用户可以通过本申请实施例的方法对图像原始数据进行去噪处理及去马赛克处理,以获得正常的彩色图像,从而为用户提供更好的视觉体验。
或者,用户在拍摄远距离或者微小物体时,拍摄得到的图像分辨率比较低,细节不清晰。用户可以使用本申请实施例的方法在手机上直接进行图像超分,将低分辨率的图像转换成高分辨率图像,让拍摄到的物体更加清晰,从而提升用户体验。
图像识别:
用户在拍照时,可以利用本申请实施例的图像复原方法对拍摄的照片进行图像复原处理,以使得图像复原后的照片更加清晰、色彩更加丰富,此时,对图像复原后的照片进行识别,可以提高图像识别的准确率,从而可以提高用户体验。
例如,可以先利用本申请实施例的图像复原方法对拍摄的照片进行图像复原处理,再对图像复原后的照片进行识别,此时,可以自动识别出被拍物体是花卉、动物等。进一步地,也识别出该物体所属的类别,例如,用户拍照得到的照片中包括共享单车,可以识别出该物体属于自行车,进一步地,还可以显示自行车的相关信息。通过本申请实施例的方法对拍摄的照片进行图像复原,可以提高图像识别的准确率,从而可以提高用户体验。
应理解,上文介绍的拍照和图像识别只是本申请实施例的方法所应用的两个具体场景,本申请实施例的方法在应用时并不限于上述两个场景,本申请实施例的方法能够应用到任何需要进行图像处理或者图像复原的场景中,例如,人脸识别。或者,本申请实施例中的方法也可以类似地应用于其他领域,例如,语音识别及自然语言处理等,本申请实施例中对此并不限定。
需要说明的是,图像复原是底层视觉任务中的重要问题,本申请实施例中提到的图像复原可以包含以下几项:
图像去噪(image denoising),图像去马赛克(image demosaicing),图像超分(image super-resolution)、图像去模糊(image deblurring)及其他底层视觉任务等。
本申请实施例涉及了大量神经网络的相关应用,为了更好地理解本申请实施例的方案,下面先对本申请实施例可能涉及的神经网络的相关术语和概念进行介绍。
(1)神经网络
神经网络可以是由神经单元组成的,神经单元可以是指以xs和截距1为输入的运算单元,该运算单元的输出可以如下述公式所示:
其中,s=1、2、……n,n为大于1的自然数,Ws为xs的权重,b为神经单元的偏置。f为神经单元的激活函数(activation functions),用于将非线性特性引入神经网络中,来将神经单元中的输入信号转换为输出信号。该激活函数的输出信号可以作为下一层卷积层的输入,激活函数可以是sigmoid函数。神经网络是将多个上述单一的神经单元联结在一起形成的网络,即一个神经单元的输出可以是另一个神经单元的输入。每个神经单元的输入可以与前一层的局部接受域相连,来提取局部接受域的特征,局部接受域可以是由若干个神经单元组成的区域。
(2)深度神经网络
深度神经网络(deep neural network,DNN),也称多层神经网络,可以理解为具有多层隐含层的神经网络。按照不同层的位置对DNN进行划分,DNN内部的神经网络可以分为三类:输入层,隐含层,输出层。一般来说第一层是输入层,最后一层是输出层,中间的层数都是隐含层。层与层之间是全连接的,也就是说,第i层的任意一个神经元一定与第i+1层的任意一个神经元相连。
虽然DNN看起来很复杂,但是就每一层的工作来说,其实并不复杂,简单来说就是如下线性关系表达式:其中,是输入向量,是输出向量,是偏移向量,W是权重矩阵(也称系数),α()是激活函数。每一层仅仅是对输入向量经过如此简单的操作得到输出向量由于DNN层数多,系数W和偏移向量的数量也比较多。这些参数在DNN中的定义如下所述:以系数W为例:假设在一个三层的DNN中,第二层的第4个神经元到第三层的第2个神经元的线性系数定义为上标3代表系数W所在的层数,而下标对应的是输出的第三层索引2和输入的第二层索引4。
需要注意的是,输入层是没有W参数的。在深度神经网络中,更多的隐含层让网络更能够刻画现实世界中的复杂情形。理论上而言,参数越多的模型复杂度越高,“容量”也就越大,也就意味着它能完成更复杂的学习任务。训练深度神经网络的也就是学习权重矩阵的过程,其最终目的是得到训练好的深度神经网络的所有层的权重矩阵(由很多层的向量W形成的权重矩阵)。
(3)卷积神经网络
卷积神经网络(convolutional neuron network,CNN)是一种带有卷积结构的深度神经网络。卷积神经网络包含了一个由卷积层和子采样层构成的特征抽取器,该特征抽取器可以看作是滤波器。卷积层是指卷积神经网络中对输入信号进行卷积处理的神经元层。在卷积神经网络的卷积层中,一个神经元可以只与部分邻层神经元连接。一个卷积层中,通常包含若干个特征平面,每个特征平面可以由一些矩形排列的神经单元组成。同一特征平面的神经单元共享权重,这里共享的权重就是卷积核。共享权重可以理解为提取图像信息的方式与位置无关。卷积核可以以随机大小的矩阵的形式初始化,在卷积神经网络的训练过程中卷积核可以通过学习得到合理的权重。另外,共享权重带来的直接好处是减少卷积神经网络各层之间的连接,同时又降低了过拟合的风险。
(4)循环神经网络(recurrent neural networks,RNN)是用来处理序列数据的。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,而对于每一层层内之间的各个节点是无连接的。这种普通的神经网络虽然解决了很多难题,但是却仍然对很多问题无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐含层本层之间的节点不再无连接而是有连接的,并且隐含层的输入不仅包括输入层的输出还包括上一时刻隐含层的输出。理论上,RNN能够对任何长度的序列数据进行处理。对于RNN的训练和对传统的CNN或DNN的训练一样。
既然已经有了卷积神经网络,为什么还要循环神经网络?原因很简单,在卷积神经网络中,有一个前提假设是:元素之间是相互独立的,输入与输出也是独立的,比如猫和狗。但现实世界中,很多元素都是相互连接的,比如股票随时间的变化,再比如一个人说了:我喜欢旅游,其中最喜欢的地方是云南,以后有机会一定要去。这里填空,人类应该都知道是填“云南”。因为人类会根据上下文的内容进行推断,但如何让机器做到这一步?RNN就应运而生了。RNN旨在让机器像人一样拥有记忆的能力。因此,RNN的输出就需要依赖当前的输入信息和历史的记忆信息。
(5)损失函数
在训练深度神经网络的过程中,因为希望深度神经网络的输出尽可能的接近真正想要预测的值,所以可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量(当然,在第一次更新之前通常会有初始化的过程,即为深度神经网络中的各层预先配置参数),比如,如果网络的预测值高了,就调整权重向量让它预测低一些,不断地调整,直到深度神经网络能够预测出真正想要的目标值或与真正想要的目标值非常接近的值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(loss function)或目标函数(objective function),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么深度神经网络的训练就变成了尽可能缩小这个loss的过程。
(6)反向传播算法
神经网络可以采用误差反向传播(back propagation,BP)算法在训练过程中修正初始的神经网络模型中参数的大小,使得神经网络模型的重建误差损失越来越小。具体地,前向传递输入信号直至输出会产生误差损失,通过反向传播误差损失信息来更新初始的神经网络模型中参数,从而使误差损失收敛。反向传播算法是以误差损失为主导的反向传播运动,旨在得到最优的神经网络模型的参数,例如权重矩阵。
(7)像素值
图像的像素值可以是一个红绿蓝(RGB)颜色值,像素值可以是表示颜色的长整数。例如,像素值为256*Red+100*Green+76Blue,其中,*表示乘法运算,Blue代表蓝色分量,Green代表绿色分量,Red代表红色分量。各个颜色分量中,数值越小,亮度越低,数值越大,亮度越高。对于灰度图像来说,像素值可以是灰度值。
如图1所示,本申请实施例提供了一种系统架构100。在图1中,数据采集设备160用于采集训练数据。针对本申请实施例的训练神经网络的方法来说,训练数据可以包括训练图像以及该训练图像对应的真值(ground truth,GT),其中,该训练图像对应的真值可以是由人工预先处理后得到的处理效果较好的图像处理结果,例如,该训练图像对应的真值可以是由人工预先处理后得到的图像复原效果较好的图像复原结果。
在采集到训练数据之后,数据采集设备160将这些训练数据存入数据库130,训练设备120基于数据库130中维护的训练数据训练得到目标模型/规则101。
下面对训练设备120基于训练数据得到目标模型/规则101进行描述,训练设备120对输入的训练图像进行处理,得到该训练图像的处理结果,将该训练图像的处理结果与该训练图像对应的真值进行对比,直到训练设备120输出的该训练图像的处理结果与该训练图像对应的真值之间的差值小于一定的阈值,从而完成目标模型/规则101(即神经网络)的训练。
上述目标模型/规则101能够用于实现训练后得到的神经网络,即,将待处理图像通过相关预处理后输入该目标模型/规则101,即可预测得到该待处理图像的处理结果。
需要说明的是,在实际的应用中,所述数据库130中维护的训练数据不一定都来自于数据采集设备160的采集,也有可能是从其他设备接收得到的。另外需要说明的是,训练设备120也不一定完全基于数据库130维护的训练数据进行目标模型/规则101的训练,也有可能从云端或其他地方获取训练数据进行模型训练,上述描述不应该作为对本申请实施例的限定。
根据训练设备120训练得到的目标模型/规则101可以应用于不同的系统或设备中,如应用于图1所示的执行设备110,所述执行设备110可以是终端,如手机终端,平板电脑,笔记本电脑,增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR),车载终端等,还可以是服务器或者云端设备等。在图1中,执行设备110配置输入/输出(input/output,I/O)接口112,用于与外部设备进行数据交互,用户可以通过客户设备140向I/O接口112输入数据,所述输入数据在本申请实施例中可以包括:客户设备输入的网络结构。
预处理模块113和预处理模块114用于根据I/O接口112接收到的输入数据(如待处理图像)进行预处理,在本申请实施例中,也可以没有预处理模块113和预处理模块114(也可以只有其中的一个预处理模块),而直接采用计算模块111对输入数据进行处理。
在执行设备110对输入数据进行预处理,或者在执行设备110的计算模块111执行计算等相关的处理过程中,执行设备110可以调用数据存储系统150中的数据、代码等以用于相应的处理,也可以将相应处理得到的数据、指令等存入数据存储系统150中。
最后,I/O接口112将处理结果,如上述得到的待处理图像的处理结果返回给客户设备140,从而提供给用户。
值得说明的是,训练设备120可以针对不同的目标或称不同的任务,基于不同的训练数据生成相应的目标模型/规则101,该相应的目标模型/规则101即可以用于实现上述目标或完成上述任务,从而为用户提供所需的结果。
例如,本申请实施例中的目标模型/规则101具体也可以为本申请实施例中的图像处理装置(比如,图像超分装置、图像去噪装置、图像去马赛克装置及图像去模糊装置)。针对图像处理装置来说,训练数据可以包括训练图像以及该训练图像对应的真值。
在图1所示情况下,用户可以手动给定输入数据,该手动给定可以通过I/O接口112提供的界面进行操作。另一种情况下,客户设备140可以自动地向I/O接口112发送输入数据,如果要求客户设备140自动发送输入数据需要获得用户的授权,则用户可以在客户设备140中设置相应权限。用户可以在客户设备140查看执行设备110输出的结果,具体的呈现形式可以是显示、声音、动作等具体方式。客户设备140也可以作为数据采集端,采集如图所示输入I/O接口112的输入数据及输出I/O接口112的输出结果作为新的样本数据,并存入数据库130。当然,也可以不经过客户设备140进行采集,而是由I/O接口112直接将如图所示输入I/O接口112的输入数据及输出I/O接口112的输出结果,作为新的样本数据存入数据库130。
值得注意的是,图1仅是本申请实施例提供的一种系统架构的示意图,图中所示设备、器件、模块等之间的位置关系不构成任何限制,例如,在图1中,数据存储系统150相对执行设备110是外部存储器,在其它情况下,也可以将数据存储系统150置于执行设备110中。
如图1所示,根据训练设备120训练得到目标模型/规则101,该目标模型/规则101在本申请实施例中可以是基于本申请中的训练神经网络的方法训练后得到的神经网络,或者,该目标模型/规则101在本申请实施例中也可以是本申请实施例中的图像处理装置(比如,图像超分装置、图像去噪装置、图像去马赛克装置及图像去模糊装置)。
具体地,基于本申请中的训练神经网络的方法训练后得到的神经网络可以用于图像处理、语音处理及自然语言处理等。例如,该神经网络可以为加法神经网络(adderneural networks,AdderNet)、卷积神经网络(convolutional neural networks,CNN)、深度卷积神经网络(deep convolutional neural networks,DCNN)和/或循环神经网络(recurrent neural network,RNNS)等等。
其中,加法神经网络可以是指Chen等人提出的加法神经网络。该加法神经网络可以使用更加的廉价的加法操作来构建神经网络,以降低网络的计算功耗(CVPR 2020),具体可以参考现有技术,这里不再赘述。
由于CNN是一种非常常见的神经网络,下面结合图2,以图像处理为例,对神经网络的结构进行详细的介绍。
如上文的基础概念介绍所述,卷积神经网络是一种带有卷积结构的深度神经网络,是一种深度学习(deep learning)架构,深度学习架构是指通过机器学习的算法,在不同的抽象层级上进行多个层次的学习。作为一种深度学习架构,CNN是一种前馈(feed-forward)人工神经网络,该前馈人工神经网络中的各个神经元可以对输入其中的数据(例如图像)作出响应。
如图2所示,卷积神经网络(CNN)200可以包括输入层210,卷积层/池化层220(其中池化层为可选的),以及神经网络层230。下面对这些层的相关内容做详细介绍。
卷积层/池化层220:
卷积层:
如图2所示卷积层/池化层220可以包括如示例221-226层,举例来说:在一种实现方式中,221层为卷积层,222层为池化层,223层为卷积层,224层为池化层,225为卷积层,226为池化层;在另一种实现方式中,221、222为卷积层,223为池化层,224、225为卷积层,226为池化层。即卷积层的输出可以作为随后的池化层的输入,也可以作为另一个卷积层的输入以继续进行卷积操作。
下面将以卷积层221为例,介绍一层卷积层的内部工作原理。
卷积层221可以包括很多个卷积算子,卷积算子也称为核,其在图像处理中的作用相当于一个从输入图像矩阵中提取特定信息的过滤器,卷积算子本质上可以是一个权重矩阵,这个权重矩阵通常被预先定义,在对图像进行卷积操作的过程中,权重矩阵通常在输入图像上沿着水平方向一个像素接着一个像素(或两个像素接着两个像素……这取决于步长stride的取值)的进行处理,从而完成从图像中提取特定特征的工作。该权重矩阵的大小应该与图像的大小相关,需要注意的是,权重矩阵的纵深维度(depth dimension)和输入图像的纵深维度是相同的,在进行卷积运算的过程中,权重矩阵会延伸到输入图像的整个深度。因此,和一个单一的权重矩阵进行卷积会产生一个单一纵深维度的卷积化输出,但是大多数情况下不使用单一权重矩阵,而是应用多个尺寸(行×列)相同的权重矩阵,即多个同型矩阵。每个权重矩阵的输出被堆叠起来形成卷积图像的纵深维度,这里的维度可以理解为由上面所述的“多个”来决定。不同的权重矩阵可以用来提取图像中不同的特征,例如一个权重矩阵用来提取图像边缘信息,另一个权重矩阵用来提取图像的特定颜色,又一个权重矩阵用来对图像中不需要的噪点进行模糊化等。该多个权重矩阵尺寸(行×列)相同,经过该多个尺寸相同的权重矩阵提取后的特征图的尺寸也相同,再将提取到的多个尺寸相同的特征图合并形成卷积运算的输出。
这些权重矩阵中的权重值在实际应用中需要经过大量的训练得到,通过训练得到的权重值形成的各个权重矩阵可以用来从输入图像中提取信息,从而使得卷积神经网络200进行正确的预测。
当卷积神经网络200有多个卷积层的时候,初始的卷积层(例如221)往往提取较多的一般特征,该一般特征也可以称之为低级别的特征;随着卷积神经网络200深度的加深,越往后的卷积层(例如226)提取到的特征越来越复杂,比如高级别的语义之类的特征,语义越高的特征越适用于待解决的问题。
池化层/池化层220:
由于常常需要减少训练参数的数量,因此卷积层之后常常需要周期性的引入池化层,在如图2中220所示例的221-226各层,可以是一层卷积层后面跟一层池化层,也可以是多层卷积层后面接一层或多层池化层。在图像处理过程中,池化层的唯一目的就是减少图像的空间大小。池化层可以包括平均池化算子和/或最大池化算子,以用于对输入图像进行采样得到较小尺寸的图像。平均池化算子可以在特定范围内对图像中的像素值进行计算产生平均值作为平均池化的结果。最大池化算子可以在特定范围内取该范围内值最大的像素作为最大池化的结果。另外,就像卷积层中用权重矩阵的大小应该与图像尺寸相关一样,池化层中的运算符也应该与图像的大小相关。通过池化层处理后输出的图像尺寸可以小于输入池化层的图像的尺寸,池化层输出的图像中每个像素点表示输入池化层的图像的对应子区域的平均值或最大值。
神经网络层230:
在经过卷积层/池化层220的处理后,卷积神经网络200还不足以输出所需要的输出信息。因为如前所述,卷积层/池化层220只会提取特征,并减少输入图像带来的参数。然而为了生成最终的输出信息(所需要的类信息或其他相关信息),卷积神经网络200需要利用神经网络层230来生成一个或者一组所需要的类的数量的输出。因此,在神经网络层230中可以包括多层隐含层(如图2所示的231、232至23n)以及输出层240,该多层隐含层中所包含的参数可以根据具体的任务类型的相关训练数据进行预先训练得到,例如该任务类型可以包括图像识别,图像分类,图像超分辨率重建等等。
在神经网络层230中的多层隐含层之后,也就是整个卷积神经网络200的最后层为输出层240,该输出层240具有类似分类交叉熵的损失函数,具体用于计算预测误差,一旦整个卷积神经网络200的前向传播(如图2由210至240方向的传播为前向传播)完成,反向传播(如图2由240至210方向的传播为反向传播)就会开始更新前面提到的各层的权重值以及偏差,以减少卷积神经网络200的损失,及卷积神经网络200通过输出层输出的结果和理想结果之间的误差。
需要说明的是,如图2所示的卷积神经网络200仅作为一种卷积神经网络的示例,在具体的应用中,卷积神经网络还可以以其他网络模型的形式存在。
例如,上述图2中的神经网络200也可以为加法神经网络,加法神经网络的结构与图2中的神经网络200的结构类似。对于加法神经网络而言,上述图2中的卷积层也可以称为特征提取层或加法滤波层,相应地,加法神经网络中的各特征提取层或加法滤波层中的处理也可以称为特征提取处理或加法滤波处理,关于特征提取处理或加法滤波处理的详细描述可以参见现有技术,这里不再赘述。
需要说明的是,加法神经网络与神经网络200的区别主要是:神经网络200中的各卷积层通过卷积操作从输入图像矩阵中提取特征信息,而加法神经网络中的各层(即特征提取层或加法滤波层)通过加法操作(或减法操作)及取绝对值操作从输入图像矩阵中提取特征信息,其中,加法操作(或减法操作)及取绝对值操作也可以称为特征提取处理或加法滤波处理,这里并不限定。
关于加法神经网络及加法神经网络中各层的特征提取处理或加法滤波处理的详细描述可以参见现有技术,这里不再赘述。
在本申请实施例中,基于本申请中的训练神经网络的方法训练后得到的神经网络可以用于图像处理(例如,图像复原),该神经网络的网络结构可以如图2所示中的卷积神经网络200所示。
或者,本申请实施例中的图像处理装置(比如,图像超分装置、图像去噪装置、图像去马赛克装置及图像去模糊装置)可以包括图2所示的卷积神经网络200,该图像处理装置可以用于对待处理图像进行图像处理(例如,图像复原),得到待处理图像的图像处理结果。
图3为本申请实施例提供的一种芯片硬件结构,该芯片包括神经网络处理器50。该芯片可以被设置在如图1所示的执行设备110中,用以完成计算模块111的计算工作。该芯片也可以被设置在如图1所示的训练设备120中,用以完成训练设备120的训练工作并输出目标模型/规则101。如图2所示的神经网络中各层的算法均可在如图3所示的芯片中得以实现。
神经网络处理器NPU 50作为协处理器挂载到主CPU(host CPU)上,由主CPU分配任务。NPU的核心部分为运算电路503,控制器504控制运算电路503提取存储器(权重存储器或输入存储器)中的数据并进行运算。
在一些实现方式中,运算电路503内部包括多个处理单元(process engine,PE)。在一些实现方式中,运算电路503是二维脉动阵列。运算电路503还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现方式中,运算电路503是通用的矩阵处理器。
举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路503从权重存储器502中取矩阵B相应的数据,并缓存在运算电路503中每一个PE上。运算电路503从输入存储器501中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器(accumulator)508中。
向量计算单元507可以对运算电路503的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。例如,向量计算单元507可以用于神经网络中非卷积/非FC层的网络计算,如池化(pooling),批归一化(batch normalization),局部响应归一化(local response normalization)等。
在一些实现方式中,向量计算单元能507将经处理的输出的向量存储到统一缓存器506。例如,向量计算单元507可以将非线性函数应用到运算电路503的输出,例如累加值的向量,用以生成激活值。在一些实现方式中,向量计算单元507生成归一化的值、合并值,或二者均有。在一些实现方式中,处理过的输出的向量能够用作到运算电路503的激活输入,例如用于在神经网络中的后续层中的使用。
统一存储器506用于存放输入数据以及输出数据。
权重数据直接通过存储单元访问控制器505(direct memory accesscontroller,DMAC)将外部存储器中的输入数据搬运到输入存储器501和/或统一存储器506、将外部存储器中的权重数据存入权重存储器502,以及将统一存储器506中的数据存入外部存储器。
总线接口单元(bus interface unit,BIU)510,用于通过总线实现主CPU、DMAC和取指存储器509之间进行交互。
与控制器504连接的取指存储器(instruction fetch buffer)509,用于存储控制器504使用的指令;
控制器504,用于调用指存储器509中缓存的指令,实现控制该运算加速器的工作过程。
一般地,统一存储器506,输入存储器501,权重存储器502以及取指存储器509均为片上(On-Chip)存储器,外部存储器为该NPU外部的存储器,该外部存储器可以为双倍数据率同步动态随机存储器(double data rate synchronous dynamic random accessmemory,DDR SDRAM)、高带宽存储器(high bandwidth memory,HBM)或其他可读可写的存储器。
其中,图2所示的卷积神经网络中各层的运算可以由运算电路503或向量计算单元307执行。
上文中介绍的图1中的训练设备120能够执行本申请实施例的训练神经网络的方法的各个步骤,图1中的执行设备110能够执行本申请实施例的图像处理方法(比如,图像超分方法、图像去噪方法、图像去马赛克方法及图像去模糊方法)的各个步骤,图2所示的神经网络模型和图3所示的芯片也可以用于执行本申请实施例的图像处理方法的各个步骤,图3所示的芯片也可以用于执行本申请实施例的训练神经网络的方法的各个步骤。
如图4所示,本申请实施例提供了一种系统架构300。该系统架构包括本地设备301、本地设备302以及执行设备210和数据存储系统250,其中,本地设备301和本地设备302通过通信网络与执行设备210连接。
执行设备210可以由一个或多个服务器实现。可选的,执行设备210可以与其它计算设备配合使用,例如:数据存储器、路由器、负载均衡器等设备。执行设备210可以布置在一个物理站点上,或者分布在多个物理站点上。执行设备210可以使用数据存储系统250中的数据,或者调用数据存储系统250中的程序代码来实现本申请实施例的训练神经网络的方法或图像处理方法(比如,图像超分方法、图像去噪方法、图像去马赛克方法及图像去模糊方法)。
具体地,执行设备210可以执行以下过程:
获取训练图像的输入特征图;使用神经网络的特征提取核,对所述输入特征图进行特征提取处理,得到第一候选特征图,所述特征提取处理使得所述第一候选特征图中的每个元素为所述特征提取核与所述输入特征图中对应位置的数据的L1正则距离;将所述第一候选特征图与第二候选特征图相加,得到输出特征图,所述第二候选特征图为所述输入特征图扩大N倍后得到的特征图,N大于0;根据所述输出特征图确定所述训练图像的图像处理结果;根据所述图像处理结果,调整所述神经网络的参数。
通过上述过程执行设备210能够训练得到一个神经网络,神经网络可以用于图像处理、语音处理及自然语言处理等,例如,该神经网络可以用于实现本申请实施例中的图像超分方法、图像去噪方法、图像去马赛克方法及图像去模糊方法。
或者,通过上述过程执行设备210能够搭建成一个图像处理装置,该图像处理装置可以用于图像处理(例如,可以用于实现本申请实施例中的图像超分方法、图像去噪方法、图像去马赛克方法及图像去模糊方法)。
用户可以操作各自的用户设备(例如本地设备301和本地设备302)与执行设备210进行交互。每个本地设备可以表示任何计算设备,例如个人计算机、计算机工作站、智能手机、平板电脑、智能摄像头、智能汽车或其他类型蜂窝电话、媒体消费设备、可穿戴设备、机顶盒、游戏机等。
每个用户的本地设备可以通过任何通信机制/通信标准的通信网络与执行设备210进行交互,通信网络可以是广域网、局域网、点对点连接等方式,或它们的任意组合。
在一种实现方式中,本地设备301、本地设备302从执行设备210获取到神经网络的相关参数,将神经网络部署在本地设备301、本地设备302上,利用该神经网络对待处理图像进行图像处理,得到待处理图像的处理结果。
在另一种实现中,执行设备210上可以直接部署神经网络,执行设备210通过从本地设备301和本地设备302获取待处理图像,并利用该神经网络对待处理图像进行图像处理,得到待处理图像的处理结果。
在一种实现方式中,本地设备301、本地设备302从执行设备210获取到图像处理装置的相关参数,将图像处理装置部署在本地设备301、本地设备302上,利用该图像处理装置对待处理图像进行图像处理,得到待处理图像的处理结果。
在另一种实现中,执行设备210上可以直接部署图像处理装置,执行设备210通过从本地设备301和本地设备302获取待处理图像,并利用该图像处理装置对待处理图像进行图像处理,得到待处理图像的处理结果。
也就是说,上述执行设备210也可以为云端设备,此时,执行设备210可以部署在云端;或者,上述执行设备210也可以为终端设备,此时,执行设备210可以部署在用户终端侧,本申请实施例对此并不限定。
下面结合附图对本申请实施例的训练神经网络的方法及图像处理方法(例如,图像处理方法可以包括图像超分方法、图像去噪方法、图像去马赛克方法及图像去模糊方法)进行详细的介绍。
图5为本申请的训练神经网络的方法的一个示意性流程图。图5中的训练神经网络的方法500可以包括步骤510、步骤520、步骤530、步骤540及步骤550。应理解,图5中方法500训练得到的神经网络可以为加法神经网络(Adder Neural Networks,AdderNet)。
在一些示例中,该方法500可以由图1中的执行设备120、图3所示的芯片以及图4中的执行设备210等设备执行。
S510,获取训练图像的输入特征图。
其中,该训练图像可以是终端设备通过摄像头拍摄到的图像,或者,该训练图像也可以是从终端设备内部获得的图像(例如,终端设备的相册中存储的图像,或者终端设备从云端获取的图像),相应地,训练图像的输入特征图可以为该图像的特征图。
或者,该训练图像的输入特征图还可以是神经网络中的其他层处理后得到的特征图,该神经网络可以为加法神经网络。
本申请实施例中的加法神经网络可以包括一个或多个特征提取层或加法滤波层,还可以包括图2中所示的输入层、池化层、全连接层、隐含层或输出层等其他层,本申请实施例中对此并不限定。
应理解,这里所说的神经网络中的其他层可以是指神经网络中的一个层,例如,该其他层可以是图2所示的神经网络中的输入层、卷积层、池化层、全连接层、隐含层或输出层中的任意一个。
S520,使用神经网络的特征提取核,对所述输入特征图进行特征提取处理,得到第一候选特征图。
其中,所述特征提取处理可以使得所述第一候选特征图中的每个元素为所述特征提取核与所述输入特征图中对应位置的数据的L1正则距离。
可选地,所述L1正则距离也可以称为L1距离、L1范数距离、曼哈顿距离或出租车距离。
需要说明的是,所述神经网络中可以包括多个特征提取层(或称加法滤波层),每一个特征提取层都可以包括一个或多个特征提取核。即所述神经网络中可以包括多个特征提取核,相应地,可以利用该多个特征提取核对输入特征图进行多次特征提取处理,以得到多个输出特征图。也就是说,利用该多个特征提取核中的每一个特征提取核,都可以对输入特征图进行一次特征提取处理,相应地,可以得到一个输出特征图。
例如,如图8所示,神经网络800可以包括特征提取单元、多个加法神经网络基本单元及图像重构单元,其中,所述多个加法神经网络基本单元中的每个加法神经网络基本单元可以包括一个或多个特征提取核。所述神经网络中的特征提取层可以为图8中的神经网络800中的任意一个加法神经网络基本单元。
其中,图8中的神经网络800中的一个或多个加法神经网络基本单元可以为图9所示的自连接加法单元(self-shortcut adder layer),如图9所示,该自连接加法单元中可以包括一个激活函数(activation function)。
可选地,所示激活函数可以为Sigmoid函数、tanh函数、Relu函数等非线性激活函数,或者,也可以为下述S530中提到的幂激活函数(learnable power activation),或者,还可以为其他功能的激活函数(例如,可以增强特征图中的低频纹理信息等的激活函数),本申请实施例中对此并不限定。
或者,图9所示的自连接加法单元中也可以不包括激活函数,本申请实施例中对此并不限定。
上述S520中的特征提取核可以是神经网络包括的多个特征提取核中的一个,相应地,上述S520中的特征提取处理可以多次特征提取中的一次。
例如,假设神经网络包括10个特征提取核,那么在对待处理图像进行图像复原时,可以利用这10个特征提取核,分别对训练图像的输入特征图进行10次特征提取处理。相应地,可以分别得到10个第一候选特征图。
下面结合图6对上述S520中的特征提取处理进行详细说明。所述特征提取处理可以包括一个或多个特征提取操作。
例如,如图6所示,特征提取核和输入特征图(比如,所述训练图像的输入特征图)中滑动窗口(这里的滑动窗口即输入特征图中的黑色加粗方框,滑动窗口的起始位置可以为输入特征图的左上角位置)中对应位置的元素组成的矩阵进行特征提取操作。
在本申请中,输入特征图中滑动窗口中对应元素组成的矩阵也可以称为输入子特征图。随着滑动窗口在输入特征图宽度或高度方向上滑动,可以得到多个输入子特征图。因此,也可以说输入特征图包括多个输入子特征图。
可选地,本申请实施例中的特征提取操作可以是指:特征提取核与输入子特征图中对应位置的元素相减得到目标矩阵,目标矩阵中的各个元素取绝对值后再求和。
即,本申请实施例中的特征提取操作可以看作是:计算特征提取核与输入子特征图之间的L1正则距离。
或者,本申请实施例中的特征提取操作可以是指:特征提取核与输入子特征图中对应位置的元素相加得到目标矩阵,目标矩阵中的各个元素取绝对值后再求和。
换句话说,在本申请实施例中,目标矩阵是由其对应的输入子特征图与特征提取核进行矩阵加法或矩阵减法得到的。
图6中所示的特征提取操作的结果为26,经过图6所示的特征提取操作后,输入特征图中的滑动窗口可以沿着输入特征图的宽度方向或高度方向上滑动,继续进行下一次卷积操作,其中,每次滑动的距离为1(即宽度和高度方向上的滑动步长均为1),直到完成对该输入图像的一次特征提取处理,得到图6中所示的3×3×1的输出特征图。
可以看出,图6所示的特征提取处理可以包括多个特征提取操作,即图6所示的输出特征图(比如,所述第一候选特征图)可以包括多个特征提取操作的结果。
还应理解,上文是以特征提取操作的滑动步长=1为例进行说明的,但本申请实施例不限于此,特征提取操作的滑动步长还可以为2,或也可以大于2。
需要说明的是,图6中所示的输出特征图仅为示例而非限定。图6中所示的输出特征图中的输出子特征图都是与特征提取核进行矩阵减法后得到的,该输出特征图中的一个或多个输出子特征图也可以是与特征提取核进行矩阵加法后得到的,本申请实施例对此并不限定。
例如,假设神经网络包括10个特征提取核,那么在对训练图像进行图像处理时,利用这10个特征提取核,分别对训练图像的输入特征图进行10次特征提取处理。
若训练图像的输入特征图如图6所示,在特征提取操作的滑动步长为1时,一次特征提取处理包括9次特征提取操作,则对该训练图像进行图像处理时,需要进行90次特征提取操作(10次特征提取处理*9次特征提取操作)。
图7为本申请中另一个实施例中的特征提取操作,图7中输入特征图(比如,所述训练图像的输入特征图)为5×5×3,该输入特征图填充的高度边界和宽度边界均为1个像素,得到7×7×3的输入特征图。
图7中特征提取核w0的尺寸为3×3×3,将该待处理图像的3张输入特征图(输入特征图1、输入特征图2和输入特征图3)分别与特征提取核的三层深度(卷积核w0-1、卷积核w0-2和卷积核w0-3)进行特征提取,得到输出特征图1(比如,所述第一候选特征图),该输出特征图1的尺寸为3×3×1。
具体地,w0的第一层深度(即w0-1)和输入特征图1中滑动窗口(这里的滑动窗口即输入特征图1中的黑色加粗方框,滑动窗口的起始位置可以为输入特征图的左上角位置)中对应位置的元素组成的矩阵进行特征提取操作。
如图7所示,特征提取核w0-1与输入特征图1中滑动窗口中对应位置的元素组成的矩阵相减得到目标矩阵w0-1,该目标矩阵w0-1中的各个元素取绝对值后再求和得到9,同理,特征提取核w0的其他两个深度(即w0-2和w0-3)分别与输入特征图2和输入特征图3进行特征提取操作,得到目标矩阵w0-2和目标矩阵w0-3,从而得到10和10,则图1中输出特征图1的第一个元素为9+10+10=29。经过特征提取核w0的第一次特征提取操作后,滑动窗口依次沿着每个输入特征图的宽度方向或高度方向上滑动,继续进行下一次特征提取操作,其中,每次滑动的距离为2(即宽度和高度方向上的滑动步长均为2),直到完成对该输入图像的特征提取操作,得到3×3×1的输出特征图1。
同理,若特征提取操作还采用另1个特征提取核w1对该输入图像进行特征提取,基于与特征提取核w0类似的过程,可以得到输出特征图2,该输出特征图2的尺寸为3×3×2。
可选地,还可以通过激活函数对该输出特征图1和该输出特征图2进行激活,得到激活后的输出特征图1和激活后的输出特征图2。
可选地,输入特征图(包括输入特征图1、输入特征图2和输入特征图3)中滑动窗口中对应元素组成的矩阵也可以称为输入子特征图,图7中所示的特征提取操作的输入子特征图为输入特征图1、输入特征图2和输入特征图3这三个特征图中的滑动窗口中对应元素组成的矩阵,即所述输入子特征图的尺寸为3×3×3。
类似地,图7中的目标矩阵为目标矩阵w0-1、目标矩阵w0-2和目标矩阵w0-3组成的矩阵,即所述目标矩阵的尺寸为3×3×3。
还应理解,上文是以特征提取操作的滑动步长=1为例进行说明的,但本申请实施例不限于此,特征提取操作的滑动步长还可以为2,或也可以大于2。
需要说明的是,图7中所示的输出特征图仅为示例而非限定。
例如,在本申请中,所述至少一个输出子特征图Y(m,n,t)可以是由所述至少一个输入子特征图与所述特征提取核进行矩阵加法得到的,具体可以如下公式所示:
或
再例如,所述至少一个输出子特征图Y(m,n,t)可以是由所述至少一个输入子特征图与所述特征提取核进行矩阵减法得到的,具体可以如下公式所示:
或
其中,|(·)|为取绝对值运算,∑(·)为求和运算,Y(m,n,t)为所述至少一个输出子特征图,Y(m,n,t)为所述输出特征图中第m行、第n列及第t页的元素,X(m+i,n+j,k)为所述至少一个输入子特征图中的第i行、第j列及第k页的元素,F(i,j,k,t)为所述特征提取核中的第i行、第j列及第k页的元素,t为所述特征提取核的通道数,d为所述特征提取核的行数,C为所述输入特征图的通道数,d、C、i、j、k、m、n、t均为整数。
S530,将所述第一候选特征图与第二候选特征图相加,得到输出特征图。
其中,所述第二候选特征图可以为所述输入特征图中的每个元素对应的数值扩大N倍后得到的特征图,N大于0。
可以看出,上述S530相当于对所述第一候选特征图与所述第二候选特征图进行矩阵加法。
特别地,当N为1时,所述第二候选特征图即是所述输入特征图(因为,所述输入特征图扩大1倍后还是与所述输入特征图本身相同)。此时,对所述第一候选特征图与所述第二候选特征图进行矩阵加法,相当于,对所述第一候选特征图与所述输入特征图进行矩阵加法,或者,也可以理解为,对所述第一候选特征图与所述输入特征图进行残差连接。
可选地,如图9所示,所述将所述第一候选特征图与第二候选特征图相加,得到输出特征图,可以包括:
使用激活函数对所述第一候选特征图进行处理,得到处理后的所述第一候选特征图;将处理后的所述第一候选特征图与所述第二候选特征图相加,得到输出特征图。
进一步地,所述使用激活函数对所述第一候选特征图进行处理,可以包括:
使用幂激活函数(learnable power activation)增强所述第一候选特征图的高频纹理信息。
此时,所述神经网络的参数可以包括所述幂激活函数的参数。
例如,所述幂激活函数可以为:
其中,Y可以为所述第一候选特征图,sign(·)是符号函数,|·|为绝对值运算,α可以为所述幂激活函数的参数,α>0。
应理解,α为可以学习的参数。
S540,根据所述输出特征图确定所述训练图像的图像处理结果。
其中,所述图像处理包括图像超分处理、图像去噪处理、图像去马赛克处理及图像去模糊处理中的至少一种,相应地,所述图像处理结果可以为图像去噪(imagedenoising),图像去马赛克(image demosaicing),图像超分(image super-resolution)、图像去模糊(image deblurring)及其他底层视觉任务中的至少一种处理后得到的结果,本申请实施例中对此并不限定。
可选地,所述根据所述输出特征图确定所述训练图像的图像处理结果,可以包括:
使用激活函数对所述输出特征图进行处理,得到处理后的所述输出特征图;根据处理后的所述输出特征图确定所述训练图像的图像处理结果。
进一步地,所述使用激活函数对所述输出特征图进行处理,可以包括:
使用幂激活函数增强所述输出特征图的高频纹理信息,所述神经网络的参数包括所述幂激活函数的参数。
此时,所述神经网络的参数可以包括所述幂激活函数的参数。
例如,所述幂激活函数可以为:
其中,Y可以为所述输出特征图,sign(·)是符号函数,|·|为绝对值运算,α可以为所述幂激活函数的参数,α>0。
应理解,α为可以学习的参数。
需要说明的是,上述S530及S540中所示的幂激活函数仅为示例而限定,本申请实施例中对幂激活函数的具体形式并不限定。
S550,根据所述图像处理结果,调整所述神经网络的参数。
需要说明的是,所述神经网络的参数可以包括所述幂激活函数的参数。
例如,在上述S530中使用幂激活函数增强所述第一候选特征图的高频纹理信息的情况下,所述神经网络的参数可以包括上述S530中的幂激活函数的参数。
再例如,在上述S540中使用幂激活函数增强所述输出特征图的高频纹理信息的情况下,所述神经网络的参数可以包括上述S540中的幂激活函数的参数。
再例如,在上述S530及S540中均使用幂激活函数增强高频纹理信息的情况下,所述神经网络的参数可以包括上述S530及S540中的幂激活函数的参数。
下面以图像复原中常见的超分任务为例,对上述方法500训练后得到的神经网络的性能进行验证。
表1中分别示出了各模型在Set5、Set14、B100及Urban100等多个数据集上的峰值信噪比(peak signaltonoise ratio,PSNR)。
表1各模型进行图像超分的性能测试结果(尺度×2)
从表1中的测试结果可以看出,将现有的加法神经网络(即加法神经网络1,该模型不包括自连接加法单元或幂激活函数)直接应用到超分任务中,模型效果退化严重(PSNR衰减2dB以上)。
而在模型中使用本发明提出的自连接加法单元和幂激活函数后,模型(即上述方法500训练后得到的神经网络)的效果得到了大幅度的提升PSNR增加1.8dB以上。最终,同时包括自连接加法单元或幂激活函数的加法神经网络的效果与标准乘法卷积网络的PSNR差异缩小到0.2dB以内。
下述表2示出了各模型在Set5、Set14、B100及Urban100等多个数据集上进行不同尺度(scale)的图像超分的实验结果。
表2各模型进行不同尺度的图像超分的性能测试结果
从表2中的测试结果可以看出,通过上述方法500训练后得到的神经网络基本可以逼近标准乘法卷积神经网络的超分效果(平均差距在0.2dB以内)。
下述表3为各模型进行图像去噪去马赛克的性能测试结果。
表3各模型进行图像去噪去马赛克的性能测试结果
从表3中的测试结果可以看出,通过上述方法500训练后得到的神经网络基本可以逼近标准乘法卷积网络的效果(差距为0.23dB)。
除此之外,本申请实施例中还以输出图像大小为1280x720为例,对通过本申请实施例中的方法训练后得到的神经网络的能耗进行计算。其中,CNN为标准的乘法卷积神经网络,ANN为通过本申请实施例中的方法训练后得到的神经网络。
表4本申请实施例中的方法训练后得到的神经网络的能耗(尺度×2)
从表4中的测试结果可以看出,通过本申请实施例中的方法训练后得到的神经网络在保持模型精度的同时,能够有效减少模型60%的能耗。如果进一步对该神经网络进行8bit量化,则可以进一步获得3.8倍的能耗下降。
综上所述,通过本申请实施例中的方法训练后得到的神经网络基本可以达到与标准卷积神经网络相同的效果,与此同时,还能够大幅降低模型的能耗。
图10为本申请的图像处理方法的一个示意性流程图。图10中的方法1000包括步骤1010及步骤1020。
在一些示例中,该方法1000可以由图1中的执行设备120、图3所示的芯片以及图4中的执行设备210等设备执行。
S1010,获取待处理图像的输入特征图。
S1020,使用预设的神经网络对所述输入特征图进行图像处理,得到所述待处理图像的图像处理结果。
其中,所述神经网络可以是根据神经网络预测器确定的,所述神经网络预测器是通过上述图5中的方法500训练后得到的。
例如,所述神经网络的结构可以如上述图8中的神经网络800所示。
具体地,所述神经网络可以与图8中的神经网络800类似,包括一个或多个加法神经网络基本单元可以为图9所示的自连接加法单元(self-shortcut adder layer),如图9所示,该自连接加法单元中可以包括一个激活函数(activation function)。具体的描述可以参见上述方法500中的实施例,这里不再赘述。
图11是本申请实施例提供的训练神经网络的装置的硬件结构示意图。图11所示的训练神经网络的装置3000(该装置3000具体可以是一种计算机设备)包括存储器3001、处理器3002、通信接口3003以及总线3004。其中,存储器3001、处理器3002、通信接口3003通过总线3004实现彼此之间的通信连接。
存储器3001可以是只读存储器(read only memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(random access memory,RAM)。存储器3001可以存储程序,当存储器3001中存储的程序被处理器3002执行时,处理器3002用于执行本申请实施例的训练神经网络的方法的各个步骤。
处理器3002可以采用通用的中央处理器(central processing unit,CPU),微处理器,应用专用集成电路(application specific integrated circuit,ASIC),图形处理器(graphics processing unit,GPU)或者一个或多个集成电路,用于执行相关程序,以实现本申请方法实施例的训练神经网络的方法。
处理器3002还可以是一种集成电路芯片,具有信号的处理能力,例如,可以是图2所示的芯片。在实现过程中,本申请的训练神经网络的方法的各个步骤可以通过处理器3002中的硬件的集成逻辑电路或者软件形式的指令完成。
上述处理器3002还可以是通用处理器、数字信号处理器(digital signalprocessing,DSP)、专用集成电路(ASIC)、现成可编程门阵列(field programmable gatearray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器3001,处理器3002读取存储器3001中的信息,结合其硬件完成本训练神经网络的装置中包括的单元所需执行的功能,或者执行本申请方法实施例的训练神经网络的方法。
通信接口3003使用例如但不限于收发器一类的收发装置,来实现装置3000与其他设备或通信网络之间的通信。例如,可以通过通信接口3003获取待构建的神经网络预测器的信息以及训练神经网络的过程中需要的训练数据。
总线3004可包括在装置3000各个部件(例如,存储器3001、处理器3002、通信接口3003)之间传送信息的通路。
图12是本申请实施例的图像处理装置的硬件结构示意图。图12所示的图像处理装置4000包括存储器4001、处理器4002、通信接口4003以及总线4004。其中,存储器4001、处理器4002、通信接口4003通过总线4004实现彼此之间的通信连接。
存储器4001可以是ROM,静态存储设备和RAM。存储器4001可以存储程序,当存储器4001中存储的程序被处理器4002执行时,处理器4002和通信接口4003用于执行本申请实施例的图像处理方法的各个步骤。
处理器4002可以采用通用的,CPU,微处理器,ASIC,GPU或者一个或多个集成电路,用于执行相关程序,以实现本申请实施例的图像处理装置中的单元所需执行的功能,或者执行本申请方法实施例的图像处理方法。
处理器4002还可以是一种集成电路芯片,具有信号的处理能力,例如,可以是图2所示的芯片。在实现过程中,本申请实施例的图像处理方法的各个步骤可以通过处理器4002中的硬件的集成逻辑电路或者软件形式的指令完成。
上述处理器4002还可以是通用处理器、DSP、ASIC、FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器4001,处理器4002读取存储器4001中的信息,结合其硬件完成本申请实施例的图像处理装置中包括的单元所需执行的功能,或者执行本申请方法实施例的图像处理方法。
通信接口4003使用例如但不限于收发器一类的收发装置,来实现装置4000与其他设备或通信网络之间的通信。例如,可以通过通信接口4003获取待处理图像。
总线4004可包括在装置4000各个部件(例如,存储器4001、处理器4002、通信接口4003)之间传送信息的通路。
应理解,本申请实施例中的处理器可以为中央处理单元(central processingunit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
还应理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的随机存取存储器(random accessmemory,RAM)可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行所述计算机指令或计算机程序时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘。
应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系,但也可能表示的是一种“和/或”的关系,具体可参考前后文进行理解。
本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。
应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (20)
1.一种训练神经网络的方法,其特征在于,包括:
获取训练图像的输入特征图;
使用神经网络的特征提取核,对所述输入特征图进行特征提取处理,得到第一候选特征图,所述特征提取处理使得所述第一候选特征图中的每个元素为所述特征提取核与所述输入特征图中对应位置的数据的L1正则距离;
将所述第一候选特征图与第二候选特征图相加,得到输出特征图,所述第二候选特征图为所述输入特征图中的每个元素对应的数值扩大N倍后得到的特征图,N大于0;
根据所述输出特征图确定所述训练图像的图像处理结果;
根据所述图像处理结果,调整所述神经网络的参数。
2.根据权利要求1所述的方法,其特征在于,所述将所述第一候选特征图与第二候选特征图相加,得到输出特征图,包括:
使用激活函数对所述第一候选特征图进行处理,得到处理后的所述第一候选特征图;
将处理后的所述第一候选特征图与所述第二候选特征图相加,得到输出特征图。
3.根据权利要求2所述的方法,其特征在于,所述使用激活函数对所述第一候选特征图进行处理,包括:
使用幂激活函数增强所述第一候选特征图的高频纹理信息,所述神经网络的参数包括所述幂激活函数的参数。
4.根据权利要求1所述的方法,其特征在于,所述根据所述输出特征图确定所述训练图像的图像处理结果,包括:
使用激活函数对所述输出特征图进行处理,得到处理后的所述输出特征图;
根据处理后的所述输出特征图确定所述训练图像的图像处理结果。
5.根据权利要求4所述的方法,其特征在于,所述使用激活函数对所述输出特征图进行处理,包括:
使用幂激活函数增强所述输出特征图的高频纹理信息,所述神经网络的参数包括所述幂激活函数的参数。
7.一种图像处理方法,其特征在于,包括:
获取待处理图像的输入特征图;
使用预设的神经网络对所述输入特征图进行图像处理,得到所述待处理图像的图像处理结果;
其中,所述神经网络是通过所述权利要求1至6中任一项所述的方法训练后得到的。
8.根据权利要求7所述的方法,其特征在于,所述图像处理包括图像超分处理、图像去噪处理、图像去马赛克处理及图像去模糊处理中的至少一种。
9.一种训练神经网络的装置,其特征在于,包括:
获取单元,用于获取训练图像的输入特征图;
特征提取单元,用于使用神经网络的特征提取核,对所述输入特征图进行特征提取处理,得到第一候选特征图,所述特征提取处理使得所述第一候选特征图中的每个元素为所述特征提取核与所述输入特征图中对应位置的数据的L1正则距离;
处理单元,用于将所述第一候选特征图与第二候选特征图相加,得到输出特征图,所述第二候选特征图为所述输入特征图中的每个元素对应的数值扩大N倍后得到的特征图,N大于0;
图像处理单元,根据所述输出特征图确定所述训练图像的图像处理结果;
调整单元,用于根据所述图像处理结果,调整所述神经网络的参数。
10.根据权利要求9所述的装置,其特征在于,所述处理单元具体用于:
使用激活函数对所述第一候选特征图进行处理,得到处理后的所述第一候选特征图;
将处理后的所述第一候选特征图与所述第二候选特征图相加,得到输出特征图。
11.根据权利要求10所述的装置,其特征在于,所述处理单元具体用于:
使用幂激活函数增强所述第一候选特征图的高频纹理信息,所述神经网络的参数包括所述幂激活函数的参数。
12.根据权利要求9所述的装置,其特征在于,所述图像处理单元具体用于:
使用激活函数对所述输出特征图进行处理,得到处理后的所述输出特征图;
根据处理后的所述输出特征图确定所述训练图像的图像处理结果。
13.根据权利要求12所述的装置,其特征在于,所述图像处理单元具体用于:
使用幂激活函数增强所述输出特征图的高频纹理信息,所述神经网络的参数包括所述幂激活函数的参数。
15.一种图像处理装置,其特征在于,包括:
获取单元,用于获取待处理图像的输入特征图;
图像处理单元,用于使用预设的神经网络对所述输入特征图进行图像处理,得到所述待处理图像的图像处理结果;
其中,所述神经网络是通过所述权利要求1至6中任一项所述的方法训练后得到的。
16.根据权利要求15所述的装置,其特征在于,所述图像处理包括图像超分处理、图像去噪处理、图像去马赛克处理及图像去模糊处理中的至少一种。
17.一种训练神经网络的装置,其特征在于,包括处理器和存储器,所述存储器用于存储程序指令,所述处理器用于调用所述程序指令来执行权利要求1至6中任一项所述的方法。
18.一种图像处理装置,其特征在于,包括处理器和存储器,所述存储器用于存储程序指令,所述处理器用于调用所述程序指令来执行权利要求7或8所述的方法。
19.一种计算机可读存储介质,其特征在于,所述计算机可读介质存储用于设备执行的程序代码,该程序代码包括用于执行如权利要求1至8中任一项所述的方法。
20.一种芯片,其特征在于,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,以执行如权利要求求1至8中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010616988.XA CN111914997B (zh) | 2020-06-30 | 2020-06-30 | 训练神经网络的方法、图像处理方法及装置 |
EP21832925.8A EP4163832A4 (en) | 2020-06-30 | 2021-05-10 | TRAINING METHOD AND DEVICE FOR NEURONAL NETWORK AND IMAGE PROCESSING METHOD AND DEVICE |
PCT/CN2021/092581 WO2022001372A1 (zh) | 2020-06-30 | 2021-05-10 | 训练神经网络的方法、图像处理方法及装置 |
US18/147,371 US20230177641A1 (en) | 2020-06-30 | 2022-12-28 | Neural network training method, image processing method, and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010616988.XA CN111914997B (zh) | 2020-06-30 | 2020-06-30 | 训练神经网络的方法、图像处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111914997A true CN111914997A (zh) | 2020-11-10 |
CN111914997B CN111914997B (zh) | 2024-04-02 |
Family
ID=73227072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010616988.XA Active CN111914997B (zh) | 2020-06-30 | 2020-06-30 | 训练神经网络的方法、图像处理方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230177641A1 (zh) |
EP (1) | EP4163832A4 (zh) |
CN (1) | CN111914997B (zh) |
WO (1) | WO2022001372A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112465932A (zh) * | 2020-12-10 | 2021-03-09 | 上海眼控科技股份有限公司 | 一种图像填充方法、装置、设备及存储介质 |
CN112699842A (zh) * | 2021-01-13 | 2021-04-23 | 上海镜河科技有限公司 | 宠物识别方法、装置、设备及计算机可读存储介质 |
CN113012064A (zh) * | 2021-03-10 | 2021-06-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN113076685A (zh) * | 2021-03-04 | 2021-07-06 | 华为技术有限公司 | 图像重建模型的训练方法、图像重建方法及其装置 |
WO2022001372A1 (zh) * | 2020-06-30 | 2022-01-06 | 华为技术有限公司 | 训练神经网络的方法、图像处理方法及装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115860271B (zh) * | 2023-02-21 | 2023-06-23 | 浙江理工大学 | 艺术设计用方案管理系统及其方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120100171A (ko) * | 2011-03-03 | 2012-09-12 | 전자부품연구원 | 가중치 합을 이용한 거리 함수 생성 방법 및 시스템 |
WO2018214195A1 (zh) * | 2017-05-25 | 2018-11-29 | 中国矿业大学 | 一种基于卷积神经网络的遥感图像桥梁检测方法 |
CN109255352A (zh) * | 2018-09-07 | 2019-01-22 | 北京旷视科技有限公司 | 目标检测方法、装置及系统 |
WO2019020075A1 (zh) * | 2017-07-28 | 2019-01-31 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、存储介质、计算机程序和电子设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL299565B1 (en) * | 2017-10-16 | 2024-03-01 | Illumina Inc | Classifies pathogenic variants using a recurrent neural network |
CN110322400B (zh) * | 2018-03-30 | 2021-04-27 | 京东方科技集团股份有限公司 | 图像处理方法及装置、图像处理系统及其训练方法 |
CN109035260A (zh) * | 2018-07-27 | 2018-12-18 | 京东方科技集团股份有限公司 | 一种天空区域分割方法、装置和卷积神经网络 |
CN109191476B (zh) * | 2018-09-10 | 2022-03-11 | 重庆邮电大学 | 基于U-net网络结构的生物医学图像自动分割新方法 |
CN110096960B (zh) * | 2019-04-03 | 2021-06-08 | 罗克佳华科技集团股份有限公司 | 目标检测方法及装置 |
CN110111366B (zh) * | 2019-05-06 | 2021-04-30 | 北京理工大学 | 一种基于多级损失量的端到端光流估计方法 |
CN110543890A (zh) * | 2019-07-22 | 2019-12-06 | 杭州电子科技大学 | 一种基于特征金字塔的深度神经网络图像匹配方法 |
CN111145107B (zh) * | 2019-12-06 | 2023-03-10 | 深圳市雄帝科技股份有限公司 | 一种图像美化方法、装置、介质及设备 |
CN111311629B (zh) * | 2020-02-21 | 2023-12-01 | 京东方科技集团股份有限公司 | 图像处理方法、图像处理装置及设备 |
CN111914997B (zh) * | 2020-06-30 | 2024-04-02 | 华为技术有限公司 | 训练神经网络的方法、图像处理方法及装置 |
-
2020
- 2020-06-30 CN CN202010616988.XA patent/CN111914997B/zh active Active
-
2021
- 2021-05-10 WO PCT/CN2021/092581 patent/WO2022001372A1/zh unknown
- 2021-05-10 EP EP21832925.8A patent/EP4163832A4/en active Pending
-
2022
- 2022-12-28 US US18/147,371 patent/US20230177641A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120100171A (ko) * | 2011-03-03 | 2012-09-12 | 전자부품연구원 | 가중치 합을 이용한 거리 함수 생성 방법 및 시스템 |
WO2018214195A1 (zh) * | 2017-05-25 | 2018-11-29 | 中国矿业大学 | 一种基于卷积神经网络的遥感图像桥梁检测方法 |
WO2019020075A1 (zh) * | 2017-07-28 | 2019-01-31 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、存储介质、计算机程序和电子设备 |
CN109255352A (zh) * | 2018-09-07 | 2019-01-22 | 北京旷视科技有限公司 | 目标检测方法、装置及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022001372A1 (zh) * | 2020-06-30 | 2022-01-06 | 华为技术有限公司 | 训练神经网络的方法、图像处理方法及装置 |
CN112465932A (zh) * | 2020-12-10 | 2021-03-09 | 上海眼控科技股份有限公司 | 一种图像填充方法、装置、设备及存储介质 |
CN112699842A (zh) * | 2021-01-13 | 2021-04-23 | 上海镜河科技有限公司 | 宠物识别方法、装置、设备及计算机可读存储介质 |
CN113076685A (zh) * | 2021-03-04 | 2021-07-06 | 华为技术有限公司 | 图像重建模型的训练方法、图像重建方法及其装置 |
CN113012064A (zh) * | 2021-03-10 | 2021-06-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN113012064B (zh) * | 2021-03-10 | 2023-12-12 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20230177641A1 (en) | 2023-06-08 |
EP4163832A1 (en) | 2023-04-12 |
EP4163832A4 (en) | 2023-11-15 |
CN111914997B (zh) | 2024-04-02 |
WO2022001372A1 (zh) | 2022-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188795B (zh) | 图像分类方法、数据处理方法和装置 | |
WO2020177651A1 (zh) | 图像分割方法和图像处理装置 | |
CN110532871B (zh) | 图像处理的方法和装置 | |
CN112446270B (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN112308200B (zh) | 神经网络的搜索方法及装置 | |
CN109993707B (zh) | 图像去噪方法和装置 | |
CN111914997B (zh) | 训练神经网络的方法、图像处理方法及装置 | |
CN112446834A (zh) | 图像增强方法和装置 | |
CN112236779A (zh) | 基于卷积神经网络的图像处理方法和图像处理装置 | |
CN110222717B (zh) | 图像处理方法和装置 | |
CN113284054A (zh) | 图像增强方法以及图像增强装置 | |
CN112446380A (zh) | 图像处理方法和装置 | |
CN111667399A (zh) | 风格迁移模型的训练方法、视频风格迁移的方法以及装置 | |
CN112639828A (zh) | 数据处理的方法、训练神经网络模型的方法及设备 | |
CN111797882A (zh) | 图像分类方法及装置 | |
US20220157046A1 (en) | Image Classification Method And Apparatus | |
CN113011562A (zh) | 一种模型训练方法及装置 | |
CN113191489B (zh) | 二值神经网络模型的训练方法、图像处理方法和装置 | |
CN112287954A (zh) | 图像分类方法、图像分类模型的训练方法及其装置 | |
CN112581379A (zh) | 图像增强方法以及装置 | |
CN112307826A (zh) | 行人检测方法、装置、计算机可读存储介质和芯片 | |
CN114730456A (zh) | 神经网络模型的训练方法、图像处理方法及其装置 | |
CN112529904A (zh) | 图像语义分割方法、装置、计算机可读存储介质和芯片 | |
CN111695673A (zh) | 训练神经网络预测器的方法、图像处理方法及装置 | |
CN110222718A (zh) | 图像处理的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |