CN111415000A - 卷积神经网络、基于卷积神经网络的数据处理方法和装置 - Google Patents
卷积神经网络、基于卷积神经网络的数据处理方法和装置 Download PDFInfo
- Publication number
- CN111415000A CN111415000A CN202010358744.6A CN202010358744A CN111415000A CN 111415000 A CN111415000 A CN 111415000A CN 202010358744 A CN202010358744 A CN 202010358744A CN 111415000 A CN111415000 A CN 111415000A
- Authority
- CN
- China
- Prior art keywords
- layer
- neural network
- convolutional neural
- data processing
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 226
- 238000003672 processing method Methods 0.000 title claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 187
- 238000000034 method Methods 0.000 claims abstract description 55
- 230000008569 process Effects 0.000 claims abstract description 37
- 238000001914 filtration Methods 0.000 claims description 56
- 238000004590 computer program Methods 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 abstract description 5
- 230000004913 activation Effects 0.000 description 31
- 230000006870 function Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种卷积神经网络、基于卷积神经网络的数据处理方法和装置、电子设备、计算机可读存储介质,该方法包括:将原始数据输入至卷积神经网络,原始数据包括图像数据、音频数据、自然语言数据中的至少一种。通过卷积神经网络的自定义层对原始数据进行处理,得到数据处理结果,输出数据处理结果。卷积神经网络包括自定义层,自定义层包括根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变,所以就可以通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种卷积神经网络、基于卷积神经网络的数据处理方法和装置、电子设备、计算机可读存储介质。
背景技术
随着计算机技术的不断发展,深度学习技术也被越来越广泛地应用到图像处理、图像识别、物体识别、数据处理分析、自然语言识别、人工智能等领域。其中,卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。
传统的卷积神经网络在数据处理过程中,由于计算过程过于复杂,往往会出现过度运算、从而导致运算效率较低。
发明内容
本申请实施例提供一种卷积神经网络、基于卷积神经网络的数据处理方法和装置、电子设备、计算机可读存储介质,可以降低图像处理过程中的运算量,并提高图像处理的效率。
一种基于卷积神经网络的图像处理方法,所述卷积神经网络包括自定义层,所述自定义层包括根据数据处理需求设置的至少一种数据处理方式,所述数据处理方式对应的参数不会随所述卷积神经网络的反向传播而改变;所述方法包括:
将原始数据输入至所述卷积神经网络,所述原始数据包括图像数据、音频数据、自然语言数据中的至少一种;
通过所述卷积神经网络的自定义层对所述原始数据进行处理,得到数据处理结果;
输出所述数据处理结果。
一种卷积神经网络,所述卷积神经网络包括自定义层,所述自定义层包括根据数据处理需求设置的至少一种数据处理方式,所述数据处理方式对应的参数不会随所述卷积神经网络的反向传播而改变;
所述自定义层用于对原始数据进行数据处理,得到数据处理结果,所述原始数据包括图像数据、音频数据、自然语言数据中的至少一种。
一种基于卷积神经网络的数据处理装置,所述卷积神经网络包括自定义层,所述自定义层包括根据数据处理需求设置的至少一种数据处理方式,所述数据处理方式对应的参数不会随所述卷积神经网络的反向传播而改变;所述装置包括:
输入模块,用于将原始数据输入至所述卷积神经网络,所述原始数据包括图像数据、音频数据、自然语言数据中的至少一种;
数据处理模块,用于通过所述卷积神经网络的自定义层对所述原始数据进行处理,得到数据处理结果;
输出模块,用于输出所述数据处理结果。
一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如上所述的基于卷积神经网络的数据处理方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的基于卷积神经网络的数据处理方法的步骤。
上述卷积神经网络、基于卷积神经网络的数据处理方法和装置、电子设备、计算机可读存储介质,该方法包括:将原始数据输入至卷积神经网络,原始数据包括图像数据、音频数据、自然语言数据中的至少一种。通过卷积神经网络的自定义层对原始数据进行处理,得到数据处理结果,输出数据处理结果。卷积神经网络包括自定义层,自定义层包括根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变,所以就可以通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中基于卷积神经网络的数据处理方法的应用环境图;
图2为一个实施例中基于卷积神经网络的数据处理方法的流程图;
图3为一个实施例中自定义层在卷积神经网络中的位置示意图;
图4为一个实施例中自定义层在卷积神经网络中的位置示意图;
图5为一个实施例中超分辨率卷积神经网络的结构示意图;
图6为又一个实施例中超分辨率卷积神经网络的结构示意图;
图7为再一个实施例中超分辨率卷积神经网络的结构示意图;
图8为一个实施例中基于卷积神经网络的数据处理装置的结构框图;
图9为一个实施例中电子设备的内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一卷积层称为第二卷积层,且类似地,可将第二卷积层称为第一卷积层。第一卷积层和第二卷积层两者都是卷积层,但其不是同一卷积层。
图1为一个实施例中基于卷积神经网络的数据处理方法的应用场景图。如图1所示,该应用环境包括电子设备120。本申请中的基于卷积神经网络的数据处理方法,可以应用于电子设备中。电子设备可以将原始数据输入至卷积神经网络,原始数据包括图像数据、音频数据、自然语言数据中的至少一种;通过卷积神经网络的自定义层对原始数据进行处理,得到数据处理结果;输出数据处理结果。卷积神经网络包括自定义层,自定义层包括根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变。
图2为一个实施例中基于卷积神经网络的数据处理方法的流程图。本实施例中的基于卷积神经网络的数据处理方法,以运行于图1中的电子设备上为例进行描述,当然,本实施例中的基于卷积神经网络的数据处理方法,也可以运行在服务器上。如图2所示,基于卷积神经网络的数据处理方法包括步骤220至步骤260。其中,
步骤220,将原始数据输入至卷积神经网络,原始数据包括图像数据、音频数据、自然语言数据中的至少一种。
传统的卷积神经网络中包括卷积核在内的所有系数均具有不可解释性,导致卷积神经网络在运算过程中的目的性较差,因此往往会造成过度的运算。且由于卷积层的过多堆砌导致模型难以收敛,从而不能得到较好的结果。
因此,本申请中提出了一种新的卷积神经网络,卷积神经网络包括自定义层,自定义层包括人工根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变。其中,卷积神经网络的反向传播指的是通过卷积神经网络的运算结果反过来对卷积神经网络的参数进行修正的过程。所以,自定义层中的数据处理方式对应的参数不会随卷积神经网络的反向传播而改变,指的是在运算过程中不会通过卷积神经网络的运算结果,反过来对自定义层中的数据处理方式对应的参数进行修正。这样便可以一直保持自定义层的独立性,从而使得人工根据数据处理需求设置的自定义层,在整个运算过程中发挥作用,引导卷积神经网络的运算方向,增强卷积神经网络的目的性和可解释性。
自定义层包括人工根据数据处理需求设置的至少一种数据处理方式。其中,人工根据数据处理需求设置至少一种数据处理方式,可以是人工根据数据的领域、数据的种类、数据处理的目的来具体设置与之适应的一种或多种数据处理方式。这里的数据处理方式可以包括数据清洗、数据去噪、数据分析、数据挖掘、数据变换等方式,本申请对此不做限定。
将原始数据输入至本申请实施例中该新的卷积神经网络,其中,原始数据包括图像数据、音频数据、自然语言数据中的至少一种。图像数据(Image Data)是指用数值表示的各像素(pixel)的灰度值的集合。音频数据指的是数字化的声音数据。自然语言通常是指一种自然地随文化演化的语言,例如,汉语、英语、日语等都是自然语言的例子。自然语言对应的数据就是自然语言数据。当然,原始数据还可以包括其他领域的数据,本申请对此不做限定。
步骤240,通过卷积神经网络的自定义层对原始数据进行处理,得到数据处理结果。
步骤260,输出数据处理结果。
将原始数据输入至本申请中该新的卷积神经网络,通过卷积神经网络的自定义层对原始数据进行处理,得到数据处理结果。具体为,卷积神经网络中除了自定义层之外还会包括其他层,例如卷积层等。通过卷积神经网络的自定义层对原始数据进行处理,并通过卷积神经网络中的其他层对原始数据进行卷积计算,最终得到原始数据的数据处理结果。该数据处理结果为与数据处理需求所对应的结果。
本申请实施例中,将原始数据输入至卷积神经网络,原始数据包括图像数据、音频数据、自然语言数据中的至少一种。通过卷积神经网络的自定义层对原始数据进行处理,得到数据处理结果,输出数据处理结果。卷积神经网络包括自定义层,自定义层包括根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变,所以就可以通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。
在一个实施例中,卷积神经网络包括输入层、输出层和至少一个自定义层,自定义层设置在卷积神经网络中输入层、输出层之间的任意位置。
具体的,卷积神经网络包括输入层、输出层和一个自定义层,或卷积神经网络包括输入层、输出层和多个自定义层,本申请对此不做限定。且自定义层设置在卷积神经网络中输入层、输出层之间的任意位置。例如,一个或多个自定义层全部串联在卷积神经网络的输入层与输出层之间;或部分自定义层并联,然后再串联在卷积神经网络的输入层与输出层之间的任意位置,本申请对具体的连接顺序不做限定。
例如,如图3所示,为自定义层在卷积神经网络中的位置示意图。输入层与自定义层的一端连接,自定义层的另一端连接输出层。
本申请实施例中,卷积神经网络包括输入层、输出层和至少一个自定义层,自定义层设置在卷积神经网络中输入层、输出层之间的任意位置。自定义层包括根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变,所以就可以通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。同时对传统的神经网络的架构进行了灵活拓展,增加了新的卷积神经网络的灵活性。
在一个实施例中,卷积神经网络还包括至少一个中间层,所述输入层的输出端与所述中间层的输入端连接,所述中间层的输出端与所述输出层的输入端连接,自定义层设置在卷积神经网络中输入层、中间层、输出层之间的任意位置;
步骤240,通过卷积神经网络的自定义层对原始数据进行处理,得到数据处理结果,包括:
通过卷积神经网络的中间层、自定义层对原始数据进行处理,得到数据处理结果。
具体的,卷积神经网络包括输入层、输出层、至少一个自定义层及至少一个中间层。一般情况下,输入层与至少一个中间层连接,中间层与输出层连接。即输入层的输出端与中间层的输入端连接,中间层的输出端与输出层的输入端连接。自定义层设置在卷积神经网络中输入层、至少一个中间层、输出层之间的任意位置。例如,一个或多个自定义层全部串联在卷积神经网络的输入层、至少一个中间层、输出层之间的任意位置;或部分自定义层并联,然后再串联在卷积神经网络的输入层、至少一个中间层、输出层之间的任意位置;或自定义层与至少一个中间层并联,再串联在卷积神经网络的输入层、至少一个中间层、输出层之间的任意位置;本申请对具体的连接顺序不做限定。
因此,提供了一种基于卷积神经网络的数据处理方法,包括:将原始数据输入至本申请实施例中该新的卷积神经网络的输入层之后,通过卷积神经网络的中间层、自定义层对原始数据进行处理,得到数据处理结果。最后,通过该新的卷积神经网络的输出层输出数据处理结果。
本申请实施例中,将原始数据输入至本申请实施例中该新的卷积神经网络的输入层之后,通过卷积神经网络的中间层、自定义层对原始数据进行处理,得到数据处理结果。最后,通过该新的卷积神经网络的输出层输出数据处理结果。通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。同时对传统的神经网络的架构进行了灵活拓展,增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。
在一个实施例中,自定义层设置在卷积神经网络中输入层、中间层、输出层之间的任意位置,至少包括以下任意一种方式:
自定义层设置在卷积神经网络的输入层与中间层之间;
自定义层设置在卷积神经网络的中间层与中间层之间;
自定义层设置在卷积神经网络的中间层与输出层之间。
其中,自定义层可以通过串联或并联的方式设置在卷积神经网络的输入层与中间层之间。例如,自定义层通过串联的方式一端直接与卷积神经网络的输入层连接,另一端直接与卷积神经网络的中间层连接。或多个自定义层并联,然后并联后的自定义层一端直接与卷积神经网络的输入层连接,另一端直接与卷积神经网络的中间层连接。
同理,自定义层通过串联或并联的方式设置在卷积神经网络的中间层与中间层之间。自定义层通过串联或并联的方式设置在卷积神经网络的中间层与输出层之间,在此不再赘述。
本申请实施例中,通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。同时对传统的神经网络的架构进行了灵活拓展,增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。
在一个实施例中,自定义层串联在卷积神经网络中输入层、中间层及输出层之间的任意位置。
本申请实施例中,自定义层的数量可以为一个或多个,自定义层串联在卷积神经网络中输入层、中间层及输出层之间的任意位置。例如,一个自定义层串联在输入层与中间层之间,一个自定义层设置在中间层与中间层之间,一个自定义层设置在中间层与输出层之间。可以实现在卷积神经网络的不同运算阶段穿插不同的自定义层,从而对传统的神经网络的架构进行了灵活拓展,增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。
在一个实施例中,自定义层与中间层并联得到组合层,组合层串联在卷积神经网络中输入层、中间层及输出层之间的任意位置。
如图4所示,为自定义层在卷积神经网络中的位置示意图。在图4(a)中,中间层与自定义层并联得到组合层,组合层的一端连接输入层,组合层的另一端连接输出层。
在图4(b)中,中间层与自定义层并联得到组合层,组合层的一端连接输入层,组合层的另一端连接中间层。这便是自定义层设置在卷积神经网络的输入层与中间层之间的示例。
在图4(c)中,中间层与自定义层并联得到组合层,组合层的一端连接中间层,组合层的另一端连接中间层。这便是自定义层设置在卷积神经网络的中间层与中间层之间的示例。
在图4(d)中,中间层与自定义层并联得到组合层,组合层的一端连接中间层,组合层的另一端连接输出层。这便是自定义层设置在卷积神经网络的中间层与输出层之间的示例。
本申请实施例中,自定义层的数量可以为一个或多个,自定义层与中间层并联得到组合层,组合层串联在卷积神经网络中输入层、中间层及输出层之间的任意位置。从而对传统的神经网络的架构进行了灵活拓展,增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。
在一个实施例中,中间层包括卷积层、激活层、池化层、全连接层中的至少一个。
本申请实施例中,卷积神经网络包括自定义层,自定义层包括根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变。卷积神经网络中的中间层包括卷积层、激活层、池化层、全连接层中的一个或多个。例如,在有的卷积神经网络中可能不需要某些层,例如,不需要池化层和全连接层,因此,对传统的神经网络的架构进行了灵活拓展,增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。且通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。
在一个实施例中,中间层由卷积层、激活层、池化层、全连接层中的至少一个进行串联或并联所构成。
本申请实施例中,卷积神经网络包括自定义层,自定义层包括根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变。卷积神经网络中的中间层由卷积层、激活层、池化层、全连接层中的至少一个进行串联或并联所构成。对卷积神经网络中的中间层提出了多种组合形式,因此,对传统的神经网络的架构进行了灵活拓展,增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。且通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。
在一个实施例中,数据处理方式包括滤波处理、识别分类处理、编解码处理、映射处理中的至少一种方式。
具体的,滤波(Wave filtering)处理是将信号中特定波段频率滤除的操作,是抑制和防止干扰的一项重要措施。识别分类处理是将数据进行特征识别,并根据特征对数据进行分类。编解码处理是对数据进行压缩或编码,对数据进行解压或解码的过程。映射处理指的是采用线性或非线性等操作,对输入进行映射,形成对应的输出。
具体的,数据处理方式可以包括滤波处理、识别分类处理、编解码处理、映射处理中的一种方式或多种方式的组合。
本申请实施例中,卷积神经网络包括自定义层,自定义层包括根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变。进一步,数据处理方式可以包括滤波处理、识别分类处理、编解码处理、映射处理中的一种方式或多种方式的组合。数据处理的多种组合方式,构成了多种多样的自定义层,进而增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。
在一个实施例中,自定义层由滤波处理、识别分类处理、编解码处理、映射处理中的至少一种方式对应的操作层进行串联或并联所构成。
本申请实施例中,至少一种数据处理方式通过串联或并联,构成了多种多样的自定义层,进而增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。
在一个实施例中,滤波处理用于通过滤波器对所输入的数据进行滤波处理,滤波器包括固定系数滤波器、自适应系数滤波器、固定系数和自适应系数融合的联合滤波器中的至少一种。
本申请实施例中,固定系数滤波器为采用系数始终不变的滤波器,如固定所有系数为1的3x3均值滤波器,5x5的拉普拉斯滤波器等。自适应系数滤波器为采用系数可实时变化的滤波器,如固定高频门限自适应变化的高频滤波器等。联合滤波器为固定系数和自适应系数融合所得的滤波器,联合滤波器中指定位置的系数固定,其余位置的系数自适应变化。通过固定系数滤波器、自适应系数滤波器、固定系数和自适应系数融合的联合滤波器中的至少一种对所输入的数据进行滤波处理,可以实现多种滤波效果,从而满足用户多样化的需求。
在一个实施例中,自定义层包括第一滤波单元、分类单元和第二滤波单元;输入层的输出端分别与第一滤波单元的输入端和分类单元的输入端连接,第一滤波单元的输出端与中间层连接,第一分类单元的输出端与第二滤波单元的输入端连接,第二滤波单元的输出端与中间层连接。
如图5所示,图5(a)为传统的卷积神经网络的结构示意图。图5(b)为一个超分辨率卷积神经网络(SRCNN,Super-Resolution Convolutional Neural Network)的结构示意图,超分辨率卷积神经网络是在传统的卷积神经网络中加入了自定义层。其中,输入层的输出端分别与所述第一滤波单元的输入端和所述分类单元的输入端连接。分类单元为图5中的纹理分类器,纹理分类器的输出端与所述第二滤波单元的输入端连接,第二滤波单元包括并联的双线性插值滤波器和方向性插值滤波器。第一滤波单元包括并联的1个高通滤波器、1个低通滤波器及1个带通滤波器。第一滤波单元的输出端、第二滤波单元的输出端分别与中间层连接。具体的,第一滤波单元的输出端、第二滤波单元的输出端均连接在中间层的同一节点。例如,第一滤波单元的输出端、第二滤波单元的输出端均连接在第二激活函数层(图中为激活函数层2)及第三卷积层(图中为卷积层3)之间的节点上。
卷积神经网络包括输入层、输出层、至少一个自定义层及至少一个中间层,其中,输入层与中间层连接,中间层与输出层连接。自定义层的一端连接在输入层与中间层之间,自定义层的另一端连接在中间层的任意节点上。中间层包括依次串联的第一卷积层(图中为卷积层1)、第一激活函数层(图中为激活函数层1)、第二卷积层(图中为卷积层2)、第二激活函数层(图中为激活函数层2)及第三卷积层(图中为卷积层3)。如此就构成了超分辨率卷积神经网络SRCNN。
其中,第一卷积层共有16个普通卷积核,每个普通卷积核的尺寸为9×9。第二卷积层共有8个普通卷积核,每个普通卷积核的尺寸为1×1。第三卷积层共有1个普通卷积核,每个普通卷积核的尺寸为3×3。
本申请实施例中,首先,将原始图像数据从输入层输入至SRCNN,经过第一卷积层进行卷积运算输出16个特征图像,再经过第一激活函数层输出16个特征图像,再经过第二卷积层进行卷积运算输出8个特征图像,再经过第二激活函数层输出8个特征图像。其次,将原始图像数据输入至纹理分类器进行分类后,再同时输入至并联的双线性插值滤波器和一个方向性插值滤波器进行滤波处理后,输出1个特征图像,将该1个特征图像也输入至第三卷积层。再次,将原始图像数据分别输入至高通滤波器、低通滤波器及带通滤波器这三个滤波器进行滤波处理后分别得到1个特征图像,将这3个特征图像也输入至第三卷积层。共计12个特征图像输入至第三卷积层进行卷积运算得到一个输出图像,将一个输出图像从输出层输出即可。通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。同时对传统的神经网络的架构进行了灵活拓展,增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。
在一个实施例中,第一滤波单元的输出端与第二滤波单元的输出端与中间层的同一节点连接;或者,
第一滤波单元的输出端与第二滤波单元的输出端分别与中间层的不同节点连接。
如图6所示,为另一个超分辨率卷积神经网络(SRCNN,Super-ResolutionConvolutional Neural Network)的结构示意图。其中,输入层的输出端分别与所述第一滤波单元的输入端和所述分类单元的输入端连接。分类单元为图5中的纹理分类器,纹理分类器的输出端与所述第二滤波单元的输入端连接,第二滤波单元包括并联的双线性插值滤波器和方向性插值滤波器。第一滤波单元包括并联的1个高通滤波器、1个低通滤波器及10个带通滤波器。第一滤波单元的输出端、第二滤波单元的输出端分别与中间层上的不同节点连接。例如,第一滤波单元的输出端连接在第一激活函数层(图中为激活函数层1)、第二卷积层(图中为卷积层2)之间的节点上,第二滤波单元的输出端连接在第二卷积层(图中为卷积层2)、第二激活函数层(图中为激活函数层2)之间的节点上。
其中,中间层包括依次串联的第一卷积层(图中为卷积层1)、第一激活函数层(图中为激活函数层1)、第二卷积层(图中为卷积层2)、第二激活函数层(图中为激活函数层2)及第三卷积层(图中为卷积层3)。如此就构成了超分辨率卷积神经网络SRCNN。
其中,第一卷积层共有4个普通卷积核,每个普通卷积核的尺寸为9×9。第二卷积层共有8个普通卷积核,每个普通卷积核的尺寸为1×1。第三卷积层共有1个普通卷积核,每个普通卷积核的尺寸为5×5。
本申请实施例中,首先,将原始图像数据从输入层输入至SRCNN,经过第一卷积层进行卷积运算输出4个特征图像,再经过第一激活函数层输出4个特征图像。将原始图像数据分别输入至1个高通滤波器、1个低通滤波器及10个带通滤波器,分别输出1个特征图像、1个特征图像及10个特征图像。将该12个特征图像与第一激活函数层输出的4个特征图像一起输入至第二卷积层,输出8个特征图像。其次,将原始图像数据输入至纹理分类器进行分类后,再同时输入至并联的双线性插值滤波器和一个方向性插值滤波器进行滤波处理后,输出1个特征图像。最后,将该1个特征图像与第二卷积层所输出的8个特征图像一并输入至第二卷积激活层,输出9个特征图像,将这9个特征图像再输入至第三卷积层输出一个输出图像,将一个输出图像从输出层输出即可。通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。同时对传统的神经网络的架构进行了灵活拓展,增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。
在一个实施例中,自定义层包括串联或并联的至少两个滤波单元,滤波单元包括至少一个滤波器;自定义层串联在中间层的任意位置。
如图7所示,为再一个超分辨率卷积神经网络(SRCNN,Super-ResolutionConvolutional Neural Network)的结构示意图。自定义层包括串联或并联的滤波单元,具体为:一个双线性插值滤波器和一个方向性插值滤波器串联,再与1个高通滤波器、1个低通滤波器及1个带通滤波器并联,构成了自定义层。自定义层串联在中间层的任意位置。例如,超分辨率卷积神经网络中输入层与第一卷积层串联,第一卷积层再与第一激活函数层串联,第一激活函数层自定义层串联,自定义层与第二卷积层串联,第二卷积层与第二激活函数层串联,第二激活函数层与第三卷积层串联,第三卷积层与输出层串联。
其中,中间层包括依次串联的第一卷积层(图中为卷积层1)、第一激活函数层(图中为激活函数层1)、第二卷积层(图中为卷积层2)、第二激活函数层(图中为激活函数层2)及第三卷积层(图中为卷积层3)。如此就构成了超分辨率卷积神经网络SRCNN。
其中,第一卷积层共有4个普通卷积核,每个普通卷积核的尺寸为9×9。第二卷积层共有8个普通卷积核,每个普通卷积核的尺寸为1×1。第三卷积层共有1个普通卷积核,每个普通卷积核的尺寸为5×5。
本申请实施例中,首先,将原始图像数据从输入层输入至SRCNN,经过第一卷积层进行卷积运算输出4个特征图像,再经过第一激活函数层输出4个特征图像。然后,将这4个特征图像分别输入至串联的一个双线性插值滤波器和一个方向性插值滤波器、1个高通滤波器、1个低通滤波器及1个带通滤波器进行滤波,分别输出4个特征图像。将共计12个特征图像输入至第二卷积层,输出8个特征图像。最后,将该8个特征图像输入至第二卷积激活层,输出8个特征图像,将这8个特征图像再输入至第三卷积层输出一个输出图像,将一个输出图像从输出层输出即可。通过自定义层对整个卷积神经网络引入人工控制,避免出现过度运算,从而可以降低数据处理过程中的运算量,并提高数据处理的效率。同时对传统的神经网络的架构进行了灵活拓展,增加了新的卷积神经网络的灵活性,能够适应用户不同的数据处理需求。
在一个实施例中,卷积神经网络包括自定义层,自定义层包括根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变;
自定义层用于对原始数据进行数据处理,得到数据处理结果,原始数据包括图像数据、音频数据、自然语言数据中的至少一种。
本申请实施例中,提出了一种新的卷积神经网络,卷积神经网络包括自定义层,自定义层包括人工根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变。其中,卷积神经网络的反向传播指的是通过卷积神经网络的运算结果反过来对卷积神经网络的参数进行修正的过程。所以,自定义层中的数据处理方式对应的参数不会随卷积神经网络的反向传播而改变,指的是在运算过程中不会通过卷积神经网络的运算结果,反过来对自定义层中的数据处理方式对应的参数进行修正。这样便可以一直保持自定义层的独立性,从而使得人工根据数据处理需求设置的自定义层,在整个运算过程中发挥作用,引导卷积神经网络的运算方向,增强卷积神经网络的目的性和可解释性。
应该理解的是,虽然图2的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图8所示,卷积神经网络包括自定义层,自定义层包括根据数据处理需求设置的至少一种数据处理方式,数据处理方式对应的参数不会随卷积神经网络的反向传播而改变。还提供了一种基于卷积神经网络的数据处理装置800,该装置包括:
输入模块820,用于将原始数据输入至卷积神经网络,原始数据包括图像数据、音频数据、自然语言数据中的至少一种;
数据处理模块840,用于通过卷积神经网络的自定义层对原始数据进行处理,得到数据处理结果;
输出模块860,用于输出数据处理结果。
在一个实施例中,卷积神经网络还包括至少一个中间层,输入层的输出端与中间层的输入端连接,中间层的输出端与输出层的输入端连接,自定义层设置在卷积神经网络中输入层、中间层、输出层之间的任意位置;数据处理模块840,还用于通过卷积神经网络的中间层、自定义层对原始数据进行处理,得到数据处理结果。
上述基于卷积神经网络的数据处理装置中各个模块的划分仅用于举例说明,在其他实施例中,可将基于卷积神经网络的数据处理装置按照需要划分为不同的模块,以完成上述基于卷积神经网络的数据处理装置的全部或部分功能。
关于基于卷积神经网络的数据处理装置的具体限定可以参见上文中对于基于卷积神经网络的数据处理方法的限定,在此不再赘述。上述基于卷积神经网络的数据处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
图9为一个实施例中电子设备的内部结构示意图。如图9所示,该电子设备包括通过系统总线连接的处理器和存储器。其中,该处理器用于提供计算和控制能力,支撑整个电子设备的运行。存储器可包括非易失性存储介质及内存储器。非易失性存储介质存储有操作系统和计算机程序。该计算机程序可被处理器所执行,以用于实现以下各个实施例所提供的一种基于卷积神经网络的数据处理方法。内存储器为非易失性存储介质中的操作系统计算机程序提供高速缓存的运行环境。该电子设备可以是手机、平板电脑、PDA(PersonalDigital Assistant,个人数字助理)、POS(Point of Sales,销售终端)、车载电脑、穿戴式设备等任意终端设备。
本申请实施例中提供的基于卷积神经网络的数据处理装置中的各个模块的实现可为计算机程序的形式。该计算机程序可在电子设备或服务器上运行。该计算机程序构成的程序模块可存储在电子设备或服务器的存储器上。该计算机程序被处理器执行时,实现本申请实施例中所描述方法的步骤。
本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当计算机可执行指令被一个或多个处理器执行时,使得处理器执行基于卷积神经网络的数据处理方法的步骤。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行基于卷积神经网络的数据处理方法。
本申请实施例所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。合适的非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (18)
1.一种基于卷积神经网络的数据处理方法,其特征在于,所述卷积神经网络包括自定义层,所述自定义层包括根据数据处理需求设置的至少一种数据处理方式,所述数据处理方式对应的参数不会随所述卷积神经网络的反向传播而改变;所述方法包括:
将原始数据输入至所述卷积神经网络,所述原始数据包括图像数据、音频数据、自然语言数据中的至少一种;
通过所述卷积神经网络的自定义层对所述原始数据进行处理,得到数据处理结果;
输出所述数据处理结果。
2.根据权利要求1所述的方法,其特征在于,所述卷积神经网络包括输入层、输出层和至少一个自定义层,所述自定义层设置在所述卷积神经网络中输入层、输出层之间的任意位置。
3.根据权利要求2所述的方法,其特征在于,所述卷积神经网络还包括至少一个中间层,所述输入层的输出端与所述中间层的输入端连接,所述中间层的输出端与所述输出层的输入端连接,所述自定义层设置在所述卷积神经网络中输入层、中间层、输出层之间的任意位置;
所述通过所述卷积神经网络的自定义层对所述原始数据进行处理,得到数据处理结果,包括:
通过所述卷积神经网络的中间层、自定义层对所述原始数据进行处理,得到数据处理结果。
4.根据权利要求3所述的方法,其特征在于,所述自定义层设置在所述卷积神经网络中输入层、中间层、输出层之间的任意位置,至少包括以下任意一种方式:
所述自定义层设置在所述卷积神经网络的输入层与中间层之间;
所述自定义层设置在所述卷积神经网络的中间层与中间层之间;
所述自定义层设置在所述卷积神经网络的中间层与输出层之间。
5.根据权利要求3所述的方法,其特征在于,所述自定义层串联在所述卷积神经网络中输入层、中间层及输出层之间的任意位置。
6.根据权利要求3中所述的方法,其特征在于,所述自定义层与所述中间层并联得到组合层,所述组合层串联在所述卷积神经网络中输入层、中间层及输出层之间的任意位置。
7.根据权利要求3所述的方法,其特征在于,所述中间层包括卷积层、激活层、池化层、全连接层中的至少一个。
8.根据权利要求3所述的方法,其特征在于,所述中间层由所述卷积层、激活层、池化层、全连接层中的至少一个进行串联或并联所构成。
9.根据权利要求1至8中任一项所述的方法,其特征在于,所述数据处理方式包括滤波处理、识别分类处理、编解码处理、映射处理中的至少一种方式。
10.根据权利要求1至8中任一项所述的方法,其特征在于,所述自定义层由滤波处理、识别分类处理、编解码处理、映射处理中的至少一种方式对应的操作层进行串联或并联所构成。
11.根据权利要求9所述的方法,其特征在于,所述滤波处理用于通过滤波器对所输入的数据进行滤波处理,所述滤波器包括固定系数滤波器、自适应系数滤波器、固定系数和自适应系数融合的联合滤波器中的至少一种。
12.根据权利要求3所述的方法,其特征在于,所述自定义层包括第一滤波单元、分类单元和第二滤波单元;
所述输入层的输出端分别与所述第一滤波单元的输入端和所述分类单元的输入端连接,所述第一滤波单元的输出端与所述中间层连接,所述分类单元的输出端与所述第二滤波单元的输入端连接,所述第二滤波单元的输出端与所述中间层连接。
13.根据权利要求12所述的方法,其特征在于,所述第一滤波单元的输出端与所述第二滤波单元的输出端与所述中间层的同一节点连接;或者,
所述第一滤波单元的输出端与所述第二滤波单元的输出端分别与所述中间层的不同节点连接。
14.根据权利要求3所述的方法,其特征在于,所述自定义层包括串联或并联的至少两个滤波单元,所述滤波单元包括至少一个滤波器;所述自定义层串联在所述中间层的任意位置。
15.一种卷积神经网络,其特征在于,所述卷积神经网络包括自定义层,所述自定义层包括根据数据处理需求设置的至少一种数据处理方式,所述数据处理方式对应的参数不会随所述卷积神经网络的反向传播而改变;
所述自定义层用于对原始数据进行数据处理,得到数据处理结果,所述原始数据包括图像数据、音频数据、自然语言数据中的至少一种。
16.一种基于卷积神经网络的数据处理装置,其特征在于,所述卷积神经网络包括自定义层,所述自定义层包括根据数据处理需求设置的至少一种数据处理方式,所述数据处理方式对应的参数不会随所述卷积神经网络的反向传播而改变;所述装置包括:
输入模块,用于将原始数据输入至所述卷积神经网络,所述原始数据包括图像数据、音频数据、自然语言数据中的至少一种;
数据处理模块,用于通过所述卷积神经网络的自定义层对所述原始数据进行处理,得到数据处理结果;
输出模块,用于输出所述数据处理结果。
17.一种电子设备,其特征在于,包括存储器及处理器,所述存储器中储存有计算机程序,其特征在于,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至14中任一项所述基于卷积神经网络的数据处理方法的步骤。
18.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至14中任一项所述基于卷积神经网络的数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010358744.6A CN111415000B (zh) | 2020-04-29 | 2020-04-29 | 卷积神经网络、基于卷积神经网络的数据处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010358744.6A CN111415000B (zh) | 2020-04-29 | 2020-04-29 | 卷积神经网络、基于卷积神经网络的数据处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111415000A true CN111415000A (zh) | 2020-07-14 |
CN111415000B CN111415000B (zh) | 2024-03-22 |
Family
ID=71493814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010358744.6A Active CN111415000B (zh) | 2020-04-29 | 2020-04-29 | 卷积神经网络、基于卷积神经网络的数据处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111415000B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108717569A (zh) * | 2018-05-16 | 2018-10-30 | 中国人民解放军陆军工程大学 | 一种膨胀全卷积神经网络及其构建方法 |
WO2018204706A2 (en) * | 2017-05-03 | 2018-11-08 | Google Llc | Recurrent neural networks for online sequence generation |
CN109409431A (zh) * | 2018-10-29 | 2019-03-01 | 吉林大学 | 基于神经网络的多传感器姿态数据融合方法及系统 |
CN109670578A (zh) * | 2018-12-14 | 2019-04-23 | 北京中科寒武纪科技有限公司 | 神经网络首层卷积层数据处理方法、装置及计算机设备 |
CN110135510A (zh) * | 2019-05-22 | 2019-08-16 | 电子科技大学中山学院 | 一种动态领域自适应方法、设备及计算机可读存储介质 |
WO2020020472A1 (en) * | 2018-07-24 | 2020-01-30 | Fundación Centro Tecnoloxico De Telecomunicacións De Galicia | A computer-implemented method and system for detecting small objects on an image using convolutional neural networks |
JP2020024524A (ja) * | 2018-08-06 | 2020-02-13 | Kddi株式会社 | ニューラルネットワークの全結合層を畳み込み層に置き換えるプログラム |
US10635951B1 (en) * | 2018-10-24 | 2020-04-28 | Alibaba Group Holding Limited | Fast computation of a convolutional neural network |
-
2020
- 2020-04-29 CN CN202010358744.6A patent/CN111415000B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018204706A2 (en) * | 2017-05-03 | 2018-11-08 | Google Llc | Recurrent neural networks for online sequence generation |
CN108717569A (zh) * | 2018-05-16 | 2018-10-30 | 中国人民解放军陆军工程大学 | 一种膨胀全卷积神经网络及其构建方法 |
WO2020020472A1 (en) * | 2018-07-24 | 2020-01-30 | Fundación Centro Tecnoloxico De Telecomunicacións De Galicia | A computer-implemented method and system for detecting small objects on an image using convolutional neural networks |
JP2020024524A (ja) * | 2018-08-06 | 2020-02-13 | Kddi株式会社 | ニューラルネットワークの全結合層を畳み込み層に置き換えるプログラム |
US10635951B1 (en) * | 2018-10-24 | 2020-04-28 | Alibaba Group Holding Limited | Fast computation of a convolutional neural network |
CN109409431A (zh) * | 2018-10-29 | 2019-03-01 | 吉林大学 | 基于神经网络的多传感器姿态数据融合方法及系统 |
CN109670578A (zh) * | 2018-12-14 | 2019-04-23 | 北京中科寒武纪科技有限公司 | 神经网络首层卷积层数据处理方法、装置及计算机设备 |
CN110135510A (zh) * | 2019-05-22 | 2019-08-16 | 电子科技大学中山学院 | 一种动态领域自适应方法、设备及计算机可读存储介质 |
Non-Patent Citations (2)
Title |
---|
杨莉: "基于卷积神经网络的图像超分辨率重建", 《中国优秀硕士学位论文全文数据库信息科技辑》, pages 1 - 63 * |
知识在于分享: "caffe一些小知识点-如何让反向传播不更新某些层", pages 1 - 9, Retrieved from the Internet <URL:https://blog.csdn.net/baidu_40840693/article/details/90692891> * |
Also Published As
Publication number | Publication date |
---|---|
CN111415000B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11227364B2 (en) | Computer-implemented method using convolutional neural network, apparatus for generating composite image, and computer-program product | |
CN109522874B (zh) | 人体动作识别方法、装置、终端设备及存储介质 | |
Sandryhaila et al. | Big data analysis with signal processing on graphs: Representation and processing of massive data sets with irregular structure | |
US20050154689A1 (en) | Method and apparatus of creating application-specific, non-uniform wavelet transforms | |
CN110366732A (zh) | 用于在卷积神经网络中进行矩阵处理的方法和设备 | |
US6976012B1 (en) | Method and apparatus of using a neural network to train a neural network | |
CN111951167B (zh) | 超分辨率图像重建方法、装置、计算机设备和存储介质 | |
CN112889069B (zh) | 用于提高低照度图像质量的方法、系统和计算机可读介质 | |
WO2019008951A1 (ja) | 畳み込みニューラルネットワーク | |
CN111008924B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN110047044A (zh) | 一种图像处理模型的构建方法、装置及终端设备 | |
CN110062282A (zh) | 一种超分辨率视频重建方法、装置及电子设备 | |
CN113538281B (zh) | 图像去噪方法、装置、计算机设备和存储介质 | |
CN114663309A (zh) | 一种基于多尺度信息选择注意机制的图像去雾方法及系统 | |
Xia et al. | Basic binary convolution unit for binarized image restoration network | |
US6424737B1 (en) | Method and apparatus of compressing images using localized radon transforms | |
CN112598110B (zh) | 神经网络构建方法、装置、设备及介质 | |
CN111415000A (zh) | 卷积神经网络、基于卷积神经网络的数据处理方法和装置 | |
CN111967478B (zh) | 一种基于权重翻转的特征图重构方法、系统、存储介质及终端 | |
CN116703772B (zh) | 一种基于自适应插值算法的图像去噪方法、系统及终端机 | |
CN104853059B (zh) | 超分辨率图像处理方法及其装置 | |
CN111598218B (zh) | 基于卷积神经网络的图像数据处理方法和装置、存储介质 | |
CN110807752B (zh) | 一种基于卷积神经网络的图像注意力机制处理方法 | |
CN108898557B (zh) | 图像恢复方法及装置、电子设备、计算机程序及存储介质 | |
CN116109878A (zh) | 一种图像翻拍识别方法、系统、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |