CN110298346A - 基于可分割卷积网络的图像识别方法、装置及计算机设备 - Google Patents

基于可分割卷积网络的图像识别方法、装置及计算机设备 Download PDF

Info

Publication number
CN110298346A
CN110298346A CN201910433281.2A CN201910433281A CN110298346A CN 110298346 A CN110298346 A CN 110298346A CN 201910433281 A CN201910433281 A CN 201910433281A CN 110298346 A CN110298346 A CN 110298346A
Authority
CN
China
Prior art keywords
convolution
pond
obtains
input
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910433281.2A
Other languages
English (en)
Inventor
王健宗
师燕妮
王威
韩茂琨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910433281.2A priority Critical patent/CN110298346A/zh
Publication of CN110298346A publication Critical patent/CN110298346A/zh
Priority to PCT/CN2019/117743 priority patent/WO2020233010A1/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion

Abstract

本发明公开了基于可分割卷积网络的图像识别方法、装置、计算机设备及存储介质。该方法包括:接收原始图像数据;将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵;将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵;将所述第二输出矩阵输入至池化层进行池化,得到池化结果;以及将所述池化结果输入至全连接层,得到与所述原始图像数据对应的识别结果,将所述识别结果发送至所述原始图像数据对应的上传端。该方法采用可分割卷积网络的图像识别,实现了图像识别过程中计算量的降低。

Description

基于可分割卷积网络的图像识别方法、装置及计算机设备
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于可分割卷积网络的图像识别方法、装置、计算机设备及存储介质。
背景技术
目前,进行图像识别时,采用标准的卷积网络时,一般对输入数据进行卷积后即输入至池化层进行池化,经过一组或多组卷积池化处理得到降维的池化结果进行后续计算,但是采用标准的卷积网络的计算量较大,数据集的训练时间长,已不能满足对于模型训练和使用上更好更快的要求。
发明内容
本发明实施例提供了一种基于可分割卷积网络的图像识别方法、装置、计算机设备及存储介质,旨在解决现有技术中图像识别采用标准的卷积网络,计算量较大,数据集的训练时间长的问题。
第一方面,本发明实施例提供了一种基于可分割卷积网络的图像识别方法,其包括:
接收原始图像数据;
将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵;
将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵;
将所述第二输出矩阵输入至池化层进行池化,得到池化结果;以及
将所述池化结果输入至全连接层,得到与所述原始图像数据对应的识别结果,将所述识别结果发送至所述原始图像数据对应的上传端。
第二方面,本发明实施例提供了一种基于可分割卷积网络的图像识别装置,其包括:
图片接收单元,用于接收原始图像数据;
浅层卷积单元,用于将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵;
深层卷积单元,用于将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵;
池化单元,用于将所述第二输出矩阵输入至池化层进行池化,得到池化结果;以及
识别结果获取单元,用于将所述池化结果输入至全连接层,得到与所述原始图像数据对应的识别结果,将所述识别结果发送至所述原始图像数据对应的上传端。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的基于可分割卷积网络的图像识别方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于可分割卷积网络的图像识别方法。
本发明实施例提供了一种基于可分割卷积网络的图像识别方法、装置、计算机设备及存储介质。该方法包括接收原始图像数据;将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵;将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵;将所述第二输出矩阵输入至池化层进行池化,得到池化结果;以及将所述池化结果输入至全连接层,得到与所述原始图像数据对应的识别结果,将所述识别结果发送至所述原始图像数据对应的上传端。该方法采用可分割卷积网络的图像识别,实现了图像识别过程中计算量的降低。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于可分割卷积网络的图像识别方法的应用场景示意图;
图2为本发明实施例提供的基于可分割卷积网络的图像识别方法的流程示意图;
图3为本发明实施例提供的基于可分割卷积网络的图像识别方法的子流程示意图;
图4为本发明实施例提供的基于可分割卷积网络的图像识别方法的另一子流程示意图;
图5为本发明实施例提供的基于可分割卷积网络的图像识别方法的另一子流程示意图;
图6为本发明实施例提供的基于可分割卷积网络的图像识别装置的示意性框图;
图7为本发明实施例提供的基于可分割卷积网络的图像识别装置的子单元示意性框图;
图8为本发明实施例提供的基于可分割卷积网络的图像识别装置的另一子单元示意性框图;
图9为本发明实施例提供的基于可分割卷积网络的图像识别装置的另一子单元示意性框图;
图10为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的基于可分割卷积网络的图像识别方法的应用场景示意图;图2为本发明实施例提供的基于可分割卷积网络的图像识别方法的流程示意图,该基于可分割卷积网络的图像识别方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S110~S150。
S110、接收原始图像数据。
在本实施例中,当用户需获取目标图像的图像识别结果时,操作用户终端(即上传端)将原始图像数据通过服务器所提供接口的用户交互界面上传,由服务器中的图像识别模型对所述原始图像数据进行识别,从而得到识别结果。
S120、将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵。
在本实施例中,当获取了原始图像数据后,需将其对应转化为像素矩阵,对像素矩阵进行后续处理。在现有技术中,采用卷积神经网络时是将原始图像数据的像素矩阵直接输入至卷积层进行卷积后,再输入池化层进行池化,最后将池化结果输入至全连接层得到识别结果。但由于原始图像的像素矩阵直接输入至卷积层进行卷积后,可能压缩程度不够,故本申请中采用一种基于标准卷积网络改进的可分割卷积网络,也即并不局限于只进行一次卷积。
在一实施例中,如图3所示,步骤S120包括:
S121、通过3*3的深度卷积核对所述像素矩阵进行卷积,得到第一卷积结果;
S122、将所述第一卷积结果中所包括的每一值进行归一化处理,得到第一归一化结果;
S123、将所述第一归一化结果通过第一激活函数进行激活,以得到第一输出矩阵。
在本实施例中,3*3的深度卷积核即Depthwise Convolution(DepthwiseConvolution即深度卷积,它是一种构建模型的基本思想,能够有效降低深度神经网络的计算复杂度)。卷积这个过程可以理解为使用一个过滤器(卷积核)来过滤图像的各个小区域,从而得到这些小区域的特征值。之后对第一卷积结果进行归一化处理和激活函数激活后,实现了一种浅层的卷积,实现了对像素矩阵中深度维度的卷积。
对于输入的每一个通道分别用1个D_k*D_k*1的卷积核进行卷积,共使用了M个卷积核,操作M次,得到M个D_f*D_f*1的特征图(第一输出矩阵可以视为特征图)。这些特征图分别是从输入的不同通道学习而来,彼此独立。
在一实施例中,步骤S121包括:
获取所述像素矩阵中的输入通道个数,通过与所述输入通道个数相同个数的3*3的深度卷积核遍历所述像素矩阵进行卷积,得到第一卷积结果。
在本实施例中,通过深度卷积核进行卷积时,比如输入的图片是Dk*Dk*M(Dk是图片大小,M是输入的通道数),则有M个Dw*Dw的深度卷积核,分别去跟M个通道进行卷积,输出D_f*D_f*M结果。即对于输入的每一个通道分别用1个D_k*D_k*1的卷积核进行卷积,共使用了M个卷积核,操作M次,得到M个D_f*D_f*1的特征图。
在进行深层卷积计算,与标准卷积相对比,各个通道是独立的,所以求和下标不需要M,这里将M次操作表达为一个公式。标准卷积计算量为:D_k*D_k*M*N*D_f*D_f。也就是说要计算出D_f*D_f个值,计算每个值需要对应的所有对应滑动窗口的值相乘,然后所有通道的值相加。本实施例中卷积计算量需要计算出D_f*D_f个值,每次的计算量为D_k*D_k,循环M次,为D_k*D_k*M*D_f*D_f。通过对像素矩阵中进行深度维度的卷积,实现了将像素矩阵变瘦,从而使得后续计算量得到降低。
在一实施例中,如图4所示,步骤S122包括:
S1221、获取所述第一卷积结果中所有值对应的第一平均值;
S1222、获取所述第一卷积结果中所有值对应的第一方差;
S1223、将所述第一卷积结果中每一值均减去第一方差得到的各差值除以所述第一方差,得到第一归一化结果。
在本实施例中,对卷积结果进行归一化处理(Batch Normalization,表示归一化),是为了解决在计算过程中,中间层数据分布发生改变的问题,以防止梯度消失或爆炸、加快训练速度。具体进行归一化处理时,是先计算所述第一卷积结果中所有值对应的第一平均值,然后计算取所述第一卷积结果中所有值对应的第一方差,最后通过将所述第一卷积结果中每一值均减去第一方差得到的各差值除以所述第一方差,得到第一归一化结果。
在一实施例中,步骤S123包括:
通过所述第一激活函数将所述第一归一化结果中的负值进行置零,以激活得到第一输出矩阵。
在本实施例中,将所述第一归一化结果通过第一激活函数进行激活,以得到第一输出矩阵,是增加了神经网络各层之间的非线性关系,否则,如果没有激活函数,层与层之间是简单的线性关系,每层都相当于矩阵相乘,无法完成神经网络所需完成的复杂任务。具体实施时,所述第一激活函数为Relu函数(Rectified linear unit,表示修正线性单元),Relu函数的作用就是增加了神经网络各层之间的非线性关系。Relu函数的表达式如下:f(x)=max(0,x),即只保留所述第一归一化结果中的正值,将所述第一归一化结果中的负值进行置零,以激活得到第一输出矩阵。
S130、将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵。
在本实施例中,当完成了浅层卷积后,可以通过卷积层中预先构建的第二卷积网络进行宽度维度的卷积,这一卷积过程视为深层卷积。
在一实施例中,如图5所示,步骤S130包括:
S131、通过1*1的卷积核对所述第一输出矩阵进行卷积,得到第二卷积结果;
S132、将所述第二卷积结果中所包括的每一值进行归一化处理,得到第二归一化结果;
S133、将所述第二归一化结果通过第二激活函数进行激活,以得到第二输出矩阵。
在本实施例中,对于步骤S120中得到的M个特征图作为M个通道的输入,用N个1×1×M的卷积核进行标准卷积,得到D_f*D_f*N的输出。计算量分析约为1*1*M*N*D_f*D_f,可节约计算量为:1/N+1/D_k2。一般卷积核为3*3,计算量能节约9倍左右。其中,在步骤S132中进行归一化处理的方式与步骤S122中相同,在步骤S133中进行激活函数进行激活处理的方式与步骤S123中相同。
S140、将所述第二输出矩阵输入至池化层进行池化,得到池化结果。
在本实施例中,将所述第二输出矩阵输入至池化层进行池化,是进一步对所述第二输出矩阵进行采样以降维。
原始图片是20*20的,对其进行下采样,采样窗口为10*10,最终将其下采样成为一个2*2大小的特征图。
之所以进行池化,是因为即使做完了卷积,图像仍然很大(因为卷积核比较小),所以为了降低数据维度,就进行下采样。在池化的过程中,即使减少了许多数据,特征的统计属性仍能够描述图像,而且由于降低了数据维度,有效地避免了过拟合。
在实际应用中,池化根据下采样的方法,分为最大值下采样(Max-Pooling)与平均值下采样(Mean-Pooling)。即将所述第二输出矩阵输入至池化层通过最大值下采样或平均值下采样进行池化,得到池化结果。
例如,上述原始图片是20*20的大小,对其进行最大值下采样,采样窗口为10*10,则将原始图片是20*20的区域划分为上左、上右、下左、下右4个10*10的区域,每一10*10的区域中取最大值作为该区域的特征值则是最大值下采样,每一10*10的区域中取平均值作为该区域的特征值则是最大值下采样。通过上述处理后不仅保留了图像的关键特征,而且实现了降维。
S150、将所述池化结果输入至全连接层,得到与所述原始图像数据对应的识别结果,将所述识别结果发送至所述原始图像数据对应的上传端。
在本实施例中,全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。若卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。在实际使用中,全连接层可由卷积操作实现:对前层是全连接的全连接层可以转化为卷积核为1*1的卷积;而前层是卷积层的全连接层可以转化为卷积核为h*w的全局卷积,h和w分别为前层卷积结果的高和宽。当获取了所述识别结果后,将所述识别结果发送至所述原始图像数据对应的上传端,以通知用户获取识别结果。
该方法采用可分割卷积网络的图像识别,实现了图像识别过程中计算量的降低。
本发明实施例还提供一种基于可分割卷积网络的图像识别装置,该基于可分割卷积网络的图像识别装置用于执行前述基于可分割卷积网络的图像识别方法的任一实施例。具体地,请参阅图6,图6是本发明实施例提供的基于可分割卷积网络的图像识别装置的示意性框图。该基于可分割卷积网络的图像识别装置100可以配置于服务器中。
如图6所示,基于可分割卷积网络的图像识别装置100包括图片接收单元110、浅层卷积单元120、深层卷积单元130、池化单元140、识别结果获取单元150。
图片接收单元110,用于接收原始图像数据。
在本实施例中,当用户需获取目标图像的图像识别结果时,操作用户终端(即上传端)将原始图像数据通过服务器所提供接口的用户交互界面上传,由服务器中的图像识别模型对所述原始图像数据进行识别,从而得到识别结果。
浅层卷积单元120,用于将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵。
在本实施例中,当获取了原始图像数据后,需将其对应转化为像素矩阵,对像素矩阵进行后续处理。在现有技术中,采用卷积神经网络时是将原始图像数据的像素矩阵直接输入至卷积层进行卷积后,再输入池化层进行池化,最后将池化结果输入至全连接层得到识别结果。但由于原始图像的像素矩阵直接输入至卷积层进行卷积后,可能压缩程度不够,故本申请中采用一种基于标准卷积网络改进的可分割卷积网络,也即并不局限于只进行一次卷积。
在一实施例中,如图7所示,浅层卷积单元120包括:
第一卷积单元121,用于通过3*3的深度卷积核对所述像素矩阵进行卷积,得到第一卷积结果;
第一归一化单元122,用于将所述第一卷积结果中所包括的每一值进行归一化处理,得到第一归一化结果;
第一激活单元123,用于将所述第一归一化结果通过第一激活函数进行激活,以得到第一输出矩阵。
在本实施例中,3*3的深度卷积核即Depthwise Convolution(DepthwiseConvolution即深度卷积,它是一种构建模型的基本思想,能够有效降低深度神经网络的计算复杂度)。卷积这个过程可以理解为使用一个过滤器(卷积核)来过滤图像的各个小区域,从而得到这些小区域的特征值。之后对第一卷积结果进行归一化处理和激活函数激活后,实现了一种浅层的卷积,实现了对像素矩阵中深度维度的卷积。
对于输入的每一个通道分别用1个D_k*D_k*1的卷积核进行卷积,共使用了M个卷积核,操作M次,得到M个D_f*D_f*1的特征图(第一输出矩阵可以视为特征图)。这些特征图分别是从输入的不同通道学习而来,彼此独立。
在一实施例中,第一卷积单元121还用于:
获取所述像素矩阵中的输入通道个数,通过与所述输入通道个数相同个数的3*3的深度卷积核遍历所述像素矩阵进行卷积,得到第一卷积结果。
在本实施例中,通过深度卷积核进行卷积时,比如输入的图片是Dk*Dk*M(Dk是图片大小,M是输入的通道数),则有M个Dw*Dw的深度卷积核,分别去跟M个通道进行卷积,输出D_f*D_f*M结果。即对于输入的每一个通道分别用1个D_k*D_k*1的卷积核进行卷积,共使用了M个卷积核,操作M次,得到M个D_f*D_f*1的特征图。
在进行深层卷积计算,与标准卷积相对比,各个通道是独立的,所以求和下标不需要M,这里将M次操作表达为一个公式。标准卷积计算量为:D_k*D_k*M*N*D_f*D_f。也就是说要计算出D_f*D_f个值,计算每个值需要对应的所有对应滑动窗口的值相乘,然后所有通道的值相加。本实施例中卷积计算量需要计算出D_f*D_f个值,每次的计算量为D_k*D_k,循环M次,为D_k*D_k*M*D_f*D_f。通过对像素矩阵中进行深度维度的卷积,实现了将像素矩阵变瘦,从而使得后续计算量得到降低。
在一实施例中,如图8所示,第一归一化单元122包括:
平均值获取单元1221,用于获取所述第一卷积结果中所有值对应的第一平均值;
方差获取单元1222,用于获取所述第一卷积结果中所有值对应的第一方差;
归一化计算单元1223,用于将所述第一卷积结果中每一值均减去第一方差得到的各差值除以所述第一方差,得到第一归一化结果。
在本实施例中,对卷积结果进行归一化处理(Batch Normalization,表示归一化),是为了解决在计算过程中,中间层数据分布发生改变的问题,以防止梯度消失或爆炸、加快训练速度。具体进行归一化处理时,是先计算所述第一卷积结果中所有值对应的第一平均值,然后计算取所述第一卷积结果中所有值对应的第一方差,最后通过将所述第一卷积结果中每一值均减去第一方差得到的各差值除以所述第一方差,得到第一归一化结果。
在一实施例中,所述第一激活单元123还用于:
通过所述第一激活函数将所述第一归一化结果中的负值进行置零,以激活得到第一输出矩阵。
在本实施例中,将所述第一归一化结果通过第一激活函数进行激活,以得到第一输出矩阵,是增加了神经网络各层之间的非线性关系,否则,如果没有激活函数,层与层之间是简单的线性关系,每层都相当于矩阵相乘,无法完成神经网络所需完成的复杂任务。具体实施时,所述第一激活函数为Relu函数(Rectified linear unit,表示修正线性单元),Relu函数的作用就是增加了神经网络各层之间的非线性关系。Relu函数的表达式如下:f(x)=max(0,x),即只保留所述第一归一化结果中的正值,将所述第一归一化结果中的负值进行置零,以激活得到第一输出矩阵。
深层卷积单元130,用于将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵。
在本实施例中,当完成了浅层卷积后,可以通过卷积层中预先构建的第二卷积网络进行宽度维度的卷积,这一卷积过程视为深层卷积。
在一实施例中,如图9所示,深层卷积单元130包括:
第二卷积单元131,用于通过1*1的卷积核对所述第一输出矩阵进行卷积,得到第二卷积结果;
第二归一化单元132,用于132、将所述第二卷积结果中所包括的每一值进行归一化处理,得到第二归一化结果;
第二激活单元133,用于将所述第二归一化结果通过第二激活函数进行激活,以得到第二输出矩阵。
在本实施例中,对于浅层卷积单元120中得到的M个特征图作为M个通道的输入,用N个1×1×M的卷积核进行标准卷积,得到D_f*D_f*N的输出。计算量分析约为1*1*M*N*D_f*D_f,可节约计算量为:1/N+1/D_k2。一般卷积核为3*3,计算量能节约9倍左右。其中,在第二归一化单元132中进行归一化处理的方式与第一归一化单元122中相同,在第二激活单元133中进行激活函数进行激活处理的方式与第一激活单元123中相同。
池化单元140,用于将所述第二输出矩阵输入至池化层进行池化,得到池化结果。
在本实施例中,将所述第二输出矩阵输入至池化层进行池化,是进一步对所述第二输出矩阵进行采样以降维。
原始图片是20*20的,对其进行下采样,采样窗口为10*10,最终将其下采样成为一个2*2大小的特征图。
之所以进行池化,是因为即使做完了卷积,图像仍然很大(因为卷积核比较小),所以为了降低数据维度,就进行下采样。在池化的过程中,即使减少了许多数据,特征的统计属性仍能够描述图像,而且由于降低了数据维度,有效地避免了过拟合。
在实际应用中,池化根据下采样的方法,分为最大值下采样(Max-Pooling)与平均值下采样(Mean-Pooling)。即将所述第二输出矩阵输入至池化层通过最大值下采样或平均值下采样进行池化,得到池化结果。
例如,上述原始图片是20*20的大小,对其进行最大值下采样,采样窗口为10*10,则将原始图片是20*20的区域划分为上左、上右、下左、下右4个10*10的区域,每一10*10的区域中取最大值作为该区域的特征值则是最大值下采样,每一10*10的区域中取平均值作为该区域的特征值则是最大值下采样。通过上述处理后不仅保留了图像的关键特征,而且实现了降维。
识别结果获取单元150,用于将所述池化结果输入至全连接层,得到与所述原始图像数据对应的识别结果,将所述识别结果发送至所述原始图像数据对应的上传端。
在本实施例中,全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。若卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。在实际使用中,全连接层可由卷积操作实现:对前层是全连接的全连接层可以转化为卷积核为1*1的卷积;而前层是卷积层的全连接层可以转化为卷积核为h*w的全局卷积,h和w分别为前层卷积结果的高和宽。当获取了所述识别结果后,将所述识别结果发送至所述原始图像数据对应的上传端,以通知用户获取识别结果。
该装置采用可分割卷积网络的图像识别,实现了图像识别过程中计算量的降低。
上述基于可分割卷积网络的图像识别装置可以实现为计算机程序的形式,该计算机程序可以在如图10所示的计算机设备上运行。
请参阅图10,图10是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图10,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行基于可分割卷积网络的图像识别方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行基于可分割卷积网络的图像识别方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图10中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下功能:接收原始图像数据;将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵;将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵;将所述第二输出矩阵输入至池化层进行池化,得到池化结果;以及将所述池化结果输入至全连接层,得到与所述原始图像数据对应的识别结果,将所述识别结果发送至所述原始图像数据对应的上传端。
在一实施例中,处理器502在执行所述将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵的步骤时,执行如下操作:通过3*3的深度卷积核对所述像素矩阵进行卷积,得到第一卷积结果;将所述第一卷积结果中所包括的每一值进行归一化处理,得到第一归一化结果;将所述第一归一化结果通过第一激活函数进行激活,以得到第一输出矩阵。
在一实施例中,处理器502在执行所述将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵的步骤时,执行如下操作:通过1*1的卷积核对所述第一输出矩阵进行卷积,得到第二卷积结果;将所述第二卷积结果中所包括的每一值进行归一化处理,得到第二归一化结果;将所述第二归一化结果通过第二激活函数进行激活,以得到第二输出矩阵。
在一实施例中,处理器502在执行所述通过3*3的深度卷积核对所述像素矩阵进行卷积,得到第一卷积结果的步骤时,执行如下操作:获取所述像素矩阵中的输入通道个数,通过与所述输入通道个数相同个数的3*3的深度卷积核遍历所述像素矩阵进行卷积,得到第一卷积结果。
在一实施例中,处理器502在执行所述将所述第一卷积结果中所包括的每一值进行归一化处理,得到第一归一化结果的步骤时,执行如下操作:获取所述第一卷积结果中所有值对应的第一平均值;获取所述第一卷积结果中所有值对应的第一方差;将所述第一卷积结果中每一值均减去第一方差得到的各差值除以所述第一方差,得到第一归一化结果。
在一实施例中,处理器502在执行所述将所述第一归一化结果通过第一激活函数进行激活,以得到第一输出矩阵的步骤时,执行如下操作:通过所述第一激活函数将所述第一归一化结果中的负值进行置零,以激活得到第一输出矩阵。
在一实施例中,处理器502在执行所述将所述第二输出矩阵输入至池化层进行池化,得到池化结果的步骤时,执行如下操作:将所述第二输出矩阵输入至池化层通过最大值下采样或平均值下采样进行池化,得到池化结果。
本领域技术人员可以理解,图10中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图10所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现以下步骤:接收原始图像数据;将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵;将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵;将所述第二输出矩阵输入至池化层进行池化,得到池化结果;以及将所述池化结果输入至全连接层,得到与所述原始图像数据对应的识别结果,将所述识别结果发送至所述原始图像数据对应的上传端。
在一实施例中,所述将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵,包括:通过3*3的深度卷积核对所述像素矩阵进行卷积,得到第一卷积结果;将所述第一卷积结果中所包括的每一值进行归一化处理,得到第一归一化结果;将所述第一归一化结果通过第一激活函数进行激活,以得到第一输出矩阵。
在一实施例中,所述将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵,包括:通过1*1的卷积核对所述第一输出矩阵进行卷积,得到第二卷积结果;将所述第二卷积结果中所包括的每一值进行归一化处理,得到第二归一化结果;将所述第二归一化结果通过第二激活函数进行激活,以得到第二输出矩阵。
在一实施例中,所述通过3*3的深度卷积核对所述像素矩阵进行卷积,得到第一卷积结果,包括:获取所述像素矩阵中的输入通道个数,通过与所述输入通道个数相同个数的3*3的深度卷积核遍历所述像素矩阵进行卷积,得到第一卷积结果。
在一实施例中,所述将所述第一卷积结果中所包括的每一值进行归一化处理,得到第一归一化结果,包括:获取所述第一卷积结果中所有值对应的第一平均值;获取所述第一卷积结果中所有值对应的第一方差;将所述第一卷积结果中每一值均减去第一方差得到的各差值除以所述第一方差,得到第一归一化结果。
在一实施例中,所述将所述第一归一化结果通过第一激活函数进行激活,以得到第一输出矩阵,包括:通过所述第一激活函数将所述第一归一化结果中的负值进行置零,以激活得到第一输出矩阵。
在一实施例中,所述将所述第二输出矩阵输入至池化层进行池化,得到池化结果,包括:将所述第二输出矩阵输入至池化层通过最大值下采样或平均值下采样进行池化,得到池化结果。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种基于可分割卷积网络的图像识别方法,其特征在于,包括:
接收原始图像数据;
将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵;
将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵;
将所述第二输出矩阵输入至池化层进行池化,得到池化结果;以及
将所述池化结果输入至全连接层,得到与所述原始图像数据对应的识别结果,将所述识别结果发送至所述原始图像数据对应的上传端。
2.根据权利要求1所述的基于可分割卷积网络的图像识别方法,其特征在于,所述将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵,包括:
通过3*3的深度卷积核对所述像素矩阵进行卷积,得到第一卷积结果;
将所述第一卷积结果中所包括的每一值进行归一化处理,得到第一归一化结果;
将所述第一归一化结果通过第一激活函数进行激活,以得到第一输出矩阵。
3.根据权利要求1所述的基于可分割卷积网络的图像识别方法,其特征在于,所述将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵,包括:
通过1*1的卷积核对所述第一输出矩阵进行卷积,得到第二卷积结果;
将所述第二卷积结果中所包括的每一值进行归一化处理,得到第二归一化结果;
将所述第二归一化结果通过第二激活函数进行激活,以得到第二输出矩阵。
4.根据权利要求2所述的基于可分割卷积网络的图像识别方法,其特征在于,所述通过3*3的深度卷积核对所述像素矩阵进行卷积,得到第一卷积结果,包括:
获取所述像素矩阵中的输入通道个数,通过与所述输入通道个数相同个数的3*3的深度卷积核遍历所述像素矩阵进行卷积,得到第一卷积结果。
5.根据权利要求2所述的基于可分割卷积网络的图像识别方法,其特征在于,所述将所述第一卷积结果中所包括的每一值进行归一化处理,得到第一归一化结果,包括:
获取所述第一卷积结果中所有值对应的第一平均值;
获取所述第一卷积结果中所有值对应的第一方差;
将所述第一卷积结果中每一值均减去第一方差得到的各差值除以所述第一方差,得到第一归一化结果。
6.根据权利要求2所述的基于可分割卷积网络的图像识别方法,其特征在于,所述将所述第一归一化结果通过第一激活函数进行激活,以得到第一输出矩阵,包括:
通过所述第一激活函数将所述第一归一化结果中的负值进行置零,以激活得到第一输出矩阵。
7.根据权利要求1所述的基于可分割卷积网络的图像识别方法,其特征在于,所述将所述第二输出矩阵输入至池化层进行池化,得到池化结果,包括:将所述第二输出矩阵输入至池化层通过最大值下采样或平均值下采样进行池化,得到池化结果。
8.一种基于可分割卷积网络的图像识别装置,其特征在于,包括:
图片接收单元,用于接收原始图像数据;
浅层卷积单元,用于将与所述原始图像数据对应的像素矩阵输入至卷积层中预先构建的第一卷积网络进行卷积,得到第一输出矩阵;
深层卷积单元,用于将所述第一输出矩阵输入至卷积层中预先构建的第二卷积网络进行卷积,得到第二输出矩阵;
池化单元,用于将所述第二输出矩阵输入至池化层进行池化,得到池化结果;以及
识别结果获取单元,用于将所述池化结果输入至全连接层,得到与所述原始图像数据对应的识别结果,将所述识别结果发送至所述原始图像数据对应的上传端。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的基于可分割卷积网络的图像识别方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至7任一项所述的基于可分割卷积网络的图像识别方法。
CN201910433281.2A 2019-05-23 2019-05-23 基于可分割卷积网络的图像识别方法、装置及计算机设备 Pending CN110298346A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910433281.2A CN110298346A (zh) 2019-05-23 2019-05-23 基于可分割卷积网络的图像识别方法、装置及计算机设备
PCT/CN2019/117743 WO2020233010A1 (zh) 2019-05-23 2019-11-13 基于可分割卷积网络的图像识别方法、装置及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910433281.2A CN110298346A (zh) 2019-05-23 2019-05-23 基于可分割卷积网络的图像识别方法、装置及计算机设备

Publications (1)

Publication Number Publication Date
CN110298346A true CN110298346A (zh) 2019-10-01

Family

ID=68027095

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910433281.2A Pending CN110298346A (zh) 2019-05-23 2019-05-23 基于可分割卷积网络的图像识别方法、装置及计算机设备

Country Status (2)

Country Link
CN (1) CN110298346A (zh)
WO (1) WO2020233010A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008924A (zh) * 2019-12-02 2020-04-14 西安交通大学深圳研究院 一种图像处理方法、装置、电子设备及存储介质
CN111833360A (zh) * 2020-07-14 2020-10-27 腾讯科技(深圳)有限公司 一种图像处理方法、装置、设备以及计算机可读存储介质
WO2020233010A1 (zh) * 2019-05-23 2020-11-26 平安科技(深圳)有限公司 基于可分割卷积网络的图像识别方法、装置及计算机设备
WO2021051464A1 (zh) * 2019-09-20 2021-03-25 成都芯云微电子有限公司 一种包括周边环境的图像识别方法及装置
CN117492899A (zh) * 2024-01-02 2024-02-02 中移(苏州)软件技术有限公司 即时传输及显示方法、装置、设备及存储介质

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114580487A (zh) * 2020-11-30 2022-06-03 深圳市瑞图生物技术有限公司 基于深度学习的染色体识别方法、装置、设备和存储介质
CN112686936B (zh) * 2020-12-18 2023-08-04 北京百度网讯科技有限公司 图像深度补全方法、装置、计算机设备、介质和程序产品
CN112819006B (zh) * 2020-12-31 2023-12-22 北京声智科技有限公司 图像处理方法、装置及电子设备
CN112819199A (zh) * 2020-12-31 2021-05-18 上海眼控科技股份有限公司 降水量的预测方法、装置、设备和存储介质
CN113344092B (zh) * 2021-06-18 2022-10-11 中科迈航信息技术有限公司 Ai的图像识别方法及终端装置
CN113591987B (zh) * 2021-07-30 2023-12-12 金地(集团)股份有限公司 图像识别方法、装置、电子设备和介质
CN113989940B (zh) * 2021-11-17 2024-03-29 中国科学技术大学 视频数据中动作识别方法、系统、设备与存储介质
CN114758304B (zh) * 2022-06-13 2022-09-02 江苏中腾石英材料科技股份有限公司 一种高纯圆角石英粉的过筛设备及其过筛控制方法
CN115984105B (zh) * 2022-12-07 2023-08-01 深圳大学 空洞卷积优化方法、装置、计算机设备及存储介质
CN115987511B (zh) * 2023-03-07 2023-05-23 北京数牍科技有限公司 图像推理方法、装置、电子设备及计算机可读存储介质
CN116433661B (zh) * 2023-06-12 2023-08-18 锋睿领创(珠海)科技有限公司 多任务学习的半导体晶圆检测方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599900A (zh) * 2015-10-20 2017-04-26 华中科技大学 一种识别图像中的字符串的方法和装置
CN107909016A (zh) * 2017-11-03 2018-04-13 车智互联(北京)科技有限公司 一种卷积神经网络生成方法及车系识别方法
WO2018120740A1 (zh) * 2016-12-29 2018-07-05 深圳光启合众科技有限公司 图片分类方法和装置、机器人
CN109033940A (zh) * 2018-06-04 2018-12-18 上海依图网络科技有限公司 一种图像识别方法、装置、计算设备及存储介质
CN109711422A (zh) * 2017-10-26 2019-05-03 北京邮电大学 图像数据处理、模型的建立方法、装置、计算机设备和存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446937A (zh) * 2016-09-08 2017-02-22 天津大学 用于aer图像传感器的多层卷积识别系统
US9984325B1 (en) * 2017-10-04 2018-05-29 StradVision, Inc. Learning method and learning device for improving performance of CNN by using feature upsampling networks, and testing method and testing device using the same
CN110298346A (zh) * 2019-05-23 2019-10-01 平安科技(深圳)有限公司 基于可分割卷积网络的图像识别方法、装置及计算机设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599900A (zh) * 2015-10-20 2017-04-26 华中科技大学 一种识别图像中的字符串的方法和装置
WO2018120740A1 (zh) * 2016-12-29 2018-07-05 深圳光启合众科技有限公司 图片分类方法和装置、机器人
CN109711422A (zh) * 2017-10-26 2019-05-03 北京邮电大学 图像数据处理、模型的建立方法、装置、计算机设备和存储介质
CN107909016A (zh) * 2017-11-03 2018-04-13 车智互联(北京)科技有限公司 一种卷积神经网络生成方法及车系识别方法
CN109033940A (zh) * 2018-06-04 2018-12-18 上海依图网络科技有限公司 一种图像识别方法、装置、计算设备及存储介质

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020233010A1 (zh) * 2019-05-23 2020-11-26 平安科技(深圳)有限公司 基于可分割卷积网络的图像识别方法、装置及计算机设备
WO2021051464A1 (zh) * 2019-09-20 2021-03-25 成都芯云微电子有限公司 一种包括周边环境的图像识别方法及装置
CN111008924A (zh) * 2019-12-02 2020-04-14 西安交通大学深圳研究院 一种图像处理方法、装置、电子设备及存储介质
CN111008924B (zh) * 2019-12-02 2023-09-12 西安交通大学深圳研究院 一种图像处理方法、装置、电子设备及存储介质
CN111833360A (zh) * 2020-07-14 2020-10-27 腾讯科技(深圳)有限公司 一种图像处理方法、装置、设备以及计算机可读存储介质
CN111833360B (zh) * 2020-07-14 2024-03-26 腾讯科技(深圳)有限公司 一种图像处理方法、装置、设备以及计算机可读存储介质
CN117492899A (zh) * 2024-01-02 2024-02-02 中移(苏州)软件技术有限公司 即时传输及显示方法、装置、设备及存储介质
CN117492899B (zh) * 2024-01-02 2024-04-09 中移(苏州)软件技术有限公司 即时传输及显示方法、装置、设备及存储介质

Also Published As

Publication number Publication date
WO2020233010A1 (zh) 2020-11-26

Similar Documents

Publication Publication Date Title
CN110298346A (zh) 基于可分割卷积网络的图像识别方法、装置及计算机设备
CN108830211A (zh) 基于深度学习的人脸识别方法及相关产品
CN110163827A (zh) 图像去噪模型的训练方法、图像去噪方法、装置及介质
CN110097086A (zh) 图像生成模型训练方法、图像生成方法、装置、设备及存储介质
CN111950723A (zh) 神经网络模型训练方法、图像处理方法、装置及终端设备
CN109766925B (zh) 特征融合方法、装置、电子设备及存储介质
CN109902723A (zh) 图像处理方法及装置
CN104809426A (zh) 卷积神经网络的训练方法、目标识别方法及装置
CN109978764A (zh) 一种图像处理方法及计算设备
CN113228061A (zh) 电子装置及其控制方法
CN110197183B (zh) 一种图像盲去噪的方法、装置、计算机设备和存储介质
CN109685068A (zh) 一种基于生成对抗神经网络的图像处理方法以及系统
CN115409755B (zh) 贴图处理方法和装置、存储介质及电子设备
CN109996023A (zh) 图像处理方法和装置
CN109754074A (zh) 一种神经网络量化方法、装置以及相关产品
CN107908998A (zh) 二维码解码方法、装置、终端设备及计算机可读存储介质
CN109754359A (zh) 一种应用于卷积神经网络的池化处理的方法及系统
CN110148088A (zh) 图像处理方法、图像去雨方法、装置、终端及介质
EP3520034A1 (en) Convolutional neural network
CN110321761A (zh) 一种行为识别方法、终端设备及计算机可读存储介质
CN109785246A (zh) 一种非局部均值滤波的降噪方法、装置及设备
CN108205802A (zh) 深度神经网络模型训练、图片处理方法及装置和设备
CN111986092B (zh) 一种基于双重网络的图像超分辨率重建方法及系统
CN109118490A (zh) 一种图像分割网络生成方法及图像分割方法
CN109697090A (zh) 一种控制终端设备的方法、终端设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination