CN108875787B - 一种图像识别方法及装置、计算机设备和存储介质 - Google Patents
一种图像识别方法及装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN108875787B CN108875787B CN201810500185.0A CN201810500185A CN108875787B CN 108875787 B CN108875787 B CN 108875787B CN 201810500185 A CN201810500185 A CN 201810500185A CN 108875787 B CN108875787 B CN 108875787B
- Authority
- CN
- China
- Prior art keywords
- convolutional
- layer
- neural network
- output
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000013528 artificial neural network Methods 0.000 claims abstract description 61
- 238000003062 neural network model Methods 0.000 claims abstract description 34
- 238000010606 normalization Methods 0.000 claims abstract description 21
- 238000012545 processing Methods 0.000 claims description 110
- 238000010586 diagram Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 description 45
- 230000005284 excitation Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010200 validation analysis Methods 0.000 description 8
- 101100153581 Bacillus anthracis topX gene Proteins 0.000 description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 7
- 101150041570 TOP1 gene Proteins 0.000 description 7
- 238000005070 sampling Methods 0.000 description 7
- 230000006978 adaptation Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241001441571 Hiodontidae Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Abstract
本发明实施例提供一种图像识别方法及装置、计算机设备和存储介质,其中,所述方法包括:获取待识别图像;将所述待识别图像输入,经过训练得到的神经网络模型,得到所述待识别图像的识别结果,其中,所述神经网络模型是对所述神经网络中卷积层输出的特征图进行实例归一化和批归一化处理后得到的;输出所述待识别图像的识别结果。
Description
技术领域
本发明涉及深度学习领域,尤其涉及一种图像识别方法及装置、计算机设备和存储介质。
背景技术
卷积神经网络(Convolutional Neural Networks,CNN)已经成为计算机视觉领域的主流方法。对于图像理解任务例如图像分类,物体检测和语义分割,现有的主流卷积神经网络例如是牛津大学计算机视觉组(Visual Geometry Group,VGG),残差网络(ResidualNetwork,ResNet),密集连接卷积网络(Dense Convolutional Network,DenseNet)等均采用批归一化(Batch Normalization,BN)来加速训练。然而,这些卷积神经网络对于图像外观的变化有较差的鲁棒性。例如,当图像的颜色、对比度、风格、场景等发生变化时,这些卷积神经网络的性能会显著下降。
此外,在图像外观转换领域,实例归一化(Instance Normalization,IN)被用于卷积神经网络中来提升其对不同外观图像的适应能力。然而,实例归一化并未被成功用于图像理解任务中,而且在现有技术中无论是在CNN中采用BN还是IN都没有很好的提升卷积神经网络的性能。
发明内容
有鉴于此,本发明实施例提供一种图像识别方法及装置、计算机设备和存储介质,解决了现有技术方案中,当图像外观发生变化时,在神经网络中单独采用BN或IN进行处理之后,图像识别正确率较低的问题,通过将IN和BN结合后应用在神经网络中,有效的提高了图像识别的正确率。
本发明实施例的技术方案是这样实现的:
本发明实施例提供一种图像识别方法,所述方法包括:
获取待识别图像;
将所述待识别图像输入,经过训练得到的神经网络模型,得到所述待识别图像的识别结果,其中,所述神经网络模型是对所述神经网络中卷积层输出的特征图进行IN和BN处理后得到的;
输出所述待识别图像的识别结果。
在本发明实施例中,所述神经网络模型的训练过程,包括:
从所述神经网络的卷积层中确定第一卷积层集合和所述第二卷积层集合;
对所述第一卷积层集合中的每一卷积层输出的特征图进行IN处理;
对所述第二卷积层集合中的每一卷积层输出的特征图进行BN处理。
在本发明实施例中,所述第一卷积层集合和所述第二卷积层集合组成的集合为所述神经网络的所有卷积层中的全部或部分。
在本发明实施例中,所述第一卷积层集合与所述第二卷积层集合不具有交集,或者,所述第一卷积层集合与所述第二卷积层集合具有交集;或者,所述第二卷积层集合为所述第一卷积层集合的子集合。
在本发明实施例中,所述对所述第一卷积层集合中的每一卷积层输出的特征图进行IN处理,包括:
从所述第一卷积层集合中的每一所述卷积层输出的特征图对应的通道中确定第一通道集合;
对所述第一通道集合进行IN处理。
在本发明实施例中,所述对所述第二卷积层集合中的每一卷积层输出的特征图进行BN处理,包括:
从每一所述卷积层输出的特征图对应的通道中确定第二通道集合;
对所述第二通道集合进行BN处理。
在本发明实施例中,所述第一通道集合为所述第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分;所述第二通道集合为所述第二卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分。
在本发明实施例中,所述第一卷积层集合中不包括所述神经网络中的最后一层卷积层。
在本发明实施例中,所述方法还包括:
对所述神经网络的两个块对应的特征图进行求和,得到输出结果,对所述输出结果进行IN处理;其中,所述神经网络至少包括两个块,且每一块的最后一层输出的特征图对应的通道数与上一块的最后一层输出的特征图对应的通道数相同。
本发明实施例提供一种图像识别装置,所述装置包括:第一获取模块、第一处理模块和第一输出模块,其中:
第一获取模块,用于获取待识别图像;
第一处理模块,用于将所述待识别图像输入,经过训练得到的神经网络模型,得到所述待识别图像的识别结果,其中,所述神经网络模型是对神经网络进行IN和BN处理得到的。
第一输出模块,用于输出所述待识别图像的识别结果。
在本发明实施例中,所述装置还包括:
第二处理模块,用于对所述神经网络中卷积层输出的特征图进行IN和BN处理,到所述神经网络模型。
在本发明实施例中,所述第二处理模块,包括:
第一确定模块,用于从所述神经网络的卷积层中确定第一卷积层集合和所述第二卷积层集合;
第一子处理模块,用于对所述第一卷积层集合中的每一卷积层输出的特征图进行IN处理;
第二子处理模块,用于对所述第二卷积层集合中的每一卷积层输出的特征图进行BN处理。
在本发明实施例中,所述第一卷积层集合和所述第二卷积层集合组成的集合为所述神经网络的所有卷积层中的全部或部分。
在本发明实施例中,所述第一卷积层集合与所述第二卷积层集合不具有交集,或者,所述第一卷积层集合与所述第二卷积层集合具有交集;或者,所述第二卷积层集合为所述第一卷积层集合的子集合。
在本发明实施例中,所述第一子处理模块包括:
第一子确定模块,用于从所述第一卷积层集合中的每一所述卷积层输出的特征图对应的通道中确定第一通道集合;
第三子处理模块,用于对所述第一通道集合进行IN处理。
在本发明实施例中,所述第二子处理模块,包括:
第二子确定单元,用于从每一所述卷积层输出的特征图对应的通道中确定第二通道集合;
第四子处理模块,用于对所述第二通道集合进行BN处理。
在本发明实施例中,所述第一通道集合为所述第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分;所述第二通道集合为所述第二卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分。
在本发明实施例中,所述装置还包括:
第二处理模块,用于对所述神经网络的两个块对应的特征图进行求和,得到输出结果,对所述输出结果进行IN处理;其中,所述神经网络至少包括两个块,且每一块的最后一层输出的特征图对应的通道数与上一块的最后一层输出的特征图对应的通道数相同。
在本发明实施例中,所述装置还包括:
所述第一卷积层集合中不包括所述神经网络中的最后一层卷积层。
本发明实施例提供一种计算机程序产品,所述计算机程序产品包括计算机可执行指令,该计算机可执行指令被执行后,能够实现本发明实施例提供的图像识别方法中的步骤。
本发明实施例提供一种计算机存储介质,所述计算机存储介质上存储有计算机可执行指令,该计算机可执行指令被执行后,能够实现本发明实施例提供的图像识别方法中的步骤。
本发明实施例提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器上存储有计算机可执行指令,所述处理器运行所述存储器上的计算机可执行指令时可实现本发明实施例提供的图像识别方法中的步骤。
本发明实施例提供一种图像识别方法及装置、计算机设备和存储介质,其中,首先,获取待识别图像;然后,将所述待识别图像输入,经过训练得到的神经网络模型,得到所述待识别图像的识别结果,其中,所述神经网络模型是对所述神经网络中卷积层输出的特征图进行IN和BN处理后得到的;最后,输出所述待识别图像的识别结果;如此,通过将IN和BN结合后应用在神经网络中,有效的提高了图像识别的正确率。
附图说明
图1A为本发明实施例网络架构的组成结构示意图
图1B为本发明实施例图像识别方法的实现流程示意图;
图1C为本发明实施例实现图像识别方法的网络架构图;
图1D为本发明实施例又一实现图像识别方法的网络架构图;
图2为本发明实施例图像识别方法的又一实现流程示意图;
图3为本发明实施例基于残差网络的组成结构图;
图4为本发明实施例又一基于残差网络的组成结构图;
图5为本发明实施例图像识别装置的组成结构示意图;
图6为本发明实施例计算机设备的组成结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对发明的具体技术方案做进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本实施例先提供一种网络架构,图1A为本发明实施例网络架构的组成结构示意图,如图1A所示,该网络架构包括两个或多个计算机设备11至1N和服务器31,其中计算机设备11至1N与服务器31之间通过网络21进行交互。计算机设备在实现的过程中可以为各种类型的具有信息处理能力的计算设备,例如所述计算机设备可以包括手机、平板电脑、台式机、个人数字助理、导航仪、数字电话、电视机等。
本实施例提出一种图像识别方法,能够有效解决输出图像的结构信息与输入图像相比发生变化的问题,该方法应用于计算机设备,该方法所实现的功能可以通过计算机设备中的处理器调用程序代码来实现,当然程序代码可以保存在计算机存储介质中,可见,该计算机设备至少包括处理器和存储介质。
为了更好的理解本实施例,这里对神经网络相关的专业术语加以解释,通道(Channel),该词语有两种不同的含义,第一种是对于样本图像(图像作为训练样本),通道是指颜色通道,下面将用颜色通道来表示样本图像的通道;第二种是输出空间的维数,例如卷积操作中输出通道的个数,或者说每个卷积层中卷积核的数量。
颜色通道,把图像分解成一个或多个颜色成分或颜色分量。
单颜色通道,一个像素点只需一个数值表示,只能表示灰度,0为黑色。
三颜色通道,如果采用红绿蓝(Red Green Blue,RGB)色彩模式,把图像分为红绿蓝三个颜色通道,可以表示彩色,全0表示黑色。
四颜色通道,在RGB色彩模式的基础上加上alpha通道,表示透明度,alpha=0表示全透明。
卷积神经网络,是一种多层的监督学习神经网络,隐含层的卷积层和池采样层是实现卷积神经网络特征提取功能的核心模块。卷积神经网络的低隐层是由卷积层和最大池采样层交替组成,高层是全连接层对应传统多层感知器的隐含层和逻辑回归分类器。第一个全连接层的输入是由卷积层和子采样层进行特征提取得到的特征图像。最后一层输出层是一个分类器,可以采用逻辑回归,Softmax回归甚至是支持向量机对输入图像进行分类。CNN中每一层的由多个图(map)组成,每个map由多个神经单元组成,同一个map的所有神经单元共用一个卷积核(即权重),卷积核往往代表一个特征,比如某个卷积核代表一段弧,那么把这个卷积核在整个图像上卷积一遍,卷积值较大的区域就很有可能是一段弧。CNN一般采用卷积层与采样层交替设置,即一层卷积层接一层采样层,采样层后接一层卷积;当然也可以多个卷积层接一个采样层,这样卷积层提取出特征,再进行组合形成更抽象的特征,最后形成对图像对象的描述特征,CNN后面还可以跟全连接层。
ReLU函数,其公式即为个ReLU(x)=max(0,x),从ReLU函数的图形可以看出ReLU与其他激活函数例如sigmoid函数相比,主要变化有三点:①单侧抑制;②相对宽阔的激活边界;③稀疏激活性。
VGG模型,VGG模型结构简单有效,前几层仅使用3×3卷积核来增加网络深度,通过最大池化(Max Pooling)依次减少每层的神经元数量,最后三层分别是2个有4096个神经元的全连接层和一个softmax层。“16”和“19”表示网络中的需要更新权重(即weight,要学习的参数)的卷积层和全连接层的层数,VGG16模型和VGG19模型的权重都由ImageNet训练而来。
本实施例提供一种图像识别方法,图1B为本发明实施例图像识别方法的实现流程示意图,如图1B所示,所述方法包括以下步骤:
步骤S101,获取待识别图像。
这里,所述步骤S101可以是由计算机设备实现的,进一步地,所述计算机设备可以是智能终端,例如可以是移动电话(比如,手机)、平板电脑、笔记本电脑等具有无线通信能力的移动终端设备,还可以是台式计算机等不便移动的智能终端设备。所述计算机设备用于进行图像识别或处理。
在本实施例中,所述待处理图像可以是外观复杂的图像,还可以是外观简单的图像。
步骤S102,将所述待识别图像输入,经过训练得到的神经网络模型,得到所述待识别图像的识别结果。
这里,所述步骤S102可以是由计算机设备实现的。所述神经网络模型是对所述神经网络中卷积层输出的特征图进行IN和BN处理后得到的。在本实施例中,对所述神经网络中卷积层输出的特征图进行IN和BN处理,得到所述神经网络模型,即IBN-Net。所述识别结果可以是图像的类别、图像的名称等。所述神经网络可以是卷积神经网络,比如,ResNet50、VGG和DenseNet等。
由于所述神经网络模型中同时采用了IN和BN,这样IN引入了外观不变性并改进了泛化,而BN保留了内容信息的区分特征。所以,在采用IN和BN相结合的神经网络模型中,不仅能够提升神经网络的泛化能力,还能够提高该神经网络识别图像的正确率。
步骤S103,输出所述待识别图像的识别结果。
这里,所述步骤S103可以是由计算机设备实现的。
在实际实现过程中,所述计算机设备输出所述待识别图像的分析结果可以是在自身显示屏上输出所述待识别图像,还可以是所述计算机设备将所述分析结果输出至其他设备,也就是发送给其他设备,例如所述其他设备可以是用户的智能终端上。
在本发明实施例提供的一种图像识别方法中,首先,获取待识别图像;然后,将所述待识别图像输入,经过训练得到的神经网络模型,得到所述待识别图像的识别结果,其中,所述神经网络模型是对所述神经网络中卷积层输出的特征图进行IN和BN处理后得到的;最后,输出所述待识别图像的识别结果;如此,通过将IN和BN结合后应用在神经网络中,然后在经过IN和BN处理后的神经网络模型中对待识别的图像进行分析,有效的提高了图像识别的正确率。
在实现的过程中,经过训练的神经网络模型可以在计算机设备的本地,也可以是在服务器端。
当经过训练的神经网络模型在计算机设备本地时,可以是计算机设备安装客户端的时候,即安装了经过训练的神经网络模型,这样,参见图1C所示,计算机设备通过步骤S101获取待识别图像,然后通过步骤S102获得待识别图像的识别结果,最后通过步骤S103输出识别结果。从以上过程可以看出,计算机设备在安装完客户端之后,上述的步骤S101至步骤S103都在计算机设备本地执行,最后,计算机设备将得到识别结果输出给用户。
在其他实施例中,经过训练的神经网络模型也可以位于服务器端,参见图1D所示,这样计算机设备将输入图像发送给服务器,这样服务器接收计算机设备发送的输入图像,这样服务器实现了步骤S101,换句话说,如果上述的方法是在服务器端实现,那么步骤S101,包括:服务器接收计算机设备发送的输入图像,即服务器确定待识别的图像,然后服务器通过步骤S102获得所述待识别图像的输出结果,最后通过步骤S103获得输出的识别结果;从以上过程可以看出,上述的步骤S101至步骤S103都在服务器端执行,最后服务器还可以将识别结果发送给计算机设备,这样计算机设备接收到识别结果后,输出识别结果给用户。本实施例中,计算机设备在安装完客户端之后,用户上传用户的待识别图像,以及接收服务器发送的待识别图像,并将识别结果输出给用户。
本实施例提供一种图像识别方法,图2为本发明实施例图像识别方法的又一实现流程示意图,如图2所示,所述方法包括以下步骤:
步骤S201,从所述神经网络的卷积层中确定第一卷积层集合和所述第二卷积层集合。
这里,所述第一卷积层集合和所述第二卷积层集合组成的集合为所述神经网络的所有卷积层中的全部或部分。所述第一卷积层集合和所述第二卷积层集合组成的集合为所述神经网络的所有卷积层中的全部,可以理解为,该神经网络中所有的卷积层都经过了IN和/或BN处理。第一卷积层集合和所述第二卷积层集合组成的集合为所述神经网络的所有卷积层中的部分,可以理解为,该神经网络中的部分卷积层没有进行IN或IN结合BN的处理。
步骤S202,从所述第一卷积层集合中的每一所述卷积层输出的特征图对应的通道中确定第一通道集合。
这里,所述第一通道集合为所述第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分。所述第一卷积层集合中不包括所述神经网络中的最后一层卷积层,即对神经网络的最后一层(深层)不进行IN处理,这样就不减少内容在深层特征中的区分度,还能够降低由于图像外观变换引起的特征变化,如此,提升该神经网络模型图像识别的正确率。在实际使用过程中,一般选择特征图对应的所有通道的一半进行IN处理,另一半进行BN处理,显然,进行IN处理的通道的比例是可以调整的。在本实施例中,为使神经网络的恒等路径较为清洁,因此,不在神经网络的恒等路径进行IN处理。
步骤S203,对所述第一通道集合进行IN处理。
这里,当第一通道集合为所述第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部时,对第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道进行IN处理;当第一通道集合为所述第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的部分时,对所述部分通道IN处理,然后对剩余的通道进行BN处理,或者不做任何处理。
步骤S204,从第二卷积层集合中的每一卷积层输出的特征图对应的通道中确定第二通道集合。
这里,所述第二通道集合为所述第二卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分。
步骤S205,对所述第二通道集合进行BN处理。
这里,当第二通道集合为所述第二卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部时,对第二卷积层集合中的每一所述卷积层输出的特征图对应的所有通道进行BN处理;当第二通道集合为所述第二卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的部分时,对所述部分通道BN处理,然后对剩余的通道进行IN处理。
在其他实施例中,所述第一卷积层集合与所述第二卷积层集合之间的关系包括以下三种情况:
情况一:所述第一卷积层集合与所述第二卷积层集合不具有交集,即第一卷积集合与第二卷积集合分别进行不同的归一化处理,即对所述第一卷积层集合中的每一卷积层输出的特征图进行IN处理;对所述第二卷积层集合中的每一卷积层输出的特征图进行BN处理,如图4(b)所示,只对求和操作之后得到的输出结果的一部分进行IN处理,而对其余卷积层输出的特征图进行BN处理。
情况二:所述第一卷积层集合与所述第二卷积层集合具有交集,即对第一卷积层集合进行了IN、IN结合BN的处理;对第二卷积层集合进行了BN、IN结合BN的处理;即,如步骤202和步骤203所述的,当第一通道为第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的部分时,对所述部分进行IN处理,对其余部分进行BN处理。或者,步骤204和步骤205所述的,当第二通道为第二卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的部分时,对所述部分进行BN处理,对其余部分进行IN处理;如图4(d)所示,对卷积层输出的特征图进行BN、IN结合BN的处理。
情况三:所述第二卷积层集合为所述第一卷积层集合的子集合,当所述第二卷积层集合为所述第一卷积层集合的真子集时,对第一卷积集合进行IN、IN结合BN的处理,对第二卷积集合进行IN结合BN的处理。当所述第二卷积层集合和所述第一卷积层集合相同时,即是对第二卷积层集合和第一卷积层集合均进行IN结合BN的处理。即,第一通道第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的部分,对所述部分进行IN处理,对其余部分进行BN处理,或者不处理(即第一卷积层集合层中包括了两种处理方式:IN、IN结合BN)。
在其他实施例中,所述方法还包括:对所述神经网络的两个块对应的特征图进行求和,得到输出结果,对所述输出结果进行IN处理;如图3(c)所示,首先,对图3(c)所呈现的残差块经过三层卷积得到的特征图和上一个残差块经过多层卷积得到的特征图求和,得到求和结果(即输出结果);然后对求和结果进行IN处理。由于在本实施例中,外观信息既可以保留在残留路径中,也可以保存在恒等路径中,为了更加有效的提升神经网络的泛化能力,在残差路径(即图3中的路径1)和恒等路径(即图3中的路径2)汇聚后,再进行IN处理,从而有效的提高了图像识别的正确率。
与相关技术中单独采用IN和BN的CNN结构不同,本实施例提供的图像识别方法中,通过深入研究IN和BN的学习能力来实现将IN和BN结合使用在同一个CNN中。例如,在许多先进的深度架构采用BN作为提高其高级视觉任务的学习能力的关键组件,而IN通常与CNN结合以消除低级视觉任务的图像的方差,如,图像风格变换等。但IN和BN的学习特征的不同特点及其组合的影响尚未在相关技术中得出结论。相反,本发明实施例提供的IBN-Net表明,以适当的方式组合IN和BN会提高CNN的学习和泛化能力。
在IBN-Net中将IN和BN组合的特征保留在CNN的浅层,BN特征保留在CNN的高层,以符合网络不同深度下的统计特征。由于在CNN中,图像外观相关的信息(比如,颜色,对比度,风格等)主要存在于浅层的特征中,而图像中物体类别相关的信息主要存在于深层的特征中,并且在浅层的特征中仍然存在。基于此,按照两条规则向CNN引入IN层:一是,为了减少在浅层由外观引起的特征变化,同时不干扰深层内容区分,因此只在CNN中低层的那一半添加IN层。二是,为了在浅层不损失图像内容信息,将原始的BN层中一半的特征替换为IN层,将剩下另一半仍然采用BN;基于此,本实施例提供的在卷积神经网路中采用BN和IN的结合进行处理,形成IBN-Net。
在卷积神经网路中采用本发明实施例提供的IBN-Net,具有以下优点:
第一,本发明实施例提出的IBN-Net,提高了卷积神经网络的性能和泛化能力。例如,IBN-Net50和ResNet50有相似数量的参数和计算成本时,IBN-Net50在图像网络数据库(ImageNet)的原始验证集上的精度分别达到第五和第一的正确率为93.7%和77.4%,分别比ResNet50的验证率高出0.8%和1.7%。IBN-Net50在ImageNet的风格转换后的新验证集上的精度分别达到第五和第一的正确率为72.9%和48.9%,分别比ResNet50的验证率高出2.2%和2.9%。
第二,在本发明实施例提出的IBN-Net中,IN提供视觉和外观不变性,同时BN能够加速训练并保留区分性的特征。这个特征有助于设计IBN-Net的体系结构,其中将IN设置在浅层中以消除外观变化,而为了保持区分性,应该减小IN在深层中的强度。IBN-Net的模块可以用来重新开发许多最近正在研究的深度架构,以提高该深度结构的学习和泛化能力,但保持该深度结构的计算成本不变。例如,通过在VGG16,ResNet101,ResNeXt101和挤压-激励网络(Squeeze-and-Excitation Residual Network,SE-ResNet101)中使用IBN-Net,它们在ImageNet验证集上精度达到第一的正确率分别优于各自的原始版本的0.8%,1.1%,0.6%和0.7%。
第三,IBN-Net显著提高了跨域的性能。例如,基于交通场景的真实数据集和虚拟数据集属于两种图像域,其中,真实数据集可以是城市景观(Cityscapes),虚拟数据集可以是侠盗猎车手(Cityscapes Grand Theft Auto,GTA);当在GTA上训练,在Cityscapes上测试的情况下,IBN-Net集成的ResNet50性能提高了7.6%。当使用GTA预训练的模型在Cityscapes上微调时,还显著降低了需要的样本量。例如,使用Cityscapes只有30%的训练数据进行微调时,本实施例提供的IBN-Net模型的分割准确率达到65.5%,而使用所有训练数据来调整的ResNet50则只有63.8%。
为了更好的理解本实施例,这里提供与IBN-Net相关的四个方面:CNN的不变性,CNN网络体系结构,域适配方法和场景理解的方法。
CNN中的不变性:在相关技术中提出的模块通常是为了提高CNN的建模能力,或者减少过拟合来增强其在单个域上的泛化能力。这些方法通常通过在CNN的体系结构中引入特定的不变性来达到上述目的。例如,最大池化和可变形卷积将空间不变性引入到CNN中,从而增加了卷积神经网络对空间变化(例如仿射,失真和视角变换)的鲁棒性。丢弃(dropout)层和BN在训练中的作用可以被视为正则化来减少样本噪音的影响。对于图像外观,简单的外观变化例如颜色和亮度偏移可以通过用平均值和标准偏差对图像的每个RGB通道进行归一化来消除。对于更复杂的外观变化,如风格变换,最近的研究发现这些信息可以被编码在特征图的均值和方差中。因此,实例归一化层就显示出了消除这种外观差异的潜力。
CNN网络体系结构:自从CNN显示出比传统方法更强的性能,CNN的架构已经经历了许多发展。其中,使用最广泛的是ResNet,ResNet使用捷径来缓解非常深的网络的训练难度。此后,ResNet的多种变体被相继提出。与ResNet相比,ResNeXt通过增加ResNet的“基数”来提高模型性能这是通过使用组卷积来实现的。在实践中,增加基数会增加深度学习框架的运行时间。此外,挤压-激励网络(Squeeze-and-Excitation Network,SENet)将通道维度的注意力机制引入ResNet。与ResNet相比,SENet在ImageNet上实现了更好的性能,但也增加了网络参数和计算量。最近提出的密集连接网络(Densely Connected Networks,DenseNet)使用堆叠操作来取代ResNet的捷径。DenseNet被证明比ResNet更有效率。但是,上述CNN体系结构有两个限制。首先,有限的基本模块阻止CNN获得更具吸引力的属性。例如,所有这些体系结构都是由卷积,BN、激励层(Rectified Linear Unit,ReLU)和共享池组成的,不同CNN唯一的区别是这些模块是如何组织的。然而,这些层的组成天然地易受外观变化的影响。其次,这些模型的设计目标是在一个单一领域的单一任务中实现强大的性能,但是这些模型推广到新的领域的能力仍然有限。在图像风格变换的领域,一些方法采用IN来帮助消除图像对比度。但是,图像外观的不变性还没有成功地引入到CNN中,特别是在图像分类或语义分割等高级任务中。这是因为IN丢失了特征中有用的内容信息,影响了模型的性能。
域适配方法:缓解由不同域之间的偏差引起的性能衰落是一个重要问题。一种自然的方法是使用迁移学习,例如,在目标域上微调模型。但是,这需要目标域有人工标注结果,并且当网络模型应用于源域时,微调后的模型的性能会下降。有许多领域适应方法使用目标域的统计数据来促进自适应。一般需要通过精心设计的损失函数,如最大平均差异(Maximum Mean Discrepancy,MMD),相关性对齐(Correlation Alignment,CORAL)和对抗损失(Adversarial Loss,AL),通过减少两个域的偏差引起的特征差异来缓解性能衰落的问题。迁移学习和领域适应有两个主要限制:首先,在实际应用中很难获得目标域的统计信息。收集涵盖目标域中所有可能场景的数据也非常困难。其次,大多数最先进的方法对源域和目标域采用不同的模型以提高性能。但理想的情况是,一个模型可以适应所有领域。
针对这个问题的另一个范式是域推广,其目标是从许多相关的源域获取知识并将其应用于训练期间统计数据未知的新目标域。相关技术中通常设计算法来捕捉不同域中共有的因素。但是,对于实际应用,通常很难收集多个相关的源域的数据,并且最终的性能高度依赖于所收集的一系列源域。在这项工作中,本发明实施例通过设计新的具有外观不变性的CNN体系结构IBN-Net增加了模型性能和泛化能力。与域适应和域推广不同,本发明不需要目标域数据或相关源域。本实施例对于无法得到目标域数据的情况非常有用,这是相关技术不能达到的。
本实施例中,对于基于BN的CNN,图像外观相关的信息(颜色,对比度,风格等)主要存在于浅层的特征中,而图像中物体类别相关的信息主要存在于深层的特征中,并且在浅层特征中仍然存在。因此,本实施例按照两条规则引入IN。首先,为了不减少深层特征对图片内容信息的区分度,不会在CNN的最后一层或几层添加IN。其次,为了在浅层中依然保存内容信息,我们保留了在浅层中对一部分特征进行BN处理。
本实施例将IBN-Net应用于ResNet中,图3为本发明实施例基于残差网络的组成结构图。ResNet主要由4组残差块组成,如图3(a)为原始的ResNet中一个残差块的结构图,图3(b)和图3(c)分别为对ResNet中不同的卷积层输出的特征图进行IN结合BN处理的结构图;其中,在图3(a)中,路径1为残差路径,路径2为恒等路径;30中(x,256d)中x表示输入的特征,256d表示输入的特征是256个通道,31表示卷积核为1*1,64个通道的卷积层,32、34和36表示激励层(ReLU);33表示卷积核为3*3,64个通道的卷积层;35表示卷积核为1*1,256个通道的卷积层;311表示对64个通道进行批归一化(BN);312对64个通道进行批归一化(BN);313对256个通道进行批归一化(BN);在图3(b)中,321表示对卷积层输出的特征图对应的通道的一半(即32个通道)进行IN处理,另一半(即另外32个通道)进行BN处理;在图3(c)中,331表示对进行求和操作之后的结果,进行IN处理,所述求和操作是在ResNet中图3(c)所呈现的残差块经过三层卷积得到的特征图和上一个残差块经过多层卷积得到的特征图(即输入的特征x)求和。
对于一个残差块,为了利用IN的泛化潜力,在第一个卷积层之后得到的特征图中,将BN用于该特征图的一半的通道,将IN用于其他通道,如图3(b)所示,有三个理由这样做:首先,干净的恒等路径对于优化ResNet是至关重要的,因此我们将IN添加到残差路径而不是恒等路径。其次,在残差学习函数y=F(x,{Wi})+x中残差函数F(x,{Wi})在学习过程中是与恒等路径中的x对齐。因此,IN应用于第一个归一化层(即第一个卷积层输出的特征图)而不是最后一个,以避免F(x,{Wi})以与恒等路径中的x错位。第三,在卷积层输出的特征图中,将一半通道进行BN处理,一半通道进行IN处理,满足了将图像内容信息保存在浅层的要求。
这种设计是对模型性能的追求。一方面,IN使模型能够学习外观不变特征,从而能够更好地利用一个数据集内具有高外观多样性的图像。另一方面,以适度的方式添加IN,以便与内容相关的信息可以得到很好的保留。本实施例中将这个模型表示为IBN-Net-a。此外,本发明还提出另一种追求最大范化能力的网络IBN-Net-b。由于外观信息既可以保留在残差路径中,也可以保存在恒等路径中,因此,为了保证神经网络的泛化能力,在加法操作之后立即添加IN,如图3(c)所示。为了不使ResNet的性能出现劣化,本实施例只在第一卷积层和前两个卷积组之后添加三个IN层。
如表1.1为原始的ResNet50及其对应的两种IBN-Net的整体网络结构,从表1.1可以看出,相比较原始的ResNet50,在IBN-Net50-a中前三组模块(conv2_x-conv4_x)被换成了图3(b)中IBN-a的结构,而在IBN-Net50-b中前两组模块(conv2_x-conv3_x)的最后一个残差块被换成了图3(c)中IBN-b的结构,并且第一个卷积层conv1后的BN被替换成了IN。在表1A中,conv2_x表示第一组残差块。
表1.1原始的ResNet50及其对应的两种IBN-Net的整体网络结构
上述两种IBN-Net不是唯一的在CNN中使用方法IN和BN的方法。在本实施例提供了一些有趣的变体,如图4所示。图4为本发明实施例又一基于残差网络的组成结构图,图4(a)、4(b)、4(c)和4(d)为残差神经网络中同一个块的结构图,如图4(a)、4(b)、4(c)和4(d)分别为,残差神经网络的不同的卷积层输出的特征图(即归一化层)进行IN结合BN处理,其中,在图4(a)中,路径3为残差路径,路径4为恒等路径;40中(x,256d)中x表示输入的特征,256d表示输入的特征是256个通道(可以理解为256张图像),41表示卷积核为1*1,64个通道的卷积层,42、44和46表示激励层(ReLU);43表示卷积核为3*3,64个通道的卷积层;45表示卷积核为1*1,256个通道的卷积层;411表示对64个通道进行批归一化(BN);412对256个通道进行批归一化(BN);431表示对第一个卷积层输出的特征图分别进行IN和BN处理;47表示将两种归一化方式处理之后的结果进行堆叠操作,然后,,输出到下一层即激励层;在图4(b)中,413表示对64个通道进行批归一化(BN);431表示表示对进行求和操作之后的结果的一半(即对256个通道中的128个通道进行IN处理),进行IN处理,所述求和操作是在卷积神经网络中图4(b)所呈现的神经网络的块经过三层卷积得到的特征图和上一个该神经网络的块经过多层卷积得到的特征图求和。在图4(c)中,441表示对第一个卷积层输出的特征图对应的通道的一半(即32个通道)进行IN处理,另一半(即另外32个通道)进行BN处理;在图4(d)中,442表示对第二个卷积层输出的特征图对应的通道的一半(即32个通道)进行IN处理,另一半(即另外32个通道)进行BN处理。
表1.2原始VGG16及其IBN-Net版本的整体结构
从表1.2可以看出,在本实施例通过的IBN-Net中,有多种实施方式,其中,部分参数可以在满足以下两个条件变化:一是不在网络的最后一层(根据对训练结果的需要,也可以将模型设置为不在最后两层或3层等不进行IN处理)使用IN进行处理;二是,在其余的层(除最后一层)将IN和BN结合使用或交替使用。例如:观察图4给出的四个方案即图4(a)、4(b)、4(c)和4(d),可以看出,IN层的位置、利用IN进行处理的通道的数量均可以调整;另外,在同一卷积神经网络的不同模块中,图4给出的四种实施方案可以交替使用。
表1.3使用ImageNet验证集的图像外观变化对应的错误率
在图4(a)中,对第一个卷积层输出的特征图分别进行IN和BN处理,然后,将两种归一化方式处理之后的结果堆叠起来并输出到下一层即激励,保持IN和BN的高范化性能和高区分度的特征,但是这会引入更多参数。由于保留两种特征的想法也适用于IBN-b,从而产生了图4(b)。另外,还可以将图4(b)和图4(b)呈现的方案结合起来,如图4(c)和4(d)所示。关于这些变体的讨论将在下文的实验部分中给出。表1.3为采用ImageNet数据库作为待识别图像,输入到IBN-Net神经网络模型中,得到的基于top1和top5的错误率;其中,top1的意思是预测出来最大概率的分类是正确的概率。top5的意思是预测出来最大概率的5个分类里有正确的概率,top1/top5err,分别表示基于top1和基于top5的错误率。RGB+50表示,在原图的基础上,将图像的R、G和B三个通道各加50;R+50表示红色通道加50,即图像更红;contrast*1.5表示对比度乘以1.5;Monet表示使用CycleGAN(图像风格转换工具)将图像转换成莫奈风格的图像。因此,从表1.3可以看出,无论是基于哪种外观变化,采用模型IBN-Net50-a(即图3(b))得到的基于top1的错误率和基于top5的错误率分别低于未采用IBN-Net的原始的ResNet50基于top1的错误率和基于top5的错误率;而且采用模型IBN-Net50-b(即图3(c))得到的基于top1的错误率和基于top5的错误率分别低于未采用IBN-Net的原始的ResNet50基于top1的错误率和基于top5的错误率。因此,采用IBN-Net模块得到的神经网络的性能优于未采用IBN-Net模块(即原始ResNet,如图3(a)所示)得到的神经网络的性能。
表2在其他CNN模型中采用IBN-Net,通过ImageNet验证集的错误率
为了表明比传统CNN更强大的IBN-Net模型性能,本实施例将IBN-Net的性能与最初流行的原始ImageNet验证集中的CNN架构进行比较。如表2所示,IBN-Net实现了对这些CNN一致的改进,表明了更强大的模型性能。具体而言,IBN-ResNet101优于ResNeXt101和SE-ResNet101,后两者需要更多的时间消耗或引入额外的参数。但是在本实施例中提供的IBN-Net模型中,不会带来额外的参数,而只会在测试阶段添加很少量的计算。实验结果显示,剔除特征中的一些均值和方差统计量有助于模型从具有高度外观多样性的图像中学习。
表3IBN-Net的变体基于ImageNet验证集和莫奈风格图像的错误率
本实施例进一步研究IBN-Net的其他变体。表3显示了方法部分描述的IBN-Net变体的结果。在本实施例提供的所有的IBN-Net变体都比原始的ResNet50显示出更好的性能,并且在外观变换下性能下降更少。具体而言,IBN-Net-c实现与IBN-Net-a类似的性能,提供了另一种特征组合的方法。IBN-Net-d的性能和泛化能力位于IBN-Net-a和IBN-Net-b之间,这表明在卷积层输出的特征图的部分通道中保留一些BN特性有助于提高性能,但同时会失去一定的泛化能力。IBN-Net-a和IBN-Net-b的组合基本等同于IBN-Net-d,这表明IN对ResNet主路径的影响将占主导地位。最后,向IBN-Net-a添加额外的IBN层不会带来好处,适量的添加IN层就足够了。
表4在IBN-Net50-a中的残差组中增加不同数量的IN层对应的错误率
表5 IN在IBN层中所占比例的不同对错误率的影响
在本实施例中,研究了添加不同数量IN层的IBN网络。表4给出了IBN-Net50-a的性能,其中IN层添加到不同量的残差组。可以看出,随着更多IN层添加到浅层,性能得到改善,但是当将IN层添加到最后的残差组时,性能却降低。这表明将IN应用在浅层有助于提高模型性能,而在深层需要采用BN以保留重要的内容信息。此外,本实施例还研究了IN-BN比率对性能的影响,如表5所示,当IN的比例为0.25至0.5时,基于top1的错误率和基于top5的错误率分别为最低,这就证明IN和BN在使用的过程中需要折衷进行。
表6基于Cityscapes-GTA数据集的结果
本实施例中用采用了孔卷积(Hole Convolution)的ResNet50为基准,IBN-Net遵循相同的修改。在每个数据集上训练模型并对IBN-Net和ResNet50进行评估,评估结果如表6所示。在表6中,mIoU(%)表示均交并比(Mean Intersection over Union,mIoU)。
本实施例的实验的结果与ImageNet数据集中的结果一致。IBN-Net在一个数据集中显示出更强的模型性能,并且在不同域的数据集之间具有更好的泛化能力。具体而言,IBN-Net-a显示出更强大的模型性能,在两个数据集上,IBN-Net-a的正确率优于ResNet504.6%和2.0%。当进行交叉评估时,IBN-Net-b的泛化更好,采用IBN-Net-b比原始的ResNet50,从Cityscapes到-侠盗猎车手(Grand Theft Auto V,GTA5)的性能提高了8.6%,从GTA5到Cityscapes的性能提高了7.6%。
值得一提的是,本实施例提供的IBN-Net与域适应工作不同。域适应是面向目标领域的,并且在训练期间需要目标领域数据,而本实施例通过的方法则不需要。尽管如此,本实施例的方法的性能增益与域适应方法的性能增益仍然相当,而且本实施例的方法向更通用的模型迈出了重要的一步,因为本实施例向模型引入了内置的外观不变性,而不是强迫该模型适应于特定的数据域。
表7调整不同数据的百分比提升的性能
在新数据域上应用模型的另一个常用方法是使用少量目标域标注对其进行微调。本实施例提供的模型有更强的范化能力,因此网络所需的数据可以显著减少。本实施例使用不同数量的Cityscapes数据和标注来微调在GTA5数据集上预训练的模型。初始学习速率和周期数分别设为0.003和80。如表7所示,在只使用了30%的Cityscapes训练数据的条件下,IBN-Net50-a的性能优于使用了所有训练数据的ResNet50。
为了便于理解本实施例IBN-Net如何实现更好的泛化,这里分析域偏置引起的特征散度。特征散度度量如下,对于CNN中某一层的输出特征,将一个通道的平均值表示为F,F基本上描述了这个通道激活了多少,假设F为均值为μ,方差为σ2的高斯分布。则在该通道上域A和域B之间的对称相对熵(symmetric KL divergence),可以表示为:
D(FA||FB)|=KL(FA||FB)+KL(FB||FA) (1);
在公式(3)中,C是该层中通道的数量,此度量提供了域A和域B的特征分布之间距离的度量标准。
为了捕获实例归一化对外观信息和内容信息的影响,这里考虑三组域。前两组是Cityscapes-GTA5和原始图像-莫奈风格的图像(Photo-Monet),这两组域有明显的外观差异。为了构建具有不同内容的两个域,将ImageNet-1k验证集分成两部分,第一部分包含图像有500个对象类别,第二个部分包含其余500个类别。然后计算ResNet50和IBN-Net50主路径上的17个ReLU层的输出特征的特征散度。
对上述三组图像进行实验,得到的实验结果是,在IBN-Net中,由图片外观不同所造成的特征散度明显减小。对于IBN-Net-a,散度适度减小,而对于IBN-Net-b,在第2、4和8层的IN层之后遇到突然下降,而且这种效应持续到深层,这意味着深度特征中的外观造成的差异减少了,因此对分类的干扰减少了。另一方面,由于内容差异导致的特征散度在IBN-Net中没有下降,表明特征中的内容信息在BN层中保留得很好。
在本实施例提出的IBN-Net中,将IN和BN应用在单独的一个深度网络层中,以提高神经网络的性能和泛化能力。本实施例将IBN-Net应用在包括VGG,ResNet,ResNeXt和SENet上,并在ImageNet数据集上实现了一致的正确率提升。此外,即使不使用目标域数据,由IN引入的内置外观不变性可提升神经网络模型跨图像域的范化能力。因此,IN和BN层在CNN中的作用可以总结为:IN引入了外观不变性并提升了泛化能力,而BN保留了内容信息的在特征中的区分度。
本发明实施例提供一种图像识别装置,图5为本发明实施例图像识别装置的组成结构示意图,如图5所示,所述装置500包括:第一获取模块501、第一处理模块502和第一输出模块503,其中:
第一获取模块501,用于获取待识别图像;
第一处理模块502,用于将所述待识别图像输入,经过训练得到的神经网络模型,得到所述待识别图像的识别结果,其中,所述神经网络模型是对神经网络进行IN和BN处理得到的。
第一输出模块503,用于输出所述待识别图像的识别结果。
在其他实施例中,所述装置500还包括:
第二处理模块,用于对所述神经网络中卷积层输出的特征图进行IN和BN处理,到所述神经网络模型。
在其他实施例中,所述第二处理模块,包括:
第一确定模块,用于从所述神经网络的卷积层中确定第一卷积层集合和所述第二卷积层集合;
第一子处理模块,用于对所述第一卷积层集合中的每一卷积层输出的特征图进行IN处理;
第二子处理模块,用于对所述第二卷积层集合中的每一卷积层输出的特征图进行BN处理。
在其他实施例中,所述第一卷积层集合和所述第二卷积层集合组成的集合为所述神经网络的所有卷积层中的全部或部分。
在本发明实施例中,所述第一卷积层集合与所述第二卷积层集合不具有交集,或者,所述第一卷积层集合与所述第二卷积层集合具有交集;或者,所述第二卷积层集合为所述第一卷积层集合的子集合。
在其他实施例中,所述第一子处理模块包括:
第一子确定模块,用于从所述第一卷积层集合中的每一所述卷积层输出的特征图对应的通道中确定第一通道集合;
第三子处理模块,用于对所述第一通道集合进行IN处理。
在其他实施例中,所述第二子处理模块,包括:
第二子确定单元,用于从每一所述卷积层输出的特征图对应的通道中确定第二通道集合;
第四子处理模块,用于对所述第二通道集合进行BN处理。
在其他实施例中,所述第一通道集合为所述第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分;所述第二通道集合为所述第二卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分。
在其他实施例中,所述装置还包括:
第二处理模块,用于对所述神经网络的两个块对应的特征图进行求和,得到输出结果,对所述输出结果进行IN处理;其中,所述神经网络至少包括两个块,且每一块的最后一层输出的特征图对应的通道数与上一块的最后一层输出的特征图对应的通道数相同。
需要说明的是,以上装置实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本发明装置实施例中未披露的技术细节,请参照本发明方法实施例的描述而理解。
需要说明的是,本发明实施例中,如果以软件功能模块的形式实现上述的即时通讯方法,并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台即时通讯设备(可以是终端、服务器等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本发明实施例不限制于任何特定的硬件和软件结合。
应地,本发明实施例再提供一种计算机程序产品,所述计算机程序产品包括计算机可执行指令,该计算机可执行指令被执行后,能够实现本发明实施例提供的图像识别方法中的步骤。
相应地,本发明实施例再提供一种计算机存储介质,所述计算机存储介质上存储有计算机可执行指令,所述该计算机可执行指令被处理器执行时实现上述实施例提供的图像识别方法的步骤。
相应地,本发明实施例提供一种计算机设备,图6为本发明实施例计算机设备的组成结构示意图,如图6所示,所述设备600包括:一个处理器601、至少一个通信总线602、用户接口603、至少一个外部通信接口604和存储器605。其中,通信总线602配置为实现这些组件之间的连接通信。其中,用户接口603可以包括显示屏,外部通信接口604可以包括标准的有线接口和无线接口。其中所述处理器601,配置为执行存储器中存储的病理图像识别程序,以实现上述实施例提供的图像识别方法的步骤。
以上即时计算机设备和存储介质实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本发明即时通讯设备和存储介质实施例中未披露的技术细节,请参照本发明方法实施例的描述而理解。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。应理解,在本发明的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(Read Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (21)
1.一种图像识别方法,其特征在于,所述方法包括:
获取待识别图像;
采用神经网络模型中的卷积层对所述待识别图像进行特征提取,得到特征图;
对第一卷积层集合中的卷积层输出的特征图对应的通道中选取的第一通道集合进行实例归一化IN处理;对第二卷积层集合中的卷积层输出的特征图对应的通道中选取的第二通道集合进行批归一化BN处理,得到所述待识别图像的识别结果;其中,所述第一卷积层集合和所述第二卷积层集合是从所述神经网络模型的卷积层中选取的,所述第一通道集合和所述第二通道集合包含的通道不同;
输出所述待识别图像的识别结果。
2.根据权利要求1所述的方法,其特征在于,所述神经网络模型的训练过程,包括:
从所述神经网络的卷积层中确定第一卷积层集合和所述第二卷积层集合;
对所述第一卷积层集合中的每一卷积层输出的特征图进行IN处理;
对所述第二卷积层集合中的每一卷积层输出的特征图进行BN处理。
3.根据权利要求2中所述的方法,其特征在于,所述第一卷积层集合和所述第二卷积层集合组成的集合为所述神经网络的所有卷积层中的全部或部分。
4.根据权利要求2中所述的方法,其特征在于,所述第一卷积层集合与所述第二卷积层集合不具有交集,或者,所述第一卷积层集合与所述第二卷积层集合具有交集;或者,所述第二卷积层集合为所述第一卷积层集合的子集合。
5.根据权利要求2中所述的方法,其特征在于,所述对所述第一卷积层集合中的每一卷积层输出的特征图进行IN处理,包括:
从所述第一卷积层集合中的每一所述卷积层输出的特征图对应的通道中确定第一通道集合;
对所述第一通道集合进行IN处理。
6.根据权利要求2中所述的方法,其特征在于,所述对所述第二卷积层集合中的每一卷积层输出的特征图进行BN处理,包括:
从所述第二卷积层集合中的每一所述卷积层输出的特征图对应的通道中确定第二通道集合;
对所述第二通道集合进行BN处理。
7.根据权利要求2至6任一项中所述的方法,其特征在于,所述第一通道集合为所述第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分;所述第二通道集合为所述第二卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分。
8.根据权利要求2至6任一项中所述的方法,其特征在于,所述第一卷积层集合中不包括所述神经网络中的最后一层卷积层。
9.根据权利要求2至6任一项中所述的方法,其特征在于,所述神经网络至少包括两个块,且每一块的最后一层输出的特征图对应的通道数与上一块的最后一层输出的特征图对应的通道数相同,所述方法还包括:
对所述神经网络的两个块对应的特征图进行求和,得到输出结果;
对所述输出结果进行IN处理。
10.一种图像识别装置,其特征在于,所述装置包括:第一获取模块、第一处理模块和第一输出模块,其中:
第一获取模块,用于获取待识别图像;
第一处理模块,用于采用神经网络模型中的卷积层对所述待识别图像进行特征提取,得到特征图;
对第一卷积层集合中的卷积层输出的特征图对应的通道中选取的第一通道集合进行实例归一化IN处理;对第二卷积层集合中的卷积层输出的特征图对应的通道中选取的第二通道集合进行批归一化BN处理,得到所述待识别图像的识别结果;其中,所述第一卷积层集合和所述第二卷积层集合是从所述神经网络模型的卷积层中选取的,所述第一通道集合和所述第二通道集合包含的通道不同;
第一输出模块,用于输出所述待识别图像的识别结果。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
第二处理模块,用于对所述神经网络中卷积层输出的特征图进行IN和BN处理,得到所述神经网络模型。
12.根据权利要求11所述的装置,其特征在于,所述第二处理模块,包括:
第一确定模块,用于从所述神经网络的卷积层中确定第一卷积层集合和所述第二卷积层集合;
第一子处理模块,用于对所述第一卷积层集合中的每一卷积层输出的特征图进行IN处理;
第二子处理模块,用于对所述第二卷积层集合中的每一卷积层输出的特征图进行BN处理。
13.根据权利要求12所述的装置,其特征在于,所述第一卷积层集合和所述第二卷积层集合组成的集合为所述神经网络的所有卷积层中的全部或部分。
14.根据权利要求12所述的装置,其特征在于,所述第一卷积层集合与所述第二卷积层集合不具有交集,或者,所述第一卷积层集合与所述第二卷积层集合具有交集;或者,所述第二卷积层集合为所述第一卷积层集合的子集合。
15.根据权利要求12所述的装置,其特征在于,所述第一子处理模块包括:
第一子确定模块,用于从所述第一卷积层集合中的每一所述卷积层输出的特征图对应的通道中确定第一通道集合;
第三子处理模块,用于对所述第一通道集合进行IN处理。
16.根据权利要求12所述的装置,其特征在于,所述第二子处理模块,包括:
第二子确定单元,用于从每一所述卷积层输出的特征图对应的通道中确定第二通道集合;
第四子处理模块,用于对所述第二通道集合进行BN处理。
17.根据权利要求12至16任一项中所述的装置,其特征在于,所述第一通道集合为所述第一卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分;所述第二通道集合为所述第二卷积层集合中的每一所述卷积层输出的特征图对应的所有通道的全部或部分。
18.根据权利要求12至16任一项中所述的装置,所述神经网络至少包括两个块,且每一块的最后一层输出的特征图对应的通道数与上一块的最后一层输出的特征图对应的通道数相同,其特征在于,所述装置还包括:
第二处理模块,用于对所述神经网络的两个块对应的特征图进行求和,得到输出结果,对所述输出结果进行IN处理。
19.根据权利要求12至16任一项中所述的装置,其特征在于,所述第一卷积层集合中不包括所述神经网络中的最后一层卷积层。
20.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有计算机可执行指令,该计算机可执行指令被执行后,能够实现权利要求1至9任一项所述的方法步骤。
21.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器上存储有计算机可执行指令,所述处理器运行所述存储器上的计算机可执行指令时可实现权利要求1至9任一项所述的方法步骤。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810500185.0A CN108875787B (zh) | 2018-05-23 | 2018-05-23 | 一种图像识别方法及装置、计算机设备和存储介质 |
PCT/CN2019/077341 WO2019223397A1 (zh) | 2018-05-23 | 2019-03-07 | 图像处理方法、装置、计算机设备和计算机存储介质 |
JP2020548653A JP6930039B2 (ja) | 2018-05-23 | 2019-03-07 | 画像処理方法、装置、コンピュータ装置及びコンピュータ記憶媒体 |
SG11202009173YA SG11202009173YA (en) | 2018-05-23 | 2019-03-07 | Image processing method and apparatus, computer device, and computer storage medium |
US17/072,324 US11080569B2 (en) | 2018-05-23 | 2020-10-16 | Method and device for image processing, and computer storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810500185.0A CN108875787B (zh) | 2018-05-23 | 2018-05-23 | 一种图像识别方法及装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108875787A CN108875787A (zh) | 2018-11-23 |
CN108875787B true CN108875787B (zh) | 2020-07-14 |
Family
ID=64333566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810500185.0A Active CN108875787B (zh) | 2018-05-23 | 2018-05-23 | 一种图像识别方法及装置、计算机设备和存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11080569B2 (zh) |
JP (1) | JP6930039B2 (zh) |
CN (1) | CN108875787B (zh) |
SG (1) | SG11202009173YA (zh) |
WO (1) | WO2019223397A1 (zh) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875787B (zh) * | 2018-05-23 | 2020-07-14 | 北京市商汤科技开发有限公司 | 一种图像识别方法及装置、计算机设备和存储介质 |
KR102200496B1 (ko) * | 2018-12-06 | 2021-01-08 | 주식회사 엘지씨엔에스 | 딥러닝을 이용한 이미지 인식 방법 및 서버 |
CN109671063B (zh) * | 2018-12-11 | 2020-08-18 | 西安交通大学 | 一种基于深度网络特征间重要性的图像质量评估方法 |
CN109784347B (zh) * | 2018-12-17 | 2022-04-26 | 西北工业大学 | 基于多尺度稠密卷积神经网络和谱注意力机制的图像分类方法 |
CN109708740A (zh) * | 2018-12-21 | 2019-05-03 | 西安科技大学 | 一种用于超市的智能自主识别称重系统 |
CN109766854A (zh) * | 2019-01-15 | 2019-05-17 | 济南浪潮高新科技投资发展有限公司 | 一种基于两阶段互补网络的鲁棒人脸识别算法 |
CN109886922B (zh) * | 2019-01-17 | 2023-08-18 | 丽水市中心医院 | 基于SE-DenseNet深度学习框架和增强MR图像的肝细胞癌自动分级方法 |
CN109886392B (zh) * | 2019-02-25 | 2021-04-27 | 深圳市商汤科技有限公司 | 数据处理方法和装置、电子设备和存储介质 |
CN109883990B (zh) * | 2019-02-28 | 2021-07-06 | 吉林大学 | 一种药用真菌近红外光谱分析方法 |
CN111666960B (zh) * | 2019-03-06 | 2024-01-19 | 南京地平线机器人技术有限公司 | 图像识别方法、装置、电子设备及可读存储介质 |
KR102046113B1 (ko) * | 2019-03-19 | 2019-11-18 | 주식회사 루닛 | 신경망 학습 방법 및 그 장치 |
CN111753862A (zh) * | 2019-03-29 | 2020-10-09 | 北京地平线机器人技术研发有限公司 | 训练神经网络模型的方法及装置、图像识别方法 |
CN109961102B (zh) * | 2019-03-30 | 2021-06-22 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN110059744B (zh) * | 2019-04-16 | 2022-10-25 | 腾讯科技(深圳)有限公司 | 训练神经网络的方法、图像处理的方法、设备及存储介质 |
CN110348543B (zh) * | 2019-06-10 | 2023-01-06 | 腾讯医疗健康(深圳)有限公司 | 眼底图像识别方法、装置、计算机设备及存储介质 |
CN110245720B (zh) * | 2019-06-22 | 2023-05-26 | 中南林业科技大学 | 一种基于深度学习的柑橘病虫害智能诊断方法及系统 |
CN110414520A (zh) * | 2019-06-28 | 2019-11-05 | 平安科技(深圳)有限公司 | 通用字符识别方法、装置、计算机设备和存储介质 |
CN110533031A (zh) * | 2019-08-21 | 2019-12-03 | 成都电科慧安科技有限公司 | 一种目标检测识别与定位的方法 |
CN110781948A (zh) * | 2019-10-22 | 2020-02-11 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、设备及存储介质 |
CN110827251B (zh) * | 2019-10-30 | 2023-03-28 | 江苏方天电力技术有限公司 | 一种基于航拍图像的输电线路锁紧销缺陷检测方法 |
CN111179189B (zh) * | 2019-12-15 | 2023-05-23 | 深圳先进技术研究院 | 基于生成对抗网络gan的图像处理方法、装置以及电子设备、存储介质 |
CN113496237A (zh) * | 2020-03-20 | 2021-10-12 | 商汤集团有限公司 | 域适应神经网络训练和交通环境图像处理方法及装置 |
CN111553392B (zh) * | 2020-04-17 | 2024-03-01 | 东南大学 | 一种基于卷积神经网络的细粒度犬类图像识别方法 |
CN111652170A (zh) * | 2020-06-09 | 2020-09-11 | 电子科技大学 | 基于二通道残差深度神经网络的二次雷达信号处理方法 |
CN111783570A (zh) * | 2020-06-16 | 2020-10-16 | 厦门市美亚柏科信息股份有限公司 | 一种目标重识别的方法、装置、系统及计算机存储介质 |
CN111709481B (zh) * | 2020-06-17 | 2023-12-12 | 云南省烟草农业科学研究院 | 一种烟草病害识别方法、系统、平台及存储介质 |
CN111738436B (zh) * | 2020-06-28 | 2023-07-18 | 电子科技大学中山学院 | 一种模型蒸馏方法、装置、电子设备及存储介质 |
CN111832577A (zh) * | 2020-07-19 | 2020-10-27 | 武汉悟空游人工智能应用软件有限公司 | 一种基于稠密连接的感数预测方法 |
CN111815627B (zh) * | 2020-08-24 | 2020-12-01 | 成都睿沿科技有限公司 | 遥感图像变化检测方法、模型训练方法及对应装置 |
CN112201255B (zh) * | 2020-09-30 | 2022-10-21 | 浙江大学 | 语音信号频谱特征和深度学习的语音欺骗攻击检测方法 |
CN112417955B (zh) * | 2020-10-14 | 2024-03-05 | 国能大渡河沙坪发电有限公司 | 巡检视频流处理方法及装置 |
CN112651333B (zh) * | 2020-12-24 | 2024-02-09 | 天翼数字生活科技有限公司 | 静默活体检测方法、装置、终端设备和存储介质 |
CN112990053B (zh) * | 2021-03-29 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN113326809A (zh) * | 2021-06-30 | 2021-08-31 | 重庆大学 | 基于三通道神经网络的离线签名鉴定方法及系统 |
CN113542525B (zh) * | 2021-06-30 | 2023-02-10 | 中国人民解放军战略支援部队信息工程大学 | 基于mmd残差的隐写检测特征选取方法 |
CN113537044B (zh) * | 2021-07-14 | 2022-08-26 | 哈尔滨理工大学 | 基于STFT与改进DenseNet的航空发动机故障诊断方法 |
CN113343943B (zh) * | 2021-07-21 | 2023-04-28 | 西安电子科技大学 | 基于巩膜区域监督的眼部图像分割方法 |
CN113609951B (zh) * | 2021-07-30 | 2023-11-24 | 北京百度网讯科技有限公司 | 目标检测模型的训练和目标检测方法、装置、设备及介质 |
CN113705386A (zh) * | 2021-08-12 | 2021-11-26 | 北京有竹居网络技术有限公司 | 视频分类方法、装置、可读介质和电子设备 |
CN113706486A (zh) * | 2021-08-17 | 2021-11-26 | 西安电子科技大学 | 基于密集连接网络迁移学习的胰腺肿瘤图像分割方法 |
CN114548201B (zh) * | 2021-11-15 | 2023-04-07 | 北京林业大学 | 无线信号的自动调制识别方法、装置、存储介质及设备 |
CN114241247B (zh) * | 2021-12-28 | 2023-03-07 | 国网浙江省电力有限公司电力科学研究院 | 一种基于深度残差网络的变电站安全帽识别方法及系统 |
CN114972952B (zh) * | 2022-05-29 | 2024-03-22 | 重庆科技学院 | 一种基于模型轻量化的工业零部件缺陷识别方法 |
CN116128876B (zh) * | 2023-04-04 | 2023-07-07 | 中南大学 | 一种基于异构域的医学图像分类方法和系统 |
CN117115641B (zh) * | 2023-07-20 | 2024-03-22 | 中国科学院空天信息创新研究院 | 建筑物信息提取方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107247949A (zh) * | 2017-08-02 | 2017-10-13 | 北京智慧眼科技股份有限公司 | 基于深度学习的人脸识别方法、装置和电子设备 |
CN107862374A (zh) * | 2017-10-30 | 2018-03-30 | 中国科学院计算技术研究所 | 基于流水线的神经网络处理系统和处理方法 |
CN107909016A (zh) * | 2017-11-03 | 2018-04-13 | 车智互联(北京)科技有限公司 | 一种卷积神经网络生成方法及车系识别方法 |
WO2018075927A1 (en) * | 2016-10-21 | 2018-04-26 | Google Llc | Stylizing input images |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3251059B1 (en) * | 2015-01-28 | 2018-12-05 | Google LLC | Batch normalization layers |
NL2015087B1 (en) * | 2015-06-05 | 2016-09-09 | Univ Amsterdam | Deep receptive field networks. |
JP6561877B2 (ja) * | 2016-03-01 | 2019-08-21 | 株式会社デンソー | 演算処理装置 |
RU2016138608A (ru) * | 2016-09-29 | 2018-03-30 | Мэджик Лип, Инк. | Нейронная сеть для сегментации изображения глаза и оценки качества изображения |
JP7022203B2 (ja) * | 2017-09-22 | 2022-02-17 | エフ.ホフマン-ラ ロシュ アーゲー | 組織画像からのアーチファクト除去 |
CN107657281A (zh) * | 2017-09-28 | 2018-02-02 | 辽宁工程技术大学 | 一种基于改进的卷积神经网络的图像识别方法 |
CN107767343B (zh) * | 2017-11-09 | 2021-08-31 | 京东方科技集团股份有限公司 | 图像处理方法、处理装置和处理设备 |
US10643063B2 (en) * | 2018-04-09 | 2020-05-05 | Qualcomm Incorporated | Feature matching with a subspace spanned by multiple representative feature vectors |
CN108875787B (zh) * | 2018-05-23 | 2020-07-14 | 北京市商汤科技开发有限公司 | 一种图像识别方法及装置、计算机设备和存储介质 |
-
2018
- 2018-05-23 CN CN201810500185.0A patent/CN108875787B/zh active Active
-
2019
- 2019-03-07 JP JP2020548653A patent/JP6930039B2/ja active Active
- 2019-03-07 SG SG11202009173YA patent/SG11202009173YA/en unknown
- 2019-03-07 WO PCT/CN2019/077341 patent/WO2019223397A1/zh active Application Filing
-
2020
- 2020-10-16 US US17/072,324 patent/US11080569B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018075927A1 (en) * | 2016-10-21 | 2018-04-26 | Google Llc | Stylizing input images |
CN107247949A (zh) * | 2017-08-02 | 2017-10-13 | 北京智慧眼科技股份有限公司 | 基于深度学习的人脸识别方法、装置和电子设备 |
CN107862374A (zh) * | 2017-10-30 | 2018-03-30 | 中国科学院计算技术研究所 | 基于流水线的神经网络处理系统和处理方法 |
CN107909016A (zh) * | 2017-11-03 | 2018-04-13 | 车智互联(北京)科技有限公司 | 一种卷积神经网络生成方法及车系识别方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6930039B2 (ja) | 2021-09-01 |
US11080569B2 (en) | 2021-08-03 |
SG11202009173YA (en) | 2020-10-29 |
CN108875787A (zh) | 2018-11-23 |
WO2019223397A1 (zh) | 2019-11-28 |
JP2021509994A (ja) | 2021-04-08 |
US20210034913A1 (en) | 2021-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108875787B (zh) | 一种图像识别方法及装置、计算机设备和存储介质 | |
US11030485B2 (en) | Systems and methods for feature transformation, correction and regeneration for robust sensing, transmission, computer vision, recognition and classification | |
Ma et al. | End-to-end blind image quality assessment using deep neural networks | |
CN108111489B (zh) | Url攻击检测方法、装置以及电子设备 | |
CN107577945B (zh) | Url攻击检测方法、装置以及电子设备 | |
Li et al. | Multi-bias non-linear activation in deep neural networks | |
CN110765860B (zh) | 摔倒判定方法、装置、计算机设备及存储介质 | |
CN107111782B (zh) | 神经网络结构及其方法 | |
CN112613581B (zh) | 一种图像识别方法、系统、计算机设备和存储介质 | |
Tang et al. | Salient object detection using cascaded convolutional neural networks and adversarial learning | |
CN110245714B (zh) | 图像识别方法、装置及电子设备 | |
CN111027576B (zh) | 基于协同显著性生成式对抗网络的协同显著性检测方法 | |
Zhao et al. | Scale-aware crowd counting via depth-embedded convolutional neural networks | |
EP4085369A1 (en) | Forgery detection of face image | |
CN114549913B (zh) | 一种语义分割方法、装置、计算机设备和存储介质 | |
WO2021262399A1 (en) | Task-based image masking | |
CN113627543A (zh) | 一种对抗攻击检测方法 | |
CN114692750A (zh) | 一种细粒度图像分类方法、装置、电子设备及存储介质 | |
Qin et al. | Robustness enhancement against adversarial steganography via steganalyzer outputs | |
CN112818774A (zh) | 一种活体检测方法及装置 | |
CN116665282A (zh) | 人脸识别模型训练方法、人脸识别方法及装置 | |
CN114638984B (zh) | 一种基于胶囊网络的恶意网站url检测方法 | |
CN116012841A (zh) | 一种基于深度学习的开集图像场景匹配方法及装置 | |
CN115862015A (zh) | 文字识别系统的训练方法及装置、文字识别方法及装置 | |
CN112084371B (zh) | 一种电影多标签分类方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |