CN111797882A - 图像分类方法及装置 - Google Patents

图像分类方法及装置 Download PDF

Info

Publication number
CN111797882A
CN111797882A CN201910697287.0A CN201910697287A CN111797882A CN 111797882 A CN111797882 A CN 111797882A CN 201910697287 A CN201910697287 A CN 201910697287A CN 111797882 A CN111797882 A CN 111797882A
Authority
CN
China
Prior art keywords
channels
convolution
feature map
output feature
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910697287.0A
Other languages
English (en)
Inventor
韩凯
王云鹤
舒晗
许春景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201910697287.0A priority Critical patent/CN111797882A/zh
Priority to PCT/CN2020/105830 priority patent/WO2021018245A1/zh
Priority to EP20848554.0A priority patent/EP4006776A4/en
Publication of CN111797882A publication Critical patent/CN111797882A/zh
Priority to US17/587,689 priority patent/US20220157041A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及人工智能领域中计算机视觉领域的图像识别技术,提供了一种图像分类方法及装置。涉及人工智能领域,具体涉及计算机视觉领域。该方法包括:获取待处理图像的输入特征图;根据神经网络的M个卷积核对所述输入特征图进行卷积处理,得到M个通道的候选输出特征图,M为正整数;根据N个矩阵对所述候选输出特征图的M个通道进行矩阵变换,得到N个通道的输出特征图,其中,所述N个矩阵中的每个矩阵的通道数小于M,N大于M,N为正整数;根据所述输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。该方法有助于降低图像分类处理的计算量和参数量。

Description

图像分类方法及装置
技术领域
本申请涉及人工智能领域,并且更具体地,涉及一种图像分类方法及装置。
背景技术
计算机视觉是各个应用领域,如制造业、检验、文档分析、医疗诊断,和军事等领域中各种智能/自主系统中不可分割的一部分,它是一门关于如何运用照相机/摄像机和计算机来获取我们所需的,被拍摄对象的数据与信息的学问。形象地说,就是给计算机安装上眼睛(照相机/摄像机)和大脑(算法)用来代替人眼对目标进行识别、跟踪和测量等,从而使计算机能够感知环境。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。总的来说,计算机视觉就是用各种成象系统代替视觉器官获取输入信息,再由计算机来代替大脑对这些输入信息完成处理和解释。计算机视觉的最终研究目标就是使计算机能像人那样通过视觉观察和理解世界,具有自主适应环境的能力。
图像分类是各类图像处理应用的基础,计算机视觉常常会涉及到如何对获取到的图像进行分类的问题。随着人工智能技术的快速发展,基于深度学习的卷积神经网络(convolutional neural networks,CNN)在图像分类处理中得到了越来越广泛的应用。但是,卷积神经网络所包含的参数量和计算量都过大。
因此,如何降低神经网络的运算开销成为一个亟需解决的问题。
发明内容
本申请提供一种图像分类方法及装置,该方法有助于降低图像分类处理的计算量和参数量。
第一方面,提供了一种图像分类方法,该方法包括:获取待处理图像的输入特征图;根据神经网络的M个卷积核对所述输入特征图进行卷积处理,得到M个通道的候选输出特征图,M为正整数;根据N个矩阵对所述候选输出特征图的M个通道进行矩阵变换,得到N个通道的输出特征图,其中,所述N个矩阵中的每个矩阵的通道数小于M,N大于M,N为正整数;根据所述输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
可选地,所述M个卷积核可以为现有卷积神经网络中的标准卷积核。
需要说明的是,在本申请实施例中,标准卷积核的通道数与输入特征图的通道数相同,例如,若待处理图像的输入特征图的通道数为C,那么,现有卷积神经网络中的标准卷积核的通道数也为C,即标准卷积核的通道数与输入特征图的通道数相同,其中,C为正整数。
在本申请实施例中,通过少量标准卷积核(即M个卷积核)对待处理图像进行卷积处理,得到少量的候选特征图,并对这些少量的候选特征图进行矩阵变换以得到所需的输出特征图,其中,标准卷积核的个数少于现有卷积神经网络中的标准卷积核的个数,同时,矩阵变换中使用的矩阵的通道数也小于标准卷积核,因此,有助于减少神经网络模型的计算量和参数量,从而降低图像分类处理的计算量和参数量。
可选地,所述N个矩阵中每个矩阵的通道数可以为1,或者,所述N个矩阵中每个矩阵的通道数也可以大于1。
结合第一方面,在第一方面的某些实现方式中,所述N个矩阵包括M组卷积核,所述M组卷积核分别与所述候选输出特征图的M个通道对应;所述根据N个矩阵对所述M个候选输出特征图进行矩阵变换,得到N个通道的输出特征图,包括:根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行卷积,得到所述N个通道的输出特征图。
结合第一方面,在第一方面的某些实现方式中,所述根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行卷积,得到所述N个通道的输出特征图,包括:根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行深度卷积,得到所述N个通道的输出特征图。
结合第一方面,在第一方面的某些实现方式中,所述M组卷积核中的每一组的卷积核与所述M组卷积核中的其他组的卷积核相同。
结合第一方面,在第一方面的某些实现方式中,所述根据所述输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果,包括:对所述候选输出特征图和所述输出特征图进行特征拼接,得到特征拼接特征图,所述特征拼接特征图的通道数为M+N;根据所述特征拼接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
可选地,上述特征拼接可以是指所述候选输出特征图和所述输出特征图在深度方向上组成新的特征图,即上述特征拼接特征图。
例如,所述候选输出特征图的通道数为M,所述输出特征图的通道数为N,所述候选输出特征图和所述输出特征图可以进行特征拼接,得到一个通道数为M+N的特征拼接特征图。
特征拼接可以通过恒等特征映射的方式,可以将更多的细节(或特征)引入输出特征图,同时,这种恒等映射并不会引入额外的参数或者计算量,因此可以在不增加参数量和计算量的情况下,提升图像分类的效果。
第二方面,提供了一种图像分类方法,该方法包括:获取待处理图像的输入特征图;根据神经网络的M个第一卷积核对所述输入特征图进行卷积处理,得到M个通道的第一候选输出特征图,M为正整数;根据K个第一矩阵对所述M个第一候选输出特征图进行矩阵变换,得到K个通道的第一输出特征图,其中,所述K个第一矩阵中的每个矩阵的通道数小于M,K大于M,K为正整数;根据神经网络的P个第二卷积核对所述第一输出特征图进行卷积处理,得到P个通道的第二候选输出特征图,P为正整数;根据N个第二矩阵对所述P个第二候选输出特征图进行矩阵变换,得到N个通道的第二输出特征图,其中,所述N个第二矩阵中的每个矩阵的通道数小于P,N大于P,N为正整数;根据所述第二输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
可选地,所述M个第一卷积核可以为现有卷积神经网络中的标准卷积核。
需要说明的是,在本申请实施例中,标准卷积核的通道数与输入特征图的通道数相同,例如,若待处理图像的输入特征图的通道数为C,那么,现有卷积神经网络中的标准卷积核的通道数也为C,即标准卷积核的通道数与输入特征图的通道数相同,其中,C为正整数。
类似地,所述P个第二卷积核也可以为现有卷积神经网络中的标准卷积核。
在本申请实施例中,通过少量标准卷积核及矩阵变换实现现有卷积神经网络中的卷积处理,可以有效减少各输出特征图之间的冗余性,减少神经网络模型的计算量和参数量,从而降低图像分类处理的计算量和参数量,因此,本申请实施例中的图像分类方法可以在不增加参数量和计算量(或者减少参数量和计算量)的情况下,提升图像分类的效果。
可选地,所述K个第一矩阵中每个矩阵的通道数可以为1,或者,所述K个第一矩阵中每个矩阵的通道数也可以大于1。
可选地,所述N个第二矩阵中每个矩阵的通道数可以为1,或者,所述N个第二矩阵中每个矩阵的通道数也可以大于1。
结合第二方面,在第二方面的某些实现方式中,所述根据神经网络的P个第二卷积核对所述第一输出特征图进行卷积处理,得到P个通道的第二候选输出特征图,包括:对所述第一输出特征图进行深度卷积,得到深度卷积特征图;根据所述P个第二卷积核对所述深度卷积特征图进行卷积处理,得到所述第二候选输出特征图。
结合第二方面,在第二方面的某些实现方式中,所述对所述第一输出特征图进行深度卷积,得到深度卷积特征图,包括:对所述第一输出特征图进行步幅大于1的深度卷积,得到所述深度卷积特征图。
结合第二方面,在第二方面的某些实现方式中,所述根据所述第二输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果,包括:对所述输入特征图和所述第二输出特征图进行残差连接,得到残差连接特征图;根据所述残差连接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
在本申请实施例中,通过残差连接可以将更多的细节(或特征)引入输出特征图,而残差连接并不会引入额外的参数或者计算量,因此,可以在不增加参数量和计算量的情况下,提升图像分类的效果。
第三方面,提供了一种图像分类装置,包括:获取单元,用于获取待处理图像的输入特征图;卷积单元,用于根据神经网络的M个卷积核对所述输入特征图进行卷积处理,得到M个通道的候选输出特征图,M为正整数;矩阵变换单元,用于根据N个矩阵对所述候选输出特征图的M个通道进行矩阵变换,得到N个通道的输出特征图,其中,所述N个矩阵中的每个矩阵的通道数小于M,N大于M,N为正整数;分类单元,用于根据所述输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
可选地,所述M个卷积核可以为现有卷积神经网络中的标准卷积核。
需要说明的是,在本申请实施例中,标准卷积核的通道数与输入特征图的通道数相同,例如,若待处理图像的输入特征图的通道数为C,那么,现有卷积神经网络中的标准卷积核的通道数也为C,即标准卷积核的通道数与输入特征图的通道数相同,其中,C为正整数。
在本申请实施例中,通过少量标准卷积核(即M个卷积核)对待处理图像进行卷积处理,得到少量的候选特征图,并对这些少量的候选特征图进行矩阵变换以得到所需的输出特征图,其中,标准卷积核的个数少于现有卷积神经网络中的标准卷积核的个数,同时,矩阵变换中使用的矩阵的通道数也小于标准卷积核,因此,有助于减少神经网络模型的计算量和参数量,从而降低图像分类处理的计算量和参数量。
可选地,所述N个矩阵中每个矩阵的通道数可以为1,或者,所述N个矩阵中每个矩阵的通道数也可以大于1。
结合第三方面,在第三方面的某些实现方式中,所述N个矩阵包括M组卷积核,所述M组卷积核分别与所述候选输出特征图的M个通道对应;所述矩阵变换单元具体用于:根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行卷积,得到所述N个通道的输出特征图。
结合第三方面,在第三方面的某些实现方式中,所述矩阵变换单元具体用于:根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行深度卷积,得到所述N个通道的输出特征图。
结合第三方面,在第三方面的某些实现方式中,所述M组卷积核中的每一组的卷积核与所述M组卷积核中的其他组的卷积核相同。
结合第三方面,在第三方面的某些实现方式中,所述分类单元具体用于:对所述候选输出特征图和所述输出特征图进行特征拼接,得到特征拼接特征图,所述特征拼接特征图的通道数为M+N;根据所述特征拼接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
可选地,上述特征拼接可以是指所述候选输出特征图和所述输出特征图在深度方向上组成新的特征图,即上述特征拼接特征图。
例如,所述候选输出特征图的通道数为M,所述输出特征图的通道数为N,所述候选输出特征图和所述输出特征图可以进行特征拼接,得到一个通道数为M+N的特征拼接特征图。
特征拼接可以通过恒等特征映射的方式,可以将更多的细节(或特征)引入输出特征图,同时,这种恒等映射并不会引入额外的参数或者计算量,因此可以在不增加参数量和计算量的情况下,提升图像分类的效果。
第四方面,提供了一种图像分类装置,包括:获取单元,用于获取待处理图像的输入特征图;第一卷积单元,用于根据神经网络的M个第一卷积核对所述输入特征图进行卷积处理,得到M个通道的第一候选输出特征图,M为正整数;第一矩阵变换单元,用于根据K个第一矩阵对所述M个第一候选输出特征图进行矩阵变换,得到K个通道的第一输出特征图,其中,所述K个第一矩阵中的每个矩阵的通道数小于M,K大于M,K为正整数;第二卷积单元,用于根据神经网络的P个第二卷积核对所述第一输出特征图进行卷积处理,得到P个通道的第二候选输出特征图,P为正整数;第二矩阵变换单元,用于根据N个第二矩阵对所述P个第二候选输出特征图进行矩阵变换,得到N个通道的第二输出特征图,其中,所述N个第二矩阵中的每个矩阵的通道数小于P,N大于P,N为正整数;分类单元,用于根据所述第二输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
可选地,所述M个第一卷积核可以为现有卷积神经网络中的标准卷积核。
需要说明的是,在本申请实施例中,标准卷积核的通道数与输入特征图的通道数相同,例如,若待处理图像的输入特征图的通道数为C,那么,现有卷积神经网络中的标准卷积核的通道数也为C,即标准卷积核的通道数与输入特征图的通道数相同,其中,C为正整数。
类似地,所述P个第二卷积核也可以为现有卷积神经网络中的标准卷积核。
在本申请实施例中,通过少量标准卷积核及矩阵变换实现现有卷积神经网络中的卷积处理,可以有效减少各输出特征图之间的冗余性,减少神经网络模型的计算量和参数量,从而降低图像分类处理的计算量和参数量,因此,本申请实施例中的图像分类方法可以在不增加参数量和计算量(或者减少参数量和计算量)的情况下,提升图像分类的效果。
可选地,所述K个第一矩阵中每个矩阵的通道数可以为1,或者,所述K个第一矩阵中每个矩阵的通道数也可以大于1。
可选地,所述N个第二矩阵中每个矩阵的通道数可以为1,或者,所述N个第二矩阵中每个矩阵的通道数也可以大于1。
结合第四方面,在第四方面的某些实现方式中,所述图像分类装置还包括深度卷积单元,用于:对所述第一输出特征图进行深度卷积,得到深度卷积特征图;所述第二卷积单元具体用于:根据所述P个第二卷积核对所述深度卷积特征图进行卷积处理,得到所述第二候选输出特征图。
结合第四方面,在第四方面的某些实现方式中,所述深度卷积单元具体用于:对所述第一输出特征图进行步幅大于1的深度卷积,得到所述深度卷积特征图。
结合第四方面,在第四方面的某些实现方式中,所述图像分类装置还包括残差连接单元,用于:对所述输入特征图和所述第二输出特征图进行残差连接,得到残差连接特征图;所述分类单元具体用于:根据所述残差连接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
在本申请实施例中,通过残差连接可以将更多的细节(或特征)引入输出特征图,而残差连接并不会引入额外的参数或者计算量,因此,可以在不增加参数量和计算量的情况下,提升图像分类的效果。
第五方面,提供了一种图像分类装置,该装置包括:存储器,用于存储程序;处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行上述第一方面或第二方面中的任意一种实现方式中的方法。
上述第五方面中的处理器既可以是中央处理器(central processing unit,CPU),也可以是CPU与神经网络运算处理器的组合,这里的神经网络运算处理器可以包括图形处理器(graphics processing unit,GPU)、神经网络处理器(neural-networkprocessing unit,NPU)和张量处理器(tensor processing unit,TPU)等等。其中,TPU是谷歌(google)为机器学习全定制的人工智能加速器专用集成电路。
第六方面,提供一种计算机可读介质,该计算机可读介质存储用于设备执行的程序代码,该程序代码包括用于执行第一方面或第二方面中的任意一种实现方式中的方法。
第七方面,提供一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述第一方面或第二方面中的任意一种实现方式中的方法。
第八方面,提供一种芯片,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,执行上述第一方面或第二方面中的任意一种实现方式中的方法。
可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行第一方面或第二方面中的任意一种实现方式中的方法。
上述芯片具体可以是现场可编程门阵列(field-programmable gate array,FPGA)或者专用集成电路(application-specific integrated circuit,ASIC)。
第九方面,提供了一种电子设备,该电子设备包括上述第三方面或第四方面中的任意一个方面中的图像分类装置。
当上述电子设备包括上述第三方面或第四方面中的任意一个方面中的图像分类装置时,该电子设备具体可以是终端设备或服务器。
在本申请实施例中,通过少量标准卷积核(即M个卷积核)对待处理图像进行卷积处理,得到少量的候选特征图,并对这些少量的候选特征图进行矩阵变换以得到所需的输出特征图,其中,标准卷积核的个数少于现有卷积神经网络中的标准卷积核的个数,同时,矩阵变换中使用的矩阵的通道数也小于标准卷积核,因此,有助于减少神经网络模型的计算量和参数量,从而降低图像分类处理的计算量和参数量。
附图说明
图1是本申请实施例提供的系统架构的结构示意图。
图2是本申请实施例提供的根据卷积神经网络模型进行图像分类的示意图。
图3是本申请实施例提供的一种芯片硬件结构示意图。
图4是本申请实施例提供的一种应用场景示意图。
图5是本申请一个实施例提供的图像分类方法的示意性流程图。
图6是本申请实施例提供的卷积处理的示意性框图。
图7是本申请实施例提供的特征扩增单元的示意性框图。
图8是本申请另一个实施例提供的图像分类方法的示意性流程图。
图9是本申请一个实施例提供的纺锤模块的示意性框图。
图10是本申请另一个实施例提供的纺锤模块的示意性框图。
图11是本申请实施例提供的神经网络的示意性框图。
图12是本申请实施例的图像分类装置的硬件结构示意图。
图13是本申请实施例的神经网络训练装置的硬件结构示意图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
本申请实施例提供的图像分类方法能够应用在图片检索、相册管理、平安城市、人机交互以及其他需要进行图像分类或者图像识别的场景。应理解,本申请实施例中的图像可以为静态图像(或称为静态画面)或动态图像(或称为动态画面),例如,本申请中的图像可以为视频或动态图片,或者,本申请中的图像也可以为静态图片或照片。为了便于描述,本申请在下述实施例中将静态图像或动态图像统一称为图像。
本申请实施例的图像分类方法可以具体应用到相册分类和拍照识别场景中,下面对这两种场景进行详细的介绍。
相册分类:
用户在手机和云盘上存储了大量图片,按照类别对相册进行分类管理能提高用户的体验。利用本申请实施例的图像分类方法对相册中的图片进行分类,能够得到按照类别进行排列或者存储的相册。本申请实施例的图片分类方法可以方便用户对不同的物体类别进行分类管理,从而方便用户的查找,能够节省用户的管理时间,提高相册管理的效率。
具体地,在采用本申请实施例的图像分类方法进行相册分类时,可以利用本申请提供的神经网络,先提取相册中图片的图片特征,然后再根据提取到的图片特征对相册中的图片进行分类,得到图片的分类结果,接下来,再根据图片的分类结果对相册中的图片进行分类,得到按照图片类别进行排列的相册。其中,在根据图片类别对相册中的图片进行排列时,可以将属于同一类的图片排列在一行或者一行。例如,在最终得到的相册中,第一行的图片都属于飞机,第二行的图片都属于汽车。
拍照识物:
用户在拍照时,可以利用本申请实施例的图像分类方法对拍到的照片进行处理,能够自动识别出被拍物体的类别,例如,可以自动识别出被拍物体是花卉、动物等。进一步地,利用本申请实施例的图像分类方法可以对拍照得到的物体进行识别,识别出该物体所属的类别,例如,用户拍照得到的照片中包括共享单车,利用本申请实施例的图像分类方法能够对共享单车进行识别,识别出该物体属于自行车,进一步地,还可以显示自行车的相关信息。
应理解,上文介绍的相册分类和拍照识物只是本申请实施例的图像分类方法所应用的两个具体场景,本申请实施例的图像分类方法在应用时并不限于上述两个场景,本申请实施例的图像分类方法能够应用到任何需要进行图像分类或者图像识别的场景中。
本申请实施例中的图像分类方法中使用了一种新的神经网络模型,该模型也可以类似地应用于其他使用神经网络的领域,例如,人脸识别、语音识别、目标检测、机器翻译及语义分割等。
本申请实施例涉及了大量神经网络的相关应用,为了更好地理解本申请实施例的方案,下面先对本申请实施例可能涉及的神经网络的相关术语和概念进行介绍。
(1)神经网络
神经网络可以是由神经单元组成的,神经单元可以是指以xs和截距1为输入的运算单元,该运算单元的输出可以如公式(1-1)所示:
Figure BDA0002149729990000071
其中,s=1、2、……n,n为大于1的自然数,Ws为xs的权重,b为神经单元的偏置。f为神经单元的激活函数(activation functions),用于将非线性特性引入神经网络中,来将神经单元中的输入信号转换为输出信号。该激活函数的输出信号可以作为下一层卷积层的输入,激活函数可以是sigmoid函数。神经网络是将多个上述单一的神经单元联结在一起形成的网络,即一个神经单元的输出可以是另一个神经单元的输入。每个神经单元的输入可以与前一层的局部接受域相连,来提取局部接受域的特征,局部接受域可以是由若干个神经单元组成的区域。
(2)深度神经网络
深度神经网络(deep neural network,DNN),也称多层神经网络,可以理解为具有多层隐含层的神经网络。按照不同层的位置对DNN进行划分,DNN内部的神经网络可以分为三类:输入层,隐含层,输出层。一般来说第一层是输入层,最后一层是输出层,中间的层数都是隐含层。层与层之间是全连接的,也就是说,第i层的任意一个神经元一定与第i+1层的任意一个神经元相连。
虽然DNN看起来很复杂,但是就每一层的工作来说,其实并不复杂,简单来说就是如下线性关系表达式:
Figure BDA0002149729990000081
其中,
Figure BDA0002149729990000082
是输入向量,
Figure BDA0002149729990000083
是输出向量,
Figure BDA0002149729990000084
是偏移向量,W是权重矩阵(也称系数),α()是激活函数。每一层仅仅是对输入向量
Figure BDA0002149729990000085
经过如此简单的操作得到输出向量
Figure BDA0002149729990000086
由于DNN层数多,系数W和偏移向量
Figure BDA0002149729990000087
的数量也比较多。这些参数在DNN中的定义如下所述:以系数W为例:假设在一个三层的DNN中,第二层的第4个神经元到第三层的第2个神经元的线性系数定义为
Figure BDA0002149729990000088
上标3代表系数W所在的层数,而下标对应的是输出的第三层索引2和输入的第二层索引4。
综上,第L-1层的第k个神经元到第L层的第j个神经元的系数定义为
Figure BDA0002149729990000089
需要注意的是,输入层是没有W参数的。在深度神经网络中,更多的隐含层让网络更能够刻画现实世界中的复杂情形。理论上而言,参数越多的模型复杂度越高,“容量”也就越大,也就意味着它能完成更复杂的学习任务。训练深度神经网络的也就是学习权重矩阵的过程,其最终目的是得到训练好的深度神经网络的所有层的权重矩阵(由很多层的向量W形成的权重矩阵)。
(3)卷积神经网络
卷积神经网络(convolutional neuron network,CNN)是一种带有卷积结构的深度神经网络。卷积神经网络包含了一个由卷积层和子采样层构成的特征抽取器,该特征抽取器可以看作是滤波器。卷积层是指卷积神经网络中对输入信号进行卷积处理的神经元层。在卷积神经网络的卷积层中,一个神经元可以只与部分邻层神经元连接。一个卷积层中,通常包含若干个特征平面,每个特征平面可以由一些矩形排列的神经单元组成。同一特征平面的神经单元共享权重,这里共享的权重就是卷积核。共享权重可以理解为提取图像信息的方式与位置无关。卷积核可以以随机大小的矩阵的形式初始化,在卷积神经网络的训练过程中卷积核可以通过学习得到合理的权重。另外,共享权重带来的直接好处是减少卷积神经网络各层之间的连接,同时又降低了过拟合的风险。
(4)循环神经网络(recurrent neural networks,RNN)是用来处理序列数据的。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,而对于每一层层内之间的各个节点是无连接的。这种普通的神经网络虽然解决了很多难题,但是却仍然对很多问题无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐含层本层之间的节点不再无连接而是有连接的,并且隐含层的输入不仅包括输入层的输出还包括上一时刻隐含层的输出。理论上,RNN能够对任何长度的序列数据进行处理。对于RNN的训练和对传统的CNN或DNN的训练一样。
既然已经有了卷积神经网络,为什么还要循环神经网络?原因很简单,在卷积神经网络中,有一个前提假设是:元素之间是相互独立的,输入与输出也是独立的,比如猫和狗。但现实世界中,很多元素都是相互连接的,比如股票随时间的变化,再比如一个人说了:我喜欢旅游,其中最喜欢的地方是云南,以后有机会一定要去。这里填空,人类应该都知道是填“云南”。因为人类会根据上下文的内容进行推断,但如何让机器做到这一步?RNN就应运而生了。RNN旨在让机器像人一样拥有记忆的能力。因此,RNN的输出就需要依赖当前的输入信息和历史的记忆信息。
(5)损失函数
在训练深度神经网络的过程中,因为希望深度神经网络的输出尽可能的接近真正想要预测的值,所以可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量(当然,在第一次更新之前通常会有初始化的过程,即为深度神经网络中的各层预先配置参数),比如,如果网络的预测值高了,就调整权重向量让它预测低一些,不断地调整,直到深度神经网络能够预测出真正想要的目标值或与真正想要的目标值非常接近的值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(loss function)或目标函数(objective function),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么深度神经网络的训练就变成了尽可能缩小这个loss的过程。
(6)反向传播算法
神经网络可以采用误差反向传播(back propagation,BP)算法在训练过程中修正初始的神经网络模型中参数的大小,使得神经网络模型的重建误差损失越来越小。具体地,前向传递输入信号直至输出会产生误差损失,通过反向传播误差损失信息来更新初始的神经网络模型中参数,从而使误差损失收敛。反向传播算法是以误差损失为主导的反向传播运动,旨在得到最优的神经网络模型的参数,例如权重矩阵。
(7)像素值
图像的像素值可以是一个红绿蓝(RGB)颜色值,像素值可以是表示颜色的长整数。例如,像素值为256*Red+100*Green+76Blue,其中,Blue代表蓝色分量,Green代表绿色分量,Red代表红色分量。各个颜色分量中,数值越小,亮度越低,数值越大,亮度越高。对于灰度图像来说,像素值可以是灰度值。
如图1所示,本申请实施例提供了一种系统架构100。在图1中,数据采集设备160用于采集训练数据。针对本申请实施例的图像分类方法来说,训练数据可以包括训练图像以及训练图像对应的分类结果,其中,训练图像的分类结果可以是人工预先标注的结果。
在采集到训练数据之后,数据采集设备160将这些训练数据存入数据库130,训练设备120基于数据库130中维护的训练数据训练得到目标模型/规则101。
下面对训练设备120基于训练数据得到目标模型/规则101进行描述,训练设备120对输入的原始图像进行处理,将输出的图像与原始图像进行对比,直到训练设备120输出的图像与原始图像的差值小于一定的阈值,从而完成目标模型/规则101的训练。
上述目标模型/规则101能够用于实现本申请实施例的图像分类方法,即,将待处理图像通过相关预处理后输入该目标模型/规则101,即可得到图像的分类结果。本申请实施例中的目标模型/规则101具体可以为神经网络。需要说明的是,在实际的应用中,所述数据库130中维护的训练数据不一定都来自于数据采集设备160的采集,也有可能是从其他设备接收得到的。另外需要说明的是,训练设备120也不一定完全基于数据库130维护的训练数据进行目标模型/规则101的训练,也有可能从云端或其他地方获取训练数据进行模型训练,上述描述不应该作为对本申请实施例的限定。
根据训练设备120训练得到的目标模型/规则101可以应用于不同的系统或设备中,如应用于图1所示的执行设备110,所述执行设备110可以是终端,如手机终端,平板电脑,笔记本电脑,增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR),车载终端等,还可以是服务器或者云端设备等。在图1中,执行设备110配置输入/输出(input/output,I/O)接口112,用于与外部设备进行数据交互,用户可以通过客户设备140向I/O接口112输入数据,所述输入数据在本申请实施例中可以包括:客户设备输入的待处理图像。
预处理模块113和预处理模块114用于根据I/O接口112接收到的输入数据(如待处理图像)进行预处理,在本申请实施例中,也可以没有预处理模块113和预处理模块114(也可以只有其中的一个预处理模块),而直接采用计算模块111对输入数据进行处理。
在执行设备110对输入数据进行预处理,或者在执行设备110的计算模块111执行计算等相关的处理过程中,执行设备110可以调用数据存储系统150中的数据、代码等以用于相应的处理,也可以将相应处理得到的数据、指令等存入数据存储系统150中。
最后,I/O接口112将处理结果,如上述得到的待处理图像的分类结果返回给客户设备140,从而提供给用户。
值得说明的是,训练设备120可以针对不同的目标或称不同的任务,基于不同的训练数据生成相应的目标模型/规则101,该相应的目标模型/规则101即可以用于实现上述目标或完成上述任务,从而为用户提供所需的结果。
在图1所示情况下,用户可以手动给定输入数据,该手动给定可以通过I/O接口112提供的界面进行操作。另一种情况下,客户设备140可以自动地向I/O接口112发送输入数据,如果要求客户设备140自动发送输入数据需要获得用户的授权,则用户可以在客户设备140中设置相应权限。用户可以在客户设备140查看执行设备110输出的结果,具体的呈现形式可以是显示、声音、动作等具体方式。客户设备140也可以作为数据采集端,采集如图所示输入I/O接口112的输入数据及输出I/O接口112的输出结果作为新的样本数据,并存入数据库130。当然,也可以不经过客户设备140进行采集,而是由I/O接口112直接将如图所示输入I/O接口112的输入数据及输出I/O接口112的输出结果,作为新的样本数据存入数据库130。
值得注意的是,图1仅是本申请实施例提供的一种系统架构的示意图,图中所示设备、器件、模块等之间的位置关系不构成任何限制,例如,在图1中,数据存储系统150相对执行设备110是外部存储器,在其它情况下,也可以将数据存储系统150置于执行设备110中。
如图1所示,根据训练设备120训练得到目标模型/规则101,该目标模型/规则101在本申请实施例中可以是本申请中的神经网络,具体的,本申请实施例提供的神经网络可以CNN,深度卷积神经网络(deep convolutional neural networks,DCNN),循环神经网络(recurrent neural network,RNNS)等等。
由于CNN是一种非常常见的神经网络,下面结合图2重点对CNN的结构进行详细的介绍。如上文的基础概念介绍所述,卷积神经网络是一种带有卷积结构的深度神经网络,是一种深度学习(deep learning)架构,深度学习架构是指通过机器学习的算法,在不同的抽象层级上进行多个层次的学习。作为一种深度学习架构,CNN是一种前馈(feed-forward)人工神经网络,该前馈人工神经网络中的各个神经元可以对输入其中的图像作出响应。
如图2所示,卷积神经网络(CNN)200可以包括输入层210,卷积层/池化层220(其中池化层为可选的),以及神经网络层230。下面对这些层的相关内容做详细介绍。
卷积层/池化层220:
卷积层:
如图2所示卷积层/池化层220可以包括如示例221-226层,举例来说:在一种实现方式中,221层为卷积层,222层为池化层,223层为卷积层,224层为池化层,225为卷积层,226为池化层;在另一种实现方式中,221、222为卷积层,223为池化层,224、225为卷积层,226为池化层。即卷积层的输出可以作为随后的池化层的输入,也可以作为另一个卷积层的输入以继续进行卷积操作。
下面将以卷积层221为例,介绍一层卷积层的内部工作原理。
卷积层221可以包括很多个卷积算子,卷积算子也称为核,其在图像处理中的作用相当于一个从输入图像矩阵中提取特定信息的过滤器,卷积算子本质上可以是一个权重矩阵,这个权重矩阵通常被预先定义,在对图像进行卷积操作的过程中,权重矩阵通常在输入图像上沿着水平方向一个像素接着一个像素(或两个像素接着两个像素……这取决于步长stride的取值)的进行处理,从而完成从图像中提取特定特征的工作。该权重矩阵的大小应该与图像的大小相关,需要注意的是,权重矩阵的纵深维度(depth dimension)和输入图像的纵深维度是相同的,在进行卷积运算的过程中,权重矩阵会延伸到输入图像的整个深度。因此,和一个单一的权重矩阵进行卷积会产生一个单一纵深维度的卷积化输出,但是大多数情况下不使用单一权重矩阵,而是应用多个尺寸(行×列)相同的权重矩阵,即多个同型矩阵。每个权重矩阵的输出被堆叠起来形成卷积图像的纵深维度,这里的维度可以理解为由上面所述的“多个”来决定。不同的权重矩阵可以用来提取图像中不同的特征,例如一个权重矩阵用来提取图像边缘信息,另一个权重矩阵用来提取图像的特定颜色,又一个权重矩阵用来对图像中不需要的噪点进行模糊化等。该多个权重矩阵尺寸(行×列)相同,经过该多个尺寸相同的权重矩阵提取后的特征图的尺寸也相同,再将提取到的多个尺寸相同的特征图合并形成卷积运算的输出。
这些权重矩阵中的权重值在实际应用中需要经过大量的训练得到,通过训练得到的权重值形成的各个权重矩阵可以用来从输入图像中提取信息,从而使得卷积神经网络200进行正确的预测。
当卷积神经网络200有多个卷积层的时候,初始的卷积层(例如221)往往提取较多的一般特征,该一般特征也可以称之为低级别的特征;随着卷积神经网络200深度的加深,越往后的卷积层(例如226)提取到的特征越来越复杂,比如高级别的语义之类的特征,语义越高的特征越适用于待解决的问题。
池化层/池化层220:
由于常常需要减少训练参数的数量,因此卷积层之后常常需要周期性的引入池化层,在如图2中220所示例的221-226各层,可以是一层卷积层后面跟一层池化层,也可以是多层卷积层后面接一层或多层池化层。在图像处理过程中,池化层的唯一目的就是减少图像的空间大小。池化层可以包括平均池化算子和/或最大池化算子,以用于对输入图像进行采样得到较小尺寸的图像。平均池化算子可以在特定范围内对图像中的像素值进行计算产生平均值作为平均池化的结果。最大池化算子可以在特定范围内取该范围内值最大的像素作为最大池化的结果。另外,就像卷积层中用权重矩阵的大小应该与图像尺寸相关一样,池化层中的运算符也应该与图像的大小相关。通过池化层处理后输出的图像尺寸可以小于输入池化层的图像的尺寸,池化层输出的图像中每个像素点表示输入池化层的图像的对应子区域的平均值或最大值。
神经网络层230:
在经过卷积层/池化层220的处理后,卷积神经网络200还不足以输出所需要的输出信息。因为如前所述,卷积层/池化层220只会提取特征,并减少输入图像带来的参数。然而为了生成最终的输出信息(所需要的类信息或其他相关信息),卷积神经网络200需要利用神经网络层230来生成一个或者一组所需要的类的数量的输出。因此,在神经网络层230中可以包括多层隐含层(如图2所示的231、232至23n)以及输出层240,该多层隐含层中所包含的参数可以根据具体的任务类型的相关训练数据进行预先训练得到,例如该任务类型可以包括图像识别,图像分类,图像超分辨率重建等等。
在神经网络层230中的多层隐含层之后,也就是整个卷积神经网络200的最后层为输出层240,该输出层240具有类似分类交叉熵的损失函数,具体用于计算预测误差,一旦整个卷积神经网络200的前向传播(如图2由210至240方向的传播为前向传播)完成,反向传播(如图2由240至210方向的传播为反向传播)就会开始更新前面提到的各层的权重值以及偏差,以减少卷积神经网络200的损失,及卷积神经网络200通过输出层输出的结果和理想结果之间的误差。
需要说明的是,如图2所示的卷积神经网络200仅作为一种卷积神经网络的示例,在具体的应用中,卷积神经网络还可以以其他网络模型的形式存在。
本申请中,可以采用图2所示的卷积神经网络200对待处理图像进行处理,得到待处理图像的分类结果。如图2所示,待处理图像经过输入层210、卷积层/池化层220以及神经网络层230的处理后输出待处理图像的分类结果。
图3为本申请实施例提供的一种芯片硬件结构,该芯片包括神经网络处理器50。该芯片可以被设置在如图1所示的执行设备110中,用以完成计算模块111的计算工作。该芯片也可以被设置在如图1所示的训练设备120中,用以完成训练设备120的训练工作并输出目标模型/规则101。如图2所示的卷积神经网络中各层的算法均可在如图3所示的芯片中得以实现。
神经网络处理器NPU 50作为协处理器挂载到主CPU(host CPU)上,由主CPU分配任务。NPU的核心部分为运算电路503,控制器504控制运算电路503提取存储器(权重存储器或输入存储器)中的数据并进行运算。
在一些实现方式中,运算电路503内部包括多个处理单元(process engine,PE)。在一些实现方式中,运算电路503是二维脉动阵列。运算电路503还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现方式中,运算电路503是通用的矩阵处理器。
举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路503从权重存储器502中取矩阵B相应的数据,并缓存在运算电路503中每一个PE上。运算电路503从输入存储器501中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器(accumulator)508中。
向量计算单元507可以对运算电路503的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。例如,向量计算单元507可以用于神经网络中非卷积/非FC层的网络计算,如池化(pooling),批归一化(batch normalization),局部响应归一化(local response normalization)等。
在一些实现方式中,向量计算单元能507将经处理的输出的向量存储到统一缓存器506。例如,向量计算单元507可以将非线性函数应用到运算电路503的输出,例如累加值的向量,用以生成激活值。在一些实现方式中,向量计算单元507生成归一化的值、合并值,或二者均有。在一些实现方式中,处理过的输出的向量能够用作到运算电路503的激活输入,例如用于在神经网络中的后续层中的使用。
统一存储器506用于存放输入数据以及输出数据。
权重数据直接通过存储单元访问控制器505(direct memory accesscontroller,DMAC)将外部存储器中的输入数据搬运到输入存储器501和/或统一存储器506、将外部存储器中的权重数据存入权重存储器502,以及将统一存储器506中的数据存入外部存储器。
总线接口单元(bus interface unit,BIU)510,用于通过总线实现主CPU、DMAC和取指存储器509之间进行交互。
与控制器504连接的取指存储器(instruction fetch buffer)509,用于存储控制器504使用的指令;
控制器504,用于调用指存储器509中缓存的指令,实现控制该运算加速器的工作过程。
一般地,统一存储器506,输入存储器501,权重存储器502以及取指存储器509均为片上(On-Chip)存储器,外部存储器为该NPU外部的存储器,该外部存储器可以为双倍数据率同步动态随机存储器(double data rate synchronous dynamic random accessmemory,简称DDR SDRAM)、高带宽存储器(high bandwidth memory,HBM)或其他可读可写的存储器。
其中,图2所示的卷积神经网络中各层的运算可以由运算电路503或向量计算单元307执行。
上文中介绍的图1中的执行设备110能够执行本申请实施例的图像分类方法的各个步骤,图2所示的CNN模型和图3所示的芯片也可以用于执行本申请实施例的图像分类方法的各个步骤。下面结合附图对本申请实施例的图像分类方法进行详细的介绍。
本申请实施例提供的图像分类方法可以在服务器上被执行,也可以在云端被执行,还可以在终端设备上被执行。以终端设备为例,如图4所示,本发明实施例的技术方案可以应用于终端设备,本申请实施例中的图像分类方法可以对输入图像进行图像分类,得到该输入图像的分类结果。该终端设备可以为移动的或固定的,例如该终端设备可以是具有图像处理功能的移动电话、平板个人电脑(tablet personal computer,TPC)、媒体播放器、智能电视、笔记本电脑(laptop computer,LC)、个人数字助理(personal digitalassistant,PDA)、个人计算机(personal computer,PC)、照相机、摄像机、智能手表、可穿戴式设备(wearable device,WD)或者自动驾驶的车辆等,本发明实施例对此不作限定。
图像(或图片)的分类是各类图像处理应用的基础,计算机视觉常常会涉及到如何对获取到的图像进行分类的问题。但是,高精度的卷积神经网络的参数量和计算量都很大,而终端设备的内存和计算资源都非常有限,并不具备有较强的运算能力和缓存能力,导致具有高精度的卷积神经网络在终端设备上难以进行部署。
本申请实施例提出了一种图像分类方法,通过少于现有卷积神经网络中的标准卷积核个数的少量标准卷积核,就可以得到所需的输出特征图,该方法有助于降低图像分类处理的计算量和参数量。
图5示出了本申请实施例提供的图像分类方法500的示意性流程图,该方法可以由能够进行图像分类装置执行,例如,该方法可以由图4中的终端设备执行。
S510,获取待处理图像的输入特征图。
当图5所示的方法由图4中的终端设备执行时,该待处理图像可以是终端设备通过摄像头拍摄到的图像,或者,该待处理图像还可以是从终端设备内部获得的图像(例如,终端设备的相册中存储的图像,或者终端设备从云端获取的图像)。
或者,该待处理图像的输入特征图可以是卷积神经网络中的其他层处理后得到的特征图。应理解,这里所说的卷积神经网络中的其他层是指卷积神经网络中的一个层,例如,该其他层可以是卷积神经网络中的输入层、卷积层、池化层或全连接层中的一个。
S520,根据神经网络的M个卷积核对所述输入特征图进行卷积处理,得到M个通道的候选输出特征图,M为正整数。
其中,所述M个卷积核可以为现有卷积神经网络中的标准卷积核。
需要说明的是,在本申请实施例中,标准卷积核的通道数与输入特征图的通道数相同,例如,若待处理图像的输入特征图的通道数为C,则现有卷积神经网络中的标准卷积核的通道数也为C,即,标准卷积核的通道数与输入特征图的通道数相同,其中,C为正整数。
S530,根据N个矩阵对所述候选输出特征图的M个通道进行矩阵变换,得到N个通道的输出特征图。
其中,所述N个矩阵中的每个矩阵的通道数小于M,N大于M,N为正整数。
上述S520和S530是本申请实施例中的特征扩增单元(feature in feature,FiF),该特征扩增单元可以用于替换现有卷积神经网络模型中的卷积层。
该特征扩增单元使用少量标准卷积核进行卷积处理,得到少量的候选特征图,并对这些少量的候选特征图进行矩阵变换以得到所需的输出特征图,可以减少输出特征图之间的冗余性,有助于降低图像分类处理的计算量和参数量。下面结合图6和图7对上述S520和S530中的特征扩增单元进行详细描述。
图6所示的是现有卷积神经网络中的一个卷积层的卷积处理。
从图6中可以看出,该卷积层的输入特征图包括C个通道,该卷积层的输出特征图包括N个通道。在现有卷积神经网络中,若要对C个通道的输入特征图进行卷积处理,得到N个通道的输出特征图,则该卷积层中需要N个标准卷积核,该N个标准卷积核中的每个卷积核包括C个通道。
需要说明的是,上述C个通道的输入特征图可以是指一个输入特征图,该输入特征图的通道数为C;或者,上述C个通道的输入特征图也可以是指C个输入特征图,其中,每个输入特征图都是二维的(即通道数为1)。为便于理解,本申请中统一描述为C个通道的输入特征图。本申请实施例中的其他特征图的描述都可以类似地理解,这里不再赘述。
例如,在上述S520中,得到M个通道的候选输出特征图,该M个通道的候选输出特征图既可以认为是一个包括M个通道的候选输出特征图,也可以是M个通道数为1的候选输出特征图。
图7所示的是本申请实施例中的特征扩增单元的特征扩增处理。该特征扩增单元可以用于替换现有卷积神经网络中的卷积层(例如图6所示的卷积层)。
在图7所示的特征扩增单元中,在输入特征图包括C个通道的情况下,若期望得到N个通道的输出特征图,可以先通过M个标准卷积核进行卷积处理,得到M个通道的候选特征图(如上述S520),该M个标准卷积核中的每个卷积核包括C个通道;再利用N个矩阵对候选输出特征图的M个通道进行矩阵变换,得到N个通道的输出特征图(如上述S530);其中,该N个矩阵中的每个矩阵的通道数可以小于M,N可以大于M,N为正整数。
在现有卷积神经网络中,同一个卷积层中可以有大量的标准卷积核,其中的很多卷积核的提取模式都是相似的,也就是说提取的特征都是类似的,导致得到输出特征图的冗余性很高。而在本申请中,该特征扩增单元基于少量标准卷积核进行卷积处理,并对得到的少量候选特征图的各个通道进行矩阵变量,可以有效减少各输出特征图之间的冗余性。
同时,该特征扩增单元中的标准卷积核的数量少于现有卷积神经网络,而且矩阵变换中使用的矩阵的通道数也小于标准卷积核,因此,有助于减少神经网络模型的计算量和参数量,从而降低图像分类处理的计算量和参数量。
在本申请中,上述矩阵变换中的所述N个矩阵可以是N个通道数为1的矩阵;或者上述矩阵变换中的所述N个矩阵也可以是N个通道数大于1的矩阵,例如,所述N个矩阵的通道数为2。
同时,S530中是根据N个矩阵对特征图(所述M个通道的候选输出特征图)进行矩阵变换,而通常卷积核也可以认为是矩阵,因此,所述N个矩阵也可以认为是N个卷积核。在图5中的后续描述中,所述N个矩阵可以理解为所述N个卷积核,所述N个卷积核也可以指对所述M个通道的候选输出特征图进行矩阵变换的所述N个矩阵。
需要说明的是,这里所说的N个卷积核(上述N个卷积核)与S520中的卷积核不同,S520中的卷积核为现有卷积神经网络中的标准卷积核,标准卷积核的通道数与进行卷积的输入特征图的通道数相同,而本申请中的上述N个卷积核中的每个卷积核的通道数可以小于进行卷积的输入特征图的通道数M(即所述M个通道的候选输出特征图)。例如,所述N个卷积核的通道数可以为1。
进一步地,由于矩阵变换中的所述N个矩阵(即上述N个卷积核)的通道数可以小于所述候选输出特征图的通道数M,因此,可以减少特征扩增单元的计算量和参数量,在利用该特征扩增单元替换现有卷积神经网络中的卷积层(例如图6所示的卷积层)的情况下,有助于减少神经网络模型的计算量和参数量,从而降低图像分类处理的计算量和参数量。
在本申请中,根据矩阵变换中的所述N个矩阵的通道数不同,可以分为以下两种情况。
情况一:
可选地,上述矩阵变换中的所述N个矩阵的通道数可以为1。
可选地,所述N个矩阵可以分为M组卷积核,所述M组卷积核可以分别与所述候选输出特征图的M个通道对应。
可选地,所述M组卷积核可以与所述候选输出特征图的M个通道一一对应。
例如,所述M组卷积核中的第一组可以与所述候选输出特征图的M个通道中的第一个通道对应,所述M组卷积核中的第二组可以与所述候选输出特征图的M个通道中的第二个通道对应,……,所述M组卷积核中的第M组可以与所述候选输出特征图的M个通道中的第M个通道对应。
在本申请中,所述根据N个矩阵对所述M个候选输出特征图进行矩阵变换,得到N个通道的输出特征图,可以包括:根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行卷积,得到所述N个通道的输出特征图。
具体地,可以使用所述M组卷积核中的第一组,对所述候选输出特征图的M个通道中的第一个通道进行卷积,……,可以使用所述M组卷积核中的第M组,对所述候选输出特征图的M个通道中的第M个通道进行卷积。
例如,若所述M组卷积核中的第一组包括S个卷积核(该卷积核的通道数为1),如图7所示的Φ1,1至Φ1,s,则可以使用这S个卷积核,对所述候选输出特征图的M个通道中的第一个通道进行卷积,得到S个输出特征图(或者也可以认为是一个通道数为S的输出特征图)。
所述M组卷积核中的其他组卷积核类似,也可以S个卷积核,这里不再赘述。
可选地,在上述矩阵变换中的所述N个矩阵的通道数为1的情况下,该特征扩增单元的浮点计算次数(floating point operations,FLOPs)rS可以近似用下述公式(1)表示:
Figure BDA0002149729990000161
其中,S为所述M组卷积核中的每个组包括的卷积个数,C为所述特征扩增单元的输入特征图的通道数。
可选地,在S远小于C的情况,上述公式(1)可以近似用下述公式(2)表示:
Figure BDA0002149729990000162
类似地,在上述矩阵变换中的所述N个矩阵的通道数为1的情况下,该特征扩增单元的参数量的压缩比rC可以近似用下述公式(3)表示:
Figure BDA0002149729990000163
其中,S为所述M组卷积核中的每个组包括的卷积个数,C为所述特征扩增单元的输入特征图的通道数。
可选地,在S远小于C的情况,上述公式(3)可以近似用下述公式(4)表示:
Figure BDA0002149729990000164
在本申请中,所述根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行卷积,得到所述N个通道的输出特征图,可以包括:根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行深度卷积(depthwise convolution),得到所述N个通道的输出特征图。
具体地,所述深度卷积可以参考现有技术,这里不再赘述。
在本申请中,所述M组卷积核中的每一组的卷积核与所述M组卷积核中的其他组的卷积核相同。
也就是说,所述候选输出特征图的M个通道可以复用相同的卷积核进行卷积。
例如,所述M组卷积核中的第一组包括S个卷积核,比如图7所示的Φ1,1至Φ1,s,可以依次使用这S个卷积核,对所述候选输出特征图的M个通道中的第一个通道进行卷积;所述M组卷积核中的第二组包括的S个卷积核也可以是图7所示的Φ1,1至Φ1,s,可以依次使用这S个卷积核,对所述候选输出特征图的M个通道中的第二个通道进行卷积。
类似地,所述M组卷积核中的其他组包括的S个卷积核也可以是图7所示的Φ1,1至Φ1,s,这里不再赘述。
由于矩阵变换中的所述N个矩阵(即上述N个卷积核)的通道数为1(小于所述候选输出特征图的通道数M),因此,可以减少特征扩增单元的计算量和参数量,降低图像分类处理的计算量和参数量。
情况二:
可选地,上述矩阵变换中的所述N个矩阵的通道数可以大于1。
以上述矩阵变换中的所述N个矩阵的通道数等于2为例,所述N个矩阵可以分为M/2组卷积核,所述M/2组卷积核可以分别与所述候选输出特征图的M个通道中的2个通道一一对应。
需要说明的是,本领域技术人员可以理解,在N个卷积核的通道数为2的情况下,若要根据N个卷积核对输入特征图(即所述M个通道的候选输出特征图)进行矩阵变换,则所述N个卷积核中的每个卷积核的通道数需要与输入特征图的通道数一致(或者说相同)。
此时,所述M个通道的候选输出特征图相当于划分为M/2个通道数为2的特征图,与所述N个卷积核进行卷积,相应地,所述N个卷积核也相当于划分为M/2组卷积核。应理解,这里所说的“划分”只是便于理解进行的解释性描述,在实际中可能并不存在划分的操作。
例如,所述M/2组卷积核中的第一组可以与所述候选输出特征图的M个通道中的第一个通道及第二个通道对应,所述M/2组卷积核中的第二组可以与所述候选输出特征图的M个通道中的第三个通道及第四个通道对应,……,所述M/2组卷积核中的第M/2组可以与所述候选输出特征图的M个通道中的第M-1个通道及第M个通道对应。
可选地,可以根据所述M/2组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行卷积,得到所述N个通道的输出特征图。
例如,可以使用所述M/2组卷积核中的第一组,对所述候选输出特征图的M个通道中的第一个通道及第二个通道进行卷积,……,可以使用所述M/2组卷积核中的第M/2组,对所述候选输出特征图的M个通道中的第M-1个通道及第M个通道进行卷积。
可选地,所述M/2组卷积核中的每一组的卷积核与所述M/2组卷积核中的其他组的卷积核相同。也就是说,所述候选输出特征图的M个通道可以复用相同的卷积核进行卷积。
在本申请实施例中,矩阵变换中的所述N个矩阵的通道数大于2的情况与上述矩阵变换中的所述N个矩阵的通道数等于2的实施例类似,这里不再赘述。
由于矩阵变换中的所述N个矩阵(即上述N个卷积核)的通道数可以小于所述候选输出特征图的通道数M,因此,可以减少特征扩增单元的计算量和参数量,降低图像分类处理的计算量和参数量。
可选地,矩阵变换中的所述N个矩阵(即上述N个卷积核)的通道数可以等于所述候选输出特征图的通道数M。
在本申请中,所述根据所述输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果,可以包括:对所述候选输出特征图和所述输出特征图进行特征拼接,得到特征拼接特征图,所述特征拼接特征图的通道数为M+N;根据所述特征拼接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
上述特征拼接是指所述候选输出特征图和所述输出特征图在深度方向上组成新的特征图,即上述特征拼接特征图。
例如,所述候选输出特征图的通道数为M,所述输出特征图的通道数为N,所述候选输出特征图和所述输出特征图可以进行特征拼接,得到一个通道数为M+N的特征拼接特征图。
特征拼接可以通过恒等特征映射的方式,可以将更多的细节(或特征)引入输出特征图,同时,这种恒等映射并不会引入额外的参数或者计算量,因此可以在不增加参数量和计算量的情况下,提升图像分类的效果。
S540,根据所述输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
图8示出了本申请另一个实施例提供的图像分类方法800的示意性流程图,该方法可以由能够进行图像分类装置执行,例如,该方法可以由图4中的终端设备执行。
S810,获取待处理图像的输入特征图。
当图5所示的方法由图4中的终端设备执行时,该待处理图像可以是终端设备通过摄像头拍摄到的图像,或者,该待处理图像还可以是从终端设备内部获得的图像(例如,终端设备的相册中存储的图像,或者终端设备从云端获取的图像)。
或者,该待处理图像的输入特征图可以是卷积神经网络中的其他层处理后得到的特征图。应理解,这里所说的卷积神经网络中的其他层是指卷积神经网络中的一个层,例如,该其他层可以是卷积神经网络中的输入层、卷积层、池化层或全连接层中的一个。
S820,根据神经网络的M个第一卷积核对所述输入特征图进行卷积处理,得到M个通道的第一候选输出特征图,M为正整数。
其中,所述M个第一卷积核可以为现有卷积神经网络中的标准卷积核。
S830,根据K个第一矩阵对所述M个第一候选输出特征图进行矩阵变换,得到K个通道的第一输出特征图。
其中,所述K个第一矩阵中的每个矩阵的通道数小于M,K大于M,K为正整数。
可选地,上述S820和S830可以是图5方法500中的一个特征扩增单元(feature infeature,FiF)。
为便于理解,下述实施例中也可以将S820和S830称为第一特征扩增单元。
S840,根据神经网络的P个第二卷积核对所述第一输出特征图进行卷积处理,得到P个通道的第二候选输出特征图,P为正整数。
其中,所述P个第二卷积核可以为现有卷积神经网络中的标准卷积核。
可选地,所述根据神经网络的P个第二卷积核对所述第一输出特征图进行卷积处理,得到P个通道的第二候选输出特征图,可以包括:对所述第一输出特征图进行深度卷积,得到深度卷积特征图;根据所述P个第二卷积核对所述深度卷积特征图进行卷积处理,得到所述第二候选输出特征图。
可选地,所述对所述第一输出特征图进行深度卷积,得到深度卷积特征图,可以包括:对所述第一输出特征图进行步幅大于1的深度卷积,得到所述深度卷积特征图。
S850,根据N个第二矩阵对所述P个第二候选输出特征图进行矩阵变换,得到N个通道的第二输出特征图。
其中,所述N个第二矩阵中的每个矩阵的通道数小于P,N大于P,N为正整数。
可选地,上述S840和S850也可以是图5方法500中的一个特征扩增单元(featureinfeature,FiF)。
为便于理解,下述实施例中也可以将S840和S850称为第二特征扩增单元。
S860,根据所述第二输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
可选地,所述根据所述第二输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果,可以包括:对所述输入特征图和所述第二输出特征图进行残差连接,得到残差连接特征图;根据所述残差连接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
在本申请中,上述S820至S850可以是本申请实施例中的纺锤模块(spindleblock),该纺锤模块可以用于替换现有卷积神经网络模型中的一个模块(block),比如,现有卷积神经网络模型中的一个模块可以包括两个卷积层。
为便于理解,下述实施例中的纺锤模块都是指上述图8方法800(S820至S850)中的所述纺锤模块。
也就是说,该纺锤模块可以包括上述第一特征扩增单元和上述第二特征扩增单元。
纺锤模块可以由至少两个特征扩增单元(比如图5中所示的特征扩增单元)构成,该特征扩增单元使用少量标准卷积核进行卷积处理,得到少量的候选特征图,并对这些少量的候选特征图进行矩阵变换以得到所需的输出特征图,可以减少输出特征图之间的冗余性,有助于降低图像分类处理的计算量和参数量。下面结合图9和图10对上述S820至S850中的纺锤模块进行详细描述。
在本申请中,根据纺锤模块的步长(stride)不同,可以分为以下两种情况。
情况一:
图9所示的是本申请实施例中的步长为1的纺锤模块。该纺锤可以由至少两个特征扩增单元(比如图5中所示的特征扩增单元)构成。
对于步长为1的纺锤模块,输入特征图的尺寸(宽和高)与输出特征图的尺寸相同。
例如,上述纺锤模块的输入特征图为所述待处理图像的输入特征图,上述纺锤模块的输出特征图为N个通道的第二输出特征图,若所述输入特征图的尺寸为A*B,则所述第二输出特征图的尺寸也为A*B。
可选地,在所述纺锤模块中,在所述第一特征扩增单元和所述第二特征扩增单元之间还可以进行深度卷积。可选地,所述深度卷积的步长可以为1。
可选地,在所述纺锤模块的步长为1的情况下,所述纺锤模块的输入特征图的尺寸(宽和高)与输出特征图的尺寸相同,因此,还可以对所述纺锤模块进行残差连接,即对所述输入特征图和所述第二输出特征图进行残差连接。
此时,可以对所述输入特征图和所述第二输出特征图进行残差连接,得到残差连接特征图;相应地,可以根据所述残差连接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
关于残差连接的详细描述可以参考现有技术,这里不再赘述。
通过残差连接可以将更多的细节(或特征)引入输出特征图,而残差连接并不会引入额外的参数或者计算量,因此,可以在不增加参数量和计算量的情况下,提升图像分类的效果。
情况二:
图10所示的是本申请实施例中的步长大于1的纺锤模块。该纺锤可以由至少两个特征扩增单元(比如图5中所示的特征扩增单元)构成。
对于步长大于1的纺锤模块,输出特征图的尺寸(宽和高)小于输入特征图的尺寸。
以纺锤模块的步长等于2为例进行说明,此时,输出特征图的尺寸(宽和高)为输入特征图的尺寸的一半。
例如,上述纺锤模块的输入特征图为所述待处理图像的输入特征图,上述纺锤模块的输出特征图为N个通道的第二输出特征图,若所述输入特征图的尺寸为A*B,则所述第二输出特征图的尺寸也为(A/2)*(B/2)。
可选地,在所述纺锤模块中,在所述第一特征扩增单元和所述第二特征扩增单元之间还可以进行深度卷积。可选地,所述深度卷积的步长可以大于1。
在本申请实施例中,所述纺锤模块的输出特征图的通道数可以为N(即N个通道的第二输出特征图),所述第一特征扩增单元的输出特征图的通道数可以为K(即K个通道的第一输出特征图),可以使所述第一特征扩增单元的输出的通道数K大于N,相应地,再通过所述第二特征扩增单元将通道数K降为N。
也就是说,在所述纺锤模块中,可以通过所述第一特征扩增单元提高通道数,再通过所述第二特征扩增单元降低通道数,以满足所述纺锤模块输出的通道数。
例如,所述纺锤模块的输出特征图的通道数为100(即100个通道的第二输出特征图),所述第一特征扩增单元的输出特征图的通道数可以为1000(即1000个通道的第一输出特征图),此时,所述第一特征扩增单元输出的通道数1000大于所述纺锤模块输出的通道数100,相应地,可以再通过所述第二特征扩增单元将通道数1000降为100。
在本申请实施例中,通过所述第一特征扩增单元提高通道数,可以提取更多的特征,从而能够提升图像分类的效果。
进一步地,本申请实施例中的特征扩增单元可以通过少量标准卷积核及矩阵变换实现现有卷积神经网络中的卷积处理,可以有效减少各输出特征图之间的冗余性,减少神经网络模型的计算量和参数量,从而降低图像分类处理的计算量和参数量,因此,本申请实施例中的纺锤模块可以不增加参数量和计算量(或者减少参数量和计算量)的情况下,提升图像分类的效果。
图11是本申请实施例提供的一个神经网络的示意性框图。图11所示的神经网络可以用于实现图8所示的图像分类方法
图11中的神经网络可以包括一个或多个图8方法800中的纺锤模块,该纺锤模块可以用于替换现有卷积神经网络模型中的一个模块(block),比如,现有卷积神经网络模型中的一个模块可以包括两个卷积层。
该纺锤模块可以包括至少两个图5所示的特征扩增单元,例如,该纺锤模块可以如图8方法800中所述,包括两个特征扩增单元:第一特征扩增单元和第二特征扩增单元。其中,一个特征扩增单元可以用于替换现有卷积神经网络模型中的一个卷积层。
在图11所示的神经网络中,还可以包括卷积层、池化层或全连接层等,本申请对此并不限定。
根据图11所示的神经网络结构,本申请实施例提出一种高效的神经网络模型HWNet。HWNet如图11中神经网络所示,包括多个纺锤模块,其中,每个纺锤模块包括特征扩增模块,HWNet的网络结构可以参考现有神经网络的设计准则。例如,在现有神经网络的设计中,随着特征图尺寸的逐渐下降,特征图的通道数逐渐增加。HWNet的具体结构可以如下述表1所示。
表1本申请中的HWNet的网络结构
Figure BDA0002149729990000211
如表1所示,HWNet的第一层是带有16个标准卷积核的卷积层,然后是12个输入特征图的通道数逐渐增加的纺锤模块,这些纺锤模块组被分为5个阶段,每一阶段内的特征图大小相同。
下述表2是对HWNet和现有的几个神经网络模型,在ImageNet数据集上进行图像分类的测试实验数据。
表2本申请中的HWNet和现有的几个神经网络模型的测试数据
Figure BDA0002149729990000212
Figure BDA0002149729990000221
其中,MobileNet是谷歌公司(Google)提出的一种卷积神经网络模型,ShuffleNet是旷视科技公司提出的一种为移动终端设备而设计的卷积神经网络模型,IGCV3是交错低秩分组卷积。
从上表2可以看出,相比现有的几个神经网络模型,本申请实施例中提出的HWNet在参数更少、计算更快的情况下,模型的精度更高。
图12是本申请实施例的图像分类装置的硬件结构示意图。图12所示的图像分类装置4000包括存储器4001、处理器4002、通信接口4003以及总线4004。其中,存储器4001、处理器4002、通信接口4003通过总线4004实现彼此之间的通信连接。
存储器4001可以是只读存储器(read only memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(random access memory,RAM)。存储器4001可以存储程序,当存储器4001中存储的程序被处理器4002执行时,处理器4002和通信接口4003用于执行本申请实施例的图像分类方法的各个步骤。
处理器4002可以采用通用的中央处理器(central processing unit,CPU),微处理器,应用专用集成电路(application specific integrated circuit,ASIC),图形处理器(graphics processing unit,GPU)或者一个或多个集成电路,用于执行相关程序,以实现本申请实施例的图像分类装置中的单元所需执行的功能,或者执行本申请方法实施例的图像分类方法。
处理器4002还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请实施例的图像分类方法的各个步骤可以通过处理器4002中的硬件的集成逻辑电路或者软件形式的指令完成。
上述处理器4002还可以是通用处理器、数字信号处理器(digital signalprocessing,DSP)、ASIC、现成可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。上述通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器4001,处理器4002读取存储器4001中的信息,结合其硬件完成本申请实施例的图像分类装置中包括的单元所需执行的功能,或者执行本申请方法实施例的图像分类方法。
通信接口4003使用例如但不限于收发器一类的收发装置,来实现装置4000与其他设备或通信网络之间的通信。例如,可以通过通信接口4003获取待处理图像。
总线4004可包括在装置4000各个部件(例如,存储器4001、处理器4002、通信接口4003)之间传送信息的通路。
图13是本申请实施例的神经网络训练装置5000的硬件结构示意图。与上述装置4000类似,图13所示的神经网络训练装置5000包括存储器5001、处理器5002、通信接口5003以及总线5004。其中,存储器5001、处理器5002、通信接口5003通过总线5004实现彼此之间的通信连接。
存储器5001可以存储程序,当存储器5001中存储的程序被处理器5002执行时,处理器5002用于执行训练本申请实施例的图像分类装置的训练方法的各个步骤。
处理器5002可以采用通用的CPU,微处理器,ASIC,GPU或者一个或多个集成电路,用于执行相关程序,以实现训练本申请实施例的图像分类装置的训练方法。
处理器5002还可以是一种集成电路芯片,具有信号的处理能力。在实现训练过程中,本申请实施例的图像分类装置的训练方法的各个步骤可以通过处理器5002中的硬件的集成逻辑电路或者软件形式的指令完成。
应理解,通过图13所示的神经网络训练装置5000对图像分类装置进行训练,训练得到的图像分类装置就可以用于执行本申请实施例的图像分类方法了。具体地,通过装置5000对神经网络进行训练能够得到图5或图8所示的方法中的神经网络。
具体地,图13所示的装置可以通过通信接口5003从外界获取训练数据以及待训练的图像分类装置,然后由处理器根据训练数据对待训练的图像分类装置进行训练。
应注意,尽管上述装置4000和装置5000仅仅示出了存储器、处理器、通信接口,但是在具体实现过程中,本领域的技术人员应当理解,装置4000和装置5000还可以包括实现正常运行所必须的其他器件。同时,根据具体需要,本领域的技术人员应当理解,装置4000和装置5000还可包括实现其他附加功能的硬件器件。此外,本领域的技术人员应当理解,装置4000和装置5000也可仅仅包括实现本申请实施例所必须的器件,而不必包括图12和图13中所示的全部器件。
应理解,本申请实施例中的处理器可以为中央处理单元(central processingunit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(fieldprogrammable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
还应理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的随机存取存储器(random accessmemory,RAM)可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行所述计算机指令或计算机程序时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘。
应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系,但也可能表示的是一种“和/或”的关系,具体可参考前后文进行理解。
本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。
应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (21)

1.一种图像分类方法,其特征在于,包括:
获取待处理图像的输入特征图;
根据神经网络的M个卷积核对所述输入特征图进行卷积处理,得到M个通道的候选输出特征图,M为正整数;
根据N个矩阵对所述候选输出特征图的M个通道进行矩阵变换,得到N个通道的输出特征图,其中,所述N个矩阵中的每个矩阵的通道数小于M,N大于M,N为正整数;
根据所述输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
2.根据权利要求1所述的方法,其特征在于,所述N个矩阵包括M组卷积核,所述M组卷积核分别与所述候选输出特征图的M个通道对应;
所述根据N个矩阵对所述M个候选输出特征图进行矩阵变换,得到N个通道的输出特征图,包括:
根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行卷积,得到所述N个通道的输出特征图。
3.根据权利要求2所述的方法,其特征在于,所述根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行卷积,得到所述N个通道的输出特征图,包括:
根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行深度卷积,得到所述N个通道的输出特征图。
4.根据权利要求2所述的方法,其特征在于,所述M组卷积核中的每一组的卷积核与所述M组卷积核中的其他组的卷积核相同。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述根据所述输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果,包括:
对所述候选输出特征图和所述输出特征图进行特征拼接,得到特征拼接特征图,所述特征拼接特征图的通道数为M+N;
根据所述特征拼接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
6.一种图像分类方法,其特征在于,包括:
获取待处理图像的输入特征图;
根据神经网络的M个第一卷积核对所述输入特征图进行卷积处理,得到M个通道的第一候选输出特征图,M为正整数;
根据K个第一矩阵对所述M个第一候选输出特征图进行矩阵变换,得到K个通道的第一输出特征图,其中,所述K个第一矩阵中的每个矩阵的通道数小于M,K大于M,K为正整数;
根据神经网络的P个第二卷积核对所述第一输出特征图进行卷积处理,得到P个通道的第二候选输出特征图,P为正整数;
根据N个第二矩阵对所述P个第二候选输出特征图进行矩阵变换,得到N个通道的第二输出特征图,其中,所述N个第二矩阵中的每个矩阵的通道数小于P,N大于P,N为正整数;
根据所述第二输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
7.根据权利要求6所述的方法,其特征在于,所述根据神经网络的P个第二卷积核对所述第一输出特征图进行卷积处理,得到P个通道的第二候选输出特征图,包括:
对所述第一输出特征图进行深度卷积,得到深度卷积特征图;
根据所述P个第二卷积核对所述深度卷积特征图进行卷积处理,得到所述第二候选输出特征图。
8.根据权利要求7所述的方法,其特征在于,所述对所述第一输出特征图进行深度卷积,得到深度卷积特征图,包括:
对所述第一输出特征图进行步幅大于1的深度卷积,得到所述深度卷积特征图。
9.根据权利要求6或7所述的方法,其特征在于,所述根据所述第二输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果,包括:
对所述输入特征图和所述第二输出特征图进行残差连接,得到残差连接特征图;
根据所述残差连接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
10.一种图像分类装置,其特征在于,包括:
获取单元,用于获取待处理图像的输入特征图;
卷积单元,用于根据神经网络的M个卷积核对所述输入特征图进行卷积处理,得到M个通道的候选输出特征图,M为正整数;
矩阵变换单元,用于根据N个矩阵对所述候选输出特征图的M个通道进行矩阵变换,得到N个通道的输出特征图,其中,所述N个矩阵中的每个矩阵的通道数小于M,N大于M,N为正整数;
分类单元,用于根据所述输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
11.根据权利要求10所述的装置,其特征在于,所述N个矩阵包括M组卷积核,所述M组卷积核分别与所述候选输出特征图的M个通道对应;
所述矩阵变换单元具体用于:根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行卷积,得到所述N个通道的输出特征图。
12.根据权利要求11所述的装置,其特征在于,所述矩阵变换单元具体用于:
根据所述M组卷积核中的每一组卷积核,对所述候选输出特征图的M个通道中对应的通道进行深度卷积,得到所述N个通道的输出特征图。
13.根据权利要求11所述的装置,其特征在于,所述M组卷积核中的每一组的卷积核与所述M组卷积核中的其他组的卷积核相同。
14.根据权利要求10至13中任一项所述的装置,其特征在于,所述分类单元具体用于:
对所述候选输出特征图和所述输出特征图进行特征拼接,得到特征拼接特征图,所述特征拼接特征图的通道数为M+N;
根据所述特征拼接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
15.一种图像分类装置,其特征在于,包括:
获取单元,用于获取待处理图像的输入特征图;
第一卷积单元,用于根据神经网络的M个第一卷积核对所述输入特征图进行卷积处理,得到M个通道的第一候选输出特征图,M为正整数;
第一矩阵变换单元,用于根据K个第一矩阵对所述M个第一候选输出特征图进行矩阵变换,得到K个通道的第一输出特征图,其中,所述K个第一矩阵中的每个矩阵的通道数小于M,K大于M,K为正整数;
第二卷积单元,用于根据神经网络的P个第二卷积核对所述第一输出特征图进行卷积处理,得到P个通道的第二候选输出特征图,P为正整数;
第二矩阵变换单元,用于根据N个第二矩阵对所述P个第二候选输出特征图进行矩阵变换,得到N个通道的第二输出特征图,其中,所述N个第二矩阵中的每个矩阵的通道数小于P,N大于P,N为正整数;
分类单元,用于根据所述第二输出特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
16.根据权利要求15所述的装置,其特征在于,所述图像分类装置还包括深度卷积单元,用于:
对所述第一输出特征图进行深度卷积,得到深度卷积特征图;
所述第二卷积单元具体用于:根据所述P个第二卷积核对所述深度卷积特征图进行卷积处理,得到所述第二候选输出特征图。
17.根据权利要求16所述的装置,其特征在于,所述深度卷积单元具体用于:
对所述第一输出特征图进行步幅大于1的深度卷积,得到所述深度卷积特征图。
18.根据权利要求15或16所述的装置,其特征在于,所述图像分类装置还包括残差连接单元,用于:
对所述输入特征图和所述第二输出特征图进行残差连接,得到残差连接特征图;
所述分类单元具体用于:根据所述残差连接特征图对所述待处理图像进行分类,得到所述待处理图像的分类结果。
19.一种图像分类装置,其特征在于,包括处理器和存储器,所述存储器用于存储程序指令,所述处理器用于调用所述程序指令来执行权利要求1-5或6-9中任一项所述的方法。
20.一种计算机可读存储介质,其特征在于,所述计算机可读介质存储用于设备执行的程序代码,该程序代码包括用于执行如权利要求1-5或6-9中任一项所述的方法。
21.一种芯片,其特征在于,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,以执行如权利要求求1-5或6-9中任一项所述的方法。
CN201910697287.0A 2019-07-30 2019-07-30 图像分类方法及装置 Pending CN111797882A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201910697287.0A CN111797882A (zh) 2019-07-30 2019-07-30 图像分类方法及装置
PCT/CN2020/105830 WO2021018245A1 (zh) 2019-07-30 2020-07-30 图像分类方法及装置
EP20848554.0A EP4006776A4 (en) 2019-07-30 2020-07-30 METHOD AND APPARATUS FOR CLASSIFYING IMAGES
US17/587,689 US20220157041A1 (en) 2019-07-30 2022-01-28 Image classification method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910697287.0A CN111797882A (zh) 2019-07-30 2019-07-30 图像分类方法及装置

Publications (1)

Publication Number Publication Date
CN111797882A true CN111797882A (zh) 2020-10-20

Family

ID=72805479

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910697287.0A Pending CN111797882A (zh) 2019-07-30 2019-07-30 图像分类方法及装置

Country Status (4)

Country Link
US (1) US20220157041A1 (zh)
EP (1) EP4006776A4 (zh)
CN (1) CN111797882A (zh)
WO (1) WO2021018245A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112700362A (zh) * 2020-12-28 2021-04-23 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备和存储介质
CN113033324A (zh) * 2021-03-03 2021-06-25 广东省地质环境监测总站 一种地质灾害前兆因子识别方法、装置,电子设备及存储介质
CN114067488A (zh) * 2021-11-03 2022-02-18 深圳黑蚂蚁环保科技有限公司 回收系统
WO2023004762A1 (zh) * 2021-07-30 2023-02-02 华为技术有限公司 计算机系统和数据处理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117172285A (zh) * 2021-02-27 2023-12-05 华为技术有限公司 一种感知网络及数据处理方法
CN117620448B (zh) * 2024-01-25 2024-04-16 东莞市昂图智能科技有限公司 激光雕刻机的加工控制方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180365580A1 (en) * 2017-06-15 2018-12-20 Microsoft Technology Licensing, Llc Determining a likelihood of a user interaction with a content element
CN109670506A (zh) * 2018-11-05 2019-04-23 中国科学院计算技术研究所 基于克罗内克卷积的场景分割方法和系统
CN110020682A (zh) * 2019-03-29 2019-07-16 北京工商大学 一种基于小样本学习的注意力机制关系对比网络模型方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180365580A1 (en) * 2017-06-15 2018-12-20 Microsoft Technology Licensing, Llc Determining a likelihood of a user interaction with a content element
CN109670506A (zh) * 2018-11-05 2019-04-23 中国科学院计算技术研究所 基于克罗内克卷积的场景分割方法和系统
CN110020682A (zh) * 2019-03-29 2019-07-16 北京工商大学 一种基于小样本学习的注意力机制关系对比网络模型方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HE KAIMING 等: ""Identity Mappings in Deep Residual Networks"", 《ARXIV》, pages 2 - 14 *
LECUN Y 等: ""GRADIENT-BASED LEARNING APPLIED TO DOCUMENT RECOGNITION"", 《IEEE》, pages 2284 - 2286 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112700362A (zh) * 2020-12-28 2021-04-23 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备和存储介质
CN112700362B (zh) * 2020-12-28 2023-07-25 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备和存储介质
CN113033324A (zh) * 2021-03-03 2021-06-25 广东省地质环境监测总站 一种地质灾害前兆因子识别方法、装置,电子设备及存储介质
CN113033324B (zh) * 2021-03-03 2024-03-08 广东省地质环境监测总站 一种地质灾害前兆因子识别方法、装置,电子设备及存储介质
WO2023004762A1 (zh) * 2021-07-30 2023-02-02 华为技术有限公司 计算机系统和数据处理方法
CN114067488A (zh) * 2021-11-03 2022-02-18 深圳黑蚂蚁环保科技有限公司 回收系统

Also Published As

Publication number Publication date
WO2021018245A1 (zh) 2021-02-04
EP4006776A1 (en) 2022-06-01
EP4006776A4 (en) 2022-10-05
US20220157041A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
CN110188795B (zh) 图像分类方法、数据处理方法和装置
CN110378381B (zh) 物体检测方法、装置和计算机存储介质
CN110222717B (zh) 图像处理方法和装置
US20210398252A1 (en) Image denoising method and apparatus
CN112446834A (zh) 图像增强方法和装置
CN111914997B (zh) 训练神经网络的方法、图像处理方法及装置
CN111797882A (zh) 图像分类方法及装置
CN112639828A (zh) 数据处理的方法、训练神经网络模型的方法及设备
CN112446380A (zh) 图像处理方法和装置
US20220157046A1 (en) Image Classification Method And Apparatus
CN111882031A (zh) 一种神经网络蒸馏方法及装置
CN114255361A (zh) 神经网络模型的训练方法、图像处理方法及装置
CN112287954A (zh) 图像分类方法、图像分类模型的训练方法及其装置
CN113191489B (zh) 二值神经网络模型的训练方法、图像处理方法和装置
WO2021227787A1 (zh) 训练神经网络预测器的方法、图像处理方法及装置
CN110222718A (zh) 图像处理的方法及装置
CN112529146A (zh) 神经网络模型训练的方法和装置
CN112529904A (zh) 图像语义分割方法、装置、计算机可读存储介质和芯片
CN113011562A (zh) 一种模型训练方法及装置
CN110705564B (zh) 图像识别的方法和装置
CN114298289A (zh) 一种数据处理的方法、数据处理设备及存储介质
CN113128285A (zh) 一种处理视频的方法及装置
WO2022179606A1 (zh) 一种图像处理方法及相关装置
CN114693986A (zh) 主动学习模型的训练方法、图像处理方法及装置
CN113065637A (zh) 一种感知网络及数据处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination