CN108764306A - 图像分类方法、装置、计算机设备和存储介质 - Google Patents
图像分类方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN108764306A CN108764306A CN201810462613.5A CN201810462613A CN108764306A CN 108764306 A CN108764306 A CN 108764306A CN 201810462613 A CN201810462613 A CN 201810462613A CN 108764306 A CN108764306 A CN 108764306A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- sub
- segmentation
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 120
- 230000011218 segmentation Effects 0.000 claims abstract description 299
- 238000012549 training Methods 0.000 claims abstract description 229
- 238000013145 classification model Methods 0.000 claims abstract description 73
- 230000006870 function Effects 0.000 claims description 345
- 230000008569 process Effects 0.000 claims description 43
- 238000002372 labelling Methods 0.000 claims description 30
- 238000013527 convolutional neural network Methods 0.000 claims description 24
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 230000002441 reversible effect Effects 0.000 claims description 10
- 230000003595 spectral effect Effects 0.000 claims description 10
- 230000004807 localization Effects 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 21
- 230000036961 partial effect Effects 0.000 description 11
- 238000000638 solvent extraction Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 230000001902 propagating effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000013341 scale-up Methods 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 208000031968 Cadaver Diseases 0.000 description 1
- 240000004282 Grewia occidentalis Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000012442 analytical experiment Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000003340 combinatorial analysis Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
- G06V10/7515—Shifting the patterns to accommodate for positional errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种图像分类方法、装置、计算机设备和存储介质。包括:获取待分类图像,将待分类图像输入已训练的图像分类模型,已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像;已分割图像经过所述校准子网络,校准子网络对目标对象进行校准得到已校准图像;已校准图像经过所述分类子网络进行细粒度分类,得到待分类图像对应的类别,能够提高图像分类精准度。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种图像分类方法、装置、计算机设备和存储介质。
背景技术
细粒度的识别强调识别不同形状和姿势的物体类别之间的细微差别。细粒度物体识别的目的是识别子对象的对象类,它用来寻找动物、产品品牌以及建筑风格之间的细微差异。
传统的分类方法用定位和校准来减少姿势变化,因为所有的步骤都被独立的处理,因此每一个在定位中出现的误差都能够影响校准和分类,细粒度分类的准确度受到影响。
发明内容
基于此,有必要针对上述技术问题,提供一种能够在训练过程中通过阀门联动函数适应性的折衷分类和校准的误差,从而提高图像细粒度分类精准度的图像分类方法、装置、计算机设备和存储介质。
一种图像分类方法,所述方法包括:
获取待分类信息,对所述待分类信息进行分词得到对应的原始词语集合;
分别获取所述原始词语集合中各个原始词语对应的同义词,将原始词语与对应的同义词形成扩展词语集合,每个原始词语都存在对应的扩展词语集合;
根据各个原始词语对应的扩展词语集合形成所述待分类信息对应的扩展分类信息集合;
将所述扩展分类信息集合输入已训练的多分类模型得到所述待分类信息对应的目标类别。
在其中一个实施例中,所述定位分割子网络包括定位子网络和分割子网络,所述定位子网络与分割子网络共享卷积神经网络的参数。
在其中一个实施例中,图像分类模型的训练步骤包括:
获取训练图像集合,所述训练图像集合中的各个训练图像包括标准定位标注框,标准分割标注框和标准类别标签;
从所述训练图像集合获取各个类别对应的模板;
将所述训练图像集合中的各个训练图像输入定位分割子网络,得到包含当前定位区域和当前分割区域的已分割训练图像;
根据所述模板对所述已分割训练图像进行校准得到已校准训练图像;
将所述已校准训练图像输入分类子网络得到对应的当前输出类别;
获取图像分类模型对应的总目标函数,所述总目标函数包括定位分割子网络目标函数和分类子网络目标函数,其中所述定位分割子网络目标函数是关于所述阀门联动函数的函数,根据所述当前输出类别、标准定位标注框,标准分割标注框和标准类别标签计算得到总目标函数的取值;
根据所述阀门联动函数调整定位分割子网络参数和分类子网络参数,直到所述总目标函数的取值满足收敛条件;
得到所述已训练的图像分类模型。
在其中一个实施例中,所述从所述训练图像集合获取各个类别对应的模板,包括:
计算所述训练图像集合中任意两个训练图像之间的相似性,组成相似性矩阵;
将所述相似性矩阵经过谱聚类算法,将各个训练图像分成对应的多个集群;
获取各个集群中心,根据各个集群中各个训练图像与对应的集群中心的相似度,确定各个集群对应的目标训练图像得到所述各个类别对应的模板,所述模板用于对图像进行校准。
在其中一个实施例中,所述根据所述模板对所述已分割训练图像进行校准得到已校准训练图像,包括:
获取校准目标函数,所述校准目标函数包括相似度函数、距离函数和前景置信度函数;
调整模板中心点、旋转角度、缩放比和当前模板,直到所述校准目标函数满足收敛条件,得到对应的目标模板中心点、目标旋转角度、目标缩放比和目标模板;
根据所述目标模板中心点、目标旋转角度、目标缩放比和目标模板对所述已分割训练图像进行校准,得到已校准训练图像。
在其中一个实施例中,所述总目标函数通过以下公式定义:
J(Wc,Wls;I,Lgt,ygt,ogt)=Ec(Wc;V(L,O;I,Lf,Of),ygt)+Els(Wls;I,Lgt,ogt)
其中J为总目标函数,Ec表示定位分割子网络目标函数,Els表示分类子网络目标函数,Wc表示定位分割子网络需要确定的参数,Wls表示分类子网络需要确定的参数,V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,I是输入的原始图像,ygt是标准类别标签,Lgt是标准定位标注框,ogt是标准分割标注框。
在其中一个实施例中,所述阀门联动函数通过以下公式定义:
其中:V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,在前向过程中,L=Lf,O=Of,在反向过程中L和O是变量,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,c*是校准时采用的模板中心点,θ*是校准时采用的旋转角度,α*是校准时采用的目标缩放比,I表示对所述原始图像校准后的图像,Ea为校准能量函数,所述校准能量函数通过以下公式定义:
Ea(c,θ,α,t;I,L,O)=S(I(c,θ,α),t)+λdD(c,L)+λsF(O,tm),其中c表示模板中心点,θ表示旋转角度,α表示目标缩放比,t表示模板,S为相似度函数,其中λd和λs是自定义的常量,D为距离函数,F为前景置信度函数,tm为模板的二元掩膜。
一种图像分类装置,所述装置包括:
输入模块,用于获取待分类图像,将所述待分类图像输入已训练的图像分类模型,所述已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,所述校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数;
分割模块,用于所述待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像;
校准模块,用于所述已分割图像经过所述校准子网络,所述校准子网络对目标对象进行校准得到已校准图像;
类别确定模块,用于所述已校准图像经过所述分类子网络进行细粒度分类,得到所述待分类图像对应的类别。
在其中一个实施例中,所述定位分割子网络包括定位子网络和分割子网络,所述定位子网络与分割子网络共享卷积神经网络的参数。
在其中一个实施例中,所述装置还包括:
训练模块,用于获取训练图像集合,所述训练图像集合中的各个训练图像包括标准定位标注框,标准分割标注框和标准类别标签;从所述训练图像集合获取各个类别对应的模板;将所述训练图像集合中的各个训练图像输入定位分割子网络,得到包含当前定位区域和当前分割区域的已分割训练图像;根据所述模板对所述已分割训练图像进行校准得到已校准训练图像;将所述已校准训练图像输入分类子网络得到对应的当前输出类别;获取图像分类模型对应的总目标函数,所述总目标函数包括定位分割子网络目标函数和分类子网络目标函数,其中所述定位分割子网络目标函数是关于所述阀门联动函数的函数,根据所述当前输出类别、标准定位标注框,标准分割标注框和标准类别标签计算得到总目标函数的取值;根据所述阀门联动函数调整定位分割子网络参数和分类子网络参数,直到所述总目标函数的取值满足收敛条件;得到所述已训练的图像分类模型。
在其中一个实施例中,所述训练模块还用于计算所述训练图像集合中任意两个训练图像之间的相似性,组成相似性矩阵;将所述相似性矩阵经过谱聚类算法,将各个训练图像分成对应的多个集群;获取各个集群中心,根据各个集群中各个训练图像与对应的集群中心的相似度,确定各个集群对应的目标训练图像得到所述各个类别对应的模板,所述模板用于对图像进行校准。
在其中一个实施例中,所述训练模块还用于获取校准目标函数,所述校准目标函数包括相似度函数、距离函数和前景置信度函数;调整模板中心点、旋转角度、缩放比和当前模板,直到所述校准目标函数满足收敛条件,得到对应的目标模板中心点、目标旋转角度、目标缩放比和目标模板;根据所述目标模板中心点、目标旋转角度、目标缩放比和目标模板对所述已分割训练图像进行校准,得到已校准训练图像。
在其中一个实施例中,总目标函数通过以下公式定义:
J(Wc,Wls;I,Lgt,ygt,ogt)=Ec(Wc;V(L,O;I,Lf,Of),ygt)+Els(Wls;I,Lgt,ogt)
其中J为总目标函数,Ec表示定位分割子网络目标函数,Els表示分类子网络目标函数,Wc表示定位分割子网络需要确定的参数,Wls表示分类子网络需要确定的参数,V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,I是输入的原始图像,ygt是标准类别标签,Lgt是标准定位标注框,ogt是标准分割标注框。
在其中一个实施例中,阀门联动函数通过以下公式定义:
其中:V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,在前向过程中,L=Lf,O=Of,在反向过程中L和O是变量,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,c*是校准时采用的模板中心点,θ*是校准时采用的旋转角度,α*是校准时采用的目标缩放比,I表示对所述原始图像校准后的图像,Ea为校准能量函数,所述校准能量函数通过以下公式定义:
Ea(c,θ,α,t;I,L,O)=S(I(c,θ,α),t)+λdD(c,L)+λsF(O,tm),其中c表示模板中心点,θ表示旋转角度,α表示目标缩放比,t表示模板,S为相似度函数,其中λd和λs是自定义的常量,D为距离函数,F为前景置信度函数,tm为模板的二元掩膜。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待分类图像,将所述待分类图像输入已训练的图像分类模型,所述已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,所述校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数;
所述待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像;
所述已分割图像经过所述校准子网络,所述校准子网络对目标对象进行校准得到已校准图像;
所述已校准图像经过所述分类子网络进行细粒度分类,得到所述待分类图像对应的类别。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待分类图像,将所述待分类图像输入已训练的图像分类模型,所述已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,所述校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数;
所述待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像;
所述已分割图像经过所述校准子网络,所述校准子网络对目标对象进行校准得到已校准图像;
所述已校准图像经过所述分类子网络进行细粒度分类,得到所述待分类图像对应的类别。
上述图像分类方法、装置、计算机设备和存储介质,通过获取待分类图像,将待分类图像输入已训练的图像分类模型,已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,所述校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数,待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像;已分割图像经过所述校准子网络,校准子网络对目标对象进行校准得到已校准图像;已校准图像经过所述分类子网络进行细粒度分类,得到待分类图像对应的类别,可提高图像分类的精准性。
附图说明
图1为一个实施例中图像分类方法的应用环境图;
图2为一个实施例中图像分类方法的流程示意图;
图3为一个实施例中得到已训练的图像分类模型的流程示意图;
图4为一个实施例中确定类别对应的模板的流程示意图;
图5为一个实施例中鸟头和鸟躯干的训练图像示意图,其中被选中为模板的图像显示在图5(a)和图5(b)的第一列;
图6为一个实施例中根据模板得到已校准训练图像的流程示意图;
图7为一个实施例中校准部分的前景置信度图和二元掩膜的示意图;
图8为一个实施例中校准前和校准后的图像对比示意图;
图9为一个实施例中深度系统图像分类系统的处理过程示意图;
图10为一个实施例中分别设置不共享卷积神经网络参数和参数共享,部分定位结果比较示意图;
图11为一个实施例中分别设置不共享卷积神经网络参数和参数共享,分割精度比较示意图;
图12为一个实施例中输入图像和各种情况下的分割结果示意图;
图13为在CUB-200-2011数据集上有和没有使用阀门联动功能的物体分割精度对比示意图;
图14中为本申请方法与其他方法在头和躯干的定位准确率比较结果;
图15为一个实施例中包含头和躯干的预测边界框的定位示意图;
图16为在CUB-200-2011数据集上就物体分割本申请方法与其他分割方法的比较示意图;
图17为不同算法对应的不同的分割结果示意图;
图18为在CUB-200-2011数据集中鸟头和躯干语义部分的分类精度示意图;
图19为在CUB-200-2011数据集上本申请最后的分类精确度与其他的前沿的方法的比较结果示意图;
图20为不同方法在CUB-200-2010数据集中鸟头和躯干语义部分的分类精度示意图;
图21为本申请方法与其他方法对应的分类精确度比较示意图;
图22为在StandfordCars-96数据集上标注掩膜的示意图;
图23为本申请的深度系统和其他的方法在StandfordCars-96数据集上的分类精确度示意图;
图24为一个实施例中图像分类装置的结构框图;
图25为另一个实施例中图像分类装置的结构框图;
图26为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请
本申请提供的图像分类方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。终端可获取用户输入的待分类图像,将待分类图像发送至服务器104进行分类或直接在终端102进行分类。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种图像分类方法,以该方法应用于图1中的终端或服务器为例进行说明,包括以下步骤:
步骤S210,获取待分类图像,将所述待分类图像输入已训练的图像分类模型,所述已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,所述校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数。
其中,待分类图像是指需要指定细粒度类别的图像。待分类图像可以实时采集的图像,也可以是从存储的文件中获取的图像。图像分类模型用于对输入图像进行细粒度类别的分类,输出对应的分类结果。可对待分类图像进行前处理,如将待分类图像的分辨率进行统一。
定位分割子网络用于得到定位区域和分割区域,其中定位分割子网络可以由相互关联的定位子网络和分割子网络组成,也可以由相互独立的定位子网络和分割子网络组成。相互关联是指两个子网络的训练过程统一,是关联训练得到的,如存在共享参数等。定位子网络输出目标物体的基本位置,可通过定位框进行展示。分割子网络通过二类回归的预成型为目标物体和背景产生了像素级的分割。
校准子网络被公式化为阀门联动函数,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数,形成一个基于定位结果和分割结果的校准模块,通过阀门联动函数调整定位分割子网络和分类子网络的参数对图像分类模型进行训练,阀门联动函数使得定位分割子网络、校准子网络、分类子网络在训练阶段作为一个整体,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,使得校准和其他的基于深度卷积神经网络成分的子网络结合起来。
具体地,可以将图像分类模型的目标函数定义为与阀门联动函数、分类子网络参数相关联,而阀门联动函数又是关于定位分割子网络输出的定位区域和分割区域的函数,定位分割子网络输出的定位区域和分割区域是与定位分割子网络参数相关的,从而在训练过程中,通过阀门联动函数调整定位分割子网络和分类子网络的参数。在满足上述约束条件的基础上,阀门联动函数的具体定义可根据需要自定义。在图像分类模型添加了阀门联动函数作为定位分割子网络和分类模块的桥梁。在训练的时候,这个函数适应性的控制从分类模块到定位分割子网络的更新信号传播。
步骤S220,待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像。
具体地,待分类图像经过定位分割子网络中的定位子网络输出定位区域,可以是包含(x1,y1)、(x2,y2)的边界框,其中x1、x2为边界框的横向起始坐标和横向终止坐标,y1、y2为边界框的纵向起始坐标和纵向终止坐标。将包含定位区域的图像进一步通过定位分割子网络中的分割子网络产生了像素级的物体区域,得到已分割图像。
步骤S230,已分割图像经过校准子网络,校准子网络对目标对象进行校准得到已校准图像。
具体地,校准子网络从定位和分割网络得到物体部位的定位结果L和分割结果O,然后执行模板对齐,并将坐标对齐的图像提供给分类子网络。模板对齐是校准的过程,模板的个数可以为一个或多个,可通过多模板选择来掌握姿势变化。
校准时需要求解参数,包括目标模板中心点、目标旋转角度、目标缩放比和目标模板。求解参数时,先获取相似度函数、距离函数和前景置信度函数,再将对应的已知量代入上述函数,通过调整模板中心点、旋转角度、缩放比和模板,使得上述函数组成的目标函数满足收敛条件,从而得到目标模板中心点、目标旋转角度、目标缩放比和目标模板。从而通过目标模板对已分割图像以目标模板中心点为中心,进行目标旋转角度的旋转和目标缩放比的图像缩放得到已校准图像。
步骤S240,已校准图像经过分类子网络进行细粒度分类,得到待分类图像对应的类别。
具体地,已校准图像经过分类子网络,输出对应的类别标签,从而得到对应的待分类图像对应的细粒度类别。
本实施例中,通过获取待分类图像,将待分类图像输入已训练的图像分类模型,已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,所述校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数,待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像;已分割图像经过所述校准子网络,校准子网络对目标对象进行校准得到已校准图像;已校准图像经过所述分类子网络进行细粒度分类,得到待分类图像对应的类别,可提高图像分类的精准性。
在一个实施例中,定位分割子网络包括定位子网络和分割子网络,所述定位子网络与分割子网络共享卷积神经网络的参数。
具体地,定位子网络和分割子网络共享卷积神经网络的参数,将定位和分割联合训练,共享卷积神经网络的参数能生成更加精准的模型,比对定位子网络和分割子网络分别独立得到的模型的准确度高。
其中,定位子网络包括了一组参数Wl和一个为回归边界框(x1,y1)(x2,y2)输出的回归值L,给定一个输入图像I∈Rh×w×3,边界框回归量L=(x1,y1,x2,y2),我们将定位子网表述为:L=fl(Wl;I),其中fl表示定位子网络函数,Wl表示定位子网络参数,L=(x1,y1,x2,y2)表示定位框。
使用分割子网络生成一个反向映射,O(ci)=P(oi=1|ci,Ws),其中0代表背景,1代表前景,O表示像素属于前景的概率值。大的概率意味着像素点位于一个物体区域的内部,反向映射减少了校准操作被应用在背景上的可能性。
将定位子网络和分割子网络共享的一组参数表示为Wls。在一个实施例中,我们制订了定位和分割的目标函数为:
其中Els为定位分割子网络的目标函数,fl表示定位子网络函数,I表示输入图像,Lgt表示标准定位标注框,ci表示像素点,表示像素点ci的真实取值,oi表示像素点ci的取值,P表示概率函数,N表示输入图像的像素点的总个数。通过定位子网络和分割子网络共享参数的定位分割子网络的目标函数,可以平衡定位和分割间的损失值。我们将定位子网络和分割子网络的输出部分建立在一组基础卷积层上面。这组基础卷积层生成的特征被定位子网络和分割子网络共享,用于生成定位坐标以及像素级别的分割结果。
在一个实施例中,如图3所示,图像分类模型的训练步骤包括:
步骤S310,获取训练图像集合,训练图像集合中的各个训练图像包括标准定位标注框,标准分割标注框和标准类别标签。
具体地,训练图像集合中包括了多个训练图像,每个训练图像包括标准定位标注框,标准分割标注框和标准类别标签,其中标准定位标注框用于标注真实的定位结果,标准分割标注框用于标注真实的像素级分割结果,标准类别标签用于标注真实的分类结果。
步骤S320,从训练图像集合获取各个类别对应的模板。
具体地,训练图像集合中的多个训练图像可聚类为不同的类别,不同的类别使用对应不同的模板,模板用于对训练图像进行校准。可根据不同类别对应的各个训练图像间的相似性从各个训练图像中为不同的类别选取对应的模板。其中选取模板的方法可根据需要自定义。各个类别对应的模板的个数不限定,可以为一个或多个。
步骤S330,将训练图像集合中的各个训练图像输入定位分割子网络,得到包含当前定位区域和当前分割区域的已分割训练图像。
具体地,训练时,可通过随机的参数对图像分类模型进行初始化,将训练图像集合中的各个训练图像输入定位分割子网络,得到与当前参数对应的包含当前定位区域和当前分割区域的已分割训练图像。
步骤S340,根据模板对已分割训练图像进行校准得到已校准训练图像。
具体地,校准的过程需要先调整模板中心点,再根据调整模板中心点后的模板对待校准图像调整旋转角度、缩放比,当存在多个模板时,还需要选取目标模板。可通过自定义的校准目标函数确定目标模板中心点、目标旋转角度、目标缩放比和目标模板。
步骤S350,将已校准训练图像输入分类子网络得到对应的当前输出类别。
具体地,分类子网络是图像分类模型的最后一个模块。已校准训练图像作为输入,表示为I*∈Rh×w×3。分类卷积神经网络被表达为:y=fc(Wc;I*),其中Wc为分类子网络的参数,I*是经过姿态校准的部分,是已校准训练图像。fc是分类子网络的函数名,输出是一个类别标签y。在整个训练过程中,标准类别标签是期望标签,预测的种类标签y应该与标准类别标签一致。将已校准训练图像输入分类子网络得到当前参数对应的当前输出预测类别。
步骤S360,获取图像分类模型对应的总目标函数,总目标函数包括定位分割子网络目标函数和分类子网络目标函数,其中定位分割子网络目标函数是关于所述阀门联动函数的函数,根据当前输出类别、标准定位标注框,标准分割标注框和标准类别标签计算得到总目标函数的取值。
具体地,总目标函数是关于定位分割子网络目标函数和分类子网络目标函数的函数,且校准子网络被公式化成阀门联动函数,在前向过程,阀门联动函数用于得到校准后的图像,而在后向过程,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数,阀门联动函数被用于调整定位分割子网络的参数。使得定位分割子网络目标函数和分类子网络在训练阶段作为一个整体进进行训练。阀门联动函数是关于校准能量函数和已校准图像的函数,校准能量函数是关于校准目标函数和前向传播能量的函数,阀门联动函数保留了校准能量的函数,为此部分的变量位置和对象性映射可以被视为输入,它使得更新分类信号能够通过链式规则传递到定位分割子网络。
步骤S370,根据阀门联动函数调整定位分割子网络参数和分类子网络参数,直到总目标函数的取值满足收敛条件,得到已训练的图像分类模型。
具体地,定位分割子网络参数和分类子网络参数是需要被确定的参数,定位分割子网络和分类子网络在训练过程中被1的两个因子所平衡,通过最小化总目标函数来更新定位分割子网络和分类子网络。
本实施例中,当训练图像分类模型的时候,阀门联动功能能够适应性的折衷分类和校准的误差,同时,也能更新定位分割子网络和分类子网络的参数,确定更准确的模型参数。
在一个实施例中,如图4所示,步骤S320包括:
步骤S321,计算训练图像集合中任意两个训练图像之间的相似性,组成相似性矩阵。
具体地,通过相似性算法来计算任意两个训练图像之间的相似性,具体的计算方法可自定义,如训练图像集合中包括N个训练图像,则计算任意两个训练图像之间相似性,组成相似性矩阵RN×N。在一个实施例中,在计算图像Ri,Rj的相似性时,为了减少光照变化带来的影响,正则化了每个图像的像素值,将像素的范围量化成256个数值,然后分别计算,比如,Pi,Pj,是两个属于Ri和Rj的灰阶值。灰阶值的正则化和分布值的计算遵循归一化的颜色直方图的构造。Ri和Rj有相同的尺寸,每两个像素点在Ri和Rj中有着相同的位置,这形成了一个灰阶值的2D元组。通过使用这个元组,我们计算了Ri和Rj的灰阶值的联合分布,表示为Pij。根据这个Pi,Pj,Pij,定义相似函数:
其中S表示相似函数,用于衡量两张图像的姿态是否相似,Ri,Rj表示两个尺寸相同的图像,Pi,Pj分别表示Ri和Rj的灰阶值分布,类似频率直方图,Pij表示Ri和Rj的灰阶值的联合分布,m,n表示像素坐标值,M和N分别表示图像的长和宽。
步骤S322,将相似性矩阵经过谱聚类算法,将各个训练图像分成对应的多个集群。
具体地,谱聚类是一种聚类算法,对数据分布的适应性更强,聚类效果也很优秀,同时聚类的计算量也小很多。相似性矩阵经过谱聚类算法,将各个训练图像分成对应的多个集群。
步骤S323,获取各个集群中心,根据各个集群中各个训练图像与对应的集群中心的相似度,确定各个集群对应的目标训练图像得到所述各个类别对应的模板,所述模板用于对图像进行校准。
具体地,每个集群都有一个中心,我们通过相似函数来计算每个集群中的训练图像与集群中心的相似度,从而得出和集群中心最为相似的训练图像,这个训练图像就是这个集群对应的模板,一个集群对应一个类别,从而得到各个类别对应的模板。一个类别对应的模板可以为一个或多个。如图5所示,为鸟头和鸟躯干的训练图像示意图,其中被选中为模板的图像显示在图5(a)和图5(b)的第一列。
本实施例中,通过计算图像间的相似性和聚类算法自适应的计算得到各个类别对应的模板,动态选取模板,提高了模板选取的准确性。
在一个实施例中,如图6所示,步骤S340包括:
步骤S341,获取校准目标函数,所述校准目标函数包括相似度函数、距离函数和前景置信度函数。
具体地,校准目标函数用于确定目标模板中心点、目标旋转角度、目标缩放比和目标模板,相似度函数用于描述待校准图像与模板之间的相似性,距离函数与模板中心点与定位分割子网络的输出的定位框的中心点之间的距离相关,前景置信度函数用于描述模板所覆盖的区域的前景置信度。通过明晓物体的前景形状,当我们通过模板来校准部分区域的时候,背景的影响能被降低,所以需要测量被模板覆盖的校准部分的前景置信度。如图7所示,显示了校准部分的前景置信度图和二元掩膜。
在一个实施例中,距离函数通过以下公式定义:其中D(c,L)表示距离函数,c表示模板中心点,L是定位分割子网络的输出的定位框,cr(L)表示定位分割子网络的输出的定位框的中心点。其中σ按经验可自定义,在一个实施例中设置为15。表示边界框L的中心。
相似性的测量根据像素值的分布而定义,但是缺乏关键性的物体的形状信息,通过前景置信度函数描述物体的形状信息。对于模板t,给出了二元掩膜tm,使tm(ci)∈{0,1},这意味着像素点ci属于背景或是前景,0或1分别表示背景和前景。对于ci,分别用Of(ci)和Ob(ci)来作为前景或背景的分值,通过下面来计算:
Of(ci)=-log(1-O(ci)),Ob(ci)=-logO(ci)
其中Of表示像素的前景置信度,Ob表示像素的背景置信度,Of越高意味着像素点在前景的可能性越大,Ob越高意味着像素点在背景的可能性越大。假设tm总共有N个像素点,其中包括Nf个前景点,Nb个背景点,定义前景置信度如下:
其中F表示模板所覆盖的区域的前景置信度,tm表示模板的二元掩膜,Nf表示模板的二元掩膜所包含的前景像素数目,Nb表示模板的二元掩膜所包含的背景像素数目。促使前景可能性高的部分地区定位在模板的前景区域,同时抑制背景区域与前景区域重叠的模板,经过前景置信度的引导,前景区域能被更好的校准。
在一个实施例中,校准目标函数定义如下:
Ea(c,θ,α,t;I,L,O)=S(I(c,θ,α),t)+λdD(c,L)+λsF(O,tm)
其中a表示校准目标函数,c,θ,α,t分别表示需要校准的参数,分别为模板中心点、旋转角度、缩放比和当前模板。其中λd和λs是常量,可自定义,在一个实施例中,它们被分别设为0.001和0.003。
步骤S342,调整模板中心点、旋转角度、缩放比和当前模板,直到所述校准目标函数满足收敛条件,得到对应的目标模板中心点、目标旋转角度、目标缩放比和目标模板。
具体地,通过最大化校准目标函数来得到目标模板中心点、目标旋转角度、目标缩放比和目标模板。校准目标函数的输出越大代表越值得信赖的校准。
步骤S343,根据目标模板中心点、目标旋转角度、目标缩放比和目标模板对已分割训练图像进行校准,得到已校准训练图像。
具体地,得到目标模板中心点、目标旋转角度、目标缩放比和目标模板后,就可对已分割训练图像进行校准,得到已校准训练图像。如图8所示,为一个实施例中校准前和校准后的图像对比示意图。在图8(a)中,左边的列展示了鸟头部未经过校准的图像,右边的列展示了鸟头部通过模板校准后的图像。在图8(b)中,左边的列展示了鸟躯干未经过校准的图像,右边的列展示了鸟躯干通过模板校准后的图像。
本实施例中,动态计算得到目标模板中心点、目标旋转角度、目标缩放比和目标模板,计算算法综合考虑了相似度、中心距离和前景置信度,使得校准结果更值得信赖。
在一个实施例中,总目标函数通过以下公式定义:
J(Wc,Wls;I,Lgt,ygt,ogt)=Ec(Wc;V(L,O;I,Lf,Of),ygt)+Els(Wls;I,Lgt,ogt)
其中J为总目标函数,Ec表示定位分割子网络目标函数,Els表示分类子网络目标函数,Wc表示定位分割子网络需要确定的参数,Wls表示分类子网络需要确定的参数,V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,I是输入的原始图像,ygt是标准类别标签,Lgt是标准定位标注框,ogt是标准分割标注框。
在一个实施例中,阀门联动函数通过以下公式定义:
其中:V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,在前向过程中,L=Lf,O=Of,在反向过程中L和O是变量,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,c*是校准时采用的模板中心点,θ*是校准时采用的旋转角度,α*是校准时采用的目标缩放比,I表示对所述原始图像校准后的图像,Ea为校准能量函数,所述校准能量函数通过以下公式定义:
Ea(c,θ,α,t;I,L,O)=S(I(c,θ,α),t)+λdD(c,L)+λsF(O,tm),其中c表示模板中心点,θ表示旋转角度,α表示目标缩放比,t表示模板,S为相似度函数,其中λd和λs是自定义的常量,D为距离函数,F为前景置信度函数,tm为模板的二元掩膜。
具体地,原始图像进行姿态校准后的图像为I(c*,θ*,α*),在训练的正向传播阶段,即前向过程中L和O是常量,在训练的反向传播阶段,L和O是变量。其中{c*,θ*,α*,t*}=argmaxc,θ,α,tEa(c,θ,α,t;I,Lf,Of)表示c*,θ*,α*,t*满足使校准能量函数最大。其中阀门联动函数折衷了三个关键的条件:1)校准能量函数,2)关于Lf和Of的前向传播能量,3)姿态校准后的图像。
在前向传播阶段,校准子网络接收的输入为Lf和Of,前向过程中L和O是常量,校准能量函数以及前向传播能量处于一个比率形式,在前向传播阶段此比率为1,使得阀门联动函数的输出为V(Lf,Of;L,Lf,Of)=I(c*,θ*,α*),即阀门联动函数的输出为已校准图像。
其中,阀门联动函数保留了校准能量函数,使得更新分类信号能够通过链式规则传递到定位分割子网络。在反向传播阶段,校准子网络V(Lf,Of;L,Lf,Of)的输出成为了L和O的一个函数。因此,图像分类模型的总目标函数被制定为:
J(Wc,Wls;I,Lgt,ygt,ogt)=Ec(Wc;V(L,O;I,Lf,Of),ygt)+Els(Wls;I,Lgt,ogt)
通过最小化这个客观函数来更新定位分割子网络和分类子网络,为了更新分类子网络,我们计算了J关于Wc的梯度。为了更新定位分割子网络,关于Wls的梯度这样计算:
其中Els和Ec分别表示定位分割子网络和分类子网的训练参数,表示在定位分割内的反向传播阶段。
其中可以展开为:
其中在分类的反向传播阶段传递有效信息,梯度和被用来更新定位分割子网。根据链式法则,阀门联动函数V在反向传播阶段连接了分类和定位分割子网,具体通过和连接。由于连接可用,定位分割子网的更新对分类的反向传播信号敏感。
此外,分类子网络和定位分割子网络之间的信号交流能被阀门联动函数适应性的调整。在反向传播阶段,阀门联动函数V可以被写成:
其中,e=Ea(c*,θ*,α*,t*;I,L,O)是在前向传播中计算的校准能量。这个前向传播校准能量被应用,从而适应性的对定位分割部分进行更新。阀门联动函数从分类子网中提取信息,而且能适应性的对定位分割部分进行更新。
在前向传播阶段,校准能量被当作一个在BP阶段的常量。根据这个能量,连接部分可表示为:
被扩展为:其中c=(cx,cy),同时:
其中,可被视为一个控制分类影响的阀,一个大的校准分值e相当于前向传播阶段中更好的校准。在反向传播阶段,被用来给分类子网络中的更新信号重设权重。阀门联动函数相当于在分类和校准误差之间进行折衷。
在这种情况下,一个大的e意味着在反向传播阶段较好的校准,来自分类子网络的信息被减少为相反的,如果e很小,则校准准确率降低。因此,为了定位分割子网络的更新可设置合适的引进更多的分类信息。可以将理解成一个在反向传播阶段的动态学习率,自适应的匹配性能。
其中,的连接部分可以写成如下形式:
局部偏导数可以这样表示:
除了适应性的因子分割的更新也被模板tm所引导,正如公式(1)指定的,在公式(1)的定义下,在tm(ci)=1下的模板允许来监督分割操作。另一方面,这个信号在tm(ci)=0的时候变成了这意味着通过模板的前景和背景区域可以灵活的转变这个控制信号。由于与部分区域匹配的模板掩码可用,网络不仅受到减小全局分割误差的对象区域的监督,而且受到纠正对象边界的模板形状信息的监督。如图10所示,从图中可看出包含额外形状信息确实提升了分割结果的准确性。由于用了这种自调整机制在阀门联动函数连接分类和校准,定位分割子网络在反向传播阶段也能够被加强。
如图9,为一个实施例中,深度系统图像分类系统的处理过程示意图,该系统由定位分割、校准和分类这三个子网络组成。在阀门联动函数的调整下,在前向传播阶段,校准子网络为分类子网络输出了姿势校准的部位图像,同时,分类和校准的误差也能在反向传播阶段被传回到定位分割子网络。
进一步的,在3个数据集上(①Caltech-UCSD Bird-200-2011)②Caltech-UCSDBird-200-2010③Standford Cars-196)评估了本算法。由于①号数据集更多的被使用于分析实验。因此,主要的评估实施在①号数据集上,然后使用其他两个数据集来和近来的一些技术做比较。具体实验过程如下:
实施过程中,鸟头和躯干被视作语义部分。我们分别给它们训练了两个深度系统得到图像分类模型。所有的卷积神经网络模型是基于VGG-16网络来调整的。在定位分割子网络中,所有的输入图像被初始化大小为224×224。删除了原始的全连接层。其中输出了一个结构,这个结构为定位边界框和为前景和背景标签的像素概率映射。训练模型时,先初始化定位分割子网络,其中分类子网络的输入为224×224的图片。第一个全连接层被扩展为4096维的特征。然后,通过卷积神经网络所提取出来的特征训练一个支持向量机分类器。
对于校准操作,在模板选择中,所有的在①号数据集中的为关于头和躯干的5994个部分标注都被使用。这5994个部分被裁剪为224×224。使用谱聚类算法将这些数据分成了30个集群。从每个集群中,选择贴近集群中心的集群区域以及其镜像版本作为两个模板。这个操作最终形成了60个模板。旋转角度θ是一个范围为[-60,60]的整数,变化间隔为10°。所有的输入图像和模板都被重设为224×224大小,图像中的待校准区域比任何一个模板都小,为了匹配待校准区域和模板的大小,需要按比例放大输入图像。为头设置了放大比例集合{1.5,2.7,4.0,7.7,15.0},为躯干设置了放大比例集合{1.2,1.4,2.0,2.5,3.5}。
依据模板的搜寻空间,旋转角度以及放缩比例在验证集的表现而发生调整,这个验证集包含了1000张从训练集中随意挑选的图像。通过扩展查找空间,发现了性能提升。因此,根据所有的实验表现,保持使用查找空间。姿势相似度函数的结果可以被预先计算而存放起来,在GPU的加速下,遍历整个姿势位置、模板、放缩比例以及旋转角度来完成计算姿势相似度,每张图片只需要5s的时间。因此,姿势相似度能够在前向传播中很快的查出来,使得每张图片的训练时间为15ms,测试时间为8ms。
在Caltech-UCSD Bird-200-2011数据集上评估了我们的方法。这个数据集包含11788张鸟的图像,分成了200个下属类别。每张图像包含标准定位分割标注框和标准类别标签。在整个训练和测试过程中,我们利用了数据集的边界框来简化分类。训练测试四角定位,定义两种语义模板,分为头和躯干。在鸟的头部和躯干的地方使用相应的矩形覆盖了标注部分。
1)定位分割子网络分析
为了获取物体和部分的联系,定位和分割共享了卷积的参数。为了调查参数共享的效率,在卷积神经网络中分别设置不共享卷积神经网络参数和参数共享,并进行比较,部分定位结果的比较结果如图10所示。在图10中,计算了正确定位部分百分比,这是根据排名靠前的部分定位来计算的,并且将与真实表现的重叠部分≥0.5的视为正确的。不共享卷积神经网络参数时,在头和躯干上定位结果正确率分别为93.2和94.3,通过参数共享的分割,在头和躯干上有更好的定位结果,正确率分别为95.0和97.0。
在图11中展示了在卷积神经网络中分别设置不共享卷积神经网络参数和参数共享,并进行比较分割精度,其中,“bg”和“fg”缩写词分别表示背景和前景,使用了检测评价函数分数来评估分割表现。计算一个平均的检测评价函数分数来评估总体的分割精度。通过比较结果看出,参数共享提升了在前景和背景区域上的分割精度,如图12所示,展示了输入图像和各种情况下的分割结果,其中,图12(a)表示输入图像,图12(b)表示分割真实结果,图12(c)表示没有进行参数共享的分割结果,图12(d)表示不含阀门联动函数的分割结果,图12(e)表示基于深度系统框架的分割结果,可见图12(c)和图12(e)的视觉差异很明显,包含阀门联动函数的分割结果精准很多。
为了更进一步的理解阀门联动函数对定位分割的性能提升,将这个子网从联合的深度系统模块移除,然后再与完整的深度系统相比较。
在图8中展示了定位精度上的比较,就重叠部分大于0.5,0.6,0.7的正确定位部分百分比测试了表现。在全部的配置上,定位分支比深度系统模型的表现差一点。比较而言,去除阀门联动函数的系统,其中分割子网也会遭受性能退化,如图13所示,展示了在CUB-200-2011数据集上有和没有使用阀门联动功能的物体分割精度,图12(d)展示了分割结果。造成性能降低的原因是,在是缺少阀门联动函数时,定位分割子网络没有从校准和分类操作中得到回馈,而存在阀门联动函数的深度系统在迭代中更新了校准和分类,使得结果更准确。
为了评估部分定位的性能,在图14中展示了本申请方法与其他方法在头和躯干的定位准确率比较结果,我们使用VGG-6的结构。在使用相同的实验设置下,图14中显示了比较结果。
对于头和躯干部位,相比早前的最好的结果93.4和96.2,本申请算法结果是95.0和97.0。图15展示了一些例子,是包含头和躯干的预测边界框的。与先前的定位-校准-分割模型相比,我们的深度系统模型在整体部位的定位操作上提升了性能。特别是由于小区域而改变的头部的定位被显著的从90.0提高到了95.0。性能差距表明本申请的定位分割子网络捕获物体部分关系的重要性,这对于边界框的回归是有益的。
本申请的深度模型包括分割,为物体的分割来训练一个基准的全卷积神经网络。除了基于卷积神经网络的解决办法,交互式的物体分割工具GrabCut和协同分割方法可以被使用。在图16中给出了这些方法的分割精度,表示在CUB-200-2011数据集上就物体分割本申请方法与其他分割方法的比较。
正如图16中展示的,与本申请的深度图像分类模型的分数84.5相比,基准全卷积神经网络产生的平均检测评价函数分数仅仅为78.8。这个性能退化源于基准的全卷积神经网络没有从参数共享中得到提升。对于不含卷积神经网络的方法等,GrabCut和协同分割方法,由于它们依赖于丢失语义对象信息的低级图像表示,因而表现了更低的精度。图17体现了这一点,图17展示了不同的分割结果示意图,其中图17(a)表示输入图像,图17(b)表示分割真实结果,图17(c)表示GrabCut的结果,图17(d)表示协同分割的结果,图17(e)表示基准全卷积神经网络的分割结果,图17(f)表示本申请深度系统的分割分支的分割结果。
2)子网络组合分析
上面的实验结果表明伴随三个子网络的深度系统框架在部分定位和物体分割中的表现很好。我们也在下面5个案例中评估了在细粒度分类的表现和删除一个或者两个子网络的实验。
第一、在删除了定位分割子网络的情况下验证图像上的分割精度,验证结果显示在图18的第一行,没有这个模块,全图的分类精度只有76.3,其中图18展示了CUB-200-2011数据集中鸟头和躯干语义部分的分类精度,分别用定位子网络和校准子网络来评估实验表现。
第二、在深度系统框架中阻断了校准子网络来阻断前向传播和反向传播。定位分割子网络被用来为分类提出部分假设,剩下的定位分割和分类模块在反向传播阶段中被独立的训练。图18中的第二行的验证结果表明在校准过程中缺少信息传播是不可取的。
第三、在校准子网中使用阀门联动函数来为前向传播阶段的分类来输出姿势校准部分,但是阀门联动函数在反向传播阶段被禁用,以防止分类和校准误差从反向传播到定位和分割。在这种方法中,在鸟的头部只达到了78.2的精确度。因此,在前向传播和反向传播阶段的校准子网络是很有必要的。
第四、在前向和反向的过程中使阀门联动函数生效。但是,分割分支被移除后,框架就降级成了我们早先的定位校准分类模型,由定位、校准、分类组成。没有分割分支,只有定位结果,是不能够像图14中的第四行表现的那样充分的。不出意料,这个模型结构导致了在头部和躯干部位分类的性能退化。
第五、使用了完整的深度系统架构,通过图18显示,在头部识别中产生了最好的分数79.5,证实了包含阀门联动函数的深度系统能很好的进行细粒度识别,实际上在分类,定位和分割上也起到了促进作用。
通过用躯干部分来替换整个图像,发现了一个关于分类精确度的巨大的表现差距(76.3VS52.2)。在图14中关于躯干定位的高正确定位部分百分比显示了差的定位造成了细微的表现差距。通过对比包括更多的有区别的头部的图像,总结出鸟的躯干在鸟类的种类鉴别中重要,在校准子网络通过对鸟的躯干的分类提升分类精确度。在添加了校准和阀门联动函数时,分类结果获得了11.1的提升。说明提取了更好的躯干部位的特征,躯干部分的值得信赖的特征很重要,它能将头部和整张图像结合在一起,这有利于最终的分类效果。
3)全局比较
在图19中展示了在CUB-200-2011数据集上本申请最后的分类精确度与其他的前沿的方法的比较结果,所有的比较方法使用的卷积神经网络模型总结在表8的第一列,在训练和测试阶段就给定了整个鸟的标准边界框,所有实现都是基于这样一个设置的。在系统中,将每一个图像投放到训练网络中来提取头部和躯干部位的特征。
表8显示使用头部和躯干部位的特征得到了79.5和63.3的精度,连接了两个特征向量来组成一个联合表现,产生了83.7的精度。最后,基于一个使用预训练模型的全图,微调了深度卷积神经网络模型。第六层为一个SVM分类器而提取特征,获得了76.3的精度。在连接了头部,躯干,和全图的特征之后,精度提升到了88.5。作为比较,[35],[62]的方法也考虑了头部和躯干,同时组合了全图的卷积神经网络特征。本申请方法精度提升主要是由于使用了阀门联动函数的深度系统框架中进行了值得信赖的定位、分割和校准操作。
4)应用Caltech-UCSDBird-200-2010数据集
Caltech-UCSDBird-200-2010数据集提供了200个鸟的种类的共6033张图片。数据集没有提供部分标注,只包含了很少的训练集和测试集。因此,它能验证在Caltech-UCSDBird-200-2010数据集上训练的深度系统框架在这个数据集上的表现。
在图20中展示了不同方法在CUB-200-2010数据集中鸟头和躯干语义部分的分类精度。通过使用Caltech-UCSDBird-200-2010数据集的训练集而获得定位分割子网和校准子网。当得到了姿势校准的部分图像之后,在这个数据集上更新分类子网络。
本申请方法对应的全图分类精确度是63.7,通过定位-分割子网,鸟头部的分类精确度为67.3。在这个方法中,获得了3.6的表现提升。在结合了校准操作之后,这个提升幅度变成了6.5,最好的躯干识别精度49.1是通过添加定位、分割、校准操作而实现的。
在最后的实验中,就分类精确度与其他的方法做了比较,结果显示在图21中。在[62]的方法中,结果为66.1,在[35]的定位-校准-分类模型中,结果为66.5。本申请方法的鸟头部表现出了70.2的精确度,头和躯干的结合表现出了74.9的精确度。
与早前的实验相似,将全图考虑其中,在联合了全部的特征后,本申请的分类结果精准度提高为77.5。本申请分类方法的表现超过了以前的最佳结果,达到了显著的水平。如果使用部分标注来调整局部分割和对齐子网络,则可以在这个数据集中获得更好的性能。
5)应用4StandfordCars-96数据集
除鸟的种类分类之外,本申请的深度系统图像分类模型可以应用于其他对象类型的细粒度识别。在这个部分使用StandfordCars-96数据集来作为评估基准。这个汽车的数据集包含从196个种类的16185个图像,也是为细粒度识别任务而准备的,共有8144个训练图像和8041个测试图像。不同于Caltech-UCSD Bird-200-2011数据集,StandfordCars-96数据集没有提供对象任务。为了有利于此数据集上的深度系统图像分类模型,我们额外提供了16185张图像的所有车的二元掩膜。图22展现了掩膜标注的示例,在StandfordCars-96数据集上标注掩膜的例子。
在图23中,比较了本申请的深度系统和其他的方法在StandfordCars-96数据集上的分类精确度。当对车的种类应用本申请的深度系统图像分类模型时,在没有任何细分部分的情况下对于车执行了定位、分割和校准的操作。相似的,比较的方法也将整车作为输入。通过使用VGG架构,早先的最好的结果是[29]中提出方法对应的92.6。通过使用相同的VGG结构来构造我们的深度系统图像分类模型,获得了比别的方法更好的表现。在StandfordCars-96数据集上的96.3的结果阐释了本申请的深度系统提供给车更精确的分类。
应该理解的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图24所示,提供了一种图像分类装置,包括:
输入模块510,用于获取待分类图像,将待分类图像输入已训练的图像分类模型,已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数。
分割模块520,用于待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像。
校准模块530,用于已分割图像经过校准子网络,校准子网络对目标对象进行校准得到已校准图像。
类别确定模块540,用于已校准图像经过分类子网络进行细粒度分类,得到待分类图像对应的类别。
在一个实施例中,定位分割子网络包括定位子网络和分割子网络,所述定位子网络与分割子网络共享卷积神经网络的参数。
在一个实施例中,如图25所示,装置还包括:
训练模块550,用于获取训练图像集合,训练图像集合中的各个训练图像包括标准定位标注框,标准分割标注框和标准类别标签;从训练图像集合获取各个类别对应的模板;将训练图像集合中的各个训练图像输入定位分割子网络,得到包含当前定位区域和当前分割区域的已分割训练图像;根据模板对已分割训练图像进行校准得到已校准训练图像;将已校准训练图像输入分类子网络得到对应的当前输出类别;获取图像分类模型对应的总目标函数,总目标函数包括定位分割子网络目标函数和分类子网络目标函数,其中定位分割子网络目标函数是关于阀门联动函数的函数,根据当前输出类别、标准定位标注框,标准分割标注框和标准类别标签计算得到总目标函数的取值;根据阀门联动函数调整定位分割子网络参数和分类子网络参数,直到总目标函数的取值满足收敛条件;得到已训练的图像分类模型。
在一个实施例中,训练模块550还用于计算所述训练图像集合中任意两个训练图像之间的相似性,组成相似性矩阵;将相似性矩阵经过谱聚类算法,将各个训练图像分成对应的多个集群;获取各个集群中心,根据各个集群中各个训练图像与对应的集群中心的相似度,确定各个集群对应的目标训练图像得到各个类别对应的模板,模板用于对图像进行校准。
在一个实施例中,训练模块550还用于获取校准目标函数,所述校准目标函数包括相似度函数、距离函数和前景置信度函数;调整模板中心点、旋转角度、缩放比和当前模板,直到所述校准目标函数满足收敛条件,得到对应的目标模板中心点、目标旋转角度、目标缩放比和目标模板;根据所述目标模板中心点、目标旋转角度、目标缩放比和目标模板对所述已分割训练图像进行校准,得到已校准训练图像。
在一个实施例中,总目标函数通过以下公式定义:
J(Wc,Wls;I,Lgt,ygt,ogt)=Ec(Wc;V(L,O;I,Lf,Of),ygt)+Els(Wls;I,Lgt,ogt)
其中J为总目标函数,Ec表示定位分割子网络目标函数,Els表示分类子网络目标函数,Wc表示定位分割子网络需要确定的参数,Wls表示分类子网络需要确定的参数,V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,I是输入的原始图像,ygt是标准类别标签,Lgt是标准定位标注框,ogt是标准分割标注框。
在一个实施例中,阀门联动函数通过以下公式定义:
其中:V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,在前向过程中,L=Lf,O=Of,在反向过程中L和O是变量,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,c*是校准时采用的模板中心点,θ*是校准时采用的旋转角度,α*是校准时采用的目标缩放比,I表示对所述原始图像校准后的图像,Ea为校准能量函数,所述校准能量函数通过以下公式定义:
Ea(c,θ,α,t;I,L,O)=S(I(c,θ,α),t)+λdD(c,L)+λsF(O,tm),其中c表示模板中心点,θ表示旋转角度,α表示目标缩放比,t表示模板,S为相似度函数,其中λd和λs是自定义的常量,D为距离函数,F为前景置信度函数,tm为模板的二元掩膜。
上述图像分类装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图26所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现上述实施例所述的图像分类方法。
本领域技术人员可以理解,图26中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现以下步骤:获取待分类图像,将待分类图像输入已训练的图像分类模型,已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数;待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像;已分割图像经过校准子网络,校准子网络对目标对象进行校准得到已校准图像;已校准图像经过分类子网络进行细粒度分类,得到待分类图像对应的类别。
在一个实施例中,定位分割子网络包括定位子网络和分割子网络,定位子网络与分割子网络共享卷积神经网络的参数。
在一个实施例中,图像分类模型的训练包括:获取训练图像集合,训练图像集合中的各个训练图像包括标准定位标注框,标准分割标注框和标准类别标签;从训练图像集合获取各个类别对应的模板;将训练图像集合中的各个训练图像输入定位分割子网络,得到包含当前定位区域和当前分割区域的已分割训练图像;根据模板对已分割训练图像进行校准得到已校准训练图像;将已校准训练图像输入分类子网络得到对应的当前输出类别;获取图像分类模型对应的总目标函数,总目标函数包括定位分割子网络目标函数和分类子网络目标函数,其中定位分割子网络目标函数是关于阀门联动函数的函数,根据当前输出类别、标准定位标注框,标准分割标注框和标准类别标签计算得到总目标函数的取值;根据阀门联动函数调整定位分割子网络参数和分类子网络参数,直到总目标函数的取值满足收敛条件;得到已训练的图像分类模型。
在一个实施例中,从训练图像集合获取各个类别对应的模板,包括:计算训练图像集合中任意两个训练图像之间的相似性,组成相似性矩阵;将相似性矩阵经过谱聚类算法,将各个训练图像分成对应的多个集群,获取各个集群中心,根据各个集群中各个训练图像与对应的集群中心的相似度,确定各个集群对应的目标训练图像得到各个类别对应的模板,模板用于对图像进行校准。
在一个实施例中,根据模板对已分割训练图像进行校准得到已校准训练图像,包括:获取校准目标函数,校准目标函数包括相似度函数、距离函数和前景置信度函数;调整模板中心点、旋转角度、缩放比和当前模板,直到校准目标函数满足收敛条件,得到对应的目标模板中心点、目标旋转角度、目标缩放比和目标模板;根据目标模板中心点、目标旋转角度、目标缩放比和目标模板对所述已分割训练图像进行校准,得到已校准训练图像。
在一个实施例中,总目标函数通过以下公式定义:
J(Wc,Wls;I,Lgt,ygt,ogt)=Ec(Wc;V(L,O;I,Lf,Of),ygt)+Els(Wls;I,Lgt,ogt)
其中J为总目标函数,Ec表示定位分割子网络目标函数,Els表示分类子网络目标函数,Wc表示定位分割子网络需要确定的参数,Wls表示分类子网络需要确定的参数,V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,I是输入的原始图像,ygt是标准类别标签,Lgt是标准定位标注框,ogt是标准分割标注框。
在一个实施例中,阀门联动函数通过以下公式定义:
其中:V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,在前向过程中,L=Lf,O=Of,在反向过程中L和O是变量,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,c*是校准时采用的模板中心点,θ*是校准时采用的旋转角度,α*是校准时采用的目标缩放比,I表示对所述原始图像校准后的图像,Ea为校准能量函数,所述校准能量函数通过以下公式定义:
Ea(c,θ,α,t;I,L,O)=S(I(c,θ,α),t)+λdD(c,L)+λsF(O,tm),其中c表示模板中心点,θ表示旋转角度,α表示目标缩放比,t表示模板,S为相似度函数,其中λd和λs是自定义的常量,D为距离函数,F为前景置信度函数,tm为模板的二元掩膜。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取待分类图像,将待分类图像输入已训练的图像分类模型,已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数;待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像;已分割图像经过校准子网络,校准子网络对目标对象进行校准得到已校准图像;已校准图像经过分类子网络进行细粒度分类,得到待分类图像对应的类别。
在一个实施例中,定位分割子网络包括定位子网络和分割子网络,定位子网络与分割子网络共享卷积神经网络的参数。
在一个实施例中,图像分类模型的训练包括:获取训练图像集合,训练图像集合中的各个训练图像包括标准定位标注框,标准分割标注框和标准类别标签;从训练图像集合获取各个类别对应的模板;将训练图像集合中的各个训练图像输入定位分割子网络,得到包含当前定位区域和当前分割区域的已分割训练图像;根据模板对已分割训练图像进行校准得到已校准训练图像;将已校准训练图像输入分类子网络得到对应的当前输出类别;获取图像分类模型对应的总目标函数,总目标函数包括定位分割子网络目标函数和分类子网络目标函数,其中定位分割子网络目标函数是关于阀门联动函数的函数,根据当前输出类别、标准定位标注框,标准分割标注框和标准类别标签计算得到总目标函数的取值;根据阀门联动函数调整定位分割子网络参数和分类子网络参数,直到总目标函数的取值满足收敛条件;得到已训练的图像分类模型。
在一个实施例中,从训练图像集合获取各个类别对应的模板,包括:计算训练图像集合中任意两个训练图像之间的相似性,组成相似性矩阵;将相似性矩阵经过谱聚类算法,将各个训练图像分成对应的多个集群,获取各个集群中心,根据各个集群中各个训练图像与对应的集群中心的相似度,确定各个集群对应的目标训练图像得到各个类别对应的模板,模板用于对图像进行校准。
在一个实施例中,根据模板对已分割训练图像进行校准得到已校准训练图像,包括:获取校准目标函数,校准目标函数包括相似度函数、距离函数和前景置信度函数;调整模板中心点、旋转角度、缩放比和当前模板,直到校准目标函数满足收敛条件,得到对应的目标模板中心点、目标旋转角度、目标缩放比和目标模板;根据目标模板中心点、目标旋转角度、目标缩放比和目标模板对所述已分割训练图像进行校准,得到已校准训练图像。
在一个实施例中,总目标函数通过以下公式定义:
J(Wc,Wls;I,Lgt,ygt,ogt)=Ec(Wc;V(L,O;I,Lf,Of),ygt)+Els(Wls;I,Lgt,ogt)
其中J为总目标函数,Ec表示定位分割子网络目标函数,Els表示分类子网络目标函数,Wc表示定位分割子网络需要确定的参数,Wls表示分类子网络需要确定的参数,V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,I是输入的原始图像,ygt是标准类别标签,Lgt是标准定位标注框,ogt是标准分割标注框。
在一个实施例中,阀门联动函数通过以下公式定义:
其中:V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,在前向过程中,L=Lf,O=Of,在反向过程中L和O是变量,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,c*是校准时采用的模板中心点,θ*是校准时采用的旋转角度,α*是校准时采用的目标缩放比,I表示对所述原始图像校准后的图像,Ea为校准能量函数,所述校准能量函数通过以下公式定义:
Ea(c,θ,α,t;I,L,O)=S(I(c,θ,α),t)+λdD(c,L)+λsF(O,tm),其中c表示模板中心点,θ表示旋转角度,α表示目标缩放比,t表示模板,S为相似度函数,其中λd和λs是自定义的常量,D为距离函数,F为前景置信度函数,tm为模板的二元掩膜。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种图像分类方法,所述方法包括:
获取待分类图像,将所述待分类图像输入已训练的图像分类模型,所述已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,所述校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数;
所述待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像;
所述已分割图像经过所述校准子网络,所述校准子网络对目标对象进行校准得到已校准图像;
所述已校准图像经过所述分类子网络进行细粒度分类,得到所述待分类图像对应的类别。
2.根据权利要求1所述的方法,其特征在于,所述定位分割子网络包括定位子网络和分割子网络,所述定位子网络与分割子网络共享卷积神经网络的参数。
3.根据权利要求1所述的方法,其特征在于,所述图像分类模型的训练步骤包括:
获取训练图像集合,所述训练图像集合中的各个训练图像包括标准定位标注框,标准分割标注框和标准类别标签;
从所述训练图像集合获取各个类别对应的模板;
将所述训练图像集合中的各个训练图像输入定位分割子网络,得到包含当前定位区域和当前分割区域的已分割训练图像;
根据所述模板对所述已分割训练图像进行校准得到已校准训练图像;
将所述已校准训练图像输入分类子网络得到对应的当前输出类别;
获取图像分类模型对应的总目标函数,所述总目标函数包括定位分割子网络目标函数和分类子网络目标函数,其中所述定位分割子网络目标函数是关于所述阀门联动函数的函数,根据所述当前输出类别、标准定位标注框,标准分割标注框和标准类别标签计算得到总目标函数的取值;
根据所述阀门联动函数调整定位分割子网络参数和分类子网络参数,直到所述总目标函数的取值满足收敛条件;
得到所述已训练的图像分类模型。
4.根据权利要求3所述的方法,其特征在于,所述从所述训练图像集合获取各个类别对应的模板,包括:
计算所述训练图像集合中任意两个训练图像之间的相似性,组成相似性矩阵;
将所述相似性矩阵经过谱聚类算法,将各个训练图像分成对应的多个集群;
获取各个集群中心,根据各个集群中各个训练图像与对应的集群中心的相似度,确定各个集群对应的目标训练图像得到所述各个类别对应的模板,所述模板用于对图像进行校准。
5.根据权利要求3所述的方法,其特征在于,所述根据所述模板对所述已分割训练图像进行校准得到已校准训练图像,包括:
获取校准目标函数,所述校准目标函数包括相似度函数、距离函数和前景置信度函数;
调整模板中心点、旋转角度、缩放比和当前模板,直到所述校准目标函数满足收敛条件,得到对应的目标模板中心点、目标旋转角度、目标缩放比和目标模板;
根据所述目标模板中心点、目标旋转角度、目标缩放比和目标模板对所述已分割训练图像进行校准,得到已校准训练图像。
6.根据权利要求3所述的方法,其特征在于,所述总目标函数通过以下公式定义:
J(Wc,Wls;I,Lgt,ygt,ogt)=Ec(Wc;V(L,o;I,Lf,Of),ygt)+Els(Wls;I,Lgt,ogt)
其中J为总目标函数,Ec表示定位分割子网络目标函数,Els表示分类子网络目标函数,Wc表示定位分割子网络需要确定的参数,Wls表示分类子网络需要确定的参数,V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,Of是定位分割子网络在前向过程输出的分割区域,I是输入的原始图像,ygt是标准类别标签,Lgt是标准定位标注框,ogt是标准分割标注框。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述阀门联动函数通过以下公式定义:
其中:V表示阀门联动函数,L是定位分割子网络输出的定位区域,O是定位分割子网络输出的分割区域,在前向过程中,L=Lf,O=Of,在反向过程中L和O是变量,I是输入的原始图像,Lf是定位分割子网络在前向过程输出的定位区域,of是定位分割子网络在前向过程输出的分割区域,c*是校准时采用的模板中心点,θ*是校准时采用的旋转角度,α*是校准时采用的目标缩放比,I表示对所述原始图像校准后的图像,Ea为校准能量函数,所述校准能量函数通过以下公式定义:
Ea(c,θ,α,t;I,L,O)=S(I(c,θ,α),t)+λdD(c,L)+λsF(O,tm),其中c表示模板中心点,θ表示旋转角度,α表示目标缩放比,t表示模板,S为相似度函数,其中λd和λs是自定义的常量,D为距离函数,F为前景置信度函数,tm为模板的二元掩膜。
8.一种图像分类装置,其特征在于,所述装置包括:
输入模块,用于获取待分类图像,将所述待分类图像输入已训练的图像分类模型,所述已训练的图像分类模型包括定位分割子网络、校准子网络和分类子网络,所述校准子网络被公式化为阀门联动函数,图像分类模型是通过阀门联动函数调整定位分割子网络和分类子网络的参数训练得到的,在训练的正向传播阶段,阀门联动函数的输出为已校准图像,在训练的反向传播阶段,阀门联动函数的输出为关于定位分割子网络输出的定位区域和分割区域的函数;
分割模块,用于所述待分类图像经过定位分割子网络进行目标对象定位和分割得到包含定位区域和分割区域的已分割图像;
校准模块,用于所述已分割图像经过所述校准子网络,所述校准子网络对目标对象进行校准得到已校准图像;
类别确定模块,用于所述已校准图像经过所述分类子网络进行细粒度分类,得到所述待分类图像对应的类别。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810462613.5A CN108764306B (zh) | 2018-05-15 | 2018-05-15 | 图像分类方法、装置、计算机设备和存储介质 |
US16/606,166 US11238311B2 (en) | 2018-05-15 | 2018-06-08 | Method for image classification, computer device, and storage medium |
PCT/CN2018/090370 WO2019218410A1 (zh) | 2018-05-15 | 2018-06-08 | 图像分类方法、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810462613.5A CN108764306B (zh) | 2018-05-15 | 2018-05-15 | 图像分类方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108764306A true CN108764306A (zh) | 2018-11-06 |
CN108764306B CN108764306B (zh) | 2022-04-22 |
Family
ID=64007736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810462613.5A Active CN108764306B (zh) | 2018-05-15 | 2018-05-15 | 图像分类方法、装置、计算机设备和存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11238311B2 (zh) |
CN (1) | CN108764306B (zh) |
WO (1) | WO2019218410A1 (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583489A (zh) * | 2018-11-22 | 2019-04-05 | 中国科学院自动化研究所 | 缺陷分类识别方法、装置、计算机设备和存储介质 |
CN109784140A (zh) * | 2018-11-19 | 2019-05-21 | 深圳市华尊科技股份有限公司 | 驾驶员属性识别方法及相关产品 |
CN111008655A (zh) * | 2019-11-28 | 2020-04-14 | 上海识装信息科技有限公司 | 辅助鉴定实物商品品牌真伪的方法、装置和电子设备 |
CN111160441A (zh) * | 2019-12-24 | 2020-05-15 | 上海联影智能医疗科技有限公司 | 分类方法、计算机设备和存储介质 |
CN111178364A (zh) * | 2019-12-31 | 2020-05-19 | 北京奇艺世纪科技有限公司 | 一种图像识别方法和装置 |
CN111291827A (zh) * | 2020-02-28 | 2020-06-16 | 北京市商汤科技开发有限公司 | 图像聚类方法、装置、设备及存储介质 |
CN111310794A (zh) * | 2020-01-19 | 2020-06-19 | 北京字节跳动网络技术有限公司 | 目标对象的分类方法、装置和电子设备 |
CN111582294A (zh) * | 2019-03-05 | 2020-08-25 | 慧泉智能科技(苏州)有限公司 | 一种构建用于表面缺陷检测的卷积神经网络模型的方法及其利用 |
CN111666905A (zh) * | 2020-06-10 | 2020-09-15 | 重庆紫光华山智安科技有限公司 | 模型训练方法、行人属性识别方法和相关装置 |
CN111738310A (zh) * | 2020-06-04 | 2020-10-02 | 科大讯飞股份有限公司 | 物料分类方法、装置、电子设备和存储介质 |
CN111754521A (zh) * | 2020-06-17 | 2020-10-09 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备及存储介质 |
CN112036404A (zh) * | 2020-08-31 | 2020-12-04 | 上海大学 | 一种海上船只目标检测方法及系统 |
CN112150605A (zh) * | 2020-08-17 | 2020-12-29 | 北京化工大学 | 用于mri局部sar估计的膝关节模型构建方法 |
CN112149729A (zh) * | 2020-09-22 | 2020-12-29 | 福州大学 | 一种基于通道剪裁和定位分类子网络的细粒度图像分类方法及系统 |
CN112381214A (zh) * | 2020-12-03 | 2021-02-19 | 北京声智科技有限公司 | 网络模型生成方法、装置及电子设备 |
CN112651410A (zh) * | 2019-09-25 | 2021-04-13 | 图灵深视(南京)科技有限公司 | 用于鉴别的模型的训练、鉴别方法、系统、设备及介质 |
CN113506332A (zh) * | 2021-09-09 | 2021-10-15 | 北京的卢深视科技有限公司 | 目标对象识别的方法、电子设备及存储介质 |
CN113628154A (zh) * | 2020-04-23 | 2021-11-09 | 上海联影智能医疗科技有限公司 | 图像分析方法、装置、计算机设备和存储介质 |
CN113761249A (zh) * | 2020-08-03 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 一种确定图片类型的方法和装置 |
CN113837062A (zh) * | 2021-09-22 | 2021-12-24 | 内蒙古工业大学 | 一种分类方法、装置、存储介质及电子设备 |
CN113936274A (zh) * | 2021-10-19 | 2022-01-14 | 平安国际智慧城市科技股份有限公司 | 食物营养成分分析方法、装置、电子设备及可读存储介质 |
CN116503429A (zh) * | 2023-06-28 | 2023-07-28 | 深圳市华海天贸科技有限公司 | 用于生物材料3d打印的模型图像分割方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670532B (zh) * | 2018-11-23 | 2022-12-09 | 腾讯医疗健康(深圳)有限公司 | 生物体器官组织图像的异常识别方法、装置及系统 |
KR20210020702A (ko) * | 2019-08-16 | 2021-02-24 | 엘지전자 주식회사 | 인공지능 서버 |
US11636639B2 (en) * | 2019-10-11 | 2023-04-25 | Robert G. Adamson, III | Mobile application for object recognition, style transfer and image synthesis, and related systems, methods, and apparatuses |
US11461989B2 (en) * | 2020-12-04 | 2022-10-04 | Himax Technologies Limited | Monitor method and monitor system thereof wherein mask is used to cover image for detecting object |
CN113535951B (zh) * | 2021-06-21 | 2023-02-17 | 深圳大学 | 用于进行信息分类的方法、装置、终端设备及存储介质 |
CN115311647B (zh) * | 2022-10-09 | 2023-01-24 | 松立控股集团股份有限公司 | 一种融合车标分类特征的车标检测识别方法 |
CN116403071B (zh) * | 2023-03-23 | 2024-03-26 | 河海大学 | 基于特征重构的少样本混凝土缺陷检测方法及装置 |
CN117932490B (zh) * | 2024-01-17 | 2024-07-16 | 一半科技(江苏)有限公司 | 配方分类方法、系统、电子设备及存储介质 |
CN117975169B (zh) * | 2024-03-27 | 2024-08-23 | 先临三维科技股份有限公司 | 对象分类方法、计算机程序产品、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8165354B1 (en) * | 2008-03-18 | 2012-04-24 | Google Inc. | Face recognition with discriminative face alignment |
CN103218827A (zh) * | 2013-03-21 | 2013-07-24 | 上海交通大学 | 基于形状传递联合分割和图匹配校正的轮廓跟踪方法 |
CN106529565A (zh) * | 2016-09-23 | 2017-03-22 | 北京市商汤科技开发有限公司 | 目标识别模型训练和目标识别方法及装置、计算设备 |
CN106530305A (zh) * | 2016-09-23 | 2017-03-22 | 北京市商汤科技开发有限公司 | 语义分割模型训练和图像分割方法及装置、计算设备 |
CN107622272A (zh) * | 2016-07-13 | 2018-01-23 | 华为技术有限公司 | 一种图像分类方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9697233B2 (en) * | 2014-08-12 | 2017-07-04 | Paypal, Inc. | Image processing and matching |
US9818048B2 (en) * | 2015-01-19 | 2017-11-14 | Ebay Inc. | Fine-grained categorization |
CN107016409A (zh) * | 2017-03-20 | 2017-08-04 | 华中科技大学 | 一种基于图像显著区域的图像分类方法和系统 |
CN108009518A (zh) | 2017-12-19 | 2018-05-08 | 大连理工大学 | 一种基于快速二分卷积神经网络的层次化交通标识识别方法 |
-
2018
- 2018-05-15 CN CN201810462613.5A patent/CN108764306B/zh active Active
- 2018-06-08 WO PCT/CN2018/090370 patent/WO2019218410A1/zh active Application Filing
- 2018-06-08 US US16/606,166 patent/US11238311B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8165354B1 (en) * | 2008-03-18 | 2012-04-24 | Google Inc. | Face recognition with discriminative face alignment |
CN103218827A (zh) * | 2013-03-21 | 2013-07-24 | 上海交通大学 | 基于形状传递联合分割和图匹配校正的轮廓跟踪方法 |
CN107622272A (zh) * | 2016-07-13 | 2018-01-23 | 华为技术有限公司 | 一种图像分类方法及装置 |
CN106529565A (zh) * | 2016-09-23 | 2017-03-22 | 北京市商汤科技开发有限公司 | 目标识别模型训练和目标识别方法及装置、计算设备 |
CN106530305A (zh) * | 2016-09-23 | 2017-03-22 | 北京市商汤科技开发有限公司 | 语义分割模型训练和图像分割方法及装置、计算设备 |
Non-Patent Citations (1)
Title |
---|
DI LIN 等: ""Deep LAC: Deep localization, alignment and classification for fine-grained recognition"", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION(CVPR)》 * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109784140A (zh) * | 2018-11-19 | 2019-05-21 | 深圳市华尊科技股份有限公司 | 驾驶员属性识别方法及相关产品 |
CN109583489A (zh) * | 2018-11-22 | 2019-04-05 | 中国科学院自动化研究所 | 缺陷分类识别方法、装置、计算机设备和存储介质 |
CN111582294A (zh) * | 2019-03-05 | 2020-08-25 | 慧泉智能科技(苏州)有限公司 | 一种构建用于表面缺陷检测的卷积神经网络模型的方法及其利用 |
CN111582294B (zh) * | 2019-03-05 | 2024-02-27 | 慧泉智能科技(苏州)有限公司 | 一种构建用于表面缺陷检测的卷积神经网络模型的方法及其利用 |
CN112651410A (zh) * | 2019-09-25 | 2021-04-13 | 图灵深视(南京)科技有限公司 | 用于鉴别的模型的训练、鉴别方法、系统、设备及介质 |
CN111008655A (zh) * | 2019-11-28 | 2020-04-14 | 上海识装信息科技有限公司 | 辅助鉴定实物商品品牌真伪的方法、装置和电子设备 |
CN111160441A (zh) * | 2019-12-24 | 2020-05-15 | 上海联影智能医疗科技有限公司 | 分类方法、计算机设备和存储介质 |
CN111160441B (zh) * | 2019-12-24 | 2024-03-26 | 上海联影智能医疗科技有限公司 | 分类方法、计算机设备和存储介质 |
CN111178364A (zh) * | 2019-12-31 | 2020-05-19 | 北京奇艺世纪科技有限公司 | 一种图像识别方法和装置 |
CN111310794A (zh) * | 2020-01-19 | 2020-06-19 | 北京字节跳动网络技术有限公司 | 目标对象的分类方法、装置和电子设备 |
CN111310794B (zh) * | 2020-01-19 | 2021-04-20 | 北京字节跳动网络技术有限公司 | 目标对象的分类方法、装置和电子设备 |
CN111291827B (zh) * | 2020-02-28 | 2023-12-22 | 北京市商汤科技开发有限公司 | 图像聚类方法、装置、设备及存储介质 |
CN111291827A (zh) * | 2020-02-28 | 2020-06-16 | 北京市商汤科技开发有限公司 | 图像聚类方法、装置、设备及存储介质 |
CN113628154A (zh) * | 2020-04-23 | 2021-11-09 | 上海联影智能医疗科技有限公司 | 图像分析方法、装置、计算机设备和存储介质 |
CN111738310B (zh) * | 2020-06-04 | 2023-12-01 | 科大讯飞股份有限公司 | 物料分类方法、装置、电子设备和存储介质 |
CN111738310A (zh) * | 2020-06-04 | 2020-10-02 | 科大讯飞股份有限公司 | 物料分类方法、装置、电子设备和存储介质 |
CN111666905A (zh) * | 2020-06-10 | 2020-09-15 | 重庆紫光华山智安科技有限公司 | 模型训练方法、行人属性识别方法和相关装置 |
CN111754521A (zh) * | 2020-06-17 | 2020-10-09 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备及存储介质 |
CN113761249A (zh) * | 2020-08-03 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 一种确定图片类型的方法和装置 |
CN112150605A (zh) * | 2020-08-17 | 2020-12-29 | 北京化工大学 | 用于mri局部sar估计的膝关节模型构建方法 |
CN112150605B (zh) * | 2020-08-17 | 2024-02-02 | 北京化工大学 | 用于mri局部sar估计的膝关节模型构建方法 |
CN112036404A (zh) * | 2020-08-31 | 2020-12-04 | 上海大学 | 一种海上船只目标检测方法及系统 |
CN112036404B (zh) * | 2020-08-31 | 2024-01-02 | 上海大学 | 一种海上船只目标检测方法及系统 |
CN112149729A (zh) * | 2020-09-22 | 2020-12-29 | 福州大学 | 一种基于通道剪裁和定位分类子网络的细粒度图像分类方法及系统 |
CN112381214A (zh) * | 2020-12-03 | 2021-02-19 | 北京声智科技有限公司 | 网络模型生成方法、装置及电子设备 |
CN113506332B (zh) * | 2021-09-09 | 2021-12-17 | 北京的卢深视科技有限公司 | 目标对象识别的方法、电子设备及存储介质 |
CN113506332A (zh) * | 2021-09-09 | 2021-10-15 | 北京的卢深视科技有限公司 | 目标对象识别的方法、电子设备及存储介质 |
CN113837062A (zh) * | 2021-09-22 | 2021-12-24 | 内蒙古工业大学 | 一种分类方法、装置、存储介质及电子设备 |
CN113936274A (zh) * | 2021-10-19 | 2022-01-14 | 平安国际智慧城市科技股份有限公司 | 食物营养成分分析方法、装置、电子设备及可读存储介质 |
CN116503429A (zh) * | 2023-06-28 | 2023-07-28 | 深圳市华海天贸科技有限公司 | 用于生物材料3d打印的模型图像分割方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019218410A1 (zh) | 2019-11-21 |
US20210365732A1 (en) | 2021-11-25 |
US11238311B2 (en) | 2022-02-01 |
CN108764306B (zh) | 2022-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764306B (zh) | 图像分类方法、装置、计算机设备和存储介质 | |
US11869194B2 (en) | Image processing method and apparatus, computer-readable storage medium | |
US10152655B2 (en) | Deep-learning network architecture for object detection | |
CN110490202B (zh) | 检测模型训练方法、装置、计算机设备和存储介质 | |
CN109657583B (zh) | 脸部关键点检测方法、装置、计算机设备和存储介质 | |
CN109086711B (zh) | 人脸特征分析方法、装置、计算机设备和存储介质 | |
CN108805058B (zh) | 目标对象变化姿态识别方法、装置及计算机设备 | |
JP7263216B2 (ja) | ワッサースタイン距離を使用する物体形状回帰 | |
CN108764143B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN107506786A (zh) | 一种基于深度学习的属性分类识别方法 | |
Marcos et al. | Geospatial correspondences for multimodal registration | |
CN109255382B (zh) | 用于图片匹配定位的神经网络系统,方法及装置 | |
CN112241952B (zh) | 大脑中线识别方法、装置、计算机设备及存储介质 | |
CN110598638A (zh) | 模型训练方法、人脸性别预测方法、设备及存储介质 | |
Kokkinos et al. | Synergy between object recognition and image segmentation using the expectation-maximization algorithm | |
CN111860582B (zh) | 图像分类模型构建方法、装置、计算机设备和存储介质 | |
WO2022033513A1 (zh) | 目标分割方法、装置、计算机可读存储介质及计算机设备 | |
CN115210774A (zh) | 物体检测的热图可视化 | |
US20210183074A1 (en) | Apparatus and method for tracking multiple objects | |
CN109784353B (zh) | 一种处理器实现的方法、设备和存储介质 | |
CN114022786A (zh) | 基于图中图卷积网络的高光谱图像分类方法 | |
CN109934926B (zh) | 模型数据处理方法、装置、可读存储介质和设备 | |
CN112699858A (zh) | 无人平台烟尘雾感知方法、系统、计算机设备及存储介质 | |
JP6622150B2 (ja) | 情報処理装置および情報処理方法 | |
Lian et al. | SORCNet: robust non-rigid shape correspondence with enhanced descriptors by Shared Optimized Res-CapsuleNet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |