CN104268552B - 一种基于部件多边形的精细类别分类方法 - Google Patents
一种基于部件多边形的精细类别分类方法 Download PDFInfo
- Publication number
- CN104268552B CN104268552B CN201410449365.2A CN201410449365A CN104268552B CN 104268552 B CN104268552 B CN 104268552B CN 201410449365 A CN201410449365 A CN 201410449365A CN 104268552 B CN104268552 B CN 104268552B
- Authority
- CN
- China
- Prior art keywords
- image
- classification
- grader
- training
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/24765—Rule-based classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Library & Information Science (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及图像信息处理技术领域,尤其涉及一种基于部件多边形的精细类别分类方法。本发明采用基于部件点的多边形可以有效地校正不同姿态下目标,分类过程采用的fisher编码特征对目标尺度和方向上的变化具有鲁棒性,所用的贪婪算法能找出最具判别力的部件点组合的集合,而精细分类器能够区分非常相似的类别。本发明提供的方法将目标图像的部件点进行连接,构建了多个基于部件点的多边形,可有效减少校正所带来的误差。
Description
技术领域
本发明涉及图像信息处理技术领域,尤其涉及一种基于部件多边形的精细类别分类方法。
背景技术
近年来,随着相机的普及,网络上的图像资源飞速增加。而在这些图像中,大部分是与人关系密切的事物,比如人们的宠物和交通工具。我们将属于一个相同类别的子类称为精细类别。这种类别的分类相比传统的分类问题,更具挑战性。因为传统的分类解决的问题是将不同的大类区分开,比如猫和车辆。这些都是在外观上差异很大的类别,所以我们可以用比较简单的分类器就能得到较为理想的结果。然而在精细类别的分类中,子类之间的相似度非常高,往往共享了很多外观特征,所以要得到理想的分类结果是极具挑战性的。
目前,有很多针对精细类别分类的工作。国外的著名实验室也提供了很多经典的数据库以供对应的研究。比如鸟分类数据库和狗分类数据库。这些数据库提供了目标的检测框和部件的关键点,为之后的工作提供了坚实的基础。现有的方法一般从标注的检测框中分割目标,然后通过提取目标的底层特征,将其特征进行编码后直接用SVM分类器加以训练和分类。这种方法对传统的分类问题能得到不错的分类精度,但是针对精细类别的图像仍然缺乏判别性。因为精细类别的图像不同类别的区分点往往在一些细节,如果将部件信息忽略,直接用目标整体的特征进行分类的话,很难将相似的子类分辨开来。基于这个问题,一些研究人员提出了基于部件点的精细类别分类的方法。它随机选取两个部件点,将其进行校正,然后选取任意两个类别,从校正的部件点对中提取底层特征,用分类器进行训练,得到对应的分类打分,将其作为中层语义,然后再训练分类,从而得到了目前最优的分类结果。
现有的基于部件点的精细图像分类中忽略了分类对象的姿态变化,针对不同姿态下的目标,都采用非常简单的校正操作。事实上,在目标姿态不同时,简单的校正方法并不能取得很好的校正结果,从而使得同一子类的特征不具鲁棒性,影响分类的准确性。
发明内容
针对上述现有技术的不足,本发明基于多个部件点的空间位置关系,对于需要分类的目标图像,先用针对所有类别的分类器得到一个最初的分类结果,再用易混淆的类别组合训练的分类器进行分类,最终实现精细类别分类。
本发明方法流程如图1所示,主要包括以下步骤:
步骤1:构建图像数据库,从数据库的训练图像集中各个图像的目标区域采样大小相等、形状一致的矩形图像区域,提取所述矩形图像区域的sift特征;
步骤2:从步骤1所提取的矩形图像区域的sift特征中随机选取P个sift特征用于训练高斯混合模型;
步骤3:针对需要分类的目标图像,选取目标图像中两个以上的部件点作为用于分类的部件组合,提取目标图像中的部件组合围成的面积最大的多边形图像区域的fisher特征;搜寻步骤1所述的训练图像集,标定并提取其中含有所述用于分类的部件组合的训练图像;
步骤4:提取训练图像集中的与需要进行分类的目标图像相关的训练图像的相关图像区域的fisher特征;
步骤5:利用步骤4所得的相关图像区域的fisher特征和所述相关图像区域所属的图像为训练样本,训练线性支持向量机(SVM)分类器的分类模型;
步骤6:基于步骤1至5的结果,并利用贪婪算法确定所述部件组合中分类效果最好的部件点的组合,至此实现了用全体类别的分类器对目标图像的分类;
步骤7:根据步骤6所得的所有类别的分类器的分类结果得到所有类别间的混淆矩阵;针对每一个类别,找到错分为这一类的类别,将其作为这一类别的容易混淆的类别集合;
步骤8:针对每一个步骤7所述的容易混淆的类别集合相似的类别集合,均采用步骤6所提供的贪婪算法得到最具判别力的部件组合的集合,由此实现了针对特定类别的分类器的学习。
本发明的有益效果:
本发明所提出的基于部件多边形的精细图像分类方法能够有效地提升分类的精度,该方法所用的基于部件点的多边形可以有效地校正不同姿态下目标,提取的fisher编码特征对目标尺度和方向上的变化具有鲁棒性,所用的贪婪算法能找出最具判别力的部件点组合的集合,而精细分类器能够区分非常相似的类别。发明的主要创新点在于提取部件点组合所形成的多变形的高维特征,用两层分类器去区分精细类别。相比传统的分类方法,该方案能够更有效地校正不同姿态下的目标,能找到具备判别性的部件点的组合。
附图说明
图1是本发明方法流程图。
具体实施方式
下面结合图1对本发明做进一步详细说明。
本发明主要可以分为全部类别的分类器的学习和精细类别分类器的学习,全部类别的分类的学习包括步骤:
步骤1:构建图像数据库,该数据库中的所有训练图像的多个部件点的位置已被标注,每张训练图像均有对应的类别标签;从训练图像集中各个图像的目标区域采样M个大小相等、形状一致的矩形图像区域并记为A1、A2、……、AM,这些矩形图像区域的尺寸可以是4×4、8×8、16×16(像素单位)等多种尺寸,且所提取的矩形图像区域与相邻的矩形图像区域的采样间距均相同;提取所述矩形图像区域A1、A2、……、AM的sift特征;
步骤2:从步骤1所提取的矩形图像区域A1、A2、……、AM的sift特征中随机选取P个sift特征用于训练高斯混合模型;
步骤3:针对需要进行分类的目标图像,随机选取该目标图像的两个以上的部件点构成部件组合J,部件组合J包含C个部件点分别为J1、J2、……、JC,利用步骤2所得的高斯混合模型提取目标图像中的部件点J1、J2、……、JC连接而成的面积最大的多边形图像区域的fisher特征;搜寻步骤1所述的训练图像集,标定并提取其中含有部件组合J的H个训练图像并记为T1、T2、……、TH;
步骤4:针对步骤3所提取的每一幅含有部件组合J的训练图像T1、T2、……、TH,以图像T1为例,选定图像T1中由部件点J1、J2、……、JC连接而成的面积最大的多边形图像区域,利用步骤2所得的高斯混合模型提取所述多边形图像区域的fisher特征,对剩余的图像T2、T3、……、TH均采用上述相同处理过程提取每个训练图像中相应区域的fisher特征;由此可得到训练图像集中的与需要进行分类的目标图像相关的训练图像的相应图像区域的fisher特征;
步骤5:以图像T2、T3、……、TH为训练样本,训练线性支持向量机(SVM)分类器的分类模型;本发明所用的线性SVM的分类函数具体如下:
f(x)=wTx+b (1)
其中,x指多边形区域的fisher向量特征,w、b指分类器的参数,其对应的分类界面为wTx+b=0;搜集分类器界面附近的样本作为训练分类器的样本,这些样本称为支持向量;当代价函数最小时,可确定分类器的参数w、b,其中,所述代价函数具体如下:
min||w||2
subject to yi(wTx+b)≥1,i=1,...,N (2)
其中,yi代表训练图像集的第i张图像的类别标签,N代表图像的总数;代价函数的作用是保证分类准确度的同时,使得不同类别之间的间隔最大化;通过拉格朗日乘子的方法对(2)式求解,可以得到分类器的参数w:
w=∑iαiyixi (3)
其中,αi是支持向量xi的拉格朗日系数。
步骤6:基于步骤1至5的结果,并利用贪婪算法确定所述部件组合中分类效果最好的部件点的组合,贪婪算法的具体过程如下:
步骤6-1:提取步骤2所述的需要进行分类的目标图像中的部件点J1、J2、……、JC连接而成面积最大的多边形图像区域的fisher特征,并提取步骤4所述的含有部件组合J的图像T1、T2、……、TH中的由部件点J1、J2、……、JC连接而成的面积最大的多边形图像区域的fisher特征;
步骤6-2:对于训练图像集中的含有部件组合J的图像T1、T2、……、TH,由步骤1可知所述各图像的类别标签;用步骤5的线性SVM分类器集合步骤6-1所述的fisher特征得到需要进行分类的目标图像分别属于图像T1、T2、……、TH对应的各个类别标签的后验概率,将后验概率最大的类别标签设定为该目标图像的预测标签,通过与所述目标图像的真实标签相比较,将概率最大所对应的标签作为目标图像的标签,得到每个部件组合训练的分类器的分类精度。
步骤6-3:提取步骤6-2所得的所有部件组合所训练的分类器的分类精度最高的部件组合,将其作为初始集合;针对需要进行分类的目标图像,用步骤6-2分析的除去分类精度最高的分类器对目标图像进行类别分类,得到对应类别的后验概率,将不同类别的后验概率与初始集合的分类器得到的类别后验概率相加得目标图像所属各类别的综合概率,再选取所述综合概率最大的类别作为目标图像的预测标签,与图像的真实标签对比后,可以得到目标图像的新的分类精度,与之前的分类精度进行比较,如果新的精度高于之前的精度,则在部件多边形的集合中添加对应的部件点组合。
步骤6-4:循环执行步骤6-1至6-3的过程,不断更新选取的判别性强的部件点集合,直至需要进行分类的目标图像的分类精度不再增加,最终获得的部件多边形的集合则能达到最优的分类精度,至此实现了用全体类别的分类器对目标图像的分类。
进一步的,所述的由指定部件点连接而成的面积最大的多边形图像区域的fisher特征的具体提取方法如下:
针对由指定部件点连接而成面积最大的多边形图像区域,从所述多边形区域采样L个大小相等、形状一致的矩形图像区域并记为D1、D2、……、DL,这些矩形图像区域的尺寸可以是4×4、8×8、16×16(像素单位)等多种尺寸,且所提取的矩形图像区域与相邻的矩形图像区域的采样间距均相同;提取所述矩形图像区域D1、D2、……、DL的sift特征,用fisher向量方法并结合步骤2所得的高斯混合模型对上述sift特征进行编码,即可得到相应的多边形图像区域的fisher特征
精细类别分类器的学习主要分为两个步骤:
进一步的,完成步骤1至步骤6的过程实现用全体类别的分类器对目标图像的分类后,还可通过精细类别分类器的学习对目标图像做进一步的精细分类,精细类别分类器的学习包括以下步骤:
步骤7:根据步骤6所得的所有类别的分类器的分类结果,设定混淆类别阈值,针对第i类的类别,提取出所有分类中大于该混淆类别阈值的类别,则所提取的这些类别就是与第i类易混淆的类别,由此得到所有类别间的混淆矩阵;针对每一个类别,找到错分为这一类的类别,将其作为这一类别的容易混淆的类别集合;
步骤8:针对每一个步骤7所述的容易混淆的类别集合相似的类别集合,均采用步骤6所提供的贪婪算法得到最具判别力的部件组合的集合,由此实现了针对特定类别的分类器的学习。
针对需要进行精细分类的目标图像,首先通过步骤1至步骤6实现了用全部类别的分类器进行分类,由此得到一个初始的分类结果,然后再用精细类别的分类器将容易混淆的类别区分开来,最终大道目标图像的精细类别分类的目的。
Claims (3)
1.一种基于部件多边形的精细类别分类方法,其特征在于,包括以下步骤:
步骤1:构建图像数据库,该数据库中的所有训练图像的多个部件点的位置已被标注,每张训练图像均有对应的类别标签;从训练图像集中各个图像的目标区域采样M个大小相等、形状一致的矩形图像区域并记为A1、A2、……、AM,且所提取的矩形图像区域与相邻的矩形图像区域的采样间距均相同;提取所述矩形图像区域A1、A2、……、AM的sift特征;
步骤2:从步骤1所提取的矩形图像区域A1、A2、……、AM的sift特征中随机选取P个sift特征用于训练高斯混合模型;
步骤3:针对需要进行分类的目标图像,随机选取该目标图像的两个以上的部件点构成部件组合J,部件组合J包含C个部件点分别为J1、J2、……、JC,利用步骤2所得的高斯混合模型提取目标图像中的部件点J1、J2、……、JC连接而成的面积最大的多边形图像区域的fisher特征;搜寻步骤1所述的训练图像集,标定并提取其中含有部件组合J的H个训练图像并记为T1、T2、……、TH;
步骤4:针对步骤3所提取的每一幅含有部件组合J的训练图像T1、T2、……、TH,以图像T1为例,选定图像T1中由部件点J1、J2、……、JC连接而成的面积最大的多边形图像区域,利用步骤2所得的高斯混合模型提取所述多边形图像区域的fisher特征,对剩余的图像T2、T3、……、TH均采用上述相同处理过程提取每个训练图像中相应区域的fisher特征;由此可得到训练图像集中的与需要进行分类的目标图像相关的训练图像的相应图像区域的fisher特征;
步骤5:以图像T2、T3、……、TH为训练样本,训练线性支持向量机(SVM)分类器的分类模型;
步骤6:基于步骤1至5的结果,并利用贪婪算法确定所述部件组合中分类效果最好的部件点的组合,贪婪算法的具体过程如下:
步骤6-1:提取步骤2所述的需要进行分类的目标图像中的部件点J1、J2、……、JC连接而成面积最大的多边形图像区域的fisher特征,并提取步骤4所述的含有部件组合J的图像T1、T2、……、TH中的由部件点J1、J2、……、JC连接而成的面积最大的多边形图像区域的fisher特征;
步骤6-2:对于训练图像集中的含有部件组合J的图像T1、T2、……、TH,由步骤1可知所述各图像的类别标签;用步骤5的线性SVM分类器集合步骤6-1所述的fisher特征得到需要进行分类的目标图像分别属于图像T1、T2、……、TH对应的各个类别标签的后验概率,将后验概率最大的类别标签设定为该目标图像的预测标签,通过与所述目标图像的真实标签相比较,将概率最大所对应的标签作为目标图像的标签,得到每个部件组合训练的分类器的分类精度;
步骤6-3:提取步骤6-2所得的所有部件组合所训练的分类器的分类精度最高的部件组合,将其作为初始集合;针对需要进行分类的目标图像,用步骤6-2分析的除去分类精度最高的分类器对目标图像进行类别分类,得到对应类别的后验概率,将不同类别的后验概率与初始集合的分类器得到的类别后验概率相加得目标图像所属各类别的综合概率,再选取所述综合概率最大的类别作为目标图像的预测标签,与图像的真实标签对比后,可以得到目标图像的新的分类精度,与之前的分类精度进行比较,如果新的精度高于之前的精度,则在部件多边形的集合中添加对应的部件点组合;
步骤6-4:循环执行步骤6-1至6-3的过程,不断更新选取的判别性强的部件点集合,直至需要进行分类的目标图像的分类精度不再增加,最终获得的部件多边形的集合则能达到最优的分类精度,至此实现了用全体类别的分类器对目标图像的分类;
步骤7:根据步骤6所得的所有类别的分类器的分类结果,设定混淆类别阈值,针对第i类的类别,提取出所有分类中大于该混淆类别阈值的类别,则所提取的这些类别就是与第i类易混淆的类别,由此得到所有类别间的混淆矩阵;针对每一个类别,找到错分为这一类的类别,将其作为这一类别的容易混淆的类别集合;
步骤8:针对每一个步骤7所述的容易混淆的类别集合相似的类别集合,均采用步骤6所提供的贪婪算法得到最具判别力的部件组合的集合,由此实现了针对特定类别的分类器的学习。
2.根据权利要求1所述的一种基于部件多边形的精细类别分类方法,其特征在于,由指定部件点连接而成的面积最大的多边形图像区域的fisher特征的具体提取方法如下:
针对由指定部件点连接而成面积最大的多边形图像区域,从所述多边形区域采样L个大小相等、形状一致的矩形图像区域并记为D1、D2、……、DL,且所提取的矩形图像区域与相邻的矩形图像区域的采样间距均相同;提取所述矩形图像区域D1、D2、……、DL的sift特征,用fisher向量方法并结合步骤2所得的高斯混合模型对上述sift特征进行编码,即可得到相应的多边形图像区域的fisher特征。
3.根据权利要求1或2所述的一种基于部件多边形的精细类别分类方法,其特征在于,所述的线性支持向量机(SVM)分类器的分类函数具体如下:
f(x)=wTx+b
其中,x指多边形区域的fisher向量特征,w、b指分类器的参数,其对应的分类界面为wTx+b=0;搜集分类器界面附近的样本作为训练分类器的样本,这些样本称为支持向量;当代价函数最小时,可确定分类器的参数w、b,其中,所述代价函数具体如下:
min||w||2
subject to yi(wTx+b)≥1,i=1,...,N
其中,yi代表训练图像集的第i张图像的类别标签,N代表训练图像集的图像总数;代价函数的作用是保证分类准确度的同时,使得不同类别之间的间隔最大化;通过拉格朗日乘子的方法对代价函数式求解,可以得到分类器的参数w:
w=∑iαiyixi
其中,αi是支持向量xi的拉格朗日系数。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201410449365.2A CN104268552B (zh) | 2014-09-04 | 2014-09-04 | 一种基于部件多边形的精细类别分类方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201410449365.2A CN104268552B (zh) | 2014-09-04 | 2014-09-04 | 一种基于部件多边形的精细类别分类方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN104268552A CN104268552A (zh) | 2015-01-07 |
| CN104268552B true CN104268552B (zh) | 2017-06-13 |
Family
ID=52160072
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201410449365.2A Active CN104268552B (zh) | 2014-09-04 | 2014-09-04 | 一种基于部件多边形的精细类别分类方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN104268552B (zh) |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN105844283B (zh) * | 2015-01-16 | 2019-06-07 | 阿里巴巴集团控股有限公司 | 用于识别图像类目归属的方法、图像搜索方法及装置 |
| CN106056159B (zh) * | 2016-06-03 | 2019-03-26 | 西安电子科技大学 | 基于Fisher Vector的图像精细分类方法 |
| CN107688823B (zh) | 2017-07-20 | 2018-12-04 | 北京三快在线科技有限公司 | 一种图像特征获取方法及装置,电子设备 |
| CN107491766A (zh) * | 2017-08-31 | 2017-12-19 | 四川长虹电器股份有限公司 | 基于图像识别的照片分类方法 |
| CN108304882B (zh) * | 2018-02-07 | 2022-03-04 | 腾讯科技(深圳)有限公司 | 一种图像分类方法、装置及服务器、用户终端、存储介质 |
| CN109344741A (zh) * | 2018-09-11 | 2019-02-15 | 中国科学技术大学 | 一种基于振动信号的地形分类方法 |
| CN110674890B (zh) * | 2019-10-15 | 2022-02-01 | 广东三维家信息科技有限公司 | 填充模型的建立方法、图形填充方法、装置及电子设备 |
| CN115166669A (zh) * | 2022-06-30 | 2022-10-11 | 重庆秦嵩科技有限公司 | 基于高斯混合模型的地面运动目标自动分类方法 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103425996A (zh) * | 2013-08-01 | 2013-12-04 | 华南理工大学 | 一种并行分布式的大规模图像识别方法 |
| CN103824093A (zh) * | 2014-03-19 | 2014-05-28 | 北京航空航天大学 | 一种基于kfda及svm的sar图像目标特征提取与识别方法 |
| US8774530B1 (en) * | 2010-12-22 | 2014-07-08 | Emc Corporation | Automated diagnostic analysis of image data |
-
2014
- 2014-09-04 CN CN201410449365.2A patent/CN104268552B/zh active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8774530B1 (en) * | 2010-12-22 | 2014-07-08 | Emc Corporation | Automated diagnostic analysis of image data |
| CN103425996A (zh) * | 2013-08-01 | 2013-12-04 | 华南理工大学 | 一种并行分布式的大规模图像识别方法 |
| CN103824093A (zh) * | 2014-03-19 | 2014-05-28 | 北京航空航天大学 | 一种基于kfda及svm的sar图像目标特征提取与识别方法 |
Non-Patent Citations (3)
| Title |
|---|
| "Representations of Keypoint-Based Semantic";Yu-Gang Jiang.et.al;《Computer Science Department》;20091101;全文 * |
| "基于Fisher准则的SVM参数选择算法";刘飚等;《山东大学学报(理学版)》;20120731;第47卷(第7期);全文 * |
| "基于SIFT算法的体育类图像分类与应用研究";朱飞等;《计算机应用与软件》;20111031;第28卷(第10期);全文 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN104268552A (zh) | 2015-01-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN104268552B (zh) | 一种基于部件多边形的精细类别分类方法 | |
| CN111814584B (zh) | 基于多中心度量损失的多视角环境下车辆重识别方法 | |
| CN106682696B (zh) | 基于在线示例分类器精化的多示例检测网络及其训练方法 | |
| Hariharan et al. | Simultaneous detection and segmentation | |
| Wu et al. | Soft sampling for robust object detection | |
| Shahab et al. | ICDAR 2011 robust reading competition challenge 2: Reading text in scene images | |
| CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
| CN113657414B (zh) | 一种物体识别方法 | |
| Endres et al. | Learning collections of part models for object recognition | |
| CN103310195B (zh) | 车辆高分遥感图像的基于llc特征的弱监督识别方法 | |
| CN110909618B (zh) | 一种宠物身份的识别方法及装置 | |
| CN110619369A (zh) | 基于特征金字塔与全局平均池化的细粒度图像分类方法 | |
| CN110084245B (zh) | 基于视觉注意机制强化学习弱监督图像检测方法、系统 | |
| CN108596046A (zh) | 一种基于深度学习的细胞检测计数方法及系统 | |
| CN104112143A (zh) | 基于加权超球支持向量机算法的图像分类方法 | |
| Kumar et al. | Object detection and recognition in images | |
| CN106096627A (zh) | 顾及特征优化的极化sar图像半监督分类方法 | |
| CN108596038B (zh) | 一种结合形态学分割和神经网络的粪便中红细胞识别方法 | |
| CN104134071A (zh) | 一种基于颜色描述的可变形部件模型物体检测方法 | |
| CN102054178A (zh) | 一种基于局部语义概念的国画图像识别方法 | |
| CN105046673B (zh) | 基于自学习的高光谱图像和可见光图像融合分类方法 | |
| CN103336971B (zh) | 基于多特征融合与增量学习的多摄像机间的目标匹配方法 | |
| Zhang et al. | Optimal training strategy for high-performance detection model of multi-cultivar tea shoots based on deep learning methods | |
| CN105718866A (zh) | 一种视觉目标检测与识别方法 | |
| CN109299668A (zh) | 一种基于主动学习和聚类分析的高光谱图像分类方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |