CN103942561A - 一种基于主动学习的图像标注方法 - Google Patents
一种基于主动学习的图像标注方法 Download PDFInfo
- Publication number
- CN103942561A CN103942561A CN201410106864.1A CN201410106864A CN103942561A CN 103942561 A CN103942561 A CN 103942561A CN 201410106864 A CN201410106864 A CN 201410106864A CN 103942561 A CN103942561 A CN 103942561A
- Authority
- CN
- China
- Prior art keywords
- image
- labeling
- matrix
- images
- active learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明公开了一种基于主动学习的网络图像标注方法。该方法首先基于图像数据集构建表征图像视觉相似性关系的K近邻图结构,计算相应的拉普拉斯图矩阵L;接着采用迭代计算求解最优化问题,选择出T个标注样本让用户进行标注;然后根据选择出来的T个标注样本训练多类别SVM分类器模型fsvm,最后基于训练的SVM分类模型fsvm对图像数据集中的图像进行图像类别判断,依据判别结果对图像进行标注,从而实现基于主动学习的图像标注。本方法采用迭代依次挑选出最具代表性的图像数据进行交互式标注,不仅提高训练的SVM模型性能和图像标注的准确度,还能减少需要标注的图像数目,达到减轻人工劳动量的目的。
Description
技术领域
本发明涉及网络图像标注技术,主动学习技术和SVM分类器,尤其涉及采用主动学习进行图像标注方法。
背景技术
近年来,伴随着计算机视觉技术和机器学习算法的兴起,基于图像内容的网络图像自动标注技术得到飞速发展。通用的图像标注流程包括:(1)图像视觉特征提取和表达;(2)基于训练数据对分类器或者搜索模型进行训练;(3)使用训练好的分类器或者搜索模型对图像进行分类或者是搜索近邻,实现对图像的标注。
从上面的通用图像标注流程可以看出无论是分类器还是搜索模型的构建通常都是需要训练数据集的支撑。而构建这样的训练数据,经常需要对图像数据进行标注,比较耗时同时也是比较繁琐的。为了节省人工标注的劳动量,以往的研究工作一般是从两个方法来解决这个问题。
第一种解决思路是采用半监督学习的方法,只对训练数据集中的少量数据进行标注,然后将数据集中大量的未标注的数据加入到模型的训练中,通过挖掘图像之间存在的特征空间上的近邻关系来提高算法的准确性。
第二种解决思路是采用主动学习的方法,通过采用某种策略和方法,主动地从训练数据集中挑选出部分具有代表性或者是最具模糊性的图像数据,对这些数据进行人工标注,然后利用这些标注的数据集对算法模型进行训练。由于标注的数据是经过智能选择过的,因此使用这些的标注数据进行模型训练,可以进一步提高算法的准确率。
关于第一种解决思路的相关工作可以参考Xiaojin Zhu的《Semi-supervised LearningSurvey》一文。第二中解决思路是与本发明所提出的方法关系最密切的。这类工作包括支持向量机主动学习(Support Vector Machine active learning,SVMactive),基于回归的主动学习方法(Regression based active learning),基于最优实验设计(Optimal Experiment Design,OED)类的主动学习方法和基于图的主动学习方法,如Laplacian Optimal Design(LOD)等
与上面介绍的方法不同,本发明所提出的方法采用贪心算法求解需要标注的图像数据,在得到用户标注图像结果后,我们将其应用到多类别SVM模型中,训练SVM模型,然后应用训练结果对数据集中的其他图像进行自动标注。
发明内容
本发明的目的是为了克服在训练SVM算法模型是需要提供大量人工标注的图像数据,耗费时间和人力的问题,提供一种基于主动学习的网络图像标注方法。
基于主动学习的网络图像标注方法包括如下步骤:
1)对网络图像数据集MSRA-MM数据集中,选择80类图像,每类100张图像,共计8000张图像,提取64维的颜色直方图和255维的颜色纹理矩特征,构成319维的图像视觉特征表达,得到图像特征集X=[x1,x2,...,xn]∈Rd×n,其中d=319为图像特征维度,n=8000为图像样本数;
2)构建表征图像视觉相似性关系的K近邻图结构,以图像特征集中样本作为K近邻图的顶点,K近邻图的边权重矩阵S设置如下:
其中,Νk(xj)和Νk(xi)分别表示xj和xi的K近邻;
3)根据S矩阵,计算相应的拉普拉斯图矩阵L,计算公式如下:
L=S-D2
其中,D为对角矩阵,对角元素值
4)初始化用户标注图像样本z1为:
其中,(KXX)ij=K(xi,xj),K(·)为高斯核函数,定义为:K(x,y)=exp(-||x-y||2/2σ2),σ为核参数,tr(·)为矩阵迹运算;
5)迭代计算任意第p+1个用户标注样本zp+1,直至选择到预定T个标注样本,计算公式如下:
其中,Zp=[z1,...,zp]为所有前p个用户标注样本所构成的矩阵;
6)根据上面步骤4)和步骤5)选择出来的T个标注样本ZT=[z1,...,zT],训练多类别SVM分类器模型fsvm,然后基于训练的SVM分类模型fsvm对图像数据集中的图像进行图像类别判断,依据判别结果对图像进行标注,从而实现基于主动学习的图像标注。
本方法采用迭代依次挑选出最具代表性的图像数据进行交互式标注,不仅提高训练的SVM模型性能和图像标注的准确度,还能减少需要标注的图像数目,达到减轻人工劳动量的目的。与现有方法相比具有所需人工工作量小,模型训练更加准确,图像标注结果更精确的特点。
附图说明
图1是MSRA-MM图像数据集上的部分样例图像;
图2是图像标注实例1;
图3是图像标注实例2;
具体实施方式
基于主动学习的网络图像标注方法包括如下步骤:
1)对网络图像数据集MSRA-MM数据集[1]中,选择80类图像,每类100张图像,共计8000张图像,提取64维的颜色直方图和255维的颜色纹理矩特征,构成319维的图像视觉特征表达,得到图像特征集X=[x1,x2,...,xn]∈Rd×n,其中d=319为图像特征维度,n=8000为图像样本数;
2)构建表征图像视觉相似性关系的K近邻图结构,以图像特征集中样本作为K近邻图的顶点,K近邻图的边权重矩阵S设置如下:
其中,Νk(xj)和Νk(xi)分别表示xj和xi的K近邻;
3)根据S矩阵,计算相应的拉普拉斯图矩阵L,计算公式如下:
L=S-D2
其中,D为对角矩阵,对角元素值
4)初始化用户标注图像样本z1为:
其中,(KXX)ij=K(xi,xj),K(·)为高斯核函数,定义为:K(x,y)=exp(-||x-y||22σ2),σ为核参数,tr(·)为矩阵迹运算;
5)迭代计算任意第p+1个用户标注样本zp+1,直至选择到预定T个标注样本,计算公式如下:
其中,Zp=[z1,...,zp]为所有前p个用户标注样本所构成的矩阵;
6)根据上面步骤4)和步骤5)选择出来的T个标注样本ZT=[z1,...,zT],训练多类别SVM分类器模型fsvm,然后基于训练的SVM分类模型fsvm对图像数据集中的图像进行图像类别判断,依据判别结果对图像进行标注,从而实现基于主动学习的图像标注。
参考文献
[1]http://research.microsoft.com/en-us/projects/msrammdata/
实施例1
采用网络图像数据集MSRA-MM数据集中,选择80类图像,每类100张图像,共计8000张图像,提取64维的颜色直方图和255维的颜色纹理矩特征,构成319维的图像视觉特征表达进行试验,图2、图3分别展示两个标注实例。下面结合前面所述的方法步骤,具体说明该实施实例如下:
1)对网络图像数据集MSRA-MM数据集中,选择80类图像,每类100张图像,共计8000张图像,提取64维的颜色直方图和255维的颜色纹理矩特征,构成319维的图像视觉特征表达,得到图像特征集X=[x1,x2,...,xn]∈Rd×n,其中d=319为图像特征维度,n=8000为图像样本数;
2)构建表征图像视觉相似性关系的K近邻图结构,以图像特征集中样本作为K近邻图的顶点,K近邻图的边权重矩阵S设置如下:
其中,Νk(xj)和Νk(xi)分别表示xj和xi的K近邻,这个实例中设置K=10;
3)根据S矩阵,计算相应的拉普拉斯图矩阵L,计算公式如下:
L=S-D2
其中,D为对角矩阵,对角元素值
4)初始化用户标注图像样本z1为:
其中,(KXX)ij=K(xi,xj),K(·)为高斯核函数,定义为:K(x,y)=exp(-||x-y||2/2σ2),σ为核参数,设置为0.01,tr(·)为矩阵迹运算;
5)迭代计算任意第p+1个用户标注样本zp+1,直至选择到预定前30个标注样本,计算公式如下:
其中,Zp=[z1,...,zp]为所有前p个用户标注样本所构成的矩阵;
6)根据上面4)和5)选择出来的T个标注样本ZT=[z1,...,zT],使用LIBSVM工具包,训练多类别SVM分类器模型fsvm,然后基于训练的SVM分类模型fsvm对图像数据集中的图像进行图像类别判断,依据判别结果对图像进行标注,从而实现基于主动学习的图像标注。
Claims (1)
1.一种基于主动学习的网络图像标注方法,其特征在于包括如下步骤:
1)对网络图像数据集MSRA-MM数据集中,选择80类图像,每类100张图像,共计8000张图像,提取64维的颜色直方图和255维的颜色纹理矩特征,构成319维的图像视觉特征表达,得到图像特征集X=[x1,x2,...,xn]∈Rd×n,其中d=319为图像特征维度,n=8000为图像样本数;
2)构建表征图像视觉相似性关系的K近邻图结构,以图像特征集中样本作为K近邻图的顶点,K近邻图的边权重矩阵S设置如下:
其中,Νk(xj)和Νk(xi)分别表示xj和xi的K近邻;
3)根据S矩阵,计算相应的拉普拉斯图矩阵L,计算公式如下:
L=S-D 2
其中,D为对角矩阵,对角元素值
4)初始化用户标注图像样本z1为:
其中,(KXX)ij=K(xi,xj),K(·)为高斯核函数,定义为:K(x,y)=exp(-||x-y||2/2σ2),σ为核参数,tr(·)为矩阵迹运算;
5)迭代计算任意第p+1个用户标注样本zp+1,直至选择到预定T个标注样本,计算公式如下:
其中,Zp=[z1,...,zp]为所有前p个用户标注样本所构成的矩阵;
6)根据上面步骤4)和步骤5)选择出来的T个标注样本ZT=[z1,...,zT],训练多类别SVM分类器模型fsvm,然后基于训练的SVM分类模型fsvm对图像数据集中的图像进行图像类别判断,依据判别结果对图像进行标注,从而实现基于主动学习的图像标注。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410106864.1A CN103942561B (zh) | 2014-03-20 | 2014-03-20 | 一种基于主动学习的图像标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410106864.1A CN103942561B (zh) | 2014-03-20 | 2014-03-20 | 一种基于主动学习的图像标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103942561A true CN103942561A (zh) | 2014-07-23 |
CN103942561B CN103942561B (zh) | 2017-03-29 |
Family
ID=51190224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410106864.1A Active CN103942561B (zh) | 2014-03-20 | 2014-03-20 | 一种基于主动学习的图像标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103942561B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392253A (zh) * | 2014-12-12 | 2015-03-04 | 南京大学 | 一种草图数据集的交互式类别标注方法 |
CN105184326A (zh) * | 2015-09-30 | 2015-12-23 | 广东工业大学 | 基于图数据的主动学习多标签社交网络数据分析方法 |
CN107067025A (zh) * | 2017-02-15 | 2017-08-18 | 重庆邮电大学 | 一种基于主动学习的数据自动标注方法 |
CN107886104A (zh) * | 2016-09-30 | 2018-04-06 | 法乐第(北京)网络科技有限公司 | 一种图像的标注方法 |
CN107886105A (zh) * | 2016-09-30 | 2018-04-06 | 法乐第(北京)网络科技有限公司 | 一种图像的标注装置 |
CN108647264A (zh) * | 2018-04-28 | 2018-10-12 | 北京邮电大学 | 一种基于支持向量机的图像自动标注方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090125461A1 (en) * | 2007-11-09 | 2009-05-14 | Microsoft Corporation | Multi-Label Active Learning |
CN101853400A (zh) * | 2010-05-20 | 2010-10-06 | 武汉大学 | 基于主动学习和半监督学习的多类图像分类方法 |
CN103605667A (zh) * | 2013-10-28 | 2014-02-26 | 中国计量学院 | 一种图像自动标注算法 |
CN103617429A (zh) * | 2013-12-16 | 2014-03-05 | 苏州大学 | 一种主动学习分类方法和系统 |
-
2014
- 2014-03-20 CN CN201410106864.1A patent/CN103942561B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090125461A1 (en) * | 2007-11-09 | 2009-05-14 | Microsoft Corporation | Multi-Label Active Learning |
CN101853400A (zh) * | 2010-05-20 | 2010-10-06 | 武汉大学 | 基于主动学习和半监督学习的多类图像分类方法 |
CN103605667A (zh) * | 2013-10-28 | 2014-02-26 | 中国计量学院 | 一种图像自动标注算法 |
CN103617429A (zh) * | 2013-12-16 | 2014-03-05 | 苏州大学 | 一种主动学习分类方法和系统 |
Non-Patent Citations (2)
Title |
---|
张玉芳等: "一种基于SVM和主动学习的图像检索方法", 《计算机工程与应用》 * |
曹永锋等: "基于BvSBHC的主动学习多类分类算法", 《计算机科学》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392253A (zh) * | 2014-12-12 | 2015-03-04 | 南京大学 | 一种草图数据集的交互式类别标注方法 |
CN104392253B (zh) * | 2014-12-12 | 2017-05-10 | 南京大学 | 一种草图数据集的交互式类别标注方法 |
CN105184326A (zh) * | 2015-09-30 | 2015-12-23 | 广东工业大学 | 基于图数据的主动学习多标签社交网络数据分析方法 |
CN107886104A (zh) * | 2016-09-30 | 2018-04-06 | 法乐第(北京)网络科技有限公司 | 一种图像的标注方法 |
CN107886105A (zh) * | 2016-09-30 | 2018-04-06 | 法乐第(北京)网络科技有限公司 | 一种图像的标注装置 |
CN107067025A (zh) * | 2017-02-15 | 2017-08-18 | 重庆邮电大学 | 一种基于主动学习的数据自动标注方法 |
CN107067025B (zh) * | 2017-02-15 | 2020-12-22 | 重庆邮电大学 | 一种基于主动学习的文本数据自动标注方法 |
CN108647264A (zh) * | 2018-04-28 | 2018-10-12 | 北京邮电大学 | 一种基于支持向量机的图像自动标注方法及装置 |
CN108647264B (zh) * | 2018-04-28 | 2020-10-13 | 北京邮电大学 | 一种基于支持向量机的图像自动标注方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103942561B (zh) | 2017-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103942561A (zh) | 一种基于主动学习的图像标注方法 | |
US9449026B2 (en) | Sketch-based image search | |
US20210374453A1 (en) | Segmenting objects by refining shape priors | |
CN102651128B (zh) | 一种基于采样的图像集分割方法 | |
CN104217225A (zh) | 一种视觉目标检测与标注方法 | |
CN105354565A (zh) | 基于全卷积网络人脸五官定位与判别的方法及系统 | |
CN107122375A (zh) | 基于图像特征的图像主体的识别方法 | |
CN103745233B (zh) | 基于空间信息迁移的高光谱图像分类方法 | |
CN104156433B (zh) | 一种基于语义映射空间构建的图像检索方法 | |
CN106021406B (zh) | 一种数据驱动的迭代式图像在线标注方法 | |
CN109740686A (zh) | 一种基于区域池化和特征融合的深度学习图像多标记分类方法 | |
CN106844518B (zh) | 一种基于子空间学习的不完整跨模态检索方法 | |
CN104572940A (zh) | 一种基于深度学习与典型相关分析的图像自动标注方法 | |
CN111488873B (zh) | 一种基于弱监督学习的字符级场景文字检测方法和装置 | |
CN103295032B (zh) | 基于空间Fisher向量的图像分类方法 | |
CN105808762A (zh) | 资源排序方法和装置 | |
CN102024030A (zh) | 基于最大期望参数估计的多分类器集成方法 | |
CN103116893A (zh) | 基于多示例多标记学习的数字图像标注方法 | |
CN105976395A (zh) | 一种基于稀疏表示的视频目标跟踪方法 | |
CN108009248A (zh) | 一种数据分类方法和系统 | |
CN108664986A (zh) | 基于lp范数正则化的多任务学习图像分类方法及系统 | |
Pan et al. | Deep learning for object saliency detection and image segmentation | |
CN104484347A (zh) | 一种基于地理信息的层次化视觉特征提取方法 | |
CN103295026A (zh) | 基于空间局部聚合描述向量的图像分类方法 | |
Choudhuri et al. | Object localization on natural scenes: A survey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20190827 Address after: Room 601, No. 371 Xingxing Road, Xiaoshan Economic and Technological Development Zone, Hangzhou City, Zhejiang Province Patentee after: Hangzhou measurement data Technology Co., Ltd. Address before: Hangzhou City, Zhejiang province 311100 City Road No. 588 Fei Jia Tang building 424 room 4 Patentee before: HANGZHOU XISONG TECHNOLOGY CO., LTD. |