CN108595558B - 一种数据均衡策略和多特征融合的图像标注方法 - Google Patents

一种数据均衡策略和多特征融合的图像标注方法 Download PDF

Info

Publication number
CN108595558B
CN108595558B CN201810324274.4A CN201810324274A CN108595558B CN 108595558 B CN108595558 B CN 108595558B CN 201810324274 A CN201810324274 A CN 201810324274A CN 108595558 B CN108595558 B CN 108595558B
Authority
CN
China
Prior art keywords
image
features
calculating
feature
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810324274.4A
Other languages
English (en)
Other versions
CN108595558A (zh
Inventor
梁泉
张毓峰
田�健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian University of Technology
Original Assignee
Fujian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian University of Technology filed Critical Fujian University of Technology
Priority to CN201810324274.4A priority Critical patent/CN108595558B/zh
Publication of CN108595558A publication Critical patent/CN108595558A/zh
Application granted granted Critical
Publication of CN108595558B publication Critical patent/CN108595558B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种数据均衡策略和多特征融合的图像标注方法,包括:1、对训练图像进行语义分组;2、采用数据均衡策略对语义组进行扩充;3、将训练图像输入到训练好的深度卷积神经网络中,得到每个语义组中各图像的深度特征;4、计算每个语义组中各图像的多尺度融合特征;5、将多尺度融合特征与深度特征进行多特征融合,得到每个语义组中各图像的融合特征;6、提取待测试图像的浅层特征和深度特征,并进行特征融合,得到待测试图像的融合特征;7、计算待测试图像的融合特征与每个语义组中各图像的融合特征的视觉相似度并排序,得到图像标注结果,从而获得类别标签。本发明解决了针对训练集图像不平衡和单一特征特征表达能力不强的问题。

Description

一种数据均衡策略和多特征融合的图像标注方法
技术领域
本发明涉及模式识别与计算机视觉领域,尤其涉及一种数据均衡策略和多特征融合的图像标注方法。
背景技术
随着信息科学技术在计算机网络和多媒体领域的不断发展,各种高清摄像机,数码相机以及摄像头等电子成像产品得到广泛的使用和普及,极大的丰富了人们的工作、生活和学习。面对如此海量的图像信息,如何高效的组织和管理这些图像,使得人们可以在海量图像信息中快速准确的获取所需信息,是当今世界一个十分棘手的问题。图像的自动标注技术因其有着广泛的应用场景,所以也成为近年来在模式识别领域的一个重要研究方向。图像自动标注在很大程度上缓解了“语义鸿沟”所带来的人们的认知和机器理解之间的矛盾,大大推动了对图像语义信息的理解。图像自动标注的实现使得人们可以很好的掌握图像所蕴含的信息并且能够很方便的通过所描述的信息来获取自身所需的资源。同时,图像的自动标注是图像理解和图像检索的重要步骤。
近年来随着人工智能技术以及机器学习的快速发展,出现了多种图像自动标注模型。根据在建模方法上采用的不同思想,可以把图像自动标注模型大致分为两个类别。第一类图像自动标注模型是基于统计概率思想,第二类图像自动标注模型是基于分类思想。基于统计概率的方法主要是通过诸如图像的纹理、形状、颜色、边缘等底层视觉特征的提取,计算出其与某类或者某些关键词之间的相关性或联合概率,最后将概率最大或者关联程度最高的一个或者多个关键词作为该图的标注词。在基于分类思想的算法中,图像中的每一个类别或者说标签都是一个语义关键词,将图像的自动标注过程和图像的多分类做一个等价的转换。
传统分类器训练时数据非常不平衡,一部分标签出现次数多,训练充分;而另一部分标签出现次数少,训练不充分,导致低频标签准确率比高频标签准确率低很多,同时传统图像标注方法要么采用人工特征要么采用深度特征,不同方法需要提取不同特征,不仅难以应用于实际图像环境,特征的选取也完全依赖于专家经验,提取到的特征一般为浅层的特征,提取到的特征的不同对分类性能影响很大,甚至提取的特征的顺序也会影响最后的分类性能。深层特征提取能够降低特征选择对分类器的影响,但特征提取的可解释性较差,特征选择完全依赖于模型的选择,分类稳定性不佳。因此,我们提出了一种数据均衡策略和多特征融合的图像标注方法来改善图像标注的性能。
发明内容
本发明要解决的技术问题,在于提供一种数据均衡策略和多特征融合的图像标注方法,以克服现有技术中存在的缺陷,并解决针对训练图像集不平衡和单一特征特征表达能力不强的问题。
本发明的问题是这样实现的:
一种数据均衡策略和多特征融合的图像标注方法,包括如下步骤:
步骤S1、对训练图像进行语义分组,即将一个标签中所包含的所有图像作为一个语义组;
步骤S2、采用数据均衡策略对语义组进行扩充;
步骤S3、将训练图像输入到训练好的深度卷积神经网络中,通过卷积和下采样的多次迭代将训练图像抽象为特征向量,并得到每个语义组中各图像的深度特征;
步骤S4、计算每个语义组中各图像的多尺度融合特征;
步骤S5、将多尺度融合特征与由深度卷积神经网络计算得到的深度特征进行多特征融合,得到每个语义组中各图像的融合特征;
步骤S6、提取待测试图像的浅层特征和深度特征,并进行特征融合,得到待测试图像的融合特征;
步骤S7、计算待测试图像的融合特征与每个语义组中各图像的融合特征的视觉相似度并排序,得到图像标注结果,从而获得类别标签。
进一步地,在所述步骤S2中,采用数据均衡策略对语义组进行扩充,具体包括如下步骤:
步骤S21、计算数据集分类均衡数目
Figure BDA0001626074930000031
其中,count(sj)(1≤j≤c)表示的是该语义组对应的图像集数目,c表示语义组的数量;
步骤S22、对于数据集而言,如果某个语义组或者某些语义组对应的图像集数目大于或者等于数据集分类均衡数目:
Figure BDA0001626074930000032
则不进行数据集扩充,跳转到步骤S28;如果某个语义组或者某些语义组对应的图像集数目小于数据集分类均衡数目:
Figure BDA0001626074930000033
则进行数据集扩充,并且扩充的大小为
Figure BDA0001626074930000034
进入步骤步骤S23;
步骤S23、计算不同语义组标注词的最大加权复合特征距离:
Figure BDA0001626074930000035
和最小加权复合特征距离:
Figure BDA0001626074930000036
并且保存最小加权复合特征距离对应的特征向量作为基准向量:Xmin=[xmin1,xmin2........xminm],得到图像特征的均衡步长α=(xmin1+xmin2......+xminm)/m;
步骤S24、产生高斯随机向量Yi=[yi1,yi2.......yim];
步骤S25、用式子Xe=Xmin+αeβYi和Xe=[xe1,xe2......xem]计算出一个与训练图像具有同样特征维数大小的向量Xe,其中,β表示碰撞因子;
步骤S26、利用式子:
Figure BDA0001626074930000037
计算当前加权复合特征距离
Figure BDA0001626074930000038
其中,di-ho表示的是多尺度下HOG特征的空间度量,计算公式为:
Figure BDA0001626074930000039
dil-z表示的是LBP特征的空间度量,计算公式为:
Figure BDA00016260749300000310
参数μ和η分别表示不同特征度量下的调节因子;
步骤S27、如果
Figure BDA00016260749300000311
满足式子:
Figure BDA00016260749300000312
则将Xe合理的均衡样本:
Figure BDA00016260749300000313
加入该类图像的训练集合之中;如果
Figure BDA00016260749300000314
不满足式子:
Figure BDA00016260749300000315
则均衡样本不加入该类图像的训练集合之中;
步骤S28、对数据集中每个语义组重复上述步骤,当所有需要均衡的语义组的图像采用上述算法合理的扩充后,均衡算法结束。
进一步地,在所述步骤S4中,计算每个语义组中各图像的多尺度融合特征,具体包括如下步骤:
步骤S41、令分割后的图像区域集合为ψ(Z)={Z1,Z2...Zn},其中n为图像集中的元素个数,选择尺寸大小为w1×w2的提取窗口、b1×b2的提取块和c1×c2的提取单元;令窗口滑动步长大小为s1×s2
步骤S42、定义变量i,j,k,s分别为图像集中的元素个数、多尺度下图像组数、多尺度下图像层数的遍历变量和多尺度下的窗口个数;对于每一组遍历变量利用式:s=(((w1-b1)/s1)+1)×(((w2-b2)/s2)+1)×(b1×b2)/(c1×c2)计算出多尺度下的窗口个数s;
步骤S43、计算当前尺度下当前窗口内图像的局部特征向量:φ(Zi-j-k-s-hog);
步骤S44、计算该图像多尺度下的HOG特征向量:φ(Zi-multi-hog);
步骤S45、计算该图像的LBP纹理特征向量:φ(Zi-lbp);
步骤S46、计算该图像基于全局信息的HSV颜色特征向量:φ(Zi-hsv);
步骤S47、计算出该图像的多尺度特征向量:
φ(Zk}={φ(Zi-j-k-s-hog),φ(Zi-multi-hog),φ(Zi-lbp),φ(Zi-hsv)}(1≤k≤n}。
本发明的优点在于:本发明通过数据均衡策略解决了传统分类器训练时数据非常不平衡,一部分标签出现次数多,训练充分;而另一部分标签出现次数少,训练不充分,导致低频标签准确率比高频标签准确率低很多和单一特征提取对于图像标注效果不佳的问题;通过采用多特征融合策略解决了采用人工特征时特征的选取也完全依赖于专家经验,提取到的特征一般为浅层的特征,表达能力不够,提取到的特征的不同对分类性能影响很大的问题和深层特征分类稳定性不佳的问题。
附图说明
下面参照附图结合实施例对本发明作进一步的说明。
图1为本发明一种数据均衡策略和多特征融合的图像标注方法的执行流程图。
具体实施方式
为使得本发明更明显易懂,现以一优选实施例,并配合附图作详细说明如下。
如图1所示,本发明的一种数据均衡策略和多特征融合的图像标注方法,该方法先采用数据均衡策略对图像训练的语义组进行扩充,并将其输入到训练好的深度卷积神经网络中,通过卷积和下采样的多次迭代将图像抽象为深度特征向量,并得到每个语义组图像的特征;然后计算每个语义组的多尺度融合特征;并将其与深度卷积神经网络计算得到的深度特征进行多特征融合;得到语义组的完整特征表示。将待标注的图像采用相同的方法提取特征同语义组中的特征库比对,得到图像标注结果,从而获得类别标签。具体包括如下步骤:
步骤S1、对训练图像进行语义分组(根据语义类别进行分组),即将一个标签中所包含的所有图像作为一个语义组;
步骤S2、采用数据均衡策略对语义组进行扩充;该步骤具体如下:
步骤S21、计算数据集分类均衡数目
Figure BDA0001626074930000051
其中,count(sj)(1≤j≤c)表示的是该语义组对应的图像集数目,c表示语义组的数量;
步骤S22、对于数据集而言,如果某个语义组或者某些语义组对应的图像集数目大于或者等于数据集分类均衡数目:
Figure BDA0001626074930000052
则不进行数据集扩充,跳转到步骤S28;如果某个语义组或者某些语义组对应的图像集数目小于数据集分类均衡数目:
Figure BDA0001626074930000053
则进行数据集扩充,并且扩充的大小为
Figure BDA0001626074930000054
进入步骤步骤S23;
步骤S23、计算不同语义组标注词的最大加权复合特征距离:
Figure BDA0001626074930000055
和最小加权复合特征距离:
Figure BDA0001626074930000056
并且保存最小加权复合特征距离对应的特征向量作为基准向量:Xm i n=[xmin1,xmin2........xminm],得到图像特征的均衡步长α=(xmin1+xmin2......+xminm)/m;
步骤S24、产生高斯随机向量Yi=[yi1,yi2.......yim];本发明是使用Box-Muller算法产生高斯随机向量Yi=[yi1,yi2.......yim],本步骤的核心思想是先得到服从均匀分布的随机数,再将服从均匀分布的随机数转变为服从高斯分布,该算法能够在极短时间内产生所需的随机数;
步骤S25、用式子Xe=Xmin+αeβYi和Xe=[xe1,xe2......xem]计算出一个与训练图像具有同样特征维数大小的向量Xe,其中,β表示碰撞因子,其作用主要在于使得扩充的图像集具备合理性,因为我们期望的一个事实是扩充之后的图像所提取的特征在该类别的集合中不能产生较大的波动,若是大大超过或者远远小于该类别图像的特征度量标准(本文中采用的是加权复合特征距离),那么可能会导致扩充之后的图像并不属于该类别,这样会直接导致机器学习上的混乱,不止没有提高分类的效果,反而会降低分类效果;Xe表示的是一个与训练图像具有同样特征维数大小的向量,例如本文中图像的多尺度融合特征的大小为m维,则该向量的大小也为m维;
步骤S26、利用式子:
Figure BDA0001626074930000061
计算当前加权复合特征距离
Figure BDA0001626074930000062
其中,di-ho表示的是多尺度下HOG特征的空间度量,计算公式为:
Figure BDA0001626074930000063
dil-z表示的是LBP特征的空间度量,计算公式为:
Figure BDA0001626074930000064
参数μ和η分别表示不同特征度量下的调节因子;
步骤S27、如果
Figure BDA0001626074930000065
满足式子:
Figure BDA0001626074930000066
则将Xe合理的均衡样本:
Figure BDA0001626074930000067
加入该类图像的训练集合之中;如果
Figure BDA0001626074930000068
不满足式子:
Figure BDA0001626074930000069
则均衡样本不加入该类图像的训练集合之中;
步骤S28、对数据集中每个语义组重复上述步骤,当所有需要均衡的语义组的图像采用上述算法合理的扩充后,均衡算法结束;
步骤S3、将训练图像输入到训练好的深度卷积神经网络中,通过卷积和下采样的多次迭代将训练图像抽象为特征向量,并得到每个语义组中各图像的深度特征;
步骤S4、计算每个语义组中各图像的多尺度融合特征;该步骤具体如下:
步骤S41、令分割后的图像区域集合为ψ(Z)={Z1,Z2...Zn},其中n为图像集中的元素个数,选择尺寸大小为w1×w2的提取窗口(window)、b1×b2的提取块(block)和c1×c2的提取单元(cell);令窗口滑动步长(step)大小为s1×s2
步骤S42、定义变量i,j,k,s分别为图像集中的元素个数、多尺度下图像组数、多尺度下图像层数的遍历变量和多尺度下的窗口个数;对于每一组遍历变量利用式:s=(((w1-b1)/s1)+1)×(((w2-b2)/s2)+1)×(b1×b2)/(c1×c2)计算出多尺度下的窗口个数s;
步骤S43、计算当前尺度下当前窗口内图像的局部特征向量:φ(Zi-j-k-s-hog);
步骤S44、计算该图像多尺度下的HOG特征向量:φ(Zi-multi-hog);
步骤S45、计算该图像的LBP纹理特征:φ(Zi-lbp),该LBP纹理特征和HOG特征向量提取方式的不同在于:此时的各个提取块block之间没有重叠;
步骤S46、计算该图像基于全局信息的HSV颜色特征向量:φ(Zi-hsv);
步骤S47、计算出该图像的多尺度特征向量:
φ(Zk}={φ(Zi-j-k-s-hog),φ(Zi-multi-hog),φ(Zi-lbp),φ(Zi-hsv)}(1≤k≤n};
步骤S5、将多尺度融合特征与由深度卷积神经网络计算得到的深度特征进行多特征融合,得到每个语义组中各图像的融合特征;
步骤S6、提取待测试图像的浅层特征和深度特征,并进行特征融合,得到待测试图像的融合特征;
步骤S7、计算待测试图像的融合特征与每个语义组中各图像的融合特征的视觉相似度并排序,得到图像标注结果,从而获得类别标签。
综上所述,本发明的优点如下:
本发明通过数据均衡策略解决了传统分类器训练时数据非常不平衡,一部分标签出现次数多,训练充分;而另一部分标签出现次数少,训练不充分,导致低频标签准确率比高频标签准确率低很多和单一特征提取对于图像标注效果不佳的问题;通过采用多特征融合策略解决了采用人工特征时特征的选取也完全依赖于专家经验,提取到的特征一般为浅层的特征,表达能力不够,提取到的特征的不同对分类性能影响很大的问题和深层特征分类稳定性不佳的问题。
虽然以上描述了本发明的具体实施方式,但是熟悉本技术领域的技术人员应当理解,我们所描述的具体的实施例只是说明性的,而不是用于对本发明的范围的限定,熟悉本领域的技术人员在依照本发明的精神所作的等效的修饰以及变化,都应当涵盖在本发明的权利要求所保护的范围内。

Claims (1)

1.一种数据均衡策略和多特征融合的图像标注方法,其特征在于:包括如下步骤:
步骤S1、对训练图像进行语义分组,即将一个标签中所包含的所有图像作为一个语义组;
步骤S2、采用数据均衡策略对语义组进行扩充;
步骤S3、将训练图像输入到训练好的深度卷积神经网络中,通过卷积和下采样的多次迭代将训练图像抽象为特征向量,并得到每个语义组中各图像的深度特征;
步骤S4、计算每个语义组中各图像的多尺度融合特征;
步骤S5、将多尺度融合特征与由深度卷积神经网络计算得到的深度特征进行多特征融合,得到每个语义组中各图像的融合特征;
步骤S6、提取待测试图像的浅层特征和深度特征,并进行特征融合,得到待测试图像的融合特征;
步骤S7、计算待测试图像的融合特征与每个语义组中各图像的融合特征的视觉相似度并排序,得到图像标注结果,从而获得类别标签;
在所述步骤S2中,采用数据均衡策略对语义组进行扩充,具体包括如下步骤:
步骤S21、计算数据集分类均衡数目
Figure FDA0003463936400000011
其中,count(sj)(1≤j≤c)表示的是该语义组对应的图像集数目,c表示语义组的数量;
步骤S22、对于数据集而言,如果某个语义组或者某些语义组对应的图像集数目大于或者等于数据集分类均衡数目:
Figure FDA0003463936400000012
则不进行数据集扩充,跳转到步骤S28;如果某个语义组或者某些语义组对应的图像集数目小于数据集分类均衡数目:
Figure FDA0003463936400000013
则进行数据集扩充,并且扩充的大小为
Figure FDA0003463936400000014
进入步骤步骤S23;
步骤S23、计算不同语义组标注词的最大加权复合特征距离:
Figure FDA0003463936400000021
和最小加权复合特征距离:
Figure FDA0003463936400000022
并且保存最小加权复合特征距离对应的特征向量作为基准向量:Xmin=[xmin1,xmin2........xminm],得到图像特征的均衡步长α=(xmin1+xmin2......+xminm)/m;
步骤S24、产生高斯随机向量Yi=[yi1,yi2.......yim];
步骤S25、用式子Xe=Xmin+αeβYi和Xe=[xe1,xe2......xem]计算出一个与训练图像具有同样特征维数大小的向量Xe,其中,β表示碰撞因子;
步骤S26、利用式子:
Figure FDA0003463936400000023
计算当前加权复合特征距离
Figure FDA0003463936400000024
其中,di-ho表示的是多尺度下HOG特征的空间度量,计算公式为:
Figure FDA0003463936400000025
dil-z表示的是LBP特征的空间度量,计算公式为:
Figure FDA0003463936400000026
参数μ和η分别表示不同特征度量下的调节因子;
步骤S27、如果
Figure FDA0003463936400000027
满足式子:
Figure FDA0003463936400000028
则将Xe合理的均衡样本:
Figure FDA0003463936400000029
k=k+1加入该语义组图像的训练集合之中;如果
Figure FDA00034639364000000210
不满足式子:
Figure FDA00034639364000000211
则均衡样本不加入图像的训练集合之中;
步骤S28、对数据集中每个语义组重复上述步骤,当所有需要均衡的语义组的图像采用上述步骤S21至步骤S27的方法合理的扩充后,均衡算法结束;
在所述步骤S4中,计算每个语义组中各图像的多尺度融合特征,具体包括如下步骤:
步骤S41、令分割后的图像区域集合为ψ(Z)={Z1,Z2...Zn},其中n为图像集中的元素个数,选择尺寸大小为w1×w2的提取窗口、b1×b2的提取块和c1×c2的提取单元;令窗口滑动步长大小为s1×s2
步骤S42、定义变量i,j,k,s分别为图像集中的元素个数、多尺度下图像组数、多尺度下图像层数的遍历变量和多尺度下的窗口个数;对于每一组遍历变量利用式:s=(((w1-b1)/s1)+1)×(((w2-b2)/s2)+1)×(b1×b2)/(c1×c2)计算出多尺度下的窗口个数s;
步骤S43、计算当前尺度下当前窗口内图像的局部特征向量:φ(Zi-j-k-s-hog);
步骤S44、计算该图像多尺度下的HOG特征向量:φ(Zi-multi-hog);
步骤S45、计算该图像的LBP纹理特征向量:φ(Zi-lbp);
步骤S46、计算该图像基于全局信息的HSV颜色特征向量:φ(Zi-hsv);
步骤S47、计算出该图像的多尺度特征向量:
φ(Zk}={φ(Zi-j-k-s-hog),φ(Zi-multi-hog),φ(Zi-lbp),φ(Zi-hsv)}(1≤k≤n}。
CN201810324274.4A 2018-04-12 2018-04-12 一种数据均衡策略和多特征融合的图像标注方法 Active CN108595558B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810324274.4A CN108595558B (zh) 2018-04-12 2018-04-12 一种数据均衡策略和多特征融合的图像标注方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810324274.4A CN108595558B (zh) 2018-04-12 2018-04-12 一种数据均衡策略和多特征融合的图像标注方法

Publications (2)

Publication Number Publication Date
CN108595558A CN108595558A (zh) 2018-09-28
CN108595558B true CN108595558B (zh) 2022-03-15

Family

ID=63622104

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810324274.4A Active CN108595558B (zh) 2018-04-12 2018-04-12 一种数据均衡策略和多特征融合的图像标注方法

Country Status (1)

Country Link
CN (1) CN108595558B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784223B (zh) * 2018-12-28 2020-09-01 珠海大横琴科技发展有限公司 一种基于卷积神经网络的多时相遥感影像匹配方法及系统
CN110689066B (zh) * 2019-09-24 2020-06-16 成都考拉悠然科技有限公司 一种人脸识别数据均衡与增强相结合的训练方法
TWI732370B (zh) 2019-12-04 2021-07-01 財團法人工業技術研究院 神經網路模型的訓練裝置和訓練方法
CN111858349A (zh) * 2020-07-23 2020-10-30 深圳慕智科技有限公司 一种基于图像语义切割合并的语义扩增方法
CN112732967B (zh) * 2021-01-08 2022-04-29 武汉工程大学 图像自动标注方法、系统及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103440651A (zh) * 2013-08-26 2013-12-11 北京理工大学 一种基于秩最小化的多标签图像标注结果融合方法
CN103473275A (zh) * 2013-08-23 2013-12-25 中山大学 一种采用多特征融合的图像自动标注方法和系统
CN104021224A (zh) * 2014-06-25 2014-09-03 中国科学院自动化研究所 基于逐层标签融合深度网络的图像标注方法
CN105701502A (zh) * 2016-01-06 2016-06-22 福州大学 一种基于蒙特卡罗数据均衡的图像自动标注方法
CN105701516A (zh) * 2016-01-20 2016-06-22 福州大学 一种基于属性判别的自动图像标注方法
CN106250915A (zh) * 2016-07-22 2016-12-21 福州大学 一种融合深度特征和语义邻域的自动图像标注方法
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
CN107862340A (zh) * 2017-11-16 2018-03-30 深圳市华尊科技股份有限公司 一种车型识别方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473275A (zh) * 2013-08-23 2013-12-25 中山大学 一种采用多特征融合的图像自动标注方法和系统
CN103440651A (zh) * 2013-08-26 2013-12-11 北京理工大学 一种基于秩最小化的多标签图像标注结果融合方法
CN104021224A (zh) * 2014-06-25 2014-09-03 中国科学院自动化研究所 基于逐层标签融合深度网络的图像标注方法
CN105701502A (zh) * 2016-01-06 2016-06-22 福州大学 一种基于蒙特卡罗数据均衡的图像自动标注方法
CN105701516A (zh) * 2016-01-20 2016-06-22 福州大学 一种基于属性判别的自动图像标注方法
CN106250915A (zh) * 2016-07-22 2016-12-21 福州大学 一种融合深度特征和语义邻域的自动图像标注方法
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
CN107862340A (zh) * 2017-11-16 2018-03-30 深圳市华尊科技股份有限公司 一种车型识别方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《基于蒙特卡罗数据集均衡与鲁棒性增量极限学习机的图像自动标注》;柯逍;《电子学报》;20171231;第45卷(第12期);第2925-2934页 *

Also Published As

Publication number Publication date
CN108595558A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
CN108595558B (zh) 一种数据均衡策略和多特征融合的图像标注方法
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN108681752B (zh) 一种基于深度学习的图像场景标注方法
CN109614979B (zh) 一种基于选择与生成的数据增广方法及图像分类方法
CN109815826B (zh) 人脸属性模型的生成方法及装置
CN106547880B (zh) 一种融合地理区域知识的多维度地理场景识别方法
CN112184752A (zh) 一种基于金字塔卷积的视频目标跟踪方法
WO2017113232A1 (zh) 一种基于深度学习的产品分类方法及装置
Meng et al. Weakly supervised semantic segmentation by a class-level multiple group cosegmentation and foreground fusion strategy
CN109741268B (zh) 一种针对壁画的破损图像补全方法
CN106778852A (zh) 一种修正误判的图像内容识别方法
CN113326731A (zh) 一种基于动量网络指导的跨域行人重识别算法
CN109284779A (zh) 基于深度全卷积网络的物体检测方法
CN112364791B (zh) 一种基于生成对抗网络的行人重识别方法和系统
CN109829414B (zh) 一种基于标签不确定性和人体组件模型的行人再识别方法
CN110378911B (zh) 基于候选区域和邻域分类器的弱监督图像语义分割方法
CN112200245A (zh) 一种基于半监督的图像分类方法
CN110909741A (zh) 一种基于背景分割的车辆再识别方法
CN110895795A (zh) 改进的语义图像修补模型方法
CN109711411B (zh) 一种基于胶囊神经元的图像分割识别方法
CN112561926A (zh) 三维图像分割方法、系统、存储介质及电子设备
CN115482387A (zh) 基于多尺度类别原型的弱监督图像语义分割方法及系统
CN110111365B (zh) 基于深度学习的训练方法和装置以及目标跟踪方法和装置
CN113408651B (zh) 基于局部判别性增强的无监督三维物体分类方法
CN108717436B (zh) 一种基于显著性检测的商品目标快速检索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant