CN105701516B - 一种基于属性判别的自动图像标注方法 - Google Patents

一种基于属性判别的自动图像标注方法 Download PDF

Info

Publication number
CN105701516B
CN105701516B CN201610036626.7A CN201610036626A CN105701516B CN 105701516 B CN105701516 B CN 105701516B CN 201610036626 A CN201610036626 A CN 201610036626A CN 105701516 B CN105701516 B CN 105701516B
Authority
CN
China
Prior art keywords
image
keyword
attribute
frequency
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610036626.7A
Other languages
English (en)
Other versions
CN105701516A (zh
Inventor
柯逍
周铭柯
杜明智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201610036626.7A priority Critical patent/CN105701516B/zh
Publication of CN105701516A publication Critical patent/CN105701516A/zh
Application granted granted Critical
Publication of CN105701516B publication Critical patent/CN105701516B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于属性判别的自动图像标注方法:针对数据集不均衡导致整体标注效果不理想的问题,提出一种基于属性判别的图像标注方法,利用每一个关键词的语义概念构建局部均衡数据集,并基于此数据集提出一种有效提升中低频标签标注准确率的语义传播算法。最后结合栈式自动编码器模型,通过判别图像的高低频属性来选择不同标注过程,提升了整体图像标注效果。该方法利用SAE模型较好预测高频标签和SP算法较好预测中低频标签的特点,通过判别未知图像的高低频属性来选择不同的标注过程,提升了整个模型的标注效果,该方法简单灵活,具有较强的实用性。

Description

一种基于属性判别的自动图像标注方法
技术领域
本发明涉及模式识别与计算机视觉领域,特别是一种基于属性判别的自动图像标注方法。
背景技术
随着多媒体影像技术快速发展,互联网上图像信息呈爆炸性增长。这些数字图像的应用非常广泛,如商业、新闻媒体、医学、教育等方面。因此,如何帮助用户快速、准确地找到需要的图像成为近年来多媒体研究的热点课题之一。而解决这一课题最重要的技术就是图像检索和自动图像标注技术。
自动图像标注是指自动给图像添加若干关键词来表示图像的语义内容。自动图像标注可以利用已标注的图像集,自动学习语义概念空间与视觉特征空间的关系模型,并用此模型标注未知语义的图像。一方面,自动图像标注试图给高层语义特征和底层视觉特征之间建立一座桥梁,因此,它可以一定程度解决大多数基于内容图像检索方法存在的语义鸿沟问题,并且具有较好的客观性。另一方面,自动图像标注可以生成与图像内容相关的文字信息,具有更好的准确性。如果能实现自动图像标注,那么现有的图像检索问题实际上可以转化成较成熟的文本检索问题。因此,图像自动标注技术可以很方便地实现基于关键字的图像检索,符合人们的检索习惯。总的来说,自动图像标注涉及计算机视觉、机器学习、信息检索等多方而的内容,具有很强的研究价值和潜在的商业应用,如图像分类、图像检索、图像理解以及智能图像分析等。
根据现有自动图像标注方法的主要实现特点,可以分为两类:基于概率统计的标注方法和基于机器学习的标注方法。基于概率统计的方法虽然可以很方便的扩展到大数据集,但总体标注效果不够理想。基于机器学习的方法,一旦模型训练完毕,就可以进行快速标注,然而大部分图像标注方法都仅用一个模型预测所有的测试图像,只要模型训练好了,每一张测试图片的结果就已经确定了。即便对模型进行了改进,测试效果好的还是原先效果好的那些图片,原本效果不好的图片,改进模型后测试效果还是不够理想。针对这种情况,我们提出了一种基于属性判别的方法。即,在测试每一张图片时,先判断这张图片适合用哪一种模型测试,然后再用最合适的模型进行预测。
发明内容
本发明的目的在于提供一种基于属性判别的自动图像标注方法,以克服现有技术中存在的缺陷,并解决针对多对象多标签的自动图像标注问题。
为实现上述目的,本发明的技术方案是:一种基于属性判别的自动图像标注方法,按照如下步骤实现:
步骤S1:根据每一个关键词对训练集划分语义组,构造未知图像的局部均衡数据集;
步骤S2:利用整个训练集训练栈式自动编码器,获取栈式自动编码器模型;
步骤S3:利用所述局部均衡数据集训练语义重播模型;
步骤S4:从所述语义组中获得全局词频信息,从所述局部均衡数据集中获得局部词频信息,对所述全局词频信息以及所述局部词频信息取交集对未知图像进行属性判别;若判别未知图像为高频属性,则通过所述栈式自动编码器模型预测关键词;若判别未知图像为低频属性,则通过所述语义传播模型预测关键词。
在本发明一实施例中,在所述步骤S1中,通过如下步骤构造所述局部均衡数据集:
步骤S11:划分每一个标签所包含的所有图像为一个语义组,对于每一幅测试图像I,从每一个语义组中选取n幅与所述测试图像I视觉相似度最高的图像构造子训练集;
步骤S12:把每一幅选出来的图像作为一个图像对象,且仅表示一个语义概念,即其所在语义组的语义概念,所述测试图像I的子训练集包含所有关键词,并且每个关键词的出现频次一致,进而得到局部均衡数据集。
在本发明一实施例中,在所述步骤S2中,还包括如下步骤:
步骤S21:定义编码器fθ以及解码器gθ';所述编码器fθ将输入图像x转换为隐层表达h;所述解码器gθ'将所述隐层表达h重构为与所述输入图像x维度一致的向量x';其中,fθ(x)=σ(W·x+b),θ={W,b},W为网络权重,满足W'=WT,b为偏置向量,为激活函数;θ'={W',b'};
步骤S22:学习一个函数使输出x'=gθ'(fθ(x))与x近似,且定义损失函数为L(x,x')=(x-x')2,并通过最小化损失函数进行学习:
步骤S23:记用于图像标注的栈式自动编码器模型有L层,并用序号l∈{1,...,L}表示,用hl表示第l层的输出向量,Wl和bl表示第l层的网络权重和偏置,通过自动编码器对{Wl,bl}以及l∈{1,...,L}逐层预训练;
步骤S24:执行前馈过程并用后向传播算法调优;所述栈式自动编码器模型的前馈操作表述为:hl+1=σ(Wl+1hl+bl+1),l∈{0,...,L-1};所述栈式自动编码器模型的后向传播算法调优表述为:其中,是多个自动编码器模型的合成函数,θl为参数{Wl,bl},l∈{1,...,L},损失函数为L(x,y)=(x-y)2;当模型训练好后,所述栈式自动编码器模型的最后一层的输出即为预测图像的关键词的预测分布D。
在本发明一实施例中,在所述步骤S3中,还包括如下步骤:
步骤S31:构建语义传播求解模型,令G={(y1,X1),(y2,X2),...,(yM,XM)},yi表示关键词,Xi表示每一个关键词以及该关键词所包含的所有图像,Xi和Xj中的图像可重复,i,j∈{1,...,M},i≠j;用条件概率P(x|yi)建立给定关键词yi∈Y的输入图像x的特征分布,将图像标注转化为求解后验概率的问题:其中,P(yi)和P(x)为先验概率,取固定值;对于测试图像I,其最佳标签为:
步骤S32:求解传播模型的后验概率,令Gi=(yi,Xi),对于测试图像I,从Gi中的Xi中挑选n幅与测试图像I视觉距离最近的图像构成子集每一个集合GI,i是测试图像I对应于标签yi的语义组;确定GI,i后,合并为一个集合GI={GI,1∪...∪GI,M},且各GI,i间的关键词不同,但有相同的图像,得到进而针对测试图像I的局部均衡数据集
步骤S33:在集合GI中的每一个关键词都将出现n次,定义给定标签yk∈Y的图像I的后验概率:其中,P(yk|xi)∈{0,1}表示当图像xi所在语义组GI,i的语义概念等于标签yk时为1,否则为0,表示图像xi的权重,并按如下方式计算:其中,Dis(I,xi)表示图像I和xi间的欧式距离。
在本发明一实施例中,在所述步骤S4中,还包括如下步骤:
步骤S41:问题定义,对于一幅测试图像I,构造标签出现次数均匀的局部均衡数据 集GI,再从该局部均衡数据集中GI取m幅与测试图像I距离最近的图像包括且包含的图像幅数为m;将表示为N维向量当时,表 示包含图像xj,当时,表示不包含图像xj
步骤S42:建立未知图像的预测分布D:
其中,ε为常系数,用于控制图像I的属 性的判别;φ(yi)用于判定在集合P中关键词是否属于高频关键词,并定义如下:
其中,ci表示第i个关键词的出现次数,η为常系数,当φ(yi)=1时,表示yi在P中为高频关键词,当φ(yi)=0时,则相反;
用于判定在集合中关键词是否属于高频关键词,并定义如下:
其中,τ为常系数,当时,表示yi中为高频关键词,当时,则相反;若与测试图像I距离最近的m个邻居中(m可取M的倍数,比如,m=1·M,2·M,...),含高频词的邻居超过了一定的比例,即(ε一般取3或4),则测试图像I的预测结果由SAE(x)决定,反之,测试图像I的预测结果由决定。
相较于现有技术,本发明具有以下有益效果:本发明提出的一种基于属性判别的自动图像标注方法,利用SAE深度神经网络强大的特征表达能力,本专利基于对自动图像标注、局部语义传播、图像集高低词频特点和栈式自动编码器的认识,提出针对图像数据集标签不平衡、单个标注模型标注效果差等问题的属性判别的自动图像标注方法,最后得到一种概率统计和判别分类融合的自动图像标注模型,特别是一种基于属性判别的自动图像标注方法。该方法简单,实现灵活,实用性较强。
附图说明
图1为本发明基于属性判别的自动图像标注方法的流程图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
本发明提供一种基于属性判别的自动图像标注方法,如图1所示,针对数据集不均衡导致整体标注效果不理想的问题,提出一种基于属性判别的图像标注方法,利用每一个关键词的语义概念构建局部均衡数据集,并基于此数据集提出一种有效提升中低频标签标注准确率的语义传播算法(Semantic Propagation,SP)。最后结合栈式自动编码器(Stacked Auto-Encoder,SAE)模型,通过判别图像的高低频属性来选择不同标注过程,提升了整体图像标注效果。具体步骤如下:
S1:根据每一个关键词对训练集划分语义组,构造未知图像的局部均衡数据集;
S2:利用整个训练集训练栈式自动编码器(SAE);
S3:利用局部均衡数据集训练语义重播模型(SP);
S4:分别从语义组和局部均衡数据集获得全局词频信息和局部词频信息,对全局高频词信息和局部高频词信息取交集进行未知图像的属性判别,若判别未知图像为高频属性,则用步骤S2训练好的SAE模型预测关键词;若判别未知图像为低频属性,则用步骤S3训练好的语义传播模型预测关键词。
进一步的,在本实施例中,在步骤S1中,构造局部均衡数据集还包括如下过程:划分每一个标签所包含的所有图像为一个语义组(不同语义组间允许有相同的图像),对于每一幅测试图像I,从每一个语义组中选取n幅和图像I视觉相似度最高的图像构造子训练集。并且把每一幅选出来的图像看成一个图像对象,仅表示一个语义概念,即它所在语义组的语义概念。因此,图像I的子训练集包含所有关键词,并且每个关键词的出现频次一致,得到了局部均衡数据集。
进一步的,在本实施例中,在步骤S2中训练SAE模型,按照以下步骤实现:
步骤S21:定义编码器fθ和解码器gθ',编码器fθ将输入图像x转换为隐层表达h,解码器gθ'将h重构为和x维度一致的向量x'。fθ(x)=σ(W·x+b),其中,θ={W,b},W为网络权重,满足W'=WT,b为偏置向量,为激活函数。其中,θ'={W',b'}。
步骤S22:学习一个函数使输出x'=gθ'(fθ(x))和x近似,定义损失函数为L(x,x')=(x-x')2,则该模型可通过最小化损失函数进行学习:
步骤S23:执行前馈过程并用后向传播算法调优,假设用于图像标注的SAE模型有L 层,用序号l∈{1,...,L}表示。用hl表示第l层的输出向量(h0=x表示输入,hL表示输出)。Wl 和bl表示第l层的网络权重和偏置。根据前面所述,{Wl,bl},l∈{1,...,L}使用AE逐层预训 练。SAE的前馈操作可以表述为:hl+1=σ(Wl+1hl+bl+1),l∈{0,...,L-1},整个模型用后向传 播算法调优:其中,是多个AE模型的合成 函数,而θl为参数{Wl,bl},l∈{1,...,L},损失函数定义为L(x,y)=(x-y)2,当模型训练好 后,SAE的最后一层的输出即为预测图像的关键词的预测分布D。
进一步的,在本实施例中,在步骤S3中训练SP模型按照以下步骤实现:
步骤S31:构建语义传播求解模型,令G={(y1,X1),(y2,X2),...,(yM,XM)},yi表示关键词,Xi表示每一个关键词和该关键词所包含的所有图像,Xi和Xj中的图像可重复,i,j∈{1,...,M},i≠j。用条件概率P(x|yi)建立给定关键词yi∈Y的图像x的特征分布。这样,将图像标注转化为求解后验概率的问题:其中,P(yi)和P(x)为先验概率,取固定值。因此,对于测试图像I,它的最佳标签可这样得到:
步骤S32:求解传播模型的后验概率,令Gi=(yi,Xi),对于测试图像I,从Gi中的Xi中挑选n幅和I视觉距离最近的图像构成子集每一个集合GI,i是图像I对应于标签yi的语义组。一旦GI,i确定后,将它们合并为一个集合GI={GI,1∪...∪GI,M},各GI,i间的关键词不同,但可以有相同的图像。通过这一方法,我们得到一个针对图像I的局部均衡数据集这样就容易知道,在集合GI中的每一个关键词都将出现n次(GI,i中的图像数少于n的情况除外)。定义给定标签yk∈Y的图像I的后验概率:其中,P(yk|xi)∈{0,1}表示当图像xi所在语义组GI,i的语义概念等于标签yk时为1,否则为0,表示图像xi的权重,按如下方式计算:其中,Dis(I,xi)表示图像I和xi间的欧式距离。
进一步的,在本实施例中,在步骤S4中判别未知图像属性按照以下步骤实现:
步骤S41:问题定义,对于一幅测试图像I,构造标签出现次数均匀的局部均衡数据 集GI,再从GI取m幅和I距离最近的图像需要 注意的是,可能为(因为从GI中取出的m幅图像,可能都不包含在中),且包含的图像幅数为m。为了讨论方便,将表示成N维向量当时,表示包含图像xj,当时,表示不包含图像xj
步骤S42:建立未知图像的预测分布D:
其中,ε为常系数,用于控制图像I的属 性的判别,φ(yi)用于判定在集合P中哪些关键词属于高频关键词,哪些不属于,定义如下:
其中,ci表示第i个关键词的出现次数,η为常系数,当φ(yi)=1时,表示yi在P中为高频关键词,当φ(yi)=0时,则相反。用于判定在集合中哪些关键词属于高频关键词,哪些不属于,定义如下:
其中,τ为常系数,当时,表示yi中为高频关键词,当时,则相反。由此可知,若和图像I距离最近的m个邻居中,m可取M的倍数,比如,m=1·M,2·M,...,含高频词的邻居超过了一定的比例,即ε一般取3或4,则图像I的预测结果由SAE(x)决定,反之,图像I的预测结果由决定。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (4)

1.一种基于属性判别的自动图像标注方法,其特征在于,按照如下步骤实现:
步骤S1:根据每一个关键词对训练集划分语义组,构造未知图像的局部均衡数据集;
步骤S2:利用整个训练集训练栈式自动编码器,获取栈式自动编码器模型;
步骤S3:利用所述局部均衡数据集训练语义传播模型;
步骤S4:从所述语义组中获得全局词频信息,从所述局部均衡数据集中获得局部词频信息,对所述全局词频信息以及所述局部词频信息取交集对未知图像进行属性判别;若判别未知图像为高频属性,则通过所述栈式自动编码器模型预测关键词;若判别未知图像为低频属性,则通过所述语义传播模型预测关键词;
在所述步骤S3中,还包括如下步骤:
步骤S31:构建语义传播求解模型,令G={(y1,X1),(y2,X2),...,(yM,XM)},yi表示关键词,Xi表示每一个关键词以及该关键词所包含的所有图像,Xi和Xj中的图像可重复,i,j∈{1,...,M},i≠j;用条件概率P(x|yi)建立给定关键词yi∈Y的输入图像x的特征分布,将图像标注转化为求解后验概率的问题:其中,P(yi)和P(x)为先验概率,取固定值;对于测试图像I,其最佳标签为:
步骤S32:求解传播模型的后验概率,令Gi=(yi,Xi),对于测试图像I,从Gi中的Xi中挑选n幅与测试图像I视觉距离最近的图像构成子集每一个集合GI,i是测试图像I对应于标签yi的语义组;确定GI,i后,合并为一个集合GI={GI,1∪...∪GI,M},且各GI,i间的关键词不同,但有相同的图像,得到进而针对测试图像I的局部均衡数据集
步骤S33:在集合GI中的每一个关键词都将出现n次,定义给定标签yk∈Y的图像I的后验概率:其中,P(yk|xi)∈{0,1}表示当图像xi所在语义组GI,i的语义概念等于标签yk时为1,否则为0,表示图像xi的权重,并按如下方式计算:其中,Dis(I,xi)表示图像I和xi间的欧式距离。
2.根据权利要求1所述的一种基于属性判别的自动图像标注方法,其特征在于,在所述步骤S1中,通过如下步骤构造所述局部均衡数据集:
步骤S11:划分每一个标签所包含的所有图像为一个语义组,对于每一幅测试图像I,从每一个语义组中选取n幅与所述测试图像I视觉相似度最高的图像构造子训练集;
步骤S12:把每一幅选出来的图像作为一个图像对象,且仅表示一个语义概念,即其所在语义组的语义概念,所述测试图像I的子训练集包含所有关键词,并且每个关键词的出现频次一致,进而得到局部均衡数据集。
3.根据权利要求1所述的一种基于属性判别的自动图像标注方法,其特征在于,在所述步骤S2中,还包括如下步骤:
步骤S21:定义编码器fθ以及解码器gθ';所述编码器fθ将输入图像x转换为隐层表达h;所述解码器gθ'将所述隐层表达h重构为与所述输入图像x维度一致的向量x';其中,fθ(x)=σ(W·x+b),θ={W,b},W为网络权重,满足W'=WT,b为偏置向量,为激活函数;θ'={W',b'};
步骤S22:学习一个函数使输出x'=gθ'(fθ(x))与x近似,且定义损失函数为L(x,x')=(x-x')2,并通过最小化损失函数进行学习:
步骤S23:记用于图像标注的栈式自动编码器模型有L层,并用序号l∈{1,...,L}表示,用hl表示第l层的输出向量,Wl和bl表示第l层的网络权重和偏置,通过自动编码器对{Wl,bl}以及l∈{1,...,L}逐层预训练;
步骤S24:执行前馈过程并用后向传播算法调优;所述栈式自动编码器模型的前馈操作表述为:hl+1=σ(Wl+1hl+bl+1),l∈{0,...,L-1};所述栈式自动编码器模型的后向传播算法调优表述为:其中,是多个自动编码器模型的合成函数,θl为参数{Wl,bl},l∈{1,...,L},损失函数为L(x,y)=(x-y)2;当模型训练好后,所述栈式自动编码器模型的最后一层的输出即为预测图像的关键词的预测分布D。
4.根据权利要求1所述的一种基于属性判别的自动图像标注方法,其特征在于,在所述步骤S4中,还包括如下步骤:
步骤S41:问题定义,对于一幅测试图像I,构造标签出现次数均匀的局部均衡数据集GI,再从该局部均衡数据集中GI取m幅与测试图像I距离最近的图像 包括包含的图像幅数为m;将表示为N维向量时,表示包含图像xj,当时,表示不包含图像xj
步骤S42:建立未知图像的预测分布D:
其中,ε为常系数,用于控制图像I的属性的判别;φ(yi)用于判定在集合P中关键词是否属于高频关键词,并定义如下:
其中,ci表示第i个关键词的出现次数,η为常系数,当φ(yi)=1时,表示yi在P中为高频关键词,当φ(yi)=0时,则相反;
用于判定在集合中关键词是否属于高频关键词,并定义如下:
其中,τ为常系数,当时,表示yi中为高频关键词,当时,则相反;若与测试图像I距离最近的m个邻居中,m取M的整数倍,含高频词的邻居超过了一定的比例,即则测试图像I的预测结果由SAE(x)决定,反之,测试图像I的预测结果由决定。
CN201610036626.7A 2016-01-20 2016-01-20 一种基于属性判别的自动图像标注方法 Active CN105701516B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610036626.7A CN105701516B (zh) 2016-01-20 2016-01-20 一种基于属性判别的自动图像标注方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610036626.7A CN105701516B (zh) 2016-01-20 2016-01-20 一种基于属性判别的自动图像标注方法

Publications (2)

Publication Number Publication Date
CN105701516A CN105701516A (zh) 2016-06-22
CN105701516B true CN105701516B (zh) 2019-01-22

Family

ID=56226786

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610036626.7A Active CN105701516B (zh) 2016-01-20 2016-01-20 一种基于属性判别的自动图像标注方法

Country Status (1)

Country Link
CN (1) CN105701516B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650775B (zh) * 2016-10-12 2020-04-10 南京理工大学 可同时挖掘视觉和语义相似性的图像标注方法
CN106599198B (zh) * 2016-12-14 2021-04-06 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种多级联结循环神经网络的图像描述方法
CN107665356A (zh) * 2017-10-18 2018-02-06 北京信息科技大学 一种图像标注方法
CN108595558B (zh) * 2018-04-12 2022-03-15 福建工程学院 一种数据均衡策略和多特征融合的图像标注方法
CN112199545B (zh) * 2020-11-23 2021-09-07 湖南蚁坊软件股份有限公司 基于图片文字定位的关键词显示方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101419606A (zh) * 2008-11-13 2009-04-29 浙江大学 一种基于语义和内容的半自动图像标注方法
CN104239897A (zh) * 2014-09-04 2014-12-24 天津大学 一种基于自编码器词袋的视觉特征表示方法
CN104392456A (zh) * 2014-12-09 2015-03-04 西安电子科技大学 基于深度自编码器和区域图的sar图像分割方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8265342B2 (en) * 2009-04-23 2012-09-11 International Business Machines Corporation Real-time annotation of images in a human assistive environment
US9646226B2 (en) * 2013-04-16 2017-05-09 The Penn State Research Foundation Instance-weighted mixture modeling to enhance training collections for image annotation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101419606A (zh) * 2008-11-13 2009-04-29 浙江大学 一种基于语义和内容的半自动图像标注方法
CN104239897A (zh) * 2014-09-04 2014-12-24 天津大学 一种基于自编码器词袋的视觉特征表示方法
CN104392456A (zh) * 2014-12-09 2015-03-04 西安电子科技大学 基于深度自编码器和区域图的sar图像分割方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Deep Multiple Instance Learning for Image Classification and Auto-Annotation;Jiajun Wu等;《Computer Vision and Pattern Recognition》;20151231;全文
Deep Representations and Codes for Image Auto-Annotation;Ryun Kiros等;《Conference and Workshop on Neural Information Processing Systems》;20121231;全文
基于外部数据库的图像自动标注改善模型;李东艳等;《计算机应用》;20101001;全文
多模型融合的多标签图像自动标注;张静等;《计算机辅助设计与图形学学报》;20140315;全文
混合生成式和判别式模型的图像自动标注;李志欣等;《中国图象图形学报》;20150516;全文

Also Published As

Publication number Publication date
CN105701516A (zh) 2016-06-22

Similar Documents

Publication Publication Date Title
Gardères et al. Conceptbert: Concept-aware representation for visual question answering
CN108363804B (zh) 基于用户聚类的局部模型加权融合Top-N电影推荐方法
Yu et al. Hierarchical deep click feature prediction for fine-grained image recognition
CN108763362B (zh) 基于随机锚点对选择的局部模型加权融合Top-N电影推荐方法
WO2020207196A1 (zh) 用户标签生成方法、装置、存储介质和计算机设备
CN107832663B (zh) 一种基于量子理论的多模态情感分析方法
CN104966104B (zh) 一种基于三维卷积神经网络的视频分类方法
CN105701516B (zh) 一种基于属性判别的自动图像标注方法
CN110245229A (zh) 一种基于数据增强的深度学习主题情感分类方法
CN106997379B (zh) 一种基于图片文本点击量的相近文本的合并方法
CN106126605B (zh) 一种基于用户画像的短文本分类方法
CN112364204A (zh) 视频搜索方法、装置、计算机设备及存储介质
CN109889923B (zh) 利用结合视频描述的分层自注意力网络总结视频的方法
Liu et al. Using collaborative filtering algorithms combined with Doc2Vec for movie recommendation
Shen et al. Hierarchical Attention Based Spatial-Temporal Graph-to-Sequence Learning for Grounded Video Description.
Mironică et al. Fisher kernel temporal variation-based relevance feedback for video retrieval
CN111488524A (zh) 一种面向注意力的语义敏感的标签推荐方法
CN105701225A (zh) 一种基于统一关联超图规约的跨媒体检索方法
CN112749330A (zh) 信息推送方法、装置、计算机设备和存储介质
CN113239159A (zh) 基于关系推理网络的视频和文本的跨模态检索方法
CN105678340B (zh) 一种基于增强型栈式自动编码器的自动图像标注方法
Zong et al. Transductive transfer lda with riesz-based volume lbp for emotion recognition in the wild
Chang et al. Fine-grained butterfly and moth classification using deep convolutional neural networks
Shen et al. Accurate online video tagging via probabilistic hybrid modeling
CN105740879A (zh) 基于多模态判别分析的零样本图像分类方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant