CN103020120A - 一种基于超图的图像混合摘要生成方法 - Google Patents

一种基于超图的图像混合摘要生成方法 Download PDF

Info

Publication number
CN103020120A
CN103020120A CN2012104645020A CN201210464502A CN103020120A CN 103020120 A CN103020120 A CN 103020120A CN 2012104645020 A CN2012104645020 A CN 2012104645020A CN 201210464502 A CN201210464502 A CN 201210464502A CN 103020120 A CN103020120 A CN 103020120A
Authority
CN
China
Prior art keywords
label
image
hypergraph
original image
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012104645020A
Other languages
English (en)
Other versions
CN103020120B (zh
Inventor
唐金辉
李旻先
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201210464502.0A priority Critical patent/CN103020120B/zh
Publication of CN103020120A publication Critical patent/CN103020120A/zh
Application granted granted Critical
Publication of CN103020120B publication Critical patent/CN103020120B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种基于超图的图像混合摘要生成方法,具体包括:步骤1:输入原始图像;步骤2:输入标签列表;步骤3:抽取视觉特征;步骤4:建立超图;步骤5:超图分割;步骤6:选取混合摘要。本发明使用的超图模型,不仅可以利用图像与图像、标签与标签之间的同质关系,同时还可以利用图像与标签之间的异质关系;本发明提出的选取图像摘要和标签摘要的方法,同时考虑了语义和视觉的代表性,选取的图像摘要和标签摘要能够较好地代表所属分组。

Description

一种基于超图的图像混合摘要生成方法
一、技术领域
本发明属于图像处理技术领域,特别是一种基于超图的图像混合摘要生成方法。
二、背景技术
随着各种数字化成像设备(如数码相机,手机等)的普及、大容量存储设备成本的降低以及互联网技术的革新,现代生活中多媒体信息(包括图像、视频等)的数量在迅猛增长,特别是数字图像充斥在人们日常生活的方方面面,并且随之诞生了一批图像分享网站(如Flickr,Picasa等)。但是在这些网站上,存在着明显的缺陷:海量的图像无法得到有效的组织,给用户寻找想要的图片以及浏览图片集合造成了不便。
为了更好地组织图像和将图像有效可视化,研究人员提出了图像混合摘要技术。所谓的图像混合摘要,是指从海量的图像集合中选取少量具有代表性的图像和语义标签作为整个集合的代表,方便用户快速浏览和查询。这里的语义标签指的是对图像内容进行描述的文本单词,语义标签简称为标签。
近年来,研究人员提出了许多针对互联网图像的图像混合摘要技术:
文献1(Jaffe A,Naaman M,Tassa T,and Davis M.Generating Summaries for LargeCollections of Geo-Referenced Photographs.In Proceedings of International Conference onWorld Wide Web,pages 853-854,2006.)Jaff等使用标签和地理信息来产生一个图像摘要集;
文献2(Simon I,Snavely N,and Seitz S M.Scene Summarization for Online ImageCollections.In Proceedings of IEEE 11th International Conference on Computer Vision,2007,1-8.)Simon等使用了一个贪婪k-means算法选择了一系列的典型性视图来形成场景摘要;
文献3(Fan J,Gao Y,Luo H,Keim D A,and Li Z.A Novel Approach to EnableSemantic and Visual Image Summarization for Exploratory Image Search.In Proceedings ofMultimedia Information Retrieval,2008,358-365.)Fan等首先根据图像的主题关键词形成一个主题词网络,然后再使用混合核和基于代表性的图像采用方法产生图像摘要。
尽管以上文献1~文献3的图像混合摘要生成方法取得了一些成果,但是这些方法由于所用模型的缺陷,生成图像混合摘要的过程中,只能考虑图像与图像之间的关系、标签与标签之间的关系,无法考虑完全以下三种关系:图像与图像之间的关系、标签与标签之间的关系、图像与标签之间的关系,因此生成的图像混合摘要并不理想。
三、发明内容
本发明的目的在于提供一种不仅可以利用图像与图像、标签与标签之间的同质关系,同时还可以利用图像与标签之间的异质关系对图像进行有效分类的基于超图的图像混合摘要生成方法。
实现本发明目的的技术解决方案:一种基于超图的图像混合摘要生成方法,具体包括以下步骤:
步骤1、输入N张原始图像,每一张原始图像应满足以下条件:附带的标签个数不少于1个;
步骤2、输入标签列表:
2.1)输入原始图像的标签列表:每一张原始图像附带的标签的集合,称为该张原始图像的标签列表;
2.2)从所有原始图像的标签列表中统计出独立标签集合L={l1,l2,...,li,...,lM},其中独立标签集合L中任意两个标签l都不重复,M为独立标签的个数;
步骤3、抽取原始图像的视觉特征集合:抽取原始图像的视觉特征集合
Figure BDA00002419730200021
Figure BDA00002419730200022
F i = { f i 1 , f i 2 , . . . , f i j , . . . , f i k } , 其中k表示k种视觉特征,
Figure BDA00002419730200024
表示第i张图像的第j种视觉特征;
步骤4、建立超图,建立超图的过程包括以下两个步骤:
4.1)建立超图的顶点集合V,顶点集合V包括V1,V2:V1表示第1种类型的顶点即原始图像的视觉特征集合
Figure BDA00002419730200025
V2表示第2种类型的顶点即原始图像的独立标签集合L;
4.2)建立超图的超边集合E,超边集合E包括E1,E2,E3:E1表示第1种超边,连接的是V1类型的顶点;E2表示第2种超边,连接的是V2类型的顶点;E3表示第3种超边,连接的是V1和V2类型的顶点;
步骤5、使用超图谱分解技术对超图的顶点集合V进行分割,将超图的顶点集合V分割成若干组;
步骤6、选取摘要,选取摘要的过程包括以下两个步骤:
6.1)在每一组中选取m个V2类型的顶点对应的独立标签,作为该组的标签摘要集合T;
6.2)在每一组中选取n个V1类型的顶点对应的原始图像,作为该组的图像摘要集合I。
本发明与现有技术相比,其显著优点是:(1)本发明使用的超图模型,不仅可以利用图像与图像之间的关系、标签与标签之间的关系,同时还可以利用图像与标签之间的关系;(2)本发明提出的选取图像摘要和标签摘要的方法,同时考虑了语义和视觉的代表性,选取的图像摘要和标签摘要能够较好地代表所属分组。
四附图说明
图1是本发明基于超图的图像混合摘要生成方法的流程图。
图2是本发明基于超图的图像混合摘要生成方法的超图示意图。
图3是本发明基于超图的图像混合摘要生成方法的效果实例图。
五具体实施方式
下面结合附图对本发明作进一步详细描述。
结合图1、图2,本发明提出的基于超图的图像混合摘要生成方法,具体包括以下步骤:
步骤1、输入N张原始图像,每一张原始图像应满足以下条件:附带的标签个数不少于1个;
步骤2、输入标签列表:
2.1)输入原始图像的标签列表:每一张原始图像附带的标签的集合,称为该张原始图像的标签列表;
2.2)从所有原始图像的标签列表中统计出独立标签集合L={l1,l2,...,li,...,lM},其中独立标签集合L中任意两个标签l都不重复,M为独立标签的个数;
步骤3、抽取原始图像的视觉特征集合:抽取原始图像的视觉特征集合
Figure BDA00002419730200031
Figure BDA00002419730200032
F i = { f i 1 , f i 2 , . . . , f i j , . . . , f i k } , 其中k表示k种视觉特征,表示第i张图像的第j种视觉特征;所述的视觉特征包括颜色直方图、颜色相关图、边缘方向直方图、小波纹理和颜色矩。
步骤4、建立超图,如图2所示,超图是一种简单图的扩展,超图中的边可以连接任意个数的顶点。建立超图的过程包括以下两个步骤:
4.1)建立超图的顶点集合V,顶点集合V包括V1,V2:V1表示第1种类型的顶点即原始图像的视觉特征集合
Figure BDA00002419730200041
V2表示第2种类型的顶点即原始图像的独立标签集合L;
4.2)建立超图的超边集合E,超边集合E包括E1,E2,E3:E1表示第1种超边,连接的是V1类型的顶点;E2表示第2种超边,连接的是V2类型的顶点;E3表示第3种超边,连接的是V1和V2类型的顶点;所述的E1,E2,E3分别定义如下:
(1) E 1 = { e 1 1 , e 2 1 , . . . , e i 1 , . . . , e N 1 } , 超边
Figure BDA00002419730200043
定义为:
e ij 1 | j = 1 N = 1 , | | F i - F j | | 2 &GreaterEqual; TH 1 0 , | | F i - F j | | 2 < TH 1 - - - ( 1 )
TH1表示阈值,||·||2表示2-范数;
Figure BDA00002419730200045
的权重
Figure BDA00002419730200046
定义为:
w i 1 = 1 N &Sigma; j = 1 N ( e ij 1 &times; | | F i - F j | | 2 ) - - - ( 2 )
(2) E 2 = { e 1 2 , e 2 2 , . . . , e i 2 , . . . , e M 2 } , 超边
Figure BDA00002419730200049
定义为:
e ij 2 | j = 1 M = 1 , d ij &GreaterEqual; TH 2 0 , d ij < TH 2 - - - ( 3 )
TH2表示阈值,dij表示标签li和标签lj之间的关联程度,定义为:
d ij = max ( log f ( l i ) , log f ( l j ) ) - log f ( l i , l j ) log N - min ( log f ( l i ) , log f ( l j ) ) - - - ( 4 )
f(li)和f(lj)表示N张原始图像中分别包含标签li和标签lj的图像数量,f(li,lj)表示N张原始图像中同时包括标签li和标签lj的图像数量;
Figure BDA00002419730200051
的权重
Figure BDA00002419730200052
定义为:
w i 2 = 1 M &Sigma; j = 1 M e ij 2 &times; d ij - - - ( 5 )
(3) E 3 = { e 1 3 , e 2 3 , . . . , e i 3 , . . . , e N 3 } , 超边
Figure BDA00002419730200055
定义为:
Figure BDA00002419730200056
Figure BDA00002419730200057
的权重定义为:
w i 3 = 1 . - - - ( 7 )
步骤5、使用超图谱分解技术对超图的顶点集合V进行分割,将超图的顶点集合V分割成若干组。超图分割问题通过解以下的优化问题:
Figure BDA000024197302000510
subject to &Sigma; v &Element; V f 2 ( v ) = 1 , &Sigma; v &Element; V f ( v ) d ( v ) = 0
其中,函数f(u)表示将顶点u分到某类的概率。e是任意一条超边,u、v是e上任意两个超图顶点。d(v)表示顶点v的度,δ(e)表示超边e的度,w(e)表示超边e的权重。
定义两个矩阵,令Δ=I-Θ,其中I是单位矩阵,则
&Sigma; e &Element; E &Sigma; { u , v } &SubsetEqual; e w ( e ) &delta; ( e ) ( f ( u ) d ( u ) - f ( v ) d ( v ) ) 2 = 2 f T &Delta;f - - - ( 9 )
其中,Dv是顶点的度矩阵,De是超边的度矩阵,W是权重矩阵,H是顶点与超边的关联矩阵。Δ是半正定矩阵,Δ的最小特征值是0,对应的特征向量的是根据线性代数的知识,式(8)的优化问题的解就是矩阵Δ的最小非零特征值对应的特征向量Φ。因此,顶点集合可以分割为两个部分S={v∈V|Φ(v)≥0}和Sc={v∈V|Φ(v)<0}。
另外,拉普拉斯算子Δ为:
&Delta; = I - 1 2 D v - 1 / 2 HWH T D v - 1 / 2 = I - 1 2 D v - 1 / 2 ( D v + A ) D v - 1 / 2 = 1 2 ( I - D v - 1 / 2 A D v - 1 / 2 ) - - - ( 10 )
使用(3)式,按简单图的谱分割方法分割超图。
步骤6、选取摘要,选取摘要的过程包括以下两个步骤:
6.1)在每一组中选取m个V2类型的顶点对应的独立标签,作为该组的标签摘要集合T,具体如下:
令s(l,c)表示标签l描述第c类的代表性分数,则s(l,c)可定义为:
其中,
Figure BDA00002419730200062
K(l)表示与标签l共同出现的标签中,频次最高的k个标签的集合;
Figure BDA00002419730200063
表示K(l)的所有标签中出现频次最高的标签;表示标签l和标签
Figure BDA00002419730200065
之间的共同出现的频次;Threshold表示共同出现频次的阈值;最后将每个标签的代表性分数s(l,c)由高到低来排序,则可以选择m个代表性分数最高的标签作为该组的标签摘要集合T。
6.2)在每一组中选取n个V1类型的顶点对应的原始图像,作为该组的图像摘要集合I,具体如下:
令ρ(F,t,c)表示视觉特征F对应的原始图像描述第c类的代表性分数,t为视觉特征F对应的原始图像附带的标签集合,则ρ(F,t,c)可定义如下:
&rho; ( F , t , c ) = a e - | | ( F - F &OverBar; ) | | 2 + ( 1 - a ) e d ( t , T ) - - - ( 13 )
其中,
Figure BDA00002419730200067
表示第c类中的平均视觉特征,d(t,T)表示标签集合t与标签摘要集合T的关联程度,a表示视觉代表性和语义代表性的平衡因子;最后在该类中,将每张图像的代表性分数按由高到低的顺序进行排序,选择n个代表性分数最高的图像作为该类的图像范例I。
实施例
如图3所示,使用本发明基于超图的图像混合摘要生成方法,对一批原始图像生成图像混合摘要,左边为原始图像,标签摘要包括“花朵、紫色”,“银莲花、白色”和“花丛、野地”,右边为混合摘要结果,可以看出选取的图像摘要和标签摘要能够较好地代表所属分组。

Claims (5)

1.一种基于超图的图像混合摘要生成方法,其特征在于,包括以下步骤:
步骤1、输入N张原始图像,每一张原始图像应满足以下条件:附带的标签个数不少于1个;
步骤2、输入标签列表:
2.1)输入原始图像的标签列表:每一张原始图像附带的标签的集合,称为该张原始图像的标签列表;
2.2)从所有原始图像的标签列表中统计出独立标签集合L={l1,l2,...,li,...,lM},其中独立标签集合L中任意两个标签l都不重复,M为独立标签的个数;
步骤3、抽取原始图像的视觉特征集合:抽取原始图像的视觉特征集合
Figure FDA00002419730100011
Figure FDA00002419730100012
F i = { f i 1 , f i 2 , . . . , f i j , . . . , f i k } , 其中k表示k种视觉特征,表示第i张图像的第j种视觉特征;
步骤4、建立超图,建立超图的过程包括以下两个步骤:
4.1)建立超图的顶点集合V,顶点集合V包括V1,V2:V1表示第1种类型的顶点即原始图像的视觉特征集合
Figure FDA00002419730100015
V2表示第2种类型的顶点即原始图像的独立标签集合L:
4.2)建立超图的超边集合E,超边集合E包括E1,E2,E3:E1表示第1种超边,连接的是V1类型的顶点;E2表示第2种超边,连接的是V2类型的顶点;E3表示第3种超边,连接的是V1和V2类型的顶点;
步骤5、使用超图谱分解技术对超图的顶点集合V进行分割,将超图的顶点集合V分割成若干组;
步骤6、选取摘要,选取摘要的过程包括以下两个步骤:
6.1)在每一组中选取m个V2类型的顶点对应的独立标签,作为该组的标签摘要集合T;
6.2)在每一组中选取n个V1类型的顶点对应的原始图像,作为该组的图像摘要集合I。
2.根据权利要求1所述的基于超图的图像混合摘要生成方法,其特征在于:步骤3中所述的视觉特征包括颜色直方图、颜色相关图、边缘方向直方图、小波纹理和颜色矩。
3.根据权利要求1所述的基于超图的图像混合摘要生成方法,其特征在于:步骤4.2中所述的E1,E2,E3分别定义如下:
1) E 1 = { e 1 1 , e 2 1 , . . . , e i 1 , . . . , e N 1 } , 超边
Figure FDA00002419730100022
定义为:
e ij 1 | j = 1 N = 1 , | | F i - F j | | 2 &GreaterEqual; TH 1 0 , | | F i - F j | | 2 < TH 1
TH1表示阈值,||·||2表示2-范数;
Figure FDA00002419730100024
的权重
Figure FDA00002419730100025
定义为:
w i 1 = 1 N &Sigma; j = 1 N ( e ij 1 &times; | | F i - F j | | 2 )
2) E 2 = { e 1 2 , e 2 2 , . . . , e i 2 , . . . , e M 2 } , 超边
Figure FDA00002419730100028
定义为:
e ij 2 | j = 1 M = 1 , d ij &GreaterEqual; TH 2 0 , d ij < TH 2
TH2表示阈值,dij表示标签li和标签lj之间的关联程度,定义为:
d ij = max ( log f ( l i ) , log f ( l j ) ) - log f ( l i , l j ) log N - min ( log f ( l i ) , log f ( l j ) )
f(li)和f(lj)表示N张原始图像中分别包含标签li和标签lj的图像数量,f(li,lj)表示N张原始图像中同时包括标签li和标签lj的图像数量;
Figure FDA000024197301000211
的权重
Figure FDA000024197301000212
定义为:
w i 2 = 1 M &Sigma; j = 1 M e ij 2 &times; d ij
3) E 3 = { e 1 3 , e 2 3 , . . . , e i 3 , . . . , e N 3 } , 超边定义为:
Figure FDA000024197301000216
Figure FDA000024197301000217
的权重
Figure FDA000024197301000218
定义为: w i 3 = 1 .
4.根据权利要求1所述的基于超图的图像混合摘要生成方法,其特征在于:步骤6.1中所述的在每一组中选取m个V2类型的顶点对应的独立标签,作为该组的标签摘要集合T,具体如下:
令s(l,c)表示标签l描述第c类的代表性分数,则s(l,c)可定义为:
s ( l , c ) = 1 N c &Sigma; i = 1 N c &Sigma; j = 1 N i T &phi; ( l ) ifC ( l , l ) < Threshold 0 else
其中,
l=arg max{s(l,c),l∈K(l)}
K(l)表示与标签l共同出现的标签中,频次最高的k个标签的集合;l表示K(l)的所有标签中出现频次最高的标签;C(l,l)表示标签l和标签l之间的共同出现的频次;Threshold表示共同出现频次的阈值;最后将每个标签的代表性分数s(l,c)由高到低来排序,则可以选择m个代表性分数最高的标签作为该组的标签摘要集合T。
5.根据权利要求1所述的基于超图的图像混合摘要生成方法,其特征在于:步骤6.2中所述的在每一组中选取n个V1类型的顶点对应的原始图像,作为该组的图像摘要集合I,具体如下:
令ρ(F,t,c)表示视觉特征F对应的原始图像描述第c类的代表性分数,t为视觉特征F对应的原始图像附带的标签集合,则ρ(F,t,c)可定义如下:
&rho; ( F , t , c ) = ae - | | ( F - F &OverBar; ) | | 2 + ( 1 - a ) e d ( t , T )
其中,
Figure FDA00002419730100033
表示第c类中的平均视觉特征,d(t,T)表示标签集合t与标签摘要集合T的关联程度,a表示视觉代表性和语义代表性的平衡因子;最后在该类中,将每张图像的代表性分数按由高到低的顺序进行排序,选择n个代表性分数最高的图像作为该类的图像范例I。
CN201210464502.0A 2012-11-16 2012-11-16 一种基于超图的图像混合摘要生成方法 Expired - Fee Related CN103020120B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210464502.0A CN103020120B (zh) 2012-11-16 2012-11-16 一种基于超图的图像混合摘要生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210464502.0A CN103020120B (zh) 2012-11-16 2012-11-16 一种基于超图的图像混合摘要生成方法

Publications (2)

Publication Number Publication Date
CN103020120A true CN103020120A (zh) 2013-04-03
CN103020120B CN103020120B (zh) 2016-07-06

Family

ID=47968724

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210464502.0A Expired - Fee Related CN103020120B (zh) 2012-11-16 2012-11-16 一种基于超图的图像混合摘要生成方法

Country Status (1)

Country Link
CN (1) CN103020120B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103605984A (zh) * 2013-11-14 2014-02-26 厦门大学 基于超图学习的室内场景分类方法
CN104835174A (zh) * 2015-05-25 2015-08-12 厦门大学 基于超图模式搜索的鲁棒模型拟合方法
CN107079112A (zh) * 2014-10-28 2017-08-18 惠普发展公司,有限责任合伙企业 图像数据分割
WO2017152403A1 (zh) * 2016-03-10 2017-09-14 北京大学深圳研究生院 一种基于mcmc框架下的子超图匹配方法和装置
CN110516689A (zh) * 2019-08-30 2019-11-29 北京达佳互联信息技术有限公司 图像处理方法、装置以及电子设备、存储介质
CN113808138A (zh) * 2021-11-22 2021-12-17 山东鹰联光电科技股份有限公司 一种基于人工智能的电线电缆表面缺陷检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090290802A1 (en) * 2008-05-22 2009-11-26 Microsoft Corporation Concurrent multiple-instance learning for image categorization
CN101853299A (zh) * 2010-05-31 2010-10-06 杭州淘淘搜科技有限公司 一种基于感性认知的图像检索结果排序方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090290802A1 (en) * 2008-05-22 2009-11-26 Microsoft Corporation Concurrent multiple-instance learning for image categorization
CN101853299A (zh) * 2010-05-31 2010-10-06 杭州淘淘搜科技有限公司 一种基于感性认知的图像检索结果排序方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
IAN SIMON等: "Scene Summarization for Online Image Collections", 《PROCEEDINGS OF THE IEEE 11TH INTERNATIONAL CONFERENCE ON COMPUTER VISION》, 31 December 2007 (2007-12-31), pages 1 - 8 *
M.REGE等: "CO-CLUSTERING IMAGE FEATURES AND SEMANTIC CONCEPTS", 《PROCEEDINGS OF THE IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》, 31 December 2006 (2006-12-31), pages 137 - 140 *
李旻先等: "基于视觉显著性近邻投票的标签排序方法", 《南京理工大学学报》, vol. 36, no. 4, 31 August 2012 (2012-08-31), pages 561 - 566 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103605984A (zh) * 2013-11-14 2014-02-26 厦门大学 基于超图学习的室内场景分类方法
CN103605984B (zh) * 2013-11-14 2016-08-24 厦门大学 基于超图学习的室内场景分类方法
CN107079112A (zh) * 2014-10-28 2017-08-18 惠普发展公司,有限责任合伙企业 图像数据分割
CN104835174A (zh) * 2015-05-25 2015-08-12 厦门大学 基于超图模式搜索的鲁棒模型拟合方法
CN104835174B (zh) * 2015-05-25 2017-12-15 厦门大学 基于超图模式搜索的鲁棒模型拟合方法
WO2017152403A1 (zh) * 2016-03-10 2017-09-14 北京大学深圳研究生院 一种基于mcmc框架下的子超图匹配方法和装置
CN110516689A (zh) * 2019-08-30 2019-11-29 北京达佳互联信息技术有限公司 图像处理方法、装置以及电子设备、存储介质
CN113808138A (zh) * 2021-11-22 2021-12-17 山东鹰联光电科技股份有限公司 一种基于人工智能的电线电缆表面缺陷检测方法

Also Published As

Publication number Publication date
CN103020120B (zh) 2016-07-06

Similar Documents

Publication Publication Date Title
CN103412937B (zh) 一种基于手持终端的搜索购物方法
CN104834686B (zh) 一种基于混合语义矩阵的视频推荐方法
CN103942337B (zh) 一种基于图像识别与匹配的视频搜索系统
CN103020120A (zh) 一种基于超图的图像混合摘要生成方法
Bianco et al. Automatic color constancy algorithm selection and combination
Hu et al. Recognition of pornographic web pages by classifying texts and images
US8311344B2 (en) Systems and methods for semantically classifying shots in video
US20110188742A1 (en) Recommending user image to social network groups
US20130259375A1 (en) Systems and Methods for Semantically Classifying and Extracting Shots in Video
CN106021575A (zh) 一种视频中同款商品检索方法及装置
CN104376105A (zh) 一种社会媒体中图像低层视觉特征与文本描述信息的特征融合系统及方法
CN102799637A (zh) 一种电视节目内部自动生成主要人物摘要的方法
CN105792010A (zh) 基于图像内容解析及图片索引的电视购物的方法与装置
CN106354860A (zh) 基于标签集的信息资源自动贴标签并自动推送的方法
CN103020172A (zh) 一种利用视频信息搜索物品的方法和装置
CN105912684A (zh) 基于视觉特征和语义特征的跨媒体检索方法
US20070110308A1 (en) Method, medium, and system with category-based photo clustering using photographic region templates
Natsev et al. Semantic representation: search and mining of multimedia content
CN105843827A (zh) 移动终端的图片分类方法和装置
CN102306179B (zh) 基于分级颜色分布描述符的图像内容检索方法
Balan et al. Design and development of an algorithm for image clustering in textile image retrieval using color descriptors
Almeida et al. Unsupervised manifold learning for video genre retrieval
CN110162654A (zh) 一种基于融合特征与检索结果优化的现勘图像检索算法
Zhao et al. Diversifying image retrieval with affinity-propagation clustering on visual manifolds
Jena et al. Content based image retrieval using adaptive semantic signature

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160706

Termination date: 20181116