CN101432775B - 基于对象的视觉注意力模型的显著性评估方法 - Google Patents

基于对象的视觉注意力模型的显著性评估方法 Download PDF

Info

Publication number
CN101432775B
CN101432775B CN200780015252XA CN200780015252A CN101432775B CN 101432775 B CN101432775 B CN 101432775B CN 200780015252X A CN200780015252X A CN 200780015252XA CN 200780015252 A CN200780015252 A CN 200780015252A CN 101432775 B CN101432775 B CN 101432775B
Authority
CN
China
Prior art keywords
conspicuousness
image
attention model
assessed
circles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200780015252XA
Other languages
English (en)
Other versions
CN101432775A (zh
Inventor
顾晓东
陈志波
陈衢清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP06300538A external-priority patent/EP1862966A1/en
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority claimed from PCT/EP2007/054195 external-priority patent/WO2007125115A1/en
Publication of CN101432775A publication Critical patent/CN101432775A/zh
Application granted granted Critical
Publication of CN101432775B publication Critical patent/CN101432775B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于对象的视觉注意力模型的显著性评估方法。该方法包括以下步骤:将图像分割成复数个待评估的对象;对每个被分对象提取特征地图;基于提取的特征地图,计算每个被分对象在该对象中心像素周围定义的一系列圆中的显著性;以及将每个被分对象在所有圆中的显著性结合,从而实现每个被分对象的总体显著性的评估。本发明更符合人类视觉,且计算复杂性低。

Description

基于对象的视觉注意力模型的显著性评估方法
技术领域
本发明涉及一种评估图像显著性的方法,尤指一种基于对象的视觉注意力模型的显著性评估方法。
技术背景
以神经生物学概念来讲,注意力意味着通过细致仔细的观察,将精神集中在一个物体上。注意区域是指一个画面中倾向于吸引人们更多注意力的区域。设计用于自动探测画面中的注意区域的系统称为注意力模型。探测到的注意区域被广泛用于许多种应用中,例如积累注意区域中的有限资源,引导检索/查找,简化分析等。
图1显示了一种最常用的注意力模型的总体结构。首先,将待评估的图像输入注意力模型中。然后,在提取特征步骤之后获取强度、颜色、方向等特征。在第三步骤中评估所述特征的显著性。最终在图像融合和后处理步骤之后得出注意区域。
不同于在最早的机器视觉系统中使用的注意模块,其基于以宏模块(MB)为基本单元的空间位置假设来驱动注意力,其他引导视觉注意的模块是由对象驱动的,因此称为基于对象的视觉注意力模型。
正如1998年11月L.Itti等人在IEEE《图形分析和机器智能》学刊的第20期,第11篇提出的“一种快速场景分析的基于显著性的视觉注意力模型”和Y.F.Ma等人在2002年12月出版的《ACM多媒体》02集中第533至542页提出的“一种视频摘要的用户注意力模型”,建立了大量有关基于MB(宏模块)空间的视觉注意力的研究。然而,基于对象的视觉注意却由于其固有的困难没有被广泛研究。2003年5月Y.Sun等人在《人工智能》第77至123页“计算机视觉的基于对象的视觉注意力”中提出了基于对象的视觉注意力的构架。2005年6月另一基于对象的视觉注意力模型由F.Orabona等人在关于计算视觉的注意力和性能的第三次国际研讨会上提出。两个基于对象的视觉注意力方案仍旧都遵循了图1所示的注意力模型的总体结构。除了“显著性评估”,其他所有的处理都直接从Itti的基于MB空间的视觉注意力模型继承。
无论在基于MB空间还是在基于对象的视觉注意力模型中,首先提取低层的空间/时间特征,然后对于每个显著性(区别于、突出于其周围环境的;或者说更具吸引力的)在整个画面上评估每个单元的特征地图,随后主“显著性地图”通过以纯粹的自底向上的方式填充所有特征地图来生成。
与基于对象的视觉注意力模型相比,基于MB空间视觉注意力模型是一个更简单,更快速的创新。然而,其具有几个固有的缺陷:
1)注意区域打破了自然物体的边界;
2)每个宏模块可能覆盖许多自然物体。
因此,宏模块中所提取的特征是所有这些自然物体的混合特性,从而降低了注意区域探测的精确性。
上述基于对象的视觉注意力模型的关键点在两个方面:一是在提取特征前对对象进行分组,二是每一对象相对于图像中所有对象的特定有效显著性评估。正如Y.Sun等人所提出的,目前采用的显著性评估方案的中心思想是以高斯距离测量(Gauss distance measure)为基础的。
用x表示被评估显著性的对象,yi(i=1,2,...,n)表示所有背景对象,w表示输入图像的最大宽度和高度,以及//x-yi//表示x和yi间的物理距离,因此将高斯距离定义为公式(1),
d gauss ( x , y i ) = ( 1 - | | x - y i | | w - 1 ) e - 1 2 σ 2 | | x - y i | | 2 - - - ( 1 )
标度σ设为w/ρ,其中ρ为正整数且通常1/ρ可以设为w的百分数2%,4%,5%或20%,25%,50%等。
用SF(x,yi)表示对象x和yi在特征F方面的绝对误差,显著性评估SF(x)即对象x特征F面的总体显著性可表示为公式(2)。
S F ( x ) = Σ i = 1 n S F ( x , y i ) · d gauss ( x , y i ) Σ i = 1 n d gauss ( x , y i ) - - - ( 2 )
通过显著性评估的定义,可总结如下:
1.对象和其周围环境间差别越大,该对象越显著。
2.对象和与其有特征差别的环境之间距离越小,该对象越显著。即随着距离增加,人类视觉区分差别的能力下降。衰减系数由dgauss衡量,其与视觉生理学理论是一致的。
这确保了SF(x)在F特征方面是有用的显著性评估。遗憾的是,SF(x)没有考虑一些重要的人类感官特性。
图2a为一待评估的滑冰的原始图像,图3a为使用传统基于对象的视觉注意力模型后图2a的显著性评估结果。
图2b为待评估的海岸警卫队的原始图像,图3b为使用传统基于对象的视觉注意力模型后图2b的显著性评估结果。
在图3a和图3b中,白色表示一个非常突出的对象,而黑色表示一个非显著的对象,介于白色和黑色间的灰度代表显著程度。
从图3a我们可以看到,观众被认为是显著的,因为其颜色与其相邻物有很大的差别,但实际上观众部分不包含细节。电视观众通常不聚焦在观众上并认为其是“视频纹理”.
亦在图3a中,女舞者的头部左边有一小的灰色方块。该方块由被男舞者的黑色衣服和女舞者的皮肤包围的一片滑冰场组成,其在该局部区域显著。但归根到底,这片滑冰场只是大滑冰场的一部分,不吸引电视观众的注意力。这被称为“局部效应”。由于局部效应,在该对象和其相邻物间的累积差别大,因此其被认为是“显著”的。
从上述描述中我们可以看到,传统的基于对象的视觉注意力模型不够有效,许多人类的视觉特性没有被考虑:
1.对象尺寸——评估对象尺寸对显著程度的影响是一个复杂的问题。例如,(a)如果所有相邻对象yi具有相同尺寸s且对象x的尺寸从s到0递减,因此x的显著性(SF(x))也将逐步递减;(b)如果所有相邻对象yi具有相同尺寸s且对象x的尺寸从s1到s2递减(s1>>s,且s1>s2>s),SF(x)将逐步递增。因此我们知道对象尺寸和显著性的关系是非单调的。当对象具有任意尺寸该问题会更复杂。
2.局部效应——如果一个对象在其相邻物(局部区域)中非显著而该远处相邻物与该物体非常不同,那么存在两个可能原因:(a)该对象在整个图像中根本不显著;(b)局部区域作为一整体在具有作为该局部区域一部分的对象的图像中显著。无论在哪种情况中,该对象的显著性都与所定义的不符合。
3.视频纹理——假设一图像的对象特征一律是随机的,人类通常会忽略整个图像的细节,图像中没有对象是显著的,而以上定义的SF(x)对于该图像中的任何对象都是一个大数字。
由于所有的这些限制,传统的基于对象的视频注意力模型都与应用性相悖。因此期望一种改善的基于对象的视频注意力模型。
发明内容
本发明提供一种基于对象的视频注意力模型的评估方案,采用一种能够降低计算复杂性以及提高应用性的多层同心圆方案。
一方面,本发明提供了一种评估图像显著性的方法。其包括以下步骤:将图像分割成复数个待评估的对象;对每个被分割对象提取特征地图;基于提取的特征地图,计算每个被分割对象在该对象的中心像素周围定义的一系列圆中的显著性;以及将每个被分割对象在所有圆中的显著性结合,从而得出每个被分割对象的总体显著性的评估。根据一个较佳实施例,该提取特征地图的步骤基于图像颜色变化的量度。根据另一较佳实施例,计算每个被分割对象的显著性的步骤包括比较待评估对象和定义在该待评估对象周围的每个圆中任何其他对象的颜色特征的分步骤。
有利的是,本发明的建立在多层同心圆的显著性评估方案基础上的基于对象的视觉注意力模型显示了一个高效的构架来建立一个计算复杂性低及更符合人类视觉的基于对象的视觉注意力模型。
本发明的其他特点及优点将通过借助附图阐明的本发明一非限制性实施例的描述变得更为清晰。
附图说明
图1显示了通常使用的注意力模型的总体结构;
图2a显示了待显著性评估的滑冰的原始图像;
图2b显示了待显著性评估的海岸警卫队的原始图像;
图3a为使用传统基于对象的模块视觉注意力模型后图2a的显著性评估结果;
图3b为使用传统基于对象的模块视觉注意力模型后图2b的显著性评估结果;
图4显示了根据本发明的一个较佳实施例的显著性评估的多层同心圆方案;
图5显示了本发明的texture(.)的一个定义实例;
图6a为根据本发明的一个较佳实施例的图2a分割结果的一个实例;
图6b为根据本发明的一个较佳实施例的图2b分割结果的另一实例;
图7a显示了使用根据本发明的一个较佳实施例的显著性评估方案后图2a所评估的显著性结果;以及
图7b显示了使用根据本发明的一个较佳实施例的显著性评估方案后图2b所评估的显著性结果。
具体实施方式
本发明的技术特征将进一步参照实施例描述。该实施例仅仅是不对本发明进行限制的优选实例。其将通过以下结合附图的详细描述更好地被理解。
从先前的描述中我们可以看出,显著性评估的过程可被表示为:
输入:一图像I={pi|i=1...w*h},其中w为宽度,h为高度;
输出:显著性地图sal[1...w*h],其中sal[i]为图像中像素pi的显著性。
本发明的方法主要包括以下三个步骤:
步骤1——预处理(图像分割)
首先,在该步骤中将一图像I分解成一系列的对象I={o1,o2,…,on}。基于图像的分割和分组在人类视觉感官中起着强大的作用,该领域中已进行了许多研究。在本发明中我们采用1998年6月P.F.Felzenszwalb等人在关于计算机视觉及图形识别的IEEE计算机学会大会上提出的“利用局部变化的图像分割”中的对象分割方案,其是基于图像颜色变化的量度。以下给出该方案的简单描述。
在处理前,基于图像I定义一无向图H=(V,E),I的每个像素pi具有一相应的顶点vi∈V,和连接顶点vi和vj的边际(vi,vj)∈E。哪些像素由E中的边际连接的精确定义取决于表达式(1-1)。
E={(vi,vj)|||pi-pj||≤d}                            (1-1)
对于某一给定距离d,边际的加权函数weight(.)提供了一些单个顶点vi和vj间的非负相似性度量(或差别度量)。将weight(.)定义为表达式(1-2),
weight ( ( v i , v j ) ) = | Color ( v i ) - Color ( v j ) ( v i , v j ) ∈ E ∞ otherwise - - - ( 1 - 2 )
其中color(vi)为图像中像素pi的颜色。
S={Ci}表示V的分割,每个Ci对应一个被分割的对象。将C的内部变化定义为方程(1-3),
Int ( C ) = max e ∈ MST ( C , E ) weight ( e ) - - - ( 1 - 3 )
其中MST(C,E)为关于整个E集合中的C的最小生成树。
将两个对象C1和C2的外部变化定义为方程(1-4)。
Ext ( C 1 , C 2 ) = min v i ∈ C 1 , v j ∈ C 2 weight ( ( v i , v j ) ) - - - ( 1 - 4 )
进行分割处理是使任意两个被分割对象满足表达式(1-5):
Ext(C1,C2)≤min(Int(C1)+k/|C1|,Int(C2)+k/|C2|)   (1-5)
其中k在我们的实施中是设为100的常数。用Int(C)+k/|C|表示对象C中扩展内部变化。
为了得到分割结果,首先将E通过非减边际加权排序成π=(e1,e2,…,em),并初始地将图像分割成w*h个单个像素对象,然后对于每个eq=(vi,vj)(q=1,2,…,m)重复以下步骤;如果vi和vj属于不同对象且weight(vi,vj)不大于其所属的两个对象的扩展内部变化(Int(C)+k/|C|),那么合并两个对象以形成一个新的单个对象。
可以看到,上述给出了一种不会占用太多计算资源的高效的对象分割方案。在实施中,用8连通邻域建立E,即d=1。图6a和图6b分别提供了图2a和图2b的分割结果。
步骤2——预处理(特征提取)
用yi,ri,gi,bi分别表示像素pi的亮度、红、绿、蓝信道,以下我们提取在步骤1中每个被分割对象的特征。
考虑扩展内部变化Int(C)+k/|C|的定义,其中k/|C|是内部变化的附加部分,因为低估内部变化不利于防止各组份变大。因此不考虑其内部变化,小对象更容易变大。例如,在图6a的滑冰实例中,虽然黑色衣服最大的部分主要是由黑色像素组成,但仍然有一些例外的白色像素。
为了在上述情况下解决特征提取问题,在对象o={v1,v2,…,vt}的特征地图F=f(vi)中定义算子Major(f,o)。Major(f,o)的返回值是对象o的代表特征,定义对象o满足(d1,d2和η在我们的实施中是分别设为2、64和95%的常数):
(1)如果存在范围[min,max]满足表达式max-min+1≤d1,,且存在特征百分比即在范围[min,max]中该特征值占整个特征地图F={f(v1),f(v2),…,f(vt)}不小于η,那么将Major(f,o)定义为值在范围[min,max]的那些特征的平均值。
(2)否则,如果一对象尺寸大于常数d2,那么用步骤1中的处理方法将该对象分成子对象,然后对于每个子对象跳过上述步骤;否则如果该对象过小,那么就定义Major(f,o)为所有特征的平均值。
将算子Major(f,o),Yi,Ri,Gi,Bi及Yi定义为对象oi的亮度、红、绿、蓝、黄信道(负值设为0):
Yi=Major(y,oi)
Ri=Major(r,oi)-(Major(g,oi)+Major(b,oi))/2
Gi=Major(g,oi)-(Major(r,oi)+Major(b,oi))/2
Bi=Major(b,oi)-(Major(r,oi)+Major(g,oi))/2
Yi=(Major(r,oi)+Major(g,oi))/2-|Major(r,oi)-Major(g,oi)|/2-Major(b,oi)。
强度特征如方程(2-1)提取。
Ii=Yi    (2-1)
基于“颜色双分量”的颜色特征如方程(2-2),(2-3)提取。
RGi=Ri-Gi    (2-2)
BYi=Bi-Yi    (2-3)
在基于对象的模块视觉注意力模型中,方向是具有一定复杂性的特征。既然根据颜色变化分割了所有对象,那么除了该对象的边界,对象本身并不包含方向信息。由于被分割对象的特殊属性,在实施中我们不考虑方向。
与方向相比,由于目前光流技术越来越成熟,运动将更可能是一个附加特征。
但为了简化,本发明只考虑三种特征地图Ii,RGi和BYi
步骤3——显著性评估
在上述二步骤后,图像I被分割成对象I=(o1,o2,…,on)且三个特征地图Ii,RGi和BYi(i=1…n)被提取。剩下的问题是如何对每个特征地图F(F∈{I,RG,RY})评估显著性地图,表示为SalF(oi)。
对于图像的任一对象oi,将si表示为尺寸(对象中像素的数量),将ci=(Xi,Yi)表示为对象的中心像素。Xi和Yi如方程(3-1)所描述。
X i = 1 s i Σ j = 1 s i x j ; Y i = 1 s i Σ j = 1 s i y j - - - ( 3 - 1 )
在显著性评估处理中,无差别地认为oi的每个像素与中心像素相同,因此如图4所示,认为该对象是si个中心像素的复制。
基于该假设,于此说明评估oi显著性的多层同心圆方案。在该方案的第一步中,环绕对象的中心像素定义一系列的同心圆,C1…Ct(Cj为具有水平半径和垂直半径的椭圆,并称为j层圆)从中心像素ci的较近相邻区域向较远相邻区域分布。对于每个j层圆,评估Cj中oi的显著性,且表示为SalCF(oi,Cj),因此oi总体评估的显著性定义为方程(3-2),其中kt为线性结合的常数。
Sal F ( o i ) = Σ j = 1 i k t · SalC F ( o i , C j ) - - - ( 3 - 2 )
然后,假设一区域Cj和一从Cj中提取的具有特征F的Cj中的对象oi,如何考虑人类的视觉特性来评估Cj中oi的显著性?于此我们首先给运算符SalCF定义:
(1)设S为在Cj中具有中心像素的一系列对象。
(2)对于S中每个对象ou,定义F’u=abs(Fu-Fi)。然后使用以下方程计算S中的加权平均数F’u
avgF ′ = Σ ∀ u , c u ∈ S F ′ u · s u Σ ∀ u , c u ∈ S s u - - - ( 3 - 3 )
(3)定义ρ为F’u不环大于avgF’时S中像素的百分数:
ρ = Σ ∀ u , c u ∈ S bool ( F ′ u ≤ avgF ′ ) · s u Σ ∀ u , c u ∈ S s u - - - ( 3 - 4 )
其中当判断式exp为真时,bool(exp)返回1;否则返回0。
(4)如图5所示为检测函数texture(.)的定义,SalCF为如下,
SalCF(oi,Cj)=avgF′×texture(ρ)    (3-5)
其中texture(.)为用于检测“观众区域”的ρ的经验函数,即具有随机特征,如观众席,期望不被认为是注意区域。该检测函数texture(ρ)满足ρ的值越小,texture(ρ)的值越大,这样该区域更有可能被认为是“观众区域”即图像的视频纹理。通过使用该检测函数texture(.),降低了区域中非注意对象被认为是注意物的可能性。
我们可以从以上描述对显著性评估总结如下:
(a)对图像中的每一对象oi定义一系列的同心圆Cj(j=1…t)。
(b)根据上述SalCF的定义,计算SalCF(oi,Cj)。
(c)根据表达式(3-2),结合所有Cj的显著性评估从而得到总体评估的显著性。
图7a和图7b分别显示了通过使用根据本发明的显著性评估方案后图2a和图2b的显著性评估实验结果。通过使用本显著性评估方法,图2a中的观众和图2b中的背景被认为是非显著的,且图3a中女舞者头部左边的小方块也从图7a中消除。本发明能够解决局部效应和视频纹理,并且更具应用性。
同时先前的描述中也已叙述了本发明的较佳实施例和各方面,本领域的技术人员能够理解的是许多在设计或结构上的细节变化是不脱离本发明的。本发明延伸至所有揭露的个别特征和其所有可能的排列、组合。
建立在多层同心圆的显著性评估方案基础上的基于对象的视频注意力模型使图像理解得更精确、计算得更高效,其具有如下优点:
1.本发明揭示了一个建立基于对象的视觉注意力模型的高效构架。且其计算复杂性低。
2.所揭示的结构更符合人类视觉。且很好地解决了在传统方案中未被考虑的人类视觉属性(如对象尺寸、局部效应及视频纹理)。
3.该构架是可以延伸的。

Claims (6)

1.一种图像显著性评估方法,包括步骤:
-将图像分割成复数个待评估的对象;
-对每个分割对象提取其特征地图;
其特征在于,该方法还包括步骤:
-基于提取的特征地图,计算每个被分割对象在该对象的中心像素周围定义的一系列圆中的显著性;以及
-将每个被分割对象在所有圆中的显著性结合,从而得出每个被分割对象的总体显著性的评估,
所述定义在每个被分割对象中心像素周围的一系列圆为同心圆。
2.根据权利要求1所述的方法,其特征在于,所述提取特征地图的步骤是基于图像颜色变化的量度。
3.根据权利要求1至2中任一项所述的方法,其特征在于,在计算每个被分割对象的显著性的步骤中还包括比较待评估对象和定义在该待评估对象周围的每个圆中任何其他对象的颜色特征的分步骤。
4.根据权利要求3中任一项所述的方法,其特征在于,所述比较步骤通过计算待评估对象和定义在待评估对象周围的每个圆中任何其他对象间颜色特征的绝对差别来执行。
5.根据权利要求1所述的方法,其特征在于,在计算每个被分割对象的显著性的步骤中,一检测函数被用于检测图像的视频纹理。
6.根据权利要求1所述的方法,其特征在于,一对象的显著性总体评估是该对象在所有圆中的显著性的线性组合。
CN200780015252XA 2006-04-28 2007-04-27 基于对象的视觉注意力模型的显著性评估方法 Expired - Fee Related CN101432775B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP06300418 2006-04-28
EP06300418.8 2006-04-28
EP06300538A EP1862966A1 (en) 2006-05-31 2006-05-31 Salience estimation for object-based visual attention model
EP06300538.3 2006-05-31
PCT/EP2007/054195 WO2007125115A1 (en) 2006-04-28 2007-04-27 Salience estimation for object-based visual attention model

Publications (2)

Publication Number Publication Date
CN101432775A CN101432775A (zh) 2009-05-13
CN101432775B true CN101432775B (zh) 2012-10-03

Family

ID=36994720

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200780015252XA Expired - Fee Related CN101432775B (zh) 2006-04-28 2007-04-27 基于对象的视觉注意力模型的显著性评估方法

Country Status (1)

Country Link
CN (1) CN101432775B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5602155B2 (ja) * 2009-12-14 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置および入力方法
CN102378037A (zh) * 2010-08-04 2012-03-14 致伸科技股份有限公司 影像采集装置的影像测试方法与应用该方法的影像测试装置
CN102103750B (zh) * 2011-01-07 2012-09-19 杭州电子科技大学 基于韦伯定理和中央-周围假设的视觉显著性检测方法
CN103020985B (zh) * 2012-11-12 2015-12-09 华中科技大学 一种基于场量分析的视频图像显著性检测方法
CN113012089B (zh) * 2019-12-19 2024-07-09 北京金山云网络技术有限公司 一种图像质量评价方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1017019A2 (en) * 1998-12-31 2000-07-05 Eastman Kodak Company Method for automatic determination of main subjects in photographic images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1017019A2 (en) * 1998-12-31 2000-07-05 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LUO J ET AL.On measuring low-level self and relative saliency in photographic images.《PATTERN RECOGNITION LETTERS》.2001,第22卷(第2期),157-169.
LUO J ET AL.On measuring low-level self and relative saliency in photographic images.《PATTERN RECOGNITION LETTERS》.2001,第22卷(第2期),157-169. *

Also Published As

Publication number Publication date
CN101432775A (zh) 2009-05-13

Similar Documents

Publication Publication Date Title
CN102567731B (zh) 一种感兴趣区域提取方法
EP2013850B1 (en) Salience estimation for object-based visual attention model
Preetha et al. Image segmentation using seeded region growing
CN102663382B (zh) 基于子网格特征自适应加权的视频图像文字识别方法
CN102496034B (zh) 基于直线单词的高空间分辨率遥感图像词袋分类方法
CN103942564B (zh) 基于非监督特征学习的高分辨率遥感影像场景分类方法
CN101432775B (zh) 基于对象的视觉注意力模型的显著性评估方法
CN103617618B (zh) 基于特征提取与聚类集成的sar图像分割方法
CN106023145A (zh) 基于超像素标注的遥感图像的分割与识别方法
CN103218619A (zh) 一种图像美学评价方法
CN107730515A (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN103065300A (zh) 一种视频标注方法和装置
Tian et al. Natural scene text detection with MC–MR candidate extraction and coarse-to-fine filtering
CN107369158A (zh) 基于rgb‑d图像的室内场景布局估计及目标区域提取方法
CN104463248A (zh) 基于深度玻尔兹曼机提取高层特征的高分辨率遥感图像飞机检测方法
CN104835196A (zh) 一种车载红外图像彩色化三维重建方法
CN108829711A (zh) 一种基于多特征融合的图像检索方法
CN105426846A (zh) 一种基于图割模型的场景图像中文本的定位方法
CN105931241A (zh) 一种自然场景图像的自动标注方法
CN103678552A (zh) 基于显著区域特征的遥感影像检索方法及系统
CN104751175A (zh) 基于增量支持向量机的sar图像多类标场景分类方法
Guo et al. Visual complexity assessment of painting images
CN101866422A (zh) 基于图像的多特征融合提取图像关注度的方法
Li et al. The research on traffic sign recognition based on deep learning
CN107665347A (zh) 基于滤波优化的视觉显著性目标检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121003

Termination date: 20190427

CF01 Termination of patent right due to non-payment of annual fee