CN103810707A - 一种基于移动视觉焦点的图像视觉显著性检测方法 - Google Patents

一种基于移动视觉焦点的图像视觉显著性检测方法 Download PDF

Info

Publication number
CN103810707A
CN103810707A CN201410042192.2A CN201410042192A CN103810707A CN 103810707 A CN103810707 A CN 103810707A CN 201410042192 A CN201410042192 A CN 201410042192A CN 103810707 A CN103810707 A CN 103810707A
Authority
CN
China
Prior art keywords
image
visual focus
color
pixel
centerdot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410042192.2A
Other languages
English (en)
Other versions
CN103810707B (zh
Inventor
陈志华
袁玉波
张静
肖小龙
刘怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China University of Science and Technology
Original Assignee
East China University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China University of Science and Technology filed Critical East China University of Science and Technology
Priority to CN201410042192.2A priority Critical patent/CN103810707B/zh
Publication of CN103810707A publication Critical patent/CN103810707A/zh
Application granted granted Critical
Publication of CN103810707B publication Critical patent/CN103810707B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明提供一种基于移动视觉焦点的图像视觉显著性检测方法,包括:输入原始图像,运用基于图的分割算法将原始图像分割成K个区域;对原始图像进行量化及高频颜色筛选;利用分割图像得到量化图像对应的分割区域并进行区域对比计算以获取某一区域的显著值从而获得初始显著图;以图像中心为初始视觉焦点对初始显著图进行加权计算;利用显著性引力模型计算视觉焦点的移动距离及移动方向以获取下一个视觉焦点,直到当前焦点距离与上一焦点距离小于1为止;运用最终的视觉焦点对获得最终视觉焦点的前一次得到的显著图加权从而获得最终显著图。相比于现有技术,本发明的检测方法的显著图准确率更高,可均匀突出显著物体,并很好地抑制图像背景。

Description

一种基于移动视觉焦点的图像视觉显著性检测方法
技术领域
本发明涉及计算机视觉及图像处理领域,尤其涉及一种基于移动视觉焦点的图像视觉显著性检测方法。
背景技术
在漫长的人类进化过程中,人们已经具备了快速获取视觉信息,并对这些信息进行快速准确抉择的能力。在各种图像处理技术中,计算机所关注的并不是图像的全部内容,而是一部分感兴趣区域或者非感兴趣区域。通过视觉显著性算法去检测图像的显著区域,并给予不同区域的处理优先级,从而更好地利用计算资源,提高计算效率。现今,视觉显著性检查技术已经被广泛运用到图像检索、图像和视频压缩、目标检测、图像及视频分割等许多图像处理领域,并很好地促进了这些领域的发展。图像视觉显著性检测旨在检测图像的显著区域,便于图像的后期处理,是目前重要的研究领域之一。显著性检测过程通过计算机去模拟人类观察图像的过程,去计算获取符合人体视觉焦点的图像显著性区域,从而完成计算机的自适应处理。
对于图像视觉显著性检测算法,现有技术中的一种解决方案为,基于自底向上的视觉注意机制,分析人眼对图像内容的理解,利用图像的底层特征、视觉特性并引入引力模型区检测出更加准确的图像显著性区域。由于纯计算的显著性计算方法速度快,符合人类视觉系统快速获取显著物体的视觉原理,所以这类方法也是目前研究得比较多的方法。此外,现有方案中还包括基于局部对比分析法获得图像显著图、基于多尺度对比分析的显著性区域提取法、频率调谐的视觉显著性算法、最大对称周边的视觉显著性检测算法,然而,基于局部对比分析法得到的视觉显著图,在图像的边缘具有较高的显著性,但并未均匀地突出整个物体;基于频率调谐的视觉显著性算法,并不适用于那些显著物体占据太多像素的图像;而最大对称周边的显著性检测算法,并未考虑空间信息对视觉显著性的影响。
有鉴于此,如何设计一种新颖的图像视觉显著性检测算法,以改善或消除现有的上述缺陷,使视觉显著图的准确率更高,是业内相关技术人员亟待解决的一项课题。
发明内容
针对现有技术中的图像视觉显著性检测方法所存在的上述缺陷,本发明提供了一种基于移动视觉焦点的图像视觉显著性检测方法,可使视觉显著图的准确率更高,并且能够均匀突出显著物体和很好地抑制图像背景。
依据本发明的一个方面,提供了一种基于移动视觉焦点的图像视觉显著性检测方法,包括以下步骤:
输入该原始图像,运用基于图的分割算法将原始图像分割成K个区域;
对输入的所述原始图像进行量化及高频颜色的筛选;
利用分割图像得到量化图像对应的分割区域并进行区域对比,计算获取第i个区域的视觉显著值从而获得初始显著图,1≤i≤K;
以图像中心为初始视觉焦点,对所获得的所述初始显著图进行加权计算;
利用显著性引力模型计算视觉焦点的移动距离及移动方向,获取下一个视觉焦点,直到当前视觉焦点的距离与上一视觉焦点的距离小于1为止;以及运用最终的视觉焦点对获得最终视觉焦点的前一次得到的显著图加权以获得最终显著图。
在其中的一实施例中,上述对原始图像进行量化及高频颜色筛选的步骤还包括:将所述原始图像的RGB通道的颜色值量化为12个不同的值,其计算式为:
[ P s , t 1 , R , P s , t 1 , G , P s , t 1 , B ] T = Int ( 12 255 [ P s , t R , P s , t G , P s , t B ] T )
其中,s=1,2,…,m;t=1,2,…n;
Figure BDA0000463580940000032
分别表示原始图像中的像素点在RGB颜色空间每个通道的颜色值;
Figure BDA0000463580940000033
分别表示量化后图像中的像素点在RGB颜色空间每个通道的颜色值;Int(.)表示将浮点型转换为整型,此时图像集被重新定义为如下:
D 1 = { I 1 1 , I 2 1 , · · · I N 0 1 }
对于每个像素
Figure BDA0000463580940000035
通过下面的公式结合三个通道的颜色值:
P s , t 2 = P s , t 1 , R P s , t 1 , G P s , t 1 , B 12 2 12 1
s=1,2,…,m;t=1,2…,n.
其中,
Figure BDA0000463580940000037
表示三通道值经过转化后,得到的单通道值;
Figure BDA0000463580940000039
分别表示像素点Ps,t在RGB颜色空间下每个通道的颜色值,此时图像集被重新定义为一个矩阵集:
D 2 = { I 1 2 , I 2 2 , · · · I N 0 2 }
通过一个有序的统计直方图去获得每种颜色出现的频率,对于每一个
Figure BDA0000463580940000042
颜色频率统计操作H:
Figure BDA00004635809400000418
如下:
H ( I i 2 ) = ( f 0 i , f 1 i , · · · , f N i i )
其中,
Figure BDA0000463580940000044
是第i幅图像中颜色m出现的频率,m={0,1,2…,Ni};而H(·)操作包括
Figure BDA0000463580940000045
从小到大的排列;
统计出现频率高的颜色并确保这些颜色覆盖95%像素,其余颜色用与其颜色距离差最近的颜色替代,具体步骤如下:
s k i = Σ j = 0 k f j i , k = 0,1 · · · , N i
其中,表示需要累加得到的颜色数目,k表示截断时第k种颜色的索引颜色舍去阈值被定义为:
C1=0.05×m×n
最大限度的截断范围Mi定义如下:
M i = k , if s k i ≤ C 1 and s k + 1 i > C 1 256 , N i - k ≥ 256
每个像素
Figure BDA0000463580940000049
的颜色索引函数如下:
index ( f ( P s , t 1 ) ) = j , if f ( P s , t 2 ) = f j i
其中,
Figure BDA00004635809400000411
表示像素点
Figure BDA00004635809400000412
的统计函数,
图像
Figure BDA00004635809400000413
的颜色可以被截断为U1和U2两部分:
U 1 i = { P s , t 1 ∈ I i 1 | index ( f ( P s , t 1 ) ) ≤ M i }
U 2 i = { P s , t 1 ∈ I i 1 | index ( f ( P s , t 1 ) ) > M i }
对于每一个像素
Figure BDA00004635809400000415
量化函数如下:
P s , t 3 = q ( P s , t 1 ) , P s , t 1 ∈ U 1 i P s , t 1 , otherwise
其中,
q ( P s , t 1 ) = arg min P ∈ U 2 i d ( P s , t 1 , P ) , P ∈ U 2 i
d ( P s , t 1 , P ) = | P s , t 1 , R - P R | 2 + | P s , t 1 , G - P G | 2 + | P s , t 1 , G - P G | 2
出现频率较低的颜色将会被最相似的颜色所替代,此时图像集被重新定义为:
D 3 = { I 1 3 , I 2 3 , · · · , I N 0 3 } .
在其中的一实施例中,将分割图像与量化图像结合计算所述初始显著图采用以下计算式:
S ( s k ) = Σ s k ≠ s i exp ( - D s ( s k , s i ) / σ s 2 ) w ( s i ) D c ( s k , s i )
其中,S(sk)表示分割区域sk的显著值;w(si)是区域si的权值,用来控制它对区域sk显著值的影响,这里取区域si中像素点的个数作为它的值;Ds(sk,si)是区域sk和si之间的空间距离,这个距离指的是两个区域重心之间的欧氏距离;σ2用来控制空间权值强度,Dc(sk,si)是区域sk和区域si之间的颜色距离度量,计算公式如下:
D c ( s 1 , s 2 ) = Σ i = 1 c 1 Σ j = 1 c 2 f ( c 1 , i ) f ( c 2 , j ) D ( c 1 , i , c 2 , j )
其中,f(ck,i)是分割区域sk中第i种颜色在该区域所有颜色ck出现的频数,k={1,2};c1和c2分别表示区域s1和区域s2的颜色总数目。
在其中的一实施例中,以图像中心为初始视觉焦点对初始显著图进行加权计算采用如下计算式:
S ( s k ) = W i Σ s k ≠ s i exp ( - D s ( s k , s i ) / σ s 2 ) w ( s i ) D c ( s k , s i )
Wi=exp(-δ×Ds(sk,VFi))
其中,Ds(sk,VFi)是分割区域sk和初始视觉焦点VFi之间的距离,这里计算的是分割区域sk的重心与VFi之间的距离,δ是用来控制视觉焦点的强度。
在其中的一实施例中,上述利用显著性引力模型计算视觉焦点的移动距离及移动方向获取下一个视觉焦点的步骤还包括:
计算图像中每个像素点对原始视觉焦点显著性引力,计算式为:
Fi=S(pi)exp(-λ×D2(pi,VF))
其中,S(pi)表示像素点pi的显著值;D2(pi,VF)表示像素点pi到视觉焦点VF的距离,λ用来控制空间权值的强度;
计算每个像素点在水平方向和垂直方向上的分力,其计算式如下:
F H = F × sin θ F V = F × cos θ
其中,
sin θ = p x - V F x D ( p i , VF ) cos θ = p y - V F y D ( p i , VF )
其中,px和py分别表示当前像素点在水平方向和垂直方向的坐标,VFx和VFy分别表示视觉焦点在水平方向和垂直方向的坐标,D(pi,VF)表示像素点pi到视觉焦点VF的欧氏距离;
获得所有像素点在水平方向和垂直方向的合力,其计算式如下:
F c H = Σ i = 1 m × n F i H F c V = Σ i = 1 m × n F i V
其中
Figure BDA0000463580940000064
Figure BDA0000463580940000065
分别表示所有像素点在水平方向和垂直方向的合力,
Figure BDA0000463580940000066
分别表示每个像素点在水平方向和垂直方向的显著性引力;
量化
Figure BDA0000463580940000068
Figure BDA0000463580940000069
使得其与像素点的坐标在同一个量化范围内,其计算式如下:
d x → = F c H m × n d y → = F c V m × n
其中,
Figure BDA00004635809400000611
Figure BDA00004635809400000612
表示当前视觉焦点在水平方向和垂直方向上移动的距离,m×n表示图像中像素点的总数目;
计算下一个视觉焦点的坐标,其计算式如下:
[ VF x ′ , VF y ′ ] = [ VF x + d x , → VF y + d y → ] .
在其中的一实施例中,上述直到当前焦点距离与上一焦点距离小于1为止的重复计算步骤还包括,每次计算保留上一个视觉焦点位置,然后计算下一个视觉焦点位置与上一个视觉焦点位置之间的距离,直到两者间的距离小于1时停止计算。
在其中的一实施例中,上述对获得最终显著焦点的前一次得到的视觉显著图进行最终显著焦点加权采用计算式:
S ‾ ( s k ) = W f Σ s k ≠ s i exp ( - D s ( s k , s i ) / σ s 2 ) w ( s i ) D c ( s k , s i )
Wf=exp(-δ×Ds(sk,VFf))
其中,VFf表示最终的视觉焦点。
采用本发明的基于移动视觉焦点的图像视觉显著性检测方法,在计算视觉显著图的时候,引入视觉焦点这一视觉特性,并通过显著性引力模型计算视觉焦点的移动距离及移动方向,获取下一个视觉焦点,直到当前视觉焦点的距离与上一视觉焦点的距离小于1为止从而获取正确的视觉焦点进行显著性计算。相比于现有技术,运用本发明的检测方法所得到的视觉显著图准确率更高,既可均匀地突出显著物体,还能很好地抑制图像背景,更有利于后期目标物体分割等应用。
附图说明
读者在参照附图阅读了本发明的具体实施方式以后,将会更清楚地了解本发明的各个方面。其中,
图1是本发明基于移动视觉焦点的图像视觉显著性检测方法的流程图;
图2是通过GB分割算法得到的分割图像与原始图像的比较图;
图3是经过量化得到的量化图像与原始图像的比较图;
图4是初始视觉焦点加权得到的视觉显著图;
图5是最终视觉焦点加权得到的视觉显著图;以及
图6是最终和其他方法对比显著图。
具体实施方式
为了使本申请所揭示的技术内容更加详尽与完备,可参照附图以及本发明的下述各种具体实施例,附图中相同的标记代表相同或相似的组件。然而,本领域的普通技术人员应当理解,下文中所提供的实施例并非用来限制本发明所涵盖的范围。此外,附图仅仅用于示意性地加以说明,并未依照其原尺寸进行绘制。
下面参照附图,对本发明各个方面的具体实施方式作进一步的详细描述。本发明的视图显著性检测方法的硬件条件为,CPU频率2.20Ghz,内存4G的PC,软件工具为Visual Studio 2010以及OpenCV2.4.3。
如图1所示,本发明的基于移动视觉焦点的图像视觉显著性检测方法包括以下步骤:
输入原始图像,采用基于图的快速分割算法(Felzenszwalb等人2004年提出的快速的基于图的图像分割算法)将图像分割成若干个小块区域,输入图像与分割图像如图2所示;
对原始图像进行量化及高频颜色的筛选。在一具体实施例中,对原始图像量化和筛选的步骤如下:
(2-1)将原始图像RGB通道的颜色值量化为12个不同的值,其计算式为:
[ P s , t 1 , R , P s , t 1 , G , P s , t 1 , B ] T = Int ( 12 255 [ P s , t R , P s , t G , P s , t B ] T ) - - - ( 1 )
其中,s=1,2,…,m;t=1,2,…n;
Figure BDA0000463580940000092
分别表示原始图像中像素点在RGB空间每个通道的颜色值;分别表示量化后图像中像素点在RGB空间的每个通道的颜色值;Int(.)表示将浮点型转换为整型。此时图像集被重新定义为如下:
D 1 = { I 1 1 , I 2 1 , · · · I N 0 1 } - - - ( 2 )
(2-2)对于每个像素
Figure BDA0000463580940000095
通过下面的公式结合三个通道的颜色值:
P s , t 2 = P s , t 1 , R P s , t 1 , G P s , t 1 , B 12 2 12 1 - - - ( 3 )
s=1,2,…,m;t=1,2…,n.
其中,
Figure BDA0000463580940000097
表示三通道值经过转化后,得到的单通道值;
Figure BDA0000463580940000098
Figure BDA0000463580940000099
分别表示像素点Ps,t在RGB颜色空间下每个通道的颜色值。此时图像集被重新定义为一个矩阵集:
D 2 = { I 1 2 , I 2 2 , · · · I N 0 2 } - - - ( 4 )
(2-3)通过一个有序的统计直方图去获得每种颜色出现的频率,对于每一个颜色频率统计操作H:
Figure BDA00004635809400000916
如下:
H ( I i 2 ) = ( f 0 i , f 1 i , · · · , f N i i ) - - - ( 5 )
其中,
Figure BDA00004635809400000913
是第i幅图像中颜色m出现的频率,m={0,1,2…,Ni};而H(·)操作包括
Figure BDA00004635809400000914
从小到大的排列。
(2-4)统计出现频率高的颜色并确保这些颜色覆盖95%像素,其余颜色用与其颜色距离差最近的颜色替代,具体步骤如下:
s k i = Σ j = 0 k f j i , k = 0,1 · · · , N i - - - ( 6 )
其中,
Figure BDA0000463580940000101
表示需要累加得到的颜色数目,k表示截断时第k种颜色的索引颜色舍去阈值被定义为:
C1=0.05×m×n(7)
最大限度的截断范围Mi定义如下:
M i = k , if s k i ≤ C 1 and s k + 1 i > C 1 256 , N i - k ≥ 256 - - - ( 8 )
Ni-k≥256条件表示当累加到5%的像素数目时,如果剩余的颜色数目仍然超过256,为了避免过多颜色的相似性,就取Mi=256。
每个像素
Figure BDA0000463580940000103
的颜色索引函数如下:
index ( f ( P s , t 1 ) ) = j , if f ( P s , t 2 ) = f j i - - - ( 9 )
其中,
Figure BDA0000463580940000105
表示像素点
Figure BDA0000463580940000106
的统计函数。
图像的颜色可以被截断为U1和U2两部分:
U 1 i = { P s , t 1 ∈ I i 1 | index ( f ( P s , t 1 ) ) ≤ M i } U 2 i = { P s , t 1 ∈ I i 1 | index ( f ( P s , t 1 ) ) > M i } - - - ( 10 )
对于每一个像素
Figure BDA0000463580940000109
量化函数如下:
P s , t 3 = q ( P s , t 1 ) , P s , t 1 ∈ U 1 i P s , t 1 , otherwise - - - ( 11 )
其中,
q ( P s , t 1 ) = arg min P ∈ U 2 i d ( P s , t 1 , P ) , P ∈ U 2 i - - - ( 12 )
d ( P s , t 1 , P ) = | P s , t 1 , R - P R | 2 + | P s , t 1 , G - P G | 2 + | P s , t 1 , G - P G | 2 - - - ( 13 )
公式(11)定义的函数表明出现频率较低的颜色将会被最相似的颜色所替代。此时,图像集被重新定义为:
D 3 = { I 1 3 , I 2 3 , · · · , I N 0 3 } - - - ( 14 )
量化后的图像如图3所示。
(1)利用分割图像得到量化图像对应的分割区域并进行区域对比计算获取第i个区域的显著值从而获得初始显著图,将步骤(1)的分割图像与步骤(2-4)的量化图像结合计算初始显著图,其计算式为:
S ( s k ) = Σ s k ≠ s i exp ( - D s ( s k , s i ) / σ s 2 ) w ( s i ) D c ( s k , s i ) - - - ( 15 )
其中,S(sk)表示分割区域sk的显著值;w(si)是区域si的权值,用来控制它对区域sk显著值的影响,这里取区域si中像素点的个数作为它的值;Ds(sk,si)是区域sk和si之间的空间距离,这个距离指的是两个区域重心之间的欧氏距离;σ2用来控制空间权值强度,这里σ2取0.4。Dc(sk,si)是区域sk和区域si之间的颜色距离度量,计算公式如下:
D c ( s 1 , s 2 ) = Σ i = 1 c 1 Σ j = 1 c 2 f ( c 1 , i ) f ( c 2 , j ) D ( c 1 , i , c 2 , j ) - - - ( 16 )
其中,f(ck,i)是分割区域sk中第i种颜色在该区域所有颜色ck出现的频数,k={1,2};c1和c2分别表示区域s1和区域s2的颜色总数目。初始显著图如图4所示。
(2)以图像中心为初始视觉焦点对初始显著图进行加权计算,其计算式如下:
S ( s k ) = W i Σ s k ≠ s i exp ( - D s ( s k , s i ) / σ s 2 ) w ( s i ) D c ( s k , s i ) - - - ( 17 )
其中,
Wi=exp(-δ×Ds(sk,VFi))   (18)
其中,Ds(sk,VFi)是分割区域sk和初始视觉焦点VFi(图像的中心)之间的距离,这里计算的是分割区域sk的重心与VFi之间的距离。δ是用来控制视觉焦点的强度,这里δ设置为0.4。初始加权显著图如图5所示。
(3)利用显著性引力模型计算视觉焦点的移动距离及移动方向获取下一个视觉焦点,其具体步骤如下:
(5-1)计算图像中每个像素点对原始视觉焦点显著性引力,其计算式如下:
Fi=S(pi)exp(-λ×D2(pi,VF))   (19)
其中,S(pi)表示像素点pi的显著性值;D2(pi,VF)表示像素点pi到视觉焦点VF的距离。λ用来控制空间权值的强度,这里λ设置为9。
(5-2)计算每个像素点在水平方向和垂直方向上的分力,其计算式如下:
F H = F × sin θ F V = F × cos θ - - - ( 20 )
其中,
sin θ = p x - V F x D ( p i , VF ) cos θ = p y - V F y D ( p i , VF ) - - - ( 21 )
其中,px和py分别表示当前像素点水平方向和垂直方向上的坐标。VFx和VFy分别表示视觉焦点水平方向和垂直方向上的坐标。D(pi,VF)表示像素点pi到视觉焦点VF的欧氏距离。
(5-3)获得所有像素点在水平方向和垂直方向上的合力,其计算式如下:
F c H = Σ i = 1 m × n F i H F c V = Σ i = 1 m × n F i V - - - ( 22 )
其中,
Figure BDA0000463580940000124
Figure BDA0000463580940000125
分别表示所有像素点在水平方向和垂直方向上的合力,
Figure BDA0000463580940000126
Figure BDA0000463580940000127
分别表示每个像素点水平方向和垂直方向上的显著性引力。
(5-4)量化
Figure BDA0000463580940000128
Figure BDA0000463580940000129
使得其与像素点的坐标在同一个量化范围内,其计算式如下:
d x → = F c H m × n d y → = F c V m × n - - - ( 23 )
其中,
Figure BDA00004635809400001211
Figure BDA00004635809400001212
表示当前视觉焦点在水平方向和垂直方向上移动的距离,m×n表示图像中像素点的总数目。
(5-5)计算新的视觉焦点的坐标,其计算式如下:
[ VF x ′ , VF y ′ ] = [ VF x + d x → , VF y + d y → ] - - - ( 24 )
(4)重复步骤(5)直到当前焦点距离与上一焦点距离小于1为止,重复计算步骤(5)下面的具体计算步骤,每次计算保留上一个焦点的位置,然后计算新的焦点位置与上一个焦点位置之间的距离,直到两者间的距离小于1时停止计算。
(5)运用最终的视觉焦点对获得的视觉显著图加权从而获得最终显著图。对获得最终视觉焦点的前一次得到的视觉显著图进行最终视觉焦点加权,其计算式如下:
S ‾ ( s k ) = W f Σ s k ≠ s i exp ( - D s ( s k , s i ) / σ s 2 ) w ( s i ) D c ( s k , s i ) - - - ( 25 )
Wf=exp(-δ×Ds(sk,VFf))   (26)
其中,VFf表示最终获得的视觉焦点。最终显著图如图6所示。
上文中,参照附图描述了本发明的具体实施方式。但是,本领域中的普通技术人员能够理解,在不偏离本发明的精神和范围的情况下,还可以对本发明的具体实施方式作各种变更和替换。这些变更和替换都落在本发明权利要求书所限定的范围内。

Claims (7)

1.一种基于移动视觉焦点的图像视觉显著性检测方法,其特征在于,该图像视觉显著性检测方法包括以下步骤:
输入原始图像,运用基于图的分割算法将所述原始图像分割成K个区域;
对输入的所述原始图像进行量化及高频颜色筛选;
利用分割图像得到量化图像对应的分割区域,并进行区域对比,计算获取第i个区域的视觉显著值从而获得初始显著图,1≤i≤K;
以图像中心为初始视觉焦点,对所获得的所述初始显著图进行加权计算;
利用显著性引力模型计算视觉焦点的移动距离及移动方向,获取下一个视觉焦点,直到当前视觉焦点的距离与上一视觉焦点的距离小于1为止;以及运用最终的视觉焦点对获得最终视觉焦点的前一次得到的显著图加权以获得最终显著图。
2.根据权利要求1所述的图像视觉显著性检测方法,其特征在于,上述对原始图像进行量化及高频颜色筛选的步骤还包括:
将所述原始图像的RGB通道的颜色值量化为12个不同的值,其计算式为:
[ P s , t 1 , R , P s , t 1 , G , P s , t 1 , B ] T = Int ( 12 255 [ P s , t R , P s , t G , P s , t B ] T )
其中,s=1,2,…,m;t=1,2,…n;
Figure FDA0000463580930000012
分别表示原始图像中的像素点在RGB颜色空间每个通道的颜色值;
Figure FDA0000463580930000013
分别表示量化后图像中的像素点在RGB颜色空间每个通道的颜色值;Int(.)表示将浮点型转换为整型,此时图像集被重新定义为如下:
D 1 = { I 1 1 , I 2 1 , · · · I N 0 1 }
对于每个像素通过下面的公式结合三个通道的颜色值:
P s , t 2 = P s , t 1 , R P s , t 1 , G P s , t 1 , B 12 2 12 1
s=1,2,…,m;t=1,2…,n.
其中,
Figure FDA0000463580930000023
表示三通道值经过转化后,得到的单通道值;
Figure FDA0000463580930000024
Figure FDA0000463580930000025
分别表示像素点Ps,t在RGB颜色空间下每个通道的颜色值,此时图像集被重新定义为一个矩阵集:
D 2 = { I 1 2 , I 2 2 , · · · I N 0 2 }
通过一个有序的统计直方图去获得每种颜色出现的频率,对于每一个
Figure FDA0000463580930000027
颜色频率统计操作H:如下:
H ( I i 2 ) = ( f 0 i , f 1 i , · · · , f N i i )
其中,
Figure FDA0000463580930000029
是第i幅图像中颜色m出现的频率,m={0,1,2…,Ni};而H(·)操作包括
Figure FDA00004635809300000210
从小到大的排列;
统计出现频率高的颜色并确保这些颜色覆盖95%像素,其余颜色用与其颜色距离差最近的颜色替代,具体步骤如下:
s k i = Σ j = 0 k f j i , k = 0,1 · · · , N i
其中,表示需要累加得到的颜色数目,k表示截断时第k种颜色的索引颜色舍去阈值被定义为:
C1=0.05×m×n
最大限度的截断范围Mi定义如下:
M i = k , if s k i ≤ C 1 and s k + 1 i > C 1 256 , N i - k ≥ 256
每个像素
Figure FDA00004635809300000214
的颜色索引函数如下:
index ( f ( P s , t 1 ) ) = j , if f ( P s , t 2 ) = f j i
其中,
Figure FDA00004635809300000216
表示像素点的统计函数,
图像
Figure FDA00004635809300000218
的颜色可以被截断为U1和U2两部分:
U 1 i = { P s , t 1 ∈ I i 1 | index ( f ( P s , t 1 ) ) ≤ M i }
U 2 i = { P s , t 1 ∈ I i 1 | index ( f ( P s , t 1 ) ) > M i }
对于每一个像素量化函数如下:
P s , t 3 = q ( P s , t 1 ) , P s , t 1 ∈ U 1 i P s , t 1 , otherwise
其中,
q ( P s , t 1 ) = arg min P ∈ U 2 i d ( P s , t 1 , P ) , P ∈ U 2 i
d ( P s , t 1 , P ) = | P s , t 1 , R - P R | 2 + | P s , t 1 , G - P G | 2 + | P s , t 1 , G - P G | 2
出现频率较低的颜色将会被最相似的颜色所替代,此时图像集被重新定义为:
D 3 = { I 1 3 , I 2 3 , · · · , I N 0 3 } .
3.根据权利要求1所述的图像视觉显著性检测方法,其特征在于,将分割图像与量化图像结合计算所述初始显著图采用以下计算式:
S ( s k ) = Σ s k ≠ s i exp ( - D s ( s k , s i ) / σ s 2 ) w ( s i ) D c ( s k , s i )
其中,S(sk)表示分割区域sk的显著值;w(si)是区域si的权值,用来控制它对区域sk显著值的影响,这里取区域si中像素点的个数作为它的值;Ds(sk,si)是区域sk和si之间的空间距离,这个距离指的是两个区域重心之间的欧氏距离;σ2用来控制空间权值强度,Dc(sk,si)是区域sk和区域si之间的颜色距离度量,计算公式如下:
D c ( s 1 , s 2 ) = Σ i = 1 c 1 Σ j = 1 c 2 f ( c 1 , i ) f ( c 2 , j ) D ( c 1 , i , c 2 , j )
其中,f(ck,i)是分割区域sk中第i种颜色在该区域所有颜色ck出现的频数,k={1,2};c1和c2分别表示区域s1和区域s2的颜色总数目。
4.根据权利要求1所述的图像视觉显著性检测方法,其特征在于,以图像中心为初始视觉焦点对初始显著图进行加权计算采用如下计算式:
S ( s k ) = W i Σ s k ≠ s i exp ( - D s ( s k , s i ) / σ s 2 ) w ( s i ) D c ( s k , s i )
Wi=exp(-δ×Ds(sk,VFi))
其中,Ds(sk,VFi)是分割区域sk和初始视觉焦点VFi之间的距离,这里计算的是分割区域sk的重心与VFi之间的距离,δ是用来控制视觉焦点的强度。
5.根据权利要求1所述的图像视觉显著性检测方法,其特征在于,上述利用显著性引力模型计算视觉焦点的移动距离及移动方向获取下一个视觉焦点的步骤还包括:
计算图像中每个像素点对原始视觉焦点显著性引力,计算式为:
Fi=S(pi)exp(-λ×D2(pi,VF))
其中,S(pi)表示像素点pi的显著值;D2(pi,VF)表示像素点pi到视觉焦点VF的距离,λ用来控制空间权值的强度;
计算每个像素点在水平方向和垂直方向上的分力,其计算式如下:
F H = F × sin θ F V = F × cos θ
其中,
sin θ = p x - V F x D ( p i , VF ) cos θ = p y - V F y D ( p i , VF )
其中,px和py分别表示当前像素点在水平方向和垂直方向的坐标,VFx和VFy分别表示视觉焦点在水平方向和垂直方向的坐标,D(pi,VF)表示像素点pi到视觉焦点VF的欧氏距离;
获得所有像素点在水平方向和垂直方向的合力,其计算式如下:
F c H = Σ i = 1 m × n F i H F c V = Σ i = 1 m × n F i V
其中
Figure FDA0000463580930000052
Figure FDA0000463580930000053
分别表示所有像素点在水平方向和垂直方向的合力,
Figure FDA0000463580930000054
Figure FDA0000463580930000055
分别表示每个像素点在水平方向和垂直方向的显著性引力;
量化
Figure FDA0000463580930000056
Figure FDA0000463580930000057
使得其与像素点的坐标在同一个量化范围内,其计算式如下:
d x → = F c H m × n d y → = F c V m × n
其中,
Figure FDA0000463580930000059
表示当前视觉焦点在水平方向和垂直方向上移动的距离,m×n表示图像中像素点的总数目;
计算下一个视觉焦点的坐标,其计算式如下:
[ VF x ′ , VF y ′ ] = [ VF x + d x → , VF y + d y → ] .
6.根据权利要求1所述的图像视觉显著性检测方法,其特征在于,上述直到当前焦点距离与上一焦点距离小于1为止的重复计算步骤还包括,每次计算保留上一个视觉焦点位置,然后计算下一个视觉焦点位置与上一个视觉焦点位置之间的距离,直到两者间的距离小于1时停止计算。
7.根据权利要求1所述的图像视觉显著性检测方法,其特征在于,上述对获得最终显著焦点的前一次得到的视觉显著图进行最终显著焦点加权采用计算式:
S ‾ ( s k ) = W f Σ s k ≠ s i exp ( - D s ( s k , s i ) / σ s 2 ) w ( s i ) D c ( s k , s i )
Wf=exp(-δ×Ds(sk,VFf))
其中,VFf表示最终的视觉焦点。
CN201410042192.2A 2014-01-28 2014-01-28 一种基于移动视觉焦点的图像视觉显著性检测方法 Active CN103810707B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410042192.2A CN103810707B (zh) 2014-01-28 2014-01-28 一种基于移动视觉焦点的图像视觉显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410042192.2A CN103810707B (zh) 2014-01-28 2014-01-28 一种基于移动视觉焦点的图像视觉显著性检测方法

Publications (2)

Publication Number Publication Date
CN103810707A true CN103810707A (zh) 2014-05-21
CN103810707B CN103810707B (zh) 2016-08-17

Family

ID=50707428

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410042192.2A Active CN103810707B (zh) 2014-01-28 2014-01-28 一种基于移动视觉焦点的图像视觉显著性检测方法

Country Status (1)

Country Link
CN (1) CN103810707B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985130A (zh) * 2014-05-27 2014-08-13 华东理工大学 一种针对复杂纹理图像的图像显著性分析方法
CN104680523A (zh) * 2015-02-11 2015-06-03 浙江工业大学 基于前景和背景先验的多模态区域一致性的显著性对象检测方法
CN106204551A (zh) * 2016-06-30 2016-12-07 北京奇艺世纪科技有限公司 一种图像显著性检测方法及装置
CN106682613A (zh) * 2016-12-27 2017-05-17 北京航空航天大学 一种基于人脸显著性的图像压缩方法
CN104240244B (zh) * 2014-09-10 2017-06-13 上海交通大学 一种基于传播模式和流形排序的显著性物体检测方法
CN112417931A (zh) * 2019-08-23 2021-02-26 河海大学常州校区 一种基于视觉显著性的水面物体检测和分类的方法
CN113393458A (zh) * 2021-07-14 2021-09-14 华东理工大学 一种基于伤口加权显著性算法的手部伤口检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129693A (zh) * 2011-03-15 2011-07-20 清华大学 基于色彩直方图和全局对比度的图像视觉显著性计算方法
US20120288189A1 (en) * 2011-05-13 2012-11-15 Tsinghua University Image processing method and image processing device
CN103020992A (zh) * 2012-11-12 2013-04-03 华中科技大学 一种基于运动颜色关联的视频图像显著性检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129693A (zh) * 2011-03-15 2011-07-20 清华大学 基于色彩直方图和全局对比度的图像视觉显著性计算方法
US20120288189A1 (en) * 2011-05-13 2012-11-15 Tsinghua University Image processing method and image processing device
CN103020992A (zh) * 2012-11-12 2013-04-03 华中科技大学 一种基于运动颜色关联的视频图像显著性检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MING-MING CHENG 等: "Global Contrast based Salient Region Detection", 《COMPUTER VISION AND PATTERN RECOGNITION (CVPR),2011 IEEE CONFERENCE ON》, 25 June 2011 (2011-06-25), pages 409 - 416 *
PEDRO F.FELZENSZWALB 等: "Efficient Graph-Based Image Segmentation", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》, vol. 59, no. 2, 31 December 2004 (2004-12-31), pages 167 - 181, XP055013351, DOI: doi:10.1023/B:VISI.0000022288.19776.77 *
杨婷: "视觉注意机制建模中的注意焦点选择及转移轨迹优化设计", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 8, 15 August 2012 (2012-08-15), pages 138 - 790 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985130A (zh) * 2014-05-27 2014-08-13 华东理工大学 一种针对复杂纹理图像的图像显著性分析方法
CN103985130B (zh) * 2014-05-27 2017-07-11 华东理工大学 一种针对复杂纹理图像的图像显著性分析方法
CN104240244B (zh) * 2014-09-10 2017-06-13 上海交通大学 一种基于传播模式和流形排序的显著性物体检测方法
CN104680523A (zh) * 2015-02-11 2015-06-03 浙江工业大学 基于前景和背景先验的多模态区域一致性的显著性对象检测方法
CN104680523B (zh) * 2015-02-11 2017-12-19 浙江工业大学 基于前景和背景先验的多模态区域一致性的显著性对象检测方法
CN106204551A (zh) * 2016-06-30 2016-12-07 北京奇艺世纪科技有限公司 一种图像显著性检测方法及装置
CN106682613A (zh) * 2016-12-27 2017-05-17 北京航空航天大学 一种基于人脸显著性的图像压缩方法
CN106682613B (zh) * 2016-12-27 2020-01-03 北京航空航天大学 一种基于人脸显著性的图像压缩方法
CN112417931A (zh) * 2019-08-23 2021-02-26 河海大学常州校区 一种基于视觉显著性的水面物体检测和分类的方法
CN112417931B (zh) * 2019-08-23 2024-01-26 河海大学常州校区 一种基于视觉显著性的水面物体检测和分类的方法
CN113393458A (zh) * 2021-07-14 2021-09-14 华东理工大学 一种基于伤口加权显著性算法的手部伤口检测方法

Also Published As

Publication number Publication date
CN103810707B (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
CN103810707A (zh) 一种基于移动视觉焦点的图像视觉显著性检测方法
Sultani et al. Human action recognition across datasets by foreground-weighted histogram decomposition
CN106709453B (zh) 一种基于深度学习的体育视频关键姿态提取方法
Narayan et al. Action and interaction recognition in first-person videos
CN103985130A (zh) 一种针对复杂纹理图像的图像显著性分析方法
CN106650740B (zh) 一种车牌识别方法及终端
CN107688784A (zh) 一种基于深层特征和浅层特征融合的字符识别方法及存储介质
CN104408429A (zh) 一种视频代表帧提取方法及装置
CN103020985B (zh) 一种基于场量分析的视频图像显著性检测方法
CN109918971B (zh) 监控视频中人数检测方法及装置
CN104094194A (zh) 用于基于多个传感器信号的融合识别手势的方法和设备
CN104598933A (zh) 一种基于多特征融合的图像翻拍检测方法
CN109657715B (zh) 一种语义分割方法、装置、设备及介质
CN103853724A (zh) 多媒体数据分类方法及装置
CN104318558A (zh) 复杂场景下基于多信息融合的手势分割方法
CN102867183B (zh) 一种车辆遗撒物检测方法、装置及智能交通监控系统
DE112016006922T5 (de) Erkennung einer Aktivität in einer Videobildfolge anhand von Tiefeninformationen
CN103400155A (zh) 基于图半监督学习的色情视频检测方法
CN103092930A (zh) 视频摘要生成方法和视频摘要生成装置
CN109344880A (zh) 基于多特征和复合核的sar图像分类方法
CN109753985A (zh) 视频分类方法及装置
CN102609715B (zh) 一种结合多个兴趣点检测子的物体类识别方法
CN103077383B (zh) 基于时空梯度特征的分部位的人体运动识别方法
CN105512606B (zh) 基于ar模型功率谱的动态场景分类方法及装置
CN104282025A (zh) 一种生物医学图像特征提取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant