CN104392233B - 一种基于区域的图像显著图提取方法 - Google Patents

一种基于区域的图像显著图提取方法 Download PDF

Info

Publication number
CN104392233B
CN104392233B CN201410675041.0A CN201410675041A CN104392233B CN 104392233 B CN104392233 B CN 104392233B CN 201410675041 A CN201410675041 A CN 201410675041A CN 104392233 B CN104392233 B CN 104392233B
Authority
CN
China
Prior art keywords
region
color
pixel
contrast
sim
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410675041.0A
Other languages
English (en)
Other versions
CN104392233A (zh
Inventor
邵枫
姜求平
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yuanyue Technology Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201410675041.0A priority Critical patent/CN104392233B/zh
Publication of CN104392233A publication Critical patent/CN104392233A/zh
Application granted granted Critical
Publication of CN104392233B publication Critical patent/CN104392233B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于区域的图像显著图提取方法,其先采用超像素分割技术对源图像进行分割,然后分别计算各个区域之间的颜色相似性、纹理相似性和空间相似性,再根据各个区域之间的颜色相似性、纹理相似性和空间相似性得到各个区域之间的相似性,接着利用各个区域之间的相似性获得源图像的基于区域颜色对比度的图像显著图、基于区域纹理对比度的图像显著图和基于区域空间紧密度的图像显著图,最终对三幅图像显著图进行融合,得到源图像的最终的图像显著图;优点是获得的图像显著图能够较好地反映图像的显著变化情况,符合图像显著语义的特征。

Description

一种基于区域的图像显著图提取方法
技术领域
本发明涉及一种图像信号的处理方法,尤其是涉及一种基于区域的图像显著图提取方法。
背景技术
在人类视觉接收与信息处理中,由于大脑资源有限以及外界环境信息重要性区别,因此在处理过程中人脑对外界环境信息并不是一视同仁的,而是表现出选择特征。人们在观看图像或者视频片段时注意力并非均匀分布到图像的每个区域,而是对某些显著区域关注度更高。如何将视频中视觉注意度高的显著区域检测并提取出来是计算机视觉以及基于内容的视频检索领域的一个重要的研究内容。
现有的显著图模型是一种模拟生物体视觉注意机制的选择性注意模型,其通过计算每个像素点在颜色、亮度、方向方面与周边背景的对比,并将所有像素点的显著值构成一张显著图,然而这类方法并不能很好地提取出图像显著图信息,这是因为基于像素点的显著特征并不能很好地反映人眼观看时的显著语义特征,而基于区域的显著特征能够有效地提高提取的稳定性和准确性,因此,如何对图像进行区域分割,如何对各个区域的特征进行提取,如何对各个区域的显著特征进行描述,如何度量区域本身的显著度和区域与区域之间的显著度,都是对基于区域的显著图提取中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种符合显著语义特征,且有较高提取稳定性和准确性的基于区域的图像显著图提取方法。
本发明解决上述技术问题所采用的技术方案为:一种基于区域的图像显著图提取方法,其特征在于包括以下步骤:
①将待处理的源图像记为{Ii(x,y)},其中,1≤x≤W,1≤y≤H,W表示{Ii(x,y)}的宽,H表示{Ii(x,y)}的高,Ii(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的第i个分量的颜色值,i=1,2,3,第1个分量为R分量、第2个分量为G分量和第3个分量为B分量;
②采用超像素分割技术将{Ii(x,y)}分割成M个互不重叠的区域;然后将{Ii(x,y)}重新表示为M个区域的集合,记为{SPh};再计算{SPh}中的各个区域之间的相似性,将{SPh}中的第p个区域与第q个区域之间的相似性记为Sim(SPp,SPq),Sim(SPp,SPq)=Simc(SPp,SPq)×Simt(SPp,SPq)×Simd(SPp,SPq);其中,M≥1,SPh表示{SPh}中的第h个区域,1≤h≤M,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,Simc(SPp,SPq)表示SPp与SPq之间的颜色相似性,Simc(SPp,SPq)的值根据SPp和SPq中的每个像素点的各个分量的颜色值量化后得到的颜色直方图获得,Simt(SPp,SPq)表示SPp与SPq之间的纹理相似性,Simt(SPp,SPq)的值根据SPp和SPq中的每个像素点的纹理特征矢量获得,Simd(SPp,SPq)表示SPp与SPq之间的空间相似性,Simd(SPp,SPq)的值根据SPp和SPq中的中心像素点的坐标位置获得;
③通过计算{SPh}中的每个区域的颜色对比度,并结合{SPh}中的各个区域之间的相似性,获取{SPh}中的每个区域的基于颜色对比度的显著值,从而获得{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{SC(x,y)},其中,SC(x,y)表示{SC(x,y)}中坐标位置为(x,y)的像素点的像素值;
④通过计算{SPh}中的每个区域的纹理对比度,并结合{SPh}中的各个区域之间的相似性,获取{SPh}中的每个区域的基于纹理对比度的显著值,从而获得{Ii(x,y)}的基于区域纹理对比度的图像显著图,记为{ST(x,y)},其中,ST(x,y)表示{ST(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤通过计算{SPh}中的每个区域的空间紧密度,并结合{SPh}中的各个区域之间的相似性,获取{SPh}中的每个区域的基于空间紧密度的显著值,从而获得{Ii(x,y)}的基于空间紧密度的图像显著图,记为{SS(x,y)},其中,SS(x,y)表示{SS(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑥对{SC(x,y)}、{ST(x,y)}及{SS(x,y)}进行融合,得到{Ii(x,y)}的最终的图像显著图,记为{Sal(x,y)},将{Sal(x,y)}中坐标位置为(x,y)的像素点的像素值记为Sal(x,y),Sal(x,y)=SC(x,y)×ST(x,y)×SS(x,y)。
所述的步骤②中获取{SPh}中的第p个区域与第q个区域之间的相似性Sim(SPp,SPq)的具体过程为:
②-1、对{SPh}中的每个区域中的每个像素点的各个分量的颜色值分别进行量化,得到{SPh}中的每个区域的量化区域,将{SPh}中的第h个区域的量化区域记为{Ph,i(xh,yh)},将{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点的第i个分量的颜色值记为Ph,i(xh,yh),假设{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点在{Ii(x,y)}中的坐标位置为(x,y),则其中,1≤xh≤Wh,1≤yh≤Hh,Wh表示{SPh}中的第h个区域的宽度,Hh表示{SPh}中的第h个区域的高度,符号“”为向下取整符号;
②-2、计算{SPh}中的每个区域的量化区域的颜色直方图,将{Ph,i(xh,yh)}的颜色直方图记为其中,表示{Ph,i(xh,yh)}中属于第k种颜色的所有像素点的个数;
②-3、对{SPh}中的每个区域的量化区域的颜色直方图进行归一化操作,得到对应的归一化后的颜色直方图,将对进行归一化操作后得到的归一化后的颜色直方图记为 其中,表示{Ph,i(xh,yh)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第h'个区域的量化区域{Ph',i(xh',yh')}中属于第k种颜色的所有像素点的个数,1≤xh'≤Wh',1≤yh'≤Hh',Wh'表示{SPh}中的第h'个区域的宽度,Hh'表示{SPh}中的第h'个区域的高度,Ph',i(xh',yh')表示{Ph',i(xh',yh')}中坐标位置为(xh',yh')的像素点的第i个分量的颜色值;
②-4、计算{SPh}中的第p个区域与第q个区域之间的颜色相似性,记为Simc(SPp,SPq),其中,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示{SPh}中的第p个区域的量化区域{Pp,i(xp,yp)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第q个区域的量化区域{Pq,i(xq,yq)}中属于第k种颜色的像素点的出现概率,Pp,i(xp,yp)表示{Pp,i(xp,yp)}中坐标位置为(xp,yp)的像素点的第i个分量的颜色值,Pq,i(xq,yq)表示{Pq,i(xq,yq)}中坐标位置为(xq,yq)的像素点的第i个分量的颜色值,1≤xp≤Wp,1≤yp≤Hp,Wp表示{SPh}中的第p个区域的宽度,Hp表示{SPh}中的第p个区域的高度,1≤xq≤Wq,1≤yq≤Hq,Wq表示{SPh}中的第q个区域的宽度,Hq表示{SPh}中的第q个区域的高度,min()为取最小值函数;
②-5、采用Gabor滤波器对{Ii(x,y)}进行滤波处理,得到{Ii(x,y)}中的每个像素点在不同中心频率和不同方向因子下的频率响应的振幅;然后获取{Ii(x,y)}中的每个像素点的纹理特征矢量,将{Ii(x,y)}中坐标位置为(x,y)的像素点的纹理特征矢量记为t(x,y),t(x,y)=[IL(x,y),GX(x,y),GY(x,y),IG(x,y)];其中,t(x,y)的维数为4,符号“[]”为矢量表示符号,IL(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的亮度值,GX(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的水平梯度值,GY(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的垂直梯度值,IG(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的振幅值,G(x,y;ω,θ)表示{Ii(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应的振幅,ω表示Gabor滤波器的中心频率,Φω表示Gabor滤波器的中心频率的集合,θ表示Gabor滤波器的方向因子,Φθ表示Gabor滤波器的方向因子的集合;
②-6、根据{Ii(x,y)}中的每个像素点的纹理特征矢量,计算{SPh}中的每个区域的协方差矩阵,将{SPh}中的第h个区域的协方差矩阵记为 其中,表示{SPh}中的第h个区域中包含的像素点的总个数,表示{SPh}中的第h个区域中的所有像素点的坐标位置的集合,表示{SPh}中的第h个区域中的所有像素点的纹理特征矢量的均值矢量,的转置矢量;
②-7、计算{SPh}中的第p个区域与第q个区域之间的纹理相似性,记为Simt(SPp,SPq),其中,表示{SPh}中的第p个区域的协方差矩阵,表示{SPh}中的第q个区域的协方差矩阵,表示之间的距离, 表示的第k个广义特征值,n表示的广义特征值的总个数,ln()表示以自然基数e为底的对数函数;
②-8、计算{SPh}中的第p个区域与第q个区域之间的空间相似性,记为Simd(SPp,SPq),其中,表示{SPh}中的第p个区域中的中心像素点的坐标位置,表示{SPh}中的第q个区域中的中心像素点的坐标位置,符号“|| ||”为求欧式距离符号,exp()表示以自然基数e为底的指数函数;
②-9、计算{SPh}中的第p个区域与第q个区域之间的相似性,记为Sim(SPp,SPq),Sim(SPp,SPq)=Simc(SPp,SPq)×Simt(SPp,SPq)×Simd(SPp,SPq)。
所述的步骤③的具体过程为:
③-1、计算{SPh}中的每个区域的颜色对比度,将{SPh}中的第h个区域的颜色对比度记为 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,Simd(SPh,SPq)表示SPh与SPq之间的空间相似性,表示SPh中包含的像素点的总个数,符号“|| ||”为求欧式距离符号,表示SPh的颜色均值向量,表示SPq的颜色均值向量;
③-2、对{SPh}中的每个区域的颜色对比度进行归一化操作,得到对应的归一化后的颜色对比度,将对进行归一化操作后得到的归一化后的颜色对比度记为 其中,CCmin表示{SPh}中的M个区域中最小的颜色对比度,CCmax表示{SPh}中的M个区域中最大的颜色对比度;
③-3、计算{SPh}中的每个区域的基于颜色对比度的显著值,将{SPh}中的第h个区域的基于颜色对比度的显著值记为 其中,Sim(SPh,SPq)表示SPh与SPq之间的相似性,表示对SPq的颜色对比度进行归一化操作后得到的归一化后的颜色对比度;
③-4、将{SPh}中的每个区域的基于颜色对比度的显著值作为对应区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{SC(x,y)},其中,SC(x,y)表示{SC(x,y)}中坐标位置为(x,y)的像素点的像素值。
所述的步骤④的具体过程为:
④-1、计算{SPh}中的每个区域的纹理对比度,将{SPh}中的第h个区域的纹理对比度记为 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,Simd(SPh,SPq)表示SPh与SPq之间的空间相似性,表示SPh中包含的像素点的总个数,表示SPh的协方差矩阵与SPq的协方差矩阵之间的距离;
④-2、对{SPh}中的每个区域的纹理对比度进行归一化操作,得到对应的归一化后的纹理对比度,将对进行归一化操作后得到的归一化后的纹理对比度记为 其中,TCmin表示{SPh}中的M个区域中最小的纹理对比度,TCmax表示{SPh}中的M个区域中最大的纹理对比度;
④-3、计算{SPh}中的每个区域的基于纹理对比度的显著值,将{SPh}中的第h个区域的基于纹理对比度的显著值记为 其中,Sim(SPh,SPq)表示SPh与SPq之间的相似性,表示对SPq的纹理对比度进行归一化操作后得到的归一化后的纹理对比度;
④-4、将{SPh}中的每个区域的基于纹理对比度的显著值作为对应区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域纹理对比度的图像显著图,记为{ST(x,y)},其中,ST(x,y)表示{ST(x,y)}中坐标位置为(x,y)的像素点的像素值。
所述的步骤⑤的具体过程为:
⑤-1、计算{SPh}中的每个区域的空间紧密度,将{SPh}中的第h个区域的空间紧密度记为 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,Sim(SPh,SPq)表示SPh与SPq之间的相似性,表示SPq中的中心像素点与{Ii(x,y)}中的中心像素点之间的欧氏距离;
⑤-2、对{SPh}中的每个区域的空间紧密度进行归一化操作,得到{SPh}中的每个区域的归一化后的空间紧密度,将对进行归一化操作后得到的归一化后的空间紧密度记为 然后将{SPh}中的每个区域的归一化后的空间紧密度作为对应区域的基于空间紧密度的显著值;其中,SDmin表示{SPh}中的M个区域中最小的空间紧密度,SDmax表示{SPh}中的M个区域中最大的空间紧密度;
⑤-3、将{SPh}中的每个区域的基于空间紧密度的显著值作为对应区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域空间紧密度的图像显著图,记为{SS(x,y)},其中,SS(x,y)表示{SS(x,y)}中坐标位置为(x,y)的像素点的像素值。
与现有技术相比,本发明的优点在于:
1)本发明方法采用超像素分割技术对源图像进行分割,然后分别计算各个区域之间的颜色相似性、纹理相似性和空间相似性,再根据各个区域之间的颜色相似性、纹理相似性和空间相似性得到各个区域之间的相似性,接着利用各个区域之间的相似性获得源图像的基于区域颜色对比度的图像显著图、基于区域纹理对比度的图像显著图和基于区域空间紧密度的图像显著图,最终对三幅图像显著图进行融合,得到源图像的最终的图像显著图,这种方式能够提取符合显著语义的特征信息。
2)本发明方法通过分别计算得到基于区域颜色对比度的图像显著图、基于区域纹理对比度的图像显著图和基于区域空间紧密度的图像显著图,并最终融合得到图像显著图,所获得的图像显著图能够较好地反映图像的显著变化情况,且稳定性和准确性高。
附图说明
图1为本发明方法的总体实现框图;
图2a为“Image1”的原始图像;
图2b为“Image1”图像的真实眼动图;
图2c为采用本发明方法对图2a所示的原始图像进行处理得到的“Image1”图像的基于区域颜色对比度的图像显著图;
图2d为采用本发明方法对图2a所示的原始图像进行处理得到的“Image1”图像的基于区域纹理对比度的图像显著图;
图2e为采用本发明方法对图2a所示的原始图像进行处理得到的“Image1”图像的基于区域空间紧密度的图像显著图;
图2f为采用本发明方法对图2a所示的原始图像进行处理得到的“Image1”图像的最终的图像显著图;
图3a为“Image2”的原始图像;
图3b为“Image2”图像的真实眼动图;
图3c为采用本发明方法对图3a所示的原始图像进行处理得到的“Image2”图像的基于区域颜色对比度的图像显著图;
图3d为采用本发明方法对图3a所示的原始图像进行处理得到的“Image2”图像的基于区域纹理对比度的图像显著图;
图3e为采用本发明方法对图3a所示的原始图像进行处理得到的“Image2”图像的基于区域空间紧密度的图像显著图;
图3f为采用本发明方法对图3a所示的原始图像进行处理得到的“Image2”图像的最终的图像显著图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于区域的图像显著图提取方法,其总体实现框图如图1所示,其包括以下步骤:
①将待处理的源图像记为{Ii(x,y)},其中,1≤x≤W,1≤y≤H,W表示{Ii(x,y)}的宽,H表示{Ii(x,y)}的高,Ii(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的第i个分量的颜色值,i=1,2,3,第1个分量为R分量、第2个分量为G分量和第3个分量为B分量。
②采用超像素(Superpixel)分割技术将{Ii(x,y)}分割成M个互不重叠的区域;然后将{Ii(x,y)}重新表示为M个区域的集合,记为{SPh};再考虑局部显著性,图像中相似的区域之间一般具有较低的显著性,因此本发明计算{SPh}中的各个区域之间的相似性,将{SPh}中的第p个区域与第q个区域之间的相似性记为Sim(SPp,SPq),Sim(SPp,SPq)=Simc(SPp,SPq)×Simt(SPp,SPq)×Simd(SPp,SPq);其中,M≥1,在本实施例中可取M=200,SPh表示{SPh}中的第h个区域,1≤h≤M,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,Simc(SPp,SPq)表示SPp与SPq之间的颜色相似性,Simc(SPp,SPq)的值根据SPp和SPq中的每个像素点的各个分量的颜色值量化后得到的颜色直方图获得,Simt(SPp,SPq)表示SPp与SPq之间的纹理相似性,Simt(SPp,SPq)的值根据SPp和SPq中的每个像素点的纹理特征矢量获得,Simd(SPp,SPq)表示SPp与SPq之间的空间相似性,Simd(SPp,SPq)的值根据SPp和SPq中的中心像素点的坐标位置获得。
在此具体实施例中,步骤②中获取{SPh}中的第p个区域与第q个区域之间的相似性Sim(SPp,SPq)的具体过程为:
②-1、对{SPh}中的每个区域中的每个像素点的各个分量的颜色值分别进行量化,得到{SPh}中的每个区域的量化区域,将{SPh}中的第h个区域的量化区域记为{Ph,i(xh,yh)},将{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点的第i个分量的颜色值记为Ph,i(xh,yh),假设{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点在{Ii(x,y)}中的坐标位置为(x,y),则其中,1≤xh≤Wh,1≤yh≤Hh,Wh表示{SPh}中的第h个区域的宽度,Hh表示{SPh}中的第h个区域的高度,符号“”为向下取整符号。
②-2、计算{SPh}中的每个区域的量化区域的颜色直方图,将{Ph,i(xh,yh)}的颜色直方图记为其中,表示{Ph,i(xh,yh)}中属于第k种颜色的所有像素点的个数。
②-3、对{SPh}中的每个区域的量化区域的颜色直方图进行归一化操作,得到对应的归一化后的颜色直方图,将对进行归一化操作后得到的归一化后的颜色直方图记为 其中,表示{Ph,i(xh,yh)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第h'个区域的量化区域{Ph',i(xh',yh')}中属于第k种颜色的所有像素点的个数,1≤xh'≤Wh',1≤yh'≤Hh',Wh'表示{SPh}中的第h'个区域的宽度,Hh'表示{SPh}中的第h'个区域的高度,Ph',i(xh',yh')表示{Ph',i(xh',yh')}中坐标位置为(xh',yh')的像素点的第i个分量的颜色值。
②-4、计算{SPh}中的第p个区域与第q个区域之间的颜色相似性,记为Simc(SPp,SPq),其中,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示{SPh}中的第p个区域的量化区域{Pp,i(xp,yp)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第q个区域的量化区域{Pq,i(xq,yq)}中属于第k种颜色的像素点的出现概率,Pp,i(xp,yp)表示{Pp,i(xp,yp)}中坐标位置为(xp,yp)的像素点的第i个分量的颜色值,Pq,i(xq,yq)表示{Pq,i(xq,yq)}中坐标位置为(xq,yq)的像素点的第i个分量的颜色值,1≤xp≤Wp,1≤yp≤Hp,Wp表示{SPh}中的第p个区域的宽度,Hp表示{SPh}中的第p个区域的高度,1≤xq≤Wq,1≤yq≤Hq,Wq表示{SPh}中的第q个区域的宽度,Hq表示{SPh}中的第q个区域的高度,min()为取最小值函数。
②-5、采用Gabor滤波器对{Ii(x,y)}进行滤波处理,得到{Ii(x,y)}中的每个像素点在不同中心频率和不同方向因子下的频率响应的振幅;然后获取{Ii(x,y)}中的每个像素点的纹理特征矢量,将{Ii(x,y)}中坐标位置为(x,y)的像素点的纹理特征矢量记为t(x,y),t(x,y)=[IL(x,y),GX(x,y),GY(x,y),IG(x,y)];再将由{Ii(x,y)}中的所有像素点的纹理特征矢量构成的集合作为{Ii(x,y)}的纹理特征矢量,记为{t(x,y)};其中,t(x,y)的维数为4,符号“[]”为矢量表示符号,IL(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的亮度值,GX(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的水平梯度值,GY(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的垂直梯度值,IG(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的振幅值,G(x,y;ω,θ)表示{Ii(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应的振幅,ω表示Gabor滤波器的中心频率,Φω表示Gabor滤波器的中心频率的集合,在本实施例中Φω={1.74,2.47,3.49,4.93,6.98},θ表示Gabor滤波器的方向因子,Φθ表示Gabor滤波器的方向因子的集合,在本实施例中Φθ={0°,90°,180°,270°}。
②-6、根据{Ii(x,y)}中的每个像素点的纹理特征矢量,计算{SPh}中的每个区域的协方差矩阵,将{SPh}中的第h个区域的协方差矩阵记为 其中,表示{SPh}中的第h个区域中包含的像素点的总个数,表示{SPh}中的第h个区域中的所有像素点的坐标位置的集合,表示{SPh}中的第h个区域中的所有像素点的纹理特征矢量的均值矢量,的转置矢量。
②-7、计算{SPh}中的第p个区域与第q个区域之间的纹理相似性,记为Simt(SPp,SPq),其中,表示{SPh}中的第p个区域的协方差矩阵,表示{SPh}中的第q个区域的协方差矩阵,表示之间的距离, 表示的第k个广义特征值,n表示的广义特征值的总个数,ln()表示以自然基数e为底的对数函数,e=2.71828183…。
②-8、计算{SPh}中的第p个区域与第q个区域之间的空间相似性,记为Simd(SPp,SPq),其中,表示{SPh}中的第p个区域中的中心像素点的坐标位置,表示{SPh}中的第q个区域中的中心像素点的坐标位置,符号“|| ||”为求欧式距离符号,exp()表示以自然基数e为底的指数函数,e=2.71828183…。
②-9、计算{SPh}中的第p个区域与第q个区域之间的相似性,记为Sim(SPp,SPq),Sim(SPp,SPq)=Simc(SPp,SPq)×Simt(SPp,SPq)×Simd(SPp,SPq)。
③通过计算{SPh}中的每个区域的颜色对比度,并结合{SPh}中的各个区域之间的相似性,获取{SPh}中的每个区域的基于颜色对比度的显著值,从而获得{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{SC(x,y)},其中,SC(x,y)表示{SC(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤③的具体过程为:
③-1、计算{SPh}中的每个区域的颜色对比度,将{SPh}中的第h个区域的颜色对比度记为 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,Simd(SPh,SPq)表示SPh与SPq之间的空间相似性,表示SPh中包含的像素点的总个数,符号“|| ||”为求欧式距离符号,表示SPh的颜色均值向量,即将SPh中的所有像素点的颜色向量求平均得到表示SPq的颜色均值向量,即将SPq中的所有像素点的颜色向量求平均得到
③-2、对{SPh}中的每个区域的颜色对比度进行归一化操作,得到对应的归一化后的颜色对比度,将对进行归一化操作后得到的归一化后的颜色对比度记为 其中,CCmin表示{SPh}中的M个区域中最小的颜色对比度,CCmax表示{SPh}中的M个区域中最大的颜色对比度。
③-3、计算{SPh}中的每个区域的基于颜色对比度的显著值,将{SPh}中的第h个区域的基于颜色对比度的显著值记为 其中,Sim(SPh,SPq)表示SPh与SPq之间的相似性,表示对SPq的颜色对比度进行归一化操作后得到的归一化后的颜色对比度。
③-4、将{SPh}中的每个区域的基于颜色对比度的显著值作为对应区域中的所有像素点的显著值,即对于{SPh}中的第h个区域,将{SPh}中的第h个区域的基于颜色对比度的显著值作为该区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{SC(x,y)},其中,SC(x,y)表示{SC(x,y)}中坐标位置为(x,y)的像素点的像素值。
④通过计算{SPh}中的每个区域的纹理对比度,并结合{SPh}中的各个区域之间的相似性,获取{SPh}中的每个区域的基于纹理对比度的显著值,从而获得{Ii(x,y)}的基于区域纹理对比度的图像显著图,记为{ST(x,y)},其中,ST(x,y)表示{ST(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤④的具体过程为:
④-1、计算{SPh}中的每个区域的纹理对比度,将{SPh}中的第h个区域的纹理对比度记为 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,Simd(SPh,SPq)表示SPh与SPq之间的空间相似性,表示SPh中包含的像素点的总个数,表示SPh的协方差矩阵与SPq的协方差矩阵之间的距离。
④-2、对{SPh}中的每个区域的纹理对比度进行归一化操作,得到对应的归一化后的纹理对比度,将对进行归一化操作后得到的归一化后的纹理对比度记为 其中,TCmin表示{SPh}中的M个区域中最小的纹理对比度,TCmax表示{SPh}中的M个区域中最大的纹理对比度。
④-3、计算{SPh}中的每个区域的基于纹理对比度的显著值,将{SPh}中的第h个区域的基于纹理对比度的显著值记为 其中,Sim(SPh,SPq)表示SPh与SPq之间的相似性,表示对SPq的纹理对比度进行归一化操作后得到的归一化后的纹理对比度。
④-4、将{SPh}中的每个区域的基于纹理对比度的显著值作为对应区域中的所有像素点的显著值,即对于{SPh}中的第h个区域,将{SPh}中的第h个区域的基于纹理对比度的显著值作为该区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域纹理对比度的图像显著图,记为{ST(x,y)},其中,ST(x,y)表示{ST(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑤通过计算{SPh}中的每个区域的空间紧密度,并结合{SPh}中的各个区域之间的相似性,获取{SPh}中的每个区域的基于空间紧密度的显著值,从而获得{Ii(x,y)}的基于空间紧密度的图像显著图,记为{SS(x,y)},其中,SS(x,y)表示{SS(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤⑤的具体过程为:
⑤-1、计算{SPh}中的每个区域的空间紧密度,将{SPh}中的第h个区域的空间紧密度记为 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,Sim(SPh,SPq)表示SPh与SPq之间的相似性,表示SPq中的中心像素点与{Ii(x,y)}中的中心像素点之间的欧氏距离。
⑤-2、对{SPh}中的每个区域的空间紧密度进行归一化操作,得到{SPh}中的每个区域的归一化后的空间紧密度,将对进行归一化操作后得到的归一化后的空间紧密度记为 然后将{SPh}中的每个区域的归一化后的空间紧密度作为对应区域的基于空间紧密度的显著值,即对于{SPh}中的第h个区域,将{SPh}中的第h个区域的归一化后的空间紧密度作为该区域的基于空间紧密度的显著值;其中,SDmin表示{SPh}中的M个区域中最小的空间紧密度,SDmax表示{SPh}中的M个区域中最大的空间紧密度。
⑤-3、将{SPh}中的每个区域的基于空间紧密度的显著值作为对应区域中的所有像素点的显著值,即对于{SPh}中的第h个区域,将{SPh}中的第h个区域的基于空间紧密度的显著值作为该区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域空间紧密度的图像显著图,记为{SS(x,y)},其中,SS(x,y)表示{SS(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑥对{SC(x,y)}、{ST(x,y)}及{SS(x,y)}进行融合,得到{Ii(x,y)}的最终的图像显著图,记为{Sal(x,y)},将{Sal(x,y)}中坐标位置为(x,y)的像素点的像素值记为Sal(x,y),Sal(x,y)=SC(x,y)×ST(x,y)×SS(x,y)。
以下就利用本发明方法对法国南特大学提供的三维人眼跟踪数据库(3Deye-tracking database)中的Image1和Image2两组图像的图像显著图进行提取。图2a给出了“Image1”的原始图像,图2b给出了“Image1”图像的真实眼动图,图2c给出了采用本发明方法对图2a所示的原始图像进行处理得到的“Image1”图像的基于区域颜色对比度的图像显著图、图2d给出了采用本发明方法对图2a所示的原始图像进行处理得到的“Image1”图像的基于区域纹理对比度的图像显著图、图2e给出了采用本发明方法对图2a所示的原始图像进行处理得到的“Image1”图像的基于区域空间紧密度的图像显著图、图2f给出了采用本发明方法对图2a所示的原始图像进行处理得到的“Image1”图像的最终的图像显著图;图3a给出了“Image2”的原始图像,图3b给出了“Image2”图像的真实眼动图,图3c给出了采用本发明方法对图3a所示的原始图像进行处理得到的“Image2”图像的基于区域颜色对比度的图像显著图、图3d给出了采用本发明方法对图3a所示的原始图像进行处理得到的“Image2”图像的基于区域纹理对比度的图像显著图、图3e给出了采用本发明方法对图3a所示的原始图像进行处理得到的“Image2”图像的基于区域空间紧密度的图像显著图、图3f给出了采用本发明方法对图3a所示的原始图像进行处理得到的“Image2”图像的最终的图像显著图。从图2a至图3f中可以看出,采用本发明方法得到的图像显著图由于考虑了全局和局部区域的显著变化情况,因此能够很好地符合显著语义的特征。

Claims (4)

1.一种基于区域的图像显著图提取方法,其特征在于包括以下步骤:
①将待处理的源图像记为{Ii(x,y)},其中,1≤x≤W,1≤y≤H,W表示{Ii(x,y)}的宽,H表示{Ii(x,y)}的高,Ii(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的第i个分量的颜色值,i=1,2,3,第1个分量为R分量、第2个分量为G分量和第3个分量为B分量;
②采用超像素分割技术将{Ii(x,y)}分割成M个互不重叠的区域;然后将{Ii(x,y)}重新表示为M个区域的集合,记为{SPh};再计算{SPh}中的各个区域之间的相似性,将{SPh}中的第p个区域与第q个区域之间的相似性记为Sim(SPp,SPq),Sim(SPp,SPq)=Simc(SPp,SPq)×Simt(SPp,SPq)×Simd(SPp,SPq);其中,M≥1,SPh表示{SPh}中的第h个区域,1≤h≤M,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,Simc(SPp,SPq)表示SPp与SPq之间的颜色相似性,Simc(SPp,SPq)的值根据SPp和SPq中的每个像素点的各个分量的颜色值量化后得到的颜色直方图获得,Simt(SPp,SPq)表示SPp与SPq之间的纹理相似性,Simt(SPp,SPq)的值根据SPp和SPq中的每个像素点的纹理特征矢量获得,Simd(SPp,SPq)表示SPp与SPq之间的空间相似性,Simd(SPp,SPq)的值根据SPp和SPq中的中心像素点的坐标位置获得;
所述的步骤②中获取{SPh}中的第p个区域与第q个区域之间的相似性Sim(SPp,SPq)的具体过程为:
②-1、对{SPh}中的每个区域中的每个像素点的各个分量的颜色值分别进行量化,得到{SPh}中的每个区域的量化区域,将{SPh}中的第h个区域的量化区域记为{Ph,i(xh,yh)},将{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点的第i个分量的颜色值记为Ph,i(xh,yh),假设{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点在{Ii(x,y)}中的坐标位置为(x,y),则其中,1≤xh≤Wh,1≤yh≤Hh,Wh表示{SPh}中的第h个区域的宽度,Hh表示{SPh}中的第h个区域的高度,符号为向下取整符号;
②-2、计算{SPh}中的每个区域的量化区域的颜色直方图,将{Ph,i(xh,yh)}的颜色直方图记为其中,表示{Ph,i(xh,yh)}中属于第k种颜色的所有像素点的个数;
②-3、对{SPh}中的每个区域的量化区域的颜色直方图进行归一化操作,得到对应的归一化后的颜色直方图,将对进行归一化操作后得到的归一化后的颜色直方图记为其中,表示{Ph,i(xh,yh)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第h'个区域的量化区域{Ph',i(xh',yh')}中属于第k种颜色的所有像素点的个数,1≤xh'≤Wh',1≤yh'≤Hh',Wh'表示{SPh}中的第h'个区域的宽度,Hh'表示{SPh}中的第h'个区域的高度,Ph',i(xh',yh')表示{Ph',i(xh',yh')}中坐标位置为(xh',yh')的像素点的第i个分量的颜色值;
②-4、计算{SPh}中的第p个区域与第q个区域之间的颜色相似性,记为Simc(SPp,SPq),其中,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示{SPh}中的第p个区域的量化区域{Pp,i(xp,yp)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第q个区域的量化区域{Pq,i(xq,yq)}中属于第k种颜色的像素点的出现概率,Pp,i(xp,yp)表示{Pp,i(xp,yp)}中坐标位置为(xp,yp)的像素点的第i个分量的颜色值,Pq,i(xq,yq)表示{Pq,i(xq,yq)}中坐标位置为(xq,yq)的像素点的第i个分量的颜色值,1≤xp≤Wp,1≤yp≤Hp,Wp表示{SPh}中的第p个区域的宽度,Hp表示{SPh}中的第p个区域的高度,1≤xq≤Wq,1≤yq≤Hq,Wq表示{SPh}中的第q个区域的宽度,Hq表示{SPh}中的第q个区域的高度,min()为取最小值函数;
②-5、采用Gabor滤波器对{Ii(x,y)}进行滤波处理,得到{Ii(x,y)}中的每个像素点在不同中心频率和不同方向因子下的频率响应的振幅;然后获取{Ii(x,y)}中的每个像素点的纹理特征矢量,将{Ii(x,y)}中坐标位置为(x,y)的像素点的纹理特征矢量记为t(x,y),t(x,y)=[IL(x,y),GX(x,y),GY(x,y),IG(x,y)];其中,t(x,y)的维数为4,符号“[]”为矢量表示符号,IL(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的亮度值,GX(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的水平梯度值,GY(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的垂直梯度值,IG(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的振幅值,G(x,y;ω,θ)表示{Ii(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应的振幅,ω表示Gabor滤波器的中心频率,Φω表示Gabor滤波器的中心频率的集合,θ表示Gabor滤波器的方向因子,Φθ表示Gabor滤波器的方向因子的集合;
②-6、根据{Ii(x,y)}中的每个像素点的纹理特征矢量,计算{SPh}中的每个区域的协方差矩阵,将{SPh}中的第h个区域的协方差矩阵记为 其中,表示{SPh}中的第h个区域中包含的像素点的总个数,表示{SPh}中的第h个区域中的所有像素点的坐标位置的集合,表示{SPh}中的第h个区域中的所有像素点的纹理特征矢量的均值矢量,的转置矢量;
②-7、计算{SPh}中的第p个区域与第q个区域之间的纹理相似性,记为Simt(SPp,SPq),其中,表示{SPh}中的第p个区域的协方差矩阵,表示{SPh}中的第q个区域的协方差矩阵,表示之间的距离, 表示的第k个广义特征值,n表示的广义特征值的总个数,ln()表示以自然基数e为底的对数函数;
②-8、计算{SPh}中的第p个区域与第q个区域之间的空间相似性,记为Simd(SPp,SPq),其中,表示{SPh}中的第p个区域中的中心像素点的坐标位置,表示{SPh}中的第q个区域中的中心像素点的坐标位置,符号“|| ||”为求欧式距离符号,exp()表示以自然基数e为底的指数函数;
②-9、计算{SPh}中的第p个区域与第q个区域之间的相似性,记为Sim(SPp,SPq),Sim(SPp,SPq)=Simc(SPp,SPq)×Simt(SPp,SPq)×Simd(SPp,SPq);
③通过计算{SPh}中的每个区域的颜色对比度,并结合{SPh}中的各个区域之间的相似性,获取{SPh}中的每个区域的基于颜色对比度的显著值,从而获得{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{SC(x,y)},其中,SC(x,y)表示{SC(x,y)}中坐标位置为(x,y)的像素点的像素值;
④通过计算{SPh}中的每个区域的纹理对比度,并结合{SPh}中的各个区域之间的相似性,获取{SPh}中的每个区域的基于纹理对比度的显著值,从而获得{Ii(x,y)}的基于区域纹理对比度的图像显著图,记为{ST(x,y)},其中,ST(x,y)表示{ST(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤通过计算{SPh}中的每个区域的空间紧密度,并结合{SPh}中的各个区域之间的相似性,获取{SPh}中的每个区域的基于空间紧密度的显著值,从而获得{Ii(x,y)}的基于空间紧密度的图像显著图,记为{SS(x,y)},其中,SS(x,y)表示{SS(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑥对{SC(x,y)}、{ST(x,y)}及{SS(x,y)}进行融合,得到{Ii(x,y)}的最终的图像显著图,记为{Sal(x,y)},将{Sal(x,y)}中坐标位置为(x,y)的像素点的像素值记为Sal(x,y),Sal(x,y)=SC(x,y)×ST(x,y)×SS(x,y)。
2.根据权利要求1所述的一种基于区域的图像显著图提取方法,其特征在于所述的步骤③的具体过程为:
③-1、计算{SPh}中的每个区域的颜色对比度,将{SPh}中的第h个区域的颜色对比度记为 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,Simd(SPh,SPq)表示SPh与SPq之间的空间相似性,表示SPh中包含的像素点的总个数,符号“|| ||”为求欧式距离符号,表示SPh的颜色均值向量,表示SPq的颜色均值向量;
③-2、对{SPh}中的每个区域的颜色对比度进行归一化操作,得到对应的归一化后的颜色对比度,将对进行归一化操作后得到的归一化后的颜色对比度记为 其中,CCmin表示{SPh}中的M个区域中最小的颜色对比度,CCmax表示{SPh}中的M个区域中最大的颜色对比度;
③-3、计算{SPh}中的每个区域的基于颜色对比度的显著值,将{SPh}中的第h个区域的基于颜色对比度的显著值记为 其中,Sim(SPh,SPq)表示SPh与SPq之间的相似性,表示对SPq的颜色对比度进行归一化操作后得到的归一化后的颜色对比度;
③-4、将{SPh}中的每个区域的基于颜色对比度的显著值作为对应区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{SC(x,y)},其中,SC(x,y)表示{SC(x,y)}中坐标位置为(x,y)的像素点的像素值。
3.根据权利要求2所述的一种基于区域的图像显著图提取方法,其特征在于所述的步骤④的具体过程为:
④-1、计算{SPh}中的每个区域的纹理对比度,将{SPh}中的第h个区域的纹理对比度记为 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,Simd(SPh,SPq)表示SPh与SPq之间的空间相似性,表示SPh中包含的像素点的总个数,表示SPh的协方差矩阵与SPq的协方差矩阵之间的距离;
④-2、对{SPh}中的每个区域的纹理对比度进行归一化操作,得到对应的归一化后的纹理对比度,将对进行归一化操作后得到的归一化后的纹理对比度记为 其中,TCmin表示{SPh}中的M个区域中最小的纹理对比度,TCmax表示{SPh}中的M个区域中最大的纹理对比度;
④-3、计算{SPh}中的每个区域的基于纹理对比度的显著值,将{SPh}中的第h个区域的基于纹理对比度的显著值记为 其中,Sim(SPh,SPq)表示SPh与SPq之间的相似性,表示对SPq的纹理对比度进行归一化操作后得到的归一化后的纹理对比度;
④-4、将{SPh}中的每个区域的基于纹理对比度的显著值作为对应区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域纹理对比度的图像显著图,记为{ST(x,y)},其中,ST(x,y)表示{ST(x,y)}中坐标位置为(x,y)的像素点的像素值。
4.根据权利要求3所述的一种基于区域的图像显著图提取方法,其特征在于所述的步骤⑤的具体过程为:
⑤-1、计算{SPh}中的每个区域的空间紧密度,将{SPh}中的第h个区域的空间紧密度记为 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,Sim(SPh,SPq)表示SPh与SPq之间的相似性,表示SPq中的中心像素点与{Ii(x,y)}中的中心像素点之间的欧氏距离;
⑤-2、对{SPh}中的每个区域的空间紧密度进行归一化操作,得到{SPh}中的每个区域的归一化后的空间紧密度,将对进行归一化操作后得到的归一化后的空间紧密度记为 然后将{SPh}中的每个区域的归一化后的空间紧密度作为对应区域的基于空间紧密度的显著值;其中,SDmin表示{SPh}中的M个区域中最小的空间紧密度,SDmax表示{SPh}中的M个区域中最大的空间紧密度;
⑤-3、将{SPh}中的每个区域的基于空间紧密度的显著值作为对应区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域空间紧密度的图像显著图,记为{SS(x,y)},其中,SS(x,y)表示{SS(x,y)}中坐标位置为(x,y)的像素点的像素值。
CN201410675041.0A 2014-11-21 2014-11-21 一种基于区域的图像显著图提取方法 Active CN104392233B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410675041.0A CN104392233B (zh) 2014-11-21 2014-11-21 一种基于区域的图像显著图提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410675041.0A CN104392233B (zh) 2014-11-21 2014-11-21 一种基于区域的图像显著图提取方法

Publications (2)

Publication Number Publication Date
CN104392233A CN104392233A (zh) 2015-03-04
CN104392233B true CN104392233B (zh) 2017-06-06

Family

ID=52610134

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410675041.0A Active CN104392233B (zh) 2014-11-21 2014-11-21 一种基于区域的图像显著图提取方法

Country Status (1)

Country Link
CN (1) CN104392233B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678735A (zh) * 2015-10-13 2016-06-15 中国人民解放军陆军军官学院 一种用于雾天图像的目标显著性检测方法
CN105389825B (zh) * 2015-12-22 2018-11-23 深圳Tcl数字技术有限公司 图像处理方法及系统
CN105701844B (zh) * 2016-01-15 2018-11-27 苏州大学 基于颜色特征的障碍物或阴影检测方法
CN106778772B (zh) * 2016-11-23 2019-07-26 浙江科技学院 一种立体图像视觉显著提取方法
CN108797723B (zh) * 2018-03-27 2019-03-12 张卫平 基于图像检测的智能化冲洗装置
CN108230409B (zh) * 2018-03-28 2020-04-17 南京大学 基于颜色和内容多因素综合的图像相似性定量分析方法
CN108647605B (zh) * 2018-04-28 2021-09-17 南京邮电大学 一种结合全局颜色与局部结构特征的人眼凝视点提取方法
CN109447136A (zh) * 2018-10-15 2019-03-08 方玉明 一种对于360度图像的显著性检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1542448A2 (en) * 2003-12-12 2005-06-15 Xerox Corporation Reduction of differential gloss
CN101211356A (zh) * 2006-12-30 2008-07-02 中国科学院计算技术研究所 一种基于显著区域的图像查询方法
CN103632153A (zh) * 2013-12-05 2014-03-12 宁波大学 一种基于区域的图像显著图提取方法
CN103971365A (zh) * 2014-04-16 2014-08-06 宁波大学 一种图像显著图提取方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1542448A2 (en) * 2003-12-12 2005-06-15 Xerox Corporation Reduction of differential gloss
CN101211356A (zh) * 2006-12-30 2008-07-02 中国科学院计算技术研究所 一种基于显著区域的图像查询方法
CN103632153A (zh) * 2013-12-05 2014-03-12 宁波大学 一种基于区域的图像显著图提取方法
CN103971365A (zh) * 2014-04-16 2014-08-06 宁波大学 一种图像显著图提取方法

Also Published As

Publication number Publication date
CN104392233A (zh) 2015-03-04

Similar Documents

Publication Publication Date Title
CN104392233B (zh) 一种基于区域的图像显著图提取方法
WO2018023734A1 (zh) 一种3d图像的显著性检测方法
CN103632153B (zh) 一种基于区域的图像显著图提取方法
Zhang et al. Content-adaptive sketch portrait generation by decompositional representation learning
CN105869173A (zh) 一种立体视觉显著性检测方法
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
US10169908B2 (en) Method, apparatus, storage medium and device for controlled synthesis of inhomogeneous textures
CN111080670A (zh) 图像提取方法、装置、设备及存储介质
CN107066969A (zh) 一种人脸识别方法
CN106203448B (zh) 一种基于非线性尺度空间的场景分类方法
CN109086777A (zh) 一种基于全局像素特征的显著图精细化方法
WO2023142602A1 (zh) 图像处理方法、装置和计算机可读存储介质
CN105023253A (zh) 基于视觉底层特征的图像增强方法
CN111091129B (zh) 一种基于多重颜色特征流形排序的图像显著区域提取方法
DE102018003475A1 (de) Formbasierte Grafiksuche
WO2023184817A1 (zh) 图像处理方法、装置、计算机设备、计算机可读存储介质及计算机程序产品
CN102799646A (zh) 一种面向多视点视频的语义对象分割方法
CN110852327A (zh) 图像处理方法、装置、电子设备及存储介质
CN108647605B (zh) 一种结合全局颜色与局部结构特征的人眼凝视点提取方法
CN109165551B (zh) 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法
CN107665488B (zh) 一种立体图像视觉显著提取方法
CN108090460B (zh) 基于韦伯多方向描述子的人脸表情识别特征提取方法
CN114202723A (zh) 一种通过画面识别的智能剪辑应用方法、装置、设备及介质
CN106682599B (zh) 一种基于稀疏表示的立体图像视觉显著提取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191219

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221216

Address after: 100,000 Room 102, Floor 1, Building 10, Yard 139, North Maquanying Village, Cuigezhuang Township, Chaoyang District, Beijing

Patentee after: Beijing Yuanyue Technology Co.,Ltd.

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.