CN103247051A - 一种基于期望步数的图像显著程度检测方法 - Google Patents
一种基于期望步数的图像显著程度检测方法 Download PDFInfo
- Publication number
- CN103247051A CN103247051A CN2013101810656A CN201310181065A CN103247051A CN 103247051 A CN103247051 A CN 103247051A CN 2013101810656 A CN2013101810656 A CN 2013101810656A CN 201310181065 A CN201310181065 A CN 201310181065A CN 103247051 A CN103247051 A CN 103247051A
- Authority
- CN
- China
- Prior art keywords
- formula
- node
- image
- image block
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于期望步数的图像显著程度检测方法,包括:将输入图像切分成不重叠的图像块,提取每个图像块的初级视觉特征;构造全连通图和k规则图。对于每个图像块计算这个图像块与其他所有图像块的不相似度,利用图像块间的不相似度计算两个图模型中各结点的初始转移概率,得到平稳分布的概率,然后求得求的关键结点;将全连通图和k规则图进行融合,计算到达关键结点的期望步数,然后计算出每个结点的显著值,得到显著图。通过二维高斯平滑算子进行平滑,得到最终反映图像各个区域显著程度的结果图像。与传统方法相比,本发明通过图像库测试对比证明了其有效性以及在效果上明显的优势。
Description
技术领域
本发明涉及图像处理中的局部区域分析,特别涉及图像中的视觉显著性区域检测方法。
背景技术
生物视觉系统所具有的视觉选择性注意是由视觉显著性机制驱动的。心理学研究发现,那些能够产生新异的刺激、较强的刺激和人所期待的刺激的场景区域容易引起观察者的注意。视觉选择性注意机制是生物体特别是人类的一个内在属性,面对复杂、未知的场景,人类能够不受复杂背景影响,快速而准确地检测到显著目标,是由于人类可以通过显著性区域优先分配图像分析与合成所需要的计算资源。而计算机视觉系统只会不加选择地平等对待视觉场景中的各个区域,在无法理解场景变化的同时还会造成计算瓶颈。如果我们把人类视觉系统的选择性注意功能引入到计算机视觉系统中,势必会提升现有计算机图像分析效率。
模拟人类选择性注意机制的计算模型提取的显著性图像被广泛的应用于许多计算机视觉领域,如自适应图像压缩,目标检测,目标识别,内容感知图像编辑和图像检索等邻域。因此,显著性计算模型成为了一个比较流行的研究课题。
目前视觉显著性的计算模型己经研究得比较深入,特别是Itti等人基于Treisman特征整合理论提出的模型极具代表性,该模型首先对输入图像构成空间金字塔并提取亮度,颜色和方向等初级视觉特征,然后进行多尺度融合,并基于“中央一周边差”理论度量图像中每个局部区域在每种特征上的显著程度,形成特征显著图。最后对特征显著图进行线性求和得到总的视觉显著图。但是,目前的显著性检测算法主要是建立在视觉特征的局部对比的基础上的,缺乏从全局角度对显著目标的自身特性进行分析理解,因此当背景较杂乱时会出现大量的误判现象,检测结果不够理想。
发明内容
本发明的目的在于提供一种基于期望步数的显著性检测方法,具体包括以下步骤:
步骤1,将输入图像切分成不重叠的图像块;
步骤2,提取每个图像块的颜色,方向熵和纹理特征,构造特征向量;
步骤3,将每个图像块视为全连通图和k规则图中的一个结点,对于每个结点,利用步骤2所得到的特征向量计算这个结点与其他所有结点的不相似度,利用结点间的不相似度得到全连通图关联矩阵和k规则图的关联矩阵L表示分割后的图像块总数;根据全连通图的状态转移矩阵Pg计算全连通图的平稳分布进而得到全连通图的基础矩阵Zg.根据基础矩阵Zg计算全连通图中从平稳分布出发到达任意节点i的期望步数根据k规则图的状态转移矩阵P1计算k规则图的平稳分布进而得到k规则图的基础矩阵Z1,根据基础矩阵Z1计算k规则图中从平稳分布出发到达任意节点i的期望步数:
其中i=1,2…,L;
全连通图G每个结点与图中所有结点连通,反映了图像的全局属性,显著结点与其他结点的不相似度较大,从其他结点出发到达这样的结点较困难,从平稳分布出发到达这种结点的期望步数就越高。k规则图L反映了图像的局部属性,因为每个结点只与周围的相邻的结点连通。相邻的区域内的结点之间的视觉特征差异较小,结点之间的转移速度更快,到达显著结点的期望步数较低。我们用全连通图G与k规则图L中期望步数的比值中最大的值作为关键结点,即最显著的结点。
步骤5,对于步骤3得到的全连通图关联矩阵和k规则图关联矩阵进行融合,得到混合图关联矩阵Am=αA1+Ag,α为融合系数,α∈(0.01,0.1),步骤1得到的每个图像块视为混合图中的一个结点;计算混合图上关键结点Nmsal到达每个结点的期望步数,对期望步数进行归一化处理得到混合图中每个结点的显著值;根据混合图中每个结点的显著值得到输入图像的显著图SalMap,所述的显著图SalMap是一个J行N列的灰度图,J=H/k,N=W/k,显著图salMap上第i行第j列的元素对应原图像I上切分出的图像块
p(i-1)*N+j(i=l,2……J,j=1,....,N)的显著值;
步骤6,对于步骤5所得到的显著图salMap通过二维高斯平滑算子进行平滑,得到最终反映图像上各个区域显著程度的结果图像。
所述的步骤1包括以下步骤:
把图像I切分成图像块,当图像的宽W和高H不是k的整数倍时,需要先对图像进行缩放,保证图像的宽和高是k的整数倍;将图像I按照从左至右从上至下的顺序切分成不重叠的图像块,每个图像块是一个方块,宽和高都是k,每个图像块中的像素个数是k2,图像I可以切分出的图像块总数
所述的步骤2还进一步包括以下步骤:
步骤2.1,提取颜色特征,将每个图像块转化到YCbCr空间,将每个图像块的Cb和Cr通道作为颜色特征;
步骤2.2,提取方向熵:步骤1中得到的图像块为彩色图像块,首先将彩色图像块转化成灰度图图像块,对灰度图图像块进行高斯平滑,以消除噪声,然后对灰度图图像块进行二维傅里叶变换,将其转化到频域,并进行中心化处理,计算出每一个灰度图图像块的方向直方图H(θi),方向直方图H(θi)的计算公式如式(1)所示
其中,(m,n)表示灰度图图像块上像素点的坐标,f(m,n)表示在(m,n)处的傅里叶频率值,(m*,n*)是中心化后的坐标,直方图从(-90°,90°)每10°度为一段,0i表示第i,i=1,2…18段相位;
根据方向直方图,每一个图像块的方向熵Ep的计算公式如式(2)所示:
其中,θi与(1)式中相同;
步骤2.3,计算纹理特征,首先在灰度图图像块上求得图像的灰度共生矩阵,其中选择了三个表征量作为特征,分别是能量E(Energy),对比度C(Contrast),同质性H(Homogeneity);
最终得到每个图像块的特征向量g=[Cb,Cr,Ep,E,C,H]。
步骤3中所述的不相似度的计算方法如下:
其中,ωij为结点i和结点j之间在特征向量空间的不相似程度,β是一个自由参数,β∈(0.1~0.9),gi和gj分别为结点i和结点j的特征向量。
其中,ωij为结点i和结点j之间在特征向量空间的不相似程度
其中,ωij为结点i和结点j之间在特征向量空间的不相似程度,
N(i)表示结点i的空间邻域,i=1,2,…L,j=1,2,…,L;
步骤3中所述的全连通图的状态转移矩阵Pg的计算方法如下:
Pg=(Dg)-1Ag 公式(7)
其中, 公式(8)
步骤3中所述的全连通图的平稳分布的第j个元素πj的计算方法如下:
其中,pij为全连通图的状态转移矩阵Pg第i行第j列的元素,πj表示全连通图中结点j的平稳分布概率;
步骤3中所述的全连通图的基础矩阵Zg的计算方法如下:
zg=(I-Pg+W)-1 公式(11)
步骤3中所述的k规则图的状态转移矩阵P1的计算方法如下:
P1=(D1)-1A1 公式(14)
其中, 公式(15),
其中,pij为k规则图的状态转移矩阵P1第i行第j列的元素,πj表示k规则图中结点j的平稳分布概率;
步骤3中所述的k规则图的基础矩阵z1的计算方法如下:
z1=(I-P1+W)-1 公式(18)
步骤5中所述的混合图上的关键节点到达任意节点i的期望步数的计算方法如下:
将公式中的上标改为m,利用公式(4)、(7)-(9)以及混合图关联矩阵Am计算出混合图状态转移概率矩阵Pm,利用Pm,根据公式(10)、(11)计算得到混合图平稳分布πm和混合图基础矩阵zm,然后计算混合图中从关键结点出发到达所有节点的期望步数(i=1,2……L),计算公式如下:
其中,πi表示混合图平稳分布πm中第i个元素,zii和zNmsali分别表示混合图基础矩阵zm中第i行第i列以及第Nmsal行第i列的元素;
有益效果:
1、与传统方法相比,本发明通过图像库测试对比证明了其有效性以及在效果上明显的优势。
2、本发明的主要计算量集中在步骤(2)(3),但在该步骤中每个图像块的计算是相互独立的,因此可以采用并行计算策略来提高执行效率。
附图说明
图1是本发明所涉及方法全过程的流程图;
图2a眼动议采集的人类真实视点图;
图2b采用itti方法得到的视图;
图2c采用bruce方法得到的视图;
图2d采用hou方法得到的视图;
图2e采用Harel方法得到的视图;
图2f采用W.Wang方法得到的视图;
图2g采用本发明得到的显著图;
具体实施方式
下面结合具体实施方式对本发明做进一步的说明。
假设输入一幅3通道彩色图像I,其宽和高分别为W、H。
首先在步骤1中要把图像切分成图像块,将图像I按照从左至右从上至下的顺序切分成不重叠的图像块pi(i=1,2,...,L),每个图像块是一个方块,宽和高都是k(k<W,k<H),因此每个图像块中的像素个数是k2,图像I可以切分出的图像块总数当图像的宽和高不是k的整数倍时,需要先对图像进行缩放,要保证图像的宽和高是k的整数倍,这里假定尺寸变化后图像的宽和高仍分别用W、H表示(不影响后文理解)。
接下来在步骤2中对步骤1所得到的图形块提取特征,步骤2共包含3个子步骤:
步骤2.1,提取颜色特征,将每个图像块转化到YCbCr空间,将每个图像块的Cb和Cr通道作为颜色特征;
步骤2.2,提取方向熵:步骤1中得到的图像块为彩色图像块,首先将彩色图像块转化成灰度图图像块,对灰度图图像块进行高斯平滑,以消除噪声,然后对灰度图图像块进行二维傅里叶变换,将其转化到频域,并进行中心化处理,计算出每一个灰度图图像块的方向直方图H(θi),方向直方图H(θi)的计算公式如式(1)所示:
其中,(m,n)表示灰度图图像块上像素点的坐标(m=l,2…k,n=l,2…k),f(m,n)表示在(m,n)处的傅里叶频率值,(m*,n*)是中心化后的坐标(m*=1,2…k,n*=1,2…k),直方图从(-90°,90°)每10°度为一段,θi表示第i(i=1,2…18)段相位;
根据方向直方图,计算每一个结点的方向熵Ep,方向熵Ep的计算公式如式(2)所示:
Ep=-∑H(θi)logH(θi) (2)
其中,θi与(1)式中相同;
步骤2.3,计算纹理特征,首先在灰度图图像块上求得其灰度共生矩阵,其中选择了三个表征量作为特征,分别是能量(Energy),对比度(Contrast),同质性(Homogeneity),能量是灰度共生矩阵元素值的平方和,反映了图像灰度分布均匀程度和纹理粗细度;对比度反映了图像的清晰度和纹理沟纹深浅的程度;同质性反映了图像亮度值的相似性;灰度共生矩阵通过matlab中graycomatrix函数求得,三个特征量通过matlab中graycoprops求得;
最终得到每个图像块的特征向量g=[Cb,Cr,Ep,E,C,H]。
然后构造全连通图和k规则图,
其中,ωij为结点i和结点j之间边的权值(i=1,2,...,L,j=l,2,...,L),反映了结点i和结点j之间在特征向量空间的不相似程度,ωij计算公式如下:
β(β=O.8)是一个自由参数,用来规格化特征(gi-gj)2,gi和gj为对应结点i和结点j的特征向量(i=1,2,...,L,j=1,2,...,L)。
由关联矩阵可以求得全连通图G的度数矩阵Dg,其中每个结点的度数反映了结点i与连接到i的所有其他节点不相似度的总和,进而得到由全连通图构造的马尔科夫链的状态转移矩阵Pg,状态转移矩阵Pg中的元素记录了对应结点的初始转移概率,Pg的求解过程如下:
Pg=(Dg)-1Ag
其中,i=1,2,…,L,j=1,2,...,L;
其中,pij为全连通图的状态转移矩阵Pg第i行第j列的元素,πj表示全连通图中结点j的平稳分布概率;
进而得到全连通图的基本矩阵为Z
zg=(I-Pg+W)-1
进而可以求得全连通图中从平稳分布出发到达任意节点i的期望步数计算方法如下:
其中,i=1,2,…L,j=1,2,…L,N(i)表示结点i的空间邻域,ωij为结点i和结点j之间在特征向量空间的不相似程度,ωij=exp(-β(gi-gj)2),β(β=O.8)是一个自由参数,用来规格化特征(gi-gj)2,gi和gj为对应结点i和结点j的特征向量(i=l,2,...,L,j=1,2,...,L);
k规则图的状态转移矩阵P1的计算方法如下:
P1=(D1)-1A1
其中, ,(i=1,2,…,L,j=1,2,…,L)。
其中,pij为k规则图的状态转移矩阵P1第i行第j列的元素,πj表示k规则图中结点j的平稳分布概率;
k规则图的基础矩阵z1的计算方法如下:
Z1=(I-P1+W)-1
对于得到的全连通图关联矩阵和k规则图关联矩阵进行融合,得到混合图关联矩阵Am=αA1+Ag,α为融合系数,α∈(0.01,0.1),步骤1得到的每个图像块视为混合图中的一个结点;计算混合图上关键结点Nmsal到达每个结点的期望步数,具体计算过程如下:
首先计算pm,pm=(Dm)-1Am公式(7),其中,公式(8),公式(9),ωij=exp(-β(gi-gj)2)公式(4),ωij为结点i和结点j之间在特征向量空间的不相似程度,步骤1得到的每个图像块视为混合图中的一个结点,β是一个自由参数,β∈(0.1~0.9),gi和gj分别为结点i和结点j的特征向量。
其中,Pij为混合图的状态转移矩阵pm第i行第j列的元素,πi表示混合图中结点i的平稳分布概率;
然后,计算混合图的基础矩阵zm,计算方法如下:Zm=(I-pm+W)-1公式(11),其中,I是单位阵,W是由L个混合图的平稳分布组成的L×L矩阵;
最后,计算混合图中从关键结点出发到达所有节点的期望步数(i=1,2……L),计算公式如下: ,其中, πi表示混合图平稳分布πm中第i个元素,zii和ZNmali分别表示混合图基础矩阵zm中第i行第i列以及第Nmsal行第i列的元素;
对期望步数进行归一化处理得到混合图中每个结点的显著值;根据混合图中每个结点的显著值得到输入图像的显著图SalMap,所述的显著图SalMap是一个J行N列的灰度图,J=H/k,N=W/k,显著图SalMap上第i行第j列的元素对应原图像I上切分出的图像块p(i-1)*N+j(i=1,2......J,j=1,....,N)的显著值;
最后,显著图SalMap通过二维高斯平滑算子进行平滑,得到最终反映图像上各区域视觉显著程度的结果图像,结果图上数值越大的区域就表示越显著。
本发明的上述操作到此己经实现了输入图像上各区域视觉显著性程度计算。
本发明在视觉显著性区域检测领域公认的测试图像库——法国INRIA实验室成员Bruce提供的图像库进行测试,该图像库共包括120幅彩色图像,每幅图像配有利用眼动仪记录的人类视点图。将本发明具体实施步骤中的方法与本领域一些经典方法进行了对比,本发明具体实施步骤中所描述方法的测试结果与人眼视点最一致,图2a-2g是本发明得到的显著图与眼动仪采集的人类真实视点以及本领域一些经典方法的结果,说明了本发明得到的显著图与人类真实视点有极高的相似度。其中,第一列为眼动议采集的人类真实视点图,其他依次为itti方法,bruce方法,Hou方法,Harel方法,W.Wang方法,最后一列为本发明得到的显著图。
Claims (8)
1.一种基于期望步数的图像显著程度检测方法,其特征在于,包括以下步骤:
步骤1,将宽为W,高为H的输入图像I切分成L个大小为k×k的不重叠的图像块;
步骤2,提取每个图像块的颜色,方向熵和纹理特征,构造特征向量;
步骤3,将每个图像块视为全连通图和k规则图中的一个结点,对于每个结点,利用步骤2所得到的特征向量计算这个结点与其他所有结点的不相似度,利用结点间的不相似度得到全连通图关联矩阵和k规则图的关联矩阵L表示分割后的图像块总数;根据全连通图的状态转移矩阵Pg计算全连通图的平稳分布进而得到全连通图的基础矩阵Zg,根据基础矩阵Zg计算全连通图中从平稳分布出发到达任意节点i的期望步数根据k规则图的状态转移矩阵Pl计算k规则图的平稳分布进而得到k规则图的基础矩阵Zl,根据基础矩阵Zl计算k规则图中从平稳分布出发到达任意节点i的期望步数
其中i=1,2,...,L;
步骤5,对于步骤3得到的全连通图关联矩阵和k规则图关联矩阵进行融合,得到混合图关联矩阵Am=αA1+Ag,α为融合系数,α∈(0.01,0.1),步骤1得到的每个图像块视为混合图中的一个结点;计算混合图上关键结点Nmsal到达每个结点的期望步数,对期望步数进行归一化处理得到混合图中每个结点的显著值;根据混合图中每个结点的显著值得到输入图像的显著图salMap,所述的显著图salMap是一个J行N列的灰度图,J=H/k,N=W/k,显著图salMap上第i行第j列的元素对应原图像I上切分出的图像块p(i-1)*N+j(i=l,2……J,j=i,....,N)的显著值;
步骤6,对于步骤5所得到的显著图salMap通过二维高斯平滑算子进行平滑,得到最终反映图像上各个区域显著程度的结果图像。
3.根据权利要求1所述的一种基于期望步数的图像显著程度检测方法,其特征在于,所述的步骤2还进一步包括以下步骤:
步骤2.1,提取颜色特征,将每个图像块转化到YCbCr空间,将每个图像块的Cb和Cr通道作为颜色特征;
步骤2.2,提取方向熵:步骤1中得到的图像块为彩色图像块,首先将彩色图像块转化成灰度图图像块,对灰度图图像块进行高斯平滑,以消除噪声,然后对灰度图图像块进行二维傅里叶变换,将其转化到频域,并进行中心化处理,计算出每一个灰度图图像块的方向直方图H(θi),方向直方图H(θi)的计算公式如式(1)所示
其中,(m,n)表示灰度图图像块上像素点的坐标,f(m,n)表示在(m,n)处的傅里叶频率值,(m*,n*)是中心化后的坐标,直方图从(-90°,90°)每10°度为一段,θi表示第i,i=1,2…18段相位;
根据方向直方图,每一个图像块的方向熵Ep的计算公式如式(2)所示:
Ep=-∑H(θi)logH(θi) 公式(2)
其中,θi与(1)式中相同;
步骤2.3,计算纹理特征,首先在灰度图图像块上求得图像的灰度共生矩阵,其中选择了三个表征量作为特征,分别是能量E(Energy),对比度C(Contrast),同质性H(Homogeneity);
最终得到每个图像块的特征向量g=[Cb,Cr,Ep,E,C,H]。
4.根据权利要求1所述的一种基于期望步数的图像显著程度检测方法,其特征在于,步骤3中所述的不相似度的计算方法如下:
ωij=exp(-β(gi-gj)2) 公式(4)
其中,ωij为结点i和结点j之间在特征向量空间的不相似程度,β是一个自由参数,β∈(O.1~0.9),gi和gj分别为结点i和结点j的特征向量。
6.根据权利要求5所述的一种基于期望步数的图像显著程度检测方法,其特征在于,步骤3中所述的全连通图的状态转移矩阵Pg的计算方法如下:
Pg=(Dg)-1Ag 公式(7)
其中, 公式(8)
其中,pij为全连通图的状态转移矩阵pg第i行第j列的元素,πj表示全连通图中结点j的平稳分布概率;
步骤3中所述的全连通图的基础矩阵Zg的计算方法如下:
Zg=(I-Pg+W)-1 公式(11)
7.根据权利要求5所述的一种基于期望步数的图像显著程度检测方法,其特征在于,步骤3中所述的k规则图的状态转移矩阵Pl的计算方法如下:
Pl=(Dl)-1Al 公式(14)
其中, 公式(15),
其中,pij为k规则图的状态转移矩阵P1第i行第j列的元素,πj表示k规则图中结点j的平稳分布概率;
步骤3中所述的k规则图的基础矩阵Z1的计算方法如下:
Z1=(I-P1+W)-1 公式(18)
步骤3中所述的k规则图中从平稳分布出发到达任意节点i的期望步数的计算方法如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013101810656A CN103247051A (zh) | 2013-05-16 | 2013-05-16 | 一种基于期望步数的图像显著程度检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013101810656A CN103247051A (zh) | 2013-05-16 | 2013-05-16 | 一种基于期望步数的图像显著程度检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103247051A true CN103247051A (zh) | 2013-08-14 |
Family
ID=48926556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2013101810656A Pending CN103247051A (zh) | 2013-05-16 | 2013-05-16 | 一种基于期望步数的图像显著程度检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103247051A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104091326A (zh) * | 2014-06-16 | 2014-10-08 | 小米科技有限责任公司 | 图标分割方法和装置 |
CN104299241A (zh) * | 2014-10-30 | 2015-01-21 | 武汉大学 | 基于 Hadoop 的遥感图像显著性目标检测方法及系统 |
CN104200429B (zh) * | 2014-08-19 | 2017-05-17 | 南京理工大学 | 一种傅立叶域图像显著性信息的变密度压缩采样方法 |
CN107609552A (zh) * | 2017-08-23 | 2018-01-19 | 西安电子科技大学 | 基于马尔可夫吸收模型的显著性区域检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101980248A (zh) * | 2010-11-09 | 2011-02-23 | 西安电子科技大学 | 基于改进视觉注意力模型的自然场景目标检测方法 |
CN101984464A (zh) * | 2010-10-22 | 2011-03-09 | 北京工业大学 | 一种图像中不同区域视觉显著程度的检测方法 |
CN102063623A (zh) * | 2010-12-28 | 2011-05-18 | 中南大学 | 一种结合自底向上和自顶向下的图像感兴趣区域提取方法 |
CN102496023A (zh) * | 2011-11-23 | 2012-06-13 | 中南大学 | 像素层面的感兴趣区域提取方法 |
JP2012123631A (ja) * | 2010-12-08 | 2012-06-28 | Canon Inc | 注目領域検出方法、注目領域検出装置、及びプログラム |
CN102779338A (zh) * | 2011-05-13 | 2012-11-14 | 欧姆龙株式会社 | 图像处理方法和图像处理装置 |
-
2013
- 2013-05-16 CN CN2013101810656A patent/CN103247051A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101984464A (zh) * | 2010-10-22 | 2011-03-09 | 北京工业大学 | 一种图像中不同区域视觉显著程度的检测方法 |
CN101980248A (zh) * | 2010-11-09 | 2011-02-23 | 西安电子科技大学 | 基于改进视觉注意力模型的自然场景目标检测方法 |
JP2012123631A (ja) * | 2010-12-08 | 2012-06-28 | Canon Inc | 注目領域検出方法、注目領域検出装置、及びプログラム |
CN102063623A (zh) * | 2010-12-28 | 2011-05-18 | 中南大学 | 一种结合自底向上和自顶向下的图像感兴趣区域提取方法 |
CN102779338A (zh) * | 2011-05-13 | 2012-11-14 | 欧姆龙株式会社 | 图像处理方法和图像处理装置 |
CN102496023A (zh) * | 2011-11-23 | 2012-06-13 | 中南大学 | 像素层面的感兴趣区域提取方法 |
Non-Patent Citations (2)
Title |
---|
LIJUAN DUAN 等: "《Bio-inspired Visual Saliency Detection and Its Application on Image Retargeting》", 《ICONIP 2011, PART I, LNCS 7062》, 31 December 2011 (2011-12-31), pages 182 - 189 * |
VISWANATH GOPALAKRISHNAN 等: "《Random Walks on Graphs to Model Saliency in Images》", 《COMPUTER VISION AND PATTERN RECOGNITION, 2009. CVPR 2009. IEEE CONFERENCE ON.IEEE, 2009》, 31 December 2009 (2009-12-31), pages 1698 - 1705 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104091326A (zh) * | 2014-06-16 | 2014-10-08 | 小米科技有限责任公司 | 图标分割方法和装置 |
CN104200429B (zh) * | 2014-08-19 | 2017-05-17 | 南京理工大学 | 一种傅立叶域图像显著性信息的变密度压缩采样方法 |
CN104299241A (zh) * | 2014-10-30 | 2015-01-21 | 武汉大学 | 基于 Hadoop 的遥感图像显著性目标检测方法及系统 |
CN107609552A (zh) * | 2017-08-23 | 2018-01-19 | 西安电子科技大学 | 基于马尔可夫吸收模型的显著性区域检测方法 |
CN107609552B (zh) * | 2017-08-23 | 2019-07-02 | 西安电子科技大学 | 基于马尔可夫吸收模型的显著性区域检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | ORSIm detector: A novel object detection framework in optical remote sensing imagery using spatial-frequency channel features | |
Yu et al. | Deep learning in remote sensing scene classification: a data augmentation enhanced convolutional neural network framework | |
CN102096825B (zh) | 基于图的半监督高光谱遥感图像分类方法 | |
Zheng et al. | Unsupervised saliency-guided SAR image change detection | |
CN101551863B (zh) | 基于非下采样轮廓波变换的遥感图像道路提取方法 | |
CN107346436A (zh) | 一种融合图像分类的视觉显著性检测方法 | |
CN105869173A (zh) | 一种立体视觉显著性检测方法 | |
CN103745201B (zh) | 一种节目识别方法及装置 | |
CN102663371B (zh) | 一种耦合步态特征的低分辨率人脸识别方法 | |
CN104392241A (zh) | 一种基于混合回归的头部姿态估计方法 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN105608690A (zh) | 一种基于图论和半监督学习相结合的图像分割方法 | |
Zhong et al. | Class-specific object proposals re-ranking for object detection in automatic driving | |
CN104462494A (zh) | 一种基于无监督特征学习的遥感图像检索方法及系统 | |
Yang et al. | Visual tracking with long-short term based correlation filter | |
CN105405132A (zh) | 基于视觉反差和信息熵的sar图像人造目标检测方法 | |
CN103247051A (zh) | 一种基于期望步数的图像显著程度检测方法 | |
CN105488541A (zh) | 增强现实系统中基于机器学习的自然特征点识别方法 | |
CN102663724A (zh) | 基于自适应差异图的遥感图像变化检测方法 | |
CN103839066A (zh) | 一种源于生物视觉的特征提取方法 | |
CN105005798A (zh) | 一种基于局部相似结构统计匹配的目标识别方法 | |
Li et al. | An aerial image segmentation approach based on enhanced multi-scale convolutional neural network | |
Sousa et al. | Joint characterization of spatiotemporal data manifolds | |
Li et al. | An edge-based optimization method for shape recognition using atomic potential function | |
CN104050486B (zh) | 基于图和Wishart距离的极化SAR图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20130814 |