CN106127799B - 一种对于三维视频的视觉注意力检测方法 - Google Patents
一种对于三维视频的视觉注意力检测方法 Download PDFInfo
- Publication number
- CN106127799B CN106127799B CN201610427876.3A CN201610427876A CN106127799B CN 106127799 B CN106127799 B CN 106127799B CN 201610427876 A CN201610427876 A CN 201610427876A CN 106127799 B CN106127799 B CN 106127799B
- Authority
- CN
- China
- Prior art keywords
- formula
- motion
- image block
- video
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种对于三维视频的视觉注意力检测方法,用于检测三维视频的显著性图。其特征在于:首先利用低层级的视觉特征来计算特征对比度,从而求得三维视频帧的空间显著性图;另外采用了运动信息来获取时间显著性图,对于三维视频中的运动信息,用平面运动和深度运动来计算运动显著性图。最后三维视频的显著性图由空间显著性图和时间显著性图结合得到,在结合的过程中运用了格式塔心理学中的共同命运份法则和紧密性法则。实验结果在三维视频的显著性图预测中展现了良好的效果。
Description
技术领域
本发明设计了一种检测三维视频显著性的视觉注意力检测方法。属于多媒体技术领域,具体属于数字图像和数字视频处理技术领域。
背景技术
在视觉感知中视觉注意力是很重要的机理,它能够迅速的在自然图像中检测出显著信息。当我们观察自然图像时,选择性注意力会让我们专注于一些具体的显著信息,并且因为极限处理资源而忽略其他并不重要的信息。基本上视觉注意力方法可分为两种:自底向上和自顶向下。自底向上处理是数据驱动和任务独立下的自动显著区域检测,而自顶向下方法是涉及某些具体任务的认知过程。
通常来说,从视觉注意力模型中提取的显著区域可以广泛的应用于二维多媒体中,例如视觉质量评价,编码,分割等。目前存在着许多对于二维图片/视频的视觉注意力计算模型。Itti等做出了早期的图片视觉注意力模型,通过亮度、颜色和方向的特征对比度。后来Le Meur等人提出了基于人眼视觉体统特征的显著性检测模型,包括对比敏感度函数,视觉掩蔽和中央交互。
在过去几年,出现了一大批关于三维多媒体技术的应用,包括三维视觉质量评价,三维视频编码,三维内容生成等。对于三维多媒体应用,三维视觉感知的模型整合可以用来改进三维多媒体处理的算法。立体视觉注意力,一个重要的视觉感知过程,在各种立体多媒体应用中的立体视觉内容中提取显著区域。
近年来,Chamaret等人在三维渲染方面提出了一个显著性检测算法。在他的研究中,差异图被用来给二维显著性图赋权值从而计算最终的三维图片的显著图。Lang等人提出了一个对于立体图片的人眼追踪数据库,以及研究了深度信息对于立体视觉注意模型的影响。Wang等人通过深度显著性和二维显著性的结合设计了一个立体视觉注意力检测模型。一个人眼追踪数据库也被建立来证明立体视觉注意力检测模型的效果性能。
上述介绍到的大多数立体视觉注意力模型目前都只是针对立体图像,但视觉注意力模型在三维立体视频的研究上任然存在着局限性。所以需要在此领域提出新的方法,来检测三维视频的显著性图。
发明内容
为了克服目前对于三维立体视频的视觉注意力模型研究的局限性,我们就三维立体视频的视觉注意力模型提出了一种新的方法。低层级特征包含颜色,亮度,纹理和深度,都被提取来计算空间显著性图预测的特征对比度。另外,平面运动和深度运动都用来计算运动显著性图。最终三维立体视频的显著性图由时间显著性图和空间显著性图结合而成。
本发明各个部分的具体操作如下:
一种对于三维视频的视觉注意力检测方法,其特征在于包括以下步骤:
步骤1:提取三维视频帧中低层级视觉特征来计算特征对比度,利用欧几里得距离的高斯模型求得三维视频帧的空间显著性图;
步骤2:采用运动信息来获取时间显著性,对于三维视频中的运动信息,用平面运动和深度运动共同计算时间显著性图。
步骤3:基于格式塔心理学原理的相近性法则,得出对空间显著性图加权值。
步骤4:基于格式塔心理学原理的共同命运法则,得出对时间显著性图加权值。
步骤5:根据时间显著性加权值和空间显著性加权值,融合得到三维视频的显著性图。
而且,步骤1所述的三维视频帧中的低层级特征计算方法如下:将视频帧分为8*8的图像块,令r,g,b代表图像的红色、绿色和蓝色通道,定义图像块新的特征,新的红色特征R=r-(g+b),新的绿色特征G=g-(r+b)/2,新的蓝色特征B=b-(r+g)/2,新的黄色特征根据以上定义,我们可以计算图像块的如下特征:
(1)亮度分量I:
I=(r+g+b)/3 (1)
(2)第一个颜色分量Cb:
Cb=B-Y (2)
(3)第二个颜色分量Cr:
Cr=R-G (3)
(4)根据公式(1)-(3)计算得到三个图像块特征分量,然后分别计算其DCT(Discrete Cosine Transform,离散余弦变换)系数。利用图像块三个特征的DC系数(直流系数),来分别表示图像块的三个特征,假设由亮度分量(公式(1))通过DCT计算得到的DCI,第一个颜色分量(公式(2))通过DCT计算得到的DC系数为DCb,第二个颜色分量(公式(3))通过DCT计算得到的DC系数为DCr。因此,图像的亮度特征:
D1=DCI (4)
两个颜色特征分别为:
D2=DCb (5)
D3=DCr (6)
由于颜色分量主要包括图像的色彩信息,因此,我们用亮度分量通过DCT得到的AC系数(交流系数)来表示图像块的纹理特征,对于一个8*8的图像块,一共有63个AC系数。因此图像块的纹理特征D4可以表示如下:
D4={t1,t2,…,t63} (7)
(5)三维视频帧的深度信息F可以根据以下公式计算:
式中v代表视觉观察距离,v=75cm,E为双眼间的距离,E=4.5cm,ω和h是播放屏幕的宽度和水平分辨率,分别为30cm和80像素/英寸,P为三维视频帧左视图和右视图像素间的视差大小。由公式(8),我们可以计算图像块的深度信息F,通过DCT计算得到深度信息的DC系数DCF,我们把图像块深度信息的DC系数表示为图像块的深度特征D5=DCF。
而且,步骤1所述利用低层级特征对比度以及欧几里得距离的高斯模型来计算空间显著性图的具体方法包括以下步骤:
(1)针对所有特征D1,D2,D3,D4,D5,计算块之间的特征对比度W:
图像块i和j之间的亮度特征对比度为:
图像块i和j之间的颜色Cb特征对比度为:
图像块i和j之间的颜色Cr特征对比度为:
图像块i和j之间的深度特征对比度为:
其中,i和j代表第i个图像块和第j个图像块,分母为归一化操作,由公式(9)-(12)可以求得图像不同特征的特征对比度W1,W2,W3,W5。
图像块i和j之间的纹理特征D4对比度为:
由公式(13)可以求得图像的纹理特征对比度W4,和是由公式(7)得到的纹理特征,t∈{1,2,…,63},i和j代表第i个图像块和第j个图像块,分母为归一化操作。
(2)利用欧几里得距离的高斯模型加权特征对比度,求得各个特征图第i块的显著性值。
亮度特征显著性图:
Cb特征显著性图:
Cr特征显著性图:
纹理特征显著性图:
深度特征显著性图:
以上式中dij表示块i和块j之间的欧几里得距离,σ是高斯模型的参数,它用来决定局部和全局对比度的程度,σ=5。
(3)由公式(14)-(18)计算得到5个特征的显著性图S1,S2,S3,S4,S5,将5个特征的显著性图融合成空间显著性图:
而且,步骤2所述提取三维视频帧中的运动信息,包含平面运动和深度运动,求出时间显著性图的具体方法包含以下步骤:
(1)通过光流法的出平面x方向和y方向的运动特征,Mx和My,那么平面方向的运动特征Mp可表示如下:
(2)计算深度方向上的运动特征Md:
Md(mf,nf,f)=F(mf+Mx(mf,nf,f),nf+My(mf,nf,f),f+1)-
F(mf,nf,f) (21)
式中F为公式(8)中的深度信息,m和n表示图片中像素点的坐标,f表示三维视频中的第f帧。
(3)针对时域特征Md和Mp,计算块之间的特征对比度Q:
深度方向运动特征对比度:
平面方向运动特征对比度:
i和j代表第i个图像块和第j个图像块,分母为归一化操作。
(4)利用欧几里得距离的高斯模型加权运动特征对比度,求得运动特征图q中第i块的显著性值:
深度方向运动特征的显著性图:
平面方向运动特征的显著性图:
表示块i和j之间深度方向的运动特征对比度,表示块i和j之间的平面上的运动特征对比度,dij表示块i和块j之间的欧几里得距离,σ是高斯模型的参数,它用来决定局部和全局对比度的程度,σ=5。
(5)将时间域下的2个特征图的显著性值融合成时间显著性图:
而且,步骤3所述基于格式塔心理学原理的相近性法则和连续性法则,得出对空间显著性图加权值的具体方法包含以下步骤:
(1)根据标准图确立显著性图的中心点坐标:
式中RS为标准图中所有的像素点,M为它们的总个数,Sm,n为像素点(m,n)的显著性值。
(2)经实验拟合出离中心点距离和成为显著性点可能性大小的函数关系:
p(s|h)表示当前像素点为显著性点可能性的大小,h表示视频帧中各像素点离中心点的距离,s表示当前像素点为显著性点。
(3)计算空域下可能性熵值的大小:
U(s)=Hb(p(s|h)) (30)
其中Hb(p)为二值熵函数,计算如下:-plog2p-(1-p)log2(1-p)
而且,步骤4所述基于格式塔心理学原理的共同命运法则,得出对时间显著性图加权值的具体方法包含以下步骤:
(1)根据运动特征Mx和My,Mx和My分别为平面x方向和y方向的运动大小,那么平面运动的方向可计算为:
式中(m,n)为运动特征图像素点的坐标,My和Mx通过光流法计算得出。
(2)求出运动方向差异值:
θ′为运动方向与中心点坐标下的运动方向的差异,θ(m,n)由公式(31)得出,(m,n)为每个像素点的坐标,(xc,yc)由公式(27)(28)得到,为显著中心点的坐标。
(3)经实验拟合出像素点方向差异和成为显著性点可能性大小的函数关系:
式中θ′为每个像素点与中心点的方向差异,由公式(32)得出。
(4)根据运动特征Mx,My和Md,求出平面方向x,y和深度方向与中心点差异C:
平面方向的大小差异:
式中Mp为公式(20)得出,(m,n)为像素点坐标,(xc,yc)为显著中心点坐标
深度方向的大小差异:
式中Md为公式(21)得出,(m,n)为像素点坐标,(xc,yc)为显著中心点坐标。
(5)经实验拟合出像素点运动大小差异和成为显著性点可能性大小的函数关系:
r∈{p,d},C由公式(34)(35)得出。
(6)计算时域下可能性熵值的大小:
式中Ut为时域下的权值,Uθ为公式(33)所得,Up和Ud为公式(36)所得。
而且,其特征在于:步骤5所述根据时间显著性加权值和空间显著性加权值,融合得到三维视频的图像显著区域的具体方法为:
Us为空域下的权值,Ut为时域下的权值,Ss为空间显著性图,St为时域显著性图。
本发明的优点和技术效果:
本发明算法合理高效,提出了一种新颖的方法结合三维视频下的时间显著性图和空间显著性图。在空间显著性检测中,提取低层级特征结合欧几里得距离的高斯模型求得空间显著性图;在时间显著性检测中,利用光流法检测出平面运动信息和深度运动信息,在结合欧几里得距离的高斯模型得出时间显著性图。最后利用格式塔心理学中的相近性原则和共同命运原则,求得运动方向,大小差异,分别得出空域和时域下的权值,且融合得出最终的三维视频显著性区域。本发明鲁棒性高,评价指标皆高于目前最好的算法,可扩展性强。
附图说明
图1为本发明流程图。
图2为对于不同显著性检测算法的比较。第一列至最后一列分别为:三维视频帧的原始图像,Itti-二维显著性图像,Fang-三维显著性图像,本发明的实验图像,参考图像。从这些比较中,我们可以发现Itti-二维的显著性检测模型只能检测到图片的轮廓信息。Fang-三维的显著性检测模型丢失了一下显著性区域,我们提出的显著性检测方法和现存的参考图像最相近。
图3为其他显著性检测方法与本文方法的比较,我们通过了三个指标来进行评价:AUC(Area Under Curve)曲线下面积,目前最为流行的评价方法;CC(correlationcoefficient)线性相关系数,可比较算法得出的显著性图与标准图之间的相关性;NSS(Normalized scanpath saliency)。这三者的值都介于0到1之间,且值越大证明提出的方法效果越好。
具体实施方式
下面结合附图,对本发明的技术方案做进一步的详细描述。
本发明的过程如图1所示,具体过程如下。
步骤1:提取三维视频帧中低层级视觉特征来计算特征对比度,利用欧几里得距离的高斯模型求得三维视频帧的空间显著性图;
首先将视频帧分为8*8的图像块,令r,g,b代表图像的红色、绿色和蓝色通道,定义图像块新的特征,新的红色特征R=r-(g+b),新的绿色特征G=g-(r+b)/2,新的蓝色特征B=b-(r+g)/2,新的黄色特征 根据以上定义,我们可以计算图像块的如下特征:
(1)亮度分量I:
I=(r+g+b)/3 (1)
(2)第一个颜色分量Cb:
Cb=B-Y (2)
(3)第二个颜色分量Cr:
Cr=R-G (3)
(4)根据公式(1)-(3)计算得到三个图像块特征分量,然后分别计算其DCT(Discrete Cosine Transform,离散余弦变换)系数。利用图像块三个特征的DC系数(直流系数),来分别表示图像块的三个特征,假设由亮度分量(公式(1))通过DCT计算得到的DCI,第一个颜色分量(公式(2))通过DCT计算得到的DC系数为DCb,第二个颜色分量(公式(3))通过DCT计算得到的DC系数为DCr。因此,图像的亮度特征:
D1=DCI (4)
两个颜色特征分别为:
D2=DCb (5)
D3=DCr (6)
由于颜色分量主要包括图像的色彩信息,因此,我们用亮度分量通过DCT得到的AC系数(交流系数)来表示图像块的纹理特征,对于一个8*8的图像块,一共有63个AC系数。因此图像块的纹理特征D4可以表示如下:
D4={t1,t2,…,t63} (7)
(5)三维视频帧的深度信息F可以根据以下公式计算:
式中v代表视觉观察距离,v=75cm,E为双眼间的距离,E=4.5cm,ω和h是播放屏幕的宽度和水平分辨率,分别为30cm和80像素/英寸,P为三维视频帧左视图和右视图像素间的视差大小。由公式(8),我们可以计算图像块的深度信息F,通过DCT计算得到深度信息的DC系数DCF,我们把图像块深度信息的DC系数表示为图像块的深度特征D5=DCF。
然后针对所有特征D1,D2,D3,D4,D5,计算块之间的特征对比度W:
图像块i和j之间的亮度特征对比度为:
图像块i和j之间的颜色Cb特征对比度为:
图像块i和j之间的颜色Cr特征对比度为:
图像块i和j之间的深度特征对比度为:
其中,i和j代表第i个图像块和第j个图像块,分母为归一化操作,由公式(9)-(12)可以求得图像不同特征的特征对比度W1,W2,W3,W5。
图像块i和j之间的纹理特征D4对比度为:
由公式(13)可以求得图像的纹理特征对比度W4,和是由公式(7)得到的纹理特征,t∈{1,2,…,63},i和j代表第i个图像块和第j个图像块,分母为归一化操作。
再利用欧几里得距离的高斯模型加权特征对比度,求得各个特征图第i块的显著性值。
亮度特征显著性图:
Cb特征显著性图:
Cr特征显著性图:
纹理特征显著性图:
深度特征显著性图:
以上式中dij表示块i和块j之间的欧几里得距离,σ是高斯模型的参数,它用来决定局部和全局对比度的程度,σ=5。
最后,由公式(14)-(18)计算得到5个特征的显著性图S1,S2,S3,S4,S5,将5个特征的显著性图融合成空间显著性图:
步骤2:采用运动信息来获取时间显著性,对于三维视频中的运动信息,用水平运动和深度运动共同计算时间显著性图。
在本步骤中,计算运动信息的过程如下:
(1)通过光流法的出平面x方向和y方向的运动特征,Mx和My,那么平面方向的运动特征Mp可表示如下:
(2)计算深度方向上的运动特征Md:
Md(mf,nf,f)=F(mf+Mx(mf,nf,f),nf+My(mf,nf,f),f+1)-
F(mf,nf,f) (21)
式中F为公式(8)中的深度信息,m和n表示图片中像素点的坐标,f表示三维视频中的第f帧。
然后针对时域特征Md和Mp,计算块之间的特征对比度Q:
深度方向运动特征对比度:
平面方向运动特征对比度:
i和j代表第i个图像块和第j个图像块,分母为归一化操作。
再利用欧几里得距离的高斯模型加权运动特征对比度,求得运动特征图q中第i块的显著性值:
深度方向运动特征的显著性图:
平面方向运动特征的显著性图:
表示块i和j之间深度方向的运动特征对比度,表示块i和j之间的平面上的运动特征对比度,dij表示块i和块j之间的欧几里得距离,σ是高斯模型的参数,它用来决定局部和全局对比度的程度,σ=5。
最后将时间域下的2个特征图的显著性值融合成时间显著性图:
步骤3:基于格式塔心理学原理的相近性法则,得出对空间显著性图加权值。
首先根据标准图确立显著性图的中心点坐标:
式中RS为标准图中所有的像素点,M为它们的总个数,Sm,n为像素点(m,n)的显著性值。
经实验拟合出离中心点距离和成为显著性点可能性大小的函数关系:
p(s|h)表示当前像素点为显著性点可能性的大小,h表示视频帧中各像素点离中心点的距离,s表示当前像素点为显著性点。
然后计算空域下可能性熵值的大小:
U(s)=Hb(p(s|h)) (30)
其中Hb(p)为二值熵函数,计算如下:-plog2p-(1-p)log2(1-p)
步骤4:基于格式塔心理学原理的共同命运法则,得出对时间显著性图加权值。
首先根据运动特征Mx和My,Mx和My分别为平面x方向和y方向的运动大小,那么平面运动的方向可计算为:
式中(m,n)为运动特征图像素点的坐标,My和Mx通过光流法计算得出。
求出运动方向差异值:
θ′为运动方向与中心点坐标下的运动方向的差异,θ(m,n)由公式(31)得出,(m,n)为每个像素点的坐标,(xc,yc)由公式(27)(28)得到,为显著中心点的坐标。
并且经实验拟合出像素点方向差异和成为显著性点可能性大小的函数关系:
式中θ′为每个像素点与中心点的方向差异,由公式(32)得出。
然后根据运动特征Mx,My和Md,求出平面方向x,y和深度方向与中心点差异C:
平面方向的大小差异:
式中Mp为公式(20)得出,(m,n)为像素点坐标,(xc,yc)为显著中心点坐标
深度方向的大小差异:
式中Md为公式(21)得出,(m,n)为像素点坐标,(xc,yc)为显著中心点坐标。
且经实验拟合出像素点运动大小差异和成为显著性点可能性大小的函数关系:
r∈{p,d},C由公式(34)(35)得出。
最后计算时域下可能性熵值的大小:
式中Ut为时域下的权值,Uθ为公式(33)所得,Up和Ud为公式(36)所得。
步骤5:根据时间显著性加权值和空间显著性加权值,融合得到三维视频的显著性图,具体方法为:
Us为空域下的权值,Ut为时域下的权值,Ss为空间显著性图,St为时域显著性图。
实验证明我们提出的三维视频视觉注意力检测方法明显优于目前的其他方法。主要通过图二和三种方法来进行评估,ROC受试者工作特征曲线,线性相关系数和NSS。ROC曲线广泛的应用于视觉注意力模型性能的检测中,通过定义阈值,视觉注意力模型的显著性图可以被分为显著点和非显著点。TPR真正类表示视觉注意力模型中目标点在为显著点的百分比,而FPR假正类表示视觉注意力模型中背景点被检测为显著点的百分比。AUC是ROC曲线下的面积,能更好的性能进行评估,视觉注意力模型越好,那么它的AUC的值越大;相关系数用来衡量显著性图和位图之间的线性相关程度,相关系数会介于0到1之间,相关系数越大,则视觉注意力模型的性能则越好。同样对于NSS的值,也是值越大,视觉注意力模型的性能更好。
上述内容为本发明的详细说明,任何依照本发明的权利要求范围所做的同等变化与修改,皆为本发明的权利要求范围所涵盖。
Claims (6)
1.一种对于三维视频的视觉注意力检测方法,其特征在于包括以下步骤:
步骤1:提取三维视频帧中低层级视觉特征来计算特征对比度,利用欧几里得距离的高斯模型求得三维视频帧的空间显著性图,其中所述三维视频帧中的低层级特征计算方法如下:将视频帧分为8*8的图像块,令r,g,b代表图像的红色、绿色和蓝色通道,定义图像块新的特征,新的红色特征R=r-(g+b),新的绿色特征G=g-(r+b)/2,新的蓝色特征B=b-(r+g)/2,新的黄色特征根据以上定义,我们可以计算图像块的如下特征:
(1)亮度分量I:
I=(r+g+b)/3 (1)
(2)第一个颜色分量Cb:
Cb=B-Y (2)
(3)第二个颜色分量Cr:
Cr=R-G (3)
(4)根据公式(1)-(3)计算得到三个图像块特征分量,然后分别计算其DCT系数;利用图像块三个特征的DC系数,来分别表示图像块的三个特征,由亮度分量公式(1)计算特征分量,再通过计算DCT系数得到的DC系数为DCI,由第一个颜色分量公式(2)计算特征分量,再通过计算DCT系数得到的DC系数为DCb,由第二个颜色分量公式(3)计算特征分量,再通过计算DCT系数得到的DC系数为DCr;因此,图像的亮度特征:
D1=DCI (4)
两个颜色特征分别为:
D2=DCb (5)
D3=DCr (6)
由于颜色分量主要包括图像的色彩信息,因此,用亮度分量通过DCT得到的AC系数来表示图像块的纹理特征,对于一个8*8的图像块,一共有63个AC系数;因此图像块的纹理特征D4表示如下:
D4={t1,t2,...,t63} (7)
(5)三维视频帧的深度信息F可以根据以下公式计算:
式中v代表视觉观察距离,v=75cm,E为双眼间的距离,E=4.5cm,ω和h是播放屏幕的宽度和水平分辨率,分别为30cm和80像素/英寸,P为三维视频帧左视图和右视图像素间的视差大小;由公式(8),我们可以计算图像块的深度信息F,通过DCT计算得到深度信息的DC系数DCF,我们把图像块深度信息的DC系数表示为图像块的深度特征D5=DCF;
步骤2:采用运动信息来获取时间显著性图,对于三维视频中的运动信息,用平面运动和深度运动共同计算时间显著性图;
步骤3:基于格式塔心理学原理的相近性法则,得出对空间显著性图加权值;
步骤4:基于格式塔心理学原理的共同命运法则,得出对时间显著性图加权值;
步骤5:根据时间显著性加权值和空间显著性加权值,融合得到三维视频的最终显著性图。
2.根据权利要求1所述的对于三维视频的视觉注意力检测方法,其特征在于:步骤1所述利用低层级特征对比度以及欧几里得距离的高斯模型来计算空间显著性图的具体方法包括以下步骤:
(1)针对所有特征D1,D2,D3,D4,D5,计算块之间的特征对比度W:
图像块i和j之间的亮度特征对比度为:
图像块i和j之间的颜色Cb特征对比度为:
图像块i和j之间的颜色Cr特征对比度为:
图像块i和j之间的深度特征对比度为:
其中,i和j代表第i个图像块和第j个图像块,分母为归一化操作,由公式(9)-(12)可以求得图像不同特征的特征对比度Wij 1,Wij 2,Wij 3,Wij 5;
图像块i和j之间的纹理特征D4对比度为:
由公式(13)可以求得图像的纹理特征对比度Wij 4,和是由公式(7)得到的纹理特征,t∈{1,2,...,63},i和j代表第i个图像块和第j个图像块,分母为归一化操作;
(2)利用欧几里得距离的高斯模型加权特征对比度,求得各个特征图第i块的显著性图;
亮度特征显著性图:
Cb特征显著性图:
Cr特征显著性图:
纹理特征显著性图:
深度特征显著性图:
以上式中dij表示块i和块j之间的欧几里得距离,σ是高斯模型的参数,它用来决定局部和全局对比度的程度,σ=5;
(3)由公式(14)-(18)计算得到5个特征的显著性图Si 1,Si 2,Si 3,Si 4,Si 5,将5个特征的显著性图融合成空间显著性图:
3.根据权利要求2所述的对于三维视频的视觉注意力检测方法,其特征在于:步骤2所述提取三维视频帧中的运动信息,包含平面运动和深度运动,求出时间显著性图的具体方法包含以下步骤:
(1)通过光流法得出平面x方向和y方向的运动特征,Mx和My,那么平面方向的运动特征Mp可表示如下:
(2)计算深度方向上的运动特征Md:
Md(mf,nf,f )=F(mf+Mx(mf,nf,f),nf+My(mf,nf,f),f+1)-F(mf,nf,f ) (21)
式中F为公式(8)中的深度信息,m和n表示图片中像素点的坐标,f表示三维视频中的第f帧;
(3)针对时域特征Md和Mp,计算块之间的特征对比度Q:
深度方向运动特征对比度:
平面方向运动特征对比度:
i和j代表第i个图像块和第j个图像块,分母为归一化操作;
(4)利用欧几里得距离的高斯模型加权运动特征对比度,求得运动特征图q中第i块的显著性图:
深度方向运动特征的显著性图:
平面方向运动特征的显著性图:
表示块i和j之间深度方向的运动特征对比度,表示块i和j之间的平面上的运动特征对比度,dij表示块i和块j之间的欧几里得距离,σ是高斯模型的参数,它用来决定局部和全局对比度的程度,σ=5;
(5)将时间域下的2个特征图的显著性图融合成时间显著性图:
4.根据权利要求3所述的对于三维视频的视觉注意力检测方法,其特征在于:步骤3所述基于格式塔心理学原理的相近性法则,得出对空间显著性图加权值的具体方法包含以下步骤:
(1)根据标准图确立显著性图的中心点坐标:
式中RS为标准图中所有的像素点,M为它们的总个数,Sm,n为像素点(m,n)的显著性值;
(2)经实验拟合出离中心点距离和成为显著性点可能性大小的函数关系:
p(s|h)表示当前像素点为显著性点可能性的大小,h表示视频帧中各像素点离中心点的距离,s表示当前像素点为显著性点;
(3)计算空域下可能性熵值的大小:
U(s)=Hb(p(s|h)) (30)
其中Hb(p)为二值熵函数,计算如下:-plog2p-(1-p)log2(1-p)。
5.根据权利要求4所述的对于三维视频的视觉注意力检测方法,其特征在于:步骤4所述基于格式塔心理学原理的共同命运法则,得出对时间显著性图加权值的具体方法包含以下步骤:
(1)根据运动特征Mx和My,Mx和My分别为平面x方向和y方向的运动大小,那么平面运动的方向可计算为:
式中(m,n)为运动特征图像素点的坐标,My和Mx通过光流法计算得出;
(2)求出运动方向差异值:
θ′为运动方向与中心点坐标下的运动方向的差异,θ(m,n)由公式(31)得出,(m,n)为每个像素点的坐标,(xc,yc)由公式(27)(28)得到,为显著中心点的坐标,
(3)经实验拟合出像素点方向差异和成为显著性点可能性大小的函数关系:
式中θ′为每个像素点与中心点的方向差异,由公式(32)得出;
(4)根据运动特征Mx,My和Md,求出平面方向x,y和深度方向与中心点差异C:
其中深度方向上的运动特征Md:
Md(mf,nf,f)=F(mf+Mx(mf,nf,f),nf+My(mf,nf,f),f+1)-F(mf,nf,f) (21)
平面方向的大小差异:
式中Mp为公式(20)得出的平面方向的运动特征,表示如下:
(m,n)为像素点坐标,(xc,yc)为显著中心点坐标,深度方向的大小差异:
(m,n)为像素点坐标,(xc,yc)为显著中心点坐标;
(5)经实验拟合出像素点运动大小差异和成为显著性点可能性大小的函数关系:
r∈{p,d},C由公式(34)(35)得出;
(6)计算时域下可能性熵值的大小:
式中Ut为时域下的权值,Uθ为公式(33)所得,Up和Ud为公式(36)所得。
6.根据权利要求5所述的对于三维视频的视觉注意力检测方法,其特征在于:步骤5所述根据时间显著性加权和空间显著性加权,融合得到三维视频的最终显著性图的具体方法为:
Us为空域下的权值,Ut为时域下的权值,Ss为空间显著性图,St为时域显著性图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610427876.3A CN106127799B (zh) | 2016-06-16 | 2016-06-16 | 一种对于三维视频的视觉注意力检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610427876.3A CN106127799B (zh) | 2016-06-16 | 2016-06-16 | 一种对于三维视频的视觉注意力检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106127799A CN106127799A (zh) | 2016-11-16 |
CN106127799B true CN106127799B (zh) | 2018-02-16 |
Family
ID=57469569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610427876.3A Active CN106127799B (zh) | 2016-06-16 | 2016-06-16 | 一种对于三维视频的视觉注意力检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106127799B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106993186B (zh) * | 2017-04-13 | 2019-04-30 | 宁波大学 | 一种立体图像显著性检测方法 |
CN108241854B (zh) * | 2018-01-02 | 2021-11-09 | 天津大学 | 一种基于运动和记忆信息的深度视频显著性检测方法 |
CN109377488A (zh) * | 2018-10-24 | 2019-02-22 | 福州大学 | 一种基于视觉跟踪的插值图像评价方法 |
CN109741300B (zh) * | 2018-12-18 | 2022-08-12 | 南京邮电大学 | 一种适用于视频编码的图像显著性快速检测方法和装置 |
CN109856601B (zh) * | 2019-01-11 | 2023-03-31 | 中国船舶重工集团公司第七二四研究所 | 一种基于显著性增强技术的雷达多普勒信息显示方法 |
CN110096951B (zh) * | 2019-03-20 | 2023-03-24 | 中国地质大学(武汉) | 基于布尔图理论的视频显著性检测方法、设备及存储设备 |
CN109993151A (zh) * | 2019-04-15 | 2019-07-09 | 方玉明 | 一种基于多模块全卷积网络的三维视频视觉注意力检测方法 |
CN110097115B (zh) * | 2019-04-28 | 2022-11-25 | 南开大学 | 一种基于注意力转移机制的视频显著性物体检测方法 |
CN112468796B (zh) * | 2020-11-23 | 2022-04-29 | 平安科技(深圳)有限公司 | 注视点生成方法、系统及设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8374436B2 (en) * | 2008-06-30 | 2013-02-12 | Thomson Licensing | Method for detecting layout areas in a video image and method for generating an image of reduced size using the detection method |
CN104680546A (zh) * | 2015-03-12 | 2015-06-03 | 安徽大学 | 一种图像显著目标检测方法 |
-
2016
- 2016-06-16 CN CN201610427876.3A patent/CN106127799B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106127799A (zh) | 2016-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106127799B (zh) | 一种对于三维视频的视觉注意力检测方法 | |
CN107277491B (zh) | 生成图像的深度图的方法及相关存储介质 | |
CN109934848B (zh) | 一种基于深度学习的运动物体精准定位的方法 | |
KR101420681B1 (ko) | 비디오 영상의 깊이 지도 생성 방법 및 장치 | |
Kim et al. | Multiscale saliency detection using random walk with restart | |
CN103530599B (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
Liang et al. | Stereoscopic saliency model using contrast and depth-guided-background prior | |
CN103049758B (zh) | 融合步态光流图和头肩均值形状的远距离身份验证方法 | |
CN103248906B (zh) | 一种双目立体视频序列的深度图获取方法与系统 | |
CN107886507B (zh) | 一种基于图像背景和空间位置的显著区域检测方法 | |
CN102609724B (zh) | 一种基于双摄像头的周围环境信息提示方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN107507206B (zh) | 一种基于显著性检测的深度图提取方法 | |
CN105243376A (zh) | 一种活体检测方法和装置 | |
CN105898278B (zh) | 一种基于双目多维感知特性的立体视频显著性检测方法 | |
CN110827193A (zh) | 基于多通道特征的全景视频显著性检测方法 | |
CN107944437B (zh) | 一种基于神经网络和积分图像的人脸定位方法 | |
CN102034267A (zh) | 基于关注度的目标物三维重建方法 | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
Kuo et al. | Depth estimation from a monocular view of the outdoors | |
CN106778704A (zh) | 一种人脸识别匹配方法及半自动化人脸匹配系统 | |
Liu et al. | Stereo video object segmentation using stereoscopic foreground trajectories | |
CN104243970A (zh) | 基于立体视觉注意力机制和结构相似度的3d绘制图像的客观质量评价方法 | |
KR101125061B1 (ko) | Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |