CN104463890A - 一种立体图像显著性区域检测方法 - Google Patents

一种立体图像显著性区域检测方法 Download PDF

Info

Publication number
CN104463890A
CN104463890A CN201410800350.6A CN201410800350A CN104463890A CN 104463890 A CN104463890 A CN 104463890A CN 201410800350 A CN201410800350 A CN 201410800350A CN 104463890 A CN104463890 A CN 104463890A
Authority
CN
China
Prior art keywords
image block
value
eye view
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410800350.6A
Other languages
English (en)
Other versions
CN104463890B (zh
Inventor
段立娟
邱硕
马伟
苗军
李甲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201410800350.6A priority Critical patent/CN104463890B/zh
Priority to US14/603,282 priority patent/US9501715B2/en
Publication of CN104463890A publication Critical patent/CN104463890A/zh
Application granted granted Critical
Publication of CN104463890B publication Critical patent/CN104463890B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种立体图像显著性区域检测方法,包括:步骤1)对立体图像的左眼视图和右眼视图求出各像素点的流信息;步骤2)对流信息进行匹配,得到视差图;步骤3)选取左眼视图和右眼视图其中之一,分出T个不重叠的正方形图像块;步骤4)计算视差图上每个图像块的视差影响度;步骤5)计算所选取的左眼视图和右眼视图其中之一上每个图像块的中央偏置特征和空域不相似度,并视差影响度三者相乘,得到该图像块的显著值;步骤6)由图像块的显著值获得立体图像的显著灰度图。本发明提出一种基于视差影响度和空间不相似度的立体显著性提取方法,利用视差来获取深度信息,结合视觉中央偏置特征和空域不相似度来实现更精确地立体显著性区域检测。

Description

一种立体图像显著性区域检测方法
技术领域
本发明涉及一种立体图像显著性区域检测方法。更具体地说,本发明涉及一种基于视差影响度和空间不相似度进行的立体图像显著性区域检测方法。
背景技术
视觉显著性由于其能够模拟人类视觉注意机制的特征而受到了研究领域的广泛关注,它已经成为神经系统科学、机器人学、计算机视觉等领域需要研究的课题。显著性区域的识别能够应用到目标识别,图像重定位,视觉追踪技术,图像分割,还能够用于分析人类视点的选取。目前,针对显著性提取的方法多面向单幅二维图像。随着信息科技技术地发展,更多的立体图像出现在人们的生活当中,这也为显著性提取技术提出了新的挑战。人们需要对立体图像的显著性重新进行分析和采样,在二维图像显著性研究的基础之上,引入新的因素和特征,综合估计立体显著性。
C.Lang在2012年中提供了深度特征提取的理论依据和方法,首先通过大量的对2D图像和3D图像的视点追踪实验得出四项结论:(1)深度特征会将视觉显著性调制到更远的深度范围,但是人类视觉依然更倾向于注意深度值较低的场景;(2)大量视点落在少量兴趣物上,在这一特点上,2D和3D都是一样的;(3)深度特征和显著性之间呈现非线性变化;(4)随着深度信息的增加,会导致2D和3D间视点分布变化程度的增加,特别是那种不同深度范围内都有显著刺激物的图像。这四项结论为深度特征提取在显著物目标检测的应用上提供了重要的理论依据,证明了深度特征的存在会大幅度影响视觉显著性在图像上的大小和分布。该文献在得出这四项结论之后,又通过高斯拟合分解深度概率密度函数,提取深度特征,并和2D显著性算法结合得出针对立体图像的显著性算法。K.Desingh在2013年对C.Lang的工作进一步优化和扩充,在实验中加入了对高景深背景模糊图像和中央偏置的测试,利用M.M.Cheng基于全局对比度的思想和点云分割技术提取深度特征,结合二维显著性算法得到三维图像显著性算法。Niu在2012年提出了两个方法,一个是基于全局视差估计对比的方法(CSS),一个是基于立体视觉规则的方法(KSS),并在文献中将两个方法进行了结合来提取立体图像显著性。但是,他们对显著性区域检测的精度还不够高。
发明内容
本发明的一个目的是解决立体图像显著性区域检测的精度不高的缺陷,并提供至少后面将说明的优点。
本发明还有一个目的是提供一种立体图像显著性区域检测方法,该方法是基于视差影响度和空间不相似度进行的,通过本发明提出的立体图像显著性区域检测方法可显著的提高立体图像显著性区域检测的精确度。
为了实现根据本发明的这些目的和其它优点,提供了一种立体图像显著性区域检测方法,其为基于视差影响度和空间不相似度进行的,包括以下步骤:
步骤1)分别对立体图像的左眼视图和右眼视图利用Sift Flow算法求出各像素点的流信息;
步骤2)将左眼视图和右眼视图上的流信息进行匹配,得到两个图像的内容上相对应的像素点之间的位置偏移值,将其作为视差值,由此得到视差图;
步骤3)选取左眼视图和右眼视图其中之一,从中分出T个不重叠的正方形图像块,每个图像块中包含K2个像素;
步骤4)将步骤3)中的分块方式对应地移植到视差图上,计算视差图上每个图像块的视差影响度值;
步骤5)计算所选取的左眼视图和右眼视图其中之一上每个图像块的中央偏置特征值和空域不相似度值,并将这两者与步骤4)中的视差影响度三者相乘,得到该图像块的显著值;
步骤6)用图像块的显著值取代将该图像块中的每个像素点的显著值,将所有像素点的显著值进行归一化处理,就得到了立体图像的显著灰度图。
优选的是,所述的立体图像显著性区域检测方法,得到视差图的方法为:将视差值以灰度值形式展现在图像上,其中,灰度值的取值范围为[0~255],且所述视差值的大小与所述灰度值的大小正相关。
优选的是,所述的立体图像显著性区域检测方法,其中,还包括以下步骤:
步骤7)对显著灰度图进行二层过滤,得到立体图像的显著区域。
优选的是,所述的立体图像显著性区域检测方法,其中,所述步骤4)中计算视差影响度的方法如下:
①计算视差影响度的公式如下:
S d = ( p i ) = Σ p k ≠ p i T D r ( p i , p k )
Sd表示求图像块pi的视差影响度,其中:每一个图像块标记为pn,n=1,2,3,.....T,(i,k)∈n;其中:
②Dr(pi,pk)表示两个不同的图像块pi和pk之间的区域距离,第一图像块和第二图像块之间的区域距离的定义如下:
D r ( p 1 , p 2 ) = Σ i = 1 n 1 Σ j = 1 n 2 ( c 1 , i ) f ( c 2 , j ) D ( p 1 , p 2 )
f(x)表示计算灰度概率密度的函数,cn,h表示图像块pn的第h个像素的灰度值,(i,j)∈h,n1、n2分别表示图像块p1和p2中的像素点的个数;
其余图像块之间的区域距离算法与上述算法相同;其中:
③D(p1,p2)表示相对矢量距离,第一图像块和第二图像块之间的相对矢量距离的定义如下:
D ( p 1 , p 2 ) = Σ i = 1 n ( x 1 , i - x 2 , i )
xk,i指图像块pk中的第i个像素在视差图中的灰度值,n为块像素数;
其余图像块之间的相对矢量距离算法与上述算法相同。
优选的是,所述的立体图像显著性区域检测方法,其中,所述步骤5)中计算中央偏置特征值的方法如下:
ω1(p1)=1-DTC(p1)/Dmax
ω1(x)表示计算中央偏置特征值的函数,p1为第一图像块,DTC为第一图像块p1到所选取左眼视图和右眼视图其中之一的中央的欧式距离,Dmax为该图像中任意像素距该图像中央的最大距离;
其余图像块中央偏置特征值算法与上述算法相同。
优选的是,所述的立体图像显著性区域检测方法,其中,所述步骤5)中计算空域不相似度值的方法如下:
将每一个图像块的三通道像素值组成一个列向量f,形成像素矩阵X=[f1,f2,f3,.....,fT]T,每一列像素值减去该列像素的平均值,然后构造协方差矩阵G=XTX/T2,这时G为T*T的矩阵,计算G的特征值和特征向量,保留前d个最大的特征向量,d的取值为0.6*T,至此图像块在降维空间中的表示方式为U=[X1,X2,.....,Xd]T,Xi是特征向量,U是一个d*L的矩阵,针对块p1和块pk间的空域不相似度计算方法如下:
dissimilarity ( p 1 , p k ) = Σ s = 1 d | x s 1 - x sk |
优选的是,所述的立体图像显著性区域检测方法,其中,所述步骤5)中三者相乘的方法为:
Sal ( p i ) = ω 1 ( p i ) S d ( p i ) Σ p i ≠ p k T dissimilarity ( p i , p k )
其中,Sal(Pi)代表Pi图像块的显著值。
优选的是,所述的立体图像显著性区域检测方法,其中,所述步骤7)中,去除计算得到视差影响度为负值的图像块,再将显著值排名最高的前5%的像素点作为显著性候选区域,并对原图像进行过分割处理,让显著性候选区域向过分割后的原图块进行收敛,收敛规则为:若原图像一个过分割块上所有像素均为显著区域上的显著像素点,则保留该块,否则删去。
本发明至少包括以下有益效果:
1、本发明利用视差来获取深度信息,并利用视差影响度的概念作为权值来提取立体显著性,提出了一种面向左眼视图和右眼视图形式的立体图像显著性提取的新思路;
2、本发明通过结合视差影响度,中央偏置因素,空域不相似度这三项特征,实现了更为精确地显著性提取和显著性区域检测。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明
图1为本发明的一个实施例中立体图像显著性区域检测方法的流程示意图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
本发明所涉及的输入立体图像数据库来源于Niu在2012年建立的,源图库是1000副左右视图形式的立体图像对,但是我们发现Niu认为图像可用的原则是--用三个人来识别目标,如果这三个人识别的均一致则认为该图像可用,并将识别出的目标得到GroundTruth。而我们认为仅用了3个人来做目标物识别的实验是不够的,样本量太少导致随机性增大,因此本发明将这1000副立体图像再次进行筛选,仅保留下前景是单一目标的图像,从图像库中去掉那些多目标的图像,以使显著目标的识别更加准确。最终我们筛掉了其中300副图像,保留了700副图像,依旧是足够大的数据集。
图1示出了立体图像显著性区域检测方法的步骤。其中包括:
步骤1)分别对立体图像的左眼视图和右眼视图利用Sift Flow算法求出各像素点的流信息;
步骤2)将左眼视图和右眼视图上的流信息进行匹配,得到两个图像的内容上相对应的像素点之间的位置偏移值,将其作为视差值,由此得到视差图;深度信息的提取可使用深度提取设备去拍摄场景深度,由人类视差的生成原理可知视差的大小与深度的大小呈反比关系,在视差图上灰度值越大视差越大,因此只需要有一个基于左眼视图和右眼视图的立体图像的输入,对其进行视差信息的提取,即可达到提取深度信息的目的。
步骤3)选取左眼视图和右眼视图其中之一,从中分出T个不重叠的正方形图像块,每个图像块中包含K2个像素;例如选取M*N的左眼视图,可将左眼视图分成T个不重叠的正方形图像块,并且每个正方形图像块在横向方向上包括K个像素,纵向方向上包括K个像素,总块数T=M*N/K2,并把每一个块标记为pi,i=1,2,3,.....T。其中M,N,K的值由用户设定。
步骤4)将步骤3)中的分块方式对应地移植到视差图上,计算视差图上每个图像块的视差影响度值;
步骤5)计算所选取的左眼视图和右眼视图其中之一上每个图像块的中央偏置特征值和空域不相似度值,并将这两者与步骤4)中的视差影响度三者相乘,得到该图像块的显著值;中央偏置在生理特征上解释为注视中央的神经元更容易受到激发,它能够帮助我们更好地模拟人类视觉特征,因此所述方法中引入中央偏置因素。
步骤6)用图像块的显著值取代将该图像块中的每个像素点的显著值,将所有像素点的显著值进行归一化处理,就得到了立体图像的显著灰度图。
在另一个实例中,得到视差图的方法为:将视差值以灰度值形式展现在图像上,其中,灰度值的取值范围为[0~255],且所述视差值的大小与所述灰度值的大小正相关。视差的大小与深度的大小呈反比关系,在视差图上灰度值越大视差越大,因此只需要有一个基于左眼视图和右眼视图的立体图像的输入,对其进行视差信息的提取,即可达到提取深度信息的目的。并且,这种方式只是一种较佳实例的说明,但并不局限于此。
上述方案中的基于视差影响度和空间不相似度进行的立体图像显著性区域检测方法的一种实现方式为:还包括以下步骤:
步骤7)对显著灰度图进行二层过滤,得到立体图像的显著区域。
上述方案中的基于视差影响度和空间不相似度进行的立体图像显著性区域检测方法的一种实现方式为:所述步骤4)中计算视差影响度的方法如下:
①计算视差影响度的公式如下:
S d ( p i ) = Σ p k ≠ p i T D r ( p i , p k )
Sd表示求图像块pi的视差影响度,其中:每一个图像块标记为pn,n=1,2,3,.....T,(i,k)∈n;其中:
②Dr(pi,pk)表示两个不同的图像块pi和pk之间的区域距离,第一图像块和第二图像块之间的区域距离的定义如下:
D r ( p 1 , p 2 ) = Σ i = 1 n 1 Σ j = 1 n 2 ( c 1 , i ) f ( c 2 , j ) D ( p 1 , p 2 )
f(x)表示计算灰度概率密度的函数,cn,h表示图像块pn的第h个像素的灰度值,(i,j)∈h,n1、n2分别表示图像块p1和p2中的像素点的个数;在这里我们认为,像素灰度频率越高、相对矢量灰度距离越大的块,显著值越大。
其余图像块之间的区域距离算法与上述算法相同;其中:
③D(p1,p2)表示相对矢量距离,第一图像块和第二图像块之间的相对矢量距离的定义如下:
D ( p 1 , p 2 ) = Σ i = 1 n ( x 1 , i - x 2 , i )
xk,i指图像块pk中的第i个像素在视差图中的灰度值,n为块像素数;
其余图像块之间的相对矢量距离算法与上述算法相同。在这里,相对矢量距离的计算没有包括绝对值计算,因为距离为负值的像素很可能是背景区域,这样这些像素对应块的视差影响度能够得到很好的平衡,能够更精确地提取前景目标物信息。
上述方案中的基于视差影响度和空间不相似度进行的立体图像显著性区域检测方法的一种实现方式为:所述步骤5)中计算中央偏置特征值的方法如下:
ω1(p1)=1-DTC(p1)/Dmax
ω1(x)表示计算中央偏置特征值的函数,p1为第一图像块,DTC为第一图像块p1到所选取左眼视图和右眼视图其中之一的中央的欧式距离,Dmax为该图像中任意像素距该图像中央的最大距离;
其余图像块中央偏置特征值算法与上述算法相同。
上述方案中的基于视差影响度和空间不相似度进行的立体图像显著性区域检测方法的一种实现方式为:所述步骤5)中计算空域不相似度值的方法如下:
利用类PCA降维空间方法求出块间的不相似度。具体过程为:将每一个图像块的三通道像素值组成一个列向量f,形成像素矩阵X=[f1,f2,f3,.....,fT]T,每一列像素值减去该列像素的平均值,然后构造协方差矩阵G=XTX/T2,这时G为T*T的矩阵,计算G的特征值和特征向量,保留前d个最大的特征向量,d的取值为0.6*T,至此图像块在降维空间中的表示方式为U=[X1,X2,.....,Xd]T,Xi是特征向量,U是一个d*L的矩阵,针对块p1和块pk间的空域不相似度计算方法如下:
dissimilarity ( p 1 , p k ) = Σ s = 1 d | x s 1 - x sk |
在另一个实例中,所述步骤5)中三者相乘的方法为:
Sal ( p i ) = ω 1 ( p i ) S d ( p i ) Σ p i ≠ p k T dissimilarity ( p i , p k )
其中,Sal(Pi)代表Pi图像块的显著值。其余图像块的显著值算法与上述算法相同。根据上述算法计算出左眼视图和右眼视图其中之一分成的T个不重叠像素块的显著值。
上述方案中的基于视差影响度和空间不相似度进行的立体图像显著性区域检测方法的一种实现方式为:所述步骤7)中,去除计算得到视差影响度为负值的图像块,再将显著值排名最高的前5%的像素点作为显著性候选区域,并对原图像进行过分割处理,让显著性候选区域向过分割后的原图块进行收敛,收敛规则为:若原图像一个过分割块上所有像素均为显著区域上的显著像素点,则保留该块,否则删去。背景因素很可能因为视差影响度的计算而呈现为负值,我们要将其删去,以免影响显著图显示效果和后续计算。经过两层过滤得到了最后的显著性区域。
如上所述,根据本发明,由于联合了视差影响度,中央偏置和空间不相似度等特征来预估显著性值,因此明显提高了显著性区域的准确度。
本发明的立体图像显著性区域检测方法与其他方法的比较结果如表1所示,分别同M.M.Cheng,在2012年提出的HC算法、RC算法、X.Hou在2007年提出的H算法、C.Wu在2011年提出的W算法、S.Goferman在2010年提出的G算法以及Margolin在2013年提出的M算法进行F-measure值对比。从对比结果看,本发明的F-measure值大于其他方法的F-measure值,这说明本发明的方法在显著性区域检测的准确度上均高于其他方法。
表1立体显著性区域检测方法和其它方法的F-measure对比表
方法 Our Hou Gofeman Wu Margolin Cheng-HC Cheng-RC
F-measure 0.5144 0.3648 0.3947 0.4541 0.4360 0.3768 0.4401
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (8)

1.一种立体图像显著性区域检测方法,其为基于视差影响度和空间不相似度进行的,包括以下步骤:
步骤1)分别对立体图像的左眼视图和右眼视图利用Sift Flow算法求出各像素点的流信息;
步骤2)将左眼视图和右眼视图上的流信息进行匹配,得到两个图像的内容上相对应的像素点之间的位置偏移值,将其作为视差值,由此得到视差图;
步骤3)选取左眼视图和右眼视图其中之一,从中分出T个不重叠的正方形图像块,每个图像块中包含K2个像素;
步骤4)将步骤3)中的分块方式对应地移植到视差图上,计算视差图上每个图像块的视差影响度值;
步骤5)计算所选取的左眼视图和右眼视图其中之一上每个图像块的中央偏置特征值和空域不相似度值,并将这两者与步骤4)中的视差影响度三者相乘,得到该图像块的显著值;
步骤6)用图像块的显著值取代将该图像块中的每个像素点的显著值,将所有像素点的显著值进行归一化处理,就得到了立体图像的显著灰度图。
2.如权利要求1所述的立体图像显著性区域检测方法,其特征在于,得到视差图的方法为:将视差值以灰度值形式展现在图像上,其中,灰度值的取值范围为[0~255],且所述视差值的大小与所述灰度值的大小正相关。
3.如权利要求2所述的立体图像显著性区域检测方法,其中,还包括以下步骤:
步骤7)对显著灰度图进行二层过滤,得到立体图像的显著区域。
4.如权利要求2所述的立体图像显著性区域检测方法,其中,所述步骤4)中计算视差影响度的方法如下:
①计算视差影响度的公式如下:
S d ( p i ) = Σ p k ≠ p i T D r ( p i , p k )
Sd表示求图像块pi的视差影响度,其中:每一个图像块标记为pn,n=1,2,3,.....T,(i,k)∈n;其中:
②Dr(pi,pk)表示两个不同的图像块pi和pk之间的区域距离,第一图像块和第二图像块之间的区域距离的定义如下:
D r ( p 1 , p 2 ) = Σ i = 1 n 1 Σ j = 1 n 2 f ( c 1 , i ) f ( c 2 , j ) D ( p 1 , p 2 )
f(x)表示计算灰度概率密度的函数,cn,h表示图像块pn的第h个像素的灰度值,(i,j)∈h,n1、n2分别表示图像块p1和p2中的像素点的个数;
其余图像块之间的区域距离算法与上述算法相同;其中:
③D(p1,p2)表示相对矢量距离,第一图像块和第二图像块之间的相对矢量距离的定义如下:
D ( p 1 , p 2 ) = Σ i = 1 n ( x 1 , i - x 2 , i )
xk,i指图像块pk中的第i个像素在视差图中的灰度值,n为块像素数;
其余图像块之间的相对矢量距离算法与上述算法相同。
5.如权利要求4所述的立体图像显著性区域检测方法,其中,所述步骤5)中计算中央偏置特征值的方法如下:
ω1(p1)=1-DTC(p1)/Dmax
ω1(x)表示计算中央偏置特征值的函数,p1为第一图像块,DTC为第一图像块p1到所选取左眼视图和右眼视图其中之一的中央的欧式距离,Dmax为该图像中任意像素距该图像中央的最大距离;
其余图像块中央偏置特征值算法与上述算法相同。
6.如权利要求5所述的立体图像显著性区域检测方法,其中,所述步骤5)中计算空域不相似度值的方法如下:
将每一个图像块的三通道像素值组成一个列向量f,形成像素矩阵X=[f1,f2f3,.....,fT]T,每一列像素值减去该列像素的平均值,然后构造协方差矩阵G=XTX/T2,这时G为T*T的矩阵,计算G的特征值和特征向量,保留前d个最大的特征向量,d的取值为0.6*T,至此图像块在降维空间中的表示方式为U=[X1,X2,.....,Xd]T,Xi是特征向量,U是一个d*L的矩阵,针对块p1和块pk间的空域不相似度计算方法如下:
dissimilarity ( p 1 , p k ) = Σ s = 1 d | x s 1 - x sk |
7.如权利要求6所述的立体图像显著性区域检测方法,其中,所述步骤5)中三者相乘的方法为:
Sal ( p i ) = ω 1 ( p i ) S d ( p i ) Σ p i ≠ p k T dissimilarity ( p i , p k )
其中,Sal(Pi)代表Pi图像块的显著值。
8.如权利要求7所述的立体图像显著性区域检测方法,其中,所述步骤7)中,去除计算得到视差影响度为负值的图像块,再将显著值排名最高的前5%的像素点作为显著性候选区域,并对原图像进行过分割处理,让显著性候选区域向过分割后的原图块进行收敛,收敛规则为:若原图像一个过分割块上所有像素均为显著区域上的显著像素点,则保留该块,否则删去。
CN201410800350.6A 2014-12-19 2014-12-19 一种立体图像显著性区域检测方法 Active CN104463890B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201410800350.6A CN104463890B (zh) 2014-12-19 2014-12-19 一种立体图像显著性区域检测方法
US14/603,282 US9501715B2 (en) 2014-12-19 2015-01-22 Method for detecting salient region of stereoscopic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410800350.6A CN104463890B (zh) 2014-12-19 2014-12-19 一种立体图像显著性区域检测方法

Publications (2)

Publication Number Publication Date
CN104463890A true CN104463890A (zh) 2015-03-25
CN104463890B CN104463890B (zh) 2017-05-24

Family

ID=52909872

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410800350.6A Active CN104463890B (zh) 2014-12-19 2014-12-19 一种立体图像显著性区域检测方法

Country Status (2)

Country Link
US (1) US9501715B2 (zh)
CN (1) CN104463890B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105898278A (zh) * 2016-05-26 2016-08-24 杭州电子科技大学 一种基于双目多维感知特性的立体视频显著性检测方法
CN106204551A (zh) * 2016-06-30 2016-12-07 北京奇艺世纪科技有限公司 一种图像显著性检测方法及装置
CN106682599A (zh) * 2016-12-15 2017-05-17 浙江科技学院 一种基于稀疏表示的立体图像视觉显著提取方法
CN108200430A (zh) * 2017-12-27 2018-06-22 华中科技大学 一种基于视觉显著度的自适应下采样深度图压缩方法
CN108648209A (zh) * 2018-04-08 2018-10-12 北京联合大学 一种显著性数据集的中心偏差的评测方法
CN109543561A (zh) * 2018-10-31 2019-03-29 北京航空航天大学 航拍视频显著性区域检测方法和装置
CN110009675A (zh) * 2019-04-03 2019-07-12 北京市商汤科技开发有限公司 生成视差图的方法、装置、介质及设备
CN112016661A (zh) * 2020-08-20 2020-12-01 浙江大学 一种基于擦除显著性区域的行人重识别方法
CN117169872A (zh) * 2023-08-25 2023-12-05 广州珠观科技有限公司 一种基于立体摄像机和毫米波雷达信息融合的机器人自主导航系统

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9195903B2 (en) * 2014-04-29 2015-11-24 International Business Machines Corporation Extracting salient features from video using a neurosynaptic system
US9373058B2 (en) 2014-05-29 2016-06-21 International Business Machines Corporation Scene understanding using a neurosynaptic system
US10115054B2 (en) 2014-07-02 2018-10-30 International Business Machines Corporation Classifying features using a neurosynaptic system
KR101737089B1 (ko) * 2015-05-29 2017-05-17 삼성전자주식회사 이미지를 디스플레이하는 방법 및 디바이스
CN108345892B (zh) * 2018-01-03 2022-02-22 深圳大学 一种立体图像显著性的检测方法、装置、设备及存储介质
CN108122230B (zh) * 2018-01-10 2022-06-24 广东工业大学 图像块的识别方法、装置及倒装芯片的焊球位置识别系统
CN111914850B (zh) * 2019-05-07 2023-09-19 百度在线网络技术(北京)有限公司 图片特征提取方法、装置、服务器和介质
CN111191650B (zh) * 2019-12-30 2023-07-21 北京市新技术应用研究所 基于rgb-d图像视觉显著性的物品定位方法与系统
CN112085683B (zh) * 2020-08-14 2024-04-09 杭州电子科技大学 一种显著性检测中的深度图可信度检测方法
CN112614069B (zh) * 2020-12-26 2022-08-30 数源科技股份有限公司 人脸图片降维模糊预处理方法
CN112613420B (zh) * 2020-12-26 2022-09-16 数源科技股份有限公司 用于人脸识别的降维签名方法
CN114565580B (zh) * 2022-03-01 2024-03-19 广西壮族自治区林业科学研究院 使用图像和传感结合进行土壤数据采集的方法及装置
CN115209122B (zh) * 2022-07-26 2023-07-07 福州大学 一种基于多智能体的立体图像视觉舒适度增强方法及系统
CN116205919B (zh) * 2023-05-05 2023-06-30 深圳市智宇精密五金塑胶有限公司 基于人工智能的五金零件生产质量检测方法及系统
CN117115172B (zh) * 2023-10-25 2024-01-12 山东鲁润阿胶药业有限公司 一种基于机器视觉的阿胶品质检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102750706A (zh) * 2012-07-13 2012-10-24 武汉大学 基于深度显著度的立体图像恰可感知差异模型的构建方法
CN102750731A (zh) * 2012-07-05 2012-10-24 北京大学 基于左右单眼感受野和双目融合的立体视觉显著计算方法
WO2013173282A1 (en) * 2012-05-17 2013-11-21 The Regents Of The University Of Califorina Video disparity estimate space-time refinement method and codec

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8340422B2 (en) * 2006-11-21 2012-12-25 Koninklijke Philips Electronics N.V. Generation of depth map for an image
WO2011014420A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3d) images
JP2011060116A (ja) * 2009-09-11 2011-03-24 Fujifilm Corp 画像処理装置
JP5140210B2 (ja) * 2010-08-31 2013-02-06 パナソニック株式会社 撮影装置および画像処理方法
JP5204350B2 (ja) * 2010-08-31 2013-06-05 パナソニック株式会社 撮影装置、再生装置、および画像処理方法
JP2012186652A (ja) * 2011-03-04 2012-09-27 Toshiba Corp 電子機器、画像処理方法及び画像処理プログラム
US9087375B2 (en) * 2011-03-28 2015-07-21 Sony Corporation Image processing device, image processing method, and program
JP2012253666A (ja) * 2011-06-06 2012-12-20 Sony Corp 画像理装置および方法、並びにプログラム
WO2013099169A1 (ja) * 2011-12-27 2013-07-04 パナソニック株式会社 ステレオ撮影装置
WO2013108339A1 (ja) * 2012-01-20 2013-07-25 パナソニック株式会社 ステレオ撮影装置
WO2014030571A1 (ja) * 2012-08-23 2014-02-27 シャープ株式会社 立体画像処理装置、立体画像処理方法およびプログラム
JP2014078095A (ja) * 2012-10-10 2014-05-01 Sony Corp 画像処理装置、画像処理方法、及びプログラム
CN103714526B (zh) * 2013-12-24 2016-04-20 西安电子科技大学 基于稀疏多流形嵌入的超分辨率图像重构方法
CN103793925B (zh) * 2014-02-24 2016-05-18 北京工业大学 融合时空特征的视频图像视觉显著程度检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013173282A1 (en) * 2012-05-17 2013-11-21 The Regents Of The University Of Califorina Video disparity estimate space-time refinement method and codec
CN102750731A (zh) * 2012-07-05 2012-10-24 北京大学 基于左右单眼感受野和双目融合的立体视觉显著计算方法
CN102750706A (zh) * 2012-07-13 2012-10-24 武汉大学 基于深度显著度的立体图像恰可感知差异模型的构建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LIJUAN DUAN ET AL: "Visual Saliency Detection by Spatially Weighted Dissimilarity", 《2011 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
YONG JU JUNG ET AL: "Predicting Visual Discomfort of Stereoscopic Images Using Human Attention Model", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105898278B (zh) * 2016-05-26 2017-10-27 杭州电子科技大学 一种基于双目多维感知特性的立体视频显著性检测方法
CN105898278A (zh) * 2016-05-26 2016-08-24 杭州电子科技大学 一种基于双目多维感知特性的立体视频显著性检测方法
CN106204551A (zh) * 2016-06-30 2016-12-07 北京奇艺世纪科技有限公司 一种图像显著性检测方法及装置
CN106682599B (zh) * 2016-12-15 2020-04-17 浙江科技学院 一种基于稀疏表示的立体图像视觉显著提取方法
CN106682599A (zh) * 2016-12-15 2017-05-17 浙江科技学院 一种基于稀疏表示的立体图像视觉显著提取方法
CN108200430A (zh) * 2017-12-27 2018-06-22 华中科技大学 一种基于视觉显著度的自适应下采样深度图压缩方法
CN108648209A (zh) * 2018-04-08 2018-10-12 北京联合大学 一种显著性数据集的中心偏差的评测方法
CN108648209B (zh) * 2018-04-08 2021-06-29 北京联合大学 一种显著性数据集的中心偏差的评测方法
CN109543561A (zh) * 2018-10-31 2019-03-29 北京航空航天大学 航拍视频显著性区域检测方法和装置
CN110009675B (zh) * 2019-04-03 2021-05-18 北京市商汤科技开发有限公司 生成视差图的方法、装置、介质及设备
CN110009675A (zh) * 2019-04-03 2019-07-12 北京市商汤科技开发有限公司 生成视差图的方法、装置、介质及设备
CN112016661A (zh) * 2020-08-20 2020-12-01 浙江大学 一种基于擦除显著性区域的行人重识别方法
CN117169872A (zh) * 2023-08-25 2023-12-05 广州珠观科技有限公司 一种基于立体摄像机和毫米波雷达信息融合的机器人自主导航系统
CN117169872B (zh) * 2023-08-25 2024-03-26 广州珠观科技有限公司 一种基于立体摄像机和毫米波雷达信息融合的机器人自主导航系统

Also Published As

Publication number Publication date
CN104463890B (zh) 2017-05-24
US9501715B2 (en) 2016-11-22
US20160180188A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
CN104463890B (zh) 一种立体图像显著性区域检测方法
CN106651853B (zh) 基于先验知识和深度权重的3d显著性模型的建立方法
Konda et al. Unsupervised learning of depth and motion
CN103632153B (zh) 一种基于区域的图像显著图提取方法
CN105898278B (zh) 一种基于双目多维感知特性的立体视频显著性检测方法
CN102799646B (zh) 一种面向多视点视频的语义对象分割方法
CN104408716A (zh) 一种基于视觉保真度的立体图像质量客观评价方法
Cheng et al. Stereo matching by using the global edge constraint
CN103384343A (zh) 一种填补图像空洞的方法及其装置
Wang et al. Stereoscopic image retargeting based on 3D saliency detection
CN108388901B (zh) 基于空间-语义通道的协同显著目标检测方法
Cho et al. Event-image fusion stereo using cross-modality feature propagation
Sheng et al. Saliency analysis based on depth contrast increased
Srikakulapu et al. Depth estimation from single image using defocus and texture cues
CN105138979A (zh) 基于立体视觉的运动人体头部检测方法
Lin et al. Scale ratio ICP for 3D point clouds with different scales
San et al. Stereo matching algorithm by hill-climbing segmentation
CN103632365A (zh) 一种立体图像视差估计方法
CN103888749A (zh) 一种双目视频转换多目视频的方法
CN115035545B (zh) 一种基于改进自注意力机制的目标检测方法及装置
CN104077554A (zh) 基于线性动态系统的视角无关的人体行为识别方法
Pavithra et al. An efficient edge detection algorithm for 2D-3D conversion
Zhang et al. A window-based adaptive correspondence search algorithm using mean shift and disparity estimation
Hingorani Future distribution system
Patel et al. 3D visualization of products for online shopping

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20150325

Assignee: Luoyang Microchip Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000174

Denomination of invention: A method for detecting salient regions in stereo images

Granted publication date: 20170524

License type: Common License

Record date: 20240105

Application publication date: 20150325

Assignee: Luoyang Tiangang Trading Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000143

Denomination of invention: A method for detecting salient regions in stereo images

Granted publication date: 20170524

License type: Common License

Record date: 20240104

Application publication date: 20150325

Assignee: Henan zhuodoo Information Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000138

Denomination of invention: A method for detecting salient regions in stereo images

Granted publication date: 20170524

License type: Common License

Record date: 20240104

Application publication date: 20150325

Assignee: Luoyang Lexiang Network Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000083

Denomination of invention: A method for detecting salient regions in stereo images

Granted publication date: 20170524

License type: Common License

Record date: 20240104

Application publication date: 20150325

Assignee: Luoyang Jingrui Industrial Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000079

Denomination of invention: A method for detecting salient regions in stereo images

Granted publication date: 20170524

License type: Common License

Record date: 20240104