CN104243956A - 一种立体图像视觉显著图提取方法 - Google Patents

一种立体图像视觉显著图提取方法 Download PDF

Info

Publication number
CN104243956A
CN104243956A CN201410466553.6A CN201410466553A CN104243956A CN 104243956 A CN104243956 A CN 104243956A CN 201410466553 A CN201410466553 A CN 201410466553A CN 104243956 A CN104243956 A CN 104243956A
Authority
CN
China
Prior art keywords
msub
mrow
parallax
equal
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410466553.6A
Other languages
English (en)
Other versions
CN104243956B (zh
Inventor
邵枫
姜求平
郁梅
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Bio Newvision Medical Equipment Ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201410466553.6A priority Critical patent/CN104243956B/zh
Publication of CN104243956A publication Critical patent/CN104243956A/zh
Application granted granted Critical
Publication of CN104243956B publication Critical patent/CN104243956B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种立体图像视觉显著图提取方法,其首先通过训练构建立体图像的视觉舒适度特征与视觉舒适度预测值的关系模型,然后利用该关系模型来预测立体图像的视觉舒适度,得到视觉舒适度显著图;采用基于图论的视觉显著性模型提取出立体图像的二维显著图;根据区域之间的空间相似性和视差相似性,得到立体图像的深度显著图;最后对二维显著图、深度显著图和视觉舒适度显著图进行融合,得到最终的三维视觉显著图,优点是获得的三维视觉显著图能够很好地符合显著语义的特征。

Description

一种立体图像视觉显著图提取方法
技术领域
本发明涉及一种图像信号的处理方法,尤其是涉及一种立体图像视觉显著图提取方法。
背景技术
在人类视觉接收与信息处理中,由于大脑资源有限以及外界环境信息重要性区别,因此在处理过程中人脑对外界环境信息并不是一视同仁的,而是表现出选择特征。人们在观看图像或者视频片段时注意力并非均匀分布到图像的每个区域,而是对某些显著区域关注度更高。如何将视频中视觉注意度高的显著区域检测并提取出来是计算机视觉以及基于内容的视频检索领域的一个重要的研究内容。
然而,人眼感知立体图像产生立体视觉的过程并不是简单的左右视点图像叠加的过程,因此,立体视觉特征(例如,三维视觉注意力)并不是平面视觉特性的简单拓展,如何从立体图像中有效地提取出立体视觉特征、如何使得提取的立体视觉特征符合人眼三维观看行为,都是在对立体图像进行视觉显著图提取过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种立体图像视觉显著图提取方法,其符合显著语义特征,且具有较强的提取稳定性和较高的提取准确性。
本发明解决上述技术问题所采用的技术方案为:一种立体图像视觉显著图提取方法,其特征在于包括训练阶段和测试阶段两个过程,具体步骤如下:
①选取N副各不相同而尺寸大小一致的立体图像以及每幅立体图像对应的右视差图像,构成训练图像集,记为{Li,Ri,di|1≤i≤N},其中,N≥1,Li表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的左视点图像,Ri表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的右视点图像,di表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像对应的右视差图像;
②计算{Li,Ri,di|1≤i≤N}中的每幅立体图像对应的右视差图像中的所有像素点的视差均值、视差方差和视差范围,将di中的所有像素点的视差均值、视差方差和视差范围对应记为μi、δi和χi;然后将{Li,Ri,di|1≤i≤N}中的每幅立体图像对应的右视差图像中的所有像素点的视差均值、视差方差和视差范围按顺序进行排列构成每幅立体图像的用于反映视觉舒适度的特征矢量,将第i幅立体图像的用于反映视觉舒适度的特征矢量记为Xi,Xi=[μiii],其中,此处符号“[]”为矢量表示符号,Xi的维数为3;
③采用支持向量回归,对{Li,Ri,di|1≤i≤N}中的所有立体图像的特征矢量进行训练,并使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,得到最优的权重矢量wopt和最优的偏置项bopt,然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为f(Xinp),其中,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数;
④将待测试的立体图像的左视点图像和右视点图像对应记为{IL(x,y)}和{IR(x,y)},将待测试的立体图像对应的右视差图像记为{dR(x,y)},其中,此处(x,y)表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}中的像素点的坐标位置,1≤x≤W,1≤y≤H,此处W表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的宽度,H表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的视差值;
⑤采用基于图论的视觉显著性模型提取出{IR(x,y)}的二维显著图,记为{S2D(x,y)},其中,S2D(x,y)表示{S2D(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑥采用超像素分割技术将{IR(x,y)}分割成M个互不重叠的区域,然后将{IR(x,y)}重新表示为M个区域的集合,记为{SPh},再根据{SPh}中的不同区域之间的视差相似性和空间相似性,计算{IR(x,y)}的深度显著图,记为{SDP(x,y)},其中,M≥1,SPh表示{SPh}中的第h个区域,1≤h≤M,SDP(x,y)表示{SDP(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑦根据利用训练得到的最优的权重矢量wopt和最优的偏置项bopt构造的支持向量回归训练模型f(Xinp),计算{IR(x,y)}的视觉舒适度显著图,记为{SVC(x,y)},其中,SVC(x,y)表示{SVC(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑧对{IR(x,y)}的二维显著图{S2D(x,y)}、{IR(x,y)}的深度显著图{SDP(x,y)}及{IR(x,y)}的视觉舒适度显著图{SVC(x,y)}进行融合,得到{IR(x,y)}的最终的三维视觉显著图,记为{S3D(x,y)},将{S3D(x,y)}中坐标位置为(x,y)的像素点的像素值记为S3D(x,y),S3D(x,y)=S2D(x,y)×SDP(x,y)×SVC(x,y)。
所述的步骤②中di中的所有像素点的视差均值、视差方差和视差范围的获取过程为:
②-1、计算di中的所有像素点的视差均值,记为μi其中,1≤x≤W,1≤y≤H,此处W表示di的宽度,H表示di的高度,di(x,y)表示di中坐标位置为(x,y)的像素点的视差值;
②-2、计算di中的所有像素点的视差方差,记为δi
②-3、计算di中的所有像素点的视差范围,记为χi,χi=dmax-dmin,其中,dmax表示di中的所有像素点的视差值按从大到小的顺序排序后,前1%的视差值对应的所有像素点的视差均值;dmin表示di中的所有像素点的视差值按从大到小的顺序排序后,后1%的视差值对应的所有像素点的视差均值。
所述的步骤③的具体过程为:
③-1、将{Li,Ri,di|1≤i≤N}中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,记为ΩN,{Xi,MOSi}∈ΩN,其中,MOSi表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的平均主观评分均值,MOSi∈[1,5],1≤i≤N;
③-2、构造ΩN中的每个特征矢量的回归函数,将Xi的回归函数记为f(Xi),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矢量,b为偏置项,表示Xi的线性函数,D(Xi,Xl')为支持向量回归中的核函数,Xl'表示ΩN中的第l'个特征矢量,1≤l'≤N,γ为核参数,exp()表示以自然基数e为底的指数函数,符号“|| ||”为求欧式距离符号;
③-3、采用支持向量回归作为机器学习的方法,对ΩN中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt),然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为f(Xinp),其中,Ψ表示对ΩN中的所有特征矢量进行训练的所有的权重矢量和偏置项的组合的集合,表示取使得的值最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数。
所述的步骤③-2中取核参数γ=54。
所述的步骤⑥中{IR(x,y)}的深度显著图{SDP(x,y)}的获取过程为:
⑥-1、计算{SPh}中的不同区域之间的视差相似性,将{SPh}中的第p个区域与第q个区域之间的视差相似性记为Simd(SPp,SPq), Sim d ( SP p , SP q ) = | Σ ( x , y ) ∈ SP p d R ( x , y ) N SP p - Σ ( x , y ) ∈ SP q d R ( x , y ) N SP q | , 其中,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,符号“| |”为取绝对值符号,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的视差值,表示SPp中包含的像素点的总个数,表示SPq中包含的像素点的总个数;
⑥-2、计算{SPh}中的不同区域之间的空间相似性,将{SPh}中的第p个区域与第q个区域之间的空间相似性记为Sims(SPp,SPq),其中,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示SPp中的中心像素点的坐标位置,表示SPq中的中心像素点的坐标位置,符号“|| ||”为求欧式距离符号,max()为取最大值函数,exp()表示以自然基数e为底的指数函数,λ为控制参数;
⑥-3、根据{SPh}中的不同区域之间的视差相似性和空间相似性,计算{SPh}中的每个区域的深度显著值,将{SPh}中的第h个区域SPh的深度显著值记为 DP SP h = Σ q = 1 M ( Sim d ( SP h , SP q ) × Sim s ( SP h , SP q ) ) , 其中,1≤h≤M,1≤q≤M,h≠q,Simd(SPh,SPq)表示SPh与SPq之间的视差相似性,Sims(SPh,SPq)表示SPh与SPq之间的空间相似性;
⑥-4、将{SPh}中的每个区域的深度显著值作为对应区域中的所有像素点的显著值,从而得到{IR(x,y)}的深度显著图,记为{SDP(x,y)},其中,SDP(x,y)表示{SDP(x,y)}中坐标位置为(x,y)的像素点的像素值。
所述的步骤⑦的具体过程为:
⑦-1、计算{SPh}中的每个区域的第一视差对比度,将{SPh}中的第h个区域SPh的第一视差对比度记为 其中,表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差均值,dh,max表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差值按从大到小的顺序排序后,前1%的视差值对应的所有像素点的视差均值;dh,min表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差值按从大到小的顺序排序后,后1%的视差值对应的所有像素点的视差均值;
⑦-2、计算{SPh}中的每个区域的第二视差对比度,将{SPh}中的第h个区域SPh的第二视差对比度记为 S 2 SP h = d h , max - d ‾ h d h , max - d h , min ;
⑦-3、计算{SPh}中的每个区域的视觉舒适度预测值,将{SPh}中的第h个区域SPh的视觉舒适度预测值记为Qh,pred其中,为采用与步骤②相同的方法计算得到的SPh的用于反映视觉舒适度的特征矢量,的维数为3,表示的线性函数;
⑦-4、根据{SPh}中的每个区域的第一视差对比度、第二视差对比度和视觉舒适度预测值,计算{SPh}中的每个区域的视觉舒适度显著值,将{SPh}中的第h个区域SPh的视觉舒适度显著值记为 其中,β为控制参数,T为阈值;
⑦-5、将{SPh}中的每个区域的视觉舒适度显著值作为对应区域中的所有像素点的显著值,从而得到{IR(x,y)}的视觉舒适度显著图,记为{SVC(x,y)},其中,SVC(x,y)表示{SVC(x,y)}中坐标位置为(x,y)的像素点的像素值。
与现有技术相比,本发明的优点在于:
1)本发明方法同时考虑立体图像的二维显著图、深度显著图和视觉舒适度显著图,并最终融合得到立体图像的三维视觉显著图,具有较高的提取准确性和较强的稳定性,并能够较好地反映各种因素的显著变化情况,符合显著语义特征。
2)本发明方法考虑到视觉舒适度对三维视觉显著图的影响,通过训练构建测试立体图像的右视点图像中的每个区域的用于反映视觉舒适度的特征矢量与视觉舒适度预测值的关系模型,然后利用关系模型来预测每个区域的视觉舒适度预测值,最后结合各个区域的第一视差对比度和第二视差对比度,得到立体图像的视觉舒适度显著图,从而有效地提高了视觉舒适度的预测准确性。
附图说明
图1为本发明方法的总体实现框图;
图2a为“Image1”的右视点图像;
图2b为“Image1”的右视点图像的真实眼动图;
图2c为“Image1”的右视点图像的二维显著图;
图2d为“Image1”的右视点图像的深度显著图;
图2e为“Image1”的右视点图像的视觉舒适度显著图;
图2f为“Image1”的右视点图像的三维视觉显著图;
图3a为“Image2”的右视点图像;
图3b为“Image2”的右视点图像的真实眼动图;
图3c为“Image2”的右视点图像的二维显著图;
图3d为“Image2”的右视点图像的深度显著图;
图3e为“Image2”的右视点图像的视觉舒适度显著图;
图3f为“Image2”的右视点图像的三维视觉显著图;
图4a为“Image3”的右视点图像;
图4b为“Image3”的右视点图像的真实眼动图;
图4c为“Image3”的右视点图像的二维显著图;
图4d为“Image3”的右视点图像的深度显著图;
图4e为“Image3”的右视点图像的视觉舒适度显著图;
图4f为“Image3”的右视点图像的三维视觉显著图;
图5a为“Image4”的右视点图像;
图5b为“Image4”的右视点图像的真实眼动图;
图5c为“Image4”的右视点图像的二维显著图;
图5d为“Image4”的右视点图像的深度显著图;
图5e为“Image4”的右视点图像的视觉舒适度显著图;
图5f为“Image4”的右视点图像的三维视觉显著图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种立体图像视觉显著图提取方法,其总体实现框图如图1所示,其包括训练阶段和测试阶段两个过程,具体步骤如下:
①选取N副各不相同而尺寸大小一致的立体图像以及每幅立体图像对应的右视差图像,构成训练图像集,记为{Li,Ri,di|1≤i≤N},其中,N≥1,在本实施例中取N=120,Li表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的左视点图像,Ri表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的右视点图像,di表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像对应的右视差图像。
②计算{Li,Ri,di|1≤i≤N}中的每幅立体图像对应的右视差图像中的所有像素点的视差均值、视差方差和视差范围,将di中的所有像素点的视差均值、视差方差和视差范围对应记为μi、δi和χi;然后将{Li,Ri,di|1≤i≤N}中的每幅立体图像对应的右视差图像中的所有像素点的视差均值、视差方差和视差范围按顺序进行排列构成每幅立体图像的用于反映视觉舒适度的特征矢量,将第i幅立体图像的用于反映视觉舒适度的特征矢量记为Xi,Xi=[μiii],其中,此处符号“[]”为矢量表示符号,Xi的维数为3。
在此具体实施例中,步骤②中di中的所有像素点的视差均值、视差方差和视差范围的获取过程为:
②-1、计算di中的所有像素点的视差均值,记为μi其中,1≤x≤W,1≤y≤H,此处W表示di的宽度,H表示di的高度,di(x,y)表示di中坐标位置为(x,y)的像素点的视差值。
②-2、计算di中的所有像素点的视差方差,记为δi
②-3、计算di中的所有像素点的视差范围,记为χi,χi=dmax-dmin,其中,dmax表示di中的所有像素点的视差值按从大到小的顺序排序后,前1%的视差值对应的所有像素点的视差均值;dmin表示di中的所有像素点的视差值按从大到小的顺序排序后,后1%的视差值对应的所有像素点的视差均值。
③采用支持向量回归,对{Li,Ri,di|1≤i≤N}中的所有立体图像的特征矢量进行训练,并使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,得到最优的权重矢量wopt和最优的偏置项bopt,然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为f(Xinp),其中,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数。
在此具体实施例中,步骤③的具体过程为:
③-1、将{Li,Ri,di|1≤i≤N}中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,记为ΩN,{Xi,MOSi}∈ΩN,其中,MOSi表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的平均主观评分均值,MOSi∈[1,5],1≤i≤N。
③-2、构造ΩN中的每个特征矢量的回归函数,将Xi的回归函数记为f(Xi),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矢量,b为偏置项,表示Xi的线性函数,D(Xi,Xl')为支持向量回归中的核函数,Xl'表示ΩN中的第l'个特征矢量,1≤l'≤N,γ为核参数,在本实施例中取核参数γ=54,exp()表示以自然基数e为底的指数函数,e=2.71828183,符号“|| ||”为求欧式距离符号。
③-3、采用支持向量回归作为机器学习的方法,对ΩN中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt),然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为f(Xinp),其中,Ψ表示对ΩN中的所有特征矢量进行训练的所有的权重矢量和偏置项的组合的集合,表示取使得的值最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数。
④将待测试的立体图像的左视点图像和右视点图像对应记为{IL(x,y)}和{IR(x,y)},将待测试的立体图像对应的右视差图像记为{dR(x,y)},其中,此处(x,y)表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}中的像素点的坐标位置,1≤x≤W,1≤y≤H,此处W表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的宽度,H表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的视差值。
⑤采用现有的基于图论的视觉显著性模型提取出{IR(x,y)}的二维显著图,记为{S2D(x,y)},其中,S2D(x,y)表示{S2D(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑥采用现有的超像素分割技术将{IR(x,y)}分割成M个互不重叠的区域,然后将{IR(x,y)}重新表示为M个区域的集合,记为{SPh},再根据{SPh}中的不同区域之间的视差相似性和空间相似性,计算{IR(x,y)}的深度显著图,记为{SDP(x,y)},其中,M≥1,在本实施例中取M=400,SPh表示{SPh}中的第h个区域,1≤h≤M,SDP(x,y)表示{SDP(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤⑥中{IR(x,y)}的深度显著图{SDP(x,y)}的获取过程为:
⑥-1、计算{SPh}中的不同区域之间的视差相似性,将{SPh}中的第p个区域与第q个区域之间的视差相似性记为Simd(SPp,SPq), Sim d ( SP p , SP q ) = | Σ ( x , y ) ∈ SP p d R ( x , y ) N SP p - Σ ( x , y ) ∈ SP q d R ( x , y ) N SP q | , 其中,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,符号“| |”为取绝对值符号,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的视差值,表示SPp中包含的像素点的总个数,表示SPq中包含的像素点的总个数。
⑥-2、计算{SPh}中的不同区域之间的空间相似性,将{SPh}中的第p个区域与第q个区域之间的空间相似性记为Sims(SPp,SPq),其中,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示SPp中的中心像素点的坐标位置,表示SPq中的中心像素点的坐标位置,符号“|| ||”为求欧式距离符号,max()为取最大值函数,exp()表示以自然基数e为底的指数函数,e=2.71828183,λ为控制参数,在本实施例中取λ=5。
⑥-3、根据{SPh}中的不同区域之间的视差相似性和空间相似性,计算{SPh}中的每个区域的深度显著值,将{SPh}中的第h个区域SPh的深度显著值记为 DP SP h = Σ q = 1 M ( Sim d ( SP h , SP q ) × Sim s ( SP h , SP q ) ) , 其中,1≤h≤M,1≤q≤M,h≠q,Simd(SPh,SPq)表示SPh与SPq之间的视差相似性,Sims(SPh,SPq)表示SPh与SPq之间的空间相似性。
⑥-4、将{SPh}中的每个区域的深度显著值作为对应区域中的所有像素点的显著值,从而得到{IR(x,y)}的深度显著图,记为{SDP(x,y)},其中,SDP(x,y)表示{SDP(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑦根据利用训练得到的最优的权重矢量wopt和最优的偏置项bopt构造的支持向量回归训练模型f(Xinp),计算{IR(x,y)}的视觉舒适度显著图,记为{SVC(x,y)},其中,SVC(x,y)表示{SVC(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤⑦的具体过程为:
⑦-1、计算{SPh}中的每个区域的第一视差对比度,将{SPh}中的第h个区域SPh的第一视差对比度记为 其中,表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差均值,dh,max表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差值按从大到小的顺序排序后,前1%的视差值对应的所有像素点的视差均值;dh,min表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差值按从大到小的顺序排序后,后1%的视差值对应的所有像素点的视差均值。
⑦-2、计算{SPh}中的每个区域的第二视差对比度,将{SPh}中的第h个区域SPh的第二视差对比度记为 S 2 SP h = d h , max - d ‾ h d h , max - d h , min .
⑦-3、计算{SPh}中的每个区域的视觉舒适度预测值,将{SPh}中的第h个区域SPh的视觉舒适度预测值记为Qh,pred其中,为采用与步骤②相同的方法计算得到的SPh的用于反映视觉舒适度的特征矢量,的维数为3,表示的线性函数。
⑦-4、根据{SPh}中的每个区域的第一视差对比度、第二视差对比度和视觉舒适度预测值,计算{SPh}中的每个区域的视觉舒适度显著值,将{SPh}中的第h个区域SPh的视觉舒适度显著值记为 其中,β为控制参数,T为阈值,在本实施例中取β=0.5,T=3.5。
⑦-5、将{SPh}中的每个区域的视觉舒适度显著值作为对应区域中的所有像素点的显著值,从而得到{IR(x,y)}的视觉舒适度显著图,记为{SVC(x,y)},其中,SVC(x,y)表示{SVC(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑧对{IR(x,y)}的二维显著图{S2D(x,y)}、{IR(x,y)}的深度显著图{SDP(x,y)}及{IR(x,y)}的视觉舒适度显著图{SVC(x,y)}进行融合,得到{IR(x,y)}的最终的三维视觉显著图,记为{S3D(x,y)},将{S3D(x,y)}中坐标位置为(x,y)的像素点的像素值记为S3D(x,y),S3D(x,y)=S2D(x,y)×SDP(x,y)×SVC(x,y)。
以下就利用本发明方法对法国南特大学提供的三维人眼跟踪数据库(3Deye-tracking database)中的Image1、Image2、Image3和Image4四组图像的三维视觉显著图进行提取。图2a给出了“Image1”的右视点图像、图2b给出了“Image1”的右视点图像的真实眼动图、图2c给出了“Image1”的右视点图像的二维显著图、图2d给出了“Image1”的右视点图像的深度显著图、图2e给出了“Image1”的右视点图像的视觉舒适度显著图、图2f给出了“Image1”的右视点图像的三维显著图;图3a给出了“Image2”的右视点图像、图3b给出了“Image2”的右视点图像的真实眼动图、图3c给出了“Image2”的右视点图像的二维显著图、图3d给出了“Image2”的右视点图像的深度显著图、图3e给出了“Image2”的右视点图像的视觉舒适度显著图、图3f给出了“Image2”的右视点图像的三维显著图;图4a给出了“Image3”的右视点图像、图4b给出了“Image3”的右视点图像的真实眼动图、图4c给出了“Image3”的右视点图像的二维显著图、图4d给出了“Image3”的右视点图像的深度显著图、图4e给出了“Image3”的右视点图像的视觉舒适度显著图、图4f给出了“Image3”的右视点图像的三维显著图;图5a给出了“Image4”的右视点图像、图5b给出了“Image4”的右视点图像的真实眼动图、图5c给出了“Image4”的右视点图像的二维显著图、图5d给出了“Image4”的右视点图像的深度显著图、图5e给出了“Image4”的右视点图像的视觉舒适度显著图、图5f给出了“Image4”的右视点图像的三维显著图。从图2a至图5f可以看出,采用本发明方法得到的三维视觉显著图由于考虑了二维、深度和视觉舒适度的显著图,因此能够很好地符合显著语义的特征。

Claims (6)

1.一种立体图像视觉显著图提取方法,其特征在于包括训练阶段和测试阶段两个过程,具体步骤如下:
①选取N副各不相同而尺寸大小一致的立体图像以及每幅立体图像对应的右视差图像,构成训练图像集,记为{Li,Ri,di|1≤i≤N},其中,N≥1,Li表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的左视点图像,Ri表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的右视点图像,di表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像对应的右视差图像;
②计算{Li,Ri,di|1≤i≤N}中的每幅立体图像对应的右视差图像中的所有像素点的视差均值、视差方差和视差范围,将di中的所有像素点的视差均值、视差方差和视差范围对应记为μi、δi和χi;然后将{Li,Ri,di|1≤i≤N}中的每幅立体图像对应的右视差图像中的所有像素点的视差均值、视差方差和视差范围按顺序进行排列构成每幅立体图像的用于反映视觉舒适度的特征矢量,将第i幅立体图像的用于反映视觉舒适度的特征矢量记为Xi,Xi=[μiii],其中,此处符号“[]”为矢量表示符号,Xi的维数为3;
③采用支持向量回归,对{Li,Ri,di|1≤i≤N}中的所有立体图像的特征矢量进行训练,并使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,得到最优的权重矢量wopt和最优的偏置项bopt,然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为f(Xinp),其中,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数;
④将待测试的立体图像的左视点图像和右视点图像对应记为{IL(x,y)}和{IR(x,y)},将待测试的立体图像对应的右视差图像记为{dR(x,y)},其中,此处(x,y)表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}中的像素点的坐标位置,1≤x≤W,1≤y≤H,此处W表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的宽度,H表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的视差值;
⑤采用基于图论的视觉显著性模型提取出{IR(x,y)}的二维显著图,记为{S2D(x,y)},其中,S2D(x,y)表示{S2D(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑥采用超像素分割技术将{IR(x,y)}分割成M个互不重叠的区域,然后将{IR(x,y)}重新表示为M个区域的集合,记为{SPh},再根据{SPh}中的不同区域之间的视差相似性和空间相似性,计算{IR(x,y)}的深度显著图,记为{SDP(x,y)},其中,M≥1,SPh表示{SPh}中的第h个区域,1≤h≤M,SDP(x,y)表示{SDP(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑦根据利用训练得到的最优的权重矢量wopt和最优的偏置项bopt构造的支持向量回归训练模型f(Xinp),计算{IR(x,y)}的视觉舒适度显著图,记为{SVC(x,y)},其中,SVC(x,y)表示{SVC(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑧对{IR(x,y)}的二维显著图{S2D(x,y)}、{IR(x,y)}的深度显著图{SDP(x,y)}及{IR(x,y)}的视觉舒适度显著图{SVC(x,y)}进行融合,得到{IR(x,y)}的最终的三维视觉显著图,记为{S3D(x,y)},将{S3D(x,y)}中坐标位置为(x,y)的像素点的像素值记为S3D(x,y),S3D(x,y)=S2D(x,y)×SDP(x,y)×SVC(x,y)。
2.根据权利要求1所述的一种立体图像视觉显著图提取方法,其特征在于所述的步骤②中di中的所有像素点的视差均值、视差方差和视差范围的获取过程为:
②-1、计算di中的所有像素点的视差均值,记为μi其中,1≤x≤W,1≤y≤H,此处W表示di的宽度,H表示di的高度,di(x,y)表示di中坐标位置为(x,y)的像素点的视差值;
②-2、计算di中的所有像素点的视差方差,记为δi
②-3、计算di中的所有像素点的视差范围,记为χi,χi=dmax-dmin,其中,dmax表示di中的所有像素点的视差值按从大到小的顺序排序后,前1%的视差值对应的所有像素点的视差均值;dmin表示di中的所有像素点的视差值按从大到小的顺序排序后,后1%的视差值对应的所有像素点的视差均值。
3.根据权利要求1或2所述的一种立体图像视觉显著图提取方法,其特征在于所述的步骤③的具体过程为:
③-1、将{Li,Ri,di|1≤i≤N}中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,记为ΩN,{Xi,MOSi}∈ΩN,其中,MOSi表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的平均主观评分均值,MOSi∈[1,5],1≤i≤N;
③-2、构造ΩN中的每个特征矢量的回归函数,将Xi的回归函数记为f(Xi),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矢量,b为偏置项,表示Xi的线性函数,D(Xi,Xl')为支持向量回归中的核函数,Xl'表示ΩN中的第l'个特征矢量,1≤l'≤N,γ为核参数,exp()表示以自然基数e为底的指数函数,符号“|| ||”为求欧式距离符号;
③-3、采用支持向量回归作为机器学习的方法,对ΩN中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt),然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为f(Xinp),其中,Ψ表示对ΩN中的所有特征矢量进行训练的所有的权重矢量和偏置项的组合的集合,表示取使得的值最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数。
4.根据权利要求3所述的一种立体图像视觉显著图提取方法,其特征在于所述的步骤③-2中取核参数γ=54。
5.根据权利要求4所述的一种立体图像视觉显著图提取方法,其特征在于所述的步骤⑥中{IR(x,y)}的深度显著图{SDP(x,y)}的获取过程为:
⑥-1、计算{SPh}中的不同区域之间的视差相似性,将{SPh}中的第p个区域与第q个区域之间的视差相似性记为Simd(SPp,SPq), Sim d ( SP p , SP q ) = | Σ ( x , y ) ∈ SP p d R ( x , y ) N SP p - Σ ( x , y ) ∈ SP q d R ( x , y ) N SP q | , 其中,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,符号“| |”为取绝对值符号,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的视差值,表示SPp中包含的像素点的总个数,表示SPq中包含的像素点的总个数;
⑥-2、计算{SPh}中的不同区域之间的空间相似性,将{SPh}中的第p个区域与第q个区域之间的空间相似性记为Sims(SPp,SPq),其中,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示SPp中的中心像素点的坐标位置,表示SPq中的中心像素点的坐标位置,符号“|| ||”为求欧式距离符号,max()为取最大值函数,exp()表示以自然基数e为底的指数函数,λ为控制参数;
⑥-3、根据{SPh}中的不同区域之间的视差相似性和空间相似性,计算{SPh}中的每个区域的深度显著值,将{SPh}中的第h个区域SPh的深度显著值记为 DP SP h = Σ q = 1 M ( Sim d ( SP h , SP q ) × Sim s ( SP h , SP q ) ) , 其中,1≤h≤M,1≤q≤M,h≠q,Simd(SPh,SPq)表示SPh与SPq之间的视差相似性,Sims(SPh,SPq)表示SPh与SPq之间的空间相似性;
⑥-4、将{SPh}中的每个区域的深度显著值作为对应区域中的所有像素点的显著值,从而得到{IR(x,y)}的深度显著图,记为{SDP(x,y)},其中,SDP(x,y)表示{SDP(x,y)}中坐标位置为(x,y)的像素点的像素值。
6.根据权利要求5所述的一种立体图像视觉显著图提取方法,其特征在于所述的步骤⑦的具体过程为:
⑦-1、计算{SPh}中的每个区域的第一视差对比度,将{SPh}中的第h个区域SPh的第一视差对比度记为 其中,表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差均值,dh,max表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差值按从大到小的顺序排序后,前1%的视差值对应的所有像素点的视差均值;dh,min表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差值按从大到小的顺序排序后,后1%的视差值对应的所有像素点的视差均值;
⑦-2、计算{SPh}中的每个区域的第二视差对比度,将{SPh}中的第h个区域SPh的第二视差对比度记为 S 2 SP h = d h , max - d ‾ h d h , max - d h , min ;
⑦-3、计算{SPh}中的每个区域的视觉舒适度预测值,将{SPh}中的第h个区域SPh的视觉舒适度预测值记为Qh,pred其中,为采用与步骤②相同的方法计算得到的SPh的用于反映视觉舒适度的特征矢量,的维数为3,表示的线性函数;
⑦-4、根据{SPh}中的每个区域的第一视差对比度、第二视差对比度和视觉舒适度预测值,计算{SPh}中的每个区域的视觉舒适度显著值,将{SPh}中的第h个区域SPh的视觉舒适度显著值记为 其中,β为控制参数,T为阈值;
⑦-5、将{SPh}中的每个区域的视觉舒适度显著值作为对应区域中的所有像素点的显著值,从而得到{IR(x,y)}的视觉舒适度显著图,记为{SVC(x,y)},其中,SVC(x,y)表示{SVC(x,y)}中坐标位置为(x,y)的像素点的像素值。
CN201410466553.6A 2014-09-12 2014-09-12 一种立体图像视觉显著图提取方法 Active CN104243956B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410466553.6A CN104243956B (zh) 2014-09-12 2014-09-12 一种立体图像视觉显著图提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410466553.6A CN104243956B (zh) 2014-09-12 2014-09-12 一种立体图像视觉显著图提取方法

Publications (2)

Publication Number Publication Date
CN104243956A true CN104243956A (zh) 2014-12-24
CN104243956B CN104243956B (zh) 2016-02-24

Family

ID=52231186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410466553.6A Active CN104243956B (zh) 2014-09-12 2014-09-12 一种立体图像视觉显著图提取方法

Country Status (1)

Country Link
CN (1) CN104243956B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338335A (zh) * 2015-10-15 2016-02-17 宁波大学 一种立体图像显著图提取方法
CN105898278A (zh) * 2016-05-26 2016-08-24 杭州电子科技大学 一种基于双目多维感知特性的立体视频显著性检测方法
CN107018400A (zh) * 2017-04-07 2017-08-04 华中科技大学 一种将2d视频转换成3d视频的方法
CN107194927A (zh) * 2017-06-13 2017-09-22 天津大学 基于显著性区域的立体图像舒适度色度范围的测量方法
CN108510574A (zh) * 2018-04-17 2018-09-07 福州大学 一种基于样例学习并增强视觉质量的3d图像裁剪方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581661A (zh) * 2013-10-28 2014-02-12 宁波大学 一种立体图像视觉舒适度评价方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581661A (zh) * 2013-10-28 2014-02-12 宁波大学 一种立体图像视觉舒适度评价方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
姜求平等: "基于视差空间图的立体图像质量客观评价方法", 《光电子·激光》, 15 December 2013 (2013-12-15) *
姜求平等: "基于视觉重要区域的立体图像视觉舒适度客观评价方法", 《电子与信息学报》, 15 April 2014 (2014-04-15) *
邵枫等: "基于显著性分析的立体图像视觉舒适度预测", 《光学精密工程》, 15 June 2014 (2014-06-15) *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338335A (zh) * 2015-10-15 2016-02-17 宁波大学 一种立体图像显著图提取方法
CN105338335B (zh) * 2015-10-15 2017-03-29 宁波大学 一种立体图像显著图提取方法
CN105898278A (zh) * 2016-05-26 2016-08-24 杭州电子科技大学 一种基于双目多维感知特性的立体视频显著性检测方法
CN105898278B (zh) * 2016-05-26 2017-10-27 杭州电子科技大学 一种基于双目多维感知特性的立体视频显著性检测方法
CN107018400A (zh) * 2017-04-07 2017-08-04 华中科技大学 一种将2d视频转换成3d视频的方法
CN107194927A (zh) * 2017-06-13 2017-09-22 天津大学 基于显著性区域的立体图像舒适度色度范围的测量方法
CN108510574A (zh) * 2018-04-17 2018-09-07 福州大学 一种基于样例学习并增强视觉质量的3d图像裁剪方法
CN108510574B (zh) * 2018-04-17 2021-09-28 福州大学 一种基于样例学习并增强视觉质量的3d图像裁剪方法

Also Published As

Publication number Publication date
CN104243956B (zh) 2016-02-24

Similar Documents

Publication Publication Date Title
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN104243956B (zh) 一种立体图像视觉显著图提取方法
CN108491848B (zh) 基于深度信息的图像显著性检测方法和装置
CN104463890A (zh) 一种立体图像显著性区域检测方法
CN110059728B (zh) 基于注意力模型的rgb-d图像视觉显著性检测方法
CN108124489B (zh) 信息处理方法、装置、云处理设备以及计算机程序产品
CN109977981A (zh) 基于双目视觉的场景解析方法、机器人及存储装置
KR20220038475A (ko) 비디오 콘텐츠 인식 방법 및 장치, 저장 매체, 및 컴퓨터 디바이스
CN110210492B (zh) 一种基于深度学习的立体图像视觉显著性检测方法
CN104036502B (zh) 一种无参考模糊失真立体图像质量评价方法
CN110705566B (zh) 一种基于空间金字塔池的多模态融合显著性检测方法
CN109409380B (zh) 一种基于双学习网络的立体图像视觉显著提取方法
CN104268140A (zh) 基于权重自学习超图和多元信息融合的图像检索方法
CN107371016A (zh) 基于非对称失真的无参考3d立体图像质量评价方法
CN109635822A (zh) 基于深度学习编码译码网络的立体图像视觉显著提取方法
CN112613356B (zh) 一种基于深度注意力融合网络的动作检测方法及装置
CN104392233A (zh) 一种基于区域的图像显著图提取方法
CN105979283A (zh) 视频转码方法和装置
CN112149662A (zh) 一种基于扩张卷积块的多模态融合显著性检测方法
CN106682599B (zh) 一种基于稀疏表示的立体图像视觉显著提取方法
CN104822058B (zh) 一种立体图像显著图提取方法
WO2024082943A1 (zh) 视频检测方法和装置、存储介质及电子设备
CN105338335B (zh) 一种立体图像显著图提取方法
CN117351382A (zh) 视频对象定位方法及其装置、存储介质、程序产品
Kim et al. Cnn-based blind quality prediction on stereoscopic images via patch to image feature pooling

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191220

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231214

Address after: 400000, 2nd Floor, No. 27-5 Fengsheng Road, Jinfeng Town, Chongqing High tech Zone, Jiulongpo District, Chongqing

Patentee after: CHONGQING BIO NEWVISION MEDICAL EQUIPMENT Ltd.

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.