CN106651853B - 基于先验知识和深度权重的3d显著性模型的建立方法 - Google Patents

基于先验知识和深度权重的3d显著性模型的建立方法 Download PDF

Info

Publication number
CN106651853B
CN106651853B CN201611236297.7A CN201611236297A CN106651853B CN 106651853 B CN106651853 B CN 106651853B CN 201611236297 A CN201611236297 A CN 201611236297A CN 106651853 B CN106651853 B CN 106651853B
Authority
CN
China
Prior art keywords
region
conspicuousness
background
depth
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611236297.7A
Other languages
English (en)
Other versions
CN106651853A (zh
Inventor
段立娟
梁芳芳
乔元华
马伟
苗军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201611236297.7A priority Critical patent/CN106651853B/zh
Priority to US15/406,504 priority patent/US10008004B1/en
Publication of CN106651853A publication Critical patent/CN106651853A/zh
Application granted granted Critical
Publication of CN106651853B publication Critical patent/CN106651853B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于先验知识和深度权重的3D显著性模型的建立方法,包括:将3D图像对中的左视图用超像素分割方法分割成多个区域,用色彩和视差信息合成一组特征对每个区域进行描述;使用颜色紧密度作为区域特征分量中视差的权重,计算一个区域对周围的区域的特征对比度;在视差图上得到在深度上的背景先验,并联合该背景先验和颜色紧密度完善深度显著性;以深度显著性和区域之间的高斯距离作为特征对比度的权重,并利用特征对比度的权重相加得出初始3D显著性;利用2D显著性和中央偏置权重对初始3D显著性进行增强。本发明所建立的3D显著性模型具有更接近于人类注视的效果。

Description

基于先验知识和深度权重的3D显著性模型的建立方法
技术领域
本发明涉及视觉显著性领域,尤其涉及一种基于先验知识和深度权重的3D显著性模型的建立方法。
背景技术
对一个多目标场景中的重要信息进行选择是人类视觉系统的一个重要功能。用计算机来建立用于模拟人类上述机制的模型是视觉显著性研究的方向,同时也为目标分割和质量评价等应用提供了基础。近年来,3D显示技术的广泛应用使得研究3D立体显著性具有重要的意义。
当人在观看3D电影的时候,大脑通过立体通道分离技术产生的双目视差平移获得深度知识而产生立体感,这一技术的引入导致人类对视觉观测行为的改变。因此区别于2D显著性模型的设计,立体显著性模型除了需要考虑2D显著性模型中的色彩,亮度,纹理,方向等常用特征外,还应该考虑深度通道上的特征(比如深度的对比度等)。目前深度图像的获取途径有:从相机获得深度图像,通过匹配算法获取视差图(视差和深度呈现反比例关系)。
人类在关注感兴趣的目标时受到先验知识的影响,所以不管是3D还是2D的显著性模型中先验知识都能实现补充显著性模型的作用。常用的先验知识包括两种,第一种是中央偏置即人类视觉偏好图像中央的信息。第二种是边界背景先验,即图像的边界像素可以作为背景作为显著性模型的参考。
综上所述,需要设计出一种更接近人眼注视的3D显著性模型的建立方法。
发明内容
针对上述技术问题,本发明提供了一种基于先验知识和深度权重的3D显著性模型的建立方法,特征不仅取自于2D的彩色信息,还取自于深度通道的信息,背景先验和颜色紧密度等先验知识使得本发明所建立的3D显著性模型具有更接近于人类注视效果。
本发明提供的技术方案为:
一种基于先验知识和深度权重的3D显著性模型的建立方法,包括:
步骤一、提取3D特征:
将3D图像对中的左视图用超像素分割方法分割成N个区域,标记为Ri,其中i取值1到N;为区域Ri定义一个区域特征f=[l,a,b,d],其中, Ni为区域Ri中像素的个数,li,ai,bi分别为区域Ri中像素的l值、a值和b值;
步骤二、计算特征对比度:
将区域之间的特征对比度用矩阵C表示,则cij表示区域Ri的区域特征和区域Rj的区域特征之间的范式距离,其计算公式为:cij=||uifi-ujfj||2,其中u为区域特征f的权重,u=[1,1,1,q],而变量q代表左视图中N个区域的颜色紧密度;
步骤三、设计特征对比度的权重:
步骤(1)在视差图上通过深度领域分析方法得到深度显著性图ss,则区域Ri的深度显著性sd为:
步骤(2)计算视差图上的背景先验;
步骤(3)利用背景先验优化深度显著性,其具体过程包括:
针对区域Ri,利用区域Ri在视差图上的平均视差判断深度显著性sd(i)是否在背景范围内,则有:
其中,阈值thresh为深度背景Bd中标记为背景的部分在视差图上的最小视差;
步骤(4)设计特征对比度的权重
区域Ri和区域Rj的特征对比度的权重用变量wi,j表示,则有:
wi,j=exp(-Dst(i,j)/σ2)α(i)sd(i),
其中,α(i)为区域Ri的大小,exp(-Dst(i,j)/σ2)代表区域Ri和区域Rj之间的高斯距离;
步骤四、计算初始3D显著性:
区域Ri的显著性的值
则区域Ri的初始3D显著性Sp(i)的计算公式为:
其中,α=0.33,β=0.33,Ni为区域Ri中像素的个数。
步骤五、增强初始3D显著性:
区域Ri的最终3D显著性S(i)为:其中,为区域Ri的2D显著性,Spca(p)是在像素级别上的显著性,
DstToCt(i)为像素到中心坐标的欧氏距离,B=(Bb∪Bd),H和W分别为左视图的宽和高,Bd代表深度背景,Bb代表边界背景。
优选的是,所述的基于先验知识和深度权重的3D显著性模型的建立方法中,所述步骤二中,k为高斯比例因子,k=4,ti的计算公式为: 为区域Ri和区域Rj的RGB平均值的颜色距离,pj为区域Rj的质心的中心坐标,μi为颜色clri的权重位置,
优选的是,所述的基于先验知识和深度权重的3D显著性模型的建立方法中,所述步骤(2)中,计算视差图上背景先验的具体过程包括:
1)定义初始背景图像:Bd=0;
2)初始化最远背景,首先找到视差图Id最大视差的坐标,Pxy=Pos(max(Id));接着设置初始值
3)背景传播计算:其中符号Contour表示基于活动轮廓分割,深度背景Bd中背景部分像素表示为1,前景部分像素表示为0。
优选的是,所述的基于先验知识和深度权重的3D显著性模型的建立方法中,所述步骤(2)中,计算视差图上背景先验的具体过程包括:
1)定义初始背景图像:Bd=0;
2)初始化最远背景,首先找到视差图Id最大视差的坐标,Pxy=Pos(max(Id));接着设置初始值
3)背景传播计算:其中符号Contour表示基于活动轮廓分割,深度背景的图像Bd中背景部分像素表示为1,前景部分像素表示为0。
本发明所述的基于先验知识和深度权重的3D显著性模型的建立方法具有以下有益效果:
(1)本发明在特征提取方面,颜色对比度和视差对比度强的区域可以得到高的显著性值;
(2)本发明利用颜色紧密度(即2D图像中颜色分布情况)计算特征对比度,提高了显著性值;
(3)本发明不仅考虑到边界背景的先验,还从3D视差图上获得背景先验,利用背景先验优化深度显著性,从而在3D显著性模型中去掉背景的干扰;
(4)本发明将深度显著性以及区域之间的空间高斯距离作为特征对比度的权重,并利用2D图像中结构不相似度对初始3D显著性进行增强,从而增强了深度上显著的区域,降低了3D图像中相关性低的背景部分的显著性值。
附图说明
图1为本发明所述的基于先验知识和深度权重的3D显著性模型的建立方法的流程图;
图2(a)为本发明所述的基于先验知识和深度权重的3D显著性模型的建立方法的ROC(Receiver operating characteristic)曲线性能展示图,横坐标为False PositiveRate(FPR)即真正类率,纵坐标为True Positive Rate(TPR)即假正类率;图2(b)是PR(Precision-Recall)曲线,横坐标为Recall即召回率,纵坐标为Precision即预测的精度;图2(a)和图2(b)中的图标DWRC(depth-weighted region contrast)是本发明方法的简写。
图3(a)至图3(e)为本发明所述的一个实施例中3D显著性模型的可视化显示,图3(a)为3D图像对中的左视图,图3(b)为3D图像对中的右视图;图3(c)为视差图;图3(d)为初始3D显著图;图3(e)为目标图(即最终的3D显著图);
图4(a)至图4(e)为本发明所述的另一个实施例中3D显著性模型的可视化显示,图4(a)为3D图像对中的左视图,图4(b)为4D图像对中的右视图;图4(c)为视差图;图4(d)为初始3D显著图;图4(e)为目标图(即最终的3D显著图)。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
如图1所示,本发明提供一种基于先验知识和深度权重的3D显著性模型的建立方法,包括:将3D图像对中的左视图用超像素分割方法分割成多个区域,用色彩和视差信息合成一组特征对每个区域进行描述;使用颜色紧密度作为区域特征分量中视差的权重,计算一个区域对周围的区域的特征对比度;在视差图上得到在深度上的背景先验,并联合该背景先验和颜色紧密度完善深度显著性;以深度显著性和区域之间的高斯距离作为特征对比度的权重,并利用特征对比度的权重相加得出初始3D显著性;利用2D显著性和中央偏置权重对初始3D显著性进行增强。本发明所建立的3D显著性模型具有更接近于人类注视效果。
具体来说,本发明所述的3D显著性模型的建立方法包括:
步骤一、提取3D特征:
将3D图像对中的左视图用超像素分割方法(SLIC)分割成N个区域,标记为Ri,其中i取值1到N。本发明采用CIELab颜色和视差定义一个区域特征,即为区域Ri定义一个区域特征f=[l,a,b,d](将区别Ri的特征表示为这个区域中彩色图像的L*a*b均值和视差均值),其中, Ni为区域Ri中像素的个数,li,ai,bi分别为区域Ri中像素的l值、a值和b值;
步骤二、计算特征对比度:
将区域之间的特征对比度用矩阵C表示,则cij表示区域Ri的区域特征和区域Rj的区域特征之间的范式距离,其计算公式为:
cij=||uifi-ujfj||2
其中u为区域特征f的权重,u=[1,1,1,q]。
而变量q代表左视图中N个区域的颜色紧密度,用于表示左视图中各区域的颜色的分布情况,其中,k为高斯比例因子,k=4;ti的计算公式为:
其中,为区域Ri和区域Rj的RGB平均值的颜色距离,pj为区域Rj的质心的中心坐标,μi为颜色clri的权重位置,
步骤三、设计特征对比度的权重:
在计算完各区域的特征对比度C之后,特征对比度的权重用矩阵W表示,wi,j表示cij对应的权重大小。
特征对比度的权重考虑到深度显著性sd,区域大小a(i)和区域之间的高斯距离exp(-Dst(i,j)/σ2)。其中,深度显著性sd的计算过程大致为:在视差图上通过领域分析方法得到结果ss,再使用背景先验(包括深度背景Bd和边界背景Bb)和颜色紧密度(公式)进行完善。详细过程如下:
步骤(1)计算深度显著性图:
在视差图上通过深度领域分析的方法得到深度显著性ss,再通过颜色紧密度增强得到sd。则区域Ri的深度显著性sd为:
步骤(2)计算视差图上的背景先验:
视差图上提取背景先验需要经过两个阶段:背景初始化以及背景的传播。具体的步骤包括:
1)定义初始背景图像:Bd=0;
2)初始化最远背景,首先找到视差图Id最大视差的坐标,Pxy=Pos(max(Id));接着设置初始值
3)背景传播计算:其中符号Contour表示基于活动轮廓分割,深度背景Bd中背景部分像素表示为1,前景部分像素表示为0。
步骤(3)利用背景先验优化深度显著性,其具体过程包括:
针对区域Ri,利用区域Ri在视差图上的平均视差判断深度显著性sd(i)是否在背景范围内。如果区域的平均视差小于一个阈值thresh的时候,显著性sd(i)的值需要重新赋值。则有:
其中,阈值thresh为深度背景Bd中标记为背景的部分在视差图上的最小视差,即thresh=min(Id(q)),q∈{Bd>0}。
边界背景为Bb,边界背景中的背景区域表示为1,其他区域表示为0。如果Ri区域在边界背景的位置,显著性的sd(i)标记为0,否则不变。
步骤(4)设计特征对比度的权重
区域Ri和区域Rj的特征对比度的权重用变量wi,j表示,它通过高斯距离,区域大小和深度显著性的乘积计算得出,即:
wi,j=exp(-Dst(i,j)/σ2)α(i)sd(i),
其中,α(i)为区域Ri的大小,exp(-Dst(i,j)/σ2)代表区域Ri和区域Rj之间的高斯距离。
步骤四、计算初始3D显著性:
完成区域Ri的特征对比度ci,j和权重wi,j的计算之后,区域Ri的显著性的值可以通过以下公式计算得到:
为了消除超像素分割错误所带来的影响,每个区域的超像素的显著性(即初始3D显著性)均通过它周围区域的显著性线性组合得到,则区域Ri的超像素的显著性Sp(i)的计算公式为:
其中,α和β分别是控制颜色距离(||clri-clrj||)和位置距离(||pi-pj||)的参数,α=0.33,β=0.33;Ni为区域Ri中像素的个数。
步骤五、增强初始3D显著性:
在计算完初始3D显著性Sp(i)之后,通过2D显著性和中央偏置权重进行增强。区域Ri的超像素的最终3D显著性S(i)为:
其中,为区域Ri的2D显著性,Spca(p)是在像素级别上的显著性,CBW(i)(中央偏置权重)是一个用背景先验修改后的高斯函数,通过下列公式计算得到,
DstToCt(i)为像素到中心坐标的欧氏距离,B=(Bb∪Bd),H和W分别为左视图的宽和高,Bd代表深度背景,Bb代表边界背景。
请查阅图2(a)和图2(b),图2(a)中曲线靠近左上角点,根据图2(a)的显示结果计算的AUC(area under roc curve)值为0.89;图2(b)中召回率增加没有引起精度的剧烈下降,根据图2(b)所示计算的F(β=0.3)=0.61。即本发明可以获得建立接近于人眼注视的3D显著性模型。
请查阅图3(a)至图3(e),图4(a)至图4(e),在这两个实施例中,应用本发明所述的3D显著性模型的建立方法,最终均得到了接近于人眼注视的3D显著性模型。并且由图3(e)、图4(e)中均可以看出,颜色对比度和视差对比度强的区域均得到了高的显著性值;均去掉了背景的干扰,而使得所关注的目标的显著性得到提高。
本发明所述的方法将中,特征取自于彩色图像和视差图,利用颜色紧密度计算特征对比度;除了传统的边界背景先验,还利用在视差图中根据物体到观察者的距离所提取到的背景先验,以及彩色图像中物体的紧密度作为深度显著性的补充;以视差图的深度显著性作为特征对比度的权重,进而得到初始3D显著性;再采用2D显著性以及中央偏置权重对初始3D显著性进行增强。由于特征不仅取自于2D图像的彩色信息,还含有深度通道的信息,结合背景和颜色紧密度等先验知识,使得本发明的3D显著性模型具有更接近于人类注视效果。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (3)

1.一种基于先验知识和深度权重的3D显著性模型的建立方法,其特征在于,包括:
步骤一、提取3D特征:
将3D图像对中的左视图用超像素分割方法分割成N个区域,标记为Ri,其中i取值1到N;为区域Ri定义一个区域特征f=[l,a,b,d],其中, Ni为区域Ri中像素的个数,li,ai,bi分别为区域Ri中像素的l值、a值和b值;
步骤二、计算特征对比度:
将区域之间的特征对比度用矩阵C表示,则cij表示区域Ri的区域特征和区域Rj的区域特征之间的范式距离,其计算公式为:cij=‖uifi-ujfj2,其中u为区域特征f的权重,u=[1,1,1,q],而变量q代表左视图中N个区域的颜色紧密度;所述步骤二中,k为高斯比例因子,k=4,ti的计算公式为:
为区域Ri和区域Rj的RGB平均值的高斯颜色距离,pj为区域Rj的质心的中心坐标,μi为颜色clri的权重位置,
步骤三、设计特征对比度的权重:
步骤(1)在视差图上通过深度领域分析方法得到深度显著性图ss,则区域Ri的深度显著性sd为:
步骤(2)计算视差图上的背景先验;
步骤(3)利用背景先验优化深度显著性,其具体过程包括:
针对区域Ri,利用区域Ri在视差图上的平均视差判断深度显著性sd(i)是否在背景范围内,则有:
其中,阈值thresh为深度背景Bd中标记为背景的部分在视差图上的最小视差;
步骤(4)设计特征对比度的权重
区域Ri和区域Rj的特征对比度的权重用变量wi,j表示,则有:
wi,j=exp(-Dst(i,j)/σ2)a(i)sd(i),
其中,a(i)为区域Ri的大小,exp(-Dst(i,j)/σ2)代表区域Ri和区域Rj之间的高斯距离;
步骤四、计算初始3D显著性:
区域Ri的显著性的值
则区域Ri的初始3D显著性Sp(i)的计算公式为:
其中,α=0.33,β=0.33,Ni为区域Ri中像素的个数;
步骤五、增强初始3D显著性:
区域Ri的最终3D显著性S(i)为:其中,为区域Ri的2D显著性,Spca(p)是在像素级别上的显著性,
DstToCt(i)为像素到中心坐标的欧氏距离,B=(Bb∪Bd),H和W分别为左视图的宽和高,Bd代表深度背景,Bb代表边界背景。
2.如权利要求1所述的基于先验知识和深度权重的3D显著性模型的建立方法,其特征在于,所述步骤(2)中,计算视差图上背景先验的具体过程包括:
1)定义初始背景图像:Bd=0;
2)初始化最远背景,首先找到视差图Id最大视差的坐标,Pxy=Pos(max(Id));接着设置初始值
3)背景传播计算:其中符号Contour表示基于活动轮廓分割,深度背景Bd中背景部分像素表示为1,前景部分像素表示为0。
3.如权利要求1所述的基于先验知识和深度权重的3D显著性模型的建立方法,其特征在于,所述步骤(2)中,计算视差图上背景先验的具体过程包括:
1)定义初始背景图像:Bd=0;
2)初始化最远背景,首先找到视差图Id最大视差的坐标,Pxy=Pos(max(Id));接着设置初始值
3)背景传播计算:其中符号Contour表示基于活动轮廓分割,深度背景的图像Bd中背景部分像素表示为1,前景部分像素表示为0。
CN201611236297.7A 2016-12-28 2016-12-28 基于先验知识和深度权重的3d显著性模型的建立方法 Active CN106651853B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201611236297.7A CN106651853B (zh) 2016-12-28 2016-12-28 基于先验知识和深度权重的3d显著性模型的建立方法
US15/406,504 US10008004B1 (en) 2016-12-28 2017-01-13 Establishment method of 3D saliency model based on prior knowledge and depth weight

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611236297.7A CN106651853B (zh) 2016-12-28 2016-12-28 基于先验知识和深度权重的3d显著性模型的建立方法

Publications (2)

Publication Number Publication Date
CN106651853A CN106651853A (zh) 2017-05-10
CN106651853B true CN106651853B (zh) 2019-10-18

Family

ID=58832259

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611236297.7A Active CN106651853B (zh) 2016-12-28 2016-12-28 基于先验知识和深度权重的3d显著性模型的建立方法

Country Status (2)

Country Link
US (1) US10008004B1 (zh)
CN (1) CN106651853B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10587858B2 (en) * 2016-03-14 2020-03-10 Symbol Technologies, Llc Device and method of dimensioning using digital images and depth data
EP3252713A1 (en) * 2016-06-01 2017-12-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses
CN107145892B (zh) * 2017-05-24 2019-01-22 北京大学深圳研究生院 一种基于自适应融合机制的图像显著性物体检测方法
CN110298782B (zh) * 2019-05-07 2023-04-18 天津大学 一种rgb显著性到rgbd显著性的转换方法
CN110569857B (zh) * 2019-07-28 2022-05-06 景德镇陶瓷大学 一种基于质心距离计算的图像轮廓角点检测方法
CN110570402B (zh) * 2019-08-19 2021-11-19 浙江科技学院 基于边界感知神经网络的双目显著物体检测方法
CN110807776A (zh) * 2019-09-09 2020-02-18 安徽省农业科学院农业经济与信息研究所 一种基于全局区域对比度的农作物半翅目害虫图像自动分割算法
CN111611999B (zh) * 2020-05-22 2023-04-07 福建师范大学 一种融合小型深度生成模型的显著性检测方法及终端
KR20220028496A (ko) 2020-08-28 2022-03-08 삼성전자주식회사 홀로그래픽 디스플레이 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105898278A (zh) * 2016-05-26 2016-08-24 杭州电子科技大学 一种基于双目多维感知特性的立体视频显著性检测方法
CN106056596A (zh) * 2015-11-30 2016-10-26 浙江德尚韵兴图像科技有限公司 基于局部先验信息和凸优化的全自动三维肝脏分割方法
CN106203430A (zh) * 2016-07-07 2016-12-07 北京航空航天大学 一种基于前景聚集度和背景先验的显著性物体检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160189419A1 (en) * 2013-08-09 2016-06-30 Sweep3D Corporation Systems and methods for generating data indicative of a three-dimensional representation of a scene
KR101537174B1 (ko) * 2013-12-17 2015-07-15 가톨릭대학교 산학협력단 스테레오스코픽 영상에서의 주요 객체 검출 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056596A (zh) * 2015-11-30 2016-10-26 浙江德尚韵兴图像科技有限公司 基于局部先验信息和凸优化的全自动三维肝脏分割方法
CN105898278A (zh) * 2016-05-26 2016-08-24 杭州电子科技大学 一种基于双目多维感知特性的立体视频显著性检测方法
CN106203430A (zh) * 2016-07-07 2016-12-07 北京航空航天大学 一种基于前景聚集度和背景先验的显著性物体检测方法

Also Published As

Publication number Publication date
US10008004B1 (en) 2018-06-26
US20180182118A1 (en) 2018-06-28
CN106651853A (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
CN106651853B (zh) 基于先验知识和深度权重的3d显著性模型的建立方法
CN110378838B (zh) 变视角图像生成方法,装置,存储介质及电子设备
Sandor et al. An augmented reality x-ray system based on visual saliency
CN102074040B (zh) 图像处理设备、图像处理方法
CN104574366B (zh) 一种基于单目深度图的视觉显著性区域的提取方法
CN111210510B (zh) 三维人脸模型生成方法、装置、计算机设备及存储介质
CN113205040A (zh) 人脸图像处理方法、装置和电子设备
CN110827193B (zh) 基于多通道特征的全景视频显著性检测方法
CN104463890A (zh) 一种立体图像显著性区域检测方法
US20120291122A1 (en) Multi Dimensional CAPTCHA System and Method
CN104574375A (zh) 结合彩色和深度信息的图像显著性检测方法
KR20100040236A (ko) 시각적 관심에 기반한 2차원 영상의 3차원 영상 변환기 및 변환 방법
CN108734078B (zh) 图像处理方法、装置、电子设备、存储介质及程序
JP2011223566A (ja) 画像変換装置及びこれを含む立体画像表示装置
KR100560464B1 (ko) 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법
CN108765333B (zh) 一种基于深度卷积神经网络的深度图完善方法
Kuo et al. Depth estimation from a monocular view of the outdoors
CN105657401A (zh) 一种裸眼3d显示方法、系统及裸眼3d显示装置
Elloumi et al. Improving a vision indoor localization system by a saliency-guided detection
Park et al. Stereoscopic 3D visual attention model considering comfortable viewing
CN102184403A (zh) 基于优化的本征图像提取方法
CN116935008A (zh) 一种基于混合现实的展示交互方法和装置
KR101519463B1 (ko) 3d 이미지 변환 장치 및 그 방법
CN106023299B (zh) 一种基于深度图的虚拟视图绘制方法及系统
Cheng et al. 51.3: An Ultra‐Low‐Cost 2‐D/3‐D Video‐Conversion System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20170510

Assignee: Luoyang Tiangang Trading Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000143

Denomination of invention: A method for establishing a 3D saliency model based on prior knowledge and depth weights

Granted publication date: 20191018

License type: Common License

Record date: 20240104

Application publication date: 20170510

Assignee: Henan zhuodoo Information Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000138

Denomination of invention: A method for establishing a 3D saliency model based on prior knowledge and depth weights

Granted publication date: 20191018

License type: Common License

Record date: 20240104

Application publication date: 20170510

Assignee: Luoyang Lexiang Network Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000083

Denomination of invention: A method for establishing a 3D saliency model based on prior knowledge and depth weights

Granted publication date: 20191018

License type: Common License

Record date: 20240104

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20170510

Assignee: Henan chenqin Intelligent Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024990000060

Denomination of invention: A method for establishing a 3D saliency model based on prior knowledge and depth weights

Granted publication date: 20191018

License type: Common License

Record date: 20240130