CN105894502A - 基于超图模型的rgbd图像显著性检测方法 - Google Patents
基于超图模型的rgbd图像显著性检测方法 Download PDFInfo
- Publication number
- CN105894502A CN105894502A CN201610191893.1A CN201610191893A CN105894502A CN 105894502 A CN105894502 A CN 105894502A CN 201610191893 A CN201610191893 A CN 201610191893A CN 105894502 A CN105894502 A CN 105894502A
- Authority
- CN
- China
- Prior art keywords
- depth
- super
- region
- pixel
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于超图模型的RGBD图像显著性检测方法,该方法包括:对待检测彩色图像和深度图像进行超像素分割,对深度图像的每一个超像素区域进行邻域深度对比图的计算,依据邻域深度对比值构建深度背景超边;提取位于图像边界的超像素区域构建边界背景超边;计算两个超边的权重,并根据超图学习算法进行超边展开,构建诱导图;基于诱导图的空间邻接关系和边权重,利用边界连通性先验计算边界背景显著图;采用基于元胞自动机的显著度更新算法和结合深度先验的融合算法得到最终的显著性检测图。本发明弥补了传统2D边界背景先验中的不足,利用深度信息和超图模型进行改进,与以往结合彩色和深度信息的图像显著性检测方法相比取得了更好的效果。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于超图模型的RGBD图像显著性检测方法。
背景技术
图像显著性检测是当前计算机视觉和模式识别领域的热点课题之一。研究发现人眼视觉机制总是能快速地提取图像中重要的,感兴趣的区域,进而对这些区域进行分析和处理,而基本不会处理图像中剩余的并不显著的区域。这个原理为计算机视觉领域研究者提供很多启示,即可以对图像中的显著区域进行检测,提取出图像中显著的目标进行后续处理,节省了对全图处理的时间,大大提高了图像处理的效率。因此,图像显著性检测可以广泛的应用在图像分割,目标识别和图像检索等领域。
近年来,随着3D感知传感器技术的发展,我们不仅可以捕获到物体的外形和颜色信息,而且可以得到物体的距离信息,对场景的感知能力得到了进一步的提升。HouwenPeng等人利用彩色和深度特征计算局部的对比度,然后利用区域生长算法进行显著区域的聚类,最后利用物体位置的先验对结果进行改进,该方法仅将深度信息以及通过深度计算得到的法向信息作为颜色之外的图像特征分量,但对颜色信息对比不明显的物体检测效果不好。Ran Ju等人利用深度信息,计算视差图的各向异性中心—周边差异实现显著性的检测,但是没有与颜色信息相结合。
在2D显著性检测中,边界背景先验为寻找图像中的背景区域提供了新的思路。Zhu等人通过引入边界联通性的概念,衡量了不同图像区域与图像边界的联通程度,从而得到其属于背景的可能性。然而,该方法在背景区域被前景物体分割的时候会出现误判,孤立的背景区域无法检出。
针对当前3D显著性检测的不足和2D背景显著性先验的问题,本发明提出了基于深度信息的背景显著性先验,并利用超图模型解决了背景被分割的问题,取得了良好的效果。
发明内容
本发明的目的在于克服上述现有技术的不足,弥补现有的背景先验中深度信息的缺失,并针对传统2D边界背景先验中的不足之处,利用深度信息和超图模型进行了改进。
本发明的目的是通过以下技术方案来实现的:一种基于超图模型的RGBD图像显著性检测方法,包括如下步骤:
(1)输入待检测彩色图像RGB及其对应的深度信息D;待检测彩色图像由红、蓝、绿三个颜色通道组成;深度信息D为彩色图像每个像素对应的实际深度;
(2)对步骤1输入的彩色图像进行颜色空间转换,由RGB颜色空间变换为CIELab颜色空间,采用SLIC算法实现图像的超像素分割,将图像分割成多块区域的集合其中ri表示分割得到的第i个区域,n表示区域总数目,表示整数集合;
(3)对步骤2得到的图像超像素分割结果的每个区域ri(i=1~n)提取特征fi=[Li,ai,bi,μdi],其中Li为区域ri内所有像素L通道的均值,ai为区域ri内所有像素a通道的均值,bi为区域ri内所有像素b通道的均值,di为深度图中区域ri的深度均值,μ用于调整颜色信息和深度信息的权重,具体取值以将深度信息和颜色信息取值调整为相同数量级为宜;
(4)对步骤2得到的区域集合中的每一个超像素r,计算其邻域深度对比值NDC(r),得到邻域深度对比图:
其中exp(·)表示指数函数,di表示超像素区域ri的平均深度值,NB(i)表示超像素区域ri的邻域,μd设置为图像的平均深度;
(5)将步骤2得到的超像素区域视作超图模型中的顶点v,相邻超像素区域之间的联系视作超图中的边e,构建超图模型H(V,E),V代表顶点集合,E代表超边集合,当区域vi的邻域深度对比值低于设定的阈值θ时,将vi加入到深度背景超边ed中,其中阈值θ取值范围为[0,0.5],由用户设定:
H(vi,ed)=1s.t.NDC(vi)<θ (2)
(6)计算步骤5得到的深度背景超边ed的权重ω(ed):
其中,drgbd(i,j)表示vi和vj对应的超像素区域特征的欧氏距离:
drgbd(i,j)=||fi-fj||2 (4)
(7)对步骤5得到的深度背景超边进行展开得到诱导图,超边中任意两个超像素区域ri和rj在诱导图中都彼此相连,诱导图的邻接矩阵AIG为:
连接区域ri和区域rj的边的权重为:
其中deg(e)为超边e的度,即超边e内包含的顶点数量;
(8)计算任意两个超像素p和q的最短路径代价dgeo(p,q)为:
其中k为最短路径经过的顶点的数量。
(9)对每一个超像素r,计算其边界连通性值BndCon(r),得到边界背景显著图:
其中
当ri位于图像的边缘时,δ(ri∈Bnd)=1,否则δ(ri∈Bnd)=0,参数σclr取值范围为[5,15],由用户设定;
(10)将步骤4得到的邻域深度对比图NDC和步骤9得到的边界背景显著图BndCon分别采用基于元胞自动机的更新算法,分别得到更新后的结果SD和SB;
(11)采用结合深度先验的融合算法,融合SD和SB,得到最终的显著性图像。
进一步地,步骤10中的基于元胞自动机的更新算法,其更新规则为:
St+1=CSt+(I-C)F*St
其中的I为单位矩阵,t表示更新次数,St表示经过t次更新后所有超像素的显著度向量。
定义F=[fij]n×n为影响因子矩阵,其中的元素fij为:
其中,σf 2取值由用户设定,可设置为超像素区域特征欧氏距离的方差;
为了对影响因子进行归一化,定义对角矩阵D=diag{d1,d2,...,dn},其中di=∑jfij。经过行归一化的影响因子矩阵F*为:
F*=D-1F
一致性矩阵C=diag{c1,c2,...,cn}为对角矩阵,其中元素的设置方法如下:
ci=1.6×|St=0(i)-0.5|+0.1
其中,St=0(i)表示初始显著图中超像素ri的显著度;
进一步地,步骤11中的结合深度先验的融合算法具体方法如下:
分别对显著图SD和SB进行OTSU阈值分割,将两者转换成二值图;分别统计两个二值图中取值为1的超像素区域的数量,选取其中的较小值作为前景区域的提取数量m;在SD和SB选取显著度最高的m个区域作为对应的前景区域,组成集合VD和VB;
在这两个前景集合VD和VB的基础上,得到融合前景集合Rfg;若VD和VB对应区域的重叠率大于阈值K(取值范围[0.6,0.8],由用户设定),融合前景集合Rfg为两个集合的并集;若VD和VB对应区域的重叠率小于阈值K,融合前景集合Rfg为两者中平均深度较小的那个区域集合;
即:
设置元胞自动机的更新初始值为St=0=SB·SD。一致性矩阵C=diag{c1,c2,...,cn}的元素取值方式为下:
进行基于元胞自动机的显著性更新算法,得到最终的显著性图像。
本发明具有的有益效果是:本发明提出了基于深度信息的背景先验,通过计算过分割深度图的邻域深度对比值,从深度信息中检出了背景区域。同时,将传统的二维边界背景先验引入RGB-D显著性检测工作中,并利用深度信息构建超图模型,通过构建超边重建了被前景分割的背景区域的连通性,从而解决了传统二维边界背景先验中背景区域被前景遮挡分割造成的误判问题。
附图说明
图1为本发明基于超图模型的RGBD图像显著性检测方法的流程图。
图2为采用现有图像显著性检测方法与本发明方法进行图像显著性检测后的精确率,召回率以及F-Measure柱状图的对比。
具体实施方式
下面结合附图与实施例对本发明进行进一步说明。
本发明基于超图模型的RGBD图像显著性检测方法,包括如下步骤:
(1)输入待检测彩色图像RGB及其对应的深度信息D;待检测彩色图像由红、蓝、绿三个颜色通道组成;深度信息D为彩色图像每个像素对应的实际深度;
(2)对步骤1输入的彩色图像进行颜色空间转换,由RGB颜色空间变换为CIELab颜色空间,采用SLIC算法实现图像的超像素分割,将图像分割成多块区域的集合其中ri表示分割得到的第i个区域,n表示区域总数目,表示整数集合;
(3)对步骤2得到的图像超像素分割结果的每个区域ri(i=1~n)提取特征fi=[Li,ai,bi,μdi],其中Li为区域ri内所有像素L通道的均值,ai为区域ri内所有像素a通道的均值,bi为区域ri内所有像素b通道的均值,di为深度图中区域ri的深度均值,μ用于调整颜色信息和深度信息的权重,具体取值以将深度信息和颜色信息取值调整为相同数量级为宜;
(4)对步骤2得到的区域集合中的每一个超像素r,计算其邻域深度对比值NDC(r),得到邻域深度对比图:
其中exp(·)表示指数函数,di表示超像素区域ri的平均深度值,NB(i)表示超像素区域ri的邻域,μd设置为图像的平均深度;
(5)将步骤2得到的超像素区域视作超图模型中的顶点v,相邻超像素区域之间的联系视作超图中的边e,构建超图模型H(V,E),V代表顶点集合,E代表超边集合,当区域vi的邻域深度对比值低于设定的阈值θ时,将vi加入到深度背景超边ed中,其中阈值θ取值范围为[0,0.5],由用户设定:
H(vi,ed)=1s.t.NDC(vi)<θ (2)
(6)计算步骤5得到的深度背景超边ed的权重ω(ed):
其中,drgbd(i,j)表示vi和vj对应的超像素区域特征的欧氏距离:
drgbd(i,j)=||fi-fj||2 (4)
(7)对步骤5得到的深度背景超边进行展开得到诱导图,超边中任意两个超像素区域ri和rj在诱导图中都彼此相连,诱导图的邻接矩阵AIG为:
连接区域ri和区域rj的边的权重为:
其中deg(e)为超边e的度,即超边e内包含的顶点数量;
(8)计算任意两个超像素p和q的最短路径代价dgeo(p,q)为:
其中k为最短路径经过的顶点的数量。
(9)对每一个超像素r,计算其边界连通性值BndCon(r),得到边界背景显著图:
其中
当ri位于图像的边缘时,δ(ri∈Bnd)=1,否则δ(ri∈Bnd)=0,参数σclr取值范围为[5,15],由用户设定;
(10)将步骤4得到的邻域深度对比图NDC和步骤9得到的边界背景显著图BndCon分别采用基于元胞自动机的更新算法,分别得到更新后的结果SD和SB;
(11)采用结合深度先验的融合算法,融合SD和SB,得到最终的显著性图像。
进一步地,步骤10中的基于元胞自动机的更新算法,其更新规则为:
St+1=CSt+(I-C)F*St
其中的I为单位矩阵,t表示更新次数,St表示经过t次更新后所有超像素的显著度向量。
定义F=[fij]n×n为影响因子矩阵,其中的元素fij为:
其中,σf 2取值由用户设定,可设置为超像素区域特征欧氏距离的方差;
为了对影响因子进行归一化,定义对角矩阵D=diag{d1,d2,...,dn},其中di=∑jfij。经过行归一化的影响因子矩阵F*为:
F*=D-1F
一致性矩阵C=diag{c1,c2,...,cn}为对角矩阵,其中元素的设置方法如下:
ci=1.6×|St=0(i)-0.5|+0.1
其中,St=0(i)表示初始显著图中超像素ri的显著度;
以NDC更新得到SD为例,具体步骤如下:
St=0=NDC
whilet<T:
St+1=CSt+(I-C)F*St
t=t+1
SD=St
其中,T表示总的迭代次数,由用户设定。
进一步地,步骤11中的结合深度先验的融合算法为具体方法如下:
分别对显著图SD和SB进行OTSU阈值分割,将两者转换成二值图;分别统计两个二值图中取值为1的超像素区域的数量,选取其中的较小值作为前景区域的提取数量m;在SD和SB选取显著度最高的m个区域作为对应的前景区域,组成集合VD和VB;
在这两个前景集合VD和VB的基础上,得到融合前景集合Rfg;若VD和VB对应区域的重叠率大于阈值K(取值范围[0.6,0.8],由用户设定),融合前景集合Rfg为两个集合的并集;若VD和VB对应区域的重叠率小于阈值K,融合前景集合Rfg为两者中平均深度较小的那个区域集合;
即:
设置元胞自动机的更新初始值为St=0=SB·SD。一致性矩阵C=diag{c1,c2,...,cn}的元素取值方式为下:
进行基于元胞自动机的显著性更新算法,得到最终的显著性图像。
为了对本发明的效果进行客观数据指标评价,我们与现有的图像显著性检测方法进行了对比实验,并选用精确率,召回率和F-Measure三个量化评判标准对不同方法的实验结果进行比较分析,如图2所示。精确率定义为被正确检测到的显著性像素点数目与检测到的显著性像素点数目之比;召回率定义为被正确检测到的显著性像素点数目与真正的显著性像素点数目之比。一般而言,精确率和召回率通常是矛盾的,因此采用F-Measure指标综合反映显著性检测的量化结果,F-Measure的定义如下式:
本发明实施例中取值:ρ2=0.3。
由图2可以得出,与现有的显著性方法CRC(Global contrast based salientregion detection)、RBG(Saliency optimization from robust backgrounddetection)、ACSD:(Depth saliency based on anisotropic center-surrounddifference)、LMH(Rgbd salient object detection:a benchmark and Algorithms)、SFP(Salient object detection in RGB-D image based on saliency fusion andpropagation)、DOP(Exploiting global priors for RGB-D saliency detection)进行比较,采用本发明图像显著性检测方法(HG)的表现结果更好,能更加完整和准确的从背景中提取显著物体。
Claims (3)
1.一种基于超图模型的RGBD图像显著性检测方法,其特征是,包括如下步骤:
(1)输入待检测彩色图像RGB及其对应的深度信息D;待检测彩色图像由红、蓝、绿三个颜色通道组成;深度信息D为彩色图像每个像素对应的实际深度;
(2)对步骤1输入的彩色图像进行颜色空间转换,由RGB颜色空间变换为CIELab颜色空间,采用SLIC算法实现图像的超像素分割,将图像分割成多块区域的集合其中ri表示分割得到的第i个区域,n表示区域总数目,表示整数集合;
(3)对步骤2得到的图像超像素分割结果的每个区域ri(i=1~n)提取特征fi=[Li,ai,bi,μdi],其中Li为区域ri内所有像素L通道的均值,ai为区域ri内所有像素a通道的均值,bi为区域ri内所有像素b通道的均值,di为深度图中区域ri的深度均值,μ用于调整颜色信息和深度信息的权重;
(4)对步骤2得到的区域集合中的每一个超像素r,计算其邻域深度对比值NDC(r),得到邻域深度对比图:
其中exp(·)表示指数函数,di表示超像素区域ri的平均深度值,NB(i)表示超像素区域ri的邻域,μd设置为图像的平均深度;
(5)将步骤2得到的超像素区域视作超图模型中的顶点v,相邻超像素区域之间的联系视作超图中的边e,构建超图模型H(V,E),V代表顶点集合,E代表超边集合,当区域vi的邻域深度对比值低于设定的阈值θ时,将vi加入到深度背景超边ed中,其中阈值θ取值范围为[0,0.5],由用户设定:
H(vi,ed)=1 s.t. NDC(vi)<θ (2)
(6)计算步骤5得到的深度背景超边ed的权重ω(ed):
其中,drgbd(i,j)表示vi和vj对应的超像素区域特征的欧氏距离:
drgbd(i,j)=||fi-fj||2 (4)
(7)对步骤5得到的深度背景超边进行展开得到诱导图,超边中任意两个超像素区域ri和rj在诱导图中都彼此相连,诱导图的邻接矩阵AIG为:
连接区域ri和区域rj的边的权重为:
其中deg(e)为超边e的度,即超边e内包含的顶点数量;
(8)计算任意两个超像素p和q的最短路径代价dgeo(p,q)为:
其中k为最短路径经过的顶点的数量。
(9)对每一个超像素r,计算其边界连通性值BndCon(r),得到边界背景显著图:
其中
当ri位于图像的边缘时,δ(ri∈Bnd)=1,否则δ(ri∈Bnd)=0,参数σclr取值范围为[5,15],由用户设定;
(10)将步骤4得到的邻域深度对比图NDC和步骤9得到的边界背景显著图BndCon分别采用基于元胞自动机的更新算法,分别得到更新后的结果SD和SB;
(11)采用结合深度先验的融合算法,融合SD和SB,得到最终的显著性图像。
2.如权利要求1所述的基于超图模型的RGBD图像显著性检测方法,其特征是,步骤10中的基于元胞自动机的更新算法,其更新规则为:
St+1=CSt+(I-C)F*St
其中的I为单位矩阵,t表示更新次数,St表示经过t次更新后所有超像素的显著度向量。
定义F=[fij]n×n为影响因子矩阵,其中的元素fij为:
其中,σf 2取值由用户设定,可设置为超像素区域特征欧氏距离的方差;
定义对角矩阵D=diag{d1,d2,...,dn},其中di=∑jfij。经过行归一化的影响因子矩阵F*为:
F*=D-1F
一致性矩阵C=diag{c1,c2,...,cn}为对角矩阵,其中元素的设置方法如下:
ci=1.6×|St=0(i)-0.5|+0.1
其中,St=0(i)表示初始显著图中超像素ri的显著度。
3.如权利要求2所述的基于超图模型的RGBD图像显著性检测方法,其特征是,步骤11中的结合深度先验的融合算法具体方法如下:
分别对显著图SD和SB进行OTSU阈值分割,将两者转换成二值图;分别统计两个二值图中取值为1的超像素区域的数量,选取其中的较小值作为前景区域的提取数量m;在SD和SB选取显著度最高的m个区域作为对应的前景区域,组成集合VD和VB;
在这两个前景集合VD和VB的基础上,得到融合前景集合Rfg;若VD和VB对应区域的重叠率大于阈值K,融合前景集合Rfg为两个集合的并集;若VD和VB对应区域的重叠率小于阈值K,融合前景集合Rfg为两者中平均深度较小的那个区域集合;
即:
设置元胞自动机的更新初始值为St=0=SB·SD。一致性矩阵C=diag{c1,c2,...,cn}的元素取值方式为下:
进行基于元胞自动机的显著性更新算法,得到最终的显著性图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610191893.1A CN105894502B (zh) | 2016-03-30 | 2016-03-30 | 基于超图模型的rgbd图像显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610191893.1A CN105894502B (zh) | 2016-03-30 | 2016-03-30 | 基于超图模型的rgbd图像显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105894502A true CN105894502A (zh) | 2016-08-24 |
CN105894502B CN105894502B (zh) | 2019-10-11 |
Family
ID=57013993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610191893.1A Active CN105894502B (zh) | 2016-03-30 | 2016-03-30 | 基于超图模型的rgbd图像显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105894502B (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106341676A (zh) * | 2016-09-29 | 2017-01-18 | 济南大学 | 基于超像素的深度图像预处理和深度空洞填充方法 |
CN106778634A (zh) * | 2016-12-19 | 2017-05-31 | 江苏慧眼数据科技股份有限公司 | 一种基于区域融合的显著性人体区域检测方法 |
CN106780422A (zh) * | 2016-12-28 | 2017-05-31 | 深圳市美好幸福生活安全系统有限公司 | 一种基于Choquet积分的显著图融合方法 |
CN106991370A (zh) * | 2017-02-28 | 2017-07-28 | 中科唯实科技(北京)有限公司 | 基于颜色和深度的行人检索方法 |
CN107085848A (zh) * | 2017-04-20 | 2017-08-22 | 安徽大学 | 一种rgb‑d图显著性的检测方法 |
CN107133558A (zh) * | 2017-03-13 | 2017-09-05 | 北京航空航天大学 | 一种基于概率传播的红外行人显著性检测方法 |
CN107146229A (zh) * | 2017-04-05 | 2017-09-08 | 西安电子科技大学 | 基于元胞自动机模型的结肠息肉图像分割方法 |
CN107169417A (zh) * | 2017-04-17 | 2017-09-15 | 上海大学 | 基于多核增强和显著性融合的rgbd图像协同显著性检测方法 |
CN107194930A (zh) * | 2017-03-27 | 2017-09-22 | 西北大学 | 基于元胞自动机的文物表面纹理特征提取方法 |
CN107403430A (zh) * | 2017-06-15 | 2017-11-28 | 中山大学 | 一种rgbd图像语义分割方法 |
CN107563370A (zh) * | 2017-07-07 | 2018-01-09 | 西北工业大学 | 一种基于视觉注意机制的海上红外目标检测方法 |
CN107945187A (zh) * | 2017-11-02 | 2018-04-20 | 天津大学 | 一种深度形状先验提取方法 |
CN107977660A (zh) * | 2017-10-13 | 2018-05-01 | 天津工业大学 | 基于背景先验和前景节点的感兴趣区域检测方法 |
CN108154150A (zh) * | 2017-12-18 | 2018-06-12 | 北京工业大学 | 一种基于背景先验的显著性检测方法 |
CN108776815A (zh) * | 2018-06-04 | 2018-11-09 | 国网辽宁省电力有限公司信息通信分公司 | 一种基于深度特征的显著性目标检测方法 |
CN109741358A (zh) * | 2018-12-29 | 2019-05-10 | 北京工业大学 | 基于自适应超图学习的超像素分割方法 |
CN109903276A (zh) * | 2019-02-23 | 2019-06-18 | 中国民航大学 | 基于多层融合的卷积神经网络rgb-d显著性检测方法 |
CN110211115A (zh) * | 2019-06-03 | 2019-09-06 | 大连理工大学 | 一种基于深度引导元胞自动机的光场显著性检测实现方法 |
WO2019169884A1 (zh) * | 2018-03-09 | 2019-09-12 | 北京大学深圳研究生院 | 基于深度信息的图像显著性检测方法和装置 |
CN110298782A (zh) * | 2019-05-07 | 2019-10-01 | 天津大学 | 一种rgb显著性到rgbd显著性的转换方法 |
CN113065321A (zh) * | 2021-04-19 | 2021-07-02 | 北京理工大学 | 基于lstm模型和超图的用户行为预测方法及系统 |
CN113705579A (zh) * | 2021-08-27 | 2021-11-26 | 河海大学 | 一种视觉显著性驱动的图像自动标注方法 |
CN114093012A (zh) * | 2022-01-18 | 2022-02-25 | 荣耀终端有限公司 | 人脸遮挡的检测方法和检测装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810503A (zh) * | 2013-12-26 | 2014-05-21 | 西北工业大学 | 一种基于深度学习的自然图像中显著区域的检测方法 |
US20150043808A1 (en) * | 2013-08-07 | 2015-02-12 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and imaging apparatus |
CN104574375A (zh) * | 2014-12-23 | 2015-04-29 | 浙江大学 | 结合彩色和深度信息的图像显著性检测方法 |
CN104850857A (zh) * | 2015-05-15 | 2015-08-19 | 浙江大学 | 基于视觉空间显著性约束的跨摄像机行人目标匹配方法 |
-
2016
- 2016-03-30 CN CN201610191893.1A patent/CN105894502B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150043808A1 (en) * | 2013-08-07 | 2015-02-12 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and imaging apparatus |
CN103810503A (zh) * | 2013-12-26 | 2014-05-21 | 西北工业大学 | 一种基于深度学习的自然图像中显著区域的检测方法 |
CN104574375A (zh) * | 2014-12-23 | 2015-04-29 | 浙江大学 | 结合彩色和深度信息的图像显著性检测方法 |
CN104850857A (zh) * | 2015-05-15 | 2015-08-19 | 浙江大学 | 基于视觉空间显著性约束的跨摄像机行人目标匹配方法 |
Non-Patent Citations (3)
Title |
---|
JIANQIANG REN 等: "Exploiting Global Priors for RGB-D Saliency Detection", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》 * |
WANGJIANG ZHU等: "Saliency Optimization from Robust Background Detection", 《2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
杜杰等: "基于区域特征融合的RGBD显著目标检测", 《液晶与显示》 * |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106341676A (zh) * | 2016-09-29 | 2017-01-18 | 济南大学 | 基于超像素的深度图像预处理和深度空洞填充方法 |
CN106341676B (zh) * | 2016-09-29 | 2017-06-16 | 济南大学 | 基于超像素的深度图像预处理和深度空洞填充方法 |
CN106778634A (zh) * | 2016-12-19 | 2017-05-31 | 江苏慧眼数据科技股份有限公司 | 一种基于区域融合的显著性人体区域检测方法 |
CN106778634B (zh) * | 2016-12-19 | 2020-07-14 | 江苏慧眼数据科技股份有限公司 | 一种基于区域融合的显著性人体区域检测方法 |
CN106780422A (zh) * | 2016-12-28 | 2017-05-31 | 深圳市美好幸福生活安全系统有限公司 | 一种基于Choquet积分的显著图融合方法 |
CN106991370A (zh) * | 2017-02-28 | 2017-07-28 | 中科唯实科技(北京)有限公司 | 基于颜色和深度的行人检索方法 |
CN106991370B (zh) * | 2017-02-28 | 2020-07-31 | 中科唯实科技(北京)有限公司 | 基于颜色和深度的行人检索方法 |
CN107133558A (zh) * | 2017-03-13 | 2017-09-05 | 北京航空航天大学 | 一种基于概率传播的红外行人显著性检测方法 |
CN107133558B (zh) * | 2017-03-13 | 2020-10-20 | 北京航空航天大学 | 一种基于概率传播的红外行人显著性检测方法 |
CN107194930B (zh) * | 2017-03-27 | 2021-06-08 | 西北大学 | 基于元胞自动机的文物表面纹理特征提取方法 |
CN107194930A (zh) * | 2017-03-27 | 2017-09-22 | 西北大学 | 基于元胞自动机的文物表面纹理特征提取方法 |
CN107146229B (zh) * | 2017-04-05 | 2019-08-13 | 西安电子科技大学 | 基于元胞自动机模型的结肠息肉图像分割方法 |
CN107146229A (zh) * | 2017-04-05 | 2017-09-08 | 西安电子科技大学 | 基于元胞自动机模型的结肠息肉图像分割方法 |
CN107169417B (zh) * | 2017-04-17 | 2021-01-12 | 上海大学 | 基于多核增强和显著性融合的rgbd图像协同显著性检测方法 |
CN107169417A (zh) * | 2017-04-17 | 2017-09-15 | 上海大学 | 基于多核增强和显著性融合的rgbd图像协同显著性检测方法 |
CN107085848A (zh) * | 2017-04-20 | 2017-08-22 | 安徽大学 | 一种rgb‑d图显著性的检测方法 |
CN107403430A (zh) * | 2017-06-15 | 2017-11-28 | 中山大学 | 一种rgbd图像语义分割方法 |
CN107403430B (zh) * | 2017-06-15 | 2020-08-07 | 中山大学 | 一种rgbd图像语义分割方法 |
CN107563370A (zh) * | 2017-07-07 | 2018-01-09 | 西北工业大学 | 一种基于视觉注意机制的海上红外目标检测方法 |
CN107563370B (zh) * | 2017-07-07 | 2020-04-03 | 西北工业大学 | 一种基于视觉注意机制的海上红外目标检测方法 |
CN107977660A (zh) * | 2017-10-13 | 2018-05-01 | 天津工业大学 | 基于背景先验和前景节点的感兴趣区域检测方法 |
CN107945187A (zh) * | 2017-11-02 | 2018-04-20 | 天津大学 | 一种深度形状先验提取方法 |
CN107945187B (zh) * | 2017-11-02 | 2021-04-30 | 天津大学 | 一种深度形状先验提取方法 |
CN108154150A (zh) * | 2017-12-18 | 2018-06-12 | 北京工业大学 | 一种基于背景先验的显著性检测方法 |
CN108154150B (zh) * | 2017-12-18 | 2021-07-23 | 北京工业大学 | 一种基于背景先验的显著性检测方法 |
WO2019169884A1 (zh) * | 2018-03-09 | 2019-09-12 | 北京大学深圳研究生院 | 基于深度信息的图像显著性检测方法和装置 |
CN108776815A (zh) * | 2018-06-04 | 2018-11-09 | 国网辽宁省电力有限公司信息通信分公司 | 一种基于深度特征的显著性目标检测方法 |
CN109741358A (zh) * | 2018-12-29 | 2019-05-10 | 北京工业大学 | 基于自适应超图学习的超像素分割方法 |
CN109903276A (zh) * | 2019-02-23 | 2019-06-18 | 中国民航大学 | 基于多层融合的卷积神经网络rgb-d显著性检测方法 |
CN110298782A (zh) * | 2019-05-07 | 2019-10-01 | 天津大学 | 一种rgb显著性到rgbd显著性的转换方法 |
CN110298782B (zh) * | 2019-05-07 | 2023-04-18 | 天津大学 | 一种rgb显著性到rgbd显著性的转换方法 |
CN110211115B (zh) * | 2019-06-03 | 2023-04-07 | 大连理工大学 | 一种基于深度引导元胞自动机的光场显著性检测实现方法 |
CN110211115A (zh) * | 2019-06-03 | 2019-09-06 | 大连理工大学 | 一种基于深度引导元胞自动机的光场显著性检测实现方法 |
CN113065321A (zh) * | 2021-04-19 | 2021-07-02 | 北京理工大学 | 基于lstm模型和超图的用户行为预测方法及系统 |
CN113705579A (zh) * | 2021-08-27 | 2021-11-26 | 河海大学 | 一种视觉显著性驱动的图像自动标注方法 |
CN113705579B (zh) * | 2021-08-27 | 2024-03-15 | 河海大学 | 一种视觉显著性驱动的图像自动标注方法 |
CN114093012B (zh) * | 2022-01-18 | 2022-06-10 | 荣耀终端有限公司 | 人脸遮挡的检测方法和检测装置 |
CN114093012A (zh) * | 2022-01-18 | 2022-02-25 | 荣耀终端有限公司 | 人脸遮挡的检测方法和检测装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105894502B (zh) | 2019-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105894502A (zh) | 基于超图模型的rgbd图像显著性检测方法 | |
CN103035013B (zh) | 一种基于多特征融合的精确运动阴影检测方法 | |
CN104574375B (zh) | 结合彩色和深度信息的图像显著性检测方法 | |
CN101271578B (zh) | 一种平面视频转立体视频技术中的深度序列生成方法 | |
CN110378196A (zh) | 一种结合激光点云数据的道路视觉检测方法 | |
CN103177446B (zh) | 基于邻域和非邻域平滑先验的图像前景精准提取方法 | |
CN104063702B (zh) | 一种基于遮挡修复和局部相似性匹配的三维步态识别方法 | |
CN101447076B (zh) | 一种web图像中感兴趣区域的分割方法 | |
CN105335966B (zh) | 基于局域同质性指标的多尺度遥感影像分割方法 | |
CN104850850A (zh) | 一种结合形状和颜色的双目立体视觉图像特征提取方法 | |
CN103632146B (zh) | 一种基于头肩距的人体检测方法 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN109766936A (zh) | 基于信息传递和注意力机制的图像变化检测方法 | |
CN103164858A (zh) | 基于超像素和图模型的粘连人群分割与跟踪方法 | |
CN104966286A (zh) | 一种3d视频显著性检测方法 | |
CN103839267B (zh) | 一种基于形态学建筑物指数的建筑物提取方法 | |
CN104835175A (zh) | 一种基于视觉注意机制的核环境中目标检测方法 | |
CN103489193B (zh) | 基于融合策略的面向对象的高分辨率遥感影像变化检测方法 | |
CN104851089A (zh) | 一种基于三维光场的静态场景前景分割方法和装置 | |
CN107909079A (zh) | 一种协同显著性检测方法 | |
CN104732551A (zh) | 基于超像素和图割优化的水平集图像分割方法 | |
CN110210418A (zh) | 一种基于信息交互和迁移学习的sar图像飞机目标检测方法 | |
CN104599288A (zh) | 一种基于肤色模板的特征跟踪方法及装置 | |
CN103985128A (zh) | 一种基于颜色内相关和自适应支撑权重的立体匹配方法 | |
CN104217440A (zh) | 一种从遥感图像中提取建成区的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |