CN109086777A - 一种基于全局像素特征的显著图精细化方法 - Google Patents
一种基于全局像素特征的显著图精细化方法 Download PDFInfo
- Publication number
- CN109086777A CN109086777A CN201810743616.6A CN201810743616A CN109086777A CN 109086777 A CN109086777 A CN 109086777A CN 201810743616 A CN201810743616 A CN 201810743616A CN 109086777 A CN109086777 A CN 109086777A
- Authority
- CN
- China
- Prior art keywords
- pixel
- notable
- super
- characteristic
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开了一种基于全局像素特征的显著图精细化方法,包括步骤:基于超像素提取深度特征和手工特征的显著性检测模型生成初始显著图;对输入图像进行预处理;通过全卷积神经网络提取图像全局像素的深度特征图;在全卷积神经网络的深处对初始显著图和深度特征图进行拼接,得到新特征;根据得到的新特征,通过全卷积神经网络进行分类得到最终的精细化显著图。本发明能够在复杂场景下快速、准确地完成大规模的图像显著性目标检测任务。
Description
技术领域
本发明属于显著性目标检测技术领域,特别涉及了一种基于全局像素特征的显著图精细化方法。
背景技术
显著性目标检测是计算机视觉领域下的一个重要分支,在近几年已经成为热门的研究话题,它是指人类能够通过视觉系统从场景中提取出与其他区域相比更为显著的区域,这有助于剔除后续视觉任务中图像内无价值的区域。显著性目标检测能够从复杂的场景中快速准确地定位图像中最显著的目标或区域,识别后的显著性结果在视频目标跟踪、交通控制、图像检索、图像质量评估、场景理解等诸多计算机视觉领域中都有着广泛的应用。因此,研究显著性目标检测技术在其应用当中是非常有必要的。
目前,基于卷积网络的方法是基于超像素进行显著性目标检测,已经取得了不错的效果。然而这些方法不是基于像素的操作,生成的显著图很大程度上依赖于超像素块的分割结果,而作为无监督的超像素分割算法得到的图像块主要基于表观特征的相似性,而并没有基于图像的语义特征,所以并不能保证每个超像素内部标记的完全一致性,这种内部标记不一致的情况尤其出现在复杂场景下显著性目标边界区域的超像素块中。
发明内容
为了解决上述背景技术提出的技术问题,本发明旨在提供一种基于全局像素特征的显著图精细化方法,能够在复杂场景下快速、准确地完成大规模的图像显著性目标检测任务。
为了实现上述技术目的,本发明的技术方案为:
一种基于全局像素特征的显著图精细化方法,包括以下步骤:
(1)基于超像素提取深度特征和手工特征的显著性检测模型生成初始显著图;
(2)对输入图像进行预处理,包括图像均值化和RGB图像转换为BGR图像;
(3)通过全卷积神经网络提取图像全局像素的深度特征图;
(4)在全卷积神经网络的深处对步骤(1)生成的初始显著图和步骤(3)得到的深度特征图进行拼接,得到新特征;
(5)根据步骤(4)得到的新特征,通过全卷积神经网络进行分类得到最终的精细化显著图。
进一步地,步骤(1)的具体过程如下:
(11)对输入图像使用SLIC算法进行M个不同粒度的超像素分割,SLIC算法的距离度量公式如下:
其中,M为正整数,ds为颜色距离与归一化的空间距离的和,dlab为第j个聚类中心与第i个像素点的颜色距离,dxy为第j个聚类中心与第i个像素点的空间距离,li、ai、bi分别为第i个像素点在Lab色彩空间中L、a、b的取值,lj、aj、bj分别为第j个聚类中心在Lab色彩空间中L、a、b的取值的取值,xi、yi分别分别为第i个像素点在空间坐标轴中X轴、Y轴的取值,xj、yj分别分别为第j个聚类中心在空间坐标轴中X轴、Y轴的取值,m为用于权衡颜色相似度和空间临近性影响的参数,s为初始网格的步长;
(12)对不同粒度分割的每个超像素使用3个m1层的卷积神经网络分别提取超像素、超像素邻域和整幅图像基于超像素的深度特征,其中,m1为正整数,且m1≥5;
(13)对步骤(12)得到的3种特征进行拼接,通过一个2层的全连接网络,得到m2维的向量作为该粒度分割下超像素的深度对比特征,其中,m2为正整数,且m2≥100;
(14)对不同粒度分割的每个超像素提取39维的手工特征,手工特征分为对比特征和分割特征,其中对比特征包括RGB均值和直方图差异、LAB均值和直方图差异、HSV均值和直方图差异、LM最大响应直方图差异和LBP直方图差异;分割特征包:RGB值的方差、LAB值的方差、HSV值的方差、超像素的最小边界框周长和超像素的面积;
(15)将39维的手工特征拼接在m2维的深度特征之后,得到有效描述超像素的m2+39维为特征;
(16)将每个超像素的m2+39维向量输入到随机森林模型中,得到超像素的分类;
(17)融合M个不同粒度超像素分割得到的显著图作为初始显著图,融合参数的训练公式如下:
其中,S为融合结果,Sk表示基于不同粒度超像素分割得到的显著图,αk是不同粒度显著图的融合系数,i表示训练模型数据集D中的第i个训练样本,Si表示训练模型数据集D中的第i个训练样本的真值图,表示基于不同粒度超像素分割得到的训练模型数据集D中的第i个训练样本的显著图。
进一步地,在步骤(2)中,图像均值化的公式如下:
其中,R,G,B分别为输入图像3个通道的值,分别为3个通道的均值,R′,G′,B′分别为图像均值化后的3个通道的值,Rij,Gij,Bij分别为坐标(i,j)像素点的3个通道的值,W为输入图像的宽度,H为输入图像的高度。
进一步地,步骤(3)的具体过程如下:
(31)将步骤(2)预处理得到的图像输入全卷积神经网络,进行5组共计13个核大小为3*3的卷积层操作;
(32)在每组卷积层操作之后添加最大池化层,对图像特征进行降采样;
(33)在最后一个最大池化层的操作之后,得到图像全局像素的深度特征图。
进一步地,步骤(4)的具体过程如下:
(41)对步骤(1)生成的初始显著图进行尺度放缩;
(42)将放缩后的初始显著图与步骤(3)得到的全局像素深度特征图按照不同通道的形式进行拼接,得到新特征。
进一步地,步骤(5)的具体过程如下:
(51)将步骤(4)得到的新特征通过全卷积神经网络进行传播,得到尺度较小的显著图,其中,整个网络训练的最小化交叉熵损失函数如下:
其中,X表示通过最后一个卷积层生成的特征图中所有元素的集合,x表示集合X中的每个元素,y(x)=1表示该点是显著性目标的一部分,y(x)=0表示该点不是显著性目标的一部分,p(x)表示该点标记为显著性目标的概率;
(52)利用B样条插值算法将步骤(51)得到的显著图上采样至与原始图像大小一致的显著图,即为最终的精细化显著图。
采用上述技术方案带来的有益效果:
本发明设计了基于全局像素特征的全卷积神经网络,利用全卷积神经网络提取到的包含语义信息的深度特征改进显著性目标检测算法的性能。此外,为了避免超像素分割操作,图像通过全卷积神经网络提取二维矩阵,实现基于全局像素的分类,提高了模型检测的性能。本发明将两种方法建立在一个统一的模型中,显著性目标检测效果显著,具备较高的使用价值。
附图说明
图1是本发明的方法流程图;
图2是本发明中的网络结构示意图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
如图1所示,本发明提出的一种基于全局像素特征的显著图精细化方法,具体步骤如下:
步骤1,基于超像素提取深度特征和手工特征的显著性检测模型生成初始显著图。
①对输入图像使用简单线性迭代聚类算法(Simple Linear IterativeClustering,SLIC)进行15个不同粒度的超像素分割,SLIC的距离度量公式可以表示为:
其中,ds为颜色距离与归一化的空间距离的和,dlab为第j个聚类中心与第i个像素点的颜色距离,dxy为第j个聚类中心与第i个像素点的空间距离,li、ai、bi分别为第i个像素点在Lab色彩空间中L、a、b的取值,lj、aj、bj分别为第j个聚类中心在Lab色彩空间中L、a、b的取值的取值,xi、yi分别分别为第i个像素点在空间坐标轴中X轴、Y轴的取值,xj、yj分别分别为第j个聚类中心在空间坐标轴中X轴、Y轴的取值,m为用于权衡颜色相似度和空间临近性影响的参数,s为初始网格的步长②对不同粒度分割的每个超像素使用3个5层的卷积神经网络分别提取超像素、超像素邻域和整幅图像基于超像素的深度特征;
②对不同粒度分割的每个超像素使用3个5层的卷积神经网络分别提取超像素、超像素邻域和整幅图像基于超像素的深度特征;
③对第②步得到的三种特征进行拼接,通过一个2层的全连接网络,得到300维的向量作为该粒度分割下超像素的深度对比特征;
④对不同粒度分割的每个超像素提取39维的手工对比特征,特征分为对比特征和分割特征,其中对比特征包括:RGB均值和直方图差异、LAB均值和直方图差异、HSV均值和直方图差异、LM最大响应直方图差异和LBP直方图差异;分割特征包括:RGB值的方差、LAB值的方差、HSV值的方差、超像素的最小边界框周长和超像素的面积;
⑤将39维的传统手工特征拼接在300维的深度特征之后,得到可以有效描述超像素的339为特征;
⑥将每个超像素的339维向量输入到随机森林模型中,得到超像素的分类;
⑦融合15个不同粒度超像素分割得到的显著图作为初始显著图,融合参数的训练公式可以表示为:
其中,S为融合结果,Sk表示基于不同粒度超像素分割得到的显著图,αk是不同粒度显著图的融合系数,i表示训练模型数据集D中的第i个训练样本,Si表示训练模型数据集D中的第i个训练样本的真值图,表示基于不同粒度超像素分割得到的训练模型数据集D中的第i个训练样本的显著图。
步骤2,对输入图像进行预处理,包括图像均值化和RGB图像转换为BGR图像。
①图像均值化:求得输入图像RGB三个通道的均值通过减去均值得到均值化后的图像,均值化操作的公式可以表示为:
其中,W表示输入图像的宽度,H表示输入图像的高度;
②MATLAB中RGB图像是存储在H*W*C的三维矩阵中,caffe使用的图像是BGR格式,且矩阵维度为W*H*CH,matlab读取的图像经过步骤①后需要将RGB图像维度转换为BGR图像再送入caffe网络。
步骤3,通过全卷积神经网络提取图像全局像素的深度特征图.
①网络的特征提取部分是基于深度卷积网络VGG16设计的,将步骤2进行预处理后得到的图像进行5组共计13个核大小为3*3的卷积层操作;
②在每组卷积层操作之后添加最大池化层,对图像特征进行降采样;
③在最后一个池化层的操作之后,得到图像全局像素的深度特征图。
步骤4,在全卷积神经网络的深处对初始显著图和深度特征图进行拼接,得到新特征。
①对步骤1得到的初始显著图进行尺度放缩;
②将放缩后的初始显著图与步骤3得到的全局像素深度特征图按照不同通道的形式进行拼接得到新的特征。
步骤5,根据得到的新特征,通过全卷积神经网络进行分类得到最终的精细化显著图。
①步骤4得到的新特征通过多层卷积网络进行传播,得到尺度较小的显著图。整个网络训练的最小化交叉熵损失函数公式可以表示为:
其中,X表示通过最后一个卷积层生成的特征图中所有元素的集合,x表示集合X中的每个元素,y(x)=1表示该点是显著性目标的一部分,y(x)=0表示该点不是显著性目标的一部分,p(x)表示该点标记为显著性目标的概率;
②由于池化操作,步骤①得到的显著图尺寸较小,利用B样条插值算法将其上采样至原始图像大小一致的显著图,这样的显著图即为最终的显著性检测结果。
如图2所示本发明中的网络结构示意图,其中6对应步骤3,7对应步骤4,8和9对应步骤5。
实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (6)
1.一种基于全局像素特征的显著图精细化方法,其特征在于,包括以下步骤:
(1)基于超像素提取深度特征和手工特征的显著性检测模型生成初始显著图;
(2)对输入图像进行预处理,包括图像均值化和RGB图像转换为BGR图像;
(3)通过全卷积神经网络提取图像全局像素的深度特征图;
(4)在全卷积神经网络的深处对步骤(1)生成的初始显著图和步骤(3)得到的深度特征图进行拼接,得到新特征;
(5)根据步骤(4)得到的新特征,通过全卷积神经网络进行分类得到最终的精细化显著图。
2.根据权利要求1所述基于全局像素特征的显著图精细化方法,其特征在于,步骤(1)的具体过程如下:
(11)对输入图像使用SLIC算法进行M个不同粒度的超像素分割,SLIC算法的距离度量公式如下:
其中,M为正整数,ds为颜色距离与归一化的空间距离的和,dlab为第j个聚类中心与第i个像素点的颜色距离,dxy为第j个聚类中心与第i个像素点的空间距离,li、ai、bi分别为第i个像素点在Lab色彩空间中L、a、b的取值,lj、aj、bj分别为第j个聚类中心在Lab色彩空间中L、a、b的取值的取值,xi、yi分别分别为第i个像素点在空间坐标轴中X轴、Y轴的取值,xj、yj分别分别为第j个聚类中心在空间坐标轴中X轴、Y轴的取值,m为用于权衡颜色相似度和空间临近性影响的参数,s为初始网格的步长;
(12)对不同粒度分割的每个超像素使用3个m1层的卷积神经网络分别提取超像素、超像素邻域和整幅图像基于超像素的深度特征,其中,m1为正整数,且m1≥5;
(13)对步骤(12)得到的3种特征进行拼接,通过一个2层的全连接网络,得到m2维的向量作为该粒度分割下超像素的深度对比特征,其中,m2为正整数,且m2≥100;
(14)对不同粒度分割的每个超像素提取39维的手工特征,手工特征分为对比特征和分割特征,其中对比特征包括RGB均值和直方图差异、LAB均值和直方图差异、HSV均值和直方图差异、LM最大响应直方图差异和LBP直方图差异;分割特征包:RGB值的方差、LAB值的方差、HSV值的方差、超像素的最小边界框周长和超像素的面积;
(15)将39维的手工特征拼接在m2维的深度特征之后,得到有效描述超像素的m2+39维为特征;
(16)将每个超像素的m2+39维向量输入到随机森林模型中,得到超像素的分类;
(17)融合M个不同粒度超像素分割得到的显著图作为初始显著图,融合参数的训练公式如下:
其中,S为融合结果,Sk表示基于不同粒度超像素分割得到的显著图,αk是不同粒度显著图的融合系数,i表示训练模型数据集D中的第i个训练样本,Si表示训练模型数据集D中的第i个训练样本的真值图,表示基于不同粒度超像素分割得到的训练模型数据集D中的第i个训练样本的显著图。
3.根据权利要求1所述基于全局像素特征的显著图精细化方法,其特征在于,在步骤(2)中,图像均值化的公式如下:
其中,R,G,B分别为输入图像3个通道的值,分别为3个通道的均值,R′,G′,B′分别为图像均值化后的3个通道的值,Rij,Gij,Bij分别为坐标(i,j)像素点的3个通道的值,W为输入图像的宽度,H为输入图像的高度。
4.根据权利要求1所述基于全局像素特征的显著图精细化方法,其特征在于,步骤(3)的具体过程如下:
(31)将步骤(2)预处理得到的图像输入全卷积神经网络,进行5组共计13个核大小为3*3的卷积层操作;
(32)在每组卷积层操作之后添加最大池化层,对图像特征进行降采样;
(33)在最后一个最大池化层的操作之后,得到图像全局像素的深度特征图。
5.根据权利要求1所述基于全局像素特征的显著图精细化方法,其特征在于,步骤(4)的具体过程如下:
(41)对步骤(1)生成的初始显著图进行尺度放缩;
(42)将放缩后的初始显著图与步骤(3)得到的全局像素深度特征图按照不同通道的形式进行拼接,得到新特征。
6.根据权利要求1所述基于全局像素特征的显著图精细化方法,其特征在于,步骤(5)的具体过程如下:
(51)将步骤(4)得到的新特征通过全卷积神经网络进行传播,得到尺度较小的显著图,其中,整个网络训练的最小化交叉熵损失函数如下:
其中,X表示通过最后一个卷积层生成的特征图中所有元素的集合,x表示集合X中的每个元素,y(x)=1表示该点是显著性目标的一部分,y(x)=0表示该点不是显著性目标的一部分,p(x)表示该点标记为显著性目标的概率;
(52)利用B样条插值算法将步骤(51)得到的显著图上采样至与原始图像大小一致的显著图,即为最终的精细化显著图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810743616.6A CN109086777B (zh) | 2018-07-09 | 2018-07-09 | 一种基于全局像素特征的显著图精细化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810743616.6A CN109086777B (zh) | 2018-07-09 | 2018-07-09 | 一种基于全局像素特征的显著图精细化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109086777A true CN109086777A (zh) | 2018-12-25 |
CN109086777B CN109086777B (zh) | 2021-09-28 |
Family
ID=64837202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810743616.6A Active CN109086777B (zh) | 2018-07-09 | 2018-07-09 | 一种基于全局像素特征的显著图精细化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109086777B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961444A (zh) * | 2019-03-01 | 2019-07-02 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及电子设备 |
CN110751155A (zh) * | 2019-10-14 | 2020-02-04 | 西北工业大学 | 一种新的基于Faster R-CNN的目标检测方法 |
CN111160478A (zh) * | 2019-12-31 | 2020-05-15 | 北京理工大学重庆创新中心 | 一种基于深度学习的高光谱目标显著性检测方法 |
CN111709317A (zh) * | 2020-05-28 | 2020-09-25 | 西安理工大学 | 一种基于显著性模型下多尺度特征的行人重识别方法 |
CN111881920A (zh) * | 2020-07-16 | 2020-11-03 | 深圳力维智联技术有限公司 | 一种大分辨率图像的网络适配方法及神经网络训练装置 |
CN112150484A (zh) * | 2020-09-28 | 2020-12-29 | 华侨大学 | 超像素的狄利克雷混合模型图像分割方法、装置及设备 |
CN112381813A (zh) * | 2020-11-25 | 2021-02-19 | 华南理工大学 | 一种基于图卷积神经网络的全景图视觉显著性检测方法 |
CN112465700A (zh) * | 2020-11-26 | 2021-03-09 | 北京航空航天大学 | 一种基于深度聚类的图像拼接定位装置及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157319A (zh) * | 2016-07-28 | 2016-11-23 | 哈尔滨工业大学 | 基于卷积神经网络的区域和像素级融合的显著性检测方法 |
CN106651886A (zh) * | 2017-01-03 | 2017-05-10 | 北京工业大学 | 一种基于超像素聚类优化cnn的云图分割方法 |
CN107274419A (zh) * | 2017-07-10 | 2017-10-20 | 北京工业大学 | 一种基于全局先验和局部上下文的深度学习显著性检测方法 |
-
2018
- 2018-07-09 CN CN201810743616.6A patent/CN109086777B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157319A (zh) * | 2016-07-28 | 2016-11-23 | 哈尔滨工业大学 | 基于卷积神经网络的区域和像素级融合的显著性检测方法 |
CN106651886A (zh) * | 2017-01-03 | 2017-05-10 | 北京工业大学 | 一种基于超像素聚类优化cnn的云图分割方法 |
CN107274419A (zh) * | 2017-07-10 | 2017-10-20 | 北京工业大学 | 一种基于全局先验和局部上下文的深度学习显著性检测方法 |
Non-Patent Citations (2)
Title |
---|
GUANBIN LI 等: "Visual saliency detection based on multiscale deep CNN features", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
盛蕴霞 等: "基于超像素聚类的侧扫声呐图像分割算法", 《计算机工程》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961444A (zh) * | 2019-03-01 | 2019-07-02 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及电子设备 |
CN109961444B (zh) * | 2019-03-01 | 2022-12-20 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及电子设备 |
CN110751155A (zh) * | 2019-10-14 | 2020-02-04 | 西北工业大学 | 一种新的基于Faster R-CNN的目标检测方法 |
CN111160478B (zh) * | 2019-12-31 | 2022-07-26 | 北京理工大学重庆创新中心 | 一种基于深度学习的高光谱目标显著性检测方法 |
CN111160478A (zh) * | 2019-12-31 | 2020-05-15 | 北京理工大学重庆创新中心 | 一种基于深度学习的高光谱目标显著性检测方法 |
CN111709317A (zh) * | 2020-05-28 | 2020-09-25 | 西安理工大学 | 一种基于显著性模型下多尺度特征的行人重识别方法 |
CN111709317B (zh) * | 2020-05-28 | 2023-08-04 | 深圳市旭景数字技术有限公司 | 一种基于显著性模型下多尺度特征的行人重识别方法 |
CN111881920A (zh) * | 2020-07-16 | 2020-11-03 | 深圳力维智联技术有限公司 | 一种大分辨率图像的网络适配方法及神经网络训练装置 |
CN111881920B (zh) * | 2020-07-16 | 2024-04-09 | 深圳力维智联技术有限公司 | 一种大分辨率图像的网络适配方法及神经网络训练装置 |
CN112150484A (zh) * | 2020-09-28 | 2020-12-29 | 华侨大学 | 超像素的狄利克雷混合模型图像分割方法、装置及设备 |
CN112150484B (zh) * | 2020-09-28 | 2024-04-19 | 华侨大学 | 超像素的狄利克雷混合模型图像分割方法、装置及设备 |
CN112381813A (zh) * | 2020-11-25 | 2021-02-19 | 华南理工大学 | 一种基于图卷积神经网络的全景图视觉显著性检测方法 |
CN112381813B (zh) * | 2020-11-25 | 2023-09-05 | 华南理工大学 | 一种基于图卷积神经网络的全景图视觉显著性检测方法 |
CN112465700A (zh) * | 2020-11-26 | 2021-03-09 | 北京航空航天大学 | 一种基于深度聚类的图像拼接定位装置及方法 |
CN112465700B (zh) * | 2020-11-26 | 2022-04-26 | 北京航空航天大学 | 一种基于深度聚类的图像拼接定位装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109086777B (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109086777A (zh) | 一种基于全局像素特征的显著图精细化方法 | |
Wang et al. | OAENet: Oriented attention ensemble for accurate facial expression recognition | |
Han et al. | Livestock detection in aerial images using a fully convolutional network | |
CN111160214B (zh) | 一种基于数据融合的3d目标检测方法 | |
CN108537239B (zh) | 一种图像显著性目标检测的方法 | |
CN108345850A (zh) | 基于超像素的笔画特征变换和深度学习的区域分类的场景文本检测方法 | |
Nedović et al. | Stages as models of scene geometry | |
CN108305260B (zh) | 一种图像中角点的检测方法、装置及设备 | |
CN110096961B (zh) | 一种超像素级别的室内场景语义标注方法 | |
CN109409384A (zh) | 基于细粒度图像的图像识别方法、装置、介质及设备 | |
CN111753828A (zh) | 一种基于深度卷积神经网络的自然场景水平文字检测方法 | |
CN107369158A (zh) | 基于rgb‑d图像的室内场景布局估计及目标区域提取方法 | |
CN110517270B (zh) | 一种基于超像素深度网络的室内场景语义分割方法 | |
CN111461039A (zh) | 基于多尺度特征融合的地标识别方法 | |
Zhang et al. | Deep salient object detection by integrating multi-level cues | |
Zang et al. | Traffic lane detection using fully convolutional neural network | |
CN115131797A (zh) | 一种基于特征增强金字塔网络的场景文本检测方法 | |
CN113269724A (zh) | 一种细粒度癌症亚型分类方法 | |
Khoshboresh Masouleh et al. | A hybrid deep learning–based model for automatic car extraction from high-resolution airborne imagery | |
CN113592893B (zh) | 一种确定主体和精准化边缘相结合的图像前景分割方法 | |
CN104282025A (zh) | 一种生物医学图像特征提取方法 | |
CN112668662A (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
Chu et al. | Scene classification based on SIFT combined with GIST | |
CN114519819B (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 | |
Xu et al. | Sketch-based shape retrieval via multi-view attention and generalized similarity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |