CN103810503B - 一种基于深度学习的自然图像中显著区域的检测方法 - Google Patents
一种基于深度学习的自然图像中显著区域的检测方法 Download PDFInfo
- Publication number
- CN103810503B CN103810503B CN201310739026.3A CN201310739026A CN103810503B CN 103810503 B CN103810503 B CN 103810503B CN 201310739026 A CN201310739026 A CN 201310739026A CN 103810503 B CN103810503 B CN 103810503B
- Authority
- CN
- China
- Prior art keywords
- sampling
- image
- feature
- sample
- view data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000012360 testing method Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000005070 sampling Methods 0.000 claims description 40
- 238000001514 detection method Methods 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 12
- 238000013135 deep learning Methods 0.000 claims description 9
- 101150049912 bin3 gene Proteins 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000013075 data extraction Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 2
- 230000004927 fusion Effects 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000009901 attention process Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000000205 computational method Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000005295 random walk Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种利用深度学习进行自然图像中显著区域的检测方法,在训练阶段,首先在自然图像数据库上选取一定数量的图片提取基本特征,构成训练样本,然后利用深度学习模型对已提取特征进行再学习,从而得到更抽象更有区分能力的增强型高级特征,最后用学习到的特征训练分类器。在测试阶段,对于任意一幅测试图像,首先提取基本特征,然后利用训练好的深度模型,提取增强型高级特征,最后利用分类器进行显著性与否的预测,并把每个像素点的预测值作为这点的显著值。这样我们就得到整幅图像的显著图,显著值越大,就越显著。
Description
技术领域
本发明涉及一种基于深度学习的自然图像中显著区域的检测方法,可以应用于复杂背景下自然图像中多区域的显著性检测。
背景技术
自然图像的显著区域检测一直是图像处理和计算机视觉领域的一个研究热点,到目前为止,已经有大量的研究结构和课题组从事这方面的研究,而且已经取得了非常不错的成果。
按照对视觉信息的处理方式划分,可以将视觉注意过程分为两部分,分别为自底向上(bottom-up)和自顶向下(top-down)的视觉注意。自底向上视觉注意模型通过直接计算低层特征的视觉显著度来构建注意过程,具有速度快,不受意识控制,前向传播等特点。自顶向下的注意模型又称任务驱动的注意模型,需要先验知识的支持,根据特定对象的特点在场景中进行视觉搜索,与人的主观意识有关,是涉及记忆、控制等模块的分工协作,具有速度慢,受意识控制,任务驱动和闭环结构等特点。
目前的绝大部分模型和算法都采用的是第一种注意机制,然而关于显著性的估计方法却呈现出百花齐放,百家争鸣的趋势。一般可以将现有的视觉注意模型分为以下几类:认知模型(cognitive model),贝叶斯模型(Byes Model),决策论模型(decisiontheoretic model),信息论模型(information theoretic model),图模型(graphicalmodel),频谱分析模型(spectral analysis model)和模型分类模型(patternclassification model)。尽管大量的算法被提出,而且性能不断的提升,但是就目前的结果和实际上人眼的关注位置还是有很大的差异性。一方面的原因在于提取的特征区分能力不够,另一方面的原因在于没有发现的更好的模型来对显著值进行估算。
发明内容
要解决的技术问题
为了解决现有方法在自然图像中,显著区域检测效果差的问题,本发明提出了一种自底向上的基于深度学习的自然图像显著区域检测方法,可以自动的从复杂背景的自然图像中检测出相应的显著区域,并且取得比较高的准确率。
本发明的思想在于:
技术方案
一种基于深度学习的自然图像中显著区域的检测方法,其特征提取步骤如下:
步骤1、提取任意一幅待检测图像数据的视觉特征:
对任意一幅待检测图像数据进行下采样,然后进行N维特征的提取:
1.对下采样后的图像数据提取图像RGB通道的每个通道的特征值;
2.将下采样后的图像数据从RGB颜色空间转换到LAB颜色空间,并提取LAB颜色空间三个通道中每个通道的特征值;
分别计算L通道在灰度级参数bin1=8的直方图HL,A通道在灰度级参数bin2=16时的直方图HA,B通道在灰度级参数bin3=16时的灰度分布直方图HB,利用下述公式计算HL,HA,和HB三个直方图融合后的LAB颜色直方图Q:
Q=(HL-1)*bin2*bin3+(HA-1)*bin3+HB+1
3.将下采样后的图像数据从RGB颜色空间转换到HSV颜色空间,分别计算H通道在灰度级参数bin=8和S通道在灰度级参数bin=8下的直方图;
4.采用ITTI算法提取图像数据的方向,亮度,颜色对比度三类特征;
5.计算下采样后图像数据在4个方向3个尺度下的可控金字塔子频带特征;
6.采用SR,MZ,GBVS算法计算下采样后图像数据的显著图,并以显著图为显著特征;
7.对下采样后图像数据提取紧密度特征;
8.将下采样后图像数据用窗口为[w,w],偏差为x的高斯低通滤波器平滑,然后采用的Leung-Malik滤波器算法,计算平滑后图像的Leung-Malik滤波器最大响应特征;所述整数w为5~10;所述x为0.25~2.5;
9.计算下采样后图像数据中各个像素点到图像中心像素点的欧氏距离,然后归一化到[0,1]之间得到中心偏置特征;
10.采样水平线检测算法计算下采样后图像数据的水平线特征;
11.采样人脸检测算法提取下采样后图像数据的人脸特征;
12.采样目标银行特征提取算法提取下采样后图像数据的在行人,汽车,花朵,交通标志四种滤波模板下的特征;
将以上提取的特征构成特征矩阵[P,P,N],并将特征矩阵中每一维特征对应的二维矩阵[P,P]转化为长度为P*P的列向量,由此得到新的二维特征矩阵的维数为[P*P,N];其中:P为下采样后图像的长或者宽;
步骤2:利用深度学习中的深度玻尔兹曼机模型,以步骤1得到的二维特征矩阵为输入样本,并提取深度玻尔兹曼机学习的高层特征,并送入softmax分类器进行分类,以分类器对每一个像素点预测为正样本的概率值作为此像素点的显著值,由此得到长度为P*P的显著值列向量,缩放回采样后测试图像的大小,此采样后测试图像的显著图大小为[P,P];最后对得到的显著图像进行归一化操作,并缩放到采样前测试图像的尺度,得到此测试图像的最终显著图;
所述深度玻尔兹曼机和softmax分类器训练:随机选取Z幅图像样本,参照步骤1的特征提取过程,对每幅下采样后的样本图像进行特征提取,得到每幅样本图像的特征矩阵维数为[Py,Py,Ny];按照采样后每幅样本图片的Ground Truth中像素点的显著值大小进行由大到小的排序,在排序结果的前q%中随机选择数量在10~40之间的正样本点,在排序结果的后k%随机选取数量在10~40之间的负样本点;其中q取值为5~20,k取值为30~70;对于每一个随机选取的样本点来说,它对应N维的特征向量,每个样本的长度为N,得到矩阵维度为[R,N]的样本矩阵,R为样本的数量;并对样本矩阵采用ZCA白化对样本矩阵进行去冗余处理,然后用处理后的样本训练具有多个隐层的深度玻尔兹曼机以进行高层特征学习,并将带有标签信息的高层特征送入softmax分类器进行训练,并利用反向传播算法反向调整深度玻尔兹曼机和softmax分类器的学习参数,以此来实现模型较高的预测和分类能力。
所述ITTI算法采用A Model of Saliency-Based Visual Attention for RapidScene Analysis提出的ITTI算法。
所述在4个方向3个尺度下的可控金字塔子频带特征的计算采用Filter DesignTechniqueforSteerable Pyramid Image Transforms中给出的算法。
所述SR,MZ,GBVS算法采用Saliency Detection:A Spectral ResidualApproach,Contrast-based image attention analysis by using fuzzy growing,和Graph-based visual saliency中提出的SR,MZ,GBVS算法。
所述紧密度特征的采用Multi-scale Saliency Detection Using Random Walkwith Restart中提出的紧密度特征的计算方法。
所述Leung-Malik滤波器算法采用Salient Object Detection:ADiscriminative Regional Feature Integration Approach中的Leung-Malik滤波器算法。
所述水平线检测算法采用Modeling the shape of the scene:A holisticrepresentation of the spatial envelope中水平线检测算法。
所述人脸检测算法采用Robust real-time object detection中的人脸检测算法。
所述目标银行特征提取算采用Object Bank:A High-Level ImageRepresentation for Scene Classification and Semantic Feature Sparsification中提出的目标银行特征提取算法。
有益效果
本发明涉及一种利用深度学习进行自然图像中显著区域的检测方法,在训练阶段,首先在自然图像数据库上选取一定数量的图片提取基本特征,构成训练样本,然后利用深度学习模型对已提取特征进行再学习,从而得到更抽象更有区分能力的增强型高级特征,最后用学习到的特征训练分类器。在测试阶段,对于任意一幅测试图像,首先提取基本特征,然后利用训练好的深度模型,提取增强型高级特征,最后利用分类器进行显著性与否的预测,并把每个像素点的预测值作为这点的显著值。这样我们就得到整幅图像的显著图,显著值越大,就越显著。
本发明方法,通过提取一系列的底层,中层和高层特征构成训练特征样本集,然后利用深度学习算法提取增强型高级特征,实验结果表明我们学习到的特征具有更高的区分性和鲁棒性。本发明可以应用于复杂背景下自然图像中多区域的显著性检测。该方法具有较高的检测精度,相对于绝大部分的方法来说,具有明显的优势。
附图说明
图1:本发明方法的基本流程图。
图2:不同方法在两种数据库上的ROC曲线,a:MIT数据库上的ROC曲线,b:Toronto数据库上的ROC曲线。
图3:多种方法在多幅图片上的显著图。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
用于实施的硬件环境是:IntelPentium2.93GHz CPU计算机、4.0GB内存,运行的软件环境是:Matlab R2011b和Windows7。利用网上公布的MIT和Toronto数据库进行我们的实验,其中MIT数据库包含1003幅自然图像,Toronto数据库包含120幅图片。我们用Matlab软件实现了本发明提出的方法。
本发明具体实施如下:
步骤1提取图像数据的视觉特征:
本发明利用交叉验证每次选取903幅图像(最后一次为900幅)进行训练,利用剩余的图片进行测试。首先对训练集中每一幅图片进行37维特征的提取,下面分别介绍各个特征的提取方法及参数设置,其中所有的特征是基于对原始图像下采样到200*200的基础上提取到的:
●RGB通道:提取图像三个通道的特征值。
●LAB通道:从RGB颜色通道转换到LAB空间,提取三个通道的特征值。
●颜色直方图:设置LAB空间灰度级个数参数bin=[8,16,16],利用LAB三个通道的特征值,分别计算在相应参数下的灰度分布直方图,然后融合三个直方图得到LAB直方图。图像转换到HSV空间,计算在bin=[8,8]下,分别计算H和S通道在相应bin参数下的直方图。
●方向,亮度,颜色对比度特征:利用文章A Model of Saliency-Based VisualAttention for Rapid Scene Analysis提出的ITTI算法,提取三类特征。
●可控金字塔子频带特征:利用文章Filter Design TechniqueforSteerablePyramid Image Transforms中给出的算法,计算在4个方向3个尺度下的特征。
●SR,MZ,GBVS特征:分别利用文章Saliency Detection:A Spectral ResidualApproach,Contrast-based image attention analysis by using fuzzy growing,和Graph-based visual saliency中提出的SR,MZ,GBVS算法,计算图像的显著图,并以此作为特征。
●紧密度特征:利用文章Multi-scale Saliency Detection Using Random Walkwith Restart中提出的紧密度(Compactness)的计算方法,提取此特征。
●LM滤波器最大响应特征:下采样后的图像用窗口为[5,5],偏差为0.5的的高斯低通滤波器平滑,然后利用文章Salient Object Detection:A Discriminative RegionalFeature Integration Approach中采用的LM滤波器算法,得到此特征。
●中心偏置特征:计算采样后图像中各个像素点到图像中心像素点的欧氏距离,然后归一化到[0,1]之间。
●水平线检测特征:利用文章Modeling the shape of the scene:A holisticrepresentation of the spatial envelope中提出的水平线检测(Horizontallinedetector)算法,提取特征。
●人脸特征:利用文章Robust real-time object detection中给出的人脸检测算法,提取人脸特征.
●目标银行特征:利用文章Object Bank:A High-Level Image Representationfor Scene Classification and Semantic Feature Sparsification中提出的目标银行(object bank)特征提取算法,提取行人,车,花朵,交通标志四种模板下的特征。
对一副图像而言,经过以上的特征提取阶段之后,得到的特征矩阵是[200,200,37],换而言之,每一个像素点对应一个37维的特征。
步骤2模型训练:
本发明采用深度学习中的深度玻尔兹曼机(Deep Boltzmann Machine,简称DBM)模型,利用文章Efficient Learning of Deep Boltzmann Machine中给出的DBM学习算法,构建包含两个隐层的深度网络。其中输入层的节点数为37,第一隐层节点数为90,第二隐层节点数为60,输出层节点个数为2.各层的训练迭代次数可在100到300之间选择,此外mean-field的执行次数设置为5。对于样本的选择,根据每幅图片Ground Truth,按照显著值的大小排序,并在前5%中随机选择20个点作为正样本,在后70%随机选择20个点作为负样本,一共选择903幅图片用于训练。此外,在训练之前,本发明对样本进行了一些预处理,即使特征具有零均值,并采用ZCA白化对训练样本进行去冗余。
步骤3预测测试图像的显著性区域:
对于一副测试图像,首先要按照步骤1的说明,提取37维基本特征,其次,利用骤2中训练好的模型,把提取出来的特征送入此模型。因为有两个输出节点,故应选择在模型训练时与正样本标签相对应的节点的值,作为该点的显著值。最后对整幅图像进行归一化操作,并缩放到原始图像的大小,即可得到此图像的显著图。
步骤4ROC曲线的绘制和AUC的计算:
本发明采用接收者操作特征曲线(Receiver Operating Characteristic,简称ROC)和曲线下的面积(Area Under Curve简称AUC)进行评估。ROC曲线的横轴表示负例错分为正例的概率,纵轴表示正例分对的概率,曲线下方和坐标轴之间的面积就是AUC(整个坐标轴间的面积为1),AUC越大,检测效果越好,模型预测能力越强。本发明与多类算法在MIT和Toronto数据库上测试的AUC结果如下表格所示:
表1不同算法在两种数据上测试得到的AUC值
算法 | AIM | AWS | CLI | GB | MZ | SR | SUN | Judd | Ours |
MIT | 0.744 | 0.754 | 0.747 | 0.823 | 0.648 | 0.713 | 0.684 | 0.838 | 0.848 |
Toronto | 0.762 | 0.765 | 0.762 | 0.827 | 0.657 | 0.730 | 0.687 | 0.834 | 0.843 |
Claims (1)
1.一种基于深度学习的数据图像中显著区域的检测方法,其特征在于步骤如下:
步骤1、提取任意一幅待检测图像数据的视觉特征:
对任意一幅待检测图像数据进行下采样,然后进行N维特征的提取:
步骤1.1.对下采样后的图像数据提取图像RGB通道的每个通道的特征值;
步骤1.2.将下采样后的图像数据从RGB颜色空间转换到LAB颜色空间,并提取LAB颜色空间三个通道中每个通道的特征值;
分别计算L通道在灰度级参数bin1=8的直方图HL,A通道在灰度级参数bin2=16时的直方图HA,B通道在灰度级参数bin3=16时的灰度分布直方图HB,利用下述公式计算HL,HA,和HB三个直方图融合后的LAB颜色直方图Q:
步骤1.3.将下采样后的图像数据从RGB颜色空间转换到HSV颜色空间,分别计算H通道在灰度级参数bin=8和S通道在灰度级参数bin=8下的直方图;
步骤1.4.采用ITTI算法提取图像数据的方向,亮度,颜色对比度三类特征;
步骤1.5.计算下采样后图像数据在4个方向3个尺度下的可控金字塔子频带特征;
步骤1.6.采用SR, MZ, GBVS 算法计算下采样后图像数据的显著图,并以显著图为显著特征;
步骤1.7.对下采样后图像数据提取紧密度特征;
步骤1.8.将下采样后图像数据用窗口为[w,w],偏差为x的高斯低通滤波器平滑,然后采用的Leung-Malik 滤波器算法,计算平滑后图像的Leung-Malik滤波器最大响应特征;所述w为[5,10],w为整数;所述x为[0.25,2.5];
步骤1.9.计算下采样后图像数据中各个像素点到图像中心像素点的欧氏距离,然后归一化到[0,1]之间得到中心偏置特征;
步骤1.10.采样水平线检测算法计算下采样后图像数据的水平线特征;
步骤1.11.采样人脸检测算法提取下采样后图像数据的人脸特征;
步骤1.12.采样目标银行特征提取算法提取下采样后图像数据的在行人, 汽车, 花朵,交通标志四种滤波模板下的特征;
将以上提取的特征构成特征矩阵[P,P,N],并将特征矩阵中每一维特征对应的二维矩阵[P, P]转化为长度为P*P的列向量,由此得到新的二维特征矩阵的维数为[P*P, N];其中:P为下采样后图像的长或者宽;
步骤2:利用深度学习中的深度玻尔兹曼机模型,以步骤1得到的二维特征矩阵为输入样本,并提取深度玻尔兹曼机学习的高层特征,并送入softmax分类器进行分类,以分类器对每一个像素点预测为正样本的概率值作为此像素点的显著值,由此得到长度为P*P的显著值列向量,缩放回采样后测试图像的大小,此采样后测试图像的显著图大小为[P, P];最后对得到的显著图像进行归一化操作,并缩放到采样前测试图像的尺度,得到此测试图像的最终显著图;
所述深度玻尔兹曼机和softmax分类器训练:随机选取Z幅图像样本,参照步骤1的特征提取过程,对每幅下采样后的样本图像进行特征提取,得到每幅样本图像的特征矩阵维数为[Py, Py, Ny];按照采样后每幅样本图片的Ground Truth中像素点的显著值大小进行由大到小的排序,在排序结果的前q%中随机选择数量在[10,40]之间的正样本点,在排序结果的后k%随机选取数量在[10,40]之间的负样本点;其中q取值为[5,20],k取值为[30,70];对于每一个随机选取的样本点来说,它对应N维的特征向量,每个样本的长度为N,得到矩阵维度为[R, N]的样本矩阵,R为样本的数量;并对样本矩阵采用ZCA 白化对样本矩阵进行去冗余处理,然后用处理后的样本训练具有多个隐层的深度玻尔兹曼机以进行高层特征学习,并将带有标签信息的高层特征送入softmax 分类器进行训练,并利用反向传播算法反向调整深度玻尔兹曼机和softmax分类器的学习参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310739026.3A CN103810503B (zh) | 2013-12-26 | 2013-12-26 | 一种基于深度学习的自然图像中显著区域的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310739026.3A CN103810503B (zh) | 2013-12-26 | 2013-12-26 | 一种基于深度学习的自然图像中显著区域的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103810503A CN103810503A (zh) | 2014-05-21 |
CN103810503B true CN103810503B (zh) | 2017-02-01 |
Family
ID=50707244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310739026.3A Active CN103810503B (zh) | 2013-12-26 | 2013-12-26 | 一种基于深度学习的自然图像中显著区域的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103810503B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706296A (zh) * | 2019-10-11 | 2020-01-17 | 北京弘远博学科技有限公司 | 一种电子证件照片背景色合规性的批量自动检测方法 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103996195B (zh) * | 2014-05-26 | 2017-01-18 | 清华大学深圳研究生院 | 一种图像显著性检测方法 |
CN104063720A (zh) * | 2014-07-03 | 2014-09-24 | 浙江大学 | 基于深度玻尔兹曼机的电商网站违禁商品图片检测方法 |
CN104331412B (zh) * | 2014-09-23 | 2018-03-09 | 北京工业大学 | 一种在规格化三维人脸库中进行人脸检索的方法 |
CN104346812B (zh) * | 2014-10-13 | 2017-04-12 | 西北工业大学 | 基于鲁棒背景估计方法的高光谱图像局部目标检测方法 |
CN104408712B (zh) * | 2014-10-30 | 2017-05-24 | 西北工业大学 | 基于信息融合的隐马尔可夫显著区域检测方法 |
CN104537647B (zh) * | 2014-12-12 | 2017-10-20 | 中安消技术有限公司 | 一种目标检测方法及装置 |
CN104573731B (zh) * | 2015-02-06 | 2018-03-23 | 厦门大学 | 基于卷积神经网络的快速目标检测方法 |
CN105184369A (zh) * | 2015-09-08 | 2015-12-23 | 杭州朗和科技有限公司 | 用于深度学习模型的矩阵压缩方法和装置 |
CN105572136A (zh) * | 2015-12-15 | 2016-05-11 | 重庆瑞阳科技股份有限公司 | 一种外观缺陷测试中测试参数生成方法 |
CN105590319B (zh) * | 2015-12-18 | 2018-06-29 | 华南理工大学 | 一种深度学习的图像显著性区域检测方法 |
CN105894502B (zh) * | 2016-03-30 | 2019-10-11 | 浙江大学 | 基于超图模型的rgbd图像显著性检测方法 |
CN109643363B (zh) * | 2016-06-15 | 2023-06-09 | 诺基亚技术有限公司 | 特征提取和对象检测的方法、系统和装置 |
CN106204597B (zh) * | 2016-07-13 | 2019-01-11 | 西北工业大学 | 一种基于自步式弱监督学习的视频物体分割方法 |
CN106228165A (zh) * | 2016-07-27 | 2016-12-14 | 维沃移动通信有限公司 | 一种照片分类的方法和移动终端 |
KR102407815B1 (ko) * | 2016-12-22 | 2022-06-13 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
WO2018117662A1 (en) | 2016-12-22 | 2018-06-28 | Samsung Electronics Co., Ltd. | Apparatus and method for processing image |
CN106897675B (zh) * | 2017-01-24 | 2021-08-17 | 上海交通大学 | 双目视觉深度特征与表观特征相结合的人脸活体检测方法 |
CN106803080B (zh) * | 2017-01-24 | 2019-12-31 | 北京理工大学 | 一种基于形状玻尔兹曼机的补全式行人检测方法 |
CN108154102B (zh) * | 2017-12-21 | 2021-12-10 | 安徽师范大学 | 一种道路交通标志识别方法 |
CN108648209B (zh) * | 2018-04-08 | 2021-06-29 | 北京联合大学 | 一种显著性数据集的中心偏差的评测方法 |
CN108647695A (zh) * | 2018-05-02 | 2018-10-12 | 武汉科技大学 | 基于协方差卷积神经网络的低对比度图像显著性检测方法 |
CN109492573A (zh) * | 2018-11-05 | 2019-03-19 | 四川华雁信息产业股份有限公司 | 一种指针读取方法及装置 |
CN109492711B (zh) * | 2018-12-07 | 2020-08-25 | 杭州电子科技大学 | 基于深度学习的恶性黑色素瘤及非恶性黑色素痣分类系统 |
CN110070107B (zh) * | 2019-03-26 | 2020-12-25 | 华为技术有限公司 | 物体识别方法及装置 |
CN110120009B (zh) * | 2019-05-09 | 2022-06-07 | 西北工业大学 | 基于显著物体检测和深度估计算法的背景虚化实现方法 |
CN110363752B (zh) * | 2019-07-08 | 2022-10-14 | 创新奇智(青岛)科技有限公司 | 一种成衣材质缺陷模拟生成方法、计算机可读介质及系统 |
CN110705566B (zh) * | 2019-09-11 | 2021-07-13 | 浙江科技学院 | 一种基于空间金字塔池的多模态融合显著性检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509099A (zh) * | 2011-10-21 | 2012-06-20 | 清华大学深圳研究生院 | 一种图像显著区域检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020154833A1 (en) * | 2001-03-08 | 2002-10-24 | Christof Koch | Computation of intrinsic perceptual saliency in visual environments, and applications |
-
2013
- 2013-12-26 CN CN201310739026.3A patent/CN103810503B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509099A (zh) * | 2011-10-21 | 2012-06-20 | 清华大学深圳研究生院 | 一种图像显著区域检测方法 |
Non-Patent Citations (2)
Title |
---|
"A Model of Saliency-based Visual Attention for Rapid Scene Analysis";Laurent Itti etc.;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20020806;第20卷;第1-5页 * |
基于显著区域的图像自动标注;尹文杰等;《计算机应用研究》;20111031;第28卷(第10期);3925-3933 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706296A (zh) * | 2019-10-11 | 2020-01-17 | 北京弘远博学科技有限公司 | 一种电子证件照片背景色合规性的批量自动检测方法 |
CN110706296B (zh) * | 2019-10-11 | 2023-06-16 | 北京弘远博学科技有限公司 | 一种电子证件照片背景色合规性的批量自动检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103810503A (zh) | 2014-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103810503B (zh) | 一种基于深度学习的自然图像中显著区域的检测方法 | |
CN111062973B (zh) | 基于目标特征敏感性和深度学习的车辆跟踪方法 | |
CN106447658B (zh) | 基于全局和局部卷积网络的显著性目标检测方法 | |
CN111415316B (zh) | 基于生成对抗网络的缺陷数据合成方法 | |
CN109635694B (zh) | 一种行人检测方法、装置、设备及计算机可读存储介质 | |
CN104050471B (zh) | 一种自然场景文字检测方法及系统 | |
WO2019140767A1 (zh) | 安检识别系统及其控制方法 | |
CN104778464B (zh) | 一种基于深度卷积神经网络的服装定位检测方法 | |
CN106504255B (zh) | 一种基于多标签多示例学习的多目标图像联合分割方法 | |
CN108304873A (zh) | 基于高分辨率光学卫星遥感影像的目标检测方法及其系统 | |
CN109902806A (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
CN106529448A (zh) | 利用聚合通道特征进行多视角人脸检测的方法 | |
CN105046197A (zh) | 基于聚类的多模板行人检测方法 | |
CN107145845A (zh) | 基于深度学习及多特征点融合的行人检测方法 | |
CN105512684A (zh) | 基于主成分分析卷积神经网络的车标自动识别方法 | |
CN105261017A (zh) | 基于路面约束的图像分割法提取行人感兴趣区域的方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN108647625A (zh) | 一种表情识别方法及装置 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN104715244A (zh) | 一种基于肤色分割和机器学习的多视角人脸检测方法 | |
CN101551853A (zh) | 复杂静态彩色背景下的人耳检测方法 | |
CN105069774B (zh) | 基于多示例学习与图割优化的目标分割方法 | |
CN107369158A (zh) | 基于rgb‑d图像的室内场景布局估计及目标区域提取方法 | |
CN104123529A (zh) | 人手检测方法及系统 | |
CN107066916A (zh) | 基于反卷积神经网络的场景语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240424 Address after: Room 531, 5th Floor, Building A3A4, Phase I of Chuanggu Science and Technology Park, No. 900 Wangjiang West Road, High tech Zone, Hefei City, Anhui Province, 230088 Patentee after: Hefei Weizhi Zhongxiang Technology Co.,Ltd. Country or region after: China Address before: 710072 No. 127 Youyi West Road, Shaanxi, Xi'an Patentee before: Northwestern Polytechnical University Country or region before: China |