CN106570910A - 基于自编码特征和近邻模型的图像自动标注方法 - Google Patents
基于自编码特征和近邻模型的图像自动标注方法 Download PDFInfo
- Publication number
- CN106570910A CN106570910A CN201610944327.3A CN201610944327A CN106570910A CN 106570910 A CN106570910 A CN 106570910A CN 201610944327 A CN201610944327 A CN 201610944327A CN 106570910 A CN106570910 A CN 106570910A
- Authority
- CN
- China
- Prior art keywords
- image
- feature
- coding
- color
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
Abstract
本发明涉及一种图像理解领域的标注建模方法,具体是一种基于自编码特征和近邻模型的图像自动标注方法,利用可伸缩颜色特征、同质纹理特征、边缘直方图特征、网格颜色矩特征和小波矩特征的融合作为图像视觉特征向量,并对视觉特征向量使用深度自编码机进行图像编码,提出近邻方法,使用图像编码特征对测试图像进行自动标注,使用深度学习算法获得图像自编码特征,基于图像自编码特征使用近邻模型实现图像自动标注,获得较高的标注准确性。
Description
技术领域
本发明涉及一种图像理解领域的标注建模方法,具体是一种基于自编码特征和近邻模型的图像自动标注方法。
背景技术
在现有技术中,自动图像标注的目标是根据图像内容生成可直观理解的文本语言来描述图像,在图像理解、目标识别、基于语义关键字的图像检索中起着至关重要的作用。自动图像标注的关键在于有效的建立从图像的低层特征到高层语义的映射关系。现有的映射方法重点研究以下是三个方面:一是提取合适的图像低层视觉特征;二是建立图像内容的语义描述方法;三是提供有效的语义映射的方法,建立低层视觉特征到语义描述的映射。
现有技术中的自动图像标注方法分为三大类:一类是基于分类的图像标注方法;二是关联图像和语义的建模方法;三是基于近邻的图像标注方法。这些方法还可以借助相关反馈技术和网络元数据对标注进行改善,但这些模型多属于浅层结构,近年来随着深度学习的发展,一些有效的深度学习模型被用于图像识别,可取得更准确的标注结果。
发明内容
针对利用自编码机对图像特征进行编码,然后使用近邻模型找出测试图像的近邻图像,根据近邻图像的原始标注获得测试图像标注结果,本发明提供基于自编码特征和近邻模型的图像自动标注方法。
本发明的具体技术方案如下:基于自编码特征和近邻模型的图像自动标注方法,包括以下步骤:
A:提取图像库中图像的可伸缩颜色特征、同质纹理特征、边缘直方图特征、网格颜色矩特征和小波矩特征,获得每幅图像的低层融合特征向量;
B:利用深度自动编码机对图像库所有图像的融合特征向量进行自编码,获得相应的自编码特征;
C:对测试图像根据自编码特征找到28个近邻训练图像,利用该组近邻训练图像的语义标注采用近邻模型完成测试图像自动标注。
步骤A进一步包括:
A1:提取一幅图像的网格颜色矩特征;
A2:提取一幅图像的可伸缩颜色特征;
A3:提取一幅图像的边缘直方图特征;
A4:提取一幅图像的同质纹理特征;
A5:提取一幅图像的小波矩图特征。
步骤A1进一步包括:
A1.1:将图像均匀分割成5行5列共25个小块;
A1.2:对每个小块,计算YUV颜色空间下三个颜色分量的一阶矩、二阶矩和三阶矩;
A1.3:由所有小块的三个矩构成网格颜色矩描述子,大小为225维。
步骤A2进一步包括:
A2.1:将HSV颜色空间下图像的H、S和V分量的取值分别均匀量化为16、4、4个等级,S和V分量的取值范围均匀量化为4个等级,共形成16×4×4=256种组合;
A2.2:统计每种组合中包含的像素个数,得到图像的像素直方图;
A2.3:对所得的像素直方图进行Haar变换,变换系数作为可伸缩颜色颜色特征。
步骤A3进一步包括:
A3.1:将图像变换为灰度图并均匀分割成4行4列共16个图像块;
A3.2:对每个图像块,统计其包含8×8像素子块的个数,并将每个子块归为水平、竖直、45°边缘、135°边缘和无方向边缘五类之一;
A3.3:由16个图像块的边缘直方图合并为80维的边缘直方图特征。
步骤A4进一步包括:
A4.1:计算图像像素的均值和方差;
A4.2:对图像依次进行radon变换和傅里叶变换,并利用Gabor滤波器组提取频域特征,Gabor变换函数如下:
其中s=5,r=6,上式即第s个径向第r个角度的Gabor变换函数,分别表示在第s个径向与第r个角度上变换函数的标准差;
A4.3:针对第i个滤波器变换计算:
ei=log[1+pi]
di=log[1+qi]
其中:
F(ω,θ)为图像的傅里叶变换。
步骤A5进一步包括:
A5.1:在极坐标下的图像表示f(r,θ)进行角度积分,如下所示:
Sq(r)=∫θf(r,θ)ejqθdθ
其中参数q取值范围为1-9;
A5.2:构造小波函数族:
φm,n(r)=2m/2φ(2mr-n/2)
其中m取值为0或1;n=0,1,…,2m+1,且:
参数a=0.697066;c=3;f0=0.409177;σ2=0.561145;
A5.3:利用上A5.2小波函数进行积分计算
Wmnq=∫rφm,n(r)rSq(r)dr
所得72维数据即为同质纹理特征。
每幅图像的可伸缩颜色特征、同质纹理特征、边缘直方图特征、网格颜色矩特征和小波矩特征组合成一个695维向量作为该图像的视觉特征。
步骤B进一步包括:自动编码机使用多层神经网络将高维输入向量转换为低维编码,使用的自动编码机将权利要求7中获得的695维图像视觉特征作为输入;
所述自动编码机共包含4个限制玻尔兹曼机,第一个限制玻尔兹曼机所学习的特征作为输入用于训练中第二个限制玻尔兹曼机,第二个限制玻尔兹曼机所学习的特征作为输入用于训练中第三个限制玻尔兹曼机,第三个限制玻尔兹曼机所学习的特征作为输入用于训练中第四个限制玻尔兹曼机;4个限制玻尔兹曼机输入输出大小依次为695×8000、8000×2000、2000×400和400×30;
所述自编码机使用误差导数的反向传播进行细调,使用细调后的权重矩阵计算每幅图像的30维自编码特征。
步骤C进一步包括:根据步骤B的自编码特征计算出其与已标注训练图像之间的距离,以确定测试图像的近邻图像集合;
设Ii表示训练图像库T中第i幅图像,采用余弦距离度量图像Ii和It之间的距离,并将距离从小到大进行排序,取距离最小的前28幅图像作为It的近邻图像集合,利用近邻图像的原始标注关键字标注测试图像,计算方法为:
其中P(w/It)为测试图像It标注关键字w的概率,N=28表示紧邻图像个数为28幅,dti表示测试图像It与第i幅近邻图像的余弦距离,pwi表示第i幅近邻图像标注了关键字w的次数,根据上式计算出每个关键字标注测试图像It的概率,测试图像的标注结果为具有最大标注概率的五个关键字。
本发明的有益之处:
1、在使用包括了颜色、纹理和形状的可伸缩颜色特征、同质纹理特征、边缘直方图特征、网格颜色矩特征和小波矩特征五种视觉特征表示图像基础上,使用深度学习模型获得图像自编码特征;
2、基于图像自编码特征使用近邻模型实现图像自动标注,获得较高的标注准确性。
附图说明
图1为基于自编码特征和近邻模型的图像自动标注流程;
图2为深度自动编码机的编码与解码;
图3为测试图像标注示例;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细描述。应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
本图像自动标注方法的工作原理:在图像特征自编码阶段,首先提取图像颜色、纹理和形状特征,包括可伸缩颜色特征、同质纹理特征、边缘直方图特征、网格颜色矩特征和小波矩特征,将上述特征作为深度自动编码机的输入,经过预训练和细调,得到图像自编码特征,使用自编码特征寻找测试图像的近邻图像集合,进行标注时将图像自编码特征间的余弦距离以及图像标注关键字的标注频率作为影响因素。
如图1所示,为本发明基于自编码特征和近邻方法的图像自动标注流程,在一实施例中,标注图像库采用PascalVOC07(Pascal Visual Object Classes Challenge 2007)图像库,该图像库是测试目标检测及分类和自动图像标注算法性能的数据库。PascalVOC07图像库共包括9963幅图像,手工标注有20个独立的关键字,分别是person、bird、cat、cow、dog、horse、sheep、aeroplane、bicycle、boat、bus、car、motorbike、train、bottle、chair、dining table、pottedplant、sofa、以及tv/monitor。每幅图像平均标注有2.47个关键字。对该图像库中的图像做如下处理:
1.图像低层视觉特征提取部分
所使用的图像低层视觉特征包括可伸缩颜色特征、同质纹理特征、边缘直方图特征、网格颜色矩特征和小波矩特征五个特征。
1.1网格颜色矩特征
对一幅图像,首先判断图像是否为YUV颜色空间,若不是则转换到YUV颜色空间中。然后将图像均匀分割成5×5大小的图像块,如果每行或列的像素数不是5的整倍数,则不能整除部分作为最后一行或列的图像块的一部分。对二十五个图像块,分别计算Y、U、V三个颜色通道的一阶矩、二阶矩和三阶矩数值,将这些数值按照图像块先列后行依次按Y、U、V通道构成255维的向量,作为网格颜色矩描述子。
1.2可伸缩颜色特征
对一幅图像,首先判断图像是否为HSV颜色空间,若不是则转换到HSV颜色空间中。然后将图像的H分量的取值均匀量化为16个等级,S和V分量的取值分别均匀量化为4个等级,共形成16×4×4=256种组合。根据图像每个像素H、S、V分量取值判断该像素属于256种组合的哪一种,对图像所有像素统计每种组合中包含的像素个数,得到图像的像素直方图。最后对所得的像素直方图进行Haar变换,变换系数作为可伸缩颜色颜色特征。
1.3边缘直方图特征
对一幅图像,首先将图像变换为灰度图,然后均匀分割成4行4列共16个图像块。对每个图像块,统计其包含8×8像素子块的个数,并根据边缘检测算子将每个子块归为五类之一,即:水平、竖直、45°、135°边缘和无方向边缘,对应的边缘检测算子如下表所示:
对每个图像块统计其包含五类边缘个数,把16个图像块的边缘直方图合并,得到一个80维的边缘直方图描述子。
1.4同质纹理特征
对一幅图像,首先求取图像像素的均值和方差。然后对图像进行radon变换,对变换后的图像再进行傅里叶变换。其次利用Gabor滤波器组提取频域特征,Gabor变换函数如下:
上式即表示在第s个径向第r个角度的Gabor变换函数。其中 分别表示变换函数在第s个径向与第r个角度上的标准差。将频域空间划分为5个径向方向和6个角度方向,则需要构造出30个滤波器,变换函数的参数取值如下表所示
表1径向方向参数
表2角度方向参数
计算第i个特征通道的能量和方差:
ei=log[1+pi]
di=log[1+qi]
其中:
F(ω,θ)为图像的傅里叶变换。
1.5小波矩特征
首先在极坐标下的图像表示f(r,θ)进行角度积分,如下所示:
Sq(r)=∫θf(r,θ)ejqθdθ
其中参数q取值范围为1-9。然后构造小波函数族:
φm,n(r)=2m/2φ(2mr-n/2)
其中m取值为0或1;n=0,1,…,2m+1,且:
参数a=0.697066;c=3;f0=0.409177;σ2=0.561145。利用上述小波函数进行积分计算
Wmnq=∫rφm,n(r)rSq(r)dr
所得72维数据即为同质纹理特征。
对每幅图像,将上述五个特征依次排列,可以得到一个695维特征向量。
2.图像特征自编码
自动编码机包含4个限制玻尔兹曼机,如图2所示,4个限制玻尔兹曼机输入输出大小依次为695×8000、8000×2000、2000×400和400×30,预训练时第一个限制玻尔兹曼机的输入为图像的695维特征向量,后3个限制玻尔兹曼机的输入依次为前一个限制玻尔兹曼机的输出。4个限制玻尔兹曼机输入层和输出层之间的权重矩阵分别记为w1、w2、w3、w4。预训练时使用了全部9963幅图像的视觉特征。为了加快训练速度,以100幅图像为一组,共形成100小组图像集,每小组数据集进行预训练后依次更新权重矩阵。每个限制玻尔兹曼机利用全部数据集进行预训练100次。为了提高自动编码机训练精度,使用共轭梯度方法对权重矩阵进行细调。细调时仍然使用全部9963幅图像的视觉特征,以1000幅图像为一组,共形成10组图像集。在10组图像集上重复细调100次,所得权重矩阵作为最后结果。将每幅图像的视觉特征与权重矩阵依次进行矩阵相乘,可得图像对应的30维自编码特征。
3.基于近邻模型的图像标注
如图3所示,为本发明一实施例所测试图像标注的示例,获得图像的自编码特征后,使用近邻方法对测试图像进行标注。进行标注时,使用将8967幅作为训练集,其余996幅作图像为测试集,训练测试比为9:1。训练集合与测试集合中每个关键字标注的图像数目及标注次数统计见下表。
图像库中关键字标注图像数及标注次数统计
对于任一个测试图像It,首先根据自编码特征计算出其与已标注训练图像之间的距离,以确定测试图像的近邻图像集合。设Ii表示训练图像库T中第i幅图像,采用余弦距离度量图像Ii和It之间的距离,并将距离从小到大进行排序。取距离最小的前28幅图像作为It的近邻图像集合。利用近邻图像的原始标注关键字标注测试图像,计算方法为:
其中P(w/It)为测试图像It标注关键字w的概率,N=28表示紧邻图像个数为28幅,dti表示测试图像It与第i幅近邻图像的余弦距离,pwi表示第i幅近邻图像标注了关键字w的次数,根据上式计算出每个关键字标注测试图像It的概率,测试图像的标注结果为具有最大标注概率的五个关键字。衡量标注效果时,采用三种度量方式对标注结果进行评价,包括准确率、标全率。对于某一关键字j,假设在测试图像库中,实际该关键字的图像数目是NGj,用上述方法标注了该关键字的图像数目为NMj,其中标注正确的图像数目是NCj,则准确率、标全率分别用下式计算:
Precisionj=NCj/NMj
Recallj=NCj/NGj
下表给出了用上述方法标注结果统计。
各关键字标注结果统计
与基于标签传递机制的标注方法相比,准确率和标全率对比如下:
与基于标签传递方法的标注结果比对
从比对的数据获得,本发明基于深度编码特征利用近邻模型进行图像标注,无论是从准确率还是标全率都较传统的标注方法有更有效的提升,更准确的标注结果。
对于本领域的普通技术人员而言,根据本发明的教导,在不脱离本发明的原理与精神的情况下,对实施方式所进行的改变、修改、替换和变型仍落入本发明的保护范围之内。
Claims (10)
1.基于自编码特征和近邻模型的图像自动标注方法,其特征在于,包括以下步骤:
A:提取图像库中图像的可伸缩颜色特征、同质纹理特征、边缘直方图特征、网格颜色矩特征和小波矩特征,获得每幅图像的低层融合特征向量;
B:利用深度自动编码机对图像库所有图像的融合特征向量进行自编码,获得相应的自编码特征;
C:对测试图像根据自编码特征采用近邻方法找到28个近邻训练图像,利用该组近邻训练图像的语义标注从而完成测试图像自动标注。
2.如权利要求1所述基于自编码特征和近邻模型的图像自动标注方法,其特征在于,步骤A进一步包括:
A1:提取一幅图像的网格颜色矩特征;
A2:提取一幅图像的可伸缩颜色特征;
A3:提取一幅图像的边缘直方图特征;
A4:提取一幅图像的同质纹理特征;
A5:提取一幅图像的小波矩图特征。
3.如权利要求2所述基于自编码特征和近邻模型的图像自动标注方法,其特征在于,步骤A1进一步包括:
A1.1:将图像均匀分割成5行5列共25个小块;
A1.2:对每个小块,计算YUV颜色空间下三个颜色分量的一阶矩、二阶矩和三阶矩;
A1.3:由所有小块的三个矩构成网格颜色矩描述子,大小为225维。
4.如权利要求2所述基于自编码特征和近邻方法的图像自动标注模型,其特征在于,步骤A2进一步包括:
A2.1:将HSV颜色空间下图像的H、S和V分量的取值分别均匀量化为16、4、4个等级,S和V分量的取值范围均匀量化为4个等级,共形成16×4×4=256种组合;
A2.2:统计每种组合中包含的像素个数,得到图像的像素直方图;
A2.3:对所得的像素直方图进行Haar变换,变换系数作为可伸缩颜色颜色特征。
5.如权利要求2所述基于自编码特征和近邻模型的图像自动标注方法,其特征在于,步骤A3进一步包括:
A3.1:将图像变换为灰度图并均匀分割成4行4列共16个图像块;
A3.2:对每个图像块,统计其包含8×8像素子块的个数,并将每个子块归为水平、竖直、45°边缘、135°边缘和无方向边缘五类之一;
A3.3:由16个图像块的边缘直方图合并为80维的边缘直方图特征。
6.如权利要求2所述基于自编码特征和近邻模型的图像自动标注方法,其特征在于,步骤A4进一步包括:
A4.1:计算图像像素的均值和方差;
A4.2:对图像依次进行radon变换和傅里叶变换,并利用Gabor滤波器组提取频域特征,Gabor变换函数如下:
其中s=5,r=6,上式即第s个径向第r个角度的Gabor变换函数,分别表示在第s个径向与第r个角度上变换函数的标准差;
A4.3:针对第i个滤波器变换计算:
ei=log[1+pi]
di=log[1+qi]
其中:
F(ω,θ)为图像的傅里叶变换。
7.如权利要求2所述基于自编码特征和近邻模型的图像自动标注方法,其特征在于,步骤A5进一步包括:
A5.1:在极坐标下的图像表示f(r,θ)进行角度积分,如下所示:
Sq(r)=∫θf(r,θ)ejqθdθ
其中参数q取值范围为1-9;
A5.2:构造小波函数族:
φm,n(r)=2m/2φ(2mr-n/2)
其中m取值为0或1;n=0,1,…,2m+1,且:
参数a=0.697066;c=3;f0=0.409177;σ2=0.561145;
A5.3:利用上A5.2小波函数进行积分计算
Wmnq=∫rφm,n(r)rSq(r)dr
所得72维数据即为同质纹理特征。
8.如权利要求2-7之一所述基于自编码特征和近邻模型的图像自动标注方法,其特征在于,每幅图像的可伸缩颜色特征、同质纹理特征、边缘直方图特征、网格颜色矩特征和小波矩特征组合成一个695维向量作为该图像的视觉特征。
9.如权利要求8所述基于自编码特征和近邻模型的图像自动标注方法,其特征在于,步骤B进一步包括:自动编码机使用多层神经网络将高维输入向量转换为低维编码,使用的自动编码机将权利要求7中获得的695维图像视觉特征作为输入;
所述自动编码机共包含4个限制玻尔兹曼机,第一个限制玻尔兹曼机所学习的特征作为输入用于训练中第二个限制玻尔兹曼机,第二个限制玻尔兹曼机所学习的特征作为输入用于训练中第三个限制玻尔兹曼机,第三个限制玻尔兹曼机所学习的特征作为输入用于训练中第四个限制玻尔兹曼机;4个限制玻尔兹曼机输入输出大小依次为695×8000、8000×2000、2000×400和400×30;
所述自编码机使用误差导数的反向传播进行细调,使用细调后的权重矩阵计算每幅图像的30维自编码特征。
10.如权利要求1所述基于自编码特征和近邻模型的图像自动标注方法,其特征在于,步骤C进一步包括:根据步骤B的自编码特征计算出其与已标注训练图像之间的距离,以确定测试图像的近邻图像集合;
设Ii表示训练图像库T中第i幅图像,采用余弦距离度量图像Ii和It之间的距离,并将距离从小到大进行排序,取距离最小的前28幅图像作为It的近邻图像集合,利用近邻图像的原始标注关键字标注测试图像,计算方法为:
其中P(w/It)为测试图像It标注关键字w的概率,N=28表示紧邻图像个数为28幅,dti表示测试图像It与第i幅近邻图像的余弦距离,pwi表示第i幅近邻图像标注了关键字w的次数,根据上式计算出每个关键字标注测试图像It的概率,测试图像的标注结果为具有最大标注概率的五个关键字。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610944327.3A CN106570910B (zh) | 2016-11-02 | 2016-11-02 | 基于自编码特征和近邻模型的图像自动标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610944327.3A CN106570910B (zh) | 2016-11-02 | 2016-11-02 | 基于自编码特征和近邻模型的图像自动标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106570910A true CN106570910A (zh) | 2017-04-19 |
CN106570910B CN106570910B (zh) | 2019-08-20 |
Family
ID=58536578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610944327.3A Active CN106570910B (zh) | 2016-11-02 | 2016-11-02 | 基于自编码特征和近邻模型的图像自动标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106570910B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107846576A (zh) * | 2017-09-30 | 2018-03-27 | 北京大学 | 用于视觉特征数据编解码的方法及系统 |
CN108344931A (zh) * | 2018-02-06 | 2018-07-31 | 国网山西省电力公司电力科学研究院 | 基于紫外图谱技术的电力设备安全分析系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101963995A (zh) * | 2010-10-25 | 2011-02-02 | 哈尔滨工程大学 | 基于特征场景的图像标注方法 |
CN102063480A (zh) * | 2010-12-24 | 2011-05-18 | 北京神舟航天软件技术有限公司 | 基于Haar变换的实现多维直方图的方法 |
CN102663392A (zh) * | 2012-02-29 | 2012-09-12 | 浙江大学 | 一种基于拉普拉斯算子的图像特征提取方法 |
CN102706881A (zh) * | 2012-03-19 | 2012-10-03 | 天津工业大学 | 基于机器视觉的布匹瑕疵检测方法 |
CN103853724A (zh) * | 2012-11-29 | 2014-06-11 | 三星电子(中国)研发中心 | 多媒体数据分类方法及装置 |
CN104021224A (zh) * | 2014-06-25 | 2014-09-03 | 中国科学院自动化研究所 | 基于逐层标签融合深度网络的图像标注方法 |
CN104504721A (zh) * | 2015-01-08 | 2015-04-08 | 中国科学院合肥物质科学研究院 | 一种基于Gabor小波变换纹理描述的非结构化道路检测方法 |
-
2016
- 2016-11-02 CN CN201610944327.3A patent/CN106570910B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101963995A (zh) * | 2010-10-25 | 2011-02-02 | 哈尔滨工程大学 | 基于特征场景的图像标注方法 |
CN102063480A (zh) * | 2010-12-24 | 2011-05-18 | 北京神舟航天软件技术有限公司 | 基于Haar变换的实现多维直方图的方法 |
CN102663392A (zh) * | 2012-02-29 | 2012-09-12 | 浙江大学 | 一种基于拉普拉斯算子的图像特征提取方法 |
CN102706881A (zh) * | 2012-03-19 | 2012-10-03 | 天津工业大学 | 基于机器视觉的布匹瑕疵检测方法 |
CN103853724A (zh) * | 2012-11-29 | 2014-06-11 | 三星电子(中国)研发中心 | 多媒体数据分类方法及装置 |
CN104021224A (zh) * | 2014-06-25 | 2014-09-03 | 中国科学院自动化研究所 | 基于逐层标签融合深度网络的图像标注方法 |
CN104504721A (zh) * | 2015-01-08 | 2015-04-08 | 中国科学院合肥物质科学研究院 | 一种基于Gabor小波变换纹理描述的非结构化道路检测方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107846576A (zh) * | 2017-09-30 | 2018-03-27 | 北京大学 | 用于视觉特征数据编解码的方法及系统 |
WO2019061836A1 (zh) * | 2017-09-30 | 2019-04-04 | 北京大学 | 用于视觉特征数据编解码的方法及系统 |
CN107846576B (zh) * | 2017-09-30 | 2019-12-10 | 北京大学 | 用于视觉特征数据编解码的方法及系统 |
US11490134B2 (en) | 2017-09-30 | 2022-11-01 | Peking University | Method and system for codec of visual feature data |
CN108344931A (zh) * | 2018-02-06 | 2018-07-31 | 国网山西省电力公司电力科学研究院 | 基于紫外图谱技术的电力设备安全分析系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106570910B (zh) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108428229B (zh) | 一种基于深度神经网络提取表观和几何特征的肺部纹理识别方法 | |
CN104021394B (zh) | 基于AdaBoost算法的绝缘子图像识别方法 | |
CN102541954B (zh) | 一种商标检索方法及系统 | |
CN107256246A (zh) | 基于卷积神经网络的印花织物图像检索方法 | |
CN108052946A (zh) | 一种基于卷积神经网络的高压机柜开关自动识别方法 | |
CN104299009B (zh) | 基于多特征融合的车牌字符识别方法 | |
CN105574534A (zh) | 基于稀疏子空间聚类和低秩表示的显著性目标检测方法 | |
CN107833213A (zh) | 一种基于伪真值自适应法的弱监督物体检测方法 | |
CN104268593A (zh) | 一种小样本情况下多稀疏表示的人脸识别方法 | |
CN105243139A (zh) | 一种基于深度学习的三维模型检索方法及其检索装置 | |
CN106776545A (zh) | 一种通过深度卷积神经网络进行短文本间相似度计算的方法 | |
CN109829924B (zh) | 一种基于主体特征分析的图像质量评价方法 | |
CN103336835B (zh) | 基于权值color‑sift特征字典的图像检索方法 | |
CN107481236A (zh) | 一种屏幕图像的质量评价方法 | |
CN107944428A (zh) | 一种基于超像素集的室内场景语义标注方法 | |
CN104268140B (zh) | 基于权重自学习超图和多元信息融合的图像检索方法 | |
CN104751175B (zh) | 基于增量支持向量机的sar图像多类标场景分类方法 | |
Huang et al. | Qualitynet: Segmentation quality evaluation with deep convolutional networks | |
CN104298974A (zh) | 一种基于深度视频序列的人体行为识别方法 | |
CN109726746A (zh) | 一种模板匹配的方法及装置 | |
CN104268590A (zh) | 基于互补性组合特征与多相回归的盲图像质量评价方法 | |
CN107992783A (zh) | 人脸图像处理方法及装置 | |
CN104361096A (zh) | 一种基于特征富集区域集合的图像检索方法 | |
CN108009191A (zh) | 一种图像检索方法 | |
CN110727819A (zh) | 一种尺度自适应病理全切片图像数据库检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |