CN109902690A - 图像识别技术 - Google Patents

图像识别技术 Download PDF

Info

Publication number
CN109902690A
CN109902690A CN201711286335.4A CN201711286335A CN109902690A CN 109902690 A CN109902690 A CN 109902690A CN 201711286335 A CN201711286335 A CN 201711286335A CN 109902690 A CN109902690 A CN 109902690A
Authority
CN
China
Prior art keywords
image
feature
information
classification
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201711286335.4A
Other languages
English (en)
Inventor
宋建江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhenjiang Changsheng Information Technology Consulting Service Co Ltd
Original Assignee
Zhenjiang Changsheng Information Technology Consulting Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhenjiang Changsheng Information Technology Consulting Service Co Ltd filed Critical Zhenjiang Changsheng Information Technology Consulting Service Co Ltd
Priority to CN201711286335.4A priority Critical patent/CN109902690A/zh
Publication of CN109902690A publication Critical patent/CN109902690A/zh
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种图像识别技术,其中,包括:采集图像信息;对图像信息进行分析,对图像信息进行归类;将图像分析的结果、获取的归类信息与信息库中原型模板进行模型匹配,完成模式空间到类别空间的转换,输出匹配结果类别。本发明在图像匹配中,比较不同图像颜色集之间的距离和色彩区域的空间关系(包括区域的分离、包含、交等,每种对应于不同得评分),因为颜色集表达为二进制的特征向量,可以构造二分查找树来加快检索速度,这对于大规模的图像集合十分有利。

Description

图像识别技术
技术领域
本发明涉及一种图像识别技术,尤其涉及一种用以确定图像信息类别场景的图像识别技术。
背景技术
图像识别,是指利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。
自动图像识别系统的过程分为五部分:图像输入、图像处理、特征提取、分类和匹配,图像输入一般通过摄像头、扫描设备输入,图像处理和特征提取通过数字图像处理技术(Digital Image Processing)实现,即通过计算机对图像进行去除噪声、增强、复原、分割、提取特征等处理的方法和技术,分类和匹配即图像配准,采用基于灰度信息的图像配准方法,这种方法一般不需要对图像进行复杂的预先处理,而是利用图像本身具有灰度的一些统计信息来度量图像的相似程度。
基于灰度信息的图像配准方法主要特点是实现简单,但应用范围较窄,不能直接用于校正图像的非线性形变,在最优变换的搜索过程中往往需要巨大的运算量,此方法大致可以分为三类:互相关法(也称模板匹配法)、序贯相似度检测匹配法、交互信息法。图像分类基于特征提取的haar-like特征。
特征提取时,颜色作为一种重要的视觉信息属性,是图像信息中很重要的的一种特征,颜色特征对于旋转、平移、尺度变化等各种变形都不敏感,表现出相当强的鲁棒性,但对颜色特征取样有多种格式,将其转化为便于分析处理的数据难易程度,方便性都有很大区别。
形状特征受各种形变的影响很大,极易受到噪声干扰,保持在一个较小误差下提取纹理特征的算法模型就很重要,为了减小噪声干扰,合适的降噪处理必不可少。
颜色特征、纹理特征、形状特征这三种低层特征提取是图像分析的基础,基于语义层次的高层特征提取需要根据低层特征提取的结果训练出分类器,如何设计低层特征提取与高层语义关联是本说明书说明的图像识别技术的重点技术问题。。
发明内容
本发明公开了一种图像识别技术,用以解决如何设计低层特征提取与高层语义联是本说明书说明的图像识别技术的重点技术问题。
本发明的上述目的是通过以下技术方案实现的:
一种图像识别技术,其中,包括:采集图像信息;对图像信息进行分析,对图像信息进行归类;将图像分析的结果、获取的归类信息与信息库中原型模板进行模型匹配,完成模式空间到类别空间的转换,输出匹配结果类别。
如上所述的图像识别技术,其中,采集图像信息包括:采用YUV411格式的亮度(Y)、色度(C)取样方式对以PAL制分割的目标图像进行取样,利用离散余弦变换编码获取频谱采集图像的目标信息。
如上所述的图像识别技术,其中,对图像信息进行归类包括:通过同步自回归模型提取纹理特征;自回归模型的模型参数采用平方误差估计法来估计,模型参数加权实现粗分割,再利用DB小波对纹理图像进行小波变换,提取小波系数最为纹理图像的特征实现细分割,小波变换为3级小波变换。
如上所述的图像识别技术,其中,对图像进行物体与场景进行识别,用模式识别的方法通过具有明显的haar特征的灰度图像模式识获取分类器,通过分类器计算目标图像haar特征,对图像haar特征进行加权,并对加权后的haar特征与分类器相应级阈值比较筛选获取类别信息;分类器采用级联,每级都以相同识别率保留进入下一级的具体物体特征,每级的子分类器则由多个haar特征构成并保存位置,每级特征带一个阈值和2个分支值,每级子分类器具有一个总阈值。
如上所述的图像识别技术,其中,haar特征包括:边界特性、线特性、中心特性,线特性包括:线性特征、对角线特征,将线性特征、对角线特征组合成特征模板,特征模板内具有白色和黑色两种矩形,定义特征模板的特征值为白色矩形像素和减去黑色矩形像素之和。
如上所述的图像识别技术,其中,对图像进行人脸识别,通过分类器提取人脸图像的haar特征,通过若分类器对是否为人脸进行判定,如果不是则退出人脸识别;如果是,采用积分图计算获取灰度人脸图像,使用AdaBoost算法获取的强分类器进行分级匹配,获取识别的人脸的性别、年龄。
如上所述的图像识别技术,其中,对场景进行识别包括:采用低层建模方法(Low-Level Modelling)和语义建模方法(Semantic Modelling),低层建模方法通过计算图像颜色、纹理的低层特征经SVM(Support Vector Machine)、K-NN(K-nearestneighbor)分类算法获取出场景的高层语义信息,语义建模方法用于改善基于低层特征建模方法的分类性能,解决低层特征与高层特征之间的推算误差问题,用作于场景分类的中间表示方法,其中SVM和K-NN分类算法用于降维,且不损失分类性能。
如上所述的图像识别技术,其中,底层建模方法还包括:全局方法和子块方法,其中全局方法特征是通过计算整幅图像的低层特征来描述场景,采用全局的低层特征为每幅图像分配一组具有相应置信度的语义类标,其中子块方法特征是先将图像划分为多个子区域,然后分别提取每个子区域的低层特征,在针对各子区域采用整合方式进行综合分类。
如上所述的图像识别技术,其中,语义目标包括:对图像初始分割处理图像中不同区域,将分割区域标记为已知目标种类,使用这些局部信息对整个场景分类;语义概念包括:利用在关键点周围的局部描述子所携带的中层信息表示图像的语义类别;语义属性包括:不需对图像进行分割,也不需对局部目标进行处理,模型基于一种低维的场景表示——空域包络(Spatial Envelope),其包括五类属性分别是自然度、开发度、粗糙度、展开度和崎岖度,每类属性对应于空域包络中的一维,所有特征维的组合表示一副场景的主要空域结构。
如上所述的图像识别技术,其中,将文字灰度转换成电信号,利用图像信息采集方法采集信息特征,通过低通滤波器对信息特征去噪后进行原型匹配输出类别,低通滤波器采用FIR型低通滤波器。
综上所述,由于采用了上述技术方案,本发明解决了现有技术中如何设计低层特征提取与高层语义关联是本说明书说明的图像识别技术的重点技术问题,本发明在图像匹配中,比较不同图像颜色集之间的距离和色彩区域的空间关系(包括区域的分离、包含、交等,每种对应于不同得评分),因为颜色集表达为二进制的特征向量,可以构造二分查找树来加快检索速度,这对于大规模的图像集合十分有利。
附图说明
图1是本发明图像识别技术的离散余弦变换(DCT)频域图;
图2是本发明图像识别技术的Haar-like特征示第一意图;
图3是本发明图像识别技术的积分图;
图4是本发明图像识别技术的Haar-like特征示第二意图;
图5是本发明图像识别技术的弱分类器的二叉决策树示意图;
图6是本发明图像识别技术的级联强分类器的窗口图像栓选决策示意图。
具体实施方式
下面结合附图和实施例对本发明做进一步描述:
一种图像识别技术,其中,包括:采集图像信息;对图像信息进行分析,对图像信息进行归类;将图像分析的结果、获取的归类信息与信息库中原型模板进行模型匹配,完成模式空间到类别空间的转换,输出匹配结果类别。
图1是本发明图像识别技术的离散余弦变换(DCT)频域图,请参见图1,采集图像信息包括:采用YUV411格式的亮度(Y)、色度(C)取样方式对以PAL制分割的目标图像进行取样,利用离散余弦变换(DCT)编码获取频谱,采集图像的目标信息。
具体的,在本发明的一个实施例中,本发明可以包括:由于许多要处理的信号都是实信号,在使用DFT时由于傅里叶变换时由于实信号傅立叶变换的共轭对称性导致DFT后在频域中有一半的数据冗余。离散余弦变换(DCT)是对实信号定义的一种变换,变换后在频域中得到的也是一个实信号,相比DFT而言,DCT可以减少一半以上的计算。DCT还有一个很重要的性质(能量集中特性):大多书自然信号(声音、图像)的能量都集中在离散余弦变换后的低频部分,因而DCT在(声音、图像)数据压缩中得到了广泛的使用。由于DCT是从DFT推导出来的另一种变换,因此许多DFT的属性在DCT中仍然是保留下来的。
进一步的,推导N点长实序列的DCT,首先来定义一个新的长度为2N的序列:
可看作是将周期为N的序列x[m]做一个周期延拓成一个周期为2N的序列(如图1中上部分图)。再来看图1中第一张图是关于x=-1/2对称的,要让他关于x=0对称需要将其向右平移1/2个单位,得到x’[m]=x’[m–1/2]就是关于x=0对称的周期序列了(如图1中下半部分图)。然后求这个2N序列的DFT,就是DCT-2型离散余弦变换,离散余弦变换相当于一个长度大概是它两倍的离散傅里叶变换。变换后的x[n]是以2N为周期,偶对称的序列:
X[N+n]=X[N+n-2N]=X[n-N]=x[N-n]
定义变换矩阵C[n,m],对于正交余弦变换矩阵就有:
C-1=CT或CTC=1
用计算机计算DCT-2(用的是O(n^2)朴素算法,用于验证正交特性以及观察其频域数据),比较DFT和FFT的结果可以观察出DCT变换只有实部,而DFT变换后有虚部。在这个例子中DCT在频域中只用3个点就可以表示这个信号,而DFT变换后在频域中需要5个点来表示信号。
本发明采集信息过程中,将文字灰度转换成电信号,利用图像信息采集方法采集信息特征,通过低通滤波器对信息特征去噪后进行原型匹配输出类别,低通滤波器采用FIR型低通滤波器。
本发明对图像信息进行归类包括:通过同步自回归模型提取纹理特征;自回归模型的模型参数采用平方误差估计法来估计,模型参数加权实现粗分割,再利用DB小波对纹理图像进行小波变换,提取小波系数最为纹理图像的特征实现细分割,小波变换为3级小波变换。
本发明对图像进行物体与场景进行识别,用模式识别的方法通过具有明显的haar特征的灰度图像模式识获取分类器,通过分类器计算目标图像haar特征,对图像haar特征进行加权,并对加权后的haar特征与分类器相应级阈值比较筛选获取类别信息;分类器采用级联,每级都以相同识别率保留进入下一级的具体物体特征,每级的子分类器则由多个haar特征构成并保存位置,每级特征带一个阈值和2个分支值,每级子分类器具有一个总阈值。
本发明的haar特征包括:边界特性、线特性、中心特性,线特性包括:线性特征、对角线特征,将线性特征、对角线特征组合成特征模板,特征模板内具有白色和黑色两种矩形,定义特征模板的特征值为白色矩形像素和减去黑色矩形像素之和。
进一步的,图2是本发明图像识别技术的Haar-like特征示第一意图,请参见图2,人脸检测时需要一个子窗口在待检测的图片窗口中不断的移位滑动,子窗口每到一个位置,就会计算出该区域的特征,该特征即为Haar-like特征。特征值为白色矩形像素和减去黑色矩形像素和,Haar特征值反映了图像的灰度变化情况。本发明对图像进行人脸识别,通过分类器提取人脸图像的haar特征,通过若分类器对是否为人脸进行判定,如果不是则退出人脸识别;如果是,采用积分图计算获取灰度人脸图像,使用AdaBoost算法获取的强分类器进行分级匹配,获取识别的人脸的性别、年龄。
进一步地,请参见图2,对于图中的A,B和D这类特征,特征数值计算公式为:v=Sum白-Sum黑,而对于C来说,计算公式如下:v=Sum白-2*Sum黑;之所以将黑色区域像素和乘以2,是为了使两种矩形区域中像素数目一致。通过改变特征模板的大小和位置,可在图像子窗口中穷举出大量的特征。图中的特征模板称为“特征原型”;特征原型在图像子窗口中扩展(平移伸缩)得到的特征称为“矩形特征”;矩形特征的值称为“特征值”。
矩形特征可位于图像任意位置,大小也可以任意改变,所以矩形特征值是矩形模版类别、矩形位置和矩形大小这三个因素的函数。故类别、大小和位置的变化,使得很小的检测窗口含有非常多的矩形特征,大量的特征需要使用积分图进行计算。
积分图就是只遍历一次图像就可以求出图像中所有区域像素和的快速算法,大大的提高了图像特征值计算的效率。积分图是将图像从起点开始到各个点所形成的矩形区域像素之和作为一个数组的元素保存在内存中,当要计算某个区域的像素和时可以直接索引数组的元素,不用重新计算这个区域的像素和,从而加快了计算(这有个相应的称呼,叫做动态规划算法)。积分图能够在多种尺度下,使用相同的时间(常数时间)来计算不同的特征,因此大大提高了检测速度。
积分图是一种能够描述全局信息的矩阵表示方法。积分图的构造方式是位置(i,j)处的值ii(i,j)是原图像(i,j)左上角方向所有像素的和:
(1)用s(i,j)表示行方向的累加和,初始化s(i,-1)=0;
(2)用ii(i,j)表示一个积分图像,初始化ii(-1,i)=0;
(3)逐行扫描图像,递归计算每个像素(i,j)行方向的累加和s(i,j)=s(i,j-1)+f(i,j);
(4)计算s(i,j)和积分图像ii(i,j)的值ii(i,j)=ii(i-1,j)+s(i,j);
(5)扫描图像一遍,当到达图像右下角像素时,积分图像ii就构造好了。
积分图构造好之后,图像中任何矩阵区域的像素累加和都可以通过简单运算得到。
图3是本发明图像识别技术的积分图,请参见图3,设D的四个顶点分别为α、β、γ、δ,则D的像素和可以表示为:
Dsum=ii(α)+ii(β)-(ii(γ)+ii(δ))
而Haar-like特征值就是两个矩阵像素和的差,矩形特征的特征值计算,只与此特征矩形的端点的积分图有关,不管此特征矩形的尺度变换如何,特征值的计算所消耗的时间都是常量。只要遍历图像一次,就可以求得所有子窗口的特征值。
图4是本发明图像识别技术的Haar-like特征示第二意图,请参见图4,在原有Haar-like特征基础上做了进一步扩展,加入了旋转45角的矩形特征。扩展后的特征大致分为4种类型:边缘特征、线特征环、中心环绕特征和对角线特征:在特征值的计算过程中,黑色区域的权值为负值,白色区域的权值为正值。而且权值与矩形面积成反比(使两种矩形区域中像素数目一致)。
进一步的,本发明还公开了45度旋角的矩形特征计算:对于45度旋角的矩形,我们定义RSAT(x,y)为点(x,y)左上角45度区域和左下角45度区域的像素和。用公式可以表示为:
为了节约时间,可按递推公式计算:RSAT(x,y)=RSAT(x-1,y-1)+RSAT(x-1,y)+I(x,y)-RSAT(x-2,y-1).而计算矩阵特征的特征值,是位于十字行矩形RSAT(x,y)之差。
计算出Haar特征值后,需要用AdaBoost算法训练分类器,AdaBoost是机器学习的一个模型,模型方法:(1)适当信息收集机制的选择;(2)学习的协定;(3)对能在合理步骤内完成学习的概念的分类。学习的实质就是在样本训练的基础上,使算法的输出以概率接近未知的目标概念。学习模型是考虑样本复杂度(指学习器收敛到成功假设时至少所需的训练样本数)和计算复杂度(指学习器收敛到成功假设时所需的计算量)的一个基本框架,成功的学习被定义为形式化的概率理论。学习模型不要求每次都正确,只要能在多项式个样本和多项式时间内得到满足需求的正确率,就算是一个成功的学习。
基于AdaBoost算法设计了弱学习算法和强学习算法,即弱分类器和强分类器。弱学习算法是比较容易获得,获得过程需要数量巨大的假设集合,这个假设集合是基于某些简单规则的组合和对样本集的性能评估而生成的,而强学习算法是不容易获得的,需要有足够的数据,弱学习算法通过集成的方式生成高精度的强学习方法。
弱分类器一开始只是一个最基本的Haar-like特征,计算输入图像的Haar-like特征值,和最初的弱分类器的特征值比较,以此来判断输入图像是不是人脸,然而这个弱分类器太简陋了,可能并不比随机判断的效果好,对弱分类器的孵化就是训练弱分类器成为最优弱分类器,是一个误差相对稍低的弱分类器,训练弱分类器实际上是为分类器进行设置的过程。
弱分类器的数学结构:
一个弱分类器h(x,f,p,θ)由子窗口图像x,一个特征f,指示不等号方向的p和阈值θ组成。P的作用是控制不等式的方向,使得不等式都是<号,形式方便,θ将用于决策树中的阈值。
机器学习中,决策树是一个预测模型;他代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,而每个叶结点则对应从根节点到该叶节点所经历的路径所表示的对象的值。决策树仅有单一输出,若欲有复数输出,可以建立独立的决策树以处理不同输出。从数据产生决策树的机器学习技术叫做决策树学习,通俗说就是决策树。
图5是本发明图像识别技术的弱分类器的二叉决策树示意图,请参见图5,一个最简单的决策树例子,假设我们使用三个Haar-like特征f1,f2,f3来判断输入数据是否为人脸,可以建立如图5所示决策树。在分类的应用中,每个非叶子节点都表示一种判断,每个路径代表一种判断的输出,每个叶子节点代表一种类别,并作为最终判断的结果。
一个弱分类器就是一个基本和图5类似的决策树,最基本的弱分类器只包含一个Haar-like特征,也就是它的决策树只有一层,被称为树桩(stump)。
决定每个结点判断的输出,要比较输入图片的特征值和弱分类器中特征,一定需要一个阈值(即θ阈值),当输入图片的特征值大于该阈值时才判定其为人脸。训练最优弱分类器的过程实际上就是在寻找合适的分类器阈值,使该分类器对所有样本的判读误差最低。
具体操作过程如下:
(1)对于每个特征f,计算所有训练样本的特征值,并将其排序。
扫描一遍排好序的特征值,对排好序的表中的每个元素,计算下面四个值:
全部人脸样本的权重的和t1;
全部非人脸样本的权重的和t0;
在此元素之前的人脸样本的权重的和s1;
在此元素之前的非人脸样本的权重的和s0;
(2)最终求得每个元素的分类误差在表中寻找r值最小的元素,则该元素作为最优阈值。有了该阈值,一个最优弱分类器生成。
进一步的,在本发明的一个优选实施例中,本发明可以训练出性能更加优秀,分类更加精确的强分类器,采用的是CvIntHaarClassifier结构:它就相当于一个接口类,是用C语言模拟的面向对象累,利用CV_INT_HAAR_CLASSIFIER_FIELDS()这个宏让弱分类CvCARTHaarClassifier强分类器和CvStageHaarClassifier继承于CvIntHaarClassifier。
强分类器的诞生需要T轮的迭代,具体操作如下:
1.给定训练样本集S,共N个样本,其中X和Y分别对应于正样本和负样本;T为训练的最大循环次数;
2.初始化样本权重为1/N,即为训练样本的初始概率分布;
3.第一次迭代训练N个样本,得到第一个最优弱分类器;
4.提高上一轮中被误判的样本的权重;
5.将新的样本和上次本分错的样本放在一起进行新一轮的训练;
6.循环执行4-5步骤,T轮后得到T个最优弱分类器;
7.组合T个最优弱分类器得到强分类器。
组合方式如下:
相当于让所有弱分类器投票,再对投票结果按照弱分类器的错误率加权求和,将投票加权求和的结果与平均投票结果比较得出最终的结果。
Haar分类器是有两个体系的,训练的体系,和检测的体系。训练的部分还剩下最后一部分就是对筛选式级联分类器的训练。通过AdaBoost算法训练出了强分类器,然而在现实的人脸检测中,只靠一个强分类器还是难以保证检测的正确率,这个时候,需要训练出多个强分类器将它们联合使用,最终形成正确率很高的级联分类器即最终的目标Haar分类器。
训练级联分类器的目的是为了检测的时候,更加准确,这涉及到Haar分类器的另一个体系,检测体系,检测体系是以现实中的一幅大图片作为输入,然后对图片中进行多区域,多尺度的检测,所谓多区域,是要对图片划分多块,对每个块进行检测,由于训练的时候用的照片一般都是20*20左右的小图片,所以对于大的人脸,还需要进行多尺度的检测。
多尺度检测机制有两种策略,一种是不改变搜索窗口的大小,而不断缩放图片,这种方法显然需要对每个缩放后的图片进行区域特征值的运算,效率不高,而另一种方法,是不断初始化搜索窗口size为训练时的图片大小,不断扩大搜索窗口,进行搜索,解决了第一种方法的弱势。在区域放大的过程中会出现同一个人脸被多次检测,这需要进行区域的合并,无论哪一种搜索方法,都会为输入图片输出大量的子窗口图像,这些子窗口图像经过筛选式级联分类器会不断地被每一个节点筛选,抛弃或通过。

Claims (10)

1.一种图像识别技术,其特征在于,包括:采集图像信息;对图像信息进行分析,对图像信息进行归类;将图像分析的结果、获取的归类信息与信息库中原型模板进行模型匹配,完成模式空间到类别空间的转换,输出匹配结果类别。
2.根据权利要求1所述的图像识别技术,其特征在于,采集图像信息包括:采用YUV411格式的亮度(Y)、色度(C)取样方式对以PAL制分割的目标图像进行取样,利用离散余弦变换编码获取频谱,采集图像的目标信息。
3.根据权利要求1所述的图像识别技术,其特征在于,对图像信息进行归类包括:通过同步自回归模型提取纹理特征;自回归模型的模型参数采用平方误差估计法来估计,模型参数加权实现粗分割,再利用DB小波对纹理图像进行小波变换,提取小波系数最为纹理图像的特征实现细分割,小波变换为3级小波变换。
4.根据权利要求1所述的图像识别技术,其特征在于,对图像进行物体与场景进行识别,用模式识别的方法通过具有明显的haar特征的灰度图像模式识获取分类器,通过分类器计算目标图像haar特征,对图像haar特征进行加权,并对加权后的haar特征与分类器相应级阈值比较筛选获取类别信息;分类器采用级联,每级都以相同识别率保留进入下一级的具体物体特征,每级的子分类器则由多个haar特征构成并保存位置,每级特征带一个阈值和2个分支值,每级子分类器具有一个总阈值。
5.根据权利要求4所述的图像识别技术,其特征在于,haar特征包括:边界特性、线特性、中心特性,线特性包括:线性特征、对角线特征,将线性特征、对角线特征组合成特征模板,特征模板内具有白色和黑色两种矩形,定义特征模板的特征值为白色矩形像素和减去黑色矩形像素之和。
6.根据权利要求5所述的图像识别技术,其特征在于,对图像进行人脸识别,通过分类器提取人脸图像的haar特征,通过若分类器对是否为人脸进行判定,如果不是则退出人脸识别;如果是,采用积分图计算获取灰度人脸图像,使用AdaBoost算法获取的强分类器进行分级匹配,获取识别的人脸的性别、年龄。
7.根据权利要求4所述的图像识别技术,其特征在于,对场景进行识别包括:采用低层建模方法(Low-Level Modelling)和语义建模方法(Semantic Modelling),低层建模方法通过计算图像颜色、纹理的低层特征经SVM(Support Vector Machine)、K-N N(K-nearestneighbor)分类算法获取出场景的高层语义信息,语义建模方法用于改善基于低层特征建模方法的分类性能,解决低层特征与高层特征之间的推算误差问题,用作于场景分类的中间表示方法,其中SVM和K-NN分类算法用于降维,且不损失分类性能。
8.根据权利要求7所述的图像识别技术,其特征在于,底层建模方法还包括:全局方法和子块方法,其中全局方法特征是通过计算整幅图像的低层特征来描述场景,采用全局的低层特征为每幅图像分配一组具有相应置信度的语义类标,其中子块方法特征是先将图像划分为多个子区域,然后分别提取每个子区域的低层特征,在针对各子区域采用整合方式进行综合分类。
9.根据权利要求7所述的图像识别技术,其特征在于,语义目标包括:对图像初始分割处理图像中不同区域,将分割区域标记为已知目标种类,使用这些局部信息对整个场景分类;语义概念包括:利用在关键点周围的局部描述子所携带的中层信息表示图像的语义类别;语义属性包括:不需对图像进行分割,也不需对局部目标进行处理,模型基于一种低维的场景表示——空域包络(Spatial Envelope),其包括五类属性分别是自然度、开发度、粗糙度、展开度和崎岖度,每类属性对应于空域包络中的一维,所有特征维的组合表示一副场景的主要空域结构。
10.根据权利要求1所述的图像识别技术,其特征在于,将文字灰度转换成电信号,利用图像信息采集方法采集信息特征,通过低通滤波器对信息特征去噪后进行原型匹配输出类别,低通滤波器采用FIR型低通滤波器。
CN201711286335.4A 2017-12-07 2017-12-07 图像识别技术 Withdrawn CN109902690A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711286335.4A CN109902690A (zh) 2017-12-07 2017-12-07 图像识别技术

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711286335.4A CN109902690A (zh) 2017-12-07 2017-12-07 图像识别技术

Publications (1)

Publication Number Publication Date
CN109902690A true CN109902690A (zh) 2019-06-18

Family

ID=66939277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711286335.4A Withdrawn CN109902690A (zh) 2017-12-07 2017-12-07 图像识别技术

Country Status (1)

Country Link
CN (1) CN109902690A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414414A (zh) * 2019-07-25 2019-11-05 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN112515685A (zh) * 2020-11-10 2021-03-19 上海大学 基于时频共融的多通道脑电信号通道选择方法
CN113378820A (zh) * 2021-07-02 2021-09-10 深圳市东亿健康服务有限公司 数字病理切片目标区域的识别方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414414A (zh) * 2019-07-25 2019-11-05 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN110414414B (zh) * 2019-07-25 2022-02-18 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN112515685A (zh) * 2020-11-10 2021-03-19 上海大学 基于时频共融的多通道脑电信号通道选择方法
CN113378820A (zh) * 2021-07-02 2021-09-10 深圳市东亿健康服务有限公司 数字病理切片目标区域的识别方法及系统

Similar Documents

Publication Publication Date Title
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
Lee et al. Adaboost for text detection in natural scene
CN108319964B (zh) 一种基于混合特征和流形学习的火灾图像识别方法
Ranzato et al. Automatic recognition of biological particles in microscopic images
Yuan et al. Bag-of-words and object-based classification for cloud extraction from satellite imagery
CN106022254A (zh) 图像识别技术
CN106557740B (zh) 一种遥感图像中油库目标的识别方法
CN106055653A (zh) 基于图像语义注释的视频浓缩对象检索方法
CN108734200B (zh) 基于bing特征的人体目标视觉检测方法和装置
CN110458192A (zh) 基于视觉显著性的高光谱遥感图像分类方法及系统
CN110852327A (zh) 图像处理方法、装置、电子设备及存储介质
CN109902690A (zh) 图像识别技术
CN108073940A (zh) 一种非结构化环境中的3d目标实例物体检测的方法
CN112651996A (zh) 目标检测跟踪方法、装置、电子设备和存储介质
CN102129557A (zh) 一种基于lda子空间学习的人脸识别方法
CN109902692A (zh) 一种基于局部区域深度特征编码的图像分类方法
CN105844299B (zh) 一种基于词袋模型的图像分类方法
CN112613474A (zh) 一种行人重识别的方法和装置
Aksoy Introduction to pattern recognition
Zanwar et al. A comprehensive survey on soft computing based optical character recognition techniques
Nagashree et al. Hand gesture recognition using support vector machine
Agarwal et al. Plant Identification using Leaf Image Analysis
CN108154107A (zh) 一种确定遥感图像归属的场景类别的方法
Soni et al. Extracting text regions from scene images using Weighted Median Filter and MSER
Sahota et al. An empirical enhancement using scale invariant feature transform in text extraction from images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20190618

WW01 Invention patent application withdrawn after publication