CN101447020B - 基于直觉模糊的色情图像识别方法 - Google Patents
基于直觉模糊的色情图像识别方法 Download PDFInfo
- Publication number
- CN101447020B CN101447020B CN2008101832372A CN200810183237A CN101447020B CN 101447020 B CN101447020 B CN 101447020B CN 2008101832372 A CN2008101832372 A CN 2008101832372A CN 200810183237 A CN200810183237 A CN 200810183237A CN 101447020 B CN101447020 B CN 101447020B
- Authority
- CN
- China
- Prior art keywords
- image
- color
- fuzzy
- formula
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
本发明涉及一种色情图像的识别方法,包括以下步骤:第一步建立样本图像库;第二步对样本图像进行特征提取;第三步对样本图像所提取的特征进行训练,形成色情图像分类器;第四步对待识别图像进行特征提取;第五步将待识别图像特征输入到色情图像分类器,得出识别结果。本发明中的图像特征采用由确定数值、模糊数值及直觉模糊数值共同构成的颜色直方图特征向量;本发明还包括采用遗传算法对图像特征进行特征优化的步骤。使用本发明的方法,可以增加图像识别的准确度,并减少识别时间。
Description
技术领域
本发明涉及一种色情图像的识别方法,属于图像识别技术领域。
背景技术
人类社会进入信息时代,信息的快速传播改变了人类的工作、学习及生活方式。信息的形式多元化(文本、图像、语音等);信息的内容也在多元化,在促进人类社会进步的同时,存在大量的不良信息对社会造成很恶劣的影响,例如色情图像信息,是其中传播最为广泛、最难控制的一种信息。
随着国内各部门系统信息化建设工作的不断推进,为满足各种工作需要,网络中提供的服务不断增多,这为通过这些服务而进行的违规行为提供了入口,例如发布色情图像,如何保障系统内部网络中信息内容的安全性成为众多网络建设工作的重点之一。另外,互联网的逐渐普及,使得未成年人对网络的使用不断增多,流传于网上的色情图像对未成年人的健康成长危害极大。还有一些色情图像在当事人不知情的情况下被记录,此类图像的流传在造成不良社会影响的同时,对当事人更是具有很深的伤害。
现有的色情图像识别技术可以分为三类:基于URL、基于文本以及基于图像内容的识别方式。基于URL的识别算法的准确度受限于URL数据库,使得识别具有滞后和不完整的缺点,且维护日益庞大的数据库工作量太大,无法适应实时识别的需求。基于文本的识别算法中,很难准确的把握不同上下文环境中的文本信息,此外对于网络中大量的不包含敏感文字或文字以图像方式显示的情况无法发挥作用。
基于图像内容的识别方式,是利用图像识别技术检测网页中的图像是否包含色情内容,这种识别方式可以应付多变的情况,是一种更高级、更彻底、更有效的识别方式,具有广泛的适应性。从90年代起,国内外对色情图像的识别技术作了大量的研究,尤其近十年来取得了不少宝贵的成果。
最早的色情图像识别系统是U.C.Berkelry的David A.Forsyth等人在1996年设计的一种裸露人体检测算法,在皮肤过滤之后,判断各肤色柱状体是否能够组成人体。1997年Stanford大学的Jame Ze Wang等人设计了WIPE(Wavelet ImagePornography Elimination)系统,从频率的角度识别图像的形状特征,特征匹配之后得出色情图像识别结果。1999年Compaq公司与Cambridge研究室的Michael J.Jones和James M.Rehg利用统计方法研究了皮肤的颜色模型,构成有关皮肤像素的七个特征,并将它用于裸体图像的检测。1999年,法国的LTU(LookThatUP)公司推出的Image-Filter是一款图像识别和过滤软件,是用软件中的DNA计算模块模仿人类的视觉系统,用机器学习技术模仿人类大脑的识别功能。2000年英国Clearswift公司推出的PORNsweeper是一款用于检测邮件附件中的色情内容的图像识别和过滤软件。2003年,由欧盟资助了开源项目POESIA(PublicOpen-source Environment for a Safer Internet Access),其中包括过滤网页色情图像的模块。2003年美国VIMA公司(其前身是Morpho软件公司)推出的ImageBeagle是一款用于检测硬盘和网络缓存文件中色情图像软件。另外,evision公司开发的EVE(evision visual engine)和Exotrope公司的BAIR(Basic Artificial IntelligenceRoutine),均可用于色情图像的识别和过滤。
国内对基于图像内容的网络过滤技术的研究比较晚,但国内的一些研究院和高校在图像过滤技术方面也作了比较深入的研究,所提出的算法有较高的参考价值。2000年东北大学软件中心的许强等人提出了一个基于图像内容过滤的智能防火墙系统,该系统利用Daubechies小波和正则中心矩相从图像中提取轮廓特征,然后在特征库中利用距离度量寻找匹配的模式。2002年,中国科学院的段立娟等人研究的多层次图像过滤方法在得到图像的肤色区域的基础上,利用SVM的分类方法进行识别分类。中国科技大学的L.L.Cao等人利用LVQ(LearningVector Quantization)算法和Adaboost算法对图像进行分类。2003年中国科学院软件研究所的孙庆杰等人提出了一种人体检测算法,该算法将人体看作由躯干和四肢构成,用一个四边形拟合躯干,用一个或者两个四边形拟合每个肢体。2004年,电子科技大学的尹显东等人研究的特定图像过滤方法在HS平面能普遍代表黄种人皮肤颜色的区域,再结合人脸检测、图像轮廓、面积等多项特征实现色情图像的识别过滤。
在实际应用上,2003年飞涛软件工作室开发出的护花使者图像版,采用了基于图像内容检索的算法,可以用于扫描出硬盘中的色情图像。2004年郑州金惠计算机系统工程有限公司推出“金惠反黄专家系统”,该系统在皮肤区域分割的基础上提取出描述形状和姿态的特征,将当前图像与标准色情图像特征库中的图像进行匹配,从而识别色情图像。
综合上述各种识别算法,得出色情图像的识别主要分为两种方法,第一种方法是首先检测出人体的皮肤区域,在此基础上识别出人的肢体部分,然后根据一定的规则将肢体进行组建,进而识别出裸露的人体,但此算法计算量和数据存储所需的容量都很大,在实际系统中无法得到很好的应用。第二种方法并不试图去识别色情图像中人体的各个肢体部分,它从图像中提取出一系列能区分裸体和非裸体图像的特征量,利用机器学习技术进行裸体图像的识别。
文献《基于特征向量的敏感图像识别技术》(西南交通大学学报.2007,42(1):13-18)提出的色情图像识别算法属于第二种方法,针对现有色情敏感图像识别技术的缺陷,提出了基于特征向量的敏感图像识别技术。算法大致分为建立样本图像库,训练样本图像,输入图像处理和分类处理四个步骤。建立样本图像库中输入典型的敏感图像,构成图像库。训练样本图像过程分为特征提取和特征训练两个步骤,特征提取过程采用YIQ彩色坐标系的色度和YUV彩色坐标系的色调作为皮肤的肤色模型,从敏感图像的皮肤掩码图像中提取与肤色区域数量和比例等有关的6个特征;特征训练部分,将提取的特征向量输入到SVM(support vector machine)训练器中,通过多步训练之后,得出敏感图像分类器。输入图像处理过程中,对输入图像作与样本图像相同的特征提取操作。最后进入图像分类过程,将由输入图像构成的特征输入到SVM分类器中,根据分类结果判断图像是否为敏感图像。但该文献在建立皮肤特征的时候采用确定性算法,没有准确的模拟人眼的特征提取过程,图像特征的描述缺乏完整性,降低了识别准确度。对于大量的图像特征,该文献没有提出特征优化算法,增加了计算量,增加了图像识别时间。
发明内容
为了解决现有色情图像识别方法中存在的问题,增加识别准确度,减少识别时间,本发明提出了一种基于直觉模糊的色情图像识别方法。
本发明所提出的色情图像识别方法大致分为两个部分,一部分对样本图像进行特征提取、优化及训练,此部分可以在识别图像之前离线处理,以节省识别运算时间;另一部分用于对待识别图像进行特征提取及优化处理;两部分得出的数据输入到神经网络中进行分类处理,得出识别结果。
本发明的方法具体包括以下步骤:
第一步建立样本图像库;
第二步对样本图像进行特征提取;
第三步对样本图像所提取的特征进行训练,形成色情图像分类器;
第四步对待识别图像进行特征提取;
第五步将待识别图像特征输入到色情图像分类器,得出识别结果。
本发明提出的色情图像识别方法的图像特征采用由确定数值、模糊数值及直觉模糊数值共同构成的颜色直方图特征向量,该向量通过以下步骤得到:
1)提取图像的确定性特征
将图像中所有像素颜色映射到HSV空间中的n种颜色,若图像I包含N个像素,则确定性颜色特征表示成C=[c1,c2,...cn]T,ci=Ni/N表示图像中所有像素属于第i个颜色值的概率,Ni表示属于第i个颜色值的像素总体数量;根据概率理论:
Pj是从图像I中选择像素能够选择到第j个像素的概率,即1/N,Pi|j是第j个像素属于第i个颜色值的条件概率;在确定性颜色直方图(CCH)中,Pi|j定义为:
2)增加图像的模糊特征
图像I的模糊颜色直方图(FCH)表达为F(I)=[f1,f2,...fn]T。
利用FCM聚类技术将图像中像素重新聚类到HSV中的n种颜色,每一种聚类表示一个FCH值;图像中像素对于一个FCH值的隶属度通过精确颜色相对于模糊颜色值的隶属度来表示,仅计算此隶属度一次,以隶属度矩阵形式表示M=[mij]n×n,mij是j个精确颜色值分布于第i个模糊颜色值的隶属度;图像的FCH值Fn×1直接从CCH的Cn×1计算出来,
Fn×1=Mn×nCn×1
FCM最小化一个目标函数Jm,它是每一组方差权重的总合,定义如下:
xk表示像素的精确颜色,聚类中心wi表示模糊颜色,uik是颜色xk相对于聚类中心wi的隶属度;由于HSV空间中的表达形式,内积||xk-wi||A 2替代为||xk-wi||2,即精确颜色xk和聚类中心wi之间的欧氏距离,权重指数m控制着模糊聚类成员间共享的程度;通过计算得到FCM的模糊聚类结果U=[uik]n×n,即(3)式中需要的Mn×n;
Mn×n=Un×n (5)
对于所有的i和k以及m>1,如果||xk-wi||>0,那么Jm在(U,W)处被最小化,
等式(6)和(7)通过反复执行下面的步骤得出近似结果:
Step1:输入模糊颜色值的种类数量n,权重指数m及误差容忍程度ε;
Step2:初始化聚类中心wi,1≤i≤c;
Step3:输入数据X={x1,x2,...xn};
Step4:通过(6)式计算聚类中心{wi (l)};(l表示重复次数)
Step5:通过(7)式更新U(l);
Step6:如果||U(l)-U(l-1)||>ε,l=l+1,则跳回Step4;否则跳出得结果;
3)增加图像的直觉模糊特征
在模糊颜色特征的基础上添加特征的犹豫程度,产生一个Hn×1,Hn×1=[π1,π2,...πn]T;
πi=1-fi-vi,0≤πi≤1 (8)
vi是图像中的像素不属于第i个颜色值的隶属度;
另外,根据(8)式可知存在特殊的颜色值,即vi=0的时候,犹豫度达到最大值πi max,这种特殊的πi计算如(10)式
πi max=1-fi (10)
此式描述了图像中的像素属于第i个颜色值的犹豫度随着隶属度的增加而减少的性质,通过(11)式满足(10)式的限制条件,
πi ∝(1-fi) (11)
联合(9)式和(11)式得出图像I中所有像素对于第i个颜色值的犹豫度计算公式,
根据已经求得的Cn×1和Fn×1,其中相对应的元素分别利用(12)式进行计算,得出犹豫度矩阵Hn×1;
图像I中所有像素的颜色特征向量Ci可以表示成(13)式,其中三个参数分别表示图像I相对于颜色直方图中第i个颜色值的确定性概率、模糊隶属度以及直觉模糊犹豫度。
Ci=(ci,fi,πi) (13)
即一张图像的颜色特征可以表达为特征矩阵形式,
本发明的方法还包括采用遗传算法对图像特征进行特征优化的步骤。
使用本发明的方法,可以增加图像识别的准确度,并减少识别时间。
本发明的具体实施过程和优点将在具体实施方式部分进行进一步阐述。
附图说明
图1为色情图像识别方法的总体流程图。
图2为直觉模糊特征提取流程图。
图3为特征优化流程图
具体实施方式
本发明提出的色情图像识别方法具体实现过程如图1所示,包括以下步骤:
1、建立样本图像库。
通过调研,建立色情图像识别系统中的样本图像库,为了提高识别准确度,数据库中需要尽可能多的包含各种裸露关键部位的色情图像,另外还有各种典型的正常图像(动物、植物、景物及人物生活照)。
2、对样本图像进行特征提取
颜色是图像中最基础、最稳定的特征,且已经足以充分准确的表达色情图像内容。如果加入形状等其他特征,增加了计算量,且由于形状识别的不成熟性使得准确度方面不能得到很大的提高。颜色特征提取的实现流程如图2所示。现有技术中一般使用确定性特征,本方法通过增加模糊特征和直觉模糊特征,使图像特征的描述更完整,增加了图像识别的准确度。
1)提取图像的确定性特征
对其中每一张图像作提取特征向量的操作。计算过程采用HSV颜色空间中的颜色值,通过将图像中所有像素颜色映射到HSV空间中的n种颜色(直方图的n位,例如:n=20)来执行量化过程。根据现有色情图像的特点,n种颜色确定为黄种和白种人人体的皮肤颜色、头发颜色、各类胸部中乳头颜色及私处部位的颜色。
将颜色直方图看成为从概率观点出发的颜色分布。若图像I包含N个像素,则确定性颜色特征表示成C=[c1,c2,...cn]T,ci=Ni/N表示图像中所有像素属于第i个颜色值的概率,Ni表示属于第i个颜色值的像素总体数量。根据概率理论:
Pj是从图像I中选择像素能够选择到第j个像素的概率,即1/N,Pi|j是第j个像素属于第i个颜色值的条件概率。在确定性颜色直方图(CCH)中,Pi|j定义为:
2)增加图像的模糊特征
利用模糊理论对确定性直方图的Pi|j进行修改,构成图像像素的模糊颜色直方图(FCH),认为图像I中所有N个像素的任何一个都相关于所有n个颜色值,且第j个像素对于第i个颜色值的“属于”程度取决于第j个像素对于第i个颜色值的隶属度。图像I的FCH表达为F(I)=[f1,f2,...fn]T。
利用FCM聚类技术将图像中像素重新聚类到HSV中的n种颜色,每一种聚类表示一个FCH值。图像中像素对于一个FCH值的隶属度通过精确颜色相对于模糊颜色值的隶属度来表示。仅计算此隶属度一次,以隶属度矩阵形式表示M=[mij]n×n,mij是j个精确颜色值分布于第i个模糊颜色值的隶属度。图像的FCH值Fn×1直接从CCH的Cn×1计算出来,
Fn×1=Mn×nCn×1 (3)
FCM最小化一个目标函数Jm,它是每一组方差权重的总合,定义如下:
xk表示像素的精确颜色,聚类中心wi表示模糊颜色,uik是颜色xk相对于聚类中心wi的隶属度。由于HSV空间中的表达形式,内积||xk-wi||A 2替代为||xk-wi||2,即精确颜色xk和聚类中心wi之间的欧氏距离,权重指数m控制着模糊聚类成员间共享的程度。通过计算得到FCM的模糊聚类结果U=[uik]n×n,即(3)式中需要的Mn×n。
Mn×n=Un×n (5)
对于所有的i和k以及m>1,如果||xk-wi||>0,那么Jm在(U,W)处被最小化,
等式(6)和(7)通过反复执行下面的步骤得出近似结果:
Step1:输入模糊颜色值的种类数量n,权重指数m及误差容忍程度ε;
Step2:初始化聚类中心wi,1≤i≤c;
Step3:输入数据X={x1,x2,...xn};
Step4:通过(6)式计算聚类中心{wi (l)};(l表示重复次数)
Step5:通过(7)式更新U(l);
Step6:如果||U(l)-U(l-1)||>ε,l=l+1,则跳回Step4;否则跳出得结果。
3)增加图像的直觉模糊特征
采用直觉模糊集理论的非-隶属度函数进一步完善颜色特征表达,引入直觉模糊集概念,在模糊颜色特征的基础上添加特征的犹豫程度,产生一个Hn×1,Hn×1=[π1,π2,...πn]T。
πi=1-fi-vi,0≤πi≤1 (8)
vi是图像中的像素不属于第i个颜色值的隶属度。
比较模糊颜色直方图和确定性颜色直方图,发现在模糊量化过程中存在一些噪声。这类噪声可通过直觉指数进行消除。通过噪声的起源,可知图像中像素的颜色犹豫度正比于确定颜色值和模糊颜色值之差。
另外,根据(8)式可知存在特殊的颜色值,即vi=0的时候,犹豫度达到最大值πi max,这种特殊的πi计算如(10)式。
πi max=1-fi (10)
此式描述了图像中的像素属于第i个颜色值的犹豫度随着隶属度的增加而减少的性质,通过(11)式满足(10)式的限制条件,
πi∝(1-fi) (11)
联合(9)式和(11)式得出图像I中所有像素对于第i个颜色值的犹豫度计算公式,
显然πi在[0,1]区间内,符合πi的定义。根据前文中求得的Cn×1和Fn×1,其中相对应的元素分别利用(12)式进行计算,得出犹豫度矩阵Hn×1。
综合上述的图像颜色特征表达方式及计算方法,图像I中所有像素的颜色特征向量Ci可以表示成(13)式,其中三个参数分别表示图像I相对于颜色直方图中第i个颜色值的确定性概率、模糊隶属度以及直觉模糊犹豫度。
Ci=(ci,fi,πi) (13)
因此,一张图像的颜色特征可以表达为特征矩阵形式,
3、使用遗传算法对图像特征进行优化
在图像特征优化部分采用遗传算法,并将图像特征提取部分融入到遗传算法的编码过程。如图3所示。
按照遗传算法对(14)式表达的图像特征进行特征编码、选择、交叉和变异操作,得出有效特征。
1)特征编码
首先确定图像被分割的区域数目,若图像像素为Mp×Np,则分割的区域数r<Np。各区域可以看成是原图像的子图像,直方图位被看成是大量的基因。基因通过一个整数表达,这些整数说明了一个区域内的像素针对某一颜色的颜色特征。将这些区域组合在一起形成关于此图像的一个染色体,每一个区域的颜色直方图有n位颜色,构造的染色体Ri如下,cg k是第k个区域的第g位颜色的确定性概率,fg k是第k个区域的第g位颜色的模糊隶属度,πg k是第k个区域的第g位颜色的直觉模糊犹豫度,
一个染色体Ri就是各个区域可能的一种组合情况,每一个组合是查询空间中的一种候选解答方法。对于N个区域,就有N!种可能的区域的联合。因此,一张图像的染色体形成的种群如下:其中i=1,2,...n_size,n_size是种群数量。
P={R1,R2,...Ri} (16)
2)特征选择
采用遗传算法中轮盘赌选择作为特征选择方法。每一个染色体占据虚拟轮盘中的一个扇区,而染色体占据的扇区的面积正比于适应度值。高适应度值的染色体占据的扇型面积大,而低适应度的染色体占据的扇形面积小。某个染色体个体Ri,其适应度为Fi,也就是图像相似度。对于通过人感官判断,内容相似的两张图像,利用dist函数计算出它们针对一个染色体的特征距离,Fi与dist之间为相反关系。
Fi=1-dist(IA,IB) (17)
dist函数由(18)式计算得出,dist结果越大,则说明此染色体适应性越差,在下面的检索中该染色体的作用越小,越应该排除,否则该染色体应该留下。选择Fi数值最大的染色体作为优化后的特征向量;
其中w(ci),w(fi),w(πi)的计算分别如下,
ba i表示图像中第a位颜色在直方图中的编号,而ca i,fa i,πa i分别表示第a位颜色上的确定性颜色值,模糊颜色值以及直觉模糊颜色值。
3)特征交叉及变异
采用一点交叉,也叫简单交叉,从个体中随机设定一个交叉点,实行交叉的时候,该点前或后的两个个体的部分结构进行交换,并生成新个体。种群是图像中区域各种组合的联合,每一个区域中含有一些基因(直方图颜色位)来表达颜色特征。此操作允许在区域组合方面有一些调整,某些区域在某个染色体中可能重复出现,或者不出现,来说明了图像库中更加多样的区域组合方式。通过交叉,慢慢的获得满足用户要求的更好的染色体。具体实现步骤为,在通过选择得到的优化特征向量中,随机选取一个特征值,对于特征值的左右两边的数据作交叉处理,即前一个区域所有的特征值和后一个区域所有的特征值交换,从而得出特征交叉之后的结果。
预先定义变异率(例如:0.1),选取特征向量中的最大值,在选择点上,比较所选择点的两边数值,较小的值增加变异率数值而较大的值减少变异率。
4、基于神经网络的图像特征训练
图像样本库中的图像经过特征提取和优化处理进入训练模块。特征训练模块采用神经网络实现,目前比较成熟的神经网络均可以应用于色情图像识别的特征训练部分,例如SVM分类器,Adaboost分类器,C4.5分类树等,本算法中采用对样本数据有100%分类准确度的FP(Forward Propagation)神经网络实现。
特征之间的距离是建立FP网络的基础,本发明中加入了权重参数,以图像特征矩阵形式为基础,由色情图像特征与色情语义间的映射关系构建加权距离公式。权重系数根据色情图像中包含的理想颜色分布情况,通过BP(BackPropagation)网络训练得到。BP网络的输入为样本图像颜色特征矩阵,理想输出为色情图像中理想的颜色特征分布矩阵,对权重矩阵赋初始值之后开始计算。得出的距离权重有如下形式,
X1表达的图像与X2表达的图像之间的特征权重距离公式如下,
单个神经元是以特征空间中某个特征向量为圆心,以某个常数为半径的“球形邻域”的形式。神经网络是由多个结构相同的色情图像样本特征“球形”神经元构成,在此球形邻域之外的图像为非色情的正常图像。
通过对图像样本特征库中色情图像和正常图像的特征学习构建球形邻域。设色情图像样本特征库Porn={XP1,XP2...XPm},正常图像样本特征库Norm={XN1,XN2...XNk},m和k分别为两个特征库中的样本数量。通过特征库建立由m个球形邻域构成的FP神经网络{(Ci,Ri)},Ci为球心,Ri为相应的半径,具体步骤如下,
Step1:为色情图像样本特征库中各样本建立标记位,Flag=0,FP神经网络{(Ci,Ri)}初始化为零。
Step2:从色情图像样本特征库中选取Flag为0的特征,若没有,则退出。若有,则选取其一,从Step3开始构建球形邻域,同时Flag=1。
Step3:令 表示该色情样本到正常样本库各样本的最小距离; 表示该色情样本到其他未训练的色情样本的最大距离。
Step4:如果dmin>dmax,则取r=(dmin+dmax)/2,否则取r=λdmin,0<λ<1。
Step5:增加一个球形(Ci=XPi,Ri=r),跳转到Step2。
反复执行多次之后得出色情图像分类的FP神经网络。
5、对待识别图像执行步骤2和步骤3中的特征提取和特征优化过程。
6、基于神经网络的图像分类
色情图像分类过程的关键在于求出待识别图像到FP网络各球形邻域的最近距离。输入本地文件夹中的待识别图像,经过2和3步骤中的特征提取和特征优化过程,将优化得出的图像特征向量输入到4步骤中的FP神经网络中。对图像的特征XDi,判断是否存在(Cj,Rj),使D(XDi,Cj)≤Rj,即XDi能够被球形邻域(Cj,Rj)覆盖,若存在此球形邻域则认为该特征对应的图像为色情图像;否则,认为是正常图像。
Claims (1)
1.一种基于直觉模糊的色情图像识别方法,包括以下步骤:
第一步建立样本图像库;
第二步对样本图像进行特征提取;
第三步对样本图像所提取的特征进行训练,形成色情图像分类器;
第四步对待识别图像进行特征提取;
第五步将待识别图像特征输入到色情图像分类器,得出识别结果;
其特征在于:特征提取时使用的图像特征为由确定数值和模糊数值及直觉模糊数值共同构成的颜色直方图特征向量,该向量通过以下步骤得到:
1)提取图像的确定性特征
将图像中所有像素颜色映射到HSV空间中的n种颜色,若图像I包含N个像素,则确定性颜色特征表示成Cn×1=[c1,c2,...cn]T,ci=Ni/N,i=1,2,3,...n,表示图像中所有像素属于第i个颜色值的概率,Ni表示属于第i个颜色值的像素总体数量;根据概率理论:
Pj是从图像I中选择像素能够选择到第j个像素的概率,即1/N,Pi|j是第j个像素属于第i个颜色值的条件概率;在确定性颜色直方图CCH中,Pi|j定义为:
2)增加图像的模糊特征
图像I的模糊颜色直方图表达为Fn×1=[f1,f2,...fn]T;
利用FCM聚类技术将图像中像素重新聚类到HSV中的n种颜色,每一种聚类表示一个模糊颜色直方图数值;图像中像素对于一个模糊颜色直方图数值的隶属度通过精确颜色相对于模糊颜色值的隶属度来表示,仅计算此隶属度一次,以隶属度矩阵形式表示Mn×n=[mij]n×n,mij是第j个精确颜色值分布于第i个模糊颜色值的隶属度;图像的Fn×1直接从CCH的Cn×1计算出来,
Fn×1=Mn×nCn×1 (3)
FCM最小化一个目标函数Jm,它是每一组方差权重的总合,定义如下:
xk表示像素的精确颜色,X=[xk]1×n,聚类中心wi表示模糊颜色,W=[wi]1×c,其中c=n,uik是颜色xk相对于聚类中心wi的隶属度;由于HSV空间中的表达形式,内积 替代为||xk-wi||2,即精确颜色xk和聚类中心wi之间的欧氏距离,权重指数m控制着模糊聚类成员间共享的程度;通过计算得到FCM的模糊聚类结果U=[uik]n×n,即(3)式中需要的Mn×n;
Mn×n=Un×n (5)
对于所有的i和k以及m>1,如果||xk-wi||>0,那么Jm在(U,W)处被最小化,
等式(6)和(7)通过反复执行下面的步骤得出近似结果:
Step1:输入模糊颜色值的种类数量n,权重指数m及误差容忍程度ε;
Step2:初始化聚类中心wi,1≤i≤c;
Step3:输入数据X={x1,x2,...xn};
Step4:通过(6)式计算聚类中心{wi (l)},l表示重复次数;
Step5:通过(7)式更新U(l);
Step6:如果||U(l)-U(l-1)||>ε,l=l+1,则跳回Step4;否则跳出得结果;
3)增加图像的直觉模糊特征
在模糊颜色特征的基础上添加特征的犹豫程度,产生一个Hn×1,Hn×1=[π1,π2,...πn]T;
πi=1-fi-vi,0≤πi≤1,i=1,2,3,...n (8)
vi是图像中的像素不属于第i个模糊颜色值的隶属度;
另外,根据(8)式可知存在特殊的颜色值,即vi=0的时候,犹豫度达到 最大值πi max,这种特殊的πi计算如(10)式
πi max=1-fi (10)
此式描述了图像中的像素属于第i个模糊颜色值的犹豫度随着隶属度的增加而减少的性质,通过(11)式满足(10)式的限制条件,
πi ∝(1-fi) (11)
联合(9)式和(11)式得出图像I中所有像素对于第i个模糊颜色值的犹豫度计算公式,
根据已经求得的Cn×1和Fn×1,其中相对应的元素分别利用(12)式进行计算,得出犹豫度矩阵Hn×1;
即一张图像的颜色特征可以表达为以下特征矩阵形式
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101832372A CN101447020B (zh) | 2008-12-12 | 2008-12-12 | 基于直觉模糊的色情图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101832372A CN101447020B (zh) | 2008-12-12 | 2008-12-12 | 基于直觉模糊的色情图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101447020A CN101447020A (zh) | 2009-06-03 |
CN101447020B true CN101447020B (zh) | 2011-07-06 |
Family
ID=40742691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008101832372A Expired - Fee Related CN101447020B (zh) | 2008-12-12 | 2008-12-12 | 基于直觉模糊的色情图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101447020B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101609452B (zh) * | 2009-07-10 | 2011-05-11 | 南方医科大学 | 用于医学图像目标辨识的模糊svm反馈测度方法 |
CN101996314B (zh) * | 2009-08-26 | 2012-11-28 | 厦门市美亚柏科信息股份有限公司 | 一种基于内容的人体上半身敏感图像识别方法及其装置 |
US8478005B2 (en) | 2011-04-11 | 2013-07-02 | King Fahd University Of Petroleum And Minerals | Method of performing facial recognition using genetically modified fuzzy linear discriminant analysis |
CN102306287B (zh) * | 2011-08-24 | 2017-10-10 | 百度在线网络技术(北京)有限公司 | 一种用于识别敏感图像的方法与设备 |
CN102521610B (zh) * | 2011-12-08 | 2013-11-13 | 北京新媒传信科技有限公司 | 图片过滤方法和装置 |
US20130169948A1 (en) * | 2011-12-30 | 2013-07-04 | Abbott Point Of Care, Inc. | Method for rapid imaging of biologic fluid samples |
WO2013137855A1 (en) * | 2012-03-12 | 2013-09-19 | Intel Corporation | Method and apparatus for controlling content capture of prohibited content |
CN103617428B (zh) * | 2013-12-16 | 2017-03-01 | 中国科学院自动化研究所 | 基于混合特征的空中加油锥套目标检测方法 |
CN104410850B (zh) * | 2014-12-25 | 2017-02-22 | 武汉大学 | 一种彩色数字影像色度校正方法及系统 |
CN105105938A (zh) * | 2015-07-14 | 2015-12-02 | 南京邮电大学 | 基于人脸朝向识别与跟踪的智能轮椅控制方法及系统 |
CN105225214B (zh) * | 2015-09-29 | 2018-10-12 | 内蒙古大学 | 一种基于直觉模糊处理理论的图像融合方法及其系统 |
CN106372666B (zh) * | 2016-08-31 | 2019-07-19 | 同观科技(深圳)有限公司 | 一种目标识别方法及装置 |
CN106951848B (zh) * | 2017-03-13 | 2018-12-28 | 平安科技(深圳)有限公司 | 图片识别的方法及系统 |
CN111192271B (zh) * | 2018-11-14 | 2023-08-22 | 银河水滴科技(北京)有限公司 | 一种图像分割方法及装置 |
CN111199233B (zh) * | 2019-12-30 | 2020-11-20 | 四川大学 | 一种改进的深度学习色情图像识别方法 |
CN112907485B (zh) * | 2021-03-18 | 2023-04-25 | 国家海洋信息中心 | 一种基于lαβ空间色彩映射的遥感影像批量调色方法 |
CN113159624A (zh) * | 2021-05-12 | 2021-07-23 | 临沂大学 | 基于直觉模糊数的云3d打印服务评价多属性决策方法 |
-
2008
- 2008-12-12 CN CN2008101832372A patent/CN101447020B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN101447020A (zh) | 2009-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101447020B (zh) | 基于直觉模糊的色情图像识别方法 | |
US7362892B2 (en) | Self-optimizing classifier | |
CN103605972B (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
CN110263673A (zh) | 面部表情识别方法、装置、计算机设备及存储介质 | |
CN108090830B (zh) | 一种基于面部画像的信贷风险评级方法和装置 | |
CN109063724A (zh) | 一种增强型生成式对抗网络以及目标样本识别方法 | |
CN109344759A (zh) | 一种基于角度损失神经网络的亲属识别方法 | |
CN109902736A (zh) | 一种基于自动编码器构建特征表示的肺结节图像分类方法 | |
CN108875829A (zh) | 一种乳腺肿瘤图像的分类方法及系统 | |
CN107506786A (zh) | 一种基于深度学习的属性分类识别方法 | |
CN110084610A (zh) | 一种基于孪生神经网络的网络交易欺诈检测系统 | |
CN106845528A (zh) | 一种基于K‑means与深度学习的图像分类算法 | |
CN101916369B (zh) | 基于核最近子空间的人脸识别方法 | |
Saadi et al. | Investigation of effectiveness of shuffled frog-leaping optimizer in training a convolution neural network | |
CN108427740B (zh) | 一种基于深度度量学习的图像情感分类与检索算法 | |
CN104809469A (zh) | 一种面向服务机器人的室内场景图像分类方法 | |
CN110070116A (zh) | 基于深度树状训练策略的分段式选择集成图像分类方法 | |
CN109344856B (zh) | 一种基于多层判别式特征学习的脱机签名鉴别方法 | |
CN107451545A (zh) | 基于软标签下多通道判别非负矩阵分解的人脸识别方法 | |
CN105631416A (zh) | 采用新型密度聚类进行人脸识别的方法 | |
CN108205684A (zh) | 图像消歧方法、装置、存储介质和电子设备 | |
CN109165698A (zh) | 一种面向智慧交通的图像分类识别方法及其存储介质 | |
CN107292225A (zh) | 一种人脸识别方法 | |
CN108154924A (zh) | 基于支持向量机的阿尔茨海默症特征分类方法及系统 | |
CN107220598A (zh) | 基于深度学习特征和Fisher Vector编码模型的虹膜图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110706 Termination date: 20141212 |
|
EXPY | Termination of patent right or utility model |