CN102034107A - 基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法 - Google Patents

基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法 Download PDF

Info

Publication number
CN102034107A
CN102034107A CN 201010570786 CN201010570786A CN102034107A CN 102034107 A CN102034107 A CN 102034107A CN 201010570786 CN201010570786 CN 201010570786 CN 201010570786 A CN201010570786 A CN 201010570786A CN 102034107 A CN102034107 A CN 102034107A
Authority
CN
China
Prior art keywords
image
skin
training
unique point
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201010570786
Other languages
English (en)
Other versions
CN102034107B (zh
Inventor
高新波
田春娜
李亮
李英
颜建强
王秀美
孙李斌
袁博
赵林
杨曦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN 201010570786 priority Critical patent/CN102034107B/zh
Publication of CN102034107A publication Critical patent/CN102034107A/zh
Application granted granted Critical
Publication of CN102034107B publication Critical patent/CN102034107B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法,主要解决现有基于低级语义特征的方法不足以描述不良图像信息的内容,从而导致误判的问题。其步骤是:(1)采用高斯混合模型寻求多峰肤色分布的规律,建立肤色模型;(2)通过Bootstrap的主动反馈方法优化肤色模型;(3)引入人眼视觉注意模型,检测图像中有限的显著特征点;(4)进一步利用肤色区域去除冗余特征点;(5)对图像保留下来的感兴趣点采用尺度不变特征转换SIFT进行描述;(6)生成不良图像和正常图像的码本库;(7)采用稀疏表示中的图像重构误差检索出不良图像。实验结果表明,本发明具有更强的鲁棒性,能更好的分辨出不良图像和正常图像。

Description

基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法
技术领域
本发明属于图像理解技术领域,特别涉及不良图像中的视觉注意力特征提取和基于稀疏表示的判别方法,可用于基于图像内容分析与理解的不良图像判别。
背景技术
随着互联网的飞速发展,无线通信技术将迈向4G网络时代,高质量的多媒体通信使人们获得大量有用信息。然而,淫秽色情等不良信息的传播也更为隐蔽化和多样化。全国扫黄打非办的调查研究结果表明:手机涉黄危害的重点是未成年人。为更好的保护未成年人的心理健康,相关部门从法律、制度层面对手机网络中泛滥的淫秽色情内容进行打击。如何从技术上有效地遏制不良图像信息的传播是亟待解决的问题。为此,本发明针对不良图像中信息模式复杂的特点,通过分析图像内容,根据图像包含的语义信息进行图像不良程度的分级,为多媒体通信中的不良信息拦截提供有效的技术支撑。研究成果对净化社会环境、保护青少年健康成长,维护社会伦理道德及和谐稳定等方面具有积极的作用和深远的意义。
传统的不良信息检测的方法是:先找到图像中感兴趣的类肤色区域,并对该区域进行内容分析与理解。因此不良信息检测任务包含如下几个关键步骤:图像的感兴趣区域提取,图像视觉内容表达。下面分别从这两个方面的研究现状、发展动态及其在不良图像信息检测中的应用进行综述与分析。
(1)图像的感兴趣区域提取
由于彩色不良图像中包含裸露的肤色区域,因此肤色定位是不良信息检测的首要步骤。早期的不良信息检测首先检测类肤色区域,然后根据肤色的面积、形状,肤色与非肤色区域的比例,肤色联通区域的数目等特征来判别图像的性质,Jones J等人在“Jones J,RehgM.Statistical color models with application to skin detection.CVPR.Ft.Collins,Co,USA,1999,1:1274-1280.”一文中完成上述工作。
上述方法依赖于肤色提取的效果,因此研究人员提出诸多方法来建立肤色模型。这就涉及到如何选择颜色空间来表示肤色。研究表明人类肤色集中在YCbCr色彩空间中较小的区域,且特征值比较稳定,对人种的变化较为鲁棒,即肤色在YCbCr色彩空间具有一定的聚类特性。Chai D等人在“Chai D,Ngan N.Locating facial region of a head-and-shoulders colorimage[C].ICAFGR.Nara,Japan,1998:124-129.”一文中采用简单的模型定义肤色的CbCr取值范围。上述无参数的肤色检测方法不具鲁棒性,因此,在YCbCr空间中Yang H等人在“YangH,Ahuja N.Detecting human faces in color images.ICIP.Illinois,USA,1998,1:127-130.”一文中采用高斯模型,Yang H等人在“Yang H,Ahuja N.Gaussian mixture model for human skincolor and its application in image and video databases.Storage and Retrieval for Image andVideo Databases.CO,USA,1999,3656:458-466.”一文中采用混合高斯模型(Gaussian mixturemodel,GMM),通过概率统计来提高算法的稳定性。
(2)图像视觉内容的表达
目前大部分不良信息检测方法依赖于肤色区域低层语义分析的结果,如果不对肤色区域进行语义内容分析,容易导致产生误判。未来信息过滤技术的主导方向是基于内容理解的过滤技术。因此,如何加强对图像内容的表达是不良信息判别技术提高的关键。
为增加图像的内容信息,受自然语言处理中基于词袋模型BoW的文本分类方法的启发,BoW被计算机视觉研究人员用来描述图像,即将图像视为由若干视觉单词组成的文本,视觉单词之间无顺序关系。研究基于BoW的不良图像检测才刚刚起步,Deselaers T等人在“Deselaers T,Pimenidis L Ney H.Bag-of-visual-words models for adult image classificationand filtering.ICPR.Florida,USA,2008.”一文中采用该方法表示图像,输入SVM比较测试图像与训练类的单词直方图分布,实现图像不良程度的5级分类。基于BoW的图像语义描述是解决不良信息检测极具潜力的发展方向之一。
基于BoW的视觉单词生成通常包括三个步骤:特征检测、特征描述和码本生成。规则网格是最简单的特征检测方法,它用水平和垂直线来分割图像得到图像块,但缺乏对图像内容的分析。兴趣点检测器如:Harris仿射区域检测器、高斯差分检测器等,检测图像中更吸引人注意的拐点和斑点等显著块,在目标分类中更有用。常用的SIFT描述子对检测到的特征进行描述时,一定程度上能处理强度、旋转、缩放和仿射等变换。最后,采用K均值聚类或GMM把特征向量转换为码本。从而,图像中的特征通过聚类被映射为一个确定的码词,而图像被表示成码词的直方图。
上述已有的不良信息分类方法主要存在以下两个主要问题:
(1)由于不良图像包含裸露的人体敏感区域,现有方法主要对人体的肤色区域进行简单特征分析实现不良信息识别。然而很多图像都包含类肤色场景,如果不对肤色区域进行语义分析,难免会发生误检。
(2)传统的高级语义分析方法同样存在缺陷,首先在图像的特征提取上,由于待处理的图像场景往往是未知、变化的,而不良信息是确定的,因此在图像背景上提取的特征会包含大量的冗余信息,这样会对后面的分类造成很大的影响;其次在使用词袋模型生成码本的时候使用的是欧氏距离测度,不能很好的描述提取得到的特征点,同样会对后面的实验造成影响,降低检测率。
发明内容
本发明目的在于克服上述已有不良信息检测算法的不足,提出一种基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法,以减少传统方法中得到的大量冗余信息,提高不良图像的检测率。
实现本发明的技术思路是:通过提取图像中所关注的特征即视觉注意特征减少传统方法中得到的大量冗余信息,并结合cosine距离测度下的词袋模型来更好的描述提取得到的特征点,以实现不良信息图像的判别。实现过程分为训练阶段和测试阶段:在训练阶段,通过词袋模型生成只含有肤色区域特征的不良信息图像和正常图像码本库;在测试阶段,对于待测试的图像同样提取其只包含肤色区域的特征,然后分别从用不良信息图像特征库和正常图像特征库来稀疏表示待测图像的特征,根据稀疏表示后的误差大小来判断待测图像的类别。具体实现步骤如下:
A.在色彩空间YCbCr中,去除影响肤色判别的亮度信息Y后,采用高斯混合模型寻求多峰肤色分布的规律,得到肤色训练样本;
B.对A步中得到肤色训练样本通过Bootstrap的主动反馈方法搜索扩展肤色示例集上最能减小肤色训练样本中分布“不确定性”的示例,通过选择扩展示例集上那些不能被正确预测的示例子集作为Bootstrap子样,然后将这个示例加入训练示例集,并对示例集再训练来逼近该类示例真实分布情况的预测器,以此提升肤色训练样本的典型性和多样性,避免发生过拟合,从而建立肤色模型;
C.引入人眼视觉注意模型,用高斯差分算子检测训练图像中有限的角点和斑点,形成感兴趣的特征点集合:V{W1(x,y,σ),W2(x,y,σ)L,Wn(x,y,σ)},其中(x,y)表示特征点W的坐标,σ表示特征点W的尺度;
D.对步骤C提取特征点后的训练图像,使用A和B步建立的肤色模型去除其非肤色部分,得到只含有肤色区域特征点的训练图像;
E.将步骤D中检测到的特征点稀疏化:以特征点集合V中的每个特征点W(x,y,σ)为中心,取5x5的像素块N,计算N内肤色面积:skin=∑SWS(x,y,σ)和非肤色面积:nonskin=∑NSWNS(x,y,σ),其中WS(x,y,σ)为N内的肤色像素,WNS(x,y,σ)为N内的非肤色像素,当skin/nonskin<1判定该特征点为野点,最后从特征点集合V中删除该野点,得到特征点集合V′:V′={W(x,y,σ)|skin/nonskin>1};
F.以步骤E中保留下来的每个特征点W(x,y,σ)为中心取8x8的小正方形窗口,然后将8x8的小正方形窗口合并为4x4个正方形,计算这4x4个正方形内每一个像素点8个正方向的梯度,使合并的4x4个正方形和每个正方形内像素点的8个正方向形成对一个特征点128维的特征向量,表示为f;
G.取相似内容的训练图像M幅,每幅训练图像通过上述步骤A-F得到特征点集合V′内特征点128维的特征向量并构成特征矩阵,可得到M个这样的特征矩阵,对M个特征矩阵中的特征向量通过K均值cosine距离聚类得到这些特征的C个聚类中心,定义每个聚类中心为一个视觉单词,C个视觉单词组成该类图像的码本集合B={b1,b2,L,bC},其中b表示视觉单词,C表示视觉单词个数;
H.将训练图像按照是否曝露人体隐私部位分为不良图像类和正常图像类,对上述两类图像通过步骤G形成不良图像码本B1={b1,1,b1,2,L,b1,C},和正常图像码本B2={b2,1,b2,2,L,b2,C};
I.假设测试图像I属于某类图像,则该测试图像的特征向量f用不良图像码本中单词表示为:
Figure BDA0000035671660000041
其中α1是不良图像码本类中稀疏解向量,该测试图像的特征向量f用正常图像码本中单词表示为:
Figure BDA0000035671660000042
其中α2是不良图像码本类中稀疏解向量;
J.根据稀疏解向量公式:
Figure BDA0000035671660000043
和min||α||1,求解稀疏解向量α,其中||g||0表示l0范数;
K.根据求解出的α值,得到步骤I中
Figure BDA0000035671660000044
的值,再求取测试图像的特征向量f分别与
Figure BDA0000035671660000045
的差D1和与
Figure BDA0000035671660000046
的差D2,若D1<D2则判定测试图像为不良图像,若D1>D2则判定测试图像为正常图像。
本发明与已有的不良信息图像检测方法相比,具有以下优点:
(1)本发明将Bootstrap提升算法引入到GMM肤色建模中,避免肤色模型出现过配问题,使肤色检测更鲁棒。
(2)本发明将视觉感知中的注意力模型引入到图像视觉单词提取过程中,在降低冗余性的同时,提高视觉单词的鉴别性。
(3)本发明在生成码本的过程采用cosine距离测度,更加符合提取的尺度不变特征转换SIFT特征对关键点方向的描述,增强提取关键点的鲁棒性。
(4)本发明对图像采用稀疏表示的方法,有效判别训练图像中的相似信息,对测试图像进行不良信息判别。
本发明的技术过程和效果可结合以下附图详细说明。
附图说明
图1是本发明对不良信息图像判别的总体流程图;
图2是本发明基于主动反馈GMM的肤色模型子流程图;
图3是本发明仿真得到的肤色区域的感兴趣点图;
图4是本发明仿真得到去除非感兴趣区域前后的特征点匹配效果图。
具体实施方式
参照图1,本发明基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法主要包括以下两个阶段:
一.码本训练阶段
步骤1,构建肤色模型。
1a)读入待训练的图像I,并将图像I从一种颜色空间RGB转换到另一种颜色空间YCbCr,其中Y表示亮度分量,Cb是蓝色色度分量,Cr是红色色度分量;
1b)去除亮度分量Y后,在CbCr色度空间中采用混合高斯模型建立肤色模型,其混合高斯模型的概率密度函数为:
G ( x | ω , μ , Σ ) = Σ n = 1 m ω n N D ( x | μ n , Σ n ) - - - ( 3 )
其中m为高斯分量的个数,ω=(ω1,ω2,…,ωQ)是m个独立高斯分量在混合模型中的权重,0<ωn<1,∑mωn=1,∑=(∑1,∑2,…,∑m)和μ=(μ1,μ2,…,μm)分别是各个高斯分量的协方差矩阵和均值向量,其中
Figure BDA0000035671660000052
是第m个分量的D维正态密度函数;
1c)利用自然计算在进化过程中的保留最佳个体的策略,确定多高斯敏感度判别模型中的最优高斯分量数m,以此来确定最优高斯分量数目m,适应性度量函数为:
Figure BDA0000035671660000061
式中N为随机且相互独立新增高斯的选择次数,m为最优高斯分量数,ψ(xtj,δj)是均值为μj、方差为δj的高斯密度函数,xt表示第t个像素的色彩特征[Cb,Cr]T,其中Cb是蓝色色度分量,Cr是红色色度分量,εj是高斯分量的混合比例系数,满足∑jεj=1采用复制和变异两种遗传算子,假设当前高斯数目为T,按照聚类准则对不同高斯分类,随机选择一个点作为新增高斯的中心点,新增高斯经过期望最大化方法进行参数优化,然后随机且相互独立的做N次新增高斯的选择,共产生m×N个结果,从中进行选择,保留具有最佳适应度的后代,经过选择可知分量数m取为8具有最佳适应度,即多高斯敏感度判别模型在分量数为8的情况下,能够较好地拟合人体的肤色分布;
1d)在高斯分量数目m确定的条件下,使用期望最大化EM算法估计多高斯模型的各个参数,分为E-步和M-步,其中E-步用于计算对数似然函数的期望,M-步用于选择期望最大的参数,再将选择好的参数代入E-步,计算期望,如此反复,直到收敛到最大似然意义上的最优解为止。
步骤2,通过Bootstrap的主动反馈方法提升肤色训练样本的典型性和多样性,避免发生过拟合,对步骤1中建立的肤色模型进行优化。
参见图2,本步骤的具体实现如下:
2a)给定一个候选示例集S,将第i次迭代所得的预测器Pi在扩展示例集Si上的错误预测率用f表示,指定可接受的最大错误预测率为fth,设置初始迭代次数i=1;
2b)从S中随机抽取一个小示例集Sr作为初始训练数据集T1,Sr可为非典型示例集;
2c)在Ti上训练一个预测器Pi,该训练方法是利用“田春娜,高新波,李洁.基于嵌入式Bootstrap的主动学习示例选择方法.计算机研究与发展,Vol.43,No.10,pp.1706-1712,2006.”一文所提出的方法进行训练;
2d)从候选示例集S中随机抽取一个扩展示例集Si,用预测器Pi估计扩展示例集Si,将预测器Pi估计错误的示例组成子集合计算第i此迭代得到的错误预测率:
Figure BDA0000035671660000063
其中|g|表示集合的势或大小;
2e)如果i此迭代中得到的错误预测率fi不大于错误率的阈值fth:即fi≤fth,则执行2f);否则:累加迭代次数:i=i+1,并将不能正确预测的样本
Figure BDA0000035671660000064
加入到第i-1次的训练样本集Ti-1中,得到第i次训练所需的样本集Ti,即:
Figure BDA0000035671660000071
转到2b);
2f)由2e)步中的预测错误阈值fth自动确定迭代的次数iB,经过iB次迭代可得到训练示例集:
Figure BDA0000035671660000072
其中
Figure BDA0000035671660000073
表示扩展示例集Sj中预测器Pj错误估计的示例;
2g)在示例集TB上训练得到的预测器PB可表示为:
Figure BDA0000035671660000074
其中P将预测器PB表示成TB的函数;
步骤3,引入人眼视觉注意力模型,用DoG算子检测图像中有限的角点、斑点这些显著特征点。
3a)定义一幅DoG图像:D(x,y,σ)=L(x,y,kiσ)-L(x,y,kjσ),其中L(x,y,kσ)为图像I(x,y)与尺度可变高斯函数的卷积;
3b)去除部分非感兴趣点:
由于步骤3a)中定义的DoG图像的极值在横跨边缘的地方有较大的主曲率,而在垂直边缘的方向有较小的主曲率,故要找到并去除这些主曲率等同于求解2x2的Hessian矩阵H的特征值,令α为最大特征值,β为最小特征值,定义γ=α/β,定义R=Tr(H)2/Det(H),故当Tr(H)2/Det(H)<(γ+1)2/γ时,去除满足该式一部分非感兴趣点,得到特征点集合V{W1(x,y,σ),W2(x,y,σ)L,Wn(x,y,σ)},其中(x,y)表示特征点W的坐标,s表示特征点W的尺度;
步骤4,对步骤3中检测到的特征点进一步稀疏化:由于图像通过步骤3处理后,在皮肤与背景相交处的边缘区域仍存在大量的非感兴趣特征点,对于不良信息分类来说,这些点不具有鉴别性,为此,要将步骤3中检测到的特征点进一步稀疏化,即以特征点集合V中的每个特征点W(x,y,σ)为中心,取5x5的像素块N,分别计算N内肤色面积:skin=∑SWS(x,y,σ)和非肤色面积:nonskin=∑NSWNS(x,y,σ),其中WS(x,y,σ)为N内的肤色像素,WNS(x,y,σ)为N内的非肤色像素,当skin/nonskin<1时,判定该特征点为野点;最后从特征点集合V中删除该野点,得到特征点集合:V′={W(x,y,σ)|skin/nonskin>1},其仿真结果参见附图3和图4,其中:
图3(a)和图3(c)是图像提取的特征点未稀疏化的结果图,图3(b)和图3(d)是图像提取的特征点进一步稀疏化后的结果图,从图3可以看出图像稀疏化后的特征点更具有代表性;
图4(a)是图像提取的特征点未稀疏化的匹配图,图4(b)是图像提取的特征点稀疏化后的匹配图,从图4可以看出稀疏化后的特征点具有更好的鲁棒性。
步骤5,对于通过步骤4保留下来的局部特征点W(x,y,σ),采用尺度不变特征转换SIFT特征进行描述,以特征点W(x,y,σ)为中心取8x8的窗口,然后将8x8的小正方形窗口合并为4x4个正方形,用梯度公式计算这4x4个正方形内每一个像素点8个正方向的梯度,使合并的4x4个正方形和每个正方形内像素点的8个正方向形成对一个特征点128维的特征向量,表示为f。
步骤6,训练码本。
6a)取相似内容的训练图像M幅,对每幅训练图像进行上述步骤1-5,得到M个特征矩阵;
6b)对M个特征矩阵中的特征向量通过K均值cosine距离聚类,得到这些特征的C个聚类中心;
6c)定义每个聚类中心为一个视觉单词,用C个视觉单词组成该类图像的码本集合B={b1,b2,L,bC},其中b表示视觉单词,C表示视觉单词个数;
6b)将训练图像按照是否曝露人体隐私部位分为不良图像类和正常图像类,对上述两类图像通过步骤6a)-6c)形成不良图像码本B1={b1,1,b1,2,L,b1,C}和正常图像码本B2={b2,1,b2,2,L,b2,C}。
二.测试阶段
步骤A,将测试图像通过码本训练阶段的步骤3得到其显著特征点;
步骤B,将步骤A处理过的图像通过码本训练阶段的步骤4得到感兴趣的显著特征点;
步骤C,将步骤B处理过的图像通过码本训练阶段的步骤5得到感兴趣显著特征点的尺度不变特征转换SIFT描述向量;
步骤D,求解稀疏解向量α。
D1)对于测试图像I的特征向量f用不良图像码本中单词表示为:其中α1是不良图像码本类中稀疏解向量;对该测试图像的特征向量f用正常图像码本中单词表示为:
Figure BDA0000035671660000082
其中α2是正常图像码本类中稀疏解向量;
D2)在稀疏解向量足够稀疏的情况下,求解稀疏解向量α可以转化为如下优化问题:min ||α||0且满足α=arg min ||f-Bα||2
D3)根据拉格朗日定理,对步骤D2)中的式子通过最小化如下的目标函数:E(α;λ)=||f-Bα||2+λ||α||0求解稀疏解向量α,其中f为测试图像的特征向量,B为图像的码本集合,参数λ>0是逼近项和稀疏项之间的平衡因子,上式中的稀疏解向量α可通过Lasso正则化l1范数线性回归来求解;
D4)按照步骤D3)的目标函数给出不良图像的目标函数:E(α1;λ)=||f-Bα1||2+λ||α1||0,并通过Lasso正则化l1范数线性回归法求解出不良图像码本类中稀疏解向量α1
D5)按照步骤D3)的目标函数给出正常图像的目标函数:E(α2;λ)=||f-Bα2||2+λ||α2||0,并通过Lasso正则化l1范数线性回归法求解出正常图像码本类中稀疏解向量α2
步骤E,将步骤D4)和步骤D5)求解出的不良图像码本类中稀疏解向量α1和正常图像码本类中稀疏解向量α2,带入到步骤D1)中式和式
Figure BDA0000035671660000092
得到不良图像码本中单词表示
Figure BDA0000035671660000093
的值和正常图像码本中单词表示
Figure BDA0000035671660000094
的值,再求取测试图像的特征向量f分别与的差D1和与
Figure BDA0000035671660000096
的差D2,若D1<D2则判定测试图像为不良图像,若D1>D2则判定测试图像为正常图像。

Claims (3)

1.一种基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法,包括如下过程:
A.在色彩空间YCbCr中,去除影响肤色判别的亮度信息Y后,采用高斯混合模型寻求多峰肤色分布的规律,得到肤色训练样本;
B.对A步中得到肤色训练样本通过Bootstrap的主动反馈方法搜索扩展肤色示例集上最能减小肤色训练样本中分布“不确定性”的示例,通过选择扩展示例集上那些不能被正确预测的示例子集作为Bootstrap子样,然后将这个示例加入训练示例集,并对示例集再训练来逼近该类示例真实分布情况的预测器,以此提升肤色训练样本的典型性和多样性,避免发生过拟合,从而优化步骤A建立的肤色模型;
C.引入人眼视觉注意模型,用高斯差分算子检测训练图像中有限的角点和斑点,形成感兴趣的特征点集合:V{W1(x,y,σ),W2(x,y,σ)L,Wn(x,y,σ)},其中(x,y)表示特征点W的坐标,σ表示特征点W的尺度;
D.对步骤C提取特征点后的训练图像,使用A和B步建立的肤色模型去除其非肤色部分,得到只含有肤色区域特征点的训练图像;
E.将步骤D中检测到的特征点稀疏化:以特征点集合V中的每个特征点W(x,y,σ)为中心,取5x5的像素块N,计算N内肤色面积:skin=∑SWS(x,y,σ)和非肤色面积:nonskin=∑NSWNS(x,y,σ),其中WS(x,y,σ)为N内的肤色像素,WNS(x,y,σ)为N内的非肤色像素,当skin/nonskin<1判定该特征点为野点,最后从特征点集合V中删除该野点,得到特征点集合V′:V′={W(x,y,σ)|skin/nonskin>1};
F.以步骤E中保留下来的每个特征点W(x,y,σ)为中心取8x8的小正方形窗口,然后将8x8的小正方形窗口合并为4x4个正方形,用梯度公式计算这4x4个正方形内每一个像素点8个正方向的梯度,使合并的4x4个正方形和每个正方形内像素点的8个正方向形成对一个特征点128维的特征向量,表示为f;
G.取相似内容的训练图像M幅,每幅训练图像通过上述步骤A-F得到特征点集合V′内特征点128维的特征向量并构成特征矩阵,可得到M个这样的特征 矩阵,对M个特征矩阵中的特征向量通过K均值cosine距离聚类得到这些特征的C个聚类中心,定义每个聚类中心为一个视觉单词,C个视觉单词组成该类图像的码本集合B={b1,b2,L,bC},其中b表示视觉单词,C表示视觉单词个数;
H.将训练图像按照是否曝露人体隐私部位分为不良图像类和正常图像类,对上述两类图像通过步骤G形成不良图像码本B1={b1,1,b1,2,L,b1,C},和正常图像码本B2={b2,1,b2,2,L,b2,C};
I.假设测试图像I属于某类图像,则该测试图像的特征向量f用不良图像码本中单词表示为: 
Figure FDA0000035671650000021
其中α1是不良图像码本类中稀疏解向量,该测试图像的特征向量f用正常图像码本中单词表示为: 其中α2是正常图像码本类中稀疏解向量;
J.根据稀疏解向量公式: 和min||α||1,求解稀疏解向量α,其中||g||0表示l0范数;
K.根据求解出的α值,得到步骤I中 的值,再求取测试图像的特征向量f分别与 的差D1和与 的差D2,若D1<D2则判定测试图像为不良图像,若D1>D2则判定测试图像为正常图像。
2.根据权利要求1所述的不良图像判别方法,其特征在于步骤A所述的采用高斯混合模型寻求多峰肤色分布的规律,得到肤色训练样本,按如下过程进行:
A1.利用适应性度量函数求解最优高斯分量数m,该适应性度量函数式I为: 
Figure FDA0000035671650000027
式中N为随机且相互独立新增高斯的选择次数,ψ(xtj,δj)是均值为μj、方差为δj的高斯密度函数,xt表示第t个像素的色彩特征[Cb,Cr]T,其中Cb是蓝色色度分量,Cr是红色色度分量,εj是高斯分量的混合比例系数;
A2.在步骤A1中高斯分量数目m确定后,再使用EM算法估计多高斯敏感度判别模型的各个参数。 
3.根据权利要求1所述的不良图像判别方法,其特征在于步骤B所述的Bootstrap的主动反馈方法,按如下过程进行:
B1.给定一个候选示例集S,将第i次迭代所得的预测器Pi在扩展示例集Si上的错误预测率用f表示,指定可接受的最大错误预测率为fth,设置初始迭代次数i=1;
B2.从S中随机抽取一个小示例集Sr作为初始训练数据集T1,Sr可为非典型示例集;
B3.在Ti上训练一个预测器Pi,该训练方法是利用“田春娜,高新波,李洁.基于嵌入式Bootstrap的主动学习示例选择方法.计算机研究与发展,Vol.43,No.10,pp.1706-1712,2006.”一文所提出的方法进行训练;
B4.从候选示例集S中随机抽取一个扩展示例集Si,用预测器Pi估计扩展示例集Si,将预测器Pi估计错误的示例组成子集合 
Figure FDA0000035671650000031
计算第i此迭代得到的错误预测率: 
Figure FDA0000035671650000032
其中|g|表示集合的势或大小;
B5.如如果i此迭代中得到的错误预测率fi不大于错误率的阈值fth:即fi≤fth,则执行(B5);否则:累加迭代次数:i=i+1,并将不能正确预测的样本 
Figure FDA0000035671650000033
加入到第i-1次的训练样本集Ti-1中,得到第i次训练所需的样本集Ti,即: 
Figure FDA0000035671650000034
转到(B2);
B6.由(B5)步中的预测错误阈值fth自动确定迭代的次数iB,经过iB次迭代可得到训练示例集: 
Figure FDA0000035671650000035
其中 
Figure FDA0000035671650000036
表示扩展示例集Sj中预测器Pj错误估计的示例;
B7.在示例集TB上训练得到的预测器PB可表示为: 其中P将预测器PB表示成TB的函数。
CN 201010570786 2010-12-02 2010-12-02 基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法 Expired - Fee Related CN102034107B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010570786 CN102034107B (zh) 2010-12-02 2010-12-02 基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010570786 CN102034107B (zh) 2010-12-02 2010-12-02 基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法

Publications (2)

Publication Number Publication Date
CN102034107A true CN102034107A (zh) 2011-04-27
CN102034107B CN102034107B (zh) 2012-12-05

Family

ID=43886970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010570786 Expired - Fee Related CN102034107B (zh) 2010-12-02 2010-12-02 基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法

Country Status (1)

Country Link
CN (1) CN102034107B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413125A (zh) * 2013-08-26 2013-11-27 中国科学院自动化研究所 基于判别性示例选择多示例学习的恐怖视频识别方法
CN103473555A (zh) * 2013-08-26 2013-12-25 中国科学院自动化研究所 基于多视角多示例学习的恐怖视频场景识别方法
CN104134059A (zh) * 2014-07-25 2014-11-05 西安电子科技大学 保持颜色信息的形变敏感器官模型下的不良图像检测方法
CN104318562A (zh) * 2014-10-22 2015-01-28 百度在线网络技术(北京)有限公司 一种用于确定互联网图像的质量的方法和装置
CN105007395A (zh) * 2015-07-22 2015-10-28 深圳市万姓宗祠网络科技股份有限公司 一种连续记录视频、影像的隐私处理方法
CN108241870A (zh) * 2016-12-23 2018-07-03 赫克斯冈技术中心 用于分配测量数据内特定的感兴趣类别的方法
WO2018223327A1 (en) * 2017-06-08 2018-12-13 The Procter & Gamble Company Method and device for holistic evaluation of subtle irregularities in digital image
CN109740599A (zh) * 2019-01-03 2019-05-10 华东理工大学 一种基于视觉增强gLSTM的图像描述生成方法
CN110321866A (zh) * 2019-07-09 2019-10-11 西北工业大学 基于深度特征稀疏化算法的遥感图像场景分类方法
CN109740599B (zh) * 2019-01-03 2024-05-14 华东理工大学 一种基于视觉增强gLSTM的图像描述生成方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7443515B2 (ja) 2019-12-16 2024-03-05 ザ プロクター アンド ギャンブル カンパニー 一体型吐出ノズルを備える液体吐出システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1704966A (zh) * 2004-05-28 2005-12-07 中国科学院计算技术研究所 一种色情图像检测方法
CN101819638A (zh) * 2010-04-12 2010-09-01 中国科学院计算技术研究所 色情检测模型建立方法和色情检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1704966A (zh) * 2004-05-28 2005-12-07 中国科学院计算技术研究所 一种色情图像检测方法
CN101819638A (zh) * 2010-04-12 2010-09-01 中国科学院计算技术研究所 色情检测模型建立方法和色情检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《北京理工大学学报》 20080531 王宇石等 "基于局部视觉单词分布的成人图像检测" 410-413 1-3 第28卷, 第5期 *
《计算机研究与发展》 20061231 田春娜等 "基于嵌入式Bootstrap 的主动学习示例选择方法" 1706-1712 1-3 第43卷, 第10期 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413125A (zh) * 2013-08-26 2013-11-27 中国科学院自动化研究所 基于判别性示例选择多示例学习的恐怖视频识别方法
CN103473555A (zh) * 2013-08-26 2013-12-25 中国科学院自动化研究所 基于多视角多示例学习的恐怖视频场景识别方法
CN103413125B (zh) * 2013-08-26 2016-08-17 中国科学院自动化研究所 基于判别性示例选择多示例学习的恐怖视频识别方法
CN103473555B (zh) * 2013-08-26 2016-09-21 中国科学院自动化研究所 基于多视角多示例学习的恐怖视频场景识别方法
CN104134059A (zh) * 2014-07-25 2014-11-05 西安电子科技大学 保持颜色信息的形变敏感器官模型下的不良图像检测方法
CN104134059B (zh) * 2014-07-25 2017-07-14 西安电子科技大学 保持颜色信息的混合形变模型下的不良图像检测方法
CN104318562A (zh) * 2014-10-22 2015-01-28 百度在线网络技术(北京)有限公司 一种用于确定互联网图像的质量的方法和装置
CN104318562B (zh) * 2014-10-22 2018-02-23 百度在线网络技术(北京)有限公司 一种用于确定互联网图像的质量的方法和装置
CN105007395B (zh) * 2015-07-22 2018-02-16 深圳市万姓宗祠网络科技股份有限公司 一种连续记录视频、影像的隐私处理方法
CN105007395A (zh) * 2015-07-22 2015-10-28 深圳市万姓宗祠网络科技股份有限公司 一种连续记录视频、影像的隐私处理方法
CN108241870A (zh) * 2016-12-23 2018-07-03 赫克斯冈技术中心 用于分配测量数据内特定的感兴趣类别的方法
WO2018223327A1 (en) * 2017-06-08 2018-12-13 The Procter & Gamble Company Method and device for holistic evaluation of subtle irregularities in digital image
US10706529B2 (en) 2017-06-08 2020-07-07 The Procter & Gamble Company Method and device for holistic evaluation of subtle irregularities in a digital image
CN109740599A (zh) * 2019-01-03 2019-05-10 华东理工大学 一种基于视觉增强gLSTM的图像描述生成方法
CN109740599B (zh) * 2019-01-03 2024-05-14 华东理工大学 一种基于视觉增强gLSTM的图像描述生成方法
CN110321866A (zh) * 2019-07-09 2019-10-11 西北工业大学 基于深度特征稀疏化算法的遥感图像场景分类方法
CN110321866B (zh) * 2019-07-09 2023-03-24 西北工业大学 基于深度特征稀疏化算法的遥感图像场景分类方法

Also Published As

Publication number Publication date
CN102034107B (zh) 2012-12-05

Similar Documents

Publication Publication Date Title
CN102034107B (zh) 基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法
CN106650806B (zh) 一种用于行人检测的协同式深度网络模型方法
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
Laptev Improving object detection with boosted histograms
Hariharan et al. Semantic contours from inverse detectors
CN105260738B (zh) 基于主动学习的高分辨率遥感影像变化检测方法及系统
CN102117413B (zh) 基于多层特征的不良图像自动过滤方法
CN109902806A (zh) 基于卷积神经网络的噪声图像目标边界框确定方法
CN103870811B (zh) 一种用于视频监控的正面人脸快速判别方法
CN110580460A (zh) 基于行人身份和属性特征联合识别验证的行人再识别方法
CN105144239A (zh) 图像处理装置、程序及图像处理方法
CN102938054B (zh) 基于视觉注意模型的压缩域敏感图像识别方法
CN103295024B (zh) 分类与对象检测方法和装置以及图像拍摄和处理设备
CN105574063A (zh) 基于视觉显著性的图像检索方法
CN104424466A (zh) 对象检测方法、对象检测设备及图像拾取设备
CN104268552B (zh) 一种基于部件多边形的精细类别分类方法
CN103971106A (zh) 多视角人脸图像性别识别方法及装置
CN103473545A (zh) 一种基于多特征的文本图像相似度度量方法
Chen et al. Ibm research australia at lifeclef2014: Plant identification task.
CN105608443B (zh) 一种多特征描述及局部决策加权的人脸识别方法
Chen et al. Unsupervised learning of probabilistic object models (poms) for object classification, segmentation and recognition
CN104156690A (zh) 一种基于图像空间金字塔特征包的手势识别方法
Wang et al. S 3 d: scalable pedestrian detection via score scale surface discrimination
CN110599463A (zh) 一种基于轻量级联神经网络的舌像检测及定位算法
CN106909883A (zh) 一种基于ros的模块化手部区域检测方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121205

Termination date: 20181202