CN104123538A - 一种基于视觉词袋的网络不良图像检测方法 - Google Patents
一种基于视觉词袋的网络不良图像检测方法 Download PDFInfo
- Publication number
- CN104123538A CN104123538A CN201410317098.3A CN201410317098A CN104123538A CN 104123538 A CN104123538 A CN 104123538A CN 201410317098 A CN201410317098 A CN 201410317098A CN 104123538 A CN104123538 A CN 104123538A
- Authority
- CN
- China
- Prior art keywords
- image
- visual word
- word bag
- formula
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明公开了一种基于视觉词袋的网络不良图像检测方法,具体按照以下步骤实施:图像预处理,获取图像中的肤色区域;特征提取与描述,得到肤色区域关键点的特征向量;构建视觉词袋,将图像关键点中最能代表图像特征的特征向量筛选出来,组成图像的视觉词袋;图像检测,用训练好的分类器对图像的视觉词袋进行分类,从而完成不良图像的检测。本发明方法进行不良图像识别和检测时与其它同类方法相比正检率较高,检测耗时较短,可以作为一种高效的网络不良图像检测方法,具有一定的理论和实用价值。
Description
技术领域
本发明属于网络信息安全技术领域,涉及一种图像识别和检查方法,具体涉及一种基于视觉词袋的网络不良图像检测方法。
背景技术
词袋模型最初应用于文档检测与分类领域,因其具有简单、有效的特点得到广泛应用,为此计算机视觉领域的研究者们尝试将同样的方法应用到图像处理和识别领域,从此开始了词袋模型由文本处理领域向图像处理领域的过渡研究。
研究结果表明,利用视觉词袋进行图像特征的表示使得图像特征拥有较高的稳定性和准确性,符合图像分类与检测的要求,可以作为一种有效的图像检测和分类技术;同时对视觉词袋进行处理的分类方法具有动态可变性,能够有效弥补样本训练不足的缺陷。
发明内容
本发明提供了一种基于视觉词袋的网络不良图像检测方法,解决了现有不良图像检测方法正检率低、误检率较高、检测时间成本大的问题。
本发明所采用的技术方案是,一种基于视觉词袋的网络不良图像检测方法,具体按照以下步骤实施:
步骤1:图像预处理,获取图像中的肤色区域;
步骤2:特征提取与描述,得到肤色区域关键点的特征向量;
步骤3:构建视觉词袋,将图像关键点中最能代表图像特征的特征向量筛选出来,组成图像的视觉词袋;
步骤4:图像检测,用训练好的分类器对图像的视觉词袋进行分类,从而完成不良图像的检测。
本发明的特点还在于,
其中的步骤1图像预处理,具体按照以下步骤实施:
假设要对一个未知的图像样本X进行检测和分类,将其分成非肤色类W1和肤色类W2,用Cij表示原本为Wj类的图像样本X被分类成wi类时所产生的成本,其中i,j表示不同的类别,假设当i=j时,表示图像样本被正确分类,即原本图像样本为肤色区域被分类为肤色类,或者原本图像样本为非肤色区域被分类为非肤色类,此时Cij表示图像样本分类正确的成本,而当i≠j时,表示图像样本被错误分类,即原本为非肤色区域被分类为肤色类,或者原本为肤色区域被分类为非肤色类,此时Cij表示图像样本分类错误时的成本,再假设Ri(x)表示待检测图像样本X被分类为Wi类的成本总数,其中x表示图像特征,根据以上变量的假设,得到公式(1)和公式(2):
R1=C11·p(W1|X)+C12·p(W2|X) (1)
R2=C21·p(W1|X)+C22·p(W2|X) (2)
其中p(Wi|X)表示未知的图像样本X属于Wi类的条件概率;
假如有公式(3)和公式(4)的成立:
那么,得到公式(5)和公式(6):
将公式(5)和公式(6)导入贝叶斯公式(7):
得到公式(8)和公式(9)的结论:
其中τ表示将未知图像样本X分类成非肤色类和肤色类时的阈值,其计算公式如公式(10)所示:
最优阈值τ的取值范围为[2,4]之间。
其中的步骤2特征提取与描述,具体按照以下步骤实施:
第一步:以图像像素点为单位,对图像进行均匀间隔采样;
第二步:对每一个特征点进行双尺度、均匀加权特征描述,获得双尺度特征向量。
其中的步骤3构建视觉词袋,具体按照以下步骤实施:
令c表示任意数据点,c1和c2表示两个不同类W1,W2的中心,d(c1,c2)、d(c,c1)和d(c,c2)分别表示数据点x到两个中心点c1和c2的距离,如果d(c1,c2)≥2d(c,c2),那么d(c,c2)≥d(c,c1),同样成立;
由于上述讨论的不等式对于任意三个数据点都适用,所以利用如下的方式来使用三角形三边关系定理:
令x表示数据集中任意一点,同时假设该点目前属于中心点为c的类中,c'表示其它类的中心点,则根据上述推论,如果公式11成立:
d(c,c')≥2d(x,c) (11)
则d(x,c')>d(x,c)。
其中的步骤4用训练好的分类器对图像的视觉词袋进行分类,从而完成不良图像的检测,具体按照以下步骤实施:
首先通过样本训练得到SVM分类器的最优超平面,之后根据最优超平面确定正支持向量平面和负支持向量平面;假设在SVM分类空间中将训练样本的分布用三个超平面进行划分,那么通过比较测试样本与正支持向量平面和负支持向量平面之间的距离,之后统计测试样本的视觉词袋中被划分到负支持向量平面所代表的类中的特征向量比例,若比例大于一定的阈值,其中阈值的取值范围为[2,4],则测试样本为不良图像,反之则为正常图像,选用径向基核函数作为SVM分类器的空间转换核函数。
本方法的有益效果是,对图像中的图像特征提出了一种检测和识别方法,并对该检测和识别方法中各个环节的关键技术进行实验分析比对,其结果表明各个环节的关键技术在经过改进之后具有较高的稳定性,最终进行不良图像识别和检测时与其它同类方法相比正检率较高,检测耗时较短,可以作为一种高效的网络不良图像检测方法。因此基于视觉词袋的网络不良图像检测方法具有一定的理论和实用价值。
附图说明
图1是本发明方法的步骤1的算法流程图;
图2是本发明方法的步骤2中不同采样间隔对特征提取与描述准确率的影响的结果;
图3是本发明方法的步骤3视觉词袋构造算法的流程图;
图4是本发明方法的步骤3中聚类中心个数对视觉单词产生影响的结果;
图5是本发明方法的步骤3中改进后视觉词袋构造准确率和构造时间成本的结果。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明基于视觉词袋的网络不良图像检测方法,按照以下步骤实施:
1、图像预处理,用于获取图像中的肤色区域;2、特征提取与描述,得到肤色区域关键点的特征向量;3、构建视觉词袋,将图像关键点中最能代表图像特征的特征向量筛选出来,组成图像的视觉词袋;4、图像检测,用训练好的分类器对图像的视觉词袋进行分类,从而完成不良图像检测的工作。
本发明建立的不良图像检测模型主要由肤色区域检测模块、图像特征提取模块、视觉词袋构建模块和分类器构建四个基本模块组成。
(1)肤色区域检测模块
肤色区域检测模块是对图像中肤色区域和非肤色区域进行分割,过滤掉图像中的非肤色区域,保留图像中的肤色区域。
(2)图像特征提取与描述模块
特征提取与描述模块通过改进后的SIFT特征描述子进行图像的特征提取和描述,在保持传统的SIFT特征描述子所具有尺度不变性和旋转不变性特点的基础上,通过利用改进后的双尺度US-SIFT描述子,不仅使得提取出来的图像特征点数量更加丰富,而且使得利用改进后的特征描述子进行图像分类的准确率增加,同时简化了特征提取和描述的复杂度。
(3)视觉词袋构建模块
传统的视觉词袋构建方法是用的是K-means聚类算法,该算法具有初始值选取随机和计算过程过于复杂两个缺点,为此,本发明对这两个缺点进行改进,使得改进后的K-means聚类算法的聚类效果更加准确,从而使构建出来的视觉词袋能更准确的代表图像本身的特征。
(4)图像检测模块
首先通过训练样本获取分类器相关参数,其次利用训练好的分类器对测试图像的视觉词袋进行分类,并输出测试图像判定结果。
参照图1,本发明的步骤1中肤色区域检测阶段,按照以下步骤实施:
利用如下的计算过程确定肤色区域在YCbCr颜色空间中的Cr分量上新的上下限:
Step1:假设肤色区域在Cr分量上的取值范围是[c1,c2],其中c1,c2表示人体肤色在Cr分量上分布区域的上下限,则通过公式12计算出取值范围的平均值,记作Ave;
Step2:通过公式13和公式14分别计算出肤色区域在Cr分量上的取值范围[c1,c2]的两个端点c1、c2与平均值Ave之间的差值,记为d1、d2;
d1=Ave-c1 (13)
d2=c2-Ave (14)
Step3:通过公式15和公式16分别计算出肤色区域在Cr分量上新的上限和下限,记为Nc1、Nc2;
Nc1=c1-d1 (15)
Nc2=c2+d2 (16)
Step4:将原始图像Cr分量上小于Nc1、大于Nc2的Cr分量进行过滤;
Step5:设定一个较大的贝叶斯肤色分割阈值τ1,其中τ1的取值范围为[2,4],利用贝叶斯肤色检测模型对余下的所有Cr分量进行分类,若分类结果为肤色类,则将该Cr分量对应的肤色像素点分类到肤色类,反之执行Step6;
Step6:设定一个较小的贝叶斯肤色分割阈值τ2,其中τ2的取值范围为[2,4],利用贝叶斯肤色检测模型对余下的所有Cr分量进行分类,若分类结果为肤色类,则该Cr分量对应的肤色像素点分类到肤色类;反之将该Cr分量对应的肤色像素点分类到非肤色类;
Step7:判断所有待分类Cr分量是否已经被分类完毕,若没有,则执行Step5;反之,则结束分类工作。
参照图2,本发明的步骤2中特征提取与描述,按照以下步骤实施:
US-SIFT描述子使用均匀采样的方法,按同等像素间隔对图像进行特征的抽取,其采样间隔由参数“间距”进行控制,这里用space来表示。这样便可以得到大量的特征点,因此可以保证更好地利用图像的丰富信息。由于其不需要将每个关键点都与其邻域及上下层相同位置区域的26个点进行比较来判断极值点,因此也大大降低了计算的复杂度。
在基于space大小的采样间隔进行特征点的抽取之后,为每个特征点分配统一的尺度S,例如两个像素宽度,这里的尺度可根据实际情况进行统一的设定,避免了计算尺度的大量复杂的运算。
在对特征点进行描述时,为了保证特征的旋转不变性,首先将其调整至0°,然后以特征点为圆心,以预先分配的尺度S为半径构造圆形区域,将落在该圆形区域的像素点分成4×4个不重叠的子区域,在每个子区域内计算8个方向的梯度累加,其中这8个方向分别是(0°,45°,90°,135°,180°,225°,270°,315°)。
与SIFT不同,在US-SIFT特征描述中,本发明用矩形窗函数代替高斯窗函数,对特征点的邻域进行均匀加权而不是梯度加权,这样不但可以减少计算量,还可以保证性能不受损失,这样每个特征点在进行US-SIFT特征描述之后用128维的向量来进行表示。
由于US-SIFT采用的是均匀抽取关键点的方法,因此其特征点的尺度不变性可能会受到一定的破坏,为了保证尺度不变性,本发明对同一特征点进行多尺度的抽取,对每一个特征点用2个不同的尺度进行抽取和描述。这样小尺度表示了图像的细节特征,大尺度表示了图像特征点的全局特征。
这样通过上述方法可以在得到大量图像特征点的前提下,还能保证经过US-SIFT特征描述子描述后的特征向量同时保持尺度不变性和旋转不变性。
利用US-SIFT描述子进行特征提取的对像素点进行统一尺度的均匀采样,而右侧图则表示对每一个采样点进行2个尺度的抽取,以保证尺度不变性,本发明将尺度设置为4和6。
参照图3,本发明在步骤3中视觉词袋构造阶段的视觉词袋构造算法,按照以下步骤实施:
改进后的k-means聚类算法的聚类计算过程如下:
Step1:从输入的数据集X中随机选择一个数据点作为初始聚类中心点c1,并且假设分类迭代次数为H,初始值为0;
Step2:将距离中心点c1最远的数据点作为第二个聚类中心点c2,H=H+1;
Step3:将数据集X中除中心点之外所有点按照其跟中心点距离最近原则划入这两个中心点所代表的类中,分别将两个类记为class1、class2,此时聚类中心点个数K=2;
Step5:输出聚类中心集合C,其中
本发明的步骤4中SVM分类器分类阶段,按照以下步骤实施:
假设最优超平面、正支持向量平面、负支持向量平面分别如下所示:
最优超平面:g(v)=wTv+α=0
正支持向量平面:g+(v)=wTv+α=1
负支持向量平面:g-(v)=wTv+α=-1
其中v是输入的特征向量,w是权重向量,α是偏置向量。
利用SVM分类器进行不良图像检测的具体步骤如下:
Step1:假设W={v1,v2,…,vi}表示测试图像的视觉词袋,di(vi,g+)表示特征向量vi到正支持向量平面的距离,di(vi,g-)表示特征向量vi到负支持向量平面的距离,Cout+表示测试样本的视觉词袋中特征向量vi被分类到正支持向量平面中的个数,Cout-表示测试样本的视觉词袋中特征向量vi被分类到负支持向量平面中的个数,Tmp表示特征向量中被分类为负支持向量平面的比例,Ratio表示判断测试图像为不良图像和正常图像的阈值;
Step2:计算di(vi,g+)和di(vi,g-),计算公式如公式18和公式19所示:
其中表示特征向量v到最优超平面的距离,表示最优超平面到正支持向量平面和负支持向量平面之间的距离。
Step3:比较di(vi,g+)和di(vi,g-)的大小,若计算di(vi,g+)>di(vi,g-),则Cout++1,反之,Cout-+1;
Step4:判断是否视觉词袋W={v1,v2,…,vi}中所有的特征向量计算完毕,若没有,则执行Step2,反之执行Step5;
Step5:利用公式20计算Tmp;
Step6:若Tmp≥Ratio,则测试图像的判断结果为不良图像,反之则为正常图像,其中这里Ratio的取值为0.4。
表1是本方法步骤1肤色区域检测算法改进后与改进前等性能指标性能比较表。其中(a)为YCbCr颜色空间上贝叶斯肤色检测模型试验结果,(b)为结合阈值分割的贝叶斯肤色检测模型试验结果。
表1 背景复杂程度不同下的肤色区域提取结果
(a)YCbCr颜色空间上的贝叶斯肤色检测模型实验结果
(b)结合阈值分割改进后的贝叶斯肤色检测模型实验结果
在贝叶斯肤色检测模型当中引入阈值分割和两次贝叶斯判别之后,图像中的肤色区域提取准确率得到明显提升,对背景比较简单的图像中的肤色区域提取的正检率有较为明显的提升,对背景比较复杂的图像中的肤色区域提取的误检率则有所降低,该模型对图像中肤色区域提取的正检率和检测速度有明显提高,对光照和不同人种的肤色具有较好的鲁棒性,但是肤色区域检测的误检率稍有增加。
表2、表3是本方法步骤2中特征提取与描述改进后与改进前等性能指标性能比较表。
对图像进行特征提取与描述的相关算法而言,其主要评价指标有两个,一个是特征提取的准确率,另外一个是算法的复杂度,即效率。
表2给出了利用改进后的描述子对图像进行特征提取与描述的准确率统计结果。
表2 US-SIFT描述子与SIFT描述子图像分类准确率比较
图像数目 | US-SIFT | SIFT |
10 | 75.0% | 62.5% |
20 | 83.5% | 70.0% |
30 | 84.5% | 71.5% |
从表2的结果可以看出,应用US-SIFT描述子所得到的分类准确率要远远好于SIFT描述子的结果,这就验证了本发明提出的改进方法的有效性。
下面就算法的复杂度进行比较。如果仅仅考虑特征抽取环节,US-SIFT因为避免了大量的复杂运算,所以其抽取速度要明显快于SIFT描述子。但是将其应用到词袋模型中时,正如前面所讨论的,其密集的特征区域必然会给后续的聚类环节带来一定的数据负担。为了解决这一问题,对US-SIFT进行了最优参数选取,根据实验结果将space的值设为8。在实验时,统计了当space的值为8时的US-SIFT以及SIFT的算法运行时间,这里,运行时间是指包括训练时间和测试时间在内的时间和,得到的结果如表3所示。
表3 US-SIFT与SIFT(space=8)特征描述时的运行时间比较
图像数目 | US-SIFT | SIFT |
10 | 631.91ms | 692.46ms |
20 | 683.64ms | 734.16ms |
30 | 713.15ms | 784.65ms |
从表3的实验结果可以看出,经过参数优化的US-SIFT描述子的运行时间要略小于应用SIFT描述子的运行时间,这也验证了对US-SIFT描述子进行参数选取的必要性和意义。
表4、表5是本方法步骤3视觉词袋构造算法的改进后与改进前等性能指标性能比较表。
表4 不同检测方法对不良图像与正常图像实际检测数据
表5 不同检测方法性能对比
由表5可以看出,三种检测方法的实际性能相差不是很大,相对来讲AnaP.B.Lopes的方法在三种不良图像检测方法中检测性能最好,正检率与其他三种方法的正检率相当,误检率明显低于其他三种方法,单幅图像的耗时也处于中等水平,而本发明提出的方法在三种检测方法中具有最优的正检率和耗时最短,只是误检率明显高于其他两种方法。综上所述,本发明的方法在实验中体现了较好的不良图像检测正确率和较好的时间性能。
图4是本发明方法的步骤3中聚类中心个数对视觉单词产生影响的结果的实际实验结果展示。图5是本发明方法的步骤3中改进后视觉词袋构造准确率和构造时间成本的结果的实际实验结果展示。
Claims (5)
1.一种基于视觉词袋的网络不良图像检测方法,其特征在于,具体按照以下步骤实施:
步骤1:图像预处理,获取图像中的肤色区域;
步骤2:特征提取与描述,得到肤色区域关键点的特征向量;
步骤3:构建视觉词袋,将图像关键点中最能代表图像特征的特征向量筛选出来,组成图像的视觉词袋;
步骤4:图像检测,用训练好的分类器对图像的视觉词袋进行分类,从而完成不良图像的检测。
2.根据权利要求1所述的基于视觉词袋的网络不良图像检测方法,其特征在于,所述的步骤1图像预处理,具体按照以下步骤实施:
假设要对一个未知的图像样本X进行检测和分类,将其分成非肤色类W1和肤色类W2,用Cij表示原本为Wj类的图像样本X被分类成wi类时所产生的成本,其中i,j表示不同的类别,假设当i=j时,表示图像样本被正确分类,即原本图像样本为肤色区域被分类为肤色类,或者原本图像样本为非肤色区域被分类为非肤色类,此时Cij表示图像样本分类正确的成本,而当i≠j时,表示图像样本被错误分类,即原本为非肤色区域被分类为肤色类,或者原本为肤色区域被分类为非肤色类,此时Cij表示图像样本分类错误时的成本,再假设Ri(x)表示待检测图像样本X被分类为Wi类的成本总数,其中x表示图像特征,根据以上变量的假设,得到公式(1)和公式(2):
R1=C11·p(W1|X)+C12·p(W2|X) (1)
R2=C21·p(W1|X)+C22·p(W2|X) (2)
其中p(Wi|X)表示未知的图像样本X属于Wi类的条件概率;
假如有公式(3)和公式(4)的成立:
那么,得到公式(5)和公式(6):
将公式(5)和公式(6)导入贝叶斯公式(7):
得到公式(8)和公式(9)的结论:
其中τ表示将未知图像样本X分类成非肤色类和肤色类时的阈值,其计算公式如公式(10)所示:
最优阈值τ的取值范围为[2,4]之间。
3.根据权利要求1所述的基于视觉词袋的网络不良图像检测方法,其特征在于,所述的步骤2特征提取与描述,具体按照以下步骤实施:
第一步:以图像像素点为单位,对图像进行均匀间隔采样;
第二步:对每一个特征点进行双尺度、均匀加权特征描述,获得双尺度特征向量。
4.根据权利要求1所述的基于视觉词袋的网络不良图像检测方法,其特征在于,所述的步骤3构建视觉词袋,具体按照以下步骤实施:
令c表示任意数据点,c1和c2表示两个不同类W1,W2的中心,d(c1,c2)、d(c,c1)和d(c,c2)分别表示数据点x到两个中心点c1和c2的距离,如果d(c1,c2)≥2d(c,c2),那么d(c,c2)≥d(c,c1),同样成立;
由于上述讨论的不等式对于任意三个数据点都适用,所以利用如下的方式来使用三角形三边关系定理:
令x表示数据集中任意一点,同时假设该点目前属于中心点为c的类中,c'表示其它类的中心点,则根据上述推论,如果公式11成立:
d(c,c')≥2d(x,c) (11)
则d(x,c')>d(x,c)。
5.根据权利要求1所述的基于视觉词袋的网络不良图像检测方法,其特征在于,所述的步骤4用训练好的分类器对图像的视觉词袋进行分类,从而完成不良图像的检测,具体按照以下步骤实施:
首先通过样本训练得到SVM分类器的最优超平面,之后根据最优超平面确定正支持向量平面和负支持向量平面;假设在SVM分类空间中将训练样本的分布用三个超平面进行划分,那么通过比较测试样本与正支持向量平面和负支持向量平面之间的距离,之后统计测试样本的视觉词袋中被划分到负支持向量平面所代表的类中的特征向量比例,若比例大于一定的阈值,其中阈值的取值范围为[2,4],则测试样本为不良图像,反之则为正常图像,选用径向基核函数作为SVM分类器的空间转换核函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410317098.3A CN104123538B (zh) | 2014-07-04 | 2014-07-04 | 一种基于视觉词袋的网络不良图像检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410317098.3A CN104123538B (zh) | 2014-07-04 | 2014-07-04 | 一种基于视觉词袋的网络不良图像检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104123538A true CN104123538A (zh) | 2014-10-29 |
CN104123538B CN104123538B (zh) | 2018-11-06 |
Family
ID=51768943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410317098.3A Expired - Fee Related CN104123538B (zh) | 2014-07-04 | 2014-07-04 | 一种基于视觉词袋的网络不良图像检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104123538B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654094A (zh) * | 2015-11-25 | 2016-06-08 | 小米科技有限责任公司 | 特征提取方法及装置 |
CN107291737A (zh) * | 2016-04-01 | 2017-10-24 | 腾讯科技(深圳)有限公司 | 敏感图像识别方法及装置 |
CN112380535A (zh) * | 2020-11-13 | 2021-02-19 | 重庆科技学院 | 一种基于cbow的恶意代码三通道可视化识别方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679132A (zh) * | 2013-07-15 | 2014-03-26 | 北京工业大学 | 一种敏感图像识别方法及系统 |
-
2014
- 2014-07-04 CN CN201410317098.3A patent/CN104123538B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679132A (zh) * | 2013-07-15 | 2014-03-26 | 北京工业大学 | 一种敏感图像识别方法及系统 |
Non-Patent Citations (3)
Title |
---|
DOUGLAS CHAI ET AL.: ""A BAYESIAN APPROACH TO SKIN COLOR CLASSIFICATION IN YCBCR COLOR SPACE"", 《IEEE》 * |
傅泉生 等: ""基于视觉词袋与文本分析的成人图像判定算法"", 《计算机工程与应用》 * |
冯嘉: ""SIFT算法的研究和改进"", 《中国优秀硕士学位论文全文数据库•信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654094A (zh) * | 2015-11-25 | 2016-06-08 | 小米科技有限责任公司 | 特征提取方法及装置 |
CN105654094B (zh) * | 2015-11-25 | 2019-11-29 | 小米科技有限责任公司 | 特征提取方法及装置 |
CN107291737A (zh) * | 2016-04-01 | 2017-10-24 | 腾讯科技(深圳)有限公司 | 敏感图像识别方法及装置 |
CN107291737B (zh) * | 2016-04-01 | 2019-05-14 | 腾讯科技(深圳)有限公司 | 敏感图像识别方法及装置 |
CN112380535A (zh) * | 2020-11-13 | 2021-02-19 | 重庆科技学院 | 一种基于cbow的恶意代码三通道可视化识别方法 |
CN112380535B (zh) * | 2020-11-13 | 2022-04-19 | 重庆科技学院 | 一种基于cbow的恶意代码三通道可视化识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104123538B (zh) | 2018-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108830188B (zh) | 基于深度学习的车辆检测方法 | |
Peng et al. | A new approach for imbalanced data classification based on data gravitation | |
CN102147866B (zh) | 基于训练自适应增强和支持矢量机的目标识别方法 | |
US9008365B2 (en) | Systems and methods for pedestrian detection in images | |
CN105389480B (zh) | 多类不平衡基因组学数据迭代集成特征选择方法及系统 | |
Jordanov et al. | Classifiers accuracy improvement based on missing data imputation | |
CN104537647A (zh) | 一种目标检测方法及装置 | |
CN101196564B (zh) | 拉普拉斯正则化最小二乘合成孔径雷达自动目标识别方法 | |
CN104063719A (zh) | 基于深度卷积网络的行人检测方法及装置 | |
CN103136504A (zh) | 人脸识别方法及装置 | |
CN102156887A (zh) | 一种基于局部特征学习的人脸识别方法 | |
CN103473786A (zh) | 基于多目标模糊聚类的灰度图像分割方法 | |
CN104463128A (zh) | 用于人脸识别的眼镜检测方法及系统 | |
CN102346851B (zh) | 基于njw谱聚类标记的图像分割方法 | |
CN101251896B (zh) | 一种基于多分类器的物体检测系统及方法 | |
CN102236901A (zh) | 基于图论聚类和色彩不变空间的目标跟踪方法 | |
Wang et al. | Mode-seeking on hypergraphs for robust geometric model fitting | |
CN103279746A (zh) | 一种基于支持向量机的人脸识别方法及系统 | |
CN103886334A (zh) | 一种多指标融合的高光谱遥感影像降维方法 | |
Tavallali et al. | An efficient training procedure for viola-jones face detector | |
CN106022223A (zh) | 一种高维局部二值模式人脸识别方法及系统 | |
CN106056165A (zh) | 一种基于超像素关联性增强Adaboost分类学习的显著性检测方法 | |
CN104966075A (zh) | 一种基于二维判别特征的人脸识别方法与系统 | |
CN105184286A (zh) | 一种车辆检测方法及检测装置 | |
CN104123538A (zh) | 一种基于视觉词袋的网络不良图像检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181106 Termination date: 20210704 |