CN106778581A - 一种移动终端“敏感”信息识别方法 - Google Patents
一种移动终端“敏感”信息识别方法 Download PDFInfo
- Publication number
- CN106778581A CN106778581A CN201611116654.6A CN201611116654A CN106778581A CN 106778581 A CN106778581 A CN 106778581A CN 201611116654 A CN201611116654 A CN 201611116654A CN 106778581 A CN106778581 A CN 106778581A
- Authority
- CN
- China
- Prior art keywords
- picture
- sensitivity
- feature
- face
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Abstract
一种移动终端“敏感”信息识别方法,其以最大化识别“敏感”图片信息(如身着军装、警服等)为目标,基于机器学习算法,设计高效智能方法,包括画面扫描和特征提取及匹配两个主要步骤。画面扫描阶段是初步提取画面特征实现动态画面到静态图片的转换;特征提取及匹配阶段通过倒双三角双重判别算法、PCA面部识别、Sobel边缘检测算法以及KNN算法实现“敏感”图片识别。本发明能够快速高效的对涉及党、政、军的“敏感”画面进行识别,可用于对移动终端进行全面的防护,真正做到在信息链源头保障机密信息的安全。
Description
技术领域
本发明涉及信息安全识别方法,具体涉及一种移动终端“敏感”信息识别方法。
背景技术
随着信息时代的到来,互联网技术已经改变了人们传统的生产和生活方式,移动智能终端的普及率逐年增加,根据The Consumer Barometer机构统计报告显示,2016年中国的智能手机普及率为58%,预计2020年,中国智能手机普及率将达到90%以上。移动终端已经成为互联网的重要入口,而大量“敏感”信息(例如,涉及党、政、军的敏感画面及文字信息)却充斥互联网,例如2016年5月10日,辽宁丹东女辅警不雅照事件在社会中影响恶劣,给国家和政府形象造成巨大影响。
目前,从用户对智能手机的使用情况看,不同类型的用户群安全防范意识差别较大,“无意识”的信息泄露已成为不容忽视的一大泄密隐患。据最新资料统计,失泄密事件中53.7%是来自移动终端,这个比例在逐年提高。智能移动终端设备成为了失泄密的罪魁祸首,“无意识”的违规操作导致泄密事件发生的情况屡有发生,给国家和单位建设带来巨大损失。对于公安、军队、科研等一些特殊行业、部门的人员来说,不得不面临的新挑战。
发明内容
为了克服上述现有技术的不足,本发明的目的是提供一种移动终端“敏感”信息识别方法,用于对终端进行全面的防护,真正做到在信息链源头保障机密信息的安全。
为了实现上述目的,本发明采用的技术方案是:
一种移动终端“敏感”信息识别方法,分为画面扫描和特征提取及匹配两个阶段,其特征在于,包括以下步骤:
1)画面扫描阶段是将移动终端动态画面到静态图片的转换:
画面扫描以16×16为单位,30s/次扫描当前画面,初步提取画面特征,当画面出现两个或两个以上符合敏感信息特征时,截图至终端内存,通过存放在内存里,实现动态画面到静态图片的转换;
2)特征提取及匹配阶段是对图片进行分析并得出是否为“敏感”信息,特征提取及匹配阶段由倒双三角双重判别算法、PCA面部识别、Sobel边缘检测算法及KNN算法组成,详细步骤如下:
①将步骤1)处理的图片通过倒双三角双重判别算法以肤色可分性作为依据,在确定的颜色空间内,定义出肤色的边界,进而把肤色划分在一个确定的区域内部,以下式所定义:
②在YCbCr颜色空间,经试验发现验CbCr平面上一个像素的颜色如果落入下公式所表示的矩形区域内,则被认为属于肤色像素;
133≤Cr≤177;
29≤Cb≤127;
③由RGB与YCbCr的转换公式可知,我们可以在RGB空间中构造一个和YCbCr空间具有相同分类性能的皮肤检测器,以下式所示,
④将肤色在YUV和YIQ的色度空间上的分布进行了分析,通过YUV空间的相位角和YIQ空间的I分量联合的方法来确定肤色在色度信息上的分布范围,在YUV空间中,U和V是平面上两个相互正交的矢量,称为色度信号矢量,每一种颜色对应一个色度信号矢量,它的饱和度由模值Ch表示,色调由相位角θ表示;
⑤接下来判定符合人体肤色特征Cr分量所在区域,进而分割人脸,通过人面部各个特征部位识别眉毛、下巴、鼻尖等之间的坐标,计算瞳孔与鼻尖θ,瞳孔与嘴唇I;满足下式范围条件的几何图形初步认为是人脸。
⑥PCA面部识别将所定位脸部特征高维图像空间经PCA变换后得到一组新的正交基,对这些正交基做一定的取舍,保留其中的一部分生成低维的人脸空间,也即是人脸的特征子空间,利用PCA变换的生成矩阵Q,首先计算训练集的协方差矩阵X,其中x1,x2,…,xn为第i副图像的描述,即x1为一个列向量;
式中,e是矩阵P的特征值λ对应的特征向量,则有:
Pe=λl
⑦计算生成矩阵P的特征值和特征向量,并挑选合适的特征值和特征向量,构造特征子空间变化矩阵,把训练图像和测试图像投影到特征空间中,每一幅人脸图像投影到子空间以后,就对应于子空间的一个点,同样,子空间中的任一点也对应于一副图像。将重构的脸称为特征脸Eigenface,接下来,分别让样本集和测试集的图像投影到该子空间中,即:eigenvector'*X等等,然后得到一组坐标系数,把投影到特征子空间中的测试图像和样本集进行比较,判断人脸特征及所在位置;
⑧Sobel边缘检测算法通过人脸部定位服装所在坐标方位,利用Sobel边缘检测算法及KNN算法判断服装涉及敏感信息,并报警提示。
所述的Sobel边缘检测算法中的Sobel卷积因子为:该算子包含两组3x3的矩阵,分别为横向及纵向,将之与图像作平面卷积,即可分别得出横向及纵向的亮度差分近似值,如果以A代表原始图像,Gx及Gy分别代表经横向及纵向边缘检测的图像灰度值,公式如下:
Gx=(-1)*f(x-1,y-1)+0*f(x,y-1)+1*f(x+1,y-1)
+(-2)*f(x-1,y)+0*f(x,y)+2*f(x+1,y)
+(-1)*f(x-1,y+1)+0*f(x,y+1)+1*f(x+1,y+1)
=[f(x+1,y-1)+2*f(x+1,y)+f(x+1,y+1)]-[f(x-1,y-1)+2*f(x-1,y)+f(x-1,y+1)]
Gy=1*f(x-1,y-1)+2*f(x,y-1)+1*f(x+1,y-1)
+0*f(x-1,y)0*f(x,y)+0*f(x+1,y)
+(-1)*f(x-1,y+1)+(-2)*f(x,y+1)+(-1)*f(x+1,y+1)
=[f(x-1,y-1)+2f(x,y-1)+f(x+1,y-1)]-[f(x-1,y+1)+2*f(x,y+1)+f(x+1,y+1)];
式中f(a,b)表示图像(a,b)点的灰度值;图像的每一个像素的横向及纵向灰度值通过以下公式结合,来计算该点灰度的大小:如果梯度G大于某一阀值。则认为该点(x,y)为边缘点。通过将整张图片分析运算,即得出服装轮廓图。
所述的“敏感”信息判定KNN算法,包括如下步骤:
1)随机从特征库中选择k个样本作为移动终端“敏感”信息的k个初始最邻近节点;
2)计算移动终端“敏感”信息与每个初始k个初始最邻近节点的欧氏距离;
3)将步骤2所得结果排序,并求得其中最大值;
4)重复步骤2和步骤3并记录特征次数,并按照高低顺序排序;
5)依据步骤4结果判定图片信息是否“敏感”。
本发明的有益效果是:
1)基于PCA算法的双重“倒三角”定位判别法。在PCA基础上加入双重“倒三角”定位判别法,两个瞳孔分别和鼻尖、嘴唇组成对称等腰三角形,从而定位人脸范围和面部角度,以此作为人脸的特征值,极大提高人脸识别率。
2)利用了Sobel算子中梯度信息对图像进行边缘的检测。
附图说明
图1为发明的工作原理流程图。
具体实施方式
以下结合实施例对本发明进一步叙述。
如图1所示,一种移动终端“敏感”信息识别方法,分为画面扫描和特征提取及匹配两个阶段,包括以下步骤:
1)画面扫描阶段是将移动终端动态画面到静态图片的转换:
画面扫描以16×16为单位,30s/次扫描当前画面,初步提取画面特征,当画面出现两个或两个以上符合敏感信息特征时,截图至终端内存,通过存放在内存里,实现动态画面到静态图片的转换;
2)特征提取及匹配阶段是对图片进行分析并得出是否为“敏感”信息,特征提取及匹配阶段由倒双三角双重判别算法、PCA面部识别、Sobel边缘检测算法及KNN算法组成,详细步骤如下:
①将步骤1)处理的图片通过倒双三角双重判别算法以肤色可分性作为依据,在确定的颜色空间内,定义出肤色的边界,进而把肤色划分在一个确定的区域内部,以下式所定义:
②在YCbCr颜色空间,经试验发现验CbCr平面上一个像素的颜色如果落入下公式所表示的矩形区域内,则被认为属于肤色像素;
133≤Cr≤177;
29≤Cb≤127;
③由RGB与YCbCr的转换公式可知,我们可以在RGB空间中构造一个和YCbCr空间具有相同分类性能的皮肤检测器,以下式所示,
④将肤色在YUV和YIQ的色度空间上的分布进行了分析,通过YUV空间的相位角和YIQ空间的I分量联合的方法来确定肤色在色度信息上的分布范围,在YUV空间中,U和V是平面上两个相互正交的矢量,称为色度信号矢量,每一种颜色对应一个色度信号矢量,它的饱和度由模值Ch表示,色调由相位角θ表示;
⑤接下来判定符合人体肤色特征Cr分量所在区域,进而分割人脸,通过人面部各个特征部位识别眉毛、下巴、鼻尖等之间的坐标,计算瞳孔与鼻尖θ,瞳孔与嘴唇I;满足下式范围条件的几何图形初步认为是人脸。
⑥PCA面部识别将所定位脸部特征高维图像空间经PCA变换后得到一组新的正交基,对这些正交基做一定的取舍,保留其中的一部分生成低维的人脸空间,也即是人脸的特征子空间,利用PCA变换的生成矩阵Q,首先计算训练集的协方差矩阵X,其中x1,x2,…,xn为第i副图像的描述,即x1为一个列向量;
式中,e是矩阵P的特征值λ对应的特征向量,则有:
Pe=λl
⑦计算生成矩阵P的特征值和特征向量,并挑选合适的特征值和特征向量,构造特征子空间变化矩阵,把训练图像和测试图像投影到特征空间中,每一幅人脸图像投影到子空间以后,就对应于子空间的一个点,同样,子空间中的任一点也对应于一副图像。将重构的脸称为特征脸Eigenface,接下来,分别让样本集和测试集的图像投影到该子空间中,即:eigenvector'*X等等,然后得到一组坐标系数,把投影到特征子空间中的测试图像和样本集进行比较,判断人脸特征及所在位置;
⑧Sobel边缘检测算法通过人脸部定位服装所在坐标方位,利用Sobel边缘检测算法及KNN算法判断服装涉及敏感信息,并报警提示。
所述的Sobel边缘检测算法中的Sobel卷积因子为:该算子包含两组3x3的矩阵,分别为横向及纵向,将之与图像作平面卷积,即可分别得出横向及纵向的亮度差分近似值,如果以A代表原始图像,Gx及Gy分别代表经横向及纵向边缘检测的图像灰度值,公式如下:
Gx=(-1)*f(x-1,y-1)+0*f(x,y-1)+1*f(x+1,y-1)
+(-2)*f(x-1,y)+0*f(x,y)+2*f(x+1,y)
+(-1)*f(x-1,y+1)+0*f(x,y+1)+1*f(x+1,y+1)
=[f(x+1,y-1)+2*f(x+1,y)+f(x+1,y+1)]-[f(x-1,y-1)+2*f(x-1,y)+f(x-1,y+1)]
Gy=1*f(x-1,y-1)+2*f(x,y-1)+1*f(x+1,y-1)
+0*f(x-1,y)0*f(x,y)+0*f(x+1,y)
+(-1)*f(x-1,y+1)+(-2)*f(x,y+1)+(-1)*f(x+1,y+1)
=[f(x-1,y-1)+2f(x,y-1)+f(x+1,y-1)]-[f(x-1,y+1)+2*f(x,y+1)+f(x+1,y+1)];
式中f(a,b)表示图像(a,b)点的灰度值;图像的每一个像素的横向及纵向灰度值通过以下公式结合,来计算该点灰度的大小:如果梯度G大于某一阀值。则认为该点(x,y)为边缘点。通过将整张图片分析运算,即得出服装轮廓图。
所述的“敏感”信息判定KNN算法,包括如下步骤:
1)随机从特征库中选择k个样本作为移动终端“敏感”信息的k个初始最邻近节点;
2)计算移动终端“敏感”信息与每个初始k个初始最邻近节点的欧氏距离;
3)将步骤2所得结果排序,并求得其中最大值;
4)重复步骤2和步骤3并记录特征次数,并按照高低顺序排序;
5)依据步骤4结果判定图片信息是否“敏感”。
实施例:
取典型正、反例识别成功率(正、反例2000个),移动终端是否存在卡顿现象,报警平均延迟以及内存开销率。
表1列出的是本实验针对上述实验内容及目的的结果。
表1
实验结果与分析:
移动终端“敏感”信息识别系统在功能和性能方面都有良好的表现,图像识别方面优势明显,同时无卡顿现象,内存占用率较小,对硬件速度影响很小。缺点:对硬件有有依赖性,响应速度方面有待加强。
Claims (3)
1.一种移动终端“敏感”信息识别方法,分为画面扫描和特征提取及匹配两个阶段,其特征在于,包括以下步骤:
1)画面扫描阶段是将移动终端动态画面到静态图片的转换:
画面扫描以16×16为单位,30s/次扫描当前画面,初步提取画面特征,当画面出现两个或两个以上符合敏感信息特征时,截图至终端内存,通过存放在内存里,实现动态画面到静态图片的转换;
2)特征提取及匹配阶段是对图片进行分析并得出是否为“敏感”信息,特征提取及匹配阶段由倒双三角双重判别算法、PCA面部识别、Sobel边缘检测算法及KNN算法组成,详细步骤如下:
①将步骤1)处理的图片通过倒双三角双重判别算法以肤色可分性作为依据,在确定的颜色空间内,定义出肤色的边界,进而把肤色划分在一个确定的区域内部,以下式所定义:
②在YCbCr颜色空间,经试验发现验CbCr平面上一个像素的颜色如果落入下公式所表示的矩形区域内,则被认为属于肤色像素;
133≤Cr≤177;
29≤Cb≤127;
③由RGB与YCbCr的转换公式可知,我们可以在RGB空间中构造一个和YCbCr空间具有相同分类性能的皮肤检测器,以下式所示,
④将肤色在YUV和YIQ的色度空间上的分布进行了分析,通过YUV空间的相位角和YIQ空间的I分量联合的方法来确定肤色在色度信息上的分布范围,在YUV空间中,U和V是平面上两个相互正交的矢量,称为色度信号矢量,每一种颜色对应一个色度信号矢量,它的饱和度由模值Ch表示,色调由相位角θ表示;
⑤接下来判定符合人体肤色特征Cr分量所在区域,进而分割人脸,通过人面部各个特征部位识别眉毛、下巴、鼻尖等之间的坐标,计算瞳孔与鼻尖θ,瞳孔与嘴唇I;满足下式范围条件的几何图形初步认为是人脸;
⑥PCA面部识别将所定位脸部特征高维图像空间经PCA变换后得到一组新的正交基,对这些正交基做一定的取舍,保留其中的一部分生成低维的人脸空间,也即是人脸的特征子空间,利用PCA变换的生成矩阵Q,首先计算训练集的协方差矩阵X,其中x1,x2,...,xn为第i副图像的描述,即x1为一个列向量;
式中,e是矩阵P的特征值λ对应的特征向量,则有:
⑦计算生成矩阵P的特征值和特征向量,并挑选合适的特征值和特征向量,构造特征子空间变化矩阵,把训练图像和测试图像投影到特征空间中,每一幅人脸图像投影到子空间以后,就对应于子空间的一个点,同样,子空间中的任一点也对应于一副图像。将重构的脸称为特征脸Eigenface,接下来,分别让样本集和测试集的图像投影到该子空间中,即:eigenvector'*X等等,然后得到一组坐标系数,把投影到特征子空间中的测试图像和样本集进行比较,判断人脸特征及所在位置;
⑧Sobel边缘检测算法通过人脸部定位服装所在坐标方位,利用Sobel边缘检测算法及KNN算法判断服装涉及敏感信息,并报警提示。
2.根据权利要求1所述的一种移动终端“敏感”信息识别方法,其特征在于,所述的Sobel边缘检测算法中的Sobel卷积因子为:该算子包含两组3x3的矩阵,分别为横向及纵向,将之与图像作平面卷积,即可分别得出横向及纵向的亮度差分近似值,如果以A代表原始图像,Gx及Gy分别代表经横向及纵向边缘检测的图像灰度值,公式如下:
Gx=(-1)*f(x-1,y-1)+0*f(x,y-1)+1*f(x+1,y-1)
+(-2)*f(x-1,y)+0*f(x,y)+2*f(x+1,y)
+(-1)*f(x-1,y+1)+0*f(x,y+1)+1*f(x+1,y+1)
=[f(x+1,y-1)+2*f(x+1,y)+f(x+1,y+1)]-[f(x-1,y-1)+2*f(x-1,y)+f(x-1,y+1)]
Gy=1*f(x-1,y-1)+2*f(x,y-1)+1*f(x+1,y-1)
+0*f(x-1,y)0*f(x,y)+0*f(x+1,y)
+(-1)*f(x-1,y+1)+(-2)*f(x,y+1)+(-1)*f(x+1,y+1)
=[f(x-1,y-1)+2f(x,y-1)+f(x+1,y-1)]-[f(x-1,y+1)+2*f(x,y+1)+f(x+1,y+1)];式中f(a,b)表示图像(a,b)点的灰度值;图像的每一个像素的横向及纵向灰度值通过以下公式结合,来计算该点灰度的大小:如果梯度G大于某一阀值;则认为该点(x,y)为边缘点。通过将整张图片分析运算,即得出服装轮廓图。
3.根据权利要求1所述的一种移动终端“敏感”信息识别方法,其特征在于,所述的“敏感”信息判定KNN算法,包括如下步骤:
1)随机从特征库中选择k个样本作为移动终端“敏感”信息的k个初始最邻近节点;
2)计算移动终端“敏感”信息与每个初始k个初始最邻近节点的欧氏距离;
3)将步骤2所得结果排序,并求得其中最大值;
4)重复步骤2和步骤3并记录特征次数,并按照高低顺序排序;
5)依据步骤4结果判定图片信息是否“敏感”。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611116654.6A CN106778581A (zh) | 2016-12-07 | 2016-12-07 | 一种移动终端“敏感”信息识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611116654.6A CN106778581A (zh) | 2016-12-07 | 2016-12-07 | 一种移动终端“敏感”信息识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106778581A true CN106778581A (zh) | 2017-05-31 |
Family
ID=58882317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611116654.6A Pending CN106778581A (zh) | 2016-12-07 | 2016-12-07 | 一种移动终端“敏感”信息识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778581A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359551A (zh) * | 2018-09-21 | 2019-02-19 | 深圳市璇玑实验室有限公司 | 一种基于机器学习的敏感图像识别方法与系统 |
CN112149739A (zh) * | 2020-09-25 | 2020-12-29 | 厦门市美亚柏科信息股份有限公司 | 一种特殊服饰检测方法、终端设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1975759A (zh) * | 2006-12-15 | 2007-06-06 | 中山大学 | 一种基于结构主元分析的人脸识别方法 |
CN102184419A (zh) * | 2011-04-13 | 2011-09-14 | 深圳市迈科龙影像技术有限公司 | 基于敏感部位检测的色情图像识别方法 |
CN102542304A (zh) * | 2012-01-12 | 2012-07-04 | 郑州金惠计算机系统工程有限公司 | 识别wap手机色情图像的区域分割肤色算法 |
CN102842032A (zh) * | 2012-07-18 | 2012-12-26 | 郑州金惠计算机系统工程有限公司 | 基于多模式组合策略的移动互联网色情图像识别方法 |
CN102982322A (zh) * | 2012-12-07 | 2013-03-20 | 大连大学 | 基于pca图像重构和lda的人脸识别方法 |
CN103839076A (zh) * | 2014-02-25 | 2014-06-04 | 中国科学院自动化研究所 | 一种基于光照特征的网络敏感图像识别方法 |
CN104915634A (zh) * | 2015-02-16 | 2015-09-16 | 百度在线网络技术(北京)有限公司 | 基于人脸识别技术的图像生成方法和装置 |
CN105224921A (zh) * | 2015-09-17 | 2016-01-06 | 桂林远望智能通信科技有限公司 | 一种人脸图像择优系统和处理方法 |
-
2016
- 2016-12-07 CN CN201611116654.6A patent/CN106778581A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1975759A (zh) * | 2006-12-15 | 2007-06-06 | 中山大学 | 一种基于结构主元分析的人脸识别方法 |
CN102184419A (zh) * | 2011-04-13 | 2011-09-14 | 深圳市迈科龙影像技术有限公司 | 基于敏感部位检测的色情图像识别方法 |
CN102542304A (zh) * | 2012-01-12 | 2012-07-04 | 郑州金惠计算机系统工程有限公司 | 识别wap手机色情图像的区域分割肤色算法 |
CN102842032A (zh) * | 2012-07-18 | 2012-12-26 | 郑州金惠计算机系统工程有限公司 | 基于多模式组合策略的移动互联网色情图像识别方法 |
CN102982322A (zh) * | 2012-12-07 | 2013-03-20 | 大连大学 | 基于pca图像重构和lda的人脸识别方法 |
CN103839076A (zh) * | 2014-02-25 | 2014-06-04 | 中国科学院自动化研究所 | 一种基于光照特征的网络敏感图像识别方法 |
CN104915634A (zh) * | 2015-02-16 | 2015-09-16 | 百度在线网络技术(北京)有限公司 | 基于人脸识别技术的图像生成方法和装置 |
CN105224921A (zh) * | 2015-09-17 | 2016-01-06 | 桂林远望智能通信科技有限公司 | 一种人脸图像择优系统和处理方法 |
Non-Patent Citations (9)
Title |
---|
FABRÍZIA MEDEIROS DE SOUSA MATOS等: "An image vehicle classification method based on edge and PCA applied to blocks", 《2012 IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN, AND CYBERNETICS (SMC)》 * |
FATMA ZOHRA CHELALI等: "Face recognition system using skin detection in RGB and YCbCr color space", 《WSWAN》 * |
KU-JIN KIM等: "Clothing Identification Based on Edge Information", 《2008 IEEE ASIA-PACIFIC SERVICES COMPUTING CONFERENCE》 * |
LINLIN GAO等: "Face Orientation Recognition Based on Multiple Facial Feature Triangles", 《2012 INTERNATIONAL CONFERENCE ON CONTROL ENGINEERING AND COMMUNICATION TECHNOLOGY》 * |
MOHAMED BERBAR: "novel colors correction approaches for natural scenes and skin detection techniques", 《IJVIPNS-IJENS》 * |
SUBARNA SHAKYA等: "human behavior prediction using facial expression analysis", 《INTERNATIONAL CONFERENCE ON COMPUTING, COMMUNICATION AND AUTOMATION (ICCCA2016)》 * |
刘达志等: "一种有效的皮肤检测算法", 《计算机应用研究》 * |
周旭峰: "图像中的军装识别系统设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
黄禹馨等: "基于肤色和器官定位的实时人脸检测", 《计算机工程与科学》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359551A (zh) * | 2018-09-21 | 2019-02-19 | 深圳市璇玑实验室有限公司 | 一种基于机器学习的敏感图像识别方法与系统 |
CN112149739A (zh) * | 2020-09-25 | 2020-12-29 | 厦门市美亚柏科信息股份有限公司 | 一种特殊服饰检测方法、终端设备及存储介质 |
CN112149739B (zh) * | 2020-09-25 | 2022-09-09 | 厦门市美亚柏科信息股份有限公司 | 一种特殊服饰检测方法、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cerna et al. | Face detection: Histogram of oriented gradients and bag of feature method | |
Yang et al. | Constructing PCA baseline algorithms to reevaluate ICA-based face-recognition performance | |
CN105354554A (zh) | 基于颜色和奇异值特征的人脸活体检测方法 | |
Bristow et al. | Why do linear SVMs trained on HOG features perform so well? | |
Yang et al. | Recognizing clothes patterns for blind people by confidence margin based feature combination | |
Dave et al. | Face recognition in mobile phones | |
CN106056088B (zh) | 基于自适应虚拟样本产生准则的单样本人脸识别方法 | |
CN103714340B (zh) | 基于图像分块的自适应特征提取方法 | |
CN106778581A (zh) | 一种移动终端“敏感”信息识别方法 | |
KR101727833B1 (ko) | 얼굴인식을 위한 판별분석 기반의 복합 특징 벡터 생성 장치 및 방법 | |
Gou et al. | mom: Mean of moments feature for person re-identification | |
Levin et al. | Principal component analysis over continuous subspaces and intersection of half-spaces | |
Venkataramani et al. | Face authentication from cell phone camera images with illumination and temporal variations | |
CN105975965A (zh) | 一种人脸图像识别的双向鉴别特征提取方法 | |
CN109902766A (zh) | 一种生物特征识别方法及装置 | |
Deshpande et al. | Image Retrieval with the use of different color spaces and the texture feature | |
Shi et al. | Improving face recognition by exploring local features with visual attention | |
Hassan et al. | Facial image detection based on the Viola-Jones algorithm for gender recognition | |
a Taha et al. | Face spoofing detection using deep CNN | |
Wang et al. | 2DPCA vs. 2DLDA: face recognition using two-dimensional method | |
Mei et al. | Face recognition base on low dimension Gabor feature using direct fractional-step LDA | |
Junoh et al. | Safety system based on linear discriminant analysis | |
Günay et al. | Facial age estimation using spatial weber local descriptor | |
CN107516091A (zh) | 一种用于atm终端的头像遮掩判识方法 | |
Safayani et al. | Heteroscedastic multilinear discriminant analysis for face recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170531 |
|
RJ01 | Rejection of invention patent application after publication |