CN112001282A - 一种图像识别方法 - Google Patents
一种图像识别方法 Download PDFInfo
- Publication number
- CN112001282A CN112001282A CN202010816472.XA CN202010816472A CN112001282A CN 112001282 A CN112001282 A CN 112001282A CN 202010816472 A CN202010816472 A CN 202010816472A CN 112001282 A CN112001282 A CN 112001282A
- Authority
- CN
- China
- Prior art keywords
- image
- sensitive
- recognized
- evaluation value
- sensitive area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000001514 detection method Methods 0.000 claims abstract description 123
- 238000000605 extraction Methods 0.000 claims abstract description 82
- 238000013145 classification model Methods 0.000 claims abstract description 31
- 238000011156 evaluation Methods 0.000 claims description 115
- 238000012549 training Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 23
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 11
- 238000011176 pooling Methods 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 9
- 230000035945 sensitivity Effects 0.000 claims description 9
- 238000003709 image segmentation Methods 0.000 claims description 7
- 230000006835 compression Effects 0.000 claims description 5
- 238000007906 compression Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 238000013138 pruning Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 abstract description 9
- 238000002372 labelling Methods 0.000 description 17
- 210000000038 chest Anatomy 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 9
- 210000000481 breast Anatomy 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 230000001568 sexual effect Effects 0.000 description 7
- 238000004140 cleaning Methods 0.000 description 6
- 210000001752 female genitalia Anatomy 0.000 description 5
- 210000000260 male genitalia Anatomy 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000009193 crawling Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 210000004392 genitalia Anatomy 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 210000001217 buttock Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000003796 beauty Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000007789 sealing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000009329 sexual behaviour Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- BUGBHKTXTAQXES-UHFFFAOYSA-N Selenium Chemical compound [Se] BUGBHKTXTAQXES-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 229910052711 selenium Inorganic materials 0.000 description 1
- 239000011669 selenium Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提出了一种图像识别方法、装置、电子设备以及存储介质。其中,图像识别方法具体是:通过敏感区域检测模型对待识别图像进行检测,若确定待识别图像为敏感图像,则获取待识别图像的敏感区域;通过分类模型对敏感区域进行分类,得到敏感区域的特征提取类别;通过特征提取模型对敏感区域进行特征提取类别的特征提取,得到敏感区域的特征信息;计算特征信息与预设数据库中的各个特征信息之间的相似度,并将预设数据库中相似度最大的特征信息对应的类别确定为敏感区域的类别。通过本发明实施例,针对待识别图像可以提供更详细的检测信息,可以实现对敏感图像的类别的识别,以提高对待识别图像识别的准确性,保证社交产品中数据的安全性。
Description
技术领域
本发明涉及互联网技术领域,尤其涉及一种图像识别方法、图像识别装置、电子设备以及存储介质。
背景技术
随着互联网技术的不断发展,社交产品在人们日常生活中扮演着越来越重要的角色,诸如全民K歌、QQ音乐、WeSing等社交产品层出不穷,于是社交产品中存在的海量的图片、视频、直播等数据成为了人们关注的焦点。于是针对带有色情低俗性质、以及包含有敏感旗帜的图像或视频,是怎么进行敏感图像的类别的识别成为当前亟需解决的技术问题。
发明内容
本发明实施例提出了一种图像识别方法、图像识别装置、电子设备以及存储介质,可以提供更详细的检测信息,可以实现对敏感图像的类别的识别,以提高对待识别图像识别的准确性,保证社交产品中数据的安全性。
本发明实施例提出了一种图像识别方法,该图像识别方法包括:
通过敏感区域检测模型对待识别图像进行检测,若确定所述待识别图像为敏感图像,则获取所述待识别图像的敏感区域;
通过分类模型对所述敏感区域进行分类,得到所述敏感区域的特征提取类别;
通过特征提取模型对所述敏感区域进行所述特征提取类别的特征提取,得到所述敏感区域的特征信息;
计算所述特征信息与预设数据库中的各个特征信息之间的相似度,并将所述预设数据库中相似度最大的特征信息对应的类别确定为所述敏感区域的类别。
本发明实施例提出了一种图像识别装置,该图像识别装置具有实现上述的图像识别方法的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括:
检测模块,用于通过敏感区域检测模型对待识别图像进行检测,若确定所述待识别图像为敏感图像,则获取所述待识别图像的敏感区域;
分类模块,用于通过分类模型对所述敏感区域进行分类,得到所述敏感区域的特征提取类别;
特征提取模块,用于通过特征提取模型对所述敏感区域进行所述特征提取类别的特征提取,得到所述敏感区域的特征信息;
处理模块,用于计算所述特征信息与预设数据库中的各个特征信息之间的相似度,并将所述预设数据库中相似度最大的特征信息对应的类别确定为所述敏感区域的类别。
本发明实施例提供了一种电子设备,该设备包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,用于执行上述图像识别方法所涉及到的操作。
本发明实施例提供了一种计算机可读存储介质,用于储存为电子设备所用的计算机程序指令,其包含用于执行上述图像识别方法所涉及的程序。
通过实施本发明实施例,针对待识别图像可以提供更详细的检测信息,可以实现对敏感图像的类别的识别,以提高对待识别图像识别的准确性,保证社交产品中数据的安全性。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种图像识别系统的架构示意图;
图2是本发明实施例提供的一种旗帜条幅检测模型的网络示意图;
图3是本发明实施例提供的一种图像识别方法的流程示意图;
图4是本发明实施例提供的一种待识别图像的示意图;
图5是本发明实施例提供的一种色情低俗打分模型的架构示意图;
图6是本发明实施例提供的一种目标评价值获取方法的流程示意图;
图7是本发明实施例提供的一种图像识别装置的结构示意图;
图8是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着互联网技术的发展,信息的传播速度越来越快,图像、视频等数据是互联网数据中最重要的组成元素之一,但是网络中海量的数据信息给人们带来方便的同时,也带来了很多负面的影响。一些包含敏感内容的图像或者视频在互联网中的广泛传播严重威胁了网络安全,危害了互联网用户的用网安全,为了保障网络环境的健康,需要从海量的数据中筛选出这些包含有敏感内容的图像,并且识别出包含有敏感内容的图像的类别。
基于此,本发明实施例提出了一种图像识别方法、图像识别装置、电子设备以及存储介质,该图像识别方法具体是:通过敏感区域检测模型对待识别图像进行检测,若确定所述待识别图像为敏感图像,则获取所述待识别图像的敏感区域;通过分类模型对所述敏感区域进行分类,得到所述敏感区域的特征提取类别;通过特征提取模型对所述敏感区域进行所述特征提取类别的特征提取,得到所述敏感区域的特征信息;计算所述特征信息与预设数据库中的各个特征信息之间的相似度,并将所述预设数据库中相似度最大的特征信息对应的类别确定为所述敏感区域的类别。通过本发明实施例所提供的图像识别方法,电子设备可以通过训练好的敏感区域检测模型、分类模型以及特征提取模型对待识别图像进行敏感区域检测、分类以及特征提取类别的特征提取,可以得到更详细的检测信息,可以实现对敏感图像的类别的识别,以提高对待识别图像识别的准确性,保证社交产品中数据的安全性。
请参见图1,图1是本发明实施例提供的一种图像识别系统的架构示意图。如图1所示,该图像识别系统主要包括敏感区域检测模型、分类模型以及特征提取模型。
在一种实现方式中,敏感区域检测模型是由敏感区域检测模型设计、敏感区域检测数据集准备与创建,再经过模型训练后得到的。
具体的,敏感区域检测数据集准备与创建可以通过以下方式进行数据的采集:1)通过网络爬虫的方式,比如google、百度、yahoo等有公开图像的网站,通过各种和低俗、色情、旗帜、条幅等相关的关键词进行敏感图像数据爬取;2) 利用一些大型图像分类数据集进行子集解析爬取,比如google的大型开源数据集OpenImage,从中筛选出和旗帜条幅、色情图像相关的数据。
在一种实现方式中,通过网络爬虫等方式采集到敏感图像数据以后,然后通过数据的标注与清洗,进行数据的筛选,构建出一个中等规模的检测数据集。
具体的,可通过迭代数据标注的方式,具体步骤为:
1)首先,前期先标注少量的图片数据,用于初步敏感区域检测模型的训练;
2)然后,用训练的初步敏感区域检测模型对未标注的数据进行机器检测打标注;
3)再通过人工审核修正机器的标注,进而获得更多的标注数据;
4)利用更多数据继续训练出效果更好的模型;
5)然后重新回到步骤2)迭代数据的标注和清洗。
通过这种模式,可以获得一个中等规模的检测数据集。
在一种实现方式中,以检测敏感旗帜条幅的场景为例,敏感区域检测模型可以为旗帜条幅检测模型,本申请实施例中的旗帜条幅检测模型是基于 YOLOV3方案进行改进得到,具体网络的架构图如图2所示。
本方案的旗帜条幅检测模型改进点主要在以下几个方面:
(1)由多类别目标检测改为单类别目标检测(即只检测旗帜条幅目标),相应的检测参数(主要是检测层部分的类别数、filter数等)进行一定的修改。
(2)原YOLOV3的头部神经网络为darknet53,为了降低模型参数,加快模型处理速度,改为更加轻量化的头部神经网络。
(3)由于旗帜、条幅检测任务是一个单类别检测任务,然后各种标注的旗帜的形状、颜色、大小等都存在极大的区别,因此训练的结果会出现非常多的误检测。为了解决这个误检的问题,加入了很多误检测的数据作为模型训练的负样本,极大降低了误检测的情况。最终训练得到的旗帜条幅检测模型,可以对各种角度、光照、大小、遮挡、轻微模糊的旗帜条幅目标进行有效检测。
在一种实现方式中,得到了敏感区域检测模型之后,再对敏感区域进行截取与分类,得到敏感图像分类数据集,通过对敏感图像分类数据集的创建与清洗、分类模型设计以及模型训练,得到分类模型。
具体的,首先,本发明实施例可以从两个途径进行敏感区域截取:利用标 注好的敏感区域检测数据集,直接截取标注区域;对于未标注的大量数据,利 用训练好的敏感区域检测模型进行敏感区域检测,并自动对检测到的敏感区域 进行截取。然后,对所有截取好的敏感数据,按照敏感数据的类别进行分类和 清洗,比如为敏感数据为旗帜数据,可将旗帜数据分为美国国旗、中国国旗、 日本国旗、法国国旗、敏感旗帜等等,共几十种不同类型的旗帜。最后,为了 让训练数据集数据更加均衡,可以通过各种数据增强的方法,将较少数量的图 像进行数据增强,最终构建了一个几十种不同类型旗帜的,各种类别数量均衡的旗帜分类数据集。
在一种实现方式中,本方案的分类模型采用MobilenetV2方案,并且本发明主要基于MobilenetV2方案做出了如下修改优化:
(1)由原始的1000类分类任务,变为多类分类任务,本发明创建的数据集为包含了几十类不同的敏感图像类型,因此分类任务即一个几十类的分类任务;
(2)为了降低处理量,适当减少网络层的通道数和网络层数;
(3)为了更好的区分不同类别的敏感图像特征,聚拢相同类别的敏感图像特征,将原分类模型中的softmax损失函数,改用在人脸识别特征提取中取得很好效果的Arc Faceloss,使得提取到的指纹特征有更好的最大化类间差异,最小化类内差异的特点。
在一种实现方式中,本发明设计的分类模型与特征提取模型,在测试数据集下,达到了99%以上的分类识别精度,最后将训练好的分类模型最后的分类层去掉,就得到了特征提取模型。
可以理解的是,本发明实施例描述的图像识别系统是为了更加清楚的说明本发明实施例的技术方案,并不构成对于本发明实施例提供的技术方案的限定,本领域普通技术人员可知,随着系统架构的演变和新业务场景的出现,本发明实施例提供的技术方案对于类似的技术问题,同样适用。
基于图1的图像识别系统的架构示意图,请参见图3,图3是本发明实施例提供的一种图像识别方法的流程示意图。该方法可以由电子设备执行,电子设备可以是运行社交产品的客户端,也可以是服务器。本实施例中所描述的图像识别方法,包括以下步骤S310~S340:
步骤S310:通过敏感区域检测模型对待识别图像进行检测,若确定所述待识别图像为敏感图像,则获取所述待识别图像的敏感区域。
其中,待识别图像可以为用户上传或下载的图像,或者为企业申请的某一业务涉及到的上传或者下载的图像等,本发明在此不做限定。
在一种实现方式中,获取待识别图像的方法可以是直接在全民K歌、QQ 音乐、WeSing等具有社交产品中获取图像,也可以是在全民K歌、QQ音乐、 WeSing等具有社交产品中获取视频数据,针对获取到的视频数据电子设备采用固定时间间隔对视频数据进行截图分析,得到多帧待识别图像。
在一种实现方式中,在获取待识别图像之前,电子设备可以对用户的身份信息进行验证。具体来说,电子设备在接收到用户发送的登录请求时,登录请求包含用户账号以及密码,电子设备对登录请求中的用户账号和密码进行验证。举例来说,用户账号为该用户的身份证号,电子设备通过公安权威机构对该身份证号进行信誉值获取,若信誉值大于预设数量阈值,则触发执行电子设备通过敏感区域检测模型对待识别图像进行检测,得到所述待识别图像的敏感区域的操作。通过验证用户的身份信息获取待识别图像,可以提高电子设备进行待识别图像识别的安全系数。
在一种实现方式中,电子设备通过敏感区域检测模型对所述待识别图像进行检测之前,首先,电子设备获取预设检测模型,并对所述预设检测模型进行稀疏化训练,得到稀疏化训练后的检测模型,所述稀疏化训练后的检测模型包括至少一个参数以及各个参数对应的权重;其次,电子设备通过剪枝算法将所述稀疏化训练后的检测模型中包含的权重小于第二预设阈值的参数删除,得到剪枝后的检测模型;然后,电子设备对所述剪枝后的检测模型进行优化训练,得到优化后的检测模型;最后,电子设备对所述优化后的检测模型进行测试,若所述优化后的检测模型满足预设测试要求,则将所述优化后的检测模型作为所述敏感区域检测模型。
在一种实现方式中,电子设备通过敏感区域检测模型获取敏感区域的位置标识,位置标识用于指示敏感区域在所述待识别图像中的位置;电子设备根据敏感区域在所述待识别图像中的位置,对所述敏感区域进行截取,得到待识别图像的敏感区域。
如图4所示,电子设备通过所述敏感区域检测模型获取待识别图像中的至少一个敏感区域的位置标识,如敏感区域1的位置标识,可以为敏感区域1的位置位于待识别图像的左上角,大小为待识别图像面积的1/12,敏感区域2的位置标识,可以为敏感区域2的位置位于待识别图像的右上角,大小为待识别图像面积的1/12,敏感区域3的位置标识,可以为敏感区域3的位置位于待识别图像的左下角,大小为待识别图像面积的1/12,敏感区域4的位置标识,可以为敏感区域4的位置位于待识别图像的右下角,大小为待识别图像面积的1/12。
举例来说,电子设备根据位置标识,确定待识别图像中的敏感区域为待识别图像中左上角1/12处,左下角1/12处,右上角1/12处,右下角1/12处,接着,电子设备对区域1、区域2、区域3,以及区域4进行截取操作,对待识别图像中特定区域的截取方法包括但不限于通过Pillow和OpenCV进行截取,得到待识别图像的敏感区域,具体为敏感区域1、敏感区域2、敏感区域3、敏感区域4。
在一种实现方式中,电子设备根据预设分类类别将敏感区域进行分类处理,得到初始敏感区域检测模型(即预设检测模型),电子设备对初始敏感区域检测模型进行迭代清洗操作,得到敏感区域检测模型。
具体实现时,电子设备获取第一图像数据,电子设备根据预设分类类别对第一图像数据进行标注操作,得到第一敏感标注数据;电子设备根据第一敏感标注数据,对初始敏感区域检测模型进行训练操作;电子设备获取第二图像数据,通过初始敏感区域检测模型对第二图像数据进行标注操作,得到第二敏感标注数据;通过人工审核修改电子设备的类别,电子设备根据所述第一敏感标注数据和第二敏感标注数据,对初始敏感区域检测模型进行训练操作;电子设备获取第三图像数据,通过初始敏感区域检测模型对第三图像数据进行标注操作,得到第三敏感标注数据;电子设备通过第一敏感标注数据、第二敏感标注数据以及第三敏感标注数据,得到敏感区域检测模型。
其中,由于初始敏感区域检测模型具有识别不同类别通用图像的能力,因此在初始敏感区域检测模型的基础上通过人工修改电子设备的类别,添加初始敏感区域检测模型对更多的图像数据进行学习,可以加快学习的速度,提高敏感区域检测模型的效率以及准确性。
在一种实现方式中,通过敏感区域检测模型对待识别图像进行检测,得到待识别图像的敏感区域之前,电子设备采集样本数据,样本数据包括多个敏感图像,以及各个敏感图像的类别,电子设备通过神经网络模型对样本数据进行训练,得分类模型。
其中,电子设备采集样本数据的方式可以通过以下三种方式进行样本数据的采集:(1)采集网络开源的一些少量有标签数据;(2)通过网络爬虫的方式在国外公开成人网站等采集大量未清洗过的数据,其中网络爬虫的方法包括但不限于基于socket通信编写爬虫,基于Http URL Connection类编写爬虫,基于apache的Http Client包编写爬虫,基于phantomjs之类的无头(无界面)浏览器以及基于Selenium或者是Web Driver之类的有头(有界面)浏览器等方法; (3)其他数据爬取,主要针对业务场景进行收集,具体可以为酒吧、酒店、KTV 等娱乐场所的视频监控数据。
举例来说,首先,电子设备采集样本数据,样本数据可以包括色情低俗数据、敏感旗帜等。色情低俗数据具体可以包括:色情低俗、性感、正常等类别的数据,敏感旗帜具体可以包括:敏感旗帜1、敏感旗帜2以及敏感旗帜3等旗帜或者条幅。
其中,为了保证不同类别之间的数据区分度,电子设备可以提前定义好每一类别数据的范围。针对色情低俗数据,色情低俗类别可以包括:直接暴露敏感区域(女性胸部、生殖器等);大面积皮肤裸露;强烈性暗示画面;各种敏感器官特写;性行为场景;男性只穿着内裤的全身照或低俗场景照;其他等。性感类别可以包括:正常比基尼照片;穿着清凉但不暴露的美女画面;正常的健身照片;男性仅仅赤裸上半身;正常的亲密照片;其他等。正常类别包括:除去以上两种类别的图像都属于正常类别。
然后,针对敏感旗帜,电子设备对所有截取好的旗帜数据,按照旗帜的类 别进行分类和清洗,比如分为美国国旗、中国国旗、日本国旗、法国国旗、敏 感旗帜等,共几十种不同类型的旗帜,由于不同旗帜能够找到的数据量是不同 的,为了让训练的样本数据更加均衡,可以通过各种数据增强的方法,具体可 以是:多尺度、平移、旋转、缩放、从待识别图像中裁剪中一部分相对小一点 的图像,以及各种输入数据预处理的手段等。通过这种方式,将较少数量的图 像进行数据增强,最终构建了一个几十种不同类型旗帜的,各种类别数量均衡 的旗帜分类样本数据。
在一种实现方式中,可以对样本数据进行周期性更新。具体过程为:基于预设周期,在电子设备识别过的图像中随机抽取指定数目的图像数据,交由人工审核,获取各个图像数据的人工标注类别,将各个图像数据的人工标注类别与各个图像数据被电子设备识别出的类别进行比较,若各个图像数据的人工标注类别与各个图像数据被电子设备识别出的类别不一样,则为被电子设备识别出的类别对应的图像数据添加人工标注类别,基于该添加人工标注类别后的图像数据,对样本数据进行更新。
步骤S320:通过分类模型对所述敏感区域进行分类,得到所述敏感区域的特征提取类别。
在一种实现方式中,电子设备根据预设数据类别将样本数据进行分类处理,得到初始分类模型,电子设备对初始分类模型进行迭代清洗操作,得到分类模型。
具体实现时,电子设备获取第一样本数据,根据预设数据类别对第一样本数据进行标注操作,得到第一样本标注数据;电子设备根据第一样本标注数据,对初始分类模型进行训练操作;电子设备获取第二样本数据,通过初始分类模型对第二样本数据进行标注操作,得到第二样本标注数据;通过人工审核修改电子设备的类别,根据第一样本标注数据和第二样本标注数据,对初始分类模型进行训练操作;电子设备获取第三样本数据,通过初始分类模型对第三样本数据进行标注操作,得到第三样本标注数据;电子设备通过第一样本标注数据、第二样本标注数据以及第三样本标注数据,得到分类模型。通过这种方式,利用分类训练的方法得到的分类模型,有提取不同旗帜类别的区分性深度特征的能力。
举例来说,电子设备通过分类模型对待识别图像中的敏感区域1、敏感区域 2、敏感区域3,以及敏感区域4进行分类,得到敏感区域1的特征提取类别为特征提取类别1、敏感区域2的特征提取类别为特征提取类别2、敏感区域3的特征提取类别为特征提取类别3、敏感区域4的特征提取类别为特征提取类别4。具体来说,特征提取类别1可以为敏感旗帜1对应的类别、特征提取类别2可以为敏感旗帜2对应的类别。
在一种实现方式中,电子设备通过分类模型对敏感子图像进行分类,得到敏感子图像的特征提取类别。举例来说,电子设备通过分类模型对敏感子图像1 进行分类,得到敏感子图像1的特征提取类别为特征提取类别1,电子设备通过分类模型对敏感子图像2进行分类,得到敏感子图像2的特征提取类别为特征提取类别2,电子设备通过分类模型对敏感子图像3进行分类,得到敏感子图像 3的特征提取类别为特征提取类别3,电子设备通过分类模型对敏感子图像4进行分类,得到敏感子图像4的特征提取类别为特征提取类别4。
步骤S330:通过特征提取模型对所述敏感区域进行所述特征提取类别的特征提取,得到所述敏感区域的特征信息。
具体实现时,电子设备确定至少一个敏感区域对应的特征提取类别之后,电子设备通过特征提取模型对敏感区域进行特征提取类别的特征提取,得到敏感区域的特征信息。其中,特征信息可以包括敏感区域的指纹特征。举例来说,电子设备通过特征提取模型提取敏感区域1的特征提取类别1的指纹特征1,通过特征提取模型提取敏感区域2的特征提取类别2的指纹特征2,通过特征提取模型提取敏感区域3的特征提取类别3的指纹特征3等。
在一种实现方式中,特征提取模型包括注意力机制模块,注意力机制模块包括通道注意力子模块以及空间注意力子模块。电子设备通过通道注意力子模块对敏感区域进行池化处理和压缩处理,得到敏感区域的通道特征向量;通过空间注意力子模块对敏感区域进行池化处理,得到敏感区域的二维特征向量,并将二维特征向量进行卷积操作,得到敏感区域的空间特征向量;通过广播机制对通道特征向量以及空间特征向量进行提取,得到敏感区域的特征信息。
在一种实现方式中,通过通道注意力子模块对敏感区域进行平均池化处理得到敏感区域的第一矢量,以及对敏感区域进行最大池化处理,得到敏感区域的第二矢量;将第一矢量以及第二矢量输入预设共享网络进行压缩处理,得到敏感区域的通道特征向量。其中,预设网络可以由一个隐含层和多层感知器 (Multilayer Perceptron,MLP)组成。
步骤S340:计算所述特征信息与预设数据库中的各个特征信息之间的相似度,并将所述预设数据库中相似度最大的特征信息对应的类别确定为所述敏感区域的类别。
在一种实现方式中,计算所述特征信息与预设数据库中的各个特征信息之间的相似度之后,电子设备将相似度与第一预设阈值进行比较,若相似度大于或者等于第一预设阈值,则触发执行电子设备将预设数据库中相似度最大的特征信息对应的类别确定为敏感区域的类别的操作。其中,预设数据库可以包含存储有至少一个特征提取类别的特征信息。
举例来说,电子设备通过相似度匹配计算得到敏感区域1对应的指纹特征1 与预设数据库中的预设指纹特征1之间的相似度为80%,敏感区域2对应的指纹特征2与预设数据库中的预设指纹特征2之间的相似度为85%,敏感区域3 对应的指纹特征3与预设数据库中的预设指纹特征3之间的相似度为90%,敏感区域4对应的指纹特征4与预设数据库中的预设指纹特征4之间的相似度为 95%,假设第一预设阈值为90%,则电子设备将指纹特征3与指纹特征4与预设数据库中相似度最大的特征信息对应的类别确定为敏感区域的类别,即将指纹特征4对应的特征类别4确定为敏感区域的类别。再如,电子设备通过相似度匹配计算得到敏感区域1对应的指纹特征1与预设数据库中的预设指纹特征1 之间的相似度为50%,敏感区域2对应的指纹特征2与预设数据库中的预设指纹特征2之间的相似度为45%,敏感区域3对应的指纹特征3与预设数据库中的预设指纹特征3之间的相似度为60%,敏感区域4对应的指纹特征4与预设数据库中的预设指纹特征4之间的相似度为55%,假设第一预设阈值为90%,因为各个敏感区域与预设数据库中对应的预设指纹特征之间的相似度均小于第一预设阈值,则电子设备将该敏感区域判断为新的特征提取类别,并将新的特征提取类别更新到预设数据库中。
需要说明的是,本发明实施例所提供的图像识别方法具体可以应用到敏感旗帜的识别场景中。举例来说,在全民K歌、QQ音乐的用户相册、上传头像、作品封面等图像中,电子设备通过本发明实施例所设计的敏感区域检测模型自动识别出包含特定旗帜的图片,并将识别出的特定旗帜与预设旗帜数据库中的旗帜进行相似度匹配,得到与该特定旗帜相关的旗帜类型相似度信息,然后通过人工审核确认,对违规的旗帜根据情况进行删除、警告或者封号处理。通过本发明实施例,对于用户在全民K歌、QQ音乐等社交产品中上传的图像数据,比如图像中存在敏感旗帜,经过本方案所提供的图像识别方法的机器识别判断,判断存在特定敏感旗帜,此时就将敏感旗帜进行标记识别,得到判断的敏感信息结果,具体可以包括敏感旗帜类型、相似程度、数量等,防止了特定敏感旗帜的传播可能,提高了社交产品中数据的安全性。
请参见图5,图5是本发明实施例提供的一种色情低俗打分模型的架构示意图。
在一种实现方式中,色情低俗打分模型是由色情低俗打分模型设计、色情低俗分类数据集准备与创建,再经过模型训练与测试后得到的。
具体的,色情低俗分类数据集可通过以下几种途径收集相关数据:网络开源的一些少量有标签数据;网络爬虫的方式,如国外公开成人网站等,此部分可以得到大量未清洗过的数据;其他数据爬取,这部分主要针对业务场景进行收集。
在一种实现方式中,针对色情低俗打分模型设计,本发明将所有敏感数据中的色情低俗数据分为三个类别:色情低俗、性感、正常。为了保证不同类别之间的数据区分度,需要提前定义好每一类的范围。
色情低俗包括:1)直接暴露敏感区域(女性胸部、生殖器等);2)大面积皮肤裸露;3)强烈性暗示画面;4)各种敏感器官特写;5)性行为场景;6) 男性只穿着内裤的全身照或低俗场景照;7)其他等。
性感:1)正常比基尼照片;2)穿着清凉但不暴露的美女画面;3)正常的健身照片;4)男性仅仅赤裸上半身;5)正常的亲密照片;6)其他等。
正常:除去以上两种类型的图像都属于正常。
在一种实现方式中,通过网络爬虫等方式采集到色情低俗图像数据以后,然后通过数据的标注与清洗,进行数据的筛选,构建出一个中等规模的色情低俗打分数据集。
具体的,可通过迭代数据标注的方式,具体步骤为:
1)首先,前期先标注少量的图片数据,用于初步色情打分模型的训练;
2)然后,用训练的初步色情打分模型对未标注的数据进行机器检测打标注;
3)再通过人工审核修正机器的类别,进而获得更多的标注数据;
4)利用更多数据继续训练出效果更好的模型;
5)然后重新回到步骤2)迭代数据的标注和清洗。
通过这种方式,可以以最快也最小的成本构建出一个中型规模的色情低俗打分分类数据集。
在一种实现方式中,本方案的色情低俗打分模型主要开发了两种不同复杂程度的模型,分别基于mobilenetV2和inceptionV3方案进行改进得到,可应用于不同场景。其中mobilenetV2属于计算量和参数量更小的轻量化深度神经网络,更加适合于需要考虑计算成本和处理耗时的场合。
本方案的色情低俗打分模型改进点主要在以下几个方面:
1)在原网络基础上,去掉原始的1000类的分类层,并加入新的分类层,将分类任务类别数改为3类;
2)在原有网络中加入一些新的模块,比如attention模块,让模型在训练过程中在通道学习与空间区域学习时,更加注重有特点的内容的学习;
3)最终训练得到的色情低俗打分模型,在30W数据上的分类精度可以接近99%,可以很好的对绝大部分场景的数据进行准确的识别打分。
基于图5的色情低俗打分模型的架构示意图,请参见图6,图6是本发明实施例提供的一种目标评价值获取方法的流程示意图。该方法可以由电子设备执行,本实施例中所描述的图像识别方法,包括以下步骤S610~S640:
步骤S610:对待识别图像进行分析,获取待识别图像的第一评价值。
在一种实现方式中,电子设备获取待识别图像的类别为预设类别中的各个类别的概率,电子设备将各个概率进行加权运算,得到第一评价值。
其中,对于色情低俗识别打分模型,会输出三个类别的概率,假设为P(porn), P(sexy),P(normal),则获取待识别图像的第一评价值的计算公式为:
Score=100*(βporn*P(porn)+βsexy*P(sexy)+0*P(normal))
需要说明的是,Score是指第一评价值,βporn和βsexy为加权系数,而且βporn的值要大于βsexy,而对于正常的类别,此系数直接设定为0,即正常内容概率得分加权为0。
举例来说,假设预设类别为色情低俗类别、性感类别,以及正常类别。电子设备获取待识别图像的类别为色情低俗类别的概率为80%,获取待识别图像的类别为性感类别的概率为20%,获取待识别图像的类别为正常类别的概率为 0%。电子设备可以事先定义好各个类别的权重,假如色情低俗类别对应的权重为90%,性感类别对应的权重为10%,正常类别对应的权重为0%,则电子设备通过将色情低俗类别的概率、性感类别的概率以及正常类别的概率分别与色情低俗类别对应的权重、性感类别对应的权重、以及正常类别对应的权重进行加权运算,得到第一评价值为74。
举例来说,假设预设类别为敏感旗帜类别、正常类别。电子设备获取待识别图像的类别为敏感旗帜类别或者正常类别。电子设备通过敏感区域检测模型对待识别图像进行打分,若待识别图像类别为为敏感旗帜类别,则得到第一评价值为100,若待识别图像类别为正常类别,则第一评价值为0。
步骤S620:若第一评价值大于第一预设阈值,则确定待识别图像的类别为敏感图像。
在一种实现方式中,电子设备将第一评价值和第一预设阈值进行比较,若第一评价值大于第一预设阈值,则电子设备确定待识别图像的类别为敏感图像。
举例来说,电子设备可以事先定义好每种类别的区间分值,例如色情低俗类别的区间分值为[60,100],性感类别的区间分值为[20,60),正常类别的区间分值为[0,20)。假设第二预设阈值为50,电子设备将待识别图像的第一评价值74 与第二预设阈值进行比较,电子设备判断待识别图像的第一评价值大于第二预设阈值,则电子设备根据各个类别的预设区间分值,进一步确定待识别图像具体为哪个类别的图像,由于第一评价值74落在[60,100]之间,则电子设备判断待识别图像为色情低俗类别,即敏感图像。
步骤S630:获取待识别图像的敏感区域,敏感区域包括至少一个敏感子区域。
在一种实现方式中,待识别图像包括人体图像,电子设备通过图像分割算法确定人体图像中的皮肤区域;电子设备计算皮肤区域的面积和皮肤区域在人体图像中的位置;电子设备根据皮肤区域的面积和皮肤区域在所述人体图像中的位置,获取待识别图像的第一评价值。需要说明的是,皮肤区域的面积为皮肤区域的未覆盖面积,即裸露的皮肤面积。其中,图像分割算法具体可以为基于深度神经网络的敏感目标分割算法,图像分割算法也可以为传统的图像分割算法,例如GrabCut算法、分水岭算法等,本发明在此不做限定。
举例来说,电子设备通过基于深度神经网络模型的深度分割算法获取人体图像中的皮肤区域,电子设备计算未覆盖的皮肤区域的面积,电子设备获取皮肤区域在人体图像中的位置,假设为胸部、臀部、腰部、腹部等,电子设备根据裸露的皮肤区域在人体图像中的位置以及该皮肤区域的面积,确定待识别图像的第一评价值。假设裸露的皮肤区域在人体图像中的位置为胸部,并且该胸部暴露的面积大于第三预设阈值,则电子设备可以确定该待识别图像为敏感图像。其中,第三预设阈值可以根据裸露的皮肤区域在人体图像中的位置的不同进行相应的变化,例如当裸露的皮肤区域在人体图像中的位置为私处部位,第三阈值为X1,当裸露的皮肤区域在人体图像中的位置为胸部,第三阈值可以为 X2,当裸露的皮肤区域在人体图像中的位置为臀部,第三阈值可以为X3,当裸露的皮肤区域在人体图像中的位置为腹部,第三阈值可以为X4,其中 X1>X2>X3>X4。
在一种实现方式中,电子设备获取待识别图像的第一评价值为100,那么电子设备可以确定待识别图像为敏感旗帜类别图像之后,然后电子设备可以对待识别图像的敏感区域进行分析,敏感区域可以包括至少一个敏感子区域,如图4 所示,电子设备对敏感旗帜的至少一个敏感子区域进行分析。
步骤S640:对各个敏感子区域进行分析,得到敏感区域的第二评价值,第二评价值用于指示所述敏感区域的敏感程度。
在一种实现方式中,电子设备获取待识别图像中的敏感子区域的一种实现方法,可以是通过基于深度神经网络模型的目标检测模型来检测待识别图像中的敏感子区域的数量、位置、大小、置信度等信息,然后,电子设备对各个敏感子区域进行分析,得到各个敏感子区域的第三评价值;电子设备对各个第三评价值进行加权运算,得到第二评价值。其中,第二评价值用于指示所述敏感区域的敏感程度。
其中,获取敏感区域的第二评价值的计算公式为:
需要说明的是,Scoredetect是指敏感区域的第二评价值,β女胸是指女性胸部对应的权重,β男胸是指男性胸部对应的权重,β女生殖是指女性生殖器对应的权重,β男生殖是指男性生殖器对应的权重,β臀部是指女性臀部或者男性臀部对应的权重。并且,女性胸部、女性生殖器以及男性生殖器的权重最高,臀部的权重次之,男性胸部的权重最低。
举例来说,如图4所示,首先,电子设备对敏感子区域1、敏感子区域2、敏感子区域3,以及敏感子区域4进行分析,分别得到敏感子区域1、敏感子区域2、敏感子区域3,以及敏感子区域4对应的各个第三评价值分别为Y1、Y2、 Y3和Y4;然后,电子设备将各个第三评价值和各个敏感子区域对应的权重进行加权运算,具体为电子设备对Y1与敏感子区域1对应的权重、Y2与敏感子区域2对应的权重、Y3与敏感子区域3对应的权重,以及Y4与敏感子区域4 对应的权重进行加权运算,得到第二评价值。其中,女性胸部的权重为β1,女性生殖器的权重为β2,男性生殖器的权重为β3,臀部的权重为β4,男性胸部的权重为β5,需要说明的是,β1>β2>β3>β4>β5或者β1=β2=β3>β4> β5或者β1>β2=β3>β4>β5或者β1=β2>β3>β4>β5。
举例来说,如图4所示,首先,电子设备对敏感子区域1、敏感子区域2、敏感子区域3,以及敏感子区域4分别与预设数据库中的敏感旗帜进行相似度匹配计算,得到敏感子区域1、敏感子区域2、敏感子区域3,以及敏感子区域4 对应的相似度分别为a1、a2、a3以及a4,其中a1可以是指敏感区域1与敏感旗帜1之间的相似度,a2可以是指敏感区域2与敏感旗帜2之间的相似度,a3 可以是指敏感区域3与敏感旗帜3之间的相似度,a4可以是指敏感区域4与敏感旗帜4之间的相似度,其中,电子设备可以提前定义好敏感旗帜1、敏感旗帜 2、敏感旗帜3以及敏感旗帜4的权重,假设分别为30%、30%、30%、10%。然后,电子设备对各个相似度a1、a2、a3以及a4进行加权运算,得到第二评价值。
步骤S650:根据第一评价值和第二评价值,得到待识别图像的目标评价值,目标评价值用于指示待识别图像的敏感程度。
在一种实现方式中,电子设备根据第一评价值和第二评价值,对第一评价值和第二评价值进行加权运算,得到待识别图像的目标评价值。其中,第一评价值用于判断待识别图像是否为敏感图像,第二评价值用于判断敏感区域的敏感程度,目标评价值用来判断待识别图像的敏感程度。
其中,目标评价值的计算公式为:
Scoretotal=β1*Score+β2*Scoredetect
需要说明的是,Scoretotal是指目标评价值,β1和β2是指加权系数。
在一种实现方式中,电子设备根据第一评价值和第二评价值,得到待识别图像的目标评价值之后,获取待识别图像的图像属性信息;电子设备确定目标评价值所属评价值区间对应的第一图像类别集合,以及图像属性信息对应的第二图像类别集合;电子设备将同时存在于第一图像类别集合和第二图像类别集合的图像类别作为待识别图像的类别,并得到待识别图像的标签信息,标签信息包括待识别图像的类别对应的图像属性信息。
举例来说,假设待识别图像的目标评价值为90,待识别图像包含的敏感区域为女性胸部,则将待识别图像的标签信息标记为:90分,女性胸部。
在一种实现方式中,后台审核人员可以根据目标评价值大于或者等于90分,并且存在生殖器敏感区域或女性胸部区域的条件,对待识别图像进行筛选,得到高危图像,然后对高危图像对应的账号进行警告或者封号处理。又如,用户可以根据目标评价值大于或者等于90分,并且存在与预设数据库中的敏感旗帜相似度大于或者等于90%进行筛选,对违规的旗帜根据情况进行删除、警告或者封号处理。通过这种方法,可以更具有针对性的对敏感图像进行处理操作,提高社交产品中的数据的安全性。
在一种实现方式中,电子设备可以设定筛选条件,将待识别图像中符合筛选条件的部分图像进行自动处理操作,筛选条件具体可以为:在酒吧、酒店等娱乐场所,目标评价值大于或者等于95分,并且存在生殖器敏感区域或女性胸部区域。针对满足筛选条件下的待识别图像,无需交由人工审核,电子设备可以获取满足筛选条件的图像的账号,并自动对该账号进行封号处理。通过这种方法,可以对特定场景中的敏感图像进行自动处理,提高了审核社交产品中的数据的效率。
在一种实现方式中,电子设备得到待识别图像的标签信息之后,接收图像获取请求,图像获取请求包括图像标识和用户身份信息;电子设备获取图像标识对应图像的标签信息;若用户身份信息和标签信息匹配,则输出图像标识对应的图像。
举例来说,若待识别图像为人体图像,后台审核人员接收用户发送的图像获取请求,后台审核人员根据待识别图像的标签信息确定待识别图像包含的敏感区域为女性胸部,后台审核人员获取用户的性别,若用户的性别为女,则可以输出待识别图像。通过这种方法,可以禁止异性浏览敏感图像,维护社交网络的良好网络风气。
需要说明的是,本发明实施例所提供的图像识别方法具体可以应用到色情低俗图像的识别场景中。举例来说,用户在全民K歌、QQ音乐或者WeSing等社交产品上传了图像或视频,其中针对视频一般采用固定间隔时间截图分析,电子设备通过色情低俗打分模型对用户上传的图像数据进行识别分析。首先,电子设备对图像进行色情低俗打分,得到基本的色情低俗分、性感分和正常分,电子设备初步对得分进行加权计算,如果得分较低,则直接可以判断为正常图像。如果得分大于阈值,则进一步对图像进行敏感区域检测分析,通过敏感区域检测模型分析五类主要敏感区域,即男性暴露胸部、女性暴露胸部、暴露臀部、男性生殖器、女性生殖器的数量、位置、大小与置信度等信息,并将分析结果与打分结果进行二次加权计算和结果标记。
然后,对打分有问题的图像数据都可以给到人工审核处置,人工可以根据得分、敏感区域类型、数量等不同信息进行筛选排序,快速处理最危险内容,提高处置效率。需要说明的是,在一些高危场景,例如酒吧、KTV等场合,可以对打分很高、并且出现了高敏感区域,如女性暴露胸部、男女性生殖器等的图像数据进行自动处理,根据具体场景具体处理,例如可以选择自动删除数据、自动推送警告、自动限制用户行为等操作。通过本发明实施例所提供的图像识别方法,可以对敏感图像提供更详细的打分信息,并且保证了极低误处理概率,提高处置手段的及时性和多样性。
请参见图7,图7是本发明实施例提供的一种图像识别装置的结构示意图。该图像识别装置用于执行图3~图6对应的方法实施例中电子设备所执行的步骤,该图像识别装置可包括:
检测模块710,用于通过敏感区域检测模型对待识别图像进行检测,若确定所述待识别图像为敏感图像,则获取所述待识别图像的敏感区域;
分类模块720,用于通过分类模型对所述敏感区域进行分类,得到所述敏感区域的特征提取类别;
特征提取模块730,用于通过特征提取模型对所述敏感区域进行所述特征提取类别的特征提取,得到所述敏感区域的特征信息;
处理模块740,用于计算所述特征信息与预设数据库中的各个特征信息之间的相似度,并将所述预设数据库中相似度最大的特征信息对应的类别确定为所述敏感区域的类别。
在一种实现方式中,本发明实施例所提供的图像识别装置还可以包括:分析模块750、获取模块760、确定模块770。
分析模块750用于对所述待识别图像进行分析;
获取模块760用于获取所述待识别图像的第一评价值;
确定模块770,用于若所述第一评价值大于第一预设阈值,则确定所述待识别图像的类别为敏感图像;
获取模块760获取所述待识别图像的敏感区域,所述敏感区域包括至少一个敏感子区域;
分析模块750对各个所述敏感子区域进行分析,得到所述敏感区域的第二评价值,所述第二评价值用于指示所述敏感区域的敏感程度;
处理模块740根据所述第一评价值和所述第二评价值,得到所述待识别图像的目标评价值,所述目标评价值用于指示所述待识别图像的敏感程度。
在一种实现方式中,处理模块740根据所述第一评价值和所述第二评价值,得到所述待识别图像的目标评价值之后,还包括:
获取模块760获取所述待识别图像的图像属性信息;
确定模块770确定所述目标评价值所属评价值区间对应的第一图像类别集合,以及所述图像属性信息对应的第二图像类别集合;
处理模块740将同时存在于所述第一图像类别集合和第二图像类别集合的图像类别作为所述待识别图像的类别,并得到所述待识别图像的标签信息,所述标签信息包括所述待识别图像的类别对应的图像属性信息。
在一种实现方式中,本发明实施例所提供的图像识别装置还可以包括:接收模块780。
接收模块780,用于在处理模块740得到所述待识别图像的标签信息之后,接收图像获取请求,所述图像获取请求包括图像标识和用户身份信息。
获取模块760获取所述图像标识对应图像的标签信息;
若所述用户身份信息和所述标签信息匹配,则处理模块740输出所述图像标识对应的图像。
在一种实现方式中,分析模块750对所述待识别图像进行分析,获取模块 760获取所述待识别图像的第一评价值,包括:
获取所述待识别图像的类别为预设类别中的各个类别的概率;
将各个所述概率进行加权运算,得到所述第一评价值。
在一种实现方式中,待识别图像包括人体图像,分析模块750对所述待识别图像进行分析,获取模块760获取所述待识别图像的第一评价值,包括:
分析模块750通过图像分割算法确定所述人体图像中的皮肤区域;
分析模块750计算所述皮肤区域的面积和所述皮肤区域在所述人体图像中的位置;
根据所述皮肤区域的面积和所述皮肤区域在所述人体图像中的位置,获取模块760获取所述待识别图像的第一评价值。
在一种实现方式中,分析模块750对各个所述敏感子区域进行分析,得到所述敏感区域的第二评价值,包括:
对各个所述敏感子区域进行分析,得到各个所述敏感子区域的第三评价值;
对各个所述第三评价值进行加权运算,得到所述第二评价值。
在一种实现方式中,获取模块760获取所述待识别图像的敏感区域,包括:
通过所述敏感区域检测模型获取所述敏感区域的位置标识,所述位置标识用于指示所述敏感区域在所述待识别图像中的位置;
根据所述敏感区域在所述待识别图像中的位置,对所述敏感区域进行截取,得到所述待识别图像的敏感区域。
在一种实现方式中,特征提取模型包括注意力机制模块,所述注意力机制模块包括通道注意力子模块以及空间注意力子模块。特征提取模块730通过特征提取模型对所述敏感区域进行所述特征提取类别的特征提取,得到所述敏感区域的特征信息,包括:
通过所述通道注意力子模块对所述敏感区域进行池化处理和压缩处理,得到所述敏感区域的通道特征向量;
通过所述空间注意力子模块对所述敏感区域进行池化处理,得到所述敏感区域的二维特征向量,并将所述二维特征向量进行卷积操作,得到所述敏感区域的空间特征向量;
通过广播机制对所述通道特征向量以及所述空间特征向量进行提取,得到所述敏感区域的特征信息。
在一种实现方式中,检测模块710通过敏感区域检测模型对所述待识别图像进行检测之前,还包括:
获取模块760获取预设检测模型,并对所述预设检测模型进行稀疏化训练,得到稀疏化训练后的检测模型,所述稀疏化训练后的检测模型包括至少一个参数以及各个参数对应的权重;
处理模块740通过剪枝算法将所述稀疏化训练后的检测模型中包含的权重小于第二预设阈值的参数删除,得到剪枝后的检测模型;
处理模块740对所述剪枝后的检测模型进行优化训练,得到优化后的检测模型;
处理模块740对所述优化后的检测模型进行测试,若所述优化后的检测模型满足预设测试要求,则将所述优化后的检测模型作为所述敏感区域检测模型。
请参见图8,图8是本发明实施例提供的一种电子设备的结构示意图,该电子设备用于执行图3~图6对应的方法实施例中电子设备所执行的步骤,该电子设备包括:一个或多个处理器810;一个或多个输入设备820,一个或多个输出设备830和存储器840。上述处理器810、输入设备820、输出设备830和存储器840通过总线850连接。存储器820用于存储计算机程序,所述计算机程序包括程序指令,处理器810用于执行存储器840存储的程序指令,执行以下操作:
通过敏感区域检测模型对待识别图像进行检测,若确定所述待识别图像为敏感图像,则获取所述待识别图像的敏感区域;
通过分类模型对所述敏感区域进行分类,得到所述敏感区域的特征提取类别;
通过特征提取模型对所述敏感区域进行所述特征提取类别的特征提取,得到所述敏感区域的特征信息;
计算所述特征信息与预设数据库中的各个特征信息之间的相似度,并将所述预设数据库中相似度最大的特征信息对应的类别确定为所述敏感区域的类别。
在一种实现方式中,处理器810还用于:
对所述待识别图像进行分析,获取所述待识别图像的第一评价值;
若所述第一评价值大于第一预设阈值,则确定所述待识别图像的类别为敏感图像;
获取所述待识别图像的敏感区域,所述敏感区域包括至少一个敏感子区域;
对各个所述敏感子区域进行分析,得到所述敏感区域的第二评价值;
根据所述第一评价值和所述第二评价值,得到所述待识别图像的目标评价值。
在一种实现方式中,处理器810根据所述第一评价值和所述第二评价值,得到所述待识别图像的目标评价值之后,还包括:
获取所述待识别图像的图像属性信息;
确定所述目标评价值所属评价值区间对应的第一图像类别集合,以及所述图像属性信息对应的第二图像类别集合;
将同时存在于所述第一图像类别集合和第二图像类别集合的图像类别作为所述待识别图像的类别,并得到所述待识别图像的标签信息,所述标签信息包括所述待识别图像的类别对应的图像属性信息。
在一种实现方式中,处理器810得到待识别图像的标签信息之后,还包括:
接收图像获取请求,所述图像获取请求包括图像标识和用户身份信息;
获取所述图像标识对应图像的标签信息;
若所述用户身份信息和所述标签信息匹配,则输出所述图像标识对应的图像。
在一种实现方式中,处理器810对所述待识别图像进行分析,获取所述待识别图像的第一评价值,包括:
获取所述待识别图像的类别为预设类别中的各个类别的概率;
将各个所述概率进行加权运算,得到所述第一评价值。
在一种实现方式中,待识别图像包括人体图像,处理器810对所述待识别图像进行分析,获取所述待识别图像的第一评价值,包括:
通过图像分割算法确定所述人体图像中的皮肤区域;
计算所述皮肤区域的面积和所述皮肤区域在所述人体图像中的位置;
根据所述皮肤区域的面积和所述皮肤区域在所述人体图像中的位置,获取所述待识别图像的第一评价值。
在一种实现方式中,处理器810对各个所述敏感子区域进行分析,得到所述敏感区域的第二评价值,包括:
对各个所述敏感子区域进行分析,得到各个所述敏感子区域的第三评价值;
对各个所述第三评价值进行加权运算,得到所述第二评价值。
在一种实现方式中,处理器810获取所述待识别图像的敏感区域,包括:
通过所述敏感区域检测模型获取所述敏感区域的位置标识,所述位置标识用于指示所述敏感区域在所述待识别图像中的位置;
根据所述敏感区域在所述待识别图像中的位置,对所述敏感区域进行截取,得到所述待识别图像的敏感区域。
在一种实现方式中,特征提取模型包括注意力机制模块,所述注意力机制模块包括通道注意力子模块以及空间注意力子模块,处理器810通过特征提取模型对所述敏感区域进行所述特征提取类别的特征提取,得到所述敏感区域的特征信息,包括:
通过所述通道注意力子模块对所述敏感区域进行池化处理和压缩处理,得到所述敏感区域的通道特征向量;
通过所述空间注意力子模块对所述敏感区域进行池化处理,得到所述敏感区域的二维特征向量,并将所述二维特征向量进行卷积操作,得到所述敏感区域的空间特征向量;
通过广播机制对所述通道特征向量以及所述空间特征向量进行提取,得到所述敏感区域的特征信息。
在一种实现方式中,处理器810通过敏感区域检测模型对所述待识别图像进行检测之前,还包括:
获取预设检测模型,并对所述预设检测模型进行稀疏化训练,得到稀疏化训练后的检测模型,所述稀疏化训练后的检测模型包括至少一个参数以及各个参数对应的权重;
通过剪枝算法将所述稀疏化训练后的检测模型中包含的权重小于第二预设阈值的参数删除,得到剪枝后的检测模型;
对所述剪枝后的检测模型进行优化训练,得到优化后的检测模型;
对所述优化后的检测模型进行测试,若所述优化后的检测模型满足预设测试要求,则将所述优化后的检测模型作为所述敏感区域检测模型。
本发明实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时,可执行上述实施例中电子设备所执行的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory, ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明的部分实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。
Claims (10)
1.一种图像识别方法,其特征在于,所述方法包括:
通过敏感区域检测模型对待识别图像进行检测,若确定所述待识别图像为敏感图像,则获取所述待识别图像的敏感区域;
通过分类模型对所述敏感区域进行分类,得到所述敏感区域的特征提取类别;
通过特征提取模型对所述敏感区域进行所述特征提取类别的特征提取,得到所述敏感区域的特征信息;
计算所述特征信息与预设数据库中的各个特征信息之间的相似度,并将所述预设数据库中相似度最大的特征信息对应的类别确定为所述敏感区域的类别。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对所述待识别图像进行分析,获取所述待识别图像的第一评价值;
若所述第一评价值大于第一预设阈值,则确定所述待识别图像的类别为敏感图像;
获取所述待识别图像的敏感区域,所述敏感区域包括至少一个敏感子区域;
对各个所述敏感子区域进行分析,得到所述敏感区域的第二评价值,所述第二评价值用于指示所述敏感区域的敏感程度;
根据所述第一评价值和所述第二评价值,得到所述待识别图像的目标评价值,所述目标评价值用于指示所述待识别图像的敏感程度。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一评价值和所述第二评价值,得到所述待识别图像的目标评价值之后,还包括:
获取所述待识别图像的图像属性信息;
确定所述目标评价值所属评价值区间对应的第一图像类别集合,以及所述图像属性信息对应的第二图像类别集合;
将同时存在于所述第一图像类别集合和第二图像类别集合的图像类别作为所述待识别图像的类别,并得到所述待识别图像的标签信息,所述标签信息包括所述待识别图像的类别对应的图像属性信息。
4.根据权利要求3所述的方法,其特征在于,所述得到所述待识别图像的标签信息之后,还包括:
接收图像获取请求,所述图像获取请求包括图像标识和用户身份信息;
获取所述图像标识对应图像的标签信息;
若所述用户身份信息和所述标签信息匹配,则输出所述图像标识对应的图像。
5.根据权利要求2所述的方法,其特征在于,所述对所述待识别图像进行分析,获取所述待识别图像的第一评价值,包括:
获取所述待识别图像的类别为预设类别中的各个类别的概率;
将各个所述概率进行加权运算,得到所述第一评价值。
6.根据权利要求2所述的方法,其特征在于,所述待识别图像包括人体图像;
所述对所述待识别图像进行分析,获取所述待识别图像的第一评价值,包括:
通过图像分割算法确定所述人体图像中的皮肤区域;
计算所述皮肤区域的面积和所述皮肤区域在所述人体图像中的位置;
根据所述皮肤区域的面积和所述皮肤区域在所述人体图像中的位置,获取所述待识别图像的第一评价值。
7.根据权利要求2所述的方法,其特征在于,所述对各个所述敏感子区域进行分析,得到所述敏感区域的第二评价值,包括:
对各个所述敏感子区域进行分析,得到各个所述敏感子区域的第三评价值;
对各个所述第三评价值进行加权运算,得到所述第二评价值。
8.根据权利要求1所述的方法,其特征在于,所述获取所述待识别图像的敏感区域,包括:
通过所述敏感区域检测模型获取所述敏感区域的位置标识,所述位置标识用于指示所述敏感区域在所述待识别图像中的位置;
根据所述敏感区域在所述待识别图像中的位置,对所述敏感区域进行截取,得到所述待识别图像的敏感区域。
9.根据权利要求1所述的方法,其特征在于,所述特征提取模型包括注意力机制模块,所述注意力机制模块包括通道注意力子模块以及空间注意力子模块;
所述通过特征提取模型对所述敏感区域进行所述特征提取类别的特征提取,得到所述敏感区域的特征信息,包括:
通过所述通道注意力子模块对所述敏感区域进行池化处理和压缩处理,得到所述敏感区域的通道特征向量;
通过所述空间注意力子模块对所述敏感区域进行池化处理,得到所述敏感区域的二维特征向量,并将所述二维特征向量进行卷积操作,得到所述敏感区域的空间特征向量;
通过广播机制对所述通道特征向量以及所述空间特征向量进行提取,得到所述敏感区域的特征信息。
10.根据权利要求1所述的方法,其特征在于,所述通过敏感区域检测模型对所述待识别图像进行检测之前,还包括:
获取预设检测模型,并对所述预设检测模型进行稀疏化训练,得到稀疏化训练后的检测模型,所述稀疏化训练后的检测模型包括至少一个参数以及各个参数对应的权重;
通过剪枝算法将所述稀疏化训练后的检测模型中包含的权重小于第二预设阈值的参数删除,得到剪枝后的检测模型;
对所述剪枝后的检测模型进行优化训练,得到优化后的检测模型;
对所述优化后的检测模型进行测试,若所述优化后的检测模型满足预设测试要求,则将所述优化后的检测模型作为所述敏感区域检测模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010816472.XA CN112001282A (zh) | 2020-08-12 | 2020-08-12 | 一种图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010816472.XA CN112001282A (zh) | 2020-08-12 | 2020-08-12 | 一种图像识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112001282A true CN112001282A (zh) | 2020-11-27 |
Family
ID=73473715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010816472.XA Pending CN112001282A (zh) | 2020-08-12 | 2020-08-12 | 一种图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001282A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528996A (zh) * | 2020-12-22 | 2021-03-19 | 北京百度网讯科技有限公司 | 图片处理方法、装置、设备、存储介质和计算机程序产品 |
CN112750072A (zh) * | 2020-12-30 | 2021-05-04 | 五八有限公司 | 一种信息处理方法及装置 |
CN113269156A (zh) * | 2021-07-02 | 2021-08-17 | 昆明理工大学 | 一种基于多尺度特征融合的信号灯检测识别方法及系统 |
CN113705477A (zh) * | 2021-08-31 | 2021-11-26 | 平安科技(深圳)有限公司 | 一种医疗图像识别方法、系统、设备及介质 |
CN114092743A (zh) * | 2021-11-24 | 2022-02-25 | 开普云信息科技股份有限公司 | 敏感图片的合规性检测方法、装置、存储介质及设备 |
CN114173190A (zh) * | 2021-11-22 | 2022-03-11 | 闪捷信息科技有限公司 | 视频数据检测方法、装置、电子设备和存储介质 |
CN114511547A (zh) * | 2022-02-15 | 2022-05-17 | 平安国际智慧城市科技股份有限公司 | 病理切片图像质控方法、装置、设备及存储介质 |
CN115546824A (zh) * | 2022-04-18 | 2022-12-30 | 荣耀终端有限公司 | 禁忌图片识别方法、设备及存储介质 |
CN117152745A (zh) * | 2023-10-23 | 2023-12-01 | 杭州迪安医学检验中心有限公司 | 一种基于图像处理技术的支原体识别和录入方法及系统 |
CN117541969A (zh) * | 2024-01-09 | 2024-02-09 | 四川大学 | 一种基于语义和图像增强的色情视频检测方法 |
CN117633867A (zh) * | 2023-10-26 | 2024-03-01 | 唐山启奥科技股份有限公司 | 医疗图像脱敏方法、装置、电子设备及可读存储介质 |
CN117726882A (zh) * | 2024-02-07 | 2024-03-19 | 杭州宇泛智能科技有限公司 | 塔吊吊物识别方法、系统和电子设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110046874A (ko) * | 2009-10-29 | 2011-05-06 | 한국인식산업(주) | 영상 검색 및 인식 방법 |
CN104484683A (zh) * | 2014-12-31 | 2015-04-01 | 小米科技有限责任公司 | 黄色图片检测方法及装置 |
US20170032224A1 (en) * | 2015-07-31 | 2017-02-02 | Xiaomi Inc. | Method, device and computer-readable medium for sensitive picture recognition |
CN107291737A (zh) * | 2016-04-01 | 2017-10-24 | 腾讯科技(深圳)有限公司 | 敏感图像识别方法及装置 |
CN107423690A (zh) * | 2017-06-26 | 2017-12-01 | 广东工业大学 | 一种人脸识别方法及装置 |
CN109145979A (zh) * | 2018-08-15 | 2019-01-04 | 上海嵩恒网络科技股份有限公司 | 敏感图像鉴定方法及终端系统 |
CN109271965A (zh) * | 2018-10-11 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 视频审核方法、装置及存储介质 |
CN109800600A (zh) * | 2019-01-23 | 2019-05-24 | 中国海洋大学 | 面向保密需求的海洋大数据敏感度评估系统及防范方法 |
CN110166741A (zh) * | 2019-04-15 | 2019-08-23 | 深圳壹账通智能科技有限公司 | 基于人工智能的环境监控方法、装置、设备及存储介质 |
CN111178410A (zh) * | 2019-12-19 | 2020-05-19 | 腾讯科技(深圳)有限公司 | 违规图片的识别方法及装置 |
CN111191067A (zh) * | 2019-12-25 | 2020-05-22 | 深圳市优必选科技股份有限公司 | 绘本识别方法、终端设备及计算机可读存储介质 |
-
2020
- 2020-08-12 CN CN202010816472.XA patent/CN112001282A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110046874A (ko) * | 2009-10-29 | 2011-05-06 | 한국인식산업(주) | 영상 검색 및 인식 방법 |
CN104484683A (zh) * | 2014-12-31 | 2015-04-01 | 小米科技有限责任公司 | 黄色图片检测方法及装置 |
US20170032224A1 (en) * | 2015-07-31 | 2017-02-02 | Xiaomi Inc. | Method, device and computer-readable medium for sensitive picture recognition |
CN107291737A (zh) * | 2016-04-01 | 2017-10-24 | 腾讯科技(深圳)有限公司 | 敏感图像识别方法及装置 |
CN107423690A (zh) * | 2017-06-26 | 2017-12-01 | 广东工业大学 | 一种人脸识别方法及装置 |
CN109145979A (zh) * | 2018-08-15 | 2019-01-04 | 上海嵩恒网络科技股份有限公司 | 敏感图像鉴定方法及终端系统 |
CN109271965A (zh) * | 2018-10-11 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 视频审核方法、装置及存储介质 |
CN109800600A (zh) * | 2019-01-23 | 2019-05-24 | 中国海洋大学 | 面向保密需求的海洋大数据敏感度评估系统及防范方法 |
CN110166741A (zh) * | 2019-04-15 | 2019-08-23 | 深圳壹账通智能科技有限公司 | 基于人工智能的环境监控方法、装置、设备及存储介质 |
CN111178410A (zh) * | 2019-12-19 | 2020-05-19 | 腾讯科技(深圳)有限公司 | 违规图片的识别方法及装置 |
CN111191067A (zh) * | 2019-12-25 | 2020-05-22 | 深圳市优必选科技股份有限公司 | 绘本识别方法、终端设备及计算机可读存储介质 |
Non-Patent Citations (2)
Title |
---|
朱梅;李章维;: "基于图像敏感区域纹理特征的图像检索", 浙江科技学院学报, no. 01, 15 February 2010 (2010-02-15) * |
王国营;康进峰;: "基于显著区域的敏感图像识别方法", 计算机工程与设计, no. 01, 16 January 2011 (2011-01-16) * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528996A (zh) * | 2020-12-22 | 2021-03-19 | 北京百度网讯科技有限公司 | 图片处理方法、装置、设备、存储介质和计算机程序产品 |
CN112528996B (zh) * | 2020-12-22 | 2023-10-27 | 北京百度网讯科技有限公司 | 图片处理方法、装置、设备、存储介质和计算机程序产品 |
CN112750072A (zh) * | 2020-12-30 | 2021-05-04 | 五八有限公司 | 一种信息处理方法及装置 |
CN113269156A (zh) * | 2021-07-02 | 2021-08-17 | 昆明理工大学 | 一种基于多尺度特征融合的信号灯检测识别方法及系统 |
CN113705477A (zh) * | 2021-08-31 | 2021-11-26 | 平安科技(深圳)有限公司 | 一种医疗图像识别方法、系统、设备及介质 |
CN113705477B (zh) * | 2021-08-31 | 2023-08-29 | 平安科技(深圳)有限公司 | 一种医疗图像识别方法、系统、设备及介质 |
CN114173190B (zh) * | 2021-11-22 | 2024-05-03 | 闪捷信息科技有限公司 | 视频数据检测方法、装置、电子设备和存储介质 |
CN114173190A (zh) * | 2021-11-22 | 2022-03-11 | 闪捷信息科技有限公司 | 视频数据检测方法、装置、电子设备和存储介质 |
CN114092743A (zh) * | 2021-11-24 | 2022-02-25 | 开普云信息科技股份有限公司 | 敏感图片的合规性检测方法、装置、存储介质及设备 |
CN114092743B (zh) * | 2021-11-24 | 2022-07-26 | 开普云信息科技股份有限公司 | 敏感图片的合规性检测方法、装置、存储介质及设备 |
CN114511547A (zh) * | 2022-02-15 | 2022-05-17 | 平安国际智慧城市科技股份有限公司 | 病理切片图像质控方法、装置、设备及存储介质 |
CN115546824A (zh) * | 2022-04-18 | 2022-12-30 | 荣耀终端有限公司 | 禁忌图片识别方法、设备及存储介质 |
CN115546824B (zh) * | 2022-04-18 | 2023-11-28 | 荣耀终端有限公司 | 禁忌图片识别方法、设备及存储介质 |
CN117152745A (zh) * | 2023-10-23 | 2023-12-01 | 杭州迪安医学检验中心有限公司 | 一种基于图像处理技术的支原体识别和录入方法及系统 |
CN117633867A (zh) * | 2023-10-26 | 2024-03-01 | 唐山启奥科技股份有限公司 | 医疗图像脱敏方法、装置、电子设备及可读存储介质 |
CN117541969A (zh) * | 2024-01-09 | 2024-02-09 | 四川大学 | 一种基于语义和图像增强的色情视频检测方法 |
CN117541969B (zh) * | 2024-01-09 | 2024-04-16 | 四川大学 | 一种基于语义和图像增强的色情视频检测方法 |
CN117726882A (zh) * | 2024-02-07 | 2024-03-19 | 杭州宇泛智能科技有限公司 | 塔吊吊物识别方法、系统和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112001282A (zh) | 一种图像识别方法 | |
CN108664996B (zh) | 一种基于深度学习的古文字识别方法及系统 | |
Spiesman et al. | Assessing the potential for deep learning and computer vision to identify bumble bee species from images | |
CN107808358B (zh) | 图像水印自动检测方法 | |
CN105426356B (zh) | 一种目标信息识别方法和装置 | |
CN103824053B (zh) | 一种人脸图像的性别标注方法及人脸性别检测方法 | |
WO2021139324A1 (zh) | 图像识别方法、装置、计算机可读存储介质及电子设备 | |
CN102938054B (zh) | 基于视觉注意模型的压缩域敏感图像识别方法 | |
CN108734184B (zh) | 一种对敏感图像进行分析的方法及装置 | |
CN109919106B (zh) | 渐进式目标精细识别与描述方法 | |
CN112541476B (zh) | 一种基于语义特征提取的恶意网页识别方法 | |
CN113779308B (zh) | 一种短视频检测和多分类方法、装置及存储介质 | |
US8411964B2 (en) | Method and apparatus for analyzing nudity of image using body part detection model, and method and apparatus for managing image database based on nudity and body parts | |
CN106610969A (zh) | 基于多模态信息的视频内容审查系统及方法 | |
Ahmadi et al. | Intelligent classification of web pages using contextual and visual features | |
CN110348511A (zh) | 一种图片翻拍检测方法、系统及电子设备 | |
CN109753962B (zh) | 基于混合网络的自然场景图像中文本区域的处理方法 | |
CN109359551A (zh) | 一种基于机器学习的敏感图像识别方法与系统 | |
Cheng et al. | A global and local context integration DCNN for adult image classification | |
Dong et al. | An adult image detection algorithm based on Bag-of-Visual-Words and text information | |
CN114692593B (zh) | 一种网络信息安全监测预警方法 | |
Francis et al. | TEDLESS–Text detection using least-square SVM from natural scene | |
CN113705310A (zh) | 特征学习的方法、目标物体的识别方法和对应装置 | |
CN111163332A (zh) | 视频色情度检测方法、终端及介质 | |
Demidova et al. | Semantic image-based profiling of users’ interests with neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |