CN106951848B - 图片识别的方法及系统 - Google Patents
图片识别的方法及系统 Download PDFInfo
- Publication number
- CN106951848B CN106951848B CN201710147708.3A CN201710147708A CN106951848B CN 106951848 B CN106951848 B CN 106951848B CN 201710147708 A CN201710147708 A CN 201710147708A CN 106951848 B CN106951848 B CN 106951848B
- Authority
- CN
- China
- Prior art keywords
- picture
- training
- recognition result
- pictures
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种图片识别的方法及系统,该方法包括:在接收到待识别的图片后,将待识别的图片输入至预先训练生成的识别模型中进行识别,并输出识别结果;根据预定的识别结果与图片类别的关联关系,确定所输出的识别结果对应的图片类别,在识别出图片类别为暴力图片或色情图片时进行提示,并对暴力图片或色情图片进行标记及记录,以确定暴力图片或色情图片的来源。本发明能够有效地识别出网络上的不雅图片,大大提高不雅图片识别的准确率,便于一些网络监管部门或者安全监管部门的工作的执行。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图片识别的方法及系统。
背景技术
不雅图片,简称NSFW(Not Suitable/Safe For Work,工作场所不合适/不安全浏览的图片),不雅图片主要包括暴力图片和色情图片。目前,已经存在较多识别不雅图片的技术方案,在图片处理技术领域,目前主要使用传统的方法判断图片是否是不雅图片,例如,对于暴力图片,根据人体特定部位及皮肤颜色等特征判断图片是否是暴力图片,又如,对于色情图片,根据人体敏感部位特征结合文字的方式来判断是否是色情图片,等等,这种识别不雅图片的方法通常识别的准确率不高,不能有效地识别出网络上传播的一些不雅图片,给一些网络监管部门或者安全监管部门的工作带来不便。
发明内容
本发明的目的在于提供一种图片识别的方法及系统,旨在提高识别不雅图片的准确率。
为实现上述目的,本发明提供一种图片识别的方法,所述图片识别的方法包括:
S1,在接收到待识别的图片后,将待识别的图片输入至预先训练生成的识别模型中进行识别,并输出识别结果;
S2,根据预定的识别结果与图片类别的关联关系,确定所输出的识别结果对应的图片类别,其中,所述识别结果包括第一识别结果、第二识别结果及第三识别结果,所述图片类别包括正常图片、暴力图片及色情图片,所述第一识别结果对应正常图片,所述第二识别结果对应暴力图片,所述第三识别结果对应色情图片;
S3,在识别出图片类别为暴力图片或色情图片时进行提示,并对所述暴力图片或色情图片进行标记及记录,以确定所述暴力图片或色情图片的来源。
优选地,所述识别模型为深度卷积神经网络模型,所述步骤S1之前包括:
S01,为各图片类别准备对应的预设数量的样本图片,并标定每一样本图片对应的图片类别;
S02,对各样本图片进行图片预处理,以获取待训练的训练图片;
S03,以所述训练图片中第一预设比例的训练图片作为训练集,并以所述训练图片中的第二预设比例的训练图片作为验证集;
S04,利用所述训练集中的训练图片训练预定的深度卷积神经网络模型;
S05,利用所述验证集中的训练图片验证训练后的深度卷积神经网络模型的准确率,若所述准确率大于等于预设准确率阈值,则训练结束,或者,若所述准确率小于预设准确率阈值,则增加各图片类别对应的样本图片的数量,以重新进行训练。
优选地,所述步骤S02包括:
S021,将各样本图片调整为相同大小的第一图片,在各第一图片上裁剪出预设大小的第二图片;
S022,对各第二图片进行翻转及扭曲操作,以获得各第二图片对应的第三图片;
S023,基于各样本图片对应的第二图片及第三图片计算得到该样本图片的平均像素图片,并基于各样本图片对应的第二图片、第三图片及平均像素图片获取各样本图片对应的训练图片。
优选地,所述深度卷积神经网络模型的总层数为22,所述深度卷积神经网络模型的模型函数为:
所述W为模型函数的权值矩阵,所述b为模型函数的偏置项向量,所述N为训练集中训练图片的数量,所述x(i)为第i次输入的训练图片,所述y(i)为第i次输入的训练图片对应的图片类别标识,所述τ为权值衰减项,所述l为模型函数中层的序号,所述nl表示模型函数的总层数,所述sl表示模型函数的第l层包含的神经元个数,所述Wij(l)表示模型函数第l层第j个神经元与下一层中的第i个神经元之间的连接的权重值。
优选地,所述深度卷积神经网络模型的规约化因子为3*10-4,全连接层的连接权重被丢弃的概率为0.5,训练的学习率初始为0.003。
为实现上述目的,本发明还提供一种图片识别的系统,所述图片识别的系统包括:
识别模块,用于在接收到待识别的图片后,将待识别的图片输入至预先训练生成的识别模型中进行识别,并输出识别结果;
确定模块,用于根据预定的识别结果与图片类别的关联关系,确定所输出的识别结果对应的图片类别,其中,所述识别结果包括第一识别结果、第二识别结果及第三识别结果,所述图片类别包括正常图片、暴力图片及色情图片,所述第一识别结果对应正常图片,所述第二识别结果对应暴力图片,所述第三识别结果对应色情图片;
提示模块,用于在识别出图片类别为暴力图片或色情图片时进行提示,并对所述暴力图片或色情图片进行标记及记录,以确定所述暴力图片或色情图片的来源。
优选地,所述识别模型为深度卷积神经网络模型,所述图片识别的系统还包括:
准备模块,用于为各图片类别准备对应的预设数量的样本图片,并标定每一样本图片对应的图片类别;
预处理模块,用于对各样本图片进行图片预处理,以获取待训练的训练图片;
处理模块,用于以所述训练图片中第一预设比例的训练图片作为训练集,并以所述训练图片中的第二预设比例的训练图片作为验证集;
训练模块,用于利用所述训练集中的训练图片训练预定的深度卷积神经网络模型;
验证模块,用于利用所述验证集中的训练图片验证训练后的深度卷积神经网络模型的准确率,若所述准确率大于等于预设准确率阈值,则训练结束,或者,若所述准确率小于预设准确率阈值,则增加各图片类别对应的样本图片的数量,以重新进行训练。
优选地,所述预处理模块包括:
调整单元,用于将各样本图片调整为相同大小的第一图片,在各第一图片上裁剪出预设大小的第二图片;
处理单元,用于对各第二图片进行翻转及扭曲操作,以获得各第二图片对应的第三图片;
计算单元,用于基于各样本图片对应的第二图片及第三图片计算得到该样本图片的平均像素图片,并基于各样本图片对应的第二图片、第三图片及平均像素图片获取各样本图片对应的训练图片。
优选地,所述深度卷积神经网络模型的总层数为22,所述深度卷积神经网络模型的模型函数为:
所述W为模型函数的权值矩阵,所述b为模型函数的偏置项向量,所述N为训练集中训练图片的数量,所述x(i)为第i次输入的训练图片,所述y(i)为第i次输入的训练图片对应的图片类别标识,所述τ为权值衰减项,所述l为模型函数中层的序号,所述nl表示模型函数的总层数,所述sl表示模型函数的第l层包含的神经元个数,所述表示模型函数第l层第j个神经元与下一层中的第i个神经元之间的连接的权重值。
优选地,所述深度卷积神经网络模型的规约化因子为3*10-4,全连接层的连接权重被丢弃的概率为0.5,训练的学习率初始为0.003。
本发明的有益效果是:本发明在不雅图片识别领域利用经过大量数据训练得到的识别模型对图片进行识别,由于识别模型能够涵盖各种影响不雅图片识别的因素,因此,与传统的不雅图片的识别方法相比,本发明能够有效地识别出网络上的不雅图片,大大提高不雅图片识别的准确率,便于一些网络监管部门或者安全监管部门的工作的执行。
附图说明
图1为本发明图片识别的方法第一实施例的流程示意图;
图2为本发明图片识别的方法第二实施例的流程示意图;
图3为图2所示步骤S02的细化流程示意图;
图4为本发明基于数据源的业务定制系统一实施例的运行环境示意图;
图5为本发明图片识别的系统第一实施例的结构示意图;
图6为本发明图片识别的系统第二实施例的结构示意图;
图7为图6所示预处理模块的结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,图1为本发明图片识别的方法一实施例的流程示意图,该图片识别的方法包括以下步骤:
步骤S1,在接收到待识别的图片后,将待识别的图片输入至预先训练生成的识别模型中进行识别,并输出识别结果。
本实施例中,可以由图片识别的系统对图片进行识别,该图片识别的系统可由软件和/或硬件实现,图片识别的系统可以集成于服务器中。
待识别的图片可以是网络上的任意图片,例如不同分辨率、不同尺寸或者不同图片内容的图片等。本实施例在对图片进行识别的过程中,按照图片内容进行识别,待识别的图片被识别后分为不雅图片及正常图片,其中,不雅图片包括暴力图片及色情图片。
预先训练生成的识别模型可以是运用各种机器学习算法进行图片识别的模型,例如可以是CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)等,优选地,该识别模型为深度卷积神经网络模型。识别模型在用于识别不雅图片之前,预先运用大量的不雅图片进行训练,由于大量的不雅图片能够最大程度地囊括或模拟不雅图片中的场景,因此训练好的识别模型能够准确识别出不雅图片。
在将待识别的图片输入至识别模型后,识别模型对其进行识别,并输出识别结果,识别结果可以用数字表示不同的结果,例如数字“0”表示一种识别结果,数字“1”表示另一种识别结果。
步骤S2,根据预定的识别结果与图片类别的关联关系,确定所输出的识别结果对应的图片类别。
其中,识别结果包括第一识别结果、第二识别结果及第三识别结果,识别结果可以用数字进行标识,例如数字“0”标识第一识别结果、数字“1”标识第二识别结果及数字“2”标识第三识别结果。
其中,图片类别包括正常图片、暴力图片及色情图片。预先将识别结果与图片类别进行关联对应,并将关联关系进行存储,第一识别结果对应正常图片,第二识别结果对应暴力图片,第三识别结果对应色情图片。
在输出识别结果后,根据识别结果与图片类别的关联关系可以确定图片的图片类别,例如输出数字“0”,可确定为正常图片;输出数字“1”,可确定为暴力图片;输出数字“2”,可确定为色情图片。
步骤S3,在识别出图片类别为暴力图片或色情图片时进行提示,并对所述暴力图片或色情图片进行标记及记录,以确定所述暴力图片或色情图片的来源。
在识别模型识别出图片类别为暴力图片或色情图片时进行提示,优选地,可以以声和/或光的形式进行提示,例如在识别出暴力图片或色情图片时发出“滴滴”的提示音或者发出“暴力图片(或色情图片)”的语音提示,或者安装有图片识别的系统的电子装置上有提示灯,在识别出暴力图片或色情图片时该提示灯处于亮的状态或者闪烁的状态,并保持一定的时间(例如3秒),以提示相关人员对该识别出的暴力图片或色情图片进行确认。
然后对识别出来的暴力图片或色情图片进行标记,例如暴力图片标记为“I”,色情图片标记为“II”,以与其他正常图片进行区分,最后可以记录识别出来的暴力图片或色情图片的相关图片信息,例如记录暴力图片或色情图片的URL信息,以确定暴力图片或色情图片的来源。
与现有技术相比,本实施例在不雅图片识别领域利用经过大量数据训练得到的识别模型对图片进行识别,由于识别模型能够涵盖各种影响不雅图片识别的因素,因此,与传统的不雅图片的识别方法相比,本实施例能够有效地识别出网络上的不雅图片,大大提高不雅图片识别的准确率,便于一些网络监管部门或者安全监管部门的工作的执行。
在一优选的实施例中,如图2所示,在上述图1的实施例的基础上,所述步骤S1之前包括:
S01,为各图片类别准备对应的预设数量的样本图片,并标定每一样本图片对应的图片类别;对于每一图片类别的样本图片,准备对应的预设数量的样本图片,例如正常图片的样本图片的数量为10万,暴力图片的样本图片的数量为10万,色情图片的样本图片的数量为10万。
S02,对各样本图片进行图片预处理,以获取待训练的训练图片;对各样本图片进行图片预处理包括对样本图片进行大小的统一调整,对样本图片进行翻转扭曲等等,以增大数据的规模。
S03,以所述训练图片中第一预设比例的训练图片作为训练集,并以所述训练图片中的第二预设比例的训练图片作为验证集;可以以训练图片中第一预设比例的训练图片作为训练集,例如以训练图片中50%的训练图片作为训练集,以训练图片中第二预设比例的训练图片作为验证集,例如以训练图片中25%的训练图片作为验证集,第一预设比例大于第二预设比例。
S04,利用所述训练集中的训练图片训练预定的深度卷积神经网络模型;其中,初次训练时深度卷积神经网络模型的参数可以采用默认参数,随着训练的进行参数不断调整。
S05,利用所述验证集中的训练图片验证训练后的深度卷积神经网络模型的准确率,若所述准确率大于等于预设准确率阈值(例如0.98),则训练结束,或者,若所述准确率小于预设准确率阈值,则增加各图片类别对应的样本图片的数量,重新执行上述的步骤S01至S05,以重新进行训练,直至验证深度卷积神经网络模型的准确率大于等于预设准确率阈值,以准确率大于等于预设准确率阈值的深度卷积神经网络模型作为上述实施例的步骤S1中的识别模型。
在一优选的实施例中,如图3所示,在上述图2的实施例的基础上,所述步骤S02包括:
S021,将各样本图片调整为相同大小(例如,像素为384*384)的第一图片,在各第一图片上裁剪出预设大小(例如,像素为256*256)的第二图片。
S022,对各个第二图片做预设方向(例如,水平或垂直方向)的翻转,以及按照预设的角度进行扭曲操作,以获得各个第二图片对应的第三图片,其中,翻转和扭曲操作的作用是模拟实际业务场景下各种形式的图片,通过图片的翻转和扭曲操作可以增大数据集的规模,从而增大训练图片的规模。
S023,基于各样本图片对应的第二图片及第三图片计算得到该样本图片的平均像素图片,并基于各样本图片对应的第二图片、第三图片及平均像素图片获取各样本图片对应的训练图片。
计算出各个样本图片对应的第二图片和第三图片的平均像素图片,平均像素图片的各个像素值是对应的第二图片和第三图片对应像素的像素值的平均值,例如,平均像素图片的像素点X分别与第二图片的像素点X1和第三图片的像素点X2对应,像素点X的像素值是所有像素点X1和像素点X2的像素值的平均值;将各个样本图片对应的各个第二图片和第三图片中的各个像素值分别减去对应的平均像素图片中的对应像素的像素值值,以得到各个样本图片对应的训练图片,从而增大训练图片的规模。
优选地,在上述图2的实施例的基础上,深度卷积神经网络模型的总层数为22,包括1个输入层,13个卷积层,5个池化层,2个全连接层,1个分类层,深度卷积神经网络模型的详细结构如下表1所示:
表1
其中,Layer Name列表示每一层的名称,Input表示输入层,输入层的神经元与训练图片的像素连接;Conv表示深度卷积神经网络模型的卷积层,Conv1表示深度卷积神经网络模型的第1个卷积层,Conv2表示深度卷积神经网络模型的第2个卷积层,以此类推;MaxPool表示深度卷积神经网络模型的最大值池化层,MaxPool1表示深度卷积神经网络模型的第1个最大值池化层,Fc表示深度卷积神经网络模型中的全连接层,Fc1表示深度卷积神经网络模型中第1个全连接层,Softmax表示Softmax分类器;Batch Size表示当前层的输入图像数目;Kernel Size表示当前层卷积核的尺度(例如,Kernel Size可以等于3,表示卷积核的尺度为3x 3);Stride Size表示卷积核的移动步长,即做完一次卷积之后移动到下一个卷积位置的距离;Pad Size表示对当前网络层之中的图像填充的大小。
优选地,深度卷积神经网络模型的模型函数为:
W为模型函数的权值矩阵,b为模型函数的偏置项向量,N为训练集中训练图片的数量,x(i)为第i次输入的训练图片,y(i)为第i次输入的训练图片对应的图片类别标识,τ为权值衰减项,l为模型函数中层的序号,nl表示模型函数的总层数,sl表示模型函数的第l层包含的神经元个数,表示模型函数第l层第j个神经元与下一层中的第i个神经元之间的连接的权重值。
其中,表达式代表误差计算函数,表达式代表规约化函数,权值矩阵W的更新规则如下:
优选地,规约化因子设为3*10-4,全连接层的连接权重被丢弃(Dropout)的概率设置为0.5,模型训练的学习率初始设置为0.003,以保证训练的效率及准确性。
请参阅图4,是本发明图片识别的系统10较佳实施例的运行环境示意图。
在本实施例中,图片识别的系统10安装并运行于电子装置1中。电子装置1可以是桌上型计算机、笔记本、掌上电脑及服务器等计算设备。该电子装置1可包括,但不仅限于,存储器11、处理器12及显示器13。图4仅示出了具有组件11-13的电子装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
存储器11在一些实施例中可以是电子装置1的内部存储单元,例如该电子装置1的硬盘或内存。存储器11在另一些实施例中也可以是电子装置1的外部存储设备,例如电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器11还可以既包括电子装置1的内部存储单元也包括外部存储设备。存储器11用于存储安装于电子装置1的应用软件及各类数据,例如图片识别的系统10的程序代码等。存储器11还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行图片识别的系统10等。
显示器13在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。显示器13用于显示在电子装置1中处理的信息以及用于显示可视化的用户界面,例如图片识别界面等。电子装置1的部件11-13通过系统总线相互通信。
请参阅图5,是本发明图片识别的系统10较佳实施例的功能模块图。在本实施例中,图片识别的系统10可以被分割成一个或多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器12)所执行,以完成本发明。例如,在图5中,图片识别的系统10可以被分割成识别模块101、确定模块102及提示模块103。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段,比程序更适合于描述图片识别的系统10在电子装置1中的执行过程,其中:
识别模块101,用于在接收到待识别的图片后,将待识别的图片输入至预先训练生成的识别模型中进行识别,并输出识别结果;
本实施例中,图片识别的系统可由软件和/或硬件实现,图片识别的系统可以集成于服务器中。
待识别的图片可以是网络上的任意图片,例如不同分辨率、不同尺寸或者不同图片内容的图片等。本实施例在对图片进行识别的过程中,按照图片内容进行识别,待识别的图片被识别后分为不雅图片及正常图片,其中,不雅图片包括暴力图片及色情图片。
预先训练生成的识别模型可以是运用各种机器学习算法进行图片识别的模型,例如可以是CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)等,优选地,该识别模型为深度卷积神经网络模型。识别模型在用于识别不雅图片之前,预先运用大量的不雅图片进行训练,由于大量的不雅图片能够最大程度地囊括或模拟不雅图片中的场景,因此训练好的识别模型能够准确识别出不雅图片。
在将待识别的图片输入至识别模型后,识别模型对其进行识别,并输出识别结果,识别结果可以用数字表示不同的结果,例如数字“0”表示一种识别结果,数字“1”表示另一种识别结果。
确定模块102,用于根据预定的识别结果与图片类别的关联关系,确定所输出的识别结果对应的图片类别。
其中,识别结果包括第一识别结果、第二识别结果及第三识别结果,识别结果可以用数字进行标识,例如数字“0”标识第一识别结果、数字“1”标识第二识别结果及数字“2”标识第三识别结果。
其中,图片类别包括正常图片、暴力图片及色情图片。预先将识别结果与图片类别进行关联对应,并将关联关系进行存储,第一识别结果对应正常图片,第二识别结果对应暴力图片,第三识别结果对应色情图片。
在输出识别结果后,根据识别结果与图片类别的关联关系可以确定图片的图片类别,例如输出数字“0”,可确定为正常图片;输出数字“1”,可确定为暴力图片;输出数字“2”,可确定为色情图片。
提示模块103,用于在识别出图片类别为暴力图片或色情图片时进行提示,并对所述暴力图片或色情图片进行标记及记录,以确定所述暴力图片或色情图片的来源。
在识别模型识别出图片类别为暴力图片或色情图片时进行提示,优选地,可以以声和/或光的形式进行提示,例如在识别出暴力图片或色情图片时发出“滴滴”的提示音或者发出“暴力图片(或色情图片)”的语音提示,或者安装有图片识别的系统的电子装置上有提示灯,在识别出暴力图片或色情图片时该提示灯处于亮的状态或者闪烁的状态,并保持一定的时间(例如3秒),以提示相关人员对该识别出的暴力图片或色情图片进行确认。
然后对识别出来的暴力图片或色情图片进行标记,例如暴力图片标记为“I”,色情图片标记为“II”,以与其他正常图片进行区分,最后可以记录识别出来的暴力图片或色情图片的相关信息,例如记录暴力图片或色情图片的URL信息,以确定暴力图片或色情图片的来源。
在一优选的实施例中,如图6所示,在上述图5的实施例的基础上,识别模型为深度卷积神经网络模型,所述图片识别的系统还包括:
准备模块001,用于为各图片类别准备对应的预设数量的样本图片,并标定每一样本图片对应的图片类别;对于每一图片类别的样本图片,准备对应的预设数量的样本图片,例如正常图片的样本图片的数量为10万,暴力图片的样本图片的数量为10万,色情图片的样本图片的数量为10万。
预处理模块002,用于对各样本图片进行图片预处理,以获取待训练的训练图片;对各样本图片进行图片预处理包括对样本图片进行大小的统一调整,对样本图片进行翻转扭曲等等,以增大数据的规模。
处理模块003,用于以所述训练图片中第一预设比例的训练图片作为训练集,并以所述训练图片中的第二预设比例的训练图片作为验证集;可以以训练图片中第一预设比例的训练图片作为训练集,例如以训练图片中50%的训练图片作为训练集,以训练图片中第二预设比例的训练图片作为验证集,例如以训练图片中25%的训练图片作为验证集,第一预设比例大于第二预设比例。
训练模块004,用于利用所述训练集中的训练图片训练预定的深度卷积神经网络模型;其中,初次训练时深度卷积神经网络模型的参数可以采用默认参数,随着训练的进行参数不断调整。
验证模块005,用于利用所述验证集中的训练图片验证训练后的深度卷积神经网络模型的准确率,若所述准确率大于等于预设准确率阈值(例如0.98),则训练结束,或者,若所述准确率小于预设准确率阈值,则增加各图片类别对应的样本图片的数量,重新触发上述的准备模块001等,以重新进行训练,直至验证深度卷积神经网络模型的准确率大于等于预设准确率阈值,以准确率大于等于预设准确率阈值的深度卷积神经网络模型作为上述实施例的识别模块101中的识别模型。
在一优选的实施例中,如图7所示,在上述图6的实施例的基础上,所述预处理模块002包括:
调整单元0021,用于将各样本图片调整为相同大小(例如,像素为384*384)的第一图片,在各第一图片上裁剪出预设大小(例如,像素为256*256)的第二图片。
处理单元0022,用于对各个第二图片做预设方向(例如,水平或垂直方向)的翻转,以及按照预设的角度进行扭曲操作,以获得各个第二图片对应的第三图片,其中,翻转和扭曲操作的作用是模拟实际业务场景下各种形式的图片,通过图片的翻转和扭曲操作可以增大数据集的规模,从而增大训练图片的规模。
计算单元0023,用于基于各样本图片对应的第二图片及第三图片计算得到该样本图片的平均像素图片,并基于各样本图片对应的第二图片、第三图片及平均像素图片获取各样本图片对应的训练图片。
计算出各个样本图片对应的第二图片和第三图片的平均像素图片,平均像素图片的各个像素值是对应的第二图片和第三图片对应像素的像素值的平均值,例如,平均像素图片的像素点X分别与第二图片的像素点X1和第三图片的像素点X2对应,像素点X的像素值是所有像素点X1和像素点X2的像素值的平均值;将各个样本图片对应的各个第二图片和第三图片中的各个像素值分别减去对应的平均像素图片中的对应像素的像素值值,以得到各个样本图片对应的训练图片,从而增大训练图片的规模。
优选地,在上述的实施例的基础上,深度卷积神经网络模型的总层数为22,包括1个输入层,13个卷积层,5个池化层,2个全连接层,1个分类层,深度卷积神经网络模型的详细结构如上述表1所示,此处不再赘述。
优选地,深度卷积神经网络模型的模型函数为:
W为模型函数的权值矩阵,b为模型函数的偏置项向量,N为训练集中训练图片的数量,x(i)为第i次输入的训练图片,y(i)为第i次输入的训练图片对应的图片类别标识,τ为权值衰减项,l为模型函数中层的序号,nl表示模型函数的总层数,sl表示模型函数的第l层包含的神经元个数,表示模型函数第l层第j个神经元与下一层中的第i个神经元之间的连接的权重值。
其中,表达式代表误差计算函数,表达式代表规约化函数,权值矩阵W的更新规则如下:
优选地,规约化因子设为3*10-4,全连接层的连接权重被丢弃(Dropout)的概率设置为0.5,模型训练的学习率初始设置为0.003,以保证训练的效率及准确性。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种图片识别的方法,其特征在于,所述图片识别的方法包括:
S0,利用训练样本图片对预设类型的识别模型进行训练,所述训练样本图片的获取步骤包括:
为各图片类别准备对应的预设数量的样本图片,并标定每一样本图片对应的图片类别;
将各样本图片调整为相同大小的第一图片,在各第一图片上裁剪出预设大小的第二图片;
对各第二图片进行翻转及扭曲操作,以获得各第二图片对应的第三图片;
基于各样本图片对应的第二图片及第三图片计算得到该样本图片的平均像素图片,该平均像素图片的各个像素值是对应的第二图片和第三图片对应像素的像素值的平均值,将各样本图片对应的各第二图片和第三图片中的各个像素值分别减去对应的平均像素图片中的对应像素的像素值,以得到各样本图片对应的训练图片;
S1,在接收到待识别的图片后,将待识别的图片输入至训练生成的识别模型中进行识别,并输出识别结果;
S2,根据预定的识别结果与图片类别的关联关系,确定所输出的识别结果对应的图片类别,其中,所述识别结果包括第一识别结果、第二识别结果及第三识别结果,所述图片类别包括正常图片、暴力图片及色情图片,所述第一识别结果对应正常图片,所述第二识别结果对应暴力图片,所述第三识别结果对应色情图片;
S3,在识别出图片类别为暴力图片或色情图片时进行提示,并对所述暴力图片或色情图片进行标记及记录,以确定所述暴力图片或色情图片的来源。
2.根据权利要求1所述的图片识别的方法,其特征在于,所述识别模型为深度卷积神经网络模型,所述步骤S0还包括:
S03,以所述训练图片中第一预设比例的训练图片作为训练集,并以所述训练图片中的第二预设比例的训练图片作为验证集;
S04,利用所述训练集中的训练图片训练所述深度卷积神经网络模型;
S05,利用所述验证集中的训练图片验证训练后的深度卷积神经网络模型的准确率,若所述准确率大于等于预设准确率阈值,则训练结束,或者,若所述准确率小于预设准确率阈值,则增加各图片类别对应的样本图片的数量,以重新进行训练。
3.根据权利要求2所述的图片识别的方法,其特征在于,所述深度卷积神经网络模型的总层数为22,所述深度卷积神经网络模型的模型函数为:
所述W为模型函数的权值矩阵,所述b为模型函数的偏置项向量,所述N为训练集中训练图片的数量,所述x(i)为第i次输入的训练图片,所述y(i)为第i次输入的训练图片对应的图片类别标识,所述τ为权值衰减项,所述l为模型函数中层的序号,所述nl表示模型函数的总层数,所述sl表示模型函数的第l层包含的神经元个数,所述表示模型函数第l层第j个神经元与下一层中的第i个神经元之间的连接的权重值。
4.根据权利要求3所述的图片识别的方法,其特征在于,所述深度卷积神经网络模型的规约化因子为3*10-4,全连接层的连接权重被丢弃的概率为0.5,训练的学习率初始为0.003。
5.一种图片识别的系统,其特征在于,所述图片识别的系统包括:
训练模块,用于利用训练样本图片对预设类型的识别模型进行训练,所述训练样本图片的获取步骤包括:
为各图片类别准备对应的预设数量的样本图片,并标定每一样本图片对应的图片类别;
将各样本图片调整为相同大小的第一图片,在各第一图片上裁剪出预设大小的第二图片;
对各第二图片进行翻转及扭曲操作,以获得各第二图片对应的第三图片;
基于各样本图片对应的第二图片及第三图片计算得到该样本图片的平均像素图片,该平均像素图片的各个像素值是对应的第二图片和第三图片对应像素的像素值的平均值,将各样本图片对应的各第二图片和第三图片中的各个像素值分别减去对应的平均像素图片中的对应像素的像素值,以得到各样本图片对应的训练图片;
识别模块,用于在接收到待识别的图片后,将待识别的图片输入至训练生成的识别模型中进行识别,并输出识别结果;
确定模块,用于根据预定的识别结果与图片类别的关联关系,确定所输出的识别结果对应的图片类别,其中,所述识别结果包括第一识别结果、第二识别结果及第三识别结果,所述图片类别包括正常图片、暴力图片及色情图片,所述第一识别结果对应正常图片,所述第二识别结果对应暴力图片,所述第三识别结果对应色情图片;
提示模块,用于在识别出图片类别为暴力图片或色情图片时进行提示,并对所述暴力图片或色情图片进行标记及记录,以确定所述暴力图片或色情图片的来源。
6.根据权利要求5所述的图片识别的系统,其特征在于,所述识别模型为深度卷积神经网络模型,所述图片识别的系统还包括:
处理模块,用于以所述训练图片中第一预设比例的训练图片作为训练集,并以所述训练图片中的第二预设比例的训练图片作为验证集利用所述训练集中的训练图片训练所述深度卷积神经网络模型;
验证模块,用于利用所述验证集中的训练图片验证训练后的深度卷积神经网络模型的准确率,若所述准确率大于等于预设准确率阈值,则训练结束,或者,若所述准确率小于预设准确率阈值,则增加各图片类别对应的样本图片的数量,以重新进行训练。
7.根据权利要求6所述的图片识别的系统,其特征在于,所述深度卷积神经网络模型的总层数为22,所述深度卷积神经网络模型的模型函数为:
所述W为模型函数的权值矩阵,所述b为模型函数的偏置项向量,所述N为训练集中训练图片的数量,所述x(i)为第i次输入的训练图片,所述y(i)为第i次输入的训练图片对应的图片类别标识,所述τ为权值衰减项,所述l为模型函数中层的序号,所述nl表示模型函数的总层数,所述sl表示模型函数的第l层包含的神经元个数,所述表示模型函数第l层第j个神经元与下一层中的第i个神经元之间的连接的权重值。
8.根据权利要求7所述的图片识别的系统,其特征在于,所述深度卷积神经网络模型的规约化因子为3*10-4,全连接层的连接权重被丢弃的概率为0.5,训练的学习率初始为0.003。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710147708.3A CN106951848B (zh) | 2017-03-13 | 2017-03-13 | 图片识别的方法及系统 |
PCT/CN2017/091371 WO2018166114A1 (zh) | 2017-03-13 | 2017-06-30 | 图片识别的方法、系统、电子装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710147708.3A CN106951848B (zh) | 2017-03-13 | 2017-03-13 | 图片识别的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106951848A CN106951848A (zh) | 2017-07-14 |
CN106951848B true CN106951848B (zh) | 2018-12-28 |
Family
ID=59466880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710147708.3A Active CN106951848B (zh) | 2017-03-13 | 2017-03-13 | 图片识别的方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN106951848B (zh) |
WO (1) | WO2018166114A1 (zh) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480773B (zh) * | 2017-08-09 | 2020-11-13 | 北京小米移动软件有限公司 | 训练卷积神经网络模型的方法、装置及存储介质 |
CN107516112A (zh) * | 2017-08-24 | 2017-12-26 | 北京小米移动软件有限公司 | 对象类别识别方法、装置、设备及存储介质 |
CN107665333A (zh) * | 2017-08-28 | 2018-02-06 | 平安科技(深圳)有限公司 | 一种基于卷积神经网络的不雅图片识别方法、终端、设备及计算机可读存储介质 |
CN108052523A (zh) * | 2017-11-03 | 2018-05-18 | 中国互联网络信息中心 | 基于卷积神经网络的赌博网站识别方法和系统 |
CN108415807A (zh) * | 2018-02-12 | 2018-08-17 | 成都睿码科技有限责任公司 | 一种爬取监控电子设备是否浏览不良信息的方法 |
CN108491866B (zh) * | 2018-03-06 | 2022-09-13 | 平安科技(深圳)有限公司 | 色情图片鉴定方法、电子装置及可读存储介质 |
CN108509959A (zh) * | 2018-04-13 | 2018-09-07 | 广州优视网络科技有限公司 | 色情应用识别方法、装置、计算机可读存储介质和服务器 |
CN108734708B (zh) * | 2018-05-23 | 2021-02-19 | 平安科技(深圳)有限公司 | 胃癌识别方法、装置及存储介质 |
CN109145979B (zh) * | 2018-08-15 | 2022-06-21 | 上海嵩恒网络科技股份有限公司 | 敏感图像鉴定方法及终端系统 |
CN111046859B (zh) * | 2018-10-11 | 2023-09-29 | 杭州海康威视数字技术股份有限公司 | 字符识别方法及装置 |
CN109491970B (zh) * | 2018-10-11 | 2024-05-10 | 平安科技(深圳)有限公司 | 面向云存储的不良图片检测方法、装置及存储介质 |
CN109460485A (zh) * | 2018-10-12 | 2019-03-12 | 咪咕文化科技有限公司 | 一种图像库建立方法、装置和存储介质 |
CN109241951A (zh) * | 2018-10-26 | 2019-01-18 | 北京陌上花科技有限公司 | 色情图片识别方法、识别模型构建方法及识别模型和计算机可读存储介质 |
CN109657694A (zh) * | 2018-10-26 | 2019-04-19 | 平安科技(深圳)有限公司 | 图片自动分类方法、装置及计算机可读存储介质 |
CN109508746A (zh) * | 2018-11-16 | 2019-03-22 | 西安电子科技大学 | 基于卷积神经网络的脉冲星候选体识别方法 |
CN109727238A (zh) * | 2018-12-27 | 2019-05-07 | 贵阳朗玛信息技术股份有限公司 | X光胸片的识别方法及装置 |
CN109886865B (zh) * | 2019-01-07 | 2024-01-23 | 平安科技(深圳)有限公司 | 自动屏蔽不良信息的方法、装置、计算机设备以及存储介质 |
CN111460247B (zh) * | 2019-01-21 | 2022-07-01 | 重庆邮电大学 | 网络图片敏感文字自动检测方法 |
CN109947940B (zh) * | 2019-02-15 | 2023-09-05 | 平安科技(深圳)有限公司 | 文本分类方法、装置、终端及存储介质 |
CN110287991B (zh) * | 2019-05-22 | 2023-12-19 | 平安科技(深圳)有限公司 | 植物类生药真伪验证方法、装置、计算机设备及存储介质 |
CN112651413B (zh) * | 2019-10-10 | 2023-10-17 | 百度在线网络技术(北京)有限公司 | 低俗图的集成学习分类方法、装置、设备及存储介质 |
CN110807139B (zh) * | 2019-10-23 | 2023-09-01 | 腾讯科技(深圳)有限公司 | 图片识别方法、装置、计算机可读存储介质和计算机设备 |
CN111127327B (zh) * | 2019-11-14 | 2024-04-12 | 贝壳技术有限公司 | 一种图片倾斜检测方法及装置 |
CN112907498B (zh) * | 2019-11-18 | 2024-04-30 | 中国商用飞机有限责任公司 | 一种孔隙识别方法、装置、设备及存储介质 |
CN113093967A (zh) | 2020-01-08 | 2021-07-09 | 富泰华工业(深圳)有限公司 | 数据生成方法、装置、计算机装置及存储介质 |
CN111402224B (zh) * | 2020-03-12 | 2023-12-05 | 广东电网有限责任公司广州供电局 | 一种用于电力设备的目标识别方法 |
CN112417847A (zh) * | 2020-11-19 | 2021-02-26 | 湖南红网新媒体集团有限公司 | 一种新闻内容安全监测方法、系统、装置和存储介质 |
CN112597828B (zh) * | 2020-12-11 | 2024-07-19 | 京东科技控股股份有限公司 | 网页识别模型的训练方法、装置、网页识别的方法 |
CN114155417B (zh) * | 2021-12-13 | 2022-07-19 | 中国科学院空间应用工程与技术中心 | 图像目标的识别方法、装置、电子设备及计算机存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1396532A (zh) * | 2001-07-16 | 2003-02-12 | 友立资讯股份有限公司 | 色情图片检查系统及方法 |
CN101447020A (zh) * | 2008-12-12 | 2009-06-03 | 北京理工大学 | 基于直觉模糊的色情图像识别方法 |
CN104281833A (zh) * | 2013-07-08 | 2015-01-14 | 深圳市腾讯计算机系统有限公司 | 色情图像识别方法和装置 |
CN104992177A (zh) * | 2015-06-12 | 2015-10-21 | 安徽大学 | 基于深层卷积神经网络的网络色情图像检测方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101901346B (zh) * | 2010-05-06 | 2012-11-21 | 复旦大学 | 一种对彩色数字图像进行不良内容识别的方法 |
CN103164687B (zh) * | 2011-12-15 | 2017-03-01 | 阿里巴巴集团控股有限公司 | 一种色情图像侦测的方法和系统 |
US9953425B2 (en) * | 2014-07-30 | 2018-04-24 | Adobe Systems Incorporated | Learning image categorization using related attributes |
CN104182735A (zh) * | 2014-08-18 | 2014-12-03 | 厦门美图之家科技有限公司 | 训练优化的基于卷积神经网络的色情图像或视频检测方法 |
CN105808610B (zh) * | 2014-12-31 | 2019-12-20 | 中国科学院深圳先进技术研究院 | 一种互联网图片过滤方法及装置 |
CN106127108B (zh) * | 2016-06-14 | 2019-07-16 | 中国科学院软件研究所 | 一种基于卷积神经网络的人手图像区域检测方法 |
-
2017
- 2017-03-13 CN CN201710147708.3A patent/CN106951848B/zh active Active
- 2017-06-30 WO PCT/CN2017/091371 patent/WO2018166114A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1396532A (zh) * | 2001-07-16 | 2003-02-12 | 友立资讯股份有限公司 | 色情图片检查系统及方法 |
CN101447020A (zh) * | 2008-12-12 | 2009-06-03 | 北京理工大学 | 基于直觉模糊的色情图像识别方法 |
CN104281833A (zh) * | 2013-07-08 | 2015-01-14 | 深圳市腾讯计算机系统有限公司 | 色情图像识别方法和装置 |
CN104992177A (zh) * | 2015-06-12 | 2015-10-21 | 安徽大学 | 基于深层卷积神经网络的网络色情图像检测方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2018166114A1 (zh) | 2018-09-20 |
CN106951848A (zh) | 2017-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106951848B (zh) | 图片识别的方法及系统 | |
CN110147732A (zh) | 指静脉识别方法、装置、计算机设备及存储介质 | |
CN107563372A (zh) | 一种基于深度学习ssd框架的车牌定位方法 | |
CN109657694A (zh) | 图片自动分类方法、装置及计算机可读存储介质 | |
CN107122375A (zh) | 基于图像特征的图像主体的识别方法 | |
CN112926405A (zh) | 一种安全帽佩戴检测方法、系统、设备及存储介质 | |
CN108229268A (zh) | 表情识别及卷积神经网络模型训练方法、装置和电子设备 | |
CN107168992A (zh) | 基于人工智能的文章分类方法及装置、设备与可读介质 | |
CN110223292A (zh) | 图像评估方法、装置及计算机可读存储介质 | |
CN107657259A (zh) | 图像篡改检测方法、电子装置及可读存储介质 | |
CN107273836A (zh) | 一种行人检测识别方法、装置、模型和介质 | |
CN104933428B (zh) | 一种基于张量描述的人脸识别方法及装置 | |
CN109961097B (zh) | 一种嵌入式场景下基于边缘计算的图像分类调度方法 | |
Kumar et al. | Enhancing Face Mask Detection Using Data Augmentation Techniques | |
CN109858230A (zh) | 滑块验证方法、装置、计算机设备及存储介质 | |
CN108805222A (zh) | 一种基于arm平台的深度学习数字手写体识别方法 | |
CN109902470A (zh) | 滑块验证方法、装置、计算机设备及存储介质 | |
CN109670517A (zh) | 目标检测方法、装置、电子设备和目标检测模型 | |
CN109242825A (zh) | 一种基于深度学习技术的钢铁表面缺陷识别方法和装置 | |
CN109242047A (zh) | 基于K-means++聚类和残差网络分类的银行卡卡号检测与识别方法 | |
CN113626607B (zh) | 异常工单识别方法、装置、电子设备及可读存储介质 | |
CN109740567A (zh) | 关键点定位模型训练方法、定位方法、装置及设备 | |
CN110457677A (zh) | 实体关系识别方法及装置、存储介质、计算机设备 | |
CN109977832A (zh) | 一种图像处理方法、装置及存储介质 | |
CN108961358A (zh) | 一种获得样本图片的方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1241097 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |