CN108156519B - 图像分类方法、电视设备及计算机可读存储介质 - Google Patents
图像分类方法、电视设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN108156519B CN108156519B CN201711429089.3A CN201711429089A CN108156519B CN 108156519 B CN108156519 B CN 108156519B CN 201711429089 A CN201711429089 A CN 201711429089A CN 108156519 B CN108156519 B CN 108156519B
- Authority
- CN
- China
- Prior art keywords
- image
- classified
- layer
- sample
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 148
- 238000000605 extraction Methods 0.000 claims description 49
- 238000005096 rolling process Methods 0.000 claims description 20
- 238000002156 mixing Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 6
- 230000006872 improvement Effects 0.000 abstract description 5
- 238000012706 support-vector machine Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010304 firing Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像分类方法、电视设备及计算机可读存储介质,本发明通过电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记,将标记后的待分类图像传输至改进型SqueezeNet模型中,获得与所述标记后的待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系,根据所述目标训练数据对所述待分类图像进行分类,采用基于现有结构改进设置的改进型SqueezeNet模型能够极大降低训练的参数量,降低计算复杂度,并降低待分类图片分类处理的时间,提高了图片分类的准确率,提升用户体验。
Description
技术领域
本发明涉及互联网电视领域,尤其涉及一种图像分类方法、电视设备及计算机可读存储介质。
背景技术
图像背景分类,是利用拍摄的图像中的不同的背景进行分类的方法。不同类型的背景在纹理表现上是不同的,可以通过计算机纹理分析来进行背景图像的分类。CNN中的平均值提取层(average-pooling)是利用规定的滤波尺寸大小,计算出滤波尺寸大小内的平均值替换原滤波尺寸数值的方法。最大值提取层(max-pooling)是提取规定的滤波尺寸大小内的最大值替换原滤波尺寸数值的方法。average-pooling对背景方面的整体识别比max-pooling的背景识别更好,它是基于整体的特征的提取,而max-pooling是针对最优特征的提取。传统方法利用反向传播算法中loss计算,是直接采用每个预测出的像素点和真实像素点的差值,通过训练不断减少差值,反向传播修改权值和偏置的参数。
传统的训练图像背景识别方法,存储带宽影响图像背景识别,且计算的复杂度较高,时间比较长,在不同种类的背景场景识别中准确率较低。因此需要一种结合SqueezeNet结构的图像背景分类方法以解决现有技术中图像背景分类识别出现的问题,SqueezeNet是在利用现有的基于卷积神经网络(Convolutional Neural Networks,CNN)模型并以有损的方式压缩的一种小型模型的网络结构。利用少量的参数训练网络模型,实现模型的压缩。它采用Fire Modle模型结构,利用squeeze和expand相连接形成一种Fire模块中组织卷积过滤器。通常的SqueezeNet开始于一个独立的卷积层(conv1),然后是8个Fire模块,最后是一个最终的转换层(conv10)。
发明内容
本发明的主要目的在于一种图像分类方法、电视设备及计算机可读存储介质,旨在解决现有技术中在不同种类的背景场景识别中准确率较低的技术问题。
为实现上述目的,本发明提供一种图像分类方法,所述图像分类方法包括以下步骤:
电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记;
将标记后的待分类图像传输至改进型SqueezeNet模型中,获得与所述标记后的待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系;
根据所述目标训练数据对所述待分类图像进行分类。
优选地,所述将标记后的待分类图像传输至改进型SqueezeNet模型中,获取与所述标记后的待分类图像对应的目标训练数据,具体包括:
将所述标记后的待分类图像依次通过所述改进型SqueezeNet模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层,获取与所述标记后的待分类图像对应的所述目标训练数据。
优选地,所述将所述标记后的待分类图像依次通过所述改进型SqueezeNet模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层,获取与所述标记后的待分类图像对应的所述目标训练数据之前,所述图像分类方法还包括:
依次按照第一squeeze卷积层、第一expand扩展层、第二squeeze卷积层和第二expand扩展层的排列顺序进行混合,生成所述预设Fire模块层,所述第一squeeze卷积层和所述第二squeeze卷积层的步长为1*1,所述第一expand扩展层和所述第二expand扩展层的步长为3*3。
优选地,所述将标记后的所述待分类图像依次通过所述改进型SqueezeNet模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层,获取与所述标记后的待分类图像对应的所述目标训练数据,具体包括:
将所述标记后的待分类图像传输至所述第一卷积层,获得第一特征,并将所述第一特征传输至所述第一平均值提取层,获得第一特征平均值;
将所述第一特征平均值传输至预设Fire模块层,获得模型特征值,将所述模型特征值传输至所述第二卷积层,获得第二特征,并将所述第二特征传输至所述第二平均值提取层,获得第二特征平均值;
将所述第二特征平均值传输至所述全连接层后,获取与所述标记后的待分类图像对应的所述目标训练数据。
优选地,所述将标记后的待分类图像传输至改进型SqueezeNet模型中,获取与所述标记后的待分类图像对应的目标训练数据之前,所述图像分类方法还包括:
将标记有样本背景标签的各类别的样本图像传输至初始网络模型中,对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
优选地,所述将标记有样本背景标签的各类别的样本图像传输至初始网络模型中,对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型,具体包括:
获取各类别的样本图像的尺寸参数,获取与各尺寸参数匹配的运算参数,所述运算参数为所述初始网络模型进行图像运算的参数;
通过所述样本背景标签对各类别的样本图像分别进行标记,并将标记后的样本图像传输至所述初始网络模型,根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
优选地,所述通过所述样本背景标签对各类别的样本图像分别进行标记,并将标记后的样本图像传输至所述初始网络模型,根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型,具体包括:
通过所述样本背景标签对各类别的样本图像进行标记,将标记后的样本图像传输至所述改进型SqueezeNet模型;
根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,获得各类别的样本图像特征训练值;
获取各类别的样本图像的样本图像特征预测值,根据各类别的所述样本图像特征预测值和所述样本图像特征训练值确定所述初始网络模型是否训练成功;
当所述初始网络模型训练成功时,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
优选地,所述获取各类别的样本图像的样本图像特征预测值,根据各类别的所述样本图像特征预测值和所述样本图像特征训练值确定所述初始网络模型是否训练成功,具体包括:
获取各类别的样本图像的样本图像特征预测值;
分别计算各类别中相同类别的所述样本图像特征训练值的平均值与所述样本图像特征预测值的平均值之间的范数,并将所述范数与预设阈值进行比对;
当所述范数小于所述预设阈值时,判定所述初始网络模型训练成功;
当所述范数大于或等于所述预设阈值时,对所述运算参数进行调整,根据调整后的运算参数和所述标记后的样本图像计算新的范数,直至新的范数小于所述预设阈值为止。
此外,为实现上述目的,本发明还提出一种电视设备,所述电视设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的图像分类程序,所述图像分类程序配置为实现如上文所述的图像分类方法的步骤。
此外,为实现上述目的,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有图像分类程序,所述图像分类程序被处理器执行时实现如上文所述的图像分类方法的步骤。
本发明提出的图像分类方法,本发明通过电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记,将标记后的待分类图像传输至改进型SqueezeNet模型中,获得与所述标记后的待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系,根据所述目标训练数据对所述待分类图像进行分类,通过将所述待分类图像传输至改进型SqueezeNet模型中能够快速获取所述待分类图像的背景标签,且采用基于现有结构改进设置的改进型SqueezeNet模型能够极大降低训练的参数量,降低计算复杂度,并降低待分类图片分类处理的时间,提高了图片分类的准确率,提升用户体验。
附图说明
图1为本发明实施例方案涉及的硬件运行环境的电视设备结构示意图;
图2为本发明图像分类方法第一实施例的流程示意图;
图3为本发明图像分类方法第二实施例的流程示意图;
图4为本发明图像分类方法中改进型SqueezeNet模型示意图;
图5为本发明图像分类方法第三实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的解决方案主要是:本发明通过电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记,将标记后的待分类图像传输至改进型SqueezeNet模型中,获得与所述标记后的待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系,根据所述目标训练数据对所述待分类图像进行分类,通过将所述待分类图像传输至改进型SqueezeNet模型中能够快速获取所述待分类图像的背景标签,且采用基于现有结构改进设置的改进型SqueezeNet模型能够极大降低训练的参数量,降低计算复杂度,并降低待分类图片分类处理的时间,提高了图片分类的准确率,提升用户体验,解决了现有技术中在不同种类的背景场景识别中准确率较低的技术问题。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的电视设备结构示意图。
如图1所示,该电视设备可以包括:处理器1001,例如CPU,通信总线1002、用户端接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户端接口1003可以包括显示屏(Display)、传输单元比如键盘(Keyboard),可选用户端接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的电视设备结构并不构成对该智能门锁的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机可读存储介质的存储器1005中可以包括操作系统、网络通信模块、用户端接口模块以及图像分类程序。
本发明电视设备通过处理器1001调用存储器1005中存储的图像分类程序,并执行以下操作:
电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记;
将标记后的所述待分类图像传输至改进型SqueezeNet模型中,获得与所述待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系;
根据所述目标训练数据对所述待分类图像进行分类。
进一步地,处理器1001可以调用存储器1005中存储的图像分类程序,还执行以下操作:
将所述标记后的待分类图像依次通过所述改进型SqueezeNet模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层,获取与所述标记后的待分类图像对应的所述目标训练数据。
进一步地,处理器1001可以调用存储器1005中存储的图像分类程序,还执行以下操作:
依次按照第一squeeze卷积层、第一expand扩展层、第二squeeze卷积层和第二expand扩展层的排列顺序进行混合,生成所述预设Fire模块层,所述第一squeeze卷积层和所述第二squeeze卷积层的步长为1*1,所述第一expand扩展层和所述第二expand扩展层的步长为3*3。
进一步地,处理器1001可以调用存储器1005中存储的图像分类程序,还执行以下操作:
将所述标记后的待分类图像传输至所述第一卷积层,获得第一特征,并将所述第一特征传输至所述第一平均值提取层,获得第一特征平均值;
将所述第一特征平均值传输至预设Fire模块层,获得模型特征值,将所述模型特征值传输至所述第二卷积层,获得第二特征,并将所述第二特征传输至所述第二平均值提取层,获得第二特征平均值;
将所述第二特征平均值传输至所述全连接层后,获取与所述标记后的待分类图像对应的所述目标训练数据。
进一步地,处理器1001可以调用存储器1005中存储的图像分类程序,还执行以下操作:
将标记有样本背景标签的各类别的样本图像传输至初始网络模型中,对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
进一步地,处理器1001可以调用存储器1005中存储的图像分类程序,还执行以下操作:
通过所述样本背景标签对各类别的样本图像进行标记,将标记后的样本图像传输至所述改进型SqueezeNet模型;
根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,获得各类别的样本图像特征训练值;
获取各类别的样本图像的样本图像特征预测值,根据各类别的所述样本图像特征预测值和所述样本图像特征训练值确定所述初始网络模型是否训练成功;
当所述初始网络模型训练成功时,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
进一步地,处理器1001可以调用存储器1005中存储的图像分类程序,还执行以下操作:
获取各类别的样本图像的样本图像特征预测值;
分别计算各类别中相同类别的所述样本图像特征训练值的平均值与所述样本图像特征预测值的平均值之间的范数,并将所述范数与预设阈值进行比对;
当所述范数小于所述预设阈值时,判定所述初始网络模型训练成功;
当所述范数大于或等于所述预设阈值时,对所述运算参数进行调整,根据调整后的运算参数和所述标记后的样本图像计算新的范数,直至新的范数小于所述预设阈值为止。
本实施例通过上述方案,通过电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记,将标记后的待分类图像传输至改进型SqueezeNet模型中,获得与所述标记后的待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系,根据所述目标训练数据对所述待分类图像进行分类,通过将所述待分类图像传输至改进型SqueezeNet模型中能够快速获取所述待分类图像的背景标签,且采用基于现有结构改进设置的改进型SqueezeNet模型能够极大降低训练的参数量,降低计算复杂度,并降低待分类图片分类处理的时间,提高了图片分类的准确率,提升用户体验。
基于上述硬件结构,提出本发明图像分类方法实施例。
参照图2,图2为本发明图像分类方法第一实施例的流程示意图。
在第一实施例中,所述图像分类方法包括以下步骤:
步骤S10、电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记;
需要说明的是,所述待分类图像为等待进行分类的图像,即对不同的图像进行背景识别分类,例如将所述待分类图像分类为公园、公路、教堂和乡村等,所述待分类图像的分类类别库可以由用户自行设定,也可以是从预设背景图像分类数据库中找到对应的类别,还可以是固定的分类类别并定期进行更新的数据库中找到的对应的类别,当然还可以是其他形式建立所述待分类图像的类别库,本实施例对此不加以限制。
可以理解的是,所述目标背景标签为与所述待分类图像对应的背景标签,可以为预先设置的预测的背景标签,也可以是通过模糊识别设置的预测的背景标签,还可以是通过历史操作经验自行设定的背景标签,本实施例对此不加以限制,通过所述目标背景标签能够对所述待分类图像进行标记,即将很多目标背景标签与很多待分类图像一一对应起来,形成绑定标记。
步骤S20、将标记后的待分类图像传输至改进型SqueezeNet模型中,获得与所述标记后的待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系;
需要说明的是,所述改进型SqueezeNet模型为预先训练和设置好的用于反映图像的图像特征值与训练数据的对应关系的模型,将所述标记后的待分类图像传输至所述改进型SqueezeNet模型后,所述改进型SqueezeNet模型对所述待分类图像进行特征值提取,训练比较等操作,能够快速获得与所述待分类图像对应的目标训练数据,所述目标训练数据为与所述标记后的待分类图像的图像特征值对应的训练数据,不同场景或背景的图像具有能够区别于其他图像的标志性建筑或风景,例如,公园有喷泉、教堂有十字架房子、公路有红绿灯和乡村有山水等,训练数据与图像的图像特征值的对应关系可以是用户自行设定的,也可以是技术人员根据大量数据训练得出的比较普遍的映射关系,还可以是固定的映射关系在后期实验学习中进行不断更新修正的映射关系,当然还可以是通过其他方式确定的图像特征值与训练数据的映射关系,本实施例对此不加以限制。
可以理解的是,将所述标记后的待分类图像传输至所述改进型SqueezeNet模型中,所述改进型SqueezeNet模型能够快速对所述待分类图像进行识别分类,获取与所述待分类图像对应的所述目标训练数据,默认所述改进型SqueezeNet模型中存在的图像远大于所述待分类图像的数量,所述改进型SqueezeNet模型为经过大数据训练和学习不断调整参数所做出的符合实际应用的,能够快速识别各种待分类图像的背景的改进型SqueezeNet模型。
在具体实现中,所述改进型SqueezeNet模型是基于重构SqueezeNet的结构的模型,结合SqueezeNet和average-pooling的优点,采用计算与待分类图像匹配的样本图像的样本图像特征值的平均值和待分类图像的图像特征值的平均值的损失函数,调整训练所述改进型SqueezeNet模型的参数,进而获得比较准确的所述改进型SqueezeNet模型,相较于传统的模型,所述改进型SqueezeNet模型可以直接将相应计算数据存储在现场可编程逻辑门阵列(Field-Programmable Gate Array,FPGA)存储器上,且在硬件实施上更加轻巧方便,且计算复杂度相较于传统模型更低,用时更短。
步骤S30、根据所述目标训练数据对所述待分类图像进行分类。
应当理解的是,根据所述目标训练数据对所述待分类图像进行分类,所述目标训练数据可以表明所述待分类图像所属的背景对应的相应数据,根据所述目标训练数据能够确定所述待分类图像对应的背景进而进行分类。
进一步地,所述步骤S30具体包括以下步骤:
将所述目标训练数据通过支持向量机模型,获得分类结果;
根据所述分类结果对所述待分类图像进行分类。
可以理解的是,将所述目标训练数据传输至所述支持向量机后,所述支持向量机会读取所述目标训练数据并对比相应的图像的数据,所述目标训练数据即为所述待分类图像通过所述改进型SqueezeNet模型获取的训练数据,将所述训练数据传输至所述支持向量机(Support Vector Machine,SVM)后获得分类结果,根据所述分类结果可以对所述待分类图像进行分类,也可以是获取所述待分类图像对应的目标训练数据后直接进行分类,还可以是通过其他方式对所述待分类图像进行分类,本实施例对此不加以限制。
本实施例通过上述方案,通过电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记,将标记后的待分类图像传输至改进型SqueezeNet模型中,获得与所述标记后的待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系,根据所述目标训练数据对所述待分类图像进行分类,通过将所述待分类图像传输至改进型SqueezeNet模型中能够快速获取所述待分类图像的背景标签,且采用基于现有结构改进设置的改进型SqueezeNet模型能够极大降低训练的参数量,降低计算复杂度,并降低待分类图片分类处理的时间,提高了图片分类的准确率,提升用户体验。
进一步地,图3为本发明图像分类方法第二实施例的流程示意图,如图3所示,基于第一实施例提出本发明图像分类方法第二实施例,在本实施例中,所述步骤S20,具体包括以下步骤:
步骤S21、将所述标记后的待分类图像依次通过所述改进型SqueezeNet模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层,获取与所述标记后的待分类图像对应的所述目标训练数据;
需要说明的是,所述改进型SqueezeNet模型包括所述第一卷积层、所述第一平均值提取层、所述预设Fire模块层、所述第二卷积层、所述第二平均值提取层和所述全连接层,如图4所示,图4为本发明图像分类方法中改进型SqueezeNet模型示意图,所述改进型SqueezeNet模型除了可以包括以上所示的分层结构外,还可以包括其他或者变形的分层结构,本实施例对此不加以限制。
可以理解的是,所述待分类图像依次通过所述改进型SqueezeNet模型的所述第一卷积层、所述第一平均值提取层、所述预设Fire模块层、所述第二卷积层、所述第二平均值提取层和所述全连接层后,能够获取所述目标图像特征值,所述改进型SqueezeNet模型在每次输出的卷积层后添加平均值提取层,仅仅用较少的参数就能提取出所述待分类图像中有效的图像特征,能够降低计算的参数数量和复杂度,提高了提取所述待分类图像的图像特征值的精确度。
相应地,所述步骤S21之前,所述图像分类方法还包括以下步骤:
依次按照第一squeeze卷积层、第一expand扩展层、第二squeeze卷积层和第二expand扩展层的排列顺序进行混合,生成所述预设Fire模块层,所述第一squeeze卷积层和所述第二squeeze卷积层的步长为1*1,所述第一expand扩展层和所述第二expand扩展层的步长为3*3。
需要说明的是,所述预设Fire模块层为预先设置的用于处理通过所述第一卷积层和第一平均值提取层的数据的模块层,所述预设Fire模块层由两个Fire层组成,Fire层由一个squeeze卷积层和一个expand扩展层组成,依次按照第一squeeze卷积层、第一expand扩展层、第二squeeze卷积层和第二expand扩展层的排列顺序进行混合,能够生成所述预设Fire模块层,所述第一squeeze卷积层和所述第二squeeze卷积层的步长为1*1,所述第一expand扩展层和所述第二expand扩展层的步长为3*3,通过预设Fire模块层能够大大减少输出的参数数量,能够极大降低训练的参数量,降低计算复杂度,节省处理所述待分类图片的时间。
进一步地,所述步骤S21具体包括以下步骤:
将所述标记后的待分类图像传输至所述第一卷积层,获得第一特征,并将所述第一特征传输至所述第一平均值提取层,获得第一特征平均值;
将所述第一特征平均值传输至预设Fire模块层,获得模型特征值,将所述模型特征值传输至所述第二卷积层,获得第二特征,并将所述第二特征传输至所述第二平均值提取层,获得第二特征平均值;
将所述第二特征平均值传输至所述全连接层后,获取与所述标记后的待分类图像对应的所述目标训练数据。
应当理解的是,所述待分类图像通过所述改进型SqueezeNet模型的所述第一卷积层后进行滤波处理,获取所述待分类图像的第一特征,经过所述第一平均值提取层,能够从所述第一特征中提取所述第一特征平均值,将所述第一特征平均值传输至所述预设Fire模块层,获得模型特征值,将所述模型特征值传输至所述第二卷积层,获得第二特征,将所述第二特征通过所述第二平均值提取层获取所述第二特征平均值,将所述第一特征平均值和所述第二特征平均值传输所述全连接层后,所述全连接层将全部有效的数据信息链接在一起生成数据集合,不同的类对应着不同的数据集合,所述数据集合即为与所述标记后的待分类图像的所述目标训练数据。
本实施例通过上述方案,通过将所述标记后的待分类图像依次通过所述改进型SqueezeNet模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层,获取与所述标记后的待分类图像对应的所述目标训练数据,所述改进型SqueezeNet模型在每次输出的卷积层后添加平均值提取层,仅仅用较少的参数就能提取出所述待分类图像中有效的训练数据,能够降低计算的参数数量和复杂度,提高了提取所述待分类图像的图像特征值的精确度,降低待分类图片分类处理的时间,提高了图片分类的准确率,提升用户体验。
进一步地,图5为本发明图像分类方法第三实施例的流程示意图,如图5所示,基于第一实施例提出本发明图像分类方法第三实施例,在本实施例中,所述步骤S20之前,所述图像分类方法还包括以下步骤:
步骤S201、将标记有样本背景标签的各类别的样本图像传输至初始网络模型中,对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型;
需要说明的是,所述样本图像为预先设置的用于训练所述初始网络模型的图像,通过各种预先知晓类别的大量的样本图像训练所述初始网络模型能够使所述初始网络模型具有较高的图像识别分类准确率,并且能够在不断学习训练的过程中获取较为精确的图像分类类别,所述样本背景标签为标记各类别的所述样本图像的背景图像标签。
可以理解的是,通过将标记有样本背景标签的各类别的样本图像传输至所述改进型SqueezeNet模型中,对所述改进型SqueezeNet模型进行训练,并生成所述训练结果,能够极大提升所述初始网络模型对图像识别分类的准确度进而形成所述改进型SqueezeNet模型,通过不断的训练调整,能够有效提高所述改进型SqueezeNet模型对待分类图像分类处理的速度和效率,节省分类识别运算的时间。
在具体实现中,一般通过对各个场景的样本图像用对应的样本图像标签进行标记,例如将所述样本图像中分为公园、公路、教堂和乡村等,不同场景的样本图像要有能够明显区别于其他样本图片的一个或多个样本图像标签,例如,公园有喷泉、教堂有十字架房子、公路有红绿灯和乡村有山水等,所述样本图像标签能够是用户自行设定的灵活多变的标签,也可以是默认固定的多种样本图像标签,还可以是不断学习进化不断完善补充的数据库中调取的所述样本图像标签,当然也可以是通过其他方式确定的所述样本图像标签,本实施例对此不加以限制。
进一步地,所述步骤S201具体包括以下步骤:
获取各类别的样本图像的尺寸参数,获取与各尺寸参数匹配的运算参数,所述运算参数为所述初始网络模型进行图像运算的参数;
通过所述样本背景标签对各类别的样本图像分别进行标记,并将标记后的样本图像传输至所述初始网络模型,根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
需要说明的是,所述尺寸参数为能够说明所述样本图像的图像尺寸的参数,所述尺寸参数可以包括所述图像位深参数和图像长宽参数,所述图像位深参数用于表明所述样本图像的位深值,所述图像长宽参数用于表明所述样本图像的长宽值,例如对某一样本图像,假设该样本图像的图像尺寸参数为W*H*3,则W为该样本图像的长,H为该样本图像的宽,3为该样本图像的位深,根据所述图像位深参数和所述图像长宽参数能够确定所述尺寸参数。
可以理解的是,获取所述样本图像的尺寸参数并对所述样本背景标签进行标记后,可以通过所述样本背景标签对所述样本图像进行标记,将标记后的样本图像和所述样本图像的尺寸参数依次传输至所述初始网络模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层进行训练。
在具体实现中,例如将图像尺寸参数为W*H*3的样本图像传输至所述初始网络模型中,所述第一卷积层采用步长为2,96个尺寸大小为7*7的滤波器,输出所述第一特征为将所述第一特征传输至所述第一平均值提取层,所述第一平均值提取层采用步长为2,尺寸大小为3*3的滤波器,输出的所述第一平均值大小为将所述第一平均值传输至所述预设Fire模块层,为了大大减少输出的参数数量,所述预设Fire模块层采用步长为1的squeeze层和步长为3的expand层,经过所述第二卷积层输出所述第二特征为将所述第二特征通过第二平均值提取层,获取所述第二平均值将所述第二平均值和所述第一平均值传输至所述全连层,所述全连接层将有效的所述第一平均值和所述第二平均值进行数据整合,获取相应的训练数据,并根据所述训练数据确认将训练后的初始网络模型作为所述改进型SqueezeNet模型。
进一步地,所述通过所述样本背景标签对各类别的样本图像分别进行标记,并将标记后的样本图像传输至所述初始网络模型,根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型,具体包括以下步骤:
通过所述样本背景标签对各类别的样本图像进行标记,将标记后的样本图像传输至所述改进型SqueezeNet模型;
根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,获得各类别的样本图像特征训练值;
获取各类别的样本图像的样本图像特征预测值,根据各类别的所述样本图像特征预测值和所述样本图像特征训练值确定所述初始网络模型是否训练成功;
当所述初始网络模型训练成功时,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
需要说明的是,所述样本图像特征预测值为各类别的样本图像预先设置的预测的样本图像的特征值,所述样本图像特征训练值为各类别的样本图像通过所述初始网络模型训练后获得的各类别的样本图像特征值,通过所述样本背景标签对各类别的样本图像进行标记,将标记后的样本图像传输至所述改进型SqueezeNet模型,根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,获得各类别的样本图像特征训练值,获取各类别的样本图像的样本图像特征预测值后,根据各类别的所述样本图像特征预测值和所述样本图像特征训练值确定所述初始网络模型是否训练成功,当所述初始网络模型训练成功时,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
进一步地,所述获取各类别的样本图像的样本图像特征预测值,根据各类别的所述样本图像特征预测值和所述样本图像特征训练值确定所述初始网络模型是否训练成功,具体包括以下步骤:
获取各类别的样本图像的样本图像特征预测值;
分别计算各类别中相同类别的所述样本图像特征训练值的平均值与所述样本图像特征预测值的平均值之间的范数,并将所述范数与预设阈值进行比对;
当所述范数小于所述预设阈值时,判定所述初始网络模型训练成功;
当所述范数大于或等于所述预设阈值时,对所述运算参数进行调整,根据调整后的运算参数和所述标记后的样本图像计算新的范数,直至新的范数小于所述预设阈值为止。
可以理解的是,通过计算所述样本图像特征训练值的平均值与所述样本图像特征预测值的平均值之间的范数与预设阈值的大小关系,能够获得当前样本图像特征训练值与所述样本图像特征预测值相近或相差较大的结果,进而反映所述初始网络模型是否训练成功,即当所述范数小于所述预设阈值时,判定所述初始网络模型训练成功,当所述范数大于或等于所述预设阈值时,对所述运算参数进行调整,根据调整后的运算参数和所述标记后的样本图像计算新的范数,直至新的范数小于所述预设阈值为止,当所述新的范数小于所述预设阈值时,判断所述初始网络模型训练成功,将所述初始网络模型作为所述改进型SqueezeNet模型对所述标记后的待分类图像进行训练获得与所述标记后的待分类图像对应的目标训练数据,根据所述目标训练数据通过SVM支持向量机模型可以获得分类结果,根据所述分类结果可以完成对所述待分类图像的分类。
进一步地,所述步骤当所述范数大于或等于所述预设阈值时,对所述运算参数进行调整,根据调整后的运算参数和所述标记后的样本图像计算新的范数,直至新的范数小于所述预设阈值为止,具体包括以下步骤:
当所述范数大于或等于所述预设阈值时,判定所述初始网络模型训练失败,并对所述运算参数进行调整,并根据调整后的运算参数和所述标记后的样本图像对所述初始网络模型进行训练,获得新的样本图像特征训练值进而计算新的范数,直至新的范数小于所述预设阈值为止。
应当理解的是,通过计算所述样本图像特征训练值的平均值与所述样本图像特征预测值的平均值之间的范数,所述范数与所述预设阈值的差值即损失函数,所述损失函数能够确定所述样本图片与所述待分类图片的差别大小,当所述损失函数越小,说明所述样本图片与所述待分类图片的差别越小,判断所述初始网络模型训练成功,当所述损失函数越大,说明所述样本图片与所述待分类图片的差别越大,判断所述初始网络模型训练失败。
可以理解的是,当所述范数大于或等于所述预设阈值时,对所述初始网络模型的运算参数进行调整,可以通过传播算法中的损失函数计算方法对所述改进型SqueezeNet模型的运算参数进行调整,并根据调整后的运算参数对所述样本图像进行反向训练,获取新的样本图像特征训练值,进而计算新的样本图像特征训练值的平均值与所述样本图像特征预测值的平均值之间的范数,将新的范数与预设阈值进行比对,若比对结果仍然为所述范数大于或等于所述预设阈值,则再次调整所述运算参数,直至新的范数小于所述预设阈值为止,通过对所述初始网络模型不断训练和调整,能够提高所述初始网络模型的图像分类准确率进而作为所述改进型SqueezeNet模型对待分类图像进行快速而准确的分类识别运算,有效提高所述改进型SqueezeNet模型对待分类图像分类处理的速度和效率,节省分类识别运算的时间。
本实施例通过上述方案,通过获取各类别的样本图像的尺寸参数,获取与各尺寸参数匹配的运算参数,所述运算参数为所述初始网络模型进行图像运算的参数,通过所述样本背景标签对各类别的样本图像分别进行标记,并将标记后的样本图像传输至所述初始网络模型,根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型,通过对所述初始网络模型不断训练和调整,能够提高所述初始网络模型的图像分类准确率进而作为所述改进型SqueezeNet模型对待分类图像进行快速而准确的分类识别运算,有效提高所述改进型SqueezeNet模型对待分类图像分类处理的速度和效率,节省分类识别运算的时间,仅仅用较少的参数就能获取所述待分类图像中有效的目标数据,能够降低计算的参数数量和复杂度,提高了提取所述待分类图像的图像特征值的精确度,降低待分类图片分类处理的时间,提高了图片分类的准确率,提升用户体验。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有图像分类程序,所述图像分类程序被处理器执行时实现如下操作:
电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记;
将标记后的待分类图像传输至改进型SqueezeNet模型中,获得与所述标记后的待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系;
根据所述目标训练数据对所述待分类图像进行分类。
进一步地,所述图像分类程序被处理器执行时还实现如下操作:
将所述标记后的待分类图像依次通过所述改进型SqueezeNet模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层,获取与所述标记后的待分类图像对应的所述目标训练数据。
进一步地,所述图像分类程序被处理器执行时还实现如下操作:
依次按照第一squeeze卷积层、第一expand扩展层、第二squeeze卷积层和第二expand扩展层的排列顺序进行混合,生成所述预设Fire模块层,所述第一squeeze卷积层和所述第二squeeze卷积层的步长为1*1,所述第一expand扩展层和所述第二expand扩展层的步长为3*3。
进一步地,所述图像分类程序被处理器执行时还实现如下操作:
将所述标记后的待分类图像传输至所述第一卷积层,获得第一特征,并将所述第一特征传输至所述第一平均值提取层,获得第一特征平均值;
将所述第一特征平均值传输至预设Fire模块层,获得模型特征值,将所述模型特征值传输至所述第二卷积层,获得第二特征,并将所述第二特征传输至所述第二平均值提取层,获得第二特征平均值;
将所述第二特征平均值传输至所述全连接层后,获取与所述标记后的待分类图像对应的所述目标训练数据。
进一步地,所述图像分类程序被处理器执行时还实现如下操作:
将标记有样本背景标签的各类别的样本图像传输至初始网络模型中,对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
进一步地,所述图像分类程序被处理器执行时还实现如下操作:
获取各类别的样本图像的尺寸参数,获取与各尺寸参数匹配的运算参数,所述运算参数为所述初始网络模型进行图像运算的参数;
通过所述样本背景标签对各类别的样本图像分别进行标记,并将标记后的样本图像传输至所述初始网络模型,根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
进一步地,所述图像分类程序被处理器执行时还实现如下操作:
通过所述样本背景标签对各类别的样本图像进行标记,将标记后的样本图像传输至所述改进型SqueezeNet模型;
根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,获得各类别的样本图像特征训练值;
获取各类别的样本图像的样本图像特征预测值,根据各类别的所述样本图像特征预测值和所述样本图像特征训练值确定所述初始网络模型是否训练成功;
当所述初始网络模型训练成功时,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
进一步地,所述图像分类程序被处理器执行时还实现如下操作:
获取各类别的样本图像的样本图像特征预测值;
分别计算各类别中相同类别的所述样本图像特征训练值的平均值与所述样本图像特征预测值的平均值之间的范数,并将所述范数与预设阈值进行比对;
当所述范数小于所述预设阈值时,判定所述初始网络模型训练成功;
当所述范数大于或等于所述预设阈值时,对所述运算参数进行调整,根据调整后的运算参数和所述标记后的样本图像计算新的范数,直至新的范数小于所述预设阈值为止。
本实施例通过上述方案,通过电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记,将标记后的待分类图像传输至改进型SqueezeNet模型中,获得与所述标记后的待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系,根据所述目标训练数据对所述待分类图像进行分类,通过将所述待分类图像传输至改进型SqueezeNet模型中能够快速获取所述待分类图像的背景标签,且采用基于现有结构改进设置的改进型SqueezeNet模型能够极大降低训练的参数量,降低计算复杂度,并降低待分类图片分类处理的时间,提高了图片分类的准确率,提升用户体验。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (9)
1.一种图像分类方法,其特征在于,所述图像分类方法包括:
电视设备获取待分类图像和所述待分类图像对应的目标背景标签,根据所述目标背景标签对所述待分类图像进行标记;
将标记后的待分类图像传输至改进型SqueezeNet模型中,获得与所述标记后的待分类图像对应的目标训练数据,所述改进型SqueezeNet模型反映图像的图像特征值与训练数据的对应关系;
根据所述目标训练数据对所述待分类图像进行分类;
所述将标记后的所述待分类图像传输至改进型SqueezeNet模型中,获取与所述待分类图像对应的目标训练数据,具体包括:
将所述标记后的待分类图像依次通过所述改进型SqueezeNet模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层,获取与所述标记后的待分类图像对应的所述目标训练数据。
2.如权利要求1所述的图像分类方法,其特征在于,所述将所述标记后的待分类图像依次通过所述改进型SqueezeNet模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层,获取与所述标记后的待分类图像对应的所述目标训练数据之前,所述图像分类方法还包括:
依次按照第一squeeze卷积层、第一expand扩展层、第二squeeze卷积层和第二expand扩展层的排列顺序进行混合,生成所述预设Fire模块层,所述第一squeeze卷积层和所述第二squeeze卷积层的步长为1*1,所述第一expand扩展层和所述第二expand扩展层的步长为3*3。
3.如权利要求1所述的图像分类方法,其特征在于,所述将所述标记后的待分类图像依次通过所述改进型SqueezeNet模型的第一卷积层、第一平均值提取层、预设Fire模块层、第二卷积层、第二平均值提取层和全连接层,获取与所述标记后的待分类图像对应的所述目标训练数据,具体包括:
将所述标记后的待分类图像传输至所述第一卷积层,获得第一特征,并将所述第一特征传输至所述第一平均值提取层,获得第一特征平均值;
将所述第一特征平均值传输至预设Fire模块层,获得模型特征值,将所述模型特征值传输至所述第二卷积层,获得第二特征,并将所述第二特征传输至所述第二平均值提取层,获得第二特征平均值;
将所述第二特征平均值传输至所述全连接层后,获取与所述标记后的待分类图像对应的所述目标训练数据。
4.如权利要求1-3中任一项所述的图像分类方法,其特征在于,所述将标记后的所述待分类图像传输至改进型SqueezeNet模型中,获取与所述标记后的待分类图像对应的目标训练数据之前,所述图像分类方法还包括:
将标记有样本背景标签的各类别的样本图像传输至初始网络模型中,对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
5.如权利要求4所述的图像分类方法,其特征在于,所述将标记有样本背景标签的各类别的样本图像传输至初始网络模型中,对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型,具体包括:
获取各类别的样本图像的尺寸参数,获取与各尺寸参数匹配的运算参数,所述运算参数为所述初始网络模型进行图像运算的参数;
通过所述样本背景标签对各类别的样本图像分别进行标记,并将标记后的样本图像传输至所述初始网络模型,根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
6.如权利要求5所述的图像分类方法,其特征在于,所述通过所述样本背景标签对各类别的样本图像分别进行标记,并将标记后的样本图像传输至所述初始网络模型,根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,将训练后的初始网络模型作为所述改进型SqueezeNet模型,具体包括:
通过所述样本背景标签对各类别的样本图像进行标记,将标记后的样本图像传输至所述改进型SqueezeNet模型;
根据所述运算参数和所述标记后的样本图像对所述初始网络模型进行训练,获得各类别的样本图像特征训练值;
获取各类别的样本图像的样本图像特征预测值,根据各类别的所述样本图像特征预测值和所述样本图像特征训练值确定所述初始网络模型是否训练成功;
当所述初始网络模型训练成功时,将训练后的初始网络模型作为所述改进型SqueezeNet模型。
7.如权利要求6所述的图像分类方法,其特征在于,所述获取各类别的样本图像的样本图像特征预测值,根据各类别的所述样本图像特征预测值和所述样本图像特征训练值确定所述初始网络模型是否训练成功,具体包括:
获取各类别的样本图像的样本图像特征预测值;
分别计算各类别中相同类别的所述样本图像特征训练值的平均值与所述样本图像特征预测值的平均值之间的范数,并将所述范数与预设阈值进行比对;
当所述范数小于所述预设阈值时,判定所述初始网络模型训练成功;
当所述范数大于或等于所述预设阈值时,对所述运算参数进行调整,根据调整后的运算参数和所述标记后的样本图像计算新的范数,直至新的范数小于所述预设阈值为止。
8.一种电视设备,其特征在于,所述电视设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的图像分类程序,所述图像分类程序配置为实现如权利要求1至7中任一项所述的图像分类方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有图像分类程序,所述图像分类程序被处理器执行时实现如权利要求1至7中任一项所述的图像分类方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711429089.3A CN108156519B (zh) | 2017-12-25 | 2017-12-25 | 图像分类方法、电视设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711429089.3A CN108156519B (zh) | 2017-12-25 | 2017-12-25 | 图像分类方法、电视设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108156519A CN108156519A (zh) | 2018-06-12 |
CN108156519B true CN108156519B (zh) | 2020-12-11 |
Family
ID=62462897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711429089.3A Active CN108156519B (zh) | 2017-12-25 | 2017-12-25 | 图像分类方法、电视设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108156519B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108898077B (zh) * | 2018-06-15 | 2021-09-10 | 杭州天铂红外光电技术有限公司 | 电力设备红外热图的识别方法和电力设备红外识别系统 |
CN110633716A (zh) * | 2018-06-21 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 一种目标对象的检测方法和装置 |
CN110663971B (zh) * | 2018-07-02 | 2022-03-29 | 天津工业大学 | 基于双分支深度融合卷积神经网络的红枣品质分类方法 |
CN110826683A (zh) * | 2018-08-07 | 2020-02-21 | 北京京东尚科信息技术有限公司 | 一种预测用户行为发生概率的方法和装置 |
CN109598304B (zh) * | 2018-12-04 | 2019-11-08 | 北京字节跳动网络技术有限公司 | 分类模型校准方法、装置、设备及可读介质 |
CN111382758B (zh) * | 2018-12-28 | 2023-12-26 | 杭州海康威视数字技术股份有限公司 | 训练图像分类模型、图像分类方法、装置、设备及介质 |
CN110543827B (zh) * | 2019-08-07 | 2023-06-02 | 上海师范大学 | 一种基于高斯混合模型与深度学习的多类别车辆检测方法 |
CN110929774B (zh) * | 2019-11-18 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 图像中目标物的分类方法、模型训练方法和装置 |
CN113326857B (zh) * | 2020-02-28 | 2022-09-23 | 合肥美亚光电技术股份有限公司 | 模型训练方法及装置 |
CN111401464B (zh) * | 2020-03-25 | 2023-07-21 | 抖音视界有限公司 | 分类方法、装置、电子设备及计算机可读存储介质 |
CN111626371B (zh) * | 2020-05-29 | 2023-10-31 | 歌尔科技有限公司 | 一种图像分类方法、装置、设备及可读存储介质 |
CN112529045A (zh) * | 2020-11-20 | 2021-03-19 | 济南信通达电气科技有限公司 | 一种与电力系统有关的天气图像识别方法、设备及介质 |
CN112348117B (zh) * | 2020-11-30 | 2024-07-12 | 腾讯科技(深圳)有限公司 | 场景识别方法、装置、计算机设备和存储介质 |
CN113222055B (zh) * | 2021-05-28 | 2023-01-10 | 新疆爱华盈通信息技术有限公司 | 一种图像分类方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105808610A (zh) * | 2014-12-31 | 2016-07-27 | 中国科学院深圳先进技术研究院 | 一种互联网图片过滤方法及装置 |
CN106951395A (zh) * | 2017-02-13 | 2017-07-14 | 上海客鹭信息技术有限公司 | 面向压缩卷积神经网络的并行卷积运算方法及装置 |
CN106960214A (zh) * | 2017-02-17 | 2017-07-18 | 北京维弦科技有限责任公司 | 基于图像的物体识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874921B (zh) * | 2015-12-11 | 2020-12-04 | 清华大学 | 图像分类方法和装置 |
WO2017142629A1 (en) * | 2016-02-18 | 2017-08-24 | Google Inc. | Image classification neural networks |
-
2017
- 2017-12-25 CN CN201711429089.3A patent/CN108156519B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105808610A (zh) * | 2014-12-31 | 2016-07-27 | 中国科学院深圳先进技术研究院 | 一种互联网图片过滤方法及装置 |
CN106951395A (zh) * | 2017-02-13 | 2017-07-14 | 上海客鹭信息技术有限公司 | 面向压缩卷积神经网络的并行卷积运算方法及装置 |
CN106960214A (zh) * | 2017-02-17 | 2017-07-18 | 北京维弦科技有限责任公司 | 基于图像的物体识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108156519A (zh) | 2018-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108156519B (zh) | 图像分类方法、电视设备及计算机可读存储介质 | |
US20230336754A1 (en) | Video compression using deep generative models | |
CN109145759B (zh) | 车辆属性识别方法、装置、服务器及存储介质 | |
KR102385463B1 (ko) | 얼굴 특징 추출 모델 학습 방법, 얼굴 특징 추출 방법, 장치, 디바이스 및 저장 매체 | |
CN110929569B (zh) | 人脸识别方法、装置、设备及存储介质 | |
US11270099B2 (en) | Method and apparatus for generating facial feature | |
KR102008290B1 (ko) | 영상에서 객체의 행동을 인식하는 방법 및 그 장치 | |
CN110674688A (zh) | 用于视频监控场景的人脸识别模型获取方法、系统和介质 | |
CN111160481B (zh) | 基于深度学习的adas目标检测方法及系统 | |
CN110232418B (zh) | 一种语义识别方法、终端及计算机可读存储介质 | |
CN111985465A (zh) | 文本识别方法、装置、设备及存储介质 | |
KR102391853B1 (ko) | 영상 정보 처리 시스템 및 방법 | |
CN111666800A (zh) | 一种行人重识别模型训练方法及行人重识别方法 | |
CN114037053A (zh) | 基于gan的车辆视觉感知数据增强方法及相关设备 | |
CN117058595B (zh) | 视频语义特征和可扩展粒度感知时序动作检测方法及装置 | |
WO2023279799A1 (zh) | 对象识别方法、装置和电子系统 | |
CN114979267B (zh) | 面向多服务需求的语义通信方法及装置 | |
CN113191216A (zh) | 基于姿态识别和c3d网络的多人实时动作识别方法和系统 | |
CN114679607A (zh) | 一种视频帧率控制方法、装置、电子设备及存储介质 | |
CN114140636A (zh) | 困难样本获取方法、装置、设备及可读存储介质 | |
CN115314713A (zh) | 基于加速后视频的目标片段实时提取方法、系统及装置 | |
US20210312200A1 (en) | Systems and methods for video surveillance | |
CN114005019A (zh) | 一种翻拍图像识别方法及其相关设备 | |
CN111582278A (zh) | 人像分割方法、装置及电子设备 | |
CN112084371B (zh) | 一种电影多标签分类方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |