CN110489584A - 基于密集连接的MobileNets模型的图像分类方法及系统 - Google Patents
基于密集连接的MobileNets模型的图像分类方法及系统 Download PDFInfo
- Publication number
- CN110489584A CN110489584A CN201910653247.6A CN201910653247A CN110489584A CN 110489584 A CN110489584 A CN 110489584A CN 201910653247 A CN201910653247 A CN 201910653247A CN 110489584 A CN110489584 A CN 110489584A
- Authority
- CN
- China
- Prior art keywords
- image
- mobilenets
- model
- convolutional layer
- intensively connected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Abstract
本发明公开一种基于密集连接的MobileNets模型的图像分类方法及系统,该方法包括S1获取图像集;S2对所述图像集中的图像进行标签标记;S3将标记后的图像输入训练好的基于密集连接的MobileNets模型;所述模型包括若干层并联的密集块,每层所述密集块内包含两层密集连接的深度可分离卷积层;S4基于密集连接的MobileNets模型对输入的图像集中的图像进行分类处理,最终输出图像集中的图像属于各类别的概率,概率最高的即为图像对应的类别。本发明通过将密集块作为基本结构对MobileNets进行结构改进,可实现在保证准确率的同时减少至少一半的参数数量和计算量。
Description
技术领域
本发明涉及图像分类技术领域,尤其是一种基于密集连接的MobileNets模型的图像分类方法及系统。
背景技术
随着电子科技和成像技术的飞速发展,全球每天将产生大量的图像和视频。面对海量的数据,如何准确的找到自己所需要的信息,这需要对图像进行图像分类,图像分类问题是计算机视觉领域的核心问题之一,同时也是图像分割、目标跟踪等复杂视觉问题的基础。现有的标准MobileNets模型为常用的一种图像分类模型,但该模型的参数数量和计算量较大,使得其在内存有限的移动设备中的应用受到局限。
发明内容
本发明提供一种基于密集连接的MobileNets模型的图像分类方法及系统,用于克服现有技术中难以达到参数数量少和计算量小的缺陷,实现在能保证准确率的同时能减少至少一半的参数数量和计算量。
为实现上述目的,本发明提出一种基于密集连接的MobileNets模型的图像分类方法,包括以下步骤:
S1:获取图像集;
S2:对所述图像集中的图像进行标签标记;
S3:将标记后的图像输入训练好的基于密集连接的MobileNets模型;所述模型包括若干层并联的密集块,每层所述密集块内包含两层密集连接的深度可分离卷积层;
S4:基于密集连接的MobileNets模型对输入的图像集中的图像进行分类处理,最终输出图像集中的图像属于各类别的概率,概率最高的即为图像对应的类别。
为实现上述目的,本发明还提出一种基于密集连接的MobileNets模型的图像分类系统,包括:控制部分和可编程部分;所述可编程部分用于通过配置实现特定功能模块,所述控制部分包括处理单元和存储单元,所述存储单元存储有基于密集连接的MobileNets模型的图像分类程序,所述处理单元在运行所述动态布局优化程序时,执行上述所述方法的步骤。
与现有技术相比,本发明的有益效果有:
本发明提供的基于密集连接的MobileNets模型的图像分类方法首先获取图像集,然后对所述图像集中的图像进行标签标记,接着将标记后的图像输入训练好的基于密集连接的MobileNets模型,最后基于模型的属于每种标签的概率对图像分类。该方法在MobileNets模型中引入密集块,通过密集块的密集连接实现在能保证准确率的同时能减少至少一半的参数数量和计算量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明提供的基于密集连接的MobileNets模型的图像分类方法流程图;
图2为Caltech-101数据集中图像;
图3为实施例4中搭建的MobileNets-A模型示意图;
图4为实施例5中搭建的MobileNets-B模型示意图;
图5为实施例6中MobileNets-A模型、MobileNets-B模型、DensNet121模型和MobileNets模型的在Caltech-101数据集上取得的分类正确率图;
图6为实施例6中MobileNets-A模型、MobileNets-B模型、DensNet121模型和MobileNets模型的在图宾根大学动物分类数据库上取得的分类正确率图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
实施例1提出一种基于密集连接的MobileNets模型的图像分类方法,如图1所示,包括以下步骤:
S1:获取图像集;
本实施例中,图像集中的图像来源很广,可以为相机、摄影机、手机等拍摄的风景、人物等图片,也可以为通过电脑画的图,还可以为画作,等等。
如:图像集可以为Caltech-101数据集(加利福尼亚理工学院101类图像数据库)、Caltech-256数据集(加利福尼亚理工学院256类图像数据库)、图宾根大学动物分类数据库(Uebingen Animals with Attributes)中的图像。
本实施例中,根据采集的图像数据的实际情况选择对图像进行/不进行图像数据增强处理。
常见的图像数据增强的方法还有:图像平移、图像旋转、图像亮度的变化、裁剪、缩放和图像模糊等。通常可以将上述方法进行组合,来得到更多的图像。
S2:对所述图像集中的图像进行标签标记;
本实施例中,对图像进行标签标记是为实现分类模型对图像分类而做的准备,便于分类模型将提取的特征映射到图像的类别。
S3:将标记后的图像输入训练好的基于密集连接的MobileNets模型;所述模型包括若干层并联的密集块,每层所述密集块内包含两层密集连接的深度可分离卷积层;
本实施例中,若干个密集块之间的连接采用常用的普通连接而非密集连接。密集块内的连接包含密集连接和/或普通连接。
深度可分离卷积层包含深度卷积层和点卷积层,也就是说一个密集块内包括四层卷积层。
S4:基于密集连接的MobileNets模型对输入的图像集中的图像进行分类处理,最终输出图像集中的图像属于各类别的概率,概率最高的即为图像对应的类别。
实施例1中,基于密集连接的MobileNets模型的训练过程为:
以Caltech-101数据集为图像集,Caltech-101数据集总共有9146张图像,共102类。其中包含101个物体类别和一个背景类,每类图像的数量在40~800个之间,图像尺寸在300左右,该数据集中的每张图像基本只包括一种物体类别,且基本位于图像的中间位置,如图2所示。先将数据集中的图片进行标签标记,然后充分打乱,之后随机选取其中的1500张图片作为测试集,剩余的图片作为训练集。
对基于密集连接的MobileNets模型的训练具体为:
利用训练集对基于密集连接的MobileNets模型的权值和偏置进行训练;同时,利用训练集对基于密集连接的MobileNets模型的超参数增长率进行调整;
在训练过程中,一般通过构造损失函数来判断训练是否结束,当损失函数的值趋于稳定并不再减小即可结束训练,本实施例中的损失函数为交叉熵损失函数:
式中,L表示损失函数;f表示训练过程中训练图片的预测值;y表示训练图片的标签值。通过对损失函数进行优化从而进行权值更新。
将测试集输入训练后的基于密集连接的MobileNets模型进行检测,该模型对测试集图像分类的准确率即代表该模型在图像分类上的性能。
基于密集连接的MobileNets模型中,每层深度可分离卷积层中的深度卷积层通过公式(2)实现对图像的卷积,为
式中,Odc(y,x,j)表示第j个特征图中点(y,x)的值;K(u,v,j)表示第j个卷积核上点(u,v)的值,u=1、2…s,v=1、2…s;s表示卷积核大小;I(y+u-1,x+v-1,j)表示第j个输入通道上点(y+u-1,x+v-1)的值;
点卷积层通过公式(3)实现对图像的卷积,为
式中,Opc(y,x,j)表示第j个特征图中点(y,x)的值;K(i,j)表示第j个卷积核中第i通道的值;I(y,x,j)表示第i个输入通道上点(y,x)的值,i=1、2…m;m表示前一层深度卷积核数量;
通过softmax函数(归一化指数函数)将长度为k的一维向量转化为输入的图像属于各类别的概率,具体为
式中,P(Si)表示输入的图像属于各类别的概率;i、k表示N类类别中的某一类,i=1、2…N,k=1、2…N;gi、gk表示该分类的值。
由此得到的属于各图像类别的概率,概率值最高的即为最后的分类结果。
在实施例2中,在步骤S1中,将采集的灰度图、多通道彩图和/或视频多帧图像的图像序列进行预处理,预处理后的灰度图、多通道彩图和/或视频多帧图像的图像序列组成图像集。
所述预处理方法包括:将每一维度的数据值减去该维度的数据均值的0均值数据,进行逐样本均值消除;将数据归一化到相同尺度上;能降低数据冗余性的白化操作;对图像进行裁剪以满足模型输入的需求。获取预处理后的图像为图像集。
在实施例3中,步骤S3中,设置基于密集连接的MobileNets模型的初始超参数增长率,用所述模型对输入的图像进行分类,根据所述模型在分类过程中的参数数量和计算量来调整超参数增长率的设置值。
本实施例中,初始超参数增长率的设置采用的是改进模型中每一层网络层的输入特征图数量与原MobileNets模型中每一层网络层中输入特征图数量相差最少设置的。
本实施例中获取的基于密集连接的MobileNets模型是以Caltech-256数据集为图像集进行训练得到的。Caltech-256数据集总共有30607张图像,共257类。先将数据集中的图片进行标签标记,然后充分打乱,之后随机选取其中的3060张图片作为测试集,剩余的图片作为训练集。
在实施例4中,步骤S3中,所述深度可分离卷积层包含深度卷积层与点卷积层,所述基于密集连接的MobileNets模型中每层深度可分离卷积层中的深度卷积层与点卷积层作为两个独立的卷积层在密集块内进行密集连接。将该模型记为MobileNets-A,如图3所示。
所述深度卷积层与点卷积层均以上一层深度可分离卷积层中的输出特征图的叠加为输入。
由于深度卷积层是对输入特征图进行单通道卷积,故,密集块中每一层的深度卷积层的输出特征图数量与该深度卷积层的输入特征图数量相同,为该深度卷积层前面所有层的输出特征图的总和。在基于密集连接的MobileNets模型A中直接对上一层点卷积层的输出特征图进行步长为2的深度卷积,以达到减少特征图尺寸的目的。
在实施例5中,步骤S3中,所述深度可分离卷积层包含深度卷积层与点卷积层,所述基于密集连接的MobileNets模型中每层深度可分离卷积层中的深度卷积层与点卷积层作为一个整体在密集块内进行密集连接。将该模型记为MobileNets-B,如图4所示。
每层深度可分离卷积层的输入特征图为前面所有层深度可分离卷积层中所有点卷积层的输出特征图累加,点卷积层中的输入特征图仅为本层深度可分离卷积中深度卷积层中的输出特征图。基于密集连接的MobileNets模型B的每个密集块中只进行一次密集连接,即一个密集块中只有一层的输入特征图需将上一层深度可分离卷积层中点卷积的输出特征图进行叠加,由于该特征图累计的次数较少,故一个密集块中所有层的输出特征图数量累加也较少。在基于密集连接的MobileNets模型B中,将前面层的深度可分离卷积层的输出特征图进行叠加后用于本层步长为2的深度卷积,以减小特征图尺寸。
实施例1中的基于密集连接的MobileNets模型中加入了密集连接思想,通过设置较小的超参数增长率来达到小于现有MobileNets模型中的参数数量和计算量的目的。基于密集连接的MobileNets模型中每经过两个深度可分离卷积层通过以步长为2的深度卷积来对特征图进行降维,同一密集块内的输入特征图大小尺寸需相同,因此一个密集块内只包含两个深度可分离卷积层。实施例4中MobileNets-A模型将深度可分离卷积层拆开作为两个单独的层来看,将拥有同一输入特征图尺寸输入的四个卷积层作为一个密集块,该密集块的超参数增长率为{32,64,64,128,128,128,256},则MobileNets-A模型的参数数量下降为现有标准MobileNets模型的1/2,计算量下降为现有标准MobileNets模型的5/11。实施例5中的MobileNets-B模型将深度可分离卷积层作为一个整体,也将四个卷积层作为一个密集块,但中间只进行一次密集连接,该密集块的超参数增长率为{32,64,128,256,256,256,512},则MobileNets-B模型的参数数量下降为现有标准MobileNets模型的1/3,计算量下降为现有标准MobileNets模型的5/13。具体的各模型参数量和计算量如表1所示。表1中DensNet121模型是拥有121层的密集网络模型,全模型以16为超参数增长率,过渡层的压缩比设置为0.5。由表1可知,DensNet121模型受密集连接的影响,使得网络模型的参数量较小,但是计算量较大。现有MobileNets模型的参数量和计算量均较大。而本发明提供的基于密集连接的MobileNets模型A和B(记为MobileNets-A和MobileNets-B)的参数量和计算量均较现有的网络模型显著降低。
本发明还提出一种基于密集连接的MobileNets模型的图像分类系统,包括:控制部分和可编程部分;所述可编程部分用于通过配置实现特定功能模块,所述控制部分包括处理单元和存储单元,所述存储单元存储有基于密集连接的MobileNets模型的图像分类程序,所述处理单元在运行所述动态布局优化程序时,执行上述所述方法的步骤。
在实施例6中,本实施例用训练好的MobileNets-A模型和MobileNets-B模型分别来对Caltech-101数据集和图宾根大学动物分类数据库中的图像进行分类。同时采用现有的标准MobileNets模型和DensNet121模型分别来对Caltech-101数据集和图宾根大学动物分类数据库中的图像进行分类。
图5为DensNet121模型、MobileNets模型、MobileNets-A模型和MobileNets-B模型在Caltech-101数据集上取得的分类正确率图,表2为相应的分类正确率数值。由图5和表2可知,四种分类模型在迭代30000次以后,其准确率均已达到平衡,MobileNets-A模型和MobileNets-B模型相比于标准的MobileNets模型,其中MobileNets-A模型准确率下降0.13%,MobileNets-B模型准确率提高了1.2%。MobileNets-A模型和MobileNets-B模型相比于DensNet121模型,准确率有所提高。
图6为DensNet121模型、MobileNets模型、MobileNets-A模型和MobileNets-B模型在图宾根大学动物分类数据库上取得的分类正确率图,表3为相应的分类正确率数值。由图6和表3可知,四种分类模型在迭代30000次以后,其准确率均已达到平衡,MobileNets-A模型和MobileNets-B模型相比于标准的MobileNets模型,其中MobileNets-A模型准确率下降1%,MobileNets-B模型准确率提高了0.45%。MobileNets-A模型和MobileNets-B模型相比于DensNet121模型,准确率基本一样。
表1本发明提供的MobileNets-A和MobileNets-B模型与现有DensNet121模型、MobileNets模型的参数量、计算量比较表
表2本发明提供的MobileNets-A、MobileNets-B模型与现有DensNet121、MobileNets模型的准确率(%)比较表
表3本发明提供的MobileNets-A、MobileNets-B模型与现有DensNet121、MobileNets模型的准确率(%)比较表
综上,本发明提供的基于密集连接的MobileNets模型的图像分类方法,其搭建的模型于现有的标准MobileNets模型和DensNet121模型相比,准确率基本保持不变,甚至有所提高,而模型的参数量和计算量显著降低,因此能更好的应用于低内存的移动设备中。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。
Claims (7)
1.一种基于密集连接的MobileNets模型的图像分类方法,其特征在于,包括以下步骤:
S1:获取图像集;
S2:对所述图像集中的图像进行标签标记;
S3:将标记后的图像输入训练好的基于密集连接的MobileNets模型;所述模型包括若干层并联的密集块,每层所述密集块内包含两层密集连接的深度可分离卷积层;
S4:基于密集连接的MobileNets模型对输入的图像集中的图像进行分类处理,最终输出图像集中的图像属于各类别的概率,概率最高的即为图像对应的类别。
2.如权利要求1所述的一种基于密集连接的MobileNets模型的图像分类方法,其特征在于,所述步骤S1中,将采集的灰度图、多通道彩图和/或视频多帧图像的图像序列进行预处理,预处理后的灰度图、多通道彩图和/或视频多帧图像的图像序列组成图像集。
3.如权利要求2所述的一种基于密集连接的MobileNets模型的图像分类方法,其特征在于,所述预处理方法包括:将每一维度的数据值减去该维度的数据均值的0均值数据,进行逐样本均值消除;将数据归一化到相同尺度上;能降低数据冗余性的白化操作;对图像进行裁剪以满足模型输入的需求。
4.如权利要求1所述的一种基于密集连接的MobileNets模型的图像分类方法,其特征在于,所述步骤S3中,设置基于密集连接的MobileNets模型的初始超参数增长率,用所述模型对输入的图像进行分类,根据所述模型在分类过程中的参数数量和计算量来调整超参数增长率的设置值。
5.如权利要求1所述的一种基于密集连接的MobileNets模型的图像分类方法,其特征在于,所述步骤S3中,所述深度可分离卷积层包含深度卷积层与点卷积层,所述基于密集连接的MobileNets模型中每层深度可分离卷积层中的深度卷积层与点卷积层作为两个独立的卷积层在密集块内进行密集连接。
6.如权利要求1所述的一种基于密集连接的MobileNets模型的图像分类方法,其特征在于,所述步骤S3中,所述深度可分离卷积层包含深度卷积层与点卷积层,所述基于密集连接的MobileNets模型中每层深度可分离卷积层中的深度卷积层与点卷积层作为一个整体在密集块内进行密集连接。
7.一种基于密集连接的MobileNets模型的图像分类系统,其特征在于,包括:控制部分和可编程部分;所述可编程部分用于通过配置实现特定功能模块,所述控制部分包括处理单元和存储单元,所述存储单元存储有基于密集连接的MobileNets模型的图像分类程序,所述处理单元在运行所述动态布局优化程序时,执行权利要求1~6任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910653247.6A CN110489584B (zh) | 2019-07-19 | 2019-07-19 | 基于密集连接的MobileNets模型的图像分类方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910653247.6A CN110489584B (zh) | 2019-07-19 | 2019-07-19 | 基于密集连接的MobileNets模型的图像分类方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110489584A true CN110489584A (zh) | 2019-11-22 |
CN110489584B CN110489584B (zh) | 2021-10-01 |
Family
ID=68546161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910653247.6A Active CN110489584B (zh) | 2019-07-19 | 2019-07-19 | 基于密集连接的MobileNets模型的图像分类方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110489584B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112541532A (zh) * | 2020-12-07 | 2021-03-23 | 长沙理工大学 | 基于密集连接结构的目标检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108288075A (zh) * | 2018-02-02 | 2018-07-17 | 沈阳工业大学 | 一种改进ssd的轻量化小目标检测方法 |
CN108764347A (zh) * | 2018-05-30 | 2018-11-06 | 大连理工大学 | 基于卷积神经网络的地球仪国家图像识别方法 |
CN109214406A (zh) * | 2018-05-16 | 2019-01-15 | 长沙理工大学 | 基于D-MobileNet神经网络图像分类方法 |
US20190220709A1 (en) * | 2018-01-18 | 2019-07-18 | Aptiv Technologies Limited | Device and a method for image classification using a convolutional neural network |
-
2019
- 2019-07-19 CN CN201910653247.6A patent/CN110489584B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190220709A1 (en) * | 2018-01-18 | 2019-07-18 | Aptiv Technologies Limited | Device and a method for image classification using a convolutional neural network |
CN108288075A (zh) * | 2018-02-02 | 2018-07-17 | 沈阳工业大学 | 一种改进ssd的轻量化小目标检测方法 |
CN109214406A (zh) * | 2018-05-16 | 2019-01-15 | 长沙理工大学 | 基于D-MobileNet神经网络图像分类方法 |
CN108764347A (zh) * | 2018-05-30 | 2018-11-06 | 大连理工大学 | 基于卷积神经网络的地球仪国家图像识别方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112541532A (zh) * | 2020-12-07 | 2021-03-23 | 长沙理工大学 | 基于密集连接结构的目标检测方法 |
CN112541532B (zh) * | 2020-12-07 | 2024-03-01 | 长沙理工大学 | 基于密集连接结构的目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110489584B (zh) | 2021-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102102161B1 (ko) | 이미지 내 객체의 대표 특성을 추출하는 방법, 장치 및 컴퓨터 프로그램 | |
CN104809187B (zh) | 一种基于rgb‑d数据的室内场景语义标注方法 | |
CN106504064A (zh) | 基于深度卷积神经网络的服装分类与搭配推荐方法及系统 | |
CN108898579A (zh) | 一种图像清晰度识别方法、装置和存储介质 | |
US11270476B2 (en) | Method and system for providing photorealistic changes for digital image | |
CN107808132A (zh) | 一种融合主题模型的场景图像分类方法 | |
CN110097609B (zh) | 一种基于样本域的精细化绣花纹理迁移方法 | |
CN108961675A (zh) | 基于卷积神经网络的跌倒检测方法 | |
CN108961245A (zh) | 基于双通道深度并行卷积网络的图像质量分类方法 | |
CN106599925A (zh) | 一种基于深度学习的植物叶片识别系统与方法 | |
CN109886153B (zh) | 一种基于深度卷积神经网络的实时人脸检测方法 | |
CN110415184B (zh) | 一种基于正交元空间的多模态图像增强方法 | |
CN107194937A (zh) | 一种开放环境下中医舌象图像分割方法 | |
CN108717524A (zh) | 一种基于双摄手机和人工智能系统的手势识别系统及方法 | |
CN108279238A (zh) | 一种果实成熟度判断方法及装置 | |
CN107330750A (zh) | 一种推荐产品配图方法及装置,电子设备 | |
CN103186538A (zh) | 一种图像分类方法和装置、图像检索方法和装置 | |
CN111062441A (zh) | 基于自监督机制和区域建议网络的场景分类方法及装置 | |
CN107516103A (zh) | 一种影像分类方法和系统 | |
CN105718932A (zh) | 一种基于果蝇优化算法和光滑孪生支持向量机的彩色图像分类方法与系统 | |
CN111462162B (zh) | 一种特定类别图片的前景分割算法 | |
CN113887410A (zh) | 一种基于深度学习的多类别食材识别系统及方法 | |
CN107506362A (zh) | 基于用户群优化的图像分类仿脑存储方法 | |
CN113724354B (zh) | 基于参考图颜色风格的灰度图像着色方法 | |
CN110489584A (zh) | 基于密集连接的MobileNets模型的图像分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |