CN111680760A - 服装风格识别方法、装置、电子设备及存储介质 - Google Patents
服装风格识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111680760A CN111680760A CN202010548265.0A CN202010548265A CN111680760A CN 111680760 A CN111680760 A CN 111680760A CN 202010548265 A CN202010548265 A CN 202010548265A CN 111680760 A CN111680760 A CN 111680760A
- Authority
- CN
- China
- Prior art keywords
- clothing style
- model
- clothing
- recognition model
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种服装风格识别方法、装置、电子设备及存储介质。该服装风格识别方法包括:构建服装风格识别模型;训练所述服装风格识别模型;利用训练好的服装风格识别模型识别图像中的服装风格。本发明提供的服装风格识别方法,通过对VGG‑19网络模型进行结构上的改造并引入了空间金字塔池化层,得到了服装风格识别模型,该模型可以使用任意尺寸的图像进行训练,该模型在输入上的约束少,通过对该模型的训练,使该模型对服装分类任务有较好的泛化能力,通过训练后的该模型对服装风格识别的准确率更高。
Description
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种服装风格识别方法、装置、电子设备及存储介质。
背景技术
目前,服装推荐系统可以根据用户的体貌特征计算出适合该用户的穿衣风格,并根据所得服装风格进行服装的个性化推荐。经由人工对服装的属性标注的方式费事费力且主观性较强。为了解决这一问题,计算机领域常采用图像识别算法对服装图像进行处理,经模式识别算法得到服装属性标签。常用的图像识别方法有:贝叶斯分类法、模版匹配法等。然而,现有技术的服装风格识别技术方案都存在各种明显的缺陷。例如,由人工进行特征工程可能遗漏关键特征,对分类效果产生负面影响。贝叶斯分类法假设一个属性值对给定类的影响独立于其它属性的值,但这种假设在服装图像风格的判定中很难成立。例如,服装的色彩属性和图案属性都对服装风格有着重大影响,而色彩包括服装的主流色和图案的花色,两者并不完全独立。模板匹配法则要求原图像中的匹配目标不能发生旋转或大小变化,对输入的目标图像有着很高的要求,缺乏灵活性。
发明内容
本发明的目的在于提供一种服装风格识别方法、装置、电子设备及存储介质。
根据本申请实施例的一个方面,提供了一种服装风格识别方法,包括:
构建服装风格识别模型;
训练所述服装风格识别模型;
利用训练好的服装风格识别模型识别图像中的服装风格。
进一步地,所述构建服装风格识别模型,包括:
在VGG-19网络模型基础上,将全连接层的个数修改设置为1个;
在所述全连接层前引入空间金字塔池化层;
将所述全连接层的输出层神经元数量设定为6个。
进一步地,所述训练所述服装风格识别模型,包括:
构建训练数据集;
对所述训练数据集中的图像的服装风格进行标注;
利用完成标注的训练数据集训练所述服装风格识别模型。
进一步地,在所述利用训练好的服装风格识别模型识别图像中的服装风格之前,所述方法还包括:
利用测试数据集测试训练完成的服装风格识别模型;
若测试结果达到指标阈值,则确定所述训练完成的服装风格识别模型为所述训练好的服装风格识别模型;
否则,转向所述训练所述服装风格识别模型。
进一步地,所述利用训练好的服装风格识别模型识别图像中的服装风格,包括:
将所述图像输入所述训练好的服装风格识别模型,通过所述训练好的服装风格识别模型使用卷积-池化操作提取特征图像;
在经过5轮连续的卷积-池化操作后,空间金字塔池化层将所得到的特征图像进行空间金字塔池化,得到一个固定尺寸的特征向量;
通过全连接层和softmax函数,在预训练好的连接权的作用下通过特征向量计算出分类结果。
进一步地,所述训练所述服装风格识别模型,包括:在所述训练所述服装风格识别模型的过程中,采用迁移学习的方法。
进一步地,在所述利用训练好的服装风格识别模型识别图像中的服装风格之前,所述方法还包括:将所述图像的背景设为白色。
根据本申请实施例的另一个方面,提供了一种服装风格识别装置,包括:
构建模块,用于构建服装风格识别模型;
训练模块,用于训练所述服装风格识别模型;
识别模块,用于利用训练好的服装风格识别模型识别图像中的服装风格。
根据本申请实施例的一个方面,提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现上述的服装风格识别方法。
根据本申请实施例的一个方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以实现上述的服装风格识别方法。
采用上述技术方案,本发明具有如下有益效果:
本发明提供的服装风格识别方法,通过对VGG-19网络模型进行结构上的改造并引入了空间金字塔池化层,得到了服装风格识别模型,该模型可以使用任意尺寸的图像进行训练,该模型在输入上的约束少,通过对该模型的训练,使该模型对服装分类任务有较好的泛化能力,通过训练后的该模型对服装风格识别的准确率更高。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的服装风格识别模型结构示意图;
图2为本发明一实施例所提出的服装风格识别模型在训练过程中的各评估指标的变化曲线图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合具体的实施方式对本发明做进一步的解释说明。
卷积神经网络(CNN或ConvNet)是深度学习中的代表性模型,属于前馈人工神经网络的一种。由于卷积神经网络有着稀疏交互、参数共享、可等变表示等优点,模型可以很好地表述图像特征间的关联、减少不必要的参数数量、更好地应对图像的缩放与平移问题,在计算机视觉领域有着广泛的应用。卷积神经网络作为深度学习中的代表性模型,具有参数共享、局部平移不变等特点,已被广泛应用于图像处理领域中。同时,使用卷积神经网络进行图像处理可以自动完成特征工程,能有效解决上述问题。现有基于卷积神经网络的研究大多针对服装的类别分类任务展开,对服装风格分类的关注度较少。
VGG-Net卷积网络的网络模型通常有16-19层。本发明第一个实施例采用19层的VGG-19网络模型,其中包括16个卷积层(3×3的卷积核)、5个池化层(最大池化)和3个全连接层。VGG-Net使用ReLU激活函数取代sigmoid、tanh,缩短了训练时间,并引入了Dropout防止出现过拟合。VGG-19的输入要求为224×224像素的RGB图像。
SPP-Net网络模型引入了“空间金字塔池化”(spatial pyramid pooling)的池化策略消除输入图像尺寸上的限制,对物体的形变具有较强的鲁棒性。在SPP-Net模型中,空间金字塔池化层被放在最后一个卷积层之后,对特征进行池化,并产生固定的kM维输出。最后再将此输出再作为全连接层的输入,计算得分类结果,从而避免了在最开始的时候就对输入的图片进行裁剪或缩放。其中,k代表最后一个卷积层中的卷积核的数量,M代表块的数量。
卷积CNN由一个输入层、一个输出层以及多个隐藏层组成。CNN的隐藏层通常由卷积层、池化层和全连接层等组成。卷积层负责对输入进行卷积运算,从而达到模板匹配的效果,提取出图像的特征,并将该特征的向量化表示传递到下一层。其过程可描述为:
池化层负责执行下采样操作,根据选定的方式对图像的特征向量进行降维,减少运算量。而这种池化操作也使卷积神经网络具有了局部平移不变性,保证图像局部的平移、旋转对模型的分类效果不会产生过大的影响。其过程可描述为:
hi=subsampling(hi-1) (2)
其中,subsampling(x)为池化层采用的规则,常见的有最大池化和平均池化等。
卷积和池化后得到的输出将被传入全连接层进行推理分析,从而得到最终的分类结果。在全连接层中,网络每层中的每个神经元都与前一层的所有神经元相连接,以前反馈的形式不断进行参数更新,从而训练出最终的模型。
在卷积神经网络模型的选择上,VGG-19在ImageNet数据集的分类任务上表现良好,有着和好的泛化性与迁移性。为了使VGG-19网络模型能够更好地适用于服装图像的风格识别,本发明实施例进行了如下结构上的改造。
其一,在模型参数与运行效率方面,经计算,VGG-19的第一、第二个全连接层的神经元个数都为4096,所含参数分别高达102,764,544个和16,777,216个,占据了全部参数的85%以上。如此高数量的参数运算会严重影响网络整体的运行速度,有必要对其结构进行优化。由于卷积神经网络中全连接层只负责根据特征向量进行信息的整合与推理,主要的特征抽取工作由卷积层完成。因此本发明实施例减少了全连接层的数量,调整为一层。这种调整对分类效果不会产生太大影响,但可以有效减少参数规模,降低网络的复杂度,从而节约大量的计算时间与显存空间。
其二,在模型结构上,VGG-19要求输入图像尺寸固定,不利于模型的泛化。本发明实施例在VGG-19的全连接层前引入SPP层,固定全连接层的输入参数个数,从而避免了在调用模型前裁剪图像,造成图像信息的丢失。
其三,在输出结构上,VGG-19主要针对ImageNet数据集的1000个类别而提出。全连接层的输出层神经元数量设定为与预设定的服装风格的种类数量相同。本发明实施例根据服装领域现有技术方案,将服装风格分为6大类,因此将最后一层全连接层的输出层神经元数量设定为6个。
综上所述,本发明实施例所采用的服装风格识别模型结构与运行流程如图1所示。
其中,Conv3-N表示N个3×3的卷积核,Max Pooling表示最大池化层,SPP表示空间金字塔池化层,softmax为本发明实施例所提模型使用的分类函数。
当任意尺寸的图像被输入模型后,模型会使用卷积-池化操作提取特征图像。在经过5轮连续的卷积-池化操作后,SPP层将所得到的特征图像进行空间金字塔池化,得到一个固定尺寸的特征向量。而后模型使用一个全连接层和softmax函数,在预训练好的连接权的作用下通过特征向量计算出分类结果。
数据集选取
为了保证训练数据的连续性,本发明实施例所采用的将服装风格分为6大类(复古、简约、可爱、优雅、浪漫和淑女六大类风格)的技术方案中,各大类服装风格具有各自的风格标签。同时为了得到有良好泛化效果的分类模型,在训练神经网络时需要保证所采用的数据集具有一定的规模。
在某些实施方式中,将现有技术中公开的服装风格数据集中的大量服装图像用于模型训练,涵盖复古、简约、可爱、优雅、浪漫和淑女六大风格。在风格标注时综合考虑色彩、图案、款式和面料四个方面的因素。数据源主要来自电商平台的女性服装信息,主要字段信息包括服装名称、服装详情和服装图片。
在某些实施方式中,可以采用在同一批服装领域专家的指导下收集的大量服装图像构成的数据集用于模型训练,数据集涵盖复古、简约、可爱、优雅、浪漫和淑女六大风格的服装图像。
对数据集中的服装风格进行标注的过程可表示为如下算法。
为了使卷积神经网络能更好地对针对服装信息进行特征分类,本发明实施例将服装的图像的背景统一设为白色,避免服装模特或复杂的图像背景对风格特征向量的提出产生干扰。
本发明实施例收集的服装数据集样本总量为36,946条,其中复古风格、简约风格、可爱风格、优雅风格、浪漫风格和淑女风格六种不同服装风格的图像数据大致保持了数量平均分布。
为合理评估模型的分类效果,本发明实施例根据服装风格,将每类服装风格下的图像数据都按7:3的比例随机划分为训练集和测试集,进行网络模型的参数学习和效果评估。
基于Keras框架开展实验,在一台64位的Windows系统台式机上进行模型的训练与评估,采用的CPU为Intel的i5双核处理器,主频为3.4GHz,内存8GB。
为使模型取得良好的效果,需要使用大量的数据供模型学习,以调整网络中的参数,且极为耗时。本发明实施例采用了迁移学习的方法来加快模型的训练过程。实验过程中使用经ImageNet训练好的VGG-19模型参数来固定模型底层参数,而后通过本发明实施例所建的数据集重新训练SPP及以上层的模型参数,以使模型的对服装分类任务有较好的泛化能力。
得到性能较优的模型后,将测试图像输入模型,即可得到服装风格的识别效果,并通过综合分析模型的训练集准确率、验证集准确率、训练集损失率和验证集损失率四个指标来评估模型的分类效果。
为了得到分类效果最好的模型,本发明实施例将训练集数据代入所提出的模型,不断进行迭代学习。通过综合分析模型的训练集准确率、验证集准确率、训练集损失率和验证集损失率四个指标来得到表现最优的模型。为了分析本发明实施例所提出模型的优缺点,本发明实施例还横向比较了相同数据集下,其他模型的分类效果。采用目前主流的VGG-19模型和Google-Net系列的Inception v3网络模型展开实验。为满足VGG-19和Inceptionv3网络的输入要求,实验将数据集图片的宽度归一化到224像素,并等比例缩放图片高度。然后截取图片中间的224×224的图像区域作为模型的输入数据。经统计,所有服装图像都完全落入了截取后的区域。
实验结果与分析
本发明实施例所提出的模型在训练过程中的各评估指标的变化如图2所示。trainacc代表训练集准确率;valacc代表验证集准确率;trainloss代表训练集损失率;valloss代表验证集损失率。
分析图2可知,本发明实施例所提模型的各项评估指标在前20次迭代的过程中变化剧烈,但是在第43次迭代的时候,验证损失率达到最小值,训练准确率高达87.28%,验证准确率高达76.78%,达到了最好的服装风格分类效果。
在所建立的数据集下,经过对比发现,本发明实施例所提出的模型较原有的VGG-19模型有着更好的分类效果,调整VGG-19模型结构并引入SPP层的做法对分类效果的提升是有益的,其消除了模型对输入图像尺寸的限制,更有利于模型的训练与使用,在服装图像风格识别问题上能得到准确率更高的识别结果。
本发明实施例提供的服装风格识别方法,将卷积神经网络应用到服装风格识别中,提供了一种自动从服装图像中识别服装风格的有效模型,提出了一种基于卷积神经网络进行服装风格识别的模型,构建服装风格数据集,用以进行模型效果的评估;通过研究分析VGG-19与SPP-Net两类神经网络的特点,对VGG-19网络模型进行了结构上的改造,并引入了SPP-Net的思想,让模型可以使用任意尺寸的图像进行训练,减少模型在输入上的约束。
本发明的另一个实施例提供了一种服装风格识别方法,包括:
S1、构建服装风格识别模型;
S2、训练所述服装风格识别模型;
S3、利用训练好的服装风格识别模型识别图像中的服装风格。
在某些实施方式中,所述构建服装风格识别模型,包括:
在VGG-19网络模型基础上,将全连接层的个数修改设置为1个;
在所述全连接层前引入空间金字塔池化层;
将所述全连接层的输出层神经元数量设定为6个。
在某些实施方式中,所述训练所述服装风格识别模型,包括:
构建训练数据集;
对所述训练数据集中的图像的服装风格进行标注;
利用完成标注的训练数据集训练所述服装风格识别模型。
在某些实施方式中,在所述利用训练好的服装风格识别模型识别图像中的服装风格之前,所述方法还包括:
利用测试数据集测试训练完成的服装风格识别模型;
若测试结果达到指标阈值,则确定所述训练完成的服装风格识别模型为所述训练好的服装风格识别模型;
否则,转向所述训练所述服装风格识别模型。
在某些实施方式中,所述利用训练好的服装风格识别模型识别图像中的服装风格,包括:
将所述图像输入所述训练好的服装风格识别模型,通过所述训练好的服装风格识别模型使用卷积-池化操作提取特征图像;
在经过5轮连续的卷积-池化操作后,空间金字塔池化层将所得到的特征图像进行空间金字塔池化,得到一个固定尺寸的特征向量;
通过全连接层和softmax函数,在预训练好的连接权的作用下通过特征向量计算出分类结果。
在某些实施方式中,所述训练所述服装风格识别模型,包括:在所述训练所述服装风格识别模型的过程中,采用迁移学习的方法。
在某些实施方式中,在所述利用训练好的服装风格识别模型识别图像中的服装风格之前,所述方法还包括:将所述图像的背景设为白色。
本发明的另一个实施例还提供了一种服装风格识别装置,包括:
构建模块,用于构建服装风格识别模型;
训练模块,用于训练所述服装风格识别模型;
识别模块,用于利用训练好的服装风格识别模型识别图像中的服装风格。
本发明的另一个实施例还提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现上述的服装风格识别方法。
本发明的另一个实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以实现上述的服装风格识别方法。
本发明提供的服装风格识别方法,通过对VGG-19网络模型进行结构上的改造并引入了空间金字塔池化层,得到了服装风格识别模型,该模型可以使用任意尺寸的图像进行训练,该模型在输入上的约束少,通过对该模型的训练,使该模型对服装分类任务有较好的泛化能力,通过训练后的该模型对服装风格识别的准确率更高。
最后应说明的是:
术语“模块”并非意图受限于特定物理形式。取决于具体应用,模块可以实现为硬件、固件、软件和/或其组合。此外,不同的模块可以共享公共组件或甚至由相同组件实现。不同模块之间可以存在或不存在清楚的界限。
在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本申请也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本申请的内容,并且上面对特定语言所做的描述是为了披露本申请的最佳实施方式。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本申请的示例性实施例的描述中,本申请的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本申请要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本申请的单独实施例。
应该理解的是,虽然附图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述实施例仅表达了本申请的实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (10)
1.一种服装风格识别方法,其特征在于,包括:
构建服装风格识别模型;
训练所述服装风格识别模型;
利用训练好的服装风格识别模型识别图像中的服装风格。
2.根据权利要求1所述的服装风格识别方法,其特征在于,所述构建服装风格识别模型,包括:
在VGG-19网络模型基础上,将全连接层的个数修改设置为1个;
在所述全连接层前引入空间金字塔池化层;
将所述全连接层的输出层神经元数量设定为6个。
3.根据权利要求2所述的服装风格识别方法,其特征在于,所述训练所述服装风格识别模型,包括:
构建训练数据集;
对所述训练数据集中的图像的服装风格进行标注;
利用完成标注的训练数据集训练所述服装风格识别模型。
4.根据权利要求2所述的服装风格识别方法,其特征在于,在所述利用训练好的服装风格识别模型识别图像中的服装风格之前,所述方法还包括:
利用测试数据集测试训练完成的服装风格识别模型;
若测试结果达到指标阈值,则确定所述训练完成的服装风格识别模型为所述训练好的服装风格识别模型;
否则,转向所述训练所述服装风格识别模型。
5.根据权利要求2所述的服装风格识别方法,其特征在于,所述利用训练好的服装风格识别模型识别图像中的服装风格,包括:
将所述图像输入所述训练好的服装风格识别模型,通过所述训练好的服装风格识别模型使用卷积-池化操作提取特征图像;
在经过5轮连续的卷积-池化操作后,空间金字塔池化层将所得到的特征图像进行空间金字塔池化,得到一个固定尺寸的特征向量;
通过全连接层和softmax函数,在预训练好的连接权的作用下通过特征向量计算出分类结果。
6.根据权利要求1所述的服装风格识别方法,其特征在于,所述训练所述服装风格识别模型,包括:在所述训练所述服装风格识别模型的过程中,采用迁移学习的方法。
7.根据权利要求1所述的服装风格识别方法,其特征在于,在所述利用训练好的服装风格识别模型识别图像中的服装风格之前,所述方法还包括:将所述图像的背景设为白色。
8.一种服装风格识别装置,其特征在于,包括:
构建模块,用于构建服装风格识别模型;
训练模块,用于训练所述服装风格识别模型;
识别模块,用于利用训练好的服装风格识别模型识别图像中的服装风格。
9.一种电子设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如权利要求1-7中任一所述的服装风格识别方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行,以实现如权利要求1-7中任一所述的服装风格识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010548265.0A CN111680760A (zh) | 2020-06-16 | 2020-06-16 | 服装风格识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010548265.0A CN111680760A (zh) | 2020-06-16 | 2020-06-16 | 服装风格识别方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111680760A true CN111680760A (zh) | 2020-09-18 |
Family
ID=72436418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010548265.0A Pending CN111680760A (zh) | 2020-06-16 | 2020-06-16 | 服装风格识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111680760A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906829A (zh) * | 2021-04-13 | 2021-06-04 | 成都四方伟业软件股份有限公司 | 一种基于Mnist数据集的数字识别模型构建方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160275372A1 (en) * | 2015-03-19 | 2016-09-22 | International Business Machines Corporation | System and method for creating a preference profile from shared images |
CN106504064A (zh) * | 2016-10-25 | 2017-03-15 | 清华大学 | 基于深度卷积神经网络的服装分类与搭配推荐方法及系统 |
CN106874924A (zh) * | 2015-12-14 | 2017-06-20 | 阿里巴巴集团控股有限公司 | 一种图片风格识别方法及装置 |
CN108108751A (zh) * | 2017-12-08 | 2018-06-01 | 浙江师范大学 | 一种基于卷积多特征和深度随机森林的场景识别方法 |
WO2019134560A1 (zh) * | 2018-01-08 | 2019-07-11 | Oppo广东移动通信有限公司 | 搭配模型构建方法、服饰推荐方法、装置、介质及终端 |
US20190318210A1 (en) * | 2018-04-11 | 2019-10-17 | International Business Machines Corporation | Cognitive analysis and classification of apparel images |
CN110705430A (zh) * | 2019-09-26 | 2020-01-17 | 江苏科技大学 | 基于深度学习的多人面部表情识别方法和识别系统 |
CN110765960A (zh) * | 2019-10-29 | 2020-02-07 | 黄山学院 | 一种自适应多任务深度学习的行人再识别方法 |
-
2020
- 2020-06-16 CN CN202010548265.0A patent/CN111680760A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160275372A1 (en) * | 2015-03-19 | 2016-09-22 | International Business Machines Corporation | System and method for creating a preference profile from shared images |
CN106874924A (zh) * | 2015-12-14 | 2017-06-20 | 阿里巴巴集团控股有限公司 | 一种图片风格识别方法及装置 |
CN106504064A (zh) * | 2016-10-25 | 2017-03-15 | 清华大学 | 基于深度卷积神经网络的服装分类与搭配推荐方法及系统 |
CN108108751A (zh) * | 2017-12-08 | 2018-06-01 | 浙江师范大学 | 一种基于卷积多特征和深度随机森林的场景识别方法 |
WO2019134560A1 (zh) * | 2018-01-08 | 2019-07-11 | Oppo广东移动通信有限公司 | 搭配模型构建方法、服饰推荐方法、装置、介质及终端 |
US20190318210A1 (en) * | 2018-04-11 | 2019-10-17 | International Business Machines Corporation | Cognitive analysis and classification of apparel images |
CN110705430A (zh) * | 2019-09-26 | 2020-01-17 | 江苏科技大学 | 基于深度学习的多人面部表情识别方法和识别系统 |
CN110765960A (zh) * | 2019-10-29 | 2020-02-07 | 黄山学院 | 一种自适应多任务深度学习的行人再识别方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906829A (zh) * | 2021-04-13 | 2021-06-04 | 成都四方伟业软件股份有限公司 | 一种基于Mnist数据集的数字识别模型构建方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ding et al. | Semi-supervised locality preserving dense graph neural network with ARMA filters and context-aware learning for hyperspectral image classification | |
CN110532900B (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
CN109919177B (zh) | 基于层次化深度网络的特征选择方法 | |
CN112800903B (zh) | 一种基于时空图卷积神经网络的动态表情识别方法及系统 | |
CN111553837B (zh) | 一种基于神经风格迁移的艺术文本图像生成方法 | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
Simon et al. | Generalized orderless pooling performs implicit salient matching | |
CN110363253A (zh) | 一种基于卷积神经网络的热轧带钢表面缺陷分类方法 | |
CN106504064A (zh) | 基于深度卷积神经网络的服装分类与搭配推荐方法及系统 | |
CN107292250A (zh) | 一种基于深度神经网络的步态识别方法 | |
CN104463209A (zh) | 一种基于bp神经网络的pcb板上数字代码识别方法 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN110163884B (zh) | 一种基于全连接深度学习神经网络的单个图像分割方法 | |
Wang et al. | GKFC-CNN: Modified Gaussian kernel fuzzy C-means and convolutional neural network for apple segmentation and recognition | |
Liu et al. | Gesture segmentation based on a two-phase estimation of distribution algorithm | |
CN110889332A (zh) | 一种基于面试中微表情的说谎检测方法 | |
Zheng et al. | Static Hand Gesture Recognition Based on Gaussian Mixture Model and Partial Differential Equation. | |
CN113011243A (zh) | 基于胶囊网络的面部表情分析方法 | |
CN113920516A (zh) | 一种基于孪生神经网络的书法字骨架匹配方法及系统 | |
Ma et al. | Joint-label learning by dual augmentation for time series classification | |
CN114612709A (zh) | 图像金字塔特征指导的多尺度目标检测方法 | |
CN114882278A (zh) | 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置 | |
CN111680760A (zh) | 服装风格识别方法、装置、电子设备及存储介质 | |
CN116993760A (zh) | 一种基于图卷积和注意力机制的手势分割方法、系统、设备及介质 | |
CN108765384B (zh) | 一种联合流形排序和改进凸包的显著性检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |