CN108229503A - 一种针对服装照片的特征提取方法 - Google Patents
一种针对服装照片的特征提取方法 Download PDFInfo
- Publication number
- CN108229503A CN108229503A CN201810008857.6A CN201810008857A CN108229503A CN 108229503 A CN108229503 A CN 108229503A CN 201810008857 A CN201810008857 A CN 201810008857A CN 108229503 A CN108229503 A CN 108229503A
- Authority
- CN
- China
- Prior art keywords
- feature
- clothes
- loss function
- classification
- photo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种针对服装照片的特征提取方法。为服装照片构建基于深度学习模型的特征提取模型,特征提取模型中包含多任务分类损失函数和四元损失函数;采集若干带标签的服装照片作为训练数据,将带标签的服装照片及其标签输入到特征提取模型进行训练,在多任务分类损失函数和四元损失函数的共同优化下通过反向传播算法进行特征提取模型的参数优化,获得训练后的特征提取模型,以训练后的特征提取模型对带标签的服装照片进行处理提取获得特征向量。本发明针对服装照片设计的特征提取方法非常通用而且鲁棒,可用于服装照片的分类、标注、检索和聚类等应用。
Description
技术领域
本发明涉及了一种图像特征提取识别方法,主要涉及到了一种针对服装照片的特征提取方法。
背景技术
好的特征可以极大提高模式识别系统的性能。过去几十年模式识别的各种应用中主要使用手工设计的特征,但是手工设计的特征主要依靠设计者的先验知识,很难利用大数据的优势。深度学习与传统模式识别方法的最大不同在于前者从大数据中自动学习特征,而后者采用手工设计的特征。通常,一个模式识别系统包括特征和分类器两个主要的组成部分,二者关系密切,在传统的方法中特征和分类器的优化是分开的。在深度神经网络的框架下,特征表示和分类器是联合优化的,可以最大程度发挥二者联合协作的性能。
2006年,Geoffrey Hinton提出了深度学习。在这个之后,深度学习在许多领域取得了巨大的成功。神经网络能够重新流行有几个方面的原因。首先,大数据的出现在很大程度上缓解了神经网络模型训练过拟合的问题。其次,计算机硬件的发展提供了强大的计算能力,使得训练大规模的神经网络成为可能。此外,通过学术界和工业界的努力,在神经网络的模型设计和训练方法都取得了长足的进步。深度模型具有强大的学习能力和高效的特征表达能力,从像素级原始数据到抽象的语义概念逐层提取信息。深度模型在提取图像的全局特征和上下文信息方面具有突出的优势。
另一方面,图像分类和图像检索是图像理解的两个主要任务,其共同点是学习一个特征表示方法,以语义的方法理解视觉数据。但是,两者学习的具体目标并不一致,图像分类的目标是根据图像的语义将不同类别图像区分开来,图像检索的目标是给定一个查询,从数据中查询最相关的图像。如何利用深度模型设计一个表征学习模型,能够同时用于图像检索任务和图像分类任务,是一项具有挑战的工作。
发明内容
为了解决背景技术中存在的问题,本发明的目的在于提供了一种针对服装照片的特征提取方法,对服装照片进行特征学习,可用于服装照片的分类、标注、检索和聚类等应用。
本发明解决其技术问题采用的技术方案如下:
为服装照片构建基于深度学习模型的特征提取模型,特征提取模型中包含多任务分类损失函数和四元损失函数;采集若干带标签的服装照片作为训练数据,将带标签的服装照片及其标签输入到特征提取模型进行训练,在多任务分类损失函数和四元损失函数的共同优化下通过反向传播算法进行特征提取模型的参数优化,获得训练后的特征提取模型,以训练后的特征提取模型对带标签的服装照片进行处理提取获得128维的特征向量。
本发明的特征向量同时包含了图像的语义标签类别信息和图像的相似性度量信息。本发明设计了特殊的多任务分类损失函数,使得特征提取模型从服装照片准确提取到服装照片的语义标签类别信息。
本发明设计了特殊的四元损失函数,使得特征提取模型从服装照片准确提取到服装照片的相似性度量信息。
所述的步骤1)中,带标签的服装照片从社交媒体的数据库采集,是社交媒体用户分享的以室外环境为图像背景的包含人体全身的照片,主要想突出展示所穿服装的视觉特征。
每张服装照片均包含了季节标签、服装风格标签和服装类别标签。
具体实施中,季节标签可以包括春季、夏季、秋季、冬季的四种标签,但不限于此。服装分格可以包括休闲风、运动风、甜美风、学院风、复古风、朋克风、波西米亚风的七种风格,但不限于此。服装类别可以包括外套、上衣、背心、连衣裙、短裙、长裤、短裤七个服装类别,但不限于此。一张服装照片中仅具有唯一的季节标签、服装风格标签,但是可能穿着不同部位的服装,因此多种不同的服装类别标签。
所述步骤2)中,特征提取模型包括四个并列独立的深度卷积神经网络,四个深度卷积神经网络的网络结构和参数完全一致;每个深度卷积神经网络采用了VGG-16网络的第一个全连接层及之前的所有网络结构,VGG-16网络的第六个全连接层保留,并将VGG-16网络的第一个全连接层后面的网络结构替换为128维的全连接层作为特征嵌入层;
特征嵌入层的后面有两个并行独立的损失层:
一个损失层是多任务分类损失层,定义了多任务分类损失函数,多任务分类损失层包括三个并列的全连接层和softmax层,三个全连接层的输入共同连接到第四个深度卷积神经网络的特征嵌入层的输出,三个全连接层的输出共同连接softmax层的输入,softmax层的输出作为多任务分类损失层的输出;
另一个损失层是四元损失层,定义了四元损失函数,四个深度卷积神经网络的特征嵌入层的输出均经二范数归一化处理(L2-Normalization)后共同连接到四元损失层的输入。
四张不同的服装照片分别输入到所述的四个深度卷积神经网络中,通过四个深度卷积神经网络及其后面的四元损失层,第四张服装照片输入到第四个深度卷积神经网络中,通过第四个深度卷积神经网络及其后面的多任务分类损失层,在两个损失层定义的多任务分类损失函数和四元损失函数共同优化下,通过反向传播算法对特征提取模型进行优化。
所述的多任务分类损失层由以下多任务分类损失函数构成,多任务分类损失函数为三个子损失函数的加权和Lclass,具体如下:
LClass=λ1Ls+λ2Lt+λ3Lg
其中,Ls是季节分类任务的子损失函数,Lt是服装风格分类任务的子损失函数,Lg是服装类别分类任务的子损失函数,λ1、λ2和λ3分别是季节分类、服装风格分类和服装类别分类的权重系数,用来控制三个分类任务的子损失函数对特征学习的影响;
三个子损失函数Ls、Lt和Lg计算为:
其中,N是训练图片的总数,i为图片的索引,j为类别的索引,xi是第四个深度卷积神经网络输入的第i张图片,是第i张图片的季节标签, 是第i张图片的服装风格标签, 是第i张图片第j个服装类别标签,Kg是服装类别个数,是第i张图片xi对应的第j个季节分类任务对应的softmax层的输出,是第i张图片xi对应的第个季节分类任务对应的softmax层的输出,是第i张图片xi对应的第j个服装风格分类任务对应的softmax层的输出,是第i张图片xi对应的第个季节分类任务对应的softmax层的输出,是第i张图片xi对应的第j个服装类别分类任务对应的softmax层的输出。
本发明采用了改进的子损失函数Ls、Lt的计算方式,通过此改进能够获得更准确的季节分类和服装风格分类结果。
所述步骤4)中,四元损失函数构建了用于输入四张服装照片之间的相似性约束函数,具体构建为以下公式:
s.t.:m1>m2
s.t.:m1>m3
其中,Ω是具有M个四元组照片样本的集合,M为四元组照片样本的总数,四元组照片样本是由不同的四张服装照片组成的组合;m1,m2和m3是用于正则化图片对之间距离的第一、第二、第三边界参数(Margin Parameter),k是照片样本的索引,是服装照片通过特征提取模型的特征嵌入层再经过二范数归一化处理后对应的特征向量;是服装照片通过特征提取模型的特征嵌入层再经过二范数归一化处理后对应的特征向量,是服装照片通过特征提取模型的特征嵌入层再经过二范数归一化处理后对应的特征向量,是服装照片通过特征提取模型的特征嵌入层再经过二范数归一化处理后对应的特征向量。
在多任务分类损失函数和四元损失函数的共同优化下通过反向传播算法进行特征提取模型的参数优化,具体是通过以下公式结合多任务分类损失函数和四元损失函数获得特征提取模型的总损失函数,然后再通过反向传播算法进行处理:
其中,α是多任务分类损失函数和四元损失函数的权重系数,LQuad表示四元损失函数,LClass表示多任务分类损失函数。
在特征提取模型进行训练过程中,特征提取模型中的VGG-16网络的初始权重值是通过ImageNet数据集输入特征提取模型预先训练获得。
服装照片输入特征提取模型前采用零均值和单位方差进行全局归一化。
本发明为得到特征提取模型的最优参数,在多任务分类损失函数和四元损失函数的共同作用下通过反向传播算法进行特征提取模型的参数优化。
本发明设计的四元损失函数可以用于其他的包含多物体图片的相似性度量模型学习。
本发明具有的有益效果是:
本发明设计了一个利用视觉数据和文本标签数据,建立机器学习模型学习图像的特征表达的方法,可适用于类似带文本标签的服装照片数据集。
本发明特殊设计了分段的总损失函数,比现有的线性加权总损失函数更加灵活,更能准确提取服装照片的特征,并且容易收敛。
附图说明
图1是本发明针对服装照片设计的基于深度学习模型的特征提取模型。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
本发明的实施例及其实施过程如下:
具体实施是以服装照片数据集结合示意图对本发明的技术方案作进一步说明:其中,带文本标签的服装照片从社交媒体采集,服装照片是社交媒体用户分享的以室外环境为图像背景的包含人体的全身照片,主要想突出展示所穿服装的视觉特征。每张采集的服装照片均包含了用户标注的季节、服装风格和服装类别等文本标签。这些图像和对应的文本标签都可以公开获取。
1)从服装照片数据集中采用图片四元组首先,将服装照片数据集的任意一张图片作为对应的通过Jaccard相似度函数采样,Jaccard相似度函数定义为:
其中,x1和x2是任意两种图片,和是图片x1和x2对应的文本标签。
给定将Jaccard相似度函数分别设定为0.9,0.3和0.001作为相似性阈值从图像库中均匀地采样即选取和图片Jaccard相似度大于0.9的图片作为选取和图片Jaccard相似度介于0.3和0.9之间图片作为选取和图片Jaccard相似度小于0.001作为
2)在模型训练阶段,输入一组四元组集合以及相应的文本标签到特征提取模型,在多任务分类损失函数和四元损失函数的共同优化下通过反向传播算法完成特征提取模型的优化。其中,VGG-16部分的初始权重值是在ImageNet数据集预先训练得到的,在图像的预处理阶段,采用了零均值和单位方差的全局归一化。为得到特征提取模型的最优参数,需要对模型参数进行大量的调优实验。
3)模型训练完成后,输入任意一张服装照片,特征提取模型输出用来描述这张图片的特征向量(即特征嵌入层对应的128维的特征向量)。
Claims (9)
1.一种针对服装照片的特征提取方法,其特征在于:所述方法的步骤如下:为服装照片构建基于深度学习模型的特征提取模型,特征提取模型中包含多任务分类损失函数和四元损失函数;采集若干带标签的服装照片作为训练数据,将带标签的服装照片及其标签输入到特征提取模型进行训练,在多任务分类损失函数和四元损失函数的共同优化下通过反向传播算法进行特征提取模型的参数优化,获得训练后的特征提取模型,以训练后的特征提取模型对带标签的服装照片进行处理提取获得特征向量。
2.根据权利要求1所述的一种针对服装照片的特征提取方法,其特征在于:所述的步骤1)中,带标签的服装照片从社交媒体的数据库采集,是社交媒体用户分享的以街景为图像背景的包含人体全身的照片。
3.根据权利要求2所述的一种针对服装照片的特征提取方法,其特征在于:每张服装照片均包含了季节标签、服装风格标签和服装类别标签。
4.根据权利要求1所述的一种针对服装照片的特征提取方法,其特征在于:所述步骤2)中,特征提取模型包括四个并列独立的深度卷积神经网络,四个深度卷积神经网络的网络结构和参数完全一致;每个深度卷积神经网络采用了VGG-16网络的第一个全连接层及之前的所有网络结构,并将VGG-16网络的第一个全连接层后面的网络结构替换为128维的全连接层作为特征嵌入层;
并且在特征嵌入层的后面设有两个并行独立的损失层:
一个损失层是多任务分类损失层,多任务分类损失层包括三个并列的全连接层和softmax层,三个全连接层的输入共同连接到第四个深度卷积神经网络的特征嵌入层的输出,三个全连接层的输出共同连接softmax层的输入,softmax层的输出作为多任务分类损失层的输出;
另一个损失层是四元损失层,四个深度卷积神经网络的特征嵌入层的输出均经二范数归一化处理(L2-Normalization)后共同连接到四元损失层的输入。
5.根据权利要求4所述的一种针对服装照片的特征提取方法,其特征在于:
所述的多任务分类损失层由以下多任务分类损失函数构成,多任务分类损失函数为三个子损失函数的加权和Lclass,具体如下:
LClass=λ1Ls+λ2Lt+λ3Lg
其中,Ls是季节分类任务的子损失函数,Lt是服装风格分类任务的子损失函数,Lg是服装类别分类任务的子损失函数,λ1、λ2和λ3分别是季节分类、服装风格分类和服装类别分类的权重系数,用来控制三个分类任务的子损失函数对特征学习的影响;
三个子损失函数Ls、Lt和Lg计算为:
其中,N是训练图片的总数,i为图片的索引,j为类别的索引,xi是第四个深度卷积神经网络输入的第i张图片,Yi s是第i张图片的季节标签,Yi s∈[1,4],Yi t是第i张图片的服装风格标签,Yi t∈[1,7],是第i张图片第j个服装类别标签,Kg是服装类别个数,是第i张图片xi对应的第j个季节分类任务对应的softmax层的输出,是第i张图片xi对应的第Yi s个季节分类任务对应的softmax层的输出,是第i张图片xi对应的第j个服装风格分类任务对应的softmax层的输出,是第i张图片xi对应的第Yi t个季节分类任务对应的softmax层的输出,是第i张图片xi对应的第j个服装类别分类任务对应的softmax层的输出。
6.根据权利要求1所述的一种针对服装照片的特征提取方法,其特征在于:
所述步骤4)中,四元损失函数构建了用于输入四张服装照片之间的相似性约束函数,具体构建为以下公式:
s.t.:m1>m2
s.t.:m1>m3
其中,Ω是具有M个四元组照片样本的集合,M为四元组照片样本的总数,四元组照片样本是由不同的四张服装照片组成的组合;m1,m2和m3是用于正则化图片对之间距离的第一、第二、第三边界参数(Margin Parameter),k是照片样本的索引,是服装照片通过特征提取模型的特征嵌入层再经过二范数归一化处理后对应的特征向量;是服装照片通过特征提取模型的特征嵌入层再经过二范数归一化处理后对应的特征向量,是服装照片通过特征提取模型的特征嵌入层再经过二范数归一化处理后对应的特征向量,是服装照片通过特征提取模型的特征嵌入层再经过二范数归一化处理后对应的特征向量。
7.根据权利要求1所述的一种针对服装照片的特征提取方法,其特征在于:
在多任务分类损失函数和四元损失函数的共同优化下通过反向传播算法进行特征提取模型的参数优化,具体是通过以下公式结合多任务分类损失函数和四元损失函数获得特征提取模型的总损失函数,然后再通过反向传播算法进行处理:
其中,α是多任务分类损失函数和四元损失函数的权重系数,LQuad表示四元损失函数,LClass表示多任务分类损失函数。
8.根据权利要求1所述的一种针对服装照片的特征提取方法,其特征在于:
在特征提取模型进行训练过程中,特征提取模型中的VGG-16网络的初始权重值是通过ImageNet数据集输入特征提取模型预先训练获得。
9.根据权利要求1所述的一种针对服装照片的特征提取方法,其特征在于:服装照片输入特征提取模型前采用零均值和单位方差进行全局归一化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810008857.6A CN108229503A (zh) | 2018-01-04 | 2018-01-04 | 一种针对服装照片的特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810008857.6A CN108229503A (zh) | 2018-01-04 | 2018-01-04 | 一种针对服装照片的特征提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108229503A true CN108229503A (zh) | 2018-06-29 |
Family
ID=62642959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810008857.6A Pending CN108229503A (zh) | 2018-01-04 | 2018-01-04 | 一种针对服装照片的特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108229503A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165293A (zh) * | 2018-08-08 | 2019-01-08 | 上海宝尊电子商务有限公司 | 一种面向时尚领域的专业数据标注方法与程序 |
CN109190120A (zh) * | 2018-08-31 | 2019-01-11 | 第四范式(北京)技术有限公司 | 神经网络训练方法和装置及命名实体识别方法和装置 |
CN109272011A (zh) * | 2018-07-31 | 2019-01-25 | 东华大学 | 面向服装图像分类的多任务深度表示学习方法 |
CN110197200A (zh) * | 2019-04-23 | 2019-09-03 | 东华大学 | 一种基于机器视觉的服装电子标签生成方法 |
CN110705755A (zh) * | 2019-09-07 | 2020-01-17 | 创新奇智(广州)科技有限公司 | 一种基于深度学习的服装流行趋势预测方法与装置 |
CN111382747A (zh) * | 2018-12-29 | 2020-07-07 | 杭州光启人工智能研究院 | 数据打标方法、计算机装置及计算机可读存储介质 |
CN111444974A (zh) * | 2020-04-02 | 2020-07-24 | 成都三零凯天通信实业有限公司 | 一种基于零样本识别的服装分类方法 |
CN111582400A (zh) * | 2020-05-15 | 2020-08-25 | 东华大学 | 一种基于深度学习的服装图像分类模型建立方法 |
CN113836338A (zh) * | 2021-07-21 | 2021-12-24 | 北京邮电大学 | 细粒度图像分类方法、装置、存储介质及终端 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913025A (zh) * | 2016-04-12 | 2016-08-31 | 湖北工业大学 | 一种基于多特征融合的深度学习人脸识别方法 |
CN106529402A (zh) * | 2016-09-27 | 2017-03-22 | 中国科学院自动化研究所 | 基于多任务学习的卷积神经网络的人脸属性分析方法 |
CN106951911A (zh) * | 2017-02-13 | 2017-07-14 | 北京飞搜科技有限公司 | 一种快速的多标签图片检索系统及实现方法 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
-
2018
- 2018-01-04 CN CN201810008857.6A patent/CN108229503A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913025A (zh) * | 2016-04-12 | 2016-08-31 | 湖北工业大学 | 一种基于多特征融合的深度学习人脸识别方法 |
CN106529402A (zh) * | 2016-09-27 | 2017-03-22 | 中国科学院自动化研究所 | 基于多任务学习的卷积神经网络的人脸属性分析方法 |
CN106951911A (zh) * | 2017-02-13 | 2017-07-14 | 北京飞搜科技有限公司 | 一种快速的多标签图片检索系统及实现方法 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
Non-Patent Citations (2)
Title |
---|
XIAOFAN ZHANG ET AL.: "Embedding Label Structures for Fine-Grained Feature Representation", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
XIAOLING GU ET AL.: "Understanding Fashion Trends from Street Photos via Neighbor-Constrained Embedding Learning", 《PROCEEDINGS OF THE 25TH ACM INTERNATIONAL CONFERENCE ON MULTIMEDIA》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109272011A (zh) * | 2018-07-31 | 2019-01-25 | 东华大学 | 面向服装图像分类的多任务深度表示学习方法 |
CN109272011B (zh) * | 2018-07-31 | 2021-08-20 | 东华大学 | 面向服装图像分类的多任务深度表示学习方法 |
CN109165293A (zh) * | 2018-08-08 | 2019-01-08 | 上海宝尊电子商务有限公司 | 一种面向时尚领域的专业数据标注方法与程序 |
CN109190120B (zh) * | 2018-08-31 | 2020-01-21 | 第四范式(北京)技术有限公司 | 神经网络训练方法和装置及命名实体识别方法和装置 |
CN109190120A (zh) * | 2018-08-31 | 2019-01-11 | 第四范式(北京)技术有限公司 | 神经网络训练方法和装置及命名实体识别方法和装置 |
CN111382747A (zh) * | 2018-12-29 | 2020-07-07 | 杭州光启人工智能研究院 | 数据打标方法、计算机装置及计算机可读存储介质 |
CN110197200A (zh) * | 2019-04-23 | 2019-09-03 | 东华大学 | 一种基于机器视觉的服装电子标签生成方法 |
CN110197200B (zh) * | 2019-04-23 | 2022-12-09 | 东华大学 | 一种基于机器视觉的服装电子标签生成方法 |
CN110705755A (zh) * | 2019-09-07 | 2020-01-17 | 创新奇智(广州)科技有限公司 | 一种基于深度学习的服装流行趋势预测方法与装置 |
CN111444974A (zh) * | 2020-04-02 | 2020-07-24 | 成都三零凯天通信实业有限公司 | 一种基于零样本识别的服装分类方法 |
CN111582400A (zh) * | 2020-05-15 | 2020-08-25 | 东华大学 | 一种基于深度学习的服装图像分类模型建立方法 |
CN113836338A (zh) * | 2021-07-21 | 2021-12-24 | 北京邮电大学 | 细粒度图像分类方法、装置、存储介质及终端 |
CN113836338B (zh) * | 2021-07-21 | 2024-05-24 | 北京邮电大学 | 细粒度图像分类方法、装置、存储介质及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229503A (zh) | 一种针对服装照片的特征提取方法 | |
CN107918780B (zh) | 一种基于关键点检测的衣服种类和属性分类方法 | |
CN103514456B (zh) | 基于压缩感知多核学习的图像分类方法及其装置 | |
Shalunts et al. | Architectural style classification of building facade windows | |
CN109919177B (zh) | 基于层次化深度网络的特征选择方法 | |
CN109034210A (zh) | 基于超特征融合与多尺度金字塔网络的目标检测方法 | |
CN110555060B (zh) | 基于成对样本匹配的迁移学习方法 | |
CN106021406B (zh) | 一种数据驱动的迭代式图像在线标注方法 | |
CN109190643A (zh) | 基于卷积神经网络中药识别方法及电子设备 | |
CN106991386A (zh) | 一种基于深度残差网络的手势识别方法 | |
CN108875076B (zh) | 一种基于Attention机制和卷积神经网络的快速商标图像检索方法 | |
CN110728694B (zh) | 一种基于持续学习的长时视觉目标跟踪方法 | |
CN105205449A (zh) | 基于深度学习的手语识别方法 | |
CN110163286A (zh) | 一种基于混合池化的领域自适应图像分类方法 | |
Islam et al. | A CNN based approach for garments texture design classification | |
CN107818299A (zh) | 基于融合hog特征和深度信念网络的人脸识别算法 | |
CN113032613B (zh) | 一种基于交互注意力卷积神经网络的三维模型检索方法 | |
CN108154156A (zh) | 基于神经主题模型的图像集成分类方法及装置 | |
CN110046544A (zh) | 基于卷积神经网络的数字手势识别方法 | |
CN110347851A (zh) | 基于卷积神经网络的图像检索方法及系统 | |
CN110298392A (zh) | 一种标签约束自权重多超图学习的半监督分类方法 | |
Bian et al. | Ensemble feature learning for material recognition with convolutional neural networks | |
Fan | Research and realization of video target detection system based on deep learning | |
CN112669343A (zh) | 一种基于深度学习的壮族少数民族服饰分割方法 | |
CN109657082A (zh) | 基于全卷积神经网络的遥感图像多标签检索方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180629 |