CN107918780B - 一种基于关键点检测的衣服种类和属性分类方法 - Google Patents
一种基于关键点检测的衣服种类和属性分类方法 Download PDFInfo
- Publication number
- CN107918780B CN107918780B CN201710780963.1A CN201710780963A CN107918780B CN 107918780 B CN107918780 B CN 107918780B CN 201710780963 A CN201710780963 A CN 201710780963A CN 107918780 B CN107918780 B CN 107918780B
- Authority
- CN
- China
- Prior art keywords
- clothes
- neural network
- convolutional neural
- key points
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明提供一种基于关键点检测的衣服种类和属性分类方法,该方法先采集训练样本的数据;然后构建可配置的检测衣服关键点的深度模型,并将训练样本的数据输入深度模型,以对深度模型进行训练;接着利用训练后的检测关键点的深度模型对衣服图像进行分析,预测衣服图像中每个关键点的位置;最后根据S3中预测关键点的结果,以此提取相关局部信息,再融合全局的图片信息,再通过深度模型对衣服种类和属性进行训练、预测。该方法实现了能够更好融合衣服局部和全局特征。
Description
技术领域
本发明涉及计算机视觉和模式识别领域,更具体地,涉及一种基于关键点检测的衣服种类和属性分类方法。
背景技术
图像识别是计算机视觉研究中的一个重要领域,其主要任务是让计算机识别输入的图像类别。近年来,深度学习凭借其强大的学习能力,在计算机视觉领域成为了主流模型,包括图像识别,物体检测,图像分割等。每年的ImageNet图像识别竞赛提供了一个平台使得研究人员不断提高在图像识别领域的技术水平。AlexNet、VGG、GoogleNet和ResidualNet等技术依次提高了图像识别的准确度。
虽然普适性的图像识别技术已经相当成熟,但是针对衣服等精细化领域的识别依然具有相当大的研究意义。
随着科技的发展,电子商务市场越来越大,其中衣服占了相当大的比重。因此研究针对衣服细化领域的种类及属性分类,对用户精准推荐商品则具有相当大的意义。
传统的衣服种类和属性的识别方法往往采用两阶段的方法:
1)提取人工设计的图像特征(如HOG,color histogram)
2)根据这些特征设计专门的分类器。
然而,这一类的传统方法受限于特征的表达能力,实际分类效果上并不好
随着近年来深度学习的发展,它在图像分类、物体检测和图像分割等领域取得了显著成效。Qiang Chen等人在2015年提出基于衣服属性描述该人特质的方法。JunshiHuang等人2015年提出以衣服属性为基本思想的衣服检索方法。这些方法都是基于深度学习强大的特征表达能力及其端对端的分类预测能力。
为了能够应对衣服当中人体模特大幅度姿势变化和遮挡,研究人员提出了像人体对齐、衣服分割和关键点检测等方法。这些方法有助于提取更加鲁棒的衣服特征表达,进一步提高分类的准确率。
Liu等人在2016年提出了Deepfashion数据集,该数据定义了衣服的6个关键点,并相应提出了一个简易的模型预测衣服属性和分类。
发明内容
本发明提供一种能够更好融合衣服局部和全局特征的基于关键点检测的衣服种类和属性分类方法。
为了达到上述技术效果,本发明的技术方案如下:
一种基于关键点检测的衣服种类和属性分类方法,包括以下步骤:
S1:采集训练样本的数据;
S2:构建可配置的检测衣服关键点的深度模型,并将训练样本的数据输入深度模型,以对深度模型进行训练;
S3:利用训练后的检测关键点的深度模型对衣服图像进行分析,预测衣服图像中每个关键点的位置;
S4:根据S3中预测关键点的结果,以此提取相关局部信息,再融合全局的图片信息,再通过深度模型对衣服种类和属性进行训练、预测。
进一步地,所述步骤S2中深度模型包括两个卷积神经网络;
第一个深度卷积神经网络对衣服关键点位置进行学习,运用卷积神经网络的卷积层提取图像的数据的基础表达,再利用反卷积层得到与原图同样尺寸的特征图来预测各个关键点的位置;
第二个深度卷积神经网络用于融合衣服图像的局部特征和全局特征,其中,局部特征根据第一个深度卷积神经网络预测得到的关键点位置提取;
衣服图像经过第一个卷积神经网络,预测出衣服关键点的位置;再根据这些关键点,确定出与识别目标有关的局部区域,再经过第二个卷积神经网络融合局部和全局特征对衣服种类和属性进行预测,输出最终的结果。
进一步地,所述的第一个深度卷积神经网络由三种主要的层实现,分别是卷积层、降采样层和反卷积层;该卷积层的输入特征和输出特征的长宽一致,可保持尺度不变;最后一层输出的特征为256×256×L,其中L是关键点的个数,让输出的feature map的第k个通道预测第k个关键点的位置,对于该能通道上的每个点的响应值F(x,y,k),令它为预测点(x,y)是第k个关键点的概率值:
采用交叉熵来训练该卷积神经网络,定义损失函数如下:
其中batchsize是输入神经网络图像的数目,H为输入图像和输出特征的高,将手工标注的点坐标记为(xg,yg),而对于一个二维平面,在标注点邻近的点也可作为目标点,即(xg-1,yg),(xg,yg-1),(xg+1,yg),(xg,yg+1),(xg-1,yg-1),(xg+1,yg+1)等坐标也可以作为标注坐标;
因此定义标注点(xg,yg)处的值为最大概率值1,其邻近的坐标按照一定比例线性下降,即如下公式所示,其中α为衰减因子;
Q(x,y,k)=max(0,1-αmax(|x-xg|,|y-yg|))
再将Q(x,y,k)标准化之后,得到真实坐标的期望概率分布G(x,y,k)
这样通过神经网络的反向传播算法更新及参数值,从而学习到一个健壮的模型。
进一步地,所述第二个深度卷积神经网络的设计如下:
在得到关键点坐标后,可以据此确定出相关细节区域,比如左右手臂,领子区域,将这些细节区域和全局图像同时输入卷积神经网络,在最后一个卷积层输出的特征再输入element-wise average pooling层,该层的数学定义如下:
进一步地,所述步骤S3中还包括对关键点的检测,其过程如下:
采用平均相对误差来衡量错误
与现有技术相比,本发明技术方案的有益效果是:
本发明方法先采集训练样本的数据;然后构建可配置的检测衣服关键点的深度模型,并将训练样本的数据输入深度模型,以对深度模型进行训练;接着利用训练后的检测关键点的深度模型对衣服图像进行分析,预测衣服图像中每个关键点的位置;最后根据S3中预测关键点的结果,以此提取相关局部信息,再融合全局的图片信息,再通过深度模型对衣服种类和属性进行训练、预测。该方法实现了能够更好融合衣服局部和全局特征。
附图说明
图1为本发明方法流程图;
图2为用来检测关键点的第一个深度卷积神经网络示意图;
图3为图2所示深度卷积神经网络设计的结构参数图;
图4为第二个深度卷积神经网络示意图;
图5为Liu等人在2016年提出Deepfashion数据集论文中采用的对点坐标直接做回归的模型示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种基于关键点检测的衣服种类和属性分类方法,包括以下步骤:
S1:采集训练样本的数据;
S2:构建可配置的检测衣服关键点的深度模型,并将训练样本的数据输入深度模型,以对深度模型进行训练;
S3:利用训练后的检测关键点的深度模型对衣服图像进行分析,预测衣服图像中每个关键点的位置;
S4:根据S3中预测关键点的结果,以此提取相关局部信息,再融合全局的图片信息,再通过深度模型对衣服种类和属性进行训练、预测。
定义衣服的关键点为10个点(如表1),我们认为该定义方法能很好的确定衣服的关键位置,为接下来进一步的识别打下良好的基础。
表1衣服的关键点
1 | 上领口 |
2 | 下领口 |
3 | 左肩膀 |
4 | 右肩膀 |
5 | 左手肘 |
6 | 右手肘 |
7 | 左袖口(手腕) |
8 | 右袖口(手腕) |
9 | 左底部(腰) |
10 | 右底部(腰) |
步骤S2中深度模型包括两个卷积神经网络;
第一个深度卷积神经网络对衣服关键点位置进行学习,运用卷积神经网络的卷积层提取图像的数据的基础表达,再利用反卷积层得到与原图同样尺寸的特征图来预测各个关键点的位置;
第二个深度卷积神经网络用于融合衣服图像的局部特征和全局特征,其中,局部特征根据第一个深度卷积神经网络预测得到的关键点位置提取;
衣服图像经过第一个卷积神经网络,预测出衣服关键点的位置;再根据这些关键点,确定出与识别目标有关的局部区域,再经过第二个卷积神经网络融合局部和全局特征对衣服种类和属性进行预测,输出最终的结果。
如图2-3所示,的第一个深度卷积神经网络由三种主要的层实现,分别是卷积层、降采样层和反卷积层;该卷积层的输入特征和输出特征的长宽一致,可保持尺度不变;最后一层输出的特征为256×256×L,其中L是关键点的个数,让输出的feature map的第k个通道预测第k个关键点的位置,对于该能通道上的每个点的响应值F(x,y,k),令它为预测点(x,y)是第k个关键点的概率值:
采用交叉熵来训练该卷积神经网络,定义损失函数如下:
其中batchsize是输入神经网络图像的数目,H为输入图像和输出特征的高,将手工标注的点坐标记为(xg,yg),而对于一个二维平面,在标注点邻近的点也可作为目标点,即(xg-1,yg),(xg,yg-1),(xg+1,yg),(xg,yg+1),(xg-1,yg-1),(xg+1,yg+1)等坐标也可以作为标注坐标;
因此定义标注点(xg,yg)处的值为最大概率值1,其邻近的坐标按照一定比例线性下降,即如下公式所示,其中α为衰减因子;
Q(x,y,k)=max(0,1-αmax(|x-xg|,|y-yg|))
再将Q(x,y,k)标准化之后,得到真实坐标的期望概率分布G(x,y,k)
这样通过神经网络的反向传播算法更新及参数值,从而学习到一个健壮的模型。
如图4所示,第二个深度卷积神经网络的设计如下:
在得到关键点坐标后,可以据此确定出相关细节区域,比如左右手臂,领子区域,将这些细节区域和全局图像同时输入卷积神经网络,在最后一个卷积层输出的特征再输入element-wise average pooling层,该层的数学定义如下:
进一步地,所述步骤S3中还包括对关键点的检测,其过程如下:
采用平均相对误差来衡量错误
在收集了145000张标注有关键点坐标的衣服图片,把其中15000图片当作测试集,把另外130000张当作训练集,用来做比较的模型是Liu等人在2016年提出Deepfashion数据集论文中采用的对点坐标直接做回归的模型,它基于VGG-16,该模型示意图如图5所示,另外对比结果如表2所示。
平均相对误差 | |
对比模型 | 0.115 |
本发明提出模型 | 0.075 |
从结果对比可以看出,我们的模型大大优于对比模型,从而证明了本发明的有效性。
1)衣服种类和属性分类
作为对比,对比模型采用的都是基于VGG-16的模型,该模型是深度学习领域中非常常用的模型,测试指标采用准备的top-1准确率,即分类准确的图片占所有测试图片的比例。
自采集数据上的准确率:
Deepfashion数据集上的准确率:
Top-1 | Top-3 | Top-5 | |
对比模型 | N/A | 82.58 | 90.17 |
本发明提出模型 | 70.59 | 88.60 | 94.05 |
从两个数据集上的实验结果来看,我们的方法都是由于对比模型的,这反映了方法的确能够更好地提取出衣服细节的特征,并且再此基础上融合全局区域后对衣服属性和分类预测有很好的帮助。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (3)
1.一种基于关键点检测的衣服种类和属性分类方法,其特征在于,包括以下步骤:
S1:采集训练样本的数据;
S2:构建可配置的检测衣服关键点的深度模型,并将训练样本的数据输入深度模型,以对深度模型进行训练;
S3:利用训练后的检测关键点的深度模型对衣服图像进行分析,预测衣服图像中每个关键点的位置;
S4:根据S3中预测关键点的结果,以此提取相关局部信息,再融合全局的图片信息,再通过深度模型对衣服种类和属性进行训练、预测;
所述步骤S2中深度模型包括两个卷积神经网络;
第一个深度卷积神经网络对衣服关键点位置进行学习,运用卷积神经网络的卷积层提取图像的数据的基础表达,再利用反卷积层得到与原图同样尺寸的特征图来预测各个关键点的位置;
第二个深度卷积神经网络用于融合衣服图像的局部特征和全局特征,其中,局部特征根据第一个深度卷积神经网络预测得到的关键点位置提取;
衣服图像经过第一个卷积神经网络,预测出衣服关键点的位置;再根据这些关键点,确定出与识别目标有关的局部区域,再经过第二个卷积神经网络融合局部和全局特征对衣服种类和属性进行预测,输出最终的结果;
所述的第一个深度卷积神经网络由三种主要的层实现,分别是卷积层、降采样层和反卷积层;该卷积层的输入特征和输出特征的长宽一致,可保持尺度不变;最后一层输出的特征为256×256×L,其中L是关键点的个数,让输出的feature map的第k个通道预测第k个关键点的位置,对于该通道上的每个点的响应值F(x,y,k),令它为预测点(x,y)是第k个关键点的概率值:
采用交叉熵来训练该卷积神经网络,定义损失函数如下:
其中batchsize是输入神经网络图像的数目,H为输入图像和输出特征的高,将手工标注的点坐标记为(xg,yg),而对于一个二维平面,在标注点邻近的点也可作为目标点,即(xg-1,yg),(xg,yg-1),(xg+1,yg),(xg,yg+1),(xg-1,yg-1),(xg+1,yg+1)坐标也可以作为标注坐标;
因此定义标注点(xg,yg)处的值为最大概率值1,其邻近的坐标按照一定比例线性下降,即如下公式所示,其中α为衰减因子;
Q(x,y,k)=max(0,1-αmax(|x-xg|,|y-yg|))
再将Q(x,y,k)标准化之后,得到真实坐标的期望概率分布G(x,y,k)
这样通过神经网络的反向传播算法更新及参数值,从而学习到一个健壮的模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710780963.1A CN107918780B (zh) | 2017-09-01 | 2017-09-01 | 一种基于关键点检测的衣服种类和属性分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710780963.1A CN107918780B (zh) | 2017-09-01 | 2017-09-01 | 一种基于关键点检测的衣服种类和属性分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107918780A CN107918780A (zh) | 2018-04-17 |
CN107918780B true CN107918780B (zh) | 2021-09-03 |
Family
ID=61898750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710780963.1A Active CN107918780B (zh) | 2017-09-01 | 2017-09-01 | 一种基于关键点检测的衣服种类和属性分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107918780B (zh) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344841B (zh) * | 2018-08-10 | 2021-11-30 | 北京华捷艾米科技有限公司 | 一种服装识别方法及装置 |
CN110895702B (zh) * | 2018-09-12 | 2021-01-12 | 深圳云天励飞技术有限公司 | 一种服饰属性识别检测方法及装置 |
CN109325952B (zh) * | 2018-09-17 | 2022-07-08 | 上海宝尊电子商务有限公司 | 基于深度学习的时尚服装图像分割方法 |
CN109523593A (zh) * | 2018-10-19 | 2019-03-26 | 北京陌上花科技有限公司 | 用于服装图像的数据处理方法及装置 |
CN109086837A (zh) * | 2018-10-24 | 2018-12-25 | 高嵩 | 基于卷积神经网络的用户属性分类方法、存储介质、装置及电子设备 |
CN111104820A (zh) * | 2018-10-25 | 2020-05-05 | 中车株洲电力机车研究所有限公司 | 一种基于深度学习的手势识别方法 |
CN109358628A (zh) * | 2018-11-06 | 2019-02-19 | 江苏木盟智能科技有限公司 | 一种货箱对位方法及机器人 |
CN109583584B (zh) * | 2018-11-14 | 2020-07-10 | 中山大学 | 可使具有全连接层的cnn接受不定形状输入的方法及系统 |
CN109543700B (zh) * | 2018-11-29 | 2022-12-02 | 中山大学 | 一种抗遮挡的服饰关键点检测方法 |
CN109670591B (zh) * | 2018-12-14 | 2022-09-27 | 深圳市商汤科技有限公司 | 一种神经网络的训练方法及图像匹配方法、装置 |
CN109784350A (zh) * | 2018-12-29 | 2019-05-21 | 天津大学 | 结合空洞卷积与级联金字塔网络的服饰关键点定位方法 |
CN109829484B (zh) * | 2019-01-08 | 2021-10-15 | 深圳禾思众成科技有限公司 | 一种服饰分类方法、设备及计算机可读存储介质 |
CN109753938B (zh) | 2019-01-10 | 2021-11-05 | 京东方科技集团股份有限公司 | 图像识别方法和设备及应用、神经网络的训练方法 |
CN109938737A (zh) * | 2019-03-01 | 2019-06-28 | 苏州博慧智能科技有限公司 | 一种基于深度学习关键点检测的人体身型测量方法及装置 |
CN111696172A (zh) * | 2019-03-12 | 2020-09-22 | 北京京东尚科信息技术有限公司 | 图像标注方法、装置、设备及存储介质 |
CN110738230A (zh) * | 2019-04-15 | 2020-01-31 | 中国石油大学(华东) | 一种基于f-cdssd的衣物识别与分类方法 |
CN110084319B (zh) * | 2019-05-07 | 2023-06-30 | 上海宝尊电子商务有限公司 | 基于深度神经网络的时尚图像服装领型识别方法与系统 |
CN110610499B (zh) * | 2019-08-29 | 2020-10-20 | 杭州光云科技股份有限公司 | 一种图像中自动裁取局部细节图的方法 |
CN110991443A (zh) * | 2019-10-29 | 2020-04-10 | 北京海益同展信息科技有限公司 | 关键点检测、图像处理方法、装置、电子设备及存储介质 |
CN111027549A (zh) * | 2019-12-10 | 2020-04-17 | 北京服装学院 | 一种针对女上装关键点识别方法 |
CN111273581B (zh) * | 2020-01-23 | 2021-11-09 | 深圳市大拿科技有限公司 | 一种智能衣柜的控制方法及相关产品 |
CN113538573B (zh) * | 2020-04-20 | 2023-07-25 | 中移(成都)信息通信科技有限公司 | 服饰关键点定位方法、装置、电子设备及计算机存储介质 |
CN111598141A (zh) * | 2020-04-26 | 2020-08-28 | 月亮小屋(中国)有限公司 | 模型训练方法、衣物洗涤方法、系统、装置和介质 |
CN111753641B (zh) * | 2020-05-07 | 2023-07-18 | 中山大学 | 一种基于人脸高维特征的性别预测方法 |
CN111582400A (zh) * | 2020-05-15 | 2020-08-25 | 东华大学 | 一种基于深度学习的服装图像分类模型建立方法 |
CN111784845B (zh) * | 2020-06-12 | 2023-05-30 | 腾讯科技(深圳)有限公司 | 基于人工智能的虚拟试穿方法、装置、服务器及存储介质 |
CN112581528B (zh) * | 2020-12-24 | 2023-09-22 | 广东工业大学 | 一种基于主动学习的衣物关键点辅助标注及预测优化方法 |
CN117036327B (zh) * | 2023-08-22 | 2024-03-12 | 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) | 一种防护用品检视方法、系统、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127173A (zh) * | 2016-06-30 | 2016-11-16 | 北京小白世纪网络科技有限公司 | 一种基于深度学习的人体属性识别方法 |
CN106126579A (zh) * | 2016-06-17 | 2016-11-16 | 北京市商汤科技开发有限公司 | 物体识别方法和装置、数据处理装置和终端设备 |
CN106202997A (zh) * | 2016-06-29 | 2016-12-07 | 四川大学 | 一种基于深度学习的细胞分裂检测方法 |
CN106599830A (zh) * | 2016-12-09 | 2017-04-26 | 中国科学院自动化研究所 | 人脸关键点定位方法及装置 |
CN106991428A (zh) * | 2017-02-24 | 2017-07-28 | 中国科学院合肥物质科学研究院 | 基于自适应池化模型的害虫图像识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160259980A1 (en) * | 2015-03-03 | 2016-09-08 | Umm Al-Qura University | Systems and methodologies for performing intelligent perception based real-time counting |
-
2017
- 2017-09-01 CN CN201710780963.1A patent/CN107918780B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106126579A (zh) * | 2016-06-17 | 2016-11-16 | 北京市商汤科技开发有限公司 | 物体识别方法和装置、数据处理装置和终端设备 |
CN106202997A (zh) * | 2016-06-29 | 2016-12-07 | 四川大学 | 一种基于深度学习的细胞分裂检测方法 |
CN106127173A (zh) * | 2016-06-30 | 2016-11-16 | 北京小白世纪网络科技有限公司 | 一种基于深度学习的人体属性识别方法 |
CN106599830A (zh) * | 2016-12-09 | 2017-04-26 | 中国科学院自动化研究所 | 人脸关键点定位方法及装置 |
CN106991428A (zh) * | 2017-02-24 | 2017-07-28 | 中国科学院合肥物质科学研究院 | 基于自适应池化模型的害虫图像识别方法 |
Non-Patent Citations (2)
Title |
---|
DeepFashion: Powering Robust Clothes Recognition and Retrieval with Rich Annotations;Ziwei Liu 等;《2016 IEEE Conference on Computer Vision and Pattern Recognition》;20160630;正文第3节 * |
一种融合深度特征图和形态学的车牌定位方法;童冰 等;《长江大学学报 (自科版)》;20161031;第13卷(第28期);60-65 * |
Also Published As
Publication number | Publication date |
---|---|
CN107918780A (zh) | 2018-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107918780B (zh) | 一种基于关键点检测的衣服种类和属性分类方法 | |
CN107808143B (zh) | 基于计算机视觉的动态手势识别方法 | |
CN110825899B (zh) | 融合颜色特征和残差网络深度特征的服装图像检索方法 | |
Liang et al. | Deep human parsing with active template regression | |
CN109325952B (zh) | 基于深度学习的时尚服装图像分割方法 | |
CN107506793B (zh) | 基于弱标注图像的服装识别方法及系统 | |
CN108875827A (zh) | 一种细粒度图像分类的方法及系统 | |
CN108171184A (zh) | 基于Siamese网络的用于行人重识别的方法 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN103761295B (zh) | 基于图片自动分类的艺术类图片的定制化特征量提取方法 | |
Gao et al. | Multi‐dimensional data modelling of video image action recognition and motion capture in deep learning framework | |
TW201443807A (zh) | 視覺化服飾檢索 | |
CN107767416B (zh) | 一种低分辨率图像中行人朝向的识别方法 | |
CN108229503A (zh) | 一种针对服装照片的特征提取方法 | |
CN110647906A (zh) | 基于Faster R-CNN方法的服饰目标检测方法 | |
CN107292314A (zh) | 一种基于cnn的鳞翅目昆虫种类自动鉴别方法 | |
CN110751027B (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN111985367A (zh) | 一种基于多尺度特征融合的行人重识别特征提取方法 | |
CN114119585B (zh) | 基于Transformer的关键特征增强胃癌图像识别方法 | |
WO2016058410A1 (zh) | 一种生物医学图像特征提取方法 | |
Hong et al. | Object-oriented multiscale deep features for hyperspectral image classification | |
CN113032613B (zh) | 一种基于交互注意力卷积神经网络的三维模型检索方法 | |
CN109948702A (zh) | 一种基于卷积神经网络的服装分类和推荐模型 | |
Li et al. | An automatic plant leaf stoma detection method based on YOLOv5 | |
Xiao et al. | Hematoxylin and eosin (H&E) stained liver portal area segmentation using multi-scale receptive field convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |