CN110598523B - 一种服装图片的联合颜色分类与分组方法 - Google Patents
一种服装图片的联合颜色分类与分组方法 Download PDFInfo
- Publication number
- CN110598523B CN110598523B CN201910659707.6A CN201910659707A CN110598523B CN 110598523 B CN110598523 B CN 110598523B CN 201910659707 A CN201910659707 A CN 201910659707A CN 110598523 B CN110598523 B CN 110598523B
- Authority
- CN
- China
- Prior art keywords
- grouping
- training
- cost
- pictures
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Abstract
一种服装图片的联合颜色分类与分组方法,在预先未知组别个数的情况下,所提算法利用完全图对不同图片之间的分组关系进行建模,通过融合从数据中学到的深度特征和丰富的上下文信息实现分组关系的充分表达,并提出了一种基于交替搜索思想的高效推理算法求解服装图片的分组结果。本发明能够融合深度学习特征和丰富的上下文特征进行联合分类与分组;实现分类与分组模型参数的有效训练;快速求解分类与分组的推理优化问题。
Description
技术领域
本发明属于计算机视觉中的图像理解领域,涉及一种服装图片的联合分类与分组方法。
背景技术
服装是电子商务的最重要商品之一。在线服装图片展示网页如淘宝详情页,为获得理想的展示效果,需要预先对图片按其所含服装的主色调进行归类,即把同一色系的图片放在同一展示区域。为实现服装图片的自动归类,需要解决两个问题:一是服装主色调的识别,即颜色(主流颜色53种)分类;二是对服装图片按色系(共9个色系,包括红,黄,蓝,绿,黑,白,灰,紫,棕,其中每个色系包含多个相近的颜色)进行分组。已有技术把分组和颜色识别独立对待、分步处理,不能实现二者的联合优化,精度不高。
发明内容
为了克服现有服装分类方式的精度较低的不足,本发明提出了一种用于服装图片颜色分类与分组的完全子图分解方法,能够融合深度学习特征和丰富的上下文特征进行联合分类与分组;实现分类与分组模型参数的有效训练;快速求解分类与分组的推理优化问题。
本发明解决其技术问题所采用的技术方案是:
一种服装图片的联合颜色分类与分组方法,所述方法包括以下步骤:
1)准备用于服装颜色分类与分组的数据集
收集53类颜色的服装图片,其中包括模特展示图片和不含模特图片;使用YOLO训练一个人体检测器,从原始图像中提取人体框,并采用OpenPose估计框中人体的骨架点;默认裁剪从肩部到胯部部分作为训练或测试数据,如果未检测到上体骨架点,则裁取从胯部到膝盖的下装部分作为训练或测试数据;如果未检测到任何人体框,则对图片进行中心裁剪,并把裁剪后的图片作为训练或测试数据;对裁剪后的图片进行人工颜色标注并纠错,获得最终的数据集;基于所建数据集,利用ResNet深度学习模型训练一个服装图片的颜色分类器;
2)构建目标函数
记输入数据为X={x1,...,xn},这里x表示一张服装图片,对X进行分组可以表示成其中k表示分组个数,是一个未知量;对X中的n张图片进行分类,记其类别为Y={y1,...,yn},其中第j张图片的类别用yj表示,为联合预测分组与分类,最小化如下目标函数:
其中w=[wl,wg,wc]表示模型参数,将通过训练获得;G表示由分组诱导的无向图,其邻接矩阵Z定义如下:若图片j和k属于同一组,zj,k=0,反之,zj,k=1;<a,b>表示向量a和b的内积;特征φ、ψ、η分别表示采用卷积网络提取的单张图片特征、两张图片属于不同组别的上下文特征、分配到同一组的两张图片类别之间的兼容性;
3)φ、ψ、η特征表达
将常用颜色分成53个类别,这53个类别进一步分成红、黄、蓝、绿、黑、白、灰、紫、棕九个大类;为计算特征φ∈R2,ψ∈R7,η∈R2,使用ResNet训练一个颜色分类器,然后定义以下公式:
其中δ(·)表示指示函数,表示将第i张图片分为yi∈{1,2,...,53}类对应的Softmax概率,即ResNet网络中Softmax层的概率,向量尾部的1是为了训练w中的bias参数;在ψ中,gj,k∈{0,1}表示j和k对应的图像的颜色大类是否相同,相同则gi,k=1,反之则gi,k=0;κ1,κ2,κe的定义为:其中,dj,k是图j和k之间平均HSV颜色距离,采用L2范数,hj,k表示通过ResNet判别颜色类别后,两个类别的HSV颜色距离,采用L2范数;
4)模型参数训练
这里λ=1150,其中Δ表示的标签损失函数0-1,定义如下:
5)训练与预测中的交替搜索推理
定义θi(yi)=<φi(yi),wl>,θj,k=<ψj,k,wg>,θj,k(yj,yk)=<ηj,k(yj,yk),wc>,最小化损失函数(1)转换成以下等价形式:
5.2)固定Y为当前解Y*,上述问题简化为argminZ∑j,kcj,kzj,k,
从优化问题(3)的任意可行解出发,分组算法不断迭代降低目标函数的值,在迭代过程过记录每个节点的最新内部代价和外部代价之差,并定义变量flag标记任一节点所属的分组是否发生改变,所有变量的flag均初始化为False,有则设定flag为True,无则设定flag为False。在每次的迭代中,对每一对flag均为True的非空组,尝试通过一系列的合并以及移动操作更新这两个组,从而降低目标函数的值,然后更新相关节点的内部和外部代价之差;然后对于每个分组,尝试对其进行划分,从其分出一系列更小的分组,直到该分组不可再分;在每次迭代的最后,更新所有的分组的flag记录所有改动过的分组;另外,还计算所有的更新和分割引起的目标函数的总体下降量,如果该下降值为0则停止迭代。
进一步,所述5.2)中,启发式规则相关的定义和定理。
定义2,合并操作、移动操作:合并操作是将两个节点的集合合并成为一个大的集合;移动操作是将一个集合中的某个节点移动到另外一个集合中;
定理2:将一个节点k从Ci移动到Cj,该移动操作生成的解是可行的,且公式
定理3:将一个节点k从Ci移动到Cj,对于任意s∈Ni\{k},记I′i s分别表其移动后的外部代价和内部代价,对于任意t∈Nj,记I′j t分别表示其移动之前的外部代价和内部代价,I″j t表示t移动后的内部代价和外部代价,则有如下等式成立:
本发明提出了一种具体的用于解决服装图片的联合分组与分类的方法,称之为完全子图分解(complete subgraph decomposition,CSGD)方法。在预先未知组别个数的情况下,所提算法利用完全图对不同图片之间的分组关系进行建模,通过融合从数据中学到的深度特征和丰富的上下文信息实现分组关系的充分表达,并提出了一种基于交替搜索思想的高效推理算法求解服装图片的分组结果。
本发明的有益效果主要表现在:能够融合深度学习特征和丰富的上下文特征进行联合分类与分组;实现分类与分组模型参数的有效训练;快速求解分类与分组的推理优化问题。
具体实施方式
下面对本发明作进一步描述。
一种服装图片的联合颜色分类与分组方法,所述方法包括以下步骤:
1)准备用于服装颜色分类与分组的数据集
收集53类颜色的服装图片,其中包括模特展示图片和不含模特图片。使用YOLO训练一个人体检测器,从原始图像中提取人体框,并采用OpenPose估计框中人体的骨架点。默认裁剪从肩部到胯部部分作为训练或测试数据,如果未检测到上体骨架点,则裁取从胯部到膝盖的下装部分作为训练或测试数据。如果未检测到任何人体框,则对图片进行中心裁剪,并把裁剪后的图片作为训练或测试数据。对裁剪后的图片进行人工颜色标注并纠错,获得最终的数据集。基于所建数据集,利用ResNet深度学习模型训练一个服装图片的颜色分类器。
2)构建目标函数
记输入数据为X={x1,...,xn},这里x表示一张服装图片。对X进行分组可以表示成其中k表示分组个数,是一个未知量。对X中的n张图片进行分类,记其类别为Y={y1,...,yn},其中第j张图片的类别用yj表示。为联合预测分组与分类,最小化如下目标函数:
其中w=[wl,wg,wc]表示模型参数,将通过训练获得;G表示由分组诱导的无向图,其邻接矩阵Z定义如下:若图片j和k属于同一组,zj,k=0,反之,zj,k=1;<a,b>表示向量a和b的内积;特征φ、ψ、η分别表示采用卷积网络提取的单张图片特征、两张图片属于不同组别的上下文特征、分配到同一组的两张图片类别之间的兼容性。
3)φ、ψ、η特征表达
我们将常用颜色分成53个类别,这53个类别进一步分成红、黄、蓝、绿、黑、白、灰、紫、棕九个大类。为计算特征φ∈R2,ψ∈R7,η∈R2,我们使用ResNet训练一个颜色分类器,然后定义以下公式:
其中表示将第i张图片分为yi∈{1,2,...,53}类对应的Softmax概率,即ResNet网络中Softmax层的概率,向量尾部的1是为了训练w中的bias参数;在ψ中,gj,k∈{0,1}表示j和k对应的图像的颜色大类(颜色类别通过上述ResNet判别)是否相同,相同则gi,k=1,反之则gi,k=0;κ1,κ2,κe的定义为:其中dj,k是图j和k之间平均HSV颜色距离(采用L2范数),hj,k表示通过ResNet判别颜色类别后,两个类别的HSV颜色距离(采用L2范数)。
4)模型参数训练
这里λ=1150,其中Δ表示的标签损失函数0-1,定义如下:
5)训练与预测中的交替搜索推理
定义θi(yi)=<φi(yi),wl>,θj,k=<ψj,k,wg>,θj,k(yj,yk)=<ηj,k(yj,yk),wc>,最小化损失函数(1)可以转换成以下等价形式:
·固定Y为当前解Y*,上述问题简化为argminZ∑j,kcj,kzj,k,
首先给出和启发式规则相关的定义和定理。
定义2(合并操作、移动操作):合并操作是将两个节点的集合合并成为一个大的集合;移动操作是将一个集合中的某个节点移动到另外一个集合中。
定理3:将一个节点k从Ci移动到Cj,对于任意s∈Ni\{k},记I′i s分别表其移动后的外部代价和内部代价。对于任意t∈Nj,记I′j t分别表示其移动之前的外部代价和内部代价,I″j t表示t移动后的内部代价和外部代价。则有如下等式成立:
从优化问题(3)的任意可行解出发,我们的分组算法不断迭代降低目标函数的值,在迭代过程过记录每个节点的最新内部代价和外部代价之差,并定义变量flag标记任一节点所属的分组是否发生改变(所有变量的flag均初始化为False),有则设定flag为True,无则设定flag为False。在每次的迭代中,对每一对flag均为True的非空组,我们尝试通过一系列的合并以及移动操作更新这两个组,从而降低目标函数的值,然后根据公式(4)、(5)更新相关节点的内部和外部代价之差。然后对于每个分组,我们尝试对其进行划分,从其分出一系列更小的分组,直到该分组不可再分。在每次迭代的最后,我们更新所有的分组的flag记录所有改动过的分组;另外,我们还计算所有的更新和分割引起的目标函数的总体下降量,如果该下降值为0则停止迭代。
本发明提出了一种具体的用于解决服装图片的联合分组与分类的方法,称之为完全子图分解方法。在预先未知组别个数的情况下,所提算法利用完全图对不同图片之间的分组关系进行建模,通过融合从数据中学到的深度特征和丰富的上下文信息实现分组关系的充分表达,并提出了一种基于交替搜索思想的高效推理算法求解服装图片的分组结果。
Claims (2)
1.一种服装图片的联合颜色分类与分组方法,其特征在于,所述方法包括以下步骤:
1)准备用于服装颜色分类与分组的数据集
收集53类颜色的服装图片,其中包括模特展示图片和不含模特图片;使用YOLO训练一个人体检测器,从原始图像中提取人体框,并采用OpenPose估计框中人体的骨架点;默认裁剪从肩部到胯部部分作为训练或测试数据,如果未检测到上体骨架点,则裁取从胯部到膝盖的下装部分作为训练或测试数据;如果未检测到任何人体框,则对图片进行中心裁剪,并把裁剪后的图片作为训练或测试数据;对裁剪后的图片进行人工颜色标注并纠错,获得最终的数据集;基于所建数据集,利用ResNet深度学习模型训练一个服装图片的颜色分类器;
2)构建目标函数
记输入数据为X={x1,...,xn},这里x表示一张服装图片,对X进行分组可以表示成其中k表示分组个数,是一个未知量;对X中的n张图片进行分类,记其类别为Y={y1,...,yn},其中第j张图片的类别用yj表示,为联合预测分组与分类,最小化如下目标函数:
其中w=[wl,wg,wc]表示模型参数,将通过训练获得;G表示由分组诱导的无向图,其邻接矩阵Z定义如下:若图片j和k属于同一组,zj,k=0,反之,zj,k=1;<a,b>表示向量a和b的内积;特征φ、ψ、η分别表示采用卷积网络提取的单张图片特征、两张图片属于不同组别的上下文特征、分配到同一组的两张图片类别之间的兼容性;
3)φ、ψ、η特征表达
将常用颜色分成53个类别,这53个类别进一步分成红、黄、蓝、绿、黑、白、灰、紫、棕九个大类;为计算特征φ∈R2,ψ∈R7,η∈R2,使用ResNet训练一个颜色分类器,然后定义以下公式:
其中δ(·)表示指示函数,表示将第i张图片分为yi∈{1,2,...,53}类对应的Softmax概率,即ResNet网络中Softmax层的概率,向量尾部的1是为了训练w中的bias参数;在ψ中,gj,k∈{0,1}表示j和k对应的图像的颜色大类是否相同,相同则gi,k=1,反之则gi,k=0;κ1,κ2,κe的定义为:其中,dj,k是图j和k之间平均HSV颜色距离,采用L2范数,hj,k表示通过ResNet判别颜色类别后,两个类别的HSV颜色距离,采用L2范数;
4)模型参数训练
这里λ=1150,其中Δ表示的标签损失函数0-1,定义如下:
5)训练与预测中的交替搜索推理
定义θi(yi)=<φi(yi),wl>,θj,k=<ψj,k,wg>,θj,k(yj,yk)=<ηj,k(yj,yk),wc>,最小化损失函数(1)转换成以下等价形式:
上式V={1,...,n},E={(j,k)|(j,k)∈V2,j<k},称问题(3)中的约束为cycle约束,用符号o表示;上述问题是NP完全问题,为高效、近似求解上述问题,提出了一种迭代算法,每次迭代交替搜索Y和Z空间:
5.2)固定Y为当前解Y*,上述问题简化为argminZ∑j,kcj,kzj,k,
从优化问题(3)的任意可行解出发,分组算法不断迭代降低目标函数的值,在迭代过程过记录每个节点的最新内部代价和外部代价之差,并定义变量flag标记任一节点所属的分组是否发生改变,所有变量的flag均初始化为False,有则设定flag为True,无则设定flag为False,在每次的迭代中,对每一对flag均为True的非空组,尝试通过一系列的合并以及移动操作更新这两个组,从而降低目标函数的值,然后更新相关节点的内部和外部代价之差;然后对于每个分组,尝试对其进行划分,从其分出一系列更小的分组,直到该分组不可再分;在每次迭代的最后,更新所有的分组的flag记录所有改动过的分组;另外,还计算所有的更新和分割引起的目标函数的总体下降量,如果该下降值为0则停止迭代。
2.如权利要求1所述的一种服装图片的联合颜色分类与分组方法,其特征在于,所述5.2)中,启发式规则相关的定义和定理如下:
定义2,合并操作、移动操作:合并操作是将两个节点的集合合并成为一个大的集合;移动操作是将一个集合中的某个节点移动到另外一个集合中;
定理2:将一个节点k从Ci移动到Cj,该移动操作生成的解是可行的,且公式
定理3:将一个节点k从Ci移动到Cj,对于任意s∈Ni\{k},记分别表其移动后的外部代价和内部代价,对于任意t∈Nj,记分别表示其移动之前的外部代价和内部代价,表示t移动后的内部代价和外部代价,则有如下等式成立:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910659707.6A CN110598523B (zh) | 2019-07-22 | 2019-07-22 | 一种服装图片的联合颜色分类与分组方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910659707.6A CN110598523B (zh) | 2019-07-22 | 2019-07-22 | 一种服装图片的联合颜色分类与分组方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110598523A CN110598523A (zh) | 2019-12-20 |
CN110598523B true CN110598523B (zh) | 2021-10-26 |
Family
ID=68853018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910659707.6A Active CN110598523B (zh) | 2019-07-22 | 2019-07-22 | 一种服装图片的联合颜色分类与分组方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110598523B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325211A (zh) * | 2020-02-13 | 2020-06-23 | 上海眼控科技股份有限公司 | 车辆颜色的自动识别方法、电子装置、计算机设备和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106250431A (zh) * | 2016-07-25 | 2016-12-21 | 华南师范大学 | 一种基于分类服装的颜色特征提取方法及服装检索系统 |
CN106815600A (zh) * | 2016-12-27 | 2017-06-09 | 浙江工业大学 | 用于人类行为识别的深度联合结构化和结构化学习方法 |
CN107679525A (zh) * | 2017-11-01 | 2018-02-09 | 腾讯科技(深圳)有限公司 | 图像分类方法、装置及计算机可读存储介质 |
CN108229288A (zh) * | 2017-06-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络训练及衣服颜色检测方法、装置、存储介质、电子设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8068676B2 (en) * | 2007-11-07 | 2011-11-29 | Palo Alto Research Center Incorporated | Intelligent fashion exploration based on clothes recognition |
-
2019
- 2019-07-22 CN CN201910659707.6A patent/CN110598523B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106250431A (zh) * | 2016-07-25 | 2016-12-21 | 华南师范大学 | 一种基于分类服装的颜色特征提取方法及服装检索系统 |
CN106815600A (zh) * | 2016-12-27 | 2017-06-09 | 浙江工业大学 | 用于人类行为识别的深度联合结构化和结构化学习方法 |
CN108229288A (zh) * | 2017-06-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络训练及衣服颜色检测方法、装置、存储介质、电子设备 |
CN107679525A (zh) * | 2017-11-01 | 2018-02-09 | 腾讯科技(深圳)有限公司 | 图像分类方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110598523A (zh) | 2019-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110111340B (zh) | 基于多路割的弱监督实例分割方法 | |
CN108846358B (zh) | 一种基于孪生网络进行特征融合的目标跟踪方法 | |
CN106997597B (zh) | 一种基于有监督显著性检测的目标跟踪方法 | |
CN105809672B (zh) | 一种基于超像素和结构化约束的图像多目标协同分割方法 | |
CN106340016B (zh) | 一种基于细胞显微镜图像的dna定量分析方法 | |
CN109871875B (zh) | 一种基于深度学习的建筑物变化检测方法 | |
CN109829449A (zh) | 一种基于超像素时空上下文的rgb-d室内场景标注方法 | |
CN110033007A (zh) | 基于深度姿态预估和多特征融合的行人衣着属性识别方法 | |
CN112800770B (zh) | 一种基于异构图注意力网络的实体对齐方法 | |
CN113052184B (zh) | 一种基于两阶段局部特征对齐的目标检测方法 | |
CN113362341B (zh) | 基于超像素结构约束的空地红外目标跟踪数据集标注方法 | |
CN110598523B (zh) | 一种服装图片的联合颜色分类与分组方法 | |
CN114548256A (zh) | 一种基于对比学习的小样本珍稀鸟类识别方法 | |
CN113283282A (zh) | 一种基于时域语义特征的弱监督时序动作检测方法 | |
CN111462132A (zh) | 一种基于深度学习的视频物体分割方法及系统 | |
Lonij et al. | Open-world visual recognition using knowledge graphs | |
CN115761240B (zh) | 一种混沌反向传播图神经网络的图像语义分割方法及装置 | |
CN112036541B (zh) | 一种基于遗传算法优化神经网络的织物疵点检测方法 | |
CN111563874B (zh) | 骨龄评测方法和装置 | |
CN114913368A (zh) | 基于自步双向对抗学习的融合遥感图像分类方法 | |
CN111461265A (zh) | 基于粗-细粒度多图多标签学习的场景图像标注方法 | |
Mercovich et al. | Utilizing the graph modularity to blind cluster multispectral satellite imagery | |
CN113657394A (zh) | 基于马尔可夫随机场和证据理论的遥感图像分割方法 | |
CN112801179A (zh) | 面向跨领域复杂视觉任务的孪生分类器确定性最大化方法 | |
Awwad et al. | Self-supervised deep learning for vehicle detection in high-resolution satellite imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |